JP3277419B2 - Apparatus and method for detecting motion vector - Google Patents

Apparatus and method for detecting motion vector

Info

Publication number
JP3277419B2
JP3277419B2 JP24881593A JP24881593A JP3277419B2 JP 3277419 B2 JP3277419 B2 JP 3277419B2 JP 24881593 A JP24881593 A JP 24881593A JP 24881593 A JP24881593 A JP 24881593A JP 3277419 B2 JP3277419 B2 JP 3277419B2
Authority
JP
Japan
Prior art keywords
block
image data
component
motion vector
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP24881593A
Other languages
Japanese (ja)
Other versions
JPH0787499A (en
Inventor
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP24881593A priority Critical patent/JP3277419B2/en
Priority to EP94306594A priority patent/EP0643538B1/en
Priority to DE69417127T priority patent/DE69417127T2/en
Priority to CN94113730A priority patent/CN1075322C/en
Priority to KR1019940022685A priority patent/KR100303107B1/en
Publication of JPH0787499A publication Critical patent/JPH0787499A/en
Priority to US08/735,319 priority patent/US6266371B1/en
Application granted granted Critical
Publication of JP3277419B2 publication Critical patent/JP3277419B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、ブロックマッチング
法により画像の動きの方向および量を表す動きベクトル
を検出するための装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for detecting a motion vector representing the direction and amount of motion of an image by a block matching method.

【0002】[0002]

【従来の技術】動きベクトルの一つの利用分野は、ディ
ジタル画像データの予測符号化における動き補償であ
る。一例として、動画の高能率符号化の国際的標準方式
である、MPEG(Moving Picture Coding Experts Gro
up) 方式が提案されている。このMPEG方式は、DC
T(Discrete Cosine Transform) と動き補償予測符号化
とを組み合わせたものである。
2. Description of the Related Art One application of motion vectors is in motion compensation in predictive coding of digital image data. As an example, MPEG (Moving Picture Coding Experts Groove), an international standard for efficient coding of moving images, is used.
up) A method has been proposed. This MPEG method uses DC
This is a combination of T (Discrete Cosine Transform) and motion compensation prediction coding.

【0003】図8は、動き補償予測符号化装置の一例を
示す。図8において、入力端子61からのディジタルビ
デオデータが動きベクトル検出回路62および減算回路
63に供給される。動きベクトル検出回路63では、現
フレームと参照フレーム(例えば時間的に前フレーム)
との間の動きベクトルが検出される。この動きベクトル
が動き補償回路64に供給される。
FIG. 8 shows an example of a motion compensation predictive coding apparatus. 8, digital video data from an input terminal 61 is supplied to a motion vector detection circuit 62 and a subtraction circuit 63. In the motion vector detection circuit 63, the current frame and the reference frame (for example, a temporally previous frame)
Is detected. This motion vector is supplied to the motion compensation circuit 64.

【0004】フレームメモリ65に蓄えられている画像
が動き補償回路64において動きベクトルに基づいて動
き補償された後に、減算回路63および加算回路66に
供給される。減算回路63では、現フレームのビデオデ
ータと動き補償回路64からの前フレームの復号ビデオ
データとが画素毎に減算される。減算回路63からの差
分データがDCT回路67においてDCT変換される。
DCT回路67からの係数データが量子化回路68によ
り再量子化される。量子化回路68の出力データが出力
端子69に取り出されるとともに、逆量子化回路70に
供給される。
[0004] After the image stored in the frame memory 65 is motion-compensated by the motion compensation circuit 64 based on the motion vector, it is supplied to a subtraction circuit 63 and an addition circuit 66. The subtraction circuit 63 subtracts the video data of the current frame and the decoded video data of the previous frame from the motion compensation circuit 64 for each pixel. The difference data from the subtraction circuit 63 is DCT-transformed by the DCT circuit 67.
The coefficient data from the DCT circuit 67 is requantized by the quantization circuit 68. Output data of the quantization circuit 68 is taken out to an output terminal 69 and supplied to an inverse quantization circuit 70.

【0005】逆量子化回路70とこれに接続された逆D
CT回路71とは、DCT回路67および量子化回路6
8と反対の処理を行うためのローカル復号回路を構成す
る。逆DCT回路71からの復号差分データが加算回路
66に供給される。加算回路66の出力データがフレー
ムメモリ65を介して動き補償回路64に供給される。
動き補償回路64からの前フレームの復号データが加算
回路66に供給されることで、復号データが形成され、
この復号データがフレームメモリ65に蓄えられる。
The inverse quantization circuit 70 and the inverse D connected thereto
The CT circuit 71 includes a DCT circuit 67 and a quantization circuit 6
A local decoding circuit for performing a process opposite to that of FIG. The decoded difference data from the inverse DCT circuit 71 is supplied to the adding circuit 66. The output data of the adding circuit 66 is supplied to the motion compensation circuit 64 via the frame memory 65.
The decoded data of the previous frame from the motion compensation circuit 64 is supplied to the addition circuit 66, thereby forming decoded data.
This decoded data is stored in the frame memory 65.

【0006】動きベクトル検出回路62では、ブロック
マッチング法により動きベクトルが検出される。これ
は、参照フレームの検査ブロックを所定の探索範囲内で
移動し、現フレームの基準ブロックと最も合致している
ブロックを検出することにより動きベクトルを求めるも
のである。
The motion vector detection circuit 62 detects a motion vector by a block matching method. In this method, a motion vector is obtained by moving an inspection block of a reference frame within a predetermined search range and detecting a block that most closely matches a reference block of the current frame.

【0007】ブロックマッチング法では、図9Aに示す
ように、1枚の画像、例えば水平H画素、垂直Vライン
の1フレームの画像が図9Bに示すように、P画素×Q
ラインのブロックに細分化される。図9Bの例では、P
=5、Q=5の例である。cがブロックの中心画素位置
である。
In the block matching method, as shown in FIG. 9A, one image, for example, an image of one frame of horizontal H pixels and vertical V lines is composed of P pixels × Q as shown in FIG. 9B.
Subdivided into blocks of lines. In the example of FIG. 9B, P
= 5, Q = 5. c is the center pixel position of the block.

【0008】図10は、cを中心画素とする基準ブロッ
クとc´を中心とする検査ブロックの位置関係を示して
いる。cを中心画素とする基準ブロックは、現フレーム
の注目しているある基準ブロックであり、その画像と一
致する参照フレームの検査ブロックが参照フレームにお
いてc´を中心とするブロックの位置にあるものとして
いる。ブロックマッチング法では、探索範囲内におい
て、基準ブロックと最も合致する検査ブロックを見出す
ことによって、動きベクトルを検出する。図10Aの場
合では、水平方向に+1画素、垂直方向に+1ライン、
すなわち、(+1,+1)の動きベクトルが検出され
る。図10Bでは、(+3,+3)の動きベクトルが検
出され、図10Cでは、(+2,−1)の動きベクトル
が検出される。動きベクトルは、現フレームの基準ブロ
ック毎に求められる。
FIG. 10 shows the positional relationship between a reference block whose center is c and an inspection block whose center is c '. The reference block whose center pixel is c is a certain reference block of interest in the current frame, and it is assumed that the inspection block of the reference frame that matches the image is located at the position of the block centered on c ′ in the reference frame. I have. In the block matching method, a motion vector is detected by finding an inspection block that best matches a reference block within a search range. In the case of FIG. 10A, +1 pixel in the horizontal direction, +1 line in the vertical direction,
That is, a motion vector of (+1, +1) is detected. In FIG. 10B, a (+3, +3) motion vector is detected, and in FIG. 10C, a (+2, -1) motion vector is detected. The motion vector is obtained for each reference block of the current frame.

【0009】動きベクトルを探索する範囲を水平方向で
±S画素、垂直方向で±Tラインとすると、基準ブロッ
クは、その中心cに対して、水平に±S、垂直に±Tず
れたところに中心c´を有する検査ブロックと比較され
る必要がある。図11は、現フレームのある基準ブロッ
クの中心cの位置をRとする時に、比較すべき参照フレ
ームの(2S+1)×(2T+1)個の検査ブロックと
の比較が必要なことを示している。すなわち、この図1
1のます目の位置にc´が存在する検査ブロックの全て
が比較対象である。図11は、S=4,T=3とした例
である。探索範囲内の比較で得られた評価値(すなわ
ち、フレーム差の絶対値和、このフレーム差の二乗和、
あるいはフレーム差の絶対値のn乗和)の中で、最小値
を検出することによって、動きベクトルが検出される。
図11の探索範囲は、検査ブロックの中心が位置する領
域であり、検査ブロックの全体が含まれる探索範囲の大
きさは、(2S+P)×(2T+Q)となる。
Assuming that the range for searching for a motion vector is ± S pixels in the horizontal direction and ± T lines in the vertical direction, the reference block is shifted ± S horizontally and ± T vertically from its center c. It needs to be compared to a test block with center c '. FIG. 11 shows that when the position of the center c of a certain reference block of the current frame is R, comparison with (2S + 1) × (2T + 1) check blocks of a reference frame to be compared is necessary. That is, FIG.
All the test blocks in which c 'is present at the position of the first square are comparison targets. FIG. 11 is an example in which S = 4 and T = 3. Evaluation values obtained by comparison within the search range (ie, sum of absolute values of frame differences, sum of squares of the frame differences,
Alternatively, the motion vector is detected by detecting the minimum value among the sums of the absolute values of the frame differences.
The search range in FIG. 11 is an area where the center of the test block is located, and the size of the search range including the entire test block is (2S + P) × (2T + Q).

【0010】図12は、従来の動きベクトル検出装置の
一例の構成を示す。図12において、81が現フレーム
の画像データの入力端子であり、この画像データが現フ
レームメモリ83に蓄えられる。82が参照フレームの
画像データの入力端子であり、この画像データが参照フ
レームメモリ84に蓄えられる。
FIG. 12 shows an example of the configuration of a conventional motion vector detecting device. In FIG. 12, reference numeral 81 denotes an input terminal for image data of the current frame, and this image data is stored in the current frame memory 83. Reference numeral 82 denotes an input terminal for image data of a reference frame, and this image data is stored in a reference frame memory 84.

【0011】現フレームメモリ83および参照フレーム
メモリ84の読出し/書込みは、コントローラ85によ
って制御される。現フレームメモリ83からは、現フレ
ームの基準ブロックの画素データが読出され、参照フレ
ームメモリ84からは、参照フレームの検査ブロックの
画素データが読出される。参照フレームメモリ84と関
連してアドレス移動回路86が設けられる。コントロー
ラ85がアドレス移動回路86を制御する結果、検査ブ
ロックの中心位置が1画素ステップで、探索範囲内を移
動される。
The reading / writing of the current frame memory 83 and the reference frame memory 84 is controlled by a controller 85. From the current frame memory 83, the pixel data of the reference block of the current frame is read, and from the reference frame memory 84, the pixel data of the inspection block of the reference frame is read. An address moving circuit 86 is provided in association with the reference frame memory 84. As a result of the controller 85 controlling the address moving circuit 86, the center position of the test block is moved within the search range in one-pixel steps.

【0012】現フレームメモリ83の出力と参照フレー
ムメモリ84の出力とが差分検出回路87に供給され、
1画素毎の差分が検出される。差分検出回路87の出力
が絶対値化回路88で絶対値に変換され、この絶対値が
累算回路89に供給される。累算回路89が1ブロック
で発生した絶対値差分を累算し、その出力が判断回路9
0に供給される。判断回路90は、探索範囲内で検査ブ
ロックを移動させた時にそれぞれ発生する差分の絶対値
和から動きベクトルを検出する。すなわち、最小の差分
の絶対値和を発生する検査ブロックの位置を動きベクト
ルとして検出する。
The output of the current frame memory 83 and the output of the reference frame memory 84 are supplied to a difference detection circuit 87,
A difference for each pixel is detected. The output of the difference detection circuit 87 is converted into an absolute value by an absolute value conversion circuit 88, and this absolute value is supplied to an accumulation circuit 89. An accumulating circuit 89 accumulates the absolute value difference generated in one block, and its output is determined by a judging circuit 9.
0 is supplied. The determination circuit 90 detects a motion vector from the sum of absolute values of differences generated when the inspection block is moved within the search range. That is, the position of the test block that generates the absolute value sum of the minimum difference is detected as a motion vector.

【0013】上述の従来のブロックマッチング法は、基
準ブロックと検査ブロックとの間でフレーム差分の絶対
値和を求める処理を探索範囲内で行う必要がある。上述
の図9、図10、図11の例では、(P×Q)回の絶対
値差分の累算を(2S+1)×(2T+1)回行う必要
がある。この関係から、演算量は、(P×Q)×(2S
+1)×(2T+1)で表される。従って、上述のブロ
ックマッチング法は、ハードウエアの規模が大きく、演
算量が膨大であるという問題点があった。
In the above-described conventional block matching method, it is necessary to perform a process for obtaining the sum of absolute values of frame differences between a reference block and an inspection block within a search range. In the examples of FIGS. 9, 10 and 11, it is necessary to accumulate (P × Q) absolute value differences (2S + 1) × (2T + 1) times. From this relationship, the calculation amount is (P × Q) × (2S
+1) × (2T + 1). Therefore, the above-described block matching method has a problem that the scale of hardware is large and the amount of calculation is enormous.

【0014】この対策として、二種類の方法が提案され
ている。その一つは、ブロックの要素数を減少させる手
法であり、他のものは、探索を簡略化する手法である。
要素の数を減少させる方法としては、基準ブロックおよ
び検査ブロックをそれぞれ水平方向および垂直方向のそ
れぞれの方向で小ブロックに更に分割し、小ブロック毎
に特徴量を抽出するものが提案されている。すなわち、
基準ブロックおよび検査ブロックの間で、水平方向小ブ
ロックの特徴量と垂直方向小ブロック特徴量とを別個に
比較し、比較結果の絶対値をそれぞれ累算し、累算結果
を加重平均したものをブロック間の比較結果として用い
る。小ブロックの特徴量は、例えばその小ブロック内の
画素データの累算結果である。この方法は、1ブロック
内の全画素数に関して必要とされた演算を水平および垂
直方向の小ブロックの数に減少することができる。
As a countermeasure, two types of methods have been proposed. One is a technique for reducing the number of elements in a block, and the other is a technique for simplifying a search.
As a method of reducing the number of elements, a method has been proposed in which a reference block and an inspection block are further divided into small blocks in each of the horizontal direction and the vertical direction, and a feature amount is extracted for each small block. That is,
The feature value of the horizontal small block and the feature value of the vertical small block are separately compared between the reference block and the inspection block, the absolute values of the comparison results are respectively accumulated, and the weighted average of the accumulation results is calculated. Used as a comparison result between blocks. The feature amount of a small block is, for example, an accumulation result of pixel data in the small block. This method can reduce the operations required for the total number of pixels in one block to the number of small blocks in the horizontal and vertical directions.

【0015】探索を簡略化する方法としては、探索範囲
で検査ブロックを移動する時に、最初のステップとし
て、数画素の間隔で検査ブロックを移動させることによ
って、大まかな動きベクトルを検出し、次のステップ
で、検出された位置の付近で、1画素間隔で検査ブロッ
クを移動させることによって、最終的に動きベクトルを
求める方法(2ステップ法)が知られている。ステップ
数を3とした3ステップ法も考えられる。この方法によ
れば、フルサーチで必要とされた、探索範囲内の全画素
数と対応する演算回数を各ステップで検出された動きベ
クトルの周辺の画素数と対応する回数へ減少させること
ができる。
As a method of simplifying the search, when the inspection block is moved within the search range, the first step is to move the inspection block at intervals of several pixels, thereby detecting a rough motion vector, and There is known a method (two-step method) of finally obtaining a motion vector by moving an inspection block at intervals of one pixel in the vicinity of a detected position in a step. A three-step method with three steps is also conceivable. According to this method, the number of calculations corresponding to the total number of pixels in the search range required for the full search can be reduced to the number of times corresponding to the number of pixels around the motion vector detected in each step. .

【0016】さらに、要素数の減少と探索の簡略化との
両者を意図した動きベクトル検出方法として、階層構造
を採用するものが提案されている。その一つは、間引き
法と呼ぶことができるものである。つまり、ブロック内
の画素数をサブサンプリングによって間引き(例えば4
画素を1画素に間引き)、その間引かれた結果の画素で
構成されるブロックに関してブロックマッチングを行な
い、次に、検出された最小値の位置に原点を移動し、例
えば2画素を1画素に間引いたブロック構造に関してブ
ロックマッチングを行ない、検出された最小値の位置に
原点を移動し、最終的に1画素ステップのブロックマッ
チングで動きベクトルを検出する。間引きの結果、ブロ
ック内の要素数と探索範囲での演算回数との両者が減少
する。
Furthermore, a method employing a hierarchical structure has been proposed as a motion vector detection method intended to both reduce the number of elements and simplify search. One of them can be called a thinning method. That is, the number of pixels in the block is thinned out by subsampling (for example, 4
Pixel is thinned to one pixel), block matching is performed on a block composed of the pixels resulting from the thinning, and then the origin is moved to the position of the detected minimum value, for example, two pixels are thinned to one pixel. Block matching is performed on the block structure thus obtained, the origin is moved to the position of the detected minimum value, and finally a motion vector is detected by one pixel step block matching. As a result of the thinning, both the number of elements in the block and the number of operations in the search range are reduced.

【0017】要素数の減少と探索の簡略化との両者を意
図する他のものとして、ローパスフィルタを使用するも
のがある。原画像(第1階層と称する)と、第1階層か
らローパスフィルタおよびサブサンプリングによって、
水平および垂直方向で画素数が1/2に間引かれた第2
階層と、さらに、第2階層をローパスフィルタおよびサ
ブサンプリングによって、水平および垂直方向で1/2
に間引いた第3階層とからなる階層構造を規定する。そ
して、第3階層に関してブロックマッチングを行ない、
検出された最小値の位置に原点を移動して第2階層に関
してブロックマッチングを行ない、検出された最小値の
位置に原点を移動して、第1階層に関してブロックマッ
チングを行う。
Another use of a low-pass filter is to both reduce the number of elements and simplify the search. From the original image (referred to as the first layer) and the low-pass filter and sub-sampling from the first layer,
The second in which the number of pixels is thinned in half in the horizontal and vertical directions
Layer and the second layer by a low-pass filter and sub-sampling by half in the horizontal and vertical directions.
Is defined as a third-layer structure thinned out. Then, block matching is performed on the third hierarchy,
The origin is moved to the position of the detected minimum value to perform block matching on the second hierarchy, and the origin is moved to the position of the detected minimum value to perform block matching on the first hierarchy.

【0018】[0018]

【発明が解決しようとする課題】ブロックマッチングの
上述したような種々の改良は、演算量を減少させること
はできるが、動きベクトルの誤検出が生じる欠点を有し
ている。これは、簡略化の結果として、原画像の有する
情報量の欠落が生じるからである。
The above-described various improvements in block matching can reduce the amount of computation, but have the disadvantage of causing erroneous detection of motion vectors. This is because the simplification results in a loss of the information amount of the original image.

【0019】より具体的に述べると、ブロック内の要素
数を減らす方法では、小ブロックの特徴量は、小ブロッ
クの画像データをローパスフィルタを通したものであ
る。探索を簡略化する方法では、大まかな動きベクトル
を検出する時に、精度が粗いために、誤検出するおそれ
が生じる。要素数の減少および探索の簡略化を行う方法
では、やはり、間引かれた画像あるいはローパスフィル
タを通した画像に基づいて動きベクトルの検出する時
に、誤った検出のおそれがある。
More specifically, in the method of reducing the number of elements in a block, the feature amount of the small block is obtained by passing the image data of the small block through a low-pass filter. In the method of simplifying the search, when a rough motion vector is detected, there is a risk of erroneous detection due to low accuracy. In the method of reducing the number of elements and simplifying the search, erroneous detection may occur when a motion vector is detected based on a thinned image or an image passed through a low-pass filter.

【0020】従って、この発明の目的は、演算量を減少
でき、ハードウエアが簡単な特徴を備えているのみなら
す、誤検出が防止された動きベクトル検出装置および検
出方法を提供することにある。
Accordingly, it is an object of the present invention to provide a motion vector detecting apparatus and a detecting method in which an erroneous detection is prevented, in which the amount of calculation can be reduced and the hardware has only simple features.

【0021】この発明は、ブロックマッチングにより動
きベクトルを正しく検出するためには、画像のアクティ
ビィティーが必要であることに着目している。アクティ
ビィティーとは、レベル変化の大小、または高域周波数
成分の量を意味する。従来の簡略化の手法は、アクティ
ビィティーを失わせる結果をもたらし、アクティビィテ
ィーが失われた画像に基づいたブロックマッチングを行
うことによって誤検出の問題を生じていたのである。こ
の点について、理解の容易のために具体的数値を使用し
て以下に説明する。
The present invention focuses on the necessity of image activity in order to correctly detect a motion vector by block matching. The activity means a level change or an amount of a high frequency component. The conventional simplification technique has resulted in a loss of activity, and has caused a problem of false detection by performing block matching based on the image with lost activity. This point will be described below using specific numerical values for easy understanding.

【0022】図3Aは、(8×8)画素の領域に含まれ
る画素の値の一例である。この値は、8ビットの各画素
のレベル(0〜255)を表している。ここで、(2×
2=4画素)の領域毎に、定常成分特徴量としての平均
値を計算した結果を図3Bに示し、この領域毎に過渡成
分特徴量としての標準偏差を計算した結果を図3Cに示
す。図3Bにおいて、平均値を見た時に、隣接する平均
値である、「164」および「163」は、極めて近い
値である。しかしながら、それぞれと対応する標準偏差
は、図3Cに示すように、「0.5」および「7」とな
り、大きく相違している。これは、レベル変化の程度が
二つの(2×2)の領域で相違しているからである。
FIG. 3A shows an example of pixel values included in an (8 × 8) pixel area. This value indicates the level (0 to 255) of each pixel of 8 bits. Here, (2 ×
FIG. 3B shows the result of calculating the average value as the steady component feature value for each region of 2 = 4 pixels), and FIG. 3C shows the result of calculating the standard deviation as the transient component feature value for each region. In FIG. 3B, when looking at the average value, adjacent average values “164” and “163” are extremely close values. However, as shown in FIG. 3C, the corresponding standard deviations are “0.5” and “7”, which are greatly different. This is because the degree of the level change is different between the two (2 × 2) areas.

【0023】次に、図3Aの最も左側の一列を取り除
き、その最も右側に新たに一列を追加した(8×8)の
領域を図4Aに示す。この領域に関して、上述と同様
に、平均値を計算した結果を図4Bに示し、標準偏差を
計算した結果を図4Cに示す。この図4Bおよび図4C
においても、上述の「164」および「163」と対応
する位置の平均値が「164」および「162」であ
り、標準偏差が「2」および「10.8」である。この
例でも、標準偏差の相違が平均値のものに比して大きい
ことが分かる。
Next, FIG. 4A shows a (8 × 8) region in which the leftmost column in FIG. 3A is removed and a new column is added to the rightmost column. For this region, the result of calculating the average value is shown in FIG. 4B, and the result of calculating the standard deviation is shown in FIG. 4C, as described above. 4B and 4C
Also, the average values of the positions corresponding to “164” and “163” are “164” and “162”, and the standard deviations are “2” and “10.8”. Also in this example, it can be seen that the difference of the standard deviation is larger than that of the average value.

【0024】さらに、図5は、(16×16)画素の領
域のデータの一例である。(4×4)画素毎に平均値を
計算した結果を図6に示し、標準偏差を計算した結果を
図7に示す。図6および図7から分かるように、この例
でも、平均値が「145」と同じにもかかわらず、標準
偏差が「4.91」、「4.05」と異なっている。
FIG. 5 shows an example of data of a region of (16 × 16) pixels. FIG. 6 shows the result of calculating the average value for each (4 × 4) pixel, and FIG. 7 shows the result of calculating the standard deviation. As can be seen from FIGS. 6 and 7, also in this example, although the average value is the same as “145”, the standard deviation is different from “4.91” and “4.05”.

【0025】このように、(2×2)あるいは(4×
4)の画像の局所的特徴は、定常成分特徴量のみでは、
充分に表すことができず、過渡成分特徴量をも加味して
はじめて正確に表すことができる。ブロックマッチング
法は、基準ブロックと検査ブロックとの間で画像の合致
している程度を調べるものであるから、この発明のよう
に、ブロックの特徴量として過渡成分をも含めることが
理に適っている。
Thus, (2 × 2) or (4 ×
The local feature of the image of 4) can be obtained by using only the stationary component feature amount.
It cannot be sufficiently expressed, and can be accurately expressed only by taking into account the transient component feature amount. Since the block matching method is to check the degree of matching of an image between a reference block and an inspection block, it is reasonable to include a transient component as a feature value of the block as in the present invention. I have.

【0026】[0026]

【課題を解決するための手段】請求項1に記載の発明
は、第1の画像データから基準ブロックを分割してなる
第1のブロックの画像データを取り出すための手段と、
第1のブロックの画像データからその第1のブロックの
定常成分を示す第1の定常成分特徴量と過渡成分を示す
第1の過渡成分特徴量を抽出するための手段と、第2の
画像データから検査ブロックを分割してなる第2のブロ
ックの画像データを取り出すための手段と、第2のブロ
ックの画像データからその第2のブロックの定常成分を
示す第2の定常成分特徴量と過渡成分を示す第2の過渡
成分特徴量を抽出するための手段と、第1および第2の
定常成分特徴量の比較結果と第1および第2の過渡成分
特徴量の比較結果とから、基準ブロックと検査ブロック
の合致度を示す評価値を生成するための手段と、所定の
探索範囲内で検査ブロックを移動することで生成された
評価値に基づいて、基準ブロックと最も合致する検査ブ
ロックの位置と対応する動きベクトルを検出するための
手段とを有することを特徴とする動きベクトル検出装置
である。
According to a first aspect of the present invention, there is provided means for extracting image data of a first block obtained by dividing a reference block from first image data;
Means for extracting, from the image data of the first block, a first steady-state component feature amount indicating a steady-state component of the first block and a first transient component feature amount indicating a transient component, and second image data Means for extracting image data of a second block obtained by dividing an inspection block from a second block, and a second steady-state feature value and a transient component indicating a steady-state component of the second block from the image data of the second block Means for extracting a second transient component feature amount indicating the reference block and a comparison result of the first and second stationary component feature amounts and a comparison result of the first and second transient component feature amounts. Means for generating an evaluation value indicating the degree of coincidence of the inspection block; and a position of the inspection block that best matches the reference block, based on the evaluation value generated by moving the inspection block within a predetermined search range. versus A motion vector detecting apparatus characterized by having a means for detecting a motion vector.

【0027】請求項5に記載の発明は、第1の画像デー
タから基準ブロックを分割してなる第1のブロックの画
像データを取り出すステップと、第1のブロックの画像
データからその第1のブロックの定常成分を示す第1の
定常成分特徴量と過渡成分を示す第1の過渡成分特徴量
を抽出するステップと、第2の画像データから検査ブロ
ックを分割してなる第2のブロックの画像データを取り
出すステップと、第2のブロックの画像データからその
第2のブロックの定常成分を示す第2の定常成分特徴量
と過渡成分を示す第2の過渡成分特徴量を抽出するステ
ップと、第1および第2の定常成分特徴量の比較結果と
第1および第2の過渡成分特徴量の比較結果とから、基
準ブロックと検査ブロックの合致度を示す評価値を生成
するステップと、所定の探索範囲内で検査ブロックを移
動することで生成された評価値に基づいて、基準ブロッ
クと最も合致する検査ブロックの位置と対応する動きベ
クトルを検出するステップとからなることを特徴とする
動きベクトル検出方法である。
According to a fifth aspect of the present invention, a step of extracting image data of a first block obtained by dividing a reference block from the first image data, and a step of extracting the first block from the image data of the first block Extracting a first steady-state component feature amount indicating a steady-state component and a first transient component feature amount indicating a transient component, and image data of a second block obtained by dividing an inspection block from the second image data And extracting a second steady-state component feature amount indicating a steady-state component of the second block and a second transient component feature amount indicating a transient component from the image data of the second block. Generating an evaluation value indicating the degree of coincidence between the reference block and the inspection block from the comparison result of the second stationary component feature amount and the comparison result of the first and second transient component feature amounts; Detecting a motion vector corresponding to the position of the test block that most closely matches the reference block based on the evaluation value generated by moving the test block within the fixed search range. This is a vector detection method.

【0028】[0028]

【作用】動き検出対象のブロックをさらに小ブロックに
分割し、小ブロック毎に特徴量として、定常成分および
過渡成分の双方を求める。そして、基準ブロックの小ブ
ロックおよび参照ブロックの小ブロック間で、定常成分
特徴量および過渡成分特徴量をそれぞれ比較し、比較結
果に基づいて動きベクトルを検出する。過渡成分も見て
いることにより、誤った検出を防止することができる。
また、演算量を大幅に減少できる。
The motion detection target block is further divided into small blocks, and both a steady component and a transient component are obtained as a feature amount for each small block. Then, the stationary component characteristic amount and the transient component characteristic amount are compared between the small block of the reference block and the small block of the reference block, and a motion vector is detected based on the comparison result. By also seeing the transient component, erroneous detection can be prevented.
Further, the amount of calculation can be greatly reduced.

【0029】[0029]

【実施例】以下、この発明の一実施例について図面を参
照して説明する。図1は、一実施例のブロック図であ
り、図1において、1が現フレームの画像データの入力
端子、2が参照フレームの画像データの入力端子、3が
現フレームの画像データを蓄える現フレームメモリ、4
が参照フレームの画像データを蓄える参照フレームメモ
リである。現フレームメモリ3および参照フレームの書
込み/読出し動作がコントローラ5により制御される。
さらに、参照フレームメモリ4と関連して設けられたア
ドレス移動回路6がコントローラ5によって、参照フレ
ーム内で検査ブロックが移動される。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of one embodiment. In FIG. 1, reference numeral 1 denotes an input terminal for image data of a current frame, reference numeral 2 denotes an input terminal for image data of a reference frame, and reference numeral 3 denotes a current frame for storing image data of the current frame. Memory, 4
Is a reference frame memory for storing image data of the reference frame. The write / read operation of the current frame memory 3 and the reference frame is controlled by the controller 5.
Further, an address moving circuit 6 provided in association with the reference frame memory 4 causes the controller 5 to move the inspection block in the reference frame.

【0030】現フレームメモリ3の出力に関して、小ブ
ロック化回路11aが接続される。この小ブロックは、
動きベクトル検出の対象の基準ブロックをさらに分割し
たものである。この小ブロック毎に画像の特徴量を抽出
するために、定常成分抽出回路7aおよび過渡成分抽出
回路8aが小ブロック化回路11aに対して接続され
る。
The output of the current frame memory 3 is connected to a small block circuit 11a. This small block
The reference block for motion vector detection is further divided. In order to extract the feature amount of the image for each small block, a steady component extracting circuit 7a and a transient component extracting circuit 8a are connected to the small block forming circuit 11a.

【0031】参照フレームメモリ4に対しても、小ブロ
ック化回路11b、定常成分抽出回路7b、過渡成分抽
出回路8bが接続される。ここで、定常成分とは、平均
値、低域周波数成分、直交変換で得られた係数の低次成
分、最大値、最小値等であり、過渡成分とは、標準偏
差、高域周波数成分、直交変換で得られた係数の高次成
分、ダイナミックレンジ、平均値に対する差分、平均値
に対する差分の最大値等を意味している。過渡成分によ
って、画像の局所的アクティビィティーの程度が示され
る。上述のように、従来のブロックマッチング法の簡略
化は、ブロックの特徴量として、定常成分のみを使用す
るものであった。
The reference frame memory 4 is also connected to a small block circuit 11b, a steady component extraction circuit 7b, and a transient component extraction circuit 8b. Here, the stationary component is an average value, a low-frequency component, a low-order component of a coefficient obtained by orthogonal transformation, a maximum value, a minimum value, and the like, and the transient component is a standard deviation, a high-frequency component, This means higher order components of coefficients obtained by orthogonal transformation, dynamic range, difference from the average value, maximum value of the difference from the average value, and the like. The transient component indicates the degree of local activity in the image. As described above, the simplification of the conventional block matching method is to use only the stationary component as the feature amount of the block.

【0032】ブロックマッチングの対象としては、上述
のような現フレームと参照フレーム(現フレームに対し
て時間的に前あるいは後のフレーム)に限られない。例
えば2枚の静止画像間で動きベクトルを検出する場合、
または解像度が異なる画像同士の間で動きベクトルを検
出する場合に対しても、この発明を適用することができ
る。
The target of block matching is not limited to the above-described current frame and reference frame (the frame temporally before or after the current frame). For example, when detecting a motion vector between two still images,
Alternatively, the present invention can be applied to a case where a motion vector is detected between images having different resolutions.

【0033】差分検出回路12aは、定常成分抽出回路
7aおよび7bからの差分値を検出する。差分検出回路
12bは、過渡成分抽出回路8aおよび8bからのの差
分値を検出する。差分検出回路12aおよび12bに対
してそれぞれ絶対値化回路14aおよび14bが接続さ
れる。絶対値化回路14a〜14eは、差分値を絶対値
に変換する。
The difference detection circuit 12a detects a difference value from the steady component extraction circuits 7a and 7b. The difference detection circuit 12b detects a difference value from the transient component extraction circuits 8a and 8b. Absolute value conversion circuits 14a and 14b are connected to difference detection circuits 12a and 12b, respectively. The absolute value conversion circuits 14a to 14e convert the difference values into absolute values.

【0034】絶対値化回路14a、14bに対して累算
回路16a、16bがそれぞれ接続され、累算回路16
a、16bの出力が加重平均化回路15に供給される。
加重平均化回路15に対しては、コントローラ5から重
み係数w1およびw2が供給される。加重平均化回路1
5からの評価値が判断回路18に供給される。判断回路
18は、探索範囲内で計算された評価値の中の最小値を
検出する。検出された最小の評価値の位置と対応する動
きベクトルが判断回路18から出力端子27に発生す
る。判断回路18に対する制御がコントローラ5により
なされ、判断回路18の判断結果がコントローラ5に与
えられる。
Accumulation circuits 16a and 16b are connected to the absolute value conversion circuits 14a and 14b, respectively.
The outputs of a and 16b are supplied to the weighted averaging circuit 15.
Weighting coefficients w1 and w2 are supplied from the controller 5 to the weighted averaging circuit 15. Weighted averaging circuit 1
The evaluation value from 5 is supplied to the judgment circuit 18. The judging circuit 18 detects the minimum value among the evaluation values calculated within the search range. A motion vector corresponding to the position of the detected minimum evaluation value is generated at the output terminal 27 from the judgment circuit 18. The control of the judgment circuit 18 is performed by the controller 5, and the judgment result of the judgment circuit 18 is given to the controller 5.

【0035】図2は、上述の一実施例のより具体的な構
成を示す。すなわち、定常成分抽出回路7a、7bとし
て、平均化回路31a、31bが設けられ、過渡成分抽
出回路8a、8bとして標準偏差(σ)生成回路32
a、32bが設けられている。差分検出回路12a、1
2bが減算器35a、35bで実現されている。
FIG. 2 shows a more specific configuration of the above-described embodiment. That is, averaging circuits 31a and 31b are provided as the stationary component extraction circuits 7a and 7b, and a standard deviation (σ) generation circuit 32 is used as the transient component extraction circuits 8a and 8b.
a and 32b are provided. Difference detection circuits 12a, 1
2b is realized by the subtracters 35a and 35b.

【0036】累算器16a、16bは、加算器38a、
38bおよびフィードバックループ内に挿入されたレジ
スタ39a、39bで構成される。加重平均化回路15
は、重み係数w1およびw2をそれぞれ乗じるための乗
算器36a、36bと乗算出力を加算する加算器37で
構成される。判断回路18は、加重平均データ、すなわ
ち、評価値を記憶するメモリ44とメモリ44に蓄えら
れた評価値の中の最小値を検出し、最小値の位置を動き
ベクトルとして出力するための最小値検出回路47とに
より構成される。判断回路18としては、メモリ44を
有しない構成も可能である。
The accumulators 16a, 16b are provided with adders 38a,
38b and registers 39a and 39b inserted in the feedback loop. Weighted averaging circuit 15
Is composed of multipliers 36a and 36b for multiplying weight coefficients w1 and w2, respectively, and an adder 37 for adding the multiplied outputs. The judging circuit 18 detects the weighted average data, that is, the memory 44 for storing the evaluation value and the minimum value among the evaluation values stored in the memory 44 and the minimum value for outputting the position of the minimum value as a motion vector. And a detection circuit 47. A configuration without the memory 44 is also possible as the determination circuit 18.

【0037】上述のこの発明の一実施例について、その
動きベクトルの検出動作について説明する。一例とし
て、動きベクトル検出対象ブロックの大きさを(16×
16)とする。小ブロック化は、このブロックを(4×
4)のサイズの4個の小ブロックへ分割する処理であ
る。(4×4)のブロック内の各画素データの値をx1
〜x16とする。
The operation of detecting the motion vector of the embodiment of the present invention will be described. As an example, the size of the motion vector detection target block is set to (16 ×
16). Smaller blocks are converted to (4 ×
This is a process of dividing into 4 small blocks of the size of 4). The value of each pixel data in the (4 × 4) block is x1
To x16.

【0038】平均化回路31aおよび標準偏差生成回路
32aは、下記のように、(4×4画素)の小ブロック
毎に計算された平均値mおよび標準偏差σを発生する。 m=(x1+x2+・・・・+x16)/16 σ={Σ(xi−m)2 ×1/16}1/2 但し、Σは、各画素の値からその小ブロックの平均値を
減算したものを(4×4)の16画素について集計する
ことを意味する。一つの基準ブロックに含まれる4個の
小ブロックについて上述のように求められた平均値をm
1〜m4とし、標準偏差をσ1〜σ4とする
The averaging circuit 31a and the standard deviation generating circuit 32a generate an average value m and a standard deviation σ calculated for each (4 × 4 pixel) small block, as described below. m = (x1 + x2 +... + x16) / 16 σ = {(xi-m) 2 × 1/16} 1/2 where Σ is the value obtained by subtracting the average value of the small block from the value of each pixel. Is calculated for 16 pixels of (4 × 4). The average value obtained as described above for the four small blocks included in one reference block is represented by m
1 to m4 and the standard deviation is σ1 to σ4

【0039】また、参照フレームの一つの検査ブロック
に関しても、平均値m1´〜m4´と、標準偏差σ1´
〜σ4´(´は、検査ブロックに関する平均値および標
準偏差を示す)が求められる。そして、減算器35aお
よび35bでは、対応する平均値の差分および標準偏差
の差分が計算され、差分値が絶対値回路14a、14b
を介して累算器に供給される。従って、加算器38aお
よびレジスタ39aからなる累算器からは、 Hm=|m1−m1´+m2−m2´+m3−m3´+m4−m4´| の平均値特徴量が出力される。また、加算器38bおよ
びレジスタ39bからなる累算器からは、 Hσ=|σ1−σ1´+σ2−σ2´+σ3−σ3´+σ4−σ4´| の標準偏差特徴量が出力される。
For one inspection block of the reference frame, the average values m1 'to m4' and the standard deviation σ1 '
~ Σ4 '(' indicates the average value and standard deviation for the inspection block). Then, in the subtracters 35a and 35b, the difference between the corresponding average value and the difference between the standard deviations are calculated, and the difference value is calculated by the absolute value circuits 14a and 14b.
Is supplied to the accumulator through. Accordingly, the accumulator including the adder 38a and the register 39a outputs an average value feature amount of Hm = | m1-m1 '+ m2-m2' + m3-m3 '+ m4-m4' |. The accumulator including the adder 38b and the register 39b outputs a standard deviation feature amount of Hσ = | σ1-σ1 ′ + σ2-σ2 ′ + σ3-σ3 ′ + σ4-σ4 ′ |.

【0040】基準ブロックの位置を(x,y)とし、検
査ブロックの位置を(x+Δx,y+Δy)(但し、Δ
xは、4画素ステップ、Δyは、4ラインステップで変
化する)とした時に、上述の特徴量を下式で表す。 Hm(Δx,Δy)=Σ|mi´(x+Δx,y+Δy)−mi(x,y)| Hσ(Δx,Δy)=Σ|σi´(x+Δx,y+Δy)−σi(x,y)|
The position of the reference block is (x, y), and the position of the inspection block is (x + Δx, y + Δy) (where Δ
(x changes in four pixel steps and Δy changes in four line steps), and the above-described feature amount is expressed by the following equation. Hm (Δx, Δy) = Σ | mi ′ (x + Δx, y + Δy) −mi (x, y) | Hσ (Δx, Δy) = Σ | σi ′ (x + Δx, y + Δy) −σi (x, y) |

【0041】乗算器36a、36bおよび加算器37か
らなる加重平均化回路では、上述の特徴量を加重平均し
た下記の評価値を発生する。 H(Δx,Δy)=w1×Hm(Δx,Δy)+w2×Hσ(Δx,Δy)
The weighted averaging circuit composed of the multipliers 36a and 36b and the adder 37 generates the following evaluation value obtained by weighting and averaging the above-mentioned feature amounts. H (Δx, Δy) = w1 × Hm (Δx, Δy) + w2 × Hσ (Δx, Δy)

【0042】ΔxおよびΔyを変化させた時、すなわ
ち、検査小ブロックを4画素ステップおよび4ラインス
テップでもって移動した時にそれぞれ得られる評価値が
メモリ44に蓄えられる。最小値検出回路47は、メモ
リ44に蓄えられている評価値の中の最小値を検出す
る。この最小値の位置と対応するΔx、Δyが検出され
た動きベクトルである。
Evaluation values obtained when Δx and Δy are changed, that is, when the inspection small block is moved by 4 pixel steps and 4 line steps, are stored in the memory 44. The minimum value detection circuit 47 detects the minimum value among the evaluation values stored in the memory 44. Δx and Δy corresponding to the position of the minimum value are detected motion vectors.

【0043】以上の実施例の説明から分かるように、ブ
ロック内の(16×16)画素が4個の小ブロック内の
平均値および標準偏差、すなわち、8個の要素へ減少す
る。また、探索も4画素ステップでなされるために、1
/16へ簡略化される。この双方の点から従来のフルサ
ーチと比較して、大幅に演算量を減少することができ
る。
As can be seen from the above description of the embodiment, the (16 × 16) pixels in the block are reduced to the average value and standard deviation in four small blocks, that is, eight elements. Also, since the search is also performed in 4-pixel steps, 1
/ 16. From these two points, the amount of calculation can be greatly reduced as compared with the conventional full search.

【0044】この発明の具体的構成は、上述の一実施例
および他の実施例の構成以外に種々のものが可能であ
る。例えばソフトウェア処理によって、評価値の作成、
動きベクトルの検出を行うようにしても良い。
Various specific configurations of the present invention are possible in addition to the configurations of the above-described embodiment and other embodiments. For example, creation of evaluation values by software processing,
A motion vector may be detected.

【0045】さらに、小ブロックの形成は、上述の例に
限られない。例えばブロックを水平および/または垂直
方向に等間隔で分割し、ストライプ形状の小ブロックを
形成しても良い。さらに、小ブロックがオーバラップす
るものでも良い。よりさらに、動きベクトルを求める時
に、動きベクトルの精度を1画素ではなく、ハーフペル
精度とするようにしても良い。
Further, the formation of the small blocks is not limited to the above example. For example, a block may be divided at equal intervals in the horizontal and / or vertical directions to form a striped small block. Furthermore, small blocks may overlap. Furthermore, when obtaining the motion vector, the accuracy of the motion vector may be set to half-pel accuracy instead of one pixel.

【0046】[0046]

【発明の効果】この発明は、小ブロック毎に特徴量を算
出し、ブロックサイズで探索することができるので、少
ない演算量で動きベクトルを検出することができる。特
に、この発明では、原画像データの定常成分のみなら
ず、過渡成分をも使用するので、誤検出のおそれを低減
することができる。
According to the present invention, since the feature amount can be calculated for each small block and the search can be performed using the block size, the motion vector can be detected with a small amount of calculation. In particular, according to the present invention, not only a steady component but also a transient component of the original image data is used, so that the possibility of erroneous detection can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】この発明の一実施例の構成をより具体的に示す
ブロック図である。
FIG. 2 is a block diagram more specifically showing the configuration of an embodiment of the present invention.

【図3】この発明の動きベクトル検出を画像データの一
例を用いて説明するための略線図である。
FIG. 3 is a schematic diagram for explaining the motion vector detection of the present invention using an example of image data.

【図4】この発明の動きベクトル検出を画像データの一
例を用いて説明するための略線図である。
FIG. 4 is a schematic diagram for explaining motion vector detection according to the present invention using an example of image data.

【図5】この発明の動きベクトル検出を画像データの他
の例を用いて説明するための略線図である。
FIG. 5 is a schematic diagram for explaining motion vector detection according to the present invention using another example of image data.

【図6】この発明の動きベクトル検出を画像データの他
の例を用いて説明するための略線図である。
FIG. 6 is a schematic diagram for explaining motion vector detection according to the present invention using another example of image data.

【図7】この発明の動きベクトル検出を画像データの他
の例を用いて説明するための略線図である。
FIG. 7 is a schematic diagram for explaining a motion vector detection of the present invention using another example of image data.

【図8】この発明を適用することができる動き補償予測
符号化装置の一例を示すブロック図である。
FIG. 8 is a block diagram illustrating an example of a motion-compensated prediction encoding apparatus to which the present invention can be applied.

【図9】従来のブロックマッチング法による動きベクト
ル検出方法の説明のための略線図である。
FIG. 9 is a schematic diagram for explaining a motion vector detection method using a conventional block matching method.

【図10】従来のブロックマッチング法による動きベク
トル検出方法の説明のための略線図である。
FIG. 10 is a schematic diagram for explaining a motion vector detection method using a conventional block matching method.

【図11】従来のブロックマッチング法による動きベク
トル検出方法における探索範囲の説明のための略線図で
ある。
FIG. 11 is a schematic diagram for explaining a search range in a conventional motion vector detection method using a block matching method.

【図12】従来のブロックマッチング法による動きベク
トル検出装置の一例のブロック図である。
FIG. 12 is a block diagram of an example of a motion vector detection device using a conventional block matching method.

【符号の説明】[Explanation of symbols]

3 現フレームメモリ 4 参照フレームメモリ 7a、7b 定常成分抽出回路 8a、8b 過渡成分抽出回路 16a、16b 差分の絶対値の累算回路 15 加重平均化回路 18 判断回路 3 Current frame memory 4 Reference frame memory 7a, 7b Steady-state component extraction circuit 8a, 8b Transient component extraction circuit 16a, 16b Accumulation circuit of absolute value of difference 15 Weighted averaging circuit 18 Judgment circuit

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 第1の画像データから基準ブロックを分
割してなる第1のブロックの画像データを取り出すため
の手段と、 上記第1のブロックの画像データからその第1のブロッ
クの定常成分を示す第1の定常成分特徴量と過渡成分を
示す第1の過渡成分特徴量を抽出するための手段と、 第2の画像データから検査ブロックを分割してなる第2
のブロックの画像データを取り出すための手段と、 上記第2のブロックの画像データからその第2のブロッ
クの定常成分を示す第2の定常成分特徴量と過渡成分を
示す第2の過渡成分特徴量を抽出するための手段と、 上記第1および第2の定常成分特徴量の比較結果と上記
第1および第2の過渡成分特徴量の比較結果とから、上
記基準ブロックと上記検査ブロックの合致度を示す評価
値を生成するための手段と、 所定の探索範囲内で上記検査ブロックを移動することで
生成された上記評価値に基づいて、上記基準ブロックと
最も合致する上記検査ブロックの位置と対応する動きベ
クトルを検出するための手段とを有することを特徴とす
る動きベクトル検出装置。
A means for extracting image data of a first block obtained by dividing a reference block from the first image data; and determining a stationary component of the first block from the image data of the first block. Means for extracting a first steady-state component characteristic amount shown and a first transient component characteristic amount showing a transient component, and a second part obtained by dividing an inspection block from the second image data.
Means for extracting the image data of the second block, a second steady-state component feature indicating the steady-state component of the second block and a second transient component feature indicating the transient component of the second block from the image data of the second block From the comparison result of the first and second steady-state component features and the comparison result of the first and second transient component features from the reference block and the inspection block. Means for generating an evaluation value indicating the position of the inspection block that best matches the reference block based on the evaluation value generated by moving the inspection block within a predetermined search range. Means for detecting a motion vector to be detected.
【請求項2】 請求項1に記載の動きベクトル検出装置
において、 上記第1および第2の定常成分特徴量は、ブロック内の
画素データの平均値、上記画素データの最大値あるいは
最小値、上記画素データの低域成分、または上記画素デ
ータの直交変換で形成された低次の成分である装置。
2. The motion vector detecting device according to claim 1, wherein the first and second stationary component feature amounts are an average value of pixel data in a block, a maximum value or a minimum value of the pixel data, A device which is a low-frequency component of pixel data or a low-order component formed by orthogonal transformation of the pixel data.
【請求項3】 請求項1に記載の動きベクトル検出装置
において、 上記第1および第2の過渡成分特徴量は、ブロック内の
画素データの標準偏差、上記画素データのダイナミック
レンジ、上記画素データの高域成分、または上記画素デ
ータの直交変換で形成された高次の成分である装置。
3. The motion vector detecting device according to claim 1, wherein the first and second transient component features are a standard deviation of pixel data in a block, a dynamic range of the pixel data, and a dynamic range of the pixel data. A device that is a high-frequency component or a higher-order component formed by orthogonal transformation of the pixel data.
【請求項4】 第1の画像データが記憶され、基準ブロ
ックを分割してなる第1のブロックの画像データを出力
するための第1のメモリと、 上記第1のブロックの画像データからその第1のブロッ
クの定常成分を示す第1の平均値と過渡成分を示す第1
の標準偏差を生成するための演算手段と、 第2の画像データが記憶され、検査ブロックを分割して
なる第2の画像データを出力するための第2のメモリ
と、 上記第2のブロックの画像データからその第2のブロッ
クの定常成分を示す第2の平均値と過渡成分を示す第2
の標準偏差とを生成するための演算手段と、 上記第1および第2の平均値の比較結果を累算した値と
上記第1および第2の標準偏差の比較結果を累算した値
とを加重平均することによって、上記基準ブロックと上
記検査ブロックの合致度を示す評価値を生成するための
手段と、 所定の探索範囲内で上記検査ブロックを移動した時に、
最小の上記評価値を発生する上記検査ブロックの位置と
対応する動きベクトルを検出するための手段とを有する
ことを特徴とする動きベクトル検出装置。
4. A first memory for storing first image data, for outputting image data of a first block obtained by dividing a reference block, and a first memory for outputting image data of the first block. A first average value indicating a stationary component and a first average value indicating a transient component of one block
A second memory for storing second image data and outputting second image data obtained by dividing the inspection block; and a second memory for storing the second image data. From the image data, a second average value indicating a stationary component of the second block and a second average value indicating a transient component of the second block
Calculating means for generating a standard deviation of the first and second average values, and a value obtained by accumulating the comparison result of the first and second average values and a value obtained by accumulating the comparison result of the first and second standard deviations. Means for generating an evaluation value indicating the degree of coincidence between the reference block and the inspection block by performing weighted averaging; and when the inspection block is moved within a predetermined search range,
Means for detecting a motion vector corresponding to the position of the test block that generates the minimum evaluation value.
【請求項5】 第1の画像データから基準ブロックを分
割してなる第1のブロックの画像データを取り出すステ
ップと、 上記第1のブロックの画像データからその第1のブロッ
クの定常成分を示す第1の定常成分特徴量と過渡成分を
示す第1の過渡成分特徴量を抽出するステップと、 第2の画像データから検査ブロックを分割してなる第2
のブロックの画像データを取り出すステップと、 上記第2のブロックの画像データからその第2のブロッ
クの定常成分を示す第2の定常成分特徴量と過渡成分を
示す第2の過渡成分特徴量を抽出するステップと、 上記第1および第2の定常成分特徴量の比較結果と上記
第1および第2の過渡成分特徴量の比較結果とから、上
記基準ブロックと上記検査ブロックの合致度を示す評価
値を生成するステップと、 所定の探索範囲内で上記検査ブロックを移動することで
生成された上記評価値に基づいて、上記基準ブロックと
最も合致する上記検査ブロックの位置と対応する動きベ
クトルを検出するステップとからなることを特徴とする
動きベクトル検出方法。
5. A step of extracting image data of a first block obtained by dividing a reference block from the first image data; and extracting a stationary component of the first block from the image data of the first block. Extracting a first transient component feature indicating a steady component feature and a transient component, and a second test block obtained by dividing an inspection block from the second image data.
Extracting the image data of the second block, and extracting the second stationary component characteristic amount indicating the stationary component of the second block and the second transient component characteristic amount indicating the transient component from the image data of the second block. An evaluation value indicating a degree of coincidence between the reference block and the inspection block from the comparison result of the first and second steady-state component feature amounts and the comparison result of the first and second transient component feature amounts. And detecting a motion vector corresponding to the position of the test block that best matches the reference block based on the evaluation value generated by moving the test block within a predetermined search range. And a step for detecting a motion vector.
JP24881593A 1993-09-09 1993-09-09 Apparatus and method for detecting motion vector Expired - Lifetime JP3277419B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP24881593A JP3277419B2 (en) 1993-09-09 1993-09-09 Apparatus and method for detecting motion vector
EP94306594A EP0643538B1 (en) 1993-09-09 1994-09-08 Motion vector detecting apparatus and method
DE69417127T DE69417127T2 (en) 1993-09-09 1994-09-08 Device and method for detecting a motion vector
CN94113730A CN1075322C (en) 1993-09-09 1994-09-09 Motion vector detecting apparatus and method
KR1019940022685A KR100303107B1 (en) 1993-09-09 1994-09-09 Motion vector detection apparatus and method
US08/735,319 US6266371B1 (en) 1993-09-09 1996-10-25 Motion vector detecting apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24881593A JP3277419B2 (en) 1993-09-09 1993-09-09 Apparatus and method for detecting motion vector

Publications (2)

Publication Number Publication Date
JPH0787499A JPH0787499A (en) 1995-03-31
JP3277419B2 true JP3277419B2 (en) 2002-04-22

Family

ID=17183827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24881593A Expired - Lifetime JP3277419B2 (en) 1993-09-09 1993-09-09 Apparatus and method for detecting motion vector

Country Status (1)

Country Link
JP (1) JP3277419B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100964621B1 (en) * 2002-07-30 2010-06-21 소니 주식회사 Storage device, signal processor, and image signal processor, and their methods
KR101013130B1 (en) * 2002-07-30 2011-02-10 소니 주식회사 Storage device, signal processor, image signal processor, and their methods
ES2672109T3 (en) 2003-01-30 2018-06-12 Koninklijke Philips N.V. Video encoding
JP4696577B2 (en) * 2005-02-04 2011-06-08 ソニー株式会社 Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method
JP4697275B2 (en) * 2008-07-30 2011-06-08 ソニー株式会社 Motion vector detection apparatus, motion vector detection method, and program

Also Published As

Publication number Publication date
JPH0787499A (en) 1995-03-31

Similar Documents

Publication Publication Date Title
JP3277418B2 (en) Apparatus and method for detecting motion vector
US5610658A (en) Motion vector detection using hierarchical calculation
US7349583B2 (en) Global motion estimation image coding and processing
KR100486249B1 (en) Motion estimation apparatus and method for scanning a reference macroblock window in a search area
US9351014B2 (en) Moving image encoding and decoding system
EP2773123B1 (en) Padding of frame boundaries for video coding
US6266371B1 (en) Motion vector detecting apparatus and method
EP0893924B1 (en) Method and apparatus for motion estimation using block matching
KR0166724B1 (en) Apparatus and method for estimating a half-pel motion vector
KR20040000312A (en) Detection and proper interpolation of interlaced moving areas for MPEG decoding with embedded resizing
JP3277419B2 (en) Apparatus and method for detecting motion vector
JP3277417B2 (en) Apparatus and method for detecting motion vector
KR20060103430A (en) Motion vector fields refinement to track small fast moving objects
JP3598526B2 (en) Motion vector detection method and image data encoding method
JP3334317B2 (en) Image matching method and apparatus
JP3334316B2 (en) Image matching method and apparatus
JP3309519B2 (en) Motion vector detection device
KR20040034702A (en) Signal adaptive spatial scaling for interlaced video
JP3237815B2 (en) Motion vector search method and apparatus
JP3908793B2 (en) Image collation method and apparatus
JP3908792B2 (en) Image collation method and apparatus
JPH1042300A (en) Motion vector detection device
JPH0795587A (en) Method for detecting moving vector
JP3171249B2 (en) Motion vector search method for video coding
JP3458473B2 (en) Apparatus and method for detecting motion vector

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080215

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090215

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100215

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100215

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 12