JPH07112283B2 - Motion vector detection device and detection method - Google Patents

Motion vector detection device and detection method

Info

Publication number
JPH07112283B2
JPH07112283B2 JP1034161A JP3416189A JPH07112283B2 JP H07112283 B2 JPH07112283 B2 JP H07112283B2 JP 1034161 A JP1034161 A JP 1034161A JP 3416189 A JP3416189 A JP 3416189A JP H07112283 B2 JPH07112283 B2 JP H07112283B2
Authority
JP
Japan
Prior art keywords
motion vector
frame
specific image
vector
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1034161A
Other languages
Japanese (ja)
Other versions
JPH02214283A (en
Inventor
賢二 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP1034161A priority Critical patent/JPH07112283B2/en
Priority to US07/465,747 priority patent/US4985768A/en
Priority to EP90101096A priority patent/EP0379217B1/en
Priority to DE69024235T priority patent/DE69024235T2/en
Priority to DE69030819T priority patent/DE69030819T2/en
Priority to EP93111440A priority patent/EP0572046B1/en
Publication of JPH02214283A publication Critical patent/JPH02214283A/en
Priority to US08/004,689 priority patent/USRE34965E/en
Publication of JPH07112283B2 publication Critical patent/JPH07112283B2/en
Priority to HK98100222A priority patent/HK1001183A1/en
Priority to HK98100221A priority patent/HK1001182A1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明はディジタル信号の信号処理を行なう記録、伝送
機器,その他の表示装置などの各種機器において、動画
像信号をより少ない符号量で効率的に符号化する高能率
符号化に関し、特に動きベクトル検出装置及び動きベク
トル検出方法に関する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial field of application) The present invention is effective in various devices such as recording devices, transmission devices, and other display devices that perform signal processing of digital signals, so that moving image signals can be efficiently processed with a smaller code amount. The present invention relates to high-efficiency coding, and more particularly to a motion vector detection device and a motion vector detection method.

(従来の技術) 連続して入力される動画像信号をより少ない符号量で符
号化する高能率符号下方式のうち、画像信号のフレーム
間の相関を利用する符号化方式としてフレーム間予測符
号化がある。
(Prior Art) Among the high-efficiency under-code schemes for encoding continuously input moving image signals with a smaller code amount, inter-frame predictive encoding is used as an encoding method that utilizes correlation between frames of image signals. There is.

これは通常の動画像が各フレーム間でかなり似ているの
で、付加の済んだ前のフレームの信号から符号化しよう
とするフレームの信号を予測して、予測誤差(残差)の
みを符号化するものである。
This is because normal moving images are quite similar between each frame, so the signal of the frame to be encoded is predicted from the signal of the previous frame that has been added, and only the prediction error (residual error) is encoded. To do.

しかし、前フレームの同一位置の画素からの予測では、
画像が動いていると予測誤差(残差)が大きくなり、符
号化効率が低下する。そこで、画像の動きに合わせて予
測に使う前フレームの2次元空間位置を移動(シフト)
してフレーム間予測する、動き補償(補正)符号化が提
案されている。
However, in the prediction from the pixels at the same position in the previous frame,
If the image is moving, the prediction error (residual error) increases, and the coding efficiency decreases. Therefore, the 2D spatial position of the previous frame used for prediction is moved (shifted) according to the movement of the image.
Then, motion compensation (correction) coding has been proposed in which inter-frame prediction is performed.

この動き補償符号化の例を第2図に示すが、動き補償を
行なわない予測符号化装置の構成に対して、動きベクト
ル検出器12,位置シフタ11及び動きベクトルの可変長符
号化器13が追加されている。
An example of this motion compensation coding is shown in FIG. 2, but a motion vector detector 12, a position shifter 11 and a motion vector variable length coder 13 are used for the configuration of a predictive coding device that does not perform motion compensation. Has been added.

<予測符号化処理> 第2図において、画像信号入力端子1より連続して入力
された動画像信号は、予測信号減算器2において予測信
号(予測値)が減算され、その予測誤差(残差)につい
て符号化される。なお、予測信号の形成方法については
後述する。
<Predictive Coding Processing> In FIG. 2, a predictive signal (predictive value) is subtracted from a predictive signal subtractor 2 for a moving image signal continuously input from the image signal input terminal 1, and a predictive error (residual error) ) Is encoded. The method of forming the prediction signal will be described later.

ここで、予測誤差(残合)はそのまま量子化しても良い
が、より高い符号化効率を得るために直交変換器3によ
り離散コサイン変換(DCT)などで直交変換された後に
量子化器4により量子化されるのが一般的になってい
る。量子化された信号は、その分布が0(ゼロ)近辺に
集中するので、可変長符号化器5によりハフマン符号な
どの可変長符号に変換され、可変長ディジタルデータと
してデータ出力端子6より出力され、記録あるいは伝送
される。
Here, the prediction error (residual) may be quantized as it is, but in order to obtain higher coding efficiency, it is orthogonally transformed by the orthogonal cosine transform (DCT) by the orthogonal transformer 3 and then by the quantizer 4. It is generally quantized. Since the distribution of the quantized signal is concentrated in the vicinity of 0 (zero), it is converted into a variable length code such as a Huffman code by the variable length encoder 5 and output from the data output terminal 6 as variable length digital data. , Recorded or transmitted.

復号装置側においては、可変長ディジタルデータは、元
の固定長のデータに変換され、逆量子化器により代表値
に置き換えられ(代表値設定)、さらに直交変換の逆変
換処理が行なわれる。この信号は、予測誤差(残差)で
あるので、予測信号と加算して再生画像信号を得る。
On the decoding device side, the variable-length digital data is converted into the original fixed-length data, replaced with the representative value by the inverse quantizer (representative value setting), and the inverse transform process of orthogonal transform is performed. Since this signal is a prediction error (residual error), it is added to the prediction signal to obtain a reproduced image signal.

一方、符号換装置での予測信号は復号装置側と同一の信
号を得る必要があり、量子化された信号より作られる。
そのために、第2図の符号化装置では、量子化された信
号は、上記の復号装置と同様に逆量子化器7により代表
値に置き換えられ(代表値設定)、さらに直交逆変換器
8により直交変換の逆変換処理が行なわれる。
On the other hand, the prediction signal in the transcoder needs to obtain the same signal as that in the decoder, and is generated from the quantized signal.
Therefore, in the encoding device of FIG. 2, the quantized signal is replaced with a representative value by the inverse quantizer 7 (representative value setting) as in the above-described decoding device, and further by the orthogonal inverse transformer 8. The inverse transform process of the orthogonal transform is performed.

このようにして得られた信号は、復号された予測誤差
(残差)に相当するので、これに1フレーム前の予測信
号が加算器9で加算されて復号された画像信号となる。
さらに、この信号はフレームメモリ10により1フレーム
分だけ遅延され、位置シフタ11により動きに応じた量だ
け2次元空間上で位置を移動させられ、予測信号とな
る。
Since the signal thus obtained corresponds to the decoded prediction error (residual error), the predicted signal of the preceding frame is added by the adder 9 to be a decoded image signal.
Further, this signal is delayed by one frame by the frame memory 10, and the position shifter 11 moves the position in the two-dimensional space by an amount corresponding to the movement, and becomes a prediction signal.

<動き補償予測処理> 位置シフタ11で画像を動かす量、すなわち動きベクトル
は、動きベクトル検出器12によって与えられる。
<Motion Compensation Prediction Process> The amount of movement of the image by the position shifter 11, that is, the motion vector is given by the motion vector detector 12.

動きベクトル検出の方法は、各種の方法が提案されてい
るが、最も一般的なのがブロックマッチングによる方法
である。これは画像を8×8ないし16×16程度のブロッ
クに区切り、その単位で一つの動きベクトルを求めるも
のである。例えば、1フレーム当たり1画素(以下、画
素/フレームと記す)毎に+3(画素/フレーム)から
−3(画素/フレーム)程度の範囲で2次元的に動きベ
クトルを設定しておき、予測に使う画像をそのベクトル
分だけ動かしてブロックの平均二乗誤差を求める。そし
て、設定した全てのベクトルに対して誤差を求め、最も
誤差の少ないベクトルを動きベクトルとして選ぶ。選ば
れた動きベクトルは、その値の分布が0(ゼロ)付近に
集中しているので、可変長符号化器13でハフマン符号な
どの可変長符号に変換され、動きベクトルデータ出力端
子14より出力される。一方、復号側ではこの動きベクト
ルによって符号化系と同様に予測画像の位置シフトを行
なう。
Although various methods have been proposed for motion vector detection, the most common method is block matching. This is to divide an image into blocks of about 8 × 8 to 16 × 16, and obtain one motion vector in the unit. For example, a motion vector is two-dimensionally set within a range of about +3 (pixels / frame) to -3 (pixels / frame) for each pixel (hereinafter, referred to as pixel / frame) per frame, and is used for prediction. The image to be used is moved by that vector and the mean square error of the block is obtained. Then, the error is obtained for all the set vectors, and the vector with the smallest error is selected as the motion vector. Since the distribution of the selected motion vectors is concentrated near 0 (zero), it is converted into a variable length code such as Huffman code by the variable length encoder 13 and output from the motion vector data output terminal 14. To be done. On the other hand, on the decoding side, the position of the predicted image is shifted by this motion vector as in the coding system.

この手法は考え方は単純であるが、各ベクトルごとに誤
差を求めるので処理量は極めて多い。更に、ベクトルの
数は多いほどより正確な動きベクトル検出ができるが、
処理量はそれに比例して多くなる。先の例では垂直水平
とも7値で49ベクトルに対して処理をすることになる。
This method has a simple idea, but the amount of processing is extremely large because the error is calculated for each vector. Furthermore, the more the number of vectors, the more accurate the motion vector can be detected,
The throughput increases proportionally. In the previous example, processing is performed on 49 vectors with 7 values in both vertical and horizontal directions.

<動きベクトル検出> このような処理量を軽減する手段としてベクトルの選定
を数ステップに分ける方法が提案されている。これは、
はじめはベクトルを粗く設定し、次は選択されたベクト
ルの回りに細かく設定していくもので、全体として設定
されるベクトルの数に対して、各ステップで選定の対象
となるベクトル数は大幅に少なくできる。この場合のベ
クトルの設定例を第5図に示す。
<Motion Vector Detection> As a means for reducing such a processing amount, a method of dividing vector selection into several steps has been proposed. this is,
First, coarsely set the vectors, then finely set around the selected vector.The number of vectors to be selected in each step is significantly different from the number of vectors set as a whole. Can be reduced. An example of vector setting in this case is shown in FIG.

同図において、第1ステップでは1(画素/フレーム)
おきに9ベクトルについて選定を行ない(図で○で示す
ベクトル)、第2ステップでは第1ステップで選択され
たベクトルの周辺で1(画素/フレーム)毎に9ベクト
ルについて選定する(図で●で示すベクトル)。この場
合、全体のベクトル数は「49」になるが、各ステップで
のベクトル数は「9」であり、「18」のベクトルについ
て誤差を求めるだけで済む。
In the figure, the first step is 1 (pixel / frame).
Every 9 vectors are selected (vectors indicated by ○ in the figure), and in the second step, 9 vectors are selected every 1 (pixel / frame) around the vector selected in the first step (indicated by ● in the figure). Vector). In this case, the total number of vectors is “49”, but the number of vectors at each step is “9”, and it is only necessary to obtain the error for the vector of “18”.

このように、第2ステップのベクトル数を第1ステップ
と同じになるようにすると、第1ステップと第2ステッ
プの処理は設定ベクトルの大きさの違いのみとなる。従
って、同じ処理回路が2度使え、処理回路は1ステップ
分あれば良い。
In this way, if the number of vectors in the second step is set to be the same as that in the first step, the processing in the first step and the second step only differs in the size of the set vector. Therefore, the same processing circuit can be used twice, and the processing circuit needs only one step.

(発明が解決しようとする課題) ところが、このような従来型の動きベクトル検出では全
体のベクトル数に対する処理量は減らせるものの、処理
ステップは多段化され増えているので、処理量の削減は
十分でない。また、ベクトル数は削減されていないの
で、可変長符号化され伝送される情報量はそのままであ
る。
(Problems to be Solved by the Invention) However, although such a conventional type of motion vector detection can reduce the processing amount with respect to the total number of vectors, the number of processing steps is increased and the processing amount is sufficiently reduced. Not. Moreover, since the number of vectors is not reduced, the amount of information that is variable-length coded and transmitted remains unchanged.

一方、動きベクトルは大きなフレーム間相関を持ってい
るにも関わらず、各フレーム独立に処理されており、相
関が有効に使われていない。
On the other hand, although the motion vector has a large inter-frame correlation, each frame is processed independently and the correlation is not used effectively.

そこで、本発明は上記した従来の技術の課題を解決した
動きベクトル検出装置及び動きベクトル検出方法を提供
することを目的とする。
Therefore, an object of the present invention is to provide a motion vector detection device and a motion vector detection method that solve the above-mentioned problems of the conventional technology.

(課題を解決するための手段) 本発明は、連続して入力される画像信号の連続フレーム
のうち、予測に使うフレームの空間位置を画像の動きに
合わせて移動させてフレーム間予測を行う際に、前記画
像信号の連続フレームの中から所定間隔で特定フレーム
を設定し、この特定フレーム同志の間で画像の動きベク
トルを検出する第1の動きベクトル検出手段と、前記特
定フレームの間の非特定フレームの各フレームとその前
後の特定フレームとの間の動きベクトルを、前記第1の
動きベクトル検出手段で検出された動きベクトルの近傍
で検出する第2の動きベクトル検出手段とによって、少
ない処理量で正確な動きベクトルを検出するようにした
動きベクトル検出装置及び動きベクトル検出方法であ
る。
(Means for Solving the Problem) The present invention is for performing inter-frame prediction by moving the spatial position of a frame used for prediction among continuous frames of image signals continuously input in accordance with the motion of an image. A first motion vector detecting means for setting a specific frame from the continuous frames of the image signal at a predetermined interval and detecting a motion vector of the image between the specific frames; A small amount of processing is performed by the second motion vector detecting means for detecting the motion vector between each frame of the specific frame and the specific frames before and after the specific frame in the vicinity of the motion vector detected by the first motion vector detecting means. A motion vector detecting device and a motion vector detecting method for detecting an accurate motion vector by quantity.

(作 用) 上記した構成の動きベクトル検出装置においては、連続
して入力される画像信号の連続フレームの中から特定フ
レームを予め数フレーム毎に設定し、その特定フレーム
同志間で第1の動きベクトル検出手段により第1ステッ
プの動きベクトル検出を行なう。
(Operation) In the motion vector detecting device having the above-described configuration, a specific frame is set in advance for every several frames from the continuous frames of the image signals continuously input, and the first motion is performed between the specific frames. The vector detecting means detects the motion vector in the first step.

次に、前記特定フレーム間にある非特定フレームと他の
特定フレームとの間の動きベクトルを検出する際に、第
2の動きベクトル検出手段により第2のステップとして
上記の第1ステップで選択された動きベクトルに基づい
て動きベクトルの推定を行い、この推定結果の動きベク
トルの周辺でさらに精度の高い動きベクトル検出を行な
う。
Next, when detecting a motion vector between a non-specific frame between the specific frames and another specific frame, the second motion vector detecting means selects the second step as the second step in the first step. The motion vector is estimated based on the calculated motion vector, and motion vector detection with higher accuracy is performed around the motion vector of the estimation result.

(実 施 例) 本発明になる動きベクトル検出装置及び動きベクトル検
出方法の実施例について以下に図面と共に説明する。
(Example) An example of a motion vector detecting device and a motion vector detecting method according to the present invention will be described below with reference to the drawings.

第1図は本発明になる動きベクトル検出装置を用いた符
号化装置の一実施例の構成を示すブロック図である。こ
の符号化装置の基本的な構成は、従来例に準じたものと
なっており、前出の第2図中の構成と同一の構成部分に
は同一番号を付す。
FIG. 1 is a block diagram showing the configuration of an embodiment of an encoding device using a motion vector detecting device according to the present invention. The basic configuration of this encoding device conforms to the conventional example, and the same components as those in the above-mentioned FIG. 2 are denoted by the same reference numerals.

第1図に於いて、本発明の動きベクトル検出装置は、動
きベクトル検出器40、ベクトル差検出器41、フレームメ
モリ32、33、(N−1)フレームメモリ31、可変長符号
化器13等で構成されている。
Referring to FIG. 1, the motion vector detecting device of the present invention comprises a motion vector detector 40, a vector difference detector 41, frame memories 32 and 33, (N-1) frame memory 31, a variable length encoder 13 and the like. It is composed of.

第1図においては、予測に使われる独立フレーム符号化
が済んでから非独立フレームを符号化するための(N−
1)フレームメモリ31[Nは2以上の整数]を持つ。
In FIG. 1, (N-) is used to encode a non-independent frame after the independent frame encoding used for prediction is completed.
1) It has a frame memory 31 [N is an integer of 2 or more].

また、予測信号(予測値)を前後二つのフレームをもと
に形成するために、二つのフレームメモリ32,33と、そ
れぞれの信号の空間位置(2次元空間位置)を移動する
位置シフタ34,35と、この位置シフタ34,35で移動するシ
フタ量を与えるシフト量算出器36と、位置シフタ34,35
で空間位置が移動させられたそれぞれの信号に重み付け
をする二つの係数掛け算器{×α,×(1−α)}37,3
8と、それらの加算器39とがある。[但し、0<α<
1] また、動きベクトル検出のために、第1の動きベクトル
検出手段である動きベクトル検出器40と、第2の動きベ
クトル検出手段であるベクトル差検出器41とがある。
Further, in order to form a predicted signal (predicted value) based on the two frames before and after, two frame memories 32 and 33, and a position shifter 34 that moves the spatial position (two-dimensional spatial position) of each signal. 35, a shift amount calculator 36 that gives the shifter amount to move with the position shifters 34, 35, and the position shifters 34, 35
Two coefficient multipliers {xα, x (1-α)} 37,3 that weight each signal whose spatial position has been moved by
There are 8 and their adders 39. [However, 0 <α <
1] Further, for detecting a motion vector, there are a motion vector detector 40 which is a first motion vector detecting means and a vector difference detector 41 which is a second motion vector detecting means.

さらに、切換えスイッチ42を画像信号入力端子1と(N
−1)フレームメモリ31との間に、切換えスイッチ43を
予測信号減算器2と直交交換器3との間に、切換えスイ
ッチ44を二つのフレームメモリ32,33の間に、切換えス
イッチ45をフレームメモリ33とベクトル差検出器41との
間にそれぞれ設ける。
Further, the changeover switch 42 is connected to the image signal input terminal 1 (N
-1) A changeover switch 43 is arranged between the frame memory 31 and the prediction signal subtractor 2 and the orthogonal switch 3, a changeover switch 44 is formed between the two frame memories 32 and 33, and a changeover switch 45 is formed between the frame memories 31 and 32. They are provided between the memory 33 and the vector difference detector 41, respectively.

第1図に示した実施例の構成において、画像信号入力端
子1より入力された動画像の信号(連続フレーム)は、
切換えスイッチ42,43で、独立に符号化されるフレーム
ではa側に接続され、(N−1)フレームメモリ31や予
測信号減算器2を介さずに直交変換器3へと導かれる。
In the configuration of the embodiment shown in FIG. 1, the moving image signal (continuous frame) input from the image signal input terminal 1 is
The changeover switches 42 and 43 are connected to the side a for independently encoded frames, and are guided to the orthogonal transformer 3 without passing through the (N-1) frame memory 31 or the prediction signal subtractor 2.

直交変換器3,量子化器4,可変長符号化器5の動作は基本
的に従来例と同様である。
The operations of the orthogonal transformer 3, the quantizer 4, and the variable length encoder 5 are basically the same as those of the conventional example.

一方、残りの非独立フレームはフレーム間予測されるの
で、予測信号を減算するが、本発明装置では独立フレー
ムを先に符号化しておく必要があるので、残りのフレー
ムについてはその分を遅延させる。
On the other hand, the remaining non-independent frames are inter-frame predicted, so the prediction signal is subtracted. However, in the device of the present invention, it is necessary to encode the independent frames first, so the remaining frames are delayed by that amount. .

ここで、独立とするフレームをNフレームに1フレーム
[Nは2以上の整数]とすると、その遅延量は(N−
1)フレーム分となる。ここで、Nは3ないし5程度と
する。残りの非独立フレームの時には切換えスイッチ4
2,43をb側に接続し、信号は(N−1)フレームメモリ
31で(N−1)フレーム分だけ遅延され、予測信号減算
器2で予測信号が減算された後に直交変換器3に導か
れ、その予測誤差(残差)について符号化される。
Here, if the independent frame is one frame for N frames [N is an integer of 2 or more], the delay amount is (N−
1) It becomes the frame. Here, N is about 3 to 5. Changeover switch 4 for the remaining non-independent frames
2,43 is connected to the b side, the signal is (N-1) frame memory
In (31), the prediction signal is delayed by (N-1) frames, and the prediction signal is subtracted by the prediction signal subtractor 2 and then guided to the orthogonal transformer 3, where the prediction error (residual error) is encoded.

ここで、切換えスイッチ42,43は定期的にNフレームに
1フレームだけa側に接続され、それ以外ではb側に接
続されることになる。以降の直交変換器3,量子化器4,可
変長符号化器5の動作は、独立フレームのときと同じで
ある。
Here, the changeover switches 42 and 43 are periodically connected to the a side for one N frame, and are connected to the b side otherwise. Subsequent operations of the orthogonal transformer 3, the quantizer 4, and the variable length encoder 5 are the same as those in the independent frame.

上記した予測符号化処理については、その様子を第7図
に示すが、aが従来例のフレーム間予測方法で、bが本
発明の場合のフレーム間予測方法である。同図で、四角
形は連続して入力される同画像信号の連続フレームであ
り、その中で陰を付けたものは独立にフレーム内で符号
化されるフレームで、aで最は初(またはリセット時)
のみが独立フレームとなっているが、bでは定期的に独
立フレームがある。矢印はフレーム間予測の方向関係を
示しており、aでは各フレーム同様に前フレームからの
み予測が行なわれるが、bでは前後の二つの独立フレー
ムから予測される。
The state of the above-described predictive coding process is shown in FIG. 7, where a is a conventional interframe prediction method and b is an interframe prediction method in the case of the present invention. In the figure, a square is a continuous frame of the same image signal that is continuously input, and a shaded part is a frame that is independently coded in the frame, and the first in a (or reset). Time)
Only b is an independent frame, but b has periodic independent frames. Arrows indicate the directional relationship of inter-frame prediction. In a, prediction is performed only from the previous frame as in each frame, but in b, prediction is performed from the two preceding and following independent frames.

また、予測は独立フレームのみをもとに行なわれ、bの
ように前及び後のフレームから予測されたフレームが別
の予測に使われることはない。
In addition, the prediction is performed only on the basis of the independent frames, and the frames predicted from the previous and subsequent frames are not used for another prediction as in the case of b.

<予測信号形成> 次に、本発明方式における予測信号の作り方について述
べる。
<Prediction signal formation> Next, a method of forming a prediction signal in the method of the present invention will be described.

予測信号は、フレームメモリ32に蓄えられた新独立フレ
ームの信号とフレームメモリ33に蓄えられた旧独立フレ
ームの信号から得られる。
The prediction signal is obtained from the signal of the new independent frame stored in the frame memory 32 and the signal of the old independent frame stored in the frame memory 33.

フレームメモリ32には独立フレーム処理時に信号が入力
され、同時に切換えスイッチ44がa側に接続されること
によりフレームメモリ32の信号がフレームメモリ33に入
れ換えられる。予測処理時にはこれらの出力が位置シフ
タ34,35によりシフト量算出器36より与えられるシフト
量だけ空間位置(2次元空間位置)が移動(シフト)さ
せられる。
A signal is input to the frame memory 32 during the independent frame processing, and at the same time, the changeover switch 44 is connected to the side a so that the signal of the frame memory 32 is replaced with the frame memory 33. During the prediction process, these outputs are moved (shifted) by the shift amounts given by the shift amount calculator 36 by the position shifters 34 and 35 (two-dimensional spatial positions).

シフト量算出器36では、入力される動きベクトルをフレ
ーム間の時間関係から、旧フレームに対しては(−i)
倍し、新フレームに対しては(N−i)倍としてシフト
量を得る。
In the shift amount calculator 36, the input motion vector is (-i) for the old frame from the time relationship between the frames.
The new frame is multiplied by (N-i) times to obtain the shift amount.

ここで、iは独立フレームを0(ゼロ)とした予測フレ
ームの番号で、i=1,2,3,…,(N−i)である。
Here, i is the number of the prediction frame in which the independent frame is 0 (zero), and i = 1, 2, 3, ..., (N−i).

位置シフタ34,35の出力は、係数掛け算器37,38によっ
て、係数掛け算器37ではα倍、係数掛け算器38では(1
−α)倍され[但し、但し、0<α<1]、加算器39に
よって加算され、予測信号減算器2に予測信号として供
給される。ここで、重み付けの係数αは、線形予測では
i/Nとなる。
The outputs of the position shifters 34 and 35 are multiplied by α by the coefficient multiplier 37 and 38 by the coefficient multiplier 37 and 38, and (1 by the coefficient multiplier 38.
-[Alpha]) times [where 0 <[alpha] <1], added by the adder 39, and supplied to the prediction signal subtractor 2 as a prediction signal. Here, the weighting coefficient α is
i / N.

<動きベクトル検出> 次に、本発明の動きベクトル検出方法であるが、第1ス
テップの処理は、第1図に示す第1の動きベクトル検出
手段即ち動きベクトル検出器40で行なわれる。この動き
ベクトル検出器40の構成例を第3図に示す。
<Motion Vector Detection> Next, in the motion vector detecting method of the present invention, the process of the first step is performed by the first motion vector detecting means, that is, the motion vector detector 40 shown in FIG. An example of the structure of the motion vector detector 40 is shown in FIG.

第3図において、平均二乗誤差が求められる二つのフレ
ームの信号は、新フレームの信号がベクトル検出信号入
力端子[A]51から、旧フレームの信号がベクトル検出
信号入力端子[B]52からそれぞれ入力され、ランダム
・アクセス・メモリ(RAM)53,54に書き込まれる。
In FIG. 3, the signals of the two frames for which the mean square error is obtained are the signal of the new frame from the vector detection signal input terminal [A] 51 and the signal of the old frame from the vector detection signal input terminal [B] 52. It is input and written in the random access memory (RAM) 53, 54.

ここで、RAM53,54で保持される信号の空間領域は、動き
ベクトルを求める8×8や16×16画素のブロックが設定
されるベクトルで動いた空間領域の分より多くしてお
く。
Here, the spatial area of the signal held in the RAMs 53 and 54 is set larger than the spatial area moved by the vector in which the block of 8 × 8 or 16 × 16 pixels for which the motion vector is obtained is set.

検出された動きベクトルは、入力される二つのフレーム
に挟まれた非独立フレームで使われるので、両方のフレ
ームを対称的に動かして動きベクトルを求める。
Since the detected motion vector is used in a non-independent frame sandwiched between two input frames, both frames are moved symmetrically to obtain the motion vector.

RAM53,54に与えるアドレスは、書き込み時はブロック内
画素の主アドレスによって、読み出し時は主アドレスに
アドレスシフト量を加減算することで得られる。
The addresses given to the RAMs 53 and 54 are obtained by adding / subtracting the address shift amount to / from the main address at the time of reading and the main address at the time of reading.

また、書き込み動作は一度だけだが、読み出しはベクト
ル数だけ行なわれる。アドレスシフト量は、ベクトル値
発生器55から出力されるNフレーム間に対応した設定ベ
クトル値がそのまま使える。すなわち、新フレームに対
応するRAM53のアドレスは、主アドレス発生器56の出力
にベクトル値発生器55から出力されるベクトル値を加算
器57で加算し、旧フレームに対応するRAM54のアドレス
は、主アドレス発生器56の出力から上記のベクトル値を
減算器58で減算する。
Moreover, although the write operation is performed only once, the read operation is performed by the number of vectors. As the address shift amount, the set vector value corresponding to N frames output from the vector value generator 55 can be used as it is. That is, the address of the RAM 53 corresponding to the new frame is obtained by adding the vector value output from the vector value generator 55 to the output of the main address generator 56 by the adder 57, and the address of the RAM 54 corresponding to the old frame is A subtracter 58 subtracts the vector value from the output of the address generator 56.

このようにして得られる各RAM53,54の出力は、減算器59
で差が求められ、二乗器60で入力値の二乗値に変換さ
れ、積分器61で1ブロックの間累積加算し、設定された
ベクトル値に対しての平均二乗誤差を得る。
The outputs of the RAMs 53 and 54 thus obtained are the subtractor 59.
The difference is obtained in step S1, and the square value is converted into the square value of the input value in the squarer 60, and cumulative addition is performed for one block in the integrator 61 to obtain the mean square error for the set vector value.

ここで、第3図中には破線で囲った平均二乗誤差検出
(計算)部の処理は、各ブロックで各設定ベクトルに対
してブロック内画素数だけ繰り返されるので、処理量は
入力される画素数のベクトル数倍になる。すなわち、リ
アルタイムに処理しようとすると、処理サイクルは画素
のサイクルのベクトル数倍になり、設定されるベクトル
数を「9」とすると、9倍の処理速度が要求される。し
かし、テレビ電話などの低レート符号化では画素が通常
のテレビ信号の1/4から1/16程度に削減されており、そ
の9倍程度の速度の処理は問題ない。一方、画素のレー
トが高い場合には各ベクトルに対して並列処理すること
になり、回路量はベクトル数に比例して多くなる。
Here, since the processing of the mean square error detection (calculation) unit surrounded by a broken line in FIG. 3 is repeated for each set vector in each block by the number of pixels in the block, the processing amount is the number of input pixels. It is a vector multiple of the number. In other words, when processing is performed in real time, the processing cycle is multiplied by the number of vectors of the pixel cycle, and when the set number of vectors is "9", processing speed of 9 times is required. However, in low-rate coding such as a videophone, the number of pixels is reduced from 1/4 to 1/16 of that of a normal TV signal, and processing at about 9 times that speed is not a problem. On the other hand, when the pixel rate is high, parallel processing is performed for each vector, and the circuit amount increases in proportion to the number of vectors.

このようにして得られた各ベクトルの平均二乗誤差は、
ベクトル選択器62で最も少ないものが選択され、そのベ
クトルの1フレーム分の動きベクトル値V′が出力され
る。選択された動きベクトル値V′は、予測フレームの
処理の間使われるので、フレームメモリ63に蓄積され、
ベクトル値出力端子64より出力される。
The mean squared error of each vector thus obtained is
The smallest one is selected by the vector selector 62, and the motion vector value V ′ for one frame of the vector is output. The selected motion vector value V'is stored in the frame memory 63 because it is used during the processing of the prediction frame.
It is output from the vector value output terminal 64.

ここで、動きベクトル値はブロック毎に発生するので、
フレームメモリ63は画素値のフレームメモリである32や
33に対して1/(ブロック内画素数)の小容量のもので済
む。
Here, since the motion vector value is generated for each block,
The frame memory 63 is a frame memory for pixel values such as 32 or
A small capacity of 1 / (number of pixels in a block) with respect to 33 is sufficient.

<ベクトル差検出> 次に、第2ステップの処理として各予測フレームでのベ
クトル差を求める処理であるが、これは第1図に示す第
2の動きベクトル検出手段即ちベクトル差検出器41によ
って行なわれる。このベクトル差検出器41の構成例を第
4図に示すが、第3図に示す動きベクトル検出器40との
差はRAMアドレスの発生方法などで第3図中に破線で囲
った平均二乗誤差検出部は第3図と同じである。
<Vector Difference Detection> Next, the second step is a process for obtaining a vector difference in each prediction frame, which is performed by the second motion vector detecting means, that is, the vector difference detector 41 shown in FIG. Be done. An example of the construction of the vector difference detector 41 is shown in FIG. 4. The difference from the motion vector detector 40 shown in FIG. 3 is that the mean square error surrounded by a broken line in FIG. The detection unit is the same as in FIG.

平均二乗誤差が求められる二つのフレーム信号は、予測
されるフレームの信号がベクトル検出信号入力端子
[A]51から、旧と新(前と後)の独立フレームの信号
がベクトル検出信号入力端子[B]52からそれぞれ入力
され、RAM53,54に書き込まれる。
For the two frame signals for which the mean square error is obtained, the predicted frame signal is from the vector detection signal input terminal [A] 51, and the old and new (previous and subsequent) independent frame signals are from the vector detection signal input terminal [A]. B] 52, respectively, and written in the RAMs 53, 54.

独立フレームとして旧と新(前と後)どちらのフレーム
を使うかは、予測でより多く重み付けされるフレームの
信号が選択される。すなわち、新フレームの信号である
フレームメモリ32の出力と、旧フレームの信号であるフ
レームメモリ33の出力が、フレーム番号に応じて切換え
スイッチ45でのc側,d側の接続切換えにより定期的に選
択される。
Whether the old frame or the new frame (previous or posterior) is used as an independent frame is selected as a signal of a frame that is weighted more in prediction. That is, the output of the frame memory 32, which is a signal of the new frame, and the output of the frame memory 33, which is a signal of the old frame, are periodically changed by the connection switch on the c side and the d side by the changeover switch 45 according to the frame number. To be selected.

ベクトル値の発生方法は、まず、第3図に示すベクトル
値出力端子64から出力された独立フレーム同志の間の動
きベクトル値V′が第4図に示すベクトル値入力端子65
より入力され、ベクトル差発生器66の出力値dVと加算器
67で加算され、ベクトル値が得られる。ここで、dVは従
来例の第2ステップのベクトル差と同様に考えられる。
To generate the vector value, first, the motion vector value V'between independent frames output from the vector value output terminal 64 shown in FIG. 3 is the vector value input terminal 65 shown in FIG.
Input from the vector difference generator 66 and adder
The vector values are obtained by adding at 67. Here, dV is considered similar to the vector difference in the second step of the conventional example.

このベクトル値は、1フレーム当りの量なので、実際の
アドレスシフト量はフレームの時間関係により乗算器68
で、旧フレームに対しては(−i)倍し、新フレームに
対しては(N−i)倍して得る。得られたアドレスシフ
ト量は被予測フレームの動きベクトルの推定値であり、
加算器69で主アドレスと加算され、旧又は新(前又は
後)の独立フレームに対する読み出しアドレスとしてRA
M54に入力される。一方、予測されるフレームは固定し
て考えられるので、主アドレスのみが使われる。
Since this vector value is the amount per frame, the actual address shift amount depends on the time relation of the frame.
Then, the old frame is multiplied by (-i) and the new frame is multiplied by (N-i). The obtained address shift amount is an estimated value of the motion vector of the predicted frame,
RA is added as the read address for the old or new (previous or subsequent) independent frame by the adder 69 with the main address.
Input to M54. On the other hand, since the predicted frame is considered fixed, only the main address is used.

各RAM53,54の出力より、減算器59,二乗器60,積分器61で
各ベクトルの平均二乗誤差を算出し、それが最小となる
dVの値dVSがベクトル選択器62で求められ、加算器70で
動きベクトル値V′と加算することにより、最終的なベ
クトル値Vを得る。
The mean square error of each vector is calculated from the output of each RAM 53, 54 by the subtracter 59, the squarer 60, and the integrator 61, and it becomes the minimum.
The value dVS of dV is obtained by the vector selector 62, and the final vector value V is obtained by adding it to the motion vector value V'in the adder 70.

動きベクトル値V′や値dVは9種であるが、ベクトル値
Vは49ベクトルの中から選ばれることになる。
The motion vector value V ′ and the value dV are 9 kinds, but the vector value V is selected from 49 vectors.

以上の処理で、第3図に示した動きベクトル検出器40と
第4図に示したベクトル差検出器41の処理は同時に行な
われない。また、高速動作が要求される平均二乗誤差検
出部はほとんど同一なので、その部分を一つにすること
ができ、回路量は一つの動きベクトル検出器と大差な
い。
With the above processing, the processing of the motion vector detector 40 shown in FIG. 3 and the processing of the vector difference detector 41 shown in FIG. 4 are not performed at the same time. Also, since the mean square error detectors that require high-speed operation are almost the same, that part can be integrated, and the circuit amount is not much different from one motion vector detector.

以上のように、上記した第1図においては、入力画像信
号は、切換えスイッチ42,43により数フレームおきに独
立フレームが得られ、動きベクトル検出器40によりその
独立フレーム同志の間の動きベクトルが求められる。
As described above, in FIG. 1 described above, the input image signal is obtained as independent frames every several frames by the changeover switches 42 and 43, and the motion vector detector 40 detects the motion vector between the independent frames. Desired.

一方、非独立フレームの信号が(N−1)フレームメモ
リ31により遅延され、非独立フレームの予測処理を行な
う前に、予測に使われる独立フレームの画像信号がフレ
ームメモリ32,33により旧と新(前と後)の2フレーム
分蓄えられる。フレームメモリ32または33の出力は、切
換えスイッチ45で選択され第2の動きベクトル検出手段
であるベクトル差検出器41に与えられる。
On the other hand, the signal of the non-independent frame is delayed by the (N-1) frame memory 31, and the image signal of the independent frame used for prediction is processed by the frame memories 32 and 33 before and after the prediction processing of the non-independent frame. Two frames (before and after) are stored. The output of the frame memory 32 or 33 is selected by the changeover switch 45 and given to the vector difference detector 41 which is the second motion vector detecting means.

ベクトル差検出器41では予測されるフレームの信号との
間で第2ステップの動きベクトル検出が行なわれる。
The vector difference detector 41 performs the second step motion vector detection with the predicted frame signal.

このように本発明方法においては、動きベクトルの検出
処理の対象となるフレームが処理ステップ毎に変わり、
各フレームの毎処理では一つのステップのみが処理され
る。この様子を第6図に示すが、aの従来例では各フレ
ームで第1,第2の両方のステップの処理が行なわれるの
に対し、bの本発明方法の場合は独立フレーム(影を付
けたフレーム)の処理時に第1ステップが行なわれ、予
測される非独立フレームでは第2ステップのみが行なわ
れる。
As described above, in the method of the present invention, the frame subject to the motion vector detection processing changes for each processing step,
In each processing of each frame, only one step is processed. This situation is shown in FIG. 6. In the conventional example of a, the processing of both the first and second steps is performed in each frame, whereas in the case of the method of the present invention of b, an independent frame (shadow is added). Frame), the first step is performed, and in the predicted non-independent frame, only the second step is performed.

なお、この実施例ではステップが2段となっているが、
さらに多くの段数のものも考えられる。その場合、独立
フレームで第1ステップと第2ステップを行ない、予測
フレームで第3ステップと第4ステップを行なうと言っ
たような処理となる。
Although the number of steps is two in this embodiment,
A higher number of stages is also conceivable. In that case, the processing is such that the first step and the second step are performed in the independent frame, and the third step and the fourth step are performed in the prediction frame.

また、上記した実施例では、連続して入力される画像信
号の連続フレームの中からフレーム間予測を用いないで
フレーム内で独立に符号化する独立フレームを予め数フ
レームおきに設定し、その独立フレーム同志間で第1ス
テップの粗な動きベクトル検出を行ない、次に、第2ス
テップの精度の高いベクトル差検出を行なっているが、
本発明はこれに限らず、上記のような独立フレームを設
定しない従来のフレーム間予測による符号化における動
きベクトル検出にも適用できる。
Further, in the above-described embodiment, independent frames that are independently coded within a frame without using inter-frame prediction from among consecutive frames of image signals that are continuously input are set every few frames in advance, and The first step is a rough motion vector detection between frames, and then the second step is a highly accurate vector difference detection.
The present invention is not limited to this, and can also be applied to motion vector detection in conventional coding by inter-frame prediction in which independent frames are not set as described above.

さらに、本発明は1つの画像単位で適用されるものであ
るから、テレビジョン信号に於けるフレームに適用され
ることは勿論であるが、これに限らずフィールドに対し
ても適用できることは言うまでもない。
Further, since the present invention is applied to one image unit, it is needless to say that the present invention is applied to a frame in a television signal, but it is needless to say that the present invention can be applied to not only this but also a field. .

(発明の効果) 以上の如く、本発明では、連続して入力される画像信号
の連続フレームの中から複数の特定フレームを予め設定
し、その特定フレーム同志間で第1の動きベクトル検出
手段により第1ステップの粗な動きベクトル検出を行な
い、次に、その特定フレームの間の非特定フレームにつ
いて動きベクトルを検出する際に、第2の動きベクトル
検出手段により第2のステップとして、上記の第1ステ
ップで選択された動きベクトルに基づいて前記特定画像
以外の非特定画像と前記特定画像間の動きベクトルを推
定し、この推定した動きベクトルの周辺で前記非特定画
像と前記特定画像間の動きベクトルの検出を高精度に行
うようにしているため、各フレームでの処理ステップが
少なくて済み、例えば処理ステップが2段の場合、従来
手法では各フレームで2ステップの処理を行なうのに対
し、半分の1ステップのみの処理量となる。
(Effects of the Invention) As described above, in the present invention, a plurality of specific frames are set in advance from the continuous frames of image signals that are continuously input, and the first motion vector detecting means is provided between the specific frames. When the rough motion vector detection in the first step is performed and then the motion vector is detected for the non-specific frame between the specific frames, the second motion vector detecting means performs the second step as the second step. A motion vector between the non-specific image other than the specific image and the specific image is estimated based on the motion vector selected in one step, and the motion between the non-specific image and the specific image is around the estimated motion vector. Since the vector detection is performed with high accuracy, the number of processing steps in each frame can be reduced. In the method, two frames are processed in each frame, whereas the amount of processing is only one half, that is, one step.

第1の動きベクトル検出手段による第1ステップのベク
トルは所定間隔(数フレーム)で共通になっており、復
号側に伝送する必要のあるベクトルの情報量も少なくな
る。これは、処理ステップが数フレーム間にまたがって
行なわれることで、従来手法で使われていなかった、動
きベクトルのフレーム間相関が有効に使われるためであ
る。
The vector of the first step by the first motion vector detecting means is common at a predetermined interval (several frames), and the amount of information of the vector that needs to be transmitted to the decoding side is reduced. This is because the processing steps are performed over several frames, so that the inter-frame correlation of motion vectors, which has not been used in the conventional method, is effectively used.

一方、第2の動きベクトル検出手段による第2ステップ
ではベクトルの範囲が限定されるが、動きベクトルのフ
レーム間相関は高いのであまり問題にならず、むしろ範
囲が限定されるため、ノイズなどにより誤ったベクトル
が選択されることが少なくなり、良好なベクトル検出が
行なわれる。
On the other hand, although the vector range is limited in the second step by the second motion vector detecting means, it does not cause a problem because the inter-frame correlation of the motion vector is high, and rather the range is limited, so that it is erroneous due to noise or the like. The selected vector is less likely to be selected, and good vector detection is performed.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明になる動きベクトル検出装置を用いた符
号化装置の一実施例の構成を示すブロック図、第2図は
従来例における動き補償符号化装置の構成を示すブロッ
ク図、第3図は本発明の実施例を構成する第1の動きベ
クトル検出手段を示すブロック図、第4図は本発明の実
施例を構成する第2の動きベクトル検出手段を示すブロ
ック図、第5図は2ステップ処理における動きベクトル
の設定例を示す図、第6図は本発明と従来例の各フレー
ムでの処理ステップを示す図、第7図は本発明と従来例
の予測方法を示す図である。 1……画像信号入力端子、2……予測信号減算器、 3……直交変換器、4……量子化器、 5,13……可変長符号化器、6……データ出力端子、 7……逆量子化器、8……直交逆変換器、 9,39,57,67,69,70……加算器、 10,32,33,63……フレームメモリ、 11,34,35……位置シフタ、 12……動きベクトル検出器、 14……動きベクトルデータ出力端子、 31……(N−1)フレームメモリ、 36……シフト量算出器、37,38……係数掛け算器、 40……第1の動きベクトル検出手段(動きベクトル検出
器)、41……第2の動きベクトル検出手段(ベクトル差
検出器)、 42,43,44,45……切換えスイッチ、 51,52……ベクトル検出信号入力端子、 53,54……ランダム・アクセス・メモリ(RAM)、 55……ベクトル値発生器、56……主アドレス発生器、 58,59……減算器、60……二乗器、61……積分器、 62……ベクトル選択器、64……ベクトル値出力端子、 65……ベクトル値入力端子、66……ベクトル差発生器、 68……乗算器。
FIG. 1 is a block diagram showing a configuration of an embodiment of an encoding device using a motion vector detecting device according to the present invention, FIG. 2 is a block diagram showing a configuration of a motion compensation encoding device in a conventional example, and FIG. FIG. 4 is a block diagram showing a first motion vector detecting means constituting an embodiment of the present invention, FIG. 4 is a block diagram showing a second motion vector detecting means constituting an embodiment of the present invention, and FIG. FIG. 6 is a diagram showing an example of setting a motion vector in a two-step process, FIG. 6 is a diagram showing processing steps in each frame of the present invention and a conventional example, and FIG. 7 is a diagram showing a prediction method of the present invention and a conventional example. . 1 ... Image signal input terminal, 2 ... Prediction signal subtractor, 3 ... Orthogonal transformer, 4 ... Quantizer, 5,13 ... Variable length encoder, 6 ... Data output terminal, 7 ... … Inverse quantizer, 8 …… Orthogonal inverse transformer, 9,39,57,67,69,70 …… Adder, 10,32,33,63 …… Frame memory, 11,34,35 …… Position Shifter, 12 …… Motion vector detector, 14 …… Motion vector data output terminal, 31 …… (N-1) frame memory, 36 …… Shift amount calculator, 37,38 …… Coefficient multiplier, 40 …… First motion vector detecting means (motion vector detector), 41 ... Second motion vector detecting means (vector difference detector), 42,43,44,45 ... Changeover switch, 51,52 ... Vector detection Signal input terminal, 53,54 …… Random access memory (RAM), 55 …… Vector value generator, 56 …… Main address generator, 58, 59 …… Subtractor, 60 …… Squarer, 61… … Integrator, 62 …… Vector selector, 64 …… Vector value output terminal, 65 …… Vector value input terminal, 66 …… Vector difference generator, 68 …… Multiplier.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】連続して入力される画像信号に対して動き
補償画像間予測を行う際に動きベクトルを検出する動き
ベクトル検出装置において、 連続入力画像の中から複数の特定画像を設定し、この特
定画像間の動きベクトルを検出する第1の動きベクトル
検出手段と、 前記特定画像以外の非特定画像と前記特定画像間の動き
ベクトルを前記第1の動きベクトル検出手段の出力を基
に推定し、この推定した動きベクトルの周辺で前記非特
定画像と前記特定画像間の動きベクトルを検出する第2
の動きベクトル検出手段とよりなる動きベクトル検出装
置。
1. A motion vector detection device for detecting a motion vector when performing motion compensation inter-picture prediction for image signals input continuously, wherein a plurality of specific images are set from among continuous input images, First motion vector detecting means for detecting a motion vector between the specific images, and a motion vector between the non-specific image other than the specific image and the specific image is estimated based on an output of the first motion vector detecting means. And detecting a motion vector between the non-specific image and the specific image around the estimated motion vector.
Motion vector detecting device comprising the motion vector detecting means of FIG.
【請求項2】特許請求の範囲第1項に記載の動きベクト
ル検出装置において、 前記第2の動きベクトル検出手段では、前記非特定画像
と前記特定画像間の動きベクトルを前記第1の動きベク
トル検出手段の出力を基に推定し、この推定した動きベ
クトルとの差分として動きベクトルを検出するようにし
たことを特徴とする動きベクトル検出装置。
2. The motion vector detecting device according to claim 1, wherein the second motion vector detecting means sets the motion vector between the non-specific image and the specific image to the first motion vector. A motion vector detecting device characterized in that the motion vector is estimated based on the output of the detecting means and the motion vector is detected as a difference from the estimated motion vector.
【請求項3】連続して入力される画像信号に対して動き
補償画像間予測を行う際に動きベクトルを検出する動き
ベクトル検出方法において、 連続入力画像の中から複数の特定画像を設定してこの特
定画像間の動きベクトルを検出し、前記特定画像以外の
非特定画像と前記特定画像間の動きベクトルを前記特定
画像間の動きベクトルを基に推定し、この推定した動き
ベクトルの周辺で前記非特定画像と前記特定画像間の動
きベクトルの検出を行うようにしたことを特徴とする動
きベクトル検出方法。
3. A motion vector detection method for detecting a motion vector when performing motion-compensated inter-picture prediction for image signals that are continuously input, wherein a plurality of specific images are set from among continuously input images. The motion vector between the specific images is detected, the motion vector between the non-specific image other than the specific image and the specific image is estimated based on the motion vector between the specific images, and the motion vector around the estimated motion vector A motion vector detecting method characterized in that a motion vector between a non-specific image and the specific image is detected.
【請求項4】特許請求の範囲第3項に記載の動きベクト
ル検出方法において、 前記非特定画像と前記特定画像間の動きベクトルを前記
特定画像間の動きベクトルを基に推定する際に、前記特
定画像と前記非特定画像との時間的関係に応じて推定す
るようにしたことを特徴とする動きベクトル検出方法。
4. The motion vector detecting method according to claim 3, wherein the motion vector between the non-specific image and the specific image is estimated based on the motion vector between the specific images. A motion vector detecting method characterized in that estimation is performed according to a temporal relationship between a specific image and the non-specific image.
【請求項5】特許請求の範囲第3項に記載の動きベクト
ル検出方法において、 前記非特定画像と前記特定画像間の動きベクトルを前記
特定画像間の動きベクトルを基に推定し、この推定した
動きベクトルとの差分として動きベクトルを検出するよ
うにしたことを特徴とする動きベクトル検出方法。
5. The motion vector detecting method according to claim 3, wherein the motion vector between the non-specific image and the specific image is estimated based on the motion vector between the specific images, and the estimation is performed. A motion vector detecting method characterized in that a motion vector is detected as a difference from the motion vector.
JP1034161A 1989-01-20 1989-02-14 Motion vector detection device and detection method Expired - Lifetime JPH07112283B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP1034161A JPH07112283B2 (en) 1989-02-14 1989-02-14 Motion vector detection device and detection method
US07/465,747 US4985768A (en) 1989-01-20 1990-01-18 Inter-frame predictive encoding system with encoded and transmitted prediction error
EP93111440A EP0572046B1 (en) 1989-01-20 1990-01-19 Decoding system for decoding video signals
DE69024235T DE69024235T2 (en) 1989-01-20 1990-01-19 Predictive interframe coding system
DE69030819T DE69030819T2 (en) 1989-01-20 1990-01-19 Decoding system for decoding video signals
EP90101096A EP0379217B1 (en) 1989-01-20 1990-01-19 Inter-frame predictive encoding system
US08/004,689 USRE34965E (en) 1989-01-20 1993-01-14 Inter-frame predictive encoding system with encoded and transmitted prediction error
HK98100222A HK1001183A1 (en) 1989-01-20 1998-01-10 Inter-frame predictive encoding system
HK98100221A HK1001182A1 (en) 1989-01-20 1998-01-10 Decoding system for decoding video signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1034161A JPH07112283B2 (en) 1989-02-14 1989-02-14 Motion vector detection device and detection method

Publications (2)

Publication Number Publication Date
JPH02214283A JPH02214283A (en) 1990-08-27
JPH07112283B2 true JPH07112283B2 (en) 1995-11-29

Family

ID=12406484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1034161A Expired - Lifetime JPH07112283B2 (en) 1989-01-20 1989-02-14 Motion vector detection device and detection method

Country Status (1)

Country Link
JP (1) JPH07112283B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5151784A (en) * 1991-04-30 1992-09-29 At&T Bell Laboratories Multiple frame motion estimation
JP2611591B2 (en) * 1991-10-31 1997-05-21 日本ビクター株式会社 Motion compensator
US6091460A (en) 1994-03-31 2000-07-18 Mitsubishi Denki Kabushiki Kaisha Video signal encoding method and system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233286A (en) * 1988-07-22 1990-02-02 Fujitsu Ltd Movement vector detection system

Also Published As

Publication number Publication date
JPH02214283A (en) 1990-08-27

Similar Documents

Publication Publication Date Title
CN108769682B (en) Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium
JP2801559B2 (en) Motion compensation coding method and apparatus adapted to the magnitude of motion
JPH02285816A (en) Adaptive inter-frame prediction encoding system
JP2530217B2 (en) Interframe predictive coding device and decoding device
JPH0537915A (en) Method and device for coding image signal
JP2004208320A (en) Motion evaluation engine with parallel interpolation and search hardware
JPS62203496A (en) Highly efficient encoding system for animation picture signal
JPH07112284B2 (en) Predictive encoding device and decoding device
JP3115651B2 (en) Image coding device
JPH08265765A (en) Image coding system and motion compensating device for use therein
JPH04219074A (en) Picture coder
JP2947389B2 (en) Image processing memory integrated circuit
JPH07112283B2 (en) Motion vector detection device and detection method
JP2702139B2 (en) Video predictive coding
US6038345A (en) Apparatus for encoding/decoding image data
JPH07177519A (en) Motion vector detection method
KR100240620B1 (en) Method and apparatus to form symmetric search windows for bidirectional half pel motion estimation
JPH11275591A (en) Moving image coding decoding device, moving image coding decoding method and moving image code record medium
JPS6239920A (en) Method and apparatus for forecast coding and decoding of dynamic compensation inter-frame of picture signal
JP2802066B2 (en) Image signal inter-frame compression device
KR100207391B1 (en) Image coding system and moving information detecting method using adaptive vector quantization
JPH04213987A (en) High-efficiency encoding device for image data
JPH10164596A (en) Motion detector
JPH05236456A (en) Method and device for encoding moving image
JP3161076B2 (en) Image signal encoding device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091129

Year of fee payment: 14