JP3186685B2 - Motion compensation prediction method - Google Patents

Motion compensation prediction method

Info

Publication number
JP3186685B2
JP3186685B2 JP424198A JP424198A JP3186685B2 JP 3186685 B2 JP3186685 B2 JP 3186685B2 JP 424198 A JP424198 A JP 424198A JP 424198 A JP424198 A JP 424198A JP 3186685 B2 JP3186685 B2 JP 3186685B2
Authority
JP
Japan
Prior art keywords
field
image
motion vector
unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP424198A
Other languages
Japanese (ja)
Other versions
JPH10164600A (en
Inventor
修二 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP424198A priority Critical patent/JP3186685B2/en
Publication of JPH10164600A publication Critical patent/JPH10164600A/en
Application granted granted Critical
Publication of JP3186685B2 publication Critical patent/JP3186685B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビ会議、テレ
ビ電話、ケーブルテレビなどに使用する動き補償予測方
法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion compensation prediction method used for a video conference, a videophone, a cable television, and the like.

【0002】[0002]

【従来の技術】図5は従来の動き補償フレーム間予測符
号化装置の構成例を示すブロック図であり、図5におい
てデジタル化された信号(画像)は入力端子501より
加算器502に入力される。
2. Description of the Related Art FIG. 5 is a block diagram showing a configuration example of a conventional motion-compensated inter-frame predictive coding apparatus. In FIG. 5, a digitized signal (image) is input to an adder 502 from an input terminal 501. You.

【0003】また加算器502はフレームメモリ510
より出力された予測値も入力され予測誤差信号を出力す
る。ここで、予測値は動き補償予測された予測値であ
る。したがってフレームメモリ510より出力される予
測値は動ベクトル検出部で検出された動きベクトルに従
って動き補償予測された予測値である(電子通信学会19
81年 Vol.J64-B,No.1 P.24-31(フレーム間符号化にお
ける動き補正予測方式))。具体的には、動きベクトル
が0の場合には入力フレームの被予測画素とフレーム内
の位置が同じ位置のフレームメモリ上の画素値を予測画
素とする。また、動きベクトルが0以外の場合には同様
に入力フレーム内の被予測画素とフレーム内の位置が同
じ位置を0として動きベクトルの値に対応する画素位置
の画素を予測画素とする。この場合、フレームメモリ5
10内に動きベクトルの値に対応する画素位置に画素が
無い場合には、該当する画素位置の周辺の画素から補間
によって該当する画素位置の画素を算出し、予測画素と
する(1990年画像符号化シンポジウム(PCSJ90)P.175-
177(適応ライン補間フィールド間動き補償方式の検
討))。このように動きベクトルはフレーム内の予測画
素の相対的な位置を表すために用いられている。そし
て、この予測誤差信号は直交変換部503に入力されて
直交変換される。変換係数は量子化部504に入力さ
れ、量子化される。量子化された変換係数は逆量子化部
507および多重化部505に入力される。多重化部5
05は量子化部504で量子化された変換係数と、動ベ
クトル検出部511で検出された動きベクトルを多重化
して出力端子506を通して出力する。
An adder 502 is provided with a frame memory 510.
The output value is also input and outputs a prediction error signal. Here, the prediction value is a prediction value obtained by motion compensation prediction.
You. Therefore, the output from frame memory 510 is
The measured value follows the motion vector detected by the motion vector detector.
Is the motion compensation predicted value (IEICE 19
1981 Vol.J64-B, No.1 P.24-31
Motion correction prediction method)). Specifically, the motion vector
Is 0, the predicted pixel of the input frame and the
Pixel value on the frame memory at the same position
Shall be prime. The same applies when the motion vector is other than 0.
The position of the predicted pixel in the input frame and the position in the frame
Pixel position corresponding to the value of the motion vector with the same position as 0
Pixel is a predicted pixel. In this case, the frame memory 5
A pixel is located at a pixel position corresponding to the value of the motion vector within 10.
If there is no pixel, interpolate from the pixels around the corresponding pixel position
The pixel at the corresponding pixel position is calculated by
(1990 Image Coding Symposium (PCSJ90) P.175-
177 (Detection of adaptive line interpolation inter-field motion compensation method
Discussion)). Thus, the motion vector is
It is used to indicate the relative position of the element. Soshi
Then, the prediction error signal is input to the orthogonal transform unit 503 and is orthogonally transformed. The transform coefficient is input to the quantization unit 504 and is quantized. The quantized transform coefficients are input to the inverse quantization unit 507 and the multiplexing unit 505. Multiplexer 5
Reference numeral 05 multiplexes the transform coefficient quantized by the quantization unit 504 and the motion vector detected by the motion vector detection unit 511, and outputs the multiplexed signal through an output terminal 506.

【0004】一方逆量子化部507は量子化された変換
係数を逆量子化し、直交変換係数を得、これを逆直交変
換部508に出力する。逆直交変換部508にて逆直交
変換し、もとの予測誤差信号を出力する。逆直交変換に
よって得られた予測誤差信号は加算器509に与えられ
る。この加算器509はフレームメモリ510からの予
測値と逆直交変換部508からの予測誤差信号を加算
し、再生画素値をフレームメモリ510に出力する。こ
のフレームメモリ510は加算器509からの再生画素
値から再生画像をつくり、その再生画像を次フレームの
予測値として出力する。また動ベクトル検出部511は
入力端子501より入力された入力画像とフレームメモ
リ510からの再生画像から動ベクトルを求めフレーム
メモリ510及び多重化部505へ出力する。
On the other hand, an inverse quantization section 507 inversely quantizes the quantized transform coefficient to obtain an orthogonal transform coefficient, and outputs this to an inverse orthogonal transform section 508. The inverse orthogonal transform unit 508 performs inverse orthogonal transform and outputs an original prediction error signal. The prediction error signal obtained by the inverse orthogonal transform is provided to the adder 509. The adder 509 adds the prediction value from the frame memory 510 to the prediction error signal from the inverse orthogonal transform unit 508, and outputs a reproduced pixel value to the frame memory 510. The frame memory 510 creates a reproduced image from the reproduced pixel values from the adder 509, and outputs the reproduced image as a predicted value of the next frame. Further, the motion vector detection unit 511 obtains a motion vector from the input image input from the input terminal 501 and the reproduced image from the frame memory 510, and outputs the motion vector to the frame memory 510 and the multiplexing unit 505.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、前記従
来の動き補償フレーム間予測符号化装置では前フレーム
のフレーム画像から予測画像をつくるため、1フレーム
の時間に垂直方向への奇数画素の運動の場合において、
正確な動ベクトルの検出が行われにくく、たとえ行われ
た場合でも異なったフィールドの画像を予測画像とする
ため精度の良い予測画像を得ることができず、圧縮効果
を悪化させるという問題があった。
However, in the conventional motion-compensated inter-frame predictive coding apparatus, since a predicted image is formed from a frame image of a previous frame, a motion of an odd number of pixels in the vertical direction in one frame time is required. At
It is difficult to accurately detect a motion vector, and even if it is performed, an image of a different field is used as a predicted image, so that a highly accurate predicted image cannot be obtained, and the compression effect is deteriorated. .

【0006】本発明は、前記従来技術の問題を解決する
ことに指向するものであり、異なったフィールド間予測
のための時間差による劣化を防ぎ、適切な予測画像を得
ることができる優れた動き補償予測方法を提供すること
を目的とする。
SUMMARY OF THE INVENTION The present invention is directed to solving the above-mentioned problems of the prior art, and is capable of preventing deterioration due to a time difference for different inter-field predictions and providing an excellent motion compensation capable of obtaining an appropriate predicted image. The purpose is to provide a prediction method.

【0007】[0007]

【課題を解決するための手段】この目的を達成するため
に、本発明に係る動き補償予測方法は、参照フレームと
被符号化フレームとの間の第1の動きベクトルおよび参
照フレームの第1フィールドを用い、かつ、第1の動き
ベクトルに所定の比を乗じて生成した第2の動きベクト
ルおよび参照フレームの第2フィールドを用いて、被符
号化フレームの第1フィールドについて動き補償を行う
動き補償予測方法であって、前記所定の比を、第1の動
きベクトルの時間間隔と第2の動きベクトルの時間間隔
との比より定めることを特徴とする。
In order to achieve this object, a motion compensated prediction method according to the present invention comprises a first motion vector between a reference frame and an encoded frame and a first field of the reference frame. And a second motion vector generated by multiplying the first motion vector by a predetermined ratio and a second field of the reference frame to perform motion compensation on the first field of the encoded frame. In the prediction method, the predetermined ratio is determined by a ratio between a time interval of a first motion vector and a time interval of a second motion vector.

【0008】また、参照フレームと被符号化フレームと
の間の第1の動きベクトルおよび参照フレームの第2フ
ィールドを用い、かつ、第1の動きベクトルに所定の比
を乗じて生成した第2の動きベクトルおよび参照フレー
ムの第1フィールドを用いて、被符号化フレームの第2
フィールドについて動き補償を行う動き補償予測方法で
あって、前記所定の比を、第1の動きベクトルの時間間
隔と第2の動きベクトルの時間間隔との比より定めるこ
とを特徴とするようにしたものである。
Further, a second motion vector generated by using a first motion vector between the reference frame and the frame to be encoded and a second field of the reference frame and multiplying the first motion vector by a predetermined ratio is used. Using the motion vector and the first field of the reference frame, the second
A motion compensation prediction method for performing motion compensation on a field, wherein the predetermined ratio is determined by a ratio between a time interval of a first motion vector and a time interval of a second motion vector. Things.

【0009】前記方法によれば、予測画像のフィールド
と入力画像のフィールドが常に一致し、1フレームあた
り垂直方向への奇数画素の運動の場合にも同じフィール
ドからの予測画像を作成するため、時間や位置のずれが
生ぜずスムースな動ベクトルの検出が可能となる。ま
た、より適切な予測画像が得られ圧縮効率を向上させる
ことができる。
According to the above method, the field of the predicted image always coincides with the field of the input image, and a predicted image from the same field is created even in the case of a motion of odd pixels in one frame in the vertical direction. This makes it possible to smoothly detect a motion vector without causing any positional deviation. Further, a more appropriate predicted image can be obtained, and the compression efficiency can be improved.

【0010】更に予測画像のフィールドと一致するフィ
ールドのみからでなく、もう一方のフィールド画像も動
ベクトルによって補正し、同フィールドの画像として利
用することにより、予測画像の解像度をあげることがで
き、より精度の高い予測画像の出力が可能となり圧縮効
果が向上し、画質を向上させることができる。
[0010] Furthermore, not only the field that matches the field of the predicted image but also the other field image is corrected by the motion vector and used as an image of the same field, so that the resolution of the predicted image can be increased. It is possible to output a predicted image with high accuracy, thereby improving the compression effect and improving the image quality.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明にお
ける実施の形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0012】(実施の形態1)図1は本発明の実施の形
態1の構成を示すブロック図であり、また、図2はフィ
ールド画像分割とオーバーサンプリングの原理を示すも
のである。
(Embodiment 1) FIG. 1 is a block diagram showing the configuration of Embodiment 1 of the present invention, and FIG. 2 shows the principle of field image division and oversampling.

【0013】入力端子101より入力された入力画像
(インターレーステレビジョン)信号は動ベクトル検出
部113、加算器102に夫々入力される。この加算器
102はフレーム合成部114から出力された予測画像
との差を直交変換部103に出力し、直交変換部103
は、たとえばDCTのような直交変換を行い変換係数を
量子化部104に出力し、量子化部104は変換係数を
量子化し逆量子化部107、多重化部105に夫々出力
する。そして、多重化部105は動ベクトル検出部11
3で検出された動ベクトルと量子化された変換係数を多
重化し、符号化して出力端子106を通して出力する。
An input image (interlaced television) signal input from an input terminal 101 is input to a motion vector detector 113 and an adder 102, respectively. The adder 102 outputs the difference from the predicted image output from the frame combining unit 114 to the orthogonal transform unit 103,
Performs, for example, an orthogonal transform such as DCT, and outputs transform coefficients to a quantization unit 104. The quantization unit 104 quantizes the transform coefficients and outputs them to an inverse quantization unit 107 and a multiplexing unit 105, respectively. The multiplexing unit 105 outputs the motion vector detection unit 11
Then, the motion vector detected in Step 3 and the quantized transform coefficient are multiplexed, encoded, and output through the output terminal 106.

【0014】また、逆量子化部107は変換係数を逆量
子化し逆直交変換部108に出力し、逆直交変換部10
8はもとの予測誤差信号に変換し、加算器109に出力
する。この加算器109はフレーム合成部114から出
力された予測画像とを加算し、フィールド画像分割部1
10に再生画像を出力する。
The inverse quantization unit 107 inversely quantizes the transform coefficient and outputs the result to the inverse orthogonal transform unit 108.
8 is converted into the original prediction error signal and output to the adder 109. The adder 109 adds the predicted image output from the frame synthesizing unit 114 to the field image dividing unit 1.
The reproduced image is output to 10.

【0015】フィールド画像分割部110は第1フィー
ルド,第2フィールドの2つのフィールドに再生画像を
分割し、夫々オーバーサンプリング部111およびオー
バーサンプリング部112に出力する。そして、オーバ
ーサンプリング部111およびオーバーサンプリング部
112はそれぞれ入力されたフィールド画像の補間を行
い、夫々画像メモリ115および画像メモリ116に出
力しメモリに蓄えられる。
The field image dividing section 110 divides the reproduced image into two fields, a first field and a second field, and outputs the divided fields to the oversampling section 111 and the oversampling section 112, respectively. Then, the oversampling unit 111 and the oversampling unit 112 respectively perform the interpolation of the input field image, output to the image memory 115 and the image memory 116, respectively, and store the same in the memory.

【0016】画像メモリ115および画像メモリ116
は動ベクトル検出部113で検出された動ベクトルを基
に予測画像の夫々のフィールド画像をフレーム合成部1
14に出力し、ここでフレームに合成され予測画像とし
て夫々加算器102,109に出力される。
Image memory 115 and image memory 116
Is used to convert each field image of the predicted image based on the motion vector detected by the motion vector detection unit 113 to the frame synthesis unit 1
14, and is synthesized into a frame and output to the adders 102 and 109 as predicted images.

【0017】また、画像メモリ115および画像メモリ
116は動ベクトルを検出するために補間された再生画
像を動ベクトル検出部113に出力し、動ベクトル検出
部113は2つの画像メモリ115,116からの補間
された再生画像と入力端子101からの入力画像から動
ベクトルを検出する。ここで動ベクトル検出部113は
動ベクトル検出のために行うパターンマッチングの際
に、入力画像の対応するフィールドの再生フィールド画
像とのマッチングを行う。また、画像メモリ115,1
16はそれぞれ予測画像の対応するフィールドの予測画
素のみを予測画像として出力する。
Further, the image memory 115 and the image memory 116 output the reproduced image interpolated to detect the motion vector to the motion vector detection unit 113, and the motion vector detection unit 113 transmits the reproduced image from the two image memories 115 and 116. A motion vector is detected from the interpolated reproduced image and the input image from the input terminal 101. Here, at the time of pattern matching performed for detecting a motion vector, the motion vector detection unit 113 performs matching of a corresponding field of the input image with a reproduction field image. Also, the image memories 115 and 1
Reference numeral 16 outputs only a predicted pixel of a corresponding field of the predicted image as a predicted image.

【0018】図2にフィールド画像分割およびオーバー
サーンプリングの動作を示す。フィールド画像分割部1
10に入力されたフレーム信号(a)は1ラインずつ交
互に第1フィールド,第2フィールドに分けられる
(b)。この分割されたフィールド画像のライン数はも
とのフレームの1/2になっているので、今、動ベクト
ルの精度を1画素単位まで求めるとすると、ライン数を
もとのフレームと同じにしなければならない。
FIG. 2 shows the operation of field image division and oversampling. Field image division unit 1
The frame signal (a) input to 10 is divided into a first field and a second field alternately line by line (b). Since the number of lines of the divided field image is の of the original frame, if the accuracy of the motion vector is to be obtained up to one pixel unit, the number of lines must be the same as that of the original frame. Must.

【0019】したがって、オーバーサンプリング部11
1,112で、もう1方のフィールドの画素位置の画素
を回りの画素から補間によって求められる(c)。動ベ
クトルの検出はそれぞれ入力画像のフィールドに合わせ
たフィールド画像とのマッチングを行う。これにより常
に入力画像のフィールドと予測画像のフィールドとの対
応がとれることになり、フィールドが逆になることがな
くなり、より予測誤差の少ない予測画像を出力できると
いう効果を有する。
Therefore, the oversampling unit 11
At 1,112, the pixel at the pixel position in the other field is obtained from the surrounding pixels by interpolation (c). The detection of the motion vector is performed by matching with a field image corresponding to the field of the input image. As a result, the fields of the input image and the fields of the predicted image can always be correlated with each other, so that the fields are not reversed, and the predicted image with a smaller prediction error can be output.

【0020】(実施の形態2)図3は本発明の実施の形
態2の構成を示すブロック図であり、入力端子301か
ら入力された入力画像(インターレーステレビジョン信
号)は加算器302、動ベクトル検出部313に入力さ
れる。加算器302は画素補間部312により出力され
た予測画像と入力画像との差分を直交変換部303に出
力する。この差分を予測誤差信号という。
(Embodiment 2) FIG. 3 is a block diagram showing the configuration of Embodiment 2 of the present invention. An input image (interlaced television signal) input from an input terminal 301 is input to an adder 302 and a motion vector. It is input to the detection unit 313. The adder 302 outputs the difference between the predicted image output from the pixel interpolation unit 312 and the input image to the orthogonal transformation unit 303. This difference is called a prediction error signal.

【0021】この予測誤差信号は直交変換部303でD
CTのような直交変換を行い変換係数を量子化部304
に出力し、量子化部304では入力された変換係数を量
子化し、これを多重化部305および逆量子化部307
に夫々出力する。そして、多重化部305は動ベクトル
検出部313で検出された動ベクトルと量子化された変
換係数を多重化し、出力端子306を通して出力する。
This prediction error signal is converted by the orthogonal
An orthogonal transform such as CT is performed, and the transform coefficient is quantized by a quantization unit 304.
, And the quantization unit 304 quantizes the input transform coefficient, and quantizes the transform coefficient by the multiplexing unit 305 and the inverse quantization unit 307.
Respectively. Then, the multiplexing unit 305 multiplexes the motion vector detected by the motion vector detection unit 313 and the quantized transform coefficient, and outputs the multiplexed signal through the output terminal 306.

【0022】また、逆量子化部307は量子化された変
換係数を逆量子化し、直交変換係数を得、これを逆直交
変換部308に出力する。この逆直交変換部308は入
力された直交変換係数を逆直交変換し予測誤差信号を得
る。この予測誤差信号は加算器309に入力され、画素
補間部312から出力された予測画像と加えられ再生画
像を得る。この再生画像は画像メモリ310に蓄えられ
る。
The inverse quantization unit 307 inversely quantizes the quantized transform coefficient to obtain an orthogonal transform coefficient, and outputs the orthogonal transform coefficient to the inverse orthogonal transform unit 308. The inverse orthogonal transform unit 308 performs an inverse orthogonal transform on the input orthogonal transform coefficient to obtain a prediction error signal. This prediction error signal is input to the adder 309 and added to the prediction image output from the pixel interpolation unit 312 to obtain a reproduced image. This reproduced image is stored in the image memory 310.

【0023】画像メモリ310は第1の動ベクトルを検
出し、そして、次フレームの予測を行うために画像メモ
リ310に蓄えられている再生画像をフィールド調整部
311に出力する。フィールド調整部311は動ベクト
ル検出部313で検出された動ベクトルを基にフィール
ドの時間差による位置の補償を第2の動きベクトルで行
い、画素補間部312に出力する。この画素補間部31
2はフィールド調整部311から出力された画像を基に
実際の予測画像の画素を計算し予測画像を加算器302
および加算器309に夫々出力する。
The image memory 310 detects the first motion vector, and outputs the reproduced image stored in the image memory 310 to the field adjustment unit 311 for predicting the next frame. The field adjustment unit 311 performs position compensation based on the time difference of the field with the second motion vector based on the motion vector detected by the motion vector detection unit 313, and outputs the result to the pixel interpolation unit 312. This pixel interpolation unit 31
2 calculates the pixels of the actual predicted image based on the image output from the field adjustment unit 311 and adds the predicted image to the adder 302.
And to the adder 309.

【0024】図4に図3のフィールド調整部311の動
作を示す。画像メモリ310に蓄えられている再生画像
(以下、参照フレーム画像という)が第1フィールドと
第2フィールドで構成され、入力された入力フレーム画
像が第3フィールド,第4フィールドで構成されている
場合、第3フィールドの予測画像は第1フィールド時刻
の参照画像から、第4フィールドの画像は第2フィール
ド時刻の参照画像から予測を行うと参照画像の時間順序
と入力画像の時間順序が一致する。
FIG. 4 shows the operation of the field adjustment unit 311 in FIG. When the reproduced image stored in the image memory 310 (hereinafter referred to as a reference frame image) is composed of a first field and a second field, and the input frame image is composed of a third field and a fourth field. When the prediction image of the third field is predicted from the reference image at the first field time, and the prediction of the image of the fourth field is performed from the reference image at the second field time, the time order of the reference image matches the time order of the input image.

【0025】したがってフィールド調整部311は第1
フィールド,第2フィールドから元々のフィールド画像
より解像度の高いフィールド画像を第2の動きベクトル
を用いて作成する。すなわち解像度の高い第1フィール
ドを作成するために、時間的に後の第2フィールドの画
像を第1フィールドに第2の動きベクトルを用いて戻
す。第1の動きベクトルを(Vx,Vy)とすると第2
フィールドは第1フィールドに比ベ1フィールドの時間
分後の画像であり、第1の動きベクトルの時間の1/2
である。したがって動きに変化がないとすると第1フィ
ールドの時刻から第2フィールドの時刻までに(Vx/
2,Vy/2)動いていることになり、これを第2の動
きベクトルとする。したがってこの分を第2の動きベク
トルを用いて戻すことによって時間的に第1フィールド
を一致させることができる(a)。この動きベクトルに
よって戻すというのは、動きベクトルによる動き補償予
測と同様に動きベクトルが0の場合には第2フィールド
のフレーム内の画素位置を保ったまま合成し、動きベク
トルが0以外の場合には動きベクトルが0の画素位置を
基準に動きベクトルの値だけ画素位置を移動させて合成
し、解像度の高い第1フィールドを作成することであ
る。
Therefore, the field adjustment unit 311
From the field and the second field, a field image having a higher resolution than the original field image is created using the second motion vector. That is, in order to create a first field having a high resolution, an image of a second field that is temporally later is returned to the first field using the second motion vector. If the first motion vector is (Vx, Vy), the second
The field is an image that is one field later than the first field and is 1 / of the time of the first motion vector.
It is. Therefore, assuming that there is no change in the motion, (Vx /
2, Vy / 2), and this is set as a second motion vector. Therefore, the first field can be temporally matched by returning this portion using the second motion vector (a). In this motion vector
Therefore, returning is the motion compensation prediction based on the motion vector.
The second field when the motion vector is 0 as in the measurement
Compositing while maintaining the pixel position in the frame of
If the torque is not 0, the pixel position where the motion vector is 0
Synthesize by moving the pixel position by the value of the motion vector based on the reference
And creating a high resolution first field.
You.

【0026】この動き補正した第2フィールドと第1フ
ィールドから新たな第1フィールドを作成することによ
り元々のフレーム画像と同じ解像度を持った第1フィー
ルドの画像を得ることができる。また、逆に第2フィー
ルドに対し時間的に1フィールド分遅い第1フィールド
を第2の動きベクトル(Vx/2,Vy/2)を用いて
動きを進ませることにより、第2フィールドの時間を一
致させることができ(b)、同様にフレームと同じ解像
度を持った新たな第2フィールドを作成する。
By creating a new first field from the motion-corrected second field and first field, an image of the first field having the same resolution as the original frame image can be obtained. Conversely, the time of the second field is advanced by using the second motion vector (Vx / 2, Vy / 2) for the first field that is temporally one field later than the second field. (B), and a new second field having the same resolution as the frame is created.

【0027】これら解像度の高いフィールド画像の画素
の位置は入力画像の画素の位置とは必ずしも一致しない
ため、画素補間部312にて入力画素の位置の近傍の画
素から補間によって予測画素値を作成する。具体的には
従来の動き補償予測と同様に第1の動きベクトルの値に
対応した画素位置の画素を予測画素とするため、対応す
る画素位置に画素が無い場合には、対応する画素位置の
周辺の画素からの補間によって予測画素を算出する。こ
の場合の周辺の画素は、すなわち新たな第1フィールド
の画素のうち、元の第1フィールドの画素は第1の動き
ベクトルで示される画素位置の周辺の画素となり、元の
第2フィールドの画素は第1の動きベクトルと第2の動
きベクトルの合成によって示される画素位置の周辺の画
素となる。これによって第3フィールドは第1フィール
ドから、第4フィールドは第2フィールドから予測画像
を常に得ることができる。また、予測参照画像の解像度
は元のフレームの解像度と同じになるのでより予測誤差
の少ない予測画像を得ることができる。これにより画像
の圧縮効率が上がり、再生画像の画質の向上が得られる
という効果を有する。
Since the positions of the pixels of these high-resolution field images do not always coincide with the positions of the pixels of the input image, the pixel interpolation unit 312 creates a predicted pixel value by interpolation from pixels near the position of the input pixel. . In particular
As in the conventional motion compensation prediction, the value of the first motion vector is
To make the pixel at the corresponding pixel position the predicted pixel,
If there is no pixel at the pixel position
A predicted pixel is calculated by interpolation from surrounding pixels. This
, The surrounding pixels, ie, the new first field
Of the pixels in the original first field are in the first motion
Pixels around the pixel position indicated by the vector
The pixels in the second field are the first motion vector and the second motion vector.
Image around the pixel position indicated by the
Become prime. As a result, a predicted image can always be obtained from the third field from the first field and the fourth field from the second field. Further, since the resolution of the predicted reference image is the same as the resolution of the original frame, a predicted image with less prediction error can be obtained. This has the effect of increasing the image compression efficiency and improving the image quality of the reproduced image.

【0028】[0028]

【発明の効果】以上説明したように、本発明によれば、
フィールド分割後、補間によってつくられた、それぞれ
のフィールド画像、または一方のフィールド画像を動ベ
クトルを基に補正して他方のフィールドと合わせ作成し
たフィールド画像からそのフィールド画像に対応したフ
ィールド画像を予測誤差に用いるため、動き量によって
予測画像のフィールドが逆転してしまうことがなくな
る。したがって、精度の良い予測画像を得ることができ
る。
As described above, according to the present invention,
After field division, each field image created by interpolation or one field image is corrected based on the motion vector and combined with the other field to create a field image corresponding to the field image from the prediction error Therefore, the field of the predicted image does not reverse due to the amount of motion. Therefore, an accurate prediction image can be obtained.

【0029】また、動ベクトルの検出のマッチングも同
様の予測画像をもとに行うため、より精度が良く細かな
動ベクトルを検出することができるという効果を奏す
る。
Further, since the matching of the detection of the motion vector is also performed based on the same predicted image, there is an effect that a more accurate and fine motion vector can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明における実施の形態1の構成を示すブロ
ック図
FIG. 1 is a block diagram showing a configuration of a first embodiment of the present invention.

【図2】図1のフィールド画像分割部と、オーバーサン
プリング部の動作を説明するための図
FIG. 2 is a diagram for explaining operations of a field image dividing unit and an oversampling unit in FIG. 1;

【図3】本発明における実施の形態2の構成を示すブロ
ック図
FIG. 3 is a block diagram showing a configuration of a second embodiment of the present invention.

【図4】図3のフィールド調整部の動作を説明するため
の図
FIG. 4 is a diagram for explaining the operation of the field adjustment unit in FIG. 3;

【図5】従来の動き補償フレーム間予測符号化装置の構
成例を示すブロック図
FIG. 5 is a block diagram showing a configuration example of a conventional motion-compensated inter-frame predictive coding apparatus.

【符号の説明】[Explanation of symbols]

101,301 入力端子 102,109,302,309 加算器 103,303 直交変換部 104,304 量子化部 105,305 多重化部 106,306 出力端子 107,307 逆量子化部 108,308 逆直交変換部 110 フィールド画像分割部 111,112 オーバーサンプリング部 113,313 動ベクトル検出部 114 フレーム合成部 115,116,310 画像メモリ 311 フィールド調整部 312 画素補間部 101,301 Input terminal 102,109,302,309 Adder 103,303 Orthogonal transformation unit 104,304 Quantization unit 105,305 Multiplexing unit 106,306 Output terminal 107,307 Inverse quantization unit 108,308 Inverse orthogonal transformation Unit 110 Field image division unit 111, 112 Oversampling unit 113, 313 Motion vector detection unit 114 Frame synthesis unit 115, 116, 310 Image memory 311 Field adjustment unit 312 Pixel interpolation unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−130594(JP,A) 特表 平6−504169(JP,A) 1990年画像符号化シンポジウム(PC SJ90)P.175−176(8−1適応ライ ン補間フィールド間動き補償方式の検 討) ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-5-130594 (JP, A) JP-A-6-504169 (JP, A) 1990 Image Coding Symposium (PC SJ90) 175-176 (8-1 Study on adaptive line interpolation inter-field motion compensation method)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 参照フレームと被符号化フレームとの間
の第1の動きベクトルおよび前記参照フレームの第1フ
ィールドを用い、かつ、前記第1の動きベクトルに所定
の比を乗じて生成した第2の動きベクトルおよび前記参
照フレームの第2フィールドを用いて、 前記被符号化フレームの第1フィールドについて動き補
償を行う動き補償予測方法であって、 前記所定の比は、前記第1の動きベクトルの時間間隔と
前記第2の動きベクトルの時間間隔との比より定めるこ
とを特徴とする動き補償予測方法。
1. A first motion vector generated by using a first motion vector between a reference frame and a frame to be encoded and a first field of the reference frame, and multiplying the first motion vector by a predetermined ratio. A motion compensation prediction method for performing motion compensation on a first field of the encoded frame using a second motion vector and a second field of the reference frame, wherein the predetermined ratio is the first motion vector. A motion compensation prediction method, wherein the time interval is determined by a ratio between the time interval of the second motion vector and the time interval of the second motion vector.
【請求項2】 参照フレームと被符号化フレームとの間
の第1の動きベクトルおよび前記参照フレームの第2フ
ィールドを用い、かつ、前記第1の動きベクトルに所定
の比を乗じて生成した第2の動きベクトルおよび前記参
照フレームの第1フィールドを用いて、 前記被符号化フレームの第2フィールドについて動き補
償を行う動き補償予測方法であって、 前記所定の比は、前記第1の動きベクトルの時間間隔と
前記第2の動きベクトルの時間間隔との比より定めるこ
とを特徴とする動き補償予測方法。
2. A second motion vector generated by using a first motion vector between a reference frame and an encoded frame and a second field of the reference frame, and multiplying the first motion vector by a predetermined ratio. A motion compensation prediction method for performing motion compensation on a second field of the encoded frame using the first motion vector and the first field of the reference frame, wherein the predetermined ratio is the first motion vector. A motion compensation prediction method, wherein the time interval is determined by a ratio between the time interval of the second motion vector and the time interval of the second motion vector.
JP424198A 1998-01-12 1998-01-12 Motion compensation prediction method Expired - Lifetime JP3186685B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP424198A JP3186685B2 (en) 1998-01-12 1998-01-12 Motion compensation prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP424198A JP3186685B2 (en) 1998-01-12 1998-01-12 Motion compensation prediction method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29300491A Division JP2929044B2 (en) 1991-11-08 1991-11-08 Motion compensation prediction method

Publications (2)

Publication Number Publication Date
JPH10164600A JPH10164600A (en) 1998-06-19
JP3186685B2 true JP3186685B2 (en) 2001-07-11

Family

ID=11579060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP424198A Expired - Lifetime JP3186685B2 (en) 1998-01-12 1998-01-12 Motion compensation prediction method

Country Status (1)

Country Link
JP (1) JP3186685B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1990年画像符号化シンポジウム(PCSJ90)P.175−176(8−1適応ライン補間フィールド間動き補償方式の検討)

Also Published As

Publication number Publication date
JPH10164600A (en) 1998-06-19

Similar Documents

Publication Publication Date Title
JP4514081B2 (en) Motion vector extrapolation for transcoding a video sequence
EP0961991B1 (en) Method and arrangement for creating a high-resolution still picture
US7146056B2 (en) Efficient spatial scalable compression schemes
EP1592248B1 (en) Motion vector estimation employing adaptive temporal prediction
JP2911055B2 (en) Motion estimation method and apparatus
US7224733B1 (en) Interpolation filtering method for accurate sub-pixel motion assessment
US6154491A (en) Motion vector detecting method and apparatus
JP3649370B2 (en) Motion compensation coding apparatus and motion compensation coding method
US6909750B2 (en) Detection and proper interpolation of interlaced moving areas for MPEG decoding with embedded resizing
JPH11298861A (en) Method and device for converting frame number of image signal
KR100393063B1 (en) Video decoder having frame rate conversion and decoding method
US5579050A (en) Apparatus for encoding a video signal using a search grid
JPH0795591A (en) Digital picture signal processing unit
JPH0678298A (en) Motion compensation prediction device for interlace animation
JP3186685B2 (en) Motion compensation prediction method
JP2875549B2 (en) Video encoding device and video decoding device
JP2929044B2 (en) Motion compensation prediction method
US7415068B2 (en) Process for the format conversion of an image sequence
JP2624507B2 (en) Motion compensated telecine device
JP2925046B2 (en) Motion compensation prediction method for moving images
JP2001086508A (en) Method and device for moving image decoding
JP3201343B2 (en) Motion compensation prediction device for interlaced video
KR0129214B1 (en) Decoder of hdtv
JP2695244B2 (en) Image signal coding apparatus, image signal decoding apparatus, image signal coding method, and image signal decoding method
JP3201344B2 (en) Motion compensated prediction method and coding apparatus for interlaced video signal

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090511

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 11