JPH09182082A - Movement compensation prediction encoding method for moving image and device therefor - Google Patents

Movement compensation prediction encoding method for moving image and device therefor

Info

Publication number
JPH09182082A
JPH09182082A JP33720595A JP33720595A JPH09182082A JP H09182082 A JPH09182082 A JP H09182082A JP 33720595 A JP33720595 A JP 33720595A JP 33720595 A JP33720595 A JP 33720595A JP H09182082 A JPH09182082 A JP H09182082A
Authority
JP
Japan
Prior art keywords
motion
image
small area
value
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33720595A
Other languages
Japanese (ja)
Inventor
Hirotaka Jiyosawa
裕尚 如沢
Kazuto Kamikura
一人 上倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP33720595A priority Critical patent/JPH09182082A/en
Publication of JPH09182082A publication Critical patent/JPH09182082A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the prediction of an overlap movement compensation by compensating deformations such as not only a parallel movement but also a rotation, a magnification, a reduction and a shearing, etc. SOLUTION: The compensation encoding of a moving image becomes possible because the movements of various kinds of deformation movings such as not only a parallel moving but also a magnification, a reduction, a shearing and a rotation, etc., are calculated, a predictive image is prepared and each difference is quantized and encoded by dividing an encoding object image 1 into small areas, comparing the image 1 with a reference image to be positional information immediately proceeding and using the motion parameter 4 for every small area as an affine conversion parameter.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像通信・画像記
録等に利用される画像信号のディジタル圧縮符号化方法
とその装置とに関し、特に動画像の符号化における動き
補償部分の符号化と装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for digitally compressing and encoding an image signal used for image communication, image recording, etc. Regarding

【0002】[0002]

【従来の技術】動画像のディジタル圧縮符号化におい
て、動画像信号の時間冗長性を抑制する手段として、動
き補償フレーム間予測が用いられる。このフレーム間予
測では、通常、符号化対象画像を16画素X16ライン
等のブロックに区切り、各ブロック毎に参照画像との間
の動き量(動きベクトル)を検出し、参照画像を動きベ
クトル分シフトして生成した予測画像と符号化対象画像
との差分(動き補償予測誤差)信号を符号化する。動き
補償フレーム間予測により動画像のフレーム間相関は飛
躍的に向上し、単純フレーム間予測に比べ大幅な情報圧
縮が得られる。さらに、動き補償予測誤差信号に対して
離散コサイン変換(DCT:Discrete Cosine Transfor
m)や、サブバンド分割を施すことにより、空間方向の冗
長性も抑圧され、一層の情報圧縮が図られた。このた
め、テレビ電話、会議用ビデオ符号化(ITU−T勧告
H.261)、蓄積用ビデオ符号化(ISO/IEC
11172(MPEG−1))、蓄積、放送、通信向け
汎用ビデオ符号化(ISO/IEC 13818(MP
EG−2))等では、動き補償フレーム間予測による残
差信号をDCT符号化するハイブリッド符号化構成が採
用されている。以下、これらを代表して、H.261の
符号化アルゴリズムを図3を用いて簡単に説明する。
2. Description of the Related Art In digital compression encoding of moving images, motion-compensated interframe prediction is used as a means for suppressing temporal redundancy of moving image signals. In this inter-frame prediction, an encoding target image is usually divided into blocks such as 16 pixels × 16 lines, a motion amount (motion vector) between each block and the reference image is detected, and the reference image is shifted by the motion vector. A difference (motion compensation prediction error) signal between the prediction image generated in this way and the encoding target image is encoded. The motion-compensated inter-frame prediction dramatically improves the inter-frame correlation of a moving image, and provides a great amount of information compression as compared with the simple inter-frame prediction. Furthermore, a DCT (Discrete Cosine Transfor) is applied to the motion compensation prediction error signal.
By applying m) and sub-band division, the spatial redundancy is also suppressed and further information compression is achieved. Therefore, videophone, video coding for conference (ITU-T Recommendation H.261), video coding for storage (ISO / IEC
11172 (MPEG-1), general purpose video coding for storage, broadcasting and communication (ISO / IEC 13818 (MP
In EG-2)) and the like, a hybrid coding configuration for DCT-coding a residual signal by motion-compensated interframe prediction is adopted. Hereinafter, as a representative of these, H.264. The encoding algorithm of H.261 will be briefly described with reference to FIG.

【0003】まず、符号化対象画像1は、動きベクトル
検出部31に入力され、16画素×16ラインのマクロ
ブロックと称する正方形のブロックに分割される。動き
ベクトル検出部31では、符号化対象画像1の中の各マ
クロブロック毎に、参照画像との間の動き量を検出し、
得られた動きベクトル32をブロック動き補償部41に
送る。ここで、各マクロブロックの動きベクトルは、基
準方向xおよびそれに垂直な方向yの平行移動量として
求められる。すなわち、参照画像においては、着目のマ
クロブロックとのマッチング度が最も高いブロックの座
標と着目のマクロブロックの座標との変位として表され
る。動きベクトルの探索範囲は、着目のマクロブロック
の座標とその周囲の±15画素×±15ラインに制限さ
れる。
First, the image to be coded 1 is inputted to the motion vector detecting section 31 and divided into square blocks called macroblocks of 16 pixels × 16 lines. The motion vector detection unit 31 detects the amount of motion with respect to the reference image for each macroblock in the encoding target image 1,
The obtained motion vector 32 is sent to the block motion compensator 41. Here, the motion vector of each macroblock is obtained as a translation amount in the reference direction x and the direction y perpendicular thereto. That is, in the reference image, it is represented as a displacement between the coordinates of the block having the highest degree of matching with the macroblock of interest and the coordinates of the macroblock of interest. The motion vector search range is limited to the coordinates of the macroblock of interest and ± 15 pixels × ± 15 lines around it.

【0004】次に、ブロック動き補償部41では、各マ
クロブロック毎に動きベクトル32分シフトした座標に
位置する局部復号画像6を当該ブロックの予測値とし、
動き補償予測画像9を生成する。ここで得られる動き補
償予測画像9は符号化対象画蔵王1と共に減算器10に
入力される。両者の差分すなわち動き補償予測誤差11
は、DCT/量子化部42においてDCT変換され、さ
らに量子化されて圧縮差分データ13となる。ここで、
DCTのブロックサイズ8×8である。圧縮差分データ
13(量子化インデックス)は差分データ符号化部14
においてデータ圧縮され、差分画像符号化データ15と
なる。一方、動きベクトル32は動きベクトル符号化部
34において符号化され、得られた動きベクトル符号化
データ35は差分画像符号化データ15と共に多重化部
22にて多重化され、多重化データ23として伝送され
る。
Next, in the block motion compensating section 41, the locally decoded image 6 located at the coordinate shifted by 32 motion vectors for each macroblock is used as the prediction value of the block,
A motion compensation predicted image 9 is generated. The motion-compensated predicted image 9 obtained here is input to the subtractor 10 together with the encoding target image store King 1. Difference between the two, that is, motion compensation prediction error 11
Is subjected to DCT conversion in the DCT / quantization unit 42 and further quantized to become compressed difference data 13. here,
The block size of DCT is 8 × 8. The compressed difference data 13 (quantization index) is stored in the difference data encoding unit 14
In (1), the data is compressed and becomes the differential image coded data 15. On the other hand, the motion vector 32 is coded by the motion vector coding unit 34, and the obtained motion vector coded data 35 is multiplexed by the multiplexing unit 22 together with the difference image coded data 15 and transmitted as multiplexed data 23. To be done.

【0005】なお、復号器と同じ復号画像と符号器内で
も得るため、圧縮差分データ13(量子化インデック
ス)は逆量子化/逆DCT部43で量子化代表値に戻さ
れ、さらに逆DCT変換された後、復号差分画像17と
なる。復号差分画像17と動き補償画像9は加算器18
で加算され、局部復号画像19となる。この局部復号画
像19はフレームメモリ5に蓄積され、次のフレームの
符号化時に参照画像として用いられる。
Since the same decoded image and encoder are obtained in the decoder, the compressed difference data 13 (quantization index) is returned to the quantized representative value by the inverse quantization / inverse DCT unit 43, and the inverse DCT conversion is performed. Then, the decoded difference image 17 is obtained. The decoded difference image 17 and the motion compensation image 9 are added by an adder 18
Are added to form a locally decoded image 19. The locally decoded image 19 is stored in the frame memory 5 and is used as a reference image when the next frame is encoded.

【0006】[0006]

【発明が解決しようとする課題】上述した従来の動き補
償予測方法は、16画素×16ライン等のブロック毎に
1組の動きベクトルを与え、各ブロック単位に平行移動
量を補償するものである。
The above-described conventional motion compensation prediction method is to provide a set of motion vectors for each block such as 16 pixels × 16 lines and to compensate the translation amount for each block. .

【0007】したがって、隣接するブロックの動きベク
トルが異なる場合、予測画像中にブロック状の不連続歪
みが発生する。動きの激しい部分では、この不連続歪み
が特に顕著となり、予測誤差画像の符号化に十分な符号
量を割り当てることができない低レート符号化時には、
視覚的に大きな妨害となる。さらに、ブロック単位に求
めた動きベクトルにより動き補償を行った場合、プロッ
ク中心部の予測誤差は小さいが、ブロック境界に近付く
につれて予測誤差が大きくなる。
Therefore, when the motion vectors of adjacent blocks are different, block-like discontinuous distortion occurs in the predicted image. This discontinuous distortion becomes particularly noticeable in a portion with a lot of movement, and at the time of low-rate encoding in which a sufficient code amount cannot be allocated for encoding the prediction error image,
It is a great visual obstacle. Furthermore, when motion compensation is performed using the motion vector obtained in block units, the prediction error at the center of the block is small, but the prediction error increases as the block boundary approaches.

【0008】上記問題点を解決するための一手段とし
て、予測ブロックを互いにオーバーラップさせ、各オー
バーラップブロックの重み加算により予測画像を生成す
るオーバーラップ動き補償方式が提案されている。本方
式は、M.Ohta等による"EntropyCoding for Waveleet Tr
ansform of Image and Its Application for Motion Pi
cture Coding"(SPIE Symposium on Visial Communicati
ons and Image Processing '91,pp. 456, 466, 1991
11月)と、H. Watanabe等による"Windowed Motion Com
pensation"(SPIE Symposium on Visial Communications
and Image Processing '91, pp. 582-589, 1991 11
月)で同時に提案されたものである。
As a means for solving the above problems, an overlap motion compensation method has been proposed in which prediction blocks are overlapped with each other and a weighted sum of each overlap block is used to generate a prediction image. This method is based on "Entropy Coding for Waveleet Tr
ansform of Image and Its Application for Motion Pi
cture Coding "(SPIE Symposium on Visial Communicati
ons and Image Processing '91, pp. 456, 466, 1991
November) and "Windowed Motion Com by H. Watanabe and others.
pensation "(SPIE Symposium on Visial Communications
and Image Processing '91, pp. 582-589, 1991 11
It was proposed at the same time.

【0009】さらに、1995年11月に正式に勧告さ
れる低レート用符号化ITU−TH.263にも採用さ
れている。以下、オーバーラップ動き補償を、図4、図
5により簡単に説明する。
Further, the low-rate coding ITU-TH. It is also used in 263. The overlap motion compensation will be briefly described below with reference to FIGS.

【0010】図4に示すように、符号化対象画像1を1
6画素×16ラインのマクロブロックに分割し、動きベ
クトル検出部31で各マクロブロック毎の動きベクトル
32を求める。次に、オーバーラップ動き補償器33に
おいて、当該マクロブロックの動きベクトルと、その周
囲の3つのマクロブロックの動きベクトル、合わせて4
本の動きベクトルを用い、4つの予測値の重み付け加算
平均をとることにより、最終的な予測値を計算する。以
下に、j行i列目のマクロブロックBi内の座標(x、
y)に位置する画素の予測値を計算する手順を図6によ
り詳しく述べる。
As shown in FIG. 4, the encoding target image 1 is set to 1
It is divided into macroblocks of 6 pixels × 16 lines, and the motion vector detection unit 31 obtains a motion vector 32 for each macroblock. Next, in the overlap motion compensator 33, the motion vector of the macroblock in question and the motion vectors of the three macroblocks around it are combined into a total of 4
The final predicted value is calculated by using the motion vector of the book and taking the weighted average of the four predicted values. Hereinafter, j th row and the i-th column of the macroblock B i in the coordinates (x,
The procedure for calculating the predicted value of the pixel located at y) will be described in detail with reference to FIG.

【0011】1.左上のマクロブロックBi-1,j-1の動
きベクトル(Vxi-1,j-1,Vyi-1, j-1)を用い、現フ
レームの画素P(x、y)に対応する1つ目の予測値
P’(x+Vxi-1,j-1,y+Vyi-1,j-1)を求める。
1. The motion vector (Vx i-1, j-1 , Vy i-1, j-1 ) of the upper left macroblock B i-1, j-1 is used to correspond to the pixel P (x, y) of the current frame. The first predicted value P '(x + Vx i-1, j-1 , y + Vy i-1, j-1 ) is obtained.

【0012】2.直上マクロブロックBi,j-1の動きベ
クトル(Vxi,j-1,Vyi,j-1)を用い、現フレームの
画素P(x、y)に対する2つ目の予測値P'(x+V
i,j -1,y+Vyi,j-1)を求める。
2. Using the motion vector (Vx i, j-1 , Vy i, j-1 ) of the macroblock B i, j-1 immediately above, the second prediction value P ′ (for the pixel P (x, y) of the current frame is x + V
x i, j -1, y + Vy i, j-1) obtained.

【0013】3.直左マクロブロックBi-1,jの動きベ
クトル(Vxi-1,j,Vyi-1,j)を用い、現フレームの
画素P(x、y)に対する3つ目の予測値P'(x+V
i-1 ,j,y+Vyi-1,j)を求める。
3. Using the motion vector (Vx i-1, j , Vy i-1, j ) of the immediate left macroblock B i-1, j , the third prediction value P ′ for the pixel P (x, y) of the current frame (X + V
x i−1 , j , y + Vy i−1, j ) is obtained.

【0014】4.当該マクロブロックBi,jの動きベク
トル(Vxi,j,Vyi,j)を用い、現フレームの画素P
(x、y)に対する4つ目の予測値P'(x+Vxi,j
y+Vyi、j)を求める。
4. Using the motion vector (Vx i, j , Vy i, j ) of the macroblock B i, j , the pixel P of the current frame
The fourth predicted value P ′ (x + Vx i, j , for (x, y)
y + Vy i, j ) is obtained.

【0015】5.以上の4つの予測値それぞれに対して
重み係数Wi-1,j-1,(x,y),Wi,j-1(x,y),
i-1,j(x,y), Wi,jを掛け、これらの総和を
画素P(x、y)に対する予測値P”(x、y)とす
る。すなわち
5. Weighting factors W i-1, j-1 , (x, y), W i, j-1 (x, y), for each of the above four predicted values
W i-1, j (x, y) and W i, j are multiplied, and the sum of these is taken as the predicted value P ″ (x, y) for the pixel P (x, y).

【0016】[0016]

【数1】 となる。但し、 Wi-1,j-1(x,y)+Wi,j-1(x,y)+Wi-1,j(x,y)+Wi,j(x, y)=1 (2) である。4つの予測値に対する重み係数は、例えばIT
U一T H.263では,図7のように定義されてい
る。H 263では、当該ブロックの2行3列目の画素
の予測値を求める際には、図おり、当該ブロックBi,j
の動きベクトル(Vxi,j,Vyi,j)が指すP’(x+
Vxi,j,y+Vyi,j)ni対する重み係数W
i,j(x,y)は,5/8となる。また、図7(b)よ
り、直上ブロックBi、j ー1の動きベクトル(Vxi,j-1
Vyi,j-1)が指すP'(x+Vxi,j-1,y+V
i,j-1)に対する重み係数Wi、jー1(x,y)は2/8
となる。同様に、図7(c)より直左ブロックBi-1,y
の動きベクトル(Vxi-1,j,Vyi-1,j)が指すP’
(x+Vxi-1,j,y+Vyi-1,j)に対する重み係数W
i-1,j(x,y)は,1/8となる。なお、H.263
では、当該ブロックの斜め方向に位置するマクロブロッ
クの動きベクトルを用いた予測は行わない。すなわち、 Wi-1,j-1(x,y)=0 (3) である。
[Equation 1] Becomes However, W i-1, j-1 (x, y) + W i, j-1 (x, y) + W i-1, j (x, y) + W i, j (x, y) = 1 (2 ) Is. The weighting factors for the four predicted values are, for example, IT
U-TH. In H.263, it is defined as shown in FIG. In H 263, when the predicted value of the pixel in the second row and third column of the block is calculated ,
Of the motion vector (Vx i, j , Vy i, j ) of P '(x +
Vx i, j , y + Vy i, j ) ni weighting coefficient W
i, j (x, y) becomes 5/8. Further, from FIG. 7 (b), the immediately above block B i, the motion vector of the j over 1 (Vx i, j-1 ,
Py (x + Vx i, j-1 , y + V) indicated by Vy i, j-1 )
The weighting coefficient W i, j-1 (x, y) for y i, j-1 ) is 2/8
Becomes Similarly, as shown in FIG. 7C, the block on the immediate left B i-1, y
Of the motion vector (Vx i-1, j , Vy i-1, j ) of P
Weighting coefficient W for (x + Vx i-1, j , y + Vy i-1, j )
i-1, j (x, y) becomes 1/8. In addition, H. 263
Then, the prediction using the motion vector of the macroblock located in the diagonal direction of the block is not performed. That is, W i-1, j-1 (x, y) = 0 (3).

【0017】図6に示すように、P'(x+Vxi,j,y
+Vyi,j)を除いたP'(x+Vx i-1,j-1,y+Vy
i-1,j-1)、P'(Vxi,j-1,y+Vyi,j-1)、P'
(x+Vxi-1,j,y+Vyi-1,j)の3つは、それぞれ
マクロブロックBi-1,j-1、Bi-1 ,、,Bi,j-1が対応す
るブロックの外側に位置している。つまり、マクロブロ
ックの外側に4画素づつオーバーラップさせた24画素
×24ラインのブロックを用いて予測していることとな
る。オーバーラップ動き補償と称されるのはこのためで
ある。
As shown in FIG. 6, P '(x + Vxi, j, Y
+ Vyi, j) Is excluded, P '(x + Vx i-1, j-1, Y + Vy
i-1, j-1), P '(Vxi, j-1, Y + Vyi, j-1), P '
(X + Vxi-1, j, Y + Vyi-1, j) Are three
Macro block Bi-1, j-1, Bi-1 ,,, Bi, j-1Corresponds to
It is located outside the block. In other words, Macroblo
24 pixels with 4 pixels overlapping each outside
It is assumed that prediction is performed using blocks of × 24 lines.
You. This is why it is called overlap motion compensation.
is there.

【0018】以上は、(x、y)がBi,jの左上にある
場合の例である。例えば、(x、y)がBi,jの右上に
ある場合は、直上マクロブロックBi,j-1、右上マクロ
ブロックBi+1,j-1、当該マクロブロックBi,jの動きベ
クトルを用いる。同様に、(x、y)がBi,jの左下に
ある場合には、直左マクロブロックBi-1,j、当該マク
ロブロックBi,j、左下マクロブロックBi-1,j+1、直下
マクロブロックBi,j+1を用い、(x、y)がBi,jの右
下にある場合は、当該マクロブロックBi,j直右マクロ
ブロックBi+1,j、直下マクロブロックBi,j+1、右下マ
クロブロックBi+1j +1を用いる。
The above is an example of the case where (x, y) is at the upper left of B i, j . For example, when (x, y) is at the upper right of B i, j , the macroblock B i, j-1 immediately above, the macroblock B i + 1, j-1 at the upper right , and the motion of the macroblock B i, j . Use a vector. Similarly, when (x, y) is at the lower left of B i, j , the immediate left macroblock B i-1, j , the macroblock B i, j , and the lower left macroblock B i-1, j +. 1 , using the immediate lower macroblock B i, j + 1 and (x, y) is at the lower right of B i, j , the macroblock B i, j immediately right macroblock B i + 1, j , The immediately lower macroblock B i, j + 1 and the lower right macroblock B i + 1j +1 are used.

【0019】しかし、前記の動き補償予測方法は、各ブ
ロックの平行移動のみを補償するものである。したがっ
て、被写体の回転、拡大・縮小等の変形を補償すること
は不可能である。すなわち、物体の変形を伴う場合に
は、予測効率が大幅に低下するという問題がある。
However, the above motion compensation prediction method compensates only the parallel movement of each block. Therefore, it is impossible to compensate for the deformation of the subject such as rotation and enlargement / reduction. That is, when the object is deformed, there is a problem that the prediction efficiency is significantly reduced.

【0020】本発明の目的は、上記問題点を解決し、回
転、拡大・縮小等の変形を補償することによりオーバー
ラップ動き補償の予測性能を一層向上させる動画像の動
き補償予測符号化方法とその装置を提供することであ
る。
An object of the present invention is to solve the above problems and to provide a motion compensation predictive coding method for a moving image, which further improves the prediction performance of overlap motion compensation by compensating for deformations such as rotation and enlargement / reduction. It is to provide the device.

【0021】[0021]

【課題を解決するための手段】本発明の動画像の動き補
償予測符号化方法は、符号化対象画像を複数の小領域に
分割し、符号化対象画像と予測参照画像との間の動き量
を前記小領域毎に求め、小領域内の各画素の予測値を求
めるにあたり、当該小領域の動きベクトルが指す位置の
濃淡値と、隣接小領域の動きベクトルが指す位置の濃淡
値の各々に重み係数を掛け、これらを加算した値を予測
値とすることによって予測画像を生成し、該予測画像と
符号化対象画像との差分を符号化する動画像の動き補償
予測符号化方法において、前記小領域の動きが、基準と
する方向(x)およびそれに垂直な方向(y)への平行
移動、回転、拡大、縮小、せん断、変形のうちの少なく
とも2つを表現する、それぞれの動きパラメータにより
記述される手順を有している。
A motion-compensated predictive coding method for a moving picture according to the present invention divides a coding target image into a plurality of small areas, and calculates a motion amount between the coding target image and a prediction reference image. Is calculated for each of the small areas, and in obtaining the predicted value of each pixel in the small area, the gray value of the position indicated by the motion vector of the small area and the gray value of the position indicated by the motion vector of the adjacent small area are respectively set. A motion-compensated predictive coding method for a moving image, wherein a predictive image is generated by multiplying a weighting coefficient, and a value obtained by adding these is used as a predictive value, and a difference between the predictive image and an encoding target image is encoded. Depending on the respective motion parameters, the movement of the small area expresses at least two of translation, rotation, enlargement, reduction, shearing, and deformation in the reference direction (x) and the direction (y) perpendicular thereto. The steps described It is.

【0022】本発明の動画像の動き補償予測符号化装置
は、符号化対象画像を複数の小領域に分割し、符号化対
象画像と予測参照画像との間の動き量を前記小領域毎に
求め、小領域内の各画素の予測値を求めるにあたり、当
該小領域の動きベクトルが指す位置の濃淡値と、隣接小
領域の動きベクトルが指す位置の濃淡値の各々に重み係
数を掛け、これらを加算した値を予測値とすることによ
って予測画像を生成し、該予測画像と符号化対象画像と
の差分を符号化する動画像の動き補償予測符号化装置に
おいて、前記小領域の動きを、基準とする方向(x)お
よびそれに垂直な方向(y)への平行移動、回転、拡
大、縮小、変形のうちの少なくとも2つを表現する、そ
れぞれの動きパラメータにより記述する手段を有してい
る。
The motion-compensated predictive coding apparatus for a moving image according to the present invention divides a coding target image into a plurality of small regions, and calculates a motion amount between the coding target image and the prediction reference image for each of the small regions. When obtaining the predicted value of each pixel in the small area, multiply the gray value of the position indicated by the motion vector of the small area and the gray value of the position indicated by the motion vector of the adjacent small area by a weighting factor, In the motion-compensated predictive coding apparatus for a moving image, which generates a predicted image by setting a value obtained by adding the predicted value and codes a difference between the predicted image and the image to be coded, It has means for describing at least two of translation, rotation, enlargement, reduction, and deformation in a reference direction (x) and a direction (y) perpendicular to the reference direction by each motion parameter. .

【0023】また、本発明の動画像の動き補償予測符号
化装置の一実施態様は、符号化対象画像を予め決められ
ている小領域にに分割する手段と、前記各小領域毎の直
前の状態の画像を参照画像として再生する手段と、各少
領域毎の動きベクトルを前記参照画像と比較して検出す
る手段と、該動きベクトルを動きの状態によって成分別
に分解し前記参照画像に最もマッチング度が高い小領域
を選出して各小領域毎の変位とする手段と当該小領域の
動きベクトルが指す位置の濃淡値と、隣接小領域の動き
ベクトルが指す位置の濃淡値の各々に重み係数を掛け、
これらを加算した値を予測値とすることによって各小領
域毎の補償予測値を生成する手段と、各小領域毎の補償
予測値と符号化対象画像との差から動き補償予測誤差を
算出する手段と、該動き補償予測誤差の空間冗長度を圧
縮する手段と、量子化された圧縮差分を符号化する手段
と、前記小領域毎の動きベクトルを符号化する手段と、
前記符号化された差分データおよび前記動きベクトル符
号化データとを多重化して出力する手段を有する、動画
像の動き補償予測符号化装置において、前記各小領域毎
の補償予測を生成する手段が、平行移動、拡大、縮小、
反転、せん断、回転、変形のうちの少なくとも2つを表
現する動きパラメータにより動き補償予測値を生成する
ものである。
Further, an embodiment of the motion compensation predictive coding apparatus for a moving picture according to the present invention comprises means for dividing a coding target picture into predetermined small areas, and means for immediately preceding each small area. Means for reproducing an image of a state as a reference image, means for detecting a motion vector of each small area by comparing it with the reference image, and the motion vector being decomposed into components according to the motion state to best match the reference image. A means for selecting a small area having a high degree of displacement and a displacement for each small area, a gray value of a position indicated by a motion vector of the small area, and a weighting coefficient for each gray value of a position indicated by a motion vector of an adjacent small area. Multiply
A means for generating a compensation prediction value for each small area by using a value obtained by adding these as a prediction value, and a motion compensation prediction error is calculated from the difference between the compensation prediction value for each small area and the image to be encoded. Means, means for compressing the spatial redundancy of the motion compensation prediction error, means for encoding the quantized compression difference, and means for encoding the motion vector for each small region,
In the motion compensation predictive coding apparatus for a moving image, having means for multiplexing and outputting the coded difference data and the motion vector coded data, a means for generating the compensation prediction for each of the small regions, Translation, enlargement, reduction,
The motion compensation prediction value is generated by a motion parameter expressing at least two of inversion, shearing, rotation, and deformation.

【0024】また、前記動き補償予測値を生成する手段
がアフィン変換パラメータを使用する計算によるもの
が、好ましい態様である。
In a preferred mode, the means for generating the motion-compensated predicted value is calculated by using an affine transformation parameter.

【0025】[0025]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0026】図1は本発明の動画像の動き補償予測符号
化方法が適用された符号化装置のブロック図である。
FIG. 1 is a block diagram of a coding device to which the motion compensation predictive coding method of the present invention is applied.

【0027】この符号化装置では、始めに符号化対象画
像1が動きモデル2と共に動きパラメータ検出部3に入
力され、各小領域毎の動きパラメータ4が求められる。
ここで、小領域の大きさと形状としては、一般的には1
6画素×16ライン等の矩形ブロックであるが、必ずし
もこれによる必要はない。
In this encoding apparatus, the image to be encoded 1 is first input to the motion parameter detector 3 together with the motion model 2 and the motion parameter 4 for each small area is obtained.
Here, the size and shape of the small area is generally 1
It is a rectangular block of 6 pixels × 16 lines, but it is not always necessary.

【0028】動きモデル2の例としては、射影変換があ
る。射影変換の式を以下に示す。
An example of the motion model 2 is projective transformation. The formula of the projective transformation is shown below.

【0029】[0029]

【数2】 [Equation 2]

【0030】[0030]

【数3】 射影変間は2次元変換の一般表現であり、p=q=0、
s=1としたものがアフィン変換と呼ばれる。アフィン
変換の式を以下に示す。
(Equation 3) The projective transformation interval is a general expression of a two-dimensional transformation, and p = q = 0,
The one with s = 1 is called an affine transformation. The affine transformation formula is shown below.

【0031】 x'=ax+by+tx (6) y'=cx+dy+ty (7) これを行列表記に書き換えると以下のようになる。[0031] x '= ax + by + t x (6) y' = cx + dy + t y (7) is as follows rewrite this matrix notation.

【0032】[0032]

【数4】 ここで,tx,ty は,それぞれx方向とy方向の平行
移動量を表す。a=d=1で、かつ、b=c=0の場
合、従来の平行移動のみによる動き補償となる。すなわ
(Equation 4) Here, t x and t y respectively represent parallel movement amounts in the x direction and the y direction. When a = d = 1 and b = c = 0, the conventional motion compensation is performed only by the parallel movement. Ie

【0033】[0033]

【数5】 アフィン変換パラメータaにより、以下の変換が実現で
きる。
(Equation 5) The following conversion can be realized by the affine conversion parameter a.

【0034】 a>1 : x軸方向の拡大 a=1 : 変化なし 0<a<1 : x軸方向の縮小 a=0 : y軸に対する投影 ー1<a<0 : x軸方向に縮小後、y軸に関し反転 a=ー1: y軸に関する反転 a<ー1: xに方向に拡大後、y軸に関し反転 同様に、アフィン変換パラメータdによる変換はy軸方
向に関する拡大/縮小を表現し、、dが負ならx軸に関
する反転を伴う。
A> 1: enlargement in the x-axis direction a = 1: no change 0 <a <1: reduction in the x-axis direction a = 0: projection on the y-axis-1 <a <0: after reduction in the x-axis direction , Inversion with respect to y-axis a = -1: inversion with respect to y-axis a <-1: after expansion in the direction to x, then inversion with respect to y-axis Similarly, the conversion by the affine transformation parameter d expresses expansion / contraction in the y-axis direction. ,, d is negative, with inversion about the x-axis.

【0035】アフィン変換パラメータbは、x軸方向の
せん断を表現する。例えば、a=d=1でかつc=tx
=ty=0の場合、変換式は以下のようになる。
The affine transformation parameter b represents shear in the x-axis direction. For example, a = d = 1 and c = t x
= T y = 0, the conversion formula is as follows.

【0036】 x'=x+by (10) y'=y (11)X ′ = x + by (10) y ′ = y (11)

【0037】上式から分かるように、この変換によりx
軸上の点は動かず、x軸上にない点は、b×yだけ右側
にシフトする(図5(a))。この意味は正方形にこの
変換を適用した変換図形(図5(b))が、せん断力を
正方形の弾性体に加えた場合と同じである。同様に、ア
フィン変換パラメータcは、y軸方向のせん断を表現す
る。a=d=1でかつb=0の場合、y軸上の点は動か
ず、y軸上にない点はc×xだけ上方にシフトする。さ
らに、a=cosθ,b=sinθ,c=−sinθ,
d=cosθの場合は角度θの回転を表現できる。以上
のように、アフィン変換により拡大、縮小、反転、せん
断、回転等の様々な変換とこれらの組み合せを自由に表
現し得る。
As can be seen from the above equation, this conversion results in x
Points on the axis do not move, and points on the x-axis shift to the right by b × y (FIG. 5 (a)). This meaning is the same as in the case where the transformation figure in which this transformation is applied to a square (FIG. 5B) is applied with a shearing force on a square elastic body. Similarly, the affine transformation parameter c represents shear in the y-axis direction. For a = d = 1 and b = 0, points on the y-axis do not move, points not on the y-axis shift up by c × x. Furthermore, a = cos θ, b = sin θ, c = −sin θ,
When d = cos θ, the rotation of the angle θ can be expressed. As described above, various transformations such as enlargement, reduction, inversion, shearing, rotation, and combinations thereof can be freely expressed by the affine transformation.

【0038】(8)式によるアフィン変換を簡略化し、
せん断を省略した式を以下に示す。
Simplifying the affine transformation by the equation (8),
The equation without shearing is shown below.

【0039】[0039]

【数6】 を用いることもできる(H. Jozawa "Segment-Based Vid
eo Coding Using An Affine Model", SPIE Symposium o
n visial Communications and Image Processing'94pp.
1605-1614, September 1994)。以上が本発明のオーバ
ーラップ動き補償に用いる動きモデルの例である。
(Equation 6) Can also be used (H. Jozawa "Segment-Based Vid
eo Coding Using An Affine Model ", SPIE Symposium o
n visial Communications and Image Processing'94pp.
1605-1614, September 1994). The above is an example of the motion model used for the overlap motion compensation of the present invention.

【0040】動き検出部3では、例えば特願平6ー11
6260「動きパラメータ探索方法」で出願した方法に
より動きパラメータ4を求めることができる。特願平6
ー116260における動きパラメータ発生方法を以下
に示す。ここで、動きモデルは式(12)の5パラメー
タのアフィン変換である。
In the motion detector 3, for example, Japanese Patent Application No. 6-11
The motion parameter 4 can be obtained by the method applied in 6260 “Motion Parameter Search Method”. Japanese Patent Application No. 6
The method of generating motion parameters in -116260 will be described below. Here, the motion model is the five-parameter affine transformation of equation (12).

【0041】図2に示すように、動きパラメータ検出部
3は、入力画像1と参照画像102は平行移動パラメー
タ探索部103に入力され、ブロックマッチング法によ
る平行移動パラメータ(tx、ty)探索の結果、誤差評
価値の小さいものから順に所定の個数の初期平行移動パ
ラメータ104が求められる。初期平行移動パラメータ
104は入力画像と参照画像102と共に平行移動、拡
大、縮小、回転パラメータ探索部105に入力される。
平行移動、拡大、縮小、回転パラメータ探索部105で
は、初期平行移動パラメータ104について、該初期値
を含む所定の微小範囲内で平行移動パラメータを変化さ
せると共に、拡大、縮小パラメータ(C x、Cy)および
回転パラメータ(θ)を変化させ、その結果最も小さい
マッチング誤差評価値を与えるパラメータの組み合せを
最終的なアフィン変換パラメータ106として出力す
る。探索方法の一例を以下に示す。
As shown in FIG. 2, the motion parameter detector
3 is a translation parameter for the input image 1 and the reference image 102.
Input to the data search unit 103, and the block matching method is used.
Translation parameter (tx, Ty) Search results, error evaluation
Starting from the smallest value, a predetermined number of initial translation
The parameter 104 is required. Initial translation parameter
Reference numeral 104 denotes a translation and expansion together with the input image and the reference image 102.
It is input to the large, reduction, and rotation parameter search unit 105.
In parallel translation, enlargement, reduction, rotation parameter search unit 105
Is the initial value of the initial translation parameter 104.
The translation parameter is changed within a predetermined minute range including
And enlargement / reduction parameter (C x, Cy)and
Rotation parameter (θ) is changed, resulting in the smallest
A combination of parameters that gives a matching error evaluation value
Output as the final affine transformation parameter 106
You. An example of the search method is shown below.

【0042】 まず、第一段(平行移動 パラメータ探索部103)に
て、xおよびy方向に±15画素を1画素刻みで探索
し、31×31=961個の探索点の内、誤差評価の小
さい方から順に4点を初期平行移動パラメータ104と
する。次に、第二段(平行移動・拡大/縮小・回転パラ
メータ探索部105)により、前記4点の周囲±0.5
画素の範囲を0.5画素刻みで変化させると共に、拡大
/縮小パラメータについては0.8〜1.2の範囲を
0.1刻みで、回転パラメータについては0〜2πの範
囲をπ/4刻みで変化させ、全ての探索点(9×5×8
=360点)の内誤差評価値の最も小さいものをアフィ
ン変換パラメータとして求める。6パラメータ(a,
b,c,d,tx,ty)の場合も全く同様である。
[0042] First, in the first stage (translation parameter search unit 103), ± 15 pixels are searched in 1-pixel increments in the x and y directions, and from 31 × 31 = 961 search points, the one with the smallest error evaluation is selected. The four points are set as the initial translation parameter 104 in order. Next, the second stage (parallel movement / enlargement / reduction / rotation parameter search unit 105) performs ± 0.5 around the four points.
The pixel range is changed in 0.5 pixel steps, and the enlargement / reduction parameter is in the range of 0.8 to 1.2 in 0.1 steps and the rotation parameter is in the range of 0 to 2π in π / 4 steps. Change all search points (9 × 5 × 8
= 360 points), the smallest error evaluation value is obtained as an affine transformation parameter. 6 parameters (a,
b, c, d, t x , t y ) is exactly the same.

【0043】さて、動き検出部3で求められた小領域毎
の動きパラメータ4は、フレームメモリ5に蓄積された
局部復号画像6と共にオーバーラップ動き補償部7に入
力される。オーバーラップ動き補償部7では、各小領域
(以下マクロブロックと称す)毎にx、y方向の平行移
動に加え、回転,拡大,縮小等の変形を伴った予測を行
い、動き補償予測画像9を生成する。オーバーラップ動
き補償部7における予測画像の生成例を図8に示す。以
下に、j行i列目のマクロブロックBi,j内の座標
(x、y)に位置する画素を計算する手順を詳しく述べ
る。
The motion parameter 4 for each small area obtained by the motion detector 3 is input to the overlap motion compensator 7 together with the locally decoded image 6 stored in the frame memory 5. The overlap motion compensation unit 7 performs prediction with deformation such as rotation, enlargement, and reduction in addition to parallel movement in the x and y directions for each small area (hereinafter referred to as macroblock), and a motion compensation predicted image 9 To generate. FIG. 8 shows an example of generation of a predicted image in the overlap motion compensation unit 7. The procedure for calculating the pixel located at the coordinate (x, y) in the macroblock B i, j on the j-th row and the i-th column will be described in detail below.

【0044】1.左上のマクロブロックBi-1,j-1の動
きパラメータ(ai-1,j-1,bi-1,j- 1 ,ci-1,j-1,d
i-1,j-1,txi-1,j-1,tyi-1,j-1)を用い現フレー
ムの画素P(x、y)に対応する1つ目の予測値P'
(x'i-1,j-1,y'i-1,j-1)を求める。
1. The motion parameters (a i-1, j-1 , b i-1, j- 1 , c i-1, j-1 , d of the upper left macroblock B i-1, j-1 are
i-1, j-1 , tx i-1, j-1 , ty i-1, j-1 ), and the first predicted value P'corresponding to the pixel P (x, y) of the current frame
(X ' i-1, j-1 , y'i -1, j-1 ) is calculated.

【0045】[0045]

【数7】 図8はx、y方向の拡大(a,d>1,b=c=0)の
例を示している。
(Equation 7) FIG. 8 shows an example of enlargement in the x and y directions (a, d> 1, b = c = 0).

【0046】2.直上のマクロブロックBi,j-1の動き
パラメータ(ai,j-1,bi,j-1,ci ,j-1,di,j-1,t
i,j-1,tyi,j-1を用い現フレームの画素P(x、
y)に対応する2つ目の予測値P’(x'i,j-1,y'
i,j-1)を求める。
2. The motion parameters (a i, j-1 , b i, j-1 , c i , j-1 , d i, j-1 , t of the macroblock B i, j-1 immediately above it.
x i, j−1 , ty i, j−1 are used for the pixel P (x,
second predicted value P '( x'i, j-1 , y'corresponding to y)
i, j-1 ).

【0047】[0047]

【数8】 図8は、x、y方向の縮小(0<a,d<1,b=c=
0)の例を示す。
(Equation 8) FIG. 8 shows reduction in the x and y directions (0 <a, d <1, b = c =
0) is shown.

【0048】3.直左のマクロブロックBi-1,jの動き
パラメータ(ai-1,j,bi-1.j,ci -1,j,di-1,j,t
i-1.j,tyi-1,jを用い、現フレームの画素P(x、
y)に対応する3つ目の予測値P’(x'i-1,j,y'
i-1,j)を求める。
3. The motion parameters (a i-1, j , b i-1.j , c i -1, j , d i-1, j , t of the macro blocks B i-1, j on the immediate left are
x i−1.j , ty i−1, j , the pixel P (x,
The third predicted value P '(x' i-1, j , y'corresponding to y)
i-1, j ) is obtained.

【0049】[0049]

【数9】 図8は、x、y方向の縮小と回転を組み合せた例を示し
ている(a=d=cosθ,b=sinθ,c=−si
nθでかつ0<a,d<1)。
[Equation 9] FIG. 8 shows an example in which reduction and rotation in the x and y directions are combined (a = d = cos θ, b = sin θ, c = −si).
nθ and 0 <a, d <1).

【0050】4.当該マクロブロックBi,jの動きパラ
メータ(ai,j,bi,j,ci,j,di.j,txi,j,ty
i,j)を用い、現フレームの画素P(x、y)に対応す
る4つ目の予測値P’(x'i,j,y'i,j)を求める。
4. The motion parameters (a i, j , b i, j , c i, j , d ij , tx i, j , ty) of the macro block B i, j.
i, j ) is used to obtain the fourth predicted value P ′ (x ′ i, j , y ′ i, j ) corresponding to the pixel P (x, y) of the current frame.

【0051】[0051]

【数10】 図8は、回転の例を示している (a=d=cosθ,
b=sinθ,c=−sinθ)。
(Equation 10) FIG. 8 shows an example of rotation (a = d = cos θ,
b = sin θ, c = −sin θ).

【0052】また、アフィン変換により求められる
(x,y)の対応点(x',y')は必ずしも整数ではな
い。したがって、参照画像中で内挿計算を行う必要があ
る。この場合は、例えば図9に示すように、マッチング
先の座標の周囲4近傍の画素値P'(x1,y1)、P'、
(x1+1,y1)、P'(x1,y1+1)、P'(x1
1,y1+1)から内挿計算を行う(x1=x’の整数部
分、y1=y’の整数部分)。wx1、wx2、wy1、w
2は重み係数で、これらの重みを掛けた値の総和
The corresponding point (x ', y') of (x, y) obtained by affine transformation is not necessarily an integer. Therefore, it is necessary to perform interpolation calculation in the reference image. In this case, for example, as shown in FIG. 9, pixel values P ′ (x 1 , y 1 ), P ′, and 4 ′ around the coordinates of the matching destination are shown.
(X 1 +1, y 1 ), P '(x 1 , y 1 +1), P' (x 1 +
1, y 1 +1) is interpolated (x 1 = x ′ integer part, y 1 = y ′ integer part). wx 1 , wx 2 , wy 1 , w
y 2 is a weighting coefficient, which is the sum of values multiplied by these weights.

【0053】[0053]

【数11】 [Equation 11]

【0054】[0054]

【数12】 (Equation 12)

【0055】[0055]

【数13】 (Equation 13)

【0056】[0056]

【数14】 [Equation 14]

【0057】[0057]

【数15】 を予測値とする。(Equation 15) Is the predicted value.

【0058】5.以上の4つの予測値それぞれに対して
重み係数Wi-1,j-1(x,y),Wi,j-1(x,y),W
i-1,j(x,y),Wi,j(x,y)を掛け、これらの総
和を画素P(x、y)に対する予測値P”(x、y)と
する。すなわち、
5. Weighting factors W i-1, j-1 (x, y), W i, j-1 (x, y), W for each of the above four predicted values
i-1, j (x, y) and W i, j (x, y) are multiplied, and the sum of these is taken as the predicted value P ″ (x, y) for the pixel P (x, y).

【0059】[0059]

【数16】 となる。ただし、(Equation 16) Becomes However,

【0060】[0060]

【数17】 である。4つの予測値に対する重み係数は、例えばIT
U−T H.263では図7のように定義されている。
H.263の場合、当該ブロックの2行3列目の画素の
予測値を求める際には、図7(a)より、当該ブロック
i,jの動きベクトル(Vxi,j,Vyi,j)が指すP'
(x+Vxi,j,y+Vyi,j)に対する重み係数Wi,j
(x,y)は、5/8となる。また、図7(b)より、
直上ブロックBi,j-1の動きベクトル(Vxi,j-1,Vy
i,j-1)が指すP’(x+Vxi,j -1,y+Vyi,j-1
に対する重み係数Wi,j-1(x,y)は、2/8とな
る。同様に図7(c)より、直左ブロックB
i-1,j(x,y)は、1/8となる。また、H.263
では、当該ブロックの斜め方向に位置するマクロブロッ
クの動きベクトルを用いた予測は行わない。すなわち、 Wi-1,j-1(x,y)=0 (24) である。
[Equation 17] It is. The weighting factors for the four predicted values are, for example, IT
U-TH. In H.263, it is defined as shown in FIG.
H. In the case of H.263, the motion vector (Vx i, j , Vy i, j ) of the block B i, j is calculated from FIG. 7A when the prediction value of the pixel in the second row and third column of the block is calculated. Pointed to by P '
Weighting coefficient W i, j for (x + Vx i, j , y + Vy i, j )
(X, y) becomes 5/8. Also, from FIG. 7 (b),
The motion vector (Vx i, j-1 , Vy of the immediately preceding block B i, j-1
i, j-1) pointed P '(x + Vx i, j -1, y + Vy i, j-1)
The weighting coefficient W i, j-1 (x, y) with respect to is 2/8. Similarly, as shown in FIG.
i-1, j (x, y) becomes 1/8. H. 263
Then, the prediction using the motion vector of the macroblock located in the diagonal direction of the block is not performed. That is, W i-1, j-1 (x, y) = 0 (24).

【0061】以上は、(x、y)がBi,j,の左上にある
場合の例である。例えば、(x、y)がBi,jの右上に
ある場合には、直上のマクロブロックBi,j-1,右上の
マクロブロックBi+1,j-1,当該マクロブロックBi,j
直右マクロブロックBi+1,jの動きベクトルを用いる。
同様に、(x、y)がBi,jの左下マクロブロックBi-1
,j、当該マイクロブロックBi,j、左下マイクロブロッ
クBi-1,j+1、直下マクロブロックBi,j+1を用い、
(x、y)がBi,jの直下にある場合は当該マクロブロ
ックBi,j、直右マクロブロックBi+1,j、直下マクロブ
ロックBi,j+1右下マクロブロックBi+1,j+1を用いる。
以上が、アフィン変換を用いたオーバーラップ動き補償
における予測補償の計算方法である。さて、動き補償予
測画像9は符号化対象画像1と共に減算器10に入力さ
れ、それらの差分データすなわち動き補償予測誤差11
は、空間冗長度圧縮部12において空間冗長どの抑圧が
行われる。一方、現在の符号化対象画像1の局部復号画
像19を得るため、空間冗長度圧縮部12より出力され
る圧縮差分データ13は差分データ伸張部16により伸
張差分画像17に復号される。伸張差分画像17は空間
冗長度を抑圧された動き補償予測誤差信号である。伸張
差分画像17は加算器18により動き補償予測画像9と
加算され、現在の符号化対象画像の局部復号画像19と
なる。局部復号画像19はフレームメモリ5に蓄積さ
れ、以降のフレームの符号化において参照される。
The above is an example of the case where (x, y) is at the upper left of B i, j , . For example, when (x, y) is located at the upper right of B i, j , the macro block B i, j−1 immediately above, the macro block B i + 1, j−1 at the upper right, and the macro block B i, j ,
The motion vector of the immediate right macroblock B i + 1, j is used.
Similarly, (x, y) is the lower left macroblock B i−1 of B i, j
, j , the relevant microblock B i, j , the lower left microblock B i-1, j + 1 , and the immediate lower macroblock B i, j + 1 ,
(X, y) is B i, the macroblock B i if immediately below the j, j, straight right macroblock B i + 1, j, directly under the macro block B i, j + 1 lower right macroblock B i Use + 1, j + 1 .
The above is the calculation method of the prediction compensation in the overlap motion compensation using the affine transformation. Now, the motion compensation prediction image 9 is input to the subtractor 10 together with the encoding target image 1, and their difference data, that is, the motion compensation prediction error 11 is input.
Is suppressed by the spatial redundancy compressing unit 12. On the other hand, in order to obtain the locally decoded image 19 of the current encoding target image 1, the compressed difference data 13 output from the spatial redundancy compression unit 12 is decoded by the difference data expansion unit 16 into the expanded difference image 17. The decompression difference image 17 is a motion compensation prediction error signal whose spatial redundancy is suppressed. The decompressed difference image 17 is added to the motion compensation predicted image 9 by the adder 18 and becomes the locally decoded image 19 of the current image to be encoded. The locally decoded image 19 is stored in the frame memory 5 and is referred to in the coding of subsequent frames.

【0062】また、動き補償予測誤差11に対する圧縮
差分データ13は差分データ符号化部14にてデータ圧
縮符号化され、差分画像符号化データとなる。小領域毎
の動きパラメータ4は動きパラメータ符号化部20によ
りデータ圧縮符号化され、動きパラメータ符号化データ
21となる。差分画像符号化でーた15と動きパラメー
タ符号化データ21は多重化部22において多重化さ
れ、多重化データ23として伝送または蓄積される。
The compressed difference data 13 corresponding to the motion compensation prediction error 11 is data-compressed and encoded by the difference data encoding unit 14 to be difference image encoded data. The motion parameter 4 for each small region is data-compressed and coded by the motion parameter coding unit 20 and becomes motion parameter coded data 21. The difference image coding 15 and the motion parameter coded data 21 are multiplexed in the multiplexing unit 22 and transmitted or stored as multiplexed data 23.

【0063】上述した本発明の動画像の動き補償符号化
方法のフローチャートを図10にまとめた。すなわち、
符号化対象画像が入力されると(ステップ51)、小領
域に分割し(ステップ52)、小領域毎に参照画像と比
べてアフィン変換パラメータ106を動きパラメータ4
として作成し(ステップ53)、動きパラメータ4か
ら、さらに参照図との比較において動き補償予測画像9
を生成し(ステップ54)、入力時の符号化対象画像を
動き補償予測画像9から減算して動き補償予測誤差を算
出し(ステップ55)、該誤差を圧縮して差分データを
作成する(ステップ56)。一方においてこの差分デー
タをステップ54による動き補償予測画像と加算して参
照画像を作成し(ステップ57)、この参照画像が次の
処理の参照に使用される。
FIG. 10 shows a flowchart of the above-described motion compensation coding method for moving images according to the present invention. That is,
When the image to be encoded is input (step 51), it is divided into small areas (step 52), and the affine transformation parameter 106 is set to the motion parameter 4 for each small area compared to the reference image.
(Step 53), the motion-compensated predicted image 9 is compared with the motion parameter 4 in comparison with the reference diagram.
Is generated (step 54), the image to be coded at the time of input is subtracted from the motion compensation prediction image 9 to calculate a motion compensation prediction error (step 55), and the error is compressed to create difference data (step). 56). On the other hand, this difference data is added to the motion-compensated predicted image in step 54 to create a reference image (step 57), and this reference image is used for reference in the next process.

【0064】他方において、差分データを符号化し(ス
テップ58)、動きパラメータ4と多重化して多重化デ
ータ23として出力する(ステップ59)。
On the other hand, the difference data is encoded (step 58), multiplexed with the motion parameter 4 and output as multiplexed data 23 (step 59).

【0065】[0065]

【発明の効果】以上説明したように本発明は、動画像の
動き補償に平行移動のみならず拡大、縮小、せん断、回
転などの各種の変形およびこれらの自由な組み合せの動
きを補償することができるので、動き補償予測の正確度
が向上しかつ予測の効果が大幅に改善されトータルの圧
縮性能が一層向上できる効果がある。
As described above, the present invention is capable of compensating not only parallel movement but also various deformations such as enlargement, reduction, shearing, and rotation, and movements freely combining these for motion compensation of moving images. Therefore, the accuracy of the motion compensation prediction is improved, the prediction effect is significantly improved, and the total compression performance is further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の動画像の動き補償予測符号化方法が適
用された動き補償予測符号化装置の一実施例の構成ブロ
ック図である。
FIG. 1 is a configuration block diagram of an embodiment of a motion compensation predictive coding apparatus to which a moving image motion compensation predictive coding method of the present invention is applied.

【図2】図1に示す動き検出部3の詳細構成ブロック図
である。
FIG. 2 is a detailed configuration block diagram of a motion detection unit 3 shown in FIG.

【図3】従来の動画像の動き補償予測符号化装置の一例
のブロックずである。
FIG. 3 is a block diagram of an example of a conventional motion compensation predictive coding apparatus for a moving image.

【図4】従来の平行移動補償によるオーバーラップ動き
補償予測符号化装置の構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a conventional overlap motion compensation predictive coding apparatus by parallel movement compensation.

【図5】従来の平行移動補償によるオーバーラップ動き
補償予測方法の説明図で、(a)はフレームの画素P
(x、y)のx方向への平行移動を示し、(b)は上辺
QRのみのx方向への動きを示すせん断を示す図であ
る。
FIG. 5 is an explanatory diagram of a conventional overlapping motion compensation prediction method by parallel movement compensation, in which (a) is a pixel P of a frame.
(X, y) is a diagram showing parallel movement in the x direction, and (b) is a diagram showing shearing showing the movement in the x direction of only the upper side QR.

【図6】アフィン変換で記述し得るせん断変換の一例を
示す図である。
FIG. 6 is a diagram showing an example of shear transformation that can be described by affine transformation.

【図7】オーバーラップ動き補償における各ブロックの
重み係数の一例を示す図であり、(a)は当該ブロック
の、(b)は直上ブロックの、(c)は直左ブロックの
動きベクトルの指す画素の予測値に対する重み係数の例
であり、図中の重み係数は1/8の正規化係数が省略さ
れており、実際には各値に1/8を掛けた値が重み係数
である。
FIG. 7 is a diagram showing an example of weighting factors of each block in overlap motion compensation, where (a) indicates the motion vector of the block, (b) indicates the immediately upper block, and (c) indicates the motion vector of the immediately left block. This is an example of the weighting coefficient for the predicted value of the pixel, and the normalization coefficient of 1/8 is omitted in the weighting coefficient in the figure, and the value obtained by multiplying each value by 1/8 is actually the weighting coefficient.

【図8】本発明の一実施例におけるアフィン変換を用い
たオーバーラップ動き補償方法を示す図である。
FIG. 8 is a diagram showing an overlap motion compensation method using affine transformation according to an embodiment of the present invention.

【図9】アフィン変換によるマッチング化素の計算方法
の一例を示す図である。
FIG. 9 is a diagram showing an example of a method of calculating a matching element by affine transformation.

【図10】本発明の動画像の動き補償予測符号化方法の
フローチャートである。
[Fig. 10] Fig. 10 is a flowchart of a motion compensation predictive coding method for a moving image according to the present invention.

【符号の説明】[Explanation of symbols]

1 符号化対象画像 2 動きモデル 3 動きパラメータ検出部 4 動きパラメータ 5 フレームメモリ 6 局部復号画像 7 オーバーラップ動き補償部 8 重み関数、 9 動き補償予測画像 10 減算器 11 動き補償予測誤差 12 空間冗長度圧縮部 13 圧縮差分データ 14 差分データ符号化部 15 差分画像符号化データ 16 差分データ伸張部 17 伸張差分画像 18 加算器 19 局部復号画像 20 動きパラメータ符号化部 21 動きパラメータ符号化データ 22 多重化部 23 多重化データ 31 動きベクトル検出部 32 動きベクトル 33 オーバーラップ動き補償部 34 動きベクトル符号化部 35 動きベクトル符号化データ 41 ブロック動き補償部 42 DCT/量子化部 43 逆DCT/量子化部 101 フレームメモリ 102 参照画像 103 平行移動パラメータ探索部 104 初期平行移動パラメータ 105 平行移動、拡大、縮小回転パラメータ探索部 106 アフィン変換パラメータ 1 image to be encoded 2 motion model 3 motion parameter detection unit 4 motion parameter 5 frame memory 6 locally decoded image 7 overlap motion compensation unit 8 weighting function, 9 motion compensation predicted image 10 subtractor 11 motion compensation prediction error 12 spatial redundancy Compressor 13 Compressed difference data 14 Difference data encoder 15 Difference image coded data 16 Difference data decompressor 17 Expanded difference image 18 Adder 19 Locally decoded image 20 Motion parameter encoder 21 Motion parameter encoded data 22 Multiplexer 23 multiplexed data 31 motion vector detection unit 32 motion vector 33 overlap motion compensation unit 34 motion vector coding unit 35 motion vector coded data 41 block motion compensation unit 42 DCT / quantization unit 43 inverse DCT / quantization unit 101 frame Memory 102 Image 103 translation parameters searching unit 104 initial translation parameters 105 parallel movement, enlargement, reduction rotation parameter searching unit 106 affine transformation parameters

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 符号化対象画像を複数の小領域に分割
し、符号化対象画像と予測参照画像との間の動き量を前
記小領域毎に求め、小領域内の各画素の予測値を求める
にあたり当該小領域の動きベクトルが指す位置の濃淡値
と、隣接小領域の動きベクトルが指す位置の濃淡値の各
々に重み係数を掛け、これらを加算した値を予測値とす
ることによって予測画像を生成し、該予測画像と符号化
対象画像との差分を符号化する動画像の動き補償予測符
号化方法において、 前記小領域の動きが、基準とする方向(x)およびそれ
に垂直な方向(y)への平行移動、回転、拡大、縮小、
せん断、変形のうちの少なくとも2つを表現する、それ
ぞれの動きパラメータにより記述されることを特徴とす
る動画像の動き補償予測符号化方法。
1. An image to be encoded is divided into a plurality of small regions, a motion amount between an image to be encoded and a prediction reference image is obtained for each of the small regions, and a prediction value of each pixel in the small region is calculated. In obtaining, the grayscale value at the position pointed to by the motion vector of the small area and the grayscale value at the position pointed to by the motion vector of the adjacent small area are each multiplied by a weighting coefficient, and the sum of these values is used as the predicted value to obtain the predicted image. In the motion compensation predictive coding method for a moving image, wherein the motion of the small area is a reference direction (x) and a direction (x) that is perpendicular to the reference direction. translation to y), rotation, enlargement, reduction,
A motion-compensated predictive coding method for a moving image, characterized in that at least two of shear and deformation are described by respective motion parameters.
【請求項2】 符号化対象画像を複数の小領域に分割
し、符号化対象画像と予測参照画像との間の動き量を前
記小領域毎に求め、小領域内の各画素の予測値を求める
にあたり、当該小領域の動きベクトルが指す位置の濃淡
値と、隣接小領域の動きベクトルが指す位置の濃淡値の
各々に重み係数を掛け、これらを加算した値を予測値と
することによって予測画像を生成し、該予測画像と符号
化対象画像との差分を符号化する動画像の動き補償予測
符号化装置において、 前記小領域の動きを、基準とする方向(x)およびそれ
に垂直な方向(y)への平行移動、回転、拡大、縮小、
変形のうちの少なくとも2つを表現する、それぞれの動
きパラメータにより記述する手段を有することを特徴と
する動画像の動き補償予測符号化装置。
2. An image to be encoded is divided into a plurality of small regions, a motion amount between an image to be encoded and a prediction reference image is obtained for each of the small regions, and a prediction value of each pixel in the small region is calculated. In obtaining, the gray value at the position pointed to by the motion vector of the small area and the gray value at the position pointed to by the motion vector of the adjacent small area are each multiplied by a weighting coefficient, and the value obtained by adding these is used as the predicted value to predict. A motion-compensated predictive coding apparatus for generating a picture and coding a difference between the predicted picture and a coding target picture, in a direction (x) based on the motion of the small region and a direction perpendicular thereto. Translation to (y), rotation, enlargement, reduction,
A motion-compensated predictive coding apparatus for a moving picture, comprising means for describing at least two of the transformations by respective motion parameters.
【請求項3】 符号化対象画像を予め決められている小
領域に分割する手段と、前記各小領域毎の直前の状態の
画像を参照画像として再生する手段と、各少領域毎の動
きベクトルを前記参照画像と比較して検出する手段と、
該動きベクトルを動きの状態によって成分別に分解し前
記参照画像に最もマッチング度が高い小領域を選出して
各小領域毎の変位とする手段と、当該小領域の動きベク
トルが指す位置の濃淡値と、隣接小領域の動きベクトル
が指す位置の濃淡値の各々に重み係数を掛け、これらを
加算した値を予測値とすることによって各小領域毎の補
償予測値を生成する手段と、各小領域毎の補償予測値と
符号化対象画像との差から動き補償予測誤差を算出する
手段と、該動き補償予測誤差の空間冗長度を圧縮する手
段と、量子化された圧縮差分を符号化する手段と、前記
小領域毎の動きベクトルを符号化する手段と、前記符号
化された差分データおよび前記動きベクトル符号化デー
タとを多重化して出力する手段を有する、動画像の動き
補償予測符号化装置において、 前記各小領域毎の動き補償予測値を生成する手段が、平
行移動、拡大、縮小、反転、せん断、回転、変形のうち
の少なくとも2つを表現する動きパラメータにより動き
補償予測値を生成することを特徴とする動画像の動き補
償予測符号化装置。
3. A means for dividing an image to be encoded into predetermined small areas, a means for reproducing an image in a state immediately before each small area as a reference image, and a motion vector for each small area. Means for detecting by comparing with the reference image,
Means for decomposing the motion vector into components according to the state of motion, selecting a small area having the highest degree of matching in the reference image and setting the displacement for each small area, and a gray value of the position indicated by the motion vector of the small area. And a means for generating a compensation prediction value for each small area by multiplying each gray value of the position indicated by the motion vector of the adjacent small area by a weighting coefficient, and making the value obtained by adding these to the prediction value, Means for calculating a motion compensation prediction error from the difference between the compensation prediction value for each region and the image to be encoded, means for compressing the spatial redundancy of the motion compensation prediction error, and encoding the quantized compression difference. A motion compensation predictive coding device for a moving image, which has a means, a means for coding a motion vector for each of the small regions, and a means for multiplexing and outputting the coded difference data and the motion vector coded data. In the above, the means for generating the motion compensation prediction value for each small area generates the motion compensation prediction value by a motion parameter expressing at least two of translation, enlargement, reduction, inversion, shearing, rotation, and deformation. A motion-compensated predictive coding apparatus for a moving image.
【請求項4】 前記動き補償予測値を生成する手段がア
フィン変換パラメータを使用する計算による請求項3記
載の動画像の動き補償予測符号化装置。
4. The motion-compensated predictive coding apparatus for a moving picture according to claim 3, wherein the means for generating the motion-compensated predicted value is calculated by using an affine transformation parameter.
JP33720595A 1995-12-25 1995-12-25 Movement compensation prediction encoding method for moving image and device therefor Pending JPH09182082A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33720595A JPH09182082A (en) 1995-12-25 1995-12-25 Movement compensation prediction encoding method for moving image and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33720595A JPH09182082A (en) 1995-12-25 1995-12-25 Movement compensation prediction encoding method for moving image and device therefor

Publications (1)

Publication Number Publication Date
JPH09182082A true JPH09182082A (en) 1997-07-11

Family

ID=18306433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33720595A Pending JPH09182082A (en) 1995-12-25 1995-12-25 Movement compensation prediction encoding method for moving image and device therefor

Country Status (1)

Country Link
JP (1) JPH09182082A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100290618B1 (en) * 1997-12-27 2001-06-01 이계철 Method for estimating motion of block unit in image compression coding
EP1158806A1 (en) * 2000-05-24 2001-11-28 Samsung Electronics Co., Ltd. Motion vector coding
US6785333B2 (en) 2000-05-24 2004-08-31 Samsung Electronics Co., Ltd. Motion vector coding method
KR100537500B1 (en) * 2001-11-27 2006-01-09 삼성전자주식회사 Encoding/decoding method and apparatus for key value of orientation interpolator node
KR100590522B1 (en) * 2000-10-20 2006-06-15 삼성전자주식회사 Coding apparatus and method for orientation interpolator node
JP2006238373A (en) * 2005-02-28 2006-09-07 Sony Corp Coder and coding method, decoder and decoding method, image processing system and image processing method, recording medium, and program
US7181071B2 (en) 2001-11-27 2007-02-20 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of orientation interpolator node
JP2007194060A (en) * 2006-01-19 2007-08-02 Jeol Ltd Method and device for adjusting automatic axis of electron lens of scanning electron microscope
JP2008537391A (en) * 2005-03-31 2008-09-11 ユークリッド・ディスカバリーズ・エルエルシー Apparatus and method for processing video data
US7809204B2 (en) 2002-10-18 2010-10-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of coordinate interpolator
WO2011064990A1 (en) * 2009-11-26 2011-06-03 Jvc・ケンウッド・ホールディングス株式会社 Image encoding apparatus, image decoding apparatus, image encoding method, and image decoding method
WO2011074197A1 (en) * 2009-12-15 2011-06-23 Jvc・ケンウッド・ホールディングス株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
JP2013201773A (en) * 2004-11-29 2013-10-03 Ntt Docomo Inc Method and device for coding data, and computer readable recording medium

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100290618B1 (en) * 1997-12-27 2001-06-01 이계철 Method for estimating motion of block unit in image compression coding
EP1158806A1 (en) * 2000-05-24 2001-11-28 Samsung Electronics Co., Ltd. Motion vector coding
US6785333B2 (en) 2000-05-24 2004-08-31 Samsung Electronics Co., Ltd. Motion vector coding method
KR100590522B1 (en) * 2000-10-20 2006-06-15 삼성전자주식회사 Coding apparatus and method for orientation interpolator node
US7809203B2 (en) 2001-11-27 2010-10-05 Samsung Electronics Co., Ltd. Apparatus for encoding and decoding key data and key value data of coordinate interpolator and recording medium containing bitstream into which coordinate interpolator is encoded
US8411975B2 (en) 2001-11-27 2013-04-02 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of coordinate interpolator
US7181071B2 (en) 2001-11-27 2007-02-20 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of orientation interpolator node
US8705610B2 (en) 2001-11-27 2014-04-22 Samsung Electronics Co., Ltd. Apparatus for encoding and decoding key data and key value data of coordinate interpolator and recording medium containing bitstream into which coordinate interpolator is encoded
US7406206B2 (en) 2001-11-27 2008-07-29 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of orientation interpolator node
KR100537500B1 (en) * 2001-11-27 2006-01-09 삼성전자주식회사 Encoding/decoding method and apparatus for key value of orientation interpolator node
US7733345B2 (en) 2001-11-27 2010-06-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding position interpolator
US7809204B2 (en) 2002-10-18 2010-10-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of coordinate interpolator
JP2013201773A (en) * 2004-11-29 2013-10-03 Ntt Docomo Inc Method and device for coding data, and computer readable recording medium
JP2006238373A (en) * 2005-02-28 2006-09-07 Sony Corp Coder and coding method, decoder and decoding method, image processing system and image processing method, recording medium, and program
JP2008537391A (en) * 2005-03-31 2008-09-11 ユークリッド・ディスカバリーズ・エルエルシー Apparatus and method for processing video data
JP2010259087A (en) * 2005-03-31 2010-11-11 Euclid Discoveries Llc Apparatus and method for processing video data
JP2007194060A (en) * 2006-01-19 2007-08-02 Jeol Ltd Method and device for adjusting automatic axis of electron lens of scanning electron microscope
WO2011064990A1 (en) * 2009-11-26 2011-06-03 Jvc・ケンウッド・ホールディングス株式会社 Image encoding apparatus, image decoding apparatus, image encoding method, and image decoding method
CN102640496A (en) * 2009-11-26 2012-08-15 Jvc建伍株式会社 Image encoding apparatus, image decoding apparatus, image encoding method, and image decoding method
JP2011114572A (en) * 2009-11-26 2011-06-09 Jvc Kenwood Holdings Inc Image encoding apparatus, image decoding apparatus, image encoding method, and image decoding method
US9100664B2 (en) 2009-11-26 2015-08-04 JVC Kenwood Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
CN102656889A (en) * 2009-12-15 2012-09-05 Jvc建伍株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
JP2011129998A (en) * 2009-12-15 2011-06-30 Jvc Kenwood Holdings Inc Image encoding device, image decoding device, image encoding method, and image decoding method
WO2011074197A1 (en) * 2009-12-15 2011-06-23 Jvc・ケンウッド・ホールディングス株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
US8606026B2 (en) 2009-12-15 2013-12-10 JVC Kenwood Corporation Image encoding device, image decoding device, image encoding method, and image decoding method based on reduced-image displacement vector

Similar Documents

Publication Publication Date Title
JP3277111B2 (en) Video encoding device and video decoding device
KR100209793B1 (en) Apparatus for encoding/decoding a video signals by using feature point based motion estimation
JP3386142B2 (en) Image decoding device and image decoding method
KR0181027B1 (en) An image processing system using pixel-by-pixel motion estimation
EP0734177A2 (en) Method and apparatus for encoding/decoding a video signal
EP0734178A2 (en) Method and apparatus for determining true motion vectors for selected pixels
WO2010064396A1 (en) Moving picture decoding method and moving picture encoding method
JP2007300380A (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
KR20090074162A (en) Method for the compression of data in a video sequence
JPH09182082A (en) Movement compensation prediction encoding method for moving image and device therefor
JPH08205165A (en) Image processing system
JPH0955943A (en) Video signal encoding device
JP2914448B2 (en) Motion vector prediction encoding method and motion vector decoding method, prediction encoding device and decoding device, and recording medium recording motion vector prediction encoding program and decoding program
JP3681784B2 (en) Video signal encoding device
WO2009011443A1 (en) Image processing method, image processing device, and computer readable recording medium
JPH0262180A (en) Compensating/predicting/encoding system for moving image
JP4427553B2 (en) Video decoding device
JP5011854B2 (en) High resolution image processing device
US6061401A (en) Method and apparatus for selectively encoding/decoding a video signal
JP2001224036A (en) Moving picture coder
JPH0746595A (en) Moving image encoder and decoder
JPH06165164A (en) Dynamic picture processor
JP3277116B2 (en) Video encoding device and video decoding device
JP2765528B2 (en) Half-pixel accuracy motion vector search device
JPH0984017A (en) Motion compensation prediction coding method for moving image