JPH09266574A - Image encoding device and image decoding device - Google Patents

Image encoding device and image decoding device

Info

Publication number
JPH09266574A
JPH09266574A JP6596896A JP6596896A JPH09266574A JP H09266574 A JPH09266574 A JP H09266574A JP 6596896 A JP6596896 A JP 6596896A JP 6596896 A JP6596896 A JP 6596896A JP H09266574 A JPH09266574 A JP H09266574A
Authority
JP
Japan
Prior art keywords
frame
image
motion vector
screen
term
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6596896A
Other languages
Japanese (ja)
Other versions
JP3235453B2 (en
Inventor
Minoru Eito
稔 栄藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP06596896A priority Critical patent/JP3235453B2/en
Publication of JPH09266574A publication Critical patent/JPH09266574A/en
Application granted granted Critical
Publication of JP3235453B2 publication Critical patent/JP3235453B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To transmit and store an image of excellent picture quality even at a low encoding rate by providing global movement compensation which is small in resolution deterioration and facilitates matching between predicted images on an encoding side and a decoding side. SOLUTION: A local movement compensation part 409 performs macroblock movement compensation for an image which is one frame precedent. An image in a template memory 405 which is updated in longer cycles. on the other hand, is processed by global movement compensation by affine transformation through a representative vector interpolation movement compensation part 404. A selector 407 selects an optimum prediction mode in macroblock units according to an input instruction. Consequently, global movement compensation is performed by interpolating moving vectors, so arithmetic precision can be held high and the predicted images on the encoding and decoding sides can easily be matched with each other.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像を少ない符号
化量で伝送蓄積する画像符号化装置および画像復号化装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image coding apparatus and an image decoding apparatus for transmitting and storing an image with a small coding amount.

【0002】[0002]

【従来の技術】カメラの左右に振ったりまたズームを行
なうことによる生じる画面全体の動きを補償することが
できれば、画像の符号化効率が改善されることが期待で
きる。従来のこのような画面全体の動き補償を用いた高
能率画像符号化方式として上倉一人、渡辺裕:"動画像
符号化におけるグローバル動き補償法",電子情報信学論
B-1, Vol. J76-B-I, No. 12, pp. 944-952, 1993.があ
る。
2. Description of the Related Art If the movement of the entire screen caused by swaying the camera from side to side or zooming can be compensated, it is expected that the image coding efficiency will be improved. As a conventional high-efficiency image coding method using such motion compensation for the entire screen, Kazuto Uekura, Yutaka Watanabe: "Global motion compensation method in moving image coding", IEICE
B-1, Vol. J76-BI, No. 12, pp. 944-952, 1993.

【0003】この方式では、カメラのパン・ズーム操作
によって生じる画像の全画面の動きを推定し補償する。
以後、画面全体の動き補償をグローバル動き補償と呼
ぶ。図5に、この従来の動き補償方式を実行する画像符
号化装置のブロック図を示す。図5において、501は
残差符号化部、502は残差復号化部、503はフレー
ムメモリ、504は動き予測部1、505は3パラメー
タ予測部、506はグローバル動き補償部、507は局
所動き補償部1、508は動き予測部2、509は動き
補償部2、510は比較器、511は差分器、512は
加算器、513は動き情報多重化部である。
In this method, the movement of the entire screen of the image caused by the pan / zoom operation of the camera is estimated and compensated.
Hereinafter, motion compensation of the entire screen is called global motion compensation. FIG. 5 shows a block diagram of an image coding apparatus that executes this conventional motion compensation method. In FIG. 5, 501 is a residual coding unit, 502 is a residual decoding unit, 503 is a frame memory, 504 is a motion prediction unit 1, 505 is a three-parameter prediction unit, 506 is a global motion compensation unit, and 507 is a local motion. Compensation units 1 and 508 are motion prediction units 2, 509 are motion compensation units 2, 510 are comparators, 511 are difference units, 512 is an adder, and 513 is a motion information multiplexing unit.

【0004】理解を容易にするために、501、50
2、512、503、504、507、511の構成
は、MPEG1(「ア ビデオ コンプレッション ス
タンダードフォー マルチメディア アプリケーション
ズ」 Le Gall, D.: "MPEG:A Video Compression Standa
rd for Multimedia Applications", Trans. ACM, 199
1,Aprilに記載)に基づく画像符号化装置と同一のもの
とする。
For easy understanding, 501, 50
2, 512, 503, 504, 507, and 511 are MPEG1 ("A Video Compression Standard for Multimedia Applications" Le Gall, D .: "MPEG: A Video Compression Standa
rd for Multimedia Applications ", Trans. ACM, 199
1, described in April)).

【0005】本発明の実施の形態として後に説明する画
像符号化装置と復号化装置もMPEG1に基づく装置で
ある。したがって、残差符号化部501はMPEG1準
拠のデジタルコサイン変換(DCT)と量子化器および
ハフマン符号化器で構成される。また残差復号化部はM
PEG1準拠の逆量子化部とデジタルコサイン逆変換器
から構成される。この従来例では、後述の実施の形態と
同様、ブロックマッチングにより動きベクトルを求め
る。これを図6に示す。図6は従来例と後述の実施の形
態に共通するブロックマッチングを説明する図である。
An image coding apparatus and a decoding apparatus which will be described later as embodiments of the present invention are also apparatuses based on MPEG1. Therefore, the residual encoding unit 501 is composed of an MPEG1-compliant digital cosine transform (DCT), a quantizer, and a Huffman encoder. Also, the residual decoding unit is M
It is composed of a PEG1 compliant inverse quantizer and a digital cosine inverse converter. In this conventional example, the motion vector is obtained by block matching, as in the embodiment described later. This is shown in FIG. FIG. 6 is a diagram for explaining block matching common to a conventional example and an embodiment described later.

【0006】図6において、領域Rは16画素×16画
素のブロック領域である。動き予測部1(504)では入力
画像に対して、1フレーム前を参照画像として、動き予
測部2(508)は、後述のグローバル動き補償された画像
を参照画像としてブロックマッチングを行なう。ブロッ
クマッチングは式1に示す誤差絶対値和の計算を行な
い、式2に示すように最少誤差絶対値となる偏位(p,q)
をそのブロックの実測された動きベクトルとする。式1
において、gt(x,y)はフレームt、画面位置
(x,y)における輝度値を表している。そして、式3
に示すように最も値の小さくなる偏位を探索して原推定
(p,q)を得る。この(p,q)は1/2画素精度で求ま
っている。
In FIG. 6, a region R is a block region of 16 pixels × 16 pixels. The motion prediction unit 1 (504) performs block matching on the input image one frame before as a reference image, and the motion prediction unit 2 (508) uses a later-described global motion-compensated image as a reference image. In block matching, the sum of absolute error values shown in Equation 1 is calculated, and as shown in Equation 2, the deviation (p, q) that results in the minimum absolute error value.
Is the measured motion vector of the block. Equation 1
In, gt (x, y) represents the luminance value at the frame t and the screen position (x, y). And Equation 3
As shown in, the deviation with the smallest value is searched to obtain the original estimation (p, q). This (p, q) is obtained with 1/2 pixel precision.

【0007】[0007]

【数1】 [Equation 1]

【0008】[0008]

【数2】 [Equation 2]

【0009】MPEG1では1フレーム前の復号化結果
とと現在の入力フレームとの間で動きベクトルを求め、
16×16のブロック(以後マクロブロックとよぶ)の
平行移動による動き補償が行なわれる。これは局所動き
補償部1(507)で実行される。これに加えて従来例で
は、カメラの左右上下の動きとズームによるグルーバル
動き補償が実現されている。
In MPEG1, a motion vector is obtained between the decoding result one frame before and the current input frame,
Motion compensation is performed by parallel movement of 16 × 16 blocks (hereinafter referred to as macroblocks). This is executed by the local motion compensation unit 1 (507). In addition to this, in the conventional example, the lateral motion compensation of the camera and the global motion compensation by the zoom are realized.

【0010】今、画面全体のズーム係数をZ,平行移動量
を水平にH0,垂直にV0,ズーム中心を(x0,y0)とすると、
入力画像における画面全体の任意位置(x,y)のグローバ
ル動き量は式3,式4で表せる。
Now, assuming that the zoom coefficient of the entire screen is Z, the translation amount is H0 horizontally, V0 vertically, and the zoom center is (x0, y0),
The global motion amount at the arbitrary position (x, y) of the entire screen in the input image can be expressed by Equations 3 and 4.

【0011】[0011]

【数3】 (Equation 3)

【0012】[0012]

【数4】 (Equation 4)

【0013】さらに、j行,i列のマクロブロック中心位
置を(xij, yij)とすると、式5,式6の定義からマクロ
ブロック中心の動きベクトル(uij, vij)は式7として表
現できる。
Further, assuming that the center position of the macroblock in the j-th row and the i-th column is (xij, yij), the motion vector (uij, vij) at the center of the macroblock can be expressed as the formula 7 from the definitions of the formulas 5 and 6.

【0014】[0014]

【数5】 (Equation 5)

【0015】[0015]

【数6】 (Equation 6)

【0016】[0016]

【数7】 (Equation 7)

【0017】従来例では、動き予測部1(504)の出力か
ら2個以上のマクロブロックの動きベクトルを取りだ
し、式8を3パラメータ予測部(505)が実行する。
In the conventional example, the motion vector of two or more macroblocks is taken out from the output of the motion prediction unit 1 (504), and the equation 8 is executed by the three-parameter prediction unit (505).

【0018】式8は、各マクロブロックで観測された動
きベクトルと予測される動きベクトルの2乗誤差和が最
小となる計算式である。
Expression 8 is a calculation expression that minimizes the sum of squared errors between the motion vector observed in each macroblock and the predicted motion vector.

【0019】式8のPは式9に示すように取り出したマ
クロブロックの位置から求まる実対称行列で、予め計算
しておくことができる。
P in the equation 8 is a real symmetric matrix obtained from the position of the macro block taken out as shown in the equation 9, and can be calculated in advance.

【0020】[0020]

【数8】 (Equation 8)

【0021】[0021]

【数9】 [Equation 9]

【0022】この計算されたグローバルパラメータ(Z,
H,V)を用いてグローバル動き補償部(506)が式3に示
す変形を行なう。この変形は、入力画像の各画素位置
(x,y)について、式3に従って動きベクトルを計算し、
フレームメモリ(503)から得られた動きベクトルにより
示される画素位置の画素値を求めることによって実行さ
れる。グローバル動き補償の動きベクトルは1/4画素
精度で求められ、近傍整数位置の4画素値の線形補間と
して求められる。さらにこの変形された画像上でマクロ
ブロック単位の動き予測を動き予測部2(508)が行な
う。比較器(510)は、マクロブロック単位で、MPEG
1と同様のマクロブロック動き補償画像と前フレームの
グローバル動き補償後のマクロブロック動き補償画像の
うち誤差の少ない予測方法を選択する。
This calculated global parameter (Z,
H, V) is used to perform the transformation shown in Expression 3 by the global motion compensation unit (506). This transformation is performed at each pixel position in the input image.
For (x, y), calculate the motion vector according to Equation 3,
This is executed by obtaining the pixel value of the pixel position indicated by the motion vector obtained from the frame memory (503). The motion vector for global motion compensation is obtained with 1/4 pixel accuracy, and is obtained as linear interpolation of 4 pixel values at neighboring integer positions. Further, the motion prediction unit 2 (508) performs motion prediction on a macroblock basis on the transformed image. The comparator (510) is an MPEG unit for each MPEG.
A prediction method with a small error is selected from the macroblock motion-compensated image similar to 1 and the macroblock motion-compensated image after global motion compensation of the previous frame.

【0023】図5中、動きベクトル情報は、マクロブロ
ック単位での選択結果SW、動きベクトルmv1またはmv2、
そして、グローバルパラメータgが動き情報多重化部(5
13)で多重化されて送出される。この従来例では、ブロ
ックマッチング法によって算出されるブロック毎の動き
ベクトルを利用し、反復計算を行なうことなく簡単な積
和演算のみで全画面のパラメータを算出している。また
グローバル動き補償の動画像符号化への適用に際して、
ブロック単位の適応的なON/OFF制御法を提案して
いる。
In FIG. 5, the motion vector information includes the selection result SW in macroblock units, the motion vector mv1 or mv2,
Then, the global parameter g is set to the motion information multiplexing unit (5
It is multiplexed and sent in 13). In this conventional example, the motion vector for each block calculated by the block matching method is used, and the parameters of the entire screen are calculated only by a simple product-sum operation without performing iterative calculation. When applying global motion compensation to video coding,
An adaptive ON / OFF control method for each block is proposed.

【0024】[0024]

【発明が解決しようとする課題】[Problems to be Solved by the Invention]

「課題1」前記した従来例では、カメラの水平垂直の首
振りおよびズームによって生じる動きを補償することが
できる。しかし、前記したグローバル動き補償の構成で
は、残差符号化を行なわないと予測画像の空間解像度が
フレーム毎に低下するという課題が存在する。
[Problem 1] In the above-described conventional example, it is possible to compensate for the movement caused by horizontal and vertical swinging and zooming of the camera. However, the above-described configuration of global motion compensation has a problem that the spatial resolution of the predicted image is reduced for each frame unless residual coding is performed.

【0025】グローバル動き補償で得られる画素単位の
動きベクトルは一般に整数値ではない。このために、近
傍画素値から内挿補間により画素値を算出する。これに
よって、残差符号化により画素値を更新しないかぎり、
予測画像の空間解像度がフレームが更新される度に低下
する。残差符号化を行なえば高い解像度を維持できる
が、そのための符号量が増える。グローバル動き補償に
より高能率に動画像を符号化するためには、解像度低下
の少ない動き補償方式が必要である。
The pixel-based motion vector obtained by global motion compensation is generally not an integer value. Therefore, the pixel value is calculated from the neighboring pixel value by interpolation. As a result, unless the pixel value is updated by residual coding,
The spatial resolution of the predicted image decreases each time the frame is updated. If residual coding is performed, high resolution can be maintained, but the code amount for that purpose increases. In order to code a moving image with high efficiency by global motion compensation, a motion compensation method with less resolution reduction is required.

【0026】「課題2」予測画像符号化では、符号化
側、復号化側で予測画像が一致しなければならない。前
記した従来例では、グローバル動き補償の動きベクトル
は各画素位置について1/4画素精度で一致しなければ
ならないことになる。このために、式3のズームに関す
る項Zの符号化精度は、各画素位置について1/4画素
精度一致する程度必要になる。ところが、この精度は位
置に関する乗数であることから画像の大きさに依存す
る。これは符号化装置の将来の拡張を考えると好ましく
ない。またグローバル動き補償のためのアドレス計算も
画像が大きくなると高い演算精度が要求される。
[Problem 2] In predictive image encoding, the predictive images must match on the encoding side and the decoding side. In the above-mentioned conventional example, the motion vector for global motion compensation has to match at the pixel position with ¼ pixel precision. For this reason, the encoding accuracy of the term Z relating to the zoom of Expression 3 needs to be about 1/4 pixel accuracy at each pixel position. However, this accuracy depends on the size of the image because it is a multiplier related to the position. This is not desirable considering future expansion of the encoder. In addition, the address calculation for global motion compensation requires high calculation accuracy as the image becomes larger.

【0027】[0027]

【課題を解決するための手段】第1の発明は、前記課題
1に対して、画像のフレーム系列を入力とし、符号化対
象フレームに対して時間的に前後する復号化されたフレ
ームを短期参照フレームとして記憶する短期フレームメ
モリと、前記符号化対象フレームと前記短期参照フレー
ムの間の、局所的な対応を局所動きベクトルとして検出
する局所動きベクトル検出手段と、前記局所的動きベク
トルを用いて前記短期フレームメモリから画像を読み出
して予測画像を生成する短期動き補償手段と、符号化対
象フレームに対して前記短期参照フレームよりも更新さ
れる間隔が長い復号化されたフレームを長期参照フレー
ムとして記憶する長期フレームメモリと、前記符号化対
象フレームと前記長期参照フレームの間の、全画面の対
応を画面上の任意の位置の動きベクトルをその位置を変
数とする多項式関数のパラメータとして検出する全画面
動き検出手段と、前記多項式関数のパラメータを用いて
前記長期フレームメモリから画像を読み出して予測画像
を生成する全画面動き補償手段とを備え、前記短期動き
補償手段と全画面動き補償手段とを適応的に選択して予
測符号化を行なう画像符号化装置と、符号化された画像
を入力として、符号化対象フレームに対して時間的に前
後する復号化されたフレームを短期参照フレームとして
記憶する短期フレームメモリと、前記符号化対象フレー
ムと前記短期参照フレームの間の、局所的な対応を局所
動きベクトルを入力から復号化する局所動きベクトル復
号化手段と、前記局所的動きベクトルを用いて前記短期
フレームメモリから画像を読み出して予測画像を生成す
る短期動き補償手段と、符号化対象フレームに対して前
記短期参照フレームよりも更新される間隔が長い復号化
されたフレームを長期参照フレームとして記憶する長期
フレームメモリと、前記符号化対象フレームと前記長期
参照フレームの間の、全画面の対応を画面上の任意の位
置の動きベクトルをその位置を変数とする多項式関数の
パラメータとして入力から復号する全画面動き復号化手
段と、前記多項式関数のパラメータを用いて前記長期フ
レームメモリから画像を読み出して予測画像を生成する
全画面動き補償手段とを備え、前記短期動き補償手段と
全画面動き補償手段とを入力からの指示にしたがって選
択し予測復号化を行なう画像復号化装置である。
A first aspect of the present invention is directed to the first aspect, in which a frame sequence of an image is input, and a decoded frame temporally before and after a frame to be encoded is referred to for a short period of time. A short-term frame memory for storing as a frame; a local motion vector detecting means for detecting a local correspondence between the encoding target frame and the short-term reference frame as a local motion vector; Short-term motion compensation means for reading an image from a short-term frame memory to generate a predicted image, and a decoded frame having a longer update interval than the short-term reference frame for a frame to be encoded is stored as a long-term reference frame. Correspondence of all screens between the long-term frame memory, the encoding target frame, and the long-term reference frame is arbitrary on the screen. Full-screen motion detection means for detecting a motion vector of a position as a parameter of a polynomial function having the position as a variable, and full-screen motion for generating a predicted image by reading an image from the long-term frame memory using the parameter of the polynomial function An image coding apparatus, which comprises a compensating means, adaptively selects the short-term motion compensating means and the full-screen motion compensating means to perform predictive coding, and a coded image as an input to a frame to be coded. On the other hand, a short-term frame memory that stores decoded frames that are temporally before and after in time as a short-term reference frame, and a local correspondence between the frame to be coded and the short-term reference frame is decoded from the input of a local motion vector. Local motion vector decoding means for converting the image, and reading an image from the short-term frame memory using the local motion vector Short-term motion compensation means for generating a prediction image, a long-term frame memory for storing a decoded frame having a longer update interval than the short-term reference frame for a frame to be encoded as a long-term reference frame, and the encoding A full-screen motion decoding means for decoding the correspondence between the target frame and the long-term reference frame from the input as a parameter of a polynomial function whose position is a variable and which is a motion vector at an arbitrary position on the screen; Full-screen motion compensating means for reading out an image from the long-term frame memory using a parameter of a polynomial function to generate a predicted image, and selecting the short-term motion compensating means and the full-screen motion compensating means in accordance with an instruction from an input. An image decoding device for performing predictive decoding.

【0028】第2の発明は、前記課題2に対して、画像
のフレーム系列を入力とし、符号化対象フレームに対し
て時間的に前後する復号化されたフレームを参照フレー
ムとして記憶するフレームメモリと、前記符号化対象フ
レームと前記参照フレームの間の、全画面の対応を画面
上の代表点の動きベクトルとして検出する全画面動き検
出手段と、画面上の代表点の動きベクトルを所定の精度
で符号化する代表点動きベクトル符号化手段と、前記代
表点の動きベクトルを内挿補間することにより予測画像
を生成する全画面動き補償手段とを備えたことを特徴と
する画像符号化装置と、符号化された画像を入力とし
て、符号化対象フレームに対して時間的に前後する復号
化されたフレームを参照フレームとして記憶するフレー
ムメモリと、前記全画面動き検出手段の出力である代表
点の動きベクトルを復号化する代表点動きベクトル復号
化手段と、前記全画面動き検出手段の出力である代表点
の動きベクトルを内挿補間することにより予測画像を生
成する全画面動き補償手段とを備えたことを特徴とする
画像復号化装置である。
A second aspect of the present invention is directed to the problem 2, wherein a frame memory that receives a frame sequence of an image and stores a decoded frame temporally before and after a frame to be encoded as a reference frame is provided. , Full-screen motion detection means for detecting the correspondence of the entire screen between the encoding target frame and the reference frame as the motion vector of the representative point on the screen, and the motion vector of the representative point on the screen with a predetermined accuracy. An image coding apparatus comprising: a representative point motion vector coding means for coding; and a full-screen motion compensating means for generating a predicted image by interpolating the motion vector of the representative point. A frame memory that stores a decoded frame that is temporally before and after a frame to be encoded as a reference frame, using the encoded image as an input; Representative point motion vector decoding means for decoding the motion vector of the representative point which is the output of the plane motion detecting means, and the predicted image by interpolating the motion vector of the representative point which is the output of the full-screen motion detecting means. And a full-screen motion compensating means for generating

【0029】第3の発明は、前記課題2に対して、画像
のフレーム系列を入力とし、符号化対象フレームに対し
て時間的に前後する復号化されたフレームを参照フレー
ムとして記憶するフレームメモリと、前記符号化対象フ
レームと前記参照フレームの間の、全画面の対応を画面
上の代表点の動きベクトルとして検出する全画面動き検
出手段と、画面上の代表点の動きベクトルを差分ベクト
ルとして所定の精度で符号化する代表点動きベクトル差
分符号化手段と、前記代表点の動きベクトル差分によ
り、画像変形演算の動作を切り替えて画像を変形する全
画面変形手段とを備えたことを特徴とする画像符号化装
置と、符号化された画像を入力として、復号化対象フレ
ームに対して時間的に前後する復号化されたフレームを
参照フレームとして記憶するフレームメモリと、代表点
の動きベクトル差分を復号化する代表点動きベクトル差
分復号化手段と、前記代表点の動きベクトル差分によ
り、画像変形演算の動作を切り替えて画像を変形する全
画面変形手段とを備えたことを特徴とする画像復号化装
置である。
A third aspect of the present invention is directed to the problem 2, wherein a frame memory that receives a frame sequence of an image and stores a decoded frame temporally before and after the frame to be encoded as a reference frame is provided. , Full-screen motion detection means for detecting the correspondence of the entire screen between the encoding target frame and the reference frame as a motion vector of a representative point on the screen, and a motion vector of the representative point on the screen as a difference vector Representative point motion vector difference encoding means for encoding with the accuracy of 1., and full-screen deforming means for deforming an image by switching the operation of the image deforming operation according to the motion vector difference of the representative points. An image encoding device and an encoded image as an input, and a decoded frame temporally before and after the decoding target frame as a reference frame A frame memory to be memorized, a representative point motion vector difference decoding means for decoding a motion vector difference of a representative point, and a motion vector difference of the representative point to switch the operation of the image deformation calculation to deform the image. An image decoding apparatus comprising means.

【0030】[0030]

【発明の実施の形態】第1の発明は、前記課題1を解決
するもので、画像のフレーム系列を入力とし、符号化対
象フレームに対して時間的に前後する復号化されたフレ
ームを短期参照フレームとして記憶する短期フレームメ
モリと、前記符号化対象フレームと前記短期参照フレー
ムの間の、局所的な対応を局所動きベクトルとして検出
する局所動きベクトル検出手段と、前記局所的動きベク
トルを用いて前記短期フレームメモリから画像を読み出
して予測画像を生成する短期動き補償手段と、符号化対
象フレームに対して前記短期参照フレームよりも更新さ
れる間隔が長い復号化されたフレームを長期参照フレー
ムとして記憶する長期フレームメモリと、前記符号化対
象フレームと前記長期参照フレームの間の、全画面の対
応を画面上の任意の位置の動きベクトルをその位置を変
数とする多項式関数のパラメータとして検出する全画面
動き検出手段と、前記多項式関数のパラメータを用いて
前記長期フレームメモリから画像を読み出して予測画像
を生成する全画面動き補償手段とを備え、前記短期動き
補償手段と全画面動き補償手段とを適応的に選択して予
測符号化を行なう画像符号化装置である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first invention is to solve the above-mentioned problem 1, in which a frame sequence of an image is input, and a decoded frame temporally before and after a frame to be coded is referred to for a short period of time. A short-term frame memory for storing as a frame; a local motion vector detecting means for detecting a local correspondence between the encoding target frame and the short-term reference frame as a local motion vector; Short-term motion compensation means for reading an image from a short-term frame memory to generate a predicted image, and a decoded frame having a longer update interval than the short-term reference frame for a frame to be encoded is stored as a long-term reference frame. Correspondence of all screens between the long-term frame memory, the encoding target frame, and the long-term reference frame is arbitrary on the screen. Full-screen motion detection means for detecting a motion vector of a position as a parameter of a polynomial function having the position as a variable, and full-screen motion for generating a predicted image by reading an image from the long-term frame memory using the parameter of the polynomial function An image coding apparatus comprising a compensating means, and adaptively selecting the short-term motion compensating means and the full-screen motion compensating means to perform predictive coding.

【0031】また、符号化された画像を入力として、符
号化対象フレームに対して時間的に前後する復号化され
たフレームを短期参照フレームとして記憶する短期フレ
ームメモリと、前記符号化対象フレームと前記短期参照
フレームの間の、局所的な対応を局所動きベクトルを入
力から復号化する局所動きベクトル復号化手段と、前記
局所的動きベクトルを用いて前記短期フレームメモリか
ら画像を読み出して予測画像を生成する短期動き補償手
段と、符号化対象フレームに対して前記短期参照フレー
ムよりも更新される間隔が長い復号化されたフレームを
長期参照フレームとして記憶する長期フレームメモリ
と、前記符号化対象フレームと前記長期参照フレームの
間の、全画面の対応を画面上の任意の位置の動きベクト
ルをその位置を変数とする多項式関数のパラメータとし
て入力から復号する全画面動き復号化手段と、前記多項
式関数のパラメータを用いて前記長期フレームメモリか
ら画像を読み出して予測画像を生成する全画面動き補償
手段とを備え、前記短期動き補償手段と全画面動き補償
手段とを入力からの指示にしたがって選択し予測復号化
を行なう画像復号化装置である。
Further, a short-term frame memory that stores a decoded frame that is temporally before and after the encoded frame as a short-term reference frame with the encoded image as an input, the encoded frame, and the encoded frame. A local motion vector decoding means for decoding a local motion vector from an input for a local correspondence between short-term reference frames, and an image is read from the short-term frame memory using the local motion vector to generate a predicted image. Short-term motion compensation means, a long-term frame memory that stores a decoded frame that is updated with respect to the encoding target frame and has a longer interval than the short-term reference frame as a long-term reference frame, the encoding target frame, and the encoding target frame. Correspondence of all screens between long-term reference frames Motion vector of arbitrary position on the screen Variable that position A full-screen motion decoding means for decoding from an input as a parameter of a polynomial function to perform, and a full-screen motion compensation means for reading an image from the long-term frame memory using the parameters of the polynomial function to generate a predicted image, This is an image decoding apparatus for selecting short-term motion compensation means and full-screen motion compensation means in accordance with an instruction from an input and performing predictive decoding.

【0032】第2の発明は、前記課題2を解決するもの
で、画像のフレーム系列を入力とし、符号化対象フレー
ムに対して時間的に前後する復号化されたフレームを参
照フレームとして記憶するフレームメモリと、前記符号
化対象フレームと前記参照フレームの間の、全画面の対
応を画面上の代表点の動きベクトルとして検出する全画
面動き検出手段と、画面上の代表点の動きベクトルを所
定の精度で符号化する代表点動きベクトル符号化手段
と、前記代表点の動きベクトルを内挿補間することによ
り予測画像を生成する全画面動き補償手段とを備えたこ
とを特徴とする画像符号化装置と、符号化された画像を
入力として、符号化対象フレームに対して時間的に前後
する復号化されたフレームを参照フレームとして記憶す
るフレームメモリと、前記全画面動き検出手段の出力で
ある代表点の動きベクトルを復号化する代表点動きベク
トル復号化手段と、前記全画面動き検出手段の出力であ
る代表点の動きベクトルを内挿補間することにより予測
画像を生成する全画面動き補償手段とを備えたことを特
徴とする画像復号化装置である。
A second invention is to solve the above-mentioned problem 2, and is a frame in which a frame sequence of an image is input, and a decoded frame temporally before and after a frame to be coded is stored as a reference frame. A memory, full-screen motion detection means for detecting the correspondence of the entire screen between the encoding target frame and the reference frame as a motion vector of a representative point on the screen, and a motion vector of the representative point on the screen to a predetermined value. An image coding apparatus comprising: a representative point motion vector coding means for coding with precision; and a full-screen motion compensating means for generating a predicted image by interpolating the motion vector of the representative point. And a frame memory that receives a coded image as input and stores a decoded frame temporally before and after a frame to be coded as a reference frame. Representative point motion vector decoding means for decoding the motion vector of the representative point which is the output of the full screen motion detecting means, and interpolation of the motion vector of the representative point which is the output of the full screen motion detecting means An image decoding apparatus, comprising: a full-screen motion compensation unit that generates a predicted image.

【0033】第1の発明の画像符号化装置では、短期フ
レームメモリは符号化対象フレームに対して時間的に前
後する復号化されたフレームを短期参照フレームとして
記憶する。局所動きベクトルは検出手段とは、短期参照
フレームと符号化対象フレームの局所的な対応を局所動
きベクトルとして検出する。そして、短期動き補償手段
が、局所的動きベクトルを用いて前記短期フレームメモ
リから画像を読み出して予測画像を生成する。
In the image coding apparatus according to the first aspect of the invention, the short-term frame memory stores the decoded frame temporally before and after the frame to be coded as a short-term reference frame. The local motion vector detecting means detects a local correspondence between the short-term reference frame and the encoding target frame as a local motion vector. Then, the short-term motion compensation means reads the image from the short-term frame memory using the local motion vector to generate a predicted image.

【0034】一方、長期フレームメモリは符号化対象フ
レームに対して短期フレームメモリよりも更新される間
隔が長い復号化されたフレームを長期参照フレームとし
て記憶する。全画面動き検出手段は、長期参照フレーム
と符号化対象フレームの全画面の対応を画面上の任意の
位置の動きベクトルをその位置を変数とする多項式関数
のパラメータとして検出する。
On the other hand, the long-term frame memory stores, as a long-term reference frame, a decoded frame having an updated interval longer than that of the short-term frame memory with respect to the encoding target frame. The full-screen motion detection means detects the correspondence between the long-term reference frame and the full screen of the encoding target frame, using a motion vector at an arbitrary position on the screen as a parameter of a polynomial function having the position as a variable.

【0035】全画面動き補償手段は多項式関数のパラメ
ータを用いて前記長期フレームメモリから画像を読み出
して予測画像を生成する。画像符号化装置は、この短期
メモリからの局所的な動き補償画像と、長期メモリから
の動き補償画像を適応的に選択して予測符号化を行な
う。全画面動き補償は、更新間隔の長いフレームデータ
を用いて行なわれることになる。
The full-screen motion compensating means uses the parameters of the polynomial function to read the image from the long-term frame memory and generate a predicted image. The image coding apparatus adaptively selects the local motion-compensated image from the short-term memory and the motion-compensated image from the long-term memory to perform predictive coding. Full-screen motion compensation is performed using frame data with a long update interval.

【0036】第1の発明の画像復号化装置では、同様
に、短期フレームメモリは符号化対象フレームに対して
時間的に前後する復号化されたフレームを短期参照フレ
ームとして記憶する。局所動きベクトルは、局所動きベ
クトル復号化手段より得られ、短期動き補償手段が、局
所的動きベクトルを用いて前記短期フレームメモリから
画像を読み出して予測画像を生成する。
In the image decoding apparatus of the first aspect of the invention, similarly, the short-term frame memory stores the decoded frame temporally before and after the frame to be coded as a short-term reference frame. The local motion vector is obtained by the local motion vector decoding means, and the short-term motion compensation means uses the local motion vector to read the image from the short-term frame memory and generate the predicted image.

【0037】一方、長期フレームメモリは符号化対象フ
レームに対して短期フレームメモリよりも長い間隔をお
いてフレームを長期参照フレームとして記憶する。多項
式関数のパラメータは全画面動き復号化手段により得ら
れ、全画面動き補償手段が多項式関数のパラメータを用
いて前記長期フレームメモリから画像を読み出して予測
画像を生成する。
On the other hand, the long-term frame memory stores the frame as a long-term reference frame at a longer interval than the short-term frame memory with respect to the frame to be encoded. The parameters of the polynomial function are obtained by the full-screen motion decoding means, and the full-screen motion compensation means uses the parameters of the polynomial function to read the image from the long-term frame memory and generate a predicted image.

【0038】画像復号化装置は、この短期メモリからの
局所的な動き補償画像と、長期メモリからの動き補償画
像を適応的に選択して予測復号化を行なう。
The image decoding apparatus adaptively selects the local motion-compensated image from the short-term memory and the motion-compensated image from the long-term memory to perform predictive decoding.

【0039】第2の発明の画像符号化装置では、フレー
ムメモリは符号化対象フレームに対して時間的に前後す
る復号化されたフレームを参照フレームとして記憶す
る。全画面動き検出手段は、前記符号化対象フレームと
前記参照フレームの間の、全画面の対応を画面上の代表
点の動きベクトルとして検出する。全画面動き補償手段
は前記代表点の動きベクトルを内挿補間することにより
予測画像を生成する。すなわち各画素位置の動きベクト
ルは伝送される代表点の動きベクトルの補間として得ら
れる。
In the image coding apparatus of the second invention, the frame memory stores the decoded frame temporally before and after the frame to be coded as a reference frame. The full screen motion detection means detects the correspondence of the full screen between the encoding target frame and the reference frame as a motion vector of a representative point on the screen. The full-screen motion compensator generates a predicted image by interpolating the motion vector of the representative point. That is, the motion vector at each pixel position is obtained as an interpolation of the transmitted motion vector of the representative point.

【0040】代表点動きベクトル符号化手段は、前記画
面上の代表点の動きベクトルを所定の精度で符号化す
る。
The representative point motion vector coding means codes the motion vector of the representative point on the screen with a predetermined accuracy.

【0041】第2の発明の画像復号化装置では、前記画
像符号化装置の出力を入力として、フレームメモリは符
号化対象フレームに対して時間的に前後する復号化され
たフレームを参照フレームとして記憶する。
In the image decoding apparatus of the second invention, the frame memory stores, as a reference frame, a decoded frame which is temporally before and after the frame to be coded, with the output of the image coding apparatus as an input. To do.

【0042】代表点動きベクトル復号化手段は、画面上
の代表点の動きベクトルを復号化する。全画面動き補償
手段は前記代表点の動きベクトルを内挿補間することに
より予測画像を生成する。
The representative point motion vector decoding means decodes the motion vector of the representative point on the screen. The full-screen motion compensator generates a predicted image by interpolating the motion vector of the representative point.

【0043】第3の発明は、前記課題2に対して、画像
のフレーム系列を入力とし、符号化対象フレームに対し
て時間的に前後する復号化されたフレームを参照フレー
ムとして記憶するフレームメモリと、前記符号化対象フ
レームと前記参照フレームの間の、全画面の対応を画面
上の代表点の動きベクトルとして検出する全画面動き検
出手段と、画面上の代表点の動きベクトルを差分ベクト
ルとして所定の精度で符号化する代表点動きベクトル差
分符号化手段と、前記代表点の動きベクトル差分によ
り、画像変形演算の動作を切り替えて画像を変形する全
画面変形手段とを備えたことを特徴とする画像符号化装
置と、符号化された画像を入力として、復号化対象フレ
ームに対して時間的に前後する復号化されたフレームを
参照フレームとして記憶するフレームメモリと、代表点
の動きベクトル差分を復号化する代表点動きベクトル差
分復号化手段と、前記代表点の動きベクトル差分によ
り、画像変形演算の動作を切り替えて画像を変形する全
画面変形手段とを備えたことを特徴とする画像復号化装
置である。
A third aspect of the present invention is directed to the problem 2, wherein a frame memory that receives a frame sequence of an image and stores a decoded frame temporally before and after a frame to be encoded as a reference frame is provided. , Full-screen motion detection means for detecting the correspondence of the entire screen between the encoding target frame and the reference frame as a motion vector of a representative point on the screen, and a motion vector of the representative point on the screen as a difference vector Representative point motion vector difference encoding means for encoding with the accuracy of 1., and full-screen deforming means for deforming an image by switching the operation of the image deforming operation according to the motion vector difference of the representative points. An image encoding device and an encoded image as an input, and a decoded frame temporally before and after the decoding target frame as a reference frame A frame memory to be memorized, a representative point motion vector difference decoding means for decoding a motion vector difference of a representative point, and a motion vector difference of the representative point to switch the operation of the image deformation calculation to deform the image. An image decoding apparatus comprising means.

【0044】第3の発明の画像符号化装置では、フレー
ムメモリは符号化対象フレームに対して時間的に前後す
る復号化されたフレームを参照フレームとして記憶す
る。
In the image coding apparatus of the third invention, the frame memory stores, as a reference frame, a decoded frame that is temporally before and after the frame to be coded.

【0045】全画面動き検出手段は、前記符号化対象フ
レームと前記参照フレームの間の、全画面の対応を画面
上の代表点の動きベクトルとして検出する。
The full-screen motion detection means detects the correspondence of the entire screen between the encoding target frame and the reference frame as a motion vector of a representative point on the screen.

【0046】代表点動きベクトル差分符号化手段は画面
上の代表点の動きベクトルを差分ベクトルとして所定の
精度で符号化する。
The representative point motion vector difference encoding means encodes the motion vector of the representative point on the screen as a difference vector with a predetermined accuracy.

【0047】第3の発明の画像復号化装置では、前記画
像符号化装置の出力を入力として、フレームメモリは符
号化対象フレームに対して時間的に前後する復号化され
たフレームを参照フレームとして記憶する。
In the image decoding apparatus of the third invention, the frame memory stores, as a reference frame, a decoded frame temporally before and after the frame to be coded, with the output of the image coding apparatus as an input. To do.

【0048】代表点動きベクトル差分復号化手段は代表
点の動きベクトル差分を復号化する。全画面変形手段
は、前記代表点の動きベクトル差分により、画像変形演
算の動作を切り替えて画像を変形する。
The representative point motion vector difference decoding means decodes the motion vector difference of the representative point. The full-screen transforming unit switches the image transforming operation based on the motion vector difference of the representative point to transform the image.

【0049】(第1の実施の形態)以下、本発明の実施
の形態を図面を用いて説明する。本発明(請求項1,
3)の画像符号化装置の一実施の形態を図1を用いて、
本発明(請求項2,4)の画像復号化装置の一実施の形
態を図2を用いて説明する。
(First Embodiment) An embodiment of the present invention will be described below with reference to the drawings. The present invention (claim 1
An embodiment of the image coding apparatus of 3) is described with reference to FIG.
An embodiment of the image decoding apparatus of the present invention (claims 2 and 4) will be described with reference to FIG.

【0050】図1は画像符号化装置の構成図で、図中10
1は残差符号化部、102は残差復号化部、103はフレーム
メモリ、104は動き予測部1、105はアフィンパラメータ
フレーム間推定部、106はアフィンパラメータ更新部、1
07はテンプレートメモリ、108はアフィン動き補償部、1
09は局所動き補償部1、110は動き予測部2、111は動き
補償部2、112は比較器、113は加算器、114は差分器、1
15は開閉器、116は動き情報多重化部である。
FIG. 1 is a block diagram of the image coding apparatus.
1 is a residual coding unit, 102 is a residual decoding unit, 103 is a frame memory, 104 is a motion prediction unit 1, 105 is an affine parameter interframe estimation unit, 106 is an affine parameter updating unit, 1
07 is a template memory, 108 is an affine motion compensation unit, 1
09 is a local motion compensation unit 1, 110 is a motion prediction unit 2, 111 is a motion compensation unit 2, 112 is a comparator, 113 is an adder, 114 is a difference unit, 1
Reference numeral 15 is a switch, and 116 is a motion information multiplexing unit.

【0051】図2は画像復号化装置の構成図で、図中20
1は残差復号化部、202はフレームメモリ、203は局所動
き補償部1、204はアフィン動き補償部、205は局所動き
補償部2、206は動き情報分離部、207は選択器、208はテ
ンプレートメモリ、209は開閉器、210は加算器である。
FIG. 2 is a block diagram of the image decoding apparatus.
1 is a residual decoding unit, 202 is a frame memory, 203 is a local motion compensation unit 1, 204 is an affine motion compensation unit, 205 is a local motion compensation unit 2, 206 is a motion information separation unit, 207 is a selector, and 208 is A template memory, 209 is a switch, and 210 is an adder.

【0052】本実施の形態は、その基本構成として従来
例と同くMPEG1に基づく符号化装置と復号化装置を
とる。
In this embodiment, as its basic configuration, an encoding device and a decoding device based on MPEG1 as in the conventional example are adopted.

【0053】図1に示す画像符号化装置の構成中、残差
符号化部(101)、残差復号化部(102)加算器(11
3)、フレームメモリ(103)、動き予測部1(103)、局
所動き補償部1(109)、差分器(114)と図2に示す画像
復号化装置の構成中、残差復号化部(201)、加算器(2
10)、フレームメモリ(202)、局所動き補償部1(20
3)は従来例で引用したMPEG1に基づく符号化装置
および復号化装置と同一の構成をとる。したがって、残
差符号化部(103)はMPEG1準拠のデジタルコサイン
変換(DCT)と量子化器およびハフマン符号化器で構
成される。また残差復号化部(102、201)はMPEG1
準拠の逆量子化部とデジタルコサイン逆変換器から構成
される。
In the configuration of the image coding apparatus shown in FIG. 1, a residual coding section (101), a residual decoding section (102) and an adder (11
3), the frame memory (103), the motion prediction unit 1 (103), the local motion compensation unit 1 (109), the difference unit (114), and the residual decoding unit (in the configuration of the image decoding apparatus shown in FIG. 201), adder (2
10), frame memory (202), local motion compensation unit 1 (20
3) has the same configuration as the MPEG1 based encoding device and decoding device cited in the conventional example. Therefore, the residual encoding unit (103) is composed of an MPEG1-compliant digital cosine transform (DCT), a quantizer and a Huffman encoder. In addition, the residual decoding unit (102, 201) is MPEG1.
It consists of a compliant inverse quantizer and a digital cosine inverse transformer.

【0054】符号化装置の入力画像と復号化装置の出力
画像は縦横240×352画素で構成される。また動きベクト
ル検出のための相関演算を行なうブロックは縦16画
素、横16画素で構成されている。
The input image of the encoding device and the output image of the decoding device are composed of horizontal and vertical 240 × 352 pixels. The block for performing the correlation calculation for detecting the motion vector is composed of 16 pixels in the vertical direction and 16 pixels in the horizontal direction.

【0055】以上のように構成された第1の実施の形態
についてMPEG1および従来例との相違点を示すこと
により説明する。
The first embodiment configured as described above will be described by showing the differences from the MPEG1 and the conventional example.

【0056】局所動き予測部1(104)は図6に示すよう
に入力画像のブロック情報Rを読みだすと同時に偏位
(u,v)を1画素毎に変化させながら、フレームメモ
リ(103)から前フレームのブロック情報R’を読みだ
し、式1に示す相関演算を行なう。これは従来例におけ
る局所動き予測部1(504)と同じ動作である。結果とし
て、式2に示すように、最も値の小さくなる偏位を探索
して原推定(p,q)を得る。この(p,q)は1/2画素
精度で求まっている。
The local motion prediction unit 1 (104) reads out the block information R of the input image as shown in FIG. 6 and, at the same time, changes the deviation (u, v) pixel by pixel, while the frame memory (103) Then, the block information R ′ of the previous frame is read out and the correlation calculation shown in Expression 1 is performed. This is the same operation as the local motion prediction unit 1 (504) in the conventional example. As a result, as shown in Equation 2, the deviation having the smallest value is searched to obtain the original estimation (p, q). This (p, q) is obtained with 1/2 pixel precision.

【0057】以上の演算は、各ブロックについて行わ
れ、結果は局所動き補償部(109)へ送られMPEG1と
同様のマクロブロック動き補償が行なわれる。
The above calculation is performed for each block, and the result is sent to the local motion compensator (109) to perform the macroblock motion compensation similar to MPEG1.

【0058】本実施の形態では、従来例とは異なり式1
0の6パラメータで表現されるアフィン変換によりグロ
ーバル動き補償を行なう。なお式10において、a0〜a5
はアフィンパラメータ、x,y入力画像の画素位置、(u^
(x,y,),v^(x,y))は画素位置における動きベクトルであ
る。以下にこのアフィンパラメータを求める過程を説明
する。
In this embodiment, unlike the conventional example, equation 1
Global motion compensation is performed by affine transformation represented by 6 parameters of 0. In equation 10, a0 to a5
Is the affine parameter, the pixel position of the x, y input image, (u ^
(x, y,), v ^ (x, y)) is a motion vector at the pixel position. The process of obtaining this affine parameter will be described below.

【0059】[0059]

【数10】 (Equation 10)

【0060】式1に示す相関演算により、各ブロックに
ついて最小偏位を求める過程で、式11に示す最小偏位
近傍の絶対値誤差の並びSが計算されている。()t
行列の転置を表している。各ブロックの(p,q)とSは
アフィンパラメータフレーム間推定部(105)へ送られ
る。
In the process of obtaining the minimum deviation for each block by the correlation calculation shown in Expression 1, the array S of absolute value errors near the minimum deviation shown in Expression 11 is calculated. () T represents the transpose of the matrix. The (p, q) and S of each block are sent to the affine parameter interframe estimation section (105).

【0061】[0061]

【数11】 [Equation 11]

【0062】アフィンパラメータフレーム間推定部(10
5)では式12から式17の演算を行ない相関パラメー
タを計算する。
Affine parameter interframe estimation unit (10
In 5), the correlation parameters are calculated by performing the calculations of Expression 12 to Expression 17.

【0063】[0063]

【数12】 (Equation 12)

【0064】[0064]

【数13】 (Equation 13)

【0065】[0065]

【数14】 [Equation 14]

【0066】[0066]

【数15】 (Equation 15)

【0067】[0067]

【数16】 (Equation 16)

【0068】[0068]

【数17】 [Equation 17]

【0069】以上の相関パラメータの演算は、各ブロッ
クについて行なわれる。相関パラメータは次の意味を持
っている。式12〜式17の係数が求まっていることに
より、入力画像からみた1フレーム前の画像への各ブロ
ックの絶対値誤差を式18に示す偏位(u,v)を変数
とする2次関数として表現できる。
The above calculation of the correlation parameter is performed for each block. The correlation parameters have the following meanings. Since the coefficients of Expressions 12 to 17 are obtained, a quadratic function in which the deviation (u, v) shown in Expression 18 is the absolute value error of each block from the input image to the image one frame before is used as a variable. Can be expressed as

【0070】式18に示すEi,jはブロックの絶対値誤差
の位置(p,q)でのテーラー展開として表現されてい
る。この関数により、相関を評価する。
Ei, j shown in Expression 18 is expressed as a Taylor expansion at the position (p, q) of the absolute value error of the block. The correlation is evaluated by this function.

【0071】[0071]

【数18】 (Equation 18)

【0072】ここで、アフィン動き補償部(108)では
式19,式20で表現されるアフィン変換により全画面の変
形を行なう。(u(x,y),v(x,y))は位置(x,y)における動き
ベクトルで、式20はアフィン変換パラメータの並びから
なるベクトルを表している。
Here, the affine motion compensator (108) transforms the entire screen by the affine transformation expressed by the equations (19) and (20). (u (x, y), v (x, y)) is a motion vector at the position (x, y), and Expression 20 represents a vector composed of a sequence of affine transformation parameters.

【0073】[0073]

【数19】 [Equation 19]

【0074】[0074]

【数20】 (Equation 20)

【0075】式19,式20に示すようにアフィンパラ
メータにより各ブロックの動きベクトルは記述されるか
ら、変分原理により各絶対値誤差関数の総和を最小とす
る必要条件として式21に示すようにアフィン変換パラ
メータaの偏微分が零ベクトルとならなくてはならない
オイラー式が導き出せる。これは式22の行列で表現で
きる。
Since the motion vector of each block is described by the affine parameters as shown in Expressions 19 and 20, as shown in Expression 21 as a necessary condition for minimizing the total sum of the absolute value error functions by the variational principle. It is possible to derive an Euler equation in which the partial differential of the affine transformation parameter a must be a zero vector. This can be expressed by the matrix of Expression 22.

【0076】アフィンパラメータフレーム間推定部(10
5)はさらに式18から式23(6×6行列)と式24(6×1行
列)の行列を求め、最後に式25によりアフィン変換パラ
メータを求める。
Affine parameter interframe estimation unit (10
In step 5), the equations (23) (6 × 6 matrix) and equation (24) (6 × 1 matrix) are obtained from equation (18), and finally affine transformation parameters are obtained from equation (25).

【0077】なお、式23,式24において、(xj,yi)はブ
ロックi,jの中心位置である。
In equations (23) and (24), (xj, yi) is the center position of block i, j.

【0078】[0078]

【数21】 (Equation 21)

【0079】[0079]

【数22】 (Equation 22)

【0080】[0080]

【数23】 (Equation 23)

【0081】[0081]

【数24】 (Equation 24)

【0082】[0082]

【数25】 (Equation 25)

【0083】一方、開閉器(115)はN(N≧1)フレー
ム単位に閉じてフレームメモリ(103)の内容をテンプ
レートメモリ(107)へコピーする。
On the other hand, the switch (115) is closed in N (N ≧ 1) frame units, and the contents of the frame memory (103) are copied to the template memory (107).

【0084】この実施の形態では、N=10とする。すな
わちフレームメモリ(103)が1フレーム毎に更新され
るのに対して、テンプレートメモリ(107)は10フレー
ム毎に更新される。前述のアフィンパラメータフレーム
間推定部(105)の動作は入力画像からみた1フレーム前
の復号画像の対応位置をアフィンパラメータとして求め
るものであった。アフィン動き補償部(108)は入力画像
からみてテンプレートメモリ(107)に記憶されている1
フレーム前からから9フレーム前の範囲の復号画像を変
形するものであるから、アフィンパラメータフレーム間
推定部(105)の出力をそのまま用いることはできない。
そこでアフィン変換が式10に示すように入力画像の画
素位置について線形式であることを利用して前後するフ
レーム間のアフィンパラメータを合成することにより求
める。これはアフィンパラメータ更新部(106)で実現
される。
In this embodiment, N = 10. That is, the frame memory (103) is updated every frame, whereas the template memory (107) is updated every 10 frames. The operation of the affine parameter inter-frame estimation unit (105) described above is to obtain the corresponding position of the decoded image one frame before as seen from the input image as an affine parameter. The affine motion compensator (108) is stored in the template memory (107) when viewed from the input image.
Since the decoded image in the range from the previous frame to the 9th frame is transformed, the output of the affine parameter inter-frame estimation unit (105) cannot be used as it is.
Therefore, the affine transformation is performed by synthesizing the affine parameters between the preceding and succeeding frames by utilizing the fact that the pixel position of the input image is linear as shown in Expression 10. This is realized by the affine parameter updating unit (106).

【0085】アフィンパラメータ更新部(106)は、1フ
レーム前の入力画像からみたテンプレートメモリ(107)
内の画像へのアフィン変換パラメータをa〜0〜a〜5とし
て記憶している。このパラメータは開閉器(115)と連動
して、新しくテンプレートメモリ(107)へ画像が記憶さ
れる毎に全て0にリセットされる。a〜0〜a〜5とアフィ
ンパラメータフレーム間推定部(105)より得られたa0〜
a5を用いて、式26〜式31により入力画像からみたテ
ンプレートメモリ(107)に記憶されている復号画像への
アフィン変換パラメータa'0〜a'5を求める。得られたa'
0〜a'5をa〜0〜a〜5にフレーム毎に代入して繰返し更新
を行なう。
The affine parameter updating section (106) has a template memory (107) viewed from the input image one frame before.
The affine transformation parameters for the image inside are stored as a ~ 0 ~ a ~ 5. This parameter is reset to 0 every time an image is newly stored in the template memory (107) in cooperation with the switch (115). a ~ 0 ~ a ~ 5 and a0 ~ obtained by the affine parameter interframe estimation section (105)
Using a5, affine transformation parameters a'0 to a'5 for the decoded image stored in the template memory (107) viewed from the input image are obtained by the equations 26 to 31. Got a '
Substituting 0 to a'5 into a to 0 to a to 5 and updating repeatedly.

【0086】[0086]

【数26】 (Equation 26)

【0087】[0087]

【数27】 [Equation 27]

【0088】[0088]

【数28】 [Equation 28]

【0089】[0089]

【数29】 (Equation 29)

【0090】[0090]

【数30】 [Equation 30]

【0091】[0091]

【数31】 (Equation 31)

【0092】アフィン動き補償部(108)ではa'0〜a'5
を用いて式10に示す動きベクトルを入力画像の全ての画
素位置について計算し、テンプレートメモリ(107)中の
画像上で得られた動きベクトル移動した画素位置の画素
値を求めることにより実行される。グローバル動き補償
の動きベクトルは1/4画素精度で求められ、近傍整数位
置の4画素値の線形補間として求められる。さらにこの
変形された画像上でマクロブロック単位の動き予測を動
き予測部2(110)が行なう。局所動き補償部(111)、
比較器(112)、差分器(114)、残差符号化部(10
1)、残差復号化部(102)、加算器(113)の動作は従
来例と同じである。
The affine motion compensation unit (108) has a'0 to a'5.
It is executed by calculating the motion vector shown in Expression 10 for all pixel positions of the input image using, and obtaining the pixel value of the pixel position of the motion vector moved obtained on the image in the template memory (107). . The motion vector for global motion compensation is obtained with 1/4 pixel precision, and is obtained as a linear interpolation of 4 pixel values in the neighborhood integer position. Further, the motion prediction unit 2 (110) performs motion prediction on a macroblock basis on the transformed image. Local motion compensation unit (111),
Comparator (112), difference unit (114), residual coding unit (10
The operations of 1), the residual decoding unit (102) and the adder (113) are the same as those of the conventional example.

【0093】動きベクトル情報は、マクロブロック単位
での選択結果SW、動きベクトルmv1あるいはmv2、そして
アフィンパラメータaが動き情報多重化部(116)で多重
化されて送出される。
As the motion vector information, the selection result SW in macroblock units, the motion vector mv1 or mv2, and the affine parameter a are multiplexed by the motion information multiplexing unit (116) and transmitted.

【0094】次に図2を用いて図1の符号化装置に対応
する復号化装置の動作を説明する。動き情報分離部(20
6)は、動き情報多重化部(116)の出力を入力として、
マクロブロック単位での選択結果SW、動きベクトルmv1
あるいはmv2、そしてアフィンパラメータaが分離復号さ
れる。
Next, the operation of the decoding device corresponding to the encoding device of FIG. 1 will be described with reference to FIG. Motion information separation unit (20
6) receives the output of the motion information multiplexing unit (116) as an input,
Selection result SW in macroblock units, motion vector mv1
Alternatively, mv2 and the affine parameter a are separately decoded.

【0095】SWにより、所動き補償部1(203)の動作も
しくはアフィン動き補償部(204)と局所動き補償部(20
5)の組合せ動作が選択される。選択器(207)はSWを基
にいずれかの出力を選択する。
The operation of the motion compensation unit 1 (203) or the affine motion compensation unit (204) and the local motion compensation unit (20) is performed by SW.
The combination operation of 5) is selected. A selector (207) selects any output based on SW.

【0096】画像復号化装置の他の構成では残差復号化
部(201)、フレームメモリ(202)、局所動き補償部1
(203)、アフィン動き補償部(204)局所動き補償部2
(205)テンプレートメモリ(208)、開閉器(209)、
加算器(210)の動作は既に説明した図1の同名ブロッ
クと同じである。開閉器(209)は、符号化装置側の開
閉器(115)と同期して10フレーム毎にテンプレート
メモリ(208)の内容を更新する。
In another configuration of the image decoding apparatus, the residual decoding unit (201), the frame memory (202), the local motion compensation unit 1
(203), affine motion compensation unit (204) local motion compensation unit 2
(205) Template memory (208), switch (209),
The operation of the adder (210) is the same as the block of the same name in FIG. The switch (209) updates the contents of the template memory (208) every 10 frames in synchronization with the switch (115) on the encoding device side.

【0097】以上に説明した本実施の形態では、従来例
と比較して以下の特長を持つ。 (1)従来例では、動き予測部1(504)の出力は動きベ
クトルだけであり、全画面の動きを記述するパラメータ
はこの動きベクトルを基にして計算されている。しか
し、局所的な相関演算では、輝度変化のない領域では局
所動きベクトルは不定となる。また輝度変化があっても
単調な輪郭周辺では動きベクトルは輪郭接線方向に自由
度を持ち、局所動きベクトルは同様に不定となる。した
がって、従来例に示した2段階のパラメータ推定法では
大きな推定誤差が危惧される。一方本実施の形態に示し
た手法では自由度を2次関数で定量的に表現し、2次関
数の総和の最小化を計ることにより、本来ならば不定と
なる局所動きベクトルの影響を押えて、より安定にパラ
メータ推定できることが期待される。
The present embodiment described above has the following features as compared with the conventional example. (1) In the conventional example, the output of the motion prediction unit 1 (504) is only the motion vector, and the parameter describing the motion of the entire screen is calculated based on this motion vector. However, in the local correlation calculation, the local motion vector becomes indefinite in the area where the luminance does not change. Further, even if there is a change in brightness, the motion vector has a degree of freedom in the tangential direction of the contour around the monotonous contour, and the local motion vector becomes similarly undefined. Therefore, a large estimation error is feared in the two-step parameter estimation method shown in the conventional example. On the other hand, in the method shown in the present embodiment, the degree of freedom is quantitatively expressed by a quadratic function, and the sum of the quadratic functions is minimized to suppress the influence of the local motion vector, which would otherwise be indefinite. It is expected that the parameters can be estimated more stably.

【0098】(2)グローバル動き補償が10フレーム
間隔で更新されるテンプレートを基に実行されるため
に、残差符号化を行なわない予測画像の空間解像度が徐
々に低下するという問題が従来例と比較して軽減され
る。
(2) Since the global motion compensation is executed on the basis of the template updated at intervals of 10 frames, the problem that the spatial resolution of the prediction image without residual coding gradually decreases is different from the conventional example. It is reduced in comparison.

【0099】なお、時間軸上、入力画像と最大9フレー
ム離れた画像とのアフィンパラメータを直接にブロック
相関で求めることは、各画素における動きベクトルが大
きくなる可能性があることから、難しい。そこで、本実
施の形態では、前後するフレーム間でアフィンパラメー
タを求めておき、これを合成して長いフレーム間隔のア
フィンパラメータを求めている。
Note that it is difficult to directly obtain the affine parameters of the input image and the images separated by a maximum of 9 frames on the time axis by block correlation because the motion vector at each pixel may become large. Therefore, in the present embodiment, the affine parameters are obtained between the preceding and following frames, and these are combined to obtain the affine parameters with long frame intervals.

【0100】(第2の実施の形態)次に、本発明(請求
項5,6,8)の画像符号化装置の一実施の形態を図3
を用い、本発明(請求項7,9)の画像復号化装置の一
実施の形態を図4を用いて説明する。
(Second Embodiment) Next, FIG. 3 shows an embodiment of an image coding apparatus according to the present invention (claims 5, 6, and 8).
An embodiment of the image decoding apparatus of the present invention (claims 7 and 9) will be described with reference to FIG.

【0101】図3は、画像符号化装置の構成図で、図中
301は残差符号化部、302は残差復号化部、303はフレー
ムメモリ、304は動き予測部1、305は代表点動きベクト
ルフレーム間推定部、306は代表点動きベクトル更新
部、307はテンプレートメモリ、308は代表ベクトル内挿
動き補償部、309は局所動き補償部1、310は開閉器、31
1は動き情報多重化部、312は比較器、313は加算器、314
は差分器である。
FIG. 3 is a block diagram of the image coding apparatus.
301 is a residual coding unit, 302 is a residual decoding unit, 303 is a frame memory, 304 is a motion prediction unit 1, 305 is a representative point motion vector interframe estimation unit, 306 is a representative point motion vector updating unit, and 307 is Template memory, 308 is representative vector interpolation motion compensation unit, 309 is local motion compensation unit 1, 310 is switch, 31
1 is a motion information multiplexing unit, 312 is a comparator, 313 is an adder, 314
Is a differentiator.

【0102】図4は画像復号化装置の構成図で、図中40
1は残差復号化部、402はフレームメモリ、403は局所動
き補償部1、404は代表ベクトル内挿動き補償部、405は
テンプレートメモリ、406は動き情報分離部、407は選択
器、408は開閉器、409は加算器である。
FIG. 4 is a block diagram of the image decoding apparatus.
1 is a residual decoding unit, 402 is a frame memory, 403 is a local motion compensation unit 1, 404 is a representative vector interpolation motion compensation unit, 405 is a template memory, 406 is a motion information separation unit, 407 is a selector, and 408 is A switch and 409 are adders.

【0103】なお、動き情報多重化部(311)を除き、同
名であれば図3の構成要素の動作は図1中の構成要素と
同じである。同様に動き情報分離部(406)を除き、図4
の構成要素の動作は図2中の構成要素と同じである。
Except for the motion information multiplexing unit (311), the components of FIG. 3 operate in the same manner as the components of FIG. 1 if they have the same name. Similarly, except for the motion information separation unit (406), as shown in FIG.
The operation of the components is the same as the components in FIG.

【0104】第2の実施の形態と第1の実施の形態の差
異は、 (1)グローバル動き補償後の局所動き補償を行なわな
い。 (2)アフィンパラメータの更新、伝送を3代表点の動きベ
クトルで行なう。 (3)グローバル動き補償は3代表点の動きベクトルの内挿
で行なう。 という3点である。以下にこの差異を述べる。
The differences between the second embodiment and the first embodiment are: (1) Local motion compensation after global motion compensation is not performed. (2) Update and transmit affine parameters with motion vectors of three representative points. (3) Global motion compensation is performed by interpolating the motion vectors of the three representative points. That is three points. This difference will be described below.

【0105】まず、前記図3と図4の構成中、符号化装
置では、動き情報多重化部(311)が動きベクトルmv,
4倍され整数値に量子化された代表点動きベクトルの差
分表現(s0,t0),(s1,t1),(s2,t2),マクロブロック単位で
の選択結果SWを多重化し,これに対応して図4の復号化
装置では動き情報分離部(406)がmv,(s0,t0),(s1,t1),
(s2,t2),SWの3情報を分離復号する動作が異なる。
First, in the configuration of FIGS. 3 and 4, in the encoding device, the motion information multiplexing unit (311) causes the motion vector mv,
Difference representation (s0, t0), (s1, t1), (s2, t2) of the representative point motion vector quadrupled and quantized to an integer value, and the selection result SW in macroblock units are multiplexed and supported. Then, in the decoding apparatus of FIG. 4, the motion information separation unit (406) is set to mv, (s0, t0), (s1, t1),
The operation of separating and decoding three pieces of information (s2, t2), SW is different.

【0106】アフィンパラメータの推定は、以下の方法
で求める。式32に示すようにアフィンパラメータaは同
一直線上にない3点o,h,vの動きが定まれば求めることが
できる。Poは式33に示すoの位置に関する行列、Voは式3
4に示すoの位置の動きベクトルである。h,vについても
同様である。
The affine parameters are estimated by the following method. As shown in Expression 32, the affine parameter a can be obtained if the movements of three points o, h, and v that are not on the same straight line are determined. Po is a matrix for the position of o shown in Equation 33, and Vo is Equation 3
It is the motion vector at the o position shown in 4. The same applies to h and v.

【0107】[0107]

【数32】 (Equation 32)

【0108】[0108]

【数33】 [Equation 33]

【0109】[0109]

【数34】 (Equation 34)

【0110】本実施の形態ではo,h,vの位置を入力画像
上の(0,0),(H,0),(0,V)の位置に定めた。
In the present embodiment, the positions of o, h, and v are set to the positions of (0,0), (H, 0), (0, V) on the input image.

【0111】H,Vは画像の大きさでH=352,V=240であ
る。次に、画面上の図7に示すように新たにTL,TR,C,B
L,BRの5点を観測位置として選び、代表点動きベクトル
フレーム間推定部(305)では、動きベクトル予測部1(3
04)の出力の中で上記5つのブロック相関の結果を用い
てアフィンパラメータを計算する。この手順を図8に示
す。5点の名から3点の組合せを順に選び式25によりア
フィンパラメータaを求める。そして、得られたアフィ
ンパラメータによりo,h,vの位置の動きベクトルを1/
4画素精度で求め、記憶する。
H and V are image sizes, and H = 352 and V = 240. Next, as shown in Fig. 7 on the screen, TL, TR, C, B are newly added.
Five points L and BR are selected as observation positions, and the representative point motion vector interframe estimation unit (305) uses the motion vector prediction unit 1 (3
In the output of 04), the affine parameters are calculated using the results of the above five block correlations. This procedure is shown in FIG. The affine parameter a is calculated by the equation 25 by sequentially selecting a combination of 3 points from the name of 5 points. Then, by using the obtained affine parameters, the motion vector at the positions of o, h, v is 1 /
Calculated with 4-pixel accuracy and stored.

【0112】全ての組合せについて、動きベクトルをo,
h,vの位置について求め、中間値を結果とする。これをV
o,Vh,Vvとすると、これが1フレーム間のアフィンパラ
メータの別表現である。第1の実施の形態では、アフィ
ンパラメータを合成することにより、入力画像とテンプ
レートとのアフィンパラメータを求めた。
For all combinations, the motion vectors are o,
Obtain the positions of h and v, and use the intermediate value as the result. This is V
Letting o, Vh, Vv be different representations of affine parameters during one frame. In the first embodiment, the affine parameters of the input image and the template are obtained by combining the affine parameters.

【0113】本実施の形態では、代表点動きベクトル更
新部(306)が、1フレーム前の入力画像からみたテンプ
レートメモリ(307)内の画像への対応を代表点動きベク
トルV〜o,V〜h,V〜vとして記憶している。
In the present embodiment, the representative point motion vector updating unit (306) determines the correspondence between the image in the template memory (307) as seen from the input image one frame before and the representative point motion vector V ~ o, V ~. It is stored as h, V to v.

【0114】この代表点動きベクトルは開閉器(310)と
連動して、新しくテンプレートメモリ(307)へ画像が記
憶される毎に全て0ベクトルにリセットされる。V〜o,V
〜h,V〜vと代表点動きベクトルフレーム間推定部(305)
より得られたVo,Vh,Vvを用いて、式35〜式37により入力
画像からみたテンプレートメモリ(307)に記憶されてい
る復号画像へのアフィン変換パラメータV'o,V'h,V'vを
求める。得られたV'o,V'h,V'vをV〜o,V〜h,V〜vにフレ
ーム毎に代入して繰返し更新を行なう。
The representative point motion vector is reset to 0 vector every time an image is newly stored in the template memory (307) in cooperation with the switch (310). V ~ o, V
~ H, V ~ v and representative point motion vector interframe estimation unit (305)
Using Vo, Vh, Vv obtained by the above, affine transformation parameters V'o, V'h, V'to the decoded image stored in the template memory (307) viewed from the input image according to Equations 35 to 37. ask for v The obtained V'o, V'h, V'v are substituted into V ~ o, V ~ h, V ~ v for each frame, and the iterative update is performed.

【0115】そして,V'o,V'h,V'vを4倍にして整数化
した値の並び(U4o,V4o),(U4h,V4h),(U4v,V4v)を以下の
差分形式(s0,s1,s2,t0,t1,t2)に変換して伝送する。
Then, the sequence of values (U4o, V4o), (U4h, V4h), and (U4v, V4v) obtained by multiplying V'o, V'h, V'v by 4 and converting them into integers is given by s0, s1, s2, t0, t1, t2) and transmit.

【0116】[0116]

【数35】 (Equation 35)

【0117】[0117]

【数36】 [Equation 36]

【0118】[0118]

【数37】 (37)

【0119】ここで,差分形式は各々以下に示す通りと
なる。 s0=U4o s1=U4h-U4o s2=U4v-U4o t0=V4o t1=V4h-V4o t2=V4v-V4o この差分データは表1に示す可変長符号に変換されて符
号化される。
Here, the difference formats are as shown below. s0 = U4o s1 = U4h-U4o s2 = U4v-U4o t0 = V4o t1 = V4h-V4o t2 = V4v-V4o This difference data is converted into the variable length code shown in Table 1 and encoded.

【0120】これには国際標準化機構(ISO)における
静止画符号化標準JPEG「ジェイペグテクニカルスペシフ
ィケーション」(ISO/IEC JTC1/SC29/WG10: JPEG Techn
icalSpeicification, JPEG8-R8,1998年8月)で採用され
ている符号化方法を用いる。この符号化方法では差分デ
ータに対するカテゴリSSSSとハフマン符号を求める。こ
こでSSSSは差分データをグループ分けするための変数で
あり、差分が正の場合には差分を2進表現した場合に上
位ビットからからみて最初に”1”が立つ最下位ビット
の番号であり、差分が負の場合は差分値−1を2進表現
した場合に上位ビットからみて最初に”0”が立つ最下
位ビットの番号である。
For this, the still image encoding standard JPEG "J-PEG Technical Specification" (ISO / IEC JTC1 / SC29 / WG10: JPEG Techn) by the International Organization for Standardization (ISO) is used.
icalSpeicification, JPEG8-R8, August 1998). In this encoding method, the category SSSS and Huffman code for the difference data are obtained. Here, SSSS is a variable for grouping the difference data, and when the difference is positive, it is the number of the least significant bit where "1" stands first from the upper bit when the difference is expressed in binary. When the difference is negative, it is the number of the least significant bit in which "0" is first set when the difference value -1 is expressed in binary as seen from the upper bits.

【0121】カテゴリに対応する(表1)のハフマン符
号を伝送することにより、差分値のカテゴリが分かる
が、これだけでは差分データを特定することができない
ために、ハフマン符号の後に付加ビットを加える。SSSS
はこの付加ビットのビット長に対応しており差分が正の
場合には差分の最下位ビットからSSSSビットを、差分が
負の場合には差分値−1の最下位ビットからSSSSビット
が付加ビットとなる。
By transmitting the Huffman code of (Table 1) corresponding to the category, the category of the difference value can be known, but since the difference data cannot be specified only by this, additional bits are added after the Huffman code. SSSS
Corresponds to the bit length of this additional bit. If the difference is positive, the SSSS bit is added from the least significant bit of the difference, and if the difference is negative, the SSSS bit is added from the least significant bit of the difference value -1. Becomes

【0122】このようにして、(s0,s1,s2,t0,t1,t2)の
各々に対して、カテゴリSSSSのハフマン符号と付加ビッ
トが可変長符号として伝送される。この符号化は動き情
報多重化部(311)で行なうものとする。
In this way, for each of (s0, s1, s2, t0, t1, t2), the Huffman code of category SSSS and the additional bits are transmitted as a variable length code. This encoding is performed by the motion information multiplexing unit (311).

【0123】[0123]

【表1】 [Table 1]

【0124】動き情報分離部(406)では、ビットストリ
ームの中からSSSSに対応するハフマン符号を見つけてカ
テゴリSSSSを復号する。引き続いてSSSSビット分の付加
ビットを読み込み、付加ビットの先頭ビットが1の場合
には差分が正、0の場合には差分が負であると判断す
る。
The motion information separating section (406) finds a Huffman code corresponding to SSSS in the bit stream and decodes the category SSSS. Subsequently, additional bits for SSSS bits are read, and it is determined that the difference is positive when the first bit of the additional bits is 1 and negative when the first bit of the additional bits is 0.

【0125】負である場合、付加ビットを2進表現とし
これに1を加えた後、SSSS+1ビット目から上に1を詰
めて負数に変換する。
If it is negative, the additional bit is expressed as a binary number, 1 is added to this, and then 1 is added above the SSSS + 1 bit to convert it to a negative number.

【0126】第1の実施例では、アフィンパラメータa
を伝送して式10により入力画面上の各画素位置の動きベ
クトルを計算していた。本実施例では、等価的に(U4o,V
4o),(U4h,V4h),(U4v,V4v)を内挿補間することにより計
算する。
In the first embodiment, the affine parameter a
Then, the motion vector of each pixel position on the input screen was calculated by transmitting Eq. In this embodiment, equivalently (U4o, V
4o), (U4h, V4h), (U4v, V4v) are interpolated and calculated.

【0127】式32に従えば、3点o,h,vの動きベクトル
より、アフィンパラメータoは式38と式39より求まる。
According to the equation 32, the affine parameter o can be obtained from the equations 38 and 39 from the motion vectors of the three points o, h and v.

【0128】[0128]

【数38】 (38)

【0129】[0129]

【数39】 [Equation 39]

【0130】展開すれば、動きベクトルは式40,41とし
て得られることになる。これは、3点o,h,vの動きベク
トルを位置に応じて中割して求めていることになる。
If expanded, the motion vector can be obtained as equations 40 and 41. This means that the motion vectors of the three points o, h, and v are divided and obtained according to the position.

【0131】[0131]

【数40】 (Equation 40)

【0132】[0132]

【数41】 [Equation 41]

【0133】各画素位置について、1/4精度を保証し、
かつ符号化側と復号化側でグローバル動き補償はによる
予測画像を同一とするために、式42と式43に示す式を整
数演算として行なうことが考えられる。
1/4 precision is guaranteed for each pixel position,
Moreover, in order to make the prediction image by the global motion compensation the same on the encoding side and the decoding side, it is conceivable to perform the equations shown in the equations 42 and 43 as integer operations.

【0134】[0134]

【数42】 (Equation 42)

【0135】[0135]

【数43】 [Equation 43]

【0136】式42と式43において,(X,Y)は入力画面上
の画素位置、V4(X,Y),V4(X,Y)はその位置における4倍
された整数動きベクトル、(U4o,V4o)は4倍された位置o
における整数動きベクトル、(U4h,V4h),(U4v,V4v)はそ
れぞれ画面右上端、左下端の動きベクトルである。
In Expressions 42 and 43, (X, Y) is a pixel position on the input screen, V4 (X, Y), V4 (X, Y) are quadruple integer motion vectors at that position, and (U4o , V4o) is the quadrupled position o
, (U4h, V4h), (U4v, V4v) are the motion vectors at the upper right corner and the lower left corner of the screen, respectively.

【0137】この計算の実際は、本実施例では、(U4o,V
4o),(U4h,V4h),(U4v,V4v)は、差分形式(s0,s1,s2,t0,
t1,t2)で伝送されることを利用する。
In practice, this calculation shows that (U4o, V
4o), (U4h, V4h), (U4v, V4v) is the difference format (s0, s1, s2, t0,
It is used to be transmitted at t1, t2).

【0138】すなわりち代表ベクトル内挿動き補償部
(308)では、式42と式43は式44,式45として実現され
る。
That is, in the representative vector interpolation motion compensator (308), equations 42 and 43 are realized as equations 44 and 45.

【0139】[0139]

【数44】 [Equation 44]

【0140】[0140]

【数45】 [Equation 45]

【0141】またこの時、s1,s2,t1,t2の全てが零であ
ることが分かった場合は、式44,式45の計算を簡略化す
る。すなわちs0,t0で定まる並行移動のみとしてs1,s2,
t1,t2に関するグローバル動き補償のための計算を省略
して行なう。
At this time, if it is found that all of s1, s2, t1 and t2 are zero, the calculation of equations 44 and 45 is simplified. That is, only parallel movements determined by s0 and t0 are s1, s2,
The calculation for global motion compensation regarding t1 and t2 is omitted.

【0142】本実施の形態の特長は以下にまとめられ
る。 (1)第1の実施の形態と比較して第2の実施の形態で
は、グローバル動き補償後の動き予測を省略しているた
め、画像符号化装置では比較的に処理の重いブロックマ
ッチング処理が従来の技術に記したMPEG1と同じ規
模に収まっている。
The features of this embodiment are summarized below. (1) Since motion estimation after global motion compensation is omitted in the second embodiment as compared with the first embodiment, the block matching process, which is relatively heavy in the image encoding device, is performed. It is on the same scale as MPEG1 described in the conventional technique.

【0143】(2)全画面動きが5つのブロック相関によ
り求めているために処理負荷が軽い。また、5つのブロ
ック相関の中から3つのブロック相関を選び、これから
代表点o,h,vの動きベクトルを計算しその成分の中間値
を選ぶことにより、画面全体とは異なる動きがあっても
その影響を受け難い構成になっている。
(2) The processing load is light because the entire screen movement is obtained by the five block correlations. In addition, even if there is a motion different from the entire screen by selecting three block correlations from the five block correlations, calculating the motion vector of the representative points o, h, v from this and selecting the median value of the components. It has a structure that is unlikely to be affected by it.

【0144】(3)代表点o,h,vを直交する位置に選び、こ
の点の動きベクトル伝送することにより、動き補償の際
の座標計算が簡略化されている。これにより高い演算精
度を補償することができる。
(3) By selecting the representative points o, h, v at orthogonal positions and transmitting the motion vector at this point, coordinate calculation at the time of motion compensation is simplified. Thereby, high calculation accuracy can be compensated.

【0145】(4)代表点を差分形式で可変長符号化する
ことにより、アフィン変換が単純な並行移動の場合は(s
0,t0)により並行移動が表され、他のs1,s2,t1,t2は全て
零になる。従って、並行移動が水平に1画素であるとす
ると、合計15ビットでアフィン変換パラメータが伝送
できることになる。
(4) By performing variable-length coding on the representative point in the difference format, if the affine transformation is a simple parallel movement, (s
The parallel movement is represented by (0, t0), and the other s1, s2, t1, t2 are all zero. Therefore, assuming that the parallel movement is one pixel horizontally, the affine transformation parameter can be transmitted with a total of 15 bits.

【0146】(表1)では1/4画素精度の動きを−5
11.75〜+512画素の範囲で表現することができ
るが、これを固定長符号化で行なうとすると12ビット
×6=72ビット必要になる。これと比べると通常の動
きベクトルの範囲では発生ビット量を抑えることができ
る。また画像の変形が並行移動だけで行なえるのか、一
般的なアフィン変換を行う必要があるのかの判定が差分
表現から簡単に判定することができる。これにより、グ
ローバル動き補償のためのアドレス計算は、簡略化して
行なうことができる利点が生じてくる。
In (Table 1), a motion with ¼ pixel precision is -5.
It can be expressed in the range of 11.75 to +512 pixels, but if this is performed by fixed length coding, 12 bits × 6 = 72 bits are required. Compared to this, the amount of generated bits can be suppressed in the range of normal motion vectors. Further, it is possible to easily judge from the difference expression whether the image can be deformed only by parallel movement or whether general affine transformation needs to be performed. As a result, there is an advantage that the address calculation for global motion compensation can be simplified.

【0147】なお、本実施例で述べたグローバル動きデ
ータの伝送方法は、グローバル動き補償がアフィン変換
の場合を述べたが、双一次補間による変換あるいは透視
変換下での平面の動きモデルに拡張することができる。
いずれの場合も8パラメータの変換であり、新たに画面
右下端点の座標位置(H,V)における1/4画素精度動
きベクトル(U4hv,V4hv)を伝送することより実現でき
る。双一次補間による場合、式46,式47に示すように8
つのパラメータで画面全体の動きが記述される。
In the method of transmitting global motion data described in the present embodiment, the case in which the global motion compensation is the affine transformation has been described, but it is expanded to a plane motion model under the transformation by the bilinear interpolation or the perspective transformation. be able to.
In any case, it is a conversion of 8 parameters and can be realized by newly transmitting the 1/4 pixel precision motion vector (U4hv, V4hv) at the coordinate position (H, V) of the lower right corner of the screen. When using bilinear interpolation, as shown in Equation 46 and Equation 47, 8
The movement of the whole screen is described by one parameter.

【0148】[0148]

【数46】 [Equation 46]

【0149】[0149]

【数47】 [Equation 47]

【0150】ここで、 s0=U4o s1=U4h-U4o s2=U4v-U4o s3=U4o-U4h-U4v+U4hv t0=V4o t1=V4h-V4o t2=V4v-V4o t3=V4o-V4h-V4v+V4hv とすると、双一次補間による場合、動きベクトルはHere, s0 = U4o s1 = U4h-U4o s2 = U4v-U4o s3 = U4o-U4h-U4v + U4hv t0 = V4o t1 = V4h-V4o t2 = V4v-V4o t3 = V4o-V4h-V4v + h Then, when using bilinear interpolation, the motion vector is

【0151】[0151]

【数48】 [Equation 48]

【0152】[0152]

【数49】 [Equation 49]

【0153】で表現することができる。ここで(s3,t3)
=(0,0)であれば、アフィン変換と同じ処理、(s0,t0)以
外が全て零であれば、並行移動と同じ処理となる。透視
変換における平面の動きモデルの場合は、やや複雑な計
算となるが、いずれの場合も(s3,t3)=(0,0)であるかど
うか、(s0,t0)以外が零であるかどうかアフィン変換、
並行移動との自動切替が行なえるため、上記した差分形
式での画像端点の動きベクトル伝送の利点は大きい。
It can be expressed by Where (s3, t3)
= (0,0), the same process as affine transformation, and if all except (s0, t0) are zero, the same process as parallel movement. In the case of the plane motion model in perspective transformation, the calculation is a little complicated. In either case, whether (s3, t3) = (0,0) or not (s0, t0) is zero. Affine transformation,
Since automatic switching to parallel movement can be performed, the advantage of the motion vector transmission of the image end point in the above-described difference format is great.

【0154】[0154]

【発明の効果】以上のように、第1の発明によれば、グ
ローバル動き補償によって生じる予測画像の解像度低下
を従来技術に比して低減することができる。これによ
り、カメラの首振りおよびズームによって生じる動きを
補償することから、より少ない情報伝送量で画像を伝送
することが可能となる。
As described above, according to the first aspect of the present invention, it is possible to reduce the reduction in the resolution of the predicted image caused by the global motion compensation, as compared with the prior art. This compensates for the movement caused by the camera swinging and zooming, so that the image can be transmitted with a smaller amount of information transmission.

【0155】第2の発明によれば、動きベクトルを内挿
補間しグローバル動き補償を行なうことから、アドレス
計算の複雑さが減り演算精度を高く保つことができる。
したがって、符号化側と復号化側の予測画像の一致を容
易にとることができ、結果としてグローバル動き補償に
よる効率の良い予測画像符号化を行うことができる。
According to the second invention, since the motion vector is interpolated and the global motion compensation is performed, the complexity of the address calculation is reduced and the calculation accuracy can be kept high.
Therefore, it is possible to easily match the prediction images on the encoding side and the decoding side, and as a result, it is possible to perform efficient prediction image encoding by global motion compensation.

【0156】また、第3の発明によれば、第2の発明の
効果を保ちながら、差分表現により代表点動きベクトル
の符号量を減らすことができる。さらに、差分ベクトル
の零判定により、画像の変形モデルをより簡易なものへ
自動切替を行なうことができる。
According to the third invention, the code amount of the representative point motion vector can be reduced by the differential expression while maintaining the effect of the second invention. Furthermore, the zero determination of the difference vector makes it possible to automatically switch the deformation model of the image to a simpler model.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態における画像符号化
装置の構成図
FIG. 1 is a configuration diagram of an image encoding device according to a first embodiment of the present invention.

【図2】同第1の実施の形態における画像復号化装置の
構成図
FIG. 2 is a configuration diagram of an image decoding apparatus according to the first embodiment.

【図3】本発明の第2の実施の形態における画像符号化
装置の構成図
FIG. 3 is a configuration diagram of an image encoding device according to a second embodiment of the present invention.

【図4】同第2の実施の形態における画像復号化装置の
構成図
FIG. 4 is a configuration diagram of an image decoding apparatus according to the second embodiment.

【図5】従来の画像符号化装置の構成図FIG. 5 is a configuration diagram of a conventional image encoding device.

【図6】ブロック相関法の原理図FIG. 6 Principle diagram of block correlation method

【図7】第2の実施の形態における代表点と観測点を示
す線図
FIG. 7 is a diagram showing a representative point and an observation point in the second embodiment.

【図8】第2の実施の形態における代表点動きベクトル
フレーム間推定部の動作図
FIG. 8 is an operation diagram of a representative point motion vector interframe estimation unit according to the second embodiment.

【符号の説明】[Explanation of symbols]

101,301 残差符号化部 102,201,302,401 残差復号化部 103,202,303,402 フレームメモリ 104,110,304 局所動き予測部 105 アフィンパラメータフレーム間推定部 106 アフィンパラメータ更新部 107,208,307,405 テンプレートメモリ 108,204 アフィン動き補償部 109,110,203,205,309,403 局
所動き補償部 112,312 比較器 113,210,313,409 加算器 114,314 差分器 116,311 動き情報多重部 115,209,310,408 開閉器 206,406 動き情報分離部 207,407 選択器 305 代表点動きベクトルフレーム間推定部 306 代表点動きベクトル更新部 308,404 代表ベクトル内挿動き補償部 SW マクロブロック単位での予測選択結果SW mv1,mv2 マクロブロック動きベクトル g グローバル動き補償パラメータ a アフィン動き補償パラメータ U4,V4 4倍され整数値に量子化された代表点動きベク
トル
101, 301 Residual coding unit 102, 201, 302, 401 Residual decoding unit 103, 202, 303, 402 Frame memory 104, 110, 304 Local motion prediction unit 105 Affine parameter Interframe estimation unit 106 Affine parameter updating unit 107, 208, 307, 405 Template memory 108, 204 Affine motion compensation unit 109, 110, 203, 205, 309, 403 Local motion compensation unit 112, 312 Comparator 113, 210, 313, 409 Adder 114, 314 Difference device 116, 311 Motion information multiplexing unit 115, 209, 310, 408 Switch 206, 406 Motion information separating unit 207, 407 Selector 305 Representative point motion vector inter-frame estimation unit 306 Representative point motion vector updating unit 308, 404 Representative vector Interpolation motion compensator SW Prediction selection result in macro block units SW mv1, mv2 macro block motion vector g Global motion compensation parameter a Affine motion compensation parameter U4, V4 Representative point motion vector quantized to an integer value of 4

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】画像のフレーム系列を入力とし、 符号化対象フレームに対して時間的に前後する復号化さ
れたフレームを短期参照フレームとして記憶する短期フ
レームメモリと、 前記符号化対象フレームと前記短期参照フレームの間
の、局所的な対応を局所動きベクトルとして検出する局
所動きベクトル検出手段と、 前記した局所的動きベクトルを用いて前記短期フレーム
メモリから画像を読み出して予測画像を生成する短期動
き補償手段と、 符号化対象フレームに対して前記短期参照フレームより
も更新される間隔が長い復号化されたフレームを長期参
照フレームとして記憶する長期フレームメモリと、 前記符号化対象フレームと前記長期参照フレームの間
の、全画面の対応を画面上の任意の位置の動きベクトル
をその位置を変数とする多項式関数のパラメータとして
検出する全画面動き検出手段と、 前記多項式関数のパラメータを用いて前記長期フレーム
メモリから画像を読み出して予測画像を生成する全画面
動き補償手段とを備え,前記短期動き補償手段と全画面
動き補償手段とを適応的に選択して予測符号化を行なう
画像符号化装置。
1. A short-term frame memory, which receives a frame sequence of an image and stores decoded frames temporally before and after the frame to be coded as short-term reference frames, the frame to be coded and the short-term frame. Local motion vector detection means for detecting a local correspondence between reference frames as a local motion vector, and short-term motion compensation for reading an image from the short-term frame memory using the local motion vector to generate a predicted image Means, a long-term frame memory for storing a decoded frame having a longer interval of updating than the short-term reference frame as a long-term reference frame with respect to the encoding target frame, the encoding target frame and the long-term reference frame Between all the screens, and the motion vector at any position on the screen as the variable The short-term motion compensation includes: a full-screen motion detection unit that detects as a parameter of a polynomial function; and a full-screen motion compensation unit that reads an image from the long-term frame memory using the parameter of the polynomial function to generate a predicted image. Means for adaptively selecting a means and a full screen motion compensation means for predictive coding.
【請求項2】符号化された画像を入力として、 符号化対象フレームに対して時間的に前後する復号化さ
れたフレームを短期参照フレームとして記憶する短期フ
レームメモリと、 前記符号化対象フレームと前記短期参照フレームの間
の、局所的な対応を局所動きベクトルを入力から復号化
する局所動きベクトル復号化手段と、 前記した局所的動きベクトルを用いて前記短期フレーム
メモリから画像を読み出して予測画像を生成する短期動
き補償手段と、 符号化対象フレームに対して前記短期参照フレームより
も更新される間隔が長い復号化されたフレームを長期参
照フレームとして記憶する長期フレームメモリと、 前記符号化対象フレームと前記長期参照フレームの間
の、全画面の対応を画面上の任意の位置の動きベクトル
をその位置を変数とする多項式関数のパラメータとして
入力から復号する全画面動き復号化手段と、 前記した多項式関数のパラメータを用いて前記長期フレ
ームメモリから画像を読み出して予測画像を生成する全
画面動き補償手段とを備え、前記短期動き補償手段と全
画面動き補償手段とを入力からの指示にしたがって選択
し予測復号化を行なう画像復号化装置。
2. A short-term frame memory, which receives a coded image as an input, and stores a decoded frame temporally before and after a frame to be coded as a short-term reference frame; Local motion vector decoding means for decoding a local motion vector from an input for local correspondence between short-term reference frames, and a predicted image by reading an image from the short-term frame memory using the local motion vector described above. Short-term motion compensation means for generating, a long-term frame memory for storing a decoded frame having a longer update interval than the short-term reference frame as a long-term reference frame for the coding target frame, and the coding target frame Correspondence of the whole screen between the long-term reference frames is calculated by changing the position of the motion vector at any position on the screen. A full-screen motion decoding means for decoding from an input as a parameter of a polynomial function, and a full-screen motion compensating means for reading an image from the long-term frame memory using the parameters of the polynomial function to generate a predicted image. An image decoding apparatus for performing predictive decoding by selecting the short-term motion compensation means and the full-screen motion compensation means according to an instruction from an input.
【請求項3】全画面動き補償手段は画面上の任意の位置
の動きベクトルをその位置を変数とする線形多項式関数
に従って長期フレームメモリから画像を読み出して予測
画像を生成するものとし、全画面動き検出手段の構成を
局所動きベクトル検出手段の出力を用いて、符号化対象
フレームと短期参照フレーム間の全画面の対応を前記線
形多項式関数のパラメータを用いて計算する線形多項式
関数パラメータ演算手段と、 符号化対象フレームと長期参照フレーム間の全画面の対
応を、前記線形多項式関数の線形性を利用して、前記線
形多項式関数の合成として求める線形多項式関数パラメ
ータ合成手段とからなることを特徴とする請求項1記載
の画像符号化装置。
3. The full-screen motion compensating means reads out an image from a long-term frame memory according to a linear polynomial function whose position is a motion vector at an arbitrary position on the screen to generate a predicted image, and the full-screen motion is calculated. Using the output of the local motion vector detection means as the configuration of the detection means, a linear polynomial function parameter calculation means for calculating the correspondence of the entire screen between the encoding target frame and the short-term reference frame using the parameters of the linear polynomial function, A linear polynomial function parameter synthesizing means for obtaining the correspondence of the entire screen between the encoding target frame and the long-term reference frame as a synthesis of the linear polynomial function by utilizing the linearity of the linear polynomial function. The image coding apparatus according to claim 1.
【請求項4】全画面動き補償手段は画面上の任意の位置
の動きベクトルをその位置を変数とする線形多項式関数
に従って長期フレームメモリから画像を読み出して予測
画像を生成することを特徴とする請求項2記載の画像復
号化装置。
4. The full-screen motion compensating means generates a predicted image by reading an image from a long-term frame memory according to a linear polynomial function having a position of a motion vector at an arbitrary position on the screen as a variable. Item 2. The image decoding device according to item 2.
【請求項5】画像のフレーム系列を入力とし、 符号化対象フレームに対して時間的に前後する復号化さ
れたフレームを短期参照フレームとして記憶する短期フ
レームメモリと、 前記符号化対象フレーム代表点と前記短期参照フレーム
の間の、局所的な対応を代表点動きベクトルとして検出
する代表点動きベクトル検出手段と、 符号化対象フレームに対して前記短期参照フレームより
も更新される間隔が長い復号化されたフレームを長期参
照フレームとして記憶する長期フレームメモリと、 前記代表点動きベクトルを合成して、符号化対象フレー
ムと前記長期参照フレームの間の全画面の対応を代表点
動きベクトルとして求める全画面動き検出手段と、 前記全画面動き検出手段の出力を用いて前記長期フレー
ムメモリから画像を読み出して予測画像を生成する全画
面動き補償手段とを備えたことを特徴とする画像符号化
装置。
5. A short-term frame memory, which receives a frame sequence of an image and stores decoded frames temporally before and after the frame to be coded as short-term reference frames, and a representative point of the frame to be coded. Representative point motion vector detection means for detecting a local correspondence between the short-term reference frames as a representative point motion vector, and decoding for a frame to be coded having a longer update interval than the short-term reference frame. A long-term frame memory that stores a selected frame as a long-term reference frame, and the representative point motion vector are combined to obtain the correspondence of the entire screen between the encoding target frame and the long-term reference frame as a representative point motion vector. An image is read from the long-term frame memory using the detection means and the output of the full-screen motion detection means. The image coding apparatus is characterized in that a full screen motion compensation means for generating a measurement image.
【請求項6】画像のフレーム系列を入力とし、 符号化対象フレームに対して時間的に前後する復号化さ
れたフレームを参照フレームとして記憶するフレームメ
モリと、 前記符号化対象フレームと前記参照フレームの間の、全
画面の対応を画面上の代表点の動きベクトルとして検出
する全画面動き検出手段と、 画面上の代表点の動きベクトルを所定の精度で符号化す
る代表点動きベクトル符号化手段と、 前記代表点の動きベクトルを内挿補間することにより予
測画像を生成する全画面動き補償手段とを備えたことを
特徴とする画像符号化装置。
6. A frame memory which receives as input a frame sequence of an image, and stores as a reference frame a decoded frame temporally before and after the frame to be coded; a frame memory of the frame to be coded and the reference frame; A full-screen motion detection means for detecting the correspondence between all screens as a motion vector of a representative point on the screen, and a representative point motion vector coding means for encoding the motion vector of the representative point on the screen with a predetermined accuracy. An image coding apparatus comprising: a full-screen motion compensating unit that generates a predicted image by interpolating the motion vector of the representative point.
【請求項7】符号化された画像を入力として、 符号化対象フレームに対して時間的に前後する復号化さ
れたフレームを参照フレームとして記憶するフレームメ
モリと、 請求項6記載の全画面動き検出手段の出力である代表点
の動きベクトルを復号化する代表点動きベクトル復号化
手段と、 前記全画面動き検出手段の出力である代表点の動きベク
トルを内挿補間することにより予測画像を生成する全画
面動き補償手段とを備えたことを特徴とする画像復号化
装置。
7. A frame memory for receiving a coded image as an input and storing a decoded frame temporally before and after a frame to be coded as a reference frame, and full-screen motion detection according to claim 6. A representative point motion vector decoding unit that decodes the motion vector of the representative point that is the output of the unit, and a predicted image is generated by interpolating the motion vector of the representative point that is the output of the full-screen motion detection unit. An image decoding apparatus comprising: a full-screen motion compensation means.
【請求項8】符号化対象フレームに対して時間的に前後
する復号化されたフレームを参照フレームとして記憶す
るフレームメモリと、 前記符号化対象フレームと前記参照フレームの間の、全
画面の対応を画面上の代表点の動きベクトルとして検出
する全画面動き検出手段と、 画面上の代表点の動きベクトルを差分ベクトルとして所
定の精度で符号化する代表点動きベクトル差分符号化手
段と、 前記代表点の動きベクトル差分により、画像変形演算の
動作を切り替えて画像を変形する全画面変形手段とを備
えたことを特徴とする画像符号化装置。
8. A frame memory for storing, as a reference frame, a decoded frame that is temporally before and after a frame to be coded, and a full-screen correspondence between the frame to be coded and the reference frame. Full-screen motion detection means for detecting as a motion vector of a representative point on the screen, representative point motion vector difference encoding means for encoding a motion vector of the representative point on the screen as a difference vector with a predetermined accuracy, and the representative point An image coding apparatus, comprising: a full-screen transforming unit that transforms an image by switching the image transforming operation according to the motion vector difference.
【請求項9】符号化された画像を入力として、 復号化対象フレームに対して時間的に前後する復号化さ
れたフレームを参照フレームとして記憶するフレームメ
モリと、 代表点の動きベクトル差分を復号化する代表点動きベク
トル差分復号化手段と、前記代表点の動きベクトル差分
により、画像変形演算の動作を切り替えて画像を変形す
る全画面変形手段とを備えたことを特徴とする画像復号
化装置。
9. A frame memory, which receives a coded image as an input, stores a decoded frame temporally before and after a decoding target frame as a reference frame, and decodes a motion vector difference of a representative point. An image decoding apparatus comprising: a representative point motion vector difference decoding means and a full-screen transforming means for transforming an image by switching the image transforming operation according to the motion vector difference of the representative points.
JP06596896A 1996-01-22 1996-03-22 Image coding device Expired - Fee Related JP3235453B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06596896A JP3235453B2 (en) 1996-01-22 1996-03-22 Image coding device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-8113 1996-01-22
JP811396 1996-01-22
JP06596896A JP3235453B2 (en) 1996-01-22 1996-03-22 Image coding device

Publications (2)

Publication Number Publication Date
JPH09266574A true JPH09266574A (en) 1997-10-07
JP3235453B2 JP3235453B2 (en) 2001-12-04

Family

ID=26342561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06596896A Expired - Fee Related JP3235453B2 (en) 1996-01-22 1996-03-22 Image coding device

Country Status (1)

Country Link
JP (1) JP3235453B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100661256B1 (en) * 1998-07-13 2006-12-27 프리스케일 세미컨덕터, 인크. Method and apparatus for encoding and decoding video signals by using storage and retrieval of motion vectors
KR100829098B1 (en) * 2006-10-10 2008-05-19 삼성전자주식회사 Motion Estimator and Motion Estimating Method
JP2008219628A (en) * 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> Motion compensation apparatus
JP2009088736A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Image encoder, image decoder, and image encoding method
WO2011013253A1 (en) * 2009-07-31 2011-02-03 株式会社 東芝 Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100661256B1 (en) * 1998-07-13 2006-12-27 프리스케일 세미컨덕터, 인크. Method and apparatus for encoding and decoding video signals by using storage and retrieval of motion vectors
KR100829098B1 (en) * 2006-10-10 2008-05-19 삼성전자주식회사 Motion Estimator and Motion Estimating Method
JP2008219628A (en) * 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> Motion compensation apparatus
JP2009088736A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Image encoder, image decoder, and image encoding method
WO2011013253A1 (en) * 2009-07-31 2011-02-03 株式会社 東芝 Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device

Also Published As

Publication number Publication date
JP3235453B2 (en) 2001-12-04

Similar Documents

Publication Publication Date Title
JP2801559B2 (en) Motion compensation coding method and apparatus adapted to the magnitude of motion
JP3386142B2 (en) Image decoding device and image decoding method
JP3190529B2 (en) Video data block conversion system
US20060291563A1 (en) Interpolation apparatus and method for motion vector compensation
JPH11243547A (en) Motion compensating coder and motion compensating coding method there
JP3201079B2 (en) Motion compensated prediction method, coding method and apparatus for interlaced video signal
KR100511810B1 (en) Image encoding and decoding method and device
JP3235453B2 (en) Image coding device
JP3681784B2 (en) Video signal encoding device
US5719629A (en) Motion picture encoding method and apparatus thereof
JP4000928B2 (en) Motion compensation device
JP2001016594A (en) Motion compensation method for moving image
KR100240620B1 (en) Method and apparatus to form symmetric search windows for bidirectional half pel motion estimation
JPH10150665A (en) Method for generating predictive image, and method and device for image encoding
JP2765528B2 (en) Half-pixel accuracy motion vector search device
JP4039221B2 (en) Image processing apparatus, encoding apparatus, decoding apparatus, and methods thereof
JP2005136941A (en) Data processing apparatus and method, and encoding apparatus
KR100296099B1 (en) Method of and apparatus for acquiring motion vectors of control points by vector quantization in control grid interpolation coder
JP2596352B2 (en) Decimal precision motion vector search device
WO2010116708A1 (en) Moving image encoding device, moving image decoding device, moving image encoding method, and moving image decoding method
JP4061505B2 (en) Image coding apparatus and method
WO2000062554A1 (en) Image processing method and image processing device
KR100657714B1 (en) Method for coding image data using of 3d scanning
JPH10257496A (en) Motion compensation prediction device for interlaced motion image
JP2008005546A (en) Method for producing predictive image, and method and device for image encoding

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees