JP2003284075A - Method and apparatus for coding moving image, and method and apparatus for decoding - Google Patents

Method and apparatus for coding moving image, and method and apparatus for decoding

Info

Publication number
JP2003284075A
JP2003284075A JP2002341238A JP2002341238A JP2003284075A JP 2003284075 A JP2003284075 A JP 2003284075A JP 2002341238 A JP2002341238 A JP 2002341238A JP 2002341238 A JP2002341238 A JP 2002341238A JP 2003284075 A JP2003284075 A JP 2003284075A
Authority
JP
Japan
Prior art keywords
prediction
frame
macroblock
frames
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002341238A
Other languages
Japanese (ja)
Inventor
Shinichiro Koto
晋一郎 古藤
Takeshi Nakajo
健 中條
Takeshi Nagai
剛 永井
Yoshihiro Kikuchi
義浩 菊池
Wataru Asano
渉 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Tokyo Shibaura Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Tokyo Shibaura Electric Co Ltd filed Critical Toshiba Corp
Priority to JP2002341238A priority Critical patent/JP2003284075A/en
Priority to CA002574127A priority patent/CA2574127A1/en
Priority to KR1020067020149A priority patent/KR100746316B1/en
Priority to CA002574126A priority patent/CA2574126A1/en
Priority to AU2003203270A priority patent/AU2003203270B2/en
Priority to CNA2006101087243A priority patent/CN1897709A/en
Priority to CNA2006101087224A priority patent/CN1897707A/en
Priority to CNA2006101087154A priority patent/CN1897701A/en
Priority to KR1020067020152A priority patent/KR20060111734A/en
Priority to KR1020067020150A priority patent/KR100746317B1/en
Priority to CA002574444A priority patent/CA2574444A1/en
Priority to CNA2006101087173A priority patent/CN1897703A/en
Priority to KR1020067020148A priority patent/KR100746315B1/en
Priority to KR1020067020154A priority patent/KR20060111735A/en
Priority to CNA2006101087169A priority patent/CN1897702A/en
Priority to CA002574047A priority patent/CA2574047C/en
Priority to CNA2006101087205A priority patent/CN1897705A/en
Priority to PCT/JP2003/000425 priority patent/WO2003063502A1/en
Priority to EP07006860A priority patent/EP1830578A1/en
Priority to KR1020067020151A priority patent/KR100746318B1/en
Priority to MXPA03007999A priority patent/MXPA03007999A/en
Priority to EP07007023A priority patent/EP1827025A1/en
Priority to KR1020067007990A priority patent/KR100746314B1/en
Priority to EP07008839A priority patent/EP1827029A1/en
Priority to CA002440380A priority patent/CA2440380C/en
Priority to SG200808505-2A priority patent/SG162623A1/en
Priority to EP07007025A priority patent/EP1827027A1/en
Priority to BR0302719-8A priority patent/BR0302719A/en
Priority to EP07006858A priority patent/EP1830576A1/en
Priority to CNB038001608A priority patent/CN1272967C/en
Priority to CNA2006101087192A priority patent/CN1897704A/en
Priority to CNA2006101087239A priority patent/CN1897708A/en
Priority to KR1020037012852A priority patent/KR100628489B1/en
Priority to EP03701799A priority patent/EP1467569A4/en
Priority to CA002574110A priority patent/CA2574110A1/en
Priority to EP07008497A priority patent/EP1830580A1/en
Priority to CNA200610108721XA priority patent/CN1897706A/en
Priority to EP07006862A priority patent/EP1830579A1/en
Priority to KR1020067020153A priority patent/KR100746319B1/en
Priority to CNA200610108714XA priority patent/CN1917641A/en
Priority to KR1020067020147A priority patent/KR20060107863A/en
Priority to KR1020067020156A priority patent/KR100746321B1/en
Priority to KR1020067020155A priority patent/KR100746320B1/en
Priority to EP07006861A priority patent/EP1833261A1/en
Priority to SG200506433-2A priority patent/SG152047A1/en
Priority to EP07007024A priority patent/EP1827026A1/en
Priority to EP07006859A priority patent/EP1830577A1/en
Priority to EP07006863A priority patent/EP1833262A1/en
Priority to EP07008667A priority patent/EP1827028A1/en
Priority to NO20034138A priority patent/NO20034138L/en
Priority to US10/665,001 priority patent/US20040057523A1/en
Publication of JP2003284075A publication Critical patent/JP2003284075A/en
Priority to AU2006202472A priority patent/AU2006202472A1/en
Priority to US11/535,906 priority patent/US20070036221A1/en
Priority to US11/535,922 priority patent/US20070030910A1/en
Priority to US11/535,796 priority patent/US20070030907A1/en
Priority to US11/527,471 priority patent/US20070019727A1/en
Priority to US11/535,856 priority patent/US20070036216A1/en
Priority to US11/527,470 priority patent/US20070019736A1/en
Priority to US11/535,894 priority patent/US20070036220A1/en
Priority to US11/535,862 priority patent/US20070030908A1/en
Priority to US11/535,821 priority patent/US20070086526A1/en
Priority to US11/527,469 priority patent/US20070019735A1/en
Priority to US11/535,908 priority patent/US20070030909A1/en
Priority to US11/527,702 priority patent/US20070014366A1/en
Priority to US11/527,557 priority patent/US20070019728A1/en
Priority to US11/527,612 priority patent/US20070019737A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image coding method which enables a small increase in the quantity of operation and in overhead of coded data, and increases an estimation efficiency, when a fading image which is hard to be dealt with by conventional moving image coding methods such as an MPEG method, etc., is coded. <P>SOLUTION: When a moving image is coded, coding is performed by performing appropriate changeover of following ways; a plurality of decoded moving image signals are used as reference frames, and an estimated macroblock image is formed from one of the reference frames for each macroblock, or reference macroblocks are cut out of the reference frames, and their average value is used as an estimated macroblock image, or reference macroblocks are cut out of the reference frames, and an estimated macroblock image is formed by linear external insertion or linear internal insertion according to the distance between a reference frame and a coding frame. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術の分野】本発明は、複数の参照フレ
ームを利用する動き補償予測フレーム間符号化方法と装
置及び動き補償予測フレーム間復号化方法と装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion compensation prediction interframe coding method and apparatus and a motion compensation prediction interframe decoding method and apparatus using a plurality of reference frames.

【0002】[0002]

【従来の技術】動画像の動き補償予測フレーム間符号化
方法として、MPEG1(ISO/IEC11172−
2)、MPEG2(ISO/IEC13818−2),
MPEG4(ISO/IEC14496−2)などが広
く実用化されている。これらの符号化方式では、フレー
ム内符号化ピクチャ(Iピクチャ)、前方予測フレーム
間符号化ピクチャ(Pピクチャ)、及び両方向予測フレ
ーム間符号化ピクチャ(Bピクチャ)の組み合わせによ
る符号化が行われる。
2. Description of the Related Art As a motion compensation predictive interframe coding method for moving images, MPEG1 (ISO / IEC11172-
2), MPEG2 (ISO / IEC13818-2),
MPEG4 (ISO / IEC14496-2) and the like have been widely put into practical use. In these coding methods, coding is performed by a combination of an intra-frame coded picture (I picture), a forward prediction inter-frame coded picture (P picture), and a bidirectionally predicted inter-frame coded picture (B picture).

【0003】Pピクチャは、直前のPまたはIピクチャ
を参照画像として符号化され、Bピクチャは直前及び直
後のPまたはIピクチャを参照画像として符号化され
る。MPEGでは、1つの映像フレーム或いは複数の映
像フレームから、マクロブロック毎に選択的に予測画像
を生成することが可能である。Pピクチャの場合、通常
は1つの参照フレームから、マクロブロック単位に予測
画像を生成し、Bピクチャの場合、前方或いは後方の参
照画像の何れか1つから予測画像を生成する場合と、前
方及び後方の参照画像からそれぞれ参照マクロブロック
を切り出し、その平均値から予測画像を生成する場合と
がある。これらの予測モードの情報は、マクロブロック
毎に符号化データに埋め込まれる。
A P picture is coded with the immediately preceding P or I picture as a reference image, and a B picture is coded with the immediately preceding and immediately following P or I pictures as a reference image. In MPEG, it is possible to selectively generate a prediction image for each macroblock from one video frame or a plurality of video frames. In the case of a P picture, a predicted image is normally generated from one reference frame in macroblock units, and in the case of a B picture, a predicted image is generated from any one of the forward and backward reference images, and In some cases, reference macroblocks are cut out from the reference images in the rear, and a predicted image is generated from the average value thereof. Information on these prediction modes is embedded in the encoded data for each macroblock.

【0004】しかし、何れの予測符号化も、マクロブロ
ックのサイズ或いはそれよりも大きな領域で、同じ映像
がフレーム間で時間的に平行移動した場合に予測が当た
るというものであり、時間的な映像の拡大縮小や回転、
或いはフェードイン・フェードアウトのような信号の振
幅の時間変動に対しては、必ずしも予測効率がよいとは
言えない。特に、固定ビットレートでの符号化では、こ
れらの予測効率の悪い映像が入力されると、大幅な画質
劣化を招くことがある。また、可変ビットレートの符号
化では、画質劣化を抑制するため、これらの予測効率の
悪い映像に対して、多くの符号量が費やされてしまい、
総符号量の増加を招いてしまう。
However, in any of the predictive coding methods, prediction is effective when the same video image is temporally translated in parallel in a macroblock size or a larger area. Scaling and rotation of
Alternatively, it cannot be said that the prediction efficiency is necessarily good with respect to the time variation of the amplitude of the signal such as fade-in / fade-out. In particular, in encoding at a fixed bit rate, if these videos with poor prediction efficiency are input, the image quality may be significantly deteriorated. In addition, variable bit rate encoding suppresses image quality deterioration, so a large amount of code is consumed for these videos with poor prediction efficiency.
This leads to an increase in the total code amount.

【0005】一方、映像の時間的な拡大・縮小や回転、
或いはフェードイン・フェードアウト等は、動画像信号
のアフィン変換で近似できるため、アフィン変換を用い
た予測を行えば、これらの映像に対する予測効率は大幅
に向上する。しかし、アフィン変換のパラメータを推定
するためには、符号化時に膨大なパラメータ推定演算が
必要となる。
On the other hand, the temporal enlargement / reduction or rotation of the image,
Alternatively, since fade-in / fade-out and the like can be approximated by affine transformation of a moving image signal, if the prediction using the affine transformation is performed, the prediction efficiency for these videos is significantly improved. However, in order to estimate the parameters of the affine transformation, a huge amount of parameter estimation calculation is required at the time of encoding.

【0006】具体的には、複数の変換パラメータで参照
画像を変換させ、予測残差が最小となるパラメータを決
定することが必要となり、変換演算の演算量が膨大にな
る。その結果、符号化の演算量あるいはハードウエア規
模等のコストが膨大になってしまう。また、残差信号だ
けでなく変換パラメータ自体を符号化する必要があり、
符号化データのオーバヘッドが膨大になる。さらに、復
号化時には、逆アフィン変換が必要となり、復号化の演
算量あるいはハードウエア規模等のコストも膨大になっ
てしまう。
Specifically, it is necessary to convert the reference image with a plurality of conversion parameters to determine the parameter that minimizes the prediction residual, which results in an enormous amount of conversion operations. As a result, the cost such as the encoding calculation amount or the hardware scale becomes enormous. Also, it is necessary to encode not only the residual signal but also the conversion parameter itself,
The overhead of encoded data becomes enormous. Further, at the time of decoding, the inverse affine transformation is required, and the cost of the decoding calculation or the hardware scale becomes enormous.

【0007】[0007]

【発明が解決しようとする課題】上述したように、従来
のMPEGなどの動画像符号化方法では、平行移動以外
の動画像の時間変化に対して、十分な予測効率が得られ
ないという問題があった。また、アフィン変換を用いた
動画像符号化及び復号化方法では、予測効率自体は改善
されるものの、符号化データのオーバヘッドの増加や、
符号化及び復号化コストの大幅な増加を招くという問題
があった。
As described above, in the conventional moving picture coding method such as MPEG, there is a problem that sufficient prediction efficiency cannot be obtained with respect to time change of moving pictures other than parallel movement. there were. Further, in the moving picture coding and decoding method using the affine transformation, although the prediction efficiency itself is improved, the overhead of coded data increases and
There is a problem in that encoding and decoding costs are significantly increased.

【0008】本発明では、特に従来のMPEGなどの動
画像符号化方法が不得意としていたフェード画像につい
て、演算量や符号化データのオーバヘッドの増加が少な
く、かつ予測効率を大幅に向上することが可能な動画像
符号化方法と装置及び復号化方法と装置を提供すること
を目的とする。
According to the present invention, particularly for a faded image, which is not good at the conventional moving image encoding method such as MPEG, the increase in the amount of calculation and the overhead of encoded data is small, and the prediction efficiency is significantly improved. It is an object of the present invention to provide a moving image coding method and device and a decoding method and device that are capable of decoding.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するた
め、本発明では、マクロブロック毎に複数の動画像フレ
ームを参照する動き補償予測フレーム間符号化におい
て、前記複数の参照フレームから、複数の参照マクロブ
ロックを生成し、前記複数の参照マクロブロックの1
つ、或いは前記複数の参照マクロブロックの平均値、或
いは前記複数の参照マクロブロックによる線形外挿予測
あるいは線形内挿予測のいずれかを予測マクロブロック
として選択し、前記選択された予測マクロブロックと符
号化マクロブロックとの予測誤差信号、予測モード情
報、及び動きベクトルを符号化することを第1の特徴と
している。
In order to solve the above-mentioned problems, according to the present invention, in motion-compensated prediction interframe coding in which a plurality of moving picture frames are referred to for each macroblock, a plurality of reference frames are extracted from the plurality of reference frames. A reference macroblock is generated and one of the plurality of reference macroblocks is generated.
Or an average value of the plurality of reference macroblocks, or either linear extrapolation prediction or linear interpolation prediction by the plurality of reference macroblocks is selected as a prediction macroblock, and the selected prediction macroblock and the code are selected. The first feature is that the prediction error signal with the encoded macroblock, the prediction mode information, and the motion vector are encoded.

【0010】また、マクロブロック毎に複数の動画像フ
レームを参照する動き補償予測フレーム間符号化データ
の復号化において、符号化された動きベクトルデータ、
予測モード情報及び予測誤差信号を受信し、前記動きベ
クトル及び前記予測モードに応じて、前記複数の参照フ
レームのうち、特定の1フレームから予測マクロブロッ
クを生成するか、或いは複数の参照フレームから複数の
参照マクロブロックを生成し、前記の複数の参照マクロ
ブロックの平均値を予測マクロブロックとして生成する
か、或いは前記複数の参照マクロブロックによる線形外
挿予測あるいは線形内挿予測のいずれかから予測マクロ
ブロックを生成するかを選択し、前記生成された予測マ
クロブロックと前記予測誤差信号を加算すること第2の
特徴としている。
In decoding motion-compensated inter-frame coded data that refers to a plurality of moving picture frames for each macroblock, coded motion vector data,
Prediction mode information and a prediction error signal are received, and a prediction macroblock is generated from a specific one frame of the plurality of reference frames according to the motion vector and the prediction mode, or a plurality of reference frames are generated. Of the plurality of reference macroblocks as a prediction macroblock, or a prediction macro from either linear extrapolation prediction or linear interpolation prediction by the plurality of reference macroblocks. The second feature is to select whether to generate a block and add the generated prediction macroblock and the prediction error signal.

【0011】従来のMPEGなどの動画像符号化方式で
は、複数の参照フレームから予測マクロブロック画像を
生成する場合、各参照フレームから参照マクロブロック
を切り出し、その信号の平均値を用いていた。従って、
フェードなどで映像信号の振幅が時間変動する場合、予
測効率が低下する場合があった。しかし、本発明の第1
あるいは第2の特徴によれば、複数のフレームからの線
形予測で外挿或いは内挿する形で予測画像を生成するこ
とにより、映像信号の振幅が単調に時間変動する場合、
予測効率を大幅に改善することが可能となり、高画質で
高能率な符号化が可能となる。
In the conventional moving picture coding system such as MPEG, when a predictive macroblock image is generated from a plurality of reference frames, the reference macroblock is cut out from each reference frame and the average value of the signal is used. Therefore,
When the amplitude of the video signal changes with time due to a fade or the like, the prediction efficiency may decrease. However, the first aspect of the present invention
Alternatively, according to the second feature, when the predicted image is generated by extrapolating or interpolating by linear prediction from a plurality of frames, and the amplitude of the video signal monotonously changes with time,
It is possible to greatly improve the prediction efficiency, and it is possible to perform high-quality coding with high image quality.

【0012】フレーム間予測符号化では、符号化側では
既に符号化された画像を復号化した画像を参照フレーム
とし、復号化側では、既に復号化された画像を参照フレ
ームとして用いられることが一般的である。したがっ
て、参照フレームにおける符号化ノイズの影響が、予測
効率を低下される一因となる。複数の参照フレームから
切り出した参照マクロブロックを平均化することは、ノ
イズ除去効果があり、符号化効率の向上に寄与すること
が知られている。これは、予測符号化におけるループフ
ィルタとして知られている技術と等価な作用である。
In the inter-frame predictive coding, it is general that the coding side uses the decoded image of the already coded image as the reference frame, and the decoding side uses the already decoded image as the reference frame. Target. Therefore, the influence of the coding noise in the reference frame contributes to the decrease in the prediction efficiency. It is known that averaging reference macroblocks cut out from a plurality of reference frames has a noise removal effect and contributes to improvement of coding efficiency. This is an operation equivalent to the technique known as a loop filter in predictive coding.

【0013】本発明の第1あるいは第2の特徴によれ
ば、ループフィルタ効果の高い複数の参照フレームから
の平均化処理、或いはフェード画像等に効果のある線形
内挿或いは線形内挿の、入力画像に応じて、最適な予測
モードを選択することが可能となり、任意の入力画像に
対して、符号化効率を向上させることが可能となる。
According to the first or second aspect of the present invention, an averaging process from a plurality of reference frames having a high loop filter effect, or an input of linear interpolation or linear interpolation effective for a fade image or the like is performed. It is possible to select the optimum prediction mode according to the image, and it is possible to improve the coding efficiency for an arbitrary input image.

【0014】本発明では、マクロブロック毎に複数の動
画像フレームを参照する動き補償予測フレーム間符号化
において、前記複数の参照フレームが、符号化対象フレ
ームの直前に符号化された2フレームであり、前記複数
の参照マクロブロックによる線形外挿予測において、直
前の参照フレームから生成した参照マクロブロック信号
の振幅を2倍にした信号から、さらにその1フレーム前
の参照フレームから生成した参照マクロブロック信号を
減じることにより、前記予測マクロブロックを生成する
ことを第3の特徴としている。
According to the present invention, in the motion compensation predictive interframe coding for referring to a plurality of moving picture frames for each macroblock, the plurality of reference frames are two frames coded immediately before the target frame to be coded. In the linear extrapolation prediction using the plurality of reference macroblocks, a reference macroblock signal generated from a reference frame that is one frame before the reference macroblock signal that is generated by doubling the amplitude of the reference macroblock signal generated from the immediately preceding reference frame. The third feature is that the prediction macroblock is generated by subtracting

【0015】また、マクロブロック毎に複数の動画像フ
レームを参照する動き補償予測フレーム間符号化データ
の復号化において、前記複数の参照フレームが、符号化
対象フレームの直前に復号化された2フレームであり、
前記複数の参照マクロブロックによる線形外挿予測にお
いて、直前の参照フレームから生成した参照マクロブロ
ック信号の振幅を2倍にした信号から、さらにその1フ
レーム前の参照フレームから生成した参照マクロブロッ
ク信号を減じることにより、前記予測マクロブロックを
生成することを第4の特徴としている。
In the decoding of the motion-compensated prediction interframe coded data that refers to a plurality of moving picture frames for each macroblock, the plurality of reference frames are two frames decoded immediately before the target frame to be coded. And
In the linear extrapolation prediction using the plurality of reference macroblocks, a reference macroblock signal generated from a reference frame one frame before is obtained from a signal obtained by doubling the amplitude of the reference macroblock signal generated from the immediately preceding reference frame. A fourth feature is that the prediction macroblock is generated by subtracting the prediction macroblock.

【0016】前述の通り、従来のMPEGなどの動画像
符号化方式では、フェードなどで映像信号の振幅が時間
変動する場合に、予測効率が悪いという問題がある。例
えば、V(t)を時刻tの映像フレームとし、V’(t)をフ
ェード処理された時刻tの映像フレームとすると、フェ
ードイン及びフェードアウトはそれぞれ、数式(1)及
び数式(2)で実現することが出来る。数式(1)で
は、(a)がフェード期間を示しており、時刻t=0か
らフィードインが開始され、時刻Tでフェードインが終
了する。また、数式(2)では、(b)がフェード期間
を示しており、時刻T0からフェードアウト処理が、開
始され時刻T0+Tでフェードアウトが終了することを
示している。
As described above, the conventional moving picture coding system such as MPEG has a problem that the prediction efficiency is poor when the amplitude of the video signal varies with time due to a fade or the like. For example, if V (t) is the video frame at time t and V '(t) is the video frame at time t after the fade processing, fade-in and fade-out are realized by equations (1) and (2), respectively. You can do it. In Expression (1), (a) indicates the fade period, the feed-in starts at time t = 0, and the fade-in ends at time T. Further, in Equation (2) shows that (b) is shows the fade period, the fade-out process from time T 0 is, fade-out initiated time T 0 + T is completed.

【0017】[0017]

【数1】 [Equation 1]

【0018】ここで、フェード処理された時刻tのフレ
ームY’(t)が符号化対象フレームであり、時刻t−1
及び時刻t−2の同フェード処理された2フレームY’
(t-1),Y’(t-2)を参照フレームと仮定する。
Here, the frame Y ′ (t) at time t, which has been subjected to the fade processing, is the frame to be coded, and is at time t−1.
And the same fade-processed two frames Y ′ at time t-2
(t-1) and Y '(t-2) are assumed to be reference frames.

【0019】まず、この2フレームの平均値から数式
(3)で示すように、予測画像P(t)を生成する場合
を考える。 P(t)={Y’(t-1)+Y’(t-2)}/2 (3) ここで、数式(1)の(a)及び数式(2)の(b)のフェー
ド期間を考えると、数式(3)の予測画像はそれぞれ、
数式(4)及び数式(5)で示される。 いま、フェード前の原信号Y(t)の時間変動が無い、す
なわちY(t)がtによらず一定だと仮定し、Y(t)=C
(一定)とすると、数式(4)及び数式(5)は、それ
ぞれ数式(6)及び数式(7)となる。 P(t)=C×(2t-3)/2T (6) P(t)=C×(2T-2t+3+2T0)/2T (7) 一方、符号化すべき信号Y’(t)は数式(8)及び数式
(9)で示される。 Y’(t)=C×t/T (8) Y’(t)=C×(T-t+T0)/T (9) 数式(8)及び数式(9)のY’(t)から、数式(6)
及び数式(7)の予測画像P(t)を減じた予測誤差信号
D(t)は、それぞれ数式(10)及び数式(11)とな
る。 D(t)=C×3/2T (10) D(t)=−C×3/2T (11) 一方、本発明の第3及び第4の特徴によると、数式(1
2)で示す予測画像P(t)が、生成される。 P(t)=2×Y’(t-1)−Y’(t-2) (12) 上記と同様にY(t)=C(一定)を仮定すると、数式
(1)のフェードイン及び数式(2)のフェードアウト
時の予測画像はそれぞれ数式(13)及び数式(14)
で示される。 P(t)=C×t/T (13) P(t)=C×(T-t+T0)/T (14) 数式(13)及び数式(14)は、数式(8)及び数式
(9)で示される符号化すべき画像と一致しており、符
号化画像から予測画像を減じた予測誤差信号D(t)は何
れの場合も0となる。上述のように、フェード画像で
は、MPEG等の従来の動き補償では残差信号が発生し
てしまうが、本発明の第3及び第4の特徴によれば、残
差信号がなくなり、予測効率が大幅に改善することが分
かる。
First, consider the case where a predicted image P (t) is generated from the average value of these two frames as shown in equation (3). P (t) = {Y '(t-1) + Y' (t-2)} / 2 (3) Here, the fade period of (a) of Formula (1) and (b) of Formula (2) is Considering that, each of the prediction images of Equation (3) is
It is shown by Formula (4) and Formula (5). Now, it is assumed that there is no time variation of the original signal Y (t) before fading, that is, Y (t) is constant regardless of t, and Y (t) = C
Assuming (constant), Equations (4) and (5) become Equations (6) and (7), respectively. P (t) = C × (2t−3) / 2T (6) P (t) = C × (2T−2t + 3 + 2T 0 ) / 2T (7) On the other hand, the signal Y ′ (t) to be encoded Is expressed by the equations (8) and (9). Y '(t) = C × t / T (8) Y' (t) = C × (T-t + T 0) / T (9) Equation (8) and Equation (9) Y '(t) From, formula (6)
And the prediction error signal D (t) obtained by subtracting the prediction image P (t) of Expression (7) are Expression (10) and Expression (11), respectively. D (t) = C × 3 / 2T (10) D (t) = − C × 3 / 2T (11) On the other hand, according to the third and fourth features of the invention,
The predicted image P (t) shown in 2) is generated. P (t) = 2 × Y ′ (t-1) −Y ′ (t-2) (12) Assuming that Y (t) = C (constant) as above, the fade-in and Predicted images at the time of fading out of Expression (2) are Expression (13) and Expression (14), respectively.
Indicated by. P (t) = C × t / T (13) P (t) = C × (T−t + T 0 ) / T (14) Formulas (13) and (14) are represented by Formula (8) and Formula (8). The prediction error signal D (t) obtained by subtracting the predicted image from the coded image matches with the image to be coded shown in (9) and is 0 in any case. As described above, in a faded image, a residual signal is generated by conventional motion compensation such as MPEG, but according to the third and fourth characteristics of the present invention, the residual signal is eliminated and the prediction efficiency is improved. It can be seen that it will be greatly improved.

【0020】数式(1)及び数式(2)の1/Tは、フ
ェードイン及びフェードアウトの時間変化の速さを示し
ており、数式(10)及び数式(11)から、従来の動
き補償では、フェードの変化速度が速いほど、予測残差
が大きくなり、符号化効率が低下することが分かる。一
方、本発明の第3及び第4の特徴によれば、フェードの
変化速度によらず、高い予測効率を得ることが可能とな
る。
1 / T in the equations (1) and (2) indicates the speed of change over time of fade-in and fade-out, and from the equations (10) and (11), in the conventional motion compensation, It can be seen that the prediction residual increases and the coding efficiency decreases as the fade changing speed increases. On the other hand, according to the third and fourth characteristics of the present invention, it is possible to obtain a high prediction efficiency regardless of the fade changing speed.

【0021】本発明では、本発明の第1及び第3の特徴
に加えて、前記符号化される動きベクトルが、前記複数
の参照フレームのうち、特定の1つの参照フレームに関
する動きベクトルであることを第5の特徴としている。
In the present invention, in addition to the first and third features of the present invention, the encoded motion vector is a motion vector relating to a specific one reference frame among the plurality of reference frames. Is the fifth feature.

【0022】また、本発明の第2及び第4の特徴に加え
て、前記受信した動きベクトルデータが、前記複数の参
照フレームのうち、特定の1つの参照フレームに関する
動きベクトルであり、前記動きベクトルデータを、復号
化対象フレームと参照フレームとのフレーム間距離に応
じてスケール変換して、他の参照フレームに対する動き
ベクトルを生成することを第6の特徴としている。
In addition to the second and fourth characteristics of the present invention, the received motion vector data is a motion vector relating to a specific one reference frame among the plurality of reference frames, and the motion vector A sixth feature is that the data is scale-converted according to the inter-frame distance between the decoding target frame and the reference frame to generate a motion vector for another reference frame.

【0023】本発明の第1から第4の発明により、複数
の参照画像を用いて、フェード画像等に対して、従来の
より高い予測効率を得ることが可能となる。しかし、各
符号化マクロブロックに対して、複数の参照画像に対す
る動きベクトルを個別に符号化データに多重化すると、
符号化オーバーヘッドが大きくなる。ITU−T H.
263などの符号化方式では、Bピクチャに対する動き
ベクトルを送らず、Bピクチャを跨ぐPピクチャの動き
ベクトルを、参照画像と符号化対象画像とのフレーム間
距離に応じてスケーリングして、Bピクチャの動きベク
トルとするダイレクトモードと呼ばれる符号化方法があ
る。これは、符号化対象の動画像が、数フレームの短時
間で見て、動きの速度がほぼ一定または静止していると
近似したモデルであり、多く場合、動きベクトル符号量
削減の効果的がある。
According to the first to fourth inventions of the present invention, it is possible to obtain a higher prediction efficiency for a faded image or the like by using a plurality of reference images. However, for each encoded macroblock, if the motion vectors for a plurality of reference images are individually multiplexed into the encoded data,
Coding overhead becomes large. ITU-TH.
In an encoding method such as H.263, the motion vector of the B picture is not sent, and the motion vector of the P picture straddling the B picture is scaled according to the inter-frame distance between the reference image and the image to be coded to obtain the B picture of the B picture. There is an encoding method called a direct mode that uses a motion vector. This is a model that approximates that the moving image to be encoded has a substantially constant or stationary motion speed when viewed in a short time of several frames. In many cases, it is effective to reduce the motion vector code amount. is there.

【0024】本発明の第5及び第6の特徴によれば、B
ピクチャのダイレクトモードと同じく、Pピクチャにお
いても、複数の参照フレームに対する動きベクトルのう
ち、1つの動きベクトルのみを符号化し、復号化側で
は、参照画像とのフレーム間距離に応じて、受信した動
きベクトルをスケーリングして用いることが可能とな
り、本発明の第1から第4の発明による符号化効率の向
上を、符号化オーバヘッドの増加なしに実現することが
可能となる。
According to the fifth and sixth characteristics of the present invention, B
Similar to the picture direct mode, in the P picture, only one motion vector among the motion vectors for a plurality of reference frames is coded, and the decoding side receives the received motion according to the inter-frame distance from the reference image. The vector can be scaled and used, and the improvement of the coding efficiency according to the first to fourth aspects of the present invention can be realized without increasing the coding overhead.

【0025】本発明では、本発明の第5の特徴に加え
て、前記特定の1つの参照フレームに関する動きベクト
ルが、前記参照フレームと符号化されるフレームとのフ
レーム間距離に応じて正規化された動きベクトルである
ことを第7の特徴としている。
In the present invention, in addition to the fifth feature of the present invention, the motion vector relating to the specific one reference frame is normalized according to the inter-frame distance between the reference frame and the frame to be encoded. The seventh feature is that these are motion vectors.

【0026】また、本発明の第6の特徴に加えて、前記
受信した特定の1つの参照フレームに関する動きベクト
ルが、前記参照フレームと符号化されるフレームとのフ
レーム間距離に応じて正規化された動きベクトルである
ことを第8の特徴としている。
In addition to the sixth feature of the present invention, the motion vector relating to the one specific received reference frame is normalized according to the inter-frame distance between the reference frame and the frame to be encoded. The eighth feature is that it is a motion vector.

【0027】本発明の第7及び第8の特徴により、フレ
ーム間距離が変わっても符号化される動きベクトルの基
準スケールが一定となり、複数の参照フレームそれぞれ
に対する動きベクトルのスケーリング処理が、参照フレ
ームと符号化されるフレームとのフレーム間距離の情報
だけで演算することが可能となる。また、任意のスケー
リングを行うためには除算が必要となるが、符号化され
る動きベクトルがフレーム間距離で正規化されているこ
とにより、スケーリング処理を乗算だけで実現すること
が可能となり、符号化及び符号化のコストを軽減するこ
とが可能となる。
According to the seventh and eighth characteristics of the present invention, the reference scale of the motion vector to be coded becomes constant even if the inter-frame distance changes, and the motion vector scaling processing for each of the plurality of reference frames is performed by the reference frame. It is possible to perform the calculation only with the information on the inter-frame distance between the frame and the frame to be encoded. Also, division is required to perform arbitrary scaling, but since the motion vector to be encoded is normalized by the inter-frame distance, scaling processing can be realized only by multiplication. It is possible to reduce the cost of encoding and encoding.

【0028】本発明では、本発明の第1及び第3の特徴
に加えて、前記符号化される動きベクトルが、前記複数
の参照フレームのうち、特定の1つの参照フレームに関
する第1の動きベクトルと、他の複数の参照フレームに
対する複数の動きベクトルであり、前記複数の動きベク
トルが、前記第1の動きベクトルを、符号化対象フレー
ムと前記複数の参照フレームとのフレーム間距離に応じ
て、スケーリングした動きベクトルと、前記複数の動き
ベクトルとの差分ベクトルとして符号化されることを第
9の特徴としている。
In the present invention, in addition to the first and third features of the present invention, the encoded motion vector is a first motion vector related to a specific one reference frame among the plurality of reference frames. And a plurality of motion vectors for other plurality of reference frames, wherein the plurality of motion vectors represent the first motion vector according to the inter-frame distance between the encoding target frame and the plurality of reference frames, The ninth feature is that the encoded motion vector is encoded as a difference vector between the motion vector and the plurality of motion vectors.

【0029】また、本発明の第2及び第4の特徴に加え
て、前記受信した動きベクトルデータが、前記複数の参
照フレームのうち、特定の1つの参照フレームに関する
動きベクトルと、他の参照フレームに関する差分ベクト
ルであり、前記動きベクトルデータを、復号化対象フレ
ームと参照フレームとのフレーム間距離に応じてスケー
ル変換し、前記差分ベクトルと加算することで、前記複
数の参照フレームのうち、前記特定の1フレーム以外の
参照フレームに関する動きベクトルを生成することを第
10の特徴としている。
Further, in addition to the second and fourth characteristics of the present invention, the received motion vector data includes a motion vector related to a specific one reference frame among the plurality of reference frames and another reference frame. Of the plurality of reference frames by performing scale conversion of the motion vector data according to the inter-frame distance between the decoding target frame and the reference frame and adding the difference vector. The tenth feature is that a motion vector related to a reference frame other than one frame is generated.

【0030】本発明の第5及び第6の特徴によれば、静
止画像あるいは動きの速度が一定の映像の場合に対し
て、動きベクトル情報の符号化オーバヘッドの増加なし
に、複数の参照フレームを用いて予測効率を向上させる
ことが可能となる。しかし、動きの速度が一定ではない
場合には、動きベクトルの単純なスケーリングだけで
は、充分な予測効率が得られない場合がある。
According to the fifth and sixth features of the present invention, a plurality of reference frames can be displayed without increasing the coding overhead of the motion vector information in the case of a still image or a video having a constant motion speed. It is possible to improve the prediction efficiency by using this. However, if the speed of motion is not constant, simple prediction of the motion vector may not provide sufficient prediction efficiency.

【0031】一方、MPEG2動画像符号化の1つの予
測モードである、dual-prime(デュアルプライム)予測
では、2つの連続するフィールドを用いた動き予測で、
一方のフィールドに対する動きベクトルと、前記動きベ
クトルをフィールド間距離に応じてスケーリングした動
きベクトルと、他方のフィールドに対する動きベクトル
との差分ベクトルを符号化する構成となっている。動き
ベクトルは、1/2画素精度で表現され、これにより、2
フィールドの参照マクロブロックの平均化により、適応
的な時空間フィルタによるループフィルタ効果がもたら
され、且つ符号化オーバヘッドの増加を抑えることが可
能となり、符号化効率の向上に大きく寄与している。
On the other hand, in the dual-prime prediction, which is one prediction mode of the MPEG2 moving picture coding, the motion prediction using two consecutive fields
The configuration is such that a difference vector between a motion vector for one field, a motion vector obtained by scaling the motion vector according to an inter-field distance, and a motion vector for the other field is encoded. The motion vector is represented with 1/2 pixel precision, which gives 2
The averaging of the reference macroblocks in the field brings about a loop filter effect by an adaptive spatiotemporal filter and makes it possible to suppress an increase in coding overhead, which greatly contributes to improvement in coding efficiency.

【0032】本発明の第9及び第10の特徴によれば、
dual-prime予測と同様の、符号化オーバヘッドの増加を
抑えた、適応的な時空間フィルタによるループフィルタ
効果に加えて、さらにフェード画像等に対する予測効率
の改善を図ることが可能となり、従来よりも高い符号化
効率を得ることが可能なる。
According to the ninth and tenth features of the present invention,
In addition to the loop filter effect by the adaptive spatiotemporal filter that suppresses the increase in coding overhead similar to dual-prime prediction, it is possible to further improve the prediction efficiency for faded images, etc. It is possible to obtain high coding efficiency.

【0033】本発明では,本発明の第1、第3、第5、
第7及び第9の特徴に加えて、前記予測モードが,特定
の1つの参照フレームを利用した予測か,或いは複数の
参照フレームを利用した予測のいずれかを示す第1のフ
ラグと、前記複数の参照フレームを利用した予測が、複
数の参照マクロブロックの平均値による予測か、或いは
複数の参照マクロブロックの線形外挿或いは線形内挿に
よる予測かを示す第2フラグから構成され、前記第2の
フラグが符号化フレームのヘッダデータ、または複数の
符号化フレーム群に対するヘッダデータに含まれること
を第11の特徴としている。
In the present invention, the first, the third, the fifth, the
In addition to the seventh and ninth characteristics, the prediction mode includes a first flag indicating whether the prediction uses one specific reference frame or a plurality of reference frames, and the plurality of prediction modes. Of the reference frame is composed of a second flag indicating whether the prediction is based on the average value of the plurality of reference macroblocks or the linear extrapolation or linear interpolation of the plurality of reference macroblocks. The eleventh feature is that the flag is included in the header data of the encoded frame or the header data for a plurality of encoded frames.

【0034】また、本発明の第2、第4、第6、第8及
び第10の特徴に加えて、前記受信した予測モードが、
特定の1つの参照フレームを利用した予測か、或いは複
数の参照フレームを利用した予測のいずれかを示す第1
のフラグと、前記複数の参照フレームを利用した予測
が、複数の参照マクロブロックの平均値による予測か、
或いは複数の参照マクロブロックの線形外挿或いは線形
内挿による予測かを示す第2フラグから構成され、前記
第2フラグが符号化フレームのヘッダデータまたは複数
の符号化フレーム群に対するヘッダデータの一部として
受信されることを第12の特徴としている。
In addition to the second, fourth, sixth, eighth and tenth characteristics of the present invention, the received prediction mode is
A first indicating either prediction using one specific reference frame or prediction using a plurality of reference frames
Flag and the prediction using the plurality of reference frames is a prediction based on an average value of a plurality of reference macroblocks,
Alternatively, it is composed of a second flag indicating whether the prediction is performed by linear extrapolation or linear interpolation of a plurality of reference macroblocks, and the second flag is a part of header data of a coded frame or header data for a plurality of coded frame groups. The twelfth feature is that it is received as.

【0035】上記説明した通り、本発明によれば、複数
の参照フレームの中から、符号化フレームのマクロブロ
ック毎に、特定の参照フレームだけから予測マクロブロ
ック信号を生成すか、複数の参照画像の平均値から予測
マクロブロック信号を生成するか、あるいは複数の参照
画像の線形外挿あるいは線形内挿により予測マクロブロ
ック信号を生成するかを適応的に切り替えることで、予
測効率を向上させ高能率で高画質の符号化が可能とな
る。
As described above, according to the present invention, a predicted macroblock signal is generated from only a specific reference frame for each macroblock of a coded frame among a plurality of reference frames, or a plurality of reference images are generated. By adaptively switching between generating the prediction macroblock signal from the average value or generating the prediction macroblock signal by linear extrapolation or linear interpolation of multiple reference images, the prediction efficiency is improved and high efficiency is achieved. High quality encoding is possible.

【0036】例えば、同一フレーム内で時間的に背景が
見え隠れするような映像部分では、複数の参照フレーム
の内、特定の参照フレームだけから予測すること(ここ
では、予測モード1とする)が効果的であり、時間変動
が少ない部分は、複数の参照画像の平均値から予測する
こと(ここでは、予測モード2とする)で、参照画像に
おける符号化歪を除去するループフィルタ効果が得ら
れ、また、フェード画像などの映像信号の振幅が時間変
動する場合には、複数の参照画像の線形外挿あるいは線
形内挿(ここでは、予測モード3とする)により、予測
効率を向上させることが可能となる。
For example, in a video portion in which the background appears and disappears in time in the same frame, it is effective to predict only a specific reference frame among a plurality of reference frames (here, the prediction mode 1). The portion that has little temporal variation is predicted from the average value of a plurality of reference images (here, the prediction mode 2) to obtain a loop filter effect of removing coding distortion in the reference image. When the amplitude of a video signal such as a fade image changes with time, the prediction efficiency can be improved by linear extrapolation or linear interpolation of a plurality of reference images (here, the prediction mode 3). Becomes

【0037】通常、従来の符号化方式では、このように
マクロブロック毎に最適な予測モードを選択的に切り替
える場合は、各マクロブロック毎に予測モードを示すフ
ラグを、各マクロブロック毎のヘッダデータに含めて符
号化される。しかし、多くの予測モードを切り替えて使
用すると、予測モードを示すフラグの符号化オーバヘッ
ドが増加するという問題がある。
Generally, in the conventional coding method, when the optimum prediction mode is selectively switched for each macroblock in this way, a flag indicating the prediction mode is set for each macroblock and header data for each macroblock is set. Are encoded by including. However, when many prediction modes are switched and used, there is a problem that the coding overhead of the flag indicating the prediction mode increases.

【0038】本発明の第11及び第12の特徴によれ
ば、符号化フレーム毎に、上記予測モード1と予測モー
ド2の組み合わせか、あるいは予測モード1と予測モー
ド3の組み合わせかに制限する。上記組み合わせのどち
らであるかを示す第2フラグと、予測モード1か、ある
いは予測モード2または予測モード3であることを示す
第1フラグを用意し、予測モードの組み合わせを示す第
2フラグは、符号化フレームのヘッダデータに含め、予
測モードを示す第1フラグは、マクロブロック毎に変更
可能とし、マクロブロックのヘッダデータに含めること
で、符号化データにおける予測モードに関するオーバヘ
ッドを低減することが可能となる。
According to the eleventh and twelfth features of the present invention, each coded frame is limited to the combination of the prediction mode 1 and the prediction mode 2 or the combination of the prediction mode 1 and the prediction mode 3. A second flag indicating which of the above combinations and a first flag indicating the prediction mode 1 or the prediction mode 2 or the prediction mode 3 are prepared, and the second flag indicating the combination of the prediction modes is The first flag, which is included in the header data of the encoded frame and indicates the prediction mode, can be changed for each macroblock. By including the first flag in the header data of the macroblock, it is possible to reduce the overhead related to the prediction mode in the encoded data. Becomes

【0039】フェード画像のように映像信号の振幅が時
間変化する場合は、フレーム内で一様に振幅が時間変化
するため、マクロブロック毎に予測モード2と予測モー
ド3を切り替える必要がなく、フレーム毎に固定で何ら
予測効率の低下は招かない。
When the amplitude of the video signal changes with time as in a faded image, since the amplitude changes uniformly within the frame, it is not necessary to switch between prediction mode 2 and prediction mode 3 for each macroblock, It is fixed for each time and does not cause any decrease in prediction efficiency.

【0040】一方、背景の時間的な見え隠れ等は、映像
信号の振幅の時間変化に無関係に、フレーム内に発生す
るため、フレーム毎に固定とすると、予測効率の低下を
もたらす。よって、第1フラグにより、最適な予測モー
ドをマクロブロック毎に切り替えることが必要となる。
よって、上記のように、予測モードを示すフラグを、フ
レームのヘッダとマクロブロックのヘッダとに分離する
ことで、予測効率を低下させずに、符号化オーバヘッド
を低減させることが可能となる。
On the other hand, the temporal appearance and obscuration of the background occurs within a frame regardless of the temporal change of the amplitude of the video signal, and if fixed for each frame, the prediction efficiency is lowered. Therefore, it is necessary to switch the optimum prediction mode for each macroblock by the first flag.
Therefore, by separating the flag indicating the prediction mode into the frame header and the macroblock header as described above, it is possible to reduce the coding overhead without lowering the prediction efficiency.

【0041】また、本発明では、マクロブロック毎に複
数の動画像フレームを参照する動き補償予測フレーム間
符号化において、前記複数の参照フレームからの線形予
測により予測マクロブロックを生成し、前記予測マクロ
ブロックと符号化マクロブロックとの予測誤差信号及び
動きベクトルをマクロブロック毎に符号化し、前記線形
予測の予測係数の組をフレーム毎に符号化することを第
13の特徴としている。
Further, according to the present invention, in motion-compensated prediction interframe coding in which a plurality of moving picture frames are referred to for each macroblock, a prediction macroblock is generated by linear prediction from the plurality of reference frames, and the prediction macroblock is generated. A thirteenth feature is that a prediction error signal and a motion vector of a block and a coding macroblock are coded for each macroblock, and a set of prediction coefficients for the linear prediction is coded for each frame.

【0042】また、本発明の第13の特徴に加えて、前
記複数の参照フレームが、符号化対象フレームより時間
的に過去のフレームであることを、本発明の第14の特
徴としている。
In addition to the thirteenth feature of the present invention, the fourteenth feature of the present invention is that the plurality of reference frames are frames temporally past the frame to be coded.

【0043】また、マクロブロック毎に複数の動画像フ
レームを参照する動き補償予測フレーム間符号化データ
の復号化において、マクロブロック毎に符号化された動
きベクトルデータ及び予測誤差信号と、フレーム毎に符
号化された予測係数の組を受信し、前記動きベクトル及
び予測係数に応じて、前記複数の参照フレームから予測
マクロブロックを生成し、前記生成された予測マクロブ
ロックと前記予測誤差信号を加算することを、本発明の
第15の特徴としている。
Further, in decoding motion-compensated prediction interframe coded data that refers to a plurality of moving picture frames for each macroblock, the motion vector data and prediction error signal coded for each macroblock, and for each frame. Receives a set of encoded prediction coefficients, generates a prediction macroblock from the plurality of reference frames according to the motion vector and the prediction coefficient, and adds the generated prediction macroblock and the prediction error signal. This is the fifteenth feature of the present invention.

【0044】また、本発明の第15の特徴に加えて、前
記複数の参照フレームが、符号化対象フレームより時間
的に過去のフレームであることを、本発明の第16の特
徴としている。
In addition to the 15th feature of the present invention, the 16th feature of the present invention is that the plurality of reference frames are frames temporally past the frame to be coded.

【0045】本発明の第13から第16の特徴によれ
ば、任意の時間方向の予測係数を設定できるため、フェ
ード画像などで映像信号振幅の時間変化が一定の場合の
みならず、映像信号振幅の任意の時間変動に対して、最
適な予測係数の組を符号化側で用いることで、予測効率
の向上が図れ、また、前記の予測係数を符号化データに
多重化して伝送することで、復号化時にも符号化時と同
一の線形予測が可能となり、高能率な予測符号化を行う
ことが可能となる。
According to the thirteenth to sixteenth features of the present invention, the prediction coefficient in the arbitrary time direction can be set, so that not only when the temporal change of the video signal amplitude in a faded image is constant, but also in the video signal amplitude. For any time fluctuation of, by using an optimal prediction coefficient set on the encoding side, it is possible to improve the prediction efficiency, and by multiplexing and transmitting the prediction coefficient to encoded data, The same linear prediction as that at the time of encoding can be performed at the time of decoding, and highly efficient predictive encoding can be performed.

【0046】本発明では、複数の参照フレームからの予
測により、符号化効率の向上を得ることが可能である
が、参照フレームは、MPEGにおけるBピクチャのよ
うに、時間的に前後のフレームからの予測において、時
間的に過去及び未来の複数のフレームを参照する構成と
してもよい。また、MPEGのIピクチャ及びPピクチ
ャだけの場合と同様に、時間的に過去のフレームのみを
参照する構成として、過去の複数のPピクチャ及びIピ
クチャを参照画像とする構成としてもよい。
According to the present invention, it is possible to improve the coding efficiency by predicting from a plurality of reference frames, but the reference frame is derived from a frame preceding and succeeding in time like a B picture in MPEG. The prediction may be configured to refer to a plurality of past and future frames temporally. Further, as in the case of only the I picture and P picture of MPEG, a configuration in which only a temporally past frame is referred to may be a configuration in which a plurality of past P pictures and I pictures are used as reference images.

【0047】このような構成とすることで、従来のMP
EG符号化よりも、さらに高画質な符号化が実現可能と
なる。特に、過去の画像のみを使うPピクチャの符号化
においても、従来とは異なり過去の複数の参照フレーム
を用いることで、従来よりも大幅に符号化効率を改善さ
せることが可能となる。Bピクチャを用いない符号化で
は、符号化フレーム並べ替えのための遅延が不要とな
り、低遅延の符号化が可能であるため、本発明によれ
ば、低遅延の符号化においても、従来よりも大きな符号
化効率の改善得られるものとなる。
With such a structure, the conventional MP
It is possible to realize higher quality encoding than the EG encoding. In particular, also in the coding of P pictures using only past images, it is possible to significantly improve the coding efficiency as compared to the conventional case by using a plurality of past reference frames unlike the conventional case. In the coding that does not use the B picture, the delay for rearranging the coded frames is not necessary, and the coding with low delay is possible. Therefore, according to the present invention, even in the coding with low delay, it is better than the conventional one. A large improvement in coding efficiency can be obtained.

【0048】さらに、本発明は入力動画像の符号化対象
フレームに含まれる符号化対象ブロック毎に、少なくと
も一つの参照フレームを用いて動き補償予測フレーム間
符号化を行う動画像符号化方法において、単一の参照フ
レームから予測ブロック信号を生成する第1の予測ブロ
ック生成モード、及び複数の参照フレームから切り出し
た複数の参照ブロックの線形和予測により予測ブロック
信号を生成する第2の予測ブロック生成モードのいずれ
かを符号化ブロック毎に選択するステップと、選択され
た予測ブロック信号と符号化対象ブロックの信号との差
分信号を符号化するステップと、線形和予測を複数の参
照ブロックの平均値予測とするか、あるいは複数の参照
フレーム及び符号化対象フレームの表示時刻に基づく線
形補間予測とするかを符号化対象フレーム内の複数の画
素ブロック毎または符号化対象フレーム毎に選択するス
テップと、予測ブロック信号の生成時に第1及び第2の
予測ブロック生成モードのいずれが選択されたかを示す
第1の符号化モード情報を符号化対象ブロック毎または
複数の符号化対象ブロック毎に符号化するステップと、
線形和予測に平均値予測及び線形補間予測のいずれが選
択されたかを示す第2の符号化モード情報を符号化対象
フレームの複数の画素ブロック毎あるいは符号化対象フ
レーム毎に符号化するステップとを具備することを特徴
とする。
Furthermore, the present invention provides a moving picture coding method for performing motion compensation predictive interframe coding using at least one reference frame for each coding target block included in a coding target frame of an input moving picture, A first prediction block generation mode for generating a prediction block signal from a single reference frame, and a second prediction block generation mode for generating a prediction block signal by linear sum prediction of a plurality of reference blocks cut out from a plurality of reference frames For each of the coding blocks, a step of coding the difference signal between the selected prediction block signal and the signal of the block to be coded, linear sum prediction the average value prediction of a plurality of reference blocks Or linear interpolation prediction based on the display times of a plurality of reference frames and encoding target frames For each of a plurality of pixel blocks in the encoding target frame or for each encoding target frame, and a first indicating whether the first or second prediction block generation mode is selected when generating the prediction block signal. Encoding the encoding mode information for each encoding target block or for each of a plurality of encoding target blocks,
Encoding the second encoding mode information indicating which of the mean value prediction and the linear interpolation prediction is selected for the linear sum prediction for each of a plurality of pixel blocks of the encoding target frame or for each encoding target frame. It is characterized by having.

【0049】一方、動画像の復号化対象フレームに含ま
れる復号化対象ブロック毎に、少なくとも一つの参照フ
レームを用いて動き補償予測フレーム間復号化を行う動
画像復号化方法において、予測ブロック信号に対する復
号化対象ブロックの信号の予測誤差信号を復号化するス
テップと、符号化側における予測ブロック信号の生成時
に、単一の参照フレームから予測ブロック信号を生成す
る第1の予測ブロック生成モード、及び複数の参照フレ
ームから切り出した複数の参照ブロックの線形和予測に
より予測ブロック信号を生成する第2の予測ブロック生
成モードのいずれが選択されたかを示す第1の符号化モ
ード情報を復号化対象ブロック毎または複数の復号化対
象ブロック毎に受信して復号化するステップと、線形和
予測に複数の参照ブロックの平均値予測、あるいは複数
の参照フレーム及び符号化対象フレームの表示時刻に基
づく線形補間予測のいずれが選択されたかを示す第2の
符号化モード情報を復号化対象フレームの複数の画素ブ
ロック毎あるいは復号化対象フレーム毎に受信して復号
化するステップと、復号化された第1の符号化モード情
報及び第2の符号化モード情報に従って予測ブロック信
号を生成するステップと、生成された予測ブロック信号
及び復号された予測誤差信号を用いて再生動画像信号を
生成するステップとを具備することを特徴とする。
On the other hand, in the moving picture decoding method for performing motion compensation inter prediction frame decoding using at least one reference frame for each decoding target block included in the decoding target frame of the moving picture, the prediction block signal A step of decoding a prediction error signal of a signal of a block to be decoded, a first prediction block generation mode for generating a prediction block signal from a single reference frame when generating a prediction block signal on the encoding side, and a plurality of The first coding mode information indicating which of the second prediction block generation modes for generating a prediction block signal by linear sum prediction of a plurality of reference blocks cut out from the reference frame Multiple steps for receiving and decoding for each of multiple blocks to be decoded, and multiple references for linear sum prediction The second coding mode information indicating which of the lock average value prediction or the linear interpolation prediction based on the display times of the plurality of reference frames and the coding target frame is selected is set for each of the plurality of pixel blocks of the decoding target frame. Alternatively, the step of receiving and decoding for each frame to be decoded, the step of generating a prediction block signal according to the decoded first coding mode information and the second coding mode information, and the generated prediction block Generating a reproduced video signal using the signal and the decoded prediction error signal.

【0050】[0050]

【発明の実施の形態】図1は、本発明の実施形態に係る
動画像符号化方法のブロック図である。入力動画像信号
100に対して、第1の参照フレームメモリ117に保
存されたフレームと、第2の参照フレームメモリ118
に保存されたフレームとから、予測マクロブロック生成
手段119により、予測画像を生成し、予測マクロブロ
ック選択手段120で最適な予測マクロブロックを選択
し、入力信号と予測信号との予測誤差信号101に対し
て、DCT変換(離散コサイン変換)112、量子化1
13、及び可変長符号化114を行い、符号化データ1
02を出力する。出力される符号化データ102には、
後述する動きベクトル情報は予測モードの情報も合わせ
て符号化されて出力される。量子化手段113で量子化
された信号は、逆量子化手段115により逆量子化さ
れ、予測信号106と加算して、ローカルデコード画像
103を生成し、参照フレームメモリ117へ書き込ま
れる。
1 is a block diagram of a moving picture coding method according to an embodiment of the present invention. For the input moving image signal 100, the frame stored in the first reference frame memory 117 and the second reference frame memory 118
The predicted macroblock generation means 119 generates a predicted image from the frame stored in the prediction macroblock selection means 119, and the prediction macroblock selection means 120 selects the optimum prediction macroblock to obtain the prediction error signal 101 between the input signal and the prediction signal. On the other hand, DCT transform (discrete cosine transform) 112, quantization 1
13 and variable length coding 114 are performed, and coded data 1
02 is output. The encoded data 102 to be output includes
The motion vector information, which will be described later, is also encoded and output together with the prediction mode information. The signal quantized by the quantizing means 113 is inversely quantized by the inverse quantizing means 115, added with the prediction signal 106 to generate the local decoded image 103, and written into the reference frame memory 117.

【0051】本実施例では、予測誤差信号101は、D
CT変換、量子化、可変長符号化により符号化される
が、例えばDCT変換をウエーブレット変換に置き換え
た構成としたり、あるいは可変長符号化を算術符号化に
置き換えた構成としてもよい。
In this embodiment, the prediction error signal 101 is D
Although it is encoded by CT transform, quantization, and variable length coding, for example, the DCT transform may be replaced by a wavelet transform, or the variable length coding may be replaced by an arithmetic coding.

【0052】本実施形態では、第1の参照フレームメモ
リ117には、直前に符号化されたフレームのローカル
デコード画像が保存され、第2の参照フレームメモリ1
18には、さらにその前に符号化されたフレームのロー
カルデコード画像が保存される構成である。予測マクロ
ブロック生成手段119では、第1の参照フレームメモ
リ117の画像だけから生成される予測マクロブロック
信号130と、第2の参照フレームメモリ118の画像
だけから生成される予測マクロブロック信号131と、
第1及び第2の参照フレームメモリから切り出した参照
マクロブロック信号を平均化した予測マクロブロック信
号132と、第1の参照フレームメモリ117から切り
出した参照マクロブロック信号の振幅を2倍にした信号
から、第2の参照フレームメモリ118から切り出した
参照マクロブロック信号を減じた予測マクロブロック信
号133を生成する。これらの予測マクロブロック信号
は、それぞれフレーム内の複数の位置から切り出して、
複数の予測マクロブロック信号を生成する。
In this embodiment, the first reference frame memory 117 stores the locally decoded image of the frame encoded immediately before, and the second reference frame memory 1 is stored.
In 18, the locally decoded image of the previously encoded frame is stored. In the prediction macroblock generation means 119, a prediction macroblock signal 130 generated only from the image of the first reference frame memory 117, and a prediction macroblock signal 131 generated only from the image of the second reference frame memory 118,
From the predicted macroblock signal 132 obtained by averaging the reference macroblock signals cut out from the first and second reference frame memories, and the signal obtained by doubling the amplitude of the reference macroblock signals cut out from the first reference frame memory 117. , A prediction macroblock signal 133 is generated by subtracting the reference macroblock signal cut out from the second reference frame memory 118. These predicted macroblock signals are cut out from multiple positions in the frame,
Generate a plurality of predicted macroblock signals.

【0053】予測マクロブロック選択手段120では、
予測マクロブロック生成手段119で生成された複数の
予測マクロブロック信号に対し、入力動画像信号100
から切り出した符号化対象マクロブロック信号との差分
を計算し、誤差が最小となる予測マクロブロックを、符
号化マクロブロック毎に選択する。選択された予測マク
ロブロックの、符号化対象マクロブロックから見た相対
的な位置を、動きベクトルとして、また、選択された予
測マクロブロックの生成方法(図1では、130から1
33のいずれか)を、予測モードとして、それぞれマク
ロブロック毎に符号化する。
In the predictive macroblock selecting means 120,
For the plurality of prediction macroblock signals generated by the prediction macroblock generation means 119, the input moving image signal 100 is input.
The difference from the encoding target macroblock signal cut out from is calculated, and the prediction macroblock having the minimum error is selected for each encoding macroblock. The relative position of the selected prediction macroblock viewed from the encoding target macroblock is used as a motion vector, and the selected prediction macroblock generation method (from 130 to 1 in FIG. 1).
Any one of 33) is coded for each macroblock as a prediction mode.

【0054】ここで、動画像信号が輝度及び色差信号で
構成される場合、各マクロブロックのそれぞれの信号成
分に対して、同一の動きベクトル及び予測モードを適用
して、予測誤差信号の生成を行う。
Here, when the moving image signal is composed of luminance and color difference signals, the same motion vector and prediction mode are applied to the respective signal components of each macroblock to generate a prediction error signal. To do.

【0055】図2は、本発明の実施形態に係る動画像復
号化方法のブロック図である。図2の動画像復号化方法
は、図1で示した本発明の実施形態に係る動画像符号化
方法で符号化された符号化データを入力し、復号化する
ものである。
FIG. 2 is a block diagram of a moving picture decoding method according to the embodiment of the present invention. The moving picture decoding method of FIG. 2 is a method of inputting and decoding the coded data coded by the moving picture coding method according to the embodiment of the present invention shown in FIG.

【0056】入力された符号化データ200は、可変長
符号復号化手段214で可変長符号が復号化され、予測
誤差信号201、動きベクトル情報及び予測モード情報
202が抽出される。予測誤差信号201は、逆量子化
215、逆DCT216が施され、予測信号206と加
算して復号化画像203が生成される。
The variable length code of the input coded data 200 is decoded by the variable length code decoding means 214, and the prediction error signal 201, motion vector information and prediction mode information 202 are extracted. The prediction error signal 201 is subjected to inverse quantization 215 and inverse DCT 216 and added with the prediction signal 206 to generate a decoded image 203.

【0057】復号化画像203は第1の参照フレームメ
モリ217に書き込まれる。予測信号206は、第1の
参照フレームメモリ217に記録された直前に復号化さ
れた画像信号と、さらにそれよりも前に復号化された動
画像信号が記録された第2の参照フレームメモリ218
の画像信号から、符号化データ200から抽出した動き
ベクトル及び予測モードに応じて、予測マクロブロック
生成手段219及び予測マクロブロック選択手段220
により、符号化時に使用された予測マクロブロック信号
と同じ予測信号が生成される。
The decoded image 203 is written in the first reference frame memory 217. The prediction signal 206 is the second reference frame memory 218 in which the immediately preceding decoded image signal recorded in the first reference frame memory 217 and the moving image signal decoded earlier than that are recorded.
Prediction macroblock generation means 219 and prediction macroblock selection means 220 according to the motion vector extracted from the encoded data 200 and the prediction mode
By this, the same prediction signal as the prediction macroblock signal used at the time of encoding is generated.

【0058】図3は、本発明の実施形態に係るフレーム
間予測の関係を模式的に示した例である。図中302が
符号化対象フレームであり、301はその直前のフレー
ム、300はさらにその前のフレームを示している。フ
レーム302を符号化、あるいは復号化しているとき、
図1の117あるいは図2の217の第1の参照フレー
ムメモリには、フレーム301の復号化画像が保存され
ており、また図1の118あるいは図2の218の第2
の参照フレームメモリには、フレーム300が保存され
ている。
FIG. 3 is an example schematically showing the relationship of inter-frame prediction according to the embodiment of the present invention. In the figure, 302 is a frame to be encoded, 301 is the frame immediately before that, and 300 is the frame before that. When encoding or decoding frame 302,
The decoded image of the frame 301 is stored in the first reference frame memory 117 of FIG. 1 or 217 of FIG. 2 and the second reference frame memory of 118 of FIG. 1 or 218 of FIG.
The frame 300 is stored in the reference frame memory of.

【0059】図3の305が符号化対象マクロブロック
示しており、参照フレーム300の参照マクロブロック
303及び参照フレーム301の参照マクロブロック3
04の、いずれか或いは両方を用いて予測マクロブロッ
クが生成される。図中306及び307は、それぞれ参
照マクロブロック303及び304の位置を示す動きベ
クトルである。符号化時は、符号化マクロブロック30
5に最適な動きベクトル及び予測モードの探索が行われ
る。また、復号化時は、符号化データに含まれる動きベ
クトル及び予測モードを用いて、予測マクロブロック信
号が生成される。
Reference numeral 305 in FIG. 3 denotes a macroblock to be encoded, and the reference macroblock 303 of the reference frame 300 and the reference macroblock 3 of the reference frame 301.
A prediction macroblock is generated by using either or both of 04. In the figure, 306 and 307 are motion vectors indicating the positions of the reference macroblocks 303 and 304, respectively. At the time of encoding, the encoding macroblock 30
The optimum motion vector and prediction mode for 5 are searched. In addition, at the time of decoding, a prediction macroblock signal is generated using the motion vector and the prediction mode included in the encoded data.

【0060】図4及び図5は、本発明の実施形態に係わ
り、3フレーム以上の参照フレームを用いるフレーム間
予測の関係を示す例である。図4では、過去の複数の参
照フレームを用いる例であり、また図5は過去及び未来
の複数の参照フレームを用いる例である。
FIG. 4 and FIG. 5 relate to the embodiment of the present invention and show examples of inter-frame prediction relationships using three or more reference frames. 4 shows an example using a plurality of past reference frames, and FIG. 5 shows an example using a plurality of past and future reference frames.

【0061】図4において、404が符号化対象フレー
ムを示し、400から403が、フレーム404に対す
る参照フレームとなる。413は符号化マクロブロック
を示しており、符号化においては、符号化マクロブロッ
ク毎に、各参照フレームから、各参照フレームに対する
動きベクトル(図中405から408)に応じて、参照
マクロブロック(図中409から412)を切り出し、
複数の参照マクロブロックからの線形予測により予測マ
クロブロックを生成する。次に、複数の参照マクロブロ
ックの中の1つ、或いは線形予測による予測マクロブロ
ックの何れかの予測モードで、予測誤差が最小となる動
きベクトル及び予測モードの組を選択する。線形予測係
数は、例えはフレーム間の平均輝度の時間変化等から符
号化フレーム毎に1組決定する。決定された予測係数の
組は符号化フレームのヘッダデータとして符号化し、ま
た、各マクロブロックの動きベクトル、予測モード、及
び予測誤差信号は、マクロブロック毎に符号化される。
In FIG. 4, reference numeral 404 denotes a frame to be encoded, and 400 to 403 are reference frames for the frame 404. Reference numeral 413 denotes a coded macroblock. In coding, for each coded macroblock, from each reference frame, in accordance with the motion vector (405 to 408 in the figure) for each reference frame, the reference macroblock (see FIG. Cut out 409 to 412),
A prediction macroblock is generated by linear prediction from a plurality of reference macroblocks. Next, a set of a motion vector and a prediction mode that minimizes a prediction error is selected in one of the plurality of reference macroblocks or a prediction mode of a prediction macroblock by linear prediction. One set of linear prediction coefficients is determined for each coded frame, for example, from changes in average luminance between frames over time. The determined set of prediction coefficients is coded as header data of a coded frame, and the motion vector, prediction mode, and prediction error signal of each macroblock are coded for each macroblock.

【0062】また、復号化時は、フレーム毎に受信した
線形予測係数の組を用いて、マクロブロック毎に動きベ
クトル及び予測モードの情報から、複数の参照フレーム
より、予測マクロブロックを生成し、予測誤差信号と加
算することで復号化を行う。
Further, at the time of decoding, a prediction macroblock is generated from a plurality of reference frames from the motion vector and prediction mode information for each macroblock, using a set of linear prediction coefficients received for each frame, Decoding is performed by adding the prediction error signal.

【0063】図5では、502が符号化対象フレームを
示しており、500、501、503、504が参照フ
レームを示している。図5の場合、符号化及び復号化時
は、500、501、503、504、502の順序と
なるように、フレームの並べ替えが行われ、符号化の場
合は複数のローカルデコードフレーム、復号化の場合は
すでに復号化された複数のフレームを、それぞれ参照フ
レームとして用いる。符号化対象マクロブロック511
に対して、図4の例と同様に、参照マクロブロック50
9,510,512,513の1つ、またはそれらから
の線形予測による予測信号の、何れか1つがマクロブロ
ック毎に選択されて符号化される。
In FIG. 5, reference numeral 502 indicates an encoding target frame, and reference numerals 500, 501, 503 and 504 indicate reference frames. In the case of FIG. 5, the frames are rearranged in the order of 500, 501, 503, 504, 502 at the time of encoding and decoding, and in the case of encoding, a plurality of locally decoded frames and decoding are performed. In the case of 1, a plurality of already decoded frames are used as reference frames. Encoding target macroblock 511
On the other hand, similarly to the example of FIG.
One of 9, 510, 512, and 513, or any one of prediction signals by linear prediction from them, is selected and encoded for each macroblock.

【0064】図6は、本発明の実施形態に係る動きベク
トル情報の符号化方法及び復号化方法を示す図である。
図3の例のように、複数の参照フレームを用いたフレー
ム間符号化において、符号化マクロブロック毎に複数の
参照マクロブロック信号を用いて予測マクロブロック信
号を生成する場合、マクロブロック毎に複数の動きベク
トル情報を符号化する必要がある。したがって、参照す
るマクロブロックの数が増えるほど、符号化すべき動き
ベクトル情報のオーバヘッドが増加し、符号化効率を低
下させる原因となる。図6の例では、2つの参照フレー
ムからそれぞれ参照マクロブロック信号を切り出して、
予測マクロブロック信号を生成する場合に、1つの動き
ベクトルとその動きベクトルをフレーム間距離に応じて
スケーリングしたベクトルを用いる例を示したものであ
る。
FIG. 6 is a diagram showing an encoding method and a decoding method of motion vector information according to the embodiment of the present invention.
As in the example of FIG. 3, in inter-frame coding using a plurality of reference frames, when a prediction macroblock signal is generated using a plurality of reference macroblock signals for each coding macroblock, a plurality of macroblocks are generated for each macroblock. It is necessary to encode the motion vector information of Therefore, as the number of macroblocks to be referred to increases, the overhead of motion vector information to be coded increases, which causes a drop in coding efficiency. In the example of FIG. 6, reference macroblock signals are cut out from two reference frames,
It shows an example in which one motion vector and a vector obtained by scaling the motion vector according to the inter-frame distance are used when generating a prediction macroblock signal.

【0065】図中602が符号化対象フレームであり、
601及び600が参照フレームである。また、611
及び610が、動きベクトルを示している。黒で示した
点は垂直方向の画素位置を示しており、白で示した点は
1/4画素精度の補間点を示しいてる。図6は、動き補
償予測を1/4画素精度で行う例を示している。動き補
償の画素精度は、1画素、1/2画素、1/8画素など、
符号化方式毎に定義される。通常は、動きベクトルを動
き補償の精度で表現し、参照画像を参照フレームの画像
データから、補間して生成するのが一般的である。
In the figure, reference numeral 602 is a frame to be encoded,
Reference frames 601 and 600 are reference frames. Also, 611
And 610 indicate the motion vector. The points shown in black indicate the pixel positions in the vertical direction, and the points shown in white indicate the interpolation points with 1/4 pixel accuracy. FIG. 6 shows an example in which motion compensation prediction is performed with 1/4 pixel accuracy. The pixel accuracy of motion compensation is 1 pixel, 1/2 pixel, 1/8 pixel,
It is defined for each encoding method. Generally, a motion vector is expressed with a precision of motion compensation, and a reference image is generally generated by interpolation from image data of a reference frame.

【0066】図6では、符号化対象の画素605に着目
すると、参照フレーム600からは、2.5画素垂直方
向に離れた点603を参照するものとし、2.5画素の
ずれを示す動きベクトル610が符号化される。一方、
同画素605に対する参照フレーム601からの予測
は、フレーム間距離に応じて、前述の符号化された動き
ベクトル610をスケーリングすることにより生成す
る。ここでは、フレーム601に対する動きベクトル
は、フレーム間距離を考慮し2.5/2=1.25画素
となり、参照フレーム601における画素604が、符
号化フレーム602の画素605の参照画素として用い
られる。
In FIG. 6, focusing on the pixel 605 to be encoded, it is assumed that a point 603 that is 2.5 pixels vertically away from the reference frame 600 is referred to, and a motion vector indicating a shift of 2.5 pixels is displayed. 610 is encoded. on the other hand,
The prediction from the reference frame 601 for the same pixel 605 is generated by scaling the above-described encoded motion vector 610 according to the inter-frame distance. Here, the motion vector for the frame 601 is 2.5 / 2 = 1.25 pixels in consideration of the inter-frame distance, and the pixel 604 in the reference frame 601 is used as the reference pixel of the pixel 605 in the encoded frame 602.

【0067】符号化時及び復号化時に同一の精度で動き
ベクトルのスケーリングを行うことで、各マクロブロッ
ク毎に符号化すべき動きベクトルは、符号化対象マクロ
ブロックが複数のフレームを参照する場合でも1つの動
きベクトルで済み、符号化オーバヘッドの増加を防ぐこ
とが可能となる。ここで、動きベクトルのスケーリング
結果が、動き補償の精度のサンプル点上にない場合は、
端数の四捨五入によりスケーリングされた動きベクトル
を丸めるものとする。
The motion vector to be coded for each macroblock is 1 even when the macroblock to be coded refers to a plurality of frames by scaling the motion vector with the same accuracy at the time of coding and decoding. Only one motion vector is needed, and it is possible to prevent an increase in coding overhead. Here, if the scaling result of the motion vector is not on the sampling point of the motion compensation accuracy,
The scaled motion vector shall be rounded by rounding off fractions.

【0068】図7は、本発明の実施形態に係る、図6と
は異なる動きベクトル情報の符号化方法及び復号化方法
を示す図である。図6の例では、動画像の時間的な動き
の速さが一定の場合に、符号化データに占める動きベク
トルのオーバヘッドを効率的に低減することが可能とな
る。一方、動画像の時間的な動きが単調ではあるが、動
きの速さが一定ではない場合、単純にスケーリングした
動きベクトルを用いると、予測効率の低下が発生して符
号化効率の低下の原因となる場合がある。図7では図6
と同様に、画素506の参照画素として、参照フレーム
700及び701の2フレームの参照画素から予測画素
を生成する。ここでは、フレーム700の画素703
と、フレーム701の画素705が参照されるものとす
る。
FIG. 7 is a diagram showing an encoding method and a decoding method of motion vector information different from FIG. 6 according to the embodiment of the present invention. In the example of FIG. 6, when the temporal motion speed of the moving image is constant, the overhead of the motion vector in the encoded data can be efficiently reduced. On the other hand, when the temporal motion of a moving image is monotonous but the motion speed is not constant, using a simply scaled motion vector causes a decrease in prediction efficiency and causes a decrease in coding efficiency. May be In FIG. 7, FIG.
Similarly, as the reference pixel of the pixel 506, a prediction pixel is generated from the reference pixels of the two frames of the reference frames 700 and 701. Here, the pixel 703 of the frame 700
Then, the pixel 705 of the frame 701 is referred to.

【0069】図6の例と同様に、フレーム700に対す
る動きベクトル710が符号化され、それに加えて、フ
レーム701に対する動きベクトル711が、動きベク
トル710をスケーリングしたベクトルとの差分ベクト
ル720として符号化される。動きベクトル710を1
/2にスケーリングすることにより、フレーム701に
おける画素704の位置が示され、本来の予測画素70
5と画素704との差分量を示す差分ベクトル720が
符号化される。通常、時間的に単調な動きに対して、前
述の差分ベクトルの大きさは小さくなるため、動きの速
度が一定でない場合も、予測効率を低下させずに、かつ
動きベクトルのオーバヘッドの増加を抑えて、効率的な
符号化行うことが可能となる。
Similar to the example of FIG. 6, the motion vector 710 for the frame 700 is encoded, and in addition, the motion vector 711 for the frame 701 is encoded as a difference vector 720 with respect to the scaled vector of the motion vector 710. It Set motion vector 710 to 1
By scaling to / 2, the position of the pixel 704 in the frame 701 is shown, and the predicted pixel 70
5 and the pixel 704, the difference vector 720 which shows the difference amount is encoded. Normally, the magnitude of the above-mentioned difference vector becomes smaller for a temporally monotonous motion, so even if the motion speed is not constant, the prediction efficiency is not reduced and the increase in motion vector overhead is suppressed. As a result, efficient encoding can be performed.

【0070】図8は、本発明の実施形態に係る、さらに
別の動きベクトル情報の符号化方法及び復号化方法を示
す図である。図8の例では、フレーム803が符号化対
象フレームであり、フレーム602を飛ばして、フレー
ム801及びフレーム800が参照フレームとなってい
る例である。さらに、画素806に対して、参照フレー
ム800の画素804及び参照フレーム801の画素8
05が予測画素を生成するための参照画素となってい
る。
FIG. 8 is a diagram showing still another motion vector information encoding method and decoding method according to the embodiment of the present invention. In the example of FIG. 8, the frame 803 is an encoding target frame, the frame 602 is skipped, and the frames 801 and 800 are reference frames. Further, with respect to the pixel 806, the pixel 804 of the reference frame 800 and the pixel 8 of the reference frame 801
Reference numeral 05 is a reference pixel for generating a predicted pixel.

【0071】図6或いは図7の例と同様に、参照フレー
ム800に対する動きベクトル811を符号化し、動き
ベクトル811をスケーリングした動きベクトルを用い
て、参照フレーム801に対する動きベクトルを生成す
ることも可能であるが、図8の場合、参照フレームと符
号化フレームのフレーム間距離の関係から、動きベクト
ル811に対して2/3倍のスケーリングが必要とな
る。図8の例に限らず、任意のスケーリングを行うため
には、分母が2のべき乗でない任意の整数となり、除算
が必要となる。動きベクトルのスケーリングは、符号化
時及び復号化時のいずれでも必要であり、特に除算は、
ハードウエア及びソフトウエアのいずれにおいても、コ
ストや演算時間が多くかかるため、符号化及び復号化の
コスト増をもたらしてしまう。
Similar to the example of FIG. 6 or 7, it is also possible to generate the motion vector for the reference frame 801 by encoding the motion vector 811 for the reference frame 800 and using the motion vector obtained by scaling the motion vector 811. However, in the case of FIG. 8, scaling of 2/3 times is required for the motion vector 811 due to the relationship between the inter-frame distances of the reference frame and the encoded frame. Not limited to the example of FIG. 8, in order to perform arbitrary scaling, the denominator becomes an arbitrary integer that is not a power of 2, and division is necessary. Motion vector scaling is necessary both at the time of encoding and decoding, and especially division is
In both hardware and software, the cost and the calculation time are long, resulting in an increase in the cost of encoding and decoding.

【0072】一方、図8では、符号化すべき動きベクト
ル811をフレーム間距離で正規化した動きベクトル8
10を符号化し、正規化された動きベクトル810を符
号化フレームと各参照フレームとのフレーム間距離に応
じて、スケーリングした動きベクトルと、本来の動きベ
クトルとの差分ベクトルを符号化するものである。つま
り、参照画素804は、正規化された動きベクトル81
0を3倍した動きベクトルと、差分ベクトル820から
生成され、参照画素805は、正規化された動きベクト
ル810を2倍した動きベクトルと、差分ベクトル82
1から生成される。図8の構成とすることで、予測効率
を低下させずに、動きベクトルの符号化オーバヘッドの
増加を防ぎ、さらに、動きベクトルのスケーリングが乗
算のみで実現できるため、符号化及び復号化の演算コス
トも抑えることが可能となる。
On the other hand, in FIG. 8, the motion vector 811 to be encoded is normalized by the inter-frame distance.
10 is encoded, and the normalized motion vector 810 is encoded according to the inter-frame distance between the encoded frame and each reference frame, and the difference vector between the scaled motion vector and the original motion vector is encoded. . That is, the reference pixel 804 is the normalized motion vector 81.
It is generated from a motion vector obtained by multiplying 0 by 3 and a difference vector 820, and the reference pixel 805 is a motion vector obtained by doubling the normalized motion vector 810 and a difference vector 82.
It is generated from 1. The configuration of FIG. 8 prevents an increase in the coding overhead of the motion vector without lowering the prediction efficiency, and further, the scaling of the motion vector can be realized only by multiplication, so that the calculation cost of the coding and the decoding is increased. It becomes possible to suppress.

【0073】図9は、本発明の第2の実施形態に係る動
画像符号化方法のブロック図である。本発明の第2の実
施形態では、前述の本発明の第11及び第12の特徴を
用いた実施形態であり、図1で示した動画像符号化の実
施形態に対して、入力画像900に対するフェード検出
手段900が付加された構成である。フェード検出手段
900では、入力された動画像信号のフレーム毎の平均
輝度値を計算し、輝度の時間変化に一定の傾きがある場
合は、フェード画像であると判断し、その結果701を
予測モード選択手段120に通知する。
FIG. 9 is a block diagram of a moving picture coding method according to the second embodiment of the present invention. The second embodiment of the present invention is an embodiment using the eleventh and twelfth features of the present invention described above, and is applied to the input image 900 with respect to the moving picture coding embodiment shown in FIG. This is a configuration in which the fade detection means 900 is added. The fade detection unit 900 calculates the average luminance value of each frame of the input moving image signal, and if the temporal change in luminance has a certain slope, determines that the image is a faded image, and the result 701 is the prediction mode. Notify the selection means 120.

【0074】フェード検出手段900により、フェード
画像だと判断された場合は、予測モードを1つ参照フレ
ームからの予測または複数の参照フレームの線形外挿あ
るいは線形内挿による予測の何れかに限定して、マクロ
ブロック毎に最適な動きベクトル及び予測モードを決定
する。決定された動きベクトル、及び予測モードを示す
第1のフラグをマクロブロックのヘッダに書き込み、予
測誤差信号の符号化行う。また、とり得る予測モードの
組を示す第2のフラグは、フレームのヘッダデータに書
き込んで出力する。
If the fade detection means 900 determines that the image is a fade image, the prediction mode is limited to either prediction from one reference frame or linear extrapolation or linear interpolation of a plurality of reference frames. Then, the optimum motion vector and prediction mode are determined for each macroblock. The determined motion vector and the first flag indicating the prediction mode are written in the header of the macroblock, and the prediction error signal is encoded. A second flag indicating a set of possible prediction modes is written in the header data of the frame and output.

【0075】フェード検出手段900により、フェード
画像でないと判断された場合は、予測モードを1つ参照
フレームからの予測または複数の参照フレームの平均値
による予測のいずれかに限定して、同様に最適な動きベ
クトル及び予測モードを決定し、動きベクトル、予測モ
ード、及び予測信号の符号化を同様に行う。
If the fade detection means 900 determines that the image is not a faded image, the prediction mode is limited to either prediction from one reference frame or prediction based on the average value of a plurality of reference frames, and similarly the optimum Different motion vectors and prediction modes are determined, and motion vectors, prediction modes, and prediction signals are similarly encoded.

【0076】図9の構成で符号化された符号化データを
受信して復号化する場合は、予測モードを示す上記第1
及び第2のフラグから、マクロブロック毎の予測モード
を判断し、マクロブロック毎に送られる動きベクトル及
び判断した予測モードから、予測マクロブロック信号を
生成し、符号化された予測誤差信号を復号化して、予測
信号と加算することで復号化を行う。このような構成と
することで、本発明の第11及び第12に記載した通
り、予測モード情報の符号化オーバヘッドを低減させる
ことが可能となる。
When the coded data coded with the configuration of FIG. 9 is received and decoded, the first mode indicating the prediction mode is used.
And the second flag to determine the prediction mode for each macroblock, generate a prediction macroblock signal from the motion vector sent for each macroblock and the determined prediction mode, and decode the encoded prediction error signal. Then, decoding is performed by adding the prediction signal. With such a configuration, as described in the eleventh and twelfth aspects of the present invention, it becomes possible to reduce the coding overhead of the prediction mode information.

【0077】次に、図10を用いて本発明の第3の実施
形態における動画像符号化の手順について説明する。符
号化対象の動画像フレームは1フレームずつ入力され、
輝度値のフレーム内平均値の時間変化などに基づいてフ
レーム全体あるいはフレーム内の複数の画素ブロックで
構成されるスライス毎に、フェード画像の検出が行われ
る(ステップS1)。フレーム内の画素ブロック毎に、
複数の参照フレームの中から1つの最適な参照フレーム
を選択して予測画素ブロック信号を生成する(単一フレ
ーム予測)か、あるいは2つの参照画素ブロック信号の
線形和による予測によって予測画素ブロックを生成する
(線形和予測)かが選択される。
Next, the procedure of moving picture coding according to the third embodiment of the present invention will be described with reference to FIG. Video frames to be encoded are input one frame at a time,
A fade image is detected for the entire frame or for each slice formed of a plurality of pixel blocks in the frame based on the temporal change of the average value of the luminance values within the frame (step S1). For each pixel block in the frame,
One optimum reference frame is selected from a plurality of reference frames to generate a prediction pixel block signal (single frame prediction), or a prediction pixel block is generated by prediction using a linear sum of two reference pixel block signals. Yes (linear sum prediction) is selected.

【0078】線形和予測では、入力動画像がフェード画
像であると検出された場合は、時間線形補間(フレーム
間の時間距離に基づく内挿または外挿)予測とし、フェ
ード画像でない場合は、2つの参照画素ブロック信号の
平均値により予測画素ブロックを生成する。複数フレー
ムを用いた線形和予測が平均値予測であるか、あるいは
時間線形補間予測であるかを示す第2の符号化モード情
報をフレーム(ピクチャ)あるいはスライスのヘッダデ
ータとして符号化する(ステップS2)。
In the linear sum prediction, when the input moving image is detected to be a faded image, temporal linear interpolation (interpolation or extrapolation based on the time distance between frames) prediction is performed, and when it is not a faded image, 2 is used. A prediction pixel block is generated by the average value of two reference pixel block signals. The second coding mode information indicating whether the linear sum prediction using a plurality of frames is the average value prediction or the temporal linear interpolation prediction is coded as frame (picture) or slice header data (step S2). ).

【0079】次に、ステップS1の検出結果をステップ
S3で調べ、入力動画像がフェード画像であるか否かを
判定する。ここで、入力動画像がフェード画像と判定さ
れた場合には、画素ブロック毎に複数の参照フレームか
ら単一の予測ブロックを選択する符号化モード(ステッ
プS5)と時間線形補間予測による符号化モード(ステ
ップS4)のうち、符号化効率の高い方、すなわち発生
符号量が少なくなる方の符号化モードを決定する(ステ
ップS8)。
Next, the detection result of step S1 is examined in step S3 to determine whether or not the input moving image is a fade image. Here, when the input moving image is determined to be a fade image, an encoding mode (step S5) for selecting a single prediction block from a plurality of reference frames for each pixel block and an encoding mode by temporal linear interpolation prediction Of (step S4), the coding mode having the higher coding efficiency, that is, the one having the smaller generated code amount is determined (step S8).

【0080】この後、単一フレーム予測かあるいは線形
和予測かを示す第1の符号化モード情報と、その他の選
択された符号化モードに関する情報(予測に用いる参照
フレームの識別情報、動きベクトル情報など)をマクロ
ブロックヘッダ領域に符号化する(ステップS10)。
最後に、選択された予測ブロック信号と符号化対象ブロ
ックの信号との差分信号(予測誤差信号)を符号化し
(ステップS11)、それぞれの符号化データを出力す
る。
After this, the first coding mode information indicating single-frame prediction or linear sum prediction, and information on other selected coding modes (identification information of reference frame used for prediction, motion vector information) Etc.) are encoded in the macroblock header area (step S10).
Finally, the difference signal (prediction error signal) between the selected prediction block signal and the signal of the encoding target block is encoded (step S11), and each encoded data is output.

【0081】一方、ステップS3での判定の結果、入力
動画像がフェード画像でない場合には、単一フレーム予
測モード(ステップS6)及び平均値予測モード(ステ
ップS7)から最適な方の符号化モードを選択する(ス
テップS9)。以下、同様に符号化モードに関する情報
の符号化(ステップS10)と、差分信号の符号化(ス
テップS11)を行う。
On the other hand, if the result of determination in step S3 is that the input moving image is not a faded image, the single-frame prediction mode (step S6) or average value prediction mode (step S7) is the most suitable encoding mode. Is selected (step S9). Hereinafter, similarly, the encoding of the information regarding the encoding mode (step S10) and the encoding of the difference signal (step S11) are performed.

【0082】ステップS1のフェード検出結果に従っ
て、フレーム内あるいはスライス内の各ブロックが上記
の通り符号化され、1フレーム(ピクチャ)あるいは1
スライス内の全ての画素ブロックの符号化が終了すると
(ステップS12)、次に符号化すべきフレームあるい
はスライスのフェード検出を行い(ステップS1)、同
様に符号化を進める。上記説明では、1フレームを1ピ
クチャとして符号化する例を示したが、1フィールドを
1ピクチャとしてフィールド単位に符号化を行ってもよ
い。
According to the result of the fade detection in step S1, each block in the frame or slice is encoded as described above, and one frame (picture) or one block is encoded.
When the coding of all pixel blocks in the slice is completed (step S12), the fade of the frame or slice to be coded next is detected (step S1), and the coding is similarly advanced. In the above description, an example is shown in which one frame is coded as one picture, but one field may be coded as one picture.

【0083】図11及び図12は、本実施形態に係る動
画像符号化データのデータ構造を示す図である。図11
はピクチャあるいはスライスのヘッダデータを含むデー
タ構造の一部を示し、図12はマクロブロックデータの
一部を示している。ピクチャあるいはスライスのヘッダ
領域では、該符号化対象フレームの表示時刻に関する情
報“time_info_to_be_displayed”や、上述した線形和
予測が時間線形補間予測であるか、平均値予測であるか
を示す第2の符号化モード情報であるフラグ“linear_w
eighted_prediction_flag”が符号化される。“linear_
weighted_prediction_flag”が0の場合は平均値予測を
表し、1の場合は時間線形補間予測を示す。
11 and 12 are views showing the data structure of the moving image coded data according to the present embodiment. Figure 11
Shows a part of the data structure including the header data of the picture or slice, and FIG. 12 shows a part of the macroblock data. In the header area of the picture or slice, the second encoding indicating information “time_info_to_be_displayed” regarding the display time of the encoding target frame and whether the above-described linear sum prediction is temporal linear interpolation prediction or average value prediction. Flag “linear_w” that is mode information
The eighted_prediction_flag ”is encoded.
When the “weighted_prediction_flag” is 0, it means the average value prediction, and when it is 1, it means the time linear interpolation prediction.

【0084】ピクチャあるいはスライスの符号化データ
内には、複数のマクロブロック符号化データが包含され
ており、各マクロブロックデータは図12で示すような
構造となっている。マクロブロックデータのヘッダ領域
には、参照フレームの選択情報や動きベクトル情報等と
ともに、選択された単一フレームからの単一フレーム予
測かあるいは複数のフレームからの線形和による予測か
を示す情報(第1の符号化モード情報)が、“macroblo
ck_type”として符号化される。
A plurality of macroblock coded data are included in the coded data of a picture or slice, and each macroblock data has a structure as shown in FIG. In the header area of the macroblock data, together with reference frame selection information, motion vector information, and the like, information indicating whether single frame prediction from a selected single frame or prediction by a linear sum from a plurality of frames (first (1 encoding mode information) is "macroblo
ck_type ”.

【0085】図13は、図11及び図12で示したデー
タ構造を含む動画像符号化データの時系列全体の構造を
模式的に示したものである。符号化データの先頭には、
画像サイズ等の1つの符号化シーケンス内全体で不変な
複数の符号化パラメータの情報がシーケンスヘッダ(S
H)として符号化される。
FIG. 13 schematically shows the structure of the entire time series of moving image coded data including the data structure shown in FIGS. 11 and 12. At the beginning of the encoded data,
Information of a plurality of coding parameters, such as image size, which is invariable in one coding sequence as a whole, is used as a sequence header (S
H).

【0086】次に、各画像フレームあるいはフィールド
がそれぞれピクチャとして符号化される。各ピクチャ
は、ピクチャヘッダ(PH)とピクチャデータ(Picture
data)の組として順次符号化されている。ピクチャヘッ
ダ(PH)には、図11で示した符号化対象フレームの
表示時刻に関する情報“time_info_to_be_displayed”
及び第2の符号化モード情報“linear_weighted_predic
tion_flag”がそれぞれDTI,LWPとして符号化さ
れている。ピクチャデータは、1つまたは複数のスライ
ス(SLC)に分割され、スライス毎に順次符号化され
る。
Next, each image frame or field is coded as a picture. Each picture has a picture header (PH) and picture data (Picture
data) are sequentially encoded as a set. In the picture header (PH), information “time_info_to_be_displayed” related to the display time of the encoding target frame shown in FIG.
And the second coding mode information “linear_weighted_predic
tion_flag "is encoded as DTI and LWP, respectively. The picture data is divided into one or a plurality of slices (SLC), and is sequentially encoded for each slice.

【0087】各スライスでSLCは、まずスライス内の
各画素ブロックに関する符号化パラメータがスライスヘ
ッダ(SH)として符号化され、スライスヘッダSHに
続けて、1つまたは複数のマクロブロックデータ(M
B)が順次符号化されている。マクロブロックデータM
Bでは、図12で示した第1の符号化モード情報である
“macroblock_type”がMBTとして符号化されてお
り、また動きベクトル情報(MV)などの、マクロブロ
ック内の各画素の符号化に関する情報が符号化され、最
後に符号化すべき画素信号あるいは予測誤差信号に対し
て直交変換(例えば、離散コサイン変換)を施して符号
化された直交変換係数(DCT)が含まれている。
In each slice, the SLC first encodes the encoding parameters for each pixel block in the slice as a slice header (SH), and follows the slice header SH, one or more macroblock data (M).
B) is sequentially encoded. Macroblock data M
In B, the first coding mode information “macroblock_type” shown in FIG. 12 is coded as MBT, and information about coding of each pixel in a macroblock, such as motion vector information (MV). Is encoded, and finally, an orthogonal transform coefficient (DCT) encoded by performing orthogonal transform (for example, discrete cosine transform) on the pixel signal or the prediction error signal to be encoded is included.

【0088】ここで、ピクチャヘッダPHに含まれてい
る第2の符号化モード情報“linear_weighted_predicti
on_flag”は、スライスヘッダSHでスライス毎に符号
化する構成としてもよい。
Here, the second coding mode information "linear_weighted_predicti" included in the picture header PH is used.
The on_flag ”may be configured to be encoded for each slice using the slice header SH.

【0089】次に、図14を用いて本実施形態における
動画像復号化の手順について説明する。本実施形態で
は、図10で示した動画像符号化方法により符号化さ
れ、図11及び図12で示したようなデータ構造を有す
る符号化データを入力し、復号化するものである。入力
された符号化データから、ピクチャあるいはスライスの
ヘッダ情報の復号化を行い、符号化対象フレームの表示
時刻に関する情報“time_info_to_be_displayed”や、
第2の符号化モード情報“linear_weighted_prediction
_flag”の 復号化を行う(ステップS30)。
Next, the procedure of moving picture decoding in this embodiment will be described with reference to FIG. In the present embodiment, the encoded data encoded by the moving image encoding method shown in FIG. 10 and having the data structure shown in FIGS. 11 and 12 is input and decoded. From the input encoded data, the header information of the picture or slice is decoded, and information about the display time of the encoding target frame "time_info_to_be_displayed",
Second coding mode information "linear_weighted_prediction
_flag "is decrypted (step S30).

【0090】さらに、ピクチャあるいはスライス内のマ
クロブロック毎に、マクロブロックのヘッダ情報の復号
化を行い、参照フレームの識別情報、動きベクトル情
報、第1の符号化モード情報を含む“macroblock_typ
e”などの復号化を行う(ステップS31)。
Further, the header information of the macroblock is decoded for each macroblock in the picture or slice, and "macroblock_typ" including the identification information of the reference frame, the motion vector information, and the first coding mode information.
Decoding such as "" is performed (step S31).

【0091】復号化された第1の符号化モード情報が単
一フレーム予測を示している場合、参照フレームの識別
情報、動きベクトル情報などの予測モード情報に従っ
て、予測ブロック信号を生成する(ステップS34)。
第1の符号化モード情報が複数フレームからの線形和に
よる予測を示している場合、復号化された第2の符号化
モード情報に従って(ステップS33)、平均予測(ス
テップ35)あるいは時間線形補間予測(ステップS3
6)のいずれかの方法で予測信号を生成する。
When the decoded first coding mode information indicates single frame prediction, a prediction block signal is generated according to the prediction mode information such as reference frame identification information and motion vector information (step S34). ).
When the first coding mode information indicates prediction by a linear sum from a plurality of frames, the average prediction (step 35) or the time linear interpolation prediction is performed according to the decoded second coding mode information (step S33). (Step S3
A prediction signal is generated by any of the methods of 6).

【0092】次に、符号化された予測誤差信号の復号化
を行い、生成した予測信号と加算することにより、復号
化画像を生成する(ステップS37)。ピクチャあるい
はスライス内の各マクロブロックについては、各マクロ
ブロックヘッダから順次復号化を行い、ピクチャあるい
はスライス内の全てのマクロブロックの復号化を終了し
たら(ステップS38)、引き続き次のピクチャあるい
はスライスヘッダから復号化を進める。
Next, the coded prediction error signal is decoded and added with the generated prediction signal to generate a decoded image (step S37). For each macroblock in the picture or slice, decoding is sequentially performed from each macroblock header, and when decoding of all macroblocks in the picture or slice is completed (step S38), the decoding is continued from the next picture or slice header. Proceed with decryption.

【0093】上述したように、本実施形態では符号化モ
ードに関する情報を単一フレーム予測か複数フレームか
らの線形和による予測かを示す第1の符号化モード情報
と、線形和による予測が時間線形内挿予測か平均予測を
示す第2の符号化モード情報に分離し、第1の符号化モ
ード情報をマクロブロック毎に、第2の符号化モード情
報をピクチャあるいはスライス毎にそれぞれ符号化する
ことで、符号化効率を維持しつつ、符号化モード情報を
符号化するオーバヘッドを低減することが可能となる。
As described above, in the present embodiment, the first coding mode information indicating whether the information on the coding mode is the single frame prediction or the prediction by the linear sum from a plurality of frames, and the prediction by the linear sum are time linear. Separation into second coding mode information indicating interpolation prediction or average prediction, and coding the first coding mode information for each macroblock and the second coding mode information for each picture or slice. Thus, it is possible to reduce the overhead of encoding the encoding mode information while maintaining the encoding efficiency.

【0094】すなわち、第2の符号化モード情報はフェ
ード画像等のフレーム内の広域的な特性を示しているの
で、第2の符号化モード情報をスライスあるいはフレー
ム毎に符号化することで、マクロブロック毎に符号化す
る場合に比べて、符号化モード情報自体を符号化するた
めの符号量を抑えることが可能となり、かつ符号化効率
の大幅な低下は発生しない。
That is, since the second coding mode information indicates a wide area characteristic in a frame such as a fade image, the second coding mode information is coded for each slice or frame, and the macro As compared with the case of coding for each block, the code amount for coding the coding mode information itself can be suppressed, and the coding efficiency does not significantly decrease.

【0095】一方、第1の符号化モード情報について
は、マクロブロック毎に符号化することで、各画素ブロ
ックの個別の特性(例えば、時間的な見え隠れが部分的
にある映像など)に応じて適切なモードを決定すること
が可能となり、符号化効率をより向上させることが可能
となる。
On the other hand, the first coding mode information is coded for each macro block, so that the first coding mode information can be processed according to the individual characteristics of each pixel block (for example, a video image that is partially visible or hidden in time). It is possible to determine an appropriate mode, and it is possible to further improve coding efficiency.

【0096】このように本実施形態は、動画像の持つ特
性を考慮して第1及び第2の符号化モードの符号化頻度
が決定されているため、高能率で高画質な符号化を行う
ことが可能となる。
As described above, in the present embodiment, the coding frequencies of the first and second coding modes are determined in consideration of the characteristics of the moving image, so that high-quality and high-quality coding is performed. It becomes possible.

【0097】次に、図15及び図16を用いて、本実施
形態における時間線形補間予測について詳しく説明す
る。図15におけるF0,F1,F2及び図16におけ
るF0,F2,F1は、それぞれ時間的に連続するフレ
ームを示している。図15及び図16において、F2が
符号化あるいは復号化対象フレーム、F0及びF1が参
照フレームを示している。ここで、図15及び図16の
例について、それぞれ符号化あるいは復号化対象フレー
ム内のある画素ブロックが2つの参照フレームの線形和
による予測を行う場合を考える。
Next, the temporal linear interpolation prediction in this embodiment will be described in detail with reference to FIGS. F0, F1, F2 in FIG. 15 and F0, F2, F1 in FIG. 16 indicate frames that are temporally continuous. In FIGS. 15 and 16, F2 indicates a frame to be encoded or decoded, and F0 and F1 indicate reference frames. Here, with respect to the examples of FIGS. 15 and 16, let us consider a case where a certain pixel block in a frame to be encoded or decoded performs prediction by a linear sum of two reference frames.

【0098】線形和予測が平均値予測の場合は、各参照
フレームから切り出された参照ブロックの単純平均によ
り、予測画素ブロックが生成される。フレームF0及び
F1から切り出し参照画素ブロック信号をそれぞれref
0、ref1とすると、図15及び図16のそれぞれの予測
画素ブロック信号pred2は、以下の数式(15)に従っ
て計算される。 pred2=( ref0 + ref1 ) / 2 (15) 一方、時間線形補間予測の場合は、符号化あるいは復号
化対象フレームと各参照フレームとの時間距離に応じて
線形和が計算される。図11で示したように、符号化対
象フレーム毎にピクチャあるいはスライスヘッダ領域に
表示時刻に関する情報“time_info_to_be_displayed”
が符号化されており、復号化時にはこの情報に基づいて
各フレームの表示時刻が算出される。ここで、フレーム
F0,F1,F2の表示時刻が、それぞれDt0,Dt1,
Dt2であるとする。
When the linear sum prediction is the average value prediction, the prediction pixel block is generated by the simple average of the reference blocks cut out from each reference frame. The reference pixel block signals cut out from the frames F0 and F1 are respectively ref
When 0 and ref1 are set, the respective predicted pixel block signals pred2 in FIGS. 15 and 16 are calculated according to the following mathematical expression (15). pred2 = (ref0 + ref1) / 2 (15) On the other hand, in the case of temporal linear interpolation prediction, a linear sum is calculated according to the time distance between the encoding or decoding target frame and each reference frame. As shown in FIG. 11, the information “time_info_to_be_displayed” regarding the display time in the picture or slice header area for each encoding target frame
Is encoded, and the display time of each frame is calculated based on this information at the time of decoding. Here, the display times of the frames F0, F1, and F2 are Dt0, Dt1, and
Let it be Dt2.

【0099】図15の例では、過去の2フレームから現
在のフレームを予測するため線形外挿予測となり、図1
6の例では、未来と過去のフレームからの線形内挿予測
となる。図15及び図16について、2つの参照フレー
ム間の時間距離をRr、符号化対象フレームに対する時
間的に最も過去の参照フレームから、該符号化対象フレ
ームまでの時間距離をRcとすると、それぞれ以下のよ
うになる。 Rr=Dt1−Dt0, Rc=Dt2−Dt0 (16) 上記時間距離に基づく線形外挿予測及び線形内挿予測
は、図15及び図16の場合のいずれにおいても、以下
の数式(17)で計算される。 pred2={ (Rr−Rc)*ref0+Rc*ref1 } / Rr (17) また、数式(17)は数式(18)のように変形することも可能である。 Pred2=ref0 + (ref1-ref0)* Rc/ Rr (18) フェード画像やクロスフェード画像のような信号振幅が
フレーム間で単調に時間変動する画像では、非常に短時
間(例えば、連続する3フレーム)内では、その信号振
幅の時間変動を1次近似することが可能である。従っ
て、本実施形態のように符号化対象フレームと2つの参
照フレームとのフレーム間の時間距離に応じた時間線形
補間(線形外挿または線形内挿)を行うことで、より的
確な予測画像を生成することが可能となる。その結果、
フレーム間予測の効率が向上し、画質を劣化させずに、
より発生符号量を低減したり、あるいは同一ビットレー
トでより高画質な符号化を行うことが可能となる。
In the example of FIG. 15, since the current frame is predicted from the past two frames, linear extrapolation prediction is performed.
In the example of 6, the linear interpolation prediction is performed from the future and past frames. 15 and 16, where Rr is the time distance between two reference frames and Rc is the time distance from the reference frame that is the earliest in time with respect to the encoding target frame to the encoding target frame, Like Rr = Dt1-Dt0, Rc = Dt2-Dt0 (16) The linear extrapolation prediction and the linear interpolation prediction based on the time distance are calculated by the following formula (17) in both cases of FIG. 15 and FIG. To be done. pred2 = {(Rr-Rc) * ref0 + Rc * ref1} / Rr (17) Further, the equation (17) can be transformed into the equation (18). Pred2 = ref0 + (ref1-ref0) * Rc / Rr (18) For an image in which the signal amplitude monotonously changes between frames, such as a fade image or cross-fade image, for a very short time (for example, three consecutive frames). In (), it is possible to make a first-order approximation of the time variation of the signal amplitude. Therefore, by performing the time linear interpolation (linear extrapolation or linear interpolation) according to the time distance between the frame to be encoded and the two reference frames as in the present embodiment, a more accurate predicted image can be obtained. It becomes possible to generate. as a result,
The efficiency of inter-frame prediction is improved, without degrading the image quality,
It is possible to further reduce the amount of generated code or perform higher quality coding at the same bit rate.

【0100】上述した本発明の符号化及び復号化の処理
は、ハードウェアにより実現してもよいし、処理の一部
または全部をコンピュータを用いてソフトウェアにより
実行することも可能である。従って、本発明によれば例
えば以下に示すようなプログラムを提供することができ
る。
The above-described encoding and decoding processing of the present invention may be realized by hardware, or part or all of the processing may be executed by software using a computer. Therefore, according to the present invention, for example, the following program can be provided.

【0101】(1)マクロブロック毎に複数の動画像フ
レームを参照する動き補償予測フレーム間符号化処理を
コンピュータに行わせるためのプログラムにおいて、前
記複数の参照フレームから複数の参照マクロブロックを
生成する処理と、前記複数の参照マクロブロックの1
つ、前記複数の参照マクロブロックの平均値、或いは前
記複数の参照マクロブロックによる線形外挿予測または
線形内挿予測のいずれかを予測マクロブロックとして選
択する処理と、前記選択された予測マクロブロックと符
号化マクロブロックとの予測誤差信号、予測モード情報
及び動きベクトルを符号化する処理とを前記コンピュー
タに行わせるためのプログラム。
(1) In a program for causing a computer to perform a motion-compensated prediction interframe coding process for referring to a plurality of moving picture frames for each macroblock, a plurality of reference macroblocks are generated from the plurality of reference frames. Processing and one of the plurality of reference macroblocks
A process of selecting an average value of the plurality of reference macroblocks or a linear extrapolation prediction or a linear interpolation prediction by the plurality of reference macroblocks as a prediction macroblock; and the selected prediction macroblock, A program for causing the computer to perform a process of encoding a prediction error signal with a coding macroblock, prediction mode information, and a motion vector.

【0102】(2)マクロブロック毎に複数の動画像フ
レームを参照する動き補償予測フレーム間符号化データ
の復号化処理をコンピュータに行わせるためのプログラ
ムにおいて、 符号化された動きベクトルデータ、予測
モード情報及び予測誤差信号を受信する処理と、前記受
信された動きベクトル及び前記予測モードに応じて、
(a)前記複数の参照フレームのうち特定の1フレーム
から予測マクロブロックを生成するか、(b)複数の参
照フレームから複数の参照マクロブロックを生成して前
記複数の参照マクロブロックの平均値を予測マクロブロ
ックとして生成するか、或いは(c)前記複数の参照マ
クロブロックによる線形外挿予測または線形内挿予測の
いずれかから予測マクロブロックを生成するかを選択す
る処理と、前記生成された予測マクロブロックと前記予
測誤差信号を加算する処理とを前記コンピュータに行わ
せるためのプログラム。
(2) In a program for causing a computer to perform decoding processing of motion-compensated prediction interframe coded data that refers to a plurality of moving image frames for each macroblock, coded motion vector data and prediction mode A process of receiving information and a prediction error signal, and depending on the received motion vector and the prediction mode,
(A) generate a prediction macroblock from a specific one frame of the plurality of reference frames, or (b) generate a plurality of reference macroblocks from the plurality of reference frames and calculate an average value of the plurality of reference macroblocks. Or (c) a process of selecting whether to generate a prediction macroblock from linear extrapolation prediction or linear interpolation prediction using the plurality of reference macroblocks, and (c) the generated prediction A program for causing the computer to perform a process of adding a macroblock and the prediction error signal.

【0103】(3)マクロブロック毎に複数の動画像フ
レームを参照する動き補償予測フレーム間符号化処理を
コンピュータに行わせるためのプログラムにおいて、前
記複数の参照フレームからの線形予測により予測マクロ
ブロックを生成する処理と、前記予測マクロブロックと
符号化マクロブロックとの予測誤差信号及び動きベクト
ルをマクロブロック毎に符号化する処理と、前記線形予
測の予測係数の組をフレーム毎に符号化する処理とを前
記コンピュータに行わせるためのプログラム。
(3) In a program for causing a computer to perform a motion-compensated prediction interframe coding process for referring to a plurality of moving picture frames for each macroblock, a prediction macroblock is linearly predicted from the plurality of reference frames. A process of generating, a process of coding the prediction error signal and the motion vector of the prediction macroblock and the coding macroblock for each macroblock, and a process of coding the set of prediction coefficients of the linear prediction for each frame. And a program for causing the computer to perform.

【0104】(4)マクロブロック毎に複数の動画像フ
レームを参照する動き補償予測フレーム間符号化データ
の復号化処理をコンピュータに行わせるためのプログラ
ムにおいて、マクロブロック毎に符号化された動きベク
トルデータ及び予測誤差信号と、フレーム毎に符号化さ
れた予測係数の組を受信する処理と、前記受信された動
きベクトル及び予測係数に応じて、前記複数の参照フレ
ームから予測マクロブロックを生成する処理と、前記生
成された予測マクロブロックと前記予測誤差信号を加算
する処理とを前記コンピュータに行わせるためのプログ
ラム。
(4) In a program for causing a computer to perform decoding processing of motion-compensated prediction interframe coded data that refers to a plurality of moving picture frames for each macroblock, a motion vector coded for each macroblock A process of receiving a set of data and a prediction error signal and a prediction coefficient coded for each frame, and a process of generating a prediction macroblock from the plurality of reference frames according to the received motion vector and prediction coefficient. And a program for causing the computer to perform the process of adding the generated prediction macroblock and the prediction error signal.

【0105】[0105]

【発明の効果】以上説明したように、本発明によれば、
従来のMPEGなどの動画像符号化方式が不得意として
いた、フェードイン・フェードアウトなどの映像に対し
て、符号化及び復号化の演算量やコストの大幅な増加を
必要とせずに、予測効率を大幅に向上することが可能と
なり、また、符号化データのオーバヘッドも小さく、高
画質で高能率な動画像符号化及び復号化方式を提供する
ことが可能となる。
As described above, according to the present invention,
For video such as fade-in / fade-out, which was not good at conventional moving picture coding methods such as MPEG, prediction efficiency can be improved without requiring a large increase in the amount of calculation and cost of coding and decoding. It is possible to greatly improve it, and also to provide a moving image encoding and decoding system with high image quality and high efficiency, which has a small overhead of encoded data.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態に係る動画像符号化方法のブ
ロック図
FIG. 1 is a block diagram of a moving picture coding method according to an embodiment of the present invention.

【図2】本発明の実施形態に係る動画像復号化方法のブ
ロック図
FIG. 2 is a block diagram of a moving picture decoding method according to an embodiment of the present invention.

【図3】本発明の実施形態に係るフレーム間予測の関係
を示す図
FIG. 3 is a diagram showing a relationship of inter-frame prediction according to the embodiment of the present invention.

【図4】本発明の実施形態に係るフレーム間予測の関係
を示す図
FIG. 4 is a diagram showing a relationship of inter-frame prediction according to the embodiment of the present invention.

【図5】本発明の実施形態に係るフレーム間予測の関係
を示す図
FIG. 5 is a diagram showing a relationship of inter-frame prediction according to the embodiment of the present invention.

【図6】本発明の実施形態に係る動きベクトル情報の符
号化方法及び復号化方法の例を示す図
FIG. 6 is a diagram showing an example of an encoding method and a decoding method of motion vector information according to the embodiment of the present invention.

【図7】本発明の実施形態に係る動きベクトル情報の符
号化方法及び復号化方法の例を示す図
FIG. 7 is a diagram showing an example of an encoding method and a decoding method of motion vector information according to the embodiment of the present invention.

【図8】本発明の実施形態に係る動きベクトル情報の符
号化方法及び復号化方法の例を示す図
FIG. 8 is a diagram showing an example of an encoding method and a decoding method of motion vector information according to the embodiment of the present invention.

【図9】本発明の実施形態に係る動画像符号化方法のブ
ロック図
FIG. 9 is a block diagram of a moving picture coding method according to an embodiment of the present invention.

【図10】本発明の実施形態に係る動画像符号化方法の
手順を示すフローチャート
FIG. 10 is a flowchart showing a procedure of a moving picture coding method according to the embodiment of the present invention.

【図11】同実施形態における動画像符号化データのピ
クチャヘッダ又はスライスヘッダのデータ構造の例を示
す図
FIG. 11 is a diagram showing an example of a data structure of a picture header or slice header of moving image encoded data according to the first embodiment.

【図12】同実施形態における動画像符号化データのマ
クロブロックのデータ構造の例を示す図
FIG. 12 is a diagram showing an example of a data structure of a macroblock of moving image encoded data according to the first embodiment.

【図13】本発明の実施形態に係る動画像符号化データ
全体のデータ構造の例を示す図
FIG. 13 is a diagram showing an example of the data structure of the entire moving image encoded data according to the embodiment of the present invention.

【図14】同実施形態に係る動画像復号化方法の手順を
示すフローチャート
FIG. 14 is a flowchart showing a procedure of a moving picture decoding method according to the same embodiment.

【図15】同実施形態における時間線形補間を説明する
FIG. 15 is a diagram illustrating time linear interpolation in the same embodiment.

【図16】同実施形態における時間線形補間を説明する
FIG. 16 is a diagram illustrating time linear interpolation in the same embodiment.

【符号の説明】[Explanation of symbols]

112…DCT手段 113…量子化手段 115、215…逆量子化手段 116、216…逆DCT手段 117、217…第1の参照フレームメモリ 118、218…第2の参照フレームメモリ 119,219…予測マクロブロック生成手段 120,220…予測マクロブロック選択手段 900…フェード検出手段 112 ... DCT means 113 ... Quantization means 115, 215 ... Inverse quantization means 116, 216 ... Inverse DCT means 117, 217 ... First reference frame memory 118, 218 ... Second reference frame memory 119, 219 ... Prediction macroblock generation means 120, 220 ... Prediction macroblock selection means 900 ... Fade detecting means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 永井 剛 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 菊池 義浩 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 浅野 渉 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5C059 LB11 MA05 MA19 MA23 MC11 ME01 NN01 NN28 PP04 TA08 TA29 TA50 TB07 TC00 TC03 TC12 TD03 UA02 UA05 UA33 5J064 AA01 BA13 BB03 BC01 BC08 BC16 BC21 BC23 BC25 BD01   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Tsuyoshi Nagai             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center (72) Inventor Yoshihiro Kikuchi             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center (72) Inventor Wataru Asano             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center F-term (reference) 5C059 LB11 MA05 MA19 MA23 MC11                       ME01 NN01 NN28 PP04 TA08                       TA29 TA50 TB07 TC00 TC03                       TC12 TD03 UA02 UA05 UA33                 5J064 AA01 BA13 BB03 BC01 BC08                       BC16 BC21 BC23 BC25 BD01

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】マクロブロック毎に複数の動画像フレーム
を参照する動き補償予測フレーム間符号化方法におい
て、 前記複数の参照フレームから複数の参照マクロブロック
を生成し、前記複数の参照マクロブロックの1つ、前記
複数の参照マクロブロックの平均値、或いは前記複数の
参照マクロブロックによる線形外挿予測または線形内挿
予測のいずれかを予測マクロブロックとして選択し、前
記選択された予測マクロブロックと符号化マクロブロッ
クとの予測誤差信号、予測モード情報及び動きベクトル
を符号化することを特徴とする動画像符号化方法。
1. A motion compensation predictive interframe coding method for referring to a plurality of moving picture frames for each macroblock, wherein a plurality of reference macroblocks are generated from the plurality of reference frames and one of the plurality of reference macroblocks is generated. One of the average values of the plurality of reference macroblocks or the linear extrapolation prediction or the linear interpolation prediction by the plurality of reference macroblocks is selected as a prediction macroblock, and the selected prediction macroblock is encoded. A moving picture coding method characterized by coding a prediction error signal with a macroblock, prediction mode information, and a motion vector.
【請求項2】前記複数の参照フレームは符号化対象フレ
ームの直前に符号化された2フレームであり、前記複数
の参照マクロブロックによる線形外挿予測において、直
前の参照フレームから生成した参照マクロブロック信号
の振幅を2倍にした信号から、さらにその1フレーム前
の参照フレームから生成した参照マクロブロック信号を
減じることにより、前記予測マクロブロックを生成する
ことを特徴とする請求項1記載の動画像符号化方法。
2. The plurality of reference frames are two frames coded immediately before a frame to be coded, and in the linear extrapolation prediction by the plurality of reference macroblocks, the reference macroblock generated from the immediately preceding reference frame. 2. The moving picture according to claim 1, wherein the prediction macroblock is generated by subtracting a reference macroblock signal generated from a reference frame that is one frame before the signal whose signal amplitude is doubled. Encoding method.
【請求項3】前記符号化される動きベクトルは、前記複
数の参照フレームのうち、特定の1つの参照フレームに
関する動きベクトルであることを特徴とする請求項1ま
たは2記載の動画像符号化方法。
3. The moving picture coding method according to claim 1, wherein the motion vector to be coded is a motion vector relating to a specific one reference frame among the plurality of reference frames. .
【請求項4】前記特定の1つの参照フレームに関する動
きベクトルは、前記参照フレームと符号化されるフレー
ムとのフレーム間距離に応じて正規化された動きベクト
ルであることを特徴とする請求項3記載の動画像符号化
方法。
4. The motion vector for the specific one reference frame is a motion vector normalized according to an inter-frame distance between the reference frame and a frame to be encoded. The described moving picture coding method.
【請求項5】前記符号化される動きベクトルは、前記複
数の参照フレームのうち、特定の1つの参照フレームに
関する第1の動きベクトルと、他の複数の参照フレーム
に対する複数の動きベクトルであり、前記複数の動きベ
クトルは、前記第1の動きベクトルを、符号化対象フレ
ームと前記複数の参照フレームとのフレーム間距離に応
じて、スケーリングした動きベクトルと、前記複数の動
きベクトルとの差分ベクトルとして符号化されることを
特徴とする請求項1または2記載の動画像符号化方法。
5. The encoded motion vector is a first motion vector related to a specific one reference frame among the plurality of reference frames and a plurality of motion vectors for other plurality of reference frames, The plurality of motion vectors is a difference vector between the motion vector obtained by scaling the first motion vector according to the inter-frame distance between the encoding target frame and the plurality of reference frames, and the plurality of motion vectors. The moving picture coding method according to claim 1, wherein the moving picture coding method is coded.
【請求項6】前記予測モードは、特定の1つの参照フレ
ームを利用した予測か、或いは複数の参照フレームを利
用した予測のいずれかを示す第1のフラグと、前記複数
の参照フレームを利用した予測が、複数の参照マクロブ
ロックの平均値による予測か、或いは複数の参照マクロ
ブロックの線形外挿或いは線形内挿による予測かを示す
第2フラグから構成され、前記第2のフラグが符号化フ
レームのヘッダデータ、または複数の符号化フレーム群
に対するヘッダデータに含まれることを特徴とする請求
項1ないし5のいずれか1項記載の動画像符号化方法。
6. The prediction mode uses a plurality of reference frames, and a first flag indicating either prediction using one specific reference frame or prediction using a plurality of reference frames. The prediction is composed of a second flag indicating whether the prediction is based on an average value of a plurality of reference macroblocks or a prediction based on linear extrapolation or linear interpolation of the plurality of reference macroblocks, and the second flag is a coded frame. 6. The moving picture coding method according to claim 1, wherein the moving picture coding method is included in the header data of 1. or the header data for a plurality of coding frame groups.
【請求項7】マクロブロック毎に複数の動画像フレーム
を参照する動き補償予測フレーム間符号化データの復号
化方法において、 符号化された動きベクトルデータ、予測モード情報及び
予測誤差信号を受信し、前記動きベクトル及び前記予測
モードに応じて、(a)前記複数の参照フレームのう
ち、特定の1フレームから予測マクロブロックを生成す
るか、(b)複数の参照フレームから複数の参照マクロ
ブロックを生成して前記の複数の参照マクロブロックの
平均値を予測マクロブロックとして生成するか、或いは
(c)前記複数の参照マクロブロックによる線形外挿予
測または線形内挿予測のいずれかから予測マクロブロッ
クを生成するかを選択し、前記生成された予測マクロブ
ロックと前記予測誤差信号を加算することを特徴とする
動画像復号化方法。
7. A method of decoding motion-compensated prediction interframe coded data, which refers to a plurality of moving picture frames for each macroblock, receives coded motion vector data, prediction mode information, and a prediction error signal, Depending on the motion vector and the prediction mode, (a) a prediction macroblock is generated from a specific one frame of the plurality of reference frames, or (b) a plurality of reference macroblocks is generated from a plurality of reference frames. And generate an average value of the plurality of reference macroblocks as a prediction macroblock, or (c) generate a prediction macroblock from either linear extrapolation prediction or linear interpolation prediction by the plurality of reference macroblocks. Whether or not to add the generated prediction macroblock and the prediction error signal. Image decoding method.
【請求項8】前記複数の参照フレームは、符号化対象フ
レームの直前に復号化された2フレームであり、前記複
数の参照マクロブロックによる線形外挿予測において、
直前の参照フレームから生成した参照マクロブロック信
号の振幅を2倍にした信号から、さらにその1フレーム
前の参照フレームから生成した参照マクロブロック信号
を減じることにより、前記予測マクロブロックを生成す
ることを特徴とする請求項7記載の動画像復号化方法。
8. The plurality of reference frames are two frames decoded immediately before a frame to be coded, and in linear extrapolation prediction using the plurality of reference macroblocks,
It is possible to generate the prediction macroblock by subtracting the reference macroblock signal generated from the reference frame one frame before from the signal obtained by doubling the amplitude of the reference macroblock signal generated from the immediately previous reference frame. The moving picture decoding method according to claim 7, characterized in that
【請求項9】前記受信した動きベクトルデータは、前記
複数の参照フレームのうち、特定の1つの参照フレーム
に関する動きベクトルであり、前記動きベクトルデータ
を復号化対象フレームと参照フレームとのフレーム間距
離に応じてスケール変換して、他の参照フレームに対す
る動きベクトルを生成することを特徴とする請求項7ま
たは8記載の動画像復号化方法。
9. The received motion vector data is a motion vector related to a specific one reference frame among the plurality of reference frames, and the motion vector data is an inter-frame distance between a decoding target frame and a reference frame. 9. The moving picture decoding method according to claim 7, wherein the scale conversion is performed according to the above to generate a motion vector for another reference frame.
【請求項10】前記受信した特定の1つの参照フレーム
に関する動きベクトルは、前記参照フレームと符号化さ
れるフレームとのフレーム間距離に応じて正規化された
動きベクトルであることを特徴とする請求項9記載の動
画像復号化方法。
10. The received motion vector for one specific reference frame is a motion vector normalized according to an inter-frame distance between the reference frame and a frame to be encoded. Item 10. The moving picture decoding method according to Item 9.
【請求項11】前記受信した動きベクトルデータは、前
記複数の参照フレームのうち、特定の1つの参照フレー
ムに関する動きベクトルと、他の参照フレームに関する
差分ベクトルであり、前記動きベクトルデータを復号化
対象フレームと参照フレームとのフレーム間距離に応じ
てスケール変換し、前記差分ベクトルと加算すること
で、前記複数の参照フレームのうち前記特定の1フレー
ム以外の参照フレームに関する動きベクトルを生成する
ことを特徴とする請求項7または8記載の動画像復号化
方法。
11. The received motion vector data is a motion vector related to a specific one reference frame among the plurality of reference frames and a difference vector related to another reference frame, and the motion vector data is to be decoded. Scale conversion is performed according to an inter-frame distance between a frame and a reference frame, and the difference vector is added to generate a motion vector related to a reference frame other than the specific one frame among the plurality of reference frames. The moving picture decoding method according to claim 7 or 8.
【請求項12】前記受信した予測モードは、特定の1つ
の参照フレームを利用した予測か、或いは複数の参照フ
レームを利用した予測のいずれかを示す第1のフラグ
と、前記複数の参照フレームを利用した予測は、複数の
参照マクロブロックの平均値による予測か、或いは複数
の参照マクロブロックの線形外挿或いは線形内挿による
予測かを示す第2フラグから構成され、前記第2フラグ
が符号化フレームのヘッダデータまたは複数の符号化フ
レーム群に対するヘッダデータの一部として受信される
ことを特徴とする請求項7乃至11のいずれか1項記載
の動画像復号化方法。
12. The received prediction mode includes a first flag indicating either prediction using one specific reference frame or prediction using a plurality of reference frames, and the plurality of reference frames. The used prediction is composed of a second flag indicating whether the prediction is an average value of a plurality of reference macroblocks or a prediction by linear extrapolation or linear interpolation of a plurality of reference macroblocks, and the second flag is encoded. 12. The moving picture decoding method according to claim 7, wherein the moving picture decoding method is received as a part of header data of a frame or header data for a plurality of encoded frame groups.
【請求項13】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化方法におい
て、 前記複数の参照フレームからの線形予測により予測マク
ロブロックを生成し、前記予測マクロブロックと符号化
マクロブロックとの予測誤差信号及び動きベクトルをマ
クロブロック毎に符号化し、前記線形予測の予測係数の
組をフレーム毎に符号化することを特徴とする動画像符
号化方法。
13. A motion compensation predictive interframe coding method for referring to a plurality of moving picture frames for each macroblock, wherein a predictive macroblock is generated by linear prediction from the plurality of reference frames, and the predictive macroblock and the code are generated. A motion picture coding method, wherein a prediction error signal and a motion vector with a coded macroblock are coded for each macroblock, and the set of prediction coefficients for linear prediction is coded for each frame.
【請求項14】前記複数の参照フレームは、符号化対象
フレームより時間的に過去のフレームであることを特徴
とする請求項13記載の動画像符号化方法。
14. The moving picture coding method according to claim 13, wherein the plurality of reference frames are frames temporally past the coding target frame.
【請求項15】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化データの復
号化方法において、 マクロブロック毎に符号化された動きベクトルデータ及
び予測誤差信号と、フレーム毎に符号化された予測係数
の組を受信し、前記動きベクトル及び予測係数に応じて
前記複数の参照フレームから予測マクロブロックを生成
し、前記生成された予測マクロブロックと前記予測誤差
信号を加算することを特徴とする動画像復号化方法。
15. A method of decoding motion-compensated inter-frame coded data that refers to a plurality of moving picture frames for each macroblock, comprising: motion vector data and prediction error signals coded for each macroblock; A prediction macroblock is generated from the plurality of reference frames according to the motion vector and the prediction coefficient, and the generated prediction macroblock and the prediction error signal are added. A moving picture decoding method characterized by the above.
【請求項16】前記複数の参照フレームは、符号化対象
フレームより時間的に過去のフレームであることを特徴
とする請求項15記載の動画像復号化方法。
16. The moving picture decoding method according to claim 15, wherein the plurality of reference frames are frames temporally past the frame to be coded.
【請求項17】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化装置におい
て、 前記複数の参照フレームから複数の参照マクロブロック
を生成する手段と、 前記複数の参照マクロブロックの1つ、前記複数の参照
マクロブロックの平均値、或いは前記複数の参照マクロ
ブロックによる線形外挿予測または線形内挿予測のいず
れかを予測マクロブロックとして選択する手段と、 前記選択された予測マクロブロックと符号化マクロブロ
ックとの予測誤差信号、予測モード情報及び動きベクト
ルを符号化する手段とを具備することを特徴とする動画
像符号化装置。
17. A motion compensation predictive interframe coding apparatus for referring to a plurality of moving picture frames for each macroblock, a unit for generating a plurality of reference macroblocks from the plurality of reference frames, and the plurality of reference macroblocks. One of the plurality of reference macroblocks, or means for selecting either linear extrapolation prediction or linear interpolation prediction by the plurality of reference macroblocks as a prediction macroblock, and the selected prediction macro A moving picture coding apparatus, comprising: a prediction error signal between a block and a coding macroblock; prediction mode information; and means for coding a motion vector.
【請求項18】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化データの復
号化装置において、 符号化された動きベクトルデータ、予測モード情報及び
予測誤差信号を受信する手段と、 前記受信された動きベクトル及び前記予測モードに応じ
て、(a)前記複数の参照フレームのうち特定の1フレ
ームから予測マクロブロックを生成するか、(b)複数
の参照フレームから複数の参照マクロブロックを生成し
て前記複数の参照マクロブロックの平均値を予測マクロ
ブロックとして生成するか、或いは(c)前記複数の参
照マクロブロックによる線形外挿予測または線形内挿予
測のいずれかから予測マクロブロックを生成するかを選
択する手段と、 前記生成された予測マクロブロックと前記予測誤差信号
を加算する手段とを具備することを特徴とする動画像復
号化装置。
18. A device for decoding motion-compensated inter-frame coded data, which refers to a plurality of moving picture frames for each macroblock, means for receiving coded motion vector data, prediction mode information and prediction error signals. And (a) generating a prediction macroblock from a specific one frame of the plurality of reference frames, or (b) making a plurality of references from a plurality of reference frames, according to the received motion vector and the prediction mode. A macroblock is generated and an average value of the plurality of reference macroblocks is generated as a prediction macroblock, or (c) a prediction macro is performed from either linear extrapolation prediction or linear interpolation prediction by the plurality of reference macroblocks. Means for selecting whether to generate a block, and the generated prediction macroblock and the prediction error signal Video decoding apparatus characterized by comprising a means for calculation.
【請求項19】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化装置におい
て、 前記複数の参照フレームからの線形予測により予測マク
ロブロックを生成する手段と、 前記予測マクロブロックと符号化マクロブロックとの予
測誤差信号及び動きベクトルをマクロブロック毎に符号
化する手段と、 前記線形予測の予測係数の組をフレーム毎に符号化する
手段とを具備することを特徴とする動画像符号化装置。
19. A motion compensation predictive interframe coding apparatus for referring to a plurality of moving picture frames for each macroblock, a means for generating a predictive macroblock by linear prediction from the plurality of reference frames, and the predictive macroblock. A moving image comprising means for encoding a prediction error signal and a motion vector of a macroblock and an encoded macroblock for each macroblock, and means for encoding a set of prediction coefficients for the linear prediction for each frame. Image coding device.
【請求項20】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化データの復
号化装置において、 マクロブロック毎に符号化された動きベクトルデータ及
び予測誤差信号と、フレーム毎に符号化された予測係数
の組を受信する手段と、 前記受信された動きベクトル及び予測係数に応じて、前
記複数の参照フレームから予測マクロブロックを生成す
る手段と、 前記生成された予測マクロブロックと前記予測誤差信号
を加算する手段とを具備することを特徴とする動画像復
号化装置。
20. A motion compensation predictive inter-frame coded data decoding apparatus that refers to a plurality of moving picture frames for each macroblock, wherein motion vector data and prediction error signals coded for each macroblock, and each frame. Means for receiving a set of prediction coefficients coded into, a means for generating a prediction macroblock from the plurality of reference frames according to the received motion vector and prediction coefficient, and the generated prediction macroblock And a means for adding the prediction error signal, the moving picture decoding apparatus.
【請求項21】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化処理をコン
ピュータに行わせるためのプログラムにおいて、 前記複数の参照フレームから複数の参照マクロブロック
を生成する処理と、 前記複数の参照マクロブロックの1つ、前記複数の参照
マクロブロックの平均値、或いは前記複数の参照マクロ
ブロックによる線形外挿予測または線形内挿予測のいず
れかを予測マクロブロックとして選択する処理と、 前記選択された予測マクロブロックと符号化マクロブロ
ックとの予測誤差信号、予測モード情報及び動きベクト
ルを符号化する処理とを前記コンピュータに行わせるた
めのプログラム。
21. A program for causing a computer to perform a motion-compensated inter-frame coding process for referring to a plurality of moving picture frames for each macro block, the process of generating a plurality of reference macro blocks from the plurality of reference frames. And a process of selecting one of the plurality of reference macroblocks, an average value of the plurality of reference macroblocks, or either linear extrapolation prediction or linear interpolation prediction by the plurality of reference macroblocks as a prediction macroblock. And a program for causing the computer to perform a process of encoding a prediction error signal between the selected prediction macroblock and the coding macroblock, prediction mode information, and a motion vector.
【請求項22】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化データの復
号化処理をコンピュータに行わせるためのプログラムに
おいて、 符号化された動きベクトルデータ、予測モード情報及び
予測誤差信号を受信する処理と、 前記受信された動きベクトル及び前記予測モードに応じ
て、(a)前記複数の参照フレームのうち特定の1フレ
ームから予測マクロブロックを生成するか、(b)複数
の参照フレームから複数の参照マクロブロックを生成し
て前記複数の参照マクロブロックの平均値を予測マクロ
ブロックとして生成するか、或いは(c)前記複数の参
照マクロブロックによる線形外挿予測または線形内挿予
測のいずれかから予測マクロブロックを生成するかを選
択する処理と、 前記生成された予測マクロブロックと前記予測誤差信号
を加算する処理とを前記コンピュータに行わせるための
プログラム。
22. A program for causing a computer to perform a decoding process of motion-compensated prediction interframe coded data, which refers to a plurality of moving picture frames for each macroblock, wherein coded motion vector data and prediction mode information are included. And a process of receiving a prediction error signal, and (a) generating a prediction macroblock from a specific one frame of the plurality of reference frames according to the received motion vector and the prediction mode, or (b) A plurality of reference macroblocks are generated from a plurality of reference frames and an average value of the plurality of reference macroblocks is generated as a prediction macroblock, or (c) linear extrapolation prediction or linear intra prediction by the plurality of reference macroblocks. A process of selecting whether to generate a prediction macroblock from any of the insertion predictions; Program for causing a processing for adding the prediction error signal and the prediction macro block to the computer.
【請求項23】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化処理をコン
ピュータに行わせるためのプログラムにおいて、 前記複数の参照フレームからの線形予測により予測マク
ロブロックを生成する処理と、 前記予測マクロブロックと符号化マクロブロックとの予
測誤差信号及び動きベクトルをマクロブロック毎に符号
化する処理と、 前記線形予測の予測係数の組をフレーム毎に符号化する
処理とを前記コンピュータに行わせるためのプログラ
ム。
23. A program for causing a computer to perform a motion-compensated prediction interframe coding process for referring to a plurality of moving picture frames for each macroblock, wherein a prediction macroblock is generated by linear prediction from the plurality of reference frames. Processing, a process of coding the prediction error signal and the motion vector of the prediction macroblock and the coding macroblock for each macroblock, and a process of coding the set of prediction coefficients of the linear prediction for each frame. A program to be executed by the computer.
【請求項24】マクロブロック毎に複数の動画像フレー
ムを参照する動き補償予測フレーム間符号化データの復
号化処理をコンピュータに行わせるためのプログラムに
おいて、 マクロブロック毎に符号化された動きベクトルデータ及
び予測誤差信号と、フレーム毎に符号化された予測係数
の組を受信する処理と、 前記受信された動きベクトル及び予測係数に応じて、前
記複数の参照フレームから予測マクロブロックを生成す
る処理と、 前記生成された予測マクロブロックと前記予測誤差信号
を加算する処理とを前記コンピュータに行わせるための
プログラム。
24. A program for causing a computer to perform a decoding process of motion-compensated prediction interframe coded data that refers to a plurality of moving picture frames for each macroblock, wherein motion vector data coded for each macroblock. And a process of receiving a prediction error signal and a set of prediction coefficients coded for each frame, and a process of generating a prediction macroblock from the plurality of reference frames according to the received motion vector and prediction coefficient. A program for causing the computer to perform the process of adding the generated prediction macroblock and the prediction error signal.
【請求項25】入力動画像の符号化対象フレームに含ま
れる符号化対象ブロック毎に、少なくとも一つの参照フ
レームを用いて動き補償予測フレーム間符号化を行う動
画像符号化方法において、 単一の参照フレームから予測ブロック信号を生成する第
1の予測ブロック生成モード、及び複数の参照フレーム
から切り出した複数の参照ブロックの線形和予測により
前記予測ブロック信号を生成する第2の予測ブロック生
成モードのいずれかを符号化ブロック毎に選択するステ
ップと、 選択された前記予測ブロック信号と前記符号化対象ブロ
ックの信号との差分信号を符号化するステップと、 前記線形和予測を前記複数の参照ブロックの平均値予測
とするか、あるいは前記複数の参照フレーム及び前記符
号化対象フレームの表示時刻に基づく線形補間予測とす
るかを前記符号化対象フレーム内の複数の画素ブロック
毎または前記符号化対象フレーム毎に選択するステップ
と、 前記予測ブロック信号の生成時に前記第1及び第2の予
測ブロック生成モードのいずれが選択されたかを示す第
1の符号化モード情報を前記符号化対象ブロック毎また
は複数の前記符号化対象ブロック毎に符号化するステッ
プと、 前記線形和予測に前記平均値予測及び前記線形補間予測
のいずれが選択されたかを示す第2の符号化モード情報
を前記符号化対象フレームの複数の画素ブロック毎ある
いは前記符号化対象フレーム毎に符号化するステップと
を具備する動画像符号化方法。
25. A moving picture coding method for performing motion compensation prediction interframe coding using at least one reference frame for each coding target block included in a coding target frame of an input moving picture, One of a first prediction block generation mode for generating a prediction block signal from a reference frame and a second prediction block generation mode for generating the prediction block signal by linear sum prediction of a plurality of reference blocks cut out from a plurality of reference frames Selecting for each coding block, coding a differential signal between the selected prediction block signal and the signal of the coding target block, and performing the linear sum prediction on the average of the plurality of reference blocks. A line based on the display time of the plurality of reference frames and the encoding target frame, which is used as the value prediction Selecting for each of a plurality of pixel blocks in the encoding target frame or for each of the encoding target frames, whether to perform interpolation prediction; and in the first and second prediction block generation modes when generating the prediction block signal. Encoding first encoding mode information indicating which is selected for each of the encoding target blocks or for each of the plurality of encoding target blocks; and the average value prediction and the linear interpolation in the linear sum prediction. And a second encoding mode information indicating which one of the predictions is selected, for each of a plurality of pixel blocks of the encoding target frame or for each of the encoding target frames.
【請求項26】動画像の復号化対象フレームに含まれる
復号化対象ブロック毎に、少なくとも一つの参照フレー
ムを用いて動き補償予測フレーム間復号化を行う動画像
復号化方法において、 予測ブロック信号に対する前記復号化対象ブロックの信
号の予測誤差信号を復号化するステップと、 符号化側における予測ブロック信号の生成時に、単一の
参照フレームから予測ブロック信号を生成する第1の予
測ブロック生成モード、及び複数の参照フレームから切
り出した複数の参照ブロックの線形和予測により前記予
測ブロック信号を生成する第2の予測ブロック生成モー
ドのいずれが選択されたかを示す第1の符号化モード情
報を前記復号化対象ブロック毎または複数の前記復号化
対象ブロック毎に受信して復号化するステップと、 前記線形和予測に前記複数の参照ブロックの平均値予
測、あるいは前記複数の参照フレーム及び前記符号化対
象フレームの表示時刻に基づく線形補間予測のいずれが
選択されたかを示す第2の符号化モード情報を前記復号
化対象フレームの複数の画素ブロック毎あるいは前記復
号化対象フレーム毎に受信して復号化するステップと、 復号化された前記第1の符号化モード情報及び第2の符
号化モード情報に従って前記予測ブロック信号を生成す
るステップと、 生成された前記予測ブロック信号及び前記復号された予
測誤差信号を用いて再生動画像信号を生成するステップ
とを具備する動画像復号化方法。
26. A moving picture decoding method for performing motion compensation prediction inter-frame decoding using at least one reference frame for each decoding target block included in a decoding target frame of a moving picture, Decoding a prediction error signal of the signal of the block to be decoded, a first prediction block generation mode for generating a prediction block signal from a single reference frame when generating a prediction block signal on the encoding side, and The first coding mode information indicating which of the second prediction block generation modes for generating the prediction block signal is selected by the linear sum prediction of the plurality of reference blocks cut out from the plurality of reference frames is the decoding target. Receiving and decoding for each block or for each of the plurality of decoding target blocks; The second coding mode information indicating which of the average value prediction of the plurality of reference blocks or the linear interpolation prediction based on the display times of the plurality of reference frames and the encoding target frame is selected for prediction is decoded. Receiving and decoding for each of a plurality of pixel blocks of the target frame for decoding or for each of the target frame for decoding, the prediction block according to the decoded first coding mode information and second coding mode information A moving image decoding method comprising: a signal generating step; and a reproduced moving image signal generating step using the generated prediction block signal and the decoded prediction error signal.
JP2002341238A 2002-01-18 2002-11-25 Method and apparatus for coding moving image, and method and apparatus for decoding Pending JP2003284075A (en)

Priority Applications (66)

Application Number Priority Date Filing Date Title
JP2002341238A JP2003284075A (en) 2002-01-18 2002-11-25 Method and apparatus for coding moving image, and method and apparatus for decoding
CA002574127A CA2574127A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020149A KR100746316B1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus
CA002574126A CA2574126A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
AU2003203270A AU2003203270B2 (en) 2002-01-18 2003-01-20 Moving picture coding method and apparatus and decoding method and apparatus
CNA2006101087243A CN1897709A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNA2006101087224A CN1897707A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNA2006101087154A CN1897701A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020152A KR20060111734A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus
KR1020067020150A KR100746317B1 (en) 2002-01-18 2003-01-20 Video decoding method and apparatus
CA002574444A CA2574444A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNA2006101087173A CN1897703A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020148A KR100746315B1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020154A KR20060111735A (en) 2002-01-18 2003-01-20 Video decoding method and apparatus
CNA2006101087169A CN1897702A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CA002574047A CA2574047C (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNA2006101087205A CN1897705A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
PCT/JP2003/000425 WO2003063502A1 (en) 2002-01-18 2003-01-20 Moving picture coding method and apparatus and decoding method and apparatus
EP07006860A EP1830578A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020151A KR100746318B1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
MXPA03007999A MXPA03007999A (en) 2002-01-18 2003-01-20 Moving picture coding method and apparatus and decoding method and apparatus.
EP07007023A EP1827025A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067007990A KR100746314B1 (en) 2002-01-18 2003-01-20 Moving picture decoding method and apparatus
EP07008839A EP1827029A1 (en) 2002-01-18 2003-01-20 Video decoding method and apparatus
CA002440380A CA2440380C (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
SG200808505-2A SG162623A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
EP07007025A EP1827027A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
BR0302719-8A BR0302719A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
EP07006858A EP1830576A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNB038001608A CN1272967C (en) 2002-01-18 2003-01-20 Video coding method and apparatus and decoding method and apparatus
CNA2006101087192A CN1897704A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNA2006101087239A CN1897708A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020037012852A KR100628489B1 (en) 2002-01-18 2003-01-20 Moving picture coding method and apparatus and computer readable medium
EP03701799A EP1467569A4 (en) 2002-01-18 2003-01-20 Moving picture coding method and apparatus and decoding method and apparatus
CA002574110A CA2574110A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
EP07008497A EP1830580A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNA200610108721XA CN1897706A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
EP07006862A EP1830579A1 (en) 2002-01-18 2003-01-20 Video decoding method and apparatus
KR1020067020153A KR100746319B1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
CNA200610108714XA CN1917641A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020147A KR20060107863A (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020156A KR100746321B1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
KR1020067020155A KR100746320B1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
EP07006861A EP1833261A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
SG200506433-2A SG152047A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
EP07007024A EP1827026A1 (en) 2002-01-18 2003-01-20 Video decoding method and apparatus
EP07006859A EP1830577A1 (en) 2002-01-18 2003-01-20 Video decoding method and apparatus
EP07006863A EP1833262A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
EP07008667A EP1827028A1 (en) 2002-01-18 2003-01-20 Video encoding method and apparatus and video decoding method and apparatus
NO20034138A NO20034138L (en) 2002-01-18 2003-09-17 Video coding and decoding apparatus and apparatus
US10/665,001 US20040057523A1 (en) 2002-01-18 2003-09-22 Video encoding method and apparatus and video decoding method and apparatus
AU2006202472A AU2006202472A1 (en) 2002-01-18 2006-06-09 Video encoding method and video decoding method
US11/535,906 US20070036221A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/535,922 US20070030910A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/535,796 US20070030907A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/527,471 US20070019727A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/535,856 US20070036216A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/527,470 US20070019736A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/535,894 US20070036220A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/535,862 US20070030908A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/535,821 US20070086526A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/527,469 US20070019735A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/535,908 US20070030909A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/527,702 US20070014366A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/527,557 US20070019728A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus
US11/527,612 US20070019737A1 (en) 2002-01-18 2006-09-27 Video encoding method and apparatus and video decoding method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002010874 2002-01-18
JP2002-10874 2002-01-18
JP2002341238A JP2003284075A (en) 2002-01-18 2002-11-25 Method and apparatus for coding moving image, and method and apparatus for decoding

Related Child Applications (12)

Application Number Title Priority Date Filing Date
JP2006282037A Division JP2007060698A (en) 2002-01-18 2006-10-16 Moving picture decoding method, apparatus, and program
JP2006282041A Division JP2007060702A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2006282040A Division JP2007060701A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2006282039A Division JP2007060700A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2006282044A Division JP2007060705A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2006282036A Division JP2007060697A (en) 2002-01-18 2006-10-16 Moving picture decoding method, apparatus, and program
JP2006282043A Division JP2007060704A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2006282042A Division JP2007060703A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2006282034A Division JP2007060695A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2006282035A Division JP2007060696A (en) 2002-01-18 2006-10-16 Moving picture decoding method, apparatus, and program
JP2006282038A Division JP2007060699A (en) 2002-01-18 2006-10-16 Moving picture coding method, apparatus, and program
JP2007128291A Division JP2007259484A (en) 2002-01-18 2007-05-14 Video encoding method and apparatus, and video decoding method and apparatus

Publications (1)

Publication Number Publication Date
JP2003284075A true JP2003284075A (en) 2003-10-03

Family

ID=29253027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002341238A Pending JP2003284075A (en) 2002-01-18 2002-11-25 Method and apparatus for coding moving image, and method and apparatus for decoding

Country Status (1)

Country Link
JP (1) JP2003284075A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303942A (en) * 2004-04-16 2005-10-27 Kddi Corp Motion forecast information detection device
JP2006332950A (en) * 2005-05-25 2006-12-07 Nippon Hoso Kyokai <Nhk> Device for interpolated image generation by bidirectional moving vector, and program
KR100694058B1 (en) 2004-09-30 2007-03-12 삼성전자주식회사 Method and apparatus for encoding and decoding in intra mode based on multi time scan
KR100742762B1 (en) * 2004-08-16 2007-07-25 케이디디아이 가부시키가이샤 Detector for predicting of movement
JP2008206211A (en) * 2008-06-02 2008-09-04 Toshiba Corp Dynamic image encoding/decoding method and device
JP2010509800A (en) * 2006-11-03 2010-03-25 サムスン エレクトロニクス カンパニー リミテッド Video encoding / decoding method and apparatus using motion vector tracking
US7702017B2 (en) 2004-04-16 2010-04-20 Ntt Docomo, Inc. Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP2010233263A (en) * 2010-07-12 2010-10-14 Sony Corp Device and method of image processing, program and recording medium
JP2010288182A (en) * 2009-06-15 2010-12-24 Victor Co Of Japan Ltd Moving image decoding method, moving image decoding apparatus, and moving image decoding program
JP2010288181A (en) * 2009-06-15 2010-12-24 Victor Co Of Japan Ltd Moving image encoding method, moving image encoding apparatus, and moving image encoding program
US8432964B2 (en) 2006-07-14 2013-04-30 Sony Corporation Image processing device, method, and program
KR101356734B1 (en) * 2007-01-03 2014-02-05 삼성전자주식회사 Method and apparatus for video encoding, and method and apparatus for video decoding using motion vector tracking
JP2019004300A (en) * 2017-06-14 2019-01-10 日本電信電話株式会社 Data number determination apparatus, data number determination method, and data number determination program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8243802B2 (en) 2004-04-16 2012-08-14 Ntt Docomo, Inc. Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP2005303942A (en) * 2004-04-16 2005-10-27 Kddi Corp Motion forecast information detection device
US7702017B2 (en) 2004-04-16 2010-04-20 Ntt Docomo, Inc. Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
KR100742762B1 (en) * 2004-08-16 2007-07-25 케이디디아이 가부시키가이샤 Detector for predicting of movement
KR100694058B1 (en) 2004-09-30 2007-03-12 삼성전자주식회사 Method and apparatus for encoding and decoding in intra mode based on multi time scan
JP2006332950A (en) * 2005-05-25 2006-12-07 Nippon Hoso Kyokai <Nhk> Device for interpolated image generation by bidirectional moving vector, and program
JP4658686B2 (en) * 2005-05-25 2011-03-23 日本放送協会 Interpolated image generation apparatus and program based on bidirectional motion vector detection
US9077968B2 (en) 2006-07-14 2015-07-07 Sony Corporation Image processing apparatus and method, and program
US8432964B2 (en) 2006-07-14 2013-04-30 Sony Corporation Image processing device, method, and program
JP2010509800A (en) * 2006-11-03 2010-03-25 サムスン エレクトロニクス カンパニー リミテッド Video encoding / decoding method and apparatus using motion vector tracking
KR101356734B1 (en) * 2007-01-03 2014-02-05 삼성전자주식회사 Method and apparatus for video encoding, and method and apparatus for video decoding using motion vector tracking
JP2008206211A (en) * 2008-06-02 2008-09-04 Toshiba Corp Dynamic image encoding/decoding method and device
JP2010288181A (en) * 2009-06-15 2010-12-24 Victor Co Of Japan Ltd Moving image encoding method, moving image encoding apparatus, and moving image encoding program
JP2010288182A (en) * 2009-06-15 2010-12-24 Victor Co Of Japan Ltd Moving image decoding method, moving image decoding apparatus, and moving image decoding program
JP2010233263A (en) * 2010-07-12 2010-10-14 Sony Corp Device and method of image processing, program and recording medium
JP2019004300A (en) * 2017-06-14 2019-01-10 日本電信電話株式会社 Data number determination apparatus, data number determination method, and data number determination program

Similar Documents

Publication Publication Date Title
KR100746316B1 (en) Video encoding method and apparatus
JP2004007379A (en) Method for encoding moving image and method for decoding moving image
JP2007060688A (en) Moving picture decoding method and apparatus
JP2003284075A (en) Method and apparatus for coding moving image, and method and apparatus for decoding
JP2007259484A (en) Video encoding method and apparatus, and video decoding method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070313