JP3843160B2 - Video predictive coding method - Google Patents

Video predictive coding method Download PDF

Info

Publication number
JP3843160B2
JP3843160B2 JP6309197A JP6309197A JP3843160B2 JP 3843160 B2 JP3843160 B2 JP 3843160B2 JP 6309197 A JP6309197 A JP 6309197A JP 6309197 A JP6309197 A JP 6309197A JP 3843160 B2 JP3843160 B2 JP 3843160B2
Authority
JP
Japan
Prior art keywords
prediction
prediction error
error
prediction method
motion compensation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP6309197A
Other languages
Japanese (ja)
Other versions
JPH10262253A (en
Inventor
淳 清水
裕 渡辺
淳 嵯峨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6309197A priority Critical patent/JP3843160B2/en
Publication of JPH10262253A publication Critical patent/JPH10262253A/en
Application granted granted Critical
Publication of JP3843160B2 publication Critical patent/JP3843160B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Description

【0001】
【発明の属する技術分野】
本発明は、動画像符号化の動き補償予測方法の選択方法に関する。
【0002】
【従来の技術】
動画像符号化において、時間方向の冗長性を削減するために、符号化済みのフレームを予測信号とする予測符号化方法が知られている。この時間方向予測の予測効率を高めるため、動き補償を行った画像信号を予測信号とし予測を行う動き補償予測方法がよく用いられる。動き補償予測方法は、動きベクトルを復号側に伝送する必要があり、各動き補償予測方法ごとに予測効率や動きベクトル数は異なる。例として、各動き補償予測方法の予測効率と動きベクトル数を表1に示す。この表の動きベクトル数は、小ブロック当たりの数を示している。また、動き補償オフの予測は、(0,0)の動きベクトルでの動き補償に相当する。
【0003】
【表1】

Figure 0003843160
【0004】
動き補償を行わない場合、予測効率は悪いものの、動きベクトルなどによるオーバヘッドはない。逆に、小ブロックを4つのブロックに分割し、双方向予測を行う場合は、予測効率は高いが、動きベクトルや動き補償予測方法を示す情報によるオーバヘッドが大きくなることがわかる。
【0005】
一般的な動画像符号化方法では、複数の動き補償予測方法を装置に実装し、符号化効率に基づき動き補償予測方法を適応的に切り替えている。例えば、MPEG1では、ブロックサズ16×16の片方向/双方向動き補償予測(図5)を行い、小ブロック単位に片方向動き補償予測または双方向動き補償予測に適応的に切り替えることができる。
【0006】
符号化効率向上のため、動き補償予測方法の選択には、その動き補償予測効率の高さだけでなく、オーバヘッドを考慮する必要がある。予測効率が高い予測方法でも、オーバヘッドの大きさにより、その効果は相殺される可能性があり、符号化効率の低下を招く場合もある。
【0007】
そこで、以下の手順により予測方法を選択する。
1.各予測方法の予測誤差を算出する。
2.各予測方法のオーバヘッドのサイズに基づき、それぞれの予測誤差から経験的に得られた値(補正値)を加えまたは減じ、新たな予測誤差とする。
3.各予測方法の予測誤差の中から最小予測誤差を検出し、最小予測誤差の予測方法を用いて符号化対象小ブロックの予測を行う。
【0008】
上記の選択方法の補正値は、オーバヘッドが小さい方法ほど予測誤差が小さくなるように設定する。例えば、補正値を予測誤差から減じる場合、オーバヘッドが少ない方法ほど大きな値を設定する。補正値を予測誤差に加える場合は、オーバヘッドが大きい方法ほど大きな値を設定する。
【0009】
例として、動きベクトル数がそれぞれ0,1,2の3種類の予測方法から予測方法を選択し、予測誤差に補正値を加える場合を示す。各方法の予測誤差に加える補正値Bi (i=0,1,2)は、以下の関係式で表すことができる。
【0010】
0 ≦B1 ≦B2 ・・・(1)
各予測方法のオーバヘッドを考慮しない場合は、上式の等号が成り立つ。各予測方法で算出された予測誤差Egi と補正値Bi 、予測方法決定に用いる予測誤差Eni は次式から算出される。
【0011】
Eni =Egi +Bi ・・・・・(2)
上式により補正した予測誤差Eni から最小予測誤差を検出し、予測方法を決定する。
【0012】
このような方法によれば、動き補償予測の効率を低下させることなく、オーバヘッドを抑えることができる。
【0013】
【発明が解決しようとする課題】
MPEG1などの一般的な動画像符号化方法では、動き補償予測の予測誤差信号に対し直交変換を行い、直交変換係数を量子化後、可変長符号化を行う。量子化を行う際の量子化ステップは目標伝送レートなどから決定される。量子化ステップが大きい場合は粗く量子化され、小さい場合は細かく量子化される。
【0014】
ここで、予測誤差信号と量子化ステップの関係について考える。細かく量子化を行う場合、予測誤差が小さいほど量子化後の直交変換係数が小さくなるため、予測誤差が最小となる予測方法を選択することで発生情報量を抑えることができる。また、量子化が粗くなると、各予測方法間の予測誤差の差は、量子化後の直交変換係数の符号量の増加につながる可能性は少ない。したがって、動き補償によるオーバヘッドが少ない方法を選択することにより、全体の発生情報量が減少する可能性がある。
【0015】
表2、表3に例を示す。この例では、予測方法AおよびBは、それぞれ異なる予測方法とする。それぞれ予測方法の予測誤差信号を細かく量子化した場合(ここでは、量子化ステップ2)、予測方法Aの方が量子化後の予測誤差小さくなっている。しかし、粗く量子化した場合(ここでは、量子化ステップ10)、両者の予測誤差信号は等しくなっている。この例からわかるように最小予測誤差となる予測方法が常によいとは限らず、各予測方法のオーバヘッドと量子化ステップによって最適な予測方法は変化する。
【0016】
【表2】
Figure 0003843160
【0017】
【表3】
Figure 0003843160
【0018】
従来の方法では、各動き補償方法の予測誤差に加える補正値は、経験的に求められたものであり、常に一定である。このため、量子化ステップに応じた適切な補正値が用いられるとは限らない。その結果、量子化ステップが小さいときに予測誤差の大きい予測方法が選択される場合や、量子化ステップが大きいときに動きベクトルなどによるオーバヘッドが大きくなる場合があり、全体の発生情報量が増加するという問題点があった。
【0019】
本発明の目的は、予測符号化によるオーバヘッドを低減することにより発生情報量を抑える動画像予測符号化方法を提供することである。
【0020】
【課題を解決するための手段】
本発明の動画像予測符号化方法は、動画像シーケンスを符号化する際、符号化対象フレームを小ブロックに分割し、符号化対象小ブロックごとに複数の予測方法から1つの予測方法を選択可能な動画像予測符号化方法において、符号化対象小ブロックごとに複数の予測方法の中から1つの予測方法を選択する際、各予測方法で予測誤差から最小予測誤差を検出した後、符号化対象小ブロックの量子化に適用する量子化ステップの大きさから予測方法の候補を選出するために前記最小予測誤差に対し予測誤差の許容範囲を算出し、その許容範囲内の予測誤差となる予測方法から最小オーバヘッドの予測方法を選択する。
【0024】
したがって、予測誤差信号による発生情報量を増加させることなく、動きベクトルなどによるオーバヘッドを減少させることができる。
【0025】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0026】
図1は本発明の第1の実施形態(請求項1に対応)を示す流れ図である。本実施形態では、動き補償なしの予測誤差が、量子化ステップから求められる閾値より小さい場合、他の動き補償予測方法の予測誤差に関係なく、動き補償予測をオフとする。動き補償オンの場合は、予測方法の選択を行う。
1.動き補償なしの予測誤差Eg0 を算出する(ステップ11)。
2.符号化対象小ブロックの量子化ステップQを算出する(ステップ12)。
3.量子化ステップQから閾値Thを次式により算出する(ステップ13)。
Th=t(Q)・・・・・(3)
4.予測誤差Eg0が、次式を満たす場合、動き補償をオフとする(ステップ14、15)。
Eg0 ≦Th・・・・・・(4)
5.予測誤差Eg0 が上式を満たさない場合は、動き補償予測方法の選択を行う(ステップ14、16)。
【0027】
図2は本発明の第2の実施の形態(請求項3に対応)を示す流れ図である。
【0028】
本実施形態では、実装されたN種類の予測方法の中で最小予測誤差に対して、量子化ステップより予測誤差の許容範囲を求め、許容範囲内で最小オーバヘッドの予測方法を採用する。
【0029】
1.実装されている複数の予測方法で予測誤差Egi (i=1,2,・・・,N)を算出する(ステップ21)。
2.予測誤差Egi から最小予測誤差Egmin を算出する(ステップ22)。
3.符号化対象小ブロックの量子化ステップQを算出する(ステップ23)。
4.量子化ステップQから許容範囲Tを次式により算出する(ステップ24)。
T=f(Q)・・・・(5)
5.各予測方法の予測誤差Egi で、次式を満たす予測方法を検出する(ステップ25)。図4(a)の例では、N種類の予測方法から、予測誤差Egi が許容範囲T内に存在する5つの予測方法を候補として選択する。
Egi ≦Egmin +T・・・(6)
6.検出した予測方法の中でオーバヘッドが最も小さい予測方法を符号化対象小ブロックの予測方法として決定する(ステップ26)。図4(b)は図4(a)で選ばれた5つの候補のうち、オーバヘッドの大きさが最も小さい予測方法が選択されることを示している。
【0030】
図3は本発明の第3の実施の形態(請求項4に対応)を示す流れ図である。
【0031】
本実施形態では、実装されたN種類の予測方法の予測誤差に対して、量子化ステップと各予測方法のオーバヘッドより各予測方法の補正値を求め、補正後の予測誤差が最小となる予測方法を採用する。
【0032】
1.実装されている複数の予測方法で予測誤差Egi (i=1,2,・・・,N)を算出する(ステップ31)。
2.符号化対象小ブロックの量子化ステップQを算出する(ステップ32)。
3.量子化ステップQと予測方法のオーバヘッドサイズHから次式により補正値Bi を算出する(ステップ33)。
i =h(Q,H)・・・(7)
4.次式により各予測方法の予測誤差Egi を補正値Bi により補正し、補正した予測誤差Ei を算出する(ステップ34)。
i =Egi +Bi ・・・(8)
5.補正した予測誤差Ei で予測誤差が最も小さい予測方法を符号化対象小ブロックの予測方法として決定する(ステップ35)。
【0033】
本発明の具体例を示す。本例では、小ブロックサイズを16×16とし、動き探索における予測誤差の指標は、次式から求まる差分絶対値和を用いた場合を想定する。
【0034】
【数1】
Figure 0003843160
ここで、Pc (j,k)は符号化対象小ブロックの画素値、Pr (j,k)は参照小ブロックの画素値を示す。画像符号化方法としては、動き補償+離散コサイン変換とし、予測方法は以下の3種類とする。また、本例では、動き補償予測に伴うオーバヘッドは動きベクトルのみとし、オーバヘッドの大きさは動きベクトル数に比例すると仮定する。
【0035】
1.動き補償オフでの予測
参照フレームは、符号化対象フレームに対し符号化済みで、時間的に前の1フレームを用いる。動きベクトル数は0
2.片方向動き補償予測
参照フレームは、符号化対象フレームに対し符号化済みで、時間的に前 の1フレームを用いる。動きベクトル数は1
3.双方向動き補償予測
参照フレームは、符号化対象フレームに対し符号化済みで、時間的に前後の2フレームを用いる。動きベクトル数は2
【0036】
離散コサイン変換の定義は以下の通りである。
【0037】
【数2】
Figure 0003843160
【0038】
予測誤差の許容範囲を用いた予測方法の決定
まず、3種類の予測方法(動き補償オフでの予測、片方向動き補償予測、双方向動き補償予測)で符号化対象小ブロックと参照小ブロックの差分絶対値和(SADo ,SADp ,SADb )を算出する。次に、最小差分絶対値和SADmin を算出する。
【0039】
SADmin =min(SAD0 ,SADp ,SADb )・・・・(11)
次に、符号化対象小ブロックに適用する量子化ステップQPから許容範囲Tを次式により算出する。
T=QP・16×16/8・・・(12)
【0040】
続いて、次式を満たす予測方法を検出する。
SADi ≦SADmin +T(i=0,p,n)・・・(13)
検出された予測方法が、2つ以上ある場合は、各方法のオーバヘッドを比較し、最小オーバヘッドの予測方法を選択する。
【0041】
上記のような方法により、予測誤差信号による発生情報量を増加させることなく、動きベクトルなどによるオーバヘッドを減少させることができる。
【0042】
予測誤差補正による予測方法の決定
まず、3種類の予測方法(動き補償オフでの予測、片方向動き補償予測、双方向動き補償予測)で、符号化対象小ブロックと参照小ブロックの差分絶対値和(SADo ,SADp ,SADb )を算出する。次に、符号化対象小ブロックに適用する量子化ステップQPと、各予測方法の動きベクトル数Mi (i=0,p,n)から補正値Bi (i=0,p,n)を次式により算出する。
i =(QP・16×16/8)・(2−Mi )・・・(14)
【0043】
(12)式より求められた各予測方法の補正値は以下の通りである。
o =64・QP
p =32・QP ・・・(15)
b =0
【0044】
次に、各予測方法の差分絶対値和SADi (i=0,p,n)を次式により補正する。
SADni =SADi −Bi ・・・(16)
この後、最小差分絶対値和を検出し、予測方法を決定する。
【0045】
上記のような方法により、予測誤差信号による発生情報量を増加させることなく、動きベクトルなどによるオーバヘッドを減少させることができる。
【0046】
以上述べた実施形態では、予測誤差の大きさの指標として差分絶対値和を用いているが、差分自乗和など他の指標を用いることも可能である。ただし、予測誤差の指標により、許容範囲や補正値の算出方法を適宜変更する必要がある。
【0047】
【発明の効果】
以上説明したように本発明によれば、画品質を低下させることなく、動きベクトルなどによるオーバヘッドを低減でき、結果として、符号化効率を向上させることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態を示す流れ図である。
【図2】本発明の第2の実施形態を示す流れ図である。
【図3】本発明の第3の実施形態を示す流れ図である。
【図4】予測誤差が許容範囲内収まる予測方法の検出((同図(a))とオーバヘッドの大きさによる予測方法の決定(同図(b))を示す図である。
【図5】動き補償予測の例を示す図である。
【符号の説明】
11〜16,21〜26,31〜35 ステップ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for selecting a motion compensated prediction method for video coding.
[0002]
[Prior art]
In moving picture coding, a predictive coding method using a coded frame as a prediction signal is known in order to reduce redundancy in the time direction. In order to increase the prediction efficiency of this time direction prediction, a motion compensation prediction method that performs prediction using an image signal subjected to motion compensation as a prediction signal is often used. The motion compensation prediction method needs to transmit a motion vector to the decoding side, and the prediction efficiency and the number of motion vectors are different for each motion compensation prediction method. As an example, Table 1 shows the prediction efficiency and the number of motion vectors of each motion compensation prediction method. The number of motion vectors in this table indicates the number per small block. The prediction of motion compensation OFF corresponds to motion compensation with a motion vector of (0, 0).
[0003]
[Table 1]
Figure 0003843160
[0004]
When motion compensation is not performed, prediction efficiency is poor, but there is no overhead due to motion vectors. Conversely, when the small block is divided into four blocks and bi-directional prediction is performed, the prediction efficiency is high, but the overhead due to the information indicating the motion vector and the motion compensation prediction method increases.
[0005]
In a general moving image encoding method, a plurality of motion compensation prediction methods are mounted on an apparatus, and the motion compensation prediction method is adaptively switched based on encoding efficiency. For example, in MPEG1, block size 16 × 16 unidirectional / bidirectional motion compensated prediction (FIG. 5) can be performed, and adaptive switching can be made between unidirectional motion compensated prediction and bidirectional motion compensated prediction for each small block.
[0006]
In order to improve the coding efficiency, it is necessary to consider overhead as well as the high motion compensation prediction efficiency when selecting a motion compensation prediction method. Even in a prediction method with high prediction efficiency, the effect may be canceled depending on the size of the overhead, which may lead to a decrease in coding efficiency.
[0007]
Therefore, the prediction method is selected according to the following procedure.
1. The prediction error of each prediction method is calculated.
2. Based on the overhead size of each prediction method, a value (correction value) empirically obtained from each prediction error is added or subtracted to obtain a new prediction error.
3. The minimum prediction error is detected from the prediction errors of each prediction method, and the encoding target small block is predicted using the prediction method of the minimum prediction error.
[0008]
The correction value of the above selection method is set so that the prediction error becomes smaller as the method with lower overhead. For example, when the correction value is subtracted from the prediction error, a larger value is set for a method with less overhead. When adding a correction value to the prediction error, a larger value is set for a method with a larger overhead.
[0009]
As an example, a case is shown in which a prediction method is selected from three types of prediction methods having motion vector numbers of 0, 1, and 2, and a correction value is added to the prediction error. The correction value B i (i = 0, 1, 2) added to the prediction error of each method can be expressed by the following relational expression.
[0010]
B 0 ≦ B 1 ≦ B 2 (1)
If the overhead of each prediction method is not taken into account, the above-mentioned equal sign holds. Prediction error Eg i and the correction value B i calculated in each prediction method, the prediction error En i used to predict how determination is calculated from the following equation.
[0011]
En i = Eg i + B i (2)
The minimum prediction error is detected from the prediction error En i corrected by the above equation, and the prediction method is determined.
[0012]
According to such a method, overhead can be suppressed without reducing the efficiency of motion compensation prediction.
[0013]
[Problems to be solved by the invention]
In a general moving picture coding method such as MPEG1, orthogonal transform is performed on a prediction error signal of motion compensation prediction, and after the orthogonal transform coefficient is quantized, variable length coding is performed. The quantization step at the time of quantization is determined from the target transmission rate. When the quantization step is large, it is coarsely quantized, and when it is small, it is finely quantized.
[0014]
Here, the relationship between the prediction error signal and the quantization step is considered. When fine quantization is performed, the smaller the prediction error, the smaller the orthogonal transform coefficient after quantization. Therefore, the amount of generated information can be suppressed by selecting a prediction method that minimizes the prediction error. Further, when the quantization becomes rough, the difference in prediction error between the prediction methods is unlikely to lead to an increase in the code amount of the orthogonal transform coefficient after quantization. Therefore, by selecting a method with less overhead due to motion compensation, the total amount of generated information may be reduced.
[0015]
Tables 2 and 3 show examples. In this example, the prediction methods A and B are different prediction methods. When the prediction error signal of each prediction method is finely quantized (here, quantization step 2), the prediction method A has a smaller prediction error after quantization. However, when roughly quantized (here, quantization step 10), both prediction error signals are equal. As can be seen from this example, the prediction method with the minimum prediction error is not always good, and the optimal prediction method changes depending on the overhead of each prediction method and the quantization step.
[0016]
[Table 2]
Figure 0003843160
[0017]
[Table 3]
Figure 0003843160
[0018]
In the conventional method, the correction value added to the prediction error of each motion compensation method is determined empirically and is always constant. For this reason, an appropriate correction value corresponding to the quantization step is not always used. As a result, when the quantization step is small, a prediction method with a large prediction error may be selected, or when the quantization step is large, the overhead due to the motion vector may increase, and the total amount of generated information increases. There was a problem.
[0019]
An object of the present invention is to provide a video predictive coding method that reduces the amount of generated information by reducing the overhead due to predictive coding.
[0020]
[Means for Solving the Problems]
In the video predictive encoding method of the present invention, when encoding a video sequence, the encoding target frame is divided into small blocks, and one prediction method can be selected from a plurality of prediction methods for each encoding target small block. When a prediction method is selected from a plurality of prediction methods for each small block to be encoded in a moving image predictive encoding method, a minimum prediction error is detected from the prediction error in each prediction method, and then an encoding target A prediction method for calculating a prediction error tolerance for the minimum prediction error in order to select a prediction method candidate from the size of a quantization step applied to quantization of a small block, and resulting in a prediction error within the tolerance To select the minimum overhead prediction method .
[0024]
Therefore, it is possible to reduce overhead due to motion vectors and the like without increasing the amount of information generated by the prediction error signal.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0026]
FIG. 1 is a flowchart showing a first embodiment (corresponding to claim 1) of the present invention. In the present embodiment, when the prediction error without motion compensation is smaller than the threshold obtained from the quantization step, the motion compensation prediction is turned off regardless of the prediction error of other motion compensation prediction methods. When motion compensation is on, a prediction method is selected.
1. A prediction error Eg 0 without motion compensation is calculated (step 11).
2. The quantization step Q of the small block to be encoded is calculated (step 12).
3. The threshold value Th is calculated from the quantization step Q by the following equation (step 13).
Th = t (Q) (3)
4). When the prediction error Eg 0 satisfies the following equation, the motion compensation is turned off (steps 14 and 15).
Eg 0 ≤ Th (4)
5). If the prediction error Eg 0 does not satisfy the above equation, a motion compensation prediction method is selected (steps 14 and 16).
[0027]
FIG. 2 is a flowchart showing a second embodiment (corresponding to claim 3) of the present invention.
[0028]
In the present embodiment, an allowable range of prediction error is obtained from the quantization step with respect to the minimum prediction error among the N types of prediction methods implemented, and a prediction method with the minimum overhead within the allowable range is adopted.
[0029]
1. Prediction in a plurality of prediction methods that are implemented error Eg i (i = 1,2, ··· , N) is calculated (step 21).
2. Calculating the minimum prediction error Eg min from the prediction error Eg i (step 22).
3. The quantization step Q of the encoding target small block is calculated (step 23).
4). An allowable range T is calculated from the quantization step Q by the following equation (step 24).
T = f (Q) (5)
5). In the prediction error Eg i of each prediction method detects a prediction method which satisfies the following equation (step 25). In the example of FIG. 4 (a), the N types of prediction methods, to select the five prediction method a prediction error Eg i exists within the tolerance T as a candidate.
Eg i ≦ Eg min + T (6)
6). The prediction method with the smallest overhead among the detected prediction methods is determined as the prediction method for the small block to be encoded (step 26). FIG. 4B shows that the prediction method with the smallest overhead size is selected from the five candidates selected in FIG.
[0030]
FIG. 3 is a flowchart showing a third embodiment (corresponding to claim 4) of the present invention.
[0031]
In the present embodiment, with respect to the prediction errors of the N types of prediction methods that have been implemented, a correction value of each prediction method is obtained from the quantization step and the overhead of each prediction method, and the prediction error that minimizes the prediction error after correction is obtained. Is adopted.
[0032]
1. Prediction in a plurality of prediction methods that are implemented error Eg i (i = 1,2, ··· , N) is calculated (step 31).
2. The quantization step Q of the encoding target small block is calculated (step 32).
3. A correction value Bi is calculated from the quantization step Q and the overhead size H of the prediction method by the following equation (step 33).
B i = h (Q, H) (7)
4). Correcting the prediction error Eg i of each prediction method by the correction value B i by the following equation to calculate the prediction error E i corrected (step 34).
E i = Eg i + B i (8)
5). The prediction method with the smallest prediction error among the corrected prediction errors E i is determined as the prediction method for the small block to be encoded (step 35).
[0033]
The specific example of this invention is shown. In this example, it is assumed that the small block size is 16 × 16, and the prediction error index in motion search uses a sum of absolute differences obtained from the following equation.
[0034]
[Expression 1]
Figure 0003843160
Here, P c (j, k) represents the pixel value of the small block to be encoded, and P r (j, k) represents the pixel value of the reference small block. The image encoding method is motion compensation + discrete cosine transform, and the following three types of prediction methods are used. In this example, it is assumed that the overhead associated with motion compensation prediction is only a motion vector, and the size of the overhead is proportional to the number of motion vectors.
[0035]
1. The prediction reference frame with motion compensation off is already encoded with respect to the encoding target frame, and uses the previous frame in time. The number of motion vectors is 0
2. The unidirectional motion compensated prediction reference frame has been encoded with respect to the encoding target frame, and uses the previous frame in time. The number of motion vectors is 1
3. The bi-directional motion compensation prediction reference frame has been encoded with respect to the encoding target frame, and uses two frames preceding and following in time. The number of motion vectors is 2
[0036]
The definition of the discrete cosine transform is as follows.
[0037]
[Expression 2]
Figure 0003843160
[0038]
Determining the prediction method using the allowable range of prediction error First, the three types of prediction methods (prediction with motion compensation off, one-way motion compensated prediction, two-way motion compensated prediction) The sum of absolute differences (SAD o , SAD p , SAD b ) is calculated. Next, the minimum difference absolute value sum SAD min is calculated.
[0039]
SAD min = min (SAD 0 , SAD p , SAD b ) (11)
Next, an allowable range T is calculated from the quantization step QP applied to the encoding target small block by the following equation.
T = QP · 16 × 16/8 (12)
[0040]
Subsequently, a prediction method that satisfies the following equation is detected.
SAD i ≦ SAD min + T (i = 0, p, n) (13)
If there are two or more detected prediction methods, the overhead of each method is compared and the prediction method of the minimum overhead is selected.
[0041]
By the method as described above, it is possible to reduce overhead due to a motion vector or the like without increasing the amount of information generated by the prediction error signal.
[0042]
Determination of prediction method based on prediction error correction First, absolute value of difference between encoding target small block and reference small block by three types of prediction methods (prediction with motion compensation off, one-way motion compensation prediction, bidirectional motion compensation prediction) sum (SAD o, SAD p, SAD b) is calculated. Next, the correction value B i (i = 0, p, n) is calculated from the quantization step QP applied to the encoding target small block and the number of motion vectors M i (i = 0, p, n) of each prediction method. Calculated by the following formula.
B i = (QP · 16 × 16/8) · (2-M i ) (14)
[0043]
The correction value of each prediction method obtained from the equation (12) is as follows.
B o = 64 · QP
B p = 32 · QP (15)
B b = 0
[0044]
Next, the difference absolute value sum SAD i (i = 0, p, n) of each prediction method is corrected by the following equation.
SADn i = SAD i −B i (16)
Thereafter, the minimum difference absolute value sum is detected, and the prediction method is determined.
[0045]
By the method as described above, it is possible to reduce overhead due to a motion vector or the like without increasing the amount of information generated by the prediction error signal.
[0046]
In the embodiment described above, the sum of absolute differences is used as an index of the magnitude of the prediction error, but other indices such as the sum of squared differences can also be used. However, it is necessary to appropriately change the calculation method of the allowable range and the correction value depending on the prediction error index.
[0047]
【The invention's effect】
As described above, according to the present invention, overhead due to motion vectors and the like can be reduced without degrading image quality, and as a result, encoding efficiency can be improved.
[Brief description of the drawings]
FIG. 1 is a flowchart showing a first embodiment of the present invention.
FIG. 2 is a flowchart showing a second embodiment of the present invention.
FIG. 3 is a flowchart showing a third embodiment of the present invention.
FIG. 4 is a diagram showing detection of a prediction method in which a prediction error falls within an allowable range ((a) of FIG. 4) and determination of the prediction method based on the overhead size ((b) of FIG. 4).
FIG. 5 is a diagram illustrating an example of motion compensation prediction.
[Explanation of symbols]
11-16, 21-26, 31-35 steps

Claims (1)

動画像シーケンスを符号化する際、符号化対象フレームを小ブロックに分割し、符号化対象小ブロックごとに複数の予測方法から1つの予測方法を選択可能な動画像予測符号化方法において、 符号化対象小ブロックごとに複数の予測方法の中から1つの予測方法を選択する際、各予測方法で予測誤差から最小予測誤差を検出した後、符号化対象小ブロックの量子化に適用する量子化ステップの大きさから予測方法の候補を選出するために前記最小予測誤差に対し予測誤差の許容範囲を算出し、その許容範囲内の予測誤差となる予測方法から最小オーバヘッドの予測方法を選択することを特徴とする動画像予測符号化方法。When encoding a moving image sequence, the encoding target frame is divided into small blocks, and encoding is performed in a moving image predictive encoding method in which one prediction method can be selected from a plurality of prediction methods for each encoding target small block . When selecting one prediction method from a plurality of prediction methods for each target small block, after detecting the minimum prediction error from the prediction error in each prediction method, a quantization step applied to the quantization of the encoding target small block Calculating a tolerance of a prediction error with respect to the minimum prediction error in order to select a prediction method candidate from the size of the prediction method, and selecting a prediction method of a minimum overhead from a prediction method that becomes a prediction error within the tolerance A moving image predictive encoding method as a feature.
JP6309197A 1997-03-17 1997-03-17 Video predictive coding method Expired - Lifetime JP3843160B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6309197A JP3843160B2 (en) 1997-03-17 1997-03-17 Video predictive coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6309197A JP3843160B2 (en) 1997-03-17 1997-03-17 Video predictive coding method

Publications (2)

Publication Number Publication Date
JPH10262253A JPH10262253A (en) 1998-09-29
JP3843160B2 true JP3843160B2 (en) 2006-11-08

Family

ID=13219310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6309197A Expired - Lifetime JP3843160B2 (en) 1997-03-17 1997-03-17 Video predictive coding method

Country Status (1)

Country Link
JP (1) JP3843160B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1558039A1 (en) * 2004-01-21 2005-07-27 Deutsche Thomson-Brandt Gmbh Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding
EP1558040A1 (en) * 2004-01-21 2005-07-27 Thomson Licensing S.A. Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding

Also Published As

Publication number Publication date
JPH10262253A (en) 1998-09-29

Similar Documents

Publication Publication Date Title
US9609322B2 (en) Image encoding apparatus, image encoding method, image decoding apparatus, and image decoding method
JP2897763B2 (en) Motion compensation coding device, decoding device, coding method and decoding method
EP1540824B1 (en) Motion estimation with weighting prediction
US7133447B2 (en) Motion estimation method using adaptive mode decision
JP2002532026A (en) Improvement of motion estimation and block matching pattern
JPWO2009035144A1 (en) Image processing apparatus and image processing method
WO2011124157A1 (en) Video coding and decoding method for local luminance compensation and device thereof
KR100460950B1 (en) Transcoder and transcoding method
US6553068B1 (en) Video signal coding method and device adapted to control code amounts according to the characteristics of pictures
CN102017626A (en) Method of coding, decoding, coder and decoder
US8194740B2 (en) Apparatus and method for compression-encoding moving picture
US7965768B2 (en) Video signal encoding apparatus and computer readable medium with quantization control
US8447104B2 (en) Method, medium and system adjusting predicted values based on similarities between color values for image compressing/recovering
JP3843160B2 (en) Video predictive coding method
US6975681B2 (en) Method and apparatus for coding moving pictures
KR100744435B1 (en) An improved early detection of all-zero dct coefficients for fast video encoding
JP3200518B2 (en) Image signal encoding device
JP2005303555A (en) Moving image encoding apparatus and its method
JPH07231446A (en) Motion vector correction control system
JP2531106B2 (en) Video coding control method
JPH09327023A (en) Intra-frame/inter-frame coding changeover method and image coding device
JPH0646412A (en) Animation image predictive coding/decoding method
JPH0569354B2 (en)
JPH06233279A (en) Motion compensating encoder
KR100293445B1 (en) Method for coding motion vector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040121

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040121

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040121

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060814

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090818

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100818

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100818

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110818

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120818

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130818

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term