JP2004200991A - Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, recording medium with the image recording program, and recording medium with image decording program recorded thereon - Google Patents

Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, recording medium with the image recording program, and recording medium with image decording program recorded thereon Download PDF

Info

Publication number
JP2004200991A
JP2004200991A JP2002366632A JP2002366632A JP2004200991A JP 2004200991 A JP2004200991 A JP 2004200991A JP 2002366632 A JP2002366632 A JP 2002366632A JP 2002366632 A JP2002366632 A JP 2002366632A JP 2004200991 A JP2004200991 A JP 2004200991A
Authority
JP
Japan
Prior art keywords
image
predicted image
direct
decoded
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002366632A
Other languages
Japanese (ja)
Other versions
JP4290972B2 (en
JP2004200991A5 (en
Inventor
Hideaki Kimata
英明 木全
Yoshiyuki Yashima
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002366632A priority Critical patent/JP4290972B2/en
Publication of JP2004200991A publication Critical patent/JP2004200991A/en
Publication of JP2004200991A5 publication Critical patent/JP2004200991A5/ja
Application granted granted Critical
Publication of JP4290972B2 publication Critical patent/JP4290972B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To relieve an arithmetic processing load required for computing a weight coefficient for generating processing of a predicted image when using prediction encoding to encode the image by each of regions resulting from dividing a screen image. <P>SOLUTION: In generating a prediction image of a present region, a direct prediction image generating section 106 generates a prediction image of prediction image generating target pixels on the basis of decoded image information in a region having already been encoded and decoded. A quasi-direct prediction image generating section 105 generates a prediction image on the basis of decoded image information in a region having already been encoded and decoded and prediction image information. An indirect prediction image generating section 104 generates a prediction image on the basis of prediction image information. A prediction image generation selection section 101 discriminates whether or not a decoded image exists and whether or not the prediction image exists at close pixel positions as to the prediction image generation target pixels and selects any of the direct prediction image generating section 106, the quasi-direct prediction image generating section 105, and the indirect prediction image generating section 104. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は,画像符号化,復号に関する技術であり,特に,画面を分割した領域毎に,既に符号化し復号した領域の復号画像から予測する符号化方式において,周囲の領域の画像情報からの重み付け計算によって予測画像を作成する際における,重み付け係数の計算に必要な演算処理負荷を軽減することを可能とした画像符号化方法,画像復号方法,画像符号化装置および画像復号装置に関する。
【0002】
【従来の技術】
画像の符号化では一般的に,画面を複数の領域に分割し,領域毎に直交変換を行う。例えば静止画像の国際標準符号化方式JPEGでは,画面を縦横16画素のマクロブロックに分割して,マクロブロック毎にDCTを行い,DCT係数を量子化しエントロピー符号化する。さらに,静止画像の符号化の場合と,動画像において領域をフレーム内符号化する場合には,現マクロブロックの画像情報と周囲のマクロブロックの画像情報との間の相関を利用した予測符号化が適用される。
【0003】
この予測方法は,一般的に2種類に分類できる。第1の方法では,マクロブロック等の領域でDCTしたDCT係数を,周囲の既に符号化した領域のDCT係数から予測する。現領域の符号化対象となるDCT係数値は,予測値からの差分となる。例えば動画像符号化方式H.263のフレーム内符号化では,縦横8画素のブロックをDCTし,そのDC成分とAC成分を上または左のブロックのDCT係数から予測する(例えば,非特許文献1参照)。
【0004】
第2の方法では,マクロブロック等の領域内の画像情報を,周囲の既に符号化した領域の復号画像から予測する。現領域の符号化対象となるDCT係数値は,予測値からの差分の画像情報をDCTした際のDCT係数となる。例えば動画像符号化方式H.26Lのフレーム内符号化では,縦横4画素のブロック内の画像情報を,周囲の既に符号化し復号したブロックの復号画像の画像情報から予測し,予測値との差分をDCTする。
【0005】
第2の方法では周囲の復号画像から画像情報を予測するため,フレーム間予測符号化方式と同様な予測誤差の符号化方法を用いることができる。例えばDCT係数を量子化する方法やエントロピー符号化方法を共通化することができる。例えばH.26Lでは,縦横16画素のマクロブロックを縦横4画素の4×4ブロックに分割し,4×4ブロック毎に周囲の復号画像から予測画像を作成する。そして予測誤差をDCTする。
【0006】
周囲の復号画像から予測画像を作成する方法としては,4×4ブロック毎に図1に示すような8方向から1方向を選択して,選択した方向における各画素に対応した位置の復号画像を使用する。図2に示すように,現4×4ブロックに対して復号画像が配置しているとすると,例えば方向1では,ブロック内各画素の復号画像を式(1)に従って求める。また例えば方向4では,式(2)に従って求める。
【0007】
なお,演算記号>>は,右へのビットシフトを示す。この方法では,図1におけるどの方向から予測するのかを示すイントラ予測モード情報をさらに符号化する必要がある。
【0008】
a,e,i,m=A
b,f,j,n=B
c,g,k,o=C
d,h,l,p=D ……式(1)
m=(J+2K+L+2)>>2
i,n=(I+2J+K+2)>>2
e,j,o=(Q+2I+J+2)>>2
a,f,k,p=(A+2Q+I+2)>>2
b,g,l=(Q+2A+B+2)>>2
c,h=(A+2B+C+2)>>2
d=(B+2C+D+2)>>2 ……式(2)
周囲のブロックの復号画像から直接予測値を求める第2の予測方法では,周囲のブロックと現ブロックにまたがって鋭いエッジ等の急激な輝度の変化がある場合に,エッジの位置に合わせて予測画像を作成できるため,第1の予測方法よりも符号化効率を向上することができる。
【0009】
【非特許文献1】
"Joint Committee Draft (CD) of Joint Video Specification (ITU-T Rec. H.264|ISO/IEC 14496-10)", Joint Video Team (JVT) of ISO/IEC MPEG &ITU-T VCEG Meeting, 2002.
【0010】
【発明が解決しようとする課題】
ある画素と周囲の画素との間の画像情報の相関の大きさは,一般的に画素間の距離に依存しており,距離が大きくなるほど相関が小さくなると考えられる。従って,周囲のブロックの復号画像から予測する方法では,予測に使用する周囲のブロックの,復号画像の画像情報の重み付け平均を,現ブロック内の各画素の予測値に使用すると予測効率が高くなると考えられる。
【0011】
この重み付け平均の方法は,現ブロック内画素位置と,予測に使用する復号画像の画素位置との距離に従って重み付けすればよい。例えば,図2に示す縦横4画素のブロック内画素oを画素oよりも上または左に位置する画素A〜C,I〜L,Q,から予測する場合には,式(3)によって計算できる。ここでαj (j=1,…,8)は画素oと周囲の各画素との距離に応じた重み付け係数であり,式(3)の場合には実数で与えられる。
【0012】
o=α1 A+α2 B+α3 C+α4 I+α5 J+α6 K+α7 L+α8 Q ……式(3)
現ブロック内画素と周囲の復号画像の画素との間の距離を,実数を使用せずに分数で表現して,図2に示すブロック内画素pを予測する場合には,式(4)のようになる。式(4)の場合には,乗算が8回,加算が8回,除算が1回必要となる。
【0013】
p=(β1 A+β2 B+β3 C+β4 I+β5 J+β6 K+β7 L+β8 Q)/γ ……式(4)
この重み付け係数は,画像中の最初の4×4ブロックの予測画像を作成するときに1度だけ計算を行うか,あるいは予め計算しておいた値を記憶しておけばよい。しかしながら,式(4)に示されるような,重み付け計算と復号画像情報との乗算と,それらの加算については,画面内のすべての画素に対して行う必要がある。
【0014】
このように周囲の画像情報からの重み付け計算では,各画素間の距離に依存した重み付け係数の計算と,重み付け係数と画像情報の乗算と加算を多く実行する必要があり,演算処理負荷が非常に大きくなる問題がある。
【0015】
本発明は上記問題点の解決を図り,画面を分割した領域毎に,既に符号化し復号した領域の復号画像から予測する符号化方式において,周囲の領域の画像情報からの重み付け計算によって予測画像を作成する際における,重み付け係数の計算に必要な演算処理負荷を軽減することを目的とする。
【0016】
【課題を解決するための手段】
以上の課題を解決するため,本発明は以下の方法を用いる。
【0017】
第1の発明は,画面を分割した領域毎に予測符号化を用いて符号化する画像符号化方法であって,現領域の予測画像を作成するときに,既に符号化し復号した領域の復号画像情報から画像情報を作成する直接予測画像作成ステップと,既に符号化し復号した領域の復号画像情報と,直接予測画像作成ステップで作成した画像情報とから画像情報を作成する準直接予測画像作成ステップと,直接予測画像作成ステップまたは準直接予測画像作成ステップで作成した画像情報から画像情報を作成する間接予測画像作成ステップとのうち,いずれかを選択して実行することを特徴とする。
【0018】
第2の発明は,画面を分割した領域毎に予測符号化を用いて復号する画像復号方法であって,現領域の予測画像を作成するときに,既に符号化し復号した領域の復号画像情報から画像情報を作成する直接予測画像作成ステップと,既に符号化し復号した領域の復号画像情報と,直接予測画像作成ステップで作成した画像情報とから画像情報を作成する準直接予測画像作成ステップと,直接予測画像作成ステップまたは準直接予測画像作成ステップで作成した画像情報から画像情報を作成する間接予測画像作成ステップとのうち,いずれかを選択して実行することを特徴とする。
【0019】
本発明によれば,領域外周以外の位置の予測画像を復号画像からではなく,隣接した画素位置の予測画像から作成することができる。これにより領域内の,すべての画素の予測画像を直接復号画像から作成する必要がなくなり,演算処理負荷を軽減することができる。例えば図2に示す4×4ブロックで,画素の予測画像を上と左の画素位置の画像情報から作成する場合には次のように動作する。いずれの画素の予測画像tも式(5)に従って計算する。ここでSは,上の画素位置の復号画像情報または予測画像情報を示し,Tは左の画素位置の復号画像情報または予測画像情報を示す。
【0020】
t=(β1 S+β2 T)/γ ……式(5)
(ステップ1)画素aの予測画像を復号画像AとIから作成する。
(ステップ2)画素bの予測画像を上に隣接する復号画像Bと,左に隣接する画素aの予測画像から作成する。同様な処理を画素c,dに対しても行い,予測画像を作成する。
(ステップ3)画素eの予測画像を上に隣接する画素aの予測画像と,左に隣接する復号画像Jから作成する。同様な処理を画素i,mに対しても行い,予測画像を作成する。
(ステップ4)画素fの予測画像を上に隣接する画素bの予測画像と,左に隣接する画素eの予測画像から作成する。同様な処理を画素g,h,j,k,l,n,o,pに対しても行い,予測画像を作成する。
【0021】
このような手順で予測画像を作成すると,結果的に距離に応じて復号画像を重み付けして求めた予測画像を得ることができる。変数β1 とβ2 とγを適当に設定することにより,異なる重み付けを行うことが可能である。単純な線形の平均の場合には,式(5)の代わりに,以下の式(6)を使うことによりさらに演算処理負荷を軽減することが可能である。
【0022】
t=(S+T+1)>>1 ……式(6)
【0023】
【発明の実施の形態】
以下,図面を用いて本発明の実施の形態を説明する。上と左の画像情報から予測画像を作成する場合の例を示す。縦横8画素の画面の画像を4×4ブロックに分割し,ブロック毎に予測誤差を求めてDCTするものとする。画面の左上,右上,左下,右下の順序でブロックを符号化するものとする。
【0024】
まず,画像符号化装置の説明を行う。図3に本発明の実施の形態に係る画像符号化装置の概要を示す。画像符号化装置100は,復号画像を蓄積する復号画像メモリ110と,予測画像を蓄積する予測画像メモリ103と,復号画像メモリ110に蓄積されている画像情報から予測画像情報を作成する直接予測画像作成部106と,復号画像メモリ110に蓄積されている画像情報と,予測画像メモリ103に蓄積されている画像情報とから予測画像情報を作成する準直接予測画像作成部105と,予測画像メモリ103に蓄積されている画像情報から予測画像情報を作成する間接予測画像作成部104と,直接予測画像作成部106と準直接予測画像作成部105と間接予測画像作成部104のうちいずれかを選択する予測画像作成選択部101と,予測画像と現画像から予測誤差を求める予測誤差作成部102と,予測誤差を符号化する予測誤差符号化部107と,予測誤差符号化データを復号し予測誤差情報を求める予測誤差復号部108と,予測画像と予測誤差から復号画像を作成する復号画像作成部109とを備える。
【0025】
直接予測画像作成部106では,予測する画素の上に位置する画像情報Sと左に位置する画像情報Tを復号画像メモリ110から読み込み,式(6)に従って予測画像を作成する。そして,作成した予測画像を予測画像メモリ103に蓄積する。復号画像メモリ110に上または左に位置する画像情報が蓄積されていない場合には,直接予測画像作成部106において,SまたはTを128の値に設定して式(6)の計算を行う。
【0026】
準直接予測画像作成部105では,予測する画素の上に位置する画像情報Sを復号画像メモリ110または予測画像メモリ103から読み込む。復号画像メモリ110に復号画像がある場合には復号画像メモリ110から読み込み,復号画像メモリ110に復号画像がない場合には予測画像メモリ103から読み込む。予測する画素の左に位置する画像情報Tについても同様にして画像情報を読み込む。そして,式(6)に従って予測画像を作成し,作成した予測画像を予測画像メモリ103に蓄積する。復号画像メモリ110と予測画像メモリ103のどちらにも,上または左に位置する画像情報が蓄積されていない場合には,準直接予測画像作成部105において,SまたはTを128の値に設定して式(6)の計算を行う。
【0027】
間接予測画像作成部104では,予測する画素の上に位置する画像情報Sと左に位置する画像情報Tを予測画像メモリ103から読み込み,式(6)に従って予測画像を作成する。そして,作成した予測画像を予測画像メモリ103に蓄積する。
【0028】
ブロック内画素の予測画像は,図2におけるa,b,c,d,e,f,g,h,i,j,k,l,m,n,o,pの順序で作成するものとする。予測画像作成選択部101は,図4に示す動作フローに従って,直接予測画像作成部106か,準直接予測画像作成部105か,間接予測画像作成部104のいずれかを選択する。
【0029】
すなわち,予測画像作成選択部101は,図4に示すように,上と左の双方に復号画像があるかを判断し(ステップS11),復号画像がある場合には,直接予測画像作成部106を選択し(ステップS12),復号画像から対象画素の予測画像を作成する(ステップS13)。上と左に復号画像がない場合には,上と左の双方に予測画像があるかを判断し(ステップS14),予測画像がある場合には,間接予測画像作成部104を選択し(ステップS15),予測画像から対象画素の予測画像を作成する(ステップS16)。
【0030】
また,上と左に予測画像がない場合には,上と左のいずれかに復号画像があり,上と左のいずれかに予測画像があるかを判断し(ステップS17),上と左のいずれかに復号画像があり,上と左のいずれかに予測画像がある場合には,準直接予測画像作成部105を選択し(ステップS18),復号画像と予測画像から対象画素の予測画像を作成する(ステップS19)。
【0031】
そうでない場合には,上と左のいずれかに復号画像があるかを判断し(ステップS20),上と左のいずれかに復号画像がある場合には,直接予測画像作成部106を選択し(ステップS21),復号画像と値128から対象画素の予測画像を作成する(ステップS22)。
【0032】
上と左のいずれにも復号画像がない場合には,上と左のいずれかに予測画像があるかを判断する(ステップS23)。上と左のいずれかに予測画像がある場合には,準直接予測画像作成部105を選択し(ステップS24),予測画像と値128から対象画素の予測画像を作成する(ステップS25)。上と左のいずれにも予測画像がない場合には,直接予測画像作成部106を選択し(ステップS26),値128から対象画素の予測画像を作成する(ステップS27)。
【0033】
本発明においては,例えば,図2に示す画素位置aに対して直接予測画像作成部106を選択し,画素位置b,c,d,e,i,mに対して準直接予測画像作成部105を選択し,画素位置f,g,h,j,k,l,n,o,pに対して間接予測画像作成部104を選択することになる。予測誤差符号化部107は,予測誤差をDCTし量子化するものとする。予測誤差復号部108は,予測誤差符号化データを逆量子化し逆DCTするものとする。
【0034】
このような前提で,図5に示すように縦横8画素画面の画像を分割した縦横4画素の各ブロックB1,B2,B3,B4の符号化を,図5に従って説明する。まず,図5(A)に示す左上のブロックB1の符号化を行う。画素aについて,予測画像作成選択部101は直接予測画像作成部106を選択する。直接予測画像作成部106は,SとTの値を128に設定して予測画像を作成する。画素bについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105は,Sの値を128に設定し,Tを予測画像メモリ103から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0035】
次に画素eについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105はTの値を128に設定し,Sを予測画像メモリ103から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部101は間接予測画像作成部104を選択する。間接予測画像作成部104は,SとTの値を予測画像メモリ103から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0036】
以上により作成された予測画像と現画像との間で,予測誤差作成部102は予測誤差を作成し,予測誤差符号化部107は予測誤差をDCTし量子化する。予測誤差復号部108は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部109は,予測誤差復号部108で復号した予測誤差と予測画像から復号画像を作成し,復号画像メモリ110に蓄積する。
【0037】
次に,図5(B)に示す右上のブロックB2の符号化を行う。左上のブロックB1については,復号画像メモリ110に復号画像が存在する。画素aについて,予測画像作成選択部101は直接予測画像作成部106を選択する。直接予測画像作成部106はSの値を128に設定し,Tの値を復号画像メモリ110から読み込んで予測画像を作成する。画素bについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105は,Sの値を128に設定し,Tを予測画像メモリ103から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0038】
次に画素eについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105はTを復号画像メモリ110から読み込み,Sを予測画像メモリ103から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部101は間接予測画像作成部104を選択する。間接予測画像作成部104は,SとTの値を予測画像メモリ103から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。
【0039】
次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0040】
以上により作成された予測画像と現画像との間で予測誤差作成部102は予測誤差を作成し,予測誤差符号化部107は予測誤差をDCTし量子化する。予測誤差復号部108は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部109は,予測誤差復号部108で復号した予測誤差と予測画像から復号画像を作成し復号画像メモリ110に蓄積する。
【0041】
次に図5(C)に示す左下のブロックB3の符号化を行う。画素aについて,予測画像作成選択部101は直接予測画像作成部106を選択する。直接予測画像作成部106はTの値を128に設定し,Sの値を復号画像メモリ110から読み込んで予測画像を作成する。画素bについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105は,Sを復号画像メモリ110から読み込み,Tを予測画像メモリ103から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0042】
次に画素eについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105はTの値を128に設定し,Sを予測画像メモリ103から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部101は間接予測画像作成部104を選択する。間接予測画像作成部104は,SとTの値を予測画像メモリ103から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0043】
以上により作成された予測画像と現画像との間で,予測誤差作成部102は予測誤差を作成し,予測誤差符号化部107は予測誤差をDCTし量子化する。予測誤差復号部108は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部109は,予測誤差復号部108で復号した予測誤差と予測画像から復号画像を作成し復号画像メモリ110に蓄積する。
【0044】
次に,図5(D)に示す右下のブロックB4の符号化を行う。画素aについて,予測画像作成選択部101は直接予測画像作成部106を選択する。直接予測画像作成部106はTとSの値を復号画像メモリ110から読み込んで予測画像を作成する。画素bについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105はSを復号画像メモリ110から読み込み,Tを予測画像メモリ103から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0045】
次に画素eについて,予測画像作成選択部101は準直接予測画像作成部105を選択する。準直接予測画像作成部105はTを復号画像メモリ110から読み込み,Sを予測画像メモリ103から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部101は間接予測画像作成部104を選択する。間接予測画像作成部104は,SとTの値を予測画像メモリ103から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0046】
以上により作成された予測画像と現画像との間で,予測誤差作成部102は予測誤差を作成し,予測誤差符号化部107は予測誤差をDCTし量子化する。予測誤差復号部108は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部109は,予測誤差復号部108で復号した予測誤差と予測画像から復号画像を作成し復号画像メモリ110に蓄積する。以上により縦横8画素の画像の符号化が完了する。
【0047】
次に画像復号装置の説明を行う。図6に本発明の実施の形態に係る画像復号装置の概要を示す。画像復号装置200は,復号画像を蓄積する復号画像メモリ208と,予測画像を蓄積する予測画像メモリ203と,復号画像メモリ208に蓄積されている画像情報から予測画像情報を作成する直接予測画像作成部206と,復号画像メモリ208に蓄積されている画像情報と,予測画像メモリ203に蓄積されている画像情報から予測画像情報を作成する準直接予測画像作成部205と,予測画像メモリ203に蓄積されている画像情報から予測画像情報を作成する間接予測画像作成部204と,直接予測画像作成部206と準直接予測画像作成部205と間接予測画像作成部204のうちいずれかを選択する予測画像作成選択部201と,予測誤差符号化データを復号し予測誤差情報を求める予測誤差復号部202と,予測画像と予測誤差から復号画像を作成する復号画像作成部207とを備える。各部の動作は画像符号化装置100と同様である。
【0048】
このような前提で縦横8画素の画面の画像を分割した縦横4画素の各ブロックの符号化データを次のように復号する。まず図5(A)に示す左上のブロックB1の復号を行う。画素aについて,予測画像作成選択部201は直接予測画像作成部206を選択する。直接予測画像作成部206はSとTの値を128に設定して予測画像を作成する。画素bについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205は,Sの値を128に設定し,Tを予測画像メモリ203から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0049】
次に画素eについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205はTの値を128に設定し,Sを予測画像メモリ203から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部201は間接予測画像作成部204を選択する。間接予測画像作成部204は,SとTの値を予測画像メモリ203から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0050】
予測誤差復号部202は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部207は,予測誤差復号部202で復号した予測誤差と予測画像から復号画像を作成し復号画像メモリ208に蓄積する。
【0051】
次に図5(B)に示す右上のブロックB2の復号を行う。画素aについて,予測画像作成選択部201は直接予測画像作成部206を選択する。直接予測画像作成部206はSの値を128に設定し,Tの値を復号画像メモリ208から読み込んで予測画像を作成する。画素bについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205は,Sの値を128に設定し,Tを予測画像メモリ203から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0052】
次に画素eについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205はTを復号画像メモリ208から読み込み,Sを予測画像メモリ203から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部201は間接予測画像作成部204を選択する。間接予測画像作成部204は,SとTの値を予測画像メモリ203から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0053】
予測誤差復号部202は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部207は,予測誤差復号部202で復号した予測誤差と予測画像から復号画像を作成し復号画像メモリ208に蓄積する。
【0054】
次に図5(C)に示す左下のブロックB3の復号を行う。画素aについて,予測画像作成選択部201は直接予測画像作成部206を選択する。直接予測画像作成部206はTの値を128に設定し,Sの値を復号画像メモリ208から読み込んで予測画像を作成する。画素bについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205はSを復号画像メモリ208から読み込み,Tを予測画像メモリ203から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0055】
次に画素eについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205はTの値を128に設定し,Sを予測画像メモリ203から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部201は間接予測画像作成部204を選択する。間接予測画像作成部204は,SとTの値を予測画像メモリ203から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0056】
予測誤差復号部202は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部207は,予測誤差復号部202で復号した予測誤差と予測画像から復号画像を作成し復号画像メモリ208に蓄積する。
【0057】
次に図5(D)に示す右下のブロックB4の復号を行う。画素aについて,予測画像作成選択部201は直接予測画像作成部206を選択する。直接予測画像作成部206はTとSの値を復号画像メモリ208から読み込んで予測画像を作成する。画素bについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205はSを復号画像メモリ208から読み込み,Tを予測画像メモリ203から読み込んで予測画像を作成する。画素c,dについても画素bと同様に予測画像を作成する。
【0058】
次に画素eについて,予測画像作成選択部201は準直接予測画像作成部205を選択する。準直接予測画像作成部205はTを復号画像メモリ208から読み込み,Sを予測画像メモリ203から読み込んで予測画像を作成する。画素fについて,予測画像作成選択部201は間接予測画像作成部204を選択する。間接予測画像作成部204は,SとTの値を予測画像メモリ203から読み込んで予測画像を作成する。画素g,hについて,画素fと同様に予測画像を作成する。次に画素iについて,画素eと同様に予測画像を作成し,画素j,k,lについて,画素fと同様に予測画像を作成する。最後に画素mについて,画素eと同様に予測画像を作成し,画素n,o,pについて,画素fと同様に予測画像を作成する。
【0059】
予測誤差復号部202は,予測誤差符号化データを逆量子化し逆DCTして予測誤差を求める。復号画像作成部207は,予測誤差復号部202で復号した予測誤差と予測画像から復号画像を作成し復号画像メモリ208に蓄積する。以上により縦横8画素の画像の復号が完了する。
【0060】
以上の画像符号化装置100,画像復号装置200が行う処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
【0061】
なお,本実施の形態では,上と左の画像情報から式(6)に従って予測画像を求めたが,式(5)を使って予測画像を求めてもよい。変数β1 とβ2 とγを予め適切に設定しておくことにより,自由度の高い重み付けを行うことが可能である。また上と左だけではなく,例えば左上や右上の画素位置の画像情報を予測画像の作成に利用してもよい。
【0062】
また,従来のイントラ予測モード情報を符号化する予測画像作成方法と本発明を組み合わせるのも好適である。例えば鋭いエッジが存在するようなブロックではイントラ予測モードを同時に符号化する方法を使い,滑らかに輝度情報が変化するブロックでは本発明の予測方法を使うと,より予測効率を向上させ符号化効率を向上させることができる。この場合には,本発明の方法を使用するのか,従来のイントラ予測モードを使う方法を使用するのかを指定する情報も合わせて符号化する必要がある。
【0063】
以上のように本発明によれば,周囲の画像情報からの重み付け計算によって予測画像を作成する際に,重み付け係数の計算に必要な演算処理負荷を軽減することができる。
【0064】
【発明の効果】
本発明によれば,画面を分割した領域毎に,既に符号化し復号した領域の復号画像から予測する符号化方式において,周囲の領域の画像情報からの重み付け計算によって予測画像を作成する際における,重み付け係数の計算に必要な演算処理負荷を軽減することができる。
【図面の簡単な説明】
【図1】イントラ予測モードの予測方向の例を示す図である。
【図2】縦横4画素ブロック内の画像配置を示す図である。
【図3】画像符号化装置の構成例を示す図である。
【図4】予測画像作成選択部の動作フローを示す図である。
【図5】本実施の形態による画像符号化,復号の例を説明する図である。
【図6】画像復号装置の構成例を示す図である。
【符号の説明】
100 画像符号化装置
101 予測画像作成選択部
102 予測誤差作成部
103 予測画像メモリ
104 間接予測画像作成部
105 準直接予測画像作成部
106 直接予測画像作成部
107 予測誤差符号化部
108 予測誤差復号部
109 復号画像作成部
110 復号画像メモリ
200 画像復号装置
201 予測画像作成選択部
202 予測誤差復号部
203 予測画像メモリ
204 間接予測画像作成部
205 準直接予測画像作成部
206 直接予測画像作成部
207 復号画像作成部
208 復号画像メモリ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique relating to image encoding and decoding. In particular, in an encoding method for predicting a decoded image of an area which has already been encoded and decoded for each area obtained by dividing a screen, weighting from image information of surrounding areas is performed. The present invention relates to an image encoding method, an image decoding method, an image encoding device, and an image decoding device capable of reducing a calculation processing load required for calculating a weighting coefficient when a predicted image is created by calculation.
[0002]
[Prior art]
Generally, in image coding, a screen is divided into a plurality of regions, and orthogonal transformation is performed for each region. For example, in the international standard encoding method JPEG of a still image, a screen is divided into macroblocks of 16 pixels in length and width, DCT is performed for each macroblock, and DCT coefficients are quantized and entropy-coded. Furthermore, in the case of coding a still image and in the case of intra-frame coding of a region in a moving image, predictive coding using the correlation between the image information of the current macroblock and the image information of surrounding macroblocks. Is applied.
[0003]
This prediction method can be generally classified into two types. In the first method, DCT coefficients obtained by DCT in a region such as a macroblock are predicted from DCT coefficients in a surrounding already coded region. The DCT coefficient value to be encoded in the current area is a difference from the predicted value. For example, a moving picture coding scheme H.264. In the intra-frame encoding of H.263, DCT is performed on a block of 8 pixels vertically and horizontally, and its DC component and AC component are predicted from the DCT coefficients of the upper or left block (for example, see Non-Patent Document 1).
[0004]
In the second method, image information in a region such as a macroblock is predicted from a decoded image in a surrounding already coded region. The DCT coefficient value to be encoded in the current area is a DCT coefficient when image information of a difference from the predicted value is DCT. For example, a moving picture coding scheme H.264. In the 26L intra-frame encoding, image information in a block of 4 pixels vertically and horizontally is predicted from the image information of the decoded image of the surrounding already encoded and decoded block, and the difference from the predicted value is DCT.
[0005]
In the second method, since the image information is predicted from the surrounding decoded image, a coding method of a prediction error similar to the inter-frame prediction coding method can be used. For example, a method for quantizing DCT coefficients and an entropy coding method can be shared. For example, H. In 26L, a macroblock of 16 pixels in the vertical and horizontal directions is divided into 4 × 4 blocks of 4 pixels in the vertical and horizontal directions, and a predicted image is created from surrounding decoded images every 4 × 4 blocks. Then, the prediction error is subjected to DCT.
[0006]
As a method of creating a prediction image from surrounding decoded images, one direction is selected from eight directions as shown in FIG. 1 for each 4 × 4 block, and a decoded image at a position corresponding to each pixel in the selected direction is selected. use. As shown in FIG. 2, assuming that a decoded image is arranged for the current 4 × 4 block, for example, in the direction 1, the decoded image of each pixel in the block is obtained according to Expression (1). Further, for example, in the direction 4, it is obtained according to the equation (2).
[0007]
The operation symbol >> indicates a bit shift to the right. In this method, it is necessary to further encode intra prediction mode information indicating from which direction in FIG. 1 to perform prediction.
[0008]
a, e, i, m = A
b, f, j, n = B
c, g, k, o = C
d, h, l, p = D Equation (1)
m = (J + 2K + L + 2) >> 2
i, n = (I + 2J + K + 2) >> 2
e, j, o = (Q + 2I + J + 2) >> 2
a, f, k, p = (A + 2Q + I + 2) >> 2
b, g, l = (Q + 2A + B + 2) >> 2
c, h = (A + 2B + C + 2) >> 2
d = (B + 2C + D + 2) >> 2 Equation (2)
In the second prediction method of directly obtaining a predicted value from a decoded image of a surrounding block, when there is a sharp change in luminance such as a sharp edge between the surrounding block and the current block, the prediction image is adjusted to the position of the edge. Can be generated, so that coding efficiency can be improved as compared with the first prediction method.
[0009]
[Non-patent document 1]
"Joint Committee Draft (CD) of Joint Video Specification (ITU-T Rec. H.264 | ISO / IEC 14496-10)", Joint Video Team (JVT) of ISO / IEC MPEG & ITU-T VCEG Meeting, 2002.
[0010]
[Problems to be solved by the invention]
The magnitude of the correlation of image information between a certain pixel and surrounding pixels generally depends on the distance between pixels, and it is considered that the correlation decreases as the distance increases. Therefore, in the method of predicting from the decoded image of the surrounding block, if the weighted average of the image information of the decoded image of the surrounding block used for prediction is used for the predicted value of each pixel in the current block, the prediction efficiency becomes high. Conceivable.
[0011]
In this weighted averaging method, weighting may be performed according to the distance between the pixel position in the current block and the pixel position of the decoded image used for prediction. For example, when predicting the pixel o in the block of 4 pixels vertically and horizontally shown in FIG. 2 from the pixels A to C, I to L, and Q located above or to the left of the pixel o, the calculation can be performed by equation (3). . Where α j (J = 1,..., 8) are weighting coefficients according to the distance between the pixel o and each of the surrounding pixels, and are given as real numbers in the case of Expression (3).
[0012]
o = α 1 A + α Two B + α Three C + α Four I + α Five J + α 6 K + α 7 L + α 8 Q: Equation (3)
When predicting the pixel p in the block shown in FIG. 2 by expressing the distance between the pixel in the current block and the pixels of the surrounding decoded image as a fraction without using a real number, the following equation (4) is used. Become like In the case of equation (4), eight multiplications, eight additions, and one division are required.
[0013]
p = (β 1 A + β Two B + β Three C + β Four I + β Five J + β 6 K + β 7 L + β 8 Q) / γ Equation (4)
The weighting coefficient may be calculated only once when a predicted image of the first 4 × 4 block in the image is created, or a value calculated in advance may be stored. However, the weighting calculation, the multiplication of the decoded image information, and the addition thereof, as shown in Expression (4), need to be performed for all the pixels in the screen.
[0014]
As described above, in the weighting calculation from the surrounding image information, it is necessary to calculate the weighting coefficient depending on the distance between each pixel, and to multiply and add the weighting coefficient and the image information in a large amount. There is a problem of growing.
[0015]
SUMMARY OF THE INVENTION The present invention solves the above-described problems, and in a coding method for predicting a decoded image of an already encoded and decoded area for each divided area of a screen, a prediction image is calculated by weighting from image information of surrounding areas. An object of the present invention is to reduce a calculation processing load required for calculating a weighting coefficient at the time of creation.
[0016]
[Means for Solving the Problems]
In order to solve the above problems, the present invention uses the following method.
[0017]
A first invention is an image encoding method for encoding by using predictive encoding for each area obtained by dividing a screen, and when creating a predicted image of a current area, a decoded image of an area which has already been encoded and decoded. A direct prediction image generation step of generating image information from information, a quasi direct prediction image generation step of generating image information from decoded image information of an area which has already been encoded and decoded, and image information generated in the direct prediction image generation step; And an indirect predicted image generating step of generating image information from the image information generated in the direct predicted image generating step or the quasi-direct predicted image generating step.
[0018]
A second invention is an image decoding method for decoding by using predictive coding for each of divided areas of a screen. When a predicted image of a current area is created, a decoded image information of an already coded and decoded area is used. A direct prediction image generation step for generating image information, a quasi-direct prediction image generation step for generating image information from decoded image information of an area which has already been encoded and decoded, and image information generated in the direct prediction image generation step; The method is characterized by selecting and executing one of a predicted image creating step and an indirect predicted image creating step of creating image information from the image information created in the quasi-direct predicted image creating step.
[0019]
According to the present invention, a predicted image at a position other than the outer periphery of a region can be created not from a decoded image but from a predicted image at an adjacent pixel position. As a result, it is not necessary to directly create a predicted image of all pixels in the region from the decoded image, and the calculation processing load can be reduced. For example, when a predicted image of a pixel is created from the image information at the upper and left pixel positions in the 4 × 4 block shown in FIG. 2, the following operation is performed. The predicted image t of any pixel is calculated according to equation (5). Here, S indicates decoded image information or predicted image information at the upper pixel position, and T indicates decoded image information or predicted image information at the left pixel position.
[0020]
t = (β 1 S + β Two T) / γ Equation (5)
(Step 1) A predicted image of the pixel a is created from the decoded images A and I.
(Step 2) A predicted image of the pixel b is created from the decoded image B adjacent to the upper side and the predicted image of the pixel a adjacent to the left side. Similar processing is performed on the pixels c and d to create a predicted image.
(Step 3) A predicted image of the pixel e is created from the predicted image of the pixel a adjacent above and the decoded image J adjacent to the left. Similar processing is performed on the pixels i and m to create a predicted image.
(Step 4) A predicted image of the pixel f is created from the predicted image of the pixel b adjacent above and the predicted image of the pixel e adjacent to the left. Similar processing is performed on the pixels g, h, j, k, l, n, o, and p to create a predicted image.
[0021]
When a predicted image is created in such a procedure, a predicted image obtained by weighting the decoded image according to the distance can be obtained as a result. Variable β 1 And β Two By setting と and γ appropriately, different weights can be performed. In the case of a simple linear average, the calculation processing load can be further reduced by using the following equation (6) instead of the equation (5).
[0022]
t = (S + T + 1) >> 1 Equation (6)
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. An example in which a predicted image is created from upper and left image information will be described. It is assumed that an image of a screen of 8 pixels in length and width is divided into 4 × 4 blocks, and a DCT is performed by obtaining a prediction error for each block. The blocks are coded in the order of upper left, upper right, lower left, and lower right of the screen.
[0024]
First, the image encoding device will be described. FIG. 3 shows an outline of an image encoding apparatus according to the embodiment of the present invention. The image coding apparatus 100 includes a decoded image memory 110 for storing a decoded image, a predicted image memory 103 for storing a predicted image, and a direct predicted image for creating predicted image information from the image information stored in the decoded image memory 110. A creating unit 106; a quasi-direct predicted image creating unit 105 that creates predicted image information from image information stored in the decoded image memory 110 and image information stored in the predicted image memory 103; Selected from among the indirect predicted image creating unit 104, the direct predicted image creating unit 106, the quasi-direct predicted image creating unit 105, and the indirect predicted image creating unit 104 that creates the predicted image information from the image information stored in the A prediction image creation / selection unit 101; a prediction error creation unit 102 for obtaining a prediction error from a prediction image and a current image; Comprising an error coding unit 107, a prediction error decoding unit 108 for obtaining the prediction error information by decoding the prediction error coded data, a decoded image generating unit 109 to create a decoded image from the predicted image and the prediction error.
[0025]
The direct predicted image creation unit 106 reads the image information S located above the pixel to be predicted and the image information T located leftward from the decoded image memory 110, and creates a predicted image according to equation (6). Then, the created predicted image is stored in the predicted image memory 103. When the image information located at the upper or left side is not stored in the decoded image memory 110, S or T is set to a value of 128 in the direct prediction image creation unit 106, and the calculation of Expression (6) is performed.
[0026]
The quasi-direct predicted image creation unit 105 reads the image information S located above the pixel to be predicted from the decoded image memory 110 or the predicted image memory 103. If there is a decoded image in the decoded image memory 110, it is read from the decoded image memory 110, and if there is no decoded image in the decoded image memory 110, it is read from the predicted image memory 103. Image information T is similarly read for image information T located to the left of the pixel to be predicted. Then, a predicted image is created according to the equation (6), and the created predicted image is stored in the predicted image memory 103. If neither the decoded image memory 110 nor the predicted image memory 103 stores the image information located on the upper or left side, the quasi-direct predicted image generator 105 sets S or T to a value of 128. Equation (6) is calculated.
[0027]
The indirect predicted image creation unit 104 reads the image information S located above the pixel to be predicted and the image information T located leftward from the predicted image memory 103, and creates a predicted image according to equation (6). Then, the created predicted image is stored in the predicted image memory 103.
[0028]
The predicted image of the pixel in the block is created in the order of a, b, c, d, e, f, g, h, i, j, k, l, m, n, o, and p in FIG. . The predicted image creation selection unit 101 selects one of the direct predicted image creation unit 106, the quasi-direct predicted image creation unit 105, and the indirect predicted image creation unit 104 according to the operation flow shown in FIG.
[0029]
That is, as shown in FIG. 4, the predicted image creation selecting unit 101 determines whether there is a decoded image on both the upper side and the left side (step S11). Is selected (step S12), and a predicted image of the target pixel is created from the decoded image (step S13). If there is no decoded image on the top and left, it is determined whether there is a predicted image on both the top and left (step S14). If there is a predicted image, the indirect predicted image creation unit 104 is selected (step S14). S15), a predicted image of the target pixel is created from the predicted image (step S16).
[0030]
If there is no predicted image on the top and left, it is determined whether there is a decoded image on either the top or left, and whether there is a predicted image on either the top or left (step S17). If there is a decoded image in any of them and there is a predicted image in either the upper or left side, the quasi-direct predicted image creating unit 105 is selected (step S18), and the predicted image of the target pixel is extracted from the decoded image and the predicted image It is created (step S19).
[0031]
Otherwise, it is determined whether there is a decoded image on either the top or the left (step S20). If there is a decoded image on either the top or the left, the predicted image creation unit 106 is directly selected. (Step S21), a predicted image of the target pixel is created from the decoded image and the value 128 (Step S22).
[0032]
If there is no decoded image on either the top or the left, it is determined whether there is a predicted image on either the top or the left (step S23). If there is a predicted image on either the upper or left side, the quasi-direct predicted image generator 105 is selected (step S24), and a predicted image of the target pixel is generated from the predicted image and the value 128 (step S25). If there is no predicted image on either the top or the left, the predicted image creation unit 106 is directly selected (step S26), and a predicted image of the target pixel is created from the value 128 (step S27).
[0033]
In the present invention, for example, the direct prediction image generation unit 106 is selected for the pixel position a shown in FIG. 2, and the quasi direct prediction image generation unit 105 is selected for the pixel positions b, c, d, e, i, and m. Is selected, and the indirect prediction image creation unit 104 is selected for the pixel positions f, g, h, j, k, l, n, o, and p. The prediction error encoding unit 107 performs DCT and quantizes the prediction error. The prediction error decoding unit 108 dequantizes the prediction error encoded data and performs inverse DCT.
[0034]
Under such a premise, the encoding of each of the blocks B1, B2, B3, and B4 of 4 pixels in the vertical and horizontal directions obtained by dividing the image of the screen of 8 pixels in the vertical and horizontal directions will be described with reference to FIG. First, an upper left block B1 shown in FIG. 5A is encoded. For the pixel a, the predicted image creation selection unit 101 directly selects the predicted image creation unit 106. The direct prediction image creation unit 106 creates a prediction image by setting the values of S and T to 128. For the pixel b, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creation unit 105 sets the value of S to 128, reads T from the predicted image memory 103, and creates a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0035]
Next, for the pixel e, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creating unit 105 sets the value of T to 128, reads S from the predicted image memory 103, and creates a predicted image. For the pixel f, the predicted image creation selection unit 101 selects the indirect predicted image creation unit 104. The indirect predicted image creation unit 104 reads the values of S and T from the predicted image memory 103 to create a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f. Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0036]
The prediction error creation unit 102 creates a prediction error between the created prediction image and the current image, and the prediction error encoding unit 107 DCTs and quantizes the prediction error. The prediction error decoding unit 108 obtains a prediction error by performing inverse quantization and inverse DCT on the prediction error encoded data. The decoded image creation unit 109 creates a decoded image from the prediction error and the prediction image decoded by the prediction error decoding unit 108 and stores the decoded image in the decoded image memory 110.
[0037]
Next, the upper right block B2 shown in FIG. 5B is encoded. For the upper left block B1, a decoded image exists in the decoded image memory 110. For the pixel a, the predicted image creation selection unit 101 directly selects the predicted image creation unit 106. The direct predicted image creating unit 106 sets the value of S to 128, reads the value of T from the decoded image memory 110, and creates a predicted image. For the pixel b, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creation unit 105 sets the value of S to 128, reads T from the predicted image memory 103, and creates a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0038]
Next, for the pixel e, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creation unit 105 reads T from the decoded image memory 110 and reads S from the predicted image memory 103 to create a predicted image. For the pixel f, the predicted image creation selection unit 101 selects the indirect predicted image creation unit 104. The indirect predicted image creation unit 104 reads the values of S and T from the predicted image memory 103 to create a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f.
[0039]
Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0040]
The prediction error creation unit 102 creates a prediction error between the created prediction image and the current image, and the prediction error encoding unit 107 DCTs and quantizes the prediction error. The prediction error decoding unit 108 obtains a prediction error by performing inverse quantization and inverse DCT on the prediction error encoded data. The decoded image creation unit 109 creates a decoded image from the prediction error and the prediction image decoded by the prediction error decoding unit 108 and stores the decoded image in the decoded image memory 110.
[0041]
Next, the lower left block B3 shown in FIG. 5C is encoded. For the pixel a, the predicted image creation selection unit 101 directly selects the predicted image creation unit 106. The direct predicted image creation unit 106 sets the value of T to 128 and reads the value of S from the decoded image memory 110 to create a predicted image. For the pixel b, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creation unit 105 reads S from the decoded image memory 110 and reads T from the predicted image memory 103 to create a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0042]
Next, for the pixel e, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creating unit 105 sets the value of T to 128, reads S from the predicted image memory 103, and creates a predicted image. For the pixel f, the predicted image creation selection unit 101 selects the indirect predicted image creation unit 104. The indirect predicted image creation unit 104 reads the values of S and T from the predicted image memory 103 to create a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f. Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0043]
The prediction error creation unit 102 creates a prediction error between the created prediction image and the current image, and the prediction error encoding unit 107 DCTs and quantizes the prediction error. The prediction error decoding unit 108 obtains a prediction error by performing inverse quantization and inverse DCT on the prediction error encoded data. The decoded image creation unit 109 creates a decoded image from the prediction error and the prediction image decoded by the prediction error decoding unit 108 and stores the decoded image in the decoded image memory 110.
[0044]
Next, the lower right block B4 shown in FIG. 5D is encoded. For the pixel a, the predicted image creation selection unit 101 directly selects the predicted image creation unit 106. The direct predicted image creation unit 106 reads the values of T and S from the decoded image memory 110 and creates a predicted image. For the pixel b, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creation unit 105 reads S from the decoded image memory 110 and reads T from the predicted image memory 103 to create a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0045]
Next, for the pixel e, the predicted image creation selection unit 101 selects the quasi-direct predicted image creation unit 105. The quasi-direct predicted image creation unit 105 reads T from the decoded image memory 110 and reads S from the predicted image memory 103 to create a predicted image. For the pixel f, the predicted image creation selection unit 101 selects the indirect predicted image creation unit 104. The indirect predicted image creation unit 104 reads the values of S and T from the predicted image memory 103 to create a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f. Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0046]
The prediction error creation unit 102 creates a prediction error between the created prediction image and the current image, and the prediction error encoding unit 107 DCTs and quantizes the prediction error. The prediction error decoding unit 108 obtains a prediction error by performing inverse quantization and inverse DCT on the prediction error encoded data. The decoded image creation unit 109 creates a decoded image from the prediction error and the prediction image decoded by the prediction error decoding unit 108 and stores the decoded image in the decoded image memory 110. Thus, the encoding of the image of 8 pixels vertically and horizontally is completed.
[0047]
Next, the image decoding apparatus will be described. FIG. 6 shows an outline of the image decoding apparatus according to the embodiment of the present invention. The image decoding apparatus 200 includes a decoded image memory 208 for storing a decoded image, a predicted image memory 203 for storing a predicted image, and a direct predicted image generation for generating predicted image information from the image information stored in the decoded image memory 208. Unit 206, a quasi-direct predicted image creation unit 205 that creates predicted image information from image information stored in the decoded image memory 208, and image information stored in the predicted image memory 203, and stored in the predicted image memory 203. Indirectly predicted image creation unit 204 that creates predicted image information from image information that has been set, a predicted image that selects one of direct predicted image creation unit 206, quasi direct predicted image creation unit 205, and indirect predicted image creation unit 204 A creation / selection unit 201, a prediction error decoding unit 202 that decodes prediction error coded data and obtains prediction error information, And a decoded image generation unit 207 to create a decoded image from the difference. The operation of each unit is the same as that of the image encoding device 100.
[0048]
Under such a premise, the encoded data of each block of 4 pixels vertically and horizontally divided from the image of the screen of 8 pixels vertically and horizontally is decoded as follows. First, the upper left block B1 shown in FIG. 5A is decoded. For the pixel a, the predicted image creation selection unit 201 directly selects the predicted image creation unit 206. The direct predicted image creation unit 206 creates a predicted image by setting the values of S and T to 128. For the pixel b, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 sets the value of S to 128, reads T from the predicted image memory 203, and creates a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0049]
Next, for the pixel e, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 sets the value of T to 128, reads S from the predicted image memory 203, and creates a predicted image. For the pixel f, the predicted image creation selection unit 201 selects the indirect predicted image creation unit 204. The indirect predicted image creation unit 204 reads the values of S and T from the predicted image memory 203 and creates a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f. Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0050]
The prediction error decoding unit 202 obtains a prediction error by performing inverse quantization and inverse DCT on the encoded prediction error data. The decoded image creation unit 207 creates a decoded image from the prediction error decoded by the prediction error decoding unit 202 and the prediction image, and stores the decoded image in the decoded image memory 208.
[0051]
Next, decoding of the upper right block B2 shown in FIG. 5B is performed. For the pixel a, the predicted image creation selection unit 201 directly selects the predicted image creation unit 206. The direct prediction image creation unit 206 sets the value of S to 128 and reads the value of T from the decoded image memory 208 to create a prediction image. For the pixel b, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 sets the value of S to 128, reads T from the predicted image memory 203, and creates a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0052]
Next, for the pixel e, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 reads T from the decoded image memory 208 and reads S from the predicted image memory 203 to create a predicted image. For the pixel f, the predicted image creation selection unit 201 selects the indirect predicted image creation unit 204. The indirect predicted image creation unit 204 reads the values of S and T from the predicted image memory 203 and creates a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f. Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0053]
The prediction error decoding unit 202 obtains a prediction error by performing inverse quantization and inverse DCT on the encoded prediction error data. The decoded image creation unit 207 creates a decoded image from the prediction error decoded by the prediction error decoding unit 202 and the prediction image, and stores the decoded image in the decoded image memory 208.
[0054]
Next, the lower left block B3 shown in FIG. 5C is decoded. For the pixel a, the predicted image creation selection unit 201 directly selects the predicted image creation unit 206. The direct predicted image creation unit 206 sets the value of T to 128 and reads the value of S from the decoded image memory 208 to create a predicted image. For the pixel b, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 reads S from the decoded image memory 208 and reads T from the predicted image memory 203 to create a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0055]
Next, for the pixel e, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 sets the value of T to 128, reads S from the predicted image memory 203, and creates a predicted image. For the pixel f, the predicted image creation selection unit 201 selects the indirect predicted image creation unit 204. The indirect predicted image creation unit 204 reads the values of S and T from the predicted image memory 203 and creates a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f. Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0056]
The prediction error decoding unit 202 obtains a prediction error by performing inverse quantization and inverse DCT on the encoded prediction error data. The decoded image creation unit 207 creates a decoded image from the prediction error decoded by the prediction error decoding unit 202 and the prediction image, and stores the decoded image in the decoded image memory 208.
[0057]
Next, the lower right block B4 shown in FIG. 5D is decoded. For the pixel a, the predicted image creation selection unit 201 directly selects the predicted image creation unit 206. The direct predicted image creation unit 206 reads the values of T and S from the decoded image memory 208 and creates a predicted image. For the pixel b, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 reads S from the decoded image memory 208 and reads T from the predicted image memory 203 to create a predicted image. A predicted image is created for pixels c and d in the same manner as for pixel b.
[0058]
Next, for the pixel e, the predicted image creation selection unit 201 selects the quasi-direct predicted image creation unit 205. The quasi-direct predicted image creation unit 205 reads T from the decoded image memory 208 and reads S from the predicted image memory 203 to create a predicted image. For the pixel f, the predicted image creation selection unit 201 selects the indirect predicted image creation unit 204. The indirect predicted image creation unit 204 reads the values of S and T from the predicted image memory 203 and creates a predicted image. A predicted image is created for pixels g and h in the same manner as for pixel f. Next, a predicted image is created for pixel i in the same manner as pixel e, and a predicted image is created for pixels j, k, and l in the same manner as pixel f. Finally, a predicted image is created for pixel m in the same manner as pixel e, and a predicted image is created for pixels n, o, and p in the same manner as pixel f.
[0059]
The prediction error decoding unit 202 obtains a prediction error by performing inverse quantization and inverse DCT on the encoded prediction error data. The decoded image creation unit 207 creates a decoded image from the prediction error decoded by the prediction error decoding unit 202 and the prediction image, and stores the decoded image in the decoded image memory 208. Thus, decoding of the image of 8 pixels in length and width is completed.
[0060]
The processing performed by the image encoding device 100 and the image decoding device 200 can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network. Is also possible.
[0061]
In the present embodiment, the predicted image is obtained from the upper and left image information according to Expression (6), but the predicted image may be obtained using Expression (5). Variable β 1 And β Two By appropriately setting in advance and γ, weighting with a high degree of freedom can be performed. Further, not only the upper and left sides but also the image information at the upper left and upper right pixel positions, for example, may be used for creating the predicted image.
[0062]
It is also preferable to combine the present invention with a conventional predicted image creation method for encoding intra prediction mode information. For example, in a block having a sharp edge, a method of simultaneously coding the intra prediction mode is used, and in a block in which luminance information changes smoothly, the prediction method of the present invention is used to further improve the prediction efficiency and improve the coding efficiency. Can be improved. In this case, it is necessary to encode information specifying whether to use the method of the present invention or the method using the conventional intra prediction mode.
[0063]
As described above, according to the present invention, when a predicted image is created by weighting calculation from surrounding image information, the calculation processing load required for calculating the weighting coefficient can be reduced.
[0064]
【The invention's effect】
According to the present invention, in a coding method for predicting from a decoded image of a region already coded and decoded for each region obtained by dividing a screen, when a predicted image is created by weighting calculation from image information of a surrounding region, The calculation processing load required for calculating the weighting coefficient can be reduced.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of a prediction direction in an intra prediction mode.
FIG. 2 is a diagram showing an image arrangement in a vertical and horizontal four pixel block.
FIG. 3 is a diagram illustrating a configuration example of an image encoding device.
FIG. 4 is a diagram illustrating an operation flow of a prediction image creation selection unit.
FIG. 5 is a diagram illustrating an example of image encoding and decoding according to the present embodiment.
FIG. 6 is a diagram illustrating a configuration example of an image decoding device.
[Explanation of symbols]
100 image encoding device
101 prediction image creation selection unit
102 Prediction error generator
103 prediction image memory
104 Indirect prediction image creation unit
105 Quasi-direct prediction image creation unit
106 Direct prediction image creation unit
107 prediction error encoding unit
108 prediction error decoding unit
109 Decoded image creation unit
110 Decoded image memory
200 Image decoding device
201 Prediction image creation selection unit
202 prediction error decoding unit
203 Predictive image memory
204 Indirect prediction image creation unit
205 Quasi-direct prediction image creation unit
206 Direct prediction image creation unit
207 Decoded image creation unit
208 Decoded image memory

Claims (8)

画面を分割した領域毎に予測符号化を用いて符号化する画像符号化方法であって,現領域の予測画像を作成するときに,
既に符号化し復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成ステップと,
既に符号化し復号した領域の復号画像情報と,前記直接予測画像作成ステップで作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成ステップと,
前記直接予測画像作成ステップまたは前記準直接予測画像作成ステップで作成した画像情報から予測画像の画像情報を作成する間接予測画像作成ステップとを有し,
前記直接予測画像作成ステップ,前記準直接予測画像作成ステップおよび前記間接予測画像作成ステップのいずれかを選択して予測画像の作成を実行することを特徴とする画像符号化方法。
An image encoding method for encoding using a predictive encoding for each of the divided regions of a screen.
A direct predicted image creating step of creating image information of a predicted image from decoded image information of an already encoded and decoded area;
A quasi-direct predicted image creating step of creating image information of a predicted image from the decoded image information of the already encoded and decoded area and the image information created in the direct predicted image creating step;
An indirect predictive image creating step of creating image information of a predictive image from the image information created in the direct predictive image creating step or the quasi direct predictive image creating step,
An image coding method, wherein a predicted image is created by selecting one of the direct predicted image creating step, the quasi direct predicted image creating step, and the indirect predicted image creating step.
画面を分割した領域毎に予測符号化を用いて復号する画像復号方法であって,現領域の予測画像を作成するときに,
既に符号化し復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成ステップと,
既に符号化し復号した領域の復号画像情報と,前記直接予測画像作成ステップで作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成ステップと,
前記直接予測画像作成ステップまたは前記準直接予測画像作成ステップで作成した画像情報から予測画像の画像情報を作成する間接予測画像作成ステップとを有し,
前記直接予測画像作成ステップ,前記準直接予測画像作成ステップおよび前記間接予測画像作成ステップのいずれかを選択して予測画像の作成を実行することを特徴とする画像復号方法。
An image decoding method for decoding by using predictive coding for each area obtained by dividing a screen.
A direct predicted image creating step of creating image information of a predicted image from decoded image information of an already encoded and decoded area;
A quasi-direct predicted image creating step of creating image information of a predicted image from the decoded image information of the already encoded and decoded area and the image information created in the direct predicted image creating step;
An indirect predictive image creating step of creating image information of a predictive image from the image information created in the direct predictive image creating step or the quasi direct predictive image creating step,
An image decoding method comprising selecting any one of the direct predicted image creating step, the quasi direct predicted image creating step, and the indirect predicted image creating step to create a predicted image.
画面を分割した領域毎に,既に符号化した領域の復号画像との間の予測誤差を用いて符号化する画像符号化装置であって,
既に符号化し復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成部と,
既に符号化し復号した領域の復号画像情報と,前記直接予測画像作成部で作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成部と,
前記直接予測画像作成部または前記準直接予測画像作成部で作成した画像情報から予測画像の画像情報を作成する間接予測画像作成部と,
前記直接予測画像作成部と前記準直接予測画像作成部と前記間接予測画像作成部のうちいずれかを選択する予測画像作成選択部と,
予測画像を蓄積する予測画像メモリと,
予測画像と現画像から予測誤差を求める予測誤差作成部と,
予測誤差を符号化する予測誤差符号化部と,
予測誤差符号化データを復号し予測誤差情報を求める予測誤差復号部と,
予測画像と予測誤差から復号画像を作成する復号画像作成部と,
復号画像を蓄積する復号画像メモリとを備えることを特徴とする画像符号化装置。
An image coding apparatus for coding, using a prediction error between a decoded image of an already coded region and a decoded image of a previously coded region, for each region obtained by dividing the screen,
A direct prediction image generation unit that generates image information of a prediction image from decoded image information of an area that has already been encoded and decoded;
A quasi-direct predicted image creating unit for creating image information of a predicted image from the decoded image information of the already encoded and decoded area and the image information created by the direct predicted image creating unit;
An indirect predicted image generating unit that generates image information of a predicted image from the image information generated by the direct predicted image generating unit or the quasi direct predicted image generating unit;
A prediction image creation selection unit that selects any of the direct prediction image creation unit, the quasi direct prediction image creation unit, and the indirect prediction image creation unit;
A predicted image memory for storing predicted images,
A prediction error generator for calculating a prediction error from the predicted image and the current image;
A prediction error encoding unit for encoding the prediction error,
A prediction error decoding unit for decoding the prediction error encoded data to obtain prediction error information;
A decoded image creation unit for creating a decoded image from the predicted image and the prediction error;
An image encoding device, comprising: a decoded image memory for storing a decoded image.
画面を分割した領域毎に,既に復号した領域の復号画像を用いて復号する画像復号装置であって,
既に復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成部と,
既に復号した領域の復号画像情報と,前記直接予測画像作成部で作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成部と,
前記直接予測画像作成部または前記準直接予測画像作成部で作成した画像情報から予測画像の画像情報を作成する間接予測画像作成部と,
前記直接予測画像作成部と前記準直接予測画像作成部と前記間接予測画像作成部のうちいずれかを選択する予測画像作成選択部と,
予測誤差符号化データを復号し予測誤差情報を求める予測誤差復号部と,
予測画像を蓄積する予測画像メモリと,
予測画像と予測誤差から復号画像を作成する復号画像作成部と,
復号画像を蓄積する復号画像メモリとを備えることを特徴とする画像復号装置。
An image decoding apparatus for decoding, using a decoded image of an already decoded area, for each area obtained by dividing a screen,
A direct prediction image creation unit for creating image information of a prediction image from decoded image information of an already decoded region;
A quasi-direct predicted image creating unit for creating image information of a predicted image from the decoded image information of the already decoded area and the image information created by the direct predicted image creating unit;
An indirect predicted image generating unit that generates image information of a predicted image from the image information generated by the direct predicted image generating unit or the quasi direct predicted image generating unit;
A prediction image creation selection unit that selects any of the direct prediction image creation unit, the quasi direct prediction image creation unit, and the indirect prediction image creation unit;
A prediction error decoding unit for decoding the prediction error encoded data to obtain prediction error information;
A predicted image memory for storing predicted images,
A decoded image creation unit for creating a decoded image from the predicted image and the prediction error;
An image decoding device, comprising: a decoded image memory for storing a decoded image.
コンピュータにより,画面を分割した領域毎に予測符号化を用いて画像を符号化するための画像符号化プログラムであって,
既に符号化し復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成処理と,
既に符号化し復号した領域の復号画像情報と,前記直接予測画像作成処理で作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成処理と,
前記直接予測画像作成処理または前記準直接予測画像作成処理で作成した画像情報から予測画像の画像情報を作成する間接予測画像作成処理と,
現領域の予測画像を作成するときに,前記直接予測画像作成処理,前記準直接予測画像作成処理および前記間接予測画像作成処理のいずれかを選択する処理とを,
コンピュータに実行させるための画像符号化プログラム。
An image encoding program for encoding an image using predictive encoding for each area obtained by dividing a screen by a computer,
A direct prediction image creation process for creating image information of a prediction image from decoded image information of a region already encoded and decoded,
A quasi-direct predicted image creating process for creating image information of a predicted image from the decoded image information of the already encoded and decoded region and the image information created in the direct predicted image creating process;
An indirect predicted image creation process for creating image information of a predicted image from the image information created in the direct predicted image creation process or the quasi-direct predicted image creation process;
When creating a predicted image of the current region, a process of selecting any of the direct predicted image creation process, the quasi-direct predicted image creation process, and the indirect predicted image creation process,
An image encoding program to be executed by a computer.
コンピュータにより,画面を分割した領域毎に予測符号化を用いて画像を復号するための画像復号プログラムであって,
既に符号化し復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成処理と,
既に符号化し復号した領域の復号画像情報と,前記直接予測画像作成処理で作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成処理と,
前記直接予測画像作成処理または前記準直接予測画像作成処理で作成した画像情報から予測画像の画像情報を作成する間接予測画像作成処理と,
現領域の予測画像を作成するときに,前記直接予測画像作成処理,前記準直接予測画像作成処理および前記間接予測画像作成処理のいずれかを選択する処理とを,
コンピュータに実行させるための画像復号プログラム。
An image decoding program for decoding an image by using a predictive coding for each area obtained by dividing a screen by a computer,
A direct prediction image creation process for creating image information of a prediction image from decoded image information of a region already encoded and decoded,
A quasi-direct predicted image creating process for creating image information of a predicted image from the decoded image information of the already encoded and decoded region and the image information created in the direct predicted image creating process;
An indirect predicted image creation process for creating image information of a predicted image from the image information created in the direct predicted image creation process or the quasi-direct predicted image creation process;
When creating a predicted image of the current region, a process of selecting any of the direct predicted image creation process, the quasi-direct predicted image creation process, and the indirect predicted image creation process,
An image decoding program to be executed by a computer.
コンピュータにより,画面を分割した領域毎に予測符号化を用いて画像を符号化するための画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体であって,
既に符号化し復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成処理と,
既に符号化し復号した領域の復号画像情報と,前記直接予測画像作成処理で作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成処理と,
前記直接予測画像作成処理または前記準直接予測画像作成処理で作成した画像情報から予測画像の画像情報を作成する間接予測画像作成処理と,
現領域の予測画像を作成するときに,前記直接予測画像作成処理,前記準直接予測画像作成処理および前記間接予測画像作成処理のいずれかを選択する処理とを,
コンピュータに実行させるための画像符号化プログラムを記録した記録媒体。
A computer-readable recording medium storing an image encoding program for encoding an image using predictive encoding for each area obtained by dividing a screen by a computer,
A direct prediction image creation process for creating image information of a prediction image from decoded image information of a region already encoded and decoded,
A quasi-direct predicted image creating process for creating image information of a predicted image from the decoded image information of the already encoded and decoded region and the image information created in the direct predicted image creating process;
An indirect predicted image creation process for creating image information of a predicted image from the image information created in the direct predicted image creation process or the quasi-direct predicted image creation process;
When creating a predicted image of the current region, a process of selecting any of the direct predicted image creation process, the quasi-direct predicted image creation process, and the indirect predicted image creation process,
A recording medium storing an image encoding program to be executed by a computer.
コンピュータにより,画面を分割した領域毎に予測符号化を用いて画像を復号するための画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体であって,
既に符号化し復号した領域の復号画像情報から予測画像の画像情報を作成する直接予測画像作成処理と,
既に符号化し復号した領域の復号画像情報と,前記直接予測画像作成処理で作成した画像情報とから予測画像の画像情報を作成する準直接予測画像作成処理と,
前記直接予測画像作成処理または前記準直接予測画像作成処理で作成した画像情報から予測画像の画像情報を作成する間接予測画像作成処理と,
現領域の予測画像を作成するときに,前記直接予測画像作成処理,前記準直接予測画像作成処理および前記間接予測画像作成処理のいずれかを選択する処理とを,
コンピュータに実行させるための画像復号プログラムを記録した記録媒体。
A computer-readable recording medium that stores an image decoding program for decoding an image using predictive coding for each area obtained by dividing a screen by a computer,
A direct prediction image creation process for creating image information of a prediction image from decoded image information of a region already encoded and decoded,
A quasi-direct predicted image creating process for creating image information of a predicted image from the decoded image information of the already encoded and decoded region and the image information created in the direct predicted image creating process;
An indirect predicted image creation process for creating image information of a predicted image from the image information created in the direct predicted image creation process or the quasi-direct predicted image creation process;
When creating a predicted image of the current region, a process of selecting any of the direct predicted image creation process, the quasi-direct predicted image creation process, and the indirect predicted image creation process,
A recording medium on which an image decoding program to be executed by a computer is recorded.
JP2002366632A 2002-12-18 2002-12-18 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium on which image encoding program is recorded, and recording medium on which image decoding program is recorded Expired - Fee Related JP4290972B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002366632A JP4290972B2 (en) 2002-12-18 2002-12-18 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium on which image encoding program is recorded, and recording medium on which image decoding program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002366632A JP4290972B2 (en) 2002-12-18 2002-12-18 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium on which image encoding program is recorded, and recording medium on which image decoding program is recorded

Publications (3)

Publication Number Publication Date
JP2004200991A true JP2004200991A (en) 2004-07-15
JP2004200991A5 JP2004200991A5 (en) 2007-07-12
JP4290972B2 JP4290972B2 (en) 2009-07-08

Family

ID=32763776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002366632A Expired - Fee Related JP4290972B2 (en) 2002-12-18 2002-12-18 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium on which image encoding program is recorded, and recording medium on which image decoding program is recorded

Country Status (1)

Country Link
JP (1) JP4290972B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008084817A1 (en) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba Image encoding and decoding method and device
JP2008206211A (en) * 2008-06-02 2008-09-04 Toshiba Corp Dynamic image encoding/decoding method and device
JP2009094828A (en) * 2007-10-10 2009-04-30 Hitachi Ltd Device and method for encoding image, and device and method for decoding image
WO2010131601A1 (en) * 2009-05-15 2010-11-18 ソニー株式会社 Image processing device, method, and program
US8040951B2 (en) 2004-09-30 2011-10-18 Kabushiki Kaisha Toshiba Information processing apparatus and program for use in the same
WO2012035640A1 (en) * 2010-09-16 2012-03-22 株式会社 東芝 Moving picture encoding method and moving picture decoding method
JP2013074304A (en) * 2011-09-26 2013-04-22 Nippon Telegr & Teleph Corp <Ntt> Image encoding method, image decoding method, image encoder, image decoder, image encoding program, and image decoding program
JP2013223149A (en) * 2012-04-17 2013-10-28 Nippon Hoso Kyokai <Nhk> Image encoding device, image decoding device, image encoding program, and image decoding program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8040951B2 (en) 2004-09-30 2011-10-18 Kabushiki Kaisha Toshiba Information processing apparatus and program for use in the same
WO2008084817A1 (en) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba Image encoding and decoding method and device
JP2009094828A (en) * 2007-10-10 2009-04-30 Hitachi Ltd Device and method for encoding image, and device and method for decoding image
JP2008206211A (en) * 2008-06-02 2008-09-04 Toshiba Corp Dynamic image encoding/decoding method and device
WO2010131601A1 (en) * 2009-05-15 2010-11-18 ソニー株式会社 Image processing device, method, and program
JP2010268259A (en) * 2009-05-15 2010-11-25 Sony Corp Image processing device and method, and program
CN102422643A (en) * 2009-05-15 2012-04-18 索尼公司 Image processing device, method, and program
WO2012035640A1 (en) * 2010-09-16 2012-03-22 株式会社 東芝 Moving picture encoding method and moving picture decoding method
JP2013074304A (en) * 2011-09-26 2013-04-22 Nippon Telegr & Teleph Corp <Ntt> Image encoding method, image decoding method, image encoder, image decoder, image encoding program, and image decoding program
JP2013223149A (en) * 2012-04-17 2013-10-28 Nippon Hoso Kyokai <Nhk> Image encoding device, image decoding device, image encoding program, and image decoding program

Also Published As

Publication number Publication date
JP4290972B2 (en) 2009-07-08

Similar Documents

Publication Publication Date Title
RU2643504C1 (en) Advanced intraframe prediction coding using planar representations
KR101473278B1 (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
JP5261376B2 (en) Image coding apparatus and image decoding apparatus
KR101985004B1 (en) Coding apparatus, decoding apparatus, coding method, decoding method, and computer-readable storage medium
JP4495580B2 (en) In-plane prediction apparatus and in-plane prediction method
JP6807987B2 (en) Image coding device, moving image decoding device, moving image coding data and recording medium
JP4707118B2 (en) Intra prediction method for moving picture coding apparatus and moving picture decoding apparatus
US8204136B2 (en) Image encoding apparatus
JP5246264B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP5219089B2 (en) Image data generation method
KR20120008423A (en) Method and apparatus for video intra prediction encoding, and method and apparatus for video intra prediction decoding
JP5488613B2 (en) Moving picture encoding apparatus and moving picture decoding apparatus
KR101615643B1 (en) Compression of pictures
JP4939273B2 (en) Image coding apparatus and image coding method
JP2007013298A (en) Image coding apparatus
JP4290972B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium on which image encoding program is recorded, and recording medium on which image decoding program is recorded
JPWO2006100946A1 (en) Image signal re-encoding device and image signal re-encoding method
JP2006148615A (en) Decoding device and program for making computer execute encoding method
JP2007266679A (en) Moving picture encoder
JP4786623B2 (en) Moving picture encoding apparatus and moving picture decoding apparatus
JP2006295734A (en) Re-encoding apparatus, re-encoding method, and re-encoding program
JP2008193501A (en) Image encoding device and image encoding method
JP2009049513A (en) Moving picture encoding device and moving picture encoding method
JP2008092137A (en) Image coding apparatus and image coding method
JP2006262075A (en) Image encoder, method for encoding image and program for encoding image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070525

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090402

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120410

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130410

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140410

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees