JP2007221201A - 動画像符号化装置及び動画像符号化プログラム - Google Patents

動画像符号化装置及び動画像符号化プログラム Download PDF

Info

Publication number
JP2007221201A
JP2007221201A JP2006036155A JP2006036155A JP2007221201A JP 2007221201 A JP2007221201 A JP 2007221201A JP 2006036155 A JP2006036155 A JP 2006036155A JP 2006036155 A JP2006036155 A JP 2006036155A JP 2007221201 A JP2007221201 A JP 2007221201A
Authority
JP
Japan
Prior art keywords
weighted prediction
prediction
encoding
reference image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006036155A
Other languages
English (en)
Inventor
Hiroyuki Kurashige
宏之 倉重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2006036155A priority Critical patent/JP2007221201A/ja
Publication of JP2007221201A publication Critical patent/JP2007221201A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】従来は、1つ以上の参照ピクチャに複数の参照インデックスを対応付け、符号化する毎に割り振り方を更新する必要がある。そのため、処理量が増大する。
【解決手段】テーブル算出部113は、符号化対象のBスライスと参照ピクチャの輝度値の比をMB単位でとり、度数が最も多い順に輝度値の比を第1、第2の重み付け予測テーブルとして算出する。テーブル割り当て部114は、リスト0による主に前方向参照の参照ピクチャと、リスト1による主に後方向参照の参照ピクチャに対して、第1の重み付け予測テーブルを割り当てる。また、第1の重み付け予測テーブルにおけるリスト0による参照ピクチャと同じ参照ピクチャを示す、リスト1による参照ピクチャと、第1の重み付け予測テーブルにおけるリスト1による参照ピクチャと同じ参照ピクチャを示す、リスト0による参照ピクチャに対して、第2の重み付け予測テーブルを割り当てる。
【選択図】図1

Description

本発明は動画像符号化装置及び動画像符号化プログラムに係り、特に動画像符号化方式としてフレーム間予測符号化方式を用いた動画像符号化装置及び動画像符号化プログラムに関する。
近年、インターネットやDVD(Digital Versatile Disk)レコーダなどの普及により、デジタル表現された動画像はますます一般的になっている。動画像を少ない符号量で効率的にデジタル表現する手法として、MPEG(Moving Picture Experts Group)などに代表される、フレーム間予測符号化方式が広く用いられている。しかし、MPEG4までのフレーム間予測符号化方式では、フェードやフラッシュしている動画像などにおいては、その振幅変動を予測していないために、符号化時にノイズが重畳する問題があった。この問題を解決するため、新しい符号化方式であるH.264/MPEG−AVC(以下、AVC)においては、重み付け予測方式が導入された。この方式により振幅変動を予測し、高い符号化効率を実現できる(例えば、非特許文献1参照)。
AVCの重み付け予測を行う際には、それが明示的重み付け予測(explicit mode)である場合、重み付け予測テーブルを用いて重み付け予測がなされる。この重み付け予測テーブルは、AVCにおける符号化の基本単位である1つのスライスに対して1つのみが割り当てられる。そのため、1つのスライスに対して複数の重み付け予測テーブルを割り当てたい場合には、複数の参照インデックスをピクチャに割り当てることにより可能となる(例えば、特許文献1参照)。
すなわち、上記の特許文献1記載の従来の動画像符号化装置では、ピクチャ番号で識別される符号化済ピクチャを参照ピクチャとして記憶部に記憶し、予測画像の生成に用いられる係数及び上記の参照ピクチャを指定する参照インデックスとピクチャ番号とを対応付けるコマンドを生成し、符号化対象ピクチャ上のブロックに対して動き補償を行うときの参照ピクチャを参照インデックスにより指定し、参照インデックスにより指定された参照ピクチャ内の動き検出に用いたブロックに対して、参照インデックスに対応した係数を用いた線形予測を施すことにより予測画像を生成する。
ここで、参照ピクチャのピクチャ番号に対して複数の参照インデックスが対応付けられている場合、複数の参照インデックスのそれぞれに対応する係数に基づいて、その中の一つの参照インデックスを選択し、その選択された参照インデックスに対応する係数を用いて線形予測(重み付け予測)を施す。
ISO/IEC14496−10:2004、Information technology―Coding of audio-visual objects―Part 10:Advanced Video Coding 特開2004−242276号公報
特許文献1記載の動画像符号化装置のように、従来は複数の重み付け予測テーブルを参照ピクチャに割り当てる場合には、複数の参照インデックスを参照ピクチャに割り当てている。しかし、この方法では、参照インデックスを各参照ピクチャに割り当てるためのコマンドを生成し、1つ以上の参照ピクチャに複数の参照インデックスを対応付け、符号化する毎に割り振り方を更新する必要がある。そのため、処理量が増大することが課題である。
本発明は上記の点に鑑みなされたもので、最大2つの参照ピクチャを予測のために参照する所定の符号化単位においては、2つの重み付け予測テーブルを簡易な方法で割り当てることにより、処理量を削減し得る動画像符号化装置及び動画像符号化プログラムを提供することを目的とする。
上記の目的を達成するため、本発明の動画像符号化装置は、動画像信号を所定画素数の符号化単位でフレーム間予測符号化方式を用いて符号化する際に、参照画像に対して重み付け予測をして得られた予測画像と符号化単位との差分値を得て、その差分値に対して符号化を行う動画像符号化装置であって、参照画像の符号化単位の画像情報と、その参照画像を参照する符号化対象の画像信号の符号化単位の所定の画像情報との比をとり、その比の度数毎に作成したヒストグラムにおいて、度数が多い方から順に決定した第1の重み付け予測テーブルと第2の重み付け予測テーブルを、重み付け予測に用いる重み付け予測テーブルとして算出するテーブル算出手段と、参照インデックスを用いて表される参照画像をリストにより管理しており、そのリストの中で、符号化時に参照画像を参照する符号化対象の画像信号の表示タイミングを基準として表示順で前方向の予測に主に用いられる第1の参照画像と、表示順で後方向の予測に主に用いられる第2の参照画像とが、同じ参照画像であるとき、上記の比が近い方の第1の重み付け予測テーブル及び第2の重み付け予測テーブルの一方を割り当てるテーブル割り当て手段と、テーブル割り当て手段により同じ参照画像である第1の参照画像及び第2の参照画像に対して、割り当てられる第1の重み付け予測テーブルと第2の重み付け予測テーブルを切り替えながら、重み付け予測を行う重み付け予測手段とを有することを特徴とする。
また、上記の目的を達成するため、本発明の動画像符号化プログラムは、コンピュータを、上記の発明の動画像符号化装置の各構成手段として機能させることを特徴とする。
本発明の動画像符号化装置及び動画像符号化プログラムでは、前方向の予測に主に用いられる第1の参照画像と、後方向の予測に主に用いられる第2の参照画像とに第1の重み付け予測テーブル又は第2の重み付け予測テーブルを割り当て、また同じ参照画像である第1の参照画像及び第2の参照画像に対して、割り当てられる第1の重み付け予測テーブルと第2の重み付け予測テーブルを切り替えながら、重み付け予測を行うようにしたため、1つ以上の参照画像に複数の参照インデックスを対応付けることなく、符号化する毎に割り振り方を更新する必要がない。また、同じ第1及び第2の参照画像は、第1の重み付け予測テーブル又は第2の重み付け予測テーブルが割り当てられ、画面内の局所性に応じた重み付け予測テーブルを選択できる。
本発明によれば、1つ以上の参照画像に複数の参照インデックスを対応付けることなく、符号化する毎に割り振り方を更新する必要がないので、重み付け予測テーブルを割り当てる処理量を削減することができ、また、画面内の局所性に応じた重み付け予測テーブルを選択できるため、効率的に符号化を行うことができる。
次に、本発明の実施の形態について図面と共に説明する。図1は本発明になる動画像符号化装置の一実施の形態のブロック図を示す。同図において、動画像符号化装置100は、AVCによる動画像符号化装置であって、動画像信号である入力信号11が減算器101を介して入力されるDCT部102、DCT部102の出力信号に対して量子化を行う量子化部103、量子化部103の出力信号に対して可変長符号化を行って出力符号12を得る可変長符号化部104、量子化部103の出力信号に対して逆量子化を行う逆量子化部105、逆DCT処理を行う逆DCT部106、加算器107、デブロックフィルタ部108、メモリ部109、メモリ部109の出力信号に対して動き推定(ME)処理を行うME部110、ME部110の出力信号に対して動き補償(MC)処理を行うMC部111を有する。更に、動画像符号化装置100は、重み付け予測部112、テーブル算出部113、テーブル割り当て部114、イントラ予測部115及びスイッチ116を有する。
次に、この動画像符号化装置100の動作の概要について説明する。動画像符号化装置100は符号化対象の画像信号が入力信号11として入力されると、この入力信号11に対して減算器101において、スイッチ116を介して入力されるイントラ予測部115からの予測値又は重み付け予測部112からのインター予測による予測値との差分値を算出する。同じ画面内の画像サンプルを用いて別位置の画像サンプルを予測するイントラ予測符号化の場合、イントラ予測部115からの予測値との差分値はDCT部102によって離散コサイン変換(DCT:Discrete Cosine Transform)が施され、更に量子化部103によって量子化が施された後、可変長符号化部104によって可変長符号化され、出力符号12として出力される。
一方、フレーム間予測符号化であるインター予測符号化の場合、ローカルデコードが行われて再生画像が生成される。そのとき、量子化部103から出力された量子化が施された信号は逆量子化部105によって逆量子化が施され、更に逆DCT部106によって逆DCTが施され、加算器107によりスイッチ116からの予測値と加算された後、デブロックフィルタ部108によって、画像の符号化時に生じるブロック歪みを低減させるためのフィルタ処理が施されて、メモリ部109内に蓄積される。そして、メモリ部109から該当する画像信号が取り出され、ME部110によってME(動き推定)が施されて動きベクトルが予測され、MC部111によってMC(動き補償)が施される。MC部111の出力信号は重み付け予測部112に供給されて重み付け予測される。
明示的な重み付け予測がなされる場合には、テーブル算出部113において重み付け予測テーブルを算出し、この重み付け予測テーブルをテーブル割り当て部114により割り当て、この割り当てられた重み付け予測テーブルを用いて重み付け予測部112において重み付け予測が施され、インター予測による予測値(予測画像)として出力される。重み付け予測は、ME時に考慮されることもある。
このようにして符号化された動画像符号化データである出力符号12は、任意の伝送路を経て動画像復号化装置(デコーダ)に供給されて復号される。図2はこの動画像復号化装置の一例のブロック図を示す。同図において、動画像符号化装置100の出力符号12が入力符号21として動画像復号化装置200に入力され、可変長復号化部201において可変長復号される。復号内容が差分値の場合、逆量子化部202によって逆量子化が施された後、逆DCT部203によって逆DCTが施される。復号内容が予測値の場合、イントラ予測部204によるイントラ予測によって得られた予測値、又はインター予測によって得られた予測値が、スイッチ207を介して加算器208に供給されて、逆DCT部203の出力値と加算されて画素値となる。
上記のインター予測では、可変長復号化部201で復号化された予測値がMC部205によってMC(動き補償)が施され、重み付け予測が必要な時は重み付け予測部206による重み付け予測が施されてインター予測により得られた予測値として出力される。加算器208から出力される画素値は、デブロックフィルタ部209によってブロック歪み低減のためのデブロックフィルタ処理が施された後、必要に応じてバッファ部210に一時格納され、出力時間になると出力信号22として出力される。
次に、AVCのインター予測について補足説明する。AVCでは、符号化効率向上のための、複数の参照ピクチャを使用するマルチリファレンスが採用されている。そこで、参照ピクチャはリストにより管理され、主に前方向の予測に用いられる場合にはL0、主に後方向の予測に用いられる場合にはL1として区別している。また、どの参照ピクチャを用いているかを、参照インデックスを用いて表す。
次に、AVCの重み付け予測について説明する。重み付け予測は、以下の式で定義されている。ここで、位置[x,y]の重み付け予測前の値はL0予測の場合にはpredPartL0C[x,y]、L1予測の場合にはpredPartL1C[x,y]であり、重み付け予測後の値はpredPartC[x,y](C=Lのときは輝度、C=Cbのときは青色差、C=Crのときは赤色差)である。また、クリップ関数にあるBiteDepthYおよびBiteDepthCは、輝度及び色差のビット深度である。
Clip1Y(x)=Clip3(0,(1≪BitDepthY)−1,x) (1)
Clip1C(x)=Clip3(0,(1≪BitDepthC)−1,x) (2)
Figure 2007221201
片方向予測(L0予測)の場合、重み付け予測後の値は以下のように表される。
if(logWD≧1)
predPartC[x,y]=Clip1C({(predPartL0C[x,y]×w0+2logWD-1)≫logWD)+O0) (4)
else
predPartC[x,y]=Clip1C(predPartL0C[x,y]×w0+O0) (5)
片方向予測(L1予測)の場合、重み付け予測後の値は以下のように表される。
if(logWD≧1)
predPartC[x,y]=Clip1C({(predPartL1C[x,y]×w0+2logWD-1)≫logWD}+O0) (6)
else
predPartC[x,y]=Clip1C(predPartL1C[x,y]×w0+O0) (7)
また、双予測の場合、重み付け予測後の値は以下のように表される。
predPartC[x,y]=Clip1C({(predPartL0C[x,y]×w0+predPartL1C[x,y]×w1
+2logWD)≫(logWD+1)}+{(O0+O1+1)≫1}) (8)
ただし、(4)式〜(8)式中、w、O0はリスト0の予測に用いる所定の係数、w、Oはリスト1の予測に用いる所定の係数、Wは重み付け予測の係数、Dはオフセット値である。
ここで、AVCの明示的重み付け予測の場合の重み付け予測テーブルは、以下のように定義されている。L0予測の参照ピクチャを示す参照インデックスはrefldxL0、L1予測の参照ピクチャを示す参照インデックスはrefldxL1とする。現在のマクロブロックの構造が所定の条件の場合は(9)式、(10)式で、そうでない場合は(11)式、(12)式で表される。
if(MbaffFrameFlag=1 && current Macroblock is a field macroblock)
refldxL0WP=refldxL0 ≫1 (9)
refldxL1WP=refldxL1 ≫1 (10)
otherwise
refldxL0WP=refldxL0 (11)
refldxL1WP=refldxL1 (12)
また、輝度信号の場合、(13)式から(17)式が成立する。ここで、(13)式右辺の「luma_log2_weight_denom」は、輝度信号に対する重みの分母を底が2の対数で示したもの、(14)式右辺の「luma_weight_l0」はリスト0の輝度予測に適用する重みを、(15)式右辺の「luma_weight_l1」はリスト1の輝度予測に適用する重みを、(16)式右辺の「luma_offset_l0」はリスト0の輝度予測に使用されるオフセット値を、(17)式右辺の「luma_offset_l1」はリスト1の輝度予測に使用されるオフセット値をそれぞれ示す。
logWD=luma_log2_weight_denom (13)
w0=luma_weight_l0[refldxL0WP] (14)
w1=luma_weight_l1[refldxL1WP] (15)
O0=luma_offset_l0[refldxL0WP]×{1≪(BitDepthY-8)} (16)
O1=luma_offset_l1[refldxL1WP]×{1≪(BitDepthY-8)} (17)
また、色差信号の場合、iCbCr=0のときはCb、iCbCr=1のときはCrを示すものとして、(18)式から(22)式が成立する。ここで、(18)式右辺の「
chroma_log2_weight_denom」は色差信号に対する重みの分母を底が2の対数で示したもの、(19)式右辺の「chroma_weight_l0」はリスト0の色差予測に適用する重みを、(20)式右辺の「chroma_weight_l1」はリスト1の色差予測に適用する重みを、(21)式右辺の「chroma_offset_l0」はリスト0の色差予測に使用されるオフセット値を、(22)式右辺の「chroma_offset_l1」はリスト1の色差予測に使用されるオフセット値をそれぞれ示す。
logWD=chroma_log2_weight_denom (18)
w0=chroma_weight_l0[refldxL0WP][iCbCr] (19)
w1=chroma_weight_l1[refldxL1WP][iCbCr] (20)
O0=chroma_offset_l0[refldxL0WP][iCbCr]×{1≪(BiteDepthC-8)} (21)
O1=chroma_offset_l1[refldxL1WP][iCbCr]×{1≪(BiteDepthC-8)} (22)
ただし、双方向予測時には、重み付け(weight)は次の制限に従う。
−128≦w0+w1≦{(logWD==7)?127:128} (23)
次に、Bスライスにおいて、2つの重み付け予測テーブルを簡易な方法で割り当てることにより、処理量を削減する実施例1について説明する。ただし、スライスタイプはイントラ予測のみで符号化したIスライス、1つの別画面の画像サンプルを用いた予測によって符号化したPスライス、2つの別画面の画像サンプルを用いた予測によって符号化したBスライスのみとし、1つのピクチャには1つのスライスのみが存在するものとする。
ここで、フレーム間予測符号化方式でよく用いられる、フレーム内符号化画像であるIピクチャ又はフレーム間順方向予測符号化画像であるPピクチャが現れる周期Mを”3”として符号化する場合を考え、以下のように番号を振る。ただし、参照フレーム数は”2”,Bスライスの前方及び後方の参照フレーム数は”1”とする。
いま、図4(A)、(B)に示すように、IピクチャI0、BピクチャB1、BピクチャB2、PピクチャP3の順で表示される入力信号が入力された場合の符号化を順に追って説明する。ただし、BピクチャはAVCではMPEG2などとは異なり、前方、後方に関係なく任意の最大2枚の参照ピクチャを予測のために参照して符号化される双予測ピクチャであり、ここではBピクチャはBスライスからなる。
まず、IピクチャI0がイントラ符号化される。次に、PピクチャP3がイントラ符号化、またはピクチャ1枚を参照するインター符号化がなされる。それから、BピクチャB1がイントラ符号化、またはピクチャ2枚までを参照するインター符号化がなされる。このBピクチャ(Bスライス)のインター符号化において、明示的重み付け予測を適用する。図1のテーブル算出部113による重み付け予測テーブルの算出は、符号化フレーム(符号化対象ピクチャ)と参照フレーム(参照ピクチャ)の輝度値の比をMB(マクロブロック)単位でとり、その比の度数毎のヒストグラムを作成することで行う。
画像がフラッシュなどにより変化している時、画面内には光が当たる部分と当たらない部分とが生じ、部分によって輝度変化が違う場合がある。その時、横軸に上記の輝度値の比、縦軸に度数を示すヒストグラムを作成すると、例えば、図3のような双峰性のヒストグラムができる。この場合、図1のテーブル算出部113は、図3に示すヒストグラムの2つの峰の頂点301、302のうち、度数が多い方の頂点301の輝度値の比を第1の重み付け予測テーブルとし、度数が少ない方の頂点302の輝度値の比を第2の重み付け予測テーブルとして算出する。この重み付け予測テーブルは、参照ピクチャのそれぞれについて算出される。
そして、図1のテーブル割り当て部114は、図4(A)に示すように、符号化対象ピクチャであるB1の参照ピクチャとして、リスト0による主に前方向参照の参照ピクチャであるIピクチャI0と、リスト1による主に後方向参照の参照ピクチャであるPピクチャP3に対して、各ピクチャ用の第1の重み付け予測テーブルを割り当てる。すなわち、図4(A)に示すB1内の矩形のブロックの符号化時は、そのブロックの輝度値とI0のブロックの輝度値との比、及びB1のブロックの輝度値とP3のブロックの輝度値との比が、それぞれ第2の重み付け予測テーブルの輝度値の比よりも第1の重み付け予測テーブルの輝度値の比に近いため、第1の重み付け予測テーブルを割り当てる。
これは換言すると、(14)式のluma_weight_l0[0]にB1とI0とのMB単位の輝度値の比と度数とのヒストグラムから算出した第1の重み付け予測テーブルの輝度値の比が代入されることを意味し、また(15)式のluma_weight_l1[0]にB1とP3とのMB単位の輝度値の比と度数とのヒストグラムから算出した第1の重み付け予測テーブルの輝度値の比が代入されることを意味する。
同様に、テーブル割り当て部114は、図4(B)に示すように、第1の重み付け予測テーブルにおけるリスト0による参照ピクチャと同じ参照ピクチャを示す、リスト1による参照ピクチャI0と、第1の重み付け予測テーブルにおけるリスト1による参照ピクチャと同じ参照ピクチャを示す、リスト0による参照ピクチャP3に対して、第2の重み付け予測テーブルを割り当てる。すなわち、図4(B)に示すB1内の矩形のブロックの符号化時は、そのブロックの輝度値とI0のブロックの輝度値との比、及びB1のブロックの輝度値とP3のブロックの輝度値との比が、それぞれ第1の重み付け予測テーブルの輝度値の比よりも第2の重み付け予測テーブルの輝度値の比に近いため、第2の重み付け予測テーブルを割り当てる。
これは換言すると、(14)式のluma_weight_l0[1]にB1とP3とのMB単位の輝度値の比と度数とのヒストグラムから算出した第2の重み付け予測テーブルの輝度値の比が代入されることを意味し、また(15)式のluma_weight_l1[1]にB1とI0とのMB単位の輝度値の比と度数とのヒストグラムから算出した第2の重み付け予測テーブルの輝度値の比が代入されることを意味する。
このように、本実施の形態では、同じ参照画像である参照ピクチャは、第1の重み付け予測テーブル又は第2の重み付け予測テーブルを割り当て、その第1の重み付け予測テーブルと第2の重み付け予測テーブルを切り替えながら、重み付け予測を行うようにしたため、画面内の局所性に応じた重み付け予測テーブルを選択できるので、効率的に符号化を行うことができる。
また、該当MBを符号化する際に、MB単位で第1及び第2の重み付け予測テーブルのいずれに近いかどうか記憶しておけば、輝度値の比がより近い重み付け予測テーブルを用いて符号化することができる。よって、重み付け予測テーブルが1つでも2つでも符号化に要する時間は変わらない。
また、B1以後のBスライスの符号化は、B1と同様に、インター符号化において明示的重み付け予測を適用し、重み付け予測テーブルを割り当て、符号化を行う。
本実施例の重み付け予測テーブルの算出方法によれば、1つ以上のピクチャに複数の参照インデックスを対応付けることなく、符号化する毎に割り振り方を更新する必要がないので、重み付け予測テーブルを割り当てる処理量を削減することができる。処理量の削減は、ソフトウェア的には処理速度を向上させ、ハードウェア的には消費電力を低減させることができる。また、画面内の局所性に応じた重み付け予測テーブルを選択できるので、効率的に符号化を行うことができる。
なお、B1のあるブロックに対して、第1の重み付け予測テーブルを用いた場合の予測値と、第2の重み付け予測テーブルを用いた場合の予測値とを、I0、P3の同じブロックで比較して、予測誤差が少ない方のテーブルで符号化してもよい。
次に、Bスライスにおいて、2つの重み付け予測テーブルを簡易な方法で割り当てることにより、処理量を削減する実施例2を説明する。ここで、スライスタイプは実施例1と同様に、Iスライス、Pスライス、Bスライスのみとし、1つのピクチャには1つのスライスのみが存在するものとする。ただし、本実施例は上記の実施例1とは異なり、符号化はMBAFF(マクロブロック適応フレームフィールド)で行うものとする。
ここで、実施例1と同様に、フレーム間予測符号化方式でよく用いられる、M=3で符号化する場合を考え、IピクチャI0、BピクチャB1、BピクチャB2、PピクチャP3の順で表示される入力信号が入力された場合の符号化を順に追って説明する。なお、参照フレーム数は”2”,Bスライスの前方及び後方の参照フレーム数は”1”とする。
まず、IピクチャI0がイントラ符号化される。次に、PピクチャP3がイントラ符号化、またはピクチャ1枚を参照するインター符号化がなされる。そこから、Bピクチャ(Bスライス)B1がイントラ符号化、またはピクチャ2枚までを参照するインター符号化がなされる。このBピクチャ(Bスライス)のインター符号化において、明示的重み付け予測を適用する。図1のテーブル算出部113による重み付け予測テーブルの算出は、実施例1とは異なり、符号化フレーム(符号化対象ピクチャ)と参照フレーム(参照ピクチャ)をフィールド単位で輝度値の総和の比をとることで行う。
画像がフラッシュなどにより変化している時、それがフィールド単位の瞬間的な変化ならば、トップフィールドとボトムフィールドで輝度変化が違う場合がある。その時、上記のように輝度値の総和の比をとると、フィールド毎に異なる値となる。その値を、それぞれ第1及び第2の重み付け予測テーブルとする。
そして、図1のテーブル割り当て部114は、インター符号化するBピクチャ(Bスライス)がトップフィールドであるときには、図5(A)に示すように、リスト0による主に前方向参照の参照ピクチャであるIピクチャI0に、トップフィールドのI0とB1との輝度値の総和の比である第1の重み付け予測テーブルを割り当て、かつ、リスト1による主に後方向参照の参照ピクチャであるPピクチャP3に、トップフィールドのP3とB1との輝度値の総和の比である第1の重み付け予測テーブルを割り当てる。
また、図1のテーブル割り当て部114は、インター符号化するBピクチャ(Bスライス)がボトムフィールドであるときには、図5(B)に示すように、第1の重み付け予測テーブルにおけるリスト0による参照ピクチャと同じ参照ピクチャを示す、リスト1による参照ピクチャI0に、ボトムフィールドのI0とB1との輝度値の総和の比である第2の重み付け予測テーブルを割り当て、かつ、第1の重み付け予測テーブルにおけるリスト1による参照ピクチャと同じ参照ピクチャを示す、リスト0による参照ピクチャP3に、ボトムフィールドのP3とB1との輝度値の総和の比である第2の重み付け予測テーブルを割り当てる。
なお、図5(A)、(B)は参照ピクチャI0、P3に対して符号化対象ピクチャB1と同じフィールドを用いて予測する場合であるが、異なるフィールドを用いて予測することも可能である。この場合、図1のテーブル割り当て部114は、インター符号化するBピクチャ(Bスライス)がトップフィールドであるときには、図6(A)に示すように、参照インデックスrefldxL1WPの値が”1”である参照ピクチャI0に、ボトムフィールドのI0とB1との輝度値の総和の比である第2の重み付け予測テーブルを割り当て、かつ、参照インデックスrefldxLOWPの値が”1”である参照ピクチャP3に、ボトムフィールドのP3とB1との輝度値の総和の比である第2の重み付け予測テーブルを割り当てる。
また、図1のテーブル割り当て部114は、インター符号化するBピクチャ(Bスライス)がボトムフィールドであるときには、図6(B)に示すように、参照インデックスrefldxLOWPの値が”0”である参照ピクチャI0に、トップフィールドのI0とB1との輝度値の総和の比である第1の重み付け予測テーブルを割り当て、かつ、参照インデックスrefldxL1WPの値が”0”である参照ピクチャP3に、トップフィールドのP3とB1との輝度値の総和の比である第1の重み付け予測テーブルを割り当てる。
このように、図5、図6いずれの場合も、本実施例ではフィールド間の変化に応じた重み付け予測テーブルを選択できるので、効率的に符号化を行うことができる。また、該当MBペアを符号化する際に、各フィールドに対応した重み付け予測テーブルを用いて符号化することができる。更に、該当MBペアを符号化する際に、フィールド単位で第1及び第2の重み付け予測テーブルのいずれに近いかどうかを記憶しておけば、より近い重み付け予測テーブルを用いて符号化することができる。よって、重み付け予測テーブルが1つでも2つでも符号化に要する時間は変わらない。これによって、どちらのフィールドで符号化するかを決定することもできる。
B1以後のBスライスの符号化は、B1と同様に、インター符号化において明示的重み付け予測を適用し、重み付け予測テーブルを割り当て、符号化を行う。本実施例の重み付け予測テーブルの算出方法によれば、1つ以上のピクチャに複数の参照インデックスを対応付けることなく、符号化する毎に割り振り方を更新する必要がないので、重み付け予測テーブルを割り当てる処理量を削減することができる。処理量の削減は、ソフトウェア的には処理速度を向上させ、ハードウェア的に消費電力を低減させることができる。また、フィールド間の変化に応じた重み付け予測テーブルを選択できるので、効率的に符号化を行うことができる。
なお、以上の実施例において、B1の符号化時には参照画像I0及びP3の一方だけを用いて符号化する片方向予測も可能であり、また、両方の参照画像を第1又は第2の重み付け予測テーブルを用いて符号化した値の平均値を用いて予測する双予測時に、両方の参照画像の両方に同じ重み付け予測テーブルを用いて符号化する場合に限らず、互いに異なる重み付け予測テーブルを用いて符号化する場合もあり得る。
なお、以上の実施例において、スライスタイプはIスライス,Pスライス,Bスライスのみとして説明したが、本発明はこれに限定されるものではなく、AVCで規定されている、ストリーム切り替えを行うための特殊なスライスであるSIスライスやSPスライスの使用を制限するものではない。また、1つのピクチャには1つのスライスのみが存在するものとして説明したが、1つのピクチャに複数のスライスおよびスライスタイプが存在してもよい。さらに、B以外のスライスタイプをBスライスに変更して、第1と第2の重み付け予測テーブルを割り当てることもできる。スライスタイプを変更する指針として、例えば輝度変化を検出するようにしてもよい。
また、以上の実施例において、重み付け予測テーブルの算出方法は実施例で説明した以外の方法でもよいし、第1と第2の重み付け予測テーブルは入れ替えても構わない。また更に、以上の実施例では、フレームの輝度値を用いて第1及び第2の重み付け予測テーブルを算出する場合を説明したが、第1の重み付け予測テーブルを通常の重み付け予測(default mode)又は暗示的重み付け予測(implicit mode)と同等に設定し、第2の重み付け予測テーブルのみを、フレームの輝度値を用いて算出してもよい。
また、以上の実施例において、常に第1及び第2の重み付け予測テーブルが存在する場合を説明したが、第1の重み付け予測テーブルのみが存在して第2の重み付け予測テーブルが存在しなくともよい。その場合、第2の重み付け予測テーブルが存在しないので、その情報を符号化しなくてもよい。
また、前記の(4)式、(6)式、(8)式の重み付け予測の定義式より、重み(weight)が2のべき乗の場合には、右にnビットシフトし、かつlogWDからnを引いてもよいことは明らかである。よって、重み付け予測テーブルの符号量削減のため、weightが2のべき乗に近い場合に2のべき乗に近似して、上記を適用してもよい。
なお、本発明は以上の実施の形態に限定されるものではなく、コンピュータにより図1のブロック図の動画像符号化装置の各構成の機能を実行させる動画像符号化プログラムも包含するものである。この動画像符号化プログラムは、記録媒体に記録されていて記録媒体からコンピュータに取り込まれてもよいし、ネットワークを介して配信されてコンピュータにダウンロードされてもよいし、予め装置内にファームウェアとして組み込まれていてもよい。
本発明の動画像符号化装置の一実施の形態のブロック図である。 図1の符号化装置で符号化されたデータを復号する復号装置の一例のブロック図である。 実施例1におけるヒストグラムを説明するための図である。 実施例1における重み付け予測テーブルの割り当て方を説明する図である。 実施例2における重み付け予測テーブルの割り当て方を説明する図であり、各参照ピクチャに対して同じフィールドを用いて予測する場合を示す図である。 実施例2における重み付け予測テーブルの割り当て方を説明する図であり、各参照ピクチャに対して異なるフィールドを用いて予測する場合を示す図である。
符号の説明
11 入力信号
12 出力符号
21 入力符号
22 出力信号
100 動画像符号化装置
101 減算器
102 DCT部
103 量子化部
104 可変長符号化部
105、202 逆量子化部
106、203 逆DCT部
107、208 加算器
108、209 デブロックフィルタ部
109 メモリ部
110 ME部
111、205 MC部
112、206 重み付け予測部
113 テーブル算出部
114 テーブル割り当て部
115、204 イントラ予測部
116、207 スイッチ
200 動画像復号化装置
201 可変長復号化部
210 バッファ


Claims (2)

  1. 動画像信号を所定画素数の符号化単位でフレーム間予測符号化方式を用いて符号化する際に、参照画像に対して重み付け予測をして得られた予測画像と前記符号化単位との差分値を得て、その差分値に対して符号化を行う動画像符号化装置であって、
    前記参照画像の前記符号化単位の画像情報と、該参照画像を参照する符号化対象の画像信号の前記符号化単位の所定の画像情報との比をとり、その比の度数毎に作成したヒストグラムにおいて、前記度数が多い方から順に決定した第1の重み付け予測テーブルと第2の重み付け予測テーブルを、前記重み付け予測に用いる重み付け予測テーブルとして算出するテーブル算出手段と、
    参照インデックスを用いて表される前記参照画像をリストにより管理しており、そのリストの中で、符号化時に参照画像を参照する前記符号化対象の画像信号の表示タイミングを基準として表示順で前方向の予測に主に用いられる第1の参照画像と、前記表示順で後方向の予測に主に用いられる第2の参照画像とが、同じ参照画像であるとき、前記比が近い方の前記第1の重み付け予測テーブル及び前記第2の重み付け予測テーブルの一方を割り当てるテーブル割り当て手段と、
    前記テーブル割り当て手段により同じ参照画像である前記第1の参照画像及び第2の参照画像に対して、割り当てられる前記第1の重み付け予測テーブルと前記第2の重み付け予測テーブルを切り替えながら、重み付け予測を行う重み付け予測手段と
    を有することを特徴とする動画像符号化装置。
  2. 動画像信号を所定画素数の符号化単位でフレーム間予測符号化方式を用いて符号化する際に、参照画像に対して重み付け予測をして得られた予測画像と前記符号化単位との差分値を得て、その差分値に対してコンピュータを用いて符号化を行わせる動画像符号化プログラムであって、
    前記コンピュータを、
    前記参照画像の前記符号化単位の画像情報と、該参照画像を参照する符号化対象の画像信号の前記符号化単位の所定の画像情報との比をとり、その比の度数毎に作成したヒストグラムにおいて、前記度数が多い方から順に決定した第1の重み付け予測テーブルと第2の重み付け予測テーブルを、前記重み付け予測に用いる重み付け予測テーブルとして算出するテーブル算出手段と、
    参照インデックスを用いて表される前記参照画像をリストにより管理しており、そのリストの中で、符号化時に参照画像を参照する前記符号化対象の画像信号の表示タイミングを基準として表示順で前方向の予測に主に用いられる第1の参照画像と、前記表示順で後方向の予測に主に用いられる第2の参照画像とが、同じ参照画像であるとき、前記比が近い方の前記第1の重み付け予測テーブル及び前記第2の重み付け予測テーブルの一方を割り当てるテーブル割り当て手段と、
    前記テーブル割り当て手段により同じ参照画像である前記第1の参照画像及び第2の参照画像に対して、割り当てられる前記第1の重み付け予測テーブルと前記第2の重み付け予測テーブルを切り替えながら、重み付け予測を行う重み付け予測手段と
    して機能させることを特徴とする動画像符号化プログラム。

JP2006036155A 2006-02-14 2006-02-14 動画像符号化装置及び動画像符号化プログラム Pending JP2007221201A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006036155A JP2007221201A (ja) 2006-02-14 2006-02-14 動画像符号化装置及び動画像符号化プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006036155A JP2007221201A (ja) 2006-02-14 2006-02-14 動画像符号化装置及び動画像符号化プログラム

Publications (1)

Publication Number Publication Date
JP2007221201A true JP2007221201A (ja) 2007-08-30

Family

ID=38498047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006036155A Pending JP2007221201A (ja) 2006-02-14 2006-02-14 動画像符号化装置及び動画像符号化プログラム

Country Status (1)

Country Link
JP (1) JP2007221201A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013505615A (ja) * 2009-09-17 2013-02-14 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 動画像の重み付き動き補償
WO2013057782A1 (ja) * 2011-10-17 2013-04-25 株式会社東芝 符号化方法及び復号方法
WO2016191915A1 (en) * 2015-05-29 2016-12-08 SZ DJI Technology Co., Ltd. System and method for video processing
JP2018007279A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置
JP2018007278A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013505615A (ja) * 2009-09-17 2013-02-14 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 動画像の重み付き動き補償
US11323721B2 (en) 2011-10-17 2022-05-03 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US11425396B2 (en) 2011-10-17 2022-08-23 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
AU2011379258B2 (en) * 2011-10-17 2015-07-09 Kabushiki Kaisha Toshiba Encoding method and decoding method
AU2011379258C1 (en) * 2011-10-17 2015-11-26 Kabushiki Kaisha Toshiba Encoding method and decoding method
US9872027B2 (en) 2011-10-17 2018-01-16 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US9681138B2 (en) 2011-10-17 2017-06-13 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US11483570B2 (en) 2011-10-17 2022-10-25 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US10187642B2 (en) 2011-10-17 2019-01-22 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US11871007B2 (en) 2011-10-17 2024-01-09 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
JPWO2013057782A1 (ja) * 2011-10-17 2015-04-02 株式会社東芝 符号化方法及び符号化装置
US10110904B2 (en) 2011-10-17 2018-10-23 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US10412394B2 (en) 2011-10-17 2019-09-10 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US10674161B2 (en) 2011-10-17 2020-06-02 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US11381826B2 (en) 2011-10-17 2022-07-05 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
WO2013057782A1 (ja) * 2011-10-17 2013-04-25 株式会社東芝 符号化方法及び復号方法
US11356674B2 (en) 2011-10-17 2022-06-07 Kabushiki Kaisha Toshiba Encoding device, decoding device, encoding method, and decoding method
US10893300B2 (en) 2015-05-29 2021-01-12 SZ DJI Technology Co., Ltd. System and method for video processing
WO2016191915A1 (en) * 2015-05-29 2016-12-08 SZ DJI Technology Co., Ltd. System and method for video processing
JP2018007278A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置
JP2018007279A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置

Similar Documents

Publication Publication Date Title
JP4717138B2 (ja) 画像符号化方法および画像符号化装置
JP4908180B2 (ja) 動画像符号化装置
US8630347B2 (en) Video decoding apparatus and video decoding method
US9270993B2 (en) Video deblocking filter strength derivation
KR20170063895A (ko) 비디오 코딩을 위한 해시 기반 인코더 결정
KR20170021337A (ko) 해시 기반의 블록 매칭의 결과에 기초한 인코더 결정
KR101394209B1 (ko) 영상의 인트라 예측 부호화 방법
JP2007329693A (ja) 画像符号化装置、及び画像符号化方法
CN113259661A (zh) 视频解码的方法和装置
TWI511531B (zh) 影像編碼裝置、影像編碼方法及影像編碼程式
JP2007013298A (ja) 画像符号化装置
JP2003304538A (ja) 画像符号化装置、画像復号化装置及びそれらの方法
JP2007221201A (ja) 動画像符号化装置及び動画像符号化プログラム
JP2005303362A (ja) 画像符号化装置及びプログラム
WO2010023782A1 (ja) 画像表示装置、録画再生装置、及び画像処理方法
JPWO2013125171A1 (ja) イントラ予測モード判定装置、イントラ予測モード判定方法、及びイントラ予測モード判定プログラム
JP4406887B2 (ja) 動画像符号化装置及び動画像符号化方法
JP2008016985A (ja) 動画像符号化装置
JP2005176237A (ja) 画像符号化装置、画像符号化方法及びそのプログラム