JPWO2010076856A1 - 動画像符号化方法及び動画像復号化方法 - Google Patents

動画像符号化方法及び動画像復号化方法 Download PDF

Info

Publication number
JPWO2010076856A1
JPWO2010076856A1 JP2010544860A JP2010544860A JPWO2010076856A1 JP WO2010076856 A1 JPWO2010076856 A1 JP WO2010076856A1 JP 2010544860 A JP2010544860 A JP 2010544860A JP 2010544860 A JP2010544860 A JP 2010544860A JP WO2010076856 A1 JPWO2010076856 A1 JP WO2010076856A1
Authority
JP
Japan
Prior art keywords
filter
coefficient
target
information
target filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010544860A
Other languages
English (en)
Inventor
隆志 渡辺
隆志 渡辺
豪毅 安田
豪毅 安田
直史 和田
直史 和田
中條 健
健 中條
昭行 谷沢
昭行 谷沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2010076856A1 publication Critical patent/JPWO2010076856A1/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

動画像符号化方法は、符号化対象画像の復号画像に適用するための対象フィルタを求めることと、対象フィルタのタップ長と参照フィルタのタップ長とに基づいて、対象フィルタの対象フィルタ係数のそれぞれと参照フィルタの参照フィルタ係数のそれぞれとの対応関係を設定すること(S101)と、対応関係に従って、対象フィルタ係数と参照フィルタ係数との係数差分を求めること(S102)と、対象フィルタのタップ長及び係数差分を含む対象フィルタ情報を符号化すること(S104)と、を具備する。

Description

本発明は、タップ長の異なる複数のフィルタを選択的に適用可能な動画像符号化方法及び動画像復号化方法に関する。
従来、例えばH.264/AVC等の動画像符号化方式では、原画像信号及び予測画像信号の間の予測誤差信号を直交変換及び量子化して得られる係数を符号化する。このように符号化された画像信号を復号化して得られる復号画像の画質を向上させるために、符号化側及び/または復号化側においてフィルタ処理が行われることがある。
「S. Wittmann and T. Wedi, "Post-filter SEI message for 4:4:4 coding", JVT of ISO/IEC MPEG & ITU-T VCEG, JVT-S030, April 2006.」(以下、単に参考文献と称する)に記載されたポストフィルタ処理は、復号画像の画質を向上させることを目的として復号化側に設けられる。具体的には、上記復号化側において適用されるポストフィルタのフィルタ係数、フィルタサイズ(タップ長)等のフィルタ情報が符号化側で設定され、符号化ビットストリームに多重化されて出力される。復号化側は、上記フィルタ情報に基づくポストフィルタ処理を復号画像信号に対して行う。従って、符号化側において原画像信号及び復号画像信号の間の誤差が小さくなるようにフィルタ情報を設定すれば、ポストフィルタ処理によって復号画像の画質を向上させられる。
参考文献に記載されたポストフィルタ処理は、符号化側においてフィルタ情報を符号化し、復号化側へ送信する。ここで、上記フィルタ情報に基づく発生符号量が大きくなるほど、符号化側における符号化効率は低下する。故に、上記フィルタ情報に基づく発生符号量を削減するための手法が望まれる。
従って、本発明はフィルタ情報に基づく発生符号量を削減可能な動画像符号化方法を提供することを目的とする。
本発明の一態様に係る動画像符号化方法は、符号化対象画像の復号画像に適用するための対象フィルタを求めることと、前記対象フィルタのタップ長と参照フィルタのタップ長とに基づいて、前記対象フィルタの対象フィルタ係数のそれぞれと前記参照フィルタの参照フィルタ係数のそれぞれとの対応関係を設定することと、前記対応関係に従って、前記対象フィルタ係数と前記参照フィルタ係数との係数差分を求めることと、前記対象フィルタのタップ長及び前記係数差分を含む対象フィルタ情報を符号化することとを具備する。
本発明の他の態様に係る動画像符号化方法は、符号化対象画像の復号画像に適用するための対象フィルタを求めることと、前記対象フィルタのタップ長と参照フィルタのタップ長とに基づいて前記対象フィルタの対象フィルタ係数のそれぞれと前記参照フィルタの参照フィルタ係数のそれぞれとの対応関係を設定し、前記対応関係に従って前記対象フィルタ係数と前記参照フィルタ係数との時間係数差分を求める時間予測モード、または、前記対象フィルタ係数のうちの一部の係数の予測値を前記対象フィルタ係数のうちの他の係数に基づいて予測し、前記一部の係数と前記予測値との空間係数差分を求める空間予測モードを用いて対象係数差分を求めることと、前記対象フィルタのタップ長、前記対象係数差分の予測モードを示す予測モード情報及び前記対象係数差分を含む対象フィルタ情報を符号化することとを具備する。
本発明の他の態様に係る動画像復号化方法は、対象フィルタのタップ長と、前記対象フィルタの対象フィルタ係数及び参照フィルタの参照フィルタ係数の間の係数差分とを含む対象フィルタ情報が符号化された符号化データを復号化することと、前記対象フィルタのタップ長と前記参照フィルタのタップ長とに基づいて、前記係数差分のそれぞれと前記参照フィルタ係数のそれぞれとの対応関係を設定することと、前記対応関係に従って、前記係数差分と前記参照フィルタ係数とを加算して、前記対象フィルタ係数を算出することとを具備する。
本発明の他の態様に係る動画像復号化方法は、対象フィルタのタップ長、前記対象フィルタに適用されている予測モードを示す予測モード情報及び前記対象フィルタの対象フィルタ係数の予測誤差を示す対象係数差分を含む対象フィルタ情報が符号化された符号化データを復号化することと、前記予測モード情報が時間予測モードを示す場合には、前記対象フィルタのタップ長と参照フィルタのタップ長とに基づいて前記対象係数差分のそれぞれと前記参照フィルタの参照フィルタ係数のそれぞれとの対応関係を設定し、前記対応関係に従って前記対象係数差分と前記参照フィルタ係数とを加算して、前記対象フィルタ係数を復元することと、前記予測モード情報が空間予測モードを示す場合には、前記対象フィルタ係数の一部をその他の対象フィルタ係数に基づいて予測し、前記対象係数差分を加算して前記対象フィルタ係数を復元することとを具備する。
図1は、第1の実施形態に係る動画像符号化装置を示すブロック図である。 図2は、図1のフィルタ差分情報生成部の内部を示すブロック図である。 図3は、図1の動画像符号化装置によるフィルタ差分情報の生成処理を示すフローチャートである。 図4は、第2の実施形態に係る動画像復号化装置を示すブロック図である。 図5は、図4のフィルタ情報復元部の内部を示すブロック図である。 図6は、図4の動画像復号化装置によるフィルタ情報の復元処理を示すフローチャートである。 図7は、第3の実施形態に係る動画像符号化装置を示すブロック図である。 図8は、第4の実施形態に係る動画像復号化装置を示すブロック図である。 図9は、第5の実施形態に係る動画像復号化装置を示すブロック図である。 図10Aは、符号化対象フィルタのフィルタ係数位置及びフィルタ係数位置対応関係を示すインデクスの一例を示す図である。 図10Bは、参照フィルタのフィルタ係数位置及びフィルタ係数位置対応関係を示すインデクスの一例を示す図である。 図11は、第6の実施形態に係る符号化装置におけるフィルタ差分情報生成部を示すブロック図である。 図12は、フィルタ係数の空間予測の一例を説明するための図である。 図13は、第6の実施形態に係る動画像符号化装置によるフィルタ差分情報の生成処理を示すフローチャートである。 図14は、符号化ビットストリームのシンタクス構造の一例を示す図である。 図15Aは、フィルタ差分情報の記述態様の一例を示す図である。 図15Bは、フィルタ差分情報の記述態様の一例を示す図である。 図16は、図11のフィルタ差分情報生成部の変形例を示すブロック図である。 図17は、図11のフィルタ差分情報生成部の変形例を示すブロック図である。 図18は、第7の実施形態に係る動画像復号化装置におけるフィルタ情報復元部を示すブロック図である。 図19は、第7の実施形態に係る動画像復号化装置によるフィルタ情報の復元処理を示すフローチャートである。 図20は、図18のフィルタ情報復元部の変形例を示すブロック図である。 図21は、図18のフィルタ情報復元部の変形例を示すブロック図である。 図22は、フィルタ差分情報の記述態様の一例を示す図である。 図23Aは、フィルタ係数の空間予測の一例を説明するための図である。 図23Bは、フィルタ係数の空間予測の一例を説明するための図である。
以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る動画像符号化装置を示す。この動画像符号化装置は、いわゆるハイブリッド符号化を行う動画像符号化装置であって、動画像符号化部1000と符号化制御部109とを有する。動画像符号化部1000は、予測画像信号生成部101、減算部102、変換/量子化部103、エントロピー符号化部104、逆変換/逆量子化部105、加算部106、フィルタ情報生成部107、参照画像用バッファ108及びフィルタ差分情報生成部110を有する。符号化制御部109は、発生符号量のフィードバック制御、量子化制御、予測モード制御及び動き推定精度の制御等の動画像符号化部1000全体の制御を行う。
予測画像信号生成部101は、ブロック単位の入力画像信号(原画像信号)10の予測を行って予測画像信号11を生成する。具体的には、予測画像信号生成部101は、既に符号化済みの参照画像信号18を後述する参照画像用バッファ108から読み出し、当該参照画像信号18に対する入力画像信号10の動きを示す動きベクトルを検出する。動きベクトルは例えばブロックマッチングによって検出される。予測画像信号生成部101は、上記動きベクトルを用いて参照画像信号18を動き補償した予測画像信号11を減算部102及び加算部106に入力する。尚、予測画像信号生成部101は、動き補償予測(時間方向の予測)に限らず、イントラ予測(空間方向の予測)を行って予測画像信号11を生成してもよい。
減算部102は、予測画像信号生成部101からの予測画像信号11を入力画像信号10より減算して予測誤差信号12を得る。減算部102は、予測誤差信号12を変換/量子化部103に入力する。
変換/量子化部103は、減算部102からの予測誤差信号12を直交変換して変換係数を得る。直交変換として、例えば離散コサイン変換(DCT)が用いられる。尚、変換/量子化部103は、ウェーブレット変換、独立成分解析またはアダマール変換等の他の変換処理を行ってもよい。変換/量子化部103は、符号化制御部109によって設定される量子化パラメータ(QP)に従って、上記変換係数を量子化する。量子化された変換係数(以下、量子化変換係数13と称する)は、エントロピー符号化部104及び逆変換/逆量子化部105に入力される。
エントロピー符号化部104は、変換/量子化部103からの量子化変換係数13と符号化パラメータとをエントロピー符号化して、符号化データ14を得る。エントロピー符号化として、例えばハフマン符号化や算術符号化が用いられる。符号化パラメータは、後述するフィルタ差分情報生成部110からのフィルタ差分情報19を含む。尚、符号化パラメータには、予測画像信号11の予測モードを示す予測モード情報、ブロックサイズ切り替え情報及び量子化パラメータが含まれてもよい。エントロピー符号化部104は、符号化データ14を多重化した符号化ビットストリームを出力する。
逆変換/逆量子化部105は、変換/量子化部103からの量子化変換係数13を上記量子化パラメータに従って逆量子化して変換係数を復号する。逆変換/逆量子化部105は、復号した変換係数に対して、変換/量子化部103によって行われた変換処理の逆変換を行って予測誤差信号12を復号する。例えば、逆変換/逆量子化部105は、逆離散コサイン変換(IDCT)や逆ウェーブレット変換を行う。逆変換/逆量子化部105は、上記復号された予測誤差信号(以下、復号予測誤差信号15と称する)を加算部106に入力する。
加算部106は、逆変換/逆量子化部105からの復号予測誤差信号15と、予測画像生成部101からの予測画像信号11とを加算して局所復号画像信号16を生成する。加算部106は、局所復号画像信号16をフィルタ情報生成部107及び参照画像用バッファ108に入力する。
フィルタ情報生成部107は、入力画像信号10及び加算部106からの局所復号画像信号16に基づき、符号化対象フィルタのフィルタ情報17を生成する。フィルタ情報17は、復号化側において上記入力画像信号10に対応する復号画像信号に対してフィルタ処理を適用するか否かを示す切り替え情報を含む。切り替え情報がフィルタ処理を適用することを示す値である場合には、フィルタ情報17は適用すべきフィルタ(符号化対象フィルタ)を特定する情報を更に含む。具体的には、フィルタのタップ長を示すタップ長情報及びフィルタ係数を更に含む。上記フィルタ係数として、例えば、局所復号画像信号16(復号化側における復号画像信号に相当する)と入力画像信号10との間の誤差を最小化するための係数値と、当該係数値の各々が適用される係数位置とが定められる。尚、フィルタ情報生成部107は、局所復号画像信号16に対してデブロッキングフィルタ処理を施して得られる画像信号を、当該局所復号画像信号16の代わりに用いてもよい。即ち、加算部106とフィルタ情報生成部107との間にデブロッキングフィルタが設けられてもよい。
参照画像用バッファ108には、加算部106からの局所復号画像信号16が参照画像信号18として記憶され、予測画像信号生成部101が適宜読み出す。
フィルタ差分情報生成部110は、後述する参照フィルタのタップ長情報及びフィルタ係数を含む参照フィルタ情報を記憶する。フィルタ差分情報生成部110は、上記参照フィルタ情報と、フィルタ情報17との間の差分を示すフィルタ差分情報19を生成する。フィルタ差分情報生成部110は、フィルタ差分情報19をエントロピー符号化部104に入力する。
以下、図2を用いてフィルタ差分情報生成部110の内部を説明する。
図2に示すように、フィルタ差分情報生成部110は、フィルタ係数位置対応関係設定部111、参照フィルタ用バッファ112、フィルタ係数差分算出部113及び参照フィルタ更新部114を有する。
フィルタ係数位置対応関係設定部111は、フィルタ情報17と参照フィルタ情報との間におけるフィルタ係数位置の対応関係を設定する。フィルタ情報17及び参照フィルタ情報には、いずれもタップ長情報及びフィルタ係数が含まれる。符号化対象フィルタのタップ長と参照フィルタのタップ長とは必ずしも一致しない。フィルタ係数位置対応関係設定部111は、符号化フィルタのタップ長と参照フィルタのタップ長とが一致しない場合にも、フィルタ情報17のフィルタ係数位置の各々を参照フィルタ情報のフィルタ係数位置の各々と対応付ける。例えば、フィルタ係数位置対応関係設定部111は、フィルタ情報17のフィルタ係数位置の中心と、参照フィルタ情報のフィルタ係数位置の中心とが一致するように、フィルタ情報17のフィルタ係数位置の各々と、参照フィルタ情報のフィルタ係数位置の各々とを対応付ける。フィルタ係数位置対応関係設定部111は、上記対応関係をフィルタ係数差分算出部113及び参照フィルタ更新部114に通知する。
参照フィルタ用バッファ112には、参照フィルタ情報が一時的に記憶される。参照フィルタ情報は、フィルタ係数差分算出部113によって適宜読み出される。
フィルタ係数差分算出部113は、参照フィルタ情報を参照フィルタ用バッファ112から読み出す。フィルタ係数差分算出部113は、フィルタ係数位置対応関係設定部111によって定められた対応関係に従って、フィルタ情報17のフィルタ係数の各々から参照フィルタ情報のフィルタ係数の各々を減算し、フィルタ係数差分を算出する。フィルタ係数差分算出部113は、フィルタ情報17のフィルタ係数を上記フィルタ係数差分に置き換え、フィルタ差分情報19としてエントロピー符号化部104及び参照フィルタ更新部114に入力する。参照フィルタの特性が符号化対象フィルタの特性に近いほど、上記フィルタ係数差分は小さくなるため符号量を小さく抑えることができる。
参照フィルタ更新部114は、フィルタ係数位置対応関係設定部111によって定められた対応関係に従って、参照フィルタ用バッファ112に記憶された参照フィルタ情報のフィルタ係数に、フィルタ係数差分算出部113から出力されるフィルタ差分情報19のフィルタ係数差分を加算することにより、参照フィルタ情報を更新する。ここで、参照フィルタ情報の更新は、フィルタ差分情報19を生成する度に行われてもよいし、所定のタイミングで行われてもよいし、全く行われなくてもよい。参照フィルタ情報の更新を全く行わない場合には、参照フィルタ更新部114は不要である。尚、参照フィルタ情報のフィルタ係数の初期値は、符号化側及び復号化側において共通の値が用いられる。参照フィルタ情報は、符号化側及び復号化側で共通のタイミングで更新される。
以下、図3を用いてフィルタ差分情報19の生成処理を説明する。
まず、前提として、フィルタ情報生成部107が生成するフィルタ情報17を具体的に説明する。以降の説明において、フィルタ情報生成部107は、画像復元において一般的に用いられる2次元Wiener filterを対象とし、タップ長は5×5及び7×7のいずれか一方であるものとする。
フィルタ情報生成部107は、タップ長を5×5に設定し、局所復号画像信号16にフィルタ処理を施した画像信号と入力画像信号10との間の平均二乗誤差が最小となるフィルタ係数を導出する。また、フィルタ情報生成部107は、タップ長を7×7に設定し、局所画像信号16にフィルタ処理を施した画像信号と入力画像信号10との間の平均二乗誤差が最小となるフィルタ係数を導出する。そして、フィルタ情報生成部107は、タップ長を5×5に設定した場合の第1の符号化コストと、タップ長を7×7に設定した場合の第2の符号化コストと、フィルタ処理を施さない場合の第3の符号化コストとを次の数式(1)に従って導出する。
Figure 2010076856
数式(1)において、costは符号化コストを表し、Dは残差二乗和(Sum of Squared Difference;SSD)を表し、λは係数を表し、Rは発生符号量を表す。
フィルタ情報生成部107は、上記第1の符号化コストが最も小さければ、(A)フィルタ処理を適用することを示す切り替え情報と、(B)タップ長が5×5であることを示すタップ長情報と、(C)導出されたフィルタ係数とを含むフィルタ情報17を生成する。また、フィルタ情報生成部107は、上記第2の符号化コストが最も小さければ、(A)フィルタ処理を適用することを示す切り替え情報と、(B)タップ長が7×7であることを示すタップ長情報と、(C)導出されたフィルタ係数とを含むフィルタ情報17を生成する。また、フィルタ情報生成部107は、上記第3の符号化コストが最も小さければ、(A)フィルタ処理を適用しないことを示す切り替え情報を含むフィルタ情報17を生成する。
尚、上記説明において、フィルタ情報生成部107が符号化コストを導出する場合を例示したが、フィルタ情報生成部110が符号化コストを導出してもよい。即ち、フィルタ情報生成部107がフィルタ処理を適用しない場合のフィルタ情報17と、タップ長が5×5の場合のフィルタ情報17と、タップ長が7×7の場合のフィルタ情報17とをフィルタ差分情報生成部110に入力し、フィルタ差分情報生成部110が3つのフィルタ情報17に基づくフィルタ差分情報19を用いて3つの符号化コストを夫々導出し、符号化コストが最も小さくなるフィルタ差分情報19を出力してもよい。エントロピー符号化部104はフィルタ情報17でなくフィルタ差分情報19を符号化するので、フィルタ差分情報19を用いて符号化コストを導出すればより正確な値が得られる。
フィルタ情報生成部107が以上のようなフィルタ情報17を生成する場合、参照フィルタのタップ長は上記フィルタ情報17に含まれ得る最大のタップ長(=7×7)となる。また、参照フィルタ情報のフィルタ係数の初期値は任意の値(例えば、統計的に導出された値)でよいが、前述したように符号化側及び復号化側において共通の値が用いられる。
フィルタ情報生成部107が、フィルタ情報17をフィルタ差分情報生成部110に入力すると、図3の処理が開始する。
まず、フィルタ係数位置対応関係設定部111は、フィルタ情報生成部107からのフィルタ情報17が示す符号化対象フィルタのタップ長を取得し、符号化対象フィルタと参照フィルタとの間のフィルタ係数位置の対応関係を設定する(ステップS101)。前述したように、参照フィルタのタップ長は7×7(例えば、図10B参照)なので、符号化対象フィルタのタップ長も7×7であれば、符号化対象フィルタのフィルタ係数及び参照フィルタのフィルタ係数は同じ位置同士で一対一に対応付けられる。一方、符号化対象フィルタのタップ長が5×5(例えば、図10A参照)であれば、フィルタ係数位置対応関係設定部111は、符号化対象フィルタのフィルタ係数位置の中心(図10Aにおいてインデクス=0の位置)及び参照フィルタのフィルタ係数位置の中心(図10Bにおいてインデクス=0の位置)が一致するように、対応関係を設定する。換言すれば、フィルタ係数位置対応関係設定部111は、符号化対象フィルタのフィルタ係数位置の各々を中心からの第1の相対位置に変換し、参照フィルタのフィルタ係数位置の各々を中心からの第2の相対位置に変換し、第1の相対位置及び第2の相対位置が一致するように対応関係を設定する。フィルタ係数位置対応関係設定部111は、上記対応関係をフィルタ係数差分算出部113及び参照フィルタ更新部114に通知する。図10A及び図10Bの例であれば、インデクスがフィルタ係数の対応関係を示す。即ち、図10Aのインデクスと、図10Bのインデクスとが一致するフィルタ係数同士が対応付けられる。
次に、フィルタ係数差分算出部113は、参照フィルタ情報を参照フィルタ用バッファ112から読み出し、ステップS101において設定された対応関係に従って、フィルタ情報17に含まれるフィルタ係数の各々から参照フィルタ情報に含まれるフィルタ係数の各々を減算し、フィルタ係数差分を算出する(ステップS102)。フィルタ係数差分算出部113は、フィルタ情報17に含まれるフィルタ係数を上記フィルタ係数差分に置き換え、フィルタ差分情報19としてエントロピー符号化部104及び参照フィルタ更新部114に出力する。
次に、参照フィルタ更新部114は、ステップS101において設定された対応関係に従って、参照フィルタ用バッファ112に記憶された参照フィルタ情報に含まれるフィルタ係数に、ステップS102において算出されたフィルタ係数差分を加算することにより、参照フィルタ情報を更新する(ステップS103)。前述したように参照フィルタ情報の更新は必須の処理ではないが、更新を頻繁に行うことにより、符号化対象フィルタの特性が徐々に変化する場合にも参照フィルタの特性を符号化対象フィルタの特性の変化に追従させられるため、係数差分の増大ひいては発生符号量の増大を抑えられる。
次に、エントロピー符号化部104は、ステップS103において生成されたフィルタ差分情報19及びその他の符号化パラメータと、量子化変換係数13とに対して、ハフマン符号化や算術符号化等のエントロピー符号化を行う(ステップS104)。エントロピー符号化部104は、符号化データ14を多重化した符号化ビットストリームを出力し、処理は終了する。
以上説明したように、本実施形態に係る動画像符号化装置は、参照フィルタを用意し、当該参照フィルタと符号化対象フィルタとの間のフィルタ係数位置の対応関係を定めたうえで両者の係数差分を算出し、フィルタ情報の代わりに上記係数差分を含むフィルタ差分情報を符号化する。従って、本実施形態に係る動画像符号化装置によれば、符号化対象フィルタのタップ長と参照フィルタのタップ長とが異なる場合であっても係数差分を算出し、フィルタ情報に比べて符号量の小さなフィルタ差分情報を生成できる。
尚、上記説明において、参照フィルタ情報が1つであるかのように説明したが、複数であってもよい。例えば、符号化対象フィルタの性質(フィルタ特性、タップ長等)及び符号化対象フィルタが適用される領域の性質(スライスタイプ、量子化パラメータ等)の少なくとも一方を条件として、複数の参照フィルタ情報からいずれか1つを選択して用いてもよい。上記条件に従って参照フィルタを適応的に選択すれば、係数差分を小さく抑えることが容易になる。また、複数の参照フィルタ情報を用いる場合に、上記条件に依存しない参照フィルタ情報を更に設けてもよい。上記条件に依存しない参照フィルタ情報に含まれるフィルタ係数を、上記条件に依存する参照フィルタ情報に含まれるフィルタ係数の初期値として統一的に用いることにより、上記条件に依存する参照フィルタ情報が初めて用いられるときにも係数差分を小さく抑えられる。
(第2の実施形態)
図4は本発明の第2の実施形態に係る動画像復号化装置を示す。この動画像復号化装置は図1の動画像符号化装置から出力される符号化データを復号化する。図4の動画像復号化装置は動画像復号化部2000と、復号化制御部207とを有する。動画像復号化部2000は、エントロピー復号化部201、逆変換/逆量子化部202、予測画像信号生成部203、加算部204、フィルタ処理部205、参照画像用バッファ206及びフィルタ情報復元部208を有する。復号化制御部207は復号化部2000全体の制御(例えば、復号化タイミングの制御)を行う。以下の説明では、図4において図1と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
エントロピー復号化部201は、所定のシンタクス構造に従って、符号化データ14に含まれる各シンタクスの符号列を復号する。具体的には、エントロピー復号化部201は、量子化変換係数13、フィルタ差分情報19、動き情報、予測モード情報、ブロックサイズ切り替え情報及び量子化パラメータ等を復号する。エントロピー復号化部201は、量子化変換係数13を逆変換/逆量子化部202に、フィルタ差分情報19をフィルタ情報復元部208に夫々入力する。
逆変換/逆量子化部202は、エントロピー復号化部201からの量子化変換係数13を量子化パラメータに従って逆量子化して変換係数を復号する。逆量子化/逆変換部202は、復号した変換係数に対して、符号化側で行われた変換処理の逆変換を行って予測誤差信号を復号する。例えば、逆量子化/逆変換部202はIDCTや逆ウェーブレット変換を行う。上記復号された予測誤差信号(以下、復号予測誤差信号15と称する)は、加算部204に入力される。
予測画像信号生成部203は、符号化側と同様の予測画像信号11を生成する。具体的には、予測画像信号生成部203は、既に復号化済みの参照画像信号18を後述する参照画像用バッファ206から読み出し、エントロピー復号化部201からの動き情報を用いて動き補償予測を行う。また、予測画像信号生成部203は符号化側がイントラ予測など他の予測方式によって予測画像信号11を生成していれば、これに応じた予測を行って予測画像信号11を生成する。予測画像生成部203は、予測画像信号11を加算部204に入力する。
加算部204は、逆変換/逆量子化部202からの復号予測誤差信号15と、予測画像信号生成部203からの予測画像信号11とを加算して復号画像信号21を生成する。加算部204は、復号画像信号21をフィルタ処理部205に入力する。また、加算部204は、復号画像信号21を参照画像用バッファ206に入力する。
フィルタ処理部205は、後述するフィルタ情報復元部208からのフィルタ情報17に従い、復号画像信号21に対して所定のフィルタ処理を行って復元画像信号22を生成する。フィルタ処理部205は、復元画像信号22を外部に出力する。尚、フィルタ処理部205は、復号画像信号21に対してデブロッキングフィルタ処理を施して得られる画像信号を、当該復号画像信号21の代わりに用いてもよい。即ち、加算部204とフィルタ処理部205との間にデブロッキングフィルタが設けられてもよい。
参照画像用バッファ206には、加算部204からの復号画像信号21が参照画像信号18として一時的に記憶され、予測画像信号生成部203によって必要に応じて読み出される。
フィルタ情報復元部208は、後述するように、符号化側と同一の参照フィルタ情報とエントロピー復号化部201からのフィルタ差分情報19とを用いて、符号化側において生成されたフィルタ情報17(復号化対象フィルタのフィルタ情報)を復元する。フィルタ情報復元部208は、フィルタ情報17をフィルタ処理部205に入力する。
以下、図5を用いてフィルタ情報復元部208の内部を説明する。
図5に示すように、フィルタ情報復元部208は、フィルタ係数位置対応関係設定部209、フィルタ係数算出部210、参照フィルタ更新部211及び参照フィルタ用バッファ112を有する。
フィルタ係数位置対応関係設定部209は、フィルタ差分情報19と参照フィルタ情報との間におけるフィルタ係数位置の対応関係を設定する。尚、前述したように、フィルタ差分情報19及びフィルタ情報17は、フィルタ係数値において異なるものの、フィルタ係数位置を含むその他の点において共通する。従って、フィルタ係数位置対応関係設定部209は前述したフィルタ係数位置対応関係設定部111と同一の構成でもよい。例えば、フィルタ係数位置対応関係設定部209は、フィルタ差分情報19に含まれるフィルタ係数位置の中心と、参照フィルタ情報に含まれるフィルタ係数位置の中心とが一致するように、フィルタ差分情報19に含まれる係数位置の各々と、参照フィルタ情報に含まれる係数位置の各々とを対応付ける。フィルタ係数位置対応関係設定部209は、上記対応関係をフィルタ係数算出部210及び参照フィルタ更新部211に通知する。
フィルタ係数算出部210は、参照フィルタ情報を参照フィルタ用バッファ112から読み出す。フィルタ係数算出部210は、フィルタ係数位置対応関係設定部209によって定められた対応関係に従って、フィルタ差分情報19に含まれるフィルタ係数の各々と参照フィルタ情報に含まれるフィルタ係数の各々とを加算する。前述したように、フィルタ差分情報19に含まれるフィルタ係数は、符号化側において生成されたフィルタ情報17に含まれるフィルタ係数から参照フィルタ情報に含まれるフィルタ係数を減算して得られる。従って、フィルタ差分情報19に含まれるフィルタ係数と参照フィルタ情報に含まれるフィルタ係数とを加算することにより、フィルタ情報17に含まれるフィルタ係数が復元される。フィルタ係数算出部210は、フィルタ差分情報19に含まれるフィルタ係数を復元したフィルタ係数に置き換えて、フィルタ情報17として出力する。
参照フィルタ更新部211は、フィルタ係数位置対応関係設定部210によって定められた対応関係に従って、参照フィルタ用バッファ112に記憶された参照フィルタ情報に含まれるフィルタ係数を、フィルタ係数算出部210から出力されるフィルタ情報17に含まれるフィルタ係数(即ち、フィルタ係数算出部210によって算出されたフィルタ係数)に置き換えることにより、参照フィルタ情報を更新する。ここで、参照フィルタ情報の初期値及び更新タイミングは、符号化側と一致しているものとする。
以下、図6を用いてフィルタ情報17の復元処理を説明する。
符号化側から符号化データ14が入力されると、図6の処理が開始する。
まず、エントロピー復号化部201は、符号化データ14を復号し、フィルタ差分情報19及びその他の符号化パラメータと、量子化変換係数13とを得る(ステップS201)。エントロピー復号化部201は、量子化変換係数13を逆変換/逆量子化部202に、フィルタ差分情報19をフィルタ情報復元部208に夫々入力する。
次に、フィルタ係数位置対応関係設定部209は、エントロピー復号化部201からのフィルタ差分情報19に含まれるタップ長を取得し、復号化対象フィルタと参照フィルタとの間におけるフィルタ係数位置の対応関係を設定する(ステップS202)。前述したように、参照フィルタ情報におけるタップ長は7×7なので、フィルタ差分情報19におけるタップ長も7×7であれば、復号化対象フィルタのフィルタ係数及び参照フィルタのフィルタ係数は同一位置同士で一対一に対応付けられる。一方、フィルタ差分情報19におけるタップ長が5×5であれば、フィルタ係数位置対応関係設定部209、復号化対象フィルタのフィルタ係数位置の中心及び参照フィルタのフィルタ係数位置の中心が一致するように、対応関係を設定する。換言すれば、フィルタ係数位置対応関係設定部209は、復号化対象フィルタのフィルタ係数位置の各々を中心からの第1の相対位置に変換し、参照フィルタのフィルタ係数位置の各々を中心からの第2の相対位置に変換し、第1の相対位置及び第2の相対位置が一致するように対応関係を設定する。フィルタ係数位置対応関係設定部209は、上記対応関係をフィルタ係数算出部210及び参照フィルタ更新部211に通知する。
次に、フィルタ係数算出部210は、参照フィルタ情報を参照フィルタ用バッファ112から読み出し、ステップS202において設定された対応関係に従って、フィルタ差分情報19に含まれるフィルタ係数の各々と参照フィルタ情報に含まれるフィルタ係数の各々とを加算し、符号化側において生成されたフィルタ情報17に含まれるフィルタ係数を復元する(ステップS203)。フィルタ係数算出部210は、フィルタ差分情報19に含まれるフィルタ係数を、算出したフィルタ係数に置き換え、フィルタ情報17としてフィルタ処理部205及び参照フィルタ更新部211に入力する。
次に、参照フィルタ更新部211は、ステップS202において設定された対応関係に従って、参照フィルタ用バッファ112に記憶された参照フィルタ情報に含まれるフィルタ係数を、ステップS203において算出されたフィルタ係数に置き換えることにより、参照フィルタ情報を更新する(ステップS204)。前述したように参照フィルタ情報の更新は必須の処理でないが、更新タイミングは符号化側と同一でなければならない。
以上説明したように、本実施形態に係る動画像復号化装置は、符号化側と同一の参照フィルタを用意し、当該参照フィルタと復号化対象フィルタとの間のフィルタ係数位置の対応関係を定めたうえで、参照フィルタのフィルタ係数と符号化側から送信される係数差分とを加算して復号化対象フィルタのフィルタ係数を復元する。従って、本実施形態に係る動画像復号化装置によれば、復号化対象フィルタのタップ長と参照フィルタのタップ長とが異なる場合であっても、フィルタ情報に比べて符号量の小さなフィルタ差分情報を利用して、復号化対象フィルタのフィルタ係数を復元できる。
尚、上記説明において、参照フィルタ情報が1つであるかのように説明したが、複数であってもよい。例えば、復号化対象フィルタの性質(フィルタ特性、タップ長等)及び復号化対象フィルタが適用される領域(復号化対象領域)の性質(スライスタイプ、量子化パラメータ等)の少なくとも一方を条件として、複数の参照フィルタ情報からいずれか1つを選択して用いてもよい。また、複数の参照フィルタ情報を用いる場合に、上記条件に依存しない参照フィルタ情報を更に設けてもよい。
(第3の実施形態)
図7に示すように、本発明の第3の実施形態に係る動画像符号化装置は、いわゆるハイブリッド符号化を行う動画像符号化装置であって、図1の動画像符号化装置における動画像符号化部1000を動画像符号化部3000に置き換えて構成される。以下の説明では、図7において図1と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
動画像符号化部3000は、図1の動画像符号化部1000において更にフィルタ処理部120を設けて構成される。
フィルタ処理部120は、画像復元のためのフィルタ処理を加算部106からの局所復号画像信号16に対して施し、復元画像信号22を得る。フィルタ処理部120が行うフィルタ処理は、復号化側において復号画像信号に対して行われるフィルタ処理と同一であり、タップ長及びフィルタ係数はフィルタ情報生成部107からのフィルタ情報17によって指定される。フィルタ処理部120は、復元画像信号22を参照画像用バッファ108に入力する。参照画像用バッファ108には、フィルタ処理部120からの復元画像信号22が参照画像信号18として一時的に記憶され、予測画像信号生成部101によって適宜読み出される。
以上説明したように、本実施形態に係る動画像符号化装置によれば、いわゆるループフィルタ処理を行う動画像符号化装置において前述した第1の実施形態に係る動画像符号化装置と同様の効果が得られる。
(第4の実施形態)
図8に示すように、本発明の第4の実施形態に係る動画像復号化装置は、上記図7に示す動画像符号化装置から入力される符号化データを復号化する動画像復号化装置であって、図4の動画像復号化装置における動画像復号化部2000を動画像復号化部4000に置き換えて構成される。以下の説明では、図8において図4と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
動画像復号化部2000において、前述したように、加算部204からの復号画像信号21が参照画像信号18として参照画像用バッファ206によって一時的に記憶される。一方、動画像復号化部4000において、フィルタ処理部205からの復元画像信号22が参照画像信号18として参照画像用バッファ206によって一時的に記憶される。
以上説明したように、本実施形態に係る動画像復号化装置によれば、いわゆるループフィルタ処理を行う動画像復号化装置において、前述した第2の実施形態に係る動画像復号化装置と同様の効果が得られる。
(第5の実施形態)
図9に示すように、本発明の第5の実施形態に係る動画像復号化装置は、上記図7に示す動画像符号化装置から入力される符号化データを復号化する動画像復号化装置であって、図4の動画像復号化装置における動画像復号化部2000を動画像復号化部5000に置き換えて構成される。以下の説明では、図8において図4と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
動画像復号化部2000において、前述したように、加算部204からの復号画像信号21が参照画像信号18として参照画像用バッファ206によって一時的に記憶され、フィルタ処理部205からの復元画像信号22が外部に出力される。一方、動画像復号化部5000において、フィルタ処理部205からの復元画像信号22が参照画像信号18として参照画像用バッファ206によって一時的に記憶され、加算部204からの復号画像信号21が外部に出力される。
以上説明したように、本実施形態に係る動画像復号化装置によれば、いわゆるループフィルタ処理を行う動画像復号化装置において、前述した第2の実施形態に係る動画像復号化装置と同様の効果が得られる。
(第6の実施形態)
前述した第1及び第3の実施形態に係る動画像符号化装置は、図2のフィルタ差分情報生成部110によってフィルタ差分情報19を生成する。本発明の第6の実施形態に係る動画像符号化装置は、図2のフィルタ差分情報生成部110とは異なるフィルタ差分情報生成部を用いてフィルタ差分情報19を生成する。
図2のフィルタ差分情報生成部110は、符号化対象フィルタと参照フィルタとの間のフィルタ係数の差分を含むフィルタ差分情報19を生成する。フィルタ差分情報生成部110は、符号化対象フィルタのフィルタ係数そのものでなく係数差分を符号化対象とすることにより、発生符号量を低減させる。ここで、参照フィルタのフィルタ係数は、既に符号化済みのフィルタ係数によって更新されるため、対象フィルタのフィルタ係数に対する時間方向の予測値とみなすことができる。即ち、図2のフィルタ差分情報生成部110による符号化対象フィルタのフィルタ係数に関する発生符号量の削減効果は、符号化対象フィルタの時間的相関に依存する。故に、符号化対象フィルタと参照フィルタとの間の時間的相関が小さいほど、発生符号量の削減効果は減少する。また、符号化対象フィルタのフィルタ係数が参照フィルタのフィルタ係数と大きく異なる場合には、符号化対象フィルタのフィルタ係数そのものを符号化するよりも発生符号量が却って増えるおそれがある。また、任意の時刻から復号化を開始するいわゆるランダムアクセスが行われる場合には、アクセス対象時刻以前のフィルタ情報を使用できないため、フィルタ係数に対する時間方向の予測が不可能となるかもしれない。
そこで、本実施形態に係る動画像符号化装置は、フィルタ係数に対して時間方向の予測(以下、単に時間予測モードと称する)と、後述する空間方向の予測(以下、単に空間予測モードと称する)とを適応的に切り替える。即ち、本実施形態に係る動画像符号化装置は、空間予測モードを適応的に利用することにより、時間予測モードが適さない場面においても符号化対象フィルタのフィルタ係数に基づく発生符号量の削減効果を奏することができる。
本実施形態に係る動画像符号化装置は、図1の動画像符号化装置または図7の動画像符号化装置においてフィルタ差分情報生成部110を、例えば図11に示すフィルタ差分情報生成部310に置き換えることにより構成することができる。
フィルタ差分情報生成部310は、フィルタ係数位置対応関係設定部111、参照フィルタ用バッファ112、参照フィルタ更新部114、時間予測モードフィルタ係数差分算出部115、空間予測モードフィルタ係数差分算出部116及び係数予測モード制御部117を有する。尚、図11において図2と同一部分には同一符号を付して示しており、以降の説明では両図の間で異なる部分を中心に述べる。また、時間予測モードフィルタ係数差分算出部115は、フィルタ係数差分算出部113と名称において異なるが、実質的に同一の構成要素を適用可能である。
空間予測モードフィルタ係数差分算出部116は、符号化対象フィルタのフィルタ係数に対して空間方向の予測を行って、予測誤差を含むフィルタ差分情報19を生成する。空間予測モードフィルタ係数差分算出部116は、任意の既存或いは将来の空間予測技術を利用してよい。
以下、図12を用いて空間予測モードフィルタ係数差分算出部116が利用可能な空間予測技術の一例を説明する。一般に、フィルタ係数の総和(図12の場合であれば、フィルタ係数c0,・・・,c24の総和)は、あまり変動しない。このため、フィルタ係数の総和を一定値と推定することにより、任意の位置のフィルタ係数(例えば、図12におけるフィルタ係数c0)を、その他の位置のフィルタ係数の総和(例えば、図12におけるフィルタ係数c1,・・・,c24の総和)に基づいて予測することが可能となる。空間予測が行われるフィルタ係数は任意でよいが、一般に中心位置のフィルタ係数(図12におけるフィルタ係数c0)が大きいので、中心位置のフィルタ係数に対して空間予測を行うことが発生符号量削減の観点からすれば望ましい。図12において、フィルタ係数c0に対する予測値c0'は、その他のフィルタ係数c1,・・・,c24及びフィルタ係数の総和Sを用いて次の数式(2)に従って導出できる。
Figure 2010076856
フィルタ係数の総和Sは、フィルタ係数の総和(ゲイン)が「1」であってフィルタ係数の各々を8ビットで量子化する場合には、「256」となる。また、フィルタ係数の総和Sは、符号化側と復号化側で同一の値でなければならないことに注意を要する。空間予測モードフィルタ係数差分算出部116は、フィルタ係数c0の予測誤差(=c0-c0')と、その他のフィルタ係数c1,・・・,c24とを含むフィルタ差分情報19を生成する。即ち、空間予測モードフィルタ係数差分算出部116は、フィルタ情報17におけるフィルタ係数c0を、予測誤差に置き換えてフィルタ差分情報19を生成する。
尚、空間予測モードフィルタ係数差分算出部116が利用可能な空間予測技術は、上記技術に限られず、フィルタ係数の空間的相関を利用可能な任意の技術が適用されてよい。以下、図23A及び図23Bを用いて空間予測処理の別の例を説明する。これらの空間予測処理は、前述した空間予測処理またはその他の空間予測処理と組み合わせて利用されてもよいし、独立して利用されてもよい。
一般に、中心位置に関して点対称な位置のフィルタ係数は、同じ値または類似する値であることが多い。従って、例えば図23Aに示すように、インデクス1,・・・,12のフィルタ係数をインデクスd1,・・・・,d12のフィルタ係数に対する空間予測値として夫々利用することができる。このような空間予測処理を利用する場合であれば、インデクスd1,・・・,d12のフィルタ係数そのものでなく予測誤差をフィルタ差分情報19に格納させることができる。
また、中心位置に関して垂直方向または水平方向に対称な位置のフィルタ情報も、同一または類似する値であることが多い。従って、例えば図23Bに示すように、インデクス1,・・・,8のフィルタ係数をインデクスd1,・・・,d8のフィルタ係数に対する空間予測値として夫々利用することができる。このような空間予測処理を利用する場合であれば、インデクスd1,・・・,d8のフィルタ係数そのものでなく予測誤差をフィルタ差分情報19に格納させることができる。
係数予測モード制御部117は、時間予測モードフィルタ係数差分算出部115によって生成されるフィルタ差分情報19と、空間予測モードフィルタ係数差分算出部116によって生成されるフィルタ差分情報19とを適応的に切り替えて選択し、どのような係数予測モードが選択されたかを識別するための係数予測モード情報を多重化させて出力する。尚、係数予測モード制御部117による係数予測モードの決定処理の具体例は後述する。
以下、図13を用いて、本実施形態に係る動画像符号化装置におけるフィルタ差分情報19の生成処理を説明する。フィルタ情報生成部107が、フィルタ情報17をフィルタ差分情報生成部310に入力すると、図13の処理が開始する。
尚、図13の例では、時間予測(ステップS111〜S112)が空間予測(ステップS114)に先立って行われるが、これらの順序は逆順でもよいし並列的でもよい。また、係数予測モード制御部117は後述するように符号化コストに基づいて係数予測モードを決定するが、その他の任意の基準に従って係数予測モードが決定されてもよい。また、ステップS116では、数式(1)に従って算出される時間予測処理及び空間予測処理に関する符号化コストの大小比較を行うと説明したが、両者は係数差分の算出方法において異なるに過ぎないので、符号化コストの大小比較を行うことは発生符号量の大小比較を行うことと等価である。
まず、フィルタ係数位置対応関係設定部111は、フィルタ情報生成部107からのフィルタ情報17に含まれるタップ長を取得し、符号化対象フィルタと参照フィルタとの間におけるフィルタ係数位置の対応関係を設定する(ステップS111)。フィルタ係数位置対応関係設定部111は、符号化対象フィルタのフィルタ係数位置の各々を中心からの第1の相対位置に変換し、参照フィルタのフィルタ係数位置の各々を中心からの第2の相対位置に変換し、第1の相対位置及び第2の相対位置が一致するように対応関係を設定する。フィルタ係数位置対応関係設定部111は、上記対応関係を時間予測モードフィルタ係数差分算出部115及び参照フィルタ更新部114に通知する。
次に、時間予測モードフィルタ係数差分算出部115は、参照フィルタ情報を参照フィルタ用バッファ112から読み出し、ステップS111において設定された対応関係に従って、フィルタ情報17に含まれるフィルタ係数の各々から参照フィルタ情報に含まれるフィルタ係数の各々を減算し、フィルタ係数差分を算出する(ステップS112)。そして、時間予測フィルタ係数差分算出部115は、フィルタ情報17に含まれるフィルタ係数を上記フィルタ係数差分に置き換えてフィルタ情報19を生成する。次に、時間予測モードフィルタ係数算出部115(係数予測モード制御部117またはその他の構成要素でもよい)は、時間予測処理によって得られたフィルタ差分情報19の符号化コストcost_temporalを数式(1)に従って算出する(ステップS113)。
空間予測モードフィルタ係数差分算出部116は、符号化対象フィルタのフィルタ係数の一部(例えば、中心位置のフィルタ係数)に対して空間予測処理(例えば、数式(2)の演算)を行って、予測誤差を係数差分として算出する(ステップS114)。そして、空間予測モードフィルタ係数差分算出部116は、フィルタ情報17に含まれるフィルタ係数の一部(例えば、中心位置のフィルタ係数)を上記係数差分に置き換える。次に、空間予測モードフィルタ係数差分算出部116(係数予測モード制御部117またはその他の構成要素でもよい)は、空間予測処理によって得られたフィルタ差分情報19の符号化コストcost_spatialを数式(1)に従って算出する(ステップS115)。
係数予測モード制御部117は、ステップS113において算出された符号化コストcost_temporalとステップS115において算出された符号化コストcost_spatialとを大小比較する(ステップS116)。符号化コストcost_temporalが符号化コストcost_spatialより大きければ処理はステップS117に進み、そうでなければ処理はステップS118に進む。
ステップS117において、係数予測モード制御部117は係数予測モード情報としてのフラグcoef_pred_modeに、空間予測モードの適用を示す値「1」を代入する。そして、係数予測モード制御部117は空間予測処理(ステップS114)によって得られたフィルタ差分情報19に係数予測モード情報を重畳してエントロピー符号化部104に出力し、処理はステップS120に進む。
ステップS118において、係数予測モード制御部117は上記フラグcoef_pred_modeに、時間予測モードの適用を示す値「0」を代入する。そして、係数予測モード制御部117は時間予測処理(ステップS112)によって得られたフィルタ差分情報19を参照フィルタ更新部114に出力し、更にフィルタ差分情報19に係数予測モード情報を重畳してエントロピー符号化部104に出力する。次に、参照フィルタ更新部114が、ステップS111において設定された対応関係に従って、参照フィルタ用バッファ112に保持される参照フィルタ情報に含まれるフィルタ係数に、ステップS112において算出されたフィルタ係数差分を加算することにより参照フィルタ情報を更新し(ステップS119)、処理はステップS120に進む。前述したように参照フィルタ情報の更新は必須の処理ではないが、更新を頻繁に行うことにより、符号化対象フィルタの特性が徐々に変化する場合にも参照フィルタの特性を符号化対象フィルタの特性の変化に追従させられるため、係数差分の増大ひいては発生符号量の増大を抑えられる。
ステップS120において、エントロピー符号化部104は、係数予測モード制御部117から入力されたフィルタ差分情報19、係数予測モード情報及びその他の符号化パラメータと、量子化変換係数13とに対して、ハフマン符号化や算術符号化等のエントロピー符号化を行う。エントロピー符号化部104が、符号化データ14を多重化した符号化ビットストリームを出力し、処理は終了する。
以下、図14を用いて本実施形態に係る動画像符号化装置が利用するシンタクス構造の一例を説明する。尚、以降の説明において、フィルタ差分情報19はスライス単位で復号化側に送信されるものとするが、シーケンスレベル、ピクチャレベル、マクロブロックレベルで復号化側に送信されても勿論よい。
図14に示すように、シンタクスは、上層から順にハイレベルシンタクス1900、スライスレベルシンタクス1903及びマクロブロックレベルシンタクス1907の3段階の階層構造を有する。
ハイレベルシンタクス1900は、シーケンスパラメータセットシンタクス1901及びピクチャパラメータセットシンタクス1902を含み、スライスよりも上位のレイヤ(例えば、シーケンスまたはピクチャ)で必要な情報を規定する。
スライスレベルシンタクス1903は、スライスヘッダシンタクス1904、スライスデータシンタクス1905及びループフィルタデータシンタクス1906を含み、スライス単位で必要な情報を規定する。
マクロブロックレベルシンタクス1907は、マクロブロックレイヤシンタクス1908及びマクロブロックプレディクションシンタクス1909を含み、マクロブロック単位で必要な情報(例えば、量子化変換係数データ、予測モード情報及び動きベクトル)を規定する。
フィルタ差分情報19は、例えば前述したループフィルタデータシンタクス1906において、例えば図15Aに示すような態様で記述される。図15Aにおいて、filter_size_x及びfilter_size_yは、符号化対象フィルタの水平方向(x方向)及び垂直方向(y方向)のサイズ(タップ長)を表す。luma_flag及びchroma_flagは画像の輝度信号及び色差信号に対して符号化対象フィルタの適用の有無を示すフラグを表し、「1」は符号化対象フィルタの適用を示し、「0」は符号化対象フィルタの非適用を示す。係数予測モード情報coef_pred_modeは、図13に関して説明した通りである。filter_coef_diff_luma[cy][cy]は、座標(cx,cy)で識別される位置のフィルタ係数差分(輝度信号に対して適用されるフィルタ係数に関する)である(但し、空間予測処理が行われる場合には符号化対象フィルタのフィルタ係数のままであるかもしれない)。filter_coef_diff_chroma[cy][cx]は、座標(cx,cy)で識別される位置のフィルタ係数差分(色差信号に対して適用されるフィルタ係数に関する)である(但し、空間予測処理が行われる場合には符号化対象フィルタのフィルタ係数そのものであるかもしれない)。
尚、図15Aでは、複数の色差信号コンポーネントについて(区別されず)同一のフィルタ差分情報19が記述されているが、複数の色差信号コンポーネントについて個別のフィルタ差分情報19が記述されてよい。また、図15Aでは、色差信号に適用されるフィルタ差分情報19を必ず記述しているが、輝度信号に対してフィルタを適用する場合(前述したluma_flag=1である場合)にのみ色差信号に適用されるフィルタ差分情報19を記述するようにしてもよい。また、図15Aでは、係数予測モード情報は、輝度信号及び色差信号に関して共通のフラグcoef_pred_modeとして記述されているが、独立したフラグとして記述されてもよい。係数予測モード情報を輝度信号及び色差信号に関して独立したフラグとして記述する場合には、フィルタ情報19を例えば図15Bに示すように記述すればよい(フラグcoef_pred_mode_luma及びフラグcoef_pred_mode_chromaを参照)。
以上説明したように、本実施形態に係る動画像符号化装置は、フィルタ係数の時間予測だけでなく空間予測を適応的に行ってフィルタ差分情報を生成する。従って、本実施形態に係る動画像符号化装置によれば、フィルタ係数の時間予測が適切でない場合にも空間予測を行ってフィルタ係数に基づく発生符号量を削減することができる。
ところで、前述したように本実施形態に係る動画像符号化装置は、図1の動画像符号化装置または図7の動画像符号化装置においてフィルタ差分情報生成部110を、例えば図16に示すフィルタ差分情報生成部410または図17に示すフィルタ差分情報生成部510に置き換えることによっても構成することができる。
図16のフィルタ差分情報生成部410は、空間予測モードフィルタ係数差分算出部116の配置において図11のフィルタ差分情報生成部310と異なる。具体的には、フィルタ差分情報生成部410において、時間予測処理の適用の有無に関わらず空間予測処理が適用されることになる。例えば、空間予測モードフィルタ係数差分算出部116が中心位置のフィルタ係数をフィルタ係数の総和の推定値及びその他の位置のフィルタ係数に基づいて空間予測し、当該その他の位置のフィルタ係数について更に時間予測を適用するか否かを係数予測モード制御部117が適応的に切り替える。即ち、フィルタ差分情報生成部410によって生成されるフィルタ差分情報19には空間予測誤差と時間予測誤差とが混在し得る。
図17のフィルタ差分情報生成部510は、参照フィルタ更新部114が時間予測に基づくフィルタ差分情報19に加えて空間予測に基づくフィルタ差分情報19を用いて参照フィルタのフィルタ係数を更新し得る点において、図11のフィルタ差分情報生成部310と異なる。
また、前述したように、フィルタ差分情報生成部410及び510においても複数の参照フィルタが用意されてよい。例えば、符号化対象フィルタの性質(フィルタ特性、タップ長等)及び符号化対象フィルタが適用される領域の性質(スライスタイプ、量子化パラメータ等)の少なくとも一方を条件として、複数の参照フィルタ情報からいずれか1つを選択して用いてもよい。また、複数の参照フィルタ情報を用いる場合に、上記条件に依存しない参照フィルタ情報を更に設けてもよい。即ち、上記条件に依存しない参照フィルタ情報に含まれるフィルタ係数を、上記条件に依存する参照フィルタ情報に含まれるフィルタ係数の初期値として統一的に用いることができる。
以下、フィルタ差分情報生成部510が、空間予測に基づくフィルタ差分情報19を用いて参照フィルタのフィルタ係数を更新するタイミングとして、いくつかの好適な例を紹介する。
エラー耐性(エラーの時間方向の伝播防止)及びランダムアクセスの観点から、特定のタイミング(符号化対象フィルタが適用される領域が、例えばIDRスライス、Iスライスなどである場合)において、係数予測モード制御部117が空間予測に基づくフィルタ差分情報19を必ず選択し、参照フィルタ更新部114が参照フィルタを更新してよい。この参照フィルタの更新は、参照フィルタの初期化(或いはリフレッシュ)に相当する。
複数の参照フィルタが用意されている場合には、一部の参照フィルタ(IDRスライス、Iスライスなどに適用される参照フィルタ)が初期化済みである一方、その他の参照フィルタ(Pスライス、Bスライスなどに適用される参照フィルタ、上記初期化済みの参照フィルタとタップ長の異なる参照フィルタ)が初期化されていない状況が考えられる。従って、各参照フィルタが条件に従って初めて選択されるときに、係数予測モード制御部117が空間予測に基づくフィルタ差分情報19を必ず選択し、参照フィルタ更新部114が参照フィルタを更新(初期化)してもよい。例えば、IDRスライス、Iスライスなどに適用される符号化対象フィルタに関して空間予測モードが選択されると、その他の参照フィルタの各々が条件に従って初めて選択されるときに当該参照フィルタの初期化を行わなければならないという取り決めが定められてよい。このような取り決めに従って参照フィルタの初期化が行われる場合には、復号化側においてフィルタ情報17の復元のために空間予測を選択すべきことが既知であるので、係数予測モード情報(例えば、フラグpred_coef_mode)がフィルタ差分情報19において省略されてよい。
上記取り決めは、簡潔ではあるものの、IDRスライス、Iスライスに適用される符号化対象フィルタに関して空間予測モードが選択される度に、その他の参照フィルタは初期化を強いられるという結果を招く。即ち、参照フィルタに対して時間予測モードを選択した方が発生符号量を削減できる場合にも、空間予測モードの選択が義務づけられてしまう。従って、上記取り決めの拡張として、その他の参照フィルタに対する初期化の要否を示す切り替え情報がフィルタ差分情報19に付加されてもよい。
また、IDRスライス、Iスライスに適用される符号化対象フィルタに関して空間予測モードが選択されることに伴うその他の参照フィルタの初期化は、実際に空間予測を行うことにより実現されてもよいし、上記IDRスライス、Iスライスに適用される符号化対象フィルタをそのまま参照フィルタとして再利用して時間予測を行うことにより実現されてもよい。
また、前述したように参照フィルタ情報に含まれるフィルタ係数の初期値は、符号化側及び復号化側において共通である。従って、この初期値を参照フィルタのフィルタ係数として代入することにより、参照フィルタの初期化を実現することも可能である。
以上のような参照フィルタの初期化を行う場合には、係数予測モード制御部117がフィルタ情報17及び符号化対象フィルタが適用される領域の情報(例えばスライス情報)を取得して、参照フィルタ更新部114を制御すればよい。尚、参照フィルタの初期化タイミングが符号化側及び復号化側において一致しなければならないことは当然である。
更に、第1、第3及び本実施形態において、符号化対象フィルタのフィルタ係数そのものでなくフィルタ係数の予測誤差(係数差分)を用いてフィルタ差分情報19を生成することにより、フィルタ係数に基づく発生符号量の削減を図る。しかしながら、時間予測モードを選択する場合において、参照フィルタが、最適設計したフィルタに比べて画質改善効果の観点からすれば劣るものの、符号量と画質とのバランスの観点(例えば、符号化コスト)からすれば優れることがある。このような場合には、復号化側において参照フィルタのフィルタ係数を復号化対象フィルタのフィルタ係数として直接的に利用することができる(以下、再利用モードと称する)。この再利用モードを選択する場合には、係数予測モード制御部117は符号化対象フィルタとフィルタ係数の完全一致する参照フィルタを識別するための情報(複数の参照フィルタが用意されている場合)を、上記予測誤差に代替して用いてフィルタ差分情報19を生成することができる。
再利用モードを選択可能とする場合、フィルタ差分情報19は、図22に示すような態様で記述される。図22において、coef_reuse_flagは、再利用モードの適用/非適用を示すフラグであり、再利用モードが適用される場合には「1」、再利用モードが適用されない場合には「0」が設定される。filter_type_for_reuseは、再利用モードにおいて使用される参照フィルタを識別するためのインデクスであるが、参照フィルタが1つの場合には不要である。尚、フラグcoef_reuse_flag及びインデクスfilter_type_for_reuseは、輝度信号及び色差信号に関して独立して設定されてもよい。
(第7の実施形態)
前述した第2、第4及び第5の実施形態に係る動画像復号化装置は、図5のフィルタ情報復元部208によってフィルタ情報17を復元する。本発明の第7の実施形態に係る動画像復号化装置は、図5のフィルタ情報復元部208とは異なるフィルタ情報復元部を用いてフィルタ情報17を復元する。
本実施形態に係る動画像復号化装置は、前述した第6の実施形態に係る動画像符号化装置から出力される符号化データを復号化する。本実施形態に係る動画像復号化装置は、図4の動画像復号化装置、図8の動画像復号化装置または図9の動画像復号化装置においてフィルタ情報復元部208を、例えば図18に示すフィルタ情報復元部608に置き換えることにより構成することができる。
フィルタ情報復元部608は、前述したフィルタ情報生成部310によって生成されたフィルタ差分情報19からフィルタ情報17を復元する。フィルタ情報復元部608は、フィルタ係数位置対応関係設定部209、参照フィルタ更新部211、参照フィルタ用バッファ112、時間予測モードフィルタ係数算出部212、空間予測モードフィルタ係数算出部213及び係数予測モード制御部214を有する。尚、図18において図5と同一部分には同一符号を示しており、以降の説明では両図の間で異なる部分を中心に述べる。また、時間予測モードフィルタ係数算出部212は、フィルタ係数算出部210と名称において異なるが、実質的に同一の構成要素を適用可能である。
空間予測モードフィルタ係数算出部213は、フィルタ差分情報19が入力されると、符号化側と同一の空間予測を行って、復号化対象フィルタのフィルタ係数の一部(例えば、中心位置のフィルタ係数)に対する予測値を得る。そして、空間予測モードフィルタ係数算出部213は、上記予測値に対応する予測誤差(フィルタ差分情報19に含まれる)を加算して、復号化対象フィルタのフィルタ係数を復元する。そして、空間予測モードフィルタ係数算出部213は、フィルタ差分情報19に含まれる予測誤差を、復元したフィルタ係数に置き換えてフィルタ情報17を得る。
係数予測モード制御部214は、フィルタ差分情報19に含まれる係数予測モード情報を参照して、符号化側において適用された係数予測モードを識別する。そして、識別された係数予測モードに対応する復元処理(復号化対象フィルタのフィルタ係数の算出処理)を適用すべく、フィルタ差分情報19の出力先を切り替える。
以下、図19を用いて、本実施形態に係る動画像復号化装置におけるフィルタ情報17の復元処理を説明する。
まず、エントロピー復号化部201は、符号化データ14を復号し、フィルタ差分情報19及びその他の符号化パラメータと量子化変換係数13とを得る(ステップS211)。エントロピー復号化部201は、量子化変換係数13を逆変換/逆量子化部202に、フィルタ差分情報19をフィルタ情報復元部608に夫々入力する。そして、処理はステップS212に進む。
ステップS212において、係数予測モード制御部214は、フィルタ差分情報19に含まれる係数予測モード情報を参照し、フィルタ差分情報19の出力先を決定する。例えば、前述したフラグcoef_pred_modeが「1」であればフィルタ差分情報19は空間予測モードフィルタ係数算出部213へ出力されて処理はステップS213に進み、そうでなければフィルタ差分情報19はフィルタ係数位置対応関係設定部209へ出力されて処理はステップS214に進む。
ステップS213において、空間予測モードフィルタ係数算出部213は、フィルタ差分情報19に含まれる復号化対象フィルタのフィルタ係数の一部(例えば、中心位置のフィルタ係数)に対して空間予測処理(例えば、数式(2)の演算)を行って、予測値を算出する。そして、空間予測モードフィルタ係数算出部213は、フィルタ差分情報19に含まれる係数差分(予測誤差)に上記空間予測値を加算して、復号化対象フィルタのフィルタ係数を復元する。空間予測モードフィルタ係数算出部213は、フィルタ差分情報19に含まれる予測誤差を、復元したフィルタ係数で置き換えてフィルタ情報17としてフィルタ処理部205に入力し、処理は終了する。
ステップS214において、フィルタ係数位置対応関係設定部209は、エントロピー復号化部201からのフィルタ差分情報19に含まれるタップ長を取得し、復号化対象フィルタと参照フィルタとの間におけるフィルタ係数位置の対応関係を設定する。フィルタ係数位置対応関係設定部209は、復号化対象フィルタのフィルタ係数位置の各々を中心からの第1の相対位置に変換し、参照フィルタのフィルタ係数位置の各々を中心からの第2の相対位置に変換し、第1の相対位置及び第2の相対位置が一致するように対応関係を設定する。フィルタ係数位置対応関係設定部209は、上記対応関係を時間予測モードフィルタ係数算出部212及び参照フィルタ更新部211に通知する。
次に、時間予測モードフィルタ係数算出部212は、参照フィルタ情報を参照フィルタ用バッファ112から読み出し、ステップS214において設定された対応関係に従って、フィルタ差分情報19に含まれるフィルタ係数の各々と参照フィルタ情報に含まれるフィルタ係数の各々とを加算し、符号化側において生成されたフィルタ情報17に含まれるフィルタ係数を復元する(ステップS215)。時間予測モードフィルタ係数算出部212は、フィルタ差分情報19に含まれるフィルタ係数を、算出したフィルタ係数に置き換え、フィルタ情報17としてフィルタ処理部205及び参照フィルタ更新部211に入力する。
次に、参照フィルタ更新部211は、ステップS214において設定された対応関係に従って、参照フィルタ用バッファ112に記憶される参照フィルタ情報に含まれるフィルタ係数を、ステップS215において算出されたフィルタ係数に置き換えることにより、参照フィルタ情報を更新し(ステップS216)、処理は終了する。前述したように参照フィルタ情報の更新は必須の処理でないが、更新タイミングは符号化側と同一でなければならない。
以上説明したように、本実施形態に係る動画像復号化装置は、符号化側と同一の係数予測モードに従い、フィルタ差分情報に含まれる係数差分(予測誤差)から復号化対象フィルタのフィルタ係数を復元する。従って、本実施形態に係る動画像復号化装置によれば、フィルタ情報に比べて符号量の小さなフィルタ差分情報を利用して、復号化対象フィルタのフィルタ係数を復元できる。
ところで、前述したように本実施形態に係る動画像復号化装置は、図4の動画像復号化装置、図8の動画像復号化装置または図9の動画像復号化装置においてフィルタ情報復元部208を、例えば図20に示すフィルタ情報復元部708または図21に示すフィルタ情報復元部808に置き換えることによっても構成できる。
図20のフィルタ情報復元部708は、空間予測モードフィルタ係数算出部213の配置において図18のフィルタ情報復元部608と異なる。フィルタ情報復元部708は、図16のフィルタ差分情報生成部410によって生成されたフィルタ差分情報19からフィルタ情報17を復元する。
図21のフィルタ情報復元部808は、参照フィルタ更新部211が時間予測に基づくフィルタ情報17に加えて空間予測に基づくフィルタ情報17を用いて参照フィルタのフィルタ係数を更新し得る点において図18のフィルタ情報復元部608と異なる。フィルタ情報復元部808は、図17のフィルタ差分情報生成部510によって生成されたフィルタ差分情報19からフィルタ情報17を復元する。
また、符号化側でエラー耐性及びランダムアクセスの観点から、特定のタイミングで参照フィルタの初期化を行う場合には、フィルタ情報復元部608、708及び808も同一タイミングかつ同一の態様で参照フィルタの初期化を行う。前述した再利用モードが符号化側によって適用される場合には、フィルタ情報復元部608、708及び808は適切な参照フィルタのフィルタ係数を用いてフィルタ情報17を復元する。
尚、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示された複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。
例えば、上記各実施形態に係る説明ではポストフィルタ処理またはループフィルタ処理におけるフィルタ情報に基づく発生符号量の削減に関して述べたが、上記各実施形態に係る説明を参酌すれば、補間フィルタ処理及び参照画像信号に対するフィルタ処理のようなフィルタ情報を符号化側から復号化側に送信する可能性のあるフィルタ処理に関しても当該フィルタ情報に基づく発生符号量を削減可能である。
また、各実施形態に係る動画像符号化装置及び動画像復号化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。即ち、予測画像信号生成部101、減算部102、変換/量子化部103、エントロピー符号化部104、逆変換/逆量子化部105、加算部106、フィルタ情報生成部107、符号化制御部109、フィルタ差分情報生成部110、310、410及び510、フィルタ係数位置対応関係設定部111、フィルタ係数差分算出部113、参照フィルタ更新部114、時間予測モードフィルタ係数差分算出部115、空間予測モードフィルタ係数差分算出部116、係数予測モード制御部117、エントロピー復号化部201、逆変換/逆量子化部202、予測画像信号生成部203、加算部204、フィルタ処理部205、復号化制御部207、フィルタ情報復元部208、608、708及び808、フィルタ係数位置対応関係設定部209、フィルタ係数算出部210、参照フィルタ更新部211、時間予測モードフィルタ係数算出部212、空間予測モードフィルタ係数算出部213及び係数予測モード制御部214は、上記コンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、各実施形態に係る動画像符号化装置及び動画像復号化装置は、上記プログラムをコンピュータ装置にあらかじめインストールすることで実現しても良いし、CD−ROM等の記憶媒体に記憶して、あるいはネットワークを介して上記プログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現しても良い。また、参照画像用バッファ108、参照フィルタ用バッファ112及び参照画像用バッファ206は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−R等の記憶媒体などを適宜利用して実現することができる。
その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。

Claims (26)

  1. 符号化対象画像の復号画像に適用するための対象フィルタを求めることと、
    前記対象フィルタのタップ長と参照フィルタのタップ長とに基づいて、前記対象フィルタの対象フィルタ係数のそれぞれと前記参照フィルタの参照フィルタ係数のそれぞれとの対応関係を設定することと、
    前記対応関係に従って、前記対象フィルタ係数と前記参照フィルタ係数との係数差分を求めることと、
    前記対象フィルタのタップ長及び前記係数差分を含む対象フィルタ情報を符号化することと、
    を具備する動画像符号化方法。
  2. 前記参照フィルタ係数及び前記係数差分を用いて、前記参照フィルタを更新することを更に具備する請求項1に記載の動画像符号化方法。
  3. 前記符号化対象画像の復号画像に前記対象フィルタを適用して、前記符号化対象画像より後に符号化される画像のための参照画像を求めることを更に具備する請求項1に記載の動画像符号化方法。
  4. 前記対応関係の設定では、前記対象フィルタの中心からの前記対象フィルタ係数のそれぞれの相対位置と、前記参照フィルタの中心からの前記参照フィルタ係数のそれぞれの相対位置とが一致するように、前記対応関係を設定する請求項1記載の動画像符号化方法。
  5. 前記対応関係の設定では、前記対象フィルタの性質及び当該対象フィルタが適用される領域の性質のうちの少なくとも一方の条件に基づいて、複数の参照フィルタ候補から前記参照フィルタを選択すること具備する請求項1に記載の動画像符号化方法。
  6. 前記対象フィルタが適用される領域の性質は、前記対象フィルタが適用される領域のスライスタイプ及び量子化パラメータのうちの少なくとも一方を含む請求項5記載の動画像符号化方法。
  7. 前記複数の参照フィルタ候補は、前記条件に依存しない第1の参照フィルタ候補と前記条件に依存する第2の参照フィルタ候補とを含み、
    前記第2の参照フィルタ候補が前記条件に従って初めて選択されるときには、前記第1の参照フィルタ候補が代替して選択される請求項6記載の動画像符号化方法。
  8. 前記対象フィルタの性質は、前記対象フィルタのタップ長を含む請求項7記載の動画像符号化方法。
  9. 符号化対象画像の復号画像に適用するための対象フィルタを求めることと、
    前記対象フィルタのタップ長と参照フィルタのタップ長とに基づいて前記対象フィルタの対象フィルタ係数のそれぞれと前記参照フィルタの参照フィルタ係数のそれぞれとの対応関係を設定し、前記対応関係に従って前記対象フィルタ係数と前記参照フィルタ係数との時間係数差分を求める時間予測モード、または、前記対象フィルタ係数のうちの一部の係数の予測値を前記対象フィルタ係数のうちの他の係数に基づいて予測し、前記一部の係数と前記予測値との空間係数差分を求める空間予測モードを用いて対象係数差分を求めることと、
    前記対象フィルタのタップ長、前記対象係数差分の予測モードを示す予測モード情報及び前記対象係数差分を含む対象フィルタ情報を符号化することと、
    を具備する動画像符号化方法。
  10. 前記予測モード情報が前記時間予測モードを示す場合には、前記対象フィルタ係数のうちの前記一部の係数と同じ位置の対象係数差分は前記空間係数差分であって、前記対象フィルタ係数のうちの前記他の係数と同じ位置の対象係数差分は前記時間係数差分である請求項9記載の動画像符号化方法。
  11. 前記対象フィルタ係数を用いて前記参照フィルタを更新することを更に具備する請求項9記載の動画像符号化方法。
  12. 前記予測モード情報は、輝度信号及び色差信号に関して独立して設定される請求項9記載の動画像符号化方法。
  13. 前記参照フィルタ係数を前記対象フィルタ係数として利用可能か否かを示す再利用情報を設定することを更に具備し、
    前記対象フィルタ情報は、前記再利用情報を更に含む
    請求項9記載の動画像符号化方法。
  14. 対象フィルタのタップ長と、前記対象フィルタの対象フィルタ係数及び参照フィルタの参照フィルタ係数の間の係数差分とを含む対象フィルタ情報が符号化された符号化データを復号化することと、
    前記対象フィルタのタップ長と前記参照フィルタのタップ長とに基づいて、前記係数差分のそれぞれと前記参照フィルタ係数のそれぞれとの対応関係を設定することと、
    前記対応関係に従って、前記係数差分と前記参照フィルタ係数とを加算して、前記対象フィルタ係数を算出することと
    を具備する動画像復号化方法。
  15. 前記対象フィルタ係数を用いて、前記参照フィルタを更新することを更に具備する請求項14記載の動画像復号化方法。
  16. 復号化画像に前記対象フィルタを適用して、前記復号化画像より後に復号化される画像のための参照画像を求めることを更に具備する請求項14に記載の動画像復号化方法。
  17. 前記対応関係の設定では、前記対象フィルタの中心からの前記係数差分のそれぞれの相対位置と、前記参照フィルタの中心からの前記参照フィルタ係数のそれぞれの相対位置とが一致するように、前記対応関係を設定する請求項14記載の動画像復号化方法。
  18. 前記対応関係の設定では、前記対象フィルタの性質及び当該対象フィルタが適用される領域の性質のうちの少なくとも一方の条件に基づいて、複数の参照フィルタ候補から前記参照フィルタを選択する請求項14記載の動画像復号化方法。
  19. 前記対象フィルタが適用される領域の性質は、前記対象フィルタが適用される領域のスライスタイプ及び量子化パラメータのうちの少なくとも一方を含む請求項18記載の動画像復号化方法。
  20. 前記複数の参照フィルタ候補は、前記条件に依存しない第1の参照フィルタ候補と前記条件に依存する第2の参照フィルタ候補とを含み、
    前記第2の参照フィルタ候補が前記条件に従って初めて選択されるときには、前記第1の参照フィルタ候補が代替して選択される請求項19記載の動画像復号化方法。
  21. 前記対象フィルタの性質は、前記対象フィルタのタップ長を含む請求項20記載の動画像復号化方法。
  22. 対象フィルタのタップ長、前記対象フィルタに適用されている予測モードを示す予測モード情報及び前記対象フィルタの対象フィルタ係数の予測誤差を示す対象係数差分を含む対象フィルタ情報が符号化された符号化データを復号化することと、
    前記予測モード情報が時間予測モードを示す場合には、前記対象フィルタのタップ長と参照フィルタのタップ長とに基づいて前記対象係数差分のそれぞれと前記参照フィルタの参照フィルタ係数のそれぞれとの対応関係を設定し、前記対応関係に従って前記対象係数差分と前記参照フィルタ係数とを加算して、前記対象フィルタ係数を復元することと、
    前記予測モード情報が空間予測モードを示す場合には、前記対象フィルタ係数の一部をその他の対象フィルタ係数に基づいて予測し、前記対象係数差分を加算して前記対象フィルタ係数を復元することと
    を具備する動画像復号化方法。
  23. 前記予測モード情報が前記時間予測モードを示す場合には、前記対応関係に従って前記その他の対象フィルタ係数と同一位置の対象係数差分と前記参照フィルタ係数とを加算して前記その他の対象フィルタ係数を復元し、前記対象フィルタ係数の一部を前記その他の対象フィルタ係数に基づいて予測し当該対象フィルタ係数の一部と同一位置の対象係数差分を加算して前記対象フィルタ係数の一部を復元する請求項22記載の動画像復号化方法。
  24. 前記対象フィルタ係数を用いて前記参照フィルタを更新することを更に具備する請求項22記載の動画像復号化方法。
  25. 前記予測モード情報は、輝度信号及び色差信号に関して独立して設定される請求項22記載の動画像復号化方法。
  26. 前記対象フィルタ情報は、前記参照フィルタ係数を前記対象フィルタ係数として利用可能か否かを示す再利用情報を更に含み、
    前記再利用情報が前記参照フィルタ係数を前記対象フィルタ係数として利用可能であることを示す場合には、前記参照フィルタ係数を前記対象フィルタ係数として使用する請求項22記載の動画像復号化方法。
JP2010544860A 2009-01-05 2009-04-08 動画像符号化方法及び動画像復号化方法 Withdrawn JPWO2010076856A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009000027 2009-01-05
JP2009000027 2009-01-05
PCT/JP2009/057220 WO2010076856A1 (ja) 2009-01-05 2009-04-08 動画像符号化方法及び動画像復号化方法

Publications (1)

Publication Number Publication Date
JPWO2010076856A1 true JPWO2010076856A1 (ja) 2012-06-21

Family

ID=42309909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010544860A Withdrawn JPWO2010076856A1 (ja) 2009-01-05 2009-04-08 動画像符号化方法及び動画像復号化方法

Country Status (5)

Country Link
US (1) US20110228844A1 (ja)
JP (1) JPWO2010076856A1 (ja)
CN (1) CN102282850A (ja)
BR (1) BRPI0922793A2 (ja)
WO (1) WO2010076856A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
WO2011105230A1 (ja) * 2010-02-26 2011-09-01 シャープ株式会社 フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造
WO2011105231A1 (ja) * 2010-02-26 2011-09-01 シャープ株式会社 フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造
JP2014099672A (ja) * 2011-03-09 2014-05-29 Sharp Corp 復号装置、符号化装置、および、データ構造
KR20120118782A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 적응적 필터링을 이용한 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9807403B2 (en) 2011-10-21 2017-10-31 Qualcomm Incorporated Adaptive loop filtering for chroma components
WO2013144144A1 (en) * 2012-03-30 2013-10-03 Panasonic Corporation Syntax and semantics for adaptive loop filter and sample adaptive offset
US20140003530A1 (en) * 2012-06-28 2014-01-02 Qualcomm Incorporated Sign hiding techniques for quantized transform coefficients in video coding
US10701383B2 (en) 2015-06-16 2020-06-30 Lg Electronics Inc. Method for encoding/decoding image and device for same
US10448013B2 (en) * 2016-12-22 2019-10-15 Google Llc Multi-layer-multi-reference prediction using adaptive temporal filtering
WO2019107182A1 (ja) 2017-12-01 2019-06-06 ソニー株式会社 符号化装置、符号化方法、復号装置、及び、復号方法
WO2019198519A1 (ja) * 2018-04-11 2019-10-17 ソニー株式会社 データ処理装置及びデータ処理方法
MX2022000834A (es) * 2019-08-08 2022-02-10 Fg innovation co ltd Dispositivo y metodo para la codificacion de datos de video.

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05135169A (ja) * 1991-11-13 1993-06-01 Kawasaki Steel Corp 2次元空間フイルタ回路
JPH1070717A (ja) * 1996-06-19 1998-03-10 Matsushita Electric Ind Co Ltd 画像符号化装置及び画像復号化装置
WO2005028664A2 (en) * 2003-09-17 2005-03-31 University Of Massachusetts Modulation of programmed necrosis
JP2005311512A (ja) * 2004-04-19 2005-11-04 Toshiba Corp エラーコンシールメント方法及び復号器
JP4284265B2 (ja) * 2004-11-02 2009-06-24 株式会社東芝 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法
JP4847890B2 (ja) * 2007-02-16 2011-12-28 パナソニック株式会社 符号化方式変換装置
RU2010132652A (ru) * 2008-03-07 2012-02-10 Кабусики Кайся Тосиба (Jp) Способ и устройство кодирования/декодирования видеосигнала
MX2010008978A (es) * 2008-03-07 2010-09-07 Toshiba Kk Aparato de codificacion / decodificacion de video.

Also Published As

Publication number Publication date
CN102282850A (zh) 2011-12-14
BRPI0922793A2 (pt) 2016-01-05
US20110228844A1 (en) 2011-09-22
WO2010076856A1 (ja) 2010-07-08

Similar Documents

Publication Publication Date Title
WO2010076856A1 (ja) 動画像符号化方法及び動画像復号化方法
KR102165340B1 (ko) 색차 성분 양자화 매개 변수 결정 방법 및 이러한 방법을 사용하는 장치
US11483571B2 (en) Video decoding device and method using inverse quantization
US20120230405A1 (en) Video coding methods and video encoders and decoders with localized weighted prediction
KR100856411B1 (ko) 조도 보상 방법 및 그 장치와 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체
US8228989B2 (en) Method and apparatus for encoding and decoding based on inter prediction
KR101863423B1 (ko) 이미지들을 인코딩 및 디코딩하기 위한 방법, 인코딩 및 디코딩 디바이스, 및 대응하는 컴퓨터 프로그램들
JP5061179B2 (ja) 照明変化補償動き予測符号化および復号化方法とその装置
US20110150080A1 (en) Moving-picture encoding/decoding method and apparatus
WO2008117933A1 (en) Method and apparatus for video encoding and decoding
JPWO2008120577A1 (ja) 画像符号化及び復号化の方法及び装置
KR101973571B1 (ko) 영상 변환 부호화/복호화 방법 및 장치
KR20090095012A (ko) 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치
WO2015008417A1 (ja) 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム
WO2009133845A1 (ja) 動画像符号化/復号化装置及び方法
KR101187580B1 (ko) 조도 보상 방법 및 그 장치와 이를 이용한 동영상 부호화방법 및 그 장치
JP7219030B2 (ja) 色差イントラ予測候補生成装置、画像符号化装置、画像復号装置、及びプログラム
JP2011077721A (ja) 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
KR20180018903A (ko) 참조 프레임 선택 방법 및 그 장치
KR101895389B1 (ko) 영상 부호화 방법 및 장치
JPWO2009133938A1 (ja) 動画像符号化及び復号装置
AU2017251808A1 (en) Video encoding device, video decoding device, video encoding method, and video decoding method
WO2012169054A1 (ja) 動画像符号化方法、及び装置、動画像復号方法、及び装置
JP2010263263A (ja) 符号化装置及びそのプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703