JP2013510482A - ハイブリッド映像符号化 - Google Patents

ハイブリッド映像符号化 Download PDF

Info

Publication number
JP2013510482A
JP2013510482A JP2012537392A JP2012537392A JP2013510482A JP 2013510482 A JP2013510482 A JP 2013510482A JP 2012537392 A JP2012537392 A JP 2012537392A JP 2012537392 A JP2012537392 A JP 2012537392A JP 2013510482 A JP2013510482 A JP 2013510482A
Authority
JP
Japan
Prior art keywords
prediction
decoded frame
frame
residual signal
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012537392A
Other languages
English (en)
Other versions
JP5684823B2 (ja
Inventor
ベンヤミン ブロス
トーマス ヴィーガント
ハイコ シュヴァルツ
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2013510482A publication Critical patent/JP2013510482A/ja
Application granted granted Critical
Publication of JP5684823B2 publication Critical patent/JP5684823B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ハイブリッド映像符号化において、前のフレームの参照残差信号を用いて、動き補償予測によって、現在のフレームの残差信号を付加的に予測することによって、更なる符号化効率の増加が達成される。
言い換えれば、最終残差信号、すなわち最後に送信されたもののエネルギーを更に低減し、符号化効率を増大するために、前の符号化フレームの復元残差信号を用いて、動き補償予測によって、付加的に残差信号を予測することが提案されている。
【選択図】図1

Description

本発明は、デジタル処理の分野に関し、特にハイブリッド映像符号化に関する。
映像符号化の圧縮レートを増やす継続するニーズがある。記憶と伝送の技術はデータ容量の増大を呈しているが、メディアの品質に関する要求と、空間分解能、ビューの数、ビット深さ、その他についてのような性能に関する要求もまた増大し、それにより技術的な記憶と伝送の発展を相殺している。したがって、圧縮技術の効果を増大するニーズが依然としてある。ハイブリッド映像符号化は、現時点で映像圧縮のための好ましいツールである。ハイブリッド映像符号化において、圧縮比を増大するために、映像素材の予測が実行される。特に、映像素材を直接符号化する代わりに、予測残差、すなわち残差信号が符号化される。残差信号を符号化するために、例えば、変換符号化および/またはエントロピー符号化を用いることができる。
非特許文献1において、動き情報のみが送信されるスキームが開示されている。残差信号はデコーダに送信されない。残差信号のいわゆる二次予測は、非特許文献2において提案されている。イントラ予測(同じフレーム内で復元残差サンプルを用いる)が、誤差信号のエネルギーを更に低減するために用いられる。
J. T. Gisladottir、M. T. Orchard、「動きのみの映像圧縮」、ICIP−94 議事録、IEEE国際会議「イメージ処理」、Vol.1、730−734頁、1994年11月13−16日 Shangwen Li、Sijia Chen、Jianpeng WangおよびLu Yu、「h.264/avcに関する2次予測」、画像コーディング・シンポジウム PCS2009 議事録、2009年5月6−8日
本発明は、増大した符号化効率を有するハイブリッド映像符号化のコンセプトを提供することを目的とする。
対象は、請求項1に係るデコーダ、請求項17に係るエンコーダ、請求項18または19に係る方法、および請求項20に係るハイブリッド映像コーダビットストリームによって達成される。
本発明の基礎をなす根本概念は、ハイブリッド映像符号化において、現在のフレームの残差信号が、前のフレームの参照残差信号を用いて、動き補償予測によって、付加的に予測される場合に、更なる符号化効率の増大を達成することができることである。言い換えれば、最終的な残差信号、すなわち最後に送信されたもののエネルギーを更に低減し、したがって符号化効率を増大するために、前に符号化されたフレームの復元残差信号を用いて、動き補償予測によって、付加的に残差信号を予測することが提案される。
本発明の有利な実施態様は、付属する従属クレームの対象である。
本願の好ましい実施形態は、以下の図面に関して、引き続いて更に詳細に記載される。
本発明の一実施形態に係るハイブリッド映像エンコーダのブロック図を示す。 本発明の一実施形態に係るハイブリッド映像デコーダのブロック図を示す。 本発明の一実施形態に係る映像の部分の図解図を示す。 本発明の一実施形態に係るハイブリッド映像エンコーダ/デコーダの映像信号復元部のブロック図を示す。 本発明の一実施形態に係るハイブリッド映像エンコーダ/デコーダの映像信号復元部のブロック図を示す。 本発明の一実施形態に係るハイブリッド映像デコーダのパラメータ復元部のブロック図を示す。
図1は、本発明の一実施形態に係るエンコーダ10を示す。エンコーダは、映像12の前の符号化部分を用いて、映像12の現在の符号化フレームを予測することによって、そして、予測誤差を表す残差信号をビットストリーム14に直接符号化する代わりに、前の符号化フレームの参照残差信号を用いて、動き補償予測によって、現在の符号化フレームの残差信号を予測することによって、映像12をビットストリーム14に符号化するように構成された、ハイブリッド映像エンコーダである。
図1は、ハイブリッド映像エンコーダ10は、内部的にどのように解釈することができるかについて例示する。図に示すように、ハイブリッド映像エンコーダ10は、映像を受信する入力12と前述のビットストリームを出力する出力14の間に順次接続される、第1の減算器16、第2の減算器18、変換器20およびビットストリーム発生器22を備えることができる。特に、減算器16と18は、それぞれ入力12と減算器16の出力に接続される非反転入力を有し、変換器20は、減算器18の出力と、次に出力14に接続される出力を有するビットストリーム発生器22の第1の入力の間に接続される。ハイブリッド映像エンコーダ10は、変換器20の出力に順次接続される、逆変換器24、第1の加算器26および第2の加算器28を更に備える。
ハイブリッド映像エンコーダ10は、第1の入力が加算器26の出力に接続されている加算器28の、出力と第2の入力の間に接続される第1の予測器30を備える。同様に、ハイブリッド映像エンコーダ10は、第1の入力が逆変換器24の出力に接続されている加算器26の、出力と第2の入力の間に接続される、第2の予測器32を備える。あるいは、図1において破線を用いて示されるように、予測器32は、代替として、加算器26の第1の入力と第2の入力の間に接続することができる。予測器30の出力は、加算器28の第2の入力に接続されるだけでなく、減算器16の反転入力にも接続される。同様に、予測器32の出力は、加算器26の第2の入力に接続されるだけでなく、減算器18の減算入力にも接続される。両方の予測器30と32は、ビットストリーム発生器22の2つの更なる入力に接続される更なる出力、パラメータ出力を有する。
それぞれのハイブリッド映像デコーダの内部構成の実施例について述べ、それに引き続いて、ハイブリッド映像エンコーダとデコーダの動作モードについて共通に詳細に述べる前に、図1のハイブリッド映像エンコーダ10の動作を、ここで簡単に述べる。既に述べたように、ハイブリッド映像エンコーダ10は、映像12のフレームを直接予測するだけでなく、それぞれのフレームの残差信号をも予測する。したがって、予測器30は、予測の結果によって、すなわち減算器16の反転入力に適用される前の予測信号によって、映像12のフレームを予測する。予測器32は、次に予測信号34とそれぞれのフレームの差を表す減算器16の出力によって取得される残差信号36を予測する。予測器32の予測の結果は、従って残差予測信号38と呼ぶことができ、減算の結果が変換器20における変換符号化の対象となる最終残差信号40を表している減算器18の反転入力に適用される。すなわち、図1の実施形態に係る変換器20は、それぞれの量子化された変換係数42を取得するために、DCT等のような変換と、最終残差信号40の引き続く量子化を実行することができる。しかしながら、変換器20の存在は、単に説明の目的で示されたものであり、その存在は本発明に対して決定的でない。実質的に、それは欠落しても良い。
逆変換器24は、変換器20の出力に基づいて最終残差信号を復元し、変換器20の量子化による情報損失を除いて最終残差信号40に対応する復元最終残差信号44を取得する。最終残差信号44と残差予測信号38の加算は、残差信号46に結果としてなり、加算器28による残差信号46と予測信号34の加算は、現在の復号化フレームまたは復元フレーム48に結果としてなる。それぞれの入ってくる信号に基づいて、予測器30と32は、既に上述したような予測を実行する。予測器30は、例えば、イントラ予測モードと動き補償予測モードの間で切換えることができる。切換の細かさは、以下により詳細に述べられるように、マクロブロックまたは他ブロックのような映像12のフレームのサンプルのセットとすることができる。予測器30が予測信号34を取得する方法を記述する予測パラメータ50は、例えば、そのサイド情報の範囲内で、ビットストリーム14に挿入するために、予測器30によってビットストリーム発生器22に順送りされる。予測器32は、残差予測信号38を取得するために動き補償予測を用い、予測器32が動き補償予測によって残差予測信号38を取得する方法を記述する残差予測動きパラメータ52を、例えば、そのサイド情報の範囲内でのビットストリーム14への挿入のために、ビットストリーム発生器22に転送する。
図2は、本発明の一実施形態に係るハイブリッド映像デコーダ110を示す。ハイブリッド映像デコーダ110は、入力112に入るビットストリームと出力114に出力される復元映像によって、ビットストリームから映像信号を復元するように構成される。特に、ハイブリッド映像デコーダ110は、ハイブリッド映像エンコーダにおいて実行される予測をエミュレートするように構成される。すなわち、ハイブリッド映像デコーダ110は、映像のフレームを予測し、また、前の復号化フレームの参照残差信号を用いて、動き補償予測によって、第1の予測の予測誤差に関係する残差信号を予測する。
ハイブリッド映像デコーダ110は、図2に示すように内部的に構成することができる。図2に示すように、ハイブリッド映像デコーダ110は、入力112と出力114の間に順次接続される、ビットストリーム抽出器116、逆変換器118、第1の加算器120および第2の加算器122を備えることができる。更に、ハイブリッド映像デコーダ110は、第1の予測器124と第2の予測器126を備える。第1の予測器124は、次に出力114にも接続される加算器122の出力と、加算器120の出力に接続される第1の入力を有する加算器122の第2の入力との間に接続される。第2の予測器126は、次に、加算器120の出力、または加算器120の第1の入力が接続される逆変換器118の出力に接続される入力を有する。更に、予測器126は、加算器120の第2の入力に接続される出力を有する。予測器126と124のパラメータ入力は、ビットストリーム抽出器116のそれぞれの更なる入力に接続される。
図2のハイブリッド映像デコーダ110の機能を簡単に記載すると、ビットストリーム抽出器116は、エンコーダ側でビットストリーム発生器22に入るビットストリーム112から情報を抽出するように構成される。ビットストリーム抽出器116とビットストリーム発生器122は両方とも、算数符号化または可変長符号化のようなエントロピー符号化を用いることによって、抽出生成を実行するように構成することができる。好ましくは、ビットストリーム発生器22とビットストリーム抽出器116によって用いられる圧縮スキームは、無損失である。したがって、ビットストリーム抽出器116は、ビットストリームが入る入力112から、図1の係数42に対応する量子化された変換係数126、図1のパラメータ52に対応する残差予測動きパラメータ128、および図1のパラメータ50に対応する予測パラメータ130を抽出する。
図2の要素118−126の構成と動作モードは、図1の要素24-32の構成と動作モードに対応する。これらの要素は、それぞれ、エンコーダとデコーダの映像信号復元部を形成する。すなわち、逆変換器118は、図1の信号44に対応する信号132によって、係数126から最終残差信号132を回復する。現在の復号化フレームに対する最終残差信号132と、予測器126によって取得されたような現在の復号化フレームの残差予測信号134の加算は、現在の復号化フレームの残差信号に結果としてなる。残差信号136と、予測器124によって取得されたような予測信号138の加算は、現在の復号化フレーム140の復元に結果としてなる。予測器124は、パラメータ130を用いることによって、予測器124に入る映像の前に復号化された/復元された部分を用いて、現在の復号化フレームを予測する予測信号138を決定するように構成される。予測器126は、図2の点線で示すように、前の復号化フレームの参照残差信号、すなわち前の復号化フレームの残差信号136または前の復号化フレームの最終残差信号132に基づいて、現在の復号化フレームに対する動きパラメータ128を用いて、動き補償予測によって、残差予測信号134を決定する。
ハイブリッド映像エンコーダとハイブリッド映像デコーダの実施形態をむしろ一般的に記載した後、本発明の実施形態において実施することができるハイブリッド映像符号化の一般的なコンセプトが以下に記載される。特に、第1に、これらの詳細は、映像のフレームの直接予測、すなわち、予測誤差が予測の対象ともなる残差信号によって表され、次に、予測誤差がビットストリーム内で送信された最終予測信号によって表される、予測を取り扱う。
上記のエンコーダとデコーダによって用いられるようなハイブリッド映像符号化において、映像フレームの色成分は、前のフレームの復元色成分を用いた動き補償予測、または、同じフレームの前の復元マクロブロックを用いたイントラ予測のいずれかによって予測することができる。この予測は、予測器124と30内でそれぞれ実行することができる。残差信号、すなわち、オリジナルの色成分と、対応する予測信号の差は、図1と2の場合において、それぞれ予測器32と126において実行される更なる予測の対象となる。この最終残差信号は、変換符号化(結果として生じる量子化シンボルのエントロピー符号化によって可能となる、変換係数の非相関化変換・量子化の組合せ)を用いて符号化することができる。図1と2の場合、変換は、それぞれ、変換器20と逆変換器118によって実行され、エントロピー符号化は、それぞれ、ビットストリーム発生器22とビットストリーム抽出器116によって実行される。中間の残差信号において結果として生ずる第1の予測が関係する限り、動き補償予測は、映像フレームのいくつかのサブ領域に対してなすことができる。通常、サブ領域は、矩形ブロックのサンプルである。しかし、サンプルの任意のセットに対して、同じ動きパラメータを使用することも概念的に可能である。動きパラメータ(例えば、50と130の一部)は、ビットストリームに含まれ、デコーダに送信される。任意の動きモデルを用いることが可能である。例えば、動きは、並進運動モデルを用いてモデル化することができ、それから、変位を指定する動きベクトル(2個のパラメータ)が各領域に対して送信される。他の一般的な動きモデルは、アフィン動きモデル(6個のパラメータ)、3、4および8個のパラメータモデルが含まれる。動きパラメータは、任意の精度で送信することができる。例えば、並進運動モデルに対して、動きベクトルは、フルサンプル精度またはサブサンプル精度(例えば4分の1のサンプル精度)を用いて符号化することができる。前者の場合、予測サンプルは、復元フレームから(例えば、48と140から)直接コピーすることができる。サブサンプル精度の動きベクトル(あるいは一般的な動きパラメータ)の場合、予測サンプル(例えば、34と138を参照)は、参照フレームにおける復元サンプルを用いて(例えば、48と140から)補間される。可能な補間方法は、FIRフィルタリングまたはスプライン補間技術を含む。フィルタリングは、予測器30と124内で、または、加算器28と122のそれぞれと予測器30と124のそれぞれの各入力の間のいくつかの付加的な構成要素内で、実行することができる。前に送信されたフレームのいずれかを動き補償に対して用いることができる。参照フレームがハイレベルパラメータによって固定されない場合、参照インデックス(それは、例えば、それぞれ50と130の一部とすることができる)は、用いられた参照フレームを識別するために送信することができる。予測信号(例えば、図1と2におけるそれぞれ34と138)を取得するために、重み係数とオフセット(しばしば重み付き予測と称される)またはその他の重み付け関数を用いて予測信号を修正することも可能である。さらにまた、予測信号(34と138のような)を取得するために、いくつかの予測信号を結合することができる。これは「多重仮定予測」と称される。結合された予測信号は、例えば、異なる予測信号の加重和によって取得することができる。個々の予測信号は、異なる参照フレームまたは同じ参照フレームから生じることができる。2つの予測信号が結合される場合、多重仮定予測は、二重予測と称することができる。しかしながら、2つ以上の仮定を用いることも可能である。量子化された変換係数(例えば、図1と2における42と126を参照)のエントロピー符号化は、例えば、可変長符号化、または(適応)算術符号化(例えば、22と116における)によってなすことができる。
ちょうど提示された記述の詳細は、ベース予測、すなわちフレーム自身の予測に集中された。しかしながら、本発明の実施形態は、ここで止まらない。むしろ、このベース予測の残差信号は、いずれかの前に符号化/復号化されたフレームの参照残差信号を用いて動き補償予測によって実行される更なる予測の対象である。以下に、この付加的な予測に関する詳細が示される。
本発明の実施形態の以下の詳細に従って、ハイブリッド映像符号化における残差信号(例えば、36と136を参照)のエネルギーは、更に低減される。エネルギーの低減は、前の符号化フレーム(例えば、それぞれ入ってくるブロック32と126)の復元残差サンプルを用いて、現在のフレームの残差信号(すなわち、オリジナルの信号と、動き補償予測信号またはイントラ予測信号の差)を付加的に予測する(例えば、32と126を参照)ことによって達成することができる。この付加的な予測は、残留する残差信号(例えば、図1の40)のエネルギーを有意に低減することができる。それ故、結果として生じる残差信号(すなわち、例えば、量子化された変換係数)は、同じ復元品質に対して、より少ないビットで表すことができる。しかしながら、デコーダを、残差信号の動き補償予測をエミュレートする位置に持ってくるために、残差予測に対する動きパラメータは、サイド情報として付加的に送信される。付加的に送信される動きパラメータに対するレートが、結果として生じる残差信号に対するレート節減よりも小さい場合にのみ、符号化効率は改善される。付加的な残差予測が符号化効率を減少させないことを保証するために、それは画像領域に基づいて最適に選択され、その使用はデコーダにシグナルされる。エンコーダは、付加的な動き補償残差予測による符号化とよらない符号化であって、レート歪み判定基準に基づいてより良好なものが選択される符号化をテストすることができる。レート歪み判定基準として、一般的に用いられるラグランジアンコスト関数D+λRを用いることができる(ここで、DとRは、それぞれ、テストされる画像領域に対して結果として生じる歪みと全体のレートを表す)。λは、目標レートに関係するラグランジアン乗数を表す。
図1と2の実施形態のような本願の実施形態の考えられる実施態様に対して特定の詳細を記載するとき、ハイブリッド映像デコーダは、時には、図2に示されない復号化画像バッファを備えるまたは少なくとも復号化画像バッファにアクセスすることが仮定される。特定の構成において、復元残差信号(例えば、エントロピー予測32と126)のフレームが復号化画像バッファに挿入される、または、付加的な復号化画像バッファが復元残差信号に対して作動される。
Figure 2013510482
残差予測と参照残差は、例えば、動き補償予測またはイントラ予測を用いた従来のハイブリッド符号化解法に対して、本実施形態に従って加えられたものである。時には、ハイブリッド映像デコーダとハイブリッド映像エンコーダのそれぞれに対する考えられる特定の実施態様の例は、パラメータ52と50および128と130のそれぞれが、ユーザ予測と残差予測を定義する細かさが、映像フレームのユニットより小さいブロックにおいて、それぞれビットストリーム14と112内で変動すると仮定する。しかしながら、予測器30と予測器32さらには変換器20は、フレームより小さい単位において、すなわち、一般にフレームの矩形ブロック(他のいかなる形状もまた可能なであるが)のような画像のセットである領域による現在のフレームの領域を単位として動作することができる。領域は、単連結であってもよい。
これを説明するために、図3が参照される。図3は、3つの連続するフレーム200a、200b、および200cを示す。フレーム200a〜200cの中のシーケンスは、映像内のそれらの連続する時間構成によって、すなわちそれらの提示時間によって決定することができる。映像フレームの中の符号化/復号化の順序は、これらのフレームの獲得/提示時間の順序と符合することができるが、これは必ずしもそうではない。いずれにせよ、エンコーダおよびデコーダは、フレームの中で共通の復号化順序を用いる。図3に示すように、各フレームは、点線によって示されるような領域202に細区分することができる。フレームの全ての領域202は、全体のフレームを横にカバーする。フレームの細区分は、図3に示されるように領域202がお互いにオーバーラップしないようにすることができる。しかしながら、別の実施形態によれば、領域202はお互いにオーバーラップすることができる。領域202への細区分は、フレーム200aの、同一サイズの領域202の規則的な配列への規則的な細区分に対応することができる。あるいは、多重ツリー細区分を、各フレームを細区分するために用いることができる、または前記の規則的な配列の同一サイズの領域のそれぞれ、すなわちサブセットを更に細区分するために用いることができる。後者の可能性は、フレーム200aの左上ブロックに見られるように、図3に例示される。ハイブリッド映像エンコーダとデコーダは、あるとすれば、通常の予測、残差予測および/または最終残差信号の符号化に対して、異なる細区分を用いることができる。図1と2に係る例示した構成の場合には、予測器30、32と変換器20および予測器124、126と逆変換器118は、お互いに関係する同じ細区分または異なる細区分を用いることができる。この点に関する一層の詳細は、以下に提示される。いずれにせよ、通常の予測、残差予測および最終残差信号の符号化/復号化に対して用いられるちょうど言及された細区分のいずれもが、フレームからフレームまたはGOPからGOP(GOP:画像のグループ)のように、時間を通じて変化することができる。変化は、ビットストリーム内で、サイド情報としてシグナルすることができる。以下において、復元される現在のフレームの領域は、現在のフレームFにおける全てのピクセルのサブセットであるピクセルRのセットである。
Figure 2013510482
上記説明を簡潔に要約すると、本願の実施形態に係るハイブリッド映像デコーダは、例えば、図3のフレーム200bのような前の復号化フレームの参照残差信号45と127を用いて、動き補償予測によって、図3のフレーム200aのような現在の復号化フレームの残差信号36と136を付加的に予測するように構成することができる。この目的で、ハイブリッド映像デコーダは、例えば、前述のフレーム200bのような前の復号化映像部分、および/またはフレーム200cのようないくつかの他のフレームから、現在の復号化フレーム200aを予測し、予測信号136が予測誤差に関係する現在の復号化フレーム200aの予測信号138を取得し、現在の復号化フレーム200aの最終残差信号132をエントロピー復号化し、a)現在の復号化フレーム200aの予測信号138と、b)現在の復号化フレーム200aの残差信号136を予測する際に、ハイブリッド映像デコーダによって取得される、現在の復号化フレーム200aの残差予測信号134と、c)現在の復号化フレーム200aの最終残差信号132とを合成することによって、現在の復号化フレーム200aを復元することができる。
ハイブリッド映像デコーダとエンコーダのこの構成は、ハイブリッド映像デコーダとエンコーダが、前述の領域またはサンプルのセット202を単位として残差予測を実行するように構成される場合、以下の方法で拡張することができる。
動き補償残差予測を現在のフレームにおける任意のサンプルのセットに適用することができる。動き補償残差予測が適用されるサンプルのセットは、通常の動き補償予測またはイントラ予測が用いられるサンプルのセットに従属してもよく、または従属しなくてもよい。特に、以下の組合せが可能である。
● 動き補償残差予測が(ユニークな予測パラメータによって)適用されるサンプルのセットが、通常の動き補償予測またはイントラ予測が(ユニークな予測パラメータによって)適用されるサンプルのセットに等しい。例えば、図3を参照されたい。まさに言及された変形例によれば、ハイブリッド映像デコーダとハイブリッド映像エンコーダは、それぞれ、通常の予測と残差予測を実行し、それぞれの予測と動きパラメータをセットし送信するために、同じ細かさあるいはフレームの細区分を用いる。言い換えると、予測器126と32は、予測器124と30と同じ細かさあるいは細区分を用いることができる。その場合、動き補償残差予測が適用されるかどうかをシグナルする1つ以上の構文要素が、通常の動き補償予測が適用されるサンプルの各セットに対しておよび/またはイントラ予測が適用されるサンプルの各セットに対して送信される。すなわち、エンコーダ10は、イントラ予測モードまたは動き補償予測モードを各領域202に関連付けるように構成することができ、各領域202に対して、予測器32と126は、ビットストリーム14において反映された1つ以上のそれぞれの構文要素によって、動き補償残差予測が適用されるか否かを判定することができる。YESの場合は、それぞれの残差予測動きパラメータ52と128は、ビットストリーム内に埋め込まれる。動き補償残差予測が適用されるかどうかのシグナリングは、動きパラメータと結合することもできる。より正確に言うと、動き補償残差予測が適用されるかどうかのシグナリングは、それぞれ残差予測動きパラメータ52と128内に本質的に含めることができる。このような構成において、残差予測(それぞれ予測器32と126における)に対して用いられる復元残差サンプルを、前述の復号化画像バッファに挿入し、参照フレームインデックスを介して、動き補償残差予測が用いられたかどうかを示すことができる(すなわち、付加的な構文要素は送信されず、動き補償予測に対して参照画像として復元残差画像を指定するために、参照フレームインデックスが再利用される)。復号化画像バッファにおいて、フレームインデックスを用いて、オプションの付加的な残差予測を特に以下のように制御することができる。ハイブリッド映像デコーダ110は、復号化画像バッファ内で復元フレームの異なる時間、すなわち、信号140から生じる復元フレーム、および、最終残差信号132または最終残差信号132と残差予測134との合計から生じる復元参照残差フレームを管理するように構成することができる。ビットストリーム14が、ビットストリーム内に、参照残差フレームを表す復号化画像バッファ内のフレームを示す参照フレームインデックスに関係する残差予測動きパラメータを含む場合、そのとき、関連する残差予測動きパラメータの、この参照残差フレーム(52と128を参照)への適用は、残差予測信号に結果としてなる。他のケースでは、すなわち、参照フレームインデックスが、復元フレームを表す復号化画像バッファ内のフレームを示す場合、そのとき、関連する動きパラメータ(50と130を参照)の適用は、通常の予測に結果としてなる。それは、直接的には、図2における加算器120と122および予測器126と124の分離した構成と供給は、単に考えられる実施可能性を表したものであるが、分離した構成と供給は、ハイブリッド映像デコーダ内でのそれぞれのハードウェア、ファームウェアまたはソフトウェアコンポーネントの重複に終わらないようにする説明の意図と必要性に役立つ。むしろ、それぞれの動きパラメータと加算を用いることによる復号化画像バッファ内のそれぞれのフレームに基づく復元を得るための以下に述べる動きモデリングと補間、および加算は、通常の予測と残差予測によって、参照フレームインデックスと、復号化画像バッファ内のフレームの管理によって実際に実施され、操作されるまたは制御される予測のソートと共に用いることができる。更に、2つの分離した復号化画像バッファが存在し、参照残差予測フレームと、関連する参照復号化/復元フレームがそれぞれのバッファにおいて同じインデックスにアサインされることが可能である。その場合、同じ参照フレームインデックスに関係し、サンプルの同じセットに関係する動きパラメータの第2の送信は、第1の動きパラメータセットが通常の予測に対するものであるのに対して、第2の動きパラメータセットが、例えば、残差予測に対するものであるように、デコーダによって解釈することができる。更に、動きパラメータの各セットに対して、これらの動きパラメータが通常の動き補償予測に対して用いられるかまたは動き補償残差予測に対して用いられるかを特定する構文要素を送信することが可能である。第1のケースでは、動きパラメータはパラメータ50内にあり、第2のケースでは、動きパラメータはパラメータ52内にある。
● 動き補償残差予測が(ユニークな予測パラメータによって)適用されるサンプルのセットが、通常の動き補償予測またはイントラ予測が(ユニークな予測パラメータによって)適用されるサンプルのセットのサブセットである。例えば、図3を参照されたい。例えば、図3において、フレーム200aの領域202への細区分が、それぞれ予測器30と124によって実行される通常の予測の基礎をなす(第1段の)細区分であった場合、予測器32と126が残差予測を実行する細かさは、この第1段の細区分の第2段の細区分とすることができる。すなわち、予測器32と126が残差予測を実行する領域は、予測器30と124が通常の予測を実行する領域と同じまたは適当なサブセットとすることができる。その場合、サブセットへの分割と、結果として生じる各サブセットに対して動き補償残差予測が適用されるかどうかをシグナルする1つ以上の構文要素は、通常の動き補償予測が適用されたサンプルの各セットに対して、および/または、イントラ予測が適用されたサンプルの各セットに対して送信することができる。特定の構成において、サンプルのセットおよびサブセットは、画像の矩形領域である。
● 動き補償残差予測が(ユニークな予測パラメータによって)適用されるサンプルのセットが、通常の動き補償予測またはイントラ予測が(ユニークな予測パラメータによって)適用されるサンプルのセットと独立している。例えば、通常の予測(30と124を参照)が実行される細区分あるいは細かさを、固定することができ、またはビットストリーム内でシグナルすることができ、残差予測(32と126を参照)が実行される細区分を、−予測器126によるような−復号化側で、同じ現在の復号化フレームにおいて通常の予測(予測器124のような)に対して用いられる細区分から完全に独立していると解釈される構文要素を用いることによって、ビットストリーム内でシグナルすることができる。その場合、動き補償残差予測が適用されるサンプルのセットをシグナルする1つ以上の構文要素が送信される。例えば、フレームあるいはいずれかの予め定められた画像領域のサブセットへの分割をシグナルし、これらのサブセットの各々に対して動き補償残差予測が適用されるかどうかをシグナルすることによって、この情報をシグナルすることができる。特定の構成において、サンプルのセットあるいはサブセットは、画像の矩形領域である。
すなわち、上記3つの変形例を要約すると、ハイブリッド映像デコーダは、現在の復号化フレームに対する1つ以上の構文要素を復号化し、現在の復号化フレームのサンプルの第1のセットの残差信号136の予測を、図3におけるフレーム200aの領域202のサブセットのような、1つ以上の構文要素によって定義される予め定められたセットを有する現在の復号化フレームのサンプルの第1のセットの予め定められたセットに適用するように構成することができる。ハイブリッド映像デコーダは、付加的に通常の予測を考慮して、フレーム200aのような、残差信号136が予測誤差に関係する現在の復号化フレームの予測信号138に結果としてなる現在の復号化フレームの予測、すなわち通常の予測を、現在の復号化フレーム200aのサンプルの第2のセット(を単位とする現在の復号化フレーム200a)、すなわち例えば図3に示されないフレーム200aの他の細区分の領域に適用するように構成することができ、ハイブリッド映像デコーダは、サンプルの第2のセットの各々に対して1つ以上の構文要素を復号化し、サンプルの第2のセットの各々に対して1つ以上の構文要素を用い、サンプルの第2のセットから(この場合、通常の予測と残差予測に対する細区分あるいは細かさは同じである)、またはサンプルの第2のセットサブセットから(この場合、残差予測の細区分は通常の予測に対する細区分に関する第2段の細区分を表す)、サンプルの第1のセットの予め定められたセットを識別する。更に、ハイブリッド映像デコーダは、現在の復号化フレーム200aに対する1つ以上の構文要素を復号化し、現在の復号化フレーム200aの残差信号136の予測を、1つ以上の構文要素によって定義される領域202の中の予め定められたセットを有する、図3の領域202のような現在の復号化フレームのサンプルの第1のセットの予め定められたセットに適用し、現在の復号化フレーム200aの予測信号138を部分的に形成する現在の復号化フレーム200aのイントラ予測を、現在の復号化フレーム200aのサンプルの第2のセットの予め定められた第1のセットに適用し、予測信号を部分的に形成する現在の復号化フレーム200aの動き補償予測を、サンプルの第2のセットの予め定められた第2のセットに適用し、サンプルの第1のセットがサンプルの第2のセットの第1および第2のセットから独立しているように構成することができる。言い換えれば、上記確認された第3の変形例において言及されたように、サンプルの第1のセットへの細区分を定義する1つ以上の構文要素は、ビットストリーム内で送信することができ、残差予測に用いられるサンプルのこれらの第1のセットへの細区分が、現在の復号化フレームの、サンプルの第2のセットへの細区分から独立して、通常の予測と、動き補償の通常の予測またはイントラ予測が用いられるかどうかについての判定が実行される細かさで、現在の復号化フレームを細区分するように、ハイブリッド映像デコーダによって用いることができる。
動き補償残差予測をどのように実行するかの考えられる変形例に関する詳細が以下に記載される。
通常の動き補償予測と同様に、動き補償残差予測に対して、多重の参照画像、多重仮定予測、重み付き予測および多重の動きモデルを用いることができる。
<多重の参照画像>
多重の参照画像のコンセプトは、動き補償残差予測に対して多重の復元残差フレームが利用可能であることを指定する。復元残差フレームは、復号化画像バッファに挿入することができる、または付加的な復号化画像バッファが復元残差画像に対して作動される。動き補償残差に対して復元残差フレームが用いられることの表示は、ビットストリームにおいてシグナルすることができる。特定の構成において、この表示は、復号化プロセスによって推定することができる。他の構成において、この表示は、フレーム、またはスライス、またはサンプルのセットに対してシグナルされる。後者の場合、サンプルのセットは、動き補償残差予測が(ユニークなパラメータによって)適用されるサンプルのセットとすることができる、または動き補償残差予測が適用されるサンプルのセットの上位セットとすることができる。この表示は、復元残差フレームのリストまたは復元残差フレームと復元フレームの両方のリストにおける位置を指定する参照フレームインデックスとすることができる。
0,t(h),h=0…H
(2)
すなわち、復号化画像バッファの、または残差予測と通常の予測に対して用いられる分離した復号化画像バッファの場合における復号化画像バッファの現在の状態は、現在の復号化フレーム、すなわちt0に対するインデックスによって決定することができ、個々の仮定H(ここで、Hは、仮定の数を示す)に対するこの復号化画像バッファ内の特定のフレームのインデックス化は、インデックスリストt(.)を介して実行することができる。
復元残差フレームのリストのまたは復元残差フレームおよび復元フレームのリストは、復号化画像バッファの状態または復元画像に対する復号化画像バッファの状態、および復元残差フレームに対する復号化画像バッファの状態、そして、潜在的に、他のハイレベルの(例えば、スライスヘッダ)構文要素に基づいて導き出される。
上記を要約すると、ハイブリッド映像デコーダは、ビットストリームから、現在の復号化フレームの残差信号が予測される参照残差信号を用いて、前の復号化フレームをインデックスする残差参照フレームインデックスを抽出するように構成することができる。
特定の構成において、参照フレームインデックスは、シグナルされず、通常の動き補償予測に対して用いられるフレームに対する復元残差信号を表現するためにデコーダにおいて推定される。すなわち、ハイブリッド映像デコーダは、現在の復号化フレームの残差信号が予測される参照残差信号を用いて、前の復号化フレームをインデックスする残差参照フレームインデックスを推定し、現在の復号化フレームの予測信号を決定する基礎となる更に前の復号化フレームを表現するように構成することができる。
<多重仮定予測と重み付き予測>
1つ以上の動き補償残差予測信号は、最終動き補償残差予測を形成するために結合することができる。動き補償残差予測信号は、「仮定」とも称される。以下のコンセプトが、特に最終動き補償予測信号を形成するために考慮される。
● 最終動き補償残差予測信号が、仮定の加重和によって形成される。各仮定に対して、重み係数がシグナルされる(スライスベースまたはサンプルのセットに基づいて)。特定の構成において、各仮定に対して1つのオフセットまたは唯一のオフセットのいずれかの、付加的なオフセットをシグナルすることもできる。
● 仮定に対する残差予測信号の各サンプルが、サンプルに依存する値によって重み付けられる。サンプルのセットが矩形画像領域を表す場合、これは重み付けマトリクスとみなすことができる。用いられた重み値(矩形画像領域に対する重み付けマトリクス)は、ビットストリームにおいて表示を介してシグナルすることができる。例えば、重み値の予め定められたセット(矩形画像領域に対する重み付けマトリクス)をエンコーダとデコーダの両方に記憶し、いずれのセットが選択されたかの表示を送信することが可能である。重み値の付加的なセットは、ビットストリームの中で送信することもできる。重み付き仮定は、最終動き補償残差予測信号を形成するまで合計される。特定の構成において、各仮定に対して1つのオフセットまたは唯一のオフセットのいずれかの付加的なオフセットをシグナルすることもできる。
● 動き補償残差予測に対して、単一の仮定のみが用いられるときに、仮定の残差予測信号を修正する上記方法を用いることもできる。
● 仮定を最初に合計することもできる。そのとき、結果として生じる仮定は、重み係数または重み値のセットによってスケーリングすることができる。特定の構成において、付加的なオフセットを用いることもできる。
残差予測信号に対する重み係数は、ゲインとも称される。そして、重み値のセット(矩形画像領域に対する重み付けマトリクス)は、ゲインのセット(矩形画像領域に対するゲインマトリクス)とも称される。
<空間変位パラメータ>
使用された動きモデルに依存して、空間変位パラメータは、動き補償残差予測が(ユニークな動きパラメータによって)適用されるサンプルのセットに対して異なることができる。空間変位は、送信された動きパラメータと使用された動きモデルのセットに基づいて導き出すことができる。空間変位(u、v)は、x方向とy方向に対する2つの値であり、それらの導出は次のように一般化することができる。
Figure 2013510482
特に、以下の動きモデルが考慮される。
● 並進運動モデル
動きパラメータ(u=a0、v=b0)は、動き補償残差予測が適用されるサンプルの各セットに対する並進運動ベクトルに対応する。
● アフィン運動モデル
アフィン動きパラメータを表す6つの動きパラメータが、動き補償残差予測が適用されるサンプルのセットに対する変位ベクトルを指定するためにシグナルされる。
● 一般線形運動モデル
N個の動きパラメータが、動き補償残差予測が適用されるサンプルのセットに対する変位ベクトルを指定するためにシグナルされる。動き補償残差予測が適用されるサンプルのセットに対する変位ベクトルは、上記指定された式を用いて決定される。
サンプルの異なるセットと、サンプルのセットに対する異なる仮定は、異なる動きモデルを用いる可能性がある。特に、以下の構成が考慮される。
● スライスにおいて、サンプルの全てのセットに対して同じ動きモデルが用いられる。動きモデルのシグナリングは必要でない(おそらくスライスレベルを除いて)。選択されたモデル対する動きパラメータのみが、動き補償残差予測が適用されるサンプルの各セットの各仮定に対して送信される。
● サンプルの異なるセットに対して異なる動きモデルが用いられるが、動き補償残差予測が適用されるサンプルのセットに対する全ての仮定に対して同じ動きモデルが用いられる。動きモデルは、動き補償残差予測が適用されるサンプルの各セットに対してシグナルされる。
● サンプルの異なるセットに対して異なる動きモデルが用いられ、動き補償残差予測が適用されるサンプルのセットに対する全ての仮定に対して異なる動きモデルが用いられる。動きモデルは、動き補償残差予測が適用されるサンプルのセットの各仮定に対してシグナルされる。
動きパラメータは、さまざまな精度で送信することができる。動きパラメータの精度は、固定することができる、または、スライスレベルまたはスライスのサブセットのレベルでシグナルすることができる。特に、並進運動モデルが用いられるとき、動きベクトルは、フルサンプル精度またはサブサンプル精度(例えば4分の1のサンプル精度)で送信することができる。並進運動モデルがフルサンプル精度の動きベクトルで用いられる場合、残差予測信号は、参照残差フレームのサンプルを複製することによって取得することができる。他の大部分のケースにおいて、参照復元残差信号は補間されなければならない。補間方法として、FIRフィルタ(サブサンプル位置に依存する)または一般化された補間(例えばBスプライン補間)を用いることができる。
特定の構成において、1つ以上の動きパラメータが既に送信された情報を用いて予測され、動きパラメータとその予測との差のみが送信される。動きパラメータ予測に対して、以下のコンセプトを用いることができる。
● 同じフレームの中のサンプル(例えば隣接するブロック)の既に符号化されたセットの動きパラメータ(残差予測に対する)を用いて、動きパラメータが予測される。
● サンプルの同じセットおよび/または同じフレームに対するサンプルの既に送信されたセットの通常の動き補償予測に対する動きパラメータを用いて、動きパラメータが予測される。
● 前の符号化フレームにおけるサンプルの既に符号化されたセットの動きパラメータ(残差予測に対する)を用いて(例えば前のフレームにおける同じ位置に配置されたブロックの動きパラメータによって)、動きパラメータが予測される。
● 前の符号化フレームにおけるサンプルの既に符号化されたセットの通常の動き補償予測に対する動きパラメータを用いて(例えば前のフレームにおける同じ位置に配置されたブロックの動きパラメータによって)、動きパラメータが予測される。
● 上記コンセプトの任意の組合せを用いることによって、または動きパラメータ予測方法を直接シグナルすることによって、動きパラメータが予測される。
いくつかのまさに言及されたオプションを簡単に要約すると、ハイブリッド映像デコーダは、図3の202によって代表的に示される領域のような現在の復号化フレーム200aのサンプルの予め定められたセットに対して、フレーム200aのような現在の復号化フレームの残差信号を予測する際に用いられる残差予測動きパラメータ128を、フレーム200aの領域のようなサンプルの他のセット、隣接する領域202、または現在の復号化フレーム200aのサンプルの同じセットに対して、残差信号136が予測誤差に関係する現在の復号化フレーム200aの予測信号138を決定する際にハイブリッド映像デコーダによって前に用いられた動きパラメータを用いて、または、例えば、代表的な領域202と同じ位置に配置される領域に対して、フレーム220bのような前の復号化フレームの予測信号138を決定する際にハイブリッド映像デコーダによって前に用いられた動きパラメータを用いて、予測するように構成することができる。
特定の構成において、動きパラメータは、直接シグナルされない。その代わりに、潜在的な動きパラメータのセットがデコーダ側で導き出され、潜在的な動きパラメータのいずれが用いられるかを指定するインデックスのみがシグナルされる。このインデックスは、既に送信されたサンプルのセットの符号化インデックスを用いて、更に予測することができる。
次に、ハイブリッド映像エンコーダまたはハイブリッド映像デコーダによって実行されるような一般の信号復元に対するより詳細な実施形態が、以下により詳細に記載される。信号復元は、上述のように、一般に通常の予測並びに残差予測を含み、従って、以下の記述において、ハイブリッド映像エンコーダおよびハイブリッド映像デコーダが、それぞれ一般にどのように動作することができるか、および、例示的に図1および2においてどのように動作することができるかについて、さまざまな詳細が記載される。
<通常の予測信号>
サンプルのセットは、イントラ予測または動き補償予測のいずれかによって予測される。また、サンプルのセットに対する最終予測信号を形成するために、2つ以上のイントラ予測または動き補償予測を結合することが可能である。動き補償予測を考慮するとき、Hvid仮定までの予測サンプルが、対応する重み係数wvid,hによってスケーリングされ、合計される。
Figure 2013510482
各仮定に対して、現在の領域は、参照フレームにおいて映像の空間変位に従って移送される。仮定に対して予測信号を生成するために、サブサンプル補間を用いることができる。最終予測信号を取得するために、オフセットを加えることも可能である。
<残差予測>
サンプルのセットに対して残差予測が用いられる場合、最終残差予測信号は、仮定に対して予測信号を重み付けし、仮定に対して重み付けされた残差予測信号を合計することによって取得される。
Figure 2013510482
重み付けは、仮定毎の重み係数によって、または仮定毎の重み値のセット、例えばサンプルの矩形セットに対する重み付けマトリクス(上記参照)によってなすことができる。各仮定に対して、現在の領域は、参照残差フレームにおいて、空間変位情報に従って移送される。仮定に対して残差予測信号を生成するために、サブサンプル補間を用いることができる。最終残差予測信号を取得するために、オフセットを加えることも可能である。
Figure 2013510482
以下の構成が考慮される。
● 全ての残差参照フレームが同じ方法で生成される。
● 参照残差フレームが生成される方法がフレームレベルで選択される。
● 両方の考えられる参照残差フレームが復号化画像バッファに挿入され、残差予測に対して参照残差フレームのいずれが用いられるかが(例えば参照フレームインデックスを介して)シグナルされる。
式6と7に関連して記載された変形例を要約すると、ハイブリッド映像デコーダは、フレーム200bのような前の復号化フレームの最終残差信号132をエントロピー復号化し、前の復号化フレーム200bの最終残差信号132によって、前の復号化フレームの参照残差信号127を生成する。言い換えれば、ハイブリッド映像デコーダは、現在の復号化フレーム200aの残差信号136が予測される前の復号化フレームの参照残差信号127として、最終残差信号132を用いることができる。
あるいは、ハイブリッド映像デコーダは、前の復号化フレーム200bの最終残差信号をエントロピー復号化し、前の復号化フレーム200bの残差予測信号134を取得するために、フレーム200cのようなさらに前の復号化フレームの参照残差信号を用いて、動き補償予測によって前の復号化フレーム200bの残差信号136を予測し、前の復号化フレーム200bの最終残差信号132と前の復号化フレームの残差予測信号134の合計によって、前の復号化フレームの参照残差信号127を生成するように構成することができる。
しかしながら、上述のように、ハイブリッド映像デコーダは、フレームベースで、いずれの生成スキームを用いるかを選択するようにさらに構成することができる。さらに代替として、ハイブリッド映像デコーダは、式6と式7に従って、それぞれの候補の参照残差信号をハイブリッド映像デコーダの復号化画像バッファに挿入するために、ビットストリーム内のシグナリングに基づいて、前の復号化フレームの参照残差信号として第1または第2の候補の参照残差信号を用いることによって、両方の生成スキームを実行するように構成することができる。
Figure 2013510482
上記さまざまな実施形態において提示されたような復元の変形例は、図1と2において既に用いられたのと同じ参照符号を用いて、図4aと4bに要約される。図4aと4bは、残差参照フレームと映像参照フレームに対して、分離した復号化フレームバッファ、すなわち、映像予測に対する復号化映像フレームバッファ250と残差予測に対する復号化残差フレームバッファ252が用いられる実施形態である。両方とも、それぞれの予測器124と126の参照信号入力にそれぞれ接続される。しかしながら、既に述べたように、通常の予測フレームと残差予測フレームの両方の記憶に対して、1つの復号化フレームバッフを用いることができる。更に、図4aと4bは、動き補償予測、すなわち通常の予測と残差予測に対して用いられる前に参照フレームの非ブロック化を実行するために、オプションとして、それぞれ、非ブロック化フィルタ254と256をそれぞれのバッファ250と252の前に配置することができることを示す。
したがって、図4aと4bに関して簡単に示したように、ブロックアーチファクトを低減するために、一般に、参照残差フレームおよび/または復元信号の両方を、復号化フレームバッファに挿入される前に、インループで非ブロック化することができる。非ブロック化は、復元映像を表示または記憶の前に、ポストフィルタとして適用することができる。
次に記載されるように、上述の実施形態に関して、オーバーラップ動き補償を用いることができる。特定の構成において、オーバーラップ動き補償を、通常の動き補償予測と動き補償残差予測のいずれかまたは両方に対して用いることができる。
Figure 2013510482
Figure 2013510482
Figure 2013510482
Figure 2013510482
これまで、特定の実施形態による特定の詳細は、残差予測そのものに関連する異なる可能性を主に取り扱った。次に、予測データの復元、すなわち、動き補償残差予測を制御するパラメータを、ハイブリッド映像デコーダがビットストリームから明らかにすることができる方法と、ハイブリッド映像エンコーダがビットストリームに埋め込むことができる方法にフォーカスする。
図5に示すように、映像信号を復元するために必要なパラメータを復元する際に、最高3つのステージ:エントロピー復号化300、非量子化392、および構文要素から予測パラメータへの変換304、を含むことができる。すなわち、次に非量子化モジュール302において非量子化の対象となる量子化された構文要素308に結果としてなるビットストリームのビット306は、エントロピー復号化ステージ300に入る。それから結果としてなる非量子化構文要素310は、参照フレームインデックス、動きパラメータ、分割/細区分情報、重み、他のような、上記識別された構成要素を実際に表すパラメータ312を取得するために、モジュール304において構文要素から予測パラメータへの変換の対象となる。エントロピー復号化300は、ビットストリーム抽出器116によって実行することができる。非量子化302は、ビットストリーム抽出器116によって、または引き続くモジュール118、126および124のいずれか、またはその間にあるいずれかの他の構成要素のいずれかによって実行することができる。同じことは、構文−パラメータ変換モジュール304に関して適用される。
<エントロピー復号化(300)>
ビットストリームは、エントロピー符号化を用いて構文要素に復号化することができる。これは、例えば可変長符号化(VLC)、文脈適応VLC(特定の判定基準に基づくVLCテーブルの切換による)、または文脈適応算術符号化(CABAC)とすることができる。
<文脈決定(300のオプション部分)>
CABAC(および文脈適応VLC)において、可能性導出(およびVLCテーブルの切換)に対する文脈は、既に送信された構文要素および/または復号化パラメータの関数として選択することができる。
残差予測の参照フレーム表示に関係する復号化構文要素に対して用いられる文脈は、残差または映像予測あるいはその両方の空間的隣接するまたは時間的に同じ位置に配置された既に復元された参照フレーム表示を評価することによって選択することができる。映像予測の参照フレーム表示に関係する復号化構文要素に対して用いられる文脈は、残差または映像予測あるいはその両方の、空間的に隣接するまたは時間的に同じ位置に配置された既に復元された参照フレーム表示を評価することによって選択することができる。
残差予測の空間変位に関係する復号化構文要素に対して用いられる文脈(残差予測動きパラメータ)は、空間的に隣接するまたは時間的に同じ位置に配置された既に復元された動きパラメータ、空間変位、または、残差または映像予測あるいはその両方の参照フレーム表示を評価することによって選択することができる。
映像予測の空間変位に関係する復号化構文要素に用いられる文脈(通常の予測動きパラメータ)は、空間的に隣接するまたは時間的に同じ位置に配置された既に復元された動きパラメータ、空間変位、または、残差または映像予測あるいはその両方の参照フレーム表示を評価することによって選択することができる。
残差予測の重み付けパラメータに関係する復号化構文要素に用いられる文脈(参照信号の重み)は、復元残差または動きパラメータまたは参照フレーム表示またはそれらのいずれかの組合せの係数sを評価することによって選択することができる。
<非量子化(302)>
エンコーダにおいて構文要素(例えば、ゲイン)が量子化される場合、それは、デコーダにおいて用いられる前に非量子化(スケーリング)されなければならない。
<構文要素から予測パラメータへの変換(304)>
上述のように、構文要素のビットレートを更に低減するために、構文要素は、パラメータ予測器とパラメータの差として符号化することができる。
Figure 2013510482
Figure 2013510482
Figure 2013510482
Figure 2013510482
次のパラグラフにおいて、このようなパラメータ予測が記載される。
<仮定の数>
残差仮定の数は、映像仮定の数からの差として、およびその逆として符号化することができる。サポートの領域の映像または残差仮定の数を評価することによる予測も可能である。
<残差係数>
映像および残差信号の予測がオリジナルの映像信号の良好な近似である場合、残差係数は符号化される必要はない。空間変位が予測器によって同様に充分フェアに近似される場合、予測が予測誤差なしで用いられることがシグナルされなければならないだけである。これは、ノイズのないバックグラウンド領域のケースとすることができる。
<動きパラメータ>
動きパラメータは、既に復号化された動きパラメータ、または隣接する領域または時間的に同じ位置に配置された領域の空間変位を用いることによって予測することができる(上記説明も参照されたい)。これらの領域は、次にサポートの領域になる。残差動きパラメータは、現在の領域の通常の動きパラメータから、サポートの領域の通常の動きパラメータから、またはその両方、並びにサポートの領域からの残差動きパラメータと組合せて、導き出すことができる。サポートの領域からの通常の動きパラメータと、サポートの領域と現在の領域からの残差動きパラメータを用いて、同じスキームを通常の動きパラメータに適用できる。
<参照フレーム表示>
参照フレーム表示は、同様に空間的および時間的に同じ位置に配置された領域の参照フレーム表示から予測することができる(上記説明も参照されたい)。参照フレーム表示がこれらの領域の大部分において用いられる場合、現在の参照フレーム表示は同じである可能性がある。また、残差参照フレーム表示は、通常の参照フレーム表示を用いて予測することができ、その逆も真である。
<参照信号重み>
参照残差信号に適用される重みwresは、復元残差を解析することによって予測することができる。予測に基づいて、予測誤差の送信をスキップすることができる。このように、重みは、復元残差から導き出される。導き出された重みはスカラーとすることができ、または、それらは重み付けマトリクスに拡張することができる。上記説明も参照されたい。
このように、上記実施形態において、映像フレームの色成分は、動き補償予測またはイントラ予測のいずれかによって予測される。残差信号とも称される、オリジナルの色成分と、対応する予測信号の差は、直接送信されない。むしろ、更に残差信号のエネルギーを低減し、従って符号化効率を増大するために、残差信号が、前の符号化フレームの復元残差信号を用いて、動き補償予測によって付加的に予測される。
装置の文脈においていくつかの態様が記載されたが、これらの態様は、1つのブロックまたはデバイスが方法ステップまたは方法ステップの機能に対応する方法の記述をも表していることは明らかである。同様に、方法ステップの文脈において記載された態様は、対応する装置の対応するブロックまたはアイテムまたは機能の記述をも表している。いくつかのまたは全ての方法ステップは、例えば、マイクロプロセッサ、プログラム可能なコンピュータまたは電子回路のような、ハードウェア装置によって(または用いて)実行することができる。いくつかの実施形態では、1つ以上の最も重要な方法ステップは、このような装置によって実行することができる。
発明の符号化された映像信号は、デジタル記録媒体に記憶することができ、または、無線伝送媒体のような伝送媒体またはインターネットのような有線伝送媒体上を送信することができる。
特定の実施要求に基づいて、本発明の実施形態は、ハードウェアにおいてまたはソフトウェアにおいて実施することができる。実施は、その上に格納される電子的に読み込み可能な制御信号を有し、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協働する(または協働することができる)デジタル記憶媒体、例えばフロッピー(登録商標)ディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリを用いて実行することができる。従って、デジタル記憶媒体はコンピュータ読取可能とすることができる。
本発明に係るいくつかの実施形態は、電子的に読込可能な制御信号を有し、本願明細書に記載された方法の1つが実行されるように、プログラム可能なコンピュータシステムと協働することができる、データキャリアを含む。
一般に、本発明の実施形態は、コンピュータプログラム製品がコンピュータ上で動作するとき、本発明の方法の1つを実行するために動作可能であるプログラムコードを有するコンピュータプログラム製品として実施することができる。プログラムコードは、例えば、機械読取可能なキャリア上に記憶することができる。
他の実施形態は、機械読取可能なキャリア上に記憶され、本願明細書に記載された方法の1つを実行するためのコンピュータプログラムを含む。
言い換えれば、本発明の方法の実施形態は、それ故に、コンピュータプログラムがコンピュータ上で動作するとき、本願明細書に記載された方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
発明の方法の更なる実施形態は、従って、その上に記録されて、本願明細書において記載されている方法の1つを実行するためのコンピュータプログラムを備えているデータキャリア(またはデジタル記録媒体またはコンピュータ読取可能媒体)である。データキャリア、デジタル記憶媒体または記録された媒体は、通常は有形および/または非遷移的である。
本発明の方法の更なる実施形態は、それ故に、本願明細書に記載された方法の1つを実行するためのコンピュータプログラムを表現するデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、データ通信接続、例えばインターネットを介して伝送されるように構成することができる。
更なる実施形態は、本願明細書に記載された方法の1つを実行するように構成され、または適合された処理手段、例えばコンピュータ、またはプログラマブルロジックデバイスを含む。
更なる実施形態は、本願明細書に記載された方法の1つを実行するためのコンピュータプログラムをインストールしたコンピュータを含む。
本発明に係る更なる実施形態は、本願明細書に記載されている方法の1つを実行するためのコンピュータプログラムを受信者に転送する(例えば、電子的にまたは光学的に)ように構成された装置またはシステムを含む。受信者は、例えば、コンピュータ、モバイルデバイス、メモリデバイスまたはその他とすることができる。装置またはシステムは、例えば、コンピュータプログラムを受信者へ転送するためのファイルサーバを備えることができる。
いくつかの実施形態では、プログラマブルロジックデバイス(例えばフィールドプログラマブルゲートアレイ)を、本願明細書に記載された方法の機能の一部または全部を実行するために用いることができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本願明細書に記載された方法の1つを実行するために、マイクロプロセッサと協働することができる。一般に、方法は、好ましくはいかなるハードウェア装置によっても実行される。
上述した実施形態は、単に本発明の原理に対して説明したものである。本願明細書に記載された構成および詳細の修正および変更は、他の当業者にとって明らかであると理解される。本発明は、それ故に、特許クレームのスコープのみによって制限され、本願明細書の実施形態の記述および説明によって提供された特定の詳細によって制限されないことを意図する。

Claims (21)

  1. 前の復号化フレーム(200b)の参照残差信号(127)を用いて、動き補償予測によって、現在の復号化フレーム(200a)の残差信号(136)を付加的に予測するように構成された、ハイブリッド映像デコーダ。
  2. 前の復号化映像部分から前記現在の復号化フレームを予測し、前記残差信号(136)が予測誤差に関係する、前記現在の復号化フレーム(200a)の予測信号(138)を取得し、
    前記現在の復号化フレーム(200a)の最終残差信号(132)をエントロピー復号化し、
    前記現在の復号化フレーム(200a)の前記予測信号(138)と、
    前記現在の復号化フレーム(200a)の前記残差信号(136)を予測する際に、前記ハイブリッド映像デコーダによって取得される、前記現在の復号化フレーム(200a)の残差予測信号(134)と、
    前記現在の復号化フレームの前記最終残差信号(132)と、
    を合成することによって、前記現在の復号化フレーム(200a)を復元する、
    ように更に構成された、請求項1に記載のハイブリッド映像デコーダ。
  3. 前記前の復号化フレームの最終残差信号(132)をエントロピー復号化し、前記前の復号化フレームの前記最終残差信号(132)によって、前記前の復号化フレームの参照残差信号(127)を生成するように構成された、請求項1または2に記載のハイブリッド映像デコーダ。
  4. 前記前の復号化フレームの最終残差信号(132)をエントロピー復号化し、さらに前の復号化フレームの参照残差信号を用いて動き補償予測によって前記前の復号化フレームの残差信号(136)を予測し、前記前の復号化フレームの残差予測信号(134)を取得し、前記前の復号化フレームの前記最終残差信号(132)と前記前の復号化フレームの前記残差予測信号(134)の合計によって、前記前の復号化フレームの前記参照残差信号(127)を生成するように構成された、請求項1または2に記載のハイブリッド映像デコーダ。
  5. 前記前の復号化フレームの最終残差信号をエントロピー復号化してフレームベースで選択し、
    前記前の復号化フレームの前記最終残差信号によって、または、前記前の復号化フレームの前記最終残差信号と、さらに前の復号化フレームの参照残差信号を用いて動き補償予測によって前記前の復号化フレームの残差信号を予測することによって取得された前記前の復号化フレームの残差予測信号との合計によって、前記前の復号化フレームの前記参照残差信号を生成する、
    ように構成された、請求項1または2に記載のハイブリッド映像デコーダ。
  6. 前記前の復号化フレームの最終残差信号をエントロピー復号化し、
    前記前の復号化フレームの前記最終残差信号によって、前記前の復号化フレームの第1の候補の参照残差信号を生成し、前記ハイブリッド映像デコーダの復号化画像バッファに挿入し、
    前記前の復号化フレームの前記最終残差信号と、さらに前の復号化フレームの参照残差信号を用いて動き補償予測によって前記前の復号化フレームの残差信号を予測することによって取得された前記前の復号化フレームの残差予測信号との合計によって、前記前の復号化フレームの第2の候補の参照残差信号を生成し、前記復号化画像バッファに挿入する、ように構成され
    ビットストリーム内のシグナリングに従って、前記第1および第2の候補の参照残差信号を、前記前の復号化フレームの前記参照残差信号として用いる、
    請求項1または2に記載のハイブリッド映像デコーダ。
  7. 残差予測動きパラメータに関する情報をエントロピー復号化し、前記現在の復号化フレームの前記残差信号を予測する際に、前記残差予測動きパラメータを用いるように構成された、請求項1〜6のいずれかに記載のハイブリッド映像デコーダ。
  8. 映像予測動きパラメータ(130)に関する情報をエントロピー復号化し、前記映像予測動きパラメータを用いて、動き補償予測によって現在の復号化フレームを予測し、前記現在の復号化フレームの前記残差信号(136)が予測誤差に関係する前記現在の復号化フレームの予測信号(138)を取得するように構成された、請求項1〜7のいずれかに記載のハイブリッド映像デコーダ。
  9. 前記現在の復号化フレームに対する1つ以上の構文要素を復号化し、前記現在の復号化フレームの前記残差信号(136)の予測を、前記現在の復号化フレームの第1のセットの、前記1つ以上の構文要素によって定義されている予め定められたセットに適用するように構成された、請求項1〜8のいずれかに記載のハイブリッド映像デコーダ。
  10. 前記残差信号(136)が予測誤差に関係する、前記現在の復号化フレーム(200a)の予測信号(138)に結果としてなる、前記現在の復号化フレームの予測を、前記現在の復号化フレーム(200a)のサンプルの第2のセットに適用し、サンプルの前記第2のセットの各々に対する1つ以上の構文要素を復号化し、サンプルの前記第2のセットの各々に対する前記1つ以上の構文要素を用い、サンプルの前記第2のセットから、またはサンプルの前記第2のセットのサブセットから、サンプルの前記第1のセットの前記予め定められたセットを識別するように構成された、請求項9に記載のハイブリッド映像デコーダ。
  11. 前記現在の復号化フレーム(200a)に対する1つ以上の構文要素を復号化し、前記現在の復号化フレーム(200a)の前記残差信号(136)の予測を、前記現在の復号化フレーム(200a)のサンプルの第1のセットの、前記1つ以上の構文要素によって定義されている予め定められたセットに適用し、前記残差信号が予測誤差に関係する前記現在の復号化フレーム(200a)の残差信号(138)を部分的に形成する前記現在の復号化フレームのイントラ予測を、前記現在の復号化フレーム(200c)のサンプルの第2のセットの予め定められた第1のセットに適用し、前記現在の復号化フレームの前記予測信号(138)を部分的に形成する前記現在の復号化フレームの動き補償予測を、サンプルの前記第2のセットの予め定められた第2のセットに適用し、サンプルの前記第1のセットが、サンプルの前記第2のセットの前記第1および第2のセットから独立するように構成された、請求項1〜8のいずれかに記載のハイブリッド映像デコーダ。
  12. 前記前の復号化フレームをインデックスする残差参照フレームインデックスを、ビットストリームから抽出するように構成された、請求項1〜11のいずれかに記載のハイブリッド映像デコーダ。
  13. 後のフレームが、それに基づいて、前記残差信号(136)が予測誤差に関係する前記現在の復号化フレーム(200a)の予測信号を決定するように、前記前の復号化フレームをインデックスする残差参照フレームインデックスを推定するように構成された、請求項1〜12のいずれかに記載のハイブリッド映像デコーダ。
  14. 前記現在の復号化フレームのサンプルの予め定められたセットに対して前記現在の復号化フレームの前記残差信号を予測する際に用いられる残差予測動きパラメータを、前記現在の復号化フレームのサンプルの他のセットに対して前記現在の復号化フレームの前記残差信号を予測する際に前記ハイブリッド映像デコーダによって前に用いられた残差予測動きパラメータ、または前の復号化フレームの残差信号を用いて、予測するように構成された、請求項1〜13のいずれかに記載のハイブリッド映像デコーダ。
  15. 前記現在の復号化フレーム(200a)のサンプルの予め定められたセットに対して前記現在の復号化フレームの前記予測信号を予測する際に用いられる残差予測動きパラメータを、前記現在の復号化フレーム(200a)のサンプルの他のセットまたは同じセットに対して前記残差信号(136)が予測誤差に関係する前記現在の復号化フレーム(200a)の予測信号(138)を決定する際に前記ハイブリッド映像デコーダによって前に用いられた、または前の復号化フレームの残差信号(138)を決定する際に前記ハイブリッド映像デコーダによって前に用いられた、動きパラメータを用いて予測するように構成された、請求項1〜14のいずれかに記載のハイブリッド映像デコーダ。
  16. 前記現在の復号化フレームの前記予測信号を予測するために、多重仮定予測を用い、前記現在の復号化フレームの前記残差信号を予測する際に用いられる多くの仮定を、前記予測信号が予測誤差に関係する前記現在の復号化フレームの予測信号を決定する際に前記ハイブリッド映像デコーダによって用いられる多くの仮定からの差として、異なって復号化するように構成された、請求項1〜15のいずれかに記載のハイブリッド映像デコーダ。
  17. 前の符号化フレームの参照残差信号を用いて、動き補償予測によって、現在の符号化フレームの残差信号を付加的に予測するように構成された、ハイブリッド映像エンコーダ。
  18. 前の復号化フレームの参照残差信号を用いて、動き補償予測によって、現在の復号化フレームの残差信号を付加的に予測するステップを含む、ハイブリッド映像復号化方法。
  19. 前の符号化フレームの参照残差信号を用いて、動き補償予測によって、現在の符号化フレームの残差信号を付加的に予測するステップを含む、ハイブリッド映像符号化方法。
  20. 前の符号化フレームの参照残差信号を用いた、動き補償予測による、予め定められたフレームの残差信号の予測誤差の動き補償予測を定める残差予測動きパラメータに関する情報を備えた、ハイブリッド映像符号化されたビットストリーム。
  21. コンピュータプログラムがコンピュータ上で動作するとき、請求項18または19に記載の方法を実行するプログラムコードを有する、コンピュータプログラム。
JP2012537392A 2009-11-06 2010-11-03 ハイブリッド映像符号化 Active JP5684823B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US25877009P 2009-11-06 2009-11-06
US61/258,770 2009-11-06
PCT/EP2010/066752 WO2011054879A2 (en) 2009-11-06 2010-11-03 Hybrid video coding

Publications (2)

Publication Number Publication Date
JP2013510482A true JP2013510482A (ja) 2013-03-21
JP5684823B2 JP5684823B2 (ja) 2015-03-18

Family

ID=43618175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012537392A Active JP5684823B2 (ja) 2009-11-06 2010-11-03 ハイブリッド映像符号化

Country Status (5)

Country Link
US (1) US11070839B2 (ja)
EP (1) EP2497271B1 (ja)
JP (1) JP5684823B2 (ja)
CN (1) CN102726043B (ja)
WO (1) WO2011054879A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015092650A (ja) * 2013-09-30 2015-05-14 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
JP2019534626A (ja) * 2016-10-04 2019-11-28 クアルコム,インコーポレイテッド ビデオコーディングのための適応的な動きベクトル精度

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8982183B2 (en) * 2009-04-17 2015-03-17 Lg Electronics Inc. Method and apparatus for processing a multiview video signal
US8902976B2 (en) 2011-07-08 2014-12-02 Dolby Laboratories Licensing Corporation Hybrid encoding and decoding methods for single and multiple layered video coding systems
US9338474B2 (en) 2011-09-23 2016-05-10 Qualcomm Incorporated Reference picture list construction for video coding
US20130083852A1 (en) * 2011-09-30 2013-04-04 Broadcom Corporation Two-dimensional motion compensation filter operation and processing
GB2509881B (en) 2011-11-08 2018-09-12 Kt Corp A method of decoding a video signal using an AMVP mode
US9531990B1 (en) * 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US8737824B1 (en) 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
WO2014053519A1 (en) * 2012-10-01 2014-04-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scalable video coding using inter-layer prediction of spatial intra prediction parameters
RU2619198C1 (ru) * 2012-11-08 2017-05-12 Кт Корпорейшен Способ декодирования видеосигнала
JP6151909B2 (ja) * 2012-12-12 2017-06-21 キヤノン株式会社 動画像符号化装置、方法およびプログラム
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
KR20230131286A (ko) * 2013-04-08 2023-09-12 지이 비디오 컴프레션, 엘엘씨 성분-간 예측
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
FR3012004A1 (fr) * 2013-10-15 2015-04-17 Orange Procede de codage et de decodage d'images, dispositif de codage et de decodage d'images et programmes d'ordinateur correspondants
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
WO2015100522A1 (en) 2013-12-30 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for inter-component residual prediction
US10390033B2 (en) * 2016-06-06 2019-08-20 Google Llc Adaptive overlapped block prediction in variable block size video coding
CN106507111B (zh) * 2016-11-17 2019-11-15 上海兆芯集成电路有限公司 使用残差补偿的视频编码方法以及使用该方法的装置
US10419777B2 (en) * 2016-12-22 2019-09-17 Google Llc Non-causal overlapped block prediction in variable block size video coding
JP7170738B2 (ja) * 2018-02-28 2022-11-14 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 複合予測および制限付きマージ
KR102625314B1 (ko) * 2018-11-26 2024-01-15 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 타일 독립성 제약을 이용하는 인터 예측 개념
CN113826388A (zh) * 2019-03-12 2021-12-21 弗劳恩霍夫应用研究促进协会 用于混合视频编码的编码器、解码器、方法及视频比特流以及计算机程序

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045475A (ja) * 1999-07-27 2001-02-16 Matsushita Electric Ind Co Ltd 映像信号階層化符号化装置と映像信号階層化復号化装置及びプログラム記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUP0301368A3 (en) * 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
US8116374B2 (en) * 2004-05-07 2012-02-14 Broadcom Corporation Method and system for generating a transform size syntax element for video decoding
JP2007537653A (ja) * 2004-05-14 2007-12-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターレース符号化フレームからプログレッシブフレームを生成するためのデバイス
KR20070012201A (ko) * 2005-07-21 2007-01-25 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
US8582663B2 (en) * 2006-08-08 2013-11-12 Core Wireless Licensing S.A.R.L. Method, device, and system for multiplexing of video streams
CN101137065A (zh) * 2006-09-01 2008-03-05 华为技术有限公司 图像编码方法、解码方法、编码器、解码器、编解码方法及编解码器
US8199812B2 (en) * 2007-01-09 2012-06-12 Qualcomm Incorporated Adaptive upsampling for scalable video coding
CN101159875B (zh) * 2007-10-15 2011-10-05 浙江大学 二重预测视频编解码方法和装置
US20110002554A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by residual decimation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045475A (ja) * 1999-07-27 2001-02-16 Matsushita Electric Ind Co Ltd 映像信号階層化符号化装置と映像信号階層化復号化装置及びプログラム記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013049174; Sijia Chen, Jianpeng Wang, Lu Yu: Re-prediction in Inter-prediction of H.264 , 20071020, ITU - Telecommunications Standardization Sector ST *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015092650A (ja) * 2013-09-30 2015-05-14 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
JP2020025317A (ja) * 2013-09-30 2020-02-13 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
JP2019534626A (ja) * 2016-10-04 2019-11-28 クアルコム,インコーポレイテッド ビデオコーディングのための適応的な動きベクトル精度
JP7077310B2 (ja) 2016-10-04 2022-05-30 クアルコム,インコーポレイテッド ビデオコーディングのための適応的な動きベクトル精度

Also Published As

Publication number Publication date
EP2497271B1 (en) 2020-08-19
WO2011054879A2 (en) 2011-05-12
CN102726043A (zh) 2012-10-10
WO2011054879A3 (en) 2011-07-21
EP2497271A2 (en) 2012-09-12
US20120250769A1 (en) 2012-10-04
JP5684823B2 (ja) 2015-03-18
CN102726043B (zh) 2016-03-02
US11070839B2 (en) 2021-07-20

Similar Documents

Publication Publication Date Title
JP5684823B2 (ja) ハイブリッド映像符号化
RU2762933C2 (ru) Кодирование и декодирование видео с повышенной устойчивостью к ошибкам
US10104393B2 (en) Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
JP6342477B2 (ja) ビデオコーディング予測のためのメモリ削減
CN108028931B (zh) 用于视频编解码的自适应帧间预测的方法及装置
US9736475B2 (en) Method and apparatus for generating a reference frame and method and apparatus for encoding/decoding image using the same
US9473777B2 (en) Video encoding device and encoding method thereof, video decoding device and decoding method thereof, and directional intra-prediction method to be used thereto
JP5432355B2 (ja) イントラ予測映像符号化のための方法及び装置
JP5547301B2 (ja) 各色平面について別個のビデオ・エンコーダ、ビデオ・デコーダ、ビデオ・エンコード方法およびビデオ・デコード方法
US10085028B2 (en) Method and device for reducing a computational load in high efficiency video coding
TW201206203A (en) Image encoding device, image decoding device, image encoding method and image decoding method
KR20180108925A (ko) 이미지들의 시퀀스를 인코딩하기 위한 방법 및 디바이스 및 이미지들의 시퀀스를 디코딩하기 위한 방법 및 디바이스
US11206418B2 (en) Method of image encoding and facility for the implementation of the method
KR20100019088A (ko) 인터 예측 장치 및 그를 이용한 영상 부호화/복호화 장치와방법
JP2014017621A (ja) 映像圧縮フォーマット変換装置、映像圧縮フォーマット変換方法、およびプログラム
GB2506853A (en) Image Encoding / Decoding Including Determination of Second Order Residual as Difference Between an Enhancement and Reference Layer Residuals
KR101767950B1 (ko) 예측을 위한 컬러 플레인간의 상관 파라미터 추출 장치와 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
KR20090027091A (ko) 동영상 부호화/복호화 방법 및 장치
GB2512563A (en) Method and apparatus for encoding an image into a video bitstream and decoding corresponding video bitstream with weighted residual predictions

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131219

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140811

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150115

R150 Certificate of patent or registration of utility model

Ref document number: 5684823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250