JP6193370B2 - 適応差分領域空間および時間参照再構成およびスムージング - Google Patents

適応差分領域空間および時間参照再構成およびスムージング Download PDF

Info

Publication number
JP6193370B2
JP6193370B2 JP2015521692A JP2015521692A JP6193370B2 JP 6193370 B2 JP6193370 B2 JP 6193370B2 JP 2015521692 A JP2015521692 A JP 2015521692A JP 2015521692 A JP2015521692 A JP 2015521692A JP 6193370 B2 JP6193370 B2 JP 6193370B2
Authority
JP
Japan
Prior art keywords
video
unit
base layer
enhancement layer
video unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015521692A
Other languages
English (en)
Other versions
JP2015527812A (ja
JP2015527812A5 (ja
Inventor
ラパカ、クリシュナカンス
チェン、ジャンレ
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015527812A publication Critical patent/JP2015527812A/ja
Publication of JP2015527812A5 publication Critical patent/JP2015527812A5/ja
Application granted granted Critical
Publication of JP6193370B2 publication Critical patent/JP6193370B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

[0001]本開示はビデオ符号化に関する。
[0002]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、無線ブロードキャストシステム、個人用デジタル補助装置(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、e−ブックリーダー、デジタルカメラ、デジタル録音デバイス、デジタル・メディア・プレーヤー、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、パート10、先進ビデオ符号化(AVC)、現在開発中の高機能ビデオ符号化(HEVC)標準、およびこういった標準の拡張によって定義される標準に記載される技術のようなビデオ符号化技術を実装する。ビデオデバイスは、こういったビデオ符号化技術を実装することによって、より効果的にデジタルビデオ情報を送信、受信、エンコード、デコード、および/または格納し得る。
[0003]ビデオ符号化技術は、ビデオシーケンスに内在する冗長性を低減するため、あるいは取り除くための空間(ピクチャ内)予測および/または時間(ピクチャ間)予測を含む。ブロックベースでのビデオ符号化のために、ビデオスライス(例えば、ビデオフレームまたはビデオフレームの一部分)はビデオブロックに区分され得、それらは、ツリーブロック、符号化ユニット(CU)および/または符号化ノードとも称され得る。画像(picture)の画面内符号化(intra−coded)された(I)スライス内のビデオブロックは、同じ画像における隣接するブロック内の参照用サンプルに関して空間予測を用いてエンコードされる。画像の画面間符号化(inter−coded)された(PまたはB)スライス内のビデオブロックは、同じ画像における隣接するブロック内の参照サンプルに関して空間予測あるいは他の参照画像内の参照サンプルに関して時間予測を用い得る。画像(picture)はフレームと称され得、および参照画像は参照フレームと称され得る。
[0004]空間または時間予測は、符号化されるブロックのための予測ブロックをもたらす。残りのデータは、符号化される元のブロックと予測ブロックの間の画素差を表す。画面間符号化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルにしたがってエンコードされ、残りのデータは、符号化されたブロックと予測ブロックの間の差分を示す。画面内符号化ブロックは、画面内符号化モードと残りのデータにしたがってエンコードされる。さらに圧縮のために、残りのデータは画素領域から変換領域に変換され得、次に量子化され得る残りの変形係数がもたらされる。2次元アレイに初めに配列されて量子化された変形係数は、変形係数の1次元ベクトルを生成するために走査され得、エントロピー符号化がさらに圧縮を実現するために適用され得る。
[0005]一般的に、本開示はスケーラブルビデオ符号化(SVC)に関する技術を説明する。さらに具体的には、本開示の技術は差分領域符号化の際の画面内および画面間予測に関する。いくつかの例において、この技術は、差分領域に関する参照フレームを生成するために、拡張層からの参照フレームと再構成された基本層からの参照フレームに異なる重みを割り当て得る。いくつかの例において、この技術は、画面内予測(イントラ予測、intra prediction)のために差分領域に関する空間隣接画素を生成するために、拡張層からの空間隣接画素と再構成された基本層からの空間隣接画素に異なる重みを割り当て得る。重み値をELと再構成されたBLに割り当てることによって、この技術は同じ層にあるフレーム間の空間および時間の弱い相関関係および/またはELおよびBL間の弱い相関関係を構成し得る。例えば、ELとBLは、それらが存在する画像の点では非常に異なり得る。こういった場合、EL参照フレームは、差分領域参照フレームを生成する際により多くの重みを付与され得る。あるいは、再構成されたBL参照は、EL参照フレームの代わりにより多くの重みを付与され得る。
[0006]いくつかの例において、この技術はまた、差分領域内に存在する可能性のある高周波ノイズを低減するために、差分領域内の空間隣接画素にスムージングフィルタまたはローパスフィルタを、あるいは画面間予測(インター予測、inter prediction)のための差分領域内の参照フレームにスムージングフィルタまたはローパスフィルタを適用し得る。この技術は、計算の複雑性を加えることなくテクスチャを保持するために、1:2:1のフィルタのような単純なスムージングフィルタを適用し得る。フィルタを適用する利益が付加的な計算の複雑さより勝る限りは、いずれかのスムージングフィルタが適用され得る。
[0007]特定の観点にしたがってビデオ情報を符号化するための装置は、メモリユニットと、メモリユニットと通信するプロセッサを含む。メモリユニットは、ビデオ情報の拡張層と対応する基本層の間の差分から抽出される画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納する。プロセッサは拡張層重みと基本層重みを決定し、および差分ビデオ層に基づく現在のビデオユニットの値と、拡張層重みによって重み付けられた拡張層におけるビデオユニットの値と、基本層重みによって重み付けられた基本層におけるビデオユニットの値を決定する。
[0008]特定の観点にしたがってビデオ情報を符号化するための装置は、メモリユニットと、メモリユニットと通信するプロセッサを含む。メモリユニットは、ビデオ情報の拡張層と対応する基本層の間の差分から抽出される画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納する。プロセッサは、差分ビデオ層における参照ビデオユニットまたは空間隣接ビデオユニットに基づくビデオユニットの値を決定し、およびスムージングフィルタを参照ビデオユニットまたは空間隣接ビデオユニットに適用する。
[0009]1つまたは複数の例の詳細は添付の図面と下記の記述において説明される。他の特徴、オブジェクト、および利点、記述、図面からおよび請求項から明白であるだろう。
[0010]図1は、本開示に記載の観点にしたがった技術を利用し得るビデオエンコーディングおよびデコーディングシステムの例を示すブロック図である。 [0011]図2は、本開示に記載された観点にしたがった技術を実施し得るビデオエンコーダの例を示すブロック図である。 [0012]図3は、本開示に記載された観点にしたがった技術を実施し得るビデオデコーダの例を示すブロック図である. [0013]図4は、本開示の観点にしたがった適応重み付け差分領域参照再構成(adaptive weighted difference domain reference reconstruction)を示す概念図である。 [0014]図4Aは、本開示の観点にしたがった適応重み付け差分領域参照再構成を示す概念図である。 [0015]図5は、本開示の観点にしたがった差分領域参照のスムージングを示す概念図である。 [0016]図5Aは、本開示の観点にしたがった差分領域参照のスムージングを示す概念図である。 [0017]図6は、本開示の観点にしたがった差分領域参照を適応的に生成するための方法の例を示すである。 [0018]図6Aは、本開示の観点にしたがった差分領域参照を適応的に生成するための方法の例を示すフローチャートである。 [0019]図6Bは、本開示の観点にしたがった差分領域参照を適応的に生成するための方法の例を示すフローチャートである。 [0020]図7は、本開示の観点にしたがった差分領域参照をスムージングするための方法の例を示すフローチャートである。 [0021]図7Aは、本開示の観点にしたがった差分領域参照をスムージングするための方法の例を示すフローチャートである。
詳細な説明
[0022]本開示に記載された技術は一般に、スケーラブルビデオ符号化(SVC)に関する。例えば、この技術は、高機能ビデオ符号化(HEVC)スケーラブルビデオ符号化(SVC)拡張に関し、およびそれと共にまたその中で用いられ得る。SVC拡張内には、ビデオ情報の複数の層が存在し得る。最下位層は、基本層(BL)としての役割を果たし、および最上位層は、拡張層(EL)としての役割を果たし得る。「拡張された層」は、「拡張層」と称されることもあり、これらの用語は、置換可能に用いられ得る。中間の全ての層は、ELまたはBL、あるいはその両方としての役割を果たし得る。例えば、中間の層は、基本層または任意の介在する拡張層のようなそれより下の層にとってはELであり得、同時に、それより上の拡張層にとってはBLとしての役割を果たす。
[0023]例示のみの目的のために、本開示に記載された技術は、2つの層のみ(例えば、基本層のようなより低位の層および拡張された層のようなより高位の層)を含む例を用いて記載される。本開示に記載された例は、複数の基本層と拡張層を同様に用いた例にも拡大適用され得ることが理解されるべきである。
[0024]ビデオ符号化標準は、ITUT−H.261、ISO/IEC MPEG−1 Visual、ITUT−H.262、またはISO/IEC MPEG−2 Visual、ITUT−H.263、ISO/IEC MPEG−4 VisualおよびITUT−H.264(ISO/IECMPEG−4 AVCとしても知られる)を含み、およびそのスケーラブルビデオ符号化(SVC)を含み、マルチビュービデオ符号化(MVC)拡張を含む。さらに、新しいビデオ符号化標準、すなわち高機能ビデオ符号化(HEVC)は、ITU−Tビデオ符号化専門家グループ(VCEG)とISO/IEC動画専門家グループ(MPEG)からなるビデオ符号化(JCT−VC)に関するジョイントコラボレーションチームによって開発されている。HEVCの最近のドラフトは、2012年6月7日から(1)HPから入手可能となっている。「HEVCの作業ドラフト7」と称されるHEVC標準の別の最近のドラフトは、2012年6月7日から(2)HPからダウンロード可能となっている。HEVCの作業ドラフト7の完全版の出典は、ブロス氏、他による文献HCTVC−I1003、「高機能ビデオ符号化(HEVC)テキスト使用ドラフト7」、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11のビデオ符号化(JCT−VC)に関する共同協力チーム、2012年4月27日から5月7日までスイスのジュネーブで開催された第9回会議である。これらの参照の各々は、その全体における参照によって組み込まれる。
[0025]スケーラブルビデオ符号化(SVC)は、品質(信号対雑音(SNR)とも称される)スケーリング、空間スケーリングおよび/または時間スケーリングを提供するために用いられ得る。拡張された層は、基本層とは異なる差分空間解像度を有し得る。例えば、ELとBLの間の空間アスペクト比率は、1.0、1.5、2.0または他の異なる比率であり得る。換言すると、ELの空間アスペクトはBLの空間アスペクトの1.0、1.5、2.0倍に等しい。いくつかの例において、ELのスケーリング要素は、BLよりも大きい可能性がある。例えば、EL内の画像のサイズは、BL内の画像のサイズより大きい可能性がある。このように、ELの空間解像度がBLの空間解像度より大きい可能性はあり得るが、それに限定されることはない。
[0026]拡張層を符号化する際、画面間予測は、画素領域か、または差分領域を用いて実行され得る。画面間予測とは、時間の連続において、2つのフレームまたはスライス内のビデオブロック間の時間の相関関係に基づく予測である。例えば、符号化中の現在のビデオブロックの値は、予め符号化されたフレームまたはスライス内の参照ビデオブロックからの置換を示す動きベクトルを用いて予測され得る。SVCにおいて、ビデオ情報は、基本層および1つまたは複数の拡張層を用いてエンコードされ得、および画面間予測は、例えば、拡張層と再構成された基本層の間の差分を取得することによって差分領域内で実行され得る。差分領域は、拡張層内で再構成された画素から再構成された基本層の画素を差し引くことによって形成された差分画素のセットのことを指し得る。差分領域内の画面間予測は、フレーム間の時間の相関関係だけでなく基本層と拡張層の間の相関関係も利用し得る。同様に、画面内予測は、フレーム間の空間の相関関係だけでなく基本層と拡張層の間の相関関係も利用し得る。
[0027]しかし、差分領域内の差分画素は、例えば、基本層を再構成する場合の量子化からの損失に起因して、一般的に高周波成分であり得る。それ故に、参照フレームを用いる画面間予測と差分領域内の空間隣接画素を用いる画面内予測は、質の良い予測結果に到達し得ない。さらに、現在の予測ユニットの空間および時間の相関関係は、拡張層または再構成された基本層内でより強くなり得るか、またはその逆もあり得る。したがって、拡張層と再構成された基本層の特性によって、拡張層と再構成された基本層を重み付けすることによって、差分領域内の時間参照フレームと空間隣接画素を生成することが有益であろう。
[0028]さらに、上記で説明したとおり、差分領域は高周波成分を抱合する可能性があり、それは画面内または画面間予測に適さない。例えば、こういった高周波成分は、フレーム間の空間および時間の弱い相関関係から生じ得る。高周波成分はまた、拡張層と再構成された基本層が異なる量子化で動作しているか、またはそれらが差分空間解像度から成る場合の大きい量子化損失から生じる。例えば、拡張層と基本層は異なる量子化パラメータにおいて演算している可能性があり、それが高周波になる可能性のある拡張層と再構成された基本層の間の差分に至る可能性がある。したがって、差分領域画素の高周波ノイズを低減することが有益であろう。
[0029]本開示に記載された技術は、差分領域において画面内および画面間予測に関する課題に対応し得る。この技術は、差分領域に関する空間隣接画素と参照フレームを生成するために、拡張層からの空間隣接画素と参照フレームおよび再構成された基本層からの空間隣接画素と参照フレームに異なる重みを割り当て得る。重み値をELと再構成されたBLに割り当てることによって、この技術は同じ層にあるフレーム間の時間の弱い相関関係および/またはELおよびBL間の弱い相関関係に対処し得る。得る。例えば、ELは基本層よりより高品質であるはずである。こういった場合、EL参照フレームは、差分領域参照フレームを生成する際により多くの重みを付与され得る。あるいは、再構成されたBL参照は、EL参照フレームの代わりにより多く重みを付与され得る。
[0030]この技術はまた、差分領域内に存在する可能性のある高周波ノイズを低減するために、差分領域内の参照フレームまたは空間隣接画素にスムージングフィルタを適用し得る。この技術は、計算の複雑さを増すことなくテクスチャを保持するために、1:2:1のフィルタのような単純なスムージングフィルタを適用し得る。フィルタを適用する利益が付加的な計算の複雑さより勝る限りは、いずれかのスムージングフィルタが適用され得る。
[0031]新しいシステム、装置、および方法の様々な観点は、添付の図面を参照して以下でさらに詳細に説明される。しかし、本開示は、多くの異なる形式において具体化されるが、本開示を通して表されるいずれかの特定の構造または機能に限定されると解釈されるべきではない。むしろ、これらの観点は、本開示が完全となり、および当業者に対して本開示の範囲を十分に伝えるために提供される。ここでの教示に基づいて、当業者は、本開示の範囲が本願のいずれ他の観点から独立して、または組み合わせて実施されるかどうかにかかわらず、ここで開示された新規のシステム、装置、および方法のいずれかの観点をカバーすることを目的としていることを評価するべきである。例えば、装置は実装され、または方法は、ここで説明された観点のうちのいくつかを用いて実施され得る。さらに、本願の範囲は、他の構造、機能、またはここで説明される本願の様々な観点に加えたまたはそれ以外の構造、機能、または構造と機能を用いて実施されるこういった装置、または方法をカバーすることを目的としている。ここで開示されたいずれの観点も、請求項の1つまたは複数の要素によって具体化され得ることが理解されるべきである。
[0032]特定の観点はここに記載されたが、これらの観点の多くの変形および並べ替えは本開示の範囲内である。好適な観点のうちのいくつかの利益および利点が述べられるが、本開示の範囲は、特定の利益、使用、または目的に限定されることを目的としない。むしろ、本開示の観点は、異なる無線技術、システム構成、ネットワーク、および送信プロトコルに対して広義に適用可能であることを目的としており、それらのうちのいくつかは、図面内の例および下記の好適な観点の説明における具体例によって示される。詳細な説明および図面は、添付の請求項およびそれらの等価物によって定義される本開示の範囲を限定するよりむしろ本開示の単なる例示にすぎない。
[0033]図1は、本開示に記載された観点にしたがった技術を利用し得るビデオエンコーディングおよびデコーディングシステムの例を示すブロック図である。図1に示されるように、システム10は、宛先デバイス14によって後でデコードされるエンコードされたビデオデータを提供するソースデバイス12を含む。特に、ソースデバイス12は、コンピュータ可読媒体16を介して宛先デバイス14にビデオデータを提供する。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(例えばラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォン、「スマート」パッドのようなテレフォンハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む広範囲のデバイスのうちのいずれかを備え得る。場合によって、ソースデバイス12と宛先デバイス14は、無線通信のために装備され得る。
[0034]宛先デバイス14は、コンピュータ可読媒体16を介してデコードされるエンコードされたビデオデータを受信し得る。コンピュータ可読媒体16は、ソースデバイス12から宛先デバイス14へエンコードされたビデオデータを移動することができる任意のタイプの媒体またはデバイスを備え得る。一例において、コンピュータ可読媒体16は、リアルタイムにエンコードされたビデオデータを宛先デバイス14へ直接送信することをソースデバイス12可能にするための通信媒体を備え得る。エンコードされたビデオデータは、無線通信プロトコルのような通信標準にしたがって変調されおよび宛先デバイス14へ送信される。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物質の送信路のような、任意の無線または有線の通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、広域ネットワーク、またはインターネットのようなグローバルネットワークといったパケットベースのネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14までの通信を容易にするために有用であり得るルータ、スイッチ、基地局、またはいずれか他の機器を含み得る。
[0035]いくつかの例において、エンコードされたデータは、出力インタフェース22から記憶デバイスへ出力され得る。同様に、エンコードされたデータは、入力インタフェースによって記憶デバイスからアクセスされ得る。記憶デバイスは、ハードドライブ、ブルーレイディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または非揮発性メモリまたはエンコードされたビデオデータを格納するためのいずれか他の適切なデジタル記憶媒体のような様々な分散型または局所的にアクセスされるデータ記憶媒体のうちのいずれかを含み得る。さらなる例において、記憶デバイスは、ソースデバイス12によって生成されたエンコードされたビデオを格納し得るファイルサーバまたは別の中間記憶デバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードによって記憶デバイスから格納されたビデオデータにアクセスし得る。ファイルサーバは、エンコードされたビデオデータを格納し、およびそのエンコードされたビデオデータを宛先デバイス14に送信可能な任意のタイプのサーバであり得る。ファイルサーバの例は、ウェブサーバ(例えば、ウェブサイト用)、FTPサーバ、ネットワーク接続ストレージ(NSA)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準のデータ接続を経由してエンコードされたビデオデータにアクセスし得る。これは、ファイルサーバに格納されたエンコードされたビデオデータにアクセスするのに適した無線チャンネル(例えば、Wi−Fi接続)、有線接続(例えば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。記憶デバイスからのエンコードされたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0036]本開示の技法は必ずしも無線器具または環境に限定されるものではない。この技術は、無線テレビ放送、ケーブルテレビ送信、衛星テレビ送信、HTTPを経由する動的適応ストリーミング(DASH)のようなインターネットストリーミングビデオ送信、データ記憶媒体上でエンコードされるデジタルビデオ、データ記憶媒体上で記憶されるデジタルビデオのデコーディング、または他のアプリケーションのような様々なマルチメディアアプリケーションのいずれかを支援するビデオ符号化に適用され得る。いくつかの例において、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオ電話のような機器を支援するために、一方向または双方向ビデオ送信を支援するように構成され得る。
[0037]図1の例において、ソースデバイス12は、ビデオソース18、ビデオエンコーダ20、および出力インタフェース22を含む。宛先デバイス14は、入力インタフェース28、ビデオデコーダ30、およびディスプレイデバイス32を含む。本開示にしたがって、ソースデバイス12のビデオエンコーダ20は、複数の標準または標準の拡張に準拠するビデオデータを含むビットストリームを符号化するための技術を適用するように構成され得る。他の例において、ソースデバイスと宛先デバイスは、他の構成要素または配置を含み得る。例えば、ソースデバイス12は、外部のカメラのような外部ビデオソース18からビデオデータを受信し得る。同じく、宛先デバイス14は、統合されたディスプレイデバイスを含むよりむしろ、外部のディスプレイデバイスと連結し得る。
[0038]図1の例示的なシステム10は、単なる1つの例である。現在のブロックのために動きベクトル予測器に関する候補リストのための候補を決定する技術は、デジタルビデオエンコーディングおよび/またはデコーディングデバイスによって実行され得る。一般的に、本開示の技術は、ビデオエンコーディングデバイスによって実行されるが、この技術は、通常「CODEC」と称されるビデオエンコーダ/デコーダによっても実行され得るさらに、本開示の技術は、ビデオプレプロセッサによっても実行され得る。ソースデバイス12と宛先デバイス14は単に、ソースデバイス12が、宛先デバイス14への送信のために符号化されたビデオデータを生成する例えば符号化デバイスの例である。いくつかの例において、デバイス12、14は、デバイス12、14のそれぞれがビデオエンコーディングとデコーディングの構成要素を含むために、実質的に対称的に動作し得る。したがって、システム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオ電話による通信のためのビデオデバイス12、14の間の一方向または双方向ビデオ送信を支援し得る。
[0039]ソースデバイス12のビデオソース18は、ビデオカメラ、予め取得したビデオを含むビデオアーカイブ、および/またはビデオコンテンツの提供者からビデオを受信するためのビデオフィードインタフェースのようなビデオ取得デバイスを抱合し得る。さらなる代替として、ビデオソース18は、ソースビデオのようなコンピュータグラフィックスベースのデータ、またはライブビデオ、アーカイブされたビデオ、およびコンピュータ生成されたビデオの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12と宛先デバイス14は、いわゆるカメラ電話またはビデオ電話を形成し得る。しかし、上述したとおり、本開示に記載された技術は、一般に、ビデオ符号化に適用可能であり得、および無線および/または有線アプリケーションに適用可能であり得る。それぞれの場合において、取得されたか、予め取得されたか、あるいはコンピュータ生成されたビデオは、ビデオエンコーダ20によってエンコードされ得る。エンコードされたビデオ情報は次に、コンピュータ可読媒体16に出力インタフェース22によって出力され得る。
[0040]コンピュータ可読媒体16は、無線ブロードキャストまたは有線ネットワーク送信のような一時的媒体、またはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、または他のコンピュータ可読媒体のような記憶媒体(すなわち、非一時的な記憶媒体)を含み得る。いくつかの例において、ネットワークサーバ(不図示)は、ソースデバイス12からエンコードされたビデオデータを受信し、およびネットワーク送信、すなわち例えば、直接の有線通信を介して宛先デバイス14へエンコードされたビデオデータを提供し得る。同様に、ディスクスタンピング機能のような媒体作成機能の計算デバイスは、ソースデバイス12からエンコードされたビデオデータを受信し、およびエンコードされたビデオデータを抱合するディスクを作成し得る。したがって、コンピュータ可読媒体16は、種々の例において、種々の形式の1つまたは複数のコンピュータ可読媒体を含むと理解され得る。
[0041]宛先デバイス14の入力インタフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義されるシンタックス情報を含み得、その情報は、ブロックおよび他の符号化ユニット例えば、GOPの特徴および/または処理を記述するシンタックスエレメントを含むビデオデコーダ30によっても用いられる。ディスプレイデバイス32は、ユーザにデコードされたビデオデータを表示し、およびカソードレイチューブ(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはいずれか別のタイプのディスプレイデバイスのような様々なディスプレイデバイスのいずれかを備え得る。
[0042]ビデオエンコーダ20とビデオデコーダ30は、現在開発中の高機能ビデオ符号化(HEVC)標準のようなビデオ符号化標準にしたがって動作し得、およびHEVCテストモデル(HM)に準拠し得る。代替として、ビデオエンコーダ20とビデオデコーダ30は、ITUT−H.264標準のような他の専有的に定める標準または業界の標準にしたがって動作し得、代替として、MPEG−4、パート10、先進ビデオ符号化(AVC)またはこういった標準の拡張と称される。しかし、本開示の技術は、いずれか特定の符号化標準に限定されることはなく、上記に挙げられた標準のいずれかを含むがそれらに限定されることはない。ビデオ符号化標準の他の例はMPEG−2とITUT−H.263を含む。図1には図示されていないが、いくつかの観点において、ビデオエンコーダ20とビデオデコーダ30はそれぞれ音声エンコーダおよびデコーダと統合され得、および共通のデータストリームまたは別々のデータストリームにおいて音声とビデオの両方のエンコーディングを扱うために、適切なMUX−DEMUXユニット、あるいは他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコルまたはユーザデータグラムプロトコル(UDP)のような他のプロトコルに準拠し得る。
[0043]ビデオエンコーダ20とビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、アプリケーション特定集積回路(ASIC)フィールド・プログラマブル・ゲイト・アレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せのような様々な適切なエンコーダ回路のいずれかとして実装され得る。この技術がソフトウェアにおいて部分的に実施される場合、デバイスは、本開示の技術を実行するために、ソフトウェアへの命令を適切な非一時的なコンピュータ可読媒体に格納し、および1つまたは複数のプロセッサを用いてハードウェア内の命令を実行し得る。ビデオエンコーダ20とビデオデコーダ30のそれぞれは、1つまたは複数のエンコーダまたはデコーダ内に含まれ得、それらのうちのいずれかが、各デバイスに一体化されたエンコーダ/デコーダ(CODEC)の一部として統合され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話のような無線通信デバイスを備え得る。
[0044]JCT−VCは、HEVC標準の開発に取り組んでいる。HEVC標準化の成果は、HEVCテストモデル(HM)と称されるビデオ符号化デバイスの発展型モデルに基づく。HMは、例えば、ITUT−H.264/AVCにしたがった既存のデバイスと比較して、ビデオ符号化デバイスの種々の付加的な機能を仮定する。例えば、H.264が9種類の画面内予測エンコーディングモードを提供する一方で、HMは、33種類もの画面内予測エンコーディングモードを提供し得る。
[0045]一般的に、HMの作業モデルは、ビデオフレームまたは画像が一連のツリーブロックまたはルマおよびクロマの両方のサンプルを含む最大符号化ユニット(LCU)に分割され得ることを記載している。ビットストリーム内のシンタックスデータは、画素の数という点で最大符号化ユニットであるLCUに適したサイズを定義し得る。スライスは、符号化順に多数の連続したツリーブロックを含む。ビデオフレームまたは画像は、1つまたは複数のスライスに区分され得る。各ツリーブロックは、四本木にしたがって符号化ユニット(CU)に分割され得る。一般的に、四本木データ構造は、CU毎に1つのノードを含み、ツリーブロックはルートノードに対応する。CUが4つのサブCUに分割される場合、CUに対応するノードは、4つの葉ノードを含み、それぞれは、サブCUのうちの1つに対応する。
[0046]四本木データ構造の各ノードは、対応するCUにシンタックスデータを提供し得る。例えば、四本木内のノードは、ノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUに関するシンタックスエレメントは再帰的に定義され得、およびCUがサブCUに分割されるかどうかに依存し得る。CUがこれ以上分割されない場合、それは葉CUと称される。本開示において、元の葉CUの明示的な分割が無いとしても、葉CUの4つのサブCUはやはり葉CUと称されるだろう。例えば、16x16サイズのCUがこれ以上分割されない場合、16x16のCUが分割されなかったとしても、4つの8x8のサブCUも葉CUと称されるだろう。
[0047]CUは、CUがサイズの区別を持たないことを除いて、H.264の標準のマクロブロックと類似の目的を有する。例えば、ツリーブロックは4つの子ノード(サブCUとも称される)に分割され、および各子ノードは、順に親ノードになり得、および別の4つの子ノードに分割され得る。四本木の葉ノードと称される最後の分割されない子ノードは、葉CUとも称される符号化ノードを備える。符号化されたビットストリームと関連付けられるシンタックスデータは、ツリーブロックが分割され得る最大回数を定義し得、それは最大CU深さとも称され、および符号化ノードの最小サイズも定義し得る。したがって、ビットストリームはまた、最小符号化ユニット(SCU)を定義し得る。本開示は、HEVCのコンテキスト内のCU、PU、またはTUのうちのいずれか、あるいは他の標準(例えば、H.264/AVC内のそれらのマクロブロックおよびサブブロック)のコンテキスト内の類似のデータ構造に言及するために用語「ブロック」を用いる。
[0048]CUは符号化ノードを含み、および予測ユニット(PU)と変換ユニット(TU)は符号化ノードと関連づけられる。CUのサイズは符号化ノードのサイズに対応し、および正方形でなければならない。CUのサイズは、8x8画素から最大64x64画素以上を有するツリーブロックのサイズまでの範囲であり得る。各CUは1つまたは複数のPUおよび1つまたは複数のTUを抱合し得る。CUと関連付けられるシンタックスデータは、例えば、CUを1つまたは複数のPUに分割することを記述し得る。分割モードは、CUがスキップあるいはダイレクトモードでエンコードされるか、画面内予測モードでエンコードされるか、あるいは画面間予測モードでエンコードされるかによって異なり得る。PUは、非正方形になるように区分され得る。CUと関連付けられるシンタックスデータは、四本木にしたがって、例えば、CUを1つまたは複数のTUへ分割することを記述し得る。TUは、正方形または非正方形(例えば、長方形)であり得る。
[0049]HEVC標準はTUにしたがった変形を可能し、それはそれぞれのCUによって異なり得る。TUは、常にこうであるとは限らないが、通常、分割されたLCUに関して定義された所与のCU内のPUのサイズに基づいてサイズが決められる。TUは通常、PUと同じサイズかあるいはそれより小さい。いくつかの例において、CUに対応する残りのサンプルは、「残りの四本木」(RQT)として知られる四本木構造を用いるより小さいユニットにさらに分割され得る。RQTの葉ノードは、変換ユニット(TU)と称され得る。TUと関連付けられる画素差分値は変換係数を生成するために変換され得、それらが量子化され得る。
[0050]葉CUは、1つまたは複数の予測ユニット(PU)を含み得る。一般的に、PUは、対応するCUの全てあるいは一部に対応する空間領域を表し、およびPUに関する参照用サンプルを検索するためのデータを含み得る。さらにPUは、予測と関連するデータを含む。例えば、PUが画面内モード(intra−mode)でエンコードされる場合、PUに関するデータは残りの四本木(RQT)に含まれ得、それは、PUに対応するTUに関する画面内予測モードを記述するデータを含み得る。別の例として、PUが画面間モード(inter−mode)でエンコードされる場合、PUはPUに関する1つまたは複数の動きベクトルを定義するデータを含み得る。PUに関する動きベクトルを定義するデータは、例えば、動きベクトルの水平構成要素、動きベクトルの垂直構成要素、動きベクトルに関する解像度(例えば、4分の1画素精度または8分の1画素精度)、動きベクトルが指し示す参照画像、および/または動きベクトルに関する参照画像リスト(例えば、リスト0、リスト1、またはリストC)を記述し得る。
[0051]1つまたは複数のPUを有する葉CUはまた、1つまたは複数の変換ユニット(TU)を含み得る。変換ユニットは、上記で論じられたように、RQT(TU四本木構造とも称される)を用いて特定され得る。例えば、分割フラグは、葉CUが4つの変換ユニットに分割されるかどうかを示し得る。次に、各変換ユニットはさらにサブTUに分割され得る。TUがこれ以上分割されない場合、それは葉TUと称される。一般的に、画面内符号化に関して、葉CUに属する全ての葉TUは、同じ画面内予測モードを共有する。すなわち、同じ画面内予測モードは一般的に、葉CUの全てのTUに関する予測された値を計算するために適用される。画面内符号化に関して、ビデオエンコーダは、TUに対応するCUの一部と元のブロックの間の差分のような画面内予測モードを用いて各葉TUに関する残りの値を計算し得る。TUは、PUのサイズに必ずしも限定されることはない。したがって、TUは、PUよりも大きいか、あるいは小さくなり得る。画面内符号化に関して、PUは、同じCUに関して対応する葉TUと共に割り当てられ得る。いくつかの例において、葉TUの最大のサイズは対応する葉CUのサイズに対応し得る。
[0052]さらに、葉CUのTUはまた、残りの四本木(RQT)と称される各四本木データ構造と関連付けられ得る。すなわち、葉CUは、葉CUがどのようにTUに分割されるか示す四本木を含み得る。TU四本木のルートノードは一般的に葉CUに対応し、その一方で、CU四本木のルートノードは一般的に、ツリーブロック(またはLCU)に対応する。分割されないRQTのTUは葉TUと称される。一般的に、本開示は、特に断りの無い限り、それぞれ葉CUと葉TUに言及するために、用語CUおよびTUを用いる。
[0053]ビデオシーケンスは通常、一連のビデオフレームまたは画像を含む。画像のグループ(GOP)は一般的に、一連の1つまたは複数のビデオ画像を備える。GOPはGOPのヘッダ、1つまたは複数の画像のヘッダ、または他のいずれかの場所にシンタックスデータを含み、それは、GOPに含まれた多数の画像を記述する。画像の各スライスは、各スライスに関するエンコーディングモードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は通常、ビデオデータをエンコードするために個々のビデオスライス内のビデオブロック上で動作する。ビデオブロックはCU内の符号化ノードに対応し得る。ビデオブロックは、固定されたまたは変化するサイズを有し、および特定された符号化標準によってサイズが異なり得る。
[0054]例として、HMは、様々なサイズのPUにおける予測を支援する。特定のCUのサイズが2Nx2Nであると仮定すると、HMは、2Nx2NまたはNxNのサイズのPUにおける画面内予測、および2Nx2N、2NxN、Nx2N、またはNxNのサイズの対称なPUにおける画面間予測を支援する。HMはまた、2NxnU、2NxnD、nLx2N、およびnRx2NのサイズのPUにおける画面間予測のために非対称な分割を支援する。非対称な分割において、CUの1つの方向は分割されないが、他の方向は25%と75%に分割される。25%の分割に対応するCUの部分は、「Up」、「Down」、「Left」、または「Right」の表示が後に続く「n」によって示される。したがって、 例えば「2NxnU」は、上部で2Nx0.5NのPUおよび下部で2Nx1.5NのPUを用いて水平に分割される2Nx2NのCUを指す。
[0055]本開示において、「NxN」および「N掛けるN」は、例えば16x16画素あるいは16掛ける16画素の垂直および水平寸法の寸法を単位としてビデオブロックの画素の寸法に言及するために置換可能に用いられ得る。一般的に、16x16ブロックは垂直方向に16画素(y=16)および水平方向に16画素(x=16)を有することになる。同じく、NxNのブロックは一般的に、垂直方向にN個の画素および水平方向にN個の画素を有し、そこでN個は非負整数の値を表す。ブロック内の画素は、行と列に配列され得る。さらに、ブロックは、垂直方向と水平方向に必ずしも同じ画素の数を有する必要はない。例えば、ブロックはNxMの画素を備え得、そこで、Mは必ずしもNと等しくない。
[0056]CUのPUを用いる画面内予測または画面間予測符号化に続いて、ビデオエンコーダ20は、CUのTUのための残りのデータを計算し得る。PUは、空間領域(画素領域とも称される)内で予測画素データを生成する方法またはモードを記述するシンタックスデータを備え得、およびTUは、例えばディスクリートコサイン変換(DCT)、整数変換、ウェイブレット変換、または残りのビデオデータに概念上類似する変換などの変換のアプリケーションに次いで変換領域内に係数を備え得る。残りのデータは、エンコードされなかった画像の画素とPUに対応する予測値の間の画素差に対応し得る。ビデオエンコーダ20は、CUに関する残りのデータを含むTUを形成し、次にCUに関する変換係数を生成するためにTUを変換し得る。
[0057]変換係数を生成するための任意の変換の次に、ビデオエンコーダ20は変換係数の量子化を実行し得る。量子化とは一般的に、変換係数が、さらなる圧縮を提供する係数を表すために用いられるデータの量をできるだけ低減するために量子化される過程を指す。量子化の過程は、係数のうちのいくつかまたは全てと関連付けられるビット深さを低減し得る。例えば、nビットの値は量子化中にmビットの値に四捨五入され得、そこにおいて、nはmより大きい。
[0058]量子化の次に、ビデオエンコーダは変換係数を走査し、量子化された変換係数を含む2次元マトリックスから1次元ベクトルを生成し得る。走査は、アレイの前方により高いエネルギー(それ故により低い周波数)係数を設定し、およびアレイの後方により低いエネルギー(それ故により高い周波数)係数を設定するように設計され得る。いくつかの例において、ビデオエンコーダ20は、エントロピーエンコードされ得るシリアル化されたベクトルを生成するために量子化された変換係数を走査するために既定義の走査順を利用し得る。その他の例において、ビデオエンコーダ20は適応できる走査を実行し得る。1次元ベクトルを形成するために量子化された変換係数を走査した後、ビデオエンコーダ20は、例えば、コンテキスト適応可変長符号化(CAVLC)、コンテキスト適応二値算術符号化(CABAC)、シンタックスベースのコンテキスト適応二値算術符号化(SBAC)、確立区間分割エントロピー(PIPE)符号化、または別のエントロピーエンコーディング方法論にしたがって、1次元ベクトルをエントロピーエンコードし得る。ビデオエンコーダ20はまた、ビデオデータをデコーディングする際にビデオデコーダ30によって用いるためのエンコードされたビデオデータと関連付けられるシンタックスエレメントをエントロピーエンコードし得る。
[0059]CABACを実行するために、ビデオエンコーダ20は、送信されるシンボルにコンテキストモデル内のコンテキストを割り当て得る。コンテキストは例えば、シンボルの隣接する値が非ゼロか否かに関する。CAVLCを実行するために、ビデオエンコーダ20は、送信されるシンボルに関する可変長符号を選択し得る。VLC内のコード名は、比較的より短いコードがより可能性のあるシンボルに対応する一方で、より長いコードがより可能性のないシンボルに対応するように解釈され得る。このように、VLCの使用は例えば、送信される各シンボルに等しい長さのコード名を使用することを通じてビット節約を実現し得る。可能性判定は、シンボルに割り当てられたコンテキストに基づき得る。
[0060]ビデオエンコーダ20は、例えばフレームヘッダ、ブロックヘッダ、スライスヘッダ、またはGOPヘッダ内で、ビデオデコーダ30にブロックベースのシンタックスデータ、フレームベースのシンタックスデータ、およびGOPベースのシンタックスデータのようなシンタックスデータをさらに送り得る。GOPシンタックスデータは、各GOP内の多数のフレームを記述し得、およびフレームシンタックスデータは、対応のフレームをエンコードするために用いられるエンコーディング/予測モードを示し得る。
[0061]図2は、本開示に記載された観点にしたがった技術を実施し得るビデオエンコーダの例を示すブロック図である。ビデオエンコーダ20は、本開示の技術のうちのいずれかまたは全てを実行するように構成され得る。1つの例として、モード選択ユニット40は、本開示に記載された技術のうちのいずれかまたは全てを実行するように構成され得る。しかし、本開示の観点はそれに限定されることはない。いくつかの例において、本開示に記載された技術は、ビデオエンコーダ20の種々の構成要素の間で共有され得る。1つの例として、モード選択ユニット40に加えて、あるいはその代わりに、本開示に記載された技術のうちのいずれかまたは全てを実行するように構成され得る。
[0062]いくつかの実施例において、モード選択ユニット40、動き推定ユニット42、動き補償ユニット44、画面内予測ユニット46(または、図示されたあるいは不図示のモード選択ユニット40の別の構成要素)、またはエンコーダ20の別の構成要素(図示されたあるいは不図示の)が、本開示の技術を実行し得る。例えば、モード選択ユニット40は、エンコードするためのビデオデータを受け取り得、それは、基本層および対応する1つまたは複数の拡張層にエンコードされ得る。モード選択ユニット40、動き推定ユニット42、動き補償ユニット44、画面内予測ユニット46、またはエンコーダ20の別の適切なユニットは拡張層重みと基本層重みを決定し得る。エンコーダ20の適切なユニットは、差分ビデオ層に基づく現在のビデオユニットの値、拡張層重みによって重み付けられた拡張層におけるビデオユニットの値、基本層重みによって重み付けられた基本層におけるビデオユニットの値を決定し得る。エンコーダ20は、現在のビデオユニットをエンコードしおよびビットストリーム内の拡張層重みと基本層重みに信号を送ることができる。
[0063]ビデオエンコーダ20は、ビデオスライス内のビデオブロックの画面内および画面間符号化を実行し得る。画面内符号化は、所与のビデオフレームまたは画像の範囲内でビデオ内の空間冗長性を低減または除去するために空間予測に依存する。画面間符号化は、ビデオシーケンスの隣接するフレームまたは画像の範囲内でビデオ内の時間の冗長性を低減または除去するために時間予測に依存する。画面内モード(Iモード)とは、種々の空間ベースの符号化モードのいずれかを指し得る。単方向予測(Pモード)または双方向予測(Bモード)のような画面間モードは、種々の時間ベースの符号化モードのいずれかを指し得る。
[0064]図2に示されるように、ビデオエンコーダ20は、エンコードされるビデオフレーム内の現在のビデオブロックを受信する。図1の例において、ビデオエンコーダ20は、モード選択ユニット40、参照フレームメモリ64、アナログ加算器50、変換処理ユニット52、量子化ユニット54、およびエントロピーエンコーディングユニット56を含む。モード選択ユニット40は、順に、動き補償ユニット44、動き推定ユニット42、画面内予測ユニット46、および区分ユニット48を含む。ビデオブロックの再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58、逆変換ユニット60、およびアナログ加算器62を含む。非ブロック化フィルタ(図2にでは不図示)はまた、再構成されたビデオからブロックノイズアーチファクトを除去するように、ブロック境界にフィルタをかけるために含まれ得る。所望される場合、非フロック化フィルタは通常、アナログ加算器62の出力にフィルタをかけることもある。追加のフィルタ(ループ内またはループの後)はまた、非フロック化フィルタに加えて用いられ得る。こういったフィルタは簡潔のために不図示であるが、所望される場合、アナログ加算器50の出力にフィルタをかけ得る(ループ内フィルタとして)。
[0065]エンコーディングの過程の間、ビデオエンコーダ20は、エンコードされるビデオフレームまたはスライスを受信する。フレームまたはスライスは、複数のビデオブロックに分割され得る。動き推定ユニット42と動き補償ユニット44は、時間予測を提供するために、1つまたは複数の参照フレーム内の1つまたは複数のブロックと比較して受信されたビデオブロックの画面間予測符号化を実行する。画面内予測ユニット46は代替として、空間予測を提供するために符号化されるブロックと同じフレームまたはスライス内の1つまたは複数の隣接するブロックと比較して、受信されたビデオブロックの画面内予測符号化を実行し得る。ビデオエンコーダ20は、例えば、ビデオデータの各ブロックに適切な符号化モードを選択するために複数の符号化パスを実行し得る。
[0066]さらに、区分ユニット48は、前の符号化パス内の前の区分スキームの評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。例えば、区分ユニット48は、フレームまたはスライスを複数のLCUに初めに区分し得、および速度ひずみ(rate−distortion)解析(例えば、速度ひずみ最適化)に基づいて、LCUのそれぞれをサブCUに区分し得る。モード選択ユニット40はさらに、LCUをサブCUへ区分することを示す四本木データ構造を生成し得る。四本木の葉ノードCUは、1つまたは複数のPUと1つまたは複数のTUを含み得る。
[0067]モード選択ユニット40は、例えば、エラー結果に基づいて、画面内または画面間符号化モードのうちの1つを選択し、そして残りのブロックデータを生成するためにアナログ加算器50におよび参照フレームとして使用するためのエンコードされたブロックを再構成するためにアナログ加算器62に結果としての画面内または画面間符号化ブロックを提供する。モード選択ユニット40はまた、動きベクトル、画面内モードインジケータ、区分情報、および他のこういったシンタックス情報のようなシンタックスエレメントをエントロピーエンコーディングユニット56に提供する。
[0068]動き推定ユニット42と動き補償ユニット44は、概念的な目的で別々に例示されるが、高度に統合さ得る。動き推定ユニット42によって実行される動き推定は、ビデオブロックに関する動きを推定する動きベクトルを生成する過程である。動きベクトルとは例えば、参照フレーム(または他の符号化されたユニット)内の予測ブロックと比較し、現在のフレーム(または他の符号化されたユニット)内で符号化中の現在のブロックと比較した現在のビデオフレームまたは画像内のビデオブロックのPUの置換を示し得る。予測ブロックとは、画素差の点から、符号化されるべきブロックに正確に一致していることがわかるブロックであり、それは、絶対差分値(SAD)の和、正方差(SSD)の和、または他の差分メトリックによって決定され得る。いくつかの例において、ビデオエンコーダ20は、参照フレームメモリ64内に格納された参照画像のサブ整数画素位置に関する値を計算し得る。例えば、ビデオエンコーダ20は、参照画像の4分の1画素位置、8分の1画素位置、または他の分数画素位置の値を補完し得る。それ故に、動き推定ユニット42は、フル画素位置と分数画素位置とを比較して動き検出を実行し、および分数画素精度を用いて動きベクトルを出力する。
[0069]動き推定ユニット42は、PUの位置を参照画像の予測ブロックの位置と比較することによって、画面間符号化したスライス内のビデオブロックのPUに関する動きベクトルを計算する。参照画像は、第1の参照画像リスト(リスト0)または第2の参照画像リスト(リスト1)から選択され得、画像リストのそれぞれは、参照フレームメモリ64内に格納された1つまたは複数の参照画像を識別する。動き推定ユニット42は、エントロピーエンコーディングユニット56と動き補償ユニット44へ、計算された動きベクトルを送る。
[0070]動き補償ユニット44によって実行された動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて、予測ブロックを取り出すことまたは生成することを抱合し得る。さらに、動き推定ユニット42と動き補償ユニット44は、いくつかの例において、機能的に統合され得る。現在のビデオブロックのPUに関する動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照画像リストのうちの1つを指す予測ブロックを特定し得る。アナログ加算器50は、下記で論じられるように、符号化中の現在のビデオブロックの画素値から予測ブロックの画素値を差し引き、画素差分値を形成することにより、残りのビデオブロックを形成する。一般的に、動き推定ユニット42は、ルマ構成要素と比較して動き推定を実行し、および動き補償ユニット44は、クロマ構成要素とルマ構成要素の両方に関するルマ構成要素に基づいて計算された動きベクトルを用いる。モード選択ユニット40はまた、ビデオスライスのビデオブロックをデコードする際に、ビデオデコーダ30が用いるビデオブロックとビデオスライスと関連付けられるシンタックスエレメントを生成し得る。
[0071]画面内予測ユニット46は、上述したとおり、動き推定ユニット42と動き補償ユニット44によって実行された画面間予測の代わりとして、現在のブロックを画面内予測し得る。特に、画面内予測ユニット46は、現在のブロックをエンコードするために使用するため、画面内予測モードを決定し得る。いくつかの例において、画面内予測ユニット46は、例えばエンコーディングパスを分割する間、種々の画面内予測モードを用いて現在のブロックをエンコードし得、および画面内予測ユニット46(またはいくつかの例におけるモード選択ユニット40)は、テストされたモードから使用に適切な画面内予測モードを選択し得る。
[0072]例えば、画面内予測ユニット46は、種々のテストされた画面内予測モードに関する速度歪み解析を用いて速度歪み値を計算し、およびテストされたモードのうちの最適な速度歪みの特性を有する画面内予測モードを選択し得る。速度歪み解析は一般的に、エンコードされたブロックを生成するために用いられるビットレート(すなわち、ビットの数)と同様に、エンコードされたブロックとエンコードされたブロックを生成するためにエンコードされた元のエンコードされなかったブロックの間の歪み(または誤差)の量を決定する。画面内予測ユニット46は、画面内予測モードがブロックに関する最適な速度歪み値を提示しているかを判断するために、種々のエンコードされたブロックに関する速度と歪みから割合を計算し得る。
[0073]ブロックに関する画面内予測モードを選択した後、画面内予測ユニット46は、ブロックに関する選択された画面内予測モードを示す情報をエントロピーエンコーディングユニット56に提供し得る。エントロピーエンコーディングユニット56は、選択された画面内予測モードを示す情報をエンコードし得る。ビデオエンコーダ20は、複数の画面内予測モードインデックステーブルと複数の修正された画面内予測モードインデックステーブル(コードワードマッピングテーブルとも称される)を含み得る送信されたビットストリーム構成データ内に、種々のブロックに関するエンコーディングコンテキストの定義と最も可能性のある画面内予測モードの指示、および各コンテキストを使用するための修正された画面内予測モードインデックステーブルと画面内予測モードインデックステーブルを含み得る。
[0074]ビデオエンコーダ20は、符号化中の元のビデオブロックから、モード選択ユニット40からの予測データを差し引くことによって残りのビデオブロックを形成する。アナログ加算器50は、構成要素またはこの差し引き動作を実行する複数の構成要素を表す。変換処理ユニット52は、ディスクリートコサイン変換(DCT)または概念上類似する変換のような変換を残りの変換係数値を備えるビデオブロックを生成する残りのブロックに適用する。変換処理ユニット52は、DCTに概念上類似する他の変換を実行し得る。ウェイブレット変換、整数変換、サブ帯域変換、または他のタイプの変換もまた用いられる。いずれかの場合において、変換処理ユニット52は変換を残りの変換ブロックに適用し、残りの変換係数のブロックを生成する。変換は、画素値領域からの残りの情報を周波数領域のような変換領域へコンバートし得る。変換処理ユニット52は、生じた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、さらにビットレートを低減するために変換係数を量子化する。量子化の過程は、係数のうちのいずれかまたは全てと関連付けられるビット深さを減じ得る。量子化の程度は量子化パラメータを調整することによって修正され得る。いくつかの例において、量子化ユニット54は次に、量子化された変換係数を含むマトリックスの走査を実行し得る。代替として、エントロピーエンコーディングユニット56は走査を実行し得る。
[0075]量子化に続いて、エントロピーエンコーディングユニット56は量子化された変換係数をエントロピー符号化する。例えば、エントロピーエンコーディングユニット56は、コンテキスト適応可変長符号化(CAVLC)、コンテキスト適応バイナリ算術符号化(CABAC)、シンタックスベースのコンテキスト適応バイナリ算術符号化(SBAC)、確立区間区分エントロピー(PIPE)符号化、または別のエントロピー符号化技術を実行し得る。コンテキストベースのエントロピー符号化の場合において、コンテキストは隣接するブロックに基づき得る。エントロピーエンコーディングユニット56によるエントロピー符号化に続いて、エンコードされたビットストリームは、別のデバイス(例えば、ビデオデコーダ30)に送信されるか、または後の送信または検索のためにアーカイブされ得る。
[0076]逆量子化ユニット58と逆変換ユニット60は、例えば、後に参照ブロックとして用いるために、画素領域内に残りのブロックを再構成するために、それぞれ逆量子化と逆変換を適用する。動き補償ユニット44は、参照フレームメモリ64の複数のフレームのうちの1つの予測ブロックに残りのブロックを追加することによって参照ブロックを計算し得る。動き補償ユニット44はまた、動き推定の際に使用するためのサブ整数画素値を計算するために、再構成された残りのブロックに1つまたは複数の補間フィルタを適用し得る。アナログ加算器62は、参照フレームメモリ64に格納するために再構成されたビデオブロックを生成するために、動き補償ユニット44によって生成された動き補償された予測ブロックに再構成された残りのブロックを追加する。再構成されたビデオブロックは、後続のビデオフレーム内のブロックを画面間符号化するための参照ブロックとして動き推定ユニット42と動き補償ユニット44によって用いられ得る。
[0077]図3は、本開示に記載された観点にしたがった技術を実施し得るビデオデコーダの例を示すブロック図である.ビデオデコーダ30は、本開示の技術のうちのいずれかまたは全てを実行するように構成され得る。1つの例として、動き補償ユニット72および/または画面内予測ユニット74は、本開示に記載された技術のうちのいずれかまたは全てを実行するように構成され得る。しかし、本開示の観点はそれに限定されるものではない。いくつかの例において、本開示に記載された技術は、ビデオデコーダ30の種々の構成要素のうちで共有され得る。いくつかの例において、ビデオデコーダ30に加えて、あるいはその代わりに、本開示に記載れた技術のうちのいずれかまたは全てを実行するように構成され得る。
[0078]いくつかの実施例において、エントロピーデコーディングユニット70、動き補償ユニット72、画面内予測ユニット74、またはデコーダ30の別の構成要素(図示されたまたは不図示)は本開示の技術を実行し得る。例えば、エントロピーデコーディングユニット70は、エンコードされたビデオビットストリームを受け取り得、それは、基本層および対応する1つまたは複数の拡張層に関するデータをエンコードし得る。動き補償ユニット72、画面内予測ユニット74、またはデコーダ30の別の適切なユニットは、拡張層重みと基本層重みを決定し得る。デコーダ30の適切なユニットはまた、差分ビデオ層に基づいて現在のビデオユニットの値、拡張層重みによって重み付けられた拡張層重み内のビデオユニットの値、基本層重みによって重み付けられた基本層におけるビデオユニットの値を決定し得る。デコーダ30は、現在のビデオユニットをデコードしおよびビットストリーム内の拡張層重みと基本層重みを受信することができる。デコーダ30はまた、ビットストリーム内の情報から拡張層重みと基本層重みを少なくとも部分的に抽出し得る。
[0079]図3の例において、ビデオデコーダ30は、エントロピーデコーディングユニット70、動き補償ユニット72、画面内予測ユニット74、逆量子化ユニット76、逆変換ユニット78、参照フレームメモリ82、およびアナログ加算器80を含む。ビデオデコーダ30は、いくつかの例において、ビデオエンコーダ20(図2)と関連して説明されるエンコーディングパスと一般的に相互関係のあるデコーディングパスを実行し得る。動き補償ユニット72は、エントロピーデコーディングユニット70から受信された動きベクトルに基づいて予測データを生成し得、その一方で、画面内予測ユニット74は、エントロピーデコーディングユニット70から受信された画面内予測モードインジケータに基づいて予測データを生成し得る。
[0080]デコーディング過程の間に、ビデオデコーダ30は、ビデオエンコーダ20から、エンコードされたビデオスライスのビデオブロックを表すエンコードされたビデオビットストリームと、関連するシンタックスエレメントを受信する。ビデオデコーダ30のエントロピーデコーディングユニット70は、量子化された係数、動きベクトルまたは画面内予測モードインジケータ、および他のシンタックスエレメントを生成するために、ビットストリームをエントロピーデコードする。エントロピーデコーディングユニット70は、動きベクトルと他のシンタックスエレメントを動き補償ユニット72へ転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックスエレメントを受信し得る。
[0081]ビデオスライスが画面内符号化(I)スライスとして符号化される場合、画面内予測ユニット74は、信号で伝えられた画面内予測モードと現在のフレームまたは画像の予めデコードされたブロックからのデータに基づいて、現在のビデオスライスのビデオブロックに関する予測データを生成し得る。ビデオフレームが画面間符号化(例えばB、P、またはGPB)スライスとして符号化される場合、動き補償ユニット72は、動きベクトルとエントロピーデコーディングユニット70から受信された他のシンタックスエレメントに基づいて、現在のビデオスライスのビデオブロックに関する予測ブロックを作成する。予測ブロックは、参照画像リストのうちの1つ内の参照画像のうちの1つから作成され得る。ビデオデコーダ30は、参照フレームメモリ92に格納された参照画像に基づくデフォルトの再構成技術を用いて、参照フレームリスト、すなわちリスト0とリスト1を構成し得る。動き補償ユニット72は、動きベクトルと他のシンタックスエレメントを解析することによって現在のビデオスライスのビデオブロックに関する予測情報を決定し、およびデコード中の現在のビデオブロックに関する予測ブロックを作成するために予測情報を使用する。例えば、動き補償ユニット72は、ビデオスライスのビデオブロック、画面間予測スライスのタイプ(例えば、Bスライス、Pスライス、またはGPBスライス)、スライスに関する1つまたは複数の参照画像リストに関する再構成情報、スライスの各画面間エンコードされたビデオブロックに関する動きベクトル、スライスの各画面間エンコードされたビデオブロックに関する画面間予測ステータス、および現在のビデオスライス内のビデオブロックをデコードするための他の情報を符号化するために用いられる予測モード(例えば、画面内または画面間予測)を決定するために受信されたシンタックスエレメントのうちのいくつかを使用する。
[0082]動き補償ユニット72はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット72は、参照ブロックのサブ整数画素に関する補間値を計算するために、ビデオブロックのエンコーディングの間にビデオエンコーダ20によって用いられるような補間フィルタを用い得る。この場合、動き補償ユニット72は、受信されたシンタックスエレメントからビデオエンコーダ20によって用いられる補間フィルタを決定し、および予測ブロックを生成するために補間フィルタを用い得る。
[0083]逆量子化ユニット76は、例えば、ビットストリームに提供されおよびエントロピーデコーディングユニット80によってデコードされた量子化変換係数を量子化、例えば逆量子化する。逆量子化の過程は、量子化の程度、および同じく適用されるべき逆量子化の程度を決定するために、ビデオスライス内の各ビデオブロックにビデオデコーダ30によって計算された量子化パラメータQPを使用することを含み得る。
[0084]逆変換ユニット78は、画素領域に残りのブロックを生成するための変換係数に、逆変換、例えば、逆DCT、逆整数変換、または概念上類似する逆変換の過程を適用する。
[0085]動き補償ユニット82が、動きベクトルに基づいて現在のビデオブロックに関する予測ブロックを生成した後、ビデオデコーダ30を介した他のシンタックスエレメントは、動き補償ユニット72によって生成された対応する予測ブロックを用いて、逆変換ユニット78からの残りのブロックを加算することによって、デコードされたビデオブロックを形成する。アナログ加算器90とは、構成要素またはこの加算演算を実行する構成要素を表す。所望の場合、非ブロック化フィルタはまた、ブロッキネスアーチファクトを除去するための復号されたブロックにフィルタをかけるために適用され得る。他のループフィルタ(符号化ループ内、または符号化ループ後)はまた、画素遷移をスムーズにするために用いられ得、それ以外にはビデオ品質を向上する。所与のフレームまたは画像内のデコードされたビデオブロックは次に、次の動き補償に用いられる参照画像を格納する参照画像メモリ92に格納される。参照フレームメモリ82はまた、図1のディスプレイデバイス32のようなディスプレイデバイスに後で表示するために復号されたビデオを格納する。
[0086]図4および図4Aは、本開示の観点にしたがった適応重み付け差分領域参照用再構成を示す概念図である。上で説明したとおり、差分領域は、多くの高周波成分を含み得る。差分領域の高周波の特質は、異なる量子化または空間解像度で動作する拡張層(EL)と基本層(BL)に起因し得る。こういった場合、差分領域フレーム(difference domain frames)を取得するためにELと再構成されたBLフレームの間の差分を取ることは高周波成分をもたらすことになり、こういった高周波成分の符号化は良質な速度歪みのトレードオフをもたらし得ない。同様に、ELと再構成されたBLフレームは、再構成されたBLがELの解像度にマッチするようにアップサンプルされる場合に差分空間解像度で動作している可能性がある。この演算は、それらの間の相関関係を低減しおよび符号化するのが難しい高周波差分領域成分へと導いていた。
[0087]したがって、本開示の技術は、差分領域に関する参照フレームを生成するために、EL内の参照フレームと再構成されたBL内の参照フレームに重み付け値を割り当て得る。同様に、本開示の技術は、差分領域に関する空間隣接画素を生成するために、EL内の空間隣接画素と再構成されたBL内の空間隣接画素に重み付け値を割り当て得る。実際の重み付け値は、異なる要素の数に基づき得る。こういった要素はELとBLの類似性を含み得る。別の要素は、層が強い時間の相関関係を有するかどうかであり得る。ELが、再構成されたBLより強い時間の相関関係を有する場合、より多くの重みがEL参照フレームに付与され得る。第1の重み値は、EL参照フレームに割り当てられ得、および第2の値は再構成されたBL参照フレームに割り当てられ得る。ELに関する第1の重み値は「EL重み」と称され得、および再構成されたBL層に関する第2の重み値は、「BL重み」と称され得る。図4において、EL重みは、W1によって示され、およびBL重みはWによって示される。
[0088]ELおよびBL重み値は上記の参照フレームの観点から説明された。しかし、ELおよびBL重み値はまた現在のフレームにも割り当てられ得る。それ故に、時間内の所与のポイントにおけるELフレームと対応する再構成されたBLフレームはそれぞれEL重みとBL重みを持つことができる。例えば、時間Tと時間Tにおけるフレームは、画面間予測に使用される。T1におけるELと再構成されたBLは、対応するW1とWの値を有し、およびTにおけるELと再構成されたBLは、対応するW1とWの値を有し、それらは、T1におけるW1とWとは異なり得る。時間内の各ポイントに関する差分再構成フレーム(または差分領域フレーム)は、W1によって重み付けられたELとWによって重み付けられた再構成されたBLとの間の差分を取ることによって生成され得る。差分領域内の画面間予測は、T1における差分再構成フレームとTにおける差分再構成フレームを取り、および差分領域の残りを生成するために相互にそれらを予測することによって実行される。したがって、ELと再構成されたBLへの重みつけは差分領域内の画面間予測に影響を及ぼす可能性がある。時間内の各ポイントに関する画面内予測に関する差分空間隣接画素(difference spatial neighboring pixels)(または差分領域空間隣接画素)は、W1によって重み付けられたELとWによって重み付けられた再構成されたBLとの間の差分を取ることによって生成され得る。差分領域内の画面内予測は、T1における現在の差分再構成予測ユニットとT1における差分再構成空間隣接画素を取り、および差分領域の残りを生成するために相互にそれらを予測することによって実行される。したがって、ELと再構成されたBLへの重みつけは差分領域内の画面間予測に影響を及ぼすことができる。
[0089]本開示の技術にしたがった適応重み付け差分領域の参照用再構成は次に、図4および図4Aを参照してさらに詳細に説明されるだろう。いくつかの実施例において、適応重み付け差分領域の再構成は、下記の式にしたがって計算され得る。
式(1)において、Diff Reconは差分領域の再構成を指し、EL Reconは拡張層の再構成を指し、BL Reconは基本層の再構成を指す。いくつかの実施例において、ラウンド値は、下記の式にしたがって重み付け差分領域の再構成を計算している間に加えられる可能性がある。
ラウンド値は、符号化されるか、またはHEVCでサポートされる異なるシンタックスレベルにおいてデフォルトの値であると過程され得る。例えば、ラウンド値は、シーケンスヘッダ、画像ヘッダ、スライスヘッダ、LCUヘッダ、およびCUレベルシンタックスにおいてサポートされ得る。いくつかの実施例において、より微細なラウンド値は、異なる粒状のシンタックスレベルにおいて速度歪み(R−D)最適化の基準によって選択され得る。
[0090]図4の例において、式(2)は、層からフレームに重みを適応的に割り当てるために、時刻(例えばT1とT)の異なる位置におけるELと再構成されたBLフレームに適用される。T1において、それぞれ拡張層参照(ELR)と再構成された基本層参照(BLR)は、拡張層差分参照(ELDR)を生成するために、W1とWによって重み付けられる。ELDRは差分再構成フレームを指す。ELDRは、下記の式(2)にしたがって計算され得る。
同様に、Tにおいて、拡張層現在(ELC)と再構成された基本層現在(BLC)は、拡張層差分現在(ELDC)を生成するために、それぞれW1とWによって重み付けられる。ELDCは差分再構成フレームを指す。ELDCは、下記の式(2)にしたがって計算され得る。
画面間予測は、拡張層差分残余(ELDR)を生成するために、拡張層差分参照(ELDR)と拡張層差分現在(ELDC)を用いて実行され得る。ELDRは、下記の式にしたがって計算され得る。
上記の式は、拡張層差分残余と称され得る差分領域内の動きベクトル基づく動き補償を介して取得されるELDRとELDCの間の差分を示す。いくつかの例において、エンコーダの単純化の目的のために、エンコーダは、差分領域の動きベクトルの代わりに、非差分領域または画素領域の動きベクトルを選択し得る。次に,上記の式は下記の式に成る。
これは非規範的演算であり、および差分領域の動きベクトルを取得するために差分領域において動き推定を行うことを選択するか、または画素領域の動きベクトルを得るために画素領域上で動き推定を行うかはエンコーダ次第であり得る。いくつかの例において、図4Aに示されるように、画面内予測はまた、拡張層差分残余(ELDR)を生成するために、拡張層差分隣接画素(ELDNAとELDNB)と拡張層差分現在のPU(ELDC)を用いて実行され得る。ELDRは、下記の式にしたがって計算され得る。
上記の式は、イントラモードに基づいて取得されたELDNとELDCの間の差分を示し、それは拡張層差分残余と称され得る。
[0091]適応重み付け差分領域参照用再構成において、EL重みとBL重みは複数の数の任意の組み合わせであり得る。いくつかの例は、例示目的のために下記に提供される。W1とWが両方1に等しい場合、適応差分領域の再構成は従来の差分領域の再構成と同じであり、そこで、全体の再構成されたBLフレームはELフレームから差し引かれる。それ故に、従来の差分領域の再構成は、Diff Recon = (EL Recon − BL Recon)と表され得る。表1は、W1とWおよび式(1)の対応する形式の組み合わせのいくつかの例を提供する。
= 1およびW1 = 0.25の場合、再構成されたBLフレームは、25%で重み付けられ、および差分領域フレームを形成するために、EL拡張層フレームから差し引かれる。式(1)は、表1に示されたように、Diff Recon = (EL Recon −0.25 * BL Recon)まで低減する。W = 1およびW1 = 0.5の場合、再構成されたBLフレームは、50%で重み付けられ、および式(1)はDiff Recon = (EL Recon − 0.5 * BL Recon)まで低減する。W = 1およびW1 = 0.25の場合、再構成されたBLフレームは、75%で重み付けられ、および式(1)はDiff Recon = (EL Recon − 0.5 * BL Recon)まで低減する。いくつかの実施例において、式(1)を用いる場合、W1はWより大きくおよびW1は2のべきである。上記で説明したとおり、ラウンド因子が追加され得る。
[0092]ELとBLの重みは、異なるシンタックスレベルにおいて符号化され得る。例えば、HEVCにおいて、適応重み値は、シーケンスヘッダ、画像ヘッダ、スライスヘッダ、およびLCUヘッダ、およびCUレベルシンタックスでサポートされ得る。いくつかの実施例において、より微細な適応重みは、異なる粒状のシンタックスレベルにおいて速度歪み(R−D)最適化の基準によって選択され得る。
[0093]いくつかの実施例において、ELとBL重みは、ELおよび再構成されたBL層に適応重みが用いられることを示すフラグ(例えば、「weighted_difference_domain_recon_flag」)を用いて信号伝達され得る。フラグは、下記のシーケンスヘッダ、画像ヘッダ、スライスヘッダ、およびLCUヘッダ、およびCUなどのシンタックスレベルにおいて追加され得る。ELとBL重みは1に初期化され得る。1つの実施例において、WとW1に関するデルタオフセット値が信号伝達される。別の実施例において、WとW1の値は予め定義され得、および予め定義されたWとW1の値の特定のセットを示すインデックスが信号伝達される。
[0094]図4と図4Aは、ほとんどフレームの観点から説明したが、本開示の観点にしたがった技術は、ビデオ情報ユニットの様々なレベルで実施され得る。例えば、図4および図4Aに関連して説明された本開示の観点にしたがった技術は、フレーム、スライス、ブロック、および画素レベルで実施され得る。さらに、図4および図4Aに関連して説明された全ての実施例は別々にまたは相互に組合せて実施され得る。
[0095]図5および図5Aは、本開示の観点にしたがった差分領域参照のスムージングを示す概念図である。差分領域は高周波成分を抱合する可能性が高いので、画面間または画面内予測は、隣接する時間参照フレームまたは空間参照画素が弱い時間/空間の相関関係またはELと再構成されたBLの間の弱い相関関係を持つフレームを用いて計算される場合、好適な予測結果につながり得ない。そのため、この技術は、差分領域内に存在する可能性の高い高周波ノイズを減じるための差分領域内の参照フレームに、スムージングフィルタまたはローパスフィルタを適用し得る。この技術は、計算の複雑性を加えることなくテクスチャを保持するために単純なスムージングフィルタを適用し得る。スムージングフィルタの1つの例は、1:2:1のフィルタをかけることであるが、任意のスムージングフィルタが適用され得る。スムージングフィルタの選択は、高周波ノイズの削減が付加的な計算の複雑性から生じるコストより利点を提供できるがどうかに依存し得る。
[0096]いくつかの実施例において、スムーズされた差分領域予測の使用は、フラグ(例えば、「smoothed_difference_domain_prediction_flag」を用いて示され得る。1つの実施例において、新しい予測モードは、スムーズされた差分領域予測(例えば、「スムーズされた差分領域予測モード」)のために定義され得、およびフラグは、この新しい予測モードが使用されることを示し得る。特定の実施例において、新しい予測モードは、速度歪み(R−D)最適化の基準に基づいて適応的に選択され得る。フラグは、下記のシンタックスレベル、シーケンスヘッダ、画像ヘッダ、スライスヘッダ、およびLCUヘッダ、およびCUに追加され得る。図5に関連して説明された全ての実施例は、別々にまたは相互に組合せて実施され得る。
[0097]図5Aは図5に類似しているが、図5Aは、差分領域参照を用いる画面間予測の代わりに、差分領域空間の隣接を用いる画面内予測のコンテキストにおけるスムージングを示す。
[0098]図5は、ほとんどフレームに関して説明したが、本開示の観点にしたがった技術は、ビデオ情報ユニットの種々のレベルで実装され得る。例えば、図5に関連して説明された本開示の観点にしたがった技術はフレーム、スライス、ブロック、および画素レベルに実装され得る。さらに、図5および図5Aに関連して説明された全ての実施例は別々にまたは相互に組合せて実施され得る。
[0099]図6および図6Aは、本開示の観点にしたがった差分領域参照を適応的に生成するための方法の例を示すフローチャートである。過程600は、エンコーダ(例えば、図2などに示されるようなエンコーダ)またはデコーダ(例えば、図3などに示されるようなデコーダなど)によって実行され得る。過程600のブロックは、図2におけるエンコーダ20に関連して説明されるが、過程600は上述したように、デコーダのような他の構成部品によって実行され得る。同様に、過程600Aは、エンコーダまたはデコーダによって実行され得る。過程600Aのブロックは、図2におけるエンコーダ20に関連して説明されるが、過程600Aは、上述したように、デコーダのような他の構成要素によって実行され得る。
[00100]ブロック601において、エンコーダ20は、EL重みと再構成されたBL重みを決定する。EL重みとBL重みは、異なる要素の数に基づき得る。こういった要素の1つは、ELと再構成されたBLの間の類似性であり得る。関連要素の別の例は、EL内の時間の相関関係であり得る。再構成されたBL内の時間の相関関係はまた、関連する要素でもあり得る。いくつかの実施例において、EL重みはBL重みより大きくても良い。他の実施例において、BL重みはEL重みより大きくても良い。EL重みとBL重みは符号化標準(例えばHEVC)によってサポートされる種々のシンタックスレベルに割り当てられ得る。
[00101]ブロック602において、エンコーダ20は、決定されたEL重みとBL重みをEL参照と再構成されたBL参照に適用する。ブロック603において、エンコーダ20は、重みつけられたEL参照から重みつけられた再構成されたBL参照を差し引くことによって差分領域参照を計算する。ブロック604において、エンコーダ20は、時間内の異なるポイントにおける適応的に重み付けられた差分領域参照に基づいて、画面間予測を実行する。図6に関連して説明された方法の例は、種々のシンタックスレベルにおいて実施され得る。
[00102]図6Aにおける過程600Aは、図6における過程600と類似しているが、過程600Aは、差分領域参照を用いる画面間予測の代わりに、差分領域空間の隣接を用いて画面内予測を実行する。例えば、ブロック604Aにおいて、エンコーダ20は、時間内の同じポイントにおいて、適応的に重み付けられた差分領域空間の隣接を用いて画面内予測を実行する。
[00103]図6Bは、本開示の観点にしたがった差分領域参照を適応的に生成するための別の方法の例を示すフローチャートである。過程600Bは、エンコーダ(例えば、図2などに示されるようなエンコーダ)またはデコーダ(例えば、図3に示されるようなデコーダ)によって実行され得る。過程600Bのブロックは、図2におけるエンコーダ20に関連して説明されるが、過程600Bは、上述されたように、デコーダのような他の構成要素によって実行され得る。図6Bに関連して説明された全ての実施例は、別々にまたは相互に組合せて実施され得る。
[00104]ブロック601Bにおいて、エンコーダ20は、拡張層重みと基本層重みを決定する。いくつかの実施例において、拡張層と基本層からのビデオユニットは、例えばより良い予測結果または速度歪みトレードオフを取得するために、別に重み付けられ得る。1つの実施例において、拡張層重みと基本層重みは、拡張層と基本層の間の類似性に基づいて決定され得る。例えば、基本層重みは、2つの層が類似していない場合、拡張層重みと比較して低減され得る。類似性は、例えば、拡張層と基本層の間の時間の相関関係または空間の相関関係に基づき得る。拡張層重みは、拡張層におけるビデオユニットに適用され、および基本層重みは、基本層におけるビデオユニットに適用される。
[00105]ブロック602Bにおいて、エンコーダ20は、拡張層重みを拡張層におけるビデオユニットの値に適用し、および基本層重みを基本層におけるビデオユニットの値に適用する。拡張層におけるビデオユニットと基本層におけるビデオユニットは、それぞれ各層からの参照ビデオユニットであり得る。拡張層重みと基本層重みは、次のフレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素などのシンタックスレベルを含む任意の符号化レベルにおいて適用され得るが、それに限定されることはない。拡張層重みと基本層重みはビットストリームにおいて信号伝達され得るか、またはビットストリーム内の情報から少なくとも部分的に抽出され得る。
[00106]ブロック603Bにおいて、エンコーダ20は、差分ビデオ層に基づく現在のビデオユニットの値、拡張層重みによって重み付けられた拡張層におけるビデオユニットの値、基本層重みによって重み付けられた基本層におけるビデオユニットの値を決定し得る。差分ビデオ層は差分領域を指し得る。ビデオユニットはビデオデータの任意のユニットであり得、およびフレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を含むことができるが、それに限定されることはない。現在のビデオユニットの値は、現在のビデオユニットに関する予測ユニット(PU)を生成することよって決定され得る。いくつかの実施例において、現在のユニットは差分ビデオ層と関連付けられる差分ビデオユニットである。現在のビデオユニットの値は、差分ビデオ層と関連付けられる差分空間隣接ビデオユニットまたは差分参照ビデオユニットに基づいて決定され得る差分参照ビデオユニットまたは差分空間隣接ビデオユニットは、重み付けられた拡張層ビデオユニットと重み付けられた基本層ビデオユニットの差分から抽出され得る。
[00107]図7は、本開示の観点にしたがった差分領域参照をスムージングするための方法の例を示すフローチャートである。過程700は、エンコーダ(例えば、図2などに示されるようなエンコーダ)またはデコーダ(例えば、図3などに示されるようなデコーダ)によって実行され得る。過程700のブロックは、図2におけるエンコーダ20に関連して説明されるが、過程700は、上述したように、デコーダのような他の構成要素によって実行され得る。
[00108]ブロック701において、エンコーダ20は、スムージングフィルタを差分領域参照または空間隣接画素に適用するかどうかを決定する。例えば、エンコーダ20は、差分領域参照または空間隣接画素が高周波成分を含んでいると判断し得る。エンコーダ20はまた、デフォルトとしてスムージングフィルタを適用することを選択し得る。エンコーダ20はまた、スムージングフィルタのアプリケーションによって要求される計算の複雑性に基づいてスムージングフィルタを適用するかどうかを決定し得る。ブロック702において、エンコーダ20は、スムージングフィルタを差分領域参照に適用する。ブロック703において、エンコーダ20は、それぞれスムーズされた差分領域参照または隣接画素に基づいて、画面間予測または画面内予測を実行する。図7に関連して説明された方法の例は、種々のシンタックスレベルにおいて実施され得る。
[00109図7Aは、本開示の観点にしたがった差分領域参照をスムージングするための方法の別の例を示すフローチャートである。過程700Aは、エンコーダ(例えば、図2において示されるようなエンコーダ)またはデコーダ(例えば、図3などにおいて示されるようなデコーダ)によって実行され得る。過程700Aのブロックは、図2におけるエンコーダ20に関連して説明されるが、過程700Aは、上述したように、デコーダのような他の構成要素によって実行され得る。図7Aに関連して説明された全ての実施例は、別々にまたは相互に組合せて実施され得る。
[00110]ブロック701Aにおいて、エンコーダ20は、スムージングフィルタを差分ビデオ層からの空間隣接ビデオユニットまたは参照ビデオユニットに適用する。差分ビデオ層は、差分領域を指し得る。差分ビデオ層からの参照ビデオユニットは、ビデオユニットに関して画面間予測を実行する際に用いられ得る。差分ビデオ層からの空間隣接ビデオユニットは、ビデオユニットに関して画面内予測を実行する際に用いられ得る。スムージングフィルタの例は3タップフィルタ、4タップフィルタ、6タップフィルタを含むことができるが、それらに限定されることはない。いくつかの実施例において、エンコーダ20は、1:2:1フィルタのようなローパスフィルタを適用する。他の実施例において、エンコーダ20はバンドパスフィルタまたはハイフィルタを適用し得る。
[00111]エンコーダ20は、スムージングフィルタを適用することからのビデオユニットをスムージングする利得と付加的な計算の複雑性のコストの間のトレードオフに基づいて、参照ビデオユニットまたは空間隣接ビデオユニットにスムージングフィルタを適用するかどうかを決定し得る。例えば、エンコーダ20は、ビデオユニットのテクスチャが多くの計算の複雑性を増すことなく保持され得る場合スムージングフィルタを適用することを決定し得る。
[00112]ブロック702Aにおいて、エンコーダ20は、参照ビデオユニットまたは空間隣接ビデオユニットに基づいてビデオユニットの値を決定する。ビデオユニットは、ビデオデータの任意のユニットであり得、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を含むことができるが、それらに限定されることはない。ビデオユニットの値はビデオユニットに関する予測ユニット(PU)を生成することによって決定され得る。
[00113]いくつかの実施例において、エンコーダ20は、参照ビデオユニットに基づく画面間予測、空間隣接ビデオユニットに基づく画面内予測、またはその両方を用いてビデオユニットの値を決定し得る。1つの実施例において、参照ビデオユニットは拡張層における参照ビデオユニットと基本層における参照ビデオユニットの差分から抽出され、そして拡張層における参照ビデオユニットは拡張層重みによって重み付けられ、および基本層における参照ビデオユニットは基本層重みによって重み付けられる。別の実施例において、空間隣接ビデオユニットは拡張層における空間隣接ビデオユニットと基本層における空間隣接ビデオユニットの差分から抽出され、そして拡張層における空間隣接ビデオユニットは拡張層重みによって重み付けられおよび基本層における空間隣接ビデオユニットは基本層重みによって重み付けられる。
[00114]特定の実施例において、エンコーダ20は、スムージングフィルタを参照ビデオユニットまたは空間隣接ビデオユニットに適用するための予測モードを定義し得る。エンコーダ20は、速度歪み最適化基準のような特定の基準に適応的にしたがって予測モードを選択し得る。他の実施例において、エンコーダ20はスムージングフィルタを参照ビデオユニットまたは空間隣接ビデオユニットに適用するためのフラグを定義し得る。こういったフラグは、ビットストリーム内に信号伝達され得、またはビットストリーム内で受信され得、またはビットストリーム内の情報から少なくとも部分的に抽出される。
[00115]例に依存して、ここに記載のいくつかの技術のうちの特定の動作または事象は、異なるシーケンスにおいて実行されることができ、追加されるか、マージされるか、または完全に除外され得る(例えば、記載された動作または事象の全てが技術の実施に必要ではない)ことが認識されるはずである。さらに、特定の例において、動作または事象は、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサを介して、連続的よりむしろ同時に実行され得る。
[00116]1つまたは複数の例において、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せに実装され得る。ソフトウェアに実装される場合、この機能は、コンピュータ可読媒体上に1つまたは複数の命令またはコードとして格納されるか、またはそれらを介して送信され、およびハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、コンピュータ可読記憶媒体を含み得、それはデータ記憶媒体のような実体のある媒体または、例えば、通信プロトコルにしたがって、1つの場所から別の場所へコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体に対応する。この仕方において、コンピュータ可読媒体は一般的に、(1)非一時的な実体のあるコンピュータ可読記憶媒体または(2)信号または搬送波のような通信媒体に対応し得る。データ記憶媒体は、ここに記載された技術の実施のための命令、コードおよび/またはデータ構造を検索するための1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る任意の入手可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[00117]限定ではなく例として、こういったコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光学ディスク記憶装置、磁気ディスク記憶装置、または他の磁気記憶デバイス、フラッシュメモリ、または命令の形式で望ましいプログラムコードまたはデータ構造を格納するために使用可能なおよびコンピュータによってアクセス可能な任意の他の媒体を備えることができる。同様に、任意の接続は適切にコンピュータ可読媒体と呼ばれる。例えば、命令が同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波のような無線技術を用いて、ウェブサイト、サーバ、または他の遠隔ソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波のような無線技術は、媒体の定義に含まれる。しかし、コンピュータ可読記憶媒体とデータ記憶媒体は、接続、搬送波、信号または他の一時的媒体を含まないが、代わりに非一時的で実体のある記憶媒体を対象にしていることが理解されるべきである。ディスク(disk)およびディスク(disc)は、ここで用いられるように、コンパクトディスク(CD)、レーザ―ディスク(登録商標)、光ディスク、デジタル多目的ディスク(DVD)、フロッピー(登録商標)ディスク、およびブルーレイディスクを含み、そこにおいて、ディスク(disk)は通常、データを磁気的に再生し、一方、ディスク(disc)は、レーザを用いて光学的にデータを再生する。上記の組合せはまた、コンピュータ可読媒体の範囲に含まれるべきである。
[00118]1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、アプリケーション特定集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価の集積またはディスクリート論理回路のような1つまたは複数のプロセッサによって実行され得る。従って、ここで用いられたような用語「プロセッサ」は、ここに記載された技術の実施に適した前述の構造または任意の他の構造のうちのいずれかを指し得る。さらに、いくつかの観点において、ここに記載された機能は、エンコーディングおよびデコーディングのために構成された、または組み合わされたコーデックに統合された専用のハードウェアおよび/またはソフトウェアモジュール内に提供され得る。同様に、技術は、1つまたは複数の回路または論理エレメント内で十分に実施されるだろう。
[00119]本開示の技術は、無線ハンドセット、集積回路(IC)またはICのセット(例えば、チップセット)を含む多種多様なデバイスまたは装置に実装され得る。種々の構成要素、モジュール、またはユニットは、開示された技術を実行するように構成されたデバイスの機能的な観点を強調するためにこの開示において説明されるが、異なるハードウェアユニットによる実現を必ずしも必要としない。むしろ、上述したとおり、種々のユニットは、コーデックハードウェアユニットに組み合されるか、または適切なソフトウェアおよび/またはファームウェアと連動して、上述されたような1つまたは複数のプロセッサを含む相互に動作可能なハードウェアユニットの収集によって提供され得る。
[00120]様々な例が説明されてきた。これらのおよびその他の例は、下記の請求項の範
囲内である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオ情報を符号化するように構成された装置であって、
前記装置は、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するように構成されたメモリユニットと、
前記メモリユニットと通信するプロセッサであって、
前記プロセッサは、
拡張層重みと基本層重みを決定し、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定する、
ように構成される、
プロセッサ、
を備える、
装置。
[C2]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C1に記載の装置。
[C3]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C1に記載の装置。
[C4]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C3に記載の装置。
[C5]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C1に記載の装置。
[C6]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C5に記載の装置。
[C7]
前記プロセッサは、前記現在のビデオユニットに関する予測ユニットを生成することによって前記現在のビデオユニットの値を決定するようにさらに構成される、C1に記載の装置。
[C8]
前記プロセッサは、前記差分ビデオ層における参照フレームに基づく画面間予測を用いて、前記現在のビデオユニットの前記値を決定するようにさらに構成される、C1に記載の装置。
[C9]
前記プロセッサは、前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて前記現在のビデオユニットの前記値を決定するようにさらに構成される、C1に記載の装置。
[C10]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C1に記載の装置。
[C11]
前記現在のビデオユニットの前記値は、W *前記拡張層ビデオユニット−W *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W は前記拡張層重みであり、およびW は前記基本層重みである、C1に記載の装置。
[C12]
前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、C11に記載の装置。
[C13]
前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、C12に記載の装置。
[C14]
前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、C1に記載の装置。
[C15]
前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、C1に記載の装置。
[C16]
前記基本層は再構成された基本層である、C1に記載の装置。
[C17]
前記プロセッサは、前記現在のビデオユニットをエンコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達するようにさらに構成される、C1に記載の装置。
[C18]
前記プロセッサは、前記現在のビデオユニットをデコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出するようにさらに構成される、C1に記載の装置。
[C19]
前記装置は、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、テレフォンハンドセット、スマートフォン、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、およびビデオストリーミングデバイスのうちの1つまたは複数から成るグループから選択される、C1に記載の装置。
[C20]
ビデオ情報を符号化する方法であって、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
拡張層重みと基本層重みを決定することと、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定すること、
を備える方法。
[C21]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C20に記載の方法。
[C22]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C20に記載の方法。
[C23]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C22に記載の方法。
[C24]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C20に記載の方法。
[C25]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C24に記載の方法。
[C26]
前記現在のビデオユニットに関する予測ユニットを生成することによって前記現在のビデオユニットの値を決定することをさらに備える、C20に記載の方法。
[C27]
前記差分ビデオ層における参照フレームに基づく画面間予測を用いて、前記現在のビデオユニットの前記値を決定することをさらに備える、C20に記載の方法。
[C28]
前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて前記現在のビデオユニットの前記値を決定することをさらに備える、C20に記載の方法。
[C29]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C20に記載の方法。
[C30]
前記現在のビデオユニットの前記値は、W *前記拡張層ビデオユニット−W *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W は前記拡張層重みであり、およびW は前記基本層重みである、C20に記載の方法。
[C31]
前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、C30に記載の方法。
[C32]
前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、C31に記載の方法。
[C33]
前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、C20に記載の方法。
[C34]
前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、C20に記載の方法。
[C35]
前記基本層は再構成された基本層である、C20に記載の方法。
[C36]
前記現在のビデオユニットをエンコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達することをさらに備える、C20に記載の方法。
[C37]
前記現在のビデオユニットをデコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出することをさらに備える、C20に記載の方法。
[C38]
その上に記憶された命令を有するコンピュータ可読記憶媒体であって、前記命令が実行される時、装置に、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
拡張層重みと基本層重みを決定することと、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定すること、
をさせる、
コンピュータ可読記憶媒体。
[C39]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C38に記載のコンピュータ可読記憶媒体。
[C40]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C38に記載のコンピュータ可読記憶媒体。
[C41]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C40に記載のコンピュータ可読記憶媒体。
[C42]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C38に記載のコンピュータ可読記憶媒体。
[C43]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C42に記載のコンピュータ可読記憶媒体。
[C44]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C38に記載のコンピュータ可読記憶媒体。
[C45]
前記現在のビデオユニットの前記値は、W *前記拡張層ビデオユニット−W *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W は前記拡張層重みであり、およびW は前記基本層重みである、C38に記載のコンピュータ可読記憶媒体。
[C46]
ビデオ情報を符号化するように構成された装置であって、
前記装置は、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するための手段と、
拡張層重みと基本層重みを決定するための手段と、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定するための手段、
を備える、
装置。
[C47]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C46に記載の装置。
[C48]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C46に記載の装置。
[C49]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C48に記載の装置。
[C50]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C46に記載の装置。
[C51]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C50に記載の装置。
[C52]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C46に記載の装置。
[C53]
前記現在のビデオユニットの前記値は、W *前記拡張層ビデオユニット−W *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W は前記拡張層重みであり、およびW は前記基本層重みである、C46に記載の装置。

Claims (45)

  1. ビデオ情報を符号化するように構成された装置であって、
    前記装置は、
    拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するように構成されたメモリユニットと、
    前記メモリユニットと通信するプロセッサであって、
    前記プロセッサは、
    前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定し、
    前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成する、
    ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
    ように構成される、
    プロセッサと、
    を備える、装置。
  2. 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項1に記載の装置。
  3. 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項1に記載の装置。
  4. 前記プロセッサは、前記現在のビデオユニットに関する前記予測ユニットに基づいて前記現在のビデオユニットを再構成するようにさらに構成される、請求項1に記載の装置。
  5. 前記プロセッサは、前記差分ビデオ層における参照フレームに基づく画面間予測を用いて、前記現在のビデオユニットの前記予測ユニットを生成するようにさらに構成される、請求項1に記載の装置。
  6. 前記プロセッサは、前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて前記現在のビデオユニットの前記予測ユニットを生成するようにさらに構成される、請求項1に記載の装置。
  7. 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項1に記載の装置。
  8. 前記現在のビデオユニットは、W*前記拡張層における前記参照ビデオユニット−W*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、Wは前記拡張層重みであり、およびWは前記基本層重みである、請求項1に記載の装置。
  9. 前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、請求項に記載の装置。
  10. 前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、請求項に記載の装置。
  11. 前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、請求項1に記載の装置。
  12. 前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、請求項1に記載の装置。
  13. 前記基本層は再構成された基本層である、請求項1に記載の装置。
  14. 前記プロセッサは、前記現在のビデオユニットをエンコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達するようにさらに構成される、請求項1に記載の装置。
  15. 前記プロセッサは、前記現在のビデオユニットをデコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出するようにさらに構成される、請求項1に記載の装置。
  16. 前記装置は、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、テレフォンハンドセット、スマートフォン、無線通信デバイス、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、またはビデオストリーミングデバイスのうちの1つまたは複数を備える、請求項1に記載の装置。
  17. ビデオ情報を符号化する方法であって、
    拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
    前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定することと、
    前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成することと、
    ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
    を備える、方法。
  18. 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項17に記載の方法。
  19. 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項17に記載の方法。
  20. 前記現在のビデオユニットに関する前記予測ユニットに基づいて前記現在のビデオユニットを再構成することをさらに備える、請求項17に記載の方法。
  21. 前記現在のビデオユニットの前記予測ユニットは、前記差分ビデオ層における参照フレームに基づく画面間予測を用いて生成される、請求項17に記載の方法。
  22. 前記現在のビデオユニットの前記予測ユニットは、前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて生成される、請求項17に記載の方法。
  23. 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項17に記載の方法。
  24. 前記現在のビデオユニットは、W*前記拡張層における前記参照ビデオユニット−W*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、Wは前記拡張層重みであり、およびWは前記基本層重みである、請求項17に記載の方法。
  25. 前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、請求項24に記載の方法。
  26. 前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、請求項25に記載の方法。
  27. 前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、請求項17に記載の方法。
  28. 前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、請求項17に記載の方法。
  29. 前記基本層は再構成された基本層である、請求項17に記載の方法。
  30. 前記現在のビデオユニットをエンコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達することをさらに備える、請求項17に記載の方法。
  31. 前記現在のビデオユニットをデコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出することをさらに備える、請求項17に記載の方法。
  32. その上に記憶された命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令が実行される時、装置に、
    拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
    前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定することと、
    前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成することと、
    ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
    をさせる、非一時的なコンピュータ可読記憶媒体。
  33. 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項32に記載のコンピュータ可読記憶媒体。
  34. 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項32に記載のコンピュータ可読記憶媒体。
  35. 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項32に記載のコンピュータ可読記憶媒体。
  36. 前記現在のビデオユニットは、W*前記拡張層における前記参照ビデオユニット−W*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、Wは前記拡張層重みであり、およびWは前記基本層重みである、請求項32に記載のコンピュータ可読記憶媒体。
  37. ビデオ情報を符号化するように構成された装置であって、
    前記装置は、
    拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するための手段と、
    前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定するための手段と、
    前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成するための手段と、
    ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
    を備える、装置。
  38. 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項37に記載の装置。
  39. 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項37に記載の装置。
  40. 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項37に記載の装置。
  41. 前記現在のビデオユニットは、W*前記拡張層における前記参照ビデオユニット−W*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、Wは前記拡張層重みであり、およびWは前記基本層重みである、請求項37に記載の装置。
  42. 前記装置は無線通信デバイスであり、
    無線通信プロトコルにしたがってエンコードされたビデオデータを受信するように構成された受信機と、前記エンコードされたビデオデータは、前記差分ビデオ層と関連付けられる前記差分ビデオ情報を備える、
    前記無線通信プロトコルにしたがって動作するように構成された送信機と、
    をさらに備える、請求項1に記載の装置。
  43. 前記無線通信デバイスはセルラー電話であり、前記エンコードされたビデオデータは、前記受信機によって受信され、セルラー通信標準にしたがって復調される、請求項42に記載の装置。
  44. 前記方法は無線通信デバイス上で実行可能であり、
    前記デバイスは、
    ビデオデータを格納するように構成されたメモリと、
    前記メモリに格納された前記ビデオデータを処理するための命令を実行するように構成されたプロセッサと、
    無線通信プロトコルにしたがってエンコードされたビデオデータを受信するように構成された受信機と、前記エンコードされたビデオデータは、前記差分ビデオ層と関連付けられる前記差分ビデオ情報を備える、
    前記無線通信プロトコルにしたがって動作するように構成された送信機と、
    を備える、請求項17に記載の方法。
  45. 前記無線通信デバイスはセルラー電話であり、前記エンコードされたビデオデータは、前記受信機によって受信され、セルラー通信標準にしたがって復調される、請求項44に記載の方法。
JP2015521692A 2012-07-09 2013-07-08 適応差分領域空間および時間参照再構成およびスムージング Active JP6193370B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201261669545P 2012-07-09 2012-07-09
US61/669,545 2012-07-09
US201261706741P 2012-09-27 2012-09-27
US201261706739P 2012-09-27 2012-09-27
US61/706,741 2012-09-27
US61/706,739 2012-09-27
US13/935,041 US9516309B2 (en) 2012-07-09 2013-07-03 Adaptive difference domain spatial and temporal reference reconstruction and smoothing
US13/935,041 2013-07-03
PCT/US2013/049582 WO2014011555A1 (en) 2012-07-09 2013-07-08 Adaptive difference domain spatial and temporal reference reconstruction and smoothing

Publications (3)

Publication Number Publication Date
JP2015527812A JP2015527812A (ja) 2015-09-17
JP2015527812A5 JP2015527812A5 (ja) 2017-03-09
JP6193370B2 true JP6193370B2 (ja) 2017-09-06

Family

ID=49878503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015521692A Active JP6193370B2 (ja) 2012-07-09 2013-07-08 適応差分領域空間および時間参照再構成およびスムージング

Country Status (5)

Country Link
US (2) US9516309B2 (ja)
EP (1) EP2870756A1 (ja)
JP (1) JP6193370B2 (ja)
CN (1) CN104429072B (ja)
WO (2) WO2014011555A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9584819B2 (en) * 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
MX361767B (es) * 2012-07-09 2018-12-17 Vid Scale Inc Arquitectura de códec para codificación de video de múltiples capas.
US9516309B2 (en) 2012-07-09 2016-12-06 Qualcomm Incorporated Adaptive difference domain spatial and temporal reference reconstruction and smoothing
KR102273025B1 (ko) * 2013-03-06 2021-07-05 삼성전자주식회사 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 부호화 방법 및 그 장치, 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 복호화 방법 및 그 장치
US10182248B2 (en) * 2016-11-21 2019-01-15 Cisco Technology, Inc. Keyframe mitigation for video streams with multiple receivers
CN109121019B (zh) * 2018-09-12 2020-01-17 中国地质大学(武汉) 用于svc-dash点播系统的动态缓存调度方法、设备及存储设备
CN109121020B (zh) * 2018-09-12 2020-01-17 中国地质大学(武汉) 用于svc-dash点播系统的动态缓存调度方法、设备及存储设备
KR20210135502A (ko) 2019-03-08 2021-11-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 처리에서 변형 정보의 시그널링
CN113692741B (zh) * 2019-04-18 2022-12-13 北京字节跳动网络技术有限公司 跨分量模式中的参数推导
BR112021019675A2 (pt) 2019-04-23 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
KR102641796B1 (ko) 2019-05-08 2024-03-04 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 교차-성분 코딩의 적용가능성에 대한 조건들
CN113994697A (zh) 2019-06-22 2022-01-28 北京字节跳动网络技术有限公司 色度残差缩放的语法元素
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9206860D0 (en) 1992-03-27 1992-05-13 British Telecomm Two-layer video coder
CA2127151A1 (en) 1993-09-21 1995-03-22 Atul Puri Spatially scalable video encoding and decoding
WO2001067953A1 (en) * 2000-03-15 2001-09-20 Cardiac Focus, Inc. Continuous localization and guided treatment of cardiac arrhythmias
US7329414B2 (en) * 2002-05-03 2008-02-12 Biopsy Sciences, Llc Biodegradable polymer for marking tissue and sealing tracts
JP2006154756A (ja) * 2004-11-02 2006-06-15 Fujitsu Ten Ltd 映像信号処理方法、映像信号処理装置、及び、表示装置
EP1862013A4 (en) 2005-03-25 2011-06-08 Samsung Electronics Co Ltd VIDEO ENCODING AND DECODING METHOD USING WEIGHTED PREDICTION AND APPARATUS THEREFOR
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
US20070014348A1 (en) 2005-04-12 2007-01-18 Nokia Corporation Method and system for motion compensated fine granularity scalable video coding with drift control
KR100878812B1 (ko) * 2005-05-26 2009-01-14 엘지전자 주식회사 영상신호의 레이어간 예측에 대한 정보를 제공하고 그정보를 이용하는 방법
KR100703788B1 (ko) 2005-06-10 2007-04-06 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
JP2009500086A (ja) * 2005-07-01 2009-01-08 ハンセン メディカル,インク. ロボットガイドカテーテルシステム
US8867618B2 (en) 2005-07-22 2014-10-21 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding
US9113147B2 (en) 2005-09-27 2015-08-18 Qualcomm Incorporated Scalability techniques based on content information
EP1949702A2 (en) 2005-10-12 2008-07-30 Thomson Licensing Methods and apparatus for weighted prediction in scalable video encoding and decoding
KR100772873B1 (ko) 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
US7505810B2 (en) * 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
KR20080004340A (ko) 2006-07-04 2008-01-09 한국전자통신연구원 영상 데이터의 스케일러블 코딩 방법 및 그 장치
US8130822B2 (en) 2006-07-10 2012-03-06 Sharp Laboratories Of America, Inc. Methods and systems for conditional transform-domain residual accumulation
GB2440004A (en) * 2006-07-10 2008-01-16 Mitsubishi Electric Inf Tech Fine granularity scalability encoding using a prediction signal formed using a weighted combination of the base layer and difference data
US20080033286A1 (en) * 2006-08-02 2008-02-07 Civco Medical Instruments Co., Inc. Fiducial marker for imaging localization and method of using the same
US9014280B2 (en) 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
CN101702963A (zh) 2007-03-15 2010-05-05 诺基亚公司 用于为视频编码中的空间可伸缩性提供改进的残差预测的系统和方法
BRPI0813122A2 (pt) 2007-07-02 2015-08-04 Nippon Telegraph & Telephone Método de codificação e método de decodificação de vídeo escalonável, aparelhos e programas para os mesmos, e meio de armazenamento que armazena os programas
KR101436671B1 (ko) 2007-10-15 2014-09-02 톰슨 라이센싱 스케일러블 비디오에 대한 계층간 레시듀 예측을 위한 방법들 및 장치들
US8848787B2 (en) 2007-10-15 2014-09-30 Qualcomm Incorporated Enhancement layer coding for scalable video coding
US9681142B2 (en) * 2009-02-03 2017-06-13 Thomson Licensing Dtv Methods and apparatus for motion compensation with smooth reference frame in bit depth scalability
KR101445009B1 (ko) 2009-08-12 2014-09-26 인텔 코오퍼레이션 공통 프로세싱 요소들에 기초하여 비디오 안정화를 수행하고 비디오 샷 경계를 검출하는 기법
US8551083B2 (en) * 2009-11-17 2013-10-08 Bsd Medical Corporation Microwave coagulation applicator and system
CN102883659A (zh) * 2010-01-19 2013-01-16 美敦力阿迪安卢森堡有限公司 通过立体定向放疗用于肾神经调节的方法和设备
ES2856026T3 (es) * 2010-05-03 2021-09-27 Neuwave Medical Inc Sistemas de suministro de energía
US8855188B2 (en) * 2010-07-15 2014-10-07 Sharp Laboratories Of America, Inc. Method of parallel video coding based on mapping
CN103636137A (zh) * 2011-06-30 2014-03-12 维德约股份有限公司 可伸缩视频编码技术
US9655595B2 (en) * 2012-06-14 2017-05-23 Arcitrax Inc. System, method and device for prostate diagnosis and intervention
US9516309B2 (en) 2012-07-09 2016-12-06 Qualcomm Incorporated Adaptive difference domain spatial and temporal reference reconstruction and smoothing

Also Published As

Publication number Publication date
US9516309B2 (en) 2016-12-06
JP2015527812A (ja) 2015-09-17
CN104429072A (zh) 2015-03-18
WO2014011559A1 (en) 2014-01-16
CN104429072B (zh) 2019-03-15
US20140010300A1 (en) 2014-01-09
WO2014011555A1 (en) 2014-01-16
US9854259B2 (en) 2017-12-26
US20140010290A1 (en) 2014-01-09
EP2870756A1 (en) 2015-05-13

Similar Documents

Publication Publication Date Title
JP6193370B2 (ja) 適応差分領域空間および時間参照再構成およびスムージング
JP6903644B2 (ja) ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
JP6293756B2 (ja) スケーラブルビデオ符号化における変換基準の調整
JP6042470B2 (ja) ビデオコーディングのための適応動き解像度
JP6250678B2 (ja) スケーラブル映像コーディングに関するイントラ予測改良
EP2893704B1 (en) Weighted prediction mode for scalable video coding
JP6129969B2 (ja) スケーラブルビデオコード化における代替変換
JP6352314B2 (ja) 異なるアスペクト比を伴う空間スケーラビリティのためのレイヤ間の参照ピクチャの構築
JP2015531561A5 (ja)
US9584805B2 (en) Prediction mode information downsampling in enhanced layer coding
KR102182441B1 (ko) 비디오 코딩에서 hevc 확장들을 위한 다중 계층들의 저복잡도 지원
JP6239612B2 (ja) スケーラブル映像コーディング及び3d映像コーディングに関する一般化された残差予測
JP2017513342A (ja) ゼロアウトされた係数を使用した低複雑な順変換のためのシステムおよび方法
US20140064359A1 (en) Intra prediction most probable mode order improvement for scalable video coding
JP6199371B2 (ja) ビデオ・コーディングのためのインタ・レイヤ・テクスチャ予測
JP2015534775A (ja) ビデオコーディングにおける関心領域および漸次復号リフレッシュのシグナリング
JP6352391B2 (ja) Shvcのための複数のベースレイヤ参照ピクチャ
US9338452B2 (en) Motion vector difference coding extension for enhancement layer
WO2013184810A1 (en) Bi-layer texture prediction for video coding
EP2883347A1 (en) Weighted difference prediction under the framework of generalized residual prediction
JP2016509436A (ja) レイヤ間シンタックス予測制御
JP6466349B2 (ja) スケーラブルビデオコーディングのための空間動きベクトルスケーリング
US9386306B2 (en) Enhancement layer scan order derivation for scalable video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170131

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170809

R150 Certificate of patent or registration of utility model

Ref document number: 6193370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250