JP6543716B2 - 適応型成分間残差予測 - Google Patents

適応型成分間残差予測 Download PDF

Info

Publication number
JP6543716B2
JP6543716B2 JP2017538385A JP2017538385A JP6543716B2 JP 6543716 B2 JP6543716 B2 JP 6543716B2 JP 2017538385 A JP2017538385 A JP 2017538385A JP 2017538385 A JP2017538385 A JP 2017538385A JP 6543716 B2 JP6543716 B2 JP 6543716B2
Authority
JP
Japan
Prior art keywords
color component
linear model
parameters
residual signal
target color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017538385A
Other languages
English (en)
Other versions
JP2018509035A5 (ja
JP2018509035A (ja
Inventor
ジエンレ・チェン
ホンビン・リュウ
イン・チェン
リ・ジャン
シアン・リ
シン・ジャオ
マルタ・カルチェヴィッチ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2018509035A publication Critical patent/JP2018509035A/ja
Publication of JP2018509035A5 publication Critical patent/JP2018509035A5/ja
Application granted granted Critical
Publication of JP6543716B2 publication Critical patent/JP6543716B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本出願は、その内容全体が参照により本明細書に組み込まれる、2015年1月27日に出願された米国仮特許出願第62/108,491号の利益を主張するものである。
本開示は、ビデオコーディングに関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4, Part 10, アドバンストビデオコーディング(AVC)、ITU-T H.265、高効率ビデオコーディング(HEVC)によって規定された規格、ならびに、スケーラブルビデオコーディング(SVC)、マルチビュービデオコーディング(MVC)、スケーラブルHEVC(SHVC)、マルチビューHEVC(MV-HEVC)、3D-HEVC、およびHEVC範囲拡張など、そのような規格の拡張に記載されているものなどのビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信し、受信し、符号化し、復号し、かつ/または記憶することができる。
ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間(ピクチャ内)予測および/または時間(ピクチャ間)予測を含む。ブロックベースビデオコーディングのために、ビデオスライス(たとえば、ビデオフレーム、またはビデオフレームの一部分)がビデオブロックに区分されてよく、ビデオブロックは、ツリーブロック、コーディングツリーユニット(CTU)、コーディングユニット(CU)、および/またはコーディングノードと呼ばれることもある。ビデオブロックは、ルーマブロックとクロマブロックとを含み得る。ピクチャのイントラコード化(I)スライス中で、ブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間予測、または他の参照ピクチャ中の参照サンプルに対する時間予測を使用することができる。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
空間予測または時間予測は、コーディングされるべきブロックのための予測ブロックをもたらす。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコード化ブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコード化ブロックは、イントラコーディングモードおよび残差データに従って符号化される。さらなる圧縮のために、残差データがピクセル領域から変換領域に変換されて残差変換係数が得られてよく、次いで、残差変換係数が量子化され得る。量子化変換係数がエントロピーコーディングされて、なお一層の圧縮が達成され得る。
A. FordおよびA. Roberts、「Colour space conversions」、University of Westminster、ロンドン、Tech. Rep.、1998年8月 B. C. Song、Y. G. Lee、およびN. H. Kim、「Block adaptive inter-color compensation algorithm for RGB 4:4:4 video coding」、IEEE Trans. Circuits Syst. Video Technol.、vol. 18、no. 10、1447〜1451ページ、2008年10月、LM proposal W. Pu、W.-S. Kim、J. Chen、J. Sole、M. Karczewicz、「RCE1:Descriptions and Results for Experiments 1, 2, 3, and 4」、ITU-T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT-VC)、JCTVC-O0202、ジュネーブ、2013年11月 A. Khairat、T. Nguyen、M. Siekmann、D. Marpe、「Non-RCE1:Extended Adaptive Inter-Component Prediction」、ITU-T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT-VC)、JCTVC-O0150、ジュネーブ、2013年11月 J. Chen、V. Seregi、W.-J. Han、J.-S. Kim、B.-M. Joen.、「CE6.a.4: Chroma intra prediction by reconstructed luma samples」、ITU-T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT-VC)、JCTVC-E266、ジュネーブ、2011年3月16〜23日
本開示は、ビデオコーディングの分野に関し、より詳細には、適応型成分間残差予測に関する。本開示の特定の技法は、インター成分冗長性を低減、除去、またはさもなければ制御することができる。本開示の特定の技法は、HEVCの拡張または次世代のビデオコーディング規格など、高度なビデオコーデックのコンテキストにおいて使用され得る。
一態様では、本開示は、ビデオデータを符号化する方法について説明し、この方法は、エンコーダ内で、現在ブロックのターゲット色成分の予測残差信号を、線形モデルの1つまたは複数のパラメータと、現在ブロックのソース色成分の残差信号との関数として決定するステップと、エンコーダ内で、ターゲット色成分の残差信号と、ターゲット色成分の予測残差信号とに基づいて、ターゲット色成分のための残りの残差信号を決定するステップと、ターゲット色成分の残りの残差信号の値を符号化するステップと、ビデオビットストリーム中で、符号化された残りの残差信号値を出力するステップとを含む。
別の態様では、本開示は、ビデオデータを符号化するためのデバイスについて説明し、このデバイスは、ビデオデータを記憶するように構成されたメモリと、1つまたは複数のプロセッサとを備え、1つまたは複数のプロセッサは、現在ブロックのターゲット色成分の予測残差信号を、線形モデルの1つまたは複数のパラメータと、現在ブロックのソース色成分の残差信号との関数として決定すること、ターゲット色成分の残差信号と、ターゲット色成分の予測残差信号とに基づいて、ターゲット色成分のための残りの残差信号を決定すること、ターゲット色成分の残りの残差信号の値を符号化すること、および、ビデオビットストリーム中で、符号化された残りの残差信号値を出力することを行うように構成される。
別の態様では、本開示は、ビデオデータを符号化するためのデバイスについて説明し、このデバイスは、エンコーダ内で、現在ブロックのターゲット色成分の予測残差信号を、線形モデルの1つまたは複数のパラメータと、現在ブロックのソース色成分の残差信号との関数として決定するための手段と、エンコーダ内で、ターゲット色成分の残差信号と、ターゲット色成分の予測残差信号とに基づいて、ターゲット色成分のための残りの残差信号を決定するための手段と、ターゲット色成分の残りの残差信号の値を符号化するための手段と、ビデオビットストリーム中で、符号化された残りの残差信号値を出力するための手段とを備える。
別の態様では、本開示は、命令を記憶したコンピュータ可読記憶媒体について説明し、この命令は、実行されると、ビデオデータを符号化するためのデバイスの1つまたは複数のプロセッサに、現在ブロックのターゲット色成分の予測残差信号を、線形モデルの1つまたは複数のパラメータと、現在ブロックのソース色成分の残差信号との関数として決定すること、ターゲット色成分の残差信号と、ターゲット色成分の予測残差信号とに基づいて、ターゲット色成分のための残りの残差信号を決定すること、ターゲット色成分の残りの残差信号の値を符号化すること、および、ビデオビットストリーム中で、符号化された残りの残差信号値を出力することを行わせる。
別の態様では、本開示は、ビデオデータを復号する方法について説明し、この方法は、線形モデルの1つまたは複数の線形パラメータと、ソース色成分の残差信号との関数として、ターゲット色成分の予測残差信号を決定するステップと、ターゲット色成分の残差信号を、ターゲット色成分の復号された残りの残差信号と、ターゲット色成分の予測残差信号との関数として決定するステップとを含む。
別の態様では、本開示は、ビデオデータを復号するためのデバイスについて説明し、このデバイスは、ビデオデータを記憶するように構成されたメモリと、1つまたは複数のプロセッサとを備え、1つまたは複数のプロセッサは、線形モデルの1つまたは複数の線形パラメータと、ソース色成分の残差信号との関数として、ターゲット色成分の予測残差信号を決定すること、および、ターゲット色成分の残差信号を、ターゲット色成分の復号された残りの残差信号と、ターゲット色成分の予測残差信号との関数として決定することを行うように構成される。
別の態様では、本開示は、ビデオデータを復号するためのデバイスについて説明し、このデバイスは、線形モデルの1つまたは複数の線形パラメータと、ソース色成分の残差信号との関数として、ターゲット色成分の予測残差信号を決定するための手段と、ターゲット色成分の残差信号を、ターゲット色成分の復号された残りの残差信号と、ターゲット色成分の予測残差信号との関数として決定するための手段とを備える。
別の態様では、本開示は、命令を記憶したコンピュータ可読記憶媒体について説明し、この命令は、実行されると、ビデオデータを復号するためのデバイスの1つまたは複数のプロセッサに、線形モデルの1つまたは複数の線形パラメータと、ソース色成分の残差信号との関数として、ターゲット色成分の予測残差信号を決定すること、および、ターゲット色成分の残差信号を、ターゲット色成分の復号された残りの残差信号と、ターゲット色成分の予測残差信号との関数として決定することを行わせる。
本開示の1つまたは複数の例の詳細が、添付の図面および以下の説明に記載される。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。
本開示で説明する1つまたは複数の技法を実装またはさもなければ利用するように構成され、またはさもなければ動作可能であり得る、例示的なビデオ符号化および復号システムを示すブロック図である。 本開示で説明する1つまたは複数の技法を実装またはさもなければ利用するように構成され、またはさもなければ動作可能であり得る、ビデオエンコーダの一例を示すブロック図である。 本開示で説明する1つまたは複数の技法を実装またはさもなければ利用するように構成され、またはさもなければ動作可能であり得る、ビデオデコーダの一例を示すブロック図である。 本開示の一態様による、ビデオデータの符号化の一例を示すフローチャートである。 本開示の一態様による、ビデオデータの符号化のより詳細な例を示すフローチャートである。 本開示の一態様による、第2の色成分の残差信号からの、第1の色成分の残差信号の予測を示すフローチャートである。 本開示の一態様による、Cr色成分の残差信号からの、Cb色成分の残差信号の予測を示すフローチャートである。 本開示の一態様による、インター予測に基づく線形モデルのパラメータの導出を示すフローチャートである。 本開示の一態様による、イントラ予測に基づく線形モデルのパラメータの導出を示すフローチャートである。
本開示は、ビデオコーディングおよび/または圧縮のための様々な技法について説明する。特定の例では、本開示は、インター成分冗長性を低減するために使用される、成分間予測に関する。成分間予測は、HEVCの拡張または次世代のビデオコーディング規格など、先進的なビデオコーデックのコンテキストにおいて使用され得る。
カラービデオは、色を効率的に表すために様々な色空間が使用される、マルチメディアシステムにおいて、本質的な役割を果たしている。色空間は、複数の成分を使用して、数値を用いて色を指定する。普及している色空間は、RGB色空間であり、RGB色空間では、色が3つの原色成分値(すなわち、赤色、緑色、および青色)の組合せとして表現される。カラービデオ圧縮では、YCbCr色空間が広く使用されている。たとえば、A. FordおよびA. Roberts、「Colour space conversions」、University of Westminster、ロンドン、Tech.Rep.、1998年8月を参照されたい。
ビデオコーディング規格には、ITU-T H.261、ISO/IEC MPEG-1 Visual、ITU-T H.262またはISO/IEC MPEG-2 Visual、ITU-T H.263、ISO/IEC MPEG-4 Visual、および、そのスケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)拡張とを含むITU-T H.264(ISO/IEC MPEG-4 AVCとしても知られる)が含まれる。
高効率ビデオコーディング(HEVC)という名称の、ビデオコーディングの新しい国際規格は、ビデオコーディング共同研究部会(JCT-VC)という、ITU-Tビデオコーディングエキスパートグループ(VCEG)から、およびISO/IECモーションピクチャエキスパートグループ(MPEG)からの、ビデオコーディングエキスパートのグループによって開発され、確定された。HEVC規格の第1のバージョンは、2013年4月に確定された。RExt、SHVC、およびMV-HEVC拡張を含む、HEVCの第2のバージョンは、2014年10月に確定された。3D-HEVC拡張を含むHEVCの第3のバージョンは、2015年2月に確定されたものであり、現在は実施されており、http://www.itu.int/rec/T-REC-H.265において入手可能である。HEVC規格のこの第3版が、以下でHEVC規格と呼ばれる。HEVC規格の第2版および第3版は、フォーマットレンジ拡張(RExt:Format Range Extension)を含み、フォーマットレンジ拡張は、YCbCr 4:2:2、YCbCr 4:4:4、およびRGB 4:4:4など、YCbCr 4:2:0以外の色空間のためのビデオコーディングを拡張する。
YCbCrおよびRGBは、デジタルビデオを表すために使用される、2つの原色空間である。RGBは、赤色、緑色、および青色の組合せとして色を表すが、YCbCrは、輝度(Yまたはルーマ)、青-ルーマ(Cb、クロマ青またはクロミナンス青)、および赤-ルーマ(Cr、クロマ赤またはクロミナンス赤)として、デジタルビデオを表す。YCbCrは、線形変換を介してRGB色空間から容易に変換され得る。異なる成分間の冗長性、すなわち、成分間冗長性は、YCbCr色空間において著しく低減される。加えて、YCbCrの1つの利点は、白黒TVとの後方互換性であり、その理由は、Y信号がルミナンス情報を伝達するからである。加えて、クロミナンス帯域幅は、RGBにおけるサブサンプリングよりも主観的影響が著しく少ないように、4:2:0クロマサンプリングフォーマットにおいてCb成分およびCr成分をサブサンプリングすることによって低減され得る。これらの利点のために、YCbCrは、ビデオ圧縮において主要な色空間となっている。
また、YCoCgなど、ビデオ圧縮において使用され得る他の色空間もある。YCoCgは、輝度(Yまたはルーマ)、オレンジ-ルーマ(Co、クロマオレンジまたはクロミナンスオレンジ)、および緑-ルーマ(Cr、クロマ緑またはクロミナンス緑)として、デジタルビデオを表す。YCbCrは、線形変換を介してRGB色空間から容易に変換され得る。本明細書では、使用される実際の色空間にかかわらず、Y、Cb、およびCrという用語が、各ビデオ圧縮方式において3つの色成分を表すために使用される。これらの技法が他の3つの色空間に同様に適用され得ることを理解されたい。
図1は、本開示で説明する1つまたは複数の技法を実装またはさもなければ利用するように構成され、またはさもなければ動作可能であり得る、例示的なビデオ符号化および復号システムを示すブロック図である。図1に示すように、システム10は、宛先デバイス14によって後の時間に復号されるべき符号化ビデオデータを生成する、ソースデバイス12を含む。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲のデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
宛先デバイス14は、リンク16を介して、復号されるべき符号化ビデオデータを受信し得る。リンク16は、ソースデバイス12から宛先デバイス14に符号化ビデオデータを移動することが可能な任意のタイプの媒体またはデバイスを備え得る。一例では、リンク16は、ソースデバイス12がリアルタイムで宛先デバイス14に符号化ビデオデータを直接送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され得、宛先デバイス14へ送信され得る。通信媒体は、無線周波数(RF)スペクトルまたは1つもしくは複数の物理伝送線路などの任意のワイヤレス通信媒体またはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのようなグローバルネットワークなどの、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、または、ソースデバイス12から宛先デバイス14への通信を容易にするために有用であり得る任意の他の機器を含み得る。
代替的に、符号化データは、出力インターフェース22から記憶デバイス31に出力され得る。同様に、符号化データは、入力インターフェースによって記憶デバイス31からアクセスされ得る。記憶デバイス31は、ハードドライブ、Blu-rayディスク、DVD、CD-ROM、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または、符号化ビデオデータを記憶するための任意の他の適切なデジタル記憶媒体などの、様々な分散されたまたはローカルでアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる例では、記憶デバイス31は、ソースデバイス12によって生成された符号化ビデオを保持し得るファイルサーバまたは別の中間記憶デバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介して、記憶デバイス31からの記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14へ送信することが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準的なデータ接続を通じて、符号化ビデオデータにアクセスし得る。これは、ファイルサーバ上に記憶された符号化ビデオデータにアクセスするのに適した、ワイヤレスチャネル(たとえば、Wi-Fi接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。記憶デバイス31からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、または両方の組合せであり得る。
本開示の技法は、ワイヤレスの用途または設定に限定されない。技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、たとえばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、または他の用途など、様々なマルチメディア用途のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオ放送、および/またはビデオ電話などの用途をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。場合によっては、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含み得る。ソースデバイス12において、ビデオソース18は、ビデオキャプチャデバイス、たとえば、ビデオカメラ、以前にキャプチャされたビデオを含むビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、および/もしくはソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステム、またはそのようなソースの組合せなどの、ソースを含み得る。一例として、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラフォンまたはビデオフォンを形成し得る。しかしながら、本開示で説明する技法は、一般に、ビデオコーディングに適用可能であり得、ワイヤレス用途および/またはワイヤード用途に適用され得る。
キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化ビデオデータは、ソースデバイス12の出力インターフェース22を介して宛先デバイス14に直接送信され得る。符号化ビデオデータはまた(または代替的に)、復号および/または再生するために、宛先デバイス14または他のデバイスによって後にアクセスするために、記憶デバイス31上に記憶され得る。
宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。場合によっては、入力インターフェース28は、受信機および/またはモデムを含み得る。宛先デバイス14の入力インターフェース28は、リンク16を介して符号化ビデオデータを受信する。リンク16を介して通信された、または記憶デバイス31上に提供された符号化ビデオデータは、ビデオデータを復号する際にビデオデコーダ30などのビデオデコーダによって使用するための、ビデオエンコーダ20によって生成された様々なシンタックス要素を含み得る。そのようなシンタックス要素は、通信媒体上で送信された、記憶媒体上に記憶された、またはファイルサーバ上に記憶された符号化ビデオデータとともに含まれ得る。
ディスプレイデバイス32は、宛先デバイス14と一体化されるか、または宛先デバイス14の外部にあり得る。いくつかの例では、宛先デバイス14は、集積ディスプレイデバイスを含み得、外部ディスプレイデバイスとインターフェースするようにも構成され得る。他の例では、宛先デバイス14はディスプレイデバイスであり得る。一般に、ディスプレイデバイス32は、復号ビデオデータをユーザに表示し、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
ビデオエンコーダ20およびビデオデコーダ30は、上記の高効率ビデオコーディング(HEVC)規格などのビデオ圧縮規格に従って動作することができ、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ30は、代替的に、MPEG-4, Part 10, アドバンストビデオコーディング(AVC)と呼ばれるITU-T H.264規格、またはそのような規格の拡張などの、他の独自規格または業界規格に従って動作し得る。しかしながら、本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオ圧縮規格の他の例は、MPEG-2およびITU-T H.263を含む。
図1には示していないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、各々、オーディオエンコーダおよびデコーダと一体化されてもよく、共通データストリームまたは別々のデータストリームにおけるオーディオとビデオの両方の符号化を処理するために、適切なMUX-DEMUXユニットまたは他のハードウェアおよびソフトウェアを含んでもよい。適用可能な場合、いくつかの例では、MUX-DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ビデオエンコーダ20およびビデオデコーダ30は、各々、1つもしくは複数のプロセッサを有する回路、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、離散論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せなど、様々な適切なエンコーダ回路のいずれかとして実装され得る。本技法が部分的にソフトウェアにおいて実装されるとき、デバイスは、ソフトウェアのための命令を適切な非一時的コンピュータ可読媒体に記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアにおいてその命令を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダ内に含まれてもよく、そのいずれかは、それぞれのデバイス内に、組み合わされたエンコーダ/デコーダ(コーデック)の一部として組み込まれてもよい。
一般に、HMのワーキングモデルは、ビデオフレームまたはピクチャが、ルーマサンプルとクロマサンプルの両方を含むツリーブロックまたは最大コーディングユニット(LCU)のシーケンスに分割され得ることを記載している。ツリーブロックは、H.264規格のマクロブロックと同様の目的を有する。スライスは、コーディング順にいくつかの連続するツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに区分されてもよい。各ツリーブロックは、4分木に従ってコーディングユニット(CU)に分割されてもよい。たとえば、ツリーブロックは、4分木のルートノードとして、4つの子ノードに分割されてもよく、各子ノードは、次に、親ノードになり、別の4つの子ノードに分割されてもよい。最後の、分割されていない子ノードは、4分木のリーフノードとして、コーディングノード、すなわちコード化ビデオブロックを備える。コード化ビットストリームに関連付けられたシンタックスデータは、ツリーブロックが分割され得る最大回数を定義してもよく、また、コーディングノードの最小サイズを定義してもよい。
1つの例示的な手法では、CUは、1つのルーマコーディングブロックと2つのクロマコーディングブロックとを含み得る。別の例示的な手法では、CUは、YCoCg色空間中のルーマコーディングブロックと、Coコーディングブロックと、Cgコーディングブロックとを含み得る。別の例示的な手法では、CUは、RGB色空間中の赤色コーディングブロックと、緑色コーディングブロックと、青色コーディングブロックとを含み得る。
1つの例示的な手法では、CUは、関連する予測ユニット(PU)および変換ユニット(TU)を有し得る。PUの各々は、1つのルーマ予測ブロックと2つのクロマ予測ブロックとを含んでもよく、TUの各々は、1つのルーマ変換ブロックと2つのクロマ変換ブロックとを含んでもよい。コーディングブロックの各々は、同じ予測が適用されるサンプルのブロックを備える1つまたは複数の予測ブロックに区分されてもよい。コーディングブロックの各々はまた、同じ変換が適用されるサンプルのブロックを備える1つまたは複数の変換ブロックに区分されてもよい。
CUのサイズは、一般に、コーディングノードのサイズに対応し、典型的には、形状において正方形である。CUのサイズは、8×8ピクセルから、最大64×64ピクセルまたはそれ以上のツリーブロックのサイズまでの範囲であり得る。各CUは、1つまたは複数のPUと1つまたは複数のTUとを定義し得る。CU中に含まれるシンタックスデータは、たとえば、1つまたは複数の予測ブロックへのコーディングブロックの区分を記述し得る。区分モードは、CUがスキップもしくは直接モード符号化されているのか、イントラ予測モード符号化されているのか、またはインター予測モード符号化されているのかの間で異なり得る。予測ブロックは、形状において正方形または非正方形であるように区分されてもよい。CU中に含まれるシンタックスデータはまた、たとえば、4分木に従った1つまたは複数の変換ブロックへのコーディングブロックの区分を記述し得る。変換ブロックは、形状において正方形または非正方形であるように区分されてもよい。
HEVC規格は、CUによって異なり得る、TUに従う変換を可能にする。TUは、典型的には、区分されたLCUのために定義された所与のCU内のPUのサイズに基づいてサイズが決められるが、これは、必ずしもそうでないことがある。TUは、典型的には、PUと同じサイズであり、またはPUよりも小さい。いくつかの例では、CUに対応する残差サンプルは「残差4分木」(RQT)として知られる4分木構造を使用して、より小さいユニットに細分され得る。RQTのリーフノードは、TUを表してもよい。TUに関連付けられたピクセル差分値は、変換係数を生成するために変換され得、変換係数は、量子化され得る。
一般に、PUは、予測プロセスに関連するデータを含む。たとえば、PUがイントラモード符号化されるとき、PUは、PUのためのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインターモード符号化されるとき、PUは、PUのための動きベクトルを定義するデータを含み得る。PUのための動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、4分の1ピクセル精度もしくは8分の1ピクセル精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトルのための参照ピクチャリスト(たとえば、リスト0、リスト1、もしくはリストC)を記述してもよい。
一般に、TUは、変換および量子化プロセスのために使用される。1つまたは複数のPUを有する所与のCUはまた、1つまたは複数のTUを含み得る。予測の後、ビデオエンコーダ20は、PUに従ってコーディングノードによって識別されたビデオブロックから残差値を計算し得る。次いで、コーディングノードは、元のビデオブロックではなく残差値を参照するように更新される。残差値は、ピクセル差分値を備え、ピクセル差分値は、エントロピーコーディングのためのシリアル化された変換係数を生成するために、TUにおいて指定された変換と他の変換情報とを使用して、変換係数に変換され、量子化され、走査され得る。コーディングノードは、これらのシリアル化された変換係数を参照するために、もう一度更新され得る。本開示は、典型的には、CUのコーディングノードを指すために「ビデオブロック」という用語を使用する。いくつかの特定の場合には、本開示はまた、コーディングノードとPUおよびTUとを含むツリーブロック、すなわち、LCUまたはCUを指すために「ビデオブロック」という用語を使用することがある。
ビデオシーケンスは、典型的には、一連のビデオフレームまたはピクチャを含む。ピクチャグループ(GOP)は一般に、一連の1つまたは複数のビデオピクチャを備える。GOPは、GOP中に含まれるピクチャの数を記述するシンタックスデータを、GOPのヘッダ、ピクチャのうちの1つまたは複数のヘッダ、または他の場所に含み得る。ピクチャの各スライスは、それぞれのスライスの符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は通常、ビデオデータを符号化するために、個々のビデオスライス内のビデオブロック上で動作する。ビデオブロックは、CU内のコーディングノードに対応し得る。ビデオブロックは固定サイズまたは可変サイズを有してもよく、指定されたコーディング規格に従ってサイズが異なり得る。
一例として、HMは、様々なPUサイズにおける予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2NまたはN×NのPUサイズにおけるイントラ予測と、2N×2N、2N×N、N×2N、またはN×Nの対称PUサイズにおけるインター予測とをサポートする。HMはまた、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズにおけるインター予測のための非対称区分をサポートする。非対称区分では、CUの一方の方向は、区分されず、他方の方向は、25%および75%に区分される。25%区分に対応するCUの部分は、「n」とその後に続く「上」、「下」、「左」、または「右」の表示によって示される。したがって、たとえば、「2N×nU」は、上に2N×0.5NのPUおよび下に2N×1.5NのPUで水平に区分された2N×2NのCUを指す。
本開示では、「N×N」および「N掛けるN」は、垂直方向および水平方向の寸法に関するビデオブロックのピクセルの寸法、たとえば、16×16ピクセル、または16掛ける16ピクセルを指すために、互換的に使用され得る。一般に、16×16ブロックは、垂直方向に16ピクセル(y=16)と水平方向に16ピクセル(x=16)とを有することになる。同様に、N×Nブロックは、一般に、垂直方向にNピクセルと水平方向にNピクセルとを有し、ここでNは、負ではない整数値を表す。ブロック中のピクセルは、行および列に配置され得る。その上、ブロックは、必ずしも水平方向で垂直方向と同じ数のピクセルを有する必要があるとは限らない。たとえば、ブロックは、N×Mピクセルを備えてもよく、ここでMは、必ずしもNと等しいとは限らない。
CUのPUを使用するイントラ予測またはインター予測コーディングに続いて、ビデオエンコーダ20は、CUのTUによって指定された変換が適用される残差データを計算し得る。残差データは、符号化されていないピクチャのピクセルと、CUに対応する予測値との間のピクセル差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを形成し、次いで、変換係数を生成するために残差データを変換し得る。
変換係数を生成するための任意の変換に続いて、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、一般に、係数を表すために使用されるデータの量をできる限り低減するために変換係数が量子化され、さらなる圧縮が行われるプロセスを指す。量子化プロセスは、係数の一部または全部に関連付けられたビット深度を低減し得る。たとえば、nビット値は、量子化の間にmビット値に切り捨てられてもよく、ここでnは、mよりも大きい。
いくつかの例では、ビデオエンコーダ20は、あらかじめ定義された走査順序を利用して、量子化変換係数を走査して、エントロピー符号化され得るシリアル化ベクトルを生成し得る。他の例では、ビデオエンコーダ20は、適応型走査を実行し得る。量子化変換係数を走査して、1次元ベクトルを形成した後、ビデオエンコーダ20は、たとえば、コンテキスト適応型可変長コーディング(CAVLC:context adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コーディング、または別のエントロピー符号化方法に従って、1次元ベクトルをエントロピー符号化し得る。ビデオエンコーダ20はまた、ビデオデータを復号する際にビデオデコーダ30によって使用するための符号化ビデオデータに関連付けられたシンタックス要素をエントロピー符号化し得る。
CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルにコンテキストモデル内のコンテキストを割り当て得る。コンテキストは、たとえば、シンボルの隣接値が非ゼロであるか否かに関連し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルのための可変長コードを選択し得る。VLCにおけるコードワードは、比較的より短いコードがより可能性が高いシンボルに対応し、より長いコードがより可能性が低いシンボルに対応するように構成され得る。このように、VLCの使用は、たとえば、送信されるべき各シンボルに等長コードワードを使用して、ビット節約を達成し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。
図2は、本開示で説明する1つまたは複数の技法を実装またはさもなければ利用するように構成され、またはさもなければ動作可能であり得る、ビデオエンコーダの一例を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングとインターコーディングとを実行し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオにおける空間冗長性を低減または除去するために空間予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオにおける時間冗長性を低減または除去するために時間予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースのコーディングモードのいずれかを指し得る。単方向予測(Pモード)または双予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指し得る。
図2に示すように、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在ビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、ビデオデータメモリ38と、予測処理ユニット40と、参照ピクチャメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。予測処理ユニット40は、動き補償ユニット44と、動き推定ユニット42と、イントラ予測ユニット46と、区分ユニット48とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。デブロッキングフィルタ(図2に図示せず)もまた、再構成されたビデオからブロッキネスアーティファクトを除去するために、ブロック境界をフィルタ処理するために含まれ得る。所望される場合、デブロッキングフィルタは、典型的には、加算器62の出力をフィルタ処理することになる。追加のフィルタ(ループ内またはループ後)もまた、デブロッキングフィルタに加えて使用され得る。そのようなフィルタは、簡潔のために図示しないが、所望される場合、(ループ内フィルタとして)加算器62の出力をフィルタ処理し得る。
符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオフレームまたはスライスを受信し、それをビデオデータメモリ38に記憶する。フレームまたはスライスは、予測処理ユニット40によって複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間予測を提供するために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対する、受信されたビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は代替的に、空間予測を提供するために、コーディングされるべきブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対する、受信されたビデオブロックのイントラ予測コーディングを実行し得る。ビデオエンコーダ20は、複数のコーディングパスを実行して、たとえば、ビデオデータの各ブロックのための適切なコーディングモードを選択し得る。
その上、区分ユニット48は、以前のコーディングパスにおける以前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、区分ユニット48は、最初にフレームまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいて、LCUの各々をサブCUに区分し得る。予測処理ユニット40は、サブCUへのLCUの区分を示す4分木データ構造をさらに生成し得る。4分木のリーフノードCUは、1つまたは複数のPUと1つまたは複数のTUとを含み得る。
予測処理ユニット40は、たとえば、誤差結果に基づいて、コーディングモードのうちの1つ、イントラまたはインターを選択することができ、残差ブロックデータを生成するために加算器50に、および、参照フレームとして使用するための符号化ブロックを再構成するために加算器62に、得られたイントラまたはインターコード化ブロックを提供する。予測処理ユニット40はまた、動きベクトル、イントラモードインジケータ、区分情報、および他のそのようなシンタックス情報など、シンタックス要素をエントロピー符号化ユニット56に提供する。予測処理ユニット40は、レートひずみ分析を使用して、1つまたは複数のインターモードを選択し得る。
動き推定ユニット42および動き補償ユニット44は高集積され得るが、概念的な目的のために別々に示されている。動き推定ユニット42によって実行される動き推定は、ビデオブロックのための動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在フレーム(または他のコード化ユニット)内でコーディングされている現在ブロックに対する、参照フレーム(または他のコード化ユニット)内の予測ブロックに対する、現在ビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対差分和(SAD)、2乗差分和(SSD)、または他の差分メトリックによって決定され得る、ピクセル差分の観点で、コーディングされるべきブロックと厳密に一致することが見出されるブロックである。いくつかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64内に記憶された参照ピクチャのサブ整数ピクセル位置のための値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの4分の1ピクセル位置の値、8分の1ピクセル位置の値、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置および分数ピクセル位置に対する動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライス中のビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、その各々が参照ピクチャメモリ64内に記憶された1つまたは複数の参照ピクチャを識別する、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得る。動き推定ユニット42は、エントロピー符号化ユニット56および動き補償ユニット44に計算された動きベクトルを送る。
動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて、予測ブロックをフェッチまたは生成することを伴い得る。この場合も、動き推定ユニット42および動き補償ユニット44は、いくつかの例では、機能的に統合され得る。現在ビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックの位置を特定し得る。加算器50は、以下で説明するように、コーディングされている現在ビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42は、ルーマコーディングブロックに対して動き推定を実行し、動き補償ユニット44は、クロマコーディングブロックとルーマコーディングブロックの両方のために、ルーマコーディングブロックに基づいて計算された動きベクトルを使用する。予測処理ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30によって使用するための、ビデオブロックおよびビデオスライスに関連付けられたシンタックス要素を生成し得る。
イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42および動き補償ユニット44によって実行されるインター予測の代替として、現在ブロックをイントラ予測し得る。具体的には、イントラ予測ユニット46は、現在ブロックを符号化するために使用するためのイントラ予測モードを決定し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パスの間、様々なイントラ予測モードを使用して現在ブロックを符号化してよく、イントラ予測ユニット46(または、いくつかの例では、予測処理ユニット40)は、テストされたモードから、使用するための適切なイントラ予測モードを選択し得る。
たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードに対してレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中から最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された、元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックのための最良のレートひずみ値を示すのかを決定するために、様々な符号化ブロックのためのひずみおよびレートから比を計算し得る。
ブロックのためのイントラ予測モードを選択した後、イントラ予測ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報を、エントロピー符号化ユニット56に提供し得る。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、複数のイントラ予測モードインデックステーブルおよび複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)を含み得る、送信されるビットストリーム構成データ内に、様々なブロックのための符号化コンテキストの定義と、コンテキストの各々について使用するための、最もあり得るイントラ予測モード、イントラ予測モードインデックステーブル、および変更されたイントラ予測モードインデックステーブルの指示とを含め得る。
ビデオエンコーダ20は、コーディングされている元のビデオブロックから、予測処理ユニット40からの予測データを減算することによって、残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を、残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換、または他のタイプの変換もまた使用され得る。いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換し得る。変換処理ユニット52は、結果として生じた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために、変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連付けられたビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット56が走査を実行し得る。
量子化に続いて、エントロピー符号化ユニット56は、量子化変換係数をエントロピーコーディングする。たとえば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディング、または別のエントロピーコーディング技法を実行し得る。コンテキストベースのエントロピーコーディングの場合には、コンテキストは隣接ブロックに基づき得る。エントロピー符号化ユニット56によるエントロピーコーディングに続いて、符号化ビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)へ送信されるか、または、後の送信もしくは取出しのためにアーカイブされ得る。
逆量子化ユニット58および逆変換ユニット60は、たとえば、参照ブロックとして後に使用するための、ピクセル領域における残差ブロックを再構成するために、それぞれ、逆量子化および逆変換を適用する。動き補償ユニット44は、参照ピクチャメモリ64のフレームのうちの1つの予測ブロックに残差ブロックを加算することによって、参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するためのサブ整数ピクセル値を計算し得る。加算器62は、動き補償ユニット44によって生成された動き補償された予測ブロックに再構成された残差ブロックを加算して、参照ピクチャメモリ64内に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオフレーム中のブロックをインターコード化するために、参照ブロックとして、動き推定ユニット42および動き補償ユニット44によって使用され得る。
図3は、本開示で説明する1つまたは複数の技法を実装またはさもなければ利用するように構成され、またはさもなければ動作可能であり得る、ビデオデコーダの一例を示すブロック図である。図3の例では、ビデオデコーダ30は、ビデオデータメモリ68と、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、加算器80と、参照ピクチャメモリ82とを含む。図3の例では、ビデオデコーダ30は予測ユニット71を含み、予測ユニット71は、同様に、動き補償ユニット72とイントラ予測ユニット74とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関連して説明した符号化パスとは概して逆の復号パスを実行し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルに基づいて、予測データを生成し得るが、イントラ予測ユニット74は、エントロピー復号ユニット70から受信されたイントラ予測モードインジケータに基づいて、予測データを生成し得る。
復号プロセス中に、ビデオデコーダ30のビデオデータメモリ68は、符号化ビデオビットストリームを受信し、符号化ビデオビットストリームをビデオデータメモリ68に記憶する。符号化ビデオビットストリームは、ビデオエンコーダ20から送信された、符号化ビデオスライスのビデオブロックと関連するシンタックス要素とを表す。エントロピー復号ユニット70は、ビットストリームをエントロピー復号して、量子化された係数と、動きベクトルまたはイントラ予測モードインジケータと、他のシンタックス要素とを生成する。エントロピー復号ユニット70は、動きベクトルと他のシンタックス要素とを動き補償ユニット72に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信し得る。
ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの以前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化(すなわち、B、P、またはGPBフレーム)スライスとしてコーディングされるとき、動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルと他のシンタックス要素とに基づいて、現在ビデオスライスのビデオブロックのための予測ブロックを生成する。予測スライス(Pスライス)および一般化PスライスおよびBスライス(GPBスライス)は、以前のフレームからのデータを使用して、スライスを定義し得るが、双方向予測スライス(Bスライス)は、以前のフレームと前方のフレームの両方を使用して、スライスを定義し得る。いくつかの例示的な手法では、予測ブロックは、参照ピクチャリストのうちの1つの中の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ82内に記憶された参照ピクチャに基づいて、デフォルトの構成技法を使用して、参照フレームリスト、リスト0およびリスト1を構成し得る。
動き補償ユニット72は、動きベクトルと他のシンタックス要素とをパースすることによって、現在ビデオスライスのビデオブロックのための予測情報を決定し、予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。たとえば、動き補償ユニット72は、受信したシンタックス要素の一部を使用して、ビデオスライスのビデオブロックをコーディングするために使用された予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスのための参照ピクチャリストのうちの1つまたは複数のための構成情報と、スライスの各インター符号化ビデオブロックのための動きベクトルと、スライスの各インターコード化ビデオブロックのためのインター予測状態と、現在ビデオスライス内のビデオブロックを復号するための他の情報とを決定する。
動き補償ユニット72はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット72は、ビデオブロックの符号化の間にビデオエンコーダ20によって使用されるように補間フィルタを使用して、参照ブロックのサブ整数ピクセルのための補間値を計算し得る。この場合、動き補償ユニット72は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、補間フィルタを使用して、予測ブロックを生成し得る。
逆量子化ユニット76は、ビットストリーム中で提供され、エントロピー復号ユニット70によって復号された量子化変換係数を逆量子化(inverse quantize)、すなわち逆量子化(de quantize)する。逆量子化プロセスは、量子化の程度を決定し、同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライス中の各ビデオブロックのための、ビデオデコーダ30によって計算された量子化パラメータQPYの使用を含み得る。
逆変換ユニット78は、ピクセル領域における残差ブロックを生成するために、変換係数に逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを適用する。
動き補償ユニット72が、動きベクトルと他のシンタックス要素とに基づいて現在ビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックを、動き補償ユニット72によって生成された対応する予測ブロックと加算することによって、復号ビデオブロックを形成する。加算器80は、この加算演算を実行する1つまたは複数の構成要素を表す。所望される場合、デブロッキングフィルタもまた、ブロッキネスアーティファクトを除去するために、復号ブロックをフィルタ処理するために適用され得る。(コーディングループ内またはコーディングループ後のいずれかの)他のループフィルタもまた、ピクセル遷移を平滑化するため、またはさもなければビデオ品質を改善するために使用され得る。次いで、所与のフレームまたはピクチャ内の復号ビデオブロックは、後続の動き補償のために使用される参照ピクチャを記憶する参照ピクチャメモリ82内に記憶される。参照ピクチャメモリ82はまた、図1のディスプレイデバイス32などのディスプレイデバイス上で後に提示するための復号ビデオを記憶する。
適応型成分間残差予測について、次に説明する。
成分間冗長性は、YCbCr色空間中で著しく低減されるが、3つの色成分間の相関は、依然として存在し得る。特に4:4:4クロマフォーマットビデオコーディングでは、相関をさらに低減することによって、ビデオコーディング性能を向上させるために、様々な方法が研究されている。1つの手法では、スケール係数およびオフセットが、再構成されたルーマ信号からクロマ信号を予測するために、各ブロックについて使用される。(B. C. Song、Y. G. Lee、およびN. H. Kim、「Block adaptive inter-color compensation algorithm for RGB 4:4:4 video coding」、IEEE Trans. Circuits Syst. Video Technol.、vol. 18、no. 10、1447〜1451ページ、2008年10月、LM proposalを参照。)
別の手法では、成分間予測(CCP:Cross Component Prediction)と呼ばれる技法が残差領域において実行される。(W. Pu、W.-S. Kim、J. Chen、J. Sole、M. Karczewicz、「RCE1:Descriptions and Results for Experiments 1, 2, 3, and 4」、ITU-T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT-VC)、JCTVC-O0202、ジュネーブ、2013年11月を参照。)CCPでは、クロマ残差信号が、次のようにエンコーダ側で、再構成されたルーマ残差信号を使用して予測され、
Figure 0006543716
次のように、デコーダ側で補償される。
Figure 0006543716
ただし、rC(x,y)およびr'C(x,y)は、位置(x,y)における元のクロマ残差サンプル、および再構成されたクロマ残差サンプルを示す。CCPでは、ΔrC(x,y)およびΔr'C(x,y)は、成分間予測後の最終的なクロマ残差サンプルを示すが、r'L(x,y)は、再構成されたルーマ残差サンプル値を表す。いくつかの例では、重み付け係数αが、HEVCにおけるクロマ変換ユニットごとにビットストリームに明示的にシグナリングされる。この成分間残差予測方法は、イントラ予測残差とインター予測残差の両方について実行される、4:4:4クロマサンプリングフォーマットビデオコーディングのためのHEVC規格のフォーマットおよびレンジ拡張において採用された。CCP方法も提案されたが、4:2:0ビデオフォーマットコーディングについてはまだ採用されていない。
ルーマを使用してクロマ成分を予測することに加えて、クロマ成分のうちの1つを使用して、他のクロマ成分を予測することが可能である。すなわち、いくつかの例示的な手法では、再構成された早期コード化Cb残差が、Cr残差を予測するために使用され得る。(A. Khairat、T. Nguyen、M. Siekmann、D. Marpe、「Non-RCE1:Extended Adaptive Inter-Component Prediction」、ITU-T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT-VC)、JCTVC-O0150、ジュネーブ、2013年11月を参照。)
4:2:0クロマビデオコーディングでは、線形モデル(LM)予測モードと呼ばれる方法が、HEVC規格の開発中によく研究された。(J. Chen、V. Seregi、W.-J. Han、J.-S. Kim、B.-M. Joen.、「CE6.a.4: Chroma intra prediction by reconstructed luma samples」、ITU-T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT-VC)、JCTVC-E266、ジュネーブ、2011年3月16〜23日を参照。)LM予測モードでは、クロマサンプルは、次のように線形モデルを使用することによって、同じブロックの再構成されたルーマサンプルに基づいて予測される。
predC(i,j)=α・recL(i,j)+β (3)
ただし、predC(i,j)は、ブロック中のクロマサンプルの予測を表し、recL(i,j)は、同じブロックのダウンサンプリングされた再構成されたルーマサンプルを表す。パラメータαおよびβは、現在ブロックの周囲の隣接する再構成されたルーマサンプルとクロマサンプルとの間の回帰誤差を最小化することによって導出される。
Figure 0006543716
パラメータαおよびβは、次のように解かれる。
Figure 0006543716
β=(Σyi-α・Σxi)/N (6)
ただし、xiは、ダウンサンプリングされた再構成されたルーマ参照サンプルであり、yiは、再構成されたクロマ参照サンプルであり、Nは、参照サンプルの数である。
LM予測モードの問題は、LM予測モードでは、クロマ成分を予測するために、再構成されたルーマサンプルが使用されることである。これによって、追加の符号化/複号遅延がクロマコーディングに導入される。そのような遅延によって、特にハードウェア実装形態では、実装コストが著しく増加することがある。LMモードの別の欠点は、インター予測モードで使用されることが容易ではないことである。
成分間予測(CCP)方法の問題は、重み付け係数(または、線形モデルのための任意の他のパラメータ)のブロックレベルシグナリングコストのために、コーディング利得が制限されることである。
成分間残差予測では、重み付け係数は、空間的または時間的に隣接する再構成されたサンプルに基づいて、エンコーダ20とデコーダ30の両方において導出される。残差は、限定されないが、イントラおよびインター予測残差であり得、任意の種類の予測方法の残差であり得る。CCPの場合のように、線形ブロックパラメータを転送する必要はない。
重み付け係数を定義する方法について、次に説明する。それらの方法は、個々に、または任意の組合せにおいて適用され得る。
概して、線形モデルは、信号XおよびYの2つのセットの間の予測誤差を最小化するように設計され得、ここにおいて、Xは予測信号として示され、Yは、最適化中のターゲット信号として示される。
Figure 0006543716
1つまたは複数の重み付け係数αおよび/またはβが、ある色成分のインターまたはイントラ予測残差に適用されて、別の色成分が予測される。1つの例示的な手法では、上記の線形モデルから導出された線形モデルパラメータ(たとえば、重み付け係数αまたはオフセットβ)のうちの1つまたは複数が、ある色成分(たとえば、ルーマ成分)のインターまたはイントラ予測残差に適用されて、別の色成分(たとえば、Cbおよび/またはCr成分)が予測される。そのようなモデルはまた、復号順序(たとえば、CbからCr)において他の成分にも適用され得る。加えて、それらの成分の復号順序は、中間で切り替えられることがあり、成分間予測技法が依然として適用される。
図4は、本開示の一態様による、ビデオデータの符号化の一例を示すフローチャートである。図4の例示的な手法では、ビデオエンコーダ20は、ターゲット色成分の予測残差信号を決定する(100)。1つのそのような例示的な手法では、エンコーダ20は、現在ブロックのターゲット色成分の予測残差信号を、線形モデルの1つまたは複数のパラメータと、現在ブロックのソース色成分の残差信号との関数として決定する。ビデオエンコーダ20は、ターゲット色成分の残りの残差信号を決定する(102)。1つのそのような手法では、エンコーダ20は、ターゲット色成分の残差信号から、ターゲット色成分の予測残差信号を減算することによって、ターゲット色成分の残りの残差信号を決定する。エンコーダ20は、ビデオビットストリーム中で符号化信号を出力する(106)前に、ターゲット色成分の残りの残差信号と、ソース色成分の残差信号とを符号化する(104)。
1つの例示的な手法では、線形モデルは、線形モデルのパラメータに基づいて、ソース色成分の残差信号から、ターゲット色成分の予測残差信号を予測する。エンコーダ20とデコーダ30の両方は、線形モデルの線形モデルパラメータをメモリ中で維持し、それらを以下で説明するように適用する。1つの例示的な手法では、エンコーダ20およびデコーダ30は、線形モデルパラメータを参照ブロックの関数として計算する。1つのそのような例示的な手法では、デフォルトパラメータ値は、パラメータ値を計算することが適切ではないときに使用するために、メモリ中で維持される。
図5は、本開示の一態様による、ビデオデータの符号化のより詳細な例を示すフローチャートである。図5の例示的な手法では、ビデオエンコーダ20は、クロマ色成分の予測残差信号を決定する(120)。1つのそのような例示的な手法では、エンコーダ20は、現在ブロックのターゲット色成分の予測残差信号を、線形モデルの1つまたは複数のパラメータと、現在ブロックのソース色成分の残差信号との関数として決定する。1つの例示的な手法では、線形モデルパラメータは、重み付け係数αとオフセットβとを含む。エンコーダ20は、線形モデルを使用して、クロマ色成分Crの予測残差信号を、ルーマ色成分の残差信号の関数として予測する。エンコーダ20は、クロマ色成分Crのための残りの残差信号を決定し(122)、残りの残差信号を、ルーマ色成分の残差信号とともに符号化し(124)、ビデオビットストリーム中で、ルーマ成分の符号化残差信号とともに、クロマ色成分Crの符号化された残りの残差信号を出力する。
色成分予測信号の符号化残差の復号について、次に説明する。図6は、本開示の一態様による、第2の色成分の残差信号からの、第1の色成分の残差信号の予測を示すフローチャートである。1つの例示的な手法では、ビデオデコーダ30は、ソース色成分の符号化残差信号と、ターゲット色成分の符号化された残りの残差信号とを受信し、それらの符号化残差信号をビデオデコーダ30のメモリ中に記憶し、符号化残差値を復号する。ビデオデコーダ30は、現在ブロックのソース色成分の復号残差信号に基づいて、現在ブロックのターゲット色成分の予測残差信号を予測する(140)。次いで、デコーダ30は、ターゲット色成分のための残差信号を、ターゲット色成分のための予測残差信号と、ターゲット色成分のための復号された残りの残差信号との関数として決定する(142)。
図7は、本開示の一態様による、Cr色成分の残差信号からの、Cb色成分の残差信号の予測を示すフローチャートである。1つの例示的な手法では、ビデオデコーダ30は、Cr色成分の符号化残差信号と、Cb色成分の残りの残差信号とを受信し、それらの符号化残差信号をビデオデコーダ30のメモリ中に記憶し、符号化残差信号を復号する。ビデオデコーダ30は、Cr色成分の復号残差信号と、線形モデルのパラメータ(たとえば、重み付け係数αおよびオフセットβ)とに基づいて、現在ブロックのCb色成分の予測残差信号を決定する(160)。次いで、デコーダ30は、Cb色成分のための残差信号を、Cb色成分のための予測残差信号と、Cb色成分のための復号された残りの残差信号との関数として決定する(162)。
1つの例示的な手法では、線形モデルのパラメータのデフォルト値が、ターゲット色成分の残差信号を予測するときに使用される。別の例示的な手法では、パラメータのうちの1つまたは複数の値が、以下で詳述するように、サンプル信号から導出される。1つのそのような例示的な手法では、線形モデルパラメータの導出された値が、ビデオエンコーダ20およびビデオデコーダ30のメモリ中に記憶され、変更されるまで、デフォルト値として使用される。
線形モデルのパラメータを導出する方法について、以下でインター予測およびイントラ予測について説明する。
図8は、本開示の一態様による、インター予測に基づく線形モデルのパラメータの導出を示すフローチャートである。図8の例示的な手法では、ビデオエンコーダ20は、参照インター予測ソース色成分X(200)と、対応する参照インター予測ターゲット色成分Y(202)とを選択する。ビデオエンコーダ20は、線形モデルにおける1つまたは複数の重み付け係数を、ソース色成分Xおよびターゲット色成分Yの関数として計算し(204)、ここにおいて、重み付け係数は、上記の式(7)に示すように、予測誤差を最小化するために計算される。1つのそのような例示的な手法では、ビデオエンコーダ20は、ターゲット色成分Yの値を、計算された重み付け係数と、ソース色成分Xの値との関数として予測する。
一例では、線形モデルは、βを0または任意のデフォルト値に等しく設定することによって簡略化される。別の例では、線形モデルは、αを1または任意のデフォルト値に等しく設定することによって簡略化され得る。
1つの例示的な手法では、時間隣接サンプル(たとえば、動き補償予測サンプル)が、線形モデルパラメータαおよび/またはβを導出するために、参照サンプルとして使用される。1つのそのような例では、予測信号Xは、ある成分(たとえば、参照ブロックのルーマ成分としても知られる、動き補償ルーマ成分)に属する動き補償信号であり、ターゲット信号Yは、別の成分(たとえば、参照ブロックのCb成分としても知られる、動き補償Cb成分)に属する動き補償信号である。
1つの例示的な手法では、予測信号Xは、ある成分(たとえば、ルーマ成分)のための参照ブロックの残差信号であり、ターゲット信号Yは、別の成分(たとえば、Cbおよび/またはCr成分)のための参照ブロックの残差信号である。1つのそのような場合には、参照ブロックの残差は、たとえば、参照の動き、または現在ブロックの動きベクトルに基づくスケーリングされた動きベクトルに基づいて、オンザフライで計算される。
1つの例示的な手法では、エンコーダ20は、参照ピクチャの残差ピクチャを記憶し、参照ピクチャの記憶された残差ピクチャから、参照ブロックの残差を導出する。1つのそのような例では、残差ブロックは、現在ブロックの動きベクトルに基づいて位置を特定される。別のそのような例では、残差ブロックは、参照ブロックと厳密に(たとえば、4×4グリッドにおいて)重複する残差ブロックにさらに設定される。
1つの例示的な手法では、エンコーダ20は、現在ブロックの動きベクトルに基づいて、残差ブロックを生成するとき、補間を適用する。1つのそのような例では、補間は、双線形フィルタを介したものである。
1つの例示的な手法では、エンコーダ20は、再構成された空間(たとえば、上および/または左)隣接サンプル(イントラLMのように)を参照サンプルとして使用して、線形モデルパラメータαおよび/またはβを導出する。1つのそのような例では、予測信号Xは、隣接サンプルのある成分(たとえば、ルーマ成分)の再構成された値を含み、ターゲット信号Yは、隣接サンプルの別の成分(たとえば、Cbおよび/またはCr、あるいはCoおよび/またはCg)の再構成された値を含む。
1つの例示的な手法では、エンコーダ20は、空間隣接サンプルと時間隣接サンプルの両方を使用して、αおよび/またはβを導出する。すなわち、予測信号Xは、(上記で説明したように)時間参照ブロックから導出されたX信号、および(上記で説明したように)空間隣接サンプルからのX信号からの、選択的合成である。一方、ターゲット信号Yは、(上記で説明したように)時間参照ブロックから導出されたY信号、および(上記で説明したように)空間隣接サンプルからのY信号からの、(対応する)選択的合成である。
いくつかの例示的な手法では、エンコーダ20は、線形モデルパラメータを導出するために使用される参照サンプルを選定するとき、空間隣接サンプルと時間隣接サンプルとの間で選択する。1つのそのような例では、エンコーダ20は、現在ブロックサイズに応じて、あるいは、現在ブロック、または隣接ブロックのうちの1つもしくは複数に対応する他の統計量に基づいて、空間隣接サンプルまたは時間隣接サンプルのいずれかを使用することの間で選定する。代表的な統計量には、ピクセル値、単一色成分サンプルの自己相関、および2つの色成分サンプルの間の相互相関が含まれる。
いくつかの例示的な手法では、ソースデバイス12は、リンク16を介して、または記憶デバイス31を通して、副次的情報をシグナリングする。副次的情報(フラグであり得る)は、たとえば、重み付け係数を導出するために使用されるべきサンプルXおよびYを示すために、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、スライスヘッダ、LCU、LCUレベルのグループ、または、任意の他のブロックレベルもしくは高レベルシンタックスボディにおいてシグナリングされ得る。
いくつかの例示的な手法では、線形モデルパラメータαおよび/またはβは、LM予測モードにおいて行われるように、参照ルーマおよびクロマサンプル間の回帰誤差を最小化することによって導出される。
イントラ予測残差例のいくつかの成分間予測では、空間的に(たとえば、上および/または左の)隣接する再構成サンプルが、線形モデルパラメータを導出するために参照サンプルとして使用され得る。
図9は、本開示の一態様による、イントラ予測残差の例示的な成分間予測を示すフローチャートである。図9の例示的な手法では、1つまたは複数の重み付け係数αおよび/またはβが、ある色成分のイントラ予測残差信号に適用されて、別の色成分が予測される。1つの例示的な手法では、エンコーダ20は、式(7)の線形モデルから導出された重み付け係数αおよびβのうちの1つまたは複数を、ある色成分(たとえば、ルーマ成分)のイントラ予測残差信号に適用して、別の色成分(たとえば、Cbおよび/またはCr成分)の予測残差信号を決定する。上記のインター予測モードの説明に示したように、そのようなモデルはまた、復号順序(たとえば、CbからCr)において他の成分にも適用され得る。加えて、それらの成分の復号順序は、中間で切り替えられることがあり、成分間予測技法が依然として適用される。次いで、色成分の予測残差信号が、同じ色成分の残りの残差信号と結合されて、その色成分の残差信号に達することができる。
図9の手法では、ビデオエンコーダ20は、イントラ予測色成分Xを選択する(300)。1つの例示的な手法では、ビデオエンコーダ20は、左ネイバーからの再構成されたサンプルをソース色成分Xとして使用する。別の例示的な手法では、ビデオエンコーダ20は、上ネイバーからの再構成されたサンプルをソース色成分Xとして使用する。また別の例示的な手法では、ビデオエンコーダ20は、上ネイバーおよび左ネイバーの各々からの再構成されたサンプルの関数として、ソース色成分Xを計算する。
ビデオエンコーダ20は、対応するイントラ予測ターゲット色成分Yを選択する(302)。ビデオエンコーダ20は、1つまたは複数の重み付け係数を、参照ソース色成分Xおよび参照ターゲット色成分Yの関数として計算し(304)、ここにおいて、重み付け係数は、上記の式(7)に示すように、予測誤差を最小化するために計算される。次いで、ビデオエンコーダ20は、ターゲット色成分Yの値を、計算された線形モデルパラメータと、ソース色成分Xの値との関数として予測する。
一例では、線形モデルは、βを0または任意のデフォルト値に等しく設定することによって簡略化され得る。別の例では、線形モデルは、αを1または任意のデフォルト値に等しく設定することによって簡略化される。
雑音または量子化誤差の考慮
成分間残差予測では、線形モデルが、空間的または時間的に隣接する再構成されたサンプルに基づいて解かれるとき、線形モデルパラメータ値は、参照サンプルの雑音/量子化誤差のために、または、現在ブロックサンプルと参照サンプルとの間の相違点のために、準最適であり得る。成分間残差予測の性能を向上させるために、いくつかの例では、αがデフォルト値に近くなることが期待されるという制約を、最適化問題が受けるように、制約が含まれる。同様に、αが何らかの他のデフォルト値に近くなることが期待されるという制約を、最適化問題が受けるように、制約が含まれ得る。いくつかの例示的な手法では、αの計算を1つまたは複数の制約にバイアスさせることによって、ビデオエンコーダ20は、成分間残差予測の性能を向上させる。
いくつかの例示的な手法では、ビデオエンコーダ20は、あらかじめ定義された重み付け係数αを、αを決定する際の制約として使用する。1つのそのような例示的な手法では、あらかじめ定義された重み付け係数αは、残差予測に関わる色成分の関数である。いくつかの例示的な手法では、たとえば、ビデオエンコーダ20は、Cr残差を使用してCr残差を予測するとき、-0.5のあらかじめ定義されたデフォルト重み付け係数を使用する。いくつかの例示的な手法では、ビデオエンコーダ20は、ルーマ残差を使用してクロマ残差を予測するとき、0のあらかじめ定義されたデフォルト重み付け係数を使用する。いくつかのそのような例示的な手法では、αのあらかじめ定義されたデフォルト重み付け係数は、色成分および色空間によって変動する。
1つの例示的な手法では、ビデオエンコーダ20は、必要に応じて、αのデフォルト値を適応的に修正する。たとえば、ビデオエンコーダ20は、YCbCr空間について経験的に決定されたαの値に基づいて、Cr残差を使用してCr残差を予測するとき、αのデフォルト値を-0.5としてシグナリングするが、次いで、ビデオビットストリームのコンテンツに基づいて、デフォルト値を修正し得る。1つの例示的な手法では、そのような変更が発生し、高レベルでシグナリングされて、ビデオエンコーダ20およびビデオデコーダ30がビデオビットストリーム中で変更に適応できるようになり得る。
いくつかの例示的な手法では、ソースデバイス12は、ビットストリーム中で、デフォルト重み付け係数α値および/またはβオフセット値をシグナリングする。様々な例示的な手法では、重み付け係数のデフォルト値は、SPS、PPS、スライスヘッダ、または任意の他の場所において高レベルシンタックスとしてシグナリングされる。いくつかの例では、デフォルト重み付け係数値は、CU、LCU、LCUのグループ、または他のブロックレベルにおいてシグナリングされる。
いくつかの例示的な手法では、デフォルト値がシグナリングされないとき、あらかじめ定義された値が使用される。いくつかのそのような例示的な手法では、異なるデフォルト値が、異なる色空間のために使用され得る。いくつかの例示的な手法では、デフォルトパラメータ値は、いくつかの色空間のためにのみ使用される。
いくつかの例示的な手法では、デフォルト重み付け係数α値および/またはβオフセット値は、一般に雑音/量子化誤差に対してより耐性のある、あらかじめ定義されたしきい値よりも大きいブロックサイズのための以前にオンザフライで導出されたα値および/またはβオフセット値を使用して更新される。いくつかのそのような例では、16×16、32×32、またはそれ以上のブロックサイズのしきい値が使用される。
いくつかの例示的な手法では、現在導出されたα値および/またはβオフセット値と、隣接する導出されたα値および/またはβオフセット値との間の差分が、あらかじめ定義されたしきい値または比未満であるように、重み付けα値および/またはβオフセット値の変動に対する制約が含まれる。
いくつかの例では、エンコーダ20は、専用のデフォルト値が重み付け係数の導出のために考慮に入れられるか否かを決定する選択機構を含む。いくつかのそのような例では、選択は、現在ブロックのコンテキストに依存する。たとえば、デフォルト重み付け係数α値は、成分間予測が2つのクロマ成分間で適用されるとき、重み付け係数を導出するときに考慮に入れられ得るが、クロマ成分がルーマ成分から予測されるとき、考慮されなくてよい。いくつかの例では、デフォルト重み付け係数α値は、ブロックサイズがしきい値サイズの上または下であるとき、または現在ブロックの他の特徴に基づいて、重み付け係数導出を導出するとき、考慮に入れられ得る。
1つの例示的な手法では、専用デフォルト値は、重み付け係数を導出するときに考慮に入れられることがあり、現在ブロックのコンテキストに依存し得る。1つの例示的な手法では、デフォルトα値に対する回帰コストは、次のように誤差関数に追加される。
Figure 0006543716
そして、最適なαは、次のように解かれる。
Figure 0006543716
式(9)に基づいて、導出されたα値は、デフォルト値に近いままであるべきである。
λの値は、デフォルト値αdefaultが最終的に導出されるα値にどのくらい大きい影響を及ぼすかを決定する。デフォルト値αdefaultは、より大きいλ値が使用されるとき、より大きい影響を有する。λの値は、エンコーダとデコーダの両方のためにあらかじめ定義され得るが、そうでない場合、λの値は、ビットストリーム中でシグナリングされ得る。例示的な手法では、λの値は、(Σxi・xi)>>kに等しく設定され得、ただし、kは、あらかじめ定義された固定値(たとえば、7、8、または9)である。別の例示的な手法では、λの値は、コンテキストに基づいて変化し得る。たとえば、λの値は、現在ブロックの特徴(たとえば、ブロックサイズ、空間参照サンプルが使用されるか、時間参照サンプルが使用されるかなど)に基づいて変動し得る。
このプロセスはまた、上記で説明したLM予測モードにおいてα値および/またはβオフセット値を導出する間にも使用され得、その場合、ある成分(たとえば、ルーマまたはCb)の再構成されたサンプルが、線形モデルを用いて別の成分(たとえば、CbまたはCr)のサンプルを予測するために使用される。
いくつかの例示的な手法では、エンコーダ20は、パラメータαおよびβを導出するために、ダウンサンプリングまたはサブサンプリングされた参照サンプルを使用する前に、参照サンプル(たとえば、空間的または時間的に隣接する再構成されたサンプル)をダウンサンプリングまたはサブサンプリングすることによって、成分間残差予測におけるパラメータ導出プロセスの複雑さを低減する。いくつかの例では、エンコーダ20は、いつダウンサンプリングまたはサブサンプリングが参照サンプルに適用されるか、およびダウンサンプリングまたはサブサンプリングが参照サンプルに適用されるか否かを決定する。いくつかのそのような例では、ダウンサンプリングまたはサブサンプリングするか否かの判断は、現在ブロックのサイズ、参照サンプルが時間ネイバーからのものであるか、空間ネイバーからのものであるかなど、現在ブロックおよび/もしくは参照サンプルのコンテキスト、または現在ブロックもしくは参照サンプルの他の特徴に依存する。
いくつかのそのような例示的な手法では、エンコーダ20は、現在ブロックのサイズに応じて、ダウンサンプリングまたはサブサンプリング比を変動させる。いくつかの例示的な手法では、より大きいブロックが処理されるとき、より高いダウンサンプリング/サブサンプリング比が適用される。
いくつかの例示的な手法では、ダウンサンプリング/サブサンプリング比は、参照サンプルが空間隣接サンプルであるか、時間隣接サンプルであるかによって異なる。1つのそのような例示的な手法では、比較的高いダウンサンプリング/サブサンプリング比が、時間参照サンプルに適用され得、比較的小さいダウンサンプリング/サブサンプリング比(または、ダウンサンプリング/サブサンプリング比なし)が、空間参照サンプルに適用され得る。
このダウンサンプリング/サブサンプリング方法はまた、LM予測モードにも適用され得、その場合、ある成分(たとえば、ルーマまたはCb)の再構成されたサンプルが、線形モデルを使用して、別の成分(たとえば、CbまたはCr)のサンプルを予測するために使用される。
例に応じて、本明細書で説明する技法のいずれかのいくつかの行為またはイベントは異なる順序で実行されてもよく、全体的に追加され、統合され、または省略されてもよい(たとえば、説明する行為またはイベントのすべてが技法の実施のために必要であるとは限らない)ことを認識されたい。その上、いくつかの例では、行為またはイベントは、順次的にではなく、たとえばマルチスレッド処理、割り込み処理、または複数のプロセッサを通じて同時に実行され得る。
1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せにおいて実装され得る。ソフトウェアにおいて実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶され得、またはコンピュータ可読媒体を介して送信され得、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応する、コンピュータ可読記憶媒体を含み得るか、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、一般に、(1)非一時的な有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明する技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。本明細書で使用する「シグナリング」という用語は、符号化ビットストリームとともにデータを記憶すること、または他の方法で含めることを含み得る。言い換えれば、本開示による様々な例では、「シグナリング」という用語は、データのリアルタイム通信、または代替的に、リアルタイムで実行されない通信に関連付けられ得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、フラッシュメモリ、または、命令もしくはデータ構造の形式の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を含み得る。また、いかなる接続も適切にコンピュータ可読媒体と呼ばれる。たとえば、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから命令が送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的な媒体を含まず、代わりに非一時的な有形記憶媒体を指すことを理解されたい。ディスク(disk)およびディスク(disc)は、本明細書で使用するとき、コンパクトディスク(disc)(CD)、レーザーディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)、およびBlu-rayディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生する一方で、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価の集積論理回路もしくは離散論理回路のような、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明する技法の実装に適した任意の他の構造のいずれかを指し得る。さらに、いくつかの態様では、本明細書で説明する機能は、符号化および復号のために構成された専用のハードウェアモジュールおよび/またはソフトウェアモジュール内に与えられてよく、あるいは複合コーデックに組み込まれてよい。また、技法は、1つまたは複数の回路または論理要素において完全に実装され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。開示する技法を実行するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットについて本開示で説明するが、これらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明したように、様々なユニットは、コーデックハードウェアユニットにおいて結合されてよく、または適切なソフトウェアおよび/もしくはファームウェアとともに、上記で説明したような1つもしくは複数のプロセッサを含む相互動作可能なハードウェアユニットの集合によって提供されてもよい。
様々な例について説明してきた。これらおよび他の例は、以下の特許請求の範囲内に入る。
10 システム
12 ソースデバイス
14 宛先デバイス
16 リンク
18 ビデオソース
20 ビデオエンコーダ、エンコーダ
22 出力インターフェース
28 入力インターフェース
30 ビデオデコーダ、デコーダ
31 記憶デバイス
32 ディスプレイデバイス
38、68 ビデオデータメモリ
40 予測処理ユニット
42 動き推定ユニット
44、72 動き補償ユニット
46、74 イントラ予測ユニット
48 区分ユニット
50、62、80 加算器
52 変換処理ユニット
54 量子化ユニット
56 エントロピー符号化ユニット
58、76 逆量子化ユニット
60、78 逆変換ユニット
64、82 参照ピクチャメモリ
70 エントロピー復号ユニット
71 予測ユニット

Claims (68)

  1. ビデオデータを符号化する方法であって、
    エンコーダ内で、前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するステップであって、前記線形モデルが1つまたは複数のパラメータに基づく、ステップと、
    前記エンコーダ内で、前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定するステップと、
    前記ターゲット色成分の前記残りの残差信号の値を符号化するステップと、
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力するステップと
    を含み、
    前記予測残差信号を決定することは、前記線形モデルの前記1つまたは複数のパラメータを決定するステップを含み、前記線形モデルの前記1つまたは複数のパラメータを決定するステップが、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定するステップと、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップであって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するステップを含む、ステップと、
    を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、方法。
  2. ビデオデータを符号化する方法であって、
    エンコーダ内で、前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するステップであって、前記線形モデルが1つまたは複数のパラメータに基づく、ステップと、
    前記エンコーダ内で、前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定するステップと、
    前記ターゲット色成分の前記残りの残差信号の値を符号化するステップと、
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力するステップと
    を含み、
    前記予測残差信号を決定することは、前記線形モデルの前記1つまたは複数のパラメータを決定するステップを含み、
    前記線形モデルの前記1つまたは複数のパラメータを決定するステップが、予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップであって、前記予測誤差が、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、ステップを含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、方法。
  3. 前記線形モデルの前記1つまたは複数のパラメータに対応するデフォルトパラメータ値を取り出すステップを含む、請求項1または2に記載の方法。
  4. 前記線形モデルの前記1つまたは複数のパラメータが、重み付け係数とオフセットとを含み、前記線形モデルが、前記ソース色成分の色成分タイプによって定義され、前記線形モデルの前記1つまたは複数のパラメータに対応するデフォルトパラメータ値を取り出すステップが、第1のソース色成分の前記色成分タイプに基づいて、前記ターゲット色成分の前記予測残差信号を決定するために前記線形モデルを使用するとき、第1のデフォルトパラメータ値を取り出すステップと、第2のソース色成分の前記色成分タイプに基づいて、前記ターゲット色成分の前記予測残差信号を決定するために前記線形モデルを使用するとき、第2のデフォルトパラメータ値を取り出すステップとを含む、請求項3に記載の方法。
  5. 前記線形モデルの前記1つまたは複数のパラメータが、重み付け係数とオフセットとを含み、前記線形モデルが、前記ソース色成分の色成分タイプによって定義され、1つの色成分タイプがルーマであり、もう1つの色成分タイプがクロマであり、前記ソース色成分が、ルーマ色成分タイプまたは第1のクロマ色成分タイプのうちの1つであり、前記ターゲット色成分が、第2のクロマ色成分タイプであり、
    前記線形モデルの前記1つまたは複数のパラメータに対応するデフォルトパラメータ値を取り出すステップが、
    ルーマ色成分の残差信号を使用して、第1のクロマ色成分の残差信号を予測するとき、第1のデフォルト重み付け係数を取り出すステップと、
    第2のクロマ色成分の残差信号を使用して、前記第1のクロマ色成分の前記残差信号を予測するとき、前記第1のデフォルト重み付け係数とは異なる第2のデフォルト重み付け係数を取り出すステップと
    を含む、請求項3に記載の方法。
  6. 前記第2のデフォルト重み付け係数が-0.5である、請求項5に記載の方法。
  7. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、E(α,β)を最小化する重み付け係数αとオフセットβとを選択するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項1または2に記載の方法。
  8. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、E(α)を最小化する重み付け係数αを選択するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項1または2に記載の方法。
  9. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、E(β)を最小化するオフセットβを選択するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項1または2に記載の方法。
  10. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、前記ターゲット色成分の色成分タイプと、前記ソース色成分の色成分タイプとに基づいて、あらかじめ定義されたパラメータ値を選択するステップと、前記選択されたあらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するステップとを含む、請求項1または2に記載の方法。
  11. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するステップを含み、線形モデルパラメータを導出するステップが、あらかじめ定義されたパラメータ値に近くなるように、前記線形モデルパラメータを制約するステップと、前記線形モデルパラメータと、1つまたは複数の時間または空間隣接ブロックの線形モデルパラメータとの間の変動を制限するステップとを含む、請求項1または2に記載の方法。
  12. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、
    前記ソース色成分が第1の色成分タイプであるかどうかを決定するステップと、
    前記ソース色成分が前記第1の色成分タイプであるとき、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの前記線形モデルパラメータを導出するステップと
    を含む、請求項1または2に記載の方法。
  13. 前記線形モデルパラメータを導出するステップが、前記あらかじめ定義されたパラメータ値を、前記線形モデルパラメータで置き換えるステップを含む、請求項1に記載の方法。
  14. 前記線形モデルパラメータを導出するステップが、ブロックサイズが、あらかじめ定義されたしきい値ブロックサイズよりも大きい場合、前記あらかじめ定義されたパラメータ値を、前記線形モデルパラメータで置き換えるステップを含む、請求項1に記載の方法。
  15. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの時間隣接またはコロケートされた参照ブロックの、それぞれ第1の色成分および第2の色成分である、請求項1または2に記載の方法。
  16. 前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、現在のブロックの時間隣接またはコロケートされた参照ブロックの、それぞれ第1の色成分および第2の色成分に対応する残差信号である、請求項1または2に記載の方法。
  17. 前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、現在のブロックの、それぞれ第1の色成分および第2の色成分に対応する空間隣接サンプル値および時間隣接サンプル値を含む、請求項1または2に記載の方法。
  18. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの空間隣接サンプルおよび時間隣接サンプルを含む、複数のサンプルから選択され、前記選択されるサンプルが、現在ブロックまたは隣接ブロックに関連付けられた統計量の関数として選択される、請求項1または2に記載の方法。
  19. 前記線形モデルの1つまたは複数のパラメータを決定するステップをさらに含み、前記線形モデルの1つまたは複数のパラメータを決定するステップが、
    予測誤差を、参照ターゲット色成分のダウンサンプリングまたはサブサンプリングされた参照サンプル値と、参照ソース色成分のダウンサンプリングまたはサブサンプリングされた参照サンプル値との関数として決定するステップと、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップと
    を含む、請求項1または2に記載の方法。
  20. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの空間隣接サンプルおよび時間隣接サンプルを含む、複数のサンプルから選択され、ダウンサンプリングが、ダウンサンプリング比によって定義され、時間隣接サンプルのために使用される前記ダウンサンプリング比が、空間隣接サンプルのために使用される前記ダウンサンプリング比とは異なる、請求項19に記載の方法。
  21. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの空間隣接サンプルおよび時間隣接サンプルを含む、複数のサンプルから選択され、サブサンプリングが、サブサンプリング比によって定義され、時間隣接サンプルのために使用される前記サブサンプリング比が、空間隣接サンプルのために使用される前記サブサンプリング比とは異なる、請求項19に記載の方法。
  22. ビデオデータを符号化するためのデバイスであって、
    前記ビデオデータを記憶するように構成されたメモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定すること、
    前記ターゲット色成分の前記残りの残差信号の値を符号化すること、および
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力すること
    を行うように構成され
    前記予測残差信号を決定することは、前記線形モデルの前記1つまたは複数のパラメータを決定することを含み、前記線形モデルの前記1つまたは複数のパラメータを決定することが、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定することと、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出することを含む、ことと、
    を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  23. ビデオデータを符号化するためのデバイスであって、
    前記ビデオデータを記憶するように構成されたメモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定すること、
    前記ターゲット色成分の前記残りの残差信号の値を符号化すること、および
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力すること
    を行うように構成され、
    前記予測残差信号を決定することは、前記線形モデルの前記1つまたは複数のパラメータを決定することを含み、
    前記線形モデルの前記1つまたは複数のパラメータを決定することが、予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、前記予測誤差が、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、ことを含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  24. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、E(α,β)を最小化する重み付け係数αとオフセットβとを選択することを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項22または23に記載のデバイス。
  25. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、E(α)を最小化する重み付け係数αを選択することを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項22または23に記載のデバイス。
  26. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、E(β)を最小化するオフセットβを選択することを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項22または23に記載のデバイス。
  27. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、前記ターゲット色成分の色成分タイプと、前記ソース色成分の色成分タイプとに基づいて、あらかじめ定義されたパラメータ値を選択すること、および、前記選択されたあらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出することを含む、請求項22または23に記載のデバイス。
  28. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出することを含み、線形モデルパラメータを導出することが、あらかじめ定義されたパラメータ値に近くなるように、前記線形モデルパラメータを制約すること、および、前記線形モデルパラメータと、1つまたは複数の時間または空間隣接ブロックの線形モデルパラメータとの間の変動を制限することを含む、請求項22または23に記載のデバイス。
  29. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、
    前記ソース色成分が第1の色成分タイプのものであるかどうかを決定すること、および
    前記ソース色成分が前記第1の色成分タイプであるとき、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出すること
    を含む、請求項22または23に記載のデバイス。
  30. 前記線形モデルパラメータを導出することが、前記あらかじめ定義されたパラメータ値を、前記線形モデルパラメータで置き換えることを含む、請求項22に記載のデバイス。
  31. 前記線形モデルパラメータを導出することが、ブロックサイズが、あらかじめ定義されたしきい値ブロックサイズよりも大きい場合、前記あらかじめ定義されたパラメータ値を、前記線形モデルパラメータで置き換えることを含む、請求項22に記載のデバイス。
  32. ビデオデータを符号化するためのデバイスであって、
    エンコーダ内で、前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するための手段であって、前記線形モデルが1つまたは複数のパラメータに基づく、手段と、
    前記エンコーダ内で、前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定するための手段と、
    前記ターゲット色成分の前記残りの残差信号の値を符号化するための手段と、
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力するための手段と
    を備え
    予測残差信号を決定するために線形モデルを使用するための前記手段は、前記線形モデルの前記1つまたは複数のパラメータを決定するための手段を含み、前記線形モデルの前記1つまたは複数のパラメータを決定するための手段が、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定するための手段と、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するための手段であって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するための手段を含む、手段と、
    を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  33. ビデオデータを符号化するためのデバイスであって、
    エンコーダ内で、前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するための手段であって、前記線形モデルが1つまたは複数のパラメータに基づく、手段と、
    前記エンコーダ内で、前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定するための手段と、
    前記ターゲット色成分の前記残りの残差信号の値を符号化するための手段と、
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力するための手段と
    を備え、
    予測残差信号を決定するために線形モデルを使用するための前記手段は、前記線形モデルの前記1つまたは複数のパラメータを決定するための手段を含み、
    前記線形モデルの前記1つまたは複数のパラメータを決定するための手段が、予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するための手段であって、前記予測誤差が、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出するための手段を含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、手段を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  34. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するための前記手段が、E(α,β)を最小化する重み付け係数αとオフセットβとを導出するための手段を含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項32または33に記載のデバイス。
  35. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令が、実行されると、ビデオデータを符号化するためのデバイスの1つまたは複数のプロセッサに、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定すること、
    前記ターゲット色成分の前記残りの残差信号の値を符号化すること、および
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力すること
    を行わせ、
    予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定することを含み、前記線形モデルの1つまたは複数のパラメータを決定することが、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定すること、および
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出することを含む、こと
    を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、コンピュータ可読記憶媒体。
  36. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令が、実行されると、ビデオデータを符号化するためのデバイスの1つまたは複数のプロセッサに、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて、前記ターゲット色成分のための残りの残差信号を決定すること、
    前記ターゲット色成分の前記残りの残差信号の値を符号化すること、および
    ビデオビットストリーム中で前記符号化された残りの残差信号値を出力すること
    を行わせ、
    予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定することを含み、前記線形モデルの1つまたは複数のパラメータを決定することが、前記1つまたは複数のプロセッサに予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、前記予測誤差が、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出することを含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、ことを含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、コンピュータ可読記憶媒体。
  37. ビデオデータを復号する方法であって、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するステップであって、前記線形モデルが1つまたは複数のパラメータに基づく、ステップと、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて決定するステップと、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成するステップと
    を含み、
    前記予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定するステップを含み、前記線形モデルの1つまたは複数のパラメータを決定するステップが、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定するステップと、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップであって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するステップを含む、ステップと、
    を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、方法。
  38. ビデオデータを復号する方法であって、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するステップであって、前記線形モデルが1つまたは複数のパラメータに基づく、ステップと、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて決定するステップと、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成するステップと
    を含み、
    前記予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定するステップを含み、
    前記線形モデルの1つまたは複数のパラメータを決定するステップが、予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップであって、前記予測誤差が、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、ステップを含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、方法。
  39. ビデオビットストリームを受信するステップと、前記ターゲット色成分の前記残りの残差信号と、前記ソース色成分の前記残差信号とを表すデータを、メモリ中に記憶するステップとをさらに含む、請求項37または38に記載の方法。
  40. 前記線形モデルの前記1つまたは複数のパラメータに対応するデフォルトパラメータ値を取り出すステップをさらに含む、請求項37または38に記載の方法。
  41. 前記線形モデルの前記1つまたは複数のパラメータが、重み付け係数とオフセットとを含み、前記線形モデルが前記ソース色成分の色成分タイプによって定義され、前記線形モデルの前記1つまたは複数のパラメータに対応するデフォルトパラメータ値を取り出すステップが、第1のソース色成分の前記色成分タイプに基づいて、前記ターゲット色成分の前記予測残差信号を決定するために前記線形モデルを使用するとき、第1のデフォルトパラメータ値を取り出すステップと、第2のソース色成分の前記色成分タイプに基づいて、前記ターゲット色成分の前記予測残差信号を決定するために前記線形モデルを使用するとき、第2のデフォルトパラメータ値を取り出すステップとを含む、請求項40に記載の方法。
  42. 前記線形モデルの前記1つまたは複数のパラメータが、重み付け係数とオフセットとを含み、前記線形モデルが前記ソース色成分の色成分タイプによって定義され、1つの色成分タイプがルーマであり、もう1つの色成分タイプがクロマであり、前記ソース色成分が、ルーマ色成分タイプおよびクロマ色成分タイプのうちの1つであり、前記ターゲット色成分が、クロマ色成分タイプであり、
    前記線形モデルの前記1つまたは複数のパラメータに対応するデフォルトパラメータ値を取り出すステップが、
    ルーマ色成分の残差信号を使用して、第1のクロマ色成分の残差信号を予測するとき、第1のデフォルト重み付け係数を取り出すステップと、
    第2のクロマ色成分の残差信号を使用して、前記第1のクロマ色成分の残差信号を予測するとき、前記第1のデフォルト重み付け係数とは異なる第2のデフォルト重み付け係数を取り出すステップと
    を含む、請求項40に記載の方法。
  43. 前記第2のデフォルト重み付け係数が-0.5である、請求項42に記載の方法。
  44. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、E(α,β)を最小化する重み付け係数αとオフセットβとを選択するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項37または38に記載の方法。
  45. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、E(α)を最小化する重み付け係数αを選択するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項37または38に記載の方法。
  46. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、E(β)を最小化するオフセットβを選択するステップを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項37または38に記載の方法。
  47. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、前記ターゲット色成分の色成分タイプと、前記ソース色成分の色成分タイプとに基づいて、あらかじめ定義されたパラメータ値を選択するステップと、前記選択されたあらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するステップとを含む、請求項37または38に記載の方法。
  48. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するステップを含み、線形モデルパラメータを導出するステップが、あらかじめ定義されたパラメータ値に近くなるように、前記線形モデルパラメータを制約するステップと、前記線形モデルパラメータと、1つまたは複数の時間または空間隣接ブロックの線形モデルパラメータとの間の変動を制限するステップとを含む、請求項37または38に記載の方法。
  49. 前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップが、
    前記ソース色成分が第1の色成分タイプであるかどうかを決定するステップと、
    前記ソース色成分が前記第1の色成分タイプであるとき、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するステップと
    を含む、請求項37または38に記載の方法。
  50. 前記線形モデルパラメータを導出するステップが、前記あらかじめ定義されたパラメータ値を、前記線形モデルパラメータで置き換えるステップを含む、請求項37に記載の方法。
  51. 前記線形モデルパラメータを導出するステップが、ブロックサイズが、あらかじめ定義されたしきい値ブロックサイズよりも大きい場合、前記あらかじめ定義されたパラメータ値を、前記線形モデルパラメータで置き換えるステップを含む、請求項37に記載の方法。
  52. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの時間隣接またはコロケートされた参照ブロックの、それぞれ第1の色成分および第2の色成分である、請求項37または38に記載の方法。
  53. 前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、現在のブロックの時間隣接またはコロケートされた参照ブロックの、それぞれ第1の色成分および第2の色成分に対応する残差信号である、請求項37または38に記載の方法。
  54. 前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、現在のブロックの、それぞれ第1の色成分および第2の色成分に対応する空間隣接サンプル値および時間隣接サンプル値を含む、請求項37または38に記載の方法。
  55. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの空間隣接サンプルおよび時間隣接サンプルを含む、複数のサンプルから選択され、前記選択されるサンプルが、現在ブロックまたは隣接ブロックに関連付けられた統計量の関数として選択される、請求項37または38に記載の方法。
  56. 前記線形モデルの1つまたは複数のパラメータを決定するステップをさらに含み、前記線形モデルの1つまたは複数のパラメータを決定するステップが、
    予測誤差を、参照ターゲット色成分のダウンサンプリングまたはサブサンプリングされた参照サンプル値と、参照ソース色成分のダウンサンプリングまたはサブサンプリングされた参照サンプル値との関数として決定するステップと、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するステップと
    を含む、請求項37または38に記載の方法。
  57. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの空間隣接サンプルおよび時間隣接サンプルを含む、複数のサンプルから選択され、ダウンサンプリングが、ダウンサンプリング比によって定義され、時間隣接サンプルのために使用される前記ダウンサンプリング比が、空間隣接サンプルのために使用される前記ダウンサンプリング比とは異なる、請求項56に記載の方法。
  58. 前記参照ターゲット色成分および前記参照ソース色成分が、現在のブロックの空間隣接サンプルおよび時間隣接サンプルを含む、複数のサンプルから選択され、サブサンプリングが、サブサンプリング比によって定義され、時間隣接サンプルのために使用される前記サブサンプリング比が、空間隣接サンプルのために使用される前記サブサンプリング比とは異なる、請求項56に記載の方法。
  59. ビデオデータを復号するためのデバイスであって、
    前記ビデオデータを記憶するように構成されたメモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号との関数として決定することと、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成することと
    を行うように構成され
    前記予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定することを含み、前記線形モデルの1つまたは複数のパラメータを決定することが、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定することと、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出することを含む、ことと、
    を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  60. ビデオデータを復号するためのデバイスであって、
    前記ビデオデータを記憶するように構成されたメモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号との関数として決定することと、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成することと
    を行うように構成され、
    前記予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定することを含み、
    前記線形モデルの1つまたは複数のパラメータを決定することが、予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、前記予測誤差が、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出することを含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、ことを含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  61. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、E(α,β)を最小化する重み付け係数αとオフセットβとを選択することを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項59または60に記載のデバイス。
  62. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、E(α)を最小化する重み付け係数αを選択することを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項59または60に記載のデバイス。
  63. 前記線形モデルの前記1つまたは複数のパラメータの値を選択することが、E(β)を最小化するオフセットβを選択することを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項59または60に記載のデバイス。
  64. ビデオデータを復号するためのデバイスであって、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するための手段であって、前記線形モデルが1つまたは複数のパラメータに基づく、手段と、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて決定するための手段と、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成するための手段と
    を備え
    予測残差信号を決定するために線形モデルを使用するための手段が、前記線形モデルの1つまたは複数のパラメータを決定するための手段を含み、前記線形モデルの1つまたは複数のパラメータを決定するための手段が、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定するための手段と、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するための手段であって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出するための手段を含む、手段とを含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  65. ビデオデータを復号するためのデバイスであって、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用するための手段であって、前記線形モデルが1つまたは複数のパラメータに基づく、手段と、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて決定するための手段と、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成するための手段と
    を備え、
    予測残差信号を決定するために線形モデルを使用するための手段が、前記線形モデルの1つまたは複数のパラメータを決定するための手段を含み、
    前記線形モデルの1つまたは複数のパラメータを決定するための手段が、予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択するための手段であって、前記予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出するための手段を含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、手段を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、デバイス。
  66. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令が、実行されると、ビデオデータを復号するためのデバイスの1つまたは複数のプロセッサに、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて決定することと、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成することと
    を行わせ
    前記予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定することを含み、前記線形モデルの1つまたは複数のパラメータを決定することが、
    予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数として決定することと、
    前記予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、あらかじめ定義されたパラメータ値に近くなるように、線形モデルパラメータを制約することによって、前記線形モデルの前記1つまたは複数のパラメータのうちの線形モデルパラメータを導出することを含む、ことと、
    を含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、コンピュータ可読記憶媒体。
  67. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令が、実行されると、ビデオデータを復号するためのデバイスの1つまたは複数のプロセッサに、
    前記ビデオデータの現在ブロックのソース色成分の残差信号に基づいて、前記現在ブロックのターゲット色成分の予測残差信号を決定するために線形モデルを使用することであって、前記線形モデルが1つまたは複数のパラメータに基づく、ことと、
    前記ターゲット色成分の残差信号を、前記ターゲット色成分の復号された残りの残差信号と、前記ターゲット色成分の前記予測残差信号とに基づいて決定することと、
    前記ターゲット色成分の前記残差信号に基づいて、前記現在ブロックのサンプルを再構成することと
    を行わせ、
    前記予測残差信号を決定することが、前記線形モデルの1つまたは複数のパラメータを決定することを含み、
    前記線形モデルの1つまたは複数のパラメータを決定することが、予測誤差を最小化する、前記線形モデルの前記1つまたは複数のパラメータの値を選択することであって、前記予測誤差を、参照ターゲット色成分の参照サンプル値と、参照ソース色成分の参照サンプル値との関数であり、E(α,β)を最小化する重み付け係数αとオフセットβとを導出することを含み、ただし、
    Figure 0006543716
    であり、ただし、α default が、αのデフォルト値であり、y i が、前記参照ターゲット色成分の参照サンプル値であり、x i が、前記参照ソース色成分の参照サンプル値である、ことを含み、
    前記参照ターゲット色成分の前記参照サンプル値、および前記参照ソース色成分の前記参照サンプル値が、再構成された空間隣接サンプルの、それぞれ第1の色成分および第2の色成分である、コンピュータ可読記憶媒体。
  68. 記線形モデルの前記1つまたは複数のパラメータの値を選択することが、E(α,β)を最小化する重み付け係数αとオフセットβとを選択することを含み、ただし、
    Figure 0006543716
    であり、ただし、yiが、前記参照ターゲット色成分の参照サンプル値であり、xiが、前記参照ソース色成分の参照サンプル値である、請求項66または67に記載のコンピュータ可読記憶媒体。
JP2017538385A 2015-01-27 2016-01-27 適応型成分間残差予測 Active JP6543716B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562108491P 2015-01-27 2015-01-27
US62/108,491 2015-01-27
US15/006,994 US9998742B2 (en) 2015-01-27 2016-01-26 Adaptive cross component residual prediction
US15/006,994 2016-01-26
PCT/US2016/015129 WO2016123219A1 (en) 2015-01-27 2016-01-27 Adaptive cross component residual prediction

Publications (3)

Publication Number Publication Date
JP2018509035A JP2018509035A (ja) 2018-03-29
JP2018509035A5 JP2018509035A5 (ja) 2018-09-20
JP6543716B2 true JP6543716B2 (ja) 2019-07-10

Family

ID=56433529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017538385A Active JP6543716B2 (ja) 2015-01-27 2016-01-27 適応型成分間残差予測

Country Status (13)

Country Link
US (1) US9998742B2 (ja)
EP (1) EP3092803B1 (ja)
JP (1) JP6543716B2 (ja)
KR (1) KR102519241B1 (ja)
CN (1) CN107211124B (ja)
BR (1) BR112017016111A2 (ja)
CA (1) CA2972501C (ja)
EA (1) EA034473B1 (ja)
ES (1) ES2715555T3 (ja)
HU (1) HUE041885T2 (ja)
TN (1) TN2017000284A1 (ja)
TW (1) TWI705698B (ja)
WO (1) WO2016123219A1 (ja)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10491922B2 (en) 2015-09-29 2019-11-26 Qualcomm Incorporated Non-separable secondary transform for video coding
WO2017061189A1 (ja) * 2015-10-05 2017-04-13 シャープ株式会社 画像復号装置または画像符号化装置のための画像予測装置
US10623774B2 (en) 2016-03-22 2020-04-14 Qualcomm Incorporated Constrained block-level optimization and signaling for video coding tools
US20180014021A1 (en) * 2016-07-05 2018-01-11 Cisco Technology, Inc. Prediction in image and video compression
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US11095893B2 (en) 2016-10-12 2021-08-17 Qualcomm Incorporated Primary transform and secondary transform in video coding
WO2018116925A1 (ja) * 2016-12-21 2018-06-28 シャープ株式会社 イントラ予測画像生成装置、画像復号装置、および画像符号化装置
JP6680260B2 (ja) 2017-04-28 2020-04-15 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号化装置、画像復号化方法及び画像復号化プログラム
CN107580222B (zh) * 2017-08-01 2020-02-14 北京交通大学 一种基于线性模型预测的图像或视频编码方法
JP2021005741A (ja) * 2017-09-14 2021-01-14 シャープ株式会社 画像符号化装置及び画像復号装置
WO2019135636A1 (ko) * 2018-01-05 2019-07-11 에스케이텔레콤 주식회사 Ycbcr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
GB2571313B (en) * 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
KR20190130502A (ko) * 2018-05-14 2019-11-22 인텔렉추얼디스커버리 주식회사 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
CN110662065A (zh) * 2018-06-29 2020-01-07 财团法人工业技术研究院 图像数据解码方法及解码器、图像数据编码方法及编码器
CN110999290B (zh) * 2018-07-15 2021-07-16 华为技术有限公司 使用跨分量线性模型进行帧内预测的方法和装置
CN116347109A (zh) * 2018-08-17 2023-06-27 北京字节跳动网络技术有限公司 一种处理视频数据的方法和装置
TWI824006B (zh) 2018-09-12 2023-12-01 大陸商北京字節跳動網絡技術有限公司 交叉分量線性建模中的下採樣
GB2577338A (en) * 2018-09-24 2020-03-25 Sony Corp Data encoding and decoding
WO2020071617A1 (ko) * 2018-10-04 2020-04-09 엘지전자 주식회사 Cclm에 기반한 인트라 예측 방법 및 그 장치
WO2020094057A1 (en) * 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Position based intra prediction
CN118200544A (zh) * 2018-11-23 2024-06-14 英迪股份有限公司 图像解码方法、图像编码方法和传输图像的比特流的方法
BR122021014717B1 (pt) * 2018-11-23 2022-12-06 Lg Electronics Inc Método de decodificação de vídeo realizado por um aparelho de decodificação, método de codificação de vídeo realizado por um aparelho de codificação e mídia de armazenamento legível por computador não transitória
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
TWI734059B (zh) * 2018-12-10 2021-07-21 財團法人工業技術研究院 動態預測模型建立方法、電子裝置及使用者介面
CN117082250A (zh) * 2018-12-13 2023-11-17 华为技术有限公司 色度块的预测方法和装置
GB2580108A (en) * 2018-12-21 2020-07-15 Sony Corp Image data encoding and decoding
GB2580106A (en) * 2018-12-21 2020-07-15 Sony Corp Image data encoding and decoding
WO2020125794A1 (en) 2018-12-22 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Two step cross-component prediction mode
JP7304153B2 (ja) * 2018-12-27 2023-07-06 Kddi株式会社 動画像復号装置、動画像復号方法及びプログラム
WO2020140951A1 (en) 2019-01-02 2020-07-09 Beijing Bytedance Network Technology Co., Ltd. Motion vector derivation between color components
TWI675718B (zh) 2019-01-03 2019-11-01 財團法人工業技術研究院 工具機的加工件負載特性判斷及加速度調整方法
WO2020149630A1 (ko) * 2019-01-15 2020-07-23 엘지전자 주식회사 영상 코딩 시스템에서 cclm 예측 기반 영상 디코딩 방법 및 그 장치
EP3900362A4 (en) 2019-02-01 2022-03-02 Beijing Bytedance Network Technology Co., Ltd. SIGNALING LOOP SHAPED INFORMATION USING PARAMETER SETS
CN113424528A (zh) 2019-02-01 2021-09-21 北京字节跳动网络技术有限公司 环路整形和块差分脉冲编解码调制之间的相互作用
WO2020169101A1 (en) * 2019-02-22 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Neighbouring sample selection for intra prediction
US12114000B2 (en) 2019-03-08 2024-10-08 Qualcomm Incorporated Combined residual coding in video coding
WO2020182091A1 (en) 2019-03-08 2020-09-17 Beijing Bytedance Network Technology Co., Ltd. Reshaping model in video processing
CN111683247A (zh) * 2019-03-11 2020-09-18 上海天荷电子信息有限公司 多权重可减少分量数的分量间自预测数据压缩方法和装置
CN110662031B (zh) * 2019-03-11 2021-03-23 杭州海康威视数字技术股份有限公司 解码方法及装置
CN113574889B (zh) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
CN113632476B (zh) 2019-03-23 2024-03-19 北京字节跳动网络技术有限公司 默认的环内整形参数
KR20210139327A (ko) * 2019-03-25 2021-11-22 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 화상 예측 방법, 인코더, 디코더 및 저장 매체
CN113196765A (zh) * 2019-03-25 2021-07-30 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及存储介质
AU2020260285B2 (en) 2019-04-18 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Restriction on applicability of cross component mode
BR112021019675A2 (pt) * 2019-04-23 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
CN117221558A (zh) 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
KR20220024006A (ko) 2019-06-22 2022-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 잔차 스케일링을 위한 신택스 요소
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
CN114041288A (zh) * 2019-07-10 2022-02-11 Oppo广东移动通信有限公司 图像分量的预测方法、编码器、解码器以及存储介质
AU2020335790B2 (en) * 2019-08-23 2023-05-18 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for performing chroma deblocking for blocks which use joint chroma coding
AU2020332002A1 (en) * 2019-09-17 2022-04-07 Huawei Technologies Co., Ltd. Signaling subpicture IDS in subpicture based video coding
WO2021054380A1 (ja) * 2019-09-20 2021-03-25 日本放送協会 符号化装置、復号装置、及びプログラム
CN114009014A (zh) * 2019-09-30 2022-02-01 Oppo广东移动通信有限公司 颜色分量预测方法、编码器、解码器及计算机存储介质
AU2020376689B2 (en) 2019-10-29 2024-02-15 Lg Electronics Inc. Image coding method based on transform and apparatus therefor
CN114902678A (zh) * 2019-10-29 2022-08-12 Lg电子株式会社 基于变换的图像编码方法及其设备
CN116472708A (zh) * 2020-10-07 2023-07-21 浙江大学 特征数据的编解码方法、装置、设备及存储介质
US20240007620A1 (en) * 2020-11-23 2024-01-04 Hyundai Motor Company Image encoding and decoding method using adaptive alternative mode
WO2022114768A1 (ko) * 2020-11-24 2022-06-02 현대자동차주식회사 성분 간 참조를 이용하는 잔차신호 생성방법과 장치
WO2023016408A1 (en) * 2021-08-13 2023-02-16 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
WO2024090923A1 (ko) * 2022-10-26 2024-05-02 주식회사 윌러스표준기술연구소 휘도 샘플 기반 색차 샘플 예측을 사용하는 비디오 신호 처리 방법 및 이를 위한 장치
WO2024120478A1 (en) * 2022-12-07 2024-06-13 Mediatek Inc. Method and apparatus of inheriting cross-component models in video coding system
WO2024193577A1 (en) * 2023-03-20 2024-09-26 Mediatek Inc. Methods and apparatus for hiding bias term of cross-component prediction model in video coding
WO2024218105A1 (en) * 2023-04-21 2024-10-24 Interdigital Ce Patent Holdings, Sas Temporal prediction using cross-component residual model
CN117376551B (zh) * 2023-12-04 2024-02-23 淘宝(中国)软件有限公司 视频编码加速方法及电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7535961B2 (en) * 2003-07-16 2009-05-19 Samsung Electronics Co., Ltd. Video encoding/decoding apparatus and method for color image
ES2750234T3 (es) * 2011-04-14 2020-03-25 Dolby Laboratories Licensing Corp Predictor de regresión múltiple de múltiples canales de color
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
IN2014CN03184A (ja) * 2011-11-02 2015-07-03 Nec Corp
CN103918265B (zh) * 2011-11-07 2018-09-18 英特尔公司 跨通道残余预测
US9344722B2 (en) * 2011-11-18 2016-05-17 Futurewei Technologies, Inc. Scanning of prediction residuals in high efficiency video coding
CN103379321B (zh) * 2012-04-16 2017-02-01 华为技术有限公司 视频图像分量的预测方法和装置
US9716894B2 (en) * 2013-03-25 2017-07-25 Qualcomm Incorporated Intra prediction modes for lossy coding when transform is skipped
WO2014154094A1 (en) * 2013-03-26 2014-10-02 Mediatek Inc. Method of cross color intra prediction
CN105409218B (zh) * 2013-04-08 2021-05-25 Ge视频压缩有限责任公司 解码器和解码方法
US20140348240A1 (en) 2013-05-22 2014-11-27 Qualcomm Incorporated Video coding using sample prediction among color components

Also Published As

Publication number Publication date
TW201640895A (zh) 2016-11-16
EA201791476A1 (ru) 2017-11-30
KR102519241B1 (ko) 2023-04-06
CN107211124B (zh) 2019-10-18
CA2972501C (en) 2020-08-18
CN107211124A (zh) 2017-09-26
TWI705698B (zh) 2020-09-21
HUE041885T2 (hu) 2019-06-28
EP3092803A1 (en) 2016-11-16
US9998742B2 (en) 2018-06-12
EA034473B1 (ru) 2020-02-12
WO2016123219A1 (en) 2016-08-04
CA2972501A1 (en) 2016-08-04
EP3092803B1 (en) 2018-12-12
US20160219283A1 (en) 2016-07-28
BR112017016111A2 (pt) 2018-03-27
KR20170107448A (ko) 2017-09-25
JP2018509035A (ja) 2018-03-29
TN2017000284A1 (en) 2019-01-16
ES2715555T3 (es) 2019-06-04

Similar Documents

Publication Publication Date Title
JP6543716B2 (ja) 適応型成分間残差予測
CN113612997B (zh) 针对视频译码使用与位置相关的预测组合的改进视频帧内预测
US10397607B2 (en) Color residual prediction for video coding
US11070810B2 (en) Modifying bit depths in color-space transform coding
KR102334126B1 (ko) 인트라 블록 복사를 위한 레지듀얼 예측
JP5922244B2 (ja) ビデオコーディングにおいて適応ループフィルタとマージされたサンプル適応オフセット
US9807401B2 (en) Transform unit partitioning for chroma components in video coding
US9729873B2 (en) Video coding using parallel motion estimation
US9596463B2 (en) Coding of loop filter parameters using a codebook in video coding
JP2019530367A (ja) ビデオコーディングのための可変数のイントラモード
US20130070855A1 (en) Hybrid motion vector coding modes for video coding
US20130272409A1 (en) Bandwidth reduction in video coding through applying the same reference index
US20130287109A1 (en) Inter-layer prediction through texture segmentation for video coding
US9392274B2 (en) Inter layer texture prediction for video coding
KR20150076235A (ko) 비디오 코딩을 위한 참조 화상 상태
US20130329806A1 (en) Bi-layer texture prediction for video coding
US9648353B2 (en) Multiple base layer reference pictures for SHVC
US20130195189A1 (en) Implicit derivation of parallel motion estimation range size
CN111149361B (zh) 具有在用于视频译码的随机存取配置中的未来参考帧的自适应图片群组结构
JP2017512025A (ja) ビデオコーディングにおけるフリッカー検出および軽減

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180807

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180807

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190617

R150 Certificate of patent or registration of utility model

Ref document number: 6543716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250