JP2018505604A - 非4:4:4スクリーンコンテンツビデオのためのパレットコーディング - Google Patents

非4:4:4スクリーンコンテンツビデオのためのパレットコーディング Download PDF

Info

Publication number
JP2018505604A
JP2018505604A JP2017537451A JP2017537451A JP2018505604A JP 2018505604 A JP2018505604 A JP 2018505604A JP 2017537451 A JP2017537451 A JP 2017537451A JP 2017537451 A JP2017537451 A JP 2017537451A JP 2018505604 A JP2018505604 A JP 2018505604A
Authority
JP
Japan
Prior art keywords
chroma
sample
palette
chroma format
format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017537451A
Other languages
English (en)
Inventor
シアオユー シウ
シアオユー シウ
イエ イエン
イエ イエン
ユーウェン ホー
ユーウェン ホー
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2018505604A publication Critical patent/JP2018505604A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

ビデオコーディングデバイスが、非4:4:4クロマフォーマットで取り込まれたビデオを搬送するビデオビットストリームを受信することができる。パレットモードが、ビデオビットストリームを復号化するために使用されることができる。ビデオビットストリームは、現在のブロックについて4:4:4クロマフォーマットにおいてパレットテーブルおよびパレットインデックスマップを定義するデータを含むことができる。非4:4:4クロマフォーマットにおけるルーマサンプル位置についてのルーマサンプル値が、ルーマサンプル位置、パレットインデックスマップ、およびパレットテーブルに基づいて決定されることができる。パレットインデックスマップ上の4:4:4クロマフォーマットに関連付けられたクロマサンプル位置が、非4:4:4クロマフォーマットにおけるルーマ成分対クロマ成分解像度比に基づいて導出されることができる。非444クロマフォーマットにおけるクロマサンプル位置についてのクロマサンプル値が、導出されたクロマサンプル位置、パレットインデックスマップ、およびパレットテーブルに基づいて決定されることができる。

Description

本発明は、非4:4:4スクリーンコンテンツビデオのためのパレットコーディングに関する。
関連出願の相互参照
本出願は、2015年1月14日に出願された米国仮特許出願第62/103,419号明細書の利益を主張するものであり、その開示は、その全体が参照により本明細書に組み込まれる。
スクリーンコンテンツ共有アプリケーションが、リモートデスクトップ、ビデオ会議、および/またはモバイルメディアプレゼンテーションアプリケーションのために利用されることがある。業界がアプリケーション要件を有することがある。スクリーンコンテンツは、たとえば天然のビデオコンテンツと比較して、鋭い曲線およびテキストが内部にあるので、いくつかの色(たとえば主要色(major colors))および/または鋭いエッジを有する数多くのブロックを含み得る。ビデオ圧縮が、スクリーンコンテンツを符号化し、および/またはスクリーンコンテンツを受信器に送信するために利用されることがある。ビデオ圧縮実装によっては、スクリーンコンテンツの特徴を十分に特徴付けないことがあり、および/または低い圧縮性能をもたらすことがある。再構築されたピクチャは品質上の問題を有することがある。たとえば、曲線およびテキストが不鮮明で、曲線およびテキストを認識するのが困難なことがある。スクリーン圧縮実装が、スクリーンコンテンツを効果的に再構築するために利用され得る。
パレットベースのコーディングが、たとえば、スクリーンコンテンツの特性を考慮することによってスクリーンコンテンツをコーディングするために、HEVCの再帰的四分木フレームワークで使用され得る。
ビデオコーディングデバイスが、非4:4:4ビデオに関するビデオビットストリームを受信するように構成されることができる。非4:4:4クロマフォーマットのビデオに関するビデオビットストリームは、パレットモードで復号化されることができる。たとえば、ビットストリームは、現在のブロックについて4:4:4クロマフォーマットにおいてパレットテーブルおよびパレットインデックスマップを定義するデータを含むことができる。非4:4:4クロマフォーマットにおけるルーマサンプル位置について、それぞれのルーマサンプル値が、ルーマサンプル位置、パレットインデックスマップ、およびパレットテーブルに基づいて決定されることができる。ルーマサンプル位置に関連付けられた色インデックス値が決定され、パレットテーブル内でそれぞれのルーマサンプル値を調べるために使用されることができる。非4:4:4クロマフォーマットにおけるクロマサンプル位置に関して、パレットインデックスマップ上での4:4:4クロマフォーマットに関連付けられたクロマサンプル位置が、非4:4:4クロマフォーマットにおけるルーマ成分対クロマ成分解像度比に基づいて導出されることができる。非4:4:4クロマフォーマットにおけるクロマサンプル位置についてのそれぞれのクロマサンプル値が、4:4:4クロマフォーマットに関連付けられた導出されたクロマサンプル位置と、パレットインデックスマップと、パレットテーブルとに基づいて決定されることができる。
非4:4:4クロマフォーマットにおけるクロマサンプル位置について、クロマサンプル位置についてのクロマサンプル値が、クロマサンプル位置がルーマ成分に関連付けられているかどうかに基づいて、決定されることができる。決定は、クロマサンプル位置に基づくことができる。クロマサンプル位置についてのクロマサンプル値は、クロマサンプル位置がルーマ成分のみに関連付けられていると決定されたとき、破棄されることができる。非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0クロマフォーマットとすることができる。
コーディングユニット(CU)におけるサンプル位置がエスケープ色(escape color)に関連付けられていると決定されたとき、サンプル位置および非4:4:4クロマフォーマットが使用されて、サンプル位置に関連付けられたクロマ成分がシグナリングされるかどうかを決定することができる。サンプル位置に関連付けられたクロマ成分がシグナリングされるとき、クロマサンプル値が回復されることができる。サンプル位置に関連付けられたクロマ成分についての復号化されたエスケープ色値が使用されて、クロマサンプル値を回復することができる。
サンプル位置がエスケープ色に関連付けられているかどうかは、パレットインデックスマップ上でのサンプル位置に関連付けられた色インデックス値に基づいて決定されることができる。サンプル位置が非4:4:4クロマフォーマットにおける少なくとも1つのクロマ成分に関連付けられているとき、サンプル位置に関連付けられたクロマ成分がシグナリングされることができる。サンプル位置が非4:4:4クロマフォーマットにおけるルーマ成分のみに関連付けられているとき、サンプル位置に関連付けられたクロマ成分がシグナリングされないことができる。
ビデオコーディングデバイスは、パレット符号化を使用して非4:4:4クロマフォーマットで取り込まれたビデオを符号化することができる。たとえば、非4:4:4クロマフォーマットに関連付けられたビデオブロックは、クロマサンプル位置およびルーマサンプル位置を含むことができる。クロマサンプルは、4:4:4クロマフォーマットに従ってアップサンプリングされることができる。4:4:4クロマフォーマットに関連付けられたパレットテーブルおよびパレットインデックスマップが、アップサンプリングされたクロマサンプル位置、およびルーマサンプル位置に基づいて、導出されることができる。4:4:4クロマに関連付けられたパレットテーブルおよびパレットインデックスマップが、ビデオビットストリーム内に符号化される。ビットストリームは、ルーマのみのサンプル位置に関連付けられたクロマサンプル値を含むことができる。ルーマサンプル位置の近くのクロマサンプル位置が、クロマサンプル位置をアップサンプリングするために使用されることができる。ルーマサンプル位置の近くのクロマサンプル位置は、ルーマサンプル位置に位相距離が最も近いクロマサンプル位置とすることができる。補間ベースのアップサンプリングが、複数のクロマサンプル位置をアップサンプリングするために使用されることができる。補間ベースのアップサンプリングは、ルーマサンプル位置の近くのクロマサンプル位置、およびクロマサンプル位置とルーマサンプル位置との間の位相距離に基づくことができる。
ビデオコーディングデバイスは、サンプル位置がエスケープ色に関連付けられているかどうかを決定することができる。サンプル位置がエスケープ色に関連付けられているとデバイスが決定したとき、デバイスは、サンプル位置および非4:4:4クロマフォーマットに基づいて、サンプル位置に関連付けられたクロマ成分をシグナリングすべきかどうかを決定することができる。デバイスは、サンプル位置に関連付けられたクロマ成分がシグナリングされるべきという決定に基づき、クロマ成分をビデオビットストリーム内に符号化することができる。デバイスは、サンプル位置に関連付けられたクロマ成分についてのエスケープ色値を符号化することができる。エンコーダは、サンプル位置が非4:4:4クロマフォーマットにおける少なくとも1つのクロマサンプル値に関連付けられているという条件で、サンプル位置に関連付けられたクロマサンプル値がシグナリングされることができると決定することができる。エンコーダは、サンプル位置がルーマサンプル値のみに関連付けられているという条件で、サンプル位置に関連付けられたクロマサンプル値がシグナリングされることがないと決定することができる。
ブロックベースのビデオ符号化デバイスの例示的概略ブロック図である。 ブロックベースのビデオ復号化デバイスの例示的概略ブロック図である。 例示的スクリーンコンテンツ共有システムを示す図である。 パレットコーディングのコーディングプロセスの例示的ブロック図である。 4:4:4クロマフォーマットにおけるルーマ成分およびクロマ成分の例示的サンプリンググリッドを示す図である。 4:2:0クロマフォーマットにおけるルーマ成分およびクロマ成分の例示的サンプリンググリッドを示す図である。 4:2:2クロマフォーマットにおけるルーマ成分およびクロマ成分の例示的サンプリンググリッドを示す図である。 非4:4:4ビデオのためのパレットコーディングの符号化プロセスの例示的ブロック図である。 非4:4:4ビデオのためのパレットコーディングの復号化プロセスの例示的ブロック図である。 1または複数の開示された実施形態が実装されることができる、例示的通信システムのシステム図である。 図10Aに示された通信システム内で使用されることができる、例示的ワイヤレス送信/受信ユニット(WTRU)のシステム図である。 図10Aに示された通信システム内で使用されることができる、例示的無線アクセスネットワークおよび例示的コアネットワークのシステム図である。 図10Aに示された通信システム内で使用されることができる、別の例示的無線アクセスネットワークおよび別の例示的コアネットワークのシステム図である。 図10Aに示された通信システム内で使用されることができる、別の例示的無線アクセスネットワークおよび別の例示的コアネットワークのシステム図である。
例示的な実施形態の詳細な説明が、様々な図を参照して説明される。この説明は、可能な実装形態の詳細な例を提供するが、これらの詳細は例示であり、適用の範囲を限定することは全く意図されていないことに留意されたい。
ビデオコーディングシステムは、デジタルビデオ信号を圧縮するために使用され、たとえば、そのような信号のストレージ必要性および/または伝送帯域幅を低減することができる。ブロックベース、ウェーブレットベース、オブジェクトベースのシステムなど、様々なタイプのビデオコーディングシステムがある。ブロックベースのハイブリッドビデオコーディングシステムが広く使用され、展開されることがある。ブロックベースのビデオコーディングシステムの例は、MPEG1/2/4 part2、H.264/MPEG−4 part10 AVCおよびVC−1規格などの国際ビデオコーディング規格を含む。
図1は、ブロックベースのビデオコーディングデバイスの概略ブロック図である。図1は、一般的なブロックベースのハイブリッドビデオコーディングシステムのブロック図である。入力ビデオ信号102は、ブロックごとに処理されることができる。ビデオブロックユニットは、16×16ピクセルを含むことができる。そのようなブロックユニットは、マクロブロックまたはMBと呼ばれることがある。高効率ビデオコーディング(HEVC)では、拡張されたブロックサイズ(たとえば、「コーディングユニット」またはCU)が使用されて、高解像度(たとえば、1080pなど)ビデオ信号を圧縮する(たとえば、効率的に圧縮する)ことができる。HEVCでは、CUは64×64ピクセルとすることができる。CUは、予測ユニットまたはPUに区分化されることができる。別個の予測モードがPUに適用されることができる。(たとえば各)入力ビデオブロック(たとえば、MBまたはCU)について、空間予測160および/または時間予測162が行われることができる。空間予測または「イントラ予測」は、同じまたは近隣のビデオピクチャ/スライス内のコーディングされた近隣ブロックからのピクセルを使用して、現在のビデオブロックを予測することができる。空間予測は、ビデオ信号内の空間冗長性を低減することができる。時間予測は、「インター予測」または「動き補償予測」と呼ばれることがある。時間予測は、コーディングされたビデオピクチャからのピクセルを使用して、現在のビデオフロックを予測することができる。時間予測は、ビデオ信号内の時間冗長性を低減することができる。ビデオブロックのための時間予測信号は、現在のブロックとその参照ブロックとの間の動きの量および方向を示すことができる1または複数の動きベクトルによってシグナリングされることができる。複数の参照ピクチャがサポートされる場合、1または複数の(たとえば各)ビデオブロックについて、参照ピクチャインデックスが送信されることができる。参照インデックスは、参照ピクチャストア164内のいずれの参照ピクチャから時間予測信号が発生または到来するのかを識別するために使用されることができる。ビデオコーディングデバイスにおけるモード決定ブロック180は、たとえば空間および/または時間予測の後に、予測モード(たとえば最良の予測モード)を選ぶことができる。ビデオコーディングデバイスにおけるモード決定ブロック180は、たとえばレート歪み最適化方法に基づいて、予測モード(たとえば最良の予測モード)を選ぶことができる。予測ブロックは、現在のビデオブロック116から差し引かれることができる。予測残差は、たとえば変換104および量子化106を用いて、非相関化されてターゲットビットレートを達成することができる。量子化された残差係数は、逆量子化110および/または逆変換112されて、再構築された残差を形成することができる。再構築された残差は予測ブロック126に加算されて、再構築されたビデオブロックを形成することができる。デブロッキングフィルタや適応ループフィルタなどのループ内フィルタリング166が、再構築されたビデオブロックに適用されることができ、その後、それは、参照ピクチャストア164に入れられ、および/または将来のビデオブロックをコーディングするために使用される。出力ビデオビットストリーム120を形成するために、コーディングモード(たとえば、インターまたはイントラ)、予測モード情報、動き情報および量子化された残差係数が、エントロピーコーディングユニット108に送信され、圧縮および/またはパックされて、ビットストリームを形成することができる。
図2は、ブロックベースのビデオコーディングデバイスの例示的概略ブロック図である。図1は、たとえば、ブロックベースのビデオデコーダを示すことができる。ビデオビットストリーム202は、エントロピー復号化ユニット208においてアンパックおよび/またはエントロピー復号化されることができる。コーディングモードおよび/または予測情報は、空間予測ユニット260(たとえば、イントラコーディングされている場合)および/または時間予測ユニット262(たとえば、インターコーディングされている場合)に送信されて、予測ブロックを形成することができる。残差変換係数は、逆量子化ユニット210および/または逆変換ユニット212に送信されて、たとえば、残差ブロックを再構築することができる。予測ブロックおよび/または残差ブロックは、226において一緒に加算されることができる。再構築されたブロックは、たとえば、それが参照ピクチャストア264に記憶される前に、ループ内フィルタリングを受けることができる。参照ピクチャストア内の再構築されたビデオ220は、表示デバイスを駆動するために送信され、および/または将来のビデオブロックを予測するために使用されることができる。
たとえば、人々がメディアプレゼンテーションまたはリモートデスクトップ用途で各自のデバイスコンテンツを共有することから、スクリーンコンテンツ圧縮が、より多く利用され得る。モバイルデバイスのスクリーン表示は、高精細または超高精細解像度であり得る。ブロックコーディングモードおよび変換などのビデオコーディングツールは、それらが、スクリーンコンテンツをその共有アプリケーションにおいて送信するための帯域幅要件を増大し得るので、スクリーンコンテンツ符号化に対して最適化されないことがある。図3は、スクリーンコンテンツ共有システムの例示的ブロック図を示す。図3のスクリーンコンテンツ共有システムは、受信器、デコーダ、およびディスプレイ(たとえばレンダラ)を備えることができる。図1は、ブロックベースの単一レイヤビデオコーディングデバイス(たとえばビデオ符号化デバイス)の例示的ブロック図を示す。図1に示されるように、効率的な圧縮を達成するために、ビデオコーディングデバイス(たとえばビデオ符号化デバイス)は、空間予測(たとえばイントラ予測)ならびに時間予測(たとえばインター予測および/または動き補償予測)などの技法を採用して、入力ビデオ信号を予測することができる。ビデオコーディングデバイス(たとえばビデオ符号化デバイス)は、たとえば、レートと歪みとの組み合わせなど特定の基準に基づいて、予測の適切な形式(たとえば最も適切な形式)を決定することができる、モード決定ロジックを有することができる。ビデオコーディングデバイス(たとえばビデオ符号化デバイス)は、予測残差(たとえば入力信号と予測信号との間の差)を変換し量子化することができる。モード情報(たとえば、イントラまたはインター予測)および予測情報(たとえば、動きベクトル、参照ピクチャインデックス、イントラ予測モードなど)と一緒に、量子化された残差が、エントロピーコーダにおいて圧縮され、および/または出力ビデオビットストリームにパックされることができる。図1に示され得るように、ビデオコーディングデバイス(たとえばビデオ符号化デバイス)は、たとえば、逆量子化および/または逆変換を量子化された残差に適用して再構築された残差を取得することによって、再構築されたビデオ信号を生成することができる。ビデオコーディングデバイス(たとえばビデオ符号化デバイス)は、たとえば、再構築された残差を予測信号に加算して戻すことによって、再構築されたビデオ信号を生成することができる。再構築されたビデオ信号は、ループフィルタプロセス(たとえば、デブロッキングフィルタ、サンプル適応オフセット)を受けることができる。再構築されたビデオ信号は、将来のビデオ信号を予測するために参照ピクチャストアに記憶されることができる。
図2は、ブロックベースの単一レイヤビデオコーディングデバイス(たとえばビデオ復号化デバイス)のブロック図を示す。図2のビデオコーディングデバイス(たとえばビデオ復号化デバイス)は、図1のビデオコーディングデバイス(たとえばビデオ符号化デバイス)によって作成されたビットストリームを受信し、表示されるべきビデオ信号を再構築することができる。デコーダにおいて、ビットストリームはエントロピーデコーダによってパースされることができる。残差係数は、再構築された残差を取得するために逆量子化および/または逆変換されることができる。コーディングモードおよび/または予測情報は、たとえば空間予測または時間予測のいずれかを使用して、予測信号を取得するために使用されることができる。予測信号および再構築された残差は一緒に加算され、再構築されたビデオを得ることができる。再構築されたビデオは、たとえば、表示されるため、および/または将来のビデオ信号を復号化するために使用されるために参照ピクチャストアに記憶される前に、ループフィルタリングを受けることができる。
MPEGは、たとえば、伝送帯域幅およびストレージを節約するためにビデオコーディング規格に取り組んでいる。高効率ビデオコーディング(HEVC)はビデオ圧縮規格である。HEVCは、ITU−Tビデオコーディングエキスパートグループ(VCEG)とISO/IECムービングピクチャエキスパートグループ(MPEG)とによって共同開発された。HEVCは、H.264と比べて同じ品質で50%の帯域幅を節約することができる。HEVCは、そのエンコーダとデコーダが図1および/または図2に従って一般に動作するような、ブロックベースのハイブリッドビデオ符号化規格であり得る。HEVCは、他の規格のビデオブロックよりも大きいビデオブロックの使用を可能にすることができる。HEVCは、ブロックコーディング情報をシグナリングするために四分木区分化を使用することができる。ピクチャまたはスライスが、同じまたは同様のサイズ(たとえば、64×64)を有するコーディングツリーブロック(CTB)に区分化されることができる。1または複数の(たとえば各)CTBは、四分木を用いてCUに区分化されることができ、1または複数の(たとえば各)CUは、四分木を用いて予測ユニット(PU)および/または変換ユニット(TU)に区分化されることができる。(たとえば、HEVCにおける4分の1ピクセルまで可能である)動きベクトルの精度に応じて、小数位置のピクセル値を取得するために線形フィルタが適用されることができる。HEVCにおいて、補間フィルタは、ルーマに関して7または8タップ、クロマに関して4タップを有することができる。HEVCにおけるデブロッキングフィルタはコンテンツベースとすることができる。コーディングモード差、動き差、参照ピクチャ差、ピクセル値差など、いくつかの要因に応じて、異なるデブロッキングフィルタ動作がTUおよびPU境界で適用されることができる。エントロピーコーディングの場合、HEVCは、1または複数のブロックレベルシンタックス要素に対してコンテキストベースの適応型2値算術コーディング(CABAC)を利用することができる。高レベルパラメータが使用されることも使用されないこともある。CABACにおいて、様々な種類(たとえば2種類)のビン、すなわち、コンテキストベースのコーディングされた標準ビン、および/またはコンテキスト無しのバイパスコーディングされたビンがあり得る。
ビデオコーディング設計は、様々なブロックコーディングモードを含むことができる。ビデオデータまたは信号データまたはコンテンツデータの空間冗長性が、スクリーンコンテンツコーディングのために利用されることができる。カメラで取り込まれた天然のコンテンツは、連続的トーンビデオ信号を含み得る。スクリーンコンテンツは、離散的トーンビデオ信号を含み得る。テキストおよびグラフィックスなどのスクリーンコンテンツ素材は天然のコンテンツと比べて異なる特性を示し得るので、イントラブロックコピー、パレットコーディング、および適応色変換などのコーディングツールが、スクリーンコンテンツコーディングのために利用されることができる。
パレットベースのコーディングが、たとえば、特性を考慮することによってスクリーンコンテンツをコーディングするために、HEVCの再帰的四分木フレームワークで使用され得る。図4は、パレットベースのコーディングのビデオコーディングプロセスの例示的ブロック図を示す。図4に示されるように、スクリーンコンテンツビデオ内のビデオブロックは、限られた数の主要色を含み得(たとえば、それらに支配され得)、1または複数のピクセルの色値は、その上または左のピクセルの色値と同じまたは同様であり得る。ビデオブロックの主要色およびエスケープ色を表す色テーブルおよびインデックスマップが、たとえば、すべてのピクセルのサンプル値を使用する代わりに、そのブロックのコーディングのために利用されることができる。図5は、4:4:4フォーマットにおけるルーマ成分およびクロマ成分の例示的サンプリンググリッドを示す。図6は、4:2:0フォーマットにおけるルーマ成分およびクロマ成分の例示的サンプリンググリッドを示す。図7は、4:2:2フォーマットにおけるルーマ成分およびクロマ成分の例示的サンプリンググリッドを示す。図8は、非4:4:4ビデオについてのパレットコーディングのための符号化プロセスの例示的ブロック図を示す。たとえば、図4では、パレットモードを用いてコーディングされた1または複数の(たとえば各)コーディングユニット(CU)について、パレットテーブルが、そのCUから主要色のセットを選択することによって導出されることができる。パレットインデックスマップは、CUのピクセルを主要色およびエスケープ色に分類することによって生成されることができる。エスケープ色は、図4では空のブロックとしてマークされ得る。主要色は、図4ではパターン付けされたブロックとしてマークされ得る。パレットテーブルで色が表現されているピクセルについて、パレットテーブルインデックス(たとえば単なるインデックス)が符号化されることができる。パレットテーブルで色が表現されていないピクセルについて、それらの色値はエスケープ色とみなされることができる。量子化された色値(たとえば、有損失コーディングが使用される場合)は、直接的に符号化されることができる。様々な(たとえば2つの)予測コーディングモード、たとえば、左コピー(copy-left)モードおよび上コピー(copy-above)モードなどが、パレットインデックスマップを符号化するために利用されることができる。コピーレフトモードでは、1つのパレットインデックスの値、およびラン値がシグナリングされることができる。ラン値は、現在のピクセルと同じパレットインデックスを有する後続ピクセルの数を示すことができる。上コピーモードでは、コーディングされたピクセルのパレットインデックスが、近隣ピクセルから直接的にコピーされることができる。ラン値は、対応する上の近隣要素からそれらのパレットインデックスをコピーする後続ピクセルの数を示すためにシグナリングされることができる。たとえば、ラン値は、対応する上の近隣要素からそれらのパレットインデックスをコピーする後続ピクセルの数を示すためのみにシグナリングされることができる。パレットテーブルサイズがKの場合、パレットインデックス0からK−1が主要色を示すために使用されることができ、パレットインデックスKはエスケープ色を示すために使用されることができる。表1は、例示的パレットモードシンタックスを示す。
Figure 2018505604
Figure 2018505604
Figure 2018505604
Figure 2018505604
色クラスタリングが、パレットモードを用いてコーディングされた1または複数の(たとえば各)CUについてパレットテーブルを導出するために使用されることができる。現在のCUの色値がK個のセットにクラスタリングされることができ、Kはパレットテーブルのサイズとすることができる。現在のCUにおける元の色値は、c={c_0,c_1,・・・c_(N−1)}と表されることができる。1または複数の(たとえば各)色値c_iは、CUにおけるピクセルの総数の3次元ベクトルNとすることができる。色クラスタリング操作は、N個のピクセルの色をK(K≦N)個のセットに区分化することを目指すことができる。Sは、色セットとすることができる。S={S_0,S_1,・・・S_(K−1)}である。たとえば、式(1)は、内部クラスタ歪みを最小化するために使用されることができる。
Figure 2018505604
Figure 2018505604
は、色セットSiの重心のh番目の成分(たとえば、Y、Cb、およびCr)とすることができる。色クラスタの重心は、現在のCUのパレットテーブルを形成するために主要色として使用されることができる。パレットテーブルは導出されることができる。1または複数の(たとえば各)ピクセルcについて、パレットインデックスi*が、ピクセルの色値をパレットテーブル内で主要色に変換することによって選択されることができる。たとえば、式(2)がi*を計算するために使用されることができる。ピクセルと選択された主要色との間の歪みは、式(2)を使用することによって最小化されることができる。
Figure 2018505604
ビデオコーディングシステムは、クロマ成分(たとえば、YCbCrフォーマットにおけるCbおよびCr成分)よりもルーマ成分(たとえば、YCbCrフォーマットにおけるY成分)に対してより広い帯域幅を割り当てることができる。ビデオコーディングシステムは、クロマ成分をサブサンプリングすることができる。クロマ成分のサブサンプリングは、人間の視覚は色よりも明度の変化に敏感なため、再構築されたビデオの知覚される品質を低下させる場合もあり、そうでない場合もある。4:4:4(たとえば図5)、4:2:2(たとえば図7)および4:2:0(たとえば図6)は、ビデオコーディングシステムで使用され得る例示的クロマサブサンプリングフォーマットである。図5、図7、および図6はそれぞれ、4:4:4、4:2:2、および4:2:0クロマサブサンプリングフォーマットの例である。図6では、水平方向と垂直方向の両方のクロマ成分のサンプリングレートが、ルーマ成分のサンプリングレートの半分であり得る。図7では、クロマ成分の水平サンプリングレートが、ルーマ成分のサンプリングレートの半分であり得る。垂直サンプリングレートはルーマ成分のサンプリングレートと同じであってもよい。4:4:4クロマフォーマットは、高忠実度を要求するビデオアプリケーションに使用されることができる。図5では、水平方向と垂直方向の両方のクロマ成分のサンプリングレートが、ルーマ成分のサンプリングレートと同じであり得る。図5、図6、および図7に示されるようなクロマフォーマットのサンプリンググリッドは、例示であり得る。ルーマサンプリンググリッドとクロマサンプリンググリッドとの間の相対的な位相シフトの変形例が使用されてもよい。たとえば、ルーマ成分とクロマ成分との間の様々な相対的位相シフトを有するサンプリンググリッドが、4:2:0サブサンプリングで使用されてもよい。CbおよびCr成分が、水平方向のみ、垂直方向のみ、または両方の方向で、対応する近隣ルーマサンプル間の中間でサブサンプリングされてもよい。
パレットモードは、4:4:4クロマフォーマット、ならびに4:2:0および4:2:2フォーマットなどの非4:4:4クロマフォーマットにおいてビデオ信号をコーディングするために使用されることができる。非4:4:4クロマフォーマットは、ハイパースペクトルイメージング、医療およびリモートセンシングなどのスクリーンコンテンツのためのアプリケーションで利用されることができる。ビデオデバイスは、たとえば、4:4:4クロマフォーマットの複雑さ/帯域幅の制約により、4:4:4クロマフォーマットでビデオをサポートしない場合もあり、する場合もある。コーディングツールは、4:2:0および4:2:2フォーマットなどの非4:4:4クロマフォーマットにおいてビデオ素材のコーディングをサポートするために使用されることができる。
パレットモードは、非4:4:4クロマフォーマットにおけるスクリーンコンテンツビデオをコーディングするために使用されることができる。パレットコーディングは、非4:4:4スクリーンコンテンツビデオのために利用されることができる。本明細書に説明される例は、任意のビデオコーデックに適用され得る。
本明細書に説明される技法および例は、4:2:0および4:2:2クロマフォーマットに関して説明されるが、本明細書に説明される技法および例は、4:0:0、4:2:1、4:1:1、および4:1:0など、他の非4:4:4クロマフォーマットに同様に適用されることは、当業者には理解されよう。
いくつかのパレットコーディング実装形態は、4:4:4クロマフォーマットを有する入力ビデオをサポートすることができる。パレットモードは、非444入力ビデオに対して無効にされてよい。スクリーンコンテンツ素材は、非4:4:4クロマフォーマットで取り込まれることができる。4:4:4クロマフォーマットのために開発されたツールが、4:2:0および4:2:2クロマフォーマットについてサポートおよび/またはテストされてよい。
パレットモードは、非4:4:4クロマフォーマットにけるビデオに対して有効にされてよい。二重パレットベースのパレットコーディングが、たとえば効率性のために、4:2:0および4:2:2クロマフォーマットにおけるスクリーンコンテンツビデオのために利用されてよい。二重パレットベースのパレットコーディングでは、1または複数(たとえば2つ)のパレットテーブルが使用されてよく、一方がルーマ成分のため、他方が2つのクロマ成分のためのテーブルが使用されてもよい。たとえば、現在のCUにある色(たとえば代表色)が、色ヒストグラムに基づいて選択されることができる。色ヒストグラムは、ルーマ成分およびクロマ成分について別個に計算されることができる。1または複数(たとえば2つ)のパレットインデックスマップが、ルーマ成分およびクロマ成分のために形成されてよく、たとえば、一方がルーマ成分のため、他方がクロマ成分のためにそれぞれ形成されてもよい。たとえば、現在のCUにおける1または複数の(たとえば各)ピクセルのルーマ成分およびクロマ成分が、たとえば、一方がルーマ成分のため、他方がクロマ成分のための2つの別個のパレットインデックスにマッピングされてもよい。図4に示されたような左コピーモードおよび上コピーモードが、パレットインデックスマップ(たとえば、2つのパレットインデックスマップ)を符号化するために使用されてもよい。二重パレットベースの実装形態は、追加のコーディング利得を提供することができる。
二重パレットベースの実装形態が使用されるとき、別個(たとえば2つ)のパレットテーブルおよび/または別個(たとえば2つ)のパレットインデックスマップが、ルーマ成分およびクロマ成分について送信されることができる。パレットテーブルおよびパレットインデックスマップは、ルーマ成分およびクロマ成分について別個に導出されることができる。クロマサンプルの数は、4:2:0および4:2:2クロマフォーマットにおけるビデオに関して、ルーマサンプルの数よりも小さくてよい。エンコーダは、ルーマ成分およびクロマ成分について、パレットシンタックス要素の2つのセットを別個に符号化することができる。デコーダは、ルーマ成分およびクロマ成分について、パレットシンタックス要素の2つのセットを別個にパースすることができる。
二重パレットベースの実装形態が使用されるとき、デコーダは、1または複数(たとえば2つ)の別個のパレット復号化プロセスを行って、ルーマサンプルおよびクロマサンプルを再構築することができる。デコーダは、ルーマパレット復号化プロセスにおいてY成分(たとえばY成分のみ)を復号化することができる。デコーダは、クロマパレット復号化プロセスにおいてCbおよびCr成分を復号化することができる。デコーダは、異なる寸法を有するサンプルに対して1または複数(たとえば2つ)の復号化プロセスを行うことができる。たとえば、クロマブロックサイズは、4:2:0クロマフォーマットにおけるビデオに関して、ルーマブロックサイズの4分の1であり得る。クロマブロックサイズは、4:2:2クロマフォーマットにおけるビデオに関して、ルーマブロックサイズの2分の1であり得る。二重パレットベースの実装形態が使用されるとき、デコーダは、1または複数(たとえば2つ)の別個のパレットテーブルおよび1または複数(たとえば2つ)の別個のパレット予測子を維持することができる。4:4:4クロマフォーマットのためのパレット設計は、二重パレットベースの実装形態と異なってよい。4:4:4クロマフォーマットのためのパレット設計は、CUについて(たとえば単一の)パレットテーブルおよび/または(たとえば単一の)パレット予測子を利用する(たとえば、それらのみを利用する)ことができる。
4:4:4クロマフォーマットのためのパレット設計は、4:2:0および4:2:2フォーマットをサポートするために拡張されることができる。たとえば、非4:4:4ビデオは、4:4:4フォーマットのためのパレット設計を使用してパレットコーディングによってコーディングされることができる。
パレットコーディングは、非4:4:4クロマフォーマットにおけるビデオのために利用されることができる。パレットコーディングは、(たとえば表1に説明されたように)4:4:4クロマフォーマットにおけるビデオに関連付けられたパレット設計と同じまたは同様のシンタックスを使用することができる。
図8は、非4:4:4クロマフォーマットにおけるビデオのためのパレットコーディングの符号化プロセスの例示的ブロック図を示す。本明細書で使用され得るように、ピクセルは、4:4:4クロマフォーマットにおける同じ位置に1または複数の成分(たとえば、1つのルーマ成分および2つのクロマ成分)を含む単一要素(たとえばサンプル)を含むことができる。サンプルは、4:2:0および4:2:2クロマフォーマットにおけるビデオについて、ルーマ成分または2つのクロマ成分の一方のいずれかであり得る単一色成分を参照することができる。サンプルとサンプル位置は交換可能に使用され得る。クロマサンプルおよびルーマサンプルは、たとえばクロマサブサンプリングにより、4:2:0および4:2:2クロマフォーマットにおけるビデオのための異なるピクセル位置に配置されることができる。図8に示されるように、非4:4:4クロマフォーマットにおけるパレット実装形態は、より高い空間解像度(たとえばルーマ解像度)で入力ビデオのルーマ成分およびクロマ成分を処理することができる。非4:4:4クロマフォーマットにおけるビデオのためのパレット実装形態は、図4の4:4:4クロマフォーマットにおけるビデオに対してパレットエンコーダが行うのと同様に、パレットコーディングされたCUに関するビットストリームを作成することができる。クロマアップサンプリングは、ルーマ成分の解像度と同じまたは同様の解像度にクロマ成分をアップサンプリングすることができる。入力ビデオブロックは、4:4:4ブロックになることができる。入力ビデオブロックのためのパレット符号化論理が再使用されることができる。クロマ成分の解像度をルーマ成分のそれにアップサンプリングするために、異なる例が使用されて、4:4:4クロマフォーマットにおける1または複数の(たとえば各)ピクセル位置でクロマサンプルを生成してもよい。与えられたルーマサンプル位置に対して、ルーマサンプル位置に近い(たとえば、位相距離が最も近い)位置のクロマサンプルが使用されてもよい。たとえば、最も近い近隣のコピーが適用されてもよい。
4:4:4クロマフォーマットにおける1または複数の(たとえば各)ルーマサンプルロケーションに対して、補間ベースのアップサンプリングプロセスが、対応するクロマサンプルを生成するために使用されてもよい。たとえば、以下の補間方法が使用されることができる。
Figure 2018505604
*は、アップサンプリングされたクロマ成分とすることができる。Nは、ターゲットピクセル位置の近く(たとえば近隣)であり得るクロマサンプルのセットとすることができる。ciは、補間で使用されるi番目のクロマサンプルの値とすることができる。siは、i番目のクロマサンプルに適用され得る重み係数とすることができる。siを導出するために様々な行列が使用され得る。たとえば、siは、ルーマサンプルとクロマサンプルとの間の位相距離に従って導出されることができる。補間フィルタが、クロマサンプルおよびルーマサンプルを同じピクセル位置にマッピングするために使用されることができる。同じ補間フィルタが、非4:4:4パレットコーディングで使用されることができる。図9は、非4:4:4クロマフォーマットにおけるビデオのためのパレットコーディングの復号化プロセスの例示的ブロック図を示す。
図9は、図8における符号化プロセスに対応することができる。デコーダは、受信されたパレットテーブル、パレットインデックス、および識別されたエスケープ色を使用して、4:4:4フォーマットにおいて中間ブロックを再構築することができる。現在のCUのビットストリームは、エントロピー復号化モジュールを使用して復号化されたエントロピーとすることができる。パレットテーブル情報は、現在のCUの主要色を含むパレットテーブルを形成するために、パレットテーブル再構築モジュールに送信されることができる。ピクセルが主要色としてコーディングされる場合、パレットコーディング情報(たとえば、パレットインデックスおよびランレングス)、および(たとえば、有損失コーディングが適用される場合に)量子化されたエスケープ色が、パレットインデックス復号化モジュールに送信されることができる。ピクセルがエスケープ色としてコーディングされる場合、パレットコーディング情報(たとえば、パレットインデックスおよびランレングス)、および(たとえば、有損失コーディングが適用される場合に)量子化されたエスケープ色が、(たとえば、有損失コーディングが適用される場合に)逆量子化モジュールに送信されて、4:4:4フォーマットでの中間ブロックの1または複数の(たとえば各)ピクセル位置の色成分を再構築することができる。図9に示されるように、クロマサブサンプリングモジュールが、ルーマ成分およびクロマ成分の異なる解像度でビデオブロックを再構築するために使用されることができる。
クロマサブサンプリングが使用されるとき、デコーダは、複数の近隣ピクセル位置から、ピクセル位置のクロマサンプル値(たとえば、CbおよびCr成分サンプル値)を決定することができる。デコーダは、ピクセル位置のクロマサンプル値からCUのクロマサンプル値を再構築することができる。複数の近隣ピクセル位置は、ピクセルセットと呼ばれることがある。ピクセルセット内のピクセル位置は、4:4:4クロマ解像度と4:2:0または4:2:2クロマ解像度との間のサンプリングレート比に基づいて選択されることができる。たとえば、図5、図6、および図7に示されるように、(たとえば、破線長方形で囲まれた)1つのピクセルセットが、4:2:0クロマフォーマットの場合に2×2ブロックのピクセル位置、および4:2:2クロマフォーマットの場合に1×2ブロックのピクセル位置を含むことができる。図5、図6、および図7における1または複数の(たとえば各)ピクセルセットでは、パターン付けされたピクセルは、ルーマサンプルおよびクロマサンプルが値を有するピクセル位置であり得る。パターン無しピクセルは、ルーマサンプルのみが値を有するピクセル位置であり得る。4:2:0または4:2:2クロマフォーマットにおける出力CUを再構築するためのクロマサブサンプリングプロセスの例において、パターン付けされたピクセル位置に配置された中間4:4:4ブロックにおけるクロマサンプルは、維持されることができる。パターン付けされていないピクセルに配置された中間4:4:4ブロックにおけるクロマサンプルは、破棄されることができる。図5、図6、および図7では、パターン付けされたピクセルが、各ピクセルセットの左上または上部に配置され得る。図5、図6、および図7は、配列の例である。他の配列が使用されてもよい。たとえば、パターン付けされたピクセルは、各ピクセルセットの左下または下部に配置されてもよい。ピクセルセット内の(たとえば、図5、図6、および図7の左上または上部ピクセル以外の)ピクセルが、対応するクロマサンプルが最終出力4:2:0または4:2:2ビデオブロックに保持され得るピクセル位置として選択されてもよい。
クロマサブサンプリングプロセスにおいて、補間ベースのサブサンプリングプロセスが、式(4)に示されるように、中間4:4:4ブロックから出力非4:4:4ビデオブロックにクロマ成分をサブサンプリングするために使用されることができる。
Figure 2018505604
+は、サブサンプリングされたクロマ成分とすることができる。Bは、ターゲットクロマサンプルの複数の近隣ピクセルを表すピクセルセットとすることができる。uiは、ピクセルセットB内のi番目のピクセルのクロマ成分のサンプル値とすることができる。hiは、uiに適用され得る重み係数とすることができる。hiを導出するために異なる行列が使用されてもよい。たとえば、ルーマサンプルとクロマサンプルとの間の位相距離に従ってhiが導出されることができる。
非4:4:4クロマフォーマットにおけるビデオのためのビデオビットストリームが、パレットモードで復号化されることができる。非4:4:4フォーマットのためのパレットモードの復号化プロセスに対する入力は、現在のピクチャの左上サンプルに対する現在のブロックの左上サンプルを指定するロケーション(xCb,yCb);現在のブロックの色成分を指定する変数cIdx;現在のブロックのサイズを指定する変数nCbS;現在のブロック内の1または複数の(たとえば各)サンプルについてのパレットモードを指定するアレイpalette_mode[xCb+x][yCb+y](ここで、x=0…nCbS−1、およびy=0…nCbS−1);パレットモードがESCAPEと等しくなくなり得る現在のブロックにおける1または複数の(たとえば各)サンプルについてのパレットインデックスを指定するアレイpaletteMap[xCb+x][yCb+y](ここで、x=0…nCbS−1、およびy=0…nCbS−1);ならびに/または、パレットモードがESCAPEと等しくなり得る現在のブロックにおける1または複数の(たとえば各)サンプルについての量子化されたエスケープ値を指定するアレイpalette_escape_val[xCb+x][yCb+y](ここで、x=0…nCbS−1、およびy=0…nCbS−1);などを含むことができる。
色成分cIdxの値に応じて、変数nSubWidthおよびnSubHeightが導出されることができる。cIdxが0と等しい(たとえば、サンプルがルーマサンプルであり得る)場合、nSubWidthは1に設定されることができ、nSubHeightは1に設定されることができる。cIdxが0と等しくない(たとえば、サンプルがクロマサンプルであり得る)場合、nSubWidthはSubWidthCに設定されることができ、nSubHeightはSubHeightCに設定されることができる。出力は、パレットブロックについての再構築されたサンプル値を指定するアレイrecSamples[x][y](ここで、x=0・・・nCbS/nSubWidth−1,y=0・・・nCbS/nSubHeight−1である)とすることができる。
色成分cIdxの値に応じて、以下の割り当てが行われることができる。cIdxが0に等しい場合、recSamplesは、再構築されたピクチャサンプルアレイSLに対応することができ、関数clipCIdx1は、Clip1Yに対応することができる。cIdxが1に等しい場合、recSamplesは、再構築されたクロマサンプルアレイSCbに対応することができ、関数clipCIdx1は、Clip1Cに対応することができる。cIdxが2に等しい場合、recSamplesは、再構築されたクロマサンプルアレイSCrに対応することができ、関数clipCIdx1は、Clip1Cに対応することができる。
ビデオ復号化デバイスは、非4:4:4クロマフォーマットにおける1または複数のCUを受信することができる。たとえば、ビットストリームは、現在のブロックについて4:4:4クロマフォーマットにおいてパレットテーブルおよびパレットインデックスマップを定義するデータを含むことができる。非4:4:4クロマフォーマットにおけるルーマサンプル位置について、それぞれのルーマサンプル値が、ルーマサンプル位置、パレットインデックスマップ、およびパレットテーブルに基づいて決定されることができる。ルーマサンプル位置に関連付けられた色インデックス値が、決定され、パレットテーブル内でそれぞれのルーマサンプル値を調べるために使用されることができる。
ビデオ復号化デバイスは、4:4:4クロマフォーマットにおけるCUをサブサンプリングして、非4:4:4クロマフォーマットにおけるCUを取得することができる。非4:4:4クロマフォーマットにおけるクロマサンプル位置に関して、パレットインデックスマップ上での4:4:4クロマフォーマットに関連付けられたクロマサンプル位置が、非4:4:4クロマフォーマットにおけるクロマ成分に対するルーマ成分の解像度比に基づいて導出されることができる。4:4:4クロマフォーマットにおけるクロマサンプル位置に関して、パレットインデックスマップ上での非4:4:4クロマフォーマットに関連付けられたクロマサンプル位置が、非4:4:4クロマフォーマットにおけるクロマ成分に対する4:4:4クロマフォーマットにおけるクロマ成分の解像度比に基づいて導出されることができる。非4:4:4クロマフォーマットにおける1または複数のCUのクロマ成分について、ビデオコーディングデバイスは、4:4:4クロマフォーマットにおける対応するクロマ成分を配置することができる。ビデオ復号化デバイスは、4:4:4クロマフォーマット座標における位置を非4:4:4フォーマット座標における対応する位置にマッピングすることができる。たとえば、クロマフォーマット座標は、変数nSubWidthおよびnSubHeightに基づいて計算されることができる。パラメータnSubWidthは、非4:4:4クロマフォーマットのクロマ成分の水平解像度に対する4:4:4クロマフォーマットのクロマ成分の水平解像度の比を示すことができる。パラメータnSubWidthは、非4:4:4クロマフォーマットの垂直解像度に対する4:4:4クロマフォーマットのクロマ成分の垂直解像度の比を示すことができる。ビデオ復号化デバイスは、ビットストリームから変数nSubWidthおよびnSubHeighを決定することができる。非4:4:4クロマフォーマットにおけるクロマサンプル位置についてのそれぞれのクロマサンプル値は、4:4:4クロマフォーマットに関連付けられた導出されたクロマサンプル位置と、パレットインデックスマップと、パレットテーブルとに基づいて決定されることができる。
ロケーション(xCb/nSubWidth,yCb/nSubHeight)における再構築されたサンプルアレイrecSamplesの(nCbS/nSubWidth×nCbS/nSubHeight)ブロックが、導出されることができる。x=0…nCbS/nSubWidth−1、y=0…nCbS/nSubHeight SubHeightC−1について、recSample[cIdx][yCb/nSubHeight SubHeightC+y][xCb/nSubWidth+x]が設定され得る。palette_mode[xCb+x*nSubWidth][yCb+y*nSubHeight]がESCAPEと等しくない場合、以下を適用することができる。palette_transpose_flagが真である場合、以下を適用することができる:recSample[cIdx][yCb/nSubHeight+y][xCb/nSubWidth+x]=palette_entries[cIdx][paletteMap[xCb+x*nSubWidth][yCb+y*nSubHeight]]。palette_transpose_flagが偽である場合、以下を適用することができる:recSample[cIdx][xCb/nSubWidth+x][yCb/nSubHeight+y]=palette_entries[cIdx][paletteMap[xCb+x*nSubWidth][yCb+y*nSubHeight]]。cu_transquant_bypass_flagが真である場合、以下を適用することができる。palette_transpose_flagが真である場合、以下を適用することができる:recSample[cIdx][yCb/nSubHeight+y][xCb/nSubWidth+x]=palette_escape_val[cIdx][xCb+x*nSubWidth][yCb+y*nSubHeight]。palette_transpose_flagが偽である場合、以下を適用することができる:recSample[cIdx][xCb/nSubWidth+x][yCb/nSubHeight+y]=palette_escape_val[cIdx][xCb+x*nSubWidth][yCb+y*nSubHeight]。palette_mode[xCb+x*nSubWidth][yCb+y*nSubHeight]がESCAPEと等しく、cu_transquant_bypass_flagが偽である場合、以下のステップを適用することができる。本明細書に説明され得るような量子化パラメータの導出が引き起こされることができ、たとえば、現在のブロックがスライス内で1番目のブロックである場合は、availableAがFALSEに等しく、availableBがFALSEに等しく、CuQpDeltaValが0に等しい。量子化パラメータqPは、以下のように導出されることができる。すなわち、cIdxが0に等しい場合、qPがOp’Yに設定されることができ、cIdxが1に等しい場合、qPがOp’Cbに設定されることができ、cIdxが2に等しい場合、qPがOp’Crに設定されることができる。変数bdShiftは、以下のように導出されることができる。
bitShift=((cIdx==0)?BitDepthY:BitDepthC)+Log2(nTbS)−5 (5)
リストlevelScale[]は、levelScale[k]={40、45、51、57、64、72}として指定されることができ、ここでk=0.5である。以下を適用することができる。palette_transpose_flagが真である場合、以下を適用することができる。
recSamples[xCb/nSubWidth+x][yCb/nSubHeight+y]=Clip3(0,1<<bdShift−1,((palette_escape_val[cIdx][yCb+y*nSubHeight][xCb+x*nSubWidth]*16*levelScale[qP%6]<<(qP/6))+(1<<(bdShift−1)))>>bdShift)
palette_transpose_flagが偽である場合、以下を適用することができる。
recSamples[xCb/nSubWidth+x][yCb/nSubHeight+y]=Clip3(0,1<<bdShift−1,((palette_escape_val[cIdx][xCb+x*nSubWidth][yCb+y*nSubHeight]*16*levelScale[qP%6]<<(qP/6))+(1<<(bdShift−1)))>>bdShift)
エスケープ色についてのシンタックス冗長性除去が本明細書で説明されることができる。
表1に示されるように、ピクセルがエスケープ色としてコーディングされることができる場合、成分のサンプル値は、(たとえば、有損失コーディングが適用される場合に)量子化され、シンタックス要素palette_escape_valを介してデコーダに送信されることができる。1または複数の(たとえば各)ピクセルセットについて、ピクセル位置のクロマサンプル値が、非4:4:4パレット実装形態における出力CUを再構築するために使用されることができる。同じピクセルセット内の他のピクセルのクロマサンプル値は、たとえば、それらのピクセルがエスケープ色としてコーディングされる場合、シグナリングされることもされないこともある。ピクセル位置は、クロマ成分についてシンタックス要素palette_escape_valの存在を条件付けるために使用されることができ、そうすることで、エスケープ色コーディングされたピクセル位置に関して、再構築プロセスで使用され得るクロマサンプル値がビットストリームでシグナリングされることができるようにする。
ピクセル位置がエスケープ色としてコーディングされたとき、ピクセル位置が1または複数の(たとえば各)ピクセルセット内のパターン付けされたピクセル位置に対応する場合、色成分のサンプル値が(たとえば必要な場合に)量子化され、コーディングされることができる。エスケープ色ピクセル位置が同じピクセルセット内の残りのピクセル(たとえば、パターン付けされていないピクセル)に対応する場合、ルーマサンプル値が(たとえば必要な場合に)量子化され、ビットストリームでシグナリングされることができる。表2は、エスケープ色シグナリングへのクロマ成分の条件付き包含に基づくシンタックス設計を示す。
Figure 2018505604
ビデオコーディングデバイスは、エスケープ色としてピクセル位置をコーディングするように構成されることができる。パレットテーブルは、CUにおける複数の主要色に対応する複数の色値を含むことができる。パレットインデックスマップは、CUにおけるサンプル位置についての色インデックス値を識別することができる。サンプル位置がエスケープ色に関連付けられているかどうかが、パレットインデックスマップ上でのサンプル位置に関連付けられた色インデックス値に基づいて決定されることができる。図5、図6、および図7では、パターン付けされたピクセルは、ルーマサンプルおよびクロマサンプルが存在するピクセル位置を含む。パターン付けされていないピクセルは、ルーマサンプル(たとえばルーマサンプルのみが存在する)ピクセル位置を含むことができる。ピクセル位置は、1または複数のピクセルセット内のパターン付けされたピクセル位置に対応する場合もしない場合もある。たとえば、ピクセル位置は、1または複数のピクセルセット内のパターン付けされたピクセル位置に対応することがある。ピクセル位置は、エスケープ色に関連付けられることがある。ピクセルは、同じピクセルセット内の残りのピクセル(たとえば、パターン付けされていないピクセル)に対応することがある。ビデオコーディングデバイスは、ピクセル位置がエスケープ色に関連付けられている(たとえば、エスケープ色としてコーディングされている)とき、ピクセル位置またはサンプル位置)がパターン付けされたピクセル位置に対応するかどうかに基づいて、(たとえばコーディングブロックにおける)ピクセル位置またはサンプル位置のクロマサンプル値をシグナリングすべきかどうかを決定することができる。たとえば、ピクセル位置がパターン付けされたピクセル位置に対応するという条件で、クロマ成分のサンプル値が量子化および/またはシグナリングされることができる。たとえば、クロマ成分が回復されることができる。クロマ成分は、サンプル位置に関連付けられたクロマ成分についての復号化されたエスケープ色値に基づいて、回復されることができる。ピクセル位置がエスケープ色に関連付けられている(たとえば、エスケープ色としてコーディングされている)とき、ピクセル位置がパターン付けされていないピクセル位置に対応するという条件で、クロマ成分のサンプル値が省略されることができる。たとえば、クロマ成分のサンプル値は、量子化またはシグナリングされる場合もされない場合もある。サンプル位置が非444クロマフォーマットにおける少なくとも1つのクロマ成分であるという条件で、サンプル位置に関連付けられたクロマ成分がシグナリングされることができる。サンプル位置がルーマ成分のみに関連付けられているという条件で、サンプル位置に関連付けられたクロマ成分がシグナリングされないことができる。
ビデオコーディングデバイスは、たとえば、ビデオコーディングデバイスが、エスケープ色ピクセル位置が同じセット内の残りのピクセルに対応すると決定した場合、ルーマサンプルを量子化するように構成されることができる。ビデオコーディングデバイスは、たとえば、ビデオコーディングデバイスが、エスケープ色ピクセル位置が同じセット内の残りのピクセルに対応すると決定した場合、ビットストリームでルーマサンプルをシグナリングするように構成されることができる。エスケープ色位置のルーマ成分は、位置がパターン付けされていてもパターン付けされていなくても、常に量子化およびシグナリングされてもよい。
非4:4:4ビデオのためのパレットテーブルおよびパレットインデックスマップが生成されることができる。
現在のCUのパレットテーブルおよびパレットインデックスマップは、1または複数の(たとえば各)ピクセルのルーマ成分またはクロマ成分(たとえば、YCbCr色フォーマットにおけるY、Cb、およびCr)を考慮に入れることによって、導出されることができる。4:4:4クロマフォーマットにおけるビデオに関して、ルーマ成分および2つのクロマ成分は、パレットモードを用いてコーディングされたCUの全体的パフォーマンスに対して同様の影響を有し得る。本明細書に説明されるように、非4:4:4クロマフォーマットのルーマ成分およびクロマ成分は、現在のCUの再構築されたサンプルに不均等に寄与し得る。非4:4:4パレットコーディングは、最終的な再構築プロセスに対する異なる成分のそれぞれの寄与を考慮して、パレットテーブルおよびパレットインデックスを生成することができる。図7、図8、および図9に示されるような例に基づいて、1または複数の(たとえば各)ピクセルセットにおいて、パターン付けされたピクセル位置について、そのルーマサンプルおよびクロマサンプルの両方の値が、現在のCUのパレットテーブルおよびパレットインデックスマップを生成するために使用されることができる。同じピクセルセット内の他のピクセル位置(たとえば、パターン付けされていないピクセル)については、ピクセルのルーマサンプルの値が、パレットテーブルおよびパレットインデックスマップを生成するために使用されることができる。前述された式(1)および(2)は、以下のようになり得る。
Figure 2018505604
Figure 2018505604
パラメータD^+およびD^*はそれぞれ、出力CUを再構築するためにルーマサンプルおよびクロマサンプルが使用され得るピクセルのセット、ならびに出力CUを再構築するためにルーマサンプルが使用され得るピクセルのセットを表す。
本明細書の非4:4:4パレットコーディングは、パレットテーブルおよびパレットインデックスマップ生成実装形態と独立して動作されてもよい。たとえば、4:4:4パレットコーディングのためのパレットテーブルおよびパレットインデックスの生成実装形態が、パレットモードを使用してCUをコーディングするために本明細書に説明された非4:4:4パレットコーディングと組み合わされてもよい。式(6)および(7)に示されるようなパレットテーブルおよびパレットインデックス生成が、パレットモードを使用してCUをコーディングするために本明細書に説明された非4:4:4パレットコーディングと組み合わされてもよい。式(6)および(7)に示されるようなパレットテーブルおよびパレットインデックス生成は、ビデオコーディングデバイスがエスケープ色としてピクセル位置をコーディングするように構成されたとき、パレットモードを使用してCUをコーディングするために非4:4:4パレットコーディングと組み合わされてもよい。
図10Aは、1または複数の開示された実施形態が実装されることができる、例示的通信システム1000の図である。通信システム1000は、音声、データ、ビデオ、メッセージング、ブロードキャストなどのコンテンツを、複数のワイヤレスユーザに提供する多重アクセスシステムとすることができる。通信システム1000は、ワイヤレス帯域幅を含むシステムリソースの共有を通じて複数のワイヤレスユーザがそのようなコンテンツにアクセスすることを可能にすることができる。たとえば、通信システム1000は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、およびシングルキャリアFDMA(SC−FDMA)など、1または複数のチャネルアクセス方法を採用することができる。
図10Aに示されるように、通信システム1000は、ワイヤレス送信/受信ユニット(WTRU)1002a、1002b、1002cおよび/または1002d(一般的または集合的にWTRU1002と呼ばれることがある)、無線アクセスネットワーク(RAN)1003/1004/1005、コアネットワーク1006/1007/1009、公衆交換電話網(PSTN)1008、インターネット1010、および他のネットワーク1012を含むことができるが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図することが理解されよう。WTRU1002a、1002b、1002c、1002dのそれぞれは、ワイヤレス環境で動作および/または通信するように構成された任意のタイプのデバイスとすることができる。例として、WTRU1002a、1002b、1002c、1002dは、ワイヤレス信号を送信および/または受信するように構成されてよく、ユーザ機器(UE)、移動局、固定または移動加入者ユニット、ページャ、携帯電話、携帯情報端末(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、ワイヤレスセンサ、および家庭用電化製品などを含んでよい。
通信システム1000はまた、基地局1014aおよび基地局1014bを含むことができる。基地局1014a、1014bのそれぞれは、WTRU1002a、1002b、1002c、1002dのうちの少なくとも1つとワイヤレスでインターフェースして、コアネットワーク1006/1007/1009、インターネット1010、および/またはネットワーク1012などの1または複数の通信ネットワークへのアクセスを容易にするように構成された任意のタイプのデバイスとすることができる。例として、基地局1014a、1014bは、トランシーバ基地局(BTS)、NodeB、eNodeB、ホームNodeB、ホームeNodeB、サイトコントローラ、アクセスポイント(AP)、およびワイヤレスルータなどであってもよい。基地局1014a、1014bはそれぞれ単一の要素として示されているが、基地局1014a、1014bが、任意の数の相互接続された基地局および/またはネットワーク要素を含んでもよいことは理解されよう。
基地局1014aは、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなど他の基地局および/またはネットワーク要素(図示せず)を含むこともできる、RAN1003/1004/1005の一部であってもよい。基地局1014aおよび/または基地局1014bは、セル(図示せず)と呼ばれることがある特定の地理的領域内でワイヤレス信号を送信および/または受信するように構成されてもよい。セルは、セルセクタにさらに分割されてもよい。たとえば、基地局1014aに関連付けられたセルが、3つのセクタに分割されてもよい。したがって、一実施形態では、基地局1014aは、3つのトランシーバ、すなわちセルのセクタごとに1つのトランシーバを含むことができる。別の実施形態では、基地局1014aは、多入力多出力(MIMO)技術を採用してよく、したがって、セルの各セクタに対して複数のトランシーバを利用することができる。
基地局1014a、1014bは、任意の適切なワイヤレス通信リンク(たとえば、無線周波数(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光線など)とすることができるエアインターフェース1015/1016/1017上で、WTRU1002a、1002b、1002c、1002dのうちの1または複数と通信することができる。エアインターフェース1015/1016/1017は、任意の適切な無線アクセス技術(RAT)を使用して確立されてよい。
より具体的には、上述されたように、通信システム1000は、多元接続システムであってよく、CDMA、TDMA、FDMA、OFDMA、およびSC−FDMAなどの1または複数のチャネルアクセス方式を採用してもよい。たとえば、RAN1003/1004/1005における基地局1014aおよびWTRU1002a、1002b、1002cは、広帯域CDMA(WCDMA(登録商標))を使用してエアインターフェース1015/1016/1017を確立することができるユニバーサル移動通信システム(UMTS)地上波無線アクセス(UTRA)などの無線技術を実装することができる。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含んでよい。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含んでよい。
別の実施形態では、基地局1014aおよびWTRU1002a、1002b、1002cは、ロングタームエボリューション(LTE)および/またはLTE−アドバンスト(LTE−A)を使用してエアインターフェース1015/1016/1017を確立することができる進化型UMTS地上波無線アクセス(E−UTRA)などの無線技術を実装することができる。
他の実施形態では、基地局1014aおよびWTRU1002a、1002b、1002cは、IEEE802.16(すなわち、マイクロ波アクセス用世界的相互運用(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動通信用グローバルシステム(GSM(登録商標))、GSMエボリューション用拡張データレート(EDGE)、およびGSM EDGE(GERAN)などの無線技術を実装することができる。
図10Aの基地局1014bは、たとえば、ワイヤレスルータ、ホームNodeB、ホームeNodeB、またはアクセスポイントとすることができ、職場、家庭、乗物、およびキャンパスなどの局所的エリアにおけるワイヤレス接続性を容易にするために任意の適切なRATを利用することができる。一実施形態では、基地局1014b、およびWTRU1002c、1002dは、IEEE802.11などの無線技術を実装して、ワイヤレスローカルエリアネットワーク(WLAN)を確立することができる。別の実施形態では、基地局1014bおよびWTRU1002c、1002dは、IEEE802.15などの無線技術を実装して、ワイヤレスパーソナルエリアネットワーク(WPAN)を確立することができる。さらに別の実施形態では、基地局1014bおよびWTRU1002c、1002dは、セルラベースのRAT(たとえば、WCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用して、ピコセルまたはフェムトセルを確立することができる。図10Aに示されるように、基地局1014bは、インターネット1010への直接的接続を有することができる。したがって、基地局1014bは、コアネットワーク1006/1007/1009を介してインターネット1010にアクセスすることを必要とされないことがある。
RAN1003/1004/1005は、コアネットワーク1006/1007/1009と通信することができ、コアネットワーク1006/1007/1009は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスをWTRU1002a、1002b、1002c、1002dのうちの1または複数に提供するように構成された、任意のタイプのネットワークとすることができる。たとえば、コアネットワーク1006/1007/1009は、呼制御、請求サービス、モバイルロケーションベースのサービス、プリペイド通話、インターネット接続性、ビデオ配信などを提供し、および/またはユーザ認証などの高レベルセキュリティ機能を実行することができる。図10Aには示されていないが、RAN1003/1004/1005および/またはコアネットワーク1006/1007/1009は、RAN1003/1004/1005と同じRATまたは異なるRATを採用する他のRANと直接的または間接的に通信することができることが理解されよう。たとえば、E−UTRA無線技術を利用することができるRAN1003/1004/1005に接続されるのに加えて、コアネットワーク1006/1007/1009は、GSM無線技術を採用する別のRAN(図示せず)と通信することもできる。
コアネットワーク1006/1007/1009は、PSTN1008、インターネット1010、および/または他のネットワーク1012にアクセスするための、WTRU1002a、1002b、1002c、1002dのためのゲートウェイとして働くこともできる。PSTN1008は、基本電話サービス(POTS)を提供する回線交換電話網を含むことができる。インターネット1010は、TCP/IPインターネットプロトコルスイートにおける伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)などの共通の通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスからなるグローバルシステムを含むことができる。ネットワーク1012は、他のサービスプロバイダによって所有および/または運用される有線または無線通信ネットワークを含むことができる。たとえば、ネットワーク1012は、RAN1003/1004/1005と同じRATまたは異なるRATを採用することができる1または複数のRANに接続された別のコアネットワークを含むことができる。
通信システム1000内のWTRU1002a、1002b、1002c、1002dの一部または全部は、マルチモード機能を含むことができ、すなわち、WTRU1002a、1002b、1002c、1020dは、異なる無線リンク上で異なるワイヤレスネットワークと通信するための複数のトランシーバを含むことができる。たとえば、図10Aに示されるWTRU1002cは、セルラベースの無線技術を採用することができる基地局1014a、およびIEEE802無線技術を採用することができる基地局1014bと通信するように構成されてよい。
図10Bは、例示的WTRU1002のシステム図である。図10Bに示されるように、WTRU1002は、プロセッサ1018、トランシーバ1020、送信/受信要素1022、スピーカ/マイクロフォン1024、キーパッド1026、ディスプレイ/タッチパッド1028、着脱不能メモリ1030、着脱可能メモリ1032、電源1034、全地球測位システム(GPS)チップセット1036、および他の周辺機器1038を含むことができる。WTRU1002が、実施形態と整合性を保ちながら、上記の要素の任意の部分的組み合わせを含むことができることは理解されよう。また実施形態は、基地局1014aおよび1014b、ならびに/または基地局1014aおよび1014bが表すことができるノード、たとえば、以下に限定されないが、特に、トランシーバ局(BTS)、NodeB、サイトコントローラ、アクセスポイント(AP)、ホームNodeB、進化型NodeB(eNodeB)、ホーム進化型NodeB(HeNBもしくはHeNodeB)、ホーム進化型NodeBゲートウェイ、およびプロキシノードが、図10Bに示されまた本明細書に説明される要素の一部または全部を含み得ることを企図する。
プロセッサ1018は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと関連する1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他のタイプの集積回路(IC)、および状態機械などであってよい。プロセッサ1018は、信号コーディング、データ処理、電力制御、入力/出力処理、および/またはWTRU1002がワイヤレス環境で動作することを可能にする任意の他の機能性を実行することができる。プロセッサ1018は、トランシーバ1020に結合されることができ、トランシーバ1020は、送信/受信要素1022に結合されることができる。図10Bではプロセッサ1018とトランシーバ1020を別々の構成要素として示しているが、プロセッサ1018とトランシーバ1020が電子パッケージまたはチップ内に一緒に統合されてよいことは理解されよう。
送信/受信要素1022は、エアインターフェース1015/1016/1017上で、基地局(たとえば基地局1014a)に信号を送信し、または基地局から信号を受信するように構成されることができる。たとえば、一実施形態では、送信/受信要素1022は、RF信号を送信および/または受信するように構成されたアンテナとすることができる。別の実施形態では、送信/受信要素1022は、たとえば、IR、UV、または可視光信号を送信および/または受信するように構成されたエミッタ/検出器とすることができる。さらに別の実施形態では、送信/受信要素1022は、RF信号と光信号の両方を送信および受信するように構成されることができる。送信/受信要素1022がワイヤレス信号の任意の組み合わせを送信および/または受信するように構成され得ることは理解されよう。
加えて、図10Bでは送信/受信要素1022は単一の要素として示されているが、WTRU1002は、任意の数の送信/受信要素1022を含んでよい。より具体的には、WTRU1002は、MIMO技術を採用することができる。したがって、一実施形態では、WTRU1002は、エアインターフェース1015/1016/1017上でワイヤレス信号を送信および受信するための2つ以上の送信/受信要素1022(たとえば、複数のアンテナ)を含むことができる。
トランシーバ1020は、送信/受信要素1022によって送信される信号を変調し、送信/受信要素1022によって受信された信号を復調するように構成されることができる。上述されたように、WTRU1002はマルチモード機能を有することができる。したがって、トランシーバ1020は、WTRU1002がたとえばUTRAおよびIEEE802.11などの複数のRATを介して通信することを可能にするための、複数のトランシーバを含むことができる。
WTRU1002のプロセッサ1018は、スピーカ/マイクロフォン1024、キーパッド1026、および/またはディスプレイ/タッチパッド1028(たとえば、液晶表示(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合されることができ、それらからユーザ入力データを受信することができる。プロセッサ1018はまた、スピーカ/マイクロフォン1024、キーパッド1026、および/またはディスプレイ/タッチパッド1028にユーザデータを出力することができる。加えて、プロセッサ1018は、着脱不能メモリ1030および/または着脱可能メモリ1032など、任意のタイプの適切なメモリからの情報にアクセスすることができ、それらにデータを記憶することができる。着脱不能メモリ1030は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスク、または任意の他のタイプのメモリ記憶デバイスを含み得る。着脱可能メモリ1032は、加入者識別モジュール(SIM)カード、メモリスティック、およびセキュアデジタル(SD)メモリカードなどを含み得る。他の実施形態では、プロセッサ1018は、WTRU1002上に物理的に配置されていないサーバまたはホームコンピュータ(図示せず)などにあるメモリからの情報にアクセスすることができ、それらにデータを記憶することができる。
プロセッサ1018は、電源1034から電力を受け取ることができ、WTRU1002内の他の構成要素への電力の分配および/または制御をするように構成されることができる。電源1034は、WTRU1002に給電するための任意の適切なデバイスとすることができる。たとえば、電源1034は、1または複数の乾電池(たとえば、ニッケル−カドミウム(NiCd)、ニッケル−亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li−ion)など)、太陽電池、および燃料電池などを含み得る。
プロセッサ1018はまた、WTRU1002の現在のロケーションに関するロケーション情報(たとえば、経度および緯度)を提供するように構成されることができる、GPSチップセット1036に結合されてもよい。GPSチップセット1036からの情報に加えてまたは代えて、WTRU1002は、基地局(たとえば、基地局1014a、1014b)からエアインターフェース1015/1016/1017上でロケーション情報を受信してもよく、および/または、2つ以上の近くの基地局から受信される信号のタイミングに基づいてそのロケーションを決定してもよい。WTRU1002が、実施形態と整合性を保ちながら、任意の適切なロケーション決定実装形態によってロケーション情報を取得することができることは理解されよう。
プロセッサ1018は、他の周辺機器1038にさらに結合されてよく、他の周辺機器1038は、追加的な特徴、機能性、および/または有線もしくはワイヤレス接続性を提供する、1または複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含むことができる。たとえば、周辺機器1038は、加速度計、電子コンパス、衛星トランシーバ、(写真またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビトランシーバ、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)無線ユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、およびインターネットブラウザなどを含み得る。
図10Cは、実施形態によるRAN1003およびコアネットワーク1006のシステム図である。上述されたように、RAN1003は、UTRA無線技術を採用して、エアインターフェース1015上でWTRU1002a、1002b、1002cと通信することができる。RAN1003は、コアネットワーク1006と通信することもできる。図10Cに示されるように、RAN1003は、NodeB1040a、1040b、1040cを含むことができ、それらはそれぞれ、エアインターフェース115上でWTRU1002a、1002b、1002cと通信するための1または複数のトランシーバを含むことができる。NodeB1040a、1040b、1040cはそれぞれが、RAN1003内の特定のセル(図示せず)に関連付けられることができる。RAN1003は、RNC1042a、1042bを含むこともできる。RAN1003が、実施形態と整合性を保ちながら、任意の数のNodeBおよびRNCを含むことができることは理解されよう。
図10Cに示されるように、NodeB1040a、1040bはRNC1042aと通信することができる。加えて、NodeB1040cはRNC1042bと通信することができる。NodeB1040a、1040b、1040cは、Iubインターフェースを介して、それぞれのRNC1042a、1042bと通信することができる。RNC1042a、1042bは、Iurインターフェースを介して互いに通信することができる。RNC1042a、1042bのそれぞれは、それが接続されたそれぞれのNodeB1040a、1040b、1040cを制御するように構成されることができる。加えて、RNC1042a、1042bのそれぞれは、アウタループ電力制御、負荷制御、アドミッション制御、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシティ、セキュリティ機能、およびデータ暗号化など、他の機能性を実行またはサポートするように構成されることができる。
図10Cに示されるコアネットワーク1006は、メディアゲートウェイ(MGW)1044、移動交換局(MSC)1046、サービングGPRSサポートノード(SGSN)1048、および/またはゲートウェイGPRSサポートノード(GGSN)1050を含むことができる。上記の要素のそれぞれはコアネットワーク1006の部分として示されているが、これらの要素のいずれも、コアネットワークオペレータとは異なるエンティティによって所有および/または運用され得ることは理解されよう。
RAN1003内のRNC1042aは、IuCSインターフェースを介して、コアネットワーク1006内のMSC1046に接続されることができる。MSC1046は、MGW1044に接続されることができる。MSC1046およびMGW1044は、PSTN1008などの回線交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cと従来の陸線通信デバイスとの間の通信を容易にすることができる。
RAN1003内のRNC1042aは、IuPSインターフェースを介して、コアネットワーク1006内のSGSN1048に接続されることもできる。SGSN1048は、GGSN1050に接続されることができる。SGSN1048およびGGSN1050は、インターネット1010などのパケット交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cとIP対応デバイスとの間の通信を容易にすることができる。
上述されたように、コアネットワーク1006は、ネットワーク1012に接続することもでき、ネットワーク1012は、他のサービスプロバイダによって所有および/または運用される他の有線または無線ネットワークを含むことができる。
図10Dは、実施形態によるRAN1004およびコアネットワーク1007のシステム図である。上述されたように、RAN1004は、E−UTRA無線技術を採用して、エアインターフェース1016上でWTRU1002a、1002b、1002cと通信することができる。RAN1004は、コアネットワーク1007と通信することもできる。
RAN1004は、eNodeB1060a、1060b、1060cを含むことができるが、RAN1004が、実施形態と整合性を保ちながら、任意の数のeNodeBを含むことができることは理解されよう。eNodeB1060a、1060b、1060cはそれぞれエアインターフェース1016上でWTRU1002a、1002b、1002cと通信するための1または複数のトランシーバを含むことができる。一実施形態では、eNodeB1060a、1060b、1060cは、MIMO技術を実装することができる。したがって、eNodeB1060aは、複数のアンテナを使用して、WTRU1002aとの間でワイヤレス信号を送信および受信することができる。
eNodeB1060a、1060b、1060cのそれぞれは、特定のセル(図示せず)に関連付けられることができ、無線リソース管理決定、ハンドオーバ決定、ならびにアップリンクおよび/またはダウンリンクにおけるユーザのスケジューリングなどを処理するように構成されることができる。図10Dに示されるように、eNodeB1060a、1060b、1060cは、X2インターフェース上で互いに通信することができる。
図10Dに示されるコアネットワーク1007は、モビリティ管理ゲートウェイ(MME)1062、サービングゲートウェイ1064、およびパケットデータネットワーク(PDN)ゲートウェイ1066を含むことができる。上記の要素のそれぞれはコアネットワーク1007の部分として示されているが、これらの要素のいずれも、コアネットワークオペレータとは異なるエンティティによって所有および/または運用され得ることは理解されよう。
MME1062は、S1インターフェースを介して、RAN1004内のeNodeB1060a、1060b、1060cのそれぞれに接続されることができ、制御ノードとして働くことができる。たとえば、MME1062は、WTRU1002a、1002b、1002cのユーザの認証、ベアラアクティブ化/非アクティブ化、WTRU1002a、1002b、1002cの初期接続時の特定のサービングゲートウェイの選択などを担うことができる。MME1062は、RAN1004とGSMまたはWCDMAなど他の無線技術を採用する他のRAN(図示せず)との間の交換のためのコントロールプレーン機能を提供することもできる。
サービングゲートウェイ1064は、S1インターフェースを介して、RAN1004内のeNodeB1060a、1060b、1060cのそれぞれに接続されることができる。サービングゲートウェイ1064は、一般に、ユーザデータパケットのWTRU1002a、1002b、1002cへの/からのルーティングおよび転送を行うことができる。サービングゲートウェイ1064は、eNodeB間ハンドオーバ中のユーザプレーンのアンカリング、ダウンリンクデータがWTRU1002a、1002b、1002cに利用可能なときのページングのトリガ、ならびにWTRU1002a、1002b、1002cのコンテキストの管理および記憶など、他の機能を実行することもできる。
サービングゲートウェイ1064は、PDNゲートウェイ1066に接続されることもでき、PDNゲートウェイ1066は、インターネット1010などのパケット交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cとIP対応デバイスとの間の通信を容易にすることができる。
コアネットワーク1007は、他のネットワークとの通信を容易にすることができる。たとえば、コアネットワーク1007は、PSTN1008などの回線交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cと従来の陸線通信デバイスとの間の通信を容易にすることができる。たとえば、コアネットワーク1007は、コアネットワーク1007とPSTN1008との間のインターフェースとして働くIPゲートウェイ(たとえば、IPマルチメディアサブシステム(IMS)サーバ)を含むことができ、またはIPゲートウェイと通信することができる。加えて、コアネットワーク1007は、ネットワーク1012へのアクセスをWTRU1002a、1002b、1002cに提供することができ、ネットワーク1012は、他のサービスプロバイダによって所有および/または運用される他の有線または無線ネットワークを含むことができる。
図10Eは、実施形態によるRAN1005およびコアネットワーク1009のシステム図である。RAN1005は、IEEE802.16無線技術を採用してエアインターフェース1017上でWTRU1002a、1002b、1002cと通信する、アクセスサービスネットワーク(ASN)とすることができる。後でさらに説明されるように、WTRU1002a、1002b、1002c、RAN1005、およびコアネットワーク1009の異なる機能エンティティ間の通信リンクが、参照点として定義されることができる。
図10Eに示されるように、RAN1005は、基地局1080a、1080b、1080c、およびASNゲートウェイ1082を含むことができるが、RAN1005が、実施形態と整合性を保ちながら、任意の数の基地局およびASNゲートウェイを含むことができることは理解されよう。基地局1080a、1080b、1080cはそれぞれが、RAN1005内の特定のセル(図示せず)に関連付けられることができ、それぞれが、エアインターフェース1017上でWTRU1002a、1002b、1002cと通信するための1または複数のトランシーバを含むことができる。一実施形態では、基地局1080a、1080b、1080cは、MIMO技術を実装することができる。したがって、基地局1080aは、たとえば、複数のアンテナを使用して、WTRU1002aとの間でワイヤレス信号を送信および受信することができる。基地局1080a、1080b、1080cは、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、およびサービス品質(QoS)ポリシー実施などの、モビリティ管理機能を提供することもできる。ASNゲートウェイ1082は、トラフィック集約ポイントとして働くことができ、ページング、加入者プロファイルのキャッシング、およびコアネットワーク1009へのルーティングなどを担うことができる。
WTRU1002a、1002b、1002cとRAN1005との間のエアインターフェース1017は、IEEE802.16仕様を実装するR1参照点として定義されることができる。加えて、WTRU1002a、1002b、1002cのそれぞれは、コアネットワーク1009との論理インターフェース(図示せず)を確立することができる。WTRU1002a、1002b、1002cとコアネットワーク1009との間の論理インターフェースは、R2参照点として定義されることができ、R2参照点は、認証、認可、IPホスト構成管理、および/またはモビリティ管理のために使用されることができる。
基地局1080a、1080b、1080cのそれぞれの間の通信リンクは、WTRUハンドオーバおよび基地局間のデータの転送を容易にするためのプロトコルを含む、R8参照点として定義されることができる。基地局1080a、1080b、1080cとASNゲートウェイ1082との間の通信リンクは、R6参照点として定義されることができる。R6参照点は、WTRU1002a、1002b、1002cのそれぞれと関連付けられたモビリティイベントに基づくモビリティ管理を容易にするためのプロトコルを含むことができる。
図10Eに示されるように、RAN1005はコアネットワーク1009に接続されることができる。RAN1005とコアネットワーク1009との間の通信リンクは、たとえば、データ転送およびモビリティ管理機能を容易にするためのプロトコルを含む、R3参照点として定義されることができる。コアネットワーク1009は、モバイルIPホームエージェント(MIP−HA)1084、認証認可課金(AAA)サーバ1086、およびゲートウェイ1088を含むことができる。上記の要素のそれぞれはコアネットワーク1009の部分として示されているが、これらの要素のいずれも、コアネットワークオペレータとは異なるエンティティによって所有および/または運用され得ることは理解されよう。
MIP−HAは、IPアドレス管理を担うことができ、異なるASNおよび/または異なるコアネットワークの間でWTRU1002a、1002b、1002cがローミングを行うことを可能にすることができる。MIP−HA1084は、インターネット1010などのパケット交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cとIP対応デバイスとの間の通信を容易にすることができる。AAAサーバ1086は、ユーザ認証、およびユーザサービスのサポートを担うことができる。ゲートウェイ1088は、他のネットワークとの網間接続を容易にすることができる。たとえば、ゲートウェイ1088は、PSTN1008などの回線交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cと従来の陸線通信デバイスとの間の通信を容易にすることができる。加えて、ゲートウェイ1088は、ネットワーク1012へのアクセスをWTRU1002a、1002b、1002cに提供することができ、ネットワーク1012は、他のサービスプロバイダによって所有および/または運用される他の有線または無線ネットワークを含むことができる。
図10Eには示されていないが、RAN1005が他のASNに接続されることができ、コアネットワーク1009が他のコアネットワークに接続されることができることは理解されよう。RAN1005と他のASNとの間の通信リンクは、R4参照点として定義されることができ、R4参照点は、RAN1005と他のASNとの間でWTRU1002a、1002b、1002cのモビリティを調整するためのプロトコルを含むことができる。コアネットワーク1009と他のコアネットワークとの間の通信リンクは、R5参照として定義されることができ、R5参照点は、ホームコアネットワークと訪問先コアネットワークとの間の網間接続を容易にするためのプロトコルを含むことができる。
上記に説明されたプロセスは、コンピュータおよび/またはプロセッサによって実行するためのコンピュータ可読媒体に組み込まれたコンピュータプログラム、ソフトウェア、および/またはファームウェアで実装されることができる。コンピュータ可読媒体の例は、(有線または無線接続を介して送信される)電子信号、および/またはコンピュータ可読記憶媒体を含むが、これらに限定されない。コンピュータ可読記憶媒体の例は、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよび着脱可能ディスクなどの磁気媒体、光磁気媒体、ならびに/またはCD−ROMディスクおよび/またはデジタル多用途ディスク(DVD)などの光媒体を含むが、それらに限定されない。WTRU、UE、端末、基地局、RNC、および/または任意のホストコンピュータにおいて使用するための無線周波数トランシーバを実装するために、ソフトウェアと関連するプロセッサが使用されることができる。

Claims (54)

  1. 第1のクロマフォーマットに関連付けられたビデオビットストリームをパレット復号化するための方法であって、
    コーディングユニット(CU)に関連付けられたパレットテーブルおよびパレットインデックスマップを定義するデータを受信するステップであって、前記パレットテーブルおよび前記パレットインデックスマップは、第2のクロマフォーマットに関連付けられている、ステップと、
    前記第1のクロマフォーマットに関連付けられた第1のクロマサンプル位置に関して、前記第1のクロマフォーマットに関連付けられたルーマ成分対クロマ成分解像度比に基づいて、前記パレットインデックスマップ上での前記第2のクロマフォーマットに関連付けられたクロマサンプル位置を導出するステップと、
    前記第2のクロマフォーマットに関連付けられた前記導出されたクロマサンプル位置と、前記パレットインデックスマップと、前記パレットテーブルとに基づいて、前記第1のクロマフォーマットに関連付けられた前記クロマサンプル位置についてのそれぞれのクロマサンプル値を決定するステップと
    を含むことを特徴とする方法。
  2. 前記パレットテーブルは、前記CUにおける複数の色に対応する複数の色値を含み、前記パレットインデックスマップは、前記CUにおけるサンプル位置についてのそれぞれの色インデックス値を識別し、前記方法は、
    前記パレットインデックスマップ上での前記第2のクロマフォーマットに関連付けられた前記クロマサンプル位置に関連付けられた色インデックス値を決定するステップと、
    前記色インデックス値を使用して、前記パレットテーブル内で前記それぞれのクロマサンプル値を調べるステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記第1のクロマフォーマットに関連付けられたルーマサンプル位置について、前記ルーマサンプル位置と、前記パレットインデックスマップと、前記パレットテーブルとに基づいて、それぞれのルーマサンプル値を決定するステップをさらに含むことを特徴とする請求項1に記載の方法。
  4. 前記パレットテーブルは、前記CUにおける複数の色に対応する複数の色値を含み、前記パレットインデックスマップは、前記CUにおけるサンプル位置についてのそれぞれの色インデックス値を識別し、前記方法は、
    前記ルーマサンプル位置に関連付けられた色インデックス値を決定するステップと、
    前記色インデックス値を使用して、前記パレットテーブル内で前記それぞれのルーマサンプル値を調べるステップと
    をさらに含むことを特徴とする請求項3に記載の方法。
  5. 前記CUにおける第2のサンプル位置を識別するステップと、
    前記第2のサンプル位置および前記第1のクロマフォーマットに基づいて、前記第2のサンプル位置がルーマ成分のみに関連付けられているかどうかを決定するステップと、
    前記第2のサンプル位置が前記ルーマ成分のみに関連付けられているという決定に基づき、前記第2のサンプル位置に関連付けられたクロマサンプル値を破棄するステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  6. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項1に記載の方法。
  7. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項6に記載の方法。
  8. 第1のクロマフォーマットに関連付けられたビデオビットストリームをパレット復号化するための方法であって、
    コーディングユニット(CU)に関連付けられたパレットテーブルおよびパレットインデックスマップを定義するデータを受信するステップであって、前記パレットテーブルおよび前記パレットインデックスマップは、第2のクロマフォーマットに関連付けられている、ステップと、
    前記CUにおけるサンプル位置がエスケープ色に関連付けられているかどうかを決定するステップと、
    前記サンプル位置が前記エスケープ色に関連付けられているという決定に基づき、前記サンプル位置および前記第1のクロマフォーマットに基づいて、前記サンプル位置に関連付けられたクロマ成分がシグナリングされるかどうかを決定するステップと、
    前記サンプル位置に関連付けられた前記クロマ成分がシグナリングされるという決定に基づき、前記クロマ成分を回復するステップと
    を含むことを特徴とする方法。
  9. 前記サンプル位置に関連付けられた前記クロマ成分についての復号化されたエスケープ色値に基づいて、前記クロマ成分が回復されることを特徴とする請求項8に記載の方法。
  10. 前記パレットテーブルは、前記CUにおける複数の色に対応する複数の色値を含み、前記パレットインデックスマップは、前記CUにおけるサンプル位置についてのそれぞれの色インデックス値を識別し、前記サンプル位置がエスケープ色に関連付けられているかどうかが、前記パレットインデックスマップ上での前記サンプル位置に関連付けられた色インデックス値に基づいて決定されることを特徴とする請求項8に記載の方法。
  11. 前記サンプル位置が前記第1のクロマフォーマットにおける少なくとも1つのクロマ成分に関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマ成分がシグナリングされると決定されることを特徴とする請求項8に記載の方法。
  12. 前記サンプル位置がルーマ成分のみに関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマ成分がシグナリングされないと決定されることを特徴とする請求項8に記載の方法。
  13. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項8に記載の方法。
  14. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項13に記載の方法。
  15. ビデオをパレット符号化するための方法であって、
    第1のクロマフォーマットに関連付けられたビデオブロックを受信するステップであって、前記ビデオブロックは、複数のクロマサンプル位置および複数のルーマサンプル位置を含む、ステップと、
    第2のクロマフォーマットに従って、前記複数のクロマサンプル位置をアップサンプリングするステップと、
    前記アップサンプリングされたクロマサンプル位置、および前記複数のルーマサンプル位置に基づいて、前記第2のクロマフォーマットに関連付けられたパレットテーブルおよびパレットインデックスマップを導出するステップと、
    前記第2のクロマフォーマットに関連付けられた前記パレットテーブルおよび前記パレットインデックスマップを、ビデオビットストリーム内に符号化するステップと
    を含むことを特徴とする方法。
  16. ルーマサンプル位置の近くのクロマサンプル位置が、前記複数のクロマサンプル位置をアップサンプリングするために使用されることを特徴とする請求項15に記載の方法。
  17. ルーマサンプル位置に位相距離が最も近いクロマサンプル位置が、前記複数のクロマサンプル位置をアップサンプリングするために使用されることを特徴とする請求項15に記載の方法。
  18. 補間ベースのアップサンプリングが、前記複数のクロマサンプル位置をアップサンプリングするために使用され、前記補間ベースのアップサンプリングは、ルーマサンプル位置の近くのクロマサンプル位置、および前記クロマ位置と前記ルーマサンプル位置との間の位相距離に基づくことを特徴とする請求項15に記載の方法。
  19. 第2のサンプル位置に関連付けられたクロマサンプル値が符号化され、前記第2のサンプル位置はルーマサンプル値のみに関連付けられていることを特徴とする請求項15に記載の方法。
  20. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項15に記載の方法。
  21. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項20に記載の方法。
  22. 第1のクロマフォーマットに関連付けられたビデオビットストリームをパレット符号化するための方法であって、
    コーディングユニット(CU)に関連付けられたパレットテーブルおよびパレットインデックスマップを導出するステップであって、前記パレットテーブルおよび前記パレットインデックスマップは、第2のクロマフォーマットに関連付けられている、ステップと、
    前記CUにおけるサンプル位置がエスケープ色に関連付けられているかどうかを決定するステップと、
    前記サンプル位置が前記エスケープ色に関連付けられているという決定に基づき、前記サンプル位置および前記第1のクロマフォーマットに基づいて、前記サンプル位置に関連付けられたクロマ成分をシグナリングすべきかどうかを決定するステップと、
    前記サンプル位置に関連付けられたクロマ成分がシグナリングされるべきという決定に基づき、前記クロマ成分を前記ビデオビットストリーム内に符号化するステップと
    を含むことを特徴とする方法。
  23. 前記サンプル位置に関連付けられた前記クロマ成分についてのエスケープ色値は、符号化されることを特徴とする請求項22に記載の方法。
  24. 前記サンプル位置が前記第1のクロマフォーマットにおける少なくとも1つのクロマサンプル値に関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマ成分をシグナリングすると決定されることを特徴とする請求項22に記載の方法。
  25. 前記サンプル位置がルーマサンプル値のみに関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマ成分をシグナリングしないと決定されることを特徴とする請求項22に記載の方法。
  26. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項22に記載の方法。
  27. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項26に記載の方法。
  28. 第1のクロマフォーマットに関連付けられたビデオビットストリームをパレット復号化するためのビデオコーディングデバイスであって、
    コーディングユニット(CU)に関連付けられたパレットテーブルおよびパレットインデックスマップを定義するデータを受信することであって、前記パレットテーブルおよび前記パレットインデックスマップは、第2のクロマフォーマットに関連付けられている、受信することと、
    前記第1のクロマフォーマットに関連付けられた第1のクロマサンプル位置に関して、前記第1のクロマフォーマットに関連付けられたルーマ成分対クロマ成分解像度比に基づいて、前記パレットインデックスマップ上での前記第2のクロマフォーマットに関連付けられたクロマサンプル位置を導出することと、
    前記第2のクロマフォーマットに関連付けられた前記導出されたクロマサンプル位置と、前記パレットインデックスマップと、前記パレットテーブルとに基づいて、前記第1のクロマフォーマットに関連付けられた前記クロマサンプル位置についてのそれぞれのクロマサンプル値を決定することと
    を行うように構成されたプロセッサを備えることを特徴とするビデオコーディングデバイス。
  29. 前記パレットテーブルは、前記CUにおける複数の色に対応する複数の色値を含み、前記パレットインデックスマップは、前記CUにおけるサンプル位置についてのそれぞれの色インデックス値を識別し、前記プロセスは、
    前記パレットインデックスマップ上での前記第2のクロマフォーマットに関連付けられた前記クロマサンプル位置に関連付けられた色インデックス値を決定し、
    前記色インデックス値を使用して、前記パレットテーブル内で前記それぞれのクロマサンプル値を調べる
    ようにさらに構成されることを特徴とする請求項28に記載のビデオコーディングデバイス。
  30. 前記プロセスは、前記第1のクロマフォーマットに関連付けられたルーマサンプル位置について、前記ルーマサンプル位置と、前記パレットインデックスマップと、前記パレットテーブルとに基づいて、それぞれのルーマサンプル値を決定するようにさらに構成されることを特徴とする請求項28に記載のビデオコーディングデバイス。
  31. 前記パレットテーブルは、前記CUにおける複数の色に対応する複数の色値を含み、前記パレットインデックスマップは、前記CUにおけるサンプル位置についてのそれぞれの色インデックス値を識別し、前記プロセスは、
    前記ルーマサンプル位置に関連付けられた色インデックス値を決定し、
    前記色インデックス値を使用して、前記パレットテーブル内で前記それぞれのルーマサンプル値を調べる
    ようにさらに構成されることを特徴とする請求項30に記載のビデオコーディングデバイス。
  32. 前記プロセスは、
    前記CUにおける第2のサンプル位置を識別し、
    前記第2のサンプル位置および前記第1のクロマフォーマットに基づいて、前記第2のサンプル位置がルーマ成分のみに関連付けられているかどうかを決定し、
    前記第2のサンプル位置が前記ルーマ成分のみに関連付けられているという決定に基づき、前記第2のサンプル位置に関連付けられたクロマサンプル値を破棄する
    ようにさらに構成されることを特徴とする請求項28に記載のビデオコーディングデバイス。
  33. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項28に記載のビデオコーディングデバイス。
  34. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項33に記載のビデオコーディングデバイス。
  35. 第1のクロマフォーマットに関連付けられたビデオビットストリームをパレット復号化するためのビデオコーディングデバイスであって、
    コーディングユニット(CU)に関連付けられたパレットテーブルおよびパレットインデックスマップを定義するデータを受信することであって、前記パレットテーブルおよび前記パレットインデックスマップは、第2のクロマフォーマットに関連付けられている、受信することと、
    前記CUにおけるサンプル位置がエスケープ色に関連付けられているかどうかを決定することと、
    前記サンプル位置が前記エスケープ色に関連付けられているという決定に基づき、前記サンプル位置および前記第1のクロマフォーマットに基づいて、前記サンプル位置に関連付けられたクロマ成分がシグナリングされるかどうかを決定することと、
    前記サンプル位置に関連付けられた前記クロマ成分がシグナリングされるという決定に基づき、前記クロマ成分を回復することと
    を行うように構成されたプロセッサを備えることを特徴とするビデオコーディングデバイス。
  36. 前記サンプル位置に関連付けられた前記クロマ成分についての復号化されたエスケープ色値に基づいて、前記クロマ成分が回復されることを特徴とする請求項35に記載のビデオコーディングデバイス。
  37. 前記パレットテーブルは、前記CUにおける複数の色に対応する複数の色値を含み、前記パレットインデックスマップは、前記CUにおけるサンプル位置についてのそれぞれの色インデックス値を識別し、前記サンプル位置がエスケープ色に関連付けられているかどうかが、前記パレットインデックスマップ上での前記サンプル位置に関連付けられた色インデックス値に基づいて決定されることを特徴とする請求項35に記載のビデオコーディングデバイス。
  38. 前記サンプル位置が前記第1のクロマフォーマットにおける少なくとも1つのクロマ成分に関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマ成分がシグナリングされると決定されることを特徴とする請求項35に記載のビデオコーディングデバイス。
  39. 前記サンプル位置がルーマ成分のみに関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマ成分がシグナリングされないと決定されることを特徴とする請求項35に記載のビデオコーディングデバイス。
  40. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項35に記載のビデオコーディングデバイス。
  41. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項40に記載のビデオコーディングデバイス。
  42. ビデオをパレット符号化するためのビデオコーディングデバイスであって、
    第1のクロマフォーマットに関連付けられたビデオブロックを受信することであって、前記ビデオブロックは、複数のクロマサンプル位置および複数のルーマサンプル位置を含む、受信することと、
    第2のクロマフォーマットに従って、前記複数のクロマサンプル位置をアップサンプリングすることと、
    前記アップサンプリングされたクロマサンプル位置、および前記複数のルーマサンプル位置に基づいて、前記第2のクロマフォーマットに関連付けられたパレットテーブルおよびパレットインデックスマップを導出することと、
    前記第2のクロマフォーマットに関連付けられた前記パレットテーブルおよび前記パレットインデックスマップを、ビデオビットストリーム内に符号化することと
    を行うように構成されたプロセッサを備えることを特徴とするビデオコーディングデバイス。
  43. ルーマサンプル位置の近くのクロマサンプル位置が、前記複数のクロマサンプル位置をアップサンプリングするために使用されることを特徴とする請求項42に記載のビデオコーディングデバイス。
  44. ルーマサンプル位置に位相距離が最も近いクロマサンプル位置が、前記複数のクロマサンプル位置をアップサンプリングするために使用されることを特徴とする請求項42に記載のビデオコーディングデバイス。
  45. 補間ベースのアップサンプリングが、前記複数のクロマサンプル位置をアップサンプリングするために使用され、前記補間ベースのアップサンプリングは、ルーマサンプル位置の近くのクロマサンプル位置、および前記クロマサンプル位置と前記ルーマサンプル位置との間の位相距離に基づくことを特徴とする請求項42に記載のビデオコーディングデバイス。
  46. 第2のサンプル位置に関連付けられたクロマサンプル値が符号化され、前記第2のサンプル位置はルーマサンプル値のみに関連付けられていることを特徴とする請求項42に記載のビデオコーディングデバイス。
  47. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項42に記載のビデオコーディングデバイス。
  48. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項47に記載のビデオコーディングデバイス。
  49. 第1のクロマフォーマットに関連付けられたビデオビットストリームをパレット符号化するためのビデオコーディングデバイスであって、
    コーディングユニット(CU)に関連付けられたパレットテーブルおよびパレットインデックスマップを導出することであって、前記パレットテーブルおよび前記パレットインデックスマップは、第2のクロマフォーマットに関連付けられている、導出することと、
    前記CUにおけるサンプル位置がエスケープ色に関連付けられているかどうかを決定することと、
    前記サンプル位置が前記エスケープ色に関連付けられているという決定に基づき、前記サンプル位置および前記第1のクロマフォーマットに基づいて、前記サンプル位置に関連付けられたクロマ成分をシグナリングすべきかどうかを決定することと、
    前記サンプル位置に関連付けられたクロマ成分がシグナリングされるという決定に基づき、前記クロマ成分を前記ビデオビットストリーム内に符号化することと
    を行うように構成されたプロセッサを備えることを特徴とするビデオコーディングデバイス。
  50. 前記サンプル位置に関連付けられた前記クロマ成分についてのエスケープ色値は、符号化されることを特徴とする請求項49に記載のビデオコーディングデバイス。
  51. 前記サンプル位置が前記第1のクロマフォーマットにおける少なくとも1つのクロマ成分に関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマ成分がシグナリングされると決定されることを特徴とする請求項49に記載のビデオコーディングデバイス。
  52. 前記サンプル位置がルーマサンプル値のみに関連付けられているという条件で、前記サンプル位置に関連付けられた前記クロマサンプル値がシグナリングされないと決定されることを特徴とする請求項49に記載のビデオコーディングデバイス。
  53. 前記第1のクロマフォーマットは非4:4:4クロマフォーマットであり、前記第2のクロマフォーマットは4:4:4クロマフォーマットであることを特徴とする請求項49に記載のビデオコーディングデバイス。
  54. 非4:4:4クロマフォーマットは、4:2:0、4:2:2、または4:0:0であることを特徴とする請求項53に記載のビデオコーディングデバイス。
JP2017537451A 2015-01-14 2016-01-14 非4:4:4スクリーンコンテンツビデオのためのパレットコーディング Pending JP2018505604A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562103419P 2015-01-14 2015-01-14
US62/103,419 2015-01-14
PCT/US2016/013406 WO2016115343A2 (en) 2015-01-14 2016-01-14 Palette coding for non-4:4:4 screen content video

Publications (1)

Publication Number Publication Date
JP2018505604A true JP2018505604A (ja) 2018-02-22

Family

ID=55697439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017537451A Pending JP2018505604A (ja) 2015-01-14 2016-01-14 非4:4:4スクリーンコンテンツビデオのためのパレットコーディング

Country Status (7)

Country Link
US (1) US20170374384A1 (ja)
EP (1) EP3245788A2 (ja)
JP (1) JP2018505604A (ja)
KR (1) KR20170103924A (ja)
CN (1) CN107211147A (ja)
TW (1) TW201637448A (ja)
WO (1) WO2016115343A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113519157A (zh) * 2019-03-04 2021-10-19 北京字节跳动网络技术有限公司 视频处理中滤波信息的两级信令

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9979960B2 (en) 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
GB2542858A (en) * 2015-10-02 2017-04-05 Canon Kk Encoder optimizations for palette encoding of content with subsampled colour component
GB2547047B (en) * 2016-02-08 2018-07-18 Canon Kk Encoder optimizations for palette lossless encoding of content with subsampled colour component
US10368080B2 (en) * 2016-10-21 2019-07-30 Microsoft Technology Licensing, Llc Selective upsampling or refresh of chroma sample values
US10904571B2 (en) * 2017-05-25 2021-01-26 Vid Scale, Inc. Hybrid cubemap projection for 360-degree video coding
EP3861738A4 (en) 2018-11-06 2022-01-26 Beijing Bytedance Network Technology Co., Ltd. POSITION-BASED INTRA PREDICTION
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
MX2021007465A (es) * 2018-12-21 2021-08-05 Beijing Dajia Internet Information Tech Co Ltd Metodos y aparatos de codificacion de video para derivar vectores de movimiento afines para componentes croma.
KR20210118399A (ko) 2019-02-01 2021-09-30 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인-루프 재성형과 인터 코딩 툴들 사이의 상호작용들
WO2020156532A1 (en) * 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Restrictions on in-loop reshaping
AU2020226574A1 (en) * 2019-02-22 2021-09-30 Huawei Technologies Co., Ltd. Method and apparatus for affine based inter prediction of chroma subblocks
KR20210129647A (ko) * 2019-02-24 2021-10-28 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 팔레트 모드 사용 지시의 독립적인 코딩
CN113475062A (zh) 2019-02-24 2021-10-01 北京字节跳动网络技术有限公司 确定屏幕内容编解码的条件
CN113615188A (zh) 2019-03-08 2021-11-05 北京字节跳动网络技术有限公司 调色板模式使用指示的联合编解码
CN117499644A (zh) 2019-03-14 2024-02-02 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
WO2020192612A1 (en) 2019-03-23 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Default in-loop reshaping parameters
WO2020216176A1 (en) 2019-04-20 2020-10-29 Beijing Bytedance Network Technology Co., Ltd. Signaling of chroma syntax elements in video coding
CN113785574B (zh) * 2019-05-30 2022-10-11 北京字节跳动网络技术有限公司 色度分量的自适应环路滤波
JP7436519B2 (ja) 2019-05-31 2024-02-21 バイトダンス インコーポレイテッド イントラブロックコピー予測を備えたパレットモード
CN117459744A (zh) 2019-07-20 2024-01-26 北京字节跳动网络技术有限公司 调色板模式使用指示的条件相关编解码
CN117221536A (zh) 2019-07-23 2023-12-12 北京字节跳动网络技术有限公司 调色板模式编解码的模式确定
CN114208174B (zh) 2019-07-29 2023-11-28 北京字节跳动网络技术有限公司 预测过程中的调色板模式编解码
CN115767089A (zh) 2019-08-14 2023-03-07 Lg电子株式会社 图像编解码方法、发送比特流的方法和记录介质
EP4000269A4 (en) 2019-08-15 2022-09-07 ByteDance Inc. PALLET MODE WITH DIFFERENT DIVISION STRUCTURES
CN117395420A (zh) 2019-08-15 2024-01-12 字节跳动有限公司 用于调色板逸出符号的熵编解码
KR20220057544A (ko) 2019-09-12 2022-05-09 바이트댄스 아이엔씨 비디오 코딩에서 팔레트 예측자 사용
KR102624438B1 (ko) 2019-09-19 2024-01-15 바이트댄스 아이엔씨 팔레트 모드에 대한 양자화 파라미터 도출
CN114424574A (zh) 2019-09-20 2022-04-29 北京字节跳动网络技术有限公司 编解码块的缩放过程
WO2021133529A1 (en) * 2019-12-26 2021-07-01 Alibaba Group Holding Limited Methods for coding video data in palette mode
KR20240019408A (ko) * 2020-03-27 2024-02-14 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 팔레트 모드를 사용한 비디오 코딩 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016100859A1 (en) * 2014-12-19 2016-06-23 Qualcomm Incorporated Palette mode for subsampling format

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10291827B2 (en) * 2013-11-22 2019-05-14 Futurewei Technologies, Inc. Advanced screen content coding solution

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016100859A1 (en) * 2014-12-19 2016-06-23 Qualcomm Incorporated Palette mode for subsampling format

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
D. FLYNN: "BoG report on Range Extensions topics[online]", JCTVC-O JCTVC-O0352, JPN6018032568, pages 36 - 38 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113519157A (zh) * 2019-03-04 2021-10-19 北京字节跳动网络技术有限公司 视频处理中滤波信息的两级信令
CN113519157B (zh) * 2019-03-04 2023-12-26 北京字节跳动网络技术有限公司 视频处理中滤波信息的两级信令

Also Published As

Publication number Publication date
EP3245788A2 (en) 2017-11-22
TW201637448A (zh) 2016-10-16
WO2016115343A2 (en) 2016-07-21
WO2016115343A3 (en) 2016-10-13
KR20170103924A (ko) 2017-09-13
CN107211147A (zh) 2017-09-26
US20170374384A1 (en) 2017-12-28

Similar Documents

Publication Publication Date Title
JP2018505604A (ja) 非4:4:4スクリーンコンテンツビデオのためのパレットコーディング
JP6684867B2 (ja) Rgbビデオコーディングエンハンスメントのためのシステムおよび方法
US10484686B2 (en) Palette coding modes and palette flipping
JP7433019B2 (ja) ビデオコーディングにおけるクロマ信号強調のためのクロスプレーンフィルタリング
US20230132221A1 (en) Palette coding for screen content coding
TWI735424B (zh) 調色編碼模式逃逸色彩編碼
US11438605B2 (en) Enhanced chroma coding using cross plane filtering
JP6367963B2 (ja) 画面コンテンツ符号化のためのパレット符号化
JP6322713B2 (ja) スクリーンコンテンツコーディングのための2次元パレットコーディング
US10972731B2 (en) Systems and methods for coding in super-block based video coding framework
KR101812860B1 (ko) Hdr 비디오를 디노이징하기 위한 시간적 필터

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190716