JP2024012544A - クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法 - Google Patents

クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法 Download PDF

Info

Publication number
JP2024012544A
JP2024012544A JP2023190927A JP2023190927A JP2024012544A JP 2024012544 A JP2024012544 A JP 2024012544A JP 2023190927 A JP2023190927 A JP 2023190927A JP 2023190927 A JP2023190927 A JP 2023190927A JP 2024012544 A JP2024012544 A JP 2024012544A
Authority
JP
Japan
Prior art keywords
prediction mode
value
video
mode
chroma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023190927A
Other languages
English (en)
Inventor
ビャオ・ワン
Biao Wang
セミフ・エセンリク
Esenlik Semih
アナンド・メヘル・コトラ
Kotra Anand
ハン・ガオ
Han Gao
エレナ・アレクサンドロブナ・アルシナ
Alexandrovna Alshina Elena
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2024012544A publication Critical patent/JP2024012544A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】デコードデバイスによって実行されるコーディングの方法。【解決手段】ビデオビットストリームを取得するステップと、ビデオビットストリームをデコードして、現在のコーディングブロックのクロマ成分に対する初期イントラ予測モード値を取得するステップと、現在のコーディングブロックのルーマ成分に対する幅と現在のコーディングブロックのクロマ成分に対する幅との間の比がしきい値に等しいか否かを決定するステップと、比がしきい値に等しいことが決定されたとき、既定のマッピング関係および初期イントラ予測モード値に従って現在のコーディングブロックのクロマ成分に対するマッピングされたイントラ予測モード値を取得するステップと、マッピングされたイントラ予測モード値に従って現在のコーディングブロックのクロマ成分に対する予測サンプル値を取得するステップとを備える。【選択図】図13

Description

本出願(開示)の実施形態は、一般にピクチャ処理の分野、より詳細にはクロマイントラ
予測モード導出に関する。
ビデオコーディング(ビデオエンコードおよびビデオデコード)は、広い範囲のデジタル
ビデオアプリケーション、例えば、放送デジタルTV、インターネットおよびモバイルネッ
トワーク上でのビデオ伝送、ビデオチャットのようなリアルタイム会話型アプリケーショ
ン、ビデオ会議、DVDおよびBlu-ray(登録商標)ディスク、ビデオコンテンツ収集および編
集システム、およびセキュリティアプリケーションのカムコーダにおいて使用される。
比較的短いビデオでさえ描写するために必要とされるビデオデータの量は、かなりであ
る可能性があり、これは、限定された帯域幅容量を有する通信ネットワークを渡ってデー
タがストリーミングされ、またはそうでなく伝達されることになるときに、困難をもたら
し得る。従って、ビデオデータは、一般に、現代の電気通信ネットワークを渡って伝達さ
れる前に圧縮される。メモリリソースが限定され得るので、ビデオが記憶デバイスにおい
て記憶されるとき、ビデオのサイズも問題である可能性がある。ビデオ圧縮デバイスは、
しばしば、伝送または記憶の前に、ソースにおいてソフトウェアおよび/またはハードウ
ェアを使用してビデオデータをコーディングし、それにより、デジタルビデオ画像を表現
するために必要とされるデータの量を減らす。圧縮されたデータは、次いで、ビデオデー
タをデコードするビデオ復元デバイスによって宛先において受信される。限定されたネッ
トワークリソース、およびより高いビデオ品質の増加さえしている需要を有して、ピクチ
ャ品質においてほとんどないし全く犠牲なしで圧縮率を改善する、改善された圧縮および
復元技法が望ましい。
本出願の実施形態は、独立請求項に従ってエンコードおよびデコードするための装置お
よび方法を提供する。
上記および他の目的は、独立請求項の主題によって達成される。さらなる実装形式は、
従属請求項、説明、および図から明らかである。
本発明の第1の態様は、デコードデバイスによって実行されるコーディングの方法を提
供し、方法は、ビデオビットストリームを取得するステップと、ビデオビットストリーム
をデコードして、現在のコーディングブロックのためのクロマフォーマット表示情報の値
を取得するステップと、現在のコーディングブロックのクロマ成分に対する初期イントラ
予測モード値を取得するステップと、現在のコーディングブロックのためのクロマフォー
マット表示情報の値が既定値に等しいとき、既定のマッピング関係および初期イントラ予
測モード値に従って現在のコーディングブロックのクロマ成分に対するマッピングされた
イントラ予測モード値を取得するステップと、マッピングされたイントラ予測モード値に
従って現在のコーディングブロックのクロマ成分に対する予測サンプル値を取得するステ
ップとを備える。
本発明の実施形態によれば、クロマサブサンプリングフォーマットに対して、イントラ
予測モード間のマッピング関係は、より一層正確に導出される。コーディング効率が改善
される。
図13に表されたように、デコードデバイスによって実行されるコーディングの方法が開
示され、方法は以下を備える。
S1301: ビデオビットストリームを取得する。
ビットストリームは、ワイヤレスネットワークまたは有線ネットワークに従って取得さ
れ得る。ビットストリームは、同軸ケーブル、光ファイバケーブル、ツイストペア、デジ
タル加入者線(DSL)、または赤外線、無線、マイクロ波、WIFI、Bluetooth、LTE、または5
Gのようなワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソー
スから送信され得る。
一実施形態では、ビットストリームは、1つまたは複数のコーディングされたビデオシ
ーケンス(CVS)を形成するアクセスユニット(AU)のシーケンスの表現を形成する、ネット
ワークアブストラクションレイヤ(NAL)ユニットストリームまたはバイトストリームの形
式でのビットのシーケンスである。
いくつかの実施形態では、デコードプロセスについて、デコーダ側がビットストリーム
を読み取り、ビットストリームからデコードされたピクチャを導出し、エンコードプロセ
スについて、エンコーダ側がビットストリームを作り出す。
通常、ビットストリームは、シンタックス構造によって形成されるシンタックス要素を
備える。
シンタックス要素: ビットストリーム内で表現されるデータの要素。
シンタックス構造: 指定された順序でビットストリーム内に一緒に存在する0個以上の
シンタックス要素。
特定の例では、ビットストリームフォーマットは、ネットワークアブストラクションレ
イヤ(NAL)ユニットストリームとバイトストリームの間の関係を指定し、それらのどちら
もビットストリームと呼ばれる。
ビットストリームは、2つのフォーマット、すなわち、NALユニットストリームフォーマ
ットまたはバイトストリームフォーマットのうちの1つであることが可能である。NALユニ
ットストリームフォーマットは、概念的に、より「基本的な」タイプである。NALユニッ
トストリームフォーマットは、NALユニットと呼ばれるシンタックス構造のシーケンスを
備える。このシーケンスは、デコード順序で順序付けられる。NALユニットストリーム内
のNALユニットのデコード順序(およびコンテンツ)に課される制約がある。
バイトのストリームを形成するために、NALユニットをデコード順序で順序付け、開始
コードプレフィックスおよび0個以上の0値バイトを各NALユニットの前に付けることによ
って、NALユニットストリームフォーマットからバイトストリームフォーマットが構成さ
れることが可能である。バイトのこのストリーム内での固有の開始コードプレフィックス
パターンの位置を探索することによって、バイトストリームフォーマットからNALユニッ
トストリームフォーマットが抽出されることが可能である。
この節は、ビットストリームを介して与えられる、ソースおよびデコードされたピクチ
ャの間の関係を指定する。
ビットストリームによって表現されるビデオソースは、デコード順序でのピクチャのシ
ーケンスである。
ソースおよびデコードされたピクチャは各々、1つまたは複数のサンプルアレイが備え
られる。
- ルーマ(Y)のみ(モノクロ)。
- ルーマおよび2つのクロマ(YCbCrまたはYCgCo)。
- 緑、青、および赤(GBR、RGBとしても知られる)。
- 他の指定されていないモノクロまたは三刺激カラーサンプリングを表現するアレイ(
たとえば、YZX、XYZとしても知られる)。
これらのアレイに関連付けられた変数および用語は、ルーマ(またはLまたはY)およびク
ロマと呼ばれ、ここで、2つのクロマアレイは、使用中の実際の色表現方法にかかわらずC
bおよびCrと呼ばれる。使用中の実際の色表現方法は、ITU-T H.SEI | ISO/IEC23002-7に
おいて指定されるようなVUIパラメータにおいて指定されるシンタックスにおいて示され
ることが可能である。
変数SubWidthCおよびSubHeightCは、sps_chroma_format_idcおよびsps_separate_colou
r_plane_flagを通して指定されるクロマフォーマットサンプリング構造に依存して、Tabl
e 1の中で指定される。
モノクロサンプリングでは、名目上、ルーマアレイと見なされる1つのみのサンプルア
レイがある。
4:2:0サンプリングでは、2つのクロマアレイの各々はルーマアレイの半分の高さおよび
半分の幅を有する。
4:2:2サンプリングでは、2つのクロマアレイの各々はルーマアレイの同じ高さおよび半
分の幅を有する。
4:4:4サンプリングでは、sps_separate_colour_plane_flagの値に依存して以下が適用
される。
- sps_separate_colour_plane_flagが0に等しいならば、2つのクロマアレイの各々は
ルーマアレイと同じ高さおよび幅を有する。
- そうでなければ(sps_separate_colour_plane_flagが1に等しい)、3つの色平面はモ
ノクロサンプリングされたピクチャとして別個に処理される。
S1302: 現在のコーディングブロックのクロマ成分に対する初期イントラ予測モード値
を取得する。
初期イントラ予測モード値は、ビデオビットストリーム内にコーディングされたインデ
ックス値を構文解析することによって取得され得るか、または初期イントラ予測モード値
は、ビデオビットストリームから構文解析されるシンタックス値に従って決定され得る。
一実装では、現在のコーディングブロックのクロマ成分に対する初期イントラ予測モー
ド値は、現在のコーディングブロックのルーマ成分のためのイントラ予測モードに基づい
て取得される。
特定の例では、現在のコーディングブロックのクロマ成分に対する初期イントラ予測モ
ード値を取得するために、以下のプロセスが使用される。
このプロセスへの入力は以下である。
- 現在のピクチャの左上のルーマサンプルに相対的な現在のクロマコーディングブロ
ックの左上のサンプルを指定するルーマ位置( xCb, yCb )。
- ルーマサンプルにおける現在のコーディングブロックの幅を指定する変数cbWidth。
- ルーマサンプルにおける現在のコーディングブロックの高さを指定する変数cbHeigh
t。
- 単一ツリーが使用されるか、あるいは二重ツリーが使用されるかを指定する変数tre
eType。
このプロセスでは、クロマイントラ予測モードIntraPredModeC[ xCb ][ yCb ]およびMI
PクロマダイレクトモードフラグMipChromaDirectFlag[ xCb ][ yCb ]が導出される。
treeTypeがSINGLE_TREEに等しく、sps_chroma_format_idcが3に等しく、intra_chroma_
pred_modeが4に等しく、かつintra_mip_flag[ xCb ][ yCb ]が1に等しいならば、以下が
適用される。
- MIPクロマダイレクトモードフラグMipChromaDirectFlag[ xCb ][ yCb ]は1に等しく
設定される。
- クロマイントラ予測モードIntraPredModeC[ xCb ][ yCb ]はIntraPredModeY[ xCb ]
[ yCb ]に等しく設定される。
そうでなければ、以下が適用される。
- MIPクロマダイレクトモードフラグMipChromaDirectFlag[ xCb ][ yCb ]は0に等しく
設定される。
- 対応するルーマイントラ予測モードlumaIntraPredModeは以下のように導出される。
- intra_mip_flag[ xCb + cbWidth / 2 ][ yCb + cbHeight / 2 ]が1に等しいなら
ば、lumaIntraPredModeはINTRA_PLANARに等しく設定される。
- そうでなければ、CuPredMode[ 0 ][ xCb + cbWidth / 2 ][ yCb + cbHeight / 2
]がMODE_IBCまたはMODE_PLTに等しいならば、lumaIntraPredModeはINTRA_DCに等しく設定
される。
- そうでなければ、lumaIntraPredModeはIntraPredModeY[ xCb + cbWidth / 2 ][ y
Cb + cbHeight / 2 ]に等しく設定される。
- クロマイントラ予測モードIntraPredModeC[ xCb ][ yCb ]は以下のように導出され
る。
- cu_act_enabled_flag[ xCb ][ yCb ]が1に等しいならば、クロマイントラ予測モ
ードIntraPredModeC[ xCb ][ yCb ]はlumaIntraPredModeに等しく設定される。
- そうでなければ、BdpcmFlag[ xCb ][ yCb ][ 1 ]が1に等しいならば、IntraPredM
odeC[ xCb ][ yCb ]はBdpcmDir[ xCb ][ yCb ][ 1 ] ? INTRA_ANGULAR50 : INTRA_ANGULA
R18に等しく設定される。
- そうでなければ(cu_act_enabled_flag[ xCb ][ yCb ]が0に等しく、かつBdpcmFla
g[ xCb ][ yCb ][ 1 ]が0に等しい)、クロマイントラ予測モードIntraPredModeC[ xCb ][
yCb ]は、Table 20において指定されるようにcclm_mode_flag、cclm_mode_idx、intra_c
hroma_pred_mode、およびlumaIntraPredModeを使用して導出される。
S1303: ビデオビットストリームをデコードして、現在のコーディングブロックのため
のクロマフォーマット表示情報の値を取得する。
一実施形態では、クロマフォーマット表示情報は、Table 1に表されたシンタックスsps
_chroma_format_idcである。sps_chroma_format_idcは、ルーマサンプリングに相対的な
クロマサンプリングを指定する。
一例では、シンタックスsps_chroma_format_idcは、以下のようなシーケンスパラメー
タセットからデコードされる。
ステップS1302およびステップS1303に対して特定の順序はなく、ステップS1302がステ
ップS1303の前に実行されてよく、またはステップS1303がステップS1302の前に実行され
てよく、またはそれらが並行して実行され得ることが理解され得る。
S1304: 現在のコーディングブロックのためのクロマフォーマット表示情報の値が既定
値に等しいとき、既定のマッピング関係および初期イントラ予測モード値に従って現在の
コーディングブロックのクロマ成分に対するマッピングされたイントラ予測モード値を取
得する。
一実施形態では、既定値は2または1である。既定値が2であることはクロマフォーマッ
トが4:2:2であることを表現し、既定値が1であることはクロマフォーマットが4:2:0であ
ることを表現する。
一例では、sps_chroma_format_idcが2に等しいとき、クロマイントラ予測モードYはク
ロマイントラ予測モードXを使用して導出され、その後、クロマイントラ予測モードXがク
ロマイントラ予測モードYに等しく設定される。
モードXとモードYの間のマッピング関係は、Table 2、Table 3、Table 4、Table 5、Ta
ble 6、Table 8、Table 10、Table 12、Table 14、Table 15、またはTable 18に従って表
され得る。
一例では、sps_chroma_format_idcが2に等しいとき、クロマイントラ予測モードYは、T
able 21において指定されるように、Table 20におけるクロマイントラ予測モードXを使用
して導出され、その後、クロマイントラ予測モードXがクロマイントラ予測モードYに等し
く設定される。
S1305: マッピングされたイントラ予測モード値に従って現在のコーディングブロック
のクロマ成分に対する予測サンプル値を取得する。
マッピングされたイントラ予測モード値は、予測サンプル値を取得するために「イント
ラ予測モード値」として使用される。このプロセスの詳細は、ITU H.264またはITU H.265
または他の文書を参照することができる。
図14に表されたように、本発明の第2の態様は、デコードデバイス1400を提供し、デコ
ードデバイスは、
ビデオビットストリームを取得するように構成された受信モジュール1401、
ビデオビットストリームをデコードして、現在のコーディングブロックのクロマ成分に
対する初期イントラ予測モード値を取得するように構成されたパラメータプロセスモジュ
ール1402、
パラメータプロセスモジュール1402はまた、ビデオビットストリームをデコードして、
現在のコーディングブロックのためのクロマフォーマット表示情報の値を取得するように
構成され、
現在のコーディングブロックのためのクロマフォーマット表示情報の値が既定値に等し
いとき、既定のマッピング関係および初期イントラ予測モード値に従って現在のコーディ
ングブロックのクロマ成分に対するマッピングされたイントラ予測モード値を取得するよ
うに構成されたマッピングモジュール1403、
マッピングされたイントラ予測モード値に従って現在のコーディングブロックのクロマ
成分に対する予測サンプル値を取得するように構成された予測モジュール1404を備える。
発明の第1の態様による方法は、発明の第2の態様による装置によって実行されることが
可能である。上記の方法のさらなる特徴および実装形式は、発明の第2の態様による装置
の特徴および実装形式に対応する。
一実施形態では、本発明の第3の態様は、エンコードデバイスによって実行されるコー
ディングの方法を提供し、現在のコーディングブロックに対する初期イントラ予測モード
値を取得するステップと、現在のコーディングブロックのルーマ成分に対する幅と現在の
コーディングブロックのクロマ成分に対する幅との間の比がしきい値に等しいか否かを決
定するステップと、現在のコーディングブロックのルーマ成分に対する幅と現在のコーデ
ィングブロックのクロマ成分に対する幅との間の比がしきい値に等しいとき、既定のマッ
ピング関係および初期イントラ予測モード値に従って現在のコーディングブロックのクロ
マ成分に対するマッピングされたイントラ予測モード値を取得するステップと、マッピン
グされたイントラ予測モード値に従って現在のコーディングブロックをコーディングする
ステップとを備える。
一実装では、方法は、
現在のコーディングブロックのためのクロマフォーマット表示情報の値をビットストリ
ームにエンコードするステップをさらに備え、クロマフォーマット表示情報の値は、現在
のコーディングブロックのルーマ成分に対する幅と現在のコーディングブロックのクロマ
成分に対する幅との間の比を表現する。
一実装では、既定のマッピング関係を表すために以下の表、すなわち、
または
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する。
一実装では、既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する。
発明(エンコード側)の第3の態様による方法のさらなる実施形態は、発明(デコード側)
の第2の態様による方法に対応して実行されることが可能である。
一実施形態では、上記の実施形態および実装のうちのいずれか1つによる方法を実行す
るための処理回路を備えるデコーダ(30)またはエンコーダ(20)が開示される。
一実施形態では、上記の実施形態および実装のうちのいずれか1つによる方法を実行す
るためのプログラムコードを備えるコンピュータプログラム製品が開示される。
一実施形態では、デコーダまたはエンコーダであって、
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶する非一
時的コンピュータ可読記憶媒体とを備え、プログラミングが、プロセッサによって実行さ
れたとき、上記の実施形態および実装のうちのいずれか1つによる方法を実行するように
デコーダまたはエンコーダを構成する、
デコーダまたはエンコーダが開示される。
一実施形態では、画像デコードデバイスによってデコードされるエンコードされたビッ
トストリームを含む非一時的記憶媒体であって、ビットストリームが、ビデオ信号または
画像信号のフレームを複数のブロックに分割することによって生成され、かつ複数のシン
タックス要素を含み、複数のシンタックス要素が、上記の実施形態および実装のうちのい
ずれか1つによるインジケータ(シンタックスsps_chroma_format_idc)を備える、非一時的
記憶媒体が開示される。
1つまたは複数の実施形態の詳細が、添付の図面および以下の説明において記載される
。他の特徴、目的、および利点は、説明、図面、および請求項から明らかになるであろう
以下では、発明の実施形態が、添付の図および図面を参照して、より詳細に説明される
発明の実施形態を実現するように構成されたビデオコーディングシステムの一例を表すブロック図である。 発明の実施形態を実現するように構成されたビデオコーディングシステムの別の例を表すブロック図である。 発明の実施形態を実現するように構成されたビデオエンコーダの一例を表すブロック図である。 発明の実施形態を実現するように構成されたビデオデコーダの例示の構造を表すブロック図である。 エンコード装置またはデコード装置の一例を例示するブロック図である。 エンコード装置またはデコード装置の別の例を例示するブロック図である。 クロマサブサンプリングフォーマット4:4:4についての一例である。 クロマサブサンプリングフォーマット4:2:0についての一例である。 クロマサブサンプリングフォーマット4:2:2についての一例である。 予測モードについての一例を例示するブロック図である。 元のモード、およびクロマサブサンプリングが4:2:2クロマサブサンプリングフォーマットを使用して水平方向において適用される場合の、対応するモードの一例である。 コンテンツ配信サービスを実現するコンテンツ供給システム3100の例示の構造を表すブロック図である。 端末デバイスの一例の構造を表すブロック図である。 本発明に言及する方法の実施形態を表すフローチャートである。 本発明に言及する装置の実施形態を表すブロック図である。
以下では、同一の参照符号は、明示的に他に指定されないならば、同一のまたは少なく
とも機能的に等価な特徴を指す。
以下の説明では、開示の部分を形成し、発明の実施形態の特定の態様または本発明の実
施形態が使用され得る特定の態様を例示として表す、添付の図への参照が行われる。発明
の実施形態が、他の態様において使用され、図の中に描写されていない構造的または論理
的な変更を備え得ることが理解される。従って、以下の詳細な説明は限定する意味で受け
取られるべきでなく、本発明の範囲は添付の請求項によって定義される。
例えば、説明される方法に関する開示が、その方法を実行するように構成された対応す
るデバイスまたはシステムについても当てはまり得るとともに逆も同様であることが理解
される。例えば、1つまたは複数の特定の方法のステップが説明されるならば、そのよう
な1つまたは複数のユニットが明示的に説明されない、または図の中に例示されないとし
ても、対応するデバイスは、説明される1つまたは複数の方法のステップを実行するため
の1つまたは複数のユニット、例えば、機能ユニット(例えば、1つまたは複数のステップ
を実行する1つのユニット、または複数のステップのうちの1つまたは複数を各々が実行す
る複数のユニット)を含んでよい。一方、例えば、1つまたは複数のユニット、例えば、機
能ユニットに基づいて、特定の装置が説明されるならば、そのような1つまたは複数のス
テップが明示的に説明されない、または図の中に例示されないとしても、対応する方法は
、1つまたは複数のユニットの機能を実行するための1つのステップ(例えば、1つまたは複
数のユニットの機能を実行する1つのステップ、または複数のユニットのうちの1つまたは
複数の機能を各々が実行する複数のステップ)を含んでよい。さらに、特に他に注記され
ないならば、ここで説明される様々な例示的な実施形態および/または態様の特徴が互い
に組み合わせられてよいことが理解される。
ビデオコーディングは、典型的に、ビデオまたはビデオシーケンスを形成する、ピクチ
ャのシーケンスの処理を指す。用語「ピクチャ」の代わりに、ビデオコーディングの分野
では用語「フレーム」または「画像」が同義語として使用され得る。ビデオコーディング
(または、一般にコーディング)は、2つの部分、ビデオエンコードおよびビデオデコード
を備える。ビデオエンコードは、ソース側において実行され、典型的に、ビデオピクチャ
を表現するために要求されるデータの量を(より効率的な記憶および/または伝送のため
に)減少させるために、(例えば、圧縮によって)元のビデオピクチャを処理することを備
える。ビデオデコードは、宛先側において実行され、典型的に、ビデオピクチャを再構成
するための、エンコーダと比較して逆の処理を備える。ビデオピクチャ(または、一般に
ピクチャ)の「コーディング」に言及する実施形態は、ビデオピクチャまたはそれぞれの
ビデオシーケンスの「エンコード」または「デコード」に関すると理解されるものとする
。エンコード部分とデコード部分の組み合わせは、CODEC(Coding and Decoding(コーディ
ングおよびデコード))とも呼ばれる。
損失のないビデオコーディングの場合には、元のビデオピクチャは再構成されることが
可能であり、すなわち、(記憶または伝送の間に伝送損失または他のデータ損失がないと
仮定すると)再構成されたビデオピクチャは元のビデオピクチャと同じ品質を有する。損
失のあるビデオコーディングの場合には、ビデオピクチャを表現するデータの量を減少さ
せるために、例えば、量子化によって、さらなる圧縮が実行され、ビデオピクチャは、デ
コーダにおいて完全に再構成されることが可能でなく、すなわち、再構成されたビデオピ
クチャの品質は元のビデオピクチャの品質と比較して、より低い、またはより悪い。
いくつかのビデオコーディング規格は、「損失のあるハイブリッドビデオコーデック」
のグループに属する(すなわち、サンプル領域における空間および時間予測と、変換領域
において量子化を適用するための2D変換コーディングとを組み合わせる)。ビデオシーケ
ンスの各ピクチャは、典型的に、重複しないブロックのセットに区分され、コーディング
は、典型的に、ブロックレベルにおいて実行される。言い換えれば、エンコーダにおいて
、ビデオは、典型的に、例えば、空間(イントラピクチャ)予測および/または時間(イン
ターピクチャ)予測を使用して予測ブロックを生成し、現在のブロック(現在処理されてい
る/処理されるべきブロック)から予測ブロックを減算して残差ブロックを取得し、残差
ブロックを変換し、変換領域において残差ブロックを量子化して伝送されるべきデータの
量を減少させること(圧縮)によって、ブロック(ビデオブロック)レベルにおいて処理され
、すなわちエンコードされ、一方、デコーダにおいて、エンコーダと比較して逆の処理が
、エンコードされ、または圧縮されたブロックに適用されて表現のために現在のブロック
を再構成する。さらに、エンコーダは、続くブロックを処理する、すなわちコーディング
するために、両方が同一の予測(例えば、イントラおよびインター予測)および/または再
構成を生成するように、デコーダ処理ループを二重化する。
以下では、ビデオコーディングシステム10、ビデオエンコーダ20、およびビデオデコー
ダ30の実施形態が、図1から図3に基づいて説明される。
図1Aは、この本出願の技法を利用し得る例示のコーディングシステム10、例えば、ビデ
オコーディングシステム10(または短縮してコーディングシステム10)を例示する概略ブロ
ック図である。ビデオコーディングシステム10のビデオエンコーダ20(または短縮してエ
ンコーダ20)およびビデオデコーダ30(または短縮してデコーダ30)は、本出願において説
明される様々な例による技法を実行するように構成され得るデバイスの例を表現する。
図1Aに表されたように、コーディングシステム10は、例えば、エンコードされたピクチ
ャデータ13をデコードするための宛先デバイス14に、エンコードされたピクチャデータ21
を提供するように構成されたソースデバイス12を備える。
ソースデバイス12は、エンコーダ20を備え、加えて、すなわち任意選択で、ピクチャソ
ース16、プリプロセッサ(または、前処理ユニット)18、例えば、ピクチャプリプロセッサ
18、および通信インターフェースまたは通信ユニット22を備えてよい。
ピクチャソース16は、任意の種類のピクチャキャプチャデバイス、例えば、実世界ピク
チャをキャプチャするためのカメラ、および/または任意の種類のピクチャ生成デバイス
、例えば、コンピュータアニメーション化されたピクチャを生成するためのコンピュータ
グラフィックスプロセッサ、または実世界ピクチャ、コンピュータ生成されたピクチャ(
例えば、スクリーンコンテンツ、仮想現実(virtual reality(VR))ピクチャ)、および/ま
たはそれらの任意の組み合わせ(例えば、拡張現実(augmented reality(AR))ピクチャ)を
取得および/または提供するための任意の種類の他のデバイスを備え、またはそれらであ
ってよい。ピクチャソースは、上述のピクチャのうちのいずれかを記憶する任意の種類の
メモリまたは記憶装置であってよい。
プリプロセッサ18、および前処理ユニット18によって実行される処理と区別して、ピク
チャまたはピクチャデータ17は、未処理ピクチャまたは未処理ピクチャデータ17とも呼ば
れ得る。
プリプロセッサ18は、(未処理)ピクチャデータ17を受信し、ピクチャデータ17において
前処理を実行して、前処理されたピクチャ19または前処理されたピクチャデータ19を取得
するように構成される。プリプロセッサ18によって実行される前処理は、例えば、トリミ
ング、(例えば、RGBからYCbCrへの)カラーフォーマット変換、色補正、またはノイズ除去
を備えてよい。前処理ユニット18が任意選択の構成要素であり得ることが理解されること
が可能である。
ビデオエンコーダ20は、前処理されたピクチャデータ19を受信し、エンコードされたピ
クチャデータ21を提供するように構成される(さらなる詳細が、例えば、図2に基づいて、
以下で説明されるであろう)。
ソースデバイス12の通信インターフェース22は、エンコードされたピクチャデータ21を
受信し、記憶または直接の再構成のために、通信チャネル13上で別のデバイス、例えば、
宛先デバイス14または任意の他のデバイスへ、エンコードされたピクチャデータ21(また
は、それらのさらに処理された任意のバージョン)を伝送するように構成され得る。
宛先デバイス14は、デコーダ30(例えば、ビデオデコーダ30)を備え、加えて、すなわち
任意選択で、通信インターフェースまたは通信ユニット28、ポストプロセッサ32(または
、後処理ユニット32)、およびディスプレイデバイス34を備えてよい。
宛先デバイス14の通信インターフェース28は、例えば、ソースデバイス12から直接に、
または任意の他のソース、例えば、記憶デバイス、例えば、エンコードされたピクチャデ
ータ記憶デバイスから、エンコードされたピクチャデータ21(または、それらのさらに処
理された任意のバージョン)を受信し、エンコードされたピクチャデータ21をデコーダ30
に提供するように構成される。
通信インターフェース22および通信インターフェース28は、ソースデバイス12と宛先デ
バイス14の間の直接の通信リンク、例えば、直接の有線または無線接続を介して、または
任意の種類のネットワーク、例えば、有線または無線ネットワークまたはそれらの任意の
組み合わせ、または任意の種類のプライベートおよびパブリックネットワーク、またはそ
れらの任意の種類の組み合わせを介して、エンコードされたピクチャデータ21またはエン
コードされたデータ13を伝送または受信するように構成され得る。
通信インターフェース22は、例えば、適切なフォーマット、例えば、パケットの中に、
エンコードされたピクチャデータ21をパッケージ化し、かつ/または通信リンクまたは通
信ネットワーク上での伝送のために任意の種類の伝送エンコードまたは処理を使用してエ
ンコードされたピクチャデータを処理するように構成され得る。
通信インターフェース22の相手側を形成する通信インターフェース28は、例えば、伝送
されたデータを受信し、任意の種類の対応する伝送デコードまたは処理および/またはパ
ッケージ除去を使用して伝送データを処理してエンコードされたピクチャデータ21を取得
するように構成され得る。
通信インターフェース22と通信インターフェース28の両方が、ソースデバイス12から宛
先デバイス14を指し示す、図1Aの中の通信チャネル13についての矢印によって示されるよ
うな単方向の通信インターフェース、または双方向の通信インターフェースとして構成さ
れてよく、例えば、通信リンクおよび/またはデータ伝送、例えば、エンコードされたピ
クチャデータ伝送に関する、任意の他の情報を肯定応答および交換するために、例えば、
接続をセットアップするために、メッセージを送信し、受信するように構成されてよい。
デコーダ30は、エンコードされたピクチャデータ21を受信し、デコードされたピクチャ
データ31またはデコードされたピクチャ31を提供するように構成される(さらなる詳細は
、例えば、図3または図5に基づいて、以下で説明されるであろう)。
宛先デバイス14のポストプロセッサ32は、デコードされたピクチャデータ31(再構成さ
れたピクチャデータとも呼ばれる)、例えば、デコードされたピクチャ31を後処理して、
後処理されたピクチャデータ33、例えば、後処理されたピクチャ33を取得するように構成
される。後処理ユニット32によって実行される後処理は、例えば、ディスプレイデバイス
34による、例えば、表示のためにデコードされたピクチャデータ31を準備するための、例
えば、(例えば、YCbCrからRGBへの)カラーフォーマット変換、色補正、トリミング、また
は再サンプリング、または任意の他の処理を備えてよい。
宛先デバイス14のディスプレイデバイス34は、例えば、ユーザまたは閲覧者に、ピクチ
ャを表示するための後処理されたピクチャデータ33を受信するように構成される。ディス
プレイデバイス34は、再構成されたピクチャを表現するための任意の種類のディスプレイ
、例えば、統合型または外部のディスプレイまたはモニタであってよく、またはそれを備
えてよい。ディスプレイは、例えば、液晶ディスプレイ(liquid crystal display(LCD))
、有機発光ダイオード(organic light emitting diode(OLED))ディスプレイ、プラズマデ
ィスプレイ、プロジェクタ、マイクロLEDディスプレイ、液晶オンシリコン(liquid cryst
al on silicon(LCoS))、デジタル光プロセッサ(digital light processor(DLP))、または
任意の種類の他のディスプレイを備えてよい。
図1Aはソースデバイス12および宛先デバイス14を別個のデバイスとして描写するが、デ
バイスの実施形態はまた、ソースデバイス12または対応する機能と、宛先デバイス14また
は対応する機能の、両方または両方の機能を備えてよい。そのような実施形態では、ソー
スデバイス12または対応する機能、および宛先デバイス14または対応する機能は、同じハ
ードウェアおよび/またはソフトウェアを使用して、または別個のハードウェアおよび/
またはソフトウェアまたはそれらの任意の組み合わせによって、実現され得る。
説明に基づいて当業者に対して明らかになることになるように、異なるユニットの機能
または図1Aに表されたようなソースデバイス12および/または宛先デバイス14内の機能の
存在および(正確な)分割は、実際のデバイスおよび適用に依存して変わり得る。
エンコーダ20(例えば、ビデオエンコーダ20)またはデコーダ30(例えば、ビデオデコー
ダ30)、またはエンコーダ20とデコーダ30の両方は、1つまたは複数のマイクロプロセッサ
、デジタル信号プロセッサ(digital signal processor(DSP))、特定用途向け集積回路(ap
plication-specific integrated circuit(ASIC))、フィールドプログラマブルゲートアレ
イ(field-programmable gate array(FPGA))、個別論理、ハードウェア、専用のビデオコ
ーディング、またはそれらの任意の組み合わせのような、図1Bに表されたような処理回路
を介して実現され得る。エンコーダ20は、図2のエンコーダ20に関して論じられるような
様々なモジュールおよび/またはここで説明される任意の他のエンコーダシステムまたは
サブシステムを具現するために、処理回路46を介して実現され得る。デコーダ30は、図3
のデコーダ30に関して論じられるような様々なモジュールおよび/またはここで説明され
る任意の他のデコーダシステムまたはサブシステムを具現するために、処理回路46を介し
て実現され得る。処理回路は、後で論じられるような様々な演算を実行するように構成さ
れ得る。図5に表されたように、技法が部分的にソフトウェアで実現されるならば、デバ
イスは、ソフトウェアのための命令を、適した非一時的コンピュータ可読記憶媒体に記憶
してよく、この開示の技法を実行するために1つまたは複数のプロセッサを使用してハー
ドウェアで命令を実行してよい。ビデオエンコーダ20およびビデオデコーダ30のいずれか
は、例えば、図1Bに表されたように、組み合わせられたエンコーダ/デコーダ(CODEC)の
部分として単一のデバイス内に統合され得る。
ソースデバイス12および宛先デバイス14は、任意の種類のハンドヘルドまたは固定のデ
バイス、例えば、ノートブックまたはラップトップコンピュータ、モバイルフォン、スマ
ートフォン、タブレットまたはタブレットコンピュータ、カメラ、デスクトップコンピュ
ータ、セットトップボックス、テレビ、ディスプレイデバイス、デジタルメディアプレー
ヤ、ビデオゲームコンソール、(コンテンツサービスサーバまたはコンテンツ配信サーバ
のような)ビデオストリーミングデバイス、放送受信機デバイス、放送送信機デバイス、
または同様のものを含む、広い範囲のデバイスのうちのいずれかを備えてよく、オペレー
ティングシステムを使用しなくてよく、または任意の種類のオペレーティングシステムを
使用してよい。いくつかの場合、ソースデバイス12および宛先デバイス14は無線通信のた
めに装備されてよい。従って、ソースデバイス12および宛先デバイス14は無線通信デバイ
スであってよい。
いくつかの場合、図1Aに例示されたビデオコーディングシステム10は単に一例であり、
本出願の技法は、エンコードおよびデコードデバイスの間の任意のデータ通信を必ずしも
含まず、ビデオコーディング設定(例えば、ビデオエンコードまたはビデオデコード)に適
用されてよい。他の例では、データは、ローカルメモリから取り出され、ネットワーク上
でストリーミングされ、または同様である。ビデオエンコードデバイスは、データをエン
コードしてメモリに記憶してよく、かつ/またはビデオデコードデバイスは、データをメ
モリから取り出してデコードしてよい。いくつかの例では、互いに通信しないが、単にデ
ータをメモリにエンコードし、かつ/またはデータをメモリから取り出してデコードする
デバイスによって、エンコードおよびデコードが実行される。
説明の便宜のため、例えば、高効率ビデオコーディング(High-Efficiency Video Codin
g(HEVC))への、またはITU-Tビデオコーディングエキスパートグループ(Video Coding Exp
erts Group(VCEG))とISO/IECモーション・ピクチャ・エキスパート・グループ(Motion Pi
cture Experts Group(MPEG))のビデオコーディング共同研究部会(Joint Collaboration T
eam on Video Coding(JCT-VC))によって策定された次世代ビデオコーディング規格である
、多用途ビデオコーディング(Versatile Video Coding(VVC))の参照ソフトウェアへの参
照によって、発明の実施形態がここで説明される。発明の実施形態がHEVCまたはVVCに限
定されないことを、この技術分野の当業者は理解するであろう。
エンコーダおよびエンコード方法
図2は、本出願の技法を実現するように構成される例示のビデオエンコーダ20の概略ブ
ロック図を表す。図2の例では、ビデオエンコーダ20は、入力201(または入力インターフ
ェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子
化ユニット210、および逆変換処理ユニット212、再構成ユニット214、ループフィルタユ
ニット220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、モー
ド選択ユニット260、エントロピーエンコードユニット270、および出力272(または出力イ
ンターフェース272)を備える。モード選択ユニット260は、インター予測ユニット244、イ
ントラ予測ユニット254、および区分ユニット262を含んでよい。インター予測ユニット24
4は、動き推定ユニットおよび動き補償ユニット(表されていない)を含んでよい。図2に表
されたようなビデオエンコーダ20は、ハイブリッドビデオエンコーダ、またはハイブリッ
ドビデオコーデックによるビデオエンコーダとも呼ばれ得る。
残差計算ユニット204、変換処理ユニット206、量子化ユニット208、モード選択ユニッ
ト260は、エンコーダ20の順方向信号経路を形成するとして言及されてよく、一方、逆量
子化ユニット210、逆変換処理ユニット212、再構成ユニット214、バッファ216、ループフ
ィルタ220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、イン
ター予測ユニット244、およびイントラ予測ユニット254は、ビデオエンコーダ20の逆方向
信号経路を形成するとして言及されてよく、ビデオエンコーダ20の逆方向信号経路はデコ
ーダの信号経路に対応する(図3の中のビデオデコーダ30を見られたい)。逆量子化ユニッ
ト210、逆変換処理ユニット212、再構成ユニット214、ループフィルタ220、デコードされ
たピクチャバッファ(decoded picture buffer(DPB))230、インター予測ユニット244、お
よびイントラ予測ユニット254はまた、ビデオエンコーダ20の「ビルトインデコーダ」を
形成することが言及される。
ピクチャおよびピクチャ区分(ピクチャおよびブロック)
エンコーダ20は、ピクチャ17(またはピクチャデータ17)、例えば、ビデオまたはビデオ
シーケンスを形成するピクチャのシーケンスのピクチャを、例えば、入力201を介して受
信するように構成され得る。受信されるピクチャまたはピクチャデータはまた、前処理さ
れたピクチャ19(または前処理されたピクチャデータ19)であってよい。簡潔さの目的のた
めに、以下の説明はピクチャ17に言及する。ピクチャ17は、現在のピクチャ、または(同
じビデオシーケンス、すなわち、やはり現在のピクチャを備えるビデオシーケンスの他の
ピクチャ、例えば、前にエンコードされ、かつ/またはデコードされたピクチャから現在
のピクチャを区別するために、特にビデオコーディングにおいて)コーディングされるべ
きピクチャとも呼ばれ得る。
(デジタル)ピクチャは、強度値を有するサンプルの2次元のアレイまたは行列であるか
、またはそのように見なされることが可能である。アレイ内のサンプルは、ピクセル(ピ
クチャ要素の短い形式)またはペルとも呼ばれ得る。アレイまたはピクチャの水平および
垂直方向(または軸)におけるサンプルの数は、ピクチャのサイズおよび/または解像度を
定義する。色の表現のために、典型的に、3つの色成分が採用され、すなわち、ピクチャ
は、3つのサンプルアレイが表現され、またはそれらを含んでよい。RBGフォーマットまた
は色空間で、ピクチャは、対応する赤、緑、および青のサンプルアレイを備える。しかし
、ビデオコーディングでは、各ピクセルは、典型的に、ルミナンスおよびクロミナンスの
フォーマットまたは色空間、例えば、YCbCrで表現され、YCbCrは、Y(時々、代わりにLも
使用される)によって示されるルミナンス成分、およびCbおよびCrによって示される2つの
クロミナンス成分を備える。ルミナンス(または短縮してルーマ)成分Yは、輝度または(例
えば、グレースケールピクチャにおけるような)グレーレベル強度を表現し、一方、2つの
クロミナンス(または短縮してクロマ)成分CbおよびCrは、色度または色情報成分を表現す
る。従って、YCbCrフォーマットでのピクチャは、ルミナンスサンプル値(Y)のルミナンス
サンプルアレイ、およびクロミナンス値(CbおよびCr)の2つのクロミナンスサンプルアレ
イを備える。RGBフォーマットでのピクチャは、YCbCrフォーマットにコンバートされ、ま
たは変換されてよく、逆も同様であり、プロセスは色変換またはコンバートとしても知ら
れる。ピクチャがモノクロであるならば、ピクチャはルミナンスサンプルアレイのみを備
えてよい。従って、ピクチャは、例えば、モノクロフォーマットでのルーマサンプルのア
レイ、または4:2:0、4:2:2、および4:4:4カラーフォーマットでの、ルーマサンプルのア
レイおよびクロマサンプルの2つの対応するアレイであってよい。
ビデオエンコーダ20の実施形態は、ピクチャ17を複数の(典型的に重複しない)ピクチャ
ブロック203に区分するように構成されたピクチャ区分ユニット(図2に描写されない)を備
えてよい。これらのブロックは、ルートブロック、マクロブロック(H.264/AVC)、または
コーディングツリーブロック(coding tree block(CTB))またはコーディングツリーユニッ
ト(coding tree unit(CTU))(H.265/HEVCおよびVVC)とも呼ばれ得る。ピクチャ区分ユニッ
トは、ビデオシーケンスの全てのピクチャについて同じブロックサイズ、およびブロック
サイズを定義する対応するグリッドを使用し、またはピクチャまたはピクチャのサブセッ
トまたはグループの間でブロックサイズを変更し、各ピクチャを対応するブロックに区分
するように構成され得る。
さらなる実施形態では、ビデオエンコーダは、ピクチャ17のブロック203、例えば、ピ
クチャ17を形成する1つの、いくつかの、または全てのブロックを、直接に受信するよう
に構成され得る。ピクチャブロック203は、現在のピクチャブロック、またはコーディン
グされるべきピクチャブロックとも呼ばれ得る。
ピクチャ17のように、ピクチャブロック203は再び、強度値(サンプル値)を有するサン
プルの、しかしピクチャ17よりも小さい寸法の、2次元のアレイまたは行列であるか、ま
たはそのように見なされることが可能である。言い換えれば、ブロック203は、例えば、1
つのサンプルアレイ(例えば、モノクロピクチャ17の場合にはルーマアレイ、またはカラ
ーピクチャの場合にはルーマまたはクロマアレイ)、または3つのサンプルアレイ(例えば
、カラーピクチャ17の場合にはルーマおよび2つのクロマアレイ)、または適用されるカラ
ーフォーマットに依存して任意の他の数および/または種類のアレイを備えてよい。ブロ
ック203の水平および垂直方向(または軸)におけるサンプルの数は、ブロック203のサイズ
を定義する。従って、ブロックは、例えば、サンプルのM×N(M列×N行)アレイ、または変
換係数のM×Nアレイであってよい。
図2に表されたようなビデオエンコーダ20の実施形態は、ピクチャ17をブロックごとに
エンコードするように構成されてよく、例えば、エンコードおよび予測がブロック203ご
とに実行される。
図2に表されたようなビデオエンコーダ20の実施形態は、スライス(ビデオスライスとも
呼ばれる)を使用することによってピクチャを区分および/またはエンコードするように
さらに構成されてよく、ピクチャは、(典型的に重複しない)1つまたは複数のスライスに
区分され、またはそのスライスを使用してエンコードされてよく、各スライスは、1つま
たは複数のブロック(例えば、CTU)を備えてよい。
図2に表されたようなビデオエンコーダ20の実施形態は、タイルグループ(ビデオタイル
グループとも呼ばれる)および/またはタイル(ビデオタイルとも呼ばれる)を使用するこ
とによってピクチャを区分し、かつ/またはエンコードするようにさらに構成されてよく
、ピクチャは、(典型的に重複しない)1つまたは複数のタイルグループに区分され、また
はそのタイルグループを使用してエンコードされてよく、各タイルグループは、例えば、
1つまたは複数のブロック(例えば、CTU)または1つまたは複数のタイルを備えてよく、各
タイルは、例えば、長方形形状であってよく、1つまたは複数のブロック(例えば、CTU)、
例えば、完全なまたは断片のブロックを備えてよい。
残差計算
残差計算ユニット204は、例えば、サンプルごとに(ピクセルごとに)ピクチャブロック2
03のサンプル値から予測ブロック265のサンプル値を減算することによって、ピクチャブ
ロック203および予測ブロック265(予測ブロック265についてのさらなる詳細は後で提供さ
れる)に基づいて残差ブロック205(残差205とも呼ばれる)を計算して、サンプル領域にお
ける残差ブロック205を取得するように構成され得る。
変換
変換処理ユニット206は、残差ブロック205のサンプル値において変換、例えば、離散コ
サイン変換(discrete cosine transform(DCT))または離散サイン変換(discrete sine tra
nsform(DST))を適用して、変換領域における変換係数207を取得するように構成され得る
。変換係数207は、変換残差係数とも呼ばれ、変換領域における残差ブロック205を表現し
てよい。
変換処理ユニット206は、H.265/HEVCについて指定された変換のようなDCT/DSTの整数近
似を適用するように構成され得る。直交DCT変換と比較して、そのような整数近似は、典
型的に、ある係数によってスケーリングされる。順および逆変換によって処理される残差
ブロックのノルムを維持するために、変換プロセスの部分として追加のスケーリング係数
が適用される。スケーリング係数は、典型的に、スケーリング係数がシフト演算のために
2の累乗であること、変換係数のビット深度、確度と実装コストの間のトレードオフなど
のような、ある制約に基づいて選ばれる。例えば、逆変換処理ユニット212による、例え
ば、逆変換(および、例えば、ビデオデコーダ30における逆変換処理ユニット312による、
対応する逆変換)について特定のスケーリング係数が指定され、エンコーダ20における、
例えば、変換処理ユニット206による、順変換について対応するスケーリング係数が、そ
れに応じて指定され得る。
ビデオエンコーダ20の実施形態(それぞれ、変換処理ユニット206)は、例えば、直接に
、またはエントロピーエンコードユニット270を介してエンコードされ、または圧縮され
た、変換パラメータ、例えば、1つまたは複数の変換のタイプを出力するように構成され
てよく、それによって、例えば、ビデオデコーダ30は、デコードのために変換パラメータ
を受信して使用し得る。
量子化
量子化ユニット208は、例えば、スカラー量子化またはベクトル量子化を適用すること
によって、変換係数207を量子化して量子化された係数209を取得するように構成され得る
。量子化された係数209は、量子化された変換係数209または量子化された残差係数209と
も呼ばれ得る。
量子化プロセスは、変換係数207のいくつかまたは全てに関連付けられたビット深度を
減少させ得る。例えば、nビットの変換係数は、量子化の間にmビットの変換係数に切り捨
てられてよく、ここでnはmよりも大きい。量子化の程度は、量子化パラメータ(Quantizat
ion Parameter(QP))を調整することによって修正され得る。例えば、スカラー量子化につ
いて、より細かいかまたはより粗い量子化を達成するために、異なるスケーリングが適用
され得る。より小さい量子化ステップサイズは、より細かい量子化に対応し、一方、より
大きい量子化ステップサイズは、より粗い量子化に対応する。適用可能な量子化ステップ
サイズは、量子化パラメータ(QP)によって示され得る。量子化パラメータは、例えば、適
用可能な量子化ステップサイズの既定のセットへのインデックスであってよい。例えば、
小さい量子化パラメータは、細かい量子化(小さい量子化ステップサイズ)に対応してよく
、大きい量子化パラメータは、粗い量子化(大きい量子化ステップサイズ)に対応してよく
、またはその逆も同様である。量子化は、量子化ステップサイズによる除算を含んでよく
、例えば、逆量子化ユニット210による、対応するおよび/または逆の量子化解除は、量
子化ステップサイズによる乗算を含んでよい。いくつかの規格、例えば、HEVCによる実施
形態は、量子化パラメータを使用して量子化ステップサイズを決定するように構成され得
る。一般に、量子化ステップサイズは、除算を含む式の固定点近似を使用して、量子化パ
ラメータに基づいて計算され得る。量子化ステップサイズおよび量子化パラメータについ
ての式の固定点近似において使用されるスケーリングの故に修正され得る、残差ブロック
のノルムを復元するために、量子化および量子化解除について追加のスケーリング係数が
導入されてよい。1つの例示の実装では、逆変換および量子化解除のスケーリングが組み
合わせられ得る。代替として、カスタマイズされた量子化テーブルが使用され、例えば、
ビットストリーム内で、エンコーダからデコーダにシグナリングされてよい。量子化は損
失のある演算であり、増加する量子化ステップサイズとともに損失が増加する。
ビデオエンコーダ20の実施形態(それぞれ、量子化ユニット208)は、例えば、直接に、
またはエントロピーエンコードユニット270を介してエンコードされた、量子化パラメー
タ(QP)を出力するように構成されてよく、それによって、例えば、ビデオデコーダ30は、
デコードのために量子化パラメータを受信し、適用し得る。
逆量子化
逆量子化ユニット210は、例えば、量子化ユニット208と同じ量子化ステップサイズに基
づいて、またはそれを使用して、量子化ユニット208によって適用される量子化方式の逆
を適用することによって、量子化された係数において量子化ユニット208の逆量子化を適
用して量子化解除された係数211を取得するように構成される。量子化解除された係数211
は、量子化解除された残差係数211とも呼ばれ、量子化による損失に起因して典型的には
変換係数と同一でないが、変換係数207に対応し得る。
逆変換
逆変換処理ユニット212は、変換処理ユニット206によって適用される変換の逆変換、例
えば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)、または他の逆変換を適用
して、サンプル領域における再構成された残差ブロック213(または、対応する量子化解除
された係数213)を取得するように構成される。再構成された残差ブロック213は、変換ブ
ロック213とも呼ばれ得る。
再構成
再構成ユニット214(例えば、加算器または合算器214)は、例えば、再構成された残差ブ
ロック213のサンプル値と予測ブロック265のサンプル値を、サンプルごとに、加算するこ
とによって、変換ブロック213(すなわち、再構成された残差ブロック213)を予測ブロック
265に加算してサンプル領域における再構成されたブロック215を取得するように構成され
る。
フィルタ処理
ループフィルタユニット220(または、短縮して「ループフィルタ」220)は、再構成され
たブロック215をフィルタ処理してフィルタ処理されたブロック221を取得するように、ま
たは一般に、再構成されたサンプルをフィルタ処理してフィルタ処理されたサンプルを取
得するように構成される。ループフィルタユニットは、例えば、ピクセル遷移を平滑化し
、またはそうでなくビデオ品質を改善するように構成される。ループフィルタユニット22
0は、デブロッキングフィルタ、サンプル適応オフセット(Sample-Adaptive Offset(SAO))
フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応
ループフィルタ(Adaptive Loop Filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フ
ィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備
えてよい。ループフィルタユニット220はループ内フィルタであるとして図2に表されてい
るが、他の構成では、ループフィルタユニット220は、ポストループフィルタとして実現
されてよい。フィルタ処理されたブロック221は、フィルタ処理された再構成されたブロ
ック221とも呼ばれ得る。
ビデオエンコーダ20の実施形態(それぞれ、ループフィルタユニット220)は、例えば、
直接に、またはエントロピーエンコードユニット270を介してエンコードされた、(サンプ
ル適応オフセット情報のような)ループフィルタパラメータを出力するように構成されて
よく、それによって、例えば、デコーダ30は、デコードのために同じループフィルタパラ
メータまたはそれぞれのループフィルタを受信し、適用し得る。
デコードされたピクチャバッファ
デコードされたピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデー
タをエンコードするための、参照ピクチャまたは一般に参照ピクチャデータを記憶するメ
モリであってよい。DPB 230は、同期DRAM(synchronous DRAM(SDRAM))を含むダイナミック
ランダムアクセスメモリ(dynamic random access memory(DRAM))、磁気抵抗RAM(magnetor
esistive RAM(MRAM))、抵抗性RAM(resistive RAM(RRAM(登録商標)))、または他のタイプ
のメモリデバイスのような、様々なメモリデバイスのうちのいずれかによって形成され得
る。デコードされたピクチャバッファ(DPB)230は、1つまたは複数のフィルタ処理された
ブロック221を記憶するように構成され得る。デコードされたピクチャバッファ230は、以
前にフィルタ処理された他のブロック、例えば、同じ現在のピクチャの、または異なるピ
クチャの、以前に再構成され、フィルタ処理されたブロック221、例えば、以前に再構成
されたピクチャを記憶するようにさらに構成されてよく、例えば、インター予測のために
、以前に再構成され、すなわちデコードされた完全なピクチャ(および、対応する参照ブ
ロックおよびサンプル)、および/または部分的に再構成された現在のピクチャ(および、
対応する参照ブロックおよびサンプル)を提供し得る。例えば、再構成されたブロック215
が、ループフィルタユニット220によってフィルタ処理されていない、または再構成され
たブロックまたはサンプルのさらに処理された任意の他のバージョンであるならば、デコ
ードされたピクチャバッファ(DPB)230はまた、1つまたは複数のフィルタ処理されていな
い再構成されたブロック215、または一般に、フィルタ処理されていない再構成されたサ
ンプルを記憶するように構成されてよい。
モード選択(区分および予測)
モード選択ユニット260は、区分ユニット262、インター予測ユニット244、およびイン
トラ予測ユニット254を備え、元のピクチャデータ、例えば、元のブロック203(現在のピ
クチャ17の現在のブロック203)、および同じ(現在の)ピクチャの、かつ/または1つまた
は複数の以前にデコードされたピクチャからの、例えば、デコードされたピクチャバッフ
ァ230または他のバッファ(例えば、表されていないラインバッファ)からの、再構成され
たピクチャデータ、例えば、フィルタ処理された、および/またはフィルタ処理されてい
ない再構成されたサンプルまたはブロックを受信または取得するように構成される。再構
成されたピクチャデータは、予測ブロック265または予測子265を取得するために、予測、
例えば、インター予測またはイントラ予測のための参照ピクチャデータとして使用される
モード選択ユニット260は、(区分を含まない)現在のブロック予測モードについて区分
、および予測モード(例えば、イントラまたはインター予測モード)を決定または選択し、
残差ブロック205の計算のために、かつ再構成されたブロック215の再構成のために使用さ
れる、対応する予測ブロック265を生成するように構成され得る。
モード選択ユニット260の実施形態は、最も良い整合、または言い換えれば最小残差(最
小残差は、伝送または記憶のためのより良い圧縮を意味する)、または最小シグナリング
オーバーヘッド(最小シグナリングオーバーヘッドとは、伝送または記憶のためのより良
い圧縮を意味する)を提供し、または両方を考慮し、または釣り合わせる、区分および予
測モードを(例えば、モード選択ユニット260によってサポートされ、またはモード選択ユ
ニット260に対して利用可能なものから)選択するように構成され得る。モード選択ユニッ
ト260は、レート歪み最適化(Rate Distortion Optimization(RDO))に基づいて区分および
予測モードを決定する、すなわち、最小のレート歪みを提供する予測モードを選択するよ
うに構成され得る。この文脈における「最も良い」、「最小の」、「最適な」などのよう
な用語は、全体的な「最も良い」、「最小の」、「最適な」などを必ずしも指さず、しき
い値または他の制約を上回るまたは下回る値のような、終了または選択の基準の充足を指
してよく、潜在的に「準最適な選択」に導くが、複雑さおよび処理時間を減少させる。
言い換えれば、区分ユニット262は、例えば、4分木区分(quad-tree-partitioning(QT))
、バイナリ区分(binary partitioning(BT))、またはトリプルツリー区分(triple-tree-pa
rtitioning(TT))、またはそれらの任意の組み合わせを反復的に使用して、ブロック203を
より小さいブロック区分または(再びブロックを形成する)サブブロックに区分し、例えば
、ブロック区分またはサブブロックの各々について予測を実行するように構成されてよく
、モード選択は、区分されるブロック203のツリー構造の選択を備え、予測モードは、ブ
ロック区分またはサブブロックの各々に適用される。
以下では、例示のビデオエンコーダ20によって実行される(例えば、区分ユニット260に
よる)区分および(インター予測ユニット244およびイントラ予測ユニット254による)予測
処理が、より詳細に説明されるであろう。
区分
区分ユニット262は、現在のブロック203をより小さい区分、例えば、正方形または長方
形のサイズのより小さいブロックに、区分(または分割)し得る。これらのより小さいブロ
ック(サブブロックとも呼ばれ得る)は、いっそう小さい区分にさらに区分され得る。これ
は、ツリー区分または階層的ツリー区分とも呼ばれ、例えば、ルートツリーレベル0(階層
レベル0、深度0)におけるルートブロックは、再帰的に区分され、例えば、次に低いツリ
ーレベルの2つ以上のブロック、例えば、ツリーレベル1(階層レベル1、深度1)におけるノ
ードに区分されてよく、これらのブロックは再び、例えば、終了基準が充足され、例えば
、最大ツリー深度または最小ブロックサイズが到達されたので区分が終了されるまで、次
に低いレベル、例えば、ツリーレベル2(階層レベル2、深度2)などの2つ以上のブロックに
区分されてよい。さらに区分されないブロックは、ツリーのリーフブロックまたはリーフ
ノードとも呼ばれる。2つの区分への区分を使用するツリーは2分木(Binary-Tree(BT))と
呼ばれ、3つの区分への区分を使用するツリーは3分木(Ternary-Tree(TT))と呼ばれ、4つ
の区分への区分を使用するツリーは4分木(Quad-Tree(QT))と呼ばれる。
前に述べたように、ここで使用される用語「ブロック」は、ピクチャの一部分、特に正
方形または長方形の部分であってよい。例えば、HEVCおよびVVCを参照すると、ブロック
は、コーディングツリーユニット(coding tree unit(CTU))、コーディングユニット(codi
ng unit(CU))、予測ユニット(prediction unit(PU))、および変換ユニット(transform un
it(TU))、および/または対応するブロック、例えば、コーディングツリーブロック(codi
ng tree block(CTB))、コーディングブロック(coding block(CB))、変換ブロック(transf
orm block(TB))、または予測ブロック(prediction block(PB))であってよく、またはそれ
らに対応し得る。
例えば、コーディングツリーユニット(CTU)は、3つのサンプルアレイを有するピクチャ
のルーマサンプルのCTB、クロマサンプルの2つの対応するCTB、またはモノクロピクチャ
または3つの別個の色平面を使用してコーディングされるピクチャのサンプルのCTB、およ
びサンプルをコーディングするために使用されるシンタックス構造であってよく、または
それらを備えてよい。それに対応して、コーディングツリーブロック(CTB)は、CTBへの成
分の分割が区分であるようなNのいくつかの値についてサンプルのN×Nブロックであって
よい。コーディングユニット(CU)は、3つのサンプルアレイを有するピクチャのルーマサ
ンプルのコーディングブロック、クロマサンプルの2つの対応するコーディングブロック
、またはモノクロピクチャまたは3つの別個の色平面を使用してコーディングされるピク
チャのサンプルのコーディングブロック、およびサンプルをコーディングするために使用
されるシンタックス構造であってよく、またはそれらを備えてよい。それに対応して、コ
ーディングブロック(CB)は、コーディングブロックへのCTBの分割が区分であるようなMお
よびNのいくつかの値についてサンプルのM×Nブロックであってよい。
例えば、HEVCによる実施形態では、コーディングツリーユニット(CTU)は、コーディン
グツリーとして表記される4分木構造を使用することによってCUに分割され得る。ピクチ
ャエリアを、(時間的な)インターピクチャ予測を使用してコーディングすべきか、または
(空間的な)イントラピクチャ予測を使用してコーディングすべきかの決定は、CUレベルに
おいて行われる。各CUは、PU分割タイプに従って1つ、2つ、または4つのPUにさらに分割
されることが可能である。1つのPUの内部では、同じ予測プロセスが適用され、関連する
情報がPUごとにデコーダへ伝送される。PU分割タイプに基づいて予測プロセスを適用する
ことによって残差ブロックを取得した後、CUは、CUについてのコーディングツリーと類似
の別の4分木構造に従って変換ユニット(TU)に区分されることが可能である。
例えば、多用途ビデオコーディング(VVC)と呼ばれる、現在策定中の最新のビデオコー
ディング規格による実施形態では、組み合わせられた4分木および2分木(Quad-Tree and B
inary Tree(QTBT))区分が、例えば、コーディングブロックを区分するために使用される
。QTBTブロック構造において、CUは、正方形または長方形のいずれかの形状を有すること
ができる。例えば、コーディングツリーユニット(CTU)は、4分木構造によって最初に区分
される。4分木リーフノードは、2分木または3分木(またはトリプルツリー)構造によって
さらに区分される。区分するツリーリーフノードは、コーディングユニット(CU)と呼ばれ
、そのセグメント化は、さらなる区分なしで予測および変換処理のために使用される。こ
れは、CU、PU、およびTUがQTBTコーディングブロック構造において同じブロックサイズを
有することを意味する。並行して、複数の区分、例えば、トリプルツリー区分が、QTBTブ
ロック構造と一緒に使用され得る。
一例では、ビデオエンコーダ20のモード選択ユニット260は、ここで説明される区分技
法の任意の組み合わせを実行するように構成され得る。
上記で説明されたように、ビデオエンコーダ20は、(例えば、予め決定された)予測モー
ドのセットから、最も良いまたは最適な予測モードを決定または選択するように構成され
る。予測モードのセットは、例えば、イントラ予測モードおよび/またはインター予測モ
ードを備えてよい。
イントラ予測
イントラ予測モードのセットは、例えば、HEVCにおいて定義されるように、35個の異な
るイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向
性モード、または方向性モードを備えてよく、または、例えば、VVCについて定義される
ように、67個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モ
ードのような無方向性モード、または方向性モードを備えてよい。
イントラ予測ユニット254は、イントラ予測モードのセットのイントラ予測モードに従
ってイントラ予測ブロック265を生成するために、同じ現在のピクチャの隣接ブロックの
再構成されたサンプルを使用するように構成される。
イントラ予測ユニット254(または一般にモード選択ユニット260)は、エンコードされた
ピクチャデータ21への包含のためにシンタックス要素266の形式でイントラ予測パラメー
タ(または一般にブロックのための選択されたイントラ予測モードを示す情報)をエントロ
ピーエンコードユニット270に出力するようにさらに構成され、それによって、例えば、
ビデオデコーダ30は、デコードのために予測パラメータを受信および使用し得る。
インター予測
インター予測モードのセット(または可能なインター予測モード)は、利用可能な参照ピ
クチャ(すなわち、例えば、DBP 230に記憶されている、少なくとも部分的にデコードされ
た以前のピクチャ)、および他のインター予測パラメータ、例えば、最も良く整合する参
照ブロックを探索するために参照ピクチャ全体が使用されるか、または参照ピクチャの一
部のみ、例えば、現在のブロックのエリアの周囲の探索ウィンドウエリアが使用されるか
、および/または、例えば、ピクセル補間、例えば、ハーフ/セミペルおよび/またはク
ォーターペル補間が適用されるか否かに依存する。
上記の予測モードに加えて、スキップモードおよび/または直接モードが適用されてよ
い。
インター予測ユニット244は、動き推定(motion estimation(ME))ユニットおよび動き補
償(motion compensation(MC))ユニット(両方とも図2に表されていない)を含んでよい。動
き推定ユニットは、動き推定のために、ピクチャブロック203(現在のピクチャ17の現在の
ピクチャブロック203)およびデコードされたピクチャ231、または少なくとも1つまたは複
数の以前に再構成されたブロック、例えば、1つまたは複数の他の/異なる以前にデコー
ドされたピクチャ231の再構成されたブロックを、受信または取得するように構成され得
る。例えば、ビデオシーケンスは、現在のピクチャおよび以前にデコードされたピクチャ
231を備えてよく、または言い換えれば、現在のピクチャおよび以前にデコードされたピ
クチャ231は、ビデオシーケンスを形成するピクチャのシーケンスの一部であってよく、
またはそれらを形成してよい。
エンコーダ20は、例えば、複数の他のピクチャのうちの同じまたは異なるピクチャの複
数の参照ブロックから参照ブロックを選択し、参照ピクチャ(または参照ピクチャインデ
ックス)、および/または参照ブロックの位置(x、y座標)と現在のブロックの位置との間
のオフセット(空間オフセット)を、インター予測パラメータとして動き推定ユニットに提
供するように構成され得る。このオフセットは動きベクトル(motion vector(MV))とも呼
ばれる。
動き補償ユニットは、インター予測パラメータを取得し、例えば受信し、インター予測
パラメータに基づいて、またはそれを使用して、インター予測を実行してインター予測ブ
ロック265を取得するように構成される。動き補償ユニットによって実行される動き補償
は、動き推定によって決定された動き/ブロックベクトルに基づいて予測ブロックをフェ
ッチまたは生成すること、おそらくサブピクセル精度への補間を実行することを伴ってよ
い。補間フィルタ処理は、知られているピクセルサンプルから追加のピクセルサンプルを
生成してよく、従って、ピクチャブロックをコーディングするために使用され得る候補予
測ブロックの数を潜在的に増加させる。現在のピクチャブロックのPUについての動きベク
トルを受信すると、動き補償ユニットは、参照ピクチャリストのうちの1つの中で動きベ
クトルが指し示す予測ブロックを位置付け得る。
動き補償ユニットはまた、ビデオスライスのピクチャブロックをデコードする際のビデ
オデコーダ30による使用のために、ブロックおよびビデオスライスに関連付けられたシン
タックス要素を生成し得る。スライスおよびそれぞれのシンタックス要素に加えて、また
はそれらの代替として、タイルグループおよび/またはタイルおよびそれぞれのシンタッ
クス要素が生成または使用されてよい。
エントロピーコーディング
エントロピーエンコードユニット270は、量子化された係数209、インター予測パラメー
タ、イントラ予測パラメータ、ループフィルタパラメータ、および/または他のシンタッ
クス要素において、例えば、エントロピーエンコードアルゴリズムまたは方式(例えば、
可変長コーディング(variable length coding(VLC))方式、コンテキスト適応VLC方式(con
text adaptive VLC scheme(CAVLC))、算術コーディング方式、2値化、コンテキスト適応
バイナリ算術コーディング(context adaptive binary arithmetic coding(CABAC))、シン
タックスを基にしたコンテキスト適応バイナリ算術コーディング(syntax-based context-
adaptive binary arithmetic coding(SBAC))、確率区間区分エントロピー(probability i
nterval partitioning entropy(PIPE))コーディング、または別のエントロピーエンコー
ド方法論または技法)、またはバイパス(圧縮なし)を適用して、例えば、エンコードされ
たビットストリーム21の形式で、出力272を介して出力されることが可能であるエンコー
ドされたピクチャデータ21を取得するように構成され、それによって、例えば、ビデオデ
コーダ30は、デコードのためにパラメータを受信および使用し得る。エンコードされたビ
ットストリーム21は、ビデオデコーダ30へ伝送され、またはビデオデコーダ30による後の
伝送または取り出しのためにメモリに記憶され得る。
ビデオエンコーダ20の他の構造的変形が、ビデオストリームをエンコードするために使
用されることが可能である。例えば、非変換を基にしたエンコーダ20が、あるブロックま
たはフレームについて変換処理ユニット206なしで直接に残差信号を量子化することがで
きる。別の実装では、エンコーダ20は、単一のユニットの中に組み合わせられた量子化ユ
ニット208および逆量子化ユニット210を有することができる。
デコーダおよびデコード方法
図3は、この本出願の技法を実現するように構成されるビデオデコーダ30の一例を表す
。ビデオデコーダ30は、例えば、エンコーダ20によってエンコードされた、エンコードさ
れたピクチャデータ21(例えば、エンコードされたビットストリーム21)を受信して、デコ
ードされたピクチャ331を取得するように構成される。エンコードされたピクチャデータ
またはビットストリームは、エンコードされたピクチャデータをデコードするための情報
、例えば、エンコードされたビデオスライス(および/または、タイルグループまたはタ
イル)のピクチャブロックを表現するデータ、および関連付けられたシンタックス要素を
備える。
図3の例では、デコーダ30は、エントロピーデコードユニット304、逆量子化ユニット31
0、逆変換処理ユニット312、再構成ユニット314(例えば、合算器314)、ループフィルタ32
0、デコードされたピクチャバッファ(DBP)330、モード適用ユニット360、インター予測ユ
ニット344、およびイントラ予測ユニット354を備える。インター予測ユニット344は、動
き補償ユニットであってよく、またはそれを含んでもよい。ビデオデコーダ30は、いくつ
かの例では、図2からのビデオエンコーダ100に関して説明されたエンコードパスとは一般
に相補的なデコードパスを実行し得る。
エンコーダ20に関して説明されたように、逆量子化ユニット210、逆変換処理ユニット2
12、再構成ユニット214、ループフィルタ220、デコードされたピクチャバッファ(DPB)230
、インター予測ユニット344、およびイントラ予測ユニット354は、ビデオエンコーダ20の
「ビルトインデコーダ」を形成するとしても言及される。従って、逆量子化ユニット310
は逆量子化ユニット110と機能において同一であってよく、逆変換処理ユニット312は逆変
換処理ユニット212と機能において同一であってよく、再構成ユニット314は再構成ユニッ
ト214と機能において同一であってよく、ループフィルタ320はループフィルタ220と機能
において同一であってよく、デコードされたピクチャバッファ330はデコードされたピク
チャバッファ230と機能において同一であってよい。従って、ビデオ20エンコーダのそれ
ぞれのユニットおよび機能について提供された説明は、それに対応してビデオデコーダ30
のそれぞれのユニットおよび機能に適用される。
エントロピーデコード
エントロピーデコードユニット304は、ビットストリーム21(または一般にエンコードさ
れたピクチャデータ21)を構文解析し、例えば、エンコードされたピクチャデータ21への
エントロピーデコードを実行して、例えば、量子化された係数309および/またはデコー
ドされたコーディングパラメータ(図3に表されていない)、例えば、インター予測パラメ
ータ(例えば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ
(例えば、イントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ
、ループフィルタパラメータ、および/または他のシンタックス要素のうちのいずれかま
たは全てを取得するように構成される。エントロピーデコードユニット304は、エンコー
ダ20のエントロピーエンコードユニット270に関して説明されたようなエンコード方式に
対応するデコードアルゴリズムまたは方式を適用するように構成され得る。エントロピー
デコードユニット304は、モード適用ユニット360にインター予測パラメータ、イントラ予
測パラメータ、および/または他のシンタックス要素を、デコーダ30の他のユニットに他
のパラメータを提供するようにさらに構成され得る。ビデオデコーダ30は、ビデオスライ
スレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信し得る。
スライスおよびそれぞれのシンタックス要素に加えて、またはそれらの代替として、タイ
ルグループおよび/またはタイルおよびそれぞれのシンタックス要素が受信および/また
は使用され得る。
逆量子化
逆量子化ユニット310は、(例えば、エントロピーデコードユニット304によって、例え
ば、構文解析および/またはデコードすることによって)エンコードされたピクチャデー
タ21から量子化パラメータ(quantization parameter(QP))(または一般に逆量子化に関す
る情報)および量子化された係数を受信し、量子化パラメータに基づいて、デコードされ
た量子化された係数309において逆量子化を適用して、変換係数311とも呼ばれ得る量子化
解除された係数311を取得するように構成され得る。逆量子化プロセスは、量子化の程度
、および同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライス(ま
たはタイルまたはタイルグループ)の中のビデオブロックごとにビデオエンコーダ20によ
って決定された量子化パラメータの使用を含んでよい。
逆変換
逆変換処理ユニット312は、変換係数311とも呼ばれる量子化解除された係数311を受信
し、サンプル領域において再構成された残差ブロック213を取得するために量子化解除さ
れた係数311に変換を適用するように構成され得る。再構成された残差ブロック213は、変
換ブロック313とも呼ばれ得る。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、
または概念的に類似の逆変換プロセスであってよい。逆変換処理ユニット312は、量子化
解除された係数311に適用されるべき変換を決定するために、(例えば、エントロピーデコ
ードユニット304によって、例えば、構文解析および/またはデコードすることによって)
エンコードされたピクチャデータ21から変換パラメータまたは対応する情報を受信するよ
うにさらに構成され得る。
再構成
再構成ユニット314(例えば、加算器または合算器314)は、例えば、再構成された残差ブ
ロック313のサンプル値と予測ブロック365のサンプル値とを加算することによって、予測
ブロック365に再構成された残差ブロック313を加算して、サンプル領域において再構成さ
れたブロック315を取得するように構成され得る。
フィルタ処理
(コーディングループ内またはコーディングループの後のいずれかの)ループフィルタユ
ニット320は、例えば、ピクセル遷移を平滑化し、またはビデオ品質をそうでなく改善す
るために、再構成されたブロック315をフィルタ処理してフィルタ処理されたブロック321
を取得するように構成される。ループフィルタユニット320は、デブロッキングフィルタ
、サンプル適応オフセット(sample-adaptive offset(SAO))フィルタ、または1つまたは複
数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(adaptive loop
filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の
組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニ
ット320はループ内フィルタであるとして図3に表されているが、他の構成では、ループフ
ィルタユニット320はポストループフィルタとして実現されてよい。
デコードされたピクチャバッファ
ピクチャのデコードされたビデオブロック321は、次いで、他のピクチャについての続
く動き補償のために、かつ/または出力されるそれぞれ表示のために、参照ピクチャとし
てデコードされたピクチャ331を記憶するデコードされたピクチャバッファ330に記憶され
る。
デコーダ30は、ユーザへの提示または閲覧のために、例えば、出力312を介してデコー
ドされたピクチャ311を出力するように構成される。
予測
インター予測ユニット344は、インター予測ユニット244と(特に動き補償ユニットと)同
一であってよく、イントラ予測ユニット354は、機能においてインター予測ユニット254と
同一であってよく、区分および/または予測パラメータ、またはエンコードされたピクチ
ャデータ21から(例えば、エントロピーデコードユニット304によって、例えば、構文解析
および/またはデコードすることによって)受信されたそれぞれの情報に基づいて、分割
または区分決定および予測を実行する。モード適用ユニット360は、(フィルタ処理された
、またはフィルタ処理されていない)再構成されたピクチャ、ブロック、またはそれぞれ
のサンプルに基づいて、ブロックごとに予測(イントラまたはインター予測)を実行して、
予測ブロック365を取得するように構成され得る。
イントラコーディングされた(I)スライスとしてビデオスライスがコーディングされる
とき、モード適用ユニット360のイントラ予測ユニット354は、シグナリングされたイント
ラ予測モード、および現在のピクチャの以前にデコードされたブロックからのデータに基
づいて、現在のビデオスライスのピクチャブロックについて予測ブロック365を生成する
ように構成される。インターコーディングされた(すなわち、BまたはP)スライスとしてビ
デオピクチャがコーディングされるとき、モード適用ユニット360のインター予測ユニッ
ト344(例えば、動き補償ユニット)は、動きベクトル、およびエントロピーデコードユニ
ット304から受信された他のシンタックス要素に基づいて、現在のビデオスライスのビデ
オブロックについて予測ブロック365を作り出すように構成される。インター予測につい
て、予測ブロックは、参照ピクチャリストのうちの1つの中の参照ピクチャのうちの1つか
ら作り出されてよい。ビデオデコーダ30は、DPB 330に記憶された参照ピクチャに基づい
てデフォルトの構成技法を使用して、参照フレームリスト、リスト0およびリスト1を構成
し得る。スライス(例えば、ビデオスライス)に加えて、またはその代替として、タイルグ
ループ(例えば、ビデオタイルグループ)および/またはタイル(例えば、ビデオタイル)を
使用する実施形態について、またはその実施形態によって、同じまたは類似のことが適用
されてよく、例えば、ビデオは、I、P、またはBタイルグループおよび/またはタイルを
使用してコーディングされてよい。
モード適用ユニット360は、動きベクトルまたは関連する情報および他のシンタックス
要素を構文解析することによって、現在のビデオスライスのビデオブロックについて予測
情報を決定し、予測情報を使用して、デコードされている現在のビデオブロックについて
予測ブロックを作り出すように構成される。例えば、モード適用ユニット360は、受信さ
れたシンタックス要素のうちのいくつかを使用して、現在のビデオスライス内のビデオブ
ロックをデコードするために、ビデオスライスのビデオブロックをコーディングするため
に使用された予測モード(例えば、イントラまたはインター予測)、インター予測スライス
タイプ(例えば、Bスライス、Pスライス、またはGPBスライス)、スライスについての参照
ピクチャリストのうちの1つまたは複数についての構成情報、スライスのインターエンコ
ードされたビデオブロックごとの動きベクトル、スライスのインターコーディングされた
ビデオブロックごとのインター予測ステータス、および他の情報を決定する。スライス(
例えば、ビデオスライス)に加えて、またはその代替として、タイルグループ(例えば、ビ
デオタイルグループ)および/またはタイル(例えば、ビデオタイル)を使用する実施形態
について、またはその実施形態によって、同じまたは類似のことが適用されてよく、例え
ば、ビデオは、I、P、またはBタイルグループおよび/またはタイルを使用してコーディ
ングされてよい。
図3に表されたようなビデオデコーダ30の実施形態は、スライス(ビデオスライスとも呼
ばれる)を使用することによってピクチャを区分および/またはデコードするように構成
されてよく、ピクチャは、(典型的に、重複しない)1つまたは複数のスライスに区分され
、またはそれを使用してデコードされてよく、各スライスは、1つまたは複数のブロック(
例えば、CTU)を備えてよい。
図3に表されたようなビデオデコーダ30の実施形態は、タイルグループ(ビデオタイルグ
ループとも呼ばれる)および/またはタイル(ビデオタイルとも呼ばれる)を使用すること
によってピクチャを区分および/またはデコードするように構成されてよく、ピクチャは
、(典型的に、重複しない)1つまたは複数のタイルグループに区分され、またはそれを使
用してデコードされてよく、各タイルグループは、例えば、1つまたは複数のブロック(例
えば、CTU)または1つまたは複数のタイルを備えてよく、各タイルは、例えば、長方形形
状であってよく、1つまたは複数のブロック(例えば、CTU)、例えば、完全なまたは断片の
ブロックを備えてよい。
ビデオデコーダ30の他の変形が、エンコードされたピクチャデータ21をデコードするた
めに使用されることが可能である。例えば、デコーダ30は、ループフィルタ処理ユニット
320なしで出力ビデオストリームを作り出すことができる。例えば、非変換を基にしたデ
コーダ30が、あるブロックまたはフレームについて逆変換処理ユニット312なしで直接に
残差信号を逆量子化することができる。別の実装では、ビデオデコーダ30は、単一のユニ
ットの中に組み合わせられた逆量子化ユニット310および逆変換処理ユニット312を有する
ことができる。
エンコーダ20およびデコーダ30において、現在のステップの処理結果がさらに処理され
、次いで、次のステップに出力されてよいことが理解されるべきである。例えば、補間フ
ィルタ処理、動きベクトル導出、またはループフィルタ処理の後、補間フィルタ処理、動
きベクトル導出、またはループフィルタ処理の処理結果において、クリップまたはシフト
のようなさらなる演算が実行されてよい。
現在のブロックの導出された動きベクトル(アフィンモードの制御点動きベクトル、ア
フィン、平面、ATMVPモードにおけるサブブロック動きベクトル、時間動きベクトルなど
を含むが、それらに限定されない)に、さらなる演算が適用され得ることが注記されるべ
きである。例えば、動きベクトルの値は、その表現ビットに従って既定の範囲に制約され
る。動きベクトルの表現ビットがbitDepthであるならば、範囲は-2^(bitDepth-1)~2^(bi
tDepth-1)-1であり、ここで「^」はべき乗を意味する。例えば、bitDepthが16に等しく設
定されるならば、範囲は-32768~32767であり、bitDepthが18に等しく設定されるならば
、範囲は-131072~131071である。例えば、導出される動きベクトル(例えば、1つの8×8
ブロック内の4つの4×4サブブロックのMV)の値は、4つの4×4サブブロックMVの整数部分
の間の最大差が、1ピクセルより大きくない、のような、Nピクセルより大きくないように
制約される。ここで、bitDepthに従って動きベクトルを制約するための2つの方法を提供
する。
方法1:フロー演算によってオーバーフローMSB(最上位ビット)を除去する。
ux = ( mvx + 2bitDepth ) % 2bitDepth (1)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (2)
uy = ( mvy + 2bitDepth ) % 2bitDepth (3)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (4)
ここで、mvxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、mvyは
画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、uxおよびuyは中間値
を示す。
例えば、mvxの値が-32769であるならば、式(1)および(2)を適用した後、結果として生
じる値は32767である。コンピュータシステムでは、10進数は2の補数として記憶される。
-32769の2の補数は1,0111,1111,1111,1111(17ビット)であり、次いで、MSBが廃棄され、
そのため、結果として生じる2の補数は、式(1)および(2)を適用することによる出力と同
じである0111,1111,1111,1111である(10進数は32767である)。
ux = ( mvpx + mvdx +2bitDepth ) % 2bitDepth (5)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (6)
uy = ( mvpy + mvdy +2bitDepth ) % 2bitDepth (7)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (8)
式(5)から(8)に表されたように、その演算は、mvpとmvdの総和の間に適用され得る。
方法2:値をクリッピングすることによってオーバーフローMSBを除去する。
vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)
vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)
ここで、vxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、vyは画
像ブロックまたはサブブロックの動きベクトルの垂直成分であり、x、y、およびzはそれ
ぞれ、MVクリッピングプロセスの3つの入力値に対応し、関数Clip3の定義は以下の通りで
ある。
図4は、開示の一実施形態によるビデオコーディングデバイス400の概略図である。ビデ
オコーディングデバイス400は、ここで説明されるような開示される実施形態を実現する
ために適している。一実施形態では、ビデオコーディングデバイス400は、図1Aのビデオ
デコーダ30のようなデコーダ、または図1Aのビデオエンコーダ20のようなエンコーダであ
ってよい。
ビデオコーディングデバイス400は、データを受信するための入口ポート410(または入
力ポート410)および受信機ユニット(Rx)420、データを処理するためのプロセッサ、論理
ユニット、または中央処理ユニット(CPU)430、データを伝送するための送信機ユニット(T
x)440および出口ポート450(または出力ポート450)、およびデータを記憶するためのメモ
リ460を備える。ビデオコーディングデバイス400はまた、光信号または電気信号の出口ま
たは入口のために入口ポート410、受信機ユニット420、送信機ユニット440、および出口
ポート450に結合された、光電気(optical-to-electrical(OE))構成要素および電気光(ele
ctrical-to-optical(EO))構成要素を備えてよい。
プロセッサ430は、ハードウェアおよびソフトウェアによって実現される。プロセッサ4
30は、1つまたは複数のCPUチップ、(例えば、マルチコアプロセッサとしての)コア、FPGA
、ASIC、およびDSPとして実現され得る。プロセッサ430は、入口ポート410、受信機ユニ
ット420、送信機ユニット440、出口ポート450、およびメモリ460と通信している。プロセ
ッサ430は、コーディングモジュール470を備える。コーディングモジュール470は、上記
で説明された開示された実施形態を実現する。例えば、コーディングモジュール470は、
様々なコーディング演算を実現、処理、準備、または提供する。従って、コーディングモ
ジュール470の包含は、ビデオコーディングデバイス400の機能にかなりの改善を提供し、
ビデオコーディングデバイス400の異なる状態への変換をもたらす。代替として、コーデ
ィングモジュール470は、メモリ460に記憶され、プロセッサ430によって実行される命令
として実現される。
メモリ460は、1つまたは複数のディスク、テープドライブ、およびソリッドステートド
ライブを備えてよく、実行のためにそのようなプログラムが選択されるときにプログラム
を記憶するために、かつプログラム実行の間に読み取られる命令およびデータを記憶する
ために、オーバーフローデータ記憶デバイスとして使用されてよい。メモリ460は、例え
ば、揮発性および/または不揮発性であってよく、リードオンリメモリ(read-only memor
y(ROM))、ランダムアクセスメモリ(random access memory(RAM))、3値連想メモリ(ternar
y content-addressable memory(TCAM))、および/またはスタティックランダムアクセス
メモリ(static random-access memory(SRAM))であってよい。
図5は、例示的な実施形態による、図1からのソースデバイス12および宛先デバイス14の
いずれかまたは両方として使用され得る装置500の簡略化されたブロック図である。
装置500内のプロセッサ502は中央処理ユニットであることが可能である。代替として、
プロセッサ502は、現存する、または今後開発される、情報を操作または処理することが
可能な任意の他のタイプのデバイスまたは複数のデバイスであることが可能である。開示
される実装は、表されているように単一のプロセッサ、例えば、プロセッサ502を用いて
実施されることが可能であるが、速度および効率における利点は、1つより多くのプロセ
ッサを使用して達成されることが可能である。
装置500内のメモリ504は、一実装ではリードオンリメモリ(ROM)デバイスまたはランダ
ムアクセスメモリ(RAM)デバイスであることが可能である。任意の他の適したタイプの記
憶デバイスが、メモリ504として使用されることが可能である。メモリ504は、バス512を
使用してプロセッサ502によってアクセスされるコードおよびデータ506を含むことができ
る。メモリ504は、オペレーティングシステム508およびアプリケーションプログラム510
をさらに含むことができ、アプリケーションプログラム510は、プロセッサ502がここで説
明される方法を実行することを可能にする少なくとも1つのプログラムを含む。例えば、
アプリケーションプログラム510は、アプリケーション1からNを含むことができ、アプリ
ケーション1からNは、ここで説明される方法を実行するビデオコーディングアプリケーシ
ョンをさらに含む。
装置500はまた、ディスプレイ518のような1つまたは複数の出力デバイスを含むことが
できる。ディスプレイ518は、一例では、ディスプレイを、タッチ入力を感知するように
動作可能なタッチ感応性要素と組み合わせる、タッチ感応性ディスプレイであってよい。
ディスプレイ518は、バス512を介してプロセッサ502に結合されることが可能である。
ここでは単一のバスとして描写されているが、装置500のバス512は複数のバスからなる
ことが可能である。さらに、2次記憶装置514が、装置500の他の構成要素に直接に結合さ
れることが可能であり、またはネットワークを介してアクセスされることが可能であり、
メモリカードのような単一の統合されたユニット、または複数のメモリカードのような複
数のユニットを備えることができる。従って、装置500は広く様々な構成で実現されるこ
とが可能である。
クロマ成分サブサンプリング
ビデオコーディングでは、通常、入力ビデオに対して1つのルミナンス成分(Y)および2
つのクロミナンス成分(CbおよびCr)がある。実際には、クロマ成分は、通常、ビデオのた
めの記憶装置および遷移帯域幅を減らすためにサブサンプリングされる。
いくつかのクロマサブサンプリングフォーマットがある。いくつかの例では、ビデオの
ためにクロマサブサンプリングを行う必要がない1つのクロマサブサンプリングフォーマ
ット、たとえば、クロマサブサンプリングフォーマット4:4:4もある。クロマサブサンプ
リングフォーマット4:4:4では、3つの成分Y、U、Vは、図6における例に表されたように、
フレーム内で等しく分散される。一例では、ルーマ成分のサイズがビデオ内で1であると
仮定すると、ビデオの合計サイズは3である。
実際には、1つのクロマサブサンプリングフォーマット4:2:0が広く使用され、ここで、
クロマ成分は、図7における例に表されたように、ルーマ成分に水平および垂直に対応す
る半分だけサブサンプリングされ、CbまたはCrのサイズはルーマ成分のサイズの1/4であ
る。したがって、4:2:0フォーマットでは、ビデオの合計サイズはルーマ成分のサイズの1
(Y) + 0.25(Cb) + 0.25(Cr) = 1.5である。4:4:4クロマサブサンプリングフォーマットと
比較して、4:2:0フォーマットは、ビデオストリームの記憶または遷移に要求されるサイ
ズの半分を節約する。
別の例では、クロマサブサンプリングフォーマット4:2:2が開示され、クロマ成分は、
図8における例に表されたように水平にサブサンプリングされる。この場合、CbまたはCr
のサイズはルーマ成分の半分である。したがって、このフォーマットにおけるビデオの合
計サイズは、ルーマ成分のサイズの1(Y) + 0.5(Cb) + 0.5(Cr) = 2である。4:4:4クロマ
サブサンプリングフォーマットと比較して、4:2:2フォーマットは、記憶または遷移に要
求されるサイズの1/3を節約する。
これらの例では、ルーマ成分のサイズはビデオ内で1と仮定される。
ITU-T JVET O2001(リンクはhttp://phenix.it-sudparis.eu/jvet/doc_end_user/docume
nts/15_Gothenburg/wg11/JVET-O2001-v14.zipである)に表された一例では、これらのアレ
イに関連付けられた変数および用語は、ルーマ(またはLまたはY)およびクロマと呼ばれ、
ここで、2つのクロマアレイはCbおよびCrと呼ばれる。
変数SubWidthCおよびSubHeightCは、chroma_format_idcおよびseparate_colour_plane_
flagを通して指定されるクロマフォーマットサンプリング構造に依存して、以下のTable
1の中で指定される。chroma_format_idc、SubWidthC、およびSubHeightCの他の値は、ITU
-T | ISO/IECによって将来において指定され得る。
chroma_format_idcは、(Table 1および関連する段落において表されたように)ルーマサ
ンプリングに相対的なクロマサンプリングを指定する。chroma_format_idcの値は、0から
3の全てを含む範囲内にあるものとする。
モノクロサンプリングでは、名目上、ルーマアレイと見なされる1つのみのサンプルア
レイがある。
4:2:0サンプリングでは、2つのクロマアレイの各々はルーマアレイの半分の高さおよび
半分の幅を有する。
4:2:2サンプリングでは、2つのクロマアレイの各々はルーマアレイの同じ高さおよび半
分の幅を有する。
4:4:4サンプリングでは、separate_colour_plane_flagの値に依存して以下が適用され
る。
- separate_colour_plane_flagが0に等しいならば、2つのクロマアレイの各々はルー
マアレイと同じ高さおよび幅を有する。
- そうでなければ(separate_colour_plane_flagが1に等しい)、3つの色平面はモノク
ロサンプリングされたピクチャとして別個に処理される。
ビデオシーケンス内のルーマおよびクロマアレイにおけるサンプルの各々の表現のため
に必要なビットの数は、8から16の全てを含む範囲内にあり、ルーマアレイ内で使用され
るビットの数は、クロマアレイ内で使用されるビットの数とは異なり得る。
chroma_format_idcの値が1に等しいとき、ピクチャ内のルーマおよびクロマサンプルの
公称の垂直および水平の相対位置が図7に表されている。代替のクロマサンプル相対位置
が、ビデオ有用性情報内で示されてよい。
chroma_format_idcの値が2に等しいとき、クロマサンプルは対応するルーマサンプルと
同じ場所に置かれ、ピクチャ内の公称の位置は図8に表されたようなものである。
chroma_format_idcの値が3に等しいとき、ピクチャの全ての場合に対して全てのアレイ
サンプルが同じ場所に置かれ、ピクチャ内の公称の位置は図6に表されたようなものであ
る。
角度イントラ予測モードおよびそれらの対応する方向解釈
図9に表された一例では、矢印を有する(2から66までの)実線を用いて角度イントラ予測
モードが表される。それらの中で、モード18、50は、それぞれ、水平および垂直の予測方
向に対応する。水平方向に相対的に、モード2および34は、それぞれ、45°および-45°に
対応する。垂直方向に相対的に、モード66および34は、45°および-45°に対応する。
いくつかの例では、入力としてモードおよび出力として距離を有するTable 2に表され
たように、これらのモード(たとえば、入力2、18、34、50、66)の角度は、距離の値を用
いて暗黙的に定義される。
モードXの対応する度(degree)は、
degree = arctan(output(x)/32)
として導出されることが可能である。
一例では、入力モード2は32の値を出力することになり、モード2についての対応する度
は45°である。同様に、モード18、34、50、66は、0、-32、0、32の値を出力することに
なり、対応する度は、それぞれ、0、-45°、0、45°である。モード18(水平予測)および5
0(垂直予測)が両方とも0度に対応し、モード34が2つの0度モードに相対的な重複した-45
°に対応することが注記される。
図10に表されたように、モード0から34について、所望の角度の隣接する辺は水平方向
と平行であるが、所望の角度の対向する辺は垂直方向と平行である。モード8に対応する
所望の角度が、図10の左側に表されている。モード34から66について、所望の角度の隣接
する辺は垂直方向と平行であるが、所望の角度の対向する辺は水平方向と平行である。
いくつかの例では、いくつかのモード(たとえば、モード3、4、6...26)は32の倍数であ
る出力を有しない。モード2、18、34、50、66の間で、これらのモードについての対応す
る度は45度の間で一様に分散されない。図9に表されたように、モードは、その対応する
角度が水平(モード18)および垂直(モード50)の度により近いとき、より密に定義される。
いくつかの例では、いくつかのイントラ予測モード(たとえば、8、28、40、および60..
.)は、その対向する辺が隣接の半分である角度に対応する、16(しかし32ではない)の倍数
の値を出力することになる(これらの角度の正接関数は0.5または-0.5である)。
いくつかの例では、-1から-14まで、および67から80までの、広角度モードがある。ブ
ロックアスペクト比が1:1でないとき、これらのモードは直接コーディングされないがマ
ッピングされる。
マッピング規則は、ブロックの幅として入力nW、ブロックの高さとしてnH、および入力
角度モードとしてpredModeIntraを用いて、以下のプロセスのように定義される。
変数whRatioはAbs( Log2( nW / nH ) )に等しく設定される。
非正方形ブロック(nWがnHに等しくない)について、イントラ予測モードpredModeIntra
は以下のように修正される。
- 以下の条件(これらの条件は広角度マッピングプロセスを適用すべきか否かを決定す
るために使用される)の全てが真であるならば、predModeIntraは( predModeIntra +65 )
に等しく設定される。
- nWがnHよりも大きく、
- predModeIntraが2以上であり、
- predModeIntraが( whRatio > 1 ) ? ( 8 + 2 * whRatio ) : 8よりも小さい。
- そうでなければ、以下の条件(これらの条件は広角度マッピングプロセスを適用すべ
きか否かを決定するために使用される)の全てが真であるならば、predModeIntraは( pred
ModeIntra - 67 )に等しく設定される。
- nHがnWよりも大きく、
- predModeIntraが66以下であり、
- predModeIntraが( whRatio > 1 ) ? ( 60 - 2 * whRatio ) : 60よりも大きい。
アスペクト比1:2を有する(ブロック幅が高さの半分である)ブロックを一例として取る
と、predModeIntraモード61から66は、以下の条件を満たすとき、-6から-1にマッピング
されることになる。
- nHがnWよりも大きく、
- predModeIntraが66以下であり、
- predModeIntraが( whRatio > 1 ) ? ( 60 - 2 * whRatio ) : 60よりも大きく、こ
こで、whRatio = Abs( Log2( nW / nH ) ) = 1である。
クロマ成分が水平または垂直にサブサンプリングされるときのクロマイントラ予測モード
導出
いくつかの例では、4:2:2クロマサブサンプリングフォーマットについて、最終のクロ
マイントラ角度モードを導出するためにマッピングテーブルが定義されてよく、ここで、
元のクロマ角度予測モードは、サブサンプリングに起因して変更された比に基づいて調整
される。
図10に表されたような一例では、クロマサブサンプリングなしのブロック(左側)は、同
じ幅および高さを有する。モード2、8、18、34、50、66は、それらの予測方向を用いてラ
ベル付けされる。クロマ成分は4:2:2クロマサブサンプルフォーマットが適用される(すな
わち、図8に表されたように、クロマ成分が水平にのみサブサンプリングされ、クロマサ
ンプルが2列ごとにルーマサンプルと整列される)とき、クロマ成分の幅はルーマ成分の幅
の半分である。
この場合、クロマサブサンプリングに起因してクロマブロックのアスペクト比は1:2で
ある。したがって、元のモードは、水平にサブサンプリングされたクロマ成分に従って調
整(マッピング)される。この場合、モード2は、水平方向における半分の減少を調整する
ために61にマッピングされる。サブサンプリングされたブロックのアスペクト比が1:2で
あるので、かつマッピングされたモード61が広角度マッピングプロセスに対する条件を満
たすならば、マッピングされたモード61は、広角度マッピングプロセスに従ってモード-6
にさらにマッピングされることになる。
モード-6は、Table 2によれば64の出力値に対応する。したがって、クロマサブサンプ
リングの後の最終の角度の対応する度は、
degree = arctan(64/32)
である。
この角度の正接値はモード2の正接値の2倍であり、これは、モード2の隣接する辺がク
ロマサブサンプリングのために半分にされたことを反映する。
(図10における左に表されたように)半分の幅の位置がモード8に対応するのでモード8
はモード2にマッピングされ、モード8は、水平方向における幅に起因して角度45°に対応
する。同様に、モード34および60は、それぞれ、40および60にマッピングされる。これら
の例では、その度が0である水平および垂直の予測モードは他のモードにマッピングされ
ず、すなわち、水平/垂直モードは依然として同じモードにマッピングされる。
クロマ成分がサブサンプリングされる(たとえば、クロマサブサンプリングフォーマッ
ト4:2:2)ときにイントラ予測モードをマッピングするために、マッピングテーブルは以下
のように定義される。
本発明の1つの組み込みでは、Table 4において定義されるように、モード2から7のマッ
ピングを60から65で置き換えることが提案される。
上記の例では、モード2は61にマッピングすることになる。この実施形態では、モード2
は図10に表されたようにモード60にマッピングすることになる。
本発明の1つの組み込みでは、Table 5において定義されるように、モード2から7のマッ
ピングを、Table 3におけるモード2から7と同じである61から66で置き換えることが提案
される。
本発明の1つの組み込みでは、Table 6において定義されるように、モード8から18を以
下のモードでマッピングすることが提案される。
本発明の1つの組み込みでは、マッピングされるモードがどのように導出されるかを表
すために、以下のTable 7が使用される。
左側は2から18の入力モードを表し、各モードは正接値および角度に対応している。サ
ブサンプリングなしの場合では、これらのモードの角度は以下のように定義されることが
可能である。
degree = arctan(output(x)/32)
モード2から34について、スケーリング係数32は図10に表された幅として見なされてよ
い。それらのモードについて、所望の角度の隣接する辺は水平方向と平行であるが、所望
の角度の対向する辺は垂直方向と平行である。モード8に対応する所望の角度が、図10の
左の部分図に表されている。対照的に、(モード34に対応する角度が、水平および垂直方
向の両方に関連する重複した角度(-45度)であるので)モード34から66について、所望の角
度の隣接する辺は垂直方向と平行であるが、所望の角度の対向する辺は水平方向と平行で
ある。
クロマサブサンプリングに起因して、モード2から34について、(幅と平行の)隣接する
辺が半分であるのでサブサンプリングありの正接値は2倍にされ、モード34から66につい
て、対向する辺が半分であるのでサブサンプリングありの正接値は半分である。
一例では、2倍にされた正接値がTable 7の右側においてモードごとに列挙される。しか
し、角度は正接値に線形的に比例していない。したがって、これらの2倍にされた正接値
は、角度値に戻して変換される必要がある。クロマサブサンプリングありの右側における
変換された角度値を使用して、Table 7の左側において最も近い角度を有するモードが出
力モードである。
要約すれば、対応するマッピングモードを見つけ出すために、入力モードXを用いて以
下のステップを使用して、参照テーブルが最初に生成される。
・Table 2に従って、出力値を取得する。
・代替としてまたは加えて、このモードの正接値をoutput(X)/32として計算する。
・代替としてまたは加えて、導出された正接値を使用して角度を計算し、たとえば、ar
ctan (output(x)/32)である。
・代替としてまたは加えて、入力モードXの範囲を使用して、上記の3つのステップを使
用して参照テーブルを生成し、正接値、角度値、および入力モードの列を含むTable 7の
左側に表されたように、Xは2..18に属する。
入力モードXを用いてマッピングされたモードを導出するために、以下のステップが適
用される。
・代替としてまたは加えて、Xモードの正接値を2*output(X)/32として2倍にする。
・代替としてまたは加えて、2倍にされた正接値を使用してクロマサブサンプリングフ
ォーマット4:2:2における角度を計算し、たとえば、arctan (2*output(x)/32)である。
・代替としてまたは加えて、クロマサブサンプリングフォーマット4:2:2における計算
された角度値に従って、参照テーブル(たとえば、Table 7におけるクロマサブサンプリン
グなしの角度リスト)内の最も近い角度を見つける。
・代替としてまたは加えて、参照テーブル内の最も近い角度に従って、対応する出力モ
ードをピックアップする。
簡潔さの目的のために、上記のプロセスは、出力モードを導出するためのプロセスとし
て言及される。
一例では、入力モード10は、参照テーブルが生成された後、その出力モードを以下のよ
うに導出する。
・10モードの正接値を2*12/32 = 0.75として2倍にする。
・2倍にされた正接値を使用してクロマサブサンプリングフォーマット4:2:2における角
度を計算し、たとえば、arctan (0.75) =36.8699°である。
・計算された角度値36.8699°に従って、参照テーブル内の最も近い角度35.70669°を
見つける。
・参照テーブル内の最も近い角度35.70669°に従って、対応する出力モード5をピック
アップする。
したがって、入力モード10はモード5にマッピングされる。
本発明の1つの組み込みでは、Table 8において定義されるように、モード19から28を以
下のモードでマッピングすることが提案される。
本発明の1つの組み込みでは、マッピングされるモードがどのように導出されるかを表
すために、以下のTable 9が使用される。
Table 9は、前の実施形態において定義されたような、出力モードを導出するためのプ
ロセスを使用して同様に導出されることが可能である。この例では、参照テーブル(Table
9の左側)を生成するとき、19から34の入力モードが使用される。
本発明の1つの組み込みでは、Table 10において定義されるように、モード29から34を
以下のモードでマッピングすることが提案される。
本発明の1つの組み込みでは、マッピングされるモードがどのように導出されるかを表
すために、以下のTable 11が使用される。
一例では、Table 11は、以下の態様を除いて、前の実施形態において定義されたような
出力モードを導出するためのプロセスを使用して導出されることが可能である。
・参照テーブルを生成するとき、29から40の入力モードが使用される。
・モード29から34について、出力モードを導出するために、もう1つのステップが要求
される。2*tangent(output(x)/32)の値に対応する角度は-45°よりも小さい(すなわち、
角度の絶対値は45°よりも大きい)。導出されることが可能である最小の角度が-45°であ
るので、これらの(-45°よりも小さい)角度は直接使用されることが可能でない。この場
合、それらの余角が使用され、マッピングされる角度は(現在の左の境界の代わりに)現在
のブロックの上の境界に対向する。したがって、マッピングされる角度の隣接する辺およ
び対向する辺が交換され、したがって、それらの余角の正接値1/2*tangent(output(x)/32
)が、参照テーブル内の最も近い角度を見つけ出すために使用される正しい角度を導出す
るために使用される。
本発明の1つの組み込みでは、Table 12において定義されるように、モード35から50を
以下のモードでマッピングすることが提案される。
本発明の1つの組み込みでは、マッピングされるモードがどのように導出されるかを表
すために、以下のTable 13が使用される。
Table 13は、出力モードを導出するためのプロセスを使用して導出され得るが、以下の
態様を変更する。
・参照テーブルを生成するとき、35から50の入力モードが使用される。
・モード35から50は、その対向する辺が現在のブロックの上の境界である角度に対応す
る。クロマサブサンプリングの後、対向する辺が4:2:2クロマサブサンプリングフォーマ
ットを用いて半分にされるので、対応する正接値は(Table 7において2倍にされる代わり
に)半分にされる。
一例では、モード36はまた、Table 2に表されたように、以下のマッピングテーブルを
考慮することによって42にマッピングされることが可能である。
モード36の観点から、対応する角度の対向する辺は水平方向と平行であり、対応する角
度の隣接する辺は垂直方向と平行である。クロマサブサンプリングに起因して、水平方向
が半分だけ減らされ、すなわち、対応する角度の対向する辺が半分だけ減らされる。これ
は、その出力値を半分だけ減らすことと等価であり、これは、その出力値が、今、-26/2
= -13であることを意味する。-13は、2つの等価な最も近い出力値-12および-14を有する
ので、モード41または42のいずれかにマッピングされることが可能である。
同じ理由で、モード39、41、43、47、49は、それぞれ、43または44、44または45、45ま
たは46、48または49、49または50のいずれかにマッピングされ得る。Table 14は、可能な
マッピングモードおよびそれらがどのように導出されるかを要約する。
本発明の1つの組み込みでは、Table 15において定義されるように、モード51から66を
以下のモードでマッピングすることが提案される。
本発明の1つの組み込みでは、マッピングされるモードがどのように導出されるかを表
すために、以下のTable 16が使用される。
Table 13に類似して、Table 16は、出力モードを導出するためのプロセスを使用して導
出され得るが、以下の態様を変更する。
・参照テーブルを生成するとき、50から66の入力モードが使用される。
・モード51から66は、その対向する辺が現在のブロックの上の境界である角度に対応す
る。クロマサブサンプリングの後、対向する辺が4:2:2クロマサブサンプリングフォーマ
ットを用いて半分にされるので、対応する正接値は(Table 7において2倍にされる代わり
に)半分にされる。
Table 14に類似して、Table 17に表されたように、モード51から66の中のモードのうち
のいくつかは、代替のマッピングされたモードを有してよい。
上記の実施形態では、クロマサブサンプリングモード4:2:2、すなわち、水平方向にお
けるクロマ成分における半分だけのサブサンプリングのためのマッピングモードとして、
多くの実施形態が表されている。クロマ成分が垂直にサブサンプリングされるクロマサブ
サンプリングフォーマットに対して類似の手法が提案されることが可能であることが注記
される。
いくつかの例では、ブロックアスペクトが変化しないことになるクロマサブサンプリン
グフォーマットに対してイントラ予測モードマッピングを実行することは必要でない。た
とえば、4:2:0クロマサブサンプリングフォーマットを用いて、水平および垂直方向の両
方においてクロマ成分がサブサンプリングされるので、ブロックアスペクトは変化しない
ことになり、したがって、モードマッピングを実行する必要がない。
いくつかの例では、1つの入力モードXが1つの出力モードYを有する限り、上記の実施形
態が組み合わせられることが可能である。たとえば、以下のTable 18は、提案される実施
形態の組み合わせのうちの1つである。
いくつかの例では、上記の実施形態(たとえば、Table 2からTable 18)において開示さ
れるモードの1つまたは任意の組み合わせが、モードマッピング関係となるように組み合
わせられてよい。
例1. デコードデバイスによって実行されるコーディングの方法であって、
ビデオビットストリームを取得するステップと、
ビデオビットストリームをデコードして、現在のコーディングブロックのクロマ成分に
対する初期イントラ予測モード値を取得するステップと、
現在のコーディングブロックのルーマ成分に対する幅と現在のコーディングブロックの
クロマ成分に対する幅との間の比がしきい値に等しいか否かを決定する(または、現在の
コーディングブロックのルーマ成分に対する高さと現在のコーディングブロックのクロマ
成分に対する高さとの間の比がしきい値に等しいか否かを決定する)ステップと、
比がしきい値に等しいことが決定されたとき、既定のマッピング関係および初期イント
ラ予測モード値に従って現在のコーディングブロックのクロマ成分に対するマッピングさ
れたイントラ予測モード値を取得するステップと、
マッピングされたイントラ予測モード値に従って現在のコーディングブロックのクロマ
成分に対する予測サンプル値を取得するステップとを備える方法。
例2. しきい値が2または0.5である、例1の方法。
例3. 既定のマッピング関係を表すために以下の表、すなわち、
または
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1または2の方法。
例4. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から3のうちのいずれか1つの方法。
例5. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から4のうちのいずれか1つの方法。
例6. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から5のうちのいずれか1つの方法。
例7. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6のうちのいずれか1つの方法。
例8. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6のうちのいずれか1つの方法。
例9. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6のうちのいずれか1つの方法。
例10. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6、8、および9のうちのいずれか1つの方法。
例11. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6、8、および9のうちのいずれか1つの方法。
例12. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から11のうちのいずれか1つの方法。
例13. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から11のうちのいずれか1つの方法。
例14. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から13のうちのいずれか1つの方法。
例15. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から13のうちのいずれか1つの方法。
例16. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から15のうちのいずれか1つの方法。
例17. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から15のうちのいずれか1つの方法。
例18. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から17のうちのいずれか1つの方法。
例19. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から6および8から17のうちのいずれか1つの方法。
例20. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19のうちのいずれか1つの方法。
例21. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19のうちのいずれか1つの方法。
例22. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19のうちのいずれか1つの方法。
例23. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から22のうちのいずれか1つの方法
例24. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から22のうちのいずれか1つの方法
例25. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から24のうちのいずれか1つの方法
例26. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から24のうちのいずれか1つの方法
例27. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から26のうちのいずれか1つの方法
例28. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から26のうちのいずれか1つの方法
例29. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から28のうちのいずれか1つの方法
例30. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から28のうちのいずれか1つの方法
例31. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から30のうちのいずれか1つの方法
例32. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例1から19および21から30のうちのいずれか1つの方法
例33. デコードデバイスによって実行されるコーディングの方法であって、
ビデオビットストリームを取得するステップと、
ビデオビットストリームをデコードして、現在のコーディングブロックのクロマ成分に
対する初期イントラ予測モード値を取得するステップと、
ビデオビットストリームをデコードして、現在のコーディングブロックのためのクロマ
フォーマット表示情報の値を取得するステップと、
現在のコーディングブロックのためのクロマフォーマット表示情報の値が既定値に等し
いとき、既定のマッピング関係および初期イントラ予測モード値に従って現在のコーディ
ングブロックのクロマ成分に対するマッピングされたイントラ予測モード値を取得するス
テップと、
マッピングされたイントラ予測モード値に従って現在のコーディングブロックのクロマ
成分に対する予測サンプル値を取得するステップとを備える方法。
例34. 既定値が2または1である、例33の方法。
例35. 既定のマッピング関係を表すために以下の表、すなわち、
または
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例31または32の方法。
例36. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から35のうちのいずれか1つの方法。
例37. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から36のうちのいずれか1つの方法。
例38. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から37のうちのいずれか1つの方法。
例39. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38のうちのいずれか1つの方法。
例40. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38のうちのいずれか1つの方法。
例41. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38のうちのいずれか1つの方法。
例42. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38、40、および41のうちのいずれか1つの方
法。
例43. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38、40、および41のうちのいずれか1つの方
法。
例44. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から43のうちのいずれか1つの方
法。
例45. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から43のうちのいずれか1つの方
法。
例46. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から45のうちのいずれか1つの方
法。
例47. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から45のうちのいずれか1つの方
法。
例48. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から47のうちのいずれか1つの方
法。
例49. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から47のうちのいずれか1つの方
法。
例50. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から49のうちのいずれか1つの方
法。
例51. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から38および40から49のうちのいずれか1つの方
法。
例52. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51のうちのいずれか1つの方法。
例53. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51のうちのいずれか1つの方法。
例54. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51のうちのいずれか1つの方法。
例55. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から54のうちのいずれか1つの方
法。
例56. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から54のうちのいずれか1つの方
法。
例57. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から56のうちのいずれか1つの方
法。
例58. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から56のうちのいずれか1つの方
法。
例59. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から58のうちのいずれか1つの方
法。
例60. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から58のうちのいずれか1つの方
法。
例61. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から60のうちのいずれか1つの方
法。
例62. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から60のうちのいずれか1つの方
法。
例63. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から62のうちのいずれか1つの方
法。
例64. 既定のマッピング関係を表すために以下の表、すなわち、
が使用され、モードXは初期イントラ予測モード値を表現し、モードYはマッピングされた
イントラ予測モード値を表現する、例33から51および53から62のうちのいずれか1つの方
法。
例65. 例1から64のうちのいずれか1つによる方法を実行するための処理回路を備える
デコーダ(30)。
例66. 例1から64のうちのいずれか1つによる方法を実行するためのプログラムコード
を備えるコンピュータプログラム製品。
例67. デコーダであって、
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶する非一
時的コンピュータ可読記憶媒体とを備え、プログラミングは、プロセッサによって実行さ
れたとき、例1から64のうちのいずれか1つによる方法を実行するようにデコーダを構成す
る、デコーダ。
以下は、エンコード方法、並びに上記で述べた実施形態に表されたようなデコード方法
、およびそれらを使用するシステムの適用の説明である。
図11は、コンテンツ配信サービスを実現するためのコンテンツ供給システム3100を表す
ブロック図である。このコンテンツ供給システム3100は、キャプチャデバイス3102、端末
デバイス3106を含み、任意選択でディスプレイ3126を含む。キャプチャデバイス3102は、
通信リンク3104上で端末デバイス3106と通信する。通信リンクは、上記で説明された通信
チャネル13を含んでよい。通信リンク3104は、WIFI、Ethernet、ケーブル、無線(3G/4G/5
G)、USB、またはそれらの任意の種類の組み合わせ、または同様のものを含むが、それら
に限定されない。
キャプチャデバイス3102は、データを生成し、上記の実施形態に表されたようなエンコ
ード方法によってデータをエンコードし得る。代替として、キャプチャデバイス3102は、
ストリーミングサーバ(図に表されていない)にデータを配信してよく、サーバは、データ
をエンコードし、エンコードされたデータを端末デバイス3106へ伝送する。キャプチャデ
バイス3102は、カメラ、スマートフォンまたはパッド、コンピュータまたはラップトップ
、ビデオ会議システム、PDA、車両搭載型デバイス、またはそれらのいずれかの組み合わ
せ、または同様のものを含むが、それらに限定されない。例えば、キャプチャデバイス31
02は、上記で説明されたようなソースデバイス12を含んでよい。データがビデオを含むと
き、キャプチャデバイス3102内に含まれるビデオエンコーダ20が、実際にビデオエンコー
ド処理を実行し得る。データがオーディオ(すなわち、音声)を含むとき、キャプチャデバ
イス3102内に含まれるオーディオエンコーダが、実際にオーディオエンコード処理を実行
し得る。いくつかの実際的なシナリオについて、キャプチャデバイス3102は、エンコード
されたビデオおよびオーディオデータを、それらを一緒に多重化することによって配信す
る。他の実際的なシナリオについて、例えば、ビデオ会議システムでは、エンコードされ
たオーディオデータおよびエンコードされたビデオデータは多重化されない。キャプチャ
デバイス3102は、エンコードされたオーディオデータおよびエンコードされたビデオデー
タを端末デバイス3106に別々に配信する。
コンテンツ供給システム3100において、端末デバイス310は、エンコードされたデータ
を受信および再生する。端末デバイス3106は、上記で述べたエンコードされたデータをデ
コードすることが可能な、スマートフォンまたはパッド3108、コンピュータまたはラップ
トップ3110、ネットワークビデオレコーダ(network video recorder(NVR))/デジタルビ
デオレコーダ(digital video recorder(DVR))3112、TV 3114、セットトップボックス(set
top box(STB))3116、ビデオ会議システム3118、ビデオ監視システム3120、パーソナルデ
ジタルアシスタント(personal digital assistant(PDA))3122、車両搭載型デバイス3124
、またはそれらのいずれかの組み合わせ、または同様のもののような、データ受信および
復元能力を有するデバイスであることが可能である。例えば、端末デバイス3106は、上記
で説明されたような宛先デバイス14を含んでよい。エンコードされたデータがビデオを含
むとき、端末デバイス内に含まれるビデオデコーダ30は、ビデオデコードを実行するよう
に優先順位付けされる。エンコードされたデータがオーディオを含むとき、端末デバイス
内に含まれるオーディオデコーダは、オーディオデコード処理を実行するように優先順位
付けされる。
そのディスプレイを有する端末デバイス、例えば、スマートフォンまたはパッド3108、
コンピュータまたはラップトップ3110、ネットワークビデオレコーダ(NVR)/デジタルビ
デオレコーダ(DVR)3112、TV 3114、パーソナルデジタルアシスタント(PDA)3122、または
車両搭載型デバイス3124に対して、端末デバイスは、そのディスプレイにデコードされた
データを供給することができる。ディスプレイが装備されていない端末デバイス、例えば
、STB 3116、ビデオ会議システム3118、またはビデオ監視システム3120に対して、デコー
ドされたデータを受信および表示するために外部ディスプレイ3126がそこに接触される。
このシステム内の各デバイスがエンコードまたはデコードを実行するとき、上記で述べ
た実施形態に表されたように、ピクチャエンコードデバイスまたはピクチャデコードデバ
イスが使用されることが可能である。
図12は、端末デバイス3106の一例の構造を表す図である。端末デバイス3106がキャプチ
ャデバイス3102からストリームを受信した後、プロトコル進行ユニット3202がストリーム
の伝送プロトコルを分析する。プロトコルは、リアルタイム・ストリーミング・プロトコ
ル(Real Time Streaming Protocol(RTSP))、ハイパーテキスト転送プロトコル(Hyper Tex
t Transfer Protocol(HTTP))、HTTPライブ・ストリーミング・プロトコル(HTTP Live str
eaming protocol(HLS))、MPEG-DASH、リアルタイム・トランスポート・プロトコル(Real-
time Transport protocol(RTP))、リアルタイム・メッセージング・プロトコル(Real Tim
e Messaging Protocol(RTMP))、またはそれらの任意の種類の組み合わせ、または同様の
ものを含むが、それらに限定されない。
プロトコル進行ユニット3202がストリームを処理した後、ストリームファイルが生成さ
れる。ファイルは逆多重化ユニット3204に出力される。逆多重化ユニット3204は、多重化
されたデータをエンコードされたオーディオデータおよびエンコードされたビデオデータ
に分離することができる。上記で説明されたように、いくつかの実際的なシナリオについ
て、例えば、ビデオ会議システムでは、エンコードされたオーディオデータおよびエンコ
ードされたビデオデータは多重化されない。この状況では、エンコードされたデータは、
逆多重化ユニット3204を通すことなくビデオデコーダ3206およびオーディオデコーダ3208
へ伝送される。
逆多重化処理を介して、ビデオエレメンタリストリーム(elementary stream(ES))、オ
ーディオES、および任意選択でサブタイトルが生成される。上記で述べた実施形態で説明
されたようなビデオデコーダ30を含むビデオデコーダ3206は、上記で述べた実施形態に表
されたようなデコード方法によってビデオESをデコードしてビデオフレームを生成し、こ
のデータを同期ユニット3212に供給する。オーディオデコーダ3208は、オーディオESをデ
コードしてオーディオフレームを生成し、このデータを同期ユニット3212に供給する。代
替として、ビデオフレームは、それを同期ユニット3212に供給する前にバッファ(図12に
表されていない)に記憶し得る。同様に、オーディオフレームは、それを同期ユニット321
2に供給する前にバッファ(図12に表されていない)に記憶し得る。
同期ユニット3212は、ビデオフレームとオーディオフレームを同期させ、ビデオ/オー
ディオをビデオ/オーディオディスプレイ3214に供給する。例えば、同期ユニット3212は
、ビデオおよびオーディオ情報の提示を同期させる。情報は、コーディングされたオーデ
ィオおよびビジュアルデータの提示に関係するタイムスタンプ、およびデータストリーム
自体の配信に関係するタイムスタンプを使用してシンタックス内にコーディングし得る。
ストリーム内にサブタイトルが含まれるならば、サブタイトルデコーダ3210が、サブタ
イトルをデコードし、それをビデオフレームおよびオーディオフレームと同期させ、ビデ
オ/オーディオ/サブタイトルをビデオ/オーディオ/サブタイトルディスプレイ3216に
供給する。
本発明は上記で述べたシステムに限定されず、上記で述べた実施形態におけるピクチャ
エンコードデバイスまたはピクチャデコードデバイスのいずれかは、他のシステム、例え
ば、自動車システムの中に組み込まれることが可能である。
数学演算子
この出願において使用される数学演算子は、Cプログラミング言語において使用される
ものと類似である。しかし、整数除算および算術シフト演算の結果がより精密に定義され
、べき乗および実数値除算のような追加の演算が定義される。番号付けおよび計数の規約
は、一般に、0から始まり、例えば、「第1」が0番目と等価であり、「第2」が1番目と等
価である、などである。
算術演算子
以下の算術演算子は以下のように定義される。
+ 加算。
- 減算(2つの引数の演算子として)または符号反転(単項前置演算子として)。
* 乗算、行列乗算を含む。
xy べき乗。xのy乗を指定する。他の文脈では、そのような表記法は、べき乗としての
解釈のために意図されない上付き文字にするために使用される。
/ 結果の0への切り捨てを伴う整数除算。例えば、7/4および-7/-4は1に切り捨てられ
、-7/4および7/-4は-1に切り捨てられる。
÷ 切り捨てまたは丸めが意図されない、数式における除算を表記するために使用され
る。
切り捨てまたは丸めが意図されない、数式における除算を表記するために使用される。
iがxからyまで、かつyを含む全ての整数値をとる、f(i)の総和。
x % y 法。x>=0かつy>0となる整数xおよびyのみについて定義される、xをyで除算した
剰余。
論理演算子
以下の論理演算子は以下のように定義される。
x && y xとyのブール論理の「論理積」。
x || y xとyのブール論理の「論理和」。
! ブール論理の「否定」。
x ? y : z xがTRUE、すなわち0に等しくないならば、yの値に評価し、そうでなければ
、zの値に評価する。
関係演算子
以下の関係演算子は以下のように定義される。
> よりも大きい。
>= 以上。
< よりも小さい。
<= 以下。
== 等しい。
!= 等しくない。
値「na」(適用可能でない)が割り当てられているシンタックス要素または変数に関係演
算子が適用されるとき、値「na」は、そのシンタックス要素または変数について特別な値
として扱われる。値「na」は、いかなる他の値にも等しくないと見なされる。
ビット単位演算子
以下のビット単位演算子は以下のように定義される。
& ビット単位の「論理積」。整数の引数に対して演算するとき、整数値の2の補数表現
に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算すると
き、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
| ビット単位の「論理和」。整数の引数に対して演算するとき、整数値の2の補数表現
に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算すると
き、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
^ ビット単位の「排他的論理和」。整数の引数に対して演算するとき、整数値の2の補
数表現に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算
するとき、より短い引数は、0に等しいより上位のビットを追加することによって拡張さ
れる。
x >> y xの2の補数整数表現の、2進数のy桁だけの算術右シフト。この関数は、yの非
負の整数値に対してのみ定義される。右シフトの結果として最上位ビット(most signific
ant bit(MSB))にシフトされるビットは、そのシフト演算の前のxのMSBに等しい値を有す
る。
x << y xの2の補数整数表現の、2進数のy桁だけの算術左シフト。この関数は、yの非
負の整数値に対してのみ定義される。左シフトの結果として最下位ビット(least signifi
cant bit(LSB))にシフトされるビットは、0に等しい値を有する。
割当て演算子
以下の算術演算子は以下のように定義される。
= 割当て演算子。
++ インクリメント、すなわち、x++はx = x + 1と等価であり、アレイインデックスに
おいて使用されるとき、インクリメント演算の前の変数の値に評価する。
-- デクリメント、すなわち、x--はx = x - 1と等価であり、アレイインデックスにお
いて使用されるとき、デクリメント演算の前の変数の値に評価する。
+= 指定された量だけのインクリメント、すなわち、x += 3はx = x + 3と等価でありx
+= (-3)はx = x + (-3)と等価である。
-= 指定された量だけのデクリメント、すなわち、x -= 3はx = x - 3と等価であり、x
-= (-3)はx = x - (-3)と等価である。
範囲表記法
値の範囲を指定するために以下の表記法が使用される。
x=y..z xは、yから始まりzまでの全てを含む整数値をとり、x、y、およびzは整数であ
り、zはyよりも大きい。
数学関数
以下の数学関数が定義される。
Asin(x) -1.0から1.0の全てを含む範囲内にある引数xに対して演算し、ラジアンの単
位での-π÷2からπ÷2の全てを含む範囲内の出力値を有する、三角法の逆正弦関数。
Atan(x) 引数xに対して演算し、ラジアンの単位での-π÷2からπ÷2の全てを含む範
囲内の出力値を有する、三角法の逆正接関数。
Ceil(x) x以上の最小の整数。
Clip1Y( x ) = Clip3( 0, ( 1 << BitDepthY ) - 1, x )
Clip1C( x ) = Clip3( 0, ( 1 << BitDepthC ) - 1, x )
Cos(x) ラジアンの単位での引数xに対して演算する、三角法の余弦関数。
Floor(x) x以下の最大の整数。
Ln(x) xの自然対数(eを底とする対数、ここで、eは自然対数の底定数2.718 281 828..
.である)。
Log2(x) 2を底とするxの対数。
Log10(x) 10を底とするxの対数。
Round( x ) = Sign( x ) * Floor( Abs( x ) + 0.5 )
Sin(x) ラジアンの単位での引数xに対して演算する、三角法の正弦関数。
Swap( x, y ) = ( y, x )
Tan(x) ラジアンの単位での引数xに対して演算する、三角法の正接関数。
演算優先順位の順序
式における優先順位の順序が括弧の使用によって明示的には示されないとき、以下の規
則が適用される。
- より高い優先順位の演算は、より低い優先順位の任意の演算の前に評価される。
- 同じ優先順位の演算は、左から右へ順次に評価される。
以下の表は、最高から最低までの演算の優先順位を指定し、表内のより高い位置がより
高い優先順位を示す。
Cプログラミング言語においても使用されるそれらの演算子について、この明細書にお
いて使用される優先順位の順序は、Cプログラミング言語において使用されるのと同じで
ある。
論理演算の本文記述
本文の中で、以下の形式で数学的に記述されることになるような論理演算のステートメ
ント、すなわち、
if(条件0)
ステートメント0
else if(条件1)
ステートメント1
...
else /* 残りの条件における説明的な注釈 */
ステートメントn
は、以下の形態で説明され得る。
...以下のように/...以下が適用される
- 条件0ならば、ステートメント0
- そうでなく、条件1ならば、ステートメント1
- ...
- そうでなければ(残りの条件における説明的な注釈)、ステートメントn
本文の中の各々の「...ならば、そうでなく...ならば、そうでなければ...」のステー
トメントは、その直後に「...ならば」が来る、「...以下のように」または「...以下が
適用される」を用いて導入される。「...ならば、そうでなく...ならば、そうでなければ
...」の最後の条件は、常に「そうでなければ...」である。交互に配置された「...なら
ば、そうでなく...ならば、そうでなければ...」のステートメントは、「...以下のよう
に」または「...以下が適用される」を、終わりの「そうでなければ...」に整合させるこ
とによって識別されることが可能である。
本文の中で、以下の形式で数学的に記述されることになるような論理演算のステートメ
ント、すなわち、
if(条件0a && 条件0b)
ステートメント0
else if(条件1a || 条件1b)
ステートメント1
...
else
ステートメントn
は、以下の形態で説明され得る。
...以下のように/...以下が適用される
- 以下の条件の全てが真であるならば、ステートメント0:
- 条件0a
- 条件0b
- そうでなく、以下の条件のうちの1つまたは複数が真であるならば、ステートメン
ト1:
- 条件1a
- 条件1b
- ...
- そうでなければ、ステートメントn
本文の中で、以下の形式で数学的に記述されることになるような論理演算のステートメ
ント、すなわち、
if(条件0)
ステートメント0
if(条件1)
ステートメント1
は、以下の形態で説明され得る。
条件0のとき、ステートメント0
条件1のとき、ステートメント1
発明の実施形態はビデオコーディングに基づいて主に説明されているが、コーディング
システム10、エンコーダ20、およびデコーダ30(およびそれに対応してシステム10)の実施
形態、およびここで説明される他の実施形態がまた、静止ピクチャ処理またはコーディン
グ、すなわち、ビデオコーディングにおけるような任意の先行するまたは連続したピクチ
ャから独立した、個々のピクチャの処理またはコーディングのために構成され得ることが
注記されるべきである。一般に、ピクチャ処理コーディングが単一のピクチャ17に限定さ
れる場合には、インター予測ユニット244(エンコーダ)および344(デコーダ)のみが利用可
能でなくてよい。ビデオエンコーダ20およびビデオデコーダ30の全ての他の機能(ツール
または技術とも呼ばれる)は、静止ピクチャ処理、例えば、残差計算204/304、変換206、
量子化208、逆量子化210/310、(逆)変換212/312、区分262/362、イントラ予測254/354、
および/またはループフィルタ処理220、320、およびエントロピーコーディング270およ
びエントロピーデコード304のために等しく使用され得る。
例えば、エンコーダ20およびデコーダ30の実施形態、および、例えば、エンコーダ20お
よびデコーダ30を参照してここで説明される機能は、ハードウェア、ソフトウェア、ファ
ームウェア、またはそれらの任意の組み合わせで実現され得る。ソフトウェアで実現され
るならば、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体に
おいて記憶され、または通信媒体上で伝送され、ハードウェアを基にした処理ユニットに
よって実行されてよい。コンピュータ可読媒体は、データ記憶媒体のような有形媒体に対
応するコンピュータ可読記憶媒体、または、例えば、通信プロトコルに従って、1つの場
所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒
体を含んでよい。この形態において、コンピュータ可読媒体は、一般に、(1)非一時的で
ある有形コンピュータ可読記憶媒体、または(2)信号または搬送波のような通信媒体に対
応し得る。データ記憶媒体は、この開示において説明される技法の実装のための命令、コ
ード、および/またはデータ構造を取り出すために、1つまたは複数のコンピュータまた
は1つまたは複数のプロセッサによってアクセスされることが可能である任意の利用可能
な媒体であってよい。コンピュータプログラム製品がコンピュータ可読媒体を含んでよい
例として、かつ限定せず、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM
、CD-ROM、または他の光ディスク記憶、磁気ディスク記憶、または他の磁気記憶デバイス
、フラッシュメモリ、または命令またはデータ構造の形式で所望のプログラムコードを記
憶するために使用されることが可能であり、コンピュータによってアクセスされることが
可能である任意の他の媒体を備えることができる。また、任意の接続が、コンピュータ可
読媒体と適切に呼ばれる。例えば、命令が、同軸ケーブル、光ファイバケーブル、ツイス
トペア、デジタル加入者線(digital subscriber line(DSL))、または赤外線、無線、およ
びマイクロ波のような無線技術を使用して、ウェブサイト、サーバ、または他のリモート
ソースから伝送されるならば、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL
、または赤外線、無線、およびマイクロ波のような無線技術は、媒体の定義の中に含まれ
る。しかし、コンピュータ可読記憶媒体およびデータ記憶媒体が、接続、搬送波、信号、
または他の一時的媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることが
理解されるべきである。ここで使用されるようなディスク(disk)およびディスク(disc)は
、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(dis
c)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)、およびBlu-ray(
登録商標)ディスク(disc)を含み、ここで、ディスク(disk)は、通常、データを磁気的に
再生し、一方、ディスク(disc)は、レーザーを用いてデータを光学的に再生する。上記の
ものの組み合わせも、コンピュータ可読媒体の範囲内に含まれるべきである。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特
定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等
価な集積論理回路または個別論理回路のような1つまたは複数のプロセッサによって実行
され得る。従って、ここで使用されるような用語「プロセッサ」は、上記の構造またはこ
こで説明される技法の実装のために適した任意の他の構造のいずれかを指し得る。加えて
、いくつかの態様では、ここで説明される機能は、エンコードおよびデコードするために
構成された専用のハードウェアおよび/またはソフトウェアモジュール内で提供され、ま
たは組み合わせられたコーデック内に組み込まれ得る。また、技法は、1つまたは複数の
回路または論理要素内で十分に実現されることが可能である。
この開示の技法は、無線ハンドセット、集積回路(IC)、またはICのセット(例えば、チ
ップセット)を含む、広く様々なデバイスまたは装置内で実現され得る。様々な構成要素
、モジュール、またはユニットは、開示される技法を実行するように構成されたデバイス
の機能的態様を強調するためにこの開示において説明されているが、異なるハードウェア
ユニットによる実現を必ずしも要求しない。むしろ、上記で説明されたように、様々なユ
ニットが、コーデックハードウェアユニット内で組み合わせられ、または上記で説明され
たような1つまたは複数のプロセッサを含む、相互動作可能なハードウェアユニットの集
合によって、適したソフトウェアおよび/またはファームウェアとともに提供されてよい
10 ビデオコーディングシステム
12 ソースデバイス
13 通信チャネル
14 宛先デバイス
16 ピクチャソース
17 ピクチャ、ピクチャデータ、未加工ピクチャ、未加工ピクチャデータ
18 プリプロセッサ、前処理ユニット
19 前処理されたピクチャ、前処理されたピクチャデータ
20 ビデオエンコーダ
21 エンコードされたピクチャデータ
22 通信インターフェース、通信ユニット
28 通信インターフェース、通信ユニット
30 ビデオデコーダ、ショートデコーダ
31 デコードされたピクチャ、デコードされたピクチャデータ
32 ポストプロセッサ、後処理ユニット
33 後処理されたピクチャ、後処理されたピクチャデータ
34 ディスプレイデバイス
46 処理回路
201 入力、入力インターフェース
203 ピクチャブロック
204 残差計算ユニット
205 残差ブロック、残差
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化された係数、量子化変換係数、量子化残差係数
210 逆量子化ユニット
211 量子化解除された係数、逆量子化残差係数
212 逆変換処理ユニット
213 再構成された残差ブロック、対応する量子化解除された係数、変換ブロック
214 再構成ユニット
215 再構成されたブロック
220 ループフィルタユニット
221 フィルタ処理されたブロック、フィルタ処理された再構成されたブロック
230 デコードされたピクチャバッファ
231 デコードされたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット
260 モード選択ユニット
262 区分ユニット
265 予測ブロック、予測子
266 シンタックス要素
270 エントロピーエンコードユニット
272 出力、出力インターフェース
304 エントロピーデコードユニット
309 量子化された係数
310 逆量子化ユニット
311 変換係数、量子化解除された係数
312 逆変換処理ユニット
313 再構成された残差ブロック、変換ブロック
314 再構成ユニット、加算器
315 再構成されたブロック
320 ループフィルタユニット
321 フィルタ処理されたブロック、ピクチャのデコードされたビデオブロック
330 デコードされたピクチャバッファ(DPB)
331 デコードされたピクチャ
332 出力
344 インター予測ユニット
354 イントラ予測ユニット
360 モード適用ユニット
365 予測ブロック
400 ビデオコーディングデバイス
410 入口ポート、入力ポート
420 受信機ユニット
430 プロセッサ、論理ユニット、中央処理ユニット
440 送信機ユニット
450 出口ポート、出力ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 コードおよびデータ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 2次ストレージ
518 ディスプレイ
1400 デコードデバイス
1401 受信モジュール
1402 パラメータプロセスモジュール
1403 マッピングモジュール
1404 予測モジュール
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォン/パッド
3110 コンピュータ/ラップトップ
3112 ネットワークビデオレコーダ/デジタルビデオレコーダ
3114 TV
3116 セットトップボックス
3118 ビデオ会議システム
3120 ビデオ監視システム
3122 携帯情報端末
3124 車両搭載型デバイス
3126 ディスプレイ
3202 プロトコル進行ユニット
3204 多重化解除ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 サブタイトルデコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/サブタイトルディスプレイ
関連出願の相互参照
本特許出願は、参照によりここに組み込まれる、Wang Biaoらによって2019年8月1日に出願された「AN ENCODER, A DECODER AND CORRESPONDING METHODS OF CHROMA INTRA MODE DERIVATION WHEN CHROMA COMPONENT IS SUB-SAMPLED HORIZONTALLY OR VERTICALLY」と題する国際出願第PCT/EP2019/070804号の利益を主張し、Wang Biaoらによって2020年7月20日に出願された「AN ENCODER, A DECODER AND CORRESPONDING METHODS OF CHROMA INTRA MODE DERIVATION」と題する国際出願第PCT/CN2020/103055号の継続である、2022年1月31日に出願された日本国特許出願第2022-506502号の分割出願である。前述した全ての特許出願は参照によりここに完全に組み込まれる。
本出願(開示)の実施形態は、一般にピクチャ処理の分野、より詳細にはクロマイントラ予測モード導出に関する。

Claims (16)

  1. デコードデバイスによって実行されるコーディングの方法であって、
    ビデオビットストリームを取得するステップと、
    前記ビデオビットストリームをデコードして、現在のコーディングブロックのためのク
    ロマフォーマット表示情報の値を取得するステップと、
    前記現在のコーディングブロックのクロマ成分に対する初期イントラ予測モード値を取
    得するステップと、
    前記現在のコーディングブロックのためのクロマフォーマット表示情報の前記値が既定
    値に等しいとき、既定のマッピング関係および前記初期イントラ予測モード値に従って前
    記現在のコーディングブロックのクロマ成分に対するマッピングされたイントラ予測モー
    ド値を取得するステップと、
    前記マッピングされたイントラ予測モード値に従って前記現在のコーディングブロック
    のクロマ成分に対する予測サンプル値を取得するステップと
    を備える方法。
  2. 前記既定値が2または1であり、前記既定値が2であることはクロマフォーマットが4:2:2であることを表現し、前記既定値が1であることはクロマフォーマットが4:2:0であることを表現する、請求項1に記載の方法。
  3. 前記現在のコーディングブロックのクロマ成分に対する前記初期イントラ予測モード値
    が、前記現在のコーディングブロックのルーマ成分のためのイントラ予測モードに基づい
    て取得される、請求項1または2に記載の方法。
  4. 前記既定のマッピング関係を表すために以下の表、すなわち、
    または
    が使用され、モードXが前記初期イントラ予測モード値を表現し、モードYが前記マッピン
    グされたイントラ予測モード値を表現する、請求項1から3のいずれか一項に記載の方法。
  5. 前記既定のマッピング関係を表すために以下の表、すなわち、
    が使用され、モードXが前記初期イントラ予測モード値を表現し、モードYが前記マッピン
    グされたイントラ予測モード値を表現する、請求項1から4のいずれか一項に記載の方法。
  6. 前記既定のマッピング関係を表すために以下の表、すなわち、
    が使用され、モードXが前記初期イントラ予測モード値を表現し、モードYが前記マッピン
    グされたイントラ予測モード値を表現する、請求項1から5のいずれか一項に記載の方法。
  7. 前記既定のマッピング関係を表すために以下の表、すなわち、
    が使用され、モードXが前記初期イントラ予測モード値を表現し、モードYが前記マッピン
    グされたイントラ予測モード値を表現する、請求項1から6のいずれか一項に記載の方法。
  8. 前記既定のマッピング関係を表すために以下の表、すなわち、
    が使用され、モードXが前記初期イントラ予測モード値を表現し、モードYが前記マッピン
    グされたイントラ予測モード値を表現する、請求項1から3のいずれか一項に記載の方法。
  9. 請求項1から8のいずれか一項に記載の方法を実行するための処理回路を備えるデコーダ
    (30)。
  10. エンコードデバイスによって実行されるコーディングの方法であって、
    現在のコーディングブロックに対する初期イントラ予測モード値を取得するステップと、
    前記現在のコーディングブロックのルーマ成分に対する幅と前記現在のコーディングブロックのクロマ成分に対する幅との間の比がしきい値に等しいか否かを決定するステップと、
    前記現在のコーディングブロックのルーマ成分に対する前記幅と前記現在のコーディン
    グブロックのクロマ成分に対する前記幅との間の前記比が前記しきい値に等しいとき、既
    定のマッピング関係および前記初期イントラ予測モード値に従って前記現在のコーディン
    グブロックのクロマ成分に対するマッピングされたイントラ予測モード値を取得するステ
    ップと、
    前記マッピングされたイントラ予測モード値に従って前記現在のコーディングブロック
    をコーディングするステップと
    を備える方法。
  11. 前記方法が、
    前記現在のコーディングブロックのためのクロマフォーマット表示情報の値をビットス
    トリームにエンコードするステップをさらに備え、クロマフォーマット表示情報の前記値
    が、前記現在のコーディングブロックのルーマ成分に対する前記幅と前記現在のコーディ
    ングブロックのクロマ成分に対する前記幅との間の前記比を表現する、請求項10に記載の
    方法。
  12. 前記既定のマッピング関係を表すために以下の表、すなわち、
    または
    が使用され、モードXが前記初期イントラ予測モード値を表現し、モードYが前記マッピン
    グされたイントラ予測モード値を表現する、請求項10または11に記載の方法。
  13. 前記既定のマッピング関係を表すために以下の表、すなわち、
    が使用され、モードXが前記初期イントラ予測モード値を表現し、モードYが前記マッピン
    グされたイントラ予測モード値を表現する、請求項10または11に記載の方法。
  14. 請求項1から8および10から13のいずれか一項に記載の方法を実行するためのプログラム
    コードを備えるコンピュータプログラム製品。
  15. デコーダであって、
    1つまたは複数のプロセッサと、
    前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶
    する非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッ
    サによって実行されたとき、請求項1から8のいずれか一項に記載の方法を実行するように
    前記デコーダを構成する、デコーダ。
  16. エンコーダであって、
    1つまたは複数のプロセッサと、
    前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶
    する非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッ
    サによって実行されたとき、請求項10から13のいずれか一項に記載の方法を実行するよう
    に前記エンコーダを構成する、エンコーダ。
JP2023190927A 2019-08-01 2023-11-08 クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法 Pending JP2024012544A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EPPCT/EP2019/070804 2019-08-01
EP2019070804 2019-08-01
JP2022506502A JP7384998B2 (ja) 2019-08-01 2020-07-20 クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法
PCT/CN2020/103055 WO2021017923A1 (en) 2019-08-01 2020-07-20 An encoder, a decoder and corresponding methods of chroma intra mode derivation

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022506502A Division JP7384998B2 (ja) 2019-08-01 2020-07-20 クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法

Publications (1)

Publication Number Publication Date
JP2024012544A true JP2024012544A (ja) 2024-01-30

Family

ID=74230185

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022506502A Active JP7384998B2 (ja) 2019-08-01 2020-07-20 クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法
JP2023190927A Pending JP2024012544A (ja) 2019-08-01 2023-11-08 クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022506502A Active JP7384998B2 (ja) 2019-08-01 2020-07-20 クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法

Country Status (12)

Country Link
US (1) US20220159263A1 (ja)
EP (2) EP4383718A2 (ja)
JP (2) JP7384998B2 (ja)
KR (1) KR20220032625A (ja)
CN (5) CN113348665B (ja)
AU (1) AU2020322553A1 (ja)
BR (1) BR112022001411A2 (ja)
CA (1) CA3145479A1 (ja)
CL (1) CL2022000251A1 (ja)
IL (1) IL290049A (ja)
MX (1) MX2022001306A (ja)
WO (1) WO2021017923A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220032634A (ko) * 2019-08-06 2022-03-15 에이치에프아이 이노베이션 인크. 인트라 예측 모드 매핑을 사용하여 비디오 데이터를 인코딩 또는 디코딩하는 방법 및 장치
CN113489974B (zh) * 2021-07-02 2023-05-16 浙江大华技术股份有限公司 帧内预测方法、视频/图像编解码方法及相关装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
JP5614381B2 (ja) 2011-06-23 2014-10-29 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
WO2013102293A1 (en) * 2012-01-04 2013-07-11 Mediatek Singapore Pte. Ltd. Improvements of luma-based chroma intra prediction
US20140198855A1 (en) * 2013-01-14 2014-07-17 Qualcomm Incorporated Square block prediction
KR102057369B1 (ko) * 2013-12-13 2020-01-22 퀄컴 인코포레이티드 3d 비디오 코딩에서 깊이 인트라-예측 및 인터-예측 모드들을 위한 단순화된 깊이 코딩 (sdc) 의 시그널링
WO2017034331A1 (ko) 2015-08-27 2017-03-02 엘지전자 주식회사 영상 코딩 시스템에서 크로마 샘플 인트라 예측 방법 및 장치
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
EP3446480A1 (en) * 2016-04-22 2019-02-27 VID SCALE, Inc. Prediction systems and methods for video coding based on filtering nearest neighboring pixels
CN110199523B (zh) * 2017-01-13 2023-06-13 Vid拓展公司 用于帧内平面编码的预测方法
US10531085B2 (en) * 2017-05-09 2020-01-07 Futurewei Technologies, Inc. Coding chroma samples in video compression
CN109922348B (zh) * 2017-12-13 2020-09-18 华为技术有限公司 图像编解码方法和装置
CN112740685B (zh) * 2018-09-19 2024-06-07 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
CA3135968C (en) * 2019-04-18 2024-05-14 Beijing Bytedance Network Technology Co., Ltd. Restriction on applicability of cross component mode
CN114342372A (zh) * 2019-06-19 2022-04-12 韩国电子通信研究院 帧内预测模式、以及熵编解码方法和装置

Also Published As

Publication number Publication date
KR20220032625A (ko) 2022-03-15
JP2022542454A (ja) 2022-10-03
EP3991409B1 (en) 2024-06-05
BR112022001411A2 (pt) 2022-03-22
EP4383718A2 (en) 2024-06-12
EP3991409A4 (en) 2022-08-17
CN117896520A (zh) 2024-04-16
WO2021017923A1 (en) 2021-02-04
CN117896521A (zh) 2024-04-16
US20220159263A1 (en) 2022-05-19
AU2020322553A1 (en) 2022-02-24
CN113348665B (zh) 2024-01-02
CN113348665A (zh) 2021-09-03
MX2022001306A (es) 2022-03-02
CN117896519A (zh) 2024-04-16
IL290049A (en) 2022-03-01
JP7384998B2 (ja) 2023-11-21
CL2022000251A1 (es) 2022-09-20
CA3145479A1 (en) 2021-02-04
CN117528078A (zh) 2024-02-06
EP3991409A1 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
US20210344915A1 (en) Encoder, a decoder and corresponding methods of intra prediction
US10986336B2 (en) Encoder, a decoder and corresponding methods for intra prediction
JP7391991B2 (ja) イントラ平滑化のための方法および装置
US20240056596A1 (en) Encoder, decoder and corresponding methods of most probable mode list construction for blocks with multi-hypothesis prediction
JP2024026231A (ja) イントラ予測モードに関連するエンコーダ、デコーダ、および対応する方法
JP7372465B2 (ja) シーケンスパラメータセット内でのサブピクチャのシグナリングのためのエンコーダ、デコーダ、および対応する方法
JP7436646B2 (ja) ピクチャヘッダのシグナリングを簡略化するためのエンコーダ、デコーダ及び対応する方法
JP2024012544A (ja) クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法
AU2024201141A1 (en) The method and apparatus for intra sub-partitions coding mode
JP2024032777A (ja) 重み付き予測のための高レベルシグナリングの方法および装置
AU2024201152A1 (en) An encoder, a decoder and corresponding methods using intra mode coding for intra prediction
WO2021190525A1 (en) An encoder, a decoder and corresponding methods
US20220345712A1 (en) Method and apparatus for intra prediction
US20220159251A1 (en) Method and apparatus of sample adaptive offset in-loop filter with application region size constraint
JP2023515189A (ja) スライス用のピクチャパーティション情報をシグナリングするためのデコーダ及び対応する方法
RU2817389C2 (ru) Кодер, декодер и соответствующие способы получения внутрикадрового режима цветности
US20220321888A1 (en) Method and apparatus of position dependent prediction combination for oblique directional intra prediction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128