JP2022504383A - マージモードのためのエンコーダ、デコーダ、および対応する方法 - Google Patents
マージモードのためのエンコーダ、デコーダ、および対応する方法 Download PDFInfo
- Publication number
- JP2022504383A JP2022504383A JP2021518874A JP2021518874A JP2022504383A JP 2022504383 A JP2022504383 A JP 2022504383A JP 2021518874 A JP2021518874 A JP 2021518874A JP 2021518874 A JP2021518874 A JP 2021518874A JP 2022504383 A JP2022504383 A JP 2022504383A
- Authority
- JP
- Japan
- Prior art keywords
- list
- prediction
- candidate
- block
- candidates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 150
- 230000033001 locomotion Effects 0.000 claims abstract description 272
- 238000012545 processing Methods 0.000 claims abstract description 63
- 230000008569 process Effects 0.000 claims description 61
- 238000004590 computer program Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 description 119
- 238000013139 quantization Methods 0.000 description 80
- 238000004891 communication Methods 0.000 description 40
- 238000006243 chemical reaction Methods 0.000 description 32
- 230000009466 transformation Effects 0.000 description 32
- 239000000872 buffer Substances 0.000 description 25
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 22
- 238000010276 construction Methods 0.000 description 18
- 230000002123 temporal effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 230000006835 compression Effects 0.000 description 13
- 238000007906 compression Methods 0.000 description 13
- 238000000638 solvent extraction Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 11
- 241000023320 Luma <angiosperm> Species 0.000 description 10
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 10
- 238000005192 partition Methods 0.000 description 10
- 230000011218 segmentation Effects 0.000 description 10
- 238000009795 derivation Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000002441 reversible effect Effects 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 238000003491 array Methods 0.000 description 6
- 230000011664 signaling Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 229920001690 polydopamine Polymers 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000002427 irreversible effect Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 101150114515 CTBS gene Proteins 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Analogue/Digital Conversion (AREA)
Abstract
Description
現在のブロックの近隣のブロックの動き情報に応じて第1のリストを構築するステップと、現在のブロックの予測情報を取得するステップと、現在のブロックの予測情報が、下位ブロック予測が現在のブロックに適用されることを示すとき、第1のリストに従って現在のブロックに関する単予測(uni-prediction)の候補を取得するステップと、現在のブロックのインター予測を実行するために現在のブロックに関する単予測の候補を使用するステップとを含む。
2つの単予測の候補の間の類似性を決定することを含む。
1つ以上のプロセッサと、
プロセッサに結合され、プロセッサによって実行するためのプログラミングを記憶する非一時的コンピュータ可読ストレージ媒体であって、プログラミングが、プロセッサによって実行されるときに、方法の実施形態を実行するようにデコーダを構成する、非一時的コンピュータ可読ストレージ媒体と
を含む。
1つ以上のプロセッサと、
プロセッサに結合され、プロセッサによって実行するためのプログラミングを記憶する非一時的コンピュータ可読ストレージ媒体であって、プログラミングが、プロセッサによって実行されるときに、方法の実施形態を実行するようにエンコーダを構成する、非一時的コンピュータ可読ストレージ媒体と
を含む。
図2は、本出願の技術を実装するように構成される例示的なビデオエンコーダ20の概略的なブロック図を示す。図2の例において、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、ループフィルタユニット220、復号ピクチャバッファ(DPB: decoded picture buffer)230、モード選択ユニット260、エントロピー符号化ユニット270、および出力272(または出力インターフェース272)を含む。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、および区分けユニット262を含んでもよい。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(図示せず)を含んでもよい。図2に示されたビデオエンコーダ20は、ハイブリッドビデオエンコーダまたはハイブリッドビデオコーデックによるビデオエンコーダとも呼ばれてもよい。
エンコーダ20は、たとえば、入力201を介してピクチャ17(またはピクチャデータ17)、たとえば、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスのピクチャを受け取るように構成されてもよい。受け取られたピクチャまたはピクチャデータはまた、前処理されたピクチャ19(または前処理されたピクチャデータ19)であってもよい。簡単にするために、以下の説明は、ピクチャ17に言及する。ピクチャ17は、(特に、ビデオコーディングにおいて、現在のピクチャをその他のピクチャ、たとえば、同じビデオシーケンス、つまり、現在のピクチャも含むビデオシーケンスの既に符号化されたおよび/または復号されたピクチャと区別するために)現在のピクチャまたはコーディングされるピクチャとも呼ばれてもよい。
残差計算ユニット204は、たとえば、サンプル毎に(ピクセル毎に)ピクチャブロック203のサンプル値から予測ブロック265のサンプル値を差し引いてサンプル領域において残差ブロック205を取得することによって、ピクチャブロック203および予測ブロック265(予測ブロック265についてのさらなる詳細は後で与えられる)に基づいて残差ブロック205(残差205とも呼ばれる)を計算するように構成されてもよい。
変換処理ユニット206は、残差ブロック205のサンプル値に対して変換、たとえば、離散コサイン変換(DCT)または離散サイン変換(DST)を適用して変換領域において変換係数207を取得するように構成されてもよい。変換係数207は、変換残差係数とも呼ばれ、変換領域において残差ブロック205を表現してもよい。
量子化ユニット208は、たとえば、スカラー量子化またはベクトル量子化を適用することによって変換係数207を量子化して量子化された係数209を取得するように構成されてもよい。量子化された係数209は、量子化された変換係数209または量子化された残差係数209とも呼ばれてもよい。
逆量子化ユニット210は、たとえば、量子化ユニット208と同じ量子化ステップサイズに基づいてまたはそれを使用して、量子化ユニット208により適用された量子化方式の逆を適用することによって、量子化された係数に量子化ユニット208の逆量子化を適用して逆量子化された係数211を取得するように構成される。逆量子化された係数211は、逆量子化された残差係数211とも呼ばれ、--量子化による損失が原因で概して変換係数と同一ではないが--変換係数207に対応してもよい。
逆変換処理ユニット212は、変換処理ユニット206によって適用された変換の逆変換、たとえば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)またはその他の逆変換を適用してサンプル領域において再構築された残差ブロック213(または対応する逆量子化された係数213)を取得するように構成される。再構築された残差ブロック213は、変換ブロック(transform block)213とも呼ばれてもよい。
再構築ユニット214(たとえば、加算器または合算器214)は、たとえば、再構築された残差ブロック213のサンプル値と予測ブロック265のサンプル値とを--サンプル毎に--足すことによって予測ブロック265に変換ブロック213(すなわち、再構築された残差ブロック213)を足してサンプル領域において再構築されたブロック215を取得するように構成される。
ループフィルタユニット220(または短く「ループフィルタ」220)は、再構築されたブロック215をフィルタリングしてフィルタリングされたブロック221を取得する、または概して、再構築されたサンプルをフィルタリングしてフィルタリングされたサンプルを取得するように構成される。ループフィルタユニットは、たとえば、ピクセルの遷移を平滑化するかまたはそれ以外の方法でビデオの品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(SAO: sample-adaptive offset)フィルタ、または1つもしくは複数のその他のフィルタ、たとえば、バイラテラルフィルタ、適応ループフィルタ(ALF: adaptive loop filter)、鮮鋭化、平滑化フィルタ、もしくは共同フィルタ(collaborative filter)、もしくはこれらの任意の組み合わせなどの1つ以上のループフィルタを含んでもよい。ループフィルタユニット220は図2にループ内フィルタであるものとして示されるが、その他の構成において、ループフィルタユニット220は、ループ後フィルタとして実装されてもよい。フィルタリングされたブロック221は、フィルタリングされた再構築されたブロック221とも呼ばれてもよい。
復号ピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデータを符号化するための参照ピクチャまたは概して参照ピクチャデータを記憶するメモリであってもよい。DPB230は、同期DRAM(SDRAM)を含むダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗変化型RAM(RRAM: resistive RAM)、またはその他の種類のメモリデバイスなどの様々なメモリデバイスのいずれかによって形成されてもよい。復号ピクチャバッファ(DPB)230は、1つ以上のフィルタリングされたブロック221を記憶するように構成されてもよい。復号ピクチャバッファ230は、同じ現在のピクチャまたは異なるピクチャ、たとえば、既に再構築されたピクチャのその他の既にフィルタリングされたブロック、たとえば、既に再構築され、フィルタリングされたブロック221を記憶するようにさらに構成されてもよく、たとえば、インター予測のために、完全な既に再構築された、つまり、復号されたピクチャ(および対応する参照ブロックおよびサンプル)ならびに/または部分的に再構築された現在のピクチャ(および対応する参照ブロックおよびサンプル)を提供してもよい。復号ピクチャバッファ(DPB)230は、たとえば、再構築されたブロック215がループフィルタユニット220によってフィルタリングされない場合、1つもしくは複数のフィルタリングされていない再構築されたブロック215もしくは概してフィルタリングされていない再構築されたサンプルを記憶し、または再構築されたブロックもしくはサンプルの任意のその他のさらに処理されたバージョンを記憶するようにも構成されてもよい。
モード選択ユニット260は、区分けユニット262、インター予測ユニット244、およびイントラ予測ユニット254を含み、元のピクチャデータ、たとえば、元のブロック203(現在のピクチャ17の現在のブロック203)と、再構築されたピクチャデータ、たとえば、同じ(現在の)ピクチャの、および/またはたとえば復号ピクチャバッファ230もしくはその他のバッファ(たとえば、図示されていないラインバッファ)からの1つもしくは複数の既に復号されたピクチャからのフィルタリングされたおよび/またはフィルタリングされていない再構築されたサンプルまたはブロックとを受け取るかまたは取得するように構成される。再構築されたピクチャデータは、予測ブロック265または予測子(predictor)265を取得するための予測、たとえば、インター予測またはイントラ予測のための参照ピクチャデータとして使用される。
区分けユニット262は、現在のブロック203をより小さな区画、たとえば、正方形または長方形のサイズのより小さなブロックに区分け(または分割)してもよい。これらのより小さなブロック(下位ブロックとも呼ばれてもよい)は、より一層小さな区画にさらに区分けされてもよい。これは、木区分けまたは階層的木区分けとも呼ばれ、たとえば、ルートツリーレベル0(階層レベル0、深さ0)のルートブロックが、再帰的に区分けされ、たとえば、次に低いツリーレベルの2つ以上のブロック、たとえば、ツリーレベル1(階層レベル1、深さ1)のノードに区分けされてもよく、これらのブロックが、次に低いレベル、たとえば、ツリーレベル2(階層レベル2、深さ2)の2つ以上のブロックに再び区分けされてもよく、たとえば、終了基準が満たされる、たとえば、最大のツリーの深さまたは最小のブロックサイズが達せられるので区分けが終了されるまで以下同様である。さらに区分けされないブロックは、木の葉ブロックまたは葉ノードとも呼ばれる。2つの区画への区分けを使用する木は、二分木(BT)と呼ばれ、3つの区画への区分けを使用する木は、三分木(TT)と呼ばれ、4つの区画への区分けを使用する木は、四分木(QT)と呼ばれる。
1組のイントラ予測モードは、たとえばHEVCにおいて定義された35個の異なるイントラ予測モード、たとえば、DC(もしくは平均)モードおよび平面モードのような非方向性モード、または方向性モードを含んでもよく、あるいはたとえばVVCのために定義された67個の異なるイントラ予測モード、たとえば、DC(もしくは平均)モードおよび平面モードのような非方向性モード、または方向性モードを含んでもよい。
1組の(または可能な)インター予測モードは、利用可能な参照ピクチャ(つまり、たとえば、DBP230に記憶された前の少なくとも部分的に復号されたピクチャ)ならびにその他のインター予測パラメータ、たとえば、最もよく一致する参照ブロックを探索するために参照ピクチャ全体が使用されるのかもしくは参照ピクチャの一部のみ、たとえば、現在のブロックのエリアの周りの探索窓(search window)エリアのみが使用されるか、ならびに/またはたとえば、ピクセル補間、たとえば、半/セミペル(half/semi-pel)および/もしくは4分の1ペル補間が適用されるか否かに依存する。
エントロピー符号化ユニット270は、たとえば、ビデオデコーダ30がパラメータを受信し、復号のために使用してもよいように、たとえば、符号化されたビットストリーム21の形態で出力272を介して出力されうる符号化されたピクチャデータ21を得るために、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/またはその他のシンタックス要素に対して、たとえば、エントロピー符号化アルゴリズムもしくは方式(たとえば、可変長コーディング(VLC: variable length coding)方式、コンテキスト適応VLC方式(CAVLC: context adaptive VLC)、算術コーディング方式、2値化、コンテキスト適応2値算術コーディング(CABAC: context adaptive binary arithmetic coding)、シンタックスに基づくコンテキスト適応2値算術コーディング(SBAC: syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE: probability interval partitioning entropy) コーディング、もしくは別のエントロピー符号化方法もしくは技術)またはバイパス(bypass)(非圧縮)を適用するように構成される。符号化されたビットストリーム21は、ビデオデコーダ30に送信されるか、または後の送信またはビデオデコーダ30による取り出しのためにメモリに記憶されてもよい。
図3は、本出願の技術を実装するように構成されるビデオデコーダ30の例を示す。ビデオデコーダ30は、復号されたピクチャ331を取得するために、たとえば、エンコーダ20によって符号化された符号化されたピクチャデータ21(たとえば、符号化されたビットストリーム21)を受信するように構成される。符号化されたピクチャデータまたはビットストリームは、符号化されたピクチャデータ、たとえば、符号化されたビデオスライスのピクチャブロックおよび関連するシンタックス要素を表すデータを復号するための情報を含む。
エントロピー復号ユニット304は、ビットストリーム21(または概して符号化されたピクチャデータ21)を解析し、たとえば、符号化されたピクチャデータ21にエントロピー復号を実行して、たとえば、量子化された係数309ならびに/あるいは復号されたコーディングパラメータ(図3に示さず)、たとえば、インター予測パラメータ(たとえば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ(たとえば、イントラ予測モードもしくはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/またはその他のシンタックス要素のいずれかまたはすべてを取得するように構成される。エントロピー復号ユニット304は、エンコーダ20のエントロピー符号化ユニット270に関連して説明された符号化方式に対応する復号アルゴリズムまたは方式を適用するように構成されてもよい。エントロピー復号ユニット304は、インター予測パラメータ、イントラ予測パラメータ、および/またはその他のシンタックス要素をモード選択ユニット360に提供し、その他のパラメータをデコーダ30のその他のユニットに提供するようにさらに構成されてもよい。ビデオデコーダ30は、ビデオスライスのレベルおよび/またはビデオブロックのレベルでシンタックス要素を受信してもよい。
逆量子化ユニット310は、(たとえば、エントロピー復号ユニット304によって、たとえば、解析および/または復号することによって)符号化されたピクチャデータ21から量子化パラメータ(QP)(または概して逆量子化に関連する情報)および量子化された係数を受け取り、復号された量子化された係数309に対して量子化パラメータに基づいて逆量子化を適用して、変換係数311とも呼ばれてもよい逆量子化された係数311を取得するように構成されてもよい。逆量子化プロセスは、量子化の度合いと、同様に、適用されるべき逆量子化の度合いとを決定するために、ビデオスライス内の各ビデオブロックに関してビデオエンコーダ20によって決定された量子化パラメータを使用することを含んでもよい。
逆変換処理ユニット312は、変換係数311とも呼ばれる逆量子化された係数311を受け取り、サンプル領域において再構築された残差ブロック213を取得するために、逆量子化された係数311に変換を適用するように構成されてもよい。再構築された残差ブロック213は、変換ブロック213とも呼ばれてもよい。変換は、逆変換、たとえば、逆DCT、逆DST、逆整数変換、または概念的に同様の逆変換プロセスであってもよい。逆変換処理ユニット312は、逆量子化された係数311に適用される変換を決定するために、(たとえば、エントロピー復号ユニット304によって、たとえば、解析および/または復号することによって)符号化されたピクチャデータ21から変換パラメータまたは対応する情報を受け取るようにさらに構成されてもよい。
再構築ユニット314(たとえば、加算器または合算器314)は、たとえば、再構築された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを足すことによって予測ブロック365に再構築された残差ブロック313を足してサンプル領域において再構築されたブロック315を取得するように構成されてもよい。
(コーディングループ内かまたはコーディングループの後かのどちらかの)ループフィルタユニット320は、たとえば、ピクセルの遷移を平滑化するかまたはそれ以外の方法でビデオの品質を改善するために再構築されたブロック315をフィルタリングしてフィルタリングされたブロック321を取得するように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(SAO)フィルタ、または1つもしくは複数のその他のフィルタ、たとえば、バイラテラルフィルタ、適応ループフィルタ(ALF)、鮮鋭化、平滑化フィルタ、もしくは共同フィルタ、もしくはこれらの任意の組み合わせなどの1つ以上のループフィルタを含んでもよい。ループフィルタユニット320は図3にループ内フィルタであるものとして示されるが、その他の構成において、ループフィルタユニット320は、ループ後フィルタとして実装されてもよい。
次いで、ピクチャの復号されたビデオブロック321は、その他のピクチャに関するその後の動き補償のための参照ピクチャとしておよび/またはディスプレイ上にそれぞれ出力するために復号されたピクチャ331を記憶する復号ピクチャバッファ330に記憶される。
インター予測ユニット344は、インター予測ユニット244と(特に動き補償ユニットと)同一であってもよく、イントラ予測ユニット354は、インター予測ユニット254と機能的に同一であってもよく、(たとえば、エントロピー復号ユニット304によって、たとえば、解析および/または復号することによって)復号されたピクチャデータ21から受け取られた区分けおよび/または予測パラメータまたはそれぞれの情報に基づいて分割または区分けの判断および予測を実行する。モード選択ユニット360は、予測ブロック365を得るために、(フィルタリングされたまたはフィルタリングされていない)再構築されたピクチャ、ブロック、またはそれぞれのサンプルに基づいてブロック毎に予測(イントラまたはインター予測)を実行するように構成されてもよい。
ux= ( mvx+2bitDepth ) % 2bitDepth (1)
mvx = ( ux >= 2bitDepth-1 ) ? (ux - 2bitDepth ) : ux (2)
uy= ( mvy+2bitDepth ) % 2bitDepth (3)
mvy = ( uy >= 2bitDepth-1 ) ? (uy - 2bitDepth ) : uy (4)
mvx = ( ux >= 2bitDepth-1 ) ? (ux - 2bitDepth ) : ux (6)
uy= ( mvpy + mvdy +2bitDepth ) % 2bitDepth (7)
mvy = ( uy >= 2bitDepth-1 ) ? (uy - 2bitDepth ) : uy (8)
vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)
vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)
関数Clip3の定義は、次の通りである。
マージ動き候補リストを構築するプロセスが、ITU-T H.265規格によって導入されている。別の実施形態において、マージ動き候補リストは、多目的ビデオコーディング(VVC)の拡張されたマージ予測によって使用される。
1) 空間的な近隣のCUからの空間的MVP
2) 同じ場所にあるCUからの時間的MVP
3) FIFOテーブルからの履歴に基づくMVP
4) ペアの平均MVP
5) ゼロMV
実装においては、最大4つのマージ候補が、図12に示される位置にある候補の中から選択される。導出の順序は、B1、A1、B0、A0、およびB2である。位置A0、B0、B1、A1のいずれのCUも(たとえば、それが別のスライスもしくはタイルに属するので)利用可能でないかまたはイントラコーディングされるときにのみ、位置B2が考慮される。位置B1の候補が追加された後、残りの候補の追加は、コーディング効率が改善されるように同じモーション情報を有する候補がリストから除外されることを保証する冗長性の検査を受ける。計算の複雑さを減らすため、すべての可能な候補のペアが、上述の冗長性の検査において考慮されるとは限らない。その代わりに、図13において矢印によってつながれたペアのみが考慮され、冗長性の検査のために使用された対応する候補が同じ動き情報を持たない場合に、候補がリストに追加されるだけである。
実装においては、1つの候補のみが、リストに追加される。特に、この時間的マージ候補の導出においては、同じ場所にあるCUが同じ場所にある参照ピクチャに属することに基づいて、スケーリングされた動きベクトルが導出される。同じ場所にあるCUの導出のために使用される参照ピクチャリストが、スライスヘッダ内で明示的にシグナリングされる。時間的マージ候補に関するスケーリングされた動きベクトルは、図14の破線によって示されるように取得され、POC距離tbおよびtdを使用して同じ場所にあるCUの動きベクトルからスケーリングされ、tbは、現在のピクチャの参照ピクチャと現在のピクチャとの間のPOCの差であるものと定義され、tdは、同じ場所にあるピクチャの参照ピクチャと同じ場所にあるピクチャとの間のPOCの差であるものと定義される。時間的マージ候補の参照ピクチャインデックスは、ゼロに等しいように設定される。
履歴に基づくMVP(HMVP)マージ候補は、空間的MVPおよびTMVPの後にマージリストに追加される。実装においては、既にコーディングされたブロックの動き情報が、テーブルに記憶され、現在のCUのMVPとして使用される。複数のHMVP候補を有するテーブルが、符号化/復号プロセス中に保守される。テーブルは、新しいCTUの行に行き当たるとき、リセットされる(空にされる)。下位ブロックでないインターコーディングされたCUが存在するときにはいつも、関連する動き情報が、新しいHMVP候補としてテーブルの最後のエントリに追加される。
既存のマージ候補リストの候補の予め定義されたペアを平均することによって、ペアの平均候補が生成され、予め定義されたペアは、たとえば、(0, 1)として定義され、数は、マージ候補リストへのマージインデックスを表す。平均された動きベクトルが、各参照リストに関して別々に計算される。両方の動きベクトルが1つのリスト内で利用可能である場合、これら2つの動きベクトルが、たとえそれらが異なる参照ピクチャを指すとしても平均され、1つの動きベクトルのみが利用可能である場合、その1つをそのまま使用し、動きベクトルが利用可能でない場合、このリストを無効のままとする。
1. 5つの空間的な近隣のブロックから導出される最大4つの空間的候補、
2. 2つの時間的な同じ場所にあるブロックから1つの時間的候補が導出される、
3. 組み合わされた双予測の(bi-predictive)候補を含む追加的な候補、および
4. ゼロ動きベクトル候補
空間的な近隣のブロックの動き情報が、まず、動き情報候補としてマージ候補リストに追加される(例において、マージ候補リストは、最初の動きベクトルがマージ候補リストに追加される前は空のリストであってもよい)。ここで、マージリストに挿入されると考えられる近隣のブロックが、図7bに示される。インター予測のブロックのマージのために、最大4つの候補が、A1、B1、B0、A0、およびB2をこの順序で順番に調べることによってマージリストに挿入される。
カテゴリ1、リスト内に冗長な動きデータを有する候補を持つことを避ける
カテゴリ2、冗長なシンタックスを生成する、その他の手段によって表現されうる2つの区画をマージすることを防止する
図7aは、時間的動き情報候補が取り出されるブロックの座標を示した。同じ場所にあるブロックは、現在のブロックの同じ-x、-y座標を有するが、異なるピクチャ(参照ピクチャのうちの1つ)上にあるブロックである。時間的動き情報候補は、リストが満杯でない場合、マージリストに追加される(例において、マージリストは、マージリストの候補の量が閾値未満であるとき、満杯でなく、たとえば、閾値は、4、5、6などであってもよい)。
空間的および時間的動き情報候補の挿入後に、マージリストがまだ満杯でない場合、生成された候補が、リストを満たすために追加される。例において、マージリストのサイズは、シーケンスパラメータセット内に示され、コーディングされたビデオシーケンス全体を通じて固定である。
インター予測モードは、「双予測」と呼ばれ、2つの動きベクトルが、ブロックを予測するために使用される。動きベクトルは、同じ参照ピクチャまたは異なる参照ピクチャを指し得、参照ピクチャは、参照ピクチャリストIDおよび参照ピクチャインデックスによって示されうる。たとえば、第1の動きベクトルが、参照ピクチャリストL0の第1のピクチャを指してもよく、第2の動きベクトルが、参照ピクチャリストL1の第1のピクチャを指してもよい。2つの参照ピクチャリスト(たとえば、L0およびL1)が保有されてもよく、第1の動きベクトルによって指されるピクチャが、リストL0から選択され、第2の動きベクトルによって指されるピクチャが、リストL1から選択される。
・L0部分: 動きベクトル、および参照ピクチャリストL0のエントリを指す参照ピクチャインデックス
・L1部分: 動きベクトル、および参照ピクチャリストL1のエントリを指す参照ピクチャインデックス
三角予測モードの概念は、動き補償予測のための三角形区画である。図9に示される例として、CUが、対角方向または逆対角方向に2つの三角予測ユニットに分割される。CU内の各三角予測ユニットは、単予測の候補リストから導出される単予測の動きベクトルおよび参照フレームインデックスを使用してインター予測される。適応的な重み付けプロセスが、三角予測ユニットを予測した後、対角線のエッジに対して実行される。それから、変換および量子化プロセスが、CU全体に適用される。このモードは、スキップモードおよびマージモードに対して適用されるだけであることが留意される。
三角予測モードは、ブロックが2つのブロックに分割される下位ブロック予測の特別な場合である。上記の例においては、2つのブロック分割方向が示される(45度の区画および135度の区画)。しかし、その他の区画の角度および区画の割合も、可能である(たとえば、図11の例)ことが留意される。
・ブロックが単予測を適用するのかまたは双予測を適用するのか
・予測において使用される参照ピクチャのID(ブロックが双予測を適用する場合は2つのID)
・動きベクトル(ブロックが双予測される場合は2つの動きベクトル)
・追加的な情報
・ブロックが三角予測モードを適用する場合、インジケーションがビットストリームに含められ、それぞれの三角形の部分を予測するために使用される動き情報を示すために使用される。たとえば、インジケーションは、2つのマージインデックスの形態であり得、第1のマージインデックスが、第1の部分を予測するために適用されるマージリストのエントリを指定し、第2のマージインデックスが、第2の部分を予測するために適用されるマージリストのエントリを指定する。
・個々の部分に双予測を適用することは禁止され、これは、それぞれの部分において使用されるように示される動き情報が単予測を示さなければならないことを意味する。
・マージリスト内に、単予測の動き情報候補および双予測の動き情報候補を有することが可能である。双予測の候補を選択することが禁じられるので、これは、性能の低下を引き起こす。単予測の候補のみが使用されうるので、候補リストのサイズが事実上縮小される。
ステップ2.2: 候補が双予測の候補である場合、2つの単予測の候補が生成され、2つの単予測の候補が以下の順序に従って第2のリストに追加される。
・第1の動き情報候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む(候補は、第2のリストに挿入する前に単予測の候補として設定される)。
・第2の動き情報候補がL1参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む(候補は、第2のリストに挿入する前に単予測の候補として設定される)。
第1のリストの第1の候補から開始する。
ステップ2.2: 候補が双予測の候補である場合、2つの単予測の候補が生成され、2つの単予測の候補が以下の順序に従って第2のリストに追加される。
・第1の候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。動きベクトルは、mv_L0と表記され、(リストL0の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L0と表記される。
・第2の候補がL1参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。動きベクトルは、mv_L1と表記され、(リストL1の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L1と表記される。POC_L0がPOC_L1に等しい場合およびmv_L0がmv_L1に似ている場合、次いで、第2の候補は、第2のリストに含まれない。POC_L0がPOC_L1と等しくないかまたはmv_L0がmv_L1に似ていないかのどちらかの場合、第2の候補は、第2のリストに含まれる。
-K< (MV1.x - MV2.x) < Kおよび-K< (MV1.y - MV2.y) < K
式中、MV1.xは、第1の動きベクトルのx成分を表し(MV2.xの意味はMV1.xと同様である)、MV1.y(MV2.yの意味はMV1.yと同様である)は、y成分を表し、Kは、正の数である。この例においては、両方の不等式が当てはまる場合、動きベクトルMV1は、動きベクトルMV2に似ているとみなされる。
(MV1.x >> N) - (MV2.x >>N) == Kおよび(MV1.x >> N) - (MV2.x >>N) == K
第1のリストのすべてのエントリに関して、
・候補が双予測の候補であるか否かを調べる。候補が双予測の候補である場合、L0部分に属する動きベクトルは、mv_L0と表記され、参照インデックスは、ref_idx_L0と表記され、(リストL0の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L0と表記される。L1部分に属する動きベクトルは、mv_L1と表記され、参照インデックスは、ref_idx_L1と表記され、(リストL1の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L1と表記される。
・POC_L0がPOC_L1に等しい場合およびmv_L0がmv_L1に似ている(または実施形態の別の例においては同一である)場合、候補は単予測の候補として更新され、動きベクトルはMV_L0に設定され、参照ピクチャリストはL0に設定され、参照インデックスはref_idx_L0に設定される。
ステップ3.3: 候補が双予測の候補である場合、2つの単予測の候補が生成され、2つの単予測の候補が以下の順序に従って第2のリストに追加される。
・第1の候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。
・第2の候補がL1参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。
・第1の動き情報候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。第1の候補を第2のリストに追加する。
・第2の動き情報候補がL1参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。第2のリストが一杯でない場合、第2の候補を第2のリストに追加する。
ステップ2.3: 動き情報候補が双予測の候補である場合、1つの単予測の候補が、以下のように双予測の候補に基づいて生成され、第2のリストに追加される。
・生成された単予測の動き情報候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む(候補は、第2のリストに挿入する前に単予測の候補として設定される)。
ステップ2.3: 候補が双予測の候補である場合、2つの単予測の候補が生成され、以下の順序に従って、1つの単予測の候補が第2のリストに追加され、1つの単予測の候補が第3のリストに追加される。
・第1の動き情報候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む(候補は、第2のリストに挿入する前に単予測の候補として設定される)。
・第2の動き情報候補がL1参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む(候補は、第3のリストに挿入する前に単予測の候補として設定される)。
ステップ2.3: 候補が双予測の候補である場合、2つの単予測の候補が前記1つの双予測の候補に応じて生成され、2つの単予測の候補が以下の順序に従って第2のリストに追加される。
・第1の候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。動きベクトルは、mv_L0と表記され、(リストL0の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L0と表記される。
・第2の候補がL1参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。動きベクトルは、mv_L1と表記され、(リストL1の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L1と表記される。
○以下の条件のすべてが満たされる場合、第2の候補が、第2のリストに挿入される。
◆カウンタの値が、0よりも大きい。
◆POC_L0がPOC_L1に等しくないかまたはmv_L0がmv_L1に似ていないかのどちらかである場合。
○カウンタの値がゼロに等しい場合、次いで、第2の候補が、第2のリストに挿入される。
・カウンタの値がゼロよりも大きい場合、カウンタの値が、1減らされる。
ステップ2.3: 候補が双予測の候補である場合、2つの単予測の候補が前記1つの双予測の候補に応じて生成され、2つの単予測の候補が以下の順序に従って第2のリストに追加される。
・第1の候補がL0参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。動きベクトルは、mv_L0と表記され、(リストL0の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L0と表記される。
・第2の候補がL1参照ピクチャリストに対応する動きベクトルおよび参照ピクチャインデックスを含む。動きベクトルは、mv_L1と表記され、(リストL1の参照ピクチャインデックスに基づいて計算された)参照ピクチャのPOC値は、POC_L1と表記される。
○以下の条件のすべてが満たされる場合、第2の候補が、第2のリストに挿入される。
◆カウンタの値が、0よりも大きい。
◆POC_L0がPOC_L1に等しくないかまたはmv_L0がmv_L1に似ていないかのどちらかである場合。
○カウンタの値がゼロに等しい場合、次いで、第2の候補が、第2のリストに挿入される。
-K< (MV1.x - MV2.x) < Kおよび-K< (MV1.y - MV2.y) < K
式中、MV1.xは、第1の動きベクトルのx成分を表し(MV2.xの意味はMV1.xと同様である)、MV1.y(MV2.yの意味はMV1.yと同様である)は、y成分を表し、Kは、正の数である。この例においては、両方の不等式が当てはまる場合、動きベクトルMV1は、動きベクトルMV2に似ているとみなされる。
(MV1.x >> N) - (MV2.x >>N) == Kおよび(MV1.x >> N) - (MV2.x >>N) == K
現在のブロックの近隣のブロックの動き情報に応じて第1のリストを構築するステップと、
第1のリストに応じて第2のリストを構築するステップと、
現在のブロックの予測情報またはブロックサイズ情報を取得するステップと、
現在のブロックの予測情報またはブロックサイズ情報に従って現在のブロックのインター予測を実行するために第1のリストまたは第2のリストを使用するステップと
を含む、方法。
第1のリストの1つの双予測の候補に応じて2つの単予測の候補を生成するステップと、
2つの単予測の候補に応じて第2のリストを構築するステップと
を含む、例1または2の方法。
第1のリストの1つの双予測の候補に応じて1つの単予測の候補を生成するステップと、
1つの単予測の候補に応じて第2のリストを構築するステップと
を含む、例1または2の方法。
第1のリストの1つの双予測の候補に応じて2つの単予測の候補を生成するステップと、
第1のリストの少なくとも1つの単予測の候補および2つの単予測の候補に応じて第2のリストを構築するステップと
を含む、例1または2の方法。
第1のリストの1つの双予測の候補に応じて2つの単予測の候補を生成するステップと、
2つの単予測の候補の間の類似性を決定するステップと、
2つの単予測の候補および類似性を決定するステップの結果に応じて第2のリストを構築するステップと
を含む、例1または2の方法。
第1のリストの双予測の候補を2つの単予測の候補に分割することによって第1のリストの少なくとも1つの単予測の候補を第2のリストに挿入するステップを含む、例1から6のいずれか1つの方法。
第1のリストの少なくとも1つの単予測の候補の順序に従っておよび第1のリストの双予測の候補を2つの単予測の候補に分割することによって第1のリストの少なくとも1つの単予測の候補を第2のリストに挿入するステップを含む、例1から6のいずれか1つの方法。
第1のリストの双予測の候補の2つの構成要素の間の類似性を決定するステップと、
類似性を決定するステップの結果に応じて第1のリストを更新するステップと
をさらに含み、
それに対応して、第1のリストに応じて第2のリストを構築するステップが、
更新された第1のリストに応じて第2のリストを構築するステップを含む、例1から8のいずれか1つの方法。
三角予測(もしくは下位ブロック予測)が現在のブロックに適用されるとき、現在のブロックを予測するために第2のリストが使用されること、
または、
三角予測(もしくは下位ブロック予測)が現在のブロックに適用されないとき、現在のブロックを予測するために第1のリストが使用されることを含む、例1から12のいずれか1つの方法。
現在のブロックのブロックサイズが閾値以下である(たとえば、閾値は16であってもよい)かまたは現在のブロックのブロックサイズが予め定義されるもしくはパラメータセット内でシグナリングされる最も小さなサイズであるとき、現在のブロックを予測するために第2のリストが使用されること、
あるいは、
現在のブロックのブロックサイズが閾値よりも大きい(たとえば、閾値は16であってもよい)かまたは現在のブロックのブロックサイズが予め定義されるかもしくはパラメータセット内でシグナリングされる最も小さなサイズではないとき、現在のブロックを予測するために第1のリストが使用されることを含む、例1から13のいずれか1つの例。
1つ以上のプロセッサと、
プロセッサに結合され、プロセッサによって実行するためのプログラミングを記憶する非一時的コンピュータ可読ストレージ媒体であって、プログラミングが、プロセッサによって実行されるときに、例1から14のいずれか1つに係る方法を実行するようにデコーダを構成する、非一時的コンピュータ可読ストレージ媒体と
を含む、デコーダ。
1つ以上のプロセッサと、
プロセッサに結合され、プロセッサによって実行するためのプログラミングを記憶する非一時的コンピュータ可読ストレージ媒体であって、プログラミングが、プロセッサによって実行されるときに、例1から14のいずれか1つに係る方法を実行するようにエンコーダを構成する、非一時的コンピュータ可読ストレージ媒体と
を含む、エンコーダ。
12 送信元デバイス
13 符号化されたピクチャデータ、通信チャネル
14 送信先デバイス
16 ピクチャソース
17 ピクチャ、ピクチャデータ、生ピクチャ、生ピクチャデータ、モノクロピクチャ、カラーピクチャ、現在のピクチャ
18 プリプロセッサ、前処理ユニット、ピクチャプリプロセッサ
19 前処理されたピクチャ、前処理されたピクチャデータ
20 ビデオエンコーダ、エンコーダ
21 符号化されたピクチャデータ、符号化されたビットストリーム
22 通信インターフェース、通信ユニット
28 通信インターフェース、通信ユニット
30 デコーダ、ビデオデコーダ
31 復号されたピクチャデータ、復号されたピクチャ
32 ポストプロセッサ、後処理ユニット
33 後処理されたピクチャデータ、後処理されたピクチャ
34 ディスプレイデバイス
46 処理回路
100 ビデオエンコーダ
201 入力、入力インターフェース
203 ピクチャブロック、元のブロック、現在のブロック、区分けされたブロック、現在のピクチャブロック
204 残差計算ユニット、残差計算
205 残差ブロック、残差
206 変換処理ユニット、変換
207 変換係数
208 量子化ユニット、量子化
209 量子化された係数、量子化された変換係数、量子化された残差係数
210 逆量子化ユニット、逆量子化
211 逆量子化された係数、逆量子化された残差係数
212 逆変換処理ユニット、(逆)変換
213 再構築された残差ブロック、逆量子化された係数、変換ブロック
214 再構築ユニット、加算器、合算器
215 再構築されたブロック
216 バッファ
220 ループフィルタユニット、ループフィルタ
221 フィルタリングされたブロック、フィルタリングされた再構築されたブロック
230 復号ピクチャバッファ(DPB)
231 復号されたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット、インター予測ユニット、イントラ予測
260 モード選択ユニット
262 区分けユニット、区分け
265 予測ブロック、予測子
266 シンタックス要素
270 エントロピー符号化ユニット、エントロピーコーディング
272 出力、出力インターフェース
304 エントロピー復号ユニット、残差計算、エントロピー復号
309 量子化された係数
310 逆量子化ユニット、逆量子化
311 逆量子化された係数、変換係数
312 逆変換処理ユニット、(逆)変換、出力
313 再構築された残差ブロック
314 再構築ユニット、合算器、加算器
315 再構築されたブロック
320 ループフィルタ、ループフィルタユニット、ループフィルタリングユニット
321 フィルタリングされたブロック、復号されたビデオブロック
330 復号ピクチャバッファ(DPB)
331 復号されたピクチャ
344 インター予測ユニット
354 イントラ予測ユニット、イントラ予測
360 モード選択ユニット
362 区分け
365 予測ブロック
400 ビデオコーディングデバイス
410 着信ポート、入力ポート
420 受信機ユニット(Rx)
430 プロセッサ、論理ユニット、中央演算処理装置(CPU)
440 送信機ユニット(Tx)
450 発信ポート、出力ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 データ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 二次ストレージ
518 ディスプレイ
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォン、スマートパッド
3110 コンピュータ、ラップトップ
3112 ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)
3114 TV
3116 セットトップボックス(STB)
3118 テレビ会議システム
3120 ビデオ監視システム
3122 携帯情報端末(PDA)
3124 車載デバイス
3126 ディスプレイ
3202 プロトコル進行ユニット
3204 多重分離ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 字幕デコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/字幕ディスプレイ
Claims (13)
- マージ候補リストに従ってブロックを処理する方法であって、
現在のブロックの近隣のブロックの動き情報に応じて第1のリストを構築するステップと、
前記現在のブロックの予測情報を取得するステップと、
前記現在のブロックの前記予測情報が、下位ブロック予測が前記現在のブロックに適用されることを示すとき、
前記第1のリストに従って前記現在のブロックに関する単予測の候補を取得するステップと、
前記現在のブロックのインター予測を実行するために前記現在のブロックに関する前記単予測の候補を使用するステップと
を含む、方法。 - 前記現在のブロックが、2つの下位ブロックを含み、各下位ブロックが、単予測の候補に対応する、請求項1に記載の方法。
- 1つの単予測の候補が、前記第1のリストの1つの双予測の候補に応じて生成される、請求項1または2に記載の方法。
- 2つの単予測の候補が、前記第1のリストの1つの双予測の候補に応じて生成される、請求項1または2に記載の方法。
- 1つの単予測の候補が、前記双予測の候補の第1の部分である、請求項3または4に記載の方法。
- 1つの単予測の候補が、前記双予測の候補の第2の部分である、請求項3または4に記載の方法。
- 前記下位ブロック予測が、三角予測である、請求項1から6のいずれか一項に記載の方法。
- 前記第1のリストの前記1つの双予測の候補に応じた前記2つの単予測の候補の生成が、
前記2つの単予測の候補の間の類似性を決定することを含む、請求項4に記載の方法。 - 前記単予測の候補が、前記第1のリストの双予測の候補に応じて、前記第1のリスト内の前記候補の順序に基づいて生成される、請求項1から8のいずれか一項に記載の方法。
- 請求項1から9のいずれか一項に記載の方法を実行するための処理回路を含む、エンコーダ(20)。
- 請求項1から9のいずれか一項に記載の方法を実行するための処理回路を含む、デコーダ(30)。
- 請求項1から9のいずれか一項に記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
- デコーダであって、
1つ以上のプロセッサと、
前記プロセッサに結合され、前記プロセッサによって実行するためのプログラミングを記憶する非一時的コンピュータ可読ストレージ媒体であって、前記プログラミングが、前記プロセッサによって実行されるときに、請求項1から9のいずれか一項に記載の方法を実行するように前記デコーダを構成する、非一時的コンピュータ可読ストレージ媒体と
を含む、デコーダ。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862770142P | 2018-11-20 | 2018-11-20 | |
US62/770,142 | 2018-11-20 | ||
US201962788487P | 2019-01-04 | 2019-01-04 | |
US62/788,487 | 2019-01-04 | ||
PCT/RU2019/050221 WO2020106189A1 (en) | 2018-11-20 | 2019-11-20 | An encoder, a decoder and corresponding methods for merge mode |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024040503A Division JP2024083360A (ja) | 2018-11-20 | 2024-03-14 | マージモードのためのエンコーダ、デコーダ、および対応する方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022504383A true JP2022504383A (ja) | 2022-01-13 |
JP7457010B2 JP7457010B2 (ja) | 2024-03-27 |
Family
ID=70773942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021518874A Active JP7457010B2 (ja) | 2018-11-20 | 2019-11-20 | マージモードのためのエンコーダ、デコーダ、および対応する方法 |
Country Status (16)
Country | Link |
---|---|
US (2) | US11909959B2 (ja) |
EP (1) | EP3864846B1 (ja) |
JP (1) | JP7457010B2 (ja) |
KR (1) | KR102622148B1 (ja) |
CN (6) | CN116389766A (ja) |
AU (2) | AU2019383290B2 (ja) |
BR (1) | BR112021008016A2 (ja) |
CA (1) | CA3112373A1 (ja) |
ES (1) | ES2972326T3 (ja) |
HU (1) | HUE064819T2 (ja) |
IL (1) | IL283310A (ja) |
MX (1) | MX2021005032A (ja) |
PL (1) | PL3864846T3 (ja) |
PT (1) | PT3864846T (ja) |
SG (1) | SG11202102020UA (ja) |
WO (1) | WO2020106189A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113196758A (zh) * | 2018-12-18 | 2021-07-30 | 韩国电子通信研究院 | 图像编码/解码方法和设备以及存储比特流的记录介质 |
CN113852815B (zh) * | 2018-12-25 | 2022-12-27 | 北京达佳互联信息技术有限公司 | 利用三角形形状预测单元的视频编码方法、设备及介质 |
CN116634172A (zh) * | 2019-01-02 | 2023-08-22 | 北京大学 | 候选mv列表构建方法和装置 |
US11528504B2 (en) * | 2019-07-11 | 2022-12-13 | Qualcomm Incorporated | Motion vector prediction with motion information collecting buffer |
CN115699735A (zh) * | 2020-05-29 | 2023-02-03 | 北京达佳互联信息技术有限公司 | 使用几何分区的视频编解码方法及装置 |
CN115699736A (zh) * | 2020-06-03 | 2023-02-03 | 北京达佳互联信息技术有限公司 | 具有运动矢量细化的几何分区模式 |
EP4356607A1 (en) * | 2021-06-14 | 2024-04-24 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for geometric partition mode with motion vector refinement |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018522466A (ja) * | 2015-06-09 | 2018-08-09 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ビデオコーディングのための照明補償ステータスを決定するシステムおよび方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101014660B1 (ko) * | 2003-10-24 | 2011-02-16 | 삼성전자주식회사 | 인트라 예측 방법 및 장치 |
US9648334B2 (en) * | 2011-03-21 | 2017-05-09 | Qualcomm Incorporated | Bi-predictive merge mode based on uni-predictive neighbors in video coding |
CN108174203B (zh) * | 2012-01-18 | 2021-12-21 | Jvc 建伍株式会社 | 动图像解码装置以及动图像解码方法 |
US9451277B2 (en) | 2012-02-08 | 2016-09-20 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
US9554150B2 (en) * | 2013-09-20 | 2017-01-24 | Qualcomm Incorporated | Combined bi-predictive merging candidates for 3D video coding |
SG11201703454XA (en) * | 2014-11-18 | 2017-06-29 | Mediatek Inc | Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate |
BR112017011890A2 (pt) * | 2014-12-09 | 2018-07-03 | Mediatek Inc | método de derivação de preditor de vetor de movimento ou de candidato a fusão em codificação de vídeo |
US10721489B2 (en) * | 2016-09-06 | 2020-07-21 | Qualcomm Incorporated | Geometry-based priority for the construction of candidate lists |
TW202025760A (zh) * | 2018-09-12 | 2020-07-01 | 大陸商北京字節跳動網絡技術有限公司 | 要檢查多少個hmvp候選 |
WO2020098713A1 (en) * | 2018-11-13 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate list construction for prediction |
WO2020098695A1 (en) | 2018-11-13 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Construction method for a single type motion candidate list |
WO2020125752A1 (en) * | 2018-12-21 | 2020-06-25 | Mediatek Inc. | Method and apparatus of simplified triangle merge mode candidate list derivation |
-
2019
- 2019-11-20 BR BR112021008016-3A patent/BR112021008016A2/pt unknown
- 2019-11-20 MX MX2021005032A patent/MX2021005032A/es unknown
- 2019-11-20 CN CN202310367132.7A patent/CN116389766A/zh active Pending
- 2019-11-20 CN CN202310390348.5A patent/CN116582681A/zh active Pending
- 2019-11-20 CN CN202310398395.4A patent/CN116800980A/zh active Pending
- 2019-11-20 SG SG11202102020UA patent/SG11202102020UA/en unknown
- 2019-11-20 PT PT198880437T patent/PT3864846T/pt unknown
- 2019-11-20 PL PL19888043.7T patent/PL3864846T3/pl unknown
- 2019-11-20 JP JP2021518874A patent/JP7457010B2/ja active Active
- 2019-11-20 HU HUE19888043A patent/HUE064819T2/hu unknown
- 2019-11-20 CN CN202310390288.7A patent/CN116405696A/zh active Pending
- 2019-11-20 CA CA3112373A patent/CA3112373A1/en active Pending
- 2019-11-20 WO PCT/RU2019/050221 patent/WO2020106189A1/en active Application Filing
- 2019-11-20 CN CN201980058695.XA patent/CN112673633B/zh active Active
- 2019-11-20 EP EP19888043.7A patent/EP3864846B1/en active Active
- 2019-11-20 CN CN202310367148.8A patent/CN116389767A/zh active Pending
- 2019-11-20 AU AU2019383290A patent/AU2019383290B2/en active Active
- 2019-11-20 ES ES19888043T patent/ES2972326T3/es active Active
- 2019-11-20 KR KR1020217008881A patent/KR102622148B1/ko active IP Right Grant
-
2021
- 2021-05-19 IL IL283310A patent/IL283310A/en unknown
- 2021-05-19 US US17/324,401 patent/US11909959B2/en active Active
-
2023
- 2023-09-27 AU AU2023237109A patent/AU2023237109A1/en active Pending
- 2023-12-29 US US18/400,754 patent/US20240137499A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018522466A (ja) * | 2015-06-09 | 2018-08-09 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ビデオコーディングのための照明補償ステータスを決定するシステムおよび方法 |
Non-Patent Citations (1)
Title |
---|
RU-LING LIAO, ET AL.: "CE10.3.1.b: Triangular prediction unit mode", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-L0124-v2, JPN6022027935, 5 October 2018 (2018-10-05), ISSN: 0004987284 * |
Also Published As
Publication number | Publication date |
---|---|
CN112673633A (zh) | 2021-04-16 |
US20210274168A1 (en) | 2021-09-02 |
CN116582681A (zh) | 2023-08-11 |
IL283310A (en) | 2021-07-29 |
CN112673633B (zh) | 2023-04-04 |
EP3864846A1 (en) | 2021-08-18 |
AU2019383290A1 (en) | 2021-04-01 |
CN116405696A (zh) | 2023-07-07 |
WO2020106189A1 (en) | 2020-05-28 |
MX2021005032A (es) | 2021-06-15 |
CN116389767A (zh) | 2023-07-04 |
SG11202102020UA (en) | 2021-03-30 |
PL3864846T3 (pl) | 2024-04-08 |
EP3864846B1 (en) | 2024-01-03 |
KR102622148B1 (ko) | 2024-01-05 |
BR112021008016A2 (pt) | 2021-08-03 |
US20240137499A1 (en) | 2024-04-25 |
HUE064819T2 (hu) | 2024-04-28 |
AU2023237109A1 (en) | 2023-10-26 |
CN116389766A (zh) | 2023-07-04 |
ES2972326T3 (es) | 2024-06-12 |
CN116800980A (zh) | 2023-09-22 |
CA3112373A1 (en) | 2020-05-28 |
KR20210046758A (ko) | 2021-04-28 |
EP3864846A4 (en) | 2021-12-15 |
PT3864846T (pt) | 2024-03-06 |
AU2019383290B2 (en) | 2023-07-06 |
JP7457010B2 (ja) | 2024-03-27 |
US11909959B2 (en) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3115867C (en) | Inter prediction method and apparatus | |
JP7106744B2 (ja) | ルーマおよびクロマ成分についてibc専用バッファおよびデフォルト値リフレッシュを使用するエンコーダ、デコーダおよび対応する方法 | |
JP7457010B2 (ja) | マージモードのためのエンコーダ、デコーダ、および対応する方法 | |
JP7225375B2 (ja) | パレット符号化を使用するエンコード装置、デコード装置および対応する方法 | |
KR20210141712A (ko) | Ibc 병합 리스트를 사용하는 인코더, 디코더 및 대응 방법들 | |
US11876997B2 (en) | Encoder, decoder and corresponding methods of most probable mode list construction for blocks with multi-hypothesis prediction | |
KR20210009351A (ko) | 서브 블록 파티셔닝 모드를 위한 인코더, 디코더 및 대응 방법 | |
JP2022511850A (ja) | エンコーダ、デコーダ、及びデブロッキングフィルタの境界強度導出の対応する方法 | |
JP2022527924A (ja) | イントラ平滑化のための方法および装置 | |
JP2022522570A (ja) | Ibcマージリストを使用するエンコーダ、デコーダ、及び対応する方法 | |
JP2022551313A (ja) | ピクチャヘッダのシグナリングを簡略化するためのエンコーダ、デコーダ及び対応する方法 | |
JP2023169226A (ja) | 現在のブロックについての補間フィルタインデックスを導出するための方法および装置 | |
JP2023126744A (ja) | 幾何学的区分けモードのためのサンプルの距離の計算 | |
JP2023100701A (ja) | イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法 | |
JP7414976B2 (ja) | エンコーダ、デコーダ、および、対応する方法 | |
RU2811983C2 (ru) | Кодер, декодер и соответствующие способы для режима субблочного разделения | |
JP2024083360A (ja) | マージモードのためのエンコーダ、デコーダ、および対応する方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7457010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |