JP7529848B2 - 映像処理におけるモデルベース再整形に対する制約 - Google Patents
映像処理におけるモデルベース再整形に対する制約 Download PDFInfo
- Publication number
- JP7529848B2 JP7529848B2 JP2023075959A JP2023075959A JP7529848B2 JP 7529848 B2 JP7529848 B2 JP 7529848B2 JP 2023075959 A JP2023075959 A JP 2023075959A JP 2023075959 A JP2023075959 A JP 2023075959A JP 7529848 B2 JP7529848 B2 JP 7529848B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- current
- picture
- image
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 56
- 238000000034 method Methods 0.000 claims description 364
- 241000023320 Luma <angiosperm> Species 0.000 claims description 107
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 106
- 230000008569 process Effects 0.000 claims description 90
- 238000006243 chemical reaction Methods 0.000 claims description 42
- 238000013507 mapping Methods 0.000 claims description 37
- 230000009466 transformation Effects 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 2
- 238000012935 Averaging Methods 0.000 claims 4
- 230000033001 locomotion Effects 0.000 description 208
- 239000013598 vector Substances 0.000 description 122
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 90
- 239000000523 sample Substances 0.000 description 57
- 230000002123 temporal effect Effects 0.000 description 34
- 238000009795 derivation Methods 0.000 description 26
- 230000011664 signaling Effects 0.000 description 23
- 238000004590 computer program Methods 0.000 description 19
- 241000723655 Cowpea mosaic virus Species 0.000 description 16
- 238000003672 processing method Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 13
- 238000013139 quantization Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000002146 bilateral effect Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 238000009792 diffusion process Methods 0.000 description 7
- 101150039623 Clip1 gene Proteins 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 4
- 239000000872 buffer Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 108091000069 Cystinyl Aminopeptidase Proteins 0.000 description 1
- 241000267283 Entoloma versatile Species 0.000 description 1
- 102100020872 Leucyl-cystinyl aminopeptidase Human genes 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000012812 general test Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Color Television Systems (AREA)
- Studio Circuits (AREA)
Description
映像符号化標準は、主に、周知のITU-T及びISO/IEC標準の開発を通じて発展してきた。ITU-TがH.261及びH.263を作成し、ISO/IECがMPEG-1及びMPEG-4 Visualを作成出し、そして、これら2つの組織が共同で、H.262/MPEG-2 Video及びH.264/MPEG-4 AVC(Advanced Video Coding)及びH.265/HEVC標準を作成した。H.262以来、映像符号化標準は、時間予測に加えて変換符号化が利用されるハイブリッド映像符号化構造に基づいている。HEVCの先の将来の映像符号化技術を探求するため、2015年にVCEGとMPEGが共同でJVET(Joint Video Exploration Team)を設立した。それ以来、数多くの新しい方法が、JVETによって採用され、共同探索モデルJEM(Joint Exploration Model)と名付けられたリファレンスソフトウェアに入れられてきた。2018年4月には、HEVCと比較して50%のビットレート低減を目指すVVC標準に取り組むべく、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間でJVET(Joint Video Expert Team)を発足させた。VVCドラフトの最新版、すなわち、バーサタイルビデオコーディング(ドラフト2)は、http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/11_Ljubljana/wg11/JVET-K1001-v7.zipにて見つけることができ、VTMと呼ばれるVVCの最新リファレンスソフトウェアは、https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-2.1にて見つけることができる。
インター予測による各PUは、1つ又は2つの参照ピクチャリストに関する動きパラメータを有する。動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。2つの参照ピクチャリストのうちの1つの使用がまた、inter_pred_idcを用いて信号伝達され得る。動きベクトルは、予測子に対するデルタとして明示的に符号化され得る。
HEVCにおいて、インター予測という用語は、現在復号されているピクチャ以外の参照ピクチャのデータ要素(例えば、サンプル値又は動きベクトル)から導出される予測を表記するために使用される。H.264/AVCにおいてと同様に、ピクチャは複数の参照ピクチャから予測されることができる。インター予測に使用される参照ピクチャは、1つ以上の参照ピクチャリストに編成される。予測信号を作成するためにリスト内の参照ピクチャのうちのどれが使用されるべきかを参照インデックスが特定する。
2.1.2.1. マージモードに関する候補の導出
マージモードを使用してPUが予測されるとき、マージ候補リスト内のエントリを指すインデックスがビットストリームから構文解析され、動き情報を取り出すために使用される。このリストの構築は、HEVC標準に規定されており、以下の一連のステップに従って要約され得る:
・ ステップ1:初期候補導出
- ステップ1.1:空間候補導出
- ステップ1.2:空間候補に関する冗長性検査
- ステップ1.3:時間候補導出
・ ステップ2:追加候補挿入
- ステップ2.1:双予測候補の作成
- ステップ2.2:ゼロ動き候補の挿入
図1にも、これらのステップを概略的に示す。空間マージ候補導出のために、5つの異なる位置にある候補の中から最大4つのマージ候補が選択される。時間マージ候補導出のために、2つの候補の中から最大1つのマージ候補が選択される。デコーダで各PUに対して一定数の候補が仮定されるので、ステップ1から得られた候補の数が、スライスヘッダ内で信号伝達されるマージ候補の最大数(MaxNumMergeCand)に達しない場合、追加候補が生成される。候補の数は一定であるので、最良のマージ候補のインデックスが、truncated unary binarization(TU)を用いて符号化される。CUのサイズが8に等しい場合、現在CUの全てのPUが、2N×2N予測ユニットのマージ候補リストと同じものである単一のマージ候補リストを共有する。
空間マ2ジ候補の導出では、図2に示す位置にある候補の中から最大4つのマージ候補が選択される。導出の順序はA1、B1、B0、A0、及びB2である。位置B2は、位置A1、B1、B0、A0のうちのいずれかのPUが利用可能でない場合(例えば、それが別のスライス又はタイルに属するため)又はイントラコード化される場合にのみ考慮される。位置A1の候補が追加された後、残りの候補の追加は、符号化効率が向上されるように、同じ動き情報を有する候補がリストから除外されることを保証する冗長性検査にかけられる。計算複雑性を低減させるために、前述の冗長性検査では、可能な全ての候補ペアが考慮されるわけではない。その代わりに、図3の矢印で結び付けられたペアのみが考慮され、冗長性検査に使用される対応する候補が同じ動き情報を持たない場合にのみ、候補がリストに追加される。重複動き情報の別の発生源は、2N×2Nとは異なる分割に関連する“第2のPU”である。一例として、図4A及び4Bは、それぞれ、N×2N及び2N×Nの場合の第2のPUを示している。現在PUがN×2Nに分割されるとき、A1にある候補はリスト構築に考慮されない。実際、この候補を追加することは、同じ動き情報を有する2つの予測ユニットにつながることになり、それは、符号化ユニット内に1つのみのPUを有することには冗長である。同様に、現在PUが2N×Nに分割されるとき、位置B1は考慮されない。
このステップでは、1つの候補のみがリストに追加される。特に、この時間マージ候補の導出では、所与の参照ピクチャリスト内で現在ピクチャとのPOC差が最小であるピクチャに属するコロケートPUに基づいて、スケーリングされた動きベクトルが導出される。コロケートPUの導出に使用される参照ピクチャリストは、スライスヘッダ内で明示的に信号伝達される。時間マージ候補に関するスケーリングされた動きベクトルは、図5に点線で示すようにして得られ、それは、POC距離tb及びtdを用いて、コロケートPU(col_PU)の動きベクトルからスケーリングされるものであり、ここで、tbは、現在ピクチャ(curr_pic)の参照ピクチャ(curr_ref)と現在ピクチャとの間のPOC差であると定義され、tdは、コロケートピクチャ(col_pic)の参照ピクチャ(col_ref)とコロケートピクチャとの間のPOC差であると定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しく設定される。スケーリングプロセスの実際の具現化はHEVC仕様書に定められている。Bスライスでは、一方が参照ピクチャリスト0に関し、他方が参照ピクチャリスト1に関するものである2つの動きベクトルが得られ、これらが組み合わされて、双予測マージ候補をなす。
空間及び時間マージ候補の他に、結合双予測マージ候補及びゼロマージ候補という2つの更なるタイプのマージ候補が存在する。結合双予測マージ候補は、空間及び時間マージ候補を利用することによって生成される。結合双予測マージ候補はBスライスのみに使用される。結合双予測候補は、当初候補の第1の参照ピクチャリスト動きパラメータを別のものの第2の参照ピクチャリスト動きパラメータと組み合わせることによって生成される。これら2つのタプルが異なる動き仮説を提供する場合、それらは新たな双予測候補を形成する。一例として、図7は、mvL0とrefIdxL0、又はmvL1とrefIdxL1、を有するものである元のリスト(左側)内の2つの候補を用いて、最終的なリスト(右側)に追加される結合双予測マージ候補が作成される場合を示している。これらの追加マージ候補を生成するために考慮される組み合わせに関するルールが数多く存在する。
AMVPは、隣接PUとの動きベクトルの空間-時間相関を利用し、それが動きパラメータの明示的伝送に使用される。各参照ピクチャリストに対して、先ず、左上の時間的に隣接するPU位置の利用可能性を検査し、冗長候補を除去し、そして、ゼロベクトルを追加して候補リストを一定長さにすることによって、動きベクトル候補リストが構築される。そして、エンコーダは、候補リストから最良の予測子を選択し、選択した候補を指し示す対応するインデックスを送信することができる。同様に、マージインデックス信号伝達では、最良の動きベクトル候補のインデックスがtruncated unaryを用いて符号化される。この場合に符号化される最大値は2である(例えば、図8を参照)。以下のセクションにて、動きベクトル予測候補の導出プロセスの詳細を提供する。
図8は、動きベクトル予測候補に関する導出プロセスをまとめたものである。
空間動きベクトル候補の導出においては、図2で示したような位置にあるPUから導出されるものである5つの可能性ある候補の中の最大2つの候補が考慮され、それらの位置は動きマージの位置と同じである。現在PUの左側についての導出の順序が、A0、A1、及びスケーリングされたA0、スケーリングされたA1として定められる。現在PUの上側についての導出の順序が、B0、B1、B2、スケーリングされたB0、スケーリングされたB1、スケーリングされたB2として定められる。従って、各側について、動きベクトル候補として使用され得る4つのケースが存在し、2つのケースは空間スケーリングを使用する必要がなく、2つのケースでは空間スケーリングが使用される。それら4つの異なるケースは、以下のようにまとめられる:
・ 空間スケーリングなし
- (1)同一参照ピクチャリスト、且つ同一参照ピクチャインデックス(同一POC)
- (2)異なる参照ピクチャリスト、しかし、同一参照ピクチャ(同一POC)
・ 空間スケーリング
- (3)同一参照ピクチャリスト、しかし、異なる参照ピクチャ(異なるPOC)
- (4)異なる参照ピクチャリスト、且つ異なる参照ピクチャ(異なるPOC)
参照ピクチャインデックスの導出は別にして、時間マージ候補の導出のための全てのプロセスは、空間動きベクトル候補の導出に関してと同じである(図6を参照)。参照ピクチャインデックスがデコーダに信号伝達される。
QTBTを用いるJEMでは、各CUが、各予測方向に対して最大1セットの動きパラメータを持つことができる。エンコーダにおいて、大きなCUを複数のサブCUに分割し、大きなCUの全てのサブCUに対して動き情報を導出することによって、2つのサブCUレベルの動きベクトル予測方法が考慮される。代替的時間動きベクトル予測(alternative temporal motion vector prediction;ATMVP)法は、各CUが、コロケート参照ピクチャ内の現在CUよりも小さい複数のブロックから複数セットの動き情報をフェッチすることを可能にする。空間-時間動きベクトル予測(STMVP)法では、サブCUの動きベクトルが、時間動きベクトル予測子と空間隣接動きベクトルとを用いることによって再帰的に導出される。
図10は、代替的時間動きベクトル予測(ATMVP)法の一例を示している。代替的時間動きベクトル予測(ATMVP)法では、動きベクトルの時間動きベクトル予測(temporal motion vector prediction;TMVP)が、現在CUよりも小さい複数のブロックから複数セットの動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって修正される。サブCUは、正方形のN×Nブロックである(Nはデフォルトで4に設定される)。
この方法では、サブCUの動きベクトルが、ラスタ走査順に従って再帰的に導出される。図11は、この概念を示している。4つの4×4のサブCU A、B、C、及びDを含む8×8のCUを考える。現在フレーム内の隣接する4×4のブロックを、a、b、c、及びdとラベル付ける。
サブCUモードは、追加のマージ候補として有効にされ、これらのモードを信号伝達するのに追加の構文要素は必要とされない。ATMVPモード及びSTMVPモードを表すために、各CUのマージ候補リストに2つの追加マージ候補が加えられる。シーケンスパラメータセットがATMVP及びSTMVPが有効にされることを指し示す場合に、最大7つのマージ候補が使用される。これら追加マージ候補の符号化論理は、HMにおけるマージ候補に関してと同じであり、これは、Pスライス又はBスライス内の各CUについて、2つの追加マージ候補に対して2つの更なるRD検査が必要とされることを意味する。
局所照明補償(Local Illumination Compensation;LIC)は、スケーリング係数aとオフセットbを用いた、照明変化に関する線形モデルに基づく。また、それは、インターモード符号化される符号化ユニット(CU)ごとに適応的に有効又は無効にされる。
各予測方向について別々にICパラメータが導出されて適用される。各予測方向に対して、復号された動き情報を用いて第1の予測ブロックを生成され、次いで、LICモデルを適用することにより時間予測ブロックが取得される。その後、2つの時間予測ブロックを用いて最終的な予測ブロックが導出される。
・ 現在ピクチャとその参照ピクチャとの間に明白な照明変化がないときにはピクチャ全体に対してLICが無効にされる。この状況を特定するために、現在ピクチャのヒストグラム及び現在ピクチャの全ての参照ピクチャのヒストグラムがエンコーダで計算される。現在ピクチャと現在ピクチャの全ての参照ピクチャとの間でヒストグラム差が所与の閾値より小さい場合、現在ピクチャに対してLICが無効にされ、それ以外の場合には、現在ピクチャに対してLICが有効にされる。
例えば、MVDを信号伝達するための適応動きベクトル差レゾリューション(Adaptive motion vector difference resolution;AMVR)、アフィン予測モード、三角予測モード(TPM)、ATMVP、一般化双予測(GBI)、双方向オプティカルフロー(BIO)などの、インター予測改良のための新たな符号化ツールが幾つか存在する。
VVCでは、ピクチャを正方形又は長方形のブロックに分割するために、四分木/二分木/マルチツリー(QuadTree/BinaryTree/MulitpleTree;QT/BT/TT)構造が採用されている。
HEVCでは、スライスヘッダ内でuse_integer_mv_flagが0に等しい場合に、(動きベクトルとPUの予測動きベクトルとの間の)動きベクトル差(MVD)が、1/4ルマサンプルの単位で信号伝達される。VVCでは、局所適応動きベクトルレゾリューション(AMVR)が導入されている。VVCにおいて、MVDは、1/4ルマサンプル、整数ルマサンプル、4ルマサンプル(すなわち、1/4ペル、1ペル、4ペル)の単位で符号化されることができる。このMVD分解能は、符号化ユニット(CU)レベルで制御され、MVD分解能フラグが、少なくとも1つの非ゼロのMVD成分を持つ各CUに対して条件付きで信号伝達される。
HEVCでは、動き補償予測(motion compensation prediction;MCP)に並進動きモデルのみが適用されている。一方、現実世界では、例えばズームイン/アウト、回転、遠近動作、及び他の不規則な動きといった、多くの種類の動きが存在する。VVCでは、4パラメータアフィンモデル及び6パラメータアフィンモデルを用いて、簡略化されたアフィン変換動き補償予測が適用されている。図13A及び13Bに示すように、ブロックのアフィン動き場が、4パラメータアフィンモデルでは2つの制御点動きベクトル(CPMV)、そして6パラメータアフィンモデルでは3つのCPMVによって記述される。
並進動きモデルと同様に、アフィン予測によるサイド情報を信号伝達することには、やはり2つのモードが存在する。それらは、AFFINE_INTERモード及びAFFINE_MERGEモードである。
幅及び高さの両方が8よりも大きいCUに対して、AF_INTERモードを適用することができる。AF_INTERモードが使用されるかを指し示すために、CUレベルでのアフィンフラグがビットストリーム内で信号伝達される。
検査順序は、HEVC AMVPリスト構築における空間MVPのそれと同様である。第一に、左の継承アフィン動き予測子が、アフィン符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つ{A1,A0}内の最初のブロックから導出される。第二に、上の継承アフィン動き予測子が、アフィン符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つ{B1,B0,B2}内の最初のブロックから導出される。これら5つのブロックA1、A0、B1、B0、B2を図16に示す。
構築アフィン動き予測子は、同じ参照ピクチャを有した、図17に示すような隣接するインター符号化ブロックから導出される制御点動きベクトル(control-point motion vector;CPMV)で構成される。現在のアフィン動きモデルが4パラメータアフィンである場合、CPMVの数は2であり、そうでなく現在のアフィン動きモデルが6パラメータアフィンである場合、CPMVの数は3である。
左上CPMV:
が、インター符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つグループ{A,B,C}内の最初のブロックにおけるMVによって導出される。右上CPMVであるバーmv1が、インター符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つグループ{D,E}内の最初のブロックにおけるMVによって導出される。左下CPMVであるバーmv2が、インター符号化され且つ現在ブロックにおいてと同じ参照ピクチャを持つグループ{F,G}内の最初のブロックにおけるMVによって導出される。
― 現在のアフィン動きモデルが4パラメータアフィンである場合、バーmv0及びmv1の両方が見出された場合にのみ、すなわち、現在ブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)に対する推定CPMVとして、バーmv0及びmv1が使用される場合にのみ、構築アフィン動き予測子が候補リストに挿入される。
― 現在のアフィン動きモデルが6パラメータアフィンである場合、バーmv0、mv1及びmv2が全て見出された場合にのみ、すなわち、現在ブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び左下位置(座標(x2,y2)を有する)に対する推定CPMVとして、バーmv0、mv1及びmv2が使用される場合にのみ、構築アフィン動き予測子が候補リストに挿入される。
構築アフィン動き予測子を候補リストに挿入するときに剪定プロセスは適用されない。
アフィン動き予測子の数が最大値に達するまで、以下が適用される:
1) 利用可能である場合に全てのCPMVをバーmv2に等しく設定することによって、アフィン動き予測子を導出する;
2) 利用可能である場合に全てのCPMVをバーmv1に等しく設定することによって、アフィン動き予測子を導出する;
3) 利用可能である場合に全てのCPMVをバーmv0に等しく設定することによって、アフィン動き予測子を導出する;
4) 利用可能である場合に全てのCPMVをHEVC TMVPに等しく設定することによって、アフィン動き予測子を導出する;
5) 全てのCPMVをゼロMVに設定することによって、アフィン動き予測子を導出する。
なお、バーmviは、構築アフィン動き予測子にて既に導出されている。
AF_MERGEモードにおいてCUが適用されるとき、それは、有効な隣接再構成ブロックからアフィンモードで符号化された最初のブロックを取得する。そして、候補ブロックの選択順序は、図18Aに示すように、左から、上、右上、左下、左上(順に、A、B、C、D、Eで表記している)である。例えば、隣接左下ブロックが、図18BにおいてA0で表すようにアフィンモードで符号化される場合、ブロックAを含む隣接CU/PUの左上角、右上角、及び左下角の制御点(CP)動きベクトルmv0 N、mv1 N、及びmv2 Nがフェッチされる。そして、現在CU/PU上の左上/右上/左下角の動きベクトルmv0 C、mv1 C、及びmv2 C(これは6パラメータアフィンモデルでのみ使用される)が、mv0 N、mv1 N、及びmv2 Nに基づいて算出される。なお、VTM-2.0では、現在ブロックがアフィン符号化される場合、左上角にあるサブブロック(例えば、VTMにおいて4×4ブロック)がmv0を格納し、右上角にあるサブブロックがmv1を格納する。現在ブロックが6パラメータアフィンモデルで符号化される場合、左下角にあるサブブロックがmv2を格納し、そうでない場合には(4パラメータアフィンモデルでは)、LBがmv2’を格納する。他のサブブロックは、MCに使用されるMVを格納する。
継承アフィン候補は、その候補がそれの有効な隣接アフィン符号化ブロックのアフィン動きモデルから導出されることを意味する。最大2つの継承アフィン候補が、隣接ブロックのアフィン動きモデルから導出され、候補リストに挿入される。左の予測子について、走査順序は{A0,A1}であり、上の予測子について、走査順序は{B0,B1,B2}である。
アフィンマージ候補リスト内の候補の数がMaxNumAffineCand(例えば、5)よりも少ない場合、構築アフィン候補が候補リストに挿入される。構築アフィン候補は、各制御点の隣接動き情報を組み合わせることによって構築される候補を意味する。
a)先ず、図19に示すように、制御点に関する動き情報が、特定の空間的に隣接するもの及び時間的に隣接するものから導出される。CPk(k=1,2,3,4)は、k番目の制御点を表す。A0、A1、A2、B0、B1、B2、及びB3は、CPk(k=1,2,3)を予測するための空間位置であり、Tは、CP4を予測するための時間位置である。
CP1、CP2、CP3、及びCP4の座標は、それぞれ、(0,0)、(W,0)、(H,0)、及び(W,H)であるり、ここで、W及びHは、現在ブロックの幅及び高さである。
各制御点の動き情報は、以下の優先順位に従って取得される:
- CP1について、検査優先度はB2→B3→A2である。B2が利用可能である場合、それが使用される。そうでなくB2が利用可能でない場合、B3が使用される。B2及びB3の両方が利用可能でない場合、A2が使用される。これら3つの候補が全て利用可能でない場合には、CP1の動き情報を得ることはできない;
- CP2について、検査優先度はB1->B0である;
- CP3について、検査優先度はA1->A0である;
- CP4については、Tが用いられる。
b)第二に、アフィンマージ候補を構築するために、制御点の組み合わせが使用される。
I. 6パラメータアフィン候補を構築するには、3つの制御点の動き情報が必要とされる。3つの制御点は、以下の4つの組み合わせ({CP1,CP2,CP4}、{CP1,CP2,CP3}、{CP2,CP3,CP4}、{CP1,CP3,CP4})のうちの1つから選択され得る。組み合わせ{CP1,CP2,CP3}、{CP2,CP3,CP4}、{CP1,CP3,CP4}が、左上、右上、左下の制御点によって表される6パラメータ動きモデルに変換されることになる。
II. 4パラメータアフィン候補を構築するには、2つの制御点の動き情報が必要とされる。2つの制御点は、2つの組み合わせ({CP1,CP2}、{CP1,CP3})のうちの1つから選択され得る。これら2つの組み合わせが、左上及び右上の制御点によって表される4パラメータ動きモデルに変換されることになる。
III. 構築アフィン候補の組み合わせは、次の順序で候補リストに挿入される:
{CP1,CP2,CP3}、{CP1,CP2,CP4}、{CP1,CP3,CP4}、{CP2,CP3,CP4}、{CP1,CP2}、{CP1,CP3}
i. 各組み合わせについて、各CPのリストXの参照インデックスが検査され、それらが全て同じである場合、この組み合わせはリストXに対して有効なCPMVを持つ。その組み合わせがリスト0及びリスト1の両方に対して有効なCPMVを持たない場合、この組み合わせは無効としてマークされう。そうでなければ、それは有効であり、CPMVがサブブロックマージリストに入れられる。
アフィンマージ候補リスト内の候補の数が5未満である場合、リストがいっぱいになるまで、ゼロ参照インデックスを持つゼロ動きベクトルが候補リストに挿入される。
JVET-L0054では、最終動きベクトル表現(UMVE、これはMMVDとしても知られる)が提示されている。UMVEは、提案する動きベクトル表現法とともにスキップモード又はマージモードのいずれかに使用される。
双予測演算では、1つのブロック領域の予測のために、list0の動きベクトル(MV)とlist1のMVとを用いて形成される2つの予測ブロックが結合されて単一の予測信号を形成する。デコーダ側動きベクトル精緻化(decoder-side motion vector refinement;DMVR)法においては、双予測の二つの動きベクトルが更に精緻化される。
・ list0とlist1との間での(0,0)位置SADを用いた早期終了
・ DMVR W×H>=64 && H>=8のブロックサイズ
・ CUサイズ>16×16のDMVRに対してCUを16×16のサブブロックに分割
・ (ルマについての)参照ブロックサイズ(W+7)×(H+7)
・ 25ポイントSADベース整数pel探索(すなわち、(±)2精緻化探索範囲、単一ステージ)
・ バイリニア補間ベースのDMVR
・ バイラテラルマッチングを可能にするlist0とlist1との間でのMVDミラーリング
・ “パラメトリック誤差表面方程式”ベースのサブペル精密化
・ 参照ブロックパディングを用いたルマ/クロマMC(必要な場合)
・ MC及びTMVPのみでの精緻化MVの使用
JVET-L0100にて多重仮説(multi-hypothesis)予測が提案されており、それにおいては、結合イントラ・インター予測が、複数の仮説を生成するための1つの手法である。
インループ再整形(in-loop reshaping;ILR)は、クロマスケーリング付きルママッピング(Luma Mapping with Chroma Scaling;LMCS)としても知られている。
概念的に、ピースワイズリニア(piece-wise linear;PWL)が以下のように実装される。
y=((y2-y1)/(x2-x1))*(x-x1)+y1
によって補間することができる。
y=((m*x+2FP_PREC-1)>>FP_PREC)+c
のように書き換えることができ、ここで、mはスカラであり、cはオフセットであり、FP_PRECは精度を規定する定数値である。
2.5.2.1. ルマ再整形
インループルマ再整形のテスト2(すなわち、提案書のCE12-2)は、インタースライス再構成におけるブロックごとのイントラ予測のための復号レイテンシも排除するいっそう低い複雑度のパイプラインを提供する。インタースライス及びイントラスライスの両方に対して、再整形されたドメイン(再整形ドメイン)内でイントラ予測が実行される。
ルマ依存クロマ残差スケーリングは、固定小数点整数演算で実装される乗法プロセスである。クロマ残差スケーリングは、クロマ信号とのルマ信号相互作用を補償する。クロマ残差スケーリングはTUレベルで適用される。より具体的には、以下が適用される:
- イントラの場合、再構成ルマが平均される。
- インターの場合、予測ルマが平均される。
パラメータは(現行では)タイルグループヘッダ(ALFと同様)内で送られる。伝えられているところでは、これらは40-100ビットを要する。
creshaper_model_bin_delta_sign_CW_flag[i]が0に等しい場合、対応する変数RspDeltaCW[i]が正の値である。
- reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idxである場合、
RspCW[i]=OrgCW+RspDeltaCW[i];
- それ以外の場合、RspCW[i]=0。
InputPivot[i]=i*OrgCW
shiftY=14
ReshapePivot[0]=0;
for(i=0;i<=MaxBinIdx;i++){
ReshapePivot[i+1]=ReshapePivot[i]+RspCW[i]
ScaleCoef[i]=(RspCW[i]*(1<<shiftY)+(1<<(Log2(OrgCW)1)))>>(Log2(OrgCW))
if(RspCW[i]==0)
InvScaleCoeff[i]=0
else
InvScaleCoeff[i]=OrgCW*(1<<shiftY)/RspCW[i]
}
ChromaResidualScaleLut[64]={16384,16384,16384,16384,16384,16384,16384,8192,8192,8192,8192,5461,5461,5461,5461,4096,4096,4096,4096,3277,3277,3277,3277,2731,2731,2731,2731,2341,2341,2341,2048,2048,2048,1820,1820,1820,1638,1638,1638,1638,1489,1489,1489,1489,1365,1365,1365,1365,1260,1260,1260,1260,1170,1170,1170,1170,1092,1092,1092,1092,1024,1024,1024,1024};
shiftC=11
if(RspCW[i]==0)
ChromaScaleCoef[i]=(1<<shiftC)
Otherwise(RspCW[i]!=0),
ChromaScaleCoef[i]=ChromaResidualScaleLut[RspCW[i]>>1]
結合マージ・イントラ予測に関する重み付けサンプル予測プロセスに関連して、以下のテキストを追加することができる。追加を、下線を付けてマークする:
8.4.6.6 結合マージ・イントラ予測に関する重み付けサンプル予測プロセス
このプロセスへの入力は以下である:
- 現在符号化ブロックの幅cbWidth
- 現在符号化ブロックの高さcbHeight
- 2つの(cbWidth)×(cbHeight)配列preSamplesInter及びpredSamplesIntra
- イントラ予測モードpredModeIntra
- 色成分インデックスを規定する変数cIdx
このプロセスの出力は予測サンプル値の(cbWidth)×(cbHeight)配列presamplesCombである
変数bitDepthは次のように導出される:
- cIdxが0に等しい場合、bitDepthはBitDepthYに等しく設定される。
- それ以外の場合、bitDepthはBitDepthCに等しく設定される。
x=0..cbWidth-1及びy=0..cbHeight-1を持つ予測サンプルpredSamplesComb[x][y]が、次のように導出される:
- 重みwが、次のように導出される:
- predModeIntraがINTRA_ANGULAR50である場合、wは、nPosをyに等しくし且つnSizeをcbHeightに等しくして表4で規定される
- そうでなく、predModeIntraがINTRA_ANGULAR18である場合、wは、nPosをxに等しくし且つnSizeをcbWidthに等しくして表8-10で規定される
- それ以外の場合、wは4に設定される
- cIdxが0に等しい場合、predsamplesInterが、次のように導出される:
- tile_group_resharper_enabled_flagが1に等しい場合、
ShiftY=14
idxY=predSamplesInter[x][y]>>Log2(OrgCW)
predSamplesInter[x][y]=Clip1Y(ReshapePivot[idxY]
+(ScaleCoeff[idxY]*(predSamplesInter[x][y]InputPivot[idxY])
+(1<<(ShiftY-1))>>ShiftY (8-xxx)
- それ以外の場合(tile_group_reshaper_enabled_flagが0に等しい)
predSamplesInter[x][y]=predSamplesInter[x][y]
- 予測サンプルpredSamplesComb[x][y]が、次のように導出される:
predSamplesComb[x][y]=(w*predSamplesIntra[x][y]+
(8-w)*predSamplesInter[x][y])>>3) (8-740)
8.5.5 ピクチャ再構成プロセス
このプロセスへのインプットは以下である:
- 現在ピクチャコンポーネントの左上サンプルに対する現在ブロックの左上サンプルを規定する位置(xCurr,yCurr)
- それぞれ現在ブロックの幅及び高さを規定する変数nCurrSw及びnCurrSh
- 現在ブロックの色成分を規定する変数cIdx
- 現在ブロックの予測サンプルを規定する(nCurrSw)×(nCurrSh)配列predSamples
- 現在ブロックの残差サンプルを規定する(nCurrSw)×(nCurrSh)配列resSamples
色成分cIdxの値に応じて、以下の割り当てが行われる:
- cIdxが0に等しい場合、recSamplesは再構成ピクチャサンプル配列SLに対応し、関数clipCidx1はClip1Yに対応する
- そうでなく、cIdxが1に等しい場合、recSamplesは再構成クロマサンプル配列SCbに対応し、関数clipCidx1はClip1Cに対応する
- それ以外の場合(cIdxが2に等しい)、recSamplesは再構成クロマサンプル配列SCrに対応し、関数clipCidx1はClip1Cに対応する
tile_group_reshaper_enabled_flagの値が1に等しい場合、位置(xCurr,yCurr)にある再構成サンプル配列recSamplesの(nCurrSw)×(nCurrSh)ブロックが、8.5.5.1項に規定されたマッピングプロセスとして導出される。それ以外の場合、位置(xCurr,yCurr)にある再構成サンプル配列recSamplesの(nCurrSw)×(nCurrSh)ブロックは、次のように導出される:
recSamples[xCurr+i][yCurr+j]=clipCidx1(predSamples[i][j]+resSamples[i][j])
wth i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
8.5.5.1 マッピングプロセス付きピクチャ再構成
この節は、マッピングプロセスを用いるピクチャ再構成を規定する。ルマサンプル値に関するマッピングプロセス付きピクチャ再構成が、8.5.5.1.1で規定される。クロマサンプル値に関するマッピングプロセス付きピクチャ再構成が、8.5.5.1.2で規定される。
8.5.5.1.1 ルマサンプル値に関するマッピングプロセス付きピクチャ再構成
このプロセスへの入力は以下である:
- 現在ブロックのルマ予測サンプルを規定する(nCurrSw)×(nCurrSh)配列predSamples
- 現在ブロックのルマ残差サンプルを規定する(nCurrSw)×(nCurrSh)配列resSamples
このプロセスの出力は以下である:
- (nCurrSw)×(nCurrSh)のマッピングされたルマ予測サンプル配列predMapSamples
- (nCurrSw)×(nCurrSh)の再構成ルマサンプル配列recSamples
predMapSamplesは、次のように導出される:
- If(CuPredMode[xCurr][yCurr]==MODE_INTRA)||(CuPredMode[xCurr][yCurr]==MODE_CPR)||(CuPredMode[xCurr][yCurr]==MODE_INTER&&mh_intra_flag[xCurr][yCurr])
predMapSamples[xCurr+i][yCurr+j]=predSamples[i][j] (8-xxx)
wth i=0..nCurrSw-1,j=0..nCurrSh-1
- それ以外の場合((CuPredMode[xCurr][yCurr]==MODE_INTER&&!mh_intra_flag[xCurr][yCurr]))、以下が適用される:
shiftY=14
idxY=predSamples[i][j]>>Log2(OrgCW)
predMapSamples[xCurr+i][yCurr+j]=ReshapePivot[idxY]
+(ScaleCoeff[idxY]*(predSamples[i][j]InputPivot[idxY])
+(1<<(shiftY-1)))>>shifty (8-xxx)
wth i=0..nCurrSw-1,j=0..nCurrSh-1
recSamplesは、次のように導出される:
recSamples[xCurr+i][yCurr+j]=Clip1Y(predMapSamples[xCurr+i][yCurr+j]+resSamples[i][j]])
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
8.5.5.1.2 クロマサンプル値に関するマッピングプロセス付きピクチャ再構成
このプロセスへの入力は以下である:
- 現在ブロックのマッピングされたルマ予測サンプルを規定する(nCurrSw×2)×(nCurrSh×2)配列predMapSamples
- 現在ブロックのクロマ予測サンプルを規定する(nCurrSw)×(nCurrSh)配列predSamples
- 現在ブロックのクロマ残差サンプルを規定する(nCurrSw)×(nCurrSh)配列resSamples
このプロセスの出力は、再構成クロマサンプル配列recSamplesである
recSamplesは、次のように導出される:
- If(!tile_group_reshaper_chroma_residual_scale_flag||((nCurrSw)x(nCurrSh)<=4))
recSamples[xCurr+i][yCurr+j]=Clip1C(predSamples[i][j]+resSamples[i][j])
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
- それ以外の場合(tile_group_reshaper_chroma_residual_scale_flag&&((nCurrSw)x(nCurrSh)>4))、以下が適用される:
変数varScaleが、次のように導出される:
1. invAvgLuma=Clip1Y((ΣiΣjpredMapSamples[(xCurr<<1)+i][(yCurr<<1)+j]
+nCurrSw*nCurrSh*2)/(nCurrSw*nCurrSh*4))
2. サンプル値の入力をinvAvgLumaとして8.5.6.2節で規定されるピースワイズ関数インデックスの特定を呼び出すことによって、変数idxYInvが導出される
3. varScale=ChromaScaleCoef[idxYInv]
recSamplesが、次のように導出される:
- tu_cbf_cIdx[xCurr][yCurr]が1に等しい場合、以下が適用される:
shiftC=11
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j]+Sign(resSamples[i][j])*((Abs(resSamples[i][j])*varScale+(1<<(shiftC-1)))>>shiftC))
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
- それ以外の場合(tu_cbf_cIdx[xCurr][yCurr]が0に等しい)、
recSamples[xCurr+i][yCurr+j]=ClipCidx1(predSamples[i][j])
with i=0..nCurrSw-1,j=0..nCurrSh-1 (8-xxx)
8.5.6 ピクチャ逆マッピングプロセス
この節は、tile_group_reshaper_enabled_flagの値が1に等しい場合に呼び出される。入力は再構成ピクチャルマサンプル配列SLであり、出力は逆マッピングプロセス後の修正再構成ピクチャルマサンプル配列S’Lである
ルマサンプル値に関する逆マッピングプロセスが、8.4.6.1で規定される。
8.5.6.1 ルマサンプル値のピクチャ逆マッピングプロセス
このプロセスへの入力は、現在ピクチャの左上ルマサンプルに対するルマサンプル位置を規定するルマ位置(xP,yP)である
このプロセスの出力は、逆マッピングされたルマサンプル値invLumaSampleである
invLumaSampleの値は、以下の順序付けられたステップを適用することによって導出される:
1. ルマサンプル値の入力をSL[xP][yP]として8.5.6.2節で規定されるピースワイズ関数インデックスの特定を呼び出すことによって、変数idxYInvが導出される
2. reshapeLumaSampleの値が、次のように導出される:
shiftY=14
invLumaSample=
InputPivot[idxYInv]+(InvScaleCoeff[idxYInv]*(SL[xP][yP]ReshapePivot[idxYInv]
+(1<<(shiftY-1)))>>shifty (8-xx)
3. clipRange=((reshape_model_min_bin_idx>0)&&(reshape_model_max_bin_idx<MaxBinIdx));
- clipRangeが1に等しい場合、以下が適用される:
minVal=16<<(BitDepthY-8)
maxVal=235<<(BitDepthY-8)
invLumaSample=Clip3(minVal,maxVal,invLumaSample)
- それ以外の場合(clipRangeが0に等しい)、
invLumaSample=ClipCidx1(invLumaSample)
8.5.6.2 ルマコンポーネントに関するピースワイズ関数インデックスの特定
このプロセスへの入力はルマサンプル値Sである
このプロセスの出力は、サンプルSが属するピースを特定するインデックスidxSである。変数idxSは、次のように導出される:
for(idxS=0,idxFound=0;idxS<=MaxBinIdx;idxS++){
if((S<ReshapePivot[idxS+1]){
idxFound=1
break
}
}
なお、識別子idxSを見つけるための代わりの実装は、以下のとおりである:
if(S<ReshapePivot[reshape_model_min_bin_idx])
idxS=0
elseif(S>=ReshapePivot[reshape_model_max_bin_idx])
idxS=MaxBinIdx
else
idxS=findIdx(S,0,MaxBinIdx+1,ReshapePivot[])
functionidx=findIdx(val,low,high,pivot[]){
if(high-low<=1)
idx=low
else{
mid=(low+high)>>1
if(val<pivot[mid])
high=mid
else
low=mid
idx=findIdx(val,low,high,pivot[])
}
}
エンコーダ側で、各ピクチャ(又はタイルグループ)が先ず再整形ドメインに変換される。そして、全ての符号化プロセスが再整形ドメインで実行される。イントラ予測では、隣接ブロックは再整形ドメイン内にあり、インター予測では、参照ブロック(復号ピクチャバッファから、元のドメインから生成される)が先ず再整形ドメインに変換される。次いで、残差が生成され、ビットストリームに符号化される。
- 現在ブロックがイントラ符号化される、
- 現在ブロックがCPR(current picture referencing、イントラブロックコピーIBCとも呼ばれる)として符号化される、
- 現在ブロックが結合インター-イントラモード(CIIP)として符号化され、且つイントラ予測ブロックに対して順再整形が無効にされる。
仮想パイプラインデータユニット(virtual pipeline data unit;VPDU)は、ピクチャ内の重なり合わないM×M-ルマ(L)/N×N-クロマ(C)ユニットとして定義される。ハードウェアデコーダにおいて、連続するVPDUが複数のパイプライン段によって同時に処理され、複数の異なる段が同時に異なるVPDUを処理する。VPDUサイズは、ほとんどのパイプライン段においてバッファサイズにおおよそ比例し、それ故に、VPDUサイズを小さく保つことが非常に重要であると言い得る。HEVCハードウェアデコーダでは、VPDUサイズは最大の変換ブロック(TB)サイズに設定される。最大TBサイズを(HEVCにおいてのように)32×32-L/16×16-Cから(現行VVCにおいてのように)64×64-L/32×32-Cに拡大すると、符号化利得をもたらすことができ、HEVCと比較して4倍のVPDUサイズ(64×64-L/32×32-C)とつながることが期待される。しかしながら、VVCでは、更なる符号化利得を達成するために、四分木(QT)符号化ユニット(CU)分割に加えて、三分木(TT)及び二分木(BT)が採用され、TT及びBT分割を128×128-L/64×64-C符号化ツリーブロック(CTU)に再帰的に適用することができ、これは、HEVCと比較して16倍のVPDUサイズ(128×128-L/64×64-C)につながると言える。
VVCでは、ALFパラメータを運ぶために適応パラメータセット(Adaptation Parameter Set;APS)が採用される。タイルグループヘッダは、ALFが有効にされる場合に条件付きで存在するaps_idを含む。APSはaps_id及びALFパラメータを含む。(JVET-M0132から)APSに新たなNUT(AVC及びHEVCにおいてのように、NALユニットタイプ)値が割り当てている。VTM-4.0(登場予定)における共通テスト条件では、単に、aps_id=0を使用し且つ各ピクチャとともにAPSを送信することが提案されている。差し当たり、APS ID値の範囲は0..31となり、APSはピクチャ間で共有されることができる(そして、ピクチャ内の異なるタイルグループでは異なることができる)。このID値は、存在する場合、固定長で符号化されるべきである。同一ピクチャ内の異なるコンテンツでID値を再利用することはできない。
2.8.1. 拡散フィルタ(DF)
JVET-L0157にて拡散フィルタが提案されており、それにおいては、CUのイントラ/インター予測信号が更に拡散フィルタによって変更され得る。
均一(Uniform)拡散フィルタは、予測信号を、以下に定義されるhI又はhIVのいずれかとして与えられる固定マスクと畳み込むことによって実現される。
hIV*pred
で置き換えることが提案される。ここで、フィルタマスクhIVは、
hIV=hI*hI*hI*hI
として与えられる。
信号適応拡散フィルタを使用する代わりに、なおも固定マスクを持つ水平フィルタhhor及び垂直フィルタhverが使用される。より正確には、前節のマスクhIに対応する均一拡散フィルタリングが、単純に、垂直方向に沿って又は水平方向に沿ってのいずれかのみで適用されるように制限される。垂直フィルタは、固定フィルタマスク:
JVET-L0406にてバイラテラルフィルタが提案されており、それは、非ゼロの変換係数と17より大きいスライス量子化パラメータとを持つルマブロックに常に適用される。従って、バイラテラルフィルタの使用を信号伝達する必要はない。バイラテラルフィルタは、適用される場合、逆変換の直後に復号サンプル上で実行される。加えて、フィルタパラメータすなわち重みは、符号化された情報から明示的に導出される。
JVET-K0068では、1Dアダマール変換ドメインにおけるインループフィルタが、再構成後にCUレベルで適用され、無乗算(乗算フリー)実装を有する。提案されるフィルタが、所定の条件を満たす全てのCUブロックに適用され、フィルタパラメータが、符号化された情報から導出される。
・ 現在ピクセルを含む処理ピクセル周囲の4つの隣接ピクセルを走査パターンに従って走査する
・ 読み取ったピクセルの4点アダマール変換
・ 次式に基づくスペクトルフィルタリング:
σ=2(1+0.126*(QP-27))
を用いて導出されるフィルタリングパラメータである。
ILRの現行設計は、以下の問題を有する:
1. 再整形モデル情報がシーケンス内で信号伝達されていないのに、tile_group_reshaper_enable_flagが現在スライス(又はタイルグループ)において1に等しく設定されてしまうことが可能である。
2. 保存された再整形モデルが、参照として使用されることができないスライス(又はタイルグループ)に由来することがある。
3. 1つのピクチャが幾つかのスライス(又はタイルグループ)に分割され、各スライス(又はタイルグループ)が再整形モデル情報を信号伝達することがある。
4. 一部の値及び範囲(例えばRspCW[i]の範囲など)は、ビット深度が10に等しい場合にのみ規定される。
5. reshape_model_delta_max_bin_idxが十分に制約されていない。
6. reshaper_model_bin_delta_abs_cw_pre_minus1が十分に制約されていない。
7. ReshapePivot[i]が1<<BitDepth-1よりも大きいことがある。
8. 固定のクリッピングパラメータ(すなわち、0に等しい最小値及び(1<<BD)-1に等しい最大値)が、ILRの使用を考慮せずに使用される。ここで、BDはビット深度を示す。
9. クロマコンポーネントの再整形演算が、4:2:0カラーフォーマットのみを考慮している。
10. 各ルマ値が異なって再整形され得るルマコンポーネントとは異なり、クロマコンポーネントに対しては1つのファクタのみが選択されて使用される。追加の複雑さを低減させるために、そのようなスケーリングが量子化/逆量子化ステップに融合されることがある。
11. ピクチャ逆マッピングプロセスにおけるクリッピングが、上限及び下限を別々に考慮し得る。
12. reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idxの範囲にないiについて、ReshapePivot[i]が適切に設定されない。
以下に記載される詳細な実施形態は、一般的概念を説明するための例とみなされるべきである。これらの実施形態は狭義に解釈されるべきではない。さらに、これらの実施形態は、何らかのやり方で組み合わされることができる。
1. シーケンスを復号する前に再整形モデルが初期化されることが提案される。
a. あるいは、Iスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。
b. あるいは、瞬時復号リフレッシュ(IDR)スライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。
c. あるいは、クリーンランダムアクセス(CRA)スライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。
d. あるいは、イントラランダムアクセスポイント(I-RAP)スライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
e. 再整形モデルを初期化することの一例において、OrgCWが(1<<BitDepthY)/(MaxBinIdx+1)に等しく設定され、i=0,1,…,MaxBinIdxに対して、ReshapePivot[i]=InputPivot[i]=i*OrgCWである。
f. 再整形モデルを初期化することの一例において、i=0,1,…,MaxBinIdxに対して、ScaleCoeff[i]=InvScaleCoeff[i]=1<<shiftYである。
g. 再整形モデルを初期化することの一例において、OrgCWが(1<<BitDepthY)/(MaxBinIdx+1)に等しく設定される。i=0,1,…,MaxBinIdxに対して、RspCW[i]=OrgCWである。
h. あるいは、デフォルトの再整形モデル情報が、シーケンスレベル(例えばSPS内でなど)又はピクチャレベル(例えばPPSにおいてなど)で信号伝達されてもよく、再整形モデルはデフォルトのものであるように初期化される。
i. あるいは、再整形モデルが初期化されない場合、ILRが無効にされるよう制約される。
2. 再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がIスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得ることが提案される。
a. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がIDRスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得る。
b. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がCRAスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得る。
c. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)がI-RAPスライス(又はピクチャ又はタイルグループ)内でのみ信号伝達され得る。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
d. あるいは、再整形モデル情報(例えばtile_group_reshaper_model()内の情報など)は、シーケンスレベル(例えばSPS内でなど)又はピクチャレベル(例えばPPSにおいてなど)又はAPSで信号伝達され得る。
3. 特定のピクチャタイプ(例えばIRAPピクチャなど)ではピクチャ/スライス/タイルグループからの再整形情報を利用することを禁止することが提案される。
a. 一例において、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にIスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がIスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。
b. あるいは、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にIDRスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がIDRスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。
c. あるいは、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にCRAスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がCRAスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。
d. あるいは、第1のスライス(又はピクチャ又はタイルグループ)の後且つ第2のスライス(又はピクチャ又はタイルグループ)の前にI-RAPスライス(又はピクチャ又はタイルグループ)が伝送される場合、又は第2のスライス(又はピクチャ又はタイルグループ)自体がI-RAPスライス(又はピクチャ又はタイルグループ)である場合、第1のスライス(又はピクチャ又はタイルグループ)で信号伝達される再整形モデル情報は、第2のスライス(又はピクチャ又はタイルグループ)によって使用されることができない。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
4. 一例において、Iスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。
a. あるいは、IDRスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。
b. あるいは、CRAスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。
c. あるいは、I-RAPスライス(又はピクチャ又はタイルグループ)内でフラグが信号伝達される。フラグがXである場合、このスライス(又はピクチャ又はタイルグループ)内で再整形モデル情報が信号伝達され、それ以外の場合、このスライス(又はピクチャ又はタイルグループ)を復号する前に再整形モデルが初期化される。例えば、X=0又は1である。I-RAPスライス(又はピクチャ又はタイルグループ)は、IDRスライス(又はピクチャ又はタイルグループ)及び/又はCRAスライス(又はピクチャ又はタイルグループ)及び/又はブロークンリンクアクセス(BLA)スライス(又はピクチャ又はタイルグループ)を含み得る。
5. 一例において、1つのピクチャが幾つかのスライス(又はタイルグループ)に分割される場合、各スライス(又はタイルグループ)が同じ再整形モデル情報を共有すべきである。
a. 一例において、1つのピクチャが複数のスライス(又はタイルグループ)に分割される場合、最初のスライス(又はタイルグループ)のみが再整形モデル情報を信号伝達し得る。
6. 再整形に使用される変数は、ビット深度に応じて初期化、操作、及び制約されるべきである
a. 一例において、MaxBinIdx=f(BitDepth)であり、ここで、fは関数である。例えば、MaxBinIdx=4×2(BitDepth-8)-1である。
b.一例において、RspCW[i]は、g(BitDepth)から2×OrgCW-1までの範囲内にあるとされる。例えば、RspCW[i]は、8×2(BitDepth-8)から2×OrgCW-1までの範囲内にあるとされる。
7. 一例において、i=0,1,…,MaxBinIdxに対して、RspCW[i]が0に等しい場合、ScaleCoef[i]=InvScaleCoeff[i]=1である。
8. reshape_model_delta_max_bin_idxが、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にあるべきであることが提案される。
a. あるいは、reshape_model_delta_max_bin_idxは、0からMaxBinIdxまでの範囲内にあるべきである。
b. 一例において、reshape_model_delta_max_bin_idxは、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にクリッピングされる(切り取られる)。
c. 一例において、reshape_model_delta_max_bin_idxは、両端を含めて、0からMaxBinIdxまでの範囲内にクリッピングされる。
d. 一例において、reshaper_model_min_bin_idxは、reshaper_model_max_bin_idx以下でなければならない。
e. 一例において、reshaper_model_max_bin_idxは、両端を含めて、reshaper_model_min_bin_idxからMaxBinIdxまでの範囲内にクリッピングされる。
f. 一例において、reshaper_model_min_bin_idxは、両端を含めて、0からreshaper_model_max_bin_idxまでの範囲内にクリッピングされる。
g. 上の制約のうちの1つ又は一部は、コンフォーミングビットストリームによって要求され得る。
9. reshape_model_max_bin_idxがreshape_model_min_bin_idx+reshape_model_delta_maxmin_bin_idxに等しく設定されることが提案され、ここで、reshape_model_delta_maxmin_bin_idxは、符号なし整数であり、reshape_model_min_bin_idxの後に信号伝達される構文要素である。
b. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にあるべきである。
c. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、1からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にあるべきである。
d. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、0からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にクリッピングされるべきである。
e. 一例において、reshape_model_delta_maxmin_bin_idxは、両端を含めて、1からMaxBinIdx-reshape_model_min_bin_idxまでの範囲内にクリッピングされるべきである。
f. 上の制約のうちの1つ又は一部は、コンフォーミングビットストリームによって要求され得る。
10. reshaper_model_bin_delta_abs_cw_pre_minus1が閾値Tより小さいべきであることが提案される。
a. 一例において、Tは例えば6又は7などの固定数とし得る。
b. 一例において、Tはビット深度に依存し得る。
c. 上の制約は、コンフォーミングビットストリームによって要求され得る。
11. RspCW[i]がRspCW[i-1]によって予測され得ること、すなわち、RspCW[i]=RspCW[i-1]+RspDeltaCW[i]であることが提案される。
a. 一例において、RspCW[i]は、reshaper_model_min_bin_idx<=i<=reshaper_model_max_bin_idxのときに、RspCW[i-1]によって予測され得る。
b. 一例において、iが0に等しいときに、RspCW[i]がOrgCWによって予測され、すなわち、RspCW[i]=OrgCW+RspDeltaCW[i]である。
c. 一例において、iがreshaper_model_min_bin_idxに等しいとき、RspCW[i]はOrgCWによって予測され、すなわち、RspCW[i]=OrgCW+RspDeltaCW[i]である。
12. reshape_model_bin_delta_sign_CW[i]が決して信号伝達されず、RspDeltaCW[i]=reshape_model_bin_delta_abs_CW[i]が常に正の数であることが提案される。
a. 一例において、RspCW[i]=MinV+RspDeltaCW[i]である。
i. 一例において、MinV=32である;
ii. 一例において、MinV=g(BitDepth)である。例えば、MinV=8*2(BitDepth-8)である。
13. invAvgLumaの計算は、カラーフォーマットに依存し得る。
a. 一例において、invAvgLuma=Clip1Y((ΣiΣj predMapSamples[(xCurr<<scaleX)+i][(yCurr<<scaleY)+j]+((nCurrSw<<scaleX)*(nCurrSh<<scaleY)>>1))/((nCurrSw<<scaleX)*(nCurrSh<<scaleY)))であり、
i. 4:2:0フォーマットに対して、scaleX=scaleY=1であり;
ii. 4:4:4フォーマットに対して、scaleX=scaleY=0であり;
iii. 4:2:2フォーマットに対して、scaleX=1且つscaleY=0である。
14. ピクチャ逆マッピングプロセスが上限及び下限を別々に検討し得ることが提案される。
a. 一例において、invLumaSample=Clip3(minVal,maxVal,invLumaSample)であり,minVal,maxValは、異なる条件に従って計算される。
i. 例えば、reshape_model_min_bin_idx>0である場合、minVal=T1<<(BitDepth-8)であり;それ以外の場合、minVal=0であり;例えば、T1=16である。
ii. 例えば、reshape_model_max_bin_idx<MaxBinIdxである場合、maxVal=T2<<(BitDepth-8)であり;それ以外の場合、maxVal=(1<<BitDepth)-1であり;例えば、T2=235である。他の一例では、T2=40である。
15. ReshapePivot[i]がReshapePivot[i]<=Tとして制約されるべきであることが提案され、例えば、T=(1<<BitDepth)-1である。
a. 例えば、ReshapePivot[i+1]=min(ReshapePivot[i]+RspCW[i],T)である。
16. クロマコンポーネントについて各ピクセルドメイン残差値を再整形する代わりに、クロマQPオフセット(dChromaQpと表記)が各ブロック又は各TUに対して暗黙的に導出されてもよく、それがクロマQPに加算されてもよい。斯くして、クロマコンポーネントの再整形が、量子化/逆量子化プロセスに融合される。
a. 一例において、dChromaQpは、repLumaValと表記される代表的なルマ値に基づいて導出され得る。
b. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値を用いて導出され得る。
c. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ再構成値を用いて導出され得る。
d. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値又は再構成値の平均として導出され得る。
e. ReshapePivot[idx]<=repLumaVal<ReshapePivot[idx+1]と仮定して、InvScaleCoeff[idx]を用いてdChromaQpが導出され得る。
i. 一例において、dQpが、argmin abs(2^(x/6+shiftY)-InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
ii. 一例において、dQpが、argmin abs(1-(2^(x/6+shiftY)/InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
iii. 一例において、異なるInvScaleCoeff[idx]値に対して、dChromaQpが事前計算されてルックアップテーブルに格納され得る。
17. ルマコンポーネントについて各ピクセルドメイン残差値を再整形する代わりに、ルマQPオフセット(dQpと表記)が各ブロックに対して暗黙的に導出されて、ルマQPに加算されてもよい。斯くして、ルマコンポーネントの再整形が、量子化/逆量子化プロセスに融合される。
a. 一例において、dQpは、repLumaValと表記される代表的なルマ値に基づいて導出され得る。
b. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値を用いて導出され得る。
c. 一例において、repLumaValは、ブロック又はTUの一部の又は全てのルマ予測値の平均として導出され得る。
d. idx=repLumaVal/OrgCWと仮定して、InvScaleCoeff[idx]を用いてdQpが導出され得る。
i. 一例において、dQpが、argmin abs(2^(x/6+shiftY)-InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
ii. 一例において、dQpが、argmin abs(1-(2^(x/6+shiftY)/InvScaleCoeff[idx])として選定されることができ、x=-N,…,Mである。例えば、N=M=63である。
iii. 一例において、異なるInvScaleCoeff[idx]値に対して、dQpが事前計算されてルックアップテーブルに格納され得る。
この場合、dChromaQpがdQpに等しく設定され得る。
図27Aは、映像処理装置2700のブロック図である。装置2700は、ここに記載される方法のうちの1つ以上を実装するために使用され得る。装置2700は、スマートフォン、タブレット、コンピュータ、モノのインターネット(IoT)受信器にて具現化され得る。装置2700は、1つ以上のプロセッサ2702、1つ以上のメモリ2704、及び映像処理ハードウェア2706を含み得る。(1つ以上の)プロセッサ2702は、本文書に記載される1つ以上の方法を実行するように構成され得る。(1つ以上の)メモリ2704は、ここに記載される方法及び技術を実行するのに使用されるデータ及びコードを格納するために使用され得る。映像処理ハードウェア2706は、本文書に記載される一部の技術をハードウェア回路にて実装するために使用されることができ、また、部分的に又は完全にプロセッサ2702(例えば、グラフィックスプロセッサコアGPU又は他の信号処理回路)の一部であってもよい。
26. ビジュアルメディア処理の方法であって、現在映像ブロックと、該現在映像ブロックのビットストリーム表現との間で変換を実行するステップ、を有し、前記変換の間に、インループ再整形ステップを用いて、該インループ再整形ステップに関連付けられたサイド情報に従って前記現在映像ブロックの表現を第1のドメインから第2のドメインに変換し、前記インループ再整形ステップは、再整形モデル情報に部分的に基づき、変換の間に、前記再整形モデル情報が、初期化ステップ、信号伝達ステップ、又は復号ステップのうちの1つ以上で使用され、ピクチャを複数のユニットに分割する際、前記再整形モデル情報は該複数のユニットのうちの最初のユニットでのみ信号伝達される、方法。
Claims (19)
- 映像データを処理する方法であって、
映像の映像領域の現在映像ユニットの現在クロマ映像ブロックと前記映像のビットストリームとの間での変換において、前記現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定するステップと、
少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記変換を実行するステップと、
を有し、
前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
方法。 - 前記スケーリングプロセスは第1のピースワイズリニアモデルに基づき、前記変数invAvgLumaが属するピースをインデックスが特定し、該インデックスに基づいて前記少なくとも1つのスケーリング係数が導出される、請求項1に記載の方法。
- 前記映像領域の前記現在映像ユニットのルマ映像ブロックに対し、
1)前記ルマ映像ブロックについての順マッピングプロセスであり、前記ルマ映像ブロックの予測サンプルが元のドメインから再整形ドメインへと変換される、順マッピングプロセス、又は
2)前記順マッピングプロセスの逆演算である逆マッピングプロセスであり、前記再整形ドメインにおける前記ルマ映像ブロックの再構成サンプルが前記元のドメインへと変換される、逆マッピングプロセス、
のうちの少なくとも一方が実行される、請求項1に記載の方法。 - 前記順マッピングプロセスにおいて前記ルマ映像ブロックの前記予測サンプルを特定の値にマッピングするために第2のピースワイズリニアモデルが使用される、請求項3に記載の方法。
- 前記逆マッピングプロセスで生成された、前記元のドメインにおける前記ルマ映像ブロックの前記変換された再構成サンプルに、フィルタリングプロセスが適用される、請求項3に記載の方法。
- 前記第2のピースワイズリニアモデルについての第1の構文要素及び第2の構文要素が前記ビットストリームに含められ、前記第1の構文要素に1を足したものが、前記第2の構文要素の表現に使用されるビット数を規定し、前記第2の構文要素は、前記特定の値に関連付けられるものであるi番目のビンについての絶対デルタコードワード値を規定する、請求項4に記載の方法。
- 前記第1の構文要素の値は閾値よりも小さく、
前記閾値はビット深度に依存する、
請求項6に記載の方法。 - 前記第1のピースワイズリニアモデルは、順マッピングプロセスの逆演算である逆マッピングプロセスに使用され、前記逆マッピングプロセスで、再整形ドメインにおける前記映像領域のルマ映像ブロックの再構成サンプルが元のドメインへと変換され、前記ルマ映像ブロックに対する前記順マッピングプロセスで、前記ルマ映像ブロックの予測サンプルが前記元のドメインから前記再整形ドメインへと変換される、請求項2に記載の方法。
- 第3の構文要素及び第4の構文要素が前記ビットストリームに含められ、前記第3の構文要素は、最大許容ビンインデックスと前記順マッピングプロセスで使用される最大ビンインデックスとの間の差を規定し、前記第4の構文要素は、前記順マッピングプロセスで使用される最小ビンインデックスを規定する、請求項3に記載の方法。
- 前記第3の構文要素の値は、0から前記最大許容ビンインデックスまでの範囲内にあり、
前記第4の構文要素の値は、前記順マッピングプロセスで使用される前記最大ビンインデックス以下であり、
前記第4の構文要素の値は、0から前記順マッピングプロセスで使用される前記最大ビンインデックスまでの範囲内にあり、
前記最大許容ビンインデックスは15に等しい、
請求項9に記載の方法。 - 前記現在映像ユニットに対するコーディングツールのモデル情報が、前記ビットストリームに含められ、前記コーディングツールは、前記スケーリングプロセス、前記順マッピングプロセス、又は前記逆マッピングプロセスのうちの少なくとも1つを含み、
前記現在映像ユニットを含む1つ以上の映像ユニットを前記映像領域が有することに応答して、前記1つ以上の映像ユニットの各々が、前記現在映像ユニットに対する前記コーディングツールの同じモデル情報を共有する、
請求項4に記載の方法。 - 前記1つ以上の映像ユニットは、1つ以上のスライス、1つ以上のタイルグループ、1つ以上のコーディングツリーユニット、又は1つ以上のコーディングユニットに相当し、
前記映像領域はピクチャであり、
前記コーディングツールの使用フラグがシーケンスパラメータセットに含められる、
請求項11に記載の方法。 - 前記コーディングツールのモデルは、前記第2のピースワイズリニアモデルを含み、前記第2のピースワイズリニアモデルの少なくとも1つの変数の値が、前記映像のビット深度に依存する、請求項11に記載の方法。
- 前記第2のピースワイズリニアモデルのi番目のピースワイズについてのコードワードの値の範囲が、前記映像のビット深度に依存し、前記i番目のピースワイズについての前記コードワードは前記特定の値に関連付けられ、
前記i番目のピースワイズについての前記コードワードの前記値は、前記現在映像ユニットに対する前記コーディングツールの前記モデル情報に基づいて決定される、
請求項11に記載の方法。 - 前記変換は、前記現在映像ユニットを前記ビットストリームへと符号化することを含む、請求項1に記載の方法。
- 前記変換は、前記ビットストリームから前記現在映像ユニットを復号することを含む、請求項1に記載の方法。
- プロセッサと、命令を有する非一時的なメモリと、を有する映像データを処理する装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
映像の映像領域の現在映像ユニットの現在クロマ映像ブロックと前記映像のビットストリームとの間での変換において、前記現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定させ、
少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記変換を実行させ、
前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
装置。 - 命令を格納した非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令は、プロセッサに、
映像の映像領域の現在映像ユニットの現在クロマ映像ブロックと前記映像のビットストリームとの間での変換において、前記現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定させ、
少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記変換を実行させ、
前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
コンピュータ読み取り可能記憶媒体。 - 映像のビットストリームを格納する方法であって、
前記映像の映像領域の現在映像ユニットの現在クロマ映像ブロックのクロマ残差サンプルに対してスケーリングプロセスが適用されることを決定するステップと、
少なくとも1つのスケーリング係数に基づいて前記クロマ残差サンプルに対して前記スケーリングプロセスを適用することによって、前記ビットストリームを生成するステップと、
前記ビットストリームを非一時的なコンピュータ読み取り可能記録媒体に格納するステップと、
を有し、
前記スケーリングプロセスにおいて、前記クロマ残差サンプルが、前記現在クロマ映像ブロックを再構成するために使用される前にスケーリングされ、
前記少なくとも1つのスケーリング係数は、平均化演算によって特定のルマサンプルを用いて導出される変数invAvgLumaに基づいて導出され、該変数invAvgLumaは、前記映像のカラーフォーマットに応じて計算される、
方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019077429 | 2019-03-08 | ||
CNPCT/CN2019/077429 | 2019-03-08 | ||
JP2021551760A JP7277599B2 (ja) | 2019-03-08 | 2020-03-09 | 映像処理におけるモデルベース再整形に対する制約 |
PCT/CN2020/078388 WO2020182092A1 (en) | 2019-03-08 | 2020-03-09 | Constraints on model-based reshaping in video processing |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021551760A Division JP7277599B2 (ja) | 2019-03-08 | 2020-03-09 | 映像処理におけるモデルベース再整形に対する制約 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023090865A JP2023090865A (ja) | 2023-06-29 |
JP7529848B2 true JP7529848B2 (ja) | 2024-08-06 |
Family
ID=72427691
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021551760A Active JP7277599B2 (ja) | 2019-03-08 | 2020-03-09 | 映像処理におけるモデルベース再整形に対する制約 |
JP2021551761A Active JP7203241B2 (ja) | 2019-03-08 | 2020-03-09 | 映像処理における再整形情報の信号伝達 |
JP2023075959A Active JP7529848B2 (ja) | 2019-03-08 | 2023-05-02 | 映像処理におけるモデルベース再整形に対する制約 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021551760A Active JP7277599B2 (ja) | 2019-03-08 | 2020-03-09 | 映像処理におけるモデルベース再整形に対する制約 |
JP2021551761A Active JP7203241B2 (ja) | 2019-03-08 | 2020-03-09 | 映像処理における再整形情報の信号伝達 |
Country Status (11)
Country | Link |
---|---|
US (3) | US11284084B1 (ja) |
EP (2) | EP3918800A4 (ja) |
JP (3) | JP7277599B2 (ja) |
KR (2) | KR20210135502A (ja) |
CN (4) | CN113545044A (ja) |
AU (1) | AU2020235190B2 (ja) |
CA (1) | CA3131286C (ja) |
MX (1) | MX2021010498A (ja) |
SG (1) | SG11202109150QA (ja) |
WO (3) | WO2020182091A1 (ja) |
ZA (1) | ZA202106351B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220150481A1 (en) * | 2019-03-07 | 2022-05-12 | Lg Electronics Inc. | Video or image coding based on luma mapping with chroma scaling |
WO2020182091A1 (en) | 2019-03-08 | 2020-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Reshaping model in video processing |
AU2020260285B2 (en) | 2019-04-18 | 2023-06-01 | Beijing Bytedance Network Technology Co., Ltd. | Restriction on applicability of cross component mode |
BR112021019675A2 (pt) | 2019-04-23 | 2021-12-07 | Beijing Bytedance Network Tech Co Ltd | Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador |
CN117221558A (zh) | 2019-05-08 | 2023-12-12 | 北京字节跳动网络技术有限公司 | 跨分量编解码的适用性条件 |
US11388406B2 (en) * | 2019-05-20 | 2022-07-12 | Dolby Laboratories Licensing Corporation | Piece-wise-linear mapping for in-loop reshaping in image coding |
CN113994679B (zh) | 2019-06-21 | 2024-07-12 | 北京字节跳动网络技术有限公司 | 关于上下文编解码二进制位的数量的限制 |
KR20220024006A (ko) | 2019-06-22 | 2022-03-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 크로마 잔차 스케일링을 위한 신택스 요소 |
JP7460748B2 (ja) | 2019-07-07 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | クロマ残差スケーリングのシグナリング |
JP7444970B2 (ja) | 2019-08-20 | 2024-03-06 | 北京字節跳動網絡技術有限公司 | デフォルトおよびユーザ定義のスケーリング行列の使用法 |
MX2022011798A (es) * | 2020-03-27 | 2022-10-07 | Beijing Dajia Internet Information Tech Co Ltd | Metodos y dispositivos para escalacion residual que depende de la prediccion para codificacion de video. |
WO2022129255A1 (en) | 2020-12-15 | 2022-06-23 | Feeltect Limited | System and method for monitoring wound therapy |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017019818A1 (en) | 2015-07-28 | 2017-02-02 | Vid Scale, Inc. | High dynamic range video coding architectures with multiple operating modes |
WO2017165494A2 (en) | 2016-03-23 | 2017-09-28 | Dolby Laboratories Licensing Corporation | Encoding and decoding reversible production-quality single-layer video signals |
WO2019006300A1 (en) | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
WO2020156529A1 (en) | 2019-02-01 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of in-loop reshaping information using parameter sets |
Family Cites Families (109)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5281752B2 (ja) | 2007-02-28 | 2013-09-04 | 日本無機株式会社 | フィルタパック及びそれを用いたエアフィルタ |
EP2051524A1 (en) | 2007-10-15 | 2009-04-22 | Panasonic Corporation | Image enhancement considering the prediction error |
US9571856B2 (en) | 2008-08-25 | 2017-02-14 | Microsoft Technology Licensing, Llc | Conversion operations in scalable video encoding and decoding |
WO2011126272A2 (en) * | 2010-04-05 | 2011-10-13 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation |
EP3101897B1 (en) | 2010-04-09 | 2021-10-20 | Xylene Holding S.A. | Moving image encoding device and method, moving image decoding device and method, bitstream |
DK2559245T3 (en) | 2010-04-13 | 2015-08-24 | Ge Video Compression Llc | Video Coding using multitræsunderinddeling Images |
HUE036401T2 (hu) | 2010-09-30 | 2018-07-30 | Samsung Electronics Co Ltd | Eljárás képek interpolálására simító interpolációs szûrõt felhasználva |
WO2012090504A1 (en) | 2010-12-28 | 2012-07-05 | Panasonic Corporation | Methods and apparatuses for coding and decoding video stream |
US9565428B2 (en) | 2011-06-20 | 2017-02-07 | Mediatek Singapore Pte. Ltd. | Method and apparatus of chroma intra prediction with reduced line memory |
KR20130058524A (ko) | 2011-11-25 | 2013-06-04 | 오수미 | 색차 인트라 예측 블록 생성 방법 |
JP5375938B2 (ja) | 2011-12-14 | 2013-12-25 | ソニー株式会社 | 復号装置及び方法 |
CN103227917B (zh) | 2012-01-31 | 2016-12-14 | 华为技术有限公司 | 解码方法和装置 |
US9503702B2 (en) * | 2012-04-13 | 2016-11-22 | Qualcomm Incorporated | View synthesis mode for three-dimensional video coding |
CN104471940B (zh) | 2012-04-16 | 2017-12-15 | 联发科技(新加坡)私人有限公司 | 色度帧内预测方法及装置 |
GB2501535A (en) | 2012-04-26 | 2013-10-30 | Sony Corp | Chrominance Processing in High Efficiency Video Codecs |
CN115052159A (zh) | 2012-07-02 | 2022-09-13 | 韩国电子通信研究院 | 视频编码/解码方法和非暂时性计算机可读记录介质 |
US9516309B2 (en) | 2012-07-09 | 2016-12-06 | Qualcomm Incorporated | Adaptive difference domain spatial and temporal reference reconstruction and smoothing |
US9350899B2 (en) | 2012-09-14 | 2016-05-24 | Qualcomm Incorporated | Methods and device for efficient resampling and resizing of digital images |
AU2012232992A1 (en) | 2012-09-28 | 2014-04-17 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding the transform units of a coding unit |
GB2513111A (en) | 2013-04-08 | 2014-10-22 | Sony Corp | Data encoding and decoding |
US9503732B2 (en) | 2013-04-10 | 2016-11-22 | Arris Enterprises, Inc. | Re-sampling with phase offset adjustment for luma and chroma to select filters in scalable video coding |
EP3598751B1 (en) | 2013-06-28 | 2024-04-10 | Velos Media International Limited | Methods and devices for emulating low-fidelity coding in a high-fidelity coder |
US9648330B2 (en) * | 2013-07-15 | 2017-05-09 | Qualcomm Incorporated | Inter-color component residual prediction |
EP3056004A2 (en) | 2013-10-11 | 2016-08-17 | VID SCALE, Inc. | High level syntax for hevc extensions |
US9648332B2 (en) | 2013-10-28 | 2017-05-09 | Qualcomm Incorporated | Adaptive inter-color component residual prediction |
US10397607B2 (en) * | 2013-11-01 | 2019-08-27 | Qualcomm Incorporated | Color residual prediction for video coding |
WO2015100522A1 (en) | 2013-12-30 | 2015-07-09 | Mediatek Singapore Pte. Ltd. | Methods for inter-component residual prediction |
US9930348B2 (en) * | 2014-03-14 | 2018-03-27 | Qualcomm Incorporated | Coefficient level coding in a video coding process |
US10271052B2 (en) * | 2014-03-14 | 2019-04-23 | Qualcomm Incorporated | Universal color-space inverse transform coding |
US20180176588A1 (en) | 2014-03-14 | 2018-06-21 | Samsung Electronics Co., Ltd. | Scalable video encoding/decoding method and apparatus |
US10142642B2 (en) | 2014-06-04 | 2018-11-27 | Qualcomm Incorporated | Block adaptive color-space conversion coding |
US20150373343A1 (en) | 2014-06-20 | 2015-12-24 | Qualcomm Incorporated | Representation format update in multi-layer codecs |
US10200700B2 (en) * | 2014-06-20 | 2019-02-05 | Qualcomm Incorporated | Cross-component prediction in video coding |
JP2017531382A (ja) | 2014-09-12 | 2017-10-19 | ヴィド スケール インコーポレイテッド | ビデオ符号化のための成分間相関解除 |
US9918105B2 (en) * | 2014-10-07 | 2018-03-13 | Qualcomm Incorporated | Intra BC and inter unification |
KR20200051831A (ko) | 2014-10-28 | 2020-05-13 | 미디어텍 싱가폴 피티이. 엘티디. | 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 |
US9998742B2 (en) | 2015-01-27 | 2018-06-12 | Qualcomm Incorporated | Adaptive cross component residual prediction |
ES2872724T3 (es) * | 2015-02-19 | 2021-11-02 | Magic Pony Tech Limited | Mejora de los datos visuales mediante el uso de redes neuronales actualizadas |
GB201603144D0 (en) * | 2016-02-23 | 2016-04-06 | Magic Pony Technology Ltd | Training end-to-end video processes |
EP3281409B1 (en) * | 2015-04-06 | 2019-05-01 | Dolby Laboratories Licensing Corporation | In-loop block-based image reshaping in high dynamic range video coding |
WO2016199409A1 (en) | 2015-06-07 | 2016-12-15 | Sharp Kabushiki Kaisha | Systems and methods for optimizing video coding based on a luminance transfer function or video color component values |
WO2017053432A1 (en) | 2015-09-21 | 2017-03-30 | Vid Scale, Inc. | Inverse reshaping for high dynamic range video coding |
US20170105014A1 (en) | 2015-10-08 | 2017-04-13 | Qualcomm Incorporated | Luma-driven chroma scaling for high dynamic range and wide color gamut contents |
US10045023B2 (en) | 2015-10-09 | 2018-08-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Cross component prediction in video coding |
US20170150156A1 (en) | 2015-11-25 | 2017-05-25 | Qualcomm Incorporated | Illumination compensation with non-square predictive blocks in video coding |
CA3013317A1 (en) * | 2016-02-08 | 2017-08-17 | Sharp Kabushiki Kaisha | Systems and methods for transform coefficient coding |
GB2548358A (en) * | 2016-03-15 | 2017-09-20 | Nokia Technologies Oy | A method, an apparatus and a computer program product for coding a 360-degree panoramic images and video |
JP6895645B2 (ja) | 2016-03-25 | 2021-06-30 | パナソニックIpマネジメント株式会社 | 信号依存型適応量子化を用いて動画像を符号化及び復号するための方法及び装置 |
US10708164B2 (en) * | 2016-05-03 | 2020-07-07 | Qualcomm Incorporated | Binarizing secondary transform index |
WO2017201139A1 (en) | 2016-05-19 | 2017-11-23 | Dolby Laboratories Licensing Corporation | Chroma reshaping for high dynamic range images |
ES2984654T3 (es) * | 2016-05-19 | 2024-10-30 | Dolby Laboratories Licensing Corp | Remodelación de croma para imágenes de alto rango dinámico |
WO2017206803A1 (en) | 2016-05-28 | 2017-12-07 | Mediatek Inc. | Method and apparatus of current picture referencing for video coding |
US10484712B2 (en) | 2016-06-08 | 2019-11-19 | Qualcomm Incorporated | Implicit coding of reference line index used in intra prediction |
CN109479133B (zh) | 2016-07-22 | 2021-07-16 | 夏普株式会社 | 使用自适应分量缩放对视频数据进行编码的系统和方法 |
US10390015B2 (en) | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
US10419757B2 (en) | 2016-08-31 | 2019-09-17 | Qualcomm Incorporated | Cross-component filter |
EP3510772B1 (en) * | 2016-09-09 | 2020-12-09 | Dolby Laboratories Licensing Corporation | Coding of high dynamic range video using segment-based reshaping |
JP2018056685A (ja) | 2016-09-27 | 2018-04-05 | 株式会社ドワンゴ | 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム |
CN116915985A (zh) | 2016-10-04 | 2023-10-20 | Lx 半导体科技有限公司 | 图像编码/解码方法和发送方法 |
US10477240B2 (en) | 2016-12-19 | 2019-11-12 | Qualcomm Incorporated | Linear model prediction mode with sample accessing for video coding |
US20180199062A1 (en) | 2017-01-11 | 2018-07-12 | Qualcomm Incorporated | Intra prediction techniques for video coding |
US11025903B2 (en) | 2017-01-13 | 2021-06-01 | Qualcomm Incorporated | Coding video data using derived chroma mode |
US10694181B2 (en) | 2017-01-27 | 2020-06-23 | Qualcomm Incorporated | Bilateral filters in video coding with reduced complexity |
EP3386198A1 (en) | 2017-04-07 | 2018-10-10 | Thomson Licensing | Method and device for predictive picture encoding and decoding |
WO2018236031A1 (ko) | 2017-06-21 | 2018-12-27 | 엘지전자(주) | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
EP3425911A1 (en) * | 2017-07-06 | 2019-01-09 | Thomson Licensing | A method and a device for picture encoding and decoding |
KR20200051596A (ko) | 2017-09-15 | 2020-05-13 | 소니 주식회사 | 화상 처리 장치 및 방법 |
JP2021010046A (ja) | 2017-10-06 | 2021-01-28 | シャープ株式会社 | 画像符号化装置及び画像復号装置 |
US20190116376A1 (en) | 2017-10-12 | 2019-04-18 | Qualcomm Incorporated | Motion vector predictors using affine motion model in video coding |
KR102435014B1 (ko) * | 2018-02-14 | 2022-08-23 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 레이트 왜곡 최적화를 이용한 비디오 코딩에서의 이미지 재성형 |
US11190790B2 (en) | 2018-04-01 | 2021-11-30 | Lg Electronics Inc. | Parallel processing method for color component of video signal, and device therefor |
CN109005408B (zh) | 2018-08-01 | 2020-05-29 | 北京奇艺世纪科技有限公司 | 一种帧内预测方法、装置及电子设备 |
CN116347109A (zh) | 2018-08-17 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 一种处理视频数据的方法和装置 |
TWI824006B (zh) | 2018-09-12 | 2023-12-01 | 大陸商北京字節跳動網絡技術有限公司 | 交叉分量線性建模中的下採樣 |
WO2020084512A1 (en) | 2018-10-23 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Affine motion information derivation from neighboring block |
CN117241017A (zh) | 2018-11-05 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 数字视频编解码的方法、设备和系统 |
WO2020094057A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Position based intra prediction |
BR112021010428A2 (pt) | 2018-12-07 | 2021-08-24 | Beijing Bytedance Network Technology Co., Ltd. | Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador |
CN118573896A (zh) | 2018-12-31 | 2024-08-30 | 韩国电子通信研究院 | 图像编码/解码方法和设备以及存储比特流的记录介质 |
WO2020169101A1 (en) | 2019-02-22 | 2020-08-27 | Beijing Bytedance Network Technology Co., Ltd. | Neighbouring sample selection for intra prediction |
CN117499669A (zh) | 2019-02-22 | 2024-02-02 | 华为技术有限公司 | 用于色度子块的仿射帧间预测的方法及装置 |
CN113491121B (zh) | 2019-02-24 | 2022-12-06 | 北京字节跳动网络技术有限公司 | 对视频数据进行编解码的方法、设备及计算机可读介质 |
US11991373B2 (en) | 2019-02-28 | 2024-05-21 | Interdigital Vc Holdings, Inc. | Method and device for picture encoding and decoding |
EP3703366A1 (en) | 2019-02-28 | 2020-09-02 | InterDigital VC Holdings, Inc. | Method and device for picture encoding and decoding |
WO2020177702A1 (en) | 2019-03-04 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Two-level signaling of filtering information in video processing |
EP3935847A4 (en) * | 2019-03-04 | 2022-12-07 | Alibaba Group Holding Limited | METHOD AND SYSTEM FOR PROCESSING VIDEO CONTENT |
WO2020182091A1 (en) | 2019-03-08 | 2020-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Reshaping model in video processing |
US12114000B2 (en) | 2019-03-08 | 2024-10-08 | Qualcomm Incorporated | Combined residual coding in video coding |
US20200288126A1 (en) | 2019-03-08 | 2020-09-10 | Qualcomm Incorporated | Reshaping filter average calculation for video coding |
CN113574889B (zh) | 2019-03-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
WO2020192633A1 (en) * | 2019-03-25 | 2020-10-01 | Mediatek Inc. | Method and apparatus of the quantization matrix computation and representation for video coding |
WO2020204413A1 (ko) | 2019-04-03 | 2020-10-08 | 엘지전자 주식회사 | 복원 픽처를 수정하는 비디오 또는 영상 코딩 |
AU2020260285B2 (en) | 2019-04-18 | 2023-06-01 | Beijing Bytedance Network Technology Co., Ltd. | Restriction on applicability of cross component mode |
CN113711604B (zh) | 2019-04-20 | 2023-10-27 | 北京字节跳动网络技术有限公司 | 视频编解码中色度和亮度语法元素的信令 |
BR112021019675A2 (pt) | 2019-04-23 | 2021-12-07 | Beijing Bytedance Network Tech Co Ltd | Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador |
CN111866510A (zh) | 2019-04-30 | 2020-10-30 | 华为技术有限公司 | 视频序列的帧内预测方法及装置 |
CN117221558A (zh) | 2019-05-08 | 2023-12-12 | 北京字节跳动网络技术有限公司 | 跨分量编解码的适用性条件 |
WO2020231139A1 (ko) | 2019-05-16 | 2020-11-19 | 엘지전자 주식회사 | 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩 |
US11388406B2 (en) * | 2019-05-20 | 2022-07-12 | Dolby Laboratories Licensing Corporation | Piece-wise-linear mapping for in-loop reshaping in image coding |
JP2021002780A (ja) | 2019-06-21 | 2021-01-07 | シャープ株式会社 | 動画像復号装置および動画像符号化装置 |
KR20220024006A (ko) | 2019-06-22 | 2022-03-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 크로마 잔차 스케일링을 위한 신택스 요소 |
JP7460748B2 (ja) | 2019-07-07 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | クロマ残差スケーリングのシグナリング |
EP3981146A4 (en) | 2019-07-11 | 2022-08-03 | Beijing Bytedance Network Technology Co., Ltd. | BITSTREAM CONFORMITY RESTRICTIONS FOR INTRA-BLOCK COPY IN VIDEO ENCODING |
CN115668947A (zh) * | 2020-04-02 | 2023-01-31 | Lg电子株式会社 | 用信号通知hls的图像编码/解码方法和设备及存储比特流的计算机可读记录介质 |
US11601657B2 (en) * | 2020-04-02 | 2023-03-07 | Qualcomm Incorporated | LUMA mapping with chroma scaling (LMCS) in video coding |
US11375212B2 (en) * | 2020-04-18 | 2022-06-28 | Qualcomm Incorporated | Flexible chroma processing for dynamic range adjustment |
US20230214959A1 (en) * | 2020-06-15 | 2023-07-06 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
US12034910B2 (en) * | 2020-06-18 | 2024-07-09 | Lg Electronics Inc. | Image encoding/decoding method and apparatus for signaling high level information for tool control based on color representation format, and computer-readable recording medium storing bitstream |
EP4252418A4 (en) | 2020-11-30 | 2024-05-22 | Beijing Dajia Internet Information Technology Co., Ltd. | CHROMACODING IMPROVEMENT WITH ADAPTIVE OFFSET OF CROSS-COMPONENT SAMPLES |
-
2020
- 2020-03-09 WO PCT/CN2020/078385 patent/WO2020182091A1/en active Application Filing
- 2020-03-09 KR KR1020217027093A patent/KR20210135502A/ko not_active Application Discontinuation
- 2020-03-09 JP JP2021551760A patent/JP7277599B2/ja active Active
- 2020-03-09 EP EP20770821.5A patent/EP3918800A4/en active Pending
- 2020-03-09 CN CN202080018617.XA patent/CN113545044A/zh active Pending
- 2020-03-09 CN CN202080018870.5A patent/CN113545070B/zh active Active
- 2020-03-09 EP EP20769932.3A patent/EP3912343A4/en active Pending
- 2020-03-09 WO PCT/CN2020/078393 patent/WO2020182093A1/en unknown
- 2020-03-09 CN CN202311333324.2A patent/CN117119187A/zh active Pending
- 2020-03-09 SG SG11202109150QA patent/SG11202109150QA/en unknown
- 2020-03-09 CA CA3131286A patent/CA3131286C/en active Active
- 2020-03-09 AU AU2020235190A patent/AU2020235190B2/en active Active
- 2020-03-09 JP JP2021551761A patent/JP7203241B2/ja active Active
- 2020-03-09 KR KR1020217027092A patent/KR102639936B1/ko active IP Right Grant
- 2020-03-09 MX MX2021010498A patent/MX2021010498A/es unknown
- 2020-03-09 WO PCT/CN2020/078388 patent/WO2020182092A1/en unknown
- 2020-03-09 CN CN202080018655.5A patent/CN113545049B/zh active Active
-
2021
- 2021-06-24 US US17/357,093 patent/US11284084B1/en active Active
- 2021-06-24 US US17/357,166 patent/US11910020B2/en active Active
- 2021-08-31 ZA ZA2021/06351A patent/ZA202106351B/en unknown
-
2023
- 2023-05-02 JP JP2023075959A patent/JP7529848B2/ja active Active
- 2023-05-05 US US18/313,144 patent/US20230276075A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017019818A1 (en) | 2015-07-28 | 2017-02-02 | Vid Scale, Inc. | High dynamic range video coding architectures with multiple operating modes |
WO2017165494A2 (en) | 2016-03-23 | 2017-09-28 | Dolby Laboratories Licensing Corporation | Encoding and decoding reversible production-quality single-layer video signals |
WO2019006300A1 (en) | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
WO2020156529A1 (en) | 2019-02-01 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of in-loop reshaping information using parameter sets |
Non-Patent Citations (3)
Title |
---|
Taoran Lu, et al.,CE12: Mapping functions (test CE12-1 and CE12-2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0427-v2,13th Meeting: Marrakech, MA,2019年01月,pp.1-15 |
Taoran Lu, et al.,CE12-related: Universal low complexity reshaper for SDR and HDR video,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0247-v2,12th Meeting: Macao, CN,2018年10月,pp.1-10 |
Wade Wan, et al.,AHG17: Design for signallilng reshaper model,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0805-v2,14th Meeting: Geneva, CH,2019年03月,pp.1-6 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7529848B2 (ja) | 映像処理におけるモデルベース再整形に対する制約 | |
JP7263529B2 (ja) | デコーダ側精緻化ツールのサイズ選択アプリケーション | |
US11206406B1 (en) | Two-level signaling of filtering information in video processing | |
CN113632469B (zh) | 默认的环内整形参数 | |
RU2812648C2 (ru) | Способ и устройство для обработки данных видео и носитель для хранения информации |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7529848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |