JP2022517683A - パラメータセットを使用したインループ再成形情報のシグナリング - Google Patents
パラメータセットを使用したインループ再成形情報のシグナリング Download PDFInfo
- Publication number
- JP2022517683A JP2022517683A JP2021542161A JP2021542161A JP2022517683A JP 2022517683 A JP2022517683 A JP 2022517683A JP 2021542161 A JP2021542161 A JP 2021542161A JP 2021542161 A JP2021542161 A JP 2021542161A JP 2022517683 A JP2022517683 A JP 2022517683A
- Authority
- JP
- Japan
- Prior art keywords
- video
- block
- region
- video block
- coding mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007634 remodeling Methods 0.000 title claims description 77
- 230000011664 signaling Effects 0.000 title description 15
- 238000000034 method Methods 0.000 claims abstract description 992
- 238000006243 chemical reaction Methods 0.000 claims abstract description 281
- 241000023320 Luma <angiosperm> Species 0.000 claims abstract description 199
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims abstract description 199
- 230000009466 transformation Effects 0.000 claims description 80
- 238000003672 processing method Methods 0.000 claims description 77
- 230000003044 adaptive effect Effects 0.000 claims description 46
- 238000004590 computer program Methods 0.000 claims description 29
- 238000013507 mapping Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 abstract description 99
- 230000033001 locomotion Effects 0.000 description 250
- 239000013598 vector Substances 0.000 description 133
- 239000000523 sample Substances 0.000 description 128
- 230000008569 process Effects 0.000 description 107
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 84
- 238000001914 filtration Methods 0.000 description 43
- 241000723655 Cowpea mosaic virus Species 0.000 description 24
- 238000013139 quantization Methods 0.000 description 24
- 238000009795 derivation Methods 0.000 description 17
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 15
- 230000001419 dependent effect Effects 0.000 description 15
- 230000002146 bilateral effect Effects 0.000 description 13
- 238000013461 design Methods 0.000 description 12
- 238000009792 diffusion process Methods 0.000 description 10
- 230000002123 temporal effect Effects 0.000 description 9
- 238000000354 decomposition reaction Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 150000001875 compounds Chemical class 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000002068 genetic effect Effects 0.000 description 6
- 238000000465 moulding Methods 0.000 description 6
- 239000013074 reference sample Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 239000000470 constituent Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000013256 coordination polymer Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000012812 general test Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000031212 Autoimmune polyendocrinopathy Diseases 0.000 description 1
- 235000019395 ammonium persulphate Nutrition 0.000 description 1
- 238000000261 appearance potential spectroscopy Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002407 reforming Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mobile Radio Communication Systems (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
ビデオコーディング規格は、長年にわたって大いに改善してきており、現在では、高いコーディング効率をもたらし、より高い解像度をサポートする。HEVC及びH.265などの最近の規格は、時間予測及び変換コーディングが利用されるハイブリッドビデオコーディング構造に基づく。
夫々のインター予測されたPU(prediction unit)は、1つ又は2つの参照ピクチャリストについての動きパラメータを有している。いくつかの実施形態で、動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。他の実施形態で、2つの参照ピクチャリストの一方の利用は、inter_pred_idcを用いてシグナリングされてもよい。更なる他の実施形態で、動きベクトルは、予測子に対する差分として明示的にコーディングされてもよい。
HEVCでは、インター予測という用語が、現在の復号化されているピクチャ以外の参照ピクチャのデータ要素(例えば、サンプル値又は動きベクトル)から導出された予測を表すために使用される。同様に、H.264/AVCでは、ピクチャは、複数の参照ピクチャから予測され得る。インター予測のために使用される参照ピクチャは、1つ以上の参照ピクチャリストに編成される。参照インデックスは、リスト内のどの参照ピクチャが予測信号を生成するために使用されるべきであるかを識別する。
PUがマージモードを用いて予測される場合に、merge candidates list(マージ候補リスト)内のエントリを指し示すインデックスは、ビットストリームからパースされ、動き情報を読み出すために使用される。このリストの構成は、次のステップの連続に従って手短に述べられ得る:
ステップ1:初期候補の導出
ステップ1.1:空間候補の導出
ステップ1.2:空間候補に対する冗長性検査
ステップ1.3:時間候補の導出
ステップ2:追加候補の挿入
ステップ2.1:双予測候補の生成
ステップ2.2:ゼロ動き候補の挿入
空間マージ候補の導出において、最大4つのマージ候補が、図2に表されている位置にある候補の中から選択される。導出の順序は、A1、B1、B0、A0、及びB2である。位置B2は、位置A1、B1、B0、A0のいずれかのPU(それが他のスライス又はタイルに属するために)利用可能でないか、あるいは、イントラコーディングされている場合にのみ検討される。位置A1での候補が加えられた後、残りの候補の追加は冗長性検査を受ける。これは、同じ動き情報を有する候補が、コーディング効率が改善されるようにリストから外されることを確かにする。
このステップでは、ただ1つの候補がリストに加えられる。特に、この時間マージ候補の導出において、スケーリングされた動きベクトルは、所与の参照ピクチャリスト内で現在のピクチャとのPOC差が最小であるピクチャに属する同一位置(co-located)PUに基づいて導出される。同一位置PUの導出のために使用される参照ピクチャリストは、スライスヘッダで明示的にシグナリングされる。
空間及び時間マージ候補に加えて、2つの更なるタイプのマージ候補、すなわち、複合双予測マージ候補及びゼロマージ候補が存在する。複合双予測マージ候補は、空間及び時間マージ候補を利用することによって生成される。複合双予測マージ候補は、Bスライスにのみ使用される。複合双予測マージ候補は、最初の候補の第1参照ピクチャリスト動きパラメータを他の第2参照ピクチャリスト動きパラメータと組み合わせることによって生成される。これら2つのタプルが異なった動き仮説(hypotheses)をもたらす場合に、それらは新しい双予測候補を形成することになる。
AMVPは、動きパラメータの明示的な伝送のために使用される隣接PUとの動きベクトルの空間時間相関を利用する。それは、左及び上にある時間的に隣接したPU位置の利用可能性を最初に確認し、冗長な候補を除いて、候補リストを一定の長さにするようゼロベクトルを加えることによって、動きベクトル候補リストを構成する。次いで、エンコーダは、候補リストから最良の予測子を選択し、選択された候補を示す対応するインデックスを送信することができる。同様に、マージインデックスシグナリングにより、最良の動きベクトル候補のインデックスは、トランケーテッドユーナリーを用いて符号化される。この場合に符号化される最大値は2である(図8を参照)。以下のセクションでは、動きベクトル予測候補の導出プロセスに関する詳細が提供される。
図8は、動きベクトル予測候補の導出プロセスを要約し、各参照ピクチャリストについて入力としてrefidxを用いて実施されてよい。
空間動きベクトル候補の導出において、先に図2に示されたような位置(これらの位置は、動きマージのそれらと同じである)にあるPUから導出される5つの潜在的な候補から、最大2つの候補が考えられる。現在のPUの左側の導出順序は、A0、A1及びスケーリングされたA0、スケーリングされたA1と定義される。現在のPUの上側の導出順序は、B0、B1、B2、スケーリングされたB0、スケーリングされたB1、スケーリングされたB2と定義される。夫々の側について、従って、動きベクトル候補として使用され得る4つの場合が存在し、2つの場合は、空間スケーリングを使用することを必要とされず、他の2つの場合には、空間スケーリングが使用される。4つの異なる場合は、次のように簡単に述べられる。
・空間スケーリングなし
(1)同じ参照ピクチャリスト、かつ同じ参照ピクチャインデックス(同じPOC)
(2)異なる参照ピクチャリスト、しかし同じ参照ピクチャ(同じPOC)
・空間スケーリング
(3)同じ参照ピクチャリスト、しかし異なる参照ピクチャ(異なるPOC)
(4)異なる参照ピクチャリスト、かつ異なる参照ピクチャ(異なるPOC)
参照ピクチャインデックス導出は別として、時間マージ候補の導出のための全てのプロセスは、空間動きベクトル候補の導出(図6の例で示される)の場合と同じである。いくつかの実施形態において、参照ピクチャインデックスはデコーダへシグナリングされる。
いくつかの実施形態において、将来のビデコーディング技術は、JEM(Joint Exploration Model)として知られている参照ソフトウェアを用いて探求されている。JEMでは、サブブロックベースの予測が、アフィン予測、代替時間動きベクトル予測(Alternative Temporal Motion Vector Prediction,ATMVP)、空間時間動きベクトル予測(Spatial-Temporal Motion Vector Prediction,STMVP)、双方向オプティカルフロー(bi-directional optical flow,BIO)、フレームレートアップコンバージョン(Frame-Rate Up Conversion,FRUC)、局所適応動きベクトル分割(Locally Adaptive Motion Vector Resolution,LAMVR)、オーバーラップブロック動き補償(Overlapped Block Motion Compensation,OBMC)、局所照度補償(Local Illumination Compensation,LIC)、及びデコーダ側動きベクトル精緻化(Decoder side Motion Vector Refinement,DMVR)などのいくつかのコーディングツールで導入されている。
四分木プラス二分木(quadtrees plus binary trees,QTBT)によるJEMでは、各CUは、予測方向ごとに多くてもひと組の動きパラメータを有することができる。いくつかの実施形態において、2つのサブCUレベル動きベクトル予測方法が、大きいCUをサブCUに分割し、大きいCUの全てのサブCUについて動き情報を導出することによって、エンコーダにおいて考えられている。代替時間動きベクトル予測(ATMVP)方法は、各CUが、同一位置の参照ピクチャにある現在のCUよりも小さい複数のブロックから複数の組の動き情報をフェッチすることを可能にする。空間時間動きベクトル予測(STMVP)方法では、サブCUの動きベクトルは、時間動きベクトル予測子及び空間隣接動きベクトルを使用することによって再帰的に導出される。いくつかの実施形態において、サブCU動き予測のためのより正確な運動場を保つために、参照フレームのための動き圧縮は無効にされてもよい。
ATMVP方法では、時間動きベクトル予測(Temporal Motion Vector Prediction,TMVP)方法が、現在のCUよりも小さいブロックから複数の組の動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって、変更される。
STMVP方法では、サブCUの動きベクトルは、ラスタ走査順序に従って、再帰的に導出される。図11は、4つのサブブロックを有する1つのCUを、隣接するブロックとともに示す。4つの4×4サブCU A(1101)、B(1102)、C(1103)及びD(1104)を含む8×8CUを考える。現在のフレームの隣接する4×4ブロックは、a(1111)、b(1112)、c(1112)及びd(1114)と表記される。
いくつかの実施形態において、サブCUモードは、追加のマージ候補として使用可能であり、モードをシグナリングするために追加のシンタックス要素は必要とされない。2つの追加マージ候補が、ATMVPモード及びSTMVPモードを表すために各CUのマージ候補に加えられる。他の実施形態において、ATMVP及びSTMVPが使用可能であることをシーケンスパラメータセットが示す場合には、最大7つのマージ候補が使用され得る。追加マージ候補の符号化ロジックは、HMにおけるマージ候補の場合と同じである。これは、P又はBスライス内の各CUについて、2つ以上のRDチェックが2つの追加マージ候補のために必要とされる可能性があることを意味する。いくつかの実施形態、例えば、JEMでは、マージインデックスの全ビンが、CABAC(Context-based Adaptive Binary Arithmetic Coding))によってコンテキストコーディングされる。他の実施形態、例えば、HEVCでは、最初のビンのみがコンテキストコーディングされ、残りのビンは、コンテキストバイパスコーディングされる。
局所照度補償(LIC)は、スケーリング係数a及びオフセットbを用いて、照度変化のための線形モデルに基づく。そして、それは、各インターモードコーディングされたコーディングユニット(CU)について適応的に有効又は無効にされる。
ICパラメータは、各予測方向について別々に導出され適用される。予測方向ごとに、第1の予測ブロックが、複合された動き情報により生成され、次いで、時間予測ブロックが、LICモデルを適用することによって取得される。その後に、2つの時間予測ブロックが、最終的な予測ブロックを導出するために利用される。
MVDをシグナリングするための適応動きベクトル差分解(AMVR)、アフィン予測モード、三角予測モード(Triangular Prediction Mode,TPM)、ATMVP、一般化された双予測(Generalized Bi-Prediction,GBI)、双予測オプティカルフロー(BIO)などの、インター予測の改善のためのいくつかの新しいコーディングツールが存在する。
VVCでは、四分木/二分木/多分木(QT/BT/TT)構造が、ピクチャを正方形又は長方形ブロックに分割するために採用されている。QT/BT/TTに加えて、別のツリー(別名、デュアルコーディングツリー)も、Iフレームに対してVVCでは採用されている。別のツリーによれば、コーディングブロック構造は、ルーマ成分及びクロマ成分について別々にシグナリングされる。
いくつかの実施形態において、(PUの動きベクトルと予測された動きベクトルとの間の)動きベクトル差分(MVD)は、スライスヘッダにおいてuse_integer_my_flagが0に等しいときに4分の1ルーマサンプルの単位でシグナリングされる。JEMでは、局所適応動きベクトル分解(LAMVR)が紹介されている。JEMでは、MVDは、4分の1ルーマサンプル、整数ルーマサンプル、又は4ルーマサンプルの単位でコーディングされ得る。MVD分解は、コーディングユニット(CU)レベルで制御され、MVD分解フラグは、少なくとも1つの非ゼロMVD成分を有している各CUについて条件付きでシグナリングされる。
HEVCでは、並進運動モデル(translation motion model)しか動き補償予測(Motion Compensation Prediction,MCP)のために適用されない。しかし、カメラ及び対象物は、多くの種類の動き、例えば、ズームイン/アウト、回転、射影運動、及び他の不規則な動きを有する可能性がある。VVCでは、簡単化されたアフィン変換動き補償予測が4パラメータアフィンモデル及び6パラメータアフィンモデルにより適用される。図13A及び13Bに示されるように、ブロックのアフィン運動場は、(変数a、b、e及びfを使用する4パラメータアフィンモデルでは)2つ又は(変数a、b、c、d、e及びfを使用する6パラメータアフィンモデルでは)3つのの制御点動きベクトルによって夫々記述される。
並進運動モデルと同様に、アフィンモデルによるサイド情報をシグナリングするための2つのモードもある。それらは、AFFINE_INTERモード及びAFFINE_MERGEモードである。
幅及び高さの両方が8よりも大きいCUについては、AF_INTERモードが適用され得る。CUレベルでのアフィンフラグは、AF_INTERモードが使用されるかどうかを示すためにビットストリームでシグナリングされる。このモードで、各参照ピクチャリスト(List0又はList1)について、アフィンAMVP候補リストは、次の順序で3つのタイプのアフィン動き予測子により構成され、各候補は、現在のブロックの推定されたCPMVを含む。エンコーダ側で見つけられた最良のCPMV(例えば、図17のmv0、mv1、mv2)と推定されたCPMVとの差がシグナリングされる。更には、推定されたCPMVが導出されるアフィンAMVP候補のインデックスが更にシグナリングされる。
検査順序は、HEVC AMVPリスト構成における空間MVPのそれと同様である。最初に、現在のブロックと同じ参照ピクチャを有し、アフィンコーディングされている{A1,A0}内の最初のブロックから、左側の遺伝的アフィン動き予測子が導出される。第2に、現在のブロックと同じ参照ピクチャを有し、アフィンコーディングされている{B1,B0,B2}内の最初のブロックから、上側の遺伝的アフィン動き予測子が導出される。5つのブロックA1、A0、B1、B0、B2は、図16に表されている。
隣接するブロックがアフィンモードでコーディングされていると分かると、隣接するブロックをカバーするコーディングユニットのCPMVは、現在のブロックのCPMVの予測子を導出するために使用される。例えば、A1が非アフィンモードでコーディングされ、A0が4パラメータアフィンモードでコーディングされる場合に、左側の遺伝的アフィンMV予測子はA0から導出されることになる。この場合に、図18Bで左上CPMVについてはMV0 N及び右上CPMVについてはMV1 Nによって表されている、A0をカバーするCUのCPMVは、現在のブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び右下位置(座標(x2,y2)を有する)についてMV0 C、MV1 C、MV2 Cによって表される現在のブロックの推定されたCPMVを導出するために利用される。
構成されたアフィン動き予測子は、同じ参照ピクチャを有している、図17に示されるような隣接するインターコーディングされたブロックから導出される制御点動きベクトル(CPMV)から成る。現在のアフィン動きモデルが4パラメータアフィンである場合に、CPMVの数は2であり、そうではなく、現在のアフィン動きモデルが6パラメータアフィンである場合に、CPMVの数は3である。左上CPMV
〔外1〕
(以降、バーmv0)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{A,B,C}内の最初のブロックでのMVによって、導出される。右上CPMV
〔外2〕
(以降、バーmv1)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{D,E}内の最初のブロックでのMVによって、導出される。左下CPMV
〔外3〕
(以降、バーmv2)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{F,G}内の最初のブロックでのMVによって、導出される。
- 現在のアフィン動きモデルが4パラメータアフィンである場合に、構成されたアフィン動き予測子は、バーmv0及びバーmv1の両方が求められる、つまり、バーmv0及びバーmv1が現在のブロックの左上位置(座標(x0,y0)を有する)及び右上位置(座標(x1,y1)を有する)についての推定されたCPMVとして使用される場合にのみ、候補リストに挿入される。
- 現在のアフィン動きモデルが6パラメータアフィンである場合に、構成されたアフィン動き予測子は、バーmv0、バーmv1、及びバーmv2が全て求められる、つまり、バーmv0、バーmv1、及びバーmv2が現在のブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び右下位置(座標(x2,y2)を有する)についての推定されたCPMVとして使用される場合にのみ、候補リストに挿入される。
構成されたアフィン動き予測子が候補リストに挿入する場合に、プルーニングプロセスは適用されない。
以下は、アフィン動き予測の数が最大値に達するまで適用される。
1)利用可能である場合に全てのCPMVをバーmv2に等しくセットすることによってアフィン動き予測子を導出する。
2)利用可能である場合に全てのCPMVをバーmv1に等しくセットすることによってアフィン動き予測子を導出する。
3)利用可能である場合に全てのCPMVをバーmv0に等しくセットすることによってアフィン動き予測子を導出する。
4)利用可能である場合に全てのCPMVをHEVC TMVPに等しくセットすることによってアフィン動き予測子を導出する。
5)全てのCPMVをゼロMVにセットすることによってアフィン動き予測子を導出する。
留意されるべきは、
〔外4〕
(以降、バーmvi)は、構成されたアフィン動きでは既に導出されている点である。
CUがAF_MERGEモードで適用される場合に、それは、有効な隣接する再構成されたブロックからアフィンモードによりコーディングされた最初のブロックを得る。そして、候補ブロックの選択順序は、図18Aに示されるように、左から、上、右上、左下、左上へである(順にA、B、C、D、Eによって表される)。例えば、隣接する左下ブロックが、図18BでA0によって表されるように、アフィンモードでコーディングされる場合に、ブロックAを含む隣接するCU/PUの左上角、右上角、及び左下角の制御点(CP)動きベクトルmv0 N、mv1 N及びmv2 Nがフェッチされる。そして、現在のCU/PU上の左上角/右上/左下の動きベクトルmv0 C、mv1 C及びmv2 C(6パラメータアフィンモデルのためにのみ使用される)は、mv0 N、mv1 N及びmv2 Nに基づいて計算される。留意されるべきは、VTM-2.0では、現在のブロックがアフィンコーディングされている場合に、左上角に位置するサブブロック(例えば、VTMでは、4×4ブロック)は、mv0を保存し、右上角にあるサブブロックは、mv1を保存する。現在のブロックが6パラメータアフィンモデルでコーディングされる場合には、左下角にあるサブブロックは、mv2を保存し、そうでない(4パラメータアフィンモデルによる)場合には、LBはmv2’を保存する。他のサブブロックは、MCのために使用されるMVを保存する。
遺伝によるアフィン候補(inherited affine candidate)とは、候補が、その有効な隣接するアフィンコーディングされたブロックのアフィン動きモデルから導出されることを意味する。最大2つの遺伝的アフィン候補が、隣接ブロックのアフィン動きモデルから導出され、候補リストに挿入される。左側予測子については、走査順序は{A0,A1}であり、上側予測子については、走査順序は{B0,B1,B2}である。
アフィンマージ候補リスト内の候補の数がMaxNumAffineCand(この構成では5にセットされる)に満たない場合には、構成されたアフィン候補が候補リストに挿入される。構成されたアフィン候補とは、候補が、各制御点の隣接動き情報を結合することによって構成されることを意味する。
CP1、CP2、CP3及びCP4の座標は、夫々、(0,0)、(W,0)、(H,0)及び(W,H)であり、ここで、W及びHは、現在のブロックの幅及び高さである。
各制御点の動き情報は、次の優先順序に従って取得される:
CP1については、チェック優先度はB2→B3→A2である。B2は、それが利用可能である場合に使用される。そうではない場合に、B3が利用可能であるならば、B3が使用される。B2及びB3の両方が利用不可能である場合には、A2が使用される。3つ全ての候補が利用不可能である場合には、CP1の動き情報は取得不可能である。
CP2については、チェック優先度はB1→B0である。
CP3については、チェック優先度はA1→A0である。
CP4については、Tが使用される。
I.3つの制御点の動き情報が、6パラメータアフィン候補を構成するために必要とされる。3つの制御点は、次の4つの組み合わせ({CP1,CP2,CP4},{CP1,CP2,CP3},{CP2,CP3,CP4},{CP1,CP3,CP4})のうちの1つから選択され得る。組み合わせ{CP1,CP2,CP3}、{CP2,CP3,CP4}、{CP1,CP3,CP4}は、左上、右上、及び左下制御点によって表される6パラメータ運動モデルへ変換されることになる。
II.2つの制御点の動きベクトルが、4パラメータアフィン候補を構成するために必要とされる。2つの制御点は、次の6つの組み合わせ({CP1,CP4},{CP2,CP3},{CP1,CP2},{CP2,CP4},{CP1,CP3},{CP3,CP4})のうちの1つから選択され得る。組み合わせ{CP1,CP4}、{CP2,CP3}、{CP2,CP4}、{CP1,CP3}、{CP3,CP4}は、左上及び右上制御点によって表される4パラメータ運動モデルへ変換されることになる。
III.構成されたアフィン候補の組み合わせは、次の順序:{CP1,CP2,CP3},{CP1,CP2,CP4},{CP1,CP3,CP4},{CP2,CP3,CP4},{CP1,CP2},{CP1,CP3},{CP2,CP3},{CP1,CP4},{CP2,CP4},{CP3,CP4}として候補リストに挿入される。
i.組み合わせの参照リストX(Xは0又は1である。)については、制御点の中で最大利用率を有する参照インデックスが、リストXの参照インデックスとして選択され、差分参照ピクチャを指し示す動きベクトルはスケーリングされることになる。
候補が導出された後、同じ候補がリストに挿入されているかどうかをチェックするために、完全プルーニングプロセスが実行される。同じ候補が存在する場合には、導出された候補は捨てられる。
アフィンマージ候補リスト内の候補の数が5よりも少ない場合に、リストが一杯になるまで、ゼロ参照インデックスを有するゼロ動きベクトルが候補リストに挿入される。
より具体的には、サブブロックマージ候補リストについて、4パラメータマージ候補は、MVが(0,0)にセットされ、予測方向がリスト0からの片予測(Pスライスの場合)及び双予測(Bスライスの場合)にセットされる。
JVET-L0054では、究極の動きベクトル表示(Ultimate Motion Vector Expression,UMVE)(動きベクトル差分によるマージ(Merge mode with Motion Vector Difference,MMVD)としても知られている)が提示されている。UMVEは、提案されている動きベクトル表示法によりスキップ又はマージのどちらかのモードに使用される。
双予測動作では、1つのブロック領域の予測のために、リスト0の動きベクトル(MV)及びリスト1のMVを用いて夫々形成された2つの予測ブロックが、単一の予測信号を形成するよう結合される。デコーダ側動きベクトル精緻化(DMVR)法では、双予測の2つの動きベクトルは更に精緻化される。
○リスト0とリスト1との間の(0.0)位置SADでの早期終了
○DMVRのブロックサイズW×H>=64&&H>=8
○CUサイズ>16×16のDMVRについてCUを複数の16×16サブブロックに分割
○参照ブロックサイズ(W+7)×(H+7)(ルーマについて)
○25ポイントのSADベースの整数ペル探索(すなわち、(+-)2絞り探索範囲、単一ステージ)
○双線形補間に基づいたDMVR
○バイラテラルマッチングを可能にするための、リスト0とリスト1との間のMVDミラーリング
○“パラメトリック誤差表現方程式(Parametric error surface equation)”に基づいたサブペル精緻化
○(必要な場合に)参照ブロックパディングを備えたルーマ/クロマMC
○MC及びTMVPにのみ使用される精緻化されたMV
JVET-L0100では、多重仮説(multi-hypothesis)予測が提案されており、複合イントラ-インター予測(combined intra and inter prediction)は、多重仮説を生成するための1つの方法である。
インループ再成形(in-loop reshaping,ILR)の基本的な考えは、元の(第1の領域の)信号(予測/再構成信号)を第2の領域(再成形された領域)に変換することである。
〔外5〕
にマッピングする(
〔外6〕
は、Yiの再構成値を表す。)。
いくつかの実施形態において、区分線形(piece-wise linear,PWL)は、次のように実装される。
y=((y2-y1)/(x2-x1))×(x-x1)+y1
y=((m×x+2FP_PREC-1)>>FP_PREC)+c
と書き直され得る。ここで、mはスカラーであり、cはオフセットであり、FP_PRECは、精度を指定する定数値である。
[2.4.2.1 ルーマ再成形]
インループルーマ再成形のテスト2(すなわち、提案中のCE12-2)は、インタースライス再構成におけるブロックごとのイントラ予測の復号化レイテンシも取り除く、より複雑度の低いパイプラインを提供する。イントラ予測は、インター及びイントラスライスの両方について再成形領域で実行される。
ルーマ依存クロマ残差スケーリング(luma-dependent chroma residue scaling,LCRS)は、固定点整数演算により実装される乗法プロセスである。クロマ残差スケーリングは、ルーマ信号とクロマ信号との相互作用を補償する。クロマ残差スケーリングは、TUレベルで適用される。より具体的には、次が適用される:
○イントラについては、再構成されたルーマが平均化される。
○インターについては、予測ルーマが平均化される。
パラメータは、(現在のところ)タイルグループヘッダで送信される(ALFと同様)。それらは、伝えられるところによると、40~100ビットを要する。タイルグループは、ピクチャを表す他の方法であることができる。次の表は、JVET-L1001のバージョン9に基づく。追加されたシンタックスは、イタリック体で強調表示されている。
エンコーダ側で、各ピクチャ(又はタイルグループ)は、最初に、再成形領域に変換される。そして、全てのコーディングプロセスは、再成形領域で実行される。イントラ予測については、隣接ブロックは再成形領域にある。インター予測については、参照ブロック(復号化ピクチャバッファから、元の領域から生成される)が、最初に、再成形領域に変換される。次いで、残差が生成され、ビットストリーム内にコーディングされる。
○現在のブロックがイントラコーディングされている
○現在のブロックがCPR(current picture referencing)(イントラブロックコピー(IBC)の別名でも知られている)としてコーディングされている
○現在のブロックが、複合インター-イントラモード(CIIP)としてコーディングされており、順方向再成形が、イントラ予測ブロックに対して無効にされている。
タイルグループヘッダでILRサイド情報をシグナリングしないように、JVET-N0805では、それらおAPSでシグナリングすることが提案されている。それは、次の主な考えを含む:
- 任意に、SPSでLMCSパラメータを送る。LMCSは、関連するビデオコーディング規格で定義されているクロマスケーリングによるルーママッピング(luma mapping with chroma scaling,LMCS)技術を参照する。
- ALFおよびLMCSパラメータに対してAPSタイプを定義する。各APSは1つのタイプしか有さない。
- LMCSツールが有効にされる場合に、LMCS aps_idの有無を示すようTGHにフラグを有する。シグナリングされない場合には、SPSパラメータが使用される。
*ツールが有効にされる場合に参照される有効なものを常に有するためにセマンティック制約を追加する必要がある。
この寄与は、ALFパラメータに加えてリシェーパモデルパラメータの運搬のための適応パラメータセット(adaptation parameter set,APS)の拡張された利用を提案する。最後の会議で、ALFパラメータは、複数のタイルグループでのパラメータの不必要な冗長シグナリングを回避することによるコーディング効率改善のために、タイルグループヘッダの代わりにAPSによって運ばれることが、決定されている。同じ理由に基づいて、タイルグループヘッダの代わりに、APSによってリシェーパモデルパラメータを運ぶことが提案される。APS内のパラメータのタイプ(少なくともALS又はリシェーパモデルかどうか)を識別するために、APSタイプ情報が、APS IDとともにAPSシンタックスで必要とされる。
仮想パイプラインデータユニット(virtual pipeline data unit,VPDU)は、ピクチャ内の重なり合わないM×M-ルーマ(L)/N×N-クロマ(C)ユニットとして定義される。ハードウェアデコーダで、連続したVPDUは、同時に複数のパイプライン段によって処理され、異なる段は異なるVPDUを同時に処理する。VPDUサイズは、ほとんどのパイプライン段でバッファサイズに大体比例するので、VPDUサイズを小さく保つことは、非常に重要であると言える。HEVCハードウェアデコーダで、VPDUサイズは最大変換ブロック(TB)サイズにセットされる。最大TBサイズを32×32-L/16×16-C(HEVCと同様)から64×64-L/32×32-C(現在のVVCと同様)に広げることは、HEVCと比較して予想通りに4倍のVPDUサイズ(64×64-L/32×32-C)をもたらすコーディング利得をもたらすことができる。しかし、四分木(QT)コーディングユニット(CU)パーティション化に加えて、三分木(TT)及び二分木(BT)が、更なるコーディング利得を達成するためにVVCでは採用され、TT及びBT分割は、再帰的に128×128-L/64×64-Cコーディングツリーブロック(CTU)に適用され得る。これは、HEVCと比較して16倍のVPDUサイズ(128×128-L/64×64-C)をもたらすと言われている。
適応パラメータセット(adaptation parameter set,APS)は、ALFパラメータを運ぶためにVVCで採用される。タイルグループヘッダは、ALFが有効にされる場合に条件付きで存在するaps_idを含む。APSは、aps_id及びALFパラメータを含む。新しいNUT(AVC及びHEVCで見られるようなNALユニットタイプ)値が(JVET-M0132から)APSに対して割り当てられる。VTM-4.0での一般的なテスト条件(表示される)については、aps_id=0を使用して、各ピクチャとともにAPSを送信することが提案されている。差し当たり、APS IDの範囲は、0から31となり、APSはピクチャにわたって共有可能である(ピクチャ内の異なるタイルグループでは異なってもよい)。ID値は、存在する場合に固定長符号化されるべきである。ID値は、同じピクチャ内の異なるコンテンツで再利用され得ない。
[2.7.1 拡散フィルタ(DF)]
JVET-L0157では、拡散フィルタ(diffusion filter)が提案されており、CUのイントラ/インター予測信号は、拡散フィルタによって更に変更されてもよい。
hIV=hI×hI×hI×hI
として与えられる。
hhor=ht ver
バイラテラルフィルタは、JVET-L0406で提案されており、それは常に、非ゼロ変換係数及び17よりも大きいスライス量子化パラメータを有するルーマブロックに適用される。従って、バイラテラルフィルタの利用をシグナリングする必要はない。バイラテラルフィルタは、適用される場合に、逆変換の直後の復号されたサンプルに対して実行される。更には、フィルタパラメータ、すなわち、重みは、コーディングされた情報から明示的に導出される。
JVET-K0068では、1次元アダマール変換領域でのインループフィルタが、再構成の後にCUレベルで適用され、乗算のなし実装を有している。提案されているフィルタは、予め定義された条件を満足する全てのCUブロックに適用され、フィルタパラメータは、コーディングされた情報から導出される。
○スキャンパターンに従って現在のものを含む処理ピクセル周囲の4つの隣接ピクセルをスキャンする
○読み出されたピクセルの4ポイントアダマール変換
○次の式
既存のILR実施では、次の欠点が存在することがある。
目下開示されている技術の実施形態は、既存の実施の欠点を解消し、それによって、より高いコーディング効率をビデオコーディングにもたらす。開示されている技術に基づいたインループ再成形の方法は、既存のビデオコーディング規格及び将来のビデオコーディング規格の両方を強化することができ、様々な実施について記載されている以下の例で説明される。以下で提供される開示されている技術の例は、一般概念を説明しており、限定と解釈されるよう意図されない。例において、明示的に反対のことを示さない限りは、それらの例で記載されている様々な特徴は組み合わされてもよい。留意されるべきは、提案されている技術のいくつかは、既存の候補リスト構成プロセスに適用されてもよい点である。
a.一例で、元の領域で参照ピクチャから生成された予測ブロックは、動き情報精緻化に使用される前に、最初に、再成形領域に変換されてよい。
i.代替的に、更には、コスト計算(例えば、SAD、MR-SAD)/勾配計算が再成形領域で実行される。
ii.代替的に、更には、動き情報が精緻化された後、再成形プロセスは、精緻化された動き情報により生成された予測ブロックについて無効にされる。
b.代替的に、DMVRのようなDMVD技術での動き情報精緻化プロセスは、元の領域での情報に依存してよい。
i.DMVDプロセスは、元の領域での予測ブロックにより呼び出されてよい。
ii.一例で、動き情報精緻化の後、精緻化された動き情報により取得された予測ブロック、又は最終的な予測ブロック(例えば、2つの予測ブロックの加重平均)が、最終的な再構成ブロックを生成するために再成形領域に更に変換されてよい。
iii.代替的に、更には、動き情報が精緻化された後、再成形プロセスは、精緻化された動き情報により生成された予測ブロックについて無効にされる。
a.一例で、再成形領域が、LICパラメータを導出するために利用される。
i.代替的に、更には、サンプル(例えば、参照ピクチャ内の参照サンプル(補間の有無によらず)及び参照サンプルの隣接/非隣接サンプル(補間の有無によらない))は、LICパラメータを導出するために使用される前に、最初に、再成形領域に変換されてよい。
b.一例で、元の領域が、LICパラメータを導出するために利用される。
i.代替的に、更には、(例えば、現在のタイルグループ/ピクチャ/タイル内の)現在のブロックの空間的に隣接した/隣接していないサンプルは、LICパラメータを導出するために使用される前に、最初に、元の領域に変換されてよい。
c.LICパラメータが1つの領域で導出される場合に、予測ブロックの同じ領域が、LICパラメータをその予測ブロックに適用するときに使用されるべきである。
i.一例で、上記a.が呼び出される場合に、参照ブロックは再成形領域に変換されてよく、LICモデルは、再成形された参照ブロックに適用される。
ii.一例で、上記b.が呼び出される場合に、参照ブロックは元の領域のままであり、LICモデルは、元の領域での参照ブロックに適用される。
d.一例で、LICモデルは、再成形領域での予測ブロックに適用される(例えば、予測ブロックは、最初に、順方向再成形により再成形領域に変換される)。
e.一例で、LICモデルは、最初に、元の領域での予測ブロックに適用され、その後に、LICを適用された予測ブロックに依存した最終的な予測ブロックが、次いで、再成形領域に(例えば、順方向再成形により)変換され、再構成ブロックを導出するために利用されてよい。
f.上記の方法は、空間的に隣接した/隣接していないサンプル及び参照ピクチャ内の参照サンプルの両方に依存する他のコーディングツールに拡張されてもよい。
a.代替的に、更には、その後に、再構成ブロックを生成するために、フィルタ処理された予測信号に再成形が適用される。
b.インターコーディングのためのプロセスの例は、図27に表されている。
c.代替的に、フィルタは、再成形領域での予測信号に適用される。
i.代替的に、更には、再成形は、最初に予測ブロックに適用され、その後に、フィルタリング方法が、再構成ブロックを生成するために、再成形された予測ブロックに更に適用されてもよい。
ii.インターコーディングのためのプロセスの例は、図28に表されている。
d.フィルタパラメータは、ILRが有効にされるか否かに依存してもよい。
a.代替的に、更には、再成形領域での再構成ブロックは、最初に元の領域変換され、その後に、フィルタは、適用され、再構成ブロックを生成するために利用されてよい。
b.インターコーディングのためのプロセスの例は、図29に表されている。
c.代替的に、フィルタは、再成形領域での再構成ブロックに適用されてもよい。
i.代替的に、更には、逆方向再成形を適用する前に、フィルタが最初に適用されてもよい。その後に、フィルタ処理された再構成ブロックは、次いで、元の領域に変換されてよい。
ii.インターコーディングのためのプロセスの例は、図30に表されている。
d.フィルタパラメータは、ILRが有効にされるか否かに依存してもよい。
a.一例で、デブロッキングフィルタ(DBF)プロセスが再成形領域で実行される。この場合に、逆方向再成形は、DBFの前に適用されない。
i.この場合に、DBFパラメータは、再成形が適用されるか否かに応じて異なってもよい。
ii.一例で、DBFプロセスは、再成形が有効にされるか否かに依存してもよい。
1.一例で、この方法は、DBFが元の領域で呼び出されるときに適用される。
2.代替的に、この方法は、DBFが再成形領域で呼び出されるときに適用される。
b.一例で、サンプル適応オフセット(SAO)フィルタリングプロセスが再成形領域で実行される。この場合に、逆方向再成形は、SAOの前に適用されない。
c.一例で、適応ループフィルタ(ALF)フィルタリングプロセスが再成形領域で実行される。この場合に、逆方向再成形は、ALFの前に適用されない。
d.代替的に、更には、逆方向再成形は、DBFの後にブロックに適用されてもよい。
e.代替的に、更には、逆方向再成形は、SAOの後にブロックに適用されてもよい。
f.代替的に、更には、逆方向再成形は、ALFの後にブロックに適用されてもよい。
g.上記のフィルタリング方法は、他の種類のフィルタリング方法で置換されてもよい。
a.一例で、タイルグループヘッダはaps_idを含んでよい。代替的に、更には、aps_idは、ILRが有効にされる場合に条件付きで存在する。
b.一例で、ILR APSは、aps_id及びILRパラメータを含む。
c.一例で、新しいNUT(AVC及びHEVCで見られるようなNALユニットタイプ)値が、ILR APSに割り当てられる。
d.一例で、ILR APS ID値の範囲は、0からM(例えば、M=2K-1)である。
e.一例で、ILR APSは、ピクチャにわたって共有されてよい(ピクチャ内の異なるタイルグループで異なってもよい)。
f.一例で、ID値は、存在する場合に固定長符号化されてもよい。代替的に、それは、指数ゴロム(exponential-Golomb,EG)コーディング、トランケーテッドユーナリー又は他の二値化方法によりコーディングされてもよい。
g.一例で、ID値は、同じピクチャ内の異なるコンテンツにより再利用され得ない。
h.一例で、ILR APS及びALFパラメータのためのAPSは、同じNUTを共有してもよい。
i.代替的に、ILRパラメータは、ALFパラメータのための現在のAPSで運ばれてもよい。この場合に、ILR APSについて述べている上記の方法は、現在のAPSで置換されてよい。
j.代替的に、ILRパラメータは、SPS/VPS/PPS/シーケンスヘッダ/ピクチャヘッダで運ばれてもよい。
k.一例で、ILRパラメータは、リシェーパモデル情報、ILR方法の利用、クロマ残差スケーリング係数を含んでよい。
l.代替的に、更には、ILRパラメータは、1つの例で(例えば、APSで)シグナリングされてよく、かつ/あるいは、ILRの利用は、第2レベルで(例えば、タイルグループヘッダで)更にシグナリングされてもよい。
m.代替的に、更には、予測コーディングは、異なるAPSインデックスでILRパラメータをコーディングするよう適用されてもよい。
a.一例で、1つのM区分の区分線形(PWL)モデル及び/又は順方向/逆方向参照テーブルが、1つのクロマ成分に利用されてよい。代替的に、2つのPWLモデル及び/又は順方向/逆方向参照テーブルが、2つのクロマ成分をコーディングするために夫々利用されてもよい。
b.一例で、クロマのPWLモデル及び/又は順方向/逆方向参照は、ルーマのPWLモデル及び/又は順方向/逆方向参照テーブルから導出されてもよい。
i.一例で、クロマのPWLモデル/参照テーブルを更にシグナリングする必要ない。
c.一例で、クロマのPWLモデル/順方向/逆方向参照テーブルは、SPS/VPS/APS/PPS/シーケンスヘッダ/ピクチャヘッダ/タイルグループヘッダ/タイルヘッダ/CTU行/CTUのグループ/リージョンでシグナリングされてもよい。
a.例えば、1つのピクチャ/タイルグループのILRパラメータは、1つ又は複数の前にコーディングされたピクチャ/タイルグループのILRパラメータによって予測されてよい。
a.一例で、順方向/逆方向再成形プロセスがルーマブロックに適用される場合でさえ、LCRSは、対応するクロマブロックに適用されなくてもよい。
b.代替的に、順方向/逆方向再成形プロセスがルーマブロックに適用されない場合でさえ、LCRSは、対応するクロマブロックに依然として適用されてもよい。
c.一例で、LCRSは、交差成分線形モデル(cross-component linear model,CCLM)モードが適用される場合に使用されない。CCLMモードはLM、LM-A及びLM-Lを含む。
d.一例で、LCRSは、交差成分線形モデル(CCLM)モードが適用されない場合に使用されない。CCLMモードはLM、LM-A及びLM-Lを含む。
e.一例で、コーディングされたルーマブロックが1つのVPDU(例えば、64×64)を超える場合。
i.一例で、ルーマブロックサイズがM×Hよりも小さいサンプル、例えば、16又は32又は64ルーマサンプルを含む場合に、LCRSは許されない。
ii.代替的に、ルーマブロックの幅及び/又は高さの最小サイズがXよりも小さいか又は大きくない場合に、LCRSは許されない。一例で、Xは8にセットされる。
iii.代替的に、ルーマブロックの幅及び/又は高さの最小サイズがX以上である場合に、LCRSは許されない。一例で、Xは8にセットされる。
iv.代替的に、ルーマブロックの幅>th1又は>=th1かつ/あるいはルーマブロックの高さ>th2又は>=2である場合に、LCRSは許されない。一例で、th1及び/又はth2は8にセットされる。
1.一例で、th1及び/又はth2は128にセットされる。
2.一例で、th1及び/又はth2は64にセットされる。
v.代替的に、ルーマブロックの幅<th1又は<=th1かつ/あるいはルーマブロックの高さth2<又は<=th2である場合に、LCRSは許されない。一例で、th1及び/又はth2は8にセットされる。
a.一例で、1つのブロックが全てのゼロ係数でコーディングされる場合に、予測ブロックに適用される順方向再成形のプロセスはスキップされる。
b.一例で、1つのブロックが全てのゼロ係数でコーディングされる場合に、再構成ブロックに適用される逆方向再成形のプロセスはスキップされる。
c.一例で、1つのブロックが、特定の位置にあるただ1つの非ゼロ係数(例えば、1つのブロックの左上位置にあるDC係数、1つのブロック内の左上コーディンググループにある係数)でコーディングされる場合に、予測ブロックに適用される順方向再成形及び/又は再構成ブロックに適用される逆方向再成形のプロセスはスキップされる。
d.一例で、1つのブロックがたったM(例えば、M=1)個の非ゼロ係数でコーディングされる場合に、予測ブロックに適用される順方向再成形及び/又は再構成ブロックに適用される逆方向再成形のプロセスはスキップされる。
a.一例で、ブロックの幅>th1又は>=th1かつ/あるいはブロックの高さ>th2又は>=th2である場合に、それは、幅<th1又は<=th1かつ/あるいは高さ<th2又は<=th2を有するサブブロックに分けられてよく、ILRは、サブブロックごとに実行されてよい。
i.一例で、サブブロックは、同じ幅及び/又は高さを有してよい。
ii.一例で、右境界及び/又は下境界にあるものを除いたサブブロックは、同じ幅及び/又は高さを有してよい。
iii.一例で、左境界及び/又は上境界にあるものを除いたサブブロックは、同じ幅及び/又は高さを有してよい。
b.一例で、ブロックのサイズ(すなわち、幅×高さ)>th3又は>=th3である場合に、それは、サイズ<th3又は<=th3を有するサブブロックに分けられてよく、ILRは、サブブロックごとに実行されてよい。
i.一例で、サブブロックは、同じサイズを有してよい。
ii.一例で、右境界及び/又は下境界にあるものを除いたサブブロックは、同じサイズを有してよい。
iii.一例で、左境界及び/又は上境界にあるものを除いたサブブロックは、同じサイズを有してよい。
c.代替的に、ILRの利用は、特定のブロック寸法にのみ制限される。
i.一例で、コーディングされたブロックが1つのVPDU(例えば、64×64)を超える場合に、ILRは許されない。
ii.一例で、ブロックサイズがM×Hよりも小さいサンプル、例えば、16又は32又は64ルーマサンプルを含む場合に、ILRは許されない。
iii.代替的に、ブロックの幅及び/又は高さの最小サイズがXよりも小さいか又は大きくない場合に、ILRは許されない。一例で、Xは8にセットされる。
iv.代替的に、ブロックの幅及び/又は高さの最小サイズがX以上である場合に、ILRは許されない。一例で、Xは8にセットされる。
v.代替的に、ブロックの幅>th1又は>=th1かつ/あるいはブロックの高さ>th2又は>=th2である場合に、ILRは許されない。一例で、th1及び/又はth2は8にセットされる。
1.一例で、th1及び/又はth2は128にセットされる。
2.一例で、th1及び/又はth2は64にセットされる。
vi.代替的に、ブロックの幅<th1又は<=th1かつ/あるいはブロックの高さth2<又は<=th2である場合に、ILRは許されない。一例で、th1及び/又はth2は8にセットされる。
a.代替的に、tile_group_reshaper_model_present_flagが、tile_group_reshaper_enable_flagの条件下でコーディングされてもよい。
b.代替的に、tile_group_reshaper_model_present_flag及びtile_group_reshaper_enable_flagを含む2つのシンタックス要素のうちの一方しかコーディングされなくてもよい。他方のシンタックス要素の値は、シグナリングされ得る一方に等しくセットされる。
a.一例で、適応的にクリッピングする方法が適用されてよく、クリップされるべき最大値及び最小値は、再成形領域で定義されてよい。
b.一例で、適応的にクリッピングする方法は、再成形領域での予測信号に適用されてよい。
c.代替的に、更には、固定クリッピング(例えば、ビットデプスに従う)が、再構成ブロックに適用されてもよい。
a.一例で、ブロックがパレットモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがパレットモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用されてもよい。
a.一例で、ILRが適用される場合に、パレットモードは元の領域でコーディングされてよい。
b.代替的に、ILRが適用される場合に、パレットモードは再成形領域でコーディングされてよい。
c.一例で、ILRが適用される場合に、パレット予測子が元の領域でシグナリングされてよう。
d.代替的に、パレット予測子は、再成形領域でシグナリングされてもよい。
a.一例で、ブロックがIBCモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがIBCモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用されてもよい。
a.一例で、ILRが適用される場合に、IBCモードは元の領域で実行されてよい。
b.代替的に、ILRが適用される場合に、IBCモードは再成形領域で実行されてもよい。
a.一例で、ブロックがB-DPCMモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがB-DPCMモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用される。
a.一例で、ILRが適用される場合に、B-DPCMは元の領域で実行されてよい。
b.代替的に、ILRが適用される場合に、B-DPCMは再成形モードで実行されてもよい。
a.一例で、ブロックが変換スキップモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックが変換スキップモードでコーディングされている場合に、異なる再成形及び逆方向再成形は適用されてよい。
a.一例で、ILRが適用される場合に,変換スキップは元の領域で実行されてよい。
b.代替的に、ILRが適用される場合に、変換スキップは再成形領域で実行されてもよい。
a.一例で、ブロックがパレットモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
b.代替的に、ブロックがパレットモードでコーディングされている場合に、異なる再成形及び逆方向再成形が適用されてもよい。
a.一例で、ILRが適用される場合に、I-PCMモードは元の領域でコーディングされてよい。
b.代替的に、ILRが適用される場合に、I-PCMモードは再成形領域でコーディングされてもよい。
a.一例で、ブロックが変換量子化バイパスモードでコーディングされている場合に、再成形及び逆方向再成形はスキップされる。
a.代替的に、予測及び/又は再構成及び/又は残差信号は元の領域にある。
b.代替的に、予測及び/又は再構成及び/又は残差信号は再成形領域にある。
a.多数の機能から選択する方法は、ブロック寸法/コーディングモード/ピクチャタイプ/低遅延検査フラグ/動き情報/参照ピクチャ/ビデオコンテンツ、などに依存してよい。
b.一例で、複数組のILRサイド情報(例えば、再成形/逆方向再成形機能)は、SPS/VPS/PPS/シーケンスヘッダ/ピクチャヘッダ/タイルグループヘッダ/タイルヘッダ/リージョン/VPDU/などごとにシグナリングされてよい。
i.代替的に、更には、ILRサイド情報の予測コーディングが利用されてもよい。
c.一例で、1よりも多いaps_idが、PPS/ピクチャヘッダ/タイルグループヘッダ/タイルヘッダ/リージョン/VPDU/などでシグナリングされてもよい。
a.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
a.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
i.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
a.第1のID(tile_group_aps_id_alfと呼ばれてもよい)は、タイルグループが参照する第1APSの第1のadaptation_paramter_set_idを示すようタイルグループヘッダでシグナリングされる。現在のタイルグループについてのALF情報は、指定された第1APSでシグナリングされる。
b.第2のID(tile_group_aps_id_irpsと呼ばれてもよい)は、タイルグループが参照する第2APSの第2のadaptation_paramter_set_idを示すようタイルグループヘッダでシグナリングされる。現在のタイルグループについてのILR情報は、指定された第2APSでシグナリングされる。
c.一例で、第1APSは、コンフォーマンスビットストリーム(conformance bitstream)でALF情報を有するべきである。
d.一例で、第2APSは、コンフォーマンスビットストリームでILR情報を有するべきである。
e.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
a.例えば、2Nに等しいadaptation_paramter_set_idを有するAPSは、ALF情報を有するべきである。Nは任意の整数である。
b.例えば、2N+1に等しいadaptation_paramter_set_idを有するAPSは、ILR情報を有するべきである。Nは任意の整数である。
c.例となるシンタックス設計は、以下の通りである。追加されたシンタックスは、イタリック体で強調表示される。
ii.例えば、2×tile_group_aps_id_irps+1は、タイルグループが参照する第2APSの第2のadaptation_paramter_set_idを示す。現在のタイルグループについてのILR情報は、指定された第2APSでシグナリングされる。
a.一例で、タイルグループは、現在のタイルグループの前にシグナリングされる、指定されたタイプのタイルグループの前にシグナリングされたAPS(又はIRPS)を参照することができない。
b.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、SPSの前にシグナリングされたAPS(又はIRPS)を参照することができない。
c.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、PPSの前にシグナリングされたAPS(又はIRPS)を参照することができない。
d.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、アクセスユニットデリミタ(access unit delimiter,AUD)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
e.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、エンド・オブ・ビットストリーム(end of bitstream,EoB)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
f.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、エンド・オブ・シーケンス(end of sequence,EoS)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
g.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、即時復号化リフレッシュ(instantaneous decoding refresh,IDR)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
h.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、クリーンランダムアクセス(clean random access,CRA)NALの前にシグナリングされたAPS(又はIRPS)を参照することができない。
i.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、イントラランダムアクセスポイント(intra random access point,IRAP)の前にシグナリングされたAPS(又はIRPS)を参照することができない。
j.例えば、タイルグループは、現在のタイルグループの前にシグナリングされる、Iタイルグループ(又はピクチャ、又はスライス)の前にシグナリングされたAPS(又はIRPS)を参照することができない。
k.IDF-P1903237401H及びIDF-P1903234501Hで開示されている方法も、ILR情報がAPS又はIRPSで運ばれる場合に適用可能である。
a.sps_lmcs_default_model_present_flagは、sps_lmcs_enabled_flagが1にセットされる場合に1にセットされるべきである。
b.デフォルトパラメータは、デフォルトモデル存在フラグ(例えば、sps_lmcs_default_model_present_flag)の代わりに、ILR有効化フラグの条件下で偽なリングされてよい。
c.各タイルグループについて、デフォルトモデル利用フラグ(例えば、tile_group_lmcs_use_default_model_flag)は、SPSデフォルトモデル利用フラグを参照せずにシグナリングされてよい。
d.コンフォーマンスビットストリームは、ILRの対応するAPSタイプにILR情報がなく、1つのビデオデータユニット(例えば、タイルグループ)がILR技術を使用するよう強いられる場合に、デフォルトモデルが利用されるべきであることを満足すべきである。
e.代替的に、コンフォーマンスビットストリームは、ILRの対応するAPSタイプにILR情報がなく、1つのビデオデータユニット(例えば、タイルグループ)がILR技術を使用するよう強いられる(例えば、tile_group_lmcs_enable_flagが1に等しい)場合に、デフォルトモデルを使用する指示は真であるべきであり、例えば、tile_group_lmcs_use_default_model_flagは1であるべきである。
f.デフォルトのILRパラメータ(例えば、デフォルトモデル)がビデオデータユニット(例えば、SPS)で送信されるべきであることが、制約される。
i.代替的に、更には、デフォルトのILRパラメータは、ILRの利用を示すSPSフラグが真である場合に送信されるべきである。
g.ビデオデータユニット(例えば、SPS)で送信される少なくとも1つのILR APSが存在することが、制約される。
i.一例で、少なくとも1つのILR APSは、デフォルトのILRパラメータ(例えば、デフォルトモデル)を含む。
a.一例で、時間レイヤインデックスがlmcs_data()でシグナリングされてよい。
b.一例で、時間レイヤインデックス-1がlmcs_data()でシグナリングされてよい。
c.代替的に、更には、1つのタイルグループ/タイルを符号化/復号化する場合に、より小さい又は等しい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
d.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より小さい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
e.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
f.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい又は等しい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
g.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、等しい時間レイヤインデックスに関連付けられているILR APSを参照することは制限される。
h.一例で、上記の制限が適用されるかどうかは、デコーダへシグナリングされるか又はデコーダによって推測され得る1つの情報に依存してよい。
a.一例で、時間レイヤインデックスがalf_data()でシグナリングされてよい。
b.一例で、時間レイヤインデックス-1がalf_data()でシグナリングされてよい。
c.代替的に、更には、1つのタイルグループ/タイル又は1つのタイルグループ/タイル内の1つのCTUを符号化/復号化する場合に、より小さい又は等しい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
d.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より小さい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
e.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
f.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、より大きい又は等しい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
g.代替的に、1つのタイルグループ/タイルを符号化/復号化する場合に、等しい時間レイヤインデックスに関連付けられているALF APSを参照することは制限される。
h.一例で、上記の制限が適用されるかどうかは、デコーダへシグナリングされるか又はデコーダによって推測され得る1つの情報に依存してよい。
a.例えば、原サンプルと再成形サンプルとの間の再成形マッピングは、否定的関係であってよく、2つの値の場合に、元の領域内のより大きい値は、再成形領域内のより小さい値にマッピングされてよい。
a.他の例では、0及び7であることしか許されない。
いくつかの実施形態において、tile_group_reshaper_enable_flagは、tile_group_reshaper_model_present_flagが有効にされる場合に条件付きで存在する。追加されたシンタックスは、イタリック体で強調表示される。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、第1の領域又は第2の領域でサンプルに基づいて動き情報精緻化プロセスを実行するステップと、
前記動き情報精緻化プロセスの結果に基づいて前記変換を実行するステップと
を有し、
前記変換中に、前記サンプルは、精緻化されていない動き情報を用いて前記第1の領域で第1の予測ブロックから前記現在のビデオブロックについて取得され、少なくとも第2の予測ブロックが、再構成ブロックを決定するために使用される精緻化された動き情報を用いて前記第2の領域で生成され、前記現在のビデオブロックの再構成されたサンプルは、前記少なくとも第2の予測ブロックに基づいて生成される、
方法。
前記少なくとも第2の予測ブロックは、前記精緻化された動き情報を用いて前記第1の領域で参照ピクチャ内のサンプルから生成され、
前記第1の領域を前記第2の領域に変換する再形成プロセスが、前記少なくとも第2の予測ブロックに更に適用される、
方法。
前記再形成プロセスの後に、前記第2の予測ブロックは、前記現在のビデオブロックの前記再構成されたサンプルを生成するために使用される前に前記第2の領域で前記表現に変換される、
方法。
前記動き情報精緻化プロセスを実行するステップは、DMVD(decoder-side motion vector derivation)法に基づく、
方法。
前記DMVD法は、DMVR(decoder-side motion vector refinement)又はFRUC(frame-rate up conversion)又はBIO(Bi-Directional Optical Flow)を有する、
方法。
前記DMVD法でのコスト計算又は勾配計算は、前記第1の領域でサンプルに基づいて実行される、
方法。
前記コスト計算は、絶対差分和(SAD)又は平均除去絶対差分和(MR-SAD)を有する、
方法。
前記動き情報精緻化プロセスは、前記第1の領域での少なくとも前記第1の予測ブロック内のサンプルから前記第2の領域へ変換されるサンプルに基づいて実行され、
前記精緻化された動き情報が取得された後、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、且つ/あるいは、クロマ残差がルーマに依存してスケーリングされるコーディングモードは、少なくとも前記第2の予測ブロックについて無効にされる、
方法。
前記動き情報精緻化プロセスは、前記第1の領域で少なくとも前記第1の予測ブロックに基づいて実行され、
前記動き情報精緻化プロセスは、前記第1の領域で前記第1の予測ブロックにより呼び出される、
方法。
最終的な予測ブロックは、2つの第2の予測ブロックの加重和として生成され、
前記現在のビデオブロックの前記再構成されたサンプルは、前記最終的な予測ブロックに基づいて生成される、
方法。
前記動き情報精緻化プロセスは、前記第1の領域で前記予測ブロックに基づいて実行され、
前記動き情報精緻化プロセスの実行後に、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて再構成され、且つ/あるいは、クロマ残差がルーマに依存してスケーリングされるコーディングモードは、前記少なくとも第2の予測ブロックについて無効にされる、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて再構成され、且つ/あるいは、クロマ残差は、ルーマに依存してスケーリングされ、
コーディングツールが、前記ビデオのビデオリージョン内のサンプルの第1の組と、前記現在のビデオブロックの参照ピクチャ内のサンプルの第2の組に少なくとも基づいて導出されるパラメータを用いて、前記変換中に適用され、
前記第1のサンプルの領域と前記第2のサンプルの領域とは、整列される、
方法。
前記コーディングツールは、前記変換中に前記現在のビデオブロック内の照度変化の線形モデルを使用する局所照度補償(LIC)モデルを含み、
前記LICモデルは、前記パラメータに基づいて適用される、
方法。
前記ビデオリージョンは、現在のタイル、タイルグループ、又はピクチャを含む、
方法。
前記LICモデルは、前記第2の領域で予測ブロックに適用され、
前記サンプルの第1の組及び前記サンプルの第2の組は、前記第2の領域にある、
方法。
参照ブロックが、前記第2の領域に変換され、
前記LICモデルは、前記第2の領域で予測ブロックに適用される、
方法。
前記サンプルの第1の組及び前記サンプルの第2の組は、前記パラメータを導出するために使用される前に前記第2の領域に変換される、
方法。
前記サンプルの第2の組は、参照ピクチャ内の参照サンプルと、前記参照サンプルの隣接及び/又は非隣接サンプルとを含む、
方法。
前記LICモデルは、前記第1の領域で予測ブロックに適用され、
前記サンプルの第1の組及び前記サンプルの第2の組は、前記第1の領域にある、
方法。
参照ブロックが前記第1の領域で保持され、
前記LICモデルは、前記第1の領域で予測ブロックに適用される、
方法。
前記サンプルの第1の組は、前記パラメータを導出するために使用される前に前記第1の領域に変換される、
方法。
前記サンプルの第1の組は、現在のビデオブロックの空間的に隣接する及び/又は隣接しないサンプルを含む、
方法。
前記パラメータを導出するために使用される領域は、前記パラメータを予測ブロックに適用するために使用される、
方法。
前記LICモデルは、前記第2の領域で予測ブロックに適用される、
方法。
前記LICモデルが前記第1の領域で前記予測ブロックに適用された後、前記予測ブロックに依存する最終的な予測ブロックは、前記第2の領域に変換される、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至29のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至29のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
ビデオの現在のビデオリージョンの現在のビデオブロックについて、前のビデオリージョンのコーディングモードについての1つ以上のパラメータに基づいて前記現在のビデオブロックのコーディングモードについてのパラメータを決定するステップと、
前記決定に基づいて前記ビデオのコーディングされた表現を生成するよう前記現在のビデオブロックに対してコーディングを実行するステップと
を有し、
前記コーディングモードについての前記パラメータは、前記ビデオの前記コーディングされた表現におけるパラメータセットに含まれ、
前記コーディングを実行するステップは、第1の領域での前記現在のビデオブロックの表現を第2の領域での前記現在のビデオブロックの表現へ変換することを含み、
前記コーディングモードを用いて前記コーディングを実行している間に、前記現在のビデオブロックは、前記第1の領域及び前記第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
コーディングモードについてのパラメータ情報を含むパラメータセットを含むビデオのコーディングされた表現を受け取るステップと、
前記コーディングされた表現から前記ビデオの現在のビデオリージョンの現在のビデオブロックを生成するために前記パラメータ情報を使用することによって前記コーディングされた表現の復号化を実行するステップと
を有し、
前記コーディングモードについての前記パラメータ情報は、前のビデオリージョンの前記コーディングモードについての1つ以上のパラメータに基づき、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記パラメータセットは、タイルグループヘッダとは異なる、
方法。
前記パラメータセットは、適応パラメータセット(APS)である、
方法。
前記現在のビデオリージョンは、前記ビデオのビデオピクチャの1つのタイル又は前記ビデオのビデオピクチャを有する、
方法。
前記前のビデオリージョンは、ピクチャの1つ以上のタイルを有する、
方法。
前記前のビデオリージョンは、前記ビデオの1つ以上のビデオピクチャを有する、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、第1の領域で又は該第1の領域とは異なる第2の領域でフィルタリング操作を予測ブロックに適用することを含む、
方法。
前記フィルタリング操作は、フィルタ処理された予測信号を生成するよう前記第1の領域で前記予測ブロックに対して実行され、
コーディングモードが、前記第2の領域にある再成形された予測信号を生成するよう前記フィルタ処理された予測信号に適用され、
前記現在のビデオブロックは、前記再成形された予測信号を用いて構成される、
方法。
コーディングモードが、前記第2の領域にある再成形された予測信号を生成するよう、前記フィルタリング操作の適用より前に前記予測ブロックに適用され、
前記フィルタリング操作は、フィルタ処理された予測信号を生成するよう前記再成形された予測信号を用いて実行され、
前記現在のビデオブロックは、前記フィルタ処理された予測信号を用いて構成される、
方法。
前記コーディングモードで、前記現在のビデオブロックは、前記第1の領域及び前記第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記フィルタリング操作は、拡散フィルタを有する、
方法。
前記フィルタリング操作に関連したパラメータは、前記フィルタリング操作が前記第1の領域又は前記第2の領域でブロックに適用されるかどうかに依存する、
方法。
前記変換は、
前記フィルタリング操作の適用前に、予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
前記フィルタリング操作の適用後に、再成形された予測信号を生成するよう、前記予測信号に前記フィルタリング操作を適用することによって生成されたフィルタ処理された予測信号にコーディングモードを適用するステップと、
前記再成形された予測信号を用いて前記現在のビデオブロックを構成するステップと
を更に含む、
方法。
前記変換は、
前記フィルタリング操作の適用前に、予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
再成形された予測信号を生成するよう前記予測信号にコーディングモードを適用するステップと、
前記フィルタリング操作の適用後に、フィルタ処理された再成形された予測信号を用いて前記現在のビデオブロックを構成するステップであり、前記フィルタ処理された再成形された予測信号は、前記再成形された予測信号に前記フィルタリング操作を適用することによって生成される、ステップと
を更に含む、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換中に、最終的な再構成ブロックが前記現在のビデオブロックに対して決定され、
一時再構成ブロックが、予測法を用いて生成され、第2の領域で表される、
方法。
前記変換は、
予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
前記一時再構成ブロックを生成するために使用される再成形された予測信号を生成するよう前記予測信号に順方向再成形を適用するステップと、
逆再構成ブロックを得るよう前記一時再構成ブロックに逆方向再成形を適用するステップと
を更に含み、
フィルタリングが、前記最終的な再構成ブロックを生成するよう前記逆再構成ブロックに適用される、
方法。
前記変換は、
予測信号を得るよう前記現在のビデオブロックに動き補償予測を適用するステップと、
前記一時再構成ブロックを生成するために使用される再成形された予測信号を生成するよう前記予測信号に順方向再成形を適用するステップと、
前記最終的な再構成ブロックを得るよう逆再成形をフィルタ処理された再構成ブロック適用するステップと
を更に含み、
前記フィルタ処理された再構成ブロックは、前記一時再構成ブロックにフィルタリングを適用することによって生成される、
方法。
前記変換は、ルーマサンプルをお特定の値にマッピングするルーマ依存クロマ残差スケーリング(LMCS)プロセスを適用することを更に含む、
方法。
フィルタが、第1の領域での前記一時再構成ブロックに適用され、
前記第2の領域での前記一時再構成ブロックは、最初に、前記フィルタの適用前に、逆再成形プロセスを用いて前記第1の領域に変換され、
前記最終的な再構成ブロックは、フィルタ処理された前記一時再構成ブロックに依存する、
方法。
フィルタが、前記第2の領域での前記再構成ブロックに直接適用され、その後に、逆再生操作が、前記最終的な再構成ブロックを生成するよう適用される、
方法。
前記フィルタは、バイラテラルフィルタ(BF)又はアダマール変換領域フィルタ(HF)を有する、
方法。
前記フィルタは、デブロッキングフィルタ(DBF)プロセス、サンプル適応オフセット(SAO)フィルタリングプロセス、又は適応ループフィルタ(ALF)フィルタリングプロセスを有する、
方法。
前記フィルタリング操作又は前記フィルタに使用されるフィルタパラメータは、コーディングモードが前記現在のビデオブロックに対して有効にされるか否かに依存し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至28のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至28のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングされた表現におけるパラメータセットは、コーディングモードについてのパラメータ情報を有する、
方法。
前記パラメータセットは、タイルグループヘッダとは異なる、
方法。
前記パラメータセットは、適応パラメータセット(APS)である、
方法。
コーディングモード情報についての前記APSは、LMCS(luma mapping with chroma scaling)APSと名付けられる、
方法。
前記APSが前記現在のビデオブロックに利用されるための識別子は、前記ビデオの前記コーディングされた表現に含まれる、
方法。
前記識別子が前記ビデオの前記コーディングされた表現に存在するかどうかは、前記コーディングモードが前記ビデオリージョンに対して有効にされるかどうかに依存する、
方法。
前記パラメータセットは、前記APSの識別子を含む、
方法。
NALユニットタイプ値が、前記パラメータセットに対して割り当てられる、
方法。
前記パラメータセットの識別子は、0からMの間の範囲を有し、
Mは2K-1である、
方法。
前記パラメータセットは、前記ビデオのピクチャにわたって共有される、
方法。
前記パラメータセットの識別子は、固定長コーディングされている値を有する、
方法。
前記パラメータセットの識別子は、EG(exponential-golomb)符号、トランケーテッドユーナリー符号、又は二値化符号でコーディングされる、
方法。
同じピクチャ内の2つのサブリージョンについて、前記パラメータセットは、2つの異なる値の識別子を有する、
方法。
前記パラメータセット及び適応ループフィルタ(ALF)情報についての前記APSは、同じネットワーク抽象レイヤ(NAL)ユニットタイプ(NUT)を共有する、
方法。
前記パラメータ情報は、適応ループフィルタ(ALF)情報についての現在のAPSにより運ばれる、
方法。
前記パラメータ情報は、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、シーケンス、ヘッダ又はピクチャヘッダで運ばれる、
方法。
前記パラメータ情報は、リシェーパモデル情報の指示、前記コーディングモードの利用、又はクロマ残差スケーリング係数、のうちの少なくとも1つを含む、
方法。
前記パラメータ情報は、1つのレベルでシグナリングされる、
方法。
前記パラメータ情報は、第2のレベルでシグナリングされる前記コーディングモードの利用を含む、
方法。
前記パラメータ情報は、APSでシグナリングされ、
前記コーディングモードの利用は、前記ビデオリージョンのレベルでシグナリングされる、
方法。
前記パラメータ情報は、1つのレベルでパースされる、
方法。
前記パラメータ情報は、第2のレベルでパースされる前記コーディングモードの利用を含む、
方法。
前記パラメータ情報は、APSでパースされ、
前記コーディングモードの利用は、前記ビデオリージョンのレベルでパースされる、
方法。
予測コーディングが、異なるAPSインデックスで前記パラメータ情報をコーディングするよう適用される、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記ビデオリージョンは、ピクチャ又はタイルグループである、
方法。
前記ビデオリージョンのレベルは、ピクチャヘッダ又はタイルグループヘッダである、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、再成形モデルに従ってルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至32のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至32のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
クロマブロックであるビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、
前記変換は、前記現在のビデオブロックの1つ以上のクロマ成分に順方向再成形プロセス及び/又は逆方向再成形プロセスを適用することを更に含む、
方法。
前記現在のビデオブロックの前記1つ以上のクロマ成分にルーマ依存クロマ残差スケーリング(LCRS)を適用しないようにするステップを更に含む方法。
区分線形(PWL)モデル、前方参照テーブル、又は後方参照テーブルのうちの少なくとも1つがが、クロマ成分のために利用される、
方法。
前記クロマ成分のための前記PWLモデル、前記前方参照テーブル、及び前記後方参照テーブルは、夫々、対応するルーマ成分のPWLモデル、前方参照テーブル、及び後方参照テーブルから導出される、
方法。
前記PWLモデルは、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、適応パラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスヘッダ、ピクチャヘッダ、タイルグループヘッダ、タイルヘッダ、コーディングツリーユニット(CTU)行、CTUのグループ、又はリージョンでシグナリングされる、
方法。
前記前方参照テーブル及び前記後方参照テーブルは、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、適応パラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスヘッダ、ピクチャヘッダ、タイルグループヘッダ、タイルヘッダ、コーディングツリーユニット(CTU)行、CTUのグループ、又はリージョンでシグナリングされる、
方法。
ビデオの現在のビデオクロマブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換の実行は、ルールに基づいて、ルーマ依存クロマ残差スケーリング(LCRS)が有効又は無効にされるかどうかを決定し、該決定に基づいて前記現在のビデオクロマブロックを再構成することを含む、
方法。
前記ルールは、前記LCRSが、特定のブロック寸法、時間レイヤ、タイルグループタイプ、ピクチャタイプ、コーディングモード、特定のタイプの動き情報に対して無効にされる、ことを定める、
方法。
前記ルールは、前記LCRSがクロマブロックに対して無効にされる、ことを定め、
順方向及び/又は逆方向再成形プロセスが、対応するルーマブロックに適用される、
方法。
前記ルールは、前記LCRSがクロマブロックに適用される、ことを定め、
順方向及び/又は逆方向再成形プロセスが、対応するルーマブロックに適用されない、
方法。
前記ルールは、前記LCRSが、交差成分線形モデル(CCLM)を使用してコーディングされた前記現在のビデオクロマブロックに対して無効にされる、ことを定める、
方法。
前記ルールは、前記LCRSが、交差成分線形モデル(CCLM)を用いてコーディングされていない前記現在のビデオクロマブロックに対して無効にされる、ことを定める、
方法。
前記ルールは、前記LCRSを無効にすることが、仮想パイプラインデータユニット(VPDU)を超えるビデオブロックのサイズに基づく、ことを定める、
方法。
前記LCRSは、前記ビデオブロックが、M×Hサンプルに満たないビデオサンプルを含む場合に、許可されない、
方法。
前記LCRSは、前記ビデオブロックの幅及び/又は高さの最小サイズが特定の値以下である場合に、許可されない、
方法。
前記LCRSは、前記ビデオブロックの幅及び/又は高さの最小サイズが特定の値以上である場合に、許可されない、
方法。
前記特定の値は8である、
方法。
前記LCRSは、前記ビデオブロックの幅が第1の値以上である場合、及び/又は前記ビデオブロックの高さが第2の値以上である場合に、許可されない、
方法。
前記LCRSは、前記ビデオブロックの幅が第1の値以下である場合、及び/又は前記ビデオブロックの高さが第2の値以下である場合に、許可されない、
方法。
前記第1の値又は前記第2の値の少なくとも1つは、8、64、又は128である、
方法。
前記ビデオブロックは、ルーマブロック又はクロマブロックである、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、再成形モデルに従ってルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
クロマ残差が、ビデオクロマブロックの再構成を導出するために使用される前に、クロマ残差をスケーリングすることを有するルーマ依存クロマ残差スケーリング操作を実行することによって、ルーマに依存してスケーリングされ、該スケーリングのパラメータは、ルーマサンプルから導出される、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至26のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至26のうちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックの1つ以上の係数値に基づいて、コーディングモードの使用を無効化すべきかどうかを決定するステップと、
前記決定に基づいて前記変換を実行するステップと
を有し、
前記コーディングモードを使用する前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
再成形プロセスが、
前記第1の領域でのサンプルに順方向再成形プロセスを選択的に適用し、それから、前記第1の領域のサンプルが前記第2の領域でのサンプルに変換されることと、
前記第2の領域でのサンプルに逆方向再成形プロセスを選択的に適用し、それから、前記第2の領域でのサンプルが前記第1の領域での表現に変換されることと
を有する、
方法。
再成形プロセスが、ルーマ依存クロマ残差スケーリングプロセスを選択的に適用することを更に有する、
方法。
前記決定するステップは、前記現在のビデオブロックが全てのゼロ係数でコーディングされるかどうかに基づく、
方法。
前記順方向再成形プロセスは、前記現在のビデオブロックが全てのゼロ係数でコーディングされるかどうかに基づいてスキップされる、
方法。
前記現在のビデオブロックは、全てのゼロ係数でコーディングされ、
前記逆方向再成形プロセスはスキップされる、
方法。
前記現在のビデオブロックは、全てのゼロ係数でコーディングされ、
前記ルーマ依存クロマ残差スケーリングプロセスはスキップされる、
方法。
前記決定するステップは、前記現在のビデオブロックが、特定の位置にあるただ1つの非ゼロ係数でコーディングされるかどうかに基づく、
方法。
前記現在のビデオブロックは、特定の位置に位置するただ1つの非ゼロ係数でコーディングされ、
前記順方向再成形プロセス、前記逆方向再成形プロセス、又は前記ルーマ依存クロマ残差スケーリングプロセスの少なくとも1つは、スキップされる、
方法。
前記決定するステップは、前記現在のビデオブロックがM個の非ゼロ係数でコーディングされるかどうかに基づく、
方法。
前記現在のビデオブロックは、M個の非ゼロ係数でコーディングされ、
前記順方向再成形プロセス、前記逆方向再成形プロセス、又は前記ルーマ依存クロマ残差スケーリングプロセスの少なくとも1つは、スキップされる、
方法。
Mは1である、
方法。
仮想パイプラインデータユニット(VPDU)を超えるビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックをリージョンに分割するステップと、
各リージョンに別々にコーディングモードを適用することによって前記変換を実行するステップと
を有し、
前記コーディングモードを適用することによる前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
各リージョンは、前記コーディングモードの個々のコーディングユニット(CU)に対応する、
方法。
前記現在のビデオブロックの幅は、第1の値以上であり、
前記現在のビデオブロックは、前記第1の値以下である1つ以上の幅を有するサブブロックに分けられ、
前記コーディングモードは、各サブブロックに対して有効にされる、
方法。
前記現在のビデオブロックの高さは、第2の値以上であり、
前記現在のビデオブロックは、前記第2の値以下である1つ以上の高さを有するサブブロックに分けられ、
前記コーディングモードは、各サブブロックに対して有効にされる、
方法。
前記現在のビデオブロックのサイズは、第3の値以上であり、
前記現在のビデオブロックは、前記第3の値以下である1つ以上のサイズを有するサブブロックに分けられ、
前記コーディングモードは、各サブブロックに対して有効にされる、
方法。
前記サブブロックは、同じ幅又は同じ高さを有する、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックのサイズ又は色フォーマットに基づいて、コーディングモードの使用を無効化すべきかどうかを決定するステップと、
前記決定に基づいて前記変換を実行するステップと
を有し、
前記コーディングモードを使用する前記変換中に、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記決定するステップは、仮想パイプラインデータユニット(VPDU)を超える前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
前記決定するステップは、M×Hよりも少ない数のサンプルを含むサイズを有する前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
前記決定するステップは、前記現在のビデオブロックの幅及び/又は高さの最小サイズが、整数であるX以下である場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
前記決定するステップは、前記現在のビデオブロックの幅及び/又は高さの最小サイズが、整数であるX以上である場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
Xは8である、
方法。
前記決定するステップは、前記現在のビデオブロックが、第1の値以上である幅及び/又は第2の値以上である高さを有する場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
前記決定するステップは、前記現在のビデオブロックが、第1の値以下である幅及び/又は第2の値以下である高さを有する場合に、前記現在のビデオブロックに対して前記コーディングモードを無効にする、と決定する、
方法。
前記第1の値又は前記第2の値の少なくとも1つは8である、
方法。
前記コーディングモードの無効化は、1)前記第1の領域でのサンプルを前記第2の領域に変換するための順方向再成形、2)前記第2の領域でのサンプルを前記第1の領域に変換するための逆方向再成形、3)ルーマ依存クロマ残差スケーリング、のうちの少なくとも1つを無効にすることを有する、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングされた表現における少なくとも1つのシンタックス要素は、前記コーディングモードの利用の指示及びリシェーパモデルの指示を与える、
方法。
前記コーディングモードの利用の指示は、前記リシェーパモデルの指示に基づいてコーディングされる、
方法。
前記リシェーパモデルの指示は、前記コーディングモードの指示に基づいてコーディングされる、
方法。
ただ1つのシンタックス要素のみがコーディングされる、
方法。
異なるクリッピング方法が、予測信号及び再構成信号に適用される、
方法。
前記ビデオ内で異なるクリッピングパラメータを許す適応クリッピングが、前記予測信号に適用される、
方法。
前記適応クリッピングのための最大値及び最小値は、前記第2の領域で定義される、
方法。
固定クリッピングが前記再構成信号に適用される、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが無効にされることを決定するステップと、
前記決定に基づいて順方向再成形及び/又は逆方向再成形を条件付きでスキップするステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
予測信号、再構成信号、又は残差信号の少なくとも1つは、前記第1の領域にある、
方法。
予測信号、再構成信号、又は残差信号の少なくとも1つは、前記第2の領域にある、
方法。
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
複数の順方向再成形及び/又は複数の逆方向再成形が、前記ビデオリージョンに対して再成形モードで適用される、
方法。
前記ビデオリージョンは、ピクチャ、タイルグループ、仮想パイプラインデータユニット(VPDU)、コーディングツリーユニット(CTU)、行、又は複数のコーディングユニットを含む、
方法。
前記複数の順方向再成形及び/又は前記複数の逆方向再成形をいかにして選択すべきかは、i)ブロック寸法若しくはビデオリージョン寸法、ii)前記現在のビデオブロックの若しくは前記ビデオリージョンのコーディングモード、iii)前記現在のビデオブロックの若しくは前記ビデオリージョンのピクチャタイプ、iv)前記現在のビデオブロックの若しくは前記ビデオリージョンの低遅延検査フラグ、v)前記現在のビデオブロックの若しくは前記ビデオリージョンの動き情報、vi)前記現在のビデオブロックの若しくは前記ビデオリージョンの参照ピクチャ、又はvii)前記現在のビデオブロックの若しくは前記ビデオリージョンのビデオコンテンツ、のうちの少なくとも1つに依存する、
方法。
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至47のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至47うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
代表サンプル値の少なくともパレットが前記現在のビデオブロックに使用されるパレットモードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記代表サンプル値のパレットは、1)パレット予測子、又は2)エスケープサンプル、のうちの少なくとも1つを有する、
方法。
前記代表サンプル値は、前記第1の領域での値を表す、
方法。
前記代表サンプル値は、前記第2の領域での値を表す、
方法。
前記パレットモードで使用され、前記コーディングされた表現に含まれるパレット予測子は、前記第1の領域に又は前記第2の領域にある、
方法。
前記パレットモードで使用され、前記コーディングされた表現に含まれるエスケープサンプルは、前記第1の領域に又は前記第2の領域にある、
方法。
前記パレットモードで使用され、前記コーディングされた表現に含まれるパレット予測子及び/又はエスケープサンプルは、前記第2の領域にあり、
前記第2の領域での第1の再構成ブロックが最初に生成され、後続のブロックをコーディングするために利用される、
方法。
改良型パレットモードで使用され、前記コーディングされた表現に含まれるパレット予測子及び/又はエスケープサンプルは、前記第2の領域にあり、
前記第1の領域での最終的な再構成ブロックは、前記第1の再構成ブロック及び逆方向再成形プロセスを用いて生成される、
方法。
前記逆方向再成形プロセスは、デブロッキングフィルタプロセスの直前に呼び出される、
方法。
前記変換は、前記現在のビデオブロックの色成分に基づいて実行される、
方法。
前記色成分はルーマ成分である、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、代表サンプル値の少なくともパレットが前記現在のビデオブロックをコーディングするために使用されるパレットモードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、ルーマに依存してスケーリングされるクロマ残差に基づいて構成される、
方法。
前記現在のビデオブロックが前記パレットモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記変換は、第1のコーディングモードと、代表サンプル値の少なくともパレットが前記現在のビデオブロックをコーディングするために使用されるパレットコーディングモードとを使用する、ステップと、
前記パレットコーディングモードを使用せずにコーディングされる前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックの前記変換は前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる再成形及び/又は異なる逆方向再成形機能を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至20のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至20うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
前記現在のビデオブロックを含むピクチャを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードを用いて、前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記予測ブロックは、前記第1の領域で生成される、
方法。
残差ブロックが、前記第1の領域において前記コーディングされた表現で表される、
方法。
前記予測ブロックは、前記第2の領域で生成される、
方法。
残差ブロックが、前記第2の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
前記現在のビデオブロックの最終的な構成ブロックは、前記第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
前記変換は、前記現在のビデオブロックの色成分に基づいて実行される、
方法。
前記色成分はルーマ成分である、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックをコーディングするために前記現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピー(IBC)モードで現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックは、前記IBCモードでコーディングされ、
前記コーディングモードは、無効にされる、
方法。
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記変換は、前記現在のビデオブロックを含むビデオフレームを指し示す少なくともブロックベクトルを用いて予測ブロックを生成するイントラブロックコピーモードと、第1のコーディングモードとを使用する、ステップと、
前記イントラブロックコピーモードを使用せずにコーディングされる前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至18のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至18うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
ブロックベースのデルタパルス符号変調(BDPCM)モードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、ブロックベースのデルタパルス符号変調(BDPCM)モードを用いて前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックが前記BDPCMモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、ブロックベースのデルタパルス符号変調(BDPCM)モードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記BDPCMモードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
前記現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、前記現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックが前記変換スキップモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、前記現在のビデオブロックをコーディングすることにおいて予測残差に対する変換がスキップされる変換スキップモードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記変換スキップモードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
変換及び変換領域量子化を適用せずに前記現在のビデオブロックがコーディングされるイントラパルス符号変調モードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、変換及び変換領域量子化を適用せずに前記現在のビデオブロックがコーディングされるイントラパルス符号変調モードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックが前記イントラパルス符号変調モードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、前記現在のビデオブロックが変換及び変換領域量子化を適用せずにコーディングされるイントラパルス符号変調モードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記イントラパルス符号変調モードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のためにコーディングモードが有効にされることを決定するステップと、
変換及び量子化なしで前記現在のビデオブロックが可逆コーディングされる改良型トランスクワント-バイパスモードを用いて前記変換を実行するステップと
を有し、
前記コーディングモードで、前記現在のビデオブロックは、第1の領域及び第2の領域でのサンプルに基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックの予測ブロックは、前記第1の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、第1の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの予測ブロックは、前記第2の領域で生成される、
方法。
前記現在のビデオブロックの残差ブロックは、前記第2の領域において前記コーディングされた表現で表される、
方法。
前記現在のビデオブロックの第1の構成ブロックは、前記第2の領域での前記残差ブロック及び前記予測ブロックの和に基づいて取得され、
前記第1の構成ブロックは、後続のビデオブロックと前記ビデオの前記コーディングされた表現との間の変換に利用される、
方法。
前記現在のビデオブロックの最終的な構成ブロックは、第1の構成ブロックを前記第2の領域から前記第1の領域に変換するよう前記第1の構成ブロックに適用される逆方向再成形に基づいて取得される、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換のために、変換及び量子化を適用なしで前記現在のビデオブロックが可逆コーディングされるトランスクワント-バイパスモードで前記現在のビデオブロックがコーディングされることを決定するステップと、
前記決定により、コーディングモードを無効にすることによって前記変換を実行するステップと
を有し、
前記コーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされる、
方法。
前記現在のビデオブロックが前記トランスクワント-バイパスモードでコーディングされる場合に、前記コーディングモードは無効にされる、
方法。
ビデオの第1のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップであり、前記第1のビデオブロックの前記変換は、第1のコーディングモードと、前記現在のビデオブロックが変換及び量子化なしで可逆コーディングされるトランスクワント-バイパスモードとを使用する、ステップと、
前記ビデオの第2のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップと
を有し、
前記第2のビデオブロックは、前記トランスクワント-バイパスモードを使用せずにコーディングされ、前記第2のビデオブロックの前記変換は、前記第1のコーディングモードを使用し、
前記第1のコーディングモードがビデオブロックに適用される場合に、該ビデオブロックは、第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされ、
前記第1のコーディングモードは、前記第1のビデオブロック及び前記第2のビデオブロックに異なる方法で適用される、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される順方向再成形及び逆方向再成形の使用を無効化することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記第1のビデオブロックに適用される前記第1のコーディングモードは、サンプルを前記第1の領域と前記第2の領域との間で変換するために使用される異なる順方向再成形及び/又は異なる逆方向再成形を使用することにより、前記第2のビデオブロックに適用される前記第1のコーディングモードとは異なる、
方法。
前記変換は、前記現在のビデオブロックの色成分に基づいて実行される、
方法。
前記色成分はルーマ成分である、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至54のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至54うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングモードに使用される情報は、適応ループフィルタリング(ALF)パラメータを運ぶために使用されるシーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、又は適応パラメータセット(APS)とは異なるパラメータセットでシグナリングされる、
方法。
前記パラメータセットは、ピクチャにわたって共有される、
方法。
前記パラメータセットは、前記パラメータセットの識別子又は前記パラメータセットの拡張データの存在を示すフラグのうちの少なくとも1つを含む1つ以上のシンタックス要素を含む、
方法。
前記パラメータセットは、ピクチャ内のタイルグループについて特有である、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報とともに適応パラメータセット(APS)でシグナリングされ、
前記コーディングモードに使用される前記情報及び前記ALF情報は、1つのNALユニットに含まれる、
方法。
前記APSの識別子は、タイルグループヘッダでシグナリングされる、
方法。
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングモードに使用される情報は、適応ループフィルタリング(ALF)情報をシグナリングするために使用される第2タイプの適応パラメータセット(APS)とは異なる第1タイプのAPSでシグナリングされる、
方法。
前記第2タイプのAPSの識別子は、前記ビデオリージョンのレベルでシグナリングされる、
方法。
前記第1タイプのAPSの識別子は、前記ビデオリージョンのレベルでシグナリングされる、
方法。
前記コーディングされた表現に含まれる前記第1タイプのAPSは、コンフォーマンスビットストリームに前記ALF情報を含める前記第2タイプのAPSを含む、
方法。
前記コーディングされた表現に含まれる前記第2タイプのAPSは、コンフォーマンスビットストリームに前記コーディングモードに使用される前記情報を含める前記第1タイプのAPSを含む、
方法。
前記第1タイプのAPS及び前記第2タイプのAPSは、異なる識別子と関連付けられる、
方法。
前記第2タイプのAPSは、Nが整数であるとして、2Nに等しい識別子を有する、
方法。
前記第1タイプのAPSは、Nが整数であるとして、2N+1に等しい識別子を有する、
方法。
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記ビデオリージョンは、前記ビデオを処理するために使用される特定のタイプのデータ構造の前にシグナリングされるパラメータセット又は適応パラメータセットを参照することを認められず、
前記特定のタイプのデータ構造は、前記ビデオリージョンの前にシグナリングされる、
方法。
前記データ構造は、ネットワーク抽象レイヤ(NAL)ユニット、タイルグループ、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、アクセスユニットデリミタNAL(AUD)、エンド・オブ・ビットストリームNAL(EoB)、エンド・オブ・シーケンスNAL(NAL)、瞬時復号化リフレッシュ(IDR)NAL、クリーンランダムアクセス(CRA)NAL、イントラランダムアクセスポイント(IRAP)アクセスユニット、Iタイルグループ、ピクチャ、又はスライス、のうちの少なくとも1つを含む、
方法。
ビデオの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差がルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記ビデオを処理するために使用されるパラメータを含むパラメータセットのシンタックス要素は、コンフォーマンスビットストリームにおいて予め定義された値を有する、
方法。
前記予め定義された値は0及び1である、
方法。
前記予め定義された値は0及び7である、
方法。
前記ビデオリージョンは、タイルグループ、ピクチャ、スライス、又はタイル、のうちの少なくとも1つを有する、
方法。
前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングするLMCS(luma mapping with chroma scaling)法を使用する再形成された領域である、
方法。
前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
方法。
前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
方法。
前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
方法。
前記命令は、前記プロセッサによって実行されると、該プロセッサに、箇条1乃至24のうちいずれか1つの方法を実施させる、
装置。
箇条1乃至24うちいずれか1つの方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
適用可能な特許法、及び/又はパリ条約に従う規則の下で、本願は、2019年2月1日付けで出願された国際特許出願第PCT/CN2019/074437号、2019年3月14日付けで出願された国際特許出願第PCT/CN2019/078185号、及び2019年3月23日付けで出願された国際特許出願第PCT/CN2019/079393号に対する優先権及びその利益を適時請求するようになされる。法律の下での全ての目的のために、上記の出願の全体の開示は、本願の開示の部分として参照により援用される。
本願は、2019年2月1日付けで出願された国際特許出願第PCT/CN2019/074437号に対する優先権及びその利益を請求する、2020年2月1日付けで出願された国際特許出願第PCT/CN2020/074139号に基づく。上記の全ての特許出願は、それらの全文を参照により本願に援用される。
Claims (34)
- ビデオ処理の方法であって、
ビデオのビデオリージョンの現在のビデオブロックと前記ビデオのコーディングされた表現との間の変換を実行するステップを有し、
前記変換は、前記現在のビデオブロックが第1の領域及び第2の領域に基づいて構成され、かつ/あるいは、クロマ残差が、ルーマに依存してスケーリングされるところのコーディングモードを使用し、
前記コーディングされた表現におけるパラメータセットは、前記コーディングモードについてのパラメータ情報を有する、
方法。 - 前記パラメータセットは、タイルグループヘッダとは異なる、
請求項1に記載の方法。 - 前記パラメータセットは、適応パラメータセット(APS)である、
請求項2に記載の方法。 - コーディングモード情報についての前記APSは、LMCS APSと呼ばれる、
請求項3に記載の方法。 - 前記APSが前記現在のビデオブロックに利用されるための識別子は、前記ビデオの前記コーディングされた表現に含まれる、
請求項3に記載の方法。 - 前記識別子が前記ビデオの前記コーディングされた表現に存在するかどうかは、前記コーディングモードが前記ビデオリージョンに対して有効にされるかどうかに依存する、
請求項5に記載の方法。 - 前記パラメータセットは、前記APSの識別子を含む、
請求項3に記載の方法。 - NALユニットタイプ値が、前記パラメータセットに対して割り当てられる、
請求項1に記載の方法。 - 前記パラメータセットの識別子は、0からMの間の範囲を有し、
Mは2K-1である、
請求項1に記載の方法。 - 前記パラメータセットは、前記ビデオのピクチャにわたって共有される、
請求項1に記載の方法。 - 前記パラメータセットの識別子は、固定長コーディングされている値を有する、
請求項1に記載の方法。 - 前記パラメータセットの識別子は、指数ゴロム(EG)符号、トランケーテッドユーナリー符号、又は二値化符号でコーディングされる、
請求項1に記載の方法。 - 同じピクチャ内の2つのサブリージョンについて、前記パラメータセットは、2つの異なる値の識別子を有する、
請求項1に記載の方法。 - 前記パラメータセット及び適応ループフィルタ(ALF)情報についての前記APSは、同じネットワーク抽象レイヤ(NAL)ユニットタイプ(NUT)を共有する、
請求項3に記載の方法。 - 前記パラメータ情報は、適応ループフィルタ(ALF)情報についての現在のAPSにより運ばれる、
請求項1に記載の方法。 - 前記パラメータ情報は、シーケンスパラメータセット(SPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、シーケンス、ヘッダ又はピクチャヘッダで運ばれる、
請求項1に記載の方法。 - 前記パラメータ情報は、リシェーパモデル情報の指示、前記コーディングモードの利用、又はクロマ残差スケーリング係数、のうちの少なくとも1つを含む、
請求項1に記載の方法。 - 前記パラメータ情報は、1つのレベルでシグナリングされる、
請求項1に記載の方法。 - 前記パラメータ情報は、第2のレベルでシグナリングされる前記コーディングモードの利用を含む、
請求項1に記載の方法。 - 前記パラメータ情報は、APSでシグナリングされ、
前記コーディングモードの利用は、前記ビデオリージョンのレベルでシグナリングされる、
請求項18又は19に記載の方法。 - 前記パラメータ情報は、1つのレベルでパースされる、
請求項1に記載の方法。 - 前記パラメータ情報は、第2のレベルでパースされる前記コーディングモードの利用を含む、
請求項1に記載の方法。 - 前記パラメータ情報は、APSでパースされ、
前記コーディングモードの利用は、前記ビデオリージョンのレベルでパースされる、
請求項21又は22に記載の方法。 - 予測コーディングが、異なるAPSインデックスで前記パラメータ情報をコーディングするよう適用される、
請求項1に記載の方法。 - 前記第1の領域は、元の領域であり、
前記第2の領域は、ルーマサンプルを特定の値にマッピングする、クロマスケーリングによるルーママッピング(LMCS)法を使用する再形成された領域である、
請求項1乃至24のうちいずれかに記載の方法。 - 前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
請求項25に記載の方法。 - 前記ビデオリージョンは、ピクチャ又はタイルグループである、
請求項1乃至26のうちいずれかに記載の方法。 - 前記ビデオリージョンのレベルは、ピクチャヘッダ又はタイルグループヘッダである、
請求項1乃至26のうちいずれかに記載の方法。 - 前記第1の領域は、元の領域であり、
前記第2の領域は、再成形モデルに従ってルーマサンプルを特定の値にマッピングする、クロマスケーリングによるルーママッピング(LMCS)法を使用する再形成された領域である、
請求項1乃至28のうちいずれかに記載の方法。 - 前記LMCS法は、前記ルーマサンプルを前記特定の値にマッピングする区分線形モデルを使用する、
請求項29に記載の方法。 - 前記変換の実行は、前記コーディングされた表現を前記現在のブロックから生成することを含む、
請求項1乃至30のうちいずれかに記載の方法 - 前記変換の実行は、前記現在のブロックを前記コーディングされた表現から生成することを含む、
請求項1乃至30のうちいずれかに記載の方法。 - プロセッサと、命令を記憶している非一時的なメモリとを有する、ビデオシステム内の装置であって、
前記命令は、前記プロセッサによって実行されると、該プロセッサに、請求項1乃至32のうちいずれか一項に記載の方法を実施させる、
装置。 - 非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
請求項1乃至32のうちいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019074437 | 2019-02-01 | ||
CNPCT/CN2019/074437 | 2019-02-01 | ||
PCT/CN2020/074139 WO2020156529A1 (en) | 2019-02-01 | 2020-02-01 | Signaling of in-loop reshaping information using parameter sets |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517683A true JP2022517683A (ja) | 2022-03-09 |
JP7199550B2 JP7199550B2 (ja) | 2023-01-05 |
Family
ID=77271633
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542565A Active JP7199552B2 (ja) | 2019-02-01 | 2020-02-01 | ビデオコーディングのためのルーマ依存クロマ残差スケーリングの設定 |
JP2021544569A Active JP7279172B2 (ja) | 2019-02-01 | 2020-02-01 | インループ再成形とインターコーディングツールとの間の相互作用 |
JP2021542161A Active JP7199550B2 (ja) | 2019-02-01 | 2020-02-01 | パラメータセットを使用したインループ再成形情報のシグナリング |
JP2023077938A Pending JP2023095995A (ja) | 2019-02-01 | 2023-05-10 | インループ再成形とインターコーディングツールとの間の相互作用 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542565A Active JP7199552B2 (ja) | 2019-02-01 | 2020-02-01 | ビデオコーディングのためのルーマ依存クロマ残差スケーリングの設定 |
JP2021544569A Active JP7279172B2 (ja) | 2019-02-01 | 2020-02-01 | インループ再成形とインターコーディングツールとの間の相互作用 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023077938A Pending JP2023095995A (ja) | 2019-02-01 | 2023-05-10 | インループ再成形とインターコーディングツールとの間の相互作用 |
Country Status (11)
Country | Link |
---|---|
US (4) | US11343505B2 (ja) |
EP (3) | EP3906681A4 (ja) |
JP (4) | JP7199552B2 (ja) |
KR (3) | KR102684123B1 (ja) |
CN (5) | CN113366841B (ja) |
AU (1) | AU2020214946B2 (ja) |
BR (2) | BR112021014620A2 (ja) |
CA (2) | CA3128424C (ja) |
MX (2) | MX2021008916A (ja) |
SG (2) | SG11202107760PA (ja) |
ZA (2) | ZA202105195B (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11632546B2 (en) * | 2018-07-18 | 2023-04-18 | Electronics And Telecommunications Research Institute | Method and device for effective video encoding/decoding via local lighting compensation |
CN113366833A (zh) | 2019-02-01 | 2021-09-07 | 北京字节跳动网络技术有限公司 | 对环路整形的限制 |
CN113366841B (zh) | 2019-02-01 | 2024-09-20 | 北京字节跳动网络技术有限公司 | 配置用于视频编解码的依赖于亮度的色度残差缩放 |
KR102661416B1 (ko) * | 2019-02-27 | 2024-04-25 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인코더, 디코더 및 대응하는 방법 |
CN113574889B (zh) | 2019-03-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
KR20210139272A (ko) | 2019-03-23 | 2021-11-22 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 적응적 루프 필터링 파라미터 세트들에 대한 제한들 |
KR20220002989A (ko) * | 2019-04-25 | 2022-01-07 | 오피 솔루션즈, 엘엘씨 | 픽처 헤더 내의 글로벌 모션 벡터의 시그널링 |
KR20220021442A (ko) * | 2019-06-18 | 2022-02-22 | 엘지전자 주식회사 | 영상 디코딩 방법 및 그 장치 |
CN114175651A (zh) * | 2019-06-20 | 2022-03-11 | Lg电子株式会社 | 基于亮度映射和色度缩放的视频或图像编码 |
WO2021068956A1 (en) | 2019-10-12 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Prediction type signaling in video coding |
BR112022012807A2 (pt) | 2019-12-27 | 2022-09-27 | Beijing Bytedance Network Tech Co Ltd | Método de processamento de vídeo, aparelho para processar dados de vídeo e meios não transitórios legíveis por computador |
WO2022228420A1 (en) * | 2021-04-27 | 2022-11-03 | Beijing Bytedance Network Technology Co., Ltd. | Method, device, and medium for video processing |
US11622106B2 (en) * | 2021-05-17 | 2023-04-04 | Meta Platforms, Inc. | Supporting multiple partition sizes using a unified pixel input data interface for fetching reference pixels in video encoders |
US20230090025A1 (en) * | 2021-09-22 | 2023-03-23 | Alibaba Singapore Holding Private Limited | Methods and systems for performing combined inter and intra prediction |
US11968356B2 (en) | 2022-03-16 | 2024-04-23 | Qualcomm Incorporated | Decoder-side motion vector refinement (DMVR) inter prediction using shared interpolation filters and reference pixels |
US20240022732A1 (en) * | 2022-07-13 | 2024-01-18 | Tencent America LLC | Weight derivation of multiple reference line for intra prediction fusion |
WO2024037638A1 (en) * | 2022-08-18 | 2024-02-22 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
WO2024137862A1 (en) * | 2022-12-22 | 2024-06-27 | Bytedance Inc. | Method, apparatus, and medium for video processing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017019818A1 (en) * | 2015-07-28 | 2017-02-02 | Vid Scale, Inc. | High dynamic range video coding architectures with multiple operating modes |
WO2017165494A2 (en) * | 2016-03-23 | 2017-09-28 | Dolby Laboratories Licensing Corporation | Encoding and decoding reversible production-quality single-layer video signals |
WO2019006300A1 (en) * | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
Family Cites Families (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5544284A (en) | 1992-02-11 | 1996-08-06 | Eastman Kodak Company | Sequential product code quantization of digital color image |
US20020145610A1 (en) | 1999-07-16 | 2002-10-10 | Steve Barilovits | Video processing engine overlay filter scaler |
US7412003B2 (en) | 2003-09-17 | 2008-08-12 | Texas Instruments Incorporated | Transcoders and methods |
US20100266042A1 (en) | 2007-03-02 | 2010-10-21 | Han Suh Koo | Method and an apparatus for decoding/encoding a video signal |
CN101674149B (zh) | 2008-09-08 | 2012-11-14 | 中兴通讯股份有限公司 | 一种自适应编码调制方法 |
CN102177426B (zh) | 2008-10-08 | 2014-11-05 | 弗兰霍菲尔运输应用研究公司 | 多分辨率切换音频编码/解码方案 |
CN101615395B (zh) | 2008-12-31 | 2011-01-12 | 华为技术有限公司 | 信号编码、解码方法及装置、系统 |
WO2011048117A1 (en) | 2009-10-20 | 2011-04-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio signal encoder, audio signal decoder, method for encoding or decoding an audio signal using an aliasing-cancellation |
JP6005520B2 (ja) * | 2009-12-04 | 2016-10-12 | トムソン ライセンシングThomson Licensing | 映像符号化及び復号化におけるインターフレームの改善された色度変換の方法及び装置 |
US8611414B2 (en) | 2010-02-17 | 2013-12-17 | University-Industry Cooperation Group Of Kyung Hee University | Video signal processing and encoding |
US9100661B2 (en) | 2010-04-05 | 2015-08-04 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation |
US9094658B2 (en) | 2010-05-10 | 2015-07-28 | Mediatek Inc. | Method and apparatus of adaptive loop filtering |
US8630356B2 (en) | 2011-01-04 | 2014-01-14 | The Chinese University Of Hong Kong | High performance loop filters in video compression |
US9001883B2 (en) * | 2011-02-16 | 2015-04-07 | Mediatek Inc | Method and apparatus for slice common information sharing |
WO2012138032A1 (ko) * | 2011-04-07 | 2012-10-11 | 엘지전자 주식회사 | 영상 정보 부호화 방법 및 복호화 방법 |
US9872015B2 (en) * | 2011-04-21 | 2018-01-16 | Hfi Innovation Inc. | Method and apparatus for improved in-loop filtering |
US9277228B2 (en) * | 2011-07-18 | 2016-03-01 | Qualcomm Incorporated | Adaptation parameter sets for video coding |
US9948938B2 (en) | 2011-07-21 | 2018-04-17 | Texas Instruments Incorporated | Methods and systems for chroma residual data prediction |
US9083983B2 (en) | 2011-10-04 | 2015-07-14 | Qualcomm Incorporated | Motion vector predictor candidate clipping removal for video coding |
CN110446037B (zh) | 2011-11-08 | 2022-01-04 | 韩国电子通信研究院 | 用于共享候选者列表的方法和装置 |
KR20130053645A (ko) | 2011-11-15 | 2013-05-24 | 한국전자통신연구원 | 적응적 루프 필터를 이용한 비디오 부호화/복호화 방법 및 장치 |
US9451252B2 (en) | 2012-01-14 | 2016-09-20 | Qualcomm Incorporated | Coding parameter sets and NAL unit headers for video coding |
WO2013109505A2 (en) * | 2012-01-19 | 2013-07-25 | Vid Scale, Inc. | Methods, apparatus and systems for signaling video coding adaptation parameters |
CN104205819B (zh) | 2012-02-01 | 2017-06-30 | 诺基亚技术有限公司 | 用于视频编码的方法和装置 |
US9438905B2 (en) * | 2012-04-12 | 2016-09-06 | Futurewei Technologies, Inc. | LM mode with uniform bit-width multipliers |
GB2501125B (en) * | 2012-04-13 | 2015-08-19 | Canon Kk | Method and device for providing adaptation parameters to a decoder |
US9300984B1 (en) | 2012-04-18 | 2016-03-29 | Matrox Graphics Inc. | Independent processing of data streams in codec |
US10491913B2 (en) * | 2012-04-24 | 2019-11-26 | Telefonaktiebolaget L M Ericsson (Publ) | Identifying a parameter set for decoding a multi-layer video representation |
US20130287093A1 (en) | 2012-04-25 | 2013-10-31 | Nokia Corporation | Method and apparatus for video coding |
CN108712652A (zh) * | 2012-06-29 | 2018-10-26 | 韩国电子通信研究院 | 视频编码方法和计算机可读介质 |
WO2014053518A1 (en) | 2012-10-01 | 2014-04-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scalable video coding using subblock-based coding of transform coefficient blocks in the enhancement layer |
WO2014106692A1 (en) * | 2013-01-07 | 2014-07-10 | Nokia Corporation | Method and apparatus for video coding and decoding |
US9491460B2 (en) | 2013-03-29 | 2016-11-08 | Qualcomm Incorporated | Bandwidth reduction for video coding prediction |
EP4366308A3 (en) | 2013-06-28 | 2024-07-10 | Velos Media International Limited | Methods and devices for emulating low-fidelity coding in a high-fidelity coder |
US10440365B2 (en) * | 2013-06-28 | 2019-10-08 | Velos Media, Llc | Methods and devices for emulating low-fidelity coding in a high-fidelity coder |
JP6139774B2 (ja) * | 2013-07-15 | 2017-05-31 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Hevcにおけるcabacのための変換スキップされたブロックのための修正コーディング |
CN105453564B (zh) | 2013-07-30 | 2019-05-10 | 株式会社Kt | 支持多个层的图像编码和解码方法以及使用该方法的装置 |
KR102027027B1 (ko) * | 2013-10-07 | 2019-09-30 | 브이아이디 스케일, 인크. | 다계층 비디오 코딩을 위해 조합된 확장성 프로세싱 |
US10397607B2 (en) | 2013-11-01 | 2019-08-27 | Qualcomm Incorporated | Color residual prediction for video coding |
US10148895B2 (en) | 2013-12-19 | 2018-12-04 | Flir Systems Ab | Generating a combined infrared/visible light image having an enhanced transition between different types of image information |
TWI536811B (zh) | 2013-12-27 | 2016-06-01 | 財團法人工業技術研究院 | 影像處理方法與系統、解碼方法、編碼器與解碼器 |
WO2015100522A1 (en) | 2013-12-30 | 2015-07-09 | Mediatek Singapore Pte. Ltd. | Methods for inter-component residual prediction |
KR102268090B1 (ko) | 2014-03-14 | 2021-06-23 | 브이아이디 스케일, 인크. | 스크린 콘텐츠 코딩을 위한 팔레트 코딩 |
US9948933B2 (en) | 2014-03-14 | 2018-04-17 | Qualcomm Incorporated | Block adaptive color-space conversion coding |
ES2744795T3 (es) | 2014-05-28 | 2020-02-26 | Koninklijke Philips Nv | Métodos y aparatos para codificar unas imágenes HDR, y métodos y aparatos para usar tales imágenes codificadas |
AU2014202921B2 (en) * | 2014-05-29 | 2017-02-02 | Canon Kabushiki Kaisha | Method, apparatus and system for de-blocking a block of video samples |
US9948949B2 (en) | 2014-06-20 | 2018-04-17 | Qualcomm Incorporated | Intra block copy block vector signaling for video coding |
US9667829B2 (en) | 2014-08-12 | 2017-05-30 | Digimarc Corporation | System and methods for encoding information for printed articles |
BR112017004886A2 (pt) * | 2014-09-12 | 2017-12-05 | Vid Scale Inc | dispositivo de codificação de vídeo e método de codificação de vídeo |
WO2016057323A1 (en) | 2014-10-06 | 2016-04-14 | Huawei Technologies Co., Ltd. | Improved palette mode in high efficiency video coding (hevc) screen content coding (scc) |
GB2531005A (en) | 2014-10-06 | 2016-04-13 | Canon Kk | Improved encoding process using a palette mode |
US9918105B2 (en) * | 2014-10-07 | 2018-03-13 | Qualcomm Incorporated | Intra BC and inter unification |
WO2016074147A1 (en) | 2014-11-11 | 2016-05-19 | Mediatek Singapore Pte. Ltd. | Separated coding tree for luma and chroma |
CN104320671A (zh) | 2014-11-13 | 2015-01-28 | 山东财经大学 | 一种基于h.264标准的在线视频转码方法 |
KR102150979B1 (ko) * | 2014-12-19 | 2020-09-03 | 에이치에프아이 이노베이션 인크. | 비디오 및 이미지 코딩에서의 비-444 색채 포맷을 위한 팔레트 기반 예측의 방법 |
WO2016115343A2 (en) | 2015-01-14 | 2016-07-21 | Vid Scale, Inc. | Palette coding for non-4:4:4 screen content video |
US9998742B2 (en) | 2015-01-27 | 2018-06-12 | Qualcomm Incorporated | Adaptive cross component residual prediction |
US9591325B2 (en) | 2015-01-27 | 2017-03-07 | Microsoft Technology Licensing, Llc | Special case handling for merged chroma blocks in intra block copy prediction mode |
US20160234498A1 (en) * | 2015-02-05 | 2016-08-11 | Sharp Laboratories Of America, Inc. | Methods and systems for palette table coding |
US10057574B2 (en) | 2015-02-11 | 2018-08-21 | Qualcomm Incorporated | Coding tree unit (CTU) level adaptive loop filter (ALF) |
CN107439012B (zh) | 2015-04-06 | 2018-09-25 | 杜比实验室特许公司 | 用于环内转换的方法、装置和计算机可读存储介质 |
CN107637057A (zh) | 2015-06-03 | 2018-01-26 | 联发科技股份有限公司 | 图像和视频数据的调色板编解码方法 |
GB2539211A (en) | 2015-06-08 | 2016-12-14 | Canon Kk | Enhanced coding and decoding using intra block copy mode |
CN106664405B (zh) * | 2015-06-09 | 2020-06-09 | 微软技术许可有限责任公司 | 用调色板模式对经逸出编码的像素的稳健编码/解码 |
EP3354032A1 (en) | 2015-09-21 | 2018-08-01 | VID SCALE, Inc. | Inverse reshaping for high dynamic range video coding |
US20170105014A1 (en) | 2015-10-08 | 2017-04-13 | Qualcomm Incorporated | Luma-driven chroma scaling for high dynamic range and wide color gamut contents |
EP3367681B1 (en) | 2015-10-22 | 2021-03-24 | LG Electronics Inc. | Modeling-based image decoding method and device in image coding system |
US20170124497A1 (en) | 2015-10-28 | 2017-05-04 | Fractal Industries, Inc. | System for automated capture and analysis of business information for reliable business venture outcome prediction |
US10311558B2 (en) | 2015-11-16 | 2019-06-04 | Dolby Laboratories Licensing Corporation | Efficient image processing on content-adaptive PQ signal domain |
CN106937121B (zh) | 2015-12-31 | 2021-12-10 | 中兴通讯股份有限公司 | 图像解码和编码方法、解码和编码装置、解码器及编码器 |
US20190045224A1 (en) | 2016-02-04 | 2019-02-07 | Mediatek Inc. | Method and apparatus of non-local adaptive in-loop filters in video coding |
US11032550B2 (en) | 2016-02-25 | 2021-06-08 | Mediatek Inc. | Method and apparatus of video coding |
US20170310969A1 (en) | 2016-04-20 | 2017-10-26 | Mediatek Inc. | Image encoding method and apparatus with color space transform performed upon predictor and associated image decoding method and apparatus |
EP3244616A1 (en) | 2016-05-13 | 2017-11-15 | Thomson Licensing | A method for encoding an input video comprising a luma component and two chroma components, the method comprising reshaping of said input video based on reshaping functions |
US20190297320A1 (en) * | 2016-05-13 | 2019-09-26 | Sharp Kabushiki Kaisha | Image decoding device and image encoding device |
US10645403B2 (en) * | 2016-05-19 | 2020-05-05 | Dolby Laboratories Licensing Corporation | Chroma reshaping for high dynamic range images |
CN109155853B (zh) | 2016-05-19 | 2023-03-28 | 杜比实验室特许公司 | 用于高动态范围图像的色度整形 |
PL3731527T3 (pl) * | 2016-05-28 | 2023-01-09 | Hfi Innovation Inc. | Sposób i urządzenie do kodowania w trybie palety dla danych kolorowego wideo |
CN113453000B (zh) | 2016-07-22 | 2024-01-12 | 夏普株式会社 | 使用自适应分量缩放对视频数据进行编码的系统和方法 |
WO2018044803A1 (en) | 2016-08-30 | 2018-03-08 | Dolby Laboratories Licensing Corporation | Real-time reshaping of single-layer backwards-compatible codec |
EP3510772B1 (en) * | 2016-09-09 | 2020-12-09 | Dolby Laboratories Licensing Corporation | Coding of high dynamic range video using segment-based reshaping |
US10652575B2 (en) | 2016-09-15 | 2020-05-12 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
EP3509298A4 (en) | 2016-09-30 | 2020-07-22 | LG Electronics Inc. -1- | METHOD AND DEVICE FOR BLOCK PARTITIONING AND INTRAPREDICATION IN AN IMAGE CODING SYSTEM |
EP3529986A1 (en) | 2016-12-23 | 2019-08-28 | Huawei Technologies Co., Ltd. | Low complexity mixed domain collaborative in-loop filter for lossy video coding |
US10506230B2 (en) | 2017-01-04 | 2019-12-10 | Qualcomm Incorporated | Modified adaptive loop filter temporal prediction for temporal scalability support |
US11025903B2 (en) * | 2017-01-13 | 2021-06-01 | Qualcomm Incorporated | Coding video data using derived chroma mode |
US10694181B2 (en) | 2017-01-27 | 2020-06-23 | Qualcomm Incorporated | Bilateral filters in video coding with reduced complexity |
US11310532B2 (en) * | 2017-02-24 | 2022-04-19 | Interdigital Vc Holdings, Inc. | Method and device for reconstructing image data from decoded image data |
CN108123778B (zh) | 2017-03-24 | 2023-04-11 | 中兴通讯股份有限公司 | 传输及传输配置方法、装置及基站、终端 |
US10735761B2 (en) * | 2017-05-19 | 2020-08-04 | Mediatek Inc | Method and apparatus of video coding |
US10602180B2 (en) * | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
US20190007699A1 (en) * | 2017-06-28 | 2019-01-03 | Futurewei Technologies, Inc. | Decoder Side Motion Vector Derivation in Video Coding |
US10757442B2 (en) | 2017-07-05 | 2020-08-25 | Qualcomm Incorporated | Partial reconstruction based template matching for motion vector derivation |
CN107360433B (zh) | 2017-07-20 | 2020-06-19 | 北京奇艺世纪科技有限公司 | 一种帧间预测编码方法和装置 |
US20200322606A1 (en) | 2017-10-24 | 2020-10-08 | Sharp Kabushiki Kaisha | Systems and methods for determining quantization parameter predictive values |
US10986349B2 (en) | 2017-12-29 | 2021-04-20 | Microsoft Technology Licensing, Llc | Constraints on locations of reference blocks for intra block copy prediction |
UA126871C2 (uk) | 2018-02-14 | 2023-02-15 | Долбі Лабораторіс Лайсензін Корпорейшн | Перетворення зображення в кодуванні відео з використанням оптимізації залежності викривлення від швидкості передачі |
US10757428B2 (en) | 2018-10-10 | 2020-08-25 | Apple Inc. | Luma and chroma reshaping of HDR video encoding |
CN118612424A (zh) * | 2018-10-22 | 2024-09-06 | 松下电器(美国)知识产权公司 | 编码装置、解码装置、发送装置以及非暂时性存储介质 |
WO2020086421A1 (en) | 2018-10-25 | 2020-04-30 | Interdigital Vc Holdings, Inc. | Video encoding and decoding using block-based in-loop reshaping |
JP7354241B2 (ja) | 2018-11-07 | 2023-10-02 | 華為技術有限公司 | ビデオエンコーダ、ビデオデコーダ、及び対応する方法 |
US11122264B2 (en) | 2018-12-06 | 2021-09-14 | Qualcomm Incorporated | Adaptive loop filter (ALF) coefficients in video coding |
US11647188B2 (en) | 2019-01-04 | 2023-05-09 | Interdigital Vc Holdings, Inc. | Inverse mapping simplification |
CN113366833A (zh) | 2019-02-01 | 2021-09-07 | 北京字节跳动网络技术有限公司 | 对环路整形的限制 |
CN113366841B (zh) | 2019-02-01 | 2024-09-20 | 北京字节跳动网络技术有限公司 | 配置用于视频编解码的依赖于亮度的色度残差缩放 |
US11516512B2 (en) * | 2019-03-04 | 2022-11-29 | Alibaba Group Holding Limited | Method and system for processing video content |
US10742972B1 (en) | 2019-03-08 | 2020-08-11 | Tencent America LLC | Merge list construction in triangular prediction |
CN113574889B (zh) | 2019-03-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
KR20210139272A (ko) | 2019-03-23 | 2021-11-22 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 적응적 루프 필터링 파라미터 세트들에 대한 제한들 |
US11388406B2 (en) * | 2019-05-20 | 2022-07-12 | Dolby Laboratories Licensing Corporation | Piece-wise-linear mapping for in-loop reshaping in image coding |
US11509938B2 (en) | 2019-11-05 | 2022-11-22 | Hfi Innovation Inc. | Method and apparatus of signaling subpicture information in video coding |
US20210168406A1 (en) | 2019-11-29 | 2021-06-03 | Tencent America LLC | Signaling of video coding tools supporting various chroma formats |
US11303914B2 (en) | 2020-01-08 | 2022-04-12 | Tencent America LLC | Method and apparatus for video coding |
-
2020
- 2020-02-01 CN CN202080012234.1A patent/CN113366841B/zh active Active
- 2020-02-01 BR BR112021014620-2A patent/BR112021014620A2/pt unknown
- 2020-02-01 AU AU2020214946A patent/AU2020214946B2/en active Active
- 2020-02-01 CN CN202311776732.5A patent/CN117768642A/zh active Pending
- 2020-02-01 KR KR1020217023118A patent/KR102684123B1/ko active IP Right Grant
- 2020-02-01 CN CN202080012235.6A patent/CN113424543B/zh active Active
- 2020-02-01 EP EP20749297.6A patent/EP3906681A4/en active Pending
- 2020-02-01 EP EP20748416.3A patent/EP3900362A4/en active Pending
- 2020-02-01 BR BR112021014202-9A patent/BR112021014202A2/pt active IP Right Grant
- 2020-02-01 JP JP2021542565A patent/JP7199552B2/ja active Active
- 2020-02-01 CN CN202080012233.7A patent/CN113396582B/zh active Active
- 2020-02-01 CN CN202080012232.2A patent/CN113383547A/zh active Pending
- 2020-02-01 JP JP2021544569A patent/JP7279172B2/ja active Active
- 2020-02-01 CA CA3128424A patent/CA3128424C/en active Active
- 2020-02-01 JP JP2021542161A patent/JP7199550B2/ja active Active
- 2020-02-01 KR KR1020217023159A patent/KR102617221B1/ko active IP Right Grant
- 2020-02-01 EP EP20749298.4A patent/EP3900344A4/en active Pending
- 2020-02-01 KR KR1020237043889A patent/KR20240005124A/ko active Search and Examination
- 2020-02-01 MX MX2021008916A patent/MX2021008916A/es unknown
- 2020-02-01 CA CA3127136A patent/CA3127136A1/en active Pending
- 2020-02-01 SG SG11202107760PA patent/SG11202107760PA/en unknown
- 2020-02-01 SG SG11202108207SA patent/SG11202108207SA/en unknown
- 2020-02-01 MX MX2021008911A patent/MX2021008911A/es unknown
-
2021
- 2021-05-17 US US17/322,166 patent/US11343505B2/en active Active
- 2021-05-26 US US17/331,017 patent/US11394995B2/en active Active
- 2021-07-22 ZA ZA2021/05195A patent/ZA202105195B/en unknown
- 2021-07-29 ZA ZA2021/05404A patent/ZA202105404B/en unknown
- 2021-09-28 US US17/487,200 patent/US11558636B2/en active Active
-
2022
- 2022-09-20 US US17/949,045 patent/US12096021B2/en active Active
-
2023
- 2023-05-10 JP JP2023077938A patent/JP2023095995A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017019818A1 (en) * | 2015-07-28 | 2017-02-02 | Vid Scale, Inc. | High dynamic range video coding architectures with multiple operating modes |
WO2017165494A2 (en) * | 2016-03-23 | 2017-09-28 | Dolby Laboratories Licensing Corporation | Encoding and decoding reversible production-quality single-layer video signals |
WO2019006300A1 (en) * | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
Non-Patent Citations (5)
Title |
---|
SEETHAL PALURI, ET AL.: "AHG17: Conditional Signaling of ALF and In-Loop Reshaper Model.", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0290-r1, JPN6022030252, March 2019 (2019-03-01), pages 1 - 4, ISSN: 0004835478 * |
TAORAN LU, ET AL.: "CE12: Mapping functions (test CE12-1 and CE12-2)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0427-v2, JPN6022030259, January 2019 (2019-01-01), pages 1 - 15, ISSN: 0004835475 * |
TAORAN LU, ET AL.: "CE12-related: Universal low complexity reshaper for SDR and HDR video", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-L0247-v2, JPN6022030256, October 2018 (2018-10-01), pages 1 - 10, ISSN: 0004835477 * |
WADE WAN, ET AL: "AHG17: Design for signallilng reshaper model", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0805-v2, JPN6022030250, March 2019 (2019-03-01), pages 1 - 6, ISSN: 0004835479 * |
YE-KUI WANG, HENDRY, AND JIANLE CHEN: "AHG17: On header parameter set (HPS)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0132-v2, JPN6022030258, January 2019 (2019-01-01), pages 1 - 4, ISSN: 0004835476 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113574889B (zh) | 环路整形信息的信令和语法 | |
AU2020213583B2 (en) | Signaling of in-loop reshaping information using parameter sets | |
KR102684123B1 (ko) | 인-루프 재성형과 인터 코딩 툴들 사이의 상호작용들 | |
JP7417624B2 (ja) | 適応ループフィルタリングパラメータセットに対する制限 | |
KR102712508B1 (ko) | 비디오 코딩을 위한 루마 종속적 크로마 잔차 스케일링의 구성 | |
WO2020182219A1 (en) | Signaling and syntax for in-loop reshaping information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199550 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |