JP2022525876A - オプティカルフローベースの予測精緻化の計算 - Google Patents
オプティカルフローベースの予測精緻化の計算 Download PDFInfo
- Publication number
- JP2022525876A JP2022525876A JP2021555421A JP2021555421A JP2022525876A JP 2022525876 A JP2022525876 A JP 2022525876A JP 2021555421 A JP2021555421 A JP 2021555421A JP 2021555421 A JP2021555421 A JP 2021555421A JP 2022525876 A JP2022525876 A JP 2022525876A
- Authority
- JP
- Japan
- Prior art keywords
- video block
- prediction
- sample
- motion
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 133
- 238000004364 calculation method Methods 0.000 title description 8
- 230000033001 locomotion Effects 0.000 claims abstract description 800
- 238000000034 method Methods 0.000 claims abstract description 792
- 238000006073 displacement reaction Methods 0.000 claims abstract description 218
- 238000003672 processing method Methods 0.000 claims abstract description 89
- 238000006243 chemical reaction Methods 0.000 claims abstract description 80
- 239000013598 vector Substances 0.000 claims description 413
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 125
- 230000008569 process Effects 0.000 claims description 60
- 241000023320 Luma <angiosperm> Species 0.000 claims description 36
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 36
- 230000004044 response Effects 0.000 claims description 25
- 238000005516 engineering process Methods 0.000 claims description 22
- 238000003860 storage Methods 0.000 claims description 19
- 229920006395 saturated elastomer Polymers 0.000 claims description 18
- 230000002457 bidirectional effect Effects 0.000 claims description 17
- 238000005192 partition Methods 0.000 claims description 14
- 101000774651 Naja atra Zinc metalloproteinase-disintegrin-like kaouthiagin-like Proteins 0.000 claims description 13
- 238000005286 illumination Methods 0.000 claims description 11
- 230000009977 dual effect Effects 0.000 claims description 10
- 238000007670 refining Methods 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims description 5
- 241000723655 Cowpea mosaic virus Species 0.000 claims description 2
- 239000000523 sample Substances 0.000 description 460
- 230000006870 function Effects 0.000 description 44
- 238000012545 processing Methods 0.000 description 36
- 238000009795 derivation Methods 0.000 description 33
- 230000002146 bilateral effect Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 238000001914 filtration Methods 0.000 description 13
- 230000009466 transformation Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 9
- 238000003491 array Methods 0.000 description 7
- 238000013139 quantization Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000011664 signaling Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000007689 inspection Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 4
- 101150095908 apex1 gene Proteins 0.000 description 4
- 239000010410 layer Substances 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 239000011229 interlayer Substances 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000019491 signal transduction Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/231—Analysis of motion using block-matching using full search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
この特許文献に記載されるこの技術は映像符号化技術に関する。具体的には、記載される技術は、映像符号化における動き補償に関連する。これは、HEVCのような既存の映像符号化標準に適用されてもよいし、成立される標準(バーサタイルビデオコーディング)に適用されてもよい。これは、将来の映像符号化標準又は映像コーデックにも適用可能である。
映像符号化標準は、主に、周知のITU-T及びISO/IEC標準の開発を通じて発展してきた。ITU-TがH.261及びH.263を作成し、ISO/IECがMPEG-1及びMPEG-4 Visualを作成し、そして、これら2つの組織が共同で、H.262/MPEG-2 Video及びH.264/MPEG-4 AVC(Advanced Video Coding)及びH.265/HEVC標準を作成した。H.262以来、映像符号化標準は、時間予測に加えて変換符号化が利用されるハイブリッド映像符号化構造に基づいている。HEVCの先の将来の映像符号化技術を探求するため、2015年にVCEGとMPEGが共同でJVET(Joint Video Exploration Team)を設立した。それ以来、数多くの新しい方法が、JVETによって採用され、共同探索モデルJEM(Joint Exploration Model)と名付けられたリファレンスソフトウェアに入れられてきた。2018年4月には、HEVCと比較して50%のビットレート低減を目指すVVC標準に取り組むべく、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間でJVET(Joint Video Expert Team)を発足させた。
http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/11_Ljubljana/wg11/JVET-K1001-v7.zip
にて見つけることができる。
https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-2.1
にて見つけることができる。
インター予測による各PUは、1つ又は2つの参照ピクチャリストに関する動きパラメータを有する。動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。2つの参照ピクチャリストのうちの1つの使用がまた、inter_pred_idcを用いて信号伝達され得る。動きベクトルは、予測子に対するデルタとして明示的に符号化され得る。
2.1.1.1. マージモードに関する候補の導出
マージモードを使用してPUが予測されるとき、マージ候補リスト内のエントリを指すインデックスがビットストリームから構文解析され、動き情報を取り出すために使用される。このリストの構築は、HEVC標準に規定されており、以下の一連のステップに従って要約され得る:
・ ステップ1:当初候補導出
- ステップ1.1:空間候補導出
- ステップ1.2:空間候補に関する冗長性検査
- ステップ1.3:時間候補導出
・ ステップ2:追加候補挿入
- ステップ2.1:双予測候補の作成
- ステップ2.2:ゼロ動き候補の挿入
空間マージ候補の導出では、図2に示す位置にある候補の中から最大4つのマージ候補が選択される。導出の順序はA1、B1、B0、A0、及びB2である。位置B2は、位置A1、B1、B0、A0のうちのいずれかのPUが利用可能でない場合(例えば、それが別のスライス又はタイルに属するため)又はイントラ符号化される場合にのみ考慮される。位置A1の候補が追加された後、残りの候補の追加は、符号化効率が向上されるように、同じ動き情報を有する候補がリストから除外されることを保証する冗長性検査にかけられる。計算複雑性を低減させるために、前述の冗長性検査では、可能な全ての候補ペアが考慮されるわけではない。その代わりに、図3の矢印で結び付けられたペアのみが考慮され、冗長性検査に使用される対応する候補が同じ動き情報を持たない場合にのみ、候補がリストに追加される。重複動き情報の別の発生源は、2N×2Nとは異なる分割に関連する“第2のPU”である。一例として、図4は、それぞれ、N×2N及び2N×Nの場合の第2のPUを示している。現在PUがN×2Nに分割されるとき、A1にある候補はリスト構築に考慮されない。実際、この候補を追加することは、同じ動き情報を有する2つの予測ユニットにつながることになり、それは、符号化ユニット内に1つのみのPUを有することには冗長である。同様に、現在PUが2N×Nに分割されるとき、位置B1は考慮されない。
このステップでは、1つの候補のみがリストに追加される。特に、この時間マージ候補の導出では、所与の参照ピクチャリスト内で現在ピクチャとのPOC差が最小であるピクチャに属するコロケートPUに基づいて、スケーリングされた動きベクトルが導出される。コロケートPUの導出に使用される参照ピクチャリストは、スライスヘッダ内で明示的に信号伝達される。時間マージ候補に関するスケーリングされた動きベクトルは、図5に点線で示すようにして得られ、それは、POC距離tb及びtdを用いて、コロケートPU(col_PU)の動きベクトルからスケーリングされるものであり、ここで、tbは、現在ピクチャ(curr_pic)の参照ピクチャ(curr_ref)と現在ピクチャとの間のPOC差であると定義され、tdは、コロケートピクチャ(col_pic)の参照ピクチャ(col_ref)とコロケートピクチャとの間のPOC差であると定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しく設定される。スケーリングプロセスの実際の具現化はHEVC仕様書に定められている。Bスライスでは、一方が参照ピクチャリスト0に関し、他方が参照ピクチャリスト1に関するものである2つの動きベクトルが得られ、これらが組み合わされて、双予測マージ候補をなす。
空間及び時間マージ候補の他に、結合双予測マージ候補及びゼロマージ候補という2つの更なるタイプのマージ候補が存在する。結合双予測マージ候補は、空間及び時間マージ候補を利用することによって生成される。結合双予測マージ候補はBスライスのみに使用される。結合双予測候補は、当初候補の第1の参照ピクチャリスト動きパラメータを別のものの第2の参照ピクチャリスト動きパラメータと組み合わせることによって生成される。これら2つのタプルが異なる動き仮説を提供する場合、それらは新たな双予測候補を形成する。一例として、図7は、mvL0とrefIdxL0、又はmvL1とrefIdxL1、を有するものである元のリスト(左側)内の2つの候補を用いて、最終的なリスト(右側)に追加される結合双予測マージ候補が作成される場合を示している。これらの追加マージ候補を生成するために考慮される組み合わせに関するルールが数多く存在する。
符号化プロセスを高速化するために、動き推定を並列に実行することができ、それにより、所与の領域内の全ての予測ユニットに対する動きベクトルが同時に導出される。空間的に近隣するものからのマージ候補の導出は、1つの予測ユニットが、隣接PUから動きパラメータをそれに関連する動き推定が完了するまで導出することができないので、並列処理を妨げてしまい得る。符号化効率と処理レイテンシとの間のトレードオフを緩和するために、HEVCは、そのサイズが“log2_parallege_merge_level_minus2”構文要素を用いてピクチャパラメータセット内で信号伝達される動き推定領域(motion estimation region;MER)を定義している。MERが規定される場合、同じ領域に入るマージ候補は利用不可とマークされ、それ故にリスト作成において考慮されない。
AMVPは、隣接PUとの動きベクトルの空間-時間相関を利用し、それが動きパラメータの明示的伝送に使用される。各参照ピクチャリストに対して、先ず、左上の時間的に隣接するPU位置の利用可能性を検査し、冗長候補を除去し、そして、ゼロベクトルを追加して候補リストを一定長さにすることによって、動きベクトル候補リストが構築される。そして、エンコーダは、候補リストから最良の予測子を選択し、選択した候補を指し示す対応するインデックスを送信することができる。同様に、マージインデックス信号伝達では、最良の動きベクトル候補のインデックスがtruncated unaryを用いて符号化される。この場合に符号化される最大値は2である(図8を参照)。以下のセクションにて、動きベクトル予測候補の導出プロセスの詳細を提供する。
動きベクトル予測では、空間動きベクトル候補及び時間動きベクトル候補の2種類の動きベクトル候補が考慮される。空間動きベクトル候補導出では、図2で示したような5つの異なる位置にある各PUの動きベクトルに基づいて、最終的に2つの動きベクトル候補が導出される。
空間動きベクトル候補の導出においては、図2で示したような位置にあるPUから導出されるものである5つの可能性ある候補の中の最大2つの候補が考慮され、それらの位置は動きマージの位置と同じである。現在PUの左側についての導出の順序が、A0、A1、及びスケーリングされたA0、スケーリングされたA1として定められる。現在PUの上側についての導出の順序が、B0、B1、B2、スケーリングされたB0、スケーリングされたB1、スケーリングされたB2として定められる。従って、各側について、動きベクトル候補として使用され得る4つのケースが存在し、2つのケースは空間スケーリングを使用する必要がなく、2つのケースでは空間スケーリングが使用される。それら4つの異なるケースは、以下のようにまとめられる:
・ 空間スケーリングなし
- (1)同一参照ピクチャリスト、且つ同一参照ピクチャインデックス(同一POC)
- (2)異なる参照ピクチャリスト、しかし、同一参照ピクチャ(同一POC)
・ 空間スケーリング
- (3)同一参照ピクチャリスト、しかし、異なる参照ピクチャ(異なるPOC)
- (4)異なる参照ピクチャリスト、且つ異なる参照ピクチャ(異なるPOC)
参照ピクチャインデックスの導出は別にして、時間マージ候補の導出のための全てのプロセスは、空間動きベクトル候補の導出に関してと同じである(図6を参照)。参照ピクチャインデックスがデコーダに信号伝達される。
2.2.1 サブCUベース動きベクトル予測
QTBTを用いるJEMでは、各CUが、各予測方向に対して最大1セットの動きパラメータを持つことができる。エンコーダにおいて、大きなCUを複数のサブCUに分割し、大きなCUの全てのサブCUに対して動き情報を導出することによって、2つのサブCUレベルの動きベクトル予測方法が考慮される。代替的時間動きベクトル予測(alternative temporal motion vector prediction;ATMVP)法は、各CUが、コロケート参照ピクチャ内の現在CUよりも小さい複数のブロックから複数セットの動き情報をフェッチすることを可能にする。空間-時間動きベクトル予測(spatial-temporal motion vector prediction;STMVP)法では、サブCUの動きベクトルが、時間動きベクトル予測子と空間隣接動きベクトルとを用いることによって再帰的に導出される。
代替的時間動きベクトル予測(ATMVP)法では、動きベクトルの時間動きベクトル予測(temporal motion vector prediction;TMVP)が、現在CUよりも小さい複数のブロックから複数セットの動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって修正される。図10に示すように、サブCUは、正方形のN×Nブロックである(Nはデフォルトで4に設定される)。
この方法では、サブCUの動きベクトルが、ラスタ走査順に従って再帰的に導出される。図11は、この概念を示している。4つの4×4のサブCU A、B、C、及びDを含む8×8のCUを考える。現在フレーム内の隣接する4×4のブロックを、a、b、c、及びdとラベル付ける。
サブCUモードは、追加のマージ候補として有効にされ、これらのモードを信号伝達するのに追加の構文要素は必要とされない。ATMVPモード及びSTMVPモードを表すために、各CUのマージ候補リストに2つの追加マージ候補が加えられる。シーケンスパラメータセットがATMVP及びSTMVPが有効にされることを指し示す場合に、最大7つのマージ候補が使用される。これら追加マージ候補の符号化論理は、HMにおけるマージ候補に関してと同じであり、これは、Pスライス又はBスライス内の各CUについて、2つの追加マージ候補に対して2つの更なるRD検査が必要とされることを意味する。
HEVCでは、スライスヘッダ内でuse_integer_mv_flagが0に等しい場合に、(動きベクトルとPUの予測動きベクトルとの間の)動きベクトル差(MVD)が、1/4ルマサンプルの単位で信号伝達される。JEMでは、局所適応動きベクトルレゾリューション(locally adaptive motion vector resolution;LAMVR)が導入されている。JEMにおいて、MVDは、1/4ルマサンプル、整数ルマサンプル、4ルマサンプルの単位で符号化されることができる。このMVD分解能は、符号化ユニット(CU)レベルで制御され、MVD分解能フラグが、少なくとも1つの非ゼロのMVD成分を持つ各CUに対して条件付きで信号伝達される。
・ 通常の1/4ルマサンプルMVD分解能でのCUのRD検査において、現在CUの動き情報(整数ルマサンプル精度)が記憶される。記憶された動き情報(丸め後)が、整数ルマサンプル及び4ルマサンプルMVD分解能での同一CUについてのRD検査において、更に小さい範囲での動きベクトル精緻化の出発点として使用されることで、時間のかかる動き推定プロセスが3回も繰り返されないようにする。
HEVCにおいて、動きベクトル精度は1/4ペル(4:2:0映像の場合は1/4ルマサンプル及び1/8クロマサンプル)である。JEMでは、内部動きベクトル記憶及びマージ候補の精度が1/16ペルに上昇する。このいっそう高い動きベクトル精度(1/16ペル)が、スキップ/マージモードで符号化されるCUに対する動き補償インター予測で使用される。通常のAMVPモードで符号化されるCUでは、セクション0で記載したように、整数ペル又は1/4ペルのいずれかの動きが使用される。
以前、H.263で、オーバーラップブロック動き補償(Overlapped Block Motion Compensation;OBMC)が使用されてきた。JEMでは、H.263においてとは異なり、CUレベルの構文を用いて、OBMCをオン及びオフに切り換えることができる。OBMCがJEMで使用されるとき、OBMCは、CUの右境界及び下境界を除く全ての動き補償(MC)ブロック境界に対して実行される。さらに、これは、ルマ成分及びクロマ成分の両方に適用される。JEMにおいて、MCブロックは符号化ブロックに対応している。CUがサブCUモード(サブCUマージ、アフィン、及びFRUCモードを含む)で符号化される場合、そのCUの各サブブロックがMCブロックである。CU境界を一様なやり方で処理するために、図12に示すようにサブブロックサイズを4×4に等しく設定して、全てのMCブロック境界に対してサブブロックレベルでOBMCが実行される。
局所照明補償(Local Illumination Compensation;LIC)は、スケーリング係数aとオフセットbを用いた、照明変化に関する線形モデルに基づく。また、それは、インターモード符号化される符号化ユニット(CU)ごとに適応的に有効又は無効にされる。
・ 現在ピクチャとその参照ピクチャとの間に明白な照明変化がないときにはピクチャ全体に対してLICが無効にされる。この状況を特定するために、現在ピクチャのヒストグラム及び現在ピクチャの全ての参照ピクチャのヒストグラムがエンコーダで計算される。現在ピクチャと現在ピクチャの全ての参照ピクチャとの間でヒストグラム差が所与の閾値より小さい場合、現在ピクチャに対してLICが無効にされ、それ以外の場合には、現在ピクチャに対してLICが有効にされる。
HEVCでは、動き補償予測(motion compensation prediction;MCP)に並進動きモデルのみが適用されている。一方、現実世界では、例えばズームイン/アウト、回転、遠近動作、及び他の不規則な動きといった、多くの種類の動きが存在する。JEMでは、単純化されたアフィン変換動き補償予測が適用されている。図14に示すように、ブロックのアフィン動きフィールドが、2つの制御点動きベクトルによって記述される。
パターンマッチング動きベクトル導出(pattern matched motion vector derivation;PMMVD)モードは、フレームレートアップコンバージョン(Frame-Rate Up Conversion;FRUC)技術に基づく特別なマージモードである。このモードでは、ブロックの動き情報は信号伝達されずにデコーダ側で導出される。
CUレベルで設定されるMV候補は:
(i)現在CUがAMVPモードにある場合、元のAMVP候補
(ii)全てのマージ候補
(iii)セクション0で紹介した、補間MVフィールド内の幾つかのMV
(iv)上及び左隣接動きベクトル
で構成される。
サブCUレベルで設定されるMV候補は:
(i)CUレベル探索から決定されるMV
(ii)上、左、左上、及び右上隣接MV
(iii)参照ピクチャからのコロケートMVをスケーリングしたもの
(iv)最大4つのATMVP候補
(v)最大4つのSTMVP候補
で構成される。
フレームを符号化する前に、ピクチャ全体に対して、ユニラテラルMEに基づいて補間動きフィールドが生成される。そして、動きフィールドは、後に、CUレベル又はサブCUレベルMV候補として使用され得る。
動きベクトルが分数サンプル位置を指すとき、動き補償補間が必要とされる。複雑さを低減させるため、バイラテラルマッチング及びテンプレートマッチングの両方で、通常の8タップHEVC補間の代わりにバイリニア補間が使用される。
MV精緻化は、バイラテラルマッチングコスト又はテンプレートマッチングコストの基準を用いたパターンベースのMV探索である。JEMでは、無制限中心バイアスダイヤモンド探索(unrestricted center-biased diamond search;UCBDS)と、CUレベル及びサブCUレベルでのMV精緻化のための適応クロス探索との、2つの探索パターンがサポートされている。CUレベル及びサブCUレベルの両方のMV精緻化で、MVは1/4ルマサンプルMV精度で直接探索され、これに1/8ルマサンプルMV精緻化が続く。CU及びサブCUステップのMV精緻化の探索範囲は、8ルマサンプルに等しく設定される。
バイラテラルマッチングマージモードでは、2つの異なる参照ピクチャ内の現在CUの動き軌跡に沿った2つのブロック間の最も近い一致に基づいてCUの動き情報が導出されるので、双予測が常に適用される。テンプレートマッチングマージモードには、そのような制限はない。テンプレートマッチングマージモードにおいて、エンコーダは、list0からの片予測、list1からの片予測、又はCUに対する双予測の中から選択することができる。この選択は、次のようにテンプレートマッチングのコストに基づく:
costBi<=factor*min(cost0,cost1)である場合、
双予測が使用される;
そうでなく、cost0<=cost1である場合、
list0からの片予測が使用される;
その他の場合、
list1からの片予測が使用される;
ここで、cost0はlist0テンプレートマッチングのSADであり、cost1はlist1テンプレートマッチングのSADであり、costBiは双予測テンプレートマッチングのSADである。factorの値は1.25に等しく、これは、この選択プロセスが双予測の方にバイアスされることを意味する。
JVET-L0646で提案される一般化Bi予測改良(GBi)がVTM--3.0に採用されている。
であり、ここで、PGBiはGBiの最終予測子であり、w0及びw1は選択されたGBi重みペアであり、それぞれ、リスト0(L0)及びリスト1(L1)の予測子に適用される。RoundingOffsetGBi及びshiftNumGBiは、GBiにおける最終予測子を正規化するために用いられる。サポートされるw1重みセットは{-1/4,3/8,1/2,5/8,5/4}であり、これら5つの重みは、1つの等しい重みペア及び4つの等しくない重みペアに対応する。混合利得、すなわち、w1とw0との和は1.0に固定される。従って、対応するw0重みセットは{5/4,5/8,1/2,3/8,-1/4}である。この重みペア選択はCUレベルにおいてである。
GBi符号化時間を短縮するために、現行エンコーダ設計では、エンコーダは、4/8に等しいGBi重みから推定された片予測動きベクトルを記憶し、それらを他のGBi重みの片予測探索のために再利用する。この高速な符号化方法は、並進動きモデル及びアフィン動きモデルの両方に適用される。VTM2.0では、6パラメータアフィンモデルが4パラメータアフィンモデルと共に採用された。BMS2.1エンコーダは、GBi重みが4/8に等しいときの片予測アフィンMVを記憶する場合に、4パラメータアフィンモデルと6パラメータアフィンモデルとを区別しない。従って、GBi重み4/8で符号化した後、4パラメータアフィンMVが6パラメータアフィンMVによって上書きされ得る。記憶された6パラメータアフィンMVが、他のGBi重みに対する4パラメータアフィンMEに使用されることができ、あるいは、格納された4パラメータアフィンMVが、6パラメータアフィンMEに使用されることができる。提案されるGBiエンコーダバグ修正は、4パラメータアフィンMVストレージと6パラメータアフィンMVストレージとを分離する。当該エンコーダは、GBi重みが4/8に等しい場合に、アフィンモデルタイプに基づいてそれらのアフィンMVを記憶し、他のGBi重みについては、アフィンモデルタイプに基づいて対応するアフィンMVを再利用する。
GBiエンコーダ高速化
GBiを有効にされるときに符号化時間を短縮するために、5つのエンコーダ高速化方法が提案されている。
POC:16、TL:0、[L0:0][L1:0]
POC:8、TL:1、[L0:0 16] [L1:16 0]
POC:4、TL:2、[L0:0 8] [L1:8 16]
POC:2,TL:3,[L0:0 4] [L1:4 8]
POC:1、TL:4、[L0:0 2] [L1:2 4]
POC:3、TL:4、[L0:2 0] [L1:4 8]
POC:6,TL:3,[L0:4 0] [L1:8 16]
POC:5、TL:4、[L0:4 0] [L1:68]
POC:7、TL:4、[L0:6 4] [L1:8 16]
POC:12、TL:2、[L0:8 0] [L1:16 8]
POC:10、TL:3、[L0:8 0] [L1:12 16]
POC:9、TL:4、[L0:8 0] [L1:10 12]
POC:11、TL:4、[L0:10 8] [L1:12 16]
POC:14、TL:3、[L0:12 8] [L1:12 16]
POC:13、TL:4、[L0:12 8] [L1:14 16]
POC:15、TL:4、[L0:14 12] [L1:16 14]
この方法では、小さいCUに対してGBiが無効にされる。インター予測モードにおいて、双予測が使用され且つCU領域が128ルマサンプルより小さい場合、如何なる信号伝達もなくGBiが無効にされる。
2.2.9.1 理論解析
BIOでは、現在ブロックの(各予測方向における)第1の予測を生成するために、先ず、動き補償が実行される。第1の予測を用いて、ブロック内の各サブブロック/ピクセルの空間勾配、時間勾配、及びオプティカルフローが導出され、次いで、それらを用いて、第2の予測、すなわち、サブブロック/ピクセルの最終予測が生成される。詳細は以下のとおりである。
ステップ1:BIOが適用可能であるかを判定する(WおよびHは現在ブロックの幅及び高さである)。
・ アフィン符号化される
・ ATMVP符号化される
・ (iPOC-iPOC0)*(iPOC-iPOC1)>=0
・ H==4又は(W==4且つH==8)
・ 重み付け予測を用いる
・ GBi重みが(1,1)でない。
W×Hブロックに対し、(W+2)×(H+2)サンプルが補間される。
Gx0(x,y)=(R0(x+1,y)-R0(x-1,y))>>4
Gy0(x,y)=(R0(x,y+1)-R0(x,y-1))>>4
Gx1(x,y)=(R1(x+1,y)-R1(x-1,y))>>4
Gy1(x,y)=(R1(x,y+1)-R1(x,y-1))>>4。
T1=(R0(x,y)>>6)-(R1(x,y)>>6),T2=(Gx0(x,y)+Gx1(x,y))>>3,T3=(Gy0(x,y)+Gy1(x,y))>>3
B1(x,y)=T2*T2,B2(x,y)=T2*T3,B3(x,y)=-T1*T2,B5(x,y)=T3*T3,B6(x,y)=-T1*T3
として計算される。
2つの4×4参照ブロック間のSADが閾値より小さい場合、BIOは4×4ブロックに対してスキップされる。
b(x,y)=(Vx(Gx0(x,y)-Gx1(x,y))+Vy(Gy0(x,y)-Gy1(x,y))+1)>>1
P(x,y)=(R0(x,y)+R1(x,y)+b(x,y)+offset)>>shift。
以下のセクション番号は、VVC標準文書の最新版におけるセクションを参照している。
- predFlagL0及びpredFlagL1が1に等しく、DiffPicOrderCnt(currentPic、refPicList0[refIdx0])*DiffPicOrderCnt(currPic,refPicList1[refIdx1])<0であり、MotionModelIdc[xCb][yCb]が0に等しく、且つMergeModeList[merge_idx[xCb]][yCb]]がSbColに等しくない場合、bioAvailablegの値をTRUEに設定する。
- それ以外の場合、bioAvailableFlagの値をFALSEに設定する。
...(元の仕様書のテキストが続く)
- bioAvailableFlagがTRUEに等しい場合、以下が適用される:
- 変数ShiftがMax(2,14-bitDepth)に等しく設定される。
- 変数cuLevelAbsDiffThres及びsubCuLevelAbsDiffThresが、(1<<(bitDepth-8+shift))*cbWidth*cbHeight及び1<<(bitDepth-3+shift)に等しく設定される。変数cuLevelSumAbsoluteDiffが0に設定される。
- xSbIdx=0..(cbWidth>>2)-1及びySbIdx=0..(cbHeight>>2)-1に対し、変数subCuLevelSumAbsoluteDiff[xSbIdx][ySbIdx]及び現在サブブロックの双方向オプティカルフロー利用フラグbioUtilizationFlag[xSbIdx][ySbIdx]が、次のように導出される:
i,j=0..3で、subCuLevelSumAbsoluteDiff[xSbIdx][ySbIdx]=ΣiΣj
Abs(predSamplesL0L[(xSbIdx<<2)+1+i][(ySbIdx<<2)+1+j]-
predSamplesL1L[(xSbIdx<<2)+1+i][(ySbIdx<<2)+1+j])
bioUtilizationFlag[xSbIdx][ySbIdx]=
subCuLevelSumAbsoluteDiff[xSbIdx][ySbIdx]>=subCuLevelAbsDiffThres
cuLevelSumAbsoluteDiff+=subCuLevelSumAbsoluteDiff[xSbIdx][ySbIdx]
- cuLevelSumAbsoluteDiffがcuLevelAbsDiffThresより小さい場合、bioAvailableFlagをFALSEに設定する。
- bioAvailableFlagがTRUEに等しい場合、現在ルマ符号化サブブロック内の予測サンプルである、xL=0..sbWidth-1及びyL=0..sbHeight-1でのpredSamplesL[xL+xSb][yL+ySb]が、ルマ符号化サブブロック幅sbWidth、ルマ符号化サブブロック高さsbHeight、サンプルアレイpreSamplesL0L及びpreSamplesL1L、並びに変数predFlagL0、predFlagL1、refIdxL0、refIdxL1を用いて、節8.3.4.5に規定される双方向オプティカルフローサンプル予測プロセスを呼び出すことによって導出される。
8.3.4.3.1 全般
このプロセスへのインプットは以下の通りである:
- 現在ピクチャの左上ルマサンプルに対して現在符号化サブブロックの左上サンプルを規定するルマ位置(xSb,ySb)、
- ルマサンプル内の現在符号化サブブロックの幅を規定する変数sbWidth、
- ルマサンプル内の現在符号化サブブロックの高さを規定する変数sbHeight、
- 1/16ルマサンプル単位で与えられるルマ動きベクトルmvLX、
- 1/32クロマサンプル単位で与えられるクロマ動きベクトルmvCLX、
- 選択された参照ピクチャサンプルアレイrefPicLXL並びにアレイrefPicLXCb及びrefPicLXCr、
- 双方向オプティカルフロー有効化フラグbioAvailableFlag。
- bioAvailableFlagがFALSEである場合の、予測ルマサンプル値の(sbWidth)×(sbHeight)アレイpredSamplesLXL、又はbioAvailableFlagがTRUEである場合の、予測ルマサンプル値の(sbWidth+2)×(sbHeight+2)アレイpredSamplesLXL、
- 予測クロマサンプル値の2つの(sbWidth/2)×(sbHeight/2)アレイpreSamplesLXCb及びpreSamplesLXCr。
- 変数xIntL、yIntL、xFracL及びyFracLが、次のように導出される:
xIntL=xSb-1+(mvLX[0]>>4)+xL
yIntL=ySb-1+(mvLX[1]>>4)+yL
xFracL=mvLX[0]&15
yFracL=mvLX[1]&15
- bilinearFiltEnabledFlagの値が次のように導出される:
- xLが-1又はsbWidthに等しい場合、又はyLが-1又はsbHeightに等しい場合、bilinearFiltEnabledFlagの値をTRUEに設定する。
- それ以外の場合、bilinearFiltEnabledFlagの値をFALSEに設定する。
- (xIntL,yIntL)、(xFracL,yFracL)、refPicLXL、bilinearFiltEnabledFlagを入力として、第8.3.4.3.2項に規定されるプロセスを呼び出すことによって、予測ルマサンプル値predSamplesLXL[xL][yL]が導出される。
- 変数xIntL、yIntL、xFracL及びyFracLが、次のように導出される:
xIntL=xSb+(mvLX[0]>>4)+xL
yIntL=ySb+(mvLX[1]>>4)+yL
xFracL=mvLX[0]&15
yFracL=mvLX[1]&15
- 変数bilinearFiltEnabledFlagがFALSEに設定される。
- (xIntL,yIntL)、(xFracL,yFracL)、refPicLXL、bilinearFiltEnabledFlagを入力として、第8.3.4.3.2項に規定されるプロセスを呼び出すことによって、予測ルマサンプル値predSamplesLXL[xL][yL]が導出される。
...(元の仕様書のテキストが続く)
8.3.4.5 双方向オプティカルフロー予測プロセス
このプロセスへの入力は以下である:
- 現在符号化ブロックの幅及び高さを規定する2つの変数nCbW及びnCbH、
- 2つの(nCbW+2)×(nCbH+2)ルマ予測サンプルアレイpredSamplesL0及びpredSamplesL1、
- 予測リスト利用フラグpredFlagL0及びpredFlagL1、
- 参照インデックスrefIdxL0及びrefIdxL1、
- xSbIdx=0..(nCbW>2)-1、ySbIdx=0...(nCbH>2)-1での、双方向オプティカルフロー利用フラグbioUtilizationFlag[xSbIdx][ySbIdx]。
- bioUtilizationFlag[xSbIdx][ySbIdx]がFALSEである場合、x=xSb..xSb+3、y=ySb..ySb+3に対して、現在予測ユニットの予測サンプル値が次のように導出される:
pbSamples[x][y]=Clip3(0,(1<<bitDepth)-1,
(predSamplesL0[x][y]+predSamplesL1[x][y]+offset2)>>shift2)
- それ以外の場合、現在予測ユニットの予測サンプル値は次のように導出される:
- 予測サンプルアレイpredSamplesL0及びpredSampleL1の左上サンプルに対して現在サブブロックの左上サンプルを規定する位置(xSb,ySb)が、次のように導出される:
xSb=(xSbIdx<<2)+1
ySb=(ySbIdx<<2)+1
- x=xSb-1..xSb+4、y=ySb-1..ySb+4に対して、以下が適用される:
- 予測サンプルアレイの内側の対応するサンプル(x,y)の各々についての位置(hx,vy)が、次のように導出される:
hx=Clip3(1,nCbW,x)
vy=Clip3(1,nCbH,y)
- 変数gradientHL0[x][y]、gradientVL0[x][y]、gradientHL1[x][y]及びgradientVL1[x][y]が、次のように導出される:
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>4
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1])>>4
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy])>>4
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy1])>>4
- 変数temp、tempX、tempYが、次のように導出される:
temp[x][y]=(predSamplesL0[hx][vy]>>6)-(predSamplesL1[hx][vy]>>6)
tempX[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>3
tempY[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>3
- 変数sGx2、sGy2、sGxGy、sGxdI及びsGydIが、次のように導出される:
x,y=-1..4で、sGx2=ΣxΣy(tempX[xSb+x][ySb+y]*tempX[xSb+x][ySb+y])
x,y=-1..4で、sGy2=ΣxΣy(tempY[xSb+x][ySb+y]*tempY[xSb+x][ySb+y])
x,y=-1..4で、sGxGy=ΣxΣ(tempX[xSb+x][ySb+y]*tempY[xSb+x][ySb+y])
x,y=-1..4で、sGxdIΣxΣ(-tempX[xSb+x][ySb+y]*temp[xSb+x][ySb+y])
x,y=-1..4で、sGydI=ΣxΣy(-tempY[xSb+x][ySb+y]*temp[xSb+x][ySb+y])
- 現在サブブロックの水平及び垂直動き精緻化が、次のように導出される:
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGy2))):0
sGxGym=sGxGy>>12;
sGxGys=sGxGy&((1<<12)-1)
sampleEnh=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)
+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1)
pbSamples[x][y]=Clip3(0,(1<<bitDepth)-1,(predSamplesL0[x+1][y+1]
+predSamplesL1[x+1][y+1]+sampleEnh+offset2)>>shift2)
DMVRは、デコーダ側動きベクトル導出(Decoder-side Motion Vector Derivation;DMVD)の一種である。
この寄稿は、オプティカルフローを用いてサブブロックベースのアフィン動き補償予測を精緻化する方法を提案している。サブブロックベースのアフィン動き補償が実行された後、予測サンプルが、オプティカルフロー方程式によって導出された差を加えることによって精緻化され、これは、オプティカルフローを用いた予測精緻化(prediction refinement with optical flow;PROF)として参照されている。提案される方法は、メモリアクセス帯域幅を増加させることなく、ピクセルレベルの粒度でインター予測を達成することができる。
位相変分アフィンサブブロック動き補償(phase-variant affine subblock motion compensation;PAMC)
アフィンサブブロックにおけるアフィン動きモデルをより良く近似するために、位相変分MCがサブブロックに適用される。提案される方法では、アフィン符号化ブロックも4×4サブブロックに分割され、VTM4.0で行われるように各サブブロックについてサブブロックMVが導出される。各サブブロックのMCは2つのステージに分けられる。第1ステージは、(4+L-1)×(4+L-1)参照ブロックウィンドウを(4+L-1)行の水平フィルタリングでフィルタリングするものであり、ここで、Lは補間フィルタのフィルタータップ長である。しかしながら、並進MCとは異なり、提案される位相変分アフィンサブブロックMCでは、各サンプル行のフィルタ位相が異なる。各サンプル行について、MVxが次のように導出される:
MVx=(subblockMVx<<7+dMvVerX×(rowIdx-L/2-2))>>7 (式1)
MVy=(subblockMVy<<7+dMvHorY×(columnIdx-2))>>7 (式2)
1. BIOは双予測のみ考慮する
2. vx及びvyの導出は、隣接ブロックの動き情報を考慮しない
3. JVET-N0236ではアフィン予測にオプティカルフローが用いられるが、最適からは程遠い。
これらの問題に取り組むために、我々は、オプティカルフローを用いた精緻化予測サンプルの導出に関する異なる構成を提案する。加えて、我々は、現在サブブロック/ブロックの最終予測ブロックを得るために、隣接(例えば、隣の又は隣ではない)ブロックの情報(例えば再構成サンプル又は動き情報など)、及び/又は1つのサブブロック/ブロックの、及び該1つのサブブロック/ブロックの予測ブロックの勾配を用いることを提案する。
1. ブロック内の位置(x,y)における予測サンプルP(x,y)をP’(x,y)=P(x,y)+Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y)として精緻化できることが提案される。P’(x,y)が残差サンプルRes(x,y)と共に使用されて、再構成されたRec(x,y)を生成する。(Gx(x,y),Gy(x,y))は、それぞれ例えば水平方向及び垂直方向に沿ったものなどの、位置(x,y)における勾配を表す。(Vx(x,y),Vy(x,y))は、オンザフライで導出され得る位置(x,y)における動き変位を表す;
a. あるいは、重み付け関数が、予測サンプル、勾配、及び動き変位に適用され得る。例えば、P’(x,y)=α(x,y)×P(x,y)+β(x,y)×Gx(x,y)×Vx(x,y)+γ(x,y)×Gy(x,y)×Vy(x,y)であり、ここで、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数又は実数とし得る;
i. 例えば、P’(x,y)=(α(x,y)×P(x,y)+β(x,y)×Gx(x,y)×Vx(x,y)+γ(x,y)×Gy(x,y)×Vy(x,y)+offsetP)/(α(x,y)+β(x,y)+γ(x,y))である。一例において、offsetPは0に設定される。あるいは、除算がシフトによって置換されてもよい;
ii. 例えば、P’(x,y)=P(x,y)-Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y);
iii. 例えば、P’(x,y)=P(x,y)-Gx(x,y)×Vx(x,y)-Gy(x,y)×Vy(x,y);
iv. 例えば、P’(x,y)=P(x,y)+Gx(x,y)×Vx(x,y)-Gy(x,y)×Vy(x,y);
v. 例えば、P’(x,y)=0.5×P(x,y)+0.25×Gx(x,y)×Vx(x,y)+0.25×Gy(x,y)×Vy(x,y);
vi. 例えば、P’(x,y)=0.5×P(x,y)+0.5×Gx(x,y)×Vx(x,y)+0.5×Gy(x,y)×Vy(x,y);
vii. 例えば、P’(x,y)=P(x,y)+0.5×Gx(x,y)×Vx(x,y)+0.5×Gy(x,y)×Vy(x,y);
b. あるいは、P’(x,y)=Shift(α(x,y)×P(x,y),n1)+Shift(β(x,y)×Gx(x,y)×Vx(x,y),n2)+Shift(γ(x,y)×Gy(x,y)×Vy(x,y),n3)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n1、n2、n3は、例えば1など、非不の整数である;
c. あるいは、P’(x,y)=SatShift(α(x,y)×P(x,y),n1)+SatShift(β(x,y)×Gx(x,y)×Vx(x,y),n2)+SatShift(γ(x,y)×Gy(x,y)×Vy(x,y),n3)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n1、n2、n3は、例えば1など、非不の整数である;
d. あるいは、P’(x,y)=Shift(α(x,y)×P(x,y)+β(x,y)×Gx(x,y)×Vx(x,y)+γ(x,y)×Gy(x,y)×Vy(x,y),n1)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n1は、例えば1など、非不の整数である;
e. あるいは、P’(x,y)=SatShift(α(x,y)×P(x,y)+β(x,y)×Gx(x,y)×Vx(x,y)+γ(x,y)×Gy(x,y)×Vy(x,y),n1)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n1は、例えば1など、非不の整数である;
f. あるいは、P’(x,y)=α(x,y)×P(x,y)+Shift(β(x,y)×Gx(x,y)×Vx(x,y),n2)+Shift(γ(x,y)×Gy(x,y)×Vy(x,y),n3)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n2、n3は、例えば1など、非不の整数である;
g. あるいは、P’(x,y)=α(x,y)×P(x,y)+SatShift(β(x,y)×Gx(x,y)×Vx(x,y),n2)+SatShift(γ(x,y)×Gy(x,y)×Vy(x,y),n3)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n2、n3は、例えば1など、非不の整数である;
h. あるいは、P’(x,y)=α(x,y)×P(x,y)+Shift(β(x,y)×Gx(x,y)×Vx(x,y)+γ(x,y)×Gy(x,y)×Vy(x,y),n3)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n3は、例えば1など、非不の整数である;
i. あるいは、P’(x,y)=α(x,y)×P(x,y)+SatShift(β(x,y)×Gx(x,y)×Vx(x,y)+γ(x,y)×Gy(x,y)×Vy(x,y),n3)であり、α(x,y)、β(x,y)及びγ(x,y)は、位置(x,y)における重み値であり、整数である。n3は、例えば1など、非不の整数である;
j. あるいは、P’(x,y)=f0(P(x,y))+f1(Gx(x,y)×Vx(x,y))+f2(Gy(x,y)×Vy(x,y))であり、f0、f1及びf2は3つの関数である;
k. 一例において、(Gx(x,y),Gy(x,y))はP(x1,y1)で計算され、x1は[x-Bx0,x+Bx1]の範囲に属し、y1は[y-By0,y+By1]の範囲に属し、Bx0、Bx1、By0、By1は整数である;
i. 例えば、Gx(x,y)=P(x+1,y)-P(x-1,y)、Gy(x,y)=P(x,y+1)-P(x,y-1);
(i)あるいは、Gx(x,y)=Shift(P(x+1,y)-P(x-1,y),n1)、Gy(x,y)=Shift(P(x,y+1)-P(x,y-1),n2)である。例えば、n1=n2=1である;
(ii)あるいは、Gx(x,y)=SatShift(P(x+1,y)-P(x-1,y),n1)、Gy(x,y)=SatShift(P(x,y+1)-P(x,y-1),n2)である。例えば、n1=n2=1である;
l. P(x,y)は片予測(1つのMVでのインター予測)の予測値とし得る;
m. P(x,y)は双予測(2つのMVでのインター予測)後の最終予測値とし得る;
i. 例えば、Vx(x,y)、Vy(x,y)は、BIO(双方向オプティカルフローBDOFとしても知られる)に規定される手法に従って導出され得る;
n. P(x,y)は多重仮説インター予測(3つ以上のMVでのインター予測)であってもよい;
o. P(x,y)はアフィン予測であってもよい;
p. P(x,y)はイントラ予測であってもよい;
q. P(x,y)はイントラブロックコピー(IBC)予測であってもよい;
r. P(x,y)は、三角予測モード(TPM)によって生成されてもよいし、ジオグラフィック予測モード(GPM)技術によって生成されてもよい;
s. P(x,y)はインター-イントラ結合予測であってもよい;
t. P(x,y)は、領域が同一の動きモデル及びパラメータを共有するものであるグローバルインター予測であってもよい;
u. P(x,y)は、パレット符号化モードによって生成されてもよい;
v. P(x,y)は、マルチビュー又は3Dビデオコーディングにおけるインタービュー予測であってもよい;
w. P(x,y)は、スケーラブルビデオコーディングにおける層間予測であってもよい;
x. P(x,y)は、精緻化される前にフィルタリングされてもよい;
y. P(x,y)は、再構成サンプル値を得るために残差サンプル値と加算されることになる最終予測であってもよい。一部の実施形態において、P(x,y)は、精緻化プロセスが適用されない場合の最終予測とし得る。一部の実施形態において、P’(x,y)は、精緻化プロセスが適用される場合の最終予測とし得る;
i. 一例において、双予測又は多重仮説予測が適用されるブロック(又はサブブロック)で、上の関数が一回、最終予測値に適用される;
ii. 一例において、双予測又は多重仮説予測が適用されるブロック(又はサブブロック)で、1つの予測方向又は参照ピクチャ又は動きベクトルに従った各予測ブロックに対して、予測ブロックを更新するために、上のプロセスが呼び出されるように、上の関数が複数回適用される。その後、更新された予測ブロックを用いて最終予測ブロックが生成され得る;
iii. あるいは、P(x,y)は、最終予測を導出するために使用されることになるものである中間予測であってもよい;
(i)例えば、P(x,y)は、現在ブロックが双予測でインター予測される場合に、1つの参照ピクチャリストからの予測とし得る;
(ii)例えば、P(x,y)は、現在ブロックがTPMで又はGPM技術でインター予測される場合に、1つの参照ピクチャリストからの予測とし得る;
(iii)例えば、P(x,y)は、現在ブロックが多重仮説でインター予測される場合に、1つの参照ピクチャからの予測とし得る;
(iv)例えば、P(x,y)は、現在ブロックがインター-イントラ結合予測される場合に、インター予測とし得る;
(v)例えば、P(x,y)は、現在ブロックが局所照明補償(LIC)を使用する場合に、LICが適用される前のインター予測とし得る;
(vi)例えば、P(x,y)は、現在ブロックがDMVR(又は他の種類のDMVD)を使用する場合に、DMVR(又は他の種類のDMVD)が適用される前のインター予測とし得る;
(vii)例えば、P(x,y)は、現在ブロックが重み付け予測又は一般化双予測(GBi)を使用する場合に、重み係数が乗算される前のインター予測とし得る;
z. G(x,y)と表記される勾配、例えばGx(x,y)又は/及びGy(x,y)は、再構成サンプル値を得るために残差サンプル値と加算されることになる最終予測上で導出されてもよい。一部の実施形態において、精緻化プロセスが適用されない場合、再構成サンプル値を得るために最終予測サンプル値が残差サンプル値に加算される;
i. 例えば、G(x,y)はP(x,y)上で導出され得る;
ii. あるいは、G(x,y)は、最終予測を導出するために使用されることになるものである中間予測上で導出され得る;
(i)例えば、G(x,y)は、現在ブロックが双予測でインター予測される場合に、1つの参照ピクチャリストからの予測上で導出され得る;
(ii)例えば、G(x,y)は、現在ブロックがTPMで又はGPM技術でインター予測される場合に、1つの参照ピクチャリストからの予測上で導出され得る;
(iii)例えば、G(x,y)は、現在ブロックが多重仮説でインター予測される場合に、1つの参照ピクチャからの予測上で導出され得る;
(iv)例えば、G(x,y)は、現在ブロックがインター-イントラ結合予測される場合に、インター予測上で導出され得る;
(v)例えば、G(x,y)は、現在ブロックが局所照明補償(LIC)を使用する場合に、LICが適用される前のインター予測上で導出され得る;
(vi)例えば、G(x,y)は、現在ブロックがDMVR(又は他の種類のDMVD)を使用する場合に、DMVR(又は他の種類のDMVD)が適用される前のインター予測上で導出され得る;
(vii)例えば、G(x,y)は、現在ブロックが重み付け予測又は一般化双予測(GBi)を使用する場合に、重み係数が乗算される前のインター予測上で導出され得る;
aa. あるいは、P’(x,y)は、最終予測サンプルを得るために、他の方法によって更に処理されてもよい;
bb. あるいは、ブロック内の位置(x,y)における再構成サンプルRec(x,y)が、Rec’(x,y)=Rec(x,y)+Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y)として精緻化され得る。Rec’(x,y)は、再構成されたRec(x,y)を置き換えるために使用されることになる。(Gx(x,y),Gy(x,y))は、それぞれ例えば水平方向及び垂直方向に沿ったものなどの、位置(x,y)における勾配を表す。(Vx(x,y),Vy(x,y))は、オンザフライで導出され得る位置(x,y)における動き変位を表す;
i. 一例において、(Gx(x,y),Gy(x,y))は再構成サンプル上で導出される。
2. (例えば箇条書き1においてなどの)オプティカルフローベースの方法で利用されるVx(x,y)及び/又はVy(x,y)が空間又は時間隣接ブロックに依存し得ることが提案される;
a. あるいは、BIO(BDOFとしても知られる)のプロセスにおけるVx(x,y)及び/又はVy(x,y)が空間又は時間隣接ブロックに依存してもよい;
b. 一例において、空間又は時間隣接ブロックへの“依存”は、動き情報(例えば、MV)、符号化モード(例えば、インター符号化又はイントラ符号化)、隣接CU寸法、隣接CU位置などへの依存を含み得る;
c. 一例において、(Vx(x,y),Vy(x,y))はMVMixに等しいとし得る;
i. 一例において、MVMixはWc(x,y)×MVc+WN1(x,y)×MVN1+WN2(x,y)×MVN2+...+WNk(x,y)×MVNkに等しくてもよく、ここで、MVcは現在ブロックのMVであり、MVN1...MVNkはk個の空間又は時間隣接ブロック:N1...NkのMVである。Wc、WN1...WNkは、整数又は実数とし得る重み値である;
ii. あるいは、MVMixはShift(Wc(x,y)×MVc+WN1(x,y)×MVN1+WN2(x,y)×MVN2+...+WNk(x,y)×MVNk,n1)に等しくてもよく、ここで、MVcは現在ブロックのMVであり、MVN1...MVNkはk個の空間又は時間隣接ブロック:N1...NkのMVである。Wc、WN1...WNkは、整数である重み値である;
iii. あるいは、MVMixはSatShift(Wc(x,y)×MVc+WN1(x,y)×MVN1+WN2(x,y)×MVN2+...+WNk(x,y)×MVNk,n1)に等しくてもよく、ここで、MVcは現在ブロックのMVであり、MVN1...MVNkはk個の空間又は時間隣接ブロック:N1...NkのMVである。Wc、WN1...WNkは、整数である重み値である;
iv. 一例において、Wc(x,y)=0である;
v. 一例において、k=1である。そして、N1は空間隣接ブロックである;
(i)一例において、N1は、位置(x,y)に最も近い空間隣接ブロックである;
(ii)一例において、WN1(x,y)は、位置(x,y)がN1に近いほど大きい;
vi. 一例において、k=1である。そして、N1は時間隣接ブロックである;
(i)例えば、N1は、位置(x,y)についてのコロケートピクチャ内のコロケートブロックである;
一例において、異なる位置は異なる空間又は時間隣接ブロックを使用し得る;
vii. 図26は、Vx(x,y)及び/又はVy(x,y)をどのように導出するかの一例を示している。図中、各ブロックが基本ブロック(例えば4×4ブロック)を表す。現在ブロックが太線でマークされている;
(i)例えば、上境界又は左境界にないものである陰影付きの基本ブロック内の予測サンプルは、オプティカルフローで精緻化されない;
(ii)例えば、C00、C10、C20及びC30などの上境界にある基本ブロック内の予測サンプルは、オプティカルフローで精緻化されることになる;
a. 例えば、上境界にある基本ブロック内の予測サンプルについてのMVMixは、隣接する上隣接ブロックに依存して導出されることになる。例えば、C10内の予測サンプルについてのMVMixは、上隣接ブロックT1に依存して導出されることになる;
(iii)例えば、C00、C01、C02及びC03などの左境界にある基本ブロック内の予測サンプルは、オプティカルフローで精緻化されることになる;
a. 例えば、左境界にある基本ブロック内の予測サンプルについてのMVMixは、隣接する左隣接ブロックに依存して導出されることになる。例えば、C01内の予測サンプルについてのMVMixは、左隣接ブロックL1に依存して導出されることになる;
viii. 一例において、MVc及びMVN1...MVNkは同じ参照ピクチャにスケーリングされ得る;
(i)一例において、それらは、MVcが参照する参照ピクチャにスケーリングされる;
ix. 一例において、それがイントラ符号化されない場合にのみ、空間又は時間隣接ブロックNsを用いてMVMixを導出することができる;
x. 一例において、それがIBC符号化されない場合にのみ、空間又は時間隣接ブロックNsを用いてMVMixを導出することができる;
xi. 一例において、MVsがMVcと同じ参照ピクチャを参照する場合にのみ、空間又は時間隣接ブロックNsを用いてMVMixを導出することができる;
d. 一例において、(Vx(x,y),Vy(x,y))はf(MVMix,MVc)に等しいとしてもよく、ここで、fは関数であり、MVcは現在ブロックのMVである;
i. 例えば、(Vx(x,y),Vy(x,y))はMVMix-MVcに等しいとし得る;
ii. 例えば、(Vx(x,y),Vy(x,y))はMVc-MVMixに等しいとし得る;
iii. 例えば、(Vx(x,y),Vy(x,y))はp×MVMix+q×MVcに等しいとすることができ、ここで、p及びqは実数である。p及びqの一部の例は、p=q=0.5、又はp=1、q=-0.5、又はq=1、p=-0.5などである;
(i)あるいは、(Vx(x,y),Vy(x,y))はShift(p×MVMix+q×MVc,n)又はSatShift(p×MVMix+p×MVc,n)に等しいとしてもよく、ここでp,q及びnは整数である。n、p及びqの一部の例は、n=1、p=2、q=-1、又はn=1、p=q=1、又はn=1、p=-1、q=2などである;
e. 一例において、現在ブロックは片予測でインター予測され、MVcは参照ピクチャリスト0を参照し得る;
f. 一例において、現在ブロックは片予測でインター予測され、MVcは参照ピクチャリスト1を参照し得る;
g. 一例において、現在ブロックは双予測でインター予測され、MVcは参照ピクチャリスト0又は参照ピクチャリスト1を参照し得る;
i. 一例において、最終予測がオプティカルフローによって精緻化される。(Vx(x,y),Vy(x,y))は、例えば参照ピクチャリスト0又は参照ピクチャリスト1など、参照ピクチャリストの1つを参照するMVcで導出され得る;
ii. 一例において、参照リスト0からの予測がオプティカルフローによって精緻化される。(Vx(x,y),Vy(x,y))は、参照リスト0を参照するMVcで導出され得る;
iii. 一例において、参照リスト1からの予測がオプティカルフローによって精緻化される。(Vx(x,y),Vy(x,y))は、参照リスト1を参照するMVcで導出され得る;
iv. オプティカルフローによって精緻化された後の参照リスト0からの予測と、独立にオプティカルフローによって精緻化された後の参照リスト1からの予測とを組み合わせて(例えば、平均して、又は加重平均して)、最終予測を得ることができる;
h. 一例において、現在ブロックが双予測でインター予測され、BDOFが適用され、Vx(x,y),Vy(x,y)が、空間又は時間隣接ブロックに応じて修正される;
i. 例えば、BDOFプロセスにて導出される(Vx(x,y),Vy(x,y))が、V’(x,y)=(V’x(x,y),V’y(x,y))と表記され、開示される方法で導出される(Vx(x,y))、Vy(x,y))がV”(x,y)=(V”x(x,y),V”y(x,y))と表記されるとすると、最終的なV(x,y)=(Vx(x,y),Vy(x,y))は、以下のように導出されることができる:
(i)例えば、V(x,y)=V’(x,y)×W’(x,y)+V”(x,y)×W”(x,y)であり、ここで、W’(x,y)及びW”(x,y)は整数又は実数である。例えば、W’(x,y)=0、W”(x,y)=1、又はW’(x,y)=1、W”(x,y)=0、又はW’(x,y)=0.5、W”(x,y)=0.5である;
(ii)例えば、V(x,y)=Shift(V’(x,y)×W’(x,y)+V”(x,y)×W”(x,y),n1)であり、ここで、W’(x,y)及びW”(x,y)は整数である。n1は、例えば1など、非負の整数である;
(iii)例えば、V(x,y)=SatShift(V’(x,y)×W’(x,y)+V”(x,y)×W”(x,y),n1)であり、ここで、W’(x,y)及びW”(x,y)は整数である。n1は、例えば1など、非負の整数である;
ii. 例えば、空間又は時間隣接ブロックに応じてBDOFにて(Vx(x,y),Vy(x,y))を修正するかどうかは、位置(x,y)に依存し得る;
(i)例えば、上境界又は左境界にないものである図26の陰影付きの基本ブロック内の(Vx(x,y),Vy(x,y))は、空間又は時間隣接ブロックに応じて修正されない;
i. Vx(x,y)及び/又はVy(x,y)をクリップされてもよい;
j. あるいは、上述の方法における空間又は時間隣接ブロックが、現在ブロックの非隣接ブロックによって置き換えられてもよい;
k. あるいは、上述の方法における空間又は時間隣接ブロックが、現在サブブロックの非隣接サブブロックによって置き換えられてもよい;
l. あるいは、上述の方法における空間又は時間隣接ブロックが、現在サブブロックをカバーする現在ブロック/現在CTU/現在VPDU/現在領域の非隣接サブブロックによって置き換えられてもよい;
m. あるいは、上述の方法における空間又は時間隣接ブロックが、履歴ベースの動きベクトルにおけるエントリによって置き換えられてもよい。
3. JVET-N0236に開示されているオプティカルフローを用いたアフィン予測上での精緻化におけるVx(x,y)及び/又はVy(x,y)が、以下のように導出されてもよいことが提案される:
a. Vx(x,y)=a×(x-xc)+b×(y-yc)、Vy(x,y)=c×(x-xc)+d×(y-yc)であり、ここで、(x,y)は検討中の位置であり、(xc,yc)は、位置(x,y)をカバーする寸法w×h(例えば4×4又は8×8)の基本ブロックの中心位置であり、a、b、c及びdはアフィンパラメータである;
i. あるいは、Vx(x,y)=Shift(a×(x-xc)+b×(y-yc),n1),Vy(x,y)=Shift(c×(x-xc)+d×(y-yc),n1)であり、ただし、n1は整数である;
ii. あるいは、Vx(x,y)=SatShift(a×(x-xc)+b×(y-yc),n1),Vy(x,y)=SatShift(c×(x-xc)+d×(y-yc),n1)であり、ただし、n1は整数である;
iii. 例えば、位置(x,y)をカバーする基本ブロック(例えば、4×4又は8×8)の左上位置が(x0,y0)であるとすると、(xc,yc)=(x0+(w/2,y0+(h/2))である;
(i)あるいは、(xc,yc)=(x0+(w/2)-1,y0+(h/2)-1)である;
(ii)あるいは、(xc,yc)=(x0+(w/2),y0+(h/2)-1)である;
(iii)あるいは、(xc,yc)=(x0+(w/2)-1,y0+(h/2))である;
iv. 一例において、現在ブロックが4パラメータアフィンモードを適用する場合、c=-b且つd=aである;
v. 一例において、a、b、c及びdは、現在ブロックの幅(W)及び高さ(H)と共に、CPMVから導出されてもよい。例えば、
(i)a、b、c及びdはクリップされてもよい;
(ii)a、b、c及びdはシフトされてもよい;
vi. 一例において、a、b、c及びdは、PCT/CN2018/111176号に開示されるような隣接ブロックのストレージから導出されることができ、その文献をここに援用する;
vii. 一例において、a、b、c及びdは、PCT/CN2019/075867号に開示されるような履歴ベースのストレージから導出されることができ、その文献をここに援用する;
viii. あるいは、Vx(x,y)=-a×(x-xc)-b×(y-yc)、Vy(x,y)=-c×(x-xc)-d×(y-yc)である;
b. 一例において、Vx(x+1,y)=Vx(x,y)+a、且つVy(x+1,y)=Vy(x,y)+cである;
i. あるいは、Vx(x+1,y)=Shift(Vx(x,y)+a,n1)、Vy(x+1,y)=Shift(Vy(x,y)+c,n1)であり、ただし、n1は整数である;
ii. あるいは、Vx(x+1,y)=SatShift(Vx(x,y)+a,n1)、Vy(x+1,y)=SatShift(Vy(x,y)+c,n1)であり、ただし、n1は整数である;
iii. あるいは、Vx(x+1,y)=Vx(x,y)+Shift(a,n1)、Vy(x+1,y)=Vy(x,y)+Shift(c,n1)であり、ただし、n1は整数である;
iv. あるいは、Vx(x+1,y)=Vx(x,y)+SatShift(a,n1)、Vy(x+1,y)=Vy(x,y)+SatShift(c,n1)であり、ただし、n1は整数である;
c. 一例において、Vx(x,y+1)=Vx(x,y)+b、且つVy(x+1,y)=Vy(x,y)+dである;
i. あるいは、Vx(x,y+1)=Shift(Vx(x,y)+b,n1)、Vy(x,y+1)=Shift(Vy(x,y)+d,n1)であり、ただし、n1は整数である;
ii. あるいは、Vx(x,y+1)=SatShift(Vx(x,y)+b,n1)、Vy(x,y+1)=SatShift(Vy(x,y)+d,n1)であり、ただし、n1は整数である;
iii. あるいは、Vx(x,y+1)=Vx(x,y)+Shift(b,n1)、Vy(x,y+1)=Vy(x,y)+Shift(d,n1)であり、ただし、n1は整数である;
iv. あるいは、Vx(x,y+1)=Vx(x,y)+SatShift(b,n1)、Vy(x,y+1)=Vy(x,y)+SatShift(d,n1)であり、ただし、n1は整数である;
d. 一例において、現在ブロックが双予測でアフィン予測される場合、{a,b,c,d}は、参照ピクチャリスト0又は参照ピクチャリスト1を参照し得る;
i. 一例において、最終予測がオプティカルフローによって精緻化される。(Vx(x,y),Vy(x,y))は、例えば参照ピクチャリスト0又は参照ピクチャリスト1など、参照ピクチャリストの1つを参照する{a,b,c,d}で導出され得る;
ii. 一例において、参照リスト0からの予測がオプティカルフローによって精緻化される。(Vx(x,y),Vy(x,y))は、参照リスト0を参照する{a,b,c,d}で導出され得る;
iii. 一例において、参照リスト1からの予測がオプティカルフローによって精緻化される。(Vx(x,y),Vy(x,y))は、参照リスト1を参照する{a,b,c,d}で導出され得る;
iv. オプティカルフローによって精緻化(例えば、参照ピクチャリスト0を参照するa、b、c、及びdを用いて導出された第1の動き変位ベクトル(V0x(x,y),V0y(x、y)で精緻化)された後の参照リスト0からの予測と、独立にオプティカルフローによって精緻化(例えば、参照ピクチャリスト1を参照するa、b、c、及びdを用いて導出された第2の動き変位ベクトル(V1x(x,y),V1y(x、y)で精緻化)された後の参照リスト1からの予測とを組み合わせて(例えば、平均して、又は加重平均して)、最終予測を得ることができる;
e. Vx(x,y)、Vy(x,y)は、MVcとは異なる精度のものであってもよい;
i. 一例において、Vx(x,y)、Vy(x,y)は、1/8ペル精度のものとし得る;
ii. 一例において、Vx(x,y)、Vy(x,y)は、1/16ペル精度のものとし得る;
iii. 一例において、Vx(x,y)、Vy(x,y)は、1/32ペル精度のものとし得る;
iv. 一例において、Vx(x,y)、Vy(x,y)は、1/64ペル精度のものとし得る;
v. 一例において、Vx(x,y)、Vy(x,y)は、1/128ペル精度のものとし得る;
f. Vx(x,y)、Vy(x,y)は、フロートピクセル精度のものであってもよい。
4. オプティカルフローベースの方法において(例えば、JVET-N0236に開示されているオプティカルフローベースを用いたアフィン予測上での精緻化においてのように)G(x,y)と表記される勾配、例えばGx(x,y)又は/及びGy(x,y)が、再構成サンプル値を得るために残差サンプル値と加算されることになる最終予測上で導出されてもよいことが提案される;
i. あるいは、G(x,y)は、最終予測を導出するために使用されることになるものである中間予測上で導出されてもよい;
(i)例えば、G(x,y)は、現在ブロックが双予測でインター予測される場合に、1つの参照ピクチャリストからの予測上で導出され得る;
(ii)例えば、G(x,y)は、現在ブロックがアフィンモードと局所照明補償(LIC)との両方を使用するときに、LICが適用される前のインター予測上で導出され得る;
(iii)例えば、G(x,y)は、現在ブロックがアフィンモードと重み付け予測又は一般化双予測(GBi)又はCUレベル重み付け双予測(Bi-prediction with CU-level Weights;BCW)との両方を使用する場合に、重み係数が乗算される前のインター予測上で導出され得る;
(iv)例えば、G(x,y)は、現在ブロックがアフィンモードと局所照明補償(LIC)との両方を使用するときに、LICが適用されたインター予測上で導出されてもよい;
(v)例えば、G(x,y)は、現在ブロックがアフィンモードと重み付け予測又は一般化双予測(GBi)又はCUレベル重み付け双予測(Bi-prediction with CU-level Weights;BCW)との両方を使用する場合に、重み係数が乗算されたインター予測上で導出されてもよい。
5. アフィン符号化ブロック内の位置(x,y)における再構成サンプルRec(x,y)を、Rec’(x,y)=Rec(x,y)+Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y)として精緻化できることが提案される。Rec’(x,y)は、再構成されたRec(x,y)を置き換えるために使用されることになる。(Gx(x,y),Gy(x,y))は、それぞれ例えば水平方向及び垂直方向に沿ったものなどの、位置(x,y)における勾配を表す。(Vx(x,y),Vy(x,y))は、JVET-N0236で提案されている方法又は本文書で開示される方法で導出され得る;
a. 一例において、(Gx(x,y),Gy(x,y))は、再構成サンプル上で導出される;
b. 一例において、Vx(x,y)及びVy(x,y)は、2×2ブロックレベルで導出され得る。
6. V(x,y)、すなわち、Vx(x,y)及びVy(x,y)は、サブブロックレベルで導出されることができ、オプティカルフローベースの精緻化がサブブロックレベルで実行され得る;
a. 一例において、Vx(x,y)及びVy(x,y)は、2×2ブロックレベルで導出され得る;
b. 一例において、Vx(x,y)及びVy(x,y)は、4×1ブロックレベルで導出され得る。
7. Vx(x,y)又はVy(x,y)のみがPROFにおいて使用され得る;
a. 一例において、Vx(x,y)がPROFにおいて使用され、Vy(x,y)はゼロであると仮定され得る;
b. 一例において、Vy(x,y)がPROFにおいて使用され、Vx(x,y)はゼロであると仮定され得る;
c.一例において、RPOFにおいてVx(x,y)が使用されるのか、それともVy(x,y)が使用されるのかは、アフィンパラメータに依存し得る;
i. 例えば、Vx(x,y)の絶対値の和がVy(x,y)の絶対値の和以上である場合、Vx(x,y)がPROFにおいて使用され、Vy(x,y)はゼロであると仮定され得る;
ii. 例えば、Vx(x,y)の絶対値の和がVy(x,y)の絶対値の和以下である場合、Vy(x,y)がPROFにおいて使用され、Vx(x,y)はゼロであると仮定され得る;
iii. 例えば、絶対水平勾配の和が絶対垂直勾配の和以上である場合、Vx(x,y)がPROFにおいて使用され、Vy(x,y)はゼロであると仮定され得る;
iv. 例えば、絶対水平勾配の和が絶対垂直勾配の和以下である場合、Vy(x,y)がPROFにおいて使用され、Vx(x,y)はゼロであると仮定され得る。
8. アフィンモードにおいて導出される動きベクトルは1/Nペル精度のものとすることができ、Vx(x,y)、Vy(x,y)は1/Mペル精度のものとすることができ、ただし、N及びMは正の整数である;
a. 一例において、Nは8に等しく、Mは16に等しい;
b. 一例において、Nは8に等しく、Mは32に等しい;
c. 一例において、Nは8に等しく、Mは64に等しい;
d. 一例において、Nは8に等しく、Mは128に等しい;
e. 一例において、Nは4に等しく、Mは8に等しい;
f. 一例において、Nは4に等しく、Mは16に等しい;
g. 一例において、Nは4に等しく、Mは32に等しい;
h. 一例において、Nは4に等しく、Mは64に等しい;
i. 一例において、Nは4に等しく、Mは128に等しい。
9. TMVP又は/及びSbTMVPにおいて、各ブロック又は/及び各サブブロックに対して、異なる精度の二組のMV(それぞれMV1及びMV2と表記される)が導出され得る;
a. 一例において、MV1は1/Nペル精度のものとすることができ、MV2は1/Mペル精度のもの1/N-pel精度のものとすることができ、ただし、N及びMは正の整数である;
b. 箇条書き8に記載したN及びMが採用され得る;
c. 一例において、Nは16に等しく、Mは32に等しい;
d. 一例において、Nは16に等しく、Mは64に等しい;
e. 一例において、Nは16に等しく、Mは128に等しい;
f. 各ブロック又は/及び各サブブロックでMV1をMVcとし且つMV2-MV1をV(x,y)として、オプティカルフローベースの精緻化が適用され得る。
10. 1/Mペル精度の動きベクトルMvに対し、それが、動き補償に使用される前に1/Nペル精度に丸められ(MvRと表記される)に丸められ、そして、Mvと丸めMVであるMvRとの間のデルタMVを用いてPROFを実行して、最終予測サンプルを生成し得る;
a. 一例において、Mは16であり、Nは1である;
b. 一例において、Mは8であり、Nは1である;
c. 一例において、Mは4であり、Nは1である;
d. 一例において、Mは16であり、Nは2である;
e. 一例において、Mは8であり、Nは2である;
f. 一例において、Mは4であり、Nは2である;
g. 一例において、Mvは、水平方向のみ又は垂直方向のみで1/Nペル精度に丸められてもよく、それに対応してPROFが水平方向又は垂直方向で実行され得る;
h. 一例において、双予測ブロックに対して、この方法は、X=0,1として、予測方向Xでのみ動きベクトルに適用され得る;
i. 一例において、双予測ブロックに対して、この方法は、両方の方向で動きベクトルに適用され得る;
j. 一例において、K1個の部分MV成分(すなわち、1つのMV成分が1つの水平又は垂直MVに対応する)が存在すると仮定して、この方法は、K1>=0、K2>=0、K2<=K1として、K2個の部分MV成分に適用され得る。
11. PCT/CN2019/072060号又はPCT/CN2018/109425号で提案される(BDOFに加えて)動きベクトル精緻化方法にて導出される動きベクトルは、1/N MVの精度のものとし得る。一実施形態例において、映像処理の方法は、現在映像ブロックに対してマルチステップデコーダ側動きベクトル精緻化処理を用いて、最終動きベクトルを決定し、該最終動きベクトルを用いて、現在ブロックとビットストリーム表現との間での変換を実行することを有する。一部の実施形態において、現在マクロブロックに対するマルチステップデコーダ側動きベクトル精緻化プロセスは、マルチステップ精緻化プロセスのi番目のステップにおける精緻化値に対して実行され、ここで、iは整数である。一部の実施形態において、マルチステップ精緻化プロセスは、i番目のステップの精緻化値を生成するために(i-1)番目のステップの精緻化値を使用することを含み、ここで、i=1乃至Nであり、Nは、マルチステップ精緻化プロセスにおいて実行される精緻化ステップの総数であり、Nは1より大きい;
a. 一例において、Nは32に等しい;
b. 一例において、Nは64に等しい;
c. 一例において、Nは128に等しい;
c. 精緻化されたMVを用いて動き補償を実行するとき、箇条書き10に記載した方法が適用され得る;
i. 一例において、精緻化されたMVは1/32ペル精度であり、それが先ず、動き補償に使用される前に1/16ペル精度に丸められ、そして、精緻化されたMVと丸められたMVとの間のデルタMVを用いてPROFを実行して最終予測サンプルを生成する;
ii. 一例において、精緻化されたMVは1/32ペル精度であり、それが先ず、動き補償に使用される前に1ペル精度に丸められ、そして、精緻化されたMVと丸められたMVとの間のデルタMVを用いてPROFを実行して最終予測サンプルを生成する;
iii. 一例において、精緻化されたMVは1/64ペル精度であり、それが先ず、動き補償に使用される前に1/16ペル精度に丸められ、そして、精緻化されたMVと丸められたMVとの間のデルタMVを用いてPROFを実行して最終予測サンプルを生成する;
iv. 一例において、精緻化されたMVは1/64ペル精度であり、それが先ず、動き補償に使用される前に1ペル精度に丸められ、そして、精緻化されたMVと丸められたMVとの間のデルタMVを用いてPROFを実行して最終予測サンプルを生成する。
12. JVET-N0236に記載される方法を含め、上の方法がある特定のタイプのブロックに適用され得ることが提案される;
a. 一例において、当該方法は8×4ブロック又はサブブロックにのみ適用される;
b. 一例において、当該方法は4×8ブロック又はサブブロックにのみ適用される;
c. 一例において、当該方法は4×4片予測ブロック又はサブブロックにのみ適用される;
d. 一例において、当該方法は8×4、4×8及び4×4片予測ブロック又はサブブロックにのみ適用される;
e. 一例において、当該方法は、4×4双予測ブロック又はサブブロック以外の取り得る全てのブロックに適用される;
f. 一例において、当該方法はルマブロックにのみ適用される;
g. 一例において、当該方法を適用するかどうかは、以下に依存し得る:
i. 色成分;
ii. ブロックサイズ;
iii. カラーフォーマット;
iv. ブロック位置;
v. 動きタイプ;
vi. 動きベクトルの大きさ;
vii. 符号化モード;
viii. ピクセル勾配の大きさ;
ix. 変換タイプ;
x. BIOが適用されるか;
ix. 双方向予測が適用されるか;
xii. DMVRが適用されるか;
13. PROFは、PCT/CN2019/071507号に記載されるインタウィーブ予測に適用されることができ、その文献をここに援用する。インタウィーブ予測では、所与のブロックの2つの異なるサブブロックパーティションから中間予測値が生成され、それら2つの異なるサブブロックパーティションは、少なくとも、1つのパーティション内のサブブロックの一部又は全てが、もう1つのパーティションでの一部又は全てのサブブロックとは異なるサイズを持つようにされる;
a. 一例において、アフィンモードで符号化されるブロックは、K通りのパターンでサブブロックに分割され得る。K=2の場合の例を図29に示す。最初のパターンにて、動き補償が実行され、各サブブロックの予測サンプル(P(x,y)と表記される)が生成される。第L(1<L<=K)パターンでは、動き補償は実行されず、代わりに、最初のパターンの予測サンプルと、最初のパターンで導出されたMV(MV1(x,y)と表記される)と第Lパターンで導出されたMV(MVL(x,y)と表記される)との間のMV差とに基づいて、PROFを用いて、各サンプルについてオフセット(OL(x,y)と表記される)が導出される。P(x,y)とOL(x,y)との関数として最終予測サンプルが生成される;
i. 一例において、Kは2に等しい;
(i)一例において、最終予測サンプルは:P(x,y)+((O1(x,y)+1)>>1)として生成され得る;
(ii)一例において、最終予測サンプルは、P(x,y)+(O1(x,y)>>>1)として生成され得る;
i. 一例において、最終予測サンプルは、P(x,y)+(O1(x,y)+...+OK(x,y)+K/2)/Kとして生成され得る;
iii. 一例において、最終予測サンプルは、P(x,y)+(O1(x,y)+...+OK(x,y))/Kとして生成され得る;
b. 一例において、OL(x,y)は、中間P(x,y)を用いて導出され得る;
i. 例えば、OL(x, y)は、水平及び垂直補間後であるがそれを入力サンプルと同じビット深度に変換する前に生成される中間P(x,y)を用いて導出され得る;
c. 一例において、OL(x,y)は、各予測方向に対して導出され得る;
d. 一例において、VL(x,y)、すなわち、第LパターンにおけるV(x,y)は、MVL(x,y)-MV1(x,y)として導出され得る;
e. 一例において、MV1(x,y)は1/NペルMV精度のものとすることができ、MVL(x,y)は1/MLペルMV精度のものとすることができる;
i. 一例において、Nは16に等しく、MLは32に等しい;
ii. 一例において、Nは16に等しく、MLは64に等しい;
iii. 一例において、Nは16に等しく、MLは128に等しい;
iv. 一例において、Nは8に等しく、MLは16に等しい;
v. 一例において、Nは8に等しく、MLは32に等しい;
vi. 一例において、Nは8に等しく、MLは64に等しい;
vii. 一例において、Nは8に等しく、MLは128に等しい;
viii. 一例において、Nは4に等しく、MLは8に等しい;
ix. 一例において、Nは4に等しく、MLは16に等しい;
x. 一例において、Nは4に等しく、MLは32に等しい;
xi. 一例において、Nは4に等しく、MLは64に等しい;
xii. 一例において、Nは4に等しく、MLは128に等しい;
xiii. MLは異なるLに対して異なってもよい
14. オプティカルフローベースの予測精緻化方法(略してPROF)は、インタウィーブ予測と組み合わされることができる;
a. 一例において、先ず、中間予測ブロックを生成するために、インタウィーブ予測を適用することができ、そして、PROFを更に適用して、それらの中間予測ブロックを精緻化することができる。精緻化された中間予測ブロックに従って最終予測ブロックを導出することができる;
b. 一例において、アフィンモードで符号化されるブロックは、K通りのパターンでサブブロックに分割され得る。各パターンについて、動き補償が実行され、各サブブロックの予測サンプルが生成され得る。次いで、各パターンに対してPROFが実行され、パターンの予測が更新され得る。最後に、各パターンの予測サンプルが融合されて(例えば、PCT/CN2018/089242号、PCT/CN2018/103770号、PCT/CN2018/104984号、PCT/CN2019/070058号、PCT/CN2019/071507号、PCT/CN2019/071576号のうちのいずれか1つ以上に記載されているように)、ブロックの最終予測が作成される。一実施形態例において、映像システムにおいてブロックベースの動き予測を改善する方法は:映像フレームからピクセルのセットを選択してブロックを形成し;第1パターンに従ってブロックを第1セットのサブブロックに分割し;第1セットのサブブロックに基づいて第1中間予測ブロックを生成し;第2パターンに従ってブロックを第2セットのサブブロックに分割し、第2セット内の少なくとも1つのサブブロックは、第1セット内のサブブロックとは異なるサイズを有し;第2セットのサブブロックに基づいて第2中間予測ブロックを生成し;そして、第1中間予測ブロック及び第2中間予測ブロックに基づいて予測ブロックを決定することを有する。一部の実施形態において、予測ブロックを決定することは、予測サンプルのうちの第1サブセットが第1中間予測ブロックの重み付けた組み合わせとして計算され、予測サンプルのうちの第2サブセットがサブブロックベースの予測からコピーされ、第1サブセット及び第2サブセットが分割パターンに基づく、という部分予測を用いることを含む;
c. 一例において、片予測の場合、PROF及びインタウィーブ予測が1つのブロックに適用され得る;
d. 一例において、双方向予測の場合、インタウィーブ予測が無効にされ得る一方で、PROFが有効にされ得る;
e. 一例において、PROF及びインタウィーブ予測の両方が1つのブロックに適用される場合(コムモード(comb-mode)と呼ぶ)、コムモードで符号化されない他のブロックを符号化するのに使用される補間フィルタとは異なるとし得る例えば6タップ又はバイリニア補間フィルタなどの、より短いタップフィルタが利用され得る;
f. 一例において、PROF及びインタウィーブ予測の両方が1つのブロックに適用される場合(コムモード(comb-mode)と呼ぶ)、アフィンサブブロックサイズは、8×4若しくは4×8又はその他に設定され得る。あるいは、さらに、コムモードに使用されるサブブロックサイズは、コムモードで符号化されない他のアフィン符号化ブロックを符号化するのに使用されるものとは異なり得る;
g. PROF及びインタウィーブ予測を適用すべきか、及び/又はどのように適用するかは、例えば予測方向、参照ピクチャ情報、色成分などの符号化された情報に従って決定され得る。
15. PROFはイントラ予測に適用されてもよい;
a. 一例において、アンギュラ予測にて、サブピクセル位置参照サンプルがPROFによって生成される。ここでは、隣接再構成サンプルが予測サンプルとみなされ、サブピクセル位置と整数ペル位置との間の差がV(x,y)とみなされる;
i. 一例において、上ライン又は/及び右上ラインのサブピクセル位置に対して、Vy(x,y)は常にゼロとし得る;
ii. 一例において、左ライン又は/及び左下ラインのサブピクセル位置に対して、Vy(x,y)は常にゼロとし得る;
iii. 一例において、サブピクセル位置は1/Nペル精度のものとし得る;
(i)例えば、Nは32に等しいとし得る;
(ii)例えば、Nは64に等しいとし得る;
(iii)例えば、Nは128に等しいとし得る;
iv. 一例において、サブピクセル位置はフロート精度のものとし得る。
16. 一例において、PROFとインタウィーブ予測とが組み合わされて適用され得る;
a. 例えば、先ずPROFが適用され、次いでインタウィーブ予測が適用される;
i. 先ず、2つの異なる分割パターンでの予測がPROFによって処理され、次いで、それらが重み付けて足し合わされて、最終予測(又は別の予測プロセスの前の中間予測)が得られる;
b. 例えば、先ずインタウィーブ予測が適用され、次いでPROFが適用される;
i. 2つの異なる分割パターンでの予測が重み付けて足し合わされて、中間予測が得られ、次いで、該中間予測にPROFが適用されて、最終予測(又は別の予測プロセスの前の中間予測)が得られる。
17. 一例において、PAMCとインタウィーブ予測とが組み合わされて適用され得る;
a. 例えば、先ずPAMCが適用され、次いでインタウィーブ予測が適用される;
i. 2つの異なる分割パターンでの予測がPAMCの補間方法で生成されることができ、次いで、それらが重み付けて足し合わされて、最終予測(又は別の予測プロセスの前の中間予測)が得られる;
b. 例えば、先ずインタウィーブ予測が適用され、次いでPAMCが適用される。
18. 一例において、PROFとPAMCとが組み合わされて適用され得る;
a. 例えば、先ずPAMCが適用され、次いでPROFが適用される;
i. PAMCの補間方法で予測が生成され、次いで、それらがPROFによって処理されて、最終予測(又は別の予測プロセスの前の中間予測)が得られ得る;
b. 例えば、先ずPROFが適用され、次いでPAMCが適用される。
方法2800B及び/又は2800Cに関する一部の実施形態において、前記予測サンプルP(x,y)は、以下のうちのいずれか1つを満たす:多重仮説インター予測技術の結果;アフィン予測技術の結果;イントラ予測技術の結果;イントラブロックコピー(IBC)予測技術の結果;三角予測モード(TPM)技術によって生成される;ジオグラフィック予測モード(GPM)技術によって生成される;インター-イントラ結合予測技術の結果;グローバルインター予測技術の結果であり、グローバルインター予測技術は、同じ動きモデル及びパラメータを共有する領域を含む;パレット符号化モードの結果;マルチビュー又は3Dビデオコーディングにおけるインタービュー予測の結果;スケーラブルビデオコーディングにおける層間予測の結果;精緻化予測サンプルP’(x,y)を決定する前のフィルタリング演算の結果。
n1は整数である。方法2800Dに関する一部の実施形態において、Vx(x,y)=SatShift(a×(x-xc)+b×(y-yc),n1)であり、Vy(x,y)=SatShift(c×(x-xc)+d×(y-yc),n1)であり、(xc,yc)は映像ブロックの基本映像ブロックの中心位置であり、a、b、c及びdはアフィンパラメータであり、基本映像ブロックは寸法w×hを持ち、基本映像ブロックの位置は位置(x,y)を含み、SatShift()関数は、飽和バイナリシフト演算を指し、且つn1は整数である。
方法2800Uに関する一部の実施形態において、先ず、PAMC技術が実行され、次いで、オプティカルフローベースの予測精緻化技術が実行される。方法2800Uに関する一部の実施形態において、先ず、PAMC技術の補間法を用いて、2つの異なるサブブロック分割パターンを有する精緻化中間予測サンプルが取得され、そして、精緻化中間予測サンプルが、オプティカルフローベースの予測精緻化技術を用いて処置されて、最終予測サンプルが取得される。方法2800Uに関する一部の実施形態において、先ず、オプティカルフローベースの予測精緻化技術が実行され、次いで、PAMC技術が実行される。
・ 多重仮説インター予測(3つ以上のMVを用いるインター予測)の結果、
・ アフィン予測の結果、
・ イントラ予測の結果、
・ イントラブロックコピー(IBC)予測の結果、
・ 三角予測モード(TPM)によって生成される、
・ インター-イントラ結合予測の結果、
・ 領域が同じ動きモデル及びパラメータを共有するものであるグローバルインター予測の結果、
・ パレット符号化モードの結果、
・ マルチビュー又は3Dビデオコーディングにおけるインタービュー予測の結果、
・ スケーラブルビデオコーディングにおける層間予測の結果、
・ フィルタリング演算の結果。
Claims (128)
- 映像処理の方法であって、
x及びyは分数であるとして、オプティカルフローに基づく方法を用いて符号化される映像ブロック内の位置(x,y)における第1の動き変位Vx(x,y)及び前記位置(x,y)における第2の動き変位Vy(x,y)を決定するステップであり、
Vx(x,y)及びVy(x,y)は、少なくとも前記位置(x,y)と前記映像ブロックの基本映像ブロックの中心位置とに基づいて決定される、
ステップと、
前記第1の動き変位及び前記第2の動き変位を用いて、前記映像ブロックと現在映像ブロックのビットストリーム表現との間での変換を実行するステップと、
を有する方法。 - Vx(x,y)=a×(x-xc)+b×(y-yc)であり、
Vy(x,y)=c×(x-xc)+d×(y-yc)であり、
(xc,yc)は前記映像ブロックの前記基本映像ブロックの前記中心位置であり、
a、b、c及びdはアフィンパラメータであり、
前記基本映像ブロックは寸法w×hを持ち、且つ
前記基本映像ブロックの位置は前記位置(x,y)を含む、
請求項1に記載の方法。 - Vx(x,y)=Shift(a×(x-xc)+b×(y-yc),n1)であり、
Vy(x,y)=Shift(c×(x-xc)+d×(y-yc),n1)であり、
(xc,yc)は前記映像ブロックの前記基本映像ブロックの前記中心位置であり、
a、b、c及びdはアフィンパラメータであり、
前記基本映像ブロックは寸法w×hを持ち、
前記基本映像ブロックの位置は前記位置(x,y)を含み、
Shift()関数は、バイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x,y)=SatShift(a×(x-xc)+b×(y-yc),n1)であり、
Vy(x,y)=SatShift(c×(x-xc)+d×(y-yc),n1)であり、
(xc,yc)は前記映像ブロックの前記基本映像ブロックの前記中心位置であり、
a、b、c及びdはアフィンパラメータであり、
前記基本映像ブロックは寸法w×hを持ち、
前記基本映像ブロックの位置は前記位置(x,y)を含み、
SatShift()関数は、飽和バイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x,y)=-a×(x-xc)-b×(y-yc)であり、
Vy(x,y)=-c×(x-xc)-d×(y-yc)であり、
(xc,yc)は前記映像ブロックの前記基本映像ブロックの前記中心位置であり、
a、b、c及びdはアフィンパラメータであり、
前記基本映像ブロックは寸法w×hを持ち、且つ
前記基本映像ブロックの位置は前記位置(x,y)を含む、
請求項1に記載の方法。 - (xc,yc)=(x0+(w/2),y0+(h/2))であり、前記基本映像ブロックの左上の位置が(x0,y0)である、請求項2乃至5のいずれかに記載の方法。
- (xc,yc)=(x0+(w/2)-1,y0+(h/2)-1)であり、前記基本映像ブロックの左上の位置が(x0,y0)である、請求項2乃至5のいずれかに記載の方法。
- (xc、yc)=(x0+(w/2),y0+(h/2)-1)であり、前記基本映像ブロックの左上の位置が(x0,y0)である、請求項2乃至5のいずれかに記載の方法。
- (xc,yc)=(x0+(w/2)-1,y0+(h/2))であり、前記基本映像ブロックの左上の位置が(x0,y0)である、請求項2乃至5のいずれかに記載の方法。
- 前記映像ブロックが4パラメータアフィンモードを用いて符号化されることに応答して、c=-b且つd=aである、請求項2乃至9のいずれかに記載の方法。
- a、b、c及びdは、制御点動きベクトル(CPMV)、前記映像ブロックの幅(W)、及び前記映像ブロックの高さ(H)から導出され得る、請求項2乃至9のいずれかに記載の方法。
- a、b、c及びdはクリップされる、請求項11に記載の方法。
- a、b、c及びdはシフトされる、請求項11に記載の方法。
- a、b、c及びdは、前記映像ブロックの隣接映像ブロックに関する記憶情報から取得され得る、請求項2乃至9のいずれかに記載の方法。
- a、b、c及びdは、履歴ベースの記憶情報から取得され得る、請求項2乃至9のいずれかに記載の方法。
- Vx(x+1,y)=Vx(x,y)+aであり、且つVy(x+1,y)=Vy(x,y)+cである、請求項1に記載の方法。
- Vx(x+1,y)=Shift(Vx(x,y)+a,n1)であり、
Vy(x+1,y)=Shift(Vy(x,y)+c,n1)であり、
Shift()関数はバイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x+1,y)=SatShift(Vx(x,y)+a,n1)であり、
Vy(x+1,y)=SatShift(Vy(x,y)+c,n1)であり、
SatShift()関数は飽和バイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x+1,y)=Vx(x,y)+Shift(a,n1)であり、
Vy(x+1,y)=Vy(x,y)+Shift(c,n1)であり、
Shift()関数はバイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x+1,y)=Vx(x,y)+SatShift(a,n1)であり、
Vy(x+1,y)=Vy(x,y)+SatShift(c,n1)であり、
SatShift()関数は飽和バイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x,y+1)=Vx(x,y)+bであり、且つVy(x+1,y)=Vy(x,y)+dである、請求項1に記載の方法。
- Vx(x,y+1)=Shift(Vx(x,y)+b,n1)であり、
Vy(x,y+1)=Shift(Vy(x,y)+d,n1)であり、
Shift()関数はバイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x,y+1)=SatShift(Vx(x,y)+b,n1)であり、
Vy(x,y+1)=SatShift(Vy(x,y)+d,n1)であり、
SatShift()関数は飽和バイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x,y+1)=Vx(x,y)+Shift(b,n1)であり、
Vy(x,y+1)=Vy(x,y)+Shift(d,n1)であり、
Shift()関数はバイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - Vx(x,y+1)=Vx(x,y)+SatShift(b,n1)であり、
Vy(x,y+1)=Vy(x,y)+SatShift(d,n1)であり、
SatShift()関数は飽和バイナリシフト演算を指し、且つ
n1は整数である、
請求項1に記載の方法。 - 前記映像ブロックが、双予測技術を用いてアフィン予測されることに応答して、a、b、c、及びdは、参照ピクチャリスト0又は参照ピクチャリスト1を参照する、請求項2乃至26のいずれかに記載の方法。
- 最終予測サンプルが、前記第1の動き変位Vx(x,y)及び前記第2の動き変位Vy(x,y)で精緻化され、且つ
前記第1の動き変位Vx(x,y)及び前記第2の動き変位Vy(x,y)は、参照ピクチャリスト0及び参照ピクチャリスト1のうちのいずれか一方を参照するa、b、c、及びdを用いて導出される、
請求項2乃至26のいずれかに記載の方法。 - 前記第1の動き変位Vx(x,y)及び前記第2の動き変位Vy(x,y)に関する予測サンプルは、参照ピクチャリスト0からであり、且つ精緻化され、且つ
前記第1の動き変位Vx(x,y)及び前記第2の動き変位Vy(x,y)は、前記参照ピクチャリスト0を参照するa、b、c、及びdを用いて導出される、
請求項2乃至26のいずれかに記載の方法。 - 前記第1の動き変位Vx(x,y)及び前記第2の動き変位Vy(x,y)に関する予測サンプルは、参照ピクチャリスト1からであり、且つ精緻化され、且つ
前記第1の動き変位Vx(x,y)及び前記第2の動き変位Vy(x,y)は、前記参照ピクチャリスト1を参照するa、b、c、及びdを用いて導出される、
請求項2乃至26のいずれかに記載の方法。 - 参照ピクチャリスト0からの第1の予測サンプルが、前記参照ピクチャリスト0を参照するa、b、c、及びdを用いて導出された第1の動き変位ベクトル(V0x(x,y),V0y(x,y))で精緻化され、
参照ピクチャリスト1からの第2の予測サンプルが、前記参照ピクチャリスト1を参照するa、b、c、及びdを用いて導出された第2の動き変位ベクトル(V1x(x,y),V1y(x,y))で精緻化され、且つ
前記第1の予測サンプルと前記第2の予測サンプルとを組み合わせることによって最終予測サンプルが取得される、
請求項2乃至26のいずれかに記載の方法。 - 動き変位ベクトル(Vx(x,y),Vy(x,y))は、前記映像ブロックの動きベクトルの第2動きベクトル精度とは異なる第1動きベクトル精度を持つ、請求項1に記載の方法。
- 前記第1動きベクトル精度は1/8ピクセル精度である、請求項32に記載の方法。
- 前記第1動きベクトル精度は1/16ピクセル精度である、請求項32に記載の方法。
- 前記第1動きベクトル精度は1/32ピクセル精度である、請求項32に記載の方法。
- 前記第1動きベクトル精度は1/64ピクセル精度である、請求項32に記載の方法。
- 前記第1動きベクトル精度は1/128ピクセル精度である、請求項32に記載の方法。
- 動き変位ベクトル(Vx(x,y),Vy(x,y))は、フロートピクセル精度技術に基づいて決定される、請求項1に記載の方法。
- 映像処理の方法であって、
映像ブロック内の位置(x,y)で推定された、第1方向における第1の勾配成分Gx(x,y)と、前記映像ブロック内の前記位置(x,y)で推定された、第2方向における第2の勾配成分Gy(x,y)とを決定するステップであり、
前記第1の勾配成分及び前記第2の勾配成分は、前記位置(x,y)における予測サンプルP(x,y)の最終予測サンプル値に基づくものであり、且つ
前記x及びyは整数である、
ステップと、
前記勾配Gx(x,y)、Gy(x,y)を用いて精緻化されたものである予測サンプルP(x,y)の前記最終予測サンプル値に残差サンプル値Res(x,y)を加えたものに基づいて得られた、前記位置(x,y)における再構成サンプル値Rec(x,y)を用いて、前記映像ブロックと現在映像ブロックのビットストリーム表現との間での変換を実行するステップと、
を有する方法。 - 映像処理の方法であって、
映像ブロック内の位置(x,y)で推定された、第1方向における第1の勾配成分Gx(x,y)と、前記映像ブロック内の前記位置(x,y)で推定された、第2方向における第2の勾配成分Gy(x,y)とを決定するステップであり、
前記第1の勾配成分及び前記第2の勾配成分は、前記位置(x,y)における予測サンプルP(x,y)の最終予測サンプル値に基づくものであり、且つ
前記x及びyは整数である、
ステップと、
前記位置(x,y)における再構成サンプル値Rec(x,y)に基づく残差サンプル値Res(x,y)を含むよう、前記映像ブロックのビットストリーム表現を符号化するステップであり、
前記再構成サンプル値Rec(x,y)は、前記勾配Gx(x,y)、Gy(x,y)を用いて精緻化されたものである予測サンプルP(x,y)の前記最終予測サンプル値に前記残差サンプル値Res(x,y)を加えたものに基づく、
ステップと、
を有する方法。 - 映像処理の方法であって、
映像ブロック内の位置(x,y)で推定された、第1方向における第1の勾配成分Gx(x,y)と、前記映像ブロック内の前記位置(x,y)で推定された、第2方向における第2の勾配成分Gy(x,y)とを決定するステップであり、
前記第1の勾配成分及び前記第2の勾配成分は、前記位置(x,y)における予測サンプルP(x,y)の中間予測サンプル値に基づくものであり、
前記予測サンプルP(x,y)の最終予測サンプル値は前記中間予測サンプル値に基づき、且つ
前記x及びyは整数である、
ステップと、
予測サンプルP(x,y)の前記最終予測サンプル値と残差サンプル値Res(x,y)とに基づいて得られた、前記位置(x,y)における再構成サンプル値Rec(x,y)を用いて、前記映像ブロックと現在映像ブロックのビットストリーム表現との間での変換を実行するステップと、
を有する方法。 - 映像処理の方法であって、
映像ブロック内の位置(x,y)で推定された、第1方向における第1の勾配成分Gx(x,y)と、前記映像ブロック内の前記位置(x,y)で推定された、第2方向における第2の勾配成分Gy(x,y)とを決定するステップであり、
前記第1の勾配成分及び前記第2の勾配成分は、前記位置(x,y)における予測サンプルP(x,y)の中間予測サンプル値に基づくものであり、
前記予測サンプルP(x,y)の最終予測サンプル値は前記中間予測サンプル値に基づき、且つ
前記x及びyは整数である、
ステップと、
前記位置(x,y)における再構成サンプル値Rec(x,y)に基づく残差サンプル値Res(x,y)を含むよう、前記映像ブロックのビットストリーム表現を符号化するステップであり、
前記再構成サンプル値Rec(x,y)は、予測サンプルP(x,y)の前記最終予測サンプル値と前記残差サンプル値Res(x,y)とに基づく、
ステップと、
を有する方法。 - 前記映像ブロックが、双予測技術を用いてアフィン予測されることに応答して、前記第1の勾配成分及び/又は前記第2の勾配成分は、1つの参照ピクチャリストからの前記中間予測サンプル値に基づく、請求項41又は42のいずれかに記載の方法。
- 前記映像ブロックがアフィンモード及び局所照明補償(LIC)を使用するとき、前記第1の勾配成分及び/又は前記第2の勾配成分は、前記LICが適用される前のインター予測サンプル値に基づく、請求項41又は42のいずれかに記載の方法。
- 前記映像ブロックが、重み付け予測技術又はCUレベル重み付け双予測(BCW)技術のうちいずれか一方を用いたアフィンモードを使用するとき、前記第1の勾配成分及び/又は前記第2の勾配成分は、重み係数を乗じられる前のインター予測サンプル値に基づく、請求項41又は42のいずれかに記載の方法。
- 前記映像ブロックがアフィンモード及び局所照明補償(LIC)を使用するとき、前記第1の勾配成分及び/又は前記第2の勾配成分は、前記LICが適用されたインター予測サンプル値に基づく、請求項41又は42のいずれかに記載の方法。
- 前記映像ブロックが、重み付け予測技術又はCUレベル重み付け双予測(BCW)技術のうちいずれか一方を用いたアフィンモードを使用するとき、前記第1の勾配成分及び/又は前記第2の勾配成分は、重み係数を乗じられたインター予測サンプル値に基づく、請求項41又は42のいずれかに記載の方法。
- 映像処理の方法であって、
アフィン符号化映像ブロック内の位置(x,y)における精緻化予測サンプルP’(x,y)を、前記位置(x,y)で推定された第1方向における第1の勾配成分Gx(x,y)と、前記位置(x,y)で推定された第2方向における第2の勾配成分Gy(x,y)と、前記位置(x,y)について推定された第1の動き変位Vx(x,y)と、前記位置(x,y)について推定された第2の動き変位Vy(x,y)とで前記位置(x,y)における予測サンプルP(x,y)を修正することによって決定するステップであり、
前記第1方向は前記第2方向に直交し、且つ
x及びyは整数である、
ステップと、
前記精緻化予測サンプルP’(x,y)及び残差サンプル値Res(x,y)に基づいて前記位置(x,y)における再構成サンプル値Rec(x,y)を決定するステップと、
前記アフィン符号化映像ブロック内の前記位置(x,y)における精緻化再構成サンプル値Rec’(x,y)を決定するステップであり、Rec’(x,y)=Rec(x,y)+Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y)である、ステップと、
前記精緻化再構成サンプル値Rec’(x,y)を用いて、前記アフィン符号化映像ブロックと前記アフィン符号化映像ブロックのビットストリーム表現との間での変換を実行するステップと、
を有する方法。 - 映像処理の方法であって、
アフィン符号化映像ブロック内の位置(x,y)における精緻化予測サンプルP’(x,y)を、前記位置(x,y)で推定された第1方向における第1の勾配成分Gx(x,y)と、前記位置(x,y)で推定された第2方向における第2の勾配成分Gy(x,y)と、前記位置(x,y)について推定された第1の動き変位Vx(x,y)と、前記位置(x,y)について推定された第2の動き変位Vy(x,y)とで前記位置(x,y)における予測サンプルP(x,y)を修正することによって決定するステップであり、
前記第1方向は前記第2方向に直交し、且つ
x及びyは整数である、
ステップと、
前記精緻化予測サンプルP’(x,y)及び残差サンプル値Res(x,y)に基づいて前記位置(x,y)における再構成サンプル値Rec(x,y)を決定するステップと、
前記アフィン符号化映像ブロック内の前記位置(x,y)における精緻化再構成サンプル値Rec’(x,y)を決定するステップであり、Rec’(x,y)=Rec(x,y)+Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y)である、ステップと、
前記残差サンプル値Res(x,y)を含むよう、前記アフィン符号化映像ブロックのビットストリーム表現を符号化するステップと、
を有する方法。 - 前記第1の勾配成分Gx(x,y)及び/又は前記第2の勾配成分Gy(x,y)は前記再構成サンプル値Rec(x,y)に基づく、請求項48又は49のいずれかに記載の方法。
- 前記第1の動き変位Vx(x,y)及び前記第2の動き変位Vy(x,y)は、前記アフィン符号化映像ブロックの2×2ブロックレベルで導出される、請求項48又は49のいずれかに記載の方法。
- 映像処理の方法であって、
アフィンモードの映像ブロックについて、1/Nピクセル精度で動きベクトルを決定するステップと、
前記映像ブロック内の位置(x,y)について推定された動き変位ベクトル(Vx(x,y),Vy(x,y))を決定するステップであり、
当該動き変位ベクトルは1/Mピクセル精度で導出され、
N及びMは正の整数であり、且つ
x及びyは整数である、
ステップと、
前記動きベクトル及び前記動き変位ベクトルを用いて、前記映像ブロックと前記映像ブロックのビットストリーム表現との間での変換を実行するステップと、
を有する方法。 - Nは8に等しく且つMは16に等しい、又は
Nは8に等しく且つMは32に等しい、又は
Nは8に等しく且つMは64に等しい、又は
Nは8に等しく且つMは128に等しい、又は
Nは4に等しく且つMは8に等しい、又は
Nは4に等しく且つMは16に等しい、又は
Nは4に等しく且つMは32に等しい、又は
Nは4に等しく且つMは64に等しい、又は
Nは4に等しく且つMは128に等しい、
請求項52に記載の方法。 - 映像処理の方法であって、
映像ブロックについて又は前記映像ブロックのサブブロックについて二組の動きベクトルを決定するステップであり、
前記二組の動きベクトルの各組が異なる動きベクトルピクセル精度を持ち、且つ
前記二組の動きベクトルは、時間動きベクトル予測(TMVP)技術を用いて又はサブブロックベース時間動きベクトル予測(SbTMVP)技術を用いて決定される、
ステップと、
前記二組の動きベクトルに基づいて、前記映像ブロックと前記映像ブロックのビットストリーム表現との間での変換を実行する、ステップと、
を有する方法。 - 前記二組の動きベクトルは、第1組の動きベクトルと第2組の動きベクトルとを含み、
前記第1組の動きベクトルは1/Nピクセル精度を持ち、
前記第2組の動きベクトルは1/Mピクセル精度を持ち、且つ
前記N及びMは正の整数である、
請求項54に記載の方法。 - Nは8に等しく且つMは16に等しい、又は
Nは8に等しく且つMは32に等しい、又は
Nは8に等しく且つMは64に等しい、又は
Nは8に等しく且つMは128に等しい、又は
Nは4に等しく且つMは8に等しい、又は
Nは4に等しく且つMは16に等しい、又は
Nは4に等しく且つMは32に等しい、又は
Nは4に等しく且つMは64に等しい、又は
Nは4に等しく且つMは128に等しい、又は
Nは16に等しく且つMは32に等しい、又は
Nは16に等しく且つMは64に等しい、又は
Nは16に等しく且つMは128に等しい、
請求項55に記載の方法。 - オプティカルフローに基づく方法を適用することによって、前記二組の動きベクトルに精緻化が適用され、
前記二組の動きベクトルは、第1組の動きベクトルと第2組の動きベクトルとを含み、
前記第1組の動きベクトルを用いて、前記オプティカルフローに基づく方法における予測サンプルが取得され、且つ
前記第1組の動きベクトルのうちの第1の動きベクトルから前記第2組の動きベクトルのうちの第2の動きベクトルを差し引くことによって、前記オプティカルフローに基づく方法における、前記映像ブロック内の位置について推定された動き変位が取得される、
請求項54に記載の方法。 - 前記オプティカルフローに基づく方法は、
前記映像ブロック内の位置(x,y)における精緻化予測サンプルP’(x,y)を、前記位置(x,y)で推定された第1方向における第1の勾配成分Gx(x,y)と、前記位置(x,y)で推定された第2方向における第2の勾配成分Gy(x,y)と、前記位置(x,y)について推定された第1の動き変位Vx(x,y)と、前記位置(x,y)について推定された第2の動き変位Vy(x,y)とで前記位置(x,y)における予測サンプルP(x,y)を修正することによって決定する、
ことによって適用され、
x及びyは整数であり、且つ
前記位置(x,y)における再構成サンプル値Rec(x,y)が、前記精緻化予測サンプルP’(x,y)及び残差サンプル値Res(x,y)に基づいて取得される、
請求項57に記載の方法。 - 前記第1方向及び前記第2方向は互いに直交する、請求項58に記載の方法。
- 前記第1の動き変位は、前記第1方向に平行な方向を表し、前記第2の動き変位は、前記第2方向に平行な方向を表す、請求項58に記載の方法。
- P’(x,y)=P(x,y)+Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y)である、請求項58に記載の方法。
- 前記映像ブロックは8×4映像ブロックである、又は前記サブブロックは8×4サブブロックである、請求項1乃至61のいずれかに記載の方法。
- 前記映像ブロックは4×8映像ブロックである、又は前記サブブロックは4×8サブブロックである、請求項1乃至61のいずれかに記載の方法。
- 前記映像ブロックは4×4片予測映像ブロックである、又は前記サブブロックは4×4片予測サブブロックである、請求項1乃至61のいずれかに記載の方法。
- 前記映像ブロックは、8×4、4×8、及び4×4片予測映像ブロックである、又は前記サブブロックは、8×4、4×8、及び4×4片予測サブブロックである、請求項1乃至61のいずれかに記載の方法。
- 前記映像ブロックは4×4双予測映像ブロックを除外する、又は前記サブブロックは4×4双予測サブブロックを除外する、請求項1乃至61のいずれかに記載の方法。
- 前記映像ブロックはルマ映像ブロックである、請求項1乃至61のいずれかに記載の方法。
- 前記決定するステップ及び前記実行するステップは、
前記映像ブロックの色成分、
前記映像ブロックのブロックサイズ、
前記映像ブロックのカラーフォーマット、
前記映像ブロックのブロック位置、
動きタイプ、
動きベクトルの大きさ、
符号化モード、
ピクセル勾配の大きさ、
変換タイプ、
双方向オプティカルフロー(BIO)技術が適用されるかどうか、
双予測技術が適用されるかどうか、及び
デコーダ側動きベクトル精緻化(DMVR)法が適用されるかどうか、
のうちのいずれか1つ以上に基づいて行われる、請求項1乃至-61のいずれかに記載の方法。 - 映像処理の方法であって、
アフィン符号化モードを用いて符号化される映像ブロック上で、Kは1より大きい整数であるとして、K通りのサブブロックパターンを用いて前記映像ブロックを複数のパーティションに分割することによって、インタウィーブ予測技術を実行するステップと、
前記K通りのサブブロックパターンのうちの最初のものを用いて動き補償を行うことによって、前記映像ブロックの予測サンプルを生成するステップであり、位置(x,y)における予測サンプルをP(x,y)と表記し、x及びyは整数である、ステップと、
第Lパターンと表記する前記K通りのサブブロックパターンの残りのうちの少なくとも1つについて、最初のサブブロックパターンで導出された予測サンプルと、前記K通りのサブブロックパターンのうちの前記最初のものを用いて導出された動きベクトルと前記第Lパターンを用いて導出された動きベクトルとの間の差とに基づいて、前記位置(x,y)におけるオフセット値OL(x,y)を決定するステップと、
OL(x,y)及びP(x,y)の関数として前記位置(x,y)についての最終予測サンプルを決定するステップと、
前記最終予測サンプルを用いて、映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップと、
を有する方法。 - K=2であり、L=1であり、前記最終予測サンプルは、P(x,y)+((O1(x,y)+1)>>1)を用いて決定され、ただし、>>はバイナリシフト演算を表す、請求項69に記載の方法。
- K=2であり、L=1であり、前記最終予測サンプルは、P(x,y)+(O1(x,y)>>1)を用いて決定され、ただし、>>はバイナリシフト演算を表す、請求項69に記載の方法。
- 前記最終予測サンプルは、P(x,y)+(O1(x,y)+...+OK(x,y)+K/2)/Kを用いて決定される、請求項69に記載の方法。
- 前記最終予測サンプルは、P(x,y)+(O1(x,y)+...+OK(x,y))/Kを用いて決定される、請求項69に記載の方法。
- 前記OL(x,y)は、水平及び垂直補間を行った後、且つ前記予測サンプルを入力サンプルのビット深度に変換する前に、前記最初のサブブロックパターンで導出された前記予測サンプルから生成される、請求項69乃至73のいずれかに記載の方法。
- 前記OL(x,y)は、各予測方向に対して生成される、請求項69乃至73のいずれかに記載の方法。
- 前記第Lパターンでの前記位置(x,y)における動き変位が、前記第Lパターンからの前記位置(x,y)における第1の動きベクトルと、前記K通りのサブブロックパターンのうちの前記最初のものからの前記位置(x,y)における第2の動きベクトルとの間の差として導出される、請求項69乃至73のいずれかに記載の方法。
- 前記K通りのサブブロックパターンのうちの前記最初のものを用いて導出された前記動きベクトルは、1/Nピクセル精度を持ち、前記第Lパターンを用いて導出された前記動きベクトルは、1/MLピクセル精度を持ち、N及びMは整数である、請求項69乃至76のいずれかに記載の方法。
- N=16且つML=32である、又は
N=16且つML=64である、又は
N=16且つML=128である、又は
N=8且つML=16である、又は
N=8且つML=32である、又は
N=8且つML=64である、又は
N=8且つML=128である、又は
N=4且つML=8である、又は
N=4且つML=16である、又は
N=4且つML=32である、又は
N=4且つML=64である、又は
N=4且つML=128である、
請求項77に記載の方法。 - MLが、前記K通りのサブブロックパターンの前記残りの各々に対して異なる、請求項77に記載の方法。
- 映像処理の方法であって、
最終予測サンプルを用いて、映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップを有し、
前記最終予測サンプルは、精緻化中間予測サンプルから、
(a)ルールに基づいて、インタウィーブ予測技術及びそれに続くオプティカルフローベースの予測精緻化技術を実行すること、又は
(b)動き補償技術を実行すること、
によって導出される、
方法。 - 前記映像ブロックは、K通りのサブブロックパターンを用いて前記映像ブロックを複数のパーティションに分割することによって、アフィン符号化モードを使用して符号化され、
Kは、1より大きい整数であり、
各サブブロックパターンについて、前記動き補償技術を実行することによって、各サブブロックに対して予測サンプルが生成され、
前記予測サンプルが、前記オプティカルフローベースの予測精緻化技術を用いて精緻化されて、更新された予測サンプルが取得され、且つ
各サブブロックパターンの前記精緻化された予測サンプルを組み合わせることによって、前記最終予測サンプルが生成される、
請求項80に記載の方法。 - 前記映像ブロックは片予測映像ブロックであり、前記インタウィーブ予測技術及び前記オプティカルフローベースの予測精緻化技術が前記映像ブロックに適用される、請求項80に記載の方法。
- 前記インタウィーブ予測技術及び/又は前記オプティカルフローベースの予測精緻化技術で符号化される前記映像ブロックに、第1のタップフィルタが適用され、該第1のタップフィルタは、前記インタウィーブ予測技術及び/又は前記オプティカルフローベースの予測精緻化技術で符号化されない他の映像ブロックのために使用される補間フィルタに使用される第2のタップフィルタよりも短い、請求項82に記載の方法。
- 前記映像ブロックに対するアフィンサブブロックサイズは8×4又は4×8である、請求項82に記載の方法。
- 前記インタウィーブ予測技術及び/又は前記オプティカルフローベースの予測精緻化技術で符号化される前記映像ブロックに対して、第1のサブブロックサイズが使用され、該第1のサブブロックサイズは、前記インタウィーブ予測技術及び/又は前記オプティカルフローベースの予測精緻化技術で符号化されない他の映像ブロックの第2のサブブロックサイズとは異なる、請求項82に記載の方法。
- 前記ルールは、前記映像ブロックの符号化情報に基づき、該符号化情報は、前記映像ブロックの予測方向、前記映像ブロックの参照ピクチャ情報、又は前記映像ブロックの色成分を含む、請求項82に記載の方法。
- 映像処理の方法であって、
双予測が適用される場合に、最終予測サンプルを用いて、映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップを有し、
前記最終予測サンプルは、精緻化中間予測サンプルから、
(a)インタウィーブ予測技術を無効にして、オプティカルフローベースの予測精緻化技術を実行すること、又は
(b)動き補償技術を実行すること、
によって導出される、
方法。 - 映像処理の方法であって、
予測サンプルを用いて、映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップを有し、
前記予測サンプルは、オプティカルフローベースの予測精緻化技術を実行することによって精緻化中間予測サンプルから導出され、
前記オプティカルフローベースの予測精緻化技術を前記実行することは、前記映像ブロックについて第1方向において推定された第1組の動き変位Vx(x,y),又は前記映像ブロックについて第2方向において推定された第2組の動き変位Vy(x,y)のうちの一方のみに依存し、
x及びyは整数であり、且つ
前記第1方向は前記第2方向に直交する、
方法。 - 前記予測サンプルは、前記第1組の動き変位Vx(x,y)のみに基づき、前記第2組の動き変位Vy(x,y)はゼロである、請求項88に記載の方法。
- 前記予測サンプルは、前記第2組の動き変位Vy(x,y)のみに基づき、前記第1組の動き変位Vx(x,y)はゼロである、請求項88に記載の方法。
- 前記第1組の動き変位Vx(x,y)の絶対値の和が前記第2組の動き変位Vy(x,y)の絶対値の和以上であることに応答して、前記予測サンプルは、前記第1組の動き変位Vx(x,y)のみに基づく、請求項88に記載の方法。
- 前記第1組の動き変位Vx(x,y)の絶対値の和が前記第2組の動き変位Vy(x,y)の絶対値の和以下であることに応答して、前記予測サンプルは、前記第2組の動き変位Vy(x,y)のみに基づく、請求項88に記載の方法。
- 前記第1方向における第1の勾配成分の絶対値の和が前記第2方向における第2の勾配成分の絶対値の和以上であることに応答して、前記予測サンプルは、前記第1組の動き変位Vx(x,y)のみに基づく、請求項88に記載の方法。
- 前記第1方向における第1の勾配成分の絶対値の和が前記第2方向における第2の勾配成分の絶対値の和以上であることに応答して、前記予測サンプルは、前記第2組の動き変位Vy(x,y)のみに基づく、請求項88に記載の方法。
- 映像処理の方法であって、
映像ブロックについての精緻化動きベクトルを、前記映像ブロックの動きベクトルを精緻化することによって取得するステップであり、動き補償技術を実行する前に前記動きベクトルが精緻化され、前記精緻化動きベクトルは1/Nピクセル精度を持ち、前記動きベクトルは1/Mピクセル精度を持つ、ステップと、
前記映像ブロック上でオプティカルフローベースの予測精緻化技術を実行することによって最終予測サンプルを取得するステップであり、前記精緻化動きベクトルと前記動きベクトルとの間の差に対して前記オプティカルフローベースの予測精緻化技術が適用される、ステップと、
前記最終予測サンプルを用いて、前記映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップと、
を有する方法。 - Mは16であり且つNは1である、又は
Mは8であり且つNは1である、又は
Mは4であり且つNは1である、又は
Mは16であり且つNは2である、又は
Mは8であり且つNは2である、又は
Mは4であり且つNは2である、
請求項95に記載の方法。 - 前記動きベクトルは第1方向又は第2方向のいずれかにあり、前記第1方向は前記第2方向に直交し、前記オプティカルフローベースの予測精緻化技術は、前記第1方向又は前記第2方向のいずれかで実行される、請求項95に記載の方法。
- 前記映像ブロックは双予測映像ブロックであり、前記動きベクトルは第1方向又は第2方向で精緻化され、前記第1方向は前記第2方向に直交する、請求項95に記載の方法。
- 前記映像ブロックは双予測映像ブロックであり、前記動きベクトルは第1方向及び第2方向で精緻化され、前記第1方向は前記第2方向に直交する、請求項95に記載の方法。
- 前記オプティカルフローベースの予測精緻化技術は、前記動きベクトルの第1の数の部分動きベクトル成分に対して実行され、前記第1の数の部分動きベクトル成分は、前記動きベクトルの第2の数の部分動きベクトル成分よりも少ない又は等しい、請求項95に記載の方法。
- 映像処理の方法であって、
映像ブロックに対してマルチステップデコーダ側動きベクトル精緻化プロセスを用いて、最終動きベクトルを決定するステップであり、当該最終動きベクトルは1/Nピクセル精度を持つ、ステップと、
前記最終動きベクトルを用いて、現在ブロックとビットストリーム表現との間での変換を実行するステップと、
を有する方法。 - Nは、32又は64又は128に等しい、請求項101に記載の方法。
- 前記最終動きベクトルは、前記映像ブロックについての動きベクトルを精緻化することによって得られる精緻化動きベクトルであり、前記動きベクトルは、動き補償技術を実行するのに先立って精緻化され、
前記映像ブロック上でオプティカルフローベースの予測精緻化技術を実行することによって、最終予測サンプルが取得され、
前記オプティカルフローベースの予測精緻化技術は、前記最終動きベクトルと前記動きベクトルとの間の差に適用される、
請求項101に記載の方法。 - 前記オプティカルフローベースの予測精緻化技術は、
前記映像ブロック内の位置(x,y)における精緻化予測サンプルP’(x,y)を、前記位置(x,y)で推定された第1方向における第1の勾配成分Gx(x,y)と、前記位置(x,y)で推定された第2方向における第2の勾配成分Gy(x,y)と、前記位置(x,y)について推定された第1の動き変位Vx(x,y)と、前記位置(x,y)について推定された第2の動き変位Vy(x,y)とで前記位置(x,y)における予測サンプルP(x,y)を修正することによって決定する、
ことによって適用され、
x及びyは整数であり、且つ
前記位置(x,y)における前記最終予測サンプルRec(x,y)は、前記精緻化予測サンプルP’(x,y)及び残差サンプル値Res(x,y)に基づいて取得される、
請求項103に記載の方法。 - 前記第1方向及び前記第2方向は互いに直交する、請求項104に記載の方法。
- 前記第1の動き変位は、前記第1方向に平行な方向を表し、前記第2の動き変位は、前記第2方向に平行な方向を表す、請求項104に記載の方法。
- P’(x,y)=P(x,y)+Gx(x,y)×Vx(x,y)+Gy(x,y)×Vy(x,y)である、請求項104に記載の方法。
- 前記動き補償技術を実行するのに先立って、1/32ピクセル精度を持つ前記精緻化動きベクトルが1/16ピクセル精度に丸められる、請求項103に記載の方法。
- 前記動き補償技術を実行するのに先立って、1/32ピクセル精度を持つ前記精緻化動きベクトルが1ピクセル精度に丸められる、請求項103に記載の方法。
- 前記動き補償技術を実行するのに先立って、1/64ピクセル精度を持つ前記精緻化動きベクトルが1/16ピクセル精度に丸められる、請求項103に記載の方法。
- 前記動き補償技術を実行するのに先立って、1/64ピクセル精度を持つ前記精緻化動きベクトルが1ピクセル精度に丸められる、請求項103に記載の方法。
- 映像処理の方法であって、
映像ブロックの精緻化中間予測サンプルを、前記映像ブロックの中間予測サンプルに対してインタウィーブ予測技術及びオプティカルフローベースの予測精緻化技術を実行することによって取得するステップと、
前記精緻化中間予測サンプルから最終予測サンプルを導出するステップと、
前記最終予測サンプルを用いて、前記映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップと、
を有する方法。 - 先ず、前記オプティカルフローベースの予測精緻化技術が実行され、次いで、前記インタウィーブ予測技術が実行される、請求項112に記載の方法。
- 先ず、前記オプティカルフローベースの予測精緻化技術を用いて、2つの異なるサブブロック分割パターンを有する前記精緻化中間予測サンプルが取得され、そして、前記精緻化中間予測サンプルが、前記インタウィーブ予測技術を用いて加重平均されて、前記最終予測サンプルが取得される、請求項113に記載の方法。
- 先ず、前記インタウィーブ予測技術が実行され、次いで、前記オプティカルフローベースの予測精緻化技術が実行される、請求項112に記載の方法。
- 先ず、2つの異なるサブブロック分割パターンを有する前記中間予測サンプルが、前記インタウィーブ予測技術を用いて加重平均されて、前記精緻化中間予測サンプルが取得され、そして、前記精緻化中間予測サンプルに対して前記オプティカルフローベースの予測精緻化技術が実行されて、前記最終予測サンプルが取得される、請求項115に記載の方法。
- 前記オプティカルフローベースの予測精緻化技術は、オプティカルフローを用いた予測精緻化(PROF)技術である、請求項80乃至116のいずれかに記載の方法。
- 映像処理の方法であって、
映像ブロックの精緻化中間予測サンプルを、前記映像ブロックの中間予測サンプルに対してインタウィーブ予測技術及び位相変分アフィンサブブロック動き補償(PAMC)技術を実行することによって取得するステップと、
前記精緻化中間予測サンプルから最終予測サンプルを導出するステップと、
前記最終予測サンプルを用いて、前記映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップと、
を有する方法。 - 先ず、前記PAMC技術が実行され、次いで、前記インタウィーブ予測技術が実行される、請求項118に記載の方法。
- 先ず、前記PAMC技術の補間法を用いて、2つの異なるサブブロック分割パターンを有する前記精緻化中間予測サンプルが取得され、そして、前記精緻化中間予測サンプルが、前記インタウィーブ予測技術を用いて加重平均されて、前記最終予測サンプルが取得される、請求項119に記載の方法。
- 先ず、前記インタウィーブ予測技術が実行され、次いで、前記PAMC技術が実行される、請求項118に記載の方法。
- 映像処理の方法であって、
映像ブロックの精緻化中間予測サンプルを、前記映像ブロックの中間予測サンプルに対してオプティカルフローベースの予測精緻化技術及び位相変分アフィンサブブロック動き補償(PAMC)技術を実行することによって取得するステップと、
前記精緻化中間予測サンプルから最終予測サンプルを導出するステップと、
前記最終予測サンプルを用いて、前記映像ブロックのビットストリーム表現と前記映像ブロックとの間での変換を実行するステップと、
を有する方法。 - 先ず、前記PAMC技術が実行され、次いで、前記オプティカルフローベースの予測精緻化技術が実行される、請求項122に記載の方法。
- 先ず、前記PAMC技術の補間法を用いて、2つの異なるサブブロック分割パターンを有する前記精緻化中間予測サンプルが取得され、そして、前記精緻化中間予測サンプルが、前記オプティカルフローベースの予測精緻化技術を用いて処置されて、前記最終予測サンプルが取得される、請求項123に記載の方法。
- 先ず、前記オプティカルフローベースの予測精緻化技術が実行され、次いで、前記PAMC技術が実行される、請求項118に記載の方法。
- 請求項1乃至125のいずれかに記載の方法を実装するように構成されたプロセッサを有するビデオエンコーダ又はリエンコーダ。
- 請求項1乃至125のいずれかに記載の方法を実装するように構成されたプロセッサを有するビデオデコーダ。
- 請求項1乃至125のいずれかに記載の方法を実装するためのコードを有した非一時的なコンピュータ読み取り可能媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023207339A JP2024015289A (ja) | 2019-03-17 | 2023-12-08 | オプティカルフローベースの予測精緻化の計算 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019078411 | 2019-03-17 | ||
CNPCT/CN2019/078411 | 2019-03-17 | ||
CN2019078501 | 2019-03-18 | ||
CNPCT/CN2019/078501 | 2019-03-18 | ||
CNPCT/CN2019/078719 | 2019-03-19 | ||
CN2019078719 | 2019-03-19 | ||
CNPCT/CN2019/079961 | 2019-03-27 | ||
CN2019079961 | 2019-03-27 | ||
PCT/CN2020/079675 WO2020187199A1 (en) | 2019-03-17 | 2020-03-17 | Calculation of prediction refinement based on optical flow |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023207339A Division JP2024015289A (ja) | 2019-03-17 | 2023-12-08 | オプティカルフローベースの予測精緻化の計算 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022525876A true JP2022525876A (ja) | 2022-05-20 |
Family
ID=72518951
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021555421A Pending JP2022525876A (ja) | 2019-03-17 | 2020-03-17 | オプティカルフローベースの予測精緻化の計算 |
JP2023207339A Pending JP2024015289A (ja) | 2019-03-17 | 2023-12-08 | オプティカルフローベースの予測精緻化の計算 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023207339A Pending JP2024015289A (ja) | 2019-03-17 | 2023-12-08 | オプティカルフローベースの予測精緻化の計算 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11343529B2 (ja) |
EP (1) | EP3925220A4 (ja) |
JP (2) | JP2022525876A (ja) |
KR (1) | KR102659481B1 (ja) |
CN (3) | CN113574869B (ja) |
WO (2) | WO2020187198A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10715818B2 (en) * | 2016-08-04 | 2020-07-14 | Intel Corporation | Techniques for hardware video encoding |
US11343525B2 (en) * | 2019-03-19 | 2022-05-24 | Tencent America LLC | Method and apparatus for video coding by constraining sub-block motion vectors and determining adjustment values based on constrained sub-block motion vectors |
JP7323641B2 (ja) | 2019-05-21 | 2023-08-08 | 北京字節跳動網絡技術有限公司 | アフィンモードのための適応動きベクトル差分分解 |
EP4300964A3 (en) * | 2019-06-21 | 2024-03-13 | VID SCALE, Inc. | Precision refinement for motion compensation with optical flow |
CN113411605B (zh) * | 2019-06-21 | 2022-05-31 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
KR20220042125A (ko) | 2019-08-10 | 2022-04-04 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브픽처 디코딩에서의 버퍼 관리 |
JP7482220B2 (ja) | 2019-10-18 | 2024-05-13 | 北京字節跳動網絡技術有限公司 | サブピクチャのパラメータセットシグナリングにおける構文制約 |
JP2023518494A (ja) * | 2020-03-23 | 2023-05-01 | 北京字節跳動網絡技術有限公司 | アフィンマージおよびアフィン動きベクトル予測モードの予測微調整 |
CN116491120A (zh) * | 2020-10-14 | 2023-07-25 | 北京达佳互联信息技术有限公司 | 用于仿射运动补偿预测细化的方法和装置 |
US11949863B2 (en) * | 2021-08-02 | 2024-04-02 | Tencent America LLC | Geometric partition mode with intra block copy |
US20230079743A1 (en) * | 2021-09-16 | 2023-03-16 | Qualcomm Incorporated | Multiple inter predictors with decoder side motion vector derivation for video coding |
US20230119972A1 (en) * | 2021-10-01 | 2023-04-20 | Mediatek Inc. | Methods and Apparatuses of High Throughput Video Encoder |
CN114399539B (zh) * | 2022-01-14 | 2024-09-03 | 合肥英睿系统技术有限公司 | 运动目标的检测方法、设备以及存储介质 |
US20230336737A1 (en) * | 2022-04-18 | 2023-10-19 | Tencent America LLC | Sub-block based temporal motion vector predictor with an motion vector offset |
WO2024012052A1 (en) * | 2022-07-15 | 2024-01-18 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
WO2024027784A1 (en) * | 2022-08-05 | 2024-02-08 | Mediatek Inc. | Method and apparatus of subblock-based temporal motion vector prediction with reordering and refinement in video coding |
WO2024054029A1 (ko) * | 2022-09-06 | 2024-03-14 | 주식회사 케이티 | 영상 부호화/복호화 방법 및 비트스트림을 저장하는 기록 매체 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019002215A1 (en) * | 2017-06-26 | 2019-01-03 | Interdigital Vc Holdings, Inc. | MULTIPLE PREDICTION CANDIDATES FOR MOTION COMPENSATION |
WO2020163319A1 (en) * | 2019-02-07 | 2020-08-13 | Vid Scale, Inc. | Systems, apparatus and methods for inter prediction refinement with optical flow |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1592248B1 (en) * | 2004-04-30 | 2006-09-20 | Matsushita Electric Industrial Co., Ltd. | Motion vector estimation employing adaptive temporal prediction |
US9615089B2 (en) * | 2012-12-26 | 2017-04-04 | Samsung Electronics Co., Ltd. | Method of encoding and decoding multiview video sequence based on adaptive compensation of local illumination mismatch in inter-frame prediction |
US9877025B2 (en) * | 2013-07-12 | 2018-01-23 | British Broadcasting Corporation | Video encoding and decoding with prediction at higher precision |
US10327001B2 (en) * | 2014-06-19 | 2019-06-18 | Qualcomm Incorporated | Systems and methods for intra-block copy |
WO2016008157A1 (en) * | 2014-07-18 | 2016-01-21 | Mediatek Singapore Pte. Ltd. | Methods for motion compensation using high order motion model |
CN104125470B (zh) * | 2014-08-07 | 2017-06-06 | 成都瑞博慧窗信息技术有限公司 | 一种视频数据传输方法 |
WO2017034089A1 (ko) * | 2015-08-23 | 2017-03-02 | 엘지전자(주) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
EP3345396A4 (en) * | 2015-09-01 | 2019-03-27 | Telefonaktiebolaget LM Ericsson (publ) | SPATIAL IMPROVEMENT OF TRANSFORMER BLOCKS |
CN107925775A (zh) * | 2015-09-02 | 2018-04-17 | 联发科技股份有限公司 | 基于双向预测光流技术的视频编解码的运动补偿方法及装置 |
ES2710234B1 (es) * | 2015-09-11 | 2020-03-09 | Kt Corp | Procedimiento y dispositivo para procesar señales de vídeo |
CN105338354B (zh) * | 2015-09-29 | 2019-04-05 | 北京奇艺世纪科技有限公司 | 一种运动向量估计方法和装置 |
CN108293117A (zh) * | 2015-11-24 | 2018-07-17 | 三星电子株式会社 | 基于像素梯度的后处理帧内或帧间预测块的方法和装置 |
MY201069A (en) * | 2016-02-05 | 2024-02-01 | Hfi Innovation Inc | Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding |
WO2017195914A1 (ko) * | 2016-05-11 | 2017-11-16 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인터 예측 방법 및 장치 |
US10560712B2 (en) * | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
EP3264768A1 (en) * | 2016-06-30 | 2018-01-03 | Thomson Licensing | Method and apparatus for video coding with adaptive motion information refinement |
CN110115032B (zh) * | 2016-12-22 | 2021-07-20 | 联发科技股份有限公司 | 用于视频编解码的运动细化的方法以及装置 |
US10931969B2 (en) | 2017-01-04 | 2021-02-23 | Qualcomm Incorporated | Motion vector reconstructions for bi-directional optical flow (BIO) |
US20180199057A1 (en) * | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
US10701366B2 (en) * | 2017-02-21 | 2020-06-30 | Qualcomm Incorporated | Deriving motion vector information at a video decoder |
US10523964B2 (en) * | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
US10701390B2 (en) * | 2017-03-14 | 2020-06-30 | Qualcomm Incorporated | Affine motion information derivation |
US10805630B2 (en) * | 2017-04-28 | 2020-10-13 | Qualcomm Incorporated | Gradient based matching for motion search and derivation |
CN107277316B (zh) | 2017-06-12 | 2020-05-12 | 京东方科技集团股份有限公司 | 显示装置及其制造方法 |
US10602180B2 (en) * | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
US10904565B2 (en) | 2017-06-23 | 2021-01-26 | Qualcomm Incorporated | Memory-bandwidth-efficient design for bi-directional optical flow (BIO) |
CN117478884A (zh) | 2017-07-03 | 2024-01-30 | Vid拓展公司 | 用于视频编解码的设备、方法 |
EP4415366A2 (en) * | 2017-08-03 | 2024-08-14 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks in an inter prediction slice of video data |
CN107623850B (zh) * | 2017-09-26 | 2019-11-22 | 杭州电子科技大学 | 一种基于时空相关性的快速屏幕内容编码方法 |
US10986360B2 (en) * | 2017-10-16 | 2021-04-20 | Qualcomm Incorproated | Various improvements to FRUC template matching |
US11012715B2 (en) * | 2018-02-08 | 2021-05-18 | Qualcomm Incorporated | Intra block copy for video coding |
WO2020093999A1 (en) | 2018-11-05 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Inter prediction with refinement in video processing |
US11089325B2 (en) * | 2019-02-08 | 2021-08-10 | Qualcomm Incorporated | Constrained affine motion inheritance for video coding |
US20200296405A1 (en) * | 2019-03-14 | 2020-09-17 | Qualcomm Incorporated | Affine motion compensation refinement using optical flow |
-
2020
- 2020-03-17 KR KR1020217028980A patent/KR102659481B1/ko active IP Right Grant
- 2020-03-17 EP EP20773739.6A patent/EP3925220A4/en active Pending
- 2020-03-17 CN CN202080021630.0A patent/CN113574869B/zh active Active
- 2020-03-17 CN CN202311422316.5A patent/CN117478876A/zh active Pending
- 2020-03-17 CN CN202080022320.0A patent/CN113597766B/zh active Active
- 2020-03-17 WO PCT/CN2020/079662 patent/WO2020187198A1/en active Application Filing
- 2020-03-17 JP JP2021555421A patent/JP2022525876A/ja active Pending
- 2020-03-17 WO PCT/CN2020/079675 patent/WO2020187199A1/en unknown
-
2021
- 2021-08-30 US US17/461,530 patent/US11343529B2/en active Active
- 2021-09-16 US US17/476,637 patent/US11973973B2/en active Active
-
2023
- 2023-12-08 JP JP2023207339A patent/JP2024015289A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019002215A1 (en) * | 2017-06-26 | 2019-01-03 | Interdigital Vc Holdings, Inc. | MULTIPLE PREDICTION CANDIDATES FOR MOTION COMPENSATION |
WO2020163319A1 (en) * | 2019-02-07 | 2020-08-13 | Vid Scale, Inc. | Systems, apparatus and methods for inter prediction refinement with optical flow |
Non-Patent Citations (2)
Title |
---|
JIANCONG (DANIEL) LUO ET AL., CE2-RELATED: PREDICTION REFINEMENT WITH OPTICAL FLOW FOR AFFINE MODE, JPN6022051652, 14 March 2019 (2019-03-14), ISSN: 0004939376 * |
JIANLE CHEN ET AL., ALGORITHM DESCRIPTION FOR VERSATILE VIDEO CODING AND TEST MODEL 4 (VTM 4), JPN6023048945, 16 February 2019 (2019-02-16), pages 34 - 36, ISSN: 0005211578 * |
Also Published As
Publication number | Publication date |
---|---|
CN113597766B (zh) | 2023-11-10 |
CN113574869A (zh) | 2021-10-29 |
EP3925220A4 (en) | 2022-06-29 |
WO2020187199A1 (en) | 2020-09-24 |
US20220007050A1 (en) | 2022-01-06 |
WO2020187198A1 (en) | 2020-09-24 |
CN113574869B (zh) | 2024-01-05 |
JP2024015289A (ja) | 2024-02-01 |
KR102659481B1 (ko) | 2024-04-23 |
US11343529B2 (en) | 2022-05-24 |
EP3925220A1 (en) | 2021-12-22 |
KR20210137463A (ko) | 2021-11-17 |
CN113597766A (zh) | 2021-11-02 |
US20210392367A1 (en) | 2021-12-16 |
CN117478876A (zh) | 2024-01-30 |
US11973973B2 (en) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102659481B1 (ko) | 광학 흐름에 기초한 예측 정제의 계산 | |
US11159808B2 (en) | Using inter prediction with geometric partitioning for video processing | |
JP7556090B2 (ja) | デコーダ側精緻化ツールのサイズ選択アプリケーション | |
US11616973B2 (en) | Coding of block vectors for intra block copy-coded blocks | |
WO2020259426A1 (en) | Motion candidate list construction for intra block copy mode | |
JP7318099B2 (ja) | ビデオコーディングにおける変換ブロック・サイズ制約 | |
CN114450959A (zh) | 视频编解码中的几何分割模式 | |
WO2020244659A1 (en) | Interactions between sub-block based intra block copy and different coding tools | |
KR102627821B1 (ko) | 이웃 블록 정보를 사용한 모션 후보 리스트 구성 | |
WO2020244660A1 (en) | Motion candidate list construction for video coding | |
WO2021000883A1 (en) | Storage of motion information in history-based motion vector prediction table |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210914 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230906 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231205 |