JP2022527701A - アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 - Google Patents
アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 Download PDFInfo
- Publication number
- JP2022527701A JP2022527701A JP2021556816A JP2021556816A JP2022527701A JP 2022527701 A JP2022527701 A JP 2022527701A JP 2021556816 A JP2021556816 A JP 2021556816A JP 2021556816 A JP2021556816 A JP 2021556816A JP 2022527701 A JP2022527701 A JP 2022527701A
- Authority
- JP
- Japan
- Prior art keywords
- affine
- current
- sample
- subblock
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 308
- 230000003287 optical effect Effects 0.000 title claims abstract description 126
- 230000033001 locomotion Effects 0.000 claims abstract description 853
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 243
- 230000008569 process Effects 0.000 claims abstract description 82
- 239000013598 vector Substances 0.000 claims description 473
- 239000011159 matrix material Substances 0.000 claims description 318
- 238000012545 processing Methods 0.000 claims description 87
- 238000003860 storage Methods 0.000 claims description 25
- 238000005111 flow chemistry technique Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013139 quantization Methods 0.000 description 72
- 238000006243 chemical reaction Methods 0.000 description 49
- 238000004364 calculation method Methods 0.000 description 37
- 238000004891 communication Methods 0.000 description 36
- 230000009466 transformation Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 26
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 22
- 241000023320 Luma <angiosperm> Species 0.000 description 17
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical group COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000013461 design Methods 0.000 description 15
- 238000000638 solvent extraction Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 14
- 238000003491 array Methods 0.000 description 13
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 230000003044 adaptive effect Effects 0.000 description 9
- 238000001914 filtration Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 9
- 238000005192 partition Methods 0.000 description 8
- 230000002441 reversible effect Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 5
- 239000002245 particle Substances 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000009795 derivation Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000000844 transformation Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 101150114515 CTBS gene Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/55—Motion estimation with spatial constraints, e.g. at image or region borders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
本特許出願は、2019年3月20日に出願された米国仮特許出願第62/821,440号の優先権、および2019年4月28日に出願された米国仮特許出願第62/839,765号に基づく優先権を主張する。前述の特許出願の開示は、その全体が参照により本明細書に組み込まれる。
アフィンコーディングされたブロックの現在のサブブロック(各サンブロックなど)の洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップを含んでもよく、PROFを適用するための複数の制約条件は、アフィンコーディングされたブロックに対して満たされず、または満足されず、
アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行するステップ、ならびに現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの予測サンプル値に基づいて、現在のサンプルの洗練化された予測サンプル値を取得するステップ(現在のサブブロックのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行するステップ、ならびに現在のサブブロックのデルタ予測値および現在のサブブロックの予測サンプル値に基づいて現在のサブブロックの洗練化された予測サンプル値を取得するステップ)を含む。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
第2の予測行列を取得するステップであって(ある例では、第2の予測行列は、現在のサブブロックの予測サンプル値に対応する第1の予測行列に基づいて生成される。ここで、現在のサブブロックの予測サンプル値は、現在のサブブロックに対するサブブロックベースのアフィン動き補償を行うことによって取得され得る。)、第2の予測行列のサイズは第1の予測行列のサイズより大きく(たとえば、第1の予測行列はsbWidth*sbHeightのサイズを有し、第2の予測行列は(sbWidth+2)*(sbHeight+2)のサイズを有し、変数sbWidthおよびsbHeightはそれぞれ現在のサブブロックの幅および高さを表す)、すなわち、第2の予測行列を取得するステップは、現在のサブブロックの動き情報に基づいて第1の予測行列を生成し、ただし第1の予測行列の要素は現在のサブブロックの予測サンプル値に対応し、第2の予測行列を取得するステップは、さらに第1の予測行列に基づいて第2の予測行列を生成し、または、現在のサブブロックの動き情報に基づいて第2の予測行列を生成するステップと、
第2の予測行列に基づいて、水平予測勾配行列および垂直予測勾配行列を生成するステップであって、第2の予測行列のサイズは、水平予測勾配行列および垂直予測勾配行列のサイズ以上である(たとえば、水平予測勾配行列または垂直予測勾配行列はsbWidth*sbHeightのサイズを有し、第2の予測行列は(sbWidth+2)*(sbHeight+2)のサイズを有する)、ステップと、
水平予測勾配行列の中の現在のサンプルの水平予測勾配値、垂直予測勾配行列の中の現在のサンプルの垂直予測勾配値、および現在のサブブロックの現在のサンプルの動きベクトルとサブブロックの中心サンプルの動きベクトルとの差分(MVD)に基づいて、現在のサブブロックの現在のサンプルのデルタ予測値(ΔI(i,j))を計算するステップとを含む。MVDは水平成分および垂直成分を有することが理解され得る。水平予測勾配行列の中の現在のサンプルの水平予測勾配値は、MVDの水平成分に対応し、垂直予測勾配行列の中の現在のサンプルの垂直予測勾配値は、MVDの垂直成分に対応する。
水平予測勾配行列の要素は、X(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
垂直予測勾配行列の要素は、Y(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
sbWはアフィンコーディングされたブロックの中の現在のサブブロックの幅を表し、sbHはアフィンコーディングされたブロックの中の現在のサブブロックの高さを表す。
別の表現方式では、第2の予測行列の要素はI1(p,q)によって表され、pの値の範囲は[0,subW+1]であり、qの値の範囲は[0,subH+1]である。
水平予測勾配行列の要素は、X(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[1,sbW]であり、jの値の範囲は[1,sbH]であり、
垂直予測勾配行列の要素は、Y(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[1,sbW]であり、jの値の範囲は[1,sbH]であり、
sbWはアフィンコーディングされたブロックの中の現在のサブブロックの幅を表し、sbHはアフィンコーディングされたブロックの中の現在のサブブロックの高さを表す。
pは[0,subW+1]からの値を有しqは[0,subH+1]からの値を有するので、左上サンプル(または座標の原点)は(1,1)に位置し、一方、pは[-1,subW]からの値を有しqは[-1,subH]からの値を有するので、左上サンプル(または座標の原点)は(0,0)に位置することが理解され得る。
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップを含み、複数のオプティカルフロー決定条件がアフィンコーディングされたブロックに対して満たされ、ここで、複数のオプティカルフロー決定条件が満たされることは、PROFを適用するためのすべての制約が満たされてはいないことを意味し、
アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行するステップと、現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの(元のまたは洗練化されることになる)予測サンプル値に基づいて、現在のサンプルの洗練化された予測サンプル値を取得するステップとを含む。
第2の予測行列を取得するステップであって、第2の予測行列の要素は現在のサブブロックの予測サンプル値に基づき、いくつかの例では、第2の予測行列を取得するステップは、現在のサブブロックの動き情報に基づいて第1の予測行列を生成するステップであって、第1の予測行列の要素は現在のサブブロックの予測サンプル値に対応する、ステップ、および第1の予測行列に基づいて第2の予測行列を生成するステップ、または、現在のサブブロックの動き情報に基づいて第2の予測行列を生成するステップを含む、ステップと、
第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を生成するステップであって、第2の予測行列のサイズは水平予測勾配行列および垂直予測勾配行列のサイズ以上である、ステップと、
水平予測勾配行列の中の現在のサンプルの水平予測勾配値、垂直予測勾配行列の中の現在のサンプルの垂直予測勾配値、および現在のサブブロックの現在のサンプルの動きベクトルとサブブロックの中心サンプルの動きベクトルとの差分に基づいて、現在のサブブロックの現在のサンプルのデルタ予測値(ΔI(i,j))を計算するステップとを含む。
第2の予測行列の要素はI1(p,q)によって表され、pの値の範囲は[-1,sbW]であり、qの値の範囲は[-1,sbH]であり、
水平予測勾配行列の要素は、X(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
垂直予測勾配行列の要素は、Y(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
sbWはアフィンコーディングされたブロックの中の現在のサブブロックの幅を表し、sbHはアフィンコーディングされたブロックの中の現在のサブブロックの高さを表す。
PROFを適用するための複数の制約条件がアフィンコーディングされたブロックに対して満たされていないと決定するために構成される決定ユニットと、
アフィンコーディングされたブロックの現在のサブブロック(各サンブロックなど)の洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニットとを含んでもよく、PROFを適用するための複数の制約条件は、アフィンコーディングされたブロックに対して満たされず、または満足されず、
予測処理ユニットは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行すること、ならびに現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの予測サンプル値に基づいて、現在のサンプルの洗練化された予測サンプル値を取得すること(現在のサブブロックのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行すること、ならびに現在のサブブロックのデルタ予測値および現在のサブブロックの予測サンプル値に基づいて現在のサブブロックの洗練化された予測サンプル値を取得することのため)のために構成される。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
第2の予測行列に基づいて、水平予測勾配行列および垂直予測勾配行列を生成するステップであって、第2の予測行列のサイズは、水平予測勾配行列および垂直予測勾配行列のサイズ以上である(たとえば、水平予測勾配行列または垂直予測勾配行列はsbWidth*sbHeightのサイズを有し、第2の予測行列は(sbWidth+2)*(sbHeight+2)のサイズを有する)、ステップと、
水平予測勾配行列の中の現在のサンプルの水平予測勾配値、垂直予測勾配行列の中の現在のサンプルの垂直予測勾配値、および現在のサブブロックの現在のサンプルの動きベクトルとサブブロックの中心サンプルの動きベクトルとの差分に基づいて、現在のサブブロックの現在のサンプルのデルタ予測値(ΔI(i,j))を計算するステップとを含む。
水平予測勾配行列の要素は、X(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
垂直予測勾配行列の要素は、Y(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
sbWはアフィンコーディングされたブロックの中の現在のサブブロックの幅を表し、sbHはアフィンコーディングされたブロックの中の現在のサブブロックの高さを表す。
複数のオプティカルフロー決定条件がアフィンコーディングされたブロックに対して満たされていると決定するために構成される決定ユニットであって、ここで、複数のオプティカルフロー決定条件が満たされていることは、PROFを適用するためのすべての制約が満たされていないことを意味する、決定ユニットと、
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニットとを備えてもよく、複数のオプティカルフロー決定条件はアフィンコーディングされたブロックに対して満たされており、予測処理ユニットは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行すること、ならびに、現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの(元のまたは洗練化されることになる)予測サンプル値に基づいて現在のサンプルの洗練化された予測サンプル値を取得することのために構成される。
第2の予測行列を取得することであって、第2の予測行列の要素は現在のサブブロックの予測サンプル値に基づき、いくつかの例では、第2の予測行列を取得するステップは、現在のサブブロックの動き情報に基づいて第1の予測行列を生成するステップであって、第1の予測行列の要素は現在のサブブロックの予測サンプル値に対応する、ステップ、および第1の予測行列に基づいて第2の予測行列を生成するステップ、または、現在のサブブロックの動き情報に基づいて第2の予測行列を生成するステップを含む、取得することと、
第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を生成することであって、第2の予測行列のサイズは水平予測勾配行列および垂直予測勾配行列のサイズ以上である、生成することと、
水平予測勾配行列の中の現在のサンプルの水平予測勾配値、垂直予測勾配行列の中の現在のサンプルの垂直予測勾配値、および現在のサブブロックの現在のサンプルの動きベクトルとサブブロックの中心サンプルの動きベクトルとの差分に基づいて、現在のサブブロックの現在のサンプルのデルタ予測値(ΔI(i,j))を計算することのために構成される。
水平予測勾配行列の要素は、X(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
垂直予測勾配行列の要素は、Y(i,j)によって表され、アフィンコーディングされたブロックの中の現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
sbWはアフィンコーディングされたブロックの中の現在のサブブロックの幅を表し、sbHはアフィンコーディングされたブロックの中の現在のサブブロックの高さを表す。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶する、非一時的コンピュータ可読記憶媒体とを備え、プログラミングは、プロセッサによって実行されると、第1の態様自体またはその実装形式による方法を行うようにデコーダを構成する。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶する、非一時的コンピュータ可読記憶媒体とを備え、プログラミングは、プロセッサによって実行されると、第1の態様自体またはその実装形式による方法を行うようにエンコーダを構成する。
図2は、本出願の技法を実装するように構成される例示的なビデオエンコーダ20の概略ブロック図を示す。図2の例では、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、ループフィルタユニット220、復号ピクチャバッファ(DPB)230、モード選択ユニット260、エントロピー符号化ユニット270、および出力272(または出力インターフェース272)を備える。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、および区分ユニット262を含み得る。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(図示せず)を含み得る。図2に示されるようなビデオエンコーダ20は、ハイブリッドビデオエンコーダまたはハイブリッドビデオコーデックに従ったビデオエンコーダとも呼ばれ得る。
エンコーダ20は、たとえば入力201を介して、ピクチャ17(またはピクチャデータ17)、たとえば、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスのうちのあるピクチャを受信するように構成され得る。受信されたピクチャまたはピクチャデータは、前処理されたピクチャ19(または前処理されたピクチャデータ19)でもあり得る。簡潔にするために、以下の説明はピクチャ17に言及する。ピクチャ17は、現在のピクチャまたはコーディングされることになるピクチャとも呼ばれることがある(具体的には、ビデオコーディングにおいて、現在のピクチャを他のピクチャ、たとえば、同じビデオシーケンス、すなわち現在のピクチャも含むビデオシーケンスの以前に符号化および/または復号されたピクチャと区別するために)。
残差計算ユニット204は、たとえば、サンプル領域において残差ブロック205を取得するために、ピクチャブロック203のサンプル値から予測ブロック265(予測ブロック265のさらなる詳細は後で与えられる)のサンプル値をサンプルごとに(ピクセルごとに)差し引くことによって、ピクチャブロック203および予測ブロック265に基づいて残差ブロック205(残差205とも呼ばれる)を計算するように構成され得る。
変換処理ユニット206は、変換領域において変換係数207を取得するために、残差ブロック205のサンプル値に対して変換、たとえば離散コサイン変換(DCT)または離散サイン変換(DST)を適用するように構成され得る。変換係数207はまた、変換残差係数とも呼ばれることがあり、変換領域において残差ブロック205を表すことがある。
量子化ユニット208は、たとえばスカラー量子化またはベクトル量子化を適用することによって、量子化された係数209を取得するために変換係数207を量子化するように構成され得る。量子化された係数209は、量子化された変換係数209または量子化された残差係数209とも呼ばれ得る。
逆量子化ユニット210は、たとえば、量子化ユニット208と同じ量子化ステップサイズに基づいて、またはそれを使用して、量子化ユニット208によって適用される量子化方式の逆を適用することによって、量子化解除された係数211を取得するために、量子化された係数に対して量子化ユニット208の逆量子化を適用するように構成される。量子化解除された係数211はまた、量子化解除された残差係数211とも呼ばれることがあり、量子化による損失により変換係数と通常は同一ではないが、変換係数207に対応することがある。
逆変換処理ユニット212は、サンプル領域において再構築された残差ブロック213(または対応する量子化解除された係数213)を取得するために、変換処理ユニット206により適用される変換の逆変換、たとえば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)または他の逆変換を適用するように構成される。再構築された残差ブロック213は、変換ブロック213とも呼ばれ得る。
再構築ユニット214(たとえば、加算器(adder)または加算部(summer)214)は、たとえば、再構築された残差ブロック213のサンプル値と予測ブロック265のサンプル値をサンプルごとに加算することによって、サンプル領域において再構築されたブロック215を取得するために、変換ブロック213(すなわち、再構築された残差ブロック213)を予測ブロック265に加算するように構成される。
ループフィルタユニット220(または略して「ループフィルタ」220)は、フィルタリングされたブロック221を取得するために再構築されたブロック215をフィルタリングし、または一般には、フィルタリングされたサンプルを取得するために再構築されたサンプルをフィルタリングするように構成される。ループフィルタユニットは、たとえば、ピクセル遷移を滑らかにし、またはビデオ品質を他の方法で改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタなどの1つまたは複数のループフィルタ、サンプル適応オフセット(SAO)フィルタ、または1つまたは複数の他のフィルタ、たとえば、バイラテラルフィルタ、適応ループフィルタ(ALF)、先鋭化フィルタ、平滑化フィルタ、もしくは協調フィルタ、またはこれらの任意の組合せを備え得る。ループフィルタユニット220は図2ではループフィルタであるものとして示されるが、他の構成では、ループフィルタユニット220は、ポストループフィルタとして実装され得る。フィルタリングされたブロック221は、フィルタリングされた再構築されたブロック221とも呼ばれ得る。
復号ピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデータを符号化するための、参照ピクチャ、または一般には参照ピクチャデータを記憶するメモリであり得る。DPB230は、同期DRAM(SDRAM)、磁気抵抗RAM(MRAM)、抵抗性RAM(RRAM)、または他のタイプのメモリデバイスを含む、ダイナミックランダムアクセスメモリ(DRAM)などの種々のメモリデバイスのいずれかによって形成され得る。復号ピクチャバッファ(DPB)230は、1つまたは複数のフィルタリングされたブロック221を記憶するように構成され得る。復号ピクチャバッファ230はさらに、同じ現在のピクチャ、または異なるピクチャ、たとえば以前に再構築されたピクチャの、他の以前にフィルタリングされたブロック、たとえば以前に再構築されフィルタリングされたブロック221を記憶するように構成されてもよく、たとえばインター予測のために、完全な以前に再構築された、すなわち復号されたピクチャ(および対応する参照ブロックとサンプル)および/または部分的に再構築された現在のピクチャ(および対応する参照ブロックとサンプル)を提供してもよい。復号ピクチャバッファ(DPB)230はまた、たとえば再構築されたブロック215がループフィルタユニット220によってフィルタリングされていない場合、1つまたは複数のフィルタリングされていない再構築されたブロック215、もしくは一般にはフィルタリングされていない再構築されたサンプルを記憶し、または、再構築されたブロックもしくはサンプルの任意の他のさらに処理されたバージョンを記憶するように構成され得る。
モード選択ユニット260は、区分ユニット262、インター予測ユニット244、およびイントラ予測ユニット254を備え、元のピクチャデータ、たとえば元のブロック203(現在のピクチャ17の現在のブロック203)、および再構築されたピクチャデータ、たとえば、同じ(現在の)ピクチャのフィルタリングされたおよび/もしくはフィルタリングされていない再構築されたサンプルもしくはブロックを、かつ/または、1つまたは複数の以前に復号されたピクチャから、たとえば復号ピクチャバッファ230もしくは他のバッファ(たとえば、図示されないラインバッファ)から、受信または取得するように構成される。再構築されたピクチャデータは、予測ブロック265または予測子265を取得するために、予測、たとえばインター予測またはイントラ予測のための参照ピクチャデータとして使用される。
区分ユニット262は、現在のブロック203をより小さい区分、たとえば正方形または長方形のサイズのより小さいブロックへと区分(またはスプリット)し得る。これらのより小さいブロック(サブブロックとも呼ばれ得る)はさらに、より小さい区分へと分割され得る。これは、木区分化または階層的木区分化とも呼ばれ、たとえばルート木レベル0(階層レベル0、深度0)におけるルートブロックが、再帰的に区分され、たとえば次に低い木レベルの2つ以上のブロック、たとえば木レベル1におけるノード(階層レベル1、深度1)へと区分されてもよく、これらのブロックは、次に低いレベル、たとえば木レベル2(階層レベル2、深度2)の2つ以上のブロックへと再び区分などされてもよく、これは、たとえば終了基準が満たされたことにより、たとえば最大の木深度または最小のブロックサイズに達したことにより、区分化が終了するまで続く。さらに区分されないブロックは、木のリーフブロックまたはリーフノードとも呼ばれる。2つの区分への区分化を用いる木は二分木(BT)と呼ばれ、3つの区分への区分化を用いる木は三分木(TT)と呼ばれ、4つの区分への区分化を用いる木は四分木(QT)と呼ばれる。
イントラ予測モードのセットは、35個の異なるイントラ予測モード、たとえばDC(または平均)モードおよび平面モードのような非指向性モード、もしくは、たとえばHEVCにおいて定義されるような指向性モードを備えてもよく、または、67個の異なるイントラ予測モード、たとえばDC(または平均)モードおよび平面モードのような非指向性モード、もしくは、たとえばVVCのために定義されるような指向性モードを備えてもよい。
インター予測モードのセット(またはあり得るインター予測モード)は、利用可能な参照ピクチャ(すなわち、たとえばDBP230に記憶されている、以前の少なくとも部分的に復号されたピクチャ)、および他のインター予測パラメータ、たとえば、最良の一致する参照ブロックを探すために、参照ピクチャの全体が使用されるか、もしくは参照ピクチャの一部、たとえば現在のブロックのエリアの周りの探索ウィンドウエリアだけが使用されるか、ならびに/または、たとえばピクセル補間が適用されるかどうか、たとえば、2分の1/セミペルおよび/もしくは4分の1ペル補間が適用されるかどうかに依存する。
エントロピー符号化ユニット270は、たとえば、エントロピー符号化アルゴリズムまたは方式(たとえば、可変長コーディング(VLC)方式、コンテキスト適応VLC方式(CAVLC)、算術コーディング方式、二値化、コンテキスト適応バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応バイナリ算術コーディング(SBAC)、確率間隔区分化エントロピー(PIPE)コーディング、または別のエントロピー符号化方法もしくは技法)またはバイパス(圧縮なし)を、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素に適用して、たとえば符号化されたビットストリーム21の形式で出力272を介して出力され得る、符号化されたピクチャデータ21を取得するように構成されるので、たとえば、ビデオデコーダ30は、復号のためにそのパラメータを受信して使用し得る。符号化されたビットストリーム21は、ビデオデコーダ30に送信され、または、ビデオデコーダ30による後の送信もしくは取り出しのためにメモリに記憶され得る。
図3は、本出願の技法を実装するように構成されるビデオデコーダ30の例を示す。ビデオデコーダ30は、復号されたピクチャ331を取得するために、たとえばエンコーダ20によって符号化される、符号化されたピクチャデータ21(たとえば、符号化されたビットストリーム21)を受信するように構成される。符号化されたピクチャデータまたはビットストリームは、符号化されたピクチャデータ、たとえば、符号化されたビデオスライス(および/またはタイルグループもしくはタイル)のピクチャブロックおよび関連するシンタックス要素を表すデータを復号するための情報を含む。
エントロピー復号ユニット304は、ビットストリーム21(または一般には符号化されたピクチャデータ21)を解析し、たとえば、エントロピー復号を符号化されたピクチャデータ21に対して実行して、たとえば、量子化された係数309および/または復号されたコーディングパラメータ(図3に示されない)、たとえばインター予測パラメータ(たとえば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ(たとえば、イントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素のいずれかもしくはすべてを取得するように構成される。エントロピー復号ユニット304は、エンコーダ20のエントロピー符号化ユニット270に関して説明されたような符号化方式に対応する復号アルゴリズムまたは方式を適用するように構成され得る。エントロピー復号ユニット304はさらに、インター予測パラメータ、イントラ予測パラメータ、および/または他のシンタックス要素をモード適用ユニット360に提供し、他のパラメータをデコーダ30の他のユニットに提供するように構成され得る。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信し得る。スライスおよびそれぞれのシンタックス要素に加えて、またはその代替として、タイルグループおよび/またはタイルならびにそれぞれのシンタックス要素が、受信および/または使用され得る。
逆量子化ユニット310は、量子化パラメータ(QP)(または一般に、逆量子化に関する情報)および量子化された係数を符号化されたピクチャデータ21から(たとえばエントロピー復号ユニット304による、たとえば解析および/または復号によって)受信し、量子化パラメータに基づいて、復号された量子化された係数309に対して逆量子化を適用して、変換係数311とも呼ばれ得る量子化解除された係数311を取得するように構成され得る。逆量子化プロセスは、適用されるべき量子化の程度、および同様に逆量子化の程度を決定するために、ビデオスライス(またはタイルまたはタイルグループ)の中の各ビデオブロックに対して、ビデオエンコーダ20によって決定される量子化パラメータの使用を含み得る。
逆変換処理ユニット312は、変換係数311とも呼ばれる量子化解除された係数311を受信し、サンプル領域において再構築された残差ブロック213を取得するために、変換を量子化解除された係数311に適用するように構成され得る。再構築された残差ブロック213は、変換ブロック313とも呼ばれ得る。変換は、逆変換、たとえば逆DCT、逆DST、逆整数変換、または概念的に同様の逆変換プロセスであり得る。逆変換処理ユニット312はさらに、量子化解除された係数311に適用されるべき変換を決定するために、符号化されたピクチャデータ21から変換パラメータまたは対応する情報を(たとえば、エントロピー復号ユニット304による、たとえば解析および/または復号によって)受信するように構成され得る。
再構築ユニット314(たとえば、加算器(adder)または加算部(summer)314)は、たとえば、再構築された残差ブロック313のサンプル値と予測ブロック365のサンプル値を加算することによって、サンプル領域において再構築されたブロック315を取得するために、再構築された残差ブロック313を予測ブロック365に加算するように構成され得る。
ループフィルタユニット320(コーディングループの中またはコーディングループの後のいずれか)は、フィルタリングされたブロック321を取得するために、たとえば、ピクセル遷移を滑らかにするために、またはビデオ品質を別の方法で改善するために、再構築されたブロック315をフィルタリングするように構成される。ループフィルタユニット320は、デブロッキングフィルタなどの1つまたは複数のループフィルタ、サンプル適応オフセット(SAO)フィルタ、または1つまたは複数の他のフィルタ、たとえば、バイラテラルフィルタ、適応ループフィルタ(ALF)、先鋭化フィルタ、平滑化フィルタ、もしくは協調フィルタ、またはこれらの任意の組合せを備え得る。ループフィルタユニット320は図3ではループフィルタであるものとして示されるが、他の構成では、ループフィルタユニット320は、ポストループフィルタとして実装され得る。
ピクチャの復号されたビデオブロック321は次いで、復号ピクチャバッファ330に記憶され、これは、他のピクチャに対する後続の動き補償および/または出力それぞれに表示のための参照ピクチャとして、復号されたピクチャ331を記憶する。
インター予測ユニット344はインター予測ユニット244(具体的には動き補償ユニット)と同一であってもよく、イントラ予測ユニット354はインター予測ユニット254と機能的に同一であってもよく、区分および/もしくは予測パラメータ、または、符号化されたピクチャデータ21から受信されるそれぞれの情報に基づいて(たとえばエントロピー復号ユニット304による、たとえば解析および/または復号によって)、分割または区分の決定と予測を実行する。モード適用ユニット360は、予測ブロック365を取得するために、再構築されたピクチャ、ブロック、またはそれぞれのサンプル(フィルタリングされた、またはフィルタリングされていない)に基づいて、ブロックごとに予測(イントラ予測またはインター予測)を実行するように構成され得る。
HEVCでは、進化型動きベクトル予測(advanced motion vector prediction, AMVP)モードおよびマージ(merge)モードという、2つのインター予測モードが使用される。
J=SAD+λR (1)
非並進動きモデルに基づく予測は、現在のブロックの中の各サブブロックの動き情報(サブ動き補償ユニットまたは基本動き補償ユニットとも呼ばれる)を導出するために、エンコーダ側とデコーダ側の両方に対して同じ動きモデルが使用され、予測ブロックを取得するために、サブブロックの動き情報に基づいて動き補償が実行され、それにより予測効率を改善することを指す。一般的な非並進動きモデルは、4パラメータのアフィン動きモデルおよび6パラメータのアフィン動きモデルを含む。
継承された制御点動きベクトル予測方法とは、現在のブロックの制御点動きベクトル候補を決定するために、隣接する符号化されたアフィンコーディングされたブロックの動きモデルを使用することを指す。
構築された制御点動きベクトル予測方法は、現在のブロックの制御点の周りの隣接する符号化されたブロックの動きベクトルを、それらの隣接する符号化されたブロックがアフィンコーディングされたブロックであるかどうかを考慮せずに、現在のアフィンコーディングされたブロックの制御点動きベクトルとして組み合わせることを指す。
{vA2,vB1},{vA2,vB0},{vB2,vB1},{vB2,vB0},{vB3,vB1},{vB3,vB0} (11A)
ここで、vA2はA2の動きベクトルを表し、vB1はB1の動きベクトルを表し、vB0はB0の動きベクトルを表し、vB2はB2の動きベクトルを表し、vB3はB3の動きベクトルを表す。
{vA2,vB1,vA0},{vA2,vB0,vA0},{vB2,vB1,vA0},{vB2,vB0,vA0},{vB3,vB1,vA0},{vB3,vB0,vA0} (11B)
{vA2,vB1,vA1},{vA2,vB0,vA1},{vB2,vB1,vA1},{vB2,vB0,vA1},{vB3,vB1,vA1},{vB3,vB0,vA1} (11C)
ここで、vA2はA2の動きベクトルを表し、vB1はB1の動きベクトルを表し、vB0はB0の動きベクトルを表し、vB2はB2の動きベクトルを表し、vB3はB3の動きベクトルを表し、vA0はA0の動きベクトルを表し、vA1はA1の動きベクトルを表す。
ステップ501: 現在のブロックの制御点の動き情報を取得する。
(1)動きベクトル候補リストの構築
アフィン動きモデルベースのAMVPモードのための動きベクトル候補リストは、上で説明された、継承された制御点動きベクトル予測方法および/または構築された制御点動きベクトル予測方法を使用することによって構築される。本出願のこの実施形態では、アフィン動きモデルベースのAMVPモードのための動きベクトル候補リストは、制御点動きベクトル予測子候補リストと呼ばれ得る。各制御点の動きベクトル予測子は、2つの(4パラメータアフィン動きモデル)制御点の動きベクトルまたは3つの(6パラメータアフィン動きモデル)制御点の動きベクトルを含む。
エンコーダ側で、現在のコーディングブロックの中の各サブ動き補償ユニットの動きベクトルは、式(3)または(5)を使用することによって、制御点動きベクトル予測子候補リストの中の各制御点動きベクトル予測子候補(たとえば、Xタプル候補)に基づいて取得される。取得された動きベクトルは、サブ動き補償ユニットの動きベクトルが指し示す参照フレームの中の対応する位置にあるサンプル値を取得するために使用され得る。このサンプル値は、アフィン動きモデルを使用して動き補償を行うための予測子として使用される。現在のコーディングブロックの中の各サンプルの元の値と予測値との平均の差分が計算される。最小の平均の差分に対応する制御点動きベクトル予測子候補が、最適な制御点動きベクトル予測子候補として選択され、現在のコーディングブロックの2つまたは3つの制御点の動きベクトル予測子として使用される。制御点動きベクトル予測子候補リストにおける最適な制御点動きベクトル予測子候補(たとえば、Xタプル候補)の位置を表すインデックス番号は、ビットストリームへと符号化され、デコーダへ送信される。
エンコーダ側で、制御点動きベクトル予測子は、制御点動きベクトル(CPMV)を取得するために、特定の探索範囲内での動き探索のための探索開始点として使用される。それぞれの制御点動きベクトルと制御点動きベクトル予測子との差分(制御点動きベクトル差分、CPMVD)は、デコーダ側に伝えられる。
制御点動きベクトルマージ候補リストは、上で説明された、継承された制御点動きベクトル予測方法および/または構築された制御点動きベクトル予測方法を使用することによって構築される。
gx(i,j)=I(i+1,j)-I(i-1,j)
gy(i,j)=I(i,j+1)-I(i,j-1)
a)サブブロックの予測行列がサブブロックの動き情報(たとえば、動きベクトル)に基づいて取得された後で、サブブロックの水平勾配行列および垂直勾配行列を取得する。言い換えると、M×Nサブブロックの動きベクトルに基づく補間を通じて、(M+2)*(N+2)予測ブロックが取得される。たとえば、6×6予測信号を取得し、4×4勾配値(すなわち、4×4勾配行列)を計算するために、サブブロックの動きベクトルに基づいて、補間が直接実行される。
b)4×4予測信号(すなわち、第1の予測行列)を取得するために、サブブロックの動きベクトルに基づいて補間を実行し、次いで、6×6予測信号(すなわち、第2の予測行列)を取得して4×4勾配値(すなわち、4×4勾配行列)を計算するために、予測信号に対してエッジ延長を実行する。
c)各々の4×4予測信号(すなわち、第1の予測行列)を取得し、組合せを通じてw*h予測信号を取得するために、各サブブロックの動きベクトルに基づいて補間を実行する。次いで、(w+2)*(h+2)予測信号を取得するために、w*h予測信号に対してエッジ延長を実行し、各々の4×4勾配値(すなわち、4×4勾配行列)を取得するために、w*h勾配値(すなわち、w*h勾配行列)を計算する。
ΔI(i,j)=gx(i,j)*Δvx(i,j)+gy(i,j)*Δvy(i,j)
I'(i,j)=I(i,j)+ΔI(i,j)
ここでI(i,j)は、サブブロックのサンプル(i,j)の予測値(すなわち、サブブロックの中の位置(i,j)における予測サンプル値)であり、ΔI(i,j)はサブブロックのサンプル(i,j)のデルタ予測値であり、I'(i.j)はサブブロックのサンプル(i,j)の洗練化された予測サンプル値である。
本開示の実施形態による、オプティカルフローを用いたサブブロックベースのアフィン動き補償された予測を洗練化するために、オプティカルフローを用いた予測洗練化(PROF)プロセスが条件的に実行されるは、次のように説明される。
オプティカルフローを用いてサブブロックのデルタ予測値(これは具体的にはサブブロックの各サンプルのデルタ予測値である)を取得するための方法は、単方向のアフィンコーディングされたブロックに適用されてもよく、または双方向のアフィンコーディングされたブロックに適用されてもよい。方法が双方向のアフィン予測ブロックに適用される場合、上で説明されたステップ(1)から(4)は2回実行される必要があり、比較的計算の複雑さが高くなる。方法の複雑さを下げるために、本発明は、PROFを適用するための制約を提供する。具体的には、予測サンプル値は、アフィンコーディングされたブロックが単方向のアフィンコーディングされたブロックであるときにのみ、この方法を使用することによって洗練化される。
オプティカルフローを用いた予測信号洗練の複雑さを下げるために、オプティカルフローを用いてサブブロックの予測オフセット値を取得するための方法は、サブブロックのサイズが比較的大きいときにのみ使用され得る。たとえば、単方向のアフィンコーディングされたブロックのサブブロックサイズは4×4に設定されることがあり、双方向のアフィンコーディングされたブロックのサブブロックサイズは、8×8、8×4、または4×8に設定されることがある。この例では、サブブロックサイズが4×4より大きいときにのみ、この方法が使用される。別の例では、サブブロックサイズは、アフィンコーディングされたブロックの制御点の動きベクトル、アフィンコーディングされたブロックの幅および高さなどの情報に基づいて、適応的に選択され得る。サブブロックサイズが4×4より大きいときにのみ、この方法が使用される。
- 変数bxWX4、bxHX4、bxWXh、bxHXh、bxWXvおよびbxHXvが次のように導出される。
maxW4=Max(0,Max(4*(2048+dHorX),Max(4*dHorY,4*(2048+dHorX)+4*dHorY))) (8-775)
minW4=Min(0,Min(4*(2048+dHorX),Min(4*dHorY,4*(2048+dHorX)+4*dHorY))) (8-775)
maxH4=Max(0,Max(4*dVerX,Max(4*(2048+dVerY),4*dVerX+4*(2048+dVerY)))) (8-775)
minH4=Min(0,Min(4*dVerX,Min(4*(2048+dVerY),4*dVerX+4*(2048+dVerY)))) (8-775)
bxWX4=((maxW4-minW4)>>11)+9 (8-775)
bxHX4=((maxH4-minH4)>>11)+9 (8-775)
bxWXh=((Max(0,4*(2048+dHorX))-Min(0,4*(2048+dHorX)))>>11)+9 (8-775)
bxHXh=((Max(0,4*dVerX)-Min(0,4*dVerX))>>11)+9 (8-775)
bxWXv=((Max(0,4*dVerY)-Min(0,4*dVerY))>>11)+9 (8-775)
bxHXv=((Max(0,4*(2048+dHorY))-Min(0,4*(2048+dHorY)))>>11)+9 (8-775)
- inter_pred_idc[xCb][yCb]がPRED_BIに等しく、bxWX4*bxHX4が225以下である場合、fallbackModeTriggeredは0に等しく設定される。
- そうではなく、bxWXh*bxHXhが165以下であり、かつbxWXv*bxHXvが165以下である場合、fallbackModeTriggeredは0に等しく設定される。
エンコーダ側において、レートひずみ基準RDOに基づいて、単予測が現在のアフィンピクチャブロックのために使用されることが決定される。
デコーダ側では、AMVPモードにおいて、単予測方向(たとえば、前方予測のみまたは後方予測のみ)を示すために予測方向指示情報が使用され、ビットストリームを解析することによって、もしくは導出を通じて、予測方向指示情報が取得され、または、
デコーダ側では、マージモードにおいて、候補リストの中の候補インデックスに対応する動き情報候補が第1の参照フレームリストに対応する第1の動き情報を含み、または、候補リストの中の候補インデックスに対応する動き情報候補が第2の参照フレームリストに対応する第2の動き情報を含む。
inter_pred_idc[x0][y0]=PRED_L0であり、これは前方予測を示すために使用され、
inter_pred_idc[x0][y0]=PRED_L1であり、これは後方予測を示すために使用され、または、
予測方向指示情報はpredFlagL0および/またはpredFlagL1を含み、
predFlagL0=1、predFlagL1=0であり、これは前方予測を示すために使用され、
predFlagL1=1、predFlagL0=0であり、これは後方予測を示すために使用される。
サブブロックの中の現在のサンプルのデルタ予測値(たとえば、ΔI(i,j))および現在のサンプルの予測サンプル値(たとえば、予測信号I(i,j))に基づいて、現在のサンプルの洗練化された予測サンプル値(たとえば、予測信号I'(i,j))を取得するステップを含み得る。
水平予測勾配行列はX(i,j)によって表され、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
垂直予測勾配行列はY(i,j)によって表され、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
sbWは現在のアフィンピクチャブロックの中の現在のサブブロックの幅を表し、sbHは現在のアフィンピクチャブロックの中の現在のサブブロックの高さを表し、(x,y)は現在のアフィンピクチャブロックの中の現在のサブブロックの中の各サンプル(サンプルとも呼ばれる)の位置座標を表し、(x,y)に位置する要素は(i,j)に位置する要素に対応し得る。
S1202. 第1の予測行列に基づいて第2の予測行列を取得または生成し、サブブロック(たとえば、各サブブロック)の第1の予測行列(たとえば、第1の予測信号I(i,j)または4×4予測)は現在のサブブロックの予測サンプル値に対応する。図9Aに示されるように、アフィンコーディングされたブロックの現在のサブブロックに対するサブブロックベースのアフィン動き補償が、アフィンコーディングされたブロックの現在のサブブロックの予測サンプル値を取得するために実行される。
S1203. 第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を計算し、第2の予測行列のサイズは第1の予測行列のサイズ以上であり、第2の予測行列のサイズは第1の予測行列のサイズより大きく、第2の予測行列のサイズは水平予測勾配行列および垂直予測勾配行列のサイズ以上である。
サブブロックのデルタ予測値(たとえば、ΔI(i,j))およびサブブロックの予測サンプル値(たとえば、予測信号I(i,j))に基づいて、サブブロックの洗練化された予測サンプル値(たとえば、予測信号I'(i,j))を取得するステップは以下を含む。
S1205. デルタ予測値行列(たとえば、ΔI(i,j))および第1の予測行列(たとえば、予測信号I(i,j))に基づいてサブブロックの洗練化された第3の予測行列(たとえば、予測信号I'(i,j))を取得する。
そうではなく、第1のインジケータ(たとえば、applyProfFlag)が第2の値(たとえば、0)である場合、現在のアフィンピクチャブロックの中の1つまたは複数のサブブロック(たとえば、各サブブロック)に対するオプティカルフロー(たとえば、PROF)処理の実行をスキップする。
PROFが現在のピクチャユニットに対して有効であることを示すために、第1の指示情報(たとえば、sps_prof_enabled_flagまたはsps_bdof_enabled_flag)が使用される。本明細書において現在のピクチャユニットは、たとえば、現在のシーケンス、現在のピクチャ、現在のスライス、または現在のタイルグループであり得ることに留意されたい。現在のピクチャユニットのこれらの例は限定するものではない。
現在のアフィンピクチャブロックを区分することを示すために、第2の指示情報(たとえば、fallbackModeTriggered)が使用される。
現在のアフィンピクチャブロックは、単予測アフィンピクチャブロックである。
アフィンピクチャブロックの中のサブブロックのサイズがN×Nより大きく、N=4である。
現在のアフィンピクチャブロックが単予測アフィンピクチャブロックであり、アフィンピクチャブロックの中のサブブロックのサイズがN×Nに等しく、N=4である。または、
現在のアフィンピクチャブロックが双予測アフィンピクチャブロックであり、アフィンピクチャブロックの中のサブブロックのサイズがN×Nより大きく、N=4である。
- sps_prof_enabled_flag==1
- fallbackModeTriggered==0
- inter_pred_idc[x0][y0]=PRED_L0またはPRED_L1(またはpredFlagL0=1、predFlagL1=0;またはpredFlagL1=1、predFlagL0=0)
- 他の条件
- sps_prof_enabled_flag==1
- fallbackModeTriggered==0
- 他の条件
- sps_prof_disabled_flag==1
- fallbackModeTriggered==1
- 他の条件
現在のアフィンピクチャブロックの中の複数のサブブロックの動き情報(たとえば、動きベクトル)に基づいてM*Nブロックの第1の予測行列を取得するステップであって、たとえば、M*Nブロックは図9Eに示されるように16*16であり、たとえば、16*16ブロック(または16*16ウィンドウ)は16個の4*4サブブロックを含む、ステップと、
第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を計算するステップであって、第2の予測行列のサイズは第1の予測行列のサイズ以上であり、第2の予測行列のサイズは水平予測勾配行列および垂直予測勾配行列のサイズ以上である、ステップと、
水平予測勾配行列、垂直予測勾配行列、およびM*Nブロックの中の現在のピクセルユニット(たとえば、2×2ピクセルブロックなどの、現在のピクセルまたは現在のピクセルブロック)の動きベクトルとM*Nブロックの中心のピクセルの動きベクトルとの動きベクトル差分に基づいて、M*Nブロックのデルタ予測値行列(たとえば、予測信号のΔI(i,j))を計算するステップと、
デルタ予測値行列(たとえば、ΔI(i,j))および第1の予測行列(たとえば、予測信号I(i,j))に基づいてM*Nブロックの洗練化された第3の予測行列(たとえば、予測信号I'(i,j))を取得するステップとを含む、別のPROFプロセスを提供する。
第2の予測行列はI2(i,j)によって表され、iの値の範囲は[-1,size_w]であり、jの値の範囲は[-1,size_h]であり、size_w=min(W,m)、size_h=min(H,m)、およびm=16であり、
水平予測勾配行列はX(i,j)によって表され、iの値の範囲は[0,size_w-1]であり、jの値の範囲は[0,size_h-1]であり、
垂直予測勾配行列はY(i,j)によって表され、iの値の範囲は[0,size_w-1]であり、jの値の範囲は[0,size_h-1]であり、
Wは現在のアフィンピクチャブロックの幅を表し、Hは現在のアフィンピクチャブロックの高さを表し、(x,y)は現在のアフィンピクチャブロックの中の各サンプルの位置座標を表す。
第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を計算することを含み、水平予測勾配行列および垂直予測勾配行列は、それぞれ、サブブロックの水平予測勾配行列および垂直予測勾配行列を含み、
第2の予測行列はI2(i,j)によって表され、iの値の範囲は[-1,size_w]であり、jの値の範囲は[-1,size_h]であり、size_w=min(W,m)、size_h=min(H,m)、およびm=16であり、
水平予測勾配行列はX(i,j)によって表され、iの値の範囲は[0,size_w-1]であり、jの値の範囲は[0,size_h-1]であり、
垂直予測勾配行列はY(i,j)によって表され、iの値の範囲は[0,size_w-1]であり、jの値の範囲は[0,size_h-1]であり、
Wは現在のアフィンピクチャブロックの幅を表し、Hは現在のアフィンピクチャブロックの高さを表し、(i,j)は現在のアフィンピクチャブロックの中の各サンプルの位置座標を表す。
第1の予測行列は第1の初期予測行列または第2の初期予測行列を含み(であり)、第1の初期予測行列は第1の動き情報に基づいて取得され、第2の初期予測行列は第2の動き情報に基づいて取得され、
水平予測勾配行列は第1の水平予測勾配行列または第2の水平予測勾配行列を含み(であり)、第1の水平予測勾配行列は延長された第1の初期予測行列に基づく計算を通じて取得され、第2の水平予測勾配行列は延長された第2の初期予測行列に基づく計算を通じて取得され、
垂直予測勾配行列は第1の垂直予測勾配行列または第2の垂直予測勾配行列を含み(であり)、第1の垂直予測勾配行列は延長された第1の初期予測行列に基づく計算を通じて取得され、第2の垂直予測勾配行列は延長された第2の初期予測行列に基づく計算を通じて取得され、
デルタ予測値行列は、第1の参照フレームリストに対応する第1のデルタ予測値行列または第2の参照フレームリストに対応する第2のデルタ予測値行列を含み(であり)、第1のデルタ予測値行列は、第1の水平予測勾配行列、第1の垂直予測勾配行列、およびサブブロックの中心のサンプルに対する相対的なサブブロックの中の各サンプルユニットの第1の動きベクトル差分(たとえば、前方動きベクトル差分)に基づく計算を通じて取得され、第2のデルタ予測値行列は、第2の水平予測勾配行列、第2の垂直予測勾配行列、およびサブブロックの中心のサンプルに対する相対的なサブブロックの中の各サンプルユニットの第2の動きベクトル差分(たとえば、後方動きベクトル差分)に基づく計算を通じて取得される。
第1の予測行列は第1の初期予測行列および第2の初期予測行列を含み、第1の初期予測行列は第1の動き情報に基づいて取得され、第2の初期予測行列は第2の動き情報に基づいて取得され、
水平予測勾配行列は第1の水平予測勾配行列および第2の水平予測勾配行列を含み、第1の水平予測勾配行列は延長された第1の初期予測行列に基づく計算を通じて取得され、第2の水平予測勾配行列は延長された第2の初期予測行列に基づく計算を通じて取得され、
垂直予測勾配行列は第1の垂直予測勾配行列および第2の垂直予測勾配行列を含み、第1の垂直予測勾配行列は延長された第1の初期予測行列に基づく計算を通じて取得され、第2の垂直予測勾配行列は延長された第2の初期予測行列に基づく計算を通じて取得され、
デルタ予測値行列は、第1の参照フレームリストに対応する第1のデルタ予測値行列および第2の参照フレームリストに対応する第2のデルタ予測値行列を含み、第1のデルタ予測値行列は、第1の水平予測勾配行列、第1の垂直予測勾配行列、およびサブブロックの中心のサンプルに対する相対的なサブブロックの中の各サンプルユニットの第1の動きベクトル差分(たとえば、前方動きベクトル差分)に基づく計算を通じて取得され、第2のデルタ予測値行列は、第2の水平予測勾配行列、第2の垂直予測勾配行列、およびサブブロックの中心のサンプルに対する相対的なサブブロックの中の各サンプルユニットの第2の動きベクトル差分(たとえば、後方動きベクトル差分)に基づく計算を通じて取得される。
動き情報は、第1の参照フレームリストに対応する第1の動き情報、または第2の参照フレームリストに対応する第2の動き情報を含み、
第1の予測行列は第1の初期予測行列または第2の初期予測行列を含み(であり)、第1の初期予測行列は第1の動き情報に基づいて取得され、第2の初期予測行列は第2の動き情報に基づいて取得される。
動き情報は、第1の参照フレームリストに対応する第1の動き情報および第2の参照フレームリストに対応する第2の動き情報を含み、
第1の予測行列は第1の初期予測行列および第2の初期予測行列を含み、第1の初期予測行列は第1の動き情報に基づいて取得され、第2の初期予測行列は第2の動き情報に基づいて取得され、
サブブロックの動き情報に基づいてサブブロックの予測行列を取得するステップは、
サブブロックの予測行列を取得するために、第1の初期予測行列および第2の初期予測行列の中の同じ位置にあるサンプル値に対して加重加算を実行するステップを含む。加重加算がここで実行される前に、第1の初期予測行列および第2の初期予測行列の中のサンプル値は別々に洗練化され得ることを理解されたい。
gx(i,j)=I(i+1,j)-I(i-1,j)
gy(i,j)=I(i,j+1)-I(i,j-1)
ΔI(i,j)=gx(i,j)*Δvx(i,j)+gy(i,j)*Δvy(i,j)
ここで、図10に示されるように、Δv(i,j)は、v(i,j)によって表記されるサンプル位置(i,j)に対して計算されるサンプルMVと、サンプル(i,j)が属するサブブロックのサブブロックMVとの差分である。
I'(i,j)=I(i,j)+ΔI(i,j)
PROFを適用するための複数の制約条件のいずれもが満たされていないと決定するために構成される決定ユニット1501と、
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値を取得するために、オプティカルフローを用いた予測洗練化、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニット1503とを備える。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
複数のオプティカルフロー決定条件が満たされていると決定するために構成される決定ユニット1501であって、ここで、複数のオプティカルフロー決定条件はPROFの適用を許容する条件を指す、決定ユニットと、
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニット1503とを備える。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
12 ソースデバイス
13 通信チャネル
14 宛先デバイス
16 ピクチャソース
17 ピクチャデータ
18 プリプロセッサ
19 前処理されたピクチャデータ
20 エンコーダ
21 符号化されたピクチャデータ
22 通信インターフェース
28 通信インターフェース
30 デコーダ
31 復号されたピクチャデータ
32 ポストプロセッサ
33 後処理されたピクチャデータ
34 表示デバイス
40 ビデオコーディングシステム
41 イメージングデバイス
42 アンテナ
43 プロセッサ
44 メモリストア
45 表示デバイス
46 処理回路
201 入力
203 ピクチャブロック
204 残差計算ユニット
205 残差ブロック
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化された係数
210 逆量子化ユニット
211 逆量子化された係数
212 逆変換処理ユニット
213 再構築された残差ブロック
214 再構築ユニット
215 再構築されたブロック
220 ループフィルタユニット
221 フィルタリングされたブロック
230 復号ピクチャバッファ
231 復号されたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット
260 モード選択ユニット
262 区分ユニット
265 予測ブロック
266 シンタックス要素
270 エントロピー符号化ユニット
272 出力
304 エントロピー復号ユニット
309 量子化された係数
310 逆量子化ユニット
311 逆量子化された係数
312 逆変換処理ユニット
313 再構築された残差ブロック
314 再構築ユニット
315 再構築されたブロック
320 ループフィルタ
321 フィルタリングされたブロック
330 復号ピクチャバッファ
331 復号されたピクチャ
332 出力
344 インター予測ユニット
354 イントラ予測ユニット
360 モード適用ユニット
365 予測ブロック
366 シンタックス要素
400 ビデオコーディングデバイス
410 入力ポート
420 受信器ユニット
430 プロセッサ
440 送信器ユニット
450 出力ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 データ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
518 ディスプレイ
900 予測信号ウィンドウ
1500 装置
1501 決定ユニット
1503 予測処理ユニット
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォン/パッド
3110 コンピュータ/ラップトップ
3112 ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)
3114 TV
3116 セットトップボックス(STB)
3118 ビデオ会議システム
3120 ビデオ監視システム
3122 携帯情報端末(PDA)
3124 車載デバイス
3126 ディスプレイ
3202 プロトコル進行ユニット
3204 逆多重化ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 字幕デコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/字幕ディスプレイ
アフィンコーディングされたブロックの現在のサブブロック(各サブブロックなど)の洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップを含んでもよく、PROFを適用するための複数の制約条件は、アフィンコーディングされたブロックに対して満たされず、または満足されず、
アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行するステップ、ならびに現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの予測サンプル値に基づいて、現在のサンプルの洗練化された予測サンプル値を取得するステップ(現在のサブブロックのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行するステップ、ならびに現在のサブブロックのデルタ予測値および現在のサブブロックの予測サンプル値に基づいて現在のサブブロックの洗練化された予測サンプル値を取得するステップ)を含む。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップを含み、複数のオプティカルフロー決定条件がアフィンコーディングされたブロックに対して満たされ、ここで、複数のオプティカルフロー決定条件が満たされることは、PROFを適用するためのすべての制約が満たされてはいないことを意味し、
アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うステップは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行するステップと、現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの(元のまたは洗練化されることになる)予測サンプル値に基づいて、現在のサンプルの洗練化された予測サンプル値を取得するステップとを含む。
PROFを適用するための複数の制約条件がアフィンコーディングされたブロックに対して満たされていないと決定するために構成される決定ユニットと、
アフィンコーディングされたブロックの現在のサブブロック(各サブブロックなど)の洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニットとを含んでもよく、PROFを適用するための複数の制約条件は、アフィンコーディングされたブロックに対して満たされず、または満足されず、
予測処理ユニットは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行すること、ならびに現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの予測サンプル値に基づいて、現在のサンプルの洗練化された予測サンプル値を取得すること(現在のサブブロックのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行すること、ならびに現在のサブブロックのデルタ予測値および現在のサブブロックの予測サンプル値に基づいて現在のサブブロックの洗練化された予測サンプル値を取得すること)のために構成される。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
複数のオプティカルフロー決定条件がアフィンコーディングされたブロックに対して満たされていると決定するために構成される決定ユニットであって、ここで、複数のオプティカルフロー決定条件が満たされていることは、PROFを適用するためのすべての制約が満たされていないことを意味する、決定ユニットと、
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値(すなわち、最終的な予測サンプル値)を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニットとを備えてもよく、複数のオプティカルフロー決定条件はアフィンコーディングされたブロックに対して満たされており、予測処理ユニットは、現在のサブブロックの現在のサンプルのデルタ予測値を取得するために現在のサブブロックに対するオプティカルフロー処理を実行すること、ならびに、現在のサンプルのデルタ予測値および現在のサブブロックの現在のサンプルの(元のまたは洗練化されることになる)予測サンプル値に基づいて現在のサンプルの洗練化された予測サンプル値を取得することのために構成される。
インター予測モードのセット(またはあり得るインター予測モード)は、利用可能な参照ピクチャ(すなわち、たとえばDPB230に記憶されている、以前の少なくとも部分的に復号されたピクチャ)、および他のインター予測パラメータ、たとえば、最良の一致する参照ブロックを探すために、参照ピクチャの全体が使用されるか、もしくは参照ピクチャの一部、たとえば現在のブロックのエリアの周りの探索ウィンドウエリアだけが使用されるか、ならびに/または、たとえばピクセル補間が適用されるかどうか、たとえば、2分の1/セミペルおよび/もしくは4分の1ペル補間が適用されるかどうかに依存する。
{vA2,vB1},{vA2,vB0},{vB2,vB1},{vB2,vB0},{vB3,vB1},{vB3,vB0} (11A)
ここで、vA2はA2の動きベクトルを表し、vB1はB1の動きベクトルを表し、vB0はB0の動きベクトルを表し、vB2はB2の動きベクトルを表し、vB3はB3の動きベクトルを表す。
{vA2,vB1,vA0},{vA2,vB0,vA0},{vB2,vB1,vA0},{vB2,vB0,vA0},{vB3,vB1,vA0},{vB3,vB0,vA0} (11B)
{vA2,vB1,vA1},{vA2,vB0,vA1},{vB2,vB1,vA1},{vB2,vB0,vA1},{vB3,vB1,vA1},{vB3,vB0,vA1} (11C)
ここで、vA2はA2の動きベクトルを表し、vB1はB1の動きベクトルを表し、vB0はB0の動きベクトルを表し、vB2はB2の動きベクトルを表し、vB3はB3の動きベクトルを表し、vA0はA0の動きベクトルを表し、vA1はA1の動きベクトルを表す。
エンコーダ側において、レートひずみ基準RDOに基づいて、単予測が現在のアフィンピクチャブロックのために使用されることが決定される。
S1202. 第1の予測行列に基づいて第2の予測行列を取得または生成し、サブブロック(たとえば、各サブブロック)の第1の予測行列(たとえば、第1の予測信号I(i,j)または4×4予測)は現在のサブブロックの予測サンプル値に対応する。図9Aに示されるように、アフィンコーディングされたブロックの現在のサブブロックに対するサブブロックベースのアフィン動き補償が、アフィンコーディングされたブロックの現在のサブブロックの予測サンプル値を取得するために実行される。
S1203. 第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を計算し、第2の予測行列のサイズは第1の予測行列のサイズ以上であり、第2の予測行列のサイズは水平予測勾配行列および垂直予測勾配行列のサイズ以上である。
PROFを適用するための複数の制約条件のいずれもが満たされていないと決定するために構成される決定ユニット1501と、
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値を取得するために、オプティカルフローを用いた予測洗練化、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニット1503とを備える。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
複数のオプティカルフロー決定条件が満たされていると決定するために構成される決定ユニット1501であって、ここで、複数のオプティカルフロー決定条件はPROFの適用を許容する条件を指す、決定ユニットと、
アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値を取得するために、アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行うために構成される予測処理ユニット1503とを備える。アフィンコーディングされたブロックの各サブブロックの洗練化された予測サンプル値が生成されるとき、アフィンコーディングされたブロックの洗練化された予測サンプル値が自然に生成されることが理解され得る。
Claims (22)
- アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化(PROF)のための方法であって、
前記アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値を取得するために、前記アフィンコーディングされたブロックの前記現在のサブブロックに対するPROFプロセスを行うステップを含み、PROFを適用するための複数の制約条件は、前記アフィンコーディングされたブロックに対して満たされておらず、
前記アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行う前記ステップは、
前記現在のサブブロックの現在のサンプルのデルタ予測値を取得するために前記現在のサブブロックに対するオプティカルフロー処理を行うステップと、
前記現在のサンプルの前記デルタ予測値および前記現在のサブブロックの前記現在のサンプルの予測サンプル値に基づいて、前記現在のサンプルの洗練化された予測サンプル値を取得するステップと
を含む、方法。 - 前記アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行う前記ステップの前に、
PROFを適用するための前記複数の制約条件が前記アフィンコーディングされたブロックに対して満たされていないと決定するステップをさらに含む、請求項1に記載の方法。 - PROFを適用するための前記複数の制約条件は、
PROFが前記アフィンコーディングされたブロックを含むピクチャに対して無効であることを第1の指示情報が示すこと、または、前記PROFが前記アフィンコーディングされたブロックを含むピクチャに関連付けられるスライスに対して無効であることを第1の指示情報が示すこと、および、
前記アフィンコーディングされたブロックの区分なしを第2の指示情報が示すことを含む、請求項1または2に記載の方法。 - PROFを適用するための前記複数の制約条件のうちの1つは、変数fallbackModeTriggeredが1に設定されることである、請求項1または2に記載の方法。
- 前記現在のサブブロックの現在のサンプルのデルタ予測値を取得するために前記現在のサブブロックに対するオプティカルフロー処理を行う前記ステップは、
第2の予測行列を取得するステップであって、前記第2の予測行列は、前記現在のサブブロックの動き情報に基づいて生成される、ステップと、
前記第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を生成するステップであって、前記水平予測勾配行列および前記垂直予測勾配行列は同じサイズを有し、前記第2の予測行列のサイズは前記水平予測勾配行列および前記垂直予測勾配行列の前記サイズ以上である、ステップと、
前記水平予測勾配行列の中の前記現在のサンプルの水平予測勾配値、前記垂直予測勾配行列の中の前記現在のサンプルの垂直予測勾配値、および前記現在のサブブロックの前記現在のサンプルの動きベクトルと前記サブブロックの中心のサンプルの動きベクトルとの差分に基づいて、前記現在のサブブロックの前記現在のサンプルのデルタ予測値を計算するステップとを含む、請求項1から4のいずれか一項に記載の方法。 - 第2の予測行列を取得する前記ステップは、
前記現在のサブブロックの動き情報に基づいて第1の予測行列を生成するステップであって、前記第1の予測行列の要素は前記現在のサブブロックの予測サンプル値に対応する、ステップ、および前記第1の予測行列に基づいて前記第2の予測行列を生成するステップ、または、
前記現在のサブブロックの前記動き情報に基づいて前記第2の予測行列を生成するステップを含む、請求項5に記載の方法。 - 前記第2の予測行列の要素はI1(p,q)によって表され、pの値の範囲は[-1,sbW]であり、qの値の範囲は[-1,sbH]であり、
前記水平予測勾配行列の要素は、X(i,j)によって表され、前記アフィンコーディングされたブロックの中の前記現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
前記垂直予測勾配行列の要素は、Y(i,j)によって表され、前記アフィンコーディングされたブロックの中の前記現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
sbWは前記アフィンコーディングされたブロックの中の前記現在のサブブロックの幅を表し、sbHは前記アフィンコーディングされたブロックの中の前記現在のサブブロックの高さを表す、請求項5または6に記載の方法。 - 前記アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行う前記ステップの前に、
前記現在のサブブロックの予測サンプル値を取得するために、前記アフィンコーディングされたブロックの前記現在のサブブロックに対するサブブロックベースのアフィン動き補償を行うステップをさらに含む、請求項1から7のいずれか一項に記載の方法。 - アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化(PROF)のための方法であって、
前記アフィンコーディングされたブロックの現在のサブブロックの洗練化された予測サンプル値を取得するために、前記アフィンコーディングされたブロックの前記現在のサブブロックに対するPROFプロセスを行うステップを含み、複数のオプティカルフロー決定条件は、前記アフィンコーディングされたブロックに対して満たされており、
前記アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行う前記ステップは、
前記現在のサブブロックの現在のサンプルのデルタ予測値を取得するために前記現在のサブブロックに対するオプティカルフロー処理を行うステップと、
前記現在のサンプルの前記デルタ予測値および前記現在のサブブロックの前記現在のサンプルの予測サンプル値に基づいて、前記現在のサンプルの洗練化された予測サンプル値を取得するステップと
を含む、方法。 - 前記アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行う前記ステップの前に、
前記複数のオプティカルフロー決定条件が前記アフィンコーディングされたブロックに対して満たされていると決定するステップをさらに含む、請求項9に記載の方法。 - 前記複数のオプティカルフロー決定条件は、
PROFが前記アフィンコーディングされたブロックを含むピクチャに対して有効であることを第1の指示情報が示すこと、または、PROFが前記アフィンコーディングされたブロックを含むピクチャに関連付けられるスライスに対して有効であることを第1の指示情報が示すこと、および、
前記アフィンコーディングされたブロックに区分が適用されることを第2の指示情報が示すことを含む、請求項9または10に記載の方法。 - 前記複数のオプティカルフロー決定条件のうちの1つは、変数fallbackModeTriggeredが0に設定されることである、請求項9または10に記載の方法。
- 前記現在のサブブロックの現在のサンプルのデルタ予測値を取得するために前記現在のサブブロックに対するオプティカルフロー処理を行う前記ステップは、
第2の予測行列を取得するステップであって、前記第2の予測行列は、前記現在のサブブロックの動き情報に基づいて生成される、ステップと、
前記第2の予測行列に基づいて水平予測勾配行列および垂直予測勾配行列を生成するステップであって、前記水平予測勾配行列および前記垂直予測勾配行列は同じサイズを有し、前記第2の予測行列のサイズは前記水平予測勾配行列および前記垂直予測勾配行列の前記サイズ以上である、ステップと、
前記水平予測勾配行列の中の前記現在のサンプルの水平予測勾配値、前記垂直予測勾配行列の中の前記現在のサンプルの垂直予測勾配値、および前記現在のサブブロックの前記現在のサンプルの動きベクトルと前記サブブロックの中心のサンプルの動きベクトルとの差分に基づいて、前記現在のサブブロックの前記現在のサンプルのデルタ予測値を計算するステップとを含む、請求項9から12のいずれか一項に記載の方法。 - 第2の予測行列を取得する前記ステップは、
前記現在のサブブロックの動き情報に基づいて第1の予測行列を生成するステップであって、前記第1の予測行列の要素は前記現在のサブブロックの予測サンプル値に対応する、ステップ、および前記第1の予測行列に基づいて前記第2の予測行列を生成するステップ、または、
前記現在のサブブロックの前記動き情報に基づいて前記第2の予測行列を生成するステップを含む、請求項13に記載の方法。 - 前記第2の予測行列の要素はI1(p,q)によって表され、pの値の範囲は[-1,sbW]であり、qの値の範囲は[-1,sbH]であり、
前記水平予測勾配行列の要素は、X(i,j)によって表され、前記アフィンコーディングされたブロックの中の前記現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
前記垂直予測勾配行列の要素は、Y(i,j)によって表され、前記アフィンコーディングされたブロックの中の前記現在のサブブロックのサンプル(i,j)に対応し、iの値の範囲は[0,sbW-1]であり、jの値の範囲は[0,sbH-1]であり、
sbWは前記アフィンコーディングされたブロックの中の前記現在のサブブロックの幅を表し、sbHは前記アフィンコーディングされたブロックの中の前記現在のサブブロックの高さを表す、請求項13または14に記載の方法。 - 前記アフィンコーディングされたブロックの現在のサブブロックに対するPROFプロセスを行う前記ステップの前に、
前記現在のサブブロックの予測サンプル値を取得するために、前記アフィンコーディングされたブロックの前記現在のサブブロックに対するサブブロックベースのアフィン動き補償を行うステップをさらに含む、請求項9から15のいずれか一項に記載の方法。 - 請求項1から16のいずれか一項に記載の方法を行うための処理回路を備える、エンコーダ(20)。
- 請求項1から16のいずれか一項に記載の方法を行うための処理回路を備える、デコーダ(30)。
- 請求項1から16のいずれか一項に記載の方法を行うためのプログラムコードを含む、コンピュータプログラム製品。
- デコーダであって、
1つまたは複数のプロセッサと、
前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶する、非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングは、前記プロセッサによって実行されると、請求項1から16のいずれか一項に記載の方法を行うように前記デコーダを構成する、デコーダ。 - エンコーダであって、
1つまたは複数のプロセッサと、
前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶する、非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングは、前記プロセッサによって実行されると、請求項1から16のいずれか一項に記載の方法を行うように前記エンコーダを構成する、エンコーダ。 - コンピュータデバイスによって実行されると、前記コンピュータデバイスに請求項1から16のいずれか一項に記載の方法を行わせるプログラムコードを担持する、非一時的コンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023199242A JP2024019406A (ja) | 2019-03-20 | 2023-11-24 | アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962821440P | 2019-03-20 | 2019-03-20 | |
US62/821,440 | 2019-03-20 | ||
US201962839765P | 2019-04-28 | 2019-04-28 | |
US62/839,765 | 2019-04-28 | ||
PCT/CN2020/080412 WO2020187316A1 (en) | 2019-03-20 | 2020-03-20 | Method and apparatus for prediction refinement with optical flow for an affine coded block |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023199242A Division JP2024019406A (ja) | 2019-03-20 | 2023-11-24 | アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022527701A true JP2022527701A (ja) | 2022-06-03 |
Family
ID=72519643
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556816A Pending JP2022527701A (ja) | 2019-03-20 | 2020-03-20 | アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 |
JP2023199242A Pending JP2024019406A (ja) | 2019-03-20 | 2023-11-24 | アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023199242A Pending JP2024019406A (ja) | 2019-03-20 | 2023-11-24 | アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 |
Country Status (7)
Country | Link |
---|---|
EP (2) | EP3932054B1 (ja) |
JP (2) | JP2022527701A (ja) |
KR (1) | KR20210134400A (ja) |
CN (1) | CN113615173A (ja) |
BR (1) | BR112021018644A2 (ja) |
MX (1) | MX2021011370A (ja) |
WO (1) | WO2020187316A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022257954A1 (en) * | 2021-06-10 | 2022-12-15 | Beijing Bytedance Network Technology Co., Ltd. | Method, device, and medium for video processing |
CN113793259B (zh) * | 2021-11-15 | 2022-02-15 | 深圳思谋信息科技有限公司 | 图像变焦方法、计算机设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104717501A (zh) * | 2012-09-28 | 2015-06-17 | 英特尔公司 | 层间像素样本预测 |
CN108293113B (zh) * | 2015-10-22 | 2022-01-21 | Lg电子株式会社 | 图像编码系统中的基于建模的图像解码方法和设备 |
CN105847804B (zh) * | 2016-05-18 | 2017-12-15 | 信阳师范学院 | 一种基于稀疏冗余表示模型的视频帧率上转换方法 |
CN110115032B (zh) * | 2016-12-22 | 2021-07-20 | 联发科技股份有限公司 | 用于视频编解码的运动细化的方法以及装置 |
CN117478884A (zh) * | 2017-07-03 | 2024-01-30 | Vid拓展公司 | 用于视频编解码的设备、方法 |
-
2020
- 2020-03-20 KR KR1020217033210A patent/KR20210134400A/ko unknown
- 2020-03-20 EP EP20774646.2A patent/EP3932054B1/en active Active
- 2020-03-20 CN CN202080023321.7A patent/CN113615173A/zh active Pending
- 2020-03-20 EP EP24155675.2A patent/EP4344205A3/en active Pending
- 2020-03-20 MX MX2021011370A patent/MX2021011370A/es unknown
- 2020-03-20 BR BR112021018644A patent/BR112021018644A2/pt unknown
- 2020-03-20 WO PCT/CN2020/080412 patent/WO2020187316A1/en unknown
- 2020-03-20 JP JP2021556816A patent/JP2022527701A/ja active Pending
-
2023
- 2023-11-24 JP JP2023199242A patent/JP2024019406A/ja active Pending
Non-Patent Citations (1)
Title |
---|
JIANCONG (DANIEL) LUO ET AL., CE2-RELATED: PREDICTION REFINEMENT WITH OPTICAL FLOW FOR AFFINE MODE, JPN6023000902, 19 March 2019 (2019-03-19), ISSN: 0004963932 * |
Also Published As
Publication number | Publication date |
---|---|
US20220078442A1 (en) | 2022-03-10 |
EP4344205A3 (en) | 2024-05-22 |
EP3932054A4 (en) | 2022-07-13 |
WO2020187316A1 (en) | 2020-09-24 |
EP3932054B1 (en) | 2024-04-24 |
KR20210134400A (ko) | 2021-11-09 |
EP4344205A2 (en) | 2024-03-27 |
BR112021018644A2 (pt) | 2021-11-23 |
EP3932054A1 (en) | 2022-01-05 |
JP2024019406A (ja) | 2024-02-09 |
MX2021011370A (es) | 2021-11-12 |
CN113615173A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7106744B2 (ja) | ルーマおよびクロマ成分についてibc専用バッファおよびデフォルト値リフレッシュを使用するエンコーダ、デコーダおよび対応する方法 | |
US20220078484A1 (en) | Method and apparatus of cross-component prediction | |
JP2023162214A (ja) | コーディングブロックの三角形パーティションのインター予測のための装置および方法 | |
KR20210072064A (ko) | 인터 예측 방법 및 장치 | |
JP7332703B2 (ja) | クロマサブブロックのアフィンベースのインター予測のための方法及び装置 | |
KR102622148B1 (ko) | 병합 모드를 위한 인코더, 디코더 및 대응 방법 | |
JP7164710B2 (ja) | ビデオ復号化方法及びビデオ・デコーダ | |
KR20210141712A (ko) | Ibc 병합 리스트를 사용하는 인코더, 디코더 및 대응 방법들 | |
US11876997B2 (en) | Encoder, decoder and corresponding methods of most probable mode list construction for blocks with multi-hypothesis prediction | |
JP2022524357A (ja) | エンコーダ、デコーダ、及び対応するインター予測方法 | |
JP7314300B2 (ja) | イントラ予測のための方法および装置 | |
JP2022511850A (ja) | エンコーダ、デコーダ、及びデブロッキングフィルタの境界強度導出の対応する方法 | |
JP7469475B2 (ja) | 交差成分線形モデル予測のためのフィルタリングの方法及び装置 | |
US11601680B2 (en) | Encoder, a decoder and corresponding methods for tile configuration signaling | |
US11889109B2 (en) | Optical flow based video inter prediction | |
JP2024019406A (ja) | アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置 | |
US12003733B2 (en) | Method and apparatus for prediction refinement with optical flow for an affine coded block |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230724 |