JP2022500930A - ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 - Google Patents
ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 Download PDFInfo
- Publication number
- JP2022500930A JP2022500930A JP2021514368A JP2021514368A JP2022500930A JP 2022500930 A JP2022500930 A JP 2022500930A JP 2021514368 A JP2021514368 A JP 2021514368A JP 2021514368 A JP2021514368 A JP 2021514368A JP 2022500930 A JP2022500930 A JP 2022500930A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- block
- motion vector
- current
- temporal distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 443
- 239000013598 vector Substances 0.000 title claims abstract description 318
- 238000000034 method Methods 0.000 title claims abstract description 292
- 230000002123 temporal effect Effects 0.000 claims abstract description 219
- 238000012545 processing Methods 0.000 claims description 48
- 230000002146 bilateral effect Effects 0.000 description 32
- 238000003860 storage Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 21
- 238000013139 quantization Methods 0.000 description 18
- 239000000523 sample Substances 0.000 description 18
- 230000009466 transformation Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 14
- 230000002457 bidirectional effect Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 9
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 241000023320 Luma <angiosperm> Species 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 238000009795 derivation Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 1
- 101150095908 apex1 gene Proteins 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000748 compression moulding Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
この特許出願は、2018年9月13日に出願されたインド仮特許出願第IN201831034607号の優先権を主張する。前述の特許出願は、その全体が参照によりここに組み込まれる。
現在のピクチャが時間的に(時間に関して)第1の参照ピクチャ(RefPic0など)と第2の参照ピクチャ(RefPic1など)の間にあるかどうか、および第1の時間的距離(TD0など)と第2の時間的距離(TD1など)が同じ距離であるかどうかを決定するステップであって、第1の時間的距離(TD0)は、現在のピクチャと第1の参照ピクチャ(RefPic0)の間であり、第2の時間的距離(TD1)は、現在のピクチャと第2の参照ピクチャ(RefPic1)の間である、ステップと、第1の精緻化された参照ブロックの位置と第2の精緻化された参照ブロックの位置を取得するために動きベクトル精緻化(DMVR)手順を実行し、現在のピクチャが時間的に第1の参照ピクチャ(RefPic0など)と第2の参照ピクチャ(RefPic1など)の間にあること、および第1の時間的距離(TD0)と第2の時間的距離(TD1)が同じ距離であることが決定されたときに、第1の精緻化された参照ブロックの位置および第2の精緻化された参照ブロックの位置に基づいて現在の画像ブロックの予測ブロック(予測されたサンプル値)を決定するステップとを含む。
|TD0|==|TD1|
および
TD0*TD1<0
であることを含む。
双方向を示す各マージ候補について、TD0およびTD1を、現在のピクチャからL0およびL1参照ピクチャの時間的距離として計算する。TD0およびTD1は、ピクチャ順序カウント(POC)を使用することによって計算され得る。たとえば、
TD0=POCc-POC0
TD1=POCc-POC1
である。ここで、POCc、POC0、およびPOC1は、それぞれ、現在のピクチャのPOC、第1の参照ピクチャのPOC、および第2の参照ピクチャのPOCを表現する。
第1の初期動きベクトルに基づいて第1の参照ピクチャ内の第1の初期参照ブロックを決定するステップと、
第2の初期動きベクトルに基づいて第2の参照ピクチャ内の第2の初期参照ブロックを決定するステップと、
第1の初期参照ブロックおよび第2の初期参照ブロックに基づいてバイラテラル参照ブロックを生成するステップであって、たとえば、バイラテラル参照ブロックは、バイラテラルテンプレートと称されてよく、テンプレートは、画像予測ブロックの形状およびサイズを有する、ステップと、
バイラテラル参照ブロックと第1の参照ピクチャ内の複数の第1の参照ブロックの各々との間のコストを比較して、第1の精緻化された参照ブロックまたは第1の精緻化された動きベクトルの位置を決定するステップと、
バイラテラル参照ブロックと第2の参照ピクチャ内の複数の第2の参照ブロックの各々との間のコストを比較して、第2の精緻化された参照ブロックまたは第2の精緻化された動きベクトルの位置を決定するステップとを含む。
第1の参照ピクチャ(RefPic0など)内の第1の初期動きベクトルによって指し示される第1の初期参照ブロックと、第2の参照ピクチャ(RefPic1など)内の第2の初期動きベクトルによって指し示される第2の初期参照ブロックとに基づいて現在の画像ブロックに対するテンプレートを取得するステップと、
第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを、それぞれ第1の探索空間および第2の探索空間内の前記テンプレートとのテンプレートマッチングによって決定するステップであって、第1の探索空間は第1の初期動きベクトルによって与えられる位置を含み、第2の探索空間は第2の初期動きベクトルによって与えられる位置を含む、ステップとを含む。
マッチングコスト基準に基づいて(たとえば、参照ブロックの各対のマッチングコストに基づいて)参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するステップであって、参照ブロックの前記対は、第1の参照ピクチャの、第1の初期動きベクトルに基づいて決定されるサンプル領域内の第1の参照ブロックと、第2の参照ピクチャの、第2の初期動きベクトルに基づいて決定されるサンプル領域内の第2の参照ブロックとを含み、
最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む、ステップを含む。
第1の初期動きベクトル、第2の初期動きベクトル、および現在の画像ブロックの位置に基づいてN個の第1の参照ブロックの位置と、N個の第2の参照ブロックの位置とを決定するステップであって、N個の第1の参照ブロックは、第1の参照画像内に含まれ、N個の第2の参照ブロックは、第2の参照画像内に含まれ、Nは、1より大きい整数である、ステップと、
マッチングコスト基準に基づいて、参照ブロックのM個の対の位置から参照ブロックの対の位置を、第1の精緻化された参照ブロックの位置および第2の精緻化された参照ブロックの位置として決定するステップであって、参照ブロックの各対の位置は、第1の参照ブロックの位置と第2の参照ブロックの位置とを含み、参照ブロックの各対について、第1の位置オフセット(delta0x, delta0y)および第2の位置オフセット(delta1x, delta1y)はミラーリングされ、第1の位置オフセット(delta0x, delta0y)は、第1の初期参照ブロックの位置に対する第1の参照ブロックの位置のオフセットを表現し、第2の位置オフセット(delta1x, delta1y)は、第2の初期参照ブロックの位置に対する第2の参照ブロックの位置のオフセットを表現し、Mは1以上の整数であり、MはN以下である、ステップとを含む。
第1の精緻化された参照ブロックおよび第2の精緻化された参照ブロックに基づいて予測ブロックを決定するステップであって、第1の精緻化された参照ブロックは、第1の精緻化された参照ブロックの位置に基づいて第1の参照ピクチャ内で決定され、第2の精緻化された参照ブロックは、第2の精緻化された参照ブロックの位置に基づいて第2の参照ピクチャ内で決定される、ステップ、または
第1の精緻化された参照ブロックおよび第2の精緻化された参照ブロックに基づいて予測ブロックを決定するステップであって、第1の精緻化された参照ブロックおよび第2の精緻化された参照ブロックは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを使用して動き補償を実行することによって決定される、ステップを含む。
第1の参照ピクチャは過去の参照画像であり、第2の参照ピクチャは未来の参照画像であるか、または第1の参照ピクチャは未来の参照画像であり、第2の参照ピクチャは過去の参照画像である。
言い換えると、現在のピクチャの前のピクチャは第1の参照ピクチャであり、現在のピクチャの次の画像は第2の参照ピクチャであるか、または現在のピクチャの前のピクチャは第2の参照ピクチャであり、現在のピクチャの次の画像は第1の参照ピクチャである。
第1の時間的距離(TD0)は、現在のピクチャのピクチャ順序カウント値(POCc)と第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、第2の時間的距離(TD1)は、現在のピクチャのピクチャ順序カウント値(POCc)と第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される。
現在のピクチャのピクチャ順序カウント値(POCc)が、第1の参照画像のピクチャ順序カウント値(POC0)よりも大きく、現在のピクチャのピクチャ順序カウント値(POCc)が、第2の参照画像のピクチャ順序カウント値(POC1)よりも小さいかどうか、または現在のピクチャのピクチャ順序カウント値(POCc)が、第1の参照画像のピクチャ順序カウント値(POC0)よりも小さく、現在のピクチャのピクチャ順序カウント値(POCc)が、第2の参照画像のピクチャ順序カウント値(POC1)よりも大きいかどうかを決定するステップを含む。
第1の時間的距離(TD0)は、現在のピクチャのピクチャ順序カウント値(POCc)と第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、第2の時間的距離(TD1)は、現在のピクチャのピクチャ順序カウント値(POCc)と第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される。
第1の時間的距離(TD0など)が、第2の時間的距離(TD1など)に等しいかどうかを決定するステップであって、第1の時間的距離(TD0)は、現在のピクチャのピクチャ順序カウント値(POCc)と第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、第2の時間的距離(TD1)は、第2の参照画像のピクチャ順序カウント値(POC1)と現在のピクチャのピクチャ順序カウント値(POCc)の間の差に関して表現される、ステップと、第1の時間的距離(TD0)が第2の時間的距離(TD1)に等しいと決定されたときに、現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するステップとを含む。
第1の時間的距離(TD0など)が、第2の時間的距離(TD1など)に等しいかどうかを決定するステップであって、第1の時間的距離(TD0)は、現在のピクチャのピクチャ順序カウント値(POCc)と第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、第2の時間的距離(TD1)は、第2の参照画像のピクチャ順序カウント値(POC1)と現在のピクチャのピクチャ順序カウント値(POCc)の間の差に関して表現される、ステップと、
第1の時間的距離(TD0)が第2の時間的距離(TD1)に等しくないと決定されたときに、動きベクトル精緻化(DMVR)手順を実行しない(または動きベクトル精緻化(DMVR)手順を無効化する)ステップとを含む。
TD0=POCc-POC0
TD1=POC1-POCc
である。ここで、POCc、POC0、およびPOC1は、それぞれ、現在のピクチャのPOC、第1の参照ピクチャのPOC、および第2の参照ピクチャのPOCを表現する。
第1の参照ピクチャは過去の参照画像であり、第2の参照ピクチャは未来の参照画像であるか、または第1の参照ピクチャは未来の参照画像であり、第2の参照ピクチャは過去の参照画像である。
言い換えると、現在のピクチャの前のピクチャは第1の参照ピクチャであり、現在のピクチャの次の画像は第2の参照ピクチャであるか、または現在のピクチャの前のピクチャは第2の参照ピクチャであり、現在のピクチャの次の画像は第1の参照ピクチャである。
上記の方法に従ってビデオの現在のピクチャ内の現在の画像ブロックのインター予測を実行して現在の画像ブロックの予測ブロックを取得するステップと、
現在の画像ブロックと予測ブロックの間の差(たとえば、残差または残差ブロック)を符号化し、符号化された差および初期動き情報を示すためのインデックス(マージ候補インデックスなど)を含むビットストリームを生成するステップであって、初期動き情報は、第1の初期動きベクトルおよび第2の初期動きベクトルを含む、ステップとを含む。
ビットストリームから初期動き情報を示すためのインデックス(マージ候補インデックスなど)および現在の画像ブロックと現在の画像ブロックの予測ブロックの間の符号化された差(たとえば、残差または残差ブロック)を解析するステップであって、初期動き情報は、第1の初期動きベクトルおよび第2の初期動きベクトルを含む、ステップと、
上記で前に説明された方法に従ってビデオの現在のピクチャ内の現在の画像ブロックのインター予測を実行して現在の画像ブロックの予測ブロックを取得するステップと、
現在の画像ブロックを、解析された差と予測ブロックの和として再構築するステップとを含む。
上記の方法が有効化されるか、されないかを示すシンタックス要素の値を決定するステップと、
シンタックス要素を含むビットストリームを生成するステップとを含む。
第1のフラグ(sps_conditional_dmvr_flag)が0に等しいならば、上記で前に説明された方法は、シーケンスの画像ブロックに対して実行されないか、
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が0に等しいならば、上記で前に説明された方法は、シーケンスのピクチャの画像ブロックに対して実行されないか、または
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が1に等しいならば、上記で前に説明された方法は、シーケンスのピクチャの画像ブロックに対して実行される。
ビットストリームから、上記で前に説明された方法が有効化されるか、されないかを示すシンタックス要素を解析するステップと、
上記の方法が有効化されるか、されないかを示すシンタックス要素に従ってデコーダ側動きベクトル精緻化(DMVR)手順を適応的に有効化または無効化するステップとを含む。
第1のフラグ(sps_conditional_dmvr_flag)が0に等しいならば、上記で前に説明された方法は、シーケンスの画像ブロックに対して実行されないか、
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が0に等しいならば、上記で前に説明された方法は、シーケンスのピクチャの画像ブロックに対して実行されないか、または
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が1に等しいならば、上記で前に説明された方法は、シーケンスのピクチャの画像ブロックに対して実行される。
命令を記憶するメモリと、
メモリに結合されたプロセッサであって、プロセッサはメモリに記憶された命令を実行して前に表された方法をプロセッサに実行させるように構成された、プロセッサとを含む。
現在のピクチャが時間的に第1の参照ピクチャ(RefPic0など)と第2の参照ピクチャ(RefPic1など)の間にあるかどうか、および第1の時間的距離(TD0など)と第2の時間的距離(TD1など)が同じ距離であるかどうかを決定するように構成された決定ユニットであって、第1の時間的距離(TD0)は、現在のピクチャと第1の参照ピクチャ(RefPic0)の間であり、第2の時間的距離(TD1)は、現在のピクチャと第2の参照ピクチャ(RefPic1)の間である、決定ユニットと、
第1の精緻化された参照ブロックの位置と第2の精緻化された参照ブロックの位置とを取得するために、動きベクトル精緻化(DMVR)手順を実行して、現在のピクチャが時間的に第1の参照ピクチャ(RefPic0など)と第2の参照ピクチャ(RefPic1など)の間にあること、および第1の時間的距離(TD0)と第2の時間的距離(TD1)が同じ距離であることが決定されたときに、第1の精緻化された参照ブロックの位置と第2の精緻化された参照ブロックの位置とに基づいて現在の画像ブロックの予測ブロックを決定するように構成されたインター予測処理ユニットとを含む。
|TD0|==|TD1|
および
TD0*TD1<0
を通じて、現在のピクチャが時間的に第1の参照ピクチャ(RefPic0など)と第2の参照ピクチャ(RefPic1など)の間にあるかどうか、および第1の時間的距離(TD0など)と第2の時間的距離(TD1など)が同じ距離であるかどうかを決定するように構成される。
双方向を示す各マージ候補について、TD0およびTD1を、現在のピクチャからL0およびL1参照ピクチャの時間的距離として計算する。TD0およびTD1は、ピクチャ順序カウント(POC)を使用することによって計算され得る。たとえば、
TD0=POCc-POC0
TD1=POCc-POC1
である。ここで、POCc、POC0、およびPOC1は、それぞれ、現在のピクチャのPOC、第1の参照ピクチャのPOC、および第2の参照ピクチャのPOCを表現する。
現在のピクチャ内の現在の画像ブロックの初期動き情報を取得するようにさらに構成され、初期動き情報は、第1の初期動きベクトル、第1の参照インデックス、第2の初期動きベクトル、および第2の参照インデックスを含み、第1の参照インデックスは、第1の参照ピクチャを示し、第2の参照インデックスは、第2の参照ピクチャを示す。
第1の初期動きベクトルに基づいて第1の参照ピクチャ内の第1の初期参照ブロックを決定し、
第2の初期動きベクトルに基づいて第2の参照ピクチャ内の第2の初期参照ブロックを決定し、
第1の初期参照ブロックおよび第2の初期参照ブロックに基づいてバイラテラル参照ブロックを生成し、
バイラテラル参照ブロックと第1の参照ピクチャ内の複数の第1の参照ブロックの各々との間のコストを比較して、第1の精緻化された参照ブロックまたは第1の精緻化された動きベクトルの位置を決定し、
バイラテラル参照ブロックと第2の参照ピクチャ内の複数の第2の参照ブロックの各々との間のコストを比較して、第2の精緻化された参照ブロックまたは第2の精緻化された動きベクトルの位置を決定するように構成される。
第1の参照ピクチャ(RefPic0など)内の第1の初期動きベクトルによって指し示される第1の初期参照ブロックと、第2の参照ピクチャ(RefPic1など)内の第2の初期動きベクトルによって指し示される第2の初期参照ブロックとに基づいて現在の画像ブロックに対するテンプレートを取得し、
第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを、それぞれ第1の探索空間および第2の探索空間内の前記テンプレートとのテンプレートマッチングによって決定するように構成され、第1の探索空間は第1の初期動きベクトルによって与えられる位置に位置特定され、第2の探索空間は第2の初期動きベクトルによって与えられる位置に位置特定される。
マッチングコスト基準に基づいて(たとえば、参照ブロックの各対のマッチングコストに基づいて)参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するように構成され、参照ブロックの前記対は、第1の参照ピクチャの、第1の初期動きベクトルに基づいて決定されるサンプル領域内の第1の参照ブロックと、第2の参照ピクチャの、第2の初期動きベクトルに基づいて決定されるサンプル領域内の第2の参照ブロックとを含み、
最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む。
第1の初期動きベクトル、第2の初期動きベクトル、および現在の画像ブロックの位置に基づいてN個の第1の参照ブロックの位置と、N個の第2の参照ブロックの位置とを決定するように構成され、N個の第1の参照ブロックは、第1の参照画像内に含まれ、N個の第2の参照ブロックは、第2の参照画像内に含まれ、Nは1より大きい整数であり、
インター予測処理ユニットは、具体的には、マッチングコスト基準に基づいて、参照ブロックのM個の対の位置から参照ブロックの対の位置を、第1の精緻化された参照ブロックの位置および第2の精緻化された参照ブロックの位置として決定するように構成され、参照ブロックの各対の位置は、第1の参照ブロックの位置と第2の参照ブロックの位置とを含み、参照ブロックの各対について、第1の位置オフセット(delta0x, delta0y)および第2の位置オフセット(delta1x, delta1y)はミラーリングされ、第1の位置オフセット(delta0x, delta0y)は、第1の初期参照ブロックの位置に対する第1の参照ブロックの位置のオフセットを表現し、第2の位置オフセット(delta1x, delta1y)は、第2の初期参照ブロックの位置に対する第2の参照ブロックの位置のオフセットを表現し、Mは1以上の整数であり、MはN以下である。
第1の精緻化された参照ブロックおよび第2の精緻化された参照ブロックに基づいて予測ブロックを決定するように構成され、第1の精緻化された参照ブロックは、第1の精緻化された参照ブロックの位置に基づいて第1の参照ピクチャ内で決定され、第2の精緻化された参照ブロックは、第2の精緻化された参照ブロックの位置に基づいて第2の参照ピクチャ内で決定されるか、または
インター予測処理ユニットは、具体的には、第1の精緻化された参照ブロックおよび第2の精緻化された参照ブロックに基づいて予測ブロックを決定するように構成され、第1の精緻化された参照ブロックおよび第2の精緻化された参照ブロックは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを使用して動き補償を実行することによって決定される。
第1の参照ピクチャは過去の参照画像であり、第2の参照ピクチャは未来の参照画像であるか、または第1の参照ピクチャは未来の参照画像であり、第2の参照ピクチャは過去の参照画像である。
第1の時間的距離(TD0)は、現在のピクチャのピクチャ順序カウント値(POCc)と第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、第2の時間的距離(TD1)は、現在のピクチャのピクチャ順序カウント値(POCc)と第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される。
現在のピクチャのピクチャ順序カウント値(POCc)が、第1の参照画像のピクチャ順序カウント値(POC0)よりも大きく、現在のピクチャのピクチャ順序カウント値(POCc)が、第2の参照画像のピクチャ順序カウント値(POC1)よりも小さいかどうか、または現在のピクチャのピクチャ順序カウント値(POCc)が、第1の参照画像のピクチャ順序カウント値(POC0)よりも小さく、現在のピクチャのピクチャ順序カウント値(POCc)が、第2の参照画像のピクチャ順序カウント値(POC1)よりも大きいかどうかを決定するように構成される。
現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを決定するように構成された決定ユニットであって、第1の時間的距離は、現在のピクチャと第1の参照ピクチャの間であり、第2の時間的距離は、現在のピクチャと第2の参照ピクチャの間である、決定ユニットと、
第1の時間的距離と第2の時間的距離が異なる距離であること、または現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にないことが決定されたときに、第1の初期動きベクトルおよび第2の初期動きベクトルを使用して動き補償を実行して現在の画像ブロックの予測ブロックを決定するように構成されたインター予測処理ユニットとを含む。
現在の画像ブロックの予測ブロックを取得するための前に表された装置と、
現在の画像ブロックと現在の画像ブロックの予測ブロックの間の差(残差など)を符号化し、符号化された差および初期動き情報を示すためのインデックス(マージ候補インデックスなど)を含むビットストリームを生成するように構成されたエントロピーコーディングユニットであって、初期動き情報は、第1の初期動きベクトルおよび第2の初期動きベクトルを含む、エントロピーコーディングユニットとを含む。
ビットストリームから、初期動き情報を示すためのインデックスおよび現在の画像ブロックと現在の画像ブロックの予測ブロックの間の符号化された差(残差など)を解析するように構成されたエントロピー復号化ユニットであって、初期動き情報は、第1の初期動きベクトルおよび第2の初期動きベクトルを含む、エントロピー復号化ユニットと、
現在の画像ブロックの予測ブロックを取得するための前に表された装置と、
現在の画像ブロックを、解析された差(残差など)と予測ブロックの和として再構築するように構成された画像再構築ユニットとを含む。
前に表された方法が有効化されるか、されないかを示すシンタックス要素の値を決定し、シンタックス要素を含むビットストリームを生成するように構成された1つまたは複数の処理回路を含む。
第1のフラグ(sps_conditional_dmvr_flag)が0に等しいならば、前に表された方法は、シーケンスの画像ブロックに対して実行されないか、
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が0に等しいならば、前に表された方法は、シーケンスのピクチャの画像ブロックに対して実行されないか、または
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が1に等しいならば、前に表された方法1は、シーケンスのピクチャの画像ブロックに対して実行される。
ビットストリームから、前に表された方法が有効化されるか、されないかを示すためのシンタックス要素を解析し、
シンタックス要素に従ってデコーダ側動きベクトル精緻化(DMVR)手順を適応的に有効化または無効化するように構成された1つまたは複数の処理回路を含む。
第1のフラグ(sps_conditional_dmvr_flag)が0に等しいならば、前に表された方法は、シーケンスの画像ブロックに対して実行されないか、
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が0に等しいならば、前に表された方法は、シーケンスのピクチャの画像ブロックに対して実行されないか、または
第1のフラグ(sps_conditional_dmvr_flag)が1に等しく、第2のフラグ(pps_conditional_dmvr_flag)が1に等しいならば、前に表された方法は、シーケンスのピクチャの画像ブロックに対して実行される。
少なくとも1つの条件が満たされるかどうかを決定するステップであって、少なくとも1つの条件は、第1の時間的距離(TD0など)が、第2の時間的距離(TD1など)に等しいことを含み、第1の時間的距離は、現在のピクチャのピクチャ順序カウント値と第1の参照画像のピクチャ順序カウント値の間の差に関して表現され、第2の時間的距離は、第2の参照画像のピクチャ順序カウント値と現在のピクチャのピクチャ順序カウント値の間の差に関して表現される、ステップと、
少なくとも1つの条件が満たされたときに、現在の画像ブロックの予測ブロックを決定するためにデコーダ側動きベクトル精緻化(DMVR)手順を実行するステップとを含む。
1つまたは複数の条件が満たされたときに、現在の画像ブロックのサブブロックに対する第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを取得するために動きベクトル精緻化(DMVR)手順を実行するステップであって、第1の精緻化された動きベクトルは第1の参照ピクチャに対応し、第2の精緻化された動きベクトルは第2の参照ピクチャに対応する、ステップと、
現在の画像ブロックの予測ブロック(予測されたサンプル値など)を決定するステップであって、現在の画像ブロックの予測ブロックは、サブブロックの予測ブロックを含み、サブブロックの予測ブロックは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルに少なくとも一部基づいて決定される、ステップとを含み、
1つまたは複数の条件は、少なくとも、
第1の時間的距離(TD0など)が、第2の時間的距離(TD1など)に等しいことを含み、第1の時間的距離(TD0)は、現在のピクチャのピクチャ順序カウント値(POCc)と第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、第2の時間的距離(TD1)は、第2の参照ピクチャのピクチャ順序カウント値(POCc)と現在の画像のピクチャ順序カウント値(POC1)の間の差に関して表現される。
第1の参照ピクチャは過去の参照画像であり、第2の参照ピクチャは未来の参照画像であるか、または第1の参照ピクチャは未来の参照画像であり、第2の参照ピクチャは過去の参照画像である。
predBIO=1/2(I0+I1+vx/2(τ1Gx1-τ0Gx0)+vy/2*(τ1Gy1-τ0Gy0)) (1)
Δ=(I0-I1)+vx(τ1Gx1+τ0Gx0)+vy(τ1Gy1+τ0Gy0)
と書かれることが可能である。
現在のピクチャが時間的に第1の参照ピクチャ(RefPic0など)と第2の参照ピクチャ(RefPic1など)の間にあり、第1の時間的距離(TD0など)と第2の時間的距離(TD1など)が同じ距離であるかどうかを決定するように構成された決定ユニット101であって、第1の時間的距離(TD0)は現在のピクチャと第1の参照ピクチャ(RefPic0)の間であり、第2の時間的距離(TD1)は現在のピクチャと第2の参照ピクチャ(RefPic1)の間である、決定ユニット101と、
現在のピクチャが時間的に第1の参照ピクチャ(RefPic0など)と第2の参照ピクチャ(RefPic1など)の間にあり、第1の時間的距離(TD0)と第2の時間的距離(TD1)が同じ距離であると決定されたときに、現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するように構成されたインター予測処理ユニット103とを含み得る。
第2の参照ブロックは、たとえば、第2の参照ピクチャ412内の第2の初期参照ブロック410を囲む様々な参照ブロックであってよい。代替的に、参照ブロックのN個の対の位置からの参照ブロックの対の位置は、マッチングコスト基準に基づいて第1の精緻化された参照ブロックの位置および第2の精緻化された参照ブロックの位置として決定される。参照ブロックのN個の対は、第1および第2の初期参照ブロックの対を含み得ることが理解されることが可能である。
12 供給元デバイス
13 通信チャネル
14 宛先デバイス
16 コンピュータ可読媒体
18 ビデオ供給元
20 ビデオエンコーダ
22 出力インターフェース
28 入力インターフェース
30 ビデオデコーダ
32 ディスプレイデバイス
40 モード選択ユニット
42 動き推定ユニット
44 動き補償ユニット
46 イントラ予測ユニット
48 区分ユニット
50 加算器
52 変換処理ユニット
54 量子化ユニット
56 エントロピーコーディングユニット
58 逆量子化ユニット
60 逆変換ユニット
62 加算器
64 参照フレームメモリ
70 エントロピー復号化ユニット
72 動き補償ユニット
74 イントラ予測ユニット
76 逆量子化ユニット
78 逆変換ユニット
80 加算器
82 参照フレームメモリ
101 決定ユニット
310 端末デバイス
400 DMVR法
402 現在のブロック
404 現在のピクチャ
406 第1の参照ブロック
408 第1の参照ピクチャ
410 第2の参照ブロック
412 第2の参照ピクチャ
414 バイラテラルテンプレートブロック
416 第1の精緻化された参照ブロック
418 第2の精緻化された参照ブロック
420 予測ブロック
500 コーディングデバイス
510 入口ポート
520 受信機ユニット(Rx)
530 プロセッサ
540 送信機ユニット(Tx)
550 出口ポート
560 メモリ
570 コーディングモジュール
600 コーディング方法
700 符号化方法
800 復号化方法
1000 装置
1002 プロセッサ
1004 メモリ
1006 コードおよびデータ
1008 オペレーティングシステム
1010 アプリケーションプログラム
1012 バス
1014 二次記憶装置
1018 ディスプレイ
1020 画像感知デバイス
1022 音感知デバイス
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォンまたはパッド
3110 コンピュータまたはラップトップ
3112 ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)
3114 TV
3116 セットトップボックス(STB)
3118 ビデオ会議システム
3120 ビデオ監視システム
3122 携帯情報端末(PDA)
3124 車載デバイス
3126 ディスプレイ
3202 プロトコル進行ユニット
3204 逆多重化ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 サブタイトルデコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/サブタイトルディスプレイ
Claims (61)
- ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための方法であって、
前記現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを決定するステップであって、前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間であり、前記第2の時間的距離は、前記現在のピクチャと前記第2の参照ピクチャの間である、ステップと、
前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にあり、前記第1の時間的距離と前記第2の時間的距離が同じ距離であると決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するステップとを含む方法。 - 前記第1の時間的距離と前記第2の時間的距離が異なる距離であること、または前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にないことが決定されたときに、前記現在の画像ブロックの前記予測ブロックを決定するために第1の初期動きベクトルと第2の初期動きベクトルを使用して動き補償を実行するステップをさらに含む請求項1に記載の方法。
- 動きベクトル精緻化(DMVR)手順を実行する前記ステップは、
参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するステップであって、参照ブロックの前記複数の対の各々は、前記第1の参照ピクチャ内にあり第1の初期動きベクトルに基づいて決定される第1の参照ブロックと、前記第2の参照ピクチャ内にあり第2の初期動きベクトルに基づいて決定される第2の参照ブロックとを含み、
前記最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む、ステップを含む請求項1に記載の方法。 - 動きベクトル精緻化(DMVR)手順を実行する前記ステップは、
マッチングコスト基準に基づいて、参照ブロックのM個の対の位置から参照ブロックの対の位置を、第1の精緻化された参照ブロックの位置および第2の精緻化された参照ブロックの位置として決定するステップであって、参照ブロックの前記M個の対の前記位置は、第1の初期動きベクトル、第2の初期動きベクトル、および前記現在の画像ブロックの位置に基づいて決定され、参照ブロックの各対の位置は、第1の参照ブロックの位置と第2の参照ブロックの位置とを含み、前記第1の参照ブロックは、前記第1の参照画像内に含まれ、前記第2の参照ブロックは、前記第2の参照画像内に含まれ、参照ブロックの各対について、第1の位置オフセット(delta0x, delta0y)と第2の位置オフセット(delta1x, delta1y)は、大きさが等しく符号が反対であり、前記第1の位置オフセット(delta0x, delta0y)は、第1の初期参照ブロックの位置に対する前記第1の参照ブロックの前記位置のオフセットを表現し、前記第2の位置オフセット(delta1x, delta1y)は、第2の初期参照ブロックの位置に対する前記第2の参照ブロックの前記位置のオフセットを表現し、Mは1以上の整数である、ステップを含む請求項1に記載の方法。 - 前記現在の画像ブロックの初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項2から4のいずれか一項に記載の方法。
- 前記第1の参照ピクチャは、前記現在のピクチャに時間的に先行する参照画像であり、前記第2の参照ピクチャは、前記現在のピクチャによって時間的に先行される参照画像であるか、または
前記第1の参照ピクチャは、前記現在のピクチャによって時間的に先行される参照画像であり、前記第2の参照ピクチャは、前記現在のピクチャに時間的に先行する参照画像であるか、あるいは
前記第1の参照ピクチャは過去の参照画像であり、前記第2の参照ピクチャは未来の参照画像であるか、または前記第1の参照ピクチャは未来の参照画像であり、前記第2の参照ピクチャは過去の参照画像である請求項1から5のいずれか一項に記載の方法。 - 前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間のピクチャ順序カウント(POC)距離を示し、前記第2の時間的距離は前記現在のピクチャと前記第2の参照ピクチャの間のPOC距離を示すか、または
前記第1の時間的距離(TD0)は、前記現在のピクチャのピクチャ順序カウント値(POCc)と前記第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、前記第2の時間的距離(TD1)は、前記現在のピクチャの前記ピクチャ順序カウント値(POCc)と前記第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される請求項1から6のいずれか一項に記載の方法。 - 前記現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを決定する前記ステップは、
前記第1の時間的距離と前記第2の時間的距離は、大きさが等しく符号が反対であるかどうかを決定するステップであって、前記第1の時間的距離は、前記現在のピクチャの前記ピクチャ順序カウント値と前記第1の参照画像の前記ピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、前記現在のピクチャの前記ピクチャ順序カウント値と前記第2の参照画像の前記ピクチャ順序カウント値の間の差に関して表現される、ステップを含み、
動きベクトル精緻化(DMVR)手順を実行する前記ステップは、
前記第1の時間的距離と前記第2の時間的距離は、大きさが等しく符号が反対であると決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するステップを含む請求項1から7のいずれか一項に記載の方法。 - ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための方法であって、
前記現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを決定するステップであって、前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間であり、前記第2の時間的距離は、前記現在のピクチャと前記第2の参照ピクチャの間である、ステップと、
前記第1の時間的距離と前記第2の時間的距離が異なる距離であること、または前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にないことが決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために第1の初期動きベクトルと第2の初期動きベクトルを使用して動き補償を実行するステップとを含む方法。 - 前記現在の画像ブロックの初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項9に記載の方法。
- 前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間のピクチャ順序カウント(POC)距離を示し、前記第2の時間的距離は前記現在のピクチャと前記第2の参照ピクチャの間のPOC距離を示すか、または
前記第1の時間的距離(TD0)は、前記現在のピクチャのピクチャ順序カウント値(POCc)と前記第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、前記第2の時間的距離(TD1)は、前記現在のピクチャの前記ピクチャ順序カウント値(POCc)と前記第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される請求項9または10に記載の方法。 - ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための方法であって、
第1の時間的距離が第2の時間的距離に等しいかどうかを決定するステップであって、前記第1の時間的距離は、前記現在のピクチャのピクチャ順序カウント値と第1の参照画像のピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、第2の参照画像のピクチャ順序カウント値と前記現在のピクチャの前記ピクチャ順序カウント値の間の差に関して表現される、ステップと、
前記第1の時間的距離が前記第2の時間的距離に等しいと決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するステップとを含む方法。 - 前記第1の時間的距離が前記第2の時間的距離に等しくないと決定されたときに、第1の初期動きベクトルおよび第2の初期動きベクトルを使用して動き補償を実行して、前記現在の画像ブロックの予測ブロックを決定するステップをさらに含む請求項12に記載の方法。
- 動きベクトル精緻化(DMVR)手順を実行する前記ステップは、
参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するステップであって、参照ブロックの前記対は、前記第1の参照ピクチャの、第1の初期動きベクトルに基づいて決定される第1の参照ブロックと、前記第2の参照ピクチャの、第2の初期動きベクトルに基づいて決定される第2の参照ブロックとを含み、
前記最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む、ステップを含む請求項12に記載の方法。 - 前記現在の画像ブロックの初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項13または14に記載の方法。
- ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための方法であって、
第1の時間的距離が第2の時間的距離に等しいかどうかを決定するステップであって、前記第1の時間的距離は、前記現在のピクチャのピクチャ順序カウント値と第1の参照画像のピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、第2の参照画像のピクチャ順序カウント値と前記現在のピクチャの前記ピクチャ順序カウント値の間の差に関して表現される、ステップと、
前記第1の時間的距離が前記第2の時間的距離に等しくないと決定されたときに、前記現在の画像ブロックに対して動きベクトル精緻化(DMVR)手順を実行しないステップとを含む方法。 - ビデオ画像を符号化するための方法であって、
請求項1から15のいずれか一項に記載の方法に従って前記ビデオの現在のピクチャ内の現在の画像ブロックのインター予測を実行して前記現在の画像ブロックの予測ブロックを取得するステップと、
前記現在の画像ブロックと前記予測ブロックの間の残差、および初期動き情報を示すためのインデックスを含むビットストリームを生成するステップとを含む方法。 - ビットストリームからビデオ画像を復号化するための方法であって、
前記ビットストリームから、初期動き情報を示すためのインデックス、および現在の画像ブロックと前記現在の画像ブロックの予測ブロックの間の残差を解析するステップと、
請求項1から15のいずれか一項に記載の方法に従ってビデオの現在のピクチャ内の現在の画像ブロックのインター予測を実行して前記現在の画像ブロックの予測ブロックを取得するステップと、
前記残差および前記予測ブロックに基づいて前記現在の画像ブロックを再構築するステップとを含む方法。 - 符号化デバイスによって実現される符号化の方法であって、
請求項1、3から8、および12から15のいずれか一項に記載の方法が有効化されるか、されないかを示すシンタックス要素の値を決定するステップと、
前記シンタックス要素を含むビットストリームを生成するステップとを含む方法。 - 前記シンタックス要素は、シーケンスパラメータセット(SPS)レベル、ピクチャパラメータセット(PPS)レベル、スライスヘッダ、コーディングツリーユニット(CTU)シンタックス、またはコーディングユニット(CU)シンタックスのいずれか1つでシグナリングされる請求項19に記載の方法。
- 復号化デバイスによって実現される復号化の方法であって、
請求項1、3から8、および12から15のいずれか一項に記載の方法が有効化されるか、されないかを示すシンタックス要素をビットストリームから解析するステップと、
前記シンタックス要素に従ってデコーダ側動きベクトル精緻化(DMVR)手順を適応的に有効化または無効化するステップとを含む方法。 - 前記シンタックス要素は、ビットストリームのシーケンスパラメータセット(SPS)レベル、前記ビットストリームのピクチャパラメータセット(PPS)レベル、スライスヘッダ、コーディングツリーユニット(CTU)シンタックス、またはコーディングユニット(CU)シンタックスのいずれか1つから取得される請求項21に記載の方法。
- コーディングデバイスであって、
命令を記憶するメモリと、
前記メモリに結合されたプロセッサであって、前記プロセッサは前記メモリに記憶された命令を実行して、
現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを前記プロセッサに決定させ、前記第1の時間的距離(TD0)は、前記現在のピクチャと前記第1の参照ピクチャ(RefPic0)の間であり、前記第2の時間的距離(TD1)は、前記現在のピクチャと前記第2の参照ピクチャ(RefPic1)の間であり、
前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にあり、前記第1の時間的距離と前記第2の時間的距離は同じ距離であると決定されたときに、前記現在のピクチャ内の現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を前記プロセッサに実行させるように構成されたプロセッサとを含むコーディングデバイス。 - 前記プロセッサは、前記第1の時間的距離と前記第2の時間的距離が異なること、または前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にないことが決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために第1の初期動きベクトルと第2の初期動きベクトルを使用して動き補償を実行するようにさらに構成された請求項23に記載のコーディングデバイス。
- 動きベクトル精緻化(DMVR)手順を実行することについて、前記プロセッサは、
参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するように構成され、参照ブロックの前記対は、前記第1の参照ピクチャ内にあり第1の初期動きベクトルに基づいて決定される第1の参照ブロックと、前記第2の参照ピクチャ内にあり第2の初期動きベクトルに基づいて決定される第2の参照ブロックとを含み、
前記最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む請求項23に記載のデバイス。 - 動きベクトル精緻化(DMVR)手順を実行することについて、前記プロセッサは、具体的には、
マッチングコスト基準に基づいて、参照ブロックのM個の対の位置から参照ブロックの対の位置を、第1の精緻化された参照ブロックの位置および第2の精緻化された参照ブロックの位置として決定するように構成され、参照ブロックの前記M個の対の前記位置は、前記第1の初期動きベクトル、前記第2の初期動きベクトル、および前記現在の画像ブロックの位置に基づいて決定され、参照ブロックの各対の位置は、第1の参照ブロックの位置と第2の参照ブロックの位置とを含み、前記第1の参照ブロックは、前記第1の参照画像内に含まれ、前記第2の参照ブロックは、前記第2の参照画像内に含まれ、参照ブロックの各対について、第1の位置オフセットと第2の位置オフセットは、大きさが等しく符号が反対であり、前記第1の位置オフセットは、第1の初期参照ブロックの位置に対する前記第1の参照ブロックの前記位置のオフセットを表現し、前記第2の位置オフセットは、第2の初期参照ブロックの位置に対する前記第2の参照ブロックの前記位置のオフセットを表現し、Mは1以上の整数である請求項23に記載のデバイス。 - 前記プロセッサは、前記現在のピクチャ内の前記現在の画像ブロックの初期動き情報を取得するようにさらに構成され、前記初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項24から26のいずれか一項に記載のデバイス。
- 前記第1の参照ピクチャは、前記現在のピクチャに時間的に先行する参照画像であり、前記第2の参照ピクチャは、前記現在のピクチャによって時間的に先行される参照画像であるか、または前記第1の参照ピクチャは、前記現在のピクチャによって時間的に先行される参照画像であり、前記第2の参照ピクチャは、前記現在のピクチャに時間的に先行する参照画像であるか、あるいは
前記第1の参照ピクチャは過去の参照画像であり、前記第2の参照ピクチャは未来の参照画像であるか、または前記第1の参照ピクチャは未来の参照画像であり、前記第2の参照ピクチャは過去の参照画像である請求項23から27のいずれか一項に記載のデバイス。 - 前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間のピクチャ順序カウント(POC)距離を示し、前記第2の時間的距離は前記現在のピクチャと前記第2の参照ピクチャの間のPOC距離を示すか、または
前記第1の時間的距離(TD0)は、前記現在のピクチャの前記ピクチャ順序カウント値(POCc)と前記第1の参照画像の前記ピクチャ順序カウント値(POC0)の間の差に関して表現され、前記第2の時間的距離(TD1)は、前記現在のピクチャの前記ピクチャ順序カウント値(POCc)と前記第2の参照画像の前記ピクチャ順序カウント値(POC1)の間の差に関して表現される請求項23から28のいずれか一項に記載のデバイス。 - 前記プロセッサは、前記第1の時間的距離と前記第2の時間的距離が、大きさが等しく符号が反対であるかどうかを決定するように構成され、前記第1の時間的距離は、前記現在のピクチャの前記ピクチャ順序カウント値と前記第1の参照画像の前記ピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、前記第2の参照画像の前記ピクチャ順序カウント値と前記現在のピクチャの前記ピクチャ順序カウント値の間の差に関して表現され、
前記プロセッサは、前記第1の時間的距離と前記第2の時間的距離は、大きさが等しく符号が反対であると決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するように構成された請求項23から29のいずれか一項に記載のデバイス。 - コーディングデバイスであって、
命令を記憶するメモリと、
前記メモリに結合されたプロセッサであって、前記プロセッサは前記メモリに記憶された命令を実行して、
現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを前記プロセッサに決定させ、前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間であり、前記第2の時間的距離は、前記現在のピクチャと前記第2の参照ピクチャの間であり、
前記第1の時間的距離と前記第2の時間的距離が異なる距離であること、または前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にないことが決定されたときに、前記現在のピクチャ内の現在の画像ブロックの予測ブロックを決定するために第1の初期動きベクトルと第2の初期動きベクトルを使用して動き補償を前記プロセッサに実行させるように構成されたプロセッサとを含むコーディングデバイス。 - 前記プロセッサは、前記現在のピクチャ内の前記現在の画像ブロックの初期動き情報を取得するようにさらに構成され、前記初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項31に記載のコーディングデバイス。
- 前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間のピクチャ順序カウント(POC)距離を示し、前記第2の時間的距離は前記現在のピクチャと前記第2の参照ピクチャの間のPOC距離を示すか、または
前記第1の時間的距離(TD0)は、前記現在のピクチャのピクチャ順序カウント値(POCc)と前記第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、前記第2の時間的距離(TD1)は、前記現在のピクチャの前記ピクチャ順序カウント値(POCc)と前記第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される請求項31または32に記載のコーディングデバイス。 - コーディングデバイスであって、
命令を記憶するメモリと、
前記メモリに結合されたプロセッサであって、前記プロセッサは前記メモリに記憶された命令を実行して、
第1の時間的距離が第2の時間的距離に等しいかどうかを前記プロセッサに決定させ、前記第1の時間的距離は、現在のピクチャのピクチャ順序カウント値と第1の参照画像のピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、第2の参照画像のピクチャ順序カウント値と前記現在のピクチャの前記ピクチャ順序カウント値の間の差に関して表現され、
前記第1の時間的距離が前記第2の時間的距離に等しいと決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を前記プロセッサに実行させるように構成されたプロセッサとを含むコーディングデバイス。 - 前記プロセッサは、
前記第1の時間的距離が前記第2の時間的距離に等しくないと決定されたときに、第1の初期動きベクトルおよび第2の初期動きベクトルを使用して動き補償を実行して、前記現在の画像ブロックの予測ブロックを決定するようにさらに構成された請求項34に記載のデバイス。 - 動きベクトル精緻化(DMVR)手順を実行することについて、前記プロセッサは、
参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するように構成され、参照ブロックの前記対は、前記第1の参照ピクチャの、第1の初期動きベクトルに基づいて決定される第1の参照ブロックと、前記第2の参照ピクチャの、第2の初期動きベクトルに基づいて決定される第2の参照ブロックとを含み、
前記最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む請求項34に記載のデバイス。 - 前記プロセッサは、
前記現在のピクチャ内の前記現在の画像ブロックの初期動き情報を取得するようにさらに構成され、前記初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項35または36に記載のデバイス。 - コーディングデバイスであって、
命令を記憶するメモリと、
前記メモリに結合されたプロセッサであって、前記プロセッサは前記メモリに記憶された命令を実行して、
第1の時間的距離が第2の時間的距離に等しいかどうかを前記プロセッサに決定させ、前記第1の時間的距離は、現在のピクチャのピクチャ順序カウント値と第1の参照画像のピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、第2の参照画像のピクチャ順序カウント値と前記現在のピクチャの前記ピクチャ順序カウント値の間の差に関して表現され、
前記第1の時間的距離が前記第2の時間的距離に等しくないと決定されたときに、前記現在の画像ブロックに対して動きベクトル精緻化(DMVR)手順を前記プロセッサに実行させないように構成されたプロセッサとを含むコーディングデバイス。 - ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための装置であって、
前記現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを決定するように構成された決定ユニットであって、前記第1の時間的距離(TD0)は、前記現在のピクチャと前記第1の参照ピクチャ(RefPic0)の間であり、前記第2の時間的距離(TD1)は、前記現在のピクチャと前記第2の参照ピクチャ(RefPic1)の間である、決定ユニットと、
前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にあり、前記第1の時間的距離と前記第2の時間的距離が同じ距離であると決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するように構成されたインター予測処理ユニットとを含む装置。 - 前記インター予測処理ユニットは、前記第1の時間的距離と前記第2の時間的距離が異なること、または前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にないことが決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために第1の初期動きベクトルと第2の初期動きベクトルを使用して動き補償を実行するようにさらに構成された請求項39に記載の装置。
- 動きベクトル精緻化(DMVR)手順を実行することについて、前記インター予測処理ユニットは、具体的には、
参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するように構成され、参照ブロックの前記対は、前記第1の参照ピクチャ内にあり第1の初期動きベクトルに基づいて決定される第1の参照ブロックと、前記第2の参照ピクチャ内にあり第2の初期動きベクトルに基づいて決定される第2の参照ブロックとを含み、
前記最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む請求項39に記載の装置。 - 動きベクトル精緻化(DMVR)手順を実行することについて、前記インター予測処理ユニットは、具体的には、
マッチングコスト基準に基づいて、参照ブロックのM個の対の位置から参照ブロックの対の位置を、第1の精緻化された参照ブロックの位置および第2の精緻化された参照ブロックの位置として決定するように構成され、参照ブロックの前記M個の対の前記位置は、第1の初期動きベクトル、第2の初期動きベクトル、および前記現在の画像ブロックの位置に基づいて決定され、参照ブロックの各対の位置は、第1の参照ブロックの位置と第2の参照ブロックの位置とを含み、前記第1の参照ブロックは、前記第1の参照画像内に含まれ、前記第2の参照ブロックは、前記第2の参照画像内に含まれ、参照ブロックの各対について、前記第1の位置オフセットと前記第2の位置オフセットは、大きさが等しく符号が反対であり、前記第1の位置オフセットは、第1の初期参照ブロックの位置に対する前記第1の参照ブロックの前記位置のオフセットを表現し、前記第2の位置オフセットは、第2の初期参照ブロックの位置に対する前記第2の参照ブロックの前記位置のオフセットを表現し、Mは1以上の整数である請求項39に記載の装置。 - 前記インター予測処理ユニットは、前記現在のピクチャ内の前記現在の画像ブロックの初期動き情報を取得するようにさらに構成され、前記初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項40から42のいずれか一項に記載の装置。
- 前記第1の参照ピクチャは、前記現在のピクチャに時間的に先行する参照画像であり、前記第2の参照ピクチャは、前記現在のピクチャによって時間的に先行される参照画像であるか、または前記第1の参照ピクチャは、前記現在のピクチャによって時間的に先行される参照画像であり、前記第2の参照ピクチャは、前記現在のピクチャに時間的に先行する参照画像であるか、あるいは
前記第1の参照ピクチャは過去の参照画像であり、前記第2の参照ピクチャは未来の参照画像であるか、または前記第1の参照ピクチャは未来の参照画像であり、前記第2の参照ピクチャは過去の参照画像である請求項39から43のいずれか一項に記載の装置。 - 前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間のピクチャ順序カウント(POC)距離を示し、前記第2の時間的距離は前記現在のピクチャと前記第2の参照ピクチャの間のPOC距離を示すか、または
前記第1の時間的距離(TD0)は、前記現在のピクチャのピクチャ順序カウント値(POCc)と前記第1の参照画像のピクチャ順序カウント値(POC0)(POC0)の間の差に関して表現され、前記第2の時間的距離(TD1)は、前記現在のピクチャの前記ピクチャ順序カウント値(POCc)と前記第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される請求項39から44のいずれか一項に記載の装置。 - 前記決定ユニットは、前記第1の時間的距離と前記第2の時間的距離が、大きさが等しく符号が反対であるかどうかを決定するように構成され、前記第1の時間的距離は、前記現在のピクチャの前記ピクチャ順序カウント値と前記第1の参照画像の前記ピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、前記現在のピクチャの前記ピクチャ順序カウント値と前記第2の参照画像の前記ピクチャ順序カウント値の間の差に関して表現され、
前記インター予測処理ユニットは、前記第1の時間的距離と前記第2の時間的距離は、大きさが等しく符号が反対であると決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するように構成された請求項39から45のいずれか一項に記載の装置。 - ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための装置であって、
前記現在のピクチャが時間的に第1の参照ピクチャと第2の参照ピクチャの間にあるかどうか、および第1の時間的距離と第2の時間的距離が同じ距離であるかどうかを決定するように構成された決定ユニットであって、前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間であり、前記第2の時間的距離は、前記現在のピクチャと前記第2の参照ピクチャの間である、決定ユニットと、
前記第1の時間的距離と前記第2の時間的距離が異なる距離であること、または前記現在のピクチャが時間的に前記第1の参照ピクチャと前記第2の参照ピクチャの間にないことが決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために第1の初期動きベクトルと第2の初期動きベクトルを使用して動き補償を実行するように構成されたインター予測処理ユニットとを含む装置。 - 前記現在の画像ブロックの初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項47に記載の装置。
- 前記第1の時間的距離は、前記現在のピクチャと前記第1の参照ピクチャの間のピクチャ順序カウント(POC)距離を示し、前記第2の時間的距離は前記現在のピクチャと前記第2の参照ピクチャの間のPOC距離を示すか、または
前記第1の時間的距離(TD0)は、前記現在のピクチャのピクチャ順序カウント値(POCc)と前記第1の参照画像のピクチャ順序カウント値(POC0)の間の差に関して表現され、前記第2の時間的距離(TD1)は、前記現在のピクチャの前記ピクチャ順序カウント値(POCc)と前記第2の参照画像のピクチャ順序カウント値(POC1)の間の差に関して表現される請求項47または48に記載の装置。 - ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための装置であって、
第1の時間的距離が第2の時間的距離に等しいかどうかを決定するように構成された決定ユニットであって、前記第1の時間的距離は、前記現在のピクチャのピクチャ順序カウント値と第1の参照画像のピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、第2の参照画像のピクチャ順序カウント値と前記現在のピクチャの前記ピクチャ順序カウント値の間の差に関して表現される、決定ユニットと、
前記第1の時間的距離が前記第2の時間的距離に等しいと決定されたときに、前記現在の画像ブロックの予測ブロックを決定するために動きベクトル精緻化(DMVR)手順を実行するように構成されたインター予測処理ユニットとを含む装置。 - 前記インター予測処理ユニットは、前記第1の時間的距離が前記第2の時間的距離に等しくないと決定されたときに、第1の初期動きベクトルおよび第2の初期動きベクトルを使用して動き補償を実行して、前記現在の画像ブロックの予測ブロックを決定するようにさらに構成された請求項50に記載の装置。
- 動きベクトル精緻化(DMVR)手順を実行することについて、前記インター予測処理ユニットは、参照ブロックの複数の対から最良の動きベクトルによって指し示される最良マッチングブロックの対を決定するように構成され、参照ブロックの前記対は、前記第1の参照ピクチャの、第1の初期動きベクトルに基づいて決定される第1の参照ブロックと、前記第2の参照ピクチャの、第2の初期動きベクトルに基づいて決定される第2の参照ブロックとを含み、前記最良の動きベクトルは、第1の精緻化された動きベクトルおよび第2の精緻化された動きベクトルを含む請求項50に記載の装置。
- 前記インター予測処理ユニットは、前記現在のピクチャ内の前記現在の画像ブロックの初期動き情報を取得するようにさらに構成され、前記初期動き情報は、前記第1の初期動きベクトル、第1の参照インデックス、前記第2の初期動きベクトル、および第2の参照インデックスを含み、前記第1の参照インデックスは、前記第1の参照ピクチャを示し、前記第2の参照インデックスは、前記第2の参照ピクチャを示す請求項51または52に記載の装置。
- ビデオの現在のピクチャ内の現在の画像ブロックのインター予測のための装置であって、
第1の時間的距離が第2の時間的距離に等しいかどうかを決定するように構成された決定ユニットであって、前記第1の時間的距離は、前記現在のピクチャのピクチャ順序カウント値と第1の参照画像のピクチャ順序カウント値の間の差に関して表現され、前記第2の時間的距離は、第2の参照画像のピクチャ順序カウント値と前記現在のピクチャの前記ピクチャ順序カウント値の間の差に関して表現される、決定ユニットと、
前記第1の時間的距離が前記第2の時間的距離に等しくないと決定されたときに、前記現在の画像ブロックに対して動きベクトル精緻化(DMVR)手順を実行しないように構成されたインター予測処理ユニットとを含む装置。 - ビデオ画像を符号化するための符号化装置であって、
現在の画像ブロックの予測ブロックを取得するための請求項39から53のいずれか一項に記載の装置と、
前記現在の画像ブロックと前記予測ブロックの間の残差、および初期動き情報を示すためのインデックスを含むビットストリームを生成するように構成されたエントロピーコーディングユニットとを含む符号化装置。 - ビットストリームからビデオ画像を復号化するための復号化装置であって、
前記ビットストリームから、初期動き情報を示すためのインデックス、および現在の画像ブロックと前記現在の画像ブロックの予測ブロックの間の残差を解析するように構成されたエントロピー復号化ユニットと、
前記現在の画像ブロックの前記予測ブロックを取得するための請求項39から53のいずれか一項に記載の装置と、
前記残差および前記予測ブロックに基づいて前記現在の画像ブロックを再構築するように構成された画像再構築ユニットとを含む復号化装置。 - 符号化デバイスであって、
請求項1、3から8、および12から15のいずれか一項に記載の方法を有効化または無効化するためのシンタックス要素の値を決定し、
前記シンタックス要素を含むビットストリームを生成する
ように構成された1つまたは複数の処理回路を含む符号化デバイス。 - 前記シンタックス要素は、シーケンスパラメータセット(SPS)レベル、ピクチャパラメータセット(PPS)レベル、スライスヘッダ、コーディングツリーユニット(CTU)シンタックス、またはコーディングユニット(CU)シンタックスのいずれか1つでシグナリングされる請求項57に記載の符号化デバイス。
- 復号化デバイスであって、
請求項1、3から8、および12から15のいずれか一項に記載の方法が有効化されるか、されないかを示すためのシンタックス要素をビットストリームから解析し、
前記シンタックス要素に従ってデコーダ側動きベクトル精緻化(DMVR)手順を適応的に有効化または無効化する
ように構成された1つまたは複数の処理回路を含む復号化デバイス。 - 前記シンタックス要素は、ビットストリームのシーケンスパラメータセット(SPS)レベル、前記ビットストリームのピクチャパラメータセット(PPS)レベル、スライスヘッダ、コーディングツリーユニット(CTU)シンタックス、またはコーディングユニット(CU)シンタックスのいずれか1つから取得される請求項59に記載の復号化デバイス。
- プロセッサにおいて実行されたときに請求項1から22のいずれか一項に記載のステップを実行するコンピュータ可読命令を記憶するコンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023098026A JP2023126226A (ja) | 2018-09-13 | 2023-06-14 | ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201831034607 | 2018-09-13 | ||
IN201831034607 | 2018-09-13 | ||
PCT/CN2019/105717 WO2020052654A1 (en) | 2018-09-13 | 2019-09-12 | Apparatus and method for conditional decoder-side motion vector refinement in video coding |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023098026A Division JP2023126226A (ja) | 2018-09-13 | 2023-06-14 | ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022500930A true JP2022500930A (ja) | 2022-01-04 |
JP7297874B2 JP7297874B2 (ja) | 2023-06-26 |
Family
ID=69778183
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021514368A Active JP7297874B2 (ja) | 2018-09-13 | 2019-09-12 | ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 |
JP2023098026A Pending JP2023126226A (ja) | 2018-09-13 | 2023-06-14 | ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023098026A Pending JP2023126226A (ja) | 2018-09-13 | 2023-06-14 | ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 |
Country Status (10)
Country | Link |
---|---|
US (2) | US11563948B2 (ja) |
EP (2) | EP4415364A3 (ja) |
JP (2) | JP7297874B2 (ja) |
KR (2) | KR102653856B1 (ja) |
CN (8) | CN117241015A (ja) |
BR (1) | BR112021004800A8 (ja) |
MX (1) | MX2021003048A (ja) |
PL (1) | PL3847807T3 (ja) |
SG (1) | SG11202102569QA (ja) |
WO (1) | WO2020052654A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020084509A1 (en) | 2018-10-23 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Harmonized local illumination compensation and modified inter coding tools |
CN112913247B (zh) | 2018-10-23 | 2023-04-28 | 北京字节跳动网络技术有限公司 | 使用局部照明补偿的视频处理 |
WO2020130710A1 (ko) * | 2018-12-21 | 2020-06-25 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
WO2020147747A1 (en) | 2019-01-15 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Weighted prediction in video coding |
CN113316933B (zh) | 2019-01-17 | 2024-10-11 | 北京字节跳动网络技术有限公司 | 使用运动预测进行去方块滤波 |
CN118612456A (zh) * | 2019-02-14 | 2024-09-06 | Lg 电子株式会社 | 基于dmvr的帧间预测方法和设备 |
US20210092427A1 (en) * | 2019-09-23 | 2021-03-25 | Qualcomm Incorporated | Harmonized early termination in bdof and dmvr in video coding |
CN118765498A (zh) * | 2021-12-07 | 2024-10-11 | 抖音视界有限公司 | 用于视频处理的方法、装置和介质 |
CN118575478A (zh) * | 2022-01-18 | 2024-08-30 | 北京达佳互联信息技术有限公司 | 视频编解码中考虑边界外条件的运动补偿 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018092870A1 (ja) * | 2016-11-21 | 2018-05-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102123283B (zh) * | 2011-03-11 | 2013-10-30 | 杭州海康威视数字技术股份有限公司 | 视频帧率转换中的插值帧获取方法及其装置 |
US11330284B2 (en) * | 2015-03-27 | 2022-05-10 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
US10944963B2 (en) * | 2016-05-25 | 2021-03-09 | Arris Enterprises Llc | Coding weighted angular prediction for intra coding |
WO2018105582A1 (ja) * | 2016-12-09 | 2018-06-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2018113658A1 (en) * | 2016-12-22 | 2018-06-28 | Mediatek Inc. | Method and apparatus of motion refinement for video coding |
US10750203B2 (en) * | 2016-12-22 | 2020-08-18 | Mediatek Inc. | Method and apparatus of adaptive bi-prediction for video coding |
US10911761B2 (en) * | 2016-12-27 | 2021-02-02 | Mediatek Inc. | Method and apparatus of bilateral template MV refinement for video coding |
CN107360433B (zh) * | 2017-07-20 | 2020-06-19 | 北京奇艺世纪科技有限公司 | 一种帧间预测编码方法和装置 |
WO2019234578A1 (en) * | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Asymmetric weighted bi-predictive merges |
CN118612456A (zh) * | 2019-02-14 | 2024-09-06 | Lg 电子株式会社 | 基于dmvr的帧间预测方法和设备 |
-
2019
- 2019-09-12 KR KR1020217010891A patent/KR102653856B1/ko active IP Right Grant
- 2019-09-12 CN CN202310330051.XA patent/CN117241015A/zh active Pending
- 2019-09-12 CN CN202310336590.4A patent/CN116489345A/zh active Pending
- 2019-09-12 CN CN202310330049.2A patent/CN116405666A/zh active Pending
- 2019-09-12 EP EP24178165.7A patent/EP4415364A3/en active Pending
- 2019-09-12 CN CN201980060419.7A patent/CN112740679B/zh active Active
- 2019-09-12 CN CN202310331624.0A patent/CN116405667A/zh active Pending
- 2019-09-12 PL PL19860067.8T patent/PL3847807T3/pl unknown
- 2019-09-12 KR KR1020247010542A patent/KR20240046631A/ko active Application Filing
- 2019-09-12 CN CN202310344670.4A patent/CN116437076A/zh active Pending
- 2019-09-12 SG SG11202102569QA patent/SG11202102569QA/en unknown
- 2019-09-12 WO PCT/CN2019/105717 patent/WO2020052654A1/en unknown
- 2019-09-12 EP EP19860067.8A patent/EP3847807B1/en active Active
- 2019-09-12 CN CN202310353986.XA patent/CN116743992A/zh active Pending
- 2019-09-12 JP JP2021514368A patent/JP7297874B2/ja active Active
- 2019-09-12 BR BR112021004800A patent/BR112021004800A8/pt unknown
- 2019-09-12 MX MX2021003048A patent/MX2021003048A/es unknown
- 2019-09-12 CN CN202310331603.9A patent/CN117478873A/zh active Pending
-
2021
- 2021-03-12 US US17/249,771 patent/US11563948B2/en active Active
-
2022
- 2022-12-16 US US18/067,458 patent/US20230188722A1/en active Pending
-
2023
- 2023-06-14 JP JP2023098026A patent/JP2023126226A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018092870A1 (ja) * | 2016-11-21 | 2018-05-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US20190273931A1 (en) * | 2016-11-21 | 2019-09-05 | Panasonic Intellectual Property Corporation Of America | Encoder, decoder, encoding method, and decoding method |
Non-Patent Citations (5)
Title |
---|
CHUN-CHI CHEN, WEI-JUNG CHIEN, MARTA KARCZEWICZ, SEMIH ESENLIK, IVAN KRASNOV, ZHIJIE ZHAO, MA XIANG,: "CE9-related: Harmonization between CE9.2.6 (DMVR with Template-free Bilateral Matching, JVET-K0359)", JVET-K JVET-K0361-V2, JPN6022029881, 17 October 2019 (2019-10-17), pages 1 - 5, ISSN: 0004828281 * |
HAITAO YANG, ET.AL.: "Subblock-Based Motion Derivation and Inter Prediction Refinement in the Versatile Video Coding Stand", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. Volume: 31, Issue: 10, October 2021, JPN6022029884, 27 July 2021 (2021-07-27), pages 3862 - 3877, ISSN: 0004828285 * |
HUANBANG CHEN, JIANLE CHEN, ROMAN CHERNYAK, SEMIH ESENLIK, ALEXEY FILIPPOV, SHAN GAO, SERGEY IKONIN,: "Description of SDR, HDR and 360° video coding technology proposal by Huawei, GoPro, HiSilicon, and", JVET-J JVET-J0025_V2, JPN6022029880, 17 October 2019 (2019-10-17), pages 1 - 67, ISSN: 0004828283 * |
SEMIH ESENLIK, ANAND MEHER KOTRA, BIAO WANG, HAN GAO, JIANLE CHEN, SRIRAM SETHURAMAN: "Simplified DMVR for inclusion in VVC [online]", JVET-L JVET-L0670, JPN6022029883, 17 October 2019 (2019-10-17), pages 1 - 5, ISSN: 0004828284 * |
SEMIH ESENLIK, IVAN KRASNOV, ZHIJIE ZHAO, MA XIANG, HAITAO YANG, JIANLE CHEN, YUE LI: "CE9: DMVR with Bilateral Matching (Test2.9) [online]", JVET-K JVET-K0217_V1, JPN6022029882, 17 October 2019 (2019-10-17), pages 1 - 5, ISSN: 0004828282 * |
Also Published As
Publication number | Publication date |
---|---|
CN112740679A (zh) | 2021-04-30 |
PL3847807T3 (pl) | 2024-09-09 |
CN116405666A (zh) | 2023-07-07 |
KR20210057146A (ko) | 2021-05-20 |
EP4415364A2 (en) | 2024-08-14 |
BR112021004800A2 (pt) | 2021-06-08 |
JP2023126226A (ja) | 2023-09-07 |
EP4415364A3 (en) | 2024-10-23 |
US20220368921A9 (en) | 2022-11-17 |
EP3847807A1 (en) | 2021-07-14 |
KR20240046631A (ko) | 2024-04-09 |
MX2021003048A (es) | 2021-08-11 |
JP7297874B2 (ja) | 2023-06-26 |
CN112740679B (zh) | 2023-03-24 |
BR112021004800A8 (pt) | 2021-06-22 |
US20210203946A1 (en) | 2021-07-01 |
SG11202102569QA (en) | 2021-04-29 |
CN117478873A (zh) | 2024-01-30 |
CN116743992A (zh) | 2023-09-12 |
EP3847807B1 (en) | 2024-06-19 |
US20230188722A1 (en) | 2023-06-15 |
CN116489345A (zh) | 2023-07-25 |
CN117241015A (zh) | 2023-12-15 |
CN116437076A (zh) | 2023-07-14 |
US11563948B2 (en) | 2023-01-24 |
WO2020052654A1 (en) | 2020-03-19 |
KR102653856B1 (ko) | 2024-04-01 |
EP3847807A4 (en) | 2021-11-03 |
CN116405667A (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112823517B (zh) | 基于历史的运动矢量预测子的改进 | |
KR102608366B1 (ko) | 인트라 예측 방법 및 디바이스 | |
US10477237B2 (en) | Decoder side motion vector refinement in video coding | |
JP7297874B2 (ja) | ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法 | |
US10542280B2 (en) | Encoding optimization with illumination compensation and integer motion vector restriction | |
US9736489B2 (en) | Motion vector determination for video coding | |
US10616582B2 (en) | Memory and bandwidth reduction of stored data in image/video coding | |
JP2021530917A (ja) | ビデオ符号器、ビデオ復号器、並びに対応する符号化及び復号化方法 | |
TW201803348A (zh) | 用於在視頻寫碼中之並列參考指標的一致性約束 | |
KR20160106617A (ko) | 비디오 코딩을 위한 적응 모션 벡터 해상도 시그널링 | |
KR20130126688A (ko) | 모션 벡터 예측 | |
TW201338549A (zh) | 產生額外合併候選者 | |
JP2014511653A (ja) | 復号ピクチャバッファ管理 | |
KR20230150284A (ko) | 효율적인 비디오 인코더 아키텍처 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7297874 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |