JP7494403B2 - 復号方法、符号化方法、装置、デバイスおよび記憶媒体 - Google Patents
復号方法、符号化方法、装置、デバイスおよび記憶媒体 Download PDFInfo
- Publication number
- JP7494403B2 JP7494403B2 JP2023557413A JP2023557413A JP7494403B2 JP 7494403 B2 JP7494403 B2 JP 7494403B2 JP 2023557413 A JP2023557413 A JP 2023557413A JP 2023557413 A JP2023557413 A JP 2023557413A JP 7494403 B2 JP7494403 B2 JP 7494403B2
- Authority
- JP
- Japan
- Prior art keywords
- coding unit
- motion information
- block
- current
- prediction mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 125
- 230000002123 temporal effect Effects 0.000 claims description 686
- 239000013598 vector Substances 0.000 claims description 466
- 230000002093 peripheral effect Effects 0.000 claims description 95
- 238000004458 analytical method Methods 0.000 claims description 56
- 230000002787 reinforcement Effects 0.000 claims description 56
- 230000003287 optical effect Effects 0.000 description 43
- 230000002457 bidirectional effect Effects 0.000 description 28
- 239000011159 matrix material Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 238000010276 construction Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 10
- 238000013139 quantization Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 108010025037 T140 peptide Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/57—Motion estimation characterised by a search window with variable size or shape
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
- Peptides Or Proteins (AREA)
- Steroid Compounds (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
Description
1、予測画素(Prediction Signal):符号化・復号済みの画素から導出された画素値を指し、元の画素と予測画素との差により残差を得、さらに残差変換量子化および係数符号化を行う。
J(mode)=D+λ*R。
水平副画素位置=(sad_left-sad_right)*N/((sad_right+sad_left-2*sad_mid)*2)
垂直副画素位置=(sad_btm-sad_top)*N/((sad_top+sad_btm-2*sad_mid)*2)
a)A0位置が存在し、且つ現在の符号化ユニットと同一のスライス(Slice)およびユニット(Unit)にあり、
b)A0位置の予測モードがインターモードであり、
c)A0位置の参照フレームインデックスが現在のフレームのco-locatedフレームの参照フレームインデックスに一致する(まずL0方向を判断し、続いてL1方向を判断する)。
xColCb=Clip3(xCtb,Min(PicWidth-1,xCtb+(1<<CtbLog2Size)+3),xColCtrCb+(tempMv[0]>>4))
yColCb=Clip3(yCtb,Min(PicHeight-1,yCtb+(1<<CtbLog2Size)-1),yColCtrCb+(tempMv[1]>>4))
xColCb=((xColCb>>3)<<3)
yColCb=((yColCb>>3)<<3)
Mx=Clip3(x_ctb_pos,min(x_ctb_pos+lcu_size-cu_width,horizontal_size-cu_width),((Xpos+4)>>3)<<3)
My=Clip3(y_ctb_pos,min(y_ctb_pos+lcu_size-cu_height,vertical_size-cu_height),((Ypos+4)>>3)<<3)
Mx=min(((Xpos+4)>>3)<<3,min(x_ctb_pos+lcu_size-cu_width,horizontal_size-cu_width))
My=min(((Ypos+4)>>3)<<3,min(y_ctb_pos+lcu_size-cu_height,vertical_size-cu_height))
My+8がy_ctb_pos+lcu_size-cu_heightとvertical_size-cu_heightとのうちの小さい値以下であり、且つA1位置の動き情報とC3位置の動き情報が異なり、またはA2位置の動き情報とC4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号1を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、
Mx+8がx_ctb_pos+lcu_size-cu_widthとhorizontal_size-cu_widthとのうちの小さい値以下であり、且つA1位置の動き情報とB2位置の動き情報が異なり、またはA3位置の動き情報とB4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号2を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、
My-8がy_ctb_pos以上であり、且つA3位置の動き情報とC1位置の動き情報が異なり、またはA4位置の動き情報とC2位置の動き情報が異なれば、強化時間動きベクトル予測モード番号3を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、
Mx-8がx_ctb_pos以上であり、且つA2位置の動き情報とB1位置の動き情報が異なり、またはA4位置の動き情報とB3位置の動き情報が異なれば、強化時間動きベクトル予測モード番号4を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、を含み得る。
強化時間動きベクトル予測モード番号が0であれば、PxはMxに等しく、PyはMyに等しいと決定するステップと、
強化時間動きベクトル予測モード番号が1であれば、PxはMxに等しく、PyはMy+nに等しいと決定するステップと、
強化時間動きベクトル予測モード番号が2であれば、PxはMx+nに等しく、PyはMyに等しいと決定するステップと、
強化時間動きベクトル予測モード番号が3であれば、PxはMxに等しく、PyはMy-nに等しいと決定するステップと、
強化時間動きベクトル予測モード番号が4であれば、PxはMx-nに等しく、PyはMyに等しいと決定するステップと、を含み得、
例示的に、(Mx,My)は初期マッチング符号化ユニットの左上隅座標であり、(Px,Py)はターゲットマッチング符号化ユニットの左上隅座標である。
本発明の実施例は、強化時間動き情報予測方法を提供し、現在の符号化ユニットのco-locatedフレームにおけるコロケーテッド符号化ユニットの動き情報を利用してマッチング符号化ユニットを決定し、検索で得られたマッチング符号化ユニットに対して上下左右など、一連のオフセットを行い、複数の時間候補モードを生成し、周辺の符号化ユニットの動き情報の不正確によるマッチング符号化ユニットの検索が不正確であるという問題をある程度で回避する。
第1の部分において、現在の符号化ユニットの符号化/復号条件に基づいて、強化時間動きベクトル予測モードフラグと強化時間動きベクトル予測モードインデックス値とを符号化/解析し、
第2の部分において、現在の符号化ユニットの座標情報に基づいて、現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定する。
第3の部分において、初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築し、
第4の部分において、強化時間動きベクトル予測モードインデックス値に基づいて、強化時間候補モードリストにおいて対応する強化時間動きベクトル予測モードを取得し、当該強化時間動きベクトル予測モードに対応するターゲットマッチング符号化ユニットの座標情報を決定し、
第5の部分において、ターゲットマッチング符号化ユニットの座標情報に基づいて、現在の符号化ユニット中の各サブブロックの動き情報を取得し、
第6の部分において、現在の符号化ユニット中の各サブブロックの動き情報に基づいて、現在の符号化ユニット中の対応するサブブロックに対して動き補償を行う。
本発明の実施例にて提供される符号化方法は以下のステップを含み得る。
1、現在の符号化ユニットの座標情報に基づいて、現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定し、
2、初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築し、
3、強化時間候補リストにおける各強化時間候補モードを順にトラバースし、各モードに対応するターゲットマッチング符号化ユニットの座標情報を決定し、
4、ターゲットマッチング符号化ユニットの座標情報に対応する動き情報に基づいて、現在の符号化ユニット中の各サブブロックの動き情報を決定し、
5、現在の符号化ユニット中の各サブブロックの動き情報に基づいて、現在の符号化ユニット中の対応するサブブロックに対して動き補償を行い、
6、強化時間動きベクトル予測モードに対応するレート歪みコスト値を計算し、当該レート歪みコスト値を他の予測モードのレート歪みコスト値と比較し、最小のレート歪みコスト値に対応する予測モードを選択し、対応する強化時間動きベクトル予測モードフラグと強化時間動きベクトル予測モードインデックス値とをビットストリームに書き込み、復号デバイスに伝送する。
本発明の実施例にて提供される復号方法は以下のステップを含み得る。
1、現在の符号化ユニットの強化時間動きベクトル予測モードフラグの値と強化時間動きベクトル予測モードインデックス値とを取得し、取得した現在の符号化ユニットの強化時間動きベクトル予測モードフラグの値が第1の数値の場合、ステップ2~6を実行し、
2、現在の符号化ユニットの座標情報に基づいて、現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定し、
3、初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築し、
4、取得した強化時間動きベクトル予測モードインデックス値に基づいて、強化時間候補リストにおいて対応する強化時間動きベクトル予測モード番号を取得し、当該強化時間動きベクトル予測モード番号に対応するターゲットマッチング符号化ユニットの座標情報を決定し、
5、ターゲットマッチング符号化ユニットの座標情報に対応する動き情報に基づいて、現在の符号化ユニット中の各サブブロックの動き情報を決定し、
6、現在の符号化ユニット中の各サブブロックの動き情報に基づいて、現在の符号化ユニット中の対応するサブブロックに対して動き補償を行う。
例示的に、強化時間動きベクトル予測モードフラグと強化時間動きベクトル予測モードインデックス値とを解析するステップは、1)、強化時間動きベクトル予測モードフラグ(etmvp_flagと記されてもよい)を解析するステップと、2)、強化時間動きベクトル予測モードインデックス値(cu_etmvp_cand_indexと記されてもよい)を解析するステップと、を含み得る。
現在の符号化ユニットが解析条件1(すなわち上記第1の解析条件)を満たす場合、ビットストリームから強化時間動きベクトル予測モードフラグを解析し、それ以外の場合、強化時間動きベクトル予測モードフラグの値は0である(すなわち上記第2の数値は0である)。
現在の符号化ユニットが解析条件1を満たすことは、現在の符号化ユニットがスキップモードまたはダイレクトモードであることを含む。
現在の符号化ユニットが解析条件1を満たすことは、現在の符号化ユニットのサイズが、現在の符号化ユニットの幅および高さがいずれもN0以上であるという制限(すなわち上記予め設定されたサイズ制限)を満たすことを含む。例示的に、N0=8である。
現在の符号化ユニットが解析条件1を満たすことは、シーケンスレベルの高レベルシンタックスには、現在の符号化ユニットが強化時間動きベクトル予測技術をイネーブルすることが許可されることを含む。
現在の符号化ユニットが解析条件1を満たすことは、現在の符号化ユニットが角度重み付け予測の利用条件を満たし、または究極の動きベクトル表現の利用条件を満たすことを含む。
現在の符号化ユニットが解析条件1を満たすことは以下を含む。
1)、現在の符号化ユニットがスキップモードまたはダイレクトモードであり、
2)、現在の符号化ユニットのサイズが以下の制限を満たし、
2.1)、現在の符号化ユニットの幅および高さがいずれもN0以上であり、例示的に、N0=8であり、
3)、シーケンスレベルの高レベルシンタックスには、現在の符号化ユニットが強化時間動きベクトル予測技術をイネーブルすることが許可される。
現在の符号化ユニットが解析条件1を満たすことは以下を含む。
1)、現在の符号化ユニットがスキップモードまたはダイレクトモードであり、
2)、現在の符号化ユニットのサイズが以下の制限を満たし、
2.1)、現在の符号化ユニットの幅および高さがいずれもN0以上であり、例示的に、N0=8であり、
3)、シーケンスレベルの高レベルシンタックスには、現在の符号化ユニットが強化時間動きベクトル予測技術をイネーブルすることが許可され、
4)、現在の符号化ユニットが角度重み付け予測の利用条件を満たし、または究極の動きベクトル表現の利用条件を満たす。
4.1)、シーケンスレベルの高レベルシンタックスには、前記現在の符号化ユニットが角度重み付け予測技術をイネーブルすることが許可され、
4.2)、現在の符号化ユニットの幅および高さがいずれもN1以上であり、現在の符号化ユニットの幅および高さがいずれもN2以下であり、
4.3)、現在の画像フレームタイプがBピクチャである。
現在の符号化ユニットが解析条件1を満たす場合、ビットストリームから強化時間動きベクトル予測モードフラグを解析し、それ以外の場合、強化時間動きベクトル予測モードフラグの値は0である。
現在の符号化ユニットが解析条件1を満たす場合、ビットストリームから強化時間動きベクトル予測モードフラグを解析し、それ以外の場合、強化時間動きベクトル予測モードフラグの値は0である。
現在の符号化ユニットが解析条件1を満たす場合、ビットストリームから強化時間動きベクトル予測モードフラグを解析し、それ以外の場合、強化時間動きベクトル予測モードフラグの値は0である。
現在の符号化ユニットが解析条件2(すなわち上記第2の解析条件)を満たす場合、ビットストリームから強化時間動きベクトル予測モードインデックス値を解析し、それ以外の場合、強化時間動きベクトル予測モードインデックス値は0である(すなわち上記第3の数値は0である)。
現在の符号化ユニットが解析条件2を満たすことは、現在の符号化ユニットがスキップモードまたはダイレクトモードであることを含む。
現在の符号化ユニットが解析条件2を満たすことは、現在の符号化ユニットが強化時間動きベクトル予測モードであることを含む。
現在の符号化ユニットが解析条件2を満たすことは以下を含む。
1)、現在の符号化ユニットがスキップモードまたはダイレクトモードであり、
2)、現在の符号化ユニットが強化時間動きベクトル予測モードである。
現在の符号化ユニットが解析条件2(すなわち上記第2の解析条件)を満たす場合、ビットストリームから強化時間動きベクトル予測モードインデックス値を解析し、それ以外の場合、強化時間動きベクトル予測モードインデックス値は0である(すなわち上記第3の数値は0である)。
例示的に、現在の符号化ユニットの座標情報に基づいて、現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定するステップは、現在の画像フレームタイプに基づいて、マッチング符号化ユニットが位置する時間参照画像を決定するステップと、現在の符号化ユニットの座標情報に基づいて、現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定するステップと、を含み得る。
(Xpos,Ypos)は現在の符号化ユニットの画像における左上隅座標であり、(x_ctb_pos,y_ctb_pos)は現在の最大符号化ユニットの画像における左上隅座標であり、cu_widthおよびcu_heightはそれぞれ現在の符号化ユニットの幅および高さであり、horizontal_sizeおよびvertical_sizeはそれぞれ現在の画像の幅および高さであり、lcu_sizeは最大符号化ユニットのサイズであるとすると、以下の方法によりマッチング符号化ユニットの座標(Mx,My)を導出する。
Mx=Clip3(x_ctb_pos,min(x_ctb_pos+lcu_size-cu_width,horizontal_size-cu_width),((Xpos+4)>>3)<<3)
My=Clip3(y_ctb_pos,min(y_ctb_pos+lcu_size-cu_height,vertical_size-cu_height),((Ypos+4)>>3)<<3)
(Xpos,Ypos)は現在の符号化ユニットの画像における左上隅座標であり、(x_ctb_pos,y_ctb_pos)は現在の最大符号化ユニットの画像における左上隅座標であり、cu_widthおよびcu_heightはそれぞれ現在の符号化ユニットの幅および高さであり、horizontal_sizeおよびvertical_sizeはそれぞれ現在の画像の幅および高さであり、lcu_sizeは最大符号化ユニットのサイズであるとすると、以下の方法によりマッチング符号化ユニットの座標(Mx,My)を導出する。
Mx=min(((Xpos+4)>>3)<<3,min(x_ctb_pos+lcu_size-cu_width,horizontal_size-cu_width))
My=min(((Ypos+4)>>3)<<3,min(y_ctb_pos+lcu_size-cu_height,vertical_size-cu_height))
(Xpos,Ypos)は現在の符号化ユニットの画像における左上隅座標であり、(x_ctb_pos,y_ctb_pos)は現在の最大符号化ユニットの画像における左上隅座標であり、cu_widthおよびcu_heightはそれぞれ現在の符号化ユニットの幅および高さであり、horizontal_sizeおよびvertical_sizeはそれぞれ現在の画像の幅および高さであり、lcu_sizeは最大符号化ユニットのサイズであるとすると、以下の方法によりマッチング符号化ユニットの座標(Mx,My)を導出する。
Mx=Clip3(x_ctb_pos,min(x_ctb_pos+lcu_size-cu_width,horizontal_size-cu_width),(Xpos>>3)<<3)
My=Clip3(y_ctb_pos,min(y_ctb_pos+lcu_size-cu_height,vertical_size-cu_height),(Ypos>>3)<<3)
(Xpos,Ypos)は現在の符号化ユニットの画像における左上隅座標であるとすると、以下の方法によりマッチング符号化ユニットの座標(Mx,My)を導出してもよい。
Mx=(Xpos>>shift)<<shift
My=(Ypos>>shift)<<shift)
例示的に、(Mx,My)は初期マッチング符号化ユニットの時間参照画像における左上隅座標であり、A1~A4、B1~B4、C1~C4は時間参照画像における初期マッチング符号化ユニットの周辺に位置する隣接4*4ブロックであるとし、その概略図は図4に示すとおりであってもよい。
23.0、強化時間候補リストの長さを0に初期化する。例示的に、強化時間候補リストの初期長さは0である。
23.6.1、強化時間候補リストにおける最後の強化時間動きベクトル予測モード番号を強化時間候補リストに追加し、強化時間候補リストの長さに1を加え、
23.6.2、強化時間候補リストの長さが5に等しければ、リスト構築プロセスを終了する。
7.1)、EtmvpCandArray[length]=EtmvpCandArray[length-1]とし、lengthに1を加え、
7.2)、lengthが5に等しければ、リスト構築プロセスを終了する。
24.0、強化時間候補リストの長さを0に初期化する。例示的に、強化時間候補リストの初期長さは0である。
25.0、強化時間候補リストの長さを0に初期化する。例示的に、強化時間候補リストの初期長さは0である。
25.6.1、強化時間候補リストにおける最後の強化時間動きベクトル予測モード番号を強化時間候補リストに追加し、強化時間候補リストの長さに1を加え、
25.6.2、強化時間候補リストの長さが5に等しければ、リスト構築プロセスを終了する。
26.0、強化時間候補リストの長さを0に初期化する。
27.0、強化時間候補リストの長さを0に初期化する。例示的に、強化時間候補リストの初期長さは0である。
27.6.1、強化時間候補リストにおける最後の強化時間動きベクトル予測モード番号を強化時間候補リストに追加し、強化時間候補リストの長さに1を加え、
27.6.2、強化時間候補リストの長さが5に等しければ、リスト構築プロセスを終了する。
28.0、強化時間候補リストの長さを0に初期化する。例示的に、強化時間候補リストの初期長さは0である。
例示的に、強化時間動きベクトル予測モードインデックス(EtmvpCandIndexと記されてもよい)に基づいて、強化時間候補リストにおいて対応する強化時間動きベクトル予測モード番号(etmvp_modeと記されてもよい)を取得し、強化時間動きベクトル予測モード番号etmvp_modeに基づいて、ターゲットマッチング符号化ユニットの位置座標(Px,Py)を決定して得る。例示的に、
etmvp_mode=EtmvpCandArray[EtmvpCandIndex]である。
強化時間動きベクトル予測モード番号に基づいて、ターゲットマッチング符号化ユニットの位置座標(Px,Py)をルックアップテーブルにより決定する。例示的にetmvp_modeとPx、Pyとの対応関係は表2に示すとおりであってもよい。
強化時間動きベクトル予測モード番号が0であれば、ターゲットマッチング符号化ユニットは初期マッチング符号化ユニットであり、すなわちPxはMxに等しく、PyはMyに等しく、
強化時間動きベクトル予測モード番号が1であれば、ターゲットマッチング符号化ユニットは初期マッチング符号化ユニット全体を下にn個の画素オフセットして得られた時間参照ブロックであり、すなわちPxはMxに等しく、PyはMy+nに等しく、
強化時間動きベクトル予測モード番号が2であれば、ターゲットマッチング符号化ユニットは初期マッチング符号化ユニット全体を右にn個の画素オフセットして得られた時間参照ブロックであり、すなわちPxはMx+nに等しく、PyはMyに等しく、
強化時間動きベクトル予測モード番号が3であれば、ターゲットマッチング符号化ユニットは初期マッチング符号化ユニット全体を上にn個の画素オフセットして得られた時間参照ブロックであり、すなわちPxはMxに等しく、PyはMy-nに等しく、
強化時間動きベクトル予測モード番号が4であれば、ターゲットマッチング符号化ユニットは初期マッチング符号化ユニット全体を左にn個の画素オフセットして得られた時間参照ブロックであり、すなわちPxはMx-nに等しく、PyはMyに等しい。
例示的に、ターゲットマッチング符号化ユニットの座標情報に基づいて、ターゲットマッチング符号化ユニット中の各サブブロックの動き情報を含むターゲットマッチング符号化ユニットの動き情報を決定し、ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、現在の符号化ユニットの対応する位置のサブブロックの動き情報を決定してもよい。
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
31.1、当該サブブロックの前方向動き情報および後方向動き情報がいずれも利用可能であれば、当該サブブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ現在の符号化ユニットの対応する位置のサブブロックに与え、
31.2、当該サブブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
31.3、当該サブブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可であれば、当該サブブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
31.4、サブブロックの前方向動き情報および後方向動き情報がいずれも利用不可であれば、デフォルトの動き情報をパディングする。
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
32.1、当該サブブロックの前方向動き情報が利用可能であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
32.2、当該サブブロックの前方向動き情報が利用不可であれば、デフォルトの動き情報をパディングする。
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
33.1、現在の画像フレームタイプがPピクチャの場合、
33.1.1、当該サブブロックの前方向動き情報が利用可能であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
33.1.2、当該サブブロックの前方向動き情報が利用不可であれば、デフォルトの動き情報をパディングする。
33.2.1、当該サブブロックの前方向動き情報および後方向動き情報がいずれも利用可能であれば、当該サブブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ現在の符号化ユニットの対応する位置のサブブロックに与え、
33.2.2、当該サブブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
33.2.3、当該サブブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可であれば、当該サブブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
33.2.4、サブブロックの前方向動き情報および後方向動き情報がいずれも利用不可であれば、デフォルトの動き情報をパディングする。
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
34.1、当該サブブロックの前方向動き情報および後方向動き情報がいずれも利用可能であれば、当該サブブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ現在の符号化ユニットの対応する位置のサブブロックに与え、
34.2、当該サブブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
34.3、当該サブブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可であれば、当該サブブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
34.4、サブブロックの前方向動き情報および後方向動き情報がいずれも利用不可であれば、
34.4.1、現在の符号化ユニットの第1の周辺ブロックの前方向動き情報および後方向動き情報がいずれも利用可能な場合、第1の周辺ブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ現在の符号化ユニットの対応する位置のサブブロックに与え、
34.4.2、第1の周辺ブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可な場合、第1の周辺ブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
34.4.3、第1の周辺ブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可な場合、第1の周辺ブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
34.4.4、第1の周辺ブロックの前方向動き情報および後方向動き情報がいずれも利用不可な場合、ゼロ動き情報を現在の符号化ユニットの対応する位置のサブブロックに与える。
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
35.1、当該サブブロックの前方向動き情報が利用可能であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
35.2、当該サブブロックの前方向動き情報が利用不可であれば、
35.2.1、現在の符号化ユニットの第1の周辺ブロックの前方向動き情報が利用可能な場合、第1の周辺ブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
35.2.2、第1の周辺ブロックの前方向動き情報が利用不可な場合、ゼロ動き情報を現在の符号化ユニットの対応する位置のサブブロックに与える。
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
36.1、現在の画像フレームタイプがPピクチャの場合、
36.1.1、当該サブブロックの前方向動き情報が利用可能であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
36.1.2、当該サブブロックの前方向動き情報が利用不可であれば、
36.1.2.1、現在の符号化ユニットの第1の周辺ブロックの前方向動き情報が利用可能なとき、第1の周辺ブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
36.1.2.2、第1の周辺ブロックの前方向動き情報が利用不可なとき、ゼロ動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
36.2、現在の画像フレームタイプがBピクチャの場合、
36.2.1、当該サブブロックの前方向動き情報および後方向動き情報がいずれも利用可能であれば、当該サブブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ現在の符号化ユニットの対応する位置のサブブロックに与え、
36.2.2、当該サブブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
36.2.3、当該サブブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可であれば、当該サブブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
36.2.4、サブブロックの前方向動き情報および後方向動き情報がいずれも利用不可であれば、
36.2.4.1、現在の符号化ユニットの第1の周辺ブロックの前方向動き情報および後方向動き情報がいずれも利用可能なとき、第1の周辺ブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ現在の符号化ユニットの対応する位置のサブブロックに与え、
36.2.4.2、第1の周辺ブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可なとき、第1の周辺ブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
36.2.4.3、第1の周辺ブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可なとき、第1の周辺ブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与え、
36.2.4.4、第1の周辺ブロックの前方向動き情報および後方向動き情報がいずれも利用不可なとき、ゼロ動き情報を現在の符号化ユニットの対応する位置のサブブロックに与える。
例示的に、1つの符号化ユニットは少なくとも1つのサブブロックを含み、各サブブロックの幅は現在の符号化ユニットの幅を超えず、各サブブロックの高さは現在の符号化ユニットの高さを超えない。
現在の符号化ユニットのいずれかのサブブロックについて、現在のサブブロックの動き情報に基づいて、現在のサブブロックに対して動き補償を行い、現在のサブブロックの予測サンプル行列を得る。例示的に、現在の符号化ユニットの予測サンプルは各サブブロックの予測サンプルからなる。
現在の符号化ユニットのいずれかのサブブロックについて、現在のサブブロックがBIO条件を満たす場合、現在のサブブロックの動き情報に基づいて、現在のサブブロックに対して動き補償を行い、BIO技術を用いて補償後の画素値にオプティカルフローオフセット値を追加し、現在のサブブロックの予測サンプル行列を得、それ以外の場合、現在のサブブロックの動き情報に基づいて現在のサブブロックに対して動き補償を行い、現在のサブブロックの予測サンプル行列を得る。
1)、シーケンスレベルの高レベルシンタックスには、双方向オプティカルフロー技術をイネーブルすることが許可され、
2)、現在の符号化ユニットの動きベクトル精度が0に等しく、
3)、当該サブブロックが双方向予測を用い、
4)、当該サブブロックの参照画像リスト0における参照フレームインデックス値がrefIdxL0の参照フレームおよび参照画像リスト1における参照フレームインデックス値がrefIdxL1の参照フレームの表示順序はそれぞれ現在のフレームの両側に位置する。
現在の符号化ユニットのいずれかのサブブロックについて、現在のサブブロックの動き情報に対して復号側動きベクトル調整(DMVR)技術を行わず、現在のサブブロックの動き情報に基づいて、現在のサブブロックに対して動き補償を行い、現在のサブブロックの予測サンプル行列を得る。例示的に、現在の符号化ユニットの予測サンプルは各サブブロックの予測サンプルからなる。
現在の符号化ユニットのいずれかのサブブロックについて、現在のサブブロックの動き情報に対して復号側動きベクトル調整(DMVR)技術を行わず、現在のサブブロックがBIO条件を満たす場合、現在のサブブロックの動き情報に基づいて、現在のサブブロックに対して動き補償を行い、BIO技術を用いて補償後の画素値にオプティカルフローオフセット値を追加し、現在のサブブロックの予測サンプル行列を得、それ以外の場合、現在のサブブロックの動き情報に基づいて現在のサブブロックに対して動き補償を行い、現在のサブブロックの予測サンプル行列を得る。
1)、シーケンスレベルの高レベルシンタックスには、双方向オプティカルフロー技術をイネーブルすることが許可され、
2)、現在の符号化ユニットの動きベクトル精度が0に等しく、
3)、当該サブブロックが双方向予測を用い、
4)、当該サブブロックの参照画像リスト0における参照フレームインデックス値がrefIdxL0の参照フレームおよび参照画像リスト1における参照フレームインデックス値がrefIdxL1の参照フレームの表示順序はそれぞれ現在のフレームの両側に位置する。
My+8がy_ctb_pos+lcu_size-cu_heightとvertical_size-cu_heightとのうちの小さい値以下であり、且つA1位置の動き情報とC3位置の動き情報が異なり、またはA2位置の動き情報とC4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号1を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、
Mx+8がx_ctb_pos+lcu_size-cu_widthとhorizontal_size-cu_widthとのうちの小さい値以下であり、且つA1位置の動き情報とB2位置の動き情報が異なり、またはA3位置の動き情報とB4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号2を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、
My-8がy_ctb_pos以上であり、且つA3位置の動き情報とC1位置の動き情報が異なり、またはA4位置の動き情報とC2位置の動き情報が異なれば、強化時間動きベクトル予測モード番号3を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、
Mx-8がx_ctb_pos以上であり、且つA2位置の動き情報とB1位置の動き情報が異なり、またはA4位置の動き情報とB3位置の動き情報が異なれば、強化時間動きベクトル予測モード番号4を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、を含む。
強化時間動きベクトル予測モード番号が0であれば、PxはMxに等しく、PyはMyに等しいと決定することと、
強化時間動きベクトル予測モード番号が1であれば、PxはMxに等しく、PyはMy+nに等しいと決定することと、
強化時間動きベクトル予測モード番号が2であれば、PxはMx+nに等しく、PyはMyに等しいと決定することと、
強化時間動きベクトル予測モード番号が3であれば、PxはMxに等しく、PyはMy-nに等しいと決定することと、
強化時間動きベクトル予測モード番号が4であれば、PxはMx-nに等しく、PyはMyに等しいと決定することと、を含み、
ここで、(Mx,My)は前記初期マッチング符号化ユニットの左上隅座標であり、(Px,Py)は前記ターゲットマッチング符号化ユニットの左上隅座標である。
My+8がy_ctb_pos+lcu_size-cu_heightとvertical_size-cu_heightとのうちの小さい値以下であり、且つA1位置の動き情報とC3位置の動き情報が異なり、またはA2位置の動き情報とC4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号1を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、
Mx+8がx_ctb_pos+lcu_size-cu_widthとhorizontal_size-cu_widthとのうちの小さい値以下であり、且つA1位置の動き情報とB2位置の動き情報が異なり、またはA3位置の動き情報とB4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号2を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、
My-8がy_ctb_pos以上であり、且つA3位置の動き情報とC1位置の動き情報が異なり、またはA4位置の動き情報とC2位置の動き情報が異なれば、強化時間動きベクトル予測モード番号3を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、
Mx-8がx_ctb_pos以上であり、且つA2位置の動き情報とB1位置の動き情報が異なり、またはA4位置の動き情報とB3位置の動き情報が異なれば、強化時間動きベクトル予測モード番号4を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えることと、を含む。
当該強化時間動きベクトル予測モード番号が0であれば、PxはMxに等しく、PyはMyに等しいと決定することと、
当該強化時間動きベクトル予測モード番号が1であれば、PxはMxに等しく、PyはMy+nに等しいと決定することと、
当該強化時間動きベクトル予測モード番号が2であれば、PxはMx+nに等しく、PyはMyに等しいと決定することと、
当該強化時間動きベクトル予測モード番号が3であれば、PxはMxに等しく、PyはMy-nに等しいと決定することと、
当該強化時間動きベクトル予測モード番号が4であれば、PxはMx-nに等しく、PyはMyに等しいと決定することと、を含み、
ここで、(Mx,My)は前記初期マッチング符号化ユニットの左上隅座標であり、(Px,Py)は前記ターゲットマッチング符号化ユニットの左上隅座標である。
現在の画像フレームタイプがBピクチャであることと、を含み、前記現在の符号化ユニットが究極の動きベクトル表現の利用条件を満たすことは、シーケンスレベルの高レベルシンタックスには、前記現在の符号化ユニットが究極の動きベクトル表現技術をイネーブルすることが許可されることを含む。
720 第1の決定ユニット
730 構築ユニット
740 第2の決定ユニット
750 第3の決定ユニット
750 決定ユニット
760 補償ユニット
Claims (22)
- 現在の符号化ユニットの強化時間動きベクトル予測モードフラグの値と強化時間動きベクトル予測モードインデックス値とを取得するステップと、
前記強化時間動きベクトル予測モードフラグの値が第1の数値の場合、
前記現在の符号化ユニットの座標情報に基づいて、前記現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定するステップと、
前記初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築するステップと、
前記強化時間動きベクトル予測モードインデックス値に基づいて、前記強化時間候補リストにおいて対応する強化時間動きベクトル予測モード番号を取得し、前記強化時間動きベクトル予測モード番号に対応するターゲットマッチング符号化ユニットの座標情報を決定するステップと、
前記ターゲットマッチング符号化ユニットの座標情報に基づいて、ターゲットマッチング符号化ユニット中の各サブブロックの動き情報を含むターゲットマッチング符号化ユニットの動き情報を決定し、前記ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、前記現在の符号化ユニット中の対応する位置のサブブロックの動き情報を決定するステップと、を含むことを特徴とする復号方法。 - 現在の符号化ユニットの強化時間動きベクトル予測モードフラグの値を取得するステップは、
前記現在の符号化ユニットが第1の解析条件を満たす場合、ビットストリームから前記強化時間動きベクトル予測モードフラグの値を解析するステップと、
それ以外の場合、前記強化時間動きベクトル予測モードフラグの値が第2の数値であると決定するステップと、を含み、
前記強化時間動きベクトル予測モードフラグの値が第1の数値であることは、前記現在の符号化ユニットが強化時間動きベクトル予測モードをイネーブルすることを示し、
前記強化時間動きベクトル予測モードフラグの値が第2の数値であることは、前記現在の符号化ユニットが強化時間動きベクトル予測モードをイネーブルしないことを示すことを特徴とする請求項1に記載の方法。 - 前記現在の符号化ユニットが第1の解析条件を満たすことは、
前記現在の符号化ユニットの予測モードがスキップモードまたはダイレクトモードであることと、
前記現在の符号化ユニットのサイズが予め設定されたサイズ制限を満たすことであって、前記予め設定されたサイズ制限は現在の符号化ユニットの幅および高さがいずれも8以上である、ことと、
シーケンスレベルの高レベルシンタックスには、前記現在の符号化ユニットが強化時間動きベクトル予測技術をイネーブルすることが許可されることと、
前記現在の符号化ユニットが角度重み付け予測の利用条件または究極の動きベクトル表現の利用条件を満たすこととのうちの1つまたは複数を含むことを特徴とする請求項2に記載の方法。 - 前記現在の符号化ユニットが角度重み付け予測の利用条件を満たすことは、
シーケンスレベルの高レベルシンタックスには、現在の符号化ユニットが角度重み付け予測技術をイネーブルすることが許可されることと、
現在の符号化ユニットの幅および高さがいずれもN1以上であり、現在の符号化ユニットの幅および高さがいずれもN2以下であることであって、N1は8であり、N2は64であることと、
現在の画像フレームタイプがBピクチャであることと、を含み、
前記現在の符号化ユニットが究極の動きベクトル表現の利用条件を満たすことは、
シーケンスレベルの高レベルシンタックスには、前記現在の符号化ユニットが究極の動きベクトル表現技術をイネーブルすることが許可されることを含むことを特徴とする請求項3に記載の方法。 - 前記強化時間動きベクトル予測モードフラグはコンテキスト適応型バイナリ算術コーディングを用いるとともに、1つのコンテキストモデルを用いることを特徴とする請求項2に記載の方法。
- 現在の符号化ユニットの強化時間動きベクトル予測モードインデックス値を取得するステップは、
前記現在の符号化ユニットが第2の解析条件を満たす場合、ビットストリームから前記強化時間動きベクトル予測モードインデックス値を解析するステップを含むことを特徴とする請求項1に記載の方法。 - 前記現在の符号化ユニットが第2の解析条件を満たすことは、
前記現在の符号化ユニットの予測モードがスキップモードまたはダイレクトモードであることと、
前記現在の符号化ユニットが強化時間動きベクトル予測モードをイネーブルすることとのうちの1つまたは複数を含むことを特徴とする請求項6に記載の方法。 - 前記強化時間動きベクトル予測モードインデックス値の逆二値化は最大値が4のトランケーテッド・ユーナリに基づいて実現され、前記トランケーテッド・ユーナリは最大4つのバイナリ文字列を用い、各バイナリ文字は単独のコンテキストモデルを用い、合計で4つのコンテキストモデルを用いることを特徴とする請求項7に記載の方法。
- 前記現在の符号化ユニットの座標情報に基づいて、前記現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定するステップは、
現在の画像フレームタイプに基づいて、マッチング符号化ユニットが位置する時間参照画像を決定するステップと、
前記現在の符号化ユニットの座標情報に基づいて、前記初期マッチング符号化ユニットの前記時間参照画像における座標情報を決定するステップと、を含み、
ここで、前記現在の画像フレームタイプがPピクチャであれば、前記時間参照画像は参照画像リスト0における参照フレームインデックス値が0の参照画像であり、
現在の画像フレームタイプがBピクチャであれば、前記時間参照画像は参照画像リスト1における参照フレームインデックス値が0の参照画像であり、
前記初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築するステップは、
前記初期マッチング符号化ユニットの前記時間参照画像における座標情報に基づいて、強化時間候補リストを構築するステップを含むことを特徴とする請求項1に記載の方法。 - 前記現在の符号化ユニットの座標情報に基づいて、前記初期マッチング符号化ユニットの前記時間参照画像における座標情報を決定するステップは、
現在の最大符号化ユニットの画像における左上隅座標、最大符号化ユニットのサイズ、現在の画像のサイズ、現在の符号化ユニットのサイズ、現在の符号化ユニットの画像における左上隅座標に基づいて、初期マッチング符号化ユニットの座標情報を決定するステップを含むことを特徴とする請求項9に記載の方法。 - 現在の最大符号化ユニットの画像における左上隅座標、最大符号化ユニットのサイズ、現在の画像のサイズ、現在の符号化ユニットのサイズ、現在の符号化ユニットの画像における左上隅座標に基づいて、初期マッチング符号化ユニットの座標情報を決定するステップは、
現在の最大符号化ユニットの画像における左上隅横座標、最大符号化ユニットのサイズ、現在の符号化ユニットの幅、現在の画像の幅、現在の符号化ユニットの画像における左上隅横座標に基づいて、前記初期マッチング符号化ユニットの横座標を決定するステップと、
現在の最大符号化ユニットの画像における左上隅縦座標、最大符号化ユニットのサイズ、現在の符号化ユニットの高さ、現在の画像の高さ、現在の符号化ユニットの画像における左上隅縦座標に基づいて、前記初期マッチング符号化ユニットの縦座標を決定するステップと、を含むことを特徴とする請求項10に記載の方法。 - 前記初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築するステップは、
前記初期マッチング符号化ユニットの座標情報に基づいて、少なくとも1つの強化時間動きベクトル予測モード番号を決定するステップと、
前記少なくとも1つの強化時間動きベクトル予測モード番号に基づいて、強化時間候補リストを構築するステップと、を含むことを特徴とする請求項1に記載の方法。 - マッチング符号化ユニットの座標情報はマッチング符号化ユニットの時間参照画像における左上隅座標であり、
前記少なくとも1つの強化時間動きベクトル予測モード番号に基づいて、強化時間候補リストを構築するステップは、
強化時間動きベクトル予測モード番号0を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、
My+8がy_ctb_pos+lcu_size-cu_heightとvertical_size-cu_heightとのうちの小さい値以下であり、且つA1位置の動き情報とC3位置の動き情報が異なり、またはA2位置の動き情報とC4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号1を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、
Mx+8がx_ctb_pos+lcu_size-cu_widthとhorizontal_size-cu_widthとのうちの小さい値以下であり、且つA1位置の動き情報とB2位置の動き情報が異なり、またはA3位置の動き情報とB4位置の動き情報が異なれば、強化時間動きベクトル予測モード番号2を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、
My-8がy_ctb_pos以上であり、且つA3位置の動き情報とC1位置の動き情報が異なり、またはA4位置の動き情報とC2位置の動き情報が異なれば、強化時間動きベクトル予測モード番号3を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、
Mx-8がx_ctb_pos以上であり、且つA2位置の動き情報とB1位置の動き情報が異なり、またはA4位置の動き情報とB3位置の動き情報が異なれば、強化時間動きベクトル予測モード番号4を強化時間候補リストに追加し、強化時間候補リストの長さに1を加えるステップと、を含み、
ここで、(Mx,My)は前記初期マッチング符号化ユニットの座標情報であり、(x_ctb_pos,y_ctb_pos)は現在の最大符号化ユニットの画像における左上隅座標であり、lcu_sizeは最大符号化ユニットのサイズであり、cu_widthおよびcu_heightはそれぞれ現在の符号化ユニットの幅および高さであり、horizontal_sizeおよびvertical_sizeはそれぞれ現在の画像の幅および高さであり、
A1は前記初期マッチング符号化ユニットの左上隅の4*4ブロックであり、B1はA1の真左側の4*4ブロックであり、C1はA1の真上の4*4ブロックであり、A2は前記初期マッチング符号化ユニットの右上隅の4*4ブロックであり、B2はA2の真右側の4*4ブロックであり、C2はA2の真上の4*4ブロックであり、A3は前記初期マッチング符号化ユニットの左下隅の4*4ブロックであり、B3はA3の真左側の4*4ブロックであり、C3はA3の真下の4*4ブロックであり、A4は前記初期マッチング符号化ユニットの右下隅の4*4ブロックであり、B4はA4の真右側の4*4ブロックであり、C4はA4の真下の4*4ブロックであることを特徴とする請求項12に記載の方法。 - 前記初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築するステップは、
前記強化時間候補リストの長さが5未満の場合、強化時間候補リストの長さが5に等しくなるまで、
現在の強化時間候補リストにおける最後の強化時間動きベクトル予測モード番号と同じの強化時間動きベクトル予測モード番号を強化時間候補リストに追加し、強化時間候補リストの長さに1を加える操作を繰り返すステップをさらに含むことを特徴とする請求項13に記載の方法。 - 前記ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、前記現在の符号化ユニット中の対応する位置のサブブロックの動き情報を決定するステップは、
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
現在の画像フレームタイプがPピクチャの場合、
当該サブブロックの前方向動き情報が利用可能であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を前記現在の符号化ユニットの対応する位置のサブブロックに与えるステップを含むことを特徴とする請求項1に記載の方法。 - 前記ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、前記現在の符号化ユニット中の対応する位置のサブブロックの動き情報を決定するステップは、
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
現在の画像フレームタイプがBピクチャの場合、
当該サブブロックの前方向動き情報および後方向動き情報が利用可能であれば、当該サブブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ前記現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、
当該サブブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可であれば、当該サブブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、
当該サブブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可であれば、当該サブブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、前記現在の符号化ユニット中の対応する位置のサブブロックの動き情報を決定するステップは、
ターゲットマッチング符号化ユニット中のいずれかのサブブロックについて、
現在の画像フレームタイプがPピクチャの場合、
サブブロックの前方向動き情報が利用不可であれば、現在の符号化ユニットの第1の周辺ブロックの前方向動き情報が利用可能なとき、第1の周辺ブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、第1の周辺ブロックの前方向動き情報が利用不可なとき、ゼロ動き情報を現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、
現在の画像フレームタイプがBピクチャの場合、
サブブロックの前方向動き情報および後方向動き情報がいずれも利用不可であれば、現在の符号化ユニットの第1の周辺ブロックの前方向動き情報および後方向動き情報がいずれも利用可能なとき、第1の周辺ブロックの前方向動き情報および後方向動き情報をそれぞれList0の最初のフレームおよびList1の最初のフレームを指すようにスケールし、スケール後の前方向動き情報および後方向動き情報をそれぞれ現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、第1の周辺ブロックの前方向動き情報が利用可能であるが、後方向動き情報が利用不可なとき、第1の周辺ブロックの前方向動き情報をList0の最初のフレームを指すようにスケールし、スケール後の前方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、第1の周辺ブロックの後方向動き情報が利用可能であるが、前方向動き情報が利用不可なとき、第1の周辺ブロックの後方向動き情報をList1の最初のフレームを指すようにスケールし、スケール後の後方向動き情報を現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、第1の周辺ブロックの前方向動き情報および後方向動き情報がいずれも利用不可なとき、ゼロ動き情報を現在の符号化ユニットの対応する位置のサブブロックに与えるステップと、を含み、
ここで、前記第1の周辺ブロックは前記現在の符号化ユニットのいずれかの復号済み隣接ブロックを含むことを特徴とする請求項1に記載の方法。 - 現在の符号化ユニットの座標情報に基づいて、現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定するステップと、
前記初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築するステップと、
強化時間候補リストにおける各強化時間動きベクトル予測モード番号を順にトラバースし、各強化時間動きベクトル予測モード番号に対応するターゲットマッチング符号化ユニットの座標情報を決定するステップと、
前記ターゲットマッチング符号化ユニットの座標情報に基づいて、ターゲットマッチング符号化ユニット中の各サブブロックの動き情報を含むターゲットマッチング符号化ユニットの動き情報を決定し、前記ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、前記現在の符号化ユニット中の対応する位置のサブブロックの動き情報を決定するステップと、
前記現在の符号化ユニット中の各サブブロックの動き情報に基づいて、現在の符号化ユニット中の対応するサブブロックに対して動き補償を行うステップと、
強化時間動きベクトル予測モードに対応するレート歪みコスト値を計算し、当該レート歪みコスト値を他の予測モードのレート歪みコスト値と比較し、最小のレート歪みコスト値に対応する予測モードを選択し、対応する強化時間動きベクトル予測モードフラグと強化時間動きベクトル予測モードインデックス値とをビットストリームに書き込み、復号デバイスに伝送するステップと、を含むことを特徴とする符号化方法。 - 現在の符号化ユニットの強化時間動きベクトル予測モードフラグの値と強化時間動きベクトル予測モードインデックス値とを取得するための取得ユニットと、
前記強化時間動きベクトル予測モードフラグの値が第1の数値の場合、前記現在の符号化ユニットの座標情報に基づいて、前記現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定するための第1の決定ユニットと、
前記初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築するための構築ユニットと、
前記強化時間動きベクトル予測モードインデックス値に基づいて、前記強化時間候補リストにおいて対応する強化時間動きベクトル予測モード番号を取得し、前記強化時間動きベクトル予測モード番号に対応するターゲットマッチング符号化ユニットの座標情報を決定するための第2の決定ユニットと、
前記ターゲットマッチング符号化ユニットの座標情報に基づいて、ターゲットマッチング符号化ユニット中の各サブブロックの動き情報を含むターゲットマッチング符号化ユニットの動き情報を決定し、前記ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、前記現在の符号化ユニット中の対応する位置のサブブロックの動き情報を決定するための第3の決定ユニットと、を含むことを特徴とする復号装置。 - 現在の符号化ユニットの座標情報に基づいて、現在の符号化ユニットの初期マッチング符号化ユニットの座標情報を決定するための第1の決定ユニットと、
前記初期マッチング符号化ユニットの座標情報に基づいて、強化時間候補リストを構築するための構築ユニットと、
強化時間候補リストにおける各強化時間候補モードを順にトラバースし、各モードに対応するターゲットマッチング符号化ユニットの座標情報を決定するための第2の決定ユニットと、
前記ターゲットマッチング符号化ユニットの座標情報に基づいて、ターゲットマッチング符号化ユニット中の各サブブロックの動き情報を含むターゲットマッチング符号化ユニットの動き情報を決定し、前記ターゲットマッチング符号化ユニット中の各サブブロックの動き情報に基づいて、前記現在の符号化ユニット中の対応する位置のサブブロックの動き情報を決定するための第3の決定ユニットと、
前記現在の符号化ユニット中の各サブブロックの動き情報に基づいて、現在の符号化ユニット中の対応するサブブロックに対して動き補償を行うための動き補償ユニットと、
強化時間動きベクトル予測モードに対応するレート歪みコスト値を計算し、当該レート歪みコスト値を他の予測モードのレート歪みコスト値と比較し、最小のレート歪みコスト値に対応する予測モードを選択し、対応する強化時間動きベクトル予測モードフラグと強化時間動きベクトル予測モードインデックス値とをビットストリームに書き込み、復号デバイスに伝送するための符号化ユニットと、を含むことを特徴とする符号化装置。 - プロセッサと機械可読記憶媒体とを含み、前記機械可読記憶媒体には、前記プロセッサによって実行可能な機械実行可能命令が記憶され、前記プロセッサは請求項1~17のいずれか一項に記載の方法を実施するように機械実行可能命令を実行するために用いられることを特徴とする復号デバイス。
- プロセッサと機械可読記憶媒体とを含み、前記機械可読記憶媒体には、前記プロセッサによって実行可能な機械実行可能命令が記憶され、前記プロセッサは請求項18に記載の方法を実施するように機械実行可能命令を実行するために用いられることを特徴とする符号化デバイス。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024082505A JP2024098086A (ja) | 2021-03-19 | 2024-05-21 | 復号方法、符号化方法、装置、デバイスおよび記憶媒体 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110297136.3A CN114640856B (zh) | 2021-03-19 | 2021-03-19 | 解码方法、编码方法、装置及设备 |
CN202110297136.3 | 2021-03-19 | ||
PCT/CN2022/080697 WO2022194103A1 (zh) | 2021-03-19 | 2022-03-14 | 解码方法、编码方法、装置、设备及存储介质 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024082505A Division JP2024098086A (ja) | 2021-03-19 | 2024-05-21 | 復号方法、符号化方法、装置、デバイスおよび記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2024508193A JP2024508193A (ja) | 2024-02-22 |
JP7494403B2 true JP7494403B2 (ja) | 2024-06-03 |
Family
ID=78668980
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023557413A Active JP7494403B2 (ja) | 2021-03-19 | 2022-03-14 | 復号方法、符号化方法、装置、デバイスおよび記憶媒体 |
JP2024082505A Pending JP2024098086A (ja) | 2021-03-19 | 2024-05-21 | 復号方法、符号化方法、装置、デバイスおよび記憶媒体 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024082505A Pending JP2024098086A (ja) | 2021-03-19 | 2024-05-21 | 復号方法、符号化方法、装置、デバイスおよび記憶媒体 |
Country Status (8)
Country | Link |
---|---|
US (1) | US12063386B2 (ja) |
EP (1) | EP4280605A4 (ja) |
JP (2) | JP7494403B2 (ja) |
KR (2) | KR20240127495A (ja) |
CN (5) | CN113794889B (ja) |
AU (1) | AU2022235881B2 (ja) |
TW (1) | TWI806495B (ja) |
WO (1) | WO2022194103A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113794889B (zh) * | 2021-03-19 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 解码方法、编码方法、装置、设备及机器可读存储介质 |
CN115396672B (zh) * | 2022-08-25 | 2024-04-26 | 广东中星电子有限公司 | 比特流存储方法、装置、电子设备和计算机可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020003259A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Improved tmvp derivation |
WO2020232845A1 (zh) | 2019-05-17 | 2020-11-26 | 华为技术有限公司 | 一种帧间预测的方法和装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7924923B2 (en) | 2004-11-30 | 2011-04-12 | Humax Co., Ltd. | Motion estimation and compensation method and device adaptive to change in illumination |
AU2006201490B2 (en) * | 2005-04-19 | 2008-05-22 | Samsung Electronics Co., Ltd. | Method and apparatus for adaptively selecting context model for entropy coding |
JP2008005112A (ja) * | 2006-06-21 | 2008-01-10 | Matsushita Electric Ind Co Ltd | ストリームエンコーダ及びストリームデコーダ |
US10057594B2 (en) * | 2013-04-02 | 2018-08-21 | Vid Scale, Inc. | Enhanced temporal motion vector prediction for scalable video coding |
US9762927B2 (en) | 2013-09-26 | 2017-09-12 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
CN108293131B (zh) * | 2015-11-20 | 2021-08-31 | 联发科技股份有限公司 | 基于优先级运动矢量预测子推导的方法及装置 |
CN117336504A (zh) * | 2017-12-31 | 2024-01-02 | 华为技术有限公司 | 图像预测方法、装置以及编解码器 |
US11265551B2 (en) * | 2018-01-18 | 2022-03-01 | Qualcomm Incorporated | Decoder-side motion vector derivation |
US10511852B1 (en) * | 2018-07-13 | 2019-12-17 | Tencent America LLC | Method and apparatus for video coding |
US10715812B2 (en) * | 2018-07-13 | 2020-07-14 | Tencent America LLC | Method and apparatus for video coding |
CN110933426B (zh) * | 2018-09-20 | 2022-03-01 | 杭州海康威视数字技术股份有限公司 | 一种解码、编码方法及其设备 |
CN111385575A (zh) * | 2018-12-29 | 2020-07-07 | 华为技术有限公司 | 帧间预测方法、装置以及相应的编码器和解码器 |
CN111264061B (zh) * | 2019-03-12 | 2023-07-25 | 深圳市大疆创新科技有限公司 | 视频编码的方法与装置,以及视频解码的方法与装置 |
CN111953997B (zh) * | 2019-05-15 | 2024-08-09 | 华为技术有限公司 | 候选运动矢量列表获取方法、装置及编解码器 |
CN112153389B (zh) * | 2019-05-17 | 2021-11-19 | 华为技术有限公司 | 一种帧间预测的方法和装置 |
CN113794883B (zh) * | 2019-08-23 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN112204983A (zh) * | 2019-09-24 | 2021-01-08 | 北京大学 | 一种视频处理方法、设备及存储介质 |
CN112004097B (zh) * | 2020-07-30 | 2021-09-14 | 浙江大华技术股份有限公司 | 帧间预测方法、图像处理装置以及计算机可读存储介质 |
CN112291565B (zh) * | 2020-09-10 | 2021-09-14 | 浙江大华技术股份有限公司 | 视频编码方法及其相关装置 |
CN112218076B (zh) * | 2020-10-17 | 2022-09-06 | 浙江大华技术股份有限公司 | 一种视频编码方法、装置、系统及计算机可读存储介质 |
US11924409B2 (en) * | 2021-02-21 | 2024-03-05 | Alibaba (China) Co., Ltd. | Systems and methods for inter prediction compensation |
US11778217B2 (en) * | 2021-02-22 | 2023-10-03 | Tencent America LLC | High level syntax control for screen content coding |
CN113794889B (zh) * | 2021-03-19 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 解码方法、编码方法、装置、设备及机器可读存储介质 |
-
2021
- 2021-03-19 CN CN202111146280.3A patent/CN113794889B/zh active Active
- 2021-03-19 CN CN202111143914.XA patent/CN113727118B/zh active Active
- 2021-03-19 CN CN202111143912.0A patent/CN113709502B/zh active Active
- 2021-03-19 CN CN202111146263.XA patent/CN113794888B/zh active Active
- 2021-03-19 CN CN202110297136.3A patent/CN114640856B/zh active Active
-
2022
- 2022-03-14 JP JP2023557413A patent/JP7494403B2/ja active Active
- 2022-03-14 EP EP22770458.2A patent/EP4280605A4/en active Pending
- 2022-03-14 KR KR1020247027215A patent/KR20240127495A/ko active Application Filing
- 2022-03-14 US US18/548,785 patent/US12063386B2/en active Active
- 2022-03-14 KR KR1020237028128A patent/KR102696422B1/ko active IP Right Grant
- 2022-03-14 AU AU2022235881A patent/AU2022235881B2/en active Active
- 2022-03-14 WO PCT/CN2022/080697 patent/WO2022194103A1/zh active Application Filing
- 2022-03-16 TW TW111109686A patent/TWI806495B/zh active
-
2024
- 2024-05-21 JP JP2024082505A patent/JP2024098086A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020003259A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Improved tmvp derivation |
WO2020232845A1 (zh) | 2019-05-17 | 2020-11-26 | 华为技术有限公司 | 一种帧间预测的方法和装置 |
Non-Patent Citations (1)
Title |
---|
Jianle Chen, Yan Ye, and Seung Hwan Kim,Algorithm description for Versatile Video Coding and Test Model 11 (VTM 11),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29,JVET-T2002-v2,20th Meeting, by teleconference,2021年01月,pp.46-47 |
Also Published As
Publication number | Publication date |
---|---|
CN113794888A (zh) | 2021-12-14 |
EP4280605A1 (en) | 2023-11-22 |
US20240171770A1 (en) | 2024-05-23 |
CN113794889A (zh) | 2021-12-14 |
CN114640856B (zh) | 2022-12-23 |
EP4280605A4 (en) | 2024-08-07 |
JP2024098086A (ja) | 2024-07-19 |
CN113709502B (zh) | 2022-12-23 |
KR20230128569A (ko) | 2023-09-05 |
CN113727118B (zh) | 2022-12-23 |
AU2022235881A1 (en) | 2023-09-07 |
CN113727118A (zh) | 2021-11-30 |
CN113709502A (zh) | 2021-11-26 |
KR102696422B1 (ko) | 2024-08-16 |
KR20240127495A (ko) | 2024-08-22 |
CN113794888B (zh) | 2022-12-23 |
WO2022194103A1 (zh) | 2022-09-22 |
JP2024508193A (ja) | 2024-02-22 |
AU2022235881B2 (en) | 2024-05-23 |
TW202245472A (zh) | 2022-11-16 |
CN113794889B (zh) | 2022-12-23 |
CN114640856A (zh) | 2022-06-17 |
TWI806495B (zh) | 2023-06-21 |
US12063386B2 (en) | 2024-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7494403B2 (ja) | 復号方法、符号化方法、装置、デバイスおよび記憶媒体 | |
JP7521137B2 (ja) | 復号化方法、符号化方法、装置、デバイスおよび記憶媒体 | |
CN118511521A (zh) | 用于视频处理的方法、装置和介质 | |
US20240137498A1 (en) | Utilization of Recursive Prediction Unit in Video Coding | |
WO2019150411A1 (ja) | 映像符号化装置、映像符号化方法、映像復号装置、映像復号方法、及び映像符号化システム | |
US20240357155A1 (en) | Methods, apparatuses, devices, and storage media for encoding or decoding | |
RU2824460C1 (ru) | Способы, оборудование, устройства и носители данных для кодирования или декодирования | |
WO2023274302A1 (en) | Recursive prediction unit in video coding | |
WO2022184052A1 (en) | Inter-prediction on non-dyadic blocks | |
JP2012120108A (ja) | 補間画像生成装置及びプログラム、並びに、動画像復号装置及びプログラム | |
WO2024027802A1 (en) | Method, apparatus, and medium for video processing | |
CN118402236A (zh) | 用于视频处理的方法、装置和介质 | |
CN118679744A (zh) | 用于视频处理的方法、装置和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230928 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7494403 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |