JP7311619B2 - コーデック方法及び装置、符号化デバイス及び復号化デバイス - Google Patents
コーデック方法及び装置、符号化デバイス及び復号化デバイス Download PDFInfo
- Publication number
- JP7311619B2 JP7311619B2 JP2021552234A JP2021552234A JP7311619B2 JP 7311619 B2 JP7311619 B2 JP 7311619B2 JP 2021552234 A JP2021552234 A JP 2021552234A JP 2021552234 A JP2021552234 A JP 2021552234A JP 7311619 B2 JP7311619 B2 JP 7311619B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- block
- pixel
- sub
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 114
- 230000033001 locomotion Effects 0.000 claims description 1871
- 239000013598 vector Substances 0.000 claims description 1756
- 241000428919 Sweet potato mosaic virus Species 0.000 description 31
- 230000008569 process Effects 0.000 description 31
- 238000010586 diagram Methods 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/533—Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/557—Motion estimation characterised by stopping computation or iteration based on certain criteria, e.g. error magnitude being too large or early exit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
Description
前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することにおいて、候補動きベクトルに対応するコスト値を取得することは、第1の参照ブロックに基づいて、前記候補動きベクトルに対応する第1のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記候補動きベクトルに対応する第2のサブ参照ブロックを確定することと、垂直2倍のダウンサンプリングを行い、前記第1の参照ブロック及び前記第2の参照ブロックの各画素値の差分絶対値和を取得することと、取得した差分絶対値和に基づいて、前記候補動きベクトルに対応するコスト値を確定することと、を含み、オリジナル動きベクトルに対応するコスト値を取得することは、第1の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第3のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第4のサブ参照ブロックを確定することと、垂直2倍のダウンサンプリングを行い、前記第1のサブ参照ブロック及び前記第2のサブ参照ブロックの各画素値の差分絶対値和を取得することと、取得した差分絶対値和に基づいて、前記オリジナル動きベクトルに対応するコスト値を確定することと、を含んでよい。
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することと、前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することと、を含んでよい。
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することは、前記最適動きベクトルに基づいて、前記最適動きベクトルと前記オリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、前記第1の整数画素動きベクトル調整値に基づいて、第2の整数画素動きベクトル調整値を確定し、前記第2の整数画素動きベクトル調整値と前記第1の整数画素動きベクトル調整値とは互いに反数であることと、を含んでよい。
前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することとは、前記第1の目標動きベクトルは、前記第1のオリジナル動きベクトルと前記第1の整数画素動きベクトル調整値との和であることと、前記第2の目標動きベクトルは、前記第2のオリジナル動きベクトルと前記第2の整数画素動きベクトル調整値との和であることと、を含んでよい。
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値と、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値とを確定することと、第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値に基づいて、第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを取得することと、第2の整数画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値に基づいて、第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを取得することと、を含んでよい。
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することと、第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値を基づいて、最適オフセット動きベクトルを取得することと、前記最適オフセット動きベクトルに基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1の目標動きベクトルを取得することと、前記最適オフセット動きベクトルの反数に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2の目標動きベクトルを取得することと、を含んでよい。
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することは、前記最適動きベクトルに基づいて、前記最適動きベクトルと前記第1のオリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することと、を含んでよい。
前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することは、前記最適動きベクトルを中心とした5つの整数画素動きベクトルのコスト値を順次に確定し、前記5つの整数画素動きベクトルは、前記最適動きベクトルを中心として、それぞれ、水平に左へ、水平に右へ、垂直に上へ、垂直に下へシフトするにより取得した5つのエッジ動きベクトルであることと、前記5つの整数画素動きベクトルのコスト値に基づいて、前記第1のサブ画素動きベクトル調整値を確定することと、を含んでよい。
第1の目標動きベクトルは、第1のオリジナル動きベクトルと、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値との和であってよく、第2の目標動きベクトルは、第2のオリジナル動きベクトルと、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値との和であってよく、前記第2の整数画素動きベクトル調整値と、前記第1の整数画素動きベクトル調整値とは、互いに反数であってよく、前記第2のサブ画素動きベクトル調整値と、前記第1のサブ画素動きベクトル調整値とは、互いに反数である。
前記最適動きベクトルは、前記オリジナル動きベクトル及び各候補動きベクトルから選択されたコスト値が最も小さい動きベクトルであってよい。
第1の整数画素動きベクトル調整値における垂直及び/又は水平方向の絶対値が予て設定された値に等しい場合、前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得してよい。
第1の整数画素動きベクトル調整値における垂直及び/又は水平方向の絶対値が予て設定された値に等しくない場合、前記第1の整数画素動きベクトル調整値及び前記第1のサブ画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得してよい。
オリジナル動きベクトルに対応するコスト値が予て設定された閾値以上である場合、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択するステップを実行してよく、オリジナル動きベクトルに対応するコスト値が予て設定された閾値小さい場合、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択するステップを実行しなくてよく、前記予て設定された閾値は、前記サブブロックの幅及び高さにより確定される。
前記現在のブロックが1つのサブブロックのみを含む場合、当該サブブロックは現在のブロック自体であってよい。
前記第1の参照ブロック及び第2の参照ブロックは、輝度成分に基づいて確定した参照ブロックであってよい。
前記第1の参照ブロックの画素値及び第2の参照ブロックの画素値のどちらも、バイリニア補間で取得されるものであってよい。
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップは、前記第1のオリジナル動きベクトル及び前記現在のブロックの第1の参照フレームに基づいて、バイリニア補間で第1の参照ブロックを確定することと、前記第2のオリジナル動きベクトル及び前記現在のブロックの第2の参照フレームに基づいて、バイリニア補間で第2の参照ブロックを確定することと、を含んでよく、前記第1の参照ブロックのサイズと前記第2の参照ブロックのサイズとは同じであり、前記第1の参照ブロックの幅値は、前記サブブロックの幅値及び探索範囲に基づいて確定され、前記第1の参照ブロックの高さ値は、前記サブブロックの高さ値及び探索範囲に基づいて確定される。
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップは、前記第1のオリジナル動きベクトルに基づいて、前記現在のブロックの第1の参照フレームから第1の整数画素ブロックを取得し、前記第1の整数画素ブロックに対してバイリニア補間を行って前記第1の参照ブロックを取得することと、前記第2のオリジナル動きベクトルに基づいて、前記現在のブロックの第2の参照フレームから第2の整数画素ブロックを取得し、前記第2の整数画素ブロックに対してバイリニア補間を行って前記第2の参照ブロックを取得することと、を含んでよく、Wは前記サブブロックの幅であり、Hは前記現在のブロックの高さであり、SRは探索範囲である場合、第1の参照ブロック及び第2の参照ブロックの幅値はW+2*SRであり、第1の参照ブロック及び第2の参照ブロックの高さ値はH+2*SRであり、SRの値は2としてよい。
第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行う際に、重みが同じであってよい。
前記第3の参照ブロックの画素値及び前記第4の参照ブロックの画素値は、8タップの補間フィルタにより補間して取得されてよい。
前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することは、前記第1の目標動きベクトルに基づいて、前記現在のブロックの第1の参照フレームから前記サブブロックに対応する第5の参照ブロックを確定し、8タップの補間フィルタにより前記第5の参照ブロックにおける画素値を補間して、前記第3の参照ブロックを取得することと、前記第2の目標動きベクトルに基づいて、前記現在のブロックの第2の参照フレームから前記サブブロックに対応する第6の参照ブロックを確定し、8タップの補間フィルタにより前記第6の参照ブロックにおける画素値を補間して、前記第4の参照ブロックを取得することと、を含んでよく、前記第5の参照ブロックのサイズは、前記サブブロックより大きいであり、前記第6の参照ブロックのサイズは、前記サブブロックより大きいであり、前記サイズは、幅と高さとを含んでよい。
前記サブブロックは、輝度成分を含んでよく、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップは、前記サブブロックの輝度成分に対して、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックに対して重み付け動き補償を行い、前記サブブロックの輝度予測値を取得することを含んでよい。
前記サブブロックは、色度成分を含んでよく、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップは、前記サブブロックの色度成分に対して、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックに対して重み付け動き補償を行い、前記サブブロックの色度予測値を取得することを含んでよい。
現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックの特徴情報が特定の条件を満たしてよく、前記特徴情報は、現在のブロックに対応する動き情報予測モードと、現在のブロックに対応する動き情報属性と、現在のブロックのサイズ情報とを含んでよく、前記現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックの特徴情報が満たす特定の条件は、少なくとも、現在のブロックはMMVDモードを使用しないことと、現在のブロックはMergeモードを使用することと、現在のブロックのサイズは限定範囲内であることと、現在のブロックの動き情報は2つの異なる方向の動き情報を含み、且つ、2つの異なる方向の動き情報に対応する2つの参照フレームが現在のフレームとの距離は同じであってよい。
現在のブロックはMMVDモードを使用しないことと、現在のブロックはMergeモードを使用することと、現在のブロックのサイズは限定範囲内であることと、現在のブロックの動き情報属性は2つの異なる方向の動き情報を含み、且つ、2つの異なる方向の動き情報に対応する2つの参照フレームが現在のフレームとの距離は同じであることとの中の何れか1つの条件を満たさない場合、現在のブロックは、動きベクトルリファインメントモードを有効にしないこと、をさらに含んでよい。
前記現在のブロックが所在する現在のフレームと、第1の参照フレーム、第2の参照フレームのそれぞれとの間の距離は同じであってよい。
前記現在のブロックが1つのサブブロックのみを含む場合、当該サブブロックは前記現在のブロック自体であり、前記第1のオリジナル動きベクトル及び前記第2のオリジナル動きベクトルは、前記現在のブロックのオリジナル動きベクトルであってよい。
前記現在のブロックが複数のサブブロックを含む場合、前記複数のサブブロックのそれぞれの前記第1のオリジナル動きベクトル及び前記第2のオリジナル動きベクトルは、前記現在のブロックの2つの異なる方向のオリジナル動きベクトルを共用してよい。
本願は符号化方法を提供し、前記方法は、
現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを含み、前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含む。
本願はコーデック装置を提供し、前記装置は、現在のブロックの特徴情報が特定の条件を満たす場合、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて前記現在のブロックに対応する第2の参照ブロックを確定する確定モジュールと、前記第1の参照ブロックの第1の画素値と前記第2の参照ブロックの第2の画素値とに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得る処理モジュールと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて前記現在のブロックを符号化又は復号化するコーデックモジュールと、を含む。
本願は機械可読記憶媒体を提供し、前記機械可読記憶媒体は、プロセッサによって実行されると、前記プロセッサに前記方法を実現させるコンピュータ命令が格納される。
E(1,0)=E(0,0)である場合、水平に右へ半画素分シフトする(deltaMv[0]=N)。
E(0,-1)=E(0,0)である場合、垂直に上へ半画素分シフトする(deltaMv[1]=-N)。
E(0,1)=E(0,0)である場合、垂直に下へ半画素分シフトする(deltaMv[1]=N)。
ステップb11における「当該初期コスト値costが4*dx*dy/2より小さい場合、後続の探索処理を直接にスキップする」ことを取り除き、即ち、初期コスト値costが4*dx*dy/2より小さい場合、「後続の探索処理を直接にスキップする」ことなく、後続の探索処理を継続し、即ちステップb12を実行する必要がある。
ステップb21における「notZeroCostがfalseではなく、且つ、deltaMVが(0、0)である場合のみ、後続処理を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する」を、「notZeroCostがfalseでなく、且つ、現在の最適整数画素の上下左右に1つの整数画素だけ離れた4つの点のコスト値が既にステップb1で計算によって取得された場合のみ、後続処理を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する」に変更する。
BestMVoffsetに基づいて目標動きベクトルを取得する。ここで、Refined_MV0=Org_MV0+BestMVoffsetであり、Refined_MV1=Org_MV1-BestMVoffsetである。
E(1,0)=E(0,0)である場合、水平に右へ半画素分シフトする(deltaMv[0]=N)。
E(0,-1)=E(0,0)である場合、垂直に上へ半画素分シフトする(deltaMv[1]=-N)。
E(0,1)=E(0,0)である場合、垂直に下へ半画素分シフトする(deltaMv[1]=N)。
上記方法と同様な発明概念に基づいて、本願の実施例は、さらに、符号化側又は復号化側に適用されるコーデック装置を提供する。図9は前記装置の構成図であり、図9に示すように、前記装置は、
現在のブロックの特徴情報が特定の条件を満たす場合、前記現在のブロックの第1のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第2の参照ブロックを確定する、確定モジュール91と、前記第1の参照ブロックの第1の画素値と前記第2の参照ブロックの第2の画素値とに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得る、処理モジュール92と、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記現在のブロックを符号化又は復号化する、コーデックモジュール93と、を含む。
前記現在のブロックが少なくとも1つのサブブロックを含む場合、前記現在のブロックの各サブブロックに対して、前記第1の画素値及び前記第2の画素値に基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルを得ること、に用いられる。
前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心動きベクトルに確定し、
前記中心動きベクトルに対応するエッジ動きベクトルを確定し、
前記第1の画素値及び前記第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得し、
前記第1のコスト値及び前記第2のコスト値に基づいて、最適動きベクトルとして、前記中心動きベクトル及び前記エッジ動きベクトルから1つの動きベクトルを選択し、
終了条件が満たされるか否かを判断し、終了条件が満たされない場合、前記最適動きベクトルを中心動きベクトルに確定し、前記中心動きベクトルに対応するエッジ動きベクトルを確定することに戻り、
終了条件が満たされる場合、前記最適動きベクトルに基づいて、前記サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定し、前記最適動きベクトルに基づいて、前記サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定すること、に用いられる。
前記中心動きベクトル(x,y)を異なる方向にSだけシフトし、異なる方向のエッジ動きベクトル(x,y+S)と、エッジ動きベクトル(x,y-S)と、エッジ動きベクトル(x+S,y)と、エッジ動きベクトル(x-S,y)と、エッジ動きベクトル(x+right,y+down)とを順次得ること、又は、
前記中心動きベクトル(x、y)を異なる方向にSだけシフトし、異なる方向のエッジ動きベクトル(x、y-S)と、エッジ動きベクトル(x、y+S)と、エッジ動きベクトル(x-S、y)と、エッジ動きベクトル(x+S、y)と、エッジ動きベクトル(x+right、y+down)とを順次得ること、に用いられ、
エッジ動きベクトル(x+right,y+down)のデフォルト値は(x-S,y-S)であり、
エッジ動きベクトル(x+S、y)のコスト値がエッジ動きベクトル(x-S、y)のコスト値より小さい場合、rightはSであり、エッジ動きベクトル(x、y+S)のコスト値がエッジ動きベクトル(x、y-S)のコスト値より小さい場合、downはSであり、又は、エッジ動きベクトル(x+S、y)のコスト値がエッジ動きベクトル(x-S、y)のコスト値以下の場合、rightはSであり、エッジ動きベクトル(x、y+S)のコスト値がエッジ動きベクトル(x、y-S)のコスト値以下の場合、downはSである。
ダウンサンプリングされていない第1の画素値及びダウンサンプリングされていない第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得すること、又は、
前記第1の画素値に対してダウンサンプリング操作を行い、前記第2の画素値に対してダウンサンプリング操作を行い、ダウンサンプリングされた第1の画素値及びダウンサンプリングされた第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得すること、又は、
前記第1の画素値に対してシフト及びダウンサンプリング操作を行い、前記第2の画素値に対してシフト及びダウンサンプリング操作を行い、処理された第1の画素値及び処理された第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得すること、に用いられる。
前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心として、周囲の動きベクトルから一部又は全ての動きベクトルを選択し、選択された動きベクトルを候補動きベクトルとすることと、
前記第1の画素値及び前記第2の画素値に基づいて、前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルに対応する第3のコスト値及び前記候補動きベクトルに対応する第4のコスト値を取得することと、
前記第3のコスト値及び前記第4のコスト値に基づいて、最適動きベクトルとして、前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトル及び前記候補動きベクトルから1つの動きベクトルを選択することと、
前記最適動きベクトルに基づいて、前記サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定し、前記最適動きベクトルに基づいて、前記サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定することと、に用いられる。
前記サブブロックの第2の目標動きベクトルに基づいて、第2の参照フレームから前記サブブロックに対応する第6の参照ブロックを確定し、前記第6の参照ブロックにおける画素値を補間し、前記第4の参照ブロックを得ることと、に用いられる。
本願の実施例に係る復号化デバイスは、ハードウェア的に、そのハードウェア構成模式図について、具体的に図10を参照できる。前記復号化デバイスは、プロセッサ101と機械可読記憶媒体102とを含み、前記機械可読記憶媒体102は前記プロセッサ101によって実行可能な機械実行可能な命令を格納し、前記プロセッサ101は、機械実行可能な命令を実行し、本願の上記例示で開示された方法を実現する。例えば、プロセッサは、機械実行可能な命令を実行することに用いられ、
現在のブロックの特徴情報が特定の条件を満たす場合、前記現在のブロックの第1のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第2の参照ブロックを確定するステップと、前記第1の参照ブロックの第1の画素値及び前記第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得るステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記現在のブロックを復号化するステップと、を実現する。
Claims (14)
- 現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを含む、復号化方法であって、
前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、
前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、
を含み、
前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
復号化方法。 - 前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することにおいて、
候補動きベクトルに対応するコスト値を取得することは、
第1の参照ブロックに基づいて、前記候補動きベクトルに対応する第1のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記候補動きベクトルに対応する第2のサブ参照ブロックを確定することと、
垂直2倍のダウンサンプリングを行い、前記第1の参照ブロック及び前記第2の参照ブロックの各画素値の差分絶対値和を取得することと、
取得した差分絶対値和に基づいて、前記候補動きベクトルに対応するコスト値を確定することと、を含み、
オリジナル動きベクトルに対応するコスト値を取得することは、
第1の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第3のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第4のサブ参照ブロックを確定することと、
垂直2倍のダウンサンプリングを行い、前記第1のサブ参照ブロック及び前記第2のサブ参照ブロックの各画素値の差分絶対値和を取得することと、
取得した差分絶対値和に基づいて、前記オリジナル動きベクトルに対応するコスト値を確定することと、を含む、
請求項1に記載の復号化方法。 - 前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することと、
前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、
前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクト
ルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することと、を含み、
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することは、
前記最適動きベクトルに基づいて、前記最適動きベクトルと前記オリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、
前記第1の整数画素動きベクトル調整値に基づいて、第2の整数画素動きベクトル調整値を確定し、前記第2の整数画素動きベクトル調整値と前記第1の整数画素動きベクトル調整値とは互いに反数であることと、を含み、
前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することとは、
前記第1の目標動きベクトルは、前記第1のオリジナル動きベクトルと前記第1の整数画素動きベクトル調整値との和であることと、
前記第2の目標動きベクトルは、前記第2のオリジナル動きベクトルと前記第2の整数画素動きベクトル調整値との和であることと、を含む、
請求項1に記載の復号化方法。 - 前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値と、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値とを確定することと、
第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値に基づいて、第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを取得することと、
第2の整数画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値に基づいて、第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを取得することと、を含み、
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することは、
前記最適動きベクトルに基づいて、前記最適動きベクトルと前記第1のオリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、
前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することと、を含み、
前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することは、
前記最適動きベクトルを中心とした5つの整数画素動きベクトルのコスト値を順次に確定し、前記5つの整数画素動きベクトルは、前記最適動きベクトルを中心として、それぞれ、水平に左へ、水平に右へ、垂直に上へ、垂直に下へシフトするにより取得した5つのエッジ動きベクトルであることと、
前記5つの整数画素動きベクトルのコスト値に基づいて、前記第1のサブ画素動きベクトル調整値を確定することと、を含む、
請求項1に記載の復号化方法。 - 前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することと、
第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値を基づいて、最適オフセット動きベクトルを取得することと、
前記最適オフセット動きベクトルに基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1の目標動きベクトルを取得することと、
前記最適オフセット動きベクトルの反数に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2の目標動きベクトルを取得することと、を含み、
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することは、
前記最適動きベクトルに基づいて、前記最適動きベクトルと前記第1のオリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、
前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することと、を含み、
前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することは、
前記最適動きベクトルを中心とした5つの整数画素動きベクトルのコスト値を順次に確定し、前記5つの整数画素動きベクトルは、前記最適動きベクトルを中心として、それぞれ、水平に左へ、水平に右へ、垂直に上へ、垂直に下へシフトするにより取得した5つのエッジ動きベクトルであることと、
前記5つの整数画素動きベクトルのコスト値に基づいて、前記第1のサブ画素動きベクトル調整値を確定することと、を含む、
請求項1に記載の復号化方法。 - 第1の目標動きベクトルは、第1のオリジナル動きベクトルと、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値との和であることと、
第2の目標動きベクトルは、第2のオリジナル動きベクトルと、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値との和であることと、
前記第2の整数画素動きベクトル調整値と、前記第1の整数画素動きベクトル調整値とは、互いに反数であることと、
前記第2のサブ画素動きベクトル調整値と、前記第1のサブ画素動きベクトル調整値とは、互いに反数であることと、を特徴とする、
請求項4に記載の復号化方法。 - 前記最適動きベクトルは、前記オリジナル動きベクトル及び各候補動きベクトルから選択されたコスト値が最も小さい動きベクトルであること、を特徴とする、
請求項1に記載の復号化方法。 - 前記現在のブロックが1つのサブブロックのみを含む場合、当該サブブロックは現在のブロック自体であること、を特徴とする、
請求項1に記載の復号化方法。 - 現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記
現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを含む、符号化方法であって、
前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含み、
前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
符号化方法。 - プロセッサと、前記プロセッサによって実行可能な機械実行可能な命令を格納する機械可読記憶媒体とを含み、
前記プロセッサは、機械実行可能な命令を実行することで、
請求項1~8のいずれか1項に記載の方法を実現する
復号化デバイス。 - プロセッサと、前記プロセッサによって実行可能な機械実行可能な命令を格納する機械可読記憶媒体とを含み、前記プロセッサは、機械実行可能な命令を実行することで、現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを、実現する符号化デバイスであって、
前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含み、
前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
符号化デバイス。 - 請求項1~8のいずれか1項に記載の方法を実現できるように構成された
復号化装置。 - 現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを、実現できるように構成された、符号化装置であって、
前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含む、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記最適動きベクトルを取得するステップと、
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含み、
前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
符号化装置。 - プロセッサによって実行されると、前記プロセッサに請求項1~8のいずれか1項に記載の方法を実現させるコンピュータ命令が格納される、機械可読記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023111468A JP2023126940A (ja) | 2019-03-11 | 2023-07-06 | コーデック方法及び装置、符号化デバイス及び復号化デバイス |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910182197.8 | 2019-03-11 | ||
CN201910182197.8A CN111698509B (zh) | 2019-03-11 | 2019-03-11 | 一种编解码方法、装置及其设备 |
PCT/CN2020/078849 WO2020182161A1 (zh) | 2019-03-11 | 2020-03-11 | 编解码方法与装置、编码端设备和解码端设备 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023111468A Division JP2023126940A (ja) | 2019-03-11 | 2023-07-06 | コーデック方法及び装置、符号化デバイス及び復号化デバイス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022522376A JP2022522376A (ja) | 2022-04-18 |
JP7311619B2 true JP7311619B2 (ja) | 2023-07-19 |
Family
ID=68084067
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021552234A Active JP7311619B2 (ja) | 2019-03-11 | 2020-03-11 | コーデック方法及び装置、符号化デバイス及び復号化デバイス |
JP2023111468A Pending JP2023126940A (ja) | 2019-03-11 | 2023-07-06 | コーデック方法及び装置、符号化デバイス及び復号化デバイス |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023111468A Pending JP2023126940A (ja) | 2019-03-11 | 2023-07-06 | コーデック方法及び装置、符号化デバイス及び復号化デバイス |
Country Status (12)
Country | Link |
---|---|
US (1) | US11902563B2 (ja) |
EP (1) | EP3941056A4 (ja) |
JP (2) | JP7311619B2 (ja) |
KR (1) | KR102619925B1 (ja) |
CN (67) | CN112468812B (ja) |
AU (1) | AU2020236452B2 (ja) |
BR (1) | BR112021017777A2 (ja) |
CA (2) | CA3131447C (ja) |
MX (1) | MX2021010608A (ja) |
SG (1) | SG11202109366VA (ja) |
WO (3) | WO2020182161A1 (ja) |
ZA (2) | ZA202106161B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112468812B (zh) | 2019-03-11 | 2022-07-01 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
JP7456441B2 (ja) * | 2019-06-11 | 2024-03-27 | ソニーグループ株式会社 | 画像処理装置及び画像処理方法 |
CN112135127B (zh) * | 2019-11-05 | 2021-09-21 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置、设备及机器可读存储介质 |
CN112135145B (zh) * | 2019-11-14 | 2022-01-25 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
EP4072135A4 (en) * | 2019-12-02 | 2023-06-21 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | METHOD FOR PREDICTING ATTRIBUTE INFORMATION, ENCODER, DECODER AND STORAGE MEDIA |
CN113709500B (zh) * | 2019-12-23 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN113709460B (zh) * | 2020-03-25 | 2023-03-24 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN113766222B (zh) * | 2020-06-01 | 2023-03-24 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN112738522A (zh) * | 2020-12-17 | 2021-04-30 | 腾讯科技(深圳)有限公司 | 视频编码方法、装置 |
CN114650423B (zh) * | 2020-12-30 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN116156174B (zh) * | 2023-02-23 | 2024-02-13 | 格兰菲智能科技有限公司 | 数据编码处理方法、装置、计算机设备和存储介质 |
CN116074533B (zh) * | 2023-04-06 | 2023-08-22 | 湖南国科微电子股份有限公司 | 运动矢量预测方法、系统、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018121506A1 (en) | 2016-12-27 | 2018-07-05 | Mediatek Inc. | Method and apparatus of bilateral template mv refinement for video coding |
JP2020053723A (ja) | 2018-09-21 | 2020-04-02 | Kddi株式会社 | 画像復号装置、画像符号化装置、画像処理システム及びプログラム |
Family Cites Families (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5778190A (en) * | 1995-07-21 | 1998-07-07 | Intel Corporation | Encoding video signals using multi-phase motion estimation |
KR100774296B1 (ko) * | 2002-07-16 | 2007-11-08 | 삼성전자주식회사 | 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치 |
CN1181691C (zh) * | 2003-01-24 | 2004-12-22 | 杭州国芯科技有限公司 | 视频运动估计方法 |
CN1225127C (zh) * | 2003-09-12 | 2005-10-26 | 中国科学院计算技术研究所 | 一种用于视频编码的编码端/解码端双向预测方法 |
KR20050045746A (ko) | 2003-11-12 | 2005-05-17 | 삼성전자주식회사 | 계층 구조의 가변 블록 크기를 이용한 움직임 추정 방법및 장치 |
EP1578137A2 (en) * | 2004-03-17 | 2005-09-21 | Matsushita Electric Industrial Co., Ltd. | Moving picture coding apparatus with multistep interpolation process |
US20050259878A1 (en) | 2004-05-20 | 2005-11-24 | Broadcom Corporation | Motion estimation algorithm |
EP1662799A3 (en) * | 2004-11-30 | 2012-05-30 | Humax Co., Ltd. | Video down-sampling transcoding method and device |
JP2006279573A (ja) * | 2005-03-29 | 2006-10-12 | Sanyo Electric Co Ltd | 符号化装置と方法、ならびに復号装置と方法 |
US8879857B2 (en) | 2005-09-27 | 2014-11-04 | Qualcomm Incorporated | Redundant data encoding methods and device |
US8750387B2 (en) * | 2006-04-04 | 2014-06-10 | Qualcomm Incorporated | Adaptive encoder-assisted frame rate up conversion |
JP2008011158A (ja) * | 2006-06-29 | 2008-01-17 | Matsushita Electric Ind Co Ltd | 動きベクトル探索方法及び動きベクトル探索装置 |
CN101188772B (zh) * | 2006-11-17 | 2010-09-22 | 中兴通讯股份有限公司 | 一种视频解码的时域错误隐蔽方法 |
US8315466B2 (en) * | 2006-12-22 | 2012-11-20 | Qualcomm Incorporated | Decoder-side region of interest video processing |
KR101403343B1 (ko) * | 2007-10-04 | 2014-06-09 | 삼성전자주식회사 | 부화소 움직임 추정을 이용한 인터 예측 부호화, 복호화방법 및 장치 |
CN101477690B (zh) * | 2008-12-30 | 2011-04-27 | 清华大学 | 一种视频帧序列中物体轮廓跟踪的方法和装置 |
US9654792B2 (en) * | 2009-07-03 | 2017-05-16 | Intel Corporation | Methods and systems for motion vector derivation at a video decoder |
KR20110017302A (ko) * | 2009-08-13 | 2011-02-21 | 삼성전자주식회사 | 움직임 벡터의 정확도 조절을 이용한 영상 부호화, 복호화 방법 및 장치 |
CN101699865B (zh) * | 2009-10-28 | 2011-06-01 | 山东大学 | 一种块运动自适应的亚像素快速搜索方法 |
US8315310B2 (en) | 2010-01-08 | 2012-11-20 | Research In Motion Limited | Method and device for motion vector prediction in video transcoding using full resolution residuals |
KR101768207B1 (ko) | 2010-01-19 | 2017-08-16 | 삼성전자주식회사 | 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
CN101815218B (zh) * | 2010-04-02 | 2012-02-08 | 北京工业大学 | 基于宏块特征的快速运动估计视频编码方法 |
US9300970B2 (en) * | 2010-07-09 | 2016-03-29 | Samsung Electronics Co., Ltd. | Methods and apparatuses for encoding and decoding motion vector |
CN102316317B (zh) * | 2010-07-10 | 2013-04-24 | 华为技术有限公司 | 一种生成图像预测值的方法和装置 |
CN101895762A (zh) * | 2010-07-30 | 2010-11-24 | 天津大学 | 基于零检测和矢量滤波的帧频提升算法 |
CN102387360B (zh) * | 2010-09-02 | 2016-05-11 | 乐金电子(中国)研究开发中心有限公司 | 视频编解码帧间图像预测方法及视频编解码器 |
SG10201506682SA (en) * | 2010-09-30 | 2015-10-29 | Mitsubishi Electric Corp | Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method |
PL2661892T3 (pl) * | 2011-01-07 | 2022-08-16 | Nokia Technologies Oy | Przewidywanie ruchu w kodowaniu wideo |
EP2479994B1 (en) * | 2011-01-19 | 2017-03-15 | BlackBerry Limited | Method and device for improved multi-layer data compression |
CN102611886A (zh) | 2011-01-22 | 2012-07-25 | 华为技术有限公司 | 一种运动预测或补偿方法 |
CN102685504B (zh) * | 2011-03-10 | 2015-08-19 | 华为技术有限公司 | 视频图像的编解码方法、编码装置、解码装置及其系统 |
KR101242560B1 (ko) * | 2011-03-30 | 2013-03-19 | 한양대학교 산학협력단 | 탐색 영역 조정 장치 및 방법 |
JP5786478B2 (ja) * | 2011-06-15 | 2015-09-30 | 富士通株式会社 | 動画像復号装置、動画像復号方法、及び動画像復号プログラム |
CN102447904A (zh) * | 2011-10-24 | 2012-05-09 | 成都虢电智能电力科技有限公司 | 一种快速对视频序列进行运动估计的方法 |
CN102395030B (zh) * | 2011-11-18 | 2014-05-07 | 杭州海康威视数字技术股份有限公司 | 基于视频压缩码流的运动分析方法、码流转换方法及其装置 |
CN103260020A (zh) * | 2012-02-18 | 2013-08-21 | 张新安 | 一种avs-m视频编码快速整像素运动估计方法 |
CN102769748B (zh) * | 2012-07-02 | 2014-12-24 | 华为技术有限公司 | 运动矢量预测方法、装置及系统 |
CN102833583B (zh) * | 2012-07-27 | 2015-07-01 | 北京视博云科技有限公司 | 一种视频图像的处理方法及装置 |
US9357195B2 (en) * | 2012-08-16 | 2016-05-31 | Qualcomm Incorporated | Inter-view predicted motion vector for 3D video |
KR101975206B1 (ko) * | 2012-11-23 | 2019-05-07 | 삼성전자주식회사 | 시간상 연속하는 물체의 움직임들에 대응하는 이미지 데이터들을 프로세싱하는 방법 및 장치 |
KR101560186B1 (ko) * | 2013-03-18 | 2015-10-14 | 삼성전자주식회사 | 움직임 예측에 있어 적응적 탐색 범위 결정을 이용한 부호화, 복호화 방법 및 장치 |
CN103297778B (zh) * | 2013-05-27 | 2017-04-19 | 华为技术有限公司 | 一种对图像进行编、解码的方法及设备 |
CN104244002B (zh) * | 2013-06-14 | 2019-02-05 | 北京三星通信技术研究有限公司 | 一种视频编/解码中运动信息的获取方法及装置 |
CN103338377A (zh) * | 2013-07-11 | 2013-10-02 | 青岛海信信芯科技有限公司 | 用于确定运动估计中最优运动矢量的方法 |
US20150036747A1 (en) | 2013-07-30 | 2015-02-05 | Electronics And Telecommunications Research Institute | Encoding and decoding apparatus for concealing error in video frame and method using same |
CN104427345B (zh) * | 2013-09-11 | 2019-01-08 | 华为技术有限公司 | 运动矢量的获取方法、获取装置、视频编解码器及其方法 |
US10009629B2 (en) * | 2013-10-11 | 2018-06-26 | Sony Corporation | Video coding system with search range and method of operation thereof |
CN103974077B (zh) * | 2014-05-14 | 2017-04-19 | 东南大学 | 一种用于h.264编码的整数运动估计快速搜索方法 |
CN105493505B (zh) * | 2014-06-19 | 2019-08-06 | 微软技术许可有限责任公司 | 统一的帧内块复制和帧间预测模式 |
US10412387B2 (en) * | 2014-08-22 | 2019-09-10 | Qualcomm Incorporated | Unified intra-block copy and inter-prediction |
US11477477B2 (en) | 2015-01-26 | 2022-10-18 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
CN107809642B (zh) | 2015-02-16 | 2020-06-16 | 华为技术有限公司 | 用于视频图像编码和解码的方法、编码设备和解码设备 |
US10200711B2 (en) | 2015-03-27 | 2019-02-05 | Qualcomm Incorporated | Motion vector derivation in video coding |
CN106331703B (zh) * | 2015-07-03 | 2020-09-08 | 华为技术有限公司 | 视频编码和解码方法、视频编码和解码装置 |
EP3319317B1 (en) * | 2015-07-30 | 2021-04-28 | Huawei Technologies Co., Ltd. | Video encoding and decoding method and device |
EP3340620A4 (en) * | 2015-08-23 | 2019-04-17 | LG Electronics Inc. | IMAGE PROCESSING METHOD BASED ON INTER-PREDICTION MODE AND APPARATUS THEREOF |
WO2017036399A1 (en) * | 2015-09-02 | 2017-03-09 | Mediatek Inc. | Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques |
EP3364655A4 (en) * | 2015-11-11 | 2018-10-10 | Samsung Electronics Co., Ltd. | Method and apparatus for decoding video, and method and apparatus for encoding video |
CN105681807B (zh) * | 2016-01-06 | 2018-11-02 | 福州瑞芯微电子股份有限公司 | 一种基于h264协议的分像素运动矢量计算方法和装置 |
US11153600B2 (en) | 2016-02-08 | 2021-10-19 | Sharp Kabushiki Kaisha | Motion vector generation device, prediction image generation device, video decoding device, and video coding device |
US10368083B2 (en) * | 2016-02-15 | 2019-07-30 | Qualcomm Incorporated | Picture order count based motion vector pruning |
CN105939475A (zh) * | 2016-06-06 | 2016-09-14 | 中国矿业大学 | 一种高质量边信息生成方法 |
CN116708784A (zh) | 2016-07-12 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法以及用于该方法的记录介质 |
US10136155B2 (en) * | 2016-07-27 | 2018-11-20 | Cisco Technology, Inc. | Motion compensation using a patchwork motion field |
US10880570B2 (en) | 2016-10-05 | 2020-12-29 | Qualcomm Incorporated | Systems and methods of adaptively determining template size for illumination compensation |
KR102435500B1 (ko) * | 2016-10-06 | 2022-08-23 | 세종대학교산학협력단 | 비디오 신호의 복호화 방법 및 이의 장치 |
CN108134939B (zh) * | 2016-12-01 | 2020-08-07 | 北京金山云网络技术有限公司 | 一种运动估计方法及装置 |
JP2018093346A (ja) * | 2016-12-01 | 2018-06-14 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム、記憶媒体 |
US10750203B2 (en) * | 2016-12-22 | 2020-08-18 | Mediatek Inc. | Method and apparatus of adaptive bi-prediction for video coding |
WO2018113658A1 (en) * | 2016-12-22 | 2018-06-28 | Mediatek Inc. | Method and apparatus of motion refinement for video coding |
US11051033B2 (en) * | 2017-01-04 | 2021-06-29 | Samsung Electronics Co., Ltd. | Video decoding method and apparatus and video encoding method and apparatus |
US20180199057A1 (en) * | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
CN108419082B (zh) * | 2017-02-10 | 2020-09-11 | 北京金山云网络技术有限公司 | 一种运动估计方法及装置 |
CN107027029B (zh) * | 2017-03-01 | 2020-01-10 | 四川大学 | 基于帧率变换的高性能视频编码改进方法 |
CN106878737B (zh) * | 2017-03-02 | 2019-10-08 | 西安电子科技大学 | 高效视频编码中的运动估计加速方法 |
US10805630B2 (en) * | 2017-04-28 | 2020-10-13 | Qualcomm Incorporated | Gradient based matching for motion search and derivation |
CN109005412B (zh) * | 2017-06-06 | 2022-06-07 | 北京三星通信技术研究有限公司 | 运动矢量获取的方法及设备 |
US10477237B2 (en) * | 2017-06-28 | 2019-11-12 | Futurewei Technologies, Inc. | Decoder side motion vector refinement in video coding |
CN109218733B (zh) * | 2017-06-30 | 2022-03-29 | 华为技术有限公司 | 一种确定预测运动矢量预测的方法以及相关设备 |
WO2019001741A1 (en) | 2017-06-30 | 2019-01-03 | Huawei Technologies Co., Ltd. | MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION |
CN117615153A (zh) * | 2017-08-29 | 2024-02-27 | 株式会社Kt | 视频解码和编码方法及用于存储压缩视频数据的装置 |
WO2019084801A1 (zh) * | 2017-10-31 | 2019-05-09 | 深圳市大疆创新科技有限公司 | 运动估计方法和装置 |
CN108259912A (zh) * | 2018-03-28 | 2018-07-06 | 天津大学 | 一种分像素运动估计的并行实现方法 |
CN108848380B (zh) * | 2018-06-20 | 2021-11-30 | 腾讯科技(深圳)有限公司 | 视频编码和解码方法、装置、计算机设备及存储介质 |
CN108833923B (zh) * | 2018-06-20 | 2022-03-29 | 腾讯科技(深圳)有限公司 | 视频编码、解码方法、装置、存储介质和计算机设备 |
CN115250350B (zh) * | 2018-09-03 | 2024-04-09 | 华为技术有限公司 | 运动矢量的获取方法、装置、计算机设备及存储介质 |
CN112468812B (zh) * | 2019-03-11 | 2022-07-01 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
-
2019
- 2019-03-11 CN CN202011529824.XA patent/CN112468812B/zh active Active
- 2019-03-11 CN CN202111136418.1A patent/CN113709466B/zh active Active
- 2019-03-11 CN CN202110343321.1A patent/CN112954334A/zh not_active Withdrawn
- 2019-03-11 CN CN202110343168.2A patent/CN112866708B/zh active Active
- 2019-03-11 CN CN202011529817.XA patent/CN112511828B/zh active Active
- 2019-03-11 CN CN202110349779.8A patent/CN112954338B/zh active Active
- 2019-03-11 CN CN202110343132.4A patent/CN112866704B/zh active Active
- 2019-03-11 CN CN202110343372.4A patent/CN112954337B/zh active Active
- 2019-03-11 CN CN202110352208.XA patent/CN112969071B/zh active Active
- 2019-03-11 CN CN202111138530.9A patent/CN113709469B/zh active Active
- 2019-03-11 CN CN202110341225.3A patent/CN112866700B/zh active Active
- 2019-03-11 CN CN202011529793.8A patent/CN112468810A/zh not_active Withdrawn
- 2019-03-11 CN CN202111136438.9A patent/CN113709467B/zh active Active
- 2019-03-11 CN CN202011534308.6A patent/CN112672156B/zh active Active
- 2019-03-11 CN CN202110349811.2A patent/CN112954342B/zh active Active
- 2019-03-11 CN CN201910927685.7A patent/CN110557644B/zh active Active
- 2019-03-11 CN CN202110343170.XA patent/CN112954326B/zh active Active
- 2019-03-11 CN CN202011534305.2A patent/CN112532983B/zh active Active
- 2019-03-11 CN CN202110349780.0A patent/CN112954339B/zh active Active
- 2019-03-11 CN CN202111138531.3A patent/CN113709470B/zh active Active
- 2019-03-11 CN CN202011529863.XA patent/CN112468814A/zh not_active Withdrawn
- 2019-03-11 CN CN202011529848.5A patent/CN112468813A/zh not_active Withdrawn
- 2019-03-11 CN CN202111136404.XA patent/CN113709465B/zh active Active
- 2019-03-11 CN CN202110343300.XA patent/CN112954329B/zh active Active
- 2019-03-11 CN CN202110352184.8A patent/CN112969069B/zh active Active
- 2019-03-11 CN CN202110343191.1A patent/CN112954327B/zh active Active
- 2019-03-11 CN CN202110343133.9A patent/CN112866705B/zh active Active
- 2019-03-11 CN CN202111138554.4A patent/CN113709475B/zh active Active
- 2019-03-11 CN CN202011529757.1A patent/CN112468809B/zh active Active
- 2019-03-11 CN CN202110343134.3A patent/CN112866706B/zh active Active
- 2019-03-11 CN CN202110343319.4A patent/CN112954332B/zh active Active
- 2019-03-11 CN CN201910182197.8A patent/CN111698509B/zh active Active
- 2019-03-11 CN CN202011534232.7A patent/CN112511829B/zh active Active
- 2019-03-11 CN CN202110343193.0A patent/CN112866709B/zh active Active
- 2019-03-11 CN CN202011529784.9A patent/CN112511826A/zh not_active Withdrawn
- 2019-03-11 CN CN202011534276.XA patent/CN112492308A/zh not_active Withdrawn
- 2019-03-11 CN CN202111138542.1A patent/CN113709474B/zh active Active
- 2019-03-11 CN CN202110343355.0A patent/CN112954335B/zh active Active
- 2019-03-11 CN CN202110349804.2A patent/CN112954341B/zh active Active
- 2019-03-11 CN CN202110343318.XA patent/CN112954331B/zh active Active
- 2019-03-11 CN CN202111138539.XA patent/CN113709473B/zh active Active
- 2019-03-11 CN CN202011529774.5A patent/CN112511825A/zh not_active Withdrawn
- 2019-03-11 CN CN202011534281.0A patent/CN112511831A/zh not_active Withdrawn
- 2019-03-11 CN CN202110343299.0A patent/CN112954328B/zh active Active
- 2019-03-11 CN CN202110341260.5A patent/CN112866701B/zh active Active
- 2019-03-11 CN CN202110352198.XA patent/CN112969070B/zh active Active
- 2019-03-11 CN CN202110341214.5A patent/CN112866699B/zh active Active
- 2019-03-11 CN CN202011534279.3A patent/CN112565759A/zh not_active Withdrawn
- 2019-03-11 CN CN202110343142.8A patent/CN112866707B/zh active Active
- 2019-03-11 CN CN202011529806.1A patent/CN112468811B/zh active Active
- 2019-03-11 CN CN202111136439.3A patent/CN113709468B/zh active Active
- 2019-03-11 CN CN201910572312.2A patent/CN110312132B/zh active Active
- 2019-03-11 CN CN202110343320.7A patent/CN112954333B/zh active Active
- 2019-03-11 CN CN202110341210.7A patent/CN112866698B/zh active Active
- 2019-03-11 CN CN202110343301.4A patent/CN112887716B/zh active Active
- 2019-03-11 CN CN202110341275.1A patent/CN112866703B/zh active Active
- 2019-03-11 CN CN202110352231.9A patent/CN112969072B/zh active Active
- 2019-03-11 CN CN202110341272.8A patent/CN112866702B/zh active Active
- 2019-03-11 CN CN202111138534.7A patent/CN113709471B/zh active Active
- 2019-03-11 CN CN202011529795.7A patent/CN112511827B/zh active Active
- 2019-03-11 CN CN202110343316.0A patent/CN112954330A/zh not_active Withdrawn
- 2019-03-11 CN CN202110341271.3A patent/CN112954325B/zh active Active
- 2019-03-11 CN CN202110343163.XA patent/CN112887715B/zh active Active
- 2019-03-11 CN CN202011534244.XA patent/CN112511830A/zh not_active Withdrawn
- 2019-03-11 CN CN202111138537.0A patent/CN113709472B/zh active Active
- 2019-03-11 CN CN202110343371.XA patent/CN112954336B/zh active Active
- 2019-03-11 CN CN202110349800.4A patent/CN112954340B/zh active Active
-
2020
- 2020-03-11 SG SG11202109366VA patent/SG11202109366VA/en unknown
- 2020-03-11 WO PCT/CN2020/078849 patent/WO2020182161A1/zh active Application Filing
- 2020-03-11 CA CA3131447A patent/CA3131447C/en active Active
- 2020-03-11 BR BR112021017777A patent/BR112021017777A2/pt unknown
- 2020-03-11 US US17/433,953 patent/US11902563B2/en active Active
- 2020-03-11 EP EP20770308.3A patent/EP3941056A4/en active Pending
- 2020-03-11 JP JP2021552234A patent/JP7311619B2/ja active Active
- 2020-03-11 MX MX2021010608A patent/MX2021010608A/es unknown
- 2020-03-11 AU AU2020236452A patent/AU2020236452B2/en active Active
- 2020-03-11 KR KR1020217031720A patent/KR102619925B1/ko active IP Right Grant
- 2020-03-11 CA CA3228568A patent/CA3228568A1/en active Pending
- 2020-03-11 WO PCT/CN2020/078855 patent/WO2020182164A1/zh active Application Filing
- 2020-03-11 WO PCT/CN2020/078850 patent/WO2020182162A1/zh active Application Filing
-
2021
- 2021-08-25 ZA ZA2021/06161A patent/ZA202106161B/en unknown
-
2022
- 2022-08-29 ZA ZA2022/09597A patent/ZA202209597B/en unknown
-
2023
- 2023-07-06 JP JP2023111468A patent/JP2023126940A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018121506A1 (en) | 2016-12-27 | 2018-07-05 | Mediatek Inc. | Method and apparatus of bilateral template mv refinement for video coding |
JP2020053723A (ja) | 2018-09-21 | 2020-04-02 | Kddi株式会社 | 画像復号装置、画像符号化装置、画像処理システム及びプログラム |
Non-Patent Citations (3)
Title |
---|
Fangdong Chen, and Li Wang,CE9: Unidirectional Template based DMVR and its Combination with Simplified Bidirectional DMVR (Test 9.2.10 and Test 9.2.11),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0188_v3,12th Meeting: Macao, CN,2018年10月,pp.1-5 |
Jianle Chen, Yan Ye, and Seung Hwan Kim,Algorithm description for Versatile Video Coding and Test Model 4 (VTM 4),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M1002-v1,13th Meeting: Marrakech, MA,2019年02月,pp.35-38 |
Semih Esenlik, et al.,CE9: DMVR with Motion Vector Difference Mirroring (Test 1.6),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0216-v3,11th Meeting: Ljubljana, SI,2018年07月,pp.1-5 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7311619B2 (ja) | コーデック方法及び装置、符号化デバイス及び復号化デバイス | |
JP2022550592A (ja) | 符号化及び復号方法、装置及びデバイス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7311619 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |