JP7143435B2 - 双方向インター予測の方法および装置 - Google Patents
双方向インター予測の方法および装置 Download PDFInfo
- Publication number
- JP7143435B2 JP7143435B2 JP2020552815A JP2020552815A JP7143435B2 JP 7143435 B2 JP7143435 B2 JP 7143435B2 JP 2020552815 A JP2020552815 A JP 2020552815A JP 2020552815 A JP2020552815 A JP 2020552815A JP 7143435 B2 JP7143435 B2 JP 7143435B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- reference frame
- image block
- current image
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 136
- 239000013598 vector Substances 0.000 claims description 331
- 230000015654 memory Effects 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 36
- 238000004891 communication Methods 0.000 claims description 24
- 238000003860 storage Methods 0.000 description 43
- 230000005540 biological transmission Effects 0.000 description 28
- 230000008569 process Effects 0.000 description 22
- 230000002457 bidirectional effect Effects 0.000 description 19
- 230000014509 gene expression Effects 0.000 description 13
- 238000009795 derivation Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 11
- 238000013139 quantization Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000013277 forecasting method Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Description
mv_lY=-mv_lX
に従って第2の動き情報内の第2の動きベクトルを導出するステップである。
前述の式において、mvd_lYは第2の動きベクトル差分を表し、POC_Curは現在のフレームのシーケンス番号を表し、POC_listXは第1の参照フレームのシーケンス番号を表し、POC_listYは第2の参照フレームのシーケンス番号を表し、mvd_lXは第1の動きベクトル差分を表す、ステップ、および第2の予測済み動きベクトルと第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップであって、第2の動きベクトルは第2の方向における現在の画像ブロックの動きベクトルである、ステップである。
mvd_lY=-mvd_lX
に従って第2の動き情報内の第2の動きベクトル差分を導出するステップであって、
前述の式において、mvd_lYは第2の動きベクトル差分を表し、mvd_lXは第1の動きベクトル差分を表す、ステップ、および第2の予測済み動きベクトルと第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップであって、第2の動きベクトルは第2の方向における現在の画像ブロックの動きベクトルである、ステップである。
mv_lY=-mv_lX
に従って第2の動き情報内の第2の動きベクトルを導出するように特に構成される。
mvd_lY=-mvd_lX
に従って第2の動き情報内の第2の動きベクトル差分を導出し、mvd_lYは第2の動きベクトル差分を表し、mvd_lXは第1の動きベクトル差分を表し、第2の予測済み動きベクトルと第2の動きベクトル差分とに基づき第2の動きベクトルを決定するように特に構成され、第2の動きベクトルは第2の方向における現在の画像ブロックの動きベクトルである。
POC_Cur-POC_listX=POC_listY-POC_Cur
を満たす。
(POC_Cur-POC_listX)*(POC_listY-POC_Cur)>0
を満たす。
5 双方向インター予測装置
6 双方向インター予測装置
10 ソース装置
20 デスティネーション装置
30 リンク
40 記憶装置
41 後処理エンティティ
42 ネットワークエンティティ
50 取得ユニット
51 決定ユニット
52 記憶ユニット
60 処理モジュール
61 通信モジュール
62 記憶モジュール
100 動画エンコーダ
101 動画ソース
102 動画エンコーダ
103 出力インターフェース
140 出力インターフェース
200 動画デコーダ
201 表示装置
202 動画デコーダ
203 入力インターフェース
240 入力インターフェース
301 変換器
302 量子化器
303 エントロピーエンコーダ
304 逆量子化器
305 逆変換器
306 フィルタ
307 メモリ
308 予測処理ユニット
309 イントラ予測器
310 インター予測器
311 総和器
312 総和器
401 エントロピーデコーダ
402 逆量子化器
403 逆変換器
404 フィルタ
405 メモリ
406 予測処理ユニット
407 イントラ予測器
408 インター予測器
409 総和器、再構成器
Claims (27)
- 復号方法であって、前記方法は双方向インター予測に適用され、前記方法は、
ビットストリームを解析して、第1の識別子と現在の画像ブロックの第1の動きベクトル差分とを取得するステップと、
前記第1の識別子の値が第1のプリセット値であるときに前記第1の動きベクトル差分に基づき前記現在の画像ブロックの第2の動きベクトル差分を決定するステップであって、前記第1の動きベクトル差分は第1の方向における前記現在の画像ブロックの動き情報に属し、前記第2の動きベクトル差分は第2の方向における前記現在の画像ブロックの動き情報に属す、ステップと、
前記第1の識別子の前記値が第2のプリセット値であるときに、前記ビットストリームを解析して別の第2の動きベクトル差分を取得するステップと、
前記第1の動きベクトル差分と前記第2の動きベクトル差分とに基づいて、または前記第1の動きベクトル差分と前記別の第2の動きベクトル差分とに基づいて、前記現在の画像ブロックの予測サンプルを決定するステップと
を含む復号方法。 - 前記第1の動きベクトル差分に基づき前記現在の画像ブロックの第2の動きベクトル差分を決定する前記ステップは、
式
mvd_lY=-mvd_lX
に従って前記第2の動きベクトル差分を取得するステップであって、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは第1の動きベクトル差分を表す、ステップを含む請求項1に記載の方法。 - 前記方法は、
第1の予測済み動きベクトルと第2の予測済み動きベクトルとを取得するステップと、
前記第1の予測済み動きベクトルと前記第1の動きベクトル差分とに基づき第1の動きベクトルを決定するステップと、
前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップと、
前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定するステップであって、
前記第1の予測済み動きベクトルおよび前記第1の動きベクトルは前記第1の方向に対応し、前記第2の予測済み動きベクトルおよび前記第2の動きベクトルは前記第2の方向に対応する、ステップとをさらに含む請求項1または2に記載の方法。 - 前記現在の画像ブロックは、前記第1の方向における第1の参照フレームリストと、前記第2の方向における第2の参照フレームリストとを含み、前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定する前記ステップは、
前記第1の参照フレームリストの参照フレームインデックスと、前記第2の参照フレームリストの参照フレームインデックスとを取得するステップと、
前記第1の参照フレームリストの前記参照フレームインデックスと、前記第1の動きベクトルと、前記第1の参照フレームリストとに基づき第1の参照画像ブロックを決定するステップと、
前記第2の参照フレームリストの前記参照フレームインデックスと、前記第2の動きベクトルと、前記第2の参照フレームリストとに基づき第2の参照画像ブロックを決定するステップと、
前記第1の参照画像ブロックと前記第2の参照画像ブロックとに基づき前記現在の画像ブロックの前記予測サンプルを決定するステップとを含む、請求項3に記載の方法。 - 第1の識別子を取得する前記ステップの前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たしていると決定するステップであって、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは第1の参照フレームリストに属し、前記第2の参照フレームは第2の参照フレームリストに属すという条件を含む、ステップをさらに含む請求項1から4のいずれか一項に記載の方法。
- 第1の識別子を取得する前記ステップの前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たしていないと決定するステップであって、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは第1の参照フレームリストに属し、前記第2の参照フレームは第2の参照フレームリストに属すという条件を含む、ステップをさらに含む請求項1から5のいずれか一項に記載の方法。
- 双方向インター予測装置であって、
取得ユニットであって、ビットストリームを解析して、第1の識別子と現在の画像ブロックの第1の動きベクトル差分とを取得するように構成されている取得ユニットと、
決定ユニットであって、前記第1の識別子の値が第1のプリセット値であるときに前記第1の動きベクトル差分に基づき前記現在の画像ブロックの第2の動きベクトル差分を決定し、前記第1の動きベクトル差分は第1の方向における前記現在の画像ブロックの動き情報に属し、前記第2の動きベクトル差分は第2の方向における前記現在の画像ブロックの動き情報に属し、前記第1の識別子の前記値が第2のプリセット値であるときに、前記ビットストリームを解析して別の第2の動きベクトル差分を取得し、前記第1の動きベクトル差分と前記第2の動きベクトル差分とに基づいて、または前記第1の動きベクトル差分と前記別の第2の動きベクトル差分とに基づいて、前記現在の画像ブロックの予測サンプルを決定するように構成される、決定ユニットとを備える双方向インター予測装置。 - 前記決定ユニットは、式
mvd_lY=-mvd_lX
に従って前記第2の動きベクトル差分を取得するように特に構成され、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは前記第1の動きベクトル差分を表す請求項7に記載の装置。 - 前記取得ユニットは、第1の予測済み動きベクトルと第2の予測済み動きベクトルとを取得するように特に構成され、前記決定ユニットは、前記第1の予測済み動きベクトルと前記第1の動きベクトル差分とに基づき第1の動きベクトルを決定し、前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定し、前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定するように特に構成され、前記第1の予測済み動きベクトルおよび前記第1の動きベクトルは前記第1の方向に対応し、前記第2の予測済み動きベクトルおよび前記第2の動きベクトルは前記第2の方向に対応する、請求項7または8に記載の装置。
- 前記現在の画像ブロックは、前記第1の方向における第1の参照フレームリストと、前記第2の方向における第2の参照フレームリストとを含み、前記取得ユニットは、前記第1の参照フレームリストの参照フレームインデックスと、前記第2の参照フレームリストの参照フレームインデックスとを取得するように特に構成され、前記決定ユニットは、前記第1の参照フレームリストの前記参照フレームインデックスと、前記第1の動きベクトルと、前記第1の参照フレームリストとに基づき第1の参照画像ブロックを決定し、前記第2の参照フレームリストの前記参照フレームインデックスと、前記第2の動きベクトルと、前記第2の参照フレームリストとに基づき第2の参照画像ブロックを決定し、前記第1の参照画像ブロックと前記第2の参照画像ブロックとに基づき前記現在の画像ブロックの前記予測サンプルを決定するように特に構成される請求項9に記載の装置。
- 前記取得ユニットは、前記第1の識別子を取得する前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たしていると決定するようにさらに特に構成され、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは第1の参照フレームリストに属し、前記第2の参照フレームは第2の参照フレームリストに属すという条件を含む、請求項7から10のいずれか一項に記載の装置。
- 符号化方法であって、前記方法は双方向インター予測に適用され、前記方法は、
現在の画像ブロックの第1の動きベクトル差分と第1の識別子とを決定するステップであって、前記第1の識別子の値が第1のプリセット値であるときに前記第1の識別子は、前記現在の画像ブロックの第2の動きベクトル差分が前記第1の動きベクトル差分に基づき決定されてよいことを指示するために使用され、前記第1の動きベクトル差分は第1の方向における前記現在の画像ブロックの動き情報に属し、前記第2の動きベクトル差分は第2の方向における前記現在の画像ブロックの動き情報に属す、ステップと、
前記第1の識別子と前記第1の動きベクトル差分とをビットストリーム内に符号化するステップと、
前記第1の識別子の前記値が第2のプリセット値であるときに、前記現在の画像ブロックの別の第2の動きベクトル差分を決定し、前記別の第2の動きベクトル差分を前記ビットストリームに符号化するステップと
を含む符号化方法。 - 前記現在の画像ブロックの第2の動きベクトル差分が前記第1の動きベクトル差分に基づき決定され得ることは、式
mvd_lY=-mvd_lX
に従って前記第2の動きベクトル差分を取得するステップであって、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは第1の動きベクトル差分を表す、ステップを含む請求項12に記載の方法。 - 現在の画像ブロックの第1の動きベクトル差分を決定する前記ステップは、
第1の予測済み動きベクトルを決定し、第1の予測済み動きベクトルを取得するステップと、
前記第1の動きベクトルと前記第1の予測済み動きベクトルとに基づき前記第1の動きベクトル差分を決定するステップとを含む請求項12または13に記載の方法。 - 前記方法は、
第2の予測済み動きベクトルを取得するステップと、
前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップと、
前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定するステップとをさらに含み、
前記第1の予測済み動きベクトルおよび前記第1の動きベクトルは前記第1の方向に対応し、前記第2の予測済み動きベクトルおよび前記第2の動きベクトルは前記第2の方向に対応する、請求項14に記載の方法。 - 前記現在の画像ブロックは、前記第1の方向における第1の参照フレームリストと、前記第2の方向における第2の参照フレームリストとを含み、前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定する前記ステップは、
前記第1の参照フレームリストの参照フレームインデックスと、前記第2の参照フレームリストの参照フレームインデックスとを取得するステップと、
前記第1の参照フレームリストの前記参照フレームインデックスと、前記第1の動きベクトルと、前記第1の参照フレームリストとに基づき第1の参照画像ブロックを決定するステップと、
前記第2の参照フレームリストの前記参照フレームインデックスと、前記第2の動きベクトルと、前記第2の参照フレームリストとに基づき第2の参照画像ブロックを決定するステップと、
前記第1の参照画像ブロックと前記第2の参照画像ブロックとに基づき前記現在の画像ブロックの前記予測サンプルを決定するステップとを含む請求項15に記載の方法。 - 前記第1の識別子をビットストリーム内に符号化する前記ステップの前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たしていると決定するステップであって、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは第1の参照フレームリストに属し、前記第2の参照フレームは第2の参照フレームリストに属すという条件を含む、ステップをさらに含む請求項12から16のいずれか一項に記載の方法。
- 前記第1の識別子をビットストリーム内に符号化する前記ステップの前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たしていないと決定するステップであって、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは第1の参照フレームリストに属し、前記第2の参照フレームは第2の参照フレームリストに属すという条件を含む、ステップをさらに含む請求項12から16のいずれか一項に記載の方法。
- 双方向インター予測装置であって、
現在の画像ブロックの第1の動きベクトル差分を決定するように構成されている取得ユニットと、
第1の識別子を決定するように構成されている決定ユニットであって、前記第1の識別子の値が第1のプリセット値であるときに前記第1の識別子は、前記現在の画像ブロックの第2の動きベクトル差分が前記第1の動きベクトル差分に基づき決定されてよいことを指示するために使用され、前記第1の動きベクトル差分は第1の方向における前記現在の画像ブロックの動き情報に属し、前記第2の動きベクトル差分は第2の方向における前記現在の画像ブロックの動き情報に属し、前記第1の識別子の前記値が第2のプリセット値であるときに前記現在の画像ブロックの別の第2の動きベクトル差分を決定する、決定ユニットと、
前記第1の識別子と前記第1の動きベクトル差分とをビットストリーム内に符号化し、前記第1の識別子の前記値が第2のプリセット値であるときに前記別の第2の動きベクトル差分を前記ビットストリームに符号化するように構成されている符号化ユニットとを備え、
る双方向インター予測装置。 - 前記決定ユニットは、式
mvd_lY=-mvd_lX
に従って前記第2の動きベクトル差分を取得するように特に構成され、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは前記第1の動きベクトル差分を表す、請求項19に記載の装置。 - 前記取得ユニットは、
第1の予測済み動きベクトルを決定し、第1の予測済み動きベクトルを取得し、
前記第1の動きベクトルと前記第1の予測済み動きベクトルとに基づき前記第1の動きベクトル差分を決定するように特に構成される、請求項19または20に記載の装置。 - 前記取得ユニットは、第2の予測済み動きベクトルを取得し、前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定するようにさらに構成され、
前記装置は、前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定するように構成されている予測ユニットをさらに備え、
前記第1の予測済み動きベクトルおよび前記第1の動きベクトルは前記第1の方向に対応し、前記第2の予測済み動きベクトルおよび前記第2の動きベクトルは前記第2の方向に対応する、請求項21に記載の装置。 - 前記現在の画像ブロックは、前記第1の方向における第1の参照フレームリストと、前記第2の方向における第2の参照フレームリストとを含み、前記予測ユニットは、
前記第1の参照フレームリストの参照フレームインデックスと、前記第2の参照フレームリストの参照フレームインデックスとを取得し、
前記第1の参照フレームリストの前記参照フレームインデックスと、前記第1の動きベクトルと、前記第1の参照フレームリストとに基づき第1の参照画像ブロックを決定し、
前記第2の参照フレームリストの前記参照フレームインデックスと、前記第2の動きベクトルと、前記第2の参照フレームリストとに基づき第2の参照画像ブロックを決定し、
前記第1の参照画像ブロックと前記第2の参照画像ブロックとに基づき前記現在の画像ブロックの前記予測サンプルを決定するように特に構成される、請求項22に記載の装置。 - 前記装置は、前記符号化ユニットが前記第1の識別子を前記ビットストリーム内に符号化する前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たすと決定するように構成されている判定ユニットを備え、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは第1の参照フレームリストに属し、前記第2の参照フレームは第2の参照フレームリストに属すという条件を含む、請求項19から23のいずれか一項に記載の装置。
- 前記装置は、前記符号化ユニットが前記第1の識別子を前記ビットストリーム内に符号化する前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たさないと決定するように構成されている判定ユニットを備え、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは第1の参照フレームリストに属し、前記第2の参照フレームは第2の参照フレームリストに属すという条件を含む、請求項19から23のいずれか一項に記載の装置。
- プロセッサと、メモリと、通信インターフェースと、バスとを備える、画像処理装置であって、前記プロセッサは、前記バスを使用することによって前記メモリおよび前記通信インターフェースに接続され、
前記メモリは、命令を記憶するように構成され、
前記プロセッサは前記命令を実行するように構成され、前記プロセッサが前記メモリに記憶されている前記命令を実行したときに、前記プロセッサは請求項1から6のいずれか一項に記載の前記復号方法を実行する、画像処理装置。 - プロセッサと、メモリと、通信インターフェースと、バスとを備える、画像処理装置であって、前記プロセッサは、前記バスを使用することによって前記メモリおよび前記通信インターフェースに接続され、
前記メモリは、命令を記憶するように構成され、
前記プロセッサは前記命令を実行するように構成され、前記プロセッサが前記メモリに記憶されている前記命令を実行したときに、前記プロセッサは請求項12から18のいずれか一項に記載の前記符号化方法を実行する、画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022146320A JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810274457.X | 2018-03-29 | ||
CN201810274457.XA CN110324637B (zh) | 2018-03-29 | 2018-03-29 | 一种双向帧间预测方法及装置 |
PCT/CN2019/071471 WO2019184556A1 (zh) | 2018-03-29 | 2019-01-11 | 一种双向帧间预测方法及装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022146320A Division JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021519548A JP2021519548A (ja) | 2021-08-10 |
JP7143435B2 true JP7143435B2 (ja) | 2022-09-28 |
Family
ID=68062196
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020552815A Active JP7143435B2 (ja) | 2018-03-29 | 2019-01-11 | 双方向インター予測の方法および装置 |
JP2022146320A Pending JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022146320A Pending JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Country Status (14)
Country | Link |
---|---|
US (3) | US11350122B2 (ja) |
EP (1) | EP3771211A4 (ja) |
JP (2) | JP7143435B2 (ja) |
KR (2) | KR102525178B1 (ja) |
CN (6) | CN112040244B (ja) |
AU (1) | AU2019240981B2 (ja) |
BR (1) | BR112020018923A2 (ja) |
CA (1) | CA3095220C (ja) |
MX (1) | MX2020010174A (ja) |
PH (1) | PH12020551544A1 (ja) |
RU (1) | RU2762262C1 (ja) |
SG (1) | SG11202009509VA (ja) |
WO (1) | WO2019184556A1 (ja) |
ZA (1) | ZA202006408B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112040244B (zh) | 2018-03-29 | 2021-06-29 | 华为技术有限公司 | 一种双向帧间预测方法及装置 |
CN113709488B (zh) * | 2020-06-30 | 2023-02-28 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN114071159B (zh) * | 2020-07-29 | 2023-06-30 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器及计算机可读存储介质 |
CN116320428A (zh) * | 2021-12-20 | 2023-06-23 | 维沃移动通信有限公司 | 帧间预测方法及终端 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007505529A (ja) | 2003-09-12 | 2007-03-08 | 中国科学院▲計▼算技▲術▼研究所 | 映像符号化の符号化側/復号化側に使用される双方向予測方法 |
JP2013106312A (ja) | 2011-11-16 | 2013-05-30 | Jvc Kenwood Corp | 画像符号化装置、画像符号化方法及び画像符号化プログラム |
WO2016160609A1 (en) | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2354253T3 (es) * | 2002-10-04 | 2011-03-11 | Lg Electronics Inc. | Método para extraer vectores de movimiento de modo directo. |
US8917769B2 (en) | 2009-07-03 | 2014-12-23 | Intel Corporation | Methods and systems to estimate motion based on reconstructed reference frames at a video decoder |
KR20110071047A (ko) * | 2009-12-20 | 2011-06-28 | 엘지전자 주식회사 | 비디오 신호 디코딩 방법 및 장치 |
EP2528332A4 (en) | 2010-01-19 | 2015-08-05 | Samsung Electronics Co Ltd | METHOD AND DEVICE FOR CODING / DECODING PICTURES USING A MOTION VECTOR OF A PREVIOUS BLOCK AS A MOTION VECTOR OF THE PRESENT BLOCK |
JP5281597B2 (ja) * | 2010-02-04 | 2013-09-04 | 日本電信電話株式会社 | 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム |
US9503743B2 (en) * | 2010-05-12 | 2016-11-22 | Thomson Licensing | Methods and apparatus for uni-prediction of self-derivation of motion estimation |
CN105744282B (zh) * | 2010-05-26 | 2018-10-23 | Lg电子株式会社 | 用于处理视频信号的方法和设备 |
US9398308B2 (en) * | 2010-07-28 | 2016-07-19 | Qualcomm Incorporated | Coding motion prediction direction in video coding |
US9148666B2 (en) * | 2011-02-09 | 2015-09-29 | Lg Electronics Inc. | Method for storing motion information and method for inducing temporal motion vector predictor using same |
US9288501B2 (en) * | 2011-03-08 | 2016-03-15 | Qualcomm Incorporated | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
WO2013006386A1 (en) | 2011-07-01 | 2013-01-10 | General Instrument Corporation | Motion vector prediction design simplification |
CN107277533B (zh) * | 2011-10-28 | 2020-04-24 | 三星电子株式会社 | 帧间预测的方法及其装置和运动补偿的方法及其装置 |
CN103188490A (zh) * | 2011-12-29 | 2013-07-03 | 朱洪波 | 视频编码中的合并补偿模式 |
WO2013109124A1 (ko) | 2012-01-19 | 2013-07-25 | 삼성전자 주식회사 | 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
WO2013157791A1 (ko) | 2012-04-15 | 2013-10-24 | 삼성전자 주식회사 | 인터 예측의 참조영상을 결정하는 방법과 그 장치 |
RU2647674C1 (ru) | 2012-07-02 | 2018-03-16 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для кодирования видео и способ и устройство для декодирования видео, определяющие список опорных изображений внешнего прогнозирования в зависимости от размера блока |
JP6120707B2 (ja) * | 2013-07-08 | 2017-04-26 | ルネサスエレクトロニクス株式会社 | 動画像符号化装置およびその動作方法 |
CN104427345B (zh) * | 2013-09-11 | 2019-01-08 | 华为技术有限公司 | 运动矢量的获取方法、获取装置、视频编解码器及其方法 |
CN111193930B (zh) * | 2013-12-16 | 2021-11-30 | 浙江大学 | 一种前向双假设编码图像块的编解码方法和装置 |
GB2524476B (en) | 2014-03-14 | 2016-04-27 | Canon Kk | Method, device and computer program for optimizing transmission of motion vector related information when transmitting a video stream |
EP3202143B8 (en) | 2014-11-18 | 2019-09-25 | MediaTek Inc. | Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate |
EP3316580A4 (en) * | 2015-10-13 | 2018-09-26 | Samsung Electronics Co., Ltd. | Method and device for encoding or decoding image |
CN109076213A (zh) * | 2016-04-28 | 2018-12-21 | Lg 电子株式会社 | 基于间预测模式的图像处理方法及其装置 |
CN109196864B (zh) | 2016-05-24 | 2023-07-11 | 韩国电子通信研究院 | 图像编码/解码方法和用于所述方法的记录介质 |
US10462462B2 (en) * | 2016-09-29 | 2019-10-29 | Qualcomm Incorporated | Motion vector difference coding technique for video coding |
US20180192071A1 (en) * | 2017-01-05 | 2018-07-05 | Mediatek Inc. | Decoder-side motion vector restoration for video coding |
CN112040244B (zh) * | 2018-03-29 | 2021-06-29 | 华为技术有限公司 | 一种双向帧间预测方法及装置 |
-
2018
- 2018-03-29 CN CN202010763105.8A patent/CN112040244B/zh active Active
- 2018-03-29 CN CN202311519172.5A patent/CN117560505A/zh active Pending
- 2018-03-29 CN CN201810274457.XA patent/CN110324637B/zh active Active
- 2018-03-29 CN CN202311519450.7A patent/CN117560506A/zh active Pending
- 2018-03-29 CN CN202110443658.XA patent/CN113315975B/zh active Active
- 2018-03-29 CN CN202311519024.3A patent/CN117528116A/zh active Pending
-
2019
- 2019-01-11 RU RU2020134970A patent/RU2762262C1/ru active
- 2019-01-11 KR KR1020207029639A patent/KR102525178B1/ko active IP Right Grant
- 2019-01-11 KR KR1020237013341A patent/KR102622150B1/ko active IP Right Grant
- 2019-01-11 EP EP19776934.2A patent/EP3771211A4/en active Pending
- 2019-01-11 BR BR112020018923-5A patent/BR112020018923A2/pt unknown
- 2019-01-11 CA CA3095220A patent/CA3095220C/en active Active
- 2019-01-11 SG SG11202009509VA patent/SG11202009509VA/en unknown
- 2019-01-11 JP JP2020552815A patent/JP7143435B2/ja active Active
- 2019-01-11 WO PCT/CN2019/071471 patent/WO2019184556A1/zh active Application Filing
- 2019-01-11 AU AU2019240981A patent/AU2019240981B2/en active Active
- 2019-01-11 MX MX2020010174A patent/MX2020010174A/es unknown
-
2020
- 2020-09-23 PH PH12020551544A patent/PH12020551544A1/en unknown
- 2020-09-25 US US16/948,625 patent/US11350122B2/en active Active
- 2020-10-15 ZA ZA2020/06408A patent/ZA202006408B/en unknown
-
2022
- 2022-04-27 US US17/731,109 patent/US11924458B2/en active Active
- 2022-05-27 US US17/827,361 patent/US11838535B2/en active Active
- 2022-09-14 JP JP2022146320A patent/JP2022179516A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007505529A (ja) | 2003-09-12 | 2007-03-08 | 中国科学院▲計▼算技▲術▼研究所 | 映像符号化の符号化側/復号化側に使用される双方向予測方法 |
JP2013106312A (ja) | 2011-11-16 | 2013-05-30 | Jvc Kenwood Corp | 画像符号化装置、画像符号化方法及び画像符号化プログラム |
WO2016160609A1 (en) | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7143435B2 (ja) | 双方向インター予測の方法および装置 | |
JP7148612B2 (ja) | ビデオデータインター予測の方法、装置、ビデオエンコーダ、ビデオデコーダ及びプログラム | |
JP7277587B2 (ja) | 双方向インター予測方法および装置 | |
JP2021529483A (ja) | 動きベクトル予測方法及び関連する装置 | |
CN110876065A (zh) | 候选运动信息列表的构建方法、帧间预测方法及装置 | |
JP2023134524A (ja) | 動き情報候補リストを構築するための方法、インター予測方法、および装置 | |
RU2818520C2 (ru) | Способ и устройство двунаправленного интер-предсказания | |
RU2795934C2 (ru) | Способ и устройство двунаправленного интер-предсказания |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |