JP2021519548A - 双方向インター予測の方法および装置 - Google Patents
双方向インター予測の方法および装置 Download PDFInfo
- Publication number
- JP2021519548A JP2021519548A JP2020552815A JP2020552815A JP2021519548A JP 2021519548 A JP2021519548 A JP 2021519548A JP 2020552815 A JP2020552815 A JP 2020552815A JP 2020552815 A JP2020552815 A JP 2020552815A JP 2021519548 A JP2021519548 A JP 2021519548A
- Authority
- JP
- Japan
- Prior art keywords
- reference frame
- image block
- motion information
- motion vector
- current image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 151
- 230000033001 locomotion Effects 0.000 claims abstract description 931
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 121
- 239000013598 vector Substances 0.000 claims description 369
- 238000003860 storage Methods 0.000 claims description 52
- 230000015654 memory Effects 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 41
- 230000014509 gene expression Effects 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 27
- 238000009795 derivation Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 17
- 238000005516 engineering process Methods 0.000 abstract description 7
- 239000000523 sample Substances 0.000 description 50
- 230000005540 biological transmission Effects 0.000 description 28
- 230000008569 process Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 13
- 230000009466 transformation Effects 0.000 description 13
- 238000013139 quantization Methods 0.000 description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 8
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
mv_lY=-mv_lX
に従って第2の動き情報内の第2の動きベクトルを導出するステップである。
前述の式において、mvd_lYは第2の動きベクトル差分を表し、POC_Curは現在のフレームのシーケンス番号を表し、POC_listXは第1の参照フレームのシーケンス番号を表し、POC_listYは第2の参照フレームのシーケンス番号を表し、mvd_lXは第1の動きベクトル差分を表す、ステップ、および第2の予測済み動きベクトルと第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップであって、第2の動きベクトルは第2の方向における現在の画像ブロックの動きベクトルである、ステップである。
mvd_lY=-mvd_lX
に従って第2の動き情報内の第2の動きベクトル差分を導出するステップであって、
前述の式において、mvd_lYは第2の動きベクトル差分を表し、mvd_lXは第1の動きベクトル差分を表す、ステップ、および第2の予測済み動きベクトルと第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップであって、第2の動きベクトルは第2の方向における現在の画像ブロックの動きベクトルである、ステップである。
mv_lY=-mv_lX
に従って第2の動き情報内の第2の動きベクトルを導出するように特に構成される。
mvd_lY=-mvd_lX
に従って第2の動き情報内の第2の動きベクトル差分を導出し、mvd_lYは第2の動きベクトル差分を表し、mvd_lXは第1の動きベクトル差分を表し、第2の予測済み動きベクトルと第2の動きベクトル差分とに基づき第2の動きベクトルを決定するように特に構成され、第2の動きベクトルは第2の方向における現在の画像ブロックの動きベクトルである。
POC_Cur-POC_listX=POC_listY-POC_Cur
を満たす。
(POC_Cur-POC_listX)*(POC_listY-POC_Cur)>0
を満たす。
5 双方向インター予測装置
6 双方向インター予測装置
10 ソース装置
20 デスティネーション装置
30 リンク
40 記憶装置
41 後処理エンティティ
42 ネットワークエンティティ
50 取得ユニット
51 決定ユニット
52 記憶ユニット
60 処理モジュール
61 通信モジュール
62 記憶モジュール
100 動画エンコーダ
101 動画ソース
102 動画エンコーダ
103 出力インターフェース
140 出力インターフェース
200 動画デコーダ
201 表示装置
202 動画デコーダ
203 入力インターフェース
240 入力インターフェース
301 変換器
302 量子化器
303 エントロピーエンコーダ
304 逆量子化器
305 逆変換器
306 フィルタ
307 メモリ
308 予測処理ユニット
309 イントラ予測器
310 インター予測器
311 総和器
312 総和器
401 エントロピーデコーダ
402 逆量子化器
403 逆変換器
404 フィルタ
405 メモリ
406 予測処理ユニット
407 イントラ予測器
408 インター予測器
409 総和器、再構成器
Claims (37)
- 双方向インター予測方法であって、
指示情報を取得するステップと、
第1の動き情報を取得するステップと、
前記指示情報が前記第1の動き情報に基づき第2の動き情報を決定することを指示するために使用されたときに、前記第1の動き情報に基づき前記第2の動き情報を決定するステップであって、前記第1の動き情報は第1の方向における現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報である、ステップと、
前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するステップとを含む双方向インター予測方法。 - 前記第1の動き情報に基づき前記第2の動き情報を決定する前記ステップは、
前記第1の動き情報内の第1の参照フレームのインデックス値を取得し、前記第1の参照フレームの前記インデックス値と第1の参照フレームリストとに基づき前記第1の参照フレームのシーケンス番号を決定するステップであって、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号である、ステップと、
第2の参照フレームのインデックス値を取得し、前記第2の参照フレームの前記インデックス値と第2の参照フレームリストとに基づき前記第2の参照フレームのシーケンス番号を決定するステップであって、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号である、ステップと、
前記第1の動き情報内にある第1の動きベクトル差分と第1の動きベクトル予測子フラグとに基づき第1の動きベクトルを決定するステップであって、前記第1の動きベクトルは前記第1の方向における前記現在の画像ブロックの動きベクトルである、ステップと、
式
mv_lYは前記第2の動きベクトルを表し、POC_Curは前記現在のフレームのシーケンス番号を表し、POC_listXは前記第1の参照フレームの前記シーケンス番号を表し、POC_listYは前記第2の参照フレームの前記シーケンス番号を表し、mv_lXは前記第1の動きベクトルを表し、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、ステップとを特に含む請求項1に記載の方法。 - 前記第1の動き情報に基づき前記第2の動き情報を決定する前記ステップは、
前記第1の動き情報内の第1の参照フレームのインデックス値を取得するステップであって、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号である、ステップと、
第2の参照フレームのインデックス値を取得するステップであって、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号である、ステップと、
前記第1の動き情報内にある第1の動きベクトル差分と第1の動きベクトル予測子フラグとに基づき第1の動きベクトルを決定するステップであって、前記第1の動きベクトルは前記第1の方向における前記現在の画像ブロックの動きベクトルである、ステップと、
前記第1の参照フレームが前記現在の画像ブロックの前方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの後方参照フレームであるとき、または前記第1の参照フレームが前記現在の画像ブロックの後方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの後方参照フレームであるとき、式
mv_lY=-mv_lX
に従って前記第2の動き情報内の第2の動きベクトルを導出するステップであって
mv_lYは前記第2の動きベクトルを表し、mv_lXは前記第1の動きベクトルを表し、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、ステップを特に含む請求項1に記載の方法。 - 前記第1の動き情報に基づき前記第2の動き情報を決定する前記ステップは、
前記第1の動き情報内にある第1の参照フレームのインデックス値と第1の動きベクトル差分とを取得し、前記第1の参照フレームの前記インデックス値と第1の参照フレームリストとに基づき前記第1の参照フレームのシーケンス番号を決定するステップであって、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号である、ステップと、
第2の参照フレームのインデックス値を取得し、前記第2の参照フレームの前記インデックス値と第2の参照フレームリストとに基づき前記第2の参照フレームのシーケンス番号を決定し、前記第2の参照フレームのインデックス値と第2の候補予測済み動きベクトルリストとに基づき第2の予測済み動きベクトルを決定するステップであって、前記第2の予測済み動きベクトルは前記第2の方向における前記現在の画像ブロックの予測済み動きベクトルであり、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号である、ステップと、
式
mvd_lYは前記第2の動きベクトル差分を表し、POC_Curは前記現在のフレームのシーケンス番号を表し、POC_listXは前記第1の参照フレームの前記シーケンス番号を表し、POC_listYは前記第2の参照フレームの前記シーケンス番号を表し、mvd_lXは前記第1の動きベクトル差分を表す、ステップと、
前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップであって、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、ステップとを特に含む請求項1に記載の方法。 - 前記第1の動き情報に基づき前記第2の動き情報を決定する前記ステップは、
前記第1の動き情報内にある第1の参照フレームのインデックス値と第1の動きベクトルとを取得するステップであって、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号である、ステップと、
第2の参照フレームのインデックス値を取得し、前記第2の参照フレームの前記インデックス値と第2の候補予測済み動きベクトルリストとに基づき第2の予測済み動きベクトルを決定するステップであって、前記第2の予測済み動きベクトルは前記第2の方向における前記現在の画像ブロックの予測済み動きベクトルであり、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号である、ステップと、
前記第1の参照フレームが前記現在の画像ブロックの前方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの後方参照フレームであるとき、または前記第1の参照フレームが前記現在の画像ブロックの後方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの後方参照フレームであるとき、式
mvd_lY=-mvd_lX
に従って前記第2の動き情報内の第2の動きベクトル差分を計算するステップであって、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは前記第1の動きベクトル差分を表す、ステップと、
前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップであって、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、ステップとを特に含む請求項1に記載の方法。 - 第2の参照フレームのインデックス値を取得する前記ステップは、
式POC_listY0=2*POC_Cur-POC_listXに従って前記現在のフレームの前記シーケンス番号と前記第1の参照フレームの前記シーケンス番号とに基づき第1のシーケンス番号を計算するステップであって、POC_Curは前記現在のフレームの前記シーケンス番号を表し、POC_listXは前記第1の参照フレームの前記シーケンス番号を表し、POC_listY0は前記第1のシーケンス番号を表す、ステップと、
前記第2の参照フレームリストが前記第1のシーケンス番号を含むときに、前記第2の参照フレームの前記インデックス値として、前記第2の参照フレームリスト内の前記第1のシーケンス番号によって表される参照フレームの番号を決定するステップとを特に含む請求項2から5のいずれか一項に記載の方法。 - 第2の参照フレームのインデックス値を取得する前記ステップは、
式(POC_Cur-POC_listX)*(POC_listY0'-POC_Cur)>0に従って前記現在のフレームの前記シーケンス番号と前記第1の参照フレームの前記シーケンス番号とに基づき第2のシーケンス番号を計算するステップであって、POC_listY0'は前記第2のシーケンス番号を表す、ステップと、
前記第2の参照フレームリストが前記第2のシーケンス番号を含むときに、前記第2の参照フレームの前記インデックス値として、前記第2の参照フレームリスト内の前記第2のシーケンス番号によって表される参照フレームの番号を決定するステップとを特に含む請求項2から5のいずれか一項に記載の方法。 - 第2の参照フレームのインデックス値を取得する前記ステップは、
式POC_listX≠POC_listY0''に従って前記現在のフレームの前記シーケンス番号と前記第1の参照フレームの前記シーケンス番号とに基づき第3のシーケンス番号を計算するステップであって、POC_listY0''は前記第3のシーケンス番号を表す、ステップと、
前記第2の参照フレームの前記インデックス値として、前記第2の参照フレームリスト内の前記第3のシーケンス番号によって表される参照フレームの番号を決定するステップとを特に含む請求項2から5のいずれか一項に記載の方法。 - 双方向インター予測方法であって、
ビットストリームを解析して第1の識別子を取得するステップであって、前記第1の識別子は第1の動き情報に基づき第2の動き情報を決定するかどうかを指示するために使用され、前記第1の動き情報は第1の方向における現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報である、ステップ、前記第1の識別子の値が第1のプリセット値である場合に前記第1の動き情報を取得し、前記第1の動き情報に基づき前記第2の動き情報を決定するステップ、および前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するステップ、または
ビットストリームを解析して第2の識別子を取得するステップであって、前記第2の識別子は動き情報導出アルゴリズムを使用することによって前記現在の画像ブロックの動き情報を計算するかどうかを指示するために使用される、ステップ、前記第2の識別子の値が第2のプリセット値である場合に第3の識別子を取得するステップであって、前記第3の識別子は第1の動き情報に基づき第2の動き情報を決定するかどうかを指示するために使用され、前記第1の動き情報は第1の方向における前記現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報である、ステップ、前記第3の識別子の値が第3のプリセット値である場合に前記第1の動き情報を取得し、前記第1の動き情報に基づき前記第2の動き情報を決定するステップ、および前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するステップ、または
ビットストリームを解析して第2の識別子を取得するステップであって、前記第2の識別子は動き情報導出アルゴリズムを使用することによって前記現在の画像ブロックの動き情報を計算するかどうかを指示するために使用される、ステップ、前記第2の識別子の値が第2のプリセット値である場合に第1の動き情報を取得し、前記第1の動き情報に基づき前記第2の動き情報を決定するステップであって、前記第1の動き情報は第1の方向における前記現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報である、ステップ、および前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するステップ、または
ビットストリームを解析して第4の識別子を取得するステップであって、前記第4の識別子は動き情報導出アルゴリズムを使用することによって前記現在の画像ブロックの動き情報を計算するかどうかを指示するために使用される、ステップ、前記第4の識別子の値が第4のプリセット値である場合に第1の参照フレームリストと第2の参照フレームリストとに基づき第1の参照フレームのインデックス値と第2の参照フレームのインデックス値とを決定するステップであって、前記第1の参照フレームリストは、前記第1の方向における前記現在の画像ブロックの参照フレームリストであり、前記第2の参照フレームリストは、前記第2の方向における前記現在の画像ブロックの参照フレームリストであり、前記第1の参照フレームは、前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームは、前記第2の方向における前記現在の画像ブロックの参照フレームである、ステップ、第1の動きベクトル差分と第1の動きベクトル予測子フラグとを取得し、第1の動き情報に基づき第2の動き情報を決定するステップであって、前記第1の動き情報は前記第1の参照フレームの前記インデックス値と、前記第1の動きベクトル差分と、前記第1の動きベクトル予測子フラグとを含み、前記第2の動き情報は前記第2の方向における前記現在の画像ブロックの動き情報である、ステップ、および前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するステップを含む双方向インター予測方法。 - 双方向インター予測装置であって、
取得ユニットであって、指示情報を取得し、第1の動き情報を取得するように構成されている取得ユニットと、
決定ユニットであって、前記指示情報が前記第1の動き情報に基づき第2の動き情報を決定することを指示するために使用されたときに、前記取得ユニットによって取得された前記第1の動き情報に基づき前記第2の動き情報を決定し、前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するように構成され、前記第1の動き情報は第1の方向における前記現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報である、決定ユニットとを備える双方向インター予測装置。 - 前記決定ユニットは、
前記第1の動き情報内の第1の参照フレームのインデックス値を取得し、前記第1の参照フレームの前記インデックス値と第1の参照フレームリストとに基づき前記第1の参照フレームのシーケンス番号を決定し、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号であり、
第2の参照フレームのインデックス値を取得し、前記第2の参照フレームの前記インデックス値と第2の参照フレームリストとに基づき前記第2の参照フレームのシーケンス番号を決定し、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号であり、
前記第1の動き情報内にある第1の動きベクトル差分と第1の動きベクトル予測子フラグとに基づき第1の動きベクトルを決定し、前記第1の動きベクトルは前記第1の方向における前記現在の画像ブロックの動きベクトルであり、
式
mv_lYは前記第2の動きベクトルを表し、POC_Curは前記現在のフレームのシーケンス番号を表し、POC_listXは前記第1の参照フレームの前記シーケンス番号を表し、POC_listYは前記第2の参照フレームの前記シーケンス番号を表し、mv_lXは前記第1の動きベクトルを表し、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、請求項10に記載の装置。 - 前記決定ユニットは、
前記第1の動き情報内の第1の参照フレームのインデックス値を取得し、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号であり、
第2の参照フレームのインデックス値を取得し、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号であり、
前記第1の動き情報内にある第1の動きベクトル差分と第1の動きベクトル予測子フラグとに基づき第1の動きベクトルを決定し、前記第1の動きベクトルは前記第1の方向における前記現在の画像ブロックの動きベクトルであり、
前記第1の参照フレームが前記現在の画像ブロックの前方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの後方参照フレームであるとき、または前記第1の参照フレームが前記現在の画像ブロックの後方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの後方参照フレームであるとき、式
mv_lY=-mv_lX
に従って前記第2の動き情報内の第2の動きベクトルを計算するように特に構成され、
mv_lYは前記第2の動きベクトルを表し、mv_lXは前記第1の動きベクトルを表し、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、請求項10に記載の装置。 - 前記決定ユニットは、
前記第1の動き情報内にある第1の参照フレームのインデックス値と第1の動きベクトル差分とを取得し、前記第1の参照フレームの前記インデックス値と第1の参照フレームリストとに基づき前記第1の参照フレームのシーケンス番号を決定し、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号であり、
第2の参照フレームのインデックス値を取得し、前記第2の参照フレームの前記インデックス値と第2の参照フレームリストとに基づき前記第2の参照フレームのシーケンス番号を決定し、前記第2の参照フレームのインデックス値と第2の候補予測済み動きベクトルリストとに基づき第2の予測済み動きベクトルを決定し、前記第2の予測済み動きベクトルは前記第2の方向における前記現在の画像ブロックの予測済み動きベクトルであり、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号であり、
式
mvd_lYは前記第2の動きベクトル差分を表し、POC_Curは前記現在のフレームのシーケンス番号を表し、POC_listXは前記第1の参照フレームの前記シーケンス番号を表し、POC_listYは前記第2の参照フレームの前記シーケンス番号を表し、mvd_lXは前記第1の動きベクトル差分を表し、
前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定し、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、請求項10に記載の装置。 - 前記決定ユニットは、
前記第1の動き情報内にある第1の参照フレームのインデックス値と第1の動きベクトルとを取得し、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第1の参照フレームの前記インデックス値は前記第1の参照フレームリスト内の前記第1の参照フレームの番号であり、
第2の参照フレームのインデックス値を取得し、前記第2の参照フレームの前記インデックス値と第2の候補予測済み動きベクトルリストとに基づき第2の予測済み動きベクトルを決定し、前記第2の予測済み動きベクトルは前記第2の方向における前記現在の画像ブロックの予測済み動きベクトルであり、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームの前記インデックス値は前記第2の参照フレームリスト内の前記第2の参照フレームの番号であり、
前記第1の参照フレームが前記現在の画像ブロックの前方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの後方参照フレームであるとき、または前記第1の参照フレームが前記現在の画像ブロックの後方参照フレームであり、前記第2の参照フレームが前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの前方参照フレームであるとき、または前記第1の参照フレームおよび前記第2の参照フレームが各々、前記現在の画像ブロックの後方参照フレームであるとき、式
mvd_lY=-mvd_lX
に従って前記第2の動き情報内の第2の動きベクトル差分を計算し、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは前記第1の動きベクトル差分を表し、
前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定し、前記第2の動きベクトルは前記第2の方向における前記現在の画像ブロックの動きベクトルである、ように特に構成される請求項10に記載の装置。 - 前記取得ユニットは、
式POC_listY0=2*POC_Cur-POC_listXに従って前記現在のフレームの前記シーケンス番号と前記第1の参照フレームの前記シーケンス番号とに基づき第1のシーケンス番号を計算し、POC_Curは前記現在のフレームの前記シーケンス番号を表し、POC_listXは前記第1の参照フレームの前記シーケンス番号を表し、POC_listY0は前記第1のシーケンス番号を表し、
前記第2の参照フレームリストが前記第1のシーケンス番号を含むときに、前記第2の参照フレームの前記インデックス値として、前記第2の参照フレームリスト内の前記第1のシーケンス番号によって表される参照フレームの番号を決定するように特に構成される請求項11から14のいずれか一項に記載の装置。 - 前記取得ユニットは、
式(POC_Cur-POC_listX)*(POC_listY0'-POC_Cur)>0に従って前記現在のフレームの前記シーケンス番号と前記第1の参照フレームの前記シーケンス番号とに基づき第2のシーケンス番号を計算し、POC_listY0'は前記第2のシーケンス番号を表し、
前記第2の参照フレームリストが前記第2のシーケンス番号を含むときに、前記第2の参照フレームの前記インデックス値として、前記第2の参照フレームリスト内の前記第2のシーケンス番号によって表される参照フレームの番号を決定するように特に構成される請求項11から14のいずれか一項に記載の装置。 - 前記取得ユニットは、
式POC_listX≠POC_listY0''に従って前記現在のフレームの前記シーケンス番号と前記第1の参照フレームの前記シーケンス番号とに基づき第3のシーケンス番号を計算し、POC_listY0''は前記第3のシーケンス番号を表し、
前記第2の参照フレームの前記インデックス値として、前記第2の参照フレームリスト内の前記第3のシーケンス番号によって表される参照フレームの番号を決定するように特に構成される請求項11から14のいずれか一項に記載の装置。 - 双方向インター予測装置であって、
取得ユニットであって、ビットストリームを解析して第1の識別子を取得し、前記第1の識別子は第1の動き情報に基づき第2の動き情報を決定するかどうかを指示するために使用され、前記第1の動き情報は第1の方向における現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報であるように構成され、前記第1の識別子の値が第1のプリセット値である場合に前記第1の動き情報を取得するように構成されている取得ユニットと、決定ユニットであって、前記取得ユニットによって取得された前記第1の動き情報に基づき前記第2の動き情報を決定し、前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定する、ように構成されている決定ユニット、または
取得ユニットであって、ビットストリームを解析して第2の識別子を取得し、前記第2の識別子は動き情報導出アルゴリズムを使用することによって前記現在の画像ブロックの動き情報を計算するかどうかを指示するために使用されるように構成され、前記第2の識別子の値が第2のプリセット値である場合に第3の識別子を取得し、前記第3の識別子は第1の動き情報に基づき第2の動き情報を決定するかどうかを指示するために使用され、前記第1の動き情報は第1の方向における前記現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報であるように構成され、前記第3の識別子の値が第3のプリセット値である場合に前記第1の動き情報を取得する、ように構成されている取得ユニットと、処理ユニットであって、前記取得ユニットによって取得された前記第1の動き情報に基づき前記第2の動き情報を決定し、前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定する、ように構成されている処理ユニット、または
取得ユニットであって、ビットストリームを解析して第2の識別子を取得し、前記第2の識別子は動き情報導出アルゴリズムを使用することによって前記現在の画像ブロックの動き情報を計算するかどうかを指示するために使用されるように構成され、前記第2の識別子の値が第2のプリセット値である場合に第1の動き情報を取得するように構成されている取得ユニットと、決定ユニットであって、前記取得ユニットによって取得された前記第1の動き情報に基づき前記第2の動き情報を決定し、前記第1の動き情報は第1の方向における前記現在の画像ブロックの動き情報であり、前記第2の動き情報は第2の方向における前記現在の画像ブロックの動き情報であり、前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するように構成されている決定ユニット、または
取得ユニットであって、ビットストリームを解析して第4の識別子を取得するように構成され、前記第4の識別子は動き情報導出アルゴリズムを使用することによって前記現在の画像ブロックの動き情報を計算するかどうかを指示するために使用される、取得ユニットと、決定ユニットであって、前記取得ユニットによって取得された前記第4の識別子の値が第4のプリセット値である場合に第1の参照フレームリストと第2の参照フレームリストとに基づき第1の参照フレームのインデックス値と第2の参照フレームのインデックス値とを決定するように構成され、前記第1の参照フレームリストは前記第1の方向における前記現在の画像ブロックの参照フレームリストであり、前記第2の参照フレームリストは前記第2の方向における前記現在の画像ブロックの参照フレームリストであり、前記第1の参照フレームは前記第1の方向における前記現在の画像ブロックの参照フレームであり、前記第2の参照フレームは前記第2の方向における前記現在の画像ブロックの参照フレームであり、前記取得ユニットは第1の動きベクトル差分と第1の動きベクトル予測子フラグとを取得するようにさらに構成され、前記決定ユニットは、第1の動き情報に基づき第2の動き情報を決定し、前記第1の動き情報は前記第1の参照フレームの前記インデックス値と、前記第1の動きベクトル差分と、前記第1の動きベクトル予測子フラグとを含み、前記第2の動き情報は前記第2の方向における前記現在の画像ブロックの動き情報であり、前記第1の動き情報と前記第2の動き情報とに基づき前記現在の画像ブロックの予測サンプルを決定するようにさらに構成される、決定ユニットとを備える双方向インター予測装置。 - 1つ以上のプロセッサと、メモリと、通信インターフェースとを備える端末であって、
前記メモリおよび前記通信インターフェースは、前記1つ以上のプロセッサに接続され、前記端末は前記通信インターフェースを通じて別のデバイスと通信し、前記メモリはコンピュータプログラムコードを記憶するように構成され、前記コンピュータプログラムコードは命令を含み、前記1つ以上のプロセッサが前記命令を実行したときに、請求項1から8のいずれか一項に記載の前記双方向インター予測方法を実行するか、または請求項9に記載の前記双方向インター予測方法を実行する端末。 - 命令を備えるコンピュータプログラム製品であって、端末上で前記プログラム製品が稼動しているときに、前記端末が請求項1から8のいずれか一項に記載の前記双方向インター予測方法を実行するか、または請求項9に記載の前記双方向インター予測方法を実行するように有効化される、コンピュータプログラム製品。
- 命令を備えるコンピュータ可読記憶媒体であって、端末上で前記命令が実行されたときに、前記端末が請求項1から8のいずれか一項に記載の前記双方向インター予測方法を実行するか、または請求項9に記載の前記双方向インター予測方法を実行するように有効化される、コンピュータ可読記憶媒体。
- 不揮発性記憶媒体と中央演算処理装置とを備える、動画デコーダであって、前記不揮発性記憶媒体は実行可能プログラムを記憶し、前記中央演算処理装置は前記不揮発性記憶媒体に接続され、前記中央演算処理装置が前記実行可能プログラムを実行したときに、請求項1から8のいずれか一項に記載の前記双方向インター予測方法を実行するか、または請求項9に記載の前記双方向インター予測方法を実行する動画デコーダ。
- デコーダであって、前記デコーダは請求項10から17のいずれか一項に記載の前記双方向インター予測装置と再構成モジュールとを備え、前記再構成モジュールは、前記双方向インター予測装置によって取得された予測サンプルに基づき現在の画像ブロックの再構成されたサンプル値を決定するように構成されるか、または前記デコーダは、請求項18に記載の前記双方向インター予測装置と、再構成モジュールとを備え、前記再構成モジュールは、前記双方向インター予測装置によって取得された予測サンプルに基づき現在の画像ブロックの再構成されたサンプル値を決定するように構成される、デコーダ。
- 復号方法であって、前記方法は双方向インター予測に適用され、前記方法は、
第1の識別子を取得するステップと、
現在の画像ブロックの第1の動きベクトル差分を取得するステップと、
前記第1の識別子の値が第1のプリセット値であるときに前記第1の動きベクトル差分に基づき前記現在の画像ブロックの第2の動きベクトル差分を決定するステップであって、前記第1の動きベクトル差分は第1の方向における前記現在の画像ブロックの動き情報に属し、前記第2の動きベクトル差分は第2の方向における前記現在の画像ブロックの動き情報に属す、ステップとを含む復号方法。 - 前記第1の動きベクトル差分に基づき前記現在の画像ブロックの第2の動きベクトル差分を決定する前記ステップは、
式
mvd_lY=-mvd_lX
に従って前記第2の動きベクトル差分を取得するステップであって、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは第1の動きベクトル差分を表す、ステップを含む請求項24に記載の方法。 - 前記方法は、
第1の予測済み動きベクトルと第2の予測済み動きベクトルとを取得するステップと、
前記第1の予測済み動きベクトルと前記第1の動きベクトル差分とに基づき第1の動きベクトルを決定するステップと、
前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定するステップと、
前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定するステップであって、
前記第1の予測済み動きベクトルおよび前記第1の動きベクトルは前記第1の方向に対応し、前記第2の予測済み動きベクトルおよび前記第2の動きベクトルは前記第2の方向に対応する、ステップとをさらに含む請求項24または25に記載の方法。 - 前記現在の画像ブロックは、前記第1の方向における第1の参照フレームリストと、前記第2の方向における第2の参照フレームリストとを含み、前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定する前記ステップは、
前記第1の参照フレームリストの参照フレームインデックスと、前記第2の参照フレームリストの参照フレームインデックスとを取得するステップと、
前記第1の参照フレームリストの前記参照フレームインデックスと、前記第1の動きベクトルと、前記第1の参照フレームリストとに基づき第1の参照画像ブロックを決定するステップと、
前記第2の参照フレームリストの前記参照フレームインデックスと、前記第2の動きベクトルと、前記第2の参照フレームリストとに基づき第2の参照画像ブロックを決定するステップと、
前記第1の参照画像ブロックと前記第2の参照画像ブロックとに基づき前記現在の画像ブロックの前記予測サンプルを決定するステップとを含む、請求項26に記載の方法。 - 第1の識別子を取得する前記ステップの前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たしていると決定するステップであって、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは前記第1の参照フレームリストに属し、前記第2の参照フレームは前記第2の参照フレームリストに属すという条件を含む、ステップをさらに含む請求項24から27のいずれか一項に記載の方法。
- 前記方法は、
前記第1の識別子の前記値が第2のプリセット値であるときに、ビットストリームを解析して前記第2の動きベクトルを取得するステップをさらに含む請求項24から28のいずれか一項に記載の方法。 - 第1の識別子を取得する前記ステップの前に、前記現在の画像ブロックが配置されている前記現在のフレームの前記シーケンス番号が前記プリセット条件を満たしていないと決定するステップであって、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が前記第1の参照フレームの前記シーケンス番号と前記第2の参照フレームの前記シーケンス番号との間にあり、前記第1の参照フレームは前記第1の参照フレームリストに属し、前記第2の参照フレームは前記第2の参照フレームリストに属すという条件を含む、ステップをさらに含む請求項29に記載の方法。
- 双方向インター予測装置であって、
取得ユニットであって、第1の識別子を取得し、現在の画像ブロックの第1の動きベクトル差分を取得するように構成されている取得ユニットと、
決定ユニットであって、前記第1の識別子の値が第1のプリセット値であるときに前記第1の動きベクトル差分に基づき前記現在の画像ブロックの第2の動きベクトル差分を決定するように構成され、前記第1の動きベクトル差分は第1の方向における前記現在の画像ブロックの動き情報に属し、前記第2の動きベクトル差分は第2の方向における前記現在の画像ブロックの動き情報に属する、決定ユニットとを備える双方向インター予測装置。 - 前記決定ユニットは、式
mvd_lY=-mvd_lX
に従って前記第2の動きベクトル差分を取得するように特に構成され、
mvd_lYは前記第2の動きベクトル差分を表し、mvd_lXは前記第1の動きベクトル差分を表す請求項31に記載の装置。 - 前記取得ユニットは、第1の予測済み動きベクトルと第2の予測済み動きベクトルとを取得するように特に構成され、前記決定ユニットは、前記第1の予測済み動きベクトルと前記第1の動きベクトル差分とに基づき第1の動きベクトルを決定し、前記第2の予測済み動きベクトルと前記第2の動きベクトル差分とに基づき第2の動きベクトルを決定し、前記第1の動きベクトルと前記第2の動きベクトルとに基づき前記現在の画像ブロックの予測サンプルを決定するように特に構成され、前記第1の予測済み動きベクトルおよび前記第1の動きベクトルは前記第1の方向に対応し、前記第2の予測済み動きベクトルおよび前記第2の動きベクトルは前記第2の方向に対応する、請求項31または32に記載の装置。
- 前記現在の画像ブロックは、前記第1の方向における第1の参照フレームリストと、前記第2の方向における第2の参照フレームリストとを含み、前記取得ユニットは、前記第1の参照フレームリストの参照フレームインデックスと、前記第2の参照フレームリストの参照フレームインデックスとを取得するように特に構成され、前記決定ユニットは、前記第1の参照フレームリストの前記参照フレームインデックスと、前記第1の動きベクトルと、前記第1の参照フレームリストとに基づき第1の参照画像ブロックを決定し、前記第2の参照フレームリストの前記参照フレームインデックスと、前記第2の動きベクトルと、前記第2の参照フレームリストとに基づき第2の参照画像ブロックを決定し、前記第1の参照画像ブロックと前記第2の参照画像ブロックとに基づき前記現在の画像ブロックの前記予測サンプルを決定するように特に構成される請求項33に記載の装置。
- 前記取得ユニットは、前記第1の識別子を取得する前に、前記現在の画像ブロックが配置されている現在のフレームのシーケンス番号がプリセット条件を満たしていると決定するようにさらに特に構成され、前記プリセット条件は、前記現在のフレームの前記シーケンス番号が第1の参照フレームのシーケンス番号と第2の参照フレームのシーケンス番号との間にあり、前記第1の参照フレームは前記第1の参照フレームリストに属し、前記第2の参照フレームは前記第2の参照フレームリストに属すという条件を含む、請求項31から34のいずれか一項に記載の装置。
- 1つ以上のプロセッサと、メモリと、通信インターフェースとを備える端末であって、
前記メモリおよび前記通信インターフェースは、前記1つ以上のプロセッサに接続され、前記端末は前記通信インターフェースを通じて別のデバイスと通信し、前記メモリはコンピュータプログラムコードを記憶するように構成され、前記コンピュータプログラムコードは命令を含み、前記1つ以上のプロセッサが前記命令を実行したときに、前記端末は請求項24から30のいずれか一項に記載の前記復号方法を実行する、端末。 - 不揮発性記憶媒体と中央演算処理装置とを備える、動画デコーダであって、前記不揮発性記憶媒体は実行可能プログラムを記憶し、前記中央演算処理装置は前記不揮発性記憶媒体に接続され、前記中央演算処理装置が前記実行可能プログラムを実行したときに、請求項24から30のいずれか一項に記載の前記復号方法を実行する動画デコーダ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022146320A JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810274457.X | 2018-03-29 | ||
CN201810274457.XA CN110324637B (zh) | 2018-03-29 | 2018-03-29 | 一种双向帧间预测方法及装置 |
PCT/CN2019/071471 WO2019184556A1 (zh) | 2018-03-29 | 2019-01-11 | 一种双向帧间预测方法及装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022146320A Division JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021519548A true JP2021519548A (ja) | 2021-08-10 |
JP7143435B2 JP7143435B2 (ja) | 2022-09-28 |
Family
ID=68062196
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020552815A Active JP7143435B2 (ja) | 2018-03-29 | 2019-01-11 | 双方向インター予測の方法および装置 |
JP2022146320A Pending JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022146320A Pending JP2022179516A (ja) | 2018-03-29 | 2022-09-14 | 双方向インター予測の方法および装置 |
Country Status (14)
Country | Link |
---|---|
US (4) | US11350122B2 (ja) |
EP (1) | EP3771211A4 (ja) |
JP (2) | JP7143435B2 (ja) |
KR (2) | KR102622150B1 (ja) |
CN (6) | CN117560506A (ja) |
AU (1) | AU2019240981B2 (ja) |
BR (1) | BR112020018923A2 (ja) |
CA (1) | CA3095220C (ja) |
MX (1) | MX2020010174A (ja) |
PH (1) | PH12020551544A1 (ja) |
RU (1) | RU2762262C1 (ja) |
SG (1) | SG11202009509VA (ja) |
WO (1) | WO2019184556A1 (ja) |
ZA (1) | ZA202006408B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117560506A (zh) * | 2018-03-29 | 2024-02-13 | 华为技术有限公司 | 一种双向帧间预测方法及装置 |
CN113873249B (zh) * | 2020-06-30 | 2023-02-28 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
CN114071159B (zh) * | 2020-07-29 | 2023-06-30 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器及计算机可读存储介质 |
CN116320428A (zh) * | 2021-12-20 | 2023-06-23 | 维沃移动通信有限公司 | 帧间预测方法及终端 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007505529A (ja) * | 2003-09-12 | 2007-03-08 | 中国科学院▲計▼算技▲術▼研究所 | 映像符号化の符号化側/復号化側に使用される双方向予測方法 |
JP2013106312A (ja) * | 2011-11-16 | 2013-05-30 | Jvc Kenwood Corp | 画像符号化装置、画像符号化方法及び画像符号化プログラム |
WO2016160609A1 (en) * | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2353423T3 (es) * | 2002-10-04 | 2011-03-02 | Lg Electronics, Inc. | Sistema de cálculo de vectores de movimiento de modo directo para imágenes b. |
US8917769B2 (en) | 2009-07-03 | 2014-12-23 | Intel Corporation | Methods and systems to estimate motion based on reconstructed reference frames at a video decoder |
KR20110071047A (ko) * | 2009-12-20 | 2011-06-28 | 엘지전자 주식회사 | 비디오 신호 디코딩 방법 및 장치 |
CN104967857B (zh) | 2010-01-19 | 2019-08-23 | 三星电子株式会社 | 对图像进行编码/解码的方法和设备 |
JP5281597B2 (ja) * | 2010-02-04 | 2013-09-04 | 日本電信電話株式会社 | 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム |
US9503743B2 (en) * | 2010-05-12 | 2016-11-22 | Thomson Licensing | Methods and apparatus for uni-prediction of self-derivation of motion estimation |
KR101873767B1 (ko) * | 2010-05-26 | 2018-07-03 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 장치 |
US9398308B2 (en) * | 2010-07-28 | 2016-07-19 | Qualcomm Incorporated | Coding motion prediction direction in video coding |
CN107483943B (zh) * | 2011-02-09 | 2020-04-03 | Lg 电子株式会社 | 视频编码装置和视频解码装置及其导出运动矢量的方法 |
US9288501B2 (en) * | 2011-03-08 | 2016-03-15 | Qualcomm Incorporated | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
WO2013006386A1 (en) | 2011-07-01 | 2013-01-10 | General Instrument Corporation | Motion vector prediction design simplification |
MX2014005115A (es) * | 2011-10-28 | 2014-08-27 | Samsung Electronics Co Ltd | Metodo para inter-prediccion y dispositivo para el mismo, y metodo para compensacion de movimiento y dispositivo para el mismo. |
CN103188490A (zh) * | 2011-12-29 | 2013-07-03 | 朱洪波 | 视频编码中的合并补偿模式 |
KR102070431B1 (ko) | 2012-01-19 | 2020-01-28 | 삼성전자주식회사 | 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
MX2014012452A (es) | 2012-04-15 | 2015-01-12 | Samsung Electronics Co Ltd | Metodo y aparato para determinar imagenes de referencia para inter-prediccion. |
RU2647674C1 (ru) | 2012-07-02 | 2018-03-16 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для кодирования видео и способ и устройство для декодирования видео, определяющие список опорных изображений внешнего прогнозирования в зависимости от размера блока |
JP6120707B2 (ja) * | 2013-07-08 | 2017-04-26 | ルネサスエレクトロニクス株式会社 | 動画像符号化装置およびその動作方法 |
CN104427345B (zh) * | 2013-09-11 | 2019-01-08 | 华为技术有限公司 | 运动矢量的获取方法、获取装置、视频编解码器及其方法 |
CN111193930B (zh) * | 2013-12-16 | 2021-11-30 | 浙江大学 | 一种前向双假设编码图像块的编解码方法和装置 |
GB2524476B (en) | 2014-03-14 | 2016-04-27 | Canon Kk | Method, device and computer program for optimizing transmission of motion vector related information when transmitting a video stream |
CN107113424B (zh) | 2014-11-18 | 2019-11-22 | 联发科技股份有限公司 | 以帧间预测模式编码的块的视频编码和解码方法 |
CN112929659B (zh) * | 2015-10-13 | 2023-12-26 | 三星电子株式会社 | 用于对图像进行编码或解码的方法和设备 |
EP3439303B1 (en) * | 2016-04-28 | 2020-12-30 | LG Electronics Inc. -1- | Inter prediction mode-based image processing method and apparatus therefor |
KR102338356B1 (ko) | 2016-05-24 | 2021-12-13 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 이를 위한 기록 매체 |
US10462462B2 (en) * | 2016-09-29 | 2019-10-29 | Qualcomm Incorporated | Motion vector difference coding technique for video coding |
US20180192071A1 (en) * | 2017-01-05 | 2018-07-05 | Mediatek Inc. | Decoder-side motion vector restoration for video coding |
CN117560506A (zh) * | 2018-03-29 | 2024-02-13 | 华为技术有限公司 | 一种双向帧间预测方法及装置 |
-
2018
- 2018-03-29 CN CN202311519450.7A patent/CN117560506A/zh active Pending
- 2018-03-29 CN CN201810274457.XA patent/CN110324637B/zh active Active
- 2018-03-29 CN CN202311519024.3A patent/CN117528116A/zh active Pending
- 2018-03-29 CN CN202110443658.XA patent/CN113315975B/zh active Active
- 2018-03-29 CN CN202311519172.5A patent/CN117560505A/zh active Pending
- 2018-03-29 CN CN202010763105.8A patent/CN112040244B/zh active Active
-
2019
- 2019-01-11 WO PCT/CN2019/071471 patent/WO2019184556A1/zh active Application Filing
- 2019-01-11 RU RU2020134970A patent/RU2762262C1/ru active
- 2019-01-11 JP JP2020552815A patent/JP7143435B2/ja active Active
- 2019-01-11 CA CA3095220A patent/CA3095220C/en active Active
- 2019-01-11 KR KR1020237013341A patent/KR102622150B1/ko active IP Right Grant
- 2019-01-11 MX MX2020010174A patent/MX2020010174A/es unknown
- 2019-01-11 KR KR1020207029639A patent/KR102525178B1/ko active IP Right Grant
- 2019-01-11 EP EP19776934.2A patent/EP3771211A4/en active Pending
- 2019-01-11 BR BR112020018923-5A patent/BR112020018923A2/pt unknown
- 2019-01-11 AU AU2019240981A patent/AU2019240981B2/en active Active
- 2019-01-11 SG SG11202009509VA patent/SG11202009509VA/en unknown
-
2020
- 2020-09-23 PH PH12020551544A patent/PH12020551544A1/en unknown
- 2020-09-25 US US16/948,625 patent/US11350122B2/en active Active
- 2020-10-15 ZA ZA2020/06408A patent/ZA202006408B/en unknown
-
2022
- 2022-04-27 US US17/731,109 patent/US11924458B2/en active Active
- 2022-05-27 US US17/827,361 patent/US11838535B2/en active Active
- 2022-09-14 JP JP2022146320A patent/JP2022179516A/ja active Pending
-
2024
- 2024-01-18 US US18/416,294 patent/US20240171765A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007505529A (ja) * | 2003-09-12 | 2007-03-08 | 中国科学院▲計▼算技▲術▼研究所 | 映像符号化の符号化側/復号化側に使用される双方向予測方法 |
JP2013106312A (ja) * | 2011-11-16 | 2013-05-30 | Jvc Kenwood Corp | 画像符号化装置、画像符号化方法及び画像符号化プログラム |
WO2016160609A1 (en) * | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7143435B2 (ja) | 双方向インター予測の方法および装置 | |
US11659161B2 (en) | Reference frame obtaining method and apparatus applied to bidirectional inter prediction | |
JP2021529483A (ja) | 動きベクトル予測方法及び関連する装置 | |
US11895319B2 (en) | Method for constructing candidate motion information list, inter prediction method, and apparatus | |
RU2795934C2 (ru) | Способ и устройство двунаправленного интер-предсказания | |
US20240196003A1 (en) | Method for constructing candidate motion information list, inter prediction method, and apparatus | |
RU2818520C2 (ru) | Способ и устройство двунаправленного интер-предсказания |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |