JP2022532670A - インター予測方法および装置 - Google Patents
インター予測方法および装置 Download PDFInfo
- Publication number
- JP2022532670A JP2022532670A JP2021568601A JP2021568601A JP2022532670A JP 2022532670 A JP2022532670 A JP 2022532670A JP 2021568601 A JP2021568601 A JP 2021568601A JP 2021568601 A JP2021568601 A JP 2021568601A JP 2022532670 A JP2022532670 A JP 2022532670A
- Authority
- JP
- Japan
- Prior art keywords
- block
- motion vector
- subblock
- reference frame
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 198
- 239000013598 vector Substances 0.000 claims abstract description 969
- 230000033001 locomotion Effects 0.000 claims abstract description 865
- 230000026058 directional locomotion Effects 0.000 claims description 111
- 238000012545 processing Methods 0.000 claims description 100
- 230000015654 memory Effects 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 30
- 230000002457 bidirectional effect Effects 0.000 claims description 25
- 108091026890 Coding region Proteins 0.000 claims description 23
- 238000013139 quantization Methods 0.000 description 68
- 238000006243 chemical reaction Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 31
- 239000000523 sample Substances 0.000 description 29
- 230000009466 transformation Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 28
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 12
- 230000006835 compression Effects 0.000 description 11
- 238000007906 compression Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 238000001914 filtration Methods 0.000 description 10
- 241000023320 Luma <angiosperm> Species 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 8
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 230000002441 reversible effect Effects 0.000 description 7
- 238000003491 array Methods 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 239000013074 reference sample Substances 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 241000473391 Archosargus rhomboidalis Species 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 108700026244 Open Reading Frames Proteins 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
目標動き情報候補のインデックス識別子をビットストリームへと符号化するように構成される、エントロピー符号化モジュールであって、インデックス識別子が現在の符号化ピクチャブロックのために使用される目標動き情報候補を示す、エントロピー符号化モジュールと、
予測されるピクセル値に基づいて現在の符号化ピクチャブロックを再構築するように構成される、再構築モジュールとを含む。
ux=(vx+2bitDepth)%2bitDepth
vx=(ux>=2bitDepth-1)?(ux-2bitDepth):ux
uy=(vy+2bitDepth)%2bitDepth
vy=(uy>=2bitDepth-1)?(uy-2bitDepth):uy
vx=Clip 3(-2bitDepth-1,2bitDepth-1-1,vx)
vy=Clip 3(-2bitDepth-1,2bitDepth-1-1,vy)
J=SAD+λR (1)
あらかじめ設定された順序で、複数の第1のあらかじめ設定された位置における空間隣接ブロックの動きベクトルが利用可能であるかどうかを、その動きベクトルがあらかじめ設定された順序で利用可能である第1の空間隣接ブロックの動きベクトルが取得されるまで、逐次確認し、
時間オフセットベクトルとして、その動きベクトルがあらかじめ設定された順序で利用可能である第1の空間隣接ブロックの動きベクトルを使用する。
第2のあらかじめ設定された位置における空間隣接ブロックの動きベクトルおよび参照フレームを取得し、第2のあらかじめ設定された位置における空間隣接ブロックの動きベクトルが利用可能であり、
時間オフセットベクトルとして、第2のあらかじめ設定された位置における空間隣接ブロックの動きベクトルを使用する。
処理されるべきブロックの空間隣接ブロックに基づいて、処理されるべきブロックの時間オフセットベクトルを決定するように構成されるオフセット取得モジュール1301であって、時間オフセットベクトルが、処理されるべきブロックのサブブロックの同一位置のサブブロックを決定するために使用される、オフセット取得モジュール1301と、同一位置のサブブロックの動きベクトルに基づいて、処理されるべきブロックのサブブロックの動きベクトルを決定するように構成される動きベクトル取得モジュール1302であって、処理されるべきブロックのサブブロックの動きベクトルが、同一位置のサブブロックの動きベクトルが利用不可能であるとき、第1のあらかじめ設定された動きベクトルに基づいて取得される、動きベクトル取得モジュール1302とを含む。
ステップ1: オフセット動きベクトル(offset motion vector)を決定する。
ステップ1: オフセット動きベクトル(offset motion vector)を決定する。
- availableFlagL0SbColとavailableFlagL1SbColの両方が0に等しいとき、以下のことが当てはまる。
mvL0SbCol[xSbIdx][ySbIdx][0]=0 (8-638)
mvL0SbCol[xSbIdx][ySbIdx][1]=0 (8-638)
predFlagL0SbCol[xSbIdx][ySbIdx]=1 (8-639)
mvL1SbCol[xSbIdx][ySbIdx][0]=0 (8-638)
mvL1SbCol[xSbIdx][ySbIdx][1]=0 (8-638)
predFlagL1SbCol[xSbIdx][ySbIdx]=slice_type==B?1:0 (8-639)
mvL0SbCol[xSbIdx][ySbIdx][0]=0 (8-638)
mvL0SbCol[xSbIdx][ySbIdx][1]=0 (8-638)
predFlagL0SbCol[xSbIdx][ySbIdx]=1 (8-639)
mvL1SbCol[xSbIdx][ySbIdx][0]=0 (8-638)
mvL1SbCol[xSbIdx][ySbIdx][1]=0 (8-638)
predFlagL1SbCol[xSbIdx][ySbIdx]=0 (8-639)
この実施形態は、インター予測方法に関し、オフセット動きベクトルを取得するための方法が最適化される。ステップ2および3は、実施形態Aにおけるものと同じである。具体的な説明が次のように与えられる。
- 以下の条件のすべてが真である場合、checkL1Firstが1に等しく設定される:
- DiffPicOrderCnt(aPic,currPic)が、現在のスライスの1つ1つの参照ピクチャの中の1つ1つのピクチャaPicに対して0以下である、
- slice_typeがBに等しい、
- collocated_from_l0_flagが0に等しい。
- KがcheckL1Firstに等しく設定され、以下の条件のすべてが真である場合、tempMVがmvLKA1に等しく設定される:
- predFlagLKA1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[K][refIdxLKA1])が0に等しい。
- そうではなく、Kが(1-checkL1First)に等しく設定され、以下の条件のすべてが真である場合、tempMVがmvLKA1に等しく設定される:
- predFlagLKA1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[K][refIdxLKA1])が0に等しい。
- 以下の条件のすべてが真である場合、checkL1Firstが1に等しく設定される:
- slice_typeがBに等しい、
- collocated_from_l0_flagが0に等しい。
- KがcheckL1Firstに等しく設定され、以下の条件のすべてが真である場合、tempMVがmvLKA1に等しく設定される:
- predFlagLKA1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[K][refIdxLKA1])が0に等しい。
- そうではなく、Kが(1-checkL1First)に等しく設定され、以下の条件のすべてが真である場合、tempMVがmvLKA1に等しく設定される:
- predFlagLKA1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[K][refIdxLKA1])が0に等しい。
- 以下の条件のすべてが真である場合、tempMVがmvL0A1に等しく設定される:
- predFlagL0A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[0][refIdxL0A1])が0に等しい。
- そうではなく、以下の条件のすべてが真である場合、tempMVがmvL1A1に等しく設定される:
- slice_typeがBに等しい、
- predFlagL1A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[1][refIdxL1A1])が0に等しい。
- 以下の条件のすべてが真である場合、tempMVがmvL0A1に等しく設定される:
- predFlagL0A1が1に等しい、
- DiffPicOrderCnt(ColPic,RefPicList[0][refIdxL0A1])が0に等しい。
13 リンク
14 デスティネーションデバイス
16 ピクチャソース
17 生のピクチャデータ
18 ピクチャプリプロセッサ
19 前処理されたピクチャデータ
20 エンコーダ
21 符号化されたピクチャデータ
22 通信インターフェース
28 通信インターフェース
30 デコーダ
31 復号されたピクチャデータ
32 ピクチャポストプロセッサ
33 後処理されたピクチャデータ
34 ディスプレイデバイス
40 ビデオコーディングシステム
41 イメージングデバイス
42 アンテナ
43 プロセッサ
44 メモリ
45 ディスプレイデバイス
46 処理ユニット
47 論理回路
110 逆量子化ユニット
201 ピクチャ
202 入力
203 ピクチャブロック
204 残差計算ユニット
205 残差ブロック
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化された係数
210 逆量子化ユニット
211 量子化解除された係数
212 逆変換処理ユニット
213 再構築された残差ブロック
214 再構築ユニット
215 再構築されたブロック
216 バッファ
217 参照サンプル
220 ループフィルタ
221 フィルタリングされたブロック
230 復号ピクチャバッファ
231 復号されたピクチャ
244 インター予測ユニット
245 インター予測ブロック
254 イントラ予測ユニット
255 イントラ予測ブロック
260 予測処理ユニット
262 モード選択ユニット
265 予測ブロック
270 エントロピー符号化ユニット
272 出力
304 エントロピー復号ユニット
309 量子化された係数
310 逆量子化ユニット
311 量子化解除された係数
312 逆変換処理ユニット
313 再構築された残差ブロック
314 再構築ユニット
315 再構築されたブロック
316 バッファ
317 参照サンプル
320 ループフィルタ
321 フィルタリングされたブロック
330 復号ピクチャバッファDPB
331 復号されたピクチャ
332 出力
344 インター予測ユニット
354 イントラ予測ユニット
360 予測処理ユニット
362 モード選択ユニット
365 予測ブロック
400 ビデオコーディングデバイス
410 入口ポート
420 受信機ユニット
430 プロセッサ
440 送信機ユニット
450 出口ポート
460 メモリ
470 符号化/復号モジュール
500 コーディングデバイス
510 プロセッサ
530 メモリ
531 データ
533 オペレーティングシステム
535 アプリケーションプログラム
550 バスシステム
570 ディスプレイ
1300 インター予測装置
1301 オフセット取得モジュール
1302 動きベクトル取得モジュール
1303 決定モジュール
1304 動き補償モジュール
Claims (68)
- インター予測方法であって、処理されるべきブロックが1つまたは複数のサブブロックを備え、
前記処理されるべきブロックの空間隣接ブロックに基づいて前記処理されるべきブロックの時間オフセットベクトルを決定するステップであって、前記時間オフセットベクトルが、前記処理されるべきブロックの前記サブブロックの同一位置のサブブロックを決定するために使用される、ステップと、
前記同一位置のサブブロックの動きベクトルに基づいて、前記処理されるべきブロックの前記サブブロックの動きベクトルを決定するステップであって、前記同一位置のサブブロックの前記動きベクトルが利用不可能であるとき、前記処理されるべきブロックの前記サブブロックの前記動きベクトルが第1のあらかじめ設定された動きベクトルに基づいて取得される、ステップとを備える、インター予測方法。 - 前記処理されるべきブロックの空間隣接ブロックに基づいて前記処理されるべきブロックの時間オフセットベクトルを決定する前記ステップが、
あらかじめ設定された順序で、複数の第1のあらかじめ設定された位置における空間隣接ブロックの動きベクトルが利用可能であるかどうかを、その動きベクトルが前記あらかじめ設定された順序で利用可能である第1の空間隣接ブロックの動きベクトルが取得されるまで、逐次確認するステップと、
前記時間オフセットベクトルとして、その動きベクトルが前記あらかじめ設定された順序で利用可能である前記第1の空間隣接ブロックの前記動きベクトルを使用するステップとを備える、請求項1に記載の方法。 - 前記複数の第1のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルがすべて利用不可能であるとき、第2のあらかじめ設定された動きベクトルが前記時間オフセットベクトルとして使用される、請求項2に記載の方法。
- 前記第2のあらかじめ設定された動きベクトルがゼロ動きベクトルである、請求項3に記載の方法。
- 前記処理されるべきブロックの空間隣接ブロックに基づいて前記処理されるべきブロックの時間オフセットベクトルを決定する前記ステップが、
第2のあらかじめ設定された位置における空間隣接ブロックの動きベクトルおよび参照フレームを取得するステップであって、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルが利用可能である、ステップと、
前記時間オフセットベクトルとして、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルを使用するステップとを備える、請求項1に記載の方法。 - 前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルがすべて利用不可能であるとき、第3のあらかじめ設定された動きベクトルが前記時間オフセットベクトルとして使用される、請求項5に記載の方法。
- 前記第3のあらかじめ設定された動きベクトルがゼロ動きベクトルである、請求項6に記載の方法。
- 前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルが、第1の参照フレームリストに基づく第1の方向動きベクトルを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記参照フレームが、前記第1の方向動きベクトルに対応する第1の方向参照フレームを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルを前記時間オフセットベクトルとして使用する前記ステップが、
前記第1の方向参照フレームが、前記同一位置のサブブロックが位置する画像フレームと同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用するステップを備える、請求項5から7のいずれか一項に記載の方法。 - 前記第1の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと異なるとき、
前記第3のあらかじめ設定された動きベクトルを前記時間オフセットベクトルとして使用するステップを備える、請求項8に記載の方法。 - 双方向予測が前記第2のあらかじめ設定された位置における前記空間隣接ブロックのために使用されるとき、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルがさらに、第2の参照フレームリストに基づく第2の方向動きベクトルを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記参照フレームが、前記第2の方向動きベクトルに対応する第2の方向参照フレームを備え、前記第1の方向参照フレームが、前記処理されるべきブロックの対応する時間ブロックが位置する前記画像フレームと異なるとき、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用するステップ、または、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと異なるとき、前記第3のあらかじめ設定された動きベクトルを前記時間オフセットベクトルとして使用するステップを備える、請求項8に記載の方法。 - 双方向予測が前記第2のあらかじめ設定された位置における前記空間隣接ブロックのために使用されるとき、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルが、第1の参照フレームリストに基づく第1の方向動きベクトルおよび第2の参照フレームリストに基づく第2の方向動きベクトルを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記参照フレームが、前記第1の方向動きベクトルに対応する第1の方向参照フレームおよび前記第2の方向動きベクトルに対応する第2の方向参照フレームを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルを前記時間オフセットベクトルとして使用する前記ステップが、
前記同一位置のサブブロックが位置する画像フレームが前記第2の参照フレームリストから取得されるとき、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用するステップ、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用するステップ、または、
前記同一位置のサブブロックが位置する画像フレームが前記第1の参照フレームリストから取得されるとき、
前記第1の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用するステップ、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用するステップを備える、請求項5から7のいずれか一項に記載の方法。 - 前記時間オフセットベクトルとして、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルを使用する前記ステップが、
前記同一位置のサブブロックが位置する前記画像フレームが、前記第2の参照フレームリストから取得され、前記処理されるべきブロックの参照フレームリストの中のすべての参照フレームが、前記処理されるべきブロックが位置する画像フレームの前に表示されるとき、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用するステップ、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用するステップ、または、
前記同一位置のサブブロックが位置する前記画像フレームが、前記第1の参照フレームリストから取得され、もしくは、前記処理されるべきブロックの参照フレームリストの中の少なくとも1つの参照フレームが、前記処理されるべきブロックが位置する画像フレームの後に表示されるとき、
前記第1の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用するステップ、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用するステップを備える、請求項11に記載の方法。 - 前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが異なるとき、前記時間オフセットベクトルとして前記第3のあらかじめ設定された動きベクトルが使用される、請求項11または12に記載の方法。
- 前記同一位置のサブブロックが位置する、かつ前記処理されるべきブロックの前記空間隣接ブロックの参照フレームリストの中にある前記画像フレームのインデックスが、ビットストリームを解析することによって取得される、請求項8から13のいずれか一項に記載の方法。
- 前記空間隣接ブロックの前記動きベクトルが利用不可能である条件が、
前記空間隣接ブロックが符号化/復号されない、
イントラ予測モードまたはイントラブロックコピーモードが前記空間隣接ブロックのために使用される、
前記空間隣接ブロックが存在しない、または、
前記空間隣接ブロックおよび前記処理されるべきブロックが異なるコーディング領域に位置する
という項目のうちの1つまたは組合せを備える、請求項2から14のいずれか一項に記載の方法。 - 前記コーディング領域が、ピクチャ、スライス、タイル、またはタイルグループを備える、請求項15に記載の方法。
- 前記処理されるべきブロックの前記サブブロックの動きベクトルを決定する前記ステップの前に、
前記同一位置のサブブロックのあらかじめ設定されたイントラブロック位置に対応する動きベクトルが利用可能であるかどうかを決定するステップとをさらに備え、
それに対応して、前記処理されるべきブロックの前記サブブロックの動きベクトルを決定する前記ステップが、
前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用可能であるとき、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記動きベクトルを取得するステップ、または、
前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であるとき、前記第1のあらかじめ設定された動きベクトルに基づいて、前記処理されるべきブロックの前記サブブロックの前記動きベクトルを取得するステップを備える、請求項1から16のいずれか一項に記載の方法。 - 前記あらかじめ設定されたイントラブロック位置が、前記同一位置のサブブロックの幾何学的な中心位置である、請求項17に記載の方法。
- 前記あらかじめ設定されたイントラブロック位置が位置する予測ユニットのために前記イントラ予測モードまたは前記イントラブロックコピーモードが使用されるとき、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であり、または、前記あらかじめ設定されたイントラブロック位置が位置する予測ユニットのためにインター予測が使用されるとき、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用可能である、請求項17または18に記載の方法。
- 前記処理されるべきブロックの前記サブブロックの前記動きベクトルが第1のあらかじめ設定された動きベクトルに基づいて取得されることが、
前記第1のあらかじめ設定された動きベクトルを前記処理されるべきブロックの前記サブブロックの前記動きベクトルとして使用することを備える、請求項17から19のいずれか一項に記載の方法。 - 前記第1のあらかじめ設定された動きベクトルがゼロ動きベクトルである、請求項1から20のいずれか一項に記載の方法。
- 前記サブブロックの前記動きベクトルが、前記第1の参照フレームリストに基づく第1の方向サブブロック動きベクトルおよび/または前記第2の参照フレームリストに基づく第2の方向サブブロック動きベクトルを備え、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であるとき、前記処理されるべきブロックの前記サブブロックの前記動きベクトルが第1のあらかじめ設定された動きベクトルに基づいて取得されることが、
前記処理されるべきブロックの前記サブブロックのために前記第1の方向サブブロック動きベクトルに基づく単方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記第1の方向サブブロック動きベクトルを取得すること、または、
前記処理されるべきブロックの前記サブブロックのために前記第2の方向サブブロック動きベクトルに基づく単方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記第2の方向サブブロック動きベクトルを取得することを備える、請求項17から21のいずれか一項に記載の方法。 - 前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であるとき、前記処理されるべきブロックの前記サブブロックの前記動きベクトルが第1のあらかじめ設定された動きベクトルに基づいて取得されることが、
前記処理されるべきブロックが位置するコーディング領域の予測タイプがBタイプ予測であるとき、前記処理されるべきサブブロックの前記サブブロックのために双方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて、前記処理されるべきブロックの前記サブブロックの前記第1の方向サブブロック動きベクトルおよび前記処理されるべきブロックの前記サブブロックの前記第2の方向サブブロック動きベクトルを別々に取得すること、または、
前記処理されるべきブロックが位置するコーディング領域の予測タイプがPタイプ予測であるとき、前記処理されるべきブロックの前記サブブロックのために単方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記第1の方向サブブロック動きベクトルを取得することを備える、請求項22に記載の方法。 - 前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルに基づいて、前記処理されるべきブロックの前記サブブロックの前記動きベクトルを取得する前記ステップが、
前記処理されるべきブロックの前記サブブロックの前記動きベクトルを取得するために、第2の時間距離差分に対する第1の時間距離差分の比に基づいて、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルに対してスケーリング処理を実行するステップを備え、前記第1の時間距離差分が、前記処理されるべきブロックが位置する前記画像フレームと前記処理されるべきブロックの参照フレームとの間のピクチャ順序カウント差分であり、前記第2の時間距離差分が、前記同一位置のサブブロックが位置する前記画像フレームと前記同一位置のサブブロックの参照フレームとの間のピクチャ順序カウント差分である、請求項17から23のいずれか一項に記載の方法。 - 前記処理されるべきブロックの前記参照フレームリストの中の前記処理されるべきブロックの前記参照フレームのインデックスが、前記ビットストリームを解析することによって取得される、請求項24に記載の方法。
- 前記処理されるべきブロックの前記参照フレームリストの中の前記処理されるべきブロックの前記参照フレームの前記インデックスが0である、請求項24または25に記載の方法。
- 前記処理されるべきブロックの前記サブブロックの予測値を取得するために、前記処理されるべきブロックの前記サブブロックの前記動きベクトルおよび前記処理されるべきブロックの前記参照フレームに基づいて、前記処理されるべきブロックの前記サブブロックに対する動き補償を実行するステップをさらに備える、請求項1から26のいずれか一項に記載の方法。
- インター予測装置であって、処理されるべきブロックが1つまたは複数のサブブロックを備え、
前記処理されるべきブロックの空間隣接ブロックに基づいて前記処理されるべきブロックの時間オフセットベクトルを決定するように構成されるオフセット取得モジュールであって、前記時間オフセットベクトルが、前記処理されるべきブロックの前記サブブロックの同一位置のサブブロックを決定するために使用される、オフセット取得モジュールと、
前記同一位置のサブブロックの動きベクトルに基づいて、前記処理されるべきブロックの前記サブブロックの動きベクトルを決定するように構成される動きベクトル取得モジュールであって、前記同一位置のサブブロックの前記動きベクトルが利用不可能であるとき、前記処理されるべきブロックの前記サブブロックの前記動きベクトルが第1のあらかじめ設定された動きベクトルに基づいて取得される、動きベクトル取得モジュールとを備える、インター予測装置。 - 前記オフセット取得モジュールが特に、
あらかじめ設定された順序で、複数の第1のあらかじめ設定された位置における空間隣接ブロックの動きベクトルが利用可能であるかどうかを、その動きベクトルが前記あらかじめ設定された順序で利用可能である第1の空間隣接ブロックの動きベクトルが取得されるまで、逐次確認し、
前記時間オフセットベクトルとして、その動きベクトルが前記あらかじめ設定された順序で利用可能である前記第1の空間隣接ブロックの前記動きベクトルを使用するように構成される、請求項28に記載の装置。 - 前記オフセット取得モジュールが特に、前記複数の第1のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルがすべて利用不可能であるとき、第2のあらかじめ設定された動きベクトルを前記時間オフセットベクトルとして使用するように構成される、請求項29に記載の装置。
- 前記第2のあらかじめ設定された動きベクトルがゼロ動きベクトルである、請求項30に記載の装置。
- 前記オフセット取得モジュールが特に、
第2のあらかじめ設定された位置における空間隣接ブロックの動きベクトルおよび参照フレームを取得し、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルが利用可能であり、
前記時間オフセットベクトルとして、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルを使用するように構成される、請求項28に記載の装置。 - 前記オフセット取得モジュールが特に、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルが利用不可能であるとき、第3のあらかじめ設定された動きベクトルを前記時間オフセットベクトルとして使用するように構成される、請求項32に記載の装置。
- 前記第3のあらかじめ設定された動きベクトルがゼロ動きベクトルである、請求項33に記載の装置。
- 前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルが、第1の参照フレームリストに基づく第1の方向動きベクトルを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記参照フレームが、前記第1の方向動きベクトルに対応する第1の方向参照フレームを備え、前記オフセット取得モジュールが特に、前記同一位置のサブブロックが位置する画像フレームと前記第1の方向参照フレームが同じであるとき、前記時間オフセットベクトルとして前記第1の方向動きベクトルを使用するように構成される、請求項32から34のいずれか一項に記載の装置。
- 前記第1の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと異なるとき、前記オフセット取得モジュールが特に、
前記第3のあらかじめ設定された動きベクトルを前記時間オフセットベクトルとして使用するように構成される、請求項35に記載の装置。 - 双方向予測が前記第2のあらかじめ設定された位置における前記空間隣接ブロックのために使用されるとき、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルがさらに、第2の参照フレームリストに基づく第2の方向動きベクトルを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記参照フレームが、前記第2の方向動きベクトルに対応する第2の方向参照フレームを備え、前記第1の方向参照フレームが、前記処理されるべきブロックの対応する時間ブロックが位置する前記画像フレームと異なり、前記オフセット取得モジュールが特に、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用し、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと異なるとき、前記第3のあらかじめ設定された動きベクトルを前記時間オフセットベクトルとして使用するように構成される、請求項35に記載の装置。 - 双方向予測が前記第2のあらかじめ設定された位置における前記空間隣接ブロックのために使用されるとき、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記動きベクトルが、第1の参照フレームリストに基づく第1の方向動きベクトルおよび第2の参照フレームリストに基づく第2の方向動きベクトルを備え、前記第2のあらかじめ設定された位置における前記空間隣接ブロックの前記参照フレームが、前記第1の方向動きベクトルに対応する第1の方向参照フレームおよび前記第2の方向動きベクトルに対応する第2の方向参照フレームを備え、前記オフセット取得モジュールが特に、
前記同一位置のサブブロックが位置する画像フレームが前記第2の参照フレームリストから取得されるとき、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用し、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用し、または、
前記同一位置のサブブロックが位置する画像フレームが前記第1の参照フレームリストから取得されるとき、
前記第1の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用し、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用するように構成される、請求項32から34のいずれか一項に記載の装置。 - 前記オフセット取得モジュールが特に、
前記同一位置のサブブロックが位置する前記画像フレームが、前記第2の参照フレームリストから取得され、前記処理されるべきブロックの参照フレームリストの中のすべての参照フレームが、前記処理されるべきブロックが位置する画像フレームの前に表示されるとき、
前記第2の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用し、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用し、または、
前記同一位置のサブブロックが位置する前記画像フレームが、前記第1の参照フレームリストから取得され、もしくは、前記処理されるべきブロックの参照フレームリストの中の少なくとも1つの参照フレームが、前記処理されるべきブロックが位置する画像フレームの後に表示されるとき、
前記第1の方向参照フレームが、前記同一位置のサブブロックが位置する前記画像フレームと同じであるとき、前記第1の方向動きベクトルを前記時間オフセットベクトルとして使用し、もしくは、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが同じであるとき、前記第2の方向動きベクトルを前記時間オフセットベクトルとして使用するように構成される、請求項38に記載の装置。 - 前記オフセット取得モジュールが特に、前記同一位置のサブブロックが位置する前記画像フレームと前記第2の方向参照フレームが異なり、前記同一位置のサブブロックが位置する前記画像フレームと前記第1の方向参照フレームが異なるとき、前記時間オフセットベクトルとして前記第3のあらかじめ設定された動きベクトルを使用するように構成される、請求項38または39に記載の装置。
- 前記同一位置のサブブロックが位置する、かつ前記処理されるべきブロックの前記空間隣接ブロックの参照フレームリストの中にある前記画像フレームのインデックスが、ビットストリームを解析することによって取得される、請求項37から40のいずれか一項に記載の装置。
- 前記空間隣接ブロックの前記動きベクトルが利用不可能である条件が、
前記空間隣接ブロックが符号化/復号されない、
イントラ予測モードまたはイントラブロックコピーモードが前記空間隣接ブロックのために使用される、
前記空間隣接ブロックが存在しない、または、
前記空間隣接ブロックおよび前記処理されるべきブロックが異なるコーディング領域に位置する
という項目のうちの1つまたは組合せを備える、請求項29から41のいずれか一項に記載の装置。 - 前記コーディング領域が、ピクチャ、スライス、タイル、またはタイルグループを備える、請求項42に記載の装置。
- 前記装置がさらに、
前記同一位置のサブブロックのあらかじめ設定されたイントラブロック位置に対応する動きベクトルが利用可能であるかどうかを決定するように構成される決定モジュールを備え、
それに対応して、前記動きベクトル取得モジュールが特に、
前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用可能であるとき、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記動きベクトルを取得し、または、
前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であるとき、前記第1のあらかじめ設定された動きベクトルに基づいて、前記処理されるべきブロックの前記サブブロックの前記動きベクトルを取得するように構成される、請求項28から43のいずれか一項に記載の装置。 - 前記あらかじめ設定されたイントラブロック位置が、前記同一位置のサブブロックの幾何学的な中心位置である、請求項44に記載の装置。
- 前記あらかじめ設定されたイントラブロック位置が位置する予測ユニットのために前記イントラ予測モードまたは前記イントラブロックコピーモードが使用されるとき、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であり、または、前記あらかじめ設定されたイントラブロック位置が位置する予測ユニットのためにインター予測が使用されるとき、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用可能である、請求項44または45に記載の装置。
- 前記動きベクトル取得モジュールが特に、
前記第1のあらかじめ設定された動きベクトルを前記処理されるべきブロックの前記サブブロックの前記動きベクトルとして使用するように構成される、請求項44から46のいずれか一項に記載の装置。 - 前記第1のあらかじめ設定された動きベクトルがゼロ動きベクトルである、請求項28から47のいずれか一項に記載の装置。
- 前記サブブロックの前記動きベクトルが、前記第1の参照フレームリストに基づく第1の方向サブブロック動きベクトルおよび/または前記第2の参照フレームリストに基づく第2の方向サブブロック動きベクトルを備え、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であるとき、前記動きベクトル取得モジュールが特に、
前記処理されるべきブロックの前記サブブロックのために前記第1の方向サブブロック動きベクトルに基づく単方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記第1の方向サブブロック動きベクトルを取得し、または、
前記処理されるべきブロックの前記サブブロックのために前記第2の方向サブブロック動きベクトルに基づく単方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記第2の方向サブブロック動きベクトルを取得するように構成される、請求項44から48のいずれか一項に記載の装置。 - 前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルが利用不可能であるとき、前記動きベクトル取得モジュールが特に、
前記処理されるべきブロックが位置するコーディング領域の予測タイプがBタイプ予測であるとき、前記処理されるべきサブブロックの前記サブブロックのために双方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて、前記処理されるべきブロックの前記サブブロックの前記第1の方向サブブロック動きベクトルおよび前記処理されるべきブロックの前記サブブロックの前記第2の方向サブブロック動きベクトルを別々に取得し、または、
前記処理されるべきブロックが位置するコーディング領域の予測タイプがPタイプ予測であるとき、前記処理されるべきブロックの前記サブブロックのために単方向予測が使用されると決定し、前記第1のあらかじめ設定された動きベクトルに基づいて前記処理されるべきブロックの前記サブブロックの前記第1の方向サブブロック動きベクトルを取得するように構成される、請求項49に記載の装置。 - 前記動きベクトル取得モジュールが特に、
前記処理されるべきブロックの前記サブブロックの前記動きベクトルを取得するために、第2の時間距離差分に対する第1の時間距離差分の比に基づいて、前記あらかじめ設定されたイントラブロック位置に対応する前記動きベクトルに対してスケーリング処理を実行するように構成され、前記第1の時間距離差分が、前記処理されるべきブロックが位置する前記画像フレームと前記処理されるべきブロックの参照フレームとの間のピクチャ順序カウント差分であり、前記第2の時間距離差分が、前記同一位置のサブブロックが位置する前記画像フレームと前記同一位置のサブブロックの参照フレームとの間のピクチャ順序カウント差分である、請求項44から50のいずれか一項に記載の装置。 - 前記処理されるべきブロックの前記参照フレームリストの中の前記処理されるべきブロックの前記参照フレームのインデックスが、前記ビットストリームを解析することによって取得される、請求項51に記載の装置。
- 前記処理されるべきブロックの前記参照フレームリストの中の前記処理されるべきブロックの前記参照フレームの前記インデックスが0である、請求項51または52に記載の装置。
- 前記処理されるべきブロックの前記サブブロックの予測値を取得するために、前記処理されるべきブロックの前記サブブロックの前記動きベクトルおよび前記処理されるべきブロックの前記参照フレームに基づいて、前記処理されるべきブロックの前記サブブロックに対する動き補償を実行するように構成される、動き補償モジュールをさらに備える、請求項28から53のいずれか一項に記載の装置。
- ビデオエンコーダであって、前記ビデオエンコーダがピクチャブロックを符号化するように構成され、
請求項28から54のいずれか一項に記載のインター予測装置であって、目標動き情報候補に基づいて現在の符号化ピクチャブロックの動き情報を予測し、前記現在の符号化ピクチャブロックの前記動き情報に基づいて前記現在の符号化ピクチャブロックの予測されるピクセル値を決定するように構成される、インター予測装置と、
前記目標動き情報候補のインデックス識別子をビットストリームへと符号化するように構成される、エントロピー符号化モジュールであって、前記インデックス識別子が前記現在の符号化ピクチャブロックのために使用される前記目標動き情報候補を示す、エントロピー符号化モジュールと、
前記予測されるピクセル値に基づいて前記現在の符号化ピクチャブロックを再構築するように構成される、再構築モジュールとを備える、ビデオエンコーダ。 - ビデオデコーダであって、前記ビデオデコーダがビットストリームからピクチャブロックを復号するように構成され、
前記ビットストリームからインデックス識別子を復号するように構成される、エントロピー復号モジュールであって、前記インデックス識別子が、現在の復号ピクチャブロックの目標動き情報候補を示すために使用される、エントロピー復号モジュールと、
請求項28から54のいずれか一項に記載のインター予測装置であって、前記インデックス識別子によって示される前記目標動き情報候補に基づいて前記現在の復号ピクチャブロックの動き情報を予測し、前記現在の復号ピクチャブロックの前記動き情報に基づいて前記現在の復号ピクチャブロックの予測されるピクセル値を決定するように構成される、インター予測装置と、
前記予測されるピクセル値に基づいて前記現在の復号ピクチャブロックを再構築するように構成される、再構築モジュールとを備える、ビデオデコーダ。 - 互いに結合される不揮発性メモリおよびプロセッサを備えるビデオコーディングデバイスであって、前記プロセッサが、請求項1から27のいずれか一項に記載の方法を実行するために、前記メモリに記憶されているプログラムコードを呼び出す、ビデオコーディングデバイス。
- インター予測方法であって、処理されるべきブロックが1つまたは複数のサブブロックを備え、
前記処理されるべきブロックの空間隣接ブロックを取得するステップと、
前記空間隣接ブロックに基づいて時間オフセットベクトルを取得するステップであって、前記時間オフセットベクトルが、前記処理されるべきブロックの前記サブブロックの同一位置のサブブロックを決定するために使用される、ステップとを備え、
前記空間隣接ブロックが第1の参照フレームリストに位置する第1の方向参照フレームを有し、前記同一位置のサブブロックが位置する画像フレームが前記第1の方向参照フレームと同じであるとき、前記時間オフセットベクトルが前記空間隣接ブロックの第1の方向動きベクトルであり、前記第1の方向動きベクトルが前記第1の方向参照フレームに対応する、インター予測方法。 - 前記空間隣接ブロックが前記第1の参照フレームリストに位置する前記第1の方向参照フレームを有しないとき、または前記同一位置のサブブロックが位置する前記画像フレームが前記第1の方向参照フレームと異なるとき、前記方法がさらに、
前記空間隣接ブロックが第2の参照フレームリストに位置する第2の方向参照フレームを有し、前記同一位置のサブブロックが位置する前記画像フレームが前記第2の方向参照フレームと同じであるとき、前記時間オフセットベクトルが前記空間隣接ブロックの第2の方向動きベクトルであり、前記第2の方向動きベクトルが前記第2の方向参照フレームに対応することを備える、請求項58に記載の方法。 - 前記処理されるべきブロックの空間隣接ブロックを取得する前記ステップが、
前記空間隣接ブロックが利用可能であるかどうかを確認するステップと、
前記空間隣接ブロックが利用可能であるとき、前記空間隣接ブロックを取得するステップとを備える、請求項58または59に記載の方法。 - 前記同一位置のサブブロックが位置する前記画像フレームが前記第1の方向参照フレームと同じであることが、
前記同一位置のサブブロックが位置する前記画像フレームのPOCが前記第1の方向参照フレームのPOCと同じであることを備える、請求項58から60のいずれか一項に記載の方法。 - 前記同一位置のサブブロックが位置する前記画像フレームが前記第2の方向参照フレームと同じであることが、
前記同一位置のサブブロックが位置する前記画像フレームのPOCが前記第2の方向参照フレームのPOCと同じであることを備える、請求項59から61のいずれか一項に記載の方法。 - 前記同一位置のサブブロックが位置する前記画像フレームのインデックス情報を取得するためにビットストリームを解析するステップをさらに備える、請求項58から62のいずれか一項に記載の方法。
- 前記同一位置のサブブロックが位置する前記画像フレームとして、前記処理されるべきブロックとのあらかじめ設定された関係を有する画像フレームを使用するステップをさらに備える、請求項58から62のいずれか一項に記載の方法。
- 前記あらかじめ設定された関係が、
前記同一位置のサブブロックが位置する前記画像フレームが、前記処理されるべきブロックが位置する画像フレームに復号順序において隣接し、前記処理されるべきブロックが位置する前記画像フレームより早く復号されることを備える、請求項64に記載の方法。 - 前記あらかじめ設定された関係が、
前記同一位置のサブブロックが位置する前記画像フレームが、前記処理されるべきブロックの第1の方向参照フレームリストまたは第2の方向参照フレームリストにおいて、その参照フレームインデックスが0である参照フレームであることを備える、請求項64に記載の方法。 - 前記空間隣接ブロックが前記第2の参照フレームリストに位置する前記第2の方向参照フレームを有しないとき、または前記同一位置のサブブロックが位置する前記画像フレームが前記2の方向参照フレームと異なるとき、前記方法がさらに、
ゼロ動きベクトルを前記時間オフセットベクトルとして使用するステップを備える、請求項58から66のいずれか一項に記載の方法。 - 互いに結合される不揮発性メモリおよびプロセッサを備えるビデオコーディングデバイスであって、前記プロセッサが、請求項58から67のいずれか一項に記載の方法を実行するために、前記メモリに記憶されているプログラムコードを呼び出す、ビデオコーディングデバイス。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023117744A JP7547574B2 (ja) | 2019-05-17 | 2023-07-19 | インター予測方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910414914.5 | 2019-05-17 | ||
CN201910414914.5A CN111953995A (zh) | 2019-05-17 | 2019-05-17 | 一种帧间预测的方法和装置 |
PCT/CN2019/100751 WO2020232845A1 (zh) | 2019-05-17 | 2019-08-15 | 一种帧间预测的方法和装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117744A Division JP7547574B2 (ja) | 2019-05-17 | 2023-07-19 | インター予測方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022532670A true JP2022532670A (ja) | 2022-07-15 |
JP7318007B2 JP7318007B2 (ja) | 2023-07-31 |
Family
ID=73336807
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021568601A Active JP7318007B2 (ja) | 2019-05-17 | 2019-08-15 | インター予測方法および装置 |
JP2023117744A Active JP7547574B2 (ja) | 2019-05-17 | 2023-07-19 | インター予測方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117744A Active JP7547574B2 (ja) | 2019-05-17 | 2023-07-19 | インター予測方法および装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US12108046B2 (ja) |
EP (1) | EP3955576B1 (ja) |
JP (2) | JP7318007B2 (ja) |
KR (1) | KR20220003037A (ja) |
CN (2) | CN111953995A (ja) |
BR (1) | BR112021023118A2 (ja) |
MX (1) | MX2021013316A (ja) |
WO (1) | WO2020232845A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102221581B1 (ko) * | 2019-06-27 | 2021-03-02 | 삼성전자주식회사 | 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치 |
CN113794889B (zh) * | 2021-03-19 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 解码方法、编码方法、装置、设备及机器可读存储介质 |
US20230059035A1 (en) * | 2021-08-23 | 2023-02-23 | Netflix, Inc. | Efficient encoding of film grain noise |
US20230336737A1 (en) * | 2022-04-18 | 2023-10-19 | Tencent America LLC | Sub-block based temporal motion vector predictor with an motion vector offset |
WO2024005456A1 (ko) * | 2022-06-27 | 2024-01-04 | 현대자동차주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
WO2024151335A1 (en) * | 2023-01-09 | 2024-07-18 | Tencent America LLC | Subblock based motion vector predictor with mv offset in amvp mode |
US20240267525A1 (en) * | 2023-02-02 | 2024-08-08 | Tencent America LLC | Smooth Sub-Block Motion Vector Prediction |
CN118337962B (zh) * | 2024-06-12 | 2024-09-03 | 湖南中泓汇智智能科技有限公司 | 一种用于超视距远程驾驶平台的5g网络数据传输方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160219278A1 (en) * | 2015-01-26 | 2016-07-28 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
WO2019089933A1 (en) * | 2017-11-01 | 2019-05-09 | Vid Scale, Inc. | Sub-block motion derivation and decoder-side motion vector refinement for merge mode |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201113527D0 (en) * | 2011-08-04 | 2011-09-21 | Imagination Tech Ltd | External vectors in a motion estimation system |
US20160337662A1 (en) | 2015-05-11 | 2016-11-17 | Qualcomm Incorporated | Storage and signaling resolutions of motion vectors |
CA3013317A1 (en) * | 2016-02-08 | 2017-08-17 | Sharp Kabushiki Kaisha | Systems and methods for transform coefficient coding |
CN116567213A (zh) * | 2016-08-11 | 2023-08-08 | Lx 半导体科技有限公司 | 编码/解码设备以及发送图像数据的设备 |
CN109587479B (zh) | 2017-09-29 | 2023-11-10 | 华为技术有限公司 | 视频图像的帧间预测方法、装置及编解码器 |
-
2019
- 2019-05-17 CN CN201910414914.5A patent/CN111953995A/zh active Pending
- 2019-08-15 EP EP19929484.4A patent/EP3955576B1/en active Active
- 2019-08-15 KR KR1020217038708A patent/KR20220003037A/ko not_active Application Discontinuation
- 2019-08-15 JP JP2021568601A patent/JP7318007B2/ja active Active
- 2019-08-15 BR BR112021023118A patent/BR112021023118A2/pt unknown
- 2019-08-15 CN CN201980015456.6A patent/CN112243586A/zh active Pending
- 2019-08-15 WO PCT/CN2019/100751 patent/WO2020232845A1/zh unknown
- 2019-08-15 MX MX2021013316A patent/MX2021013316A/es unknown
-
2021
- 2021-11-17 US US17/529,106 patent/US12108046B2/en active Active
-
2023
- 2023-07-19 JP JP2023117744A patent/JP7547574B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160219278A1 (en) * | 2015-01-26 | 2016-07-28 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
JP2018506908A (ja) * | 2015-01-26 | 2018-03-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | サブ予測ユニットベース高度時間動きベクトル予測 |
WO2019089933A1 (en) * | 2017-11-01 | 2019-05-09 | Vid Scale, Inc. | Sub-block motion derivation and decoder-side motion vector refinement for merge mode |
JP2021502038A (ja) * | 2017-11-01 | 2021-01-21 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
Non-Patent Citations (2)
Title |
---|
LI ZHANG, ET.AL.: "CE2-related: Early awareness of accessing temporal blocks in sub-block merge list construction", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 13TH MEETING: MARR, vol. JVET-M0273, JPN6023005538, 3 January 2019 (2019-01-03), ISSN: 0004987314 * |
大久保 榮、他: "5.5■ H.264/AVCにおけるBピクチャ", 改訂三版H.264/AVC教科書 第1版 H.264/AVC TEXTBOOK, JPN6023005537, 1 January 2009 (2009-01-01), ISSN: 0004987315 * |
Also Published As
Publication number | Publication date |
---|---|
CN111953995A (zh) | 2020-11-17 |
JP7318007B2 (ja) | 2023-07-31 |
WO2020232845A1 (zh) | 2020-11-26 |
EP3955576A4 (en) | 2022-07-27 |
JP7547574B2 (ja) | 2024-09-09 |
US20220078441A1 (en) | 2022-03-10 |
MX2021013316A (es) | 2021-12-10 |
BR112021023118A2 (pt) | 2022-01-04 |
CN112243586A (zh) | 2021-01-19 |
EP3955576A1 (en) | 2022-02-16 |
US12108046B2 (en) | 2024-10-01 |
EP3955576B1 (en) | 2024-11-06 |
KR20220003037A (ko) | 2022-01-07 |
JP2023156315A (ja) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7485839B2 (ja) | ビデオピクチャ予測方法及び装置 | |
JP7547574B2 (ja) | インター予測方法および装置 | |
KR102621958B1 (ko) | 후보 모션 벡터 리스트 획득 방법, 장치, 인코더 및 디코더 | |
JP7314274B2 (ja) | ビデオピクチャの復号および符号化の方法ならびに装置 | |
JP7410191B2 (ja) | ビデオエンコーダ、ビデオデコーダ、及び対応する方法 | |
CN111866502B (zh) | 图像预测方法、装置和计算机可读存储介质 | |
US12010293B2 (en) | Picture prediction method and apparatus, and computer-readable storage medium | |
JP2022515555A (ja) | インター予測の方法および装置、並びに対応するエンコーダおよびデコーダ | |
CN112088534B (zh) | 一种帧间预测的方法、装置、设备及存储介质 | |
CN112153389B (zh) | 一种帧间预测的方法和装置 | |
CN112135137B (zh) | 视频编码器、视频解码器及相应方法 | |
CN111432219B (zh) | 一种帧间预测方法及装置 | |
CN114270847A (zh) | 融合候选运动信息列表的构建方法、装置及编解码器 | |
CN111726617A (zh) | 用于融合运动矢量差技术的优化方法、装置及编解码器 | |
RU2819065C2 (ru) | Видеокодер, видеодекодер и соответствующий способ | |
CN111726630A (zh) | 基于三角预测单元模式的处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7318007 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |