JP6690061B2 - 動き補償予測方法およびデバイス - Google Patents
動き補償予測方法およびデバイス Download PDFInfo
- Publication number
- JP6690061B2 JP6690061B2 JP2019531518A JP2019531518A JP6690061B2 JP 6690061 B2 JP6690061 B2 JP 6690061B2 JP 2019531518 A JP2019531518 A JP 2019531518A JP 2019531518 A JP2019531518 A JP 2019531518A JP 6690061 B2 JP6690061 B2 JP 6690061B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- polyhedron
- reference pixel
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 203
- 230000008569 process Effects 0.000 claims description 59
- 238000003860 storage Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000001914 filtration Methods 0.000 description 9
- 238000005070 sampling Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000002457 bidirectional effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
Description
図8において、図8(a)は現在画像であり、図8(b)は参照画像である。Pは現在画像内の現在ピクセルであり、Pは現在画像のBottom面に位置する。P’は参照画像内のPと同じ位置にあるピクセルであり、P’は参照画像のBottom面に位置する。T1、T2、およびT3は現在ピクセルのすべての初期参照ピクセルであり、すべて参照画像のBottom面の外側に位置する。
図11に示されたように、参照画像に対応する多面体は、2つの面ACBおよびDBCを含む(多面体は、本明細書に列挙されていない別の面をさらに含んでもよい)。面ACBは、参照画像内の現在ピクセルと同じ位置にあるピクセルが位置する面である。ここでは、Oは多面体の中心であり、O’は面ABC上のOの直立投影である。Tの位置は初期参照ピクセルの位置であり、O’Tは点Sで辺BCと交差し、OTは点Hで面BCDと交差し、H’’はO’K上のHの直立投影であり、LはO’K上のH’’の直立投影であり、IはBC上のTの直立投影である。
ターゲット参照ピクセルのピクセル値およびターゲット参照ピクセルの近くのピクセルのピクセル値に対して重み付け処理を実行するステップと、重み付け処理を介して取得された、ターゲット参照ピクセルの位置におけるピクセル値を現在ピクセルのピクセル値の予測値として決定するステップと
を含む。
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するように構成された第1の決定ユニット410であって、現在ピクセルが現在画像の第1のサブ画像内に位置する、第1の決定ユニット410と、
初期参照ピクセルが、参照画像内にあり、かつ第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、初期参照ピクセルの位置に基づいて参照画像内の現在ピクセルのターゲット参照ピクセルの位置を決定するように構成された第2の決定ユニット420であって、参照画像に対応する多面体の表面上のターゲット参照ピクセルの位置と、第1の平面上の初期参照ピクセルの位置との間の接続線が、多面体の中心点を通り、多面体の表面上のターゲット参照ピクセルの位置が、初期参照ピクセルの位置および参照画像に対応する多面体のレイアウト情報に基づいて決定され、第1の平面が、第2のサブ画像に対応する多面体の面が位置する平面である、第2の決定ユニット420と、
ターゲット参照ピクセルのピクセル値および/またはターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、現在ピクセルのピクセル値の予測値を決定するように構成された予測ユニット430と
を含む。
参照画像のレイアウト情報および初期参照ピクセルの位置に基づいて、初期参照ピクセルが参照画像内の第2のサブ画像の外側に位置するかどうかを判定するように構成された判定ユニット440
をさらに含む。
初期参照ピクセルの位置および参照画像のレイアウト情報に基づいて多面体の表面上のターゲット参照ピクセルの位置を決定することであって、多面体の表面上のターゲット参照ピクセルの位置が、多面体の表面と、初期参照ピクセルと多面体の中心点との間の接続線との交点にある、決定することと、
多面体の表面上のターゲット参照ピクセルの位置および参照画像のレイアウト情報に基づいて参照画像内のターゲット参照ピクセルの位置を決定することと
を行うように構成される。
初期参照ピクセルの位置および参照画像のレイアウト情報に基づいて第1の平面上の初期参照ピクセルの位置を決定することと、
第1の平面上の初期参照ピクセルの位置および参照画像のレイアウト情報に基づいて多面体の表面上のターゲット参照ピクセルの位置を決定することと
を行うように構成される。
ターゲット参照ピクセルのピクセル値を現在ピクセルのピクセル値の予測値として決定する
ように構成される。
ターゲット参照ピクセルのピクセル値およびターゲット参照ピクセルの近くのピクセルのピクセル値に対して重み付け処理を実行することと、
重み付け処理を介して取得された、ターゲット参照ピクセルの位置におけるピクセル値を現在ピクセルのピクセル値の予測値として決定することと
を行うように構成される。
ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、ターゲット参照ピクセルの位置において補間演算を実行することと、
補間演算を介して取得されたピクセル値を現在ピクセルのピクセル値の予測値として決定することと
を行うように構成される。
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するように構成された第1の決定ユニット510であって、現在ピクセルが現在画像の第1のサブ画像内に位置する、第1の決定ユニット510と、
初期参照ピクセルが、参照画像内にあり、かつ第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、第2のサブ画像の拡張領域内の現在ピクセルのターゲット参照ピクセルの位置を決定するように構成された第2の決定ユニット520であって、
第2のサブ画像の拡張領域が第2のサブ画像の外側に位置し、拡張領域が複数のピクセルを含み、拡張領域内の任意の第1のピクセルのピクセル値が、参照画像内の第2のピクセルのピクセル値に基づいて決定され、参照画像によって形成された多面体の表面上の第2のピクセルの位置と、第1の平面上の第1のピクセルの位置との間の接続線が、多面体の中心点を通り、多面体の表面上の第2のピクセルの位置が、第1のピクセルの位置および参照画像に対応する多面体のレイアウト情報に基づいて決定され、第1の平面が、第2のサブ画像に対応する多面体の面が位置する平面である、
第2の決定ユニット520と、
ターゲット参照ピクセルのピクセル値および/またはターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、現在ピクセルのピクセル値の予測値を決定するように構成された予測ユニット530と
を含む。
第3の決定ユニット540をさらに含み、第3の決定ユニット540は、具体的に、
第1のピクセルの位置および参照画像のレイアウト情報に基づいて多面体の表面上の第2のピクセルの位置を決定することであって、多面体の表面上の第2のピクセルの位置が、多面体の表面と、第1のピクセルと多面体の中心点との間の接続線との交点にある、決定することと、
多面体の表面上の第2のピクセルの位置および参照画像のレイアウト情報に基づいて参照画像内の第2のピクセルの位置を決定することと
を行うように構成される。
参照画像のレイアウト情報および初期参照ピクセルの位置に基づいて、初期参照ピクセルが参照画像内の第2のサブ画像の外側に位置するかどうかを判定するように構成された判定ユニット550
をさらに含む。
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するように構成された第1の決定ユニット610であって、現在ピクセルが現在画像の第1のサブ画像内に位置する、第1の決定ユニット610と、
初期参照ピクセルが、参照画像内にあり、かつ第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、初期参照ピクセルの位置に基づいて、参照画像に対応する多面体の表面上の現在ピクセルのターゲット参照ピクセルの位置を決定するように構成された第2の決定ユニット620であって、多面体の表面上のターゲット参照ピクセルの位置と、第1の平面上の初期参照ピクセルの位置との間の接続線が、多面体の中心点を通り、第1の平面が、第2のサブ画像に対応する多面体の面が位置する平面である、第2の決定ユニット620と、
多面体の表面上のターゲット参照ピクセルの位置に基づいて、参照画像内のターゲット参照ピクセルの位置を決定するように構成された第3の決定ユニット630と、
参照画像内のターゲット参照ピクセルのピクセル値および/またはターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、現在ピクセルのピクセル値の予測値を決定するように構成された予測ユニット640と
を含む。
初期参照ピクセルの位置および参照画像のレイアウト情報に基づいて第1の平面上の初期参照ピクセルの位置を決定することと、
第1の平面上の初期参照ピクセルの位置および参照画像のレイアウト情報に基づいて多面体の表面上のターゲット参照ピクセルの位置を決定することと
を行うように構成される。
初期参照ピクセルの位置および参照画像のレイアウト情報に基づいて参照画像内のターゲット参照ピクセルの位置を決定することであって、多面体の表面上のターゲット参照ピクセルの位置が、多面体の表面と、初期参照ピクセルと多面体の中心点との間の接続線との交点にある、決定すること
を行うように構成される。
410 第1の決定ユニット
420 第2の決定ユニット
430 予測ユニット
440 判定ユニット
500 動き補償予測装置
510 第1の決定ユニット
520 第2の決定ユニット
530 予測ユニット
540 第3の決定ユニット
550 判定ユニット
600 動き補償予測装置
610 第1の決定ユニット
620 第2の決定ユニット
630 第3の決定ユニット
640 予測ユニット
900 画像エンコーダ
910 予測モジュール
920 変換および量子化モジュール
930 エントロピー符号化モジュール
940 復元モジュール
950 フィルタリングモジュール
Claims (28)
- 動き補償予測方法であって、
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するステップであって、前記現在ピクセルが現在画像の第1のサブ画像内に位置する、ステップと、
前記初期参照ピクセルが、前記参照画像内にあり、かつ前記第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、前記初期参照ピクセルの前記位置に基づいて前記参照画像内の前記現在ピクセルのターゲット参照ピクセルの位置を決定するステップであって、前記参照画像に対応する多面体の表面上の前記ターゲット参照ピクセルの位置と、第1の平面上の前記初期参照ピクセルの位置との間の接続線が、前記多面体の中心点を通り、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置が、前記初期参照ピクセルの前記位置および前記参照画像に対応する前記多面体のレイアウト情報に基づいて決定され、前記第1の平面が、前記第2のサブ画像に対応する前記多面体の面が位置する平面である、ステップと、
前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定するステップと
を有する方法。 - 前記参照画像のレイアウト情報および前記初期参照ピクセルの前記位置に基づいて、前記初期参照ピクセルが前記参照画像内の前記第2のサブ画像の外側に位置するかどうかを判定するステップ
をさらに有する、請求項1に記載の方法。 - 前記初期参照ピクセルの前記位置に基づいて前記参照画像内の前記現在ピクセルのターゲット参照ピクセルの位置を決定する前記ステップが、
前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置を決定するステップであって、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置が、前記多面体の前記表面と、前記初期参照ピクセルと前記多面体の前記中心点との間の接続線との交点にある、ステップと、
前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記参照画像内の前記ターゲット参照ピクセルの前記位置を決定するステップと
を含む、請求項1または2に記載の方法。 - 前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置を決定する前記ステップが、
前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記第1の平面上の前記初期参照ピクセルの前記位置を決定するステップと、
前記第1の平面上の前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置を決定するステップと
を含む、請求項3に記載の方法。 - 前記レイアウト情報が、前記多面体の面数情報、前記参照画像のサブ画像配置方式情報、前記参照画像のサブ画像配置順序情報、および前記参照画像のサブ画像回転情報のうちの少なくとも1つを含む、請求項1から4のいずれか一項に記載の方法。
- 前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定する前記ステップが、
前記ターゲット参照ピクセルの前記ピクセル値を前記現在ピクセルの前記ピクセル値の前記予測値として決定するステップ
を含む、請求項1から5のいずれか一項に記載の方法。 - 前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定する前記ステップが、
前記ターゲット参照ピクセルの前記ピクセル値および前記ターゲット参照ピクセルの近くの前記ピクセルの前記ピクセル値に対して重み付け処理を実行するステップと、
前記重み付け処理を介して取得された、前記ターゲット参照ピクセルの前記位置におけるピクセル値を前記現在ピクセルの前記ピクセル値の前記予測値として決定するステップと
を含む、請求項1から5のいずれか一項に記載の方法。 - 前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定する前記ステップが、
前記ターゲット参照ピクセルの近くの前記ピクセルの前記ピクセル値に基づいて前記ターゲット参照ピクセルの前記位置において補間処理を実行するステップと、
前記補間処理を介して取得されたピクセル値を前記現在ピクセルの前記ピクセル値の前記予測値として決定するステップと
を含む、請求項1から5のいずれか一項に記載の方法。 - 動き補償予測方法であって、
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するステップであって、前記現在ピクセルが現在画像の第1のサブ画像内に位置する、ステップと、
前記初期参照ピクセルが、前記参照画像内にあり、かつ前記第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、前記第2のサブ画像の拡張領域内の前記現在ピクセルのターゲット参照ピクセルの位置を決定するステップであって、前記第2のサブ画像の前記拡張領域が前記第2のサブ画像の外側に位置し、前記拡張領域が複数のピクセルを含み、前記拡張領域内の任意の第1のピクセルのピクセル値が、前記参照画像内の第2のピクセルのピクセル値に基づいて決定され、前記参照画像によって形成された多面体の表面上の前記第2のピクセルの位置と、第1の平面上の前記第1のピクセルの位置との間の接続線が、前記多面体の中心点を通り、前記多面体の前記表面上の前記第2のピクセルの前記位置が、前記第1のピクセルの前記位置および前記参照画像に対応する前記多面体のレイアウト情報に基づいて決定され、前記第1の平面が、前記第2のサブ画像に対応する前記多面体の面が位置する平面である、ステップと、
前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定するステップと
を有する方法。 - 前記第1のピクセルの前記位置および前記参照画像のレイアウト情報に基づいて前記多面体の前記表面上の前記第2のピクセルの前記位置を決定するステップであって、前記多面体の前記表面上の前記第2のピクセルの前記位置が、前記多面体の前記表面と、前記第1のピクセルと前記多面体の前記中心点との間の接続線との交点にある、ステップと、
前記多面体の前記表面上の前記第2のピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記参照画像内の前記第2のピクセルの位置を決定するステップと
をさらに有する、請求項9に記載の方法。 - 前記参照画像の前記レイアウト情報および前記初期参照ピクセルの前記位置に基づいて、前記初期参照ピクセルが前記参照画像内の前記第2のサブ画像の外側に位置するかどうかを判定するステップ
をさらに有する、請求項9または10に記載の方法。 - 動き補償予測方法であって、
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するステップであって、前記現在ピクセルが現在画像の第1のサブ画像内に位置する、ステップと、
前記初期参照ピクセルが、前記参照画像内にあり、かつ前記第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、前記初期参照ピクセルの前記位置に基づいて、前記参照画像に対応する多面体の表面上の前記現在ピクセルのターゲット参照ピクセルの位置を決定するステップであって、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置と、第1の平面上の前記初期参照ピクセルの位置との間の接続線が、前記多面体の中心点を通り、前記第1の平面が、前記第2のサブ画像に対応する前記多面体の面が位置する平面である、ステップと、
前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置に基づいて、前記参照画像内の前記ターゲット参照ピクセルの位置を決定するステップと、
前記参照画像内の前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定するステップと
を有する方法。 - 前記初期参照ピクセルの前記位置に基づいて、前記参照画像に対応する多面体の表面上の前記現在ピクセルのターゲット参照ピクセルの位置を決定する前記ステップが、
前記初期参照ピクセルの前記位置および前記参照画像のレイアウト情報に基づいて前記第1の平面上の前記初期参照ピクセルの前記位置を決定するステップと、
前記第1の平面上の前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置を決定するステップと
を含む、請求項12に記載の方法。 - 前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置に基づいて、前記参照画像内の前記ターゲット参照ピクセルの位置を決定する前記ステップが、
前記初期参照ピクセルの前記位置および前記参照画像のレイアウト情報に基づいて前記参照画像内の前記ターゲット参照ピクセルの前記位置を決定するステップであって、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置が、前記多面体の前記表面と、前記初期参照ピクセルと前記多面体の前記中心点との間の接続線との交点にある、ステップ
を含む、請求項12または13に記載の方法。 - 動き補償予測装置であって、
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するように構成された第1の決定ユニットであって、前記現在ピクセルが現在画像の第1のサブ画像内に位置する、第1の決定ユニットと、
前記初期参照ピクセルが、前記参照画像内にあり、かつ前記第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、前記初期参照ピクセルの前記位置に基づいて前記参照画像内の前記現在ピクセルのターゲット参照ピクセルの位置を決定するように構成された第2の決定ユニットであって、前記参照画像に対応する多面体の表面上の前記ターゲット参照ピクセルの位置と、第1の平面上の前記初期参照ピクセルの位置との間の接続線が、前記多面体の中心点を通り、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置が、前記初期参照ピクセルの前記位置および前記参照画像に対応する前記多面体のレイアウト情報に基づいて決定され、前記第1の平面が、前記第2のサブ画像に対応する前記多面体の面が位置する平面である、第2の決定ユニットと、
前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定するように構成された予測ユニットと
を備える動き補償予測装置。 - 前記参照画像のレイアウト情報および前記初期参照ピクセルの前記位置に基づいて、前記初期参照ピクセルが前記参照画像内の前記第2のサブ画像の外側に位置するかどうかを判定するように構成された判定ユニット
をさらに備える、請求項15に記載の動き補償予測装置。 - 前記第2の決定ユニットが、具体的に、
前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置を決定することであって、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置が、前記多面体の前記表面と、前記初期参照ピクセルと前記多面体の前記中心点との間の接続線との交点にある、決定することと、
前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記参照画像内の前記ターゲット参照ピクセルの前記位置を決定することと
を行うように構成される、請求項15または16に記載の動き補償予測装置。 - 前記第2の決定ユニットが、具体的に、
前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記第1の平面上の前記初期参照ピクセルの前記位置を決定することと、
前記第1の平面上の前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置を決定することと
を行うように構成される、請求項17に記載の動き補償予測装置。 - 前記レイアウト情報が、前記多面体の面数情報、前記参照画像のサブ画像配置方式情報、前記参照画像のサブ画像配置順序情報、および前記参照画像のサブ画像回転情報のうちの少なくとも1つを含む、請求項15から18のいずれか一項に記載の動き補償予測装置。
- 前記予測ユニットが、具体的に、
前記ターゲット参照ピクセルの前記ピクセル値を前記現在ピクセルの前記ピクセル値の前記予測値として決定する
ように構成される、請求項15から19のいずれか一項に記載の動き補償予測装置。 - 前記予測ユニットが、具体的に、
前記ターゲット参照ピクセルの前記ピクセル値および前記ターゲット参照ピクセルの近くの前記ピクセルの前記ピクセル値に対して重み付け処理を実行することと、
前記重み付け処理を介して取得された、前記ターゲット参照ピクセルの前記位置におけるピクセル値を前記現在ピクセルの前記ピクセル値の前記予測値として決定することと
を行うように構成される、請求項15から19のいずれか一項に記載の動き補償予測装置。 - 前記予測ユニットが、具体的に、
前記ターゲット参照ピクセルの近くの前記ピクセルの前記ピクセル値に基づいて前記ターゲット参照ピクセルの前記位置において補間処理を実行することと、
前記補間処理を介して取得されたピクセル値を前記現在ピクセルの前記ピクセル値の前記予測値として決定することと
を行うように構成される、請求項15から19のいずれか一項に記載の動き補償予測装置。 - 動き補償予測装置であって、
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するように構成された第1の決定ユニットであって、前記現在ピクセルが現在画像の第1のサブ画像内に位置する、第1の決定ユニットと、
前記初期参照ピクセルが、前記参照画像内にあり、かつ前記第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、前記第2のサブ画像の拡張領域内の前記現在ピクセルのターゲット参照ピクセルの位置を決定するように構成された第2の決定ユニットであって、前記第2のサブ画像の前記拡張領域が前記第2のサブ画像の外側に位置し、前記拡張領域が複数のピクセルを含み、前記拡張領域内の任意の第1のピクセルのピクセル値が、前記参照画像内の第2のピクセルのピクセル値に基づいて決定され、前記参照画像によって形成された多面体の表面上の前記第2のピクセルの位置と、第1の平面上の前記第1のピクセルの位置との間の接続線が、前記多面体の中心点を通り、前記多面体の前記表面上の前記第2のピクセルの前記位置が、前記第1のピクセルの前記位置および前記参照画像に対応する前記多面体のレイアウト情報に基づいて決定され、前記第1の平面が、前記第2のサブ画像に対応する前記多面体の面が位置する平面である、第2の決定ユニットと、
前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定するように構成された予測ユニットと
を備える動き補償予測装置。 - 前記第1のピクセルの前記位置および前記参照画像のレイアウト情報に基づいて前記多面体の前記表面上の前記第2のピクセルの前記位置を決定するように構成された第3の決定ユニットであって、前記多面体の前記表面上の前記第2のピクセルの前記位置が、前記多面体の前記表面と、前記第1のピクセルと前記多面体の前記中心点との間の接続線との交点にある、第3の決定ユニット
をさらに備え、
前記第3の決定ユニットが、前記多面体の前記表面上の前記第2のピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記参照画像内の前記第2のピクセルの位置を決定するようにさらに構成される、請求項23に記載の動き補償予測装置。 - 前記参照画像の前記レイアウト情報および前記初期参照ピクセルの前記位置に基づいて、前記初期参照ピクセルが前記参照画像内の前記第2のサブ画像の外側に位置するかどうかを判定するように構成された判定ユニット
をさらに備える、請求項23または24に記載の動き補償予測装置。 - 動き補償予測装置であって、
参照画像内の現在ピクセルの初期参照ピクセルの位置を決定するように構成された第1の決定ユニットであって、前記現在ピクセルが現在画像の第1のサブ画像内に位置する、第1の決定ユニットと、
前記初期参照ピクセルが、前記参照画像内にあり、かつ前記第1のサブ画像に対応する位置にある第2のサブ画像の外側に位置するとき、前記初期参照ピクセルの前記位置に基づいて、前記参照画像に対応する多面体の表面上の前記現在ピクセルのターゲット参照ピクセルの位置を決定するように構成された第2の決定ユニットであって、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置と、第1の平面上の前記初期参照ピクセルの位置との間の接続線が、前記多面体の中心点を通り、前記第1の平面が、前記第2のサブ画像に対応する前記多面体の面が位置する平面である、第2の決定ユニットと、
前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置に基づいて、前記参照画像内の前記ターゲット参照ピクセルの位置を決定するように構成された第3の決定ユニットと、
前記参照画像内の前記ターゲット参照ピクセルのピクセル値および/または前記ターゲット参照ピクセルの近くのピクセルのピクセル値に基づいて、前記現在ピクセルのピクセル値の予測値を決定するように構成された予測ユニットと
を備える動き補償予測装置。 - 前記第2の決定ユニットが、具体的に、
前記初期参照ピクセルの前記位置および前記参照画像のレイアウト情報に基づいて前記第1の平面上の前記初期参照ピクセルの前記位置を決定することと、
前記第1の平面上の前記初期参照ピクセルの前記位置および前記参照画像の前記レイアウト情報に基づいて前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置を決定することと
を行うように構成される、請求項26に記載の動き補償予測装置。 - 前記第3の決定ユニットが、具体的に、
前記初期参照ピクセルの前記位置および前記参照画像のレイアウト情報に基づいて前記参照画像内の前記ターゲット参照ピクセルの前記位置を決定することであって、前記多面体の前記表面上の前記ターゲット参照ピクセルの前記位置が、前記多面体の前記表面と、前記初期参照ピクセルと前記多面体の前記中心点との間の接続線との交点にある、決定すること
を行うように構成される、請求項26または27に記載の動き補償予測装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610783101.X | 2016-08-30 | ||
CN201610783101 | 2016-08-30 | ||
CN201610896027.2 | 2016-10-13 | ||
CN201610896027.2A CN107801039B (zh) | 2016-08-30 | 2016-10-13 | 运动补偿预测方法和装置 |
PCT/CN2017/098894 WO2018041005A1 (zh) | 2016-08-30 | 2017-08-24 | 运动补偿预测方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019531674A JP2019531674A (ja) | 2019-10-31 |
JP6690061B2 true JP6690061B2 (ja) | 2020-04-28 |
Family
ID=61529599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019531518A Active JP6690061B2 (ja) | 2016-08-30 | 2017-08-24 | 動き補償予測方法およびデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US11128874B2 (ja) |
EP (1) | EP3499894A4 (ja) |
JP (1) | JP6690061B2 (ja) |
KR (1) | KR102210609B1 (ja) |
CN (1) | CN107801039B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10715832B2 (en) | 2018-03-16 | 2020-07-14 | Mediatek Inc. | Method and apparatus of block partition for VR360 video coding |
EP3997868A4 (en) * | 2019-08-10 | 2023-02-22 | Beijing Bytedance Network Technology Co., Ltd. | BUFFER MANAGEMENT DURING SUBPICTURE DECODING |
CN114556952A (zh) | 2019-10-02 | 2022-05-27 | 北京字节跳动网络技术有限公司 | 包括子图片的视频比特流中的条带级信令通知 |
CN114631317B (zh) | 2019-10-18 | 2024-03-15 | 北京字节跳动网络技术有限公司 | 子图片的参数集信令中的语法约束 |
KR102453996B1 (ko) | 2019-12-11 | 2022-10-17 | 고려대학교 산학협력단 | Escrt1의 형성이 감소 또는 억제된 수지상세포 및 이의 용도 |
US11356698B2 (en) * | 2019-12-30 | 2022-06-07 | Tencent America LLC | Method for parameter set reference constraints in coded video stream |
DE102021117397A1 (de) * | 2020-07-16 | 2022-01-20 | Samsung Electronics Co., Ltd. | Bildsensormodul, bildverarbeitungssystem und bildkomprimierverfahren |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005159824A (ja) * | 2003-11-27 | 2005-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびそれらの記録媒体 |
KR100732958B1 (ko) * | 2004-08-13 | 2007-06-27 | 경희대학교 산학협력단 | 20면체 파노라마 영상의 부호화 및 복호화를 위한 방법 및장치 |
HUE063154T2 (hu) * | 2010-12-22 | 2023-12-28 | Lg Electronics Inc | Intra predikció video kódolásban |
JP2013046270A (ja) * | 2011-08-25 | 2013-03-04 | Olympus Corp | 画像貼り合せ装置、撮影装置、画像貼り合せ方法、および画像処理プログラム |
KR101607613B1 (ko) * | 2015-07-23 | 2016-03-30 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
CN105137705B (zh) * | 2015-08-14 | 2017-09-22 | 太微图影(北京)数码科技有限公司 | 一种虚拟球幕的创建方法和装置 |
CN105245838A (zh) * | 2015-09-29 | 2016-01-13 | 成都虚拟世界科技有限公司 | 一种全景视频播放方法及播放器 |
US10701396B2 (en) | 2015-11-23 | 2020-06-30 | Electronics And Telecommunications Research Institute | Multi-viewpoint video encoding/decoding method |
CN105898344A (zh) * | 2016-04-12 | 2016-08-24 | 乐视控股(北京)有限公司 | 一种全景视频的播放方法和装置 |
CN109417637B (zh) * | 2016-04-26 | 2021-12-07 | 英迪股份有限公司 | 用于编码/解码图像的方法和设备 |
CN109417632B (zh) * | 2016-07-08 | 2023-08-04 | Vid拓展公司 | 使用几何图形投影的360度视频编码 |
-
2016
- 2016-10-13 CN CN201610896027.2A patent/CN107801039B/zh active Active
-
2017
- 2017-08-24 KR KR1020197008671A patent/KR102210609B1/ko active IP Right Grant
- 2017-08-24 JP JP2019531518A patent/JP6690061B2/ja active Active
- 2017-08-24 EP EP17845307.2A patent/EP3499894A4/en active Pending
-
2019
- 2019-02-28 US US16/289,250 patent/US11128874B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107801039A (zh) | 2018-03-13 |
US20190268608A1 (en) | 2019-08-29 |
JP2019531674A (ja) | 2019-10-31 |
EP3499894A4 (en) | 2019-08-28 |
KR20190041005A (ko) | 2019-04-19 |
CN107801039B (zh) | 2020-04-14 |
US11128874B2 (en) | 2021-09-21 |
EP3499894A1 (en) | 2019-06-19 |
KR102210609B1 (ko) | 2021-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6690061B2 (ja) | 動き補償予測方法およびデバイス | |
US11863732B1 (en) | Image data encoding/decoding method and apparatus | |
US10779000B2 (en) | Motion-compensated prediction method and apparatus | |
US10986371B2 (en) | Sample adaptive offset filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection | |
CN114788264B (zh) | 用于发出虚拟边界和环绕运动补偿的信号的方法 | |
JP7201776B2 (ja) | 画像データ符号化/復号化方法及び装置 | |
US10911767B2 (en) | Motion compensating prediction method and apparatus | |
WO2020024173A1 (zh) | 图像处理方法和设备 | |
WO2019179489A1 (en) | Sample adaptive offset filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection | |
WO2018041005A1 (zh) | 运动补偿预测方法和设备 | |
WO2018059500A1 (zh) | 运动补偿预测方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190410 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190410 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6690061 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |