JP2015514341A - 3d−hevcに関する視差ベクトル構築方法 - Google Patents
3d−hevcに関する視差ベクトル構築方法 Download PDFInfo
- Publication number
- JP2015514341A JP2015514341A JP2015500622A JP2015500622A JP2015514341A JP 2015514341 A JP2015514341 A JP 2015514341A JP 2015500622 A JP2015500622 A JP 2015500622A JP 2015500622 A JP2015500622 A JP 2015500622A JP 2015514341 A JP2015514341 A JP 2015514341A
- Authority
- JP
- Japan
- Prior art keywords
- disparity
- vector
- view
- block
- current block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 940
- 238000010276 construction Methods 0.000 title description 7
- 230000033001 locomotion Effects 0.000 claims abstract description 510
- 230000002123 temporal effect Effects 0.000 claims abstract description 231
- 238000000034 method Methods 0.000 claims description 294
- 230000008569 process Effects 0.000 claims description 62
- 238000003860 storage Methods 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 36
- 230000001419 dependent effect Effects 0.000 description 25
- 238000013139 quantization Methods 0.000 description 21
- 230000006835 compression Effects 0.000 description 12
- 238000007906 compression Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 241000023320 Luma <angiosperm> Species 0.000 description 11
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 238000009795 derivation Methods 0.000 description 9
- 239000000523 sample Substances 0.000 description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 238000000638 solvent extraction Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000579297 Citrus mosaic sadwavirus Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
米国仮特許出願第61/610,961号(出願日:2012年3月14日)、
米国仮特許出願第61/623,041号(出願日:2012年4月11日)、
米国仮特許出願第61/658,754号(出願日:2012年6月12日)、及び
米国仮特許出願第61/682,221号(出願日:2012年8月11日)
の利益を主張するものであり、それらの各々の内容全体が、引用によってここに組み入れられている。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] マルチビュー映像データを復号する方法であって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号することと、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することであって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示すことと、を備える、方法。
[C2] マルチビュー映像データを符号化する方法であって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化することと、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することであって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示すことと、を備える、方法。
[C3] 前記1つ以上の近隣ブロックのうちの1つの前記動き情報は、動きベクトルを備え、
前記動きベクトルは前記1つ以上の基準ビューのうちの1つに属する基準ピクチャに対応する基準インデックスと関連付けられると決定したことに応答して、前記動きベクトルは視差動きベクトルであるとみなすことと、
前記視差ベクトルを導き出すために前記視差動きベクトルを利用することと、をさらに備えるC1又は2に記載の方法。
[C4] 前記視差ベクトルと関連付けられた基準ビューを決定することと、
前記基準ビューのインタービュー基準ピクチャ内の基準ブロックを識別することと、をさらに備えるC1又は2に記載の方法。
[C5] 前記視差ベクトルと関連付けられた基準ビューを決定することと、
前記視差ベクトルに基づいて視差動きベクトルを生成することであって、前記視差動きベクトルの前記基準インデックスは、前記基準ビューからの前記インタービュー基準ピクチャに対応することと、をさらに備えるC1又は2に記載の方法。
[C6] 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロックと関連付けられるC3に記載の方法。
[C7] 前記1つ以上の近隣ブロックは、1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記時間的近隣ブロックと関連付けられるC3に記載の方法。
[C8] 前記1つ以上の時間的近隣ブロックは、1つ以上の時間的基準ピクチャ内のブロックを備えるC7に記載の方法。
[C9] 前記1つ以上の時間的基準ピクチャは、HEVCにおいて時間的動きベクトルで使用される共配置されたピクチャを備えるC8に記載の方法。
[C10] 前記時間的近隣ブロックは、基準ピクチャ内のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記コーディングユニットは、前記現在のブロックの共配置されたブロックを備えるC7に記載の方法。
[C11] 前記時間的近隣ブロックは、基準ピクチャ内の最大のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記最大のコーディングユニットは、前記現在のブロックの共配置されたブロックを備えるC7に記載の方法。
[C12] 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロック及び1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロック及び前記時間的近隣ブロックのうちの1つと関連付けられるC3に記載の方法。
[C13] 前記1つ以上の空間的近隣ブロックは、二次元(2D)映像コーデック内の既存のコーディングツールによってアクセスされるべき空間的近隣ブロックを備えるC6に記載の方法。
[C14] 前記既存のコーディングツールは、HEVCにおいて定義されるAMVPプロセスを備えるC13に記載の方法。
[C15] 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたAMVPプロセス中に検査される順序に対応するC14に記載の方法。
[C16] 前記既存のコーディングツールは、HEVCにおいて定義されるマージプロセスを備えるC13に記載の方法。
[C17] 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたマージプロセス中に検査される順序に対応するC15に記載の方法。
[C18] 前記視差ベクトルは、暗黙の視差ベクトルを備えるC1に記載の方法。
[C19] 前記暗黙の視差ベクトルを決定することは、前記1つ以上の近隣ブロックのコーディング中に前記1つ以上の近隣ブロックに関して格納された1つ以上の視差ベクトルを識別することを備え、前記1つ以上の視差ベクトルは、前記近隣ブロックに関して使用されるインタービュー動きパラメータ予測中に前記1つ以上の近隣ブロックに関して決定されるC18に記載の方法。
[C20] 前記現在のブロックの前記視差ベクトルによって決定される前記基準ビュー内のインタービュー基準ピクチャの前記基準ブロックの情報を用いてインタービュー動き予測を行うことをさらに備えるC4に記載の方法。
[C21] インタービュー動き予測を行うことは、前記視差ベクトルに基づいて、マージモード及び高度動きベクトル予測(AMVP)モードのうちの1つにおける使用のために候補リストに関する候補を生成することを備えるC20に記載の方法。
[C22] 前記候補リストに関する前記候補を生成することは、視差動きベクトルを前記候補リストに加えることを備え、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、前記視差ベクトルと同じy成分を有するC21に記載の方法。
[C23] 前記候補リストに関する前記候補を生成することは、視差動きベクトルを前記候補リストに加えることを備え、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、ゼロに等しいy成分を有するC21に記載の方法。
[C24] 前記視差ベクトルを視差動きベクトルに変換することと、
前記視差動きベクトルをAMVP候補リスト及びマージ候補リストのうちの1つ内に挿入することと、をさらに備えるC1に記載の方法。
[C25] 前記現在のブロックに関する前記視差ベクトルを決定することは、1つ以上の候補視差ベクトルを決定することと、前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択することと、を備えるC1に記載の方法。
[C26] 前記1つ以上の候補視差ベクトルは、少なくとも1つの空間的視差ベクトルを備えるC25に記載の方法。
[C27] 前記1つ以上の候補視差ベクトルは、少なくとも1つの時間的視差ベクトルを備えるC25に記載の方法。
[C28] 前記1つ以上の候補視差ベクトルは、少なくとも1つの暗黙の視差ベクトルを備えるC25に記載の方法。
[C29] 前記現在のブロックに関するターゲットビューと異なるターゲットビューを指し示す候補を前記1つ以上の候補視差ベクトルから除外することをさらに備えるC25に記載の方法。
[C30] 前記1つ以上の候補視差ベクトルからの1つの視差ベクトルに関する視差ベクトルスケーリングを行うことをさらに備えるC25に記載の方法。
[C31] 前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして前記選択することは、前記候補視差ベクトルのうちの前記1つ以上の発生頻度に基づくC25に記載の方法。
[C32] 複数の近隣ブロックのうちの1つが利用可能な候補視差ベクトルを生成するかどうかを決定するために前記複数の近隣ブロックを評価することと、
前記利用可能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックを前記評価することを終了させることと、をさらに備え、
前記現在のブロックに関する前記視差ベクトルを決定することは、前記利用可能な候補視差ベクトルを前記視差ベクトルとして使用することを備えるC1又は2に記載の方法。
[C33] 前記複数の近隣ブロックのうちの前記近隣ブロックのうちの1つに関する視差動きベクトルを識別することであって、前記候補視差ベクトルは、前記現在のブロックのターゲット基準ビューと異なるターゲットビューを指し示すことと、
前記候補視差ベクトルを利用不能な候補視差ベクトルとして取り扱うことと、をさらに備えるC32に記載の方法。
[C34] 前記候補視差ベクトルを前記利用不能な候補として取り扱うことは、前記利用不能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックの前記評価を終了させないことを備えるC33に記載の方法。
[C35] 前記対応するブロックは、基準ブロックを備え、前記第1のビューは基準ビューを備えるC1に記載の方法。
[C36] 前記1つ以上の近隣ブロックは、動きベクトル予測プロセス中に検査されたブロックに対応する複数の空間的近隣ブロックを備えるC1に記載の方法。
[C37] 前記動きベクトル予測プロセスは、3D−HEVC規格によって定義された動きベクトル予測プロセスを備えるC36に記載の方法。
[C38] 第2の現在のブロックに関する第2の視差ベクトルを決定することであって、前記第2の現在のブロックは前記第2のビュー内に存在し、前記第2の視差ベクトルは、グローバル視差ベクトルを備えることと、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つにおいて第2の対応するブロックを決定することと、をさらに備えるC1又は2に記載の方法。
[C39] 第2の現在のブロックに関する第2の視差ベクトルを決定することであって、前記第2の現在のブロックは、前記第2のビュー内に存在し、前記第2の視差ベクトルは、平滑な時間的ビュー予測された(STV)視差ベクトルを備えることと、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つ内の第2の対応するブロックを決定することと、をさらに備えるC1又は2に記載の方法。
[C40] 前記視差ベクトルが指し示すビューとターゲット基準ビューとの間の差分に基づいて前記視差ベクトルをスケーリングすることをさらに備えるC1又は2に記載の方法。
[C41] マルチビュー映像データをコーディングするためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号し、及び現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するように構成された映像復号器であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す映像復号器を備える、デバイス。
[C42] マルチビュー映像データをコーディングするためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化し、及び現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するように構成された映像符号器であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す映像符号器、を備える、デバイス。
[C43] 前記1つ以上の近隣ブロックのうちの1つの前記動き情報は、動きベクトルを備え、前記映像復号器は、
前記動きベクトルは、前記1つ以上の基準ビューのうちの1つに属する基準ピクチャに対応する基準インデックスと関連付けられると決定したことに応答して、前記動きベクトルは視差動きベクトルであるとみなし、及び
前記視差ベクトルを導き出すために前記視差動きベクトルを利用するようにさらに構成されるC41又は42に記載のデバイス。
[C44] 前記映像復号器は、前記視差ベクトルと関連付けられた基準ビューを決定し及び前記基準ビューのインタービュー基準ピクチャ内の基準ブロックを識別するようにさらに構成されるC41又は42に記載のデバイス。
[C45] 前記映像復号器は、前記視差ベクトルと関連付けられた基準ビューを決定し、
前記視差ベクトルに基づいて視差動きベクトルを生成するようにさらに構成され、前記視差動きベクトルの前記基準インデックスは、前記基準ビューからの前記インタービュー基準ピクチャに対応する、C41又は42に記載のデバイス。
[C46] 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロックと関連付けられるC43に記載のデバイス。
[C47] 前記1つ以上の近隣ブロックは、1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記時間的近隣ブロックと関連付けられるC43に記載のデバイス。
[C48] 前記1つ以上の時間的近隣ブロックは、1つ以上の時間的基準ピクチャ内のブロックを備えるC47に記載のデバイス。
[C49] 前記1つ以上の時間的基準ピクチャは、HEVCにおいて時間的動きベクトル予測で使用される共配置されたピクチャを備えるC48に記載のデバイス。
[C50] 前記時間的近隣ブロックは、基準ピクチャ内のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記コーディングユニットは、前記現在のブロックの共配置されたブロックを備えるC47に記載のデバイス。
[C51] 前記時間的近隣ブロックは、基準ピクチャ内の最大のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記最大のコーディングユニットは、前記現在のブロックの共配置されたブロックを備えるC47に記載のデバイス。
[C52] 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロック及び1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロック及び前記時間的近隣ブロックのうちの1つと関連付けられるC43に記載のデバイス。
[C53] 前記1つ以上の空間的近隣ブロックは、二次元(2D)映像コーデック内の既存のコーディングツールによってアクセスされるべき空間的近隣ブロックを備えるC47に記載のデバイス。
[C54] 前記既存のコーディングツールは、HEVCにおいて定義されるAMVPプロセスを備えるC53に記載のデバイス。
[C55] 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたAMVPプロセス中に検査される順序に対応するC54に記載のデバイス。
[C56] 前記既存のコーディングツールは、HEVCにおいて定義されるマージプロセスを備えるC53に記載の方法。
[C57] 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたマージプロセス中に検査される順序に対応するC56に記載の方法。
[C58] 前記視差ベクトルは、暗黙の視差ベクトルを備えるC41又は42に記載のデバイス。
[C59] 前記暗黙の視差ベクトルを決定することは、前記1つ以上の近隣ブロックのコーディング中に前記1つ以上の近隣ブロックに関して格納された1つ以上の視差ベクトルを識別することを備え、前記1つ以上の視差ベクトルは、前記近隣ブロックに関して使用されるインタービュー動きパラメータ予測中に前記1つ以上の近隣ブロックに関して決定されるC58に記載のデバイス。
[C60] 前記映像復号器は、前記現在のブロックの前記視差ベクトルによって決定される前記基準ビュー内の前記インタービュー基準ピクチャの前記基準ブロックの情報を用いてインタービュー動き予測を行うようにさらに構成されるC44に記載のデバイス。
[C61] 前記映像復号器は、前記視差ベクトルに基づいて、マージモード及び高度動きベクトル予測(AMVP)モードのうちの1つにおける使用のために候補リストに関する候補を生成することによってインタービュー動き予測を行うように構成されるC60に記載のデバイス。
[C62] 前記映像復号器は、視差動きベクトルを前記候補リストに加えることによって前記候補リストに関する前記候補を生成するように構成され、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、前記視差ベクトルと同じy成分を有するC60に記載のデバイス。
[C63] 前記映像復号器は、視差動きベクトルを前記候補リストに加えることによって前記候補リストに関する前記候補を生成するように構成され、視差動きベクトルを前記候補リストに加えることを備え、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、ゼロに等しいy成分を有するC60に記載の方法。
[C64] 前記映像復号器は、
前記視差ベクトルを視差動きベクトルに変換し、
前記視差動きベクトルをAMVP候補リスト及びマージ候補リストのうちの1つ内に挿入するようにさらに構成されるC41又は42に記載のデバイス。
[C65] 前記映像復号器は、1つ以上の候補視差ベクトルを決定し及び前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択することによって前記現在のブロックに関する前記視差ベクトルを決定するように構成されるC41又は42に記載のデバイス。
[C66] 前記1つ以上の候補視差ベクトルは、少なくとも1つの空間的視差ベクトルを備えるC65に記載のデバイス。
[C67] 前記1つ以上の候補視差ベクトルは、少なくとも1つの時間的視差ベクトルを備えるC65に記載のデバイス。
[C68] 前記1つ以上の候補視差ベクトルは、少なくとも1つの暗黙の視差ベクトルを備えるC65に記載のデバイス。
[C69] 前記映像復号器は、前記現在のブロックに関するターゲットビューと異なるターゲットビューを指し示す候補を前記1つ以上の候補視差ベクトルから除外するようにさらに構成されるC65に記載のデバイス。
[C70] 前記映像復号器は、前記1つ以上の候補視差ベクトルからの1つの視差ベクトルに関する視差ベクトルスケーリングを行うようにさらに構成されるC65に記載の方法。
[C71] 前記映像復号器は、前記候補視差ベクトルのうちの前記1つ以上の発生頻度に基づいて前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択するように構成されるC65に記載のデバイス。
[C72] 前記映像復号器は、
複数の近隣ブロックのうちの1つが利用可能な候補視差ベクトルを生成するかどうかを決定するために前記複数の近隣ブロックを評価し、
前記利用可能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックを前記評価することを終了させるようにさらに構成され、
前記映像復号器は、前記利用可能な候補視差ベクトルを前記視差ベクトルとして使用することによって前記現在のブロックに関する前記視差ベクトルを決定するように構成されるC41又は42に記載のデバイス。
[C73] 前記映像復号器は、
前記複数の近隣ブロックのうちの前記近隣ブロックのうちの1つに関する視差動きベクトルを識別し、
前記候補視差ベクトルを利用不能な候補視差ベクトルとして取り扱うようにさらに構成され、前記候補視差ベクトルは、前記現在のブロックのターゲット基準ビューと異なるターゲットビューを指し示すC72に記載のデバイス。
[C74] 前記映像復号器は、前記利用不能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックの前記評価を終了させないことによって前記候補視差ベクトルを利用不能な候補として取り扱うように構成されるC73に記載のデバイス。
[C75] 前記対応するブロックは、基準ブロックを備え、前記第1のビューは基準ビューを備えるC41又は42に記載のデバイス。
[C76] 前記1つ以上の近隣ブロックは、動きベクトル予測プロセス中に検査されたブロックに対応する複数の空間的近隣ブロックを備えるC41又は42に記載のデバイス。
[C77] 前記動きベクトル予測プロセスは、3D−HEVC規格によって定義された動きベクトル予測プロセスを備えるC76に記載のデバイス。
[C78] 前記映像復号器は、
第2の現在のブロックに関する第2の視差ベクトルを決定し、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つにおいて第2の対応するブロックを決定するようにさらに構成され、前記第2の現在のブロックは前記第2のビュー内に存在し、前記第2の視差ベクトルは、グローバル視差ベクトルを備えるC41又は42に記載のデバイス。
[C79] 前記映像復号器は、
第2の現在のブロックに関する第2の視差ベクトルを決定し、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つ内の第2の対応するブロックを決定するようにさらに構成され、前記第2の現在のブロックは、前記第2のビュー内に存在し、前記第2の視差ベクトルは、平滑な時間的ビュー予測された(STV)視差ベクトルを備えるC41又は42に記載のデバイス。
[C80] 前記映像復号器は、前記視差ベクトルが指し示すビューとターゲット基準ビューとの間の差分に基づいて前記視差ベクトルをスケーリングするようにさらに構成されるC41又は42に記載のデバイス。
[C81] 前記デバイスは、
集積回路、
マイクロプロセッサ、及び
映像復号器を備える無線通信デバイス
のうちの少なくとも1つを備えるC41又は42に記載のデバイス。
[C82] マルチビュー映像データを復号するためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号するための手段と、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するための手段であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す手段と、を備える、デバイス。
[C83] マルチビュー映像データを符号化するためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化するための手段と、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するための手段であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す手段と、を備える、デバイス。
[C84] 前記1つ以上の近隣ブロックのうちの1つの前記動き情報は、動きベクトルを備え、
前記動きベクトルは前記1つ以上の基準ビューのうちの1つに属する基準ピクチャに対応する基準インデックスと関連付けられると決定したことに応答して、前記動きベクトルは視差動きベクトルであるとみなすための手段と、
前記視差ベクトルを導き出すために前記視差動きベクトルを利用するための手段と、をさらに備えるC82又は83に記載のデバイス。
[C85] 前記視差ベクトルと関連付けられた基準ビューを決定するための手段と、
前記基準ビューのインタービュー基準ピクチャ内の基準ブロックを識別するための手段と、をさらに備えるC82又は83に記載のデバイス。
[C86] 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記視差動きベクトルを決定するための手段を備え、前記視差動きベクトルは、前記空間的近隣ブロックと関連付けられるC84に記載のデバイス。
[C87] 前記1つ以上の近隣ブロックは、1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記視差動きベクトルを決定するための手段を備え、前記視差動きベクトルは、前記時間的近隣ブロックと関連付けられるC84に記載のデバイス。
[C88] 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックと、1つ以上の時間的近隣ブロックとを備え、前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記視差動きベクトルを決定するための手段を備え、前記視差動きベクトルは、前記空間的近隣ブロック及び前記時間的近隣ブロックのうちの1つと関連付けられるC84に記載のデバイス。
[C89] 前記視差ベクトルは、暗黙の視差ベクトルを備えるC88に記載のデバイス。
[C90] 前記暗黙の視差ベクトルを決定するための前記手段は、前記1つ以上の近隣ブロックのコーディング中に前記1つ以上の近隣ブロックに関して格納された1つ以上の視差ベクトルを識別するための手段を備え、前記1つ以上の視差ベクトルは、前記近隣ブロックに関して使用されるインタービュー動きパラメータ予測中に前記1つ以上の近隣ブロックに関して決定されるC89に記載のデバイス。
[C91] 前記現在のブロックの前記視差ベクトルによって決定される前記基準ビュー内の前記インタービュー基準ピクチャの前記基準ブロックの情報を用いてインタービュー動き予測を行うための手段をさらに備えるC85に記載のデバイス。
[C92] インタービュー動き予測を行うための前記手段は、前記視差ベクトルに基づいて、マージモード及び高度動きベクトル予測(AMVP)モードのうちの1つにおける使用のために候補リストに関する候補を生成するための手段を備えるC91に記載のデバイス。
[C93] 前記視差ベクトルを視差動きベクトルに変換するための手段と、
前記視差動きベクトルをAMVP候補リスト及びマージ候補リストのうちの1つ内に挿入するための手段と、をさらに備えるC81又は82に記載のデバイス。
[C94] 前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、1つ以上の候補視差ベクトルを決定するための手段と、前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択するための手段と、を備えるC81又は82に記載のデバイス。
[C95] 前記デバイスは、
複数の近隣ブロックのうちの1つが利用可能な候補視差ベクトルを生成するかどうかを決定するために前記複数の近隣ブロックを評価するための手段と、
前記利用可能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックを前記評価することを終了させるための手段と、をさらに備え、
前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記利用可能な候補視差ベクトルを前記視差ベクトルとして使用するための手段を備えるC81又は82に記載のデバイス。
[C96] 第2の現在のブロックに関する第2の視差ベクトルを決定するための手段であって、前記第2の現在のブロックは前記第2のビュー内に存在し、前記第2の視差ベクトルは、グローバル視差ベクトルを備える手段と、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つにおいて第2の対応するブロックを決定するための手段と、をさらに備えるC81又は82に記載のデバイス。
[C97] 第2の現在のブロックに関する第2の視差ベクトルを決定するための手段であって、前記第2の現在のブロックは、前記第2のビュー内に存在し、前記第2の視差ベクトルは、平滑な時間的ビュー予測された(STV)視差ベクトルを備える手段と、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つ内の第2の対応するブロックを決定するための手段と、をさらに備えるC81又は82に記載のデバイス。
[C98] 前記視差ベクトルが指し示すビューとターゲット基準ビューとの間の差分に基づいて前記視差ベクトルをスケーリングするための手段をさらにC81又は82に記載のデバイス。
[C99] コンピュータによって読み取り可能な記憶媒体であって、
実行されたときに、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号し、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することを1つ以上のプロセッサに行わせる命令を格納し、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す、コンピュータによって読み取り可能な記憶媒体。
[C100] コンピュータによって読み取り可能な記憶媒体であって、
実行されたときに、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化し、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することを1つ以上のプロセッサに行わせる命令を格納し、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す、コンピュータによって読み取り可能な記憶媒体。
Claims (100)
- マルチビュー映像データを復号する方法であって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号することと、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することであって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示すことと、を備える、方法。 - マルチビュー映像データを符号化する方法であって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化することと、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することであって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示すことと、を備える、方法。 - 前記1つ以上の近隣ブロックのうちの1つの前記動き情報は、動きベクトルを備え、
前記動きベクトルは前記1つ以上の基準ビューのうちの1つに属する基準ピクチャに対応する基準インデックスと関連付けられると決定したことに応答して、前記動きベクトルは視差動きベクトルであるとみなすことと、
前記視差ベクトルを導き出すために前記視差動きベクトルを利用することと、をさらに備える請求項1又は2に記載の方法。 - 前記視差ベクトルと関連付けられた基準ビューを決定することと、
前記基準ビューのインタービュー基準ピクチャ内の基準ブロックを識別することと、をさらに備える請求項1又は2に記載の方法。 - 前記視差ベクトルと関連付けられた基準ビューを決定することと、
前記視差ベクトルに基づいて視差動きベクトルを生成することであって、前記視差動きベクトルの前記基準インデックスは、前記基準ビューからの前記インタービュー基準ピクチャに対応することと、をさらに備える請求項1又は2に記載の方法。 - 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロックと関連付けられる請求項3に記載の方法。
- 前記1つ以上の近隣ブロックは、1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記時間的近隣ブロックと関連付けられる請求項3に記載の方法。
- 前記1つ以上の時間的近隣ブロックは、1つ以上の時間的基準ピクチャ内のブロックを備える請求項7に記載の方法。
- 前記1つ以上の時間的基準ピクチャは、HEVCにおいて時間的動きベクトルで使用される共配置されたピクチャを備える請求項8に記載の方法。
- 前記時間的近隣ブロックは、基準ピクチャ内のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記コーディングユニットは、前記現在のブロックの共配置されたブロックを備える請求項7に記載の方法。
- 前記時間的近隣ブロックは、基準ピクチャ内の最大のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記最大のコーディングユニットは、前記現在のブロックの共配置されたブロックを備える請求項7に記載の方法。
- 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロック及び1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロック及び前記時間的近隣ブロックのうちの1つと関連付けられる請求項3に記載の方法。
- 前記1つ以上の空間的近隣ブロックは、二次元(2D)映像コーデック内の既存のコーディングツールによってアクセスされるべき空間的近隣ブロックを備える請求項6に記載の方法。
- 前記既存のコーディングツールは、HEVCにおいて定義されるAMVPプロセスを備える請求項13に記載の方法。
- 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたAMVPプロセス中に検査される順序に対応する請求項14に記載の方法。
- 前記既存のコーディングツールは、HEVCにおいて定義されるマージプロセスを備える請求項13に記載の方法。
- 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたマージプロセス中に検査される順序に対応する請求項15に記載の方法。
- 前記視差ベクトルは、暗黙の視差ベクトルを備える請求項1に記載の方法。
- 前記暗黙の視差ベクトルを決定することは、前記1つ以上の近隣ブロックのコーディング中に前記1つ以上の近隣ブロックに関して格納された1つ以上の視差ベクトルを識別することを備え、前記1つ以上の視差ベクトルは、前記近隣ブロックに関して使用されるインタービュー動きパラメータ予測中に前記1つ以上の近隣ブロックに関して決定される請求項18に記載の方法。
- 前記現在のブロックの前記視差ベクトルによって決定される前記基準ビュー内のインタービュー基準ピクチャの前記基準ブロックの情報を用いてインタービュー動き予測を行うことをさらに備える請求項4に記載の方法。
- インタービュー動き予測を行うことは、前記視差ベクトルに基づいて、マージモード及び高度動きベクトル予測(AMVP)モードのうちの1つにおける使用のために候補リストに関する候補を生成することを備える請求項20に記載の方法。
- 前記候補リストに関する前記候補を生成することは、視差動きベクトルを前記候補リストに加えることを備え、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、前記視差ベクトルと同じy成分を有する請求項21に記載の方法。
- 前記候補リストに関する前記候補を生成することは、視差動きベクトルを前記候補リストに加えることを備え、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、ゼロに等しいy成分を有する請求項21に記載の方法。
- 前記視差ベクトルを視差動きベクトルに変換することと、
前記視差動きベクトルをAMVP候補リスト及びマージ候補リストのうちの1つ内に挿入することと、をさらに備える請求項1に記載の方法。 - 前記現在のブロックに関する前記視差ベクトルを決定することは、1つ以上の候補視差ベクトルを決定することと、前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択することと、を備える請求項1に記載の方法。
- 前記1つ以上の候補視差ベクトルは、少なくとも1つの空間的視差ベクトルを備える請求項25に記載の方法。
- 前記1つ以上の候補視差ベクトルは、少なくとも1つの時間的視差ベクトルを備える請求項25に記載の方法。
- 前記1つ以上の候補視差ベクトルは、少なくとも1つの暗黙の視差ベクトルを備える請求項25に記載の方法。
- 前記現在のブロックに関するターゲットビューと異なるターゲットビューを指し示す候補を前記1つ以上の候補視差ベクトルから除外することをさらに備える請求項25に記載の方法。
- 前記1つ以上の候補視差ベクトルからの1つの視差ベクトルに関する視差ベクトルスケーリングを行うことをさらに備える請求項25に記載の方法。
- 前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして前記選択することは、前記候補視差ベクトルのうちの前記1つ以上の発生頻度に基づく請求項25に記載の方法。
- 複数の近隣ブロックのうちの1つが利用可能な候補視差ベクトルを生成するかどうかを決定するために前記複数の近隣ブロックを評価することと、
前記利用可能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックを前記評価することを終了させることと、をさらに備え、
前記現在のブロックに関する前記視差ベクトルを決定することは、前記利用可能な候補視差ベクトルを前記視差ベクトルとして使用することを備える請求項1又は2に記載の方法。 - 前記複数の近隣ブロックのうちの前記近隣ブロックのうちの1つに関する視差動きベクトルを識別することであって、前記候補視差ベクトルは、前記現在のブロックのターゲット基準ビューと異なるターゲットビューを指し示すことと、
前記候補視差ベクトルを利用不能な候補視差ベクトルとして取り扱うことと、をさらに備える請求項32に記載の方法。 - 前記候補視差ベクトルを前記利用不能な候補として取り扱うことは、前記利用不能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックの前記評価を終了させないことを備える請求項33に記載の方法。
- 前記対応するブロックは、基準ブロックを備え、前記第1のビューは基準ビューを備える請求項1に記載の方法。
- 前記1つ以上の近隣ブロックは、動きベクトル予測プロセス中に検査されたブロックに対応する複数の空間的近隣ブロックを備える請求項1に記載の方法。
- 前記動きベクトル予測プロセスは、3D−HEVC規格によって定義された動きベクトル予測プロセスを備える請求項36に記載の方法。
- 第2の現在のブロックに関する第2の視差ベクトルを決定することであって、前記第2の現在のブロックは前記第2のビュー内に存在し、前記第2の視差ベクトルは、グローバル視差ベクトルを備えることと、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つにおいて第2の対応するブロックを決定することと、をさらに備える請求項1又は2に記載の方法。 - 第2の現在のブロックに関する第2の視差ベクトルを決定することであって、前記第2の現在のブロックは、前記第2のビュー内に存在し、前記第2の視差ベクトルは、平滑な時間的ビュー予測された(STV)視差ベクトルを備えることと、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つ内の第2の対応するブロックを決定することと、をさらに備える請求項1又は2に記載の方法。 - 前記視差ベクトルが指し示すビューとターゲット基準ビューとの間の差分に基づいて前記視差ベクトルをスケーリングすることをさらに備える請求項1又は2に記載の方法。
- マルチビュー映像データをコーディングするためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号し、及び現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するように構成された映像復号器であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す映像復号器を備える、デバイス。 - マルチビュー映像データをコーディングするためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化し、及び現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するように構成された映像符号器であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す映像符号器、を備える、デバイス。 - 前記1つ以上の近隣ブロックのうちの1つの前記動き情報は、動きベクトルを備え、前記映像復号器は、
前記動きベクトルは、前記1つ以上の基準ビューのうちの1つに属する基準ピクチャに対応する基準インデックスと関連付けられると決定したことに応答して、前記動きベクトルは視差動きベクトルであるとみなし、及び
前記視差ベクトルを導き出すために前記視差動きベクトルを利用するようにさらに構成される請求項41又は42に記載のデバイス。 - 前記映像復号器は、前記視差ベクトルと関連付けられた基準ビューを決定し及び前記基準ビューのインタービュー基準ピクチャ内の基準ブロックを識別するようにさらに構成される請求項41又は42に記載のデバイス。
- 前記映像復号器は、前記視差ベクトルと関連付けられた基準ビューを決定し、
前記視差ベクトルに基づいて視差動きベクトルを生成するようにさらに構成され、前記視差動きベクトルの前記基準インデックスは、前記基準ビューからの前記インタービュー基準ピクチャに対応する、請求項41又は42に記載のデバイス。 - 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロックと関連付けられる請求項43に記載のデバイス。
- 前記1つ以上の近隣ブロックは、1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記時間的近隣ブロックと関連付けられる請求項43に記載のデバイス。
- 前記1つ以上の時間的近隣ブロックは、1つ以上の時間的基準ピクチャ内のブロックを備える請求項47に記載のデバイス。
- 前記1つ以上の時間的基準ピクチャは、HEVCにおいて時間的動きベクトル予測で使用される共配置されたピクチャを備える請求項48に記載のデバイス。
- 前記時間的近隣ブロックは、基準ピクチャ内のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記コーディングユニットは、前記現在のブロックの共配置されたブロックを備える請求項47に記載のデバイス。
- 前記時間的近隣ブロックは、基準ピクチャ内の最大のコーディングユニットの1つ以上の予測ユニット又は予測ブロックを備え、前記最大のコーディングユニットは、前記現在のブロックの共配置されたブロックを備える請求項47に記載のデバイス。
- 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロック及び1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定することは、前記視差動きベクトルを決定することを備え、前記視差動きベクトルは、前記空間的近隣ブロック及び前記時間的近隣ブロックのうちの1つと関連付けられる請求項43に記載のデバイス。
- 前記1つ以上の空間的近隣ブロックは、二次元(2D)映像コーデック内の既存のコーディングツールによってアクセスされるべき空間的近隣ブロックを備える請求項47に記載のデバイス。
- 前記既存のコーディングツールは、HEVCにおいて定義されるAMVPプロセスを備える請求項53に記載のデバイス。
- 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたAMVPプロセス中に検査される順序に対応する請求項54に記載のデバイス。
- 前記既存のコーディングツールは、HEVCにおいて定義されるマージプロセスを備える請求項53に記載の方法。
- 前記1つ以上の近隣ブロックの複数の空間的近隣ブロックが検査される順序は、対応する位置のブロックがHEVCにおいて定義されたマージプロセス中に検査される順序に対応する請求項56に記載の方法。
- 前記視差ベクトルは、暗黙の視差ベクトルを備える請求項41又は42に記載のデバイス。
- 前記暗黙の視差ベクトルを決定することは、前記1つ以上の近隣ブロックのコーディング中に前記1つ以上の近隣ブロックに関して格納された1つ以上の視差ベクトルを識別することを備え、前記1つ以上の視差ベクトルは、前記近隣ブロックに関して使用されるインタービュー動きパラメータ予測中に前記1つ以上の近隣ブロックに関して決定される請求項58に記載のデバイス。
- 前記映像復号器は、前記現在のブロックの前記視差ベクトルによって決定される前記基準ビュー内の前記インタービュー基準ピクチャの前記基準ブロックの情報を用いてインタービュー動き予測を行うようにさらに構成される請求項44に記載のデバイス。
- 前記映像復号器は、前記視差ベクトルに基づいて、マージモード及び高度動きベクトル予測(AMVP)モードのうちの1つにおける使用のために候補リストに関する候補を生成することによってインタービュー動き予測を行うように構成される請求項60に記載のデバイス。
- 前記映像復号器は、視差動きベクトルを前記候補リストに加えることによって前記候補リストに関する前記候補を生成するように構成され、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、前記視差ベクトルと同じy成分を有する請求項60に記載のデバイス。
- 前記映像復号器は、視差動きベクトルを前記候補リストに加えることによって前記候補リストに関する前記候補を生成するように構成され、視差動きベクトルを前記候補リストに加えることを備え、前記視差動きベクトルは、前記視差ベクトルと同じx成分を有し、前記視差動きベクトルは、ゼロに等しいy成分を有する請求項60に記載の方法。
- 前記映像復号器は、
前記視差ベクトルを視差動きベクトルに変換し、
前記視差動きベクトルをAMVP候補リスト及びマージ候補リストのうちの1つ内に挿入するようにさらに構成される請求項41又は42に記載のデバイス。 - 前記映像復号器は、1つ以上の候補視差ベクトルを決定し及び前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択することによって前記現在のブロックに関する前記視差ベクトルを決定するように構成される請求項41又は42に記載のデバイス。
- 前記1つ以上の候補視差ベクトルは、少なくとも1つの空間的視差ベクトルを備える請求項65に記載のデバイス。
- 前記1つ以上の候補視差ベクトルは、少なくとも1つの時間的視差ベクトルを備える請求項65に記載のデバイス。
- 前記1つ以上の候補視差ベクトルは、少なくとも1つの暗黙の視差ベクトルを備える請求項65に記載のデバイス。
- 前記映像復号器は、前記現在のブロックに関するターゲットビューと異なるターゲットビューを指し示す候補を前記1つ以上の候補視差ベクトルから除外するようにさらに構成される請求項65に記載のデバイス。
- 前記映像復号器は、前記1つ以上の候補視差ベクトルからの1つの視差ベクトルに関する視差ベクトルスケーリングを行うようにさらに構成される請求項65に記載の方法。
- 前記映像復号器は、前記候補視差ベクトルのうちの前記1つ以上の発生頻度に基づいて前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択するように構成される請求項65に記載のデバイス。
- 前記映像復号器は、
複数の近隣ブロックのうちの1つが利用可能な候補視差ベクトルを生成するかどうかを決定するために前記複数の近隣ブロックを評価し、
前記利用可能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックを前記評価することを終了させるようにさらに構成され、
前記映像復号器は、前記利用可能な候補視差ベクトルを前記視差ベクトルとして使用することによって前記現在のブロックに関する前記視差ベクトルを決定するように構成される請求項41又は42に記載のデバイス。 - 前記映像復号器は、
前記複数の近隣ブロックのうちの前記近隣ブロックのうちの1つに関する視差動きベクトルを識別し、
前記候補視差ベクトルを利用不能な候補視差ベクトルとして取り扱うようにさらに構成され、前記候補視差ベクトルは、前記現在のブロックのターゲット基準ビューと異なるターゲットビューを指し示す請求項72に記載のデバイス。 - 前記映像復号器は、前記利用不能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックの前記評価を終了させないことによって前記候補視差ベクトルを利用不能な候補として取り扱うように構成される請求項73に記載のデバイス。
- 前記対応するブロックは、基準ブロックを備え、前記第1のビューは基準ビューを備える請求項41又は42に記載のデバイス。
- 前記1つ以上の近隣ブロックは、動きベクトル予測プロセス中に検査されたブロックに対応する複数の空間的近隣ブロックを備える請求項41又は42に記載のデバイス。
- 前記動きベクトル予測プロセスは、3D−HEVC規格によって定義された動きベクトル予測プロセスを備える請求項76に記載のデバイス。
- 前記映像復号器は、
第2の現在のブロックに関する第2の視差ベクトルを決定し、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つにおいて第2の対応するブロックを決定するようにさらに構成され、前記第2の現在のブロックは前記第2のビュー内に存在し、前記第2の視差ベクトルは、グローバル視差ベクトルを備える請求項41又は42に記載のデバイス。 - 前記映像復号器は、
第2の現在のブロックに関する第2の視差ベクトルを決定し、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つ内の第2の対応するブロックを決定するようにさらに構成され、前記第2の現在のブロックは、前記第2のビュー内に存在し、前記第2の視差ベクトルは、平滑な時間的ビュー予測された(STV)視差ベクトルを備える請求項41又は42に記載のデバイス。 - 前記映像復号器は、前記視差ベクトルが指し示すビューとターゲット基準ビューとの間の差分に基づいて前記視差ベクトルをスケーリングするようにさらに構成される請求項41又は42に記載のデバイス。
- 前記デバイスは、
集積回路、
マイクロプロセッサ、及び
映像復号器を備える無線通信デバイス
のうちの少なくとも1つを備える請求項41又は42に記載のデバイス。 - マルチビュー映像データを復号するためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号するための手段と、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するための手段であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す手段と、を備える、デバイス。 - マルチビュー映像データを符号化するためのデバイスであって、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化するための手段と、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定するための手段であって、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す手段と、を備える、デバイス。 - 前記1つ以上の近隣ブロックのうちの1つの前記動き情報は、動きベクトルを備え、
前記動きベクトルは前記1つ以上の基準ビューのうちの1つに属する基準ピクチャに対応する基準インデックスと関連付けられると決定したことに応答して、前記動きベクトルは視差動きベクトルであるとみなすための手段と、
前記視差ベクトルを導き出すために前記視差動きベクトルを利用するための手段と、をさらに備える請求項82又は83に記載のデバイス。 - 前記視差ベクトルと関連付けられた基準ビューを決定するための手段と、
前記基準ビューのインタービュー基準ピクチャ内の基準ブロックを識別するための手段と、をさらに備える請求項82又は83に記載のデバイス。 - 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記視差動きベクトルを決定するための手段を備え、前記視差動きベクトルは、前記空間的近隣ブロックと関連付けられる請求項84に記載のデバイス。
- 前記1つ以上の近隣ブロックは、1つ以上の時間的近隣ブロックを備え、前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記視差動きベクトルを決定するための手段を備え、前記視差動きベクトルは、前記時間的近隣ブロックと関連付けられる請求項84に記載のデバイス。
- 前記1つ以上の近隣ブロックは、1つ以上の空間的近隣ブロックと、1つ以上の時間的近隣ブロックとを備え、前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記視差動きベクトルを決定するための手段を備え、前記視差動きベクトルは、前記空間的近隣ブロック及び前記時間的近隣ブロックのうちの1つと関連付けられる請求項84に記載のデバイス。
- 前記視差ベクトルは、暗黙の視差ベクトルを備える請求項88に記載のデバイス。
- 前記暗黙の視差ベクトルを決定するための前記手段は、前記1つ以上の近隣ブロックのコーディング中に前記1つ以上の近隣ブロックに関して格納された1つ以上の視差ベクトルを識別するための手段を備え、前記1つ以上の視差ベクトルは、前記近隣ブロックに関して使用されるインタービュー動きパラメータ予測中に前記1つ以上の近隣ブロックに関して決定される請求項89に記載のデバイス。
- 前記現在のブロックの前記視差ベクトルによって決定される前記基準ビュー内の前記インタービュー基準ピクチャの前記基準ブロックの情報を用いてインタービュー動き予測を行うための手段をさらに備える請求項85に記載のデバイス。
- インタービュー動き予測を行うための前記手段は、前記視差ベクトルに基づいて、マージモード及び高度動きベクトル予測(AMVP)モードのうちの1つにおける使用のために候補リストに関する候補を生成するための手段を備える請求項91に記載のデバイス。
- 前記視差ベクトルを視差動きベクトルに変換するための手段と、
前記視差動きベクトルをAMVP候補リスト及びマージ候補リストのうちの1つ内に挿入するための手段と、をさらに備える請求項81又は82に記載のデバイス。 - 前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、1つ以上の候補視差ベクトルを決定するための手段と、前記1つ以上の候補視差ベクトルのうちの1つを前記視差ベクトルとして選択するための手段と、を備える請求項81又は82に記載のデバイス。
- 前記デバイスは、
複数の近隣ブロックのうちの1つが利用可能な候補視差ベクトルを生成するかどうかを決定するために前記複数の近隣ブロックを評価するための手段と、
前記利用可能な候補視差ベクトルを識別した時点で前記複数の近隣ブロックを前記評価することを終了させるための手段と、をさらに備え、
前記現在のブロックに関する前記視差ベクトルを決定するための前記手段は、前記利用可能な候補視差ベクトルを前記視差ベクトルとして使用するための手段を備える請求項81又は82に記載のデバイス。 - 第2の現在のブロックに関する第2の視差ベクトルを決定するための手段であって、前記第2の現在のブロックは前記第2のビュー内に存在し、前記第2の視差ベクトルは、グローバル視差ベクトルを備える手段と、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つにおいて第2の対応するブロックを決定するための手段と、をさらに備える請求項81又は82に記載のデバイス。 - 第2の現在のブロックに関する第2の視差ベクトルを決定するための手段であって、前記第2の現在のブロックは、前記第2のビュー内に存在し、前記第2の視差ベクトルは、平滑な時間的ビュー予測された(STV)視差ベクトルを備える手段と、
前記第2の現在のブロックに関して、前記第2の視差ベクトルに基づいて前記第1のビューの前記ピクチャのうちの1つ内の第2の対応するブロックを決定するための手段と、をさらに備える請求項81又は82に記載のデバイス。 - 前記視差ベクトルが指し示すビューとターゲット基準ビューとの間の差分に基づいて前記視差ベクトルをスケーリングするための手段をさらに請求項81又は82に記載のデバイス。
- コンピュータによって読み取り可能な記憶媒体であって、
実行されたときに、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを復号し、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することを1つ以上のプロセッサに行わせる命令を格納し、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す、コンピュータによって読み取り可能な記憶媒体。 - コンピュータによって読み取り可能な記憶媒体であって、
実行されたときに、
第1の基準ビューを含む1つ以上の基準ビューにおいて1つ以上のピクチャを符号化し、
現在のブロックの1つ以上の近隣ブロックの動き情報に基づいて前記現在のブロックに関する視差ベクトルを決定することを1つ以上のプロセッサに行わせる命令を格納し、前記現在のブロックは、第2のビュー内に存在し、前記視差ベクトルは、前記現在のブロックから前記1つ以上の基準ビューのうちの1つにおける同じ時間的インスタンスのピクチャ内の対応するブロックを指し示す、コンピュータによって読み取り可能な記憶媒体。
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261610961P | 2012-03-14 | 2012-03-14 | |
US61/610,961 | 2012-03-14 | ||
US201261623041P | 2012-04-11 | 2012-04-11 | |
US61/623,041 | 2012-04-11 | ||
US201261658754P | 2012-06-12 | 2012-06-12 | |
US61/658,754 | 2012-06-12 | ||
US201261682221P | 2012-08-11 | 2012-08-11 | |
US61/682,221 | 2012-08-11 | ||
US13/802,344 US9445076B2 (en) | 2012-03-14 | 2013-03-13 | Disparity vector construction method for 3D-HEVC |
US13/802,344 | 2013-03-13 | ||
PCT/US2013/031489 WO2013138621A1 (en) | 2012-03-14 | 2013-03-14 | Disparity vector construction method for 3d-hevc |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018009553A Division JP2018110406A (ja) | 2012-03-14 | 2018-01-24 | 3d−hevcに関する視差ベクトル構築方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015514341A true JP2015514341A (ja) | 2015-05-18 |
JP2015514341A5 JP2015514341A5 (ja) | 2016-04-07 |
JP6615606B2 JP6615606B2 (ja) | 2019-12-04 |
Family
ID=48040436
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015500622A Active JP6615606B2 (ja) | 2012-03-14 | 2013-03-14 | 3d−hevcに関する視差ベクトル構築方法 |
JP2018009553A Ceased JP2018110406A (ja) | 2012-03-14 | 2018-01-24 | 3d−hevcに関する視差ベクトル構築方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018009553A Ceased JP2018110406A (ja) | 2012-03-14 | 2018-01-24 | 3d−hevcに関する視差ベクトル構築方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9445076B2 (ja) |
EP (1) | EP2826246A1 (ja) |
JP (2) | JP6615606B2 (ja) |
KR (1) | KR20140146605A (ja) |
CN (1) | CN104303502B (ja) |
WO (1) | WO2013138621A1 (ja) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL231159B1 (pl) | 2011-09-09 | 2019-01-31 | Kt Corp | Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu |
JP6113411B2 (ja) * | 2011-09-13 | 2017-04-12 | シャープ株式会社 | 画像処理装置 |
US9525861B2 (en) | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
US9549180B2 (en) | 2012-04-20 | 2017-01-17 | Qualcomm Incorporated | Disparity vector generation for inter-view prediction for video coding |
WO2014005503A1 (en) * | 2012-07-02 | 2014-01-09 | Mediatek Inc. | Method and apparatus of inter-view candidate derivation in 3d video coding |
KR20150043319A (ko) * | 2012-07-10 | 2015-04-22 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US10085039B2 (en) | 2012-09-21 | 2018-09-25 | Hfi Innovation Inc. | Method and apparatus of virtual depth values in 3D video coding |
RU2639647C2 (ru) * | 2012-09-28 | 2017-12-21 | Сони Корпорейшн | Устройство и способ обработки изображений |
US9544612B2 (en) * | 2012-10-04 | 2017-01-10 | Intel Corporation | Prediction parameter inheritance for 3D video coding |
US9503723B2 (en) * | 2013-01-11 | 2016-11-22 | Futurewei Technologies, Inc. | Method and apparatus of depth prediction mode selection |
CN105074726A (zh) * | 2013-02-26 | 2015-11-18 | A2Z罗基克斯公司 | 图像序列中的物体遮挡的确定 |
FR3002716A1 (fr) * | 2013-02-26 | 2014-08-29 | France Telecom | Derivation de vecteur de mouvement de disparite, codage et decodage video 3d utilisant une telle derivation |
KR101706309B1 (ko) * | 2013-04-10 | 2017-02-14 | 에이치에프아이 이노베이션 인크. | 3차원 비디오 코딩을 위한 뷰간 후보자 유도 방법 및 장치 |
JP6139953B2 (ja) * | 2013-04-12 | 2017-05-31 | 日本電信電話株式会社 | 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体 |
US10045014B2 (en) * | 2013-07-15 | 2018-08-07 | Mediatek Singapore Pte. Ltd. | Method of disparity derived depth coding in 3D video coding |
WO2015006922A1 (en) * | 2013-07-16 | 2015-01-22 | Mediatek Singapore Pte. Ltd. | Methods for residual prediction |
WO2015139183A1 (en) * | 2014-03-17 | 2015-09-24 | Mediatek Inc. | Method of signaling of depth-based block partitioning mode for three-dimensional and multi-view video coding |
KR20170018838A (ko) * | 2014-06-16 | 2017-02-20 | 퀄컴 인코포레이티드 | 3d―hevc 에서의 간략화된 병합 후보의 시프팅 및 병합 리스트 유도 |
CN106464880B (zh) * | 2014-06-26 | 2019-05-10 | 华为技术有限公司 | 用于减少高效率视频编码中的计算负荷的方法和设备 |
EP3254465A1 (en) * | 2015-02-05 | 2017-12-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-view video codec supporting residual prediction |
CN116320476A (zh) | 2016-12-22 | 2023-06-23 | 株式会社Kt | 对视频进行解码或编码的方法和发送视频数据的方法 |
US11252464B2 (en) | 2017-06-14 | 2022-02-15 | Mellanox Technologies, Ltd. | Regrouping of video data in host memory |
US20200014945A1 (en) * | 2018-07-08 | 2020-01-09 | Mellanox Technologies, Ltd. | Application acceleration |
US20200014918A1 (en) * | 2018-07-08 | 2020-01-09 | Mellanox Technologies, Ltd. | Application accelerator |
EP3794824A1 (en) | 2018-06-29 | 2021-03-24 | Beijing Bytedance Network Technology Co. Ltd. | Conditions for updating luts |
GB2588531B (en) | 2018-06-29 | 2023-02-01 | Beijing Bytedance Network Tech Co Ltd | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
CN114466197A (zh) | 2018-06-29 | 2022-05-10 | 北京字节跳动网络技术有限公司 | 用于查找表更新的编码的运动信息的选择 |
TWI752331B (zh) | 2018-06-29 | 2022-01-11 | 大陸商北京字節跳動網絡技術有限公司 | 當向Merge/AMVP添加HMVP候選時的部分/完全修剪 |
TWI728390B (zh) | 2018-06-29 | 2021-05-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表尺寸 |
KR102627814B1 (ko) | 2018-06-29 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 룩업 테이블의 업데이트: fifo, 제약된 fifo |
KR20240007298A (ko) | 2018-06-29 | 2024-01-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
CN114125450B (zh) * | 2018-06-29 | 2023-11-17 | 北京字节跳动网络技术有限公司 | 一种用于处理视频数据的方法、装置和计算机可读介质 |
TWI719526B (zh) | 2018-07-02 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表的更新 |
US10735763B2 (en) * | 2018-07-27 | 2020-08-04 | Tencent America LLC | Method and apparatus for motion vector prediction using spatial and temporal combination |
TWI820211B (zh) | 2018-09-12 | 2023-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 取決於總數減去k的開始檢查hmvp候選的條件 |
JP7275286B2 (ja) | 2019-01-10 | 2023-05-17 | 北京字節跳動網絡技術有限公司 | Lut更新の起動 |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
CN113615193B (zh) | 2019-03-22 | 2024-06-25 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
RU2701058C1 (ru) * | 2019-04-12 | 2019-09-24 | Общество с ограниченной ответственностью "Научно-производственная фирма "САД-КОМ" | Способ компенсации движения и устройство для его реализации |
US11146818B1 (en) * | 2020-09-21 | 2021-10-12 | Tencent America LLC | Methods of intra picture block prediction for multi-view video compression |
KR102386002B1 (ko) * | 2020-11-23 | 2022-04-13 | 상명대학교산학협력단 | 요소 영상 배열에서 디스패리티 추정 방법 및 그 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009510892A (ja) * | 2005-09-29 | 2009-03-12 | サムスン エレクトロニクス カンパニー リミテッド | カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体 |
JP2009543508A (ja) * | 2006-07-12 | 2009-12-03 | エルジー エレクトロニクス インコーポレイティド | 信号処理方法及び装置 |
JP2010536242A (ja) * | 2007-08-06 | 2010-11-25 | トムソン ライセンシング | 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6970206B1 (en) * | 2000-04-20 | 2005-11-29 | Ati International Srl | Method for deinterlacing interlaced video by a graphics processor |
JP4262014B2 (ja) * | 2003-07-31 | 2009-05-13 | キヤノン株式会社 | 画像撮影装置および画像処理方法 |
KR100888962B1 (ko) | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
US8854486B2 (en) * | 2004-12-17 | 2014-10-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for processing multiview videos for view synthesis using skip and direct modes |
US8644386B2 (en) | 2005-09-22 | 2014-02-04 | Samsung Electronics Co., Ltd. | Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method |
GB2445008B (en) * | 2006-12-20 | 2008-12-31 | Sony Comp Entertainment Europe | Image compression and/or decompression |
US20080159407A1 (en) * | 2006-12-28 | 2008-07-03 | Yang Nick Y | Mechanism for a parallel processing in-loop deblock filter |
KR20090113281A (ko) * | 2007-01-24 | 2009-10-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US8953684B2 (en) | 2007-05-16 | 2015-02-10 | Microsoft Corporation | Multiview coding with geometry-based disparity prediction |
CN101415115B (zh) * | 2007-10-15 | 2011-02-02 | 华为技术有限公司 | 基于运动跳跃模式的视频编解码方法及其编解码器 |
EP3512202A1 (en) | 2008-04-25 | 2019-07-17 | Interdigital VC Holdings, Inc | Inter-view skip modes with depth |
CN102257818B (zh) | 2008-10-17 | 2014-10-29 | 诺基亚公司 | 3d视频编码中运动向量的共享 |
US8982183B2 (en) | 2009-04-17 | 2015-03-17 | Lg Electronics Inc. | Method and apparatus for processing a multiview video signal |
PL2594077T3 (pl) | 2010-07-15 | 2016-04-29 | Ge Video Compression Llc | Hybrydowe kodowanie wideo obsługujące syntezę widoku pośredniego |
WO2012096164A1 (ja) | 2011-01-12 | 2012-07-19 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置 |
US20120189060A1 (en) | 2011-01-20 | 2012-07-26 | Industry-Academic Cooperation Foundation, Yonsei University | Apparatus and method for encoding and decoding motion information and disparity information |
US9485517B2 (en) | 2011-04-20 | 2016-11-01 | Qualcomm Incorporated | Motion vector prediction with motion vectors from multiple views in multi-view video coding |
WO2013001748A1 (ja) | 2011-06-29 | 2013-01-03 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置 |
WO2013072484A1 (en) | 2011-11-18 | 2013-05-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-view coding with efficient residual handling |
CA2866121C (en) | 2012-03-06 | 2018-04-24 | Panasonic Intellectual Property Corporation Of America | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus |
US9525861B2 (en) | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
JP6039793B2 (ja) | 2012-05-10 | 2016-12-07 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号処理方法及び装置 |
US20130336405A1 (en) | 2012-06-15 | 2013-12-19 | Qualcomm Incorporated | Disparity vector selection in video coding |
-
2013
- 2013-03-13 US US13/802,344 patent/US9445076B2/en active Active
- 2013-03-14 KR KR1020147028416A patent/KR20140146605A/ko not_active IP Right Cessation
- 2013-03-14 EP EP13713298.1A patent/EP2826246A1/en not_active Ceased
- 2013-03-14 WO PCT/US2013/031489 patent/WO2013138621A1/en active Application Filing
- 2013-03-14 CN CN201380013560.4A patent/CN104303502B/zh active Active
- 2013-03-14 JP JP2015500622A patent/JP6615606B2/ja active Active
-
2018
- 2018-01-24 JP JP2018009553A patent/JP2018110406A/ja not_active Ceased
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009510892A (ja) * | 2005-09-29 | 2009-03-12 | サムスン エレクトロニクス カンパニー リミテッド | カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体 |
JP2009543508A (ja) * | 2006-07-12 | 2009-12-03 | エルジー エレクトロニクス インコーポレイティド | 信号処理方法及び装置 |
JP2010536242A (ja) * | 2007-08-06 | 2010-11-25 | トムソン ライセンシング | 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
EP2826246A1 (en) | 2015-01-21 |
US9445076B2 (en) | 2016-09-13 |
JP2018110406A (ja) | 2018-07-12 |
WO2013138621A1 (en) | 2013-09-19 |
CN104303502B (zh) | 2019-01-04 |
US20130265388A1 (en) | 2013-10-10 |
KR20140146605A (ko) | 2014-12-26 |
JP6615606B2 (ja) | 2019-12-04 |
CN104303502A (zh) | 2015-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6615606B2 (ja) | 3d−hevcに関する視差ベクトル構築方法 | |
JP6585200B2 (ja) | ビデオコード化における視差ベクトル予測 | |
JP6552923B2 (ja) | ビデオコード化における動きベクトル予測 | |
CN107690809B (zh) | 使用空间及/或时间运动信息的子预测单元运动向量预测 | |
JP6215295B2 (ja) | Hevcおよびその拡張における動きベクトルのコーディングおよび双予測 | |
JP6336987B2 (ja) | 3d映像に関するインタービュー動き予測 | |
JP6636530B2 (ja) | サブ予測ユニットベース高度時間動きベクトル予測 | |
JP6337104B2 (ja) | テクスチャコーディングのためのより正確な高度残差予測(arp) | |
JP6231203B2 (ja) | ビデオコード化における視差ベクトルを使用するブロック識別 | |
JP6185143B2 (ja) | スキップおよびダイレクトモード用の3dビデオコーディングにおける視差ベクトル導出 | |
JP6046246B2 (ja) | 3dビデオコーディングのための深度マップのイントラコーディング | |
KR102185025B1 (ko) | 3d 비디오 코딩에서 디스패리티 벡터 도출 및 모션 벡터 예측에 대한 단순화 | |
JP6096217B2 (ja) | 3dビデオコーディングにおけるビュー合成予測サポートのシグナリング | |
JP6215344B2 (ja) | 非対称空間解像度を有するテクスチャビューコンポーネントおよび深度ビューコンポーネントの中での内部ビュー動き予測 | |
JP2019526988A (ja) | 候補リストの構築のためのジオメトリベースの優先度 | |
US9438926B2 (en) | Constraints on neighboring block based disparity vector (NBDV) techniques for 3D video | |
JP2015507883A (ja) | 深度を用いた3dビデオコーディングにおける多仮説視差ベクトル構成 | |
JP2015515227A (ja) | ビデオコーディングのためのビュー間予測のための視差ベクトル生成 | |
JP2016529791A (ja) | ビデオコーディングのための照明補償を処理すること | |
JP2016519518A (ja) | 後方ビュー合成予測 | |
KR20160132862A (ko) | 3d-hevc 를 위한 단순화된 진보된 잔차 예측 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170410 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170926 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6615606 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |