JP2014524706A - 動きベクトル処理 - Google Patents
動きベクトル処理 Download PDFInfo
- Publication number
- JP2014524706A JP2014524706A JP2014525966A JP2014525966A JP2014524706A JP 2014524706 A JP2014524706 A JP 2014524706A JP 2014525966 A JP2014525966 A JP 2014525966A JP 2014525966 A JP2014525966 A JP 2014525966A JP 2014524706 A JP2014524706 A JP 2014524706A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- camera viewpoint
- current
- camera
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
MVは、MV間の冗長性が利用されるために、直接ビットストリームに符号化されない。隣接するMV間は高い相関関係がある場合が多く、同じ長さおよび方向を有するMVはクラスタリングされる場合が多い。これらのクラスタリングされたMVは、物体が移動している局所動き、またはパンの動きが存在するグローバル動きに対応すると言える。符号化されるそれぞれのMVに対して、最初に、データ量を減らすためにMV予測が行われ、MVとMVプレディクタとの間の差分のみが符号化される。H.264において、画素ブロックから左、上、右上までのMVのメディアン値を求めることによって、メディアンプレディクタが生成される。この処理は、水平成分および垂直MV成分それぞれに対して行われる。
「従来」の映像設備は、1つの表現、すなわち、固定カメラ位置の映像を提供するが、近年では、多視点映像表現がかなり重要性を増してきている。多視点表現は、異なるカメラの視野または視点からのコンテンツを表現するものであり、具体的には、シーンが人の目と同じ距離または同様の距離を有する2つのカメラから撮られる「立体映像」のケースがある。適切な表示技術を使用して視聴者に「立体」のコンテンツを提示することにより、視聴者に奥行き知覚を提供することができる。
MVCとAVCの主な違いは、参照ピクチャリストの処理プロセスである。参照ピクチャリストは、予測に使用できる画像の集合である。画像リストは、通常、現在フレームまでの距離に基づく順序で分類される。AVCでは、リスト内の全ての参照ピクチャは同じ視点からの画像である。MVCでは、同じ視点からの参照ピクチャ以外に、他の視点からの参照ピクチャも存在する。したがって、MVC参照ピクチャリスト構築プロセスの第1のステップはAVCと全く同じであり、後で視点間の参照ピクチャが加えられるという点が異なる。複雑さを考慮すると、他の視点からの時間内の同じインスタンスのフレームをMVCのリストに加えることのみが可能である。
HEVCは、現在標準化過程にある次世代映像符号化標準である。HEVCは、特に、高解像度映像シーケンスに対して、AVCに比べて大幅に符号化を改善することを目的とするものである。HEVC開発は、最初は、白黒映像、すなわち、単一視点に焦点を合わせている。
H.264のメディアンMVプレディクタは、多くの場合、あまり有効でない。VCEG Contribution[1]には、動きベクトル競合と表わされる新技術について記載されている。この技術の重要な概念は、現在MVと高い相関がある場合が多い隣接画素ブロックからMVを取得して、候補MVのリストを作ることである。この場合、隣接画素ブロックは、空間的に隣接するブロック、すなわち、同じフレーム、または時間的に隣接するブロック、すなわち、異なるフレームのいずれかとすることができる。これらの候補MVは、それぞれの参照フレームまでの時間的距離に応じてスケーリングされる。レート歪み(RD)基準に基づくプレディクタになるように、リストから1つの候補MVのみが選択されて、リストに対して対応するインデックスエントリがビットストリームで送信される。一般に、動きベクトル競合は、メディアンMV予測に比べて映像符号化性能を向上させるので、HEVC向けに提案される。
に基づいて決定される。この場合、
、
である。
、および
になる。クリッピング関数
は、
の場合に
を出力し、
の場合に
を出力し、それ以外の場合に
を出力する。
に基づいて決定される。この場合、>>は右シフト演算子であり、
である。例えば、
のように、任意でクリッピングが行われてもよい。
に基づいて決定されてもよい。この場合、
は現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて決定され、
である。CVは現在カメラ視点であり、RVは参照カメラ視点であり、V1は第1のカメラ視点であり、RV1は第1の参照カメラ視点である。好適な実施形態では、
であり、別の実施形態では、
である。この場合、
は現在カメラ視点と参照カメラ視点との間の基準距離であり、
は第1のカメラ視点と第1の参照カメラ視点との間の基準距離である。
は、実際には、現在カメラ視点と参照カメラ視点との間の基準距離と、第1のカメラ視点と第1の参照カメラ視点との間の基準距離との商を表わすことになる。この場合、好ましくは、合成スケーリング係数
が計算されず、候補MVプレディクタに対するスケーリング係数としてパラメータ
またはパラメータ
が計算される。
に基づいてスケーリング係数を計算することを含む。パラメータ
は、上述したように、基準距離に基づいて決定されるが、パラメータ
はPOC値に基づいて決定される。特に。特定の実施形態では、
である。
、かつ
を検証するのが好ましい。
および/または
である場合、ステップS3は、
に基づいてスケーリング係数を決定するのが好ましい。このパラメータ
は、この場合、固定の所定値であり、好ましくは、1である。パラメータ
は、上述したように決定される。
)および参照距離(パラメータ
またはパラメータ
)に基づいてスケーリング係数を決定する上述の実施形態は、さらに視点距離(パラメータ
)に基づく決定の基準と組み合わされて、例えば、
または
に基づいて決定されてもよい。
に基づいて、例えば、
に基づいて、スケーリング係数を決定する構造である。任意で、上述したように、SF決定器130によって、パラメータ
およびスケーリング係数に対してクリッピングが行われてもよい。
に基づいて、または
に等しいスケーリング係数を決定する、またはスケーリング係数を参照距離と基準距離の関数にするために、
もしくは
に基づいて、または
もしくは
に等しいスケーリング係数を決定する、またはスケーリング係数を参照距離、視点距離、および基準距離の関数にするために、
もしくは
に基づいて、または
もしくは
に等しいスケーリング係数を決定する構造にすることができる。
に基づいて、例えば、
に基づいて決定される。上述したように、任意で、ステップS12において、パラメータ
およびスケーリング係数に対してクリッピングが行われてもよい。
、
、
、
または
に基づく、好ましくは
、
、
、
または
に等しい合成スケーリング係数になるように決定される。
に基づいて、例えば、
に基づいてスケーリング係数を決定することができる。上述したように、任意で、SF決定器230によって、パラメータ
およびスケーリング係数に対してクリッピングが行われてもよい。
または
)および/または視点距離(
;
および
のうちの一方)に基づいて、スケーリング係数を決定してもよい。
Claims (23)
- 複数のカメラ視点(10、20)からの映像コンテンツの多視点映像符号化のための動きベクトル予測方法であって、
前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)内の参照画素領域(32)を識別する動きベクトル(34)を推定するステップ(S1)と、
前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられて、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を提供するステップ(S2)と、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、スケーリング係数を決定するステップ(S3)と、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記スケーリング係数を乗じた前記候補動きベクトルプレディクタ(54、64)に基づいて、スケーリング済み候補動きベクトルプレディクタを決定するステップ(S4)と、
前記少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、前記動きベクトル(34)に対して、動きベクトルプレディクタを決定するステップ(S5)とを含む方法。 - 前記スケーリング係数を決定するステップ(S3)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記スケーリング係数を決定するステップ(S3)を含む、請求項1に記載の方法。
- 前記スケーリング係数を決定するステップ(S3)は、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記スケーリング係数を決定するステップ(S3)を含む、請求項2に記載の方法。
- 前記動きベクトル(34)および前記動きベクトルプレディクタに基づいて、残差動きベクトルを計算するステップをさらに含む、請求項1から3のいずれか一項記載の方法。
- 前記スケーリング係数を決定するステップ(S3)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
に基づいて、前記スケーリング係数を決定するステップ(S3)を含み、この場合、>>は右シフト演算子であり、
、
、および
であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項1から4のいずれか一項に記載の方法。 - 複数のカメラ視点(10、20)からの映像コンテンツの多視点映像符号化のための動きベクトルを予測するためのコンピュータプログラム(78)であり、コンピュータ(70)上で実行する時に、前記コンピュータ(70)に、
前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)内の参照画素領域(32)を識別する動きベクトル(34)を推定させ、
前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられ、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を提供させ、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、スケーリング係数を決定させ、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記スケーリング係数を乗じた前記候補動きベクトルプレディクタ(54、64)に基づいて、スケーリング済み候補動きベクトルプレディクタを決定させ、さらに
前記動きベクトル(34)に対して、前記少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトルプレディクタを決定させる
コード手段(110、120、130、140、150)を備える、コンピュータプログラム(78)。 - 複数のカメラ視点(10、20)からの映像コンテンツの多視点映像符号化のための動きベクトル予測装置(100)であって、
前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)内の参照画素領域(32)を識別する動きベクトル(34)を推定する構造である動きベクトル推定器(110)と、
前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられ、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を提供する構造であるプレディクタプロバイダ(120)と、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、スケーリング係数を決定する構造であるスケーリング係数決定器(130)と、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記スケーリング係数を乗じた前記候補動きベクトルプレディクタ(54、64)に基づいて、スケーリング済み候補動きベクトルプレディクタを決定する構造であるスケーリング済みプレディクタ決定器(140)と、
前記動きベクトル(34)に対して、前記少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトルプレディクタを決定する構造であるプレディクタ決定器(250)と
を備える装置。 - 前記スケーリング係数決定器(130)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記スケーリング係数を決定する構造である、請求項7に記載の装置。
- 前記スケーリング係数決定器(130)は、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記スケーリング係数を決定する構造である、請求項8に記載の装置。
- 現在動きベクトル(24)および前記動きベクトルプレディクタに基づいて、残差動きベクトルを計算する構造であるベクトル計算器(170)をさらに備える、請求項7から9のいずれか一項に記載の装置。
- 前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
に基づいて、前記スケーリング係数決定器(130)は前記スケーリング係数を決定する構造であり、この場合、>>は右シフト演算子であり、
、
、および
であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項7から10のいずれか一項に記載の装置。 - 複数のカメラ視点(10、20)からの符号化多視点映像の動きベクトル復号方法であって、
前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)を識別する参照フレームインデックスを提供するステップ(S10)と、
前記現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられ、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を識別するステップ(S11)と、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、個々のスケーリング係数を決定するステップ(S12)と、
前記個々のスケーリング係数を乗じた前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成するステップ(S13)と、
前記現在画素ブロック(30)に対して、前記候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて動きベクトル(34)を決定するステップ(S15)と
を含む方法。 - 前記現在画素ブロック(30)に対して、前記現在画素ブロック(30)に関連付けられたプレディクタインデックスに基づいて、前記候補リストから動きベクトルプレディクタを選択するステップ(S14)をさらに含み、前記動きベクトル(34)を決定するステップは、前記現在画素ブロック(30)に対して、前記選択された動きベクトルプレディクタおよび前記現在画素ブロック(30)に関連付けられた残差動きベクトルに基づいて、前記動きベクトル(34)を決定するステップ(S15)を含む、請求項12に記載の方法。
- 前記個々のスケーリング係数を決定するステップ(S12)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記個々のスケーリング係数を決定するステップ(S12)を含む、請求項12または13に記載の方法。
- 前記個々のスケーリング係数を決定するステップ(S12)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記個々のスケーリング係数を決定するステップ(S12)を含む、請求項14に記載の方法。
- 前記個々のスケーリング係数を決定するステップ(S12)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
に基づいて前記個々のスケーリング係数を決定するステップ(S12)を含み、この場合、>>は右シフト演算子であり、
、
、および
であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項12から15のいずれか一項に記載の方法。 - 複数のカメラ視点(10、20)からの符号化多視点映像の動きベクトルを復号するためのコンピュータプログラム(88)であって、コンピュータ(80)上で実行する時に、前記コンピュータ(80)に、
前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)を識別する参照フレームインデックスを提供させ、
前記現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられて前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を識別させ、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて個々のスケーリング係数を決定させ、
前記個々のスケーリング係数を乗じた前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成させ、さらに
前記現在画素ブロック(30)に対して、前記候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトル(34)を決定させる
コード手段(210、220、230、240、250、260)を備える、コンピュータプログラム(88)。 - コンピュータ可読コード手段と、前記コンピュータ可読手段に記憶される請求項6から17のいずれか一項に記載のコンピュータプログラムとを備えたコンピュータプログラム製品。
- 複数のカメラ視点(10、20)からの符号化多視点映像の動きベクトル復号装置(200)であって、
前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)を識別する参照フレームインデックスを提供する構造であるインデックスプロバイダ(210)と、
前記現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられて前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を識別する構造であるプレディクタ識別器(220)と、
前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、個々のスケーリング係数を決定する構造であるスケーリング係数決定器(230)と、
前記個々のスケーリング係数を乗じた前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成する構造であるリスト生成器(240)と、
前記現在画素ブロック(30)に対して、前記候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトル(34)を決定する構造であるベクトル決定器(260)と
を備える装置(200)。 - 前記現在画素ブロック(30)に対して、前記現在画素ブロック(30)に関連付けられたプレディクタインデックスに基づいて、前記候補リストから動きベクトルプレディクタを選択する構造であるプレディクタ選択器(250)をさらに備え、前記ベクトル決定器(260)は、前記現在画素ブロック(30)に対して、前記プレディクタ選択器(250)によって選択された前記動きベクトルプレディクタおよび前記現在画素ブロック(30)に関連付けられた残差動きベクトルに基づいて、前記動きベクトル(34)を決定する構造である、請求項19に記載の装置。
- 前記スケーリング係数決定器(230)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記個々のスケーリング係数を決定する構造である、請求項19または20に記載の装置。
- 前記スケーリング係数決定器(230)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記個々のスケーリング係数を決定する構造である、請求項21に記載の装置。
- 前記スケーリング係数決定器(230)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
に基づいて前記個々のスケーリング係数を決定する構造であり、この場合、>>は右シフト演算子であり、
、
、および
であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項19から22のいずれか一項に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161525276P | 2011-08-19 | 2011-08-19 | |
US61/525,276 | 2011-08-19 | ||
PCT/SE2012/050569 WO2013028117A1 (en) | 2011-08-19 | 2012-05-28 | Motion vector processing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014524706A true JP2014524706A (ja) | 2014-09-22 |
Family
ID=46506615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014525966A Pending JP2014524706A (ja) | 2011-08-19 | 2012-05-28 | 動きベクトル処理 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10567786B2 (ja) |
EP (2) | EP2745514A1 (ja) |
JP (1) | JP2014524706A (ja) |
CN (1) | CN103891290B (ja) |
WO (2) | WO2013028116A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017510219A (ja) * | 2014-01-02 | 2017-04-06 | インダストリー−アカデミア、コーオペレイション、グループ、オブ、セジョン、ユニバーシティーIndustry−Academia Cooperation Group Of Sejong University | 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9485517B2 (en) | 2011-04-20 | 2016-11-01 | Qualcomm Incorporated | Motion vector prediction with motion vectors from multiple views in multi-view video coding |
US20130107962A1 (en) * | 2011-10-26 | 2013-05-02 | Intellectual Discovery Co., Ltd. | Scalable video coding method and apparatus using inter prediction mode |
EP2806649A1 (en) * | 2012-01-18 | 2014-11-26 | Electronics and Telecommunications Research Institute | Method and device for encoding and decoding image |
US9503720B2 (en) | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US10200709B2 (en) | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
EA201492098A1 (ru) | 2012-05-14 | 2015-04-30 | Лука Россато | Кодирование и декодирование на основании смешивания последовательностей выборок с течением времени |
US10075728B2 (en) * | 2012-10-01 | 2018-09-11 | Inria Institut National De Recherche En Informatique Et En Automatique | Method and device for motion information prediction refinement |
US10021414B2 (en) | 2013-01-04 | 2018-07-10 | Qualcomm Incorporated | Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures |
US9930363B2 (en) * | 2013-04-12 | 2018-03-27 | Nokia Technologies Oy | Harmonized inter-view and view synthesis prediction for 3D video coding |
US10356426B2 (en) * | 2013-06-27 | 2019-07-16 | Google Llc | Advanced motion estimation |
GB2519513A (en) * | 2013-10-11 | 2015-04-29 | Canon Kk | Method of deriving displacement information in a video coder and a video decoder |
US10554967B2 (en) | 2014-03-21 | 2020-02-04 | Futurewei Technologies, Inc. | Illumination compensation (IC) refinement based on positional pairings among pixels |
US9939253B2 (en) * | 2014-05-22 | 2018-04-10 | Brain Corporation | Apparatus and methods for distance estimation using multiple image sensors |
CN104363451B (zh) * | 2014-10-27 | 2019-01-25 | 华为技术有限公司 | 图像预测方法及相关装置 |
KR102617235B1 (ko) | 2015-08-24 | 2023-12-26 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN105306866A (zh) * | 2015-10-27 | 2016-02-03 | 青岛海信电器股份有限公司 | 帧率转换方法及装置 |
EP3343924A1 (en) * | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
US10515117B2 (en) * | 2017-02-14 | 2019-12-24 | Cisco Technology, Inc. | Generating and reviewing motion metadata |
EP3850850A1 (en) * | 2018-09-14 | 2021-07-21 | Koninklijke KPN N.V. | Video coding based on global motion compensated motion vector predictors |
WO2020053329A1 (en) * | 2018-09-14 | 2020-03-19 | Koninklijke Kpn N.V. | Video coding based on global motion compensated motion vectors |
US11997311B2 (en) | 2018-09-17 | 2024-05-28 | Hfi Innovation Inc. | Methods and apparatuses of combining multiple predictors for block prediction in video coding systems |
JP7164813B2 (ja) * | 2018-11-21 | 2022-11-02 | 日本電信電話株式会社 | 予測装置、予測方法、及びプログラム。 |
CN113170172A (zh) * | 2018-11-21 | 2021-07-23 | 瑞典爱立信有限公司 | 具有子块合并简化的视频图片编码方法及相关装置 |
KR20240024335A (ko) | 2018-11-22 | 2024-02-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브 블록 기반 인터 예측을 위한 조정 방법 |
KR20210103558A (ko) * | 2018-12-28 | 2021-08-23 | 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) | 움직임 벡터 예측자 리스트의 생성 |
CN114208184A (zh) | 2019-08-13 | 2022-03-18 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测中的运动精度 |
WO2021052507A1 (en) | 2019-09-22 | 2021-03-25 | Beijing Bytedance Network Technology Co., Ltd. | Sub-picture coding and decoding of video |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009510892A (ja) * | 2005-09-29 | 2009-03-12 | サムスン エレクトロニクス カンパニー リミテッド | カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100941608B1 (ko) * | 2006-10-17 | 2010-02-11 | 경희대학교 산학협력단 | 다시점 영상의 부호화 및 복호화 방법과 그를 위한 장치 |
CN101170702B (zh) * | 2007-11-23 | 2010-08-11 | 四川虹微技术有限公司 | 多视角视频编码方法 |
US8736767B2 (en) * | 2010-09-29 | 2014-05-27 | Sharp Laboratories Of America, Inc. | Efficient motion vector field estimation |
KR20120118780A (ko) * | 2011-04-19 | 2012-10-29 | 삼성전자주식회사 | 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
AU2012269583B2 (en) * | 2011-06-15 | 2015-11-26 | Hfi Innovation Inc. | Method and apparatus of motion and disparity vector prediction and compensation for 3D video coding |
-
2012
- 2012-05-28 WO PCT/SE2012/050568 patent/WO2013028116A1/en active Application Filing
- 2012-05-28 US US14/238,501 patent/US10567786B2/en not_active Expired - Fee Related
- 2012-05-28 JP JP2014525966A patent/JP2014524706A/ja active Pending
- 2012-05-28 WO PCT/SE2012/050569 patent/WO2013028117A1/en active Application Filing
- 2012-05-28 CN CN201280051363.7A patent/CN103891290B/zh not_active Expired - Fee Related
- 2012-05-28 EP EP12733814.3A patent/EP2745514A1/en not_active Withdrawn
- 2012-05-28 EP EP12733813.5A patent/EP2745513B1/en active Active
- 2012-05-28 US US14/238,494 patent/US9736472B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009510892A (ja) * | 2005-09-29 | 2009-03-12 | サムスン エレクトロニクス カンパニー リミテッド | カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体 |
Non-Patent Citations (2)
Title |
---|
JPN6016009485; J.Jung,G.Laroche: 'Competition-Based Scheme for Motion Vector Selection and Coding' ITU-Telecommunications Standardization Sector STUDY GROUP 16 Question 6 Video Coding Experts Group(V VCEG-AC06, 20060717, P.1-7, ITU-T * |
JPN6016009488; S.Park,J.Park,B.Jeon,S.Sekiguchi,Y.Itani,K.Sugimoto,M.Shou,M.Sinangil,V.Sze: 'A study on simplification of spatial/temporal MVP scaling (CE9 SP01+SP06S2+SP07)' Joint Collaborative Team on Video Coding(JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6&# * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017510219A (ja) * | 2014-01-02 | 2017-04-06 | インダストリー−アカデミア、コーオペレイション、グループ、オブ、セジョン、ユニバーシティーIndustry−Academia Cooperation Group Of Sejong University | 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置 |
Also Published As
Publication number | Publication date |
---|---|
US9736472B2 (en) | 2017-08-15 |
WO2013028117A1 (en) | 2013-02-28 |
EP2745514A1 (en) | 2014-06-25 |
US20140185686A1 (en) | 2014-07-03 |
US20140198856A1 (en) | 2014-07-17 |
WO2013028116A1 (en) | 2013-02-28 |
CN103891290B (zh) | 2018-02-02 |
CN103891290A (zh) | 2014-06-25 |
EP2745513A1 (en) | 2014-06-25 |
EP2745513B1 (en) | 2020-03-11 |
US10567786B2 (en) | 2020-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2745513B1 (en) | Motion vector processing | |
CN112740695B (zh) | 使用间预测处理视频信号的方法和装置 | |
CN110809887B (zh) | 用于多参考预测的运动矢量修正的方法和装置 | |
JP5021739B2 (ja) | 信号処理方法及び装置 | |
TW202005383A (zh) | 部分成本計算 | |
CN111971960B (zh) | 用于基于帧间预测模式处理图像的方法及其装置 | |
JP4663792B2 (ja) | 多視点動映像を符号化及び復号化する装置及び方法 | |
US11949904B2 (en) | Image processing method based on inter prediction mode, and device therefor | |
CN112385213B (zh) | 基于帧间预测模式处理图像的方法和用于该方法的设备 | |
CN111052739A (zh) | 基于帧间预测模式的图像处理的方法和设备 | |
JP6039178B2 (ja) | 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム | |
JP2016501469A (ja) | 3dビデオ符号化における制約される視差ベクトル導出の方法と装置 | |
EP1929783A1 (en) | Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method | |
CN117812256A (zh) | 图像解码设备、图像编码设备和发送设备 | |
CN112449181A (zh) | 一种编解码方法、装置及其设备 | |
JP6232117B2 (ja) | 画像符号化方法、画像復号方法、及び記録媒体 | |
KR101261577B1 (ko) | 다시점 동영상을 부호화 및 복호화하는 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160304 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160614 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161018 |