JP2014524706A - 動きベクトル処理 - Google Patents

動きベクトル処理 Download PDF

Info

Publication number
JP2014524706A
JP2014524706A JP2014525966A JP2014525966A JP2014524706A JP 2014524706 A JP2014524706 A JP 2014524706A JP 2014525966 A JP2014525966 A JP 2014525966A JP 2014525966 A JP2014525966 A JP 2014525966A JP 2014524706 A JP2014524706 A JP 2014524706A
Authority
JP
Japan
Prior art keywords
motion vector
camera viewpoint
current
camera
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014525966A
Other languages
English (en)
Inventor
チワンフェイ ウー,
トーマス ラサート,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2014524706A publication Critical patent/JP2014524706A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

本発明の実施形態は、複数のカメラ視点(10、20)からの多視点映像コンテンツの動きベクトル予測および復号に関する。符号化される現在動きベクトル(34)に対して、少なくとも1つの候補動きベクトルプレディクタ(54、64)が提供される。その後、カメラ視点(10、20)間の基準距離に基づいて決定された個々のスケーリング係数を乗じた少なくとも1つの候補動きベクトルプレディクタ(54、64)から、動きベクトルプレディクタが決定される。それに応じて、復号時に、現在画素ブロック(30)に対して、動きベクトルプレディクタ(現在画素ブロック(30)に対して決定された)に基づいて、動きベクトル(34)が決定される。

Description

本発明の実施形態は、全般的には、動きベクトルの処理に関し、特に、該動きベクトルの予測および復号に関する。
H.264(Moving Picture Experts Group−4(MPEG−4)としても表わされる)は、最先端の映像符号化標準(AVC)である。これは、フレーム間および1フレーム内の冗長性を排除することを利用して、圧縮効率に優れた多くの圧縮技術を使用するハイブリッドコーデックである。符号化処理の出力は、伝送または記憶される前にネットワーク抽象化層(NAL)ユニットにさらにカプセル化された映像符号化層(VCL)データである。
H.264は、ブロックベースであり、すなわち、映像フレームは16×16画素ブロックのマクロブロック(MB)単位で処理され、これはさらにサブマクロブロック(sMB)に分割されてもよい。符号化されるデータ量を最小限に抑えるために、それぞれの非イントラ画素ブロックにおいて動き補償(MC)と呼ばれる技術が使用される。これは、隣接フレーム内の以前に再構成された画素値を使用して、最大限の努力で現在画素ブロックの画素値を予測するものである。現在画素ブロックを予測するために、参照フレーム内の現在画素ブロックと同様の領域がビットストリームでシグナリングされる。予測画素値を残りの画素値に加算することにより最終再構成を行うことができる。参照フレーム内の現在画素ブロックのベストマッチを見つけるために、通常は、エンコーダ側で動き検出が行われる。これは、現在画素ブロックと可能性のある参照画素ブロックとの間の最も小さい差分二乗和(SSD)または差分絶対値和(SAD)を見つけようとするものである。動き検出の結果は、参照する参照フレームに信号伝達する参照インデックスおよび参照領域を指し示す動きベクトル(MV)と呼ばれるオフセットベクトルになる。MVは、映像のビットストリーム内で重要な消費成分である。高い量子化パラメータ(QP)で符号化された映像の場合、そのビットレートは50%超まで消費される可能性がある。
動きベクトル符号化
MVは、MV間の冗長性が利用されるために、直接ビットストリームに符号化されない。隣接するMV間は高い相関関係がある場合が多く、同じ長さおよび方向を有するMVはクラスタリングされる場合が多い。これらのクラスタリングされたMVは、物体が移動している局所動き、またはパンの動きが存在するグローバル動きに対応すると言える。符号化されるそれぞれのMVに対して、最初に、データ量を減らすためにMV予測が行われ、MVとMVプレディクタとの間の差分のみが符号化される。H.264において、画素ブロックから左、上、右上までのMVのメディアン値を求めることによって、メディアンプレディクタが生成される。この処理は、水平成分および垂直MV成分それぞれに対して行われる。
多視点映像符号化
「従来」の映像設備は、1つの表現、すなわち、固定カメラ位置の映像を提供するが、近年では、多視点映像表現がかなり重要性を増してきている。多視点表現は、異なるカメラの視野または視点からのコンテンツを表現するものであり、具体的には、シーンが人の目と同じ距離または同様の距離を有する2つのカメラから撮られる「立体映像」のケースがある。適切な表示技術を使用して視聴者に「立体」のコンテンツを提示することにより、視聴者に奥行き知覚を提供することができる。
MVCは、多視点映像表現を圧縮するのに使用できる映像符号化標準である。異なる層間の情報の冗長性を排除することによって、高い圧縮効率が達成される。MVCはAVC標準に基づくので、MVCはAVC構造のほとんどを共有するものである。
MVC参照ピクチャリスト
MVCとAVCの主な違いは、参照ピクチャリストの処理プロセスである。参照ピクチャリストは、予測に使用できる画像の集合である。画像リストは、通常、現在フレームまでの距離に基づく順序で分類される。AVCでは、リスト内の全ての参照ピクチャは同じ視点からの画像である。MVCでは、同じ視点からの参照ピクチャ以外に、他の視点からの参照ピクチャも存在する。したがって、MVC参照ピクチャリスト構築プロセスの第1のステップはAVCと全く同じであり、後で視点間の参照ピクチャが加えられるという点が異なる。複雑さを考慮すると、他の視点からの時間内の同じインスタンスのフレームをMVCのリストに加えることのみが可能である。
高効率映像符号化(HEVC)
HEVCは、現在標準化過程にある次世代映像符号化標準である。HEVCは、特に、高解像度映像シーケンスに対して、AVCに比べて大幅に符号化を改善することを目的とするものである。HEVC開発は、最初は、白黒映像、すなわち、単一視点に焦点を合わせている。
動きベクトル競合
H.264のメディアンMVプレディクタは、多くの場合、あまり有効でない。VCEG Contribution[1]には、動きベクトル競合と表わされる新技術について記載されている。この技術の重要な概念は、現在MVと高い相関がある場合が多い隣接画素ブロックからMVを取得して、候補MVのリストを作ることである。この場合、隣接画素ブロックは、空間的に隣接するブロック、すなわち、同じフレーム、または時間的に隣接するブロック、すなわち、異なるフレームのいずれかとすることができる。これらの候補MVは、それぞれの参照フレームまでの時間的距離に応じてスケーリングされる。レート歪み(RD)基準に基づくプレディクタになるように、リストから1つの候補MVのみが選択されて、リストに対して対応するインデックスエントリがビットストリームで送信される。一般に、動きベクトル競合は、メディアンMV予測に比べて映像符号化性能を向上させるので、HEVC向けに提案される。
動きベクトル競合では、選択された候補MVは、必ずしもMV予測を行うための現在画素ブロックの参照距離と同じ参照距離を有するとは限らないので、通常、候補リストに入れられる前にスケーリングされる必要がある。用語「参照距離」は、MVを含むフレームとMVが指し示すフレームとの間のピクチャオーダーカウント(POC)の差を指す。図1では、映像シーケンスの表示順であるPOC0〜6で示された7つのフレームがある。図示されている例では、POCが0、1、3、4、5、6のフレームはすでに符号化されたフレームである。POC=2のフレームは、符号化される現在フレームであり、フレーム2の中央の画素ブロックは現在画素ブロックであり、それより上の画素ブロックはすでに符号化されている。現在画素ブロックは、参考としてフレーム0から参照領域を使用するインター予測モードを検証しているところである。図面には、3つの候補MVプレディクタが示されており、これらは現在フレーム内の空間的に隣接する画素ブロックからのMV Bと、それぞれ現在フレームの前後で時間的に配列されたブロックからのMV AおよびMV Cである。これらの候補MVプレディクタが候補リストに採用される前に、スケーリング係数が使用される。スケーリング係数の数式は、以下の通りである。
図1では、CurrDistanceは2−0=2であり、RfDistanceはMV A、MV B、MV Cそれぞれに対して、1−0=1、2−0=2、3−6=−3である。したがって、MV A、MV B、およびMV Cのスケーリング係数はそれぞれ、2/1=2、2/2=1、−2/3である。それぞれの候補MVプレディクタは、計算されたスケーリング係数に応じて拡大または縮小される。これらのスケーリングされたMVプレディクタは、図1の下の部分に示されている。
上述したようなHEVC向けに提案された動きベクトル競合は、白黒映像の場合には効果がある。しかし、動きベクトル競合をHEVCまたは実際MVCで多視点映像シーケンスに適用した場合には問題が生じる可能性がある。
例えば、動きベクトル競合を多視点映像シーケンスに適用した場合、動きベクトルは同じPOCを含むが別の視点のフレームを指し示す可能性がある、または候補MVプレディクタが別の視点の同じPOCを含むフレームを指し示す可能性がある。これらの場合、上記したスケーリング係数の数式の分子および分母それぞれがゼロになる。その結果、それぞれスケーリング係数はゼロまたは不定となる。
さらに、空間的および時間的に隣接する候補MVプレディクタだけでなく他の視点からのMVも使用する可能性がある場合に、候補MVプレディクタを選択する際に圧縮性能が不十分になる可能性がある。
したがって、多視点映像に関して使用するのに適した動きベクトルの効率的な処理の必要性がある。
多視点映像の動きベクトルの効率的な処理を提案することが、本発明の目的である。
本発明の一実施態様は、複数のカメラ視点からの映像コンテンツの多視点映像符号化のための動きベクトル予測方法を定義する。本発明の方法は、現在カメラ視点の現在フレーム内の現在画素ブロックの動きベクトルを推定するステップを含む。動きベクトルは、現在カメラ視点とは異なる参照カメラ視点の参照フレーム内の参照画素領域を識別する。第1のカメラ視点の第1のフレーム内の画素ブロックに関連付けられて前記第1のカメラ視点とは異なる第1の参照カメラ視点の第1の参照フレーム内の画素領域を識別する少なくとも1つの候補動きベクトルプレディクタが提供される。本発明の方法はさらに、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて、少なくとも1つの候補動きベクトルプレディクタのスケーリング係数を決定するステップを含む。スケーリング係数を乗じた候補動きベクトルプレディクタに基づいて、少なくとも1つの候補動きベクトルプレディクタに対してスケーリング済み候補動きベクトルプレディクタが決定される。動きベクトルに対して、少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトルプレディクタが決定される。
本発明の実施態様はさらに、複数のカメラ視点からの映像コンテンツの多視点映像符号化のための動きベクトル予測装置を定義する。本発明の装置は、現在カメラ視点の現在フレーム内の現在画素ブロックの動きベクトルを推定する構造である動きベクトル推定器を備える。動きベクトルは、現在カメラ視点とは異なる参照カメラ視点の参照フレーム内の参照画素領域を識別する。プレディクタプロバイダは、第1のカメラ視点の第1のフレーム内の画素ブロックに関連付けられて第1のカメラ視点とは異なる第1の参照カメラ視点の第1の参照フレーム内の画素領域を識別する少なくとも1つの候補動きベクトルプレディクタを提供する構造である。本発明の装置はさらに、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて、少なくとも1つの候補動きベクトルプレディクタに対してスケーリング係数を決定する構造であるスケーリング係数決定器を備える。スケーリングプレディクタ決定器は、スケーリング係数を乗じた候補動きベクトルプレディクタに基づいて、少なくとも1つの候補動きベクトルプレディクタに対してスケーリング済み候補動きベクトルプレディクタを決定する構造である。プレディクタ決定器は、動きベクトルに対して、少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトルプレディクタを決定する構造である。
本発明の実施態様はさらに、複数のカメラ視点からの映像コンテンツの多視点映像符号化のための動きベクトルを予測するためのコンピュータプログラムを定義する。コンピュータプログラムは、コンピュータ上で実行する際に、コンピュータに現在カメラ視点の現在フレーム内の現在画素ブロックの動きベクトルを推定させるコード化手段を備える。動きベクトルは、現在カメラ視点とは異なる参照カメラ視点の参照フレーム内の参照画素領域を識別する。コンピュータに、第1のカメラ視点の第1のフレーム内の画素ブロックに関連付けられて第1のカメラ視点とは異なる第1の参照カメラ視点の第1の参照フレーム内の画素領域を識別する少なくとも1つの候補動きベクトルプレディクタを提供させる。さらに、コンピュータに、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて、少なくとも1つの候補動きベクトルプレディクタに対してスケーリング係数を決定させる。さらに、コンピュータに、スケーリング係数を乗じた候補動きベクトルプレディクタに基づいて、少なくとも1つの候補動きベクトルプレディクタに対してスケーリング済み候補動きベクトルプレディクタを決定させ、動きベクトルに対して、少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトルプレディクタを決定させる。
本発明の関連する実施態様は、複数のカメラ視点からの符号化された多視点映像の動きベクトル復号方法を定義する。本発明の方法は、現在カメラ視点の現在フレーム内の現在画素ブロックの参照フレームインデックスを提供するステップを含む。参照フレームインデックスは、現在カメラ視点と異なる参照カメラ視点の参照フレームを識別する。第1のカメラ視点の第1のフレーム内の画素ブロックに関連付けられて第1のカメラ視点とは異なる第1の参照カメラ視点の第1の参照フレーム内の画素領域を識別する少なくとも1つの候補動きベクトルプレディクタが、現在画素ブロックに対して識別される。本発明の方法はさらに、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて、少なくとも1つの候補動きベクトルプレディクタに対して、個々のスケーリング係数を決定するステップを含む。個々のスケーリング係数を乗じた少なくとも1つの候補動きベクトルプレディクタに基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストが生成される。本発明の方法はさらに、候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて、現在画素ブロックに対して動きベクトルを決定するステップを含む。
本発明の関連する実施態様はさらに、複数のカメラ視点のからの符号化された多視点映像の動きベクトル復号装置を定義する。本発明の装置は、現在カメラ視点の現在フレーム内の現在画素ブロックの参照フレームインデックスを提供する構造であるインデックスプロバイダを備える。参照フレームインデックスは、現在カメラ視点と異なる参照カメラ視点の参照フレームを識別する。プレディクタ識別器は、現在画素ブロックに対して、第1のカメラ視点の第1のフレーム内の画素ブロックに関連付けられて第1のカメラ視点とは異なる第1の参照カメラ視点の第1の参照フレーム内の画素領域を識別する少なくとも1つの候補動きベクトルプレディクタを識別する構造である。本発明の装置はさらに、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて、少なくとも1つの候補動きベクトルプレディクタに対して、個々のスケーリング係数を決定するスケーリング係数決定器を備える。リスト生成器は、個々のスケーリング係数を乗じた少なくとも1つの候補動きベクトルプレディクタに基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成する構造である。本発明の装置はさらに、候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて、現在画素ブロックに対して動きベクトルを決定する構造であるベクトル決定器を備える。
本発明の関連する実施態様はさらに、複数のカメラ視点のからの符号化された多視点映像の動きベクトル復号のためのコンピュータプログラムを定義する。コンピュータプログラムは、コンピュータ上で実行する際に、コンピュータに現在カメラ視点の現在フレーム内の現在画素ブロックの参照フレームインデックスを提供させるコード化手段を備える。参照フレームインデックスは、現在カメラ視点と異なる参照カメラ視点の参照フレームを識別する。コンピュータに、現在画素ブロックに対して、第1のカメラ視点の第1のフレーム内の画素ブロックに関連付けられて第1のカメラ視点とは異なる第1の参照カメラ視点の第1の参照フレーム内の画素領域を識別する少なくとも1つの候補動きベクトルプレディクタを識別させる。さらに、コンピュータに、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点および第1の参照カメラ視点との間の基準距離に基づいて、少なくとも1つの候補動きベクトルプレディクタに対して、個々のスケーリング係数を決定させる。さらに、コンピュータに、個々のスケーリング係数を乗じた少なくとも1つの候補動きベクトルプレディクタに基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成させ、候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて、現在画素ブロックに対して動きベクトルを決定させる。
基準距離が変化するシナリオであるために、基準距離に基づいてかつ基準距離に比例して候補MVプレディクタのスケーリング係数を決定することは、動きベクトルの符号化効率を向上させる。
本発明、さらに本発明のさらなる目的および利点は、添付図面と併せて以下の説明を参照することで最もよく理解できるであろう。
動きベクトル競合を使用して動きベクトル候補のスケーリング係数を計算する概念を示した概略図である。 異なる動きベクトルのタイプを有する概念を示した概略図である。 カメラ視点間の変化する基準距離の組を示した図である。 一実施形態の動きベクトル予測方法を示したフロー図である。 一実施形態の動きベクトル予測装置の略ブロック図である。 一実施形態の動きベクトル予測のためのコンピュータプログラムを含むコンピュータプログラム製品を備えたコンピュータの略ブロック図である。 多視点映像ストリームの一実施形態の動きベクトル予測を示した図である。 一実施形態の動きベクトル復号方法を示したフロー図である。 一実施形態の動きベクトル復号装置の略ブロック図である。 一実施形態の動きベクトル復号のためのコンピュータプログラムを含むコンピュータプログラム製品を備えたコンピュータの略ブロック図である。 一実施形態のエンコーダの略ブロック図である。 一実施形態のデコーダの略ブロック図である。 一実施形態のユーザ装置によって例示されたメディア端末の略ブロック図である。
図面全体を通して、同じ参照番号は、同様の要素または対応する要素に対して使用されている。
本発明の実施形態は、全般的には、動きベクトルの処理に関し、特に、多視点映像符号化のための動きベクトル予測および符号化された多視点映像の動きベクトル復号に関する。したがって、本発明の実施形態により、異なる視点からのシーンを記録するために複数のカメラ視点が存在する用途において、効率的かつ正確な動きベクトル予測および復号が可能になる。
本発明の実施形態は、有利には、多視点映像符号化および復号化を使用する上述のHEVC標準に適用可能である。さらに、本発明の実施形態は、他の多視点映像の符号化・復号化標準および動きベクトル予測を利用するスキームと共に使用可能である。例えば、本発明の実施形態は、動きベクトル予測および復号を可能にするためにMVCと共に使用される。本発明の実施形態は、有利には、多視点映像符号化および復号にも動きベクトル競合を使用できるようにするために、動きベクトル競合の補完として使用される。
しかし、本明細書の記載されている実施形態は、HEVC、MVC、または実際に動きベクトル競合に限定されない。対照的に、本発明の実施形態は、任意の多視点映像の用途に関する動きベクトルの予測および復号に使用される。
従来の1つの視点による映像符号化では、動きベクトルは、参照時点の参照フレームから現時点の現在フレームまでの画素予測において使用される。同様に、用語「動きベクトル」は、多視点による映像符号化において、現在視点の参照フレームから現在視点の現在フレームまでの予測、すなわち、「純粋な時間予測」について説明するのに使用される場合がある。現時点の参照視点から現時点の現在視点までの画素予測(「純粋な視点間予測」)においては、用語「視差ベクトル」が使用される場合がある。本明細書において、用語「動きベクトル」は、「純粋な時間予測」「純粋な視点間予測」およびこれらを組み合わせた予測、すなわち、例えば、参照時点の参照視点から現時点の現在視点までの画素予測において使用される。
多視点映像符号化に関して動きベクトル予測を適用する際に、例えば、上述の動きベクトル競合を行う際に、種々のタイプの動きベクトルが可能である。これは、図2に概略的に示されている。図2の動きベクトルAは、現在視点における現在フレームから時間的に過去(または時間的に先)の参照フレームの方を指し示している。これは、いわゆる時間的動きベクトルに相当し、通常は、映像コンテンツの真の動きを表わしている。動きベクトルCは、現在フレームの時点であるが別のカメラ視点の参照フレームを指し示している。これは、いわゆる視点間動きベクトルのタイプであり、通常は、2つの視点間、すなわち、視点ゼロと視点1との間の視差を表わしている。動きベクトルBは、現在フレームとは異なる時点であるが別のカメラ視点の参照フレームを指し示している。この動きベクトルは、一般的には、真の動きと視差との組み合わせを表わしており、時間的かつ視点間動きベクトルのタイプと見なされる。さらに任意の変形形態は、いわゆる空間的動きベクトルタイプであり、動きベクトルDで示されている。動きベクトルDは、それ自体が現在フレーム内の符号化画素領域を指し示している。この動きベクトルのタイプは、繰り返しパターンを示すものと考えられる。
多視点映像における動きベクトル予測の問題は、視点間の動きベクトルがカメラ視点間の基準距離に非常に関係するということである。図3は、この概念を示している。この例では、基準距離は、立体表現、すなわち、2つのカメラ視点を有する表現のために変化している。基準距離は、フレーム0、1、2では同じである。基準距離は、フレーム3で増加し始め、フレーム4で最大になり、最後にフレーム6で以前の距離に戻る。視差は、通常、基準距離に比例する。したがって、基準距離に特定の係数を乗じた時に、対応する視差にも同じ係数を乗じる可能性が高くなる。フレーム3の視点間動きベクトルがフレーム2の別の視点間動きベクトルから予測される必要がある場合、基準距離のスケーリングの程度を反映する係数で動きベクトルプレディクタをスケーリングすることは有利である。これは、図4のフロー図に示されている実施形態の態様で達成される。
図4は、この態様の動きベクトル予測方法を示したフロー図である。図4に示されている動きベクトル予測は、複数、すなわち少なくとも2つのカメラ視点10、20からの映像コンテンツの多視点映像符号化(図7参照)に適用される。図7は、2つのカメラ視点10、20による多視点映像符号化の一例を示した図であり、カメラ視点10、20はそれぞれ、画素ブロック30、40、50、60を含む一連のフレーム12、14、16、22、24、26を記録している。図7では、参照番号40、50、60はすでに符号化された画素ブロックを示しており、それぞれの画素領域42、52、62を指し示しているそれぞれの動きベクトル44、54、64はすでに推定されている。
一般的な実施形態では、本発明の方法は、ステップS1において、複数のカメラ視点10、20の現在カメラ視点20の現在フレーム24内の現在画素ブロック30に対して、複数のカメラ視点10、20の参照カメラ視点20の参照フレーム22内の参照画素領域32を識別する動きベクトル34を推定するステップを含む。特定の実施形態では、現在カメラ視点20は、参照カメラ視点20とは異なる。ステップSにおいて、複数のカメラ視点10、20の第1のカメラ視点10、20の第1のフレーム14、26内の画素ブロック50、60に関連付けられた少なくとも1つの候補動きベクトルプレディクタ54、64が提供される。この候補動きベクトルプレディクタ54、64は、複数のカメラ視点10、20の第1のカメラ視点10、20の第1の参照フレーム26、16内の画素領域52、62を識別する。特定の実施形態では、第1のカメラ視点10、20は、第1の参照カメラ視点20、10とは異なる。本発明の方法はさらに、ステップS3において、現在カメラ視点20と参照カメラ視点20との間の基準距離および第1のカメラ視点10、20と第1の参照カメラ視点20、10との間の基準距離に基づいて、少なくとも1つの候補動きベクトルプレディクタ54、64のスケーリング係数を決定するステップを含む。本発明の方法はさらに、ステップS4において、スケーリング係数を乗じた候補動きベクトルプレディクタ54、64に基づいて、少なくとも1つの候補動きベクトルプレディクタ54、64に対してスケーリング済み候補動きベクトルプレディクタを決定するステップを含む。最後に、ステップS5において、少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトル34に対して動きベクトルプレディクタが決定される。
この一般的な実施形態のさまざまな実施形態について、詳述する。
図4の方法は、ステップS1で始まり、現在カメラ視点20の現在フレーム24内で符号化される現在画素ブロック30に対して、動きベクトル34が推定される、または予測される。例えば、動きベクトル34は、先行技術に従って、動きベクトル推定または探索方法で推定される。このような動きベクトル推定は、好ましくは、現在画素ブロック30の画素値を異なる画素領域の画素値と比較することを含む。次に、現在画素ブロック30と候補画素領域との間の最も小さい画素値差(例えば、最も小さいSSDまたはSADを導く)となる候補画素領域が、現在画素ブロック30に対する参照画素領域32として選択される。次に、この参照画素領域32は、少なくとも一部は、動きベクトル34によって、任意でフレームインデックスによって識別される。したがって、ステップS1で識別された動きベクトル34は、現在画素ブロック30に対して参照フレーム22内の参照画素領域32を識別する。参照フレーム22は、現在画素ブロック30と同じ現在カメラ視点20のフレームとすることができるが、この場合、現在カメラ視点20の前フレーム22(または次フレーム26)である(図7参照)。あるいは、参照フレームは、複数のカメラ視点10、20の異なるカメラ視点10に属する。しかし、実際には、参照フレームが現在フレーム24となりえるのは、あまり一般的ではない。
特定の実施形態では、現在カメラ視点20は、参照カメラ視点とは異なる。
本発明の実施形態によれば、ステップS1で予測された動きベクトル34は、直接ビットストリームで符号化されない。対照的に、動きベクトル(MV)プレディクタ54、64が動きベクトル34に対して決定され、MVプレディクタ54、64と動きベクトル34との間の差分または残差のみを符号化する必要がある。このことで、一般に、動きベクトル間の冗長性を利用することによって、より効率的な符号化を実現することができる。以降のステップS2〜S5は、最適なMVプレディクタ54、64を見つけるために、動きベクトル34に対して実行される。
次のステップS2は、動きベクトル34に対して少なくとも1つの候補MVプレディクタ54、64を提供する。それぞれの候補MVプレディクタ54、64は、それぞれの第1のカメラ視点10、20のそれぞれの第1のフレーム14、26内のそれぞれの画素ブロック50、60に関連付けられて、それぞれの第1の参照カメラ視点20、10のそれぞれの第1の参照フレーム26、16内のそれぞれの画素領域52、62を識別する。特定の実施形態では、第1のカメラ視点10、20は、第1の参照カメラ視点20、10とは異なる。
ステップS2は、さまざまな実施形態に応じて行われてよい。一実施形態では、特定の候補動きベクトルプレディクタ54、64は、少なくとも一部は、現在フレーム24内の現在画素ブロック30の位置に基づいて提供されるのが好ましい。特定の実施形態では、ステップS2は、現在動きベクトル34に対して複数の候補動きベクトルプレディクタ44、54、64の組を決定することを含み、この組の決定は、現在画素ブロック30の位置に基づいて行われる。さらに、複数の候補動きベクトルプレディクタ44、54、64の組は、現在画素ブロック30の位置の他に、現在フレーム24の時点および現在カメラ視点20の識別器または数に基づいて決定されるのが好ましい。
複数の候補動きベクトルプレディクタ44、54、64の組は、空間的候補MVプレディクタ、時間的候補MVプレディクタ44、時空間的候補MVプレディクタ54、および視点間候補MVプレディクタ54、64の両方を含むことができる。前者の候補MVプレディクタを選択する方法の例は、文献[1]に記載されている。したがって、複数の候補動きベクトルプレディクタ44、54、64の組の決定は、(i)現在フレーム24内の空間的に隣接する画素ブロック40に関連付けられた動きベクトル44、(ii)現在フレーム24と異なるが現在カメラ視点20に属するフレーム26内の時間的に隣接する画素ブロック62に関連付けられた動きベクトル64、(iii)現在カメラ視点20と異なるカメラ視点10に属するが現在フレーム24の時点に等しい時点を有するフレーム14内の画素ブロック50に関連付けられた動きベクトル54のうちの少なくとも1つに基づいて行われるのが好ましい。特定の実施形態では、さらに、特定の実施形態では、上記組を決定する際に、(iv)現在カメラ視点と異なるカメラ視点に属し、現在フレームの時点と異なる時点を有するフレーム内の画素ブロックに関連付けられた動きベクトルが利用可能である。特定の実施形態では、上記組は、上述の(ii)および(iii)から選択された少なくとも候補MVプレディクタを含む。
別の実施形態では、ステップS2における候補MVプレディクタ54、64の提供は、上述の組のようにステップS1において予測された動きベクトル34と同じMVタイプの候補MVプレディクタのみに限定される。
現在動きベクトル34に対して候補MVプレディクタ54、64を提供する際に、例えば、動きベクトル競合の時に、候補MVプレディクタの提供に制限を課さなければ、最適ではないMVプレディクタが選択される可能性がある。例えば、同じ時点であるが別のカメラ視点によるフレームを指し示す視点間MVタイプの動きベクトルは、通常、動きが含まれない2つのフレームが同時に捕捉されるので、画素の視差を表わす。この場合、一般的には、符号化される現在画素ブロックが現在フレームと同じカメラ視点の前参照フレームまたは次参照フレーム内の画素領域を指し示す動きベクトルを有する時には、視点間動きベクトルタイプの候補MVプレディクタを使用するのは最適ではない。なぜなら、視点間MVタイプの動きベクトルは、一般的に、時間的MVタイプの動きベクトルと相関関係がないからである。その結果、現在動きベクトルに対して「最適な」MVプレディクタが選択されないので、準最適な圧縮性能となる可能性がある。
この特定の実施形態では、図4の方法はさらに、ステップS1で予測された動きベクトル34に対してMVタイプを決定するステップを含む。MVタイプは、複数の所定のMVタイプから決定される。ステップS2におけるMVタイプの決定は、現在カメラ視点20および参照フレーム22のカメラ視点20(ここでは、参照カメラ視点と示されている)に基づいて行われる。代替として、または追加として、MVタイプの決定は、現在フレーム24の時点および参照フレーム22の時点に基づいて行われる。前者の場合、現在カメラ視点20の視点の数または識別子と参照カメラ視点20の視点の数または識別子とが比較される。これらが異なる場合には、動きベクトルは、現在カメラ視点20と異なるカメラ視点の参照フレーム内の画素領域を指し示す。この場合、動きベクトルは、いわゆる視点間MVタイプの動きベクトルとなる。視点識別子が同じで、代わりに参照フレーム22が現在カメラ視点20と同じカメラ視点20に属するものである場合、ステップS1で推定された動きベクトル34は視点間MVタイプの動きベクトルではない。したがって、現在フレーム24の時点と参照フレーム22の時点とが異なる場合、ステップS1で予測された動きベクトル34は、現在フレーム24に時間に対して過去または将来のフレームを指し示す。この場合、動きベクトル34は、いわゆる時間的MVタイプの動きベクトルとなる。
この場合、ステップS2は、現在動きベクトル34に対して、少なくとも1つ、好ましくは複数の候補MVプレディクタ44、54を提供するステップを含む。これらの実施形態によれば、この少なくとも1つの候補MVプレディクタ44、54、64は、決定されたMVタイプのMVプレディクタになるように選択される。したがって、現在動きベクトル34に対して提供された候補MVプレディクタ44、54、64は、現在動きベクトル34と同じMVタイプであるのが好ましい。
一実施形態において、ステップS2は、現在動きベクトル34と同じMVタイプである候補MVプレディクタ44、54、64の決定された組を識別することができる。一実施形態では、これらの識別された候補MVプレディクタ44、54、64の組のみが採用され、現在動きベクトル34のMVタイプと異なるMVタイプの候補MVプレディクタの組はいずれも破棄される。
上述したように、一実施形態では、現在カメラ視点および参照カメラ視点は、複数のカメラ視点の異なるカメラ視点である。この場合、ステップS1で現在画素ブロックに対して予測された動きベクトルは、いわゆる視点間タイプの動きベクトルである、または少なくとも1つの視点間視差成分を含む。
異なるMVタイプの動きベクトルをカテゴリ化および分類し、MVタイプに基づいて候補MVプレディクタ選択を制限することは、評価する必要のなる候補MVプレディクタの量を低減する。このことは複雑さが減少することを意味する。同時に、候補の数を減らすことでインデックス付与されるエントリの総量を少なくすることになり、インデックスおよびMVプレディクタ選択を表わすためにより短いコードワードが割り当てられるため、符号化効率を向上させることができる。
本発明の方法の次のステップS3は、ステップS2で提供された少なくとも1つの候補MVプレディクタに対してスケーリング係数を決定する。本発明の実施形態によれば、スケーリング係数は、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて決定される。基準距離は変化するので、図3で示されているように、基準処理は異なる時点において異なる可能性がある。したがって、現在カメラ視点と参照カメラ視点との間の基準距離は、現在フレームの時点で決定される現在基準距離であるのが好ましい。したがって、第1のカメラ視点と第1の参照カメラ視点との間の基準距離は、第1のフレームの時点で決定される基準距離であるのが好ましい。
次のステップS4は、候補MVプレディクタとステップS3で決定されたスケーリング係数とに基づいて、現在候補MVプレディクタに対してスケーリング済み候補MVプレディクタを決定する。特定の実施形態では、スケーリング済み候補MVプレディクタは、スケーリング係数を乗じた候補MVプレディクタに基づいて決定され、好ましくは、スケーリング係数を乗じた候補MVプレディクタに等しい。スケーリング済み候補MVプレディクタは、一般的には、候補MVプレディクタの拡大または縮小されたバージョンであり、場合によっては、候補MVプレディクタと比べて反対方向を指し示す。
この場合、ステップS2〜ステップS4までのループは、全ての候補MVプレディクタに対して繰り返されるのが好ましい。これは、ラインL1で概略的に示されている。したがて、この場合、それぞれのスケーリング係数は、現在動きベクトルに対して提供された個々の候補MVプレディクタに対して決定されるのが好ましい。これらのスケーリング係数は、ステップS4で使用されて、個々の候補MVプレディクタにそれぞれのスケーリング係数を乗じることによってそれぞれの候補MVプレディクタを拡大または縮小する。
最後に、ステップS5は、現在動きベクトルに対して、ステップS4で取得された少なくとも1つのスケーリング済み候補MVプレディクタに基づいて、MVプレディクタを決定する。
MVプレディクタとして使用するための特定のスケーリング済み候補MVプレディクタは、例えば、選択されたMVプレディクタをシグナリングする追加のコストと、より正確なMV予測によって得られる利得とのトレードオフを反映するレート歪み基準に基づいて、決定することができる。本発明の実施形態に従って使用可能であるこのレート歪み基準の例は、先行技術文献[1]の3.1.2章に示されており、適切なレート歪み基準に関する教示内容は、参照によって本願明細書に引用したものとする。ステップS5においてMVプレディクタを決定する際に、レート歪み基準以外の他の基準、例えば、純粋な品質測定法(例えば、SSDまたはSAD)を使用することも可能である。
動きベクトルは、x座標もしくは水平成分と、y座標もしくは垂直成分とを備える。図4の方法は、両方のベクトル成分に対して動きベクトルプレディクタを見つけるために複合過程で使用可能である。代替方法では、2つの成分は別々に処理される。この場合、図4のステップS2〜S5は、それぞれのベクトル成分に対して連続してまたは並行して行うことができる。この場合、本発明の方法の結果、動きベクトルの水平成分に対しては第1のMVプレディクタ、垂直成分に対しては第2のMVプレディクタが得られる。
現在動きベクトルに対してステップS5で決定されたMVプレディクタは、その後、残差動きベクトルを計算するのに使用されてもよい。したがって、残差動きベクトルは、動きベクトルとMVプレディクタとに基づいて、好ましくは、これらの差分として計算される。
他の実施形態では、例えば、スキップモードでは、残差動きベクトルは計算されない。したがって、スキップモードでは、デコーダは、現在画素ブロックに対して動きベクトルをリファインするために、MV差分もしくはMV残差を使用せずに、現在画素ブロックに対して決定されたMVプレディクタを使用することになる。
いくつかのまれなケースでは、適切な候補MVプレディクタが利用できないことが起こり得る。したがって、全ての候補MVプレディクタの組は現在画素ブロックおよび動きベクトルに対して決定されたMVタイプとは異なるMVタイプである。この場合、代わりにデフォルトMVプレディクタが使用されてもよい。このデフォルトMVプレディクタの典型的な例は、ゼロベクトル(0,0)とすることができる。
特定の実施形態では、ステップS3におけるスケーリング係数の決定は、現在カメラ視点と参照カメラ視点との間の基準距離と、第1のカメラ視点と第1の参照カメラ視点との間の基準距離との商に基づいてスケーリング係数を決定することを含む。
まれなケースでは、現在カメラ視点と参照カメラ視点との間の基準距離または第1のカメラ視点と第1の参照カメラ視点との間の基準距離がゼロであるということが起こり得る。その結果、スケーリング係数が基準距離の商に基づいて決定される場合に、スケーリング係数がゼロまたは不定になる。この場合、スケーリング係数は、固定の所定値、例えば、1に等しくなるように決定されるのが好ましい。したがって、最適な実施形態では、本発明の方法はさらに、現在カメラ視点と参照カメラ視点との間の基準距離をゼロと比較し、第1のカメラ視点と第1の参照カメラ視点との間の基準距離をゼロと比較するステップとを含む。基準距離のいずれかがゼロである場合、ステップS3は固定の所定値、好ましくは1に等しいスケーリング係数を決定する。いずれの基準距離もゼロでない場合には、ステップS3は基準距離に基づいて、例えば、それらの商に基づいてスケーリング係数を決定する。
特定の実施形態では、ステップS3で決定されたスケーリング係数は、現在カメラ視点、参照カメラ視点、第1のカメラ視点、および第1の参照カメラ視点の視点順インデックスを使用して計算される。一実施形態では、視点順インデックスは、カウンタのように、左から右にカメラ視点をカウントする。カメラ間隔が均一である場合、2つの視点順インデックス間の差分は正規化基準距離に等しい。
したがって、この実施形態では、基準距離は、現在カメラ視点のカメラ視点インデックス(CVOIdx)と参照カメラ視点のカメラ視点インデックス(RfVOIdx)との差分に基づいて、また第1のカメラ視点のカメラ視点インデックス(FVOIdx)と第1の参照カメラ視点のカメラ視点インデックス(FRfVOIdx)との差分に基づいて決定されるのが好ましい。一実施形態では、スケーリング係数は、ステップS3において、
に基づいて決定される。この場合、

である。
特定の実施形態において、基準距離のクリッピングが行われ、例えば、
、および
になる。クリッピング関数
は、
の場合に
を出力し、
の場合に
を出力し、それ以外の場合に
を出力する。
一実施形態では、スケーリング係数は、ステップS3において、
に基づいて決定される。この場合、>>は右シフト演算子であり、
である。例えば、
のように、任意でクリッピングが行われてもよい。
別の特定の実施形態では、少なくとも1つの候補MVプレディクタに対して、合成または多成分のスケーリング係数を決定することができる。このスケーリング係数は、この場合、好ましくは、
に基づいて決定されてもよい。この場合、
は現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて決定され、
である。CVは現在カメラ視点であり、RVは参照カメラ視点であり、V1は第1のカメラ視点であり、RV1は第1の参照カメラ視点である。好適な実施形態では、
であり、別の実施形態では、
である。この場合、
は現在カメラ視点と参照カメラ視点との間の基準距離であり、
は第1のカメラ視点と第1の参照カメラ視点との間の基準距離である。
カメラ視点パラメータは、一般に、カメラ視点の識別子または数であり、現在カメラ視点、参照カメラ視点、および第1のフレームならびに第1の参照フレームのカメラ視点の幾何学的関係に基づいて決定される。例えば、カメラ視点は、カメラ位置がインデックスに対して直線的に変化する場合、線形にインデックス付与される、または番号付けされる。より一般的には、カメラ視点パラメータは、例えば、カメラ距離に基づいて、任意で、カメラの傾斜や回転を処理するために三次元形状を含む幾何学的カメラ位置に基づいて定義される。
均一なカメラ間隔で、カメラ視点に沿って、例えば、左から右またはその逆に移動するとカメラ視点が増加する特殊な場合には、上述のパラメータ


は、実際には、現在カメラ視点と参照カメラ視点との間の基準距離と、第1のカメラ視点と第1の参照カメラ視点との間の基準距離との商を表わすことになる。この場合、好ましくは、合成スケーリング係数
が計算されず、候補MVプレディクタに対するスケーリング係数としてパラメータ
またはパラメータ
が計算される。
上述の実施形態のいずれかと組み合わせることができる別の実施形態では、ステップS3において、基本的には、少なくとも、基準距離に依存する第1のスケーリング係数と、例えば、現在フレームのPOC値(現在POC)、参照フレームのPOC値(参照POC)、第1のフレームのPOC値(第1のPOC)、および第1の参照フレームのPOC値(第1の参照POC)における差のような参照距離に依存する第2のスケーリング係数とを含む合成スケーリング係数が決定される。
一実施形態では、本発明の方法は、現在POCを参照POCと比較し、第1のPOCを第1の参照POCと比較するステップを含む。現在POCが参照POCと異なり、第1のPOCが第1の参照POCと異なる場合、ステップS3は、好ましくは、
に基づいてスケーリング係数を計算することを含む。パラメータ
は、上述したように、基準距離に基づいて決定されるが、パラメータ
はPOC値に基づいて決定される。特に。特定の実施形態では、
である。
動きベクトル予測を多視点映像符号化に適用する際の先行技術の問題は、先行技術のMV予測で使用される上述のスケーリング関係式は、現在フレーム、参照フレームおよびMVプレディクタのフレームのPOC値によって、スケーリング係数がゼロまたは不定になる可能性があるということである。上述の実施形態では、まず、
、かつ
を検証するのが好ましい。
一実施形態では、
および/または
である場合、ステップS3は、
に基づいてスケーリング係数を決定するのが好ましい。このパラメータ
は、この場合、固定の所定値であり、好ましくは、1である。パラメータ
は、上述したように決定される。
基準距離(パラメータ
)および参照距離(パラメータ
またはパラメータ
)に基づいてスケーリング係数を決定する上述の実施形態は、さらに視点距離(パラメータ
)に基づく決定の基準と組み合わされて、例えば、
または
に基づいて決定されてもよい。
現在視点間動きベクトルが視点間MVプレディクタから予測され、先行技術のスケーリング係数の計算式を適用する場合、スケーリング係数はゼロとなり、ひいてはゼロMVプレディクタが得られ、これは通常、望ましくない。さらに悪いことには、ゼロ除算が生じて、その結果が未解決値(unresolved value)となり、コーダのクラッシュにつながる可能性がある。上述の実施形態は、それ以外の問題が生じる可能性のある特別な場合にスケーリング係数を固定の所定値に設定することによって、これらの問題を解消する。
図5は、第3の態様の多視点映像符号化のためのMV予測装置100の一実施形態の概略ブロック図である。装置100は、現在カメラ視点の現在フレーム内の現在画素ブロックに対して動きベクトルを推定または予測する構造であるMV推定器または予測器110を備える。推定された動きベクトルは、本明細書において上述したように、参照カメラ視点の参照フレーム内の参照画素領域を識別する。現在カメラ視点と参照カメラ視点は、一実施形態においては、異なるカメラ視点である。
プレディクタプロバイダ120は、第1のカメラ視点の第1のフレーム内の画素ブロックに関連付けられて第1の参照カメラ視点の第1の参照フレーム内の画素領域を識別する少なくとも1つの候補動きベクトルプレディクタを提供する構造である。プレディクタプロバイダ120は、好ましくは、上述の組から少なくとも1つの候補MVを提供する。一実施形態では、プレディクタプロバイダ120は、MVタイプに基づいて候補MVプレディクタを区別せずに候補MVプレディクタを提供することができる。代替の方法では、プレディクタプロバイダ120は、MVプレディクタ110によって予測された動きベクトルに対して複数の所定のMVタイプからMVタイプを決定する。プレディクタプロバイダ120は、上述したように、現在カメラ視点、参照フレームのカメラ視点、現在フレームの時点、および参照フレームの時点のうちの少なくとも1つに基づいて、MVタイプの決定を実行する。この場合、プレディクタプロバイダ120は、好ましくは、決定されたMVタイプの少なくとも1つの候補MVプレディクタを提供する。
装置100はさらに、プレディクタプロバイダ120によって提供された少なくとも1つの候補MVプレディクタに対して、個々のスケーリング係数を決定する構造であるSF決定器130を備える。SF決定器130は、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて、スケーリング係数を決定する構造である。
SF決定器130によって決定されたスケーリング係数は、その後、関連候補MVプレディクタをスケーリングするのに使用されて、スケーリング済みプレディクタ決定器140によってスケーリング済み候補MVプレディクタが形成される。このスケーリング済み候補MVプレディクタは、好ましくは、決定されたスケーリング係数を候補MVプレディクタに乗じることによって得られる。プレディクタ決定器150は、その後 スケール済みプレディクタ決定器40により決定されるスケーリング済み候補MVプレディクタのうち、動きベクトルに対してMVプレディクタを決定する。プレディクタ決定器150は、好ましくは、上述のレート歪みメトリックまたは基準に基づいて、この動きベクトル決定または選択を実行する。
特定の実施形態では、SF決定器130は、現在カメラ視点と参照カメラ視点との間の基準距離と、第1のカメラ視点と第1の参照カメラ視点との間の基準距離との商に基づいてスケーリング係数を決定する構造である。
任意の実施形態では、SF決定器130は、基準距離をゼロと比較し、基準距離のいずれかがゼロに等しい場合には、SF決定器130は、固定の所定値、例えば1に等しいスケーリング係数を決定する。
特定の実施形態では、SF決定器130は、商
に基づいて、例えば、
に基づいて、スケーリング係数を決定する構造である。任意で、上述したように、SF決定器130によって、パラメータ
およびスケーリング係数に対してクリッピングが行われてもよい。
種々の実施形態において、SF決定器130は、スケーリング係数を視点距離と基準距離の関数にするために、
に基づいて、または
に等しいスケーリング係数を決定する、またはスケーリング係数を参照距離と基準距離の関数にするために、
もしくは
に基づいて、または
もしくは
に等しいスケーリング係数を決定する、またはスケーリング係数を参照距離、視点距離、および基準距離の関数にするために、
もしくは
に基づいて、または
もしくは
に等しいスケーリング係数を決定する構造にすることができる。
装置100は、任意で、現在動きベクトルとプレディクタ決定器150によって決定された動きベクトルプレディクタとに基づいて、残差動きベクトルを計算する構造であるベクトル計算器170を備える。
任意の実施形態では、装置100は、現在カメラ視点、参照カメラ視点、第1のフレームのカメラ視点、および第1の参照フレームのカメラ視点の幾何学的関係に基づいて、視点パラメータCV、RV、V1、およびRV1を決定する構造である任意パラメータ決定器160を備える。
装置100は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組み合わせに実装可能である。装置100は、例えば、携帯電話、タブレット、デスクトップ、ノート型パソコン、マルチメディアプレイヤ、ビデオ・ストリーミング・サーバ、セットトップボックス、またはコンピュータのようなユーザ装置に実装可能である。また、装置100は、通信ネットワークまたは通信システム内の無線基地局のようなネットワークノードの形のネットワーク装置、またはネットワークノードに接続されたネットワーク装置に実装されてもよい。装置100は、有利には、多視点映像コンテンツを符号化するエンコーダの一部として実装される。
図5に関して説明したそれぞれのユニット110〜170は装置100内の物理的に別個のユニット110〜170として示され、全てがASIC(特定用途向け集積回路)のような特殊目的の回路とすることができるが、装置100の代替形態も可能である。代替形態は、ユニット110〜170の一部または全てが、汎用プロセッサ上で実行するコンピュータ・プログラム・モジュールとして実装されるものである。この実施形態は、図6に示されている。
図6は、DSP(デジタル・シグナル・プロセッサ)またはCPU(中央処理ユニット)のような処理ユニット74を有するコンピュータ70の一実施形態を示した図である。処理ユニット74は、本明細書で説明する方法の異なるステップを実行するための単一ユニットまたは複数のユニットとすることができる。コンピュータ70はさらに、複数の視点の記録または生成された映像フレームを受信して、動きベクトルプレディクタまたは符号化された多視点映像コンテンツの符号化ビットストリームを出力するための入出力(I/O)ユニット76を備える。図6では、I/Oユニット76は単一のユニットとして示されているが、別個の入力ユニットと別個の出力ユニットの形にすることも可能である。
さらに、コンピュータ70は、例えば、EEPROM(電気的消去可能プログラム可能なROM)、フラッシュメモリ、またはディスクドライブのような不揮発メモリ72の形態の少なくとも1つのコンピュータプラグラム製品を備える。コンピュータプログラム製品は、コンピュータ70上で実行する時またはコンピュータ70によって、例えば、処理ユニット74によって実行される時に、コンピュータ70に図4に関して上述した方法のステップを実行させるコード手段を含むコンピュータプログラム78を備える。したがって、一実施形態では、コンピュータプログラム78内のコード手段は、動きベクトルを推定するまたは予測するためのMV推定モジュールもしくは予測モジュール、またはMV推定器もしくはMV予測器110と、少なくとも1つの候補MVプレディクタを提供するためのプレディクタ提供モジュールもしくはプレディクタプロバイダ120と、スケーリング係数を決定するためのSF決定モジュールもしくはSF決定器130と、スケーリング済み候補MVプレディクタを決定するためのスケーリング済みプレディクタ決定モジュールもしくはスケーリング済みプレディクタ決定器140と、MVプレディクタを決定するためのプレディクタ決定モジュールもしくはプレディクタ決定器150とを備える。これらのモジュール110〜150は、基本的には、処理ユニット74上で実行する時に、図4のフロー図のステップを実行する。したがって、異なるモジュール110〜150は、処理ユニット74上で実行される時に、図5の対応ユニット110〜150に対応する。
コンピュータプログラム78は、図5に関して開示したように、ベクトル計算モジュールもしくはベクトル計算器および/またはパラメータ決定モジュールもしくはパラメータ決定器をさらに含んでもよい。
本発明の関連する実施態様は、符号化された多視点映像の動きベクトル復号方法を定義する。図8は、その復号方法のフロー図である。本発明の方法は、ステップS10において、現在カメラ視点の現在フレーム内の復号される現在画素ブロックに対する参照フレームインデックスを提供することで始まる。この参照フレームインデックスは、現在画素ブロックに対する参照フレームを識別し、この場合、この参照フレームは、復号時に現在画素ブロックに対するプレディクタとして使用される画素領域を含む。参照フレームインデックスは、通常、ビットストリームから、より詳細には、現在画素ブロックの符号化表現または現在フレームの符号化表現から取得される。
次のステップS11は、現在画素ブロックに対する少なくとも1つの候補MVプレディクタを識別する。このステップS11は、基本的には、図4のステップS2に関して上述した方法と同様に行われる。したがって、特定の実施形態では、現在フレーム内の復号される現在画素ブロックの位置、現在フレームの時点、および現在カメラ視点に基づいて、少なくとも1つ(複数であるのが好ましい)の候補MVプレディクタの組が提供される。ステップS11は、MVタイプに関係なく実行可能である。代替の方法では、(i)現在カメラ視点および参照カメラ視点、および/または(ii)現在フレームの時点および参照フレームの時点に基づいて、現在画素ブロックに対してMVタイプが決定される。この場合、ステップS11における少なくとも1つの候補MVプレディクタの識別は、決定されたMVタイプの候補MVプレディクタのみの中で行われるのが好ましい。
次のステップS12は、それぞれの識別された候補MVプレディクタに対して個々のスケーリング係数を決定する。このスケーリング係数は、現在カメラ視点と参照カメラ視点との間の基準距離および第1のカメラ視点と第1の参照カメラ視点との間の基準距離に基づいて決定される。ステップS12は、基本的には、図4のステップS3に関して上述した方法と同様に行われる。次のステップS13は、候補MVプレディクタとステップS12において候補MVプレディクタに対して決定されたスケーリング係数とに基づいて得られた少なくとも1つのスケーリング済み候補MVプレディクタの候補リストを生成する。このスケーリング済みMVプレディクタは、ステップS12において候補MVプレディクタに対して決定されたスケーリング係数を候補MVプレディクタに乗じることによって得られる。
最後に、ステップS15は、ステップS13において生成された候補リストのスケーリング済み候補MVプレディクタに基づいて、現在画素ブロックに対する動きベクトルを決定する。ステップS15において決定された動きベクトルにより、現在画素ブロックに対するプレディクタとして使用される参照フレーム内の画素領域を識別することができる。したがって、現在画素ブロックの画素値が、ビットストリームから得られた、好ましくは、現在画素ブロックの符号化表現から得られた残差画素値に識別画素領域の画素値を加算することによって求められるのが好ましい。
特定の実施形態では、図8の方法は、さらにステップS14を含む。この任意のステップS14は、候補リストに列挙されている少なくとも1つのスケーリング済み候補MVプレディクタから、現在画素ブロックに対するMVプレディクタを選択する。このMVプレディクタは、好ましくは、現在画素ブロックに関連付けられ、ビットストリームに含まれている、例えば、現在画素ブロックの符号化表現に含まれているプレディクタインデックスに基づいて選択される。この場合、ステップS15は、ステップS14において選択されたMVプレディクタおよび現在画素ブロックに関連付けられた残差動きベクトルに基づいて、現在画素ブロックに対して動きベクトルを決定する。この残差動きベクトルは、ビットストリームから、好ましくは、現在画素ブロックの符号化表現から取得される。
他の実施形態では、ビットストリーム内に現在画素ブロックに対する残差動きベクトルは含まれない。例えば、スキップモードによれば、画素ブロックに対するMVプレディクタをリファインする残差動きベクトルは存在しない。それに対して、ステップS13において生成された候補リストからの1つまたは複数のスケーリング済みMVプレディクタは、画素ブロックに対してステップS15において決定される動きベクトルの基準として使用されることになる。例えば、候補リストは、現在フレーム内の空間的に隣接する画素ブロックに関連付けられ、現在フレーム以外で現在カメラ視点内の他のフレーム内の時間的に隣接する画素ブロックに関連付けられ、および/または現在フレームと同じ時点を有するが現在カメラ視点以外の他のカメラ視点に属するフレーム内にある画素ブロックに関連付けられたスケーリング済み動きベクトルを含むことができる。この場合、画素ブロックの動きベクトルは、本明細書に記載されているように、個々のスケーリング係数を乗じた候補MVプレディクタの少なくとも1つに基づいて決定される。一実施形態では、動きベクトルは、少なくとも1つの候補MVプレディクタのメディアンMVもしくは少なくとも1つの候補MVプレディクタの平均MVに等しくまたは少なくとも基づいて決定される。したがって、一実施形態では、ステップS15において決定されるMVは、H.264メディアンプレディクタとなるが、このH.264メディアンプレディクタは、基準距離に基づくスケーリング係数によってスケーリングされる。
ステップS12において決定されるスケーリング係数は、上述したように、基準距離の商に基づいて決定されるのが好ましい。任意の実施形態では、本発明の方法はさらに、基準距離をゼロと比較するステップを含む。いずれかの基準距離がゼロに等しい場合、ステップS12は、好ましくは上述したように、特定の候補MVプレディクタに対して、固定の所定値、例えば1に等しいスケーリング係数を決定する。
ステップS12の一実施形態では、スケーリング係数は、商
に基づいて、例えば、
に基づいて決定される。上述したように、任意で、ステップS12において、パラメータ
およびスケーリング係数に対してクリッピングが行われてもよい。
特定の実施形態では、スケーリング係数は、上述したように、基準距離だけでなく、さらに参照距離および/または視点距離に基づく、すなわち、



または
に基づく、好ましくは



または
に等しい合成スケーリング係数になるように決定される。
図9は、符号化された多視点映像の動きベクトル復号装置200の概略ブロック図である。装置200は、現在カメラ視点の現在フレーム内の復号される現在画素ブロックに対して参照フレームインデックスを提供する構造であるインデックスプロバイダ210を備える。インデックスプロバイダ210は、一般的には、ビットストリームから、特に、画素ブロックの符号化表現または現在フレームの符号化表現からこの参照フレームインデックスを取得する。この参照フレームインデックスは、現在画素ブロックの画素値に対するプレディクタとして使用される画素領域を含む参照フレームを識別するために使用される。
プレディクタ識別器220は、上述したように、少なくとも1つの候補MVプレディクタを識別するまたは提供するために、装置200内に実装される。一実施形態では、プレディクタ識別器220は、現在フレーム内の現在画素ブロックの位置、現在フレームの時点、および現在カメラ視点に基づいて、候補MVプレディクタの組を提供する。プレディクタ識別器220は、MVタイプに関係なく候補MVプレディクタを識別してもよいし、または最初に現在画素ブロックに対する動きベクトルのMVタイプを決定してもよい。後者の場合、好ましくはこうして決定されたMVタイプの候補MVプレディクタのみがプレディクタ識別器220によって識別される。
装置200のSF決定器230は、上述したように、図5のSF決定器130に関連して動作する。したがって、SF決定器230は、プレディクタ識別器220によって識別された候補MVプレディクタに対してスケーリング係数を決定するが、この場合、これらのスケーリング係数は、カメラ視点の基準距離に基づいて決定される。
SF決定器230は、好ましくは、現在視点と参照視点との間の基準距離と、第1のフレームと第1の参照フレームとの間の基準距離との商としてスケーリング係数を決定する。SF決定器230は、任意で、基準距離をゼロと比較し、基準距離のいずれかがゼロに等しい場合、SF決定器230は、所定の固定値、例えば1に等しいスケーリング係数を決定する。
SF決定器230は、スケーリング係数は、商
に基づいて、例えば、
に基づいてスケーリング係数を決定することができる。上述したように、任意で、SF決定器230によって、パラメータ
およびスケーリング係数に対してクリッピングが行われてもよい。
さらに、SF決定器230は、上述のように、参照距離(
または
)および/または視点距離(

および
のうちの一方)に基づいて、スケーリング係数を決定してもよい。
リスト生成器240は、その後、個々のスケーリング係数を乗じた少なくとも1つの候補MVプレディクタに基づいて形成された少なくとも1つ(しかし、複数が好ましい)のスケーリング済み候補MVプレディクタを含む候補リストを生成する。装置200はさらに、候補リストのスケーリング済み候補MVプレディクタに基づいて、現在画素ブロックに対する動きベクトルを決定する構造であるベクトル決定器260を備える。
特定の実施形態では、装置200は、リスト生成器240によって生成された候補リストから現在画素ブロックに対するMVプレディクタを選択する構造であるプレディクタ選択器250を備える。プレディクタ選択器250は、有利には、ビットストリームから、例えば、現在画素ブロックの符号化表現からプレディクタインデックスを取得して、復号する。このプレディクタインデックスは、その後、候補リストからMVプレディクタを選択するために使用される。この実施形態では、ベクトル決定器260は、プレディクタ選択器250によって選択されたMVプレディクタと、現在画素ブロックに関連付けられ、好ましくは、符号化ビットストリームから、例えば、上述したように、現在画素ブロックの符号化表現から取得された残差動きベクトルとに基づいて、現在画素ブロックに対する動きベクトルを決定する構造である。
他の実施形態では、例えば、スキップ復号モードで動作する時に、ベクトル決定器260は、好ましくは、上述したようなMV残差を利用せずに動きベクトルを決定する。
SF決定器230は、任意で、上述の合成スケーリング係数または基準距離だけでなく参照距離および/または視点距離にも依存するスケーリング係数を決定する。
任意パラメータ決定器270は、装置200に実装されて、図5のパラメータ決定器160に関して上述したように動作する。
装置200は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組み合わせに実装可能である。装置200は、例えば、携帯電話、タブレット、デスクトップ、ノート型パソコン、マルチメディアプレイヤ、ビデオ・ストリーミング・サーバ、セットトップボックス、またはコンピュータのようなユーザ装置に実装可能である。また、装置200は、通信ネットワークまたは通信システム内の無線基地局のようなネットワークノードの形のネットワーク装置、またはネットワークノードに接続されたネットワーク装置に実装されてもよい。装置200は、有利には、符号化された多視点映像コンテンツを復号するデコーダの一部として実装される。
図9に関して説明されているそれぞれのユニット210〜270は、装置200内の物理的に別個のユニット210〜270として示され、全てがASIC(特定用途向け集積回路)のような特殊目的の回路とすることができるが、装置200の代替形態も可能である。代替形態は、ユニット210〜270の一部または全てが、汎用プロセッサ上で実行するコンピュータ・プログラム・モジュールとして実装されるものである。この実施形態は、図10に示されている。
図10は、図6は、DSP(デジタル・シグナル・プロセッサ)またはCPU(中央処理ユニット)のような処理ユニット84を有するコンピュータ80の一実施形態を示した図である。処理ユニット84は、本明細書で説明する方法の異なるステップを実行するための単一ユニットまたは複数のユニットとすることができる。コンピュータ80はさらに、符号化画素ブロック表現の符号化ビットストリームを受信して、決定された動きベクトルまたは復号化された画素値を出力するための入出力(I/O)ユニット86を備える。図10では、I/Oユニット86は単一のユニットとして示されているが、別個の入力ユニットと別個の出力ユニットの形にすることも可能である。
さらに、コンピュータ80は、例えば、EEPROM(電気的消去可能プログラム可能なROM)、フラッシュメモリ、またはディスクドライブのような不揮発メモリ82の形態の少なくとも1つのコンピュータプラグラム製品を備える。コンピュータプログラム製品は、コンピュータ80上で実行する時またはコンピュータ80によって、例えば、処理ユニット84によって実行される時に、コンピュータ80に図8に関して上述した方法のステップを実行させるコード手段を含むコンピュータプログラム88を備える。したがって、一実施形態では、コンピュータプログラム88内のコード手段は、参照フレームインデックスを提供するためのインデックス提供モジュールもしくはインデックスプロバイダ210と、候補MVプレディクタを識別するためのプレディクタ識別モジュールもしくはプレディクタ識別器220と、スケーリング係数を決定するためのSF決定モジュールもしくはSF決定器230と、候補リストを生成するためのリスト生成モジュールもしくはリスト生成器240と、MVプレディクタを選択するための任意のプレディクタ選択モジュールもしくはプレディクタ選択器250と、動きベクトルを決定するためのベクトル決定モジュールもしくはベクトル決定器260とを備える。これらのモジュール210〜260は、基本的には、処理ユニット84上で実行する時に、図8のフロー図のステップを実行する。したがって、異なるモジュール210〜260は、処理ユニット84上で実行される時に、図9の対応ユニット210〜260に対応する。
コンピュータプログラム88はさらに、図9に関して説明したようなパラメータ決定モジュールもしくはパラメータ決定器を備えてもよい。
図11は、一実施形態による多視点映像の画素ブロックを符号化するためのエンコーダの概略ブロック図である。
現在画素ブロックは、動き推定器もしくは動き予測器によって、現在カメラ視点または別のカメラ視点の同じフレーム内または前フレーム内のすでに提供された画素ブロックから、動き予測または動き推定を実行することによって予測される。動き予測の結果は、インター予測の場合、参照フレーム内の画素領域を識別する動きベクトルとなる。動きベクトルは、画素ブロックのインター予測を出力するために動き補償器によって利用される。
イントラ予測器は、現在画素ブロックのイントラ予測を計算する。動き推定器/補償器およびイントラ予測器からの出力は、現在画素ブロックに対してイントラ予測またはインター予測のいずれかを選択する選択器への入力となる。選択器からの出力は、さらに現在画素ブロックの画素値を受信する加算器の形態の誤差計算器への入力となる。加算器は、現在画素ブロックの画素値とそのプレディクタの画素値と間の差として残差誤差を計算して出力する。
誤差は、変換器内で、例えば、離散コサイン変換によって変換され、量子化器によって量子化されて、エンコーダ内で、例えば、エントロピーエンコーダによって符号化される。インター符号化では、さらに、現在画素ブロックの符号化表現を生成するために、推定された動きベクトルがエンコーダに提供される。この(エントロピー)エンコーダは、この場合、図5のMV予測のための装置のユニットの少なくとも一部を備えるか、または図6に示されているプログラムで動作することができる。MV予測のためのこの装置のMCプレディクタは、動き推定器/補償器として実装可能である。
現在画素ブロックに対する変換され量子化された残差誤差は、さらに元の残差誤差を取得するために逆量子化器および逆変換器に提供される。この誤差は、加算器によって動き補償器またはイントラ予測器からの画素ブロックプレディクタ出力に加算されて、次の画素ブロックの予測および符号化に使用することができる参照画素ブロックが作成される。この新規参照ブロックは、任意で、非ブロック化フィルタリングが適用されるか否か、適用される場合には、どのタイプの非ブロック化フィルタを使用すべきかを決定するために、最初にフィルタリング制御装置によって処理される。処理された新規参照画素ブロックは、その後、一時的に、イントラ予測器および動き推定器/補償器が利用できるフレームバッファに記憶される。
図12は、一実施形態のデコーダの対応概略ブロック図である。デコーダは、量子化および変換残差誤差の組を取得するために、画素ブロックの符号化表現を復号するためのデコーダ、例えば、エントロピーデコーダを備える。デコーダは、好ましくは、図9の動きベクトル復号装置を備えるか、または図10に示されているプログラムで動作することができる。これらの量子化および変換残差誤差は、残差誤差の組を取得するために、逆量子化器内で逆量子化され、逆変換器内で逆変換される。
これらの残差誤差は、加算器内で、参照画素ブロックまたは参照画素領域の画素値に加算される。参照ブロックは、インター予測が行われるか、イントラ予測が行われるかに応じて、動き推定器/補償器(もしくは動き予測器/補償器)またはイントラ予測器によって決定される。選択器は、加算器、動き推定器/補償器、およびイントラ予測器に相互接続される。加算器によって得られた復号化画素ブロック出力は、ブロック化アーチファクトを非ブロック化フィルタリングするために、任意のフィルタリング制御装置への入力となる。フィルタリングされた画素ブロックは、デコーダからの出力になり、さらに、好ましくは、一時的にフレームバッファに提供されて、次に復号される画素ブロックに対する参照画素ブロックとして使用されてもよい。フレームバッファは、動き推定器/補償器が使用できる記憶画素ブロックを生成するために、動き推定器/補償器に相互接続される。
加算器からの出力は、好ましくは、さらに、イントラ予測器への入力となって、フィルタリングされていない参照画素ブロックとして使用される。
図13は、動きベクトル復号装置と共にデコーダを収容するメディア端末の概略ブロック図である。メディア端末は、符号化多視点映像フレームの符号化映像ストリーム上で動作することで、映像フレームを復号して、映像データを利用可能にするメディア復号機能を有する任意の装置としてもよい。この装置の非限定的な例として、携帯電話ならびに他のポータブルメディアプレイヤ、コンピュータ、デコーダ、ゲーム機器などが挙げられる。メディア端末は、符号化映像フレームを記憶する構造であるメモリを備える。これらの符号化映像フレームは、メディア端末自身によって生成されたものである場合もある。この場合、メディア端末は、好ましくは、メディアエンジンもしくはレコーダと共に、接続されたエンコーダ(例えば、図23のエンコーダ)を備える。あるいは、符号化映像フレームは、いくつかの他の装置によって生成されて、メディア端末にワイヤレスまたは有線で送信される。メディア端末は、この場合、データ転送を行うために、トランシーバ(送信機と受信機)または入出力ポートを備える。
符号化映像フレームは、メモリからデコーダ(例えば、図12に示されているデコーダ)に提供される。デコーダは、その後、符号化映像フレームを復号化映像フレームに復号する。復号化映像フレームは、メディアプレイヤに提供される。メディアプレイヤは、復号化映像フレームをメディア端末のディスプレイもしくはスクリーンまたはメディア端末に接続されたディスプレイもしくはスクリーン上で表示可能な映像データにレンダリングする構造である。
図13では、メディア端末はデコーダとメディアプレイヤの両方を備えるものとして示されており、デコーダはメディアプレイヤの一部として実装されている。しかし、これは、単に一例に過ぎず、メディア端末の実装形態の非限定的な例であると考えるべきである。また、デコーダとメディアプレイヤが2つの物理的に別個の装置で提供される分散型の実装も可能であり、本発明で使用されるメディア端末の範囲内である。さらに、ディスプレイもメディア端末に接続された別個の装置として設けられてもよく、実際のデータ処理はメディア端末で行われる。
上述の実施形態は、本発明の一部の実施例であると理解すべきである。本発明の範囲から逸脱せずに、上述の実施形態に対して種々の修正、組み合わせ、および変更が行われてもよいことは、当業者には理解できるであろう。特に、異なる実施形態における異なる部分の解決策が、技術的に可能である他の構造に組み込まれてもよい。
参考文献
[1]Jung、Laroche著、「Competition−Based Scheme for Motion Vector Selection and Coding」、ITU−Telecommunications Standardization Sector、Study Group 16 Question 16、VCEG−A06、2006年7月17〜18日

Claims (23)

  1. 複数のカメラ視点(10、20)からの映像コンテンツの多視点映像符号化のための動きベクトル予測方法であって、
    前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)内の参照画素領域(32)を識別する動きベクトル(34)を推定するステップ(S1)と、
    前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられて、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を提供するステップ(S2)と、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、スケーリング係数を決定するステップ(S3)と、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記スケーリング係数を乗じた前記候補動きベクトルプレディクタ(54、64)に基づいて、スケーリング済み候補動きベクトルプレディクタを決定するステップ(S4)と、
    前記少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、前記動きベクトル(34)に対して、動きベクトルプレディクタを決定するステップ(S5)とを含む方法。
  2. 前記スケーリング係数を決定するステップ(S3)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記スケーリング係数を決定するステップ(S3)を含む、請求項1に記載の方法。
  3. 前記スケーリング係数を決定するステップ(S3)は、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記スケーリング係数を決定するステップ(S3)を含む、請求項2に記載の方法。
  4. 前記動きベクトル(34)および前記動きベクトルプレディクタに基づいて、残差動きベクトルを計算するステップをさらに含む、請求項1から3のいずれか一項記載の方法。
  5. 前記スケーリング係数を決定するステップ(S3)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
    に基づいて、前記スケーリング係数を決定するステップ(S3)を含み、この場合、>>は右シフト演算子であり、

    、および
    であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項1から4のいずれか一項に記載の方法。
  6. 複数のカメラ視点(10、20)からの映像コンテンツの多視点映像符号化のための動きベクトルを予測するためのコンピュータプログラム(78)であり、コンピュータ(70)上で実行する時に、前記コンピュータ(70)に、
    前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)内の参照画素領域(32)を識別する動きベクトル(34)を推定させ、
    前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられ、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を提供させ、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、スケーリング係数を決定させ、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記スケーリング係数を乗じた前記候補動きベクトルプレディクタ(54、64)に基づいて、スケーリング済み候補動きベクトルプレディクタを決定させ、さらに
    前記動きベクトル(34)に対して、前記少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトルプレディクタを決定させる
    コード手段(110、120、130、140、150)を備える、コンピュータプログラム(78)。
  7. 複数のカメラ視点(10、20)からの映像コンテンツの多視点映像符号化のための動きベクトル予測装置(100)であって、
    前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)内の参照画素領域(32)を識別する動きベクトル(34)を推定する構造である動きベクトル推定器(110)と、
    前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられ、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を提供する構造であるプレディクタプロバイダ(120)と、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、スケーリング係数を決定する構造であるスケーリング係数決定器(130)と、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記スケーリング係数を乗じた前記候補動きベクトルプレディクタ(54、64)に基づいて、スケーリング済み候補動きベクトルプレディクタを決定する構造であるスケーリング済みプレディクタ決定器(140)と、
    前記動きベクトル(34)に対して、前記少なくとも1つのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトルプレディクタを決定する構造であるプレディクタ決定器(250)と
    を備える装置。
  8. 前記スケーリング係数決定器(130)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記スケーリング係数を決定する構造である、請求項7に記載の装置。
  9. 前記スケーリング係数決定器(130)は、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記スケーリング係数を決定する構造である、請求項8に記載の装置。
  10. 現在動きベクトル(24)および前記動きベクトルプレディクタに基づいて、残差動きベクトルを計算する構造であるベクトル計算器(170)をさらに備える、請求項7から9のいずれか一項に記載の装置。
  11. 前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
    に基づいて、前記スケーリング係数決定器(130)は前記スケーリング係数を決定する構造であり、この場合、>>は右シフト演算子であり、

    、および
    であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項7から10のいずれか一項に記載の装置。
  12. 複数のカメラ視点(10、20)からの符号化多視点映像の動きベクトル復号方法であって、
    前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)を識別する参照フレームインデックスを提供するステップ(S10)と、
    前記現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられ、前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を識別するステップ(S11)と、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、個々のスケーリング係数を決定するステップ(S12)と、
    前記個々のスケーリング係数を乗じた前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成するステップ(S13)と、
    前記現在画素ブロック(30)に対して、前記候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて動きベクトル(34)を決定するステップ(S15)と
    を含む方法。
  13. 前記現在画素ブロック(30)に対して、前記現在画素ブロック(30)に関連付けられたプレディクタインデックスに基づいて、前記候補リストから動きベクトルプレディクタを選択するステップ(S14)をさらに含み、前記動きベクトル(34)を決定するステップは、前記現在画素ブロック(30)に対して、前記選択された動きベクトルプレディクタおよび前記現在画素ブロック(30)に関連付けられた残差動きベクトルに基づいて、前記動きベクトル(34)を決定するステップ(S15)を含む、請求項12に記載の方法。
  14. 前記個々のスケーリング係数を決定するステップ(S12)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記個々のスケーリング係数を決定するステップ(S12)を含む、請求項12または13に記載の方法。
  15. 前記個々のスケーリング係数を決定するステップ(S12)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記個々のスケーリング係数を決定するステップ(S12)を含む、請求項14に記載の方法。
  16. 前記個々のスケーリング係数を決定するステップ(S12)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
    に基づいて前記個々のスケーリング係数を決定するステップ(S12)を含み、この場合、>>は右シフト演算子であり、

    、および
    であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項12から15のいずれか一項に記載の方法。
  17. 複数のカメラ視点(10、20)からの符号化多視点映像の動きベクトルを復号するためのコンピュータプログラム(88)であって、コンピュータ(80)上で実行する時に、前記コンピュータ(80)に、
    前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)を識別する参照フレームインデックスを提供させ、
    前記現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられて前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を識別させ、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて個々のスケーリング係数を決定させ、
    前記個々のスケーリング係数を乗じた前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成させ、さらに
    前記現在画素ブロック(30)に対して、前記候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトル(34)を決定させる
    コード手段(210、220、230、240、250、260)を備える、コンピュータプログラム(88)。
  18. コンピュータ可読コード手段と、前記コンピュータ可読手段に記憶される請求項6から17のいずれか一項に記載のコンピュータプログラムとを備えたコンピュータプログラム製品。
  19. 複数のカメラ視点(10、20)からの符号化多視点映像の動きベクトル復号装置(200)であって、
    前記複数のカメラ視点(10、20)の現在カメラ視点(20)の現在フレーム(24)内の現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の前記現在カメラ視点(20)と異なる参照カメラ視点(20)の参照フレーム(22)を識別する参照フレームインデックスを提供する構造であるインデックスプロバイダ(210)と、
    前記現在画素ブロック(30)に対して、前記複数のカメラ視点(10、20)の第1のカメラ視点(10、20)の第1のフレーム(14、26)内の画素ブロック(50、60)に関連付けられて前記複数のカメラ視点(10、20)の前記第1のカメラ視点(10、20)と異なる第1の参照カメラ視点(20、10)の第1の参照フレーム(26、16)内の画素領域(52、62)を識別する少なくとも1つの候補動きベクトルプレディクタ(54、64)を識別する構造であるプレディクタ識別器(220)と、
    前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の基準距離および前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の基準距離に基づいて、個々のスケーリング係数を決定する構造であるスケーリング係数決定器(230)と、
    前記個々のスケーリング係数を乗じた前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に基づいて形成された少なくとも1つのスケーリング済み候補動きベクトルプレディクタを含む候補リストを生成する構造であるリスト生成器(240)と、
    前記現在画素ブロック(30)に対して、前記候補リストのスケーリング済み候補動きベクトルプレディクタに基づいて、動きベクトル(34)を決定する構造であるベクトル決定器(260)と
    を備える装置(200)。
  20. 前記現在画素ブロック(30)に対して、前記現在画素ブロック(30)に関連付けられたプレディクタインデックスに基づいて、前記候補リストから動きベクトルプレディクタを選択する構造であるプレディクタ選択器(250)をさらに備え、前記ベクトル決定器(260)は、前記現在画素ブロック(30)に対して、前記プレディクタ選択器(250)によって選択された前記動きベクトルプレディクタおよび前記現在画素ブロック(30)に関連付けられた残差動きベクトルに基づいて、前記動きベクトル(34)を決定する構造である、請求項19に記載の装置。
  21. 前記スケーリング係数決定器(230)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、前記現在カメラ視点(20)と前記参照カメラ視点(20)との間の前記基準距離と、前記第1のカメラ視点(10、20)と前記第1の参照カメラ視点(20、10)との間の前記基準距離との商に基づいて、前記個々のスケーリング係数を決定する構造である、請求項19または20に記載の装置。
  22. 前記スケーリング係数決定器(230)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、(i)前記現在カメラ視点と前記参照カメラ視点との間の前記基準距離がゼロである場合に、または(ii)前記第1のカメラ視点と前記第1の参照カメラ視点との間の前記基準距離がゼロである場合に、固定の所定値に等しい前記個々のスケーリング係数を決定する構造である、請求項21に記載の装置。
  23. 前記スケーリング係数決定器(230)は、前記少なくとも1つの候補動きベクトルプレディクタ(54、64)に対して、
    に基づいて前記個々のスケーリング係数を決定する構造であり、この場合、>>は右シフト演算子であり、

    、および
    であり、CVOIdxは前記現在カメラ視点(20)の視点順インデックスであり、RfVOIdxは前記参照カメラ視点(20)の視点順インデックスであり、FVOIdxは前記第1のカメラ視点(10、20)の視点順インデックスであり、FRfVOIdxは前記第1の参照カメラ視点(20、10)のカメラ視点順インデックスである、請求項19から22のいずれか一項に記載の装置。
JP2014525966A 2011-08-19 2012-05-28 動きベクトル処理 Pending JP2014524706A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161525276P 2011-08-19 2011-08-19
US61/525,276 2011-08-19
PCT/SE2012/050569 WO2013028117A1 (en) 2011-08-19 2012-05-28 Motion vector processing

Publications (1)

Publication Number Publication Date
JP2014524706A true JP2014524706A (ja) 2014-09-22

Family

ID=46506615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014525966A Pending JP2014524706A (ja) 2011-08-19 2012-05-28 動きベクトル処理

Country Status (5)

Country Link
US (2) US10567786B2 (ja)
EP (2) EP2745514A1 (ja)
JP (1) JP2014524706A (ja)
CN (1) CN103891290B (ja)
WO (2) WO2013028116A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510219A (ja) * 2014-01-02 2017-04-06 インダストリー−アカデミア、コーオペレイション、グループ、オブ、セジョン、ユニバーシティーIndustry−Academia Cooperation Group Of Sejong University 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9485517B2 (en) 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
US20130107962A1 (en) * 2011-10-26 2013-05-02 Intellectual Discovery Co., Ltd. Scalable video coding method and apparatus using inter prediction mode
EP2806649A1 (en) * 2012-01-18 2014-11-26 Electronics and Telecommunications Research Institute Method and device for encoding and decoding image
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
EA201492098A1 (ru) 2012-05-14 2015-04-30 Лука Россато Кодирование и декодирование на основании смешивания последовательностей выборок с течением времени
US10075728B2 (en) * 2012-10-01 2018-09-11 Inria Institut National De Recherche En Informatique Et En Automatique Method and device for motion information prediction refinement
US10021414B2 (en) 2013-01-04 2018-07-10 Qualcomm Incorporated Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures
US9930363B2 (en) * 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
US10356426B2 (en) * 2013-06-27 2019-07-16 Google Llc Advanced motion estimation
GB2519513A (en) * 2013-10-11 2015-04-29 Canon Kk Method of deriving displacement information in a video coder and a video decoder
US10554967B2 (en) 2014-03-21 2020-02-04 Futurewei Technologies, Inc. Illumination compensation (IC) refinement based on positional pairings among pixels
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
CN104363451B (zh) * 2014-10-27 2019-01-25 华为技术有限公司 图像预测方法及相关装置
KR102617235B1 (ko) 2015-08-24 2023-12-26 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN105306866A (zh) * 2015-10-27 2016-02-03 青岛海信电器股份有限公司 帧率转换方法及装置
EP3343924A1 (en) * 2017-01-03 2018-07-04 Thomson Licensing Method and apparatus for encoding and decoding motion information
US10515117B2 (en) * 2017-02-14 2019-12-24 Cisco Technology, Inc. Generating and reviewing motion metadata
EP3850850A1 (en) * 2018-09-14 2021-07-21 Koninklijke KPN N.V. Video coding based on global motion compensated motion vector predictors
WO2020053329A1 (en) * 2018-09-14 2020-03-19 Koninklijke Kpn N.V. Video coding based on global motion compensated motion vectors
US11997311B2 (en) 2018-09-17 2024-05-28 Hfi Innovation Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
JP7164813B2 (ja) * 2018-11-21 2022-11-02 日本電信電話株式会社 予測装置、予測方法、及びプログラム。
CN113170172A (zh) * 2018-11-21 2021-07-23 瑞典爱立信有限公司 具有子块合并简化的视频图片编码方法及相关装置
KR20240024335A (ko) 2018-11-22 2024-02-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브 블록 기반 인터 예측을 위한 조정 방법
KR20210103558A (ko) * 2018-12-28 2021-08-23 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) 움직임 벡터 예측자 리스트의 생성
CN114208184A (zh) 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 基于子块的帧间预测中的运动精度
WO2021052507A1 (en) 2019-09-22 2021-03-25 Beijing Bytedance Network Technology Co., Ltd. Sub-picture coding and decoding of video

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510892A (ja) * 2005-09-29 2009-03-12 サムスン エレクトロニクス カンパニー リミテッド カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100941608B1 (ko) * 2006-10-17 2010-02-11 경희대학교 산학협력단 다시점 영상의 부호화 및 복호화 방법과 그를 위한 장치
CN101170702B (zh) * 2007-11-23 2010-08-11 四川虹微技术有限公司 多视角视频编码方法
US8736767B2 (en) * 2010-09-29 2014-05-27 Sharp Laboratories Of America, Inc. Efficient motion vector field estimation
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
AU2012269583B2 (en) * 2011-06-15 2015-11-26 Hfi Innovation Inc. Method and apparatus of motion and disparity vector prediction and compensation for 3D video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510892A (ja) * 2005-09-29 2009-03-12 サムスン エレクトロニクス カンパニー リミテッド カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016009485; J.Jung,G.Laroche: 'Competition-Based Scheme for Motion Vector Selection and Coding' ITU-Telecommunications Standardization Sector STUDY GROUP 16 Question 6 Video Coding Experts Group(V VCEG-AC06, 20060717, P.1-7, ITU-T *
JPN6016009488; S.Park,J.Park,B.Jeon,S.Sekiguchi,Y.Itani,K.Sugimoto,M.Shou,M.Sinangil,V.Sze: 'A study on simplification of spatial/temporal MVP scaling (CE9 SP01+SP06S2+SP07)' Joint Collaborative Team on Video Coding(JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6&# *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510219A (ja) * 2014-01-02 2017-04-06 インダストリー−アカデミア、コーオペレイション、グループ、オブ、セジョン、ユニバーシティーIndustry−Academia Cooperation Group Of Sejong University 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置

Also Published As

Publication number Publication date
US9736472B2 (en) 2017-08-15
WO2013028117A1 (en) 2013-02-28
EP2745514A1 (en) 2014-06-25
US20140185686A1 (en) 2014-07-03
US20140198856A1 (en) 2014-07-17
WO2013028116A1 (en) 2013-02-28
CN103891290B (zh) 2018-02-02
CN103891290A (zh) 2014-06-25
EP2745513A1 (en) 2014-06-25
EP2745513B1 (en) 2020-03-11
US10567786B2 (en) 2020-02-18

Similar Documents

Publication Publication Date Title
EP2745513B1 (en) Motion vector processing
CN112740695B (zh) 使用间预测处理视频信号的方法和装置
CN110809887B (zh) 用于多参考预测的运动矢量修正的方法和装置
JP5021739B2 (ja) 信号処理方法及び装置
TW202005383A (zh) 部分成本計算
CN111971960B (zh) 用于基于帧间预测模式处理图像的方法及其装置
JP4663792B2 (ja) 多視点動映像を符号化及び復号化する装置及び方法
US11949904B2 (en) Image processing method based on inter prediction mode, and device therefor
CN112385213B (zh) 基于帧间预测模式处理图像的方法和用于该方法的设备
CN111052739A (zh) 基于帧间预测模式的图像处理的方法和设备
JP6039178B2 (ja) 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
JP2016501469A (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
EP1929783A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
CN117812256A (zh) 图像解码设备、图像编码设备和发送设备
CN112449181A (zh) 一种编解码方法、装置及其设备
JP6232117B2 (ja) 画像符号化方法、画像復号方法、及び記録媒体
KR101261577B1 (ko) 다시점 동영상을 부호화 및 복호화하는 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161018