JP5744333B2 - シーンのマルチビュービデオを処理する方法及びシステム - Google Patents

シーンのマルチビュービデオを処理する方法及びシステム Download PDF

Info

Publication number
JP5744333B2
JP5744333B2 JP2014522261A JP2014522261A JP5744333B2 JP 5744333 B2 JP5744333 B2 JP 5744333B2 JP 2014522261 A JP2014522261 A JP 2014522261A JP 2014522261 A JP2014522261 A JP 2014522261A JP 5744333 B2 JP5744333 B2 JP 5744333B2
Authority
JP
Japan
Prior art keywords
reference picture
view
adaptive
synthesized
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014522261A
Other languages
English (en)
Other versions
JP2015502057A (ja
Inventor
ティアン、ドン
チェウン、ガイ−マン
ヴェトロ、アンソニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2015502057A publication Critical patent/JP2015502057A/ja
Application granted granted Critical
Publication of JP5744333B2 publication Critical patent/JP5744333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/27Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、包括的にはマルチビュービデオの符号化及び復号化に関し、特に、マルチビュービデオの合成に関する。
マルチビュービデオの符号化及び復号化は、3次元テレビ(3DTV:three dimensional television)、自由視点テレビ(FTV:free viewpoint television)、及びマルチカメラ監視等の用途に不可欠である。マルチビュービデオの符号化及び復号化は動的ライトフィールドの圧縮としても知られる。
図1は、マルチビュービデオを符号化するための従来技術の「サイマル放送」システム100を示す。カメラ1〜4がシーン5のフレームシーケンスすなわちビデオ101〜104を取得する。各カメラはシーンの異なるビューを有する。各ビデオは、個別に符号化されて(111〜114)、対応する符号化ビデオ121〜124となる。このシステムは、従来の2Dビデオ符号化技法を用いる。したがって、このシステムは、符号化ビデオのフレームを予測する際に、複数のカメラにより異なる視点から取得される異なるビデオを相関させない。個別の符号化は、圧縮効率を低下させ、よってネットワーク帯域幅及び記憶域が増大する。
図2は、ビュー間の相関を用いる、従来技術の視差補償予測システム200を示す。ビデオ201〜204が符号化されて(211〜214)、符号化ビデオ231〜234となる。ビデオ201及び204は、MPEG−2又はH.264(MPEG−4パート10としても知られる)等の標準的なビデオエンコーダーを用いて個別に符号化される。これらの個別に符号化されたビデオは「参照」ビデオとなる。残りのビデオ202及び203は、時間予測、並びにデコーダー221及び222から得られる再構成された参照ビデオ251及び252に基づくビュー間予測を用いて符号化される。通常、この予測はブロックごとに適応的に求められる(S.C.Chan他「The data compression of simplified dynamic light fields」Proc.IEEE Int.Acoustics,Speech,and Signal Processing Conf.,April,2003)。
図3は、従来技術の「リフティングベースの」ウェーブレット分解を示す(W.Sweldens「The data compression of simplified dynamic light fields」J.Appl.Comp.Harm.Anal.,vol.3,no.2,pp.186−200,1996を参照のこと)。ウェーブレット分解は静的ライトフィールドの圧縮に効果的な技法である。入力サンプル301が奇数サンプル302及び偶数サンプル303に分割される(310)。奇数サンプルは偶数サンプルから予測される(320)。予測誤差は高域サンプル304を形成する。この高域サンプルは、偶数サンプルを更新して(330)低域サンプル305を形成するために用いられる。この分解は可逆であるため、線形操作又は非線形操作を予測ステップ及び更新ステップに組み込むことができる。
リフティング方式は、動き補償時間変換、すなわち、ビデオの場合は時間的な動きの軌跡に沿って実質的にフィルタリングを行う動き補償時間フィルタリング(MCTF:motion compensated temporal filtering)を可能にする。ビデオコーディングのためのMCTFのレビューがOhm他「Interframe wavelet coding − motion picture representation for universal scalability」Signal Processing:Image Communication,vol.19,no.9,pp.877−908,October 2004に記載されている。リフティング方式は、再構成に影響を与えることなく、ハール又は5/3ドブシー等の任意のウェーブレット核、及びブロックベースの並進又はアフィングローバル動き等の任意の動きモデルに基づいて行うことができる。
符号化のために、MCTFは、ビデオを高域フレームと低域フレームとに分解する。次にこれらのフレームに空間変換を施して、残存する空間的相関を低減する。変換された低域フレーム及び高域フレームは、関連する動き情報とともにエントロピー符号化されて、符号化ビットストリームを形成する。MCTFは、図3に示すリフティング方式を用いて、時間的に隣接するビデオを入力として実施することができる。また、MCTFは、出力低域フレームに反復的に適用することができる。
MCTFベースのビデオの圧縮効率は、H.264/AVC等のビデオ圧縮規格のそれに匹敵する。また、ビデオは固有の時間スケーラビリティを有する。しかし、この方法は、複数のビューから取得されたビデオ間に相関があるマルチビュービデオの直接符号化には用いることができない。これは、時間的相関を説明する効率的なビュー予測方法がないためである。
リフティング方式は、静的ライトフィールド、すなわち単一のマルチビュー画像を符号化するためにも用いられてきた。動き補償時間フィルタリングを行う代わりに、エンコーダーは、空間領域において静的ビュー間で視差補償ビュー間フィルタリング(DCVF:disparity compensated inter−view filtering)を行う(Chang他「Inter−view wavelet compression of light fields with disparity compensated lifting」SPIE Conf on Visual Communications and Image Processing,2003を参照のこと)。符号化のために、DCVFは、静的ライトフィールドを高域画像と低域画像とに分解し、次にこれらの画像に空間変換を施して、残存する空間的相関を低減する。変換された画像は、関連する視差情報とともにエントロピー符号化されて、符号化ビットストリームを形成する。DCVFは通常、図3に示すようなリフティングベースのウェーブレット変換方式を用いて、空間的に隣接するカメラビューから取得される画像を入力として実施される。また、DCVFは、出力低域画像に反復的に適用することができる。DCVFベースの静的ライトフィールドの圧縮は、複数のフレームを個別にコーディングするよりも高い圧縮効率を提供する。しかし、この方法もまた、ビュー間の時間的相関及び空間的相関の両方を用いるマルチビュービデオを符号化することができない。これは、時間的相関を説明する効率的なビュー予測方法がないためである。
或る特定の用途では、奥行き信号は、図25に示すようにシステムの入力の一部とすることができる。「サイマル放送」システム2500では、奥行き信号は、例えば、奥行きカメラ251A、252A、253A、及び254Aを用いて、カラービデオが撮影されるときに同時に取得することもできるし、オフライン手順によって推定することもできる。奥行きはシステムの入力として存在し、奥行きは符号化され(2500、2511、2511A、2512、2512A、2513、2513A、2514、及び2514A)、ビットストリーム2521、2521A、2522、2522A、2523、2523A、2524、及び2524Aの一部として送信されることに留意されたい。奥行きエンコーダーは、カラーエンコーダーと同じ場合もあるし、同じでない場合もある。
複数のカメラによって或るシーンに関して取得されたマルチビュービデオを分解する方法及びシステムが提示される。
各マルチビュービデオはフレームシーケンスを含み、各カメラはシーンの異なるビューを提供する。
時間予測モード、空間予測モード、ビュー合成予測モード、及びイントラ予測モードの中から1つの予測モードが選択される。
次に、マルチビュービデオは、選択された予測モードに従って低域フレーム、高域フレーム、及びサイド情報に分解される。
シーンの合成ビューを反映する新規のビデオもまた、マルチビュービデオのうちの1つ又は複数から生成することができる。
より詳細には、本発明の1つの実施の形態は、ビデオを符号化及び復号化するシステム及び方法を提供する。複数のマルチビュービデオが、どの対のカメラ間でもビューが重なるような姿勢で配置される対応する複数のカメラによって或るシーンに関して取得される。1つの合成マルチビュービデオが、1つの仮想カメラに関して、取得された複数のマルチビュービデオから生成される。マルチビュービデオ及び合成ビデオのそれぞれの現フレームごとに参照ピクチャリストがメモリ内に保持される。参照ピクチャリストは、取得されたマルチビュービデオの時間参照ピクチャ及び空間参照ピクチャ、並びに合成マルチビュービデオの合成参照ピクチャをインデックス付けする。次に、マルチビュービデオの各現フレームが、符号化及び復号化中に、関連する参照ピクチャリストによってインデックス付けされた参照ピクチャに従って予測される。
別の実施の形態では、マルチビュービデオに対応する奥行き画像は、入力データの一部であり、このデータは、ビットストリームの一部として符号化される。したがって、導出される参照情報は、SKIPタイプに応じて、参照ピクチャインデックスrefIdxLX及び動きベクトル(X,Y)を含む。
マルチビュービデオを符号化するための従来技術のシステムのブロック図である。 マルチビュービデオを符号化するための従来技術の視差補償予測システムのブロック図である。 従来技術のウェーブレット分解プロセスのフロー図である。 本発明の実施形態による、MCTF/DCVF分解のブロック図である。 本発明の実施形態による、MCTF/DCVF分解後の低域フレーム及び高域フレームの、時間及び空間の関数としてのブロック図である。 本発明の実施形態による、隣接する低域フレームからの高域フレームの予測のブロック図である。 本発明の実施形態による、マクロブロック適応的MCTF/DCVF分解を用いるマルチビューのコーディングシステムのブロック図である。 本発明の実施形態による、ビデオ合成の概略図である。 従来技術の参照ピクチャ管理のブロック図である。 本発明の実施形態による、マルチビュー参照ピクチャ管理のブロック図である。 本発明の実施形態による、復号ピクチャバッファ内のマルチビュー参照ピクチャのブロック図である。 異なるマルチビュー参照ピクチャの順序付けのコーディング効率を比較するグラフである。 本発明の実施形態による、マルチビュー参照ピクチャリストマネージャに対するビューモードの依存性のブロック図である。 時間参照ピクチャからの予測を使用するシングルビューのコーディングシステムのための従来技術の参照ピクチャ管理の図である。 本発明の実施形態による、マルチビュー参照ピクチャからの予測を使用するマルチビューのコーディングシステム及び復号化システムのための参照ピクチャ管理の図である。 本発明の実施形態による、サイド情報として符号化され受け取られる奥行き情報を用いたデコーダーにおけるビュー合成のブロック図である。 本発明の実施形態による、予測モードを選択するためのコスト計算のブロック図である。 本発明の実施形態による、デコーダーによって推定される奥行き情報を用いたデコーダーにおけるビュー合成のブロック図である。 本発明の実施形態による、デコーダーにおいてVフレームを用いて空間ランダムアクセスを達成するマルチビュービデオのブロック図である。 本発明の実施形態による、ワーピング及び内挿を用いるビュー合成のブロック図である。 本発明の実施形態による、奥行き探索のブロック図である。 本発明の実施形態による、サブペル参照マッチングのブロック図である。 従来のスキップモードのブロック図である。 本発明の実施形態による、合成スキップモードのブロック図である。 奥行きを含むマルチビュービデオを符号化するための従来技術のシステムのブロック図である。 本発明の実施形態による合成スキップモードを用いる復号化プロセスの流れ図である。 本発明の実施形態による適応基準スキップモードを用いる復号化プロセスの流れ図である。
本発明の実施形態は、マルチビュービデオのフレームを符号化及び復号化するための複合的時間/ビュー間処理方法を提供する。マルチビュービデオは、異なる姿勢を有する複数のカメラによって或るシーンに関して取得されるビデオである。本発明では、カメラ姿勢をその3Dの(x,y,z)位置及びその3Dの(θ,ρ,φ)向きの両方として定義する。各姿勢はシーンの「ビュー」に対応する。
本方法は、特定のカメラ姿勢に関して取得される同一ビデオ中のフレーム間の時間的相関、及び複数のカメラビューから取得される異なるビデオ中の同期フレーム間の空間的相関を用いる。また、後述のように「合成」フレームを相関させることができる。
実施形態において、時間的相関は動き補償時間フィルタリング(MCTF)を用い、空間的相関は視差補償ビュー間フィルタリング(DCVF)を用いる。
本発明の別の実施形態において、空間的相関は、「近傍」フレームから生成される複数の合成フレームからの1つのビューの予測を用いる。近傍フレームは、時間的又は空間的に隣接するフレーム、例えば、時間領域における現フレームの前又は後のフレーム、又は同時刻に、ただし異なる姿勢又はシーンのビューを有するカメラから取得される1つ又は複数のフレームである。
本発明の別の実施形態では、マルチビュービデオに対応する奥行き画像が、合成フレームを生成するのに用いられる。奥行き画像は、入力データの一部とみなされ、ビットストリームに符号化される。復号化プロセスが、ビットストリームから奥行き画像を再構築するのに用いられる。
各ビデオの各フレームは画素のマクロブロックを含む。したがって、本発明の実施形態によるマルチビュービデオの符号化及び復号化方法はマクロブロック適応的である。現フレーム内の現マクロブロックの符号化及び復号化は、様々な形態の時間予測、空間予測、ビュー合成予測、及びイントラ予測を含むいくつかの可能な予測モードを用いて行われる。マクロブロックごとに最良の予測モードを判定するために、本発明の実施形態は、予測モードを選択する方法を提供する。この方法は、任意数のカメラ配置に対して使用することができる。
本明細書中で用いる場合、参照ピクチャは、符号化及び復号化中に現フレームを「予測」するために用いられる任意のフレームとして定義される。通常、参照ピクチャは、現フレームに空間的又は時間的に隣接する、すなわち「近傍」にある。
任意の所与の時刻において現フレームを符号化及び復号化するために同一の参照ピクチャ集合が用いられるため、同一の操作がエンコーダー及びデコーダーの両方に適用されることに留意することが重要である。
MCTF/DCVF分解
図4は、本発明の実施形態によるMCTF/DCVF分解400を示す。入力ビデオ401〜404のフレームが、異なる姿勢を有するカメラ1〜4によってシーン5に関して取得される。なお、図8に示すように、カメラのうちのいくつか1a及び1bは、同一位置にあり、ただし異なる向きであってもよい。どの対のカメラ間にも或る量のビューの重なりがあると仮定される。カメラの姿勢は、マルチビュービデオの取得中に変化し得る。通常、カメラは互いに同期される。各入力ビデオは、シーンの異なる「ビュー」を提供する。入力フレーム401〜404はMCTF/DCVF分解400に送られる。この分解は、符号化された低域フレーム411、符号化された高域フレーム412、及び関連するサイド情報413を生成する。高域フレームは、低域フレームを参照ピクチャとして用いて予測誤差を符号化する。分解は、選択された予測モード410に従って行われる。予測モードは、空間予測モード、時間予測モード、ビュー合成予測モード、及びイントラ予測モードを含む。予測モードは、各現フレームに関してマクロブロックごとに適応的に選択することができる。イントラ予測を用いる場合、現マクロブロックは、同一フレーム内の他のマクロブロックから予測される。
図5は、フレーム近傍510の、低域フレーム(L)411及び高域フレーム(H)412の好ましい交番「格子パターン」を示す。これらのフレームは空間(ビュー)次元501及び時間次元502を有する。本質的に、このパターンは、低域フレーム及び高域フレームを空間次元で1つの時刻ごとに交番させ、さらに、低域フレーム及び高域フレームを1つのビデオごとに時間的に交番させる。
この格子パターンにはいくつかの利点がある。このパターンは、低域フレームを空間次元及び時間次元の両方において均一に分散させることで、デコーダーが低域フレームのみを再構成する場合に、空間及び時間のスケーラビリティを実現する。また、このパターンは、空間次元及び時間次元の両方において高域フレームを隣接する低域フレームと整列させる。これは、図6に示すように、現フレームにおける誤差の予測を行うための参照ピクチャ間の相関を最大化する。
リフティングベースのウェーブレット変換によれば、一方のサンプル集合を他方のサンプル集合から予測することによって高域フレーム412が生成される。この予測は、後述する本発明の実施形態による様々な形態の時間予測、様々な形態の空間予測、及びビュー合成予測を含むいくつかのモードを用いて達成することができる。
高域フレーム412を予測するための手段及びこの予測を行うために必要な情報はサイド情報413と呼ばれる。時間予測を行う場合、時間モードがサイド情報の一部として、対応する動き情報とともに信号伝達される。空間予測を行う場合、空間モードがサイド情報の一部として、対応する視差情報とともに信号伝達される。ビュー合成予測を行う場合、ビュー合成モードがサイド情報の一部として、対応する視差情報、動き情報及び奥行き情報とともに信号伝達される。
図6に示すように、各現フレーム600の予測は、空間次元及び時間次元の両方の近傍フレーム510を用いる。現フレームを予測するために用いられるフレームは参照ピクチャと呼ばれる。参照ピクチャは、符号化ビットストリームの一部である参照リストに保持される。参照ピクチャは復号ピクチャバッファに格納される。
本発明の実施形態において、MCTF及びDCVFは、入力ビデオのフレームごとに各現マクロブロックに対して適応的に適用されて、分解された低域フレーム、並びに高域フレーム及び関連するサイド情報を生じる。こうして、各マクロブロックは、「最良の」予測モードに従って適応的に処理される。予測モードを選択するための最適な方法は後述する。
本発明の実施形態において、MCTFがまず各ビデオのフレームに個別に適用される。結果として得られるフレームは次に、DCVFにより更に分解される。最終的な分解されたフレームに加えて、対応するサイド情報も生成される。マクロブロックごとに行う場合、MCTF及びDCVFの予測モードの選択は別個に検討される。利点として、この予測モードの選択は本質的に時間スケーラビリティをサポートする。こうして、圧縮ビットストリームにおいてビデオのより低い時間レートが容易にアクセスされる。
別の実施形態では、DCVFがまず入力ビデオのフレームに適用される。結果として得られるフレームが次に、MCTFにより時間的に分解される。最終的な分解されたフレームに加えて、サイド情報も生成される。マクロブロックごとに行う場合、MCTF及びDCVFの予測モードの選択は別個に検討される。利点として、この選択は本質的に空間スケーラビリティをサポートする。こうして、圧縮ビットストリームにおいてより少ない数のビューが容易にアクセスされる。
上述した分解は、前の分解段階から結果として得られる低域フレームの集合に反復的に適用することができる。利点として、本発明のMCTF/DCVF分解400は、時間的相関及び空間的(ビュー間)相関の両方を効果的に除去し、非常に高い圧縮効率を達成することができる。本発明のマルチビュービデオエンコーダーの圧縮効率は、各ビューの各ビデオを個別に符号化する従来のサイマル放送符号化に勝る。
MCTF/DCVF分解の符号化
図7に示すように、分解400の出力411及び412は信号エンコーダー710に供給され、出力413はサイド情報エンコーダー720に供給される。信号エンコーダー710は、変換、量子化及びエントロピーコーディングを行って、分解された低域フレーム411及び高域フレーム412に残存する相関を除去する。このような操作は当該技術分野において既知である(Netravali及びHaskell「Digital Pictures:Representation,Compression and Standards」Second Edition,Plenum Press,1995)。
サイド情報エンコーダー720は、分解400により生成されたサイド情報413を符号化する。サイド情報413は、予測モード及び参照ピクチャリストに加えて、時間予測に対応する動き情報、空間予測に対応する視差情報、並びにビュー合成予測に対応するビュー合成情報及び奥行き情報を含む。
サイド情報の符号化は、MPEG−4ビジュアル規格ISO/IEC14496−2「Information technology −− Coding of audio−visual objects − Part 2:Visual」(第2版、2001年)、又はより最近のH.264/AVC規格、及びITU−T勧告H.264「Advanced video coding for generic audiovisual services」(2004年)において用いられる技法等の既知の確立された技法によって達成することができる。
例えば、マクロブロックの動きベクトルは通常、参照ピクチャ内のマクロブロックにおけるベクトルから予測ベクトルを求める予測方法を用いて符号化される。次に、予測ベクトルと現在のベクトルとの差にエントロピーコーディングプロセスを施す。このプロセスは通常、予測誤差の統計値を用いる。同様の手順を用いて視差ベクトルを符号化することができる。
さらに、参照ピクチャ内のマクロブロックからの予測値を得る予測コーディング方法を用いて、又は単純に固定長符号を使用して奥行き値を直接表すことによって各マクロブロックの奥行き情報を符号化することができる。画素レベルの奥行き精度が抽出され圧縮される場合、変換技法、量子化技法及びエントロピーコーディング技法を適用するテクスチャコーディング技法を適用することができる。
信号エンコーダー710及びサイド情報エンコーダー720からの符号化された信号711〜713を多重化して(730)、符号化された出力ビットストリーム731を生成することができる。
MCTF/DCVF分解の復号化
ビットストリーム731を復号化して(740)、入力マルチビュービデオ401〜404に対応する出力マルチビュービデオ741を生成することができる。任意で、合成ビデオも生成することができる。概して、デコーダーは、エンコーダーの逆の操作を行ってマルチビュービデオを再構成する。全ての低域フレーム及び高域フレームが復号化されれば、空間(ビュー)次元及び時間次元の両方において符号化品質の完全なフレーム集合が再構成され利用可能になる。
エンコーダーにおいて適用した分解の反復レベル数、及びどのタイプの分解を適用したかに応じて、より少ない数のビデオ及び/又はより低い時間レートを図7に示すように復号化することができる。
ビュー合成
図8に示すように、ビュー合成は、1つ又は複数の実際のマルチビュービデオのフレーム803から合成ビデオのフレーム801を生成するプロセスである。言い換えれば、ビュー合成は、シーン5の選択された新たなビュー802に対応するフレーム801を合成する手段を提供する。この新たなビュー802は、入力マルチビュービデオ401〜404が取得された時点では存在しない「仮想」カメラ800に対応してもよく、又は、取得されるカメラビューに対応することができ、よって、合成ビューは、後述のようにそのビューの予測及び符号化/復号化に用いられる。
1つのビデオを用いる場合、合成は外挿又はワーピングに基づき、複数のビデオを用いる場合、合成は内挿に基づく。
1つ又は複数のマルチビュービデオのフレーム803の画素値及びシーン中の複数の点の奥行き値が与えられれば、合成ビュー802のフレーム801内の画素を、フレーム803内の対応する画素値から合成することができる。
ビュー合成は一般にコンピュータグラフィックスにおいて、複数のビューに関して静止画をレンダリングするために用いられる(Buehler他「Unstructured Lumigraph Rendering」Proc. ACM SIGGRAPH, 2001を参照のこと)。引用することにより本明細書中の一部をなすこの方法は、カメラの外部パラメータ及び内部パラメータを必要とする。
マルチビュービデオを圧縮するためのビュー合成は新規である。本発明の実施形態では、現フレームを予測するために使用する合成フレームを生成する。本発明の実施形態では、指定された高域フレームに関して合成フレームが生成される。本発明の別の実施形態では、特定のビューに関して合成フレームが生成される。合成フレームは参照ピクチャとして働き、これらの参照ピクチャから現合成フレームを予測することができる。
奥行き信号がマルチビュービデオの一部ではない場合、この手法に伴う1つの問題は、シーン5の奥行き値が分からないことである。したがって、本発明では、既知の技法を用いて、例えば、マルチビュービデオにおける特徴の対応関係に基づいて奥行き値を推定する。
代替的に、合成ビデオごとに、本発明では、候補奥行き値にそれぞれ対応する複数の合成フレームを生成する。現フレーム内のマクロブロックごとに、合成フレームの集合の中から最も良く一致するマクロブロックを求める。この最良一致が見つかった合成フレームは、現フレーム内のそのマクロブロックの奥行き値を示す。このプロセスを現フレーム内のマクロブロックごとに繰り返す。
現マクロブロックと合成ブロックとの差は信号エンコーダー710により符号化及び圧縮される。このマルチビューモードのサイド情報は、サイド情報エンコーダー720によって符号化される。サイド情報は、ビュー合成予測モードを示す信号、マクロブロックの奥行き値、及び現フレーム内のマクロブロックと合成フレーム内の最良一致マクロブロックとの間の補償すべき位置ずれを補償する任意の変位ベクトルを含む。
予測モードの選択
マクロブロック適応的MCTF/DCVF分解において、各マクロブロックの予測モードmは、コスト関数をマクロブロックごとに適応的に最小化することによって選択することができる。
Figure 0005744333
ここで、J(m)=D(m)+λR(m)であり、Dは歪みであり、λは重みパラメータであり、Rはレートであり、mは候補予測モードの集合を示し、mは最小コスト基準に基づいて選択された最適予測モードを示す。
候補モードmは様々な時間予測モード、空間予測モード、ビュー合成予測モード、及びイントラ予測モードを含む。コスト関数J(m)は、特定の予測モードmを用いてマクロブロックを符号化した結果として生じるレート及び歪みに依存する。
歪みDは、再構成マクロブロックと元マクロブロックとの差を測定する。再構成マクロブロックは、所与の予測モードmを用いてマクロブロックを符号化及び復号化することによって得られる。一般的な歪み測度は差の二乗和である。レートRは、予測誤差及びサイド情報を含む、マクロブロックを符号化するために必要なビット数に対応する。重みパラメータλは、マクロブロックコーディングのレート−歪みのトレードオフを制御するものであり、量子化ステップサイズから導出することができる。
符号化プロセス及び復号化プロセスの詳細な態様を以下でさらに詳述する。特に、符号化プロセス及び復号化プロセスにより用いられる様々なデータ構造を説明する。本明細書中で説明するような、エンコーダーにおいて用いられるデータ構造は、デコーダーにおいて用いられる対応するデータ構造と同じであることを理解すべきである。また、デコーダーの処理ステップは本質的に、エンコーダーと同じ処理ステップに従うが、ただし逆の順序であることも理解すべきである。
参照ピクチャ管理
図9は、従来技術のシングルビューの符号化及び復号化システムのための参照ピクチャ管理を示す。時間参照ピクチャ901は、復号ピクチャバッファ(DPB:decoded picture buffer)940への時間参照ピクチャ901の挿入(920)及び削除(930)を決めるシングルビュー参照ピクチャリスト(RPL:reference picture list)マネージャ910によって管理される。参照ピクチャリスト950もまた保持されて、DPB940に格納されているフレームを示す。RPLは、挿入(920)及び削除(930)といった参照ピクチャ管理操作、並びにエンコーダー及びデコーダーの両方における時間予測960のために用いられる。
シングルビューエンコーダーにおいて、時間参照ピクチャ901は、予測、変換及び量子化を含む一組の通常の符号化操作を適用し、次にこれらの逆の、逆量子化、逆変換及び動き補償を含む操作を適用した結果として生成される。さらに、時間参照ピクチャ901は、エンコーダーにおける現フレームの予測に時間ピクチャが必要な時にのみ、DPB940に挿入されてRPL950に追加される。
シングルビューデコーダーにおいて、逆量子化、逆変換及び動き補償を含む一組の通常の復号化操作をビットストリームに対して適用することによって同じ時間参照ピクチャ901が生成される。エンコーダーと同様に、時間参照ピクチャ901は、デコーダーにおける現フレームの予測に必要である場合にのみDPB940に挿入されて(920)RPL950に追加される。
図10は、マルチビューの符号化及び復号化のための参照ピクチャ管理を示す。時間参照ピクチャ1003に加えて、マルチビューシステムはまた、空間参照ピクチャ1001及び合成参照ピクチャ1002も含む。これらの参照ピクチャはまとめてマルチビュー参照ピクチャ1005と呼ばれる。これらのマルチビュー参照ピクチャ1005は、マルチビューDPB1040へのマルチビュー参照ピクチャ1005の挿入(1020)及び削除(1030)を決めるマルチビューRPLマネージャ1010によって管理される。ビデオごとに、マルチビュー参照ピクチャリスト(RPL)1050もまた保持されて、DPBに格納されているフレームを示す。すなわち、RPLはDPBのインデックスである。マルチビューRPLは、挿入(1020)及び削除(1030)といった参照ピクチャ管理操作、並びに現フレームの予測1060に用いられる。
マルチビューシステムの予測1060は、異なるタイプのマルチビュー参照ピクチャ1005からの予測が可能となるため、シングルビューシステムの予測960とは異なることに留意されたい。マルチビュー参照ピクチャ管理1010に関する更なる詳細は後述する。
マルチビュー参照ピクチャリストマネージャ
エンコーダーにおいて現フレームを符号化する前、又はデコーダーにおいて現フレームを復号化する前に、マルチビューRPL1050においてマルチビュー参照ピクチャ1005の集合を指示することができる。従来及び本明細書中で定義されるように、集合は要素を全く有しなくても(空集合)、1つ又は複数の要素を有してもよい。RPLの同一コピーが、現フレームごとにエンコーダー及びデコーダーの両方によって保持される。
マルチビューRPL1050に挿入される全てのフレームが初期化され、適切な構文を用いて、予測に使用可能なものとしてマーキングされる。H.264/AVC規格及び参照ソフトウェアによれば、「used_for_reference」フラグが「1」にセットされる。概して、参照ピクチャは、フレームをビデオ符号化システムにおける予測に使用することができるように初期化される。H.264/AVC等の従来のシングルビュービデオ圧縮規格との互換性を保つために、各参照ピクチャにピクチャ順序カウント(POC:picture order count)を割り当てる。通常、シングルビューの符号化及び復号化システムの場合、POCはピクチャの時間的な順序付け、例えばフレーム番号に対応する。マルチビューの符号化及び復号化システムの場合、時間順だけでは、各参照ピクチャにPOCを割り当てるのに不十分である。したがって、本発明では、全てのマルチビュー参照ピクチャに関して或る規則に従って一意のPOCを求める。1つの規則は、時間参照ピクチャに対して時間順に基づいてPOCを割り当て、次に、非常に高いPOC番号のシーケンス、例えば10000〜10100を空間参照ピクチャ及び合成参照ピクチャ用に確保するものである。他のPOC割り当て規則、又は単に「順序付け」規則を以下で更に詳述する。
マルチビュー参照ビクチャとして用いる全てのフレームがRPLに保持され、それらのフレームがエンコーダー700又はデコーダー740によって従来の参照ピクチャとして扱われるようにDPBに格納される。これにより、符号化プロセス及び復号化プロセスは従来通りとすることができる。マルチビュー参照ピクチャの格納に関する更なる詳細は後述する。予測すべき現フレームごとに、RPL及びDPBが対応して更新される。
マルチビュー規則の定義及び信号伝達
RPLを保持するプロセスは、エンコーダー700とデコーダー740との間で調整される。特に、エンコーダー及びデコーダーは、特定の現フレームを予測する際にマルチビュー参照ピクチャリストの同一コピーを保持する。
マルチフレーム参照ピクチャリストを保持するいくつかの規則が可能である。したがって、使用される特定の規則はビットストリーム731に挿入されるか、又はシーケンスレベルのサイド情報、例えばデコーダーに伝達される構成情報として提供される。さらに、この規則は、異なる予測構造、例えば1Dアレイ、2Dアレイ、弧、十字、及びビューの内挿技法又はワーピング技法を用いて合成されるシーケンスを可能にする。
例えば、合成フレームは、カメラによって取得されたマルチビュービデオのうちの1つの対応するフレームをワーピングすることによって生成される。代替的に、シーンの従来のモデルを合成中に用いることができる。本発明の他の実施形態では、ビュータイプ、挿入順、及びカメラ特性に依存するいくつかのマルチビュー参照ピクチャ保持規則を定義する。
ビュータイプは、参照ピクチャが現フレームのビデオ以外のビデオからのフレームであるかどうか、又は、参照ピクチャが他のフレームから合成されたものであるかどうか、又は、参照ピクチャが他の参照ピクチャに依存するかどうかを示す。例えば、合成参照ピクチャは、現フレームと同じビデオからの参照ピクチャ、又は空間的に隣接するビデオからの参照ピクチャとは別に保持することができる。
挿入順は、参照ピクチャがRPL内でどのように順序付けされるかを示す。例として、現フレームと同じビデオ中の参照ピクチャには、隣接ビューから撮影されたビデオ中の参照ピクチャよりも低い順序値を与えることができる。この場合、この参照ピクチャは、マルチビューRPLにおいて前の方に配置される。
カメラ特性は、参照ピクチャを取得するために使用されるカメラ、又は合成参照ピクチャを生成するために用いられる仮想カメラの特性を示す。これらの特性は、固定座標系に対する並進及び回転、すなわちカメラの「姿勢」、3Dの点が2D画像に投影される方法を記述する内部パラメータ、レンズ歪み、色較正情報、照明レベル等を含む。例として、カメラ特性に基づき、或る特定のカメラの隣接カメラに対する近接度を自動的に求めることができ、隣接カメラにより取得されたビデオのみを特定のRPLの一部とみなす。
図11に示すように、本発明の実施形態は、各参照ピクチャリストの一部1101を時間参照ピクチャ1003用に確保し、別の部分1102を合成参照ピクチャ1002用に確保し、第3の部分1103を空間参照ピクチャ1001用に確保する規則を使用する。これは、ビュータイプのみに依存する規則の一例である。各部分に含まれるフレーム数は、符号化又は復号化中の現フレームの予測依存性に基づいて変化し得る。
特定の保持規則は、規格、明示的ルール又は暗黙的ルールによって規定するか、又は符号化ビットストリームにおいてサイド情報として規定することができる。
DPBへのピクチャの格納
マルチビューRPLマネージャ1010は、マルチビュー参照ピクチャがDPBに格納される順序が、符号化及び復号化の効率を高める上でのピクチャの「有用性」に対応するようにRPLを保持する。具体的には、RPLの初めの方の参照ピクチャは、RPLの終わりの方の参照ピクチャよりも少ないビットで予測(predicatively)符号化することができる。
図12に示すように、マルチビュー参照ピクチャをRPLに保持する順序の最適化は、コーディング効率に大きな影響を有し得る。例えば、初期化に関して上述したPOC割り当てに従うと、マルチビュー参照ピクチャには非常に大きなPOC値が割り当てられる可能性がある。これは、マルチビュー参照ピクチャがビデオシーケンスの通常の時間的な順序付けでは生じないためである。したがって、ほとんどのビデオコーデックのデフォルトの順序付けプロセスは、そのようなマルチビュー参照ピクチャを参照ピクチャリストの前の方に配置する可能性がある。
同一シーケンスからの時間参照ピクチャは通常、他のシーケンスからの空間参照ピクチャよりも強い相関を示すため、デフォルトの順序付けは望ましくない。したがって、マルチビュー参照ピクチャはエンコーダーによって明示的に並べ替えられて、エンコーダーがその後、この並べ替えをデコーダーに信号伝達するか、又は、エンコーダー及びデコーダーがマルチビュー参照ピクチャを所定の規則に従って暗黙的に並べ替える。
図13に示すように、参照ピクチャの順序は、各参照ピクチャに対するビューモード1300によって容易になる。ビューモード1300もまたマルチビュー予測プロセス1060に影響を与えることに留意されたい。本発明の実施形態では、更に詳細に後述する3つの異なるタイプのビューモード、すなわち、Iビュー、Pビュー及びBビューを用いる。
マルチビュー参照ピクチャ管理の詳細な動作を説明する前に、単一ビデオの符号化及び復号化システムのための従来技術の参照ピクチャ管理を図14に示す。時間参照ピクチャ901のみが時間予測960に用いられる。取得順又は表示順1401におけるビデオの時間参照ピクチャ間の時間予測依存性を示す。参照ピクチャは符号化順1402に並べ替えられ(1410)、この符号化順1402で各参照ピクチャが時刻t〜tにおいて符号化又は復号化される。ブロック1420は、時刻ごとの参照ピクチャの順序付けを示す。イントラフレームIが符号化又は復号化される時刻tでは、時間予測に使用される時間参照ピクチャはないため、DBP/RPLは空である。一方向インターフレームPが符号化又は復号化される時刻tでは、フレームIが時間参照ピクチャとして利用可能である。時刻t及びtでは、フレームI及びPの両方がインターフレームB及びBの双方向時間予測のための参照フレームとして利用可能である。時間参照ピクチャ及びDBP/RPLは、将来のピクチャに関しても同様に管理される。
本発明の実施形態によるマルチビューの場合を説明するために、上述し図15に示す3つの異なるタイプのビュー、すなわち、Iビュー、Pビュー、及びBビューを検討する。表示順1501におけるビデオの参照ピクチャ間のマルチビューの予測依存性を示す。図15に示すように、ビデオの参照ピクチャはビューモードごとにコーディング順1502に並べ替えられ(1510)、このコーディング順1502で各参照ピクチャが、t〜tで示す所与の時刻において符号化又は復号化される。マルチビュー参照ピクチャの順序を時刻ごとにブロック1520に示す。
Iビューは、より複雑なモードを可能にする最も単純なモードである。Iビューは、空間予測も合成予測も用いない従来の符号化及び予測モードを用いる。例えば、Iビューは、マルチビュー拡張を用いずに従来のH.264/AVC技法を用いて符号化することができる。Iビューシーケンスからの空間参照ピクチャを他のビューの参照リストに配置する時、これらの空間参照ピクチャは通常、時間参照ピクチャの後に配置される。
図15に示すように、Iビューの場合、フレームIがtにおいて符号化又は復号化される時、予測に用いられるマルチビュー参照ピクチャはない。したがって、DBP/RPLは空である。フレームPが符号化又は復号化される時刻tでは、Iが時間参照ピクチャとして利用可能である。フレームBが符号化又は復号化される時刻tでは、フレームI及びPの両方が時間参照ピクチャとして利用可能である。
Pビューは、別のビューからの予測を可能にしてビュー間の空間的相関を利用するという点で、Iビューよりも複雑である。具体的には、Pビューモードを用いて符号化されるシーケンスは、他のIビュー又はPビューからのマルチビュー参照ピクチャを用いる。Pビューでは合成参照ピクチャも用いることができる。Iビューからのマルチビュー参照ピクチャを他のビューの参照リストに配置する時、Pビューは、時間参照ピクチャ、及びIビューから導出されるマルチビュー参照ピクチャの両方の後に配置される。
図15に示すように、Pビューの場合、フレームIがtにおいて符号化又は復号化される時、合成参照ピクチャS20及び空間参照ピクチャIが予測に利用可能である。合成ピクチャの生成に関する更なる詳細は後述する。Pが符号化又は復号化される時刻tでは、Iが時間参照ピクチャとして、合成参照ピクチャS21及びIビューからの空間参照ピクチャPとともに利用可能である。時刻tでは、2つの時間参照ピクチャI及びP、並びに合成参照ピクチャS22及び空間参照ピクチャBが存在し、これらの参照ピクチャから予測を行うことができる。
Bビューは、マルチビュー参照ピクチャを用いるという点で、Pビューと同様である。PビューとBビューとの間の1つの重要な差異は、Pビューがそのビュー自体及び1つの他のビューからの参照ピクチャを用いるのに対し、Bビューは複数のビューのピクチャを参照し得ることである。合成参照ピクチャを用いる時、合成ビューは通常、空間参照よりも強い相関を有するため、Bビューは空間参照ピクチャの前に配置される。
図15に示すように、Bビューの場合、Iがtにおいて符号化又は復号化される時、合成参照ピクチャS10並びに空間参照ピクチャI及びIが予測に利用可能である。Pが符号化又は復号化される時刻tでは、Iが時間参照ピクチャとして、合成参照ピクチャS11、並びにそれぞれIビュー及びPビューからの空間参照ピクチャP及びPとともに利用可能である。時刻tでは、2つの時間参照ピクチャI及びPが存在するとともに、合成参照ピクチャS12並びに空間参照ピクチャB及びBが存在し、これらの参照ピクチャから予測を行うことができる。
図15に示す例は本発明の実施形態に関するものに過ぎないことを強調しておく。多くの異なるタイプの予測依存性がサポートされる。例として、空間参照ピクチャは、同時刻の異なるビューにおけるピクチャに限定されない。空間参照ピクチャはまた、異なる時刻の異なるビューに対する参照ピクチャも含むことができる。また、イントラピクチャ間の双方向予測ピクチャ及び一方向予測インターピクチャの数は変化し得る。同様に、Iビュー、Pビュー、及びBビューの構成も変化し得る。さらに、異なるピクチャ集合又は異なる奥行きマップ若しくはプロセスを用いてそれぞれ生成されるいくつかの合成参照ピクチャが利用可能であり得る。
互換性
本発明の実施形態によるマルチビューピクチャ管理の1つの重要な利点は、既存のシングルビューのビデオコーディングシステム及び設計と互換性があることである。このマルチビューピクチャ管理は、既存のシングルビュービデオコーディング規格に加える変更が最小であるだけでなく、既存のシングルビュービデオコーディングシステムからのソフトウェア及びハードウェアを、本明細書に記載するマルチビュービデオコーディングに使用することも可能にする。
この理由は、ほとんどの従来のビデオ符号化システムが、符号化パラメータをデコーダーに圧縮ビットストリームで伝達するからである。したがって、このようなパラメータを伝達する構文は、H.264/AVC規格等の既存のビデオコーディング規格によって規定されている。例えば、ビデオコーディング規格は、現フレーム内の所与のマクロブロックに対する予測モードを、他の時間的に関連する参照ピクチャから規定する。この規格はまた、結果として生じる予測誤差を符号化及び復号化するために使用される方法を規定する。他のパラメータは、変換のタイプ又はサイズ、量子化方法、及びエントロピーコーディング方法を規定する。
したがって、本発明のマルチビュー参照ピクチャは、既存のシステムの参照ピクチャリスト、復号ピクチャバッファ、及び予測構造等の標準的な符号化コンポーネント及び復号化コンポーネントに限られた数の修正を加えるだけで実施することができる。マクロブロック構造、変換、量子化及びエントロピー符号化は変更されないことに留意されたい。
ビュー合成
図8に関して上述したように、ビュー合成は、仮想カメラ800の合成ビュー802に対応するフレーム801を、既存のビデオから取得されるフレーム803から生成するプロセスである。言い換えれば、ビュー合成は、入力ビデオが取得された時点では存在しない仮想カメラによるシーンの選択された新たなビューに対応するフレームを合成する手段を提供する。1つ又は複数の実際のビデオのフレームの画素値及びシーン中の点の奥行き値が与えられると、合成ビデオビューのフレーム内の画素を外挿及び/又は内挿により生成することができる。
合成ビューからの予測
図16は、奥行き1901の情報が符号化マルチビュービットストリーム731に含まれている時に、ビュー合成モードを用いて再構成マクロブロックを生成するプロセスを示す。所与のマクロブロックの奥行きは、サイド情報デコーダー1910によって復号化される。奥行き1901及び空間参照ピクチャ1902を用いてビュー合成1920を行い、合成マクロブロック1904を生成する。次に、合成マクロブロック1904と復号化された残差マクロブロック1905とを加算する(1930)ことによって再構成マクロブロック1903が形成される。
エンコーダーにおけるマルチビューモード選択の詳細
以下では、マルチビュービデオに対応する奥行き画像は、入力データの一部でないと仮定される。しかしながら、このプロセスは、奥行き画像が入力データの一部として存在するときは変更することができる。
図17は、現フレームの符号化又は復号化中に予測モードを選択するプロセスを示す。時間参照ピクチャ2020を用いて現マクロブロック2011に関して動き推定2010を行う。結果として得られる動きベクトル2021を用いて、時間予測を用いる第1のコーディングコストcost2031を求める(2030)。このプロセスに関連する予測モードはmである。
空間参照ピクチャ2041を用いて現マクロブロックに関して視差推定2040を行う。結果として得られる視差ベクトル2042を用いて、空間予測を用いる第2のコーディングコストcost2051を求める(2050)。このプロセスに関連する予測モードをmで示す。
空間参照ピクチャ2041に基づき現マクロブロックに関して奥行き推定2060を行う。推定した奥行きに基づいてビュー合成を行う。奥行き情報2061及び合成ビュー2062を用いて、ビュー合成予測を用いる第3のコーディングコストcost2071を求める(2070)。このプロセスに関連する予測モードはmである。
現マクロブロックの隣接画素2082を用いて、イントラ予測を用いる第4のコーディングコストcost2081を求める(2080)。このプロセスに関連する予測モードはmである。
cost、cost、cost及びcostの中の最小コストを求め(2090)、モードm、m、m及びmの中で最小コストを有するモードを、現マクロブロック2011の最良予測モード2091として選択する。
奥行き推定を用いたビュー合成
ビュー合成モード2091を用いて、合成ビューの奥行き情報及び変位ベクトルを、1つ又は複数のマルチビュービデオの復号化フレームから推定することができる。奥行き情報は、適用されるプロセスに応じて、立体カメラから推定される画素ごとの奥行きであってもよく、又は、マクロブロックマッチングから推定されるマクロブロックごとの奥行きであってもよい。
この手法の利点は、エンコーダーがデコーダーと同じ奥行き情報及び変位情報にアクセス可能である限り、奥行き値及び変位ベクトルがビットストリーム中に必要ないため、帯域幅が小さくなることである。エンコーダーは、デコーダーがエンコーダーと全く同じ奥行き及び変位推定プロセスを使用する限り、これを達成することができる。したがって、本発明のこの実施形態では、現マクロブロックと合成マクロブロックとの差がエンコーダーによって符号化される。
このモードのサイド情報はサイド情報エンコーダー720によって符号化される。サイド情報は、ビュー合成モードを示す信号及び参照ビュー(複数可)を含む。サイド情報は、エンコーダーによってビュー合成に使用される奥行き及び変位と、デコーダーによって推定される値との間の差である奥行き及び変位補正情報も含むことができる。
図18は、奥行き情報がデコーダーにおいて推定又は推測され、符号化マルチビュービットストリームで伝達されない時の、ビュー合成モードを用いたマクロブロックの復号化プロセスを示す。奥行き2101は空間参照ピクチャ2102から推定される(2110)。次に、推定された奥行き及び空間参照ピクチャを用いてビュー合成2120を行い、合成マクロブロック2121を生成する。再構成マクロブロック2103が、合成マクロブロックと復号化された残差マクロブロック2104との加算2130によって形成される。
空間ランダムアクセス
従来のビデオ中のフレームに対しランダムアクセスを提供するために、Iフレームとしても知られるイントラフレームが通常、ビデオ全体に間隔を置いて配置される。これにより、デコーダーは、復号化シーケンス中の任意のフレームにアクセスすることが可能になるが、圧縮効率は低下する。
本発明のマルチビューの符号化及び復号化システムのために、本明細書中において「Vフレーム」と呼ぶ新たなタイプのフレームを提供し、ランダムアクセス及び圧縮効率の向上を可能にする。Vフレームは、時間予測を用いずに符号化されるという意味でIフレームと同様である。しかし、Vフレームは、他のカメラからの予測又は合成ビデオからの予測も可能にする。具体的には、Vフレームは、空間参照ピクチャ又は合成参照ピクチャから予測される圧縮ビットストリーム中のフレームである。Iフレームの代わりにVフレームをビットストリームに周期的に挿入することによって、本発明では、Iフレームで可能であるような時間ランダムアクセスを、より高い符号化効率で提供する。したがって、Vフレームは時間参照フレームを使用しない。図19は、最初のビューに対するIフレームの使用、及び同時刻1900における以後のビューに対するVフレームの使用を示す。図5に示す格子構成の場合、Vフレームは、全てのビューに関して同時刻には生じないことに留意されたい。低域フレームのいずれかにVフレームを割り当てることができる。この場合、Vフレームは、近傍ビューの低域フレームから予測されることになる。
H.264/AVCビデオコーディング規格では、クローズドGOPを有するMPEG−2のIフレームに似たIDRフレームが、全ての参照ピクチャが復号ピクチャバッファから削除されることを示唆する。これにより、IDRフレームの前のフレームは、IDRフレームよりも後のフレームの予測に用いることができない。
本明細書中に記載するマルチビューデコーダーでは、Vフレームが同様に、全ての時間参照ピクチャを復号ピクチャバッファから削除することができることを示唆する。しかし、空間参照ピクチャは復号ピクチャバッファに残しておくことができる。これにより、所与のビューにおけるVフレームの前のフレームは、同一ビューにおけるVフレームの後のフレームの時間予測を行うために用いることができない。
マルチビュービデオのうちの1つの特定のフレームにアクセスするためには、そのビューのVフレームをまず復号化しなければならない。上述のように、これは、時間参照ピクチャを使用することなく、空間参照ピクチャ又は合成参照ピクチャからの予測により達成することができる。
選択ビューのVフレームを復号化した後、そのビューの以後のフレームを復号化する。これらの以後のフレームは、近傍ビューからの参照ピクチャに対して予測依存性を有する可能性が高いため、これらの近傍ビューにおける参照ピクチャも復号化する。
マルチビューの符号化及び復号化
上記セクションは、マルチビューのコーディング及び奥行き推定における予測を改善するためのビュー合成を説明する。次に、可変ブロックサイズの奥行き及び動き探索、レート−歪み(RD:rate−distotion)の決定、サブペル参照奥行き探索、並びに奥行き情報の文脈適応2進法算術コーディング(CABAC:context−adaptive binary arithmetic coding)の実装を説明する。コーディングは、エンコーダーにおける符号化及びデコーダーにおける復号化を含み得る。CABACは、H.264規格パート10(引用することにより本明細書中の一部をなす)により規定される。
ビュー合成予測
カメラ間及び時刻間の両方に存在する相関を取り込むために、2つのブロック予測方法を実施した。
視差補償ビュー予測(DCVP:disparity compensated view prediction)、及び
ビュー合成予測(VSP:view synthesis prediction)
DCVP
第1の方法であるDCVPは、同一(ビュー)カメラの異なる時刻からのフレームを使用するのではなく、同時刻における異なるカメラ(ビュー)からのフレームを使用して現フレームを予測することに対応する。DCVPは、例えば遮蔽、物体がシーンに入ってくるか又はシーンから出て行くこと、又は速い動きのために時間的相関が空間的相関よりも低い場合に利得を提供する。
VSP
第2の方法であるVSPは、仮想カメラのフレームを合成してフレームシーケンスを予測する。VSPは、カメラビュー間の並進でない動きの存在によりDCVPに対して相補的であり、実際の応用において多くの場合にそうであるように、カメラパラメータが高品質の仮想ビューを提供するのに十分に正確である場合に利得を提供する。
図20に示すように、本発明では、既に符号化されたビューから仮想ビューを合成し、次に、合成ビューを用いて予測コーディングを行うことにより、マルチビュービデオのこれらの特徴を利用する。図20は、横軸に時間を、縦軸にビューを、ビューの合成及びワーピング2001、並びにビューの合成及び内挿2002とともに示す。
具体的には、カメラcごとに、まずBuehler他(上記を参照)の非構造的なルミグラフのレンダリング技法に基づいて仮想フレームI’[c,t,x,y]を合成し、次に合成ビューを用いて現シーケンスを予測符号化する。
フレームI’[c,t,x,y]を合成するには、まず、画素(x,y)に対応する物体が時刻tにおいてカメラcからどれだけ離れているかを示す奥行きマップD[c,t,x,y]、並びに何らかのワールド座標系に対するカメラcの位置を記述する内部行列A(c)、回転行列R(c)、及び並進ベクトルT(c)が必要である。
これらの量を用いて、既知のピンホールカメラモデルを適用し、画素位置(x,y)を次式によりワールド座標[u,v,w]に投影することができる。
Figure 0005744333
次に、ワールド座標を次式により、予測を行う基準としたいカメラc’のフレームのターゲット座標[x’,y’,z’]に写像する。
Figure 0005744333
最後に、画素位置を得るために、ターゲット座標を同次形[x’/z’,y’/z’,1]に変換し、合成フレーム内の画素位置(x,y)の強度はI’[c,t,x,y]=I[c’,t,x’/z’,y’/z’]となる。
可変ブロックサイズの奥行き/動き推定
上記では、構文を変更することなくDCVPの使用を可能にするピクチャバッファの管理方法を説明した。カメラビュー間の視差ベクトルは、動き推定ステップを用いることによって求め、単なる拡張参照タイプとして用いることができた。VSPをもう1つのタイプの参照として用いるために、通常の動き推定プロセスを以下のように拡張する。
候補マクロブロックタイプmb_typeと、おそらくは合成マルチビュー参照フレームすなわちVSPを含むN個の可能な参照フレームとが与えられた状態で、サブマクロブロックごとに参照フレームを、ラグランジュ乗数λmotion又はλdepthをそれぞれ用いて以下のラグランジュコストJを最小化する動きベクトル
Figure 0005744333
又は奥行き/補正ベクトル対Jとともに求める。
Figure 0005744333
ただし、
Figure 0005744333
であり、
Figure 0005744333
である。ここで、検討中のサブマクロブロック(sub−MB)内の全ての画素の和をとり、Xp_synth又はXp_motionは参照サブマクロブロック中の画素の強度を指す。
ここで、「動き」は時間的な動きだけでなく、ビュー間の視差から生じるビュー間の動きも指すことに留意されたい。
奥行き探索
本発明では、ブロックベースの奥行き探索プロセスを用いて、可変サイズのサブマクロブロックごとに最適な奥行きを求める。具体的には、最小奥行き値Dmin、最大奥行き値Dmax、及び増分奥行き値Dstepを定義する。次に、予測したいフレーム内の可変サイズのサブマクロブロックごとに、次式の合成ブロックの誤差を最小化する奥行きを選択する。
Figure 0005744333
ここで、‖I[c,t,x,y]−I[c’,t,x’,y’]‖は、時刻tにおけるカメラcの(x,y)を中心とするサブマクロブロックと、予測を行う基準となる対応するブロックとの間の平均誤差を示す。
基本的なVSPプロセスの性能を高めるためのさらなる精緻化として、カメラパラメータのわずかな不正確さ(ピンホールカメラモデルでは取り込まれない非理想的なもの)のために、合成補正ベクトルを加算するとVSPの性能が大幅に改善されることが分かる。
具体的には、図21に示すように、マクロブロック2100ごとに、ターゲットフレーム2101を参照フレーム2102に写像し、次に合成フレーム2103に写像する。しかし、式(1)を用いて内挿を行う基準となる座標を計算する代わりに、本発明では、合成補正ベクトル(C,C)2110を元の画素座標の各集合に加算することによって[u,v,w]を計算し、次式を得る。
Figure 0005744333
+/−2という小さな補正ベクトル探索範囲により、多くの場合に、結果として得られる合成参照フレームの品質が大きく改善されることを発見した。
サブピクセル参照マッチング
異なるカメラの2つの対応する画素の視差は概して、整数の正確な倍数では与えられないため、式(2)により与えられる予測を行う基準としたいカメラc’のフレームのターゲット座標[x’,y’,z’]は、常に整数グリッドの点に該当するとは限らない。したがって、本発明では内挿を用いて、参照フレーム内のサブペル位置の画素値を生成する。これにより、整数ペルではなく最も近いサブペル参照点を選択できるようになり、画素間の真の視差により正確に近似する。
図22はこのプロセスを示し、「oxx...ox」は画素を示す。H.264規格においてサブペル動き推定に採用される同じ内挿フィルタを本発明の実装において用いる。
サブピクセル精度の補正ベクトル
本発明では、サブペル精度の補正ベクトルの使用を可能にすることにより合成品質を更に高めることができる。これは特に、上述のサブペル参照マッチングと組み合わせる場合に当てはまる。なお、サブペル動きベクトル探索とこのサブペル補正ベクトル探索との間にはわずかな違いがある。
動きベクトルの場合、通常は、参照ピクチャ内のサブペル位置を探索し、RDコストを最小化するサブペル位置を指すサブペル動きベクトルを選択する。しかし、補正ベクトルの場合、最適な奥行き値を求めた後、現ピクチャ内のサブペル位置を探索して、RDコストを最小化する補正ベクトルを選択する。
現ピクチャにおけるサブペル補正ベクトル分のシフトが、参照ピクチャにおいて同じシフト量になるとは限らない。言い換えれば、参照ピクチャ内の対応する一致は常に、式(1)及び式(2)の幾何変換後に最も近いサブペル位置に丸めることによって見付かる。
サブペル精度の補正ベクトルのコーディングは比較的複雑であるが、このコーディングにより合成品質が大幅に改善され、多くの場合にRD性能が改善されることを観測している。
YUV−奥行き探索
奥行き推定では、規則化により、より滑らかな奥行きマップを達成することができる。規則化は、合成予測の視覚的品質を改善するが、差分絶対値和(SAD:sum of abusolute differences)により測定した場合にその予測品質をわずかに低下させる。
従来の奥行き探索プロセスは、入力画像のYのルミナンス成分のみを用いて、奥行きマップの奥行きを推定する。これにより、Y成分の予測誤差が最小化されるが、合成予測では例えばカラーミスマッチの形態の視覚アーチファクトを生じることが多い。これは、最終的な再構成物の客観的品質(すなわちU、VのPSNR)及びカラーミスマッチの形態の主観的品質が低下する可能性が高いことを意味する。
この問題に対処するために、本発明では、奥行き探索プロセスを拡張して、Yのルミナンス成分並びにU及びVのクロミナンス成分を用いる。Y成分のみを用いた場合、予測誤差を最小化することによりブロックが参照フレームにおいて良好な一致を見付ける可能性があるが、これらの2つの一致領域は2つの完全に異なる色である可能性があるため、視覚アーチファクトが生じる可能性がある。したがって、U及びVの予測及び再構成の品質は、奥行き探索プロセスにU成分及びV成分を組み込むことによって高めることができる。
RDモード決定
モード決定は、次のように定義されるラグランジュコスト関数Jmodeを最小化するmb_typeを選択することによって行うことができる。
Figure 0005744333
ここで、Xは、参照MB、すなわち、合成マルチビュー参照、純粋なマルチビュー参照又は時間参照のMB内の画素の値を指し、Rside−infoは、参照フレームのタイプにより、参照インデックス及び奥行き値/補正値を符号化するビットレート、又は動きベクトルを含む。
上述した方法は、マルチビュービデオに対応する奥行き画像が入力データの一部であると仮定していない。奥行き画像が、符号化及び復号化されるコンテンツの一部である場合、奥行き画像用のレートは、サイド情報レートの一部としてカウントされるべきではない。すなわち、Rside−infoは、上記ラグランジュコスト関数から取り除かれる。
サイド情報のCABACによる符号化
本発明では、各合成MBがRDモード決定により最良の参照として選択される場合に、そのMBの奥行き値及び補正ベクトルを符号化しなければならないことに留意されたい。奥行き値及び補正ベクトルの両方が、連結単項/三次指数ゴロム(concatenated unary/3rd−order Exp−Golomb)(UEG3)2値化を用いて、signedValFlag=1とし、カットオフパラメータuCoff=9として、動きベクトルと全く同様に量子化される。
次に、結果として得られる2進表現のビンに異なる文脈モデルを割り当てる。奥行き及び補正ベクトル成分に対するctxIdxIncの割り当ては基本的に、ITU−T勧告H.264及びISO/IEC 14496−10(MPEG−4)AVC「Advanced Video Coding for Generic Audiovisual Services」(第3版、2005年)(引用することにより本明細書中の一部をなす)の表9−30に規定されるような動きベクトルの場合と同じである。ただし本発明では、節(subclause)9.3.3.1.1.7を1番目のビンに適用しない。
本実施形態では、動きベクトルと同じ予測方式を用いて奥行き値及び補正ベクトルを予測符号化する。MB又は8×8という小さいサイズのサブMBが、時間フレーム、マルチビューフレーム、又は合成マルチビューフレームからの独自の参照ピクチャを持つことができるため、サイド情報のタイプはMBごとに異なり得る。これは、同一の参照ピクチャを有する近傍MBの数が少なくなる可能性があることを示唆し、サイド情報(動きベクトル又は奥行き/補正ベクトル)の予測効率が低くなる可能性がある。
合成参照を用いるためにサブMBが選択されるが、同じ参照を有するMBが周囲にない場合、予測を用いずにその奥行き/補正ベクトルを個別にコーディングする。実際に、固定長表現を用いて補正ベクトル成分を2値化した後に、結果として得られたビンをCABAC符号化すれば十分である場合が多いことが分かった。これは、合成参照を用いるために選択されるMBは孤立している傾向がある、すなわち、それらのMBには同一参照ピクチャを有する近傍MBがなく、補正ベクトルは通常、動きベクトルの場合に比べて近傍との相関が低いためである。
構文及び意味
上述のように、本発明では、時間参照及び純粋なマルチビュー参照に加えて合成参照ピクチャを組み込む。上記では、上記で参照したH.264/AVC規格における既存の参照ピクチャリスト管理と互換性のあるマルチビュー参照ピクチャリスト管理方法を説明した。
本実施形態における合成参照は、マルチビュー参照の特別な場合として見なされるため、全く同様に処理される。
本明細書では、マルチビューの識別及び予測構造を記述するために、view_parameter_setと呼ばれる新たな高レベルの構文要素を定義する。パラメータをわずかに修正することにより、現参照ピクチャが合成タイプのものであるか否かを識別することができる。したがって、所与の(サブ)MBの奥行き/補正ベクトル又は動きベクトルを参照のタイプに応じて復号化することができる。したがって、マクロブロックレベルの構文を付録Aに規定するように拡張することによって、この新たなタイプの予測の使用を統合することができる。
スキップモード
従来のスキップモードでは、動きベクトル情報及び参照インデックスは、同じ場所にあるマクロブロック又は近傍マクロブロックから導出される。ビュー合成に基づくビュー間予測を考えると、その同じ場所にあるマクロブロック又は近傍マクロブロックから奥行きベクトルの情報及び補正ベクトルの情報を導出する類似のモードも同様に考えられる。この新たな符号化モードを合成スキップモードと呼ぶ。
Pスライス及びBスライスの両方に適用される、図23に示すような従来のスキップモードでは、残差データは現マクロブロック(X)2311のために符号化されない。Pスライスにおけるスキップのために、参照リスト2301内の第1のエントリー2304が情報を予測及び導出するための参照として選択され、一方でBスライスにおけるスキップのために、近傍マクロブロック(A、B、C)2312〜2314の中から参照リスト2301内の最初のエントリー2305が情報を予測及び導出するための参照として選択される。
例えば図11に示すように、ビュー合成参照ピクチャが参照ピクチャリスト内の第1のエントリーとして順序付けられていないと仮定すると、Pスライス及びBスライスの両方におけるスキップモードのための参照ピクチャは決して既存の構文、及び以下の従来の復号化プロセスによるビュー合成ピクチャではない。しかし、ビュー合成ピクチャは視差補償ピクチャ又は動き補償ピクチャと比較してより良好な品質を提供することができるため、ビュー合成参照ピクチャに基づくスキップモードを可能にする、既存の構文及び復号化プロセスに対する変更を説明する。
ビュー合成参照に関してスキップモードを利用するために、既存のmb_skip_flagに対する修正によってシグナリングされる(signaled)合成スキップモードを提供する。現時点で、既存のmb_skip_flagが1に等しい場合、マクロブロックはスキップされ、既存のmb_skip_flagが0に等しい場合、マクロブロックはスキップされない。
第1の実施形態では、mb_skip_flagが1に等しい場合に付加的なビットが追加され、従来のスキップモードと新たな合成スキップモードとが区別される。付加的なビットが1に等しい場合、これは合成スキップモードをシグナリングし、そうではなく付加的なビットが0に等しい場合、従来のスキップモードが用いられる。
上記のシグナリング方式は、スキップされるマクロブロックの数が少ない傾向にある、比較的高いビットレートで良好に動作する。しかし、低いビットレートでは、従来のスキップモードがより頻繁に起動されると予測される。したがって、合成スキップモードを含むシグナリング方式は、従来のスキップをシグナリングする付加的なオーバヘッドを負うべきではない。第2の実施形態では、mb_skip_flagが0に等しい場合に付加的なビットが追加され、従来の非スキップモードと新たな合成スキップモードとが区別される。付加的なビットが1に等しい場合、これは合成スキップモードをシグナリングし、そうではなく付加的なビットが0に等しい場合、従来の非スキップモードが用いられる。
スライス又はピクチャのために高い割合の合成スキップモードが選択される場合、マクロブロックごとに合成スキップモードをシグナリングするオーバヘッドを低減することによって、全体の符号化効率を高めることができる。第3の実施形態では、合成スキップモードはスライス内の全てのマクロブロックにまとめてシグナリングされる。これは、ビットストリームのスライス層構文に含まれるslice_skip_flagによって達成される。このslice_skip_flagのシグナリングは、第1の実施形態及び第2の実施形態において説明したmb_skip_flagと一致する。
図24に示されるように、合成スキップモードがPスライスにシグナリングされる場合、参照ピクチャリスト2401内の第1のビュー合成参照ピクチャ2402が、従来のスキップの場合の参照ピクチャリスト2301内の第1のエントリー2304の代わりに参照として選択される。合成スキップモードがBスライスにシグナリングされる場合、参照ピクチャリスト2401内の最初のビュー合成参照ピクチャ2403が、従来のスキップの場合の参照ピクチャリスト2301内の最初のエントリー2305の代わりに参照として選択される。
参照情報は、近傍境界A2312、B2313、及びC2314から導出される。マルチビュービデオに対応する奥行き画像が入力データの一部でなく、奥行き値が境界ごとに推定される1つの実施形態では、合成スキップモード用の奥行き及び補正ベクトルの情報は、次のように導出される。
奥行きベクトルdpthLXNは3つの成分(Depth、CorrX、CorrY)を含み、Depthは境界に関連する奥行きを表すスカラー値であり、CorrX及びCorrYはそれぞれ、境界に関連する補正ベクトルの水平成分及び垂直成分である。奥行きベクトルが導出される現境界の参照インデックスrefIdxLXが、上記で説明したように、現スライスがPスライス又はBスライスのいずれであるかに応じて、第1のビュー合成参照ピクチャ又は最初のビュー合成参照ピクチャとして割り当てられる。
このプロセスに対する入力は、近傍境界A2312、B2313及びC2314、dpthLXN(NはA、B又はCに置き換えられる)と記される、近傍境界のそれぞれの奥行きベクトル、近傍境界の参照インデックスrefIdxLXN(NはA、B又はCに置き換えられる)、並びに現境界の参照インデックスrefIdxLXである。
このプロセスの出力は奥行きベクトル予測dpthpLXである。変数dpthpLXは以下のように導出される。近傍境界B2313も近傍境界C2314も利用可能でなく、かつ近傍境界A2312が利用可能である場合、以下の割り当てが適用される:dpthLXB=dpthLXAかつdpthLXC=dpthLXA、refIdxLXB=refIdxLAかつrefIdxLXC=refIdxLA。
refIdxLXNが、参照インデックスrefIdxLXを有する合成マルチビュー参照ピクチャが合成されるマルチビュー参照ピクチャの参照インデックスである場合、refIdxLXNはrefIdxLXに等しいと考えられ、その関連する奥行きベクトルdpthLXNは、視差を参照インデックスrefIdxLXNを有する参照ピクチャから参照インデックスrefIdxLXを有する参照ピクチャに関連する等価の奥行きベクトルに変換することによって導出される。
参照インデックスrefIdxLXA、refIdxLXB又はrefIdxLXCに応じて、以下が適用される。参照インデックスrefIdxLXA、refIdxLXB又はrefIdxLXCのうちのただ1つが現境界の参照インデックスrefIdxLXに等しい場合、以下が適用される。refIdxLXNをrefIdxLXに等しい参照インデックスとし、奥行きベクトルdpthLXNは奥行きベクトル予測dpthpLXに割り当てられる。そうでない場合、奥行きベクトル予測dpthpLXの各成分は、奥行きベクトルdpthLXA、dpthLXB及びdpthLXCの対応するベクトル成分の平均によって与えられる。
別の実施形態では、マルチビュービデオに対応する奥行き画像は、入力データの一部であり、このデータは、ビットストリームの一部として符号化される。したがって、導出される参照情報は、参照ピクチャインデックスrefIdxLX及び動きベクトル(X,Y)を含む。
導出プロセスの2つの例を図26及び図27に関して説明する。
双方の例について、入力は、SKIPタイプ、近傍境界A2312、B2313、及びC2314、これらの近傍境界のそれぞれの基準インデックスrefIdxLXN、並びに動きベクトル(XN,YN)である。ここで、Nは、A、B、又はCに等しい。このプロセスの出力は、現境界の参照ピクチャインデックスrefIdxLX及び動きベクトル(X,Y)である。
1つの実施形態が図26に示されている。この手順は、マクロブロック(MB)インデックスを設定し(2602)、ヘッダーをパースする(2603)ことによって開始する(2601)。MBが、スキップしないことを示している場合(2610)、非スキップMBを復号化し(2620)、更にMBを処理する必要があるか否かを判断し(2670)、処理する必要がない場合には終了する(2680)。処理する必要がある場合、MBインデックスをインクリメントする(2671)。
Skip_Typeが0である場合(2630)、RefIdxLXが第1の合成参照ピクチャを指し示すように設定し(2640)、動きベクトル(X,Y)をゼロベクトルとなるように設定し(2650)、導出されたRefIdxLX及び動きベクトル(X,Y)を用いて予測を行い(2660)、2670に続く。
0でない場合、近傍A、B、及びCから参照ピクチャインデックスRefIdxLX、動きベクトル(X,Y)を導出し(2621)、2660に続く。
図27に示す別の実施形態では、SKIP_Typeは異なって解釈される。これは、2つの値のうちの一方とすることができ、値0は従来のSKIPを示し、値1は、適応基準SKIPを示し、これらは、前に説明したようにシグナリングすることができる。値0の場合、refIdxLX及び動きベクトル(X,Y)は、従来の方法で近傍境界から導出される(2720)。合成参照ピクチャが近傍境界によって選択される場合、合成ピクチャは、この手順において選択することができることに留意されたい。換言すれば、値0は、SKIPモード用の従来の復号化プロセスを変更せずに維持することになる。この設計を用いると、予測方法は、非合成基準を参照するのか又は合成基準を参照するのかにかかわらず、後続の境界に容易に伝わることができる。
一方、値1は、以下で定義するような適応基準スキップモード用の新たなプロセスを起動する。基準インデックスrefIdxLXが、近傍境界から最初に導出される。refIdxLXが、合成参照ピクチャを指し示している場合(2740)、refIdxLXは、時間参照ピクチャ又はビュー間(空間)参照ピクチャのいずれかである第1の非合成参照ピクチャを指し示すように強制される(2750)。そうでない場合、refIdxLXは、リスト内の第1の合成参照ピクチャを指し示すように変更される(2745)。MV予測子は、ゼロベクトルに常に設定される。換言すれば、値1は、近傍境界からの導出された予測方法を変更するトリガーとしての機能を果たす。
この実施形態によると、SKIPモードを有する合成予測又は非合成予測を直接シグナリングするのではなく、予測方法を後続の境界に伝える手段又は予測方法を変更する手段が可能になる。
ダイレクトモード
スキップモードと同様に、Bスライスのための従来のダイレクトモードもまた、近傍マクロブロックから動きベクトル情報及び参照インデックスを導出する。ダイレクトモードは残差データも存在する点でスキップモードと異なる。合成スキップモードを提供するのと同じ理由から、本発明では合成ダイレクトモード及び適応基準ダイレクトモードと呼ぶ、ダイレクトモードの類似の拡張も説明する。
従来のダイレクトモードを起動するために、マクロブロックは非スキップとしてコーディングされる。次に、ダイレクトモードを16×16マクロブロック及び8×8マクロブロックの両方に適用することができる。これらのダイレクトモードの両方は、マクロブロックモードとしてシグナリングされる。
別の実施形態では、合成ダイレクトモードをシグナリングする方法は、候補マクロブロックモードのリストに付加的なモードを追加することによって行われる。
第2の実施形態では、合成ダイレクトモードすなわち適応基準ダイレクトモードをシグナリングする方法は、16×16マクロブロック又は8×8マクロブロックが合成ダイレクトモードすなわち適応基準ダイレクトモードとしてコーディングされることを示す付加的なフラグをシグナリングすることによって行われる。
合成ダイレクトモードがBスライスにシグナリングされる場合、参照ピクチャリスト内の最初のビュー合成参照ピクチャが従来のダイレクトモードの場合の参照ピクチャリスト内の最初のエントリーの代わりに参照として選択される。
適応基準ダイレクトモードがBスライスにシグナリングされるとともに、導出された参照ピクチャインデックスが非合成参照ピクチャに関連付けられているとき、従来のダイレクトモードの場合における参照ピクチャリスト内の最初のエントリーではなく、参照ピクチャリスト内の最初のビュー合成参照ピクチャが参照として選択される。
他方、適応基準ダイレクトモードがBスライスにシグナリングされるとともに、導出された参照ピクチャインデックスが合成参照ピクチャに関連付けられているとき、参照ピクチャリスト内の最初の非合成参照ピクチャが参照ピクチャとして選択される。
入力データの一部として利用可能なマルチビュービデオに対応する奥行き画像が存在するか否かにかかわらず、奥行き及び補正ベクトルの情報を導出するための、合成スキップモードと同じプロセスが、合成ダイレクトモードの場合に行われる。同様に、適応基準スキップモードと同じ、参照ピクチャインデックス情報を導出するプロセスが適応基準ダイレクトモードについて行われる。
奥行き画像が複数の視点に利用可能である用途では、複数の奥行きマップをマルチビューカラービデオと同様の方法で符号化することができる。合成ピクチャを参照として用いる本発明において説明したプロセスは、第2の奥行きマップを符号化するのに適用することもできる。すなわち、第1の視点からの奥行きマップを、それ自体のデータを用いて第2の視点にワープさせて、合成奥行き画像を生成することができる。その後、この合成奥行き画像は、第2の奥行き画像を符号化及び復号化するために参照ピクチャとして用いられる。
付録A
Figure 0005744333
Figure 0005744333
節7.4.5.1 マクロブロック予測の意味の補足
depthd_l0[mbPartIdx][0]は、使用される奥行き値とその予測との間の差を指定する。インデックスmbPartIdxは、どのマクロブロック境界にdepthd_l0を割り当てるのかを指定する。マクロブロックの分割はmb_typeにより指定される。
depthd_l1[mbPartIdx][0]は、depthd_l0と同じ意味を有し、l0がl1に置き換わっている。
corr_vd_l0[mbPartIdx][0][compIdx]は、使用される補正ベクトル成分とその予測との間の差を指定する。インデックスmbPartIdxは、どのマクロブロック境界にcorr_vd_l0を割り当てるのかを指定する。マクロブロックの分割はmb_typeにより指定される。水平方向の補正ベクトル成分の差が復号化順で最初に復号化され、CompIdx=0が割り当てられる。垂直方向の補正ベクトル成分が復号化順で次に復号化され、CompIdx=1が割り当てられる。
corr_vd_l1[mbPartIdx][0][compIdx]は、corr_vd_l0と同じ意味を有し、l0がl1に置き換わっている。
節7.4.5.2 サブマクロブロック予測の意味の補足
depthd_l0[mbPartIdx][subMbPartIdx]はdepthd_l0と同じ意味を有するが、ただし、subMbPartIdxを有するサブマクロブロック境界インデックスに適用される。インデックスmbPartIdx及びsubMbPartIdxは、どのマクロブロック境界及びサブマクロブロック境界にdepthd_l0を割り当てるのかを指定する。
depthd_l1[mbPartIdx][subMbPartIdx]はdepthd_l0と同じ意味を有し、l0がl1に置き換わっている。
corr_vd_l0[mbPartIdx][subMbPartIdx][compIdx]は、corr_vd_l0と同じ意味を有するが、ただし、subMbPartIdxを有するサブマクロブロック境界インデックスに適用される。インデックスmbPartIdx及びsubMbPartIdxは、どのマクロブロック境界及びサブマクロブロック境界にcorr_vd_l0を割り当てるのかを指定する。
corr_vd_l1[mbPartIdx][subMbPartIdx][compIdx]はcorr_vd_l1と同じ意味を有し、l0がl1に置き換わっている。
Figure 0005744333
ビューパラメータ集合の意味の補足
multiview_typeが1である場合、現ビューが他のビューから合成されることを指定する。multiview_typeが0である場合、現ビューが合成されたものではないことを示す。
multiview_synth_ref0は、合成に用いられる第1のビューのインデックスを指定する。
multiview_synth_ref1は、合成に用いられる第2のビューのインデックスを指定する。

Claims (23)

  1. シーンのマルチビュービデオを処理する方法であって、各ビデオは、特定の姿勢に配置された対応するカメラによって取得され、各カメラのビューは、少なくとも1つの他のカメラの前記ビューと重なり、前記方法は、
    前記マルチビュービデオの特定のビューを合成するサイド情報を取得するステップと、
    記マルチビュービデオ及び前記サイド情報から合成マルチビュービデオを合成するステップと、
    記マルチビュービデオのそれぞれの各現フレーム用の参照ピクチャリストを保持するステップであって、前記参照ピクチャリスト、取得された前記マルチビュービデオの時間参照ピクチャ及び空間参照ピクチャと、前記合成マルチビュービデオの前記合成参照ピクチャとをインデックス付けする、ステップと、
    適応基準スキップモード又は適応基準ダイレクトモードによって、関連する前記参照ピクチャリストによりインデックス付けされた参照ピクチャに基づいて、前記マルチビュービデオの各現フレームを予測するステップと、を含み
    前記適応基準スキップモード及び前記適応基準ダイレクトモードは、複数の前記参照ピクチャのうちの1つを用いるものであって、指示された前記参照ピクチャが前記合成参照ピクチャの場合は前記合成参照ピクチャ以外の参照ピクチャを指示するよう変更するとともに、指示された前記参照ピクチャが前記合成参照ピクチャ以外の参照ピクチャの場合は前記合成参照ピクチャを指示するよう変更する、
    シーンのマルチビュービデオを処理する方法。
  2. 前記適応基準スキップモードによってインデックス付された参照ピクチャ前記合成参照ピクチャに関連する、請求項1に記載の方法。
  3. 前記適応基準スキップモードによってインデックス付された参照ピクチャ時間参照ピクチャに関連する、請求項1に記載の方法。
  4. 前記適応基準スキップモードによってインデックス付された参照ピクチャ空間参照ピクチャに関連する、請求項1に記載の方法。
  5. 前記適応基準スキップモードは付加的なビットを追加することによってシグナリングされる、請求項1に記載の方法。
  6. 前記付加的なビットは、mb_skip_flagが1に等しいときに追加される、請求項5に記載の方法。
  7. 前記適応基準スキップモードは或るスライス層においてシグナリングされ、前記スライス内の全てのマクロブロックに前記適応基準スキップモードがまとめてシグナリングされる、請求項2に記載の方法。
  8. 近傍ブロックの前記参照ピクチャインデックスを用いて、各現フレームのブロックの前記参照ピクチャインデックスを導出することを更に含む、請求項1に記載の方法。
  9. 前記適応基準スキップモードは、Pスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが非合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の第1の合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
  10. 前記適応基準スキップモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが非合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
  11. 前記適応基準スキップモードは、Pスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の第1の非合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
  12. 前記適応基準スキップモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の非合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
  13. 前記適応基準ダイレクトモードによってインデックス付された参照ピクチャ前記合成参照ピクチャに関連する、請求項1に記載の方法。
  14. 前記適応基準ダイレクトモードによってインデックス付された参照ピクチャ時間参照ピクチャに関連する、請求項1に記載の方法。
  15. 前記適応基準ダイレクトモードによってインデックス付された参照ピクチャ空間参照ピクチャに関連する、請求項1に記載の方法。
  16. 前記適応基準ダイレクトモードは付加的なビットを追加することによってシグナリングされる、請求項1に記載の方法。
  17. 前記適応基準ダイレクトモードは或るスライス層においてシグナリングされ、前記スライス内の全てのマクロブロックに前記適応基準ダイレクトモードがまとめてシグナリングされる、請求項1に記載の方法。
  18. 前記適応基準ダイレクトモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが非合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
  19. 前記適応基準ダイレクトモードは、Bスライス用にシグナリングされ、前記導出された参照ピクチャインデックスが合成参照ピクチャに関連付けられている場合、前記参照ピクチャリスト内の最初の非合成参照ピクチャが前記参照ピクチャとして選択される、請求項8に記載の方法。
  20. 前記サイド情報は、奥行き値を含む、請求項1に記載の方法。
  21. 前記サイド情報はエンコーダーにおいて得られる、請求項1に記載の方法。
  22. 前記サイド情報はデコーダーにおいて得られる、請求項1に記載の方法。
  23. シーンのマルチビュービデオを処理するシステムであって、
    複数のカメラであって、各カメラは、シーンのマルチビュービデオを取得するように構成され、各カメラは、特定の姿勢に配置され、各カメラのビューは、少なくとも1つの他のカメラの前記ビューと重なる、複数のカメラと、
    前記マルチビュービデオの特定のビューを合成するサイド情報を取得する手段と、
    記マルチビュービデオ及び前記サイド情報から合成マルチビュービデオを合成する手段と、
    記マルチビュービデオのそれぞれの各現フレーム用の参照ピクチャリストを保持するように構成されたメモリバッファーであって、前記参照ピクチャリスト、取得された前記マルチビュービデオの時間参照ピクチャ及び空間参照ピクチャと、前記合成マルチビュービデオの前記合成参照ピクチャとをインデックス付けする、メモリバッファーと、
    適応基準スキップモード又は適応基準ダイレクトモードによって、関連する前記参照ピクチャリストによりインデックス付けされた参照ピクチャに基づいて、前記マルチビュービデオの各現フレームを予測する手段と、を備え
    前記適応基準スキップモード及び前記適応基準ダイレクトモードは、複数の前記参照ピクチャのうちの1つを用いるものであって、指示された前記参照ピクチャが前記合成参照ピクチャの場合は前記合成参照ピクチャ以外の参照ピクチャを指示するよう変更するとともに、指示された前記参照ピクチャが前記合成参照ピクチャ以外の参照ピクチャの場合は前記合成参照ピクチャを指示するよう変更する、
    シーンのマルチビュービデオを処理するシステム。
JP2014522261A 2011-11-17 2012-09-11 シーンのマルチビュービデオを処理する方法及びシステム Active JP5744333B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/299,195 US8854486B2 (en) 2004-12-17 2011-11-17 Method and system for processing multiview videos for view synthesis using skip and direct modes
US13/299,195 2011-11-17
PCT/JP2012/073763 WO2013073282A1 (en) 2011-11-17 2012-09-11 Method and system for processing multiview videos of scene

Publications (2)

Publication Number Publication Date
JP2015502057A JP2015502057A (ja) 2015-01-19
JP5744333B2 true JP5744333B2 (ja) 2015-07-08

Family

ID=47010678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014522261A Active JP5744333B2 (ja) 2011-11-17 2012-09-11 シーンのマルチビュービデオを処理する方法及びシステム

Country Status (4)

Country Link
US (1) US8854486B2 (ja)
EP (1) EP2781090B1 (ja)
JP (1) JP5744333B2 (ja)
WO (1) WO2013073282A1 (ja)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US8823821B2 (en) 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
US8854486B2 (en) * 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US8923399B2 (en) * 2007-01-24 2014-12-30 Lg Electronics Inc. Method and an apparatus for processing a video signal
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101479011B1 (ko) * 2008-12-17 2015-01-13 삼성전자주식회사 다중 대역 스케쥴링 방법 및 이를 이용한 방송 서비스 시스템
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8928793B2 (en) 2010-05-12 2015-01-06 Pelican Imaging Corporation Imager array interfaces
US9241160B2 (en) * 2010-07-21 2016-01-19 Dolby Laboratories Licensing Corporation Reference processing using advanced motion models for video coding
KR20120009861A (ko) * 2010-07-22 2012-02-02 에스케이 텔레콤주식회사 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US20140085418A1 (en) * 2011-05-16 2014-03-27 Sony Corporation Image processing device and image processing method
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
US9131217B2 (en) 2011-12-09 2015-09-08 Qualcomm Incorporated Reference picture list modification for view synthesis reference pictures
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
WO2013111551A1 (ja) * 2012-01-27 2013-08-01 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US9503702B2 (en) * 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
US20130271567A1 (en) * 2012-04-16 2013-10-17 Samsung Electronics Co., Ltd. Image processing method and apparatus for predicting motion vector and disparity vector
US9549180B2 (en) 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
CN103379348B (zh) * 2012-04-20 2016-11-16 乐金电子(中国)研究开发中心有限公司 一种编码深度信息时的视点合成方法、装置及编码器
WO2013159643A1 (en) * 2012-04-24 2013-10-31 Mediatek Inc. Method and apparatus of motion vector derivation for 3d video coding
CN103379349B (zh) * 2012-04-25 2016-06-29 浙江大学 一种视点合成预测编码方法、解码方法、对应的装置及码流
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
JP2013247651A (ja) * 2012-05-29 2013-12-09 Canon Inc 符号化装置、符号化方法およびプログラム
CN104508681B (zh) 2012-06-28 2018-10-30 Fotonation开曼有限公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法
US9961369B2 (en) 2012-06-28 2018-05-01 Hfi Innovation Inc. Method and apparatus of disparity vector derivation in 3D video coding
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN104429079B (zh) * 2012-07-09 2016-08-24 三菱电机株式会社 利用运动矢量预测列表处理用于视图合成的多视图视频的方法和系统
CN104662589B (zh) 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
EP2713624A1 (en) * 2012-09-20 2014-04-02 Advanced Digital Broadcast S.A. Method and system for generating an instantaneous decoding refresh (IDR) picture slice in an H.264/AVC compliant video data stream
WO2014052974A2 (en) * 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
US10805605B2 (en) * 2012-12-21 2020-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Multi-layer video stream encoding and decoding
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
JP2014176034A (ja) * 2013-03-12 2014-09-22 Ricoh Co Ltd 映像伝送装置
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
KR102193620B1 (ko) 2013-04-05 2020-12-21 삼성전자주식회사 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 디스패리티 벡터 예측 방법
RU2543549C2 (ru) * 2013-07-09 2015-03-10 Сергей Александрович Соболев Телевизионный многоракурсный способ получения, передачи и приема стереоинформации о наблюдаемом пространстве с его автоматическим измерением. система "третий глаз"
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
EP3066690A4 (en) 2013-11-07 2017-04-05 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
TWI472231B (zh) 2013-11-27 2015-02-01 Ind Tech Res Inst 用於移動估計的視訊前處理方法與裝置
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
WO2015141613A1 (ja) * 2014-03-20 2015-09-24 日本電信電話株式会社 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US10368084B2 (en) * 2014-11-27 2019-07-30 Kt Corporation Video signal processing method and device
KR102553844B1 (ko) 2014-11-27 2023-07-10 주식회사 케이티 비디오 신호 처리 방법 및 장치
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10242474B2 (en) * 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
WO2018048078A1 (ko) * 2016-09-08 2018-03-15 가온미디어 주식회사 공간적 구조 정보를 이용한 동기화된 다시점 영상의 부호화/복호화 방법 및 그 장치
EP3301933A1 (en) * 2016-09-30 2018-04-04 Thomson Licensing Methods, devices and stream to provide indication of mapping of omnidirectional images
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10009550B1 (en) * 2016-12-22 2018-06-26 X Development Llc Synthetic imaging
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10880617B2 (en) * 2017-04-25 2020-12-29 Sharp Kabushiki Kaisha Systems and methods for signaling quality information for regions in virtual reality applications
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
CA3085185C (en) * 2017-12-20 2024-04-09 Leia Inc. Cross-render multiview camera, system, and method
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN114969419A (zh) * 2022-06-06 2022-08-30 金陵科技学院 自驱动多视图特征引导的基于草图的三维模型检索方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2933487B2 (ja) 1994-07-15 1999-08-16 松下電器産業株式会社 クロマフォーマット変換の方法
US6055012A (en) 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US6259470B1 (en) 1997-12-18 2001-07-10 Intel Corporation Image capture system having virtual camera
US6055274A (en) 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
US6781618B2 (en) 2001-08-06 2004-08-24 Mitsubishi Electric Research Laboratories, Inc. Hand-held 3D vision system
KR100433625B1 (ko) 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치
KR100481732B1 (ko) 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US20050008240A1 (en) 2003-05-02 2005-01-13 Ashish Banerji Stitching of video for continuous presence multipoint video conferencing
US20060206582A1 (en) 2003-11-17 2006-09-14 David Finn Portable music device with song tag capture
TWI238996B (en) 2004-09-22 2005-09-01 Benq Corp Optical disk device
US8854486B2 (en) * 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
KR101245251B1 (ko) 2006-03-09 2013-03-19 삼성전자주식회사 균일한 화질을 제공하는 다시점 영상 부호화 및 복호화방법 및 장치
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
US8923399B2 (en) * 2007-01-24 2014-12-30 Lg Electronics Inc. Method and an apparatus for processing a video signal
KR101560182B1 (ko) * 2008-01-07 2015-10-15 삼성전자주식회사 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US20110109721A1 (en) * 2009-11-06 2011-05-12 Sony Corporation Dynamic reference frame reordering for frame sequential stereoscopic video encoding

Also Published As

Publication number Publication date
US8854486B2 (en) 2014-10-07
US20120062756A1 (en) 2012-03-15
EP2781090A1 (en) 2014-09-24
EP2781090B1 (en) 2023-01-18
WO2013073282A1 (en) 2013-05-23
JP2015502057A (ja) 2015-01-19

Similar Documents

Publication Publication Date Title
JP5744333B2 (ja) シーンのマルチビュービデオを処理する方法及びシステム
JP5116394B2 (ja) 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
JP5013993B2 (ja) 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
JP4890201B2 (ja) マルチビュービデオを管理する方法及びシステム
JP5274766B2 (ja) マルチビュービデオを予測する方法及びシステム
JP5106830B2 (ja) マルチビュービデオにランダムにアクセスする方法及びシステム
JP5154679B2 (ja) マルチビュービデオをデコードする方法
US7728878B2 (en) Method and system for processing multiview videos for view synthesis using side information
JP2015519834A (ja) 動きベクトル予測子リストを用いてビュー合成のためにマルチビュービデオを処理する方法及びシステム

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20141222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150428

R150 Certificate of patent or registration of utility model

Ref document number: 5744333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250