JP2008172749A - Method and system for processing a plurality of multiview videos of certain scene - Google Patents

Method and system for processing a plurality of multiview videos of certain scene Download PDF

Info

Publication number
JP2008172749A
JP2008172749A JP2007201711A JP2007201711A JP2008172749A JP 2008172749 A JP2008172749 A JP 2008172749A JP 2007201711 A JP2007201711 A JP 2007201711A JP 2007201711 A JP2007201711 A JP 2007201711A JP 2008172749 A JP2008172749 A JP 2008172749A
Authority
JP
Japan
Prior art keywords
view
reference picture
video
synthesis
videos
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007201711A
Other languages
Japanese (ja)
Other versions
JP5116394B2 (en
Inventor
Sehoon Yea
セフーン・イェー
Vetro Anthony
アンソニー・ヴェトロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008172749A publication Critical patent/JP2008172749A/en
Application granted granted Critical
Publication of JP5116394B2 publication Critical patent/JP5116394B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a method and a system in which each current frame of multiview videos is predicted according to reference pictures indexed by an associated reference picture list with a synthesis skip mode/synthesis direct mode, whereby side information is inferred from the synthesized reference picture. <P>SOLUTION: The method processes multiview videos of a scene in which each video is acquired by a corresponding camera arranged at a particular pose, and in which a view of each camera overlaps with the view of at least one other camera. Side information for synthesizing a particular view of the multiview video is obtained in either an encoder or a decoder. A synthesized multiview video is synthesized from the multiview videos and the side information. A reference picture list is maintained for each current frame of each of the multiview videos, and the reference picture list indexes temporal reference pictures and spatial reference pictures of the acquired multiview video and the synthesized reference pictures of the synthesized multiview video. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、包括的には、スキップモード及びダイレクトモードを用いてビューを合成するためのマルチビュービデオ(多視点動画像)の符号化及び復号化に関し、特に、マルチビュービデオの合成に関する。   The present invention generally relates to encoding and decoding of a multi-view video (multi-view video) for synthesizing a view using a skip mode and a direct mode, and more particularly to synthesizing a multi-view video.

[関連出願]
本願は、Xin他により2004年12月17日付で出願された「マルチビュービデオの分解及び符号化(Multiview Video Decomposition and Encoding)」と題する米国特許出願第11/015,390号の一部継続出願であるXin他により2005年11月30日付で出願された「マルチビュービデオを合成する方法及びシステム(Method and System for Synthesizing Multiview Videos)」と題する米国特許出願第11/292,168号の一部継続出願である、Yea他により2006年7月12日付で出願された「サイド情報を用いてビューを合成するためにマルチビュービデオを処理する方法及びシステム(Method and System for Processing Multiview Videos for View Synthesis using Side Information)」と題する米国特許出願第11/485,092号の一部継続出願である。
[Related applications]
This application is a continuation-in-part of US patent application Ser. No. 11 / 015,390 entitled “Multiview Video Decomposition and Encoding” filed December 17, 2004 by Xin et al. Part of US Patent Application No. 11 / 292,168, entitled “Method and System for Synthesizing Multiview Videos”, filed November 30, 2005 by Xin et al. A continuation application filed on July 12, 2006 by Yea et al. “Method and System for Processing Multi-View Video to Synthesize Views Using Side Information (Method and Sys) em for Processing Multiview Videos for View Synthesis using Side Information) entitled "of US patent application Ser. No. 11 / 485,092 part is a continuation application.

本願は、「マルチビュービデオにおいて参照ピクチャを管理する方法及びシステム(Method and System for Managing Reference Pictures in Multiview Videos)」と題する米国特許出願第11/292,393号及び「マルチビュービデオにランダムにアクセスする方法(Method for Randomly Accessing Multiview Videos)」と題する米国特許出願第11/292,167号に関連し、これらはいずれも、Xin他により2005年11月30日付で本願と同時に出願されている。   This application relates to US Patent Application No. 11 / 292,393 entitled “Method and System for Managing Reference Pictures in Multiview Videos” and “Multiview Video Random Access”. In US patent application Ser. No. 11 / 292,167, entitled “Method for Random Accessing Multiview Videos”, both of which were filed concurrently with this application on November 30, 2005 by Xin et al.

マルチビュービデオの符号化及び復号化は、3次元テレビ(3DTV)、自由視点テレビ(FTV)、及びマルチカメラ監視等の用途に不可欠である。マルチビュービデオの符号化及び復号化は動的ライトフィールドの圧縮としても知られる。   Multi-view video encoding and decoding is essential for applications such as 3D television (3DTV), free-viewpoint television (FTV), and multi-camera surveillance. Multi-view video encoding and decoding is also known as dynamic light field compression.

図1は、マルチビュービデオを符号化するための従来技術の「サイマル放送」システム100を示す。カメラ1〜4がシーン5のフレームシーケンスすなわちビデオ101〜104を取得する。各カメラはシーンの異なるビューを有する。各ビデオは、個別に符号化されて(111〜114)、対応する符号化ビデオ121〜124となる。このシステムは、従来の2Dビデオ符号化技法を用いる。したがって、このシステムは、符号化ビデオのフレームを予測する際に、複数のカメラにより異なる視点から取得される異なるビデオを相関させない。個別の符号化は、圧縮効率を低下させ、よってネットワーク帯域幅及び記憶域が増大する。   FIG. 1 shows a prior art “simultaneous broadcast” system 100 for encoding multi-view video. Cameras 1-4 acquire the frame sequence of scene 5, i.e. videos 101-104. Each camera has a different view of the scene. Each video is individually encoded (111-114) to become corresponding encoded videos 121-124. This system uses conventional 2D video coding techniques. Thus, this system does not correlate different videos acquired from different viewpoints by multiple cameras when predicting a frame of encoded video. Individual encoding reduces compression efficiency and thus increases network bandwidth and storage.

図2は、ビュー間の相関を用いる、従来技術の視差補償予測システム200を示す。ビデオ201〜204が符号化されて(211〜214)、符号化ビデオ231〜234となる。ビデオ201及び204は、MPEG−2又はH.264(MPEG−4パート10としても知られる)等の標準的なビデオエンコーダを用いて個別に符号化される。これらの個別に符号化されたビデオは「参照」ビデオとなる。残りのビデオ202及び203は、時間予測、並びにデコーダ221及び222から得られる再構成された参照ビデオ251及び252に基づくビュー間予測を用いて符号化される。通常、この予測はブロック毎に適応的に求められる(S. C. Chan他著「簡略化された動的ライトフィールドのデータ圧縮(The data compression of simplified dynamic light fields)」(Proc. IEEE Int. Acoustics, Speech, and Signal Processing Conf., April, 2003))。   FIG. 2 shows a prior art disparity compensated prediction system 200 that uses correlation between views. The videos 201 to 204 are encoded (211 to 214) to become encoded videos 231 to 234. Video 201 and 204 are either MPEG-2 or H.264. Individually encoded using a standard video encoder such as H.264 (also known as MPEG-4 Part 10). These individually encoded videos become “reference” videos. The remaining videos 202 and 203 are encoded using temporal prediction and inter-view prediction based on reconstructed reference videos 251 and 252 obtained from decoders 221 and 222. Typically, this prediction is determined adaptively on a block-by-block basis (S. C. Chan et al., “The data compression of simplified dynamic fields” (Proc. IEEE Int. Acoustics, Speech, and Signal Processing Conf., April, 2003)).

図3は、従来技術の「リフティングベースの」ウェーブレット分解を示す(W. Sweldens著「簡略化された動的ライトフィールドのデータ圧縮(The data compression of simplified dynamic light fields)」(J. Appl. Comp. Harm. Anal., vol. 3, no. 2, pp. 186−200, 1996)を参照のこと)。ウェーブレット分解は静的ライトフィールドの圧縮に効果的な技法である。入力サンプル301が奇数サンプル302及び偶数サンプル303に分割される(310)。奇数サンプルは偶数サンプルから予測される(320)。予測誤差は高域サンプル304を形成する。この高域サンプルは、偶数サンプルを更新して(330)低域サンプル305を形成するために用いられる。この分解は可逆であるため、線形操作又は非線形操作を予測ステップ及び更新ステップに組み込むことができる。   FIG. 3 shows a prior art “lifting-based” wavelet decomposition (“The data compression of simplified dynamic fields” by J. Appl. Comp. By W. Sheldens. Harm. Anal., Vol. 3, no. 2, pp. 186-200, 1996)). Wavelet decomposition is an effective technique for compressing static light fields. The input sample 301 is divided into an odd sample 302 and an even sample 303 (310). Odd samples are predicted from even samples (320). The prediction error forms a high frequency sample 304. This high pass sample is used to update the even sample (330) to form the low pass sample 305. Since this decomposition is reversible, linear or non-linear operations can be incorporated into the prediction and update steps.

リフティング方式は、動き補償時間変換、すなわち、ビデオの場合は時間的な動きの軌跡に沿って実質的にフィルタリングを行う動き補償時間フィルタリング(MCTF)を可能にする。ビデオコーディングのためのMCTFのレビューがOhm他著「フレーム間ウェーブレットコーディング−ユニバーサルスケーラビリティのための動画表現(Interframe wavelet coding − motion picture representation for universal scalability)」(Signal Processing: Image Communication, vol. 19, no. 9, pp. 877−908, October 2004)に記載されている。リフティング方式は、再構成に影響を与えることなく、ハール又は5/3ドブシー等の任意のウェーブレット核、及びブロックベースの並進又はアフィングローバル動き等の任意の動きモデルに基づいて行うことができる。   The lifting scheme allows motion compensated temporal conversion, ie motion compensated temporal filtering (MCTF), which substantially filters along the temporal motion trajectory in the case of video. A review of MCTF for video coding is published by Ohm et al., “Interframe wavelet coding-motion picture representation for universal scalability: Signal Processing: 19”. 9, pp. 877-908, October 2004). The lifting scheme can be based on any wavelet kernel, such as Haar or 5/3 Dobsey, and any motion model, such as block-based translation or affine global motion, without affecting the reconstruction.

符号化のために、MCTFは、ビデオを高域フレームと低域フレームとに分解する。次にこれらのフレームに空間変換を施して、残存する空間的相関を低減する。変換された低域フレーム及び高域フレームは、関連する動き情報と共にエントロピー符号化されて、符号化ビットストリームを形成する。MCTFは、図3に示すリフティング方式を用いて、時間的に隣接するビデオを入力として実行することができる。また、MCTFは、出力低域フレームに反復的に適用することができる。   For encoding, MCTF breaks down the video into high and low frequency frames. These frames are then subjected to spatial transformation to reduce the remaining spatial correlation. The transformed low and high frequency frames are entropy encoded with associated motion information to form an encoded bitstream. MCTF can be executed using temporally adjacent video as input using the lifting scheme shown in FIG. Also, MCTF can be applied iteratively to the output low band frame.

MCTFベースのビデオの圧縮効率は、H.264/AVC等のビデオ圧縮規格のそれに匹敵する。また、ビデオは内部の時間スケーラビリティを有する。しかし、この方法は、複数のビューから取得されたビデオ間に相関があるマルチビュービデオの直接符号化には用いることができない。これは、時間的相関を説明する効率的なビュー予測方法がないためである。   The compression efficiency of MCTF-based video is H.264. It is comparable to that of video compression standards such as H.264 / AVC. Video also has internal time scalability. However, this method cannot be used for direct encoding of multi-view video where there is a correlation between videos acquired from multiple views. This is because there is no efficient view prediction method that accounts for temporal correlation.

リフティング方式は、静的ライトフィールド、すなわち単一のマルチビュー画像を符号化するためにも用いられてきた。動き補償時間フィルタリングを行う代わりに、エンコーダは、空間領域において静的ビュー間で視差補償ビュー間フィルタリング(DCVF)を行う(Chang他著「視差補償リフティングを用いるライトフィールドのビュー間ウェーブレット圧縮(Inter−view wavelet compression of light fields with disparity compensated lifting)」(SPIE Conf on Visual Communications and Image Processing, 2003)を参照のこと)。符号化のために、DCVFは、静的ライトフィールドを高域画像と低域画像とに分解し、次にこれらの画像に空間変換を施して、残存する空間的相関を低減する。変換された画像は、関連する視差情報と共にエントロピー符号化されて、符号化ビットストリームを形成する。DCVFは通常、図3に示すようなリフティングベースのウェーブレット変換方式を用いて、空間的に隣接するカメラビューから取得される画像を入力として実行される。また、DCVFは、出力低域画像に反復的に適用することができる。DCVFベースの静的ライトフィールドの圧縮は、複数のフレームを個別にコーディングするよりも高い圧縮効率を提供する。しかし、この方法もまた、ビュー間の時間的相関及び空間的相関の両方を用いるマルチビュービデオを符号化することができない。これは、時間的相関を説明する効率的なビュー予測方法がないためである。   The lifting scheme has also been used to encode a static light field, i.e. a single multi-view image. Instead of performing motion-compensated temporal filtering, the encoder performs disparity-compensated inter-view filtering (DCVF) between static views in the spatial domain (Chang et al., “Inter-wave wavelet compression of light fields using disparity compensation lifting (Inter- See view wave compression of light fields with dissipated compensated lifting (see SPIE Conf on Visual Communications and Image Processing, 2003). For encoding, DCVF decomposes the static light field into a high pass image and a low pass image, and then spatially transforms these images to reduce the remaining spatial correlation. The transformed image is entropy encoded with associated disparity information to form an encoded bitstream. The DCVF is usually executed by using an image acquired from spatially adjacent camera views as an input using a lifting-based wavelet transform method as shown in FIG. Also, DCVF can be applied iteratively to the output low pass image. DCVF based static light field compression provides higher compression efficiency than coding multiple frames individually. However, this method also cannot encode multi-view video that uses both temporal and spatial correlation between views. This is because there is no efficient view prediction method that accounts for temporal correlation.

複数のカメラによって或るシーンに関して取得されたマルチビュービデオを分解する方法及びシステムが提示される。   A method and system for decomposing multi-view video acquired for a scene by multiple cameras is presented.

各マルチビュービデオはフレームシーケンスを含み、各カメラはシーンの異なるビューを提供する。   Each multi-view video includes a frame sequence, and each camera provides a different view of the scene.

時間予測モード、空間予測モード、ビュー合成予測モード、及びイントラ予測モードの中から1つの予測モードが選択される。   One prediction mode is selected from the temporal prediction mode, the spatial prediction mode, the view synthesis prediction mode, and the intra prediction mode.

次に、マルチビュービデオは、選択された予測モードに従って低域フレーム、高域フレーム、及びサイド情報に分解される。   Next, the multi-view video is decomposed into low-frequency frames, high-frequency frames, and side information according to the selected prediction mode.

シーンの合成ビューを反映する新規のビデオもまた、マルチビュービデオのうちの1つ又は複数から生成することができる。   A new video reflecting a composite view of the scene can also be generated from one or more of the multi-view videos.

特に、本発明の実施の形態1は、ビデオを符号化及び復号化するシステム及び方法を提供する。複数のマルチビュービデオが、どの対のカメラ間でもビューが重なるような姿勢で配置される対応する複数のカメラによって或るシーンに関して取得される。1つの合成マルチビュービデオが、1つの仮想カメラに関して、取得された複数のマルチビュービデオから生成される。マルチビュービデオ及び合成ビデオのそれぞれの現フレーム毎に参照ピクチャリストがメモリ内に保持される。参照ピクチャリストは、取得されたマルチビュービデオの時間参照ピクチャ及び空間参照ピクチャ、並びに合成マルチビュービデオの合成参照ピクチャをインデックス付けする。次に、マルチビュービデオの各現フレームが、符号化及び復号化中に、関連する参照ピクチャリストによってインデックス付けされた参照ピクチャに従って予測される。   In particular, Embodiment 1 of the present invention provides a system and method for encoding and decoding video. A plurality of multi-view videos are acquired for a scene by a corresponding plurality of cameras arranged in such a way that the views overlap between any pair of cameras. One composite multi-view video is generated from a plurality of acquired multi-view videos for one virtual camera. A reference picture list is held in the memory for each current frame of the multi-view video and the synthesized video. The reference picture list indexes the temporal reference picture and the spatial reference picture of the acquired multi-view video, and the synthesized reference picture of the synthesized multi-view video. Each current frame of the multi-view video is then predicted according to the reference picture indexed by the associated reference picture list during encoding and decoding.

実施の形態1.
本発明の実施の形態1は、マルチビュービデオのフレームを符号化及び復号化するための複合的時間/ビュー間処理方法を提供する。マルチビュービデオは、異なる姿勢を有する複数のカメラによって或るシーンに関して取得されるビデオである。本発明では、カメラ姿勢をその3Dの(x,y,z)位置及びその3Dの(θ,ρ,φ)向きの両方として定義する。各姿勢はシーンの「ビュー」に対応する。
Embodiment 1 FIG.
Embodiment 1 of the present invention provides a combined time / view processing method for encoding and decoding multi-view video frames. Multi-view video is video acquired for a scene by a plurality of cameras having different poses. In the present invention, the camera orientation is defined as both the 3D (x, y, z) position and the 3D (θ, ρ, φ) orientation. Each posture corresponds to a “view” of the scene.

本方法は、特定のカメラ姿勢に関して取得される同一ビデオ中のフレーム間の時間的相関、及び複数のカメラビューから取得される異なるビデオ中の同期フレーム間の空間的相関を用いる。また、後述のように「合成」フレームを相関させることができる。   The method uses temporal correlation between frames in the same video acquired for a particular camera pose and spatial correlation between synchronized frames in different videos acquired from multiple camera views. Also, “composite” frames can be correlated as described below.

実施の形態1において、時間的相関は動き補償時間フィルタリング(MCTF)を用い、空間的相関は視差補償ビュー間フィルタリング(DCVF)を用いる。   In the first embodiment, temporal correlation uses motion compensation temporal filtering (MCTF), and spatial correlation uses disparity compensation inter-view filtering (DCVF).

本発明の別の実施の形態1において、空間的相関は、「近傍」フレームから生成される複数の合成フレームからの1つのビューの予測を用いる。近傍フレームは、時間的又は空間的に隣接するフレーム、例えば、時間領域における現フレームの前又は後のフレーム、又は同時刻に、ただし異なる姿勢又はシーンのビューを有するカメラから取得される1つ又は複数のフレームである。   In another embodiment of the present invention, the spatial correlation uses the prediction of one view from multiple composite frames generated from “neighboring” frames. Neighboring frames are temporally or spatially adjacent frames, for example one frame acquired before or after the current frame in the time domain, or at the same time but from cameras with different poses or scene views There are multiple frames.

各ビデオの各フレームは画素のマクロブロックを含む。したがって、本発明の実施の形態1によるマルチビュービデオの符号化及び復号化方法はマクロブロック適応的である。現フレーム内の現マクロブロックの符号化及び復号化は、様々な形態の時間予測、空間予測、ビュー合成予測、及びイントラ予測を含むいくつかの可能な予測モードを用いて行われる。マクロブロック毎に最良の予測モードを判定するために、本発明の実施の形態1は、予測モードを選択する方法を提供する。この方法は、任意数のカメラ配置に対して使用することができる。   Each frame of each video contains a macroblock of pixels. Therefore, the multiview video encoding and decoding method according to Embodiment 1 of the present invention is adaptive to macroblocks. The encoding and decoding of the current macroblock in the current frame is done using several possible prediction modes including various forms of temporal prediction, spatial prediction, view synthesis prediction, and intra prediction. In order to determine the best prediction mode for each macroblock, Embodiment 1 of the present invention provides a method for selecting a prediction mode. This method can be used for any number of camera arrangements.

本明細書中で用いる場合、参照ピクチャは、符号化及び復号化中に現フレームを「予測」するために用いられる任意のフレームとして定義される。通常、参照ピクチャは、現フレームに空間的又は時間的に隣接する、すなわち「近傍」にある。   As used herein, a reference picture is defined as any frame used to “predict” the current frame during encoding and decoding. Typically, the reference picture is spatially or temporally adjacent to the current frame, i.e. "near".

任意の所与の時刻において現フレームを符号化及び復号化するために同一の参照ピクチャ集合が用いられるため、同一の操作がエンコーダ及びデコーダの両方に適用されることに留意することが重要である。   It is important to note that the same operation applies to both the encoder and decoder because the same set of reference pictures is used to encode and decode the current frame at any given time .

MCTF/DCVF分解
図4は、本発明の実施の形態1によるMCTF/DCVF分解400を示す。入力ビデオ401〜404のフレームが、異なる姿勢を有するカメラ1〜4によってシーン5に関して取得される。なお、図8に示すように、カメラのうちのいくつか1a及び1bは、同一位置にあり、ただし異なる向きであってもよい。どの対のカメラ間にも或る量のビューの重なりがあると仮定される。カメラの姿勢は、マルチビュービデオの取得中に変化し得る。通常、カメラは互いに同期される。各入力ビデオは、シーンの異なる「ビュー」を提供する。入力フレーム401〜404はMCTF/DCVF分解400に送られる。この分解は、符号化された低域フレーム411、符号化された高域フレーム412、及び関連するサイド情報413を生成する。高域フレームは、低域フレームを参照ピクチャとして用いて予測誤差を符号化する。分解は、選択された予測モード410に従って行われる。予測モードは、空間予測モード、時間予測モード、ビュー合成予測モード、及びイントラ予測モードを含む。予測モードは、各現フレームに関してマクロブロック毎に適応的に選択することができる。イントラ予測を用いる場合、現マクロブロックは、同一フレーム内の他のマクロブロックから予測される。
MCTF / DCVF Decomposition FIG. 4 shows an MCTF / DCVF decomposition 400 according to Embodiment 1 of the present invention. Frames of input video 401-404 are acquired for scene 5 by cameras 1-4 with different poses. As shown in FIG. 8, some of the cameras 1a and 1b are in the same position, but may be in different directions. It is assumed that there is a certain amount of view overlap between any pair of cameras. The camera pose can change during the acquisition of multi-view video. Usually, the cameras are synchronized with each other. Each input video provides a different “view” of the scene. Input frames 401-404 are sent to the MCTF / DCVF decomposition 400. This decomposition produces an encoded low frequency frame 411, an encoded high frequency frame 412, and associated side information 413. The high frequency frame encodes a prediction error using the low frequency frame as a reference picture. The decomposition is performed according to the selected prediction mode 410. The prediction modes include a spatial prediction mode, a temporal prediction mode, a view synthesis prediction mode, and an intra prediction mode. The prediction mode can be adaptively selected for each macroblock for each current frame. When using intra prediction, the current macroblock is predicted from other macroblocks in the same frame.

図5は、フレーム近傍510の、低域フレーム(L)411及び高域フレーム(H)412の好ましい交番「格子パターン」を示す。これらのフレームは空間(ビュー)次元501及び時間次元502を有する。本質的に、このパターンは、低域フレーム及び高域フレームを空間次元で1つの時刻毎に交番させ、さらに、低域フレーム及び高域フレームを1つのビデオ毎に時間的に交番させる。   FIG. 5 shows a preferred alternating “lattice pattern” for the low frequency frame (L) 411 and the high frequency frame (H) 412 in the vicinity of the frame 510. These frames have a space (view) dimension 501 and a time dimension 502. In essence, this pattern alternates the low and high frequency frames every time in the spatial dimension, and further alternates the low and high frequency frames temporally for each video.

この格子パターンにはいくつかの利点がある。このパターンは、低域フレームを空間次元及び時間次元の両方において均一に分散させることで、デコーダが低域フレームのみを再構成する場合に、空間及び時間のスケーラビリティを実現する。また、このパターンは、空間次元及び時間次元の両方において高域フレームを隣接する低域フレームと整列させる。これは、図6に示すように、現フレームにおける誤差の予測を行うための参照ピクチャ間の相関を最大化する。   This grid pattern has several advantages. This pattern achieves spatial and temporal scalability when the decoder reconstructs only the low frequency frames by uniformly distributing the low frequency frames in both the spatial and temporal dimensions. This pattern also aligns high frequency frames with adjacent low frequency frames in both spatial and temporal dimensions. This maximizes the correlation between reference pictures for error prediction in the current frame, as shown in FIG.

リフティングベースのウェーブレット変換によれば、一方のサンプル集合を他方のサンプル集合から予測することによって高域フレーム412が生成される。この予測は、後述する本発明の実施の形態1による様々な形態の時間予測、様々な形態の空間予測、及びビュー合成予測を含むいくつかのモードを用いて達成することができる。   According to the lifting-based wavelet transform, a high frequency frame 412 is generated by predicting one sample set from the other sample set. This prediction can be achieved using several modes including various forms of temporal prediction, various forms of spatial prediction, and view synthesis prediction according to Embodiment 1 of the present invention described later.

高域フレーム412を予測するための手段及びこの予測を行うために必要な情報はサイド情報413と呼ばれる。時間予測を行う場合、時間モードがサイド情報の一部として、対応する動き情報と共に信号伝達される。空間予測を行う場合、空間モードがサイド情報の一部として、対応する視差情報と共に信号伝達される。ビュー合成予測を行う場合、ビュー合成モードがサイド情報の一部として、対応する視差情報、動き情報及び奥行き情報と共に信号伝達される。   Means for predicting the high frequency frame 412 and information necessary for performing this prediction are referred to as side information 413. When performing temporal prediction, the time mode is signaled with the corresponding motion information as part of the side information. When performing spatial prediction, the spatial mode is signaled along with the corresponding disparity information as part of the side information. When performing view synthesis prediction, the view synthesis mode is signaled together with the corresponding disparity information, motion information, and depth information as part of the side information.

図6に示すように、各現フレーム600の予測は、空間次元及び時間次元の両方の近傍フレーム510を用いる。現フレームを予測するために用いられるフレームは参照ピクチャと呼ばれる。参照ピクチャは、符号化ビットストリームの一部である参照リストに保持される。参照ピクチャは復号ピクチャバッファに格納される。   As shown in FIG. 6, the prediction of each current frame 600 uses both spatial and temporal neighborhood frames 510. A frame used to predict the current frame is called a reference picture. Reference pictures are held in a reference list that is part of the encoded bitstream. The reference picture is stored in the decoded picture buffer.

本発明の実施の形態1において、MCTF及びDCVFは、入力ビデオのフレーム毎に各現マクロブロックに対して適応的に適用されて、分解された低域フレーム、並びに高域フレーム及び関連するサイド情報を生じる。こうして、各マクロブロックは、「最良の」予測モードに従って適応的に処理される。予測モードを選択するための最適な方法は後述する。   In Embodiment 1 of the present invention, MCTF and DCVF are adaptively applied to each current macroblock for each frame of the input video, and the decomposed low-frequency frame and the high-frequency frame and associated side information. Produce. Thus, each macroblock is adaptively processed according to the “best” prediction mode. An optimal method for selecting the prediction mode will be described later.

本発明の実施の形態1において、MCTFがまず各ビデオのフレームに個別に適用される。結果として得られるフレームは次に、DCVFによりさらに分解される。最終的な分解されたフレームに加えて、対応するサイド情報も生成される。マクロブロック毎に行う場合、MCTF及びDCVFの予測モードの選択は別個に検討される。利点として、この予測モードの選択は本質的に時間スケーラビリティをサポートする。こうして、圧縮ビットストリームにおいてビデオのより低い時間レートが容易にアクセスされる。   In Embodiment 1 of the present invention, MCTF is first applied individually to each video frame. The resulting frame is then further decomposed by DCVF. In addition to the final decomposed frame, corresponding side information is also generated. When performed for each macroblock, the selection of MCTF and DCVF prediction modes is considered separately. As an advantage, this prediction mode selection inherently supports temporal scalability. Thus, lower time rates of video are easily accessed in the compressed bitstream.

別の実施の形態1では、DCVFがまず入力ビデオのフレームに適用される。結果として得られるフレームが次に、MCTFにより時間的に分解される。最終的な分解されたフレームに加えて、サイド情報も生成される。マクロブロック毎に行う場合、MCTF及びDCVFの予測モードの選択は別個に検討される。利点として、この選択は本質的に空間スケーラビリティをサポートする。こうして、圧縮ビットストリームにおいてより少ない数のビューが容易にアクセスされる。   In another embodiment, DCVF is first applied to an input video frame. The resulting frame is then temporally decomposed by MCTF. In addition to the final decomposed frame, side information is also generated. When performed for each macroblock, the selection of MCTF and DCVF prediction modes is considered separately. As an advantage, this selection inherently supports spatial scalability. Thus, a smaller number of views in the compressed bitstream are easily accessed.

上述した分解は、前の分解段階から結果として得られる低域フレームの集合に反復的に適用することができる。利点として、本発明のMCTF/DCVF分解400は、時間的相関及び空間的(ビュー間)相関の両方を効果的に除去し、非常に高い圧縮効率を達成することができる。本発明のマルチビュービデオエンコーダの圧縮効率は、各ビューの各ビデオを個別に符号化する従来のサイマル放送符号化に勝る。   The decomposition described above can be applied iteratively to the resulting set of low-pass frames from the previous decomposition stage. As an advantage, the MCTF / DCVF decomposition 400 of the present invention can effectively remove both temporal and spatial (inter-view) correlations and achieve very high compression efficiency. The compression efficiency of the multi-view video encoder of the present invention is superior to conventional simulcast encoding that encodes each video of each view individually.

MCTF/DCVF分解の符号化
図7に示すように、分解400の出力411及び412は信号エンコーダ710に供給され、出力413はサイド情報エンコーダ720に供給される。信号エンコーダ710は、変換、量子化及びエントロピーコーディングを行って、分解された低域フレーム411及び高域フレーム412に残存する相関を除去する。このような操作は当該技術分野において既知である(Netravali及びHaskell著「デジタルピクチャ:表現、圧縮及び規格(Digital Pictures: Representation, Compression and Standards)」(Second Edition, Plenum Press, 1995))。
Encoding MCTF / DCVF Decomposition As shown in FIG. 7, outputs 411 and 412 of decomposition 400 are supplied to signal encoder 710 and output 413 is supplied to side information encoder 720. The signal encoder 710 performs transformation, quantization, and entropy coding, and removes the correlation remaining in the decomposed low frequency frame 411 and high frequency frame 412. Such operations are known in the art (Digital Pictures: Representation, Compression and Standards (Second Edition, Plenum Press, 1995) by Netravali and Haskell.

サイド情報エンコーダ720は、分解400により生成されたサイド情報413を符号化する。サイド情報413は、予測モード及び参照ピクチャリストに加えて、時間予測に対応する動き情報、空間予測に対応する視差情報、並びにビュー合成予測に対応するビュー合成情報及び奥行き情報を含む。   The side information encoder 720 encodes the side information 413 generated by the decomposition 400. The side information 413 includes motion information corresponding to temporal prediction, disparity information corresponding to spatial prediction, and view synthesis information and depth information corresponding to view synthesis prediction, in addition to the prediction mode and the reference picture list.

サイド情報の符号化は、MPEG−4ビジュアル規格ISO/IEC14496−2「情報技術−視聴覚オブジェクトのコーディング−パート2:ビジュアル(Information technology −− Coding of audio−visual objects − Part 2: Visual)」(第2版、2001年)、又はより最近のH.264/AVC規格、及びITU−T勧告H.264「一般視聴覚サービスのための高度なビデオコーディング(Advanced video coding for generic audiovisual services)」(2004年)において用いられる技法等の既知の確立された技法によって達成することができる。   The coding of the side information is MPEG-4 visual standard ISO / IEC 14496-2 “Information technology—Coding of audiovisual objects—Part 2: Visual (Information technology—Coding of audio-visual objects—Part 2: Visual)” (No. 1). 2nd edition, 2001), or more recent H.264. H.264 / AVC standard and ITU-T recommendation H.264 It can be achieved by known and established techniques such as those used in H.264 “Advanced Video Coding for Generic Audiovisual Services” (2004).

例えば、マクロブロックの動きベクトルは通常、参照ピクチャ内のマクロブロックにおけるベクトルから予測ベクトルを求める予測方法を用いて符号化される。次に、予測ベクトルと現在のベクトルとの差にエントロピーコーディングプロセスを施す。このプロセスは通常、予測誤差の統計値を用いる。同様の手順を用いて視差ベクトルを符号化することができる。   For example, the motion vector of a macroblock is usually encoded using a prediction method that obtains a prediction vector from vectors in a macroblock in a reference picture. Next, an entropy coding process is applied to the difference between the prediction vector and the current vector. This process typically uses prediction error statistics. A similar procedure can be used to encode the disparity vector.

さらに、参照ピクチャ内のマクロブロックからの予測値を得る予測コーディング方法を用いて、又は単純に固定長符号を使用して奥行き値を直接表すことによって各マクロブロックの奥行き情報を符号化することができる。画素レベルの奥行き精度が抽出され圧縮される場合、変換技法、量子化技法及びエントロピーコーディング技法を適用するテクスチャコーディング技法を適用することができる。   In addition, the depth information of each macroblock may be encoded using a predictive coding method that obtains a prediction value from the macroblock in the reference picture, or simply by directly representing the depth value using a fixed length code. it can. When pixel level depth accuracy is extracted and compressed, texture coding techniques that apply transform, quantization, and entropy coding techniques can be applied.

信号エンコーダ710及びサイド情報エンコーダ720からの符号化された信号711〜713を多重化して(730)、符号化された出力ビットストリーム731を生成することができる。   The encoded signals 711-713 from the signal encoder 710 and side information encoder 720 can be multiplexed (730) to generate an encoded output bitstream 731.

MCTF/DCVF分解の復号化
ビットストリーム731を復号化して(740)、入力マルチビュービデオ401〜404に対応する出力マルチビュービデオ741を生成することができる。任意で、合成ビデオも生成することができる。概して、デコーダは、エンコーダの逆の操作を行ってマルチビュービデオを再構成する。全ての低域フレーム及び高域フレームが復号化されれば、空間(ビュー)次元及び時間次元の両方において符号化品質の完全なフレーム集合が再構成され利用可能になる。
Decoding MCTF / DCVF Decomposition Bitstream 731 can be decoded (740) to generate output multiview video 741 corresponding to input multiview videos 401-404. Optionally, a composite video can also be generated. In general, the decoder performs the inverse operation of the encoder to reconstruct the multiview video. Once all the low and high frequency frames are decoded, a complete frame set of coding quality can be reconstructed and used in both the spatial (view) and temporal dimensions.

エンコーダにおいて適用した分解の反復レベル数、及びどのタイプの分解を適用したかに応じて、より少ない数のビデオ及び/又はより低い時間レートを図7に示すように復号化することができる。   Depending on the number of iteration levels of decomposition applied at the encoder and what type of decomposition is applied, a smaller number of videos and / or lower time rates can be decoded as shown in FIG.

ビュー合成
図8に示すように、ビュー合成は、1つ又は複数の実際のマルチビュービデオのフレーム803から合成ビデオのフレーム801を生成するプロセスである。言い換えれば、ビュー合成は、シーン5の選択された新たなビュー802に対応するフレーム801を合成する手段を提供する。この新たなビュー802は、入力マルチビュービデオ401〜404が取得された時点では存在しない「仮想」カメラ800に対応してもよく、又は、取得されるカメラビューに対応することができ、よって、合成ビューは、後述のようにその予測及び符号化/復号化に用いられる。
View Synthesis As shown in FIG. 8, view synthesis is the process of generating a composite video frame 801 from one or more actual multi-view video frames 803. In other words, view synthesis provides a means to synthesize a frame 801 corresponding to a selected new view 802 of scene 5. This new view 802 may correspond to a “virtual” camera 800 that does not exist at the time the input multi-view videos 401-404 are acquired, or may correspond to a camera view that is acquired, thus The composite view is used for prediction and encoding / decoding as described later.

1つのビデオを用いる場合、合成は外挿又はワーピングに基づき、複数のビデオを用いる場合、合成は内挿に基づく。   When using one video, composition is based on extrapolation or warping, and when using multiple videos, composition is based on interpolation.

1つ又は複数のマルチビュービデオのフレーム803の画素値及びシーン中の複数の点の奥行き値が与えられれば、合成ビュー802のフレーム801内の画素を、フレーム803内の対応する画素値から合成することができる。   Given the pixel values of one or more multi-view video frames 803 and the depth values of multiple points in the scene, the pixels in frame 801 of composite view 802 are combined from the corresponding pixel values in frame 803. can do.

ビュー合成は一般にコンピュータグラフィックスにおいて、複数のビューに関して静止画をレンダリングするために用いられる(Buehler他著「非構造的なルミグラフのレンダリング(Unstructured Lumigraph Rendering)」(Proc. ACM SIGGRAPH, 2001)を参照のこと)。この方法は、参照により本明細書中に援用されるカメラの外部パラメータ及び内部パラメータを必要とする。   View synthesis is commonly used in computer graphics to render still images for multiple views (see Bühler et al., “Unstructured Lumigraph Rendering” (Proc. ACM SIGGRAPH, 2001). ) This method requires camera external and internal parameters, which are incorporated herein by reference.

マルチビュービデオを圧縮するためのビュー合成は新規である。本発明の実施の形態1では、現フレームを予測するために使用する合成フレームを生成する。本発明の実施の形態1では、指定された高域フレームに関して合成フレームが生成される。本発明の別の実施の形態1では、特定のビューに関して合成フレームが生成される。合成フレームは参照ピクチャとして働き、これらの参照ピクチャから現合成フレームを予測することができる。   View synthesis for compressing multi-view video is novel. In the first embodiment of the present invention, a synthesized frame used for predicting the current frame is generated. In Embodiment 1 of the present invention, a synthesized frame is generated for the designated high frequency frame. In another embodiment 1 of the present invention, a composite frame is generated for a specific view. The synthesized frame acts as a reference picture, and the current synthesized frame can be predicted from these reference pictures.

この手法に伴う1つの問題は、シーン5の奥行き値が分からないことである。したがって、本発明では、既知の技法を用いて、例えば、マルチビュービデオにおける特徴の対応関係に基づいて奥行き値を推定する。   One problem with this approach is that the depth value of scene 5 is unknown. Therefore, in the present invention, a depth value is estimated using a known technique, for example, based on a correspondence relationship of features in multi-view video.

代替的に、合成ビデオ毎に、本発明では、候補奥行き値にそれぞれ対応する複数の合成フレームを生成する。現フレーム内のマクロブロック毎に、合成フレームの集合の中から最も良く一致するマクロブロックを求める。この最良一致が見つかった合成フレームは、現フレーム内のそのマクロブロックの奥行き値を示す。このプロセスを現フレーム内のマクロブロック毎に繰り返す。   Alternatively, for each synthesized video, the present invention generates a plurality of synthesized frames each corresponding to a candidate depth value. For each macroblock in the current frame, the best matching macroblock is obtained from the set of synthesized frames. The composite frame in which this best match is found indicates the depth value of that macroblock in the current frame. This process is repeated for each macroblock in the current frame.

現マクロブロックと合成ブロックとの差は信号エンコーダ710により符号化及び圧縮される。このマルチビューモードのサイド情報は、サイド情報エンコーダ720によって符号化される。サイド情報は、ビュー合成予測モードを示す信号、マクロブロックの奥行き値、及び現フレーム内のマクロブロックと合成フレーム内の最良一致マクロブロックとの間の補償すべき位置ずれを補償する任意の変位ベクトルを含む。   The difference between the current macroblock and the synthesized block is encoded and compressed by the signal encoder 710. The side information in the multi view mode is encoded by the side information encoder 720. The side information includes a signal indicating a view synthesis prediction mode, a depth value of the macroblock, and an arbitrary displacement vector that compensates for a position shift to be compensated between the macroblock in the current frame and the best matching macroblock in the synthesis frame. including.

予測モードの選択
マクロブロック適応的MCTF/DCVF分解において、各マクロブロックの予測モードmは、コスト関数をマクロブロック毎に適応的に最小化することによって選択することができる。
Prediction Mode Selection In the macroblock adaptive MCTF / DCVF decomposition, the prediction mode m of each macroblock can be selected by adaptively minimizing the cost function for each macroblock.

Figure 2008172749
Figure 2008172749

ここで、J(m)=D(m)+λR(m)であり、Dは歪みであり、λは重みパラメータであり、Rはレートであり、mは候補予測モードの集合を示し、mは最小コスト基準に基づいて選択された最適予測モードを示す。 Here, J (m) = D (m) + λR (m), D is distortion, λ is a weight parameter, R is a rate, m indicates a set of candidate prediction modes, and m * Indicates the optimal prediction mode selected based on the minimum cost criterion.

候補モードmは様々な時間予測モード、空間予測モード、ビュー合成予測モード、及びイントラ予測モードを含む。コスト関数J(m)は、特定の予測モードmを用いてマクロブロックを符号化した結果として生じるレート及び歪みに依存する。   Candidate mode m includes various temporal prediction modes, spatial prediction modes, view synthesis prediction modes, and intra prediction modes. The cost function J (m) depends on the rate and distortion that result from encoding a macroblock with a specific prediction mode m.

歪みDは、再構成マクロブロックと元マクロブロックとの差を測定する。再構成マクロブロックは、所与の予測モードmを用いてマクロブロックを符号化及び復号化することによって得られる。一般的な歪み測度は差の二乗和である。レートRは、予測誤差及びサイド情報を含む、マクロブロックを符号化するために必要なビット数に対応する。重みパラメータλは、マクロブロックコーディングのレート−歪みのトレードオフを制御するものであり、量子化ステップサイズから導出することができる。   Distortion D measures the difference between the reconstructed macroblock and the original macroblock. A reconstructed macroblock is obtained by encoding and decoding the macroblock with a given prediction mode m. A common distortion measure is the sum of squared differences. The rate R corresponds to the number of bits required to encode the macroblock, including prediction error and side information. The weight parameter λ controls the macroblock coding rate-distortion tradeoff and can be derived from the quantization step size.

符号化プロセス及び復号化プロセスの詳細な態様を以下でさらに詳述する。特に、符号化プロセス及び復号化プロセスにより用いられる様々なデータ構造を説明する。本明細書中で説明するような、エンコーダにおいて用いられるデータ構造は、デコーダにおいて用いられる対応するデータ構造と同じであることを理解すべきである。また、デコーダの処理ステップは本質的に、エンコーダと同じ処理ステップに従うが、ただし逆の順序であることも理解すべきである。   Detailed aspects of the encoding and decoding processes are described in further detail below. In particular, the various data structures used by the encoding and decoding processes are described. It should be understood that the data structure used in the encoder, as described herein, is the same as the corresponding data structure used in the decoder. It should also be understood that the processing steps of the decoder follow essentially the same processing steps as the encoder, but in the reverse order.

参照ピクチャ管理
図9は、従来技術のシングルビューの符号化及び復号化システムのための参照ピクチャ管理を示す。時間参照ピクチャ901は、復号ピクチャバッファ(DPB)940への時間参照ピクチャ901の挿入(920)及び削除(930)を決めるシングルビュー参照ピクチャリスト(RPL)マネージャ910によって管理される。参照ピクチャリスト950もまた保持されて、DPB940に格納されているフレームを示す。RPLは、挿入(920)及び削除(930)といった参照ピクチャ管理操作、並びにエンコーダ及びデコーダの両方における時間予測960のために用いられる。
Reference Picture Management FIG. 9 illustrates reference picture management for a prior art single view encoding and decoding system. The temporal reference picture 901 is managed by a single view reference picture list (RPL) manager 910 that determines insertion (920) and deletion (930) of the temporal reference picture 901 in the decoded picture buffer (DPB) 940. A reference picture list 950 is also maintained to indicate the frames stored in the DPB 940. RPL is used for reference picture management operations such as insert (920) and delete (930), and temporal prediction 960 in both encoder and decoder.

シングルビューエンコーダにおいて、時間参照ピクチャ901は、予測、変換及び量子化を含む一組の通常の符号化操作を適用し、次にこれらの逆の、逆量子化、逆変換及び動き補償を含む操作を適用した結果として生成される。さらに、時間参照ピクチャ901は、エンコーダにおける現フレームの予測に時間ピクチャが必要な時にのみ、DPB940に挿入されてRPL950に追加される。   In a single-view encoder, temporal reference picture 901 applies a set of normal encoding operations including prediction, transform and quantization, and then these inverse operations including inverse quantization, inverse transform and motion compensation. Is generated as a result of applying. Furthermore, the temporal reference picture 901 is inserted into the DPB 940 and added to the RPL 950 only when the temporal picture is required for prediction of the current frame in the encoder.

シングルビューデコーダにおいて、逆量子化、逆変換及び動き補償を含む一組の通常の復号化操作をビットストリームに対して適用することによって同じ時間参照ピクチャ901が生成される。エンコーダと同様に、時間参照ピクチャ901は、デコーダにおける現フレームの予測に必要である場合にのみDPB940に挿入されて(920)RPL950に追加される。   In a single view decoder, the same temporal reference picture 901 is generated by applying a set of normal decoding operations, including inverse quantization, inverse transform and motion compensation, to the bitstream. Similar to the encoder, the temporal reference picture 901 is inserted into the DPB 940 and added to the RPL 950 only when necessary for prediction of the current frame at the decoder (920).

図10は、マルチビューの符号化及び復号化のための参照ピクチャ管理を示す。時間参照ピクチャ1003に加えて、マルチビューシステムはまた、空間参照ピクチャ1001及び合成参照ピクチャ1002も含む。これらの参照ピクチャはまとめてマルチビュー参照ピクチャ1005と呼ばれる。これらのマルチビュー参照ピクチャ1005は、マルチビューDPB1040へのマルチビュー参照ピクチャ1005の挿入(1020)及び削除(1030)を決めるマルチビューRPLマネージャ1010によって管理される。ビデオ毎に、マルチビュー参照ピクチャリスト(RPL)1050もまた保持されて、DPBに格納されているフレームを示す。すなわち、RPLはDPBのインデックスである。マルチビューRPLは、挿入(1020)及び削除(1030)といった参照ピクチャ管理操作、並びに現フレームの予測1060に用いられる。   FIG. 10 shows reference picture management for multiview encoding and decoding. In addition to the temporal reference picture 1003, the multi-view system also includes a spatial reference picture 1001 and a synthesized reference picture 1002. These reference pictures are collectively referred to as a multi-view reference picture 1005. These multiview reference pictures 1005 are managed by a multiview RPL manager 1010 that determines insertion (1020) and deletion (1030) of the multiview reference picture 1005 in the multiview DPB 1040. For each video, a multi-view reference picture list (RPL) 1050 is also maintained to indicate the frames stored in the DPB. That is, RPL is an index of DPB. The multi-view RPL is used for reference picture management operations such as insertion (1020) and deletion (1030), and prediction 1060 of the current frame.

マルチビューシステムの予測1060は、異なるタイプのマルチビュー参照ピクチャ1005からの予測が可能となるため、シングルビューシステムの予測960とは異なることに留意されたい。マルチビュー参照ピクチャ管理1010に関するさらなる詳細は後述する。   Note that multi-view system prediction 1060 is different from single-view system prediction 960 because it allows prediction from different types of multi-view reference pictures 1005. Further details regarding the multi-view reference picture management 1010 will be described later.

マルチビュー参照ピクチャリストマネージャ
エンコーダにおいて現フレームを符号化する前、又はデコーダにおいて現フレームを復号化する前に、マルチビューRPL1050においてマルチビュー参照ピクチャ1005の集合を指示することができる。従来及び本明細書中で定義されるように、集合は要素を全く有しなくても(空集合)、1つ又は複数の要素を有してもよい。RPLの同一コピーが、現フレーム毎にエンコーダ及びデコーダの両方によって保持される。
Multiview Reference Picture List Manager A set of multiview reference pictures 1005 can be indicated in the multiview RPL 1050 before encoding the current frame at the encoder or before decoding the current frame at the decoder. As defined conventionally and herein, a set may have no elements (empty set) or may have one or more elements. The same copy of RPL is maintained by both the encoder and decoder for each current frame.

マルチビューRPL1050に挿入される全てのフレームが初期化され、適切な構文を用いて、予測に使用可能なものとしてマーキングされる。H.264/AVC規格及び参照ソフトウェアによれば、「used_for_reference」フラグが「1」にセットされる。概して、参照ピクチャは、フレームをビデオ符号化システムにおける予測に使用することができるように初期化される。H.264/AVC等の従来のシングルビュービデオ圧縮規格との互換性を保つために、各参照ピクチャにピクチャ順序カウント(picture order count)(POC)を割り当てる。通常、シングルビューの符号化及び復号化システムの場合、POCはピクチャの時間的な順序付け、例えばフレーム番号に対応する。マルチビューの符号化及び復号化システムの場合、時間順だけでは、各参照ピクチャにPOCを割り当てるのに不十分である。したがって、本発明では、全てのマルチビュー参照ピクチャに関して或る規則に従って一意のPOCを求める。1つの規則は、時間参照ピクチャに対して時間順に基づいてPOCを割り当て、次に、非常に高いPOC番号のシーケンス、例えば10000〜10100を空間参照ピクチャ及び合成参照ピクチャ用に確保するものである。他のPOC割り当て規則、又は単に「順序付け」規則を以下でさらに詳述する。   All frames inserted into the multi-view RPL 1050 are initialized and marked as available for prediction using an appropriate syntax. H. According to the H.264 / AVC standard and reference software, the “used_for_reference” flag is set to “1”. In general, the reference picture is initialized so that the frame can be used for prediction in a video coding system. H. In order to maintain compatibility with conventional single-view video compression standards such as H.264 / AVC, a picture order count (POC) is assigned to each reference picture. Typically, for a single view encoding and decoding system, the POC corresponds to temporal ordering of pictures, eg, frame numbers. For multiview encoding and decoding systems, temporal order alone is not sufficient to assign a POC to each reference picture. Therefore, in the present invention, a unique POC is obtained according to a certain rule for all multi-view reference pictures. One rule is to assign POCs to temporal reference pictures in temporal order, and then reserve a very high POC number sequence, eg, 10000-10100, for spatial reference pictures and synthesized reference pictures. Other POC assignment rules, or simply “ordering” rules, are described in further detail below.

マルチビュー参照フレームとして用いる全てのフレームがRPLに保持され、それらのフレームがエンコーダ700又はデコーダ740によって従来の参照ピクチャとして扱われるようにDPBに格納される。これにより、符号化プロセス及び復号化プロセスは従来通りとすることができる。マルチビュー参照ピクチャの格納に関するさらなる詳細は後述する。予測すべき現フレーム毎に、RPL及びDPBが対応して更新される。   All frames used as multi-view reference frames are held in the RPL and stored in the DPB so that these frames are treated as conventional reference pictures by the encoder 700 or the decoder 740. Thereby, the encoding process and the decoding process can be made conventional. Further details regarding the storage of multi-view reference pictures will be described later. For each current frame to be predicted, the RPL and DPB are updated correspondingly.

マルチビュー規則の定義及び信号伝達
RPLを保持するプロセスは、エンコーダ700とデコーダ740との間で調整される。特に、エンコーダ及びデコーダは、特定の現フレームを予測する際にマルチビュー参照ピクチャリストの同一コピーを保持する。
Multiview Rule Definition and Signaling The process of maintaining the RPL is coordinated between the encoder 700 and the decoder 740. In particular, the encoder and decoder maintain the same copy of the multiview reference picture list when predicting a particular current frame.

マルチフレーム参照ピクチャリストを保持するいくつかの規則が可能である。したがって、使用される特定の規則はビットストリーム731に挿入されるか、又はシーケンスレベルのサイド情報、例えばデコーダに伝達される構成情報として提供される。さらに、この規則は、異なる予測構造、例えば1Dアレイ、2Dアレイ、弧、十字、及びビューの内挿技法又はワーピング技法を用いて合成されるシーケンスを可能にする。   Several rules are possible to maintain a multi-frame reference picture list. Thus, the specific rules used are inserted into the bitstream 731 or provided as sequence level side information, eg configuration information communicated to the decoder. In addition, this rule allows sequences that are synthesized using different predictive structures, such as 1D arrays, 2D arrays, arcs, crosses, and view interpolation or warping techniques.

例えば、合成フレームは、カメラによって取得されたマルチビュービデオのうちの1つの対応するフレームをワーピングすることによって生成される。代替的に、シーンの従来のモデルを合成中に用いることができる。本発明の他の実施の形態1では、ビュータイプ、挿入順、及びカメラ特性に依存するいくつかのマルチビュー参照ピクチャ保持規則を定義する。   For example, the composite frame is generated by warping a corresponding frame of one of the multi-view videos acquired by the camera. Alternatively, a conventional model of the scene can be used during synthesis. In another embodiment 1 of the present invention, several multi-view reference picture retention rules that depend on the view type, insertion order, and camera characteristics are defined.

ビュータイプは、参照ピクチャが現フレームのビデオ以外のビデオからのフレームであるかどうか、又は、参照ピクチャが他のフレームから合成されたものであるかどうか、又は、参照ピクチャが他の参照ピクチャに依存するかどうかを示す。例えば、合成参照ピクチャは、現フレームと同じビデオからの参照ピクチャ、又は空間的に隣接するビデオからの参照ピクチャとは別に保持することができる。   The view type is whether the reference picture is a frame from a video other than the video of the current frame, whether the reference picture is a composite from another frame, or whether the reference picture is another reference picture. Indicates whether it depends. For example, the composite reference picture can be kept separate from a reference picture from the same video as the current frame or from a spatially adjacent video.

挿入順は、参照ピクチャがRPL内でどのように順序付けされるかを示す。例として、現フレームと同じビデオ中の参照ピクチャには、隣接ビューから撮影されたビデオ中の参照ピクチャよりも低い順序値を与えることができる。この場合、この参照ピクチャは、マルチビューRPLにおいて前の方に配置される。   The insertion order indicates how the reference pictures are ordered in the RPL. As an example, a reference picture in the same video as the current frame can be given a lower order value than a reference picture in a video taken from an adjacent view. In this case, this reference picture is arranged in the front in the multi-view RPL.

カメラ特性は、参照ピクチャを取得するために使用されるカメラ、又は合成参照ピクチャを生成するために用いられる仮想カメラの特性を示す。これらの特性は、固定座標系に対する並進及び回転、すなわちカメラの「姿勢」、3Dの点が2D画像に投影される方法を記述する内部パラメータ、レンズ歪み、色較正情報、照明レベル等を含む。例として、カメラ特性に基づき、特定のカメラの隣接カメラに対する近接度を自動的に求めることができ、隣接カメラにより取得されたビデオのみを特定のRPLの一部とみなす。   The camera characteristics indicate characteristics of a camera used to obtain a reference picture or a virtual camera used to generate a synthesized reference picture. These characteristics include translation and rotation with respect to a fixed coordinate system, i.e., the "posture" of the camera, internal parameters describing how the 3D points are projected onto the 2D image, lens distortion, color calibration information, illumination levels, etc. As an example, based on camera characteristics, the proximity of a specific camera to an adjacent camera can be determined automatically, and only the video acquired by the adjacent camera is considered part of a specific RPL.

図11に示すように、本発明の実施の形態1は、各参照ピクチャリストの一部1101を時間参照ピクチャ1003用に確保し、別の部分1102を合成参照ピクチャ1002用に確保し、第3の部分1103を空間参照ピクチャ1001用に確保する規則を使用する。これは、ビュータイプのみに依存する規則の一例である。各部分に含まれるフレーム数は、符号化又は復号化中の現フレームの予測依存性に基づいて変化し得る。   As shown in FIG. 11, in Embodiment 1 of the present invention, a part 1101 of each reference picture list is reserved for the temporal reference picture 1003, and another part 1102 is reserved for the synthesized reference picture 1002. Is used for the spatial reference picture 1001. This is an example of a rule that depends only on the view type. The number of frames included in each part may vary based on the prediction dependence of the current frame being encoded or decoded.

特定の保持規則は、規格、明示的ルール又は暗黙的ルールによって規定するか、又は符号化ビットストリームにおいてサイド情報として規定することができる。   Specific retention rules can be defined by standards, explicit rules or implicit rules, or can be defined as side information in the encoded bitstream.

DPBへのピクチャの格納
マルチビューRPLマネージャ1010は、マルチビュー参照ピクチャがDPBに格納される順序が、符号化及び復号化の効率を高める上でのピクチャの「有用性」に対応するようにRPLを保持する。具体的には、RPLの初めの方の参照ピクチャは、RPLの終わりの方の参照ピクチャよりも少ないビットで予測(predicatively)符号化することができる。
Storing pictures in the DPB The multi-view RPL manager 1010 allows the RPL so that the order in which the multi-view reference pictures are stored in the DPB corresponds to the “usefulness” of the pictures in increasing the efficiency of encoding and decoding. Hold. Specifically, the reference picture at the beginning of the RPL can be predictively encoded with fewer bits than the reference picture at the end of the RPL.

図12に示すように、マルチビュー参照ピクチャをRPLに保持する順序の最適化は、コーディング効率に大きな影響を有し得る。例えば、初期化に関して上述したPOC割り当てに従うと、マルチビュー参照ピクチャには非常に大きなPOC値が割り当てられる可能性がある。これは、マルチビュー参照ピクチャがビデオシーケンスの通常の時間的な順序付けでは生じないためである。したがって、ほとんどのビデオコーデックのデフォルトの順序付けプロセスは、そのようなマルチビュー参照ピクチャを参照ピクチャリストの前の方に配置する可能性がある。   As shown in FIG. 12, the optimization of the order in which the multi-view reference pictures are held in the RPL can have a great influence on the coding efficiency. For example, following the POC assignment described above for initialization, a multi-view reference picture may be assigned a very large POC value. This is because multi-view reference pictures do not occur with normal temporal ordering of video sequences. Thus, the default ordering process for most video codecs can place such multi-view reference pictures earlier in the reference picture list.

同一シーケンスからの時間参照ピクチャは通常、他のシーケンスからの空間参照ピクチャよりも強い相関を示すため、デフォルトの順序付けは望ましくない。したがって、マルチビュー参照ピクチャはエンコーダによって明示的に並べ替えられて、エンコーダがその後、この並べ替えをデコーダに信号伝達するか、又は、エンコーダ及びデコーダがマルチビュー参照ピクチャを所定の規則に従って暗黙的に並べ替える。   Default ordering is not desirable because temporal reference pictures from the same sequence usually show stronger correlation than spatial reference pictures from other sequences. Thus, the multiview reference picture is explicitly reordered by the encoder, and the encoder then signals this reordering to the decoder, or the encoder and decoder implicitly reorder the multiview reference picture according to a predetermined rule. Rearrange.

図13に示すように、参照ピクチャの順序は、各参照ピクチャに対するビューモード1300によって容易になる。ビューモード1300もまたマルチビュー予測プロセス1060に影響を与えることに留意されたい。本発明の実施の形態1では、さらに詳細に後述する3つの異なるタイプのビューモード、すなわち、Iビュー、Pビュー及びBビューを用いる。   As shown in FIG. 13, the order of reference pictures is facilitated by the view mode 1300 for each reference picture. Note that view mode 1300 also affects multi-view prediction process 1060. In the first embodiment of the present invention, three different types of view modes, that is, an I view, a P view, and a B view, which will be described in detail later, are used.

マルチビュー参照ピクチャ管理の詳細な動作を説明する前に、単一ビデオの符号化及び復号化システムのための従来技術の参照ピクチャ管理を図14に示す。時間参照ピクチャ901のみが時間予測960に用いられる。取得順又は表示順1401におけるビデオの時間参照ピクチャ間の時間予測依存性を示す。参照ピクチャは符号化順1402に並べ替えられ(1410)、この符号化順1402で各参照ピクチャが時刻t〜tにおいて符号化又は復号化される。ブロック1420は、時刻毎の参照ピクチャの順序付けを示す。イントラフレームIが符号化又は復号化される時刻tでは、時間予測に使用される時間参照ピクチャはないため、DBP/RPLは空である。一方向インターフレームPが符号化又は復号化される時刻tでは、フレームIが時間参照ピクチャとして利用可能である。時刻t及びtでは、フレームI及びPの両方がインターフレームB及びBの双方向時間予測のための参照フレームとして利用可能である。時間参照ピクチャ及びDBP/RPLは、将来のピクチャに関しても同様に管理される。 Prior to describing the detailed operation of multiview reference picture management, prior art reference picture management for a single video encoding and decoding system is shown in FIG. Only the temporal reference picture 901 is used for the temporal prediction 960. The temporal prediction dependence between temporal reference pictures of video in the acquisition order or display order 1401 is shown. The reference pictures are rearranged in the encoding order 1402 (1410), and each reference picture is encoded or decoded at times t 0 to t 6 in the encoding order 1402. Block 1420 shows the ordering of reference pictures by time. For intra-frame I 0 is at time t 0 is encoded or decoded, there is no temporal reference pictures used for temporal prediction, DBP / RPL is empty. At time t 1 the one-way inter-frame P 1 is encoded or decoded, frame I 0 is available as a temporal reference picture. At times t 2 and t 3 , both frames I 0 and P 1 are available as reference frames for bi-directional temporal prediction of inter frames B 1 and B 2 . Temporal reference pictures and DBP / RPL are similarly managed for future pictures.

本発明の実施の形態1によるマルチビューの場合を説明するために、上述し図15に示す3つの異なるタイプのビュー、すなわち、Iビュー、Pビュー、及びBビューを検討する。表示順1501におけるビデオの参照ピクチャ間のマルチビューの予測依存性を示す。図15に示すように、ビデオの参照ピクチャはビューモード毎にコーディング順1502に並べ替えられ(1510)、このコーディング順1502で各参照ピクチャが、t〜tで示す所与の時刻において符号化又は復号化される。マルチビュー参照ピクチャの順序を時刻毎にブロック1520に示す。 To explain the multi-view case according to the first embodiment of the present invention, consider the three different types of views described above and shown in FIG. 15, namely I view, P view, and B view. The prediction dependence of the multi view between the reference pictures of the video in the display order 1501 is shown. As shown in FIG. 15, the reference pictures of the video are rearranged in the coding order 1502 for each view mode (1510), and each reference picture is encoded at a given time indicated by t 0 to t 2 in this coding order 1502. Or decoded. The order of the multi-view reference pictures is shown in block 1520 for each time.

Iビューは、より複雑なモードを可能にする最も単純なモードである。Iビューは、空間予測も合成予測も用いない従来の符号化及び予測モードを用いる。例えば、Iビューは、マルチビュー拡張を用いずに従来のH.264/AVC技法を用いて符号化することができる。Iビューシーケンスからの空間参照ピクチャを他のビューの参照リストに配置する時、これらの空間参照ピクチャは通常、時間参照ピクチャの後に配置される。   The I view is the simplest mode that allows a more complex mode. The I view uses conventional coding and prediction modes that do not use spatial or synthetic prediction. For example, the I view does not use the multi-view extension, but the conventional H.264. It can be encoded using H.264 / AVC techniques. When spatial reference pictures from an I-view sequence are placed in the reference lists of other views, these spatial reference pictures are usually placed after the temporal reference pictures.

図15に示すように、Iビューの場合、フレームIがtにおいて符号化又は復号化される時、予測に用いられるマルチビュー参照ピクチャはない。したがって、DBP/RPLは空である。フレームPが符号化又は復号化される時刻tでは、Iが時間参照ピクチャとして利用可能である。フレームBが符号化又は復号化される時刻tでは、フレームI及びPの両方が時間参照ピクチャとして利用可能である。 As shown in FIG. 15, in the case of I view, when frame I 0 is encoded or decoded at t 0 , there is no multi-view reference picture used for prediction. Therefore, DBP / RPL is empty. At time t 1 when frame P 0 is encoded or decoded, I 0 is available as a temporal reference picture. At time t 2 when frame B 0 is encoded or decoded, both frames I 0 and P 0 are available as temporal reference pictures.

Pビューは、別のビューからの予測を可能にしてビュー間の空間的相関を利用するという点で、Iビューよりも複雑である。具体的には、Pビューモードを用いて符号化されるシーケンスは、他のIビュー又はPビューからのマルチビュー参照ピクチャを用いる。Pビューでは合成参照ピクチャも用いることができる。Iビューからのマルチビュー参照ピクチャを他のビューの参照リストに配置する時、Pビューは、時間参照ピクチャ、及びIビューから導出されるマルチビュー参照ピクチャの両方の後に配置される。   P views are more complex than I views in that they allow prediction from another view and take advantage of the spatial correlation between views. Specifically, a sequence encoded using the P view mode uses a multi-view reference picture from another I view or P view. A composite reference picture can also be used in the P view. When placing a multi-view reference picture from an I view in the reference list of another view, the P view is placed after both the temporal reference picture and the multi-view reference picture derived from the I view.

図15に示すように、Pビューの場合、フレームIがtにおいて符号化又は復号化される時、合成参照ピクチャS20及び空間参照ピクチャIが予測に利用可能である。合成ピクチャの生成に関するさらなる詳細は後述する。Pが符号化又は復号化される時刻tでは、Iが時間参照ピクチャとして、合成参照ピクチャS21及びIビューからの空間参照ピクチャPと共に利用可能である。時刻tでは、2つの時間参照ピクチャI及びP、並びに合成参照ピクチャS22及び空間参照ピクチャBが存在し、これらの参照ピクチャから予測を行うことができる。 As shown in FIG. 15, for the P view, when frame I 2 is encoded or decoded at t 0 , the synthesized reference picture S 20 and the spatial reference picture I 0 are available for prediction. Further details regarding the generation of the composite picture will be described later. At time t 1 when P 2 is encoded or decoded, I 2 is available as a temporal reference picture along with the synthesized reference picture S 21 and the spatial reference picture P 0 from the I view. At time t 2 , there are two temporal reference pictures I 2 and P 2 , a combined reference picture S 22 and a spatial reference picture B 0, and prediction can be performed from these reference pictures.

Bビューは、マルチビュー参照ピクチャを用いるという点で、Pビューと同様である。PビューとBビューとの間の1つの重要な差異は、Pビューがそのビュー自体及び1つの他のビューからの参照ピクチャを用いるのに対し、Bビューは複数のビューのピクチャを参照し得ることである。合成参照ピクチャを用いる時、合成ビューは通常、空間参照よりも強い相関を有するため、Bビューは空間参照ピクチャの前に配置される。   B view is similar to P view in that it uses a multi-view reference picture. One important difference between P and B views is that P views use reference pictures from the view itself and from one other view, whereas B views can reference pictures from multiple views. That is. When using a synthesized reference picture, the synthesized view usually has a stronger correlation than the spatial reference, so the B view is placed before the spatial reference picture.

図15に示すように、Bビューの場合、Iがtにおいて符号化又は復号化される時、合成参照ピクチャS10並びに空間参照ピクチャI及びIが予測に利用可能である。Pが符号化又は復号化される時刻tでは、Iが時間参照ピクチャとして、合成参照ピクチャS11、並びにそれぞれIビュー及びPビューからの空間参照ピクチャP及びPと共に利用可能である。時刻tでは、2つの時間参照ピクチャI及びPが存在すると共に、合成参照ピクチャS12並びに空間参照ピクチャB及びBが存在し、これらの参照ピクチャから予測を行うことができる。 As shown in FIG. 15, in the case of B view, when I 1 is encoded or decoded at t 0 , the synthesized reference picture S 10 and the spatial reference pictures I 0 and I 2 are available for prediction. At time t 1 P 1 is encoded or decoded, as a reference picture I 1 time, a synthesized reference picture S 11, and can be utilized with spatial reference pictures P 0 and P 2 from the I-view and P-view, respectively is there. At time t 2 , there are two temporal reference pictures I 1 and P 1 , a composite reference picture S 12 , and spatial reference pictures B 0 and B 2, and prediction can be performed from these reference pictures.

図15に示す例は本発明の実施の形態1に関するものに過ぎないことを強調しておく。多くの異なるタイプの予測依存性がサポートされる。例として、空間参照ピクチャは、同時刻の異なるビューにおけるピクチャに限定されない。空間参照ピクチャはまた、異なる時刻の異なるビューに対する参照ピクチャも含むことができる。また、イントラピクチャ間の双方向予測ピクチャ及び一方向予測インターピクチャの数は変化し得る。同様に、Iビュー、Pビュー、及びBビューの構成も変化し得る。さらに、異なるピクチャ集合又は異なる奥行きマップ若しくはプロセスを用いてそれぞれ生成されるいくつかの合成参照ピクチャが利用可能であり得る。   It is emphasized that the example shown in FIG. 15 is only related to the first embodiment of the present invention. Many different types of predictive dependencies are supported. As an example, the spatial reference picture is not limited to pictures in different views at the same time. Spatial reference pictures can also include reference pictures for different views at different times. In addition, the number of bidirectional prediction pictures and unidirectional prediction inter pictures between intra pictures may vary. Similarly, the configuration of I view, P view, and B view may also change. In addition, several synthetic reference pictures, each generated using different picture sets or different depth maps or processes, may be available.

互換性
本発明の実施の形態1によるマルチビューピクチャ管理の1つの重要な利点は、既存のシングルビューのビデオコーディングシステム及び設計と互換性があることである。このマルチビューピクチャ管理は、既存のシングルビュービデオコーディング規格に加える変更が最小であるだけでなく、既存のシングルビュービデオコーディングシステムからのソフトウェア及びハードウェアを、本明細書に記載するマルチビュービデオコーディングに使用することも可能にする。
Compatibility One important advantage of multi-view picture management according to Embodiment 1 of the present invention is that it is compatible with existing single-view video coding systems and designs. This multi-view picture management not only requires minimal changes to the existing single-view video coding standard, but also software and hardware from the existing single-view video coding system as described herein. It can also be used.

この理由は、ほとんどの従来のビデオ符号化システムが、符号化パラメータをデコーダに圧縮ビットストリームで伝達するからである。したがって、このようなパラメータを伝達する構文は、H.264/AVC規格等の既存のビデオコーディング規格によって規定されている。例えば、ビデオコーディング規格は、現フレーム内の所与のマクロブロックに対する予測モードを、他の時間的に関連する参照ピクチャから規定する。この規格はまた、結果として生じる予測誤差を符号化及び復号化するために使用される方法を規定する。他のパラメータは、変換のタイプ又はサイズ、量子化方法、及びエントロピーコーディング方法を規定する。   This is because most conventional video encoding systems communicate the encoding parameters to the decoder in a compressed bitstream. Therefore, the syntax for conveying such parameters is H.264. It is defined by existing video coding standards such as H.264 / AVC standard. For example, the video coding standard defines the prediction mode for a given macroblock in the current frame from other temporally related reference pictures. This standard also defines the method used to encode and decode the resulting prediction error. Other parameters define the type or size of the transform, the quantization method, and the entropy coding method.

したがって、本発明のマルチビュー参照ピクチャは、既存のシステムの参照ピクチャリスト、復号ピクチャバッファ、及び予測構造等の標準的な符号化コンポーネント及び復号化コンポーネントに限られた数の修正を加えるだけで実行することができる。マクロブロック構造、変換、量子化及びエントロピー符号化は変更されないことに留意されたい。   Thus, the multi-view reference picture of the present invention can be implemented with only a limited number of modifications to standard encoding and decoding components such as existing system reference picture lists, decoded picture buffers, and prediction structures. can do. Note that the macroblock structure, transform, quantization and entropy coding are not changed.

ビュー合成
図8に関して上述したように、ビュー合成は、仮想カメラ800の合成ビュー802に対応するフレーム801を、既存のビデオから取得されるフレーム803から生成するプロセスである。言い換えれば、ビュー合成は、入力ビデオが取得された時点では存在しない仮想カメラによるシーンの選択された新たなビューに対応するフレームを合成する手段を提供する。1つ又は複数の実際のビデオのフレームの画素値及びシーン中の点の奥行き値が与えられると、合成ビデオビューのフレーム内の画素を外挿及び/又は内挿により生成することができる。
View Compositing As described above with respect to FIG. 8, view compositing is the process of generating a frame 801 corresponding to the composite view 802 of the virtual camera 800 from a frame 803 obtained from an existing video. In other words, view synthesis provides a means to synthesize frames corresponding to a selected new view of a scene with a virtual camera that does not exist at the time the input video is acquired. Given the pixel values of one or more actual video frames and the depth values of points in the scene, the pixels in the frame of the composite video view can be generated by extrapolation and / or interpolation.

合成ビューからの予測
図16は、奥行き1901の情報が符号化マルチビュービットストリーム731に含まれている時に、ビュー合成モードを用いて再構成マクロブロックを生成するプロセスを示す。所与のマクロブロックの奥行きは、サイド情報デコーダ1910によって復号化される。奥行き1901及び空間参照ピクチャ1902を用いてビュー合成1920を行い、合成マクロブロック1904を生成する。次に、合成マクロブロック1904と復号化された残差マクロブロック1905とを加算する(1930)ことによって再構成マクロブロック1903が形成される。
Prediction from Synthetic View FIG. 16 shows the process of generating a reconstructed macroblock using view synthesis mode when depth 1901 information is included in the encoded multi-view bitstream 731. The depth of a given macroblock is decoded by the side information decoder 1910. View synthesis 1920 is performed using the depth 1901 and the spatial reference picture 1902 to generate a synthesized macroblock 1904. Next, the reconstructed macroblock 1903 is formed by adding (1930) the synthesized macroblock 1904 and the decoded residual macroblock 1905.

エンコーダにおけるマルチビューモード選択の詳細
図17は、現フレームの符号化又は復号化中に予測モードを選択するプロセスを示す。時間参照ピクチャ2020を用いて現マクロブロック2011に関して動き推定2010を行う。結果として得られる動きベクトル2021を用いて、時間予測を用いる第1のコーディングコストcost2031を求める(2030)。このプロセスに関連する予測モードはmである。
Details of Multiview Mode Selection at the Encoder FIG. 17 shows the process of selecting the prediction mode during encoding or decoding of the current frame. Motion estimation 2010 is performed on the current macroblock 2011 using the temporal reference picture 2020. The resulting motion vector 2021 is used to determine a first coding cost cost 1 2031 using temporal prediction (2030). The prediction mode associated with this process is m 1 .

空間参照ピクチャ2041を用いて現マクロブロックに関して視差推定2040を行う。結果として得られる視差ベクトル2042を用いて、空間予測を用いる第2のコーディングコストcost2051を求める(2050)。このプロセスに関連する予測モードをmで示す。 Disparity estimation 2040 is performed on the current macroblock using the spatial reference picture 2041. The resulting disparity vector 2042 is used to determine a second coding cost cost 2 2051 that uses spatial prediction (2050). Indicating the prediction mode associated with this process in m 2.

空間参照ピクチャ2041に基づき現マクロブロックに関して奥行き推定2060を行う。推定した奥行きに基づいてビュー合成を行う。奥行き情報2061及び合成ビュー2062を用いて、ビュー合成予測を用いる第3のコーディングコストcost2071を求める(2070)。このプロセスに関連する予測モードはmである。 Depth estimation 2060 is performed for the current macroblock based on the spatial reference picture 2041. View synthesis is performed based on the estimated depth. Using the depth information 2061 and the synthesized view 2062, a third coding cost cost 3 2071 using view synthesis prediction is obtained (2070). The prediction mode associated with this process is m 3 .

現マクロブロックの隣接画素2082を用いて、イントラ予測を用いる第4のコーディングコストcost2081を求める(2080)。このプロセスに関連する予測モードはmである。 A fourth coding cost cost 4 2081 using intra prediction is obtained using the adjacent pixel 2082 of the current macroblock (2080). The prediction mode associated with this process is m 4.

cost、cost、cost及びcostの中の最小コストを求め(2090)、モードm、m、m及びmの中で最小コストを有するモードを、現マクロブロック2011の最良予測モード2091として選択する。 The lowest cost among cost 1 , cost 2 , cost 3 and cost 4 is determined (2090), and the mode having the lowest cost among the modes m 1 , m 2 , m 3 and m 4 is determined as the best of the current macroblock 2011 The prediction mode 2091 is selected.

奥行き推定を用いたビュー合成
ビュー合成モード2091を用いて、合成ビューの奥行き情報及び変位ベクトルを、1つ又は複数のマルチビュービデオの復号化フレームから推定することができる。奥行き情報は、適用されるプロセスに応じて、立体カメラから推定される画素毎の奥行きであってもよく、又は、マクロブロックマッチングから推定されるマクロブロック毎の奥行きであってもよい。
View Synthesis Using Depth Estimation The view synthesis mode 2091 can be used to estimate the depth information and displacement vector of a synthesized view from one or more multi-view video decoded frames. The depth information may be the depth for each pixel estimated from the stereoscopic camera or the depth for each macroblock estimated from the macroblock matching depending on the applied process.

この手法の利点は、エンコーダがデコーダと同じ奥行き情報及び変位情報にアクセス可能である限り、奥行き値及び変位ベクトルがビットストリーム中に必要ないため、帯域幅が小さくなることである。エンコーダは、デコーダがエンコーダと全く同じ奥行き及び変位推定プロセスを使用する限り、これを達成することができる。したがって、本発明の実施の形態1では、現マクロブロックと合成マクロブロックとの差がエンコーダによって符号化される。   The advantage of this approach is that as long as the encoder has access to the same depth and displacement information as the decoder, the depth value and displacement vector are not needed in the bitstream, thus reducing the bandwidth. The encoder can accomplish this as long as the decoder uses exactly the same depth and displacement estimation process as the encoder. Therefore, in Embodiment 1 of the present invention, the difference between the current macroblock and the synthesized macroblock is encoded by the encoder.

このモードのサイド情報はサイド情報エンコーダ720によって符号化される。サイド情報は、ビュー合成モードを示す信号及び参照ビュー(複数可)を含む。サイド情報は、エンコーダによってビュー合成に使用される奥行き及び変位と、デコーダによって推定される値との間の差である奥行き及び変位補正情報も含むことができる。   Side information in this mode is encoded by a side information encoder 720. The side information includes a signal indicating the view synthesis mode and reference view (s). The side information can also include depth and displacement correction information, which is the difference between the depth and displacement used for view synthesis by the encoder and the value estimated by the decoder.

図18は、奥行き情報がデコーダにおいて推定又は推測され、符号化マルチビュービットストリームで伝達されない時の、ビュー合成モードを用いたマクロブロックの復号化プロセスを示す。奥行き2101は空間参照ピクチャ2102から推定される(2110)。次に、推定された奥行き及び空間参照ピクチャを用いてビュー合成2120を行い、合成マクロブロック2121を生成する。再構成マクロブロック2103が、合成マクロブロックと復号化された残差マクロブロック2104との加算2130によって形成される。   FIG. 18 shows the decoding process of a macroblock using the view synthesis mode when depth information is estimated or inferred at the decoder and is not conveyed in the encoded multi-view bitstream. The depth 2101 is estimated from the spatial reference picture 2102 (2110). Next, view synthesis 2120 is performed using the estimated depth and spatial reference pictures, and a synthesis macroblock 2121 is generated. A reconstructed macroblock 2103 is formed by addition 2130 of the synthesized macroblock and the decoded residual macroblock 2104.

空間ランダムアクセス
従来のビデオ中のフレームに対しランダムアクセスを提供するために、Iフレームとしても知られるイントラフレームが通常、ビデオ全体に間隔を置いて配置される。これにより、デコーダは、復号化シーケンス中の任意のフレームにアクセスすることが可能になるが、圧縮効率は低下する。
Spatial Random Access In order to provide random access to frames in conventional video, intra frames, also known as I-frames, are typically spaced throughout the video. This allows the decoder to access any frame in the decoding sequence, but reduces the compression efficiency.

本発明のマルチビューの符号化及び復号化システムのために、本明細書中において「Vフレーム」と呼ぶ新たなタイプのフレームを提供し、ランダムアクセス及び圧縮効率の向上を可能にする。Vフレームは、時間予測を用いずに符号化されるという意味でIフレームと同様である。しかし、Vフレームは、他のカメラからの予測又は合成ビデオからの予測も可能にする。具体的には、Vフレームは、空間参照ピクチャ又は合成参照ピクチャから予測される圧縮ビットストリーム中のフレームである。Iフレームの代わりにVフレームをビットストリームに周期的に挿入することによって、本発明では、Iフレームで可能であるような時間ランダムアクセスを、より高い符号化効率で提供する。したがって、Vフレームは時間参照フレームを使用しない。図19は、最初のビューに対するIフレームの使用、及び同時刻1900における以後のビューに対するVフレームの使用を示す。図5に示す格子構成の場合、Vフレームは、全てのビューに関して同時刻には生じないことに留意されたい。低域フレームのいずれかにVフレームを割り当てることができる。この場合、Vフレームは、近傍ビューの低域フレームから予測されることになる。   For the multi-view encoding and decoding system of the present invention, a new type of frame, referred to herein as a “V-frame”, is provided to allow for improved random access and compression efficiency. V frames are similar to I frames in the sense that they are encoded without using temporal prediction. However, V-frame also allows prediction from other cameras or prediction from composite video. Specifically, the V frame is a frame in a compressed bit stream predicted from a spatial reference picture or a synthesized reference picture. By periodically inserting V frames instead of I frames into the bitstream, the present invention provides temporal random access with higher coding efficiency as is possible with I frames. Therefore, the V frame does not use a temporal reference frame. FIG. 19 shows the use of an I frame for the first view and the use of a V frame for subsequent views at the same time 1900. Note that for the grid configuration shown in FIG. 5, V-frames do not occur at the same time for all views. V frames can be assigned to any of the low frequency frames. In this case, the V frame is predicted from the low frequency frame of the neighboring view.

H.264/AVCビデオコーディング規格では、クローズドGOPを有するMPEG−2のIフレームに似たIDRフレームが、全ての参照ピクチャが復号ピクチャバッファから削除されることを示唆する。これにより、IDRフレームの前のフレームは、IDRフレームよりも後のフレームの予測に用いることができない。   H. In the H.264 / AVC video coding standard, an IDR frame similar to an MPEG-2 I frame with a closed GOP implies that all reference pictures are deleted from the decoded picture buffer. Thereby, the frame before the IDR frame cannot be used for prediction of the frame after the IDR frame.

本明細書中に記載するマルチビューデコーダでは、Vフレームが同様に、全ての時間参照ピクチャを復号ピクチャバッファから削除することができることを示唆する。しかし、空間参照ピクチャは復号ピクチャバッファに残しておくことができる。これにより、所与のビューにおけるVフレームの前のフレームは、同一ビューにおけるVフレームの後のフレームの時間予測を行うために用いることができない。   In the multi-view decoder described herein, V-frames similarly suggest that all temporal reference pictures can be deleted from the decoded picture buffer. However, the spatial reference picture can remain in the decoded picture buffer. Thus, the frame before the V frame in a given view cannot be used for temporal prediction of the frame after the V frame in the same view.

マルチビュービデオのうちの1つの特定のフレームにアクセスするためには、そのビューのVフレームをまず復号化しなければならない。上述のように、これは、時間参照ピクチャを使用することなく、空間参照ピクチャ又は合成参照ピクチャからの予測により達成することができる。   In order to access one particular frame of the multi-view video, the V-frame for that view must first be decoded. As described above, this can be achieved by prediction from spatial reference pictures or synthesized reference pictures without using temporal reference pictures.

選択ビューのVフレームを復号化した後、そのビューの以後のフレームを復号化する。これらの以後のフレームは、近傍ビューからの参照ピクチャに対して予測依存性を有する可能性が高いため、これらの近傍ビューにおける参照ピクチャも復号化する。   After decoding the V-frame of the selected view, the subsequent frames of that view are decoded. Since these subsequent frames are likely to have prediction dependence on reference pictures from neighboring views, the reference pictures in these neighboring views are also decoded.

マルチビューの符号化及び復号化
上記セクションは、マルチビューのコーディング及び奥行き推定における予測を改善するためのビュー合成を説明する。次に、可変ブロックサイズの奥行き及び動き探索、レート−歪み(RD)の決定、サブペル参照奥行き探索、並びに奥行き情報の文脈適応2進法算術コーディング(CABAC)の実装を説明する。コーディングは、エンコーダにおける符号化及びデコーダにおける復号化を含み得る。CABACは、H.624規格パート10(参照により本明細書中に援用される)により規定される。
Multiview Coding and Decoding The above section describes view synthesis to improve prediction in multiview coding and depth estimation. Next, implementation of variable block size depth and motion search, rate-distortion (RD) determination, sub-pel reference depth search, and context-adaptive binary arithmetic coding (CABAC) of depth information is described. Coding may include encoding at the encoder and decoding at the decoder. CABAC is the H.C. 624 standard part 10 (incorporated herein by reference).

ビュー合成予測
カメラ間及び時刻間に存在する相関を取り込むために、2つのブロック予測方法を実行した。
1)視差補償ビュー予測(DCVP)、及び
2)ビュー合成予測(VSP)
View Synthesis Prediction Two block prediction methods were implemented to capture correlations that exist between cameras and between times.
1) Disparity compensated view prediction (DCVP), and 2) View synthesis prediction (VSP)

DCVP
第1の方法であるDCVPは、同一(ビュー)カメラの異なる時刻からのフレームを使用するのではなく、同時刻における異なるカメラ(ビュー)からのフレームを使用して現フレームを予測することに対応する。DCVPは、例えば遮蔽、物体がシーンに入ってくるか又はシーンから出て行くこと、又は速い動きのために時間的相関が空間的相関よりも低い場合に利得を提供する。
DCVP
DCVP, which is the first method, does not use frames from different times of the same (view) camera, but supports prediction of the current frame using frames from different cameras (views) at the same time. To do. DCVP provides gain when the temporal correlation is lower than the spatial correlation due to, for example, occlusion, objects entering or leaving the scene, or fast movement.

VSP
第2の方法であるVSPは、仮想カメラのフレームを合成してフレームシーケンスを予測する。VSPは、カメラビュー間の並進でない動きの存在によりDCVPに対して相補的であり、実際の応用において多くの場合にそうであるように、カメラパラメータが高品質の仮想ビューを提供するのに十分に正確である場合に利得を提供する。
VSP
The second method, VSP, synthesizes virtual camera frames to predict a frame sequence. VSP is complementary to DCVP due to the presence of non-translational motion between camera views, and camera parameters are sufficient to provide a high quality virtual view, as is often the case in practical applications. To provide gain when accurate.

図20に示すように、本発明では、既に符号化されたビューから仮想ビューを合成し、次に、合成ビューを用いて予測コーディングを行うことにより、マルチビュービデオのこれらの特徴を利用する。図20は、横軸に時間を、縦軸にビューを、ビューの合成及びワーピング2001、並びにビューの合成及び内挿2002と共に示す。   As shown in FIG. 20, the present invention takes advantage of these features of multi-view video by synthesizing a virtual view from already coded views and then performing predictive coding using the synthesized view. FIG. 20 shows time on the horizontal axis and view on the vertical axis, with view synthesis and warping 2001, and view synthesis and interpolation 2002.

具体的には、カメラc毎に、まずBuehler他(上記を参照)の非構造的なルミグラフのレンダリング技法に基づいて仮想フレームI’[c,t,x,y]を合成し、次に合成ビューを用いて現シーケンスを予測符号化する。   Specifically, for each camera c, first, a virtual frame I ′ [c, t, x, y] is synthesized based on the unstructured Lumigraph rendering technique of Buehler et al. (See above), and then synthesized. Predictively encode the current sequence using the view.

フレームI’[c,t,x,y]を合成するには、まず、画素(x,y)に対応する物体が時刻tにおいてカメラcからどれだけ離れているかを示す奥行きマップD[c,t,x,y]、並びに何らかのワールド座標系に対するカメラcの位置を記述する内部行列A(c)、回転行列R(c)、及び並進ベクトルT(c)が必要である。   To synthesize the frame I ′ [c, t, x, y], first, a depth map D [c, indicating how far the object corresponding to the pixel (x, y) is from the camera c at time t. t, x, y] and an internal matrix A (c) describing the position of camera c relative to some world coordinate system, a rotation matrix R (c), and a translation vector T (c) are required.

これらの量を用いて、既知のピンホールカメラモデルを適用し、画素位置(x,y)を次式によりワールド座標[u,v,w]に投影することができる。   Using these quantities, a known pinhole camera model can be applied and the pixel position (x, y) can be projected onto world coordinates [u, v, w] by the following equations.

Figure 2008172749
Figure 2008172749

次に、ワールド座標を次式により、予測を行う基準としたいカメラc’のフレームのターゲット座標[x’,y’,z’]に写像する。   Next, the world coordinates are mapped to the target coordinates [x ′, y ′, z ′] of the frame of the camera c ′ to be used as a reference for prediction by the following equation.

Figure 2008172749
Figure 2008172749

最後に、画素位置を得るために、ターゲット座標を同次形[x’/z’,y’/z’,1]に変換し、合成フレーム内の画素位置(x,y)の強度はI’[c,t,x,y]=I[c’,t,x’/z’,y’/z’]となる。   Finally, in order to obtain the pixel position, the target coordinates are converted into a homogeneous form [x ′ / z ′, y ′ / z ′, 1], and the intensity of the pixel position (x, y) in the composite frame is I '[C, t, x, y] = I [c', t, x '/ z', y '/ z'].

可変ブロックサイズの奥行き/動き推定
上記では、構文を変更することなくDCVPの使用を可能にするピクチャバッファの管理方法を説明した。カメラビュー間の視差ベクトルは、動き推定ステップを用いることによって求め、単なる拡張参照タイプとして用いることができた。VSPをもう1つのタイプの参照として用いるために、通常の動き推定プロセスを以下のように拡張する。
Depth / motion estimation of variable block size In the above, a picture buffer management method that enables the use of DCVP without changing the syntax has been described. The disparity vector between camera views was obtained by using a motion estimation step and could be used as a simple extended reference type. In order to use VSP as another type of reference, the normal motion estimation process is extended as follows.

候補マクロブロックタイプmb_typeと、おそらくは合成マルチビュー参照フレームすなわちVSPを含むN個の可能な参照フレームとが与えられた状態で、サブマクロブロック毎に参照フレームを、ラグランジュ乗数λmotion又はλdepthをそれぞれ用いて以下のラグランジュコストJを最小化する動きベクトルmバー又は奥行き/補正ベクトル対(d,mバー)と共に求める。 Given a candidate macroblock type mb_type and possibly a composite multiview reference frame, ie N possible reference frames including a VSP, use a reference frame for each sub-macroblock, using a Lagrange multiplier λmotion or λdepth, respectively. The following Lagrangian cost J is determined with a motion vector m bar or depth / correction vector pair (d, mc bar) that minimizes.

Figure 2008172749
Figure 2008172749

ただし、   However,

Figure 2008172749
Figure 2008172749

であり、   And

Figure 2008172749
Figure 2008172749

である。ここで、検討中のサブマクロブロック(sub−MB)内の全ての画素の和をとり、Xp_synth又はXp_motionは参照サブマクロブロック中の画素の強度を指す。   It is. Here, the sum of all the pixels in the sub-macroblock (sub-MB) under consideration is taken, and Xp_synth or Xp_motion indicates the intensity of the pixel in the reference sub-macroblock.

ここで、「動き」は時間的な動きだけでなく、ビュー間の視差から生じるビュー間の動きも指すことに留意されたい。   It should be noted here that “motion” refers not only to temporal motion, but also to motion between views resulting from parallax between views.

奥行き探索
本発明では、ブロックベースの奥行き探索プロセスを用いて、可変サイズのサブマクロブロック毎に最適な奥行きを求める。具体的には、最小奥行き値Dmin、最大奥行き値Dmax、及び増分奥行き値Dstepを定義する。次に、予測したいフレーム内の可変サイズのサブマクロブロック毎に、次式の合成ブロックの誤差を最小化する奥行きを選択する。
Depth Search In the present invention, an optimum depth is obtained for each variable-sized sub-macroblock using a block-based depth search process. Specifically, a minimum depth value D min , a maximum depth value D max , and an incremental depth value D step are defined. Next, for each variable macro sub-macroblock in the frame to be predicted, the depth that minimizes the error of the synthesized block of the following equation is selected.

Figure 2008172749
Figure 2008172749

ここで、‖I[c,t,x,y]−I[c’,t,x’,y’]‖は、時刻tにおけるカメラcの(x,y)を中心とするサブマクロブロックと、予測を行う基準となる対応するブロックとの間の平均誤差を示す。   Here, ‖I [c, t, x, y] −I [c ′, t, x ′, y ′] ‖ is a sub-macroblock centered on (x, y) of camera c at time t. The average error with the corresponding block which becomes a reference for performing the prediction is shown.

基本的なVSPプロセスの性能を高めるためのさらなる精緻化として、カメラパラメータのわずかな不正確さ(ピンホールカメラモデルでは取り込まれない非理想的なもの)のために、合成補正ベクトルを加算するとVSPの性能が大幅に改善されることが分かる。   As a further refinement to enhance the performance of the basic VSP process, the addition of the composite correction vector due to slight inaccuracies in camera parameters (a non-ideal one that is not captured by the pinhole camera model) It can be seen that the performance of is greatly improved.

具体的には、図21に示すように、マクロブロック2100毎に、ターゲットフレーム2101を参照フレーム2102に写像し、次に合成フレーム2103に写像する。しかし、式(1)を用いて内挿を行う基準となる座標を計算する代わりに、本発明では、合成補正ベクトル(C,C)2110を元の画素座標の各集合に加算することによって[u,v,w]を計算し、次式を得る。 Specifically, as shown in FIG. 21, for each macroblock 2100, the target frame 2101 is mapped to the reference frame 2102, and then mapped to the synthesized frame 2103. However, instead of calculating the reference coordinates for performing interpolation using equation (1), the present invention adds the composite correction vector (C x , C y ) 2110 to each set of original pixel coordinates. [U, v, w] is calculated by the following equation.

Figure 2008172749
Figure 2008172749

+/−2という小さな補正ベクトル探索範囲により、多くの場合に、結果として得られる合成参照フレームの品質が大きく改善されることを発見した。   It has been discovered that a small correction vector search range of +/− 2 often greatly improves the quality of the resulting composite reference frame.

サブピクセル参照マッチング
異なるカメラの2つの対応する画素の視差は概して、整数の正確な倍数では与えられないため、式(2)により与えられる予測を行う基準としたいカメラc’のフレームのターゲット座標[x’,y’,z’]は、常に整数グリッドの点に該当するとは限らない。したがって、本発明では内挿を用いて、参照フレーム内のサブペル位置の画素値を生成する。これにより、整数ペルではなく最も近いサブペル参照点を選択できるようになり、画素間の真の視差により正確に近似する。
Sub-pixel reference matching Since the disparity between two corresponding pixels of different cameras is generally not given by an exact multiple of an integer, the target coordinates of the frame of the camera c ′ to be used as the basis for the prediction given by equation (2) [ x ′, y ′, z ′] does not always correspond to a point of an integer grid. Therefore, in the present invention, pixel values at sub-pel positions in the reference frame are generated using interpolation. As a result, the closest sub-pel reference point can be selected instead of the integer pel, and the approximate parallax between the pixels is accurately approximated.

図22はこのプロセスを示し、「oxx・・・ox」は画素を示す。H.264規格においてサブペル動き推定に採用される同じ内挿フィルタを本発明の実装において用いる。   FIG. 22 illustrates this process, where “oxx... Ox” indicates a pixel. H. The same interpolation filter employed for sub-pel motion estimation in the H.264 standard is used in the implementation of the present invention.

サブピクセル精度の補正ベクトル
本発明では、サブペル精度の補正ベクトルの使用を可能にすることにより合成品質をさらに高めることができる。これは特に、上述のサブペル参照マッチングと組み合わせる場合に当てはまる。なお、サブペル動きベクトル探索とこのサブペル補正ベクトル探索との間にはわずかな違いがある。
Sub-pixel accuracy correction vector In the present invention, the synthesis quality can be further improved by enabling the use of a sub-pel accuracy correction vector. This is especially true when combined with the subpel reference matching described above. There is a slight difference between the sub-pel motion vector search and the sub-pel correction vector search.

動きベクトルの場合、通常は、参照ピクチャ内のサブペル位置を探索し、RDコストを最小化するサブペル位置を指すサブペル動きベクトルを選択する。しかし、補正ベクトルの場合、最適な奥行き値を求めた後、現ピクチャ内のサブペル位置を探索して、RDコストを最小化する補正ベクトルを選択する。   In the case of a motion vector, usually, a subpel position in the reference picture is searched, and a subpel motion vector indicating the subpel position that minimizes the RD cost is selected. However, in the case of a correction vector, after obtaining an optimal depth value, a sub-pel position in the current picture is searched to select a correction vector that minimizes the RD cost.

現ピクチャにおけるサブペル補正ベクトル分のシフトが、参照ピクチャにおいて同じシフト量になるとは限らない。言い換えれば、参照ピクチャ内の対応する一致は常に、式(1)及び式(2)の幾何変換後に最も近いサブペル位置に丸めることによって見付かる。   The shift for the sub-pel correction vector in the current picture is not always the same shift amount in the reference picture. In other words, the corresponding match in the reference picture is always found by rounding to the nearest sub-pel position after the geometric transformation of equations (1) and (2).

サブペル精度の補正ベクトルのコーディングは比較的複雑であるが、このコーディングにより合成品質が大幅に改善され、多くの場合にRD性能が改善されることを観測している。   Although the coding of correction vectors with sub-pel accuracy is relatively complex, we have observed that this coding significantly improves the synthesis quality and in many cases improves the RD performance.

YUV−奥行き探索
奥行き推定では、規則化により、より滑らかな奥行きマップを達成することができる。規則化は、合成予測の視覚的品質を改善するが、差分絶対値和(SAD)により測定した場合にその予測品質をわずかに低下させる。
YUV-depth search In depth estimation, a smoother depth map can be achieved by regularization. Regularization improves the visual quality of the composite prediction, but slightly reduces its prediction quality when measured by the sum of absolute differences (SAD).

従来の奥行き探索プロセスは、入力画像のYのルミナンス成分のみを用いて、奥行きマップの奥行きを推定する。これにより、Y成分の予測誤差が最小化されるが、合成予測では例えばカラーミスマッチの形態の視覚アーチファクトを生じることが多い。これは、最終的な再構成物の客観的品質(すなわちU、VのPSNR)及びカラーミスマッチの形態の主観的品質が低下する可能性が高いことを意味する。   The conventional depth search process estimates the depth of the depth map using only the Y luminance component of the input image. This minimizes the Y component prediction error, but composite prediction often produces visual artifacts in the form of color mismatch, for example. This means that the objective quality of the final reconstruction (ie U, V PSNR) and the subjective quality in the form of color mismatch are likely to be degraded.

この問題に対処するために、本発明では、奥行き探索プロセスを拡張して、Yのルミナンス成分並びにU及びVのクロミナンス成分を用いる。Y成分のみを用いた場合、予測誤差を最小化することによりブロックが参照フレームにおいて良好な一致を見付ける可能性があるが、これらの2つの一致領域は2つの完全に異なる色である可能性があるため、視覚アーチファクトが生じる可能性がある。したがって、U及びVの予測及び再構成の品質は、奥行き探索プロセスにU成分及びV成分を組み込むことによって高めることができる。   To address this problem, the present invention extends the depth search process to use Y luminance components and U and V chrominance components. If only the Y component is used, the block may find a good match in the reference frame by minimizing the prediction error, but these two match regions may be two completely different colors. As such, visual artifacts can occur. Thus, the quality of U and V prediction and reconstruction can be enhanced by incorporating the U and V components in the depth search process.

RDモード決定
モード決定は、次のように定義されるラグランジュコスト関数Jmodeを最小化するmb_typeを選択することによって行うことができる。
RD Mode Determination Mode determination can be performed by selecting mb_type that minimizes the Lagrangian cost function Jmode defined as follows.

Figure 2008172749
Figure 2008172749

ここで、Xpは、参照MB、すなわち、合成マルチビュー参照、純粋なマルチビュー参照又は時間参照のMB内の画素の値を指し、Rside−infoは、参照フレームのタイプにより、参照インデックス及び奥行き値/補正値を符号化するビットレート、又は動きベクトルを含む。   Here, Xp refers to the value of a pixel in a reference MB, that is, a composite multiview reference, a pure multiview reference, or a temporal reference MB, and Rside-info is a reference index and a depth value depending on the type of the reference frame. / Contains the bit rate or motion vector for encoding the correction value.

サイド情報のCABACによる符号化
本発明では、各合成MBがRDモード決定により最良の参照として選択される場合に、そのMBの奥行き値及び補正ベクトルを符号化しなければならないことに留意されたい。奥行き値及び補正ベクトルの両方が、連結単項/三次指数ゴロム(concatenated unary/3rd−order Exp−Golomb)(UEG3)2値化を用いて、signedValFlag=1とし、カットオフパラメータuCoff=9として、動きベクトルと全く同様に量子化される。
Note that CABAC coding of side information In the present invention, when each composite MB is selected as the best reference by RD mode decision, the depth value and correction vector of that MB must be coded. Both depth values and the correction vector, ligated unary / tertiary Exponential Golomb (concatenated unary / 3 rd -order Exp -Golomb) (UEG3) using binarization, and signedValFlag = 1, as a cut-off parameter uCoff = 9, It is quantized just like a motion vector.

次に、結果として得られる2進表現のビンに異なる文脈モデルを割り当てる。奥行き及び補正ベクトル成分に対するctxIdxIncの割り当ては基本的に、ITU−T勧告H.264及びISO/IEC 14496−10(MPEG−4)AVC「一般視聴覚サービスのための高度なビデオコーディング(Advanced Video Coding for Generic Audiovisual Services)」(第3版、2005年)(参照により本明細書中に援用される)の表9−30に規定されるような動きベクトルの場合と同じである。ただし本発明では、節(subclause)9.3.3.1.1.7を1番目のビンに適用しない。   Next, different context models are assigned to the bins of the resulting binary representation. The assignment of ctxIdxInc to depth and correction vector components is basically ITU-T recommendation H.264. H.264 and ISO / IEC 14496-10 (MPEG-4) AVC “Advanced Video Coding for Generic Audiovisual Services” (3rd edition, 2005) (herein by reference) The same as for motion vectors as defined in Table 9-30. However, the present invention does not apply subclause 9.3.3.1.1.7 to the first bin.

本発明の実施の形態1では、動きベクトルと同じ予測方式を用いて奥行き値及び補正ベクトルを予測符号化する。MB又は8×8という小さいサイズのサブMBが、時間フレーム、マルチビューフレーム、又は合成マルチビューフレームからの独自の参照ピクチャを持つことができるため、サイド情報のタイプはMB毎に異なり得る。これは、同一の参照ピクチャを有する近傍MBの数が少なくなる可能性があることを示唆し、サイド情報(動きベクトル又は奥行き/補正ベクトル)の予測効率が低くなる可能性がある。   In Embodiment 1 of the present invention, the depth value and the correction vector are predictively encoded using the same prediction method as the motion vector. Since sub-MBs as small as MB or 8x8 can have their own reference pictures from time frames, multi-view frames, or composite multi-view frames, the type of side information can vary from MB to MB. This suggests that the number of neighboring MBs having the same reference picture may be reduced, and prediction efficiency of side information (motion vector or depth / correction vector) may be lowered.

合成参照を用いるためにサブMBが選択されるが、同じ参照を有するMBが周囲にない場合、予測を用いずにその奥行き/補正ベクトルを個別にコーディングする。実際に、固定長表現を用いて補正ベクトル成分を2値化した後に、結果として得られたビンをCABAC符号化すれば十分である場合が多いことが分かった。これは、合成参照を用いるために選択されるMBは孤立している傾向がある、すなわち、それらのMBには同一参照ピクチャを有する近傍MBがなく、補正ベクトルは通常、動きベクトルの場合に比べて近傍との相関が低いためである。   If a sub-MB is selected to use a composite reference, but there are no surrounding MBs with the same reference, its depth / correction vector is coded separately without using prediction. In practice, it has been found that it is often sufficient to CABAC-encode the resulting bin after binarizing the correction vector component using a fixed length representation. This is because the MBs selected to use synthetic references tend to be isolated, i.e. they do not have neighboring MBs with the same reference picture, and the correction vector is usually compared to the case of motion vectors. This is because the correlation with the neighborhood is low.

構文及び意味
上述のように、本発明では、時間参照及び純粋なマルチビュー参照に加えて合成参照ピクチャを組み込む。上記では、上記で参照したH.264/AVC規格における既存の参照ピクチャリスト管理と互換性のあるマルチビュー参照ピクチャリスト管理方法を説明した。
Syntax and Semantics As noted above, the present invention incorporates synthetic reference pictures in addition to temporal references and pure multiview references. In the above, the H. The multi-view reference picture list management method compatible with the existing reference picture list management in the H.264 / AVC standard has been described.

本発明の実施の形態1における合成参照は、マルチビュー参照の特別な場合として見なされるため、全く同様に処理される。   Since the composite reference in Embodiment 1 of the present invention is regarded as a special case of multi-view reference, it is processed in exactly the same way.

本明細書では、マルチビューの識別及び予測構造を記述するために、view_parameter_setと呼ばれる新たな高レベルの構文要素を定義する。パラメータをわずかに修正することにより、現参照ピクチャが合成タイプのものであるか否かを識別することができる。したがって、所与の(サブ)MBの奥行き/補正ベクトル又は動きベクトルを参照のタイプに応じて復号化することができる。したがって、マクロブロックレベルの構文を付録Aに規定するように拡張することによって、この新たなタイプの予測の使用を統合することができる。   This document defines a new high-level syntax element called view_parameter_set to describe the multi-view identification and prediction structure. By slightly modifying the parameters, it is possible to identify whether the current reference picture is of a composite type. Thus, the depth / correction vector or motion vector of a given (sub) MB can be decoded depending on the type of reference. Therefore, the use of this new type of prediction can be integrated by extending the macroblock level syntax as specified in Appendix A.

スキップモード
従来のスキップモードでは、動きベクトル情報及び参照インデックスは、同じ場所にあるマクロブロック又は近傍マクロブロックから導出される。ビュー合成に基づくビュー間予測を考えると、その同じ場所にあるマクロブロック又は近傍マクロブロックから奥行きベクトルの情報及び補正ベクトルの情報を導出する類似のモードも同様に考えられる。この新たな符号化モードを合成スキップモードと呼ぶ。
Skip Mode In the conventional skip mode, the motion vector information and the reference index are derived from macroblocks in the same place or neighboring macroblocks. Considering inter-view prediction based on view synthesis, a similar mode for deriving depth vector information and correction vector information from a macroblock or a neighboring macroblock at the same location is also conceivable. This new encoding mode is called a synthesis skip mode.

Pスライス及びBスライスの両方に適用される、図23に示すような従来のスキップモードでは、残差データは現マクロブロック(X)2311のために符号化されない。Pスライスにおけるスキップのために、参照リスト2301内の第1のエントリ2304が情報を予測及び導出するための参照として選択され、一方でBスライスにおけるスキップのために、近傍マクロブロック(A、B、C)2312〜2314の中から参照リスト2301内の最初のエントリ2305が情報を予測及び導出するための参照として選択される。   In the conventional skip mode as shown in FIG. 23 applied to both the P slice and the B slice, the residual data is not encoded for the current macroblock (X) 2311. For skipping in the P slice, the first entry 2304 in the reference list 2301 is selected as a reference for predicting and deriving information, while for skipping in the B slice, neighboring macroblocks (A, B, C) From 2312 to 2314, the first entry 2305 in the reference list 2301 is selected as a reference for predicting and deriving information.

例えば図11に示すように、ビュー合成参照ピクチャが参照ピクチャリスト内の第1のエントリとして順序付けられていないと仮定すると、Pスライス及びBスライスの両方におけるスキップモードのための参照ピクチャは決して既存の構文、及び以下の従来の復号化プロセスによるビュー合成ピクチャではない。しかし、ビュー合成ピクチャは視差補償ピクチャ又は動き補償ピクチャと比較してより良好な品質を提供することができるため、ビュー合成参照ピクチャに基づくスキップモードを可能にする、既存の構文及び復号化プロセスに対する変更を説明する。   For example, as shown in FIG. 11, assuming that the view synthesis reference picture is not ordered as the first entry in the reference picture list, the reference picture for skip mode in both the P slice and the B slice is never existing. It is not a view synthesis picture with the syntax and the following conventional decoding process. However, view synthesizing pictures can provide better quality compared to disparity compensated or motion compensated pictures, so for existing syntax and decoding processes that allow skip modes based on view synthesized reference pictures Explain the change.

ビュー合成参照に関してスキップモードを利用するために、既存のmb_skip_flagに対する修正によってシグナリングされる(signaled)合成スキップモードを提供する。現時点で、既存のmb_skip_flagが1に等しい場合、マクロブロックはスキップされ、既存のmb_skip_flagが0に等しい場合、マクロブロックはスキップされない。   In order to utilize the skip mode for view synthesis references, a synthesis skip mode signaled by a modification to the existing mb_skip_flag is provided. Currently, if the existing mb_skip_flag is equal to 1, the macroblock is skipped, and if the existing mb_skip_flag is equal to 0, the macroblock is not skipped.

第1の実施の形態1では、mb_skip_flagが1に等しい場合に付加的なビットが追加され、従来のスキップモードと新たな合成スキップモードとが区別される。付加的なビットが1に等しい場合、これは合成スキップモードをシグナリングし、そうではなく付加的なビットが0に等しい場合、従来のスキップモードが用いられる。   In the first embodiment, an additional bit is added when mb_skip_flag is equal to 1, and the conventional skip mode and the new synthesis skip mode are distinguished. If the additional bits are equal to 1, this signals the composite skip mode, otherwise the conventional skip mode is used if the additional bits are equal to 0.

上記のシグナリング方式は、スキップされるマクロブロックの数が少ない傾向にある、比較的高いビットレートで良好に動作する。しかし、低いビットレートでは、従来のスキップモードがより頻繁に起動されると予測される。したがって、合成スキップモードを含むシグナリング方式は、従来のスキップをシグナリングする付加的なオーバヘッドを負うべきではない。第2の実施の形態1では、mb_skip_flagが0に等しい場合に付加的なビットが追加され、従来の非スキップモードと新たな合成スキップモードとが区別される。付加的なビットが1に等しい場合、これは合成スキップモードをシグナリングし、そうではなく付加的なビットが0に等しい場合、従来の非スキップモードが用いられる。   The above signaling scheme works well at relatively high bit rates, where the number of skipped macroblocks tends to be small. However, at low bit rates, the conventional skip mode is expected to be activated more frequently. Therefore, a signaling scheme that includes a combined skip mode should not incur the additional overhead of signaling a conventional skip. In the second embodiment, when mb_skip_flag is equal to 0, an additional bit is added, and the conventional non-skip mode and the new synthesis skip mode are distinguished. If the additional bits are equal to 1, this signals the combined skip mode, otherwise the conventional non-skip mode is used if the additional bits are equal to 0.

スライス又はピクチャのために高い割合の合成スキップモードが選択される場合、マクロブロック毎に合成スキップモードをシグナリングするオーバヘッドを低減することによって、全体の符号化効率を高めることができる。第3の実施の形態1では、合成スキップモードはスライス内のすべてのマクロブロックにまとめてシグナリングされる。これは、ビットストリームのスライス層構文に含まれるslice_skip_flagによって達成される。このslice_skip_flagのシグナリングは、第1の実施の形態1及び第2の実施の形態1において説明したmb_skip_flagと一致する。   If a high percentage of the synthesis skip mode is selected for a slice or picture, the overall coding efficiency can be increased by reducing the overhead of signaling the synthesis skip mode for each macroblock. In the third embodiment, the synthesis skip mode is signaled collectively to all macroblocks in the slice. This is achieved by the slice_skip_flag included in the slice layer syntax of the bitstream. The signaling of the slice_skip_flag matches the mb_skip_flag described in the first embodiment 1 and the second embodiment 1.

図24に示されるように、合成スキップモードがPスライスにシグナリングされる場合、参照ピクチャリスト2401内の第1のビュー合成参照ピクチャ2402が、従来のスキップの場合の参照ピクチャリスト2301内の第1のエントリ2304の代わりに参照として選択される。合成スキップモードがBスライスにシグナリングされる場合、参照ピクチャリスト2401内の最初のビュー合成参照ピクチャ2403が、従来のスキップの場合の参照ピクチャリスト2301内の最初のエントリ2305の代わりに参照として選択される。   As shown in FIG. 24, when the synthesis skip mode is signaled to the P slice, the first view synthesis reference picture 2402 in the reference picture list 2401 is the first in the reference picture list 2301 in the case of conventional skip. Instead of the entry 2304 is selected as a reference. When the synthesis skip mode is signaled to the B slice, the first view synthesis reference picture 2403 in the reference picture list 2401 is selected as a reference instead of the first entry 2305 in the reference picture list 2301 in the case of conventional skip. The

合成スキップモードのための奥行きベクトル及び補正ベクトルの情報が以下のように導出される。奥行きベクトルdpthLXNは3つの成分(Depth、CorrX、CorrY)を含み、Depthは境界に関連する奥行きを表すスカラー値であり、CorrX及びCorrYはそれぞれ、境界に関連する補正ベクトルの水平成分及び垂直成分である。奥行きベクトルが導出される現境界の参照インデックスrefIdxLXが、上記で説明したように、現スライスがPスライス又はBスライスのいずれであるかに応じて、第1のビュー合成参照ピクチャ又は最初のビュー合成参照ピクチャとして割り当てられる。   Information on the depth vector and the correction vector for the synthesis skip mode is derived as follows. The depth vector dpthLXN includes three components (Depth, CorrX, CorrY), Depth is a scalar value representing the depth associated with the boundary, and CorrX and CorrY are the horizontal component and the vertical component of the correction vector associated with the boundary, respectively. is there. The reference index refIdxLX of the current boundary from which the depth vector is derived depends on whether the current slice is a P slice or a B slice, as described above, the first view synthesis reference picture or the first view synthesis Assigned as a reference picture.

このプロセスに対する入力は、近傍境界A2312、B2313及びC2314、dpthLXN(NはA、B又はCに置き換えられる)と記される、近傍境界のそれぞれの奥行きベクトル、近傍境界の参照インデックスrefIdxLXN(NはA、B又はCに置き換えられる)、並びに現境界の参照インデックスrefIdxLXである。   The inputs to this process are the neighborhood boundaries A2312, B2313 and C2314, dpthLXN (where N is replaced by A, B or C), the respective depth vectors of the neighborhood boundaries, the reference index refIdxLXN of the neighborhood boundary (N is A , B or C), and the reference index refIdxLX of the current boundary.

このプロセスの出力は奥行きベクトル予測dpthpLXである。変数dpthpLXは以下のように導出される。近傍境界B2313も近傍境界C2314も利用可能でなく、且つ近傍境界A2312が利用可能である場合、以下の割り当てが適用される:dpthLXB=dpthLXA且つdpthLXC=dpthLXA、refIdxLXB=refIdxLXA且つrefIdxLXC=refIdxLXA。   The output of this process is depth vector prediction dpthpLX. The variable dpthpLX is derived as follows. If neither the neighborhood boundary B2313 nor the neighborhood boundary C2314 is available and the neighborhood boundary A2312 is available, the following assignments apply: dpthLXB = dpthLXA and dpthLXC = dpthLXA, refIdxLXB = refIdxLXA and refIdxLXC = refIdx.

refIdxLXNが、参照インデックスrefIdxLXを有する合成マルチビュー参照ピクチャが合成されるマルチビュー参照ピクチャの参照インデックスである場合、refIdxLXNはrefIdxLXに等しいと考えられ、その関連する奥行きベクトルdpthLXNは、視差を参照インデックスrefIdxLXNを有する参照ピクチャから参照インデックスrefIdxLXを有する参照ピクチャに関連する等価の奥行きベクトルに変換することによって導出される。   If refIdxLXN is the reference index of the multi-view reference picture in which the synthesized multi-view reference picture with reference index refIdxLX is synthesized, refIdxLXN is considered to be equal to refIdxLX and its associated depth vector dpthLXN has the disparity as reference index refIdxLXN Derived from a reference picture having a reference index refIdxLX by converting to an equivalent depth vector associated with the reference picture.

参照インデックスrefIdxLXA、refIdxLXB又はrefIdxLXCに応じて、以下が適用される。参照インデックスrefIdxLXA、refIdxLXB又はrefIdxLXCのうちのただ1つが現境界の参照インデックスrefIdxLXに等しい場合、以下が適用される。refIdxLXNをrefIdxLXに等しい参照インデックスとし、奥行きベクトルdpthLXNは奥行きベクトル予測dpthpLXに割り当てられる。そうでない場合、奥行きベクトル予測dpthpLXの各成分は、奥行きベクトルdpthLXA、dpthLXB及びdpthLXCの対応するベクトル成分の平均によって与えられる。   Depending on the reference index refIdxLXA, refIdxLXB or refIdxLXC, the following applies: If only one of the reference indices refIdxLXA, refIdxLXB or refIdxLXC is equal to the reference index refIdxLX of the current boundary, the following applies: Let refIdxLXN be a reference index equal to refIdxLX, and the depth vector dpthLXN is assigned to the depth vector prediction dpthpLX. Otherwise, each component of the depth vector prediction dpthpLX is given by the average of the corresponding vector components of the depth vectors dpthLXA, dpthLXB and dpthLXC.

ダイレクトモード
スキップモードと同様に、Bスライスのための従来のダイレクトモードもまた、近傍マクロブロックから動きベクトル情報及び参照インデックスを導出する。ダイレクトモードは残差データも存在する点でスキップモードと異なる。合成スキップモードを提供するのと同じ理由から、本発明では合成ダイレクトモードと呼ぶ、ダイレクトモードの類似の拡張も説明する。
Direct Mode Similar to the skip mode, the conventional direct mode for B slices also derives motion vector information and reference indices from neighboring macroblocks. The direct mode differs from the skip mode in that residual data is also present. For the same reason as providing the combined skip mode, the present invention also describes a similar extension of the direct mode, referred to as the combined direct mode.

従来のダイレクトモードを起動するために、マクロブロックは非スキップとして符号化される。次に、ダイレクトモードを16×16マクロブロック及び8×8マクロブロックの両方に適用することができる。これらのダイレクトモードの両方は、マクロブロックモードとしてシグナリングされる。   In order to activate the conventional direct mode, the macroblock is encoded as non-skip. The direct mode can then be applied to both 16 × 16 macroblocks and 8 × 8 macroblocks. Both of these direct modes are signaled as macroblock modes.

第1の実施の形態1では、合成ダイレクトモードをシグナリングする方法は、候補マクロブロックモードのリストに付加的なモードを追加することによって行われる。   In the first embodiment, the method of signaling the combined direct mode is performed by adding an additional mode to the list of candidate macroblock modes.

第2の実施の形態1では、合成ダイレクトモードをシグナリングする方法は、16×16マクロブロック又は8×8マクロブロックが合成ダイレクトモードとして符号化されることを示す付加的なフラグをシグナリングすることによって行われる。   In the second embodiment, the method of signaling the composite direct mode is performed by signaling an additional flag indicating that a 16 × 16 macroblock or an 8 × 8 macroblock is encoded as the composite direct mode. Done.

合成ダイレクトモードがBスライスにシグナリングされる場合、参照ピクチャリスト内の最初のビュー合成参照ピクチャが従来のダイレクトモードの場合の参照ピクチャリスト内の最初のエントリの代わりに参照として選択される。   When the synthetic direct mode is signaled to the B slice, the first view synthetic reference picture in the reference picture list is selected as a reference instead of the first entry in the reference picture list in the conventional direct mode.

合成スキップモードと同じ、奥行きベクトルの情報及び補正ベクトルの情報を導出するプロセスが合成ダイレクトモードについて行われる。   The same process for deriving depth vector information and correction vector information as in the synthesis skip mode is performed for the synthesis direct mode.

本発明を好ましい実施の形態1の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行うことができることが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るそのような変形及び変更をすべて網羅することである。   Although the invention has been described by way of example in the preferred embodiment 1, it is understood that various other adaptations and modifications can be made within the spirit and scope of the invention. Accordingly, the purpose of the appended claims is to cover all such variations and modifications as fall within the true spirit and scope of the present invention.

付録A Appendix A

Figure 2008172749
Figure 2008172749

Figure 2008172749
Figure 2008172749

節7.4.5.1 マクロブロック予測の意味の補足:
depthd_l0[mbPartIdx][0]は、使用される奥行き値とその予測との間の差を指定する。インデックスmbPartIdxは、どのマクロブロック境界にdepthd_l0を割り当てるのかを指定する。マクロブロックの分割はmb_typeにより指定される。
Section 7.4.5.1 Supplementary meaning of macroblock prediction:
depthd_l0 [mbPartIdx] [0] specifies the difference between the depth value used and its prediction. The index mbPartIdx specifies to which macroblock boundary depthd_10 is assigned. The division of the macroblock is specified by mb_type.

depthd_l1[mbPartIdx][0]は、depthd_l0と同じ意味を有し、l0がl1に置き換わっている。   depthd_l1 [mbPartIdx] [0] has the same meaning as depthd_l0, and l0 is replaced with l1.

corr_vd_l0[mbPartIdx][0][compIdx]は、使用される補正ベクトル成分とその予測との間の差を指定する。インデックスmbPartIdxは、どのマクロブロック境界にcorr_vd_l0を割り当てるのかを指定する。マクロブロックの分割はmb_typeにより指定される。水平方向の補正ベクトル成分の差が復号化順で最初に復号化され、CompIdx=0が割り当てられる。垂直方向の補正ベクトル成分が復号化順で次に復号化され、CompIdx=1が割り当てられる。   corr_vd_10 [mbPartIdx] [0] [compIdx] specifies the difference between the correction vector component used and its prediction. The index mbPartIdx specifies to which macroblock boundary corr_vd_10 is assigned. The division of the macroblock is specified by mb_type. The difference between the correction vector components in the horizontal direction is first decoded in decoding order and is assigned CompIdx = 0. The vertical correction vector components are then decoded in decoding order and assigned with CompIdx = 1.

corr_vd_l1[mbPartIdx][0][compIdx]は、corr_vd_l0と同じ意味を有し、l0がl1に置き換わっている。   corr_vd_l1 [mbPartIdx] [0] [compIdx] has the same meaning as corr_vd_l0, and l0 is replaced with l1.

節7.4.5.2 サブマクロブロック予測の意味の補足:
depthd_l0[mbPartIdx][subMbPartIdx]はdepthd_l0と同じ意味を有するが、ただし、subMbPartIdxを有するサブマクロブロック境界インデックスに適用される。インデックスmbPartIdx及びsubMbPartIdxは、どのマクロブロック境界及びサブマクロブロック境界にdepthd_l0を割り当てるのかを指定する。
Section 7.4.5.2 Supplementary meaning of sub-macroblock prediction:
depthd_l0 [mbPartIdx] [subMbPartIdx] has the same meaning as depthd_l0, but applies to sub-macroblock boundary indexes with subMbPartIdx. The indexes mbPartIdx and subMbPartIdx specify which macroblock boundary and sub-macroblock boundary are assigned depthd_l0.

depthd_l1[mbPartIdx][subMbPartIdx]はdepthd_l0と同じ意味を有し、l0がl1に置き換わっている。   depthd_l1 [mbPartIdx] [subMbPartIdx] has the same meaning as depthd_l0, and l0 is replaced with l1.

corr_vd_l0[mbPartIdx][subMbPartIdx][compIdx]は、corr_vd_l0と同じ意味を有するが、ただし、subMbPartIdxを有するサブマクロブロック境界インデックスに適用される。インデックスmbPartIdx及びsubMbPartIdxは、どのマクロブロック境界及びサブマクロブロック境界にcoor_vd_l0を割り当てるのかを指定する。   corr_vd_l0 [mbPartIdx] [subMbPartIdx] [compIdx] has the same meaning as corr_vd_l0, but applies to the sub-macroblock boundary index with subMbPartIdx. The indexes mbPartIdx and subMbPartIdx specify to which macroblock boundary and sub macroblock boundary the coor_vd_l0 is assigned.

corr_vd_l1[mbPartIdx][subMbPartIdx][compIdx]はcoor_vd_l0と同じ意味を有し、l0がl1に置き換わっている。   corr_vd_l1 [mbPartIdx] [subMbPartIdx] [compIdx] has the same meaning as coor_vd_l0, and l0 is replaced with l1.

Figure 2008172749
Figure 2008172749

ビューパラメータ集合の意味の補足:
multiview_typeが1である場合、現ビューが他のビューから合成されることを指定する。multiview_typeが0である場合、現ビューが合成されたものではないことを示す。
Supplement to the meaning of view parameter sets:
If multiview_type is 1, it specifies that the current view is synthesized from other views. If multiview_type is 0, it indicates that the current view has not been synthesized.

multiview_synth_ref0は、合成に用いられる第1のビューのインデックスを指定する。   multiview_synth_ref0 specifies the index of the first view used for composition.

multiview_synth_ref1は、合成に用いられる第2のビューのインデックスを指定する。   multiview_synth_ref1 specifies the index of the second view used for composition.

マルチビュービデオを符号化するための従来技術のシステムのブロック図である。1 is a block diagram of a prior art system for encoding multi-view video. FIG. マルチビュービデオを符号化するための従来技術の視差補償予測システムのブロック図である。1 is a block diagram of a prior art disparity compensation prediction system for encoding multiview video. FIG. 従来技術のウェーブレット分解プロセスのフロー図である。FIG. 2 is a flow diagram of a prior art wavelet decomposition process. 本発明の実施の形態1による、MCTF/DCVF分解のブロック図である。It is a block diagram of MCTF / DCVF decomposition | disassembly by Embodiment 1 of this invention. 本発明の実施の形態1による、MCTF/DCVF分解後の低域フレーム及び高域フレームの、時間及び空間の関数としてのブロック図である。It is a block diagram as a function of time and space of the low-pass frame and the high-pass frame after MCTF / DCVF decomposition according to Embodiment 1 of the present invention. 本発明の実施の形態1による、隣接する低域フレームからの高域フレームの予測のブロック図である。It is a block diagram of the prediction of the high frequency frame from the adjacent low frequency frame according to Embodiment 1 of the present invention. 本発明の実施の形態1による、マクロブロック適応的MCTF/DCVF分解を用いるマルチビューのコーディングシステムのブロック図である。1 is a block diagram of a multi-view coding system using macroblock adaptive MCTF / DCVF decomposition according to Embodiment 1 of the present invention. FIG. 本発明の実施の形態1による、ビデオ合成の概略図である。It is the schematic of video composition by Embodiment 1 of the present invention. 従来技術の参照ピクチャ管理のブロック図である。It is a block diagram of the reference picture management of a prior art. 本発明の実施の形態1による、マルチビュー参照ピクチャ管理のブロック図である。It is a block diagram of multiview reference picture management according to Embodiment 1 of the present invention. 本発明の実施の形態1による、復号ピクチャバッファ内のマルチビュー参照ピクチャのブロック図である。FIG. 3 is a block diagram of a multi-view reference picture in a decoded picture buffer according to Embodiment 1 of the present invention. 異なるマルチビュー参照ピクチャの順序付けのコーディング効率を比較するグラフである。6 is a graph comparing coding efficiency of ordering of different multiview reference pictures. 本発明の実施の形態1による、マルチビュー参照ピクチャリストマネージャに対するビューモードの依存性のブロック図である。It is a block diagram of the dependency of the view mode on the multi-view reference picture list manager according to Embodiment 1 of the present invention. 時間参照ピクチャからの予測を使用するシングルビューのコーディングシステムのための従来技術の参照ピクチャ管理の図である。1 is a prior art reference picture management diagram for a single view coding system using prediction from temporal reference pictures. FIG. 本発明の実施の形態1による、マルチビュー参照ピクチャからの予測を使用するマルチビューの符号化及び復号化システムのための参照ピクチャ管理の図である。FIG. 3 is a diagram of reference picture management for a multi-view encoding and decoding system using prediction from a multi-view reference picture according to Embodiment 1 of the present invention. 本発明の実施の形態1による、サイド情報として符号化され受け取られる奥行き情報を用いたデコーダにおけるビュー合成のブロック図である。It is a block diagram of view synthesis in a decoder using depth information encoded and received as side information according to Embodiment 1 of the present invention. 本発明の実施の形態1による、予測モードを選択するためのコスト計算のブロック図である。It is a block diagram of the cost calculation for selecting the prediction mode by Embodiment 1 of this invention. 本発明の実施の形態1による、デコーダによって推定される奥行き情報を用いたデコーダにおけるビュー合成のブロック図である。It is a block diagram of view synthesis in a decoder using depth information estimated by the decoder according to Embodiment 1 of the present invention. 本発明の実施の形態1による、デコーダにおいてVフレームを用いて空間ランダムアクセスを達成するマルチビュービデオのブロック図である。FIG. 3 is a block diagram of multi-view video that achieves spatial random access using V frames in a decoder according to Embodiment 1 of the present invention; 本発明の実施の形態1による、ワーピング及び内挿を用いるビュー合成のブロック図である。It is a block diagram of view synthesis using warping and interpolation according to Embodiment 1 of the present invention. 本発明の実施の形態1による、奥行き探索のブロック図である。It is a block diagram of depth search according to Embodiment 1 of the present invention. 本発明の実施の形態1による、サブペル参照マッチングのブロック図である。It is a block diagram of sub-pel reference matching according to Embodiment 1 of the present invention. 従来のスキップモードのブロック図である。It is a block diagram of the conventional skip mode. 本発明の実施の形態1による、合成スキップモードのブロック図である。It is a block diagram of the synthesis skip mode according to the first embodiment of the present invention.

Claims (20)

或るシーンの複数のマルチビュービデオを処理する方法であって、各ビデオは、特定の姿勢で配置される対応するカメラにより取得され、各カメラのビューは少なくとも1つの他のカメラのビューと重なり、
前記マルチビュービデオの特定のビューを合成するためのサイド情報を得るステップと、
前記複数のマルチビュービデオ及び前記サイド情報から合成マルチビュービデオを合成するステップと、
前記複数のマルチビュービデオの各々の現フレーム毎に参照ピクチャリストを保持するステップであって、該参照ピクチャリストは、取得された前記複数のマルチビュービデオの時間参照ピクチャ及び空間参照ピクチャ並びに前記合成マルチビュービデオの合成参照ピクチャをインデックス付けする、保持するステップと、
前記複数のマルチビュービデオの各現フレームを、合成スキップモード及び合成ダイレクトモードによって、関連する前記参照ピクチャリストによりインデックス付けされた参照ピクチャに従って予測するステップであって、それによって、前記合成参照ピクチャからサイド情報が推測される、予測するステップと
を含む、或るシーンの複数のマルチビュービデオを処理する方法。
A method of processing multiple multi-view videos of a scene, each video being acquired by a corresponding camera arranged in a particular pose, each camera view overlapping with at least one other camera view. ,
Obtaining side information for compositing specific views of the multi-view video;
Synthesizing a synthesized multi-view video from the plurality of multi-view videos and the side information;
Storing a reference picture list for each current frame of each of the plurality of multi-view videos, wherein the reference picture list includes the temporal reference pictures and spatial reference pictures of the acquired multi-view videos and the synthesis Indexing and maintaining composite reference pictures for multi-view video;
Predicting each current frame of the plurality of multi-view videos according to a reference picture indexed by an associated reference picture list according to a synthesis skip mode and a synthesis direct mode, whereby from the synthesized reference picture A method of processing a plurality of multi-view videos of a scene, including predicting side information.
前記合成スキップモードは対応する前記合成参照ピクチャに関連する、請求項1に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 1, wherein the synthesis skip mode is associated with the corresponding synthesized reference picture. 前記合成スキップモードはmb_skip_flagに付加的なビットを追加することによってシグナリングされる、請求項2に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 2, wherein the synthesis skip mode is signaled by adding an additional bit to the mb_skip_flag. 前記付加的なビットは前記mb_skip_flagが1に等しい場合に追加されて、従来のスキップモードと前記合成スキップモードとが区別され、該付加的なビットは該合成スキップモードをシグナリングするために1に等しく、該従来のスキップモードをシグナリングするために0に等しい、請求項3に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The additional bit is added when the mb_skip_flag is equal to 1 to distinguish between the conventional skip mode and the combined skip mode, and the additional bit is equal to 1 to signal the combined skip mode. The method of processing a plurality of multi-view videos of a scene according to claim 3, wherein the multi-view video is equal to 0 to signal the conventional skip mode. 前記付加的なビットは前記mb_skip_flagが0に等しい場合に追加されて、従来の非スキップモードと前記合成スキップモードとが区別され、該付加的なビットは該合成スキップモードをシグナリングするために1に等しく、該従来の非スキップモードをシグナリングするために0に等しい、請求項3に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The additional bit is added when the mb_skip_flag is equal to 0 to distinguish between the conventional non-skip mode and the combined skip mode, and the additional bit is set to 1 to signal the combined skip mode. The method of processing a plurality of multi-view videos of a scene according to claim 3, which is equal and equal to 0 to signal the conventional non-skip mode. 前記合成スキップモードは或るスライス層においてシグナリングされ、該スライス内のすべてのマクロブロックに該合成スキップモードがまとめてシグナリングされる、請求項2に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The multi-view video of a scene according to claim 2, wherein the synthesis skip mode is signaled in a slice layer, and the synthesis skip mode is signaled collectively to all macroblocks in the slice. how to. 前記合成スキップモードはPスライスにシグナリングされ、前記参照ピクチャリスト内の第1のビュー合成参照ピクチャが前記参照ピクチャとして選択される、請求項2に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The multi-view video of a scene according to claim 2, wherein the synthesis skip mode is signaled to a P slice and a first view synthesis reference picture in the reference picture list is selected as the reference picture. how to. 前記合成スキップモードはBスライスにシグナリングされ、前記参照ピクチャリスト内の最初のビュー合成参照ピクチャが前記参照ピクチャとして選択される、請求項2に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The multi-view video of a scene according to claim 2, wherein the synthesis skip mode is signaled to a B slice and the first view synthesis reference picture in the reference picture list is selected as the reference picture. Method. 前記サイド情報は、奥行き値及び補正ベクトルを含む、請求項1に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 1, wherein the side information includes a depth value and a correction vector. 奥行き値は前記合成スキップモードのために導出され、利用可能な近傍奥行き値の平均である、請求項2に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 2, wherein a depth value is derived for the synthesis skip mode and is an average of available neighborhood depth values. 補正ベクトルは前記合成スキップモードのために導出され、利用可能な近傍補正ベクトルの平均である、請求項2に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 2, wherein a correction vector is derived for the synthesis skip mode and is an average of available neighborhood correction vectors. 前記合成ダイレクトモードは対応する前記合成参照ピクチャに関連する、請求項1に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 1, wherein the synthetic direct mode is associated with the corresponding synthetic reference picture. 前記合成ダイレクトモードは付加的なマクロブロックモードとしてシグナリングされる、請求項12に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 12, wherein the synthetic direct mode is signaled as an additional macroblock mode. 前記合成ダイレクトモードは付加的なフラグによってシグナリングされる、請求項12に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 12, wherein the synthetic direct mode is signaled by an additional flag. 前記合成ダイレクトモードはBスライスにシグナリングされ、前記参照ピクチャリスト内の最初のビュー合成参照ピクチャが前記参照ピクチャとして選択される、請求項12に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The multi-view video of a scene according to claim 12, wherein the synthetic direct mode is signaled to a B slice and the first view synthetic reference picture in the reference picture list is selected as the reference picture. Method. 奥行き値は前記合成ダイレクトモードのために導出され、利用可能な近傍奥行き値の平均である、請求項12に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 12, wherein a depth value is derived for the synthetic direct mode and is an average of available neighborhood depth values. 補正ベクトルは前記合成ダイレクトモードのために導出され、利用可能な近傍補正ベクトルの平均である、請求項12に記載の或るシーンの複数のマルチビュービデオを処理する方法。   13. The method of processing a plurality of multi-view videos of a scene according to claim 12, wherein a correction vector is derived for the synthetic direct mode and is an average of available neighborhood correction vectors. 前記サイド情報はエンコーダにおいて得られる、請求項1に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 1, wherein the side information is obtained at an encoder. 前記サイド情報はデコーダにおいて得られる、請求項1に記載の或るシーンの複数のマルチビュービデオを処理する方法。   The method of processing a plurality of multi-view videos of a scene according to claim 1, wherein the side information is obtained at a decoder. 或るシーンの複数のマルチビュービデオを処理するシステムであって、
複数のカメラであって、それぞれがシーンのマルチビュービデオを取得するように構成され、それぞれが特定の姿勢で配置され、それぞれのビューが少なくとも1つの他のカメラのビューと重なる、複数のカメラと、
前記マルチビュービデオの特定のビューを合成するためのサイド情報を得る手段と、
前記複数のマルチビュービデオ及び前記サイド情報から合成マルチビュービデオを合成する手段と、
前記複数のマルチビュービデオの各々の現フレーム毎に参照ピクチャリストを保持するように構成されるメモリバッファであって、該参照ピクチャリストは、取得された前記複数のマルチビュービデオの時間参照ピクチャ及び空間参照ピクチャ並びに前記合成マルチビュービデオの合成参照ピクチャをインデックス付けする、メモリバッファと、
前記複数のマルチビュービデオの各現フレームを、合成スキップモード及び合成ダイレクトモードによって、関連する前記参照ピクチャリストによりインデックス付けされた参照ピクチャに従って予測する手段であって、それによって、前記合成参照ピクチャから前記サイド情報が推測される、予測する手段と
を備える、或るシーンの複数のマルチビュービデオを処理するシステム。
A system for processing multiple multi-view videos of a scene,
A plurality of cameras, each configured to acquire a multi-view video of a scene, each arranged in a specific pose, and each view overlapping a view of at least one other camera; ,
Means for obtaining side information for compositing a particular view of the multi-view video;
Means for synthesizing a synthesized multi-view video from the plurality of multi-view videos and the side information;
A memory buffer configured to hold a reference picture list for each current frame of each of the plurality of multi-view videos, the reference picture list including the temporal reference pictures of the obtained multi-view videos and A memory buffer for indexing spatial reference pictures as well as composite reference pictures of the composite multiview video;
Means for predicting each current frame of the plurality of multi-view videos according to a reference picture indexed by the associated reference picture list in a synthesis skip mode and a synthesis direct mode, whereby A system for processing a plurality of multi-view videos of a scene comprising means for predicting the side information.
JP2007201711A 2007-01-09 2007-08-02 Method and system for processing multiple multiview videos of a scene Expired - Fee Related JP5116394B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/621,400 2007-01-09
US11/621,400 US7671894B2 (en) 2004-12-17 2007-01-09 Method and system for processing multiview videos for view synthesis using skip and direct modes

Publications (2)

Publication Number Publication Date
JP2008172749A true JP2008172749A (en) 2008-07-24
JP5116394B2 JP5116394B2 (en) 2013-01-09

Family

ID=39711348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007201711A Expired - Fee Related JP5116394B2 (en) 2007-01-09 2007-08-02 Method and system for processing multiple multiview videos of a scene

Country Status (3)

Country Link
US (1) US7671894B2 (en)
EP (1) EP1978750A3 (en)
JP (1) JP5116394B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532931A (en) * 2006-03-30 2009-09-10 エルジー エレクトロニクス インコーポレイティド Video signal decoding / encoding method and apparatus
JP2012503813A (en) * 2008-09-25 2012-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D image data processing
US8532184B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
JP2014513896A (en) * 2011-04-19 2014-06-05 サムスン エレクトロニクス カンパニー リミテッド Uniform scalable video coding method and apparatus for multi-view video, unified scalable video decoding method and apparatus for multi-view video
JP2015502057A (en) * 2011-11-17 2015-01-19 三菱電機株式会社 Method and system for processing multiple multi-view videos of a scene
US9485492B2 (en) 2010-09-14 2016-11-01 Thomson Licensing Llc Compression methods and apparatus for occlusion data
US9538182B2 (en) 2011-01-20 2017-01-03 Samsung Electronics Co., Ltd. Apparatus and method for adaptive frame prediction for multiview video sequence coding
US9942558B2 (en) 2009-05-01 2018-04-10 Thomson Licensing Inter-layer dependency information for 3DV

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US8823821B2 (en) 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
KR100703760B1 (en) * 2005-03-18 2007-04-06 삼성전자주식회사 Video encoding/decoding method using motion prediction between temporal levels and apparatus thereof
EP2375749B1 (en) * 2005-10-11 2016-11-23 Nokia Technologies Oy System and method for efficient scalable stream adaptation
US20100091845A1 (en) * 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
WO2007148906A1 (en) * 2006-06-19 2007-12-27 Lg Electronics, Inc. Method and apparatus for processing a vedeo signal
US9456222B2 (en) * 2006-10-18 2016-09-27 Thomson Licensing Local illumination and color compensation without explicit signaling
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8873932B2 (en) 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US20090180546A1 (en) 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
KR100801968B1 (en) * 2007-02-06 2008-02-12 광주과학기술원 Method for computing disparities, method for synthesizing interpolation view, method for coding and decoding multi-view video using the same, encoder and decoder using the same
US8804845B2 (en) * 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US10298952B2 (en) * 2007-08-06 2019-05-21 Interdigital Madison Patent Holdings Methods and apparatus for motion skip move with multiple inter-view reference pictures
EP2177036A2 (en) * 2007-08-15 2010-04-21 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
EP2213097A2 (en) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
CN101415114B (en) * 2007-10-17 2010-08-25 华为终端有限公司 Method and apparatus for encoding and decoding video, and video encoder and decoder
JP5144237B2 (en) * 2007-12-05 2013-02-13 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP5400062B2 (en) * 2008-01-07 2014-01-29 トムソン ライセンシング Video encoding and decoding method and apparatus using parametric filtering
KR101560182B1 (en) * 2008-01-07 2015-10-15 삼성전자주식회사 Method and apparatus for multi-view video encoding and method and apparatus for multi-view video decoding
KR101524465B1 (en) 2008-01-10 2015-06-02 삼성전자주식회사 Method and apparatus for multi-view video encoding using chrominance compensation, and method and apparatus for multi-view video decoding using chrominance compensation
CN101483765B (en) * 2008-01-11 2011-09-21 华为技术有限公司 Image processing method, method and apparatus for encoding and decoding
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
WO2009111007A1 (en) * 2008-03-04 2009-09-11 Thomson Licensing Virtual reference view
WO2009115901A2 (en) 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
BRPI0911447A2 (en) * 2008-04-25 2018-03-20 Thomson Licensing depth signal coding
US8886022B2 (en) * 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
CN102396221B (en) * 2008-06-25 2015-03-25 思科技术公司 Support for blocking trick mode operations
BRPI0916963A2 (en) 2008-08-20 2015-11-24 Thomson Licensing refined depth map
US8385404B2 (en) 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
JP5680283B2 (en) * 2008-09-19 2015-03-04 株式会社Nttドコモ Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program
CN102210147B (en) 2008-11-12 2014-07-02 思科技术公司 Processing of a video [AAR] program having plural processed representations of a [AAR] single video signal for reconstruction and output
US8760495B2 (en) * 2008-11-18 2014-06-24 Lg Electronics Inc. Method and apparatus for processing video signal
US20110057326A1 (en) * 2008-12-17 2011-03-10 Takayuki Kai Method for forming through electrode and semiconductor device
KR101479011B1 (en) * 2008-12-17 2015-01-13 삼성전자주식회사 Method of schedulling multi-band and broadcasting service system using the method
WO2010073513A1 (en) 2008-12-26 2010-07-01 日本ビクター株式会社 Image encoding device, image encoding method, program thereof, image decoding device, image decoding method, and program thereof
US20100165078A1 (en) * 2008-12-30 2010-07-01 Sensio Technologies Inc. Image compression using checkerboard mosaic for luminance and chrominance color space images
WO2010144074A1 (en) 2009-01-07 2010-12-16 Thomson Licensing Joint depth estimation
WO2010093351A1 (en) * 2009-02-13 2010-08-19 Thomson Licensing Depth map coding to reduce rendered distortion
US8326131B2 (en) * 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
ES2524973T3 (en) * 2009-02-23 2014-12-16 Nippon Telegraph And Telephone Corporation Multivist image coding and decoding using localized lighting and color correction
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
US8693539B2 (en) * 2009-03-26 2014-04-08 Panasonic Corporation Coding method, error detecting method, decoding method, coding apparatus, error detecting apparatus, and decoding apparatus
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
US20100259595A1 (en) * 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video
KR101619451B1 (en) * 2009-04-17 2016-05-10 엘지전자 주식회사 Method and apparatus for processing a multiview video signal
US8639046B2 (en) * 2009-05-04 2014-01-28 Mamigo Inc Method and system for scalable multi-user interactive visualization
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US9148673B2 (en) * 2009-06-25 2015-09-29 Thomson Licensing Depth map coding
US20120212579A1 (en) * 2009-10-20 2012-08-23 Telefonaktiebolaget Lm Ericsson (Publ) Method and Arrangement for Multi-View Video Compression
US20110109721A1 (en) * 2009-11-06 2011-05-12 Sony Corporation Dynamic reference frame reordering for frame sequential stereoscopic video encoding
WO2011090798A1 (en) 2010-01-22 2011-07-28 Thomson Licensing Data pruning for video compression using example-based super-resolution
US9602814B2 (en) 2010-01-22 2017-03-21 Thomson Licensing Methods and apparatus for sampling-based super resolution video encoding and decoding
EP2526692A1 (en) * 2010-01-26 2012-11-28 Vidyo, Inc. Low complexity, high frame rate video encoder
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
EP2541943A1 (en) * 2010-02-24 2013-01-02 Nippon Telegraph And Telephone Corporation Multiview video coding method, multiview video decoding method, multiview video coding device, multiview video decoding device, and program
US9082278B2 (en) * 2010-03-19 2015-07-14 University-Industry Cooperation Group Of Kyung Hee University Surveillance system
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US8774267B2 (en) * 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
CN101945299B (en) * 2010-07-09 2013-10-09 清华大学 Camera-equipment-array based dynamic scene depth restoring method
CN105847780B (en) 2010-07-21 2018-01-09 杜比实验室特许公司 Coding/decoding method for the transmission of multilayer frame compatible video
WO2012033970A1 (en) 2010-09-10 2012-03-15 Thomson Licensing Encoding of a picture in a video sequence by example - based data pruning using intra- frame patch similarity
WO2012033972A1 (en) 2010-09-10 2012-03-15 Thomson Licensing Methods and apparatus for pruning decision optimization in example-based data pruning compression
US8503528B2 (en) 2010-09-15 2013-08-06 Google Inc. System and method for encoding video using temporal filter
EP2628298A1 (en) * 2010-10-12 2013-08-21 Dolby Laboratories Licensing Corporation Joint layer optimization for a frame-compatible video delivery
US20130120528A1 (en) * 2011-01-09 2013-05-16 Thomson Licensing Video processing apparatus and method for detecting a temporal synchronization mismatch
KR101187530B1 (en) * 2011-03-02 2012-10-02 한국과학기술원 Rendering strategy for monoscopic, stereoscopic and multi-view computer generated imagery, system using the same and recording medium for the same
JP6061150B2 (en) * 2011-03-18 2017-01-18 ソニー株式会社 Image processing apparatus, image processing method, and program
US8638854B1 (en) 2011-04-07 2014-01-28 Google Inc. Apparatus and method for creating an alternate reference frame for video compression using maximal differences
US9154799B2 (en) 2011-04-07 2015-10-06 Google Inc. Encoding and decoding motion via image segmentation
TWI530161B (en) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
KR20130022923A (en) * 2011-08-26 2013-03-07 삼성전자주식회사 Apparatus and method for encoding/decoding using virtual view synthesis prediction
CN102256133B (en) * 2011-08-26 2013-11-06 北京邮电大学 Distributed video coding and decoding method based on side information refining
RU2573213C2 (en) * 2011-08-30 2016-01-20 Интел Корпорейшн Multi-planar video coding schemes
US10110891B2 (en) 2011-09-29 2018-10-23 Sharp Kabushiki Kaisha Image decoding device, image decoding method, and image encoding device
EP2763414B1 (en) * 2011-09-29 2020-09-23 Sharp Kabushiki Kaisha Image decoding device and image decoding method for performing bi-prediction to uni-prediction conversion
RU2595587C2 (en) * 2011-10-17 2016-08-27 Кт Корпорейшен Method for adaptive conversion, based on intra-frame prediction and device using said method
KR102020024B1 (en) * 2011-10-25 2019-09-10 삼성전자주식회사 Apparatus and method for encoding/decoding using virtual view synthesis prediction
US20130100245A1 (en) * 2011-10-25 2013-04-25 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding using virtual view synthesis prediction
CN103096141B (en) * 2011-11-08 2019-06-11 华为技术有限公司 A kind of method, apparatus and system obtaining visual angle
WO2013068493A1 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with effective handling of renderable portions
WO2013068491A1 (en) * 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with exploitation of renderable portions
EP2614490B1 (en) 2011-11-11 2013-12-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for determining a measure for a distortion change in a synthesized view due to depth map modifications
US11445172B2 (en) * 2012-01-31 2022-09-13 Vid Scale, Inc. Reference picture set (RPS) signaling for scalable high efficiency video coding (HEVC)
US9503702B2 (en) 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
EP2842337B1 (en) 2012-04-23 2019-03-13 Google LLC Managing multi-reference picture buffers for video data coding
US9609341B1 (en) 2012-04-23 2017-03-28 Google Inc. Video data encoding and decoding using reference picture lists
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
US9860555B2 (en) * 2012-05-22 2018-01-02 Lg Electronics Inc. Method and apparatus for processing video signal
US9014266B1 (en) 2012-06-05 2015-04-21 Google Inc. Decimated sliding windows for multi-reference prediction in video coding
US9648347B1 (en) * 2012-06-14 2017-05-09 Pixelworks, Inc. Disparity postprocessing and interpolation for motion estimation and motion correction
EP2870766B1 (en) * 2012-07-09 2020-04-08 Mitsubishi Electric Corporation Method and system for processing multiview videos for view synthesis using motion vector predictor list
CN104782123A (en) * 2012-10-22 2015-07-15 数码士控股有限公司 Method for predicting inter-view motion and method for determining inter-view merge candidates in 3d video
CN102957932A (en) * 2012-11-02 2013-03-06 同济大学 Coding mode quickly and automatically selecting method based on optimum stopping theory
US10136119B2 (en) * 2013-01-10 2018-11-20 Qualcomm Incoporated View synthesis in 3D video
MY169901A (en) * 2013-04-12 2019-06-13 Ericsson Telefon Ab L M Constructing inter-layer reference picture lists
US10080036B2 (en) 2013-05-16 2018-09-18 City University Of Hong Kong Method and apparatus for depth video coding using endurable view synthesis distortion
US9756331B1 (en) 2013-06-17 2017-09-05 Google Inc. Advance coded reference prediction
CN105519105B (en) * 2013-09-11 2019-03-08 索尼公司 Image processing equipment and method
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10057593B2 (en) * 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10032280B2 (en) 2014-09-19 2018-07-24 Brain Corporation Apparatus and methods for tracking salient features
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
KR20180053028A (en) * 2016-11-11 2018-05-21 삼성전자주식회사 Video processing device encoding frames comprised of hierarchical structure

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006064710A1 (en) * 2004-12-17 2006-06-22 Mitsubishi Denki Kabushiki Kaisha Method and system for decomposing multiview videos

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
GB9616262D0 (en) * 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
US6055274A (en) * 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
KR100433625B1 (en) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 Apparatus for reconstructing multiview image using stereo image and depth map
WO2003053066A1 (en) * 2001-12-17 2003-06-26 Microsoft Corporation Skip macroblock coding
KR100481732B1 (en) * 2002-04-20 2005-04-11 전자부품연구원 Apparatus for encoding of multi view moving picture
US7483488B1 (en) * 2002-05-30 2009-01-27 Intervideo, Inc. Systems and methods for improving bit rate control of video encoding by correcting for the effects of scene changes and bit stuffing in a video buffer verifier (VBV) buffer model
US20060206582A1 (en) * 2003-11-17 2006-09-14 David Finn Portable music device with song tag capture
TWI238996B (en) 2004-09-22 2005-09-01 Benq Corp Optical disk device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006064710A1 (en) * 2004-12-17 2006-06-22 Mitsubishi Denki Kabushiki Kaisha Method and system for decomposing multiview videos

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8559505B2 (en) 2006-03-30 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8634475B2 (en) 2006-03-30 2014-01-21 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal using a reference picture list for inter-view prediction
US8363732B2 (en) 2006-03-30 2013-01-29 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8411744B2 (en) 2006-03-30 2013-04-02 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8428130B2 (en) 2006-03-30 2013-04-23 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8432972B2 (en) 2006-03-30 2013-04-30 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8457207B2 (en) 2006-03-30 2013-06-04 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8472519B2 (en) 2006-03-30 2013-06-25 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8483273B2 (en) 2006-03-30 2013-07-09 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8526504B2 (en) 2006-03-30 2013-09-03 Lg Electronics Inc. Method and apparatus for decoding/encoding a multi-view video signal with inter-view reference picture list management
JP2009532931A (en) * 2006-03-30 2009-09-10 エルジー エレクトロニクス インコーポレイティド Video signal decoding / encoding method and apparatus
US8611419B2 (en) 2006-03-30 2013-12-17 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8611427B2 (en) 2006-03-30 2013-12-17 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8576920B2 (en) 2006-03-30 2013-11-05 Lg Electronics, Inc. Method and apparatus for decoding/encoding a video signal
US8571113B2 (en) 2006-03-30 2013-10-29 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8565319B2 (en) 2006-03-30 2013-10-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8559523B2 (en) 2006-03-30 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8565303B2 (en) 2006-03-30 2013-10-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8532184B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8711932B2 (en) 2006-08-25 2014-04-29 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8559508B2 (en) 2006-08-25 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532180B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532178B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532183B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532181B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532182B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8630344B2 (en) 2006-08-25 2014-01-14 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8855200B2 (en) 2006-08-25 2014-10-07 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8649433B2 (en) 2006-08-25 2014-02-11 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8660179B2 (en) 2006-08-25 2014-02-25 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8681863B2 (en) 2006-08-25 2014-03-25 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8559507B2 (en) 2006-08-25 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8718136B2 (en) 2006-08-25 2014-05-06 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8724700B2 (en) 2006-08-25 2014-05-13 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8767827B2 (en) 2006-08-25 2014-07-01 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8761255B2 (en) 2006-08-25 2014-06-24 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
JP2012503813A (en) * 2008-09-25 2012-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D image data processing
US9942558B2 (en) 2009-05-01 2018-04-10 Thomson Licensing Inter-layer dependency information for 3DV
US9485492B2 (en) 2010-09-14 2016-11-01 Thomson Licensing Llc Compression methods and apparatus for occlusion data
US9883161B2 (en) 2010-09-14 2018-01-30 Thomson Licensing Compression methods and apparatus for occlusion data
US9538182B2 (en) 2011-01-20 2017-01-03 Samsung Electronics Co., Ltd. Apparatus and method for adaptive frame prediction for multiview video sequence coding
JP2014513896A (en) * 2011-04-19 2014-06-05 サムスン エレクトロニクス カンパニー リミテッド Uniform scalable video coding method and apparatus for multi-view video, unified scalable video decoding method and apparatus for multi-view video
JP2015502057A (en) * 2011-11-17 2015-01-19 三菱電機株式会社 Method and system for processing multiple multi-view videos of a scene

Also Published As

Publication number Publication date
US7671894B2 (en) 2010-03-02
US20070109409A1 (en) 2007-05-17
EP1978750A3 (en) 2010-02-24
JP5116394B2 (en) 2013-01-09
EP1978750A2 (en) 2008-10-08

Similar Documents

Publication Publication Date Title
JP5116394B2 (en) Method and system for processing multiple multiview videos of a scene
JP5744333B2 (en) Method and system for processing a multi-view video of a scene
JP5013993B2 (en) Method and system for processing multiple multiview videos of a scene
JP4890201B2 (en) Method and system for managing multi-view video
JP5274766B2 (en) Method and system for predicting multi-view video
JP5106830B2 (en) Method and system for randomly accessing multiview video
JP5154681B2 (en) How to encode multiview video
US7728878B2 (en) Method and system for processing multiview videos for view synthesis using side information
EP2870766B1 (en) Method and system for processing multiview videos for view synthesis using motion vector predictor list

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121016

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5116394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees