JP4786534B2 - マルチビュービデオを分解する方法及びシステム - Google Patents

マルチビュービデオを分解する方法及びシステム Download PDF

Info

Publication number
JP4786534B2
JP4786534B2 JP2006522813A JP2006522813A JP4786534B2 JP 4786534 B2 JP4786534 B2 JP 4786534B2 JP 2006522813 A JP2006522813 A JP 2006522813A JP 2006522813 A JP2006522813 A JP 2006522813A JP 4786534 B2 JP4786534 B2 JP 4786534B2
Authority
JP
Japan
Prior art keywords
view
frame
decomposing
prediction mode
view video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006522813A
Other languages
English (en)
Other versions
JP2008524873A (ja
Inventor
シン、ジュン
マーティニアン、エミン
ヴェトロ、アンソニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008524873A publication Critical patent/JP2008524873A/ja
Application granted granted Critical
Publication of JP4786534B2 publication Critical patent/JP4786534B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、包括的にはビデオの符号化に関し、特にマルチビュー(多視点)ビデオの符号化に関する。
マルチビュービデオの符号化は、3Dテレビ(3DTV)、自由視点テレビ(FTV)、及び複数のカメラによる監視等の用途に不可欠である。マルチビュービデオの符号化は動的なライトフィールド圧縮としても知られる。
図1は、マルチビュービデオを符号化するための従来技術の「サイマル放送」システム100を示す。カメラ1〜4がシーンの「ビュー」101〜104を取得する。ここで、各カメラからの入力ビューは通常、時間的に同期される。これらのビューは、個別に符号化111〜114されて、対応する符号化ビュー121〜124となる。このシステムは、従来の2Dビデオ符号化技法を用いる。しかし、このシステムは異なるカメラビューを相関させない。個別の符号化は、圧縮効率を低下させ、よってネットワーク帯域幅及び記憶域(storage)が増大する。多数のカメラの場合、ビュー間の相関はマルチビューエンコーダの効率を大幅に高める。
図2は、ビュー間の相関を用いる、従来技術の視差補償予測システム200を示す。ビュー201〜204は符号化211〜214されて、符号化ビュー231〜234となる。ビュー201及び204は、MPEG−2又はH.264等の標準的なビデオエンコーダを用いて個別に符号化される。これらの個別に符号化されたビューは「基準」ビューである。残りのビュー202及び203は、時間予測、並びにデコーダ221及び222から得られる再構成された基準ビュー251及び252に基づくビュー間予測を用いて符号化される。通常、この予測はブロック毎に適応的に決定される(S. C. Chan他著「The data compression of simplified dynamic light fields」(Proc. IEEE Int. Acoustics, Speech, and Signal Processing Conf., April, 2003))。
図3は、従来技術の「リフティングベースの」ウェーブレット分解を示す(W. Sweldens著「The data compression of simplified dynamic light fields」(J. Appl. Comp. Harm. Anal., vol. 3, no. 2, pp. 186-200, 1996)を参照のこと)。ウェーブレット分解は、静的なライトフィールド圧縮に効果的な技法である。入力サンプル301は、奇数サンプル302及び偶数サンプル303に分割310される。奇数サンプルは偶数サンプルから予測320される。予測誤差は高域サンプル304を形成する。この高域サンプルは、偶数サンプルを更新330して低域サンプル305を形成するために用いられる。この分解は可逆であるため、線形操作又は非線形操作を予測ステップ及び更新ステップに組み込むことができる。
リフティング方式は、ビデオの場合は実質的に時間的な動きの軌跡に沿ってフィルタリングを行う動き補償時間変換、すなわち、動き補償時間フィルタリング(MCTF)を可能にする。ビデオの符号化のためのMCTFのレビューがOhm他著「Interframe wavelet codingmotion picture representation for universal scalability」(Signal Processing: Image Communication, Vol. 19, No. 9, pp. 877-908, October 2004)に記載されている。リフティング方式は、完全な再構成に影響を与えることなく、ハール又は5/3ドベシィ等の任意のウェーブレット核、及びブロックベースの平行移動又はアフィングローバル動き等の任意の動きモデルに基づいて行うことができる。
符号化のために、MCTFは、ビデオを高域フレームと低域フレームに分解し、次にこれらのフレームに空間変換を施して、残存する空間的相関を減らす。変換された低域フレーム及び高域フレームは、関連する動き情報と共にエントロピー符号化されて、符号化ビットストリームを形成する。MCTFは、図3に示すリフティング方式を用いて、時間的に隣接するビデオを入力として実施することができる。また、MCTFは、出力低域フレームに反復的に適用することができる。
MCTFベースのビデオの圧縮効率は、H.264/AVC等のビデオ圧縮規格のそれに匹敵する。また、ビデオは固有の時間スケーラビリティを有する。しかし、この方法は、複数のビュー間の相関を利用するマルチビュービデオの符号化には直接適用することができない。これは、時間的相関も考慮する効率的なビュー予測方法がないためである。
リフティング方式は、静的なライトフィールド、すなわち、単一のマルチビュー画像を符号化するためにも用いられてきた。動き補償時間フィルタリングを行う代わりに、エンコーダは、空間領域の静止ビュー間で視差補償ビュー間フィルタリング(DCVF)を行う(Chang他著「Inter-view wavelet compression of light fields with disparity compensated lifting」(SPIE Conf on Visual Communications and Image Processing, 2003)を参照のこと)。
符号化のために、DCVFは、静的なライトフィールドを高域画像と低域画像に分解し、次にこれらの画像に空間変換を施して、残存する空間的相関を減らす。変換された画像は、関連する視差情報と共にエントロピー符号化されて、符号化ビットストリームを形成する。DCVFは通常、図3に示すようなリフティングベースのウェーブレット変換方式を用いて、空間的に隣接するカメラビューからの画像を入力として実施される。また、DCVFは、出力低域画像に反復的に適用することができる。DCVFベースの静的なライトフィールド圧縮は、複数の画像を個別に符号化するよりも高い圧縮効率を提供する。しかし、この方法は、時間的相関とビュー間の相関の両方を利用するマルチビュービデオの符号化には直接適用することができない。これは、時間的相関も考慮する効率的なビュー予測方法がないためである。
したがって、ウェーブレット変換を用いるマルチビュービデオにおいて時間的相関とビュー間の相関の両方を利用する圧縮方法が必要とされている。
[発明の開示]
方法及びシステムは、複数のカメラによって或るシーンについて取得されたマルチビュービデオを分解する。
各マルチビュービデオはフレームシーケンスを含み、各カメラはシーンの異なるビューを提供する。
時間予測モード、空間予測モード、及びビュー補間予測モードの中から1つの予測モードが選択される。
次に、マルチビュービデオは、選択された予測モードに従って低域フレーム、高域フレーム、及びサイド情報に分解される。
マルチビュービデオはまた、補間されて、シーンの新たなビューを提供することができる。
本発明は、添付図面と共に解釈される以下の本発明の好適な実施の形態の詳細な説明からより容易に明らかとなるであろう。
[好適な実施の形態の詳細な説明]
本発明は、マルチビュービデオのフレームを符号化するための複合的時間/ビュー間分解方法を提供する。本方法は、各ビュー内のフレーム間の時間的相関、及び複数のカメラビューのフレーム間の空間的相関を利用する。時間的相関は動き補償時間フィルタリング(MCTF)を用いて利用され、空間的相関は視差補償ビュー間フィルタリング(DCVF)を用いて利用される。
本発明によるMCTF/DCVF分解はブロック適応的である。この分解は、様々な形態の時間予測、様々な形態の空間予測、及びビュー補間予測を含むいくつかの予測モードを用いて行われる。ブロック毎に最良の予測モードを決定するために、本発明は、マルチビューモードを選択する方法を提供する。本方法は、任意数のビュー及びカメラ配置に使用することができる。
MCTF/DCVF分解
図4は、本発明によるMCTF/DCVF分解400を示す。入力ビデオのフレーム401〜404が、或るシーン5についてカメラ1〜4によって取得される。通常、これらのカメラは同期している。各入力ビデオは、シーンの異なる「ビュー」を提供する。入力フレーム401〜404はMCTF/DCVF分解400に送られる。この分解は、符号化された低域フレーム411、符号化された高域フレーム412、及び関連するサイド情報413を生成する。高域フレームは実質的に、低域フレームを基準フレームとして用いて予測誤差を符号化する。分解は、選択された予測モード410に従って行われる。予測モードは、空間モード、時間モード、及びビュー補間モードを含む。予測モードは、ブロック毎に適応的に選択することができる。
図5は、ビュー(空間)501の時間502にわたるフレームの、低域フレーム(L)411及び高域フレーム(H)412の好ましい交番「格子パターン」を示す。実質的に、このパターンは、空間次元において1つの瞬間毎に低域フレームと高域フレームが交互(alternate)し、さらに、時間において1つのビュー毎に低域フレームと高域フレームが交互する。
この格子パターンにはいくつかの利点がある。このパターンは、低域フレームを空間(ビュー)次元と時間次元の両方において均一に分散させることで、デコータが低域フレームのみを再構成する場合に、空間及び時間においてスケーラビリティを実現する。また、このパターンは、空間次元と時間次元の両方において高域フレームを近傍の低域フレームと整列させる。これは、図6に示すように、誤差の予測を行うための基準フレーム間の相関を最大化する上で望ましい。
リフティングベースのウェーブレット変換によれば、一方のサンプル組を他方のサンプル組から予測することによって高域フレームが生成される。この予測は、後述する本発明による様々な形態の時間予測、様々な形態の空間予測、及びビュー補間予測を含むいくつかのマルチビューモードを用いて達成することができる。
高域フレームを予測するための手段及びこの予測を行うために必要な情報はサイド情報413と呼ばれる。時間予測を行う場合、時間モードがサイド情報の一部として、対応する動き情報と共に信号伝達される。空間予測を行う場合、空間モードがサイド情報の一部として、対応する視差情報と共に信号伝達される。ビュー補間予測を行う場合、ビュー補間モードがサイド情報の一部として、対応する視差情報、動き情報及び奥行き情報と共に信号伝達される。
図5及び図6に示すように、各高域フレーム412の予測は、空間次元及び時間次元における「最近傍」低域フレームを用いる。
低域フレームは、様々な方法で生成することができる。第1の方法において、例えば図5の格子パターンに従って指定される低域フレームは、入力ビューの対応するフレームに等しい。第2の方法において、指定される低域フレームは、更新演算子に応じた高域フレームを対応する入力フレームに加算する更新ステップの結果である。
第1の実施の形態において、MCTF及びDCVFは、ブロック毎に入力ビューのフレームに適応的に適用されて、分解された低域フレームの組及び高域フレーム、並びに関連するサイド情報が得られる。こうして、各ブロックは、上述した利用可能なマルチビューモードの中から最良のマルチビュー予測モードを適応的に選択する。マルチビューモードを選択するための最適な方法を後述する。
第2の実施の形態では、MCTFがまず各カメラビューのフレームに個別に適用される。結果として得られるフレームが次に、DCVFによりさらに分解される。最終的な分解されたフレームに加えて、対応するサイド情報も生成される。ブロック毎に行う場合、MCTF及びDCVFの予測モードの選択は別個に検討される。利点として、このモード選択は本質的に時間スケーラビリティをサポートする。こうして、圧縮ビットストリームにおいてビデオのより低い時間レートに容易にアクセスすることができる。
第3の実施の形態において、DCVFがまず入力ビューのフレームに適用される。結果として得られるフレームが次に、MCTFにより時間的に分解される。最終的な分解されたフレームに加えて、サイド情報も生成される。ブロック毎に行う場合、MCTF及びDCVFの予測モードの選択は別個に検討される。利点として、この選択は本質的にビュースケーラビリティをサポートする。こうして、圧縮ビットストリームにおいて低減された数のビューに容易にアクセスすることができる。
上述した分解は、前の分解段階から結果として得られる低域フレームの組に反復的に適用することができる。利点として、本発明のMCTF/DCVF分解400は、時間的相関とビュー間の(空間的)相関の両方を効果的に除去し、非常に高い圧縮効率を達成することができる。本発明のマルチビュービデオエンコーダの圧縮効率は、各ビューを他のビューとは独立して符号化する従来のサイマル放送符号化に勝る。
MCTF/DCVF分解の符号化
図7に示すように、信号エンコーダ710は、変換、量子化及びエントロピー符号化を 行って、分解された低域フレーム411及び高域フレーム412に残存する相関を除去する。このような操作は当該技術分野において既知である(Netravali及びHaskell著「Digital Pictures: Representation, Compression and Standards」(Second Edition, Plenum Press, 1995))。
サイド情報エンコーダ720は、分解の結果として生成されたサイド情報の符号化を担う。サイド情報は、マルチビューモード自体に加えて、時間予測に対応する動き情報、空間予測及びビュー補間に対応する視差情報、並びにビュー補間に対応する奥行き情報を含む。
サイド情報の符号化は、MPEG−4 Visual規格ISO/IEC14496−2「Information technology -- Coding of audio-visual objects - Part 2: Visual」(第2版、2001年)、又はより最近のH.264/AVC規格、及びITU−T勧告H.264「Advanced video coding for generic audiovisual services」(2004年)において用いられている技法等の既知の確立された技法によって達成されてもよい。
例えば、動きベクトルは通常、近傍ベクトルから予測ベクトルを求める予測方法を用いて符号化される。次に、予測ベクトルと現ベクトルの差にエントロピー符号化プロセスを施す。このプロセスは通常、予測誤差の統計値を利用する。同様の手順を用いて視差ベクトルを符号化してもよい。
さらに、近傍ブロックからの予測値を得る予測符号化方法を用いて、又は単純に固定長符号を使用して奥行き値を直接表すことによって各ブロックの奥行き情報を圧縮してもよい。画素レベルの奥行き精度が抽出され圧縮される場合、この情報チャネルには、変換技法、量子化技法及びエントロピー符号化技法を適用する、より高度なテクスチャ符号化技法を適用すべきである。
信号エンコーダ710及びサイド情報エンコーダ720からの符号化された信号を多重化730して、符号化された出力ビットストリーム731を生成することができる。
MCTF/DCVF分解の復号化
ビットストリームを復号化740してマルチビュービデオ741を回復することができる。概して、デコーダは、エンコーダの逆の操作を行ってマルチビュービデオを再構成する。全ての低域画像及び高域画像が復号化されれば、ビュー次元と時間次元の両方において符号化品質の完全なフレーム組が再構成され、レンダリングに利用することができる。
エンコーダにおいていくつの反復レベルの分解を適用したか、及び、どのタイプの分解を適用したかに応じて、低減された数のビュー及び/又は低減された時間レートを、低減された数のビュー及び低減された時間レートに対応する低域画像の組と高域画像から復号化することができる。
ビュー補間
図8に示すように、ビュー補間は、既存のビューのフレーム803から補間されたビューのフレーム801を生成するプロセスである。言い換えれば、ビュー補間は、入力ビデオが取得された時点では存在しなかった新たな仮想カメラ800による、シーン5の選択された新たなビュー802に対応するフレーム801を合成する手段を提供する。
2つ又はそれ以上の基準ビューのフレームの画素値及びシーン中の複数の点の奥行き値が与えられれば、標的ビュー802のフレーム801の画素を、基準ビューのフレームの対応する画素値から補間することができる。
本発明では、ビュー補間は、入力画像又は更新ステップを行った入力画像のいずれかであり得る低域画像に基づく。
ビュー補間は一般にコンピュータグラフィックスにおいて、複数のビューを有する画像をレンダリングするために使用される(Buehler他著「Unstructured Lumigraph Rendering」(Proc. ACM SIGGRAPH, 2001)を参照のこと)。この方法は、カメラの外部パラメータ及び内部パラメータを必要とする。
マルチビュービデオを圧縮するためのビュー補間技法は新規である。本発明では、予測に使用する、ビュー補間されたフレームを生成する。ビュー補間フレームは、指定された高域フレームの或る位置において生成され、現補間フレームを予測するための基準フレームとして働く。
この手法に伴う1つの問題は、シーンの奥行き値が分からないことである。したがって、本発明では、既知のグラフィックス技法を用いて、例えば、複数のビューにおける特徴の対応関係に基づいて奥行き値を推定する。代替的に、標的ビュー毎に、本発明では、候補奥行き値にそれぞれ対応する複数のビュー補間フレームを生成する。現フレームのブロック毎に、ビュー補間フレームの組の中から最も良く一致するブロックを求める。この最良一致が見付かったビュー補間フレームは、現フレームのそのブロックの奥行き値を示す。このプロセスをフレーム内の全ブロックについて繰り返す。
現ブロックとビュー補間ブロックの差は信号エンコーダ710により符号化及び圧縮される。このマルチビューモードのサイド情報は、サイド情報エンコーダ720によって符号化される。サイド情報は、ビュー補間モード、ブロックの奥行き値、及び補償されるべき現フレームのブロックとビュー補間フレームの最良一致ブロックとのミスアライメントを補償するオプションの変位ベクトルを示す信号を含む。
マルチビューモードの選択
ブロック適応的MCTF/DCVF分解において、各ブロックの予測モードmは、費用関数をブロック毎に適応的に最小化することによって選択することができる。
=argminJ(m)
ここで、J(m)=D(m)+λR(m)であり、Dは歪みであり、λは重みパラメータであり、Rはレートであり、mは候補予測モードの組を示し、mは最小費用基準に基づいて選択された最適予測モードを示す。
候補モードmは様々な時間予測モード、空間予測モード、ビュー補間予測モード及びイントラ予測モードを含む。費用関数J(m)は、特定のモードmを用いてブロックを符号化した結果として生じるレート及び歪みに依存する。
歪みは、再構成ブロックと元ブロックの差を測定する。再構成ブロックは、所与の予測モードmを用いてブロックを符号化及び復号化することによって得られる。一般的な歪み測度は差の二乗和である。
レートは、予測誤差及び全てのサイド情報を含む、ブロックを符号化するために必要なビット数である。
パラメータλは、ブロック符号化のレート−歪みのトレードオフを制御するものであり、量子化ステップサイズから導出することができる。
本発明を好適な実施の形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行ってもよいことが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るそのような変形及び変更をすべて網羅することである。
マルチビュービデオを符号化するための従来技術のサイマル放送システムのブロック図である。 マルチビュービデオを符号化するための従来技術の視差補償予測システムのブロック図である。 従来技術のウェーブレット分解のフロー図である。 本発明によるMCTF/DCVF分解のブロック図である。 本発明によるMCTF/DCVF分解後の低域画像及び高域画像のブロック図である。 本発明による、近傍の低域画像からの高域画像の予測のブロック図である。 本発明によるブロック適応的MCTF/DCVF分解を用いるマルチビュー符号化システムのブロック図である。 本発明によるビュー補間の概略図である。

Claims (20)

  1. マルチビュービデオを分解する方法であって、
    複数のカメラにより或るシーンについて複数のビデオを取得することであって、各ビデオは複数のフレームを含み、各カメラは前記シーンの異なるビューを提供する、取得すること、
    予測モードを選択することであって、該予測モードは、時間予測モード、空間予測モード、及びビュー補間予測モードの中から選択される、選択すること、及び
    前記選択された予測モードに従って、前記ビデオの前記複数のフレームを複数の低域フレーム、複数の高域フレーム、及びサイド情報に分解することであって、前記時間予測モードの場合、前記サイド情報は動き情報に対応し、前記空間予測モードの場合、前記サイド情報は視差情報に対応し、前記ビュー補間予測モードの場合、前記サイド情報は動き情報、視差情報及び奥行き情報に対応する、分解すること
    を含む、マルチビュービデオを分解する方法。
  2. 前記高域フレームは、基準フレームとして前記低域フレームを用いて、前記選択された予測モードに従って、予測誤差を符号化する、請求項1に記載のマルチビュービデオを分解する方法。
  3. 前記低域フレーム及び前記高域フレームは格子パターンを形成し、該格子パターンは、空間次元において1つの瞬間毎に前記低域フレームと前記高域フレームが交番し、また該格子パターンは、時間次元において特定の異なるビュー毎に前記低域フレームと前記高域フレームが交番する、請求項1に記載のマルチビュービデオを分解する方法。
  4. リフティングベースのウェーブレット変換が前記低域フレームに対して行われて、前記予測誤差を符号化する前記高域フレームが求められる、請求項2に記載のマルチビュービデオを分解する方法。
  5. 前記空間次元及び前記時間次元における4つの最近傍低域フレームからの予測に基づいて各高域フレームを生成すること
    をさらに含む、請求項3に記載のマルチビュービデオを分解する方法。
  6. 前記動き情報は、低域フレームに対する動き推定検索によって得られ、前記視差情報は、低域フレームに対する視差推定検索によって得られる、請求項に記載のマルチビュービデオを分解する方法。
  7. 前記動き情報は、前記複数のフレームに対して動き補償時間フィルタリングを適用するために用いられ、前記視差情報は、前記複数のフレームに対して視差補償ビュー間フィルタリングを適用するために用いられる、請求項に記載のマルチビュービデオを分解する方法。
  8. 各フレームは複数の画素ブロックを含み、前記動き補償時間フィルタリング及び前記視差補償ビュー間フィルタリングは、前記選択された予測モードに従って各フレームの各ブロックに対して適応的に行われる、請求項に記載のマルチビュービデオを分解する方法。
  9. 費用関数m=argminJ(m)を最小化することであって、ここで、J(m)=D(m)+λR(m)であり、Dは歪みであり、λは重みパラメータであり、Rはレートであり、mは前記候補モードの組を示し、mは前記費用関数に基づいて選択された最適な予測モードを示し、それによって、前記予測モードを適応的に選択する、最小化すること
    をさらに含む、請求項に記載のマルチビュービデオを分解する方法。
  10. 前記動き補償時間フィルタリングがまず各ビデオに個別に適用されて、動きフィルタリングされたフレームが得られ、前記視差補償ビュー間フィルタリングが次に前記フィルタリングされたフレームに適用されて、前記分解されたビデオに時間スケーラビリティが与えられる、請求項に記載のマルチビュービデオを分解する方法。
  11. 前記視差補償ビュー間フィルタリングがまず1つの瞬間毎に全てのフレームに適用されて、フィルタリングされたフレームが得られ、前記動き補償時間フィルタリングが次に前記フィルタリングされたフレームに適用されて、前記分解されたビデオにビュースケーラビリティが与えられる、請求項に記載のマルチビュービデオを分解する方法。
  12. 前記分解は、前の分解段階から結果として得られる低域フレームの組を用いて行われる、請求項1に記載のマルチビュービデオを分解する方法。
  13. 前記低域フレーム及び前記高域フレームは変換、量子化及びエントロピー符号化されて符号化フレームが生成され、前記方法は、
    前記サイド情報を符号化することであって、それによって、符号化サイド情報を生成する、符号化すること、及び
    前記符号化フレーム及び前記符号化サイド情報を多重化することであって、それによって、ビットストリームを生成する、多重化すること
    をさらに含む、請求項1に記載のマルチビュービデオを分解する方法。
  14. 新たなビュー及び1つの瞬間を選択すること、
    前記新たなビューに近接し且つ前記瞬間にある前記低域フレームを補間することであって、それによって、補間フレームを形成する、補間すること、及び
    前記高域フレームを現フレームと前記補間フレームの間の予測誤差として生成することをさらに含む、請求項1に記載のマルチビュービデオを分解する方法。
  15. 前記補間は奥行き値に基づく、請求項14に記載のマルチビュービデオを分解する方法。
  16. 前記奥行き値は、前記現フレームのブロック毎に適応的に選択される、請求項15に記載のマルチビュービデオを分解する方法。
  17. 前記ビットストリームを復号化することであって、それによって、前記複数のビデオを再構成する、復号化すること
    をさらに含む、請求項13に記載のマルチビュービデオを分解する方法。
  18. ビューの数が前記複数のビデオについて低減される、請求項17に記載のマルチビュービデオを分解する方法。
  19. 前記再構成されたビデオは、低減された時間レートを有する、請求項17に記載のマルチビュービデオを分解する方法。
  20. マルチビュービデオを分解するシステムであって、
    或るシーンについて複数のビデオを取得するように構成される複数のカメラであって、各ビデオは複数のフレームを含み、各カメラは前記シーンの異なるビューを提供する、複数のカメラと、
    予測モードを選択する手段であって、該予測モードは、時間予測モード、空間予測モード、及びビュー補間予測モードの中から選択される、選択する手段と、
    前記選択された予測モードに従って、前記ビデオの前記複数のフレームを複数の低域フレーム、複数の高域フレーム、及びサイド情報に分解する手段であって、前記時間予測モードの場合、前記サイド情報は動き情報に対応し、前記空間予測モードの場合、前記サイド情報は視差情報に対応し、前記ビュー補間予測モードの場合、前記サイド情報は動き情報、視差情報及び奥行き情報に対応する、分解する手段と
    を備える、マルチビュービデオを分解するシステム。
JP2006522813A 2004-12-17 2005-11-30 マルチビュービデオを分解する方法及びシステム Expired - Fee Related JP4786534B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/015,390 2004-12-17
US11/015,390 US7468745B2 (en) 2004-12-17 2004-12-17 Multiview video decomposition and encoding
PCT/JP2005/022497 WO2006064710A1 (en) 2004-12-17 2005-11-30 Method and system for decomposing multiview videos

Publications (2)

Publication Number Publication Date
JP2008524873A JP2008524873A (ja) 2008-07-10
JP4786534B2 true JP4786534B2 (ja) 2011-10-05

Family

ID=35744668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006522813A Expired - Fee Related JP4786534B2 (ja) 2004-12-17 2005-11-30 マルチビュービデオを分解する方法及びシステム

Country Status (5)

Country Link
US (1) US7468745B2 (ja)
EP (1) EP1825690B1 (ja)
JP (1) JP4786534B2 (ja)
CN (1) CN100562130C (ja)
WO (1) WO2006064710A1 (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100987775B1 (ko) * 2004-01-20 2010-10-13 삼성전자주식회사 영상의 3차원 부호화 방법
US7580461B2 (en) * 2004-02-27 2009-08-25 Microsoft Corporation Barbell lifting for wavelet coding
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
KR100779875B1 (ko) * 2005-01-14 2007-11-27 주식회사 휴맥스 다-시점 코딩을 위한 참조 프레임 순서 설정 방법 및 그방법을 기록한 기록매체
KR101199498B1 (ko) * 2005-03-31 2012-11-09 삼성전자주식회사 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
KR100732961B1 (ko) * 2005-04-01 2007-06-27 경희대학교 산학협력단 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
EP1905244A4 (en) * 2005-07-18 2010-12-01 Korea Electronics Telecomm PREDICTIVE ENCODING / DECODING DEVICE THROUGH SPATIO-TEMPORAL DIMENSIONAL REFERENCE IMAGE PADS AND METHOD OF USE
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
WO2007052216A1 (en) * 2005-11-04 2007-05-10 Koninklijke Philips Electronics N.V. Rendering of image data for multi-view display
KR100667830B1 (ko) * 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
KR100943912B1 (ko) * 2006-01-12 2010-03-03 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
US8044994B2 (en) * 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
WO2008005124A2 (en) * 2006-07-05 2008-01-10 Thomson Licensing Methods and apparatus for multi-view video encoding and decoding
EP2039170B1 (en) * 2006-07-06 2019-09-04 InterDigital VC Holdings, Inc. Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding
CN101491099B (zh) 2006-07-11 2011-09-21 汤姆森特许公司 使用虚拟参考画面的方法及装置
JP5013993B2 (ja) * 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
US20090290643A1 (en) * 2006-07-12 2009-11-26 Jeong Hyu Yang Method and apparatus for processing a signal
JP5170786B2 (ja) * 2006-10-25 2013-03-27 韓國電子通信研究院 マルチビュービデオのスケーラブルコーディングおよびデコーディング方法、ならびにコーディングおよびデコーディング装置
DE102006055641B4 (de) * 2006-11-22 2013-01-31 Visumotion Gmbh Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
KR20090111833A (ko) * 2007-01-17 2009-10-27 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
US8923399B2 (en) 2007-01-24 2014-12-30 Lg Electronics Inc. Method and an apparatus for processing a video signal
KR101366250B1 (ko) * 2007-06-19 2014-02-25 삼성전자주식회사 영상 분할을 이용한 영상 부호화, 복호화 방법 및 장치
WO2009023091A2 (en) * 2007-08-15 2009-02-19 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
US20090118600A1 (en) * 2007-11-02 2009-05-07 Ortiz Joseph L Method and apparatus for skin documentation and analysis
CN101170702B (zh) * 2007-11-23 2010-08-11 四川虹微技术有限公司 多视角视频编码方法
JP5035154B2 (ja) * 2008-03-07 2012-09-26 富士通株式会社 映像信号処理装置及び映像信号処理方法
JP5596669B2 (ja) 2008-04-10 2014-09-24 ジーブイビービー ホールディングス エス.エイ.アール.エル. ライブ作品におけるコンテンツ置換方法及び装置
KR101727311B1 (ko) 2008-04-25 2017-04-14 톰슨 라이센싱 깊이 정보에 기초한 디스패리티 예측을 구비한 다중 시점 비디오 코딩
WO2009145749A1 (en) * 2008-05-28 2009-12-03 Thomson Licensing System and method for depth extraction of images with forward and backward depth prediction
DE102009050368A1 (de) 2008-10-24 2010-05-27 Magna Electronics Europe Gmbh & Co.Kg Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
KR101590633B1 (ko) * 2008-11-11 2016-02-02 삼성전자주식회사 슬라이스 단위로 분할된 동영상을 처리하는 동영상 부호화/복호화장치 및 동영상 부호화/복호화방법
JP5159959B2 (ja) * 2008-12-25 2013-03-13 ドルビー ラボラトリーズ ライセンシング コーポレイション アップサンプリングのためにビュー間の視差に基づく適応補間を用いるデインターリーブされたビューの再構成
WO2010073513A1 (ja) 2008-12-26 2010-07-01 日本ビクター株式会社 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム
CN101884220B (zh) * 2009-01-19 2013-04-03 松下电器产业株式会社 编码方法、解码方法、编码装置、解码装置、程序及集成电路
CN103561273B (zh) * 2009-03-26 2016-10-05 松下电器(美国)知识产权公司 编码装置及方法、错误检测装置及方法、解码装置及方法
US8619198B1 (en) 2009-04-28 2013-12-31 Lucasfilm Entertainment Company Ltd. Adjusting frame rates for video applications
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US8817071B2 (en) * 2009-11-17 2014-08-26 Seiko Epson Corporation Context constrained novel view interpolation
CA2790268A1 (en) * 2010-02-24 2011-09-01 Nippon Telegraph And Telephone Corporation Multiview video encoding method, multiview video decoding method, multiview video encoding apparatus, multiview video decoding apparatus, and program
JPWO2012029883A1 (ja) * 2010-09-03 2013-10-31 ソニー株式会社 符号化装置および符号化方法、並びに復号装置および復号方法
US20120114036A1 (en) * 2010-11-10 2012-05-10 Hong Kong Applied Science and Technology Research Institute Company Limited Method and Apparatus for Multiview Video Coding
HU1000640D0 (en) * 2010-11-29 2011-02-28 Holografika Hologrameloeallito Fejlesztoe Es Forgalmazo Kft Image coding and decoding method and apparatus for efficient encoding and decoding of 3d field content
CN102271270A (zh) * 2011-08-15 2011-12-07 清华大学 一种双目立体视频拼接方法及拼接装置
BR112014007494B1 (pt) 2011-09-29 2022-05-31 Sharp Kabushiki Kaisha Dispositivo de decodificação de imagem, método de decodificação de imagem, e dispositivo de codificação de imagem
DK2763414T3 (da) * 2011-09-29 2020-11-30 Sharp Kk Billedafkodningsindretning og fremgangsmåde til billedafkodning til udførelse af konvertering af bi-forudsigelse til uni-forudsigelse
US20130163880A1 (en) * 2011-12-23 2013-06-27 Chao-Chung Cheng Disparity search methods and apparatuses for multi-view videos
TWI533663B (zh) 2012-01-17 2016-05-11 晨星半導體股份有限公司 立體影像處理裝置及立體影像處理方法
WO2014010584A1 (ja) * 2012-07-09 2014-01-16 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
US9781416B2 (en) * 2013-02-26 2017-10-03 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
CN103196370B (zh) * 2013-04-01 2015-05-27 北京理工大学 一种导管接头空间位姿参数的测量方法和装置
GB2524960B (en) * 2014-04-04 2019-05-15 Imagineer Systems Ltd Processing of digital motion images
US10368084B2 (en) * 2014-11-27 2019-07-30 Kt Corporation Video signal processing method and device
US10448030B2 (en) * 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
EP3298783B1 (en) * 2016-04-15 2020-11-18 Magic Pony Technology Limited Motion compensation using temporal picture interpolation
JP7025269B2 (ja) * 2018-04-06 2022-02-24 日本放送協会 符号化装置、復号装置、変換装置及び学習装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5585852A (en) * 1993-06-16 1996-12-17 Intel Corporation Processing video signals for scalable video playback using independently encoded component-plane bands
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
KR100433625B1 (ko) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치

Also Published As

Publication number Publication date
WO2006064710A1 (en) 2006-06-22
CN100562130C (zh) 2009-11-18
CN101036397A (zh) 2007-09-12
US20060132610A1 (en) 2006-06-22
EP1825690A1 (en) 2007-08-29
US7468745B2 (en) 2008-12-23
JP2008524873A (ja) 2008-07-10
EP1825690B1 (en) 2014-08-13

Similar Documents

Publication Publication Date Title
JP4786534B2 (ja) マルチビュービデオを分解する方法及びシステム
EP1793609B1 (en) Method and system for managing multiview videos
JP5274766B2 (ja) マルチビュービデオを予測する方法及びシステム
JP5106830B2 (ja) マルチビュービデオにランダムにアクセスする方法及びシステム
EP2781090B1 (en) Method and system for processing multiview videos of scene
JP5116394B2 (ja) 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
JP5154681B2 (ja) マルチビュービデオをエンコードする方法
KR20220131887A (ko) 주변 블록이 갖는 방향성을 기초로 인트라 예측을 수행하는 비디오 인코딩 장치, 비디오 디코딩 장치 및 비디오 디코딩 방법
JP5013993B2 (ja) 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
EP2870766B1 (en) Method and system for processing multiview videos for view synthesis using motion vector predictor list
Hewage et al. Frame concealment algorithm for stereoscopic video using motion vector sharing
Tao et al. Joint texture and depth map video coding based on the scalable extension of H. 264/AVC
Stepanov et al. Compression of light fields
KR20110087871A (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110713

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees