JP6029583B2 - 立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法 - Google Patents

立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法 Download PDF

Info

Publication number
JP6029583B2
JP6029583B2 JP2013518483A JP2013518483A JP6029583B2 JP 6029583 B2 JP6029583 B2 JP 6029583B2 JP 2013518483 A JP2013518483 A JP 2013518483A JP 2013518483 A JP2013518483 A JP 2013518483A JP 6029583 B2 JP6029583 B2 JP 6029583B2
Authority
JP
Japan
Prior art keywords
depth map
bandwidth
color
image
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013518483A
Other languages
English (en)
Other versions
JP2014503134A (ja
Inventor
ギャディ,ウイリアム,エル.
セラン,ヴィドゥヒア
Original Assignee
エー2ゼットロジックス,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エー2ゼットロジックス,インコーポレーテッド filed Critical エー2ゼットロジックス,インコーポレーテッド
Publication of JP2014503134A publication Critical patent/JP2014503134A/ja
Application granted granted Critical
Publication of JP6029583B2 publication Critical patent/JP6029583B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/02Colour television systems with bandwidth reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0202Image watermarking whereby the quality of watermarked images is measured; Measuring quality or performance of watermarking methods; Balancing between quality and robustness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

本発明は、包括的には、色情報(例えばRGBデータ)とともに深度(depth:奥行き)情報を送受信するデジタル画像処理システムに関し、より詳細には、第1のデジタル画像処理システムによって送信された深度情報及び色情報を受信しかつ使用して、1つ又は複数の3次元(3D)ビュー(例えば、立体ビュー又は自動立体ビュー)をレンダリングする方法及びデジタル画像処理システムに関する。
[関連出願の相互参照]
本願は、2010年7月7日に出願された米国仮特許出願第61/362,134号の利益を主張し、この米国仮特許出願は引用することによりその全体が本明細書の一部をなすものとする。
3次元(3D)ビデオ及び画像伝送システム、特に3Dテレビ(3D−TV)は、近年、市場で受け入れられてきた。従来技術によるシステムに従って視聴者に3D立体画像を提示するためには、一方は視聴者の左眼用に意図され、他方は視聴者の右眼用に意図されている少なくとも2つの別個のビューを生成する必要がある。幾つかの従来技術による3D−TVシステム及び方法は、既存のテレビ伝送規格と互換性を提供するように設計されてきた。例としては、フレームコンパチブルパッキング法が挙げられ、そのうちの1つは、2010年8月11日付の、http://www.mpegif.org/m4if/bod/Working%20Groups/WP_MPEG_Standards_for_3DTV.pdfから得られる「Overview of MPEG Standards for 3DTV」(Motorola Corporation、2010)に記載されており、それは引用することによりその全体が本明細書の一部をなすものとする。直接言及していないが、本明細書において参照する全ての文献/文書/記事は、引用することによりその全体が本明細書の一部をなすものとする。
本質的に、フレームコンパチブルパッキング法は、2つの立体ビュー(すなわち、右眼ビュー及び左眼ビュー)をサイドバイサイド構成又はオーバーアンダー構成等、標準解像度フレームにパッキングすることによって機能する。この方法は、確かに、既存のチャネルを介した3D TVコンテンツの伝送を可能にするが、不都合なことに、旧式の2Dテレビでの視聴者は、3D−TV、又は少なくとも3D対応セットトップボックス若しくは3D対応TVなしには見ることができない、パッキングされたフレームを見ることになる。さらに、この従来技術による方法では、著しい解像度の劣化があり、それは、2つの立体フレーム(すなわち左眼フレーム及び右眼フレーム)を1つのフレームに押し込むために、フレームごとの解像度の半分が犠牲にされるためである。解像度劣化に加えて、この従来のシステム/方法を使用している放送事業者、ケーブル事業者及び衛星放送事業者等のテレビシステム事業者は、3D−TVをこのように放送するために、新たな中継器のセット、増大した帯域幅又は追加のチャネルを導入することが必要であり、著しい費用がかかることになる。
フレームコンパチブルパッキング伝送方法に対する別の欠点は、両目の間の視差の量が伝送時に固定されており、受信機システムにおける種々のサイズのディスプレイが非常に種々の視差を示すことになる、ということである。エンドユーザーには、これらの問題を補償するように実際の視差を調整する機会がほとんどない。よくても、3D−TVで画像を見ながら右眼表示に対して左眼表示を変位させることにより、基準視差を調整することは理論的には可能である。不都合なことに、オブジェクト間視差を調整することはできない。
本技術分野において既知である他の方法は、マルチビュービデオ符号化(Multiview Video Coding)用のH.264/AVCビデオ圧縮規格に対する改定版(すなわち、「ISO/IEC 14496-10, Advanced Video Coding, Annex H: Multiview Video Coding」)に記載されているように、帯域外でビュー間予測を符号化することにより上述した問題の多くに対処する。多くの互換性問題は、古い方のコーデックが余分なデータを破棄するようにビットストリームにおける第2の(又は他方の)ビューを符号化し、それによって単一の2Dビューをレンダリングすることによって改善された。このように符号化された放送は、新たなチャネルを割り当てる必要がないことによって利益があり、同じチャネルを用いて2D放送及び3D放送を送信することができる。しかしながら、フレームパッキング法と同様に、エンドユーザーは、視聴する時点で視差に対して細かく制御することができない。上述したように、よくても、視聴者は、理論的には基準視差を制御することができるが、実際のオブジェクト間視差を制御することはできない。
さらに、ステレオ放送用のこうした符号化方式に関するオーバーヘッドは25パーセントから35パーセントであり、したがって、事業者には著しい帯域幅のアップグレードが必要である。したがって、この種のビデオ配信における現行の帯域幅割当が、それに従って増大する。さらに、こうしたオーバーヘッドコストは、バックホールに対して徐々に増大するコストを課し、例えば、同じビデオチャネルは同じ数の衛星中継器を使用することができない。H.264/AVCに基づく方法による別の主な問題は、インフラ全体がH.264/AVCに基づいて構築されていると想定されているが、それは事実とは異なる、ということである。大部分の米国の国内ビデオ配信インフラは、依然としてMPEG2に基づいている。したがって、H.264/AVCビデオの伝送では、依然としてMPEG2を用いている者に対して放送及び配信符号化インフラに対する大幅なアップグレードが必要であり、それは非常に費用のかかる提案である。さらに、事業者が、3D−TV放送を受信することを望んでいる者に対して新たな規格をサポートするために顧客構内機器をアップグレードすることに関する著しいコストを引き受けることが必要であり、その結果、フレームコンパチブル方法が課すものではない追加の資本コストがかかることになる。
したがって、望ましいがまだ提供されていないものは、限定されないがMPEG2符号化及び復号化を含む既存の伝送チェーンと完全な後方互換性がある、低い増分帯域幅コストで又は増分帯域幅コストなしで立体画像データを伝送するシステム及び方法であって、受信機システムにおいて、送信された立体画像データを高品質に再構築する方法を提供する、システム及び方法である。
3次元(3D)像を送信するように構成されている送信機及びコンピューター実装方法を提供することによって、本技術分野において上述の問題が対処され、技術的解決策が達成される。本方法は、少なくとも1つの3D画像から深度マップ(すなわちZチャネル)及びカラーデータを抽出するステップと、深度マップの帯域幅を削減して、帯域幅削減深度マップを生成する、削減するステップと、カラーデータ内に帯域幅削減深度マップを挿入して、帯域幅削減3D画像を生成する、挿入するステップと、ディスプレイに送り出すために帯域幅削減3D画像を伝送チャネルに送出するステップと、を含む。本明細書において用いるとき、「Zチャネル」という用語は、画像データの単一チャネルの深度マップを表すものであり、そこでは、データの各画素は、対応するカラー画像の各画素の範囲又は距離を表す。
本発明の一実施の形態によれば、前記深度マップの帯域幅を削減することは、前記カラーデータにおける少なくとも1つのオブジェクト境界に対応する少なくとも1つの不連続性を含む、前記深度マップの少なくとも1つの領域を保持することを含む。前記深度マップの帯域幅を削減することは、前記深度マップにおける深度値を表す分布におけるモダリティに関連する深度値を除去することを更に含むことができる。本発明の一実施の形態によれば、本方法は、
前記深度マップにおける深度値のヒストグラムを生成することと、
前記ヒストグラムに対してモーダル解析を実行することと、
により、前記モダリティを特定することを更に含むことができる。本方法は、前記ヒストグラムに対してグレースケールモルフォロジークロージング演算を適用することであって、0.0又は1.0の深度値を除去する、適用することを更に含むことができる。「モダリティ」という用語は、深度値の頻度ヒストグラム等における、値の出現の頻度における主成分を指すように意図されている。こうしたモダリティは、頻度分布(複数の場合もある)の大きい極大値によって示される。0.0又は1.0の深度(Z)値に言及するとき、意図されているものは、正規化された深度マップ又は0.0から1.0の範囲を有する深度マップであり、ここで、0.0は無限大での距離を示し、1.0は任意にカメラに近い点を表し、0.5はカメラシステムの自然収束点を表す。
本発明の一実施の形態によれば、本方法は、メディアン画像処理フィルターを用いて前記深度マップをフィルタリングすることを更に含むことができる。前記メディアン画像処理フィルターは5×5メディアンフィルターとすることができる。
本発明の一実施の形態によれば、本方法は、前記深度マップに対して空間デシメーション演算を実行することと、
前記深度マップに対して可逆的な統計的符号化方法を適用することと、
を更に含むことができる。前記深度マップに対して空間デシメーション演算を実行することは、前記深度マップにキュービック削減フィルターを適用することと、繰返しの連続した1オクターブバイキュービック削減を実行することとのうちの少なくとも一方を含むことができる。前記深度マップに対して可逆的な統計的符号化方法を適用することは、
前記深度マップを7ビット/画素表現に変換して、ハフマン符号化方式を用いて統計的に符号化することと、
前記深度マップに対して算術符号化を適用することと、
前記深度マップに対して2次元コードブック符号化方式を適用することと、
のうちの少なくとも1つを更に含むことができる。
本発明の一実施の形態によれば、前記カラーデータ内に前記帯域幅削減深度マップを挿入することは、前記深度マップを透かしとしてカラーデータに追加することを更に含むことができる。
また、3次元(3D)像を受信する受信機及びコンピューター実装方法を提供することによって、本技術分野において上述の問題が対処され、技術的解決策が達成される。本方法は、
帯域幅削減深度マップ及びカラーデータを含む帯域幅削減3D画像を受信するステップと、
前記カラーデータの統計的ドメインを使用するフィルターを適用して前記帯域幅削減深度マップの帯域幅を復元する、適用するステップと、
を含む。前記フィルターは、少なくとも1つのオブジェクト境界を含む前記カラーデータの不連続性を一致させることにより、前記帯域幅削減深度マップにおける不連続性を復元するように構成される。本方法は、深度画像に基づくレンダリング(DIBR)法を適用することであって、前記復元された深度マップ及び前記カラー画像をワープさせて、立体3Dディスプレイ又は自動立体3Dディスプレイに適した少なくとも1つのビューを構築する、適用することを更に含むことができる。
本発明の一実施の形態によれば、少なくとも1つの前記フィルターはRGBZOフィルターである。前記RGBZOフィルターは、第1のドメインとしての前記帯域幅削減深度マップ、第2のドメインとしての前記カラーデータ、及び空間重み付け関数によって提供される2つのラジオシティ重み付け関数を使用する。
本発明の一実施の形態によれば、本方法は、前記帯域幅削減深度マップに対して、第1オクターブのアップスケーリングされた深度マップが生成されるまで、1オクターブバイキュービックアップスケーリング及びそれに続くRGBZOフィルターの適用の反復を繰り返し施すステップを更に含むことができる。前記帯域幅削減深度マップに対して、1オクターブバイキュービックアップスケーリング及びそれに続くRGBZOフィルターの適用の反復を繰り返し施すことは、前記深度マップのエッジ勾配と前記カラーデータのカラーエッジ勾配との差を含む誤差関数を最小化して、前記アップスケーリングされた深度マップの出力を正則化することができる。
本発明の一実施の形態によれば、本方法は、前記帯域幅削減深度マップに対して、1オクターブバイキュービックアップスケーリング及びそれに続くRGBZOフィルターの適用の反復を繰り返し施すステップの前に、前記帯域幅削減深度マップに対して可逆復号化方法を適用するステップを更に含むことができる。
本発明の一実施の形態によれば、前記方法(DIBR法)を適用するステップは、
前記カラーデータにオプティカルフロー法を適用するステップと、
前記カラーに対して動き補償及び画像ワーピングを適用して、動き補償画素のテーブルを生成する、適用するステップと、
前記動き補償画素のテーブルから遮られた画素の候補の時間予測及び空間予測のうちの一方を適用するステップと、
前記遮られた画素の候補に対して統計的インペインティング(statistical in-painting)手順を適用するステップと、
前記統計的インペインティング手順から得られた画素をワープさせ、表示するための画像の左眼ビュー及び右眼ビューを得る、ワープさせるステップと、
を更に含むことができる。本方法は、前記深度マップからのディスオクルージョンを分類して、遮られた画素の候補の空間予測に通知する、分類するステップと、
前記深度マップにZ平滑化法を適用して、処理済み深度マップを生成する、適用するステップと、
を更に含むことができる。前記ワープさせるステップは前記処理済み深度マップによって通知される。
本発明の一実施の形態によれば、送信機及び/又は受信機は、特定用途向け集積回路(ASIC)を用いて実装することができる。
本発明は、同様の参照数字が同様の要素を指す添付図面に関連して考慮される、以下に提示する例示的な実施形態の詳細な説明からより容易に理解されるであろう。
本発明の一実施形態による例示的な3Dデジタル処理システムのブロック図である。 本発明の一実施形態による、立体ディスプレイ用の図1の例示的な送信機のハードウェアブロック図である。 本発明の一実施形態による、立体ディスプレイ用の図1の例示的な受信機のハードウェアブロック図である。 本発明の一実施形態による、RGB+Z変換及び送信方法の例示的なステップを示すブロック図である。 本発明の一実施形態による、図3Aのより詳細なブロック図である。 本発明の一実施形態による、立体ディスプレイ用の受信及び変換方法の例示的なステップを示すブロック図である。 本発明の一実施形態による、マルチビュー自動立体ディスプレイ用の受信及び変換方法の例示的なステップを示すブロック図である。 本発明の一実施形態による、図2Bの受信機システムによって使用される例示的な深度画像に基づくレンダリング(depth-image-based rendering)(DIBR)法の例示的なステップを示すブロック図である。 左眼及び右眼の立体画像対の例を示す図である。 図7の立体画像対に対応するRGB+Z対を示す図である。 本発明の前処理ステップによる処理後のZチャネルを示す図である。 本発明のデシメーションステップによる処理後のZチャネルの拡大図である。 単純な(naive)楕円平滑化(elliptical smoothing)関数が適用された後のZチャネルを示す図である。 ドメインとしてRGBデータを利用する統計処理及び復元の後のZチャネルを示す図である。 本発明の一実施形態による例示的な深度画像に基づくレンダリング法を介する、アップスケーリング後のデシメートされたZチャネルを利用する、単純な再構築された左眼及び右眼の立体画像対を示す図である。 本発明の一実施形態による例示的な深度画像に基づくレンダリング法を介する、アップスケーリングされ平滑化関数により処理された後のデシメートされたZチャネルを利用する、単純な再構築された左眼及び右眼の立体画像対を示す図である。 例示的な深度画像に基づくレンダリング法を介する、好ましい実施形態による復元されたZチャネルを利用する、再構築された左眼及び右眼の立体画像対を示す図である。
添付図面は、本発明の概念を例示する目的のものであり、比例尺で描かれていない可能性があることが理解されるべきである。
本発明は、3次元(3D)画像を送受信するコンピューター実装画像処理方法及びコンピューター実装画像処理システムに関する。図1は、本発明の一実施形態による例示的な3Dデジタル処理システム100のブロック図を示す。システム100は、コンピューター実装受信機102と、コンピューター実装送信機104と、後述する任意選択的な深度画像に基づくレンダリング(DIBR)モジュール108と、任意選択的なディスプレイ110とを備えている。システム100は、送信機102及び受信機104に通信可能に接続されているネットワーク104を、含まないが使用している。送信機102は、伝送チェーン101からカラーデータ(例えばRGB、YUV等)を含む3D立体画像データを受信するか、又は送信機102内で3D立体画像データを生成する。送信機102は、限定されないがMPEG2符号化及び復号化を含む、既存の伝送チェーン101と完全な後方互換性を有しながら、低い増分帯域幅コストで又は増分帯域幅コストなしで3D立体画像データの帯域幅深度情報(すなわちZチャネル)を削減する。
カラーデータ及び帯域幅削減Zチャネルは、送信機102により、通信可能に接続されているネットワーク104を介してコンピューター実装受信機106に送信され、受信機106は、後述する本発明の一実施形態によるフィルターを用いて、カラーデータ及び帯域幅削減Zチャネルから立体画像を再構築する。後述する任意選択的な深度画像に基づくレンダリング(DIBR)モジュール108は、立体3Dディスプレイ又は自動立体3Dディスプレイ110に適している少なくとも1つのビュー(例えば、左眼画像又は右眼画像)を構築するように、復元されたZチャネル及びカラーデータをワープさせるように構成されている。「深度画像に基づくレンダリング」という用語は、画像の入力及び深度マップから新規のビューを作成する技法を指す。本技術分野において多くの深度画像に基づくレンダリング法が既知であり、典型的なプロセスは、入力画像の各画素に対して水平画素オフセットを使用する。オフセットの大きさは、想定された収束点と協働して深度マップ画素値に比例するように計算され、そこでは、所与の深度マップ値(たとえば0.5)はゼロオフセットを提示するものと想定される。この収束点値を超えるか又は下回る深度値には、それぞれ、左方向への画素オフセット又は右方向への画素オフセットが割り当てられる。
本発明の一実施形態によれば、受信機106は、再構築された立体画像を、伝送チェーン101を介して更に返信することができる。
「コンピューター」又は「コンピュータープラットフォーム」という用語は、デスクトップコンピューター、ラップトップコンピューター、メインフレームコンピューター、サーバー、ハンドヘルドデバイス、デジタル信号プロセッサ(DSP)、組込みプロセッサ(その例を、図2A及び図2Bに関連して後に説明する)、又はデータを処理することができる任意の他のデバイス等、任意のデータ処理デバイスを含むように意図されている。「通信可能に接続された」という用語は、有線であっても無線であっても、データを通信することができる、任意のタイプの接続を含むように意図されている。「通信可能に接続された」という用語は、限定されないが、単一コンピューター内のデバイス及び/又はプログラム間、又はネットワークを介するデバイス及び/又は別個のコンピューター間の接続を含むように意図されている。「ネットワーク」という用語は、限定されないが、OTA伝送システム(無線伝送、ATSC、DVB−T)、パケット交換網を介するビデオ伝送システム(TCP/IP、例えばインターネット)、衛星伝送システム(マイクロ波、MPEGトランスポートストリーム又はIP)、直接放送衛星伝送システム、アナログケーブル伝送システム(RF)、デジタルビデオ伝送システム(ATSC、HD−SDI、HDMI、DVI、VGA)等を含むように意図されている。
送信機102は、例えば、送信機能が組み込まれたカメラ、カメラ送受信機システム、ビデオ符号化機器、ビデオの統計多重化機器(スタットマックス)、ビデオキャプチャカードを備えたコンピューター、ビデオファイルをスプーリング/ストリーミングするカメラメディアサーバーが取り付けられたコンピューター、ビデオファイルをスプーリング/ストリーミングするPC等、任意の適切なビデオ伝送デバイスを含むことができる。受信機106は、任意選択的にDIBRモジュール108及びディスプレイ110を備えた、任意の適切な3Dビデオ受信デバイスを含むことができる。適切な3Dビデオ受信デバイスは、例えば、PC、タブレット、携帯電話、PDA、ビデオ復号化機器、ビデオ多重分離機器、テレビ、テレビ配信デバイス(例えば、AppleTV(商標))、テレビセットトップボックス及びDVRを含むことができる。
Zチャネルデータが、例えばステガノグラフィー法を用いて帯域内に(すなわち、送信される3Dカラー画像内に)埋め込まれる場合、システム100の幾つかの実施形態は、完全に後方互換性かつ前方互換性の2D及び3Dのビデオ信号方式及び伝送を提供する。「ステガノグラフィー」という用語は、概して、画像に情報を隠蔽することを指す。伝送システム102の関連では、「ステガノグラフィー」という用語は、人間の視聴者に見えないか又は明白でないように、Zチャネルをカラー画像データ内に埋め込むか又は隠蔽する手段を指す。
更にまた、ディスプレイ110が自動立体ディスプレイである場合、ディスプレイ110で3D像を見るためにメガネは不要である。
図2Aは、本発明の一実施形態による例示的な送信機102のブロック図を示す。限定しない例として、送信機102は、1つ若しくは複数のデータ記憶システム111及び/又は1つ若しくは複数の画像取込みデバイス112(例えば、1つ若しくは複数のスチールカメラ又はビデオカメラ、シェイプカメラ、LIDAR又はIR写真測量法生成レンジデバイス)から、及び/又は既存の伝送チェーン101から、深度マップ(すなわちZチャネル)及びカラーデータを含むデジタル化された3Dビデオ又は3D静止画像(まとめて「3D画像」と呼ぶ)を受信する。本発明の一実施形態によれば、1つ又は複数の3D画像を、合成して推定し、又は図7に示す例のようにステレオ画像対視差値から計算することができる。任意選択的に、デジタル化されたビデオ又は静止画像を、インターネット等のネットワーク113を介して受信することができる。本発明の一実施形態によれば、送信機システム102は、コンピューティングプラットフォーム116を備えており、デジタルビデオ取込みシステム114もまた任意選択的に備えることができる。デジタルビデオ取込みシステム114は、デジタルビデオのストリームを処理するか、又はアナログビデオをデジタルビデオに変換して、コンピューティングプラットフォーム116が処理することができる形態にする。デジタルビデオ取込みシステム114を、独立型ハードウェアか、又はコンピューティングプラットフォーム116内に直接差し込むことができるファイヤワイヤカード等のカードとすることができる。本発明の一実施形態によれば、画像取込みデバイス112は、無線リンク(例えば衛星と地上局との間)及びデジタルデータリンク(例えば、イーサネット、地上局とコンピューティングプラットフォーム116との間)等、異種のデータリンクにより、ビデオ取込みシステム114/コンピューティングプラットフォーム116とインターフェースすることができる。コンピューティングプラットフォーム116は、1つ若しくは複数のプロセッサ120を備えた、パーソナルコンピューター又はワークステーション(例えば、Pentium−M1.8GHz PC−104以上)を含むことができ、プロセッサ120は、ビデオデータストリーム124によって1つ若しくは複数のプロセッサ120を介して又は直接コンピューター可読媒体126に提供されるバスシステム122を含む。代替的に、コンピューティングプラットフォーム116を、フィールドプログラマブルゲートアレイ(FPGA)又は特定用途向け集積回路(ASIC)に実装されるグラフィック処理ユニット(GPU)又はデジタル信号プロセッサ(DSP)等、集積回路として実装するか、又はその一部として実装することができる。
コンピューター可読媒体126を、Windowsオペレーティングシステム又はLinuxオペレーティングシステム等、任意選択的なオペレーティングシステムを含む、1つ又は複数のプロセッサ120によって実行される送信機システム102の命令を格納するために使用することもできる。コンピューター可読媒体126を、1つ又は複数のデータベースにおいて本発明のビデオクリップを格納し取出すために更に使用することができる。コンピューター可読媒体126は、RAMメモリ等の揮発性メモリと、フラッシュメモリ、光ディスク(複数の場合もある)及び/又はハードディスク(複数の場合もある)等の不揮発性メモリとの組合せを含むことができる。処理されたビデオデータストリーム128の一部を、インターネット等のネットワーク104に及び/又は伝送チェーン101に後に出力するために、コンピューター可読媒体126に一時的に格納することができる。
図2Bは、本発明の一実施形態による例示的な3D受信機106のブロック図である。限定しない例として、受信機106は、インターネット等のネットワーク104を介して送信機から、及び/又は既存の伝送チェーン101から、カラーデータ及び帯域幅削減Zチャネルを含むデジタル化され処理された3Dビデオ又は3D静止画像(まとめて「帯域幅削減3D画像」と呼ぶ)を受信する。受信機106は、コンピューティングプラットフォーム216を備えることもできる。コンピューティングプラットフォーム216は、1つ若しくは複数のプロセッサ220を備えた、パーソナルコンピューター又はワークステーション(例えば、Pentium−M1.8GHz PC−104以上)を含むことができ、プロセッサ220は、ビデオデータストリーム224によって1つ若しくは複数のプロセッサ220を介して又は直接コンピューター可読媒体226に提供されるバスシステム222を含む。代替的に、コンピューティングプラットフォーム216を、FPGA又はASICに実装されるグラフィック処理ユニット(GPU)又はデジタル信号プロセッサ(DSP)等、集積回路として実装するか、又はその一部として実装することができる。
コンピューター可読媒体226を、Windowsオペレーティングシステム又はLinuxオペレーティングシステム等、任意選択的なオペレーティングシステムを含む、1つ又は複数のプロセッサ220によって実行される受信機106の命令を格納するために使用することもできる。コンピューター可読媒体226を、1つ又は複数のデータベースにおいて本発明の処理されたビデオを格納し取出すために更に使用することができる。コンピューター可読媒体226は、RAMメモリ等の揮発性メモリと、フラッシュメモリ、光ディスク(複数の場合もある)及び/又はハードディスク(複数の場合もある)等の不揮発性メモリとの組合せを含むことができる。復元された3D画像を表示するように構成されたモニター230に後に出力するために、「復元された」深度マップ(すなわち復元されたZチャネル)及びカラーデータを含む、処理されたビデオデータストリーム228(まとめて「復元された3D画像」と呼ぶ)の一部を、コンピューター可読媒体226に一時的に格納することができる。任意選択的に、モニター230に、キーボード232及び/又はマウス234、又は分析者若しくは視聴者が関心のあるオブジェクトを選択するための他の同様の周辺デバイス(複数の場合もある)(例えば、受信機106への入力パラメーターの制御を可能にするユーザーインターフェース要素)を備えることができる。代替的に、復元された3D画像を、伝送チェーン101に渡すことができる。
本発明の実施形態は、深度情報を経済的に送信するために、ステレオ像又はマルチビュー像に関連する深度マップを使用することにより、従来技術の問題を解決することに関する。本出願の説明の範囲外である、ステレオ像又はマルチビュー像から深度マップを生成する種々の方法があるが、「Improved Real-Time Stereo on Commodity Graphics Hardware」(Proceedings of the 2004 Conference on Computer Vision and Pattern Recognition Workshop(CVPRW'04)Volume 3,2004)と題するYang他による記事における教示、及び「Real-time System for High-Image Resolution Disparity Estimation」(IEEE Trans Image Process.,2007 Jan;16(1):280-5)と題するDiaz他による記事における教示は、有益であり、引用することによりその全体が本明細書の一部をなすものとする。深度マップは、適切な符号化プロセスによって有利に使用することができる特有の統計的特性を有している。Woods, Andrew J.他編、「Stereoscopic Displays and Virtual Reality Systems XIII.」(Proceedings of the SPIE,Volume 6055、pp.177〜188(2006))における「Platelet-based coding of depth maps for the transmission of multiview images」と題するMorvan他による記事には、統計的特性がより詳細に探究されている。例示的な統計的特性は、区分線形特性に向かう極めて強い傾向を含む。言い換えれば、深度画像は、カラー画像におけるオブジェクト境界と一致する鮮鋭な不連続性によって境界が画される漸次的な線形変化の大きい領域を含む。
本発明の一実施形態によれば、これらの特性を知ることにより、送信機102は、およそ500〜1で深度マップ(すなわちZチャネル)の帯域幅を削減するように構成されている。さらに、受信機106は、本発明の一実施形態によれば、表示するために復元された3D画像を生成するように構成されている。これにより、深度画像に基づくレンダリング法は、立体ディスプレイ又はマルチビュー自動立体ディスプレイのために高品質で1つ又は複数のビューを合成することになる。本発明の実施形態によって設計されたシステムの特定の利点は、結果としての帯域幅の削減が達成され、それにより、MPEG2等のコーデックによる積極的な(aggressive)低ビットレート圧縮に直面しても、ビュー画像自体のRGBデータ内に深度データ(すなわちZチャネルデータ)をロバストに埋め込むために、粗なデジタル透かし方法を使用することができる、ということである。
本発明の実施形態の主な目的は、Zチャネルを、RGB品質に影響を与えることなくRGBデータ内の帯域内のデジタル透かしを介して送信することができる程度まで、Zチャネルの帯域幅を削減することである。さらに、Zチャネルの帯域幅を適切に大きく削減することにより、帯域内伝送の問題が、MPEG2又はH.264に比較して、RGBデータの知覚符号化に帰するようになる。これにより主な問題が解決され、すなわち、伝送方法及びビットストリームからZチャネルを分離することにより、既存の放送及び伝送チェーンとの完全な後方互換性が達成される。これは、Zチャネルの伝送帯域幅全体の大幅な削減によってのみ可能である。当業者には、補足的な音声チャネルデータ等、Zチャネルデータの帯域内伝送及び帯域外伝送の他の方法を使用することができることが理解されよう。
図3Aは、本発明の一実施形態によるRGB+Z(すなわちカラー+Zチャネル)変換及び伝送方法の例示的なステップを示すブロック図を示す。図3Bは、図3Aのステップ/ブロックを更に詳細に提示する。
図3A及び図3Bに示すステップの場合、図2A及び図2Bにおいて上述し図8において更に例示するように、RGBデータ及びZチャネルデータは、送信機102及び/又は受信機106に対する入力であると想定される。ここで図3A及び図3Bを参照すると、ステップ302において、Zチャネルデータに対して前処理ステップが実行される。好ましい実施形態では、前処理ステップ302は、深度値のヒストグラムが生成されるサブステップ302aと、0.0又は1.0の深度Z値を包囲する分布において著しいモダリティがあるか否かを特定する、生成されたヒストグラムのモード解析が実行されるサブステップ302bとを含む。サブステップ302bが、こうしたモダリティが存在することを示す場合、サブステップ302cにおいて、既知のグレイスケールモルフォロジークロージング演算を実行して、0.0及び1.0の固定の外れ値が除去される(そうでない場合、本方法は、後のステップ302dに移る)。サブステップ302dにおいて、フィルタリングされたデータは、メディアン画像処理フィルターによって1回又は連続して複数回処理され、それは、例えば2回から3回反復する5×5メディアンフィルターの実行であり得る。図9に、処理された深度マップの一例を示す。前処理サブステップ302a〜302dは、IR写真測量法及び視差推定深度マップにおいて共通する数値特異点及びオクルージョン/ディスオクルージョン(disocclusion)アーチファクトに関連する、雑音及び外れ値を除去する。有利には、前処理ステップ302は、有用なレンジ/深度データを破壊することなく、区分線形性推定により完全に一致するようにZチャネルを変更する。
ステップ304において、Zチャネルステップ302に対して空間デシメーション演算が実行される。本発明の一実施形態によれば、ステップ304を、キュービック削減フィルターの適用等、単一ステップで実施することができる。本発明の別の実施形態によれば、好ましいが僅かによりコストのかかる演算は、より多くの中間スケールの詳細を、すなわちサブステップ304e〜304hにおいて保持して、繰返しの連続した1オクターブバイキュービック削減を実行する(例えば4回の削減を行い、それによりZチャネルに関連するデータが1/256に削減される)。図10は、こうしたデシメートされたZチャネルを示す。当業者は、Zチャネルの帯域幅が徹底的に削減されたが、微細構造情報の全て又は一部も削減され、すなわち、最も重要なことには、オブジェクトのエッジの配置及び向きが失われたことを理解するであろう。本発明の実施形態の主な目的は、受信端でこの情報を復元することである。
ステップ306において、ダイナミックレンジの更なる縮小とそれに続く可逆的な統計的符号化方法とにより、データセットを更に削減することができる。1つの好ましい実施形態では、Zチャネルは、7ビット/画素表現に変換され、ハフマン方式で統計的に符号化される。全体的なデータ削減率は、典型的なZチャネルビデオ系列に対して500対1に近づく。本発明の他の実施形態によれば、ステップ306における可逆的方法の適用としては、限定されないが、算術符号化等の他の統計的符号化方式及び2次元コードブック方式を挙げることができる。1つの好ましい実施形態によれば、時間予測、及びデシメートされたダイナミックレンジ削減ZチャネルデータのDCTドメイン量子化により、更なる削減が可能である。
ステップ308において、削減したZチャネルデータを、透かしとしてRGBデータにステガノグラフィーにより追加することができる。Zチャネルデータを元のRGBのおよそ1/500である帯域幅を有する表現に変換することにより、この時点で、Zチャネルデータをデジタル透かしとしてRGBデータ内で送信するために、標準的なすかし技法を使用することができる。こうした標準的な透かし技法は、MPEG2等の低ビットレート知覚符号化に対して非常にロバストであり得る。好ましい実施形態は、第4オクターブZ値の関連する16×16RGBブロックのクロミナンス内で、所与のデシメートされた深度マップ値の7ビットの各々を符号化する。当業者により、幾つかの条件が満たされる限り非常にロバストである多くの既存の透かし埋込み方法を使用することができ、すなわち、透かしデータ自体の帯域幅が、キャリアデータより大幅に小さい帯域幅であり、そうでなければ、キャリアデータは目に見えるように影響を受けることが理解されよう。さらに、キャリアに対する透かしペイロードの帯域幅が高いことにより、知覚符号化、クロッピング、スケーリング及び色域再マッピング等、ダウンストリーム変換が適用される場合、透かしが喪失する可能性がある。本発明の実施形態は、任意の現行の透かし方法をうまく使用することができるように、Zチャネルデータを十分な削減で処理することを対象とする。
ステップ310において、次いで、透かしデータが埋め込まれた基準ビデオ又は画像のRGBデータが、伝送チェーンの残りを通して伝送することができる通常のRGB画像信号又はRGBビデオ信号として処理される。
当業者は、受信機において、デシメートされたZチャネル等の送信された帯域内透かし入りRGBデータ信号を、或る種の復元なしに直接利用することは、問題があることを理解するであろう。深度画像に基づくレンダリングのフレームワークにおいてこうしたZチャネルを深度マップとして直接利用することにより、図13に示すように著しいアーチファクトがもたらされる可能性がある。合成されたビューにおいて著しいブロッキングアーチファクトが目に見える。復元の1つの方法は、例えば、Javidi, Bahram;Okano, Fumio編「Three-Dimensional TV, Video, and Display III」(Proceedings of the SPIE、Volume 5599、pp.173〜183(2004))において「Non-Uniform Smoothing of Depth Maps Before Image-Based Rendering」と題されたTam他による記事に記載されている技法等、任意の適切な技法に従ってアップスケーリングした後、単純に、デシメートされたZチャネルを水平軸に沿って優先的に平滑化することができる。この手法の結果を図14に示し、それは、前景オブジェクトの著しい幾何学的歪みが目に見えることを示している。これらの歪みは、主にZチャネルデータが実際のオブジェクトの境界を横切るときにもたらされる。実際には、ブロッキングアーチファクトを完全に除去するために十分な平滑化が適用される場合、ZチャネルとRGBチャネルとの間の全ての空間的コヒーレンスが失われ、深刻な幾何学的歪みがもたらされる。この種の左眼ビューと右眼ビューとの間の幾何学的視差及び形状の食違いは、B.Javidi他編「Three-Dimensional Imaging, Visualization, and Display」(Springer-Verlag、New York、2008 pp.417〜466)において「Working Towards Developing Human Harmonic Streoscopic Systems」と題する、Emoto他による記事において教示されているように、視聴者に深刻な苦痛をもたらすことが分かっている。
深度マップの特有の空間特性、すなわち区分線形性に向かう傾向を想起すると、元の深度マップの鮮鋭な境界は、図3A及び図3Bに関連して上述した実施形態に従って送信された、対応するRGB画像のオブジェクト境界に強く相関することを観察することができる。本発明の一実施形態によれば、Zチャネルの元のエッジ不連続性を保存しかつ再現しながら、2ドメインバイラテラルフィルター(「RGBZO」で示され後により詳細に説明する)及びそれに続く1オクターブアップスケーリングを、オブジェクト内のZ勾配を平滑化するために透かし入りRGB信号に繰返し適用することができる。
図4は、本発明の実施形態による、立体ディスプレイ用の受信及び変換方法の例示的なステップを示すブロックであり、図5は、本発明の実施形態による、マルチビュー自動立体ディスプレイ用に変更された図4の方法を示す。ここで図4及び図5を参照すると、伝送チャネルの受信端において、ステップ402において、デシメートされたZチャネル透かしが、受信されたRGBデータからステガノグラフィーによって抽出される。ステップ404において、抽出されたZ透かしに対して、可逆復号化方法が施される。ステップ406において、復号化されたZチャネルデータに対して、Zチャネルデータを処理するためにRGBデータの統計的ドメインを使用する2係数5シグマ/バイラテラルフィルターが施される。ステップ408、410において、Zチャネルデータに対して、連続した順番の1オクターブバイキュービックアップスケーリング及びそれに続くRGBZO演算の実行が、1回のRGBZO演算が第1オクターブのアップスケーリングされたZチャネルに対して実行されるまで繰り返し施される。最後のRGBZOの出力は、「復元された」Zチャネルを構成し、それに対して、抽出されたRGBデータとともに、深度画像に基づくレンダリング(DIBR)法412が施され、それにより、「復元された」Zチャネルデータは、立体3Dディスプレイ(図4)又は自動立体3Dディスプレイ(図5)に適している1つ又は複数の追加のビューを構築するように、現RGB画像をワープさせるために使用される。
本発明のRGBZOバイラテラルフィルターは、幾つかの著しい点で従来技術によるバイラテラルフィルターとは異なる。以下の式1及び式2に定義されているような通常のバイラテラルフィルターは、レンジを構成する空間距離と、重み付けを促進する解析対象の画像内のドメインを構成するラジオシティ距離とによって、適応的にフィルター重みを計算する。より詳細には、入力画像Z、出力画像Z’及びサポートウィンドウ(window of support:近傍領域)Ωに対して、典型的なバイラテラルフィルターは、式1において以下のように定義される。
式中、gはガウス空間重み関数であり、rはラジオシティ重み関数である。ラジオシティに対する典型的な値としては、構成画素サンプルの輝度又は強度が挙げられる。系の入力は、通常、式2及び式3のようにg関数及びr関数を変更する定数係数σ及びσによって提供される。
Zドメインに対するラジオシティ関数rは、上記式3によって定義される。式2は、関数gにおける空間重み付けを定義する。ラジオシティ重み付けは、以下の式4〜式7とその付随する説明とによって定義される。
係数σ及びσの値が小さいほど、空間重み付け寄与及びラジオシティ重み付け寄与の局所性及び類似性がそれぞれ増大する。ラジオシティ関数rの指数の分母におけるL2距離尺度(すなわち、ユークリッド距離)は、エッジ及び境界局所性を十分に識別するのに輝度又は強度のみで十分である画像に適している。
好ましい実施形態では、式4における関数dとして、RGBデータの第2の入力により、第2の画像ラジオシティ領域が提供される。
式中、新たな第2ドメインラジオシティ関数dは、以下の式5によって定義され、
関数dは、単に輝度差ではなく、HSV色空間における色差尺度を測定する。まず、式6におけるようにRGBカラー値から色相値(HSV空間におけるように)が計算される。
関数δは、式7におけるように定義される。
係数σ及びσと同様に、新たな係数σは、RGBデータに対する類似性の局所性の尺度に影響を与える。ラジオシティ重み付けは、Zチャネルのみではなく、RGBチャネルによっても同様に提供される。この結合され、計算されたラジオシティ重み付けは、その後、Zチャネル出力に適用される。このタイプのフィルタリング演算の繰り返される反復には、アップスケーリングされたZチャネルの出力を正則化するという効果があり、Zチャネルのエッジ勾配とRGBチャネルのカラーエッジ勾配との差を含む誤差汎関数を最小化する。RGBチャネル及びZチャネルの両方が0.0から1.0の範囲であると想定すると、こうしたRGBZOフィルターの例示的なパラメーターのセットは以下のようになる。
本発明の一実施形態によれば、このZチャネルを「復元する」ための正則化ステップを、第4オクターブから第1オクターブまでの単一アップスケーリングステップにより、最大解像度Zチャネルに対するRGBZO演算を繰返し反復して、実行することができる。これを、収束までの繰返し反復による勾配降下演算として考えることができる。本発明の一実施形態によれば、図4及び図5において上述したように1回のRGBZO演算が第1オクターブのアップスケーリングされたZチャネルに対して実行されるまで、連続した順序の1オクターブバイキュービックアップスケーリング及びそれに続くRGBZO演算の実行を行うことにより、同じ品質の結果をはるかに低い複雑性で達成することができる。この方法の適用の結果を図12に見ることができ、そこでは、Zチャネルは、上述した方法によって復元されている。明らかに、Zチャネルは、このとき空間的に相関されており、伝送時にデシメーションプロセスにおいて喪失した著しい量の情報が復元されている。
本発明の一実施形態によれば、上述したプロセスにより完全な復元がもたらされない(結合された送信方法及び受信方法を非可逆圧縮の方法になぞらえることができる)場合、再生されたZチャネルデータは、元のZチャネルデータを用いる再構築と大きく見分けがつかないことを平均観察者スコアが示唆する、立体再構築をもたらす。図15は、こうした例示的な復元を示す。
当業者には、本発明の方法の実施形態によれば、深度マップの任意の推定を、より低い解像度で実行し、伝送チェーン101の任意の箇所において受信機106の図4に示すステップによって「処理する」ことができるか、又は図4において教示した受信機104の方法を利用して、相関するRGB画像が与えられると、より低い解像度及びより低い精度の深度マップから、非常に空間的に相関した、オブジェクトコヒーレントな最大解像度深度マップを生成することができることが理解されよう。これにより、深度マップの粗い近似値を、それらの最終的な供給源を問わず、計算し使用することができる。別の好ましい実施形態の一例は、B.Javidi他編「Three-Dimensional Imaging, Visualization, and Display」(Springer-Verlag、New York、2008 pp.153〜182)において「Depth Map Generation for 3-D TV: Importance of Edge and Boundary Information」と題するTam他による記事に教示されているもののような低複雑性方法を使用して、受信機において低解像度で動き又はぼけ等の他のキューから深度を推定し、図4の本方法を用いて、こうした深度マップを深度画像に基づくレンダリングに対して利用する前に処理する。
深度マップとして使用するために適切に復元されたZチャネルを入手すると、残るものは、Zチャネルを使用して、ディスプレイによって必要とされる数の合成ビューを生成することである。立体ディスプレイの場合、2つのビューが必要である。本発明の実施形態による例示的なDIBR法を図6に示す。任意のDIBR法が扱う必要がある主な問題はオクルージョンである。前景オブジェクトが左に又は右に変位する場合、こうした変位により、明確な置換がない背景画素データが現れる可能性がある。遮られたデータを、空間的に、時間的に、又は両方の組合せにより予測する必要がある。
引用することによりその全体が本明細書の一部をなすものとする、2009年9月8日に出願された「System and Method for Determination of Optical Flow」という発明の名称の同時係属中の米国特許出願第12/555,472号において教示されているもののような正確なオプティカルフロー方法(ブロック602)により、遮られた画素に充填するためのあり得る動き補償候補(ブロック606)を含む、各画素に対する確率テーブルを、動き補償画像ワーピング(ブロック604)を介して形成することができる。さらに、適切な時間予測(ブロック610)が利用可能でない場合、「統計的インペインティング」として知られる種類の予測アルゴリズムを利用する空間予測(ブロック608)を使用することができる。「インペインティング」という用語は、画像及びビデオの喪失したか又は劣化した部分を再構築するプロセスを指す。しかしながら、第3の選択肢は、深度マップ自体を空間的にぼかすこと(ブロック612)であり、それには、こうしたディスオクルージョンを覆う前景オブジェクトを幾何学的に歪ませる効果がある。
実際には、例示的なDIBR法は、画像幅の1%未満の程度の低いオクルージョンに対して幾何学的歪みを使用し、時間予測確率テーブルの利用可能性及び信頼性尺度に基づいて、時間予測及び空間予測から選択する。これを行うために、中間段階は、ディスオクルージョン(正:disocclusions)を、Zチャネル自体におけるデータマニフェストに基づいて4つのカテゴリー、すなわち左変位、右変位、完全Z後方変位、完全Z前方変位のうちの1つに分類しようと試みる(ブロック614)。さらに、ディスオクルージョンの水平方向の広がりが推定される。水平方向の広がりを用いて、深度マップの局所的な指向性のぼけが、著しい幾何学的歪みアーチファクトなしにディスオクルージョンを覆うか否かが判断される。そうでなければ、時間予測候補の存在が第2の選択肢であり、時間予測候補が利用可能でない場合、ディスオクルージョンタイプの分類(ブロック614)を用いて、インペイント手順によって使用される空間予測に対し、補間時にいずれの方向(複数の場合もある)を使用するべきかに関して通知される。
ブロック618及び620において、ブロック608、610及び612において前に得られたインペイント候補混合体(ブロック616)に基づいて、画像ワーピングによって左眼ビュー及び右眼ビューを得ることができる。
図6に示すもののようなDIBR法を使用する利益は、事前設定されたか又はユーザーが提供したパラメーターによって可変のディスプレイサイズに適応することができるということである。例示的なシステムでは、仮想ビューの両方を、2つの仮想カメラによってシミュレートすることができる。3つのユーザー入力パラメーター、すなわち、シミュレートされた軸間距離、各仮想カメラに対するシミュレートされた焦点距離及びシミュレートされた収束点を指定することができる。
図6の例示的なDIBR法は、右眼ビューとともに左眼ビューを再生するが、当業者により、左眼ビューとして元のRGBを利用し、両ビューに対する+0.5×焦点距離及び−0.5×焦点距離の代りに、1×焦点距離で右眼ビューのみを合成することにより、効率的使用を達成することができることが理解されよう。
図4と同様に、図5は、8ビュー自動立体出力(ブロック412)を生成するために使用される同じ例示的なDIBR法を用いる、同じ好ましい実施形態を示す。
例示的な実施形態は、単に本発明を例示するものであるということ、及び当業者により、本発明の範囲から逸脱することなく、上述した実施形態の多くの変形を考案することができるということが理解されるべきである。したがって、こうした変形の全てが、添付の特許請求の範囲及びそれらの均等物の範囲に含まれることが意図されている。

Claims (17)

  1. コンピューターによって実施する方法であって、
    帯域幅削減深度マップ及びカラーデータからなる帯域幅削減3D画像を受信するステップ、
    プロセッサを用いて、複数のカラー・チャネルからなる色空間内にカラーデータの色相の統計的ドメインを使用するフィルターを適用して前記帯域幅削減深度マップの帯域幅を復元し、前記フィルターは2つのラジオシティ重み付け関数を使用し、第1のラジオシティ重み付け関数が第1のドメインとしての前記帯域幅削減深度マップによって提供され、第2のラジオシティ重み付け関数が第2のドメインとしての色相値の傾きを取り入れた複数のカラー・チャネルのうちの少なくとも1つのチャネルによって前記色空間に提供されたカラーデータのマルチチャネル色差の測定によって提供され、前記フィルターが空間重み付け関数を使用するステップ及び、
    前記帯域幅削減深度マップに対して、第1オクターブのアップスケーリングされた深度マップが生成されるまで、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施すステップを含み、
    前記帯域幅削減深度マップに対して、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施すステップは、前記深度マップのエッジ勾配と前記カラーデータのカラーエッジ勾配との差を含む誤差関数を最小化して、前記アップスケーリングされた深度マップの出力を正則化することを特徴とするコンピューター実施方法。
  2. 前記フィルターは、少なくとも1つのオブジェクト境界を含む前記カラーデータの不連続性を一致させることにより、前記帯域幅削減深度マップにおける不連続性を復元するように構成される、請求項1に記載の方法。
  3. 深度画像に基づくレンダリング(DIBR)法を適用するステップであって、前記復元された深度マップ及びカラー画像をワープさせて、立体3Dディスプレイ又は自動立体3Dディスプレイに適した少なくとも1つのビューを構築する、適用するステップを更に含む、請求項1に記載の方法。
  4. 前記DIBR法を適用するステップは、
    前記カラーデータにオプティカルフロー法を適用するステップと、
    前記カラーに対して動き補償及び画像ワーピングを適用して、動き補償画素のテーブルを生成する、適用するステップと、
    前記動き補償画素のテーブルから遮られた画素の候補の時間予測及び空間予測のうちの一方を適用するステップと、
    前記遮られた画素の候補に対して統計的インペインティング手順を適用するステップと、
    前記統計的インペインティング手順から得られた画素をワープさせて、表示するための画像の左眼ビュー及び右眼ビューを得る、ワープさせるステップと、
    を更に含む、請求項3に記載の方法。
  5. 前記深度マップからのディスオクルージョンを分類して、遮られた画素の候補の空間予測に通知する、分類するステップと、
    前記深度マップにZ平滑化法を適用して、処理済み深度マップを生成する、適用するステップと、
    を更に含む、請求項4に記載の方法。
  6. 前記ワープさせるステップは、前記処理済み深度マップによって通知される、請求項5に記載の方法。
  7. 前記帯域幅削減深度マップに対して、1オクターブバイキュービックアップスケーリング及びそれに続くフィルターの適用の反復を繰り返し施すステップの前に、前記帯域幅削減深度マップに対して可逆復号化方法を適用するステップを更に含む、請求項1に記載の方法。
  8. 3次元(3D)像を処理するコンピューター実行可能命令を含むコンピューター可読不揮発性媒体であって、前記命令は、
    帯域幅削減深度マップ及びカラーデータを含む帯域幅削減3D画像を受信し、
    複数のカラー・チャネルからなる色空間内にカラーデータの色相の統計的ドメインを使用するフィルターを適用して前記帯域幅削減深度マップの帯域幅を復元し、前記フィルターは2つのラジオシティ重み付け関数を使用し、第1のラジオシティ重み付け関数が第1のドメインとしての前記帯域幅削減深度マップによって提供され、第2のラジオシティ重み付け関数が第2のドメインとしての色相値の傾きを取り入れた複数のカラー・チャネルのうちの少なくとも1つのチャネルによって前記色空間に提供されたカラーデータのマルチチャネル色差の測定によって提供され、前記フィルターが空間重み付け関数を使用し及び、
    前記帯域幅削減深度マップに対して、第1オクターブのアップスケーリングされた深度マップが生成されるまで、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施し、
    前記帯域幅削減深度マップに対して、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施す過程は、前記深度マップのエッジ勾配と前記カラーデータのカラーエッジ勾配との差を含む誤差関数を最小化して、前記アップスケーリングされた深度マップの出力を正則化することを特徴とするコンピューター可読不揮発性媒体。
  9. 前記命令は、深度画像に基づくレンダリング(DIBR)法を適用して、前記復元された深度マップ及びカラー画像をワープさせて、立体3Dディスプレイ又は自動立体3Dディスプレイに適した少なくとも1つのビューを構築する、ように更に構成されている、請求項8に記載のコンピューター可読不揮発性媒体
  10. 少なくとも1つの前記フィルターは、前記カラーデータの統計的ドメインを使用して前記帯域幅削減深度マップの前記帯域幅を復元するように動作可能である、請求項8に記載のコンピューター可読不揮発性媒体。
  11. 帯域幅削減深度マップを含む少なくとも1つの帯域幅削減画像を受信し復元する受信機であって、
    帯域幅削減深度マップ及びカラーデータを含む帯域幅削減3D画像を受信し、
    複数のカラー・チャネルからなる色空間内にカラーデータの色相の統計的ドメインを使用するフィルターを適用して前記帯域幅削減深度マップの帯域幅を復元し、前記フィルターは2つのラジオシティ重み付け関数を使用し、第1のラジオシティ重み付け関数が第1のドメインとしての前記帯域幅削減深度マップによって提供され、第2のラジオシティ重み付け関数が第2のドメインとしての色相値の傾きを取り入れた複数のカラー・チャネルのうちの少なくとも1つのチャネルによって前記色空間に提供されたカラーデータのマルチチャネル色差の測定によって提供され、前記フィルターが空間重み付け関数を使用し、及び、
    前記帯域幅削減深度マップに対して、第1オクターブのアップスケーリングされた深度マップが生成されるまで、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施し、
    前記帯域幅削減深度マップに対して、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施すステップは、前記深度マップのエッジ勾配と前記カラーデータのカラーエッジ勾配との差を含む誤差関数を最小化して、前記アップスケーリングされた深度マップの出力を正則化することを特徴とする受信機。
  12. 前記帯域幅削減深度マップの帯域幅を復元することは、少なくとも1つのオブジェクト境界を含む前記カラーデータの不連続性を一致させることにより、前記帯域幅削減深度マップにおける不連続性を復元することに基づく、請求項11に記載の受信機。
  13. 前記復元された深度マップ及びカラー画像をワープさせて、立体3Dディスプレイ又は自動立体3Dディスプレイに適した少なくとも1つのビューを構築する、深度画像に基づくレンダリング(DIBR)モジュールを更に備える、請求項11に記載の受信機。
  14. 特定用途向け集積回路(ASIC)を用いて実装されている、請求項11に記載の受信機。
  15. 3D像を送信し、受信し、レンダリングするシステムであって、
    少なくとも1つの3D画像から深度マップ及びカラーデータを抽出し、
    バイキュービック削減フィルターを使用して深度マップに一又はそれ以上の1オクターブデシメーションを施すことによって、前記深度マップの空間的帯域幅を削減し、
    前記深度マップにおける深度値のヒストグラムを生成し、
    前記ヒストグラムから得たモダリティに関連する深度値を除去し、
    前記ヒストグラムの複数の最大値内の最大値を演算することによって前記モダリティを選択し、深度マップ7ビット/画素帯域幅を削減し、帯域幅削減深度マップを生成し、
    前記カラーデータ内に前記帯域幅削減深度マップを挿入して、帯域幅削減3D画像を生成し、
    前記帯域幅削減3D画像を伝送チャネルに送出する
    送信機と、
    帯域幅削減深度マップ及びカラーデータからなる帯域幅削減3D画像を受信し、
    複数のカラー・チャネルからなる色空間内にカラーデータの色相の統計的ドメインを使用するフィルターを適用して前記帯域幅削減深度マップの帯域幅を復元し、前記フィルターは2つのラジオシティ重み付け関数を使用し、第1のラジオシティ重み付け関数が第1のドメインとしての前記帯域幅削減深度マップによって提供され、第2のラジオシティ重み付け関数が第2のドメインとしての色相値の傾きを取り入れた複数のカラー・チャネルのうちの少なくとも1つのチャネルによって前記色空間に提供されたカラーデータのマルチチャネル色差の測定によって提供され、前記フィルターが空間重み付け関数を使用し、及び、
    前記帯域幅削減深度マップに対して、第1オクターブのアップスケーリングされた深度マップが生成されるまで、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施し
    前記帯域幅削減深度マップに対して、1オクターブバイキュービックアップスケーリング及びそれに続く前記フィルターの適用の反復を繰り返し施すステップは、前記深度マップのエッジ勾配と前記カラーデータのカラーエッジ勾配との差を含む誤差関数を最小化して、前記アップスケーリングされた深度マップの出力を正則化し、
    ディスプレイ上に復元された前記深度マップ及び前記カラーデータをレンダリングする
    受信機と、を具備することを特徴とするシステム。
  16. 前記深度マップの帯域幅を削減することは、前記カラーデータにおける少なくとも1つのオブジェクト境界に対応する少なくとも1つの不連続性を含む、前記深度マップの少なくとも1つの領域を保持することを含む、請求項15に記載のシステム。
  17. 前記フィルターは、少なくとも1つのオブジェクト境界を含む前記カラーデータの不連続性を一致させることにより、前記帯域幅削減深度マップにおける不連続性を復元するように構成される、請求項15に記載のシステム。
JP2013518483A 2010-07-07 2011-06-22 立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法 Expired - Fee Related JP6029583B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US36213410P 2010-07-07 2010-07-07
US61/362,134 2010-07-07
US12/880,426 2010-09-13
US12/880,426 US8774267B2 (en) 2010-07-07 2010-09-13 System and method for transmission, processing, and rendering of stereoscopic and multi-view images
PCT/US2011/041404 WO2012005947A2 (en) 2010-07-07 2011-06-22 System and method for transmission, processing, and rendering of stereoscopic and multi-view images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015112738A Division JP2015201870A (ja) 2010-07-07 2015-06-03 立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2014503134A JP2014503134A (ja) 2014-02-06
JP6029583B2 true JP6029583B2 (ja) 2016-11-24

Family

ID=45438567

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013518483A Expired - Fee Related JP6029583B2 (ja) 2010-07-07 2011-06-22 立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法
JP2015112738A Pending JP2015201870A (ja) 2010-07-07 2015-06-03 立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015112738A Pending JP2015201870A (ja) 2010-07-07 2015-06-03 立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法

Country Status (6)

Country Link
US (3) US8774267B2 (ja)
EP (1) EP2591608A2 (ja)
JP (2) JP6029583B2 (ja)
KR (1) KR101498535B1 (ja)
CA (1) CA2803583A1 (ja)
WO (1) WO2012005947A2 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置
US9305398B2 (en) * 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
CN103535045A (zh) * 2010-12-02 2014-01-22 韩国电子通信研究院 用于传送立体视频信息的方法和设备
WO2012098607A1 (ja) * 2011-01-19 2012-07-26 パナソニック株式会社 立体画像処理装置および立体画像処理方法
JP2012186781A (ja) * 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
JPWO2012111757A1 (ja) * 2011-02-18 2014-07-07 ソニー株式会社 画像処理装置および画像処理方法
EP2677755A1 (en) * 2011-02-18 2013-12-25 Sony Corporation Image processing device and image processing method
US8654181B2 (en) * 2011-03-28 2014-02-18 Avid Technology, Inc. Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence
US8887206B2 (en) * 2011-06-09 2014-11-11 Cstereo3D, Llc Device and method for rendering and delivering 3-D content
US8743180B2 (en) * 2011-06-28 2014-06-03 Cyberlink Corp. Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
TWI481262B (zh) * 2011-07-28 2015-04-11 Ind Tech Res Inst 影像編碼系統及影像編碼方法
WO2013022401A2 (en) * 2011-08-10 2013-02-14 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for creating a disocclusion map used for coding a three-dimensional video
US9191646B2 (en) * 2011-08-29 2015-11-17 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
JP5978573B2 (ja) * 2011-09-06 2016-08-24 ソニー株式会社 映像信号処理装置および映像信号処理方法
CN103108197A (zh) * 2011-11-14 2013-05-15 辉达公司 一种用于3d视频无线显示的优先级压缩方法和系统
WO2014015460A1 (en) * 2012-07-23 2014-01-30 Thomson Licensing 3d video representation using information embedding
KR101904718B1 (ko) * 2012-08-27 2018-10-05 삼성전자주식회사 컬러 영상 및 깊이 영상 촬영 장치 및 방법
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
ITTO20130503A1 (it) 2013-06-18 2014-12-19 Sisvel Technology Srl Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionale
US8983223B2 (en) 2013-07-23 2015-03-17 Nvidia Corporation Low-complexity bilateral filter (BF) implementation in a data processing device
EP2833637A1 (en) * 2013-07-31 2015-02-04 Thomson Licensing Method for processing a current image of an image sequence, and corresponding computer program and processing device
CN104427323B (zh) 2013-08-23 2016-08-10 鸿富锦精密工业(深圳)有限公司 基于深度的三维图像处理方法
KR102080611B1 (ko) * 2013-09-26 2020-02-25 엘지디스플레이 주식회사 이미지 생성 장치 및 방법
US20160094837A1 (en) * 2014-09-30 2016-03-31 3DOO, Inc. Distributed stereoscopic rendering for stereoscopic projecton and display
US9756375B2 (en) 2015-01-22 2017-09-05 Microsoft Technology Licensing, Llc Predictive server-side rendering of scenes
US9449414B1 (en) 2015-03-05 2016-09-20 Microsoft Technology Licensing, Llc Collaborative presentation system
US10554713B2 (en) 2015-06-19 2020-02-04 Microsoft Technology Licensing, Llc Low latency application streaming using temporal frame transformation
US9635339B2 (en) * 2015-08-14 2017-04-25 Qualcomm Incorporated Memory-efficient coded light error correction
KR102174258B1 (ko) 2015-11-06 2020-11-04 삼성전자주식회사 무안경 3d 디스플레이 장치 및 그 제어 방법
US9569812B1 (en) 2016-01-07 2017-02-14 Microsoft Technology Licensing, Llc View rendering from multiple server-side renderings
EP3434012A1 (en) * 2016-03-21 2019-01-30 InterDigital CE Patent Holdings Dibr with depth map preprocessing for reducing visibility of holes by locally blurring hole areas
CN109844819A (zh) * 2016-06-27 2019-06-04 罗伯特·博世有限公司 用于动态遮挡处置的系统和方法
KR102608466B1 (ko) 2016-11-22 2023-12-01 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US10319149B1 (en) * 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10776992B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Asynchronous time warp with depth data
US10924525B2 (en) 2018-10-01 2021-02-16 Microsoft Technology Licensing, Llc Inducing higher input latency in multiplayer programs
US11189104B2 (en) 2019-08-28 2021-11-30 Snap Inc. Generating 3D data in a messaging system
US11488359B2 (en) 2019-08-28 2022-11-01 Snap Inc. Providing 3D data for messages in a messaging system
US11410401B2 (en) 2019-08-28 2022-08-09 Snap Inc. Beautification techniques for 3D data in a messaging system
KR102624635B1 (ko) * 2019-08-28 2024-01-15 스냅 인코포레이티드 메시징 시스템에서의 3d 데이터 생성
US11457196B2 (en) 2019-08-28 2022-09-27 Snap Inc. Effects for 3D data in a messaging system
CN112738534B (zh) * 2019-10-28 2023-06-23 阿里巴巴集团控股有限公司 数据处理方法及系统、服务器和存储介质
US11055879B1 (en) * 2020-04-03 2021-07-06 Varjo Technologies Oy Encoder and encoding method for mitigating discrepancies in reconstructed images
US11758101B2 (en) 2020-08-25 2023-09-12 Samsung Electronics Co., Ltd. Restoration of the FOV of images for stereoscopic rendering

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5614952A (en) * 1994-10-11 1997-03-25 Hitachi America, Ltd. Digital video decoder for decoding digital high definition and/or digital standard definition television signals
AU698055B2 (en) * 1994-07-14 1998-10-22 Johnson-Grace Company Method and apparatus for compressing images
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
AU2210697A (en) * 1996-03-13 1997-10-01 Reveo, Inc. Stereoscopic spatial-multiplexing image display system with phase-retardation error correcting optics
JP3231618B2 (ja) * 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
US6055330A (en) * 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
DE69836696T2 (de) * 1997-05-30 2007-10-31 Mediatek Inc. Verfahren und vorrichtung zur durchführung einer hierarchischen bewegungsschätzung unter verwendung einer nicht-linearen pyramide
US6473516B1 (en) * 1998-05-22 2002-10-29 Asa Systems, Inc. Large capacity steganography
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
US20020061062A1 (en) * 2000-11-22 2002-05-23 O'brien Royal Filtering system and method for digital interactive streams
US20030235338A1 (en) * 2002-06-19 2003-12-25 Meetrix Corporation Transmission of independently compressed video objects over internet protocol
KR100556848B1 (ko) * 2003-05-13 2006-03-10 엘지전자 주식회사 디지털 워터마킹을 이용한 동영상 부호화/복호화 장치 및방법
US8134637B2 (en) * 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
KR100656783B1 (ko) * 2004-12-14 2006-12-12 한국전자통신연구원 양안식 입체 영상 전송 장치 및 그 방법과 그를 이용한양안식 입체 영상 렌더링 장치 및 그 방법
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7477777B2 (en) * 2005-10-28 2009-01-13 Aepx Animation, Inc. Automatic compositing of 3D objects in a still frame or series of frames
JP4725595B2 (ja) * 2008-04-24 2011-07-13 ソニー株式会社 映像処理装置、映像処理方法、プログラム及び記録媒体
WO2009131703A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Coding of depth signal
FR2932911A1 (fr) * 2008-06-24 2009-12-25 France Telecom Procede et dispositif de remplissage des zones d'occultation d'une carte de profondeur ou de disparites estimee a partir d'au moins deux images.
EP2313847A4 (en) * 2008-08-19 2015-12-09 Digimarc Corp METHODS AND SYSTEMS FOR PROCESSING CONTENT
JP2010081001A (ja) * 2008-09-24 2010-04-08 National Institute Of Information & Communication Technology 2d互換3d表示装置及び3d視装置
WO2010084521A1 (ja) * 2009-01-20 2010-07-29 本田技研工業株式会社 ウインドシールド上の雨滴を同定するための方法及び装置
US8270752B2 (en) * 2009-03-17 2012-09-18 Mitsubishi Electric Research Laboratories, Inc. Depth reconstruction filter for depth coding videos
WO2010108024A1 (en) * 2009-03-20 2010-09-23 Digimarc Coporation Improvements to 3d data representation, conveyance, and use
KR101807886B1 (ko) * 2009-10-14 2017-12-11 돌비 인터네셔널 에이비 깊이 맵 처리를 위한 방법 및 디바이스

Also Published As

Publication number Publication date
US20140267607A1 (en) 2014-09-18
WO2012005947A2 (en) 2012-01-12
US20120008672A1 (en) 2012-01-12
JP2015201870A (ja) 2015-11-12
JP2014503134A (ja) 2014-02-06
US8774267B2 (en) 2014-07-08
KR101498535B1 (ko) 2015-03-04
WO2012005947A3 (en) 2014-06-26
US20140269935A1 (en) 2014-09-18
EP2591608A2 (en) 2013-05-15
CA2803583A1 (en) 2012-01-12
KR20130091323A (ko) 2013-08-16
US8988502B2 (en) 2015-03-24

Similar Documents

Publication Publication Date Title
JP6029583B2 (ja) 立体画像及びマルチビュー画像の伝送、処理及びレンダリングのためのシステム及び方法
US11770558B2 (en) Stereoscopic video encoding and decoding methods and apparatus
JP6526686B2 (ja) フルパララックス圧縮ライトフィールド3dイメージングシステムのための方法
Lee et al. A fast and efficient multi-view depth image coding method based on temporal and inter-view correlations of texture images
Park et al. Depth-image-based rendering for 3DTV service over T-DMB
US20100309287A1 (en) 3D Data Representation, Conveyance, and Use
US20100215251A1 (en) Method and device for processing a depth-map
Daribo et al. Distance dependent depth filtering in 3D warping for 3DTV
US12010329B2 (en) Embedding data within transformed coefficients using bit partitioning operations
Pająk et al. Perceptual depth compression for stereo applications
Wang et al. Hiding depth information in compressed 2D image/video using reversible watermarking
GB2620655A (en) Image processing using residual frames and differential frames
EP3035688B1 (en) Encoding and decoding of 3d hdr images using a tapestry representation
Duan et al. Enhancing wedgelet-based depth modeling in 3d-HEVC
Lee et al. Depth resampling for mixed resolution multiview 3D videos
Park et al. Ho-Cheon Wey
US20130129244A1 (en) Method for coding of stereoscopic depth

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150603

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150702

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150917

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161018

R150 Certificate of patent or registration of utility model

Ref document number: 6029583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees