JP2011501496A - 奥行きマップを処理する方法及び装置 - Google Patents

奥行きマップを処理する方法及び装置 Download PDF

Info

Publication number
JP2011501496A
JP2011501496A JP2010528511A JP2010528511A JP2011501496A JP 2011501496 A JP2011501496 A JP 2011501496A JP 2010528511 A JP2010528511 A JP 2010528511A JP 2010528511 A JP2010528511 A JP 2010528511A JP 2011501496 A JP2011501496 A JP 2011501496A
Authority
JP
Japan
Prior art keywords
information
depth
occlusion
depth map
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010528511A
Other languages
English (en)
Other versions
JP5575650B2 (ja
Inventor
フネウィーク レイニール ビー エム クレイン
ウィルヘルムス エイチ エイ ブルルス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2011501496A publication Critical patent/JP2011501496A/ja
Application granted granted Critical
Publication of JP5575650B2 publication Critical patent/JP5575650B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Abstract

本発明は、奥行きマップ710を処理するための方法及び装置に関する。前記方法は、物体を有する、ある視点からの場面の奥行き情報を有する奥行きマップを不可逆圧縮された奥行きマップに基づいて得るステップ、前記奥行きマップにおいて前記物体により遮蔽される情報を有する、前記視点からの場面に対する遮蔽情報を得るステップ、及び前記奥行きマップにおける圧縮アーチファクトを減少させるために、前記遮蔽情報の少なくとも一部を用いて前記奥行き情報の少なくとも一部を処理するステップを有する。

Description

本発明は、奥行きマップ(depth-map)を処理するための方法及び装置に関する。
長い間、様々な企業が三次元(3D)画像を描画するのに適した裸眼立体視ディスプレイを積極的に開発してきた。裸眼立体視装置は、特別な帽子及び/又は眼鏡を必要とせずに閲覧者に3Dの印象を与えることができる。
裸眼立体視ディスプレイは一般的に、異なる視角に異なる表示(ビュー)を供給する。このように、閲覧者の左目に対し第1の画像が生成され、右目に対し第2の画像が生成されることができる。適切な画像、すなわち右目及び左目夫々の視点から適切な画像を表示することにより、閲覧者に3Dの印象を伝えることが可能である。
裸眼立体視ディスプレイのための画像を生成するために様々な技術が用いられる。例えば、複数のカメラを用いてマルチビュー(multi-view)画像が記録されることができ、ここで、夫々のカメラの位置は各ビューの夫々の視点に対応している。
下位互換性を維持すると共に、帯域幅の利用を改善させるために、現在の裸眼立体視ディスプレイの多くは、従来の二次元(2D)画像のシーケンス及び対応する奥行きマップを有する入力信号を使用している。
奥行きマップは、画像に表される物体のカメラまでの絶対及び相対距離を示す奥行き情報を提供する。例として8ビットのグレイスケール画像が一般的に奥行き情報を表すのに用いられる。奥行きマップは、ピクセル毎に奥行き情報を提供することができるが、当業者には明白であるように、各奥行きマップの値が複数のピクセルに奥行き情報を供給する低解像度の奥行きマップのような、粗い粒度を用いてもよい。
上述した奥行きマップの代替えとして、視差マップが用いられることができる。視差は、例えば左目及び右目の視点からのような、2つの異なる視点から観察されるとき、場面における物体の見掛けの移動のことを意味する。一般に当業者には知られているように、視差情報及び奥行き情報は関連があり、視差マップの夫々の視点の幾何学的配置が分かっている場合、互いにマッピングされることができる。
この密接な関係及び一方がもう一方に変換されることが可能であるという事実を考慮して、本明細書を通して用いられる用語"奥行きマップ"及び"奥行き情報"は、視差情報と同様に奥行き情報も有すると理解される。
裸眼立体視ディスプレイに画像シーケンス及び対応する奥行き情報のマップ、略して奥行きマップのシーケンスを供給することにより、この裸眼立体視ディスプレイは、1人以上の閲覧者に対するコンテンツのマルチビューを描画することができる。上記方法で、従来の信号は奥行きマップを用いて強化される。
2D+奥行き信号を用いて描画するマルチビューの品質を向上させるために、非遮蔽(de-occlusion)情報とも呼ばれる追加の遮蔽(occlusion)情報が供給される。(非)遮蔽情報は、供給される2D+奥行き情報の視点以外の視点に対するビューを描画するのに用いられる画像及び/又は奥行き情報に関する。この2D+奥行き情報の視点とは異なる視点に対する2D+奥行き情報に基づくビューを描画するとき、本来の2D+奥行き情報には存在しない情報が必要とされる。この情報は、前記遮蔽情報に供給されてもよく、物体により遮蔽された情報に加え、この遮蔽情報は遮蔽領域付近における情報も有する。この遮蔽情報の利用可能性は、2D+奥行き信号を用いてビューを描画するときに生じる穴を埋めることを可能にする。本出願を通して、遮蔽情報という用語は、ビュー描画処理において非遮蔽領域を穴埋めするのに用いられる遮蔽画像情報及び/又は遮蔽奥行き情報を有すると理解される。
国際特許出願公開番号WO2006/137000は、画像データと他のデータ、例えば遮蔽データの結合交換(combined exchange)の方法を開示している。上記形式が特に、例えばセットトップボックス(STB)とディスプレイとの間における3Dコンテンツの前記交換によく適していたとしても、帯域幅を制限した媒体を介して上記3Dコンテンツを伝送又は配信するとき、このような3Dコンテンツの大きさをさらに減少させる必要がある。不可逆圧縮アルゴリズム、例えば不可逆なDCTベースの圧縮アルゴリズムが大きさの大幅な減少を提供したとしても、これらアルゴリズムはノイズを生じさせる傾向もある。第2回IEEE BENELUX/DSP Valley Signal Processing Symposiumで表されたChris Varekamps著、"Compression artifacts in 3D television signals"は、奥行きマップにおけるノイズの影響が、マルチビュー描画処理の結果として、特に物体の境界において重大な視差エラーを生じることを示している。この影響は、前記圧縮アルゴリズムが前記結果生じる描画されたマルチビュー画像にではなく、奥行きマップにおいて知覚されるエラーを減少させるために調整されている事実という必然的な結果である。
本発明の目的は、不可逆圧縮方式によって作り出される奥行きマップにおけるノイズの影響を減少させることを目的とする奥行きマップを処理する方法を提供することである。
本目的は、本発明による方法が
−物体を有する、ある視点からの場面の奥行き情報を有する奥行きマップを不可逆圧縮された奥行きマップに基づいて得るステップ、
−前記奥行きマップにおいて前記物体により遮蔽される情報を有する、前記視点からの場面に対する遮蔽情報を得るステップ、及び
−前記奥行きマップにおける圧縮アーチファクトを減少させるために、前記遮蔽情報の少なくとも一部を用いて前記奥行き情報の少なくとも一部を処理するステップ
を有するので達成される。
本発明はこれにより、前記奥行き情報が処理する部分に、非遮蔽範囲の情報を提供することを本来は目的とした遮蔽情報を使用する。奥行きマップに存在する例えばモスキートノイズ及びスペックルのようなノイズは、遮蔽情報と同様に奥行きマップからのデータを用いて減少することができる。
この遮蔽情報が遮蔽画像情報に関する場合において、この遮蔽画像情報は、遮蔽領域の境界に関して情報を供給するのに用いられることができる。結果として、この奥行きマップは、遮蔽境界付近における奥行きマップのノイズを減少させるために、例えばK平均(K-means)と同様のアルゴリズムのようなエッジ保存機能を用いてフィルタリングされることができる。
代替的に、遮蔽画像情報は、遮蔽領域に奥行きマップを再生するための、当業者に知られた周知の発見的方法と一緒に使用されてもよい。前記遮蔽領域に対する、奥行きマップ形式の出力は、この奥行きマップをフィルタリングするための追加の情報を供給するために用いられ、このように、圧縮アーチファクトの結果として、遮蔽領域に対する奥行きマップの背後に位置決められるように見える奥行き値は、この遮蔽領域に対する奥行きマップからの値を用いて訂正されることができる。
さらに代替的に、遮蔽情報が遮蔽奥行き情報に関するとき、この遮蔽奥行き情報は、前記奥行きマップを直接、すなわち境界を規定する必要なく、すなわち遮蔽奥行きマップの情報を再生する必要なしに、フィルタリングするのに使用されることができる。
ある実施例において、前記処理ステップは、物体に関する奥行き情報における遷移の周辺の領域内の奥行き情報の少なくとも一部を処理するステップを有する。不可逆圧縮方式は一般に、激しい奥行きの遷移を正確に示すことに若干問題がある。しばしば、ある種の量子化、リンギング(ringing)及び/又はゴーストは、このような遷移付近に生じる。困ったことに、上記奥行きの遷移におけるノイズは通例、この奥行き情報を用いて描画されるビューにおいて非常に目立つアーチファクトとなる。従って、この特定の実施例は、必要とされる処理量と知覚される改善との間における有利な妥協点を示す。
特に効率のよい他の実施例において、情報が物体の輪郭に関して利用可能であるという条件で、奥行き情報を処理するステップは、前記物体周辺の領域内で行われる。
ある実施例において、処理する領域の大きさに関する情報を提供するメタデータが供給される。結果として、最少の処理量が事前に指定されることができ、これにより最終的な出力によるコンテンツ作成者の制御を提供する。
本発明は、不可逆圧縮された奥行きマップを生成するのに用いられる不可逆圧縮アルゴリズムが奥行き情報における遷移の周辺にノイズを生じさせる実施例において特定の利点と共に用いられる。さらに、本発明は、不可逆圧縮された奥行きマップを生成するのに用いられる不可逆圧縮アルゴリズムがこの不可逆圧縮された奥行きマップに奥行き情報を示すための周波数領域表現を用いる実施例において特定の利点と共に用いられる。
ある実施例において、本発明はさらに、奥行き情報において第1の遷移を設定するステップを有する。好ましくは、この実施例は、遮蔽奥行き情報を用いて第2の遷移も設定する。前記第1の遷移は、エッジが実質的に保存される必要がある領域に対し処理量を制限するのに使用される。第1の遷移及び第2の遷移により供給される情報を組み合わせることにより、奥行き情報が遷移を有する及び遮蔽奥行き情報が連続している場所を決めることが可能である。不可逆圧縮アーチファクトはしばしば、奥行き情報における遷移の近くに見られる。故に、遮蔽奥行き情報が中央ビューに見ることができる奥行き情報も有し、この遮蔽奥行き情報に上記遷移が存在していない場合、この奥行き情報は、前記遷移を有する奥行き情報からの奥行き情報よりも統計上より信頼できる。
本発明による実施例において、奥行き情報及び遮蔽情報は、符号化された画像シーケンス、例えば伝送チャンネルを介して伝送される符号化されたデータストリーム又は記憶媒体に配信される符号化されたデータストリームに供給される。好ましくは、処理される領域の大きさに関する情報を供給するメタデータ、例えば拡張係数は、同一の符号化されたデータストリームに供給される。代替的に、拡張情報は、例えば物体の拡張する境界を明確に符号化することにより、非一様な拡張領域の応用を可能にするために符号化される。
ある実施例において、前記処理ステップは、奥行きの遷移付近における前記奥行き情報からのピクセルに対する置換基準を設定するステップを有し、前記置換基準はピクセルが属する遷移の側を分類する。結果として、奥行き情報からのピクセルは、前記置換基準に基づく置換ピクセルにより条件付きで置き換えられ、この置換ピクセルは置換基準により示されるように、空間的状況に統計上対応している。本実施例において、前記置換基準及び置換ピクセルの少なくとも1つは遮蔽情報に基づいている。故に、追加の遮蔽情報は、前記奥行き情報の圧縮の結果としてノイズを補償するのに用いられる。
本発明の目的はさらに、
−物体を有する、ある視点からの場面の奥行き情報を有する奥行きマップを不可逆圧縮された奥行きマップに基づいて得るために配される手段、
−前記奥行きマップにおいて前記物体により遮蔽される情報を有する、前記視点からの場面に対する遮蔽情報を得るために配される手段、及び
−前記奥行きマップにおける圧縮アーチファクトを減少させるために、前記遮蔽情報の少なくとも一部を用いて前記奥行き情報の少なくとも一部を処理するために配される手段
を有する本発明による装置を用いて達成される。
中央ビューに対する非遮蔽データを示す。 画像データ、奥行きデータ、画像遮蔽データ及び奥行き遮蔽データを有する入力信号の4象限表現を示す。 効率良く符号化された遮蔽情報を用いた4象限表現を示す。 他の4象限表現を示す。 好ましい4象限表現を示す。 不可逆圧縮から生じる圧縮アーチファクトを有する奥行きマップと同様に、グランドトゥルースの奥行きマップを示す。 本発明による処理を伴う及び伴わない不可逆圧縮された奥行きマップに基づいて描画されるビューを示す。 本発明による装置を示す。 本発明による装置を有する民生機器を示す。
本発明のこれら及び他の有利な態様は、以下の図面を使用してより詳細に説明される。
これら図面は、縮尺通りに描かれていない。一般的に、同一の構成要素は、これら図面において同じ参照番号により示されている。
裸眼立体視ディスプレイ及び/又は他の立体視ディスプレイ装置の導入時に3Dコンテンツを提供するために、従来の2Dコンテンツが最初にエンドユーザ側において2Dから3Dに変換される。しかしながら、ディスプレイ側で生成した奥行きマップは一般に不完全であり、2Dコンテンツ信号に奥行き情報が無いことにより生じるので、良好な奥行きマップに対する必要性が存在している。
取得側及び/又は伝送側で生成する奥行きマップは、取得側においてリソース要求が一般的に出されないという事実により、かなり高い品質を持つことができる。その上、データをリアルタイムで生成させる必要がないので、スループットタイムも出されない。加えて、専門的環境において、例えばステレオ入力、さらにはマルチビュー入力の形式の映像(footage)のようなより多くの情報の利用が一般的に存在する。最後に、特にスタジオの環境においてコンテンツを作成するために、取得側において対話形式でコンテンツを作成する可能性も存在している。
奥行きマップが取得側で生成される場合、これら奥行きマップの表示に必要とされる追加の帯域幅は重要な要因である。その上、このような奥行きマップを伝送するための規格も必要である。
高品質の奥行きマップは、3Dディスプレイに良好な奥行きの印象を伝えることを可能にする。しかしながら、この改善された奥行きの再現の結果として、アーチファクト、例えば中央ビュー(center view)において、最前面の物体により遮蔽される情報の非遮蔽により生じるアーチファクトが(さらに)見えることになる。
遮蔽データは、ディスプレイ及び取得側で生成することができる。再び取得側において、生成した遮蔽データの品質はかなり高くなることができる。従って、取得側で生成した遮蔽データが好ましい。この取得側で生成した遮蔽データはディスプレイ側で用いられ、3Dディスプレイに表示するビューを描画する。一次近似として、遮蔽範囲を描くための、見えている背景からの奥行き/視差データを使用することが可能であっても、この一次近似には限界がある。
画像情報及び/又は奥行き情報の形式の遮蔽データに注釈を付けることは、より高品質な描画を可能にする。しかしながら、符号化という観点から、追加のデータはさらにビットレートを増大させる、すなわち品質に影響を及ぼす。画像、奥行きマップ、遮蔽された画像情報及び遮蔽された奥行き情報を有する生成したデータは、伝送又は配信する前に実質的に符号化されることができる。このような実施の費用を減らすために、上記情報を符号化するための現存するアルゴリズム、例えば従来のH.264エンコーダを使用することが好ましい。
しかしながら、従来のエンコーダを用いた実験中、圧縮及び後続する復元の後の奥行きマップの品質は、目に見えるアーチファクトを生じさせないために高くなければならない。この問題に取り組む1つの方法は、遮蔽情報に対する圧縮要件を低くすることにより。符号化の点から、これは好ましくない。
しかしながら、本発明は、画像データに対応する奥行き情報を有する奥行きマップに存在及び任意には遮蔽情報にも存在するノイズを減少させることを目的とする後処理ステップ形式の代替案を提案する。
遮蔽/非遮蔽
図1は、遮蔽の概念を説明している。図1は、上部の水平線Bとして表される背景及びこの水平線Bと中央ビュー20との間に位置決められた線分Fにより表される物体を有する場面の上面図を表している。この画像は、中央ビュー20から感知されるように符号化される。これは、画像データ、遮蔽された画像のデータ、奥行きデータ及び遮蔽された奥行きのデータがこの中央ビュー20に対し符号化されることを意味している。
描画エンジン又は代替的にディスプレイにおいて、前記中央ビューのデータは、少なくとも2つの画像を描画するのに使用される。この中央ビューのデータは、夫々情報C1、C2及びC3を有する。しかしながら、左目の視点から情報L1及びL2は見ることができ、同様に右目の視点から情報R1及びR2は見ることができる。左目の視点10から、中央ビュー20において物体Fにより画像が遮蔽された情報が見ることができ、この遮蔽情報は矢印OLを用いて示される。同様に、右目の視点30から、中央ビュー20において物体Fにより画像が遮蔽された情報を見ることができ、この遮蔽された情報は矢印ORを用いて示される。
上記事例において、矢印OL及びORにより示される領域に対する画像遮蔽情報が加えられる。
図2は、中央ビューの画像205、遮蔽データ215並びに右側に夫々対応する奥行きマップ201及び220を示す。本実施例における奥行き値は、奥行き値が明るいほど、物体が閲覧者に近いように符号化される。当該場面は、室内において空中に浮いている携帯電話を描いている。本実施例において、場面全体に対し遮蔽データが提供されたとしても、図3、4及び5に説明されるように、これは本発明で義務付けられていない。ここに示される実施例において、遮蔽データは中央ビューに対し生成することに注意すべきである。結果として、この遮蔽データ/第2の層は、中央ビューにある物体がこの中央ビューから取り除かれるときに見ることができるデータである。しかしながら、本発明は、中央を外れた視点、例えば左目又は右目の視点のどちらか一方に対し前記画像及び奥行き情報が符号化される実施例に応用されてもよい。
図3は、フレーム枠により示されるような携帯電話の背後にある領域に対する遮蔽データが提供されるもう1つの表現を示す。本実施例において、物体の境界の上に延在している正方形に対し遮蔽画像情報及び遮蔽奥行き情報が提供される。この特定の表現(及び図2に示される表現)の利点は、遮蔽画像情報及び遮蔽奥行き情報は、物体と背景との間における奥行きの遷移付近の情報と同様に、物体の背後にある領域に情報を提供することである。結果として、両方の領域におけるアーチファクトは、前記遮蔽画像及び/又は奥行き情報を用いてフィルタリングされることができる。
図4は、携帯電話により遮蔽された領域にのみ遮蔽データが提供されるもう1つの表現を示す。この特定の表現の利点は、それのコンパクトな大きさであり、しかしながら欠点は、物体の境界に関して十分な情報を提供しないことである。しかしながら、物体内の奥行きマップにある符号化アーチファクトの除去を可能にし、結局、奥行きマップ210における奥行き情報は、遮蔽奥行き情報420に供給される奥行き情報510の前になければならない。
図5は、他の好ましい表現を示す。この表現はもう一度、画像205及び奥行きマップ210を有する。加えて、低解像度の遮蔽画像505及び対応する遮蔽奥行き情報510を具備する。この遮蔽画像505及び遮蔽奥行き情報において広く行われるグレイ諧調は、例えば符号化効率を理由に符号化される抑えた範囲(muted area)を示す。
マルチビューの画像が合成される前に、前記低解像度の画像がアップスケールされなければならない。アップスケールは、素朴な方法で行われるか、又は同時係属している国際特許出願IB2007/051701(出願人整理番号PH005826)に開示されるような色適応型バイラテラルアップスケーリングフィルタ(color-adaptive bilateral up-scaling filter)を用いて知的に行われるかである。次いで、前記抑えた範囲は、画像205及び奥行きマップ210の夫々のピクセル値に置き換えられる。結果生じる遮蔽情報は、図2に示される情報に似ている。
図2、3、4及び5は、階層化した奥行き画像(LDI)形式の一次近似を示す。この階層化した奥行き形式を詳細に説明するために、読み手は、J. Shade, S. Gortler, L. He, R. Szeliski著、"Layered depth images" in SIGGRAPH Proceedings of the 25th conference, 1998を参照されたい。
符号化効率の観点から、遮蔽層に対する奥行きマップを省略することもさらに考えられる。この場合、遮蔽画像情報は、奥行き情報210のフィルタリングを制御するのに用いられることができる。後者の事例において、奥行きマップの品質を改善するために
−遮蔽画像情報を用いて奥行き情報を処理する、
−遮蔽画像情報を用いて遮蔽奥行き情報を再生する及び遮蔽奥行き情報を用いて奥行き情報をフィルタリングする
2つの取り組みが存在している。
第1の取り組みに従って、画像情報205及び遮蔽画像情報415は、物体の境界を設定するために用いられる。その後、奥行きマップ210は好ましくは、エッジ保存フィルタを用いてこの境界の周りの領域においてフィルタリングされる。この取り組みの背後にある論理的根拠は、奥行きマップ210において一般に激しい遷移、例えば物体の境界は、圧縮アーチファクトを起こしやすい。しかしながら、このようなアーチファクトは、例えばK平均フィルタのようなエッジ保存フィルタを用いて減少してもよい。
画像情報205、奥行き情報210及び遮蔽画像情報415により供給される情報は、上記フィルタが用いられる領域を設定するのに使用されてもよい。その後、奥行き情報210は、奥行きの遷移に対し特定の距離内、又は代替的に物体の境界までの特定の距離内においてフィルタリングされることができる。例えばDCTベースの圧縮方式の場合、この距離は、マクロブロック(macroblock)の対角線であると定義される。
第2の取り組みに従って、画像情報205、奥行き情報210及び遮蔽される画像情報415は、当業者には知られている発見的方法を用いて遮蔽奥行き情報420を再生するのに用いられる。同時係属している国際特許出願IB2007/051701(代理人整理番号PH005826)及び色適合型バイラテラルフィルタを用いて遮蔽奥行き情報420を再構成する特に好ましい方法を開示している欧州特許出願番号06301011.0(代理人整理番号PH006957)を参照されたい。
画像情報205及び遮蔽画像情報415を組み合わせることにより、色適応型バイラテラルフィルタと共に使用する基準画像が構成される。奥行きマップ210からの奥行き情報に対し重みを関連付けることにより、遮蔽奥行き情報の再構成処理への影響を減らすことができる。この遮蔽奥行き情報が一度再構成されると、前記物体に関する奥行き情報をフィルタリングするのに使用される。
遮蔽画像情報及び/又は遮蔽奥行き情報を生成するための他の低コストの代替案は、2D+奥行き情報から情報の伸長(stretching)を利用する、すなわち遮蔽領域に隣接する情報を遮蔽する領域内まで広げることである。
遮蔽データを用いた3Dシーケンスの描画
上述した遮蔽情報は、他のビューを合成するのに使用されることができる。(裸眼)立体視ディスプレイにおいて、左目での閲覧者が右目での閲覧者とは僅かに異なる画像を知覚するという事実の結果として3Dが知覚される。
ここに開示される実施例において、これらビューは、中央ビュー及びそのビューに関連する奥行き/視差マップを用いて生成される。この視差/奥行きマップは、中央ビューのピクセルが様々なビューに対しどのように描画されるべきかを示している。特定のビューに対し画像が描画/合成されるとき、幾つかのピクセルは未定義となり、故に穴が生じる。
これを解決するための一次手法は、水平線において前に生じたピクセルのピクセル値を使用することである。走査順が適切に選択される場合、最後に生じたピクセルは、背景情報を反映しているピクセルである。この処理は、伸長と呼ばれ、実施の観点から、実施するのが最も簡単である。奥行きマップにおいて激しい遷移がある、すなわち物体がもう1つの物体の明らかに及びかなり前にある位置において、上述した伸長が原因により、一般的にアーチファクトを確認することができる。
上述した遮蔽情報は上記アーチファクトをさらに減少させるのに使用されることができる。
遮蔽情報を利用するビュー合成又は描画処理は、2段階の手法で実施されることができる。第1の段階は、遮蔽画像及び遮蔽奥行き情報を用いてビューが描画される。適切な遮蔽情報が無い場合、例えば符号化効率の理由により、一部の奥行き情報だけが利用可能である場合、上述した画像の伸長が利用されることができる。
第2の段階において、最前面の画像205及び奥行きマップ210は、伸長ステップが省略された描画処理を用いて描画される。第2の段階の出力は、前記第1のステップの出力の上に重畳される。結果的に、第2の段階で定義されないピクセルは、第1の段階により定義される。
奥行きマップの処理
図6は、不可逆圧縮により生じる圧縮アーチファクトを有する奥行きマップ610と同様に、グランドトゥルースの奥行きマップ605を説明する。
図7は、上記復元された奥行きマップ710がビュー描画処理用の入力として画像705と一緒に使用されるとき、結果生じる合成ビュー715はかなり歪んでいることを説明している。この歪みは、奥行き情報における圧縮アーチファクトから生じた必然的な結果である。奥行き情報が、視点に関する物体の奥行きに依存して前記画像605からの情報を変位するのに使用されるので、この奥行き情報におけるエラーが不正確な変位を生じる。
結果として、奥行き情報におけるエラーは、ピクセルデータの誤変換に転換される。これは描画される画像、特に物体の境界にかなりの影響を及ぼす。この影響は、合成ビュー715において物体のエッジの変形及び一貫性のない形式ではっきりと見ることができる。
通例、符号化及び圧縮アーチファクトは、激しい遷移に生じる。本発明は、遮蔽情報、例えば遮蔽画像情報、遮蔽奥行き情報及び/又は遮蔽視差情報を用いて、圧縮及び後続する復元中に奥行きマップに生じる符号化アーチファクトを減少させることを提案している。
遮蔽画像情報だけが利用可能である場合、この情報は、画像205において物体のエッジの位置に情報を提供し、奥行きマップ210における潜在的な奥行きの遷移に関する情報を間接的に提供する。この情報は、エッジ保存フィルタリングステップを奥行きマップ210に適用するとき、有利に用いられる。好ましくは、このようなエッジ保存フィルタは、奥行きの遷移を滑らかにしない。好ましくは、前記エッジ保存フィルタは、エッジの各側における夫々の奥行き情報の値をエッジの夫々の側における共通する奥行き情報の値にマッピングする。上記フィルタの一例は、K平均フィルタである。ビデオ処理の当業者は、広域の異方性フィルタが利用されてもよいことを分かっている。
代替的に、上述されるように、遮蔽奥行き情報は、遮蔽画像情報を用いて再生されてもよい。しかしながら、遮蔽情報に遮蔽奥行き情報を含むことが好ましい。遮蔽領域及び/又は遮蔽範囲周辺の領域に対する奥行き情報が利用可能であるとき、この情報は、遮蔽奥行き情報220と同様に奥行きマップ210の両方を改善するのに使用されることができる。根底にある考えは、遮蔽領域からの情報を用いて、品質を向上させる及び/又は奥行きマップ210からの奥行き情報の処理を進めることである。逆に、奥行きマップ210からの奥行き情報は、品質を向上させる及び/又は遮蔽奥行き情報からの奥行き情報の処理を進めることも可能である。
ビットレート効率のよい実施において、遮蔽奥行きマップは、激しい奥行きの遷移が生じる範囲においてのみ符号化される。加えて、計算の複雑性を減少させるために、奥行きマップ710における処理は、激しい奥行きの遷移が生じる範囲にのみ行われる。
210に示されるような奥行きマップに対する上記後処理ステップの簡単な実施例は、奥行きマップ210の各値及び対応する遮蔽奥行き情報220の値にMAX演算(最大値の選択)を行うことである。これは、中央ビューの奥行きマップ710においてレベルを下回る(undershoot)アーチファクトを除去する。適切な遷移の側において空間的に近接する他のピクセルを考慮することにより、さらにより精巧なフィルタリングが行われることが考えられる。特にビデオシーケンスの場合、物体の動きを考慮することにより、上記フィルタリング動作が時間一貫性を提供することも考えられる。空間及び時間的強化の両方において、奥行きマップ210にエッジを実質的に保存することが重要であり続ける。
この点について、奥行きマップ210が前記後処理ステップの目標であった。しかしながら、遮蔽奥行き情報220に匹敵する利点を持つ同様の後処理ステップが利用される。簡単な実施例において、前に提案したようなMAX演算は、改善される遮蔽奥行き情報220を得るために、MIN演算(各値の最小値の選択)に置き換えられてもよい。
もう1つの実施例において、前記後処理ステップは、奥行きマップ210に存在している最前面の物体におけるアーチファクトも同様に減少するように利用されることもできる。これは、中央ビューの奥行きマップにおいて最初に検出する激しい奥行きの遷移により(例えばウィンドウにわたり前記MAX及びMINを決め、平均を遷移の交差と考えることにより)達成される。
これら遷移の周辺において、奥行きマップのピクセルは、高品質であるべきである。従って、最前面の奥行きマップにおけるエッジ周辺の奥行きマップのピクセルを背景の奥行きマップからのピクセルと置き換えることは、奥行きマップがこの遷移から成らないので全体の品質を向上させる。
拡張ステップは、最前面の物体が背景上に置かれることを回避するために必要とされる。他の画像データと一緒に拡張係数がメタデータ形式で供給される場合、この値が用いられる。この拡張係数は、置き換えられるべき奥行きの遷移の周辺のデータ量を決めるのに使用される。
本発明の他の実施例において、前記処理ステップは、奥行きの遷移付近における奥行き情報からピクセルに対する置換基準を設定するステップを有し、この置換基準は、ピクセルが遷移のどの側に属しているか分類することである。その後、奥行き情報からのピクセルは、前記置換基準に基づいて置換ピクセルと条件付きで置き換えられる。奥行き情報の品質を向上させるために、前記置換ピクセルは、前記置換基準により示されるような空間的状況に統計上対応すべきであり、すなわち奥行きの遷移の該当する側の奥行き情報と一致すべきである。例えば、K平均アルゴリズムが用いられるとき、前記遷移の適切な側にあるクラスターの平均値は、置換ピクセル値として使用されることができる。
前記置換基準及び置換ピクセルの少なくとも1つは、遮蔽情報に基づいていること、つまりこのように、前記遮蔽情報が適切な奥行き情報を再構成するのに使用される追加の情報を提供するので、改善される奥行きマップの一貫性が得られることに注意することが重要である。
置換基準が遮蔽情報に少なくとも一部が基づいている場合、置換ピクセル値を設定するために、奥行き情報からピクセルの空間的状況を使用することが可能である。好ましくは、遮蔽情報からのピクセルの空間的状況、すなわちそのピクセル付近にあるピクセルは、置換ピクセルを決めるのに用いられる。より好ましくは、前記遮蔽奥行き情報からの対応するピクセルの空間的状況は、前記置換ピクセルを設定するのに使用される。奥行きの遷移付近にある前記置換基準を設定するのには十分であるが、代替案も可能であることも明確である。代わりに、上記基準は、画像全体において各ピクセルに対し設定されることができる。
一般的に奥行き情報における遷移が明確となっても、特に奥行き情報が符号化前にダウンスケールされる、すなわち非常に低いビットレートで符号化されるとき、奥行きの遷移は弱くなる。結果として、奥行きマップにおいて遷移を再構成するために、遷移の空間的状況からの情報を利用するエッジ再構成フィルタリングを使用することが有利である。
例えば、前記奥行き情報が低い解像度で供給されるとき、ダウンスケールされた奥行き情報におけるエッジはダウンスケール処理中、不鮮明(スミア)になる。結果として、エッジを再構成することが利点となる。K平均アルゴリズムを用いて置換基準を決める本発明の実施において、遷移の両側に適切な奥行き値を設定し、次いで実際の奥行き遷移にわたる奥行き値に基づいてエッジの最も有望な位置を決めることが有利である。
例えば、遷移の一方の側の奥行き値に対応する第1の平均及び遷移の他方の側の奥行き値に対応する第2の平均を決めることが可能である。再構成されたエッジは、これら第1の平均と第2の平均との中間に位置決められる。ここでエッジの再構成の概念がK平均法に関して説明されていたとしても、これは必須ではなく、同等の利点を持つ他のエッジ再構成技術が利用されてもよい。
図7は、遮蔽画像情報及び遮蔽奥行き情報の形式の遮蔽情報(図示せず)と同様に、画像705及び奥行きマップ710に部分的に基づく2つの描画ビューを示す。第1の描画ビュー715は、先に圧縮された奥行きマップ710に基づいている一方、第2の描画ビュー720は、本発明に従って後処理された先に圧縮された奥行きマップに基づいている。上述したように、第1の描画ビュー715は、奥行きマップ710にある圧縮アーチファクトによりひどく影響を受ける。一方、第2の描画ビュー720において、物体のエッジは、本来の画像705における物体のエッジにより近づいている。
奥行きマップの解像度が画像の解像度に一致する例を用いて本発明が論証されたとしても、本発明が夫々の解像度が異なる状況において同等の利点を持って利用されることが当業者には明らかである。
図8は、本発明による装置800を示す。この装置800は、物体を有する、ある視点からの場面の奥行き情報を有する奥行きマップ875を不可逆圧縮された奥行きマップに基づいて得るために配される手段805を有する。装置800はさらに、前記奥行きマップ875において前記物体により遮蔽される情報を有する、前記視点からの場面に対する遮蔽情報855を得るために配される手段810を有する。最後に、この装置は、前記奥行きマップ875における圧縮アーチファクトを減少させるために、前記遮蔽情報の少なくとも一部を用いて前記奥行き情報の少なくとも一部を処理するために配される手段815を有する。この手段815は奥行きマップ875の処理において例えばメタデータ及び/又は画像データのような他の情報を任意に使用する。
前記装置800は、例えばASIC(Application Specific Integrated Circuit)若しくは複数のASICの形式のハードウェア部品、又は1つ以上のデジタル信号処理器、さらには汎用処理器を有するプログラム可能なプラットフォームを用いるかのどちらか一方を用いて構成されることは当業者には明らかである。上述した実施を組み合わせも考えられる。当業者は、制約、例えばクロック周波数、プログラム可能なプラットフォームにおける利用可能な計算能力及び/又はビデオ処理用の設計システムの当業者にはよく知られる他の制約に基づいて上記実施を構成することが可能である。
図9は、本発明による装置800を有する民生機器900の実施を説明する。この民生機器900は、ネットワークを介して入力TS(transport stream)905を入力するセットトップボックスであり、この入力TSは画像情報、奥行き情報、遮蔽画像情報及び任意で遮蔽奥行き情報を含む少なくとも1つの画像シーケンスを有する。STBは、裸眼立体視ディスプレイに出力するための複数のビュー995を描画するために配される。代替的に、民生機器は、画像情報、奥行き情報、遮蔽画像情報及び任意で遮蔽奥行き情報を含む画像シーケンス905を入力するために配される裸眼立体視ディスプレイとすることができ、これは裸眼立体視ディスプレイ900に表示するための複数のビューを描画するのに使用される。この特定の実施例において、個々のビューは、別の装置にデジタル形式で出力される必要はなく、結果として、出力995は破線で示される。
この説明を通じて、"得る"という用語は、例えば復元、すなわち上記データの再構成により処理するための手段により得るのと同様に、例えばネットワーク又はデータ担体からの受領による得ることを含むと理解される。
上述した実施例は、本発明を制限するのではなく説明するものであり、添付される特許請求の範囲から外れることなく、当業者が多くの代替実施例を設計することが可能であることを理解すべきである。
請求項において、括弧内に置かれる如何なる参照番号もこの請求項を制限すると考えるべきではない。
本発明の枠内において、多くの変形が可能であることは明らかである。本発明が特に上記に示される及び説明されることにより制限されないことは当業者により分かるだろう。本発明は、新規特徴的特性の1つ1つ及びこれら特徴的特性の組み合わせ1つ1つに存在している。請求項における参照番号がそれらの保護範囲を制限しない。
"有する"という動詞及びその派生語の使用は、請求項に述べられる要素以外の要素の存在を排除するものではない。要素が複数あることを表していないことは、その要素が複数あることを排除するものではない。

Claims (15)

  1. 奥行きマップを処理する方法において、
    −物体を有する、ある視点からの場面の奥行き情報を有する奥行きマップを不可逆圧縮された奥行きマップに基づいて得るステップ、
    −前記奥行きマップにおいて前記物体により遮蔽される情報を有する、前記視点からの場面に対する遮蔽情報を得るステップ、及び
    −前記奥行きマップにおける圧縮アーチファクトを減少させるために、前記遮蔽情報の少なくとも一部を用いて前記奥行き情報の少なくとも一部を処理するステップ
    を有する方法。
  2. 前記遮蔽情報は、前記物体により遮蔽される奥行き情報を有する請求項1に記載の方法。
  3. 前記物体に関する前記奥行き情報における遷移の周辺の既定領域内の前記奥行き情報の少なくとも一部を処理するステップを有する請求項1に記載の方法。
  4. 前記物体の周辺の既定領域内の前記奥行き情報の少なくとも一部を処理するステップを有する請求項1に記載の方法。
  5. 前記領域の大きさに関する情報を提供するメタデータを得るステップ
    を有する請求項1乃至4の何れか一項に記載の方法。
  6. 前記遮蔽情報の少なくとも一部は、処理されている前記奥行き情報の前記領域に対応する領域からの遮蔽情報である請求項1乃至4の何れか一項に記載の方法。
  7. 前記不可逆圧縮された奥行きマップを生成するのに用いられる不可逆圧縮アルゴリズムは、前記奥行き情報における遷移の周辺にノイズを生じる請求項1に記載の方法。
  8. 前記不可逆圧縮された奥行きマップを生成するのに用いられる前記不可逆圧縮アルゴリズムは、前記不可逆圧縮された奥行きマップに奥行き情報を示すための周波数領域表現を用いる請求項1に記載の方法。
  9. 請求項1に記載の方法はさらに、前記奥行き情報における遷移を設定するステップを有する方法。
  10. 前記処理ステップは、
    −前記ピクセルが前記遷移のどの側に属しているかを分類する、奥行きの遷移付近における前記奥行き情報からのピクセルに対する置換基準を設定するステップ、及び
    −前記置換基準により示されるように、空間的状況に統計上対応している置換ピクセルを用いた前記置換基準に基づいて前記奥行き情報からの前記ピクセルを条件付きで置換するステップ
    であり、前記置換基準及び前記置換ピクセルの少なくとも1つは遮蔽情報に基づいている請求項1に記載の方法。
  11. 前記置換基準は、
    −前記奥行き情報からの前記ピクセルの空間的状況、及び
    −前記奥行き情報からの前記ピクセルに対応する前記遮蔽情報からのピクセルの空間的状況
    の少なくとも一方を介するフィルタリングを用いて設定される請求項10に記載の方法。
  12. 前記置換ピクセルは、
    −前記奥行き情報からの前記ピクセルに対応する前記遮蔽奥行き情報からのピクセル、及び
    −前記奥行き情報からの前記ピクセルに対応する前記遮蔽奥行き情報からの前記ピクセルの空間的状況に基づくピクセル
    の一方である請求項11に記載の方法。
  13. 前記処理ステップは、
    −前記奥行き情報からのピクセル、及び
    −前記遮蔽情報からの対応するピクセル
    の中から最小値及び最大値の一方を設定するステップを有する請求項2に記載の方法。
  14. 処理するための領域の大きさに関するメタデータが供給される請求項1に記載の方法。
  15. 奥行きマップを処理するための装置において、
    −物体を有する、ある視点からの場面の奥行き情報を有する奥行きマップを不可逆圧縮された奥行きマップに基づいて得るために配される手段、
    −前記奥行きマップにおいて前記物体により遮蔽される情報を有する、前記視点からの場面に対する遮蔽情報を得るために配される手段、及び
    −前記奥行きマップにおける圧縮アーチファクトを減少させるために、前記遮蔽情報の少なくとも一部を用いて前記奥行き情報の少なくとも一部を処理するために配される手段
    を有する装置。
JP2010528511A 2007-10-11 2008-10-02 奥行きマップを処理する方法及び装置 Expired - Fee Related JP5575650B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07118272 2007-10-11
EP07118272.9 2007-10-11
PCT/IB2008/054027 WO2009047681A1 (en) 2007-10-11 2008-10-02 Method and device for processing a depth-map

Publications (2)

Publication Number Publication Date
JP2011501496A true JP2011501496A (ja) 2011-01-06
JP5575650B2 JP5575650B2 (ja) 2014-08-20

Family

ID=40342298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010528511A Expired - Fee Related JP5575650B2 (ja) 2007-10-11 2008-10-02 奥行きマップを処理する方法及び装置

Country Status (7)

Country Link
US (1) US8447096B2 (ja)
EP (1) EP2201784B1 (ja)
JP (1) JP5575650B2 (ja)
KR (1) KR101484487B1 (ja)
CN (1) CN101822068B (ja)
RU (1) RU2497196C2 (ja)
WO (1) WO2009047681A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172853A1 (ja) * 2011-06-13 2012-12-20 シャープ株式会社 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
JP2013507026A (ja) * 2009-10-02 2013-02-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオにおける追加のビューを生成するための視点の選択
WO2013035261A1 (ja) * 2011-09-06 2013-03-14 ソニー株式会社 映像信号処理装置および映像信号処理方法
JP2013511190A (ja) * 2009-11-13 2013-03-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオにおける深さ遷移の効率的な符号化
JP2013519155A (ja) * 2010-02-02 2013-05-23 マイクロソフト コーポレーション デプスカメラの互換性
JP2013114682A (ja) * 2011-11-30 2013-06-10 Mitsubishi Electric Corp 仮想画像を生成する方法
WO2014013804A1 (ja) * 2012-07-18 2014-01-23 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
WO2014196374A1 (ja) * 2013-06-05 2014-12-11 ソニー株式会社 画像処理装置および画像処理方法
JP2015516751A (ja) * 2012-04-13 2015-06-11 コーニンクレッカ フィリップス エヌ ヴェ 奥行きシグナリングデータ
JP2019502295A (ja) * 2015-11-09 2019-01-24 ヴァーシテック・リミテッドVersitech Limited アーチファクトを意識したビュー合成のための補助データ
JPWO2018021066A1 (ja) * 2016-07-29 2019-05-09 ソニー株式会社 画像処理装置および画像処理方法

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006097680A1 (en) * 2005-03-17 2006-09-21 British Telecommunications Public Limited Company Method of tracking objects in a video sequence
JP5932332B2 (ja) 2008-07-28 2016-06-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像補正に対する修復技術の使用
US8798158B2 (en) * 2009-03-11 2014-08-05 Industry Academic Cooperation Foundation Of Kyung Hee University Method and apparatus for block-based depth map coding and 3D video coding method using the same
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
EP2424257A4 (en) * 2009-04-24 2015-12-02 Lg Electronics Inc VIDEO DISPLAY DEVICE AND OPERATING METHOD THEREFOR
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
EP2323412A1 (en) * 2009-11-13 2011-05-18 Koninklijke Philips Electronics N.V. Generating an image signal
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
US8872887B2 (en) * 2010-03-05 2014-10-28 Fotonation Limited Object detection and rendering for wide field of view (WFOV) image acquisition systems
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US8848038B2 (en) * 2010-07-09 2014-09-30 Lg Electronics Inc. Method and device for converting 3D images
TWI420413B (zh) * 2010-07-15 2013-12-21 Chunghwa Picture Tubes Ltd 深度圖強化方法及其電腦可讀媒體
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US8994716B2 (en) * 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
WO2012034174A1 (en) * 2010-09-14 2012-03-22 Dynamic Digital Depth Research Pty Ltd A method for enhancing depth maps
JP5150698B2 (ja) * 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
EP2451164B1 (en) * 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
KR20120049997A (ko) * 2010-11-10 2012-05-18 삼성전자주식회사 영상 변환 장치 및 이를 이용하는 디스플레이 장치와 그 방법들
EP2458877A1 (en) * 2010-11-26 2012-05-30 Thomson Licensing Occlusion layer extension
EP2661881A4 (en) * 2010-12-29 2016-10-12 Nokia Technologies Oy CODING OF DISPARITY CARD
US8514225B2 (en) 2011-01-07 2013-08-20 Sony Computer Entertainment America Llc Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
US9183670B2 (en) 2011-01-07 2015-11-10 Sony Computer Entertainment America, LLC Multi-sample resolving of re-projection of two-dimensional image
BR112013017321A2 (pt) * 2011-01-07 2019-09-24 Sony Computer Entertainment America Llc método para resolução de múltiplas amostras de uma reprojeção de uma imagem bidimensional, aparelho para múltiplas amostragens, e, produto de programa de computador
US8619094B2 (en) 2011-01-07 2013-12-31 Sony Computer Entertainment America Llc Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
US9041774B2 (en) 2011-01-07 2015-05-26 Sony Computer Entertainment America, LLC Dynamic adjustment of predetermined three-dimensional video settings based on scene content
US8994722B2 (en) * 2011-02-14 2015-03-31 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing depth images of scenes using trellis structures
TWI419078B (zh) * 2011-03-25 2013-12-11 Univ Chung Hua 即時立體影像產生裝置與方法
US8860816B2 (en) * 2011-03-31 2014-10-14 Fotonation Limited Scene enhancements in off-center peripheral regions for nonlinear lens geometries
US8723959B2 (en) 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
US8982180B2 (en) * 2011-03-31 2015-03-17 Fotonation Limited Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries
EP2538242B1 (en) * 2011-06-24 2014-07-02 Softkinetic Software Depth measurement quality enhancement.
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
JP2013026808A (ja) * 2011-07-21 2013-02-04 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013014177A1 (en) * 2011-07-25 2013-01-31 Sony Corporation In-painting method for 3d stereoscopic views generation
US9460551B2 (en) * 2011-08-10 2016-10-04 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for creating a disocclusion map used for coding a three-dimensional video
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
CN103828355B (zh) * 2011-09-29 2017-05-31 汤姆逊许可公司 对视差图进行滤波的方法以及设备
WO2013049388A1 (en) 2011-09-29 2013-04-04 Dolby Laboratories Licensing Corporation Representation and coding of multi-view images using tapestry encoding
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9661307B1 (en) * 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US9070196B2 (en) 2012-02-27 2015-06-30 Samsung Electronics Co., Ltd. Apparatus and method for estimating disparity using visibility energy model
WO2013173749A1 (en) * 2012-05-17 2013-11-21 The Regents Of The University Of California Sampling-based multi-lateral filter method for depth map enhancement and codec
CN102780908A (zh) * 2012-05-31 2012-11-14 新奥特(北京)视频技术有限公司 一种通过左右眼图像混合显示调节3d图像效果的方法
US9514522B2 (en) 2012-08-24 2016-12-06 Microsoft Technology Licensing, Llc Depth data processing and compression
JP6021541B2 (ja) * 2012-09-13 2016-11-09 キヤノン株式会社 画像処理装置及び方法
LU92074B1 (en) * 2012-09-18 2014-03-19 Iee Sarl Depth image enhancement method
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
ITTO20121073A1 (it) * 2012-12-13 2014-06-14 Rai Radiotelevisione Italiana Apparato e metodo per la generazione e la ricostruzione di un flusso video
JP6231125B2 (ja) * 2013-02-06 2017-11-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. マルチビュー立体視ディスプレイデバイスと共に使用するビデオデータ信号を符号化する方法
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9866813B2 (en) 2013-07-05 2018-01-09 Dolby Laboratories Licensing Corporation Autostereo tapestry representation
US9497439B2 (en) * 2013-07-15 2016-11-15 Ati Technologies Ulc Apparatus and method for fast multiview video coding
RU2535183C1 (ru) * 2013-07-25 2014-12-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Устройство предобработки карты глубины стереоизображения
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
CN105516578B (zh) * 2014-09-25 2019-01-15 联想(北京)有限公司 图像处理方法、装置及电子设备
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US9905000B2 (en) 2015-02-19 2018-02-27 Sony Corporation Method and system for surgical tool localization during anatomical surgery
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US10242474B2 (en) * 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US10136123B2 (en) * 2015-10-30 2018-11-20 Disney Enterprises, Inc. Display system with normalized show lighting for wavelength multiplex visualization (WMV) environment
EP3185550A1 (en) * 2015-12-23 2017-06-28 Thomson Licensing Tridimensional rendering with adjustable disparity direction
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
US10325403B2 (en) 2016-08-24 2019-06-18 Google Llc Image based rendering techniques for virtual reality
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
EP3422711A1 (en) * 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
US10776992B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Asynchronous time warp with depth data
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
EP3598389A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing Method for detecting occlusions in an image, corresponding device and computer program product
US10872463B2 (en) * 2019-04-01 2020-12-22 Microsoft Technology Licensing, Llc Depth-compressed representation for 3D virtual scene
RU2716311C1 (ru) * 2019-11-18 2020-03-12 федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) Устройство для восстановления карты глубины с поиском похожих блоков на основе нейронной сети
RU2730215C1 (ru) * 2019-11-18 2020-08-20 федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) Устройство для восстановления изображений с поиском похожих блоков на основе нейронной сети
EP3840389A1 (en) * 2019-12-18 2021-06-23 Koninklijke Philips N.V. Coding scheme for video data using down-sampling/up-sampling and non-linear filter for depth map
US20230224447A1 (en) 2020-06-16 2023-07-13 Dolby Laboratories Licensing Corporation Supporting multi-view video operations with disocclusion atlas
RU2745010C1 (ru) * 2020-08-25 2021-03-18 Самсунг Электроникс Ко., Лтд. Способы реконструкции карты глубины и электронное вычислительное устройство для их реализации

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041811A (ja) * 2004-07-26 2006-02-09 Kddi Corp 自由視点画像ストリーミング方式
WO2006137000A1 (en) * 2005-06-23 2006-12-28 Koninklijke Philips Electronics N.V. Combined exchange of image and related data

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11502335A (ja) * 1995-03-22 1999-02-23 イーデーテー インテルナツィオナール ディギタール テクノロギース ドイッチュラント ゲーエムベーハー 動体の奥行きモデル化と奥行き情報を提供する装置およびその方法
US7426437B2 (en) * 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
US7912645B2 (en) * 1997-10-22 2011-03-22 Intelligent Technologies International, Inc. Information transfer arrangement and method for vehicles
US7610146B2 (en) * 1997-10-22 2009-10-27 Intelligent Technologies International, Inc. Vehicle position determining system and method
US7983802B2 (en) * 1997-10-22 2011-07-19 Intelligent Technologies International, Inc. Vehicular environment scanning techniques
US7840342B1 (en) * 1997-10-22 2010-11-23 Intelligent Technologies International, Inc. Road physical condition monitoring techniques
US8209120B2 (en) * 1997-10-22 2012-06-26 American Vehicular Sciences Llc Vehicular map database management techniques
US7791503B2 (en) * 1997-10-22 2010-09-07 Intelligent Technologies International, Inc. Vehicle to infrastructure information conveyance system and method
GB9913687D0 (en) * 1999-06-11 1999-08-11 Canon Kk Image processing apparatus
FR2798761B1 (fr) * 1999-09-17 2002-03-29 Thomson Multimedia Sa Procede de construction d'un modele de scene 3d par analyse de sequence d'images
US6377257B1 (en) * 1999-10-04 2002-04-23 International Business Machines Corporation Methods and apparatus for delivering 3D graphics in a networked environment
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
FR2806570B1 (fr) * 2000-03-15 2002-05-17 Thomson Multimedia Sa Procede et dispositif de codage d'images video
CA2403854C (en) * 2000-03-22 2005-06-07 Summit Industries, Inc. A tracking, safety and navigation system for firefighters
GB2378337B (en) * 2001-06-11 2005-04-13 Canon Kk 3D Computer modelling apparatus
US7103211B1 (en) * 2001-09-04 2006-09-05 Geometrix, Inc. Method and apparatus for generating 3D face models from one camera
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
WO2004015369A2 (en) * 2002-08-09 2004-02-19 Intersense, Inc. Motion tracking system and method
EP1431919B1 (en) * 2002-12-05 2010-03-03 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding three-dimensional object data by using octrees
CN1739119A (zh) * 2003-01-17 2006-02-22 皇家飞利浦电子股份有限公司 全深度图采集
US7456847B2 (en) * 2004-08-12 2008-11-25 Russell Steven Krajec Video with map overlay
US7576737B2 (en) * 2004-09-24 2009-08-18 Konica Minolta Medical & Graphic, Inc. Image processing device and program
DE602006004033D1 (de) * 2005-04-19 2009-01-15 Koninkl Philips Electronics Nv Tiefenwahrnehmung
EP2018626B1 (en) 2006-05-09 2019-10-09 Koninklijke Philips N.V. Up-scaling
US8237708B2 (en) * 2006-08-18 2012-08-07 William Edward Mantzel Data structure representing a plenoptic function via compressible layered orthographic projections from multiple orientations
KR20090071624A (ko) 2006-10-04 2009-07-01 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지 개선
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
US20080244466A1 (en) * 2007-03-26 2008-10-02 Timothy James Orsley System and method for interfacing with information on a display screen
US20110109737A1 (en) * 2008-10-08 2011-05-12 Sjoerd Aben Navigation apparatus and method for recording image data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041811A (ja) * 2004-07-26 2006-02-09 Kddi Corp 自由視点画像ストリーミング方式
WO2006137000A1 (en) * 2005-06-23 2006-12-28 Koninklijke Philips Electronics N.V. Combined exchange of image and related data

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013507026A (ja) * 2009-10-02 2013-02-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオにおける追加のビューを生成するための視点の選択
JP2013511190A (ja) * 2009-11-13 2013-03-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオにおける深さ遷移の効率的な符号化
JP2013519155A (ja) * 2010-02-02 2013-05-23 マイクロソフト コーポレーション デプスカメラの互換性
JP2013005025A (ja) * 2011-06-13 2013-01-07 Sharp Corp 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
WO2012172853A1 (ja) * 2011-06-13 2012-12-20 シャープ株式会社 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
WO2013035261A1 (ja) * 2011-09-06 2013-03-14 ソニー株式会社 映像信号処理装置および映像信号処理方法
JP2013055565A (ja) * 2011-09-06 2013-03-21 Sony Corp 映像信号処理装置および映像信号処理方法
JP2013114682A (ja) * 2011-11-30 2013-06-10 Mitsubishi Electric Corp 仮想画像を生成する方法
JP2015516751A (ja) * 2012-04-13 2015-06-11 コーニンクレッカ フィリップス エヌ ヴェ 奥行きシグナリングデータ
WO2014013804A1 (ja) * 2012-07-18 2014-01-23 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
WO2014196374A1 (ja) * 2013-06-05 2014-12-11 ソニー株式会社 画像処理装置および画像処理方法
JPWO2014196374A1 (ja) * 2013-06-05 2017-02-23 ソニー株式会社 画像処理装置および画像処理方法
US10027947B2 (en) 2013-06-05 2018-07-17 Sony Corporation Image processing apparatus and image processing method
JP2019502295A (ja) * 2015-11-09 2019-01-24 ヴァーシテック・リミテッドVersitech Limited アーチファクトを意識したビュー合成のための補助データ
JP7012642B2 (ja) 2015-11-09 2022-01-28 ヴァーシテック・リミテッド アーチファクトを意識したビュー合成のための補助データ
JPWO2018021066A1 (ja) * 2016-07-29 2019-05-09 ソニー株式会社 画像処理装置および画像処理方法
US10999498B2 (en) 2016-07-29 2021-05-04 Sony Corporation Image processing apparatus and image processing method
JP7028168B2 (ja) 2016-07-29 2022-03-02 ソニーグループ株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
EP2201784B1 (en) 2012-12-12
RU2010118466A (ru) 2011-11-20
US20100215251A1 (en) 2010-08-26
CN101822068B (zh) 2012-05-30
EP2201784A1 (en) 2010-06-30
WO2009047681A1 (en) 2009-04-16
JP5575650B2 (ja) 2014-08-20
RU2497196C2 (ru) 2013-10-27
KR20100095420A (ko) 2010-08-30
CN101822068A (zh) 2010-09-01
US8447096B2 (en) 2013-05-21
KR101484487B1 (ko) 2015-01-28

Similar Documents

Publication Publication Date Title
JP5575650B2 (ja) 奥行きマップを処理する方法及び装置
US8767046B2 (en) Image based 3D video format
US9986258B2 (en) Efficient encoding of multiple views
Solh et al. Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video
US9094660B2 (en) Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video
JP5763184B2 (ja) 3次元画像に対する視差の算出
Smolic et al. Development of a new MPEG standard for advanced 3D video applications
Park et al. Depth-image-based rendering for 3DTV service over T-DMB
US8761541B2 (en) Comfort noise and film grain processing for 3 dimensional video
JP2013540402A (ja) ユーザ選好に基づいて3dビデオレンダリングを調節するための3dビデオ制御システム
US11528538B2 (en) Streaming volumetric and non-volumetric video
JP7344988B2 (ja) ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品
JP2015087851A (ja) 画像処理装置及び画像処理プログラム
Bruls et al. Enabling introduction of stereoscopic (3d) video: Formats and compression standards
US10469871B2 (en) Encoding and decoding of 3D HDR images using a tapestry representation
Mantiuk et al. Perception-inspired high dynamic range video coding and compression
WO2023215108A1 (en) Stereoscopic high dynamic range video
Pahalawatta et al. A subjective comparison of depth image based rendering and frame compatible stereo for low bit rate 3D video coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131018

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140702

R150 Certificate of patent or registration of utility model

Ref document number: 5575650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees