JP5329677B2 - 奥行き及びビデオのコプロセッシング - Google Patents

奥行き及びビデオのコプロセッシング Download PDF

Info

Publication number
JP5329677B2
JP5329677B2 JP2011547857A JP2011547857A JP5329677B2 JP 5329677 B2 JP5329677 B2 JP 5329677B2 JP 2011547857 A JP2011547857 A JP 2011547857A JP 2011547857 A JP2011547857 A JP 2011547857A JP 5329677 B2 JP5329677 B2 JP 5329677B2
Authority
JP
Japan
Prior art keywords
depth map
video frame
pixel
edge
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011547857A
Other languages
English (en)
Other versions
JP2012516493A (ja
Inventor
イヴァナ ラデュロヴィック,
ペル フレイデー,
クリントン プリドル,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2012516493A publication Critical patent/JP2012516493A/ja
Application granted granted Critical
Publication of JP5329677B2 publication Critical patent/JP5329677B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Description

本発明は、一般にメディア処理に関し、特にビデオフレーム及び奥行きマップのコプロセッシングに関する。
多視点映像及び3DTVとも呼ばれる自由視点テレビ(Free viewpoint television:FTV)は、ユーザが3Dディスプレイの前で自身の位置を自由に変更しながら3D映像体験ができる新しい音声映像システムである。画面の前の固定位置に座っているユーザに対して3D体験を可能にする一般的な立体テレビとは異なり、FTVは、ユーザがそこにいるかのように多くの異なる角度からシーンを観察することを可能にする。従って、FTVは、ユーザが視点を対話形式で制御できるようにし、あらゆる3D位置から動的シーンの新しいビューを生成する。
FTVフォーマット(形式)は主に2つ存在する。すなわち、2D+Zで知られる多視点+奥行き(multiview+depth)、及び、階層型奥行きビデオ(layered depth vide:LDV)形式であり、前者の方が一般的である。多視点+奥行き表現において、シーンは多くのカメラで異なる角度から取り込まれる。複数のビューは、種々のビューに存在する時間的類似性及び空間的類似性の双方を利用して共に圧縮される。更にFTV機能性を可能にするために、各カメラビューは追加の情報、すなわち奥行きマップ(depth map)を保持すべきである。奥行きマップは単純なグレースケール画像であり、この画像において、各画素はビデオオブジェクトからの対応する画素と取り込みを行うカメラとの間の距離を示す。仮想ビューが任意の閲覧位置において多視点映像及び奥行き情報から生成される。
奥行きマップは、例えば赤外線カメラ又はTOF(Time−Of−Flight)カメラである専用カメラにより取得される。しかし、それらカメラは、その価格のために商業的に展開されていない。一般的な代替手段では、複数の隣接するカメラビューに基づいて奥行きマップを推定するものである。
高品質の奥行きマップを有することは非常に重要である。奥行きマップの誤差により、合成ビューにおいて画素を不適切な場所に配置することになる。これはオブジェクトの境界付近で特に明らかになり、境界付近のノイズクラウドが可視となる。利用可能な最適な奥行き推定アルゴリズムによる奥行きマップの品質は、依然として受け入れられる品質には程遠い。奥行きマップの推定の比較的低い品質は、多くの要因に依存する。第1に、隠蔽された領域の画素、すなわち1つのカメラビューからは可視であるが他のカメラビューから不可視である領域の画素は正確に推定されない。第2に、奥行きの推定に使用される隣接ビューは記録装置及び処理装置からのあるレベルのセンサノイズの影響を常に受け、これは奥行きマップの精度に影響を及ぼす。更に、奥行きマップの推定で使用された隣接ビューからのビデオフレームに対して課される輝度に関する制約を実際に満たすのは困難である。
奥行きマップの低品質に関する問題は、推定された奥行きマップに限定されない。奥行きマップを生成するのに使用される専用カメラには制約があり、奥行きマップの誤差に伝播するノイズを発生する。
従って、奥行きマップの精度及び品質を向上する目的で使用される推定又は生成された奥行きマップにおける不正確な部分の識別を可能にする技術が必要とされる。
文献[5]は、対話形式の視点制御による動的なシーンの生成について開示する。画像処理において、画像は最初にセグメント化され、セグメント毎に初期ディスパリティ空間分布(DSD)を計算する。第2のステップにおいて、各セグメントのDSDは隣接するセグメントを使用して向上される。最後に、画像マット合成は、ディスパリティの不連続に沿う画素に使用され、ビュー合成中のアーチファクトを低減する。
本発明の実施形態は、従来技術の欠点及び制限を克服する。
自由視点テレビと共に使用するに適する奥行きマップ及びビデオフレームのコプロセッシングを提供することが一般的な目的である。
奥行きマップ及びビデオフレームのうちの少なくとも一方の精度及び品質を向上するのが特定の目的である。
これらの目的及び他の目的は、本明細書で開示される実施形態により達成される。
簡単に説明すると、色値を有する複数の画素を含むビデオフレーム及び画素に割り当てられた奥行き値を有する関連する奥行きマップのコプロセッシングは、ビデオフレームの画素の色値に基づいてビデオフレーム内の少なくとも1つのエッジを検出することを含む。奥行きマップ内の少なくとも1つの対応するエッジも、奥行きマップの画素の奥行き値に基づいて検出される。ビデオフレーム及び奥行きマップは、ビデオフレームの少なくとも1つのエッジが奥行きマップの少なくとも1つのエッジと位置合わせされるように位置合わせされるか又は実質的にマージされる。位置合わせされたエッジの対は、不正確な画素プロパティ値すなわち奥行き値又は色値を有する奥行きマップ及びビデオフレームのうちの一方において、好ましくは奥行きマップにおいて、画素を識別するために使用される。そのような不正確な画素は、奥行きマップ又はビデオフレームのエッジ及びビデオフレーム又は奥行きマップの対応する位置合わせされたエッジに対する奥行きマップ又はビデオフレームの画素の位置に基づいて識別される。
ビデオフレーム及び奥行きマップのコプロセッシングにより、奥行きマップ又はビデオフレームの推定又は記録中に不正確な奥行き値又は色値を得た画素の識別が可能になる。識別された画素は、奥行きマップ又はビデオフレームの隣接画素から取得又は判定された正確な画素プロパティ値により不正確な画素プロパティ値を置換することにより補正される。これにより、奥行きマップ又はビデオフレームの精度及び品質は向上する。これは、自由視点テレビシステムにおいて新しい仮想ビューの合成時に奥行きマップ及びビデオフレームを使用する際に重要である。
コプロセッシングシステムは、ビデオフレームの色値及び奥行きマップの奥行き値に基づいてビデオフレーム及びそれに関連する奥行きマップの少なくとも1つの各エッジを検出するエッジ検出器を有する。位置合わせ器は、ビデオフレームのエッジの画素座標が奥行きマップの対応するエッジの画素座標と可能な限り一致するように検出されたエッジを位置合わせする。コプロセッシングシステムは、奥行きマップ及びビデオフレームの位置合わせされたエッジの対に対する少なくとも1つの画素の位置に基づいて不正確な奥行き値/色値を有する奥行きマップ/ビデオフレームの少なくとも1つの画素を識別するために提供された画素識別器を更に含む。
実施形態のコプロセッシングは、エッジを鮮明にし且つそれにより画素プロパティ値の精度を向上することにより奥行きマップ−ビデオフレームの対の品質を向上でき、それにより奥行きマップ−ビデオフレームの対を基礎として使用してあらゆる仮想ビュー合成を改善する。
実施形態は、添付の図面と共に以下の説明を参照することにより、実施形態の更なる目的及び利点と共に最もよく理解されるだろう。
多視点映像を記録する時に有用なカメラアレイを示す概略図である。 仮想ビューをビデオシーケンスに合成することを示す概略図である。 一実施形態に従ってビデオフレーム及び奥行きマップをコプロセッシングする方法を示すフローチャートである。 ビデオフレームの例を示す概略図である。 図4のビデオフレームに対応する奥行きマップを示す図である。 図4のビデオフレームにおいて検出されたエッジを示す図である。 図5の奥行きマップにおいて検出されたエッジを示す図である。 図6のビデオフレームのエッジと図7の奥行きマップのエッジとの位置合わせを示す図である。 不正確な画素プロパティ値を有する画素の識別を示す図8で提示された図面の一部分の拡大図である。 不正確な画素プロパティ値を有する画素のプロパティ値を補正することを示す図である。 図3のコプロセッシング方法の追加のオプションのステップを示すフローチャートである。 図3のコプロセッシング方法の追加のオプションのステップを示すフローチャートである。 奥行きマップのアップスケーリング中に画素プロパティ値を補正することを概略的に示す図である。 一実施形態に係るコプロセッシングシステムを示す概略ブロック図である。
図中、同一の図中符号は同様の要素又は対応する要素に対して使用される。
本明細書で開示されるような実施形態は、観察者の位置に関係なく本来の3次元(3D)映像体験ができる自由視点テレビ(FTV)及び他の映像システムに関連する画像データ及び奥行きデータのコプロセッシングに関する。FTVは、従来のこの技術に対して最も一般的な用語であり、別の使用用語は3DTVである。しかし、3DTVは、正確に使用される場合は実際には表示画面の前の固定位置においてのみ3D映像体験を提供する立体テレビを示す。多視点映像は、特に多視点セットのビデオカメラがステレオ対を作成するのに十分に近接している時にFTVにより達成された効果を示すために使用されることがある。
図1は、FTVの目的で画像データを収集するのに使用されるカメラ10〜15のアレイ1を示す概略図である。従って、FTVにおいて、更に正確にはFTVの多視点+奥行き形式において、図中ではラップトップ20で表されたシーンが複数のカメラ10〜15すなわち少なくとも2つのカメラであるが一般には2つ以上のカメラにより異なる角度から取り込まれる。異なる角度からシーンを取り込むために使用される莫大な数の種々のカメラアレイ1及び構成が存在する。図中に示されたカメラアレイ1は単なる例として考えられるべきであり、それに限定されない。他のアレイの例としては、リニアカメラアレイ、円形カメラアレイ、2次元カメラアレイ等がある。
カメラアレイ1のカメラ10〜15は、画像又はビデオデータ、すなわち画素プロパティ値として色値をそれぞれ有する画素を種々のシーン角度から生成する。更に奥行きデータ、すなわち画素プロパティ値として奥行き値を有する画素を生成するために、同一のカメラ、あるいは赤外線カメラ又はTOFカメラ等の専用カメラが使用される。あるいは、奥行きデータはビデオデータから推定される。ビューの奥行きは、複数の隣接ビュー、一般には2つの隣接ビューに基づいて推定される。一般に、奥行き推定アルゴリズムは、ローカルアルゴリズム、グローバルアルゴリズム及びセグメントを用いたアルゴリズムに分類される。ローカル推定アルゴリズムは、画素の奥行きを判定するために画素値の固定有限ウィンドウを考慮する。明らかに対照的に、グローバル推定アルゴリズムは、グラフカット[1]、[2]又は確率伝播法[3]等のエネルギー最小化技術を適用することにより全ての画素の奥行きを同時に推定する。最後に、セグメントを用いた奥行き推定方法[4]、[5]は、重なり合わないセグメントの集合を有する画像を表し、各セグメントの奥行きが一般にそのセグメント中の画素の一次関数として近似される。
FTVは、合成ビデオ及び画像データから生成されることが実施形態から予想される。そのような場合、シーンを記録するカメラの物理的なアレイは使用されず、シーンの複数の異なる角度からのビデオ又は画像データが合成されて作成される。FTVの観点から、双方の場合のように一般に記録されたビデオデータと作成されたビデオデータとの間に差はなく、本来の3D映像表現を可能にするために奥行きデータが更に必要とされる。
図2は、任意の閲覧位置における仮想ビュー50をビデオ及び奥行きデータから生成する方法を概略的に示す。図2は、図1のカメラビューのうちの1つ等の第1のカメラビュー又は左カメラビュー30を示し、奥行きマップ34により表された関連する奥行きデータを有する1つ以上のビデオフレーム32の形態の関連するビデオデータを含む。一般に図1のカメラアレイの隣接ビューである第2のビュー又は右ビュー40は、1つ以上の対応するビデオフレーム42及び奥行きマップ44を有する。ビデオフレーム32、42及び奥行きマップ34、44は、従来技術において既知の方法でコプロセッシングされ、左ビュー30と右ビュー40との間の閲覧位置において仮想ビュー50を生成する。
以下において、カメラビューの画素プロパティ値として色値を有する複数の画素を含むビデオフレームがカメラビューの画素プロパティ値として奥行き値を有する複数の画素を含む奥行きマップとコプロセッシングされるコプロセッシング方法に関連して実施形態を更に詳細に説明する。ビデオフレームは、カメラビューが物理的なカメラのカメラビューであるか、あるいは合成ビデオフレームに対する想像上のカメラビュー又は仮想カメラビューを表すかに関係なく、カメラビューから得られる複数のビデオフレームのシーケンスの1つのビデオフレームを構成できる。しかし、ビデオフレームは、必ずしもビデオフレームシーケンスの一部を構成する必要はなく、単一のビデオフレーム又は(静止)画像であってもよい。従って、本明細書において使用されるビデオフレームという表現は、ビデオフレームのシーケンスの1つのビデオフレーム及び単一の画像の双方を含む。
ビデオフレームは、各々が色値の形態で画素プロパティ値を有する複数の画素又は画像要素に分割される。従来技術において既知のいくつかの異なる色形式があり、これはビデオフレームと共に使用され、YUV、RC0g及びYCrb等の赤、緑、青(RGB)及び輝度対クロミナンスを含むがそれらに限定されない。ビデオフレームは、ビデオオブジェクトすなわちシーンの要素の対応する画素と取り込みを行うカメラとの間の距離を表す奥行き値を有する画素を含む関連する奥行きマップを更に有する。当該技術分野において、そのような奥行きマップデータは、一般に、256個の異なる奥行きレベルを有する解像度の場合に0〜255等のグレースケール値として表される。オプションとして奥行きデータは、各画素がRGBA値を有するアルファチャネルと呼ばれる第4のチャネルにより保持される。最初の3つのチャネルRGBは、色値の赤色成分、緑色成分及び青色成分を表し、第4のチャネルは奥行きデータを保持する。
カメラのビデオシーケンスのビデオフレームと奥行きマップとの間には1対1関係がある。あるいは、奥行きマップのレートは、カメラからの少なくとも2つの連続したビデオフレームが同一の奥行きマップを共有するように、フレームレートより低くてもよい。
図3は、コプロセッシング方法の一実施形態を示すフローチャートである。方法は、一般にステップS1で開始し、少なくとも1つのエッジがビデオフレームの少なくとも一部分の画素の色値に基づいてビデオフレームにおいて検出される。ステップS1は、ビデオフレームの1つ又はいくつかのエッジを検出することを含むことができ、1つ以上のエッジは一般に事前に選択される。別の方法において、ビデオフレームの画像データに存在する全てのエッジは、ビデオフレームの画素の色値に基づいて検出される。
ビデオフレームのエッジは、非常に異なる色値又はより正確には異なる色値の分布を有するビデオフレーム領域又はセグメント間の境界において発生する。図4は、シーンのビデオフレーム32を示す概略図である。色値データのエッジは、ビデオフレームにおいて黒線で印がつけられる。従って、特にエッジは、木と地面との間の境界、家と地面との間の境界、道路と地面との間の境界及び自動車と道路と地面との間の境界に存在する。2つの家は、異なる色値分布を有する種々の領域、すなわち屋根、外壁、窓及びドアを含む。その結果、エッジはそれらの領域の周囲で見つけられる。
検出されたエッジは、ビデオフレーム内の種々の領域間の内部エッジであるのが好ましいことが本発明により予想される。
エッジ検出は、いわゆるエッジ検出アルゴリズムを使用して自動的に実行される。当該技術分野において既知のそのようなエッジ検出アルゴリズムは多く存在する。一般にエッジ検出アルゴリズムは、種々の画素領域間の画像の輝度の急激な変化を検出するものである。ステップS1においてビデオフレームの少なくとも1つのエッジを識別するために使用されるエッジ検出技術の例として、画像強度関数の勾配の近似値の計算に基づくソーベルオペレータ(Sobel operator)、各画素の局所エッジの向きを見つけるために畳み込みカーネルの集合の最大応答を計算するPrewitt法、対角線方向に隣接する画素間の差分の二乗和を計算することにより動作するロバーツクロスオペレータ、ラプラシアンアルゴリズム、ガウスアルゴリズム、Cannyエッジ検出オペレータ、勾配方向の2次方向導関数のゼロ交差を検出する微分法を使用する微分エッジ検出アルゴリズム、あるいは他の既知の何らかのエッジ検出アルゴリズムが含まれるがそれらに限定されない。文献[6]は、当該分野において開発され且つステップS1で使用される種々のエッジ検出アルゴリズムの詳細な概要を与える。
ステップS1のビデオフレームにおけるエッジ検出は、ビデオフレームを見ているオペレータにより手動で行われてもよい。鮮明な輝度変化の境界等における異なる色値の分布を有する画素領域間のエッジは、オペレータにより視覚的に識別され印がつけられる。オペレータは、少なくとも1つのエッジに対する画素座標が後で使用するために登録されるように少なくとも1つのエッジを描くのが好ましい。
自動及び手動エッジ検出の組み合わせが使用されてもよい。例えば、ステップS1で自動エッジ検出がまず実行され、その後、自動エッジ検出アルゴリズムにより生じたあらゆる明らかな誤差を手動で補正するために手動検証及び補正手順が行われる。
次のステップS1は、ビデオフレームと関連付けられた奥行きマップにおいて少なくとも1つのエッジを検出する。このステップS2のエッジ検出は、奥行きマップの複数の画素の少なくとも一部の奥行き値に基づいて実行される。一般に、奥行きマップのエッジ検出はビデオフレームのエッジ検出と同様の方法で実行されるが、ステップS1では画素が画素プロパティ値として色値を有していたがステップS2では画素が画素プロパティ値として一般にグレースケール値の形態で奥行き値を有するという点が異なる。上記で識別された自動エッジ検出アルゴリズムのいずれかを使用して、奥行きマップの少なくとも1つのエッジ、好ましくは全てのエッジの自動検出を実行する。あるいは、手動エッジ検出又は自動及び手動エッジ検出の組み合わせがステップS1と同様に実行される。いくつかの応用例においては、ステップS1及びステップS2の双方で同一の種類のエッジ検出を使用するのが好ましい。
結果として、奥行きマップのエッジは、好ましくはグレースケール値の大幅な又は急激な変化と関連して、異なる奥行き値分布を有する奥行き値マップの領域間の境界として検出されるのが好ましい。
図5は、図4に示したビデオフレームに対応する奥行きマップ34である。この図示する例において、正面の壁、屋根、自動車及び木は全て、シーンにおけるこれらの要素に対する異なる奥行き値を表す異なる階調(gray levels:GL)を有する。道路及び地面における階調は、カメラからの距離が遠くなるのに伴って滑らかに変化する。一定の階調又は徐々に変化する階調の領域間のエッジは、図において明らかであり、エッジ検出アルゴリズムにより及び/又はオペレータにより手動で検出される。殆どの場合、奥行きマップは、図4及び図5の前方の家から分かるように、ビデオフレームと比較して詳細でない。正面は、窓及びドアとは異なるテクスチャを有するが、それらは全て同一の奥行きを有するため、図5に示した奥行きマップの解像度では同一の階調を有する。
図3のコプロセッシング方法において、ステップS2は、ステップS1に後続するものとして示された。しかし、これは単なる例として考えられるべきである。実際にはステップS1及びS2の順序は、奥行きマップのエッジ検出がビデオフレームのエッジ検出の前に実行されるように交換されてもよい。コプロセッシング方法において順次エッジ検出のみが可能なわけではない。並列処理において、奥行きマップのエッジ検出がビデオフレームのエッジ検出と少なくとも部分的に並列に実行される。
次のステップS3は、ステップS2で検出された奥行きマップの少なくとも1つのエッジ及びステップS1で検出されたビデオフレームの対応する少なくとも1つのエッジを位置合わせする。ビデオフレーム及び奥行きマップは同一サイズを有するのが好ましいがその場合、一般にステップS3は、奥行きマップ及びビデオフレームの隅が重なるようにビデオフレーム及び奥行きマップを位置合わせすることを含む。検出されたエッジは、互いに対して自動的に位置合わせされる。しかし、ステップS3のエッジ位置合わせは、必ずしも完全なビデオフレーム及び奥行きマップを位置合わせすることにより実行される必要はない。明らかに対照的に、ビデオフレームで検出された少なくとも1つのエッジの座標は、一般には画素座標に関して、奥行きマップのエッジの対応する座標と位置合わせされる。
ステップS3の位置合わせされたエッジは、不正確に割り当てられたか又は生成された画素プロパティ値を有する奥行きマップ又はビデオフレームの少なくとも1つの画素を検出するため、ステップS4にて使用される。従って、推定された奥行きマップ又は実際にはカメラで取り込まれた奥行きマップに対する奥行き値の誤差は、位置合わせされたエッジに基づいてステップS4において識別される。それに対応して、ビデオフレームが一般により詳細な構造を有し且つ一般により正確に表されるため、それ程一般的ではないが、不正確な色値を有するビデオフレームの少なくとも1つの画素はステップS4で識別される。この後者の例は、特にビデオフレームの不可逆的圧縮及びその後の伸張の後に起こる可能性があり、それにより伸張又は復号化された画素色値は不可逆的圧縮のために不正確となる可能性がある。
ステップS4において奥行きマップ又はビデオフレームで識別された少なくとも1つの画素は、奥行きマップ又はビデオフレームのエッジ及びビデオフレーム又は奥行きマップの対応する位置合わせされたエッジに対する奥行きマップ又はビデオフレームの1つ又は複数の画素の位置に基づいて更に識別される。従って、2つの位置合わせされたエッジ、すなわち奥行きマップのエッジ及びビデオフレームのエッジは、ステップS4において不正確な画素プロパティ値を有する少なくとも1つの画素を識別するために使用される。
以下において、不正確な奥行き値を有する奥行きマップの画素を識別し且つ好ましくは補正することに関連して実施形態を更に詳細に説明する。他の実施形態が不正確な色値を有するビデオフレームの画素を識別し且つ好ましくは補正できるため、これは好適な例であり、限定しないものとして考えられるべきである。
不正確な奥行き値又は色値を有する画素を識別する目的で、ステップS4において使用された奥行きマップ又はビデオフレームのエッジ、及び、ビデオフレーム又は奥行きマップの対応する位置合わせされたエッジは、奥行きマップ又はビデオフレームの画素の座標に近接して位置付けられるエッジであるのが好ましい。一般に識別された画素は、エッジに隣接して存在するか又は少なくともエッジの近傍に存在する。
ステップS4は、不正確な画素プロパティ値を有する単一の画素又は複数の画素を識別することを含むことができる。後者の場合、全ての不正確な画素が位置合わせされたエッジに近接して奥行きマップ又はビデオフレームに存在する場合、位置合わせされたエッジの同一の対がこれらの画素に対して使用される。あるいは、位置合わせされたエッジの第1の対が少なくとも1つの不正確な画素から成る第1の集合を識別するために使用され、位置合わせされたエッジの第2の対が少なくとも1つの不正確な画素から成る第2の集合を識別するために使用される。更に、不正確な画素プロパティ値を有する画素を識別するために位置合わせされたエッジの対を1つ使用するので十分な場合が殆どであるが、特にシーン要素の隅に存在する座標を占有する画素に対しては複数の位置合わせされたエッジが使用される。
図3のコプロセッシング方法の一実施形態に係るビデオフレーム及び奥行きマップのコプロセッシングについて、図6〜図10と関連して更に説明する。図6は、図4に示したビデオフレーム32において検出されたエッジ70、71を示す。図中、図面を簡略化するために、エッジ70、71の2つのみが図中符号で印がつけられている。印がつけられたエッジ70、71は、地面領域72と家の正面の壁に対応する領域73との間及び地面領域72と家の屋根74との間の境界に存在する。
図7は、検出されたエッジ80、81を含む対応する奥行きマップ34を示す。上述し且つ図6で印がつけられた同一のエッジ80、81及び領域82、83、84は、図7において図中符号で印がつけられている。図6及び図7は、図3のステップS1及びS2の一実施形態に対応する。
図6及び図7の印がつけられたエッジを含む奥行きマップ及びビデオフレームは、図8において位置合わせ又はマージされている。各エッジは、結果として位置合わせ又はマージされる。図中、点線はビデオフレームのエッジに対応し、実線は奥行きマップのエッジに対応する。ビデオフレームの一部のエッジに対して、対応する位置合わせされたエッジが奥行きマップに存在することが図から分かる。しかし、ドア/窓と正面の壁と自動車の窓/ドアとの間等の他のエッジは、奥行きマップに一致するエッジがない。その理由は、この例において使用された奥行き解像度ではドア/窓と正面の壁と自動車の窓/ドアとの間で検出可能な奥行きの差がないからである。
位置合わせされたエッジは、座標に関して互いに完全に一致しないことが図から明らかである。その理由は、奥行き値が奥行きマップの一部の画素に対して不正確に推定又は生成されるためである。このエッジ間の不一致を使用して、誤った画素及び画素プロパティ値を識別し且つ好ましくは補正する。図9は、図8の左下隅の家の拡大図であり、不正確に推定されると識別され且つ図において灰色で印がつけられる前方の家の部分又は画素90を示す。奥行きマップのこれらの不正確な部分90は、ビデオフレーム及び奥行きマップのエッジ70、71、80、81が一致せず、不正確な部分90を取り囲んでいる部分に対応する。
本実施形態において、結果として、図3のステップS4は、奥行きマップのエッジ80、81及びビデオフレームの対応する位置合わせされたエッジ70、71により囲まれるものとして不正確な画素プロパティ値、この例において奥行き値を有する少なくとも1つの画素90を識別することを含む。囲まれた画素90の座標は、図9に示すように位置合わせされた奥行き値及びビデオフレームから識別される。識別された座標と一致する位置を有する奥行きマップの画素は、不正確な奥行き値を有する奥行きマップの画素として示される。不正確な奥行き値は、他の奥行き値により補正又は置換されるのが好ましく、これを図10に概略的に示す。図10は、奥行きマップの不正確に推定された領域がエッジにより判定された同一区画に属する最近接する利用可能な正確に推定された領域又は画素で置換されることを示す。図10に示した矢印は、矢印が指し示す不正確に推定された領域の奥行き値を補正するために奥行き値が得られるべきである領域を示す。例えば、図10の家の左下部分において、家の境界内の一部の画素が地面に属するものとして奥行きマップにおいて推定される。これらの画素の奥行き値は、家の外側の壁に占有された領域に存在する画素の正確な奥行き値により置換されるべきである。正確な奥行き値を有するこの領域すなわち外側の壁の内部の1つ以上の画素の奥行き値は、不正確に推定された画素に割り当てるプロパティ値を判定するために使用される。
不正確に推定されたいくつかの画素に対しては、不正確に推定された画素が実際に属する奥行きマップの領域に属する正確に推定された単一の画素を調査するので十分である。これは、家の正面の壁等の単一の同一の値を有するべきである奥行きマップの画素及びそれらの領域に当てはまる。
不正確に推定された他の画素は、不正確な値を置換する正確な画素プロパティ値を判定するために2つ以上の他の画素を必要とする可能性がある。例えば家の右下隅において、奥行きマップのいくつかの画素は、位置合わせされたエッジの対から明らかであるように地面に属するが、家の正面の壁に対応する奥行き値が不正確に割り当てられている。しかし、地面は単一の奥行き値を有さず、図5に示したように徐々に変化する階調を有する。そのような場合、不正確に推定された画素に対する適切な奥行き値を判定するために、ビデオフレームで示されたような正確な壁−地面のエッジから同一距離に存在する奥行きマップの複数の画素が調査される。
図11は、図3のコプロセッシング方法の追加の好適な置換ステップを示すフローチャートである。方法は、不正確な画素プロパティ値を有する画素を識別するステップS4から継続する。次のステップS10は、不正確な画素プロパティ値を有する画素を含む奥行きマップ及びビデオフレームのうちの一方の少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により不正確なプロパティ値を置換する。ステップS10の一般的な一実施形態において、図6及び図7に示すように、奥行きマップ及びビデオフレームの双方が異なる奥行き値(階調)及び色値の分布を有する複数の領域に分割される。不正確な画素プロパティ値は、図3のステップS4で識別された画素と同一の奥行きマップ又はビデオフレームの領域に属する少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により置換される。これを図10に示す。
コプロセッシング方法の画素の識別及び値の置換は、オペレータにより手動で実行されるか、ハードウェアで実現されたFTV処理デバイスにより自動的に実行されるか、あるいはコンピュータを用いたFTV処理デバイス又はコンピュータにインストールされ且つ実行されるソフトウェアアルゴリズムにより自動的に実行される。
奥行きマップ推定手順の後処理ステップ等、図6〜図10に示し且つ上述した画素補正手順は、既に推定又は生成された奥行きマップ及びビデオフレームに対して実行された。しかし、奥行きマップが先に開示されたようにビデオフレームから推定される場合、不正確な画素プロパティ値、一般には奥行き値の識別、並びにその補正は推定処理中に代わりに又は更に行われてもよい。
場合によっては、奥行きマップはビデオフレームより低い解像度で記録される。例としては、TOF法等の種々の技術が奥行きマップを走査するのに使用される場合、あるいは第2の低解像度カメラが高解像度カメラで撮影されたビデオの奥行きを推定するために使用される場合がある。
奥行きマップの解像度は、好ましくは双線形予測又は補間の形式で隣接画素からの予測により向上される。この手順を図13に概略的に示す。図13の左上部分は、図13の右側に示された対応するビデオフレーム部分32と比較してx方向及びy方向の解像度が半分である奥行きマップ34の一部を示す。アップスケーリング手順において、奥行きマップ32の解像度は、ビデオフレーム34の解像度に対応するように双線形予測(bilinear prediction)を通して2倍にされる。実際の応用例において、そのような1つ以上の連続したアップスケーリング手順及び双線形予測は、ビデオフレーム32と同一の好適な解像度を達成するために必要とされるだろう。
アップスケーリングにより、奥行きマップ34の高解像度バージョンではぼけが生じる。これを図13の上から2番目の部分に示す。ぼけた領域の補間画素90、91は、不正確に推定された奥行き値を有し、その結果、一実施形態のコプロセッシング方法により識別され且つ好ましくは補正される。従って、ビデオフレーム32に存在する対応するエッジ70の情報は、ビデオフレーム32のエッジ70をアップスケーリングされた奥行きマップ34の一致するエッジ80、81と位置合わせすることにより不正確に推定された画素90、91を識別するために使用される。これを図の下から2番目の部分に概略的に示す。この例において、4つの画素91、92は、奥行きマップ及びビデオフレームの位置合わせされたエッジ70、80、81により囲まれる。これらの画素91、92は、結果として不正確な奥行き値を有するものとして識別される。
それらの奥行き値を補正するために、隣接画素からの正確な奥行き値が使用され、図の左下部分に示されている。この値の補正に使用する特定の隣接画素に関しては、位置合わせされたエッジ70、80、81に対する補間画素91、92の位置から誘導される。ビデオフレーム32において異なる奥行き値及び色値を有する2つの隣接する領域間のエッジ70の正確な位置は、補間画素91、92に対する正確な値を判定する時に使用する奥行きマップ34の特定の隣接画素を識別するために使用される。
図12は、奥行きマップの前処理中に実行されたコプロセッシング方法の追加のステップを示すフローチャートである。方法は、好ましくは画素数に関して最高の解像度を有する奥行きマップ及びビデオフレームのうちの一方と同一のサイズを有するように奥行きマップ又はビデオフレームを再スケーリングすることを含む。一般にこれは、補間された画素プロパティ値を有する新しい画素を形成するために奥行きマップ又はビデオフレームの画素プロパティ値を補間することを含む。その後、図3のステップS1に継続する。図3のステップS4は、上述したように奥行きマップ及びビデオフレームの対応する位置合わせされたエッジに対する画素の位置に基づいて補間画素のうち少なくとも1つの画素を識別することを含むのが好ましい。
コプロセッシング方法は、奥行きマップ推定又は生成処理と共に実行されてもよく、あるいは後処理ステップとして別個に行われてもよい。更に奥行きマップの奥行き補正又は実際にはビデオフレームの色補正は、奥行き及び色データの圧縮又は符号化と共に、並びに/あるいは圧縮又は符号化された奥行き及び色データの伸張又は復号化と共に実行される。
低品質で推定又は生成された奥行きマップは、シーンの要素の境界周辺をぼやかすことによりFTVの合成ビューの品質を著しく低下させ、その結果、映像体験は煩わしいものになる。本明細書で開示されたコプロセッシング方法は、低品質で推定される奥行きマップの部分を識別でき、更にそれらの識別された部分を補正して、奥行きマップ及び従って合成された仮想ビューの品質を大幅に向上してもよい。
コプロセッシング方法は、奥行きマップ及びビデオフレームのうちの他方の不正確な画素を識別する補正の基礎として奥行きマップ及びビデオフレームの一方を使用することに基づく。いくつかの応用例において、奥行きマップ及びビデオフレームの双方が不正確な画素を含む。そのような場合、位置合わせされたエッジの対は、奥行きマップの不正確な画素を識別及び補正するために使用される。別のエッジの対又は同一のエッジの対の別の部分は、ビデオフレームの不正確な画素を識別及び補正するために使用される。
コプロセッシングは、実際には複数のステップで実行されてもよい。例えば第1の不正確な画素は、奥行きマップにおいて識別及び補正され、改善された奥行きマップを得る。改善された奥行きマップのエッジは、ビデオフレームの不正確な画素を識別及び補正する目的でビデオフレームのエッジに位置合わせされ、改善されたビデオフレームを得る。オプションとして、改善されたビデオフレーム及び改善された奥行きマップはもう1度位置合わせされ、改善された奥行きマップの品質を更に向上する。
図14は、コプロセッシングシステム100の一実施形態を示す概略ブロック図である。一般にコプロセッシングシステム100は、本明細書で開示するようにコプロセッシングするビデオフレーム及び対応する奥行きマップを受信する入出力ユニット(I/O)110を含む。I/Oユニット110は、コプロセッシングシステム100が色及び奥行きデータを受信する元となるメモリ又は他の接続デバイスに対する一般的なインタフェース又はゲートウェイであってもよい。あるいは、I/Oユニット110は、有線又は無線接続を介してリモートデバイスと通信できる送受信機等の受信機及び送信機により表される。
いずれの場合においても、受信したビデオフレーム及び奥行きマップは、I/Oユニット110からエッジ検出器120に直接転送されるか、あるいはコプロセッシングシステム100に存在するか又は少なくともコプロセッシングシステム100が利用可能であるメモリ150にまず入力され且つその後エッジ検出器120に転送される。エッジ検出器120は、ビデオフレームの少なくとも一部分の各色値に基づいてビデオフレームの少なくとも1つのエッジを検出する。更にエッジ検出器120は、奥行きマップの少なくとも一部分の各奥行き値に基づいて奥行きマップの少なくとも1つの対応するエッジを検出する。エッジ検出器120により行われるエッジ検出は、上述したエッジ検出アルゴリズムのいずれか、あるいは当該技術において既知であり且つソフトウェア、ハードウェア又はハードウェア及びソフトウェアの組み合わせにより実現可能である他の何らかの検出アルゴリズムを使用して実行されるのが好ましい。エッジは、奥行きマップ/ビデオフレームにおいて異なる奥行き値/色値又は異なる奥行き値/色値の分布を有する領域間の境界として検出されるのが好ましい。
別の方法において、エッジ検出器120は、I/Oユニット110に接続されたタッチセンシティブスクリーン、マウス又はキーボード等のユーザ入力デバイスからユーザデータを受信する。このユーザデータは、一般にビデオフレーム及び奥行きマップの検出されたエッジの座標を判定することによりエッジを検出するためにエッジ検出器120により更に処理される。手入力されたユーザデータは、エッジ検出アルゴリズムにより提供されたデータの代わりに又はそのデータを補完するデータとして使用される。
コプロセッシングシステム100の位置合わせ器130は、エッジ検出器120により検出されたエッジ並びに好ましくはビデオフレーム及び奥行きマップを位置合わせするために提供される。接続された画素識別器140は、不正確な画素プロパティ値を有するビデオフレーム又は好ましくは奥行きマップの少なくとも1つの画素を識別するために位置合わせ器130からの位置合わせされたデータを使用する。更に詳細には、画素識別器140は、奥行きマップ又はビデオフレームのエッジ及びビデオフレーム又は奥行きマップの対応する位置合わせされたエッジに対する奥行きマップ又はビデオフレームの画素の位置に基づいて画素識別を実行する。
一実施形態において、画素識別器140は、奥行きマップのエッジ及びビデオフレームの対応する位置合わせされたエッジにより囲まれるものとして少なくとも1つの画素を識別する。この識別は、少なくとも1つの画素の座標をエッジ検出器120により検出されたエッジの座標と比較することにより実行される。従って、ビデオフレームの正確なエッジは、特定の点における画素座標(x2,y)を有する。奥行きマップの位置合わせされたエッジの対応する点は、画素座標(x1,y)を有する。ここで、x1<xkである。これは、座標(x1+1,y)〜(x2,y)を有する奥行きマップの全ての画素が不正確に推定され、奥行きマップのエッジ又は境界の間違った側に属することを意味する。
オプションの好適な値処理器160は、画素識別器140により識別された画素の画素プロパティ値を奥行きマップ又はビデオフレームの少なくとも1つの他の画素の画素プロパティ値に等しいか又はその画素プロパティ値から判定された補正済み画素プロパティ値で置換するためにコプロセッシングシステム100に配置される。不正確な画素に対する補正の基礎として使用する奥行きマップ又はビデオフレームの少なくとも1つの画素は、不正確な画素と同一の奥行きマップ又はビデオフレームの領域に属するのが好ましい。ここで、奥行きマップ又はビデオフレームの領域は、エッジ検出器120により検出されたエッジにより規定される。
オプションのスケール処理器170は、奥行きマップ及びビデオフレームのうちの他方の画素数に関するサイズ及び解像度に対応するように奥行きマップ及びビデオフレームのうちの一方を再スケーリングするように構成される。スケール処理器170は、奥行きマップ及びビデオフレームのうちの他方より低い解像度を有する奥行きマップ及びビデオフレームのうちの一方のアップスケーリングを実行するために画素補間を行うのが好ましい。画素識別器140により識別された少なくとも1つの画素は、奥行きマップ又はビデオフレームの補間済み画素のうちの1つであるのが好ましい。
コプロセッシングシステム100のユニット110〜140、160及び170は、ハードウェア、ソフトウェア又はハードウェア及びソフトウェアの組み合わせで実現される。
ソフトウェアで実現された実施形態の場合、コプロセッシング機能性は、コンピュータのハードドライブ、あるいは他の画像又はビデオ処理ユニット、ROM、RAM等のコンピュータ可読媒体又はメモリに埋め込まれてもよい。特定の一実施形態は、適切なオペレーティングシステム及びメモリ手段を有するコンピュータにインストールされた時に本明細書で開示されたコプロセッシング機能性を実行するように動作するようにコンピュータを構成する機械可読命令の集合を含むコンピュータプログラムに関する。この例において、コンピュータはコンピュータプログラムにより規定されたコプロセッシング機能性を実行する手段を有するあらゆる処理デバイス、端末、ユニット又はシステムを含むように広範に解釈されるべきである。
上述した実施形態は、本発明のいくつかの例として理解される。本発明の範囲から逸脱せずに種々の変形、組み合わせ及び変更が実施形態に対して行われてもよいことが当業者には理解されるだろう。特に種々の実施形態における種々の部分的な解決策は、技術的に可能である他の構成において組み合わされてもよい。しかし、本発明の範囲は添付の請求の範囲により規定される。
参考文献
[1]Boykov及びKolmogrovの「An experimental compression of min−cut/max−flow algorithms for energy minimization in vision」IEEE Transactions on Pattern Analysis and Machine Intelligence、vol.26、no.9、1124〜1137ページ,2004年
[2]Bleyer及びGelautzの「Graph−based surface reconstruction from stereo pairs using image segmentation」in SPIE、vol.5665、288〜299ページ、2005年
[3]Felzenszwalb及びHuttenlocherの「Efficient belief propagation for early vision」in CVPR、261〜268ページ、2004年
[4]Hong及びChenの「Segment−based stereo matching using graph cuts」in CVPR、74〜81ページ、2004年
[5]Zitnick他の「High−quality video view interpolation using a layered representation」in ACM SIGGRAPH、vol.23、No.3、600〜608ページ、2004年
[6]Ziou及びTabboneの「Edge detection technologies−An overview」、International Journal of Pattern Recognition and Image Analysis、vol.8、no.4、537〜559ページ、1998年

Claims (17)

  1. カメラビュー(30)の画素プロパティ値として各色値を有する複数の画素を含むビデオフレーム(32)及び前記カメラビュー(30)の画素プロパティ値として各奥行き値を有する複数の画素を含む奥行きマップ(34)をコプロセッシングする方法であって、
    a)前記ビデオフレーム(32)の前記複数の画素の少なくとも一部分の各色値に基づいて前記ビデオフレーム(32)の少なくとも1つのエッジ(70、71)を検出するステップと、
    b)前記奥行きマップ(34)の前記複数の画素の少なくとも一部分の各奥行き値に基づいて前記奥行きマップ(34)の少なくとも1つのエッジ(80、81)を検出するステップと、
    c)前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)及び前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)を位置合わせするステップと、
    d)前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方のエッジ(80、81)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方の対応する位置合わせされたエッジ(70、71)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの画素(90〜92)の位置に基づいて不正確な画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(90〜92)を識別するステップと
    e)前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換するステップと
    を有することを特徴とする方法。
  2. 前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)は、異なる色値の分布を有する複数の領域(72〜74)に前記ビデオフレーム(32)を分割し、前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)は、異なる奥行き値の分布を有する複数の領域(82〜84)に前記奥行きマップ(34)を分割し、
    前記置換ステップは、前記ステップd)で識別された前記少なくとも1つの画素(90〜92)と同一の前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の領域に属する少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換するステップを含むことを特徴とする請求項に記載の方法。
  3. 前記ステップa)は、前記異なる色値の分布を有するビデオフレーム(70)の複数の領域(72〜74)の間の少なくとも1つの境界として前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)を検出するステップを含むこと特徴とする請求項1又は2に記載の方法。
  4. 前記ステップb)は、前記異なる奥行き値の分布を有する奥行きマップ(32)の複数の領域(82〜84)の間の少なくとも1つの境界として前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)を検出するステップを含むことを特徴とする請求項1乃至のいずれか1項に記載の方法。
  5. 前記ステップc)において前記エッジ(70、71、80、81)を位置合わせする前に前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方と画素に関して同一サイズになるように前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方を再スケーリングするステップを更に含むことを特徴とする請求項1乃至のいずれか1項に記載の方法。
  6. 前記再スケーリングステップは、補間された画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において新しい画素(91、92)を形成するために画素プロパティ値の画素を補間することにより前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方を再スケーリングするステップを含むこと特徴とする請求項に記載の方法。
  7. 前記ステップd)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方のエッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方の前記対応する位置合わせされたエッジ(70)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(91、92)の前記位置に基づいて前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記新しい画素(91、92)のうち前記少なくとも1つの画素(91、92)を識別するステップを含むことを特徴とする請求項に記載の方法。
  8. 前記ステップd)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方の前記対応する位置合わせされたエッジ(70)により囲まれるものとして前記少なくとも1つの画素(90〜92)を識別するステップを含むことを特徴とする請求項1乃至のいずれか1項に記載の方法。
  9. 前記ステップd)は、前記奥行きマップ(32)のエッジ(80、81)及び前記ビデオフレーム(32)の対応する位置合わせされたエッジ(70、71)に対する前記奥行きマップ(34)の少なくとも1つの画素(90〜92)の位置に基づいて不正確な奥行き値を有する前記奥行きマップ(34)の前記少なくとも1つの画素(90〜92)を識別するステップを含むことを特徴とする請求項1乃至のいずれか1項に記載の方法。
  10. カメラビュー(30)の画素プロパティ値として各色値を有する複数の画素を含むビデオフレーム(32)及び前記カメラビュー(30)の画素プロパティ値として各奥行き値を有する複数の画素を含む奥行きマップ(34)をコプロセッシングするシステム(100)であって、
    前記ビデオフレーム(32)の前記複数の画素の少なくとも一部分の各色値に基づいて前記ビデオフレーム(32)の少なくとも1つのエッジ(70、71)を検出し、前記奥行きマップ(34)の前記複数の画素の少なくとも一部分の各奥行き値に基づいて前記奥行きマップ(34)の少なくとも1つのエッジ(80、81)を検出するエッジ検出器(120)と、
    前記ビデオフレーム(32)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(70、71)及び前記奥行きマップ(34)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(80、81)を位置合わせする位置合わせ器(130)と、
    前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方において前記エッジ検出器(120)により検出されたエッジ(80、81)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方において前記エッジ検出器(120)により検出され且つ前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80、81)に対して前記位置合わせ器(130)により位置合わせされた対応するエッジ(70、71)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの画素(90〜92)の位置に基づいて不正確な画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(90〜92)を識別する画素識別器(140)と
    前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換する値処理器(160)と
    を備えることを特徴とするシステム。
  11. 前記ビデオフレーム(32)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(70、71)は、異なる色値の分布を有する複数の領域(72〜74)に前記ビデオフレーム(32)を分割し、
    前記奥行きマップ(34)において前記エッジ検出器(120)により検出された前記少なくとも1つのエッジ(80、81)は、異なる奥行き値の分布を有する複数の領域(82〜84)に前記奥行きマップ(34)を分割し、
    前記値処理器(160)は、前記画素識別器(140)により識別された前記少なくとも1つの画素(90〜92)と同一の前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の領域に属する少なくとも1つの他の画素の画素プロパティ値に基づいて判定された画素プロパティ値により前記不正確な画素プロパティ値を置換するように構成されることを特徴とする請求項10に記載のシステム。
  12. 前記エッジ検出器(120)は、前記異なる色値の分布を有するビデオフレーム(32)の複数の領域(72〜74)の間の少なくとも1つの境界として前記ビデオフレーム(32)の前記少なくとも1つのエッジ(70、71)を検出し且つ前記異なる奥行き値の分布を有する奥行きマップ(34)の複数の領域(82〜84)の間の少なくとも1つの境界として前記奥行きマップ(34)の前記少なくとも1つのエッジ(80、81)を検出するように構成されることを特徴とする請求項10又は11に記載のシステム。
  13. 前記エッジ(70、71、80、81)を位置合わせする前記位置合わせ器(130)の前に前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの他方と画素に関して同一サイズになるように前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの一方を再スケーリングするスケール処理器(170)を更に備えることを特徴とする請求項10乃至12のいずれか1項に記載のシステム。
  14. スケール処理器(170)は、補間された画素プロパティ値を有する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において新しい画素(91、92)を形成するために画素プロパティ値の画素の補間を使用して前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方をアップスケーリングするように構成されることを特徴とする請求項13に記載のシステム。
  15. 画素識別器(140)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において前記エッジ検出器(120)により検出された前記エッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方において前記エッジ検出器(120)により検出され且つ前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80)に対して前記位置合わせ器(130)により位置合わせされる前記対応するエッジ(70)に対する前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記少なくとも1つの画素(91、92)の前記位置に基づいて前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記新しい画素(91、92)のうち前記少なくとも1つの画素(91、92)を識別するように構成されることを特徴とする請求項14に記載のシステム。
  16. 前記画素識別器(140)は、前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方において前記エッジ検出器(120)により検出された前記エッジ(80)並びに前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記他方において前記エッジ検出器(120)により検出され且つ前記ビデオフレーム(32)及び前記奥行きマップ(34)のうちの前記一方の前記エッジ(80、81)に対して前記位置合わせ器(130)により位置合わせされる前記対応するエッジ(70、71)により囲まれるものとして前記少なくとも1つの画素(90〜92)を識別するように構成されることを特徴とする請求項10乃至15のいずれか1項に記載のシステム。
  17. 前記画素識別器(140)は、前記奥行きマップ(32)において前記エッジ検出器(120)により検出されたエッジ(80、81)及び前記ビデオフレーム(34)において前記エッジ検出器(120)により検出され且つ前記奥行きマップ(34)の前記エッジ(80、81)に対して前記位置合わせ器(130)により位置合わせされる対応するエッジ(70、71)に対する前記奥行きマップ(34)の少なくとも1つの画素(90〜92)の位置に基づいて不正確な奥行き値を有する前記奥行きマップ(34)の前記少なくとも1つの画素(90〜92)を識別するように構成されることを特徴とする請求項10乃至16のいずれか1項に記載のシステム。
JP2011547857A 2009-01-27 2009-05-07 奥行き及びビデオのコプロセッシング Expired - Fee Related JP5329677B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14751209P 2009-01-27 2009-01-27
US61/147,512 2009-01-27
PCT/SE2009/050495 WO2010087751A1 (en) 2009-01-27 2009-05-07 Depth and video co-processing

Publications (2)

Publication Number Publication Date
JP2012516493A JP2012516493A (ja) 2012-07-19
JP5329677B2 true JP5329677B2 (ja) 2013-10-30

Family

ID=42395824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011547857A Expired - Fee Related JP5329677B2 (ja) 2009-01-27 2009-05-07 奥行き及びビデオのコプロセッシング

Country Status (4)

Country Link
US (1) US8780172B2 (ja)
EP (1) EP2382791B1 (ja)
JP (1) JP5329677B2 (ja)
WO (1) WO2010087751A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8223192B2 (en) * 2007-10-31 2012-07-17 Technion Research And Development Foundation Ltd. Free viewpoint video
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
KR101214536B1 (ko) * 2010-01-12 2013-01-10 삼성전자주식회사 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
KR101670927B1 (ko) * 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
US10122986B2 (en) * 2011-02-18 2018-11-06 Sony Corporation Image processing device and image processing method
JP2012186781A (ja) 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
JP5537488B2 (ja) * 2011-04-15 2014-07-02 株式会社日立ハイテクノロジーズ 荷電粒子顕微鏡装置および画像撮像方法
CN102985952B (zh) * 2011-05-12 2016-06-22 松下知识产权经营株式会社 图像生成装置及图像生成方法
US9525858B2 (en) 2011-07-06 2016-12-20 Telefonaktiebolaget Lm Ericsson (Publ) Depth or disparity map upscaling
WO2013025157A2 (en) * 2011-08-17 2013-02-21 Telefonaktiebolaget L M Ericsson (Publ) Auxiliary information map upsampling
BR112014007263A2 (pt) * 2011-09-29 2017-03-28 Thomson Licensing método e dispositivo para filtrar um mapa de disparidade
US9071740B1 (en) 2011-10-28 2015-06-30 Google Inc. Modular camera system
US8660362B2 (en) * 2011-11-21 2014-02-25 Microsoft Corporation Combined depth filtering and super resolution
TW201325200A (zh) * 2011-12-02 2013-06-16 Ind Tech Res Inst 三維視訊的景深圖的壓縮方法、裝置、電腦可讀取記錄媒體及電腦程式產品
CN102495907B (zh) * 2011-12-23 2013-07-03 香港应用科技研究院有限公司 具有深度信息的视频概要
US9197686B1 (en) 2012-01-06 2015-11-24 Google Inc. Backfill of video stream
US9537968B1 (en) 2012-01-06 2017-01-03 Google Inc. Communication of socket protocol based data over a storage protocol based interface
CN104350748B (zh) * 2012-04-19 2018-01-23 瑞典爱立信有限公司 使用低分辨率深度图的视图合成
JP6016061B2 (ja) * 2012-04-20 2016-10-26 Nltテクノロジー株式会社 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US9361699B2 (en) * 2012-06-27 2016-06-07 Imec Taiwan Co. Imaging system and method
WO2014007450A1 (ko) * 2012-07-06 2014-01-09 삼성전자주식회사 깊이 영상 처리 장치 및 방법
JP6028426B2 (ja) * 2012-07-10 2016-11-16 株式会社Jvcケンウッド 立体判別画像生成装置、立体判別画像生成方法、立体判別画像生成プログラム
US9460543B2 (en) * 2013-05-31 2016-10-04 Intel Corporation Techniques for stereo three dimensional image mapping
KR20150020953A (ko) * 2013-08-19 2015-02-27 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
JP6102648B2 (ja) * 2013-09-13 2017-03-29 ソニー株式会社 情報処理装置及び情報処理方法
US9729857B2 (en) * 2014-04-08 2017-08-08 Semyon Nisenzon High resolution depth map computation using multiresolution camera clusters for 3D image generation
JP6589313B2 (ja) * 2014-04-11 2019-10-16 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
US9772405B2 (en) * 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
GB2532003A (en) 2014-10-31 2016-05-11 Nokia Technologies Oy Method for alignment of low-quality noisy depth map to the high-resolution colour image
KR102091072B1 (ko) 2014-12-23 2020-03-19 삼성전자주식회사 컨텐츠 제공 장치, 디스플레이 장치 및 그 제어 방법
US10127714B1 (en) * 2015-01-27 2018-11-13 Google Llc Spherical three-dimensional video rendering for virtual reality
EP3273285A4 (en) * 2015-03-18 2018-11-21 National Tsing Hua University Optical system for high-speed three-dimensional imaging
US10326981B2 (en) * 2015-05-15 2019-06-18 Semyon Nisenzon Generating 3D images using multi-resolution camera set
US9544485B2 (en) 2015-05-27 2017-01-10 Google Inc. Multi-mode LED illumination system
US9626849B2 (en) 2015-06-12 2017-04-18 Google Inc. Using scene information from a security camera to reduce false security alerts
US9386230B1 (en) 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
US9454820B1 (en) 2015-06-12 2016-09-27 Google Inc. Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination
US9235899B1 (en) 2015-06-12 2016-01-12 Google Inc. Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination
US9613423B2 (en) * 2015-06-12 2017-04-04 Google Inc. Using a depth map of a monitored scene to identify floors, walls, and ceilings
US9554063B2 (en) 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
US9886620B2 (en) 2015-06-12 2018-02-06 Google Llc Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera
US9489745B1 (en) 2015-06-12 2016-11-08 Google Inc. Using depth maps of a scene to identify movement of a video camera
JP6639120B2 (ja) * 2015-07-01 2020-02-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6667393B2 (ja) * 2016-07-22 2020-03-18 株式会社キーエンス 拡大観察装置
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
CN107071383A (zh) * 2017-02-28 2017-08-18 北京大学深圳研究生院 基于图像局部分割的虚拟视点合成方法
US10834374B2 (en) 2017-02-28 2020-11-10 Peking University Shenzhen Graduate School Method, apparatus, and device for synthesizing virtual viewpoint images
EP3891622A1 (en) * 2018-12-31 2021-10-13 Google LLC Using bayesian inference to predict review decisions in a match graph
CN113141496A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 3d拍摄方法、装置及3d显示终端
JP2023511670A (ja) * 2020-01-21 2023-03-22 プロプリオ インコーポレイテッド 多視点カメラシステムからのデータを用いるなどで深度センサからの深度データを増強する方法及びシステム
US11823355B2 (en) 2021-02-02 2023-11-21 Nvidia Corporation Depth based image sharpening

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
JP3572252B2 (ja) 2000-11-15 2004-09-29 日本電信電話株式会社 実写画像とレンジデータの位置合わせ方法及び装置、並びにこの方法の実行プログラムを記録した記録媒体
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
JP2006214893A (ja) 2005-02-04 2006-08-17 Iwate Univ 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム
US20070201859A1 (en) 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
US8325196B2 (en) * 2006-05-09 2012-12-04 Koninklijke Philips Electronics N.V. Up-scaling
US8009932B2 (en) * 2006-09-13 2011-08-30 Providence Engineering and Environmental Group LLC Automatic alignment of video frames for image processing
DE102006055641B4 (de) 2006-11-22 2013-01-31 Visumotion Gmbh Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
WO2009001255A1 (en) * 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
KR101367284B1 (ko) * 2008-01-28 2014-02-26 삼성전자주식회사 시점 변화에 따른 영상 복원 방법 및 장치
WO2010013171A1 (en) * 2008-07-28 2010-02-04 Koninklijke Philips Electronics N.V. Use of inpainting techniques for image correction

Also Published As

Publication number Publication date
EP2382791A4 (en) 2012-12-12
EP2382791B1 (en) 2014-12-17
JP2012516493A (ja) 2012-07-19
US8780172B2 (en) 2014-07-15
WO2010087751A1 (en) 2010-08-05
US20110285813A1 (en) 2011-11-24
EP2382791A1 (en) 2011-11-02

Similar Documents

Publication Publication Date Title
JP5329677B2 (ja) 奥行き及びビデオのコプロセッシング
Battisti et al. Objective image quality assessment of 3D synthesized views
KR101625830B1 (ko) 깊이 맵을 생성하기 위한 방법 및 디바이스
Zinger et al. Free-viewpoint depth image based rendering
JP5243612B2 (ja) 中間画像合成およびマルチビューデータ信号抽出
CN110268712B (zh) 用于处理图像属性图的方法和装置
US20150085073A1 (en) Quality metric for processing 3d video
EP3311361B1 (en) Method and apparatus for determining a depth map for an image
US20130127844A1 (en) Filling disocclusions in a virtual view
US20150294473A1 (en) Processing of Depth Images
US8817020B2 (en) Image processing apparatus and image processing method thereof
JP2015522198A (ja) 画像に対する深度マップの生成
EP2074586A2 (en) Image enhancement
Sharma et al. A flexible architecture for multi-view 3DTV based on uncalibrated cameras
CN104144334A (zh) 用于立体视频内容的字幕检测
KR101797035B1 (ko) 오버레이 영역의 3d 영상 변환 방법 및 그 장치
Schmeing et al. Edge-aware depth image filtering using color segmentation
Lee et al. View synthesis using depth map for 3D video
JP2014506768A (ja) 三次元シーンの深さデータの処理
US9787980B2 (en) Auxiliary information map upsampling
Wei et al. Iterative depth recovery for multi-view video synthesis from stereo videos
Wei et al. Video synthesis from stereo videos with iterative depth refinement
Wang et al. Local depth image enhancement scheme for view synthesis
Alessandrini et al. Efficient and automatic stereoscopic videos to N views conversion for autostereoscopic displays
Yuan et al. Stereoscopic image-inpainting-based view synthesis algorithm for glasses-based and glasses-free 3D displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130724

R150 Certificate of patent or registration of utility model

Ref document number: 5329677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees