JP2015503253A - 深度マップの処理 - Google Patents

深度マップの処理 Download PDF

Info

Publication number
JP2015503253A
JP2015503253A JP2014534033A JP2014534033A JP2015503253A JP 2015503253 A JP2015503253 A JP 2015503253A JP 2014534033 A JP2014534033 A JP 2014534033A JP 2014534033 A JP2014534033 A JP 2014534033A JP 2015503253 A JP2015503253 A JP 2015503253A
Authority
JP
Japan
Prior art keywords
depth
depth map
value
map
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014534033A
Other languages
English (en)
Inventor
ウィルヘルムス ヘンドリクス アルフォンソ ブルース
ウィルヘルムス ヘンドリクス アルフォンソ ブルース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2015503253A publication Critical patent/JP2015503253A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

三次元3D映像信号内の深度マップが処理される。3D映像信号から第1の深度マップZ1が得られる。第2の深度マップZ2が多次元フィルタ22によって生成され、多次元フィルタ22は、第2の深度マップにスピリングアーティファクトを有させる一方、第1の深度マップは、対応する位置においてより少ないアーティファクトを有し又はかかるアーティファクトを有さない。第1の深度マップと第2の深度マップとの間で深度差が求められ、正の深度差は第2の深度マップ内の深度が観察者にとってより近いことを示す。第1の深度マップの値と第2の深度マップの値とを深度差に応じて結合関数によって結合することにより、最終的な第3の深度マップが生成される。結合関数は深度差が正の場合は第1の値を優先する。

Description

本発明は、三次元[3D]映像信号を処理する方法に関し、この方法は、第1の深度値を含む第1の深度マップ及び第1の深度マップに対応する画像値を含む2D画像を3D映像信号から得るステップと、第2の深度値を有する第2の深度マップを多次元フィルタにより3D映像信号及び/又は第1の深度マップから生成するステップとを含む。
本発明は、3D映像装置及びコンピュータプログラムに更に関する。
本発明は、3D表示装置上での描画を改善するために3D映像データを処理する分野に関する。特に入手可能な又は生成される深度マップが不正確な場合があり、多次元フィルタによるフィルタリング、例えば平滑化によって改善され得る。画像は通常2つの空間次元内でフィルタリングされる一方で、映像データ内の時間が第3の次元として使用されても良い。異なる領域の画像データ(深度マップをフィルタリングするときの画像輝度値など)を更に使用するバイラテラルフィルタやクロスバイラテラルフィルタは、そのような多次元フィルタの典型的な例である。深度マップは、かかるフィルタリングによる深度アーティファクトを有することがある。本発明は、その深度アーティファクトを減らすための改善策を含む。
文献「Discontinuity-adaptive Depth Map Filtering for 3D View Generation, by Sang-Beom Lee and Yo-Sung Ho, Gwangju Institute of Science and Technology, Korea (GIST), Immerscom 2009, May 27-29, 2009, Berkley, USA; ICST ISBN # 978-963-9799-39-4」は深度画像に基づく描画技法を記載し、この技法は、カラー画像及び対応する深度マップを有する仮想ビューの描画プロセスの1つである。深度画像に基づく描画技法の問題は、仮想ビューが、新たに露出される領域、所謂非オクルージョン箇所において情報を有さないことである。一般的な解決策は、3Dワーピングの前にガウス平滑化フィルタを用いて深度マップを平滑化することである。しかし、フィルタされる深度マップは幾何歪みを引き起こし、深度の質が著しく低下される。深度の質を維持しながら非オクルージョン箇所を解決するために、深度マップフィルタリングアルゴリズムが使用される。仮想ビューの見栄えを保つために、変形が更に減らされた状態で深度マップが平滑化される。仮想ビューの位置に応じて対象境界を抽出した後、対象境界の距離及び深度の不連続の量に応じて不連続適合平滑化フィルタが適用される。
上記の方法は、深度マップをフィルタリングする一例であり、その深度マップは3D描画システム内で様々なビューを生成するために使用される。既知の方法の問題は、深度マップが深度アーティファクトを有し得ることである。
本発明の目的は、深度アーティファクトを減らすために深度マップの処理を行うことである。
このために、本発明の第1の態様によれば、導入部に記載の方法は、第1の深度マップは対応する位置においてスピリング(spilling、こぼれ)アーティファクトをより少なく有する又は有さない一方で、第2の深度マップにかかるアーティファクトを有させる多次元フィルタについて、
−第1の深度マップと第2の深度マップとの間の深度差を求めるステップであって、深度差の正の値は第2の深度マップ内の深度が観察者にとってより近いことを示す、深度差を求めるステップと、
−第1の深度値と第2の深度値とを深度差に応じて結合関数によって結合することにより第3の深度マップを生成するステップであって、結合関数は深度差が正の場合は第1の深度値を優先する、第3の深度マップを生成するステップと
を含む。
このために、本発明の更なる態様によれば、3Dディスプレイ上に表示するために3D映像信号を処理するための3D映像装置が、3D映像信号を受け取り、第1の深度マップ及び第1の深度マップに対応する2D画像をその3D映像信号から得るための入力手段であって、第1の深度マップは第1の深度値を含み、2D画像は画像値を含む、入力手段と、第2の深度値を有する第2の深度マップを多次元フィルタにより3D映像信号及び/又は第1の深度マップから生成すること、第1の深度マップと第2の深度マップとの間の深度差を求めることであって、深度差の正の値は第2の深度マップ内の深度が観察者にとってより近いことを示す、深度差を求めること、及び第1の深度値と第2の深度値とを深度差に応じて結合関数によって結合することにより第3の深度マップを生成することであって、結合関数は深度差が正の場合は第1の深度値を優先する、第3の深度マップを生成することを行うように構成される映像プロセッサとを含む。
これらの対策は、深度アーティファクトを減らす効果を有し、とりわけ画像背景内への前景深度値からのスピリングを減らすことができる。更に、背景深度値から前景物への幾らかのスピリングを認めることにより、深度ジャンプが幾らか低減される。実際にこのことは、新たな視点の画像を描画するために、かかる(より小さい深度ジャンプ/遷移を有する)深度マップが使用される場合、新たな視点内で前景物をシフトすることに起因する非オクルージョンテクスチャを有する領域がより小さくなることを含意する。
多次元フィルタ及び第1の深度マップのソースに基づき、それぞれの深度マップ内の深度ジャンプ/遷移の空間的位置がほぼ対応するという点で、第1の深度マップと第2の深度マップとが相関される。更に、第2の深度マップは、フィルタリングの結果としてより安定しているが、一部の空間的位置においてスピリングアーティファクトを有するのに対し、第1の深度マップはかかるアーティファクトをより少なく有し又は有さない。特に、多次元フィルタは第2の深度マップにスピリングアーティファクトを有させるのに対し、第1の深度マップは対応する位置においてかかるアーティファクトをより少なく有し又は有さない。例えば、元の3D映像信号又は第1の深度マップ内の大きい深度差、所謂深度ジャンプは、その付近で第2の深度マップの値に影響し得る。更に、多次元フィルタの入力値内の他の不連続、又は複雑なフィルタ戦略、例えばガイド付きフィルタ(guided filter)による他の不所望の効果もかように出力値に影響し得る。スピリングアーティファクトの一例は、多次元フィルタが背景内の値を、深度ジャンプ、輝度ジャンプ、又はカラージャンプ付近に前方へ動かすことであり得る。これが生じる場合、第1の深度マップとの深度差は正になり、実質的に第1の深度値に基づき前述の結合関数によって出力又は第3の深度マップが生成される。
深度の実際の表現は、特定のシステムによって使用される深度値範囲内の値、例えば高い値が観察者にとって近く、ゼロが無限大である0〜255内の値や、負のデジタル値が表示画面の前の深度を表す−512から+511までの値であり得ることに留意すべきである。更に、深度に基づく値及び/又はフィルタリングについて言及される場合、その用語は視差に基づく表現も包含すると解釈されるべきである。実際、視差マップ及び視差値は典型的には1/Zに基づき、Zは深度である。本明細書では、「正の深度差」における正の定義は、第2の深度マップ内の要素、例えば前述のスピリングによって汚染されたフィルタ済み深度マップ内の画素が、第1の深度マップ内の対応する要素よりも観察者にとって近いことを示す。その場合、結合関数内で実施される第1の値の優先により、第3の深度マップは第1の深度マップ、例えばフィルタリング前の元の深度マップに実質的に基づく値を有する。有利には、前述のフィルタリングにより深度ジャンプが無い領域内では深度の乱れがより見えにくいのに対し、深度アーティファクトを減らすことにより、深度ジャンプの近くでは背景の歪みがより少ない。
本発明は以下の認識にも基づく。従来技術の文献は、深度マップのための平滑化フィルタについて記載する。平滑化フィルタは通常、入力値内の深度ジャンプ又は他の不連続に起因する歪み効果、所謂スピリングを有する。スピリングは、殆どの現実の対象物(例えば顔)に当てはまるように、対象物が後方に丸められるエッジを有することをもたらすので、前景物の境界においては有利であり得る。しかし本発明者らは、スピリングが背景では特に望ましくないことを見出した。例えば、或る対象物(例えば顔)の前景深度値が背景内にスピリングすることは、とりわけカメラ又は前景物が動いている場合、対象物の隣の背景内で目に見える非線形伸縮効果を引き起こす。提案される結合関数により、相変わらず前景内への背景のスピリングを可能にしながら、背景内への前景のスピリングが回避される。
任意選択的に、この結合関数は、深度差が正の場合は第1の深度値を深度差が負の場合は第2の深度値を出力することを含む。有利には、関数の限られた複雑性が、知覚される深度の不正確さの大幅な改善を実現できるようにする。
任意選択的に、この結合関数は、深度差が正の場合は第1の深度値の大部分と第2の深度値の小部分との混合を、深度差が負の場合は第2の深度値を出力することを含む。この効果は、深度差が正である深度ジャンプの近くでは、深度出力値が50%超第1の深度値に基づくこと、即ち元の第1の深度値に基づくことである。このようにして、深度ジャンプの近くの背景において低減される平滑化効果が実現される。この低減は、大部分と小部分との比率によって決まる。任意選択的に、小部分は25%以下である。任意選択的に、この比率は、推定される深度ジャンプのサイズ及び/又は深度ジャンプまでの距離に依存させても良く、大きい深度ジャンプ及び/又は小さい距離は低い小部分、例えば10%になる場合があり、深度ジャンプが小さく又は距離が大きい場合、小部分はより高く、例えば50%である。
任意選択的に、この結合関数は、深度差の絶対値が所定の閾値未満の場合は第2の深度値を出力することを含む。これには、小さい深度差が生じる場合、フィルタ済み深度マップしか使用されない効果がある。差が閾値を上回る場合、この関数は結合関数の上記のオプションと組み合わせられても良い。
任意選択的に、フィルタリングは、バイラテラルフィルタ、クロスバイラテラルフィルタ、バイラテラルグリッドフィルタ、又はクロスバイラテラルグリッドフィルタを含む。バイラテラルフィルタリングによりエッジが保たれる。クロスバイラテラルフィルタは深度値だけでなく、ルーマ及び/又は色などの画像値も使用する。グリッドフィルタは、計算の労力を減らすために、近くにある全ての個々の画素値の代わりに、平均値のグリッドを使用する。指定されたバイラテラルフィルタはエッジを保存しながら深度値を平滑化する効果を有する一方で、所定量のスピリングが生じる。従って、それらのバイラテラルフィルタは、上記の第3の深度マップを生成するステップに、前述のスピリングを局所的に減らす適切な前処理を行う。スピリングを引き起こし得る多次元フィルタの他の例は、ガイド付きフィルタである。
任意選択的に、本方法は、少なくとも1つの更なるカスケード処理ステップを含み、カスケード処理ステップは、差分深度マップを生成するために第1の深度マップから第3の深度マップを減算するステップと、安定化された差分深度マップを生成するために差分深度マップを安定させるステップと、安定化された差分深度マップと第3の深度マップとを足すことにより第4の深度マップを生成するステップとを含む。カスケーディングの効果は、残りのアーティファクトが更に低減されることである。とりわけ深度値及び画像値に基づきクロスバイラテラルフィルタを使用する場合、画像値内の対象物のスピリング効果が更に低減され得る。
本発明による方法、3D装置、及び信号の更なる好ましい実施形態が添付の特許請求の範囲の中で与えられ、その開示は参照により本明細書に援用される。
本発明のこれらの及び他の態様が、以下の説明の中で例として記載される実施形態を参照し、添付図面を参照することで明らかになり更に説明される。
3D画像データを表示するためのシステム内で3D映像データを処理するための装置を示す。 3D映像データを処理するための3D映像プロセッサを示す。 深度値の処理を示す。 カスケード式の強化された深度の安定化を示す。 並列フィルタを有する3D映像プロセッサを示す。 深度マップ生成及び並列フィルタを有する3D映像プロセッサを示す。
図中、既に記載されている要素に対応する要素は同じ参照番号を有する。
本発明は任意の種類の3D映像データに使用され得ることを指摘しておく。このシステムは、3D映像データ内で提供される深度マップを処理する。深度マップは、システムの入力において初めから存在しても、又は以下に記載されるように、例えばステレオ(L+R)映像信号内の左/右フレームから、若しくは2D映像から生成されても良い。3D映像データは、デジタルコード化された電子データとして入手可能であると仮定される。本発明はかかる画像データに関し、デジタル領域内の画像データを操作する。
3D映像フォーマットと呼ばれる、3D映像データがフォーマットされ、転送され得る多くの異なる方法がある。一部のフォーマットは、同様にステレオ情報を運ぶために2Dチャネルを使用することに基づく。例えば、左及び右のビューがインタレースされても良く、又は並べて及び上下に配置されても良い。或いは、2D画像及び深度マップが転送されても良く、ことによるとオクルージョンや透明性データなどの更なる3Dデータが転送されてもよい。インターネットやブルーレイディスク(BD)など、映像データを提供し又は転送する如何なる方法も3D映像データを提供し得る。
図1は、三次元(3D)画像データを表示するためのシステム内で3D映像データを処理するための装置を示す。3Dソースと呼ばれる第1の3D映像装置40が、3Dプレーヤと呼ばれる更なる3D映像装置50に3D映像信号41を与え転送し、3D映像装置50は3D表示信号56を転送するために3D表示装置60に結合される。
図1は、3D映像信号の担体として記録担体54を更に示す。この記録担体はディスクの形をしており、トラック及び中心孔を有する。物理的に検出可能なマークのパターンによって構成されるトラックは、1つ又は複数の情報層の上でほぼ平行なトラックを構成するらせん状の又は同心性の回転パターンによって構成される。この記録担体は、光学ディスク、例えばCD、DVD、又はBD(ブルーレイディスク)と呼ばれ、光学的に読取り可能であり得る。トラックに沿った光学的に検出可能なマーク、例えばピット及びランドにより、情報層の上に情報が具体化される。トラックの構造は、情報ブロックと通常呼ばれる情報単位の位置を指示するための位置情報、例えばヘッダ及びアドレスも含む。記録担体54は、例えばDVDやBDフォーマットなどの既定の記録フォーマット内にMPEG2又はMPEG4コード化システムに従ってコード化される、映像などのデジタルコード化された3D画像データを表す情報を運ぶ。
3Dソースは、入力ユニット47を介して受け取られる3D映像データを処理するための処理装置42を有する。入力される3D映像データ43は、記憶システム、レコーディングスタジオ、3Dカメラ等から入手可能であり得る。映像プロセッサ42は、3D映像データを含む3D映像信号41を生成する。このソースは、3D映像信号を映像プロセッサから出力ユニット46を介して更なる3D映像装置に転送するように、又は例えば記録担体により配布するための3D映像信号を提供するように構成され得る。3D映像信号は、例えば3D映像データ43を符号器48によって既定のフォーマットに従ってコード化しフォーマットすることにより、入力される3D映像データを処理することに基づく。
3Dソースは、サーバ、放送装置、記録装置、又はブルーレイディスクなどの光学記録担体を製造するためのオーサリング及び/若しくはプロダクションシステムとすることができる。ブルーレイディスクは、コンテンツクリエータに映像を配布するための対話型プラットフォームを提供する。ブルーレイディスクフォーマットに関する情報は、オーディオビジュアルアプリケーションフォーマットについての文書内で、ブルーレイディスクアソシエーションのウェブサイト、例えばhttp://www.blu-raydisc.com/Assets/Downloadablefile/2b_bdrom_audiovisualapplication_0305-12955-15269.pdfから入手可能である。光学記録担体の製造工程は、トラック内に物理的なマークのパターンを与えるステップを更に含み、そのパターンは、3Dノイズメタデータを含み得る3D映像信号を具体化し、続いて記録担体の材料をパターンに従って形作り、少なくとも1つの記憶層の上にマークのトラックを与える。
3Dプレーヤ装置は、3D映像信号41を受け取るための入力ユニット51を有する。例えばこの装置は、DVDやブルーレイディスクなどの光学記録担体54から3D映像情報を取得するために入力ユニットに結合される光学ディスクユニット58を含み得る。或いは(又は加えて)、3Dプレーヤ装置は、ネットワーク45、例えばインターネットやブロードキャストネットワークに結合するためのネットワークインターフェイスユニット59を含んでも良く、かかる装置は通常セットトップボックスと呼ばれる。3D映像信号は、3Dソース40によって示されているようなリモートのウェブサイト又はメディアサーバから取得され得る。3Dプレーヤは、衛星放送受信機又はメディアプレーヤとすることもできる。
3Dプレーヤ装置は、出力インターフェイスユニット55を介して表示装置に転送される3D表示信号56、例えばHDMI(登録商標)規格による表示信号(「High Definition Multimedia Interface; Specification Version 1.4a of March 4, 2010」参照、その3Dの箇所はhttp://hdmi.org/manufacturer/specification.aspxで公開ダウンロード用に入手可能である)を生成するために3D情報を処理するための、入力ユニット51に結合される処理装置52を有する。処理装置52は、表示装置60上で表示するための3D表示信号56に含まれる画像データを生成するように構成される。
3D表示装置60は、3D画像データを表示するためのものである。この装置は、3Dプレーヤ50から転送される3D映像データを含む3D表示信号56を受け取るための入力インターフェイスユニット61を有する。転送される3D映像データは、3Dディスプレイ63、例えばデュアルLCDやレンチキュラLCD上に表示するために処理装置62内で処理される。表示装置60は、3Dディスプレイとも呼ばれる如何なる種類の立体ディスプレイでも良い。
3D映像装置内の映像プロセッサ、即ち3D映像装置50内のプロセッサユニット52は、3D映像信号を処理するために以下の機能を実行するように構成される。3D映像信号は入力手段51、58、59によって受け取られ、入力手段は、少なくとも第1の深度マップ(Z1)及び深度マップに対応する2D画像を含む3D映像データを表す3D映像信号を提供する。例えば第1の深度マップは、視差推定によりステレオ(L+R)入力信号から生成されても良い。第1の深度マップは、第1の深度値及び画素の二次元配列内の画像値を含む2D画像を有する。深度マップは画素の二次元配列も有し、2D画像に対応するが、深度マップは異なる分解能を有し得ることを指摘しておく。
3D表示装置60内の映像プロセッサ62は、深度マップを改善するために3D映像データを処理するように構成される。深度マップの処理は、第2の深度値を有する第2の深度マップを生成するために第1の深度マップを多次元フィルタによってフィルタリングすること、第1の深度マップと第2の深度マップとの間の深度差を求めることであって、深度差の正の値は第2の深度マップ内の深度が観察者にとってより近いことを示す、深度差を求めること、及び第1の深度値と第2の深度値とを深度差に応じて結合関数によって結合することにより第3の深度マップを生成することであって、結合関数は深度差が正の場合は第1の値を優先する、第3の深度マップを生成することを含む。多次元フィルタは、2つの空間次元を使用する二次元フィルタとすることができる。更なる次元は時間であり得る。深度マップの処理についての詳細な実施形態が以下で更に明らかにされる。
或いは、3Dプレーヤ装置50内の映像プロセッサ52又は3Dソース装置内の処理装置42が、前述の深度マップの処理を行うように構成されても良い。
深度マップの処理は、2D映像信号から深度マップを生成することが更に先立って行われても良い。前述の3D映像信号の提供は、一連の2D映像フレームを含む2D映像信号を受け取ること、及び一連の2D映像フレームを処理することに基づき第1の深度マップを生成することを含む。そのように生成される深度マップの質はしばしば限られており、本明細書に記載されるように深度マップをフィルタリングし向上させることは、前述の質を大幅に改善し得ることを指摘しておく。深度マップを生成する関数は、3Dプレーヤの入力ユニット51内で、3D表示装置60内の映像プロセッサ62内で、又は3Dソース装置内の処理装置42内で実施されても良い。
深度マップを時間的及び空間的に安定させるために、深度マップに適用されるフィルタリングはバイラテラルグリッド処理であり得る。深度マップに対する好ましい効果の他に、図2及び図3に関して明らかにされるように不所望の副次的効果もある。
図2は、3D映像データを処理するための3D映像プロセッサを示す。生成器ユニットGEN21は動作中、左右映像信号とも呼ばれるステレオ3D信号を受け取り、このステレオ3D信号は、3D効果を発生させるために視聴者のそれぞれの目に向けて表示される左ビュー及び右ビューを表す、左フレームL及び右フレームRの時間系列を有する。次いでこのユニットは、左ビュー及び右ビューの視差推定により第1の深度マップを生成し、左ビュー及び/又は右ビューに基づき2D画像を提供する。視差推定は、LフレームとRフレームとを比較するために使用される動き推定アルゴリズムに基づき得る。或る対象物のLビューとRビューとの間の大きな差は、観察者にとって近い対象物の位置を示す、高い深度値に変換される。生成器ユニットの出力は、第1の深度マップZ1である。第1の深度マップZ1及び対応する2D画像データを提供するために、他の入力ユニットが使用されても良いことを指摘しておく。
或いは、生成器ユニットは、2D映像フレームの時間系列を含む2D映像信号、例えば通常(モノラル)の2D映像信号を受け取り、2D映像フレームの時間系列を処理することに基づき第1の深度マップを生成するように構成されても良い。
第1の深度マップZ1は、第2の深度値を有する第2の深度マップZ2を生成するために、多次元フィルタにより第1の深度マップをフィルタリングするためのフィルタ22に結合される。基本的にこのフィルタは、Z2=f(Z1)で表される、深度マップの任意の適切な後処理を実施することができる。多次元フィルタは、二次元の空間フィルタとすることができる。更なる次元は時間であり得る。
例えばフィルタは、例えばガウスフィルタなどの任意の平滑化フィルタ、特にエッジを不鮮明にする任意のフィルタリング操作とすることができる。任意選択的に、このフィルタは、バイラテラルフィルタ、クロスバイラテラルフィルタ、又はバイラテラルグリッドフィルタとすることができる。
そのため、フィルタリングは画像処理の基本的操作である。「フィルタリング」という用語の最も広い意味において、所与の位置におけるフィルタ済み画像の値は、同じ位置の小さい(周辺)区域内の入力画像の値の関数である。例えば、ガウスの低域フィルタリングは区域内の画素値の加重平均を計算し、その計算では区域の中心からの距離に比例して重みが低下する。画像は、典型的には空間上でゆっくり変化し、そのため近くの画素は同様の値を有する可能性が高く、従ってそれらを一緒に平均するのが適切である。これらの近くの画素を破損するノイズ値は信号値よりも互いに相関しておらず、そのため信号が保たれながら、ノイズが平均され除去(averaged away)される。
しかし、空間的変化が遅いという仮定は、線形低域フィルタリングにより絶えずぼやけるエッジにおいては働かない。バイラテラルフィルタリングは、エッジ保存平滑化のための既知の非反復的手法である。バイラテラルフィルタリングの基礎を成す基本的な考えは、従来のフィルタがその領域内で行うことを画像の範囲内で行うことである。2つの画素は互いに近くても、つまり近くの空間的位置を占めても良く、又は互いに似ていても良く、つまりことによると知覚的に意味のある態様で近い値を有し得る。平滑領域では、小さい区域内の画素値が互いに似ており、バイラテラルフィルタは実質的に標準のドメインフィルタとして機能し、ノイズによって引き起こされる画素値間の小さな弱相関の差を平均して除去する。暗領域と明領域との間のくっきりした境界では、値の範囲が考慮に入れられる。バイラテラルフィルタの中心が境界の明るい側の画素に置かれる場合、相似関数は同じ側にある画素については1に近い値を、暗い側にある画素については0に近い値を想定する。その結果フィルタは、中心にある明るい画素を、その付近にある明るい画素の平均で置換し、暗い画素を事実上無視する。範囲成分のおかげで優れたフィルタリング作用が境界において実現され、くっきりしたエッジが同時に保たれる。
バイラテラルフィルタリングによりエッジが保たれる。更に、クロスバイラテラルフィルタが使用されても良く、クロスという語は、同じ画像の2つの異なるが、対応する表現が使用されることを示す。クロスバイラテラルフィルタリングの一例は、http://www.stanford.edu/class/cs448f/lectures/3.1/Fast%20Filtering%20Continued.pdfの中で見つけることができる(特にジョイント(=クロス)バイラテラルアップサンプリングについて説明するシートを参照されたい)。
提案されるクロスバイラテラルフィルタは、深度値を使用するだけでなく、輝度及び/又は色に基づく画像値(通常ルーマ値と呼ばれる)に関する更なる入力を有する。この更なる入力は、LUと印付けされている矢印として図2に示されている。ルーマ値は、2D入力データ、例えば破線矢印20によって示されているステレオ入力信号内のLフレームから得られても良い。クロスフィルタリングは、ルーマ値内のエッジと深度内のエッジとの全体的な対応関係に基づく。しかし、そのような対応関係が存在しない場所では、深度マップ内のクロスルーマアーティファクトが生じる。
任意選択的に、計算量を減らすために、バイラテラルフィルタ(又はクロスバイラテラルフィルタ)が所謂グリッドフィルタによって実装されても良い。フィルタの入力として個々の画素値を使用する代わりに、画像がグリッドに細分され、値がグリッドの1区画にわたって平均される。値の範囲はバンドに更に細分されても良く、そのバンドはバイラテラルフィルタ内の重みを設定するために使用され得る。バイラテラルグリッドフィルタリングの一例は、例えばhttp://groups.csail.mit.edu/graphics/bilagrid/bilagrid_web.pdfから入手可能な文献「Real-time Edge-Aware Image Processing with the Bilateral Grid, by Jiawen Chen, Sylvain Paris, Fredo Durand; Computer Science and Artificial Intelligence Laboratory, Massachusetts Institute of Technology」の中で見つけることができる。特にこの文献の図3を参照されたい。
任意選択的に、フィルタ22を実装するために、ステレオから自動ステレオへの変換において一般に適用されるようなガイド付きフィルタの実装が使用されても良い。そのようなものとして、ガイド付きフィルタは、例えばhttp://research.microsoft.com/en-us/um/people/jiansun/papers/GuidedFilter_ECCV10.pdfから入手可能な文献「Guided Image Filtering, by Kaiming He(Department of Information Engineering, The Chinese University of Hong Kong), Jian Sun (Microsoft Research Asia), and Xiaoou Tang (Shenzhen Institutes of Advanced Technology, Chinese Academy of Sciences, China)」で知られている。
フィルタ22の出力である第2の深度マップZ2は、深度差を求めて深度マップを結合する関数を指すDT+COと印付けされている混合ユニット23の入力に結合される。混合ユニットは、元の(フィルタされていない)深度マップZ1を受け取るための第2の入力を有する。深度差は、第1の深度マップと第2の深度マップとの間で求められ、深度差の正の値は第2の深度マップ内の深度が観察者にとってより近いことを示す。深度マップを結合する関数は、第1の深度値と第2の深度値とを深度差に応じて結合関数によって結合することにより第3の深度マップZ3を生成することを含む。結合関数は、深度差が正の場合は第1の値を優先する。前述の優先を実施するために様々な選択肢が利用可能である。
第1の実施形態では、結合関数が、深度差が正の場合は第1の深度値を、深度差が負の場合は第2の深度値を出力する。基本的に、結合関数は次式で表され得る。
IF(Z2>Z1)出力=Z1、さもなければ出力=Z2
或いは、結合関数は以下の基準を実行することができる。
(Z2<Z1、そのためZ1の方が近い):出力はZ2である
(Z2>Z1、そのためZ2の方が近い):出力はZ1である
更に、以下のように閾値THが追加されても良い。
(Z2−Z1<TH):出力はZ2である
(Z2−Z1>TH):出力はZ1である
第2の実施形態では、結合関数が、深度差が正の場合は第1の深度値の大部分と第2の深度値の小部分との混合を、深度差が負の場合は第2の深度値を出力することを含む。そのためZ2の値がZ1よりも低い場合(負の深度差)、出力はZ2、即ちフィルタ済み深度マップに基づく。しかしZ2の値がZ1よりも高い場合(正の深度差)、出力は主にZ1に基づき、即ち少なくとも50%の大部分がZ1(フィルタされていない深度マップ)に基づき、50%未満の小部分はZ2に基づく。Z2の減衰のための実際的な値は25%である。すると小部分は25%、或いは更に小さいパーセンテージである。
更なる実施形態では、結合関数が、深度差の絶対値が所定の閾値、例えば深度範囲の10%未満の場合は第2の深度値を出力することを含む。例えば、画像の深度範囲は8ビット値を使って表され、即ち深度範囲は0〜255である。従って、小さな差はエッジと見なされず、深度値がクリップされ又は操作されることはない。
実際、結合関数は以下の基準を実行することができる。
(Z2<Z1、そのためZ1の方が近い):出力は100%Z2である
(Z2>Z1、そのためZ2の方が近い):出力は10%Z2+90%Z1である
更に、以下のように閾値THが追加されても良い。
(Z2−Z1<TH):出力は100%Z2である
(Z2−Z1>TH):出力は10%Z2、90%Z1である
Z1及びZ2の更なる適切な比率は、75%〜25%又は60%〜40%であり得る。
更なる実施形態では、深度差を求めることが、或る領域内の深度値を評価し、深度ジャンプを別途検出することによって更に強化される。深度ジャンプが(例えば閾値を適用することにより)検出されない場合、混合ユニットはZ2を出力する。深度ジャンプが検出される場合、Z1とZ2との混合が既定の比率に応じて適用される。従って、最も近いジャンプから少し離れている場合、Z2だけが使用される。前述の距離又は比率は、深度差に基づき更に調節されても良い。大きいジャンプはそれだけ急な比率をもたらすことができ、その付近ではほぼZ1だけを使用する。
図3は深度値の処理を示す。図の一番上は、背景の前の対象物31、例えば顔を含む深度マップの断面を示す。第1の深度マップZ1が概略的に示されており、深度値33が対象物の深度位置を示している。深度マップの空間的及び時間的安定を改善するために、上記の処理が適用される。Z1は、深度又は視差推定器からのより安定していない深度マップである。Z2は、フィルタリング後の、例えばルーマ及び深度に関する表を構築することに基づくバイラテラルグリッド処理後の安定化された深度である。しかし、深度のエッジにおけるルーマの遷移並びにルーマ及びZ1の不完全なアラインメントにより、ルーマと深度の関係及びスプラッティング関数を使用することはエッジの周りでスピリング(Z2では36、38)と呼ばれる深度の歪みを引き起こす。
深度値33及び対象物の両側の深度ジャンプ34、35には、ノイズがあると概略的に示されている。実際、エッジ位置における深度値は不安定である。より安定した深度マップZ2を生成するために、平滑化フィルタが適用される。
深度マップZ2では、スピリングアーティファクトが示されている。第1の領域36は、前景深度のスピリングによる深度アーティファクトを示す。第2の領域38は、背景深度のスピリングによる更なる深度アーティファクトを示す。最後にこの図面は深度マップZ3を示す。Z3では、第3の領域37が本発明の効果を示し、Z1の深度値を使用することによりスピリングが除去されている。フィルタリングとその後に続く結合関数により深度マップZを安定させる強化された関数ZSTAB24が、図2の中の矢印によって示されている。
様々な視野角(即ち視聴者の目の位置)からの複数のビューが生成されなければならない場合、背景に対する対象物の深度ジャンプがオクルージョンを決定することを指摘しておく。Z1における深度ジャンプの大きさが矢印32によって示される一方、処理済みの深度マップZ3における深度ジャンプ39の大きさの方が小さい。小さい深度ジャンプには、複数のビューのために生成されなければならないオクルージョンデータがより少ないという利点がある。正確なオクルージョンデータの必要性を減らすことは、オクルージョンホールを埋めるために単純な背景の伸縮を可能にする。
図4は、カスケード式の強化された深度の安定化を示す。この回路は図2に示されている回路に基づき、第1の深度マップZ1を生成するための対応する生成器ユニットGEN21を有する。第1の深度マップZ1は、図2のZSTABと印付けされた部分に対応する、強化された深度マップ安定器25によって安定化される。ZSTABのクロスバイラテラルフィルタ実装は、ルーマ値に関する更なる入力(破線の入力信号LUによって示す)を有する。任意選択的に、ZSTAB関数25は、代わりに単に上記の(クロス)バイラテラルフィルタ22又は他の任意の適切な深度マップ安定化関数でも良い。安定器25の安定化された深度マップZaは減算器26に結合され、減算器26は、安定化された深度マップZaから元の深度マップZ1を減算して差分深度マップZbを生成する。差分深度マップZbは、更なる強化された安定器27に入力され、そのようにしてカスケード式の深度安定器を構成する。更なる強化された安定器27は、ここでも任意選択的にルーマ入力を有する上記のZSTAB関数とすることができる。第1の強化された安定器25と同じルーマ値が使用され得る。安定化された差分深度マップZcが加算器28に結合され、加算器28は、安定化された深度マップZaを加算し、最終的な深度マップZdをもたらす。
実際上、安定化された深度マップZa内に依然として存在するアーティファクトは、差分深度マップZb内にも存在し、減算関数によって反転されている。Z1からのノイズもZb内に存在し得るが、アーティファクトの構造を保存する、更なる強化された安定器27によって相殺される。最後に、反転されたアーティファクトが安定化された深度マップZaに加算される。例えば、黒い目と黒い背景を有する顔は、背景の影響を受ける目の深度位置をもたらし得る(クロスルーマ効果)。目は後方へ押し込まれる。元の深度マップZ1では目はほぼ顔の深度を有し、従って差分深度マップZbは目の位置における前方への効果(forward effect)を反映し、かかる効果は加算器28における前述の後方への押し込みを補償する。このようにしてこの回路は、空間的及び時間的な安定化された深度マップの利益を依然として有しながら、深度マップに対するバイラテラルフィルタのクロスルーマ効果を減らすことを可能にする。
図5は、並列フィルタを有する3D映像プロセッサを示す。第1のフィルタFILT−1 71は動作中、深度マップ及び2D画像データ、又は3D映像データの他の任意の表現を含み得る3D映像信号を受け取る。FILT−1は、第1の深度マップZ1を生成する更なる多次元フィルタを構成する。任意選択的に、第1のフィルタは、ルーマ値に関する更なる入力LU1を有するクロスバイラテラルフィルタとすることができる。第2のフィルタFILT−2 72も動作中に3D映像信号を受け取る。第2のフィルタFILT−2は、図2に関して上記で説明された、前述のスピリングを発生させる多次元フィルタ22に対応する。任意選択的に、第2のフィルタは、ルーマ値に関する更なる入力LU2を有するクロスバイラテラルフィルタとすることができる。任意選択的に、第2のフィルタユニット72は、Z1を受け取るための更なる入力を有することができる。図2と同様に、フィルタ72の出力である第2の深度マップZ2は、混合ユニット23に関して上記で説明されたように、深度差を求めて深度マップを結合する関数を指すDT+COと印付けされている混合ユニット73の入力に結合される。混合ユニットは、第1の深度マップZ1を受け取るための更なる入力を有する。上記の直列構成と同様に、混合ユニットは、背景内の前述のスピリングをほぼ除去するために結合関数を実施する。
実際の例では、入力される深度マップが既知の技法を用いて平面画像又はステレオ画像に基づき生成され、その後、後処理、即ち同様のフィルタ特性を有するが異なるフィルタフットプリントを有する2つの並列な二次元ガウスフィルタを使用してフィルタされる。第1の深度マップは、第2の深度マップを生成するために使用される第2のガウスフィルタの第2のフィルタフットプリントよりも小さい第1のフィルタフットプリントを有する、第1のガウスフィルタによって生成される。その結果、第2のガウスフィルタは、第1のガウスフィルタよりも広い領域にわたり深度の遷移を不鮮明にする。
上記のガウスフィルタの代わりに、2つのクロスバイラテラル後処理フィルタを使用することも可能であり得る。クロスバイラテラルフィルタは、平面画像からの輝度及び/又は色情報を使用し、画像コンテンツ内の輝度及び/又は色の遷移に対して深度マップ内の深度の遷移を再調整する。
また或いは、第1の深度マップは、例えば(クロス)バイラテラルフィルタやガイド付きフィルタなどのエッジ保存及び/又は再構築フィルタを使用して生成されるのに対し、第2の深度マップは、上記の二次元ガウスフィルタなどのエッジ平滑化フィルタを使用して生成される。
任意選択的に、後処理が局所的に施されることを更に指摘しておく。本発明が適用される深度マップ内の空間領域を選択するための様々な基準が考えられる。例えば、本発明による方法は、この方法が特定の空間領域に適用されるかどうかを決定するために、深度の遷移についての閾値を利用することができる。或いは、又は加えて、この方法を適用する空間領域は、第1の深度マップ内のエッジと第2の深度マップ内のエッジとの間の実証済みの相関に基づいて選択されても良い。このために、本発明が特定の空間位置内で適用され得るかどうかを、例えば見つかった相関に対して閾値を適用することにより明らかにする目的で、第1の深度マップ内の空間領域内の深度値を、第2の深度マップ内の対応する空間領域に相関させる追加の空間相関ステップが、本発明による方法に追加されても良い。
図6は、深度マップ生成及び並列フィルタを有する3D映像プロセッサを示す。深度マップ生成器80(3DRS CABE disp estと印付けされている)は動作中、左フレームL及び右フレームRを有するステレオ3D信号を受け取る。次いでこのユニットは、左ビュー及び右ビューの視差推定により第1の深度マップZ0を生成し、左ビュー及び/又は右ビューに基づき2D画像データを提供する。生成器80の出力であるZ0は、第1の深度マップZ1を生成する第1のフィルタ81に結合される。第1のフィルタは、小さいカーネルのバイラテラルグリッド、パラメータセットB、及びルーマ値のための入力LBを有するように概略的に示されている。Z0は、第2の深度マップZ2を生成する第2のフィルタ82にも結合される。第2のフィルタは、大きいカーネルのバイラテラルグリッド、パラメータセットA、及びルーマ値のための入力LAを有するように概略的に示されている。図2と同様に、第1の深度マップZ1及び第2の深度マップZ2が、結合関数
If(Z2>Z1)Z1、さもなければZ2
を有するように概略的に印付けされている混合ユニット83の入力に結合される。
結合関数は、混合ユニット23に関して上記で説明されたように、深度差を求めて深度マップを結合する様々な関数を指す。大きい方のカーネルではパラメータセットAが選択され、より多くのノイズ及び/又はアーティファクトの低減をもたらしているが、より多くのスピリングももたらしている。小さい方のカーネルではパラメータセットBが選択され、より少ないアーティファクトの低減をもたらしているが、スピリングも少ない。上記のように、3D映像装置は、3Dコンテンツソース装置又は3D表示装置に相当し得る。3D表示装置は、例えばシャッターグラスや偏光子ベースのステレオ表示装置などの立体表示装置を含むと理解され、本発明は平面コンテンツを立体コンテンツに変換するために使用されても良く、又は本発明は立体コンテンツを後処理するために使用される。
しかし本発明は、レンチキュラ表示装置やバリアベースの多視点表示装置などの自動立体表示装置でも等しい効果で適用することができ、本発明はかかるディスプレイで使用するためにモノラル/ステレオコンテンツを複数のビューに変換するために使用される。
実際、3D映像装置は、立体カメラシステム機器に基づき深度マップを出力する3Dカメラなど、平面から立体への変換又は深度マップの立体(後)処理を要求する装置を含むように理解される。
上記の説明では、明瞭にするために、本発明の実施形態を機能ユニット及びプロセッサに関して説明したことが理解される。しかし、様々な機能ユニット又はプロセッサ間での任意の適切な機能分散が、本発明から逸脱することなしに使用され得ることが明らかである。例えば、別々のユニット、プロセッサ、又はコントローラによって実行されるように示されている機能が、同じプロセッサ又はコントローラによって実行されても良い。従って、特定の機能ユニットへの言及は、厳密な論理的又は物理的構造若しくは構成を示すのではなく、記載された機能を提供するための適切な手段への言及に過ぎないと見なされるべきである。本発明は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せを含む任意の適切な形式で実装され得る。
上記では殆どの実施形態が装置に関して与えられているが、同じ機能が対応する方法によって実現される。かかる方法は、任意選択的に、1個又は複数のデータプロセッサ及び/又はデジタル信号プロセッサ上で実行されるコンピュータソフトウェアとして少なくとも部分的に実装されても良い。本発明の実施形態の要素及びコンポーネントは、任意の適切な方法で物理的に、機能的に、及び論理的に実装され得る。
或る特徴が特定の実施形態に関連して説明されているようである場合、記載された実施形態の様々な特徴が本発明に従って組み合わせられても良いことを当業者なら理解されよう。個々の特徴が有利に組み合わせられても良く、別の請求項に含めることは、特徴の組合せが実現可能でないこと及び/又は有利でないことを含意しない。更に、或る請求項のカテゴリに特徴を含めることは、このカテゴリに限定することを含意せず、むしろその特徴が必要に応じて他の請求項のカテゴリに等しく適用可能であることを示す。更に、請求項の中の特徴の順序は、それらの特徴を働かせなければならない特定の順序を一切含意せず、とりわけ方法クレーム内のそれぞれのステップの順序はステップがその順序で行われなければならないことを含意しない。むしろ、ステップは任意の適切な順序で実行され得る。加えて、単数形での言及は複数形を除外しない。従って、「a」、「an」、「第1の」、「第2の」等の言及は複数形を排除しない。特許請求の範囲の中の参照符号は明確にするための例として与えるに過ぎず、特許請求の範囲を如何なる態様でも限定するものとして解釈されるべきでない。
このために、本発明の第1の態様によれば、導入部に記載の方法は、第1の深度マップは対応する位置においてスピリング(spilling)アーティファクトをより少なく有する又は有さない一方で、第2の深度マップにかかるアーティファクトを有させる多次元フィルタであって、バイラテラルフィルタ、クロスバイラテラルフィルタ、バイラテラルグリッドフィルタ、クロスバイラテラルグリッドフィルタ、及びガイド付きフィルタのうちの少なくとも1つを含む多次元フィルタについて、
−第1の深度マップと第2の深度マップとの間の深度差を求めるステップであって、深度差の正の値は第2の深度マップ内の深度が観察者にとってより近いことを示す、深度差を求めるステップと、
−第1の深度値と第2の深度値とを深度差に応じて結合関数によって結合することにより第3の深度マップを生成するステップであって、結合関数は深度差が正の場合は第1の深度値を優先する、第3の深度マップを生成するステップと
を含む。
このために、本発明の更なる態様によれば、3Dディスプレイ上に表示するために3D映像信号を処理するための3D映像装置が、3D映像信号を受け取り、第1の深度マップ及び第1の深度マップに対応する2D画像をその3D映像信号から得るための入力手段であって、第1の深度マップは第1の深度値を含み、2D画像は画像値を含む、入力手段と、第2の深度値を有する第2の深度マップを多次元フィルタにより3D映像信号及び/又は第1の深度マップから生成することであって多次元フィルタは、バイラテラルフィルタ、クロスバイラテラルフィルタ、バイラテラルグリッドフィルタ、クロスバイラテラルグリッドフィルタ、及びガイド付きフィルタのうちの少なくとも1つを含む、生成すること、第1の深度マップと第2の深度マップとの間の深度差を求めることであって、深度差の正の値は第2の深度マップ内の深度が観察者にとってより近いことを示す、深度差を求めること、及び第1の深度値と第2の深度値とを深度差に応じて結合関数によって結合することにより第3の深度マップを生成することであって、結合関数は深度差が正の場合は第1の深度値を優先する、第3の深度マップを生成することを行うように構成される映像プロセッサとを含む。
ィルタリングは、バイラテラルフィルタ、クロスバイラテラルフィルタ、バイラテラルグリッドフィルタ、又はクロスバイラテラルグリッドフィルタを含む。バイラテラルフィルタリングによりエッジが保たれる。クロスバイラテラルフィルタは深度値だけでなく、ルーマ及び/又は色などの画像値も使用する。グリッドフィルタは、計算の労力を減らすために、近くにある全ての個々の画素値の代わりに、平均値のグリッドを使用する。指定されたバイラテラルフィルタはエッジを保存しながら深度値を平滑化する効果を有する一方で、所定量のスピリングが生じる。従って、それらのバイラテラルフィルタは、上記の第3の深度マップを生成するステップに、前述のスピリングを局所的に減らす適切な前処理を行う。スピリングを引き起こし得る多次元フィルタの他の例は、ガイド付きフィルタである。

Claims (15)

  1. 三次元映像信号を処理する方法であって、
    −第1の深度値を含む第1の深度マップ及び前記第1の深度マップに対応する画像値を含む2D画像を前記3D映像信号から得るステップと、
    −第2の深度値を有する第2の深度マップを多次元フィルタにより前記3D映像信号及び/又は前記第1の深度マップから生成するステップであって、前記多次元フィルタは、前記第2の深度マップにスピリングアーティファクトを有させる一方、前記第1の深度マップは、対応する位置においてより少ないアーティファクトを有する又はかかるアーティファクトを有さない、生成するステップと、
    −前記第1の深度マップと前記第2の深度マップとの間の深度差を求めるステップであって、前記深度差の正の値は前記第2の深度マップ内の深度が観察者にとってより近いことを示す、深度差を求めるステップと、
    −前記第1の深度値と前記第2の深度値とを前記深度差に応じて結合関数によって結合することにより第3の深度マップを生成するステップであって、前記結合関数は前記深度差が正の場合は前記第1の深度値を優先する、第3の深度マップを生成するステップと
    を含む、方法。
  2. 前記結合関数は、前記深度差が正の場合は前記第1の深度値を、前記深度差が負の場合は前記第2の深度値を出力することを含む、請求項1に記載の方法。
  3. 前記結合関数は、前記深度差が正の場合は前記第1の深度値の大部分と前記第2の深度値の小部分との混合を、前記深度差が負の場合は前記第2の深度値を出力することを含む、請求項1に記載の方法。
  4. 前記小部分が25%以下である、請求項3に記載の方法。
  5. 前記結合関数は、前記深度差の絶対値が所定の閾値未満の場合は前記第2の深度値を出力することを含む、請求項1に記載の方法。
  6. 前記フィルタリングが、バイラテラルフィルタ、クロスバイラテラルフィルタ、バイラテラルグリッドフィルタ、又はクロスバイラテラルグリッドフィルタを含む、請求項1に記載の方法。
  7. 前記方法が少なくとも1つの更なるカスケード処理ステップを含み、前記カスケード処理ステップは、
    −差分深度マップを生成するために前記第1の深度マップから前記第3の深度マップを減算するステップと、
    −安定化された差分深度マップを生成するために前記差分深度マップを安定させるステップと、
    −前記安定化された差分深度マップと前記第3の深度マップとを足すことにより第4の深度マップを生成するステップと
    を含む、請求項1に記載の方法。
  8. −左ビューフレーム及び右ビューフレームを含むステレオ3D映像信号を受け取り、前記Lフレーム及びRフレームを処理することに基づき前記第1の深度マップを得るステップか、
    −2D映像フレームの時間系列を含む2D映像信号を受け取り、前記2D映像フレームの時間系列を処理することに基づき前記第1の深度マップを得るステップか、又は
    −前記3D映像信号を受け取り、更なる多次元フィルタにより前記第1の深度マップを得るステップ
    を含む、請求項1に記載の方法。
  9. 三次元映像信号を処理するための3D映像装置であって、
    −前記3D映像信号を受け取り、第1の深度マップ及び前記第1の深度マップに対応する2D画像を前記3D映像信号から得るための入力手段であって、前記第1の深度マップは第1の深度値を含み、前記2D画像は画像値を含む、入力手段と、
    −映像プロセッサであって、
    −第2の深度値を有する第2の深度マップを多次元フィルタにより前記3D映像信号及び/又は前記第1の深度マップから生成することであって、前記多次元フィルタは、前記第2の深度マップにスピリングアーティファクトを有させる一方、前記第1の深度マップは、対応する位置においてより少ないアーティファクトを有する又はかかるアーティファクトを有さない、生成すること、
    −前記第1の深度マップと前記第2の深度マップとの間の深度差を求めることであって、前記深度差の正の値は前記第2の深度マップ内の深度が観察者にとってより近いことを示す、深度差を求めること、及び
    −前記第1の深度値と前記第2の深度値とを前記深度差に応じて結合関数によって結合することにより第3の深度マップを生成することであって、前記結合関数は前記深度差が正の場合は前記第1の値を優先する、第3の深度マップを生成することを行う映像プロセッサと
    を含む、3D映像装置。
  10. 前記結合関数は、前記深度差が正の場合は前記第1の深度値を、前記深度差が負の場合は前記第2の深度値を出力することを含む、請求項9に記載の装置。
  11. 前記結合関数は、前記深度差が正の場合は前記第1の深度値の大部分と前記第2の深度値の小部分との混合を、前記深度差が負の場合は前記第2の深度値を出力することを含む、請求項9に記載の装置。
  12. 前記フィルタリングが、バイラテラルフィルタ、クロスバイラテラルフィルタ、バイラテラルグリッドフィルタ、又はクロスバイラテラルグリッドフィルタを含む、請求項9に記載の装置。
  13. 前記入力手段が生成器を含み、前記生成器は、
    −3D効果を発生させるために視聴者のそれぞれの目に向けて表示される少なくとも左ビュー及び右ビューを含む左右映像信号を受け取り、
    −前記左ビュー及び前記右ビューの視差推定により前記第1の深度マップを生成し、
    −前記左ビュー及び/又は前記右ビューに基づき前記2D画像を提供する、請求項9に記載の装置。
  14. コンピュータ上で実行されるとき、請求項1乃至8の何れか一項に記載の方法のステップをプロセッサに実行させるように動作可能なコンピュータプログラムコード手段を含む、コンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラムを含む、コンピュータ可読媒体。
JP2014534033A 2011-10-10 2012-10-05 深度マップの処理 Pending JP2015503253A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161545219P 2011-10-10 2011-10-10
US61/545,219 2011-10-10
PCT/IB2012/055364 WO2013054240A1 (en) 2011-10-10 2012-10-05 Depth map processing

Publications (1)

Publication Number Publication Date
JP2015503253A true JP2015503253A (ja) 2015-01-29

Family

ID=47351874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014534033A Pending JP2015503253A (ja) 2011-10-10 2012-10-05 深度マップの処理

Country Status (8)

Country Link
US (1) US20140285623A1 (ja)
EP (1) EP2745269B1 (ja)
JP (1) JP2015503253A (ja)
CN (1) CN104185857A (ja)
BR (1) BR112014008270A2 (ja)
IN (1) IN2014CN02296A (ja)
RU (1) RU2014118585A (ja)
WO (1) WO2013054240A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173441A (ja) * 2014-03-03 2015-10-01 ノキア コーポレイション 立体画像の視差マップ推定のための方法,装置及びコンピュータプログラム製品
JP2016533686A (ja) * 2013-08-30 2016-10-27 クアルコム,インコーポレイテッド 全焦点画像を生成するための方法および装置
JP2016208098A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
WO2017172083A1 (en) * 2016-04-01 2017-10-05 Intel Corporation High dynamic range depth generation for 3d imaging systems
JP2019212969A (ja) * 2018-05-31 2019-12-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2022096096A (ja) * 2020-12-17 2022-06-29 株式会社ティーアンドエス 映像配信方法及びそのためのプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9451232B2 (en) 2011-09-29 2016-09-20 Dolby Laboratories Licensing Corporation Representation and coding of multi-view images using tapestry encoding
TW201432622A (zh) * 2012-11-07 2014-08-16 Koninkl Philips Nv 產生一關於一影像之深度圖
US9866813B2 (en) 2013-07-05 2018-01-09 Dolby Laboratories Licensing Corporation Autostereo tapestry representation
WO2015011599A1 (en) * 2013-07-24 2015-01-29 Koninklijke Philips N.V. Method for aligning spatially different subvolumes of ultrasonic data of a blood vessel
US9967538B2 (en) 2013-11-04 2018-05-08 Massachussetts Institute Of Technology Reducing view transitions artifacts in automultiscopic displays
US9756316B2 (en) * 2013-11-04 2017-09-05 Massachusetts Institute Of Technology Joint view expansion and filtering for automultiscopic 3D displays
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
KR102114969B1 (ko) * 2015-06-08 2020-06-08 삼성전자주식회사 광학 장치 및 깊이 정보 생성 방법
RU2721175C2 (ru) * 2015-06-16 2020-05-18 Конинклейке Филипс Н.В. Способ и устройство для определения карты глубины для изображения
CN105007495B (zh) * 2015-08-20 2018-07-20 上海玮舟微电子科技有限公司 一种基于多层3drs的差异估计方法及装置
TWI608447B (zh) * 2015-09-25 2017-12-11 台達電子工業股份有限公司 立體影像深度圖產生裝置及方法
CN109074660B (zh) * 2015-12-31 2022-04-12 Ml 荷兰公司 单目相机实时三维捕获和即时反馈的方法和系统
EP3500822A4 (en) 2016-08-18 2019-08-28 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS FOR ADVANCED STEREOSCOPIC PRESENTATION
CN108009462B (zh) * 2016-10-31 2021-07-30 中南大学 一种应用于轨检仪基本弦轨向数据的滤波方法
CN106709432B (zh) * 2016-12-06 2020-09-11 成都通甲优博科技有限责任公司 基于双目立体视觉的人头检测计数方法
US10419771B2 (en) * 2017-02-08 2019-09-17 Zpeg, Inc. Method and system for improved image compression
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
TWI672677B (zh) 2017-03-31 2019-09-21 鈺立微電子股份有限公司 用以融合多深度圖的深度圖產生裝置
CN108986156B (zh) * 2018-06-07 2021-05-14 成都通甲优博科技有限责任公司 深度图处理方法及装置
CN111091592B (zh) * 2018-10-24 2023-08-15 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备及可读存储介质
US10949684B2 (en) 2019-05-08 2021-03-16 Ford Global Technologies, Llc Vehicle image verification
US11138452B2 (en) 2019-10-08 2021-10-05 Ford Global Technologies, Llc Vehicle neural network training

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101223552A (zh) * 2005-08-17 2008-07-16 Nxp股份有限公司 用于深度提取的视频处理方法和装置
WO2007052191A2 (en) * 2005-11-02 2007-05-10 Koninklijke Philips Electronics N.V. Filling in depth results
ATE514285T1 (de) * 2007-07-26 2011-07-15 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur tiefenbezogenen informationspropagierung
JP5156837B2 (ja) * 2007-11-09 2013-03-06 トムソン ライセンシング 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
CN101398933B (zh) * 2008-10-17 2010-09-15 北京大学 一种从图像中恢复三维几何信息的方法
EP2184713A1 (en) * 2008-11-04 2010-05-12 Koninklijke Philips Electronics N.V. Method and device for generating a depth map
KR101547151B1 (ko) * 2008-12-26 2015-08-25 삼성전자주식회사 영상 처리 방법 및 장치
US20110032341A1 (en) * 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content
US8817073B2 (en) * 2011-08-12 2014-08-26 Himax Technologies Limited System and method of processing 3D stereoscopic image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016533686A (ja) * 2013-08-30 2016-10-27 クアルコム,インコーポレイテッド 全焦点画像を生成するための方法および装置
JP2015173441A (ja) * 2014-03-03 2015-10-01 ノキア コーポレイション 立体画像の視差マップ推定のための方法,装置及びコンピュータプログラム製品
JP2016208098A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
WO2017172083A1 (en) * 2016-04-01 2017-10-05 Intel Corporation High dynamic range depth generation for 3d imaging systems
JP2019212969A (ja) * 2018-05-31 2019-12-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP7214368B2 (ja) 2018-05-31 2023-01-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2022096096A (ja) * 2020-12-17 2022-06-29 株式会社ティーアンドエス 映像配信方法及びそのためのプログラム

Also Published As

Publication number Publication date
BR112014008270A2 (pt) 2017-04-18
IN2014CN02296A (en) 2015-06-19
CN104185857A (zh) 2014-12-03
US20140285623A1 (en) 2014-09-25
EP2745269B1 (en) 2015-03-11
EP2745269A1 (en) 2014-06-25
WO2013054240A1 (en) 2013-04-18
RU2014118585A (ru) 2015-11-20

Similar Documents

Publication Publication Date Title
EP2745269B1 (en) Depth map processing
JP6258923B2 (ja) 3d映像を処理するための品質メトリク
US9041709B2 (en) Saliency based disparity mapping
US8624964B2 (en) Depth dependent filtering of image signal
Zinger et al. Free-viewpoint depth image based rendering
EP1991958B1 (en) Directional hole filling in images
TW201432622A (zh) 產生一關於一影像之深度圖
US10095953B2 (en) Depth modification for display applications
EP2323416A2 (en) Stereoscopic editing for video production, post-production and display adaptation
EP1839267B1 (en) Depth perception
US20130069942A1 (en) Method and device for converting three-dimensional image using depth map information
JP2007502454A (ja) マルチビュー画像の生成
JP2008518317A (ja) 視差マップ
JP6351588B2 (ja) 奥行きフィルタリング用のメタデータ
EP1815441B1 (en) Rendering images based on image segmentation
Xu et al. Depth map misalignment correction and dilation for DIBR view synthesis
JP2014022867A (ja) 画像処理装置および方法、並びにプログラム
JP5254297B2 (ja) 画像処理装置
TWI463434B (zh) 將2d影像形成3d影像之影像處理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170508