JP2010534878A - 深さ関連情報伝達のための方法及び装置 - Google Patents

深さ関連情報伝達のための方法及び装置 Download PDF

Info

Publication number
JP2010534878A
JP2010534878A JP2010517520A JP2010517520A JP2010534878A JP 2010534878 A JP2010534878 A JP 2010534878A JP 2010517520 A JP2010517520 A JP 2010517520A JP 2010517520 A JP2010517520 A JP 2010517520A JP 2010534878 A JP2010534878 A JP 2010534878A
Authority
JP
Japan
Prior art keywords
depth map
depth
image
map
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010517520A
Other languages
English (en)
Other versions
JP4886898B2 (ja
Inventor
クリスティアーン ファレカンプ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2010534878A publication Critical patent/JP2010534878A/ja
Application granted granted Critical
Publication of JP4886898B2 publication Critical patent/JP4886898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、第1の画像820と関連した第1の深さマップ810から第2の画像830と関連した第2の深さマップ860へと深さ関連情報を伝達するための装置及び方法に関し、第1及び第2の画像は、画像シーケンス中で時間的に隣接する画像である。本方法は、第1の画像820及び第2の画像830のピクセルを用いて、第1の深さマップ810から中間の深さマップ840へと深さ値を伝達することによって第2の画像830と関連した中間の深さマップ840を生成し、第1の深さマップ810中の第1の位置周辺の空間領域の深さ値及び中間の深さマップ840中の第2の位置周辺の空間領域の深さ値を含む情報を用いて動きベクトル850を生成し、動きベクトル850及び第1の深さマップ810を含む情報を用いて第2の深さマップ860中の第2の位置の深さ値を生成する。

Description

本発明は、第1の画像と関連した第1の深さマップから第2の画像と関連した第2の深さマップへと深さ関連情報を伝達するための方法及び装置に関し、第1の画像と第2の画像は、画像シーケンス中で時間的に隣接する画像である。
最近の数年にわたって、さまざまな企業が、三次元(3D)画像のレンダリングに適した自動立体視(autostereoscopic)ディスプレイを活発に開発している。これらの装置は、特別なヘッドギアや眼鏡を必要とすることなく、3次元な印象を観察者に提示することができる。
自動立体視ディスプレイは、一般に、異なる視角に対する異なるビューを生成する。このように、第1の画像は、観察者の左眼に対して生成され、第2の画像は右眼に対して生成されることができる。適切な画像(すなわち左眼及び右眼の視点からそれぞれ適切な画像)を表示することによって、それぞれの画像を表示して、3次元的な印象を観察者へ伝えることが可能である。
様々な技術が、そのような自動立体視ディスプレイのための画像を生成するために用いられることができる。例えば、マルチビュー画像が複数のカメラを用いて記録されることができ、それぞれのカメラの位置は、それぞれのビューのそれぞれの視点と対応する。あるいは、個々の画像は、3次元コンピュータモデルを用いて生成されることができる。
下位互換性を維持して、帯域幅使用を改善するために、多くの自動立体視ディスプレイは、従来の2次元画像及び対応する深さマップのシーケンスの形の入力シーケンスを用いる。
深さマップは、画像中に示される対象物のカメラに対する絶対的又は相対的な距離を示す深さ情報を提供する。一例として、深さ情報を表現するための一般的な方法は、8ビットグレースケール画像による。深さマップは、ピクセル単位での深さ情報を提供することができるが、当業者にとって明らかなように、各々の深さマップ値が複数のピクセルの深さ情報を提供する、より低い解像度の深さマップのようなより粗い粒度を用いることもできる。
視差マップが、上述の深さマップに代わるものとして用いられることができる。視差は、2つの視点から(例えば、左眼の視点及び右眼の視点から)観察されたときの、シーン中の対象物の見かけのシフトを指す。視差情報及び深さ情報は関連していて、一般的に当業者に知られているように、互いにマップされることができる。
上記から、深さ関連情報及び深さ値との用語は、本説明の全体にわたって用いられて、視差情報と同様に少なくとも深さ情報を含むと理解される。
画像シーケンス及び対応する深さ関連情報マップ(即ち略して深さマップ)のシーケンスを自動立体視ディスプレイに提供することによって、自動立体視ディスプレイは、一人以上の観察者に対してコンテンツの複数のビューをレンダリングすることができる。新たに作成されるコンテンツは正確に記録された深さ値を備えているかもしれないが、多くの従来の2次元(2D)画像シーケンスは、必要とされる深さ値を含まない。
2次元コンテンツを3次元コンテンツに変換するさまざまなアプローチが知られており、その幾つかは、人間の介入を伴わないリアルタイム変換を対象とし、一方他のアプローチは、人が補助する2次元から3次元への変換を対象にする。後者のアプローチにおいて、オペレータは一般に、選択されたキーフレームのための深さ情報を定め、そしてこの深さ情報はその後、非キーフレームに伝達される。深さ値が画像シーケンス中の画像のサブセットだけで利用可能な場合に、同様のアプローチが深さ値を伝達するために用いられることができる。
既知のアプローチが国際特許出願WO2002/13141に示される。このアプローチによれば、ネットワークは、キーフレームからのピクセルのサブセットのための注釈付深さ値を用いて調整される。この情報は、テクスチャ情報と深さ特性との間の関係を知るために用いられる。調整されたネットワークはその後、キーフレーム全体の深さ情報を生成するために用いられる。第2のフェーズの間、キーフレームの深さマップは、画像特性及びキーフレームに対する相対的な距離から、非キーフレームのための深さマップを生成するために用いられる。
既知のアプローチに関する問題は、異なる深さに位置する同様のテクスチャ情報を有する対象物を扱うことが難しいことである。
本発明の目的は、この問題を改善し、第1の画像と関連した第1の深さマップから第2の画像と関連した第2の深さマップへと深さ関連情報を伝達する(第1の画像と第2の画像は画像シーケンスにおいて時間的に近接した画像である)ことを目指す、代わりのソリューションを提供することである。
この目的は、本発明による方法によって実現され、当該方法は、第1の画像及び第2の画像のピクセルを用いて、第1の深さマップから中間の深さマップへと深さ値を伝達することによって第2の画像と関連した中間の深さマップを生成し、第1の深さマップ中の第1の位置周辺の空間領域の深さ値及び中間の深さマップ中の第2の位置周辺の空間領域の深さ値を有する情報を用いて運動ベクトルを生成し、前記運動ベクトル及び第1の深さマップを含む情報を用いて第2の深さマップ中の前記第2の位置の深さ値を生成する。
第1及び第2の画像は、同様だが異なるタイムスタンプを有する画像シーケンスからの画像を表す。結果として、一般的に、第1及び第2の画像は互いに似ているが、例えばカメラ視点、カメラセッティング、対象物の動き及び/又は対象物の変化といった変動の結果として異なる。
したがって、それぞれ第1及び第2の画像と関連した第1及び第2の深さマップはさらに異なるタイムスタンプに関連する。本発明は、第1の画像と関連した第1の深さマップからの深さ値を用いて、第2の画像のための深さマップを生成することを意図する。それゆえに、本発明は、第1の深さマップから第2の深さマップへと情報を伝達する。
信頼できる深さマップ(例えば手動で注釈をつけられたキーフレームの深さマップ)の深さ値の伝達の間に、伝達される深さマップは一般的に、キーフレームの近くではわずかなエラーを示し、キーフレームからさらに離れるとさらに重大なエラーを示すことが知られている。
そのような伝達エラーはエラーがまだ比較的小さいときに早期に訂正される必要があることを本発明者は洞察した。追加ボーナスとして、より小さいエラーは、より小さい開口を有するフィルタの使用を可能にする。伝達エラーを早い段階で訂正するために、本発明者は、多段階アプローチを提案する。第1のステップにおいて、第1の深さマップから深さ値を伝達することによって中間の深さマップが生成される。ここで「伝達」という用語は、第1の深さマップが中間の深さマップと異なるタイムスタンプに関連することを強調するために用いられる。第1の深さマップからの深さ値は、第1及び第2の画像の両方の画像特性(例えば輝度、彩度及び/又はテクスチャ)に基づくフィルタを用いて伝達されることができる。結果として生じる中間の深さマップは、第2の深さマップの初期推定と解釈されることができる。
好ましくは、中間の深さマップは、バイラテラルフィルタ(Bilateral Filter)を用いて生成される。しかしながら、例えば機械学習アプローチの使用のような他のアプローチが代わりに用いられることができる。
第2のステップにおいて、第1の深さマップ中の第1の位置周辺の空間領域及び中間の深さマップ中の第2の位置周辺の空間領域からの情報を用いて、動きベクトルが決められる。中間の深さマップ中の第2の位置周辺の空間領域及び第1の深さマップ中の第1の位置周辺の空間領域が、比較的高い相関、すなわち第1の深さマップ中の他の空間領域に比べて高い相関を示すように、動きベクトルは選択される。
第3のステップにおいて、動きベクトルは、動きベクトル及び第1の深さマップを含む情報を用いて、第2の深さマップ中の前記第2の位置の深さ値を生成するために用いられる。
上述のように、キーフレームからの注釈付深さ値、あるいは本発明によって既に伝達された深さ値は、さらなるフレームに伝達されることができる。第2のステップは、第1の深さマップ中の第1の位置の空間状況及び第2の深さマップ中の第2の位置の空間状況の両方を明確に考慮する。動きベクトルによって適切であることが示される状況において第1の深さマップからの深さ値を用いることにより、特に類似した色及び異なる深さの対象物の第1の深さマップに存在する対象物境界は実質的に維持されることができる。上述のように、本発明は、従来技術の問題を効果的に改善する。
一実施例において、第2の深さマップ中の第2の位置のための深さ値は、動きベクトル及び第1の深さマップからの深さ値だけを用いて形成される。この場合には、動きベクトルは、第1の深さマップから第2の深さマップへ深さ値及び/又は領域をコピーするために用いられる。第1及び第2の位置は、動きベクトルのソース及びターゲットに対応する。上述の実施の形態の利点は、第1の深さマップから第2の深さマップへ深さ値をコピーすることによって、第1の深さマップの境界整合性が実質的に維持されることである。
更なる実施の形態において、第2の深さマップ中の第2の位置のための深さ値の生成は、動きベクトル及び第1の深さマップに基づく深さ値並びに中間の深さマップ中の第2の位置における深さ値に基づく深さ値を含む候補セットから深さ値を選択することを含む。上述のアプローチの利点は、深さ値を第1の深さマップからコピーすることが結果として満足な結果にならない場合には、中間の深さマップがフォールバックとして用いられることができることである。この実施の形態の好ましい変形例において、動きベクトル生成は、動きベクトルの絶対差分の合計(Sum of Absolute Differences: SAD)の計算を含み、SADは、深さ値を前記候補セットから選択するために用いられる。
更に他の実施の形態において、第2の深さマップの深さ値及び/又はブロックを形成するために、第1の深さマップ及び中間の深さマップの両方の深さ値及び/又は領域は、組み合わせられ、例えば混合される。このようにして、深さ値の間のより連続した遷移が達成されることができる。この実施の形態は、中間の深さマップ(すなわち第2の深さマップの初期の推定) からの寄与に重みづけするために信頼性尺度が用いられるときに、特に効率的である。
本発明の一実施例では、中間の深さマップ生成は、第1の画像の少なくとも1つのピクセル及び第2の画像の少なくとも1つのピクセル(両方のピクセルは、伝達されるそれぞれの深さ関連情報において空間的に近接している)に基づく重み付け係数を用いて、第1の深さマップからの深さ値の加重加算によって、中間の深さマップ中の深さ値を計算すること含む。
上述の実施の形態の好ましい実施の形態において、重み係数は、第1の画像からの少なくとも1つのピクセルと第2の画像からの少なくとも1つのピクセルとの間の差分の非線形関数に基づいて決定される。このようにして、結果として生じる深さ値において相当な差分を示すピクセルの影響は抑制されることができる。
本発明の目的は、第1の画像と関連した第1の深さマップから第2の画像と関連した第2の深さマップへと深さ関連情報を伝達するための深さマップ伝達装置によってさらに実現され、第1及び第2の画像は、画像シーケンス中で時間的に近接した画像であり、前記装置は、第1の画像及び第2の画像のピクセルを用いて第1の深さマップから中間の深さマップへと深さ値を伝達することによって第2の画像と関連した中間の深さマップを生成するために配置される第1の生成手段、第1の深さマップ中の第1の位置周辺の空間領域の深さ値及び中間の深さマップ中の第2の位置周辺の空間領域の深さ値を含む情報を用いて動きベクトルを生成するために配置される第2の生成手段、並びに、動きベクトル及び第1の深さマップを含む情報を用いて第2の深さマップ中の前記第2の位置のための深さ値を生成するために配置される第3の生成手段を有する。
本発明のこれらの及び他の有利な態様は、以下の図を用いてさらに詳細に説明される。
バイラテラルフィルタを用いた深さ伝達の方法を示す図。 コンピューター生成画像及びバイラテラルフィルタを用いて伝達される深さマップの例を示す図。 本発明によって対処される深さ曖昧性問題を示す図。 本発明によって対処される新色問題を示す図。 本発明による方法のフローチャートを示す図。 本発明による深さマップ伝達の例を示す図。 本発明による深さ伝達装置のブロック図。 本発明による消費者向け電子回路装置及びコンテンツ変換装置の両方のブロック図。
図面は尺度通りに描かれていない。一般に、同一の構成要素は、図中で同じ参照符号によって示される。
半自動化された2Dから3Dへのコンテンツ変換、すなわち人間が補助するコンテンツ変換を実行する場合、変換プロセスは、非キーフレームに深さ値を伝達するために用いられる自動外挿ルーチンによって生じるエラーによって影響される場合がある。非キーフレームへの深さ値の伝達を自動化するために本発明の発明者によって適用される一つの方法は、バイラテラルフィルタリングを用いる。"Bilateral filtering for Gray and Color Images," C. Tomasi et al, Proceedings of the International Conference on Computer Vision, 1998に開示されるように(この文献は本明細書に参照として組み込まれる)、バイラテラルフィルタは本来は画像のエッジ保存平滑化のために開発された。
画像シーケンス中のキーフレームから更なる画像へ深さ値を伝達するためにバイラテラルフィルタが非常に効率的であることを、本発明者は見いだした。深さ関連情報を伝達するために、バイラテラルフィルタは、反復的に後続の画像ペアに適用される。上述の理由のために、バイラテラルフィルタは、第1の画像I1と関連した第1の深さマップD1に基づいて中間の深さマップを生成するために、好ましくは用いられる。
バイラテラルフィルタリングは、ドメインフィルタリング(domain filtering)をレンジフィルタリング(range filtering)と組み合わせる。実験は、バイラテラルフィルタリングが、画像シーケンス中のキーフレームから更なるフレームへと深さを伝達するための非常に有効な方法であることを示した。この深さ伝達のプロセスは、再帰的に適用されることができる。各々の再帰的ステップで、深さは、次式の関係を用いて、第1の画像から第2の画像へ伝達される。
Figure 2010534878
以下で、バイラテラルフィルタの一回の反復は調査され、第1の深さマップからの深さ値は中間の深さマップに伝達される。
ここで、
Figure 2010534878
は、時間t+δにおける中間の深さマップ中のピクセルiの深さ値であり、
Figure 2010534878
は、空間的に近傍のピクセルjにおける第1の深さマップの深さ値である。
バイラテラルフィルタが順方向伝達(すなわち時間的に順方向(δ> 0))のために用いられることができることは、当業者にとって明らかだろう。しかしながらバイラテラルフィルタは、逆方向伝達(δ< 0)のために用いられることもできる。さらに、一般的に、バイラテラルフィルタリングは、再帰的に隣接した画像から深さを伝達するために用いられるが(δ=-1又はδ= 1)、より大きなステップサイズ(δ<-1又はδ> 1)を用いることも可能である。バイラテラルフィルタが本発明と組み合わせて用いられる場合、バイラテラルフィルタは隣接した画像から深さ値を伝達するために好ましくは用いられる。このようにして、第1及び第2の画像の間の差分の量は最低限に保たれ、それによって、中間の深さマップが訂正されることができる確率を増加させる。
最初に、キーフレーム(t=0)において、深さ値にエラーがないことが分かっていると仮定する。ピクセルjは、位置iに中心がある時間的近傍に由来する。関数fijは、それらの空間的距離に従って空間的近傍に重み付けする。ここで、サイズΔのボックスフィルタを用いる。
Figure 2010534878
例えば、19ピクセルのウィンドウサイズΔが用いられる場合、最大で9ピクセルの動きが反復ごとに追跡されることができる。重みwij (t+δ, t)は、タイムスタンプt+δの第2の画像中のピクセルiとフレームtの近傍のピクセルjとの間の色の差によって決まる。使用される重みは、
Figure 2010534878
によって与えられる。
ここで、αは色重要度を決定する定数である。色の影響は、αの増加とともに増加する。図1は、フィルタウィンドウサイズがΔ=7である例のバイラテラル深さ伝達フィルタの動作を図示する。図1は、画像シーケンスの第1の画像I(t)及び第2の画像I(t+δ)を示す。第1及び第2の画像は、時間的に隣接した画像シーケンスからの異なる画像を表し、上付き添字(t+δ)によって示される。第1の画像中に見える淡いピクセルは、より暗い青色背景の上にある赤い物体の赤のピクセルを表す。I(t+δ)によって示される第2の画像I2において、物体が右に動くにつれて、濃青色の背景ピクセルがあらわになる。
Figure 2010534878
で示される中間の深さマップの新たな深さ値iを計算するために、フレームtのフィルタフットプリント中のすべてのピクセルjに対して重みwij (t+δ, t)が計算される。加重平均が、フレームt+δのピクセルiにおける深さ値を予測するために用いられる。濃青色のピクセルに対する色差は小さいが、淡い赤のピクセルに対しては大きいので、濃青色のピクセルの深さ値の重みは、淡い赤のピクセルの重みより大きい。結果的に、中間の深さマップ中の深さ値は、濃青色のピクセルの深さ値によって実質的に決定される。
バイラテラルフィルタは、類似した色が類似した深さ値を示すことを暗に仮定する。しかしながら、現実には、この色の恒常性の仮定はしばしば破られて、伝達された深さ値のエラーに結びつく。一旦エラーが深さマップに導入されると、それらは新たなフレームに再帰的に伝達される。
図2は、式(1)に基づくバイラテラルフィルタを用いて30個の画像を通じて伝達された深さマップ中のそのような伝達エラーの影響を図示する。図2の結果を生成するために、Δ=19のフットプリントサイズを有するバイラテラルフィルタが用いられた。色重要度パラメータαは0.125に設定された。
この画像中に以下の問題が観察される。
1.'深さ曖昧性'問題
深さ曖昧性は、同一の画像中の異なる深さ値に共通の色が見出される状況に事実上関連する。バイラテラルフィルタの場合、これは、時間とともに伝播して蓄積する深さマップ中のエラーに結びつく。
2.'新色'問題
新色問題は、初期の深さマップ推定が生成されている第2の画像が、元のキーフレーム画像中に存在しなかった色を含むことの結果である。結果として、どんな種類の深さ値がこの色に関連付けられなければならないかに関する情報がない。この状況は、例えば、背景の新たな部分があらわになった場合、焦点がずれた前景物体の境界が第2の画像中の新たな背景色に混ざる場合、又は透明が画像中に存在する場合に発生する。
図2において、'深さ曖昧性'問題は、2つのダイスが画像中で交わるところに見られる。2つのダイスの色は同じものであるが、前景のダイスと背景のダイスの深さ値は異なる。結果として、伝達の後、この境界に対する深さ値は、それぞれの深さ値の平均である。'新色'問題は、背景の一部があらわにされる画像の右に見られ、誤った深さ値に結びつく。
図3は、深さ曖昧性問題をさらに詳細に図示する。第1の画像I(t)の前景において支配的な色である淡い赤のピクセルが背景中にも出現する。結果的に、深さ値が第1の画像I(t)及び第2の画像I(t+δ)に基づくバイラテラルフィルタリングを用いて伝達されるときに、第1の深さマップ
Figure 2010534878
からの深さ値の平均化が行われ、中間の深さマップ
Figure 2010534878
中に誤った深さ値をもたらす。
図4は、新色問題をさらに詳細に図示する。新たな色が第2の画像I(t+δ)中に出現する。前景の淡い赤の物体が右に動くと、非常に明るい黄色のいくつかのピクセルが背景に見えるようになる。黄色は第1の画像I(t)のフィルタウィンドウ中に現れていないので、色と深さとの間の関係は正確にコピーされることができず、誤った深さに帰着する。
上記の例は、本発明のための中間の深さマップを生成する双一次フィルタリングを用いることを明示的に提案するが、上で示された問題は、深さ値を推定するために画像特性を用いる他のアプローチにおいて一般的に発生する。厳密に言って、画像特性は実際の深さ値に直接関連せず、そして実際には、異なる深さの物体が類似した色、テクスチャ及び/又は輝度を持つ場合がある。結果的に、曖昧性は、そのような画像特性を用いる他の伝達アプローチにも影響を及ぼす。
曖昧性問題を少なくとも改善することが、本発明の目的である。中間の深さマップ中の深さエラーは、一般的に数ピクセルとして始まるが、キーフレームからさらに離れると、より大きな領域におよぶ傾向がある。本発明は、伝達エラーがさらに伝播することを防止することを意図する方法で、それらが発生した直後に伝達エラーを訂正することを提案する。
図5は、第1の画像と関連した第1の深さマップから第2の画像と関連した第2の深さマップへと深さ関連情報を伝達するための本発明による方法のフローチャートを示し、第1及び第2の画像は、画像シーケンス中で時間的に隣接する画像である。本方法は、図5においてそれぞれS1, S2, S3として示される3つのステップを含む。
図5に示される第1のステップS1は、第1の画像及び第2の画像の画像特性を用いて、第1の深さマップから中間の深さマップへと深さ値を伝達することによって、第2の画像と関連した中間の深さマップを生成することを含む。実際には、これらの画像特性は、例えば彩度、輝度及び/又はテクスチャであることができる。ステップS1は、上記のようにバイラテラルフィルタを用いて実施されることができる。しかしながら本発明はそれらに制限されない。他のアプローチは、例えば深さ値を伝達するために画像特性を用いる機械学習アプローチ含む(但しそれに限定されない)。
第2の画像と関連した第2の深さマップ中の第2の位置のための深さ値を生成するために、第2のステップS2において、動きベクトルが、第1の深さマップ及び中間の深さマップを用いて生成される。この動きベクトルは、第2の深さマップ中の第2の位置周辺の空間領域と比較的高い相関を示す第1の深さマップ中の第1の位置周辺の空間領域を特定する。
第2のステップS2は、当業者にとって知られている動き推定アルゴリズムを用いる様々な態様で実施されることができる。どの特定のアルゴリズムが用いられるかは、アルゴリズムが中間の深さマップ中の第2の位置の空間状況及び第1の深さマップ中の第1の位置の空間状況を考慮する限り、重要ではない。このようにして、動きベクトルは、第2の深さマップ中の空間領域に似ている第1の深さマップ中の空間領域を特定する。
第3のステップS3において、第2の深さマップ中の第2の位置のための深さ値は、動きベクトル及び第1の深さマップを含む情報を用いて生成される。さまざまな他のアプローチが、本発明の要旨を逸脱しない範囲で、この深さ値を生成するために用いられることができる。
第1のアプローチにおいて、第3のステップS3は、第2のステップS2で生成された動きベクトルを用いて深さ値を第1の深さマップからコピーすることを含む。このアプローチの背後の比率は、それぞれの画像間の差分が比較的小さい限り、対応する深さマップ間の変化も小さいことである。
例えば、中間の深さマップ中の第2の位置における空間領域よりも正確に第2の位置周辺の空間領域を表現する空間領域が第1の深さマップ中に存在する可能性がある。第2ステップS2において生成される動きベクトルは、中間の深さマップ中の第2の位置の空間領域との比較的良好な一致を示す第1の深さマップ中の空間領域の指標を表す。
この第1のアプローチにおいて、動きベクトルは、第1の深さマップから第2の深さマップへと、深さ値及び/又は領域全体をコピーするために用いられる。第1の深さマップから領域をコピーすることによって及び/又は深さ値の空間状況を考慮することによって、深さマップの中の境界は実質的に維持される。
本発明の実施態様をさらに説明するために、ブロックベースの動きベクトルを生成する形の第2ステップS2、及び、第1の深さマップから第2の深さマップへ空間領域をコピーする形の第3ステップS3の実施態様が、以下に議論される。
前に示されるように、中間の深さマップ
Figure 2010534878
は、第2の深さマップの第1の推定と解釈されることができる。この推定は、第2ステップS2及び第3ステップS3を用いて、その後訂正される。この推定を訂正するために、中間の深さマップ
Figure 2010534878
中の深さエラーは空間的に無相関であること、及び、第1の深さマップ
Figure 2010534878
中の深さ値がエラーを伴わず(当該画像がキーフレームに対応する場合)、又は既に訂正されている(添字'cor'によって示される)ことが仮定される。
中間の深さマップ
Figure 2010534878
を訂正するために、ピクセルは、16×16ピクセルのブロックBk(k=1...N)にグループ化される。それから、ブロックBkごとに、(中間の深さマップからの)ブロックBkが第1の深さマップ中のブロックと比較されるときに、最も小さい一致誤差をもたらす変位ベクトル(ux (k), uy (k))が決定される。
第2の深さマップ
Figure 2010534878
の深さ値は、その後、全ての(x, y)∈Bkに対して、
Figure 2010534878
を用いて取得される。この動き補償操作は、第1の深さマップから第2の深さマップへ深さ値のブロックをコピーすることに対応する。変位ベクトルは、ブロックBk中のすべてのピクセルにわたって合計される深さ誤差関数の最小化によって決定される。
Figure 2010534878
ここで、深さ誤差関数g(x, y, νx, νy)は、
Figure 2010534878
によって与えられる。なお、深さ誤差関数は、異なる統計的特性を有する2つの信号の間で計算される。
Figure 2010534878
は、例えばバイラテラルフィルタから生じる中間の深さマップであり、
Figure 2010534878
は、第1の深さマップであり、注釈付深さマップ又は既に訂正された深さマップである。
上述のアプローチはローカル近傍のすべての位置を検索する動き推定手続きを用いるが、他の検索方法を用いて許容可能な結果を取得することが可能である。そのような最適化及び/又は動き推定のバリエーションは、当業者によく知られている。
図6は、第1の画像I(t)、第2の画像I(t+δ)、第1の深さマップ
Figure 2010534878
及び中間の深さマップ
Figure 2010534878
の例を示す。動きベクトル生成において、中間の深さマップ
Figure 2010534878
中の第2の位置におけるブロックとの最善の一致を与えるブロックが、第1の位置で第1の深さマップ
Figure 2010534878
の中で特定される。ここで、最も良い一致は、最も小さい一致誤差をもたらす一致である。次に、動きベクトルによって特定されるブロックは、第2の位置で第2の深さマップへコピーされる。このアプローチは、第1の深さマップ中に存在する形状情報は、伝達されたフレームにおいて実質的に維持されることを保証する。上述のアプローチは、一致の質に関係なく、第1の深さマップから第2の深さマップへと、最も良い一致に対応する情報をコピーする。他の実施の形態の場合には、第1の深さマップ
Figure 2010534878
からの情報又は中間の深さマップ
Figure 2010534878
からの情報を伝達するか否かについて選択が行われる。
これらの択一的深さ値のどれを伝達すべきかに関する判定は、好ましくは一致誤差に基づく。
一致誤差が小さい場合には、第1の深さマップ
Figure 2010534878
中の第1の位置を囲む空間領域と中間の深さマップ
Figure 2010534878
中の第2の位置を囲む空間領域との間には、相当な相関がある。そのような状況では、第1の深さマップ
Figure 2010534878
から情報を伝達することが好ましい。あるいは、一致誤差が大きい場合、動きベクトル候補が最適ではない可能性が相当あることは明らかである。この状況では、中間の深さマップ
Figure 2010534878
から情報を伝達することが好ましい。
より好ましくは、一致誤差の閾値が、上述の候補を選択するために用いられる。更なる候補及び/又は更なる選択基準の追加のような、上述のアプローチに対する巧みなバリエーションが想定される。
上述のアプローチの考えられる短所は、隣接したブロックに対して異なる候補が選択される場合に、これは、結果として生じる第2の深さマップ中の不連続性をもたらす可能性があることである。そのような不連続性を防止するために、候補のうちのいずれか一方を選択する代わりに、候補を混合することも可能である。好ましくは、これらの候補の混合は、信頼性尺度(例えばマッチング誤差) によって制御される。マッチング誤差が大きい場合、これは動きベクトル候補の信頼性が比較的低いことを示す。結果として、この候補の重みは、候補を混合するときに低くされることができる。
候補の選択及び混合をさらに改善するために、中間の深さマップの深さ値の信頼性を示す信頼性尺度のような、更なる信頼性尺度が用いられることができる。バイラテラルフィルタが中間の深さマップを生成するために用いられる場合には、そのような信頼性尺度は、フィルタ重みを計算するときに、ピクセル間の最も小さい色差を決めることによって定められることができる。第1の画像及び第2の画像中のピクセル間のすべての色差が大きい場合、すなわち、すべての重みが小さい場合、バイラテラルフィルタは信頼できる深さ値を提供しない可能性が相当ある。
本説明の全体にわたって、深さ値の伝達は時間的に順方向に発生するとして考慮されるが、本発明はそれに制限されない。本発明は、双方向伝達(すなわち順方向及び逆方向伝達の両方)を適用するシナリオにおいて同様に有利に用いられることができる。双方向伝達シナリオにおいて、2つの中間の深さマップが各々のフレームに対して推定されることができ、そして2つの運動ベクトルが生成されることができる。双方向アプローチでは、好ましくは、逆方向及び順方向予測の寄与は、対応するキーフレームまでの距離に依存して重み付けられる。
本発明を最大限効果的に用いるために、中間の深さマップの生成は、第1及び第2の画像中のピクセル間の差分を好ましくは考慮しなければならないが、第1の深さマップのモルフォロジによって与えられる空間制約を課すことは控えなければならない。対照的に、動きベクトルを生成するステップは、好ましくは、深さ値が生成されているピクセルを囲む領域のモルフォロジによって与えられる空間制約を考慮する。
図7は、本発明によって、第1の画像820と関連した第1の深さマップ810から第2の画像830と関連した第2の深さマップ860まで深さ関連情報を伝達するための基本的な深さマップ伝達装置800を示す。装置800は、入力コネクタ802, 801及び803それぞれにおいて、3つの入力信号、第1の画像820, 第1の深さマップ810及び第2の画像830を受け取る。この装置は、出力コネクタ806に一つの出力信号(第2の深さマップ860)を出力する。
装置800の変形例では、注釈付キーフレームを有する画像シーケンスの形の一つの集合入力信号が、3つの入力コネクタ801, 802及び803の代わりに、一つのコネクタに入力される。同様に、一つの集合出力信号が、本発明にしたがって伝達された深さマップを有する画像シーケンスの形で提供されることができる。
装置800はさらに、第2の画像830と関連した中間の深さマップ840を生成するために配置される第1の生成手段805を含む。上記のように、中間の深さマップ840の生成は、第1の画像820及び第2の画像830のピクセルを用いて第1の深さマップ810から中間の深さマップ840へと深さ値を伝達することによって、さまざまな様式で実施されることができる。
本装置はさらに、第1の深さマップ中の第1の位置周辺の空間領域の深さ値及び中間の深さマップ中の第2の位置周辺の空間領域の深さ値を含む情報を用いて動きベクトル850を生成するために配置される第2の生成手段815を含む。
この動きベクトル850は、動きベクトル850及び第1の深さマップ810を含む情報を用いて第2の深さマップ860中の第2の位置の深さ値を生成するために配置される第3の生成手段825によって、その後用いられる。
装置800の他の実施態様が、本発明の要旨を逸脱しない範囲で想定されることができることは、当業者にとって明らかである。上記の生成手段の全てが処理作業を実行するように、第1、第2及び第3の生成手段805, 815, 825によって実行される作業は、一つのデジタルシグナルプロセッサにマップされることができる。
上記が明示的にデジタルシグナルプロセッサを言及するが、本発明はそれに制限されない。上述のデジタルシグナルプロセッサと同様の機能を提供する他の処理プラットホームが用いられることができる。これらの処理プラットホームは、プログラム可能な処理プラットホームである必要はないが、同様に専用の特定用途向けIC(ASIC)から成ることができる。実際、処理作業は、本発明の要旨を逸脱しない範囲でハイブリッドハードウェア/ソフトウェアシステム中のさまざまなモジュールにわたって分割されることができる。
図8は、各々が上に記載される装置800を含むコンテンツ変換装置955及び消費者向け電子装置965を示す。コンテンツ変換装置は、入力コネクタ901上で画像シーケンス910の形の入力信号を受け取る入力前処理手段905を含む。画像シーケンス910は、装置800によって使用される第1及び第2の画像を提供する。入力前処理手段905は、人が補助するショットカット検出及びキーフレームの注釈を可能にする。その後、本発明は、非キーフレームに深さ値を伝達するために用いられることができる。加えて、コンテンツ変換装置955はさらに、例えば、出力コネクタ902上での出力のための伝達された深さマップを含む出力信号920のフォーマット選択を可能にする出力前処理手段915を含む。
消費者向け電子装置965は、画像シーケンス及び画像シーケンス中のキーフレームを選択するための深さ情報を含む入力信号930を受け取るための入力コネクタ903を含む。入力前処理手段925は、装置800による処理のための画像を準備する。動作中に、装置800は、キーフレームから非キーフレームへと効果的に深さ情報を伝達する。結果的に、入力信号930中の画像ごとに深さマップを必要とせず、このようにして、本発明はさらに送信信号のデータ圧縮を可能にする。
オプションとして、消費者向け電子装置965は、付随する深さマップによって、結果として生じる画像シーケンスを表示するための自動立体視表示手段935を含むことができる。
本説明の全体にわたって、中間の深さマップの生成は一つの処理ステップとして示されるが、中間の深さマップの生成がそれに制限されないことは当業者にとって明らかである。実際、中間の深さマップの生成が、例えば雑音抑圧を提供する後処理ステップを含むいくつかのステップを有することは、はるかに可能性がある。
本説明の全体にわたって、用語「画像シーケンス」は、なんらかの形の連続性を含む画像シーケンスとして用いられる。深さ値の伝達はそのような連続性が存在する状況においてのみ意味をなすことは当業者にとって明らかである。実質的に連続した画像シーケンスを取得するために、画像シーケンスは、実質的に連続した画像シーケンスを分離するために、ショットカット検出器に与えられることができ、又は手動で処理されることができる。
上述の実施の形態は、本発明を制限するのではなく例示し、当業者は、添付された特許請求の範囲の要旨を逸脱しない範囲で多くの他の実施例を設計することが可能であることに留意すべきである。
特許請求の範囲において、括弧間に配置される任意の参照符号は、特許請求の範囲を制限するように解釈されてはならない。
本発明の枠組みの中で、多くのバリエーションが可能であることは明らかである。本発明が、上で詳細に示されて説明されたものに制限されないことは、当業者によって認識される本発明は、いずれの新規な特徴的機能及びいずれの特徴的機能の組み合わせにも属する。特許請求の範囲の参照符号は、それらの保護範囲を制限しない。
「含む」「有する」との動詞及びその活用形は、請求の範囲中に述べられた要素以外の要素の存在を除外しない。単数形の要素は、その要素が複数存在することを除外しない。

Claims (11)

  1. 第1の画像と関連した第1の深さマップから、第2の画像と関連した第2の深さマップへと、深さ関連情報を伝達する方法であって、第1の画像及び第2の画像は、画像シーケンスにおいて時間的に隣接する画像であり、当該方法は、
    第1の画像及び第2の画像のピクセルを用いて、第1の深さマップから中間の深さマップへと深さ値を伝達することによって第2の画像と関連した中間の深さマップを生成し、
    第1の深さマップ中の第1の位置周辺の空間領域の深さ値及び中間の深さマップ中の第2の位置周辺の空間領域の深さ値を含む情報を用いて動きベクトルを生成し、
    前記動きベクトル及び第1の深さマップを含む情報を用いて第2の深さマップ中の前記第2の位置の深さ値を生成する、方法。
  2. 前記中間の深さマップの生成が、第1の画像の少なくとも一つのピクセル及び第2の画像の少なくとも一つの対応するピクセルに基づく重み係数を用いた第1の深さマップからの深さ値の加重加算によって当該中間の深さマップの深さ値を計算することを含み、両ピクセルは、それぞれの伝達される深さ関連情報において空間的に近接している、請求項1に記載の方法。
  3. 前記重み係数は、第1の画像からの前記少なくとも一つのピクセルと第2の画像からの前記少なくとも一つの対応するピクセルとの間の差分の非線形関数に基づいて決定される、請求項2に記載の方法。
  4. 第2の深さマップ中の前記第2の位置の深さ値の生成は、
    前記動きベクトル及び第1の深さマップに基づく深さ値、並びに
    前記中間の深さマップ中の前記第2の位置における深さ値に基づく深さ値、
    を含む候補から深さ値を選択することを含む、請求項1に記載の方法。
  5. 第2の深さマップ中の前記第2の位置の深さ値の生成は、
    前記動きベクトル及び第1の深さマップに基づく深さ値、並びに
    前記中間の深さマップの前記第2の位置における深さ値に基づく更なる深さ値、
    を含む情報の加重加算を含む、請求項1に記載の方法。
  6. 前記中間の深さマップの生成は、前記中間の深さマップの深さ値の信頼性尺度を生成することをさらに含み、前記信頼性尺度は、第2の深さマップ中の前記第2の位置の深さ値の生成に用いられる、請求項1に記載の方法。
  7. 前記画像シーケンスは更なる画像シーケンスからのショットである、請求項1に記載の方法。
  8. 第1の画像と関連した第1の深さマップから、第2の画像と関連した第2の深さマップへと、深さ関連情報を伝達するための深さマップ伝達装置であって、第1及び第2の画像は画像シーケンスにおいて時間的に隣接する画像であり、当該装置は、
    第1の画像及び第2の画像のピクセルを用いて、第1の深さマップから中間の深さマップへと深さ値を伝達することによって第2の画像と関連した中間の深さマップを生成する第1生成手段、
    第1の深さマップ中の第1の位置周辺の空間領域の深さ値及び中間の深さマップ中の第2の位置周辺の空間領域の深さ値を含む情報を用いて動きベクトルを生成する第2生成手段、並びに
    前記動きベクトル及び第1の深さマップを含む情報を用いて第2の深さマップ中の前記第2の位置の深さ値を生成する第3生成手段、
    を有する装置。
  9. 請求項8に記載の深さマップ伝達装置を含む消費者向け電子装置。
  10. 請求項8に記載の深さマップ伝達装置を含むコンテンツ変換装置。
  11. 請求項1から請求項7のいずれか一項に記載の方法をプログラム可能装置に実行させるための命令を含むコンピュータプログラム。
JP2010517520A 2007-07-26 2008-07-18 深さ関連情報伝達のための方法及び装置 Active JP4886898B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07113245 2007-07-26
EP07113245.0 2007-07-26
PCT/IB2008/052896 WO2009013682A2 (en) 2007-07-26 2008-07-18 Method and apparatus for depth-related information propagation

Publications (2)

Publication Number Publication Date
JP2010534878A true JP2010534878A (ja) 2010-11-11
JP4886898B2 JP4886898B2 (ja) 2012-02-29

Family

ID=40129068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010517520A Active JP4886898B2 (ja) 2007-07-26 2008-07-18 深さ関連情報伝達のための方法及び装置

Country Status (7)

Country Link
US (1) US8854425B2 (ja)
EP (1) EP2174511B1 (ja)
JP (1) JP4886898B2 (ja)
KR (1) KR101483660B1 (ja)
CN (1) CN101822067B (ja)
AT (1) ATE514285T1 (ja)
WO (1) WO2009013682A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153440A1 (ja) * 2011-05-09 2012-11-15 シャープ株式会社 予測ベクトル生成方法、予測ベクトル生成装置、予測ベクトル生成プログラム、画像符号化方法、画像符号化装置、画像符号化プログラム、画像復号方法、画像復号装置、及び画像復号プログラム
WO2013073316A1 (ja) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
WO2017022033A1 (ja) * 2015-07-31 2017-02-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2017092983A (ja) * 2017-01-25 2017-05-25 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US10021290B2 (en) 2012-05-17 2018-07-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087955A1 (en) * 2009-01-30 2010-08-05 Thomson Licensing Coding of depth maps
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
JP5660818B2 (ja) * 2010-07-21 2015-01-28 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US8655093B2 (en) * 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
JP4938884B2 (ja) * 2010-09-30 2012-05-23 シャープ株式会社 予測ベクトル生成方法、画像符号化方法、画像復号方法、予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成プログラム、画像符号化プログラムおよび画像復号プログラム
KR101682137B1 (ko) * 2010-10-25 2016-12-05 삼성전자주식회사 텍스처 및 움직임 감지를 사용한 시간적으로-일관된 변이 추정을 위한 방법 및 장치
US20120194642A1 (en) * 2011-02-01 2012-08-02 Wen-Nung Lie Motion picture depth information processing system and method
US9485487B2 (en) * 2011-06-22 2016-11-01 Koninklijke Philips N.V. Method and apparatus for generating a signal for a display
KR20130008746A (ko) 2011-07-13 2013-01-23 삼성전자주식회사 3d 영상변환장치, 그 구현방법 및 그 저장매체
KR101893601B1 (ko) 2011-07-22 2018-08-31 삼성전자 주식회사 디스플레이장치의 입력장치, 디스플레이 시스템 및 그 제어방법
JP2014528190A (ja) * 2011-08-12 2014-10-23 テレフオンアクチーボラゲット エル エム エリクソン(パブル) カメラおよび/または深度パラメータのシグナリング
US8711141B2 (en) * 2011-08-28 2014-04-29 Arcsoft Hangzhou Co., Ltd. 3D image generating method, 3D animation generating method, and both 3D image generating module and 3D animation generating module thereof
KR101859412B1 (ko) * 2011-09-05 2018-05-18 삼성전자 주식회사 컨텐츠변환장치 및 컨텐츠변환방법
WO2013054240A1 (en) * 2011-10-10 2013-04-18 Koninklijke Philips Electronics N.V. Depth map processing
EP2781099B1 (en) * 2011-11-15 2015-08-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for real-time capable disparity estimation for virtual view rendering suitable for multi-threaded execution
US8660362B2 (en) 2011-11-21 2014-02-25 Microsoft Corporation Combined depth filtering and super resolution
US20150030233A1 (en) * 2011-12-12 2015-01-29 The University Of British Columbia System and Method for Determining a Depth Map Sequence for a Two-Dimensional Video Sequence
KR101938205B1 (ko) * 2012-03-19 2019-01-14 한국전자통신연구원 깊이 영상 필터링 방법 및 그 장치
KR101618672B1 (ko) 2012-04-19 2016-05-18 인텔 코포레이션 깊이 기반 변이 벡터 교정을 포함하는 3d 비디오 코딩
CN102695069B (zh) * 2012-05-22 2014-07-16 山东大学 一种二维到三维视频转换中的深度传播方法
RU2493602C1 (ru) * 2012-08-10 2013-09-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система для выделения ключевых кадров из видео последовательностей
KR20140030735A (ko) * 2012-09-03 2014-03-12 삼성전자주식회사 디스플레이 장치 및 방법
LU92074B1 (en) * 2012-09-18 2014-03-19 Iee Sarl Depth image enhancement method
US9098911B2 (en) * 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
US9299152B2 (en) * 2012-12-20 2016-03-29 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for image depth map generation
US8983176B2 (en) 2013-01-02 2015-03-17 International Business Machines Corporation Image selection and masking using imported depth information
US9336604B2 (en) * 2014-02-08 2016-05-10 Honda Motor Co., Ltd. System and method for generating a depth map through iterative interpolation and warping
US9196027B2 (en) 2014-03-31 2015-11-24 International Business Machines Corporation Automatic focus stacking of captured images
US9449234B2 (en) 2014-03-31 2016-09-20 International Business Machines Corporation Displaying relative motion of objects in an image
US9300857B2 (en) 2014-04-09 2016-03-29 International Business Machines Corporation Real-time sharpening of raw digital images
KR102457247B1 (ko) * 2015-05-13 2022-10-21 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법
US10091436B2 (en) * 2015-05-13 2018-10-02 Samsung Electronics Co., Ltd. Electronic device for processing image and method for controlling the same
US9626590B2 (en) * 2015-09-18 2017-04-18 Qualcomm Incorporated Fast cost aggregation for dense stereo matching
JP6559899B2 (ja) * 2015-12-21 2019-08-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像のための奥行きマップの処理
CN107094260A (zh) * 2016-02-17 2017-08-25 浙江大学 导出视差矢量和运动矢量的方法和装置
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
US10776992B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Asynchronous time warp with depth data
CN118505771A (zh) 2018-04-23 2024-08-16 康耐视公司 用于立体瞬时图像序列的改善3d数据重构的系统和方法
US11455705B2 (en) * 2018-09-27 2022-09-27 Qualcomm Incorporated Asynchronous space warp for remotely rendered VR
WO2020072905A1 (en) * 2018-10-04 2020-04-09 Google Llc Depth from motion for augmented reality for handheld user devices
EP3696773A1 (en) * 2019-02-15 2020-08-19 Koninklijke Philips N.V. Apparatus and method for generating a light intensity image
US11527005B2 (en) * 2019-07-22 2022-12-13 Samsung Electronics Co., Ltd. Video depth estimation based on temporal attention
SE543979C2 (en) * 2019-09-20 2021-10-12 Metso Outotec Finland Oy Mining Equipment Inspection System, Mining Equipment Inspection Method, and Mining Equipment Inspection Device
US11430086B2 (en) * 2020-05-13 2022-08-30 Microsoft Technology Licensing, Llc Upsampling low temporal resolution depth maps
US20210374467A1 (en) * 2020-05-29 2021-12-02 Fei Company Correlated slice and view image annotation for machine learning
CN116993796B (zh) * 2023-09-26 2023-12-22 埃洛克航空科技(北京)有限公司 深度图估计中的多级空间传播方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229093A (ja) * 2003-01-24 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346308A (ja) 1992-06-15 1993-12-27 Fujitsu Ltd 運動立体視による奥行き値推定方式
EP0972407A2 (en) * 1998-02-06 2000-01-19 Koninklijke Philips Electronics N.V. Motion or depth estimation
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
CN1466737A (zh) * 2000-08-09 2004-01-07 动态数字视距研究有限公司 图像转换和编码技术
WO2002013141A1 (en) 2000-08-09 2002-02-14 Dynamic Digital Depth Research Pty Ltd Image conversion and encoding techniques
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
JP2004534336A (ja) * 2001-07-06 2004-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動きまたは奥行き推定方法及び推定ユニット、並びにこのような動き推定ユニットを備える画像処理装置
EP1654884A1 (en) * 2003-08-05 2006-05-10 Koninklijke Philips Electronics N.V. Multi-view image generation
US8000392B1 (en) * 2004-02-27 2011-08-16 Vbrick Systems, Inc. Phase correlation based motion estimation in hybrid video compression

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229093A (ja) * 2003-01-24 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153440A1 (ja) * 2011-05-09 2012-11-15 シャープ株式会社 予測ベクトル生成方法、予測ベクトル生成装置、予測ベクトル生成プログラム、画像符号化方法、画像符号化装置、画像符号化プログラム、画像復号方法、画像復号装置、及び画像復号プログラム
WO2013073316A1 (ja) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JPWO2013073316A1 (ja) * 2011-11-14 2015-04-02 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US10021290B2 (en) 2012-05-17 2018-07-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
WO2017022033A1 (ja) * 2015-07-31 2017-02-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JPWO2017022033A1 (ja) * 2015-07-31 2018-02-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2017092983A (ja) * 2017-01-25 2017-05-25 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置

Also Published As

Publication number Publication date
CN101822067A (zh) 2010-09-01
CN101822067B (zh) 2013-04-24
KR101483660B1 (ko) 2015-01-16
US8854425B2 (en) 2014-10-07
EP2174511A2 (en) 2010-04-14
JP4886898B2 (ja) 2012-02-29
WO2009013682A3 (en) 2009-03-12
KR20100051675A (ko) 2010-05-17
ATE514285T1 (de) 2011-07-15
US20100194856A1 (en) 2010-08-05
WO2009013682A2 (en) 2009-01-29
EP2174511B1 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP4886898B2 (ja) 深さ関連情報伝達のための方法及び装置
US8817069B2 (en) Method and a device for filling occluded areas of a depth or disparity map estimated from at least two images
TWI524734B (zh) 產生深度圖的方法及裝置
US8384763B2 (en) Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
US9123115B2 (en) Depth estimation based on global motion and optical flow
EP2477158B1 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US20140009462A1 (en) Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects
US20120127270A1 (en) Depth estimation based on global motion
US8478024B2 (en) Depth map generation module for foreground object and method thereof
CA2627999A1 (en) Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
CA2727218A1 (en) Methods and systems for reducing or eliminating perceived ghosting in displayed stereoscopic images
Ekmekcioglu et al. Depth based perceptual quality assessment for synthesised camera viewpoints
JP2012249038A (ja) 画像信号処理装置、画像信号処理方法
Tam et al. Stereoscopic image rendering based on depth maps created from blur and edge information
JP4214529B2 (ja) 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
JP2015087851A (ja) 画像処理装置及び画像処理プログラム
Kao Stereoscopic image generation with depth image based rendering
CN109218710B (zh) 一种自由视点视频质量评估方法
TWM529333U (zh) 立體嵌入式影像系統
Jung et al. Superpixel matching-based depth propagation for 2D-to-3D conversion with joint bilateral filtering
JP5515864B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
Mahmoudpour et al. The effect of depth map up-sampling on the overall quality of stereopairs
CN117061720B (zh) 基于单目图像及深度图像渲染的立体图像对生成方法
Vázquez View generation for 3D-TV using image reconstruction from irregularly spaced samples
RU2560086C1 (ru) Система и способ для временного дополнения видео

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110713

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110713

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4886898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250