JP2009517951A - 立体画像表示方法、2次元画像データの入力から3次元画像データを生成する方法及び装置 - Google Patents

立体画像表示方法、2次元画像データの入力から3次元画像データを生成する方法及び装置 Download PDF

Info

Publication number
JP2009517951A
JP2009517951A JP2008542901A JP2008542901A JP2009517951A JP 2009517951 A JP2009517951 A JP 2009517951A JP 2008542901 A JP2008542901 A JP 2008542901A JP 2008542901 A JP2008542901 A JP 2008542901A JP 2009517951 A JP2009517951 A JP 2009517951A
Authority
JP
Japan
Prior art keywords
region
regions
image
focus
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008542901A
Other languages
English (en)
Other versions
JP2009517951A5 (ja
JP5073670B2 (ja
Inventor
エー エルンスト,ファビアン
ヘー ベー バレンブルフ,バールト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009517951A publication Critical patent/JP2009517951A/ja
Publication of JP2009517951A5 publication Critical patent/JP2009517951A5/ja
Application granted granted Critical
Publication of JP5073670B2 publication Critical patent/JP5073670B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

2次元画像データは3次元画像データに変換される。画像は、焦点の特徴に基づいて2以上の領域に分割され、どの領域に2つの領域を分離するエッジが属するかが判定される。領域は、エッジを含む領域が隣接する領域よりも見る人に近いというルールに従って深さについて順序付けされ、領域の確定された深さの順序に従って3次元の深さ情報が領域に割り当てられる。好ましくは、領域のそれぞれに対して、領域の平均又は中間の焦点の特性に依存して深さが割り当てられる。

Description

本発明は、2次元画像データが3次元画像データに変換され、焦点情報が2次元画像データから抽出され、3次元画像データを生成するために使用される立体画像表示方法に関する。
また、本発明は、2次元画像データの入力と、入力された2次元画像データを3次元画像データに変換するコンバータとを有する立体画像表示装置に関し、コンバータは、2次元画像データから焦点情報を抽出するフォーカス情報抽出手段を有する。
また、本発明は、画像表示データ変換方法に関し、2次元画像データは、3次元画像データに変換され、焦点情報は、2次元画像データから抽出され、3次元画像データを生成するために使用される。
さらに、本発明は、3次元画像信号に関する。
さらに、本発明は、コンピュータアレンジメントによりロードされるコンピュータプログラムプロダクトに関し、このプロダクトは、2次元画像データの入力に基づいて3次元画像データを生成する命令を含み、コンピュータアレンジメントは、処理手段を有する。
開始節で記載される類の立体画像表示方法及び装置は、EP1021049に開示されている。このEP1021049では、3次元ビデオ画像は、2次元ビデオ入力から生成される。公知の装置及び方法は、2次元ビデオ入力から抽出された焦点情報に基づいて判別するフォアグランド/バックグランドの判別回路を使用する。視差の制御信号は、エッジ検出に基づいて出力され、シャープなエッジは、3次原画像のフォアグランドに配置される。
公知の方法及び装置は、比較的シンプルな装置及び方法を提供するものであるが、レンダリングされた3次原画像は、混乱させられる画像であり、ビジョンの深さ、すなわち3次元の効果は区別することが困難であることが分かっている。
本発明の目的は、2次元画像の入力に基づいて3次元画像のレンダリングを改善することにある。
上記目的を達成するため、本発明に係る方法は、焦点の特徴に基づいて、画像が2以上の領域に分割されることを特徴とする。画像のどの領域に対して2つの領域を分離するエッジが属するかが判定される。エッジを含む領域が隣接する領域よりも見る人に近いというルールに従って領域間で深さのオーダが確定される。3次元の深さ情報は、領域の確立された深さのオーダに従って領域に割り当てられる。
EP1021049の従来技術の方法では、エッジの検出が実行される。シャープなエッジは、フォアグランドで配置される。しかし、このスキームは、混乱させる結果を与える。それは、バンクグランドの焦点が合っており、フォアグランドの焦点が合ってないケースで、現実にフォアグランドにある画像の部分はバックグランドのパララックスにあり、逆も然りであるためである。これは、混乱させる画像を与え、パララックス情報は、見る人に、3次元画像の所定の部分がフォアグランドにあり、他の部分がバックグランドにあるという手掛かりを与えるが、画像の現実の内容は、見る人に完全に反対の手掛かりを与え、すなわちパララックスの手掛かりに従うフォアグランドであるものは、実際に内容に従ってバックグランドである。
3次元の感覚は、せいぜい混乱させるものであり、特に公知の方法により与えられる深さの手掛かりは通常制限されたものであるので失われることがある。人間の脳は不完全な深さの手掛かりから立体的な感覚を再構成可能とされる。従来技術の方法及び装置における深さの手掛かりは、互いに一致しないことがあり、シーンからシーンに変化する場合さえあり、すなわちあるシーンでは、深さの手掛かりは正しく、コンフリクトする深さの手掛かりへの突然のシフトが続き、フォアグランドの図がバックグランドの木に隠れる。深さの感覚は、失われるか、少なくとも、深さの手掛かり間の非常に悩ましいコンフリンクトが見る人により知覚される。
本発明に係る方法は、この問題を解決するか、少なくとも低減する。画像は、たとえばぼやけた半径といったフォーカス情報に基づいて領域に分割される。画像の画素又はブロックは、類似のフォーカス特性を有する多数の領域にクラスタリングされる。たとえばブロック当たりの平均のぼやけといったフォーカス情報に基づいて、画像は2以上の領域に分割され、それぞれの領域は、平均されたフォーカス特性を有する。どの領域に対して2つの領域を分離するエッジが属するかが判定される。これは、たとえば検出されたエッジのシャープネス(ぼやけ)をエッジの何れかの再度を境界付けている領域の平均のぼやけに比較することで行われる場合がある。ぼやけたエッジは、高いぼやけを有する境界付けする領域に属し、シャープなエッジは、低いぼやけを有する領域に属する。深さのオーダリングは、複数の領域で実行され、エッジを含む領域が隣接する領域よりも見る人に近いというルールに従う。3次元情報は、深さのオーダリングに従って領域に割り当てられる。様々な画像の領域は、深さのレイヤを形成する。画像を領域に分割することは、画素又はブロックを領域にクラスタリングすることで実行される。このクラスタリングは、画素毎に行われるが、画像の領域への分割の前に、フォーカス特性が画素のブロック当たり決定され、ブロックが領域にクラスタリングされるときに、よりロバストな結果が得られる。ブロックは、n及びmが典型的に2,4,8又は16として、n×m画素、通常はm×m画素を有する画像の小さな部分である。
公知の方法に比較した方法の利点は、たとえば人がフラワーアレンジメントの背後に部分的に座っている画像について明らかである。人は焦点が合っており、フラワーアレンジメントは焦点が合っていない。公知の方法を使用して、焦点が合い、シャープな画像のエッジを有する人にはパララックスが与えられ、ぼやけたエッジを有するフォアグランド及びフラワーアレンジメントを示す画像部分において、バックグランドに対応するパララックスが与えられる。これは、人はフラワーアレンジメントの部分的に背後にあり、逆ではないので、真の状況と矛盾する。公知の方法及び装置は、2つの矛盾する、実際に調停できない深さの手掛かりで見る人と直面する。フラワーアレンジメントの前のフォアグランドに人を配置するパララックスの深さの手掛かりは、フラワーアレンジメントの背後に座っている人を示す、画像情報の深さの手掛かりに矛盾する。
本発明に係る方法は、矛盾する深さの手掛かりを提供しない。画像は複数の領域に分割され、たとえば人を含む焦点の合った領域とフラワーアレンジメントを含む焦点が外れた領域といった少なくとも2つの領域を有する。フラワーアレンジメントを含む領域と人を含む領域とを分離するエッジは、フラワーアレンジメントのぼやけたエッジにより形成される。したがって、フラワーアレンジメントを有するエッジの領域は、2つの領域を分離するエッジを含む領域が他の領域よりも見る人に近いというルールに従って、フォアグランドに配置される。ぼやけたエッジにより境界付けされるアウトオブフォーカスのフォアグランド領域は、焦点の合ったバックグランド領域の前に配置される。したがって、焦点が合った人の前の焦点が外れたフォアグランドのフラワーアレンジメントといった2つの領域が存在する場合、正しいパララックスは、両方の領域に割り当てられる。焦点が外れたフォアグランドのフラワーアレンジメント、焦点が合った人及び焦点が外れたバックグランドといった3つの領域が存在する場合、正しい3次元情報は、3つの領域について提供される。本発明に係る方法の結果は、この例では、深さのオーダリングがシャープなエッジをフォアグランドに配置することで行われることを説明する、EP0121049の教示の真のコアに対する結果を提供することが強調される。
好ましくは、3次元の深さ情報は、複数の領域のフォーカス情報に依存して割り当てられる。この平均のフォーカス特性は、複数の領域間で深さにおける差に関する手掛かりを与える。これは、3次元の効果を改善するために使用される。
好適な実施の形態では、領域の数は3又は2である。画像の画素又はブロックを2又は3の領域にクラスタリングすることで、制限された計算能力のみを必要としつつ、良好な結果が与えられることが分かっている。全ての画像の大部分が焦点の合った部分及び焦点の合っていない部分を有し、焦点の合っていない部分はときにフォアグランドであり、ときにバックグランドであり、これにより、2つの領域で十分である。時々、焦点が合っていない部分は、フォアグランド及びバックグランドの部分を含み、たとえばフォアグランドの木及びバックグランドの森並びに中間の焦点の合った領域であり、このケースでは、3つの領域で通常は十分である。
好適な実施の形態では、画像の画素又はブロックの焦点の特性の統計的な分布が行われ、領域の数は、統計的な分布に依存して決定される。
ぼかし半径のような焦点の特性は、制限されたピーク数の周りでクラスタリングされ、一方は、小さなぼかし半径、すなわち焦点の合った又はほぼ焦点の合った部分に対応し、別又は他方は、大きなぼかし半径、すなわち画像の焦点が外れた部分に対応する。これらの統計的なデータを使用することで、領域を分割することができる領域数の迅速な決定が可能となる。
本発明に係る画像表示装置は、本発明に係る方法を実行する手段を有する。
また、本発明は、本発明に係る方法のステップを実行する手段を有する送信機で実施される。
本発明のこれらの目的及び他の目的は、以下に記載される実施の形態を参照して明らかにされるであろう。
図面はスケーリングされて描かれていない。一般に、同一のコンポーネントは、図面において同じ参照符号により示される。
凸薄型レンズのようなシンプルな光システムでは、レンズから特定の距離にある対象物は、画像平面で明確に描かれ(対象物は焦点が合っており)、他の距離にある対象物は、焦点面からのそれらの距離に比例してぼやけてマッピングされる(対象物は焦点が合っていない)。ポイントソースについて後者の状況は、図1に示される。
ぼやけの挙動は、薄型レンズの式に従う。
Figure 2009517951
ここでfはレンズの焦点距離を表し、uは対象物の距離であり、vは画像の距離である。図1における幾何学的な関係及びレンズの式から、距離uの式を導出することができる。
Figure 2009517951
ここでu0はポイントの焦点が合っている距離を示す。パラメータsは、レンズの距離に対する画像平面であり、パラメータkは、レンズシステムの特性により決定される定数である。パラメータf,s及びkは、カメラパラメータであり、カメラのキャリブレーションから決定することができる。したがって、対象物の距離uの推定は、カメラパラメータを決定し、ぼかし半径(blur radius)σを推定することを含む。したがって、画像のぼやけの間の関係、すなわち焦点の特性及び距離が存在する。
2次元から3次元への変換について、たとえばレンダリングされたビューのパララックスが不均衡さにおいてリニアであるので、不均衡さ(逆の深さ)は、深さそれ自身よりも更に関連のある量である。先の表現を使用して、焦点の合っているポイントと焦点の合っていないポイントとの間の不均衡の差(disparity difference)とぼかし半径σとの間の関係を発見することができる。
Figure 2009517951
言い換えれば、焦点面への不均衡の差は、ぼかし半径に比例する。さらに、レンダリングされたビューの不均衡の量はユーザの好み及び/又はディスプレイの能力を収容するために通常変化するので、カメラに関連する定数k/sの正確な決定は必要ではなく、必要なことはぼかし半径σ、すなわち焦点の特性の決定である。以下の説明では、距離とぼかし半径との間のシンプルな関係が存在するシンプルな理由のため、ぼかし半径は、焦点の特性について必要とされる。しかし、焦点の特性としてぼかし半径を決定することは好ましいが、ぼかし半径と距離との間のシンプルな関係のため、他のぼやけの測定値は、本発明の概念のなかで決定される。
図2A〜図2Cは、ぼかし半径σを決定する可能な方法を概念的に例示する。図2Aでは、ぼかし半径σを持つぼやけエッジが示される。水平軸は位置を示し、垂直軸は輝度を示す。図2Bでは、幅sを持つガウス曲線フィルタの2次導関数であるフィルタリング関数が示されている。図2Aと図2Bの畳み込みは、2つのピークを有する関数を提供する。ピーク間の距離dhは、適度に測定することができ、ぼかし半径σ、フィルタ幅s及びピーク距離dhとの間の関係は、以下に示される。
Figure 2009517951
この例示的なアルゴリズムはロバストであり、様々なタイプのコンテンツについて得られる結果は良好である。それぞれのフィルタについてそれぞれの画素の様々なフィルタの幅sを取ることで、ぼかし半径σの値が発見される。画素当たりσの平均又は中間値を取り、次いで、あるブロックを通してσの平均又は中間値を決定することで、図2Cの部分的に大きな高さを有する更に強調されるエッジには、ロバストな結果を与える大きな重みが与えられる。焦点が合った領域と焦点が合わない領域との間のσの決定された値における適度な良好な区別が発見される。
uとぼかし半径σとの間の関係は、図3に概念的に示され、式(4)に従う。
パラメータk及びsがキャリブレーションから知られている場合、ぼかし半径σがひとたび既知であると、焦点面までの絶対距離の真の推定が行われる。ぼやけた対象物が焦点面の前又はその後ろにある場合に明らかにしないので、異なる焦点距離について少なくとも2つの画像は、ぼかし半径σからの真の深さ推定について知られる必要がある。しかし、これらの要件の何れも、通常既知でないか、たとえばビデオのような任意の外部の所与の画像データについて取得可能ではない。しかしながら、良好の区別は、画像の焦点が合わない領域と画像の焦点が合った領域との間で行われ、より多くの領域が存在する場合、様々な領域の間で良好の区別が行われる。
不均衡の差とぼかし半径との間の式は不均衡の差の絶対値とぼかしの半径との間の関係を与えるので、式は2つの個別の解を有する。ぼかし半径σの2つの異なる値の判定は、σの同じ値は遠く離れた対象物から得られるので、深さのオーダリング(depth ordering)を可能にしない。図4では、これは、ぼかし半径σ(σ1及びσ2)について2つの異なる値について概念的に示される。原理的に、画像平面の4つの異なる可能な組み合わせが存在する。
図4は、画像内のブロックのぼかし半径の典型的な分布を示し、水平軸は、所定のぼかし半径をもつブロックのパーセンテージを示す。σ1及びσ2の値をもつピークにセンタリングされる2つのモードは、画像の焦点が合った部分と焦点が外れた部分とこの例では対応して区別される。係る分布のみでは、2つの理由のために正確な深さのオーダリングを提供することはできない。はじめに、図3に関連して説明されるように、1を超えるソリューションが可能であるので、図3におけるピークに対応する画像平面の実際の相対的な位置に関して不明確さが存在する。第二に、σの分布におけるピークは、かなり広い。これは、実際のぼやけた値は高い数値的な不確かさを有し、深さのオーダリング情報を導出するのに適さない場合があることを示す。(たとえば焦点が合わない領域)それぞれのモードにおけるぼかし半径の差(図3におけるピークの広がり)は、モード間でぼかし半径の差を超える場合がある。したがって、ぼかし半径の実際の数値的な値のみを使用して深さのオーダリングを決定すること、及びそれぞれのブロックの深さのオーダリングは、大量の雑音が導入される。
しかしながら、信頼できる深さのオーダリングを得るため、本発明に係る方法及び装置は、2つのステップを実行する。
第一のステップでは、画像の画素又はブロックは、それらの焦点の特性に基づいてクラスタリングされ、これにより画像内で領域が形成される。本発明の最も広い範囲で、画素もクラスタリングされる。しかし、画素についてσの値における広がりは、ブロックについてよりも更に大きい。ぼかし半径σの平均又は中間値がブロック毎に割り当てられ、ブロックがσのブロック値に基づいて領域にクラスタリングされるとき、与えられた例において、焦点の特性をクラスタリングする前に、よりロバストな結果が得られる。それぞれの領域に対して、平均又は中間のぼかし半径が割り当てられる。クラスタリングは、様々なやり方で行われる。
発見に役立つ初期のクラスタリングから開始して画像を2以上のクラスタに常に分割するシンプルな繰り返しクラスタリングアルゴリズムが使用される。1つ、2つ以上のクラスタを有するかに関する判定は、クラスタの特性の類似性に基づく。
図5A及び図5Bは、係る方法を例示する。2つの大きな領域が存在することが想定され、1つは焦点が合って多かれ少なかれ中央にあり、焦点が合わない領域により囲まれている。初期のクラスタリングは、左、上及び右の境界(すなわち画像の1/4)のブロックを「バックグランド」クラスタC2に割り当て、他の画素を「フォアグランド」クラスタC1に割り当てる(図5A参照)。この選択は、バックグランド動きモデル推定についてブロックの選択から生じる。発見的に、(通常フォアグランドにある)関心のある対象物は、画像の中央における何処かにあることが期待され、画像の境界は、関心のある対象物を含まない。バックグランドの動きモデル推定について、中央における関心のある対象物はフォアグランドにあることが想定される。しかし、クラスタリングステージにおいて係る想定を行う必要がない。しかし、時間の大部分で中央のクラスタは焦点が合っている。
初期のクラスタリングはむしろ粗く、発見に基づいているので、それぞれのクラスタについてぼかし半径の最初の推定値に到達するロバストな方法は以下に示される。
クラスタ内に規則的に分散される多数の特徴点(このケースでは28)が選択される。クラスタの最初のぼかし半径σ1及びσ2のそれぞれは、全てのそれらの特徴点のぼかし半径σの中間である。
次いで、反復的な手順がこのクラスタをリファインするために実行される。
ステップ1:ブロックを再び割り当てる。画像を通して掃引(sweep)が行われ、クラスタの境界のそれぞれのブロックBは、その平均の焦点の推定に対して最小の逸脱を有するクラスタに割り当てられる。
Figure 2009517951
ステップ2:σ1及びσ2の値を更新する。ブロックは、クラスタC1及びC2に再び割り当てられており、したがって、新たな平均又は中間のクラスタのぼかし半径σ1及びσ2は、2つ(又は2以上)のクラスタのそれぞれについて計算される。
ステップ3:繰り返し。新たな掃引が行われる。ステップ1参照。
このプロセスは、幾つか(典型的には4)の繰り返しの後に集束する。
図5Bは、係る繰り返しの結果を示す。2つの領域が形成され、フォアグランドの領域C1は、中間のぼかし半径σ1をもち、バックグランドC2は、中間のぼかし半径σ2をもつ。
典型的に、この方法は、焦点の合った領域と焦点の外れた領域といった2つの領域を与える。これらの領域は、接続される必要がなく、たとえば、焦点が合った領域は、焦点が外れた領域であるように、2つの個別のサブ領域を有する。統計量が3つの領域の証拠を示すとき、すなわちσ分散における3つのピークを示すとき、3つの領域で開始することができる。最初のクラスタリングは、σダイアグラムにおけるピークを決定し、そのピークへのそれぞれのブロックを最良に整合するσにシンプルに割り当てることで発見される。
ひとたび画像が領域C1,C2及びC3に分割されると、ぼかし半径σiをそれぞれの領域に割り当てることができる。本発明に係る方法及び装置における次のステップでは、領域の相互の位置、すなわちどの領域がどの領域の前にあるか、が判定される。深さのオーダリングに関する判定が行われる必要がある。それを行うため、エッジが最も前にある対象物に属するという原理が使用される。図6は、水平軸に沿ってx又はy座標のような位置パラメータを示し、又は2つの領域間に遷移に垂直な座標を示す。垂直にぼかし半径が示される。図6では、ぼかし半径σの低い値をもつ焦点の合った領域とσの高い値をもつ焦点の外れた領域との間の遷移が示される。幅Wは、エッジのぼやけを概念的に示す。焦点が外れたエッジは、焦点が合ったエッジよりも大きな幅Wを有する。概念的に、これは、図6の上部で示され、小さなW及び従ってシャープな遷移を有し、下の部分では、大きな幅及び従ってぼやけた遷移を示す。したがって、上部では、領域C1及びC2を分離するエッジは、低いぼかし半径σ1を持つ領域C1に属する。したがって、領域C1はフォアグランドであり、C1(F)により図で示される。領域C2はバックグランドであり、C2(B)により示される。下部分では、幅Wは大きい。領域C1とC2を分離するエッジは、高いぼかし半径σ2をもつ領域C2に属する。したがって、「ぼやけた」領域C2はフォアグランドであり、C2(F)により図6で示される。領域C1は、バックグランドであり、C1(B)により示される。領域間の遷移ラインに垂直なラインに沿って様々な測定ポイントを取り、平均を取るか、又はどの領域にエッジが属するようであるかをそれぞれの測定について判定し、次いで、異なる測定間で投票することで、焦点の合った領域が焦点の外れた領域の前にあるケースにおいて、エッジが焦点の合った領域に属するか、又は、焦点の合った領域が焦点の外れた領域の前にあるケースにおいて、エッジが焦点の合った領域に属するかが容易に発見される。それを異なって配置するため、幅Wは、領域のうちのある領域のσにのみ依存するか、他の領域のσに少なくとも殆ど依存しない。この特性は、どの領域に2つの領域を分離するエッジが属するかを判定するために使用される。
これは、どの領域にエッジが属するかを確定する方法の1つの例である。
異なる方法は、たとえば画像をセグメント化することであり、すなわち、先行するクラスタリングステップから、以下のように、領域間の遷移の近くの画像における輝度又はカラーエッジを発見し、それらを領域間のエッジに比較することである。
輝度のセグメント化を使用して、異なる方法は、どのエッジがどの領域に属するかを発見するために使用される。1つのやり方は、領域間の遷移の近くの様々な領域におけるルミナンスエッジの方向を探すことである。領域間の遷移に対応するルミナンスエッジは、フォアグランド画像により単に決定され、フォアグランド画像に属する1以上のエッジは、遷移に従うことがあり、すなわち1以上のエッジは、遷移に平行である。バックグランドにおけるルミナンスエッジは、遷移に対する関係を有さない。
更に別の方法は以下に示される。画像は焦点に基づいてセグメント化され、上述されたように、ルミナンスエッジは、領域間の遷移に近くで発見される。ルミナンスのセグメント化及びぼかし半径に基づくクラスタリングといった、2つの異なるやり方で領域間のエッジを決定することで、どの領域にエッジが属するかが確定される場合がある。理想的に、2つの決定が完全に一致するが、そうとも限らない。エッジ全体又はエッジの少なくとも主要な部分がフォアグランドの対象物に属するエッジのぼかし半径に割り当てられるため、ブロックのクラスタリングが平均でエッジが属する領域をルミナンスエッジに僅かに拡張する傾向があることが分かっている。したがって、前記クラスタに属するエッジを含むようにクラスタリングされた領域を拡張するクラスタリングにおける僅かなバイアスが存在する。このバイアスは、ルミナンスのセグメント化において、領域間の遷移は領域を分離するエッジの中央において描かれるため、輝度に於ける単なる差が関与されるときエッジの決定のために生じない。したがって、エッジの決定された位置において小さな差が存在する。これは、上述されたぼかし半径の決定に基づいたクラスタリング方法は、前記領域に属するエッジを、ある領域に含むように、クラスタリングされたフォアグランド領域の境界を拡張し過ぎる傾向があり、係る拡張し過ぎる傾向は、ルミナンスのセグメント化に基づいて決定されるエッジについて存在しない。言い換えれば、ルミナンスのセグメント化は、ルミナンスの遷移の中央に正確にエッジを配置し、クラスタリングのセグメント化は、フォアグランドの領域のサイズを過剰に評価する。この作用は、形態学的膨張とも呼ばれ、すなわち、上述された対象物の形態をクラスタリングが僅かに膨張させ、すなわちサイズ的に増加させる。クラスタリング方法のこのバイアスは、フォアグランドの対象物のエッジをフォアグランドのクラスタに引き出す。この一見してネガティブな作用は、ぼかし半径のセグメント化により決定されるのと同じエッジに、ルミナンスのセグメント化により決定されたエッジを比較することで良好な使用にもたらされる。これにより、どの領域にエッジが属するかを確定することが可能である。ぼかしの半径の決定、又は特に焦点の特性の決定は、代替的なアルゴリズムを使用して行われる。クラスタリングのための代替的なアルゴリズムを使用することもできる。使用されたアルゴリズムに依存して、そのように決定されたフォアグランドの領域は、輝度のエッジにより決定されたエッジに関して過大な拡張又は過小な拡張となる。両方のケースで、ルミナンスのセグメント化により決定された領域を、焦点の特性の決定及びクラスタリングにより決定された領域に比較することで、どの領域にエッジが属するかを判定することができる。
深さのオーダリングは、どの領域がフォアグランドでどの領域がバックグランドであるかに基づいてシンプルに行われ、すなわち、パララックスにおける固定された差は、実際の値σiとは独立に、フォアグランド及びバックグランドの領域、第一に、中間レンジ及びバックグランド領域を区別するために使用される。
好ましくは、領域のぼかしの半径の推定値は、深さ又は逆の深さの値に変換される。深さのオーダリング及びσが与えられると、焦点の対象物の不均衡としてぼやけた対象物の不均衡をとり、すなわち、最も低いσを持つ領域、プラス一定の時間でフォアグランドとバックグランドとの間のぼかし半径となる。
Figure 2009517951
Δσはσにおける差であり、Kは定数であり、u0は焦点面である。σは非常に小さく、Δσは焦点から外れた面のσに等しい。最も低いぼかしの値をもつクラスタには、深さu0が割り当てられ、全ての他のクラスタには、最も低い半径の値をもつクラスタに関してそれらの深さのオーダリングに基づいて深さの値が割り当てられる。焦点の合ったクラスタと焦点が外れたクラスタとの2つのクラスタのみを有する場合、焦点が合わされている領域がフォアグランドである場合にKは正であり、焦点が外れた領域がフォアグランドである場合にKは負である。
単一画像のぼかし半径の推定について、定数u0及びKは回復することができず、このため、異なる焦点の設定を持つ複数の画像を必要とする。しかし、レンダリングのために深さのマップのみを使用する場合、時間の大部分で、スクリーンの機能とユーザの好みをどうにかして整合させるため、深さマップが変換され、スケーリングされる。自動立体表示装置について、たとえば、焦点が合った領域が最大のシャープな画像を有するためにスクリーンの平面でレンダリングされるやり方でu0を取る。次いで、焦点から外れた領域は、深さのオーダリングに依存して、スクリーンの後又は前でレンダリングされる。
図7は、本発明に係る方法を示す。ステップ2で、入力された2次元信号から、画像ブロックが形成され、ステップ3で、たとえばブロックのぼかし半径σBといったブロックの焦点特性が決定され、ステップ4で、これらのブロックは、2以上のクラスタにクラスタリングされる。ステップ6では、エッジと領域との間の関係が決定される。これは、焦点の特性から直接に行われるか(図6参照)、並行して、画像はルミナンスのセグメント化がなされ、ルミナンスのセグメント化(ステップ5)により取得された画像エッジは、ステップ6で、クラスタリングにより決定されるエッジに比較され、結果を比較することは、どのエッジがどの領域に属するか、これによりどの領域がどの領域の前に位置されるか、すなわち領域の深さのオーダリング(ステップ)という判定につながる。深さは、好適な実施の形態によれば、与えられる例ではぼかし半径である焦点の特性(ステップ8)から決定され、結果的に3次元の出力信号が供給される(ステップ9)。
図8は、本発明に係る画像装置を示す。画像装置は、本方法の全てのステップを実行する手段を有し、すなわち、2次元の入力信号を受ける入力1、画像ブロックの形成のために形成手段2、ブロックの焦点特性を計算する計算手段3、焦点に基づいて画像領域をクラスタリングするクラスタ4。画像エッジ検出手段5。エッジ領域関係決定手段6、深さ順序付け手段7及び深さ情報割り当て手段8を有する。画像装置は、3次元信号を3次元のディスプレイスクリーン10に出力する出力9を更に有する。係る表示装置は、たとえば自動立体表示装置である場合がある。
図9は、本発明に係る送信器を示す。図8との違いは、ディスプレイスクリーンそれ自身は、装置の統合した部分ではないことである。かかる送信機は、たとえば、2次元信号を有するDVDを読取り、個別に販売されている3次元表示装置における使用向けに3次元信号に2次元信号を変換する。また、送信機は、2次元信号を有するDVDから3次元信号を有するDVDを作成する装置である場合があり、3次元信号は、DVDに供給されるか、たとえば別のロケーションに送出される。3次元信号は、画像の領域への分割に関する情報と領域の深さのオーダに関する情報を含み、好適な実施の形態では、様々な領域の焦点の特性は、本発明の実施の形態を形成する。情報は、信号におけるヘッダで与えられ、このヘッダはどのブロックが領域に属するかを規定するか、領域間の分割ライン、領域のオーダ、及び好ましくは領域のぼかし半径である領域の焦点の特性を規定する。従来の方法及び装置で作られる3次元信号は、係る情報を含まない。本発明に係る3次元信号は、たとえば以下のように生成される。カスタマは、3次元表示装置を有するが、通常の2次元デジタルカメラを有さない。ユーザは、インターネット再度に2次元ホームビデオ又はデジタル画像を送出する。オリジナルの2次元信号は、3次元信号に変換され、この3次元信号は、彼の3次元ディスプレイにビデオ又は画像を表示することができるユーザに送出される。
要するに、本発明は、以下のように記載される。
2次元画像データは、3次元画像データに変換される。画像は、焦点の特性に基づいて、2以上の領域に分割され、どの領域に2つの領域を分離するエッジが属するかが判定される。領域は、エッジを含む領域は隣接する領域よりも見る人に近いというルールに従って深さの順序付けされ、この領域に、3次元の深さ情報は、領域の確立された深さの順序に従って割り当てられる。好ましくは、領域のそれぞれに対して、領域の平均又は中間の焦点の特性に依存して、ある深さが割り当てられる。
また、本発明は、本発明に係る方法又は装置についてコンピュータプログラムプロダクトで実施される。コンピュータプログラムプロダクトは、汎用コンピュータ又は特定用途プロセッサをイネーブルにするコマンドの集合の物理的な実現であると理解され、(中間的な言語及び最終的なプロセッサ言語への変換のような中間的な変換ステップを含む)一連のロードステップの後、プロセッサにコマンドを取得させ、本発明の特徴となる機能の何れかを実行させるものである。特に、コンピュータプログラムプロダクトは、たとえばディスク又はテープのようなキャリア上のデータ、メモリに存在するデータ、有線又は無線のネットワークコネクションを通して伝播するデータ、又は紙上のプログラムコードとして実現される。プログラムコードとは別に、プログラムについて必要とされる特性データは、コンピュータプログラムプロダクトとしても実現される。本方法の機能のために必要とされるステップの幾つかは、データ入力及び出力ステップのようなコンピュータプログラムプロダクトで記載される代わりに、プロセッサの機能に既に存在する場合がある。
なお、上述された実施の形態は、本発明を限定するよりはむしろ例示するものであり、当業者は、特許請求の範囲から逸脱することなしに多数の代替的な実施の形態を設計することができる。
請求項では、括弧間に配置される参照符号は、請求項を限定するものとして解釈されるべきではない。
単語「有する“comprising”」は、請求項で列挙されるエレメント又はステップ以外の存在を排除するものではない。本発明は、幾つかの個別のエレメントを有するハードウェアにより、適切にプログラムされたコンピュータにより実現される。幾つかの手段を列挙する装置では、これらの手段の幾つかは同一アイテムのハードウェアにより実現される。本発明は、上述された様々な異なる好適な実施の形態の特徴の組み合わせにより実現される。特に、符号化方法又はエンコーダに関して図示又は特許請求される実施の形態は、示唆されないか又は不可能でない場合、復号化方法又はデコーダの対応する実施の形態を有し、係る復号化方法及びデコーダは、本発明の実施の形態及び特許請求されることが記載される。
薄型レンズモデルを例示する図である。 図2A〜図2Cは、ぼかし半径を決定する可能な方法を例示する図である。 ぼかし半径と焦点面との間の関係を例示する図である。 ぼかし半径の統計的な分布を例示する図である。 図5A及び図5Bは、領域を決定する方法を例示する図である。 どの領域にエッジが属するかを判定する方法を例示する図である。 本発明に係る方法を例示する図である。 本発明に係る表示装置を例示する図である。 本発明に係る送信機を例示する図である。

Claims (13)

  1. 2次元画像データが3次元画像データに変換される立体画像表示方法であって、
    前記2次元画像データから焦点情報が抽出され、前記3次元画像データを生成するために使用され、
    前記焦点情報に基づいて、前記画像は焦点の特性を有する2以上の領域に分割され、
    前記画像のどの領域に2つの領域を分離するエッジが属するかが判定され、
    エッジを含む領域は隣接する領域よりも見る人に近いというルールに従って、前記領域間で深さの順序が確定され、
    前記領域の確定された深さの順序に従って3次元の深さ情報が前記領域に割り当てられる、
    ことを特徴とする方法。
  2. 前記画像の領域への分割の前に、焦点の特性はブロック毎に割り当てられ、
    前記ブロックは、領域にクラスタリングされる、
    請求項1記載の立体画像表示方法。
  3. 前記3次元の深さ情報は、前記領域の焦点の特性に依存して割り当てられる、
    請求項1記載の立体画像表示方法。
  4. 前記画像は、2つの領域に分割される、
    請求項1記載の立体画像表示方法。
  5. 前記画像は、3つの領域に分割される、
    請求項1記載の立体画像表示方法。
  6. 2次元画像データを入力する入力手段と、入力された2次元画像データを3次元画像データに変換する変換手段とを有する立体画像表示装置であって、
    前記コンバータは、前記2次元画像データから焦点情報を抽出する焦点情報抽出手段を有し、
    当該装置は、前記焦点情報に基づいて、前記画像を焦点の特性を有する2以上の領域にクラスタリングするクラスタ手段と、
    前記画像のどの領域に領域を分離するエッジが属するかを判定する判定手段と、
    エッジを含む領域は隣接する領域よりも見る人に近いというルールに従って、前記領域間で深さの順序付けを行う深さ順序付け手段と、
    前記画像を表示する表示手段とを有し、
    前記領域の見かけの深さは、前記深さの順序付けに従う、
    ことを特徴とする立体画像表示装置。
  7. 当該装置は、領域の遷移近くの輝度のエッジを検出する検出手段を有する、
    請求項6記載の立体画像表示装置。
  8. 当該装置は、領域の焦点の特性に基づいて領域の深さ情報を割り当てる深さ情報割り当て手段を含む、
    請求項6記載の立体画像表示装置。
  9. 2次元画像データが3次元画像データに変換される画像表示データ変換方法であって、
    前記2次元画像データから焦点情報が抽出され、前記3次元画像データを生成するために使用され、
    前記焦点情報に基づいて、前記画像は焦点の特性を有する2以上の領域に分割され、
    前記画像のどの領域に2つの領域を分離するエッジが属するかが判定され、
    エッジを含む領域は隣接する領域よりも見る人に近いというルールに従って、前記領域間で深さの順序が確定され、
    前記領域の確定された深さの順序に従って3次元の深さ情報が前記領域に割り当てられる、
    ことを特徴とする方法。
  10. 前記3次元の深さ情報は、領域の焦点の特性に依存して割り当てられる、
    請求項10記載の画像表示データ変換方法。
  11. 画像の2以上の領域への分割、前記領域の深さの順序付け及び前記領域のそれぞれについて平均の焦点の特性に関する情報を含む3次元画像信号。
  12. 2次元画像データを受ける入力と、入力された2次元画像を3次元画像データに変換する変換手段とを有する送信機であって、
    前記変換手段は、前記2次元画像データから焦点情報を抽出する焦点情報抽出手段を有し、
    当該装置は、前記焦点情報に基づいて、前記画像を焦点の特性を有する2以上の領域にクラスタリングするクラスタ手段と、
    前記画像のどの領域に2つの領域を分離するエッジが属するかを判定する判定手段と、
    エッジを含む領域は隣接する領域よりも見る人に近いというルールに従って、前記領域の深さの順序付けを行う深さ順序付け手段と、
    前記3次元画像信号を出力する出力手段とを有し、
    3次元の深さ情報は、前記領域の確立された深さの順序に従って前記領域に割り当てられる、
    ことを特徴とする送信機。
  13. 入力される2次元画像データに基づいて3次元画像データを生成する命令を含む、コンピュータアレンジメントによりロードされるコンピュータプログラムプロダクトであって、
    前記コンピュータアレンジメントは処理手段を有し、
    前記命令は、請求項1乃至5又は請求項10乃至11の何れか記載の方法を実行するために構成される、
    ことを特徴とするコンピュータプログラムプロダクト。
JP2008542901A 2005-12-02 2006-11-27 立体画像表示方法、2次元画像データの入力から3次元画像データを生成する方法及び装置 Expired - Fee Related JP5073670B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP05111623.4 2005-12-02
EP05111623 2005-12-02
PCT/IB2006/054458 WO2007063478A2 (en) 2005-12-02 2006-11-27 Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input

Publications (3)

Publication Number Publication Date
JP2009517951A true JP2009517951A (ja) 2009-04-30
JP2009517951A5 JP2009517951A5 (ja) 2010-01-21
JP5073670B2 JP5073670B2 (ja) 2012-11-14

Family

ID=38057450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008542901A Expired - Fee Related JP5073670B2 (ja) 2005-12-02 2006-11-27 立体画像表示方法、2次元画像データの入力から3次元画像データを生成する方法及び装置

Country Status (8)

Country Link
US (1) US8325220B2 (ja)
EP (1) EP1958149B1 (ja)
JP (1) JP5073670B2 (ja)
KR (1) KR101370356B1 (ja)
CN (1) CN101322155B (ja)
AT (1) ATE542194T1 (ja)
RU (1) RU2411690C2 (ja)
WO (1) WO2007063478A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128450A (ja) * 2008-12-01 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 3次元表示物体、3次元画像作成装置、3次元画像作成方法およびプログラム
JP2012239820A (ja) * 2011-05-24 2012-12-10 Toshiba Corp 超音波診断装置及び画像処理装置
JP2016063522A (ja) * 2014-09-22 2016-04-25 カシオ計算機株式会社 画像処理装置、および方法、ならびにプログラム
KR101825218B1 (ko) * 2016-04-08 2018-02-02 한국과학기술원 깊이 정보 생성 장치 및 방법
KR101921608B1 (ko) 2018-01-29 2018-11-26 한국과학기술원 깊이 정보 생성 장치 및 방법

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
US20110043540A1 (en) * 2007-03-23 2011-02-24 James Arthur Fancher System and method for region classification of 2d images for 2d-to-3d conversion
WO2009001255A1 (en) * 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
DE102007058779B4 (de) * 2007-12-06 2021-01-14 Robert Bosch Gmbh Einrichtung eines Kraftfahrzeugs zur Erzeugung eines für eine Bildanalyse geeigneten Bildes
JP5337170B2 (ja) 2008-02-08 2013-11-06 グーグル インコーポレイテッド タイミング調節されるシャッターを用いる複数のイメージセンサーを有するパノラマカメラ
WO2010023592A1 (en) * 2008-08-26 2010-03-04 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, encoder for encoding a 3-d video signal, encoded 3d video signal, method and system for decoding a 3d video signal, decoder for decoding a 3d video signal
US8345956B2 (en) * 2008-11-03 2013-01-01 Microsoft Corporation Converting 2D video into stereo video
CN101751664B (zh) * 2008-12-02 2013-04-17 奇景光电股份有限公司 立体深度资讯的产生系统及产生方法
KR20100080704A (ko) * 2009-01-02 2010-07-12 삼성전자주식회사 영상 데이터 획득 방법 및 장치
JP4903240B2 (ja) * 2009-03-31 2012-03-28 シャープ株式会社 映像処理装置、映像処理方法及びコンピュータプログラム
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法
US8878912B2 (en) * 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
US8254760B2 (en) 2009-08-28 2012-08-28 Apple Inc. Pixel analysis and frame alignment for background frames
KR101082545B1 (ko) 2010-01-28 2011-11-10 주식회사 팬택 영상 변환 기능을 구비한 이동통신 단말기
WO2011097306A1 (en) * 2010-02-04 2011-08-11 Sony Corporation 2d to 3d image conversion based on image content
KR101674568B1 (ko) * 2010-04-12 2016-11-10 삼성디스플레이 주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
KR101690297B1 (ko) * 2010-04-12 2016-12-28 삼성디스플레이 주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
KR20120005328A (ko) 2010-07-08 2012-01-16 삼성전자주식회사 입체 안경 및 이를 포함하는 디스플레이장치
WO2012014009A1 (en) * 2010-07-26 2012-02-02 City University Of Hong Kong Method for generating multi-view images from single image
US20120218382A1 (en) * 2010-08-02 2012-08-30 Ron Zass Multiclass clustering with side information from multiple sources and the application of converting 2d video to 3d
KR20120023268A (ko) * 2010-09-01 2012-03-13 삼성전자주식회사 디스플레이 장치 및 그 영상 생성 방법
US9165367B2 (en) * 2010-09-02 2015-10-20 Samsung Electronics Co., Ltd. Depth estimation system for two-dimensional images and method of operation thereof
KR101638919B1 (ko) 2010-09-08 2016-07-12 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어방법
US9305398B2 (en) 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
TWI532009B (zh) * 2010-10-14 2016-05-01 華晶科技股份有限公司 產生淺景深影像的方法及裝置
JP2012100116A (ja) * 2010-11-02 2012-05-24 Sony Corp 表示処理装置、表示処理方法およびプログラム
KR20120059367A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 에너지값을 이용한 이미지 처리 장치와 그 이미지 처리 방법 및 디스플레이 방법
KR101188105B1 (ko) * 2011-02-11 2012-10-09 팅크웨어(주) 영상 정보를 이용한 증강 현실 제공 장치 및 방법
KR101685418B1 (ko) 2011-04-27 2016-12-12 한화테크윈 주식회사 3차원 영상을 생성하는 감시 시스템
CN102857772B (zh) * 2011-06-29 2015-11-11 晨星软件研发(深圳)有限公司 影像处理方法以及影像处理装置
US9456152B2 (en) 2011-07-12 2016-09-27 Samsung Electronics Co., Ltd. Device and method for blur processing
JP6034197B2 (ja) * 2011-08-25 2016-11-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム
US8749548B2 (en) * 2011-09-01 2014-06-10 Samsung Electronics Co., Ltd. Display system with image conversion mechanism and method of operation thereof
CN102426693B (zh) * 2011-10-28 2013-09-11 彩虹集团公司 一种梯度边缘检测算法实现2d 转3d 的方法
RU2658790C2 (ru) * 2011-11-21 2018-06-22 Никон Корпорейшн Устройство отображения и программа управления отображением
JP2013172190A (ja) * 2012-02-17 2013-09-02 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9286658B2 (en) * 2012-03-22 2016-03-15 Qualcomm Incorporated Image enhancement
KR20130127867A (ko) * 2012-05-15 2013-11-25 삼성전자주식회사 스테레오 비전 장치와 이의 제어 방법
ES2533051T3 (es) * 2012-06-27 2015-04-07 Vestel Elektronik Sanayi Ve Ticaret A.S. Procedimiento y dispositivo para determinar una imagen de profundidad
RU2642367C2 (ru) * 2013-04-09 2018-01-24 Битанимейт, Инк. Система и способ преобразования двухмерной видеозаписи в трехмерную видеозапись
JP2015149547A (ja) * 2014-02-05 2015-08-20 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
US9807372B2 (en) * 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
CN104301706B (zh) * 2014-10-11 2017-03-15 成都斯斐德科技有限公司 一种增强裸眼立体显示效果的合成方法
CN104796684A (zh) * 2015-03-24 2015-07-22 深圳市广之爱文化传播有限公司 裸眼3d视频处理方法
WO2017048927A1 (en) * 2015-09-18 2017-03-23 The Regents Of The University Of California Cameras and depth estimation of images acquired in a distorting medium
EP3185209B1 (en) * 2015-12-23 2019-02-27 STMicroelectronics (Research & Development) Limited Depth maps generated from a single sensor
CN105701823A (zh) * 2016-01-14 2016-06-22 无锡北邮感知技术产业研究院有限公司 由遮挡关系恢复深度次序的方法
CN105957053B (zh) * 2016-04-19 2019-01-01 深圳创维-Rgb电子有限公司 二维图像景深生成方法和装置
FR3074385B1 (fr) 2017-11-28 2020-07-03 Stmicroelectronics (Crolles 2) Sas Commutateurs et reseau d'interconnexion photonique integre dans une puce optoelectronique
US10972714B2 (en) * 2018-02-15 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for storing program
JP7137313B2 (ja) 2018-02-15 2022-09-14 キヤノン株式会社 出力装置、画像処理方法およびプログラム
US10523922B2 (en) * 2018-04-06 2019-12-31 Zspace, Inc. Identifying replacement 3D images for 2D images via ranking criteria
RU2690757C1 (ru) * 2018-08-21 2019-06-05 Самсунг Электроникс Ко., Лтд. Система синтеза промежуточных видов светового поля и способ ее функционирования
US11941782B2 (en) * 2020-06-16 2024-03-26 Adobe Inc. GPU-based lens blur rendering using depth maps

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146423A (ja) * 1997-11-10 1999-05-28 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
CA2418089A1 (en) * 2000-08-04 2002-02-14 Dynamic Digital Depth Research Pty Ltd. Image conversion and encoding technique
KR20050090000A (ko) 2003-01-06 2005-09-09 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 이미지들의 깊이 오더링을 위한 방법 및 장치
US7372977B2 (en) * 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
WO2005013623A1 (en) 2003-08-05 2005-02-10 Koninklijke Philips Electronics N.V. Multi-view image generation
CN100353760C (zh) * 2004-09-10 2007-12-05 张保安 组合宽屏幕电视系统
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146423A (ja) * 1997-11-10 1999-05-28 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128450A (ja) * 2008-12-01 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 3次元表示物体、3次元画像作成装置、3次元画像作成方法およびプログラム
JP2012239820A (ja) * 2011-05-24 2012-12-10 Toshiba Corp 超音波診断装置及び画像処理装置
US10226231B2 (en) 2011-05-24 2019-03-12 Toshiba Medical Systems Corporation Ultrasonic diagnostic apparatus and image processing apparatus
JP2016063522A (ja) * 2014-09-22 2016-04-25 カシオ計算機株式会社 画像処理装置、および方法、ならびにプログラム
KR101825218B1 (ko) * 2016-04-08 2018-02-02 한국과학기술원 깊이 정보 생성 장치 및 방법
KR101921608B1 (ko) 2018-01-29 2018-11-26 한국과학기술원 깊이 정보 생성 장치 및 방법

Also Published As

Publication number Publication date
CN101322155B (zh) 2013-03-27
WO2007063478A3 (en) 2007-10-11
CN101322155A (zh) 2008-12-10
EP1958149B1 (en) 2012-01-18
WO2007063478A2 (en) 2007-06-07
US8325220B2 (en) 2012-12-04
ATE542194T1 (de) 2012-02-15
JP5073670B2 (ja) 2012-11-14
EP1958149A2 (en) 2008-08-20
KR20080077391A (ko) 2008-08-22
KR101370356B1 (ko) 2014-03-05
RU2008126927A (ru) 2010-01-10
US20080303894A1 (en) 2008-12-11
RU2411690C2 (ru) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5073670B2 (ja) 立体画像表示方法、2次元画像データの入力から3次元画像データを生成する方法及び装置
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
JP5587894B2 (ja) 深さマップを生成するための方法及び装置
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
KR102464523B1 (ko) 이미지 속성 맵을 프로세싱하기 위한 방법 및 장치
US20130335535A1 (en) Digital 3d camera using periodic illumination
US20120274634A1 (en) Depth information generating device, depth information generating method, and stereo image converter
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
KR20050087882A (ko) 풀 깊이 맵 획득
JP7285834B2 (ja) 三次元再構成方法および三次元再構成装置
JP2010152521A (ja) 画像立体化処理装置及び方法
KR101458986B1 (ko) 키넥트 기반 실시간 다시점 영상 생성 방법
EP3616399B1 (en) Apparatus and method for processing a depth map
JP4862004B2 (ja) 奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラム
Lee et al. Estimating scene-oriented pseudo depth with pictorial depth cues
AU2016273979A1 (en) System and method for adjusting perceived depth of an image
KR20230117601A (ko) 깊이 맵을 처리하기 위한 장치 및 방법
KR101849696B1 (ko) 영상 모델링 시스템에서 조명 정보 및 재질 정보를 획득하는 방법 및 장치
KR20030076904A (ko) 중간 시점 영상 합성 방법
JP6552309B2 (ja) 画像処理装置、画像処理方法及びプログラム
Haque et al. Gaussian-Hermite moment-based depth estimation from single still image for stereo vision
Reddy Automatic 2D-to-3D conversion of single low depth-of-field images
JPH11345334A (ja) 累計差分表を用いた3次元画像処理方法、装置、および3次元画像処理プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120131

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees