JP2011511532A - 2d画像データを立体画像データに変換する方法およびシステム - Google Patents

2d画像データを立体画像データに変換する方法およびシステム Download PDF

Info

Publication number
JP2011511532A
JP2011511532A JP2010544280A JP2010544280A JP2011511532A JP 2011511532 A JP2011511532 A JP 2011511532A JP 2010544280 A JP2010544280 A JP 2010544280A JP 2010544280 A JP2010544280 A JP 2010544280A JP 2011511532 A JP2011511532 A JP 2011511532A
Authority
JP
Japan
Prior art keywords
image
disparity
disparity map
cost function
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010544280A
Other languages
English (en)
Other versions
JP5561781B2 (ja
Inventor
チヤン,ドン−チン
ヘクマツト イザト,イザト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011511532A publication Critical patent/JP2011511532A/ja
Application granted granted Critical
Publication of JP5561781B2 publication Critical patent/JP5561781B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Abstract

2次元画像シーケンスを3次元画像に変換するシステムおよび方法を提供する。一実施形態では、2次元画像シーケンスを3次元画像に変換する方法は、リファレンス2D画像のモノスコピック・シーケンス中の、現在のリファレンス画像と隣接する画像とを含む連続する画像間のカメラ・モーション・パラメータを決定するステップ(201)と、カメラ・モーション・パラメータを用いて、ターゲット画像の水平ディスパリティ・マップを決定するステップ(202)と、ディスパリティ・マップの各ディスパリティ・ベクトルのディスパリティ確率値を決定するステップ(203,204)と、ターゲット画像と現在のリファレンス画像とが立体画像対を構成するように、ディスパリティ確率値を用いて、現在のリファレンス画像中の画素値の重み付け平均としてターゲット画像を決定するステップ(205)とを含む。

Description

本発明は、立体画像すなわち3次元画像を生成する方法およびシステムに関し、より詳しくは、一般的なカメラ・モーションを含む2次元モノスコピック画像の単一のシーケンス(例えば2Dビデオ画像シーケンス)から立体画像対を生成する方法およびシステムに関する。
一般に、立体画像変換は、2次元(2D)の画像または映像を3次元(3D)の立体画像または立体映像に変換することを伴うプロセスである。1つの従来のプロセスでは、異なる位置に置いた2つの別個のカメラによって取得した2つのモノスコピック像(左右の目の視点の像)を結合することによって、立体画像を生成することができる。各カメラは所与のシーンの2D視点画像(左右の目で見た像)を取得し、これによって、2つの2D視点画像が結合されて3Dすなわち立体画像が形成される。他の従来の方法では、単一のビデオ・カメラによって取得したオリジナル2Dモノスコピック画像から3Dすなわち立体画像を生成する。この方法では、オリジナル2D画像から抽出した情報を用いて、対応する2Dモノスコピック画像対が推定される。このような方法では、オリジナル2D画像が立体画像対の第1の像を生成する左視点像として定められる一方で、対応する右視点画像は、対応する立体画像対の第2の像を生成するためにオリジナル2D画像から加工された画像である。
1つの特定の従来の方式では、2D/3D変換システムは、ソース画像データに含まれる連続した2D画像間で推定されるカメラ・モーション・データを用いて、2Dモノスコピック画像の単一のシーケンス(例えば、2Dビデオ画像シーケンス)から立体画像対を生成するように構成することができる。そのような技術では、入力2D画像データは、カメラ・モーションで取得したビデオ・セグメントであることが多い。カメラ・モーションを解析した後で、入力ビデオ中の2D画像および推測したカメラ・モーションから、右画像を抽出することができる。2D/3D変換システムを使用して、2Dフォーマットの画像およびビデオ・データ(映画、ホーム・ビデオ、ゲームなど)を立体画像に変換し、2Dフォーマットのソース画像データを3Dとして視聴することを可能にすることができる。第1の画像シーケンスと第2の画像シーケンスとが左または右の目に送られると、第1の画像シーケンスと第2の画像シーケンスとによって、本来は2次元の画像が3次元に見えるようになる。
カメラ・モーションを使用して2D画像シーケンスから立体画像対を生成する従来の手法では、カメラでビデオ画像データから計算された奥行きマップを使用して、対応する立体画像対をレンダリング/生成する。一般に、これらの技術では、2D画像のモノスコピック・シーケンス中の連続した2つの2D画像がカノニカルな(canonical)ステレオ対となるように、それらの2D画像間のカメラ・モーションを推定した後に、推定したカメラ・モーションを用いて奥行きの推定を行って、これらの2つ以上の連続した画像から奥行きマップを抽出する。次いで、推定した奥行きマップを使用して、左目画像を右目画像にレンダリングし直す。より詳しくは、連続する2つの2D画像LおよびLi+1を想定し、入力2D画像シーケンスが左目視点像を提供するものとすると、奥行きマップDに対するコスト関数F(D|L,Li+1)を最小にすることにより、これらの2D画像から奥行きマップを推定することができる。最適な奥行きマップが
であるとすると、レンダリング関数
によって、右画像をレンダリングすることができる。
この従来の手法は、奥行きマップを正確に推定することができれば、理論上はうまく機能する。この手法の利点は、カメラ・モーションがどのようなものであってもよい点である。しかし、実際には、奥行き推定プロセスに問題があり、ほとんどの場合には、奥行きマップがノイズによって劣化する。その結果、推定した奥行きマップには、ノイズ成分
が含まれることになる。ここで、Dは真の奥行きマップ(true depth map)であり、
は、エラー成分である。右目画像をレンダリングする際に、このエラー成分がレンダリング関数によって伝播し、ほとんどの場合にはレンダリング関数によって増幅されて、望ましくないアーチファクトを生じることになる。
カメラ・モーションに基づく従来の方法としては、他に、平面変換技術を使用して奥行きマップの計算を回避するものもあるが、これらの手法は、一般的な任意のカメラ・モーションを含むビデオ・データへの適用が、かなり制限される。一般に、平面変換技術では、例えば隣接するフレームを使用して基本行列を計算することによって、入力ビデオ・シーケンスからカメラ・モーションを推定する。次いで、推定したカメラ・モーションのパラメータを使用して、入力ビデオ画像シーケンス中の現在の画像から仮想右目画像への変換に使用する平面変換行列を導出する。ただし、この変換行列を導出することができるのは、カメラ・モーションが水平の動きしか含まない場合のみである。カメラが垂直方向にも動く場合には、垂直視差が発生することになり、垂直視差は、平面変換で除去することができない。見る人の目は、通常はほぼ水平な平面内で離間しており、2つの目の間の距離のステレオ・ベースに従って各視点の像を見ているので、大抵の奥行きの知覚(すなわち、例えば光景を見るときの3Dすなわちステレオ効果)は、垂直平面内ではなくほぼ水平な平面内で得られる。従って、一対の連続する画像間の垂直の動きすなわち垂直ディスパリティ(disparity)が、2D/3D変換システムによって、奥行きを示す動きとして誤って解釈される可能性がある。ただし、平面変換は、カメラの回転およびズーミングは除去することができるので、カノニカルな立体画像対を生成することができる(すなわち、焦点距離が同じになり、かつ焦点面が平行になるように、左右の画像が位置合わせされる)。この条件下では、カメラ・モーションが水平移動に制限される場合に、2D画像の入力ビデオ・ストリームを、離間間隔の小さな一連のステレオ画像対として扱うことができる。
本明細書に記載する様々な実施形態は、任意のカメラ・モーションを含む2D画像のモノキュラ・シーケンスから立体画像対を生成する方法およびシステムを含み、ターゲット画像を生成するプロセスがディスパリティ・マップの推定ノイズの影響を受けにくくなるように、ターゲット画像上のディスパリティ・マップは、カメラ・モーションとディスパリティ・マップ生成の誤差を考慮に入れた最適化技術とを用いて直接推定される。
本発明の1つの例示的な実施形態では、2D/3D変換方法は、2D画像のモノスコピック・シーケンス中の、現在のリファレンス画像と隣接する画像とを含む連続する画像間のカメラ・モーション・パラメータを決定するステップと、カメラ・モーション・パラメータを用いて、ターゲット画像の水平ディスパリティ・マップを決定するステップと、ディスパリティ・マップの各ディスパリティ・ベクトルのディスパリティ確率値を決定するステップと、ターゲット画像と現在のリファレンス画像とが立体画像対を構成するように、ディスパリティ確率値を用いて、現在のリファレンス画像中の画素値の重み付け平均としてターゲット画像を決定するステップとを含む。
例えば、本発明の一実施形態では、水平ディスパリティ・マップは、水平ディスパリティ・マップの下で現在のリファレンス画像中の画素と隣接する画像中の画素とをマッチングするコストを決定する画素マッチング・コスト関数成分と、平滑な水平ディスパリティ・マップを得るために水平ディスパリティ・マップ中の近接する画素位置のディスパリティ値の類似性を考慮する平滑化コスト関数成分とを含むコスト関数を構築することによって決定される。
さらに、本発明の一実施形態では、ディスパリティ・マップのディスパリティ・ベクトルのディスパリティ確率値は、各画素のディスパリティ・ベクトルの値が、複数の離散値のうちの1つであることができる乱数値であるとみなされる、水平ディスパリティ・マップの確率関数モデルを構築することによって決定される。確率関数モデルは、コスト関数のコスト関数成分を、確率モデルに関連付けられた対応するエネルギー関数に変換することによって構築することができる。
さらに、例示的な一実施形態では、確率関数モデルはマルコフ確率場モデルであり、マルコフ確率場モデルは、第1及び第2のエネルギー関数によって規定され、第1のエネルギー関数はマッチング・コスト関数に対応し、第2のエネルギー関数は平滑化コスト関数に対応する。確率伝播アルゴリズムなどの確率的推論アルゴリズムを使用して、ディスパリティ・マップの各ディスパリティ・ベクトルのディスパリティ確率値を決定することもできる。
本発明の一実施形態では、ディスパリティ・マップを推定する前に、カメラ・モーション・パラメータを用いて、現在のリファレンス画像と隣接する画像との間の垂直カメラ・モーションの量を決定することができる。垂直モーションの量が所定のしきい値未満である場合には、平面変換を用いて、現在のリファレンス画像からターゲット画像を計算することができる。
本発明の代替の実施形態では、2次元画像シーケンスを3次元画像に変換するシステムは、2D画像の第1のモノスコピック・シーケンス中の、現在のリファレンス画像および隣接する画像を含む連続する画像を記憶する画像データ・バッファと、画像データ処理システムとを備える。一実施形態では、画像データ処理システムは、画像データ・バッファに記憶された連続する画像間のカメラ・モーション・パラメータを決定するカメラ・モーション推定モジュールと、カメラ・モーション・パラメータを用いてターゲット画像の水平ディスパリティ・マップを決定し、ディスパリティ・マップの各ディスパリティ・ベクトルのディスパリティ確率値を決定するディスパリティ・マップ推定モジュールと、ターゲット画像と現在のリファレンス画像とが立体画像対を構成するように、ディスパリティ確率値を用いて、現在のリファレンス画像中の画素値の重み付け平均としてターゲット画像を決定する画像レンダリング・モジュールとを有する。
本原理の教示は、以下の詳細な説明を添付の図面と併せて検討することにより、容易に理解することができる。
本発明の一実施形態による、2D画像シーケンスを3D立体画像に変換するシステムを示すハイレベル・ブロック図である。 本発明の一実施形態による、2D画像シーケンスを3D立体画像に変換する方法を示すフローチャートである。 本発明の代替の実施形態による、2D画像シーケンスを3D立体画像に変換する方法を示すフローチャートである。
図面は、本発明の概念を例示するためのものであり、本発明を説明することができる構成は、必ずしも図面に示すものだけではないことを理解されたい。理解し易いように、各図面に共通する同一の構成要素は、可能な限り同じ参照番号を用いて示している。
本発明は、一般的なカメラ・モーションを含む2次元(2D)モノスコピック画像の単一のシーケンス(例えば、2Dビデオ画像シーケンス)から立体画像対を生成する方法およびシステムを有利に提供する。左画像がリファレンス画像であり右画像がターゲット画像である2D画像を3D立体画像に変換する具体的なシステムに主に関連して本発明を説明するが、本発明の具体的な実施形態は、本発明の範囲を制限するものとして扱われるべきではない。例えば、本発明の代替の実施形態では、任意の第1の画像をリファレンス画像(すなわち右画像または左画像)として使用して、立体画像対を得ることができる。
本発明の様々な実施形態によれば、2Dから3Dへの変換技術は、入力ストリーム中の連続した2D画像(すなわちリファレンス画像)から決定されるカメラ・モーション・パラメータと、ディスパリティ・マップ生成の誤差を考慮する最適化技術を使用して、右目画像(ターゲット)上のディスパリティ・マップを推定するようになっており、それにより、推定したディスパリティ・マップを用いてオリジナル2D(リファレンス画像)から右画像(ターゲット)を生成するプロセスが、ディスパリティ・マップの推定ノイズの影響を受けにくくなっている。
一実施形態では、右画像上に規定されるディスパリティ場が推定される。ディスパリティ場は、左目画像Lの画素がどのようにして右画像Rに伝達されるかを記述する。例えば、ディスパリティ場がDで表される場合には、右目画像を数式(1)によって左目画像からに変換することができる。
(x,y)=L(x+D(x,y),y) (1)
ディスパリティ場Dは、右目画像内の対応する画素を得るために、左目画像L内の画素に適用されるシフトの量を指定するベクトル・データを含む。ベクトル・データは、2つの立体画像の間の視点の変化と、各カメラから撮影対象シーンの各対象物までの距離とに関係している。ディスパリティ場は水平成分のみを有するので、ディスパリティ場(またはディスパリティ・マップ)は、L中の各画素の位置(x,y)に適用されると右視点ステレオ画像R中の対応する画素の位置(x+d,y)を生じる、左視点ステレオ画像(リファレンス)中の各画素の変位値dを含むことに留意されたい。この点で、ディスパリティ・マップは変位値の行列とみなすことができ、この行列は、各ステレオ画像中の画素数と同じ大きさを有するので、ステレオ画像の一方に含まれる各画素ごとに1つの1次元変位値を含む。
図1は、本発明の一実施形態による、2D画像シーケンスを3D立体画像に変換するシステム100のハイレベル・ブロック図を示す。一般に、システム100は、以下で述べるように、2Dディジタル画像の第1の入力シーケンス(モノスコピック)120を処理し、様々な画像処理および最適化方法を用いて、この2D画像の第1のモノキュラ・シーケンス120から2Dディジタル画像の第2のシーケンス(モノスコピック)130を生成するように構成された画像データ・プロセッサ110を備える。図1に示す例示的な実施形態では、2D画像の第1のシーケンス120は、例えば立体画像対の左目視点像であるとみなされる2Dリファレンス画像のシーケンスL,Li+1,Li+2,…を含み、2D画像120の第2のシーケンス130は、例えば立体画像対の対応する右目視点像であるとみなされる2D合成(ターゲット)画像のシーケンスR,Ri+1,Ri+2,…を含む。一実施形態では、入力120は、カメラ・モーションで取得したビデオ・セグメントであってもよい。
2D画像の第1のシーケンス120と2D画像の第2のシーケンス130とを、画像結合モジュール140で結合して、立体画像シーケンス150を生成することができる。立体画像シーケンス150は、別個だが同期している左右の画像ストリームを含むことができ、これらの左右の画像ストリームが立体画像対ストリームを構成する。立体画像対ストリームは、対応する立体対がインタレースされて3D画像を形成している単一の3D画像ストリームである。
図1に示す実施形態では、画像データ・プロセッサ110は、入力画像バッファ111、カメラ・モーション推定モジュール112、コスト関数および確率関数生成モジュール113、平面変換生成モジュール114、ディスパリティ場推定モジュール115、および画像生成器116を例示的に備えている。画像データ・プロセッサ110を構成するシステム構成要素/モジュールは、(図2および図3のフローチャートを参照して後述するように)2次元画像シーケンス120中の隣接する連続した画像の間のカメラ・モーション・ベクトルを測定し、このモーション・ベクトルを使用して右目画像の水平ディスパリティ・マップを推定および最適化し、確率モデル化を行ってディスパリティ・マップ推定誤差を最小限に抑えることによって2D右目画像シーケンス130を生成する、様々な例示的な動作モードを実施する。
図1の実施形態では、画像バッファ111は、2D画像の入力シーケンス中の複数の隣接する画像フレームを受信して記憶する。カメラ・モーション推定モジュール112は、2D画像の第1のモノスコピック・シーケンス120中の連続する画像間のカメラ・モーション・パラメータ、例えば、現在のリファレンス画像Lと隣接する画像L+1との間のカメラ・モーション・パラメータを決定する。本発明の様々な実施形態では、カメラ・モーション推定モジュール112は、さらに、現在のリファレンス画像Lおよび隣接する画像L+1を修正および調整して、現在のリファレンス画像および隣接する画像がカノニカルなステレオ画像対になるようにする、画像修正および調整モジュールとしても動作する。
関数生成モジュール113は、最適ディスパリティ・マップを計算するために使用されるコスト関数(例えば後述の数式2または数式4)を生成する。以下に説明するように、コスト関数は、水平ディスパリティ・マップ(すなわちターゲット画像の水平ディスパリティ・マップ)を、隣接するリファレンス画像LとLi+1との間のディスパリティに変換するために使用される水平モーション変換関数および垂直モーション変換関数の一方の関数によって、ディスパリティ・マップの下で、現在のリファレンス画像Lおよび隣接する画像Li+1の中の対応する画素のマッチングを行うコストを考慮する画素マッチング・コスト関数を決定する第1のコスト成分と、近接する画素のディスパリティのディスパリティ値の類似性を考慮する平滑化成分とで構成される。
関数モジュール113は、画素のディスパリティ値が当該画素について見込まれるディスパリティを表すn個の離散状態のうちの1つであってもよい乱数値である、ターゲット画像ディスパリティ・マップの確率モデルを規定する確率関数を生成する。関数生成モジュール113は、コスト関数を確率関数に変換することによって、確率関数を生成することができる。
ディスパリティ場推定モジュール115は、関数生成モジュール113が生成したコスト関数、確率関数、およびパラメータを用いて、ターゲット画像のディスパリティ場(またはディスパリティ・マップ)を推定および最適化する。以下に説明するように、例示的な一実施形態では、ディスパリティ・マップ推定モジュール115は、コスト関数またはコスト関数から導出した確率モデルのエネルギー関数を最小にして、ディスパリティ・マップのディスパリティ値の確率を求め、これらのディスパリティの確率値を重み値として使用して、リファレンス画像中の画素値の重み付け平均としてターゲット画像の画素値を計算することによって、初期ディスパリティ・マップを決定する。画像レンダリング・モジュール116は、推定したディスパリティ・マップを用いて2D画像(例えばターゲット画像)の第2のシーケンスを生成して出力し、対応するターゲット画像130とリファレンス画像120とが立体画像対を構成する。平面変換モジュール114を使用して、カメラ・モーションが垂直方向のカメラ・モーションを全く含まない、またはごくわずかしか含まない状況下で、リファレンス画像からターゲット画像を計算するために使用される平面変換行列を計算することができる。
図1のシステムは、様々な形態のハードウェア、ソフトウェア、ファームウェア、特殊目的プロセッサ、またはそれらの組合せによって実施することができる。本明細書に記載するシステムの構成要素および処理ステップは、1つまたは複数のプログラム記憶装置(例えば、磁気フロッピー(登録商標)・ディスク、RAM、CD ROM、ROM、フラッシュ・メモリなど)に実装され、適当なアーキテクチャを備えた任意の装置、マシンまたはプラットフォームによって実行することができるプログラム命令を含むアプリケーションとして、ソフトウェアで実施することができる。さらに、本明細書に記載するシステム構成要素および方法ステップの一部はソフトウェアで実施することが好ましいので、システム構成要素間(またはプロセス・ステップ間)の実際の接続は、本原理の例示的な実施形態をプログラミングする方法によって異なっていてもよいことを理解されたい。
図2は、本発明の実施形態による、2D画像シーケンスを3D立体画像に変換する方法を示すフローチャートである。図2の方法は、図1に示すシステムの1つの例示的な動作モードを示しているに過ぎないことを理解されたい。この方法では、最初にステップ200で、例えば2次元画像シーケンスの現在のフレームLおよび以前のフレームLi+1を含む複数の隣接するフレームを、一時的にバッファリングする。この方法は、次いで、ステップ201に進む。
ステップ201で、隣接するフレーム間のカメラ・モーションの量および方法を推定する。上述したように、対応する右目画像Riを推定して立体対を形成するために、現在の2D画像Liに適用される水平ディスパリティ・マップを推定するプロセスにおいて、カメラ・モーション・パラメータが使用される。このプロセスでは、入力モノスコピック・シーケンスの連続する2つの2Dソース画像間のカメラ・モーションを推定することにより、右画像Riを計算することが可能になる。ここで、画像Riは、現在の左画像Liに連続する画像に類似しており、ディスパリティ・ベクトルDは、推定したカメラ・モーション・ベクトルに類似している。
例えば、隣接する画像LiとL+1との間のカメラ・モーションは、例えば、隣接するフレームを用いて基本行列を計算することによって推定することができる。当技術分野で知られているように、基本行列は、1つの画像中の点を、他の画像中の対応する点と関連付けるものであり、2つの連続する入力画像間のディスパリティ・マッピングは、基本行列を用いてこれらのフレーム間のカメラ・モーションをモデル化することによって決定することができる。この方法は、次いで、ステップ202に進む。
ステップ202で、コスト関数を構築して、カメラ・モーションに基づいてターゲット(例えば右)画像の最適ディスパリティ・マップを推定する。水平ディスパリティ・マップは、以下の数式(2)に従ってコスト関数を最小にすることによって生成することができる。
数式(2)において、d(.,.)は、画素差、例えばユークリッド距離を表す。H,Hは、決定した水平(x)方向および垂直(y)方向のカメラ・モーションをそれぞれ表す変換関数であり、これらの変換関数を使用して、右目水平ディスパリティ・マップを、LとLi+1との間のディスパリティに変換し、画素差を計算することができるようにする。数式(2)のコスト関数の式では、モーション変換関数を用いて、画像の修正(rectification)および調整(calibration)が考慮に入れられる。さらに、数式(2)において、S(D(x,y))は、ディスパリティ場で規定される平滑化制約を示す。平滑化制約は、以下の数式(3)で特徴付けることができる。
比較的単純な例をとると、カメラ・モーションが垂直並進運動である場合には、LとLi+1の間には垂直視差しか存在しない。LおよびLi+1を修正した場合には、D(x,y)のディスパリティは、
によって、L上のディスパリティ場に変換することができる。数式(2)中のコスト関数は、例えばダイナミック・プログラミングおよび確率伝搬法などの最適化手法によって最小にすることができる。
代替の実施形態では、画像の修正および調整をカメラ・モーション推定プロセスの一部として行うことによって、ディスパリティ場推定を行うことができ、さらに簡略なコスト関数を構築することができる。すなわち、画像の修正および調整をカメラ・モーション推定プロセスの一部として行うと仮定すると、2つの連続する画像Li−1およびLは、修正対L’i−1およびL’に変換されることになり、ディスパリティ・マップDは、以下の数式(4)によるコスト関数を最小限にすることによって推定することができる。
ここで、d(.,.)は、画素差であり、S(D(x,y))は、数式(2)で定義される平滑化制約である。数式(2)のコスト関数と比較すると、隣接するリファレンス画像の修正および調整がカメラ・モーション推定プロセスの一部として既に行われているので、数式(4)のコスト関数は、水平ディスパリティ・マップを推定するための画像修正成分および画像調整成分を含んでいない。
一般に、数式(2)および(4)のコスト関数は、水平ディスパリティ・マップの下で現在のリファレンス画像中の画素と隣接する画像中の画素とのマッチングのコストを決定する画素マッチング・コスト関数成分と、平滑な水平ディスパリティ・マップを得るために水平ディスパリティ・マップ中の近接する画素位置のディスパリティ値の類似性を考慮する平滑化コスト関数成分とを含む。コスト関数を最小にすることによって最適な水平ディスパリティ・マップを推定することができるが、単に数式(2)又は数式(4)を用いただけの水平ディスパリティ・マップの推定は、ディスパリティ推定誤差がある場合に右目画像に伝搬する誤差を生じ、アーチファクトを生じる可能性につながるおそれがある。
従って、ディスパリティ推定の確率(信頼性)を用いて、ディスパリティ推定の不確実性を考慮する。ディスパリティ値の確率がW(x,y,d)であると仮定すると、右画像の画素値は、以下の数式(5)により、左目画像中の画素値の重み付け平均として設定することができる。
図2の方法は、次いで、ステップ203に進む。
ステップ203で、数式(4)のコスト関数の式を確率式に変換し、その後、確率的推論アルゴリズムを適用することによって、重みW(x,y,d)(すなわち、ディスパリティ・ベクトルの確率値)を決定することができる。このフレームワークでは、各画素の真のディスパリティ値は、各画素位置の確率変数である。各変数は、その画素位置において見込まれるディスパリティを表すn個の離散状態のうちの1つをとることができる。見込まれるディスパリティ値それぞれに対して、ある画素を当該ディスパリティ値を有する対応するステレオ画像中の対応する画素へマッチングさせることに関連するコストがある。ここで、当該コストは、2つの画素間の強度差に基づいていることが好ましい。
図2を再び参照すると、数式(4)中のコスト関数は、以下の数式(6)によって等価な確率式に変換することができる。
ここで、dはディスパリティ値であり、iおよびjは、画像中の一点を特定する別個の指標である。例えば、画像のサイズが320×240である場合には、i=0は(0,0)に位置する画素を表し、i=321は(1,1)に位置する画素を表し、その他同様である。従って、dは、数式(3)中のD(x,y)に対応する。数式(4)と数式(6)とを比較すると、その結果は、以下のようになる。
(i)全体としてのコスト関数は、C=logp(d(.))、
(ii)画素マッチング・コスト関数は、

(iii)平滑化コスト関数は、
。ただし、
であり、ここで、±が用いられているのは、符号が画素の近傍によって決まるからである。logZの項は、数式(6)および数式(4)の等価性に影響を及ぼさない、ディスパリティ・マップに対する定数である。この変換により、数式(4)のコスト関数を最小にすることは、数式(6)の確率関数を最大にすることと等価になる。ここで、数式(5)は、マルコフ確率場として知られており、φおよびΨijは、マルコフ確率場のポテンシャル関数である。
図2の方法に戻ると、ステップ204で、コスト関数を確率モデル(例えばマルコフ確率場)に変換した後で、所与の画素のディスパリティb(d=w)の確率値を、確率的推論アルゴリズムを用いて得ることができる。例えば、本発明に従ってディスパリティを計算するために使用することができる1つの推論アルゴリズムは、確率伝搬アルゴリズムであり、b(d=w)は、値wを有する点i(座標x,y)におけるディスパリティ値の確率である真の確率p(d=w)に近似される。ここで、wは、1からMの整数である(Mは最大ディスパリティ値)。この方法は、次いで、ステップ205に進む。
ステップ205で、現在のソース画像Liに関連する2Dステレオ画像Riを、推定したディスパリティ確率値を用いて、現在の画像Li中の画素の重み付け平均として計算することができる。特に、数式(5)を参照すると、重みW(x,y,d)の値は、所与の画素のディスパリティ値の近似確率値b(d=w)と等しくなるように設定することができる。ここで、指標iは、座標(x,y)の画素に対応する。これで、この方法を終了することができる。
図2の方法は、一般的なカメラ・モーション(水平および垂直のカメラ・モーション)に適用することができる。水平ディスパリティ・マップを構築し、これを使用してターゲット画像(例えば右目像)をレンダリングするので、カメラ・モーションが垂直成分を含む可能性があるにもかかわらず、自然なステレオ画像が生成される。しかし、カメラ・モーションが水平成分の他に、垂直成分をほとんど、または全く含まない場合には、平面モーション変換を使用して、右目水平ディスパリティ・マップを計算し、ターゲット画像をレンダリングすることができる。
例えば、図3は、本発明の代替の実施形態による、2D画像シーケンスを3D立体画像に変換する方法を示すフローチャートである。図3の方法は、図1に示すシステムによって実行することができる2D画像シーケンスを3D立体画像に変換する方法の代替の実施形態を表すものである。図3の方法では、初期のステップ300および301は、図2のステップ200および201と同様である。より詳しくは、ステップ300で、例えば2次元画像シーケンスの現在のフレームLおよびそれ以前のフレームLi+1を含む複数の隣接するフレームを一時的にバッファリングする。次いで、この方法は、ステップ301に進む。
ステップ301で、図2の方法のステップ201に関連して上述したように、隣接するフレーム間のカメラ・モーションの量および方向を推定する。次いで、この方法は、ステップ302に進む。
ステップ302で、垂直視差検出プロセスを実行して、存在する可能性のある垂直視差が存在する場合にはその量を決定する。一実施形態では、垂直視差検出は、入力シーケンス中の2つの画像(LおよびLi+1)を修正しようと試みることによって実現することができる。修正変換を計算した後で、その修正が画像Lの回転を含む場合には、垂直視差が存在しているはずである。従って、ここでは、回転角を、垂直視差を特定するための尺度として使用することができる。次いで、この方法は、ステップ303に進む。
ステップ303で、垂直視差の量が既定のしきい値より小さいかどうかを判定する。すなわち、本発明の一実施形態では、検出器が、検出した垂直視差の量を示す値を出力する。垂直視差の量が既定のしきい値未満である場合(ステップ303が肯定の結果である場合)には、この方法は、ステップ304に進む。
ステップ304で、平面変換プロセスを実行して、ターゲット画像Rを推定する。詳細には、例えば平面変換を構築する既知の方法を用い、カメラ・モーション・パラメータを用いて、平面変換を構築する。次いで、この方法は、ステップ305に進む。
ステップ305で、現在のリファレンス画像Lに平面変換を適用して、関連するターゲット画像Riを計算する。これで、この方法を終了することができる。
ステップ304および305では、カメラ・モーション・パラメータを使用して、リファレンス画像Liをターゲット画像Riに変換するために使用することができる平面変換行列を導出することができる。しかし、この変換行列は、カメラ・モーションが水平運動のみを含む場合にしか導出することができない。カメラ・モーションが垂直成分を含む場合には、垂直視差が生じることになり、垂直視差は、どのような平面変換によっても除去することはできない。しかし、平面変換は、カメラの回転およびズーミングは除去することができるので、カノニカルなステレオ対を生成することができる(すなわち、左右の画像が位置合わせされ、焦点距離が同じになり、焦点面が平行になる)。
図3のステップ303に戻ると、垂直視差が既定のしきい値未満ではない場合(ステップ303が否定の結果である場合)には、この方法は、ステップ306にジャンプする。ステップ306は、上述した図2のステップ202と同様である。
すなわち、ステップ306で、図2のステップ202に関連して上述したように、コスト関数を構築して、カメラ・モーションに基づいてターゲット(例えば右)画像の最適ディスパリティ・マップを推定する。ステップ306の後で、図3の方法は、ステップ307に進む。
ステップ307で、図2のステップ203に関連して上述したように、コスト関数を確率モデルに変換する。ステップ307の後で、図3の方法は、ステップ308に進む。
ステップ308で、図2のステップ204に関連して上述したように、確率的推論アルゴリズムを確率モデルに適用して、ディスパリティ・モデルの確率を求める。ステップ308の後で、図3の方法は、ステップ309に進む。
ステップ309で、図2のステップ205に関連して上述したように、推定したディスパリティ確率値を用いて、現在のソース画像Liに関連する2Dステレオ画像Riを、現在の画像Li中の画素の重み付け平均として計算することができる。これで、この方法を終了することができる。
一般的なカメラ・モーションを含む2次元(2D)モノスコピック画像の単一のシーケンス(例えば、2Dビデオ画像シーケンス)から立体画像対を生成する方法およびシステムの好ましい実施形態について(制限ではなく例示を目的として)説明してきたが、当業者であれば、上記の教示に照らして様々な修正および変形を行うことができることに留意されたい。従って、添付の特許請求の範囲に概説する本発明の範囲および趣旨内で、開示した本発明の具体的な実施形態に様々な変更を加えることができることを理解されたい。前述の内容は、本発明の様々な実施形態に関するものであるが、本発明の基本的な範囲を逸脱することなく、本発明のその他の実施形態を考案することができる。

Claims (18)

  1. 2次元画像シーケンスを3次元画像に変換する方法であって、
    2D画像のモノスコピック・シーケンス中の、現在のリファレンス画像と隣接する画像とを含む連続する画像間のカメラ・モーション・パラメータを決定するステップ(201)と、
    前記カメラ・モーション・パラメータを用いて、ターゲット画像の水平ディスパリティ・マップを決定するステップ(202)と、
    前記ディスパリティ・マップの各ディスパリティ・ベクトルのディスパリティ確率値を決定するステップ(203,204)と、
    ターゲット画像と現在のリファレンス画像とが立体画像対を構成するように、前記ディスパリティ確率値を用いて、前記現在のリファレンス画像中の画素値の重み付け平均としてターゲット画像を決定するステップ(205)と、
    を含む前記方法。
  2. 水平ディスパリティ・マップを決定する前記ステップが、前記水平ディスパリティ・マップの下で前記現在のリファレンス画像中の画素と前記隣接する画像中の画素とをマッチングするコストを決定する画素マッチング・コスト関数成分と、平滑な水平ディスパリティ・マップを得るために前記水平ディスパリティ・マップ中の近接する画素位置のディスパリティ値の類似性を考慮する平滑化コスト関数成分とを含むコスト関数を構築するステップ(202)を含む、請求項1に記載の方法。
  3. 前記ディスパリティ・マップの前記ディスパリティ・ベクトルのディスパリティ確率値を決定する前記ステップが、
    各画素のディスパリティ・ベクトルの値が、複数の離散値のうちの1つであることができる乱数値であるとみなされる、前記水平ディスパリティ・マップの確率モデルを決定するステップ(203)と、
    確率的推論アルゴリズムを使用して、前記ディスパリティ・マップ中の各ディスパリティ・ベクトルについて最も確率の高いディスパリティ値を決定するステップ(204)と、
    前記最も確率の高いディスパリティ値に関連する確率値を、所与の画素の重み値として適用するステップ(204)とを含む、請求項1に記載の方法。
  4. 前記水平ディスパリティ・マップの確率モデルを決定する前記ステップが、
    前記水平ディスパリティ・マップの下で前記現在のリファレンス画像中の画素を前記隣接する画像中の画素とマッチングするコストを決定する画素マッチング・コスト関数成分と、平滑な水平ディスパリティ・マップを得るために前記水平ディスパリティ・マップ中の近接する画素位置のディスパリティ値の類似性を考慮する平滑化コスト関数成分とを含むコスト関数を構築するステップ(202)と、
    前記コスト関数を対応するエネルギー関数に変換するステップ(203)とを含む、請求項3に記載の方法。
  5. 前記確率モデルはマルコフ確率場モデルである、請求項3に記載の方法。
  6. 前記マルコフ確率場が第1及び第2のエネルギー関数によって規定され、前記第1のエネルギー関数はマッチング・コスト関数に対応し、前記第2のエネルギー関数は平滑化コスト関数に対応する、請求項5に記載の方法。
  7. 前記確率的推論アルゴリズムは確率伝搬アルゴリズムである、請求項3に記載の方法。
  8. 前記カメラ・モーション・パラメータを用いて前記現在のリファレンス画像と前記隣接する画像との間の垂直カメラ・モーションの量を決定するステップ(301)と、
    前記垂直モーションの量が所定のしきい値未満である場合に、前記現在のリファレンス画像からターゲット画像を計算するために平面変換を実行するステップ(304)と、
    をさらに含む、請求項1に記載の方法。
  9. 前記カメラ・モーション・パラメータを用いてターゲット画像の水平ディスパリティ・マップを決定する前記ステップの前に、前記現在のリファレンス画像および前記隣接する画像を修正するステップをさらに含む、請求項1に記載の方法。
  10. 2次元画像シーケンスを3次元画像に変換するシステム(100)であって、
    2D画像の第1のモノスコピック・シーケンス中の、現在のリファレンス画像および隣接する画像を含む連続する画像を記憶する画像データ・バッファ(111)と、
    画像データ処理システム(110)と、
    を有し、前記画像データ処理システムは、
    前記画像データ・バッファに記憶された前記連続する画像間のカメラ・モーション・パラメータを決定するカメラ・モーション推定モジュール(112)と、
    前記カメラ・モーション・パラメータを用いてターゲット画像の水平ディスパリティ・マップを決定し、かつ前記ディスパリティ・マップの各ディスパリティ・ベクトルのディスパリティ確率値を決定するディスパリティ・マップ推定モジュール(115)と、
    ターゲット画像と現在のリファレンス画像とが立体画像対を構成するように、前記ディスパリティ確率値を用いて、前記現在のリファレンス画像中の画素値の重み付け平均としてターゲット画像を決定する画像レンダリング・モジュール(116)と、
    を有する前記システム。
  11. 前記画像データ処理システム(110)が、前記水平ディスパリティ・マップを決定するために前記ディスパリティ・マップ推定モジュールによって使用されるコスト関数を構築するコスト関数生成モジュール(113)を備えており、前記コスト関数は、前記水平ディスパリティ・マップの下で前記現在のリファレンス画像中の画素と前記隣接する画像中の画素とをマッチングするコストを決定する画素マッチング・コスト関数成分と、平滑な水平ディスパリティ・マップを得るために前記水平ディスパリティ・マップ中の近接する画素位置のディスパリティ値の類似性を考慮する平滑化コスト関数成分とを含む、請求項10に記載のシステム。
  12. 前記画像データ処理システムが、各画素のディスパリティ・ベクトルの値が、複数の離散値のうちの1つであることができる乱数値であるとみなされる、前記水平ディスパリティ・マップの確率モデルを決定する確率関数生成モジュール(113)を備え、
    前記ディスパリティ・マップ推定モジュール(115)は、確率的推論アルゴリズムを使用して、前記ディスパリティ・マップ中の各ディスパリティ・ベクトルについて最も確率の高いディスパリティ値を決定し、前記最も確率の高いディスパリティ値に関連する確率値を、所与の画素の重み値として適用する、請求項10に記載のシステム。
  13. 前記確率モデルはマルコフ確率場モデルである、請求項12に記載のシステム。
  14. 前記マルコフ確率場が第1及び第2のエネルギー関数によって規定され、前記第1のエネルギー関数がマッチング・コスト関数に対応し、前記第2のエネルギー関数が平滑化コスト関数に対応する、請求項13に記載のシステム。
  15. 前記確率的推論アルゴリズムは確率伝搬アルゴリズムである、請求項13に記載のシステム。
  16. 前記画像データ処理システムが、
    前記水平ディスパリティ・マップの下で前記現在のリファレンス画像中の画素を前記隣接する画像中の画素とマッチングするコストを決定する画素マッチング・コスト関数成分と、平滑な水平ディスパリティ・マップを得るために前記水平ディスパリティ・マップ中の近接する画素位置のディスパリティ値の類似性を考慮する平滑化コスト関数成分とを含むコスト関数を構築するコスト関数生成モジュール(113)と、
    各画素のディスパリティ・ベクトルの値が、複数の離散値のうちの1つであることができる乱数値であるとみなされる、前記水平ディスパリティ・マップの確率関数モデルを構築する確率関数生成モジュール(113)とを備え、
    前記確率関数モデルは、前記コスト関数の前記コスト関数成分を、前記確率モデルに関連付けられた対応するエネルギー関数に変換することによって構築される、請求項10に記載のシステム。
  17. 前記カメラ・モーション推定モジュール(112)は、前記カメラ・モーション・パラメータを用いて前記現在のリファレンス画像と前記隣接する画像との間の垂直カメラ・モーションの量を決定し、前記システムは、前記カメラ・モーション推定モジュールが前記垂直モーションの量が所定のしきい値未満であると判定した場合に、平面変換関数を計算し、該平面変換関数を用いて前記現在のリファレンス画像からターゲット画像を計算する平面変換生成モジュール(114)をさらに有する、請求項10に記載のシステム。
  18. 前記現在のリファレンス画像および前記隣接する画像がカノニカルなステレオ画像対となるように、前記現在のリファレンス画像および前記隣接する画像を修正および調整する画像修正および調整モジュール(112)をさらに備える、請求項10に記載のシステム。
JP2010544280A 2008-01-29 2008-01-29 2d画像データを立体画像データに変換する方法およびシステム Expired - Fee Related JP5561781B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/001151 WO2009096912A1 (en) 2008-01-29 2008-01-29 Method and system for converting 2d image data to stereoscopic image data

Publications (2)

Publication Number Publication Date
JP2011511532A true JP2011511532A (ja) 2011-04-07
JP5561781B2 JP5561781B2 (ja) 2014-07-30

Family

ID=39790350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010544280A Expired - Fee Related JP5561781B2 (ja) 2008-01-29 2008-01-29 2d画像データを立体画像データに変換する方法およびシステム

Country Status (7)

Country Link
US (1) US9137518B2 (ja)
EP (1) EP2235955A1 (ja)
JP (1) JP5561781B2 (ja)
KR (1) KR101419979B1 (ja)
CN (1) CN101933335B (ja)
BR (1) BRPI0822142A2 (ja)
WO (1) WO2009096912A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145554A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8471844B2 (en) * 2008-01-18 2013-06-25 Sony Corporation Streaming geometry for use in displaying and editing 3D imagery
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
US8345956B2 (en) * 2008-11-03 2013-01-01 Microsoft Corporation Converting 2D video into stereo video
CN101790103B (zh) 2009-01-22 2012-05-30 华为技术有限公司 一种视差计算方法及装置
US8395709B2 (en) * 2009-03-04 2013-03-12 ATI Technology ULC 3D video processing
EP2442561A4 (en) * 2009-06-08 2013-10-16 Lg Electronics Inc DEVICE AND METHOD FOR DISPLAYING A THREE-DIMENSIONAL PIP IMAGE
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
KR101347744B1 (ko) * 2009-08-19 2014-01-03 서울시립대학교 산학협력단 영상 처리 장치 및 방법
US20110080466A1 (en) * 2009-10-07 2011-04-07 Spatial View Inc. Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
WO2011105988A1 (en) * 2010-02-24 2011-09-01 Thomson Licensing Split screen for 3d
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
US10917624B2 (en) * 2010-06-02 2021-02-09 Maxell, Ltd. Reception device, display control method, transmission device, and transmission method for program content type
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
US20120188334A1 (en) * 2010-09-22 2012-07-26 Berfort Management Inc. Generating 3D stereoscopic content from monoscopic video content
KR101669840B1 (ko) * 2010-10-21 2016-10-28 삼성전자주식회사 다시점 비디오로부터 일관성 있는 변이를 추정하는 변이 추정 시스템 및 방법
US8824762B2 (en) * 2010-10-22 2014-09-02 The Johns Hopkins University Method and system for processing ultrasound data
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US9171372B2 (en) 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
US9123115B2 (en) 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow
JP5468526B2 (ja) * 2010-11-25 2014-04-09 株式会社東芝 画像処理装置及び画像処理方法
WO2012078124A1 (en) 2010-12-08 2012-06-14 Thomson Licensing Complexity estimation of a 2d/3d conversion
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
CN105894567B (zh) * 2011-01-07 2020-06-30 索尼互动娱乐美国有限责任公司 放缩三维场景中的用户控制的虚拟对象的像素深度值
US20130120528A1 (en) * 2011-01-09 2013-05-16 Thomson Licensing Video processing apparatus and method for detecting a temporal synchronization mismatch
US8823777B2 (en) * 2011-03-30 2014-09-02 Intel Corporation Real-time depth extraction using stereo correspondence
US8941717B2 (en) * 2011-04-08 2015-01-27 Tektronix, Inc. Semi-automatic 3D stereoscopic disparity cursor
CN102158725B (zh) * 2011-05-06 2013-04-10 深圳超多维光电子有限公司 一种生成立体图像的方法和系统
KR20130003135A (ko) * 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
US8786681B1 (en) * 2011-07-05 2014-07-22 Lucasfilm Entertainment Company, Ltd. Stereoscopic conversion
US9118902B1 (en) 2011-07-05 2015-08-25 Lucasfilm Entertainment Company Ltd. Stereoscopic conversion
JP5318168B2 (ja) * 2011-09-07 2013-10-16 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
KR101863626B1 (ko) * 2011-11-02 2018-07-06 삼성전자주식회사 영상 처리 장치 및 방법
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9661307B1 (en) * 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
CN102421003A (zh) * 2011-11-21 2012-04-18 宝利微电子系统控股公司 图像处理方法和装置
JP2013123153A (ja) * 2011-12-12 2013-06-20 Sony Corp 画像処理装置、その制御方法およびプログラム
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
EP2839639A4 (en) 2012-04-19 2016-01-06 Intel Corp THREE-DIMENSIONAL VIDEO CODING (3D) INCLUDING DEPARTIVITY VECTOR CALIBRATION BASED ON DEPTH
US9384581B2 (en) 2012-04-20 2016-07-05 Affirmation, Llc Systems and methods for real-time conversion of video into three-dimensions
WO2013170040A1 (en) * 2012-05-11 2013-11-14 Intel Corporation Systems and methods for row causal scan-order optimization stereo matching
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US9648347B1 (en) * 2012-06-14 2017-05-09 Pixelworks, Inc. Disparity postprocessing and interpolation for motion estimation and motion correction
CN102802006B (zh) * 2012-08-03 2014-08-06 梁智伟 数码照相机、层叠式相片印刷器和立体彩色图像制作系统
KR101429349B1 (ko) * 2012-09-18 2014-08-12 연세대학교 산학협력단 중간 시점 영상 합성 장치 및 방법과 이에 관한 기록매체
US8867826B2 (en) * 2012-11-26 2014-10-21 Mitusbishi Electric Research Laboratories, Inc. Disparity estimation for misaligned stereo image pairs
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
CN105191287B (zh) * 2013-03-08 2019-06-21 迪基特阿雷纳股份公司 替换视频流中的对象的方法及计算机程序
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
TWI538476B (zh) * 2014-03-24 2016-06-11 立普思股份有限公司 立體攝影系統及其方法
CA2848794C (en) * 2014-04-11 2016-05-24 Blackberry Limited Building a depth map using movement of one camera
KR102224716B1 (ko) 2014-05-13 2021-03-08 삼성전자주식회사 스테레오 소스 영상 보정 방법 및 장치
US9888229B2 (en) * 2014-06-23 2018-02-06 Ricoh Company, Ltd. Disparity estimation for multiview imaging systems
KR102214934B1 (ko) 2014-07-18 2021-02-10 삼성전자주식회사 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법
US9978135B2 (en) * 2015-02-27 2018-05-22 Cognex Corporation Detecting object presence on a target surface
US9779328B2 (en) * 2015-08-28 2017-10-03 Intel Corporation Range image generation
KR102101217B1 (ko) * 2015-08-31 2020-04-17 주식회사 실리콘아츠 헤드 마운트 디스플레이의 가상현실 생성방법 및 이를 수행하는 헤드 마운트 디스플레이
US9727775B2 (en) * 2015-12-01 2017-08-08 Intel Corporation Method and system of curved object recognition using image matching for image processing
US10121221B2 (en) * 2016-01-18 2018-11-06 Advanced Micro Devices, Inc. Method and apparatus to accelerate rendering of graphics images
FR3054347B1 (fr) * 2016-07-19 2019-08-23 Safran Procede et dispositif d'aide a la navigation d'un vehicule
WO2018211127A1 (en) * 2017-05-19 2018-11-22 Movidius Ltd. Methods, systems and apparatus to optimize pipeline execution
KR102455632B1 (ko) * 2017-09-14 2022-10-17 삼성전자주식회사 스테레오 매칭 방법 및 장치
US10839541B2 (en) * 2018-03-14 2020-11-17 Google Llc Hierarchical disparity hypothesis generation with slanted support windows
US20220058820A1 (en) * 2018-10-25 2022-02-24 Five Al Limited Stereo image processing
KR102116770B1 (ko) 2018-12-26 2020-05-29 한화글로벌에셋 주식회사 백색층용 조성물, 이를 이용한 백색 커버레이 필름, 및 그 제조 방법
US10956762B2 (en) 2019-03-29 2021-03-23 Advanced New Technologies Co., Ltd. Spoof detection via 3D reconstruction
CN110223219B (zh) * 2019-05-22 2023-04-28 北京卡路里信息技术有限公司 3d图像的生成方法及装置
WO2020237553A1 (zh) * 2019-05-30 2020-12-03 深圳市大疆创新科技有限公司 图像处理方法、系统及可移动平台
US10984270B2 (en) 2019-06-21 2021-04-20 Advanced New Technologies Co., Ltd. Spoof detection by estimating subject motion from captured image frames
AT524118B1 (de) * 2020-10-15 2022-03-15 Ait Austrian Inst Tech Gmbh Computer-implementiertes Verfahren zur Erstellung von mehrdimensionalen Gegenstands-Datenstrukturen
CN112203073B (zh) * 2020-12-07 2021-03-05 南京爱奇艺智能科技有限公司 一种适用于vr实时渲染应用的异步帧外插管线方法和系统
WO2023184527A1 (en) * 2022-04-02 2023-10-05 Covidien Lp System and method for unsupervised stereoscopic reconstruction with disparity consistency

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JPH1042314A (ja) * 1996-07-22 1998-02-13 Fuji Photo Film Co Ltd 視差画像入力装置
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法
WO2007084267A2 (en) * 2006-01-18 2007-07-26 Eastman Kodak Company A method for rectifying stereoscopic display systems
WO2007096816A2 (en) * 2006-02-27 2007-08-30 Koninklijke Philips Electronics N.V. Rendering an output image

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2700654B1 (fr) 1993-01-19 1995-02-17 Thomson Csf Procédé d'estimation de disparité entre les images monoscopiques constituant une image stéréoscopiques.
US6163337A (en) 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
KR100307883B1 (ko) 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
KR100603603B1 (ko) * 2004-12-07 2006-07-24 한국전자통신연구원 변위 후보 및 이중 경로 동적 프로그래밍을 이용한 스테레오 변위 결정 장치 및 그 방법
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
WO2007017834A2 (en) 2005-08-09 2007-02-15 Koninklijke Philips Electronics N.V. Disparity value generator
US7599547B2 (en) 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
KR100762670B1 (ko) 2006-06-07 2007-10-01 삼성전자주식회사 스테레오 이미지로부터 디스패리티 맵을 생성하는 방법 및장치와 그를 위한 스테레오 매칭 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JPH1042314A (ja) * 1996-07-22 1998-02-13 Fuji Photo Film Co Ltd 視差画像入力装置
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法
WO2007084267A2 (en) * 2006-01-18 2007-07-26 Eastman Kodak Company A method for rectifying stereoscopic display systems
WO2007096816A2 (en) * 2006-02-27 2007-08-30 Koninklijke Philips Electronics N.V. Rendering an output image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145554A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法
JPWO2013145554A1 (ja) * 2012-03-29 2015-12-10 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
US9495806B2 (en) 2012-03-29 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method

Also Published As

Publication number Publication date
CN101933335A (zh) 2010-12-29
JP5561781B2 (ja) 2014-07-30
US9137518B2 (en) 2015-09-15
KR101419979B1 (ko) 2014-07-16
KR20100119559A (ko) 2010-11-09
EP2235955A1 (en) 2010-10-06
CN101933335B (zh) 2012-09-05
WO2009096912A1 (en) 2009-08-06
BRPI0822142A2 (pt) 2015-06-30
US20110050853A1 (en) 2011-03-03

Similar Documents

Publication Publication Date Title
JP5561781B2 (ja) 2d画像データを立体画像データに変換する方法およびシステム
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
JP5160640B2 (ja) 画像のステレオ・マッチングのためのシステム及び方法
US8116557B2 (en) 3D image processing apparatus and method
CA2726208C (en) System and method for depth extraction of images with forward and backward depth prediction
CA2723627C (en) System and method for measuring potential eyestrain of stereoscopic motion pictures
EP2213102A1 (en) System and method for depth map extraction using region-based filtering
EP3001382B1 (en) Method and apparatus for generating disparity map based on image frames photographed by stereo camera
JP4892113B2 (ja) 画像処理方法及び装置
WO2008152607A1 (en) Method, apparatus, system and computer program product for depth-related information propagation
CN107845108B (zh) 一种光流值计算方法、装置及电子设备
JP5871113B2 (ja) 立体画像生成装置、立体画像生成方法及び立体画像生成プログラム
Berretty et al. Real-time embedded system for stereo video processing for multiview displays
KR20220071935A (ko) 광학 흐름을 이용한 고해상도 깊이 영상 추정 방법 및 장치
Kang et al. Generation of multi-view images using stereo and time-of-flight depth cameras
KR20140118091A (ko) 영상 제작 시스템 및 변위 맵 생성방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130131

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140605

R150 Certificate of patent or registration of utility model

Ref document number: 5561781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees