JP5160640B2 - 画像のステレオ・マッチングのためのシステム及び方法 - Google Patents

画像のステレオ・マッチングのためのシステム及び方法 Download PDF

Info

Publication number
JP5160640B2
JP5160640B2 JP2010513169A JP2010513169A JP5160640B2 JP 5160640 B2 JP5160640 B2 JP 5160640B2 JP 2010513169 A JP2010513169 A JP 2010513169A JP 2010513169 A JP2010513169 A JP 2010513169A JP 5160640 B2 JP5160640 B2 JP 5160640B2
Authority
JP
Japan
Prior art keywords
image
function
disparity
point
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010513169A
Other languages
English (en)
Other versions
JP2010531490A (ja
Inventor
ザン,ドン−チン
アイザット,アイザット
ベニテス,アナ,ベルン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010531490A publication Critical patent/JP2010531490A/ja
Application granted granted Critical
Publication of JP5160640B2 publication Critical patent/JP5160640B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models

Description

本開示は、概して、コンピュータグラフィックスの処理及び表示のためのシステムに関し、より具体的に、前処理ステップとして動的プログラミングを利用する大域的最適化関数を用いる、少なくとも2つの画像のステレオ・マッチングのためのシステム及び方法に関する。
立体画像化は、わずかに異なった視点から撮られた1シーンの少なくとも2つの画像を視覚的に結合して、3次元(3D)奥行きのイリュージョンを生成する処理である。この技術は、ヒトの目がいくらか離れて位置することで同じシーンを正確に見ていないという事実に依存する。夫々の目に異なる遠近感からの画像を提供することによって、見ている者の目はだまされて奥行きを認知させられる。通常、2つの相異なる遠近感が与えられる場合に、成分画像は「左」画像及び「右」画像と呼ばれ、また、夫々、基準画像及び捕捉画像として知られる。なお、当業者に明らかなように、2よりも多い画像が立体画像を形成するために結合されてよい。
3Dポストプロダクション(post-production)、視覚効果(VFX)ワークフロー及び3D表示アプリケーションにおいて、重要な処理は、左眼ビュー画像及び右眼ビュー画像から成る立体画像から奥行きマップを推測することである。例えば、最近商品化された自動立体3Dディスプレイはイメージプラス奥行きマップ(image-plus-depth-map)入力フォーマットを必要とし、これより、ディスプレイは、多数の視角をサポートするよう異なった3Dビューを生成することができる。
立体画像対から奥行きマップを推測する処理は、ピクセル又はブロックマッチングが左眼ビュー画像及び右眼ビュー画像で対応する点を見つけるために使用されるので、コンピュータビジョンリサーチの分野ではステレオ・マッチング(stereo matching)と呼ばれている。奥行き値は、シーン内の同じ点に対応する各画像内の2つの点の間の相対距離から推測される。
デジタル画像のステレオ・マッチングは、3D奥行き情報を提供するために多くのコンピュータビジョン応用(例えば、コンピュータ支援製図(CAD)のための高速オブジェクトモデリング及びプロトタイピング、人とコンピュータとの相互作用(HCI)のためのオブジェクト分割及び検出、映像圧縮、並びにビジュアル・サーベイランス(visual surveillance))で幅広く使用されている。ステレオ・マッチングは、シーン内の異なる場所及び方向に位置する2又はそれ以上のカメラから、そのシーンの画像を取得する。これらのデジタル画像は、おおよそ同時に夫々のカメラから取得され、画像の夫々における点は、空間内の3D点に対応して適合される。一般に、異なる画像からの点は、それらの画像の一部分を検索し、1つの画像内の点を他の画像内の点に相互に関連付ける制約(例えば、エピポーラ制約)を用いることによって、適合される。
ステレオ・マッチングには多くの従前の取り組みが存在する。ステレオ・マッチングアルゴリズムは、2つのカテゴリ、すなわち、1)局所的最適化によるマッチング及び2)大域的最適化によるマッチングに分類され得る。局所的最適化アルゴリズムは、ピクセル強度差しか考慮せず、ピクセル奥行き値の空間平滑性を無視する。結果として、奥行き値はしばしば平面領域で不正確であり、不連続性アーティファクト(例えば、穴)がしばしば見られる。大域的最適化アルゴリズムは、奥行きマップの空間平滑性及びピクセル強度差の両方に基づいて最適な奥行きマップを見つける。このように、大域的最適化アルゴリズムは、実質的に、結果として得られる奥行きマップの正確性及び見た目を改善する。
大域的最適化の主な制限は計算速度の遅さである。大域的最適化方法のカテゴリにおいて、動的プログラミングは、水平平滑化しか行われないので、他のより高度なアルゴリズム(例えば、確率伝播(belief propagation)及びグラフカッツ(graph-cuts)等)より比較的高速なアプローチである。しかし、動的プログラミングは、しばしば、結果として得られる奥行きマップに垂直方向の不連続性を引き起こし、走査ラインアーティファクトを生じさせる(走査ラインアーティファクトに○印(図中、中央付近及び左下隅)が付けられている図5Bを参照。)。確率伝播は、より進歩した最適化技術であり、水平及び垂直の両方向に沿って平滑化を行う。しかし、それは、動的プログラミング方法より著しく多い計算能力を費やす。
従って、不連続性アーティファクトを最小限とする高速且つ効率的な大域的最適化ステレオ・マッチング方法のための技術が必要とされている。
前処理ステップとして動的プログラミングを用いる大域的最適化関数(例えば、確率伝播関数)を用いる、少なくとも2つの画像(例えば、立体画像対)のステレオ・マッチングのためのシステム及び方法が提供される。本開示のシステム及び方法は、シーンから第1及び第2の画像を取得し、第1画像内の少なくとも1つの点と第2画像内の少なくとも1つの対応する点との視差を推定し、この推定した視差を確率伝播関数(例えば、大域的最適化関数)により最小化する(410)ことを提供する。確率伝播関数は、その確率伝播関数を高速化するよう、第1及び第2の画像に適用される決定論的マッチング関数(deterministic matching function)(例えば、動的プログラミング)の結果により初期化される。システム及び方法は、更に、第1画像内の少なくとも1つの点の夫々についての第2画像内の少なくとも1つの対応する点との推定した視差から視差マップを生成し、その視差値を反転させることによって視差マップを奥行きマップに変換する。次いで、奥行きマップは、3D再生のために立体画像対とともに利用され得る。
本開示の態様に従って、少なくとも2つの画像のステレオ・マッチングを行う方法であって、シーンから第1画像及び第2画像を取得するステップと、前記第1画像内の少なくとも1つの点と前記第2画像内の少なくとも1つの対応する点との視差を推定するステップと、推定された前記視差を確率伝播関数により最小化するステップとを有し、前記確率伝播関数は、前記第1画像及び前記第2画像に適用される決定論的マッチング関数の結果により初期化される方法が提供される。前記第1画像及び前記第2画像は、立体対の左眼ビュー及び右眼ビューを有する。
一態様で、前記決定論的マッチング関数は動的プログラミング関数である。
他の態様で、前記最小化するステップは、更に、前記決定論的結果を、前記確率伝播関数によって使用されるメッセージ関数に変換するステップを有する。
更なる態様で、当該方法は、前記第1画像内の前記少なくとも1つの点の夫々についての前記第2画像内の前記対応する少なくとも1つの点との前記推定された視差から視差マップを生成するステップを更に有する。
更なる他の態様で、当該方法は、前記視差マップの前記少なくとも1つの点の夫々についての前記推定された視差を反転させることによって、前記視差マップを奥行きマップに変換するステップを更に有する。
更なる態様で、前記視差を推定するステップは、ピクセルマッチングコスト関数及び平滑化コスト関数を計算するステップを有する。
他の態様で、当該方法は、前記第1画像及び前記第2画像の夫々のエピポーラ線を前記第1画像及び前記第2画像の水平走査線に整列させるよう前記第1画像及び前記第2画像のうち少なくとも一方を調整するステップを更に有する。
本開示の他の態様に従って、少なくとも2つの画像のステレオ・マッチングを行うシステムが提供される。当該システムは、シーンから第1画像及び第2画像を取得する手段と、前記第1画像内の少なくとも1つの点と前記第2画像内の少なくとも1つの対応する点との視差を推定し、推定された前記視差を確率伝播関数により最小化するよう構成される視差推定器とを有し、前記確率伝播関数は、前記第1画像及び前記第2画像に適用される決定論的マッチング関数の結果により初期化される。
本発明の更なる態様に従って、少なくとも2つの画像のステレオ・マッチングを行う方法を実行するよう機械によって実行可能な命令のプログラムを実体的に具現する、前記機械によって読取可能なプログラム記憶装置であって、前記方法は、シーンから第1画像及び第2画像を取得するステップと、前記第1画像内の少なくとも1つの点と前記第2画像内の少なくとも1つの対応する点との視差を推定するステップと、推定された前記視差を確率伝播関数により最小化するステップとを有し、前記確率伝播関数は、前記第1画像及び前記第2画像に適用される決定論的マッチング関数の結果により初期化されるプログラム記憶装置が提供される。
本開示の態様に従う少なくとも2つの画像のステレオ・マッチングのためのシステムの例示である。 本開示の態様に従う少なくとも2つの画像のステレオ・マッチングのための例となる方法のフロー図である。 シーン内の関心がある点についての2つの画像の間のエピポーラ幾何を表す。 本開示の態様に従う少なくとも2つの画像の視差を推定する例となる方法のフロー図である。 本開示の方法に従って処理される左眼ビュー入力画像及び右眼ビュー入力画像を表す。 従来の動的プログラミングによって処理された結果得られる奥行きマップである。 本開示の確率伝播方法によって処理された結果得られる奥行きである。 動的プログラミングによって初期化された確率伝播を含む本開示の方法と比較される自明な初期化による従来の確率伝播アプローチの比較を示す。
本開示の上記の及び他の態様、特徴及び利点は、添付の図面に関連して読まれるべき好ましい実施形態に関する以下の詳細な記載に記載され、又はそれらから明らかになるであろう。
図面中、同じ参照番号は全図を通して同じ要素を表す。
当然、図面は本開示の概念を説明するためのものであり、必ずしも本開示を説明するための唯一取り得る構造ではない。
当然、図中に示されている要素は、ハードウェア、ソフトウェア又はそれらの組合せの様々な形で実施されてよい。望ましくは、これらの要素は、プロセッサ、メモリ及び入出力インターフェースを含む1又はそれ以上の適切にプログラムされている汎用の装置においてハードウェア及びソフトウェアの組合せで実施される。
本明細書は、本開示の原理を説明するものである。よって、明らかなように、当業者は、ここに明示的に記載又は図示をされていなくとも、本開示の原理を具体化し且つその精神及び適用範囲に包含される様々な配置を発明可能である。
ここに挙げられている全ての例及び条件付きの用語は、当該技術の促進に本発明者が寄与する概念及び本開示の原理を当業者が理解する助けとなる教育上の目的を対象とし、このような具体的に挙げられている例及び条件への限定はないものとして解されるべきである。
更に、本開示の原理、態様及び実施形態、並びにそれらの具体例を挙げる本明細書中の全ての記述は、その構造上及び機能上等価なものを包含するよう意図される。更に、このような等価ものは、現在知られている等価なものと、将来的に開発される等価なもの、すなわち、構造とは無関係に同じ機能を実行する開発されたあらゆる要素とを両方含むことが意図される。
このように、例えば、当業者には明らかなように、ここで提示されるブロック図は本開示の原理を具現する例となる回路の概念図を表す。同様に、当然、あらゆるフローチャート、フロー図、状態遷移図、擬似コード、及びその他は、実質上コンピュータ読出可能な媒体で表現されるとともに、コンピュータ又はプロセッサによって(このようなコンピュータ又はプロセッサが明示されていようとなかろうと)そのように実行され得る様々な処理を表す。
図中に示される様々な要素の機能は、適切なソフトウェアと関連してソフトウェアを実行可能なハードウェアのみならず専用のハードウェアの使用を通して提供されてよい。プロセッサによって提供される場合は、機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、又は複数の個別のプロセッサによって提供されてよい。複数の個別のプロセッサのうち幾つかは共有されてよい。更に、用語「プロセッサ」又は「コントローラ」の明示的な使用は、排他的にソフトウェアを実行可能なハードウェアをいうと解されるべきではなく、限定することなく、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを記憶する読出専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、及び不揮発性記憶装置を暗に含みうる。
従来及び/又はカスタムの他のハードウェアも含まれてよい。同様に、図中に示される如何なるスイッチも概念でしかない。それらの機能は、プログラムロジックの動作を通して、専用のロジックを通して、プログラム制御及び専用ロジックの相互作用を通して、又は手動で実行されてよい。特定の技術が、文脈からより具体的に理解されるように実施者により選択可能である。
特許請求の範囲で、特定の機能を実行する手段として表される如何なる要素も、例えば、a)その機能を実行する回路素子の組合せ、又はb)あらゆる形態をとる、従って、機能を実行するようソフトウェアを実行するための適切な回路と組み合わされるファームウェア、マイクロコード若しくはその他を含むソフトウェアを含め、その機能を実行するあらゆる方法を包含するよう意図される。特許請求の範囲で定義される開示は、挙げられている様々な手段によって提供される機能性が、特許請求の範囲が求めるように組み合わされてまとめられるという事実に存する。このように、それらの機能性を提供可能なあらゆる手段がここに示されるものと等価であるとみなされる。
ステレオ・マッチングは、立体画像、例えば、左眼ビュー画像及び右眼ビュー画像から奥行きマップを推測するための標準的な方法である。従来の自動立体ディスプレイでの3D再生は、奥行きマップの平滑さが結果として得られる3D再生の見かけに有意に影響を及ぼすことを示してきた。滑らかでない奥行きマップでは、しばしば、3D再生においてエッジがジグザグ状となる。これは、視覚的に、それほど正確でない奥行き値を有する滑らかな奥行きマップよりも悪い。従って、奥行きマップの平滑さ(smoothness)は、3D表示及び再生アプリケーションにとって奥行き精度よりも重要である。更に、大域的最適化に基づくアプローチが3D表示アプリケーションでの奥行き推定に必要である。本開示は、確率伝播アルゴリズム又は関数(例えば、大域的最適化関数)に基づく画像のステレオ・マッチングのためのスピードアップスキームを提示する。これは、水平及び垂直の両方向に沿って平滑さを強化する。なお、確率伝播アルゴリズム又は関数は、処理ステップとして他の低コストのアルゴリズム又は関数の中から動的プログラミングを使用する。
処理ステップとして動的プログラミングを利用する大域的最適化関数(例えば、確率伝播アルゴリズム又は関数)を用いる、少なくとも2つの画像(例えば、立体画像対)のステレオ・マッチングのためのシステム及び方法が提供される。本開示のシステム及び方法は、シーンから第1画像及び第2画像を取得し、第1の画像内の少なくとも1つの点と第2画像内の少なくとも1つの対応する点との視差を推定し、その推定した視差を確率伝播関数(例えば、大域的最適化関数)により最小化することを提供する。確率伝播関数は、確率伝播関数を高速化するよう第1及び第2の画像に適用される決定論的マッチング関数の結果により初期化される。システム及び方法は、更に、第1画像内の少なくとも1つの点の夫々についての第2画像内の少なくとも1つの対応する点との推定された視差から視差マップを生成し、その視差マップを、視差マップの視差値を反転させることで奥行きマップに変換する。次いで、奥行きマップ又は視差マップは、3D再生のために立体画像対と共に利用され得る。
以下、図を参照する。本開示の実施形態に従う例となるシステム構成要素が図1に示される。走査装置103は、フィルムプリント104(例えば、カメラによるネガフィルム)をデジタルフォーマット(例えば、シネオン(Cineon)フォーマット又は映画テレビ技術者協会(SMPTE(Society of Motion Picture and Television Engineers))デジタルピクチャ交換(DPX(Digital Picture Exchange))ファイル)へと走査するために設けられている。走査装置103は、例えば、フィルムからビデオ出力を生成するテレシネ又はあらゆる装置(例えば、ビデオ出力を備えるArri LocPro等)を有してよい。代替的に、ポストプロダクション処理からのファイル、すなわち、デジタルシネマ106(例えば、既にコンピュータ読出可能な形式のファイル)が直接に使用されてよい。コンピュータ読出可能なファイルの潜在的な発生源はAVIDエディタ、DPXファイル、D5テープ等である。
走査されたフィルムプリントは後処理装置102(例えば、コンピュータ)に入力される。コンピュータは、例えば、1又はそれ以上の中央処理ユニット(CPU)、メモリ110(例えば、ランダムアクセスメモリ(RAM)及び/又は読出専用メモリ(ROM))及び入出力(I/O)インターフェース112(例えば、キーボード、カーソル制御装置(例えば、マウス若しくはジョイスティック)及びディスプレイ装置)等のハードウェアを有する既知の様々なコンピュータプラットフォームのいずれかに実装される。コンピュータプラットフォームは、また、オペレーティングシステム及びマイクロ命令コードを有する。ここに記載される様々な処理及び機能は、オペレーティングシステムを介して実行されるマイクロ命令コードの一部又はソフトウェアアプリケーションプログラムの一部(あるいは、それらの組合せ)のいずれかであってよい。一実施例で、ソフトウェアアプリケーションプログラムは、プログラム記憶装置で実体的に具現され、後処理装置102のような何らかの適切な機械にアップロードされて、その機械によって実行されてよい。更に、様々な他の周辺装置が、様々なインターフェース及びバス構造(例えば、パラレルポート、シリアルポート又はユニバーサルシリアルバス(USB)等)によってコンピュータプラットフォームに接続されてよい。他の周辺装置は、更なる記憶装置124及びプリンタ128を含んでよい。プリンタ128は、改訂版のフィルム126(例えば、立体バージョンのフィルム)を印刷するために用いられてよい。1又は複数のシーンが、後述される技術の結果としての3Dモデル化されたオブジェクトを用いて変更又は置換されてよい。
代替的に、予めコンピュータ読出可能な形態にあるファイル/フィルムプリント106(例えば、デジタルシネマ(例えば、これは外部のハードドライブ124に記憶されていてよい。))は、直接的にコンピュータ102に入力されてよい。留意すべきは、ここで使用される用語「フィルム」は、フィルムプリント又はデジタルシネマのいずれかをいう。
ソフトウェアプログラムは、第1画像内の少なくとも1つの点を第2画像内の少なくとも1つの対応する点と整合させるための、メモリ110に記憶されるステレオ・マッチングモジュール114を有する。ステレオ・マッチングモジュール114は、更に、立体画像対のエピポーラ線が厳密に画像の水平走査ラインであるようにそのエピポーラ線を調整するよう構成されている画像ワーパー(warper)116を有する。
ステレオ・マッチングモジュール114は、更に、第1画像内の少なくとも1つの点と第2画像内の少なくとも1つの対応する点との視差を推定するとともに、第1画像内の少なくとも1つの点の夫々についての第2画像内の少なくとも1つの対応する点との推定視差から視差マップを生成するよう構成される視差推定器118を有する。視差推定器118は、第1及び第2の画像においてピクセルを整合させるよう構成されるピクセルマッチングコスト関数132と、平滑化制約(smoothness constraint)を視差推定に適用する平滑化コスト関数134とを有する。視差推定器118は、更に、推定された視差を最小化する確率伝播アルゴリズム又は関数136と、第1及び第2の画像に適用される決定論的マッチング関数の結果により確率伝播関数136を初期化して確率伝播関数136を高速化する動的プログラミングアルゴリズム又は関数138とを有する。
ステレオ・マッチングモジュール114は、更に、視差マップの視差値を反転させることによって視差マップを奥行きマップに変換する奥行きマップ生成器120を有する。
図2は、本開示の態様に従う少なくとも2つの2次元(2D)画像のステレオ・マッチングのための例となる方法のフロー図である。最初に、後処理装置102は、ステップ202で、少なくとも2つの2D画像(例えば、左眼ビュー及び右眼ビューを有する立体画像対)を取得する。後処理装置102は、コンピュータ読出可能なフォーマットでデジタルマスタ画像ファイルを取得することによって少なくとも2つの2D画像を取得してよい。デジタルビデオファイルは、デジタルカメラにより動画像の時間シーケンスを捕らえることによって取得されてよい。代替的に、ビデオシーケンスは、従来のフィルムタイプのカメラによって捕らえられてもよい。この場合に、フィルムは走査装置103を介して走査される。
当然に、フィルムが走査されるのか又は既にデジタルフォーマットであるのかに関わらず、フィルムのデジタルファイルはフレームの指示又は場所に関する情報(例えば、フレーム番号、フィルム開始からの時間、等)を有しうる。デジタル画像ファイルの各フレームは、例えば、I,I,・・・Iといった1つの画像を有しうる。
立体画像は、同じ設定を有する2つのカメラによって撮影され得る。いずれのカメラも、同じ焦点距離及び焦点高さ並びに平行な焦点面を有するよう較正される。あるいは、画像は、ステップ204で、あたかもそれらが平行な焦点面を有するカメラによって撮影されたかのように、既知のカメラパラメータに基づいてワーピングを行われる必要がある。このワーピング処理は、ステップ206でのカメラ較正と、ステップ208でのカメラ調整とを含む。較正及び調整処理は、立体画像のエピポーラ線が厳密に画像の水平走査ラインであるようにそのエピポーラ線を調整する。図3を参照すると、O及びOは2つのカメラの焦点を表し、Pは両方のカメラでの関心点を表し、p及びpは、点Pが画像面上に投影されている場所を表す。各焦点面上の交点はエピポール(epipole)と呼ばれる(E及びEによって表される。)。右のエピポーラ線(例えば、E−p)は、左画像上の点及び焦点中心を接続する光線の右画像上での投影であり、従って、左画像のピクセルに対する右画像の対応する点は、左のエピポーラ線(例えば、EL−pL)についてと同じく、右画像上のエピポーラ線に配置されるべきである。対応する点はエピポーラ線に沿って見つけられるので、調整処理は、対応検索(correspondence search)を走査線沿いのみの検索に簡単化する。このことは大いに計算コストを削減する。対応する点は、同じシーン点に対応する画像内のピクセルである。
次に、ステップ210で、視差マップはシーン内のあらゆる点について推定される。全てのシーン点についての視差は、左眼画像及び右眼画像における一致点の相対距離として計算される。例えば、左眼画像内の点の水平座標がxであって、右眼画像内のその対応する点の水平座標がx’である場合は、視差d=x’−xである。次いで、ステップ212で、シーン点についての視差値dは、次の式、すなわち、z=Bf/dを用いて、シーン点からカメラまでの距離である奥行き値zに変換される。なお、Bは2つのカメラの間の距離であって、基線とも呼ばれ、fはカメラの焦点距離である。これらの詳細について以下に記す。
図4を参照すると、本開示に従う、ステップ210として上記で特定された視差推定方法が与えられている。最初に、立体対の画像がステップ402で取得される。視差コスト関数は、ステップ404でのピクセルコスト関数の計算と、ステップ406での平滑化コスト関数の計算とを有して計算される。低コストのステレオ・マッチング最適化(例えば、動的プログラミング)は、ステップ408で、2つの画像のステレオ・マッチングの最初の決定論的結果を得るよう実行される。次いで、低コストの最適化の結果は、ステップ410で、視差コスト関数を最小化するために確率伝播関数を高速化するよう、確率伝播関数を初期化するために使用される。
図4に示される視差推定及びその説明についてより詳細に記載する。視差推定は前述のワークフローの中で重要なステップである。問題は、左眼画像及び右眼画像でピクセルを整合させること、すなわち、同じシーン点に対応する左右の画像内のピクセルを見つけることから成る。視差マップが平滑であると考えることにより、ステレオ・マッチングの問題は、下記のように数学的に公式化され得る:
C(d(.))=Cp(d(.))+λCs(d(.)) (1)
ここで、d(.)は視差フィールドであり、d(x,y)は座標(x,y)を有する左眼画像内の点についての視差値を与え、Cは全体のコスト関数であり、Cpはピクセルマッチングコスト関数であり、Csは平滑化コスト関数である。平滑化コスト関数は、視差マップの平滑さを強化するために用いられる関数である。最適化処理の間、前述のコスト関数は、全ての視差フィールドに対して最小化される。局所的最適化のために、平滑項Csは切り捨てられる。従って、平滑さは、最適化処理の間は考慮されない。Cpは、とりわけ、ピクセル強度の平均二乗差として、モデル化され得る:
Cp(d(.))=Σx,y[I(x,y)-I’(x-d(x,y),y)]2 (2)
平滑化制約は、垂直方向の滑らかさが強化されるか否かに依存して別なふうに書かれてよい。水平及び垂直の両方の平滑化制約が強化される場合は、平滑化コスト関数は下記の平均二乗誤差関数としてモデル化され得る:
Cs(d(.))=Σx,y[d(x,y)-d(x+1,y)]2+[d(x,y)-d(x,y+1)]2 (3)
動的プログラミングの場合には、水平方向の滑らかさのみが強化され、従って、平滑化コスト関数は下記のようにモデル化される:
Cs(d(.))=Σx,y[[d(x,y)-d(x+1,y)]2 (4)
この簡単化により、動的プログラミングは、画像面全体にわたって(特に垂直方向に)奥行きマップを最適化する必要がないので、一度に1つの走査ラインについて奥行きマップを推測するためにしか使用され得ない。
前述のコスト関数公式は、下記のような等価な確率公式に変換され得る:
logp(d(.))=Σ(i)logφi(di)+Σ(ij)logψij(di,dj)-logZ (5)
ここで、i及びjは、画像内の1つの点を特定する単一指標である。例えば、画像がサイズ320×240を有する場合は、i=0は(0,0)でのピクセルを表し、i=321は(1,1)でのピクセルを表し、他も同様である。式(1)、(2)及び(3)を比較すると、全体コスト関数C=logp(d(.))、ピクセルマッチングコスト関数Cp(i)logφi(di)、平滑化コスト関数Cs=Σ(ij)logψij(di,dj)、及び
φi(di)=exp((I(x,y)-I’(x-d(x,y))2)、
ψij(di,dj)=exp([d(x,y)-d(x±1,y)]2+[d(x,y)-d(x,y±1)]2)
が得られる。ここで、±は、符号が近傍のピクセルに依存するので用いられる。ピクセルi及びjは隣接するピクセルである。logZは奥行きマップに対する定数であり、式(5)及び式(1)の等価に影響を及ぼさない。このように、式(1)の最小化は式(5)の最大化に等しい。式(5)は、また、マルコフランダムフィールド式とも呼ばれる。ここで、φi及びψijはマルコフランダムフィールドのポテンシャル関数である。式(5)を解くことは、式(5)を最大化することによって、又は視差の近似確率(approximated probability)を計算することによって実現され得る。近似確率を計算することによって、近似確率b(d=w)が計算される。これは、実際の確率p(d=w)を近似する。点iの視差の確率はwの値をとる。wは1からMの整数である。なお、Mは最大視差値である。次いで、ピクセルiの視差値は、最大値b(d=w)に達するwの値である。
確率伝播(BP)は、メッセージパッシング(message passing)と呼ばれる逐次法を用いることによって近似確率b(d=w)[すなわち、b(d=w)は、ピクセルiがwに等しい確率である。]を計算する。夫々の逐次代入(iteration)で、メッセージは次の式によって更新される:
mij(dj)←Σφi(diij(di,djk∈N(i)\jmki(di) (6)
ここで、mij(dj)は、iからjへ伝わるメッセージと呼ばれる。一般に、メッセージは、自明に、1に初期化される。様々な問題に依存して、メッセージパッシングは収束するよう1から数百の逐次代入をとることができる。前述のメッセージ収束の後、近似確率は次の式によって計算される:
bi=kφi(dik∈N(i)mji(di) (7)
なお、kは正規化定数である。
確率伝播アルゴリズム又は関数を高速化するための多数の方法がある。1つの方法は、当該技術で知られているように、マルチスケールスキームを用いてコース・ツー・ファイン(coarse-to-fine)法でメッセージを精緻化することである。確率伝播アルゴリズムを高速化するための本開示の方法は、確率伝播アルゴリズムの変換に必要とされる逐次代入の回数を減らすことである。これは、動的プログラミング又は他の局所的最適化法のような低コストのアルゴリズムによるステレオ・マッチング結果を用いて確率伝播メッセージを初期化することによって達成される。低コストのアルゴリズムは確率伝播アルゴリズムのメッセージ関数よりむしろマッチング処理での決定論的結果しか与えないので、ステレオ・マッチング結果はメッセージ関数に逆変換される。式(6)で見られるような関係を用いると、
bi(di)=kφi(dik∈N(i)mji(di) (8)
であり、画像は2Dグリッドであるから、4−近傍システムが使用され、その場合に、いずれかのピクセルの近傍ピクセルは4である。各ノードに関連するメッセージが同じであるとすると、逆変換は次の通りである:
mji(di)=(b(di)/φi(di))1/4 (9)
低コストのアルゴリズムの結果は決定論的である。近似確率b(xi)が計算される必要があるので、決定論的マッチング結果は、近似視差確率bi(xi)に変換される必要がある。変換のための下記の近似式が使用される:
=wの場合に、bi(di=w)=0.9
≠wの場合に、bi(di=w)=0.1 (10)
wは0から最大視差値M(例えば、20)の範囲に及ぶ整数であり、dは動的プログラミングアルゴリズムから出力されるピクセルiの視差値である。その場合に、dは式(10)、次いで、式(9)を計算するために用いられ、結果として得られるメッセージは、式(6)を初期化するために用いられる。
図2を再び参照すると、ステップ212で、各シーン点の視差値dは、次の式、すなわち、z=Bf/dを用いて、シーン点からカメラまでの距離である奥行き値zに変換される。ここで、Bは2つのカメラの間の距離であって、基線とも呼ばれ、fはカメラの焦点距離である。夫々の少なくとも1つの画像(例えば、左眼ビュー画像)についての奥行き値は奥行きマップに記憶される。対応する画像及び関連する奥行きマップは、例えば、記憶装置124に記憶されており、3D再生のために取り出されてよい(ステップ214)。更に、動画又はビデオクリップの全画像は、その動画又はクリップの立体画像を表す単一のデジタルファイル130に、関連する奥行きマップとともに記憶され得る。デジタルファイル130は、後の取り出しのために、例えば、元のフィルムの立体画像を印刷するために、記憶装置124に記憶されてよい。
本開示の初期化スキームは、左眼ビュー画像及び右眼ビュー画像を有して図5Aに示される幾つかのベンチマーク画像を用いて試験されている。図5B及び図5Cは、動的プログラミングによって初期化される確率伝播を含む本開示の方法と従来の動的プログラミングアプローチとの比較を示す。動的プログラミングアプローチは、図5Bに示されるように、可視的な走査ラインアーティファクトを生ずる。図5Cに示される画像と同様の結果を得るために、従来の動的プログラミングアプローチは約80〜100の逐次代入を必要とする。
図5Dは、動的プログラミングによって初期化される確率伝播を含む本開示の方法と比較される、自明な初期化を伴う従来の確率伝播アプローチの比較である。図5Dは、20回の逐次代入によって、本開示の方法が、従来の確率伝播アプローチより著しく良い奥行きマップをもたらすことを表す。
本開示の教示を組み込む実施形態がここで詳細に図示及び記載をされてきたが、当業者は容易に、やはりこれらの教示を組み込む多数の他の様々な実施形態を発明することができる。少なくとも2つの画像のステレオ・マッチングのためのシステム及び方法に係る好ましい実施形態(例示であって、限定ではない。)が記載されているが、改良及び変形が上記の教示を考慮して当業者によって行われ得ることが知られる。従って、当然、開示されている具体的な実施形態に対して変更が行われてよく、斯かる変更は添付の特許請求の範囲によって定められる本開示の適用範囲内にある。

Claims (18)

  1. 少なくとも2つの画像のステレオ・マッチングを行う方法であって、
    シーンから第1画像及び第2画像を取得するステップと、
    前記第1画像内の少なくとも1つの点と前記第2画像内の少なくとも1つの対応する点との視差を推定するステップと、
    推定された前記視差を確率伝播関数により最小化するステップと
    を有し、
    前記確率伝播関数は、前記第1画像及び前記第2画像に適用される決定論的マッチング関数の結果により初期化され
    前記最小化するステップは、更に、前記決定論的結果を、前記確率伝播関数によって使用されるメッセージ関数に変換するステップを有する、方法。
  2. 前記決定論的マッチング関数は動的プログラミング関数である、請求項1記載の方法。
  3. 前記第1画像内の前記少なくとも1つの点の夫々についての前記第2画像内の前記対応する少なくとも1つの点との前記推定された視差から視差マップを生成するステップを更に有する、請求項1記載の方法。
  4. 前記視差マップの前記少なくとも1つの点の夫々についての前記推定された視差を反転させることによって、前記視差マップを奥行きマップに変換するステップを更に有する、請求項記載の方法。
  5. 前記第1画像及び前記第2画像は、立体対の左眼ビュー及び右眼ビューを有する、請求項1記載の方法。
  6. 前記視差を推定するステップは、ピクセルマッチングコスト関数を計算するステップを有する、請求項1記載の方法。
  7. 前記視差を推定するステップは、平滑化コスト関数を計算するステップを有する、請求項1記載の方法。
  8. 前記第1画像及び前記第2画像の夫々のエピポーラ線を前記第1画像及び前記第2画像の水平走査線に整列させるよう前記第1画像及び前記第2画像のうち少なくとも一方を調整するステップを更に有する、請求項1記載の方法。
  9. 少なくとも2つの画像のステレオ・マッチングを行うシステムであって、
    シーンから第1画像及び第2画像を取得する手段と、
    前記第1画像内の少なくとも1つの点と前記第2画像内の少なくとも1つの対応する点との視差を推定し、推定された前記視差を確率伝播関数により最小化するよう構成される視差推定器と
    を有し、
    前記確率伝播関数は、前記第1画像及び前記第2画像に適用される決定論的マッチング関数の結果により初期化され
    前記視差推定器は、更に、前記決定論的結果を、前記確率伝播関数によって使用されるメッセージ関数に変換するよう構成される、システム。
  10. 前記決定論的マッチング関数は動的プログラミング関数である、請求項記載のシステム。
  11. 前記視差推定器は、更に、前記第1画像内の前記少なくとも1つの点の夫々についての前記第2画像内の前記対応する少なくとも1つの点との前記推定された視差から視差マップを生成するよう構成される、請求項記載のシステム。
  12. 前記視差マップの前記少なくとも1つの点の夫々についての前記推定された視差を反転させることによって、前記視差マップを奥行きマップに変換する奥行きマップ生成器を更に有する、請求項11記載のシステム。
  13. 前記第1画像及び前記第2画像は、立体対の左眼ビュー及び右眼ビューを有する、請求項記載のシステム。
  14. 前記視差推定器は、ピクセルマッチングコスト関数を計算するステップを有する、請求項記載のシステム。
  15. 前記視差推定器は、平滑化コスト関数を計算するステップを有する、請求項記載のシステム。
  16. 前記第1画像及び前記第2画像の夫々のエピポーラ線を前記第1画像及び前記第2画像の水平走査線に整列させるよう前記第1画像及び前記第2画像のうち少なくとも一方を調整するよう構成される画像ワーパーを更に有する、請求項記載のシステム。
  17. 機械に少なくとも2つの画像のステレオ・マッチングを行う方法を実行させるプログラムを記憶する、前記機械によって読取可能なプログラム記憶装置であって、
    前記方法は、
    シーンから第1画像及び第2画像を取得するステップと、
    前記第1画像内の少なくとも1つの点と前記第2画像内の少なくとも1つの対応する点との視差を推定するステップと、
    推定された前記視差を確率伝播関数により最小化するステップと
    を有し、
    前記確率伝播関数は、前記第1画像及び前記第2画像に適用される決定論的マッチング関数の結果により初期化され
    前記最小化するステップは、更に、前記決定論的結果を、前記確率伝播関数によって使用されるメッセージ関数に変換するステップを有する、プログラム記憶装置。
  18. 前記決定論的マッチング関数は動的プログラミング関数である、請求項17記載のプログラム記憶装置。
JP2010513169A 2007-06-20 2007-06-20 画像のステレオ・マッチングのためのシステム及び方法 Expired - Fee Related JP5160640B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2007/014376 WO2008156450A1 (en) 2007-06-20 2007-06-20 System and method for stereo matching of images

Publications (2)

Publication Number Publication Date
JP2010531490A JP2010531490A (ja) 2010-09-24
JP5160640B2 true JP5160640B2 (ja) 2013-03-13

Family

ID=39092681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010513169A Expired - Fee Related JP5160640B2 (ja) 2007-06-20 2007-06-20 画像のステレオ・マッチングのためのシステム及び方法

Country Status (6)

Country Link
US (1) US20100220932A1 (ja)
EP (1) EP2158573A1 (ja)
JP (1) JP5160640B2 (ja)
CN (1) CN101689299B (ja)
CA (1) CA2687213C (ja)
WO (1) WO2008156450A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100072772A (ko) * 2008-12-22 2010-07-01 한국전자통신연구원 스테레오 비전을 이용한 실시간 얼굴 검출 시스템 및 그 방법
GB2482447B (en) * 2009-05-21 2014-08-27 Intel Corp Techniques for rapid stereo reconstruction from images
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
WO2011014419A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
JP5200042B2 (ja) * 2010-02-26 2013-05-15 日本放送協会 視差推定装置およびそのプログラム
WO2011109898A1 (en) * 2010-03-09 2011-09-15 Berfort Management Inc. Generating 3d multi-view interweaved image(s) from stereoscopic pairs
EP2568253B1 (en) * 2010-05-07 2021-03-10 Shenzhen Taishan Online Technology Co., Ltd. Structured-light measuring method and system
CN102939562B (zh) * 2010-05-19 2015-02-18 深圳泰山在线科技有限公司 目标投影方法以及系统
CN102331883B (zh) * 2010-07-14 2013-11-06 财团法人工业技术研究院 三维控制端点的辨识方法及应用其的计算机可读介质
GB2483434A (en) * 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
JP2012073930A (ja) * 2010-09-29 2012-04-12 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2012089931A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US20120200667A1 (en) * 2011-02-08 2012-08-09 Gay Michael F Systems and methods to facilitate interactions with virtual content
FR2972061B1 (fr) * 2011-02-24 2013-11-15 Mobiclip Procede de calibrage d'un dispositif de prise de vue stereoscopique
EP2533212A1 (en) * 2011-06-10 2012-12-12 Samsung Electronics Co., Ltd. Reference layer for hole recovery within an output image.
WO2012177166A1 (en) * 2011-06-24 2012-12-27 Intel Corporation An efficient approach to estimate disparity map
US20130033713A1 (en) * 2011-08-02 2013-02-07 Samsung Electronics Co., Ltd Apparatus and method of forming image, terminal and method of print control, and computer-readable medium
JP2013076621A (ja) * 2011-09-30 2013-04-25 Nippon Hoso Kyokai <Nhk> 距離指標情報推定装置及びそのプログラム
US9014463B2 (en) * 2011-11-25 2015-04-21 Kyungpook National University Industry-Academic Cooperation Foundation System for real-time stereo matching
US9237330B2 (en) * 2012-02-21 2016-01-12 Intellectual Ventures Fund 83 Llc Forming a stereoscopic video
US9070196B2 (en) 2012-02-27 2015-06-30 Samsung Electronics Co., Ltd. Apparatus and method for estimating disparity using visibility energy model
KR101706216B1 (ko) * 2012-04-03 2017-02-13 한화테크윈 주식회사 고밀도 삼차원 영상 재구성 장치 및 방법
CN102750711B (zh) * 2012-06-04 2015-07-29 清华大学 一种基于图像分割和运动估计的双目视频深度图求取方法
US9025860B2 (en) 2012-08-06 2015-05-05 Microsoft Technology Licensing, Llc Three-dimensional object browsing in documents
US9619878B2 (en) * 2013-04-16 2017-04-11 Kla-Tencor Corporation Inspecting high-resolution photolithography masks
KR102158390B1 (ko) 2013-10-22 2020-09-22 삼성전자주식회사 영상 처리 방법 및 장치
KR102350232B1 (ko) * 2014-11-20 2022-01-13 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
CN105374040A (zh) * 2015-11-18 2016-03-02 哈尔滨理工大学 基于视觉测量的大型机械工件立体匹配方法
TW201742001A (zh) * 2016-05-30 2017-12-01 聯詠科技股份有限公司 影像雜訊估測方法及裝置與影像擷取裝置
CN106097336B (zh) * 2016-06-07 2019-01-22 重庆科技学院 基于置信传播和自相似差异测度的前后景立体匹配方法
US10839535B2 (en) 2016-07-19 2020-11-17 Fotonation Limited Systems and methods for providing depth map information
US10462445B2 (en) 2016-07-19 2019-10-29 Fotonation Limited Systems and methods for estimating and refining depth maps
GB2553782B (en) * 2016-09-12 2021-10-20 Niantic Inc Predicting depth from image data using a statistical model
KR102371594B1 (ko) * 2016-12-13 2022-03-07 현대자동차주식회사 스테레오 카메라 영상 실시간 자동 캘리브레이션 장치, 그를 포함한 시스템 및 그 방법
CN108537871B (zh) * 2017-03-03 2024-02-20 索尼公司 信息处理设备和信息处理方法
US10554957B2 (en) * 2017-06-04 2020-02-04 Google Llc Learning-based matching for active stereo systems
US10803606B2 (en) * 2018-07-19 2020-10-13 National Taiwan University Temporally consistent belief propagation system and method
US11460854B1 (en) * 2020-04-28 2022-10-04 Amazon Technologies, Inc. System to determine floor or obstacle by autonomous mobile device
KR102310958B1 (ko) * 2020-08-20 2021-10-12 (주)아고스비전 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
EP4057626A4 (en) * 2020-08-20 2023-11-15 Argosvision Inc. STEREO CAMERA DEVICE WITH A LARGE FIELD OF VIEW AND DEPTH IMAGE PROCESSING METHOD THEREFROM
CN113534176A (zh) * 2021-06-22 2021-10-22 武汉工程大学 基于图正则化的光场高精度三维测距方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US6418424B1 (en) * 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US5309522A (en) * 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
US5802361A (en) * 1994-09-30 1998-09-01 Apple Computer, Inc. Method and system for searching graphic images and videos
US5633484A (en) * 1994-12-26 1997-05-27 Motorola, Inc. Method and apparatus for personal attribute selection and management using a preference memory
US5889506A (en) * 1996-10-25 1999-03-30 Matsushita Electric Industrial Co., Ltd. Video user's environment
US6046763A (en) * 1997-04-11 2000-04-04 Nec Research Institute, Inc. Maximum flow method for stereo correspondence
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
KR100269116B1 (ko) * 1997-07-15 2000-11-01 윤종용 움직이는대상물의3차원위치측정장치및방법
US7904187B2 (en) * 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
JP2001067463A (ja) * 1999-06-22 2001-03-16 Nadeisu:Kk 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
KR100374784B1 (ko) * 2000-07-19 2003-03-04 학교법인 포항공과대학교 실시간 입체 영상 정합 시스템
US20050288571A1 (en) * 2002-08-20 2005-12-29 Welch Allyn, Inc. Mobile medical workstation
US20040186357A1 (en) * 2002-08-20 2004-09-23 Welch Allyn, Inc. Diagnostic instrument workstation
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
US8712144B2 (en) * 2003-04-30 2014-04-29 Deere & Company System and method for detecting crop rows in an agricultural field
US7330584B2 (en) * 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
JP2006285952A (ja) * 2005-03-11 2006-10-19 Sony Corp 画像処理方法、画像処理装置、プログラムおよび記録媒体
JP4701848B2 (ja) * 2005-06-13 2011-06-15 日本電気株式会社 画像マッチング装置、画像マッチング方法および画像マッチング用プログラム
US9661991B2 (en) * 2005-08-24 2017-05-30 Koninklijke Philips N.V. System, method and devices for navigated flexible endoscopy
US7599547B2 (en) * 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
BRPI0621997A2 (pt) * 2006-09-21 2011-12-27 Thomson Licensing mÉtodo e sistema para aquisiÇço de modelo tridimensional
US8447098B1 (en) * 2010-08-20 2013-05-21 Adobe Systems Incorporated Model-based stereo matching
TWI434225B (zh) * 2011-01-28 2014-04-11 Nat Univ Chung Cheng Stereo Matching Method Using Quantitative Operation of Image Intensity Value

Also Published As

Publication number Publication date
CN101689299A (zh) 2010-03-31
US20100220932A1 (en) 2010-09-02
CA2687213A1 (en) 2008-12-24
JP2010531490A (ja) 2010-09-24
WO2008156450A1 (en) 2008-12-24
CN101689299B (zh) 2016-04-13
CA2687213C (en) 2015-12-22
EP2158573A1 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
JP5160640B2 (ja) 画像のステレオ・マッチングのためのシステム及び方法
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
CA2726208C (en) System and method for depth extraction of images with forward and backward depth prediction
JP5561781B2 (ja) 2d画像データを立体画像データに変換する方法およびシステム
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
CN110276829B (zh) 通过多尺度体素哈希处理的三维表示
JP4938093B2 (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
US20090322860A1 (en) System and method for model fitting and registration of objects for 2d-to-3d conversion
US20110142309A1 (en) System and method for measuring potential eyestrain of stereoscopic motion pictures
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120412

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees