JP5156837B2 - 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法 - Google Patents

領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法 Download PDF

Info

Publication number
JP5156837B2
JP5156837B2 JP2010533050A JP2010533050A JP5156837B2 JP 5156837 B2 JP5156837 B2 JP 5156837B2 JP 2010533050 A JP2010533050 A JP 2010533050A JP 2010533050 A JP2010533050 A JP 2010533050A JP 5156837 B2 JP5156837 B2 JP 5156837B2
Authority
JP
Japan
Prior art keywords
image
map
disparity
filtering
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010533050A
Other languages
English (en)
Other versions
JP2011504262A (ja
Inventor
ドン−チン チャン
イザト イザト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011504262A publication Critical patent/JP2011504262A/ja
Application granted granted Critical
Publication of JP5156837B2 publication Critical patent/JP5156837B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、一般にコンピュータグラフィックス処理および表示システムに関し、より具体的には、アーティファクト(artifact)を低減するために、領域ベースのフィルタリングを使用して少なくとも2つのイメージから奥行情報を抽出するためのシステムおよび方法に関する。
立体画像化は、僅かに異なるビューポイントから得られる、あるシーンの少なくとも2つのイメージを視覚的に結合して3次元の奥行の錯覚を作り出す処理である。この技術は、人間の目がいくらか距離間隔があいており、したがって実際には正確には同じシーンを見ていないという事実に依拠している。それぞれの目に異なる視点からのイメージを提供することによって、見る者の目には、奥行を感知するような錯覚が与えられる。典型的には、2つの別個の視点が提供され、その要素イメージは、「左」イメージおよび「右」イメージと称され、それぞれ基準イメージ(reference image)および相補イメージ(complementary image)としても知られる。しかし、2つまたはそれ以上のビューポイントを結合して立体イメージを形成することもできることが当業者には認識されよう。
3Dの事後編集(post-production)、すなわち視覚効果(VFX)ワークフローおよび3次元(3D)表示アプリケーションにおいて、重要なプロセスは、左目のビューと右目のビューのイメージで構成される立体イメージから奥行情報、例えば奥行マップ(depth map)、すなわち対象の物体(object)からカメラまでの距離を、推測または抽出することである。奥行マップの抽出を様々なフィルムの使途において、例えばフィルムの事後編集のためのシーンのジオメトリ(geometry)の取得、奥行のキーイング(depth keying)、3D圧縮および3D表示のためのコンテンツ生成に使用することができる。例えば、最近商品化されたオートステレオスコピック(auto-stereoscopic)3Dディスプレイは、イメージプラス奥行マップ(image-plus-depth-map)の入力フォーマット(2D+Z)を必要とするので、該ディスプレイは、複数の視角をサポートする異なる3Dビューを生成することができる。
ステレオマッチングは、異なる位置のカメラによって撮られた2つのイメージから奥行マップを推定する奥行マップ抽出に幅広く使用されるアプローチである。ステレオマッチングは、あるシーンのイメージを、該シーンにおいて異なる位置に異なる方向に配置された2つまたはそれ以上のカメラから取得する。これらのデジタルイメージは、各カメラからほぼ同じ時間に取得され、そして該イメージの各々における点を、空間内の対応する3Dの点に合致させる。一般に、異なるイメージからの点は、該イメージの一部を検索し、そして制約(例えば、エピポーラ制約(epipolar constaint))を使用して或るイメージ内の点を別のイメージ内の点と関連付けることによって合致させることができる。奥行値は、シーン内の同一の点に対応する上記異なるイメージ内の2つのピクセル間の相対な距離から推側される。
正確な奥行推定のための様々な方法、例えば、動的プログラミング、信念伝搬(belief propagation)、単純ブロックマッチングなどが開発されている。より正確な方法は通常計算コストがより高い。この方法の一部は遅すぎて実際の利用には役に立たない。走査線アルゴリズム(例えば、走査線動的プログラミングまたは走査線信念伝搬)は、(非常に不正確な)単純ピクセル/ブロックマッチングおよび(非常に遅い)2次元(2D)信念伝搬と比べてかなり正確な結果を与えることができる、比較的効率的なアルゴリズムまたは機能(function)であることがわかっている。したがって、走査線アルゴリズムまたは機能は、奥行推定の問題に対する実際的な解決策になり得るものである。しかし、走査線アルゴリズムまたは機能の主な欠点は、該走査線アルゴリズムまたは機能が、しばしば横縞のアーティファクト(縞状アーティファクトを丸で囲んでいる図5Bを参照されたい)を生じることである。これは、信念伝搬など他のコストの高いアルゴリズムとは異なり、走査線アルゴリズムは、1度に1つの走査線の最適化を実行するのみであり、したがって垂直方向に沿った平滑性制約(smoothness constraint)が課されないからである。
したがって、不連続性または縞状アーティファクトを最小化する高速かつ効率的な奥行情報抽出方法のための技術が必要とされる。
アーティファクトを低減するために領域ベースのフィルタリングを使用して少なくとも2つのイメージから奥行情報を抽出するためのシステムおよび方法を提供する。本開示は、走査線の動的プログラミング(DP:Dynamic Programming)または他の同様の方法よって生成されるアーティファクトを低減するための後処理のアルゴリズムまたは機能を提供する。当該システムおよび方法は、2つのイメージのうちの少なくとも1つを、領域セグメント化アルゴリズムまたは機能によってセグメント化し、該セグメント化された領域境界を越えることなくフィルタリングを実行する。さらに、水平方向よりも垂直方向により強いフィルタ強度を有する異方性のフィルタを使用するため、奥行境界を著しく不鮮明にすることなく縞状アーティファクトを低減する。
本開示の一態様によると、少なくとも2つのイメージから奥行情報を抽出する方法が提供される。当該方法は、あるシーンから第1のイメージおよび第2のイメージを取得することと、該第1のイメージ内の少なくとも1つの点と該第2のイメージ内の対応する少なくとも1つの点との視差(disparity)を推定して視差マップ(disparity map)を生成することと、上記第1および第2のイメージのうちの少なくとも一方を少なくとも1つの領域にセグメント化することと、該セグメント化された領域に基づいて上記視差マップをフィルタリングすることを含む。一態様において、上記第1のイメージおよび上記第2のイメージは、立体的なペア(stereoscopic pair)の左目ビューおよび右目ビューを含む。
別の態様において、上記方法は、上記視差マップの上記少なくとも1つの点のそれぞれに対して、推定された視差を逆数にすることによって、フィルタリングされた視差マップを奥行マップに変換することを含む。
さらなる態様において、視差を推定することは、走査線最適化関数(scanline optimization function)によって実行される。
別の態様において、上記フィルタリングするステップは、視差マップの少なくとも1つのピクセルを水平方向にフィルタリングするステップと、視差マップの該少なくとも1つのピクセルを垂直方向にフィルタリングするステップとを含み、該垂直方向にフィルタリングするステップは、上記水平方向にフィルタリングするステップよりも大きい平滑化効果を有するように構成される。
さらなる態様において、上記フィルタリングするステップは、フィルタサイズを選択するステップと、該フィルタサイズに基づいてマスクブロックサブイメージを作成して、上記少なくとも1つのセグメント化された領域の外側のピクセルをマスクするステップと、上記少なくとも1つのセグメント化された領域の内側の少なくとも1つのピクセルをフィルタリングするステップを含む。
本開示の別の態様にかかる少なくとも2つのイメージから奥行情報を抽出するためのシステムは、あるシーンから第1のイメージおよび第2のイメージを取得するための手段と、該第1のイメージ内の少なくとも1つの点と該第2のイメージ内の対応する少なくとも1つの点との視差を推定して、視差マップを生成するように構成された視差推定器と、上記第1のイメージと上記第2のイメージの少なくとも一方を少なくとも1つの領域にセグメント化するように構成されたセグメント化モジュールと、該セグメント化された領域に基づいて視差マップをフィルタリングするように構成されたフィルタを含む。
本開示の他の態様によると、少なくとも2つのイメージから奥行情報を抽出する方法を実行するためのマシンによって実行可能な命令からなるプログラムを具現化している、マシン読取可能なプログラム記憶装置が提供され、上記方法は、あるシーンから第1のイメージおよび第2のイメージを取得するステップと、該第1のイメージ内の少なくとも1つの点と該第2のイメージ内の対応する少なくとも1つの点との視差を推定して、視差マップを生成するステップと、上記第1のイメージと上記第2のイメージの少なくとも一方を少なくとも1つの領域にセグメント化するステップと、該セグメント化された領域に基づいて視差マップをフィルタリングするステップを含む。
本開示のこれらおよび他の態様、特徴および利点は、好適な実施形態に関する以下の詳細な説明に説明され、添付の図面と併せて読むことにより明らかになる。
図面において、同じ参照符号は図を通して同様の要素を示す。
本発明の一態様にかかる、少なくとも2つのイメージから奥行情報を抽出するシステムを示す例示的なブロック図である。 本発明の一態様にかかる、少なくとも2つのイメージから奥行情報を抽出する例示的な方法を示すフローチャートである。 本発明の一態様にかかる、視差マップの各ピクセルにおける領域ベースの平滑化またはフィルタリングを示す図である。 本発明の一態様にかかる、視差マップの領域をフィルタリングする例示的な方法を示すフローチャートである。 本発明のシステムおよび方法にしたがって処理された結果イメージを示し、2次元(2D)の入力イメージを示す図である。 従来の走査線動的プログラミングによって処理された結果の縞状アーティファクトを示している奥行マップを示す図である。 図5Aで示されるイメージの結果である領域セグメント化イメージを示す図である。 本発明のシステムおよび方法にしたがって処理された平滑化された奥行マップを示す図である。
図面は、本開示の概念を説明するためのものであり、必ずしも本開示を説明するために可能な構成のみを示すものではないことを理解されたい。
図面に示されている要素を、ハードウェア、ソフトウェアまたはそれらの組合せの様々な形で実装することができることを理解されたい。好ましくは、これら要素は、プロセッサ、メモリおよび入出力インタフェースを含む1つまたは複数の適切にプログラムされた汎用装置における、ハードウェアおよびソフトウェアの組合せで実装される。
本記載は本開示の原理を例示するものである。本明細書において明示的には記載または示されていないが、本開示の原理を具現化しその思想および範囲に含まれる多様な構成を当業者が考案し得ることが認識されよう。
本明細書に記載される全ての例および条件的な語は、当技術分野の発展に本発明者が寄与する本発明の原理および概念を読み手が理解するのを助ける教育的目的のために意図されたものであり、そのように具体的に記載された例および条件に限定されるものではないと解釈されるべきである。
さらに、本開示の原理、態様および実施形態、ならびにそれらの特定の例を記載する本明細書内の全ての記述は、それらの構造的および機能的な均等物を含むことが意図されている。加えて、かかる均等物は、現在知られている均等物と、将来開発される均等物との両方、すなわち構造に関わらず同一の機能を実行する開発された全ての要素を含むことが意図される。
したがって、例えば、本明細書で提示されるブロック図は、本開示の原理を具現化する例示的な回路の概念的な図を表すものであることが当業者には認識されよう。同様に、全てのフローチャート、フロー図、状態遷移図、疑似コードなどは、実質的にコンピュータ読取可能媒体で表され、コンピュータまたはプロセッサが明示的に示されているか否かに関わらずコンピュータまたはプロセッサによって実行される、様々な処理を表すことが認識されよう。
図面に示される様々な要素の機能を、専用のハードウェア、ならびに適切なソフトウェアに関連するソフトウェアを実行することが可能なハードウェアの使用を通じて提供することができる。プロセッサよって提供されるとき、該機能を、単一の専用のプロセッサよって、単一の共有プロセッサよって、またはその一部が共有され得る複数の個別のプロセッサよって提供することができる。さらに、用語「プロセッサ」または「コントローラ」の明示的な使用は、ソフトウェアを実行することが可能なハードウェアのみを指していると解釈されるべきでなく、これらには限られないがデジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを格納するためのリードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、および不揮発性ストレージも暗示的に含んでいる。
他のハードウェア、従来および/またはカスタムされたものなども含まれうる。同様に、図面に示される全てのスイッチは単に概念的なものである。そのスイッチの機能を、プログラムロジックのオペレーションを介して、プログラム制御と専用ロジックのインタラクションを介して、あるいは手動でも実行することができ、特定の技法を、状況からより具体的に理解されるように実装者が選択することができる。
特許請求の範囲の記載において、特定の機能を実行するための手段として表現される任意の要素は、例えば、a)その機能を実行する回路要素の組合せ、またはb)その機能を実行するソフトウェアを実行するための適切な回路と組み合わされたファームウェア、マイクロコードなどを含め、その機能を実行する任意の手段を含むことが意図される。特許請求の範囲によって定義される本発明は、記載される様々な手段よって提供される機能性が、該特許請求の範囲において要求される形で組み合わせて結合されることにある。それら機能性を提供することができる他の手段も本明細書内に示されるものと均等であると見なされる。
ステレオマッチングは、複数の立体イメージ、例えば左目ビューイメージと右目ビューイメージから奥行マップを推側する標準的な方式である。従来のオートステレオスコピックディスプレイにおける3D再生は、奥行マップの平滑性が、結果の3D再生の見た目に顕著に影響を及ぼすことを示している。非平滑的な奥行マップはしばしば、3D再生にジグザク状のエッジを生じさせ、これは、精度の低い奥行値を有する平滑な奥行マップの再生よりも視覚的に悪い。したがって、3D表示および再生アプリケーションにとって、奥行マップの平滑性は奥行の精度よりも重要である。さらに、グローバル最適化ベースのアプローチが、3D表示アプリケーションにおける奥行推定には必要である。
立体イメージからの奥行推定には、計算コストと奥行マップの精度とのバランスをとることも重要である。本発明は、走査線最適化アルゴリズムまたは機能(例えば、走査線動的プログラミングまたは走査線信念伝搬)の実行後に、領域ベースのフィルタリング事後処理ステップを用いることでこの問題に対処しており、そして、両方法は低コストのアルゴリズムまたは機能である。
本開示のシステムおよび方法は、領域ベースのフィルタリングを走査線アルゴリズムまたは機能の後に適用する。走査線アルゴリズムは、1度に1つの走査線について2つのイメージ間の奥行値を推定する。典型的に平滑性制約は、水平方向に沿って課されるだけである。走査線アルゴリズムまたは機能が実行された後、奥行マップは、垂直方向に沿った平滑性制約の欠如に起因して縞状アーティファクトを生じる(図5Bを参照されたい)。本開示のシステムおよび方法は、領域ベースの平滑化アルゴリズムまたは機能を適用して、領域境界を概ね保ちつつも縞状のアーティファクトを低減する。
本システムおよび方法はさらに、第1のイメージ内の少なくとも1つの点と第2のイメージ内の対応する少なくとも1つの点のそれぞれに対して、推定された視差から視差マップを生成し、該視差マップの視差値の逆数をとることよって視差マップを奥行マップに変換する。奥行マップまたは視差マップを、次いで3D再生のための立体イメージのペアを用いて利用することができる。
次に図面を参照すると、図1には、本開示の一実施形態にかかる例示的なシステムコンポーネントが示されている。例えばカメラの元のフィルムのネガ(negative)などのフィルムプリント104をスキャンして、例えばシネオン(Cineon)フォーマットまたは映画テレビ技術者協会(SMPTE:Society of Motion Picture and Television Engineers)のDPX(Digital Picture Exchange)ファイルなどのデジタルフォーマットにするためのスキャン装置103が提供されている。スキャン装置103は、例えばビデオ出力を有するArri LocPro(商標登録)などの、フィルムからビデオ出力を生成するテレシネ(telecine)または任意の装置を備えることができる。代替的には、撮影後のプロセス(post production process)からのフィルムまたはデジタルシネマ106(例えば、既にコンピュータ読取可能な形式となっているファイル)を直接使用することもできる。コンピュータ読取可能なファイルの潜在的なソースは、AVIDエディタ(商標登録)、DPXファイル、D5テープなどである。
スキャンされたフィルムプリントは、後処理装置(post-processing device)102、例えばコンピュータに入力される。該コンピュータは、1つまたは複数の中央処理ユニット(CPU)などのハードウェアと、ランダムアクセスメモリ(RAM)および/またはリードオンリーメモリ(ROM)などのメモリ110と、キーボード、カーソル制御装置(例えばマウスやジョイスティック)およびディスプレイ装置などの入出力(I/O)ユーザインタフェース112とを有する様々な公知のコンピュータプラットフォームのいずれにおいても実装される。該コンピュータプラットフォームは、オペレーティングシステムおよびマイクロ命令コードも含む。本明細書において説明される様々な処理および機能は、該オペレーティングシステムを介して実行されるマイクロ命令コードの一部、またはソフトウェア・アプリケーションプログラムの一部(あるいはそれらの組合せ)のいずれかとすることができる。一実施形態において、該ソフトウェア・アプリケーションプログラムは、後処理装置102などの任意の適切な機械にアップロードされ該機械によって実行されうる、プログラム記憶装置上に有形的な具現化される。さらに、様々な他の周辺装置を、パラレルポート、シリアルポートまたはユニバーサルシリアルバス(USB)などの様々なインタフェースおよびバス構造によって、コンピュータプラットフォームに接続することができる。他の周辺装置には、追加の記憶装置124およびプリンタ128などが含まれる。プリンタ128は、例えば、立体版(stereoscopic version)フィルムなどの修正版(revised version)フィルム126をプリントするのに使用することができ、この場合該フィルムでは、1つまたは複数のシーンが、後述される技術の結果として3Dモデル化されたオブジェクトを使用して代替され、または置換されている。
代替的に、既にコンピュータ読取可能な形式となっているファイル/フィルムプリント106(例えば、外部ハードドライブ124上に記憶することができるデジタルシネマ)を、コンピュータ102に直接入力することができる。なお、本明細書において使用される用語「フィルム」は、フィルムプリントまたはデジタルシネマを指すことに留意されたい。
ソフトウェアプログラムは、少なくとも2つのイメージから奥行情報を抽出するための、メモリ110に格納される奥行抽出(depth extraction)モジュール114を含む。奥行抽出モジュール114はさらに、第1のイメージ内の少なくとも1つの点と第2のイメージ内の対応する少なくとも1つの点(例えば立体的なペア)の視差を推定し、そして第1のイメージ内の少なくとも1つの点と第2のイメージ内の対応する少なくとも1つの点の各々に対して推定された視差から視差マップを生成するように構成された、視差推定器(disparity estimator)116を含む。視差推定器116は、第1および第2のイメージのピクセルを平滑性コスト関数(smoothness cost function)134と合致させて平滑性制約を視差推定に適用する、ピクセルマッチングコスト関数(pixel matching cost function)132を含む。視差推定器116はさらに、信念伝搬アルゴリズムもしくは関数136および/または動的プログラミングアルゴリズムもしくは関数138を含み、2つのイメージ間の最適な視差が得られるようにピクセルマッチングコスト関数および平滑性コスト関数を最小化する。これらのコスト関数を最小化するための任意の公知の最適化アルゴリズムもしくは関数を利用することができ、信念伝搬または動的プログラミングは、単に例示的な最適化機能の2つの例に過ぎないことを理解されたい。
2Dイメージから領域またはオブジェクトをセグメント化するための領域セグメント化(region segmentation)モジュール118が提供されている。視差マップのセグメント化された領域内のピクセルをフィルタリングするための平滑化フィルタ(smoothing filter)120が提供されている。一実施形態において、平滑化フィルタ120は、ガウス(Gaussian)関数を離散化して、水平および垂直フィルタリングのためのフィルタカーネルを生成する。ガウス関数の分散を調節することよって、フィルタリングの平滑性の度合いを制御することができる。ボックス関数などの他の関数を使用してフィルタカーネルを生成することができることを認識されたい。
奥行抽出モジュール114はさらに、視差マップの視差値の逆数をとることよって視差マップを奥行マップに変換するための奥行マップ生成器(depth map generator)122を含む。
図2は、本開示の一態様にしたがって、少なくとも2つの2次元(2D)イメージから奥行情報を抽出するための例示的な方法のフローチャートである。初めに、後処理装置102は、少なくとも2つの2Dイメージ、例えば左目のビューと右目のビューを用いて立体イメージのペアを取得する(ステップ202)。後処理装置102は、コンピュータ読取可能なフォーマットのデジタルマスタイメージファイルを取得することよって、その少なくとも2つの2Dイメージを得ることができる。該デジタルビデオファイルは、デジタルカメラを用いて時系列の動画イメージをキャプチャすることによって得ることができる。代替的には、従来のフィルムタイプのカメラを用いてビデオシーケンスをキャプチャすることもできる。このシナリオでは、フィルムはスキャン装置103を介してスキャンされる。
フィルムがスキャンされるかどうか、または既にデジタルフォーマットであるかどうかに関わらず、フィルムのデジタルファイルは、フレームの位置に関する指示(indication)または情報、例えば、フレームの番号、フィルムの開始からの時間を含むであろうことを認識されたい。デジタルイメージファイルの各フレームは、1つのイメージ、例えばI1、I2、..Inを含むこととなる。
立体イメージを、同じ設定の2つのカメラによって撮ることができる。同じ焦点距離、同じ焦点高さ、および平行な焦点面を有するように、その2つのカメラをキャリブレートするか、または、その立体イメージを、該立体イメージがあたかも平行な焦点面を有するカメラよって撮られたかのように公知のカメラパラメータに基づいて歪曲させる必要がある。この歪曲処理(warping process)は、カメラのキャリブレーションおよびカメラ調節(rectification)を含む。キャリブレーションおよび調節プロセスでは、立体イメージのエピポーラ線(epipolar line)を、該エピポーラ線がちょうど該イメージの水平な走査線になるように調節する。対応する点はエピポーラ線に沿って見つかるので、調節プロセスは、対応する点の検索を走査線に沿った検索のみに簡略化し、これにより計算コストがかなり低減される。対応する点は、同一シーンの点に対応するイメージ内のピクセルである。
次に、ステップ204において、視差マップが、視差推定器116を介してシーン内の全ての点毎に推定される。全てのシーンの点に対する視差は、左目のイメージおよび右目のイメージ内の合致した点の相対距離として算出される。例えば、左目イメージ内の点の水平座標がxであり、右目イメージ内の対応する点の水平座標がx’である場合、視差d=x’−xである。続いて、あるシーンの点の視差値dは、該シーンの点からカメラまでの距離である奥行値zに、式:z=Bf/d を使用して変換される。この式において、Bは、ベースラインとも称される2つのカメラの間の距離であり、fは、カメラの焦点距離であり、以下で詳細を説明する。
全てのステレオマッチングアルゴリズムの思想は、左目イメージ内のピクセルと右目イメージ内のピクセルとを合致させることである。しかし、修正されたピクチャのペアでは、合致したピクセル間のずれは、水平方向のみで起こる。したがって、水平方向に沿ったピクセルのみ検索する必要がある。ステレオマッチングアルゴリズムまたは機能では、通常、平滑性制約が課せられるので、イメージ内のテクスチャを有しないエリアは、近くのテクスチャを有するピクセルからその奥行値を取得することができる。平滑性制約を用いるピクセルマッチングを、以下のようにコスト関数と結合することができる。
上記(1)において、Dは、奥行マップ(または視差マップ)であり、MatchCostは、奥行マップに従ったピクセルマッチングの全コストであり、SmoothCostは、隣接するピクセル間の平滑性の全コストであり、λは、マッチングコストおよび平滑性コストの重要性の重み付けに使用される係数である。
奥行推定の問題は、したがって、上記コスト関数を奥行マップに対して最小化することである。Dが、2Dイメージ平面全体において定義される場合、これは集中的な計算および高い計算コストを要する2D最適化問題である。修正された立体イメージペアの性質に起因して、上記コスト関数を各イメージ走査線において定義し、各走査線における該コスト関数を最小化することができる。したがって、2D最適化問題を、効率的に解決することができる複数の1次元最適化問題に変換することができる。動的プログラミング関数138は、上記コスト関数の最小の解を効率的に発見するのに使用される例示的なアルゴリズムまたは機能であり、信念伝搬関数136も同様の目的で1D版に変更することができる。しかし、走査線最適化の主な問題は、垂直の平滑性制約の欠如に起因する「縞状」アーティファクトである(図5Bを参照されたい)。奥行マップが、2D+奥行3Dディスプレイ上で2Dイメージとともに再生されるとき、「ストライプ」アーティファクトが厄介なジッター(jittering)を生じさせる。
アーティファクトを低減するために、本開示のシステムおよび方法は、結果として生じる視差マップに平滑化フィルタを適用する。しかし、平滑化フィルタは通常、好ましくないことに視差マップにおけるオブジェクトの奥行境界を不鮮明にする。本開示のシステムおよび方法は、領域内の平滑化プロセスを抑制する。ほとんどの場合、視差の不連続性は垂直方向に沿って起こるので、水平方向よりも垂直方向にかなり強い平滑化フィルタ、すなわち異方性のフィルタを使用する。フィルタ120のガウス関数の分散を調整することよって、これを達成することができる。より高い分散は、より強い平滑化フィルタをもたらす。フィルタリングプロセスをスピードアップさせるために、フィルタは、垂直の1Dフィルタリングが後続する水平の1Dフィルタリングによって実現される、分離可能なフィルタとすることができる。例えば、水平方向のフィルタリングが、第1の分散を有するガウス関数によって実行され、垂直方向のフィルタリングが、第2の分散を有するガウス関数によって実行されるが、ここで該第2の分散は、上記第1の分散より大きいので、これにより、水平方向よりも垂直方向でより良く平滑化効果が生じることとなる。一例示的な実施形態では、イメージサイズが960×540の場合、水平フィルタの分散を2.0であり、垂直フィルタの分散を4.0とすることができる。
領域ベースのフィルタリングを実行するために、立体のペアの少なくとも一方のイメージを少なくとも1つの領域にセグメント化する。図2を再び参照すると、ステップ206において、立体のペアのうち基準イメージ、例えば、左目ビューイメージを取得する。典型的には左目ビューイメージが基準イメージであるが、他の実施形態において右目ビューイメージを用いることもある。ステップ208において、そのイメージが、領域セグメント化モジュール118によって複数の領域にセグメント化される。領域へのセグメント化は、イメージを重なり合わない領域に区分することができる任意の従来の領域セグメント化アルゴリズムまたは機能によって実装することができる。例示的な領域検出(region-detection)アルゴリズムまたは機能は、平均シフト(mean-shift)アルゴリズムとして知られている。平均シフトアルゴリズムの利点は、領域の数を予め指定する必要がないことである。すなわち、このアルゴリズムは、領域の数をセグメント化プロセス中に自動的に発見することができる。領域セグメント化の結果の一例が図5Cに示されている。
イメージの領域が決定されると、ステップ210で、該イメージの領域に基づいて、視差マップが平滑化フィルタ120を介してフィルタリングされる。セグメント化された領域に基づいて視差マップをフィルタリングする方法を、図3および4に関連して説明する。
領域ベースの平滑化スキームでは、領域内のピクセル302毎に、マスクブロックサブイメージ304が生成され、そのピクセルは、指定されたピクセルの隣接ピクセルである。ブロックのサイズはフィルタのサイズによって決定される。したがって、最初にステップ402においてフィルタサイズが選択される。ステップ404において、フィルタサイズ308に基づいてマスクブロックサブイメージ304が作成される。例えば、水平フィルタのタップ(tap)が6であり、垂直フィルタのタップが4であるとき、ブロックは、4×6=24ピクセルを有する長方形である。ステップ406において、少なくとも1つのピクセルが少なくとも1つのセグメント化された領域内で選択され、次いでステップ408において、マスクブロックサブイメージがこのブロックにおいて作成される。マスクブロックサブイメージが視差マップに適用されると、ピクセルの強度値(intensity value)は、該ピクセルが領域境界306内部または内側にある場合には1に設定され、一方、図3に示されるようにピクセルが領域境界の外側にある場合には該ピクセルの強度値は0に設定される。
フィルタリングプロセスは、ステップ410において、先に水平フィルタを適用し、次いで垂直フィルタを適用することによって実現される。垂直および水平フィルタリングの両方にマスクブロックサブイメージの強度値で重み付けをするので、領域境界306の外側のピクセルは、結果として得られる平滑化された視差値に対して影響を及ぼさない。異なる形式の水平および垂直フィルタを使用することができる。一実施形態ではガウスフィルタが使用される。このフィルタは、所定の分散を有する1Dガウス関数をサンプリングすることよって生成され、指定のフィルタタップまで切り捨てられる。より微細さを保つために、垂直フィルタの分散は水平フィルタの分散よりも非常に高く、したがってこれは垂直方向をより積極的に平滑化する。ガウス関数の分散は、経験的に決定され、システム全体の入力パラメータとすることができる。例えば、イメージサイズ960×540の場合、水平フィルタの分散を2.0とし、垂直フィルタの分散を4.0とすることができる。
図2を再び参照すると、ステップ212において、フィルタリングされた視差マップが奥行マップ生成器122を介して奥行マップに変換される。シーンの点毎の視差値dが、奥行値z、すなわちシーンの点からカメラまでの距離に、式:z=Bf/d を使用して変換され、ここでBは、ベースラインとも称される2つのカメラの間の距離であり、fは、カメラの焦点距離である。例えば左目ビューイメージである少なくとも1つのイメージ毎の奥行値が、奥行マップに記憶される。対応するイメージおよび関連する奥行マップは、例えば記憶装置124に記憶され、そして3D再生のために取り出される(ステップ214)。さらに、動画またはビデオクリップの全てのイメージを、関連する奥行マップとともに、立体版の動画またはクリップを表す単一のデジタルファイル130として格納することができる。デジタルファイル130を、例えば元のフィルムの立体版を印刷するためなど後で取り出すために、記憶装置124に格納することができる。
本発明のシステムおよび方法によって処理されるイメージが、図5Aおよび5C〜5Dに図示されているが、図5Aは2次元(2D)入力イメージを図示している。図5Bは、従来の走査線動的プログラミングによって処理された結果の奥行マップであり、縞状アーティファクトを示している。図5Cは、図5Aに示されるイメージが領域セグメント化された結果のイメージであり、図5Dは、本開示のシステムおよび方法にしたがって処理された平滑化された奥行マップで図示しており、図5Cでセグメント化された領域に基づいてフィルタリングが実行されている。図5Bおよび5Dの奥行マップを比較すると、本開示のシステムおよび方法は、図5Dに示されるようにオブジェクト間の奥行境界をより多く維持しつつも、縞状アーティファクトを効果的に不鮮明にしている。
本開示による教示を取り入れる実施形態を、本明細書で示し詳細に説明してきたが、当業者は、これらの教示を取り入れた多くの他の変形の実施形態を容易に考案し得るであろう。(限定ではなく例示として意図される)少なくとも2つのイメージから奥行情報を抽出するためのシステムおよび方法に関する好適な実施形態を説明してきたが、上記教示を踏まえて当業者は修正および変更を行うことができることに留意されたい。したがって、開示された本発明の特定の実施形態に対して、特許請求の範囲で画定される本発明の範囲内で変更を行うことできることを理解されたい。

Claims (11)

  1. 少なくとも2つのイメージから奥行情報を抽出する方法であって、
    シーンから第1のイメージおよび第2のイメージを取得するステップと、
    前記第1のイメージ内の少なくとも1つの点と前記第2のイメージ内の対応する少なくとも1つの点との視差を推定して、視差マップを生成するステップと、
    前記第1のイメージと前記第2のイメージの少なくとも一方を、少なくとも1つの領域にセグメント化するステップと、
    前記セグメント化された領域に基づいて前記視差マップを水平方向および垂直方向にフィルタリングするステップであって、前記垂直方向のフィルタリングは、前記水平方向のフィルタリングよりも大きい平滑化効果を有するように構成されるステップ
    前記視差マップの前記少なくとも1つの点の各々について前記推定された視差を逆数にすることによって、前記フィルタリングされた視差マップを奥行マップに変換するステップと
    を含む、前記方法。
  2. 前記第1のイメージおよび前記第2のイメージは、立体なペアの左目ビューおよび右目ビューを含む請求項1に記載の方法。
  3. 前記視差を推定することは、ピクセルマッチングコスト関数と平滑性コスト関数の少なくとも一方を計算することを含む請求項1に記載の方法。
  4. 前記視差を推定することは、走査線最適化関数によって実行される請求項1に記載の方法。
  5. 前記水平方向フィルタリングは、第1の分散を有するガウス関数によって実行され、前記垂直方向フィルタリングは、前記第1の分散より大きい第2の分散を有するガウス関数によって実行される請求項に記載の方法。
  6. 前記フィルタリングするステップは、
    フィルタサイズを選択するステップと、
    前記フィルタサイズに基づいて、前記少なくとも1つのセグメント化された領域の外側のピクセルをマスクするマスクブロックサブイメージを作成するステップと、
    前記少なくとも1つのセグメント化された領域の少なくとも1つのピクセルフィルタリングするステップと
    を含む請求項1に記載の方法。
  7. 少なくとも2つのイメージから奥行情報を抽出するシステムであって、
    シーンから第1のイメージおよび第2のイメージを取得するための手段と、
    前記第1のイメージ内の少なくとも1つの点と前記第2のイメージ内の対応する少なくとも1つの点との視差を推定して、視差マップを生成するように構成された視差推定器と、
    前記第1のイメージと前記第2のイメージのうちの少なくとも一方を、少なくとも1つの領域にセグメント化するように構成されたセグメント化モジュールと、
    前記セグメント化された領域に基づいて前記視差マップを水平方向および垂直方向にフィルタリングするように構成されたフィルタであって、前記垂直方向のフィルタリングが、前記水平方向のフィルタリングよりも大きい平滑化効果を有するように構成されるフィルタ
    前記視差マップの前記少なくとも1つの点の各々について前記推定された視差を逆数にすることによって、前記フィルタリングされた視差マップを奥行マップに変換するように構成された奥行マップ生成器と
    を備えた、前記システム。
  8. 前記視差推定器は、ピクセルマッチングコスト関数と、平滑性コスト関数と、走査線最適化関数のうちの少なくとも1つを含む請求項に記載のシステム。
  9. 前記水平方向のフィルタリングは、第1の分散を有するガウス関数よって実行され、前記垂直方向のフィルタリングは、前記第1の分散より大きい第2の分散を有するガウス関数よって実行される請求項に記載のシステム。
  10. 前記フィルタは、所定のフィルタサイズに基づいてマスクブロックサブイメージを作成して、前記少なくとも1つのセグメント化された領域の外部のピクセルをマスクし、前記少なくとも1つのセグメント化された領域の内部の少なくとも1つのピクセルをフィルタリングするようにさらに構成される請求項に記載のシステム。
  11. マシンによって実行可能な命令からなるプログラムを記憶した、マン読取可能なプログラム記憶装置であって、前記プログラムは、少なくとも2つのイメージから奥行情報を抽出するための処理を前記マシンに実行させるように構成され、前記処理は、
    シーンから第1のイメージおよび第2のイメージを取得するステップと、
    前記第1のイメージ内の少なくとも1つの点と前記第2のイメージ内の対応する少なくとも1つの点との視差を推定して、視差マップを生成するステップと、
    前記第1のイメージと前記第2のイメージのうちの少なくとも1つを、少なくとも1つの領域にセグメント化するステップと、
    前記セグメント化された領域に基づいて前記視差マップを水平方向および垂直方向にフィルタリングするステップであって、前記垂直方向のフィルタリングは、前記水平方向のフィルタリングよりも大きい平滑化効果を有するように構成されるステップ
    前記視差マップの前記少なくとも1つの点の各々について前記推定された視差を逆数にすることによって、前記フィルタリングされた視差マップを奥行マップに変換するステップと
    を含む、前記プログラム記憶装置。
JP2010533050A 2007-11-09 2007-11-09 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法 Expired - Fee Related JP5156837B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2007/023632 WO2009061305A1 (en) 2007-11-09 2007-11-09 System and method for depth map extraction using region-based filtering

Publications (2)

Publication Number Publication Date
JP2011504262A JP2011504262A (ja) 2011-02-03
JP5156837B2 true JP5156837B2 (ja) 2013-03-06

Family

ID=39645307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010533050A Expired - Fee Related JP5156837B2 (ja) 2007-11-09 2007-11-09 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法

Country Status (7)

Country Link
US (1) US8411934B2 (ja)
EP (1) EP2213102B1 (ja)
JP (1) JP5156837B2 (ja)
CN (1) CN101960860B (ja)
AT (1) ATE546951T1 (ja)
CA (1) CA2704479C (ja)
WO (1) WO2009061305A1 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
US8509519B2 (en) * 2009-07-29 2013-08-13 Intellectual Ventures Fund 83 Llc Adjusting perspective and disparity in stereoscopic image pairs
US20110032341A1 (en) * 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content
KR101626057B1 (ko) * 2009-11-19 2016-05-31 삼성전자주식회사 3뷰 영상의 디스패리티 추정 방법 및 장치
KR101813299B1 (ko) 2010-04-01 2017-12-28 톰슨 라이센싱 3차원(3d) 표시에 있어서 플로팅 윈도우를 사용하는 방법과 시스템
CN101873509B (zh) * 2010-06-30 2013-03-27 清华大学 消除深度图序列背景和边缘抖动的方法
US9111342B2 (en) * 2010-07-07 2015-08-18 Electronics And Telecommunications Research Institute Method of time-efficient stereo matching
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US9035939B2 (en) 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
US9628769B2 (en) * 2011-02-15 2017-04-18 Thomson Licensing Dtv Apparatus and method for generating a disparity map in a receiving device
JP5874649B2 (ja) * 2011-02-17 2016-03-02 コニカミノルタ株式会社 画像処理装置、そのプログラム、および画像処理方法
JP2014506768A (ja) * 2011-02-23 2014-03-17 コーニンクレッカ フィリップス エヌ ヴェ 三次元シーンの深さデータの処理
TWI462569B (zh) * 2011-04-22 2014-11-21 Mstar Semiconductor Inc 三維影像攝相機及其相關控制方法
CN102156987A (zh) * 2011-04-25 2011-08-17 深圳超多维光电子有限公司 获取场景深度信息的方法及装置
US10061189B2 (en) 2011-09-06 2018-08-28 King Abdullah University of Science and Technology (KAUST) Stereo-panoramic data
US9129378B2 (en) * 2011-09-07 2015-09-08 Thomson Licensing Method and apparatus for recovering a component of a distortion field and for determining a disparity field
US8837816B2 (en) * 2011-09-27 2014-09-16 Mediatek Inc. Method and apparatus for generating final depth information related map that is reconstructed from coarse depth information related map through guided interpolation
WO2013045853A1 (fr) 2011-09-29 2013-04-04 Thomson Licensing Méthode et dispositif de filtrage d'une carte de disparité
WO2013054240A1 (en) * 2011-10-10 2013-04-18 Koninklijke Philips Electronics N.V. Depth map processing
CN102333234B (zh) * 2011-10-28 2014-04-23 清华大学 一种双目立体视频状态信息的监测方法及装置
CN102509294B (zh) * 2011-11-08 2013-09-25 清华大学深圳研究生院 一种基于单幅图像的全局深度估计方法
US20130129195A1 (en) * 2011-11-17 2013-05-23 Industrial Technology Research Institute Image processing method and apparatus using the same
US8605993B2 (en) * 2011-11-21 2013-12-10 Robo-team Ltd. Methods and systems of merging depth data from a plurality of disparity maps
EP2786580B1 (en) 2011-11-30 2015-12-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Spatio-temporal disparity-map smoothing by joint multilateral filtering
US9571810B2 (en) * 2011-12-23 2017-02-14 Mediatek Inc. Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing
WO2013113373A1 (en) * 2012-01-31 2013-08-08 Sony Ericsson Mobile Communications Ab Method and electronic device for creating a combined image
US9558575B2 (en) 2012-02-28 2017-01-31 Blackberry Limited Methods and devices for selecting objects in images
JP5987899B2 (ja) * 2012-03-30 2016-09-07 富士通株式会社 生成装置、生成プログラムおよび生成方法
CN104169965B (zh) * 2012-04-02 2018-07-03 英特尔公司 用于多拍摄装置系统中图像变形参数的运行时调整的系统、方法和计算机程序产品
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US9571818B2 (en) * 2012-06-07 2017-02-14 Nvidia Corporation Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device
JP5493155B2 (ja) * 2012-09-06 2014-05-14 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
JP2014096062A (ja) * 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
US8867826B2 (en) * 2012-11-26 2014-10-21 Mitusbishi Electric Research Laboratories, Inc. Disparity estimation for misaligned stereo image pairs
EP2806401A1 (en) 2013-05-23 2014-11-26 Thomson Licensing Method and device for processing a picture
US9460543B2 (en) 2013-05-31 2016-10-04 Intel Corporation Techniques for stereo three dimensional image mapping
JP6285686B2 (ja) * 2013-06-12 2018-02-28 日本放送協会 視差画像生成装置
IN2013CH05313A (ja) * 2013-11-18 2015-05-29 Nokia Corp
US9390508B2 (en) 2014-03-03 2016-07-12 Nokia Technologies Oy Method, apparatus and computer program product for disparity map estimation of stereo images
US9756312B2 (en) 2014-05-01 2017-09-05 Ecole polytechnique fédérale de Lausanne (EPFL) Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware
EP2950269A1 (en) * 2014-05-27 2015-12-02 Thomson Licensing Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing
TWI558167B (zh) * 2014-12-30 2016-11-11 友達光電股份有限公司 立體影像顯示系統與顯示方法
WO2016146180A1 (en) * 2015-03-18 2016-09-22 Huawei Technologies Co., Ltd. Image processing device and method for color balancing
JP6570296B2 (ja) * 2015-04-09 2019-09-04 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10051263B2 (en) * 2015-11-23 2018-08-14 Center For Integrated Smart Sensors Foundation Multi-aperture camera system using scan line processing
RU2623806C1 (ru) * 2016-06-07 2017-06-29 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Способ и устройство обработки стереоизображений
US10366501B2 (en) * 2016-11-07 2019-07-30 The Boeing Company Method and apparatus for performing background image registration
CN110889851B (zh) * 2018-09-11 2023-08-01 苹果公司 针对深度和视差估计的语义分割的稳健用途
KR102606824B1 (ko) * 2018-12-14 2023-11-27 삼성전자주식회사 멀티 카메라를 포함하는 장치 및 이의 이미지 처리방법
CN111383254A (zh) * 2018-12-29 2020-07-07 Tcl集团股份有限公司 一种深度信息获取方法、系统及终端设备
CN109903379A (zh) * 2019-03-05 2019-06-18 电子科技大学 一种基于点云优化采样的三维重建方法
US11508079B2 (en) * 2019-06-28 2022-11-22 Intel Corporation Parallelism in disparity map generation
CN111524075B (zh) * 2020-03-26 2023-08-22 北京迈格威科技有限公司 深度图像滤波方法、图像合成方法、装置、设备及介质
CN111553850B (zh) * 2020-03-30 2023-10-24 深圳一清创新科技有限公司 基于双目立体视觉的三维信息获取方法和装置
US11430143B2 (en) * 2020-06-10 2022-08-30 Uveye Ltd. System of depth estimation and method thereof

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61286979A (ja) 1985-06-14 1986-12-17 Hitachi Ltd ステレオ視覚システム
JP2681941B2 (ja) 1987-09-14 1997-11-26 ソニー株式会社 画像処理装置
GB2262854B (en) 1991-12-24 1995-05-24 Sony Broadcast & Communication Image processing apparatus
JPH06259547A (ja) 1993-03-03 1994-09-16 Toshiba Corp 画像処理方法および装置
US6046763A (en) 1997-04-11 2000-04-04 Nec Research Institute, Inc. Maximum flow method for stereo correspondence
KR20000068660A (ko) * 1997-07-29 2000-11-25 요트.게.아. 롤페즈 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
US6466208B1 (en) * 1999-12-20 2002-10-15 Silicon Integrated Systems Corporation Apparatus and method for adjusting 3D stereo video transformation
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
WO2002005544A1 (fr) 2000-07-06 2002-01-17 Seiko Epson Corporation Procede de traitement d'image, support d'enregistrement, et dispositif de traitement d'image
JP4536231B2 (ja) 2000-08-29 2010-09-01 オリンパス株式会社 撮像装置
JP2003061105A (ja) 2001-06-07 2003-02-28 Seiko Epson Corp 画像処理方法、画像処理プログラム、画像処理装置およびそれを用いたディジタルスチルカメラ
US6847728B2 (en) 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
JP4042563B2 (ja) * 2002-12-27 2008-02-06 セイコーエプソン株式会社 画像ノイズの低減
US7324687B2 (en) 2004-06-28 2008-01-29 Microsoft Corporation Color segmentation-based stereo 3D reconstruction system and process
JP2006033346A (ja) 2004-07-15 2006-02-02 Mitsubishi Electric Corp 着脱型撮像装置
EP1777435A4 (en) 2004-08-02 2010-11-10 Sekisui Chemical Co Ltd CUSHIONING MATERIAL
ATE540375T1 (de) * 2004-09-09 2012-01-15 Silicon Optix Inc System und verfahren zum repräsentieren einer allgemeinen zweidimensionalen räumlichen transformation
JP4701848B2 (ja) 2005-06-13 2011-06-15 日本電気株式会社 画像マッチング装置、画像マッチング方法および画像マッチング用プログラム
US7586489B2 (en) * 2005-08-01 2009-09-08 Nvidia Corporation Method of generating surface defined by boundary of three-dimensional point cloud
KR100727033B1 (ko) * 2005-12-07 2007-06-12 한국전자통신연구원 네트워크 기반 지능형 서비스 로봇의 비전 처리 장치 및방법과 이를 이용한 시스템

Also Published As

Publication number Publication date
EP2213102A1 (en) 2010-08-04
CN101960860A (zh) 2011-01-26
CA2704479A1 (en) 2009-05-14
EP2213102B1 (en) 2012-02-22
JP2011504262A (ja) 2011-02-03
ATE546951T1 (de) 2012-03-15
CN101960860B (zh) 2013-06-26
CA2704479C (en) 2016-01-05
WO2009061305A1 (en) 2009-05-14
US20110044531A1 (en) 2011-02-24
US8411934B2 (en) 2013-04-02

Similar Documents

Publication Publication Date Title
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
KR101518531B1 (ko) 스테레오스코픽 모션 픽쳐들의 잠재적인 아이스트레인을 측정하기 위한 시스템 및 방법
JP5425897B2 (ja) 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
JP5160643B2 (ja) 2次元画像からの3次元オブジェクト認識システム及び方法
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
CA2650557C (en) System and method for three-dimensional object reconstruction from two-dimensional images
US8750600B2 (en) Apparatus and method for generating three-dimensional (3D) zoom image of stereo camera
Angot et al. A 2D to 3D video and image conversion technique based on a bilateral filter
Wang et al. Image domain warping for stereoscopic 3D applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120322

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees