JP4740657B2 - カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス - Google Patents

カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス Download PDF

Info

Publication number
JP4740657B2
JP4740657B2 JP2005180926A JP2005180926A JP4740657B2 JP 4740657 B2 JP4740657 B2 JP 4740657B2 JP 2005180926 A JP2005180926 A JP 2005180926A JP 2005180926 A JP2005180926 A JP 2005180926A JP 4740657 B2 JP4740657 B2 JP 4740657B2
Authority
JP
Japan
Prior art keywords
disparity
image
segment
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005180926A
Other languages
English (en)
Other versions
JP2006012166A5 (ja
JP2006012166A (ja
Inventor
ジトニック ザ サード チャールズ
オイテンダール マシュー
スリスキ リチャード
ウインダー サイモン
ビング カン シング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006012166A publication Critical patent/JP2006012166A/ja
Publication of JP2006012166A5 publication Critical patent/JP2006012166A5/ja
Application granted granted Critical
Publication of JP4740657B2 publication Critical patent/JP4740657B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、複数の画像を使用した、シーン(場面、情景)の3次元再構成に関し、より詳細には、カラーセグメンテーションに基づく手法を使用して3次元再構成を計算するためのシステムおよびプロセスに関する。
ステレオ再構成は一般に、様々な視点から取られた複数の画像を使用して画像中に描かれたシーンの3次元モデルを再構成することを含む。一般に、この再構成には、(しばしば各画像ごとに)奥行マップ(depth map)を復元して画像間の対応する画素を特定することが必要になる。このような再構成画像は様々な目的に使用される。例えば、立体から得られた奥行マップは、バーチャルリアリティおよびバーチャルスタジオアプリケーションのための現実感のある3次元シーンおよび環境を生成するために、入力画像から抽出されたテクスチャマップ(texture map)と一体化される。同様に、これらのマップは、ビデオ処理アプリケーションにおける動き補償予測にも使用される。さらに、復元された奥行マップおよびその相当物は、他の視点に関連する画像を使用して任意の視点からのシーンの「仮想」ビューを生成するために、ビュー補間の目的でも使用される。
残念なことに、今日のアルゴリズムの品質および解像度はほとんど、これらのアプリケーションで要求される品質および解像度をかなり下回っている。例えば、従来のステレオアルゴリズムは、ディスパリティー(disparity:両眼視の際、物体の左右の網膜での像の二つの対応点からのずれ)が不連続になるあたりで誤った結果を生ずる傾向がある。残念なことに、ディスパリティーの不連続は一般に輝度エッジと一致するので、このような誤りにより、補間されたシーンにおいて、最も目立つアーチファクト(artifact:不自然な結果)のいくつかが生成される。この理由で、ビュー補間のためのステレオアルゴリズムでは、ディスパリティー不連続を含む輝度エッジのまわりで画素を正しくマッチさせる必要がある。
最近、セグメンテーションに基づくステレオと呼ばれる、ステレオビジョンに対する新しい方式が提案されている。これらの方法は、ステレオ計算の前に、画像を、類似したディスパリティーまたは平滑なディスパリティーを持つと思われる領域にセグメント化する。次に、各セグメントに対して、平滑性制約(smoothness constraint)が課される。Tao他は、非特許文献2において平面的な制約(planar constraint)を使用したが、ZhangおよびKambuhamettuは、非特許文献3においてローカルサポート(local support)のためのセグメントを使用した。これらの方法は、ディスパリティー不連続を正確に取り扱う上で、非常に望ましい結果を示すものである。
先行のパラグラフ、および本明細書の残りのパラグラフの記述において、一組のブラケットに囲まれた数値指示子によって特定される様々な個別の出版物を参照していることに留意されたい。このような参照は、例えば「非特許文献1」と記載することにより特定することができる。複数の参照は、例えば[非特許文献2、3]のように、複数の指示子を含む一組のブラケットによって特定される。各特定子に対応する出版物を含む各参照のリストは、「発明を実施するための最良の形態」セクションの最後に記載されている。
Scharstein, D., and Szeliski, R. 2002. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International Journal of Computer Vision 47, 1 (May), 7-42 Tao, H., Sawhney, H., and Kumar, R. 2001. A global matching framework for stereo computation. In Eighth International Con-ference on Computer Vision (ICGV 2001), vol. I, 532-539 Zhang,Y., and Kambhamettu, C. 2001. On 3D scene flow and structure estimation. In Conference on Computer Vision and Pattern Recognition (CVPR'2001), vol. II, 778-785
本発明は、あるシーンの3次元再構成を、様々な視点からキャプチャ(捕獲、捕捉)された複数のオーバラップする画像から計算するためのシステムおよびプロセスを提供することを目指している。
この3次元再構成システムおよびプロセスは、前述のセグメンテーションに基づく手法を使用するが、従来の成果を改善したものである。すなわち、セグメント内部のディスパリティーは平滑でなければならないが、平面的である必要はなく、また、各画像は同等に扱われ(すなわち、参照用画像はなく)、遮蔽(occlusion)は明示的にモデル化され、ディスパリティーマップの整合性が高められる。
より詳細には、本発明によって3次元再構成を計算するシステムおよびプロセスは、最初に、各画像を、その画素が類似したディスパリティーを示すと思われる各セグメントに分割することを含む。次に、各画像の各セグメントごとに、ディスパリティー空間分布(DSD)が計算される。このDSDは、あるセグメントを形成する画素が、一組のディスパリティー候補の各々に対して個々のディスパリティーを示す尤度(likelihood)を表す一組の確率推定値である。各画像の各セグメントのDSDにおける最大確率に対応するディスパリティーが各セグメントの各画素に割り当てられる。次に、各画像ごとに、各画素に割り当てられたディスパリティーは、そのシーンの同一部分を表す他の画像の対応する画素のディスパリティーに基づいて平滑化され、次いで、各画像の同一セグメント内の隣接する画素のディスパリティーに基づいて平滑化される。平滑操作の結果として得られるのは、再構成を生成するために使用される一群の画像の、各画像ごとのディスパリティーマップである(再構成アプリケーションが画素ごとの奥行マップを要求している場合は、ディスパリティーマップを順に使用して、奥行マップを計算することができる)。
画像の前述のセグメンテーションは、本発明の一実施形態では、最初に、検討中の画像の各画素をそれぞれのセグメントに割り当てることによって実施される。次に、各画素ごとに、順次所定の順番(例えば、ラスター順)で、セグメントの平均色と検討中の画素の色の差が所定の閾値未満である場合には、所定の数の隣接する画素(例えば、4連結隣接画素(4−connected neighbors))が、検討中の画素に関連するセグメントに再割り当てされる。次に、画像中の各セグメントごとに、そのセグメントの領域が、所定の画素数(例えば、領域中に100画素)未満であるかどうかが判定される。あるセグメントの領域が、所定の画素数未満であることが分かった場合には、そのセグメントの画素は、検討中のセグメントの平均色に近い平均色を有する隣接セグメントに再割り当てされる。その後、各セグメントの幅が所定の画素数(例えば、40画素)より広いかどうかが判定され、広い場合には、そのセグメントを、水平方向に必要な数の均等なセグメントに分割して、新しいより幅の狭いセグメントの幅が所定の画素数を超えないことを保証する。各セグメントの幅が処理された後で、同様にして、現在の各セグメントの高さが所定の画素数(例えば、40画素)より高いかどうかが判定され、高い場合には、そのセグメントを垂直方向に必要な数の均等なセグメントに分割して、新しい背の低い各セグメントの高さが所定の画素数を超えないことを保証する。
前述の画像のセグメンテーションの前に、各画像の隣接画素間の色差が平滑化されている場合には、改善された結果が得られることに留意されたい。本発明の一実施形態においては、このために、以下の平滑化技術を、各画素ごとにラスター順に使用する必要がある。すなわち、検討中の画素に隣接する、所定の数(例えば、3)の連続する画素の各可能なグループを順に選択し、選択されたグループの各画素ごとに、選択されたグループの各画素の色の光強度を、検討中の画素の色の光強度から減算する。結果として得られた差の2乗値を加算して、選択されたグループの総差を生成する。次いで、最小の総差を示す画素のグループが特定され、特定されたグループの各画素の色と検討中の画素の色が平均化される。次に、結果として得られた平均色が、現在の色として検討中の画素に割り当てられる。前述の色平滑化手順を所定の回数だけ繰り返して、セグメンテーションの結果をさらに改善することができることに留意されたい。
前述のDSDの計算は、本発明の一実施形態では、最初に各画像の各セグメントごとの初期ディスパリティー空間分布(DSD)を計算し、次いで、同一画像内の隣接セグメントとの間の平滑性制約と、そのシーンの同一の部分を描写する他の画像の対応するセグメントとの間の一貫性制約を同時に実施してその初期推定値を改良することによって達成される。その結果、改良されたDSDが得られる。
DSDの計算ができるようになる前に、各々が一意のディスパリティーに対応する一組の奥行を計算する必要がある。まず、中央の視点を表す画像をキャプチャするために使用されるカメラの光学的中心が、ワールド座標系の原点に選ばれる。z軸または奥行軸を、カメラの向きに合わせる。次いで、以下の方法を用いて奥行値を計算する。中央のカメラの画像の中心画素を、ユーザによって指定された最小の奥行で隣接画像に投影(project; 描出ともいう)する。次に、その同一画素の投影が、前の投影から正確に1画素または1ディスパリティーの距離に存在するように、そのセットに新しい奥行値を追加する。新しい奥行は、その奥行値が、ユーザ指定の最大奥行を越えるまで追加される。結果として得られるディスパリティー候補の範囲におけるディスパリティーの数は、前述の方法で見つけられた奥行値の数に等しくなるように設定される。
奥行が計算された後で、各画像の各セグメントごとの初期DSDは、以下のように計算することができる。まず、ディスパリティーが選択される。次いで、検討中の画像の隣接画像が選択される。次に、検討中のセグメントの各画素が、選択されたディスパリティーに関する奥行を使用して、選択された隣接画像に投影され、隣接画像中の対応する画素が特定される。対応する画素が見つかった場合には、投影された画素と特定された隣接画像中の画素とに関する1つまたは複数の所定の利得(gain: 相対輝度)の比が計算される。例えば、これには、濃度レベル光強度利得だけを含めることができ、その場合は、単一の比が使用される。あるいは、各色成分に関する利得を含めることができ、その場合は、複数の利得が使用される。セグメント中のすべての画素が検討された後で、画素利得比ヒストグラムが生成される。このヒストグラムは、その3つの連続するビン(bin)の最大の和を計算するために使用される。この和は、検討中のセグメントと選択された隣接画像との、そのセグメントの投影に関するそのディスパリティーでのマッチングスコアとして指定される。
次に、前述の手順は、残りの各隣接画像に対して繰り返される。次いで、各隣接画像に対するディスパリティー候補の前述の範囲における残りの各ディスパリティーで繰り返されて、各隣接画像の各ディスパリティー候補についてのマッチングスコアが生成される。この時点で、検討中のディスパリティー候補ですべての隣接画像に関して計算されたマッチングスコアの積が、あらゆるディスパリティー候補ですべての隣接画像に関して計算されたマッチングスコアの積の総和で除算されて、各ディスパリティー候補ごとに、そのディスパリティーの初期DSD確率が生成される。
初期DSD確率についての前述の精緻化は、各画像の各セグメントごとに次式を使用して計算することができる。
Figure 0004740657
上式で、pij(d)はセグメントsijのディスパリティーdに関して精緻化されたディスパリティー確率を表し、lij(d)は平滑性制約を実施する関数、cijk(d)は隣接画像のグループN中の各隣接画像との一貫性(consistency)制約を実施する関数、d’は確率値が関連付けられたすべてのディスパリティーを表す。この方法は、各画像にわたる精緻化が所定の回数(例えば、50〜60回)繰り返されるという意味で繰り返し手法である。
先に述べたように、DSD確率を使用して、各画像の各セグメントの各画素ごとのディスパリティーを確定することができる。これを実施する上で、セグメント内のすべての画素が同一のディスパリティーを有するものと想定する。しかし、より正確な結果は、この要件を緩和し、画素ごとのディスパリティーをセグメント内部で変更できるようにすることによって達成できる。ディスパリティーの変更は、そのシーンの同一の部分を描写する他の画像の対応する画素のディスパリティー、および各画像の同一セグメント内の隣接画素のディスパリティーに基づいて行う。このディスパリティー平滑化プロセスは、本発明の一実施形態においては、検討中の画像に対する各隣接画像ごとに、まず検討中の画素を隣接画像に投影し、投影された画素に対応する隣接画像中の画素を特定し、次いで投影された画素と対応する画素のディスパリティーを平均化することを含む。この平均は、検討中の画素に現在割り当てられているディスパリティーと隣接画像中の対応する画素に割り当てられているディスパリティーの差の絶対値が所定のディスパリティーレベル数(例えば、4レベル)未満の場合はいつでも、関係する隣接画像に関するディスパリティー因数として検討中の画素に割り当てられる。それ以外の場合には、検討中の画素のディスパリティーが、関係する隣接画像に関するディスパリティー因数として割り当てられる。各隣接画像に関して、検討中の画素に割り当てられたディスパリティー因数は加算され、次いで関係する隣接画像の数で除算される。次に、この計算の結果は、検討中の画素に、その現在のディスパリティーとして割り当てられる。
画像間平滑化が完了すると、画像内平滑化手順を実施することができる。この手順では、各画像の各セグメントの各画素ごとに、検討中の画素を中心にした所定のサイズの窓(例えば、5×5の窓)内の、検討中のセグメントの外部にはない各画素に現在割り当てられているディスパリティーを平均化することが必要になる。次に、結果として得られた平均ディスパリティーが、最終ディスパリティーとして検討中の画素に割り当てられる。
次に、前述の平滑化手順を所定の回数繰り返す。例えば、実験(テスト)した実施形態では、平滑化手順は10から20回の間で繰り返される。
これまでに説明した利点に加えて、以下の詳細な説明を添付の図面と併せて読むことにより、本発明の他の利点も明らかになるであろう。
本発明の詳細な特徴、態様、および利点は、以下の説明、添付の特許請求の範囲、および添付の図面によって、より良く理解できるようになるであろう。
本発明の好ましい実施形態に関する以下の説明では、添付の図面を参照するが、これらの図面は本明細書の一部をなすものであり、本発明を実施することができる詳細な実施形態を例示として示すものである。他の実施形態も使用できること、および本発明の範囲を逸脱することなく構造的な変更を実施し得ることを理解されたい。
1.0 コンピュータ環境
本発明の好ましい実施形態についての説明を実施する前に、本発明を実装することができる適切なコンピュータ環境について一般的な説明を行う。図1は、適切なコンピュータシステム環境100の一例を示す。コンピュータシステム環境100は、適切なコンピュータ環境の一例に過ぎず、本発明の使用または機能の範囲に関して、いかなる制限を加えることを意図したものでもない。コンピュータ環境100が、典型的な動作環境100に示されたコンポーネントのいずれか、あるいはそれらの組合せに関して、どのような依存性も要件も有していないことを理解されたい。
本発明は、他の多くの汎用または専用コンピュータシステム環境または構成とともに使用することができる。本発明とともに使用するのに適した、周知のコンピュータシステム、環境、および/または構成の例には、これに限定されるものではないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップ装置、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブル家庭電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記の任意のシステムもしくは装置を含む分散コンピュータ環境などがある。
本発明は、コンピュータによって実行されるコンピュータ実行可能な命令、例えばプログラムモジュールなどの一般的なコンテクストで説明することができる。一般に、プログラムモジュールには、特定のタスクを実行するかまたは特定の抽象データ型を実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。本発明は、分散コンピュータ環境でも実施することができる。その場合、各タスクは通信ネットワークによってリンクされたリモート処理装置によって実施することができる。分散コンピュータ環境においては、プログラムモジュールは、ローカルおよびリモートの両方のコンピュータ記憶媒体、例えばメモリ記憶装置に配置することができる。
図1を参照すると、本発明を実装するための典型的システムには、コンピュータ110のような形の汎用コンピュータ装置が含まれる。コンピュータ110の各コンポーネントには、これに限定されるものではないが、処理ユニット120、システムメモリ130、システムバス121などが含まれる。システムバスは、システムメモリなど様々なシステムコンポーネントを処理ユニット120に結合する。システムバス121は、メモリバスまたはメモリコントローラ、周辺バス、様々なバスアーキテクチャのいずれかを使用するローカルバスなど、いくつかの種類のバスアーキテクチャのいずれであってもよい。例として、このようなアーキテクチャには、これに限定されるものではないが、ISA(Industry Standard Architecture)バス、MCA(Micro Channel Architecture)バス、EISA(Enhanced ISA)バス、VESA(Video Electronics Standards Association)バス、メザニン(Mezzanine)バスとも呼ばれるPCI(Peripheral Component Interconnect)バスなどが含まれる。
一般に、コンピュータ110は、様々なコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピュータ110によってアクセス可能な任意の使用可能媒体であってよく、揮発性および不揮発性媒体、取外し可能および取外し不能媒体の両方を含む。限定の意味ではなく、例として、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。コンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、その他のデータなどの情報を記憶するための任意の方法または技術で実装された、揮発性および不揮発性、取外し可能および取外し不能の媒体を含む。コンピュータ記憶媒体は、これに限定されるものではないが、RAM、ROM、EEPROM、フラッシュメモリなどのメモリ技術製品、CD−ROM、DVD(digital versatile disks)などの光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置などの磁気記憶装置、その他、所望の情報の格納に使用でき、またコンピュータ110がアクセスできる任意の媒体を含む。一般に通信媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、その他のデータなどを、搬送波もしくは他の伝送機構など変調されたデータ信号の形で実施するとともに、いずれかの情報送達媒体を含む。「変調されたデータ信号」という用語は、信号中の情報がコード化されるような方法で設定または変更された、1つまたは複数の信号特性を有する信号を意味する。限定の意味ではなく例として、通信媒体は、有線ネットワーク、直接有線接続などの有線媒体、および、音響、RF、赤外などの無線媒体を含む。上記の媒体の任意の組合せもまた、コンピュータ可読媒体の範囲に含まれるものとする。
システムメモリ130は、ROM(読み出し専用メモリ)131、RAM(ランダムアクセスメモリ)132など、揮発性および/または不揮発性メモリの形のコンピュータ記憶媒体を含む。基本入/出力システム(BIOS)133は、例えば起動時などに、コンピュータ110内の各要素間での情報転送を支援する基本ルーチンを含み、通常はROM131に格納されている。RAM132は一般に、処理ユニット120によって即時にアクセス可能なかつ/または現在動作中の、データおよび/またはプログラムモジュールを含む。限定の意味ではなく、例として、図1には、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137が示されている。
コンピュータ110は、他の取外し可能/取外し不能、揮発性/不揮発性のコンピュータ記憶媒体を含むこともできる。例示の意味で、図1には、取外し不能な不揮発性の磁気媒体に読み書きするハードディスクドライブ141、取外し可能な不揮発性磁気ディスク152に読み書きする磁気ディスクドライブ151、ならびにCD−ROM、その他の光媒体など、取外し可能な不揮発性光ディスク156に読み書きする光ディスクドライブ155が示されている。典型的な動作環境で使用できる、他の取外し可能/取外し不能、揮発性/不揮発性の記憶媒体には、これには限定されるものではないが、磁気テープカセット、フラッシュメモリカード、DVD、デジタルビデオテープ、半導体RAM、半導体ROMなどがある。ハードディスクドライブ141は一般に、インターフェース140などの取外し不能なメモリインターフェースを介してシステムバス121に接続され、磁気ディスクドライブ151および光ディスクドライブ155は一般に、インターフェース150など、取外し可能なメモリインターフェースを介してシステムバス121に接続される。
図1に示し上で説明した、各ドライブおよびそれに関連するコンピュータ記憶媒体は、コンピュータ110のためのコンピュータ可読命令、データ構造、プログラムモジュール、その他のデータなどを記憶する。図1において、例えば、ハードディスクドライブ141は、オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147を格納するように図示されている。これらの各コンポーネントは、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137と同一であっても、異なっていてもよいことに留意されたい。オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147は、少なくともそれらが、異なるコピーであってもよいことを示すために、本明細書では異なる番号が付与されている。ユーザは、入力装置、例えばキーボード162、およびポインティング装置161などを介して、コンピュータ110に命令または情報を入力することができる。また、ポインティング装置は一般に、マウス、トラックボール、タッチパッドを意味する。他の入力装置(図示せず)には、マイクロホン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナなどがある。これらおよび他の入力装置は、システムバス121に結合されたユーザ入力インターフェース160を介して処理ユニット120に接続されることが多い。しかし、パラレルポート、ゲームポート、USB(universal serial bus)など、他のインターフェースおよびバス構造を用いて接続することもできる。モニタ191、または他の種類の表示装置もまた、ビデオインターフェース190などのインターフェースを介してシステムバス121に接続される。モニタの他に、コンピュータは、スピーカ197、プリンタ196など出力周辺インターフェース195を介して接続される他の周辺出力装置を含むこともできる。本発明に関して特に重要なのは、一連の画像193をキャプチャすることができるカメラ192(デジタル/電子スチルカメラまたはビデオカメラ、あるいはフィルム/写真スキャナなど)を、パーソナルコンピュータ110への入力装置として含めることができることである。さらに、カメラは1台だけしか描かれていないが、複数台のカメラをパーソナルコンピュータ110への入力装置として含めることもできる。1台または複数台のカメラからの画像193は、適切なカメラインターフェース194を介してコンピュータ110に入力することができる。このインターフェース194はシステムバス121に接続され、それにより各画像を、RAM132、またはコンピュータ110に関連する他のデータ記憶装置の1つに送り、格納することができる。しかし、画像データは、カメラ192の使用を必要とせずに、前述のいずれかのコンピュータ可読媒体からも同様に、コンピュータ110に入力できることに留意されたい。
コンピュータ110は、リモートコンピュータ180など1つまたは複数のリモートコンピュータへの論理接続を使用してネットワーク環境で動作させることができる。リモートコンピュータ180は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピア装置、他の共用ネットワークノードなどであってもよい。また、リモートコンピュータ180は一般に、図1にはメモリ記憶装置181だけが示されているが、コンピュータ110に関連して上で説明した要素の多く、またはそのすべてを含むことができる。図1に示された論理接続は、LAN(ローカルエリアネットワーク)171およびWAN(ワイドエリアネットワーク)173を含むが、他のネットワークを含むこともできる。このようなネットワーク環境は、オフィス、企業規模のコンピュータネットワーク、イントラネット、インターネットなどでは一般的なものである。
LANネットワーク環境で使用されるとき、コンピュータ110は、ネットワークインターフェースまたはアダプタ170を介してLAN171に接続される。WANネットワーク環境で使用されるとき、コンピュータ110は一般に、インターネットなどのWAN173を介して通信を確立するためのモデム172、その他の手段を含む。モデム172は、内蔵でも外付けでもよいが、ユーザ入力インターフェース160または他の適切な機構を介してシステムバス121に接続することができる。ネットワーク環境では、コンピュータ110に関連して示された各プログラムモジュール、またはその一部を、リモートのメモリ記憶装置に格納することができる。限定の意味ではなく例示として、図1には、リモートのアプリケーションプログラム185が、メモリ装置181上に常駐するように示されている。図示されたネットワーク環境が典型的なものであり、コンピュータ間の通信リンクを確立する他の手段を使用することもできることを理解されたい。
2.0 セグメンテーションに基づく3次元再構成システムおよびプロセス
ここまで典型的な動作環境について論じてきた。このセクションの残りの部分は、本発明を実施するプログラムモジュールの説明に充てる。一般に、本発明によるシステムおよびプロセスは、あるシーンの複数の画像からそのシーンの3次元再構成を計算することを含む。各画像は、様々な視点からキャプチャされ、各々そのシーンのある領域を描写し、少なくとも1枚の他の画像と所定の量(例えば、60〜100%)だけオーバラップしている。複数の画像は、それらがすべて同時にキャプチャされる場合は、動的なシーンの画像であっても良い。その目的で、異なる視点に置かれた複数のカメラを使用することができる。さらに、複数の画像は、異なる視点に置かれた一連のビデオカメラによって生成された、一群の同時にキャプチャされたフレームの形を取ることもできることに留意されたい。これらの画像は静的なシーンの画像であっても良い。その場合には、前と同様に、異なる視点に置かれた一連のカメラを使用することもできるが、シーンが変化しないので、単一のカメラを視点から視点に移動させて複数の画像をキャプチャすることもできる。
図2の流れ図を参照すると、一般に、本発明の3次元再構成技術は、以下のように達成される。最初に、各画像が独立にセグメント化される(プロセスアクション200)。次に、あるセグメント内のすべての画素が同一のディスパリティーを有するという想定を使用して、各セグメントごとに初期ディスパリティー空間分布(DSD)を計算する(プロセスアクション202)。次いで、各セグメントのDSDが、隣接セグメントおよびそのセグメントの他の画像への投影を用いて精緻化される(プロセスアクション204)。次に、各セグメントが単一のディスパリティーを持つという想定が、画素ディスパリティー平滑化ステージで緩和されて、各画像ごとのディスパリティーマップが生成される(プロセスアクション206)。
次に、前述のプロセスアクションの各々を、以下のセクションで、より詳細に説明する。
2.1 セグメンテーション
セグメンテーションの目標は、各画像を同様のディスパリティーを含むと思われる領域に分割することである。これらの領域またはセグメントは、各セグメントが様々なディスパリティーの領域をカバーする機会を最小にしながらも、ローカルサポートを増大させるために可能な限り大きく取る必要がある。このようなセグメントを生成する際には、一般に同種の色の領域は平滑なディスパリティーを有する、すなわち、一般にディスパリティーの不連続は光強度エッジに一致することが想定される。
本発明のセグメンテーション手順は2つのフェーズを有する。まず、異方性拡散(anisotropic diffusion)の変形を使用して、複数の各画像が平滑化される。次に、隣接する色値に基づいて、各画像がセグメント化される。
セグメンテーションの前に平滑化を行う目的は、可能な限り多くの画像ノイズを除去して、より一貫性のあるセグメントを生成することである。光強度エッジに沿った細いセグメントの数を減らすことも望ましい。一般に、本発明の平滑化手順では、3つの連続する隣接画素を用いて、画素が繰り返し平均化される。平均化に使用される画素の組は、色において、どの画素が、中心画素との間で最小の2乗差を有するかによって決定される。周知の異方性拡散およびバイラテラル(bilateral;二者間の)フィルタリングアルゴリズムのこの単純化された変形アルゴリズムは、本アプリケーションに良好な結果をもたらす。
より詳細には、図3の流れ図を参照すると、検討中の画像に対して、各画素がラスター順に選択される(プロセスアクション300)。画素が選択された後で、(図4の黒い画素で示された)3つの隣接する画素からなる各グループが順に選択される(プロセスアクション302)。各グループがどの順番で選択されるか、および選択された画素が隅部または端部の画素であるかどうかには関係なく、実際に存在する隣接画素グループだけが検討される。3画素からなる選択されたグループの各色成分が、選択された画素の対応する値から減算される(プロセスアクション304)。次に、結果として得られた差の2乗値を加算して、選択されたグループの総差を生成する(プロセスアクション306)。次いで、存在するすべての3画素グループが検討されたかどうかが判定される(プロセスアクション308)。すべてのグループが検討されていない場合は、プロセスアクション302から308が繰り返される。すべての画素グループが検討済みの場合は、プロセスアクション310で、差の2乗の総和が最小になるグループが平均化のために指定される。次に、指定されたグループの各画素および選択された画素の色が平均され(プロセスアクション312)、その結果が、選択された画素の新しい色として割り当てられる(プロセスアクション314)。次いで、画像中のすべての画素が選択されたかどうかが判定される(プロセスアクション316)。すべての画素が選択されていない場合は、プロセスアクション300から316が繰り返される。すべての画素が選択済みの場合は、平滑化手順の現在の繰り返しが終了する。
前述の平滑化手順は、所定の回数だけ繰り返される。任意の回数で繰り返すことができるが、本セグメンテーションプロセスについて実験した実施形態では、平滑化手順の8回の繰り返しで良好な結果が得られることが判明している。
前記の平滑化手順について実験した実施形態では、3つの隣接画素からなるグループ(すなわち、3×3の窓)を使用したが、より大きい窓を使用しても、同様に好ましい結果が得られることに留意されたい。例えば、5つの隣接画素からなるグループ(すなわち、5×5の窓)を使用することもできる。
平滑化の後で、セグメント化フェーズが始まる。本発明の一実施形態によれば、このフェーズは、関係する複数の各画像ごとに、図5A〜図5Cの流れ図に概説されるような方法で達成される。最初に、検討中の画像の各画素がそれぞれのセグメントに割り当てられる(プロセスアクション500)。次いで、各画素が、所定の順序で順次選択される(プロセスアクション502)。例えば、実験した実施形態では、ラスター順を使用した。そのセグメントの平均色と選択された画素の色が、ある所定の閾値未満で異なっている場合は、隣接する4連結セグメント(画素)が、(すでにそのセグメントに含まれていない場合は、)選択された画素に割り当てられているセグメントに併合(すなわち、再割り当て)される(プロセスアクション504)。隅部および端部の画素については、実際に存在する「4連結」画素だけが検討される。次に、未選択の画素が残っているかどうかが判定される(プロセスアクション506)。残っている場合は、すべての画素が検討されるまで、プロセスアクションの502から506が繰り返される。すべての画素が検討された後で、まだ選択されていないセグメントが選択され(プロセスアクション508)、プロセスアクション510で、選択されたセグメントの領域が所定の画素数(例えば、実験した実施形態では100)未満かどうかが判定される。選択されたセグメントの領域が、所定の画素数以上であった場合は何のアクションも取らない。一方、所定の数未満であることが判明した場合には、そのセグメントは、最も類似した平均色を有するいずれかの隣接セグメントと併合される(プロセスアクション512)。言い換えると、選択されたセグメントの画素は、選択されたセグメントの平均色に最も近い平均色を有する隣接セグメントに再割り当てされる。次に、未選択のセグメントが残っているかどうかが判定される(プロセスアクション514)。残っている場合は、すべてのセグメントが選択され処理されるまで、プロセスアクション508から514が繰り返される。
同種の色の大きな領域には、様々なディスパリティーが存在する尤度があることに留意されたい。この尤度を検討するために、各セグメントは、幅と高さの両方で所定のサイズに制限される。より詳細には、図5B〜図5Cを参照すると、プロセスは再度セグメントの1つを選択するステップに続く(プロセスアクション516)。次いで、選択されたセグメントの幅が、所定の画素数を超えているかどうかが判定される(プロセスアクション518)。例えば、実験した実施形態では、所定の画素数は40であった。選択されたセグメントの幅が所定の画素数以下の場合は、何のアクションも取らない。一方、選択されたセグメントの幅が、所定の画素数を超えている場合には、そのセグメントを水平方向に、必要な数の均等なセグメントに分割して、新しいより狭い幅の各セグメントが、幅方向の所定の最大画素数を超えないことを保証する(プロセスアクション520)。このことは、選択されたセグメントの各画素を、適切な新しい細いセグメントに再割り当てすることによって達成される。次に、幅に関してすべてのセグメントが検討されたかどうかが判定される(プロセスアクション522)。すべてのセグメントが検討されていない場合は、プロセスアクション516から522が繰り返される。一方、すべてのセグメントが検討済みの場合は、セグメント高さに関する分割手順が繰り返される。より詳細には、まずセグメントが選択される(プロセスアクション524)。この選択されるセグメントは、セグメント幅分割手順によって生成された、新しく生成されたセグメントの1つであっても良い。次に、プロセスアクション526で、選択されたセグメントの高さが所定の画素数を超えるかどうかが判定される。選択されたセグメントの高さが、所定の画素数以下の場合は、分割は実施されない。一方、選択されたセグメントの高さが、所定の画素数を超えている場合は、そのセグメントを垂直方向に、必要な数の均等なセグメントに分割して、新しいより背の低い各セグメントが、高さ方向の所定の最大画素数を超えないことを保証する(プロセスアクション528)。再度、このことは、選択されたセグメントの各画素を、適切な新しいより背の低いセグメントに再割り当てすることによって達成される。次に、高さに関してすべてのセグメントが検討されたかどうかが判定される(プロセスアクション530)。すべてのセグメントが検討されていない場合は、プロセスアクション524から530が繰り返される。すべてのセグメントが検討済みの場合は、プロセスは終了する。
本発明の実験した実施形態では、前述の併合および分割操作の結果、最終的なセグメントはすべて、サイズが100から1600画素の範囲となった。前述のセグメンテーション手順の一例は、図6(a)および図6(b)に示されている。ただし、図6(a)は元の画像であり、図6(b)はセグメンテーションしたものである。
2.2 初期ディスパリティー空間分布
セグメンテーションの後の、次のステップは、画像中の各セグメントの初期ディスパリティー空間分布(DSD)を計算することである。DSDとは、画像Iのセグメントsijについての複数のディスパリティーについての一組の確率値のことである。DSDは、各ディスパリティーにおけるコストまたは尤度とすべての画素とを関連付ける従来のディスパリティー空間画像(DSI)を変形したものである(非特許文献1)。セグメントsijがディスパリティーdを有する確率をpij(d)で表す。ただし、Σij(d)=1である。
各セグメントsijの初期DSDは次式で設定される。
Figure 0004740657
上式で、mijk(d)は、画像kのsijについてのディスパリティーdでのマッチング関数であり、Nは画像iの隣接画像である。この説明では、Nは画像iの直接隣接画像、すなわち、iに直接隣接するカメラによってキャプチャされた画像からなるものと想定する。一列に並んだカメラの端部のカメラの場合には、片方の隣接画像だけが使用可能になる。さらに、d’の全範囲にわたるすべてのマッチングスコア(得点)の和によって除算することにより、DSDの総和が1になることが保証される。d’の全範囲にわたるマッチングスコアは、隣接画像中のセグメントの投影に対するマッチング関数を、そのディスパリティーに関連した奥行で計算し、次いでそのマッチング関数を再計算することによって得られる。
カメラ間の利得差を考えると、画素利得のヒストグラムを使用するマッチングスコアが良い結果を生むことが分かった。ただし、その代わりに、他の画素特性や、他の従来からのヒストグラムに基づかないマッチング方法を使用することもできる。セグメントsijの各画素xに対する、隣接画像kにおける投影x’は、任意の適切な投影方法を用いて求めることができる。次いで、画素利得比ヒストグラムが、利得(比)、I(x)/I(x’)を用いて生成される。カラー画素については、各成分の利得が個別に計算され同一のヒストグラムに加算される。ヒストグラムのビンは、データのより良い間隔を保証するために対数スケールを用いて計算される。セグメント化手順について実験した実施形態では、0.8から1.25の範囲の、ビン数20のヒストグラムを使用して良好な結果が得られた。
一般に、前述のヒストグラム法を用いると、図7に示したように、マッチが良い場合には、ヒストグラムは、少数のビンが大きな値を示し、残りのビンが小さな値を示す。一方、マッチが悪い場合には、より平坦な分布となる。前述の、分布の「鋭さ(sharpness)」を評価するためには、分散やエントロピーを評価するなど、いくつかの方法を使用することができる。しかし、本発明の実験した実施形態においては、次のマッチング関数が効率も良く、良好な結果が得られることが判明した。
Figure 0004740657
上式で、hは、ヒストグラムのl(エル)番目のビンである。すなわち、マッチングスコアは、ヒストグラム中の、連続する3つのビンの和の最大値である。
検討中のセグメントの、隣接画像に関する初期ディスパリティーのマッチングスコアを決定した後で、ディスパリティーの全体の集合が再計算される。例えば、実験した実施形態では、マッチングスコアは、各ディスパリティーに関する奥行を使用して、セグメントを隣接画像に投影することによって再計算される。各ディスパリティーに関する奥行は、隣接画像の1つに関して、中央のカメラの中心画素の投影での1画素のシフトに相当する奥行の変化を見つけることによって計算される。したがって、前述の利得比の計算には、各ディスパリティーごとに1組の異なる隣接画像が関与することになり、その結果、ヒストグラムは異なるプロファイルとなり、異なるマッチングスコアが得られる尤度が高くなる。マッチングスコアが大きくなるほど、検討中のセグメントが、シフトに関して隣接画像のその領域とより密接にマッチする尤度が高いことを示し、また、そのインクリメントされたディスパリティーが他の候補値より正確である尤度が高いことを示す。
次に、処理される一群の画像の各画像における各セグメントに関して実施される、前述の初期DSD手順について、図8A〜図8Bに示した流れ図を参照しながら概説する。最初に、それぞれ1つのディスパリティーに対応する一組の奥行値が計算される(プロセスアクション800)。DSD手順の一実施形態では、一組のディスパリティー候補、および各ディスパリティー候補に対する奥行値は以下のように確定される。最初に、ユーザ指定の最小および最大奥行値が入力される。次に、前述の複数の画像のうちの視点に関して中央の画像の中心画素が、ユーザによって指定された最小奥行を使用して、その隣接画像の1つに投影される。投影された中心画素に対応する隣接画像の画素に関連するディスパリティーに、最小奥行値が割り当てられる。次に、中心画素が、直前の投影から1ディスパリティーの所に位置するように再度投影され、現在の中心画素投影に関連する奥行が確定される。次に、最後に確定された奥行値がユーザ指定の最大奥行を超えたかどうかが判定される。超えていない場合は、最後に確定された奥行値が、直前に割り当てられていたディスパリティーを1ディスパリティーレベル分インクリメントした値のディスパリティーに対して割り当てられる。この中心画素の投影は、確定された奥行値が最大値を超えたかどうかを判定し、新しいディスパリティーおよび関連する奥行値を確定しながら、最後に確定された奥行値がユーザ指定の最大奥行値を超えたと判定されるまで続く。超えた時点で、奥行値が割り当てられてきた一連のディスパリティーがディスパリティー候補として指定される。次に、あるディスパリティーが、一組のディスパリティー候補から選択される(プロセスアクション802)。検討中のセグメントを含む画像の隣接画像が選択される(プロセスアクション804)。これに続いて、検討中のセグメント内の未だ選択されていない画素が選択され(プロセスアクション806)、プロセスアクション808で、選択されたディスパリティーに関連する奥行値を使用して、その画素が、選択された隣接画像に投影され、投影された画素に対応する隣接画像中の画素が特定される。各画像は少なくとも1つの隣接画像とオーバラップするので、検討中の画像の画素の少なくともいくつかは隣接画像中の画素に対応することになる。選択された画素が、選択された隣接画像内に対応する画素を有する場合は、投影された画素と現在特定されている隣接画像中の画素とに関連する1つまたは複数の利得比が計算される(プロセスアクション810)。この計算に関して、複数の比が存在し得る状況は、一例として、画像がカラー画像の場合である。この場合には、適切な各色成分の利得比を計算することができる。次いで、検討中のセグメントに未選択の画素が残っているかどうかが判定される(プロセスアクション812)。残っている場合は、すべての画素が検討されるまで、プロセスアクション806から812が繰り返される。未選択の画素が残っていない場合は、プロセスアクション814で、(先に述べた)画素利得比ヒストグラムが生成される。次に、ヒストグラム中の最大の3つの連続するビンの和が計算され(プロセスアクション816)、この和が、選択された隣接画像に関する選択されたディスパリティーにおける、このセグメントのマッチングスコアとして指定される(プロセスアクション818)。
プロセス中のこの時点で、検討中のセグメントの各画素と選択された隣接画像中の各画素との間のマッチングスコアが、選択されたディスパリティーに関して計算されたことになる。他の隣接画像がある場合は、その画像に対して前述の手順が繰り返される。したがって、図8Bを参照すると、プロセスアクション820で、すべての隣接画像が選択されたかどうかが判定される。選択されていない場合は、プロセスアクション804から820が繰り返される。すべての隣接画像が検討済みである場合は、プロセスアクション822で、未選択のディスパリティー値が残っているかどうかが調査される。残っている場合は、新しいディスパリティーが選択され、プロセスアクション802から822が繰り返される。ディスパリティー値の組のすべてが選択された後で、そのセグメントの初期DSDが計算される。この計算には、マッチングスコア計算に関連して、まだ選択されていないディスパリティー値のうちの1つを選択することが必要になる(プロセスアクション824)。次に、選択されたディスパリティー値で、すべての隣接画像に関して計算されたマッチングスコアの積が、あらゆるディスパリティー値で、すべての隣接画像に関して計算されたマッチングスコアの積の総和で除算され、選択されたディスパリティー値のDSD確率が生成される(プロセスアクション826)。これに続いて、まだ選択されていないディスパリティー値が残っているかどうかが判定される(プロセスアクション828)。残っている場合は、プロセスアクション824から828が、すべてのディスパリティ値ーが検討されるまで繰り返される。各ディスパリティー値についてのDSD確率が計算されると、検討中のセグメントに対するプロセスは終了する。
2.3 DSD精緻化
次のステップは、処理中の一群の画像の各画像における各セグメントのディスパリティー空間分布を繰り返し精緻化することである。これまでのセクションと同様に、各セグメントは単一のディスパリティーを有するものと想定する。
DSDを精緻化するとき、セグメント間の平滑性制約および画像間の一貫性制約を実施することが望ましい。平滑性制約は、類似の色を有する隣接セグメントは類似のディスパリティーを持つべきであることを指定する。第2の制約は、画像間のディスパリティーの一貫性を実現する。すなわち、ディスパリティーdを有するセグメントが隣接画像に投影された場合は、それを投影しているセグメントはdに近いディスパリティーを有する必要がある。
これら2つの制約は、次式を使用して繰り返し実施される。
Figure 0004740657
上式で、lij(d)は平滑性制約を実施し、cijk(d)は各隣接画像Nに関する一貫性制約を実施する。実験した実施形態では、各画像にわたり50〜60回繰り返すことによってディスパリティー確率の望ましい精緻化ができることが分かった。平滑性制約および一貫性制約の詳細を以下に示す。
2.3.1 平滑性制約
初期セグメントを生成するときには、類似した色を有する隣接画素は類似したディスパリティーを有するべきであるとの経験則を使用する。同じ経験則を使用して、セグメント間のDSDを精緻化する。Sijでセグメントsijの隣接セグメントを表し、
Figure 0004740657
で、セグメントsij∈Sijの最大ディスパリティー推定値を表す。セグメントsijのディスパリティーは、平均値
Figure 0004740657
の混合正規分布、
Figure 0004740657
によってモデル化され、
Figure 0004740657
の近くに存在するものと想定する。ただし、本発明の実験した実施形態では、
Figure 0004740657
の正規分布であり、オフセットはε=0.01である。各隣接セグメントsijの分散
Figure 0004740657
は、3つの値、すなわち、セグメントの色の類似性、セグメント間の境界の長さ、および
Figure 0004740657
を使用して推定される。セグメントsijとsil内の画素の平均色の差をΔjlとし、sijの境界のうちsilが占める割合をbilとする。さらに、
Figure 0004740657
は次式に設定される。
Figure 0004740657
ただし、本発明の実験した実施形態では、幅スカラν=8であり、色差の2乗分散はガウス分散
Figure 0004740657
である。
2.3.2 一貫性制約
一貫性制約は、異なる画像間のディスパリティーマップが一致すること、すなわち、ディスパリティーdを有する画素が、ある画像から別の画像に投影された場合、その投影もまたディスパリティーdを有するはずであることを保証する。cijk(d)の値を計算して一貫性制約を実施するとき、いくつかの制約が適用される。第1に、あるセグメントのDSDは、他の画像中のそのセグメントを投影するセグメントのDSDと類似している必要があること。第2に、セグメントのDSDは画像間で一致していることが望ましいが、それらがマッチング関数mijk(d)でも一致している必要があること。第3に、セグメントによっては、遮蔽のために他の画像中に対応するセグメントが存在しない場合があることである。
各ディスパリティーdおよびセグメントsijごとに、その投影されたDSD、すなわちIに関するpijk(d)が計算される。画素xの投影先の画像Iにおけるセグメントをπ(k,x)、sijの画素の数をCijとすると、
Figure 0004740657
となる。セグメントsijが画像k内で遮蔽される尤度も推定する必要がある。マッチの形跡がほとんどない場合は、投影されたDSD
Figure 0004740657
は低くなるので、可視尤度は次式で評価することができる。
Figure 0004740657
投影されたDSDとともに、遮蔽関数oijk(d)が計算される。この関数は、画像Iにおいてセグメントsijが他のセグメントを遮蔽するときに値0となり、遮蔽しないときは1となる。この関数は、sijが画像Iにおいて目に見えない場合でも、k番目の画像の奥行推定値において、表面要素の前方にその推定された奥行が位置しないことを保証する。より詳細には、oijk(d)は次式で定義される。
Figure 0004740657
上式で、h(x)は、x≧0で1、それ以外で0となるヘビサイド(Heaviside)のステップ関数であり、λは2つの表面が同一かどうかを判定するために使用される定数である。実験した実施形態では、λを4ディスパリティーレベルに設定した。最後に、遮蔽された場合と遮蔽されていない場合を一体化する。セグメントが遮蔽されていない場合は、cijk(d)は、投影されたDSDおよびマッチング関数から直接計算することができる。
Figure 0004740657
遮蔽された領域については、遮蔽関数oijk(d)だけが使用される。したがって、cijk(d)の最終的な関数は、次式となる。
Figure 0004740657
本発明の一実施形態では、前述のDSD精緻化プロセスは、図9の流れ図に概説されるように実施される。最初に、処理される一群の画像の中から1枚の画像が選択され(プロセスアクション900)、選択された画像の中の1つのセグメントが選択される(プロセスアクション902)。次に、選択されたセグメントの精緻化されたディスパリティー確率が、前述のような方法で計算される(プロセスアクション904)。次いで、選択された画像のすべてのセグメントが検討されたかどうかが判定される(プロセスアクション906)。すべてが検討されていない場合は、プロセスアクション902から906が、残された各セグメントに対して実施される。選択された画像のすべてのセグメントが検討された後で、すべての画像が処理されたかどうかが判定される(プロセスアクション908)。すべてが処理されていない場合は、プロセスアクション900から908が,残りのすべての画像に対して繰り返される。すべての画像が検討された後で、所定の回数の精緻化繰り返しが完了したかどうかが判定される(プロセスアクション910)。完了していない場合は、900から910の全体のプロセスアクションが、所定の繰り返し回数実施されるまで繰り返される。
所定のすべての繰り返しが完了した後で、各画像の各セグメントsijにおける各画素xに対し、その画素を含むセグメントのDSDの最大確率値に対応するディスパリティー
Figure 0004740657
が、その画素のディスパリティーd(x)として割り当てられる(プロセスアクション912)。数式の形で表すと、次式となる。
∀x∈sij,d(x)=arg max’Pij(d’) (10)
2.4 ディスパリティー平滑化
この時点までは、各セグメントのディスパリティーは定数であった。この段階で、この制約が緩和され、各ディスパリティーを、隣接するセグメントおよび画像のディスパリティーに基づいて滑らかに変化させることが許されることになる。
先に示したように、精緻化段階の最後で、各画像の各セグメントにおける各画素は、関連するDSDの最大確率値を有するディスパリティーに設定される。ディスパリティーが画像間で一貫していることを保証するために、以下を実施する。ディスパリティーd(x)を有する画像Iの各画素xごとに、各画素xは各隣接画像Iに投影されて、xの投影に対応するI中の画素yが見つけられる。次いで、d(x)は次式のように更新される。
Figure 0004740657
上式で、
Figure 0004740657
は2値関数であり、|d(x)−d(y)|<λのときに1になり、|d(x)−d(y)|≧λのときに0になる。この関数は、ディスパリティーの類似性を実験する指示変数として動作する。また、#Nは隣接画像の数である。実験した実施形態では、λを4ディスパリティーレベルに設定した。
各画像にわたってディスパリティーを平均化した後で、各画像の各画素についての、その画素を含むセグメントの内部に制限された所定の窓内部のディスパリティーは、滑らかさを維持するために平均化される。実験した実施形態では、5×5の窓を使用して良好な結果が得られたが、要望に応じて他のサイズを使用することもできる。所定の窓が拡大されてセグメントの境界を越えた場合には、セグメント内部の画素だけが平均化されて、検討中の画素の最終ディスパリティーが確定されることに留意されたい。画像間の前述のディスパリティー平滑化は繰り返しによって達成される。実験した実施形態では、各画像を通して、式(11)を用いて約10〜20回の繰り返しを行い、各セグメントの内部で平均化して各画像内のディスパリティーを順に平滑化することによって所望の効果が得られることが判明している。
本発明の一実施形態では、前述の平滑化手順は、図10A〜図10Cに示された流れ図で概説されるように実施される。最初に、処理される一群の画像の中の1枚の画像が選択され(プロセスアクション1000)、次いでその画像中の1つの画素が選択される(プロセスアクション1002)。さらに、選択された画像の隣接画像の1枚が選択される(プロセスアクション1004)。続いて、選択された画素を選択された隣接画像に投影し、投影された画素に相当する隣接する画像中の画素を特定する(プロセスアクション1006)。次に、選択された画素に現在割り当てられているディスパリティー値と、隣接画像の特定された対応する画素に割り当てられているディスパリティー値との差分の絶対値が、所定のディスパリティーレベル数の未満かどうかが判定される(プロセスアクション1008)。未満の場合は、検討中の2つの画素のディスパリティー値の平均が計算され、選択された隣接画像に関連するディスパリティー因数として、選択された画素に割り当てられる(プロセスアクション1010)。一方、差の絶対値が所定のディスパリティーレベル数以上の場合は、選択された画素に現在割り当てられているディスパリティー値が、選択された隣接画像に関連するディスパリティー因数として選択された画素に割り当てられる(プロセスアクション1012)。次に、選択された画像のすべての隣接画像が検討されたかどうかが判定される(プロセスアクション1014)。まだ検討されていない場合は、プロセスアクション1004から1014が、残りの各隣接画像に対して繰り返される。すべての隣接画像が検討された後で、プロセスアクション1016で、各隣接画像に関連することとして、選択された画素に割り当てられたディスパリティー因数の和を計算し、その和を隣接画像の数によって除算する。次に、その結果を、現在のディスパリティー値として、選択された画素に割り当てる(プロセスアクション1018)。次いで、選択された画像のすべての画素が処理されたかどうかが判定される(プロセスアクション1020)。処理されていない場合は、プロセスアクション1002から1020が、残りの各画素に対して繰り返される。選択された画像のすべての画素が処理された場合は、次いで、すべての画像が検討されたかどうかが判定される(プロセスアクション1022)。すべてが検討されていない場合は、残りの各画像に対してプロセスアクション1000から1022が繰り返される。画像間平滑化が完了した後で、先に説明したように、プロセスは画像内平滑化に続く。より詳細には、次いで図10Cを参照すると、再度画像の1枚が選択される(プロセスアクション1026)。次に、選択された画像内のセグメントが選択され(プロセスアクション1028)、選択されたセグメントの画素が選択される(プロセスアクション1030)。次に、選択された画素を中心にした所定のサイズの窓内の画素で、選択されたセグメントの外側にはみ出していない画素のディスパリティー値が平均され、その結果(平均値)が、選択された画素の最終ディスパリティー値としてその選択された画素に割り当てられる(プロセスアクション1032)。次に、選択されたセグメント内のすべての画素が検討されたかどうかが判定される(プロセスアクション1034)。すべてが検討されていない場合は、プロセスアクション1030から1034が、残りの各画素に対して繰り返される。選択されたセグメント内のすべての画素が処理されたとき、選択された画像内のすべてのセグメントが検討されたかどうかが判定される(プロセスアクション1036)。まだすべてが検討されていない場合は、プロセスアクション1028から1036が、残りの各セグメントに対して繰り返される。選択された画像中のすべてのセグメントが処理されると、残りの画像に関して画像内平滑化が実施される。この目的で、画像内平滑化のためにすべての画像が検討されたかどうかが判定される(プロセスアクション1038)。すべてが検討されていない場合は、プロセスアクション1026から1038が、残りの各画像に対して実施される。すべての画像が検討されると、プロセスアクション1040で、所定の回数の平滑化繰り返しが完了したかどうかが判定される。完了していない場合は、アクション1000から1040の全体のプロセスが、所定の回数の繰り返しが実施されるまで繰り返される。この時点で平滑化プロセスは終了する。
2.5 典型的な結果
図11(a)〜図11(e)は、本発明の3次元再構成処理の実験した実施形態を使用して得られたいくつかの結果のサンプルを示す。図11(a)は、あるグループの人たちがブレークダンサーを見ている画像である。隣接画像が存在するが図には示されていない。図11(b)は、再構成のセグメンテーションフェーズの結果を示すもので、各斑点は、個々のセグメントを表す。図11(c)は、セグメントの初期DSDの最大確率値に関連するディスパリティーを、そのセグメントの各画素に割り当てることによって得られたディスパリティー推定値から導かれた、画素ごとの奥行を例示したものである。図11(c)〜図11(e)において、画像中の画素が明るいほど、その画素は、元の画像をキャプチャしたカメラに接近しているものと推定されることに留意されたい。図11(d)は、図11(c)と同様に得られたものであるが、本発明の再構成プロセスによりDSD確率値が精緻化された後で得られた画素ごとの奥行を表すものである。最後に、図11(e)は、前述の平滑化手順を実施した後で得られた、画素ごとの奥行を表すものである。連続する各段階で、ディスパリティー推定値が改善されていく様子を確認することができる。
本発明を実装するための典型的なシステムを構成する汎用のコンピュータ装置を示す図である。 あるシーンの複数の画像、およびカラーセグメンテーションに基づく手法を用いて、そのシーンの3次元再構成を計算するための全体プロセスを示す流れ図である。 図2の3次元再構成プロセスのセグメンテーション部分の初期フェーズを表す、画像の画素色を平滑化するプロセスを示す流れ図である。 図3の画素色平滑化プロセスで使用される隣接3画素のグループを示す図である。 図2の3次元再構成プロセスの、画像をセグメント化する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの、画像をセグメント化する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの、画像をセグメント化する部分を実施するプロセスを示す流れ図である。 図5A〜図5Cのセグメンテーションプロセスの結果を示す典型的な画像の、元の画像を示す図である。 図5A〜図5Cのセグメンテーションプロセスの結果を示す典型的な画像の、セグメンテーション結果を示す図である。 ディスパリティー空間分布(DSD)に関し、良いマッチと悪いマッチを表す利得比ヒストグラムの例を示す図である。 図2の3次元再構成プロセスの、各画像の各セグメントごとに初期DSD推定値を計算する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの、各画像の各セグメントごとに初期DSD推定値を計算する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの、初期DSD推定値を精緻化する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの、各画像の画素のディスパリティー推定値を平滑化する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの、各画像の画素のディスパリティー推定値を平滑化する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの、各画像の画素のディスパリティー推定値を平滑化する部分を実施するプロセスを示す流れ図である。 図2の3次元再構成プロセスの一実施形態を使用して得られる結果のサンプルの、ブレークダンサーを見ているあるグループ人々を示す図である。 図2の3次元再構成プロセスの一実施形態を使用して得られる結果のサンプルの、再構成のセグメンテーションフェーズの結果を示す図である。 図2の3次元再構成プロセスの一実施形態を使用して得られる結果のサンプルの、あるセグメントの初期DSDの最大確率値に関するディスパリティーをそのセグメントの各画素に割り当てることによって得られたディスパリティー推定値から導かれた、画素ごとの奥行を例示する図である。 図2の3次元再構成プロセスの一実施形態を使用して得られる結果のサンプルの、DSD確率値が精緻化された後で図11(c)と同様にして得られた、画素ごとの奥行を示す図である。 図2の3次元再構成プロセスの一実施形態を使用して得られる結果のサンプルの、ディスパリティー推定値平滑化手順を実施した後で得られた、画素ごとの奥行を示す図である。
符号の説明
120 処理ユニット
121 システムバス
130 システムメモリ
134 オペレーティングシステム
135 アプリケーションプログラム
136 他のプログラムモジュール
137 プログラムデータ
140 取外し不能不揮発メモリインターフェース
144 オペレーティングシステム
145 アプリケーションプログラム
146 他のプログラムモジュール
147 プログラムデータ
150 取外し可能不揮発メモリインターフェース
160 ユーザ入力インターフェース
161 マウス
162 キーボード
170 ネットワークインターフェース
171 ローカルエリアネットワーク
172 モデム
173 ワイドエリアネットワーク
180 リモートコンピュータ
185 リモートアプリケーションプログラム
190 ビデオインターフェース
191 モニタ
192 カメラ
194 カメラインターフェース
195 出力周辺インターフェース
196 プリンタ
197 スピーカ

Claims (34)

  1. あるシーンの3次元再構成を、様々な視点からキャプチャされた前記シーンの複数の画像から計算するためのコンピュータに実装された方法であって、コンピュータを使用して実施する、
    各画像を、その領域の各画素が類似のディスパリティーを示すものと思われる、前記画像の各領域を表すセグメントに分割するプロセスアクションと、
    セグメント内のすべての画素が同一のディスパリティーを有するとの想定を用いて、各画像の各セグメントごとにディスパリティー空間分布(DSD)を計算するプロセスアクションであって、あるセグメントの前記DSDが、前記セグメント内の各画素が一組のディスパリティー候補の各々に対して個々のディスパリティーを示す尤度を表す確率推定値を含むプロセスアクションと、
    各画像の各セグメントごとに、前記DSDの前記ディスパリティー確率の前記推定値を、同一の画像内の隣接セグメントとの間の平滑性制約、および前記シーンの同一部分を描写する他の画像内の対応するセグメントとの間の一貫性制約を同時に実施して精緻化することによって、精緻化されたDSDを生成するプロセスアクションと、
    各画像の各セグメントごとに、前記セグメントの前記精緻化されたDSDの最大確率値に対応するディスパリティーを、前記セグメントの各画素に割り当てるプロセスアクションと、
    各画像ごとに、各画素に割り当てられた前記ディスパリティーを、前記シーンの同一部分を描写する他の画像内の対応する画素のディスパリティーに基づいて平滑化し、次いで、前記画像の同一セグメント内の隣接画素のディスパリティーに基づいて平滑化するプロセスアクションと
    を含むことを特徴とする方法。
  2. 各画像をセグメントに分割する前記プロセスアクションは、
    検討中の画像の各画素を、それぞれのセグメントに割り当てるアクションと、
    各画素ごとに順に所定の順序で、前記セグメントの画素の平均色が検討中の画素の色と所定の閾値未満で異なっているときはいつでも、検討中の画素に隣接する所定の数の画素を前記画素に割り当てられた前記セグメントに再割り当てするアクションと、
    各セグメントごとに順に、前記セグメントが領域に関する所定の画素数未満かどうかを判定し、前記セグメントが領域に関する前記所定の画素数未満であるときはいつでも、前記セグメントの画素を、検討中のセグメントの平均色に最も近い平均色を有する隣接セグメントに再割り当てするアクションと、
    各セグメントごとに順に、前記セグメントが幅方向の所定の画素数を超えているかどうかを判定し、前記セグメントが幅方向の所定の画素数を超えているときはいつでも、前記セグメントを水平方向に必要な数の均等なセグメントに分割して、前記選択されたセグメントの各画素を適切な新しいより幅の狭いセグメントに再割り当てすることによって、前記新しいより幅の狭い各セグメントが幅方向の前記所定の画素数を超えないことを保証するアクションと、
    各セグメントごとに順に、前記セグメントが高さ方向の所定の画素数を超えているかどうかを判定し、前記セグメントが高さ方向の所定の画素数を超えているときはいつでも、前記セグメントを垂直方向に必要な数の均等なセグメントに分割して、前記選択されたセグメントの各画素を適切な新しいより背の低いセグメントに再割り当てすることによって、前記新しいより背の低い各セグメントが高さ方向の前記所定の画素数を超えないことを保証するアクションと
    を含むことを特徴とする、請求項1に記載の方法。
  3. 各画像をセグメントに分割する前記プロセスアクションは、前記検討中の画像の各画素をそれぞれのセグメントに割り当てる前記アクションを実施する前に、前記検討中の画像の隣接画素間の色差を平滑化するアクションをさらに含むことを特徴とする、請求項2に記載の方法。
  4. 前記検討中の画像の隣接画素間の色差を平滑化する前記プロセスアクションは、
    各画素ごとにラスター順に、
    前記検討中の画素に隣接する所定の数の連続する画素からなる各可能なグループを順に選択するアクションと、
    各選択されたグループごとに、前記選択されたグループの各画素の各色成分の光強度を、前記検討中の画素の対応する色成分の光強度から減算し、結果として得られた差の2乗値を加算して前記選択されたグループの総差を生成するアクションと、
    最小の総差を示すグループを特定するアクションと、
    前記特定されたグループの各画素の色と前記選択された画素の色を平均するアクションと、
    結果として得られた平均色を前記選択された画素の現在の色として割り当てるアクションと
    を含むことを特徴とする、請求項3に記載の方法。
  5. 前記色平滑化手順は所定の回数繰り返されることを特徴とする、請求項4に記載の方法。
  6. 連続する隣接画素の前記所定の数は3であることを特徴とする、請求項4に記載の方法。
  7. 前記所定の順番はラスター順であることを特徴とする、請求項2に記載の方法。
  8. 前記所定の数の隣接画素は、4連結隣接画素(4−connectedneighbors)を含むことを特徴とする、請求項2に記載の方法。
  9. 領域に関する前記所定の画素数は100画素であることを特徴とする、請求項2に記載の方法。
  10. 幅方向の前記所定の画素数は40画素であり、高さ方向の前記所定の画素数は40画素であることを特徴とする、請求項2に記載の方法。
  11. 前記セグメントの平均色と前記検討中の画素の色との間の前記所定の差の閾値は8であることを特徴とする、請求項2に記載の方法。
  12. 各画像の各セグメントごとに前記DSDを計算する前記プロセスアクションは、
    (a)一組のディスパリティー候補、および各候補に対する奥行値を確定するアクションと、
    (b)ディスパリティー候補を選択するアクションと、
    (c)前記検討中の画像の隣接画像を選択するアクションと、
    (d)前記検討中のセグメントの各画素ごとに、
    前記選択されたディスパリティー候補に関する前記奥行値を用いて前記画素を前記選択された隣接画像に投影して、前記投影された画素に対応する前記隣接画像中の画素を特定し、
    対応する画素が特定された場合は、前記投影された画素と前記隣接画像中の前記特定された画素とに関する1つまたは複数の所定の利得比を計算するアクションと、
    (e)画素利得比ヒストグラムを生成するアクションと、
    (f)前記画素利得比ヒストグラムにおける3つの連続するビンの最大の和を計算するアクションと、
    (g)前記計算された和を、前記検討中のセグメントの、前記選択されたディスパリティー候補における前記選択された隣接画像についてのマッチングスコアとして指定するアクションと、
    (h)前記検討中の画像の残りの各隣接画像ごとに、アクション(c)から(g)を繰り返すアクションと、
    (i)残りの各ディスパリティー候補ごとに、アクション(b)から(h)を繰り返すアクションと、
    (j)あるマッチングスコアに関連する各ディスパリティーごとに、前記検討中のディスパリティーで、すべての隣接画像について計算されたマッチングスコアの積を、前記マッチングスコアに関連するあらゆるディスパリティーで、すべての隣接画像について計算されたマッチングスコアの積の和によって除算して、前記ディスパリティーについてのDSD確率を生成するアクションと
    を含むことを特徴とする、請求項1に記載の方法。
  13. 前記複数の利得比は、各投影された画素および前記特定された隣接画像の各画素ごとに計算され、前記各画素に関する各色成分の利得比を含めて比較されることを特徴とする、請求項12に記載の方法。
  14. 対数スケールを使用して前記画素利得比ヒストグラムの前記各ビンの範囲を確定することを特徴とする、請求項12に記載の方法。
  15. 前記画素利得比ヒストグラムは20ビンを含むことを特徴とする、請求項14に記載の方法。
  16. 前記1組のディスパリティー候補と各候補ごとの奥行値を確定する前記プロセスアクションは、
    (a)ユーザ指定の最小および最大奥行値を入力するアクションと、
    (b)前記ユーザによって指定された前記最小奥行値を用いて、前記複数の画像のうちの視点に関して中央の画像の中心画素を、その隣接画像の1枚に投影するアクションと、
    (c)前記最小奥行値を、前記投影された中心画素に対応する隣接画像中の画素に関するパィスパリティーに割り当てるアクションと、
    (d)前記中心画素を直前の投影から1ディスパリティーの場所に位置するように投影し、前記現在の中心画素の投影に関する奥行値を確定するアクションと、
    (e)前記最後に確定された奥行値が前記ユーザ指定の最大奥行値を超えたかどうかを判定するアクションと、
    (f)前記最後に確定された奥行値が前記ユーザ指定の最大奥行値を超えていないときはいつでも、前記最後に確定された奥行値がディスパリティーに割り当てられて、ディスパリティーは直前に割り当てられていたディスパリティーから1ディスパリティーレベル分インクリメントされた値に等しくなるアクションと、
    (g)最後に確定された奥行値がユーザ指定の最大奥行を超えたとアクション(e)で判定されるまでアクション(d)から(f)が繰り返され、超えたと判定された時点で、奥行値が割り当てられてきた一連のディスパリティーがディスパリティー候補として指定されるアクションと
    を含むことを特徴とする、請求項12に記載の方法。
  17. 各画像の各セグメントごとに、前記DSDの前記ディスパリティー確率値の前記推定値を精緻化する前記プロセスアクションは、
    (a)各画像の各セグメントごとに、精緻化されたディスパリティー確率値を次式を用いて計算するアクションであって、
    Figure 0004740657
    上式で、pij(d)はセグメントsijのディスパリティーdに関して精緻化されたディスパリティー確率値であり、lij(d)は前記平滑性制約を実施する関数であり、cijk(d)は一組の隣接画像Niの各隣接画像に関する前記一貫性制約を実施する関数であり、d’は関連する確率値を有するすべてのディスパリティーであるアクションと、
    (b)アクション(a)を所定の回数繰り返すアクションと
    を含むことを特徴とする、請求項1に記載の方法。
  18. 前記所定の回数は50から60の範囲であることを特徴とする、請求項17に記載の方法。
  19. 各画像の各画素に割り当てられた前記ディスパリティーを平滑化する前記プロセスアクションは画像間平滑化を含み、
    前記画像間平滑化は、各画像の各画素ごとに順に、
    前記検討中の画像の各隣接画像ごとに、
    前記検討中の画素を前記隣接画像に投影し、前記投影された画素に対応する前記隣接画像中の画素を特定するアクションと、
    前記検討中の画素に現在割り当てられている前記ディスパリティーと前記隣接画像中の前記対応する画素に割り当てられたディスパリティーの差の絶対値が所定のディスパリティーレベル数未満のときはいつでも、前記投影された画素と前記対応する画素のディスパリティーを平均し、前記平均を、関係する隣接画像に関するディスパリティー因数として前記検討中の画素に割り当てるアクションと、
    前記検討中の画素に現在割り当てられている前記ディスパリティーと前記隣接画像中の前記対応する画素に割り当てられているディスパリティーの差の絶対値が所定のディスパリティーレベル数以上のときはいつでも、前記検討中の画素の前記ディスパリティーを、関係する隣接画像に関するディスパリティー因数として割り当てるアクションと、
    前記各隣接画像に関して、前記検討中の画素に割り当てられた前記各ディスパリティー因数を加算し、その和を関係する隣接画像の数によって除算し、その結果を前記画素の現在のディスパリティーとして割り当てるアクションと
    を含むことを特徴とする、請求項1に記載の方法。
  20. 各画像の各画素に割り当てられている前記ディスパリティーを平滑化する前記プロセスアクションは画像内平滑化をさらに含み、
    前記画像内平滑化は、各画像の各セグメントの各画素ごとに、前記検討中の画素を中心にした所定のサイズの窓の内部の画素で、前記検討中のセグメントの外部には存在しない画素に現在割り当てられている前記ディスパリティーを平均し、前記平均を、前記検討中の画素にその最終ディスパリティーとして割り当てるアクションを含むことを特徴とする、請求項19に記載の方法。
  21. 前記画像間平滑化および前記画像内平滑化は所定の回数繰り返されることを特徴とする、請求項20に記載の方法。
  22. 前記所定のサイズの窓は5×5画素の窓であることを特徴とする、請求項21に記載の方法。
  23. 前記各画像は前記シーンのある部分を描写し、
    前記シーンの前記部分は、前記画像のうちの少なくとも1枚の他の画像にキャプチャされた前記シーンの前記部分と、およそ60から100パーセントの範囲でオーバラップすることを特徴とする、請求項1に記載の方法。
  24. 前記複数の画像は、同時にキャプチャされた動的シーンの画像を表すことを特徴とする、請求項1に記載の方法。
  25. 前記同時にキャプチャされた画像は、様々な視点に置かれた複数のビデオカメラによってキャプチャされたビデオフレームを含むことを特徴とする、請求項24に記載の方法。
  26. 前記複数の画像は、様々な視点に置かれた複数のカメラ、あるいは各画像をキャプチャするために視点から視点に移動される単一のカメラによってキャプチャされた静的なシーンの画像を表すことを特徴とする、請求項1に記載の方法。
  27. あるシーンの3次元再構成を、様々な視点からキャプチャされた、前記シーンの複数のオーバラップする画像から計算するシステムであって、
    前記シーンの様々な部分を見るために配置された複数のカメラを含むカメラ装置であって、各カメラの視界が各隣接するカメラの視界とオーバラップするカメラ装置と、
    汎用コンピュータ装置と、
    前記コンピュータ装置によって実行可能なプログラムモジュールを含むコンピュータプログラムと
    を含み、
    前記コンピュータ装置は、前記コンピュータプログラムの前記プログラムモジュールによって、
    各画像を、その画素が類似のディスパリティーを示すものと思われる各セグメントに分割し、
    各セグメント内の全部の画素が同一のディスパリティーを有するとの想定を用いて、各画像の各セグメントごとに、一組のディスパリティー候補の各々に対して、前記セグメントを構成する前記各画素が個々のディスパリティーを示す尤度を表す確率推定値を含むディスパリティー空間分布(DSD)を計算し、
    各画像の各セグメントごとに、前記セグメントに対して計算された前記DSDの最大確率評価値に対応するディスパリティーを前記セグメントの各画素に割り当て、
    各画像ごとに、前記シーンの同一の部分を描写する隣接画像内の対応する画素のディスパリティー、および前記画像の同一セグメント内の隣接画素のディスパリティーに基づいて、各画素に割り当てられた前記ディスパリティーを平滑化する
    ように指示されることを特徴とするシステム。
  28. 各画像の各セグメントごとに前記ディスパリティー空間分布(DSD)を計算するための前記プログラムモジュールは、
    各画像の各セグメントごとに初期ディスパリティー空間分布(DSD)を計算するサブモジュールと、
    各画像の各セグメントごとに前記初期DSDの前記ディスパリティー確率の初期推定値を、前記同一画像内の隣接セグメントとの間の平滑性制約、および前記シーンの前記同一部分を描写する、他の画像内の対応するセグメントとの間の一貫性制約を同時に実施して精緻化することによって、精緻化されたDSDを生成するサブモジュールと
    を含むことを特徴とする、請求項27に記載のシステム。
  29. 各画像の各セグメントごとに、前記初期DSDの前記ディスパリティー確率の前記初期推定値を精緻化するための前記サブモジュールは、
    各画像の各セグメントごとに、精緻化されたディスパリティー確率を次式によって計算するサブモジュールであって、
    Figure 0004740657
    上式で、pij(d)はセグメントsijのディスパリティーdに関して精緻化されたディスパリティー確率値であり、lij(d)は前記平滑性制約を実施する関数であり、cijk(d)は一組の隣接画像Ni内の各隣接画像に関する前記一貫性制約を実施する関数であり、d’は関連する確率値を有するすべてのディスパリティーであるサブモジュールと、
    前記精緻化されたディスパリティー確率計算サブモジュールを所定の回数繰り返すサブモジュールと
    を含むことを特徴とする、請求項28に記載のシステム。
  30. 前記平滑性制約を実施する関数は次式を含み、
    Figure 0004740657
    上式で、Sijはセグメントsijの隣接セグメントであり、
    Figure 0004740657
    はセグメントsij∈Sijの現在の最大ディスパリティー推定値であり、εはオフセットであり、また
    Figure 0004740657
    であり、上式で、νは幅スカラであり、
    Figure 0004740657

    Figure 0004740657
    の最後に計算された確率であり、bilはsilが占めるsijの境界の割合であり、Δjlはセグメントsijとsilの画素の平均色の間の差であり、σΔは色差ガウス分布の分散であることを特徴とする、請求項29に記載のシステム。
  31. ε=0.01、ν=8であり、
    Figure 0004740657
    であることを特徴とする、請求項30に記載のシステム。
  32. 前記一貫性制約を実施する関数は次式を含み、
    Figure 0004740657
    上式で
    Figure 0004740657
    であり、上式でpijk(d)は、セグメントsijの、ディスパリティーdで隣接画像Ikに関して投影されたDSDであり、Sijはセグメントsijの隣接セグメントであり、π(k,x)は画素xを投影する画像Ik内のセグメントであり、したがって
    Figure 0004740657
    はセグメントπ(k,x)のディスパリティーdでの確率であり、Cijはsijの画素数であり、mijk(d)はセグメントsijの画像kにおけるディスパリティーdでのマッチング関数であり、また
    Figure 0004740657
    であり、上式でνijはセグメントsijが画像k内で遮蔽される確率を表し、さらに
    Figure 0004740657
    であり、上式でoijk(d)は遮蔽関数であり、前記遮蔽関数は、ディスパリティーの推定に基づくk番目の画像の奥行において、画像Ikでsijが見えない場合でも、その推定ディスパリティーに基づくsijの奥行が表面要素の前方には位置しないことを保証するために、セグメントsijが画像Ikの他のセグメントを遮蔽する場合には値0、遮蔽しない場合には値1であり、また、Cijはsijの画素の数であり、
    Figure 0004740657
    はヘビサイドのステップ関数であり、x≧0の場合は1、それ以外の場合は0であり、λは2つの表面が同一かどうかを判定するために使用される定数であることを特徴とする、請求項29に記載のシステム。
  33. λは4ディスパリティーレベルに設定されることを特徴とする、請求項32に記載のシステム。
  34. あるシーンの3次元再構成を、様々な視点からキャプチャされた、前記シーンの複数の画像から計算するコンピュータ実行可能な命令を含むコンピュータ可読記録媒体であって、前記コンピュータ実行可能な命令は、
    各画像を、その画素が類似のディスパリティーを示すものと思われる各セグメントに分割する命令と、
    各セグメント内の全部の画素が同一のディスパリティーを有するとの想定を用いて、各画像の各セグメントごとに、一組のディスパリティー候補の各々に対して、前記セグメントを構成する前記各画素が個々のディスパリティーを示す尤度を表す確率推定値を含むディスパリティー空間分布(DSD)を計算する命令と、
    各画像の各セグメントごとに、前記セグメントに対して計算された前記DSDの最大確率評価値に対応するディスパリティーを前記セグメントの各画素に割り当てる命令と、
    各画像ごとに、前記シーンの同一の部分を描写する隣接画像内の対応する画素のディスパリティー、および前記画像の同一セグメント内の隣接画素のディスパリティーに基づいて、各画素に割り当てられた前記ディスパリティーを平滑化する命令と
    を含むことを特徴とするコンピュータ可読記録媒体。
JP2005180926A 2004-06-28 2005-06-21 カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス Expired - Fee Related JP4740657B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/879,327 US7324687B2 (en) 2004-06-28 2004-06-28 Color segmentation-based stereo 3D reconstruction system and process
US10/879,327 2004-06-28

Publications (3)

Publication Number Publication Date
JP2006012166A JP2006012166A (ja) 2006-01-12
JP2006012166A5 JP2006012166A5 (ja) 2011-03-31
JP4740657B2 true JP4740657B2 (ja) 2011-08-03

Family

ID=34940185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005180926A Expired - Fee Related JP4740657B2 (ja) 2004-06-28 2005-06-21 カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス

Country Status (7)

Country Link
US (2) US7324687B2 (ja)
EP (1) EP1612733B1 (ja)
JP (1) JP4740657B2 (ja)
KR (1) KR101143218B1 (ja)
CN (1) CN100514367C (ja)
AT (1) ATE438160T1 (ja)
DE (1) DE602005015649D1 (ja)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004088992A1 (ja) * 2003-03-28 2004-10-14 Olympus Corporation 画像処理装置及び画像処理プログラム
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
US7676103B2 (en) * 2005-06-20 2010-03-09 Intel Corporation Enhancing video sharpness and contrast by luminance and chrominance transient improvement
US9532038B2 (en) * 2005-11-04 2016-12-27 Koninklijke Philips N.V. Rendering of image data for multi-view display
US7889932B2 (en) * 2006-03-02 2011-02-15 Sharp Laboratories Of America, Inc. Methods and systems for detecting regions in digital images
US8630498B2 (en) 2006-03-02 2014-01-14 Sharp Laboratories Of America, Inc. Methods and systems for detecting pictorial regions in digital images
US7916934B2 (en) * 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
WO2007142643A1 (en) * 2006-06-08 2007-12-13 Thomson Licensing Two pass approach to three dimensional reconstruction
US8437054B2 (en) * 2006-06-15 2013-05-07 Sharp Laboratories Of America, Inc. Methods and systems for identifying regions of substantially uniform color in a digital image
US7864365B2 (en) 2006-06-15 2011-01-04 Sharp Laboratories Of America, Inc. Methods and systems for segmenting a digital image into regions
EP2036353A1 (en) * 2006-06-29 2009-03-18 Thomson Licensing Adaptive pixel-based filtering
US7876959B2 (en) 2006-09-06 2011-01-25 Sharp Laboratories Of America, Inc. Methods and systems for identifying text in digital images
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
CN101001391B (zh) * 2007-01-09 2010-05-19 四川大学 一种立体图像编码方法
US7970226B2 (en) * 2007-04-23 2011-06-28 Microsoft Corporation Local image descriptors
US8126275B2 (en) 2007-04-24 2012-02-28 Microsoft Corporation Interest point detection
WO2008133455A1 (en) * 2007-04-25 2008-11-06 Lg Electronics Inc. A method and an apparatus for decoding/encoding a video signal
JP5160643B2 (ja) * 2007-07-12 2013-03-13 トムソン ライセンシング 2次元画像からの3次元オブジェクト認識システム及び方法
US8280149B2 (en) * 2007-09-11 2012-10-02 Motorola Solutions, Inc. Method and apparatus to facilitate processing a stereoscopic image using first and second images to facilitate computing a depth/disparity image
JP5156837B2 (ja) * 2007-11-09 2013-03-06 トムソン ライセンシング 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
US8781250B2 (en) * 2008-06-26 2014-07-15 Microsoft Corporation Image deconvolution using color priors
KR100942925B1 (ko) * 2008-08-11 2010-02-22 한국전자통신연구원 스테레오 비전 시스템 및 그 제어방법
US8164617B2 (en) * 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
JP5249114B2 (ja) * 2009-04-03 2013-07-31 Kddi株式会社 画像生成装置、方法及びプログラム
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
TWI398158B (zh) * 2009-12-01 2013-06-01 Ind Tech Res Inst 產生立體影像之影像深度的方法
CN101719286B (zh) * 2009-12-09 2012-05-23 北京大学 融合单视点场景分析的多视点三维场景重建方法及其系统
US8290248B2 (en) * 2009-12-31 2012-10-16 Mitsubishi Electric Research Laboratories, Inc. Determining disparity search range in stereo videos
US20110169818A1 (en) * 2010-01-13 2011-07-14 Sharp Laboratories Of America, Inc. Reducing viewing discomfort
AU2010344290B2 (en) * 2010-01-26 2016-07-21 Saab Ab An automated three dimensional mapping method
RU2453922C2 (ru) * 2010-02-12 2012-06-20 Георгий Русланович Вяхирев Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
CN102835119B (zh) * 2010-04-01 2016-02-03 英特尔公司 支持自动立体显示器上的实时3d图像渲染的多核心处理器
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
CN101945299B (zh) * 2010-07-09 2013-10-09 清华大学 一种基于拍摄设备阵列的动态场景深度恢复方法
US8655093B2 (en) * 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US8884949B1 (en) 2011-06-06 2014-11-11 Thibault Lambert Method and system for real time rendering of objects from a low resolution depth camera
US8941644B2 (en) 2011-06-14 2015-01-27 Microsoft Corporation Computing three-dimensional image models in parallel
CN102263953B (zh) * 2011-07-06 2013-12-11 北京航空航天大学 一种基于对象的快速多目立体视频分形压缩与解压缩方法
CN102316323B (zh) * 2011-07-06 2014-03-05 北京航空航天大学 一种快速的双目立体视频分形压缩与解压缩方法
CN102263952B (zh) * 2011-07-06 2013-12-11 北京航空航天大学 一种基于对象的快速双目立体视频分形压缩与解压缩方法
CN102263951B (zh) * 2011-07-06 2014-03-05 北京航空航天大学 一种快速的分形视频压缩与解压缩方法
CN102263954B (zh) * 2011-07-06 2014-01-29 北京航空航天大学 一种基于对象的快速分形视频压缩与解压缩方法
CN103647969B (zh) * 2011-07-06 2016-09-14 北京航空航天大学 一种基于对象的快速分形视频压缩与解压缩方法
CN102291579B (zh) * 2011-07-06 2014-03-05 北京航空航天大学 一种快速的多目立体视频分形压缩与解压缩方法
US8553997B1 (en) * 2011-08-16 2013-10-08 Google Inc. Depthmap compression
US8553998B1 (en) * 2011-08-16 2013-10-08 Google Inc. Depthmap compression using a primitive
US8749548B2 (en) * 2011-09-01 2014-06-10 Samsung Electronics Co., Ltd. Display system with image conversion mechanism and method of operation thereof
US9129378B2 (en) * 2011-09-07 2015-09-08 Thomson Licensing Method and apparatus for recovering a component of a distortion field and for determining a disparity field
JP2013073598A (ja) * 2011-09-29 2013-04-22 Sony Corp 画像処理装置、画像処理方法、及びプログラム
US8995755B2 (en) 2011-09-30 2015-03-31 Cyberlink Corp. Two-dimensional to stereoscopic conversion systems and methods
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
JP5755571B2 (ja) * 2012-01-11 2015-07-29 シャープ株式会社 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
US9924196B2 (en) 2012-05-18 2018-03-20 The Regents Of The University Of California Independent thread video disparity estimation method and codec
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
EP2669845A3 (en) * 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
CN102831637B (zh) * 2012-06-28 2015-08-26 北京理工大学 基于移动设备的三维重建方法
US9641821B2 (en) 2012-09-24 2017-05-02 Panasonic Intellectual Property Management Co., Ltd. Image signal processing device and image signal processing method
JP2014078095A (ja) 2012-10-10 2014-05-01 Sony Corp 画像処理装置、画像処理方法、及びプログラム
KR101885088B1 (ko) 2012-11-22 2018-08-06 삼성전자주식회사 깊이 영상을 이용한 컬러 영상 처리 장치 및 방법
US8964254B2 (en) 2013-04-03 2015-02-24 Hewlett-Packard Development Company, L.P. To generate a histogram matched image
EP2787319A1 (de) * 2013-04-05 2014-10-08 Leica Geosystems AG Steuerung einer Bildauslösung zur Luftbilderfassung in Nadir-Ausrichtung für ein unbemanntes Fluggerät
CN104123715B (zh) * 2013-04-27 2017-12-05 株式会社理光 配置视差值的方法和系统
WO2014178047A1 (en) 2013-04-30 2014-11-06 Inuitive Ltd. System and method for video conferencing
CN103310450B (zh) * 2013-06-17 2016-12-28 北京工业大学 一种融合直连通约束的图像分割方法
US10070147B2 (en) 2013-10-18 2018-09-04 Lg Electronics Inc. Method predicting view synthesis in multi-view video coding and method for constituting merge candidate list by using same
US8760500B1 (en) * 2013-10-23 2014-06-24 Google Inc. Depth map generation
CN104021774B (zh) * 2014-05-29 2016-06-15 京东方科技集团股份有限公司 一种图像处理的方法及装置
KR102265315B1 (ko) 2015-04-17 2021-06-15 삼성전자주식회사 영상 광류를 추정하는 방법 및 이를 위한 장치
US10489970B2 (en) * 2015-11-06 2019-11-26 Microsoft Technology Licensing, Llc 2D image processing for extrusion into 3D objects
US10372968B2 (en) * 2016-01-22 2019-08-06 Qualcomm Incorporated Object-focused active three-dimensional reconstruction
US10582179B2 (en) 2016-02-01 2020-03-03 Samsung Electronics Co., Ltd. Method and apparatus for processing binocular disparity image
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
JP6987797B2 (ja) 2016-03-11 2022-01-05 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
JP6991700B2 (ja) 2016-04-28 2022-01-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
EP3252713A1 (en) * 2016-06-01 2017-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
EP3343506A1 (en) * 2016-12-28 2018-07-04 Thomson Licensing Method and device for joint segmentation and 3d reconstruction of a scene
US10885714B2 (en) 2017-07-07 2021-01-05 Niantic, Inc. Cloud enabled augmented reality
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
WO2019165194A1 (en) * 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
US11023722B2 (en) * 2018-07-11 2021-06-01 International Business Machines Corporation Data classification bandwidth reduction
CN110889851B (zh) * 2018-09-11 2023-08-01 苹果公司 针对深度和视差估计的语义分割的稳健用途
CN110838148B (zh) * 2019-11-11 2023-05-05 杭州凌像科技有限公司 一种双目相机自标定方法
WO2021150779A1 (en) * 2020-01-21 2021-07-29 Compound Eye Inc. System and method for egomotion estimation
KR102455833B1 (ko) * 2020-02-12 2022-10-19 한국전자통신연구원 변이 지도 개선 방법 및 장치
CN113256815B (zh) * 2021-02-24 2024-03-22 北京华清易通科技有限公司 虚拟现实场景融合及播放方法和虚拟现实设备
KR20220151420A (ko) * 2021-05-06 2022-11-15 삼성전자주식회사 웨어러블 전자 장치 및 3d 이미지 출력 방법
US12003697B2 (en) 2021-05-06 2024-06-04 Samsung Electronics Co., Ltd. Wearable electronic device and method of outputting three-dimensional image

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
JPH09218954A (ja) * 1996-02-14 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法
JPH1023331A (ja) 1996-06-28 1998-01-23 Olympus Optical Co Ltd 画像処理装置
JPH1079029A (ja) * 1996-09-02 1998-03-24 Canon Inc 立体情報検出方法及びその装置
JP3017122B2 (ja) * 1997-04-03 2000-03-06 株式会社エイ・ティ・アール知能映像通信研究所 奥行き情報抽出装置および奥行き情報抽出方法
JP3728160B2 (ja) * 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7031512B2 (en) 2002-04-18 2006-04-18 Stmicroelectronics, Inc. Method and system for 3D smoothing within the bound of error regions of matching curves
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams

Also Published As

Publication number Publication date
US20050286757A1 (en) 2005-12-29
KR101143218B1 (ko) 2012-05-18
CN100514367C (zh) 2009-07-15
EP1612733A2 (en) 2006-01-04
DE602005015649D1 (de) 2009-09-10
JP2006012166A (ja) 2006-01-12
ATE438160T1 (de) 2009-08-15
US20050286758A1 (en) 2005-12-29
US7324687B2 (en) 2008-01-29
CN1716316A (zh) 2006-01-04
US7379583B2 (en) 2008-05-27
EP1612733A3 (en) 2007-05-09
EP1612733B1 (en) 2009-07-29
KR20060048642A (ko) 2006-05-18

Similar Documents

Publication Publication Date Title
JP4740657B2 (ja) カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス
CN109479098B (zh) 多视图场景分割和传播
JP4074062B2 (ja) ベクトル画像シーケンスにおける意味対象物の追跡
US10368062B2 (en) Panoramic camera systems
JP5985910B2 (ja) ホールレンダリングを用いるマルチビュー映像処理方法及び装置
US7046850B2 (en) Image matching
KR100583902B1 (ko) 이미지세그멘테이션
US8472709B2 (en) Apparatus and method for reducing artifacts in images
US8279930B2 (en) Image processing apparatus and method, program, and recording medium
JP5108893B2 (ja) 2次元画像から3次元パーティクル・システムを復元するためのシステムおよび方法
US7522749B2 (en) Simultaneous optical flow estimation and image segmentation
US20100141651A1 (en) Synthesizing Detailed Depth Maps from Images
US7974470B2 (en) Method and apparatus for processing an image
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
JP4796072B2 (ja) 画像セグメンテーションに基づく画像レンダリング
US20130051663A1 (en) Fast Adaptive Edge-Aware Matting
TW202037169A (zh) 基於視訊的點雲壓縮的區塊分段的方法及裝置
Lo et al. Depth map super-resolution via Markov random fields without texture-copying artifacts
US20120014605A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US9786055B1 (en) Method and apparatus for real-time matting using local color estimation and propagation
US20120014606A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
Kaviani et al. An adaptive patch-based reconstruction scheme for view synthesis by disparity estimation using optical flow
KR101316848B1 (ko) 배경 합성을 위한 자동 객체 분할 장치 및 방법
Oh et al. Robust stereo matching with improved graph and surface models and occlusion handling
JP2005517257A (ja) セグメント化装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080623

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090901

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101105

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20110207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

R150 Certificate of patent or registration of utility model

Ref document number: 4740657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees