JP5442111B2 - 画像から高速に立体構築を行なう方法 - Google Patents

画像から高速に立体構築を行なう方法 Download PDF

Info

Publication number
JP5442111B2
JP5442111B2 JP2012511112A JP2012511112A JP5442111B2 JP 5442111 B2 JP5442111 B2 JP 5442111B2 JP 2012511112 A JP2012511112 A JP 2012511112A JP 2012511112 A JP2012511112 A JP 2012511112A JP 5442111 B2 JP5442111 B2 JP 5442111B2
Authority
JP
Japan
Prior art keywords
image
pixel
homography matrix
generate
base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012511112A
Other languages
English (en)
Other versions
JP2012527787A (ja
Inventor
リ、ジアングオ
ツェン、イン
リ、チャン
チェン、ユロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2012527787A publication Critical patent/JP2012527787A/ja
Application granted granted Critical
Publication of JP5442111B2 publication Critical patent/JP5442111B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本明細書で開示する主題は概して、複数の観測点からの画像による立体構築に関する。
グラフィクス・コンピューティングおよびビジュアル・コンピューティングの利用が、3次元(3D)ゲーム、仮想世界、ミラーワールド(例えば、Google Earth)、没入型ユーザインターフェース等の分野において、拡大している。立体構築は、別々の位置に配置されている2つ以上のカメラによって得られた画像から、または、観測位置を変えながら同じカメラで撮像した画像から、高密度の3Dシーンを再生することを目的とする。立体構築では、カメラの(内部および外部の)パラメータは、カメラのキャリブレーションによって得られる。従来の立体構築方法は、精度または処理速度に関して制限が多い。したがって、高速且つ正確な立体構築を求める声が高まっている。
本発明の実施形態は、添付図面を参照しつつ説明するが、図示内容は本発明の実施形態を制限するものではなく例示するものである。図中、同様の参照番号は同様の構成要素を意味する。
立体画像対に対するパッチ投影を示す図である。
一実施形態に係る立体画像対の立体構築処理を示す図である。
一実施形態に係る逆構成画像アラインメント(ICIA)処理を示す。
一実施形態に係る、マルチビュー立体構築に利用され得る処理を示す図である。
(A)および(B)で立体構築の結果を比較する図である。
一実施形態に係る、コンピュータシステムを示す図である。
本明細書では「一実施形態」または「ある実施形態」という場合、当該実施形態に関連付けて説明している特定の特徴、構造、または特性が、本発明の少なくとも1つの実施形態に含まれていることを意味する。このため、「一実施形態において」または「ある実施形態」という表現は本明細書において繰り返し言及されるが、必ずしも全てが同じ実施形態を指しているわけではない。さらに、特定の特徴、構造、または特性を1以上の実施形態において組み合わせるとしてもよい。
立体構築の方法として従来、(1)立体マッチングによる立体構築(例えば、正規化相互相関(NCC))および(2)色または光一貫性(photo consistency)を最適化することに基づく立体構築という2つの方法が公知である。(2)の方法の例は、Y.FurukawaおよびJ.Ponce、「正確、高密度、且つロバストなマルチビュー立体視」、CVPR(2007)(以下では「Furukawa法」と呼ぶ)に記載されている。
光一貫性は、立体画像対における複数の対応ポイントの類似度の測定値である。光一貫性は、対応ポイントの近傍の領域に対して以下のように定義されるとしてよい。
Figure 0005442111
式中、Aは、対応ポイントを中心とする領域を表し、IおよびIは、左(基礎)画像および右(並進後)画像を意味し、f()は、距離関数であって、以下のように表される。
Figure 0005442111
xは、画像ポイント位置を表し、l(x)はポイントxにおける階調値を表す。
図1は、立体画像対に対するパッチ投影を示す図である。以下に、図1で用いている符号を説明する。
C1およびC2:カメラ
O1およびO2:2つのカメラのカメラ中心(軸の交差点)
b:2つのカメラの間のベースライン
l1およびl2:C1およびC2が撮像した画像
P:3Dポイント
P1、P2:3DポイントPを画像面に投影したもの
E1、E2:P1およびP2を通るエピ極線
π:ポイントPにおける3Dモデル面の接平面
n:接平面のPにおける法線ベクトル(方向)
H:平面πによって行なわれるホモグラフィー(平面射影)
x=P
T(x):基礎画像におけるテンプレートウィンドウ
W(x,p):並進後の画像におけるホモグラフィー・ワープ・ウィンドウ
Furukawa法は、3DポイントP周辺のパッチを立体画像対に投影して、対応投影点p、pの光一貫性メトリックを算出する。しかし、位置Pは正確な位置ではなく、Furukawa法は位置が、一方向に沿って、または、位置Pの近傍の立方体内で、変更可能であると仮定している。光一貫性の測定は位置毎に行なわれ、光一貫性の測定値が最も大きい位置が最適化された結果であるとしてよい。Furukawa法を用いた場合の算出速度は、画像平面に3Dパッチを後方投影することから受け入れ難いレベルであり、Furukawa法の精度は、元の位置の近傍のサンプリングレートの問題を抱えている。
さまざまな実施形態では、従来のNCCに基づく立体マッチング法の後に光一貫性最適化を行なうことで、立体マッチングおよび立体構築の精度を改善する。ホモグラフィー・フィッティングを利用するさまざまな実施形態では、光一貫性測定値を画素座標の陰関数に変換して、解析的勾配を導出する。最適化は、解析的勾配を持ち、効率的に解くことが可能である、ホモグラフィー・フィッティングを画像平面間で行なうことに基づいている。
NCCマッチングを利用する方法に比べて、ホモグラフィー・フィッティングを利用するさまざまな実施形態の光一貫性の最適化は、一致を最適化することによって、立体構築結果の精度を大幅に改善することができる。
さまざまな色または光一貫性を最適化する方法(例えば、Furukawa法)では、3Dパッチを画像平面に後方投影する。しかし、3Dパッチを画像平面に後方投影すると、計算負荷が高くなり、時間がかかってしまう。したがって、少なくともFurukawa法に比べて、さまざまな実施形態は計算時間を短縮することができる。
図2は、実施形態に係る、立体画像対の立体構築処理を説明するための図である。ブロック202は、入力立体画像対を受信することを含む。立体画像対は、1以上のデジタルカメラまたは一の立体カメラから入出力インターフェースを介してコンピュータシステムに提供されるとしてよい。入力立体画像対は、一般的な画像と同じ形式である。例えば、各画像は、2Dの矩形であって、画素の階調値または色を示すために(x,y)を座標として利用する。
ブロック204は、入力立体画像対を修正して、エピ極線が水平または垂直になるようにすることを含む。
ブロック206は、修正された入力立体画像対に立体マッチング法を適用することを含む。例えば、ブロック206は、正規化相互相関(NCC)を適用して、この立体画像対の画素間での初期対応関係を決定することを含むとしてよい。コンピュータシステムのグラフィクス・プロセッシング・ユニット(GPU)は、画像対修正および立体マッチングを実行するとしてよい。
ブロック208は、基礎画像の画素毎に、平面射影変換フィッティングを利用して基礎画像の画素と、並進後の画像の対応画素との間での光一貫性を最適化することを含む。例えば、基礎画像は図1の左側の画像であり、並進後の画像は図1の右側の画像である。コンピュータシステムの中央演算処理装置が、平面射影変換フィッティングを実行するとしてよい。
ブロック210は、最適化した対応点を三角測量して、1つの視点からの3Dシーンを提供することを含む。ブロック202、204、206および210を実行する適切な方法は、例えば、H.Hirschmfuller他、「境界エラーを低減するリアルタイム相関に基づく立体視」、pp229−246、第47号、IJCV2002に記載されている。コンピュータシステムのGPUが、単一の視点からの3次元視を提供するべく対応点の三角測量を実行するとしてよい。
図2のプロセスによる立体構築の計算手順は、中央演算処理装置(CPU)またはグラフィクスプロセッシングユニット(GPU)で実行され得る。一般的に、立体マッチングの計算で最も複雑な部分は、データレベルでの並列処理が非常に多く、GPUのマルチスレッド処理機能またはベクトル処理機能を利用することで、加速することができる。ホモグラフィー・フィッティングは、逐次的な更新手順であり、CPUで実行可能である。
以下では、ブロック208で実行される処理の例を説明する。ホモグラフィーは、同じ3Dポイント群に対応するが別のカメラから見た、2つのポイント群の間でのマッピングである。ホモグラフィーは、2つの画像平面における2つの対応するポイント群を関係付けるための変換として利用される。図1を参照しつつ説明すると、基礎画像平面内のポイントPについて、接平面π(nは接平面の法線)によって行なわれるホモグラフィーHに基づき、並進後の画像平面内での対応するポイントPを特定する。つまり、ホモグラフィーHによって、接平面πを介して、PをPへと移動させる。平面πは、対応する3DポイントPにおける物体表面の接平面である。
さまざまな実施形態では、光一貫性の最適化において平面射影変換パラメータに関して2つの領域についてホモグラフィー・フィッティングを適用する。図1を参照しつつ説明すると、基礎画像の各画素Pについて、画素Pを中心としてm×mのウィンドウT(x)を配置する。尚、xは、基礎ウィンドウT(x)の画素の画像座標を表す。並進後の画像におけるxの対応画素は、W(x;p)=H(p)・xとして表され、H(p)はホモグラフィー変換である。さまざまな実施形態によると、H(p)は、立体カメラの内部パラメータおよび外部パラメータによって決まる3×3の行列であり、pは、対応する3Dポイントの深さおよび法線に関連する三要素パラメータである。他の種類のホモグラフィー変換を利用するとしてもよい。
ホモグラフィー変換は、以下の式で表すことができる。
Figure 0005442111
式中、KおよびKは、左カメラおよび右カメラの内部行列であり、Rは、左カメラと右カメラとの間での回転行列であり、tは、左カメラと右カメラとの間の並進ベクトルであり、nが平面πの法線ベクトルであり、dが左カメラの中心から平面πまでの距離である場合に、p=n/dである。
基礎画像の画素xと並進後画像IのワープウィンドウW(x;p)との間の光一貫性は、以下のように定義される。
Figure 0005442111
式中、T(x)は基礎画像におけるテンプレートウィンドウであり、Iは並進後画像であり、W(x;p)は並進後画像におけるホモグラフィー・ワープ・ウィンドウである。光一貫性は、ホモグラフィー・パラメータpの非線形陰関数である。さまざまな実施形態によると、光一貫性を改善するべく逆構成画像アラインメント(ICIA)処理を利用する。ICIA処理は、ホモグラフィー行列H(p)および並進後画像の対応画素を最適化するように修正される。例えば、適切なICIA処理は、S.Baker、I.Matthews、Lucas−Kanade、「20年後:統一フレームワーク」、IJCV(2004)に記載されている。ホモグラフィー・フィッティング用のICIA処理の一例を、図3の処理300を参照しつつ説明する。
ブロック302は、カメラ対のパラメータおよびホモグラフィー・パラメータpの初期値と共に、画素ポイントx=(u,v,1)を受信することを含む。パラメータは、カメラの内部行列Kおよび外部特性(例えば、回転行列Rおよび並進ベクトルt)、ならびに、ホモグラフィー・パラメータpの初期値(定義は上述の通り)を含むとしてよい。パラメータpは、定義p=n/dに応じて従来のNCC方法で初期化することができる。
ブロック304は、並進後画像のヘッセ行列を決定することを含む。例えば、ブロック304は、(1)基礎ウィンドウT(x)の傾き∇Tを評価して、(2)(x;p)におけるpに関連して、右画像Wのヤコビアン(∇J=∂W/∂pと表される)を評価して、(3)pに関連してWのヘッセ行列を決定することを含むとしてよい。ヘッセ行列は以下のように表現され得る。
Figure 0005442111
ヘッセ行列は、ホモグラフィー行列を改善した結果に対応する。
ブロック306は、並進後画像W(x;p)における画素を決定することを含む。例えば、ブロック306は、(1)W(x;p)で並進後画像IをワープさせることによってI(W(x;p))を決定して、(2)エラー画像I(W(x;p))−T(x)を決定して、(3)以下の数6で表されるインクリメント幅を算出して、(4)W(x;p)=W(x;p)・W(x;Δp)−1を決定することでワープW(x;p)を更新することを含むとしてよい。
Figure 0005442111
ブロック306の(1)〜(4)は、インクリメント幅の絶対値|Δp|が制限値未満となるまで繰り返し実行する。例えば、制限値は約0.00001であってよい。処理300では、以下の数7で表される最適化されたホモグラフィー行列を決定するための利用され得る最適化されたワープウィンドウ(W(x,p))を決定する。
Figure 0005442111
最適化されたホモグラフィー行列H(p)を用いて、以下の数8で表す並進後画像の対応画素を決定することができる。
Figure 0005442111
図2を参照しつつ説明した立体ホモグラフィー・フィッティング方法は、マルチビュー立体構築でも利用できるように変更できる。マルチビュー立体は、複数の立体対を組み合わせた結果と考えることができる。図4は、一実施形態に係るマルチビュー立体構築に利用可能な処理を示す図である。ブロック402は、複数の異なる立体視点から複数の3次元シーンを受信する。一例を挙げると、C1、C2およびC3という3つの視点がある。両眼立体対は、C1−C2、C2−C3およびC1−C3であってよい。
ブロック404は、立体対毎に、立体ホモグラフィー、マルチビューアラインメント、および、統合処理を実行する。立体対毎に、図2および図3を参照して説明した立体ホモグラフィーを適用する。ホモグラフィー・フィッティングによって最適化される対応関係を、(x1,x2=w(x1))と定義し得る。最適化された対(x1,x2=w(x1))が得られると、この対を、例えば、R.HartleyおよびA.Zisserman、「コンピュータビジョンにおけるマルチビュー構成」、第12章、ケンブリッジプレス、第2版(2003)に記載されている方法にしたがって既知のカメラパラメータで三角測量する。三角測量によって、各立体対の対応関係に基づいて3次元ポイントX12が得られるとしてよい(X12=三角測量(x1,x2))。
X12がC1−C2を三角測量した結果であり、X23がC2−C3を三角測量した結果であり、X13がC1−C3を三角測量した結果であり、X12、X13およびX23は同じ3Dポイントに対応しているとする。3DポイントXは、X12、X13、およびX23の関数であり、X=f(X12,X13,X23)となる。尚、f()はマルチビューアラインメントおよび統合処理の関数であり、X12、X13、およびX23は全て、ワールド座標系での3次元ポイントである。一部の実施形態によると、マルチビューアラインメントおよび統合処理の方法は、他の関数も利用できるが、平均関数または最良適合関数であってよい。
例えば、f()を平均関数として定義すると、3DポイントはX=(X12+X13+X23)/3と表される。
f()を最良適合関数として定義すると、3Dポイントとして、(1)正規化ベクトルnがカメラ平面に対して略垂直となるか、または、(2)nijの方向POに対する角度が最小値となるポイントが選択される。このため、f()は選択関数X=Xiとして定義される。尚、以下の関係が成り立つ。
Figure 0005442111
ブロック406では、複数の視点に基づき一の3次元シーンを提供する。ブロック404においてXとして決定された複数の3Dポイントによって、一の3次元シーンを形成する。
図5の(A)は、例えば、http://vision.middlebury.edu/に記載されている標準的なミドルベリー立体評価セットに対して立体構築を行なった結果を示す図である。図5の(B)は、ホモグラフィー・フィッティングに基づく光一貫性最適化を利用した技術の結果を示す図である。ホモグラフィー・フィッティングに基づく光一貫性最適化を利用した技術は、少なくとも画質の点において、従来のNCCマッチングに基づく方法よりもはるかに性能が高いことが分かる。
ホモグラフィー・フィッティングに基づく光一貫性最適化を利用した技術は、Furukawa法と同様の結果を生成するが、時間が短縮され得る。表1は、これら2つの方法で立体構築タスクを実行するのに必要な時間を示す。
Figure 0005442111
図6は、本発明の一実施形態に係るコンピュータシステム600を示すブロック図である。コンピュータシステム600は、ホストシステム602、バス616、および、ネットワークインターフェース620を備えるとしてよい。コンピュータシステム600は、ハンドヘルド型パーソナルコンピュータ、携帯電話、セットトップボックスまたは任意のコンピューティングデバイスで実現され得る。ホストシステム602は、チップセット605、プロセッサ610、ホストメモリ612、ストレージ614、および、グラフィクスサブシステム615を有するとしてよい。チップセット605は、プロセッサ610、ホストメモリ612、ストレージ614、グラフィクスサブシステム615、および、バス616の間での通信を可能とするとしてよい。例えば、チップセット605は、ストレージ614との通信を可能とするストレージアダプタ(不図示)を含むとしてよい。例えば、ストレージアダプタは、小型計算機システムインターフェース(SCSI)、ファイバーチャネル(FC)、および/または、シリアル・アドバンスド・テクノロジー・アタッチメント(S−ATA)といったプロトコルのうちいずれかに準拠して、ストレージ614と通信可能であるとしてよい。
一部の実施形態によると、チップセット605は、ホストメモリ612内、または、ネットワークインターフェース620とホストメモリ612との間、または、一般的にはコンピュータシステム600の任意の構成要素間で、情報を転送することが出来るデータ移動ロジックを含むとしてよい。
プロセッサ610は、複合命令セットコンピュータ(CISC)型プロセッサあるいは縮小命令セットコンピュータ(RISC)型プロセッサ、マルチコア型、または、任意のその他のマイクロプロセッサあるいは中央演算処理装置として実現されるとしてよい。
ホストメモリ612は、これらに限定されないが、ランダム・アクセス・メモリ(RAM)、ダイナミック・ランダム・アクセス・メモリ(DRAM)、または、スタティックRAM(SRAM)等の揮発性メモリ装置として実現されるとしてよい。ストレージ614は、これらに限定されないが、磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内部格納装置、取付型の格納装置、フラッシュメモリ、電池によるバックアップを備えるSDRAM(シンクロナスDRAM)、および/または、ネットワークアクセス可能格納装置等の不揮発性格納装置として実現されるとしてよい。
グラフィクスサブシステム615は、静止画像または動画像等の画像を表示すべく処理するとしてよい。例えば、グラフィクスサブシステム615は、ビデオエンコーディングまたはビデオデコーディングを実行するとしてよい。例えば、グラフィクスサブシステム615は、図2から図4を参照しつつ説明した動作を実行するグラフィクス処理部の動作を実行するとしてよい。グラフィクスサブシステム615およびディスプレイ622は、アナログインターフェースまたはデジタルインターフェースを用いて互いに通信可能に結合するとしてよい。例えば、当該インターフェースは、高精細度マルチメディアインターフェース(HDMI)、DisplayPort、無線HDMI、および/または、無線HDに対応する方法のうちいずれであってもよい。グラフィクスサブシステム615は、プロセッサ610またはチップセット605に集積化することが可能である。グラフィクスサブシステム615は、チップセット605に通信可能に結合されているスタンドアロン型のカードであってよい。
バス616は、少なくともホストシステム602およびネットワークインターフェース620の間で、他の周辺装置(不図示)との間と同様に、通信を可能とするとしてよい。バス616は、シリアル通信またはパラレル通信をサポートするとしてよい。バス616は、ノード・ツー・ノード通信またはノード・ツー・マルチノード通信をサポートするとしてよい。バス616は、少なくとも、例えば、PCISIG(ペリフェラル・コンポーネント・インターコネクト・スペシャル・インタレスト・グループ)(米国オレゴン州ポートランド)から入手可能なPCIローカル・バス仕様書の改訂版3.0(2004年2月2日)(この改訂版も含む)に記載されているペリフェラル・コンポーネント・インターコネクト(PCI)、PCI SIGのPCI Express基礎仕様書の改訂版1.0a(この改訂版も含む)に記載されているPCI Express、上述したPCI SIG(米国オレゴン州ポートランド)から入手可能なPCI−X仕様書の改訂版1.1(2005年3月28日)(この改訂版も含む)に記載されているPCI−x、および/または、ユニバーサルシリアルバス(USB)(および関連する規格)、そして、他の相互接続規格に準拠しているとしてよい。
ネットワークインターフェース620は、ホストシステム602と、有線方式または無線方式等の任意の適用可能なプロトコルに準拠したネットワークとの間での通信を可能とするとしてよい。例えば、ネットワークインターフェースは、IEEE802.3、802.11、または、802.16のどのバージョンに準拠しているとしてもよい。ネットワークインターフェース620は、バス616を用いてホストシステム602と通信するとしてよい。一実施形態によると、ネットワークインターフェース620はチップセット605に集積化されるとしてよい。
本明細書で説明するグラフィクス処理技術および/またはビデオ処理技術は、さまざまなハードウェアアーキテクチャで実現されるとしてよい。例えば、グラフィクス機能および/またはビデオ機能は、チップセット内に集積化されているとしてよい。これに代えて、ディスクリートなグラフィクスプロセッサおよび/またはビデオプロセッサを利用するとしてよい。また別の実施形態によると、グラフィクス機能および/またはビデオ機能は、マルチコアプロセッサを含む汎用プロセッサで実現されるとしてもよい。別の実施形態によると、これらの機能は消費者向け電子デバイスで実現されるとしてもよい。
本発明の実施形態は、例えば、機械実行可能命令を格納している1以上の機械可読媒体を含むコンピュータプログラム製品として提供されるとしてよい。当該機械実行可能命令が、コンピュータ、コンピュータネットワークまたはその他の電子デバイス等の1以上の機械で実行されると、当該1以上の機械は本発明の実施形態に係る処理を実行するとしてよい。機械可読媒体は、これらに限定されないが、フロッピー(登録商標)ディスク、光ディスク、CD−ROM(コンパクト・ディスク・リード・オンリー・メモリ)、および、光磁気ディスク、ROM(リード・オンリー・メモリ)、RAM(ランダム・アクセス・メモリ)、EPROM(消去可能プログラム可能リード・オンリー・メモリ)、EEPROM(電気的消去可能プログラム可能リード・オンリー・メモリ)、磁気カードまたは光カード、フラッシュメモリ、または、機械実行可能命令を格納するのに適したその他の種類の媒体/機械可読媒体を含むとしてよい。
図面および上記の説明は、本発明の例を説明している。複数の別個の機能要素として図示しているものであっても、当業者であれば、そのうち1以上の機能要素を組み合わせて単一の機能素子とすることに想到するであろう。これに代えて、特定の要素を複数の機能要素に分割するとしてもよい。ある実施形態の要素を、別の実施形態に追加するとしてもよい。例えば、本明細書に記載する処理の順序は、変更するとしてもよく、本明細書に記載したように実行されることには限定されない。さらに、どのフローチャートに記載した動作についても、図示した順序で実行する必要はなく、全ての動作を必ずしも実行する必要もない。また、他の動作に影響されない動作は、当該他の動作と並行に実行するとしてもよい。しかし、本発明の範囲は、上述した具体例に限定されるものではない。本明細書で明示されていようといまいと、構造、寸法、および利用材料を変更する等、多くの変更が可能である。本発明の範囲は、少なくとも、特許請求の範囲に記載する程度に幅広く解釈されたい。

Claims (18)

  1. コンピュータで実施される方法であって、
    画像対に対して立体マッチングを実行する段階と、
    前記画像対を修正して、エピ極線が水平または垂直の何れかになるようにする段階と、
    修正された前記画像対に立体マッチングを適用する段階と、
    前記画像対に含まれる基礎画素にホモグラフィー行列変換を適用して、前記基礎画素から前記画像対に含まれる並進後画素を生成する段階と、
    対応ポイントを三角測量して、3次元シーンを生成する段階と、
    前記3次元シーンを表示用に提供する段階と
    を備え
    前記基礎画素から前記並進後画素を生成する段階は、ホモグラフィー・フィッティングを利用して、前記基礎画素と前記並進後画素との間の光一貫性を改善する段階を有する方法。
  2. 前記立体マッチングを適用する段階は、正規化相互相関(NCC)を適用する段階を有する請求項1に記載の方法。
  3. 逆構成画像アラインメント(ICIA)を用いてホモグラフィー行列変換を生成する段階をさらに備える請求項1に記載の方法。
  4. ホモグラフィー行列変換を生成する段階と、
    前記ホモグラフィー行列変換の陰関数として、基礎画像と並進後画像のワープウィンドウとの間における光一貫性を定義する段階と、
    前記ワープウィンドウの光一貫性を改善する段階と
    をさらに備える請求項1に記載の方法。
  5. 前記ホモグラフィー行列は、
    Figure 0005442111
    を含み、
    式中、KおよびKは、左カメラおよび右カメラの内部行列であり、
    Rは、前記左カメラと前記右カメラとの間での回転行列であり、
    tは、前記左カメラと前記右カメラとの間の並進ベクトルであり、
    nが平面πの法線ベクトルであり、dが前記左カメラの中心から前記平面πまでの距離である場合に、p=n/dである請求項1に記載の方法。
  6. 複数の立体画像対から一の3次元シーンを生成する段階をさらに備える請求項1に記載の方法。
  7. コンピュータに、
    画像対に対して立体マッチングを実行する段階、
    前記画像対を修正する段階、
    修正された前記画像対に立体マッチングを適用する段階、
    前記画像対に含まれる基礎画素にホモグラフィー行列変換を適用して、前記基礎画素から前記画像対に含まれる並進後画素を生成する段階、
    対応ポイントを三角測量して、3次元シーンを生成する段階、
    前記3次元シーンを表示用に提供する段階
    を実行させ
    前記基礎画素から前記並進後画素を生成するべく、前記基礎画素と前記並進後画素との間の光一貫性を改善するプログラム。
  8. 前記立体マッチングを適用する場合、正規化相互相関(NCC)を適用する請求項に記載のプログラム。
  9. 逆構成画像アラインメント(ICIA)を用いて前記ホモグラフィー行列変換を生成する段階をさらに実行させる請求項に記載のプログラム。
  10. ホモグラフィー行列変換を生成する段階、
    前記ホモグラフィー行列変換の陰関数として、基礎画像と並進後画像のワープウィンドウとの間における光一貫性を定義する段階、
    前記ワープウィンドウの光一貫性を改善する段階
    をさらに実行させる請求項に記載のプログラム。
  11. 前記ホモグラフィー行列は、
    Figure 0005442111
    を含み、
    式中、KおよびKは、左カメラおよび右カメラの内部行列であり、
    Rは、前記左カメラと前記右カメラとの間での回転行列であり、
    tは、前記左カメラと前記右カメラとの間の並進ベクトルであり、
    nが平面πの法線ベクトルであり、dが前記左カメラの中心から前記平面πまでの距離である場合に、p=n/dである請求項に記載のプログラム。
  12. 画像対に含まれる基礎画素にホモグラフィー行列変換を適用して、前記基礎画素から前記画像対に含まれる並進後画素を生成し、
    対応ポイントを三角測量して、3次元シーンを生成し、
    前記3次元シーンを表示用に提供する
    プロセッサを備え
    前記プロセッサは、前記基礎画素から前記並進後画素を生成するべく、前記基礎画素と前記並進後画素との間の光一貫性を改善する装置。
  13. 前記プロセッサは、マルチコアプロセッサおよびグラフィクスプロセッシングユニットのうち少なくとも1つである請求項12に記載の装置。
  14. 前記プロセッサは、逆構成画像アラインメント(ICIA)を用いて前記ホモグラフィー行列変換を生成する請求項12に記載の装置。
  15. 前記プロセッサは、ホモグラフィー行列を適用すべく、
    ホモグラフィー行列変換を生成し、
    前記ホモグラフィー行列変換の陰関数として、基礎画像と並進後画像のワープウィンドウとの間における光一貫性を定義し、
    前記ワープウィンドウの光一貫性を改善する
    請求項12に記載の装置。
  16. 表示デバイスと、
    前記表示デバイスに通信可能に結合されているコンピュータシステムと
    を備え、
    前記コンピュータシステムは、
    画像対に含まれる基礎画素にホモグラフィー行列変換を適用して、前記基礎画素から前記画像対に含まれる並進後画素を生成し、
    対応ポイントを三角測量して、3次元シーンを生成し、
    前記3次元シーンを表示用に提供し、
    基礎画素から並進後画像の画素を生成するべく、前記基礎画素と前記並進後画素との間の光一貫性を改善するシステム。
  17. 前記コンピュータシステムは、逆構成画像アラインメント(ICIA)を用いて前記ホモグラフィー行列変換を生成する請求項16に記載のシステム。
  18. 前記コンピュータシステムは、ホモグラフィー行列を適用すべく、
    ホモグラフィー行列変換を生成し、
    前記ホモグラフィー行列変換の陰関数として、基礎画像と並進後画像のワープウィンドウとの間における光一貫性を定義し、
    前記ワープウィンドウの光一貫性を改善する
    請求項16に記載のシステム。
JP2012511112A 2009-05-21 2009-05-21 画像から高速に立体構築を行なう方法 Expired - Fee Related JP5442111B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2009/000554 WO2010133007A1 (en) 2009-05-21 2009-05-21 Techniques for rapid stereo reconstruction from images

Publications (2)

Publication Number Publication Date
JP2012527787A JP2012527787A (ja) 2012-11-08
JP5442111B2 true JP5442111B2 (ja) 2014-03-12

Family

ID=43125706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012511112A Expired - Fee Related JP5442111B2 (ja) 2009-05-21 2009-05-21 画像から高速に立体構築を行なう方法

Country Status (8)

Country Link
US (2) US9053550B2 (ja)
JP (1) JP5442111B2 (ja)
KR (1) KR101310589B1 (ja)
DE (1) DE112009005074T8 (ja)
ES (1) ES2400277B1 (ja)
GB (1) GB2482447B (ja)
SG (1) SG175393A1 (ja)
WO (1) WO2010133007A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101310589B1 (ko) 2009-05-21 2013-09-23 인텔 코오퍼레이션 이미지들로부터의 빠른 스테레오 재구성을 위한 기술들
US20130201187A1 (en) * 2011-08-09 2013-08-08 Xiaofeng Tong Image-based multi-view 3d face generation
US8564608B2 (en) 2011-10-28 2013-10-22 Palm, Inc. Display of visual images by fractional color gradient increments
US8923558B2 (en) * 2012-05-15 2014-12-30 Raytheon Company Moving object detection using stereo rectified images acquired from a moving aircraft
CN102842118A (zh) * 2012-07-17 2012-12-26 刘怡光 一种鲁棒的立体像对矫正新方法
US20140043447A1 (en) * 2012-08-09 2014-02-13 Sony Corporation Calibration in the loop
WO2014035204A1 (ko) * 2012-08-30 2014-03-06 (주)지에스엠솔루션 뷰 포인트에 따른 입체화 방법
WO2015035566A1 (en) * 2013-09-11 2015-03-19 Intel Corporation Integrated presentation of secondary content
US9813730B2 (en) * 2013-12-06 2017-11-07 Mediatek Inc. Method and apparatus for fine-grained motion boundary processing
CN104463949B (zh) * 2014-10-24 2018-02-06 郑州大学 一种基于光场数字重聚焦的快速三维重建方法及其系统
US10142613B2 (en) 2015-09-03 2018-11-27 Kabushiki Kaisha Toshiba Image processing apparatus, image processing system, and image processing method
TWI592020B (zh) * 2016-08-23 2017-07-11 國立臺灣科技大學 投影機的影像校正方法及影像校正系統
JP7013144B2 (ja) * 2016-10-12 2022-01-31 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10438362B2 (en) * 2017-05-31 2019-10-08 Here Global B.V. Method and apparatus for homography estimation
CN108399630B (zh) * 2018-01-22 2022-07-08 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN108470150A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种基于可见光相机的生物特征四维数据采集方法及装置
DE202018003266U1 (de) 2018-07-13 2018-08-22 Siemens Schweiz Ag Überwachungseinrichtung für einen Brandmelder sowie Brandmelder mit einer derartigen Überwachungseinrichtung
CN111294584B (zh) * 2020-02-21 2020-11-20 当家移动绿色互联网技术集团有限公司 三维场景模型的展示方法、装置、存储介质及电子设备
CN114255328A (zh) * 2021-12-10 2022-03-29 重庆邮电大学 一种基于单视图与深度学习的古文物三维重建方法
CN117455767B (zh) * 2023-12-26 2024-05-24 深圳金三立视频科技股份有限公司 全景图像拼接方法、装置、设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0635392A (ja) * 1992-07-20 1994-02-10 Fujitsu Ltd 立体表示装置
JPH06265322A (ja) * 1993-03-11 1994-09-20 Canon Inc 複数画像からの視差検出方法
US6639596B1 (en) * 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US7512261B2 (en) * 2004-07-27 2009-03-31 Microsoft Corp. System and method for calibrating multiple cameras without employing a pattern by inter-image homography
JP2006285609A (ja) * 2005-03-31 2006-10-19 Canon Inc 画像処理方法、画像処理装置
KR100755450B1 (ko) 2006-07-04 2007-09-04 중앙대학교 산학협력단 평면 호모그래피를 이용한 3차원 재구성 장치 및 방법
JP2008097444A (ja) * 2006-10-13 2008-04-24 Toyota Motor Corp 画像処理装置
JP4392507B2 (ja) * 2006-11-08 2010-01-06 国立大学法人東京工業大学 3次元サーフェス生成方法
DE102007013431B4 (de) * 2007-03-15 2018-07-05 Seereal Technologies S.A. Verfahren und Einrichtung zum Rekonstruieren einer dreidimensionalen Szene mit korrigierter Sichtbarkeit
JP4958610B2 (ja) * 2007-04-06 2012-06-20 キヤノン株式会社 画像防振装置、撮像装置及び画像防振方法
US20100215101A1 (en) * 2007-04-09 2010-08-26 Yong Joon Jeon Method and an apparatus for processing a video signal
US8467628B2 (en) * 2007-04-24 2013-06-18 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
CN101689299B (zh) * 2007-06-20 2016-04-13 汤姆逊许可证公司 用于图像的立体匹配的系统和方法
KR100899422B1 (ko) * 2007-08-06 2009-05-27 삼성모바일디스플레이주식회사 스테레오 매칭 시스템 및 이를 이용한 스테레오 매칭방법
CN101354796B (zh) 2008-09-05 2010-08-11 浙江大学 基于泰勒级数模型的全向立体视觉三维重建方法
CN101383051B (zh) * 2008-09-27 2011-03-23 四川虹微技术有限公司 一种基于图像重投影的视图合成方法
KR101310589B1 (ko) 2009-05-21 2013-09-23 인텔 코오퍼레이션 이미지들로부터의 빠른 스테레오 재구성을 위한 기술들

Also Published As

Publication number Publication date
ES2400277A2 (es) 2013-04-08
US20150348266A1 (en) 2015-12-03
US9652849B2 (en) 2017-05-16
KR20120093063A (ko) 2012-08-22
KR101310589B1 (ko) 2013-09-23
DE112009005074T5 (de) 2012-11-22
ES2400277B1 (es) 2014-04-24
DE112009005074T8 (de) 2012-12-27
US20120127171A1 (en) 2012-05-24
JP2012527787A (ja) 2012-11-08
GB2482447A (en) 2012-02-01
WO2010133007A1 (en) 2010-11-25
GB201118808D0 (en) 2011-12-14
ES2400277R1 (es) 2013-07-16
US9053550B2 (en) 2015-06-09
GB2482447B (en) 2014-08-27
SG175393A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
JP5442111B2 (ja) 画像から高速に立体構築を行なう方法
JP7181977B2 (ja) 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム
US9013482B2 (en) Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
US8452081B2 (en) Forming 3D models using multiple images
US8447099B2 (en) Forming 3D models using two images
US9098930B2 (en) Stereo-aware image editing
US20190073792A1 (en) System and method for determining a camera pose
JP4297197B2 (ja) キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
US20120176478A1 (en) Forming range maps using periodic illumination patterns
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
JPWO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
GB2520613A (en) Target region fill utilizing transformations
CN103456038A (zh) 一种井下环境三维场景重建方法
CN111047709B (zh) 一种双目视觉裸眼3d图像生成方法
JP2011253376A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9147279B1 (en) Systems and methods for merging textures
JP2014092461A (ja) 画像処理装置および方法、画像処理システム、並びにプログラム
US8670606B2 (en) System and method for calculating an optimization for a facial reconstruction based on photometric and surface consistency
CN109242898B (zh) 一种基于图像序列的三维建模方法及系统
WO2020237492A1 (zh) 三维重建方法、装置、设备及存储介质
US8633926B2 (en) Mesoscopic geometry modulation
KR20160020690A (ko) 2차원 이미지 변환을 통한 3차원 프린팅 파일 생성 장치 및 방법
KR101454780B1 (ko) 3d 모델의 텍스쳐 생성 방법 및 장치
KR20110055032A (ko) 전자기기에서 3차원 컨텐츠 생성 방법 및 장치
WO2018014324A1 (zh) 一种实时虚拟视点合成的方法及装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131217

R150 Certificate of patent or registration of utility model

Ref document number: 5442111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees