JP4395689B2 - 画像データ処理方法およびモデリング装置 - Google Patents

画像データ処理方法およびモデリング装置 Download PDF

Info

Publication number
JP4395689B2
JP4395689B2 JP2001033179A JP2001033179A JP4395689B2 JP 4395689 B2 JP4395689 B2 JP 4395689B2 JP 2001033179 A JP2001033179 A JP 2001033179A JP 2001033179 A JP2001033179 A JP 2001033179A JP 4395689 B2 JP4395689 B2 JP 4395689B2
Authority
JP
Japan
Prior art keywords
region
dimensional image
photographing
shooting
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001033179A
Other languages
English (en)
Other versions
JP2002236909A (ja
Inventor
浩次 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2001033179A priority Critical patent/JP4395689B2/ja
Priority to US10/066,609 priority patent/US7016527B2/en
Publication of JP2002236909A publication Critical patent/JP2002236909A/ja
Application granted granted Critical
Publication of JP4395689B2 publication Critical patent/JP4395689B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes

Landscapes

  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、複数の撮影画像から被写体に対応した部分を抽出する画像データ処理方法および装置に関する。
【0002】
【従来の技術】
コンピュータグラフィックス、工業デザイン、Web用の3Dコンテンツの作成などの各種の分野において、物体の立体形状をデータ化する3次元入力システムが用いられている。
【0003】
3次元入力の手法の1つにシルエット法(Shape from Silhouette )がある。これは、対象物を撮影した複数の画像を用い、各画像から対象物の遮蔽輪郭(シルエット)を抽出し、抽出結果と撮影位置情報とから3次元形状を推定する手法である。シルエット法の適用例として、特公平5−64393号公報には、仮想3次元空間にボクセルと呼称される形状要素が集まった仮想物体を配置し、撮影の視点と遮蔽輪郭とで決まる視体積どうしの共通部分を求め、その共通部分に該当するボクセルを連結することによって物体の形状を再構成する技術が記載されている。
【0004】
【発明が解決しようとする課題】
シルエット法による物体形状の再構成の精度は、各画像からの遮蔽輪郭の抽出の正確さに依存する。現状では、完全な自動の画像処理によってユーザーの要求を満たす抽出結果を得るのは難しく、ユーザーによる指示または修正が必須である。対象物や背景についての知識を利用する高度な画像処理を用いれば抽出精度は幾分高まるものの、知識入力に手間がかかったり、対象物が限られたり、システムが高価になったりする問題がある。また、背景として均一色の幕を置いて撮影した画像から色判別(クラスタリング)で遮蔽輪郭を抽出する手法を用いたとしても、実際には影や照明むらなどにより背景色が均一とはならないので、部分的な抽出の誤りは避けられない。
【0005】
一方、シルエット法による物体形状の再構成において、物体形状を詳細にかつ正しく復元するには、物体表面のできるだけ多くの部位が遮蔽輪郭として画像に現れる必要がある。曲率の大きい曲面については種々の位置から撮影しなければならない。このため、複雑な起伏をもつ対象物の場合には、必要な画像数は極めて多くなる。
【0006】
従来では、物体形状の再構成に必要な画像数にほぼ比例して、遮蔽輪郭の抽出に要する処理時間が長くなり且つ抽出結果を修正するユーザーの作業負担が増大するという問題があった。
【0007】
本発明は、複数の画像について領域抽出を行う際の総所要時間の短縮を図ることを目的としている。
【0008】
【課題を解決するための手段】
本発明においては、複数の画像についての領域抽出を画像毎に順に行い、2番目以降の画像についての領域抽出に際して、それ以前の領域抽出の結果を反映させることによって抽出対象範囲を限定する。抽出処理の順位が下位になるほど、より多くの画像についての抽出結果が反映されて抽出対象範囲が狭まるので、抽出処理時間が短くなる。その結果、各画像について他の画像との関連を考慮せずに独立に領域抽出を行う場合と比べて、複数の画像についての領域抽出の総所要時間が短縮される。
【0009】
抽出結果の反映は、抽出された領域と画像を撮影したときの視点とで決まる視体積を、処理対象の画像に投影することによって実現される。すなわち、撮影の対象物と複数の画像のそれぞれに対応した撮影位置との相互位置関係に基づいて複数の画像を仮想3次元空間に配置し、ある画像についての領域抽出で得られた視体積が他の画像のどこに対応するかを調べる。視体積は遮蔽輪郭を通る視線で囲まれる錐状の空間であって、対象物はこの視体積の中に存在するので、視体積の投影像の範囲内に抽出すべき領域が必ず存在する。したがって、領域抽出の対象範囲は画像のうちの視体積が投影された部分に絞られる。投影の精度を高めるには、撮影位置の情報とともに、撮影に係る結像条件(光学パラメータ)を取得する必要がある。全ての撮影を1つのカメラで行う場合はそのカメラの光学パラメータが必要であり、複数のカメラを用いる場合はそれらカメラの光学パラメータが必要である。
【0010】
【発明の実施の形態】
図1は本発明に係るモデリングシステムの構成図である。
モデリングシステム100は、ディジタルカメラ10、照明灯20、回転台30、カメラ校正用の冶具40、回転軸校正用の冶具50、およびコンピュータ60から構成される。ディジタルカメラ10は、回転台30の上に置かれた対象物90を撮影する。撮影は対象物90との相対位置を変えて複数回行われる。対象物90を撮影した複数の画像はコンピュータ60へ送られ、対象物90のモデリングに用いられる。画像の各画素はRGBの色ベクトル値を表す。コンピュータ60は、本体61、ディスプレイ62、キーボード63、およびマウス64を有したデータ処理システムである。コンピュータ60には、CR−ROM67または他の媒体68に記録されているプログラムがインストールされている。このプログラムは、コンピュータ60を画像データ処理装置およびモデリング装置として機能させる。画像データ処理装置は、図8に示す3つのブロック601,602,603からなり、複数の画像のそれぞれから対象物90に対応した部分である物体領域を抽出する。モデリング装置は、ブロック601,602,603とブロック604からなり、抽出された物体領域に基づいて形状を再構成する。ブロック601は、撮影時のディジタルカメラ10と対象物90との相対位置関係および結像に係る光学パラメータを示す撮影条件データD1を取得する。ブロック602は、1つの画像における物体領域を、他の画像から抽出された物体領域および撮影条件データD1に基づいて推定する。ブロック603は、操作入力に従って物体領域を修正する。ブロック604は、複数の画像から抽出され且つ修正された物体領域と撮影条件データD1とに基づいて対象物90の3次元形状を推定する。ディジタルカメラ10とコンピュータ60との間では、ケーブルまたは赤外線通信によるオンラインのデータ受渡し、および可搬型記録媒体によるオフラインのデータ受渡しが可能である。
【0011】
回転台30は既知の色(Cr)で塗装されている。回転台30は冶具40の前に置かれ、その回転角はケーブルを通じてコンピュータ60により制御される。モデリングシステム100のユーザーは、マウス64を操作することによって回転台30の回転角を調整することができる。冶具40は既知の色(Cb)で彩色された面に別の色で細い格子状の線を描いた剛性の物体である。冶具40の各格子点と当該冶具40における基準位置との相対的な3次元位置関係は既知である。冶具40の基準位置を原点とする3次元座標系は、コンピュータ60のメモリ上に構築される仮想空間におけるワールド座標を定義する。ディジタルカメラ10は三脚によって支持され、回転台30の上に置かれた対象物90または冶具50を画角内に収めるように配置される。オンラインのデータ受渡しでは、ユーザーのマウス操作に呼応してコンピュータ60がディジタルカメラ10からカラー画像を取り込む。ディジタルカメラ10の位置および姿勢は三脚を動かすことによって変更することができ、撮影の画角はズーム調整によって設定することができる。冶具50は、冶具40と同様に単色で彩色された面に別の色で細い格子状の線を描いた剛性の物体である。冶具50においても、各格子点と基準位置との相対的な3次元位置関係は既知である。この冶具50の基準位置を原点とする3次元座標系は、対象物90を基準とするオブジェクト座標を定義する。回転台30を回転させることは対象物90に対して相対的にカメラを移動させることと等価であるので、オブジェクト座標を媒介として、各回の撮影の視点位置を基準とするカメラ座標どうしの相対運動を記述することができる。照明灯20は、対象物90または冶具50に影ができないように回転台30を照らすように配置される。
【0012】
図2はモニター表示の画面構成を示す図である。ディスプレイ62の表示面620には、2つの表示領域(ウインドウ)621,622が設けられる。表示領域621には、ディジタルカメラ10から入力された画像70、または画像70に後述する領域抽出の処理結果である抽出領域を重ねた合成画像が表示される。抽出領域は、必要に応じてユーザがマウス64を用いて単位領域の削除または付加を行うことによって修正することができる。また、表示領域622には、仮想空間中で復元される仕掛かり段階または完成した3次元形状モデル80が、テクスチャマッピングされて表示される。ユーザーはマウス操作により3次元形状モデル80を見る仮想空間中の仮想カメラの位置・姿勢・画角などを変更できる。また、ユーザーはテクスチャマッピング表示に代えてシェーディング表示を行うこともできる。シェーディング表示では、仮想空間中の仮想光源の配置をマウス操作により任意に設定することができる。
【0013】
図3はモデリングの概略の手順を示すフローチャートである。
〔1〕ステップ#100において冶具50の設定を行う。ユーザーは、回転台30の冶具50をその少なくとも2つの面がディジタルカメラ10の視野に入るように置く。
〔2〕ステップ#102において冶具50の撮影を行う。回転台30を回転角θ0の状態にして撮影を行い、続けてディジタルカメラ10を動かさず視点を固定したまま回転台30を回転させて回転角θ0’の状態で撮影する。これにより2つの画像I0,I0’を得る。
〔3〕ステップ#104において、回転軸の校正を行う。画像I0が表示された状態において、ユーザーはマウス64を操作してカメラ校正用の冶具40の格子点の一つにカーソルを合わせてクリックするとともに、予め定められている格子点番号を入力する。これを複数の格子点について行った後、ユーザーはワールド座標と画像I0の画素座標との幾何学的な関係を与える射影行列P0の計算をコンピュータ60に指示する。計算方法としては、O.Faugeras,“Three‐Dimensional Computer Vision−A Geometric Viewpoint”,MIT Press,1996の第3章に記載されたものがある。コンピュータ60は、回転角θ0におけるワールド座標からの3×4射影行列P0を求め、この射影行列P0を3×3内部パラメータ行列A0、3×3回転行列R0、および3次元平行移動ベクトルt0に分解する。すなわち、ここでの処理は、ワールド座標値を(Xw,Yw,Zw)、回転角θ0のカメラの画像座標値を(x0,y0)としたとき、以下の式を満たす射影行列P0、内部パラメータ行列A0、回転行列R0、平行移動ベクトルt0を求めることに等しい。
【0014】
【数1】
Figure 0004395689
【0015】
これにより、ワールド座標(Xw ,Yw ,Zw )から回転角θ0 のカメラでのカメラ座標(X0 ,Y0 ,Z0 )への変換は以下のように与えられるので、R0 ,t0 をコンピュータ60のメモリ上に保存しておく。
【0016】
【数2】
Figure 0004395689
【0017】
次に、P0 の場合と同様に、画像I0 について、回転角θ0 におけるオブジェクト座標からの射影行列O0 、内部パラメータ行列B0 、回転行列Q0 、および平行移動ベクトルs0 を求める。
さらに、同様にして、画像I0 ’について、回転角θ0 ’におけるオブジェクト座標からの射影行列O0 ’、内部パラメータ行列B0 ’、回転行列Q0 ’、および平行移動ベクトルs0 ’を求める。回転軸上の点(ox ,oy ,oz )の回転角θ0 のカメラでのカメラ座標表現は、以下の式を満たす(ox ,oy ,oz )として計算される。
【0018】
【数3】
Figure 0004395689
【0019】
ここで、4次ベクトル(ox ,oy ,oz ,1)t は、行列Tの固有値1に対応する固有ベクトルに対応する。また、回転軸の単位法線ベクトル(nx ,ny ,nz t の回転角θ0 のカメラでのカメラ座標表現は、行列Q0 ’Q0 t の固有値1に対応する単位固有ベクトルとして計算されるが、このとき以下の式で求めた値の符号がsin(θ0 ’−θ0 )と異なる場合は求めたベクトル(nx ,ny ,nz t の符号を反転する。
【0020】
【数4】
Figure 0004395689
【0021】
計算された回転軸のパラメータ(nx ,ny ,nz )および(ox ,oy ,oz )はコンピュータ60のメモリに保存される。
〔4〕ステップ#106において対象物の設定を行う。回転台30に対象物90の全体がディジタルカメラ10の視野に映るように置く。必要に応じて位置ずれを防ぐために対象物90をテープなどで固定する。
〔5〕ステップ#108において3次元形状データを初期化する。仮想空間中に、ユーザーが大きさと個数を指定したボクセルを立体的に並べて配置する。このとき、ボクセルの配置範囲が対象物90が存在すると予想される仮想空間の範囲より十分に大きくなるようにする。
〔6〕ステップ#110においてカメラ位置を設定する。ユーザーは、ディジタルカメラ10の位置や姿勢を変更したり、回転台30を回転させたりすることによって、対象物90とディジタルカメラ10との相対的位置関係を決める。このとき、コンピュータ60は、回転台30の回転角θi を自動的にメモリに書き込んで保存する。
〔7〕ステップ#112において撮影を行う。ディジタルカメラ10により対象物90を撮影し、対象物90のi番目(i=2,3,4,…)の画像Ii を得る。
〔8〕ステップ#114においてカメラ校正を行う。ステップ#104と同様に、画像Ii について、ユーザーがマウス64を操作して、カメラ校正用の治具40の複数の格子点を指定すると、コンピュータ60は次の計算を行う。まず、新たなカメラ視点iのカメラの回転角θ0 におけるワールド座標からの3×4射影行列Pi ’を求め、射影行列Pi ’を3×3内部パラメータ行列Ai 、3×3回転行列Ri ’、および3次元平行移動ベクトルti ’に分解する。次に回転台30の回転を考慮し、以下のようにしてカメラ視点iのカメラの回転角θi での射影行列Pi を計算し、Pi 、および、それを分解したパラメータAi 、Ri 、ti をコンピュータ60のメモリに保存する。
【0022】
【数5】
Figure 0004395689
【0023】
〔9〕ステップ#116において、物体領域を抽出する。図4(a)が示すように、抽出処理対象として注目する画像72(i番目の画像Ij)に対して、既に処理を終えた画像71〔j(j=1,2,…,i−1)番目の画像Ij〕における物体領域710とその外側との境界(遮蔽輪郭)を通る視線で囲まれる視体積V71を投影し、画像72における投影像領域721を計算する。投影像領域721を対象に色判別を行って物体領域720を抽出し、ディスプレイ62における上述の表示領域621に抽出結果を表示する。ユーザーは必要に応じてマウス操作によって抽出結果を修正する。このように注目する1つの画像について抽出処理を行う時点で既に複数の画像から物体領域が抽出されている場合には、これら複数の画像を参照する。すなわち、注目する画像に複数の視体積を投影し、投影像領域どうしが重なる範囲を求める。そして、投影像領域どうしが重なる範囲を対象に色判別を行って物体領域を抽出する。図4(b)では、画像73における物体領域731に対応した視体積V73と、画像74における物体領域741に対応した視体積V74とが画像75に投影されている。画像75における物体領域750は、視体積V73に対応した投影像領域753と視体積V74に対応した投影像領域754との重なり範囲757に完全に含まれる。
〔10〕ステップ#118において3次元形状データを更新する。上述のステップ#114で求められた画像Iiに対応する射影行列Piを使って、図5のように仮想空間中のボクセルをすべて画像Iiに投影し、物体領域720内に完全に入るボクセルだけを残し、その他のボクセルをすべて消去する。
〔11〕ステップ#120において3次元形状データを表示する。米国特許4710876“System and Method for the Display of Surface Structures Contained within the interior region of a solid body”に示されたMarching Cube法に代表される手法を用いてボクセルデータをポリゴンメッシュに変換する。表示形態の指定に応じて、テクスチャマッピングまたはシェーディング処理をした3次元形状モデルを表示する。
〔12〕ステップ#12において処理続行の要否を判断する。ユーザーは、ディスプレイ62に表示された3次元形状モデルと実際の対象物90を見比べてみて、十分に形状が複元されていると判断した場合は、処理の終了をコンピュータ60に指示する。復元された形状が不十分であると判断した場合は処理の続行を指示する。後者の場合は、ステップ#110に戻って以前と異なる位置または姿勢の撮影を行う。
【0024】
図6は物体領域抽出の詳細手順を示すフローチャートである。
〔1〕ステップ#200において参照画像を初期化する。物体領域の抽出に利用する参照画像として、既に物体領域の抽出を終えた画像の中の一つを選ぶ。
〔2〕ステップ#202において未参照画像をチェックする。参照可能な画像のすべてを使用したか否かを調ベ、既にすべて参照している場合はステップ#208へ進む。参照していない画像があればステップ#204に進む。
〔3〕ステップ#204において視体積を投影する。画像Ij の物体領域Sj と他との境界を任意の点から反時計周りに辿りながら境界を通る視線を順次画像Ii に投影していき、画像Ii に投影された視線が走査する領域の両端となる投影視線の係数ベクトルmjl + ,mjl - をコンピュータ60のメモリに保存する。画像Ij に複数の物体領域Sj が存在するときは、それぞれの物体領域Sj l (l=1,2,…,Mj )について上記手順に従って両端となる投影視線の係数ベクトルmjl + ,mjl - をコンピュータ60のメモリに保存する。詳細は後述する。
〔4〕ステップ#206において次の参照画像を設定する。次の参照画像として、参照可能でかつ未参照のものの一つを選ぶ。
〔5〕ステップ#208において、視体積の投影像領域どうしの重なりを決定する。画像Ii の画素pk (k=1,2,…,Nj )のうち、以下の2つの条件式のいずれかを満たす画素領域を求める。この領域は投影像領域の交わり領域vとなり、求める物体領域は基本的にはこの領域に含まれる。求められた交わり領域v内の画素の値が1で、それ以外の画素値が0である2値画像Hi を作成し、コンピュータ60のメモリに保存しておく。
条件式1
【0025】
【数6】
Figure 0004395689
【0026】
条件式2
【0027】
【数7】
Figure 0004395689
【0028】
このとき、画素pk の座標値は(xk ,yk )で与えられているものとする。
〔6〕ステップ#210において色判別を行う。2値画像Hi の対応する画素値が1であり、かつ、画像Ii の対応する画素値が以下の条件を満たす画素領域を求め、求めた画素領域に対応する画素の値が1で、他の画素の値が0であるような2値画像Gi を作成する。
【0029】
【数8】
Figure 0004395689
【0030】
ここで、cb ,cr はそれぞれ冶具40の色Cbの色ベクトル、回転台30の色Crの色ベクトルを表し、ck は画素pk の色ベクトルを表す。tb ,tr はユーザーにより与えられる閾値定数である。
得られた2値画像Gi に対してモルフォロジー演算のオープニング処理を行い、処理結果を保存しておく。この2値画像の値が1である画素は、物体領域に属すると推定された画素である。モルフォロジー演算のオープニング処理は、冶具40上に描かれた格子状の線を抽出結果から排除するために行われる。
〔7〕ステップ#212において物体領域を表示する。2値画像Hi の対応する画素値が1である領域の画素値が交わり領域表示色Coを表すベクトルで、それ以外の領域の画素値が背景表示色Cgを表すベクトルであるような画像Ij ’を作成する。次に、画像Ij ’と画像Ij の対応する各画素の色を予め決められた割合で混合した色を各画素の色とする画像Ji を作成する。そして、2値画像Gi の画素値が1である画素領域の境界を、画像Ji 上に点線で描き、表示領域621に表示する。
〔8〕ステップ#214においてユーザーが修正の要否を判断する。ユーザーは、表示領域621の表示内容を見て、実際の物体領域と点線で境界が示される抽出領域とが異なると判断したときは、所定のマウス操作を行ってコンピュータ60にステップ#216に進むように指示をする。修正すべき個所がないと判断したときは、コンピュータ60に上述のステップ#118に進むように指示する。
〔9〕ステップ#216において物体領域を修正する。実際の物体領域より抽出領域がはみ出している場合、ユーザーは、マウス64をドラッグしてはみ出した領域をカーソルでなぞることにより、はみ出した部分に対応する2値画像Gi の画素値を0にすることができる。また、実際の物体領域より抽出された領域が欠けていると判断した場合は、マウス64をドラッグして欠けている領域をカーソルでなぞることにより、欠けている部分に対応する2値画像Gi の画素値を1にすることができる。画像Ji はステップ#212と同様にして変更される。通常は、投影された視体積の交わり領域vは実際の物体領域を完全に包含するので、ユーザーは視体積の交わりの外の領域を修正する必要がなく、ユーザーの負担は軽減される。また、修正する必要のない領域の面積は、一般に後で領域抽出される画像ほど大きくなるので、ユーザーの修正の負担も領域抽出を各画像に行っていくにつれて減っていく。
【0031】
図7は視体積の投影の詳細手順を示すフローチャートである。
〔1〕ステップ#300においてF行列計算を行う。画像Ii ,Ij 間のF行列を以下の式により求める。
【0032】
【数9】
Figure 0004395689
【0033】
ここで、Fは3×3の行列である。次の方程式を満たす画像Ii 上の点(xi ,yi )の集合は、画像Ij の画像座標(xj ,yj )を通る視線を画像Ii に投影した直線を表す。
【0034】
【数10】
Figure 0004395689
【0035】
この直線ej はエピポーラ線と呼ばれる。画像Ii 上に投影された画像Ii の視線は、エピポールと呼ばれる画像Ii 上の1つの点を通る。画像Ii 上のエピポールの画像座標は、行列Fの0固有値に対応する固有ベクトルを(ex ,ey ,ez )とすれば、(ex /ez ,ey /ez )として与えられる。ただし、ez が0のときには、エピポールは画像の無限遠の端にあり、画像Ii 上のエピポーラ線はすべてベクトル(ex ,ey )に平行な直線となる。また、画像Ij 上のエピポールは、行列Ft の0固有値に対応する固有ベクトルから同様にして求められる。
〔2〕ステップ#302において、未処理境界画素の有無をチェックする。画像Ij において、物体領域の境界画素がすべて処理されているかどうか調ベ、すべて処理されていればステップ#206に戻る。未処理の境界画素が存在するときはステップ#304へ進む。
〔3〕ステップ#304において未処理の境界画素を選択する。画像Ij において、未処理の1番目の物体領域Sj l の境界画素のうちから任意の1つを選ぶ。
〔4〕ステップ#306においてエピポーラ面の計算を行う。画像Ii のカメラ座標で表された3次元空間中の点の座標を(Xi ,Yi ,Zi )とし、ステップ#304で選ばれた境界画素の座標値を(xj ,yj )とすると、画像Ij の点(xj ,yj )を通る視線と画像Ii のカメラの視点とで決定される平面の方程式は、以下のようにして計算できる。
【0036】
【数11】
Figure 0004395689
【0037】
この方程式で定められる平面Ej をエピポーラ面と呼称する。エピポーラ面と画像の投影面の交わりがエピポーラ線ej となる。この方程式のXi ,Yi ,Zi の係数を要素とするベクトルを単位ベクトル化したnj をコンピュータ60のメモリにより保存する。ベクトルnj はエピポーラ面Ej の法線方向を示す。
〔5〕ステップ#308において、エピポーラ面の姿勢計算を行う。次の式により、エピポーラ面Ej の法線が、画像Ii のカメラの光軸と成す角度θj を求める。
【0038】
【数12】
Figure 0004395689
【0039】
〔6〕ステップ#310において、両端のエピポーラ線を更新する。エピポーラ面Ej に対応する画像Ii 上のエピポーラ線ej 上には物体領域が存在する可能性があるので、物体領域Sj l に対応するエピポーラ線の存在範囲の両端を以下のようにして追跡する。
エピポーラ面Ej に対応するエピポーラ線ej は、パラメータ(xi ,yi )に関する次の方程式として与えられる。
【0040】
【数13】
Figure 0004395689
【0041】
物体領域Sj l に対応する両端のエピポーラ線ejl + ,ejl - の係数ベクトルmjl + ,mjl - が保存されていないときは、無条件にエピポーラ線ej の係数ベクトルを、mjl + ,mjl - として保存する。すなわち、
【0042】
【数14】
Figure 0004395689
【0043】
とする。また、このとき同時に処理ステップ#308で求めた角度θj をエピポーラ線ejl + ,ejl - に対応するエピポーラ面の角度θil + ,θil - としてコンピュータ60のメモリに保存する。すなわち、
【0044】
【数15】
Figure 0004395689
【0045】
とする。
既に両端のエピポーラ線の係数ベクトルmjl + ,mjl - が保存されている場合は、mjl + およびθil + をθj がθil + より大きいときのみ更新し、mjl - およびθil - をθj がθil - より小さいときのみ更新する。すなわち、
【0046】
【数16】
Figure 0004395689
【0047】
とする。
〔7〕ステップ#312において隣接境界画素を選択する。選択されている境界画素から境界を反時計周りに辿って次の境界画素を選択する。
〔8〕ステップ#314において、物体領域の境界を一周したか否かをチェックする。新しく選択された境界画素が既に処理済みであれば、1番目の物体領域Sj l の境界画素はすべて処理済みであるので、ステップ#302に戻り、他の物体領域の境界画素の処理を始める。まだ、処理されていないときは、ステップ#306に戻る。
【0048】
以上の実施形態において次ような変形例がある。
〔変形例1〕冶具40および回転台30の色を既知とせず、物体領域の抽出に際してステップ#210を省略し、ユーザーの操作によって物体領域を抽出するようにしてもよい。この変形例を採用しても、投影された視体積の交わり領域は実際の物体領域を完全に包含するので、ユーザーは余分な物体領域を消去するだけでよく、新たに物体領域を追加する必要がない。また、複雑な操作手順に煩わされる頻度が少ないという利点がある。
〔変形例2〕冶具40および回転台30の色を既知とせず、ステップ#210において、既知として与えられるべき色を視体積の交わり領域の外側の画像領域からのサンプリングにより取得してもよい。こうすることにより、システムは照明環境の変動に影響されにくくなる。
〔変形例3〕ディジタルカメラ10の内部パラメータおよび位置・姿勢パラメータを冶具40と回転台30とを用いてオンラインで校正する構成に代えて、冶具を使用せずにカメラの内部パラメータをオフラインで事前に校正しておき、位置・姿勢パラメータを米国特許05402582“Three dimensional coordinate measuring apparatus”にあるようにロボットアームの先にデジタルカメラを備え付けて取得してもよい。または、ディジタルカメラ10に、米国特許05307072“Non‐concentricity compensation in position and orientation measurement systems”にあるような磁気を検知する位置・姿勢センサを取り付けるか、ジャイロセンサと加速度センサを組み合わせて取り付けて、位置・姿勢パラメータを取得してもよい。このとき、変形例1と併用して、完全に任意の背景で処理することも可能である。
〔変形例4〕上述の実施例では、領域抽出の対象画像に他の画像に係る視体積を投影し、その後に投射像領域の交わり領域を求めたが、3次元空間中で視体積の交わりを求めた後、領域抽出の対象として注目する画像にその3次元体積を投影してもよい。すなわち、図3のステップ#116とステップ#118の実行順序を入れ替え、ステップ#200〜208の代わりに、ステップ#118で更新された3次元形状データを注目画像に投影し、その投影像領域にある画素を処理対象として表す印をつけてもよい。
〔変形例5〕変形例4は抽出された物体領域の修正を2次元画像上で行うものであったが、3次元空間中で視体積の交わりそのものを修正することにより間接的に物体領域の修正を行ってもよい。
〔変形例6〕領域抽出の結果を、対象物の画像中の位置をトラッキングするための情報として用いてもよい。すなわち、カメラを連続的に移動して対象物を撮影した画像列に対して、前の画像でのパラメータを初期値として対象物の輪郭にSnakeと呼ばれる輪郭モデルをフィッテングさせる手法(R.Cipollaand A.Blake,”The Dynamic Analysis of Apparent Contours,”Proc. Third ICCV,1990.)を適用する場合に、領域抽出の結果を初期値として利用する。〔変形例7〕ディジタルカメラ10の内部パラメータおよび位置・姿勢パラメータの校正に冶具40を使用せず、画像間で物体や背景の任意の対応点を求めてパラメータの校正を行うことも可能である。
【0049】
【発明の効果】
請求項1ないし請求項の発明によれば、複数の画像について領域抽出を行う際の総所要時間の短縮を図ることができる。
【図面の簡単な説明】
【図1】本発明に係るモデリングシステムの構成図である。
【図2】モニター表示の画面構成を示す図である。
【図3】モデリングの概略の手順を示すフローチャートである。
【図4】物体領域の抽出方法の概念図である。
【図5】3次元形状モデルの更新の概念図である。
【図6】物体領域抽出の詳細手順を示すフローチャートである。
【図7】視体積の投影の詳細手順を示すフローチャートである。
【図8】画像データ処理装置およびモデリング装置の機能構成を示す図である。
【符号の説明】
90 対象物(物体)
71,72,73,74,75 画像
710,720,730,740,750 物体領域
10 ディジタルカメラ
V71,V73,V74 視体積
757 重なり範囲(投影像どうしが重なる領域)
60 コンピュータ(画像データ処理装置、モデリング装置)
D1 撮影条件データ

Claims (9)

  1. 複数の画像を撮影したときのカメラと物体との相対位置関係および結像に係る光学パラメータを示す撮影条件データを取得することにより、物体を視点を変えて撮影して得た複数の画像から前記物体に対応した部分である物体領域を抽出する画像データ処理方法であって、
    第1の方向から前記物体を撮影した第1の二次元画像を得るステップと、
    前記第1の二次元画像から前記物体が写っている領域を第1の物体領域として抽出するステップと、
    前記第1の方向とは異なる第2の方向から前記物体を撮影した第2の二次元画像を得るステップと、
    前記第1の物体領域と前記第1の二次元画像の撮影時の撮影条件データが示すカメラ位置に基づく射影行列とで定まる第1の視体積を前記第2の二次元画像に投影するステップと、
    前記第2の二次元画像における前記第1の視体積が投影された領域内から、前記物体が写っている領域を第2の物体領域として抽出するステップと、
    前記第1および第2の方向とは異なる第3の方向から前記物体を撮影した第3の二次元画像を得るステップと、
    前記第2の物体領域と前記第2の二次元画像の撮影時の前記撮影条件データが示すカメラ位置に基づく射影行列とで定まる第2の視体積、および前記第1の視体積を前記第3の二次元画像に投影するステップと、
    前記第3の二次元画像における投影された前記第1および第2の視体積が重なる領域内から、前記物体が写っている領域を第3の物体領域として抽出するステップとを有し、
    3以上の二次元画像からの物体領域の抽出を二次元画像毎に順次行い、2番目以降の二次元画像からの抽出に際しては、それ以前に抽出された物体領域に基づく視体積の投影された範囲内から物体領域を抽出する
    ことを特徴とする画像データ処理方法。
  2. 前記第1、第2または第3の物体領域を、当該物体領域を有した二次元画像についてのデータ処理によって修正するステップを有する
    請求項記載の画像データ処理方法。
  3. 前記第1、第2または第3の物体領域を、当該物体領域を有した二次元画像における当該物体領域以外の部分である背景領域の色情報を用いて修正するステップを有する
    請求項記載の画像データ処理方法。
  4. 複数の画像を撮影したときのカメラと物体との相対位置関係および結像に係る光学パラメータを示す撮影条件データを取得することにより、物体を視点を変えて撮影して得た複数の画像から前記物体に対応した部分である物体領域を抽出する画像データ処理装置であって、
    第1の方向から前記物体を撮影した第1の二次元画像を得る手段と、
    前記第1の二次元画像から前記物体が写っている領域を第1の物体領域として抽出する手段と、
    前記第1の方向とは異なる第2の方向から前記物体を撮影した第2の二次元画像を得る手段と、
    前記第1の物体領域と前記第1の二次元画像の撮影時の撮影条件データが示すカメラ位置に基づく射影行列とで定まる第1の視体積を前記第2の二次元画像に投影する手段と、
    前記第2の二次元画像における前記第1の視体積が投影された領域内から、前記物体が写っている領域を第2の物体領域として抽出する手段と、
    前記第1および第2の方向とは異なる第3の方向から前記物体を撮影した第3の二次元画像を得る手段と、
    前記第2の物体領域と前記第2の二次元画像の撮影時の前記撮影条件データが示すカメラ位置に基づく射影行列とで定まる第2の視体積、および前記第1の視体積を前記第3の二次元画像に投影する手段と、
    前記第3の二次元画像における投影された前記第1および第2の視体積が重なる領域内から、前記物体が写っている領域を第3の物体領域として抽出する手段とを有し、
    3以上の二次元画像からの物体領域の抽出を二次元画像毎に順次行い、2番目以降の二次元画像からの抽出に際しては、それ以前に抽出された物体領域に基づく視体積の投影された範囲内から物体領域を抽出する
    ことを特徴とする画像データ処理装置。
  5. 前記第1、第2または第3の物体領域を修正する手段を有する
    請求項記載の画像データ処理装置。
  6. 前記物体領域を修正する手段は、前記第1の視体積を投影した前記第2の二次元画像または前記第1および第2の視体積を投影した前記第3の二次元画像を表示する機能をもつ
    請求項記載の画像データ処理装置。
  7. 複数の画像を撮影したときのカメラと物体との相対位置関係および結像に係る光学パラメータを示す撮影条件データを取得することにより、物体を視点を変えて撮影して得た複数の画像に基づいて当該物体の3次元形状を推定するモデリング方法であって、
    第1の方向から前記物体を撮影した第1の二次元画像を得るステップと、
    前記第1の二次元画像から前記物体が写っている領域を第1の物体領域として抽出するステップと、
    前記第1の方向とは異なる第2の方向から前記物体を撮影した第2の二次元画像を得るステップと、
    前記第1の物体領域と前記第1の二次元画像の撮影時の撮影条件データが示すカメラ位置に基づく射影行列とで定まる第1の視体積を前記第2の二次元画像に投影するステップと、
    前記第2の二次元画像における前記第1の視体積が投影された領域内から、前記物体が写っている領域を第2の物体領域として抽出するステップと、
    前記第1および第2の方向とは異なる第3の方向から前記物体を撮影した第3の二次元画像を得るステップと、
    前記第2の物体領域と前記第2の二次元画像の撮影時の前記撮影条件データが示すカメラ位置に基づく射影行列とで定まる第2の視体積、および前記第1の視体積を前記第3の二次元画像に投影するステップと、
    前記第3の二次元画像における投影された前記第1および第2の視体積が重なる領域内から、前記物体が写っている領域を第3の物体領域として抽出するステップと、
    仮想空間において前記第1、第2および第3の二次元画像に投影したときに前記抽出された第1、第2および第3の物体領域内に入る立体の形状を前記物体の3次元形状推定するステップとを有する
    ことを特徴とするモデリング方法。
  8. 複数の画像を撮影したときのカメラと物体との相対位置関係および結像に係る光学パラメータを示す撮影条件データを取得することにより、物体を視点を変えて撮影して得た複数の画像に基づいて当該物体の3次元形状を推定するモデリング装置であって、
    第1の方向から前記物体を撮影した第1の二次元画像を得る手段と、
    前記第1の二次元画像から前記物体が写っている領域を第1の物体領域として抽出する手段と、
    前記第1の方向とは異なる第2の方向から前記物体を撮影した第2の二次元画像を得る手段と、
    前記第1の物体領域と前記第1の二次元画像の撮影時の撮影条件データが示すカメラ位置に基づく射影行列とで定まる第1の視体積を前記第2の二次元画像に投影する手段と、
    前記第2の二次元画像における前記第1の視体積が投影された領域内から、前記物体が写っている領域を第2の物体領域として抽出する手段と、
    前記第1および第2の方向とは異なる第3の方向から前記物体を撮影した第3の二次元画像を得る手段と、
    前記第2の物体領域と前記第2の二次元画像の撮影時の前記撮影条件データが示すカメラ位置に基づく射影行列とで定まる第2の視体積、および前記第1の視体積を前記第3の二次元画像に投影する手段と、
    前記第3の二次元画像における投影された前記第1および第2の視体積が重なる領域内から、前記物体が写っている領域を第3の物体領域として抽出する手段と、
    仮想空間において前記第1、第2および第3の二次元画像に投影したときに前記抽出された第1、第2および第3の物体領域内に入る立体の形状を前記物体の3次元形状推定する手段とを有する
    ことを特徴とするモデリング装置。
  9. 複数の画像を撮影したときのカメラと物体との相対位置関係および結像に係る光学パラメータを示す撮影条件データを取得することにより、物体を視点を変えて撮影して得た複数の画像に基づいて当該物体の3次元形状を推定するモデリングコンピュータプログラムであって、
    コンピュータを
    第1の方向から前記物体を撮影した第1の二次元画像を得る手段、
    前記第1の二次元画像から前記物体が写っている領域を第1の物体領域として抽出する手段、
    前記第1の方向とは異なる第2の方向から前記物体を撮影した第2の二次元画像を得る手段、
    前記第1の物体領域と前記第1の二次元画像の撮影時の撮影条件データが示すカメラ位置に基づく射影行列とで定まる第1の視体積を前記第2の二次元画像に投影する手段、
    前記第2の二次元画像における前記第1の視体積が投影された領域内から、前記物体が写っている領域を第2の物体領域として抽出する手段、
    前記第1および第2の方向とは異なる第3の方向から前記物体を撮影した第3の二次元画像を得る手段、
    前記第2の物体領域と前記第2の二次元画像の撮影時の前記撮影条件データが示すカメラ位置に基づく射影行列とで定まる第2の視体積、および前記第1の視体積を前記第3の二次元画像に投影する手段、
    前記第3の二次元画像における投影された前記第1および第2の視体積が重なる領域内から、前記物体が写っている領域を第3の物体領域として抽出する手段、
    および、仮想空間において前記第1、第2および第3の二次元画像に投影したときに前記抽出された第1、第2および第3の物体領域内に入る立体の形状を前記物体の3次元形状推定する手段として機能させる
    ことを特徴とするコンピュータプログラム。
JP2001033179A 2001-02-09 2001-02-09 画像データ処理方法およびモデリング装置 Expired - Fee Related JP4395689B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001033179A JP4395689B2 (ja) 2001-02-09 2001-02-09 画像データ処理方法およびモデリング装置
US10/066,609 US7016527B2 (en) 2001-02-09 2002-02-06 Method for processing image data and modeling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001033179A JP4395689B2 (ja) 2001-02-09 2001-02-09 画像データ処理方法およびモデリング装置

Publications (2)

Publication Number Publication Date
JP2002236909A JP2002236909A (ja) 2002-08-23
JP4395689B2 true JP4395689B2 (ja) 2010-01-13

Family

ID=18896974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001033179A Expired - Fee Related JP4395689B2 (ja) 2001-02-09 2001-02-09 画像データ処理方法およびモデリング装置

Country Status (2)

Country Link
US (1) US7016527B2 (ja)
JP (1) JP4395689B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165863A (ja) * 2002-11-12 2004-06-10 Murata Mach Ltd カラー画像送信装置
GB2398469B (en) * 2003-02-12 2005-10-26 Canon Europa Nv Image processing apparatus
US8276091B2 (en) * 2003-09-16 2012-09-25 Ram Consulting Haptic response system and method of use
US7880899B2 (en) * 2005-01-26 2011-02-01 Konica Minolta Sensing, Inc. Three-dimensional measurement system, inspection method, three-dimensional measurement method and program
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
JP4839827B2 (ja) * 2005-12-26 2011-12-21 コニカミノルタセンシング株式会社 3次元測定装置
JP5101429B2 (ja) * 2008-08-11 2012-12-19 セコム株式会社 画像監視装置
WO2010021972A1 (en) * 2008-08-18 2010-02-25 Brown University Surround structured lighting for recovering 3d object shape and appearance
JP5218034B2 (ja) * 2008-12-26 2013-06-26 Kddi株式会社 マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP5170154B2 (ja) * 2010-04-26 2013-03-27 オムロン株式会社 形状計測装置およびキャリブレーション方法
CN204451558U (zh) * 2012-02-23 2015-07-08 咨询卡有限公司 卡片重定向机构以及台式卡片打印机
US8416236B1 (en) * 2012-07-19 2013-04-09 Google Inc. Calibration of devices used to generate images of a three-dimensional object data model
EP3035291B1 (en) * 2014-12-19 2017-11-15 Donya Labs AB Rendering based generation of occlusion culling models
JP6608165B2 (ja) * 2015-05-12 2019-11-20 国立大学法人京都大学 画像処理装置及び方法、並びにコンピュータプログラム
JP6756090B2 (ja) * 2015-06-17 2020-09-16 凸版印刷株式会社 画像処理装置、方法、及びプログラム
JP6546898B2 (ja) * 2016-12-13 2019-07-17 日本電信電話株式会社 3次元空間特定装置、方法、及びプログラム
JP6482580B2 (ja) * 2017-02-10 2019-03-13 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP6907047B2 (ja) * 2017-06-28 2021-07-21 キヤノン株式会社 情報処理装置、その制御方法およびプログラム
JP6894873B2 (ja) * 2018-07-24 2021-06-30 Kddi株式会社 画像処理装置、方法及びプログラム
CN108955525B (zh) * 2018-07-26 2024-04-09 广东工业大学 透视投影式机器学习图像数据标注系统及方法
JP7197451B2 (ja) * 2019-09-27 2022-12-27 Kddi株式会社 画像処理装置、方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61138377A (ja) 1984-12-11 1986-06-25 Hitachi Ltd 3次元デジタル画像入力方法
US4710876A (en) 1985-06-05 1987-12-01 General Electric Company System and method for the display of surface structures contained within the interior region of a solid body
JP2642368B2 (ja) 1987-12-28 1997-08-20 株式会社東芝 画像編集装置
US5307072A (en) 1992-07-09 1994-04-26 Polhemus Incorporated Non-concentricity compensation in position and orientation measurement systems
JP2601607B2 (ja) 1992-12-21 1997-04-16 日本電信電話株式会社 三次元表面データ入力システム
US5402582A (en) 1993-02-23 1995-04-04 Faro Technologies Inc. Three dimensional coordinate measuring apparatus
JP2000194859A (ja) 1998-12-25 2000-07-14 Canon Inc 被写体形状抽出方法、被写体形状抽出装置及び記録媒体

Also Published As

Publication number Publication date
US7016527B2 (en) 2006-03-21
JP2002236909A (ja) 2002-08-23
US20020150288A1 (en) 2002-10-17

Similar Documents

Publication Publication Date Title
JP4395689B2 (ja) 画像データ処理方法およびモデリング装置
US11727587B2 (en) Method and system for scene image modification
US10636206B2 (en) Method and system for generating an image file of a 3D garment model on a 3D body model
US10867453B2 (en) Method and system for generating an image file of a 3D garment model on a 3D body model
Weise et al. Online loop closure for real-time interactive 3D scanning
Weise et al. In-hand scanning with online loop closure
US6278460B1 (en) Creating a three-dimensional model from two-dimensional images
US6930685B1 (en) Image processing method and apparatus
Coorg et al. Spherical mosaics with quaternions and dense correlation
US8059889B2 (en) Position and orientation measurement apparatus and control method thereof
CN110070564B (zh) 一种特征点匹配方法、装置、设备及存储介质
CN109407547A (zh) 面向全景视觉感知的多摄像头在环仿真测试方法与系统
CN107155341B (zh) 三维扫描系统和框架
EP1308902A2 (en) Three-dimensional computer modelling
JP2003058911A (ja) 3次元物体の表面形状モデリング装置、方法、プログラム
Gibson et al. Interactive reconstruction of virtual environments from video sequences
US20170064284A1 (en) Producing three-dimensional representation based on images of a person
CN111060006A (zh) 一种基于三维模型的视点规划方法
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
Fischer et al. A hybrid tracking method for surgical augmented reality
JP2000194859A (ja) 被写体形状抽出方法、被写体形状抽出装置及び記録媒体
CN113160381A (zh) 多视角动物三维几何与纹理自动化重建方法和装置
JP2002520969A (ja) 動き画像からの自動化された3次元シーン走査方法
Wong et al. 3D object model reconstruction from image sequence based on photometric consistency in volume space
EP3779878A1 (en) Method and device for combining a texture with an artificial object

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090924

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091007

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees