JP3813343B2 - 3次元モデリング装置 - Google Patents
3次元モデリング装置 Download PDFInfo
- Publication number
- JP3813343B2 JP3813343B2 JP00598298A JP598298A JP3813343B2 JP 3813343 B2 JP3813343 B2 JP 3813343B2 JP 00598298 A JP00598298 A JP 00598298A JP 598298 A JP598298 A JP 598298A JP 3813343 B2 JP3813343 B2 JP 3813343B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- voxel
- standard deviation
- shape
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
Landscapes
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
【発明の属する技術分野】
本発明は、3次元モデリング装置およびその方法、3次元モデリングプログラムを記録した媒体、ならびに3次元形状推定プログラムを記録した媒体に関し、特に、対象物体の立体モデルを生成する3次元モデリング装置およびその方法ならびに3次元モデリングプログラムを記録した媒体に関する。
【0002】
【従来の技術】
一般に、3次元グラフィックス画像を得るためには、3次元対象物体の形状およびテクスチャ(色彩および模様)を表現した立体モデルが作成される。
【0003】
立体モデルを作成する従来の3次元モデリング方法としては、たとえばシルエット法やステレオ法がある。シルエット法は、対象物体を複数の視点から単眼カメラで撮影し、それにより得られた複数のシルエット画像に基づいて対象物体の立体モデルを生成する。
【0004】
【発明が解決しようとする課題】
しかしながら、シルエット法は撮影された対象物体の輪郭に基づいて立体モデルを生成するため、対象物体の凹所を表現することができないという問題がある。
【0005】
また、「財満久義他,『連続カラー画像を用いた双方向投票による物体形状と色の推定』,情報処理学会第53回(平成8年後期)全国大会,2−301および302頁」には、色情報を投票して対象物体の形状を推定する方法が開示されている。この方法は、表面ボクセルにおいては同じ色が投票されるはずであるという仮定に基づいたものである。しかしながら、この方法は、すべての画像情報を一旦用いて色の投票を行なっているため、表面ボクセルに対し、裏方向の画像情報までもが投票されてしまう。したがって、通常、表面ボクセルにおいても投票された色が異なってしまう。この問題を解決するため、ボクセルに投票された候補色を絞り込む必要が生じている。この処理のため、この方法は、投票された色をすべて保持するための多大なメモリが必要となる。これに加え、候補色の中から色の同一性を抽出して表面ボクセルを決定するために、同じ部分が常に同じ色で撮影される必要がある。あるいは、同じ色であるか否かを判断するためのしきい値設定が必要になる。このしきい値設定は一般に困難な処理となる。
【0006】
本発明は上記のような問題点を解決するためになされたもので、対象物体の凹所を表現可能な簡易かつ安価な3次元モデリング装置およびその方法ならびに3次元モデリングプログラムを記録した媒体を提供することを目的とする。
【0007】
【課題を解決するための手段】
請求項1に係る3次元モデリング装置の発明は、対象物体の立体モデルを生成する3次元モデリング装置であって、前記対象物体を複数の視点から撮影し、複数の物体画像を得る物体画像獲得手段と、前記複数の物体画像のうち少なくとも2つの物体画像間において互いに対応する画像情報についての濃度情報及び/又は色情報の標準偏差に基づいて前記対象物体の形状を推定する形状推定手段と、前記推定された形状に基づいて前記立体モデルを生成する生成手段とを備え、前記形状推定手段は、複数の領域から構成される3次元仮想空間の領域に前記少なくとも2つの物体画像に対応する画像情報についての濃度情報及び/又は色情報を累積する画像情報累積手段と、前記領域に累積された画像情報についての濃度情報及び/又は色情報の標準偏差を算出する算出手段とを含む。
【0008】
請求項2に係る3次元モデリング装置の発明は、請求項1に記載の発明において、前記複数の物体画像中の前記対象物体の輪郭に基づいて前記3次元仮想空間における前記対象物体の存在領域を概略的に推定する存在領域推定手段をさらに備え、前記画像情報累積手段は、前記3次元仮想空間の領域のうち前記存在領域内の領域に前記画像情報についての濃度情報及び/又は色情報を累積する。
【0009】
請求項3に係る3次元モデリング装置の発明は、請求項1に記載の発明において、前記形状推定手段はさらに、前記対象物体の形状を推定するために、前記3次元仮想空間の領域のうち前記標準偏差の小さい領域を滑らかに結合する結合手段を含む。
【0010】
請求項4に係る3次元モデリング装置の発明は、請求項3に記載の発明において、前記結合手段は、前記標準偏差の小さい領域を滑らかに結合するために、前記標準偏差の小ささと前記結合されるべき領域の滑らかさとを変数とする評価関数を最小化する。
【0011】
請求項5に係る3次元モデリング装置の発明は、請求項1から請求項2のいずれかに記載の発明において、前記形状推定手段はさらに、前記3次元仮想空間の座標空間を前記視点の1つから放射状に広がる座標軸を有する透視座標空間に変換する座標変換手段と、前記対象物体の形状を推定するために、前記透視座標空間において前記1つの視点を通る直線上の領域のうち前記標準偏差が最小またはその最小値よりも所定の値だけ大きい領域を結合する結合手段とを含む。
【0012】
請求項6に係る3次元モデリング装置の発明は、請求項1から請求項2のいずれかに記載の発明において、前記形状推定手段はさらに、前記対象物体の形状を推定するために、前記3次元仮想空間において前記視点の1つを通る直線上の領域のうち前記標準偏差が最小またはその最小値よりも所定の値だけ大きい領域を結合する結合手段を含む。
【0013】
請求項7に係る3次元モデリング装置の発明は、請求項1から請求項2のいずれかに記載の発明において、前記形状推定手段はさらに、前記複数の物体画像間において互いに対応する画像情報の標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含む。
【0014】
請求項8に係る3次元モデリング装置の発明は、請求項2に記載の発明において、前記形状推定手段はさらに、前記標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含み、前記統合手段は、前記3次元仮想空間の領域のうち前記存在領域推定手段で推定された存在領域内にありかつ前記部分表面の各々の外側にある領域に、その領域から前記複数の部分表面までの距離を累積する距離累積手段と、前記累積された距離の総和が所定の値よりも大きい領域を前記対象物体の外側と認定する認定手段とを含む。
【0015】
請求項9に係る3次元モデリング装置の発明は、請求項2に記載の発明において、前記形状推定手段はさらに、前記標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含み、前記統合手段は、前記3次元仮想空間の領域のうち前記存在領域推定手段で推定された存在領域内にありかつ前記部分表面の各々の外側にある領域に、その領域から前記複数の部分表面までの距離を累積する距離累積手段と、前記累積回数を計算する累積回数計算手段と、前記累積された距離の総和を前記計算された累積回数で除した距離平均値が所定の値よりも大きい領域を前記対象物体の外側と認定する認定手段とを含む。
【0016】
請求項10に係る3次元モデリング装置の発明は、請求項1に記載の発明において、前記形状推定手段はさらに、前記標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含み、前記統合手段は、前記3次元仮想空間の領域のうち前記部分表面の各々の内側にある領域に所定の第1の値を投票する投票手段と、前記投票された第1の値の総和が所定の第2の値よりも大きい領域を前記対象物体の内側と認定する認定手段とを含む。
【0017】
請求項11に係る3次元モデリング装置の発明は、請求項1から請求項10のいずれかに記載の発明において、前記画像情報累積手段はさらに、前記物体画像の複数の画素を含む所定ブロックごとに前記画像情報についての濃度情報及び/又は色情報を累積する。
【0018】
請求項12に係る3次元モデリング装置の発明は、請求項1から請求項11のいずれかに記載の発明において、前記領域はボクセルであり、前記3次元仮想空間はボクセル空間である。
【0058】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して詳しく説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。
【0059】
[実施の形態1]
図1は、本発明の実施の形態1による3次元モデリング装置の全体構成を示す図である。図1を参照して、この実施の形態1による3次元モデリング装置は、回転テーブル1と、デジタルスチルカメラ2と、コンピュータ3と、CD−ROM(コンパクトディスク−リードオンリメモリ)4とを備える。回転テーブル1は、その上に載置された対象物体(図示せず)を回転させるためのものである。ここでは回転テーブル1を用いたが、これに代えて対象物体の向きを変えることができるロボットアームなどを用いてもよい。デジタルスチルカメラ2は、立体モデルを得ようとする対象物体を複数の視点から撮影し、複数の物体画像を得るためのものである。ここでは静止画を得ることができるデジタルスチルカメラ2を用いたが、これに代えて動画を得ることができるビデオカメラなどを用いてもよい。CD−ROM4には、コンピュータ3に、デジタルスチルカメラ2で得られた物体画像に基づいて対象物体の立体モデルを生成させるためのプログラムが記録されている。ここではプログラムを記録する媒体としてCD−ROM4を用いたが、これに代えてフロッピィディスク、CD−R、DVD、メモリカードなどを用いてもよい。
【0060】
なお、この3次元モデリング装置は、カメラ2を固定し、対象物体を回転させることによって対象物体を複数の視点から撮影するようにしているが、対象物体を固定し、カメラ2を移動することによって対象物体を複数の視点から撮影するようにしてもよい。ただし、カメラ2を移動する場合はカメラ2の撮影位置を求める必要がある。この3次元モデリング装置は、カメラ2を固定し、対象物体を回転させているため、各視点から対象物体までの距離は互いに等しいが、この距離は必ずしも等しくなくてもよい。距離が等しくない場合は、以下に詳述する方法で各視点から対象物体までの距離を考慮して種々の計算を行なう必要がある。
【0061】
図2は、図1に示されたコンピュータ3の主要構成を示すブロック図である。図2を参照して、このコンピュータ3は、中央処理装置(CPU)5と、リードオンリメモリ(ROM)6と、ランダムアクセスメモリ(RAM)7と、入出力インタフェース(I/F)8と、CPU5、ROM6、RAM7およびI/F8を相互に結合するためのデータ/アドレスバス9とを備える。デジタルスチルカメラ2、およびCD−ROM4のためのドライブユニットはI/F8に接続され、これによりデジタルスチルカメラ2で得られた物体画像およびCD−ROM4に記録されたプログラムはI/F10を介してRAM7に格納される。CPU5は、ROM6およびRAM7に格納されたプログラムに従って演算処理を行なう。
【0062】
図3は、図1に示されたCD−ROM4に記録された3次元モデリングプログラムを示すフローチャートである。図4(a)は、図3中の対象物体および背景の撮影ステップS2を説明するための図である。図4(b)は、図3中のシルエット画像の作成ステップS3を説明するための図である。図4(c)は、図3中の形状推定処理ステップS4を説明するための図である。図4(d)は、図3中のポリゴン作成ステップS5を説明するための図である。図4(e)は、図3中のテクスチャマッピングステップS6を説明するための図である。
【0063】
図1〜図4を参照して、まずステップS1では、回転テーブル1とカメラ2との間の相対的な位置関係を決定するためのキャリブレーションを行なう。
【0064】
続いてステップS2では、対象物体10およびその背景をカメラ2で撮影する。より具体的には、まず、対象物体10を回転テーブル1の上に置かずに背景だけを1つの視点から撮影する。これにより1枚の背景画像が得られる。次に、対象物体10を回転テーブル1の上に置き、回転テーブル1を回転させることによって対象物体10を複数の視点から撮影する。たとえば回転テーブル1を22.5°ずつ回転させると、図5に示されるように対象物体10を16の視点(0〜15)から撮影することになるため、16枚の物体画像A0〜A15が得られる。回転テーブル1およびカメラ2はコンピュータ3内のI/F8に接続され、CPU5によって制御される。また、得られた1枚の背景画像および16枚の物体画像A0〜A15はI/F8を介してRAM7に格納される。なお、ここでは対象物体10を16の視点から撮影しているが、視点の数は2以上であればよく、特に限定されるものではない。
【0065】
続いてステップS3では、公知の画像間差分処理法に従ってシルエット画像が作成される。すなわち、物体画像A0〜A15と背景画像との間で差分処理が行なわれ、図4(b)に示されるように16枚のシルエット画像B0〜B15が作成される。差分処理においては、物体画像の色信号レベルと背景画像の色信号レベルとの差が各画素ごとに算出される。なお、ここでは画像間差分処理法を用いているが、これに代えて公知のステレオ法を用いてもよい。ステレオ法は、両眼カメラで対象物体10を撮影し、その画像中の奥行き情報に基づいて対象物体10を背景と区別するものである。
【0066】
続いてステップS4では、形状推定処理が行なわれる。この形状推定処理のために、図6に示されるような直交座標系のボクセル空間11が予め用意され、RAM7に格納されている。ここでは直交座標系のボクセル空間11を用いているが、これに代えて円筒座標系のボクセル空間を用いてもよい。ボクセル空間11は、複数のボクセル12から構成される。
【0067】
図7は、図3に示された形状推定処理ステップS4の詳細を示すフローチャートである。まず、ステップS40の概略形状推定処理では、複数のシルエット画像B1〜B15に基づいてボクセル空間11における対象物体10の存在領域が概略的に推定される。次に、ステップS41の詳細形状推定処理では、物体画像A0〜A15間における濃度情報(輝度信号レベル)の標準偏差に基づいて対象物体10の形状が詳細に推定される。
【0068】
対象物体10の存在領域を概略的に推定するステップS40では公知のボーティング処理が行なわれる。すなわち、図8に示されるように、各シルエット画像B1,B2が各視点からボクセル空間11に投影される。このときシルエット画像B1,B2中の物体部分13が貫通するボクセル12に対象物体10が存在する可能性として1点が投票される。すべてのシルエット画像B1〜B15がボクセル空間11に投影されたとき、投票数が所定数よりも多いボクセル12が対象物体10の存在領域と推定される。ただし、図5に示されるような対象物体10の凹所14はシルエット画像B0〜B15に現われないため、このボーティング処理によって推定された存在領域は対象物体10の形状を概略的に表現するものにすぎない。すなわち、対象物体10の凹所の真の表面14は現れず、仮の表面15が現れる。
【0069】
通常、対象物体10の真の表面14はいずれの視点からも同じ色および濃度で観察されるが、仮の表面15は視点によって異なった色または濃度で観察される。したがって、同じ部分でも視点によって異なった色または濃度で観察される部分は対象物体10の凹所である可能性が高い。
【0070】
そこで、対象物体10の形状を詳細に推定するステップS41では、対象物体10の形状を概略的に推定した後、濃度情報の標準偏差に基づいて対象物体10の形状、特に凹所の形状が詳細に推定される。より具体的には、図9に示されるように、16枚の物体画像A0〜A15のうち、中心画像として物体画像A0、および周辺画像として物体画像A0に隣接する物体画像A1,A15を用いて形状推定を行なう場合、物体画像A0,A1,A15ともに、その画素の濃度情報がボクセル空間11に投影され、各画素からの投影線16が貫通するすべてのボクセル12にその画素の濃度情報が累積される(色ボーティング処理ステップS410)。換言すれば、すべてのボクセル12について、物体画像A0,A1,A15への投影点が求められ、その投影点の濃度情報が対応するボクセル12に累積される。そして、各ボクセル12に累積された濃度情報の標準偏差が算出される。標準偏差が大きいボクセル12は、それに対応する部分が視点によって異なった濃度で観察されることを意味するので、そのようなボクセル12は対象物体10の凹所である可能性が高い。そのため、ボクセル空間11内のボクセル12のうち標準偏差が小さいボクセルを滑らかに結合することにより、図5に示された視点(0)から観察可能な対象物体10の部分表面が推定される(部分表面推定処理ステップS52)。
【0071】
上述した色ボーティング処理ステップS410および部分表面推定処理ステップS52は、物体画像A0〜A15の各々を中心画像として行なわれる。したがって、推定された16枚の部分表面が統合され、これにより対象物体10の立体形状が得られる(部分表面統合処理ステップS412)。
【0072】
上記ステップS4に続くステップS5では、ステップS4で得られた対象物体10の立体形状に基づいて三角パッチからなるポリゴン17が作成される。したがって、対象物体10の立体形状は多数のポリゴン17で表現される。ポリゴン17で表現された立体形状はRAM7に格納される。
【0073】
最後にステップS6では、ステップS5で作成された各ポリゴン17に対応するテクスチャがマッピングされる。これにより、対象物体12をモデル化した立体モデル18が作成される。テクスチャは物体画像A0〜A15から得られる色情報で、RAM9に格納される。
【0074】
なお、ここでは回転テーブル1を用いて対象物体10を複数の視点から撮影して複数の物体画像A0〜A15を得ているが、対象物体10の立体形状を推定するために必要な物体画像を得ることさえできれば、上記ステップS1〜S3は適宜他の公知の手法に置換えてもよい。また、物体画像および推定された立体形状に基づいて立体モデル18を生成することさえできれば、上記ステップS5およびS6は適宜他の公知の手法に置換えてもよい。また、対象物体10の輪郭に基づいてボクセル空間11における対象物体10の存在領域を概略的に推定することさえできれば、上記ステップS4中の前半のステップは適宜他の公知の手法に置換えてもよい。
【0075】
次に、上記のように構成された3次元モデリング装置を用いて対象物体10の立体モデル18を生成する方法について説明する。
【0076】
まずステップS1で上述したようにキャリブレーションを行なった後、ステップS2で1つの視点から背景を撮影し、続いて複数の視点から対象物体10を撮影する。これにより1枚の背景画像および複数の物体画像A0〜A15が得られる。続いてステップS3で、物体画像A0〜A15と背景画像との間で差分処理が行なわれ、これによりシルエット画像B0〜B15が得られる。
【0077】
続いて、ステップS40でシルエット画像B0〜B15に基づいてボーティング処理などの概略形状推定処理が行なわれた後、ステップS41で物体画像A0〜A15の濃度情報に基づいて詳細形状推定処理が行なわれる。図10は、図7中の概略形状推定処理ステップS40、色ボーティング処理ステップS410および部分表面推定処理ステップS52の詳細を示すフローチャートである。なお、図10中のステップS421〜ステップS51が図7中の色ボーティング処理ステップS410に対応する。図11は、図7中の部分表面統合処理ステップS412の詳細を示すフローチャートである。
【0078】
まずステップS40で、シルエット画像B0〜B15に基づいて上述したボーティング処理などの概略形状推定処理が行なわれ、対象物体10の初期立体形状が概略的に抽出される。より具体的には、投票数が所定数よりも多いボクセル(x,y,z)は対象物体10の存在領域と推定され、そのボクセルの存否変数v(x,y,z)が「1」に設定される。他方、投票数が所定数よりも少ないボクセル(x,y,z)は対象物体10の存在領域と推定されず、そのボクセルの存否変数v(x,y,z)が「0」に設定される。したがって、v(x,y,z)=1のボクセルが対象物体10の概略的な存在領域を形成する。
【0079】
続いてステップS42で、図5に示された視点(0)から対象物体10を撮影して得られた物体画像が中心画像kとして選択される。
【0080】
続いてステップS421で、変数(c0,c1,c2)が初期化される。
続いてステップS43で、中心画像k(=0)から図5上で時計方向にn個離れた視点(16−n(「16」は図5上の「0」に相当する))から対象物体10を撮影して得られた物体画像が周辺画像iとして選択される。たとえばn=2とすると、図5に示された視点(14)から対象物体10を撮影して得られた物体画像(周辺画像)A14が選択される。
【0081】
続いてステップS44で、存否変数v(x,y,z)が「0」か否か、つまりそのボクセル(x,y,z)が対象物体10の存在領域か否かが判定される。
【0082】
v(x,y,z)=0ではない場合、つまりv(x,y,z)=1の場合、ステップS45で、図12に示されるように座標(x,y,z)に位置するボクセル12の画像i(ここではi=14)への投影点(X,Y)が計算される。
【0083】
続いてステップS46で、後述するステップS50で標準偏差s(x,y,z)を計算するために必要な値が計算される。より具体的には、変数c0(x,y,z)をインクリメントすることによってボクセル12に累積される濃度情報の数がカウントされる。また、変数c1(x,y,z)に投影点(X,Y)に位置する画素の濃度情報c(X,Y)が加算される。また、変数c2(x,y,z)にその濃度情報の自乗c(X,Y)2 が加算される。なお、ステップS44でv(x,y,z)=0の場合、ステップS45およびS46の処理は行なわれない。
【0084】
続いてステップS47で、上記ステップS44〜S46の処理がすべてのボクセルについて行なわれたか否かが判定される。未だすべてのボクセルについて上記ステップS44〜S46の処理が行なわれていない場合、再び対象物体10の存在領域内の各ボクセルの変数c1(x,y,z)およびc2(x,y,z)に画像i(=14)中の対応する投影点(X,Y)の濃度情報c(X,Y)およびその自乗c(X,Y)2 がそれぞれ加算される。
【0085】
すべてのボクセルについて上記ステップS44〜S46の処理が行なわれた場合、ステップS48で、上記ステップS44〜S47の処理が中心画像k(=0)およびすべての周辺画像i(=14,15,1,2)について行なわれたか否かが判定される。最初は周辺画像i(=14)について上記ステップS44〜S47の処理が行なわれたにすぎないが、ステップS49で変数iがインクリメントされ、対象の周辺画像iがi=14からi=15に変更される。したがって、上記と同様に、対象物体10の存在領域内のボクセル12に周辺画像i(=15)中の対応する投影点(X,Y)の濃度情報c(X,Y)およびc(X,Y)2 が累積される。
【0086】
変数iの値が変数(k+n)の値(ここでは2)を超えたとき、中心画像k(=0)および周辺画像i(=14,15,1,2)の濃度情報がすべて対象物体10の存在領域内のボクセル12に累積されたことになる。
【0087】
ステップS48で変数iの値が変数(k+n)の値よりも大きいと判定されると、ステップS490で存否変数v(x,y,z)が「0」か否か、つまりそのボクセル(x,y,z)が対象物体10の存在領域か否かが判定される。v(x,y,z)=0ではない場合、つまりv(x,y,z)=1の場合、ステップS50で、ステップS46で計算されたc0,c1およびc2に基づいて各ボクセル12に累積された濃度情報の標準偏差s(x,y,z)が計算される。
【0088】
続いてステップS51で、すべてのボクセルについて標準偏差s(x,y,z)が計算されたか否かが判定される。
【0089】
すべてのボクセルについて標準偏差s(x,y,z)が計算された場合、ステップS52でボクセル空間11内において各視点(0〜15)から観察した対象物体10の部分表面Sp(k)が推定される。上述したように、対象物体10の凹所14内に位置するボクセルの標準偏差s(x,y,z)は一般に大きくなり、対象物体10の表面に位置するボクセルの標準偏差s(x,y,z)は小さくなる。したがって、同一のxy座標をもつボクセルのうち標準偏差s(x,y,z)が最小のボクセルを結合することによって対象物体10の表面を推定することができる。ただし、照明条件が変動したり、凹所14の表面で同じ色が連続する場合、ノイズの影響を受け、対象物体10の表面に位置しないボクセルの標準偏差s(x,y,z)が最小になることがある。したがって、単純に標準偏差s(x,y,z)が最小のボクセルを結合した場合、必ずしも正確な形状を推定できるとは限らない。
【0090】
そこで、標準偏差s(x,y,z)だけでなく推定される形状の連続性も考慮して対象物体10の形状を推定するのが望ましい。より具体的には、標準偏差s(x,y,z)および隣接するボクセル間の距離を変数とするエネルギ関数(評価関数)を規定し、そのエネルギ関数の値が最小となるボクセルを対象物体10の表面に位置すると推定し、これらのボクセルによって構成される面を部分表面Sp(k)とする。以下、この方法を「最小エネルギ法」と呼ぶ。なお、このエネルギ関数は、標準偏差s(x,y,z)、および隣接するボクセル空間の傾きと、これに対応する概略形状での表面の傾きとの差を変数とするものであってもよい。このような部分表面の推定は、たとえばダイナミックプログラミング(DP)法、緩和法などによって行なわれる。ダイナミックプログラミング法については後に図13を用いて詳述する。
【0091】
上記のように、中心画像k(=0)および周辺画像i(=14,15,1,2)に基づいて部分表面Sp(k)が対象物体10の表面候補として推定されるが、他の視点(1〜15)からの画像を中心画像としたときも同様に部分表面Sp(k)が対象物体10の表面候補としてそれぞれ推定される(S541,S542)。したがって、計算された複数の部分表面Sp(k)を統合して対象物体10の真の表面を決定する必要がある。
【0092】
最初にステップS40で概略的に推定された対象物体10の存在領域内に位置しかつステップS52で算出された部分表面Sp(k)よりも内側に位置するボクセルは対象物体10の真の存在領域である可能性が高い。これに対し、ステップS40で概略的に推定された対象物体10の存在領域内に位置しかつステップS52で計算された部分表面Sp(k)よりも外側に位置するボクセルは対象物体10の真の存在領域でない可能性がある。その可能性はステップS52で推定された部分表面Sp(k)から遠く離れたボクセルほど高い。そこで、部分表面Sp(k)よりも外側に位置する各ボクセルに部分表面Sp(k)までの距離をペナルティとして与える。そして、このペナルティの平均値が所定の値よりも大きいボクセルを対象物体10の存在領域以外の領域とする。
【0093】
より具体的には、図11に示されるように、まずステップS543で変数(p0,p1)が初期化され、続いてステップS544で図5に示された視点(0)から対象物体10を撮影して得られた物体画像A0が中心画像kとして選択される。続いて、ステップS545で存否変数v(x,y,z)が「0」か否か、つまりそのボクセル(x,y,z)が対象物体10の存在領域か否かが判定される。v(x,y,z)=0ではない場合、つまりv(x,y,z)=1の場合、ステップS53で、ボクセル(x,y,z)がステップS52で計算された部分表面Sp(k)よりも外側に位置するか否かが判定される。
【0094】
外側に位置する場合、変数p0(x,y,z)がインクリメントされる(S54)。これにより、そのボクセル(x,y,z)に与えられたペナルティの数がカウントされる。また、変数p1(x,y,z)に距離d((x,y,z),Sp(k))が加算される(S54)。距離d((x,y,z),Sp(k))はボクセル(x,y,z)からステップS52で推定された対象物体10の部分表面Sp(k)までの距離である。これにより、部分表面Sp(k)から遠いボクセルほど大きなペナルティが与えられる。
【0095】
ステップS55で、すべてのボクセルについて上記ステップS53〜S54の処理が行なわれたか否かが判定され、行なわれた場合は、ステップS56で図5に示されたすべての視点(0〜15)から撮影された画像を中心画像として上記ステップS43〜S55の処理が行なわれたか否か、つまり変数kがその最大値kmax(ここでは15)に達したか否かが判定される。変数kがその最大値kmaxよりも小さい場合、ステップS57で変数kがインクリメントされ、再びステップS53〜S55の処理が行なわれる。
【0096】
他方、変数kがその最大値kmaxよりも小さくない場合、ステップS570で存否変数v(x,y,z)が「0」か否か、つまりそのボクセル(x,y,z)が対象物体10の存在領域か否かが判定される。v(x,y,z)=0ではない場合、つまりv(x,y,z)=1の場合、ステップS58〜S60でペナルティの高いボクセル(x,y,z)が対象物体10の存在領域ではないとされる。より具体的には、ステップS58で各ボクセル(x,y,z)に与えられたペナルティの平均値p1(x,y,z)/p0(x,y,z)が所定の値よりも大きいか否かが判定される。ここで、p0(x,y,z)はボクセル(x,y,z)に与えられたペナルティの数である。
【0097】
ペナルティの平均値p1(x,y,z)/p0(x,y,z)が所定の値よりも大きい場合、ステップS59でそのボクセルの存否変数v(x,y,z)は0に設定される。ペナルティの平均値p1(x,y,z)/p0(x,y,z)が所定の値よりも大きくない場合、ステップS59の処理は行なわれない。
【0098】
続いてステップS60で、すべてのボクセルについてステップS58およびS59の処理が行なわれたか否かが判定される。したがって、所定の値よりも大きい平均値p1(x,y,z)/p0(x,y,z)を有するボクセル(x,y,z)は対象物体10の存在領域から除外される。これにより、複数の部分表面Sp(k)が統合され、対象物体10の凹所が表現され得る。以下、図11に示された部分表面Sp(k)を統合する方法を「距離ペナルティ法」と呼ぶ。
【0099】
上記のようにして得られた物体画像A0〜A15および対象物体10の形状に基づいて、図3に示されたステップS5でポリゴン17が作成され、ステップS6でテクスチャがマッピングされる。これにより、対象物体10の立体モデル18が作成される。
【0100】
図13は、図10に示されたステップS52において部分表面Sp(k)をダイナミックプログラミングによって計算する方法を示すフローチャートである。なお、図示されていないが、図13の処理を行なう前に、ボクセル空間を中心画像kに応じて、後述の図22に示された座標変換を行なっておくのが望ましい。図14は、図10および図11に示されたフローチャートに従って計算されたY=y0平面における標準偏差sを示す鳥瞰図である。図15は、ボクセル空間11のY=y0平面内のボクセルの標準偏差sを示す図である。図13に示されたダイナミックプログラミング法は、図14および図15上で、滑らかさを保ちつつ可能な限り標準偏差sの小さい箇所を結ぶものである。
【0101】
図13を参照して、ステップS520で座標yにその最小値yminが設定され、続いてステップS521でxにその最小値xminが設定され、座標zにその最小値zminが設定される。
【0102】
続いてステップS522〜S524で、X=xminの列(図15上で最も左側の列)のボクセルの標準偏差s(x,y,z)が仮のエネルギ関数値用配列e(z)の初期値としてそれぞれ設定される。
【0103】
続いてステップS525でxがインクリメントされ、続いてステップS526で座標zがその最小値zminに設定される。
【0104】
続いてステップS527〜S529で、X=xmin+1の列のエネルギ関数e(z)が計算される。ステップS527において、MIN(e(z0)+dif(z,z0),z0=zmin〜zmax)は、現在の座標x(ここではx=xmin+1)において、求めようとする対象物体10の表面が座標zであると仮定し、かつ、座標x−1における表面が座標z0(z0はzmin〜zmaxのいずれか)であると仮定したとき、評価値(e(z0)+dif(z,z0))のうち最小のもの(min)である。dif(z,z0)は、たとえば、表面xの座標zから表面x−1の座標z0までの距離である。あるいは、dif(z,z0)は、表面xの座標zから表面x−1の座標z0までの傾きと、概略表面xの座標z’から概略表面x−1の座標z0’までの傾きとの差である。このMIN(e(z0)+dif(z,z0))にX=xmin+1の列の各ボクセルの標準偏差s(x,y,z)が加算され、各ボクセルについて仮のエネルギ関数値e(z)が計算される。
【0105】
また、上記最小値minを与えるような座標z0の値が変数preID(x,y,z)に設定される。これにより、X=xmin−1において、座標zの値をzと仮定したときの、仮のエネルギ関数値e(z)が最小になるための座標x−1における座標zがそれぞれ記憶される。
【0106】
続いてステップS530およびS531で、上記ステップS527〜S529の処理がxmin〜xmax−1のすべての座標xに対応するz座標列について行なわれる。したがって、エネルギ関数e(z)にはxminから現在の座標xまでの各zに対する最小エネルギ関数値が記録されている。
【0107】
上記の結果、計算されたエネルギ関数e(z)のうち最小値を与える座標zが算出される。この座標zがxmax−1の列における対象物体10の表面の位置である。ここで、変数preID(x,y,z)を見れば、現在よりも1つ前の座標x−1における表面のz座標が記録されている。したがって、座標xを順次デクリメントし、その座標xを変数preID(x,y,z)に代入すれば、−X方向に向かって順次対象物体10の表面の位置を辿っていくことができる。このようにして計算された部分表面Sp(k)が図16中に示されている。図16から明らかなように、部分表面Sp(k)と決定されたボクセルの標準偏差は各列において必ずしも最小のものではない。仮に各列において最小の標準偏差を持つボクセルが部分表面Sp(k)を構成するものとして選択されたならば、その部分表面Sp(k)の連続性が悪くなる。ここでは、部分表面Sp(k)の連続性を考慮して表面を構成するボクセルが選択されている。
【0108】
続いてステップS532およびS533で、上記ステップS521〜S531の処理がymin〜ymaxのすべての座標yについて行なわれる。
【0109】
図17は、図10に示されたステップS40で得られた初期のY=y0平面におけるボクセルを示す図である。図17中において「**」で示されたボクセルは対象物体10の概略的な存在領域に位置するものである。図11に示されたステップS54では、図17では対象物体10の内部であるが、図16では外部である各ボクセルから図16に示された対象物体10の部分表面Sp(k)までの距離d((x,y,z),Sp(k))が計算される。
【0110】
以上のようにこの実施の形態1によれば、物体画像A0〜A15間における濃度情報の標準偏差に基づいて対象物体10の形状を推定しているため、対象物体10の凹所を表現した立体モデル18を作成することができる。
【0111】
また、標準偏差に基づいて対象物体10の形状を推定する前に、シルエット画像P0〜P15に基づいてボーティング処理により対象物体10の存在領域を概略的に推定しているため、対象物体10の立体モデル18を迅速に生成することができる。
【0112】
また、対象物体10の表面を標準偏差が小さいボクセルを滑らかに結合することによって推定しているため、照明条件などが変動しても安定して正確な立体モデル18を生成することができる。
【0113】
[実施の形態2]
図18は、本発明の実施の形態2による3次元モデリング装置における形状推定処理(部分表面統合処理を除く)を示すフローチャートである。この実施の形態2では、図10に示されたステップS45およびS46に代えてステップS70〜S74の処理が行なわれる。また、図10に示されたステップS50に代えてステップS75の処理が行なわれる。また、図10に示されたステップS421では変数c2が初期化されているが、ここでは変数c2は用いられていないので初期化されない。その他は、図10に示されたものと同じ処理が行なわれる。
【0114】
すなわち、上記実施の形態1では図12に示されるようにボクセル12の画像iへの投影点(X,Y)の画素の濃度情報がボクセル12に累積されるが、この実施の形態2では図19に示されるようにボクセル12の中心画像kへの投影点(Xk,Yk)を含む複数の画素から構成されるブロック領域Bkがボクセル12の周辺画像iへの投影点(Xi,Yi)を含む複数の画素から構成されるブロック領域Biと図20に示されるように比較され、濃度情報が異なる画素の数がボクセル12に累積される。
【0115】
より具体的には、ステップS70でボクセル(x,y,z)の中心画像kへの投影点(Xk,Yk)が計算される。続いてステップS71で、投影点(Xk,Yk)を含むm×n個の画素からなるブロック領域Bkが設定される。続いてステップS72で、ボクセル(x,y,z)の周辺画像iへの投影点(Xi,Yi)が計算される。続いてステップS73で、投影点(Xi,Yi)を含むm×n個の画素からなるブロック領域Biが設定される。
【0116】
続いてステップS74で、c0(x,y,z)がインクリメントされ、これにより各ボクセル(x,y,z)に累積される濃度情報が異なる画素の数がカウントされる。また、ブロック領域Bkがブロック領域Biと比較され、濃度LMk,LMiの差の絶対値|LMk−LMi|の総和dif(Bk,Bi)がc1(x,y,z)に加算される。たとえば図20に示されるように、4×4個の画素からなるブロック領域BkおよびBiを設定する場合、16の画素のうち、3つの画素の濃度情報がブロック領域Bkとブロック領域Biとの間で相違し、その差の絶対値の合計は「4」であるため、dif(Bk,Bi)として「4」がc1(x,y,z)に加算される。
【0117】
上記の結果、濃度差の絶対値の総和の累積値がc1(x,y,z)に設定される。
【0118】
その後、ステップS75で、各ボクセル(x,y,z)に累積された濃度差の絶対値の総和の平均値s(x,y,z)が計算される。この平均値s(x,y,z)が濃度情報のばらつき評価値として上記標準偏差の代わりに用いられる。
【0119】
以上のようにこの実施の形態2によれば、物体画像間における濃度情報のばらつきをブロックBk,Biごとに評価しているため、対象物体10の立体モデル18をより精度良く生成することができる。
【0120】
なお、本実施の形態では、物体画像間における濃度情報のばらつきをブロック間で評価する際、ブロック内の画素ごとの差の絶対値|LMk−LMi|の総和を用いたが、ブロック内の画素ごとの差の自乗(LMk−LMi)2 の総和を用いてもよい。さらには、ブロック内の画素ごとの標準偏差の平均値を用いてもよい。
【0121】
[実施の形態3]
図21は、本発明の実施の形態3による3次元モデリング装置における部分表面推定処理を示すフローチャートである。上記実施の形態では、できるだけ正確な部分表面Sp(k)を得るために図13に示されたダイナミックプログラミング法を用いているが、計算量が多くなる。したがって、以下に詳述する実施の形態3のように、単純に標準偏差が最小のボクセルを部分表面Sp(k)と推定してもよい。
【0122】
まずステップS300で、各中心画像kに応じてボクセル空間11が座標変換される。ここでは、図22に示されるように、直交座標系のボクセル空間11が回転され、さらに並進されて再び直交座標系のボクセル空間30に変換される。座標変換前のボクセル空間11の各ボクセルの座標を(x,y,z)とし、座標変換後のボクセル空間30の各ボクセルの座標を(x′,y′,z′)とし、回転変換のためのオイラー角をそれぞれφ、θ、ψとすると、この座標変換は次の式(1)で表わされる。
【0123】
【数1】
【0124】
なお、式(1)中の(xs,ys,zs)は、変換前のボクセル空間11の中心から中心画像kの視点へのベクトルである。回転変換後のボクセル空間はこのベクトル(xs,ys,zs)に応じて並進され、変換後のボクセル空間30となる。
【0125】
このような座標変換が行なわれた後、ステップS301で座標y′が最小値y′minに初期化され、ステップS302で座標x′が最小値x′minに初期化され、さらにステップS303で座標z′が最小値z′minに初期化され、標準偏差一時変数stmpが無限大∞に初期化され、かつ座標一時変数ztmpが無限大∞に初期化される。
【0126】
続いて、ステップS3030で存否変数v(x′,y′,z′)が「0」か否か、つまりそのボクセル(x′,y′,z′)が対象物体10の存在領域か否かが判定される。v(x′,y′,z′)=0ではない場合、つまりv(x′,y′,z′)=1の場合、ステップS304で、標準偏差一時変数stmpの値が座標(x′,y′,z′)のボクセルの標準偏差s(x′,y′,z′)と比較される。標準偏差一時変数stmpの値がそのボクセルの標準偏差s(x′,y′,z′)よりも大きい場合は、ステップS305で標準偏差一時変数stmpに改めてその標準偏差s(x′,y′,z′)が設定され、そのときの座標z′が位置一時変数ztmpに設定される。
【0127】
ステップS306およびS307により、すべての座標z′(=z′min〜z′max)について上記ステップS304および305の処理が行なわれる。その結果、変換後のボクセル空間30において同一のx′y′座標をもつ複数のボクセルのうち標準偏差が最小のボクセルが特定される。このようにして特定された標準偏差が最小のボクセルのz′座標はステップS308で表面変数surface(x′,y′)に設定される。この表面変数surface(x′,y′)は各中心画像kに対応して設定される。すなわち、この表面変数surface(x′,y′)は、各中心画像k上に撮影されている対象物体の表面位置を示すものである。なお、この時点で位置一時変数ztmpが∞であれば、表面変数surface(x′,y′)に対応した物体表面は存在しないことを意味する。
【0128】
図23は、変換後のボクセル空間30におけるY′=y′平面を示す。ボクセル空間30内にはボーティング処理により推定された対象物体10の概略形状31が示されている。この概略形状31内の各ボクセルには標準偏差s(x′,y′,z′)が与えられている。上述したステップS304〜S307は、たとえば同一のx′y′座標をもつ複数のボクセル32の中から標準偏差s(x′,y′,z′)が最小のボクセルを特定するものである。ここでは、z′=37のボクセルが最小の標準偏差を有している。上述したステップS308は、この最小の標準偏差をもつボクセルの座標z′を表面変数surface(x′,y′)の対応する座標に与えるものである。
【0129】
続いてステップS309およびS310により、Y′=y′平面上のすべての座標x′(=x′min〜x′max)について上記ステップS303〜S308の処理が行なわれる。また、ステップS311およびS312により、すべての座標y′(=y′min〜y′max)について上記ステップS302〜S310の処理が行なわれる。これにより、対象物体10の部分表面Sp(k)が決定され、その部分表面Sp(k)のボクセルの座標z′が表面変数surface(x′,y′)に与えられる。
【0130】
上述した方法は図13のダイナミックプログラミング法に代えて用いられるもので、以下「座標変換による最小ばらつき探索法」と呼ぶ。
【0131】
この方法により各中心画像kごとに得られた部分表面Sp(k)は上述した距離ペナルティ法または後に詳述する単純ボーティング法により1つの表面に統合され、これにより対象物体10の形状が決定される。たとえば図23に示されるように、●で示されるボクセルは対象物体10の内部にあると判断され、○で表わされるボクセルは対象物体10の外部にあると判断される。
【0132】
このように単純に最小の標準偏差をもつボクセルを特定することにより対象物体10の形状を推定すれば、上記ダイナミックプログラミング法よりも高速で部分表面Sp(k)を決定することができる。
【0133】
[実施の形態3の変形例]
上記実施の形態においては、直交座標系のボクセル空間11で同一のxy座標をもつ複数のボクセルのうち標準偏差が最小のボクセルが必ずしも対象物体10の真の表面14に位置していない。これは画像ノイズに起因するものもあるが、主として計算方法に起因するものである。この理由を図9および図24を用いて詳細に説明する。
【0134】
図9に示されるように、直交座標系のボクセル空間11において、同一のxy座標をもつすべてのボクセル12から中心画像となる物体画像A0への投影線16が物体画像A0上の同じ位置に投影する場合は、照明条件の著しい変動がない限り、真の表面に位置するボクセルの物体画像A0への投影点の色彩が複雑であるか単一であるかに関わらず、その同一のxy座標をもつ複数のボクセル12のうち標準偏差が最小のボクセル12が対象物体10の真の表面上に位置すると考えてもよい。しかしながら、上述したボクセル12から中心画像となる物体画像A0への投影線16は、透視投影に基づいているため、図24に示されるように、同一のxy座標をもつ複数のボクセル12から物体画像A0への投影線16は物体画像A0上の異なる位置に投影することが多い。この場合、真の表面14上に位置するボクセル12から物体画像A0上への投影点付近には複雑な色彩があり、その他のボクセル12から中心画像である物体画像A0および周辺画像である物体画像A1およびA15上への投影点には単一の色彩があるとすると、真の表面14上に位置しないボクセルの標準偏差が真の表面14上に位置するボクセルの標準偏差よりも小さくなる場合がある。
【0135】
そこで、図21に示されたステップS300における直交座標系から直交座標系への座標変換に代えて、直交座標系から図25に示されるような透視座標系への座標変換が行なわれてもよい。この透視座標系のボクセル空間35は、中心画像kの視点を頂点とした錐体状をなしている。
【0136】
図26(a)は図25に示された透視座標系のボクセル空間35をY方向から見た図であり、図26(b)は図6に示された直交座標系のボクセル空間11をY方向から見た図である。中心画像kの視点からボクセル空間11の中心までの距離をlとすると、この直交座標系から透視座標系への座標変換は次の式(2)により表わされる。
【0137】
x′=x・l/z,y′=y・l/z,z′=z …(2)
このような透視座標系のボクセル空間35においても上記と同様に、図27に示されるような同一のx′y′座標をもつ複数のボクセル36の中から標準偏差が最小のボクセルが特定され、その特定されたボクセルの座標z′が表面変数surface(x′,y′)に与えられる。ただし、ここで表面変数surface(x′,y′)に与えられる値はこの変数surface(x′,y′)が設定される中心画像からその標準偏差が最小のボクセルまでの距離である。このように、透視座標系のボクセル空間35において各中心画像kの視点を通る直線状のボクセルのうち標準偏差が最小のボクセルが結合され、対象物体10の部分表面Sp(k)が決定される。
【0138】
なお、部分表面統合処理により、図27中の●のボクセルは対象物体10の内部と判定され、○のボクセルは対象物体10の外部と判定される。
【0139】
このように透視座標系のボクセル空間に座標変換を行えば、最小の標準偏差をもつボクセルを特定することにより対象物体10の形状を簡単かつ正確に推定することができる。また、このような座標変換による最小ばらつき法は上記ダイナミックプログラミング法よりも高速で部分表面Sp(k)を決定することができ、その結果、この処理に必要なメモリのワークエリアを削減するこができる。
【0140】
[実施の形態4]
図28は、本発明の実施の形態4による3次元モデリング装置における部分表面推定処理を示すフローチャートである。ここでは、図21に示されたステップS308に代えて、ステップS320〜S324が設けられている。この方法は上記実施の形態3の部分表面Sp(k)上またはそれよりも外側に部分表面を特定するもので、以下「座標変換による準最小ばらつき探索法」と呼ぶ。
【0141】
上述したようにステップS304〜S307で同一のx′y′座標をもつボクセルの中から標準偏差が最小のボクセルが特定される。
【0142】
ステップS320では、その最小の標準偏差に所定の値αを加えたものが最小標準偏差変数sminに設定される。そして、ステップS320〜S323で、再び同一のx′y′座標をもつ複数のボクセルの中から[最小の標準偏差+α]以下の標準偏差をもつボクセルが特定される。このとき、ボクセルはz′minからz′maxに向かって順に探索される。したがって、最小の標準偏差をもつボクセルよりも外側に、[最小の標準偏差+α]以下の標準偏差をもつボクセルが存在する場合は、そのボクセルの座標z′がステップS324で表面変数surface(x′,y′)に設定される。この場合、図23または図27に示された部分表面Sp(k)よりも外側に部分表面が特定される。なお、最小の標準偏差をもつボクセルよりも外側に、[最小の標準偏差+α]以下の標準偏差をもつボクセルが存在しない場合は、最小の標準偏差をもつボクセルの座標z′が表面変数surface(x′,y′)に設定され、図23または図27に示された部分表面Sp(k)上に部分表面が特定される。
【0143】
以上のようにこの実施の形態4によれば、最小の標準偏差よりも少しだけ大きい標準偏差をもつボクセルが特定され、これにより部分表面Sp(k)が推定されているため、照明条件の変動などによりノイズが入っても、一部を欠いた立体モデルが生成されることはない。
【0144】
[実施の形態5]
図29は、本発明の実施の形態5による3次元モデリング装置における部分表面推定処理を示すフローチャートである。この方法は、上記実施の形態のようにボクセル空間の座標変換を行なうことなく視点からボクセル空間への透視性を考慮して標準偏差が最小のボクセルを特定して対象物体10の部分表面を推定するもので、以下「光線追跡による最小ばらつき探索法」と呼ぶ。
【0145】
まずここでは、図30に示されるような座標(px,py,pz)を定義する。すなわち、中心画像kの視点の座標を(ox,oy,oz)と定義する。そして、この視点(ox,oy,oz)からボクセル空間11の中心に向かう方向にZ′座標軸を設け、中心画像k上にX′座標軸およびY′座標軸を設ける。視点(ox,oy,oz)から放射状に出る光線40が中心画像kを貫通するx′y′座標を(px,py)とし、中心画像kのz′座標をpzとする。
【0146】
図29に示されるように、まずステップS500で座標pyに最小値pyminが設定され、続いてステップS501で座標pxに最小値pxminが設定される。
【0147】
続いてステップS502で、単位光線ベクトルv=(vx,vy,vz)が計算される。ただし、ここでは次の式(3)〜(5)が成立する。
【0148】
vz=1 …(3)
v×(px−ox,py−oy,pz−oz)=0 …(4)
v・(px−ox,py−oy,pz−oz)≧0 …(5)
ベクトルvとベクトル(px−ox,py−oy,pz−oz)との外積が0ということは、これらのベクトルが同一方向に横たわっている(向きは同じか反対か不明)ことを意味する。また、ベクトルvとベクトル(px−ox,py−oy,pz−oz)との内積が0以上ということは、これらのベクトルの向きも同じであることを意味する。
【0149】
続いてステップS503で、整数nに最小値nminが設定され、標準偏差一時変数stmpに無限大∞が設定され、かつ座標一時変数ztmpに無限大∞が設定される。
【0150】
続いてステップS504〜S508では、図31に示されるように、直交座標系のボクセル空間11において視点(ox,oy,oz)を通る各光線40上の複数のボクセルの中から標準偏差が最小のボクセルが特定される。図31では、複数のボクセル(○,●で表わされる)のうち、●で表わされるボクセルが特定されている。
【0151】
より具体的には、ステップS504で視点(ox,oy,oz)を基準としてn倍の単位光線ベクトルvで表わされる座標(x′y′z′)に位置するボクセルが選択される。
【0152】
続いてステップS5040でボクセル(x,y,z)が対象物体10の存在領域か否かが判定される。v(x,y,z)=1の場合、ステップS505で、標準偏差一時変数stmpの値がその選択されたボクセルの標準偏差s(x,y,z)と比較される。標準偏差一時変数stmpの値が標準偏差s(x,y,z)よりも大きい場合は、ステップS506でその標準偏差s(x,y,z)が代わりに標準偏差一時変数stmpに設定され、そのときの自然数nが位置一時変数ztmpに設定される。
【0153】
続いてステップS507およびS508により、すべての自然数n(=nmin〜nmax)について上記ステップS504〜S506の処理が行なわれる。そのため、光線40上に位置する複数のボクセルの中から標準偏差が最小のボクセルが特定される。
【0154】
続いてステップS509で、この特定されたボクセルのz′座標(位置一時変数ztmpに設定されている)が表面変数surface(px,py)に設定される。
【0155】
続いてステップS510およびS511により、すべての座標pxについて上記ステップS502〜S509の処理が行なわれる。
【0156】
続いてステップS512およびS513により、すべての座標py(=pymin〜pymax)について上記ステップS501〜S511の処理が行なわれる。
【0157】
図31では、視点(ox,oy,oz)を通るある1つの光線40上の複数のボクセルの中から最小の標準偏差をもつ●で表わされるボクセルが特定される。この特定されたボクセルのpz座標は「37」であるので、この「37」が中心画像k上の表面変数surface(x,y)の対応する座標に設定される。
【0158】
上記のように各光線40上ごとに最小の標準偏差をもつボクセルのpz座標が表面変数surface(x,y)に設定されることにより、図32および図33に示されるように対象物体10の部分表面Sp(k)が特定される。
【0159】
このようにして特定された複数の部分表面Sp(k)は、上述した距離ペナルティ法または後に詳述する単純ボーティング法により1つに統合され、これにより対象物体10の形状が決定される。図32に示されるように、部分表面Sp(k)よりも外側に位置する○で表わされるボクセルは対象物体の外部に位置し、部分表面Sp(k)よりも内側に位置する●で表わされるボクセルは対象物体10の内部に位置している。
【0160】
以上のようにこの実施の形態5によれば、視点から放射上に出る光線上の複数のボクセルのうち最小の標準偏差をもつボクセルが特定されているため、対象物体10の形状を比較的正確に推定することができる。このような光線追跡による最小ばらつき探索法は上記ダイナミックプログラミング法よりも高速で部分表面Sp(k)を決定することができ、その結果、この処理に必要なメモリのワークエリアを削減するこができる。
【0161】
[実施の形態6]
図34は、本発明の実施の形態6による3次元モデリング装置における部分表面統合処理を示すフローチャートである。この方法は、上述した距離ペナルティ法に代えて用いられ、上記部分表面推定処理により得られた複数の部分表面Sp(k)を1つに統合して対象物体の形状を決定するものである。以下、この方法を「単純ボーティング法」と呼ぶ。
【0162】
図35(a)〜(c)は、各観察方向からの部分表面Sp(k)が決定されたボクセル空間を示す。ここでは、推定された概略形状31よりも内側でかつ部分表面Sp(k)よりも内側のボクセルに得点「1」が与えられている。このような得点がボクセル空間に投票されると、図35(d)に示されるようなボクセル空間が得られる。ここで、対象物体10は16個の視点から観察されているため、各ボクセルの最高得点は「16」である。この得点数が高いボクセルほど対象物体10の真の存在領域である可能性が高いが、ここでは表面条件の変動などによるノイズを考慮して投票数が「14」以上のボクセルを図35(e)に示されるように対象物体10の真の存在領域45として推定している。
【0163】
より具体的には、図34に示されるように、ステップS600で変数cnt(x,y,z)が初期化され、ステップS6001で中心画像kとして物体画像A0が設定される。続いてステップS601〜S603で、座標y、x、zにそれぞれ最小値ymin、xmin、zminが設定される。
【0164】
続いてステップS604で、図10に示されたステップS40の結果に従って座標(x,y,z)のボクセルが対象物体10の概略存在領域内か否かが判定される。概略存在領域内、つまりv(x,y,z)=1の場合は、ステップS605で中心画像kに応じて座標変換が行なわれる。ここでは、座標(x,y,z)が上述した座標(x′,y′,z′)に変換される。
【0165】
続いてステップS606で、このボクセルが部分表面Sp(k)よりも内側にあるか否か、つまりsurface(x′,y′)≦z′か否かが判定される。このボクセルが部分表面Sp(k)よりも内側にある場合は、ステップS607で変数cnt(x,y,z)がインクリメントされる。
【0166】
続いてステップS608〜S613により、すべての座標x(=xmin〜xmax)、すべての座標y(=ymin〜ymax)、すべての座標z(=zmin〜zmax)について上記ステップS604〜S607の処理が行なわれる。これにより図35(a)〜(c)に示されるようなボクセル空間が得られる。
【0167】
続いてステップS614およびS615により、すべての中心画像k(=0〜kmax)について上記ステップS601〜S613の処理が行なわれる。これにより、図35(d)に示されるようなボクセル空間が得られる。
【0168】
続いてステップS6150でボクセル(x,y,z)が対象物体10の存在領域か否かが判定される。v(x,y,z)=1の場合、ステップS616で、各ボクセルの変数cnt(x,y,z)が所定の値(ここでは「14」)と比較される。変数cnt(x,y,z)が所定の値よりも小さい場合は、ステップS617でそのボクセルは対象物体10の存在領域外、つまり変数v(x,y,z)に0が設定される。
【0169】
続いてステップS618により、すべてのボクセルについて上記ステップS616およびS617の処理が行なわれ、これにより図35(e)に示されるようなボクセルが得られる。これにより対象物体10の形状45が決定される。
【0170】
以上のようにこの実施の形態6によれば、推定された複数の部分表面Sp(k)を単純ボーティング法により統合しているため、上述した距離ペナルティ法よりも高速で対象物体10の形状を決定することができる。
【0171】
以上、本発明の実施の形態を説明したが、本発明は上記実施の形態に限定されるものではない。たとえば、上記実施の形態は画像情報として濃度を用いているが、これに代えて色を用いてもよく、さらに色および濃度の組合せを用いてもよい。また、上記実施の形態は画像情報の標準偏差を用いているが、これに代えて画像情報の分散を用いてもよく、要するに、画像情報のばらつきを評価する値を用いればよい。
【0172】
【発明の効果】
以上のように本発明によれば、対象物体を複数の視点から撮影して得られた複数の物体画像のうち少なくとも2つの物体画像間における画像情報のばらつきに基づいて対象物体の形状を推定しているため、対象物体の凹所を表現した立体モデルを生成することができる。
【0173】
また、予め対象物体の輪郭に基づいてボクセル空間における対象物体の存在領域を概略的に推定しているため、対象物体の立体モデルを迅速に生成することができる。
【0174】
また、ばらつきが小さいボクセルを滑らかに結合することにより対象物体の形状を推定しているため、照明条件などが変動しても正確な立体モデルを安定して生成することができる。
【0175】
また、3次元仮想空間の座標空間を透視座標空間に変換し、その透視座標空間において1つの視点を通る直線上の複数の領域のうち、ばらつきが最小またはその最小値よりも所定の値だけ大きい領域を結合しているため、対象物体の形状を高速で推定することができる。
【0176】
また、3次元仮想空間において1つの視点を通る直線上の複数の領域のうち、ばらつきが最小またはその最小値よりも所定の値だけ大きい領域を結合しているため、対象物体の形状を高速で推定することができる。
【0177】
また、3次元仮想空間の領域のうち存在領域の内側にありかつ部分表面の各々の外側にある領域にその領域から複数の部分表面までの距離を累積し、その累積された距離の総和が所定の値よりも大きい領域を対象物体の外側と認定しているため、対象物体の形状を比較的正確に決定することができる。
【0178】
また、3次元仮想空間の領域のうち部分表面の各々の内側にある領域に所定の値を投票し、その投票された値の総和が所定の値よりも大きい領域を対象物体の内側と認定しているため、対象物体の形状を高速で決定することができる。
【0179】
また、複数の画素を含む所定ブロックごとに画像情報を累積しているため、対象物体の立体モデルをより精度良く生成することができる。
【0180】
また、各物体画像内に複数の画素を含むブロックを設定し、そのブロック間において互いに対応する画素の値の差をそれぞれ算出し、その算出された差の絶対値の総和を画像情報のばらつきとして算出しているため、対象物体の形状を高速で推定することができる。
【0181】
また、各物体画像内に複数の画素を含むブロックを設定し、そのブロック間において互いに対応する画素の値の差をそれぞれ算出し、その算出された差の自乗の総和を画像情報のばらつきとして算出しているため、対象物体の形状を高速で推定することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1による3次元モデリング装置の全体構成を示す図である。
【図2】図1に示されたコンピュータの主要構成を示すブロック図である。
【図3】図1に示されたCD−ROMに記録された3次元モデリングプログラムを示すフローチャートである。
【図4】(a)は図3中の対象物体および背景の撮影ステップを説明するための図であり、(b)は図3中のシルエット画像作成ステップを説明するための図であり、(c)は図3中の形状推定処理ステップを説明するための図であり、(d)は図3中のポリゴン作成ステップを説明するための図であり、(e)は図3中のテクスチャマッピングステップを説明するための図である。
【図5】図4(a)において対象物体を撮影する視点を説明するための図である。
【図6】図4(c)の形状推定処理で用いられるボクセル空間を示す概念図である。
【図7】図3に示された形状推定処理の詳細を示すフローチャートである。
【図8】図7に示された概略形状推定処理を説明するための図である。
【図9】図7に示された色ボーティング処理を説明するための図である。
【図10】図7に示された概略形状推定処理、色ボーティング処理、および部分表面推定処理の詳細を示すフローチャートである。
【図11】図7に示された部分表面統合処理の詳細を示すフローチャートである。
【図12】図10中のステップS45で用いられる投影点を説明するための図である。
【図13】図10中のステップS52で用いられるダイナミックプログラミング法を示すフローチャートである。
【図14】図10に示されたフローチャートによって計算されたY=y0平面における標準偏差を示す鳥瞰図である。
【図15】図10に示されたフローチャートによって計算されたY=y0平面における標準偏差の数値を示す図である。
【図16】図13に示されたフローチャートによって決定された部分表面を示す図である。
【図17】図10中のステップS40で得られた対象物体の存在領域の初期形状を示す図である。
【図18】本発明の実施の形態2による3次元モデリング装置における形状推定処理を示すフローチャートである。
【図19】図17中のステップS70およびS72で用いられる投影点を説明するための図である。
【図20】図17中のステップS74においてブロック領域間で濃度が異なる画素の数を計算する方法を説明するための図である。
【図21】本発明の実施の形態3による3次元モデリング装置における部分表面推定処理の詳細を示すフローチャートである。
【図22】図21中のステップS300における直交座標系のボクセル空間から直交座標系のボクセル空間への座標変換を説明するための図である。
【図23】図21に示されたフローチャートに従って直交座標系のボクセル空間から直交座標系のボクセル空間への座標変換を行なった場合における部分表面の特定およびその統合方法を説明するための図である。
【図24】標準偏差が最小のボクセルが必ずしも対称物体の部分表面上に位置するとは限らない理由を明らかにするために、同一のxy座標をもつ複数のボクセルから中心画像への投影点が異なる場合における色ボーティング処理を説明するための図である。
【図25】図21中のステップS300における座標変換で使用可能な透視座標系のボクセル空間を示す斜視図である。
【図26】(a)は図25に示された透視座標系のボクセル空間をY方向から見た上面図であり、(b)は図6に示された直交座標系のボクセル空間をY方向から見た上面図である。
【図27】図21中のステップS300で図25に示されるような透視座標系のボクセル空間への座標変換が行なわれた場合における部分表面の特定およびその統合方法を説明するための図である。
【図28】本発明の実施の形態4による3次元モデリング装置における部分表面推定処理の詳細を示すフローチャートである。
【図29】本発明の実施の形態5による3次元モデリング装置における部分表面推定処理の詳細を示すフローチャートである。
【図30】図29に示されたフローチャートで用いられる座標系を説明するための図である。
【図31】図29に示された光線追跡による最小ばらつき探索法を説明するための図である。
【図32】図29に示された光線追跡による最小ばらつき探索法により特定された部分表面の統合方法を説明するための図である。
【図33】図29に示された光線追跡による最小ばらつき探索法により1つの部分表面が特定されたボクセルを示す図である。
【図34】本発明の実施の形態6による立体モデリング装置における部分表面統合処理の詳細を示すフローチャートである。
【図35】(a)〜(e)は、図34に示された単純ボーティング法を説明するための図である。
【符号の説明】
2 デジタルスチルカメラ
3 コンピュータ
4 CD−ROM
5 中央処理装置
7 ランダムアクセスメモリ
10 対象物体
11 ボクセル空間
12 ボクセル
18 立体モデル
A0〜A15 物体画像
B0〜B15 シルエット画像
Bk,Bi ブロック領域
Claims (12)
- 対象物体の立体モデルを生成する3次元モデリング装置であって、
前記対象物体を複数の視点から撮影し、複数の物体画像を得る物体画像獲得手段と、
前記複数の物体画像のうち少なくとも2つの物体画像間において互いに対応する画像情報についての濃度情報及び/又は色情報の標準偏差に基づいて前記対象物体の形状を推定する形状推定手段と、
前記推定された形状に基づいて前記立体モデルを生成する生成手段とを備え、
前記形状推定手段は、
複数の領域から構成される3次元仮想空間の領域に前記少なくとも2つの物体画像に対応する画像情報についての濃度情報及び/又は色情報を累積する画像情報累積手段と、
前記領域に累積された画像情報についての濃度情報及び/又は色情報の標準偏差を算出する算出手段とを含む、3次元モデリング装置。 - 前記複数の物体画像中の前記対象物体の輪郭に基づいて前記3次元仮想空間における前記対象物体の存在領域を概略的に推定する存在領域推定手段をさらに備え、
前記画像情報累積手段は、前記3次元仮想空間の領域のうち前記存在領域内の領域に前記画像情報についての濃度情報及び/又は色情報を累積する、請求項1に記載の3次元モデリング装置。 - 前記形状推定手段はさらに、前記対象物体の形状を推定するために、前記3次元仮想空間の領域のうち前記標準偏差の小さい領域を滑らかに結合する結合手段を含む、請求項1に記載の3次元モデリング装置。
- 前記結合手段は、前記標準偏差の小さい領域を滑らかに結合するために、前記標準偏差の小ささと前記結合されるべき領域の滑らかさとを変数とする評価関数を最小化する、請求項3に記載の3次元モデリング装置。
- 前記形状推定手段はさらに、
前記3次元仮想空間の座標空間を前記視点の1つから放射状に広がる座標軸を有する透視座標空間に変換する座標変換手段と、
前記対象物体の形状を推定するために、前記透視座標空間において前記1つの視点を通る直線上の領域のうち前記標準偏差が最小またはその最小値よりも所定の値だけ大きい領域を結合する結合手段とを含む、請求項1から請求項2のいずれかに記載の3次元モデリング装置。 - 前記形状推定手段はさらに、
前記対象物体の形状を推定するために、前記3次元仮想空間において前記視点の1つを通る直線上の領域のうち前記標準偏差が最小またはその最小値よりも所定の値だけ大きい領域を結合する結合手段を含む、請求項1から請求項2のいずれかに記載の3次元モデリング装置。 - 前記形状推定手段はさらに、
前記複数の物体画像間において互いに対応する画像情報の標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、
前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含む、請求項1から請求項2のいずれかに記載の3次元モデリング装置。 - 前記形状推定手段はさらに、
前記標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、
前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含み、
前記統合手段は、
前記3次元仮想空間の領域のうち前記存在領域推定手段で推定された存在領域内にありかつ前記部分表面の各々の外側にある領域に、その領域から前記複数の部分表面までの距離を累積する距離累積手段と、
前記累積された距離の総和が所定の値よりも大きい領域を前記対象物体の外側と認定する認定手段とを含む、請求項2に記載の3次元モデリング装置。 - 前記形状推定手段はさらに、
前記標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、
前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含み、
前記統合手段は、
前記3次元仮想空間の領域のうち前記存在領域推定手段で推定された存在領域内にありかつ前記部分表面の各々の外側にある領域に、その領域から前記複数の部分表面までの距離を累積する距離累積手段と、
前記累積回数を計算する累積回数計算手段と、
前記累積された距離の総和を前記計算された累積回数で除した距離平均値が所定の値よりも大きい領域を前記対象物体の外側と認定する認定手段とを含む、請求項2に記載の3次元モデリング装置。 - 前記形状推定手段はさらに、
前記標準偏差に基づいて前記対象物体の複数の部分表面を推定する部分表面推定手段と、
前記複数の部分表面を統合して前記対象物体の形状を決定する統合手段とを含み、
前記統合手段は、
前記3次元仮想空間の領域のうち前記部分表面の各々の内側にある領域に所定の第1の値を投票する投票手段と、
前記投票された第1の値の総和が所定の第2の値よりも大きい領域を前記対象物体の内側と認定する認定手段とを含む、請求項1に記載の3次元モデリング装置。 - 前記画像情報累積手段はさらに、前記物体画像の複数の画素を含む所定ブロックごとに前記画像情報についての濃度情報及び/又は色情報を累積する、請求項1から請求項10のいずれかに記載の3次元モデリング装置。
- 前記領域はボクセルであり、前記3次元仮想空間はボクセル空間である、請求項1から請求項11のいずれかに記載の3次元モデリング装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00598298A JP3813343B2 (ja) | 1997-09-09 | 1998-01-14 | 3次元モデリング装置 |
US09/149,046 US6256036B1 (en) | 1997-09-09 | 1998-09-08 | Three-dimensional modeling apparatus for producing three-dimensional model of object of interest and method therefor |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24365097 | 1997-09-09 | ||
JP9-243650 | 1997-09-09 | ||
JP00598298A JP3813343B2 (ja) | 1997-09-09 | 1998-01-14 | 3次元モデリング装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11149576A JPH11149576A (ja) | 1999-06-02 |
JP3813343B2 true JP3813343B2 (ja) | 2006-08-23 |
Family
ID=26340032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP00598298A Expired - Fee Related JP3813343B2 (ja) | 1997-09-09 | 1998-01-14 | 3次元モデリング装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6256036B1 (ja) |
JP (1) | JP3813343B2 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3954211B2 (ja) * | 1998-08-20 | 2007-08-08 | 富士通株式会社 | 三次元シーンにおける形状及び模様の復元方法及び装置 |
US6819318B1 (en) * | 1999-07-23 | 2004-11-16 | Z. Jason Geng | Method and apparatus for modeling via a three-dimensional image mosaic system |
JP4474743B2 (ja) * | 2000-07-03 | 2010-06-09 | ソニー株式会社 | 三次元画像生成装置および三次元画像生成方法、並びにプログラム記録媒体 |
US7706600B2 (en) * | 2000-10-02 | 2010-04-27 | The Research Foundation Of State University Of New York | Enhanced virtual navigation and examination |
US7423666B2 (en) * | 2001-05-25 | 2008-09-09 | Minolta Co., Ltd. | Image pickup system employing a three-dimensional reference object |
US6914600B2 (en) * | 2001-06-26 | 2005-07-05 | Hewlett-Packard Development Company, L.P. | Volumetric warping for voxel coloring on an infinite domain |
JP4035978B2 (ja) * | 2001-10-05 | 2008-01-23 | コニカミノルタホールディングス株式会社 | 3次元形状モデルの評価方法および生成方法並びに装置 |
JP2003141565A (ja) * | 2001-11-06 | 2003-05-16 | Kubota Corp | 3次元形状復元システムおよび方法 |
US7289662B2 (en) * | 2002-12-07 | 2007-10-30 | Hrl Laboratories, Llc | Method and apparatus for apparatus for generating three-dimensional models from uncalibrated views |
FR2887058B1 (fr) * | 2005-06-10 | 2007-08-31 | Daniel Ackerman | Procede et dispositif de reconstruction 3d d'un objet a partir de plusieurs images 2d |
WO2007069724A1 (ja) | 2005-12-16 | 2007-06-21 | Ihi Corporation | 三次元形状データの位置合わせ方法と装置 |
CN101331379B (zh) | 2005-12-16 | 2012-04-11 | 株式会社Ihi | 自身位置辨认方法和装置以及三维形状的计测方法和装置 |
DE112006003361T5 (de) * | 2005-12-16 | 2008-10-16 | Ihi Corporation | Verfahren und Vorrichtung für das Aufzeichnen/Anzeigen von dreidimensionalen Formdaten und Verfahren und Vorrichtung für das Messen einer dreidimensionalen Form |
JP4839237B2 (ja) * | 2007-02-07 | 2011-12-21 | 日本電信電話株式会社 | 3次元形状復元方法,3次元形状復元装置,その方法を実装した3次元形状復元プログラム及びそのプログラムを記録した記録媒体 |
CA2717485A1 (en) * | 2007-03-02 | 2008-09-12 | Organic Motion | System and method for tracking three dimensional objects |
US8315477B2 (en) * | 2007-11-14 | 2012-11-20 | Integraph Software Technologies Company | Method and apparatus of taking aerial surveys |
JP5218034B2 (ja) * | 2008-12-26 | 2013-06-26 | Kddi株式会社 | マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム |
JP5396971B2 (ja) * | 2009-03-31 | 2014-01-22 | カシオ計算機株式会社 | 位置検索システム及び位置検索方法 |
TWI409717B (zh) * | 2009-06-22 | 2013-09-21 | Chunghwa Picture Tubes Ltd | 適用於電腦產品與影像顯示裝置的影像轉換方法 |
JP5645010B2 (ja) * | 2010-10-14 | 2014-12-24 | 国立大学法人 千葉大学 | 立体画像を作成する方法 |
US8587583B2 (en) * | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
EP2680594A4 (en) * | 2011-02-24 | 2014-07-09 | Kyocera Corp | ELECTRONIC APPARATUS, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM |
JP5561786B2 (ja) * | 2011-03-30 | 2014-07-30 | Kddi株式会社 | 3次元形状モデル高精度化方法およびプログラム |
JP5777507B2 (ja) * | 2011-12-27 | 2015-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びそのプログラム |
JP6181363B2 (ja) * | 2012-11-06 | 2017-08-16 | 敏 伊木 | 画像処理装置、画像処理方法、動画作成方法、動画作成システム及びプログラム |
US9836879B2 (en) * | 2013-04-16 | 2017-12-05 | Autodesk, Inc. | Mesh skinning technique |
US9269018B2 (en) * | 2014-01-14 | 2016-02-23 | Microsoft Technology Licensing, Llc | Stereo image processing using contours |
JP6816442B2 (ja) * | 2016-10-19 | 2021-01-20 | 富士ゼロックス株式会社 | データ処理装置、立体造形システム及びプログラム |
US11100677B2 (en) | 2017-09-22 | 2021-08-24 | Nec Corporation | Information processing device, information processing method and recording medium |
WO2019116942A1 (ja) * | 2017-12-14 | 2019-06-20 | キヤノン株式会社 | 3次元モデルの生成装置、生成方法、及びプログラム |
JP6513169B1 (ja) | 2017-12-14 | 2019-05-15 | キヤノン株式会社 | 仮想視点画像を生成するシステム、方法及びプログラム |
CA3061699C (en) * | 2017-12-14 | 2023-03-07 | Canon Kabushiki Kaisha | Generation device, generation method and non-transitory computer-readable meadium storing a program for generating a three-dimensional model from an image |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0896165A (ja) * | 1994-09-29 | 1996-04-12 | Fujitsu Ltd | 画像生成方法及び画像生成装置 |
JPH08186844A (ja) * | 1994-12-28 | 1996-07-16 | Sanyo Electric Co Ltd | 立体映像発生装置および立体映像発生方法 |
US5982375A (en) * | 1997-06-20 | 1999-11-09 | Sun Microsystems, Inc. | Floating point processor for a three-dimensional graphics accelerator which includes single-pass stereo capability |
-
1998
- 1998-01-14 JP JP00598298A patent/JP3813343B2/ja not_active Expired - Fee Related
- 1998-09-08 US US09/149,046 patent/US6256036B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US6256036B1 (en) | 2001-07-03 |
JPH11149576A (ja) | 1999-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3813343B2 (ja) | 3次元モデリング装置 | |
JP6321106B2 (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
US6463176B1 (en) | Image recognition/reproduction method and apparatus | |
JP2919284B2 (ja) | 物体認識方法 | |
Yamany et al. | Free-form surface registration using surface signatures | |
JP3735344B2 (ja) | キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム | |
JP4785880B2 (ja) | 三次元オブジェクト認識のためのシステムおよび方法 | |
US6072903A (en) | Image processing apparatus and image processing method | |
US8781161B2 (en) | Image processing method and apparatus for generating a 3D model of a target object | |
WO2000036564A2 (en) | Creating a three-dimensional model from two-dimensional images | |
JP2008145431A (ja) | 3次元表面形状再構築のための装置および方法 | |
JP2008537190A (ja) | 赤外線パターンを照射することによる対象物の三次元像の生成 | |
JP2010541053A (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
JP2001243468A (ja) | 三次元モデリング装置、方法及び媒体並びに三次形状データ記録装置、方法及び媒体 | |
US5864779A (en) | Strict recognizing apparatus using observation point | |
CN110546687B (zh) | 图像处理装置及二维图像生成用程序 | |
JP2004280776A (ja) | 画像内のオブジェクトの形状を決定する方法 | |
JP2002133413A (ja) | 画像処理を用いる3次元物体の識別方法および装置 | |
JP2000304499A (ja) | 飛翔体の画像処理装置及び飛翔体の画像処理方法 | |
JP2003123057A (ja) | 3次元形状モデルの生成方法および装置 | |
JPH11328445A (ja) | 衝突判定装置および方法、および衝突判定方法を記録した媒体 | |
JPH1040385A (ja) | 物体形状復元装置及びその方法 | |
GB2358307A (en) | Method of determining camera projections in 3D imaging having minimal error | |
Zhang et al. | Range image registration via probability field | |
Soucy | View correspondence using curvature and motion consistency |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040330 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090609 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100609 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100609 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100609 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110609 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110609 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120609 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120609 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130609 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |