JP2003196327A - 3次元コンピュータモデリング - Google Patents

3次元コンピュータモデリング

Info

Publication number
JP2003196327A
JP2003196327A JP2002321777A JP2002321777A JP2003196327A JP 2003196327 A JP2003196327 A JP 2003196327A JP 2002321777 A JP2002321777 A JP 2002321777A JP 2002321777 A JP2002321777 A JP 2002321777A JP 2003196327 A JP2003196327 A JP 2003196327A
Authority
JP
Japan
Prior art keywords
image
images
computer model
dimensional computer
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002321777A
Other languages
English (en)
Inventor
Alexander R Lyons
ラルフ リオンズ アレキサンダー
Adam M Baumberg
マイケル ボームバーグ アダム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Europa NV
Original Assignee
Canon Europa NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Europa NV filed Critical Canon Europa NV
Publication of JP2003196327A publication Critical patent/JP2003196327A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 (修正有) 【課題】対象物体の複数の画像から3次元コンピュータ
モデルを提供する。 【解決手段】 対象物体の画像が異なる視点位置及び方
向から記録される。画像データは、各セットが位置合わ
せされた撮像位置及び方向を有する複数の画像を含む、
画像の複数のセットを生成するために処理される。予備
的な3Dコンピュータモデルの位置及び向きが、セット
内の画像と位置合わせされるようにして、予備的な3D
コンピュータモデルが第1のセットからの画像を用いて
生成される。そして、第1のセット内の画像の撮像位置
及び方向は他の各セットの画像の撮像位置及び方向と位
置合わせされる。対象物体の正確な3Dコンピュータモ
デルは、位置合わせされた異なるセットからの画像を用
いて生成される。

Description

【発明の詳細な説明】
【0001】本発明は対象物体の3次元(3D)コンピ
ュータモデルを生成するための、物体の画像を規定する
画像データのコンピュータ処理に関する。
【0002】現実物体の3Dコンピュータモデルを生成
するための方法は多く知られている。特に、モデルを生
成する物体の画像を複数の位置及び向きから記録する方
法が知られている。各記録画像はそれが記録された位置
及び向きを計算するために処理され、入力画像と計算さ
れた位置及び向きを用いて物体の3Dコンピュータモデ
ルが生成される。
【0003】そのような既知の方法の第1のタイプにお
いて、モデリングされる対象物体は既知の特徴パターン
が設けられたキャリブレーション物体を用いて配置さ
れ、対象物体とともにキャリブレーションパターンを表
す画像が異なる位置及び方向から記録される。各記録画
像はそれが記録された位置及び向きを、キャリブレーシ
ョン物体のパターンにおける特徴の画像の位置に基づい
て計算するために処理される。画像記録中に対象物体と
キャリブレーションパターンは互いに静止しているた
め、対象物体に関する入力画像の位置及び向きはこれら
計算の結果として得られ、従って対象物体の3Dコンピ
ュータモデルを画像から得ることができる。この種の方
法の例は、例えば、Niemによる、”移動カメラを用いた
3D物体の自動再構成(Automatic Reconstruction of 3
D Object Using a Mobile Camera)”(Image and Vision
Computing 17, 1999, 125-134ページ)及び、Gortlerら
による”The Lumigraph” (Computer Graphics Proceed
ings, Annual Conference Series, 1996 ACM-0-89791-7
64-4/96/008)、特開平9-170914号公報(JP-A-9-170914)
及び、本出願人によるPCT出願であって、その全内容
が相互参照によって本明細書に組み込まれるGB00/04469
(WO-A-01/39124)に記載されている。
【0004】代わりに、既知の方法の第2のタイプにお
いては、モデリングされる対象物体は単独で撮像され
る。そして、異なる入力画像間で物体上の特徴のマッチ
ングを取り、画像内で合致した特徴の個々の位置に基づ
いて、各画像の相対位置及び向きを計算することによ
り、各画像の位置及び向きが計算される。このような方
法の例は例えば、EP-A-0898245に記載されている。
【0005】しかし、これら既知の方法のいずれにおい
ても、特徴が少なくとも1つ(好ましくは2つ以上)の
初期画像(initial images)において視認できる場合に限
り、対象物体の特徴を3Dコンピュータモデル内に正確
にモデリングできるという点で困難を有する。
【0006】(対象物体がキャリブレーションパターン
とともに撮像される)第1のタイプの方法の場合、さら
なる問題が生じる。これは、対象物体が画像の記録中に
キャリブレーションパターンに対して移動できないため
である(さもないと、対象物体の位置及び向きはキャリ
ブレーションパターンに対して一定でなくなり、画像の
計算された位置及び向きに関連して知ることができなく
なる。そして、結果として対象物体の3Dコンピュータ
モデルは画像から生成できなくなる)。従って、対象物
体が撮像のためにキャリブレーション物体上に置かれる
一般的な場合、対象物体の底面はキャリブレーションパ
ターン上に載り、そのため底面の特徴は撮像できず、3
Dコンピュータモデル内にモデリングされない。さら
に、対象物体をキャリブレーション物体の上に吊しても
この問題は解決されない。なぜなら、カメラは撮像のた
めに底面を指し示す必要があるだろうが、そうするとキ
ャリブレーションパターンはその画像に現れないであろ
う。そしてその結果、キャリブレーションパターンの特
徴は底面の画像の位置及び向きを計算するために使用で
きないことになる。
【0007】第2のタイプの方法においては、画像の位
置及び向きは画像間で合致する対象物体の特徴に基づい
て互いに計算されるため、問題が生じる。従って、少な
くともいくつかの、対象物体上の合致可能な特徴が、あ
る画像で視認可能であり、かつ少なくとも1つの他の画
像でも視認できるように各画像を記録する必要がある。
この要求は画像を取得可能な位置及び方向を厳しく制限
する。
【0008】本発明はこれら問題点の少なくとも1つを
解決することを目的とする。本発明によれば、対象物体
の3Dコンピュータモデルは、異なる視点位置及び方向
から記録された対象物体の画像を処理することによって
生成される。キャリブレーションパターンの特徴及び/
又は画像中の合致する特徴に基づいて、位置合わせされ
た画像の複数のセットが生成される。各セットの内部に
おいて、当該セット内の全画像の相対位置及び方向がわ
かるよう、画像の位置及び向きが定義される。しかし、
あるセット内の画像の撮像位置及び向きと、別のセット
内の画像の撮像位置及び向きとの関係は計算されない。
画像の位置合わせされたセットの1つを用い、そのセッ
ト内の画像に対するコンピュータモデルの位置及び向き
がわかるように、対象物体の予備的な3Dコンピュータ
モデルが生成される。予備的な3Dコンピュータモデル
の、位置合わせされた画像の他の各々のセットに対する
位置及び向きが、予備的な3次元コンピュータモデルを
他の各々のセットの少なくとも1部の画像に投影し、得
られた投影を画像中の対象物体の画像と比較することに
よって計算される。このようにして、セット間の撮像関
係(imagingrelationship)が計算され、それによって全
ての入力画像の撮像位置及び向きが位置合わせされる。
全ての画像の相対的な撮像位置及び向きを知ることで、
正確な3Dコンピュータモデルが生成される。
【0009】位置合わせされた画像の異なるセットを生
成し、画像の位置合わせされたセット間の撮像関係を計
算し、さらに正確な3次元コンピュータモデルの生成に
これをもちいることで、対象物体の初期画像(initial i
mage)を、画像中の特徴に基づいて全ての画像の位置及
び向きを互いに計算できるように記録する必要がなくな
る。従って、キャリブレーションパターンが用いられる
場合、キャリブレーションパターンに対して第1の配置
(例えば対象物体がキャリブレーションパターン上に立
っている)において、ユーザは対象物体の画像を記録す
ることができ、それから、さらに第2の配置(例えば対
象物体は画像がその底面を示すよう、キャリブレーショ
ンパターンに対して倒される)において、対象物体及び
キャリブレーションパターンの画像を記録することがで
きる。第1の配置の画像は処理中に位置合わせされた画
像の1つのセットとして、また第2の配置の画像は位置
合わせされた画像の異なるセットとして得られる。同様
に、対象物体がキャリブレーションパターン無しで撮像
されたされた場合、位置合わせされた画像の第1のセッ
トは、相対的な位置及び向きが計算可能となるような、
対象物体上の十分な数の特徴が画像間で合致できるよう
な画像を含む画像の処理の間に生成されるであろう。位
置合わせされた画像の別のセットは、第1のセット内の
画像においても視認でき、それら画像を第1のセット内
の画像と位置合わせ可能とするのに十分な対象物体の特
徴を示さない画像から得られるであろう。従って、例え
ば、第1のセット内の画像は対象物体が表面に立った画
像から構成され、第2のセット内の画像は(第1のセッ
トの画像で見えない)対象物体の底面の画像から構成さ
れるであろう。
【0010】位置合わせされた異なるセット間の撮像関
係を計算し、正確な3次元コンピュータモデルを生成す
るために異なるセットからの画像を用いることにより、
全画像からの特徴が得られるコンピュータモデルに忠実
にモデリングされる。
【0011】予備的な3Dコンピュータモデルの、セッ
ト内の位置合わせされた画像との位置合わせは、3Dコ
ンピュータモデルと画像の配置を、3Dコンピュータモ
デルのシルエット(silhouette)が対象物体のシルエット
と少なくとも一部の画像中において合致するまで変更す
ることによって実行することができる。予備的な3Dコ
ンピュータモデルの、セット内の位置合わせされた画像
との位置合わせは、ユーザ入力信号に従って、あるいは
自動的に実行することができる。
【0012】本発明はまた、上述したような処理の実行
に用いるための処理装置及び方法を提供する。本発明は
また、例えば記憶装置又は信号伝達命令(signal carryi
ng instructions)として実現される、プログラム可能な
処理装置を上述の方法を実行可能となるように設定する
コンピュータプログラム製品を提供する。
【0013】本発明の実施形態を、ほんの一例として、
添付図面を参照して以下に説明する。図面において、同
様の部分には同様の参照数字が用いられている。
【0014】(第1の実施形態)図1を参照して、本発
明の実施形態は、従来通り、1つ又は2つ以上のプロセ
ッサと、メモリと、従来のパーソナルコンピュータモニ
タ等の表示装置4と接続されたグラフィックカード等を
含んだパーソナルコンピュータ等の処理装置2と、キー
ボード、マウス等のユーザ入力装置6と、プリンタ8
と、WACOM社の製品PL400のような、制御可能
なピクセルを有するフラットパネルから構成される表示
パネル10とを有している。
【0015】処理装置2は例えば、ディスク12のよう
なデータ記録媒体上に格納されたデータとして、及び/
又は、例えばリモートデータベースからインターネット
等の通信網(図示せず)又は大気を通じて伝送されて処
理装置2へ入力される信号14として入力されるプログ
ラム命令、及び/又はキーボード6等のユーザ入力装置
を介してユーザによって入力されるプログラム命令に従
って動作するようにプログラムされている。
【0016】以下により詳細に説明するように、プログ
ラム命令は、処理装置2を、異なる位置及び方向で記録
された対象物体の画像の第1のセットを規定する入力デ
ータと、対象物体の少なくとも1つの別の画像を含む、
画像の少なくとも1つの他のセットを処理し、対象物体
の3Dコンピュータモデルを定義する入力データを生成
するように構成する命令を有する。1つ又は複数の他の
セットの中の画像は、第1のセットの画像では見えない
対象物体の部分を示すものであろう。
【0017】より具体的には、プログラム命令は処理装
置2を、第1のセット内の入力画像が記録された位置及
び向き(それによって位置合わせされた画像の第1のセ
ットを生成する)を計算するために入力データを処理
し、追加のセット内の入力画像が記録された位置及び向
き(それによって位置合わせされた画像の追加のセット
を生成する)を計算し、第1のセットから位置合わせさ
れた画像を用いて予備的な3Dコンピュータモデルを規
定するデータを生成し、予備的な3次元コンピュータモ
デルを追加のセットの各々からの位置合わせされた画像
と位置合わせし(それによって第1のセットからの画像
を他のセットの全てからの画像と位置合わせする)、計
算された全ての画像の位置合わせを用いて(第1のセッ
ト内の画像で見ることのできるものだけでなく、他のセ
ットからの画像でしか見られない特徴を含んだ)正確な
3Dコンピュータモデルを生成するようにするための命
令を含む。
【0018】本実施形態において、対象物体は、特徴の
既知のパターンを有するキャリブレーション物体(本実
施形態においては2次元写真マット(two-dimensional p
hotographic mat)である)上で撮像される。各セット内
の入力画像は、それぞれ固定された構成において異なる
位置及び向きで記録された、対象物体及びキャリブレー
ション物体の画像を含む(すなわち、キャリブレーショ
ン物体に対する対象物体の位置及び向きが所与のセット
内の画像については同一であるが、各セットでは異な
る)。入力画像が撮像された位置及ぶ向きは、画像中の
キャリブレーション物体パターンを検出することによっ
て計算される。予備的な3次元コンピュータモデルは、
予備的な3次元コンピュータモデルを他のセット内の画
像の少なくとも1部へ投影し、3Dコンピュータモデル
とセット内の位置合わせされた画像との相対的な位置及
び向きを、3Dコンピュータモデルのシルエットと画像
内に撮像された対象物体のシルエット間の位置ずれを削
減するように変化させることにより、他のセット内の画
像と位置合わせされる。本実施形態において、3Dコン
ピュータモデルの相対位置及び向きの変更はユーザによ
って入力される命令に従ってなされるが、以下の実施形
態において説明するように、この処理を自動的に実行す
るようにすることも可能である。
【0019】プログラム命令によってプログラムされる
際、処理装置2は処理動作を実行する多数の機能ユニッ
トとして構成されるものと考えることができる。そのよ
うな機能ユニット及びその相互接続の例を図1に示す。
しかし、図1に示す、ユニット及び相互接続は概念的な
ものであり、理解を助けるための例示目的としてのみ示
されるものである。これらは必ずしも、処理装置2のプ
ロセッサ、メモリ等が実際に構成するユニットや接続を
表しているわけではない。
【0020】図1に示す機能ユニットを参照すると、ユ
ーザ入力装置6からの入力を処理し、また他の機能ユニ
ットの制御及び処理を提供する中央制御装置20が設け
られている。処理装置用の処理命令を格納し、さらに中
央制御装置20及び他の機能ユニットが用いるワークメ
モリとして使用するため、メモリ24が設けられてい
る。
【0021】マット生成器30は、印刷された”写真マ
ット(photographic mat)”34を形成するため、記録紙
等の記録媒体上にキャリブレーションパターンを印刷す
るか、写真マットを表示するため、表示パネル10上に
キャリブレーションパターンを表示するようにプリンタ
8又は表示パネル10を制御する制御信号を生成するよ
うに設けられている。以下更に詳細に説明するように、
写真マットは特徴(features)の所定のキャリブレーショ
ンパターンを含み、3Dコンピュータモデルが生成され
る対象物体は印刷された写真マット上か、キャリブレー
ションパターンが表示された表示パネル10上に置かれ
る。そして、対象物体及びキャリブレーションパターン
の画像のセットが記録され、処理装置2へ入力される。
各セットは、キャリブレーションパターンに対する対象
物体の位置及び向きが画像の任意の1セットについて同
一で、かつ異なるセットについては異なるという条件下
で、異なる位置及び向きから記録された対象物体及びキ
ャリブレーションパターンの画像を含む。
【0022】マット生成器30は、入力画像が記録され
た位置及び方向を計算する際に処理装置2が使用するた
めの写真マット上に印刷もしくは表示された特徴のキャ
リブレーションパターンを定義するデータを格納するよ
うに構成される。より具体的には、本実施形態におい
て、マット生成器30は特徴パターンを定義するデータ
とともに、特徴パターンに関連する座標系(要するに、
キャリブレーションパターンの向きの基準位置を定義す
る)を格納するように構成され、処理装置2はこの規定
された座標系において(従って、基準位置及び方向と相
対的に)、入力画像が記録された位置及び方向を計算す
るように構成される。このように、入力画像の各セット
に対して、入力画像の記録位置及び方向は相互に関して
計算され、従って位置決めされた入力画像のセットが生
成される。
【0023】本実施形態において、写真マット上のキャ
リブレーションパターンは、例えば、その全内容が本明
細書に相互参照として組み入れられるPCT出願GB00/0
4469(WO-A-01/39124)に記載されるような、特徴の空間
的な一群(spatial clusters of features)、あるいは、
(JP-A-9-170914に記載されるような)各点が異なる色
相/輝度の組み合わせを有するように色づけされた点の
パターン、(例えば、Niem の、”移動カメラを用いる
3次元物体の自動再構成(Automatic Reconstruction of
3D Objects Using a Mobile Camera)”(Image and Vis
ion Computing 17,1999, 125-134ページ)に記載される
ような)各象限が既知の大きさ及び位置マーカを有す
る、放射状の線分によって接続される同心円のパター
ン、又は(例えばComputer Graphics Proceedings, Ann
ual Conference Series, 1996 ACM-0-89791-764-4/96/0
08における、Gortler他による「ルミグラフ(The Lumigr
aph)」に記載されるような)異なる直径を有する同心環
を有するパターン等の、既知の任意の特徴パターンを有
する。
【0024】本実施形態においては、以下、キャリブレ
ーションパターンが、印刷された写真マット34を生成
するためプリンタ8によって記録媒体(本実施形態では
単票紙)上に印刷されるものと仮定するが、代わりに、
上述のようにキャリブレーションパターンは表示パネル
10に表示されても良い。
【0025】入力データ格納部40は、処理装置2への
データ入力を、例えば、ディスク42等の記憶装置上に
記憶されたデータとして、又は処理装置へ送信された信
号44として、又はユーザ入力装置6を用いて入力され
たものとして格納するように構成される。入力データ
は、異なる位置及び向きで記録された、写真マット34
上の対象物体の複数の画像を規定する。入力画像は、個
々のセットについて、セット内の全画像について、キャ
リブレーションパターンに対する対象物体の位置及び向
きが同一であり、かつセット毎にキャリブレーションパ
ターンに対する対象物体の位置及び向きが異なるよう
に、セットで配列される。入力画像は少なくとも2つの
画像セットを含む。第1のセットは異なる位置及び向き
から記録された少なくとも2つの画像を含む。第2のセ
ットは少なくとも1つの画像を含む。加えて、本実施形
態において、入力データは入力画像を記録したカメラの
固有パラメータ、即ちアスペクト比、焦点距離、主点
(principal point:光軸が結像面(imaging plane)と交
わる点)、1次放射方向歪曲収差係数(first order rad
ial distortion coefficient)及びスキュー角(skew an
gle:ピクセルグリッドの軸間角度。軸は正確に直交し
ていないかもしれないため)を規定するデータをも含
む。
【0026】入力データは、例えば、画像を記録したデ
ィジタルカメラから画素データをダウンロードすること
によって、あるいはスキャナ(図示せず)を用いて写真
をスキャンすることによって生成されるかもしれない画
像を規定する。
【0027】入力データはユーザ入力装置6を用いてユ
ーザが入力するかもしれない、カメラの固有パラメータ
を規定する。
【0028】カメラ計算機50は、写真マット34のキ
ャリブレーションパターン中の特徴の画像位置を検出す
るため各入力画像を処理し、画像が記録された際の、写
真マット34に対するカメラの位置及び向きを計算する
ように構成される。このように、各入力画像の位置及び
向きが同一のキャリブレーションパターンについて計算
されるので、各セット内の入力画像の位置及び向きは共
通座標系で規定され、その結果位置合わせされた入力画
像のセットが生成される。しかし、1つのセット内の入
力画像は、異なるセット内の入力画像に対して位置合わ
せされていない。これは、キャリブレーションパターン
に対する対象物体の位置及び向きが各セットの画像で異
なることによる。従って、以下に説明するように、異な
るセットの画像を位置合わせするため、位置合わせコン
トローラ80が設けられる
【0029】画像データ分割器60は各入力画像を、画
像中の他の画像データと、対象物体に対応する画像デー
タとを分離するように構成されている。
【0030】サーフェスモデラ70は、所与のセットの
画像について画像データ分割器60によって生成された
分割画像データ及び、当該セットの画像に対してカメラ
計算機50が計算したカメラ位置及び向きを処理し、対
象物体の表面を表すポリゴンメッシュからなる予備的な
3Dコンピュータモデルを生成するように構成されてい
る。サーフェスモデラ70は、本実施形態において、さ
らに、位置合わせコントローラ80によって全ての入力
画像が位置合わせされると、これら全ての画像を用い
て、対象物体の表面を表すポリゴンメッシュからなる最
終的な、正確な3Dコンピュータモデルを生成するよう
に構成される。
【0031】位置合わせコントローラ80は、カメラ計
算機50が生成した、位置合わせされた入力画像の異な
るセットを位置合わせするように構成される。
【0032】本実施形態において、位置合わせコントロ
ーラ80は3Dモデルポジショナ82、3Dモデルプロ
ジェクタ84、ローテータ86及びトランスレータ88
を有する。
【0033】3Dモデルポジショナ82は、サーフェス
モデラ70が生成した3Dコンピュータモデルを、サー
フェスモデラ70がこの3Dコンピュータモデルを生成
するために用いたセット以外のセット内の位置合わせさ
れた画像と同じ座標系内の適当な位置に配置するように
構成される。従って、例えば、3Dコンピュータモデル
が入力画像の第1のセットから生成されたとすると、3
Dモデルポジショナ82は、この3Dコンピュータモデ
ルを入力画像の別のセットの各々の座標系内の適当な位
置に配置するように構成される。
【0034】3Dモデルプロジェクタ84は、サーフェ
スモデラ70が生成した3Dコンピュータモデルを、3
Dモデルポジショナ82がこの3Dコンピュータモデル
を配置した座標系を有するセットからの複数の画像(本
実施形態では3画像)の各々に投影するように構成され
る。本実施形態においては、3Dコンピュータモデルを
投影すべき画像として、見ている方向(viewing directi
on)が実質的に直交する画像を、これらが利用可能であ
れば選択する。3Dモデルプロジェクタ84は更に、投
影されたコンピュータモデルのシルエットと、3Dコン
ピュータモデルが投影される各画像内に撮像された対象
物体のシルエットを表す、ユーザに表示するための画像
を生成するように構成される。
【0035】ローテータ76及びトランスレータ78
は、ユーザ入力命令に応答して、サーフェスモデラ70
が生成した3Dコンピュータモデルを、画像の位置合わ
せされたセットが3Dモデルポジショナ82によって配
置された座標系に対して回転及び変換可能である。
【0036】以下詳細に説明するように、ユーザによる
3Dコンピュータモデルの回転及び変換と、3Dモデル
プロジェクタ84によるコンピュータモデル投影及び画
像データ表示は、インタラクティブに反復して実行され
る。このようにして、ユーザによる回転及び変換の結果
はリアルタイムで表示され、サーフェスモデラ70が生
成した3Dコンピュータモデルと入力画像の位置合わせ
されたセットとを正確に位置合わせするためにユーザが
更に回転及び変換を行うことを可能にする。
【0037】サーフェステクスチャラ100は、サーフ
ェスモデラ70が生成した最終的な3Dコンピュータモ
デル上にレンダリングするためのテクスチャデータを入
力画像から生成するように構成される。
【0038】表示プロセッサ110は、中央制御装置2
0の制御下で、処理装置2の処理中、表示装置4を介し
てユーザに画像及び命令を表示するように構成される。
加えて、中央制御装置20の制御下で、表示プロセッサ
110は、最終的なサーフェスモデルデータを処理し、
サーフェステクスチャラ100が生成したテクスチャデ
ータをサーフェスモデル上にレンダリングすることによ
り、ユーザが選択した視点からの、最終的な3Dコンピ
ュータモデルの画像を表示するように構成される。
【0039】出力データ格納部120はサーフェスモデ
ラ70が生成した最終的な3Dコンピュータモデル15
0及び、必要に応じて、サーフェステクスチャラ100
が生成したテクスチャデータを規定するデータを格納す
るように構成される。中央制御装置20は出力データ格
納部120からのデータ出力を、ディスク122等の記
憶装置上のデータ及び/又は信号124として制御する
ように構成される。出力データの記録は記憶装置(図示
せず)を直接的又は間接的に用いて出力信号124を記
録することで行うことができる。
【0040】図2を参照して、処理装置2へ入力するた
めの入力画像の第1のセットの記録について説明する。
【0041】印刷された写真マット34は面200上に
置かれ、3Dコンピュータモデルを生成する対象物体2
10は、マット上のキャリブレーションパターンを構成
する特徴によって取り囲まれるように実質的に写真マッ
ト34の中央に置かれる。
【0042】対象物体210及び写真マット34の画像
は、対象物体210の異なる部分を示すよう、ディジタ
ルカメラ230を用いて異なる位置及び方向において記
録される。本実施形態において、カメラ230によって
記録された画像を規定するデータは信号44として線2
32に沿って処理装置2へ入力される。
【0043】特に、本実施形態において、カメラ230
は固定位置にとどまり、写真マット34とその上の対象
物体210が面200上を移動(変換)並びに回転(例
えば矢印240の方向へ)させられ、カメラ230に対
して相対的に異なる位置及び方向における物体210の
写真が記録される。キャリブレーションパターンに対す
る対象物体210の位置及び向きがセット内の各画像に
ついて同一となるよう、入力画像の各セットについて、
面200上の写真マット34の回転及び変換の間、対象
物体210はマット34に対して移動しない。
【0044】対象物体210の頂上の画像は、カメラ2
30を三脚から外し、真上から対象物体を撮影すること
で記録される。
【0045】図3は、処理装置2へ入力されるデータに
規定される画像の第1のセットからのサンプル画像30
0、304、308及び312であり、カメラ230に
対して異なる位置及び方向における対象物体210及び
写真マット34を示している。
【0046】図4は、処理装置2へ入力するための画像
の第2のセットの記録を示す図である。図4を参照し
て、写真マット34上のキャリブレーションパターンに
対する対象物体210の位置及び向きは入力画像の第1
のセットについての位置及び向きと異なるが、対象物体
210は再度写真マット34のほぼ中心に配置される。
【0047】対象物体210及び写真マット34の画像
は(本実施形態においては、対象物体210が置かれた
写真マット34を変換及び回転すること、及び/又はよ
り高い仰角から対象物体210を撮像するためカメラ2
30を移動することにより)、カメラ230を用いて異
なる位置及び向きで記録される。キャリブレーションパ
ターンに対する対象物体210の位置及び向きが第2の
セット内の各画像について同一となるよう、写真マット
34の回転及び変換の間、対象物体210はマット34
に対して移動しない。
【0048】このようにして、画像の第2のセットが記
録される前に、写真マット34に対する対象物体210
の位置及び向きの変更をユーザに許可することにより、
ユーザは写真マット34上の対象物体210を、画像の
第1のセットの記録時には見えなかった対象物体210
の部分(例えば対象物体210の)が見えるように配置
することが可能であり、従ってそのような部分の撮像及
び対象物体の3Dコンピュータモデルにおけるモデリン
グが可能になる。
【0049】図6は、カメラ230に対して異なる位置
及び向きにおける対象物体210及び写真マット34を
示す、処理装置2へ入力されるデータに規定される画像
の第2のセットからの例示画像380、382及び38
4を示す。
【0050】図6は、本実施形態において、処理装置2
が実行する入力データ処理動作を示している。図6を参
照して、ステップS6−2では、中央制御装置20に従
い、表示プロセッサ110が、処理するデータを入力す
るようユーザに要求するメッセージを表示装置4上に表
示させる。
【0051】ステップS6−4では、ステップS6−2
での要求に応答してユーザが入力したデータが入力デー
タ格納部40に格納される。より具体的には、上述した
ように、本実施形態では、入力データが、異なる位置及
び方向において記録された対象物体210及び写真マッ
ト34の画像であって、写真マット34に対する対象物
体210の位置及び向きが各セット内の画像で等しく、
かつセット毎に異なるようなセットに分割された画像を
規定するデータを有する。本実施形態においては、入力
データは入力画像を記録したカメラ230の固有パラメ
ータを規定するデータをさらに有している。
【0052】ステップS6−6では、カメラ計算機50
がステップS6−4において格納された入力画像の各セ
ット及び固有カメラパラメータデータを処理し、各セッ
ト内の各画像について、写真マット34上のキャリブレ
ーションパターンに対する(従って、対象物体210に
対する)カメラ230の位置及び方向を求める。この処
理は、各セット内の各入力画像に対する以下の処理を有
する。写真マット34上でキャリブレーションパターン
を形成する画像の特徴の検出、画像中の特徴の位置と写
真マット用に格納されたパターン中の特徴の位置との比
較、及びそれらに基づく、画像が記録された際のカメラ
230のマット34に対する相対位置及び方向計算の各
処理を有する。
【0053】ステップS5−6においてカメラ計算機5
0が実施する処理は写真マット34に用いられる特徴の
キャリブレーションパターンに依存する。適切な処理は
例えば、PCT出願GB00/04469(WO-A-01/39124)、特開
平9-170914号公報(JP-A-9-170914)、Niemによる、”移
動カメラを用いた3D物体の自動再構成(Automatic Rec
onstruction of 3D Object Using a Mobile Camera)”
(Image and Vision Computing 17, 1999, 125-134ペー
ジ)及び、Gortlerらによる”The Lumigraph” (Compute
r Graphics Proceedings, Annual Conference Series,
1996 ACM-0-89791-764-4/96/008に記述されている。こ
こで、各入力画像中のキャリブレーションパターンの特
徴の位置は、これら列挙した参考文献に記載された画像
処理技術を用い、カメラ計算機50が単独で検出するよ
りも、(例えば、表示画像中の各キャリブレーションパ
ターンの特徴を指定してクリックすることにより)ユー
ザによって処理装置2へ指定されうることに留意された
い。カメラ計算機50による処理の結果、写真マット3
4上のキャリブレーションパターンに対するセット内の
各入力画像の位置及び向きが計算され、従って、各セッ
ト内の画像が互いに位置合わせされる。
【0054】ステップS6−8において、画像データ分
割器60はステップS6−4で格納された入力画像の各
々を処理し、対象物体210を表す画像データを他の画
像データ(”背景”画像データ)と分ける。この処理は
例えばGB-A-2368307のAnnexA.の2.2部に記載されるよう
な、従前の画像分割方法を用いて実施される。
【0055】図7は、ステップS6−6及びS6−8に
おける、入力画像の第1のセットに対する処理結果を
(入力画像の他のセットに対して得られる、対応する結
果と合わせて)示す。図7を参照して、処理のこの段階
においては、第1のセット内の入力画像300−316
の各々における対象物体210のシルエット350−3
66が計算され、また3D空間における各シルエットの
相対位置及び方向が計算される(なぜなら、各シルエッ
ト350−366は入力画像の2次元平面中に存在し、
各入力画像の位置及び方向はステップS5−6でカメラ
計算機50が計算しているため)。加えて、各入力画像
に対する焦点320−336の位置もまた入力データ及
びカメラ計算機50による計算から既知である。
【0056】再び図6を参照して、ステップS6−10
では、サーフェスモデラ70が、入力画像の1つのセッ
ト(本実施形態においては第1のセット)についてデー
タを処理し、対象物体210の表面を表すポリゴンメッ
シュからなる予備的な3Dコンピュータモデルを生成す
る。
【0057】より具体的には、再度図7を参照して、
(シルエットは画像中の対象物体の輪郭を規定するた
め)各シルエット350−366は、シルエットが記録
された画像が記録された際のカメラの焦点位置320−
336とともに、(今のところは未知である)3D空間
中の複数点において対象物体210の表面に接する3D
空間中の無限円錐(infinite cone)を規定する。
【0058】本実施形態において、サーフェスモデラ7
0はステップS6−10で、シルエット350−366
の全てによって規定される無限円錐の交差部分(interse
ction)で定義される3D空間の体積を求め、平面ポリゴ
ンを接続するメッシュによって交差部分の体積を表す処
理を実行する。
【0059】この処理は同一出願人による、同時係属の
日本特許出願2002-169584号(当該出願の全内容は参照
として本明細書に組み込まれる)に記載される技術を用
いて、あるいは、例えばhttp://i31www.ira.uka.de/dip
lomarbeiten/da_martin_loehlein/Reconstruction.html
に開示される、Martin Lohleinによる”境界表現を用い
た3D再構成のための視体積交差法アルゴリズム(A Vol
umetric IntersectionAlgorithm for 3D-reconstructio
n Using a Boundary-Representation)”や、M. Szilvas
i-Nagyによる、”2つの単純多面体の交差を求めるアル
ゴリズム(An algorithm for Determining the Intersec
tion of Two Simple Polyhedra)”(Computer Graphics
Forum 3(1984),219-225ページ)に記載されるような従来
方法を用いて実行することができる。
【0060】代わりに、サーフェスモデラ70は、例え
ばIllingsworth及びHiltonによる、”モデル世界構築の
試み:コンピュータビジョンを用いた静的物体モデルの
自動構築(Looking to build a model world: automatic
construction of static object models using comput
er vision)”(Electronics and Communication Enginee
ring Journal, June 1998, 103-113ページ)、又はNiem
による”移動カメラを用いる3次元物体の自動再構成(A
utomatic reconstruction of 3D objects using a mobi
le camera)”(Image and Vision Computing 17, 1999,
125-134ページ)に記載されるような、シルエットからの
形状生成処理(shape-from-silhouette processing)を実
行しても良い。これら方法においては、シルエット円錐
(shilhouette cone)の交差部分が計算され、複数のボク
セル(直方体)から形成される対象物体の”体積表現(v
olume representation)”を生成するために用いられ
る。より具体的には、3D空間がボクセルに分割され、
ボクセルはどれがシルエット円錐の交差部分で規定され
る体積の内部に位置するかを判定するためテストされ
る。交差体積内部のボクセルは、対象物体を表すボクセ
ルの体積を規定するため保持される。そして、体積表現
は接続されたポリゴンのメッシュからなるサーフェスモ
デルへ変換される。
【0061】ステップS6−10における処理の結果
は、例えば図8に示すような、対象物体210の表面を
表すポリゴンメッシュ390である。ポリゴンメッシュ
390は入力画像300−316を用いて生成されるた
め、入力画像300−316において見えない対象物体
210の特徴(底面上の特徴等)は、ポリゴンメッシュ
において正確にモデリングされていない。しかし、ポリ
ゴンメッシュは第1のセット内の入力画像に位置合わせ
されており(すなわち、その位置及び向きは入力画像3
00−316に対して既知である)、入力画像の全てを
位置合わせし、3Dコンピュータモデルを正確にするた
めの引き続く処理においてこのポリゴンメッシュが用い
られる。
【0062】より具体的には、ステップS6−12にお
いて、位置合わせコントローラ80は、ステップS6−
10で生成された予備的な3Dコンピュータモデル39
0を残りの画像の各セット内の位置合わせされた入力画
像(すなわち、ステップS6−10において3Dコンピ
ュータモデルの生成に用いられなかったセットの各々に
おける入力画像)と位置合わせするための処理を行う。
以下に説明するように、本実施形態において、位置合わ
せコントローラ80によるこの位置合わせはユーザが入
力する命令に従って実行される。
【0063】図9は、本実施形態において、位置合わせ
コントローラ80が、サーフェスモデラ70が生成した
3Dコンピュータモデル390を、カメラ計算機50が
生成した、他の画像の位置合わせされたセットの各々と
位置合わせするためにステップS6−12で実行する処
理動作を示す。
【0064】図9を参照して、ステップS9−2で、3
Dモデルポジショナ82は、予備的な3Dコンピュータ
モデル390を、入力画像の位置合わせされた次のセッ
ト(これは、最初にステップS9−2が実行される際に
は、サーフェスモデラ70がステップS6−10におけ
る3Dコンピュータモデル390の生成に用いなかった
第1の位置合わせされたセットである)と同じ座標系内
に配置する。より具体的には、3Dモデルポジショナ8
2は3Dコンピュータモデル390を、その底面の中心
が写真マット34上のキャリブレーションパターンの中
心に対応するように配置する。このようにして、3Dコ
ンピュータモデル390の位置は現在検討されているセ
ット内の入力画像に対しておおよそ正しくなる(なぜな
ら、上述したように、入力画像の各々は、キャリブレー
ションパターンの中心にある対象物体210の画像を示
すからである)。
【0065】ステップS9−4において、3Dモデルプ
ロジェクタ84は、3Dコンピュータモデル390を、
現在検討されているセット内の入力画像の少なくとも一
部の各々に投影する。
【0066】より具体的には、本実施形態において、3
Dモデルプロジェクタ84は、ほぼ直交する(又はセッ
ト内で選択可能な範囲で直交に近い)視方向を有する3
つの入力画像を選択し、予備的な3Dコンピュータモデ
ル390をこの選択された3入力画像上へ投影する。
【0067】ステップS9−6で、3Dモデルプロジェ
クタ84は表示プロセッサ110を制御し、予め定めら
れた視方向からの、3Dコンピュータモデル390の画
像と、ステップS9−4で選択された入力画像であっ
て、3Dコンピュータモデル390の投影されたシルエ
ット(すなわち、輪郭)を、ステップS6−8で画像デ
ータ分割器60が生成した分割画像シルエットとともに
示す入力画像の各々とを含む画像を、表示装置4上でユ
ーザに対して表示させる。
【0068】図10は、本実施形態において、ステップ
S9−6でユーザに表示される画像の例を示す。図10
を参照して、画像500は3Dコンピュータモデル39
0の眺望(view)を示す。コンピュータモデル390は、
ワイヤフレームモデル390の各ポリゴンが平面である
ものとしてレンダリングすることにより、画像500内
にソリッドモデルとしてユーザに呈示される。
【0069】画像510は3Dコンピュータモデル39
0が第1の選択された入力画像へ投影された際のシルエ
ットと、画像データ分割器60による処理の結果として
既に入力画像内に存在するシルエットとを示す。
【0070】同様に、画像520は、3Dコンピュータ
モデル390が第2の選択された入力画へ投影された際
のシルエットと、画像データ分割器60が生成した入力
画像中のシルエットを示し、画像530は、3Dコンピ
ュータモデル390が第2の選択された入力画像に投影
された際のシルエットと、画像データ分割器60が生成
した入力画像中のシルエットを示す。
【0071】表示されたシルエットをユーザが区別する
のを助けるため、各画像510、520及び530にお
いて、シルエットの1つが実線で表され、もう一方のシ
ルエットは点線で表される。
【0072】ポインタ404及び、マウス等のユーザ入
力装置6を用い、指示及びクリックすることにより、ユ
ーザが選択するための、”回転”ボタン440、”変換
(X,Y)”ボタン450及び”変換(Z)”ボタン4
60が設けられている。
【0073】”回転”ボタン440の選択に続き、ユー
ザはポインタ404の移動により、画像500内に示さ
れる3Dコンピュータモデル390を回転させることが
できる。より具体的には、1回”回転”ボタン440を
クリックすると、ユーザは3Dコンピュータモデル39
0をX座標軸に関して回転可能となり、2回”回転”ボ
タン440をクリックすると、ユーザは3Dコンピュー
タモデル390をY座標軸に関して回転可能となり、3
回”回転”ボタン440をクリックすると、ユーザは3
Dコンピュータモデル390をZ座標軸に関して回転可
能となる。
【0074】同様に、必要に応じ、”変換(X,Y)”
ボタン450(X−Y平面内の移動を可能にする)又
は”変換(Z)”ボタン460(Z軸方向の移動を可能
にする)の選択に続き、ポインタ404を移動させるこ
とにより、モデル390の位置及び向きを変更すること
ができる。
【0075】以下説明するように、ユーザが3Dコンピ
ュータモデル390を回転及び変換するに伴い、画像5
00、510、520及び530はリアルタイムで更新
され、ユーザは自らが行った移動の効果を見ることが可
能である。特に、ユーザは画像510、520及び53
0中のシルエットの位置ずれを見ることが可能であり、
従って位置ずれが最小となるように3Dコンピュータモ
デル390を回転及び変換し、予備的な3Dコンピュー
タモデル390を入力画像の現在検討中の位置合わせさ
れたセットへ位置合わせすることが可能である。3Dコ
ンピュータモデル390の位置及び向きを、入力画像の
現在検討中の位置合わせされたセットへ位置合わせする
ことにより、ユーザはステップS6−10において3D
コンピュータモデル390を生成した入力画像の位置合
わせされたセットを、画像の現在検討中の位置合わせさ
れたセットへも位置合わせすることができる(なぜな
ら、上述したように、3Dコンピュータモデル390は
ステップS6−10において生成される際に、これら画
像と位置合わせされているからである)。
【0076】より具体的には、再び図9を参照して、ス
テップS9−8で、ローテータ86及びトランスレータ
88は、上述したように生成される、ユーザからの入力
信号に従って、3Dコンピュータモデル390の回転角
及び位置を、入力画像の現在検討中の位置合わせされた
セットの座標系に関して変更する。
【0077】ステップS9−10において、3Dモデル
プロジェクタ84及び表示プロセッサ110は、ステッ
プS9−8における回転角及び/又は位置に対する変更
結果を示すため、ユーザに表示される画像500、51
0、520及び530を更新する。
【0078】ステップS9−12において、位置合わせ
コントローラ80は3Dコンピュータモデル390を変
換又は回転させるための入力信号がユーザから受信され
たか否かを調べる。ステップS9−8からS9−12ま
では、ユーザが入力画像の現在検討中の位置合わせされ
たセットへの3Dコンピュータモデル390の位置合わ
せを完了するまで繰り返される。
【0079】ステップS9−14において、位置合わせ
コントローラ80は、3Dコンピュータモデル390を
位置合わせすべき、入力画像の位置合わせされたセット
がさらにあるか否か(すなわち、ステップS6−10に
おいて、3Dコンピュータモデル390の生成に用いら
れなかった他の入力画像の位置合わせされたセットが
【0080】存在するか否か)を調べる。ステップS9
−2からS9−14は、3Dコンピュータモデル390
が入力画像の位置合わせされたセットの各々と位置合わ
せされるまで繰り返される。3Dコンピュータモデル3
90が入力画像の位置合わせされた全てのセットと位置
合わせされると、全セット内の全入力画像が互いに位置
合わせされる。従って、各入力画像の相対的な位置及び
向きがわかり、利用可能な全ての入力画像を用いて対象
物体210の正確な3Dコンピュータモデルを生成する
ことができる。このようにして、対象物体210の、入
力画像の第1のセットにおいては撮像されず、他のセッ
トにおいて撮像された部分(対象物体の底面等)を、最
終的な3Dコンピュータモデルに正確にモデリングする
ことができる。
【0081】従って、再び図6を参照して、ステップS
6−14において、サーフェスモデラ70は、対象物体
210の正確な3Dコンピュータモデルを生成するため
の処理を実行する。
【0082】本実施形態において、サーフェスモデラ7
0は、入力画像の位置合わせされた全てのセットと、以
前ステップS6−10において予備的な3次元コンピュ
ータモデルを生成するために実行した処理と同じ処理を
用いて、正確な3次元コンピュータモデルを生成する。
すなわち、予備的な3次元コンピュータモデル390が
廃棄され、(ステップS6−8で生成された)シルエッ
トデータ及び、位置合わせされた第1のセットではな
く、全ての入力画像の位置合わせされた位置及び向きを
用いて新しい3Dコンピュータモデルが生成される。こ
の処理は既に説明したため、ここで再度の説明は行わな
い。
【0083】ステップS6−16において、サーフェス
テクスチャラ100は、ステップS6−14で生成され
た3Dコンピュータモデル用のテクスチャデータを生成
するため、入力画像を処理する。
【0084】より具体的には、本実施形態において、サ
ーフェステクスチャラ100は、ステップS6−14で
生成された3Dコンピュータモデル中の各3角形を選択
し、選択された3角形に最も正対する入力画像”i”を
判定するための従来方法の処理を実施する。すなわち、
入力画像はn^tが3角形の法線(triangle normal)、
v^iをi番目の画像の視方向とすると、n^t・v^
iが最大になる画像が探される。これは、選択された表
面3角(surface triangle)が最も大きな投影領域を有す
る画像を特定する。
【0085】選択された表面3角は特定された入力画像
へ投影され、投影された3角形の頂点は画像テクスチャ
マップを規定するためのテクスチャ座標として用いられ
る。
【0086】サーフェステクスチャラ100がステップ
S6−16でテクスチャデータを生成するために用いう
る他の技術は、英国特許出願第GB-A-2369541号、並びに
GB-A-2369260号及び欧州特許出願第EP-A-1204073号に記
載されており、これら公地文献は相互参照により本明細
書に組み込まれる。
【0087】上述の処理を実行した結果は、入力画像中
で見ることのできる全ての特徴をモデリングした対象物
体210の3Dコンピュータモデルと、入力画像から
の、モデル上にレンダリングされるべきテクスチャ座標
定義画像データである。
【0088】ステップS6−14で生成された3Dコン
ピュータモデルを定義するデータは、テクスチャデータ
とともに出力データ格納部120に格納される。格納さ
れるテクスチャデータは出楠茶データに用いられる入力
画像の各々を規定するデータと、入力画像中のテクスチ
ャ座標を規定するデータを含みうる。代わりに、テクス
チャデータとして使用される画素データを入力画像ら抽
出し、出力データ格納部120へ格納しても良い。
【0089】ステップS6−18で、中央制御装置20
は、出力データ格納部120から、例えばディスク12
2等の記憶装置上に格納されたデータとして、あるいは
信号124(図1)として、ステップS6−14で生成
された3Dコンピュータモデル390及び、必要に応じ
て、テクスチャデータを定義するデータを出力する。加
えて、あるいは代わりに、中央制御装置20は表示プロ
セッサ110に、例えばユーザ入力装置6を用いてユー
ザが入力した視点に従って、テクスチャデータとともに
レンダリングされたステップS6−14で生成された3
Dコンピュータモデルの画像を表示装置4へ表示させ
る。
【0090】(第2の実施形態)本発明の第2の実施形
態について説明する。上述した第1の実施形態におい
て、位置合わせコントローラ80は、ステップS6−1
2において、ユーザから入力される、入力画像の位置合
わせされたセットの各々に対する3Dコンピュータモデ
ル390の位置及び向きに対する変更を規定する信号に
基づいて、予備的な3Dコンピュータモデル390を入
力画像の位置合わせされた他のセットと位置合わせし
た。
【0091】しかし、第2の実施形態において説明する
ように、予備的な3Dコンピュータモデル390の、入
力画像の位置合わせされた他のセットとへの位置合わせ
は、ユーザからの入力無しに、位置合わせコントローラ
80によって自動的に行うことが可能である。
【0092】第2の実施形態の構成要素及びそれによる
処理動作は、位置合わせコントローラ80の構成要素
と、これら構成要素によって実行される処理動作を除い
て第1の実施形態と同一である。従って、以下ではこれ
ら相違についてのみ説明する。
【0093】図11は、第3の実施形態における位置合
わせコントローラ70の機能要素を示す。図11を参照
して、第2の実施形態の位置合わせコントローラ80
は、第3の実施形態と同様、3Dモデルポジショナ8
2、3Dモデルプロジェクタ84、ローテータ86及び
トランスレータ88を有する。しかし、それに加えて位
置合わせコントローラ80は制約計算機(constraint ca
lculator)90及び、誤差計算機(error calculator)9
2を含む。これらの処理機能については後で詳述する。
【0094】図12は、第2の実施形態において、予備
的な3Dコンピュータモデル390をカメラ計算機50
が生成した入力画像の位置合わせされたセットの各々及
び、ステップS6−10において予備的な3Dコンピュ
ータモデル390の生成に用いられなかった入力画像の
位置合わせされたセットへ位置合わせするために、ステ
ップS6−12で位置合わせコントローラ80の構成要
素によって実行される処理動作を示す。
【0095】図12を参照して、ステップS12−2
で、3Dポジショナ82は予備的な3Dコンピュータモ
デル390を、このコンピュータモデル390を位置合
わせすべき、次の、入力画像の位置合わせされたセット
(ステップS12−2が最初に実行される際には最初の
セット)と同じ座標系に配置する。より具体的には、第
1の実施形態と同様、3Dモデルポジショナ82は、予
備的な3Dコンピュータモデル390を、その底面中心
が写真マット34内のキャリブレーションパターンの中
心と一致するように、その座標系に配置する。このよう
にして、上述した理由により、予備的な3Dコンピュー
タモデル390の位置は、現在検討中の、入力画像の位
置合わせされたセットに対してほぼ正しくなるが、この
段階においてその回転角は不定である。
【0096】ステップS12−4で、誤差計算機92は
予備的な3Dコンピュータモデル390が引き続く処理
において変換可能な限度を計算する。この限度は、上述
したように、予備的な3Dコンピュータモデル390の
位置がステップS12−2における処理の結果大まかに
修正されているために課され、従ってこの限度は引き続
く3Dコンピュータモデル390の変換に設定可能であ
り、それによって3Dコンピュータモデル390と現在
選択されている入力画像の位置合わせされたセットとの
位置合わせのための処理時間を短縮する。
【0097】本実施形態において、誤差計算機92はス
テップS12−4で、3Dコンピュータモデル390の
大きさの10%を変換制限として設定する。ここで、大
きさは3Dコンピュータモデル390の最大固有値の平
方根として計算される。引き続く処理において、予備的
な3Dコンピュータモデル390は、その時点における
位置からいかなる方向にもこの量を超えて移動すること
は許されない。
【0098】ステップS12−6において、位置合わせ
コントローラ80は処理が反復実行された回数を示すカ
ウンタの値を0にセットする。ステップS12−8にお
いて、3Dモデルプロジェクタ84は予備的な3Dコン
ピュータモデル390(ステップS12−2において配
置された位置及び方向を有する)を、現在検討中のセッ
ト内の位置合わせされた入力画像の各々に投影する。
【0099】ステップS12−10において、誤差計算
機92はセット内の各入力画像について、(ステップS
12−8で生成された)3Dコンピュータモデル390
の投影されたシルエットを、ステップS6−8における
画像データ分割器60による処理結果として入力画像中
に存在するシルエットと比較するための処理を実行す
る。より具体的には、本実施形態において、誤差計算機
92は、入力画像の各画素について、シルエットの両方
ではなく一方の内部に存在する画素は1に、それ以外
(すなわち、画素が両方のシルエットの内部にある場合
もしくは両方のシルエットの外部にある場合)の画素は
0に設定することにより、セット内の各入力画像につい
て差分画像(difference image)を生成する。このように
して、各差分画像内の画素は、ステップS12−8で生
成されたシルエットと、ステップS6−8で生成された
シルエットとが揃っていない部分では値1に設定され
る。従って、各差分画像中1の画素値は、予備的な3D
コンピュータモデルが入力画像中の対象物体210のシ
ルエットと食い違う位置を規定する。
【0100】ステップS12−12で、予備的な3Dコ
ンピュータモデル390の、現時点での最良の回転角を
表す変数Rbestの値が、ステップS12−2で設定され
た、予備的な3Dコンピュータモデル390の回転角と
なるように設定される。同様に、予備的な3Dコンピュ
ータモデル390の現時点での最良の位置(変換)を表
すTbestの値が、ステップS12−2で設定された値に
なるよう設定される。予備的な3Dコンピュータモデル
390と現在検討中のセット内の位置合わせされた入力
画像との位置合わせにおける誤差を表す変数Ebestの値
は、ステップS12−10で生成された全ての差分画像
における値1の画素の合計となるように設定される。
【0101】これから説明するように、引き続く処理に
おいて、位置合わせコントローラ80は、Ebestの値を
削減するように、予備的な3Dコンピュータモデル39
0を回転及び変換する処理を実行する。
【0102】より具体的には、ステップS12−14で
は、ローテータ86及びトランスレータ88は、ステッ
プS12−4で設定された変換制限及び任意の回転制限
(ステップS12−14の第1の所定回数の反復に対し
ては回転制限は存在しないが、以下で説明するように、
第1の所定回数反復実行された後にこのような制限が導
入される)の範囲内で、予備的な3Dコンピュータモデ
ル390を無作為に回転及び変換する。
【0103】ステップS12−16で、3Dモデルプロ
ジェクタ84は予備的な3Dコンピュータモデル390
を、ステップS12−14での回転及び変換に引き続
き、現在選択されているセット内の各入力画像へ投影す
る。
【0104】ステップS12−18で、誤差計算機92
は、投影された3Dコンピュータモデル390のシルエ
ットと、画像データ分割器60が生成したシルエットと
を比較するためにセット内の各入力画像を処理し、これ
らシルエットから差分画像を生成する。ステップS12
−18における処理はステップS12−10での処理と
同一であるため、ここで再度の説明は行わない。
【0105】ステップS12−20で、誤差計算機92
は予備的な3Dコンピュータモデル390の現在の回転
角及び変換(すなわち、ステップS12−14で設定さ
れる回転及び変換)に対する位置合わせ誤差を計算す
る。より具体的には、ステップS12−12と同様に、
誤差計算機92はステップS12−18で生成された差
分画像の全てについて、値1の画素の合計数として誤差
を計算する。
【0106】ステップS12−22で、誤差計算機92
はステップS12−20で求められた現在の誤差が格納
された最良誤差Ebest未満であるか否かを判定する。ス
テップS12−22において、現在の誤差がEbest未満
であると判断された場合には、ステップS12−24
で、現在の回転角がRbestに、現在の位置がT bestに、
現在の誤差がEbestにそれぞれ設定される。
【0107】一方、ステップS12−22において、現
在の誤差がEbest以上であると判断された場合、ステッ
プS12−24は省略される。ステップS12−26
で、反復処理回数を示すカウンタの値を1増加させる。
ステップS12−28で、所定値N1(本実施形態では
5000に設定される)と等しいか判断するため、カウ
ンタ値が読み出される。
【0108】ステップS12−28において、カウンタ
値がN1に等しいと判断された場合には、ステップS1
2−30で、制限計算機90がそれ以降ステップS12
−14でなされる予備的な3Dコンピュータモデル39
0の回転に対して回転制限を設定する。より具体的に
は、本実施形態において、制限計算機90は、引き続く
反復処理においてステップS12−14が実行された際
に、予備的な3Dコンピュータモデル390がその時点
での回転角から±10°の範囲内でのみ回転可能なよう
に、10°の回転制限を設定する。このように、ステッ
プS12−4からS12−32の反復が十分な回数実行
され、3Dコンピュータモデル390の回転角がおおよ
そ正確と思われる状態になると、回転制限が導入され
る。従って、3Dコンピュータモデル390のその後の
反復処理における回転が制限され、位置合わせ精度を向
上しないであろうステップS12−14での大きく無作
為な回転を防止するため、精度が向上する。
【0109】一方、ステップS12−28において、カ
ウンタ値が所定値N1未満であるかN1より大きいと判
断された場合、ステップS12−30は省略される。ス
テップS12−32で、第2の所定値N2(本実施形態
では10000に設定される)未満であるか判断するた
め、カウンタ値が読み出される。ステップS12−14
からS12−32は、ステップS12−32においてこ
れら処理の反復回数が所定の閾値N2に達したと判定さ
れるまで、予備的な3Dコンピュータモデル390を無
作為に回転及び変換し、入力画像の位置合わせされたセ
ットとの位置合わせ結果を試すために繰り返される。
【0110】ステップS12−34で、格納されている
値Rbest及びTbestが読み出される。これら値はステッ
プS12−14の全ての反復において生成され、予備的
な3Dコンピュータモデル390と現在検討中の入力画
像の位置合わせされたセットとの最良の位置合わせを与
える位置及び向きを表す。
【0111】(変更及び変形物)請求範囲の範囲内で、
上述の実施形態に対して多くの変更及び変形を行うこと
が可能である。例えば、上述の実施形態において、入力
画像データは対象物体210の”静止”画像から構成さ
れている。しかし、入力画像はビデオカメラからの画像
データのフレームから構成されていても良い。
【0112】上述の実施形態において、ステップS6−
4で、カメラの固有パラメータを規定するユーザ入力デ
ータが格納される。しかし、代わりに、カメラパラメー
タの一部又は全部について、デフォルト値を仮定しても
よいし、例えばHartleyによる、”未校正視点からのユ
ークリッド再構成(Euclidean Reconstruction From Unc
alibrated Views)”, Applications of Invariance in
Computer Vision, Mundy, Zisserman and Forsyth eds,
237-256ページ, Azores 1993に記載されるような従来
手法により固有パラメータ値を計算するための処理を実
行しても良い。
【0113】上述の実施形態において、ステップS6−
4で格納される入力画像の第2のセットは複数の画像3
80、382、384を含んでいる。しかし、第2のセ
ットは1つの画像のみを含んでも良い。この場合、この
単独の画像は写真マットなしに対象物体単独で記録され
ても良く、ステップS6−6で当該単独の画像の撮像位
置及び向きを計算するための処理を実行する必要はな
い。
【0114】上述の実施形態において、ステップS6−
4で格納される全ての入力画像が写真マット34上の対
象物体210の画像から構成され、カメラ計算機50に
よる処理は、各入力画像の位置及び方向がキャリブレー
ションパターンの基準位置及び方向に相対的に計算され
るように、画像中の写真マット上のキャリブレーション
パターンからの特徴部分と、キャリブレーションパター
ンを規定する、記憶されたデータとを合致させるための
処理からなっていた。しかし、この代わりに、カメラ計
算機50は、入力画像の相対位置及び方向を求めるため
に、(画像と記憶されたパターンとの間の代わりに)画
像間のキャリブレーションパターンの特徴部分を合致さ
せるための処理を実行してもよい。例えば、PCT出願
GB00/04469(WO-A-01/39124)の図53及び54に関して
記載されるような方法を用いることができる。代わり
に、ステップS6−4で格納される入力画像が、写真マ
ットなしの、対象物体210だけの画像から構成されて
も良く、またカメラ計算機50はステップS6−6にお
いて、例えばEP-A-0898245に記載されるように、(キャ
リブレーションパターンの特徴部分を合致させるのでは
なく)対象物体210の特徴部分を合致させることによ
って入力画像の相対位置及び方向を計算するための処理
を実行しても良い。加えて、カメラ計算機50はステッ
プS6−6において、(例えば異なる画像中の同一の特
徴部分の位置を特定するため、位置を指定してクリック
することにより)ユーザによって指示される、画像中の
合致する特徴を用いて入力画像の相対位置及び方向を計
算しても良い。
【0115】もちろん、入力画像の位置及び向きを計算
するためにカメラ計算機50がステップS6−6におい
て用いる方法が、入力画像の異なるセットについて異な
っていてもよい。
【0116】上述の実施形態においては、サーフェスモ
デラ70が、画像データ分割器60によって生成された
シルエット350−366を用いて入力画像を処理する
ことで、対象物体210の予備的な3Dコンピュータモ
デル390を生成する。しかし、代わりにサーフェスモ
デラ70は、他の処理手法を用いて入力画像から予備的
な3Dコンピュータモデルを生成しても良い。例えば、
EP-A-089245に記載される手法を用いることができる。
【0117】上述の実施形態においては、サーフェスモ
デラ70が、予備的な3Dコンピュータモデル390を
廃棄し、全ての位置合わせされた入力画像を用いて新し
い3Dコンピュータモデルを生成することにより、ステ
ップS6−14で最終的な3Dコンピュータモデルを生
成している。しかし、代わりに、サーフェスモデラ70
は他の方法で最終的な3Dコンピュータモデルを生成し
ても良い。例えば、サーフェスモデラ70は予備的な3
Dコンピュータモデル390を維持し、ステップS6−
6でカメラ計算機50が生成する、入力画像の他の位置
合わせされたセットの各々から追加の3Dコンピュータ
モデルを個別に生成してもよい(追加の3Dコンピュー
タモデルを個別に生成するための処理は、ステップS6
−10で位置合わせされた入力画像の第1のセットから
予備的な3Dコンピュータモデルを生成するための処理
と同一である)。
【0118】入力画像の位置合わせされたセットの相対
的な位置及び向きはステップS6−12で計算される。
このようにして、各3Dコンピュータモデルは本質的に
位置合わせされた入力画像のセットの1つに位置合わせ
されるため、対象物体の全ての3Dコンピュータモデル
の相対的な位置及び向きはステップS6−12での処理
結果として得られる。従って、サーフェスモデラ70は
最終的な3Dコンピュータモデルを、全ての3Dコンピ
ュータモデルの交差体積(volume intersection)を計算
することによって生成することができる。これは、周知
の方法により計算してもよいし、同時係属の日本特許出
願2002-169584号(当該出願の全内容は参照として本明
細書に組み込まれる)の第2の実施形態に記載される方
法を用いて計算してもよい。
【0119】上述の実施形態においては、3Dコンピュ
ータモデルのシルエットを示す画像510、520及び
530(図10)が、直交する視方向から(又は、入力
画像から選択可能な範囲で直交に近い視方向から)生成
される。しかし、シルエットを示す画像510、520
及び530は、直交しない視方向から生成することもで
きる。
【0120】上述の第1の実施形態において、ステップ
S9−8で、ユーザは、入力画像が位置合わせされてい
る座標系に対して相対的に予備的な3Dコンピュータモ
デル390を回転及び変換する。同様に、第2の実施形
態のステップS12−14において、予備的な3Dコン
ピュータモデル390は入力画像の位置合わせされたセ
ットの座標系内部で回転及び変換される。しかし、代わ
りに、入力画像の位置合わせされたセットの座標系を、
予備的な3Dコンピュータモデル390に相対的に変換
及び回転しても同じ効果が得られる。
【0121】上述の実施形態において、処理はプログラ
ム命令によって規定される処理ルーチンを用いるコンピ
ュータによって実行される。しかしながら、処理の一部
又は全部をハードウェアを用いて実行することももちろ
ん可能である。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の構成要素を、処理装
置の構成要素がプログラム命令によってプログラムされ
た際に構成されると考えられる概念的な機能処理ユニッ
トとともに模式的に示す図である。
【図2】3Dコンピュータモデルを生成する対象物体の
画像の第1のセットの記録を説明する図である。
【図3】図1の処理装置に入力される、第1のセット内
の対象物体の画像の例を説明する図である。
【図4】対象物体の画像の第2のセットの記録を説明す
る図である。
【図5】図1の処理装置に入力される、第2のセット内
の対象物体の画像の例を説明する図である。
【図6】図1の処置装置によって入力データを処理する
ために実行される処理動作を示す図である。
【図7】図6のステップS6−6及びS6−8で、入力
画像の第1のセットに対して実行される処理の結果を説
明する図である。
【図8】ステップS6−10の処理の結果として生成さ
れる、対象物体の表面形状を表すポリゴンメッシュから
なる3Dコンピュータモデルの例を示す図である。
【図9】ステップS6−10において生成される3Dコ
ンピュータモデルを、別のセット内の入力画像と位置合
わせするため、第1の実施形態におけるステップS6−
12で実行される処理動作を示す図である。
【図10】第1の実施形態においてステップS9−6及
びS9−10でユーザに表示される画像を説明する図で
ある。
【図11】第2の実施形態における処理装置から位置合
わせコントローラの機能構成要素を示す図である。
【図12a】
【図12b】
【図12c】ステップS6−10で生成された3Dコン
ピュータモデルを、他のセット内の入力画像と位置合わ
せするため、第2の実施形態においてステップS6−1
2で実行される処理動作を示す図である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 アレキサンダー ラルフ リオンズ イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ (キヤノン リサーチ センター ヨーロ ッパ リミテッド 内) (72)発明者 アダム マイケル ボームバーグ イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ (キヤノン リサーチ センター ヨーロ ッパ リミテッド 内) Fターム(参考) 5B046 AA00 EA09 FA18 GA01 5B057 BA02 BA19 CA08 CA12 CA16 CB08 CB13 CB17 CD14 DA11 DB03 DB09 DC16 DC32

Claims (39)

    【特許請求の範囲】
  1. 【請求項1】 対象物体の3次元コンピュータモデルを
    規定するデータを生成するために、前記対象物体の複数
    の画像を規定する画像データを処理する方法であって、 複数の、位置決めされた画像のセットであって、少なく
    とも1つのセットが複数の画像を含み、他の各セットが
    少なくとも1つの画像を含むとともに、2つ以上の画像
    を含む各セット内の画像が、互いに位置合わせされた画
    像取得位置及び向きを有する画像のセットを生成するた
    め、前記複数の画像の少なくとも一部の画像取得位置及
    び向きを計算するステップと、 複数の画像を有する第1の位置合わせされたセットから
    少なくとも一部の画像を用いて、前記対象物体の予備的
    な3次元コンピュータモデルを生成するステップと、 前記予備的な3次元コンピュータモデルを前記第1のセ
    ット以外の位置決めされたセットの各々と位置合わせす
    ることによって、前記複数の位置決めされた画像のセッ
    トの全てを位置合わせするステップであり、前記各セッ
    トとの位置合わせが、前記予備的な3次元コンピュータ
    モデルを前記セット内の少なくとも1つの画像に投影す
    ることによって実行されるステップと、 前記異なるセットの前記計算された位置合わせを用い
    て、前記対象物体の正確な3次元コンピュータモデルを
    生成するステップを有することを特徴とする方法。
  2. 【請求項2】 少なくとも1つのセットにおける前記複
    数の画像の画像取得位置及び向きが、予め定められたキ
    ャリブレーションパターンに関して計算されることを特
    徴とする請求項1記載の方法。
  3. 【請求項3】 少なくとも1つのセットにおける前記複
    数の画像の画像取得位置及び向きが、異なる画像におい
    て合致する特徴の位置に基づいて相互に計算されること
    を特徴とする請求項1又は請求項2記載の方法。
  4. 【請求項4】 少なくとも1つのセットにおける前記複
    数の画像の画像取得位置及び向きが、ユーザに指定され
    た画像中の特徴に基づいて計算されることを特徴とする
    請求項1乃至請求項3のいずれか1項に記載の方法。
  5. 【請求項5】 少なくとも1つのセットにおける前記複
    数の画像の画像取得位置及び向きが、異なる画像におけ
    る特徴を検出するために前記複数の画像を処理し、当該
    検出された特徴に基づいて相対的な画像取得位置及び向
    きを計算することによって計算されることを特徴とする
    請求項1乃至請求項4のいずれか1項に記載の方法。
  6. 【請求項6】 前記予備的な3次元コンピュータモデル
    と、前記位置合わせされた画像のセットの各々との位置
    合わせを行うステップが、 前記予備的な3次元コンピュータモデルを前記セットの
    少なくとも1つの画像へ反復的に投影するステップと、
    前記予備的な3次元コンピュータモデルと前記位置合わ
    せされた画像のセットの相対的な位置及び向きを変更す
    るステップとを有することを特徴とする請求項1乃至請
    求項5のいずれか1項に記載の方法。
  7. 【請求項7】 前記予備的な3次元コンピュータモデル
    と、前記位置合わせされた画像のセットの各々との位置
    合わせを行うステップが、 前記セット内の少なくとも1つの画像に前記予備的な3
    次元コンピュータモデルを投影するステップと、 前記予備的な3次元コンピュータモデルが投影される各
    画像において、前記対象物体の画像と関連して前記予備
    的な3次元コンピュータモデルの投影を示す表示のため
    の画像データを生成するステップと、 前記予備的な3次元コンピュータモデルと前記位置合わ
    せされた画像のセットとの相対的な位置及び向きを、ユ
    ーザによって入力された信号に従って変更するステップ
    と、 前記予備的な3次元コンピュータモデルと前記位置合わ
    せされた画像のセットとの相対的な位置及び向きが変更
    されるに従って、前記画像データを表示用に更新するス
    テップとを有することを特徴とする方法。
  8. 【請求項8】 前記表示のために生成される画像データ
    が、前記予備的な3次元コンピュータモデルが投影され
    た各画像における、撮像された対象物体のシルエットに
    関連して、前記投影された予備的な3次元コンピュータ
    モデルのシルエットを示す画像データを有することを特
    徴とする請求項7記載の方法。
  9. 【請求項9】 前記予備的な3次元コンピュータモデル
    と少なくとも1つの位置合わせされた画像のセットとの
    位置合わせを行うステップが、 前記予備的な3次元コンピュータモデル及び前記位置合
    わせされた画像のセットの少なくとも1つを変換及び回
    転させるステップであって、 異なる変換及び回転について、 −前記予備的な3次元コンピュータモデルを前記セット
    内の少なくとも1つの画像へ投影するステップと、 −前記予備的な3次元コンピュータモデルの前記投影
    と、前記対象物体の画像データとを、前記3次元コンピ
    ュータモデルが投影される画像の各々について比較し、
    それらの位置合わせ誤差を計算するステップとを有する
    ことを特徴とする請求項1乃至請求項8のいずれか1項
    に記載の方法。
  10. 【請求項10】 前記投影された予備的な3次元コンピ
    ュータモデルのシルエットと、前記対象物体のシルエッ
    トとが、前記予備的な3次元コンピュータモデルが投影
    された各画像において比較され、前記位置合わせ誤差が
    前記シルエットの重ならない部分の大きさに基づいて計
    算されることを特徴とする請求項9記載の方法。
  11. 【請求項11】 前記正確な3次元コンピュータモデル
    が、前記対象物体の少なくとも1つの他の3次元コンピ
    ュータモデルを生成し、前記他の3次元コンピュータモ
    デルを前記予備的な3次元コンピュータモデルとを合成
    することによって生成されることを特徴とする請求項1
    乃至請求項10のいずれか1項に記載の方法。
  12. 【請求項12】 対象物体の3次元コンピュータモデル
    を生成する方法であって、 前記対象物体及びキャリブレーションパターンの画像の
    第1セットを、異なる撮像位置及び方向から記録するス
    テップであり、前記第1のセットにおいて前記対象物体
    及びキャリブレーションパターンは第1の相対位置及び
    向きを有し、 前記対象物体及びキャリブレーションパターンの前記相
    対位置及び向きを第2の相対位置及び向きに変更するス
    テップと、 前記対象物体及びキャリブレーションパターンの少なく
    とも1つの別の画像を含む画像の第2のセットを記録す
    るステップであり、前記対象物体及びキャリブレーショ
    ンパターンは前記第2のセット内の各画像に対し、第2
    の相対位置及び向きを有し、 前記画像内の前記キャリブレーションパターンの特徴の
    位置に基づいて前記キャリブレーションパターンに対す
    る前記撮像位置及び方向を計算するため、前記第1のセ
    ット内の画像を規定する画像データを処理するステップ
    と、 前記画像の第2のセットが2つ以上の画像を有する場合
    に、前記画像内の前記キャリブレーションパターンの特
    徴の位置に基づいて前記キャリブレーションパターンに
    対する前記撮像位置及び方向を計算するため、前記第2
    のセット内の画像を規定する画像データを処理するステ
    ップと、 前記第1のセット内の画像に関連した位置及び向きを有
    する前記対象物体の予備的な3次元コンピュータモデル
    を窺知するデータを生成するため、少なくとも一部の画
    像を規定する画像データと、前記計算された撮像位置及
    び方向を処理するステップと、 前記予備的な3次元コンピュータモデルを、前記画像の
    第2のセット内の少なくとも1つの画像内の前記対象物
    体の画像とを実質的に揃える位置及び向きを調べるた
    め、前記予備的な3次元コンピュータモデルと、前記第
    2のセット内の画像の前記相対位置及び向きを変えるこ
    とによって、前記第1のセット内の画像の前記撮像位置
    及び向きと、前記第2のセット内の画像の撮像位置及び
    向きとの関連を計算するステップと、 前記第1及び第2のセットからの画像を規定するデータ
    と、その前記計算された相対位置及び向きを規定するデ
    ータを処理し、前記対象物体の正確な3次元コンピュー
    タモデルを規定するデータを生成するステップとを有す
    ることを特徴とする方法。
  13. 【請求項13】 異なる撮像位置及び方向から記録され
    た、対象物体及びキャリブレーションパターンの画像の
    第1のセットを規定するデータと、前記対象物体及びキ
    ャリブレーションパターンの少なくとも1つの別の画像
    を含む画像の第2のセットを規定するデータであり、前
    記対象物体及びキャリブレーションパターンは、前記第
    1のセット内の各画像について第1の相対位置及び向き
    を、前記第2のセット内の各画像について第2の相対位
    置及び向きをそれぞれ有するデータを処理することによ
    って、前記対象物体の3次元コンピュータモデルを生成
    する方法であって、 前記画像中の前記キャリブレーションパターンの特徴の
    位置に基づいて、前記第1のセット内の画像の、前記キ
    ャリブレーションパターンに関する撮像位置及び方向を
    計算するため、前記第1のセット内の画像を規定する画
    像データを処理するステップと、 前記画像の前記第2のセットが2以上の画像を含む場
    合、その画像中の前記キャリブレーションパターンの特
    徴の位置に基づいて、前記第2のセット内の画像の、前
    記キャリブレーションパターンに関する撮像位置及び方
    向を計算するため、前記第2のセット内の画像を規定す
    る画像データを処理するステップと、 前記第1のセットの画像に関する位置及び向きを有す
    る、前記対象物体の予備的な3次元コンピュータモデル
    を規定するデータを生成するため、前記第1のセットの
    少なくとも一部の画像を規定する画像データとその画像
    の前記計算された撮像位置及び方向とを処理するステッ
    プと、 前記予備的な3次元コンピュータモデルと、前記第2の
    セット内の少なくとも1つの画像との相対位置及び向き
    を、前記予備的な3次元コンピュータモデルが前記第2
    のセット内の少なくとも1つの画像中の前記対象物体の
    画像と実質的に揃う位置及び向き前記へ変更することに
    より、前記第1のセット内の画像の撮像位置及び向き
    と、前記第2のセット内の画像の撮像位置及び向きとの
    間の関係を計算するステップと、 前記第1及び第2のセットからの画像を規定するデータ
    と、計算されたこれら画像の相対的な撮像位置及び向き
    とを処理し、前記対象物体の正確な3次元コンピュータ
    モデルを規定するデータを規定するステップとを有する
    ことを特徴とする方法。
  14. 【請求項14】 前記対象物体の前記正確な3次元コン
    ピュータモデルを搬送する信号を生成するステップを更
    に有することを特徴とする請求項1乃至請求項13のい
    ずれか1項に記載の方法。
  15. 【請求項15】 前記信号を直接又は間接的に記録する
    ことによって、前記対象物体の前記正確な3次元コンピ
    ュータモデルの記録を生成するステップを更に有するこ
    とを特徴とする請求項14記載の方法。
  16. 【請求項16】 対象物体の3次元コンピュータモデル
    を規定するデータを生成するために、前記対象物体の画
    像を規定する画像データを処理する装置であって、 各々のセットが、位置合わせにおいて計算された撮像位
    置及び方向を有する複数の画像もしくは、1つのみの画
    像を含む複数の画像セットを生成するための、少なくと
    も一部の画像の撮像位置及び方向を計算するため、対象
    物体の複数の画像を規定する画像データを処理する画像
    位置合わせ手段と、 第1の前記セット内の画像と位置合わせされた位置及び
    向きを有する予備的な3次元コンピュータモデルを生成
    する手段と、 前記画像の前記第1のセットの撮像位置及び方向を、画
    像の他のセットの前記撮像位置及び方向と位置合わせす
    る画像−モデル位置合わせ手段であって、 前記予備的な3次元コンピュータモデルを他の各セット
    の少なくとも1つの画像に投影する手段と、 前記予備的な3次元コンピュータモデルと画像の個々の
    セットの当大敵名位置及び向きを変更する手段と、 異なる画像セットについて判定された位置合わせに基づ
    いて、前記対象物体の正確な3次元コンピュータモデル
    を生成する手段からなる画像−モデル位置合わせ手段と
    を有することを特徴とする装置。
  17. 【請求項17】 前記画像位置合わせ手段は、所定のキ
    ャリブレーションパターンに関して、各画像の前記撮像
    位置及び向きを計算することによって、画像の位置合わ
    せされたセットを生成するための画像の前記撮像位置及
    び方向可能であることを特徴とする請求項16記載の装
    置。
  18. 【請求項18】 前記画像位置合わせ手段が、前記画像
    中の対応する特徴の位置に基づいて画像の位置合わせさ
    れたセットを生成するため、前記画像の前記相対的な撮
    像位置及び方向を計算可能なことを特徴とする請求項1
    6又は請求項17に記載の装置。
  19. 【請求項19】 前記画像位置合わせ手段が、ユーザが
    指定した、画像中の特徴に基づいて画像の位置合わせさ
    れたセットを生成するため、前記画像の撮像位置及び方
    向を計算可能であることを特徴とする請求項16乃至請
    求項18のいずれか1項に記載の装置。
  20. 【請求項20】 前記画像位置合わせ手段が、前記画像
    中の特徴を検出し、前記検出した特徴に基づいて画像の
    位置合わせされたセットを生成するための前記画像の相
    対的な撮像位置及び方向を計算するために前記画像デー
    タを処理可能であることを特徴とする請求項16乃至請
    求項19のいずれか1項に記載の装置。
  21. 【請求項21】 前記画像−モデル位置合わせ手段が、
    前記予備的な3次元コンピュータモデルを画像の位置合
    わせされたセット内の少なくとも1つへ投影し、前記予
    備的な3次元コンピュータモデルと前記画像の位置合わ
    せされたセットとの前記相対的な位置及び向きを変化さ
    せる処理を反復的に実行可能であることを特徴とする請
    求項16乃至請求項20のいずれか1項に記載の装置。
  22. 【請求項22】 前記画像−モデル位置合わせ手段が、 前記予備的な3次元コンピュータモデルを画像の位置合
    わせされたセット内の少なくとも1つの画像へ投影する
    手段と、 前記予備的な3次元コンピュータモデルの前記投影を、
    前記予備的な3次元コンピュータモデルが投影される各
    画像中に前記対象物体と関連して示すための画像データ
    を生成する画像生成手段と、 ユーザから入力される信号に従って、前記予備的な3次
    元コンピュータモデルと前記画像の位置合わせされたセ
    ットの前記相対的な位置及び向きを変更する手段とを有
    し、 前記画像データ生成手段が、前記3次元コンピュータモ
    デル及び前記画像の位置合わせされたセットの前記相対
    的な位置及び向きの変更に応じて、表示用の更新された
    画像データを生成するように構成されていることを特徴
    とする請求項16乃至請求項21のいずれか1項に記載
    の装置。
  23. 【請求項23】 前記画像データ生成手段が、前記3次
    元コンピュータモデルが投影された各画像内に、前記撮
    像された対象物体のシルエットに関連して前記投影され
    た3次元コンピュータモデルのシルエットを表示するた
    めの画像データを生成するように動作可能であることを
    特徴とする請求項22記載の装置。
  24. 【請求項24】 前記画像−モデル位置合わせ手段が、 前記予備的な3次元コンピュータモデルを前記画像の位
    置合わせされたセット内の少なくとも1つの画像へ投影
    する手段と、 前記3次元コンピュータモデルと前記対象物体の画像と
    の位置ずれを計算するため、前記3次元コンピュータモ
    デルが投影された各画像において、前記予備的な3次元
    コンピュータモデルの前記投影と、前記対象物体の画像
    とを比較する手段と、 前記予備的な3次元コンピュータモデルと前記画像の位
    置合わせされたセットとの前記相対的な位置及び向きを
    変更する手段と、 前記計算された位置ずれに基づいて、前記予備的な3次
    元コンピュータモデルと前記画像の位置合わせされたセ
    ットとの前記位置合わせ位置及び向きを決定する手段と
    を有することを特徴とする請求項16乃至請求項23の
    いずれか1項に記載の装置。
  25. 【請求項25】 前記比較手段が、前記予備的な3次元
    コンピュータモデルが投影された各画像内において、前
    記投影された予備的な3次元コンピュータモデルのシル
    エットと、前記対象物体の画像のシルエットとを比較
    し、前記シルエットの両方ではなく、一方の内部に存在
    する領域に基づいて前記位置ずれを計算するように動作
    可能であることを特徴とする請求項24記載の装置。
  26. 【請求項26】 前記正確な3次元コンピュータモデル
    を生成する手段が、前記対象物体の少なくとも1つの他
    の3次元コンピュータモデルを生成し、前記正確な3次
    元コンピュータモデルを生成するために当該他の3次元
    コンピュータモデルの各々を前記予備的な3次元コンピ
    ュータモデルとを合成するように動作可能であることを
    特徴とする請求項16乃至請求項25のいずれか1項に
    記載の装置。
  27. 【請求項27】 異なる撮像位置及び方向から記録され
    た、対象物体及びキャリブレーションパターンの画像の
    第1のセットを規定するデータであり、前記対象物体及
    び前記キャリブレーションパターンは前記第1のセット
    内の各画像について第1の相対位置及び向きを有するデ
    ータと、前記対象物体及びキャリブレーションパターン
    の少なくとも1つの他の画像を有する画像の第2のセッ
    トを規定するデータであり、前記対象物体及びキャリブ
    レーションパターンが前記第2のセット内の各画像につ
    いて第2の相対的な位置及び向きを有するデータとを処
    理し、前記対象物体の3次元コンピュータモデルを生成
    する装置であって、 画像を規定する画像データを処理し、前記画像中の前記
    キャリブレーションパターンの位置に基づいて、前記キ
    ャリブレーションパターンに関する画像の撮像位置及び
    方向を計算する、撮像位置及び方向計算手段であり、当
    該撮像位置及び方向計算手段が、 −前記第1のセット内の前記画像を規定する画像データ
    を処理し、前記キャリブレーションパターンに関する当
    該画像の撮影位置及び方向を計算し、 −画像の前記第2のセットが2つ以上の画像を有してい
    る際には、前記第2のセット内の前記2つ以上の画像を
    規定する画像データを処理し、当該画像の撮像位置及び
    方向を前記キャリブレーションパターンに関して計算す
    るように動作可能であり、 前記第1のセット内の画像に対して所定の位置及び向き
    を有する前記対象物体の、予備的な3次元コンピュータ
    モデルを規定するデータを生成するため、前記第1のセ
    ット内の少なくとも一部の画像を規定する画像データ
    と、前記計算された撮像位置及び方向を処理する手段
    と、 前記予備的な3次元コンピュータモデル及び前記第2の
    セット内の画像の撮像位置及び方向を、前記予備的な3
    次元コンピュータモデルと前記第2のセット内の少なく
    とも1つの画像内の前記対象物体の前記画像が実質的に
    揃う相対的な位置及び向きに変更することにより、前記
    第1のセット内の前記画像の撮像位置及び向きと、前記
    第2のセット内の前記画像の撮像位置及び方向との間の
    関係を計算する手段と、 前記画像の第1及び第2のセットからの画像を規定する
    データと、当該画像の計算された相対位置及び向きを規
    定するデータを処理することにより、前記対象物体の正
    確な3次元コンピュータモデルを規定するデータを生成
    する手段とを有することを特徴とする装置。
  28. 【請求項28】 対象物体の3次元コンピュータモデル
    を規定するデータを生成するため、画像を規定する画像
    データを処理する方法であって、 異なる撮像位置及び方向から記録された、前記対象物体
    の画像の第1のセットを規定するデータと、相対的な撮
    像位置及び方向を規定するデータを保存するステップ
    と、 少なくとも1つの前記対象物体の他の画像を含む、画像
    の第2のセットを規定するデータを保存するステップ
    と、 前記第1のセットの少なくとも一部を用い、前記対象物
    体の予備的な3次元コンピュータモデルを生成するステ
    ップと、 前記予備的な3次元コンピュータモデルを前記第2のセ
    ットの少なくとも1つの画像へ投影するステップと、 前記第2のセットの少なくとも1つの画像に基づいて前
    記対象物体の正確な3次元コンピュータモデルを生成す
    るために、前記投影の結果を用いるステップとを有する
    ことを特徴とする方法。
  29. 【請求項29】 前記対象物体の正確な3次元コンピュ
    ータモデルを生成するために前記投影の結果を用いるス
    テップが、前記第2のセットの少なくとも1つの画像に
    おける前記3次元コンピュータモデルの投影を変更する
    ため、前記予備的な3次元コンピュータモデル及び前記
    第2のセットの前記少なくとも1つの画像の相対的な位
    置及び向きを調整するステップを含むことを特徴とする
    請求項28記載の方法。
  30. 【請求項30】 前記予備的な3次元コンピュータモデ
    ル及び前記第2のセットの前記少なくとも1つの画像の
    前記相対位置及び向きが、ユーザによって入力される信
    号に従って調整されることを特徴とする請求項29記載
    の方法。
  31. 【請求項31】 前記ユーザが前記相対的な位置及び向
    きを変更するのを補助するため、前記第2のセットの前
    記少なくとも1つの画像において、前記予備的な3次元
    コンピュータモデルの前記投影を前記対象物体の画像に
    関連して示す、ユーザへ表示するための画像データが生
    成されることを特徴とする請求項30記載の方法。
  32. 【請求項32】 対象物体の3次元コンピュータモデル
    を規定するデータを生成するため、画像を規定する画像
    データを処理する装置であって、 異なる撮像位置及び方向から記録された、前記対象物体
    の画像の第1のセットを規定するデータと、相対的な撮
    像位置及び方向を規定するデータを受信する手段と、 少なくとも1つの前記対象物体の他の画像を含む、画像
    の第2のセットを規定するデータを受信する手段と、 前記第1のセットの少なくとも一部を用い、前記対象物
    体の予備的な3次元コンピュータモデルを生成する手段
    と、 前記予備的な3次元コンピュータモデルを前記第2のセ
    ットの少なくとも1つの画像へ投影する手段と、 前記第2のセットの少なくとも1つの画像に基づいて前
    記対象物体の正確な3次元コンピュータモデルを生成す
    るために、前記投影の結果を用いる手段とを有すること
    を特徴とする装置。
  33. 【請求項33】 前記対象物体の正確な3次元コンピュ
    ータモデルを生成するために前記投影の結果を用いる手
    段が、前記第2のセットの少なくとも1つの画像におけ
    る前記3次元コンピュータモデルの投影を変更するた
    め、前記予備的な3次元コンピュータモデル及び前記第
    2のセットの前記少なくとも1つの画像の相対的な位置
    及び向きを調整するように動作可能であることを特徴と
    する請求項32記載の装置。
  34. 【請求項34】 前記対象物体の正確な3次元コンピュ
    ータモデルを生成するために、前記投影の結果を用いる
    手段が、前記予備的な3次元コンピュータモデル及び前
    記第2のセットの前記少なくとも1つの画像の前記相対
    位置及び向きを、ユーザによって入力される信号に従っ
    て調整するように動作可能であることを特徴とする請求
    項33記載の装置。
  35. 【請求項35】 前記ユーザが前記相対的な位置及び向
    きを変更するのを補助するため、前記第2のセットの前
    記少なくとも1つの画像において、前記予備的な3次元
    コンピュータモデルの前記投影を前記対象物体の画像に
    関連して示す、ユーザへ表示するための画像データを生
    成する手段を更に有することを特徴とする請求項30記
    載の方法。
  36. 【請求項36】 プログラム可能な処理装置を、請求項
    1乃至請求項11、請求項13及び請求項28乃至請求
    項31の少なくとも1つに規定される方法の実行を可能
    たらしめるための命令を格納する記憶媒体。
  37. 【請求項37】 プログラム可能な処理装置を、請求項
    1乃至請求項11、請求項13及び請求項28乃至請求
    項31の少なくとも1つに規定される方法の実行を可能
    たらしめるための命令を搬送する信号。
  38. 【請求項38】 プログラム可能な処理装置が、請求項
    16乃至請求項27及び請求項32乃至請求項35の少
    なくとも1つに規定される装置として構成されるように
    するための命令を格納する記憶媒体。
  39. 【請求項39】 プログラム可能な処理装置が、請求項
    16乃至請求項27及び請求項32乃至請求項35の少
    なくとも1つに規定される装置として構成されるように
    するための命令を搬送する信号。
JP2002321777A 2001-11-05 2002-11-05 3次元コンピュータモデリング Withdrawn JP2003196327A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0126526.3A GB0126526D0 (en) 2001-11-05 2001-11-05 Three-dimensional computer modelling
GB0126526.3 2001-11-05

Publications (1)

Publication Number Publication Date
JP2003196327A true JP2003196327A (ja) 2003-07-11

Family

ID=9925166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002321777A Withdrawn JP2003196327A (ja) 2001-11-05 2002-11-05 3次元コンピュータモデリング

Country Status (4)

Country Link
US (1) US6954212B2 (ja)
EP (1) EP1308902A3 (ja)
JP (1) JP2003196327A (ja)
GB (1) GB0126526D0 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022550639A (ja) * 2019-12-20 2022-12-02 馭勢科技(浙江)有限公司 3次元再構成方法、装置、システム及び記憶媒体

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2381429B (en) * 2001-09-28 2005-07-27 Canon Europa Nv 3D computer model processing apparatus
EP1347418A3 (en) 2002-02-28 2005-11-23 Canon Europa N.V. Texture map editing
GB0224449D0 (en) * 2002-10-21 2002-11-27 Canon Europa Nv Apparatus and method for generating texture maps for use in 3D computer graphics
EP1588327B1 (en) * 2003-01-17 2018-09-26 Koninklijke Philips N.V. Full depth map acquisition
GB2398469B (en) * 2003-02-12 2005-10-26 Canon Europa Nv Image processing apparatus
SE524818C2 (sv) * 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
GB2400288B (en) * 2003-04-02 2005-12-28 Canon Europa Nv Generating texture maps for use in 3D computer graphics
GB0310504D0 (en) 2003-05-07 2003-06-11 Canon Europa Nv Photographing apparatus,device and method for obtaining images to be used for creating three-dimensional model
GB0312516D0 (en) * 2003-05-31 2003-07-09 Koninkl Philips Electronics Nv Object shape determination method and system therefor
GB2405776B (en) * 2003-09-05 2008-04-02 Canon Europa Nv 3d computer surface model generation
GB2406252B (en) 2003-09-18 2008-04-02 Canon Europa Nv Generation of texture maps for use in 3d computer graphics
US20050157931A1 (en) * 2004-01-15 2005-07-21 Delashmit Walter H.Jr. Method and apparatus for developing synthetic three-dimensional models from imagery
WO2005101321A2 (en) * 2004-04-05 2005-10-27 Actuality Systems, Inc. Processing three dimensional data for spatial three dimensional displays
GB2415344B (en) * 2004-06-14 2010-10-06 Canon Europa Nv Texture data compression and rendering in 3D computer graphics
DE102004037464A1 (de) * 2004-07-30 2006-03-23 Heraeus Kulzer Gmbh Anordnung zur Abbildung von Oberflächenstrukturen dreidimensionaler Objekte
US7657081B2 (en) 2004-09-03 2010-02-02 National Research Council Of Canada Recursive 3D model optimization
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
JP2009129337A (ja) * 2007-11-27 2009-06-11 Hitachi Ltd 三次元類似形状検索装置
US8401276B1 (en) * 2008-05-20 2013-03-19 University Of Southern California 3-D reconstruction and registration
US8326088B1 (en) * 2009-05-26 2012-12-04 The United States Of America As Represented By The Secretary Of The Air Force Dynamic image registration
US9595108B2 (en) * 2009-08-04 2017-03-14 Eyecue Vision Technologies Ltd. System and method for object extraction
KR20120089452A (ko) 2009-08-04 2012-08-10 아이큐 비젼 테크놀로지즈 리미티드 물체 추출 시스템 및 방법
US9160898B2 (en) 2011-01-25 2015-10-13 Autofuss System and method for improved video motion control
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US8749580B1 (en) * 2011-08-12 2014-06-10 Google Inc. System and method of texturing a 3D model from video
CN104054023B (zh) * 2011-11-16 2017-11-17 欧特法斯公司 用于与机器人控制的物体映射的3d投影的系统和方法
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
US9019268B1 (en) * 2012-10-19 2015-04-28 Google Inc. Modification of a three-dimensional (3D) object data model based on a comparison of images and statistical information
US9269022B2 (en) 2013-04-11 2016-02-23 Digimarc Corporation Methods for object recognition and related arrangements
US9489765B2 (en) 2013-11-18 2016-11-08 Nant Holdings Ip, Llc Silhouette-based object and texture alignment, systems and methods
US9460366B2 (en) 2014-02-19 2016-10-04 Nant Holdings Ip, Llc Invariant-based dimensional reduction of object recognition features, systems and methods
WO2016040473A1 (en) * 2014-09-10 2016-03-17 Vangogh Imaging, Inc. Real-time dynamic three-dimensional adaptive object recognition and model reconstruction
BR112017004783A2 (pt) 2014-09-10 2017-12-12 Hasbro Inc sistema de brinquedo com digitalizador operado manualmente
US9665989B1 (en) * 2015-02-17 2017-05-30 Google Inc. Feature agnostic geometric alignment
US10169665B1 (en) * 2016-02-28 2019-01-01 Alarm.Com Incorporated Virtual inductance loop
US10380762B2 (en) 2016-10-07 2019-08-13 Vangogh Imaging, Inc. Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data
US10839585B2 (en) 2018-01-05 2020-11-17 Vangogh Imaging, Inc. 4D hologram: real-time remote avatar creation and animation control
US11080540B2 (en) 2018-03-20 2021-08-03 Vangogh Imaging, Inc. 3D vision processing using an IP block
US10810783B2 (en) 2018-04-03 2020-10-20 Vangogh Imaging, Inc. Dynamic real-time texture alignment for 3D models
US11170224B2 (en) 2018-05-25 2021-11-09 Vangogh Imaging, Inc. Keyframe-based object scanning and tracking
US11170552B2 (en) 2019-05-06 2021-11-09 Vangogh Imaging, Inc. Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time
US11232633B2 (en) 2019-05-06 2022-01-25 Vangogh Imaging, Inc. 3D object capture and object reconstruction using edge cloud computing resources
DE102019209062A1 (de) * 2019-06-24 2020-12-24 BSH Hausgeräte GmbH Trainieren eines Intelligenten Hausgeräts
WO2021120052A1 (en) * 2019-12-18 2021-06-24 Huawei Technologies Co., Ltd. 3d reconstruction from an insufficient number of images
US11335063B2 (en) 2020-01-03 2022-05-17 Vangogh Imaging, Inc. Multiple maps for 3D object scanning and reconstruction
DE102021133709A1 (de) * 2021-12-17 2023-06-22 Rooom Ag Matte zur Durchführung eines Photogrammetrieverfahrens, Verwendung der Matte und zugehöriges Verfahren

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347508B2 (ja) * 1995-02-24 2002-11-20 キヤノン株式会社 撮像画像処理装置および撮像画像処理方法
US6640004B2 (en) * 1995-07-28 2003-10-28 Canon Kabushiki Kaisha Image sensing and image processing apparatuses
JP3869876B2 (ja) * 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
US6081273A (en) 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
CN1480903A (zh) * 1996-08-29 2004-03-10 ������������ʽ���� 特征信息赋予、物体抽取和立体模型生成方法及其装置
EP0898245B1 (en) 1997-08-05 2004-04-14 Canon Kabushiki Kaisha Image processing method and apparatus
US6281904B1 (en) * 1998-06-09 2001-08-28 Adobe Systems Incorporated Multi-source texture reconstruction and fusion
JP4025442B2 (ja) 1998-12-01 2007-12-19 富士通株式会社 三次元モデル変換装置及び方法
JP2000339499A (ja) 1999-05-27 2000-12-08 Mitsubishi Electric Corp テクスチャマッピング・テクスチャモザイク処理装置
CN1421020B (zh) 1999-11-23 2010-04-28 佳能株式会社 图像处理设备
GB2358307B (en) 1999-11-25 2004-03-24 Canon Kk Image processing apparatus
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US7728848B2 (en) * 2000-03-28 2010-06-01 DG FastChannel, Inc. Tools for 3D mesh and texture manipulation
EP1204073B1 (en) * 2000-10-27 2007-01-31 Canon Kabushiki Kaisha Image generation method and apparatus
GB2369541B (en) 2000-10-27 2004-02-11 Canon Kk Method and aparatus for generating visibility data
GB2369260B (en) 2000-10-27 2005-01-19 Canon Kk Method and apparatus for the generation of composite images
GB2378337B (en) * 2001-06-11 2005-04-13 Canon Kk 3D Computer modelling apparatus
GB0114157D0 (en) * 2001-06-11 2001-08-01 Canon Kk 3D Computer modelling apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022550639A (ja) * 2019-12-20 2022-12-02 馭勢科技(浙江)有限公司 3次元再構成方法、装置、システム及び記憶媒体
JP7245574B2 (ja) 2019-12-20 2023-03-24 馭勢科技(浙江)有限公司 3次元再構成方法、装置、システム及び記憶媒体
US12026827B2 (en) 2019-12-20 2024-07-02 Uisee Technologies (Zhejiang) Ltd. Method, apparatus, system, and storage medium for 3D reconstruction

Also Published As

Publication number Publication date
EP1308902A3 (en) 2004-01-14
US6954212B2 (en) 2005-10-11
EP1308902A2 (en) 2003-05-07
US20030085891A1 (en) 2003-05-08
GB0126526D0 (en) 2002-01-02

Similar Documents

Publication Publication Date Title
JP2003196327A (ja) 3次元コンピュータモデリング
JP2003187265A (ja) 画像処理装置
EP1355277B1 (en) Three-dimensional computer modelling
CN106780619B (zh) 一种基于Kinect深度相机的人体尺寸测量方法
US10489956B2 (en) Robust attribute transfer for character animation
KR20180069786A (ko) 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템
JP2000516360A (ja) 三次元物体モデル化装置及び方法
JP2009093611A (ja) 三次元オブジェクト認識のためのシステムおよび方法
JP2002222412A (ja) 画像処理装置
JP2002520749A (ja) 完全にテクスチャリングされた3次元モデルを発生する方法及びシステム
JP4395689B2 (ja) 画像データ処理方法およびモデリング装置
US10169891B2 (en) Producing three-dimensional representation based on images of a person
KR102655987B1 (ko) 3차원 아바타 생성 장치 및 방법
JP2001274973A (ja) 顕微鏡画像合成装置、顕微鏡画像合成方法、顕微鏡画像合成処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US11645800B2 (en) Advanced systems and methods for automatically generating an animatable object from various types of user input
CN118247429A (zh) 一种空地协同快速三维建模方法及系统
CN112365589B (zh) 一种虚拟三维场景展示方法、装置及系统
JP2002520969A (ja) 動き画像からの自動化された3次元シーン走査方法
JP2003070021A (ja) ポータブル三次元データ入力装置及び立体モデル生成装置
Kurniawan et al. Development of Photogrammetry Application for 3D Surface Reconstruction
JP2003123057A (ja) 3次元形状モデルの生成方法および装置
Christensen et al. Hybrid approach to the construction of triangulated 3D models of building interiors
GB2564715A (en) Systems and methods of forming virtual models
JP3540157B2 (ja) 画像を利用した形状モデリング方法及び形状モデリングプログラムを記録した記録媒体
JP2990256B2 (ja) 物体の姿勢変化量検出方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110