JP2003187265A - 画像処理装置 - Google Patents

画像処理装置

Info

Publication number
JP2003187265A
JP2003187265A JP2002321742A JP2002321742A JP2003187265A JP 2003187265 A JP2003187265 A JP 2003187265A JP 2002321742 A JP2002321742 A JP 2002321742A JP 2002321742 A JP2002321742 A JP 2002321742A JP 2003187265 A JP2003187265 A JP 2003187265A
Authority
JP
Japan
Prior art keywords
computer model
images
dimensional computer
image
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002321742A
Other languages
English (en)
Inventor
Adam M Baumberg
マイケル ボームバーグ アダム
Alexander R Lyons
ラルフ リオンズ アレキサンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Europa NV
Original Assignee
Canon Europa NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Europa NV filed Critical Canon Europa NV
Publication of JP2003187265A publication Critical patent/JP2003187265A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Abstract

(57)【要約】 (修正有) 【課題】 3Dコンピュータモデルを生成するための処
理とは無関係に画像の記録並びに処理を行うことができ
ると共に、各画像を個別に3Dコンピュータモデルと位
置合わせする必要がない画像処理装置の提供。 【解決手段】 現実物体の3Dコンピュータモデルに対
するテクスチャデータを生成するため、対象物体の画像
が異なる視点位置及び方向から記録される。画像データ
は画像の視点位置及び方向を画像内の特徴の位置に基づ
き位置合わせするため、画像処理装置2によって処理さ
れる。

Description

【発明の詳細な説明】
【0001】本発明は現実物体(real-life objects)の
3次元(3D)コンピュータモデリングに関し、特にそ
のような3Dコンピュータモデル用のテクスチャデータ
の生成に関する。
【0002】現実物体の正確な3Dコンピュータモデル
を生成するための方法は多く知られている。これら方法
には、物体のレーザスキャンや、物体の表面上の点の3
次元位置を判定するために3D接触センシングプローブ
を用いること及び、正確な測定の詳細に基づいて物体を
モデリングするためにCAD(Computer-aided design)
システムを用いる(あるいは、物体自体をCADモデル
から生成する)ことが含まれる。
【0003】これらの方法は対象となる物体の表面形状
(surface geometry)を正確にモデリングする3Dコンピ
ュータモデルを生成するけれども、コンピュータモデル
のためのテクスチャデータは生成せず、対象現実物体の
画像から生成せねばならなかった。
【0004】テクスチャデータを生成するため、画像の
位置及び向きを3Dコンピュータモデルに関して正確に
規定しなければならないので、さらなる問題が生じる。
すなわち、各画像が3Dコンピュータモデルによって規
定される表面形状と正確に位置合わせ(registered)され
ねばならないからである。
【0005】この問題を解決するため、レーザスキャナ
とともに移動するよう、カメラをレーザスキャナと同一
の筐体に設置されたカメラを設けることが知られてい
る。表面形状データはレーザスキャナによって収集さ
れ、スキャナが対象物体をスキャンするために移動させ
られるのに伴って、画像データがカメラによって取得さ
れる。スキャン処理中、カメラはスキャナに対して移動
しないので、画像データと収集された表面形状データと
の位置合わせは計算することが可能である。
【0006】しかしながら、この方法はレーザスキャナ
システム内部に専用のカメラを必要とするため効果であ
る。さらに、この方法はレーザスキャン以外の方法で生
成された3Dコンピュータモデルについてのテクスチャ
データをどのように生成するかという問題を解決しな
い。
【0007】本発明は上述の問題の1つ以上を解決する
ことを目的とする。
【0008】本発明によれば、対象物体の画像を異なる
位置及び方向から記録し、画像データを画像の視点位置
及び方向を画像の特徴部分の位置に基づいて位置決めす
るために処理し、3Dコンピュータモデルによって表さ
れるものと同じ対象物体を示す画像に基づいて、対象物
体の3Dコンピュータモデルを位置決めされた画像と位
置合わせし、位置決めされた画像からテクスチャデータ
を生成することによって、現実物体の3Dコンピュータ
モデルのためのテクスチャデータが生成される。
【0009】画像処理技術を用いて画像の視点位置及び
方向を計算することで、3Dコンピュータモデルを生成
するための処理とは無関係に画像の記録並びに処理を行
うことができる。
【0010】画像を位置決めし、その後3Dコンピュー
タモデルを位置決めされた画像と位置合わせすることに
より、各画像を個別に3Dコンピュータモデルと位置合
わせする必要がない。
【0011】対象物体はキャリブレーションパターンと
ともに画像化されても良く、その画像は画像中のキャリ
ブレーションパターンの特徴部分の位置に基づいて位置
合わせされる。
【0012】さらに、又は代わりに、画像は、画像間で
一致する、対象物体そのものの上にある特徴の、画像中
の位置に基づいて位置合わせされても良い。
【0013】3Dコンピュータモデルの、位置合わせさ
れた画像との位置合わせは、3Dコンピュータモデルと
画像の配置を、3Dコンピュータモデルのシルエット(s
ilhouette)が対象物体のシルエットと少なくとも一部の
画像中において合致するまで変更することによって実行
することができる。
【0014】3Dコンピュータモデルの、位置合わせさ
れた画像との位置合わせは、画像と位置合わせされた対
象物体の第2の3Dコンピュータモデルを生成し、2つ
のコンピュータモデルを位置合わせすることで実行する
ことができる。
【0015】3Dコンピュータモデルの、位置合わせさ
れた画像との位置合わせは、ユーザ入力信号に従って、
あるいは自動的に実行することができる。
【0016】本発明はまた、上述したようなテクスチャ
データの生成に用いるための処理装置及び方法であっ
て、対象物体の画像が画像処理技術を用いて位置合わせ
され、位置合わせされた画像が対象物体の3Dコンピュ
ータモデルと位置合わせされ、そして3Dコンピュータ
モデル用のテクスチャデータが画像から生成される処理
装置及び方法を提供する。
【0017】本発明はまた、例えば記憶装置又は信号伝
達命令(signal carrying instructions)として実現され
る、プログラム可能な処理装置を上述の方法を実行可能
となるように設定するコンピュータプログラム製品を提
供する。
【0018】本発明の実施形態を、ほんの一例として、
添付図面を参照して以下に説明する。図面において、同
様の部分には同様の参照数字が用いられている。
【0019】(第1の実施形態)図1を参照して、本発
明の実施形態は、従来通り、1つ又は2つ以上のプロセ
ッサと、メモリと、従来のパーソナルコンピュータモニ
タ等の表示装置4と接続されたグラフィックカード等を
含んだパーソナルコンピュータ等の処理装置2と、キー
ボード、マウス等のユーザ入力装置6と、プリンタ8
と、WACOM社の製品PL400のような、制御可能
なピクセルを有するフラットパネルから構成される表示
パネル10とを有している。
【0020】処理装置2は例えば、ディスク12のよう
なデータ記録媒体上に格納されたデータとして、及び/
又は、例えばリモートデータベースからインターネット
等の通信網(図示せず)又は大気を通じて伝送されて処
理装置2へ入力される信号14として入力されるプログ
ラム命令、及び/又はキーボード6等のユーザ入力装置
を介してユーザによって入力されるプログラム命令に従
って動作するようにプログラムされている。
【0021】以下により詳細に説明するように、プログ
ラム命令は、処理装置2を、対象物体の3Dコンピュー
タモデルを定義する入力データ及び異なる位置及び方向
で記録された同じ対象物体の複数の画像を規定する入力
データを処理し、各画像が画像中に存在する3Dコンピ
ュータモデルの所定の眺望(view)の3Dコンピュータモ
デルに関して正しく位置及び方向するように位置合わせ
し、位置合わせされた画像から3Dコンピュータモデル
用のテクスチャデータを抽出するように構成する命令を
有する。3Dコンピュータモデルと入力画像との位置合
わせは、入力画像が互いに相手に対して記録された位置
及び方向を計算することによって位置合わせされた入力
画像セットを形成し、次いで3Dコンピュータモデルを
位置合わせされた入力画像のセットと位置合わせするこ
とによって実行される。このように、入力3Dコンピュ
ータモデルを各入力画像と個別に位置合わせする必要が
ない。
【0022】プログラム命令によってプログラムされる
際、処理装置2は処理動作を実行する多数の機能ユニッ
トとして構成されるものと考えることができる。そのよ
うな機能ユニット及びその相互接続の例を図1に示す。
しかし、図1に示す、ユニット及び相互接続は概念的な
ものであり、理解を助けるための例示目的としてのみ示
されるものである。これらは必ずしも、処理装置2のプ
ロセッサ、メモリ等が実際に構成するユニットや接続を
表しているわけではない。
【0023】図1に示す機能ユニットを参照すると、ユ
ーザ入力装置6からの入力を処理し、また他の機能ユニ
ットの制御及び処理を提供する中央制御装置20が設け
られている。中央制御装置20及び他の機能ユニットが
用いるため、メモリ24が設けられている。
【0024】マット生成器30は、印刷された”写真マ
ット(photographic mat)”34を形成するため、記録紙
等の記録媒体上にキャリブレーションパターンを印刷す
るか、写真マットを表示するため、表示パネル10上に
キャリブレーションパターンを表示するようにプリンタ
8又は表示パネル10を制御する制御信号を生成するよ
うに設けられている。以下更に詳細に説明するように、
写真マットは特徴(features)の所定のキャリブレーショ
ンパターンを含み、テクスチャデータが生成される対象
物体は印刷された写真マット上か、キャリブレーション
パターンが表示された表示パネル10上に置かれる。そ
して、対象物体及びキャリブレーションパターンの画像
が記録され、処理装置2へ入力される。マット生成器3
0は、入力画像が記録された位置及び方向を計算する際
に処理装置2が使用するための写真マット上に印刷もし
くは表示された特徴のキャリブレーションパターンを定
義するデータを格納するように構成される。より具体的
には、本実施形態において、マット生成器30は特徴パ
ターンを定義するデータとともに、特徴パターンに関連
する座標系(要するに、キャリブレーションパターンの
基準位置及び方向を定義する)を格納するように構成さ
れ、処理装置2はこの規定された座標系において(従っ
て、基準位置及び方向に相対的に)、入力画像が記録さ
れた位置及び方向を計算するように構成される。このよ
うに、入力画像の記録位置及び方向は相互に関して計算
され、従って位置決めされた入力画像のセットが生成さ
れる。
【0025】本実施形態において、写真マット上のキャ
リブレーションパターンは、例えば、その全内容が本明
細書に相互参照として組み入れられるPCT出願GB00/0
4469(WO-A-01/39124)に記載されるような、特徴の空間
的な一群(spatial clusters of features)、あるいは、
(JP-A-9-170914に記載されるような)各点が異なる色
相/輝度の組み合わせを有するように色づけされた点の
パターン、(例えば、Niem の、”移動カメラを用いる
3次元物体の自動再構成(Automatic Reconstruction of
3D Objects Using a Mobile Camera)”(Image and Vis
ion Computing 17,1999, 125-134ページ)に記載される
ような)各象限が既知の大きさ及び位置マーカを有す
る、放射状の線分によって接続される同心円のパター
ン、又は(例えばComputer Graphics Proceedings, Ann
ual Conference Series, 1996 ACM-0-89791-764-4/96/0
08における、Gortler他による「ルミグラフ(The Lumigr
aph)」に記載されるような)異なる直径を有する同心環
を有するパターン等の、既知の任意の特徴パターンを有
する。
【0026】本実施形態においては、以下、キャリブレ
ーションパターンが、印刷された写真マット34を生成
するためプリンタ8によって記録媒体(本実施形態では
単票紙)上に印刷されるものと仮定するが、代わりに、
上述のようにキャリブレーションパターンは表示パネル
10に表示されても良い。
【0027】入力データ格納部40は、処理装置2への
データ入力を、例えば、ディスク42等の記憶装置上に
記憶されたデータとして、又は処理装置へ送信された信
号44として、又はユーザ入力装置6を用いて入力され
たものとして格納するように構成される。入力データは
対象物体の3Dコンピュータモデルを定義し、さらに本
実施形態においては、3Dコンピュータモデルは例えば
図2に示すように、対象物体の表面を表すポリゴンメッ
シュ150からなる。入力データはさらに、異なる位置
及び向きで記録された、写真マット34上の対象物体の
複数の画像を規定する。加えて、本実施形態において、
入力データは入力3Dコンピュータモデル150のスケ
ールを規定するデータ、入力画像を記録したカメラの固
有パラメータ、即ちアスペクト比、焦点距離、主点(pr
incipal point:光軸が結像面(imaging plane)と交わる
点)、1次放射方向歪曲収差係数(first order radial
distortion coefficient)及びスキュー角(skew angl
e:ピクセルグリッドの軸間角度。軸は正確に直交して
いないかもしれないため)を規定するデータをも含む。
【0028】入力データは、例えばレーザスキャナ、3
D接触センシングプローブ、CADシステム等によって
生成されるかもしれない、対象物体の3Dコンピュータ
モデルを規定する。
【0029】入力データは、例えば、画像を記録したデ
ィジタルカメラから画素データをダウンロードすること
によって、あるいはスキャナ(図示せず)を用いて写真
をスキャンすることによって生成されるかもしれない画
像を規定する。
【0030】入力データは入力3Dコンピュータモデル
150のスケールを規定し、また入力データはユーザ入
力装置6を用いてユーザが入力するかもしれない、カメ
ラの固有パラメータを規定する。
【0031】カメラ計算機50は、写真マット34のキ
ャリブレーションパターン中の特徴の画像位置を検出す
るため各入力画像を処理し、画像が記録された際の、写
真マット34に対するカメラの位置及び方向を計算する
ように構成される。このように、各入力画像の位置及び
方向が同一のキャリブレーションパターンについて計算
されるので、入力画像の位置及び方向は共通座標系で規
定され、その結果位置合わせされた入力画像のセットが
生成される。
【0032】画像データ分割器60は各入力画像を、画
像中の他の画像データと、対象物体に対応する画像デー
タとを分離するように構成されている。
【0033】位置合わせコントローラ70は、対象物体
の入力3Dコンピュータモデル150をカメラ計算機5
0が生成した入力画像の位置合わせされたセットと位置
合わせするように構成されている。
【0034】本実施形態において、位置合わせコントロ
ーラ70はサーフェスモデラ72、3Dモデルスケーラ
及びポジショナ73、3Dモデルプロジェクタ74、ロ
ーテータ76及びトランスレータ78を有する。
【0035】サーフェスモデラ72は画像データ分割器
60によって生成された分割画像データ及びカメラ計算
機50が計算したカメラ位置及び方向を処理し、対象物
体の表面を表すポリゴンメッシュからなる第2の3Dコ
ンピュータモデルを生成するように構成されている。
【0036】3Dモデルスケーラ及びポジショナ73
は、入力3Dコンピュータモデル150がサーフェスモ
デラ72の生成した第2の3Dコンピュータモデルと同
じスケールになるよう、入力スケールデータに基づい
て、入力3Dコンピュータモデル150を縮尺するよう
に構成されている。3Dモデルスケーラ及びポジショナ
73はまた、縮尺された入力3Dコンピュータモデル1
50及びサーフェスモデラ72が生成した第2の3Dコ
ンピュータモデルを、同一座標系において位置決めする
ように構成されている。
【0037】3Dモデルプロジェクタ74は縮尺された
入力3Dコンピュータモデル150及びサーフェスモデ
ラ72が生成した第2の3Dコンピュータモデルを、そ
れぞれ直交する視界方向を有する3つの画像に投影する
ように構成される。3Dモデルプロジェクタ74は更
に、2つの投影されたコンピュータモデルの各画像中で
のシルエットを表す、ユーザに表示するための画像を生
成するように構成される。
【0038】ローテータ76及びトランスレータ78
は、ユーザ入力命令に応答して、縮尺された入力3Dコ
ンピュータモデル150及びサーフェスモデラ72が生
成した第2の3Dコンピュータモデルの少なくとも1つ
を回転及び変換するように構成される。
【0039】以下詳細に説明するように、ユーザによる
1つ又は複数の3Dコンピュータモデルの回転及び変換
と、3Dモデルプロジェクタ74によるコンピュータモ
デル投影及び画像データ表示は、インタラクティブに反
復して実行される。このようにして、ユーザによる回転
及び変換の結果はリアルタイムで表示され、入力3Dコ
ンピュータモデル150とサーフェスモデラ72が生成
した第2の3Dコンピュータモデルとを正確に位置合わ
せするためにユーザが更に回転及び変換を行うことを可
能にする。
【0040】サーフェステクスチャラ100は、位置合
わせされた入力3Dコンピュータモデル150上にレン
ダリングするためのテクスチャデータを入力画像から生
成するように構成される。
【0041】表示プロセッサ110は、中央制御装置2
0の制御下で、処理装置2の処理中、表示装置4を介し
てユーザに画像及び命令を表示するように構成される。
加えて、中央制御装置20の制御下で、表示プロセッサ
110は、入力サーフェスモデルデータを処理し、サー
フェステクスチャラ100が生成したテクスチャデータ
をサーフェスモデル上にレンダリングすることにより、
ユーザが選択した視点からの、テクスチャリングされた
入力3Dコンピュータモデル150の画像を表示するよ
うに構成される。
【0042】出力データ格納部120は入力3Dコンピ
ュータモデル150及びサーフェステクスチャラ100
が生成したテクスチャデータを規定するデータを格納す
るように構成される。中央制御装置20は出力データ格
納部120からのデータ出力を、ディスク122等の記
憶装置上のデータ及び/又は信号124として制御する
ように構成される。出力データの記録は記憶装置(図示
せず)を直接的又は間接的に用いて出力信号124を記
録することで行うことができる。
【0043】図3を参照して、処理装置2へ入力するた
めの入力画像の記録について説明する。印刷された写真
マット34は面200上に置かれ、入力3Dコンピュー
タモデル150で表され、これからテクスチャデータを
生成する対象物体210は、マット上のキャリブレーシ
ョンパターンを構成する特徴によって取り囲まれるよう
に実質的に写真マット34の中央に置かれる。
【0044】対象物体210及び写真マット34の画像
は、対象物体210の異なる部分を示すよう、ディジタ
ルカメラ230を用いて異なる位置及び方向において記
録される。本実施形態において、カメラ230によって
記録された画像を規定するデータは信号44として線2
32に沿って処理装置2へ入力される。
【0045】特に、本実施形態において、カメラ230
は固定位置にとどまり、写真マット34とその上の対象
物体210が面200上を移動(変換)並びに回転(例
えば矢印240の方向へ)させられ、カメラ230に対
して相対的に異なる位置及び方向における物体210の
写真が記録される。面200上の写真マット34の回転
及び変換の間、対象物体210はマット34に対して相
対的に移動しない。
【0046】対象物体210の頂上の画像は、カメラ2
30を三脚から外し、真上から対象物体を撮影すること
で記録される。
【0047】図4は、処理装置2へ入力されるデータに
規定される一連の画像からのサンプル画像300、30
4、308及び312であり、カメラ230に対して異
なる位置及び方向における対象物体210及び写真マッ
ト34を示している。
【0048】図5は、本実施形態において、処理装置2
が実行する入力データ処理動作を示している。図5を参
照して、ステップS5−2では、中央制御装置20に従
い、表示プロセッサ110が、処理するデータを入力す
るようユーザに要求するメッセージを表示装置4上に表
示させる。
【0049】ステップS5−4では、ステップS5−2
での要求に応答してユーザが入力したデータが入力デー
タ格納部40に格納される。より具体的には、上述した
ように、本実施形態では、入力データが対象物体210
の入力3Dコンピュータモデル150を規定するデー
タ、異なる位置及び方向において記録された対象物体2
10の画像を規定するデータ、入力3Dコンピュータモ
デル150のスケールを規定するデータ及び入力画像を
記録したカメラ230の固有パラメータを規定するデー
タを有している。
【0050】ステップS5−6では、カメラ計算機50
がステップS5−4において格納された画像データ及び
固有カメラパラメータデータを処理し、各画像につい
て、写真マット34上のキャリブレーションパターンに
対する(従って、対象物体210に対する)カメラ23
0の位置及び向きを求める。この処理は、各入力画像に
対する以下の処理を有する。写真マット34上でキャリ
ブレーションパターンを形成する画像の特徴の検出、画
像中の特徴の位置と写真マット用に格納されたパターン
中の特徴の位置との比較、及びそれらに基づく、画像が
記録された際のカメラ230のマット34に対する相対
位置及び方向計算の各処理を有する。
【0051】ステップS5−6においてカメラ計算機5
0が実施する処理は写真マット34に用いられる特徴の
キャリブレーションパターンに依存する。適切な処理は
例えば、PCT出願GB00/04469(WO-A-01/39124)、特開
平9-170914号公報(JP-A-9-170914)、Niemによる、”移
動カメラを用いた3D物体の自動再構成(Automatic Rec
onstruction of 3D Object Using a Mobile Camera)”
(Image and Vision Computing 17, 1999, 125-134ペー
ジ)及び、Gortlerらによる”The Lumigraph” (Compute
r Graphics Proceedings, Annual Conference Series,
1996 ACM-0-89791-764-4/96/008)に記述されている。こ
こで、各入力画像中のキャリブレーションパターンの特
徴の位置は、これら列挙した参考文献に記載された画像
処理技術を用い、カメラ計算機50が単独で検出するよ
りも、(例えば表示画像中の各キャリブレーションパタ
ーンの特徴を指定してクリックすることにより)ユーザ
によって処理装置2へ指定されうることに留意された
い。
【0052】ステップS5−8において、画像データ分
割器60はステップS5−4で格納された入力画像の各
々を処理し、対象物体210を表す画像データを他の画
像データ(”背景”画像データ)と分ける。この処理は
例えばGB-A-2368307のAnnexA.の2.2部に記載されるよう
な、従前の画像分割方法を用いて実施される。
【0053】図6を参照して、処理のこの段階において
は、複数の入力画像300−316の各々における対象
物体210のシルエット350−366が計算され、ま
た3D空間における各シルエットの相対位置及び方向が
計算される(なぜなら、各シルエット350−366は
入力画像の2次元平面中に存在し、各入力画像の位置及
び方向はステップS5−6でカメラ計算機50が計算し
ているため)。加えて、各入力画像に対する焦点320
−336の位置もまた入力データ及びカメラ計算機50
による計算から既知である。
【0054】再度図5を参照して、ステップS5−10
では、位置合わせコントローラ70が入力3Dコンピュ
ータモデル150と位置合わせされた入力画像300−
316のセットとの位置合わせを実行する。以下に説明
するように、本実施形態において、位置合わせコントロ
ーラ70による位置合わせはユーザによって入力される
命令に従って実行される。
【0055】図7は、第1の実施形態において、位置合
わせコントローラ70がステップS5−10で行う処理
動作を示している。図7を参照して、ステップS7−2
では、サーフェスモデラ72が、対象物体210の表面
を表すポリゴンメッシュからなる第2の3Dコンピュー
タモデルを生成する。
【0056】より具体的には、再度図6を参照して、
(シルエットは画像中の対象物体の輪郭を規定するた
め)各シルエット350−366は、シルエットが記録
された画像が記録された際のカメラの焦点位置320−
336とともに、(今のところは未知である)3D空間
中の複数点において対象物体210の表面に接する3D
空間中の無限円錐(infinite cone)を規定する。
【0057】本実施形態において、サーフェスモデラ7
2はステップS7−2で、シルエット350−366の
全てによって規定される無限円錐の交差部分(intersect
ion)で定義される3D空間の体積を求め、平面ポリゴン
を接続するメッシュによって交差部分の体積を表す処理
を実行する。
【0058】この処理は同一出願人による、同時係属の
日本特許出願2002-169584号(当該出願の全内容は参照
として本明細書に組み込まれる)に記載される技術を用
いて、あるいは、例えばhttp://i31www.ira.uka.de/dip
lomarbeiten/da_martin_loehlein/Reconstruction.html
に開示される、Martin Lohleinによる”境界表現を用い
た3D再構成のための視体積交差法アルゴリズム(A Vol
umetric IntersectionAlgorithm for 3D-reconstructio
n Using a Boundary-Representation)”や、M. Szilvas
i-Nagyによる、”2つの単純多面体の交差を求めるアル
ゴリズム(An algorithm for Determining the Intersec
tion of Two Simple Polyhedra)”(Computer Graphics
Forum 3(1984),219-225ページ)に記載されるような従来
方法を用いて実行することができる。
【0059】代わりに、サーフェスモデラ72は、例え
ばIllingsworth及びHiltonによる、”モデル世界構築の
試み:コンピュータビジョンを用いた静的物体モデルの
自動構築(Looking to build a model world: automatic
construction of static object models using comput
er vision)”(Electronics and Communication Enginee
ring Journal, June 1998, 103-113ページ)、又はNiem
による”移動カメラを用いる3次元物体の自動再構成(A
utomatic reconstruction of 3D objects using a mobi
le camera)”(Image and Vision Computing 17, 1999,
125-134ページ)に記載されるような、シルエットからの
形状生成処理(shape-from-silhouette processing)を実
行しても良い。
【0060】これら方法においては、シルエット円錐(s
hilhouette cone)の交差部分が計算され、複数のボクセ
ル(直方体)から形成される対象物体の”体積表現(vol
ume representation)”を生成するために用いられる。
より具体的には、3D空間がボクセルに分割され、ボク
セルはどれがシルエット円錐の交差部分で規定される体
積の内部に位置するかを判定するためテストされる。交
差体積内部のボクセルは、対象物体を表すボクセルの体
積を規定するため保持される。そして、体積表現は接続
されたポリゴンのメッシュからなるサーフェスモデルへ
変換される。
【0061】ステップS7−2における処理の結果は対
象物体210の表面を表す第2のポリゴンメッシュであ
る。第2のポリゴンメッシュは上述したように入力画像
300−316を用いて生成されるため、入力画像に位
置合わせされている(すなわち、その位置及び方向は入
力画像300−316の位置及び方向と相対的に既知で
ある)。
【0062】ステップS7−4において、3Dモデルス
ケーラ及びポジショナ73は入力3Dコンピュータモデ
ル150を、入力画像300−316の位置及び方向が
カメラ計算機50によって計算され、またサーフェスモ
デラ72が生成した第2の3Dコンピュータモデルが規
定される座標系と同じスケールに縮尺する。
【0063】より具体的には、入力3Dコンピュータモ
デル150のスケールがステップS5−4で格納された
入力データ中に規定される。さらに、写真マット34上
に印刷されたキャリブレーションパターンの大きさは、
マット生成器30によって格納され、その後、入力画像
300−316の位置及び方向がカメラ計算機50によ
って計算されかつ第2の3Dコンピュータモデルがサー
フェスモデラ72によって生成される座標系を規定する
ために用いられるため、入力画像及び第2の3Dコンピ
ュータモデルを含む座標系のスケールは既知である。
【0064】また、ステップS7−4において、3Dモ
デルスケーラ及びポジショナ73は、縮尺された入力3
Dコンピュータモデルの底面の中心が写真マット34上
のキャリブレーションパターンの中心に対応する位置に
なるよう、縮尺された入力3Dコンピュータモデル15
0を入力画像及び第2の3Dコンピュータモデルの座標
系に配置する。これは、ユーザが対象物体210を画像
取得のためにキャリブレーションパターンの中心に置く
であろうことがわかっているため実施される。従って、
第2の3DコンピュータモデルはステップS7−2にお
いて、サーフェスモデラ72により、キャリブレーショ
ンパターンの中心に対応した位置をもって生成されるこ
とになる。そのため、縮尺された入力3Dコンピュータ
モデル150をキャリブレーションパターンの中心に配
置することで、縮尺された入力3Dコンピュータモデル
150及びサーフェスモデラ72が生成する第2の3D
コンピュータモデルの位置はほぼ合致させられる。
【0065】ステップS7−6において、3Dモデルプ
ロジェクタ74は縮尺された入力3Dコンピュータモデ
ル150及びサーフェスモデラ72が生成した第2の3
Dコンピュータモデルを、直交する視方向(viewing dir
ection)を有する画像に投影する。より具体的には、本
実施形態において、3Dモデルプロジェクタ74は3D
コンピュータモデルを、モデルが配置される座標系の
X、Y及びZ座標軸に沿った視方向を有する画像に投影
する。
【0066】ステップS7−8において、3Dモデルプ
ロジェクタ74は、ディスプレイプロセッサ110を制
御し、縮尺された3Dコンピュータモデル150及びサ
ーフェスモデラ72が生成した第2の3Dコンピュータ
モデルの、所定の視方向からの画像と、ステップS7−
6において生成された直交視方向画像中の、2つの3D
コンピュータモデルが投影されたシルエット(すなわ
ち、輪郭)の画像を、表示装置4に表示させる。
【0067】図8は、本実施形態において、ステップS
7−8でユーザに対して表示装置4上で示される画像の
例を示す。図8を参照して、画像400は入力3Dコン
ピュータモデル150及びサーフェスモデラ72が生成
した第2の3Dコンピュータモデル402を示してい
る。各コンピュータモデル150、402は、入力ワイ
ヤフレームモデル150及びサーフェスモデラ72が生
成するワイヤフレームモデル中の各ポリゴンを平面とし
てレンダリングすることにより、ユーザにソリッドモデ
ルとして呈示される。見る人が2つのモデルを区別する
のを助けるため、一方の3Dコンピュータモデルが他方
よりも太く画像400中で示される。
【0068】画像410は、入力3Dコンピュータモデ
ル及び第2の3Dコンピュータモデルのシルエットが、
ステップS7−6で生成される、Z座標軸に沿った視方
向を有する画像に投影された際の画像を示している。
【0069】同様に、画像420はX座標軸に沿った視
方向を有する画像中に投影された2つの3Dコンピュー
タモデルのシルエットを示し、画像430はY座標軸に
沿った視方向を有する画像からの2つの3Dコンピュー
タモデルのシルエットを示す。
【0070】表示されたシルエットをユーザが区別する
のを助けるため、各画像410、420及び430にお
いて、シルエットの1つが実線で表され、もう一方のシ
ルエットは点線で表される。
【0071】このほか、表示装置4上には、マウス等の
ユーザ入力装置6を用いてユーザが動かすためのポイン
タ404、”回転”ボタン440、”変換(X,Y)”
ボタン450及び”変換(Z)”ボタン460が設けら
れている。
【0072】画像400上のポインタ404を動かし、
2つの3Dコンピュータモデル150、402の一方を
指定してクリックすることにより、ユーザは引き続き移
動させる3Dコンピュータモデルを選択することが可能
である。
【0073】”回転”ボタン440を指示し、クリック
すると、ユーザはその後のポインタ移動により、選択し
た3Dコンピュータモデルを回転させることができる。
より具体的には、1回”回転”ボタン440をクリック
すると、ユーザは選択した3DコンピュータモデルをX
座標軸に関して回転可能となり、2回”回転”ボタン4
40をクリックすると、ユーザは選択した3Dコンピュ
ータモデルをY座標軸に関して回転可能となり、3回”
回転”ボタン440をクリックすると、ユーザは選択し
た3DコンピュータモデルをZ座標軸に関して回転可能
となる。
【0074】”変換(X,Y)”ボタン450をクリッ
クすると、ユーザはポインタ404の移動により、選択
した3DコンピュータモデルをX,Y座標平面内で変換
することができる。同様に、”変換(Z)”ボタン46
0をクリックすると、ユーザは引き続くポインタ404
の移動により、選択した3DコンピュータモデルをZ座
標方向に変換することができる。
【0075】図7に戻って、ステップS7−10からS
7−14において、ユーザは、ユーザが行った変更の影
響を示すためにリアルタイムで更新される画像400、
410、420及び430を見ながら、3D空間内で2
つの3Dコンピュータモデル150、402の相対位置
及び方向を繰り返し変化させる。ユーザは、3D空間で
3Dコンピュータモデル150、402の装置位置及び
方向を、画像410、420及び430内に投影された
シルエット間の位置ずれが最小となるように変化させる
ことにより、3Dコンピュータモデル150、402を
正確に位置合わせすることができる。このように2つの
3Dコンピュータモデル150、402の位置及び回転
角を合わせることにより、ユーザはさらに、入力3Dコ
ンピュータモデル150を入力画像300−316の位
置合わせされたセットと位置合わせする(これは、上述
したように、第2の3Dコンピュータモデル402は入
力画像のセットに位置合わせされるからである)。
【0076】より具体的には、ステップS7−10にお
いて、ローテータ76及びトランスレータ78は3Dコ
ンピュータモデル150、402を、上述の通りユーザ
入力信号に従って回転及び変換する。
【0077】ステップS7−12において、3Dモデル
プロジェクタ74及び表示プロセッサ110は、ユーザ
が3Dコンピュータモデル150、402を回転及び変
換するのに伴って、これらモデルが新しい位置及び方向
に合致するよう、ユーザに表示する画像400、41
0、420及び430を更新する。このようにして、画
像400の更新に加え、ユーザが3Dコンピュータモデ
ルの移動による効果を見て、2つの3Dコンピュータモ
デル150、402の位置ずれを判定することができる
よう、直交視方向画像410、420及び430が更新
される。
【0078】3Dコンピュータモデル150、402の
少なくとも一方を繰り返し回転及び変換することによ
り、ユーザは画像410、420及び430内に示され
るシルエットの位置ずれを最小化することができ、それ
によって2つの3Dコンピュータモデル150、402
を正確に位置合わせすることができる。
【0079】ステップS7−14において、位置合わせ
コントローラ70は、3Dコンピュータモデル150、
402を動かすためのさらなるユーザ入力信号が受信さ
れているか否かを判定する。ステップS710からS7
14は、3Dコンピュータモデル150、402を正確
に位置合わせするために、これらモデルの相対位置及び
方向に対して必要な全ての調整をユーザが実行するまで
繰り返される。
【0080】入力3Dコンピュータモデル150が第2
の3Dコンピュータモデル402に位置合わせされる
と、入力3Dコンピュータモデル150は全ての入力画
像300−316に対して位置合わせされた状態とな
る。これは、第2の3Dコンピュータモデル402が入
力画像300−316の位置合わせされたセットから生
成されており、従って既に入力画像300−316の全
てと位置合わせされているからである。
【0081】この結果、入力画像300−316に対す
る入力3Dコンピュータモデル150の位置及び方向が
わかり、入力3Dコンピュータモデル150に対するテ
クスチャデータを入力画像300−316から生成する
ことができる。
【0082】従って、再度図5を参照して、ステップS
5−12では、サーフェステクスチャラ100が入力画
像300−316から入力3Dコンピュータモデル15
0に対するテクスチャデータを生成するため、これら画
像を処理する。
【0083】より具体的には、本実施形態において、サ
ーフェステクスチャラ100は、入力3Dコンピュータ
モデル150中の各3角形を選択し、選択された3角形
に最も正対する入力画像”i”を判定するための従来方
法の処理を実施する。すなわち、入力画像はn^tが3
角形の法線(triangle normal)、v^iをi番目の画像
の視方向とすると、n^t・v^iが最大になる画像が
探される。これは、選択された表面3角(surface trian
gle)が最も大きな投影領域を有する画像を特定する。
【0084】選択された表面3角は特定された入力画像
へ投影され、投影された3角形の頂点は画像テクスチャ
マップを規定するためのテクスチャ座標として用いられ
る。
【0085】サーフェステクスチャラ100がステップ
S5−12でテクスチャデータを生成するために用いう
る他の技術は、英国特許出願第GB-A-2369541号、並びに
GB-A-2369260号及び欧州特許出願第EP-A-1204073号に記
載されており、これら公地文献は相互参照により本明細
書に組み込まれる。
【0086】上述の処理を実行した結果は、対象物体2
10の3Dコンピュータモデル150と、入力画像30
0−316からの、モデル上にレンダリングされるべき
テクスチャ座標定義画像データである。
【0087】3Dコンピュータモデル150を定義する
データは、テクスチャデータとともに出力データ格納部
120に格納される。格納されるテクスチャデータは出
楠茶データに用いられる入力画像300−316の各々
を規定するデータと、入力画像中のテクスチャ座標を規
定するデータを含みうる。代わりに、テクスチャデータ
として使用される画素データを入力画像300−316
から抽出し、出力データ格納部120へ格納しても良
い。
【0088】ステップS5−14で、中央制御装置20
は、出力データ格納部120から、例えばディスク12
2等の記憶装置上に格納されたデータとして、あるいは
信号124(図1)として、3Dコンピュータモデル1
50及びテクスチャデータを定義するデータを出力す
る。加えて、あるいは代わりに、中央制御装置20は表
示プロセッサ110に、例えばユーザ入力装置6を用い
てユーザが入力した視点に従って生成されたテクスチャ
データとともにレンダリングされた入力3Dコンピュー
タモデル150の画像を表示装置4へ表示させる。
【0089】(第2の実施形態)本発明の第2の実施形
態について説明する。上述した第1の実施形態におい
て、ユーザは入力3Dコンピュータモデル150を入力
画像からサーフェスモデラ72が生成した第2の3Dコ
ンピュータモデルへ位置合わせすることにより、入力3
Dコンピュータモデル150を入力画像300−316
の位置合わせされたセットへ位置合わせする。しかし、
入力3Dコンピュータモデル150は他の方法によって
入力画像300−316と位置合わせされうる。
【0090】例えば、以下に説明する第2の実施形態に
おいては、入力画像300−316から3Dコンピュー
タモデルは生成されず、代わりに、ユーザが入力3Dコ
ンピュータモデル150と、入力画像300−316が
位置合わせされる座標系との相対位置及び回転角を変更
する。位置合わせにおける誤差は、ユーザが、入力3D
コンピュータモデル150のシルエットが入力画像30
0−316の少なくとも一部に投影される際に、その投
影されたシルエットを見て、この投影されたシルエット
を、画像データ分割器60によって生成され、入力画像
中に既に存在しているシルエットとを比較することによ
りチェックされる。
【0091】第2の実施形態の構成要素及びそれによる
処理動作は、位置合わせコントローラ70がサーフェス
モデラ72を含まず、ステップS5−10において位置
合わせコントローラ70の構成要素によって実行される
処理動作が第1の実施形態と異なることを除き、第1の
実施形態と同一である。従って、他の処理は既に第1の
実施形態において説明したため、以下ではステップS5
−10で実行される処理のみを説明する。
【0092】図9は、第2の実施形態におけるステップ
S5−10で、入力3Dコンピュータモデル150を入
力画像300−316の位置合わせされたセットと位置
合わせするためにコントローラ70が実行する処理動作
を示す。
【0093】図9を参照して、ステップS9−2では、
3Dモデルスケーラ及びポジショナ73が、入力3Dコ
ンピュータモデル150を入力画像の位置合わせされた
セットの座標系と等しいスケールに縮尺し(このスケー
ルはステップS5−6においてカメラ計算機50によっ
て既に計算されている)、縮尺された入力3Dコンピュ
ータモデル150を入力画像の位置合わせされたセット
と同じ座標系内に配置する。より具体的には、第1の実
施形態で行ったように、3Dモデルスケーラ及びポジシ
ョナ73は、縮尺された入力3Dコンピュータモデル1
50を、その底面中心が写真マット34上のキャリブレ
ーションパターンの中心に合致するように配置する。
(上述したように、入力画像300−316の各々は対
象物体210の画像を、キャリブレーションパターンの
中心に示すため)このようにして、縮尺された入力3D
コンピュータモデル150は入力画像300−316に
対して大まかに修正される。
【0094】ステップS9−4で、3Dモデルプロジェ
クタ74は縮尺された入力3Dコンピュータモデル15
0を入力画像300−316の少なくとも一部の各々へ
投影する。より具体的には、本実施形態において、3D
モデルプロジェクタ74はほぼ直交する視方向を有する
3つの入力画像を選択し、縮尺された入力3Dコンピュ
ータモデル150をこの選択された3入力画像上へ投影
する。従って、図6の例を参照すると、入力画像30
0、312及び316が、縮尺された入力3Dコンピュ
ータモデル150を投影する入力画像として、3Dモデ
ルプロジェクタ74によって選択されるかもしれない。
【0095】ステップS9−6で、3Dモデルプロジェ
クタ74は表示プロセッサ110を制御し、予め定めら
れた視方向からの、縮尺された入力3Dコンピュータモ
デル150の画像と、ステップS9−4で選択された入
力画像であって、縮尺された入力3Dコンピュータモデ
ル150の投影されたシルエットを、ステップS5−8
で画像データ分割器60が生成した分割画像シルエット
とともに示す入力画像の各々とを含む画像を、表示装置
4上でユーザに対して表示させる。
【0096】図10は、第2の実施形態において、ステ
ップS9−6でユーザに表示される画像の例を示す。図
10を参照して、画像500は縮尺された入力3Dコン
ピュータモデル150の眺望(view)を、画像510は縮
尺された入力3Dコンピュータモデル150が入力画像
316へ投影された際のシルエットと、画像データ分割
器60による処理の結果として既に画像316内に存在
するシルエット366とを示す。また、画像520は、
縮尺された入力3Dコンピュータモデル150が入力画
像300に投影された際のシルエットと、画像データ分
割器60が生成した入力画像300中のシルエットを示
す。さらに、画像530は、縮尺された入力3Dコンピ
ュータモデル150が入力画像312に投影された際の
シルエットと、画像データ分割器60が生成した入力画
像312中のシルエット362を示す。
【0097】第1の実施形態と同様、ユーザがポインタ
404を用いて指示及びクリックにより選択するため
の”回転”ボタン440、”変換(X,Y)”ボタン4
50及び”変換(Z)”ボタン460が設けられてい
る。”回転”ボタン440の選択に続き、ポインタ40
4を動かすことで、ユーザは画像500中に示される、
縮尺された入力3Dコンピュータモデル150を回転す
ることが可能である。また、”変換(X,Y)”ボタン
450又は”変換(Z)”ボタン460の選択に続いて
ポインタ404を動かすことにより、モデル150の位
置を変更することが可能である。
【0098】ユーザが入力3Dコンピュータモデル15
0を回転及び変換するに伴い、画像500、510、5
20及び530はリアルタイムで更新され、ユーザは自
らが行った移動の効果を見ることが可能である。特に、
ユーザは画像510、520及び530中のシルエット
の位置ずれを見ることが可能であり、従って位置ずれが
最小となるように入力3Dコンピュータモデル150を
回転及び変換し、入力3Dコンピュータモデル150を
入力画像300−316の位置合わせされたセットへ位
置合わせすることが可能である。
【0099】より具体的には、再び図9を参照して、ス
テップS9−8で、ローテータ76及びトランスレータ
78は、上述したように生成される、ユーザからの入力
信号に従って、入力3Dコンピュータモデル150の回
転角及び位置を、入力画像300−316の位置合わせ
されたセットの座標系に関して変更する。
【0100】ステップS9−10において、3Dモデル
プロジェクタ74及び表示プロセッサ110は、ステッ
プS9−8における回転角及び/又は位置に対する変更
結果を示すため、ユーザに表示される画像500、51
0、520及び530を更新する。
【0101】ステップS9−12において、位置合わせ
コントローラ70は3Dコンピュータモデル150を変
換又は回転させるための入力信号がユーザから受信され
たか否かを調べる。ステップS9−8からS9−12ま
では、ユーザが入力画像300−316の位置合わせさ
れたセットへの入力3Dコンピュータモデル150の位
置合わせを完了するまで繰り返される。
【0102】(第3の実施形態)以下、本発明の第3の
実施形態について説明する。上述した第1及び第2の実
施形態において、位置合わせコントローラ70は入力3
Dコンピュータモデル150及び入力画像300−31
6を、ユーザから入力される、入力3Dコンピュータモ
デル150及び入力画像の位置合わせされたセットの位
置及び方向に対する相対的な変更を規定する信号に基づ
いて位置合わせしている。
【0103】しかし、以下第3の実施形態において説明
するように、入力画像300−316の位置合わせされ
たセットへの入力3Dコンピュータモデル150の位置
合わせは、ユーザからの入力無しに、位置合わせコント
ローラ70によって自動的に行うことが可能である。
【0104】第3の実施形態の構成要素及びそれによる
処理動作は、位置合わせコントローラ70の構成要素
と、これら構成要素によって実行される処理動作を除い
て第1の実施形態と同一である。従って、以下ではこれ
ら相違についてのみ説明する。
【0105】図11は、第3の実施形態における位置合
わせコントローラ70の機能要素を示す。図11を参照
して、第3の実施形態の位置合わせコントローラ70
は、第3の実施形態と同様、3Dモデルスケーラ及びポ
ジショナ73、3Dモデルプロジェクタ74、ローテー
タ76及びトランスレータ78を有する。しかし、それ
に加えて位置合わせコントローラ70は制約計算機(con
straint calculator)80及び、誤差計算機(error calc
ulator)82を含む。これらの処理機能については後で
詳述する。
【0106】図12は、第3の実施形態において、入力
3Dコンピュータモデル150をカメラ計算機50が生
成した入力画像300−312の位置合わせされたセッ
トへ位置合わせするために、ステップS5−10で位置
合わせコントローラ70の構成要素によって実行される
処理動作を示す。
【0107】図12を参照して、ステップS12−2
で、3Dモデルスケーラ及びポジショナ73は入力3D
コンピュータモデル150を、第1の実施形態と同様
に、入力画像300−316が位置合わせされた座標系
(ステップS5−6でカメラ計算機50によって既に計
算済み)と同じスケールを有するように縮尺する。加え
て、3Dモデルスケーラ及びポジショナ73は縮尺され
た入力3Dコンピュータモデル150を位置合わせされ
た入力画像と同じ座標系内に配置する。より具体的に
は、第1及び第2の実施形態と同様に、3Dモデルスケ
ーラ及びポジショナ73は縮尺された入力3Dコンピュ
ータモデル150を、その底面中心が写真マット34内
のキャリブレーションパターンの中心に対応するように
置く。このようにして、入力3Dコンピュータモデル1
50の位置は、入力画像300−316に対してほぼ正
確になるが、この段階においてその回転角は不定であ
る。
【0108】ステップS12−4で、誤差計算機82は
縮尺された入力3Dコンピュータモデル150が引き続
く処理において変換可能な限度を計算する。この限度
は、上述したように、縮尺された入力3Dコンピュータ
モデル150の位置がステップS12−2における処理
の結果大まかに修正されているために課され、従ってこ
の限度は引き続く入力3Dコンピュータモデル150の
変換に設定可能であり、それによって入力3Dコンピュ
ータモデル150と入力画像300−316の位置合わ
せされたセットとの位置合わせのための処理時間を短縮
する。
【0109】本実施形態において、誤差計算機82はス
テップS12−4で、縮尺された入力3Dコンピュータ
モデル150の大きさの10%を変換制限として設定す
る。ここで、大きさは縮尺された入力3Dコンピュータ
モデル150の頂点の分散行列の最大固有値の平方根と
して計算される。引き続く処理において、入力3Dコン
ピュータモデル150は、その時点における位置からい
かなる方向にもこの量を超えて移動することは許されな
い。
【0110】ステップS12−6において、位置合わせ
コントローラ70は処理が反復実行された回数を示すカ
ウンタの値を0にセットする。ステップS12−8にお
いて、3Dモデルプロジェクタ74は縮尺された入力3
Dコンピュータモデル150(ステップS12−2にお
いて配置された位置及び方向を有する)を各入力画像3
00−316の各々に投影する。
【0111】ステップS12−10において、誤差計算
機82は各入力画像について、(ステップS12−8で
生成された)入力3Dコンピュータモデル150の投影
されたシルエットを、ステップS5−8における画像デ
ータ分割器60による処理結果として入力画像中に存在
するシルエットと比較するための処理を実行する。より
具体的には、本実施形態において、誤差計算機82は、
入力画像の各画素について、シルエットの両方ではなく
一方の内部に存在する画素は1に、それ以外(すなわ
ち、画素が両方のシルエットの内部にある場合もしくは
両方のシルエットの外部にある場合)の画素は0に設定
することにより、各入力画像について差分画像(differe
nce image)を生成する。このようにして、各差分画像内
の画素は、ステップS12−8で生成されたシルエット
と、ステップS5−8で生成されたシルエットとが揃っ
ていない部分では値1に設定される。従って、各差分画
像中1の画素値は、縮尺された入力3Dコンピュータモ
デルが入力画像中の対象物体210のシルエット350
−366と食い違う位置を規定する。
【0112】ステップS12−12で、縮尺された入力
3Dコンピュータモデル150の、現時点での最良の回
転角を表す変数Rbestの値が、ステップS12−2で設
定された入力3Dコンピュータモデル150の回転角と
なるように設定される。同様に、縮尺された入力3Dコ
ンピュータモデル150の現時点での最良の位置(変
換)を表すTbestの値が、ステップS12−2で設定さ
れた値になるよう設定される。入力3Dコンピュータモ
デル150と入力画像300−316との位置合わせに
おける誤差を表す変数Ebestの値は、ステップS12−
10で生成された全ての差分画像における値1の画素の
合計となるように設定される。
【0113】これから説明するように、引き続く処理に
おいて、位置合わせコントローラ70は、Ebestの値を
削減するように、縮尺された入力3Dコンピュータモデ
ル150を回転及び変換する処理を実行する。
【0114】より具体的には、ステップS12−14で
は、ローテータ76及びトランスレータ78は、ステッ
プS12−4で設定された変換制限及び任意の回転制限
(ステップS12−14の第1の所定回数の反復に対し
ては回転制限は存在しないが、以下で説明するように、
第1の所定回数反復実行された後にこのような制限が導
入される)の範囲内で、入力3Dコンピュータモデル1
50を無作為に回転及び変換する。
【0115】ステップS12−16で、3Dモデルプロ
ジェクタ74は縮尺された入力3Dコンピュータモデル
を、ステップS12−14での回転及び変換に引き続い
て各入力画像300−316へ投影する。
【0116】ステップS12−18で、誤差計算機82
は、投影された入力3Dコンピュータモデルのシルエッ
トと画像データ分割器60が生成したシルエット350
−366とを比較するために各入力画像を処理し、これ
らシルエットから差分画像を生成する。ステップS12
−18における処理はステップS12−10での処理と
同一であるため、ここで再度の説明は行わない。
【0117】ステップS12−20で、誤差計算機82
は入力3Dコンピュータモデル150の現在の回転角及
び変換(すなわち、ステップS12−14で設定される
回転及び変換)に対する位置合わせ誤差を計算する。よ
り具体的には、ステップS12−12と同様に、誤差計
算機82はステップS12−18で生成された差分画像
の全てについて、値1の画素の合計数として誤差を計算
する。
【0118】ステップS12−22で、誤差計算機82
はステップS12−20で求められた現在の誤差が格納
された最良誤差Ebest未満であるか否かを判定する。ス
テップS12−22において、現在の誤差がEbest未満
であると判断された場合には、ステップS12−24
で、現在の回転角がRbestに、現在の位置がT bestに、
現在の誤差がEbestにそれぞれ設定される。
【0119】一方、ステップS12−22において、現
在の誤差がEbest以上であると判断された場合、ステッ
プS12−24は省略される。ステップS12−26
で、反復処理回数を示すカウンタの値を1増加させる。
ステップS12−28で、所定値N1(本実施形態では
5000に設定される)と等しいか判断するため、カウ
ンタ値が読み出される。
【0120】ステップS12−28において、カウンタ
値がN1に等しいと判断された場合には、ステップS1
2−30で、制限計算機80がそれ以降ステップS12
−14でなされる入力3Dコンピュータモデル150の
回転に対して回転制限を設定する。より具体的には、本
実施形態において、制限計算機80は、引き続く反復処
理においてステップS12−14が実行された際に、入
力3Dコンピュータモデル150がその時点での回転角
から±10°の範囲内でのみ回転可能なように、10°
の回転制限を設定する。このように、ステップS12−
4からS12−32の反復が十分な回数実行され、縮尺
された入力3Dコンピュータモデルの回転角がおおよそ
正確と思われる状態になると、回転制限が導入される。
従って、縮尺された入力3Dコンピュータモデル150
のその後の反復処理における回転が制限され、位置合わ
せ精度を向上しないであろうステップS12−14での
大きく無作為な回転を防止するため、精度が向上する。
【0121】一方、ステップS12−28において、カ
ウンタ値が所定値N1未満であるかN1より大きいと判
断された場合、ステップS12−30は省略される。ス
テップS12−32で、第2の所定値N2(本実施形態
では10000に設定される)未満であるか判断するた
め、カウンタ値が読み出される。
【0122】ステップS12−14からS12−32
は、ステップS12−32においてこれら処理の反復回
数が所定の閾値N2に達したと判定されるまで、入力3
Dコンピュータモデル150を無作為に回転及び変換
し、入力画像300−316のセットとの位置合わせ結
果を試すために繰り返される。
【0123】ステップS12−34で、格納されている
値Rbest及びTbestが読み出され、ローテータ76及び
トランスレータ78は入力3Dコンピュータモデル15
0をこれらの値で規定される位置及び方向へ戻す(これ
らの値は、ステップS12−14の全ての反復を通じて
生成され、入力3Dコンピュータモデル150と入力画
像300−316の位置合わせされたセットとの最良の
位置合わせを与える位置及び方向を表している)。
【0124】(第4の実施形態)以下、本発明の第4の
実施形態について説明する。第4の実施形態において、
位置合わせコントローラ70は入力3Dコンピュータモ
デル150と入力画像300−316の位置合わせされ
たセットとを、ユーザからの入力無しに自動的に位置合
わせするための処理を実行する。しかし、第4の実施形
態において位置合わせコントローラ70が実行する処理
は第3の実施形態での処理と異なる。
【0125】第4の実施形態の構成要素及びそれによる
処理動作は、位置合わせコントローラ70の構成要素
と、入力3Dコンピュータモデル150と入力画像30
0−316とを位置合わせするために位置合わせコント
ローラ70の構成要素によってステップS5−10で実
行される処理動作を除き、第1の実施形態と同一であ
る。従って、以下の説明ではこれら差異についてのみ述
べる。
【0126】図13は第4の実施形態における位置合わ
せコントローラ70の機能部品を示す。図13を参照し
て、位置合わせコントローラ70はサーフェスモデラ7
2(第1の実施形態と同様)に加え、3Dモデルスケー
ラ84、メッシュアライナ86及びメッシュ位置合わせ
器88を含んでいる。これら追加部品の処理動作は以下
で詳述する。
【0127】図14は第4の実施形態において位置合わ
せコントローラ70が、入力3Dコンピュータモデル1
50を入力画像300−316と位置合わせするために
ステップS5−10で実行する処理動作を示す。
【0128】図14を参照して、ステップS14−2
で、サーフェスモデラ72は、入力画像300−316
の各々と位置合わせされる、対象物体210の第2の3
Dコンピュータモデルを生成するための処理を実行す
る。この処理は第1の実施形態においてステップS7−
2で実行される処理と等しいため、ここで説明を繰り返
すことはしない。
【0129】ステップS14−4で、3Dモデルスケー
ラ84は、入力3Dコンピュータモデル150のスケー
ルが、入力画像300−316が位置合わせされた座標
系のスケールに対応するよう、入力3Dコンピュータモ
デル150を縮尺する(この処理は、第1の実施形態に
おいてステップS7−4で既に説明した縮尺動作と同一
である)。
【0130】ステップS14−6で、メッシュアライナ
86は縮尺された入力3Dコンピュータモデル150
を、ステップS14−2で第2の3Dコンピュータモデ
ルが生成された座標系内に設定し(従って、入力画像3
00−316が位置合わせされた座標系と同じ座標系に
設定される)、縮尺された入力3Dコンピュータモデル
150及び第2の3Dコンピュータモデルを大まかに揃
える。
【0131】より具体的には、本実施形態において、メ
ッシュアライナ86は、メッシュ内のデータ点の3主軸
を規定する固有値を各メッシュに対して計算し、各デー
タメッシュ内の点の重心を計算することにより、2つの
3Dコンピュータモデルのポリゴンメッシュを揃える。
そして、メッシュアライナ86は、2つの3Dコンピュ
ータモデルを、それらの重心が同じ位置になり、かつモ
デルの最長及び2番目に長い主軸が揃うように揃える。
【0132】ステップS14−8で、メッシュ位置合わ
せ器88は縮尺された入力3Dコンピュータモデル15
0とステップS14−2で生成された第2の3Dコンピ
ュータモデルとを正確に位置合わせする(従って、入力
3Dコンピュータモデル150を入力画像300−31
6の位置合わせされたセットと正確に位置合わせす
る)。より具体的には、本実施形態において、メッシュ
位置合わせ器88は、ステップS14−8において、2
つの3Dコンピュータモデルを位置合わせするため、例
えばTurk及びLevoyによる、”距離画像からのZippardポ
リゴンメッシュ(Zippard Polygon Meshes From Range I
mages)”, Computer Graphics Proceedings,Annual Con
ference Series, 1994, ACM Siggraph, 311-318ページ,
ISBN 0-89791-667-0のセクション4に記載される逐次
最近点(ICP)アルゴリズムを用いる処理を実行する。
【0133】(変更及び変形物)請求範囲の範囲内で、
上述の実施形態に対して多くの変更及び変形を行うこと
が可能である。例えば、上述の実施形態において、入力
画像データは対象物体210の”静止”画像から構成さ
れている。しかし、入力画像はビデオカメラからの画像
データのフレームから構成されていても良い。
【0134】上述の実施形態において、ステップS5−
4で、カメラの固有パラメータを規定するユーザ入力デ
ータが格納される。しかし、代わりに、カメラパラメー
タの一部又は全部について、デフォルト値を仮定しても
よいし、例えばHartleyによる、”未校正視点からのユ
ークリッド再構成(Euclidean Reconstruction From Unc
alibrated Views)”, Applications of Invariance in
Computer Vision, Mundy, Zisserman and Forsyth eds,
237-256ページ, Azores 1993に記載されるような従来
手法により固有パラメータ値を計算するための処理を実
行しても良い。
【0135】上述の実施形態においては、ステップS5
−4で格納される入力画像は写真マット34上の対象物
体210の画像から構成され、カメラ計算機50による
処理は、各入力画像の位置及び方向がキャリブレーショ
ンパターンの基準位置及び方向に相対的に計算されるよ
うに、画像中の写真マット上のキャリブレーションパタ
ーンからの特徴部分と、キャリブレーションパターンを
規定する、記憶されたデータとを合致させるための処理
からなっていた。しかし、この代わりに、カメラ計算機
50は、入力画像の相対位置及び方向を求めるために、
(画像と記憶されたパターンとの間の代わりに)画像間
のキャリブレーションパターンの特徴部分を合致させる
ための処理を実行してもよい。例えば、PCT出願GB00
/04469(WO-A-01/39124)の図53及び54に関して記載
されるような方法を用いることができる。
【0136】代わりに、ステップS5−4で格納される
入力画像が、写真マットなしの、対象物体210だけの
画像から構成されても良く、またカメラ計算機50はス
テップS5−6において、例えばEP-A-0898245に記載さ
れるように、(キャリブレーションパターンの特徴部分
を合致させるのではなく)対象物体210の特徴部分を
合致させることによって入力画像の相対位置及び方向を
計算するための処理を実行しても良い。加えて、あるい
は代わりに、カメラ計算機50はステップS5−6にお
いて、(例えば異なる画像中の同一の特徴部分の位置を
特定するため、位置を指定してクリックすることによ
り)ユーザによって指示される、画像中の合致する特徴
を用いて入力画像の相対位置及び方向を計算しても良
い。
【0137】上述の第1及び第4の実施形態において
は、サーフェスモデラ72が、画像データ分割器60に
よって生成されたシルエット350−366を用いて入
力画像を処理することで、対象物体210の第2の3D
コンピュータモデルを生成する。しかし、代わりにサー
フェスモデラ72は、他の処理手法を用いて入力画像か
ら第2の3Dコンピュータモデルを生成しても良い。例
えば、EP-A-089245に記載される手法を用いることがで
きる。
【0138】上述の第1及び第2の実施形態において
は、2つの3Dコンピュータモデルのシルエットを示す
画像410、420及び430(図8)及び画像51
0、520及び530(図10)が、直交する視方向か
ら(又は、第2の実施形態の場合、入力画像300−3
16から選択可能な程度直交に近い視方向から)生成さ
れる。しかし、シルエットを示す画像410、420、
430、510、520及び530は、直交しない視方
向から生成することもできる。
【0139】上述の第2の実施形態において、ステップ
S9−8で、ユーザは、入力画像300−316が位置
合わせされている座標系に対して相対的に縮尺された入
力3Dコンピュータモデル150を回転及び変換する。
同様に、第3の実施形態のステップS12−14におい
て、縮尺された入力3Dコンピュータモデル150は入
力画像の座標系内部で回転及び変換される。しかし、代
わりに、入力画像300−316の座標系を、縮尺され
た入力3Dコンピュータモデル150に相対的に変換及
び回転しても同じ効果が得られる。
【0140】上述の第2及び第3の実施形態において、
ステップS9−2及びS9−12で、縮尺された入力3
Dコンピュータモデル150は、その底面の中心が写真
マット34上のキャリブレーションパターンの中心に対
応する位置となるように、位置合わせされた入力画像3
00−316の座標系に配置される。上述したように、
この操作は入力3Dコンピュータモデル150の位置が
ほぼ正しいことを保証するが、入力3Dコンピュータモ
デル150の回転角が大幅に誤るかもしれないという問
題を有する。
【0141】この問題を解決するため、対象物体の第2
の3Dコンピュータモデルを入力画像を用いて(例え
ば、第1の実施形態におけるサーフェスモデラ72に関
して記載された処理を用いて)生成し、縮尺された入力
3Dコンピュータモデルと生成された第2の3Dコンピ
ュータモデルの重心及び2つの最長主軸を計算し、揃え
るため、ステップS9−2及びS12−2における処理
を(第4の実施形態におけるステップS14−6に関し
て記載されたように)行ってもよい。入力3Dコンピュ
ータモデル150の位置のみならず回転角もほぼ正しい
ことを確実にすることによって、入力3Dコンピュータ
モデル150を入力画像300−316の位置合わせさ
れたセットに正確に位置合わせするために必要となる、
第3の実施形態のステップS12−14からS12−3
2の反復が少なくなるであろうため、ステップS12−
32におけるN2の値が削減されるであろう。
【0142】上述の実施形態において、処理はプログラ
ム命令によって規定される処理ルーチンを用いるコンピ
ュータによって実行される。しかしながら、処理の一部
又は全部をハードウェアを用いて実行することももちろ
ん可能である。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の構成要素を、処理装
置の構成要素がプログラム命令によってプログラムされ
た際に構成されると考えられる概念的な機能処理ユニッ
トとともに模式的に示す図である。
【図2】図1の処理装置に入力される、対象物体の表面
を表すポリゴンメッシュからなる3Dコンピュータモデ
ルの例を示す図である。
【図3】対象物体の3Dコンピュータモデルに対するテ
クスチャデータを生成するために対象物体の画像記録を
説明する図である。
【図4】図1の処理装置に入力される対象物体の画像の
例を説明する図である。
【図5】図1の処理装置が入力データを処理するために
実行する処理動作を示す図である。
【図6】図5のステップS5−6及びS5−8で実行さ
れる処理の結果を説明する図である。
【図7】対象物体の入力3Dコンピュータモデルと入力
画像とを位置合わせするために第1の実施形態において
ステップS5−10で実行される処理動作を示す図であ
る。
【図8】第1の実施形態においてステップS7−8及び
S7−12でユーザに表示される画像を説明する図であ
る。
【図9】対象物体の入力3Dコンピュータモデルと入力
画像とを位置合わせするために第2の実施形態において
ステップS5−10で実行される処理動作を示す図であ
る。
【図10】第2の実施形態においてステップS9−6及
びS9−10でユーザに表示される画像を説明する図で
ある。
【図11】第3の実施形態における処理装置から位置合
わせコントローラの機能構成要素を示す図である。
【図12a】
【図12b】
【図12c】対象物体の入力3Dコンピュータモデルと
入力画像とを位置合わせするために第3の実施形態にお
いてステップS5−10で実行される処理動作を示す図
である。
【図13】第4の実施形態における処理装置から位置合
わせコントローラの機能構成要素を示す図である。
【図14】対象物体の入力3Dコンピュータモデルと入
力画像とを位置合わせするために第4の実施形態におい
てステップS5−10で実行される処理動作を示す図で
ある。
フロントページの続き (72)発明者 アダム マイケル ボームバーグ イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ (キヤノン リサーチ センター ヨーロ ッパ リミテッド 内) (72)発明者 アレキサンダー ラルフ リオンズ イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ (キヤノン リサーチ センター ヨーロ ッパ リミテッド 内) Fターム(参考) 2F065 AA04 AA20 AA31 AA53 BB05 EE00 FF04 FF41 GG04 JJ03 MM06 MM11 PP22 QQ00 QQ24 QQ25 QQ28 QQ52 SS02 SS13 5B050 AA00 BA06 BA08 DA02 DA04 DA07 EA19 EA28 FA02

Claims (35)

    【特許請求の範囲】
  1. 【請求項1】 対象物体の3次元コンピュータモデルに
    対するテクスチャデータを生成する方法であって、 前記対象物体の複数の画像を、前記対象物体に関して異
    なる画像取得位置及び方向から記録するステップと、 前記画像中の特徴の位置を決定し、前記特徴の位置に基
    づいて相対的な画像取得位置及び方向を計算するために
    前記画像を規定するデータを処理し、それによって画像
    の位置合わせされたセットを生成するステップと、 前記3次元コンピュータモデルを前記画像の位置合わせ
    されたセットに位置合わせするため、前記対象物体の前
    記3次元コンピュータモデル及び前記画像の位置合わせ
    されたセットの相対的な位置及び向きを変更する処理を
    実行するステップと、 前記3次元コンピュータモデルと位置合わせされた前記
    画像を規定する画像データから、前記3次元コンピュー
    タモデルに対するテクスチャデータを生成するステップ
    とを有することを特徴とする方法。
  2. 【請求項2】 3次元コンピュータモデルに対するテク
    スチャデータを生成するために画像データを処理する画
    像処理装置であって、 画像の位置合わせされたセットが生成されるように、前
    記画像中の特徴の位置に基づいて相対的な画像取得位置
    及び向きを計算するため、対象物体に関して異なる画像
    取得位置及び方向から記録された前記対象物体の複数の
    画像を規定するデータを処理する画像位置合わせ手段
    と、 3次元コンピュータモデルを前記画像の位置合わせされ
    たセットに位置合わせする画像−モデル位置合わせ手段
    と、 前記3次元コンピュータモデルと位置合わせされた前記
    画像データから、前記3次元コンピュータモデルに対す
    るテクスチャデータを生成する手段とを有することを特
    徴とする装置。
  3. 【請求項3】 前記画像位置合わせ手段が、所定のキャ
    リブレーションパターンに関して各画像の相対的な前記
    画像取得位置及び向きを計算することによって、前記画
    像の画像取得位置及び向きを計算可能であることを特徴
    とする請求項2記載の装置。
  4. 【請求項4】 前記画像位置合わせ手段が、差分画像中
    のマッチングされた特徴の位置に基づいて前記画像の相
    対的な画像取得位置及び向きを計算可能であることを特
    徴とする請求項2又は請求項3記載の装置。
  5. 【請求項5】 前記画像位置合わせ手段が、前記相対的
    な画像取得位置及び向きを、ユーザによって指定された
    前記画像中の特徴に基づいて計算可能であることを特徴
    とする請求項2乃至請求項4のいずれか1項に記載の装
    置。
  6. 【請求項6】 前記画像位置合わせ手段が、差分画像中
    の特徴を検出するために前記画像を処理し、前記検出さ
    れた特徴に基づいて前記相対的な画像取得位置及び方向
    を計算可能であることを特徴とする請求項2乃至請求項
    5のいずれか1項に記載の装置。
  7. 【請求項7】 前記画像−モデル位置合わせ手段が、 前記画像の位置合わせされたセットに位置合わせされて
    いる、前記対象物体の第2の3次元コンピュータモデル
    を生成する手段と、 前記3次元コンピュータモデルを前記画像の位置合わせ
    されたセットと位置合わせするため、前記3次元コンピ
    ュータモデルと前記第2の3次元コンピュータモデルの
    相対的な位置及び向きを変更する変換及び回転手段とを
    有することを特徴とする請求項2乃至請求項6のいずれ
    か1項に記載の装置。
  8. 【請求項8】 前記画像−モデル位置合わせ手段が、異
    なる視点位置及び方向からの複数の画像中における前記
    3次元コンピュータモデル及び前記第2の3次元コンピ
    ュータモデルのシルエットを規定するデータを生成する
    手段を更に有することを特徴とする請求項7記載の装
    置。
  9. 【請求項9】 前記変換及び回転手段が、前記3次元コ
    ンピュータモデル及び前記第2の3次元コンピュータモ
    デルの相対的な位置及び向きを、ユーザによって入力さ
    れた信号に従って変更可能であることを特徴とする請求
    項7又は請求項8に記載の装置。
  10. 【請求項10】 前記画像−モデル位置合わせ手段が、 前記3次元コンピュータモデルを複数の画像の各々へ投
    影する手段と、 前記3次元コンピュータモデルが投影された前記複数の
    画像の各々における、前記対象物体に関する前記3次元
    コンピュータモデルの投影を表示するための画像データ
    を生成する画像データ生成手段と、 前記3次元コンピュータモデル及び前記画像の位置合わ
    せされたセットの前記相対的な位置及び向きを、ユーザ
    によって入力された信号に従って変更する手段とを有
    し、 前記画像データ生成手段が、前記3次元コンピュータモ
    デル及び前記画像の位置合わせされたセットの前記相対
    的な位置及び向きの変更に応じて表示するための、更新
    された画像データを生成するように構成されていること
    を特徴とする請求項2乃至請求項6のいずれか1項に記
    載の装置。
  11. 【請求項11】 前記画像データ生成手段が、前記3次
    元コンピュータモデルが投影される前記複数の画像の各
    々において、画像化された前記対象物体のシルエットに
    関連して前記3次元コンピュータモデルのシルエットを
    表示するための画像データを生成可能であることを特徴
    とする請求項10記載の装置。
  12. 【請求項12】 前記画像−モデル位置合わせ手段が、 複数の画像の各々へ前記3次元コンピュータモデルを投
    影する手段と、 前記3次元コンピュータモデルが投影される前記複数の
    画像の各々において、前記3次元コンピュータモデルの
    前記投影と、前記対象物体の画像とを比較する比較手段
    と、 前記3次元コンピュータモデル及び前記画像の位置合わ
    せされたセットとの前記相対的な位置及び向きを変更
    し、その位置合わせ位置及び及び向きを計算された位置
    ずれに基づいて決定する手段を有することを特徴とする
    請求項2乃至請求項6のいずれか1項に記載の装置。
  13. 【請求項13】 前記比較手段が、前記3次元コンピュ
    ータモデルが投影される前記複数の画像の各々におい
    て、前記投影された3次元コンピュータモデルのシルエ
    ットと、前記対象物体の前記画像のシルエットとを比較
    し、前記シルエットの両方ではなく、一方のみに属する
    領域に基づいて前記位置ずれを計算することが可能であ
    ることを特徴とする請求項12記載の装置。
  14. 【請求項14】 3次元コンピュータモデルに対するテ
    クスチャデータを生成するために画像データを処理する
    方法であって、 対象物体の異なる眺望の複数の画像を規定する画像デー
    タを、前記複数の画像を位置合わせするために処理する
    ステップと、 前記対象物体の3次元コンピュータモデル及び前記位置
    合わせされた画像の少なくとも一方を、前記3次元コン
    ピュータモデルを前記画像に位置合わせするために変換
    及び回転するステップと、 前記画像データから前記3次元コンピュータモデルに対
    するテクスチャデータを規定するステップとを有するこ
    とを特徴とする方法。
  15. 【請求項15】 前記複数の画像を位置合わせするた
    め、各画像をキャリブレーションパターンに対して位置
    合わせする処理を行うことを特徴とする請求項14記載
    の方法。
  16. 【請求項16】 前記複数の画像が、その中の対応する
    特徴の位置に基づいて、互いに位置合わせされることを
    特徴とする請求項14又は請求項15記載の方法。
  17. 【請求項17】 前記複数の画像が、ユーザによって指
    定された前記複数の画像内の特徴に基づいて位置合わせ
    されることを特徴とする請求項14乃至請求項16のい
    ずれか1項に記載の方法。
  18. 【請求項18】 前記画像データが、対応する特徴を検
    出するために処理され、前記複数の画像が、前記検出さ
    れた特徴に基づいて位置合わせされることを特徴とする
    請求項14乃至請求項17のいずれか1項に記載の方
    法。
  19. 【請求項19】 前記3次元コンピュータモデルと前記
    複数の画像との位置合わせを行うステップが、 前記複数の画像に位置合わせされている、前記対象物体
    の第2の3次元コンピュータモデルを生成するために前
    記画像データを処理するステップと、 前記3次元コンピュータモデル及び前記複数の画像の相
    対的な回転角及び変換を変えるため、前記3次元コンピ
    ュータモデル及び前記第2の3次元コンピュータモデル
    の少なくとも1つを変換及び回転するステップとを有す
    ることを特徴とする請求項14乃至請求項18のいずれ
    か1項に記載の方法。
  20. 【請求項20】 前記3次元コンピュータモデルと前記
    複数の画像の位置合わせを行うステップが、 異なる視点及び方向からの複数の画像の各々における、
    前記3次元コンピュータモデル及び前記第2の3次元コ
    ンピュータモデルのシルエットを規定するデータを生成
    するステップを有することを特徴とする請求項19記載
    の方法。
  21. 【請求項21】 前記変換及び回転が、ユーザによって
    入力される信号に従って実行されることを特徴とする請
    求項19又は請求項20記載の方法。
  22. 【請求項22】 前記3次元コンピュータモデルと前記
    複数の画像との位置合わせを行うステップが、 前記3次元コンピュータモデルを前記複数の画像の各々
    へ投影するステップと、 前記3次元コンピュータモデルが投影される前記複数の
    画像の各々における、前記対象物体に関する前記3次元
    コンピュータモデルの投影を表す、ユーザへ表示するた
    めの画像データを生成するステップと、 前記3次元コンピュータモデルと前記位置合わせされた
    画像の少なくとも一方を、前記ユーザからの入力信号に
    従って変換及び回転するステップと、 前記変換及び回転の結果をユーザに表示するための、更
    新された画像データを生成するステップとを有すること
    を特徴とする請求項14乃至請求項18のいずれか1項
    に記載の方法。
  23. 【請求項23】 前記表示のために生成される画像デー
    タが、前記3次元コンピュータモデルが投影される前記
    複数の画像の各々における、前記画像化された対象物体
    のシルエットに関連して前記投影された3次元コンピュ
    ータモデルのシルエットを表すデータを有することを特
    徴とする請求項22記載の方法。
  24. 【請求項24】 前記3次元コンピュータモデルと前記
    複数の画像との位置合わせを行うステップが、 前記3次元コンピュータモデル及び前記位置合わせされ
    た複数の画像の少なくとも一方を変換及び回転させるス
    テップであって、 異なる相対的な回転及び変換について、 − 前記3次元コンピュータモデルを前記複数の画像の
    各々に投影するステップと、 − 前記3次元コンピュータモデルが投影される前記複
    数の画像の各々における前記対象物体の画像データと、
    前記3次元コンピュータモデルの前記投影を、これらの
    位置ずれを計算するために比較するステップを有するス
    テップと、 前記位置ずれに基づいて、前記3次元コンピュータモデ
    ルと前記位置合わせされた複数の画像との位置合わせを
    判定するステップとを有することを特徴とする請求項1
    4乃至請求項18のいずれか1項に記載の方法。
  25. 【請求項25】 前記投影された3次元コンピュータモ
    デルのシルエットと、前記対象物体の画像のシルエット
    が、前記3次元コンピュータモデルが投影される複数の
    画像の各々において比較され、前記位置ずれが前記シル
    エットの重ならない部分の大きさに基づいて計算される
    ことを特徴とする請求項24記載の方法。
  26. 【請求項26】 前記3次元コンピュータモデル及び当
    該モデル用のテクスチャデータを搬送する信号を生成す
    るステップを更に有することを特徴とする請求項14乃
    至請求項25のいずれか1項に記載の方法。
  27. 【請求項27】 前記信号を直接的又は間接的に記録す
    ることにより、前記3次元コンピュータモデル及び前記
    テクスチャデータの記録を生成するステップを更に有す
    ることを特徴とする請求項26記載の方法。
  28. 【請求項28】 対象物体の3次元コンピュータモデル
    に対するテクスチャデータを生成する方法であって、 対象物体の異なる眺望を含む複数の画像を規定するデー
    タと、前記複数の画像の相対的な位置及び向きを規定す
    るデータを受信するステップと、 前記複数の画像に対して未定義な位置及び向きを有す
    る、前記対象物体の3次元コンピュータモデルを規定す
    るデータを受信するステップと、 前記複数の画像の前記相対的な位置及び向きを規定する
    データに基づいて、前記複数の画像及び前記3次元コン
    ピュータモデルを同一の3次元空間に配置し、前記3次
    元コンピュータモデル及び前記複数の画像の前記相対的
    な位置及び向きを調整するための処理を実行するステッ
    プと、 前記相対的な位置及び向きを調整するための処理の後
    に、前記複数の画像から前記3次元コンピュータモデル
    に対するテクスチャデータを生成するステップとを有す
    ることを特徴とする方法。
  29. 【請求項29】 対象物体の3次元コンピュータモデル
    に対するテクスチャデータを生成する装置であって、 対象物体の異なる眺望を含む複数の画像を規定するデー
    タと、前記複数の画像の相対的な位置及び向きを規定す
    るデータを受信する手段と、 前記複数の画像に対して未定義な位置及び向きを有す
    る、前記対象物体の3次元コンピュータモデルを規定す
    るデータを受信する手段と、 前記複数の画像の前記相対的な位置及び向きを規定する
    データに基づいて、前記複数の画像及び前記3次元コン
    ピュータモデルを同一の3次元空間に配置し、前記3次
    元コンピュータモデル及び前記複数の画像の前記相対的
    な位置及び向きを調整するための処理を実行する手段
    と、 前記相対的な位置及び向きを調整するための処理の後
    に、前記複数の画像から前記3次元コンピュータモデル
    に対するテクスチャデータを生成する手段とを有するこ
    とを特徴とする方法。
  30. 【請求項30】 対象物体の3次元コンピュータモデル
    に対するテクスチャデータを生成する方法であって、 対象物体の異なる眺望を含む複数の画像を規定するデー
    タを受信するステップと、 前記3次元コンピュータモデル及び前記複数の画像の相
    対的な位置及び向きを、前記複数の画像の前記相対的な
    位置及び向きを変えることなく変更するための処理を実
    行するステップと、 前記複数の画像の前記変更されない相対的な位置及び向
    き及び、前記3次元コンピュータモデル及び前記複数の
    画像の前記変更された相対的な位置及び向きに基づい
    て、前記複数の画像から前記3次元コンピュータモデル
    に対するテクスチャデータを生成するステップとを有す
    ることを特徴とする方法。
  31. 【請求項31】 対象物体の3次元コンピュータモデル
    に対するテクスチャデータを生成する装置であって、 対象物体の異なる眺望を含む複数の画像を規定するデー
    タを受信する手段と、前記3次元コンピュータモデル及
    び前記複数の画像の相対的な位置及び向きを、前記複数
    の画像の前記相対的な位置及び向きを変えることなく変
    更するための処理を実行する手段と、 前記複数の画像の前記変更されない相対的な位置及び向
    き及び、前記3次元コンピュータモデル及び前記複数の
    画像の前記変更された相対的な位置及び向きに基づい
    て、前記複数の画像から前記3次元コンピュータモデル
    に対するテクスチャデータを生成する手段とを有するこ
    とを特徴とする装置。
  32. 【請求項32】 プログラム可能な処理装置が、請求項
    13、請求項29及び請求項31の少なくとも1つに記
    載の装置として構成されるようにする命令を格納する記
    憶装置。
  33. 【請求項33】 プログラム可能な処理装置が、請求項
    14、請求項28及び請求項30の少なくとも1つに記
    載の方法を実行可能なようにする命令を格納する記憶装
    置。
  34. 【請求項34】 プログラム可能な処理装置が、請求項
    13、請求項29及び請求項31の少なくとも1つに記
    載の装置として構成されるようにする命令を搬送する信
    号。
  35. 【請求項35】 プログラム可能な処理装置が、請求項
    14、請求項28及び請求項30の少なくとも1つに記
    載の方法を実行可能なようにする命令を搬送する信号。
JP2002321742A 2001-11-05 2002-11-05 画像処理装置 Withdrawn JP2003187265A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0126528.9 2001-11-05
GB0126528A GB2383245B (en) 2001-11-05 2001-11-05 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2003187265A true JP2003187265A (ja) 2003-07-04

Family

ID=9925168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002321742A Withdrawn JP2003187265A (ja) 2001-11-05 2002-11-05 画像処理装置

Country Status (3)

Country Link
US (1) US6975326B2 (ja)
JP (1) JP2003187265A (ja)
GB (1) GB2383245B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010510569A (ja) * 2006-11-17 2010-04-02 トムソン ライセンシング 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
KR102173190B1 (ko) * 2019-07-29 2020-11-02 주식회사 디오에프연구소 3차원 스캐닝 장치 및 방법

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3854033B2 (ja) * 2000-03-31 2006-12-06 株式会社東芝 機構シミュレーション装置及び機構シミュレーションプログラム
GB0224449D0 (en) * 2002-10-21 2002-11-27 Canon Europa Nv Apparatus and method for generating texture maps for use in 3D computer graphics
EP1588327B1 (en) * 2003-01-17 2018-09-26 Koninklijke Philips N.V. Full depth map acquisition
GB2400288B (en) * 2003-04-02 2005-12-28 Canon Europa Nv Generating texture maps for use in 3D computer graphics
GB0310504D0 (en) 2003-05-07 2003-06-11 Canon Europa Nv Photographing apparatus,device and method for obtaining images to be used for creating three-dimensional model
GB2405776B (en) * 2003-09-05 2008-04-02 Canon Europa Nv 3d computer surface model generation
GB2406252B (en) 2003-09-18 2008-04-02 Canon Europa Nv Generation of texture maps for use in 3d computer graphics
GB2415344B (en) * 2004-06-14 2010-10-06 Canon Europa Nv Texture data compression and rendering in 3D computer graphics
US8396329B2 (en) * 2004-12-23 2013-03-12 General Electric Company System and method for object measurement
CN100462675C (zh) * 2005-12-23 2009-02-18 鸿富锦精密工业(深圳)有限公司 三次元离线扫描编程系统及方法
BRPI0721462A2 (pt) * 2007-03-23 2013-01-08 Thomson Licensing sistema e mÉtodo para classificaÇço de regiço de imagens em 2d para conversço de 2d para 3d
CN101673312B (zh) * 2008-09-08 2012-12-19 鸿富锦精密工业(深圳)有限公司 特征元素对齐方法
US8422825B1 (en) * 2008-11-05 2013-04-16 Hover Inc. Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery
US8339583B2 (en) * 2009-07-17 2012-12-25 The Boeing Company Visual detection of clear air turbulence
EP2462537A1 (en) 2009-08-04 2012-06-13 Eyecue Vision Technologies Ltd. System and method for object extraction
US9595108B2 (en) * 2009-08-04 2017-03-14 Eyecue Vision Technologies Ltd. System and method for object extraction
ES2743529T3 (es) * 2011-11-08 2020-02-19 Saab Ab Procedimiento y sistema de determinación de una relación entre una primera escena y una segunda escena
DE102013014475B4 (de) 2012-08-29 2020-11-12 Technische Universität Ilmenau Verfahren zur Erkennung und Kompensation von Messabweichungen während des Betriebes einer optischen Messvorrichtung, optisches Messverfahren und optische Messvorrichtung
US10588597B2 (en) 2012-12-31 2020-03-17 Intuitive Surgical Operations, Inc. Systems and methods for interventional procedure planning
US9269022B2 (en) 2013-04-11 2016-02-23 Digimarc Corporation Methods for object recognition and related arrangements
FR3013492B1 (fr) * 2013-11-15 2017-04-14 Ortery Tech Inc Procede utilisant des donnees de geometrie 3d pour une presentation et une commande d'image de realite virtuelle dans un espace 3d
US9489765B2 (en) 2013-11-18 2016-11-08 Nant Holdings Ip, Llc Silhouette-based object and texture alignment, systems and methods
CN107073346A (zh) 2014-09-10 2017-08-18 孩之宝公司 具有手动操作的扫描器的玩具系统
CN105657210B (zh) * 2016-02-02 2019-10-18 上海玮舟微电子科技有限公司 3d打印显示方法、系统及电子设备
US10565733B1 (en) * 2016-02-28 2020-02-18 Alarm.Com Incorporated Virtual inductance loop
EP3220357A3 (de) * 2016-03-15 2018-01-10 Siemens Healthcare GmbH Modellhaftes erzeugen und darstellen von dreidimensionalen objekten
CN113469877B (zh) * 2021-09-01 2021-12-21 北京德风新征程科技有限公司 物体展示方法、场景展示方法、设备和计算机可读介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347508B2 (ja) * 1995-02-24 2002-11-20 キヤノン株式会社 撮像画像処理装置および撮像画像処理方法
US6640004B2 (en) * 1995-07-28 2003-10-28 Canon Kabushiki Kaisha Image sensing and image processing apparatuses
JP3869876B2 (ja) 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
US6081273A (en) * 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US6356272B1 (en) * 1996-08-29 2002-03-12 Sanyo Electric Co., Ltd. Texture information giving method, object extracting method, three-dimensional model generating method and apparatus for the same
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
DE69823116D1 (de) 1997-08-05 2004-05-19 Canon Kk Bildverarbeitungsverfahren und -gerät
JPH11328441A (ja) 1998-05-11 1999-11-30 Hitachi Ltd グラフィックス表示制御方法およびコンピュータグラフイックス
US6281904B1 (en) * 1998-06-09 2001-08-28 Adobe Systems Incorporated Multi-source texture reconstruction and fusion
US6563499B1 (en) 1998-07-20 2003-05-13 Geometrix, Inc. Method and apparatus for generating a 3D region from a surrounding imagery
JP4025442B2 (ja) * 1998-12-01 2007-12-19 富士通株式会社 三次元モデル変換装置及び方法
JP2000268189A (ja) 1999-03-18 2000-09-29 Airemu Software Engineering Kk 画像表示方法、画像表示装置およびそれを備えた遊技機並びにプログラムを記憶した記憶媒体
JP2000339499A (ja) * 1999-05-27 2000-12-08 Mitsubishi Electric Corp テクスチャマッピング・テクスチャモザイク処理装置
DE60028075D1 (de) 1999-11-23 2006-06-22 Canon Kk Bildverarbeitungsgerät
GB2358307B (en) 1999-11-25 2004-03-24 Canon Kk Image processing apparatus
US7065242B2 (en) 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US7728848B2 (en) 2000-03-28 2010-06-01 DG FastChannel, Inc. Tools for 3D mesh and texture manipulation
GB2369541B (en) 2000-10-27 2004-02-11 Canon Kk Method and aparatus for generating visibility data
EP1204073B1 (en) 2000-10-27 2007-01-31 Canon Kabushiki Kaisha Image generation method and apparatus
GB2369260B (en) 2000-10-27 2005-01-19 Canon Kk Method and apparatus for the generation of composite images
GB2377870B (en) 2001-05-18 2005-06-29 Canon Kk Method and apparatus for generating confidence data
GB2378337B (en) 2001-06-11 2005-04-13 Canon Kk 3D Computer modelling apparatus
GB0114157D0 (en) 2001-06-11 2001-08-01 Canon Kk 3D Computer modelling apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010510569A (ja) * 2006-11-17 2010-04-02 トムソン ライセンシング 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
JP4896230B2 (ja) * 2006-11-17 2012-03-14 トムソン ライセンシング 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
KR102173190B1 (ko) * 2019-07-29 2020-11-02 주식회사 디오에프연구소 3차원 스캐닝 장치 및 방법
WO2021020883A1 (ko) * 2019-07-29 2021-02-04 주식회사 디오에프연구소 3차원 스캐닝 장치 및 방법

Also Published As

Publication number Publication date
GB2383245B (en) 2005-05-18
US6975326B2 (en) 2005-12-13
GB2383245A (en) 2003-06-18
GB0126528D0 (en) 2002-01-02
US20030085890A1 (en) 2003-05-08

Similar Documents

Publication Publication Date Title
JP2003187265A (ja) 画像処理装置
US6954212B2 (en) Three-dimensional computer modelling
US10636206B2 (en) Method and system for generating an image file of a 3D garment model on a 3D body model
EP1355277B1 (en) Three-dimensional computer modelling
US10867453B2 (en) Method and system for generating an image file of a 3D garment model on a 3D body model
CN104937635B (zh) 基于模型的多假设目标追踪器
CN106780619B (zh) 一种基于Kinect深度相机的人体尺寸测量方法
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
CN108027979B (zh) 用于角色动画的鲁棒的属性转移
Stamos et al. Integration of range and image sensing for photo-realistic 3D modeling
Xi et al. Analysis of segmented human body scans
Pagani et al. Dense 3D Point Cloud Generation from Multiple High-resolution Spherical Images.
Wang et al. Dynamic human body reconstruction and motion tracking with low-cost depth cameras
CN117036612A (zh) 一种基于神经辐射场的三维重建方法
US11645800B2 (en) Advanced systems and methods for automatically generating an animatable object from various types of user input
Wuhrer et al. Finite element based tracking of deforming surfaces
CN114708382A (zh) 基于增强现实的三维建模方法、装置、存储介质、设备
EP3779878A1 (en) Method and device for combining a texture with an artificial object
JP2003123057A (ja) 3次元形状モデルの生成方法および装置
Chen et al. Sketching in the air: a vision-based system for 3d object design
CN113298932B (zh) 一种小行星3d模拟模型立体重建方法
CN117876492A (zh) 姿态调整方法、装置、设备及存储介质
CN116724331A (zh) 系列照片的三维建模
Alam et al. Environment modelling for robot vision using kinect
Bengtsson Indoor 3D Mapping using Kinect

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110