JP2002222412A - 画像処理装置 - Google Patents

画像処理装置

Info

Publication number
JP2002222412A
JP2002222412A JP2001296570A JP2001296570A JP2002222412A JP 2002222412 A JP2002222412 A JP 2002222412A JP 2001296570 A JP2001296570 A JP 2001296570A JP 2001296570 A JP2001296570 A JP 2001296570A JP 2002222412 A JP2002222412 A JP 2002222412A
Authority
JP
Japan
Prior art keywords
computer model
dimensional computer
subject
support
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001296570A
Other languages
English (en)
Other versions
JP2002222412A5 (ja
JP4497772B2 (ja
Inventor
Richard Antony Kirk
アンソニー カーク リチャード
Alexander R Lyons
ラルフ リオンズ アレキサンダー
Adam M Baumberg
マイケル ボームバーグ アダム
Richard Ian Taylor
イアン テイラー リチャード
Aaron William Christopher Kotcheff
ウィリアム クリストファー コッチェフ アーロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2002222412A publication Critical patent/JP2002222412A/ja
Publication of JP2002222412A5 publication Critical patent/JP2002222412A5/ja
Application granted granted Critical
Publication of JP4497772B2 publication Critical patent/JP4497772B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

(57)【要約】 (修正有) 【課題】異なる位置及び向きで記録された画像を処理し
て、被写体オブジェクト単独、又は被写体オブジェクト
及びキャリブレーションオブジェクトの三次元コンピュ
ータモデルを生成する。 【解決手段】被写体オブジェクト210をキャリブレー
ションオブジェクトの上に直接に配置するのではなく、
オブジェクト支持台220に乗せて撮影することによ
り、ユーザはキャリブレーションのパターン及び色を選
択できると共に、撮影位置及び向きを選択できる。オブ
ジェクト支持台220の、被写体オブジェクト210を
乗せる上面を被写体オブジェクト210の底面の下方か
ら突出させないようにすることにより、ユーザは照明条
件を設定できる。被写体オブジェクト210の背後に背
景スクリーン228を配置して撮影することにより、ユ
ーザは撮影時に写真マット34を配置する面を選択でき
る。

Description

【発明の詳細な説明】
【0001】本発明は、オブジェクトの画像の記録及び
画像が記録された位置及び向きを判定し且つオブジェク
トの三次元(3D)コンピュータモデルを生成するため
の画像データのコンピュータ処理に関する。更に特定す
れば、本発明は、オブジェクトと共に撮影するためのパ
ターンを規定されたキャリブレーションオブジェクトの
使用と、画像におけるキャリブレーションオブジェクト
のパターンに基づいて撮影位置及び向きを判定し且つ計
算された位置及び向きを使用してオブジェクトの3Dコ
ンピュータモデルを定義するデータを生成するための画
像データのコンピュータ処理とに関する。
【0002】オブジェクトの3Dコンピュータモデルは
多くの用途で有益である。すなわち、3Dンピュータモ
デルはコンピュータゲームや、コンピュータ利用設計
(CAD)の用途に頻繁に使用されている。更に、現在で
は、インターネットサイトなどの装飾のような用途でオ
ブジェクト3Dコンピュータモデルの需要が増してい
る。
【0003】オブジェクトの3Dコンピュータモデルを
生成する多くの方法が知られている。すなわち、モデル
を生成すべき被写体オブジェクトを既知の特徴のパター
ンを有する平坦な二次元キャリブレーションオブジェク
トの上に乗せ、その被写体オブジェクトの画像をキャリ
ブレーションオブジェクトと共に異なる位置及び向きで
記録するという方法が知られている。その後、記録され
た各画像を処理して、画像中のキャリブレーションオブ
ジェクトのパターンにおける特徴の位置に基づいて、そ
の画像が記録された位置と向きを計算する。次に、入力
画像と、計算された位置及び向きとを使用して被写体オ
ブジェクトの3Dコンピュータモデルを生成する。
【0004】この方法の例は、例えば、Niemの「Automa
tic Reconstruction of 3D ObjectsUsing A Mobile Cam
era」(Image and Vision Computing 17(1999
年)、125〜134ページ)、Gortler他の「The Lum
igraph」(Computer GraphicsProceedings, Annual Con
ference Series、1996年、ACM-0-89791-764-4/96/0
08、JP−A−9−170914及び出願人の同時係属
特許出願PCT/GB00/04469(WO−A−0
1/39124)(これらの内容は全て参考として本明
細書に取り入れられている)などに記載されている。
【0005】しかし、本発明の発明者は、この公知の方
法にはいくつかの問題点があることを発見した。すなわ
ち、本発明の発明者はこの方法を使用して生成される3
Dコンピュータモデルが不正確になる虞れがあることを
発見した。
【0006】従って、本発明の目的はこの問題に対処す
ることにある。
【0007】本発明の発明者は、3Dコンピュータモデ
ルの不正確さは以下に述べるいくつかの要因によって起
こることを認識した。
【0008】すなわち、キャリブレーションオブジェク
トに、被写体オブジェクトの底部とつながっているよう
に見える影がさすことが多い。従って、記録された画像
において、処理装置が被写体オブジェクトと影を区別で
きないことがあり、そのような場合、影は被写体オブジ
ェクトの一部であると判定されてしまう。様々に異なる
位置及び向きで画像を記録するために被写体オブジェク
トとキャリブレーションオブジェクトをカメラに対して
移動させた場合、影も動くため、この問題は一層深刻に
なる。これに対し、カメラ自体を動かした場合には、カ
メラが投じた影が動くことになる。
【0009】同様に、キャリブレーションオブジェクト
のパターンの特徴も二次元記録画像中で被写体オブジェ
クトに及んでしまう場合が多く、そのため、処理装置は
それを被写体オブジェクトの一部であると判定する。
【0010】同様に、被写体オブジェクト及びキャリブ
レーションオブジェクトが撮影時に載置される面にある
特徴(床面又はテーブル上のマークなど)も、記録画像
の中で被写体オブジェクトの輪郭にかかることが多く、
そのため、処理装置はこれを被写体オブジェクトの一部
であると判定してしまう。
【0011】更に、(処理装置による入力画像中の特徴
パターンの検出を助けるために)キャリブレーションオ
ブジェクト上の特徴のパターンを強調する(引き立たせ
る)ようにキャリブレーションオブジェクトの色を選択
することが望ましい場合が多い。しかし、キャリブレー
ションオブジェクトの色が被写体オブジェクトに反射す
ることが多く、そのため、生成される3Dコンピュータ
モデルの面の色は不正確なものになる。
【0012】更に、仰角が小さい場合に被写体オブジェ
クトの画像を記録するのは困難である。これは、仰角が
小さい場合、被写体オブジェクトが乗っているキャリブ
レーションオブジェクトの特徴のパターンが画像の中
で、処理装置による入力画像中の特徴の確実な検出が不
可能になるほどに歪んでしまうためである。小さな仰角
から画像を記録できないことによって、被写体オブジェ
クトの詳細な部分を示す入力画像を利用できず、その結
果、それらの部分は3Dコンピュータモデルにおいて不
正確に再現される。
【0013】従って、本発明の目的は上記の問題点の1
つ又はいくつかに対処することである。
【0014】解決方法に関して、発明者は、被写体オブ
ジェクト及びキャリブレーションオブジェクトに関して
対称である拡散照明の使用により影の問題に対処できる
ことを認めた。しかし、これを実際に実現することは非
常に困難であり且つ/又はそのために高い費用を要す
る。
【0015】従って、本発明の目的はそれとは別の解決
方法を提供することである。
【0016】本発明によれば、三次元コンピュータモデ
ルを生成するために被写体オブジェクトの画像を記録し
且つ処理する方法であって、被写体オブジェクトをオブ
ジェクト支持台によりキャリブレーションオブジェクト
に対して固定された構成で保持する一方で、異なるカメ
ラ位置及び向きで画像を記録し、その画像データを処理
して、画像中に見えるキャリブレーションオブジェクト
からの特徴に基づき、撮影位置及び向きを判定し、計算
された位置及び向きを使用して、被写体オブジェクト単
独又は被写体オブジェクトとオブジェクト支持台双方の
三次元コンピュータモデルを生成する方法が提供され
る。
【0017】また、本発明は処理装置及びコンピュータ
プログラムを含めて、上記の方法を実施するための装置
構成要素、及びそれに関連する方法も提供する。
【0018】被写体オブジェクトを直接にキャリブレー
ションオブジェクトの上に配置するのではなく、被写体
オブジェクトを(例えば、オブジェクトスタンドに乗せ
て)キャリブレーションオブジェクトの面から離して撮
影することにより、ユーザはより大きな融通性をもって
キャリブレーションオブジェクト上のパターン、キャリ
ブレーションオブジェクトの色及び撮影位置と向きを選
択できるようになる。これは、被写体オブジェクトをキ
ャリブレーションオブジェクトから離間させることによ
って、キャリブレーションオブジェクトのパターンの特
徴が入力画像中で被写体オブジェクトにまでかかって現
れるという問題、キャリブレーションオブジェクトの色
が被写体オブジェクトに反射してしまうという問題、及
び小さな仰角から入力画像を記録する問題の全てが解決
されるためである。
【0019】被写体オブジェクトが乗せられるオブジェ
クト支持台の上面の形状及び大きさは、被写体オブジェ
クトをオブジェクト支持台の上に乗せたときに被写体オ
ブジェクトの底面の下から水平の面が大きく突出するこ
とのないように定められるのが好ましい。このようにす
ると、入力画像中に被写体オブジェクトの一部として影
が現れるという問題も解決されるため、ユーザはより大
きな融通性をもって照明条件を設定できるようになる。
【0020】被写体オブジェクトはその背後にスクリー
ンを配置した状態で撮影されるのが好ましい。このよう
にすると、面上のマークが入力画像中に被写体の一部と
して現れるという問題が解決されるため、ユーザはより
大きな融通性をもって撮影時にキャリブレーションオブ
ジェクト、オブジェクト支持台及び被写体オブジェクト
を配置する面を選択できるようになる。
【0021】次に、添付の図面を参照して、単なる一例
としての本発明の実施形態を説明する。
【0022】[第1の実施形態]図1を参照すると、本
発明の一実施形態は、従来の通りに1つ以上のプロセッ
サ、複数のメモリ、グラフィックスカードなどを含むパ
ーソナルコンピュータのような処理装置2と、従来通り
のパーソナルコンピュータモニタのような表示装置4
と、キーボード、マウスなどのユーザ入力装置6と、プ
リンタ8と、WACOM製造のPL400などの、制御
可能画素を有するフラットパネルで構成される表示パネ
ル10とを具備する。
【0023】処理装置2は、例えば、ディスク12など
のデータ記憶媒体に格納されたデータとして、及び/又
は、遠隔データベース等からインターネットなどの通信
ネットワーク(図示せず)を介する送信、あるいは大気
中を通過する送信により処理装置2に入力され、及び/
又は、キーボードなどのユーザ入力装置6を介してユー
ザにより入力される信号14として入力されるプログラ
ミング命令に従って動作するようにプログラムされてい
る。
【0024】以下に更に詳細に説明するが、それらのプ
ログラミング命令は、入力画像が記録された位置及び向
きを計算するために、異なる位置と向きで記録された1
つ以上の被写体オブジェクトの複数の画像を定義する入
力データを処理し、且つ、計算された位置及び向きを使
用して、被写体オブジェクトの三次元コンピュータモデ
ルを定義するデータを生成するように処理装置2を構成
させるための命令である。本実施形態では、被写体オブ
ジェクトはオブジェクト支持台の上に配置され、被写体
オブジェクトとオブジェクト支持台は既知の特徴パター
ンを有するキャリブレーションオブジェクト(本実施形
態においては二次元写真マット)の上で撮影される。入
力画像が記録されたときの位置と向きは、画像中のキャ
リブレーションオブジェクトの特徴の位置を検出するこ
とにより計算される。以下に更に詳細に説明するが、被
写体オブジェクトを撮影するためにオブジェクト支持台
を使用することにより、被写体オブジェクトの正確な三
次元コンピュータモデルを一貫性をもって得ることがで
きる。
【0025】処理装置2は、プログラミング命令により
プログラミングされたとき、処理動作を実行するための
いくつかの機能ユニットとして構成されたと考えること
ができる。そのような機能ユニットの例及びそれらの相
互接続関係を図1に示す。しかし、図1に示すユニット
及び相互接続は概念上のものであり、理解を助けるとい
う目的のために一例として示されているにすぎない。従
って、それらは、処理装置2のプロセッサ、メモリなど
が構成されるユニットや接続を必ずしも表してはいな
い。
【0026】図1に示す機能ユニットを説明すると、中
央制御装置20はユーザ入力装置6からの入力を処理す
ると共に、その他の機能ユニットの制御及び処理を実行
する。メモリ24は、中央制御装置20及びその他の機
能ユニットにより使用されるべく設けられている。
【0027】マット発生器30は、紙などの記録媒体上
に写真マット34をプリントするため、又は表示パネル
10に写真マットを表示するためにプリンタ8又は表示
パネル10を制御する制御信号を発生する。以下に更に
詳細に説明するが、写真マットは所定の特徴パターンを
有し、三次元コンピュータモデルを生成すべき被写体オ
ブジェクトはオブジェクト支持台上の、プリント済み写
真マット34又は写真マットが表示されている表示パネ
ル10の上に配置される。その後、被写体オブジェク
ト、オブジェクト支持台及び写真マットの画像を記録し
て、処理装置2に入力する。
【0028】プリンタ8が写真マットをプリントする記
録媒体の色は、記録媒体と写真マットのパターンの特徴
とのコントラストを最大にするように選択される(これ
により、処理装置2により特徴が入力画像に正しく位置
決めされる確率が向上する)。本実施形態では、被写体
オブジェクトをオブジェクト支持台上に配置し、それに
より、被写体オブジェクトを写真マットから離して高い
位置に上げることにより、プリントされた写真マットか
ら被写体オブジェクトへ反射される光の影響を最小限に
抑えるため、後に生成される3Dコンピュータモデルに
悪影響を及ぼすことなく、色を自由に選択できる。実際
には、記録媒体の色として明るい、不飽和色を選択する
と、良い結果が得られることが確かめられた。
【0029】マット発生器30は、処理装置2が入力画
像記録時の位置及び向きを計算する際に使用するため
の、写真マット上にプリント又は表示された特徴のパタ
ーンを定義するデータを格納している。すなわち、マッ
ト発生器30は、特徴パターンを定義するデータと共
に、特徴パターンに対する座標系(実際には写真マット
の基準位置及び基準向きを定義する)を格納しており、
処理装置2は入力画像が記録されたときの位置及び向き
を定義済み座標系において(従って、基準位置及び基準
向きに対して)計算する。
【0030】本実施形態では、写真マットのパターン
は、例えば、同時係属PCT特許出願PCT/GB00
/04469(WO−A−01/39124)(これら
の内容は全て参考として本明細書に取り入れられてい
る)に記載されているような特徴の空間クラスタ、ある
いは、例えば、JP−A−9−170914に記載され
ているような、各々の対応するドットが一意のものであ
るように各ドットが異なる色相/輝度の組み合わせを有
する着色ドットの既知のパターン、例えば、Niemの「Au
tomatic Reconstruction of 3D Objects Using A Mobil
e Camera」(Imageand Vision Computing 17(1999
年)、125〜134ページに掲載)に記載されている
ような、各象限で複数の同心円を寸法がわかっている半
径方向線分及び位置マーカで結ぶことにより形成される
パターン、又はGortler他の「The Lumigraph」(Comput
er Graphics Proceedings, Annual Conference Serie
s、1996年、ACM-0-89791-764-4/96/008に記載され
ているような、それぞれ異なる直径を有する複数の同心
リングからキャリブレーションされるパターンなどを含
む。
【0031】本実施形態の以下の説明においては、プリ
ント写真マット34を生成するために、パターンはプリ
ンタ8により記録媒体(本実施形態では、シート紙)に
プリントされるものと想定するが、先に述べた通り、表
示パネル10にパターンを表示することも可能であろ
う。
【0032】入力データ記憶装置40は、例えば、ディ
スク42などの記憶装置に格納されるデータとして、又
は処理装置2へ送信される信号44として、又はユーザ
入力装置6を使用して処理装置2に入力される入力デー
タを格納する。入力データは1つ以上の被写体オブジェ
クトと、オブジェクト支持台が写真マット上に配置され
た状況を示す、異なる位置及び向きで記録された複数の
画像を定義している。本実施形態では、入力データは、
写真マットの背景色又は写真マットの背景色と同じ色を
有する異なるオブジェクトを示すための写真マットの一
部と共に、被写体オブジェクト及びオブジェクト支持台
が撮影された背景を示す入力画像を更に定義している。
加えて、本実施形態では、入力データは、画像を記録し
たカメラ固有のパラメータ、すなわち、アスペクト比、
焦点距離、主点(光軸が撮影平面と交わる点)、一次半
径方向歪み係数及びスキュー角(画素格子の軸が厳密に
は直交していないことがありえるため、それらの軸が成
す角度)を定義するデータも含む。
【0033】入力画像を定義する入力データは、例え
ば、画像を記録したデジタルカメラから画素データをダ
ウンロードするか、又はスキャナ(図示せず)を使用し
て写真を走査することにより生成されても良い。固有カ
メラパラメータはユーザの側からユーザ入力装置6を使
用して入力されても良い。
【0034】カメラ計算器50は各入力画像を処理し
て、画像の中における写真マット上の特徴の位置を検出
すると共に、入力画像が記録されたときのカメラの位置
と向きを計算する。
【0035】画像データセグメンタ60は各入力画像を
処理して、被写体オブジェクト及びオブジェクト支持台
に対応する画像データを画像中のその他の画像データか
ら分離する。
【0036】サーフェスモデラ70は画像データセグメ
ンタ60により生成された分割画像データと、カメラ計
算器50により生成された、画像が記録されたときの位
置及び向きを定義するデータとを処理して、入力画像に
おける被写体オブジェクト及びオブジェクト支持台の実
際の面を表現する3Dコンピュータモデルを定義するデ
ータを生成する。
【0037】サーフェステクスチャラ80は、サーフェ
スモデラ70により生成されたサーフェスモデルにレン
ダリングするために、入力画像データからテクスチャデ
ータを生成する。
【0038】オブジェクト/支持台セパレータ90は、
オブジェクト支持台に対応するモデルの部分を削除し
て、被写体オブジェクト単独の三次元コンピュータモデ
ルを残すように、サーフェスモデラ70により生成され
た被写体オブジェクト及びオブジェクト支持台の三次元
コンピュータモデルを修正するための処理を実行する。
【0039】ディスプレイプロセッサ110は、中央制
御装置20の制御の下で、表示装置4を介してユーザに
対し命令を表示する。更に、中央制御装置20の制御の
下に、ディスプレイプロセッサ110は、サーフェスモ
デラ70及び/又はオブジェクト/支持台セパレータ9
0により生成されたサーフェスモデルデータを処理し且
つサーフェステクスチャラ80により生成されたテクス
チャデータをサーフェスモデル上にレンダリングするこ
とにより、ユーザが選択した視点からの3Dコンピュー
タモデルの画像を表示する。
【0040】出力データ記憶装置120は、入力データ
ごとにカメラ計算器50により計算されたカメラの位置
及び向きと、画像データセグメンタ60により生成され
た各入力画像からの、被写体オブジェクト及びオブジェ
クト支持台に関連する画像データと、サーフェスモデラ
70、オブジェクト/支持台セパレータ90及びサーフ
ェステクスチャラ80により生成されたサーフェスモデ
ル及びそのテクスチャデータとを格納する。中央制御装
置20は出力データ記憶装置120からのデータの出力
を、例えば、ディスク122などの記憶装置へのデータ
及び/又は信号124として制御する。
【0041】図2を参照して説明する。本実施形態で
は、写真マット34に穴130を残すように切り抜かれ
た中央ブランク領域の周囲に、写真マット34の特徴パ
ターンがプリンタ8によりプリントされる。
【0042】穴130を有する写真マット34は、この
後、例えば、のり付けによりミラー140に接着され
る。以下に更に詳細に説明するが、穴130とミラー1
40により、被写体オブジェクトの底面の反射を入力画
像の中で見ることができるので、三次元コンピュータモ
デルにおける被写体オブジェクトの底面のテクスチャデ
ータを生成できるのである。
【0043】図3を参照すると、プリント写真マット3
4が接着されたミラー140が平坦な面200に配置さ
れており、3Dコンピュータモデルを生成すべき被写体
オブジェクト210は、オブジェクト支持台220が穴
130に位置決めされ且つマット上のパターンを構成し
ている特徴により包囲されるように、写真マット34上
のオブジェクト支持台220の上に配置されている。
【0044】オブジェクト支持台220を使用して被写
体オブジェクト210を写真マット34から離れるよう
に持ち上げることにより、写真マット34上の影はオブ
ジェクト支持台220には接触するが、被写体オブジェ
クト210に接触することはない。同様に、写真マット
のパターンの特徴は、記録された画像中で、オブジェク
ト支持台220にのみ接触するように現れ、被写体オブ
ジェクト210には現れない。従って、処理装置2によ
り生成される3Dコンピュータモデルにおいて、オブジ
ェクト支持台220のモデルに誤りは起こるかもしれな
いが、被写体オブジェクト210は正確にモデル化され
る。しかし、オブジェクト支持台220の誤りは重要で
はなく、本実施形態では、オブジェクト/支持台セパレ
ータ90がオブジェクト支持台220の3Dコンピュー
タモデルを除去してしまい、被写体オブジェクト210
の3Dコンピュータモデルのみが残る。
【0045】更に、以下に説明するように、被写体オブ
ジェクト210を写真マット34の上方へ持ち上げるこ
とにより、仰角の低い画像でも、写真マット34上の特
徴のパターンがそれほど歪まず、処理装置2が入力画像
中の特徴を識別し、撮影位置及び撮影の向きを計算する
ための処理を実行できる程度には記録することができ
る。従って、被写体オブジェクト210の必要な詳細を
示す画像を記録し、処理することが可能であるため、被
写体オブジェクト210の3Dコンピュータモデルの正
確さは一層向上する。
【0046】本実施形態では、オブジェクト支持台22
0は、ガラスなどの透明材料から成る水平な板222を
4本の円筒形の不透明な脚部224により支える構造を
有する。従って、水平板222は透明であるので、ミラ
ー140の反射として被写体オブジェクト210の底面
が見える。
【0047】被写体オブジェクト210及びオブジェク
ト支持台220の背後には、ほぼ一様な色の背景スクリ
ーン228が配置されている。このようにすれば、被写
体オブジェクト210(又はオブジェクト支持台22
0)の一部が記録画像の中で面200を背景にして現れ
ることはなく、被写体オブジェクト210のみが背景ス
クリーンを背にして現れることになる。これにより、ど
のような入力画像においても、面200上のマーク又は
面200の不均一な色の領域などが被写体オブジェクト
210の輪郭線に触れることがなくなるため、ユーザは
写真マット34を配置する面200を自由に選択でき
る。従って、以下に更に詳細に説明するように、背景ス
クリーン228の使用は、被写体オブジェクト210及
びオブジェクト支持台220に関連する画像データを画
像データセグメンタ60によるセグメンテーション処理
の間に他の画像データから分離する処理を助けるという
効果を有する。
【0048】被写体オブジェクト210の様々に異なる
部分を示すため、被写体オブジェクト210、オブジェ
クト支持台220及び写真マット34の画像はデジタル
カメラ230を使用して様々に異なる位置と向きで記録
される。本実施形態では、カメラ230により記録され
る画像を定義するデータはワイヤ232を介して信号4
4として処理装置2に入力される。
【0049】すなわち、本実施形態では、カメラ230
と背景スクリーン228の位置は固定されたままであ
り、被写体オブジェクト210及びオブジェクト支持台
220を乗せた写真マット34が面200上で移動(並
進)及び(例えば、矢印240の方向に)回転され、カ
メラ230に対して様々に異なる位置と向きで被写体オ
ブジェクト210の写真が記録されるのである。面20
0上での写真マット34の回転及び並進中、被写体オブ
ジェクト210とオブジェクト支持台220はマット3
4に対して動かない。
【0050】図4aから図4eは、本実施形態におい
て、カメラ230の場所と視角をどのように選択するか
及びオブジェクト支持台220の高さをどのように設定
するかを示している。
【0051】図4aにおいて、カメラ230を位置
(i)、すなわち、被写体オブジェクト210を見下ろ
す仰角の大きい位置に配置した場合、図4bに示すよう
に、カメラ230により記録される各画像中、被写体オ
ブジェクト210の最上部の輪郭は背景スクリーン22
8を背にして現れるが、被写体オブジェクト210の下
の部分の輪郭は、写真マット34及び/又はオブジェク
ト支持台220の水平板222を背景にして現れる。こ
の場合、水平板222及び写真マット34の影が被写体
オブジェクト210の一部として現れ、その結果、画像
データセグメンタ60により被写体オブジェクト210
から分離できないこともありうるので望ましくない。同
様に、写真マット34のパターンの1つ以上の特徴が入
力画像中の被写体オブジェクト210にまで及び(その
ために、被写体オブジェクト210の一部となって現わ
れ)、その結果、画像セグメンタ60により被写体オブ
ジェクト210から分離されないことも起こりうる。
【0052】そこで、より望ましい撮影場所と視角方向
は図4aに(ii)で指示した位置であり、この位置にお
いては、カメラ230の光軸はオブジェクト支持台22
0の水平板222とほぼ一線に並んでいる。しかし、写
真マット34上の水平板222の高さが(図4aに示す
例の場合のように)余りにも低すぎると、図4cに示す
ように、カメラ230により記録される各入力画像にお
いて、写真マット34上のパターンの特徴を互いに識別
できないほどに写真マット34がひずんで現れる。
【0053】そのため、図4dに示すように、カメラの
光軸がオブジェクト支持台220の水平板222とほぼ
一線に並ぶようにカメラ230の位置及び視角方向を選
択すると共に、写真マット34上の特徴のパターンが入
力画像中でひずまないようにオブジェクト支持台220
の高さを選択する。このようにすれば、図4dに示す構
成を使用して記録された入力画像の例を示す図4eから
わかるように、被写体オブジェクト210は背景スクリ
ーン228に囲まれ(従って、画像データセグメンタ6
0は被写体オブジェクト210に関連する画像データを
より正確に分割できる)、また、写真マット34上のパ
ターンの特徴を互いに識別することができる(従って、
カメラ計算器50は入力画像中の各特徴の位置を検出
し、それにより、入力画像が記録されたときの位置と向
きを判定することが可能である)。尚、(図4eに示す
例の場合のように)背景スクリーン228は入力画像の
縁まで伸びている必要はなく、被写体オブジェクト21
0が背景スクリーンにより囲まれるように、被写体オブ
ジェクト210の上下左右に広がっているだけで良い。
【0054】要するに、被写体オブジェクト210を写
真マット34の上方へ持ち上げる(本実施形態では、こ
れはオブジェクト支持台220を使用することにより実
現される)ことにより、写真マット34の影及び写真マ
ット34上のパターンの特徴が被写体オブジェクト21
0の輪郭まで及ばないような入力画像を記録できる。更
に、被写体オブジェクト210へ反射される色がはるか
に少なくなるため、写真マット34上のパターンの特徴
を強調するように写真マット34の色を自由に選択でき
る。また、仰角が低くても被写体オブジェクト210の
画像を記録できるため、3Dコンピュータモデルで被写
体オブジェクト210のあらゆる部分を正確にモデル化
するために適切な画像を利用できる。
【0055】加えて、被写体オブジェクト210の背後
に背景スクリーン228を配置することにより、面20
0の一部が被写体オブジェクト210にかかって現れる
ことがない入力画像を記録できるため、面200の選択
を自由に行うことができる。
【0056】図5は、カメラ230に対する様々に異な
る位置及び向きにおける被写体オブジェクト210、オ
ブジェクト支持台220及び写真マット34の入力画像
300、302、304及び306の例を示している。
【0057】本実施形態では、被写体オブジェクト21
0、オブジェクト支持台220及び写真マット34の画
像の記録と入力に続いて、別の画像を記録し、処理装置
2に入力する。この別の画像は、面200と、背景スク
リーン228と、写真マット34がプリントされている
紙と同じ色を有するオブジェクトの画像である「背景画
像」である。そのような背景画像は、写真マット34が
記録されている紙と同じ色を有する何もプリントされて
いない紙のシートを面200上の、背景スクリーン22
8の前方に配置するか、又は画像に写真マット34のパ
ターンが見えないように、写真マット34を裏返して面
200上に配置することにより記録されれば良い。
【0058】図6は、本実施形態において入力データを
処理するために処理装置2により実行される処理動作を
示す。
【0059】図6のステップS6−2では、中央制御装
置20はディスプレイプロセッサ110にユーザが処理
すべき入力データを入力することを要求するメッセージ
を表示装置4に表示させる。
【0060】ステップS6−4では、ステップS6−2
で要求に応答してユーザにより入力されたデータを入力
データ記憶装置40に格納する。すなわち、本実施形態
では、入力データは、カメラ230に対して様々に異な
る位置及び向きで記録された被写体オブジェクト21
0、オブジェクト支持台220及び写真マット34の画
像を定義する画像データと、入力画像を記録するために
写真マット34が配置された面200と、背景スクリー
ン228及び写真マット34のパターンがプリントされ
ている記録材料と同じ色を有するオブジェクトとを共に
示す「背景画像」と、入力画像を記録したカメラ230
の固有パラメータ、すなわち、縦横比、焦点距離、主点
(光軸が撮影平面と交わる点)、一次半径方向歪み係数
及びスキュー角(画素格子の軸が成す角度)を定義する
データとから構成されている。
【0061】ステップS6−6で、カメラ計算器50は
ステップS6−4で格納された入力データを処理して、
入力画像ごとに写真マット34に対する(従って、被写
体オブジェクト210及びオブジェクト支持台220に
対する)カメラ230の位置と向きを判定する。この処
理は、入力画像ごとに、写真マット34のパターンを構
成している画像中の特徴を検出し、それらの特徴を格納
されている写真マットのパターンと比較して、マットに
対するカメラ230の位置と向きを判定することから成
る。ステップS6−6でカメラ計算器50により実行さ
れる処理は、写真マット34上で使用されている特徴の
パターンによって決まる。適切な処理は、例えば、同時
係属PCT出願PCT/GB00/004469(WO
−A−01/39124)、JP−A−9−17091
4、Niemの「Automatic Reconstruction of 3D Objects
Using A Mobile Camera」(Image and Vision Computi
ng17(1999年)、125〜134ページ及びGortle
r他の「The Lumigraph」(Computer Graphics Proceedi
ngs, Annual Conference Series、1996年、ACM-0-8
9791-764-4/96/008))に説明されている。
【0062】ステップS6−8では、画像データセグメ
ンタ60は各入力画像を処理し、被写体オブジェクト2
10及びオブジェクト支持台220を表現する画像デー
タを写真マット34、写真マット34が配置されている
面200及び背景スクリーン228を表現する画像デー
タから分離する(ステップS6−8は、本実施形態で
は、以下に更に詳細に説明するように、後に被写体オブ
ジェクト210及びオブジェクト支持台220の面の3
Dコンピュータモデルを生成するときに使用するための
データを生成する予備ステップである)。
【0063】図7は、ステップS6−8で画像データセ
グメンタ60により実行される処理動作を示す。
【0064】図7を参照すると、ステップS7−2から
S7−10で、画像データセグメンタ60は、写真マッ
ト34、面200及び背景スクリーン228を表現する
が、被写体オブジェクト210及びオブジェクト支持台
220を表現しない入力画像中の色を表す量子化値のハ
ッシュテーブルを作成する。
【0065】すなわち、ステップS7−2で、画像デー
タセグメンタ60は図6のステップS6−4で格納され
た「背景画像」(すなわち、面200と、背景スクリー
ン228と、写真マット34がプリントされている材料
と同じ色を有するオブジェクトとを示す、処理装置2に
入力されるべき最終画像)における次の画素のRBGデー
タ値を読み取る。
【0066】ステップS7−4で、画像データセグメン
タ60は下記の等式に従って画素の量子化赤色(R)
値、量子化緑色(G)値及び量子化青色(B)値を計算す
る。
【0067】
【数1】 式中、「q」は量子化値、「p」はステップS7−2で読
み取られたR、G又はBの値、「t」は被写体オブジェクト
210を示す入力画像からのRGB値が背景とラベル付け
されるべき背景色にどれほど近くなければならないかを
判定する閾値である。本実施形態では、「t」は4に設
定されている。
【0068】ステップS7−6で、画像データセグメン
タ60はステップS7−4で計算された量子化R値、G値
及びB値を従来と同様に組み合わせて、「三重値(Tripl
e value)」を生成する。
【0069】ステップS7−8では、画像データセグメ
ンタ60はステップS7−4で計算された量子化R値、G
値及びB値にハッシング関数を適用して、ハッシュテー
ブルのビン(bin)を定義し、且つステップS7−6で
定義された「三重」値を定義されたビンに追加する。す
なわち、本実施形態では、画像データセグメンタ60は
下記のハッシング関数を量子化R値、G値及びB値に適用
し、ハッシュテーブルのビンを定義する。
【0070】
【数2】
【0071】すなわち、ハッシュテーブルのビンは、各
色の3つの最下位ビットにより定義される。この関数
は、各ビンが少数の「三重」値のみを有するように、デ
ータを試行し、ハッシュテーブルの利用可能なビンに分
散させるように選択されている。本実施形態では、ステ
ップS7−8で、「三重」値がビンに既に存在していな
い場合に限って「三重」値をそのビンに追加するので、
各「三重」値はハッシュテーブルに一度しか追加されな
い。
【0072】ステップS7−10では、画像データセグ
メンタ60は、背景画像中に別の画素が存在するか否か
を判定する。以上説明したように「背景」画像の各画素
を処理し終わるまで、ステップS7−2からS7−10
を繰り返す。この処理の結果、「背景」画像中の色を表
現する値を含むハッシュテーブルが生成される。
【0073】ステップS7−12からS7−48では、
画像データセグメンタ60は各入力画素を順に考慮し、
ハッシュテーブルを使用して、写真マット34、背景ス
クリーン228及び面200に関連する入力画像中のデ
ータを、被写体オブジェクト210及びオブジェクト支
持台220に関連する入力画像中のデータから分離す
る。
【0074】本実施形態では、ハッシュテーブルを生成
するためにステップS7−2からS7−10で処理され
る「背景」画像は、写真マット34上の特徴を示してい
ない。従って、ステップS7−12からS7−46で実
行される分割は被写体オブジェクト210及びオブジェ
クト支持台220に関連する画素データと、写真マット
34上の特徴に関連する画素データとを区別しない。そ
の代わりに、本実施形態では、以下に更に詳細に説明す
るように、被写体オブジェクト210及びオブジェクト
支持台220の面の3Dコンピュータモデルを生成する
ためにサーフェスモデラ70により実行される処理は、
写真マット34上の特徴に関連する画素がサーフェスモ
デルに寄与することのないように実行される。
【0075】ステップS7−12では、画像データセグ
メンタ60は次の入力画像を考慮し、ステップS7−1
4では、入力画像中の次の画素(ステップS7−14が
初めて実行される場合、これは最初の画素である)のR
値、G値及びB値を読み取る。
【0076】ステップS7−16では、画像データセグ
メンタ60は先の等式(1)を使用して、画素の量子化
R値、量子化G値及び量子化B値を計算する。
【0077】ステップS7−18では、画像データセグ
メンタ60はステップS7−16で計算された量子化R
値、G値及びB値を組み合わせて、「三重値」を生成す
る。
【0078】ステップS7−20では、画像データセグ
メンタ60は先の等式(2)に従ってハッシング関数を
ステップS7−16で計算された量子化値に適用して、
ステップS7−2からS7−10で生成されたハッシュ
テーブルのビンを定義する。
【0079】ステップS7−22では、画像データセグ
メンタ60はステップS7−20で定義されたハッシュ
テーブルのビンの「三重」値を読み取る。それらの「三
重」値は、写真マット34の材料、背景スクリーン22
8及び面200の色を表現している。
【0080】ステップS7−24では、画像データセグ
メンタ60は、ステップS7−18で生成された、現在
考慮すべき入力画像中の画素の「三重」値がハッシュテ
ーブルのビンの背景「三重」値のいずれかと同じである
か否かを判定する。
【0081】ステップS7−24で、画素の「三重」値
が背景「三重」値と同じであると判定されれば、ステッ
プS7−26で、その画素は背景画素であると判定し、
画素の値を「黒色」に設定する。
【0082】これに対し、ステップS7−24で、画素
の「三重」値が背景のどの「三重」値とも同じでないと
判定された場合には、ステップS7−28で、その画素
は被写体オブジェクト210又はオブジェクト支持台2
20の一部であると判定し、画像データセグメンタ60
は画素の値を「白色」に設定する。
【0083】ステップS7−30では、画像データセグ
メンタ60は、入力画像に別の画素が存在するか否かを
判定する。入力画像中の各画素を以上説明したように処
理し終わるまで、ステップS7−14からS7−30を
繰り返す。
【0084】ステップS7−32からS7−44では、
画像データセグメンタ60は画像の画素を背景画素又は
オブジェクト画素として分類する上での誤りを修正する
ための処理を実行する。
【0085】すなわち、ステップS7−32で、画像デ
ータセグメンタ60はメディアンフィルタとして使用す
べき円形マスクを定義する。本実施形態では、円形マス
クは4画素分の半径を有する。
【0086】ステップS7−34では、画像データセグ
メンタ60はステップS7−32で定義したマスクの中
心をステップS7−26及びS7−28で生成された2
進画像の次の画素(ステップS7−34が初めて実行さ
れる場合には、これは最初の画素である)の中心に配置
するための処理を実行する。
【0087】ステップS7−36では、画像データセグ
メンタ60はマスク内部の黒色画素の数及び白色画素の
数をカウントする。
【0088】ステップS7−38では、画像データセグ
メンタ60は、マスク内部の白色画素の数がマスク内部
の黒色画素の数以上であるか否かを判定する。
【0089】ステップS7−38で白色画素の数が黒色
画素の数以上であると判定されれば、ステップS7−4
0で、画像データセグメンタ60はマスクの中心を位置
決めする画素の値を白色に設定する。これに対し、ステ
ップS7−38で黒色画素の数が白色画素の数より多い
と判定された場合には、ステップS7−42で、画像デ
ータセグメンタ60はマスクの中心を位置決めする画素
の値を黒色に設定する。
【0090】ステップS7−44では、画像データセグ
メンタ60は2進画像中に別の画素が存在するか否かを
判定し、以上説明したように各画素を処理し終わるま
で、ステップS7−34からS7−44を繰り返す。
【0091】ステップS7−48では、画像データセグ
メンタ60は、処理すべき別の入力画像が存在するか否
かを判定する。以上説明したように各入力画像を処理し
終わるまで、ステップS7−12からS7−48を繰り
返す。
【0092】再び図6に戻ると、ステップS6−10で
は、サーフェスモデラ70が被写体オブジェクト210
の面及びオブジェクト支持台220の面の3Dコンピュ
ータモデルを定義するデータを生成するための処理を実
行する。
【0093】本実施形態では、ステップS6−10の処
理は従来通りに実行され、次の3つの段階を含む。
【0094】(1)ステップS6−6で生成されたカメ
ラの位置及び向きと、ステップS6−8で生成された分
割画像データとを処理して、被写体オブジェクト210
の面と、オブジェクト支持台220の面とを包囲する複
数のボクセル(voxel)から成る3D格子を定義するデ
ータを含むボクセルカービング(voxel carving)を生成
する。サーフェスモデラ70はこの段階の処理を従来通
りに、例えば、R. Szeliskiの「Rapid Octree Construc
tion from Image Sequences」(CVGIP:ImageUnderstan
ding第58巻第1号、1993年7月、23〜32ペー
ジ)に記載されているように実行する。しかし、図8を
参照して説明すると、本実施形態では、サーフェスモデ
ラ70により定義される、ボクセルカーブ処理を実行す
べきスタートボリュームは、垂直の側面402、40
4、406、408と、水平の上面410と、水平の底
面412とを有する立方形400から形成されている。
垂直の側面402、404、406、408は、(図8
に外側の点線により概略的に表されているように)それ
らの面が写真マット34上の特徴パターンの縁に触れる
ように位置決めされている。従って、垂直の側面は全体
として被写体オブジェクト210を取り囲んでいること
になる。上面410の位置は、カメラ230の焦点から
ステップS6−4で格納された入力画像のいずれか1つ
の上縁部を通る線420と、写真マット34の中心を通
る垂直線422とを交わらせることにより定義される。
すなわち、カメラ230の焦点及び画像の上縁部はステ
ップS6−6で実行された位置と向きの計算の結果とし
て既にわかっており、上面410の高さを線420が写
真マット34の中心を通る垂直線422と交わる点に対
応するように設定することにより、(被写体オブジェク
ト210の最上部が各入力画像で見えるとすれば)上面
410は常に被写体オブジェクト210の上方に位置す
ることになる。水平の底面412の位置は、写真マット
34の平面よりわずかに上方に位置するように設定され
る。底面412の位置をこのように設定することによ
り、(ステップS6−8で実行された画像分割処理では
被写体オブジェクト210及びオブジェクト支持台22
0から分離されていなかった)写真マット34上のパタ
ーンの特徴はボクセルカービング処理中は無視されるこ
とになり、被写体オブジェクト210及びオブジェクト
支持台220の3Dサーフェスモデルが生成される。
【0095】(2)ボクセルカービングを定義するデー
タを処理して、被写体オブジェクト210の面及びオブ
ジェクト支持台220の面を定義する複数の三角形から
成る3Dサーフェスメッシュを定義するデータを生成す
る。本実施形態では、この段階の処理は、サーフェスモ
デラ70により従来のマーチングキューブアルゴリズム
に従って、例えば、W. E. Lorensen及びH. E. Clineの
「Marching Cubes:A High Resolurion 3D Surface Con
struction Algorithm」(Computer Graphics, SIGGRAPH
87 Proceedings,21,163〜169ページ、198
7年7月)又はJ. Bloomenthalの「An Implicit Surfac
e Polygonizer」(Graphics Gems IV、APProfessiona
l、1994年、ISBN0123361559,324〜350ペー
ジ)に記載されているように実行される。
【0096】(3)デシメーションプロセス(decimati
on process)を実行することにより、第2段階で生成さ
れたサーフェスメッシュの三角形の数を相当に減少させ
る。
【0097】本実施形態においては、サーフェスモデラ
70は第3段階で、第2段階で生成された三角形メッシ
ュの各々の頂点(vertics)が被写体オブジェクト21
0の面又はオブジェクト支持台220の面の形状に寄与
するか否かを判定するために三角形メッシュから頂点を
ランダム(無作為)に除去することにより、デシメーシ
ョンプロセスを実行するための処理を実行する。形状に
寄与しない頂点は三角形分割から放棄されるため、最終
モデルにおける頂点の数(従って、三角形の数)は少な
くなる。隣接する頂点を連続して除去することにより面
の大部分が徐々に侵食されるという事態を回避するため
に、除去し試験すべき頂点の選択は無作為に行われる。
本実施形態における、サーフェスモデラ70により実行
されるデシメーションアルゴリズムを、疑似コードで以
下のように記述する。 INPUT Read in vertices Read in triples of vertex IDs making up triangles PROCESSING Repeat NVERTEX times Choose a random vertex V, which hasn't been chosen
before Locate set of all triangles having V as a vertex,
S Order S so adjacent triangles are next to each oth
er Re-triangulate triangle set, ignoring V (i.e. remo
ve selected triangles & V and then fill in hole) Find the maximum distance between V and the plane
of each triangleIf (distance < threshold) Discard V and keep new triangulation Else Keep V and return to old triangulation OUTPUT Output list of kept vertices Output updated list of triangles 写真マット34上の特徴の絶対位置はわかっているので
(特徴は位置を定義する事前格納済みデータに従ってプ
リントされている)、ステップS6−10で、被写体オ
ブジェクト210の面及びオブジェクト支持台220の
面の3Dコンピュータモデルは正確なスケールで生成さ
れる。
【0098】ステップS6−12で、サーフェステクス
チャラ80はステップS6−4で格納された入力画像デ
ータを処理して、ステップS6−10でサーフェスモデ
ラ70により生成されたサーフェスモデルの三角形ごと
にテクスチャデータを生成する。
【0099】図9は、本実施形態においてステップS6
−12でサーフェステクスチャラ90により実行される
処理動作を示している。
【0100】図9を参照すると、ステップS9−2で
は、サーフェステクスチャラ90は被写体オブジェクト
210の底面、すなわち、オブジェクト支持台220の
水平板222に乗っている面のテクスチャデータとして
使用できる画像データを生成する。本実施形態では、こ
の処理は、ステップS6−4で格納された被写体オブジ
ェクト210の各入力画像を、被写体オブジェクト21
0の下面が見えるようなカメラ撮影位置及び向きを有し
且つミラー140における被写体オブジェクト210の
下面の反射に相当する入力画像からの画素データを含む
仮想画像に変換することにより実行される。すなわち、
先に述べた通り、マット発生器30は座標系を定義する
データを格納し、カメラ計算器50は定義された座標系
において各入力画像が記録されたときの位置と向きを計
算する。本実施形態では、写真マット34の中心が座標
系の原点であり、z方向は写真マットの平面に対し垂直
な上向きの方向である。ステップS9−2では、サーフ
ェステクスチャラ80は、カメラ計算器50により計算
された入力画像の位置と向きを変更して、被写体オブジ
ェクト210の下面を示す位置及び向きに相当する、仮
想画像の新たな位置と向きを定義することにより、各入
力画像を処理する。すなわち、カメラ計算器50により
計算された入力画像の位置と向きを3×4の行列Mとし
て表現して、サーフェステクスチャラ80は仮想画像の
位置と向きを定義する3×4の行列M'を次のようにし
て生成する。
【0101】
【数3】
【0102】サーフェステクスチャラ80は、仮想画像
ごとに、対応する入力画像の中で写真マット34の穴1
30に対応しない全ての画素をマスクすることにより、
画素データを生成する(入力画像における穴130の位
置は、ステップS6−6でカメラ計算器50により実行
された位置と向きの計算からわかっている)。このよう
にして、図10に示す通り、仮想画像の画素データはミ
ラー140における反射を示す画素データから構成され
ることになり、残る画素データの全ては(図10に陰影
により指示するように)隠蔽(mask out)される。
【0103】入力画像によっては、ミラー140の反射
の中にオブジェクト支持台220の脚部224が現わ
れ、その結果、対応する仮想画像にも現れる場合もある
ことは理解されるであろう。しかし、本実施形態では、
以下の説明から明らかになるように、被写体オブジェク
ト210の底面を構成する3Dコンピュータモデルの様
々な三角形のテクスチャデータは必ずしも同じ入力画像
から生成されたとは限らず、従って、一部の入力画像で
脚部224が見えても、その影響はそれほど著しく目立
たないので、これは問題ではない。あるいは、脚部22
4がミラー140からの反射で見えることがないよう
に、脚部224を透明材料から形成しても良い。
【0104】再び図9に戻ると、ステップS9−4から
S9−10では、サーフェステクスチャラ80は、ステ
ップS6−10で生成されたサーフェスメッシュにおい
て各三角形を選択し且つ選択された三角形について入力
画像の1つからテクスチャデータを定義するための処理
を従来通りに実行する。
【0105】すなわち、ステップS9−4で、サーフェ
ステクスチャラ80はステップS6−10で生成された
サーフェスメッシュにおける次の三角形(ステップS9
−4が初めて実行される場合には、これは最初の三角形
である)を考慮し、ステップS9−6では、三角形に最
も近接して直面している入力画像「i」を見出すための
処理を実行する。
【0106】すなわち、三角形の垂線(normal)を^nt
し、「i」番目の画像の撮影方向を^viとするとき、ス
テップS9−6で、サーフェステクスチャラ80は値^
t・^viが最大である入力画像を求める。これは、面
三角形が最大投射面積を有する入力画像を識別する。
【0107】ステップS9−8で、サーフェステクスチ
ャラ80はステップS9−6で識別された入力画像に三
角形を投射し、投射された三角形の頂点を画像テクスチ
ャマップを定義するテクスチャ座標として従来通りに格
納する。
【0108】ステップS9−10で、サーフェステクス
チャラ80は、サーフェスメッシュに別の三角形が存在
しているか否かを判定し、先に説明したように各三角形
を処理し終わるまでステップS9−4からS9−10を
繰り返す。
【0109】以上説明した処理を実行した結果、モデル
にレンダリングすべき画像データを定義するテクスチャ
座標をもって完成した、被写体オブジェクト210及び
オブジェクト支持台220の面のVRML(又は類似のフォ
ーマットの)モデルが得られる。
【0110】再び図6に戻ると、ステップS6−14
で、オブジェクト/支持台セパレータ90は、ステップ
S6−10でサーフェスモデラ70により生成された被
写体オブジェクト210の面及びオブジェクト支持台2
20の面の3Dコンピュータモデルを定義するデータを
処理して、モデルからオブジェクト支持台220を除去
し、被写体オブジェクト210の3Dコンピュータモデ
ルのみを残す。
【0111】本実施形態では、オブジェクト/支持台セ
パレータ90は、ユーザ入力装置6を介して入力される
ユーザ命令に従って処理を実行し、3Dコンピュータモ
デルからオブジェクト支持台220を対話によって除去
する。
【0112】図11は、ステップS6−14でオブジェ
クト/支持台セパレータ90により実行される処理動作
を示している。
【0113】図11を参照すると、ステップS11−2
では、オブジェクト/支持台セパレータ90はディスプ
レイプロセッサ110に、サーフェスモデラ70により
生成された被写体オブジェクト210及びオブジェクト
支持台220の3Dコンピュータモデルをサーフェステ
クスチャラ80により生成されたテクスチャデータによ
ってレンダリングして、表示装置4に表示させる。更
に、図12aに示すように、オブジェクト/支持台セパ
レータ90はディスプレイプロセッサ110に、表示さ
れる3Dコンピュータモデルと交わる水平平面450を
表示させる。この水平平面450は、ユーザがマウスな
どのユーザ入力装置6を使用することにより垂直方向に
(すなわち、写真マット34に対し垂直な方向に)移動
自在である。
【0114】ステップS11−4では、図12a、図1
2b及び図12cに示すように、オブジェクト/支持台
セパレータ90は平面450をユーザ入力命令に従って
垂直方向に上下に動かし、ユーザにより定義される、3
Dコンピュータモデルにおいて平面450が被写体オブ
ジェクト210とオブジェクト支持台220とを分離す
る最終位置(図12c)まで移動させる。更に、オブジ
ェクト/支持台セパレータ90はディスプレイプロセッ
サ110に、ユーザ入力命令に従って1つ以上の異なる
撮影位置及び方向からの被写体オブジェクト210、オ
ブジェクト支持台220及び平面450の3Dコンピュ
ータモデルを表示させる。これにより、ユーザは異なる
視点から3Dコンピュータモデルを見て、平面450の
最終位置が3Dコンピュータモデルにおいて正しく被写
体オブジェクト210をオブジェクト支持台220から
分離していることを確認するために、それらの視点から
3Dコンピュータモデルを観察しつつ平面450を移動
させることができる(平面450は、3Dコンピュータ
モデルを様々に異なる撮影位置及び方向から見たときに
表示装置4では垂直方向にならない可能性もある写真マ
ット34の計算上の平面に対して垂直な方向に移動する
ように常に制約されている)。
【0115】ステップS11−6では、ユーザが平面4
50の移動を終了し、平面がその時点で被写体オブジェ
クト210とオブジェクト支持台220とを分離する位
置にあることを指示するユーザ入力信号に応答して、オ
ブジェクト/支持台セパレータ90は平面の最終位置を
定義する座標を格納する。
【0116】ステップS11−8で、オブジェクト/支
持台セパレータ90は、サーフェスモデラ70により生
成された3Dサーフェスモデルのうち、ステップS11
−6で格納された平面の最終位置の下方にある部分を削
除するための(すなわち、平面450の、写真マット3
4の計算上の平面に向いた側に位置するモデルの部分を
削除するための)処理を実行する。
【0117】図13を参照して説明すると、ステップS
11−8の処理を実行するために、オブジェクト/支持
台セパレータ90はステップS6−10でサーフェスモ
デラ70により実行される処理を繰り返すが、今回は、
水平の底面412がステップS11−6で格納された平
面450の最終位置に対応する位置まで移動されるよう
に、ボクセルカーブ処理のスタートボリュームを定義す
る立方形400を修正する。このように、ボクセルカー
ブ処理及び後続する処理(前述の通り)を実行するとき
に、被写体オブジェクト210の面のみの3Dコンピュ
ータモデルが生成されることになり、モデルはオブジェ
クト支持台220のどの部分も含んでいない。
【0118】再び図11に戻り、ステップS11−10
では、オブジェクト/支持台セパレータ90はディスプ
レイプロセッサ110に、ステップS11−8で生成さ
れた3Dサーフェスモデルの画像をステップS6−12
でサーフェステクスチャラ80により生成された適切な
テクスチャデータによってレンダリングして、表示装置
4に表示させる。
【0119】ステップS11−12では、オブジェクト
/支持台セパレータ90は、オブジェクト支持台220
のモデルを除去するために3Dコンピュータモデルに対
して更に変更を実行すべきであることを指示するユーザ
入力信号を受信したか否かを判定する。ステップS11
−12で、それ以上の変更が不要であることが判定され
るまで、ステップS11−4からS11−12を繰り返
す。
【0120】再び図6に戻ると、ステップS6−16で
は、中央制御装置20は出力データ記憶装置120から
の、被写体オブジェクト210の3Dコンピュータモデ
ルを定義するデータ及びそのテクスチャデータを、例え
ば、ディスク122などの記憶装置に格納されるデータ
又は信号124(図1)として出力する。これに加え
て、又はその代わりに、中央制御装置20はディスプレ
イプロセッサ110に、被写体オブジェクト210の3
Dコンピュータモデルを、例えば、ユーザ入力装置6を
使用してユーザにより入力された視点に従ってテクスチ
ャデータによってレンダリングして表示させても良い。
あるいは、ステップS6−6で生成された入力画像ごと
のカメラ230の位置及び向きを定義するデータと、ス
テップS6−8で生成された各入力画像の分割を定義す
るデータとを、例えば、ディスク122などの記憶装置
に記録されるデータ又は信号124として出力しても良
い。その後、このデータはステップS6−10からS6
−14を実行するためにプログラムされた別の処理装置
に入力されても良い。
【0121】以上説明した第1の実施形態においては、
オブジェクト/支持台セパレータ90は、ステップS6
−14で被写体オブジェクト及びオブジェクト支持台の
3Dコンピュータモデルを処理して、平面450の位置
を定義するユーザ入力命令に従って3Dコンピュータモ
デルからオブジェクト支持台を除去し、被写体オブジェ
クトとオブジェクト支持台を分離する。しかし、以下に
説明する別の実施形態から明白になるように、オブジェ
クト/支持台セパレータ90により異なる方法で被写体
オブジェクト単独の(すなわち、オブジェクト支持台を
含まない)3Dコンピュータモデルを生成しても良い。
【0122】[第2の実施形態]次に、本発明の第2の
実施形態を説明する。第2の実施形態の構成要素及びそ
れにより実行される処理動作は、以下に説明するよう
に、オブジェクト支持台が異なり且つオブジェクト/支
持台セパレータ90により実行される処理動作が異なる
点を除いて、第1の実施形態の場合と同じである。更
に、第2の実施形態では、入力画像からサーフェステク
スチャラ80により被写体オブジェクト210の下面の
テクスチャデータは生成されない(多くの場合、被写体
オブジェクト210の下面はユーザにとってさほど大き
な意味を持たないため、これは重要な問題ではない)。
【0123】図14を参照すると、第2の実施形態で
は、オブジェクト支持台460は不透明の底部470と
透明な上部480とを有する円筒で構成されている。
【0124】オブジェクト支持台460の直径の大きさ
は、被写体オブジェクト210がオブジェクト支持台4
60の上に配置されたときに支持台の上面全体を覆うよ
うに定められている。従って、被写体オブジェクト21
0が乗っている水平面が被写体オブジェクト210の底
面の縁からはみ出すことはない。そのため、被写体オブ
ジェクト210に隣接して、影を形成するような水平面
は存在しないので、入力画像において被写体オブジェク
ト210に影がかかることはありえない。
【0125】オブジェクト支持台460の上部480は
透明であるので、ステップS6−4で格納される各入力
画像においては、図14に示すように、被写体オブジェ
クト210と、オブジェクト支持台460の不透明の底
部470との間に背景スクリーン228の一部が見える
ことになる。このため、各入力画像では、被写体オブジ
ェクト210はオブジェクト支持台460の底部470
から分離されたように見える。
【0126】従って、ステップS6−8で画像データセ
グメンタ60により実行される処理において、被写体オ
ブジェクト210とオブジェクト支持台460の底部4
70との間にある背景スクリーン228の部分に関連す
る画素は「背景」画素と指定されるが、被写体オブジェ
クト210に関連する画素と、オブジェクト支持台46
0の底部470に関連する画素は「オブジェクト」画素
の別個の領域として指定される。
【0127】そこで、ステップS6−10でサーフェス
モデラ70により実行される処理では、被写体オブジェ
クト210の3Dコンピュータモデルが生成され、オブ
ジェクト支持台460の底部470の別個の、先の3D
コンピュータモデルとはつながらない3Dコンピュータ
モデルが生成される。
【0128】従って、ステップS6−14でオブジェク
ト/支持台セパレータ90により実行される処理では、
オブジェクト支持台460の底部470の3Dコンピュ
ータモデルを被写体オブジェクト210の3Dコンピュ
ータモデルから識別し、それを削除するだけで良い。
【0129】図15は、第2の実施形態のステップS6
−14でオブジェクト/支持台セパレータ90により実
行される処理動作を示す。
【0130】図15を参照すると、ステップS15−2
では、オブジェクト/支持台セパレータ90はディスプ
レイプロセッサ110に、サーフェスモデラ70により
生成された被写体オブジェクト210の3Dコンピュー
タモデル及びオブジェクト支持台460の底部470の
3Dコンピュータモデルの画像をサーフェステクスチャ
ラ80により生成されたテクスチャデータによってレン
ダリングして表示させる。
【0131】ステップS15−4では、オブジェクト/
支持台セパレータ90はディスプレイプロセッサ110
に、オブジェクト支持台460の底部470の3Dモデ
ルを識別することをユーザに要求するメッセージを表示
装置4に表示させる。
【0132】ステップS15−6では、マウスなどのユ
ーザ入力装置6を介してユーザから入力された信号に応
答して、オブジェクト/支持台セパレータ90は入力信
号で定義されている3Dコンピュータモデルを削除し
て、被写体オブジェクト210の3Dコンピュータモデ
ルのみを残す。
【0133】本実施形態の変形として、オブジェクト支
持台460の上部480を不透明にし、背景スクリーン
228と同じ色にしても良い。この場合、各入力画像に
おいて上部480を背景スクリーン228と区別するこ
とは不可能であるため、これは上部480を透明にする
のと同じ効果を有する。
【0134】図15を参照して以上説明した処理に代わ
る処理として、オブジェクト/支持台セパレータ90は
オブジェクト支持台460の底部470の3Dコンピュ
ータモデルを自動的に(すなわち、ユーザからの入力な
しに)削除しても良い。すなわち、これは、ステップS
6−6でカメラ計算器50により計算された写真マット
34の位置に最も近接している3Dコンピュータモデル
を削除することにより実現される。被写体オブジェクト
210は常にオブジェクト支持台460の上に配置され
ており、従って、常にオブジェクト支持台460の底部
470より写真マット34から離れた位置にあるので、
この処理により、削除のたびに正しい3Dコンピュータ
モデルが削除される結果となる。
【0135】[第3の実施形態]次に、本発明の第3の
実施形態を説明する。第3の実施形態の構成要素及びそ
れにより実行される処理動作は、以下に説明するよう
に、オブジェクト支持台が異なり且つオブジェクト/支
持台セパレータ90により実行される処理動作が異なる
点を除いて第1の実施形態の場合と同じである。加え
て、第2の実施形態と同様に、第3の実施形態でも被写
体オブジェクト210の下面のテクスチャデータは生成
されない。
【0136】第3の実施形態では、撮影のために被写体
オブジェクト210が乗せられるオブジェクト支持台は
第2の実施形態の場合と同様に円筒であるが、第3の実
施形態においては、第2の実施形態のように一部が不透
明、一部が透明という構造ではなく、円筒全体が不透明
である。
【0137】従って、第1の実施形態の場合と同様に、
ステップS6−10でサーフェスモデラ70により生成
される3Dコンピュータモデルは、被写体オブジェクト
210とオブジェクト支持台双方の3Dコンピュータモ
デルである。
【0138】第3の実施形態のステップS6−14で
は、オブジェクト/支持台セパレータ90は、先にステ
ップS6−6でカメラ計算器50により計算された写真
マット34の位置から離れる方向(すなわち、オブジェ
クト支持台の底面から被写体オブジェクト210に向か
う上向きの方向)に複数の異なる位置で3Dコンピュー
タモデルの横断面面積を試験するための処理を実行す
る。すなわち、オブジェクト/支持台セパレータ90
は、横断面面積の急激な変化(この急激な変化は、被写
体オブジェクト210の底面がオブジェクト支持台の上
面より狭い又は広い場合に、オブジェクト支持台と被写
体オブジェクト210との境界を指示する)が起こる位
置を検出するために、3Dコンピュータモデルの横断面
面積を監視する。3Dコンピュータモデルの横断面面積
が変化する位置を検出したならば、オブジェクト/支持
台セパレータ90は、第1の実施形態で説明したよう
に、ボクセルカーブ処理を実行する初期ボリューム40
0の底平面412を3Dコンピュータモデルの横断面面
積の変化が起こったと検出された位置に設定することに
より、3Dコンピュータモデルを再び生成するための処
理を実行する。
【0139】このようにして、ユーザ入力なしに被写体
オブジェクト210単独の3Dコンピュータモデルが生
成される。
【0140】以上説明した処理に代わる処理として、被
写体オブジェクト210の底面のどの色とも相当に異な
るほぼ一様な色を有するオブジェクト支持台を使用して
も良い。この場合、オブジェクト支持台の横断面面積の
急激な変化を検出するための処理を実行するのではな
く、オブジェクト/支持台セパレータ90はサーフェス
テクスチャラ80により生成されたテクスチャデータに
よってレンダリングされたときに、3Dコンピュータモ
デルの急激な色の変化の位置を検出するための処理を実
行すれば良い。
【0141】以上説明した初めの3つの実施形態におい
ては、被写体オブジェクト210及びオブジェクト支持
台の3Dコンピュータモデルを(第1及び第3の実施形
態の場合のような単一の3Dコンピュータモデルとし
て、又は第2の実施形態の場合のような2つの別個の3
Dコンピュータモデルとして)生成し、その後、オブジ
ェクト支持台に関連する3Dコンピュータモデルを除去
する。
【0142】しかし、そのようにする代わりに、サーフ
ェスモデラ70はステップS6−10で、以下に説明す
る第4の実施形態から明らかになるように、被写体オブ
ジェクト単独の3Dコンピュータモデルを定義するデー
タを生成するための処理を実行しても良い。
【0143】[第4の実施形態]次に、本発明の第4の
実施形態を説明する。第4の実施形態の構成要素及びそ
れにより実行される処理動作は、オブジェクト支持台の
高さがわかっており、処理装置2に格納されていること
(例えば、高さはユーザにより入力されても良い)、及
びオブジェクト/支持台セパレータ90(従って、オブ
ジェクト/支持台セパレータにより実行される処理ステ
ップS6−14)が含まれておらず、サーフェスモデラ
70により実行される処理をそれに対応して変更したこ
とを除いて、第1の実施形態の場合と同じである。以下
に、それらの相違点について説明する。
【0144】すなわち、オブジェクト支持台の高さがわ
かっており、処理装置2に格納されているので、ステッ
プS6−10で、サーフェスモデラ70はボクセルカー
ブ処理を実行すべき初期ボリューム400の底平面41
2を写真マット34の位置から格納されているオブジェ
クト支持台の高さに等しい垂直方向距離だけ離れた位置
に設定する。これにより、ステップS6−10で後にサ
ーフェスモデラ70により実行される処理において、被
写体オブジェクト210単独の3Dコンピュータモデル
が生成されることになる。
【0145】[変形例]特許請求の範囲の範囲内で、以
上説明した実施形態に対して数多くの変形を実施するこ
とができる。
【0146】例えば、撮影のために被写体オブジェクト
210が乗せられるオブジェクト支持台を変形すること
が可能である。
【0147】第1の例として、先に図4aから図4eを
参照して説明したように、カメラ230の撮影位置及び
方向は、各入力画像において被写体オブジェクト210
が背景スクリーン228により取り囲まれる形で確実に
現れるように保証するために重要であるので、カメラ2
30の最適の位置及び撮影方向を選択するときにユーザ
を補助するようにオブジェクト支持台を設計することが
できる。すなわち、図16に示すように、ユーザが正し
い撮影位置及び方向を実現するのを補助するために、マ
ーカ500を有するオブジェクト支持台490を使用し
ても良い。この場合、マーカ500が写真マット34と
背景スクリーン228との境界に現れるように、ユーザ
はカメラ230の位置と方向を選択できる。マーカ50
0は、この整列が起こったときに被写体オブジェクト2
10が常に背景スクリーン228により取り囲まれるよ
うに、オブジェクト支持台の上部から十分な距離をおい
て位置決めされている。
【0148】図17を参照すると、被写体オブジェクト
210が乗るオブジェクト支持台の上面から離間した位
置に写真マット34の特徴のパターンがプリント(又は
その他の方法によりマーキング)されているオブジェク
ト支持台510を設けることにより、オブジェクト支持
台と写真マット34を組み合わせても良い。
【0149】先に説明した実施形態のように、入力画像
中で検出するために写真マット34に特徴を設けるのに
加えて、オブジェクト支持台にも同様に特徴を設けても
良く、この場合、カメラ計算器50は、各入力画像にお
いてオブジェクト支持台の特徴を検出すると共に、入力
画像相互間で検出した特徴を整合するための処理を実行
する。その後、検出され、整合されたオブジェクト支持
台の特徴の位置を写真マット34の特徴の検出位置と共
に使用して、入力画像の位置と向きを計算する。これに
より、(先に説明したように、全ての特徴が写真マット
34の上にある実施形態とは異なり)位置と向きを計算
するために使用される特徴の全てが1つの平面に位置す
ることがなくなり、オブジェクト支持台の特徴を異なる
高さに設けることが可能になるため、計算される位置及
び向きの正確さが向上する(従って、被写体オブジェク
トの3Dコンピュータモデルがより正確になる)と思わ
れる。写真マット34で検出された特徴と、オブジェク
ト支持台で検出された特徴を使用して、入力画像の位置
及び向きを計算する方法の一例として、EP−A−089
8245に記載されている方法に基づき、「ユーザ識
別」整合として写真マット34の特徴の整合を使用し且
つ「計算上の」整合としてオブジェクト支持台の特徴の
整合を使用して、処理を実行しても良い。
【0150】更に、オブジェクト支持台の特徴を既知の
相対位置に設けても良い。このようにすると、既知の相
対位置を利用して、計算される各々の位置及び向きがと
りうる解を従来のように制約することにより(すなわ
ち、オブジェクト支持台上の特徴の相対位置を維持する
撮影条件を与えるように計算される位置及び向きに要求
することにより)、更に高い正確さをもって入力画像の
位置と向きを計算できるであろう。
【0151】また、オブジェクト支持台上の特徴を既知
の相対位置に設けるのに加えて、オブジェクト支持台と
写真マットを接合したときに、オブジェクト支持台上の
特徴が写真マット上の特徴の位置に対して既知の位置を
とるようにオブジェクト支持台と写真マットを相互に接
続するように構成しても良い。すなわち、図18を参照
して説明すると、穴530を有する材料の厚板の上に特
徴のパターンを設けた写真マット520を使用しても良
い。各々がそれぞれ異なる色を有し、且つ既知の相対位
置にそれぞれ配列された複数の特徴560を有するオブ
ジェクト支持台540は、その底部を穴530に差し込
むことにより写真マット520と接合される。オブジェ
クト支持台540を穴530に差し込んだとき、オブジ
ェクト支持台540に設けられた突起部550が穴53
0の切り欠きと係合するので、写真マット520上の特
徴と、オブジェクト支持台540上の特徴560の相対
位置は固定される。
【0152】以上説明した実施形態では、オブジェクト
支持台と被写体オブジェクト210が配置されるキャリ
ブレーションオブジェクトは二次元写真マット34の形
態をとっていた。しかし、その代わりに三次元キャリブ
レーションオブジェクトを使用しても差し支えない。例
えば、図19を参照すると、垂直の側面に特徴のパター
ンを有する立方体の形状を有するキャリブレーションオ
ブジェクト570が使用されている。
【0153】オブジェクト支持台の高さを変えることが
できるように、支持台を伸縮自在の構造にしても良い。
【0154】オブジェクト支持台は、被写体オブジェク
ト210に差し込めるスパイクの形態をとっていても良
い。
【0155】上述の全ての実施形態において、オブジェ
クト支持台は、被写体オブジェクト210を乗せる平坦
な上面を有する。しかし、被写体オブジェクトは複数の
個別の支柱によって支えられても良い。例えば、第1の
実施形態で、オブジェクト支持台の水平の上板222を
取り外し、被写体オブジェクトを脚部224により支持
しても差し支えない。被写体オブジェクトの下面に関し
てテクスチャデータを生成すべき実施形態では、この構
成は、被写体オブジェクトが乗っている面(例えば、第
1の実施形態では面222)を通る光の透過に起因して
発生する歪みの影響を受けずに、ミラー140で下面の
少なくとも一部を反射させることになるであろう。
【0156】上述の全ての実施形態において、写真マッ
ト34のパターンの特徴は、オブジェクト支持台が配置
される空いた中央領域に配列されていた。しかし、オブ
ジェクト支持台用のスペースを取らずに、特徴を写真マ
ット34の全面に設けても良く、その場合、オブジェク
ト支持台は特徴の一部にかかるように配置される。各入
力画像で少なくとも6個の特徴が見えているならば、こ
の配置が各入力画像の位置及び向きを計算するための処
理動作に影響を及ぼすことはない。
【0157】上述の実施形態においては、被写体オブジ
ェクト210を乗せたオブジェクト支持台は、写真マッ
ト34のパターンの特徴により取り囲まれるように写真
マット34上に位置決めされていた。しかし、被写体オ
ブジェクト210を乗せたオブジェクト支持台が特徴の
パターンの外に出るように写真マット34上で位置決め
されても良い(例えば、特徴の円から外に出た写真マッ
ト34の角)。同様に、被写体オブジェクト210を乗
せたオブジェクト支持台を写真マット上に配置する必要
もない。例えば、カメラ230が固定されている場合、
写真マット34を大きなシート紙の上に配置し、被写体
オブジェクト210を乗せたオブジェクト支持台をその
シート紙の上に、写真マット34を外して配置しても良
い。この場合、次の画像を記録するときに、カメラ23
0と、写真マット34、オブジェクト支持台及び被写体
オブジェクト210との相対的な位置及び向きの関係を
変化させるために、紙を回転及び/又は移動させれば良
い。このようにすると、被写体オブジェクト210が写
真マット34の特徴のパターンの上に直接に乗っていな
くても、被写体オブジェクト210は依然としてオブジ
ェクト支持台によりパターンの上方の位置に保持されて
おり、記録された画像において被写体オブジェクト21
0とパターンの双方を見ることができる。従って、ここ
で使用する用語「上方」は、被写体オブジェクトが写真
マットの垂直方向直上にあることを意味するものとして
解釈されてはならない。
【0158】以上説明した全ての実施形態において、被
写体オブジェクト210単独の3Dコンピュータモデル
を生成していた。しかし、アプリケーションによって
は、オブジェクト支持台(又はその一部)を含めて被写
体オブジェクト210の3Dコンピュータモデルを生成
しても良い。そのような場合には、オブジェクト支持台
の3Dコンピュータモデルを除去するための処理を実行
する必要はない。
【0159】上述の第1の実施形態では、ステップS6
−14でオブジェクト/支持台セパレータ90により実
行される処理において、被写体オブジェクト210をオ
ブジェクト支持台220から分離させるために移動され
るべくユーザに対し表示される平面450は、被写体オ
ブジェクト210の3Dコンピュータモデルのいずれか
一部の幅を超える幅を有する。同様に、ボクセルカーブ
処理を再度実行する前に、オブジェクト/支持台セパレ
ータ90は、底部平面412の下方にある初期ボリュー
ム400の底部全体を除去するために、初期ボリューム
400の底部平面412を移動させる。図5に示すよう
に、被写体オブジェクト210のどの部分もオブジェク
ト支持台220の上面より上にある場合には、この処理
は申し分なく実行される。しかし、被写体オブジェクト
210の一部がオブジェクト支持台220の上面から突
き出しているために、第1の実施形態で説明した処理を
使用すると、平面450を利用して被写体オブジェクト
210をオブジェクト支持台220から分離することが
不可能になると思われる状況も起こりうる。従って、こ
の処理に代わる処理として、ステップS6−14で、オ
ブジェクト/支持台セパレータ90はオブジェクト支持
台220と同じ形状及び横断面面積を有する平面450
を表示しても良く、その場合、ボクセルカーブ処理を実
行すべき初期ボリューム400を修正するとき、ユーザ
に対し表示された平面450の横断面面積及び形状に相
当する横断面面積と形状を有し且つ下の底部平面412
からステップS11−6で格納された平面450の最終
位置に対応する位置まで延在する穴をボリューム400
に形成しても良い。また、第3及び第4の実施形態にお
いても同様に、被写体オブジェクト210がオブジェク
ト支持台の上部から突き出している状況を考慮するため
に、初期ボリューム400を修正しても良い。
【0160】被写体オブジェクトとオブジェクト支持台
双方の3Dコンピュータモデルからオブジェクト支持台
の3Dコンピュータモデルを除去するための処理を実行
する別の方法として、(例えば、入力画像を記録すると
きに被写体オブジェクト210が存在しない状態で先に
説明した処理を実行することにより)オブジェクト支持
台の3Dコンピュータモデルを処理装置2で事前に生成
し、事前に格納しておいても良い。その場合、この後、
事前に格納されていたオブジェクト支持台のモデルを被
写体オブジェクト及びオブジェクト支持台双方の3Dモ
デルの一部に整合させ、且つ検出された整合部分を除去
するために、オブジェクト/支持台セパレータ90によ
り処理を実行しても良い。
【0161】上述の実施形態においては、プリンタ8は
1枚のシート紙に写真マット34をプリントしていた。
しかし、マット発生器30は写真マットを複数枚のシー
ト紙にプリントするようにプリンタ8を制御しても良
い。それらの紙を組み合わせて写真マット34を形成す
ることができる。
【0162】記録媒体に写真マットをプリントする、又
は表示パネル10に写真マットを表示するのではなく、
写真マットの特徴を床などの面にマーキング(例えば、
ペイント)しても良い。
【0163】上述の第1の実施形態においては、被写体
オブジェクト210の下面のテクスチャデータを生成す
るために、写真マットをプリントするシート紙に穴13
0が切り取られており、それをミラー140に接合して
いた。しかし、その代わりに、シート紙の上面の、穴1
30が切り取られていたであろう位置に対応する位置
に、ミラー又はその他の適切な反射材料を設けても良
い。同様に、表示パネル10に写真マットを表示する場
合に、表示パネルにミラー又は他の反射材料を配置して
も良い。あるいは、ミラー又は他の反射面に写真マット
の特徴のパターンをプリント、又はその他の方法により
マーキングしても良い。
【0164】上述の第1の実施形態では、ステップS6
−14でオブジェクト/支持台セパレータ90により実
行される処理において、ボクセルカーブ処理を実行すべ
き初期ボリューム400の底部平面412を先にユーザ
により移動された平面450の位置に対応する位置まで
移動させることにより、サーフェスモデラ70により生
成された3Dコンピュータモデルを修正していた。これ
に加えて、同じ技法を使用して、3Dコンピュータモデ
ルの誤りを修正するために3Dコンピュータモデルを修
正しても良い。すなわち、図20aを参照して説明する
と、処理装置2は、ユーザがユーザ入力装置6を使用し
て任意の位置及び向きに移動させることができる平面6
00と共に、3Dコンピュータモデルの画像を表示して
も良い。このようにすると、ユーザは、図20aの部分
610のように、望ましい部分から突出しているコンピ
ュータモデルの望ましくない部分を分離する位置まで平
面600を移動させることができる。先に図11を参照
して説明した処理の場合と同様に、処理装置2はユーザ
により移動された後の平面600の最終位置を格納し、
図20bに示すように、ユーザにより定義された平面6
00の位置に対応するボリューム400内の位置に平面
620を設定し、且つその平面620により除外される
部分630を初期ボリューム400から除去することに
より、ボクセルカーブ処理を実行すべき処理ボリューム
400を修正する。その後、処理装置2は再びボクセル
カーブ処理を実行し、その結果、ボクセルカーブ処理か
ら除外されたボリューム630に位置している3Dコン
ピュータモデルの望ましくない部分610は除去され
る。
【0165】以上説明した実施形態においては、ステッ
プS6−4で、ユーザにより入力された、カメラ230
の固有パラメータを定義するデータを格納していた。し
かし、その代わりに、固有カメラパラメータの一部又は
全てに関してデフォルト値を想定しても良く、あるい
は、例えば、Hartleyの「Euclidean Reconstruction Fr
om Uncalibrated Views」(Applications of Invarianc
e in Computer Vision,Mundy, Zisserman and Forsyth
eds、237〜256ページ、Azores1993年)に記
載されているように、従来の方式で固有パラメータ値を
計算するための処理を実行しても良い。
【0166】以上説明した実施形態においては、先に図
7を参照して説明したように、被写体オブジェクト21
0及びオブジェクト支持台に関連する入力画像からの画
像データを写真マット34、面200及び背景スクリー
ン228に関連する画像データから分離していた。しか
し、別の従来の分割方法を使用しても良い。例えば、写
真マット34、面200及び背景スクリーン228の色
を表現する1つのRGB値を格納し、RGB背景値とRGB画素
値とのRGB空間におけるユークリッド距離が指定の閾値
より小さいか否かを判定するために、入力画像の各画素
を処理するような分割方法を使用しても差し支えない。
【0167】以上説明した実施形態においては、3Dコ
ンピュータモデルを定義するデータを生成するためのス
テップS6−10及びS6−14の処理をボクセルカー
ビング技法を使用して実行していた。しかし、例えば、
共にKiriakos N. Kutulakos及びStephen M. Seitzが著
した1998年1月のUniversity of Rochester Comput
er Sciences Technical Report Number 680に掲載され
た論文「What Do N Photographs Tell Us About 3D Sha
pe?」及び1998年5月のUniversity of Rochester
Computer Sciences Technical Report Number 692に掲
載された論文「ATheory of Shape by Space Carving」
に記載されているようなボクセルカラリング技法などの
他の技法を使用しても差し支えない。
【0168】以上説明した実施形態においては、プログ
ラミング命令により定義される処理ルーチンを使用し
て、コンピュータにより処理を実行していた。しかし、
処理の一部又は全てをハードウェアを使用して実行する
ことも可能であろう。
【図面の簡単な説明】
【図1】本発明の一実施形態の構成要素を、プログラミ
ング命令によりプログラムされたときに処理装置の構成
要素が構成されるものと考えられる概念上の機能処理ユ
ニットと共に概略的に示す図である。
【図2】写真マットとミラーとの接合を示す図である。
【図3】3Dコンピュータモデルを生成すべき被写体オ
ブジェクトの画像の記録をオブジェクト支持台及び写真
マットと共に示す図である。
【図4a】、
【図4b】、
【図4c】、
【図4d】、
【図4e】、カメラの撮影位置及び向きと、オブジェク
ト支持台の高さの選択がカメラにより記録される入力画
像にどのような影響を及ぼすかを示す図である。
【図5】図1の処理装置に入力されるオブジェクト、オ
ブジェクト支持台及び写真マットの画像を示す図であ
る。
【図6】入力データを処理するために図1の処理装置に
より実行される処理動作を示す図である。
【図7a】、
【図7b】、
【図7c】図6のステップS6−8で実行される処理動
作を示す図である。
【図8】被写体オブジェクト及びオブジェクト支持台の
3Dサーフェスモデルを生成するためにボクセルカービ
ング演算を実行すべき図6のステップS6−10の初期
ボリュームの定義を示す図である。
【図9】図6のステップS6−12で実行される処理動
作を示す図である。
【図10】図9のステップS9−2における仮想画像の
画素データの作成を示す図である。
【図11】第1の実施形態において図6のステップS6
−14で実行される処理動作を示す図である。
【図12a】、
【図12b】、
【図12c】図11のステップS11−2及びS11−
4における可動平面の表示及び移動を示す図である。
【図13】図11のステップS11−8でボクセルカー
ビングを実行すべき初期ボリュームの再定義を示す図で
ある。
【図14】透明な上部を有する第2の実施形態のオブジ
ェクト支持台を示す図である。
【図15】第2の実施形態において図6のステップS6
−14で実行される処理動作を示す図である。
【図16】別の実施形態においてユーザがカメラの撮影
位置及び向きを選択するのを補助するためのマーカを有
するオブジェクト支持台を示す図である。
【図17】写真マットではなく、オブジェクト支持台に
識別可能な特徴が設けられている、別の実施形態のオブ
ジェクト支持台を示す図である。
【図18】写真マット及びオブジェクト支持台に識別可
能な特徴が設けられている、更に別の実施形態の写真マ
ット及びオブジェクト支持台を示す図である。
【図19】写真マットの代わりに識別可能な特徴を有す
る三次元キャリブレーションオブジェクトを使用する更
に別の実施形態を示す図である。
【図20a】、
【図20b】全ての実施形態において位置及び向きが可
変である平面を使用して三次元コンピュータモデルをど
のようにして編集するかを示す図である。
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 G01B 11/24 K 5L096 13/02 N (72)発明者 アレキサンダー ラルフ リオンズ イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ キヤノン リサーチ センター ヨーロッ パ リミテッド 内 (72)発明者 アダム マイケル ボームバーグ イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ キヤノン リサーチ センター ヨーロッ パ リミテッド 内 (72)発明者 リチャード イアン テイラー イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ キヤノン リサーチ センター ヨーロッ パ リミテッド 内 (72)発明者 アーロン ウィリアム クリストファー コッチェフ イギリス国 アールジー12 2エックスエ イチ, バークシャー, ブラックネル, ロンドン ロード, ザ ブラカンズ キヤノン リサーチ センター ヨーロッ パ リミテッド 内 Fターム(参考) 2F065 AA04 AA31 AA53 DD04 FF04 JJ03 MM03 MM04 PP12 QQ24 QQ31 QQ32 QQ33 QQ37 RR02 SS02 TT02 5B047 AA07 AB04 BA02 BB04 BC14 BC23 CB22 DC09 5B057 AA20 BA11 BA19 CA01 CA12 CA13 CA16 CB13 CB20 CH01 CH11 CH14 DA17 DB03 DB06 5C054 AA05 CA04 CC03 CE16 DA07 EA05 FC09 FD02 FE02 GA01 GB02 HA00 5C061 AA06 AA21 AA25 AB03 AB08 AB17 5L096 AA02 AA09 BA18 CA04 EA37 FA67 FA69 HA01

Claims (75)

    【特許請求の範囲】
  1. 【請求項1】 異なる位置及び向きから被写体オブジェ
    クトの画像を記録し、記録された画像データを処理し
    て、被写体オブジェクトの三次元コンピュータモデルを
    生成する方法であって、 オブジェクト支持台を使用し、所定の特徴のパターンを
    有するキャリブレーションブジェクトの上方に被写体オ
    ブジェクトを支持する工程と、 前記キャリブレーションオブジェクトの上方に支持され
    た前記被写体オブジェクトの複数の画像を異なる位置及
    び向きで記録する工程と、 記録された画像を処理して、画像のうち少なくともいく
    つかの画像の各々の記録された位置及び向きを計算する
    工程と、 計算された位置及び向きを使用して、少なくとも前記被
    写体オブジェクトの三次元コンピュータモデルを定義す
    るデータを生成するための処理を実行する工程とを備え
    ることを特徴とする方法。
  2. 【請求項2】 前記キャリブレーションオブジェクトの
    上方に支持された前記被写体オブジェクトの画像は、記
    録される各画像において、前記被写体オブジェクトの輪
    郭が前記オブジェクト支持台にかかる場所を除いて背景
    により取り囲まれるように、ほぼ一様な色の背景を前記
    被写体オブジェクトの背後に配置した状態で記録される
    ことを特徴とする請求項1記載の方法。
  3. 【請求項3】 前記背景は背景スクリーンにより提供さ
    れることを特徴とする請求項2記載の方法。
  4. 【請求項4】 前記オブジェクト支持台の、少なくとも
    前記被写体オブジェクトに隣接する部分は前記背景とほ
    ぼ同じ色であり、 三次元コンピュータモデルを生成するための処理工程
    は、前記被写体オブジェクトの三次元コンピュータモデ
    ルと、それとは別個の、前記オブジェクト支持台の三次
    元コンピュータモデルとを定義するデータを生成する工
    程を含むことを特徴とする請求項2又は3記載の方法。
  5. 【請求項5】 前記オブジェクト支持台の、少なくとも
    前記被写体オブジェクトに隣接する部分はほぼ透明であ
    り、 三次元コンピュータモデルを生成するための処理工程
    は、前記被写体オブジェクトの三次元コンピュータモデ
    ルと、それとは別個の、前記オブジェクト支持台の三次
    元コンピュータモデルとを定義するデータを生成する工
    程を含むことを特徴とする請求項1乃至3のいずれか1
    項に記載の方法。
  6. 【請求項6】 前記被写体オブジェクトは、前記キャリ
    ブレーションオブジェクト上に立っているオブジェクト
    支持台の少なくとも1つの面により支持され、 前記被写体オブジェクトを支持している前記オブジェク
    ト支持台の各面は前記被写体オブジェクトの下方から、
    はみ出ないことを特徴とする請求項1乃至5のいずれか
    1項に記載の方法。
  7. 【請求項7】 前記オブジェクト支持台は複数のキャリ
    ブレーション特徴を有し、 前記画像のうち少なくともいくつかの画像の各々が記録
    された位置及び向きを計算するための処理工程は、画像
    データ中の前記オブジェクト支持台のキャリブレーショ
    ン特徴を検出する工程と、検出された特徴の位置を使用
    して、画像が記録された位置及び向きを計算する工程と
    を含むことを特徴とする請求項1乃至6のいずれか1項
    に記載の方法。
  8. 【請求項8】 前記オブジェクト支持台のキャリブレー
    ション特徴の相対位置を定義するデータは事前に格納さ
    れており、そのデータを使用して画像が記録された位置
    及び向きが計算されることを特徴とする請求項7記載の
    方法。
  9. 【請求項9】 前記オブジェクト支持台は前記キャリブ
    レーションオブジェクトに対して所定の構成で配置され
    ており、 前記キャリブレーションオブジェクトの特徴の位置に対
    する前記オブジェクト支持台のキャリブレーション特徴
    の位置を定義するデータが事前に格納され、そのデータ
    を使用して画像が記録された位置及び向きを計算するこ
    とを特徴とする請求項7又は8に記載の方法。
  10. 【請求項10】 前記被写体オブジェクトは反射面の上
    方に支持され、 前記反射面における反射に対応する画像データに従って
    前記被写体オブジェクトの三次元コンピュータモデルの
    テクスチャデータを生成するための処理が実行されるこ
    とを特徴とする請求項1乃至9のいずれか1項に記載の
    方法。
  11. 【請求項11】 前記キャリブレーションオブジェクト
    は三次元であることを特徴とする請求項1乃至10のい
    ずれか1項に記載の方法。
  12. 【請求項12】 前記オブジェクト支持台及び前記キャ
    リブレーションオブジェクトは一体に形成され、前記被
    写体オブジェクトはそれにより前記キャリブレーション
    オブジェクトの所定の特徴のパターンの上方に支持され
    ていることを特徴とする請求項1乃至11のいずれか1
    項に記載の方法。
  13. 【請求項13】 所定の特徴のパターンを有するキャリ
    ブレーションオブジェクトの上方にオブジェクト支持台
    により支持された被写体オブジェクトの異なる位置及び
    向きで記録された複数の画像を定義する画像データを処
    理する方法であって、 画像データを処理して、画像のうち少なくともいくつか
    の画像が記録された位置及び向きを計算する工程と、 計算された位置及び向きを使用して、前記オブジェクト
    支持台を含まない前記被写体オブジェクトの三次元コン
    ピュータモデルを定義するデータを生成するための処理
    を実行する工程とを備えることを特徴とする方法。
  14. 【請求項14】 画像のうち少なくともいくつかの画像
    が記録された位置及び向きを計算する工程は、前記オブ
    ジェクト支持台の特徴に対応するそれぞれの画像を定義
    する画像データ中の整合特徴を検出する工程を含むこと
    を特徴とする請求項13記載の方法。
  15. 【請求項15】 三次元コンピュータモデルを定義する
    データを生成する工程は、 画像を処理して、少なくとも前記被写体オブジェクトに
    関連する画像データを背景画像データから分離する工程
    と、 分離された画像データと、計算された位置及び向きとを
    処理して、三次元コンピュータモデルを定義するデータ
    を生成する工程とを含むことを特徴とする請求項13又
    は14記載の方法。
  16. 【請求項16】 三次元コンピュータモデルを生成する
    ために画像データを処理する方法であって、 異なる相対位置及び向きで記録されたオブジェクト支持
    台により支持される被写体オブジェクトの複数の画像を
    少なくとも一部で定義する画像データを受信する工程
    と、 画像が記録された位置及び向きを定義するデータを受信
    する工程と、 受信したデータを処理して、前記オブジェクト支持台を
    含まない前記被写体オブジェクトの三次元コンピュータ
    モデルを定義するデータを生成する工程とを備えること
    を特徴とする方法。
  17. 【請求項17】 三次元コンピュータモデルを定義する
    データを生成する工程は、前記オブジェクト支持台の少
    なくとも1つの既知のパラメータを使用して、前記オブ
    ジェクト支持台の三次元コンピュータモデルを定義する
    データを生成せずに、前記被写体オブジェクトの三次元
    コンピュータモデルを定義するデータを生成する工程を
    含むことを特徴とする請求項13乃至16のいずれか1
    項に記載の方法。
  18. 【請求項18】 前記オブジェクト支持台の既知のパラ
    メータは前記オブジェクト支持台の高さであることを特
    徴とする請求項17記載の方法。
  19. 【請求項19】 前記被写体オブジェクトの三次元コン
    ピュータモデルを定義するデータを生成する工程は、 三次元空間におけるボクセルのボリュームから前記オブ
    ジェクト支持台は除外されるが、前記被写体オブジェク
    トは除外されないように、前記オブジェクト支持台の既
    知の高さに従ってボリュームを定義する工程と、 画像データに従ってボリュームからボクセルを除去する
    工程とを含むことを特徴とする請求項18記載の方法。
  20. 【請求項20】 三次元コンピュータモデルを定義する
    データを生成する工程は、前記被写体オブジェクト及び
    前記オブジェクト支持台の少なくとも1つの三次元コン
    ピュータモデルを生成するための処理を実行する工程
    と、前記オブジェクト支持台の三次元コンピュータモデ
    ルを除去するための処理を実行する工程を含むことを特
    徴とする請求項13乃至16のいずれか1項に記載の方
    法。
  21. 【請求項21】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理は、ユーザにより
    入力される、除去すべき三次元コンピュータモデルを定
    義する信号に従って実行されることを特徴とする請求項
    20記載の方法。
  22. 【請求項22】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理は、(a)前記被
    写体オブジェクト及び前記オブジェクト支持台の三次元
    コンピュータモデルの画像を定義する画像データを、ユ
    ーザにより移動自在である平面と共にユーザに対し表示
    するために生成する工程と、(b)ユーザにより入力さ
    れる、前記平面の位置を定義する信号を受信する工程
    と、(c)工程(a)及び(b)を繰り返す工程と、(d)
    前記平面の所定の側に位置する三次元コンピュータモデ
    ルを除去する工程とを含むことを特徴とする請求項21
    記載の方法。
  23. 【請求項23】 前記被写体オブジェクトは前記キャリ
    ブレーションオブジェクト上に立っているオブジェクト
    支持台の上のほとんどの面で支持され、前記平面はほぼ
    水平の平面に向きを有するように生成され、且つユーザ
    に前記平面の位置を移動させるが、前記平面の向きを変
    化させないように処理が実行されることを特徴とする請
    求項22記載の方法。
  24. 【請求項24】 前記平面は前記オブジェクト支持台と
    同じ形状及び同じ横断面面積で生成されることを特徴と
    する請求項22又は23記載の方法。
  25. 【請求項25】 ことを特徴とする前記平面の所定の側
    に位置する三次元コンピュータモデルを除去する工程
    は、 ボクセルのボリュームの境界が前記平面の位置に対応す
    る位置にあるように、ボリュームを三次元空間で定義す
    る工程と、 画像データに従ってボリュームからボクセルを除去する
    工程とを含むことを特徴とする請求項22乃至24のい
    ずれか1項に記載の方法。
  26. 【請求項26】 前記被写体オブジェクトの三次元コン
    ピュータモデルと、それとは別個の、前記オブジェクト
    支持台の三次元コンピュータモデルとを生成するための
    処理が実行され、且つ前記オブジェクト支持台の三次元
    コンピュータモデルを除去する工程は、三次元コンピュ
    ータモデルの少なくとも1つの画像を定義する画像デー
    タをユーザに対し表示するために生成する工程と、ユー
    ザにより入力される、三次元コンピュータモデルの一方
    を定義する信号を受信する工程と、ユーザにより入力さ
    れた信号に従って三次元コンピュータモデルの少なくと
    も一方を除去する工程とを含むことを特徴とする請求項
    21記載の方法。
  27. 【請求項27】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理は、ユーザにより
    入力される信号なしに除去すべき三次元コンピュータモ
    デルを識別するための処理を含むことを特徴とする請求
    項20記載の方法。
  28. 【請求項28】 前記被写体オブジェクトの三次元コン
    ピュータモデルと、それとは別個の、前記オブジェクト
    支持台の三次元コンピュータモデルとを生成するための
    処理が実行され、且つ、前記キャリブレーションオブジ
    ェクトの位置に対応する位置に最も近接する位置を有す
    る三次元コンピュータモデルを除去するための処理が実
    行されることを特徴とする請求項27記載の方法。
  29. 【請求項29】 異なる位置で三次元コンピュータモデ
    ルの少なくとも1つの特性を試験し且つ試験された特性
    が変化した位置に従って三次元コンピュータモデルの一
    部を除去するための処理が実行されることを特徴とする
    請求項27記載の方法。
  30. 【請求項30】 三次元コンピュータモデルの横断面面
    積及び色のうち少なくとも一方が試験されることを特徴
    とする請求項29記載の方法。
  31. 【請求項31】 前記オブジェクト支持台の基準三次元
    コンピュータモデルを定義するデータが事前に格納され
    ており、基準モデルを前記被写体オブジェクト及び前記
    オブジェクト支持台の三次元コンピュータモデルと比較
    して、前記オブジェクト支持台に対応する三次元コンピ
    ュータモデルの部分を識別し、識別された部分が除去さ
    れることを特徴とする請求項27記載の方法。
  32. 【請求項32】 三次元コンピュータモデルを定義する
    データを生成する工程は、画像データを使用してテクス
    チャデータを生成する工程を含む請ことを特徴とする求
    項13乃至31のいずれか1項に記載の方法。
  33. 【請求項33】 テクスチャデータを生成する工程は、
    反射面における前記被写体オブジェクトの反射に対応す
    るデータを識別するための画像データを処理する工程
    と、識別されたデータを使用して、三次元コンピュータ
    モデルの面のテクスチャデータを生成する工程とを含む
    ことを特徴とする請求項32記載の方法。
  34. 【請求項34】 受信される画像データは、記録画像の
    他の画像データから事前に分割された前記被写体オブジ
    ェクト及び前記オブジェクト支持台に関連する画像デー
    タであることを特徴とする請求項16記載の方法。
  35. 【請求項35】 前記被写体オブジェクトの三次元コン
    ピュータモデルを定義するデータを搬送する信号を発生
    する工程を更に含むことを特徴とする請求項13乃至3
    4のいずれか1項に記載の方法。
  36. 【請求項36】 信号を直接に又は間接的に記録する工
    程を更に含むことを特徴とする請求項35記載の方法。
  37. 【請求項37】 オブジェクトの画像を処理して前記オ
    ブジェクトの三次元コンピュータモデルを定義するデー
    タを生成し且つ三次元コンピュータモデルを修正する方
    法であって、(a)異なる位置及び向きで記録されたオ
    ブジェクトの複数の画像を少なくとも一部で定義する画
    像データを受信する工程と、(b)画像が記録された位
    置及び向きを定義するデータを受信する工程と、(c)
    受信したデータを処理して、前記オブジェクトの三次元
    コンピュータモデルを定義するデータを生成する工程
    と、(d)三次元コンピュータモデルの画像を定義する
    データをユーザにより移動自在である平面と共にユーザ
    に対し表示するために生成する工程と、(e)ユーザに
    より入力される、前記平面の位置及び向きを定義する信
    号を受信する工程と、(f)工程(d)及び(e)を繰り
    返す工程と、(g)前記平面の一方の側に位置する三次
    元コンピュータモデルの部分を除去する工程とを備える
    ことを特徴とする方法。
  38. 【請求項38】 工程(g)は、工程(a)で受信された
    画像データ及び工程(b)で受信された位置及び向きの
    データを処理して、前記平面により定義される境界を有
    する三次元空間で前記オブジェクトの三次元コンピュー
    タモデルを定義するデータを生成する工程を含むことを
    特徴とする請求項37記載の方法。
  39. 【請求項39】 異なる位置及び向きから被写体オブジ
    ェクトの画像を記録し、記録された画像データを処理し
    て、前記被写体オブジェクトの三次元コンピュータモデ
    ルを生成するシステムであって、 所定の特徴のパターンを有するキャリブレーションオブ
    ジェクトと、 前記被写体オブジェクトを前記キャリブレーションオブ
    ジェクトより高い位置に支持するオブジェクト支持台
    と、 前記キャリブレーションオブジェクトより高い位置に支
    持された前記被写体オブジェクトの複数の画像を異なる
    位置及び向きで記録するイメージャと、 画像データ処理装置とを具備し、前記画像データ処理装
    置は、 記録された画像データを処理して、画像のうち少なくと
    もいくつかの画像の各々が記録された位置及び向きを計
    算する手段と、 計算された位置及び向きを使用して、少なくとも前記被
    写体オブジェクトの三次元コンピュータモデルを定義す
    るデータを生成するための処理を実行する手段とを備え
    ることを特徴とするシステム。
  40. 【請求項40】 前記キャリブレーションオブジェクト
    より高い位置に支持された前記被写体オブジェクトの画
    像を前記被写体オブジェクトの背後のスクリーンと共に
    記録でき、各々の記録画像において、前記被写体オブジ
    ェクトの輪郭が前記オブジェクト支持台にかかる場所を
    除いて、輪郭が背景により取り囲まれるように、ほぼ一
    様な色を有し、前記被写体オブジェクトの背後に配置さ
    れるべきスクリーンを更に具備することを特徴とする請
    求項39記載のシステム。
  41. 【請求項41】 前記オブジェクト支持台の、前記被写
    体オブジェクトが前記オブジェクト支持台上に配置され
    たときに前記被写体オブジェクトに隣接する部分は、少
    なくとも前記スクリーンとほぼ同じ色であり、 三次元コンピュータモデルを生成する前記処理手段は、
    前記被写体オブジェクトの三次元コンピュータモデル
    と、それとは別個の、前記オブジェクト支持台の三次元
    コンピュータモデルとを定義するデータを生成する手段
    を備えることをことを特徴とする請求項40記載のシス
    テム。
  42. 【請求項42】 前記オブジェクト支持台の、前記被写
    体オブジェクトが前記オブジェクト支持台上に配置され
    たときに前記被写体オブジェクトに隣接する部分は、少
    なくともほぼ透明であり、 三次元コンピュータモデルを生成する前記処理手段は、
    前記被写体オブジェクトの三次元コンピュータモデル
    と、それとは別個の、前記オブジェクト支持台の三次元
    コンピュータモデルとを定義するデータを生成する手段
    を備えることを特徴とする請求項39又は40記載のシ
    ステム。
  43. 【請求項43】 前記オブジェクト支持台は、その上に
    前記被写体オブジェクトが乗ったときに、前記被写体オ
    ブジェクトを支持する面が前記被写体オブジェクトの下
    から大きく突出することのないように配置されることを
    特徴とする請求項39乃至42のいずれか1項に記載の
    システム。
  44. 【請求項44】 前記オブジェクト支持台は複数のキャ
    リブレーション特徴を有し、 画像のうち少なくともいくつかの画像の各々が記録され
    た位置及び向きを計算する前記処理手段は、画像データ
    中の、前記オブジェクト支持台のキャリブレーション特
    徴を検出し、検出された特徴の位置を使用して、画像が
    記録された位置及び向きを計算する手段を含むことを特
    徴とする請求項39乃至43のいずれか1項に記載のシ
    ステム。
  45. 【請求項45】 前記画像データ処理装置は、前記オブ
    ジェクト支持台のキャリブレーション特徴の相対位置を
    定義するデータを事前に格納する手段を含み、且つ、画
    像のうち少なくともいくつかの画像の各々が記録された
    位置及び向きを計算する前記処理手段は、事前に格納さ
    れているデータを使用して、画像が記録された位置及び
    向きを計算するように構成されていることを特徴とする
    請求項44記載のシステム。
  46. 【請求項46】 前記オブジェクト支持台は、前記キャ
    リブレーションオブジェクトに所定の構成で接続される
    ように配置され、 前記画像データ処理装置は、前記オブジェクト支持台が
    前記キャリブレーションオブジェクトに接合されたとき
    の前記キャリブレーションオブジェクトの特徴の位置に
    対する前記オブジェクト支持台のキャリブレーション特
    徴の位置を定義するデータを事前に格納する手段を含
    み、 画像のうち少なくともいくつかの画像の各々が記録され
    た位置及び向きを計算する前記処理手段は、事前に格納
    されているデータを使用して、画像が記録された位置及
    び向きを計算するように構成されていることを特徴とす
    る請求項44又は45記載のシステム。
  47. 【請求項47】 前記キャリブレーションオブジェクト
    は反射面を有し、 前記画像データ処理装置は、前記反射面における反射に
    対応する画像データに従って前記被写体オブジェクトの
    三次元コンピュータモデルのテクスチャデータを生成す
    る手段を含むことを特徴とする請求項39乃至46のい
    ずれか1項に記載のシステム。
  48. 【請求項48】 前記キャリブレーションオブジェクト
    は三次元であることを特徴とする請求項39乃至47の
    いずれか1項に記載のシステム。
  49. 【請求項49】 前記オブジェクト支持台及び前記キャ
    リブレーションオブジェクトは、前記被写体オブジェク
    トが前記オブジェクト支持台に乗ったときに、前記被写
    体オブジェクトが所定の特徴のパターンより高い位置に
    且つ所定の特徴パターンとは離間して支持されるよう
    に、前記被写体オブジェクトを支持する面と一体に形成
    されていることを特徴とする請求項39乃至48のいず
    れか1項に記載のシステム。
  50. 【請求項50】 オブジェクト支持台により、所定の特
    徴パターンを有するキャリブレーションオブジェクトよ
    り高い位置に支持される被写体オブジェクトの異なる位
    置及び向きで記録された複数の画像を定義する画像デー
    タを処理する装置であって、 画像データを処理して、画像のうち少なくともいくつか
    の画像が記録された位置及び向きを計算する手段と、 計算された位置及び向きを使用して、前記オブジェクト
    支持台を含まない前記被写体オブジェクトの三次元コン
    ピュータモデルを定義するデータを生成する手段とを備
    えることをことを特徴とする装置。
  51. 【請求項51】 画像のうち少なくともいくつかの画像
    が記録された位置及び向きを計算する前記手段は、前記
    オブジェクト支持台の特徴に対応するそれぞれの画像を
    定義する画像データ中の整合する特徴を検出する手段を
    含むことを特徴とする請求項50に記載の装置。
  52. 【請求項52】 前記三次元コンピュータモデルを定義
    するデータを生成する手段は、 少なくとも前記被写体オブジェクトに関連する画像デー
    タを背景画像データから分離するために画像を処理する
    手段と、 分離された画像データと、計算された位置及び向きとを
    処理して、三次元コンピュータモデルを定義するデータ
    を生成する手段とを備えることを特徴とする請求項50
    又は51記載の装置。
  53. 【請求項53】 三次元コンピュータモデルを生成する
    ために画像データを処理する装置であって、 オブジェクト支持台により支持され、異なる相対位置及
    び向きで記録された被写体オブジェクトの複数の画像を
    少なくとも一部で定義する画像データを受信する手段
    と、 画像が記録された位置及び向きを定義するデータを受信
    する手段と、 受信したデータを処理して、前記オブジェクト支持台を
    含まない前記被写体オブジェクトの三次元コンピュータ
    モデルを定義するデータを生成する手段とを備えること
    を特徴とする装置。
  54. 【請求項54】 前記三次元コンピュータモデルを定義
    するデータを生成する手段は、前記オブジェクト支持台
    の少なくとも1つの既知のパラメータを使用して、前記
    オブジェクト支持台の三次元コンピュータモデルを定義
    するデータを生成せずに前記被写体オブジェクトの三次
    元コンピュータモデルを定義するデータを生成するため
    の処理を実行する手段を備えることを特徴とする請求項
    50乃至53のいずれか1項に記載の装置。
  55. 【請求項55】 前記オブジェクト支持台の既知のパラ
    メータは前記オブジェクト支持台の高さであることを特
    徴とする請求項54記載の装置。
  56. 【請求項56】 前記被写体オブジェクトの三次元コン
    ピュータモデルを定義するデータを生成する手段は、 ボクセルのボリュームの底平面が前記オブジェクト支持
    台の既知の高さに対応する前記キャリブレーションオブ
    ジェクトより高い高さに設定されるように、三次元空間
    においてボクセルのボリュームを定義する手段と、 画像データに従ってボリュームからボクセルを除去する
    手段とを備えることをことを特徴とする請求項55記載
    の装置。
  57. 【請求項57】 前記三次元コンピュータモデルを定義
    するデータを生成する手段は、前記被写体オブジェクト
    及び前記オブジェクト支持台の少なくとも1つの三次元
    コンピュータモデルを生成するための処理を実行する手
    段と、前記オブジェクト支持台の三次元コンピュータモ
    デルを除去するための処理を実行する手段とを備えるこ
    とを特徴とする請求項50乃至53のいずれか1項に記
    載の装置。
  58. 【請求項58】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理を実行する手段
    は、ユーザにより入力される、除去すべき三次元コンピ
    ュータモデルを定義する信号に従って三次元コンピュー
    タモデルを除去する手段を備えることを特徴とする請求
    項57記載の装置。
  59. 【請求項59】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理を実行する手段
    は、 前記被写体オブジェクト及び前記オブジェクト支持台の
    三次元コンピュータモデルの画像を定義する画像データ
    を、ユーザにより移動自在である平面と共に、ユーザに
    対し表示するために生成する手段と、 ユーザにより入力される、前記平面の位置を定義する信
    号を受信する手段と、 前記平面の所定の側に位置する三次元コンピュータモデ
    ルを除去する手段とを備えることを特徴とする請求項5
    8記載の装置。
  60. 【請求項60】 前記被写体オブジェクトは前記キャリ
    ブレーションオブジェクト上に立っているオブジェクト
    支持台の最上面で支持され、且つ前記オブジェクト支持
    台の三次元コンピュータモデルを除去するための処理を
    実行する手段は、 前記平面がほぼ水平の平面内に向きを有するように生成
    され、且つユーザに前記平面の向きを変更せずに前記平
    面の位置を移動させるための処理が実行されるように構
    成されていることを特徴とする請求項59記載の装置。
  61. 【請求項61】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理を実行する手段
    は、前記平面が前記オブジェクト支持台と同じ形状及び
    同じ横断面面積で生成されるように動作すべく構成され
    ている請求項59又は60記載の装置。
  62. 【請求項62】 前記平面の所定の側に位置する三次元
    コンピュータモデルを除去する手段は、 ボクセルのボリュームの境界が前記平面の位置に対応す
    る位置にあるように、三次元空間においてボクセルのボ
    リュームを定義する手段と、 画像データに従ってボリュームからボクセルを除去する
    手段とを備えることを特徴とする請求項59乃至61の
    いずれか1項に記載の装置。
  63. 【請求項63】 装置は、前記被写体オブジェクトの三
    次元モデルと、それとは別個の、前記オブジェクト支持
    台の三次元コンピュータモデルとを生成するための処理
    を実行するように構成され、 前記オブジェクト支持台の三次元コンピュータモデルを
    除去する手段は、 三次元コンピュータモデルの少なくとも一方の画像を定
    義する画像データをユーザに対し表示するために生成す
    る手段と、 ユーザにより入力される、三次元コンピュータモデルの
    一方を定義する信号を受信する手段と、 ユーザにより入力される信号に従って三次元コンピュー
    タモデルの一方を除去する手段とを備えることを特徴と
    する請求項58記載の装置。
  64. 【請求項64】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理を実行する手段
    は、ユーザにより入力される信号なしに除去すべき三次
    元コンピュータモデルを識別すべく動作するように構成
    されていることを特徴とする請求項57記載の装置。
  65. 【請求項65】 装置は、前記被写体オブジェクトの三
    次元コンピュータモデルと、それとは別個の、前記オブ
    ジェクト支持台の三次元コンピュータモデルとを生成す
    るための処理を実行するように構成され、且つ前記オブ
    ジェクト支持台の三次元コンピュータモデルを除去する
    ための処理を実行する手段は、前記キャリブレーション
    オブジェクトの位置に対応する位置に最も近接する位置
    を有する三次元コンピュータモデルを除去するための処
    理を実行するように構成されていることを特徴とする請
    求項64記載の装置。
  66. 【請求項66】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理を実行する手段
    は、異なる位置において三次元コンピュータモデルの少
    なくとも1つの特性を試験し且つ試験された特性が変化
    する位置に従って三次元コンピュータモデルの一部を除
    去するための処理を実行するように構成されていること
    を特徴とする請求項64記載の装置。
  67. 【請求項67】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理を実行する手段
    は、除去すべき三次元コンピュータモデルの部分を判定
    するために、三次元コンピュータモデルの横断面面積及
    び色の少なくとも一方を試験するように構成されている
    ことを特徴とする請求項66記載の装置。
  68. 【請求項68】 前記オブジェクト支持台の三次元コン
    ピュータモデルを除去するための処理を実行する手段
    は、 前記オブジェクト支持台の基準三次元コンピュータモデ
    ルを定義するデータを事前に格納する手段と、 前記オブジェクト支持台に対応する三次元コンピュータ
    モデルの部分を識別するために、前記基準モデルを前記
    被写体オブジェクト及び前記オブジェクト支持台の三次
    元コンピュータモデルと比較する手段と、 識別された部分を除去する手段とを備えることを特徴と
    する請求項64記載の装置。
  69. 【請求項69】 前記三次元コンピュータモデルを定義
    するデータを生成する手段は、画像データを使用してテ
    クスチャデータを生成する手段を含むことを特徴とする
    請求項50乃至68のいずれか1項に記載の装置。
  70. 【請求項70】 前記テクスチャデータを生成する手段
    は、反射面における前記被写体オブジェクトの反射に対
    応するデータを識別するための画像データを処理する手
    段と、識別されたデータを使用して、三次元コンピュー
    タモデルの面のテクスチャデータを生成する手段とを含
    むことを特徴とする請求項69記載の装置。
  71. 【請求項71】 受信される画像データは、記録された
    画像中の他の画像データから事前に分離された前記被写
    体オブジェクト及び前記オブジェクト支持台に関連する
    画像データであることを特徴とする請求項53記載の装
    置。
  72. 【請求項72】 オブジェクトの三次元コンピュータモ
    デルを定義するデータを生成するためにオブジェクトの
    画像を処理し且つ三次元コンピュータモデルを修正する
    装置であって、 異なる位置及び向きで記録されたオブジェクトの複数の
    画像を少なくとも一部で定義する画像データを受信する
    手段と、 画像が記録された位置及び向きを定義するデータを受信
    する手段と、 受信したデータを処理して、前記オブジェクトの三次元
    コンピュータモデルを定義するデータを生成する手段
    と、 三次元コンピュータモデルの画像を定義するデータをユ
    ーザにより移動自在である平面と共にユーザに対し表示
    するために生成する手段と、 ユーザにより入力される、前記平面の位置及び向きを定
    義する信号を受信する手段と、 前記平面の一方の側に位置する三次元コンピュータモデ
    ルの部分を除去する手段とを備えることを特徴とする装
    置。
  73. 【請求項73】 前記三次元コンピュータモデルの一部
    を除去する手段は、受信した画像データと、受信した位
    置及び向きのデータとを処理して、前記平面により定義
    される境界を有する三次元空間において前記オブジェク
    トの三次元コンピュータモデルを定義するデータを生成
    する手段を具備することを特徴とする請求項72記載の
    装置。
  74. 【請求項74】 請求項13乃至38の少なくとも1項
    に記載の方法を実行するためにプログラム可能処理装置
    を動作可能にさせるための命令を格納する記憶装置。
  75. 【請求項75】 請求項13乃至38の少なくとも1項
    に記載の方法を実行するためにプログラム可能処理装置
    を動作可能にさせるための命令を搬送する信号。
JP2001296570A 2000-09-27 2001-09-27 画像処理装置 Expired - Fee Related JP4497772B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0023681.0 2000-09-27
GBGB0023681.0A GB0023681D0 (en) 2000-09-27 2000-09-27 Image processing apparatus

Publications (3)

Publication Number Publication Date
JP2002222412A true JP2002222412A (ja) 2002-08-09
JP2002222412A5 JP2002222412A5 (ja) 2008-10-23
JP4497772B2 JP4497772B2 (ja) 2010-07-07

Family

ID=9900239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001296570A Expired - Fee Related JP4497772B2 (ja) 2000-09-27 2001-09-27 画像処理装置

Country Status (4)

Country Link
US (1) US7079679B2 (ja)
EP (1) EP1193646A3 (ja)
JP (1) JP4497772B2 (ja)
GB (1) GB0023681D0 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005100910A1 (ja) * 2004-04-09 2005-10-27 Techno Dream 21 Co., Ltd. 3次元形状計測方法及びその装置
WO2016199366A1 (ja) * 2015-06-11 2016-12-15 パナソニックIpマネジメント株式会社 寸法測定装置および寸法測定方法
JP2019168252A (ja) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド 処理装置、3次元モデルの分割方法及びプログラム
WO2020003753A1 (ja) * 2018-06-29 2020-01-02 パナソニックIpマネジメント株式会社 宅配ボックスの寸法測定装置
JP2021073563A (ja) * 2016-09-23 2021-05-13 アップル インコーポレイテッドApple Inc. 拡張されたユーザ対話のための画像データ
JP6905651B1 (ja) * 2019-12-13 2021-07-21 川崎重工業株式会社 ロボットシステム及びワークの3次元モデルの形成方法
US11380077B2 (en) 2018-05-07 2022-07-05 Apple Inc. Avatar creation user interface
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11532112B2 (en) 2017-05-16 2022-12-20 Apple Inc. Emoji recording and sending
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4877891B2 (ja) * 2001-08-03 2012-02-15 株式会社トプコン 校正用被写体
FI111755B (fi) * 2001-11-23 2003-09-15 Mapvision Oy Ltd Menetelmä ja järjestelmä konenäköjärjestelmän kalibroimiseksi
US7653219B2 (en) * 2002-01-22 2010-01-26 Photoinaphoto.Com System and method for image attribute recording an analysis for biometric applications
EP1347418A3 (en) 2002-02-28 2005-11-23 Canon Europa N.V. Texture map editing
JP4043258B2 (ja) * 2002-03-13 2008-02-06 オリンパス株式会社 3次元画像撮影装置
GB2387519B (en) * 2002-04-08 2005-06-22 Canon Europa Nv Viewing controller for three-dimensional computer graphics
JP3635539B2 (ja) 2002-08-29 2005-04-06 オリンパス株式会社 キャリブレーションパターンユニット
GB0224449D0 (en) * 2002-10-21 2002-11-27 Canon Europa Nv Apparatus and method for generating texture maps for use in 3D computer graphics
GB2398469B (en) * 2003-02-12 2005-10-26 Canon Europa Nv Image processing apparatus
GB2400288B (en) * 2003-04-02 2005-12-28 Canon Europa Nv Generating texture maps for use in 3D computer graphics
GB0310504D0 (en) * 2003-05-07 2003-06-11 Canon Europa Nv Photographing apparatus,device and method for obtaining images to be used for creating three-dimensional model
GB0310502D0 (en) * 2003-05-07 2003-06-11 Canon Europa Nv Photographing apparatus,device and method for obtaining images to be used for creating three-dimensional model
GB2405776B (en) * 2003-09-05 2008-04-02 Canon Europa Nv 3d computer surface model generation
GB2406252B (en) 2003-09-18 2008-04-02 Canon Europa Nv Generation of texture maps for use in 3d computer graphics
US20050068544A1 (en) * 2003-09-25 2005-03-31 Gunter Doemens Panoramic scanner
AT501442B1 (de) * 2005-02-22 2007-07-15 Thomas Dipl Ing Kienzl Computergestütztes schnittstellensystem
US7642929B1 (en) 2007-04-19 2010-01-05 The United States Of America As Represented By The Secretary Of The Air Force Helicopter brown-out landing
GB2483213B8 (en) * 2009-06-11 2016-09-14 Toshiba Res Europ Ltd 3D image generation
DK2442720T3 (en) 2009-06-17 2016-12-19 3Shape As Focus scan devices
US20110025685A1 (en) * 2009-07-29 2011-02-03 Doug Epps Combined geometric and shape from shading capture
KR101619076B1 (ko) * 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
AT510808B1 (de) * 2010-11-24 2013-04-15 Kienzl Thomas Dipl Ing Verfahren zur darstellung eines gegenstandes auf einer anzeigeeinheit
EP2691744B1 (en) * 2011-03-31 2019-11-20 ATS Automation Tooling Systems Inc. Three dimensional optical sensing through optical media
WO2014003736A1 (en) 2012-06-27 2014-01-03 Landmark Graphics Corporation Systems and methods for creating a three-dimensional texture atlas
JP6363608B2 (ja) * 2012-10-12 2018-07-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者の顔面データにアクセスするためのシステム
US20140205138A1 (en) * 2013-01-18 2014-07-24 Microsoft Corporation Detecting the location of a keyboard on a desktop
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
US10169665B1 (en) * 2016-02-28 2019-01-01 Alarm.Com Incorporated Virtual inductance loop
EP3436773B1 (en) 2016-04-01 2021-04-28 Lego A/S Toy scanner
CN110168608B (zh) 2016-11-22 2023-08-29 乐高公司 用于获取物理对象的3维数字表示的系统
CN107077739A (zh) * 2017-01-23 2017-08-18 香港应用科技研究院有限公司 使用单目相机的三维标记模型构建和实时跟踪
US20180211404A1 (en) * 2017-01-23 2018-07-26 Hong Kong Applied Science And Technology Research Institute Co., Ltd. 3d marker model construction and real-time tracking using monocular camera
US10433771B2 (en) * 2017-10-06 2019-10-08 James Christopher Pamplin Device for assessing and recording posture
CN109727308A (zh) * 2017-10-30 2019-05-07 三纬国际立体列印科技股份有限公司 实体物件的三维点云模型生成设备及生成方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123199A (ja) * 1998-10-14 2000-04-28 Ricoh Co Ltd 3次元形状の切断装置と切断方法及び切断処理プログラムを格納した記憶媒体

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5428716A (en) * 1991-12-26 1995-06-27 International Business Machines Corporation Solid-clip methodology and architecture for clipping solid models and displaying cross-sections using depth-buffers
JP3869876B2 (ja) * 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
US6081273A (en) * 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
US5966310A (en) 1996-02-13 1999-10-12 Sanyo Electric Co., Ltd. Personal design system and personal equipment production system for actually producing equipment having designed appearance
JPH09244522A (ja) 1996-03-05 1997-09-19 Canon Inc 仮想建築物体験方法及び装置
US6268862B1 (en) 1996-03-08 2001-07-31 Canon Kabushiki Kaisha Three dimensional virtual space generation by fusing images
CN1480903A (zh) * 1996-08-29 2004-03-10 ������������ʽ���� 特征信息赋予、物体抽取和立体模型生成方法及其装置
JP3419213B2 (ja) * 1996-08-30 2003-06-23 ミノルタ株式会社 3次元形状データ処理装置
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5815683A (en) * 1996-11-05 1998-09-29 Mentor Graphics Corporation Accessing a remote cad tool server
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
GB2325996B (en) 1997-06-04 2002-06-05 Lsi Logic Corp Distributed computer aided design system and method
EP0901105A1 (en) * 1997-08-05 1999-03-10 Canon Kabushiki Kaisha Image processing apparatus
DE69823116D1 (de) 1997-08-05 2004-05-19 Canon Kk Bildverarbeitungsverfahren und -gerät
US6072898A (en) * 1998-01-16 2000-06-06 Beaty; Elwin M. Method and apparatus for three dimensional inspection of electronic components
US6342917B1 (en) 1998-01-16 2002-01-29 Xerox Corporation Image recording apparatus and method using light fields to track position and orientation
US6563499B1 (en) * 1998-07-20 2003-05-13 Geometrix, Inc. Method and apparatus for generating a 3D region from a surrounding imagery
JP2003515829A (ja) 1999-11-23 2003-05-07 キヤノン株式会社 画像処理装置
US7728848B2 (en) * 2000-03-28 2010-06-01 DG FastChannel, Inc. Tools for 3D mesh and texture manipulation
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123199A (ja) * 1998-10-14 2000-04-28 Ricoh Co Ltd 3次元形状の切断装置と切断方法及び切断処理プログラムを格納した記憶媒体

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005100910A1 (ja) * 2004-04-09 2005-10-27 Techno Dream 21 Co., Ltd. 3次元形状計測方法及びその装置
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
WO2016199366A1 (ja) * 2015-06-11 2016-12-15 パナソニックIpマネジメント株式会社 寸法測定装置および寸法測定方法
JPWO2016199366A1 (ja) * 2015-06-11 2018-04-05 パナソニックIpマネジメント株式会社 寸法測定装置および寸法測定方法
JP2021073563A (ja) * 2016-09-23 2021-05-13 アップル インコーポレイテッドApple Inc. 拡張されたユーザ対話のための画像データ
JP7158509B2 (ja) 2016-09-23 2022-10-21 アップル インコーポレイテッド 拡張されたユーザ対話のための画像データ
US11532112B2 (en) 2017-05-16 2022-12-20 Apple Inc. Emoji recording and sending
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
JP7000941B2 (ja) 2018-03-22 2022-01-19 株式会社Jvcケンウッド 処理装置、3次元モデルの分割方法及びプログラム
JP2019168252A (ja) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド 処理装置、3次元モデルの分割方法及びプログラム
US11380077B2 (en) 2018-05-07 2022-07-05 Apple Inc. Avatar creation user interface
US11682182B2 (en) 2018-05-07 2023-06-20 Apple Inc. Avatar creation user interface
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
WO2020003753A1 (ja) * 2018-06-29 2020-01-02 パナソニックIpマネジメント株式会社 宅配ボックスの寸法測定装置
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
JP6905651B1 (ja) * 2019-12-13 2021-07-21 川崎重工業株式会社 ロボットシステム及びワークの3次元モデルの形成方法

Also Published As

Publication number Publication date
JP4497772B2 (ja) 2010-07-07
EP1193646A3 (en) 2004-01-02
GB0023681D0 (en) 2000-11-08
US20020061130A1 (en) 2002-05-23
US7079679B2 (en) 2006-07-18
EP1193646A2 (en) 2002-04-03

Similar Documents

Publication Publication Date Title
JP2002222412A (ja) 画像処理装置
US7034821B2 (en) Three-dimensional computer modelling
GB2398469A (en) Identifying an object from images recorded at different positions and orientations
JP7370527B2 (ja) 衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム
US6455835B1 (en) System, method, and program product for acquiring accurate object silhouettes for shape recovery
EP1308902A2 (en) Three-dimensional computer modelling
CN110168608B (zh) 用于获取物理对象的3维数字表示的系统
EP1267309A2 (en) 3D Computer Modelling Apparatus
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP4035978B2 (ja) 3次元形状モデルの評価方法および生成方法並びに装置
JP2002520749A (ja) 完全にテクスチャリングされた3次元モデルを発生する方法及びシステム
JP2003187265A (ja) 画像処理装置
US7620234B2 (en) Image processing apparatus and method for generating a three-dimensional model of an object from a collection of images of the object recorded at different viewpoints and segmented using semi-automatic segmentation techniques
WO2020024684A1 (zh) 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备
JPWO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
US20190362541A1 (en) System, device and method for creating three-dimensional models
JP2004280776A (ja) 画像内のオブジェクトの形状を決定する方法
CN111724464A (zh) 一种移动测量点云着色方法及其装置
JP5441752B2 (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
JP2003302211A (ja) 3次元画像処理装置及び方法
US11276235B2 (en) Method and system for projecting a pattern in mixed reality
JP6887167B2 (ja) 画像処理システム
US20220245890A1 (en) Three-dimensional modelling from photographs in series
WO2024093282A1 (zh) 一种图像处理方法、相关设备及结构光系统
GB2387093A (en) Image processing apparatus with segmentation testing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100409

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100413

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees