JP2003141565A - 3次元形状復元システムおよび方法 - Google Patents

3次元形状復元システムおよび方法

Info

Publication number
JP2003141565A
JP2003141565A JP2001340222A JP2001340222A JP2003141565A JP 2003141565 A JP2003141565 A JP 2003141565A JP 2001340222 A JP2001340222 A JP 2001340222A JP 2001340222 A JP2001340222 A JP 2001340222A JP 2003141565 A JP2003141565 A JP 2003141565A
Authority
JP
Japan
Prior art keywords
data
image
camera
generating
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001340222A
Other languages
English (en)
Inventor
Hideo Miyaji
英生 宮地
Naohisa Sakamoto
尚久 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KGT Inc
Kubota Corp
Original Assignee
KGT Inc
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KGT Inc, Kubota Corp filed Critical KGT Inc
Priority to JP2001340222A priority Critical patent/JP2003141565A/ja
Publication of JP2003141565A publication Critical patent/JP2003141565A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

(57)【要約】 【構成】 復元対象となる物体が、その3次元形状デー
タからCG画像として仮想空間に表され、複数のカメラ
位置でキャプチャされることによって、複数のイメージ
データおよびキャプチャしたときのカメラ位置における
カメラデータが生成される。そして、イメージデータと
カメラデータに基づいて、物体の形状とテクスチャとが
個別に処理される。たとえば、形状データは物体のシル
エット画像からボクセル表現モデルを経てサーフェスモ
デルで表される。テクスチャは各ポリゴンに最適な各マ
ッピング画像領域が生成されてこれらが統合されること
によって生成される。そして、形状データにテクスチャ
画像がテクスチャマッピングされることによって、復元
データが生成される。 【効果】 少ないデータ量で正確かつリアルに物体を復
元できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は3次元形状復元方法お
よびシステムに関し、特にたとえば3次元仮想空間に表
した物体のコンピュータグラフィクス(CG)画像を対
象として物体の3次元形状を復元する、3次元形状復元
方法およびシステムに関する。
【0002】
【従来の技術】従来、物体の3次元形状を復元する手法
においては、実空間における物体を対象として撮影した
画像からこれを復元するようにしており、たとえば回転
テーブルを用いる手法および特徴点を抽出して対応付け
る手法等が知られている。
【0003】回転テーブルを用いる手法では、カメラキ
ャリブレーションの問題からカメラが固定されるととも
に回転テーブル上の物体が撮影され、撮影画像から得た
物体のシルエット情報を用いて3次元形状が復元される
のが一般的である。なお、平成13年3月6日付けで出
願公開された特開2001−59715号公報[G01
B11/24,G06T7/00]では、回転テーブル
の手法が開示されるが、この公報ではシルエット抽出法
ではなく物体表面の濃淡値を利用する手法が用いられて
いる。
【0004】また、特徴点を抽出して対応付ける手法で
は、カメラを固定する必要はないが、物体の形状を特徴
付ける特徴点をすべて抽出し、連続的に撮影された画像
間ですべての特徴点を対応付ける必要がある。
【0005】
【発明が解決しようとする課題】しかし、回転テーブル
の手法では、カメラを固定しなければならないため、オ
クルージョン(隠蔽されて見えなくなった部分)が多く
発生してしまうという問題があった。そのため、一方向
からでは物体の形状が判断できない凹み部分すなわちシ
ルエット情報のみでは判断できない部分は正確に復元で
きず、またテーブルに載置されると物体の底の部分など
も見えないため、物体のあらゆる方向からの復元画像を
得ることもできなかった。また、特徴点による手法で
は、すべての特徴点の安定的かつ正確な抽出および対応
付けは非常に困難であるという問題があり、また抽出は
人手によらねばならず、正確な復元はできなかった。
【0006】一方、CADデータ等のような3次元形状
データがある場合にこれをCG画像に表現してそのまま
使用するのは、3次元形状データにはたとえば描画され
ないポリゴンや物体の内部情報等のような物体の外観
(見た目)の描画に必要ないデータが多く含まれてお
り、つまり、3次元形状データは画像データとしては冗
長で大きすぎるので、描画速度,データ保存およびデー
タ通信(インタネットを介したコンテンツ配信等)等の
観点から適切とはいえない。
【0007】そのため、CG画像用のデータとする際に
は、従来、たとえば人手によって対話的に、あるいは自
動的に表面データを抽出するようにしている。たとえ
ば、平成8年6月11日付けで出願公開された特開平8
−153211号公報[G06T15/00,11/0
0]では、3次元ポリゴンデータから設定視点情報に従
ったCG画像を作成して、この作成時に描画されなかっ
たポリゴンを削除する装置が開示されている。また、一
般的なポリゴンリダクションにおいては、形状変化の少
ないすなわち特徴的でないポリゴン等をさらに除去する
ことにより、データ軽量化を図るようにしているが、こ
れらのような手法では、形状の簡素化はされるものの、
ポリゴン除去と同時に色(テクスチャ)情報も失われて
しまい、物体の見た目のリアリティが損なわれてしまっ
ていた。
【0008】それゆえに、この発明の主たる目的は、少
ないデータ量で正確かつリアルに物体を復元できる、3
次元形状復元方法およびシステムを提供することであ
る。
【0009】
【課題を解決するための手段】第1の発明は、物体の3
次元形状の復元をするシステムであって、物体の3次元
形状データから仮想空間に表した物体のコンピュータグ
ラフィクス画像を、仮想空間において複数のカメラ位置
でキャプチャすることによって、複数のイメージデータ
を生成する手段、キャプチャしたときのカメラ位置にお
けるカメラデータを生成する手段、およびイメージデー
タおよびカメラデータに基づいて物体の形状とテクスチ
ャとを個別に処理することによって物体の復元データを
生成する手段を備える、3次元形状復元システムであ
る。
【0010】第2の発明は、物体の3次元形状の復元を
する方法であって、(a) 物体の3次元形状データから仮
想空間に表した物体のコンピュータグラフィクス画像
を、仮想空間において複数のカメラ位置でキャプチャす
ることによって、複数のイメージデータとキャプチャし
たときのカメラ位置におけるカメラデータとを生成する
ステップ、および(b) イメージデータおよびカメラデー
タに基づいて物体の形状とテクスチャとを個別に処理す
ることによって物体の復元データを生成するステップを
含む、3次元形状復元方法である。
【0011】第3の発明は、物体の3次元形状を復元す
る3次元形状復元システムで実行されるプログラムであ
って、(a1)物体の3次元形状データから仮想空間に表し
た物体のコンピュータグラフィクス画像を、仮想空間に
おいて複数のカメラ位置でキャプチャすることによっ
て、複数のイメージデータとキャプチャしたときのカメ
ラ位置におけるカメラデータとを生成するステップ、お
よび(b1)イメージデータおよびカメラデータに基づいて
物体の形状とテクスチャとを個別に処理することによっ
て物体の復元データを生成するステップを備える、プロ
グラムである。
【0012】
【作用】この発明においては、復元対象となる物体を、
その3次元形状データからコンピュータグラフィクス画
像として仮想空間に表し、複数のカメラ位置でキャプチ
ャすることによって、複数のイメージデータが生成され
るとともに、キャプチャしたときのカメラ位置における
カメラデータが生成される。仮想空間では、カメラ(視
点)位置などは、すべてユーザが制御可能である。つま
り、仮想空間を対象としたCG画像は、カメラキャリブ
レーション済みの画像として扱うことができる。
【0013】たとえば、物体は設定されたキャプチャ間
隔ごとに全周にわたってキャプチャされる。また、カメ
ラは所望の位置に移動され、その位置で物体はキャプチ
ャされる。したがって、物体の全貌および形状の複雑な
部分も簡単に捉えることができる。
【0014】そして、イメージデータとカメラデータに
基づいて、物体の形状とテクスチャとを個別に処理する
ことによって、復元データが生成される。
【0015】たとえば、形状データについては、まず、
キャプチャされた複数のイメージデータにシルエット抽
出処理を施すことによって、各々のシルエット画像デー
タを生成する。次に、シルエット画像およびカメラデー
タに基づいて、たとえば物体領域を構成するボクセルを
判定することによって、物体のボクセルデータを生成す
る。このとき、ユーザはボクセル数を適宜に設定するこ
とによって、復元精度すなわちデータ量を調整し、これ
を軽量化することができる。そして、ボクセルデータ
を、サーフェスモデルに変換することによって、形状デ
ータを生成する。また、テクスチャデータについては、
まず、イメージデータおよびカメラデータに基づいて、
たとえば形状データの各ポリゴンのテクスチャとして最
適なものをイメージデータの中から選択することによっ
て、各ポリゴンに対応する各マッピング領域画像を生成
する。そして、各マッピング画像領域を統合することに
よって、1つのテクスチャ画像を生成する。このように
して生成されたテクスチャ画像を形状データにテクスチ
ャマッピングすることによって、復元データを生成す
る。
【0016】
【発明の効果】この発明によれば、仮想空間内に表した
物体のCG画像を対象としてキャプチャするようにして
いるので、実空間で物体をキャプチャするときのような
カメラキャリブレーションの問題が発生しない。したが
って、ユーザは仮想空間内の自由な位置から物体をキャ
プチャすることができるので、オクルージョンの発生を
減少することができ、物体の形状を正確に復元すること
ができるとともに、あらゆる方向からの復元画像を得る
ことができる。
【0017】また、形状データとテクスチャデータとを
個別に処理してテクスチャマッピングによって復元する
ようにしているので、ポリゴンリダクションと同時に色
情報が欠落するような問題が生じることなく、形状デー
タのみを軽くすることができる。したがって、見た目が
良くてリアリティの高い画像を復元することができる。
【0018】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0019】
【実施例】この実施例の3次元形状復元システム(以
下、単に「システム」という。)は、3次元仮想空間に
表した物体(オブジェクト)のコンピュータグラフィク
ス(CG)画像を対象として物体の3次元形状を復元す
るものであり、ハードウェア資源としてコンピュータな
いしPCが適用されて本システムの機能が実現される。
つまり、図示は省略するが、システムはCPUを含み、
CPUには、たとえば、バスを介して、メモリ,内蔵ま
たは別に用意したハードディスク等の記憶装置,LCD
またはCRT等のようなディスプレイ(表示装置),マ
ウス等のポインティングデバイスおよびキーボードのよ
うな入力装置等が接続されている。記憶装置には本シス
テムを実現するメインプログラムが記憶され、CPUは
このプログラムに従って処理を実行する。
【0020】このシステムでは、復元の対象となる物体
のCADデータ等のような3次元形状データから、物体
がコンピュータ内部に設定された3次元仮想空間内に表
される。具体的には、たとえば図4に示すようなオブジ
ェクトビューワ(以下、単に「ビューワ」という。)1
0が起動されてその画面がディスプレイに表示される。
なお、物体の3次元形状データはユーザが予め準備する
ものであり、たとえばCD−ROMやMOのような記憶
媒体から本システムの記憶装置に格納される。
【0021】このビューワ10では、指定した物体の3
次元形状データがメモリまたは記憶装置のワークエリア
に取り込まれ、物体はCG画像としてビューワ10のシ
ーンウィンドウ12に表示される。ユーザは入力したキ
ャプチャ間隔(角度)ごとに物体のX軸およびY軸周り
の全周の画像を連続して撮影(キャプチャ)することが
できる。ユーザはまた、マウス操作によってカメラ(視
点)位置を自由に移動させることができ、その位置で物
体の画像をキャプチャすることができる。そして、これ
ら仮想空間内でキャプチャした画像およびキャプチャし
たときのカメラ位置におけるカメラデータに基づいて、
物体の形状とテクスチャとが個別に処理されて、物体が
復元される。たとえば、キャプチャした画像からシルエ
ット画像を生成し、シルエット画像から物体をボクセル
表現モデルに変換し、さらにサーフェスモデルに変換す
ることにより形状データを生成する。また、サーフェス
モデルの各ポリゴン面に対して、最適な画像を選択し、
各マッピング領域を生成してこれらを統合することによ
りテクスチャデータを生成する。そして、形状データに
テクスチャデータをテクスチャマッピングすることによ
り復元データを生成する。
【0022】具体的には、CPUは図1から図3に示す
ようなフロー図に従って処理を実行する。ユーザが入力
装置を操作して本システムの起動を選択すると、CPU
は、まず、ステップS1でビューワ10を起動し、図4
に示すようなビューワ10の画面をディスプレイに表示
する。
【0023】このビューワ10の画面には、物体の3次
元CG画像が表示されるシーンウィンドウ12,物体の
3次元形状データのファイル名を入力するための入力フ
レーム14,物体の3次元形状データのファイルを記憶
装置から探すための“参照”ボタン16,キャプチャし
た画像の基本ファイル名を入力するための入力フレーム
18,連続キャプチャを行う際のキャプチャ間隔(角
度)を入力するための入力フレーム20,連続キャプチ
ャを行う“連続キャプチャ”ボタン22,任意のカメラ
位置でのキャプチャを行う“キャプチャ”ボタン24,
移動させたカメラ位置を初期位置に戻すための“リセッ
ト”ボタン26,キャプチャした画像のイメージデータ
およびキャプチャしたときのカメラデータを出力するた
めの“キャリブレーション出力”(以下、単に「出力」
という。)ボタン28,およびイメージデータからシル
エット画像を生成するための“シルエット抽出”(以
下、単に「抽出」という。)ボタン30等が設けられて
いる。
【0024】ユーザが入力フレーム18に対象とする物
体の3次元形状データのファイル名を入力し、または
“参照”ボタン16をクリックして対象とする物体の3
次元形状データのファイル名を決定すると、ステップS
3において、物体の3次元形状データが記憶装置から読
み出されてワークエリアに取り込まれ、レンダリングさ
れることにより、物体がCG画像としてシーンウィンド
ウ12に表示される。なお、このときのカメラ位置は初
期位置(デフォルト値)が採用される。
【0025】ここで、ユーザは入力フレーム18および
20にそれぞれ基本ファイル名およびキャプチャ間隔を
入力する。この実施例では、連続キャプチャはX軸およ
びY軸周りに全周にわたって行われるので、ユーザは物
体の形状等を考慮してキャプチャ間隔を決定すればよ
い。これにより、物体の形状の全貌を簡単に捉えること
ができる。たとえば、設定されたキャプチャ間隔が45
度のときは各軸周りに8個ずつで全16個の画像がキャ
プチャされる。なお、キャプチャされた画像には、出力
の際に、基本ファイル名およびキャプチャ数(番号)に
従って、“<基本ファイル名>+<番号>+<拡張子
>”というファイル名がそれぞれ付与される。また、ユ
ーザは、シーンウィンドウ12上にポインタを配してマ
ウスでドラッグすることによりカメラを所望の位置に移
動させることができる。このとき、シーンウィンドウ1
2には、移動したカメラ位置から物体の画像がリアルタ
イムにレンダリングされて表示される。そして、“キャ
プチャ”24を選択することにより、そのカメラ位置で
のキャプチャも行うことができる。たとえば、物体に凹
みや複雑な形状の部分が含まれる場合にはこのようなキ
ャプチャを適宜な回数行えば、正確に形状を捉えること
ができる。また、図1のフロー図では省略してあるが、
キャプチャする位置を決める際、“リセット”ボタン2
6を選択することにより移動させたカメラ位置を初期位
置に戻すこともできる。 なお、連続キャプチャ中の物
体のCG画像はシーンウィンドウ12へ表示しなくても
よい。
【0026】そして、ステップS5およびS7で、“連
続キャプチャ”ボタン22または“キャプチャ”ボタン
24が選択(クリック)されたかどうか判断する。
【0027】ステップS5で“YES”であれば、ステ
ップS9で、キャプチャ間隔ごとにカメラ位置を物体を
中心として全周にわたって回転させ、連続的にキャプチ
ャして、キャプチャされた画像すなわち複数のイメージ
データとキャプチャしたときのカメラ位置におけるカメ
ラデータとをワークエリアに生成する。ここで、カメラ
データは、オブジェクトが置かれている世界座標系にお
けるカメラ光軸の方向ベクトル,仮想空間中の点のディ
スプレイへの投影を表す投影行列,およびレンダリング
を行うウィンドウのビューポート情報を含む。
【0028】また、ステップS7で“YES”であれ
ば、現在の移動されたカメラ位置における物体の画像を
キャプチャして、キャプチャされたイメージデータとそ
のカメラ位置におけるカメラデータとをワークエリアに
生成する。
【0029】連続キャプチャおよびキャプチャは、“出
力”ボタン28を選択するまで繰り返し行うことができ
る。なお、ユーザは、場合によっては、“連続キャプチ
ャ”または“キャプチャ”のいずれか一方のみを行って
もよい。
【0030】そして、ユーザが“出力”28を選択する
と、ステップS13で“YES”と判断し、続くステッ
プS15で、ワークエリアに生成された複数のイメージ
データとこれに対応する複数のカメラデータとを対応付
けてファイル出力し、記憶装置に格納する。
【0031】続いて、キャプチャした画像から物体の形
状データを復元するための処理が行われる。
【0032】ユーザが“抽出”ボタン30を選択する
と、ステップS17で“YES”と判断し、ステップS
19でイメージデータに背景領域を黒、物体領域を白と
する2値化処理を施すことによって、すべてのイメージ
データに対してシルエット画像をワークエリアに生成
し、続くステップS21ですべてのシルエット画像デー
タを記憶装置に格納する。
【0033】次に、図2のステップS23で、物体の3
次元形状データの境界情報から世界座標系上において物
体を包含するような初期立方体(ROOT−CUBE)を設定す
る。
【0034】そして、ステップS25でボクセル空間
(ボクセル数)を設定する。ボクセル空間は、たとえば
初期立方体のX,Y,Z方向の分割数をユーザが図示し
ない入力画面中に入力することによって設定される。つ
まり、ボクセル空間は、(2の分割数乗×2の分割数乗
×2の分割数乗)のボクセル数個の小立方体(VOXEL)
によって構成される。なお、このような小立方体のうち
ボクセル番号VN番目のボクセルをVOXEL<VN>とする。
【0035】ユーザは、この分割数の設定によって、復
元画像の精度を調整することができる。たとえば、ボク
セル数をキャプチャされたイメージデータの画素数と一
致させる場合最も精度を高くできるが、物体の形状をあ
まり損なわない程度に、ボクセル数すなわち分割数を小
さく設定すれば、精度を低く、すなわち、データを軽く
することができる。物体の見た目の良否には、形状も重
要ではあるが、それ以上にテクスチャが大きく影響する
ものと考えられるため、テクスチャデータを温存し、形
状データを軽量化するのが望ましいと考えられる。
【0036】そして、ステップS27で、ボクセル番号
VNを0に設定する。つまり、0番目のボクセルが指定さ
れる。
【0037】続くステップS29で、指定されたVOXEL<
VN>を、すべてのシルエット画像に投影し、交差判定を
する。つまり、シルエット画像に対して、対応するカメ
ラデータから読み取った投影行列およびビューポート情
報を用いて、VOXEL<VN>を投影し、このVOXEL<VN>のシル
エット領域がシルエット画像における物体のシルエット
領域に含まれているか否かを判定する。VOXEL<VN>のシ
ルエット領域が物体のシルエット領域に含まれている場
合には、そのVOXEL<VN>に対して投票を行う。このよう
な投票をすべてのシルエット画像に対して繰り返し行
う。そして、投票数が、所定の曖昧度(vague)を超える
場合には、そのVOXEL<VN>は物体領域であると決定し、
曖昧度以下である場合には、そのVOXEL<VN>は背景領域
であると決定する。なお、曖昧度については、投票数が
0のときに物体領域となるように設定してもよいし、た
とえばキャプチャ数に応じて、2,3の投票数があった
ときにも物体領域となるように設定してもよい。
【0038】そして、ステップS31で、このVOXEL<VN
>が物体領域であるかどうか判断する。ステップS31
で“NO”であれば、このVOXEL<VN>は物体領域ではな
いので、ステップS33でこのVOXEL<VN>をボクセル空
間から削除する。一方、ステップS31で“YES”で
あれば、このVOXEL<VN>は物体領域であるので残してお
き、ステップS35へ進む。
【0039】続くステップS35でボクセル番号VNをイ
ンクリメントしてから、ステップS37でボクセル番号
VNがボクセル数より小さいかどうか判断する。ステップ
S37で“YES”であれば、つまり、まだ交差判定し
ていないVOXEL<VN>が残っている場合には、ステップS
29へ戻って、未処理のVOXEL<VN>に対して処理を繰り
返す。
【0040】一方、ステップS37で“NO”であれ
ば、つまり、全ボクセル数のVOXEL<VN>に対する交差判
定が終了していれば、残されたVOXELは物体を構成する
ものであるので、ステップS39で、残されたVOXELを
ボクセルデータとして記憶装置に格納する。このように
して、物体の形状がボクセル表現モデルとして復元され
る。
【0041】続くステップS41で、ボクセルデータに
対して、マーチングキューブ法を適用して三角形面近似
を行うことにより、サーフェスモデルに変換して物体の
形状データを生成し、ステップS43で形状データを記
憶装置に格納する。
【0042】続いて、キャプチャした画像から物体のテ
クスチャ画像を復元するための処理が行われる。
【0043】生成された形状データを構成するポリゴン
面(POLYGON)のうち、ポリゴン番号PN番目のポリゴンをP
OLYGON<PN>とすると、図3のステップS45で、ポリゴ
ン番号PNを0に設定する。つまり、0番目のポリゴンが
指定される。
【0044】ステップS47で、指定されたPOLYGON<PN
>の法線ベクトルnを算出し、続くステップS49で、
イメージデータの中からこのPOLYGON<PN>に最適な画像
を選択する。つまり、法線ベクトルnと、カメラデータ
から読み取ったカメラ光軸の方向ベクトルとのなす角の
余弦が最小となるものを、全イメージ画像の中から検索
する。法線ベクトルnとカメラ光軸方向ベクトルとが1
80度の関係にあるとき、そのポリゴンの真正面にカメ
ラ(視点)が位置していることになり、このような関係
のあるいはこれに最も近い画像がそのポリゴンの見た目
を再現するのに最も適切であると考えられるためであ
る。
【0045】そして、ステップS51で、このPOLYGON<
PN>の各頂点座標を、投影行列を用いて最適画像に対し
て投影して、イメージデータにおける対応する領域を切
り出すことにより、マッピング画像領域(テクスチャ領
域)を生成する。
【0046】続くステップS53で、ポリゴン番号PNを
インクリメントしてから、ステップS55で、ポリゴン
番号PNがポリゴン数より小さいかどうか判断する。ステ
ップS55で“YES”であれば、つまり、マッピング
画像領域を生成していないPOLYGON<PN>が残っていれ
ば、ステップS47に戻って未処理のPOLYGON<PN>に対
しての処理を繰り返す。
【0047】一方、ステップS55で“NO”であれ
ば、つまり、すべてのPOLYGON<PN>に対してマッピング
画像領域を生成していれば、ステップS57で、生成さ
れた各マッピング画像領域を統合して1つの画像とする
ことにより、物体のテクスチャ画像を生成する。
【0048】そして、ステップS59で、テクスチャ画
像を形状データに対してテクスチャマッピングをするこ
とによって、物体の復元データを生成し、ステップS6
1で復元データを記憶装置に格納して処理を終了する。
【0049】この実施例によれば、仮想空間内に表した
物体のCG画像を対象としてキャプチャするようにして
いるので、実空間で物体をキャプチャするときのような
カメラキャリブレーションの問題が発生しない。したが
って、ユーザは仮想空間内の自由な位置から物体をキャ
プチャすることができるので、オクルージョンの発生を
減少することができ、物体の形状を正確に復元すること
ができるとともに、あらゆる方向からの復元画像を得る
ことができる。
【0050】また、形状データとテクスチャデータとを
個別に処理してテクスチャマッピングによって復元する
ようにしているので、ポリゴンリダクションと同時に色
情報が欠落するような問題が生じることがなく、形状デ
ータのみを軽くすることができ、見た目が良くかつリア
リティの高い画像を復元することができる。また、初期
立方体の分割数の設定によって、復元画像の精度を調整
することができるとともに、そのデータを軽量化するこ
とができる。
【0051】なお、ステップS41で形状データを生成
した後に、この形状データに対してたとえば特徴的でな
いポリゴンを削減する等のポリゴンリダクション処理を
施すようにしてもよい。この場合には、データをさらに
軽量化することができる。もちろん、色情報の欠落は生
じない。
【0052】また、ステップS57でテクスチャ画像を
生成した後に、このテクスチャ画像に対して通常の画像
処理を施すことにより、リアリティに問題のない範囲
で、テクスチャ画像の軽量化すなわちデータの軽量化を
図るようにしてもよい。
【0053】また、上述の各実施例では、画像キャプチ
ャ時にX軸およびY軸周りに視点を回転させるようにし
ているが、視点の回転方向は適宜変更され得る。
【0054】また、ビューワ10の画面の形態および操
作方法は、上述の実施例のものに限られないのはいうま
でもない。たとえば、抽出ボタン30を設けず、出力ボ
タン28を選択した後は必要な入力を行えば自動的に復
元データを生成するようにしてもよい。
【0055】また、復元データを生成した後に、復元結
果を確認するための画面を表示して、これを確認できる
ようにしてもよい。
【0056】このシステムによって生成された復元デー
タは、たとえば、図5に示すように、インタネット42
を介したデータ配信に利用され得る。具体的には、オン
ラインショッピングの電子カタログ等に用いられ得る。
すなわち、この3次元形状復元システム40によって、
物体すなわち商品の3次元形状データから生成された復
元データを、インタネット42上でオンラインショップ
を運営しているショップサーバ44に取り込んでおく。
すると、インタネット42を介してこのショップのサイ
トにアクセスした消費者のユーザコンピュータ46に
は、この復元データに基づくデータが送信され、その表
示装置に商品が表示される。したがって、消費者ユーザ
は、様々な方向から見た、しかもリアリティの高い商品
の画像を見ることができるので、購入するか否かの判断
をより適切に行うことができる。また、復元データは従
来と比較して軽いので、描画速度や通信速度を速くで
き、サーバ44やネットワークの負担も低減できる。
【図面の簡単な説明】
【図1】この発明の一実施例における処理の一部を示す
フロー図である。
【図2】この発明の一実施例における処理の他の一部を
示すフロー図である。
【図3】この発明の一実施例における処理の他の一部を
示すフロー図である。
【図4】オブジェクトビューワの一例を示す図解図であ
る。
【図5】この発明の一実施例の利用形態の一例を示す図
解図である。
【符号の説明】
10 …オブジェクトビューワ 20 …キャプチャ間隔の入力フレーム 22 …連続キャプチャボタン 24 …キャプチャボタン 28 …キャリブレーションデータ出力ボタン 30 …シルエット抽出ボタン
フロントページの続き (72)発明者 坂本 尚久 東京都新宿区新宿2−8−8 株式会社ケ イ・ジー・ティー内 Fターム(参考) 5B080 AA13 AA17 AA19 BA01 GA22

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】物体の3次元形状の復元をするシステムで
    あって、 前記物体の3次元形状データから仮想空間に表した前記
    物体のコンピュータグラフィクス画像を、前記仮想空間
    において複数のカメラ位置でキャプチャすることによっ
    て、複数のイメージデータを生成する手段、 キャプチャしたときの前記カメラ位置におけるカメラデ
    ータを生成する手段、および前記イメージデータおよび
    前記カメラデータに基づいて前記物体の形状とテクスチ
    ャとを個別に処理することによって前記物体の復元デー
    タを生成する手段を備える、3次元形状復元システム。
  2. 【請求項2】前記イメージデータを生成する手段は、設
    定されたキャプチャ間隔ごとに全周にわたって前記物体
    をキャプチャする手段を含む、請求項1記載の3次元形
    状復元システム。
  3. 【請求項3】前記イメージデータを生成する手段は、前
    記物体を所望の前記カメラ位置でキャプチャする手段を
    含む、請求項1または2記載の3次元形状復元システ
    ム。
  4. 【請求項4】前記復元データを生成する手段は、 前記複数のイメージデータから各々のシルエット画像を
    生成する手段、 前記シルエット画像および前記カメラデータに基づいて
    前記物体のボクセルデータを生成する手段、 前記ボクセルデータをサーフェスモデルに変換して前記
    物体の形状データを生成する手段、 前記イメージデータおよび前記カメラデータに基づいて
    前記形状データの各ポリゴンに対応する各マッピング領
    域画像を生成する手段、 前記各マッピング領域画像を統合して前記物体のテクス
    チャ画像を生成する手段、および前記形状データに前記
    テクスチャ画像をマッピングして前記物体の復元データ
    を生成する手段を含む、請求項1ないし3のいずれかに
    記載の3次元形状復元システム。
  5. 【請求項5】物体の3次元形状の復元をする方法であっ
    て、 (a) 前記物体の3次元形状データから仮想空間に表した
    前記物体のコンピュータグラフィクス画像を、前記仮想
    空間において複数のカメラ位置でキャプチャすることに
    よって、複数のイメージデータとキャプチャしたときの
    前記カメラ位置におけるカメラデータとを生成するステ
    ップ、および (b) 前記イメージデータおよび前記カメラデータに基づ
    いて前記物体の形状とテクスチャとを個別に処理するこ
    とによって前記物体の復元データを生成するステップを
    含む、3次元形状復元方法。
  6. 【請求項6】前記ステップ(b) は、 (c) 前記複数のイメージデータから各々のシルエット画
    像を生成するステップ、 (d) 前記シルエット画像および前記カメラデータに基づ
    いて前記物体のボクセルデータを生成するステップ、 (e) 前記ボクセルデータをサーフェスモデルに変換して
    前記物体の形状データを生成するステップ、 (f) 前記イメージデータおよび前記カメラデータに基づ
    いて前記形状データの各ポリゴンに対応する各マッピン
    グ領域画像を生成するステップ、 (g) 前記各マッピング領域画像を統合して前記物体のテ
    クスチャ画像を生成するステップ、および (h) 前記形状データに前記テクスチャ画像をマッピング
    して前記物体の復元データを生成するステップを含む、
    請求項5記載の3次元形状復元方法。
  7. 【請求項7】物体の3次元形状を復元する3次元形状復
    元システムで実行されるプログラムであって、 (a1)物体の3次元形状データから仮想空間に表した前記
    物体のコンピュータグラフィクス画像を、前記仮想空間
    において複数のカメラ位置でキャプチャすることによっ
    て、複数のイメージデータとキャプチャしたときの前記
    カメラ位置におけるカメラデータとを生成するステッ
    プ、および (b1)前記イメージデータおよび前記カメラデータに基づ
    いて前記物体の形状とテクスチャとを個別に処理するこ
    とによって前記物体の復元データを生成するステップを
    備える、プログラム。
  8. 【請求項8】前記ステップ(b1)は、 (c1)前記複数のイメージデータから各々のシルエット画
    像を生成するステップ、 (d1)前記シルエット画像および前記カメラデータに基づ
    いて前記物体のボクセルデータを生成するステップ、 (e1)前記ボクセルデータをサーフェスモデルに変換して
    前記物体の形状データを生成するステップ、 (f1)前記イメージデータおよび前記カメラデータに基づ
    いて前記形状データの各ポリゴンに対応する各マッピン
    グ領域画像を生成するステップ、 (g1)前記各マッピング領域画像を統合して前記物体のテ
    クスチャ画像を生成するステップ、および (h1)前記形状データに前記テクスチャ画像をマッピング
    して前記物体の復元データを生成するステップを含む、
    請求項7記載のプログラム。
JP2001340222A 2001-11-06 2001-11-06 3次元形状復元システムおよび方法 Pending JP2003141565A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001340222A JP2003141565A (ja) 2001-11-06 2001-11-06 3次元形状復元システムおよび方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001340222A JP2003141565A (ja) 2001-11-06 2001-11-06 3次元形状復元システムおよび方法

Publications (1)

Publication Number Publication Date
JP2003141565A true JP2003141565A (ja) 2003-05-16

Family

ID=19154460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001340222A Pending JP2003141565A (ja) 2001-11-06 2001-11-06 3次元形状復元システムおよび方法

Country Status (1)

Country Link
JP (1) JP2003141565A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072881A (ja) * 2005-09-08 2007-03-22 Mitsubishi Electric Corp 画像表示システム
CN112562057A (zh) * 2019-09-26 2021-03-26 杭州海康威视数字技术股份有限公司 三维重建系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149455A (ja) * 1996-11-20 1998-06-02 Matsushita Electric Ind Co Ltd 画像生成表示装置および生成表示画像編集装置
JPH11149576A (ja) * 1997-09-09 1999-06-02 Sanyo Electric Co Ltd 3次元モデリング装置、3次元モデリング方法、3次元モデリングプログラムを記録した媒体、および3次元形状推定プログラムを記録した媒体
JP2000113193A (ja) * 1998-10-08 2000-04-21 Minolta Co Ltd 多視点3次元データの合成方法および記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149455A (ja) * 1996-11-20 1998-06-02 Matsushita Electric Ind Co Ltd 画像生成表示装置および生成表示画像編集装置
JPH11149576A (ja) * 1997-09-09 1999-06-02 Sanyo Electric Co Ltd 3次元モデリング装置、3次元モデリング方法、3次元モデリングプログラムを記録した媒体、および3次元形状推定プログラムを記録した媒体
JP2000113193A (ja) * 1998-10-08 2000-04-21 Minolta Co Ltd 多視点3次元データの合成方法および記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072881A (ja) * 2005-09-08 2007-03-22 Mitsubishi Electric Corp 画像表示システム
CN112562057A (zh) * 2019-09-26 2021-03-26 杭州海康威视数字技术股份有限公司 三维重建系统及方法
CN112562057B (zh) * 2019-09-26 2023-08-08 杭州海康威视数字技术股份有限公司 三维重建系统及方法

Similar Documents

Publication Publication Date Title
Goesele et al. Ambient point clouds for view interpolation
JP4679033B2 (ja) 深度マップのメジアン値融合のためのシステムおよび方法
US9420253B2 (en) Presenting realistic designs of spaces and objects
Wang et al. View-dependent displacement mapping
JP3184327B2 (ja) 3次元グラフィックス処理方法及びその装置
JP6274777B2 (ja) ウェブページを経由した、高速かつリアルな3dレンダリングによるオブジェクトのカスタマイズ方法
Li et al. Shape completion from a single rgbd image
US20060176302A1 (en) Visible surface determination system &amp; methodology in computer graphics using interval analysis
US20020085046A1 (en) System and method for providing three-dimensional images, and system and method for providing morphing images
US7528831B2 (en) Generation of texture maps for use in 3D computer graphics
JP2000067267A (ja) 三次元シーンにおける形状及び模様の復元方法及び装置
JP3104638B2 (ja) 3次元画像作成装置
US9019268B1 (en) Modification of a three-dimensional (3D) object data model based on a comparison of images and statistical information
JP4463597B2 (ja) 3次元描画モデル生成方法及びそのプログラム
JP2003141565A (ja) 3次元形状復元システムおよび方法
Paiz-Reyes et al. Geometric distortion of historical images for 3D visualization
JP3309841B2 (ja) 合成動画像生成装置および合成動画像生成方法
JPH11175765A (ja) 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体
US6633291B1 (en) Method and apparatus for displaying an image
Volino et al. Online interactive 4D character animation
Fischer et al. Real-time Cartoon-like Stylization of AR Video Streams on the GPU
Lechlek et al. Interactive hdr image-based rendering from unstructured ldr photographs
WO2020005514A1 (en) Simulating lenses
US20030081849A1 (en) Method and system for creating seamless textured three dimensional models of objects
JP2002312810A (ja) 合成動画像生成装置および合成動画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040817

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070703