JPH04106672A - 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置 - Google Patents

物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置

Info

Publication number
JPH04106672A
JPH04106672A JP2224463A JP22446390A JPH04106672A JP H04106672 A JPH04106672 A JP H04106672A JP 2224463 A JP2224463 A JP 2224463A JP 22446390 A JP22446390 A JP 22446390A JP H04106672 A JPH04106672 A JP H04106672A
Authority
JP
Japan
Prior art keywords
data
shape
texture
image
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2224463A
Other languages
English (en)
Inventor
Yoshiaki Usami
芳明 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2224463A priority Critical patent/JPH04106672A/ja
Publication of JPH04106672A publication Critical patent/JPH04106672A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、コンピュータブラフィックス技術、特に表面
に微細な凹凸を持つ物体の形状と質感の入力用に有益な
、物体の照明条件推定方法、及び物体の3次元情報生成
方法及び物体の形状と質感の生成方法、物体の形状と質
感の生成装置に関する。
[従来の技術] 従来、物体をカメラで撮影した輝度画像から形状と質感
を入力する方法については、アーティフィシャル・イン
テリジェンス、第17巻(1981年)第117頁から
第140頁(A rtificial  I ntel
ligence。
Vol、1.7 (1981) pp、117−140
)において示されているように、カメラ位置は固定して
照明位置のみを変化させ(例えば照明角度を変化させる
)、複数の照明条件での撮影画像から、形状と質感表現
に必要な物体表面の法線ベクトルを得る方法がある。
ここで、形状とは物体の表面の形であり、質感(テクス
チュア)とは物体の表面の材質感(表面のきめ、うわ)
を云う。
[発明が解決しようとする課題] 上記従来技術は、照明条件により入力できる法線の精度
が変化する点についての配慮がされておらず、物体の形
状により変化する最適な照明条件がユーザには不明であ
るという問題があった。
本発明の目的は、入力しようとする種々の物体に対して
、常に高精度で形状と質感を入力可能とする物体の照明
条件推定方法及び物体の3次元情報生成方法、物体の形
状と質感の生成方法、物体の形状と質感の生成装置を提
供するものである。
更に、本発明の目的は、物体の最適照明条件を推定可能
とする物体の照明条件推定方法を提供するものである。
更に1本発明の目的は、推定した物体の最適照明条件を
利用して物体の3次元情報を得る3次元情報生成方法を
提供するものである。
更に、本発明は、法線情報を利用しての物体の形状と質
感の生成方法及び装置を提供するものである。
[課題を解決するための手段] 本発明は、予め各種の3次元基本図形のデータをメモリ
に格納しておき、ユーザが物体の形状に最も近い1つ又
は2以上の組合せの上記基本図形を選択させるようにし
、この選択された3次元基本図形のデータをメモリから
読出し、該データから実際の物体を撮影する際の最適照
明条件を推定するようにした(請求項1)。
更に本発明は、推定した照明条件によって物体の撮影を
行い、この撮影で得た実画像データから物体の3次元情
報を算出するようにした(請求項2)。
更に、本発明は、予め各種の3次元基本図形のデータを
メモリに格納しておき、ユーザが物体の形状に最も近い
1つ又は2以上の組合せの上記基本図形を選択させるよ
うにし、この選択された3次元基本図形のデータをメモ
リから読出し、この読出した基本図形データに対して操
作を行い概略形状の画像を得、予め設定した照明条件毎
に上記概略形状の画像の法線情報と上記選択した基本図
形の法線情報を求め、該2つの法線情報の差分が最小と
なる設定照明条件を最適照明条件として推定するように
した(請求項3)。
更に、本発明は、推定した照明条件により実際の物体の
撮影を行い、この撮影で得た実画像データから物体の法
線情報を求め、この法線情報を積分することにより物体
の形状データを得、該法線情報に特定の方向から照明し
た場合の画像をシェーディング計算により求め、この画
像のデータのテクスチュアマッピングにより質感データ
を得るようにした(請求項4)。
更に、本発明は、上記質感データは、画像のデータから
算出した法線データのバンプマツピングにより得るよう
にした(請求項5)。
更に、本発明は、予め定めた各種の3次元基本図形を格
納してなるメモリと、ユーザが物体の形状に最も近い1
つ又は2以上の組合せの上記基本図形を選択した時にこ
れらの図形を上記メモリから読出す手段と、この読出し
た基本図形データに対して操作を行い概略形状の画像を
得る手段と、予め設定した照明条件毎に上記概略形状の
画像の法線情報と上記選択した基本図形の法線情報とを
求める手段と、該2つの法線情報の差分が最小となる設
定照明条件を最適照明条件として推定する手段と、該最
適照明条件のもとで撮影した物体の実画像データから物
体の法線情報を求め、この法線情報を積分することによ
り物体の形状データを得る手段と、該法線情報に特定の
方向から照明した場合の画像をシェーディング計算によ
り求め、この画像のデータのテクスチュアマツピングに
より質感データを得る手段と、より成る(請求項6)。
[作用] 本発明によれば、メモリ内の物体の形状に最も近い基本
図形のデータを読出し、この基本図形のデータから撮影
時の最適照明条件を特徴する請求項1)。これによって
、図形データそのものを利用しての最適照明条件を得る
ことができる。
更に、本発明によれば、上記推定した最適照明条件によ
って撮影を行い、適正な実画像データを得、これから物
体の3次元情報を特徴する請求項2)。
更に本発明は、メモリから読出した基本図形から概略形
状の画像を得、各設定照明条件毎にこの概略形状の画像
の法線情報と選択した基本図形の法線情報との差分を求
め、最小の差分となる設定照明条件を最適照明条件とし
て推定する(請求項3)。
更に本発明は、この最適照明条件のもとに実際の物体の
撮影を行い、この実画像データから求めた法線情報を積
分して物体の形状データを得、更に質感データを得る(
請求項4)。
更に本発明は、質感データを画像のデータから算出した
法線データのバンプマツピングにより得る(請求項5)
更に本発明は、各手段により最終的に形状データと質感
データとを得る(請求項6)。
[実施例] 以下、本発明の一実施例の処理の概要を第1図により説
明する。また、各部の処理の詳細は第2図以降で説明す
る。第1図は本発明の一実施例に係る質感入力装置(生
成装置)の構成図である。
まず、ユーザは質感を入力しようとする物体の概■の形
状を、概略形状入力部2へ入力する。このとき、概略形
状は基本図形データ1の組合せで指示する。ここで、基
本図形データとは補助メモリ等のメモリに格納されてい
るものであり、3次元の基本的な図形(球9円柱、直方
体2円錐等)を示すものである。例えば、球の場合、半
径と中心座標とを与えておくことによって、球方程式に
よって球計算をすることができる。
更に、物体は、基本図形そのものの単純な組合せてでき
たものではない。即ち、基本図形を組合せて物体に近づ
いた形状にしようとしても、それは物体そのものでない
。しかし、近い形状であることに変りない。そこで、物
体の概略形状なる概念を導入し、これは基本図形の単純
な集合(組合せ)であるものと定義する。そして、この
物体の概略形状によって、最適な照明条件を推定しよう
とした。
さて、指示された基本図形の組合せで得られた概略形状
に対して、シミュレーション処理部3において、指示さ
れた基本図形データ1を入力として、種々の照明条件で
のレンダリング計算を実行することにより生成した画像
であるシミュレーション画像データ4を出力し、同時に
基本図形の面の向きを表す概略形状の法線データ14も
出力する。
つぎに、法線情報算出部5においては、シミュレーショ
ン画像データ4あるいは実画像データ12等の画像の輝
度情報から、シェーディング方程式を解くことにより、
シミュレーション画像の法線データ13や実画像の法線
データ12等の法線情報を出力する。照明条件決定部6
においては、法線データの理論値として概略形状の法線
データ14を入力し、更に計算値としてシミュレーショ
ン画像の法線データ13を入力する。そして法線データ
の誤差を求め、理論値に最も近い計算値が得られた場合
の照明条件を、最適な照明条件として求める。そのつぎ
の実画像入力部8においては、既に求められた最適な照
明条件に従って実際の照明装置が設定され、実際の物体
をカメラで撮影し、得られた画像を実画像データ7とし
て出力する。この実画像データ7は法線情報算出部5に
よって、実画像の法線データ12に変換される。最後に
、質感データ畠力部10において、実画像の法線データ
12が変換され、3次元コンピュータ・グラフィックス
で使用できるような形状データ9と、表面の微細な凹凸
による質感を表すマツピングデータIIを出力する。
以上の実施例によれば、ユーザが入力する概略形状は、
システムが予め用意している基本図形から選択し、これ
の組合せで概略の形状を表現する。
すると、全ての基本図形についてはシステムが3次元モ
デルを保持しているので、3次元コンピュータ・グラフ
ィックス技術により照明条件を変化させた場合をシミュ
レートした画像の出力が可能である。また、基本図形の
3次元モデルから1図形の各部分の正確な法線情報を取
り出すことも可能である。したがって、種々の照明条件
をシミュレートして生成した画像から法線情報を算出し
て、3次元モデルからの正確な法線情報と比較すること
で、どの照明条件が最適であるかを、システムが選択で
きる。次にこの最適な条件に合せて、実際の物体のカメ
ラ入力が行われるので、高い精度での質感の入力が可能
となる。
第2図は概略形状入力部2における詳細処理を示すフロ
ーチャートである。まずステップ201は以降の処理を
各基本図形について繰り返し実行することを示している
。ここで基本図形とは、直方体や円柱あるいは球などの
ような単純な図形要素であり、概略形状は基本図形の組
合せで表現する。
ステップ202は形状の選択をするステップで、ここで
は例えば基本図形として球を選択したとする。
ステップ203では寸法値の入力を行うが、例えば球の
場合には半径をここで入力する。ステップ204では平
行移動量を入力するが、これは基本図形を空間内に配置
させるために必要な値であり、配置のための平行移動量
をここで与える。一般に配置のためには、更に回転移動
量が必要であるが、これはステップ205の回転移動量
の入力ステップで与える。かかる基本図形への操作によ
りその組合せ体としての概略形状の物体が生成できた。
第3図はシミュレーション処理部3における詳細処理を
示すフローチャートである。本図に示す内容は、3次元
コンピュータ・グラフィックスにおける画像生成処理で
あるレンダリング計算に相当するもので、本図では例と
してレイトレーシング・アルゴリズムによって実現した
場合を示す。
まずステップ301のカメラパラメータの設定とは、カ
メラ位置や撮影方向及び画角などのカメラ撮影に必要な
パラメータを設定することであり、ここで設定される値
は実画像入力部の実際のカメラのパラメータに合せた値
に設定する。次のステップ302は以降のステップが生
成する画像の画素単位に実行することを示している。ス
テップ303の光線方程式とは、計算中の画素とカメラ
位置を結ぶ直線を意味し、光線方程式の設定とは、この
光線方程式たる直線の係数を決定することを意味する。
ステップ304は概略形状入力部2で設定された基本図
形の数について、ステップ305を繰り返すことを示す
。ステップ305の面方程式との交差判定とは、光線方
程式が基本図形を構成する面の方程式と交点を持つか否
かを判定する処理である。例えば、基本図形が球の場合
の面方程式は半径をrとして。
x’+ y2+ z2= r2          −
(1)である。一般に1つの光線方程式の直線上には、
複数の基本図形が交点を持っている。しかし実際に可視
な交点は、最もカメラ位置に近い側の最前部の交点のみ
である。ステップ306は、これら交点とカメラ位置と
の距離を算出して、最前部の交点を求める。このように
して可視の交点が決定すると、ステップ307で交点で
の法線ベクトルを算出する。この値は基本図形の面方程
式を微分した式から求められ、例えば基本図形が球の場
合には、法線ベクトルをNとして、 N= (x/r’、y/r2.z/r’)  −(2)
となる。概略形状の法線データ14として8力される値
は、このNの値である。最後のステップ308はシェー
ディング計算により表示輝度を求める処理である。ここ
で表示輝度を1とし、光源ベクトルをL、法線ベクトル
をN、拡散反射係数をKdとすると、シェーディング方
程式は、 I=(L−N)  木Kd         ・・・(
3)である。シミュレーション画像データ4として8力
される値は、この工の値である。
このシェーディング方程式で使用する変数の関係は第8
図に示すようなもので、物体表面上のある点Pにおける
輝度■は照明ベクトルLと法線ベクトルNの内積に比例
していることを示している。
なお、このとき観測される工の値は全ての方向で等しい
。また、このような入反射光の関係は物体表面が完全拡
散反射面である場合に成立することが知られている。
第4図は法線情報算出部5の詳細処理を示すフローチャ
ートである。まずステップ501はステップ502から
503までを各照明について繰り返すことを意味してい
る。画像の輝度情報から法線情報を算出するためには、
複数の照明条件による画像データが必要である。例えば
第9図に示すように、物体に対して右上方に照明がある
場合の照明ベクトルをり。とじ、同様に左上方をLlと
する。これらの照明条件で得られる画像データは1例え
ば物体が第8図の断面形状であったとすると、第9図の
ような明暗の分布になる。この2つの画像データが法線
情報算出部5の入力データである。次のステップ502
は照明ベクトルの入力を行うステップで、ここでは照明
ベクトルL。及びL工のベクトル成分を与える。ステッ
プ503は画像データの入力で、第9図に示したような
照明条件の異なる画像データを入力するステップである
。ステップ504は入力した画像データの各画素につい
てステップ505を繰り返すことを示している。ステッ
プ505は画像データの中で最も明るい画素、即ち最高
輝度を持つ画素の探索を行う。ここで得られた最高輝度
値は次のステップ506で使用する。ステップ506は
拡散反射係数の決定を行う。いま、物体表面上でシェー
ディング方程式、式(3)が成り立つとすると、凸形状
の物体であれば、L−N=1となる物体上の点がどこか
に存在する。この点の法線ベクトルは光源ベクトルと一
致しており、同時に画像中で最高輝度値を持つ。したが
って、式(3)は最高輝度値の点において、 1=Kd                   ・・
・(4)である。よって最高輝度値が求める拡散反射係
数となる。ステップ507は入力した画像データの各画
素について、ステップ508から510までを繰り返す
ことを示している。ステップ508は画像データの輝度
値を調べる処理で、全ての照明条件について当該画素の
輝度値がOに等しければステップ509を実行し、そう
でなければステップ510を実行する。ステップ509
においては、この画素には物体が写っていない背景像の
部分と判断できるので、各法線成分は0であるとする。
物体像の部分は、ステップ510において、シェーディ
ング方程式を解くことにより各法線成分を求める。ここ
で、この方法についで説明する。第9図に示したような
異なる照明条件においても、各画像データの各画素に対
して式(3)は成立するので、次のような連立方程式が
得られる。
Kdの値はステップ506で求められており、輝度値I
o、I、、及び照明ベクトルLa、L□も既知である。
したがって、式(5)の未知数はNだけであるので求め
ることができる。Nは3次元ベクトルなので3成分を求
めることが必要であるが、独立変数は2個なので式(5
)のように2つの方程式の連立で求められる。ここで、 Lo” (Qox+ 12o)’t Qa )L□=(
Q□)l ky Q□) N== (nx、 ny、 n  ) Io/Kd=C。
■、/Kd=C工 として、式(5)に代入すると、 となる。これよりnXy nYr Hの比を求めると、
・・・(7) となり、更に簡単化のため式(7)を、nつ:ny:n
  =p:q:1        °°(8)とすると
、Nは単位ベクトルであるので、N= (nx+ ny
+ n ) ・・・(9) が求める法線ベクトルである。最後のステップ511は
、このようにして求めた法線ベクトルを出力する処理で
ある。
第5図は照明条件決定部6の詳細処理を示すフローチャ
ートである。ステップ601は概略形状の法線データの
入力ステップで、入力データはシミュレーション処理部
3において面方程式の微分から求められた法線データの
理論値である。ステップ602はステップ603から6
04までを各照明条件について繰り返すことを示してい
る。ステップ603はシミュレーション画像の法線デー
タの入力ステップで、この方線データは法線情報算出部
5においてシミュレーションで生成した輝度情報から求
めた法線データの計算値である。次のステップ604で
は、法線の誤差の算出を行う。ここで、法線の誤差とは
、法線データの理論値と計算値の差であるとする。具体
的には理論値の法線ベクトルと計算値の法線ベクトルの
差で生じるベクトルを誤差ベクトルとし、この誤差ベク
トルの画像中での大きさの平均値を算出する。最後のス
テップ605では最適な照明条件の出力を行う。このた
めには前ステップで求めた誤差ベクトルの大きさの平均
値を利用し、これが最も小さくなるような場合を、最適
な照明条件とし、そのときの照明ベクトルの値を出力す
る。
第6図は実画像入力部8の詳細処理を示すフローチャー
トである。ステップ801は最適な照明条件を入力する
ステップで、ここで照明条件決定部6からの照明ベクト
ルL0及びLoの値を得る。ステップ802はステップ
803から805までを、Lo及びLlの各照明につい
て繰り返すことを示している。
ステップ803は、照明装置の設定で、照明ベクトルが
Lo又はLlに等しくなるように照明装置の向きを調整
する。次のステップ804によりカメラによる物体撮影
が行われ、ステップ805において、この撮影データを
、実画像データとして出力する。
第7図は質感データ出力部10の詳細処理を示すフロー
チャートである。ステップ1001は法線情報算出部5
から出力された実画像の法線データ12を入力するステ
ップである。ステップ1002はステップ1003を各
スキャンラインについて繰り返すことを示す。ここでス
キャンラインの方向とは第9図に示すようなX軸の方向
である。ステップ1003の法線データの積分とは、X
軸の方向に法線ベクトルを積分して、Z座標値を求める
ことである。ここで2座標値とは、視点上からの奥行き
座標である。このZ座標値には、法線ベクトルが相対的
に存在する。これを視点からみた絶対ベクトルで表示す
ることが必要である。そこで各2座標値毎に法線ベクト
ルを積分して各2座標値毎の視点からみた法線ベクトル
を得る。
この計算は第10図に示すように、画素の間隔をLとし
て、各々の画素にN、の法線ベクトルが得られていると
する。すると、 2、=0 ΔZ=−nx/n *L Z、+□=2.+Δ2           ・・(1
0)としてZ座標値を求めることができる。このようし
こしてX方向に積分していくと、誤差の累積によってし
だいにZ値が不正確になる。例えば第10図において2
□と74の点は同じZ値であることが判明している場合
には、Z′の大きさの誤差が生じていることになる。こ
の誤差を補正するためには、Δ2が正の区間を検圧し、
これかに個であったとする。すると、Δ2が正の区間に
ついてはΔZ=AZ−Z’/K        −(i
t)とし、これを式(lO)に代入してZ値を求めれば
よい。ステップ1004は形状データの呂カステップで
ある。このデータの8力形式としては、例えば格子状に
配置した点に高さ情報を与える形式では、前ステップで
のZ値をこのまま出力する。もし、多角形のデータ形式
が必要な場合には、Z値からポリゴンデータへの変換を
行ってから出力する。
ステップ1005はステップ1006の処理を、入力し
た実画像の法線データの各画素について繰り返すことを
示す。ステップ1006は法線データに対してシェーデ
ィング計算を実行するステップで1式(3)において、
一定の14の値を与えて計算すると画像データが得られ
る。ここでシェーディングとは陰影処理のことであり、
入射光に対しての反射光を求める計算である。即ち、法
線データにより物体に対して任意の方向から光を当てた
場合の画像を生成する。ステップ1007はマツピング
データの出力ステップで、前ステップで得た画像をいわ
ゆるテクスチュアマッピングのためのデータとして出力
する。このマツピングデータが物体表面上の微細な凹凸
による質感を表現していることになる。
マツピングとは形状への模様のはりつけであり、テクス
チュアマッピングとは模様として色をつけることであり
、バンプマツピングとは法線ベクトルを模様としてはり
つけることである。
本発明によれば、入力すべき形状と質感のデータを高い
精度で得ることができる。
上記実施例においては、質感表現はテクスチュアマッピ
ングにより実現されていたが、これは法線ベクトルのマ
ツピングによる、いわゆるバンプマツピングによっても
実現可能である。バンプマツピングとは第11図に示す
ように、(a)の形状データと(b)のバンプデータを
別々に記憶し、表示の際に(C)のように両者のベクト
ルを合成して表示する手法である。ここで形状データの
法線ベクトルをV。、バンプデータの法線ベクトルを■
□、バンプマツピングによる法線ベクトルをv2とする
と、 V、=V、+Vエ              ・・・
(12)のようにして、バンプマツピングを行う。本実
施例においては、実画像の法線データ12をバンプデー
タとして使用し、形状データ9にマツピングすればよい
が、12は第11図(C)の状態のように形状データの
法線ベクトルが加算されている状態であるので、このま
まバンプデータとしては使用できない。そのため、12
の法線データをV3(ベクトル)とすると、 V1=V、−V、           =−(13)
のように、形状データの法線ベクトルを差し引いたもの
を、バンプデータとして使用する。
本実施例によれば、物体表面の微細な凹凸をバンプマツ
ピングにより実現しているため、光の当て方による微妙
な陰影の変化も表現可能で、よりリアルな質感データが
得られるという効果がある。
以上の実施例で、照明条件として照明角度例を示したが
、光源特性や光源位置〈実施例では無限遠方とした)の
最適条件をも併せて推定するようにしてもよい。
[発明の効果] 本発明によれば、ユーザが入力した実物体の概略形状に
基づき、シミュレーションによって最適な照明条件を決
定し、この照明条件により実物体の画像入力を行うので
、求められる法線データの精度が向上する。形状と質感
を表現するデータは、この法線データから算出するので
、高い精度で形状と質感を入力できる効果がある。
【図面の簡単な説明】
第1図は本発明の一実施例に係る質感入力装置の構成図
、第2図は概略形状入力部2のフローチャート、第3図
はシミュレーション処理部3のフローチャート、第4図
は法線情報算出部5のフローチャート、第5図は照明条
件決定部6のフローチャート、第6図は実画像入力部8
のフローチャート、第7図は質感データ出力部10のフ
ローチャート、第8図はシェーディング計算の説明図、
第9図は照明条件の説明図、%1o図は法線データの積
分方法の説明図、第11図はバンプマツピングの説明図
である。 1・・・基本図形データ、2・・・概略形状入力部、3
・・シミュレーション処理部、5・・・法線情報算出部
、6・・・照明条件決定部、8・・・実画像入力部、1
0・・・質感データ出力部。 代理人 弁理士  秋 本 正 実 第 図 第 図 第 図 第 図 第 図 第 図 第 図 第 図 第 図 (b) バ〉フ・テ′Lり (a)刑択デーツ (C) 尋仄十 ノ父゛ンにテ゛−夕

Claims (1)

  1. 【特許請求の範囲】 1、予め各種の3次元基本図形のデータをメモリに格納
    しておき、ユーザが物体の形状に最も近い1つ又は2以
    上の組合せの上記基本図形を選択させるようにし、この
    選択された3次元基本図形のデータをメモリから読出し
    、該データから実際の物体を撮影する際の最適照明条件
    を推定するようにした物体の照明条件推定方法。 2、請求項1で推定した照明条件によって物体の撮影を
    行い、この撮影で得た実画像データから物体の3次元情
    報を算出してなる物体の3次元情報生成方法。 3、予め各種の3次元基本図形のデータをメモリに格納
    しておき、ユーザが物体の形状に最も近い1つ又は2以
    上の組合せの上記基本図形を選択させるようにし、この
    選択された3次元基本図形のデータをメモリから読出し
    、この読出した基本図形データに対して操作を行い概略
    形状の画像を得、予め設定した照明条件毎に上記概略形
    状の画像の法線情報と上記選択した基本図形の法線情報
    を求め、該2つの法線情報の差分が最小となる設定照明
    条件を最適照明条件として推定する照明条件推定方法。 4、請求項3で推定した照明条件により実際の物体の撮
    影を行い、この撮影で得た実画像データから物体の法線
    情報を求め、この法線情報を積分することにより物体の
    形状データを得、該法線情報に特定の方向から照明した
    場合の画像をシェーディング計算により求め、この画像
    のデータのテクスチュアマッピングにより質感データを
    得る物体の形状と質感の生成方法。 5、請求項4の質感データは、画像のデータから算出し
    た法線データのバンプマッピングにより得てなる物体の
    形状と質感の生成方法。 6、予め定めた各種の3次元基本図形を格納してなるメ
    モリと、ユーザが物体の形状に最も近い1つ又は2以上
    の組合せの上記基本図形を選択した時にこれらの図形を
    上記メモリから読出す手段と、この読出した基本図形デ
    ータに対して操作を行い概略形状の画像を得る手段と、
    予め設定した照明条件毎に上記概略形状の画像の法線情
    報と上記選択した基本図形の法線情報とを求める手段と
    、該2つの法線情報の差分が最小となる設定照明条件を
    最適照明条件として推定する手段と、該最適照明条件の
    もとで撮影した物体の実画像データから物体の法線情報
    を求め、この法線情報を積分することにより物体の形状
    データを得る手段と、該法線情報に特定の方向から照明
    した場合の画像をシェーディグ計算により求め、この画
    像のデータのテクスチュアマッピングにより質感データ
    を得る手段と、より成る物体の形状と質感の生成装置。
JP2224463A 1990-08-28 1990-08-28 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置 Pending JPH04106672A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2224463A JPH04106672A (ja) 1990-08-28 1990-08-28 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2224463A JPH04106672A (ja) 1990-08-28 1990-08-28 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置

Publications (1)

Publication Number Publication Date
JPH04106672A true JPH04106672A (ja) 1992-04-08

Family

ID=16814182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2224463A Pending JPH04106672A (ja) 1990-08-28 1990-08-28 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置

Country Status (1)

Country Link
JP (1) JPH04106672A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167255A (ja) * 1995-11-09 1997-06-24 Samsung Electron Co Ltd バンプマッピングとポンシェーディングを選択的に行う実時間レンダリング方法及び装置
JP2012242281A (ja) * 2011-05-20 2012-12-10 Omron Corp 検出対象物の中心位置を算出する方法、装置およびプログラム
US8608027B2 (en) 2008-04-23 2013-12-17 S.T. Corporation Spray apparatus
JP2019087008A (ja) * 2017-11-07 2019-06-06 東芝テック株式会社 画像処理システム及び画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167255A (ja) * 1995-11-09 1997-06-24 Samsung Electron Co Ltd バンプマッピングとポンシェーディングを選択的に行う実時間レンダリング方法及び装置
US8608027B2 (en) 2008-04-23 2013-12-17 S.T. Corporation Spray apparatus
JP2012242281A (ja) * 2011-05-20 2012-12-10 Omron Corp 検出対象物の中心位置を算出する方法、装置およびプログラム
JP2019087008A (ja) * 2017-11-07 2019-06-06 東芝テック株式会社 画像処理システム及び画像処理方法
US11328438B2 (en) 2017-11-07 2022-05-10 Toshiba Tec Kabushiki Kaisha Image processing system and image processing method

Similar Documents

Publication Publication Date Title
US6888544B2 (en) Apparatus for and method of rendering 3D objects with parametric texture maps
US6081273A (en) Method and system for building three-dimensional object models
US6515674B1 (en) Apparatus for and of rendering 3d objects with parametric texture maps
US7158133B2 (en) System and method for shadow rendering
EP1508877A2 (en) Texture mapping with high resolution lighting characteristics
JPH06243267A (ja) 対象物データベースで規定された3次元対象物スペースの2次元像を描画する方法
US6784882B1 (en) Methods and apparatus for rendering an image including portions seen through one or more objects of the image
CN107390379A (zh) 一种近眼全息三维显示系统和显示方法
Merlo et al. 3D model visualization enhancements in real-time game engines
US6556198B1 (en) Polyhedron generating method and apparatus thereof, and storage medium for storing the method
JP3951362B2 (ja) 画像処理装置、ゲーム装置、その方法および記録媒体
CN116664752B (zh) 基于图案化光照实现全景显示的方法、系统及存储介质
JPH04106672A (ja) 物体の照明条件推定方法,物体の3次元情報生成方法,物体の形状と質感の生成方法,物体の形状と質感の生成装置
JP4456070B2 (ja) 光反射強度計算回路
Fellner Extensible image synthesis
JP2004252603A (ja) 三次元データ処理方法
JP3601031B2 (ja) 画像データ計測装置及び画像データを用いた対象物体の自由変形を含む任意視点画像作成方法
JP2007272847A (ja) 照明シミュレーション方法及び画像合成方法
Ikeuchi et al. Modeling from reality: creating virtual reality models through observation
AU2017228700A1 (en) System and method of rendering a surface
JPH09138865A (ja) 3次元形状データ処理装置
US5821942A (en) Ray tracing through an ordered array
Rushmeier et al. Image-based object editing
JP3712015B2 (ja) 画像作成装置および方法
Scopigno et al. Tutorial T1: 3D data acquisition