JP6610065B2 - 化粧材シミュレーションシステム、方法、及びプログラム - Google Patents

化粧材シミュレーションシステム、方法、及びプログラム Download PDF

Info

Publication number
JP6610065B2
JP6610065B2 JP2015152958A JP2015152958A JP6610065B2 JP 6610065 B2 JP6610065 B2 JP 6610065B2 JP 2015152958 A JP2015152958 A JP 2015152958A JP 2015152958 A JP2015152958 A JP 2015152958A JP 6610065 B2 JP6610065 B2 JP 6610065B2
Authority
JP
Japan
Prior art keywords
information
cosmetic material
pattern
cosmetic
gloss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015152958A
Other languages
English (en)
Other versions
JP2017033319A (ja
Inventor
浩一 飯野
真司 池ノ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2015152958A priority Critical patent/JP6610065B2/ja
Publication of JP2017033319A publication Critical patent/JP2017033319A/ja
Application granted granted Critical
Publication of JP6610065B2 publication Critical patent/JP6610065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、化粧材シミュレーションシステム、方法、及びプログラムに関し、より詳細には、建築物の建築素材である化粧材の質感を画像表示する化粧材シミュレーションシステム、方法、及びプログラムに関する。
従来、建築物の建築素材(例えば、床、壁及び天井に用いられる面材)として、印刷技術により印刷・加工をした化粧板が使用されている。例えば、基材(合板や繊維板など)の表面に顔料インキを塗布して絵柄(模様および/又は色彩)を形成して、表面をエンボス加工(凹凸加工)した様々な建築素材(化粧材)、あるいは、基材の表面に、絵柄が形成された化粧紙(薄葉紙、ウレタンコート紙、強化紙、チタン紙)または樹脂製の化粧シートを貼付して、表面をエンボス加工(凹凸加工)した様々な建築素材(化粧材)が利用されている。全体または一部において光沢の効果を調整する場合には、光沢を増加/減少させる材料(シート、ニス等)が積層される。従来、エンボス加工のためのエンボス版は、試作を繰り替えして、製作されていた。試作の繰り返しの回数が多くなると、エンボス版の作製費用も多くなる。
特許文献1には、エンボス版の仕上がり(凹凸の模様の仕上がり)をコンピュータシミュレートする技術が開示されている。特許文献1に開示された技術により、エンボス版の試作の繰り返しを減らすことができる。
特開2011−103097号公報
Berthold K.P Horn et al., "The variational approach to shape from shading," COMPUTER VISION, GRAPHICS, AND IMAGE PROCESSING 33, 174-208 (1986). Klette, R. et al., "Height data from gradient fields," Proc. SPIE 2908, Machine Vision Applications, Architectures and Systems Integration, vol. 5, pp. 204-215 (1996)
しかしながら、特許文献1に開示された技術は、エンボス版の仕上がり(凹凸の模様の仕上がり)を確認することを可能にするが、絵柄(模様および/又は色彩)と凹凸の模様とを組合せた素材の質感を確認することを可能にしない。建築素材(化粧材)の質感(見え)は、観察環境の変化や建築素材の向きの変化に応じて、変化する。このため、絵柄と凹凸の模柄とを組合せた建築素材の質感を確認するために、絵柄と凹凸の模様とを組合せた建築素材の試作を繰り返すことになる。試作の繰り返しの回数が多くなると、建築素材の作製費用も多くなる。
したがって、観察環境の変化や建築素材(化粧材)の向きの変化に応じた質感や見えの確認を可能にする技術を提供することが望ましい。
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、観察環境の変化や建築素材(化粧材)の向きの変化に応じた当該建築素材の画像を表示し、建築素材の質感や見えの疑似体験を可能にする化粧材シミュレーションシステム、方法、及びプログラムを提供することにある。
このような目的を達成するために、本発明の第1の態様は、絵柄および凹凸の模様が形成された基材を備えた化粧材の画像をシミュレートする化粧材シミュレーションシステムである。化粧材シミュレーションシステムは、化粧材の絵柄の情報および凹凸の模様の情報を入力する入力手段であり、絵柄の情報は印刷のための画素毎の色の情報であり、凹凸の模様の情報は凹凸の模様の画素毎の深さまたは高さの情報である、入力手段と、化粧材の絵柄の情報および凹凸の模様の情報を、化粧材の質感に関する素材情報に変換するように構成された変換手段であり、素材情報は色特性および形状特性を含む、変換手段と、照明情報、化粧材の質感に関する素材情報、並びに照明、表示手段の表示面及び観者の相対的位置関係に基づいて、化粧材の表示データをレンダリングするように構成されたレンダリング手段と、表示データを用いて化粧材の画像を表示する表示手段とを備える。
一実施形態では、入力手段は化粧材の光沢の情報をさらに入力する手段であり、化粧材の光沢の情報は光沢の強さと光沢の鋭さ(広がり)の情報であり、素材情報は反射特性をさらに含む。変換手段は光沢の情報を反射特性に変換するようにさらに構成されている。一実施形態では、変換手段は光沢の異方性の情報をさらに含む。
一実施形態では、化粧材シミュレーションシステムは、化粧材の表示データのレンダリングに用いられる素材情報の特性の組合せを決定する組合手段および化粧材の表示データのレンダリングに用いられる素材情報の特性の少なくとも1つを変更する編集手段の少なくとも一方と、特性の組合せを含む素材情報および特性の少なくとも1つが変更された素材情報の少なくとも一方を記憶する組合編集結果記憶手段とをさらに備える。一実施形態では、化粧材シミュレーションシステムは、上記変換手段は、組合編集結果記憶手段に記憶された素材情報を、化粧材の製造情報としての絵柄の情報、光沢の情報および凹凸の模様の情報に変換するようにさらに構成されている。
一実施形態では、化粧材の絵柄の情報および光沢の情報は、記憶手段に記憶された、予め作成された複数の化粧材の絵柄の情報および光沢の情報の内の1つである。凹凸の模様の情報は、記憶手段に記憶された、予め作成された複数の凹凸の模様の情報の1つである。
一実施形態では、化粧材は、床材、壁材、外壁材、天井材、建具造作材、屋根材、壁面収納材としての化粧材である。
一実施形態では、画像処理システムは、空間の表示データをレンダリングする第2のレンダリング手段と、空間の表示データを用いて空間の画像を表示する第2の表示手段とをさらに備える。第2のレンダリング手段は化粧材を空間に適応する指示に応答して、空間における空間照明情報、化粧材の質感に関する素材情報、及び空間内における観者の目の位置、視点またはカメラ位置に基づいて、化粧材を適用した空間の表示データをレンダリングするように構成されている。
一実施形態では、画像処理システムは、携帯型端末と空間画像処理端末とを含む。
携帯型端末は、入力手段、変換手段、レンダリング手段、および表示手段を含む。携帯型端末は、表示手段の表示面の方位を検出するように構成された傾き検出手段、表示手段の周囲照明情報を取得するように構成された周囲照明情報取得手段をさらに含む。空間画像処理端末は、第2のレンダリング手段および第1の表示手段を含む。
本発明の第2の態様は、上記化粧材シミュレーションシステムにより実行される、化粧材シミュレーション方法である。
本発明の第3の態様は、上記化粧材シミュレーション方法をコンピュータシステムに実行させるプログラムである。
以上説明したように、本発明によれば、観察環境の変化や建築素材(化粧材)の向きの変化に応じた素材の画像を表示する化粧材シミュレーションシステム、方法を提供することが可能となる。
本発明の一実施形態の化粧材シミュレーションシステムの概略図である。 本発明の一実施形態の化粧材シミュレーションシステムで画像表示する空間を説明する図である。 本発明の一実施形態の化粧材シミュレーションシステムの画像処理装置のユーザ・インタフェースを説明するための図である。 本発明の一実施形態の化粧材シミュレーションシステムの画像処理装置の機能ブロック図である。 本発明の一実施形態の化粧材シミュレーションシステムの仮想空間画像処理装置の機能ブロック図である。 本発明の一実施形態を説明するための図であり、(a)はエンボス版の凹凸の模様の情報を示すグレー画像であり、(b)および(c)は凹凸の模様の情報から形状特性への変換を説明するための図であり、(d)はグレー画像と凹凸の深さの対応関係を示す図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態を説明するための図である。 本発明の一実施形態に係る化粧材シミュレーションシステムの画像処理装置の処理のフロー図である。 本発明の一実施形態に係る化粧材シミュレーションシステムの仮想空間画像処理装置の処理のフロー図である。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。以下に説明する化粧材シミュレーションシステム、方法、及びプログラムは、建築物の建築素材である化粧材の質感を画像表示する化粧材シミュレーションシステム、方法、及びプログラムに関する。本実施形態の化粧材シミュレーションシステム、方法、及びプログラムによれば、観察環境の変化や建築素材(化粧材)の向きの変化に応じた当該建築素材の画像を表示して質感を確認することが可能となる。したがって、絵柄(模様および/又は色彩)と凹凸の模様との組合せた素材の試作を繰り返す回数を減らすことを可能にする。
限定するものではないが、建築物の建築素材(以下単に、素材ともいう。)は、例えば、床材、壁材、外壁材、天井材、建具造作材、屋根材、壁面収納材としての化粧材である。
図1は、化粧材シミュレーションシステムの構成を示す図である。化粧材シミュレーションシステムは、画像処理装置100と仮想空間画像処理装置300とを含む。化粧材シミュレーションシステムは、画像処理装置100と仮想空間画像処理装置300へ各種データ及び/又はサービスを提供するサーバ500を含んでもよい。
図2は、仮想空間画像処理装置300が備えるモニタ(ディスプレイデバイス等)に表示される仮想空間の一例を示す。仮想空間に関する情報は、壁、床、天井、ドア、窓、及び照明等の間取りの情報を含む。仮想空間情報は、仮想空間画像処理装置300の仮想空間情報記憶部308に格納され、仮想空間画像処理装置のレンダリング部304が表示データを生成する際に用いられる。仮想空間情報は、仮想空間画像処理装置300で作成し仮想空間情報記憶部308に格納してもよく、サーバ500から取得して仮想空間情報記憶部308に格納してもよい。
図2の仮想空間は、空間の間取りを構成する各種パーツ(壁1〜3、床1、天井1、ドア1、窓1、照明1,2)を含む。仮想空間の情報である仮想空間情報は、各種パーツを識別する情報及び仮想空間における各種パーツの位置を識別する情報を含む。また、仮想空間における光に関する情報(光の方位、色成分及び強度)は、照明情報として定義されている。照明情報は、配光分布を含んでもよい。各種パーツを識別する情報により、パーツの種類(壁、床、天井、ドア等)を識別することができる。位置を識別する情報により、各パーツの仮想空間における場所、他のパーツとの間の境界、距離及び相対的位置関係を算出することができる。各種パーツの素材の選択(決定)方法については、後述する。仮想空間の表示データを生成する際、各種パーツの素材の情報(素材情報:素材の各種特性情報を含む)、各光源202,204,206(照明1及び2並びに太陽)からの光に関する照明情報が考慮される。
図3は、仮想空間内の各種パーツの素材を選択する際に、画像処理装置100で提供されるユーザ・インタフェース(素材ビューア)を例示する図である。例えば、住宅供給者(インテリアデザイナー)は、図3のユーザ・インタフェースを使用して、各種パーツの素材の質感を確認して、適用する素材を選択することができる。また、絵柄(模様および/又は色彩)、光沢、凹凸の模様を選択し、これらを組み合わせた素材の質感を確認し、適用する素材を選択することができる。この場合,絵柄(模様および/又は色彩)と光沢は一対として選択させてもよい。仮想空間画像処理装置300は、図3のユーザ・インタフェースを使用して選択された素材が適用された仮想空間の表示情報を生成し表示する。したがて、住宅供給者(インテリアデザイナー)は、選択した素材を空間に配置した際の質感や見えを疑似体験できる。
画像処理装置100と仮想空間画像処理装置300は、仮想空間に関する情報を共有している。例えば、図3に示すようにユーザ・インタフェース(素材ビューア)は、仮想空間(図2)の各種パーツを選択可能にするパーツリスト402を含む。ユーザ・インタフェースは、パーツリストから選択されたパーツに適用可能な素材のカテゴリを選択可能にするリスト(素材カテゴリリスト)404を含む。さらに、ユーザ・インタフェースは、素材カテゴリリストから選択されたカテゴリに分類された素材のサムネールのリスト(サムネールリスト)406を含む。また、ユーザ・インタフェースは、サムネールリストから選択された素材の画像を表示する質感ビューア領域408を含む。さらに、ユーザ・インタフェースは、絵柄のサムネールのリスト416、光沢のサムネールのリスト418および凹凸の模様のサムネールのリスト420を含む。質感ビューア領域408は、選択された絵柄、光沢および凹凸の模様を組み合わせた素材の画像を表示することもできる。さらにまた、ユーザ・インタフェースは、仮想空間についてモデル化された各種照明環境の照明情報(モデル1,2・・・)の選択を可能にする照明環境リスト412を含む。照明環境リストは、仮想空間の照明情報とは別に、画像処理装置100が存在する実環境の照明情報を含んでもよい。照明環境リストには、モデル化された照明情報の概要(時間帯、光源種別・状態、窓の有無、配光分布)を含んでもよい。質感ビューア領域408には、絵柄、光沢および凹凸の模様の組み合わせた素材または選択された素材の素材情報(色特性、形状特性、反射特性)及び照明情報(光の方位、色成分及び強度)が反映された画像が表示される。質感ビューア領域408は、ディスプレイの表示領域の全体を占めるように構成してもよい。以下に説明するように、画像処理装置100は、画像処理装置(タブレット端末)の傾斜(ディスプレイ面の方位)を考慮して、素材の画像をレンダリングして表示する。したがって、観者は、素材を手にしているかのように、素材の画像を観察し素材の質感を体験することができる。
図4は、本発明に係る化粧材シミュレーションシステムの画像処理装置の一実施形態である携帯型端末の機能ブロック図である。図4の携帯型端末100は、例えば、タブレット端末であり、ディスプレイ、プロセッサ、メモリ、各種センサを備える。携帯型端末100は、通信デバイス、キーボード、コンピュータマウスを含むポインティングデバイス、及びマイクロフォン等の入力デバイスを含んでもよい。入力デバイスは、入力部112を構成する。
ディスプレイデバイスは、画像の表示に適したディスプレイデバイスであればよく、これに限定するものではないが、電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスが好ましい。ディスプレイデバイスは、表示部102を構成する。電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスは、表示部102および入力部112を構成する。
プロセッサは、CPUの他、GPUやコプロセッサを含んでもよい。プロセッサは、表示部に表示される画像に対応する表示データを生成する。プロセッサは、レンダリング部(表示データ生成部)104、変換部120、編集部122、組合部124を構成する。
メモリは、HDDなどの磁気ドライブ及びSSDなどの半導体ドライブのいずれでもよい。メモリは、内蔵型でも外付型でも良い。メモリは、周囲照明情報記憶部106、素材情報記憶部116及び組合編集結果記憶部126を構成する。メモリは、傾き検出部110により検出されたタブレット端末の傾き(ディスプレイ面の方位)の情報を記憶することもできる。
各種センサは、タブレット端末の周囲の照明情報(周囲照明情報)を取得するのに適したデバイス(以下、周囲照明情報取得デバイス)及びタブレット端末の傾きの検出に適したデバイス(傾き検出デバイス)であればよい。例えば、周囲照明情報取得デバイスは、測光デバイス、照度センサ及びカメラの1以上とすることができる。周囲照明情報取得デバイスは内蔵型でも外付型でもよい。また、例えば、傾き検出デバイスは、ジャイロセンサ、加速度センサ、磁気センサの1以上とすることができる。周囲照明情報取得デバイスは、プロセッサと共に又は単独で、周囲照明情報取得部108を構成する。また、傾き検出デバイスは、プロセッサと共に又は単独で、傾き検出部110を構成する。さらに、各種センサは、観者(例えば、観者の目)の位置を検出するのに適したデバイスを備えてもよい。このようなデバイスは、赤外線センサ及びカメラの1以上とすることができる。
例えば、周囲照明情報取得デバイスとしてのカメラは、周囲全周囲画像カメラまたは全天球撮影カメラ(omnidirectional camera)とすることができ、このようなカメラでタブレット端末の全周囲を撮影した全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。あるいは、内蔵型でも外付型のカメラで、カメラを水平面に置いた状態で撮影した基準画像と、カメラの向きを変えて複数回に分けて撮影したタブレット端末の全周囲を画像とを組み合わせて(繋ぎ合わせて)、全周囲画像を生成し、生成された全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。カメラが備えるイメージセンサのダイナミックレンジ(ラチチュード(latitude))がタブレット端末の周囲の実環境の輝度分布の輝度レンジより狭い場合は、露光量を多段に変えて撮影した後に合成する写真技法(ハイダイナミックレンジ合成(high dynamic range imaging:HDR)を用いてもよい。
例えば、タブレット端末の内蔵カメラ(またはタブレット端末との相対的位置関係が既知である外付けカメラ)で撮影される画像から、当該タブレット端末の操作者(観者)の顔(目)の位置を特定することで、タブレット端末の表示面と観者の相対的位置関係を特定することができる。撮影と観者の顔(目)の位置の特定を短い時間間隔で繰り返すことで、タブレット端末の表示面と観者の相対的位置関係をリアルタイムで特定することができる。
通信デバイスは、外部機器との接続用のバス(例えばUSB(Universal Serial Bus))インタフェース、有線通信用のネットワークインターフェースカード(NIC)及び無線通信用の無線デバイスの1以上とすることができる。通信デバイスは、通信部114または入力部112を構成する。タブレット端末100は、通信部114を介して外部(仮想空間画像処理装置300又はサーバ500)から照明情報及び素材情報を取得することもできる。外部から取得した照明情報は、周囲照明情報(実空間の照明情報)の代替として用いることができる。タブレット端末100は、通信部114を介して外部(他のコンピュータ又はサーバ)から取得した素材情報を、変換部120による変換で取得した素材情報の代替として用いることもできる。
変換部120は、入力部112、通信部114を介して入力されたまたは予めメモリに記憶された複数の素材の絵柄(模様および/又は色彩)情報、反射の情報およびエンボス版の凹凸の模様の情報のうちのから選択されたいずれかを、素材情報に変換する。素材の絵柄(模様および/又は色彩)情報、反射の情報およびエンボス版の凹凸の模様の情報はそれぞれ、異なるデータベース等において記録・管理されていてもよい。この場合、本実施形態の画像処理システムで、素材の絵柄情報、反射の情報およびエンボス版の凹凸の模様の情報を組み合わせた素材の画像を表示することで、質感を擬似的に体験することができる。例えば、異なるデータベースにおいてそれぞれ記録・管理されている素材の絵柄情報とエンボス版の凹凸の模様の情報を選択し、組み合わせた素材の画像を表示して、質感を擬似的に体験することができる。また、絵柄情報およびエンボス版の凹凸の模様の情報をそれぞれ記録管理するデータベースと同一または異なるデータベースにおいて記録・管理されている反射の情報を、上記絵柄情報とエンボス版の凹凸の情報の組合せに加えてもよい。また、変換部120は、サーバ500または他のコンピュータ300に備えられてもよく、あらかじめ変換された素材情報を通信部114を介して通信し素材情報記憶部116に記憶されてもよい。
素材情報は、建築素材の質感に関する情報である。素材情報は、画素毎のRGB情報(色特性:素材の地やコート層など、素材を構成する各層の色を示す情報)を含む。また、素材情報は、画素毎の光沢情報(反射特性:素材の表面に設けるコート層など、素材を構成する表面の光沢を示す情報)を含むことが好ましい。反射特性である光沢情報は、例えば、双方向反射率分布関数(BRDF)、双方向散乱面反射率分布関数(BSSRDF)を用いて反射モデル化されたものを用いることができる。モデル化された光沢情報としては、例えば、光沢の強さの情報と光沢の鋭さ(広がり)の情報で構成されるものが挙げられる。このとき、光沢情報は、光沢の強さの情報と光沢の鋭さの情報に加え、光沢の方向性の情報をさらに含むことができる。光沢の方向性の情報により、異方性反射を有する素材の質感を表現することができる。なお、光沢の強さの情報は、各ピクセルのRGB毎の強さの情報としてもよい。周囲照明情報(または外部から取得した空間照明情報)及び素材情報に基づいて表示データが生成される。この結果、素材の色とあわせ、素材の質感(光沢感、ざらつき感、凹凸感)が画像表示される。
例えば、建築素材としての化粧材は、設計段階では、基材(合板や繊維板など)の表面に形成される絵柄(模様および/又は色彩)の印刷用の情報(画素ごとの色の情報)、表面をエンボス加工(凹凸加工)するエンボス版の画素ごとの深さ(高さ)の情報、および追加される光沢を増加または減少させる材料(シート、ニス等)の分布を画素ごとに示す反射の情報で規定される。
例えば、素材の絵柄(模様および/又は色彩)の情報は、印刷のための画素毎のCMYK情報である。変換部120は、各画素について、CMYK情報を、画像表示のためのRGB情報(色特性)に変換する。また、変換部120は、各画素について、RGB情報をCMYK情報に逆変換することもできる。CMYK情報とRBG情報との間の変換は、ICC(International Color Consortium)プロファイルを用いたプログラム処理により実装することできる。または、素材の絵柄(模様および/又は色彩)の情報は、印刷のための版の画素毎の階調情報とインキの色情報であってもよい。この場合変換部120は,各画素について、版の階調情報とインキの色情報を、画像表示のためのRGB情報(色特性)に変換する。版の階調情報及びインキの色情報とRGB情報との間の変換は、インキの分光反射率からクベルカ―ムンク(Kubelka-Munk)モデルによるインキの重なり色(ノイゲバウア(Neugbauer)原色)を求める処理と、ノイゲバウア(Neugebauer)モデル等による処理により実装することができる。また、インキの色情報がCIELAB値または三刺激値で与えられた場合には、インキを調色するための基材インキ(例えば、C、M、Yインキ)の吸収係数と散乱係数から、与えられたCIELAB値または三刺激値を満たす基材インキの混合割合を求め、インキの分光反射率をクベルカ―ムンク(Kubelka-Munk)モデルから求めても良い。
例えば、エンボス版の凹凸の模様の情報は、各画素の凹凸の深さ(または高さ)を256階調で表す値と最大の深さ(または高さ)を示す値Dを含む情報である。例えば、エンボス版の凹凸の模様の情報は、図6(a)に示すようなグレー画像としてとして与えられる。図6(b)、(c)に示すように、変換部120は、注目画素の左右方向(x軸方向)および上下方向(y軸方向)のそれぞれについて、注目画素を挟んで隣接する2つの画素の深さの差(Δz_x及びΔz_y)を計算する、また、画像の解像度、または、画像の画素数とエンボス版の大きさの関係を用いて、注目画素を挟んで隣接する2つの画素間の左右方向(x軸方向)及び上下方向(y軸方向)の距離(Δx及びΔy)を計算し、注目画素における左右方向(x軸方向)の傾きをΔz_xとΔxから、注目画素における上下方向(y軸方向)の傾きをΔz_yとΔyから求める。さらに、変換部120は、注目画素における左右方向(x軸方向)の傾きと上下方向(y軸方向)の傾きから注目画素の法線ベクトル(形状特性)を計算する。このようにして、変換部120は、エンボス版の凹凸の模様の情報(各画素の深さ(または高さ)の情報と、最大の深さ(または高さ)を示す値D)を、形状特性(画素の法線ベクトル)に変換する。また、変換部120は、画素の法線ベクトル(形状特性)を隣接する位置の深さに逆変換することもできる。各画素の凹凸の深さ(または高さ)と法線ベクトルとの間の変換および逆変換は、既知の技法を含む任意の技法で実現することができる。(例えば、非特許文献1,2参照)
例えば、反射の情報は、光沢特性が全面一様な光沢分布である場合、一様分布関数(数式)と、パラメータである光沢の強さと光沢の鋭さの数値の最大値および最小値が指定される。例えば、最小値から最大値までの値は256階調とすることができる。変換部120は、数式とパラメータで指定された反射の情報を、数式(一様分布関数の確率)にしたがって、各画素についての光沢の強さと光沢の鋭さの値に変換することがでる。一様分布関数にしたがうと、各画素の光沢の強さと光沢の鋭さの値の分布は、指定された最大値から最小値の間の値が同じ確率で生じる分布となる。最小値と最大値に同じ値を指定すると、光沢は全面で完全に一様となる。また、最小値と最大値に異なる値を指定すれば、製造上生じる面内のムラを反映することができる。数式は、一様分布関に限らず、例えば、正規分布関数と、パラメータである光沢の強さと光沢の鋭さの平均値と標準偏差とが指定されても良い。あるいは、反射の情報は、画素毎に光沢が異なる場合には、反射の情報は、画像として指定される。例えば、RGB画像フォーマットを用い、光沢の強さおよび光沢の鋭さをそれぞれ256階調で表す情報(0は最小値、255は最大値)とし、RチャネルおよびGチャネルに指定する(Bチャネルは使用されない)。反射の情報に光沢の方向性(異方性)の情報を含める場合には、Bチャネルに指定する。Bチャンネルでは、0は基準軸(たとえば素材面上で互いに直交するx軸とy軸のうちx軸)に相当するものとし、255は素材面に直交する軸を中心に回転した角度が360度に相当するものとすることができる。または、反射の情報は、化粧材の表面の各画素に用いられる一種の表面コート材(ニス)または二種以上の表面コート材の混合割合として指定される。例えば、変換部120は、一種の表面コート材(ニス)または二種以上の表面コート材を種々の混合割合で混合した混合物と、光沢の強さと光沢の鋭さの値との関係を予め測定し格納したデータベースを参照して、指定された一種の表面コート材または二種以上の表面コート材の混合割合を、各画素についての光沢の強さと光沢の鋭さの値に変換することができる。さらに、変換部120は、データベースを参照して、各画素についての光沢の強さと光沢の鋭さの値を、一種の表面コート材または二種以上の表面コート材の混合割合に逆変換することができる。例えば、二種以上の表面コート材の混合割合は、光沢度の低いマットニスと光沢度の高いグロスニスの混合割合とすることができる。1つの表面コート材(ニス)または複数の表面コート材の混合物の光沢の強さおよび光沢の鋭さの値は、予め測定しデータベースに格納した値の代替として検量線または近似モデル式により求めた値を用いてもよい。データベースは、携帯型端末100に備えられてもよく、通信部114を介してアクセス可能な他のコンピュータ300又はサーバ500に備えられたデータベースであっても良い。反射の情報は、全面一様な光沢分布であっても、全面一様ではない特定のパターンを有する分布であってもよい。光沢特性(各画素についての光沢の強さと光沢の鋭さの値)から変換部120により逆変換された光沢の情報(例えば、一種の表面コート材または二種以上の表面コート材の混合割合)は、外部へ出力されて、変換部120により逆変換された絵柄(模様および/又は色彩)の情報および/またはエンボス版の凹凸の模様の情報と組みあわされて、光沢の効果を調整した建築素材(化粧材)の製造情報として利用できる。
照明情報記憶部106は、周囲照明情報取得部108によって取得された周囲照明情報又は通信部114を介して外部から取得された空間照明情報を記憶する。
素材情報記憶部116は、変換部120により変換された素材情報、または通信部114を介して外部から取得された素材情報を記憶する。素材情報は、素材の質感に関する情報である。素材情報は、ピクセル(画素)毎の法線情報(形状特性:装材(床材、壁材、天井材)におけるピクセルの面の向きを示す情報であり、例えば、画素の法線ベクトル情報である)を含む。また、素材情報は、画素毎のRGB情報(色特性:素材の地の色を示す情報)、画素毎の光沢の強さの情報及び光沢の鋭さの情報(反射特性)を含む。反射情報は、異方性(光沢の方向性)の情報を含んでもよい。光沢の強さの情報は、各ピクセルのRGB毎の強さの情報としてもよい。周囲照明情報(または外部から取得した空間照明情報)及び素材情報に基づいて表示データが生成される。この結果、素材の質感(光沢感、ざらつき感、凹凸感)が画像表示される。
タブレット端末100は、観者とのインタラクションのためのユーザ・インタフェース(UI)(例えば、図3の素材ビューア)を提供するUI提供部(不図示)を備える。上述したように、観者は、UIを介して、表示させたい素材を選択することができる。すなわち、タブレット端末100は、UIを介して観者からの素材の選択を受信し、当該素材をディスプレイに表示することができる。UIは、観者が表示させたい素材を選択することができる、階層形式のカテゴリ別メニュー(素材カテゴリ)を含んでもよい。例えば、素材を壁材、床材及び天井材のようなカテゴリ別に分類し、観者がカテゴリの階層にしたがって素材を選択できるようにしてよい。サブカテゴリでは複数の素材のサムネールを提示して、観者が表示させたい素材を選択させてもよい。
また、観者は、UIを介して、絵柄、光沢および凹凸の模様を組み合わせて、素材を選択することができる。
組合部124は、UIを介して観者から絵柄、光沢および凹凸の模様の選択を受け取り、選択された絵柄、光沢および凹凸の模様を組み合わせた素材の素材情報を決定する。すなわち、組合部124は、選択された絵柄、光沢および凹凸の模様にそれぞれ対応する、変換部120により変換された色特性、形状特性および反射特性を決定して、取得する。これにより、レンダリング部104により、絵柄、光沢および凹凸の模様を組み合わせた素材の表示データがレンダリングされる。組合部124により組み合わされた色特性、形状特性および反射特性(素材情報)は、編集結果記憶部123に記憶される。
また、観者は、UIを介して、表示させた素材の一部または全部を選択して、素材情報(色特性、形状特性、反射特性)を編集すること(素材情報(色特性、形状特性、反射特性)の変更を指示すること)ができる。
編集部122は、UIを介して観者からの指示を受け取り、素材情報(色特性、形状特性、反射特性)を変更する。例えば、編集部122は、観者からの指示にしたがって、選択された絵柄(模様および/又は色彩)の一部または全部の画素について色(RGBの値)を変えること、回転すること、拡大または縮小すること、および/または平行移動することができる。素材の絵柄(模様および/又は色彩)の情報が、印刷のための版の画素毎の階調情報とインキの色情報の場合、インキの色を変えることによって行ってもよい。また、編集部122は、観者からの指示にしたがって、観者により光沢の分布から選択された一部または全部の画素についての光沢の強さおよび光沢の鋭さを変更すること、位置を回転すること、範囲を拡大または縮小すること、および/または平行移動することができる。また、編集部122は、観者からの指示にしたがって、選択された一部または全部の画素について、グレー画像における対応する画素の階調値又は最大の深さを表す値D若しくは対応する画素の形状特性(画素の法線ベクトル)を操作することで、エンボス版の凹凸の深さ(または高さ)を変更すること、深さの最大値Dを変更すること、凹凸の模様を回転すること、凹凸の模様を拡大または縮小すること、および/または凹凸の模様を平行移動することができる。編集部122が、選択された一部または全部の画素について、グレー画像における対応する画素の階調値又は最大の深さを表す値Dを直接操作する場合には、変換部120は、編集部122により操作されたグレー画像の各画素の凹凸の深さ(または高さ)を階調で表す値と最大の深さ(または高さ)を示す値Dを、形状特性(画素の法線ベクトル)に変換する。
組合編集結果記憶部126は、編集部122により変更された素材情報(色特性、形状特性、反射特性)を記憶する。組合編集結果記憶部126に記憶された素材情報(色特性、形状特性、反射特性)は、素材の製造のため製造情報として外部へ出力されても良い。例えば、携帯型端末100は、組合編集結果記憶部126に記憶された素材情報を、変換部120で逆変換した後に、通信部114を介して外部へ送信するように構成されてもよい。色特性、形状特性および反射特性からそれぞれ逆変換された絵柄(模様および/又は色彩)の情報、光沢の情報およびエンボス版の凹凸の模様は、建築素材(化粧材)の製造情報として外部へ出力され、これにより実物の建築素材を製造することができるようになる。絵柄(模様および/又は色彩)の情報および光沢の情報は印刷情報として、エンボス版の凹凸の模様はエンボス版の凹凸の深さまたは高さとして、実物の建築素材の製造に用いることができる。
図5は、本発明の一実施形態である化粧材シミュレーションシステムの仮想空間画像処理装置の機能ブロック図である。仮想空間画像処理装置300は、仮想空間画像のレンダリング及び表示に適したコンピュータであり、モニタ、プロセッサ、メモリを備える。仮想空間画像処理装置300を構成するコンピュータは、通信デバイス、キーボード、コンピュータマウスを含むポインティングデバイス、及びマイクロフォン等の入力デバイスを含んでもよい。入力デバイスは、入力部312を構成する。
モニタは、仮想空間の画像表示に適したディスプレイデバイス等であればよく、表示部302を構成する。
プロセッサは、CPUの他、GPUやコプロセッサを含んでもよい。プロセッサは、表示部に表示される画像に対応する表示データを生成する。プロセッサは、レンダリング部(表示データ生成部)304を構成する。また、プロセッサは、入力デバイスと共に又は単独で、仮想空間における観者(例えば、観者の目(視点)、あるいはカメラ)の位置を検出する空間内観者位置検出部318を構成する。
メモリは、HDDなどの磁気ドライブ及びSSDなどの半導体ドライブのいずれでもよい。メモリは、内蔵型でも外付型でも良い。メモリは、空間照明情報記憶部306、空間情報記憶部308及び素材情報記憶部316を構成する。
通信デバイスは、外部機器との接続用のバス(例えばUSB(Universal Serial Bus))インタフェース、有線通信用のネットワークインターフェースカード(NIC)及び無線通信用の無線デバイスの1以上とすることができる。通信デバイスは、通信部314を構成する。仮想空間画像処理装置を構成するコンピュータ300は、通信部314を介して外部(携帯型端末100又はサーバ500)との間で、空間情報、空間照明情報及び素材情報を送受することができる。空間照明情報記憶部306は空間照明情報を記憶する。素材情報記憶部316は素材情報を記憶する。空間情報記憶部308は空間情報を記憶する。
仮想空間画像処理装置300のレンダリング部(表示データ生成部)304及び空間内観者位置検出部318を、サーバ500に実装してもよい。これらの機能をサーバ500に実装する場合には、仮想空間画像処理装置300は、通信部314を介して、サーバ500がレンダリングした空間の表示データを受信して表示部302に表示することができる。
図7は、周囲照明情報取得部108によって周囲照明情報が取得される空間を示す。図7において、x軸及びy軸は水平面内で互いに直交する軸であり、z軸は水平面内に直交する軸である。図7の空間には、2つの電灯202及び204と太陽206を含む合計3つの光源が示されている。x軸、y軸及びz軸の交点を周囲照明情報取得部108の位置として、2つの電灯202及び204並びに太陽206の3つの光源からの光を観測し、光源毎に観測される光の方位、色成分及び強度(輝度)を、空間における周囲照明情報として取得する。光源の数は、3つに限定されない。光源は、発光体に限定されず、周囲照明情報取得部108に向けて光を反射する反射体でもよい。空間内で観測される全ての光源の周囲照明情報(光の方位、色成分及び強度)を取得してもよい。取得された周囲照明情報は、照明情報記憶部106に記憶される。
周囲照明情報代替として、通信部114を介して外部から空間照明情報を取得することができる。空間照明情報及び周囲照明情報を単に照明情報という。空間照明情報は、南向きの窓(太陽光が差し込む窓)があり4灯のダウンライトがある部屋や、窓の無く電灯が1つの寝室など、モデル化された空間における照明の情報(予め外部の仮想空間画像処理装置300又はサーバ500などに格納されている照明の情報)とすることができる。モデル化された空間は、販売中/建設予定の建築物件のモデルルームの間取り内の1つ又は複数の空間とすることができる。
図8は、図7に示した空間にタブレット端末100を配置した状態を示す。図8には、タブレット端末100によって表示される画像の観者の目208も示されている。タブレット端末100は、ディスプレイ面を上向きにして、ディスプレイ面がxy面に平行と成るように、x軸、y軸及びz軸の交点に配置されている。目208の方位は、観者検出部118によって検出されるディスプレイ面の法線に対する方位でもよく、ディスプレイ面の法線に予め決められた方位と(観者検出部118によって検出しない)してもよい。
図8に示す状態で、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。生成された表示データがディスプレイデバイスに表示されると、タブレット端末100を持っている観者は、あたかも素材を自身の手で持っているかのように、素材の質感を観察することができることができる。
レンダリング部104は、素材情報記憶部116からレンダリングする素材の素材情報(ピクセル毎の法線情報(形状特性)、RGB情報(色特性)、光沢の強さの情報及び光沢の鋭さの情報)を読み出し、照明情報記憶部106から照明情報(1つまたは複数の光源からの光の方位、色成分及び強度(輝度))を読み出し、各画素における観者の方位に反射する色成分及び強度(輝度)を計算して表示データを生成する。生成された表示データが用いられ、表示部に画像が表示される。図8に示す状態では、素材の表面に3つの光源(2つの電灯202及び204並びに太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))が計算される。
図9に示す状態では、タブレット端末100のディスプレイ面は水平面(xy面)から傾斜している。この傾斜は、電灯202の光がディスプレイ面に入射しない程度の傾きである。傾き検出部110がこの傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に2つの光源(1つの電灯204及び太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。
さらに、図10に示す状態では、タブレット端末100のディスプレイ面はz軸に平行に配置されている。この配置は、2つの電灯202及び204の光がディスプレイ面に入射しない配置である。傾き検出部110がこのときのタブレット端末100の傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に1つの光源(太陽206)のみから入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。
図8から10を参照して説明したように、レンダリング部104によって生成された表示データは、タブレット端末100の傾き(ディスプレイ面の方位)および目の位置(方位)が反映されている。したがって、タブレット端末100を持っている観者は、タブレット端末100を傾けたり、目の位置(方位)を変えたりすることで、素材の実物を観察している時と同様に、素材の質感を観察することができることができる。
レンダリング部104は、ズーム機能を実装することもできる。上述したように、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。ディスプレイ面と、タブレット端末100を保持する観者との間の距離は、略観者の腕の長さとなり、大きく変化しない。したがって、ユーザ・インタフェース(UI)を介して受信する観者からのズーム・インの指示に応答して、素材がディスプレイ面と観者との間に置かれているかのように素材の表示データを生成する、あるいは、UIを介して受信するズーム・アウトの指示に応答して、ディスプレイ面が素材と観者との間に置かれている(素材がディスプレイ面の裏側に置かれている)かのように素材の表示データを生成する、ズーム機能をレンダリング部104に実装することは有用である。例えば、観者は、ディスプレイ面が水平面に垂直となるようにタブレット端末を保持し、壁材の素材をさせる際に、ズーム・アウト機能を使用して、2〜3mは離れた位置の壁を想定して、素材の質感を観察することが可能になる。
図11は、画像処理装置の処理のフローチャートであり、上述した携帯型端末100によって実行される処理フローの一例である。
ステップS601で、携帯型端末100(変換部120)は、入力された絵柄の情報、エンボス版の凹凸の模様の情報、反射の情報を、素材の素材情報(色特性、形状特性、反射特性)に変換する。たとえば、色特性は素材の画素毎のRGB情報であり、形状特性は素材の画素毎の法線ベクトル情報であり、反射特性は画素毎の光沢の強さの情報及び光沢の鋭さ(及び異方性(光沢の方向性)の情報)である。入力部112、通信部114を介して入力された(または入力され素材情報記憶部116に記憶された)素材の絵柄情報、エンボス版の凹凸の模様の情報、反射の情報が、素材情報に変換される。変換された素材情報は、素材情報記憶部116に記憶される。または、あらかじめ外部で変換された素材情報(色特性、形状特性、反射特性)を通信部114を介して取得してもよく、その場合、ステップS601の処理は実行しないで、取得した素材情報を素材情報記憶部116に記憶される。
ステップS603で、携帯型端末100(レンダリング部104)は、周囲照明情報を取得する。当該携帯型端末が配置された実環境において周囲照明情報取得部108によって取得された照明情報、又は周囲照明情報記憶部106に格納された照明情報が取得される。代替として、通信部114を介して取得されたモデル化された空間における外部照明情報、又は通信部114を介して取得され周囲照明情報記憶部106に格納された外部照明情報が取得される。
ステップS605で、携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を特定する。携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を、照明情報に含まれる光の方位と、ディスプレイ面の方位及び観者の目の方位の少なくとも1つとを用いて計算することにより、特定することができる。携帯型端末の傾き及び観者の目の方位は、傾き検出部110及び観者検出部118によってそれぞれ検出され、レンダリング部104がアクセスできるようにメモリなどに保持されている。
ステップS607で、携帯型端末100(レンダリング部104)は、取得した照明情報と、計算した相対的位置関係と、素材情報(色特性、形状特性、反射特性の組み合わせ)とに基づいて、素材の表示データをレンダリングする。素材情報の色特性、形状特性、反射特性は、予め決定されている組合せがレンダリング部104により取得されるか、または、組合部124により決定され収取され、レンダリング部104に提供される。組合部124により決定された素材情報(色特性、形状特性、反射特性の組み合わせ)は、組合編集結果記憶部126に記憶される。組合編集結果記憶部126に記憶された素材情報は、変換部120により逆変換されて、製造情報としてとして外部へ出力される。例えば、光沢の強さおよび光沢の鋭さの値から逆変換された一種の表面コート材または二種以上の表面コート材の混合割合、RGB情報から逆変換されたCMYK情報、および法線ベクトルから逆変換されたエンボス版の凹凸の深さたは高さの1以上が、建築素材(化粧材)の製造情報として外部へ出力される。
ステップS609で、表示部102は、表示データを用いて素材の画像を表示(再表示)する。
ステップS611で、表示部102に画像表示された素材の編集が指示されたか否かを判定する。
素材の編集が指示された場合、ステップS613で、指示にしたがって、素材情報を変更する。編集部122により変更された素材情報は、組合編集結果記憶部126に記憶される。組合編集結果記憶部126に記憶された変更した素材情報は、上述したように、変換部120により逆変換されて、製造情報としてとして外部へ出力される。
ステップS611で素材の編集が指示されない場合、またはステップS613の後に、ステップS615で、プログラムの終了が指示されたかどうかを判定する。プログラムの終了が指示されている場合は、処理のフローを終了する。プログラムの終了が指示されていない場合は、ステップS603へ戻る。ステップS613で素材情報が変更された場合には、ステップ607において、取得した素材情報に替えて変更した素材情報に基づいて素材の表示データをレンダリングする。これにより、編集した素材の質感を確認することができる。
なお、プログラムの終了が指示されていない場合に、ステップS605へ戻ってもよい。ステップS603で、仮想空間についてモデル化された照明情報(空間照明情報)を取得した場合には、再取得する必要はない。
新たに組み合わされた色特性、形状特性および反射特性を用いて画像を表示した素材および/または1つが編集された色特性、形状特性および反射特性を用いて画像を表示した素材は、新しい素材として登録することができる。例えば、サーバ500は、新しい素材を識別する識別子を付与して、新しい素材の素材特性(色特性、形状特性および反射特性)を登録する。また、組合編集結果記憶部126に記憶された素材特性(色特性、形状特性および反射特性の組合せおよび/または色特性、形状特性および反射特性の一部または全部が編集された素材特性)は、仮想空間画像処理装置300および/またはサーバ500に送信され、新しい素材の付帯情報として付加され、実物の素材を製造する際の情報として用いることができる。
また、表示部102に画像表示された素材を仮想空間のパーツに適用することが選択された場合、仮想空間のパーツの識別子及び選択された素材の識別子を送信する。送信された仮想空間のパーツの識別子及び選択された素材の識別子は、仮想空間画像処理装置300又はサーバ500によって、受信される。
図12は、仮想空間画像処理装置の処理のフローチャートである。
ステップS701で、仮想空間画像処理装置300(レンダリング部304)は、仮想空間照明情報を取得する。空間照明情報記憶部306に予め格納されたモデル化された空間の照明情報(空間照明情報)が取得される。空間照明情報は、通信部114を介してサーバ500又は携帯型端末100から取得され空間照明情報記憶部306に格納された空間照明情報とすることができる。
ステップS703で、仮想空間画像処理装置300(レンダリング部304)は、携帯型端末100からのパーツの識別子及び当該パーツに適用する素材の識別子を受信し、応答して、当該素材の素材情報(色特性、形状特性、反射特性)を取得する。素材情報記憶部316に予め格納された素材情報が取得される。素材情報は、通信部314を介してサーバ500又は携帯型端末100から取得し素材情報記憶部316に記憶された素材情報とすることができる。素材情報、上述した色特性、形状特性及び反射特性を示す情報である。
ステップS705で、仮想空間画像処理装置300(観者位置検出部318)は、仮想空間における観者の目の位置(視点あるいはカメラの位置)を決定する。
ステップS707で、仮想空間画像処理装置300(レンダリング部304)は、識別された素材が配置された空間(仮想空間)の表示データをレンダリングする。空間の表示データのレンダリングは、取得した照明情報及び素材情報、並びに決定した仮想空間における観者の目の位置に基づく。
ステップS709で、仮想空間画像処理装置300(表示部302)は、表示データを用いて空間(仮想空間)の画像を表示(再表示)する。
ステップS711で、仮想空間における観者の目(視点)が変更されたかどうか(仮想空間が回転されたかどうか、又は拡大縮小されたかどうか)を決定する。観者の目(視点)が変更された場合は、ステップS705へ戻り、空間(仮想空間)の表示データのレンダリングをやり直し画像を再表示する(ステップS709)、変更されない場合はステップS711を繰り返す。
ステップS713で、プログラムの終了が指示されたかどうかを判定する。プログラムの終了が指示されている場合は、処理のフローを終了する。プログラムの終了が指示されていない場合は、ステップS7053へ戻る。
代替として、ステップS711を、ステップS705とS707の間に挿入し、観者の目(視点)が変更されるまでステップS705を繰り返し、観者の目(視点)が変更された場合は、ステップS707からS709を実行した後に再びステップS711に戻るようにしてもよい。
以上、説明したように、本発明によれば、観察環境の変化や素材の向きの変化に応じた当該素材の画像を表示し、質感や見えの疑似体験を可能にする画像処理システム、方法、及びプログラムを提供できる。
なお、上記実施形態の説明では、化粧材シミュレーションシステムが携帯型端末(タブレット端末)と仮想空間画像処理端末(コンピュータ)とを含む構成を説明したが、仮想空間画像処理端末の機能部を携帯型端末に実装し、本発明を実施することができる。また、化粧材シミュレーションシステムの構成にサーバを含め、仮想空間画像処理端末の一部の機能をサーバに実装し、本発明を実施することができる。
100 携帯型端末
102 表示部(感圧式ディスプレイ)
104,304 レンダリング部(表示データ生成部)
106,306 照明情報記憶部
108 周囲照明情報取得部(測光デバイス、照度センサ、カメラ)
110 傾き検出部(ジャイロセンサ、加速度センサ、磁気センサ)
112,312 入力部(キーボード、キーパッド、マウス、ポインティングデバイス、マイク)
114,314 通信部(ネットワークIFカード(NIC)、無線デバイス)
116,316 素材情報記憶部
118 観者検出部(赤外線センサ、カメラ)
120 変換部
122 編集部
126 組合編集結果記憶部
202,204 電灯
206 太陽
208 目

Claims (21)

  1. 絵柄および凹凸の模様が形成された基材を備えた化粧材の画像をシミュレートする化粧材シミュレーションシステムであって、
    前記化粧材の前記絵柄の情報および前記凹凸の模様の情報を入力する入力手段であり、前記絵柄の情報は印刷のための画素毎の色の情報であり、前記凹凸の模様の情報は前記凹凸の模様の画素毎の深さまたは高さの情報である、前記入力手段と、
    前記化粧材の前記絵柄の情報および前記凹凸の模様の情報を、前記化粧材の質感に関する素材情報に変換するように構成された変換手段であり、前記素材情報は色特性および形状特性を含む、前記変換手段と、
    照明情報、前記化粧材の質感に関する素材情報、並びに照明、表示手段の表示面及び観者の相対的位置関係に基づいて、前記化粧材の表示データをレンダリングするように構成されたレンダリング手段と、
    前記表示データを用いて前記化粧材の画像を表示する前記表示手段と
    を備えた、化粧材シミュレーションシステム。
  2. 前記入力手段は前記化粧材の光沢の情報をさらに入力する手段であり、前記化粧材の光沢の情報は光沢の強さと光沢の鋭さの情報であり、前記素材情報は反射特性をさらに含み、前記変換手段は前記光沢の情報を前記反射特性に変換するようにさらに構成されている、請求項1に記載の化粧材シミュレーションシステム。
  3. 前記化粧材の光沢の情報は、光沢の異方性の情報をさらに含む、請求項2に記載の化粧材シミュレーションシステム。
  4. 前記化粧材の表示データのレンダリングに用いられる前記素材情報の特性の組合せを決定する組合手段と、
    前記特性の組合せを含む前記素材情報を記憶する組合編集結果記憶手段と
    をさらに備えた、請求項1乃至3のいずれかに記載の化粧材シミュレーションシステム。
  5. 前記化粧材の表示データのレンダリングに用いられる前記素材情報の特性の少なくとも1つを変更する編集手段をさらに備え、
    前記組合編集結果記憶手段は、前記特性の少なくとも1つが変更された前記素材情報をさらに記憶する、請求項4に記載の化粧材シミュレーションシステム。
  6. 前記変換手段は、前記組合編集結果記憶手段に記憶された前記素材情報を、化粧材の製造情報としての絵柄の情報、光沢の情報および凹凸の模様の情報に変換するようにさらに構成されている、請求項4または5に記載の化粧材シミュレーションシステム。
  7. 前記化粧材の前記絵柄の情報および前記光沢の情報は、記憶手段に記憶された、予め作成された複数の化粧材の前記絵柄の情報および前記光沢の情報の内の1つである、請求項2,3および6のいずれかに記載の化粧材シミュレーションシステム。
  8. 前記凹凸の模様の情報は、記憶手段に記憶された、予め作成された複数の凹凸の模様の情報の1つである、請求項1乃至7のいずれかに記載の化粧材シミュレーションシステム。
  9. 前記化粧材は、床材、壁材、外壁材、天井材、建具造作材、屋根材、壁面収納材としての化粧材である、請求項1乃至8のいずれかに記載の化粧材シミュレーションシステム。
  10. 空間の表示データをレンダリングする第2のレンダリング手段と、前記空間の表示データを用いて前記空間の画像を表示する第2の表示手段とをさらに備え、
    前記第2のレンダリング手段は前記化粧材を前記空間に適応する指示に応答して、前記空間における空間照明情報、前記化粧材の質感に関する素材情報、及び前記空間内における観者の目の位置、視点またはカメラの位置に基づいて、前記化粧材を適用した前記空間の表示データをレンダリングするように構成されている、請求項1乃至7のいずれかに記載の化粧材シミュレーションシステム。
  11. 絵柄および凹凸の模様が形成された基材を備えた化粧材の画像をシミュレートする化粧材シミュレーションシステムにおける化粧材シミュレーション方法であって、前記化粧材シミュレーションシステムは、入力手段と、変換手段と、レンダリング手段と、表示手段とを備え、前記化粧材シミュレーション方法は、
    前記入力手段において、前記化粧材の前記絵柄の情報および前記凹凸の模様の情報を入力することであり、前記絵柄の情報は印刷のための画素毎の色の情報であり、前記凹凸の模様の情報は前記凹凸の模様の画素毎の深さまたは高さの情報である、ことと、
    前記変換手段により、前記化粧材の前記絵柄の情報および前記凹凸の模様の情報を、前記化粧材の質感に関する素材情報に変換することであり、前記素材情報は色特性および形状特性を含む、ことと、
    前記レンダリング手段により、照明情報、前記化粧材の質感に関する素材情報、並びに照明、前記表示手段の表示面及び観者の相対的位置関係に基づいて、前記化粧材の表示データをレンダリングすることと、
    前記表示手段で、前記表示データを用いて前記化粧材の画像を表示することと
    を含む、化粧材シミュレーション方法。
  12. 前記入力手段において、前記化粧材の前記絵柄の情報および前記凹凸の模様の情報を入力することは、前記入力手段において、前記化粧材の前記絵柄の情報および前記化粧材の光沢の情報、並びに前記凹凸の模様の情報を入力することを含み、前記化粧材の光沢の情報は光沢の強さと光沢の鋭さの情報であり、
    前記変換手段により、前記化粧材の前記絵柄の情報および前記凹凸の模様の情報を、前記化粧材の質感に関する素材情報に変換することは、前記変換手段により、前記化粧材の前記絵柄の情報および前記光沢の情報、並びに前記凹凸の模様の情報を、前記化粧材の質感に関する素材情報に変換することを含み、前記素材情報は前記色特性、反射特性および前記形状特性を含む、請求項11に記載の化粧材シミュレーション方法。
  13. 前記化粧材の光沢の情報は、光沢の異方性の情報をさらに含む、請求項12に記載の化粧材シミュレーション方法。
  14. 前記化粧材シミュレーションシステムは、組合手段と、組合編集結果記憶手段とをさらに備え、前記方法は、
    前記組合手段が、前記化粧材の表示データのレンダリングに用いられる前記素材情報の特性の組合せを決定することと、
    前記組合編集結果記憶手段に、前記特性の組合せを含む前記素材情報を記憶することと
    をさらに含む、請求項11乃至13のいずれかに記載の化粧材シミュレーション方法。
  15. 前記化粧材シミュレーションシステムは、編集手段をさらに備え、前記方法は、
    前記編集手段が、前記化粧材の表示データのレンダリングに用いられる前記素材情報の特性の少なくとも1つを変更することと、
    前記組合編集結果記憶手段に、前記特性の少なくとも1つが変更された前記素材情報をさらに記憶することと
    をさらに含む、請求項14に記載の化粧材シミュレーション方法。
  16. 前記変換手段が、前記組合編集結果記憶手段に記憶された前記素材情報を、化粧材の製造情報としての絵柄の情報、光沢の情報および凹凸の模様の情報に変換すること
    をさらに含む、請求項14または15に記載の化粧材シミュレーション方法。
  17. 前記化粧材の前記絵柄の情報および前記光沢の情報は、記憶手段に記憶された、予め作成された複数の化粧材の前記絵柄の情報および前記光沢の情報の内の1つである、請求項12,13および16のいずれかに記載の化粧材シミュレーション方法。
  18. 前記凹凸の模様の情報は、記憶手段に記憶された、予め作成された複数の凹凸の模様の情報の1つである、請求項11乃至17のいずれかに記載の化粧材シミュレーション方法。
  19. 前記化粧材は、床材、壁材、外壁材、天井材、建具造作材、屋根材、壁面収納材としての化粧材である、請求項11乃至18のいずれかに記載の化粧材シミュレーション方法。
  20. 前記化粧材シミュレーションシステムは、空間の表示データをレンダリングする第2のレンダリング手段と、前記空間の表示データを用いて前記空間の画像を表示する第2の表示手段とをさらに備え、前記化粧材シミュレーション方法は、
    前記化粧材を前記空間に適応する指示に応答して、前記第2のレンダリング手段により、前記空間における空間照明情報、前記化粧材の質感に関する素材情報、及び前記空間内における観者の目の位置、視点またはカメラの位置に基づいて、前記化粧材を適用した前記空間の表示データをレンダリングすることをさらに含む、請求項11乃至19のいずれかに記載の化粧材シミュレーション方法。
  21. コンピュータシステムに、請求項11乃至20のいずれかに記載の化粧材シミュレーション方法を実行させるプログラム。
JP2015152958A 2015-07-31 2015-07-31 化粧材シミュレーションシステム、方法、及びプログラム Active JP6610065B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015152958A JP6610065B2 (ja) 2015-07-31 2015-07-31 化粧材シミュレーションシステム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015152958A JP6610065B2 (ja) 2015-07-31 2015-07-31 化粧材シミュレーションシステム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017033319A JP2017033319A (ja) 2017-02-09
JP6610065B2 true JP6610065B2 (ja) 2019-11-27

Family

ID=57988114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015152958A Active JP6610065B2 (ja) 2015-07-31 2015-07-31 化粧材シミュレーションシステム、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6610065B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7124327B2 (ja) * 2018-02-02 2022-08-24 凸版印刷株式会社 画像処理装置及びプログラム
JP7479480B2 (ja) 2020-08-12 2024-05-08 三菱電機株式会社 表示制御装置、加工シミュレーション装置、表示制御方法及びプログラム
CN116152425A (zh) * 2021-11-22 2023-05-23 北京字节跳动网络技术有限公司 绘制图像的方法、装置、电子设备及存储介质
WO2024029190A1 (ja) * 2022-08-05 2024-02-08 株式会社Nttドコモ 仮想オブジェクト生成装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4079231B2 (ja) * 1997-12-11 2008-04-23 大日本印刷株式会社 画像生成方法及び装置
JP3985879B2 (ja) * 1998-01-08 2007-10-03 大日本印刷株式会社 異方性反射のシミュレーション方法および、そのシミュレーション装置
JP2000187677A (ja) * 1998-12-21 2000-07-04 Daiken Trade & Ind Co Ltd 外壁材デザインの開発支援装置
JP4536871B2 (ja) * 2000-05-12 2010-09-01 大日本印刷株式会社 建材用化粧シートの作成システム
JP4992163B2 (ja) * 2001-04-03 2012-08-08 凸版印刷株式会社 柄デザインシミュレーションシステム及び柄デザインシミュレーションシステムに用いるサーバ
JP2004206551A (ja) * 2002-12-26 2004-07-22 Toppan Printing Co Ltd 三次元内装空間シミュレーションシステム
JP5434499B2 (ja) * 2009-11-12 2014-03-05 大日本印刷株式会社 柄癖可視化装置、柄癖可視化方法、及びプログラム

Also Published As

Publication number Publication date
JP2017033319A (ja) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6610063B2 (ja) 画像処理システム、方法、及びプログラム
JP6610065B2 (ja) 化粧材シミュレーションシステム、方法、及びプログラム
US10803630B2 (en) Image processing system, method, and program
WO2010070517A1 (en) System for simulation of a lighting distribution
US20200258285A1 (en) Distributed computing systems, graphical user interfaces, and control logic for digital image processing, visualization and measurement derivation
TWI779305B (zh) 使用擴增實境之投影機的設置模擬方法及其終端裝置
JP6589444B2 (ja) 建築素材画像処理システム、方法、及びプログラム
JP6631074B2 (ja) 画像処理システム、方法、及びプログラム
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP5332061B2 (ja) 室内改装費用見積システム
JP7279352B2 (ja) 質感調整支援システム、及び質感調整支援方法
JP6554980B2 (ja) 画像処理システム、方法、及びプログラム
JP6610064B2 (ja) 建築素材凹凸模様画像処理システム、方法、及びプログラム
JP6717302B2 (ja) 画像処理システム、方法、及びプログラム
JP2003157290A (ja) イメージシミュレーション用処理方法、イメージシミュレーション用処理システム、イメージシミュレーション用処理プログラム及び記録媒体
CN116113987A (zh) 将至少两种材料的外观可视化
JP7124327B2 (ja) 画像処理装置及びプログラム
CN116018576A (zh) 将至少两种材料的外观可视化
Ferwerda ImpastoR: A realistic surface display system
JP6756090B2 (ja) 画像処理装置、方法、及びプログラム
Navvab et al. Evaluation of historical museum interior lighting system using fully immersive virtual luminous environment
JP6693069B2 (ja) 画像表示装置、方法、およびプログラム
JP2016212664A (ja) 化粧板の選択支援装置、選択支援方法、およびコンピュータプログラム
CN116075859A (zh) 从多个源质地生成目标质地
CN113016011A (zh) 用于基底、涂覆品、中空玻璃单元等的增强现实系统和方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R150 Certificate of patent or registration of utility model

Ref document number: 6610065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250