JP2017033318A - Architectural material uneven pattern image processing system, method and program - Google Patents

Architectural material uneven pattern image processing system, method and program Download PDF

Info

Publication number
JP2017033318A
JP2017033318A JP2015152956A JP2015152956A JP2017033318A JP 2017033318 A JP2017033318 A JP 2017033318A JP 2015152956 A JP2015152956 A JP 2015152956A JP 2015152956 A JP2015152956 A JP 2015152956A JP 2017033318 A JP2017033318 A JP 2017033318A
Authority
JP
Japan
Prior art keywords
uneven pattern
information
pixel
image processing
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015152956A
Other languages
Japanese (ja)
Other versions
JP6610064B2 (en
Inventor
長谷川 隆行
Takayuki Hasegawa
隆行 長谷川
池ノ谷 真司
Shinji Ikenotani
真司 池ノ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2015152956A priority Critical patent/JP6610064B2/en
Publication of JP2017033318A publication Critical patent/JP2017033318A/en
Application granted granted Critical
Publication of JP6610064B2 publication Critical patent/JP6610064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To display an image of an uneven pattern according to a change of observation environment or a change of orientation of an architectural material to enable a simulated experience of a texture or appearance of the uneven pattern.SOLUTION: Conversion means converts information on a depth or hight by each pixel of an uneven pattern of an architectural material into information on an orientation of each pixel. Rendering means renders display data of the uneven pattern, on the basis of illumination information, information on the orientation of each pixel, and a relative positional relation of illumination, a surface of display means and an observer. The display means uses the display data to display an image of the uneven pattern.SELECTED DRAWING: Figure 1

Description

本発明は、建築素材凹凸模様画像処理システム、方法、及びプログラムに関し、より詳細には、建築物の建築素材の質感を画像表示する建築素材凹凸模様画像処理システム、方法、及びプログラムに関する。   The present invention relates to a building material uneven pattern image processing system, method, and program, and more particularly, to a building material uneven pattern image processing system, method, and program for displaying an image of the texture of a building material of a building.

従来、建築物の建築素材(例えば、床、壁及び天井に用いられる面材)として、印刷技術により印刷・加工をした化粧板が使用されている。例えば、基材(合板や繊維板など)の表面に顔料インキを塗布して絵柄(模様および/又は色彩)を形成して、表面をエンボス加工(凹凸加工)した様々な建築素材(化粧材)、あるいは、基材の表面に、絵柄が形成された化粧紙(薄葉紙、ウレタンコート紙、強化紙、チタン紙)または樹脂製の化粧シートを貼付して、表面をエンボス加工(凹凸加工)した様々な建築素材(化粧材)が利用されている。全体または一部において光沢の効果を調整する場合には、光沢を増加/減少させる材料(シート、ニス等)が積層される。従来、エンボス加工のためのエンボス版は、試作を繰り替えして、製作されていた。試作の繰り返しの回数が多くなると、エンボス版の作製費用も多くなる。   Conventionally, a decorative board printed and processed by a printing technique is used as a building material of a building (for example, a face material used for a floor, a wall, and a ceiling). For example, various building materials (decorative materials) in which a pigment ink is applied to the surface of a base material (plywood, fiberboard, etc.) to form a pattern (pattern and / or color) and the surface is embossed (unevenness processing) Or, the surface of the base material can be decorated with a decorative sheet (thin paper, urethane-coated paper, reinforced paper, titanium paper) or a resin-made decorative sheet, and the surface can be embossed (uneven) Building materials (decorative materials) are used. When adjusting the gloss effect in whole or in part, materials (sheet, varnish, etc.) that increase / decrease gloss are laminated. Conventionally, an embossed plate for embossing has been manufactured by repeating trial production. As the number of trial productions increases, the cost of producing the embossed plate also increases.

特許文献1には、エンボス版の仕上がり(凹凸の模様の仕上がり)をコンピュータシミュレートする技術が開示されている。特許文献1に開示された技術により、エンボス版の試作の繰り返しを減らすことができる。   Patent Document 1 discloses a technique for computer-simulating the finish of an embossed plate (the finish of an uneven pattern). With the technique disclosed in Patent Document 1, it is possible to reduce the repetition of the prototype of the embossed plate.

特開2011−103097号公報JP 2011-103097 A

Berthold K.P Horn et al., “The variational approach to shape from shading,” COMPUTER VISION, GRAPHICS, AND IMAGE PROCESSING 33, 174-208 (1986).Berthold K.P Horn et al., “The variational approach to shape from shading,” COMPUTER VISION, GRAPHICS, AND IMAGE PROCESSING 33, 174-208 (1986). Klette, R. et al., “Height data from gradient fields,” Proc. SPIE 2908, Machine Vision Applications, Architectures and Systems Integration, vol. 5, pp. 204-215 (1996)Klette, R. et al., “Height data from gradient fields,” Proc. SPIE 2908, Machine Vision Applications, Architectures and Systems Integration, vol. 5, pp. 204-215 (1996)

しかしながら、凹凸の模様の質感や見えは、観察環境の変化や建築素材の向きの変化に応じて、変化する。したがって、観察環境の変化や建築素材の向きの変化に応じた質感や見えの確認を可能にする技術を提供することが望ましい。   However, the texture and appearance of the uneven pattern change according to changes in the observation environment and the orientation of the building material. Therefore, it is desirable to provide a technology that enables confirmation of texture and appearance according to changes in the observation environment and changes in the orientation of the building material.

本発明は、このような問題に鑑みてなされたもので、その目的とするところは、観察環境の変化や建築素材の向きの変化に応じた凹凸の模様の画像を表示し、凹凸の模様の質感や見えの疑似体験を可能にする建築素材凹凸模様画像処理システム、方法、及びプログラムを提供することにある。   The present invention has been made in view of such a problem, and the object of the present invention is to display an image of an uneven pattern according to a change in the observation environment and a change in the direction of the building material, An object of the present invention is to provide a building material uneven pattern image processing system, method, and program that enable a simulated experience of texture and appearance.

このような目的を達成するために、本発明の第1の態様は、建築素材の凹凸の模様の画像を処理する建築素材凹凸模様画像処理システムである。建築素材凹凸模様画像処理システムは、凹凸の模様の画像を表示する表示手段と、建設素材の凹凸の模様の画素毎の深さまたは高さの情報を、各画素の向きの情報に変換するように構成された変換手段と、照明情報、各画素の向きの情報、並びに照明、表示手段の表示面及び観者の相対的位置関係に基づいて、凹凸の模様の表示データをレンダリングするように構成されレンダリング手段であり、表示データを用いて表示手段により前記凹凸の模様の画像が表示される、レンダリング手段とを備える。   In order to achieve such an object, a first aspect of the present invention is a building material uneven pattern image processing system for processing an image of an uneven pattern of a building material. The building material uneven pattern image processing system converts display means for displaying an uneven pattern image and depth or height information for each pixel of the uneven pattern of the construction material into information on the orientation of each pixel. The rendering means is configured to render the display data of the uneven pattern based on the illumination information, the information on the orientation of each pixel, and the relative positional relationship between the illumination, the display surface of the display means and the viewer. Rendering means for displaying an image of the uneven pattern by display means using display data.

一実施形態では、建築素材凹凸模様画像処理システムは、各画素の向きの情報を編集するように構成された編集手段をさらに備える。   In one embodiment, the building material concavo-convex pattern image processing system further includes editing means configured to edit information on the orientation of each pixel.

一実施形態では、建築素材凹凸模様画像処理システムは、建設素材の凹凸の模様の画素毎の深さまたは高さの情報を編集するように構成された編集手段をさらに備える。   In one embodiment, the building material uneven pattern image processing system further comprises editing means configured to edit depth or height information for each pixel of the uneven pattern of the construction material.

一実施形態では、建築素材凹凸模様画像処理システムは、編集手段により編集された各画素の向きの情報または凹凸の模様の画素毎の深さまたは高さの情報を記憶するように構成された編集結果記憶手段をさらに備える。   In one embodiment, the building material uneven pattern image processing system is configured to store information on the orientation of each pixel edited by the editing means or information on the depth or height of each pixel of the uneven pattern. Result storage means is further provided.

一実施形態では、変換手段は、編集手段により編集された各画素の向きの情報を、凹凸の模様の画素毎の深さまたは高さの情報に変換するようにさらに構成されている。各画素の向きの情報から変換された凹凸の模様の画素毎の深さまたは高さの情報は外部に出力される。   In one embodiment, the conversion means is further configured to convert the information on the orientation of each pixel edited by the editing means into information on the depth or height of each pixel of the uneven pattern. Information on the depth or height of each pixel of the uneven pattern converted from the information on the orientation of each pixel is output to the outside.

一実施形態では、建築素材凹凸模様画像処理システムは、表示手段の表示面の方位を検出するように構成された傾き検出手段をさらに備え、レンダリング手段は、照明情報、前記各画素の向きの情報及び表示手段の表示面の方位に基づいて、凹凸の模様の表示データをレンダリングするように構成されている。   In one embodiment, the building material concavo-convex pattern image processing system further includes an inclination detection unit configured to detect the orientation of the display surface of the display unit, and the rendering unit includes illumination information and information on the orientation of each pixel. The display data of the uneven pattern is rendered based on the orientation of the display surface of the display means.

一実施形態では、建築素材凹凸模様画像処理システムは、表示手段の周囲照明情報を取得するように構成された周囲照明情報取得手段をさらに備え、凹凸の模様の表示データがレンダリングされる際に用いられる照明情報は、周囲照明情報取得手段により取得された周囲照明情報である。   In one embodiment, the building material uneven pattern image processing system further includes ambient illumination information acquisition means configured to acquire ambient illumination information of the display means, and is used when display data of the uneven pattern is rendered. The illumination information to be obtained is ambient illumination information acquired by the ambient illumination information acquisition means.

一実施形態では、建築素材凹凸模様画像処理システムは、凹凸の模様の画像の観者の方位を検出するように構成された観者検出手段をさらに備え、レンダリング手段は、照明情報、各画素の向きの情報、表示手段の表示面の方位及び凹凸の模様の画像の観者の方位に基づいて、凹凸の模様の表示データをレンダリングするように構成されている。   In one embodiment, the building material concavo-convex pattern image processing system further comprises spectator detection means configured to detect the orientation of the spectator of the concavo-convex pattern image, and the rendering means includes illumination information, each pixel The display data of the uneven pattern is rendered based on the orientation information, the orientation of the display surface of the display means, and the orientation of the viewer of the image of the uneven pattern.

本発明の第2の態様は、上記建築素材凹凸模様画像処理システムにより実行される、建築素材凹凸模様画像処理方法である。   The 2nd aspect of this invention is a building material uneven | corrugated pattern image processing method performed by the said building material uneven | corrugated pattern image processing system.

本発明の第3の態様は、上記建築素材凹凸模様画像処理方法をコンピュータに実行させるプログラムである。   The third aspect of the present invention is a program that causes a computer to execute the above-described building material uneven pattern image processing method.

以上説明したように、本発明によれば、観察環境の変化や素材の向きの変化に応じた素材の画像を表示する建築素材凹凸模様画像処理システム、方法およびプログラムを提供することが可能となる。   As described above, according to the present invention, it is possible to provide a building material uneven pattern image processing system, method, and program for displaying an image of a material in accordance with a change in observation environment or a change in material direction. .

本発明の一実施形態にかかる建築素材凹凸模様画像処理システムの機能ブロック図である。It is a functional block diagram of the building material uneven | corrugated pattern image processing system concerning one Embodiment of this invention. 本発明の一実施形態を説明するための図であり、(a)はエンボス版の凹凸の模様の情報を示すグレー画像であり、(b)および(c)はから凹凸の模様の情報から形状特性への変換を説明するための図であり、(d)はグレー画像と凹凸の深さの対応関係を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for describing one Embodiment of this invention, (a) is a gray image which shows the information of the uneven | corrugated pattern of an embossed plate, (b) and (c) are shapes from the information of the uneven | corrugated pattern. It is a figure for demonstrating conversion to a characteristic, (d) is a figure which shows the correspondence of a gray image and the depth of an unevenness | corrugation. 本発明の一実施形態を説明するための図である。It is a figure for demonstrating one Embodiment of this invention. 本発明の一実施形態を説明するための図である。It is a figure for demonstrating one Embodiment of this invention. 本発明の一実施形態を説明するための図である。It is a figure for demonstrating one Embodiment of this invention. 本発明の一実施形態を説明するための図である。It is a figure for demonstrating one Embodiment of this invention. 本発明の一実施形態に係る画像処理方法のフロー図である。It is a flowchart of the image processing method which concerns on one Embodiment of this invention.

以下、図面を参照しながら本発明の実施形態について詳細に説明する。以下に説明する建築素材凹凸模様画像処理システム、方法、及びプログラムは、建築物の建築素材の質感を画像表示する建築素材凹凸模様画像処理システム、方法、及びプログラムに関する。本実施形態の建築素材凹凸模様画像処理システム、方法、及びプログラムによれば、観察環境の変化や建築素材の向きの変化に応じた当該建築素材の凹凸の模様の画像または絵柄(模様および/又は色彩)と凹凸の模様とを組合せた建築素材の画像を表示して質感を確認することが可能となる。したがって、エンボス版の試作または絵柄(模様および/又は色彩)と凹凸の模様との組合せた素材の試作を繰り返す回数を減らすことを可能にする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The building material uneven pattern image processing system, method, and program described below relate to a building material uneven pattern image processing system, method, and program for displaying an image of the texture of a building material of a building. According to the architectural material uneven pattern image processing system, method, and program of the present embodiment, an image or pattern (pattern and / or pattern) of the uneven surface of the building material corresponding to a change in the observation environment or a change in the direction of the building material. It is possible to check the texture by displaying an image of a building material that combines a color) and an uneven pattern. Therefore, it is possible to reduce the number of times of repeating the trial production of the embossed plate or the production of the material combining the pattern (pattern and / or color) and the uneven pattern.

限定するものではないが、建築物の建築素材(以下単に、素材ともいう。)は、例えば、床材、壁材、外壁材、天井材、建具造作材、屋根材、壁面収納材としての化粧材である。   Although not limited, building materials for buildings (hereinafter also simply referred to as materials) are, for example, flooring materials, wall materials, outer wall materials, ceiling materials, joinery construction materials, roof materials, and makeup as wall storage materials. It is a material.

図1は、本発明に係る建築素材凹凸模様画像処理システムの一実施形態である携帯型端末の機能ブロック図である。図1の携帯型端末100は、例えば、タブレット端末であり、ディスプレイ、プロセッサ、メモリ、各種センサを備える。携帯型端末100は、通信デバイス、キーボード、コンピュータマウスを含むポインティングデバイス、及びマイクロフォン等の入力デバイスを含んでもよい。入力デバイスは、入力部112を構成する。   FIG. 1 is a functional block diagram of a portable terminal which is an embodiment of a building material uneven pattern image processing system according to the present invention. The portable terminal 100 in FIG. 1 is a tablet terminal, for example, and includes a display, a processor, a memory, and various sensors. The portable terminal 100 may include a communication device, a keyboard, a pointing device including a computer mouse, and an input device such as a microphone. The input device constitutes the input unit 112.

ディスプレイデバイスは、画像の表示に適したディスプレイデバイスであればよく、これに限定するものではないが、電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスが好ましい。ディスプレイデバイスは、表示部102を構成する。電磁誘導式、静電容量式又は感圧式のタッチディスプレイデバイスは、表示部102および入力部112を構成する。   The display device may be any display device suitable for displaying an image, and is not limited to this, but an electromagnetic induction type, capacitance type or pressure sensitive type touch display device is preferable. The display device constitutes the display unit 102. The electromagnetic induction type, capacitance type, or pressure sensitive touch display device constitutes the display unit 102 and the input unit 112.

プロセッサは、CPUの他、GPUやコプロセッサを含んでもよい。プロセッサは、表示部に表示される画像に対応する表示データを生成する。プロセッサは、レンダリング部(表示データ生成部)104、変換部120、編集部122を構成する。   The processor may include a GPU and a coprocessor in addition to the CPU. The processor generates display data corresponding to an image displayed on the display unit. The processor constitutes a rendering unit (display data generation unit) 104, a conversion unit 120, and an editing unit 122.

メモリは、HDDなどの磁気ドライブ及びSSDなどの半導体ドライブのいずれでもよい。メモリは、内蔵型でも外付型でも良い。メモリは、照明情報記憶部106、素材情報記憶部116及び編集結果記憶部123を構成する。メモリは、傾き検出部110により検出されたタブレット端末の傾き(ディスプレイ面の方位)の情報を記憶することもできる。   The memory may be either a magnetic drive such as an HDD or a semiconductor drive such as an SSD. The memory may be internal or external. The memory constitutes an illumination information storage unit 106, a material information storage unit 116, and an editing result storage unit 123. The memory can also store information on the tilt (the orientation of the display surface) of the tablet terminal detected by the tilt detection unit 110.

各種センサは、タブレット端末の周囲の照明情報(周囲照明情報)を取得するのに適したデバイス(以下、周囲照明情報取得デバイス)及びタブレット端末の傾きの検出に適したデバイス(傾き検出デバイス)であればよい。例えば、周囲照明情報取得デバイスは、測光デバイス、照度センサ及びカメラの1以上とすることができる。周囲照明情報取得デバイスは内蔵型でも外付型でもよい。また、例えば、傾き検出デバイスは、ジャイロセンサ、加速度センサ、磁気センサの1以上とすることができる。周囲照明情報取得デバイスは、プロセッサと共に又は単独で、周囲照明情報取得部108を構成する。また、傾き検出デバイスは、プロセッサと共に又は単独で、傾き検出部110を構成する。さらに、各種センサは、観者(例えば、観者の目)の位置を検出するのに適したデバイスを備えてもよい。このようなデバイスは、赤外線センサ及びカメラの1以上とすることができる。   Various sensors are devices suitable for acquiring lighting information around the tablet terminal (ambient lighting information) (hereinafter referred to as ambient lighting information acquisition device) and devices suitable for detecting the tilt of the tablet terminal (tilt detection device). I just need it. For example, the ambient illumination information acquisition device can be one or more of a photometric device, an illuminance sensor, and a camera. The ambient lighting information acquisition device may be a built-in type or an external type. Further, for example, the tilt detection device can be one or more of a gyro sensor, an acceleration sensor, and a magnetic sensor. The ambient lighting information acquisition device constitutes the ambient lighting information acquisition unit 108 together with the processor or alone. The tilt detection device constitutes the tilt detection unit 110 together with the processor or alone. Further, the various sensors may include a device suitable for detecting the position of the viewer (for example, the viewer's eyes). Such a device can be one or more of an infrared sensor and a camera.

例えば、周囲照明情報取得デバイスとしてのカメラは、周囲全周囲画像カメラまたは全天球撮影カメラ(omnidirectional camera)とすることができ、このようなカメラでタブレット端末の全周囲を撮影した全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。あるいは、内蔵型でも外付型のカメラで、カメラを水平面に置いた状態で撮影した基準画像と、カメラの向きを変えて複数回に分けて撮影したタブレット端末の全周囲を画像とを組み合わせて(繋ぎ合わせて)、全周囲画像を生成し、生成された全周囲画像の色味や輝度を実環境の照明情報(周囲照明情報)とすることができる。カメラが備えるイメージセンサのダイナミックレンジ(ラチチュード(latitude))がタブレット端末の周囲の実環境の輝度分布の輝度レンジより狭い場合は、露光量を多段に変えて撮影した後に合成する写真技法(ハイダイナミックレンジ合成(high dynamic range imaging:HDR)を用いてもよい。   For example, the camera as the ambient lighting information acquisition device can be a surrounding omnidirectional image camera or an omnidirectional camera, and an omnidirectional camera of the omnidirectional image obtained by photographing the entire periphery of the tablet terminal with such a camera. Color and brightness can be used as illumination information (ambient illumination information) in a real environment. Or, you can combine a reference image taken with a built-in or external camera with the camera placed on a horizontal surface, and an image of the entire periphery of the tablet device taken in multiple shots by changing the orientation of the camera. An all-around image can be generated (connected), and the color and brightness of the generated all-around image can be used as illumination information (ambient illumination information) in the real environment. If the dynamic range (latitude) of the image sensor included in the camera is narrower than the brightness range of the actual environment brightness distribution around the tablet device, a photographic technique (High Dynamic Range synthesis (high dynamic range imaging: HDR) may be used.

例えば、タブレット端末の内蔵カメラ(またはタブレット端末との相対的位置関係が既知である外付けカメラ)で撮影される画像から、当該タブレット端末の操作者(観者)の顔(目)の位置を特定することで、タブレット端末の表示面と観者の相対的位置関係を特定することができる。撮影と観者の顔(目)の位置の特定を短い時間間隔で繰り返すことで、タブレット端末の表示面と観者の相対的位置関係をリアルタイムで特定することができる。   For example, the position of the face (eyes) of the operator (viewer) of the tablet terminal is determined from an image taken by the built-in camera of the tablet terminal (or an external camera whose relative positional relationship with the tablet terminal is known). By specifying, the relative positional relationship between the display surface of the tablet terminal and the viewer can be specified. The relative positional relationship between the display surface of the tablet terminal and the viewer can be specified in real time by repeating shooting and specifying the position of the viewer's face (eyes) at short time intervals.

通信デバイスは、外部機器との接続用のバス(例えばUSB(Universal Serial Bus))インタフェース、有線通信用のネットワークインターフェースカード(NIC)及び無線通信用の無線デバイスの1以上とすることができる。通信デバイスは、通信部114を構成する。タブレット端末100は、通信部114を介して外部(他のコンピュータ又はサーバ)から照明情報(仮想空間についてモデル化された照明情報(空間照明情報))及び素材情報を取得することもできる。外部から取得した照明情報は、周囲照明情報(実空間の照明情報)の代替として用いることができる。タブレット端末100は、通信部114を介して外部(他のコンピュータ又はサーバ)から取得した素材情報を、変換部120による変換で取得した素材情報の代替として用いることもできる。   The communication device may be one or more of a bus (for example, USB (Universal Serial Bus)) interface, a network interface card (NIC) for wired communication, and a wireless device for wireless communication for connection to an external device. The communication device constitutes the communication unit 114. The tablet terminal 100 can also acquire illumination information (illumination information modeled with respect to a virtual space (space illumination information)) and material information from the outside (another computer or server) via the communication unit 114. The illumination information acquired from the outside can be used as an alternative to the ambient illumination information (real space illumination information). The tablet terminal 100 can also use material information acquired from the outside (another computer or server) via the communication unit 114 as an alternative to the material information acquired by conversion by the conversion unit 120.

変換部120は、入力部112、通信部114または予めメモリに記憶された素材の絵柄(模様および/又は色彩)情報、エンボス版の凹凸柄の情報、反射の情報を、素材情報に変換する。   The conversion unit 120 converts the pattern (pattern and / or color) information of the material, the information on the uneven pattern of the embossed plate, and the information of reflection stored in the input unit 112, the communication unit 114, or the memory in advance into the material information.

素材情報は、素材の質感に関する情報である。素材情報は、ピクセル(画素)毎の法線情報(形状特性:装材(床材、壁材、天井材)におけるピクセルの面の向きを示す情報であり、例えば、画素の法線ベクトル情報である)を含む。また、素材情報は、画素毎のRGB情報(色特性:素材の地やコート層など、素材を構成する各層の色を示す情報)を含む。また、素材情報は、画素毎の光沢情報(反射特性:素材の表面に設けるコート層など、素材を構成する表面の光沢を示す情報)を含む。反射特性である光沢情報は、例えば、双方向反射率分布関数(BRDF)、双方向散乱面反射率分布関数(BSSRDF)を用いて反射モデル化されたものを用いることができる。モデル化された光沢情報としては、例えば、光沢の強さの情報と光沢の鋭さの情報で構成されるものが挙げられる。このとき、光沢情報は、光沢の強さの情報と光沢の鋭さの情報に加え、光沢の方向性の情報をさらに含むことができる。光沢の方向性の情報により、異方性反射を有する素材の質感を表現することができる。なお、光沢の強さの情報は、各ピクセルのRGB毎の強さの情報としてもよい。周囲照明情報(または外部から取得した空間照明情報)及び素材情報に基づいて表示データが生成される。この結果、素材の色とあわせ、素材の質感(光沢感、ざらつき感、凹凸感)が画像表示される。   The material information is information regarding the texture of the material. The material information is information indicating the direction of the surface of the pixel in the normal information (shape characteristic: equipment (floor material, wall material, ceiling material)) for each pixel (pixel). For example, the normal vector information of the pixel Included). The material information also includes RGB information (color characteristics: information indicating the color of each layer constituting the material, such as the background of the material and the coat layer) for each pixel. The material information also includes gloss information for each pixel (reflection characteristics: information indicating the gloss of the surface constituting the material, such as a coat layer provided on the surface of the material). As the gloss information that is the reflection characteristic, for example, information that is modeled by reflection using a bidirectional reflectance distribution function (BRDF) or a bidirectional scattering surface reflectance distribution function (BSSRDF) can be used. The modeled gloss information includes, for example, information composed of gloss intensity information and gloss sharpness information. At this time, the gloss information can further include gloss direction information in addition to gloss intensity information and gloss sharpness information. The texture of the material having anisotropic reflection can be expressed by the information on the direction of gloss. The gloss intensity information may be information on the intensity of each pixel for each RGB. Display data is generated based on ambient illumination information (or spatial illumination information acquired from the outside) and material information. As a result, in addition to the color of the material, the texture of the material (glossiness, roughness, unevenness) is displayed as an image.

例えば、建築素材としての化粧材は、設計段階では、基材(合板や繊維板など)の表面に形成される絵柄(模様および/又は色彩)の印刷用の情報(画素ごとの色の情報)、表面をエンボス加工(凹凸加工)するエンボス版の画素ごとの深さ(高さ)の情報、および追加される光沢を増加または減少させる材料(シート、ニス等)の分布を画素ごとに示す反射の情報で規定される。   For example, a decorative material as a building material is information for printing a pattern (pattern and / or color) formed on the surface of a base material (plywood, fiberboard, etc.) at the design stage (color information for each pixel). Reflection that shows information on depth (height) for each pixel of the embossed plate that embosses the surface (unevenness processing), and distribution of material (sheet, varnish, etc.) that increases or decreases the added gloss for each pixel Stipulated in the information.

例えば、素材の絵柄(模様および/又は色彩)の情報は、印刷のための画素毎のCMYK情報である。変換部120は、各画素について、CMYK情報を、画像表示のためのRGB情報(色特性)に変換する。また、変換部120は、各画素について、RGB情報をCMYK情報に逆変換することもできる。CMYK情報とRBG情報との間の変換は、ICC(International Color Consortium)プロファイルを用いたプログラム処理により実装することできる。   For example, the information on the pattern (pattern and / or color) of the material is CMYK information for each pixel for printing. The conversion unit 120 converts CMYK information for each pixel into RGB information (color characteristics) for image display. The conversion unit 120 can also reversely convert RGB information into CMYK information for each pixel. Conversion between CMYK information and RBG information can be implemented by a program process using an ICC (International Color Consortium) profile.

例えば、エンボス版の凹凸の模様の情報は、各画素の凹凸の深さ(または高さ)を256階調で表す値と最大の深さ(または高さ)を示す値Dを含む情報である。例えば、エンボス版の凹凸の模様の情報は、図2(a)に示すようなグレー画像としてとして与えられる。図2(b)、(c)に示すように、変換部120は、注目画素の左右方向(x軸方向)および上下方向(y軸方向)のそれぞれについて、注目画素を挟んで隣接する2つの画素の深さの差(Δz_x及びΔz_y)を計算する。また、画像の解像度、または、画像の画素数とエンボス版の大きさの関係を用いて、注目画素を挟んで隣接する2つの画素間の左右方向(x軸方向)及び上下方向(y軸方向)の距離(Δx及びΔy)を計算し、注目画素における左右方向(x軸方向)の傾きをΔz_xとΔxから、注目画素における上下方向(y軸方向)の傾きをΔz_yとΔyから求める。さらに、変換部120は、注目画素における左右方向(x軸方向)の傾きと上下方向(y軸方向)の傾きから注目画素の法線ベクトル(形状特性)を計算する。このようにして、変換部120は、エンボス版の凹凸の模様の情報(各画素の深さ(または高さ)の情報と、最大の深さ(または高さ)を示す値D)を、形状特性(画素の法線ベクトル)に変換する。また、変換部120は、画素の法線ベクトル(形状特性)を隣接する位置の深さに逆変換することもできる。各画素の凹凸の深さ(または高さ)と法線ベクトルとの間の変換および逆変換は、既知の技法を含む任意の技法で実現することができる。(例えば、非特許文献1,2参照)   For example, the information on the uneven pattern of the embossed plate is information including a value representing the depth (or height) of the unevenness of each pixel in 256 gradations and a value D indicating the maximum depth (or height). . For example, the information on the uneven pattern of the embossed plate is given as a gray image as shown in FIG. As illustrated in FIGS. 2B and 2C, the conversion unit 120 includes two adjacent pixels sandwiching the target pixel in each of the horizontal direction (x-axis direction) and the vertical direction (y-axis direction) of the target pixel. The difference in pixel depth (Δz_x and Δz_y) is calculated. Also, using the relationship between the resolution of the image or the number of pixels of the image and the size of the embossed plate, the horizontal direction (x-axis direction) and the vertical direction (y-axis direction) between two adjacent pixels across the target pixel ) To calculate the slope in the left-right direction (x-axis direction) of the pixel of interest from Δz_x and Δx, and the slope of the pixel of interest in the vertical direction (y-axis direction) from Δz_y and Δy. Furthermore, the conversion unit 120 calculates the normal vector (shape characteristic) of the target pixel from the inclination in the left-right direction (x-axis direction) and the vertical direction (y-axis direction) of the target pixel. In this way, the conversion unit 120 converts the information on the uneven pattern of the embossed plate (information on the depth (or height) of each pixel and the value D indicating the maximum depth (or height)) into a shape. Convert to characteristic (pixel normal vector). The conversion unit 120 can also inversely convert the normal vector (shape characteristic) of the pixel to the depth of the adjacent position. The transformation between the depth (or height) of the unevenness of each pixel and the normal vector can be realized by any technique including a known technique. (For example, see Non-Patent Documents 1 and 2)

例えば、反射の情報は、光沢特性が全面一様な光沢分布である場合、一様分布関数(数式)と、パラメータである光沢の強さと光沢の鋭さの数値の最大値および最小値が指定される。例えば、最小値から最大値までの値は256階調とすることができる。変換部120は、数式とパラメータで指定された反射の情報を、数式(一様分布関数の確率)にしたがって、各画素についての光沢の強さと光沢の鋭さの値に変換することができる。一様分布関数にしたがうと、各画素の光沢の強さと光沢の鋭さの値の分布は、指定された最大値から最小値の間の値が同じ確率で生じる分布となる。最小値と最大値に同じ値を指定すると、光沢は全面で完全に一様となる。また、最小値と最大値に異なる値を指定すれば、製造上生じる面内のムラを反映することができる。数式は、一様分布関に限らず、例えば、正規分布関数と、パラメータである光沢の強さと光沢の鋭さの平均値と標準偏差とが指定されても良い。あるいは、反射の情報は、画素毎に光沢が異なる場合には、反射の情報は、画像として指定される。例えば、RGB画像フォーマットを用い、光沢の強さおよび光沢の鋭さをそれぞれ256階調で表す情報(0は最小値、255は最大値)とし、RチャネルおよびGチャネルに指定する(Bチャネルは使用されない)。または、反射の情報は、化粧材の表面の各画素に用いられる一種の表面コート材(ニス)または二種以上の表面コート材の混合割合として指定される。例えば、変換部120は、一種の表面コート材(ニス)または二種以上の表面コート材を種々の混合割合で混合した混合物と、光沢の強さと光沢の鋭さの値との関係を予め測定し格納したデータベースを参照して、指定された一種の表面コート材または二種以上の表面コート材の混合割合を、各画素についての光沢の強さと光沢の鋭さの値に変換することができる。さらに、変換部120は、データベースを参照して、各画素についての光沢の強さと光沢の鋭さの値を、一種の表面コート材または二種以上の表面コート材の混合割合に逆変換することができる。例えば、二種以上の表面コート材の混合割合は、光沢度の低いマットニスと光沢度の高いグロスニスの混合割合とすることができる。1つの表面コート材(ニス)または複数の表面コート材の混合物の光沢の強さおよび光沢の鋭さの値は、予め測定しデータベースに格納した値の代替として検量線または近似モデル式により求めた値を用いてもよい。データベースは、携帯型端末100に備えられてもよく、通信部114を介してアクセス可能な他のコンピュータ又はサーバに備えられたデータベースであっても良い。   For example, for the reflection information, when the gloss characteristic is a uniform gloss distribution over the entire surface, the uniform distribution function (formula) and the maximum and minimum values of the gloss intensity and gloss sharpness parameters are specified. The For example, the value from the minimum value to the maximum value can be 256 gradations. The conversion unit 120 can convert the reflection information specified by the equation and the parameter into values of gloss intensity and gloss sharpness for each pixel according to the equation (probability of uniform distribution function). According to the uniform distribution function, the distribution of the gloss intensity and the gloss sharpness value of each pixel is a distribution in which values between the specified maximum value and the minimum value occur with the same probability. If the same value is specified for the minimum and maximum values, the gloss will be completely uniform across the entire surface. In addition, if different values are specified for the minimum value and the maximum value, in-plane unevenness caused in manufacturing can be reflected. The mathematical formula is not limited to the uniform distribution function, and for example, a normal distribution function, and the gloss intensity, the average value of the gloss sharpness, and the standard deviation as parameters may be designated. Alternatively, the reflection information is designated as an image when the glossiness differs for each pixel. For example, using the RGB image format, the intensity of gloss and the sharpness of gloss are each represented by 256 gradations (0 is the minimum value, 255 is the maximum value), and are designated as the R channel and G channel (B channel is used) Not) Alternatively, the reflection information is designated as a kind of surface coating material (varnish) used for each pixel on the surface of the decorative material or a mixing ratio of two or more kinds of surface coating materials. For example, the conversion unit 120 measures in advance a relationship between a kind of surface coating material (varnish) or a mixture of two or more kinds of surface coating materials in various mixing ratios, and a value of gloss strength and gloss sharpness. With reference to the stored database, the specified kind of surface coating material or the mixing ratio of two or more kinds of surface coating materials can be converted into the values of gloss intensity and gloss sharpness for each pixel. Further, the conversion unit 120 may refer to the database and reversely convert the gloss strength and the sharpness value of each pixel into a kind of surface coating material or a mixing ratio of two or more surface coating materials. it can. For example, the mixing ratio of two or more surface coating materials can be a mixing ratio of a matte varnish with a low glossiness and a gloss varnish with a high glossiness. The gloss strength and gloss sharpness value of one surface coating material (varnish) or a mixture of a plurality of surface coating materials are values obtained by using a calibration curve or approximate model formula as an alternative to the values previously measured and stored in the database. May be used. The database may be provided in the portable terminal 100, or may be a database provided in another computer or server accessible via the communication unit 114.

照明情報記憶部106は、周囲照明情報取得部108によって取得された周囲照明情報又は通信部114を介して外部から取得された空間照明情報を記憶する。   The illumination information storage unit 106 stores the ambient illumination information acquired by the ambient illumination information acquisition unit 108 or the spatial illumination information acquired from the outside via the communication unit 114.

素材情報記憶部116は、変換部120により変換された素材情報、または通信部114を介して外部から取得された素材情報を記憶する。   The material information storage unit 116 stores the material information converted by the conversion unit 120 or the material information acquired from the outside via the communication unit 114.

タブレット端末100は、観者とのインタラクションのためのユーザ・インタフェース(UI)を提供するUI提供部(不図示)を備える。観者は、UIを介して、表示させたい素材を選択することができる。すなわち、タブレット端末100は、UIを介して観者からの素材の選択を受信し、当該素材をディスプレイに表示することができる。UIは、観者が表示させたい素材を選択することができる、階層形式のカテゴリ別メニュー(素材カテゴリ)を含んでもよい。例えば、素材を壁材、床材及び天井材のようなカテゴリ別に分類し、観者がカテゴリの階層にしたがって素材を選択できるようにしてよい。サブカテゴリでは複数の素材のサムネールを提示して、観者が表示させたい素材を選択させてもよい。また、観者は、UIを介して、表示させた素材の一部または全部を選択して、素材情報(色特性、形状特性、反射特性)を編集すること(素材情報(色特性、形状特性、反射特性)の変更を指示すること)ができる。   The tablet terminal 100 includes a UI providing unit (not shown) that provides a user interface (UI) for interaction with the viewer. The viewer can select a material to be displayed via the UI. That is, the tablet terminal 100 can receive selection of a material from the viewer via the UI and display the material on the display. The UI may include a hierarchical category menu (material category) that allows the viewer to select a material that the user wants to display. For example, the materials may be classified into categories such as wall materials, floor materials, and ceiling materials so that the viewer can select the materials according to the category hierarchy. In the sub-category, thumbnails of a plurality of materials may be presented, and the materials that the viewer wants to display may be selected. In addition, the viewer selects part or all of the displayed material via the UI and edits material information (color characteristics, shape characteristics, reflection characteristics) (material information (color characteristics, shape characteristics). Instructing to change the reflection characteristics).

編集部122は、UIを介して観者からの指示を受け取り、素材情報(色特性、形状特性、反射特性)を変更する。例えば、編集部122は、観者からの指示にしたがって、選択された絵柄(模様および/又は色彩)の一部または全部の画素について色(RGBの値)を変えること、回転すること、拡大または縮小すること、および/または平行移動することができる。また、編集部122は、観者からの指示にしたがって、観者により光沢の分布から選択された一部または全部の画素についての光沢の強さおよび光沢の鋭さを変更すること、位置を回転すること、範囲を拡大または縮小すること、および/または平行移動することができる。また、編集部122は、観者からの指示にしたがって、選択された一部または全部の画素について、グレー画像における対応する画素の階調値又は最大の深さを表す値D若しくは対応する画素の形状特性(画素の法線ベクトル)を操作することで、エンボス版の凹凸の深さ(または高さ)を変更すること、深さの最大値Dを変更すること、凹凸の模様を回転すること、凹凸の模様を拡大または縮小すること、および/または凹凸の模様を平行移動することができる。編集部122が、選択された一部または全部の画素について、グレー画像における対応する画素の階調値又は最大の深さを表す値Dを直接操作する場合には、変換部120は、編集部122により操作されたグレー画像の各画素の凹凸の深さ(または高さ)を階調で表す値と最大の深さ(または高さ)を示す値Dを、形状特性(画素の法線ベクトル)に変換する。   The editing unit 122 receives an instruction from the viewer via the UI and changes material information (color characteristics, shape characteristics, reflection characteristics). For example, the editing unit 122 changes, rotates, enlarges, or changes the color (RGB value) for some or all of the pixels of the selected pattern (pattern and / or color) in accordance with an instruction from the viewer. It can be reduced and / or translated. Further, the editing unit 122 changes the intensity of the gloss and the sharpness of the gloss for some or all of the pixels selected from the gloss distribution by the viewer according to the instruction from the viewer, and rotates the position. The range can be enlarged or reduced, and / or translated. Further, the editing unit 122, for some or all selected pixels, in accordance with an instruction from the viewer, the gradation value of the corresponding pixel in the gray image or the value D representing the maximum depth or the corresponding pixel. Changing the depth (or height) of the embossed plate unevenness, changing the maximum depth D, and rotating the uneven pattern by manipulating the shape characteristics (pixel normal vector) The uneven pattern can be enlarged or reduced, and / or the uneven pattern can be translated. When the editing unit 122 directly operates the gradation value or the value D representing the maximum depth of the corresponding pixel in the gray image with respect to some or all of the selected pixels, the conversion unit 120 122. A value representing the depth (or height) of the unevenness of each pixel of the gray image operated by 122 in gradation and a value D representing the maximum depth (or height) are obtained by using shape characteristics (normal vector of the pixel). ).

編集結果記憶部123は、編集部122により変更された素材情報(色特性、形状特性、反射特性)を記憶する。素材情報(色特性、形状特性、反射特性)のうちの変更された特性のみが記憶されてもよい。編集結果記憶部123に記憶された素材情報(色特性、形状特性、反射特性)の少なくとも一部は、素材の製造のため製造情報として外部へ出力されても良い。例えば、携帯型端末100は、編集結果記憶部123に記憶された素材情報の形状特性(画素の法線ベクトル)を、グレー画像の各画素の凹凸の深さ(または高さ)を階調で表す値と最大の深さ(または高さ)を示す値Dへ、変換部120で逆変換した後に、通信部114を介して外部へ送信するように構成されてもよい。   The editing result storage unit 123 stores material information (color characteristics, shape characteristics, reflection characteristics) changed by the editing unit 122. Only the changed characteristics of the material information (color characteristics, shape characteristics, reflection characteristics) may be stored. At least a part of the material information (color characteristics, shape characteristics, reflection characteristics) stored in the editing result storage unit 123 may be output to the outside as manufacturing information for manufacturing the material. For example, the portable terminal 100 displays the shape characteristic (pixel normal vector) of the material information stored in the editing result storage unit 123 and the depth (or height) of the unevenness of each pixel of the gray image in gradation. It may be configured to transmit the value to the outside via the communication unit 114 after the conversion unit 120 performs reverse conversion to the value D indicating the value to be expressed and the maximum depth (or height).

図3は、周囲照明情報取得部108によって周囲照明情報が取得される空間を示す。図6において、x軸及びy軸は水平面内で互いに直交する軸であり、z軸は水平面内に直交する軸である。図3の空間には、2つの電灯202及び204と太陽206を含む合計3つの光源が示されている。x軸、y軸及びz軸の交点を周囲照明情報取得部108の位置として、2つの電灯202及び204並びに太陽206の3つの光源からの光を観測し、光源毎に観測される光の方位、色成分及び強度(輝度)を、空間における周囲照明情報として取得する。光源の数は、3つに限定されない。光源は、発光体に限定されず、周囲照明情報取得部108に向けて光を反射する反射体でもよい。空間内で観測される全ての光源の周囲照明情報(光の方位、色成分及び強度)を取得してもよい。取得された周囲照明情報は、照明情報記憶部106に記憶される。   FIG. 3 shows a space in which ambient lighting information is acquired by the ambient lighting information acquisition unit 108. In FIG. 6, the x axis and the y axis are axes orthogonal to each other in the horizontal plane, and the z axis is an axis orthogonal to the horizontal plane. In the space of FIG. 3, a total of three light sources including two lamps 202 and 204 and the sun 206 are shown. With the intersection of the x-axis, y-axis, and z-axis as the position of the ambient illumination information acquisition unit 108, light from the two light sources 202 and 204 and the sun 206 is observed, and the direction of the light observed for each light source The color component and intensity (luminance) are acquired as ambient illumination information in the space. The number of light sources is not limited to three. The light source is not limited to a light emitter, and may be a reflector that reflects light toward the ambient illumination information acquisition unit 108. Ambient illumination information (light direction, color component and intensity) of all light sources observed in the space may be acquired. The acquired ambient illumination information is stored in the illumination information storage unit 106.

周囲照明情報代替として、通信部114を介して外部から空間照明情報を取得することができる。空間照明情報及び周囲照明情報を単に照明情報という。空間照明情報は、南向きの窓(太陽光が差し込む窓)があり4灯のダウンライトがある部屋や、窓の無く電灯が1つの寝室など、モデル化された空間における照明の情報(予め外部の仮想空間画像処理装置又はサーバなどに格納されている照明の情報)とすることができる。モデル化された空間は、販売中/建設予定の建築物件のモデルルームの間取り内の1つ又は複数の空間とすることができる。   As an alternative to ambient lighting information, spatial lighting information can be acquired from the outside via the communication unit 114. Spatial lighting information and ambient lighting information are simply referred to as lighting information. Spatial lighting information includes information about lighting in a modeled space, such as a room with a south-facing window (a window through which sunlight is inserted) and four downlights, or a bedroom without a window and one electric lamp (externally in advance) Lighting information stored in a virtual space image processing apparatus or a server). The modeled space may be one or more spaces in the model room floor plan of a building being sold / constructed.

図4は、図3に示した空間にタブレット端末100を配置した状態を示す。図4には、タブレット端末100によって表示される画像の観者の目208も示されている。タブレット端末100は、ディスプレイ面を上向きにして、ディスプレイ面がxy面に平行と成るように、x軸、y軸及びz軸の交点に配置されている。目208の方位は、観者検出部118によって検出されるディスプレイ面の法線に対する方位でもよく、ディスプレイ面の法線に予め決められた方位と(観者検出部118によって検出しない)してもよい。   FIG. 4 shows a state in which the tablet terminal 100 is arranged in the space shown in FIG. FIG. 4 also shows the viewer's eyes 208 of the image displayed by the tablet terminal 100. The tablet terminal 100 is arranged at the intersection of the x-axis, the y-axis, and the z-axis so that the display surface faces upward and the display surface is parallel to the xy plane. The orientation of the eyes 208 may be the orientation relative to the normal of the display surface detected by the viewer detection unit 118, or may be the orientation predetermined for the normal of the display surface (not detected by the viewer detection unit 118). Good.

図4に示す状態で、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。生成された表示データがディスプレイデバイスに表示されると、タブレット端末100を持っている観者は、あたかも素材を自身の手で持っているかのように、素材の質感を観察することができることができる。   In the state shown in FIG. 4, the rendering unit 104 generates material display data as if the surface of the material is superimposed on the display surface. When the generated display data is displayed on the display device, the viewer who has the tablet terminal 100 can observe the texture of the material as if he / she had the material with his / her hand. .

レンダリング部104は、素材情報記憶部116からレンダリングする素材の素材情報(ピクセル毎の法線情報(形状特性)、RGB情報(色特性)、光沢の強さの情報及び光沢の鋭さの情報)を読み出し、照明情報記憶部106から照明情報(1つまたは複数の光源からの光の方位、色成分及び強度(輝度))を読み出し、各画素における観者の方位に反射する色成分及び強度(輝度)を計算して表示データを生成する。生成された表示データが用いられ、表示部に画像が表示される。図7に示す状態では、素材の表面に3つの光源(2つの電灯202及び204並びに太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))が計算される。   The rendering unit 104 receives material information (normal information (shape characteristics), RGB information (color characteristics), RGB strength information, gloss sharpness information) for each material to be rendered from the material information storage unit 116. Read, read illumination information (direction of light from one or more light sources, color component and intensity (brightness)) from the illumination information storage unit 106, and reflect color component and intensity (brightness) reflected in the direction of the viewer in each pixel ) To generate display data. The generated display data is used, and an image is displayed on the display unit. In the state shown in FIG. 7, the color component and intensity (luminance) of light incident on the surface of the material from three light sources (two lamps 202 and 204 and the sun 206) and reflected in the direction of the eye 208 are calculated. .

図5に示す状態では、タブレット端末100のディスプレイ面は水平面(xy面)から傾斜している。この傾斜は、電灯202の光がディスプレイ面に入射しない程度の傾きである。傾き検出部110がこの傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に2つの光源(1つの電灯204及び太陽206)から入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。   In the state shown in FIG. 5, the display surface of the tablet terminal 100 is inclined from the horizontal plane (xy plane). This inclination is such an inclination that the light from the electric lamp 202 does not enter the display surface. The inclination detection unit 110 detects this inclination, and the rendering unit 104 considers it when generating display data. That is, the rendering unit 104 calculates the display data by calculating the color component and intensity (luminance) of light incident on the surface of the material from two light sources (one lamp 204 and the sun 206) and reflected in the direction of the eye 208. Generate.

さらに、図6に示す状態では、タブレット端末100のディスプレイ面はz軸に平行に配置されている。この配置は、2つの電灯202及び204の光がディスプレイ面に入射しない配置である。傾き検出部110がこのときのタブレット端末100の傾斜を検出し、レンダリング部104は、表示データの生成の際に考慮する。すなわち、レンダリング部104は、素材の表面に1つの光源(太陽206)のみから入射し、目208の方位に反射する光の色成分及び強度(輝度))を計算し表示データを生成する。   Furthermore, in the state illustrated in FIG. 6, the display surface of the tablet terminal 100 is disposed in parallel to the z axis. This arrangement is an arrangement in which the lights of the two lamps 202 and 204 do not enter the display surface. The tilt detection unit 110 detects the tilt of the tablet terminal 100 at this time, and the rendering unit 104 considers it when generating display data. That is, the rendering unit 104 generates display data by calculating the color component and intensity (luminance) of light incident on the surface of the material from only one light source (sun 206) and reflected in the direction of the eye 208.

図4から6を参照して説明したように、レンダリング部104によって生成された表示データは、タブレット端末100の傾き(ディスプレイ面の方位)および目の位置(方位)が反映されている。したがって、タブレット端末100を持っている観者は、タブレット端末100を傾けたり、目の位置(方位)を変えたりすることで、素材の実物を観察している時と同様に、素材の質感を観察することができることができる。   As described with reference to FIGS. 4 to 6, the display data generated by the rendering unit 104 reflects the tilt (the orientation of the display surface) and the eye position (the orientation) of the tablet terminal 100. Therefore, the viewer who has the tablet terminal 100 can feel the texture of the material by tilting the tablet terminal 100 or changing the position (orientation) of the eyes, as when observing the actual material. Can be observed.

レンダリング部104は、ズーム機能を実装することもできる。上述したように、レンダリング部104は、素材の面がディスプレイ面に重ねられているかのように素材の表示データを生成する。ディスプレイ面と、タブレット端末100を保持する観者との間の距離は、略観者の腕の長さとなり、大きく変化しない。したがって、ユーザ・インタフェース(UI)を介して受信する観者からのズーム・インの指示に応答して、素材がディスプレイ面と観者との間に置かれているかのように素材の表示データを生成する、あるいは、UIを介して受信するズーム・アウトの指示に応答して、ディスプレイ面が素材と観者との間に置かれている(素材がディスプレイ面の裏側に置かれている)かのように素材の表示データを生成する、ズーム機能をレンダリング部104に実装することは有用である。例えば、観者は、ディスプレイ面が水平面に垂直となるようにタブレット端末を保持し、壁材の素材をさせる際に、ズーム・アウト機能を使用して、2〜3mは離れた位置の壁を想定して、素材の質感を観察することが可能になる。   The rendering unit 104 can also implement a zoom function. As described above, the rendering unit 104 generates material display data as if the surface of the material is superimposed on the display surface. The distance between the display surface and the viewer holding the tablet terminal 100 is approximately the length of the viewer's arm and does not change significantly. Therefore, in response to a zoom-in instruction from the viewer received through the user interface (UI), the display data of the material is displayed as if the material is placed between the display surface and the viewer. Whether the display surface is placed between the material and the viewer (the material is placed behind the display surface) in response to a zoom-out indication that is generated or received via the UI As described above, it is useful to mount the zoom function for generating the display data of the material in the rendering unit 104. For example, the viewer holds the tablet terminal so that the display surface is perpendicular to the horizontal plane, and uses the zoom-out function to make the wall material 2 to 3 m away when making the material of the wall material. Assuming that it is possible to observe the texture of the material.

以上説明したように、レンダリング部104は、素材の質感に関する素材情報(色特性、反射特性および形状特性)と、照明情報と、ブレット端末100のディスプレイ面及び観者の相対的位置関係に基づいて、建設素材の表示データをレンダリングすることができる。また、レンダリング部104は、建設素材の質感に関する素材情報の内の形状特性と、照明情報と、ブレット端末100のディスプレイ面及び観者の相対的位置関係に基づいて、建設素材に形成される凹凸の模様の表示データをレンダリングすることができる。凹凸の模様の表示データは予め定められた色の輝度の分布とすることができる。   As described above, the rendering unit 104 is based on material information (color characteristics, reflection characteristics, and shape characteristics) regarding the texture of the material, illumination information, and the relative positional relationship between the display surface of the bullet terminal 100 and the viewer. The display data of construction materials can be rendered. In addition, the rendering unit 104 has unevenness formed on the construction material based on the shape characteristics in the material information regarding the texture of the construction material, the lighting information, and the relative positional relationship between the display surface of the bullet terminal 100 and the viewer. The display data of the pattern can be rendered. The display data of the uneven pattern can be a luminance distribution of a predetermined color.

図7は、建築素材凹凸模様画像処理システムの処理のフローチャートであり、上述した携帯型端末100によって実行される処理フローの一例である。図7の処理フローは、携帯型端末100が、観察環境の変化や建築素材の向きの変化に応じた凹凸の模様の表示データをレンダリングして、凹凸の模様の画像を表示するフローを例示する。   FIG. 7 is a flowchart of the process of the building material uneven pattern image processing system, and is an example of the process flow executed by the portable terminal 100 described above. The processing flow in FIG. 7 illustrates a flow in which the portable terminal 100 renders uneven pattern display data corresponding to a change in observation environment or a change in the direction of a building material, and displays an uneven pattern image. .

ステップS601で、携帯型端末100(変換部120)は、エンボス版の凹凸の模様の画素毎の深さまたは高さの情報を、各画素の形状特性に変換する。たとえば、形状特性は凹凸の模様の各画素の法線ベクトル情報である。入力部112、通信部114を介して入力された(または入力され素材情報記憶部116に記憶された)エンボス版の凹凸の模様の深さまたは高さの情報が、形状特性に変換される。変換された形状特性は、素材情報記憶部116に記憶される。   In step S601, the portable terminal 100 (the conversion unit 120) converts the depth or height information for each pixel of the uneven pattern of the embossed plate into the shape characteristics of each pixel. For example, the shape characteristic is normal vector information of each pixel of the uneven pattern. The information on the depth or height of the embossed pattern of the embossed plate input via the input unit 112 and the communication unit 114 (or input and stored in the material information storage unit 116) is converted into shape characteristics. The converted shape characteristic is stored in the material information storage unit 116.

ステップS603で、携帯型端末100(レンダリング部104)は、周囲照明情報を取得する。当該携帯型端末が配置された実環境において周囲照明情報取得部108によって取得された照明情報、又は周囲照明情報記憶部106に格納された照明情報が取得される。代替として、通信部114を介して取得されたモデル化された空間における外部照明情報、又は通信部114を介して取得され周囲照明情報記憶部106に格納された外部照明情報が取得される。   In step S603, the portable terminal 100 (rendering unit 104) acquires ambient lighting information. The illumination information acquired by the ambient illumination information acquisition unit 108 or the illumination information stored in the ambient illumination information storage unit 106 in the real environment where the portable terminal is arranged is acquired. Alternatively, the external illumination information in the modeled space acquired via the communication unit 114 or the external illumination information acquired via the communication unit 114 and stored in the ambient illumination information storage unit 106 is acquired.

ステップS605で、携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を特定する。携帯型端末100(レンダリング部104)は、照明、ディスプレイ面及び観者の相対的位置関係を、照明情報に含まれる光の方位と、ディスプレイ面の方位及び観者の目の方位の少なくとも1つとを用いて計算することにより、特定することができる。携帯型端末の傾き及び観者の目の方位は、傾き検出部110及び観者検出部118によってそれぞれ検出され、レンダリング部104がアクセスできるようにメモリなどに保持されている。   In step S605, the portable terminal 100 (rendering unit 104) specifies the relative positional relationship between the illumination, the display surface, and the viewer. The portable terminal 100 (rendering unit 104) determines the relative positional relationship between the illumination, the display surface, and the viewer, the orientation of light included in the illumination information, at least one of the orientation of the display surface and the orientation of the viewer's eyes. It can specify by calculating using. The tilt of the portable terminal and the orientation of the viewer's eyes are detected by the tilt detection unit 110 and the viewer detection unit 118, respectively, and are held in a memory or the like so that the rendering unit 104 can access them.

ステップS607で、携帯型端末100(レンダリング部104)は、取得した照明情報と、計算した相対的位置関係と、形状特性(各画素の向きの情報)とに基づいて、凹凸の模様の表示データをレンダリングする。   In step S607, the portable terminal 100 (rendering unit 104) displays the uneven pattern display data based on the acquired illumination information, the calculated relative positional relationship, and the shape characteristics (information on the orientation of each pixel). Render.

ステップS609で、表示部102は、表示データを用いて凹凸の模様の画像を表示(再表示)する。   In step S609, the display unit 102 displays (re-displays) the image of the uneven pattern using the display data.

ステップS611で、表示部102に画像表示された凹凸の模様の編集が指示されたか否かを判定する。   In step S611, it is determined whether an instruction to edit the uneven pattern displayed on the display unit 102 has been issued.

凹凸の模様の編集が指示された場合、ステップS613で、指示にしたがって、形状特性(画素の向きの情報)を変更する。変更した形状特性(画素の向きの情報)は編集結果記憶部123に記憶される。   When the editing of the uneven pattern is instructed, the shape characteristic (pixel orientation information) is changed in accordance with the instruction in step S613. The changed shape characteristic (pixel orientation information) is stored in the editing result storage unit 123.

ステップ611で凹凸の模様の編集が指示されない場合、またはステップS613の後に、ステップS615で、プログラムの終了が指示されたかどうかを判定する。プログラムの終了が指示されている場合は、処理のフローを終了する。プログラムの終了が指示されていない場合は、ステップS603へ戻る。ステップS613で形状特性が変更された場合には、ステップ607において、変更した形状特性に基づいて凹凸の模様の表示データをレンダリングする。これにより、編集した凹凸の模様の質感を確認することができる。   If it is not instructed to edit the uneven pattern in step 611, or after step S613, it is determined in step S615 whether the end of the program has been instructed. If the program is instructed to end, the process flow ends. If the end of the program is not instructed, the process returns to step S603. If the shape characteristic is changed in step S613, in step 607, the display data of the uneven pattern is rendered based on the changed shape characteristic. Thereby, the texture of the edited uneven pattern can be confirmed.

なお、プログラムの終了が指示されていない場合に、ステップS615からS605へ戻ってもよい。ステップS603で、仮想空間についてモデル化された照明情報(空間照明情報)を取得した場合には、再取得する必要はない。   Note that if the end of the program is not instructed, the process may return from step S615 to S605. In step S603, when the illumination information modeled about the virtual space (spatial illumination information) is acquired, there is no need to acquire it again.

携帯型端末100は、編集結果記憶部123に記憶された素材情報(色特性、形状特性、反射特性)の少なくとも一部を出力するように構成されてもよい。例えば、携帯型端末100は、編集結果記憶部123に記憶された素材情報の形状特性を、変換部120により逆変換した後に、通信部114を介して外部へ送信するように構成されてもよい。また、図7を参照して説明した処理フローは、編集結果記憶部123に記憶された素材情報の形状特性を、変換部120により逆変換した後に、通信部114を介して外部へ送信するステップを含んでもよい。   The portable terminal 100 may be configured to output at least a part of material information (color characteristics, shape characteristics, reflection characteristics) stored in the editing result storage unit 123. For example, the portable terminal 100 may be configured to transmit the shape characteristics of the material information stored in the editing result storage unit 123 to the outside via the communication unit 114 after reverse conversion by the conversion unit 120. . The processing flow described with reference to FIG. 7 is a step of transmitting the shape characteristics of the material information stored in the editing result storage unit 123 to the outside through the communication unit 114 after reverse conversion by the conversion unit 120. May be included.

以上、説明したように、本発明によれば、観察環境の変化や素材の向きの変化に応じた凹凸の模様の画像を表示し、質感や見えの疑似体験を可能にする建築素材凹凸模様画像処理システム、方法、及びプログラムを提供できる。   As described above, according to the present invention, an image of a concavo-convex pattern corresponding to a change in observation environment or a change in material direction is displayed, and a concavo-convex pattern image of a building material that enables a simulated experience of texture and appearance. Processing systems, methods, and programs can be provided.

100 携帯型端末
102 表示部(感圧式ディスプレイ)
104 レンダリング部(表示データ生成部)
106 照明情報記憶部
108 周囲照明情報取得部(測光デバイス、照度センサ、カメラ)
110 傾き検出部(ジャイロセンサ、加速度センサ、磁気センサ)
112 入力部(キーボード、キーパッド、マウス、ポインティングデバイス、マイク)
114 通信部(ネットワークIFカード(NIC)、無線デバイス)
116 素材情報記憶部
118 観者検出部(赤外線センサ、カメラ)
120 変換部
122 編集部
123 編集結果記憶部
202,204 電灯
206 太陽
208 目
100 portable terminal 102 display unit (pressure-sensitive display)
104 Rendering unit (display data generation unit)
106 Illumination information storage unit 108 Ambient illumination information acquisition unit (photometric device, illuminance sensor, camera)
110 Tilt detection unit (gyro sensor, acceleration sensor, magnetic sensor)
112 Input section (keyboard, keypad, mouse, pointing device, microphone)
114 Communication unit (network IF card (NIC), wireless device)
116 Material information storage unit 118 Audience detection unit (infrared sensor, camera)
120 Conversion unit 122 Editing unit 123 Editing result storage unit 202, 204 Electric light 206 Sun 208

Claims (17)

建設素材の凹凸の模様の画像を処理する建築素材凹凸模様画像処理システムであって、
前記凹凸の模様の画像を表示する表示手段と、
前記建設素材の前記凹凸の模様の画素毎の深さまたは高さの情報を、各画素の向きの情報に変換するように構成された変換手段と、
照明情報、前記各画素の向きの情報、並びに照明、前記表示手段の表示面及び観者の相対的位置関係に基づいて、前記凹凸の模様の表示データをレンダリングするように構成されレンダリング手段であり、前記表示データを用いて前記表示手段により前記凹凸の模様の画像が表示される、前記レンダリング手段と
を備えた、建築素材凹凸模様画像処理システム。
A building material uneven pattern image processing system that processes an image of uneven patterns of construction materials,
Display means for displaying an image of the uneven pattern;
Conversion means configured to convert the information on the depth or height of each pixel of the uneven pattern of the construction material into information on the orientation of each pixel;
Rendering means configured to render display data of the concavo-convex pattern based on illumination information, information on the orientation of each pixel, and the relative positional relationship between illumination, the display surface of the display means, and the viewer A building material uneven pattern image processing system comprising: the rendering means for displaying an image of the uneven pattern by the display means using the display data.
前記各画素の向きの情報を編集するように構成された編集手段をさらに備えた、請求項1に記載の建築素材凹凸模様画像処理システム。   The building material uneven pattern image processing system according to claim 1, further comprising an editing unit configured to edit information on the orientation of each pixel. 前記凹凸の模様の画素毎の深さまたは高さの情報を編集するように構成された編集手段をさらに備えた、請求項1に記載の建築素材凹凸模様画像処理システム。   The building material uneven pattern image processing system according to claim 1, further comprising an editing unit configured to edit depth or height information for each pixel of the uneven pattern. 前記編集手段により編集された前記各画素の向きの情報または前記凹凸の模様の画素毎の深さまたは高さの情報を記憶するように構成された編集結果記憶手段をさらに備えた、請求項2または3のいずれかに記載の建築素材凹凸模様画像処理システム。   The editing result storage unit configured to store information on the orientation of each pixel edited by the editing unit or information on the depth or height of each pixel of the uneven pattern. Or the building material uneven | corrugated pattern image processing system in any one of 3. 前記変換手段は、前記編集手段により編集された前記各画素の向きの情報を、凹凸の模様の画素毎の深さまたは高さの情報に変換するようにさらに構成され、前記各画素の向きの情報から変換された前記凹凸の模様の画素毎の深さまたは高さの情報は外部に出力される、請求項2に記載の建築素材凹凸模様画像処理システム。   The conversion means is further configured to convert the information on the orientation of each pixel edited by the editing means into information on the depth or height of each pixel of the uneven pattern, and the orientation of each pixel The building material uneven pattern image processing system according to claim 2, wherein the depth or height information for each pixel of the uneven pattern converted from information is output to the outside. 前記表示手段の表示面の方位を検出するように構成された傾き検出手段をさらに備え、
前記レンダリング手段は、照明情報、前記各画素の向きの情報及び前記表示手段の表示面の方位に基づいて、前記凹凸の模様の表示データをレンダリングするように構成されている、請求項1乃至5のいずれかに記載の建築素材凹凸模様画像処理システム。
Further comprising tilt detection means configured to detect the orientation of the display surface of the display means;
The rendering means is configured to render display data of the uneven pattern based on illumination information, information on the orientation of each pixel, and the orientation of the display surface of the display means. The building material uneven pattern image processing system according to any one of the above.
前記表示手段の周囲照明情報を取得するように構成された周囲照明情報取得手段をさらに備え、前記凹凸の模様の表示データがレンダリングされる際に用いられる前記照明情報は、前記周囲照明情報取得手段により取得された前記周囲照明情報である、請求項1乃至6のいずれかに記載の建築素材凹凸模様画像処理システム。   An ambient illumination information acquisition unit configured to acquire ambient illumination information of the display unit is further provided, and the illumination information used when display data of the uneven pattern is rendered is the ambient illumination information acquisition unit The building material uneven pattern image processing system according to any one of claims 1 to 6, which is the ambient lighting information acquired by the method. 前記凹凸の模様の画像の観者の方位を検出するように構成された観者検出手段をさらに備え、
前記レンダリング手段は、前記照明情報、前記各画素の向きの情報、前記表示手段の表示面の方位及び前記凹凸の模様の画像の観者の方位に基づいて、前記凹凸の模様の表示データをレンダリングするように構成されている、請求項1乃至7のいずれかに記載の建築素材凹凸模様画像処理システム。
Further comprising viewer detection means configured to detect the orientation of the viewer of the image of the uneven pattern,
The rendering means renders the uneven pattern display data based on the illumination information, the orientation information of each pixel, the orientation of the display surface of the display means and the orientation of the viewer of the uneven pattern image. The building material uneven | corrugated pattern image processing system in any one of Claims 1 thru | or 7 comprised so that it may do.
建設素材の凹凸の模様の画像を表示するように構成された表示手段と、変換手段と、レンダリング手段とを備えた建築素材凹凸模様画像処理システムにおける建築素材凹凸模様画像処理方法であって、
前記変換手段が、前記建設素材の前記凹凸の模様の画素毎の深さまたは高さの情報を、各画素の向きの情報に変換することと、
前記レンダリング手段が、照明情報、前記各画素の向きの情報、並びに照明、前記表示手段の表示面及び観者の相対的位置関係に基づいて、前記凹凸の模様の表示データをレンダリングすることと、
前記表示手段が、前記表示データを用いて前記凹凸の模様の画像を表示することと
を含む、建築素材凹凸模様画像処理方法。
A building material uneven pattern image processing method in a building material uneven pattern image processing system comprising display means configured to display an image of an uneven pattern of a construction material, a conversion means, and a rendering means,
The converting means converts the depth or height information for each pixel of the uneven pattern of the construction material into information on the orientation of each pixel;
The rendering means renders the display data of the uneven pattern based on illumination information, information on the orientation of each pixel, and illumination, the display surface of the display means and the relative positional relationship of the viewer;
The building material concavo-convex pattern image processing method including: the display means displaying an image of the concavo-convex pattern using the display data.
前記建築素材凹凸模様画像処理システムは、編集手段をさらに備え、前記建築素材凹凸模様画像処理方法は、
前記編集手段が、前記各画素の向きの情報を編集することをさらに含む、請求項9に記載の建築素材凹凸模様画像処理方法。
The building material uneven pattern image processing system further comprises editing means, and the building material uneven pattern image processing method comprises:
The architectural material uneven pattern image processing method according to claim 9, further comprising editing the orientation information of each pixel.
前記建築素材凹凸模様画像処理システムは、編集手段をさらに備え、前記建築素材凹凸模様画像処理方法は、
前記編集手段が、前記凹凸の模様の画素毎の深さまたは高さの情報を編集することをさらに含む、請求項9に記載の建築素材凹凸模様画像処理方法。
The building material uneven pattern image processing system further comprises editing means, and the building material uneven pattern image processing method comprises:
The architectural material uneven pattern image processing method according to claim 9, further comprising editing the depth or height information for each pixel of the uneven pattern.
前記建築素材凹凸模様画像処理システムは、編集結果記憶手段をさらに備え、前記建築素材凹凸模様画像処理方法は、
前記編集結果記憶手段に、前記編集手段により編集された前記各画素の向きの情報または前記凹凸の模様の画素毎の深さまたは高さの情報を記憶することをさらに含む、請求項10または11に記載の建築素材凹凸模様画像処理方法。
The building material uneven pattern image processing system further includes an editing result storage means, and the building material uneven pattern image processing method includes:
The information on the orientation of each pixel edited by the editing unit or the information on the depth or height of each pixel of the uneven pattern is further stored in the editing result storage unit. The method for processing an uneven pattern image according to claim 1.
前記変換手段が、前記編集手段により編集された前記各画素の向きの情報を、凹凸の模様の画素毎の深さまたは高さの情報に変換することと、
前記各画素の向きの情報から変換された前記凹凸の模様の画素毎の深さまたは高さの情報を外部に出力することと
をさらに含む、請求項11に記載の建築素材凹凸模様画像処理方法。
The converting means converts the orientation information of each pixel edited by the editing means into depth or height information for each pixel of the uneven pattern;
The method according to claim 11, further comprising: outputting information on a depth or a height of each pixel of the uneven pattern converted from information on the orientation of each pixel to the outside. .
前記建築素材凹凸模様画像処理システムは、検出手段をさらに備え、前記建築素材凹凸模様画像処理方法は、
前記検出手段が、前記表示手段の表示面の方位を検出することと、
前記凹凸の模様の表示データをレンダリングすることは、前記レンダリング手段が、照明情報、前記各画素の向きの情報及び前記表示手段の表示面の方位に基づいて、前記凹凸の模様の表示データをレンダリングすることを含む、請求項9乃至13のいずれかに記載の建築素材凹凸模様画像処理方法。
The building material uneven pattern image processing system further comprises detection means, and the building material uneven pattern image processing method includes:
The detection means detects the orientation of the display surface of the display means;
Rendering the uneven pattern display data means that the rendering means renders the uneven pattern display data based on illumination information, information on the orientation of each pixel, and the orientation of the display surface of the display means. The building material uneven | corrugated pattern image processing method in any one of Claims 9 thru | or 13 including doing.
前記建築素材凹凸模様画像処理システムは、周囲照明情報取得手段をさらに備え、前記建築素材凹凸模様画像処理方法は、
前記周囲照明情報取得手段が、前記表示手段の周囲照明情報を取得することをさらに含み、
前記凹凸の模様の表示データをレンダリングする際に用いられる前記照明情報は、前記周囲照明情報取得手段により取得された前記周囲照明情報である、請求項9乃至14に記載の建築素材凹凸模様画像処理方法。
The building material uneven pattern image processing system further comprises ambient lighting information acquisition means, and the building material uneven pattern image processing method includes:
The ambient lighting information acquisition means further includes acquiring ambient lighting information of the display means;
The building material uneven pattern image processing according to claim 9, wherein the illumination information used when rendering display data of the uneven pattern is the ambient illumination information acquired by the ambient illumination information acquisition unit. Method.
前記建築素材凹凸模様画像処理システムは、前記凹凸の模様の画像の観者の方位を検出する観者検出手段をさらに備え、
前記凹凸の模様の表示データをレンダリングすることは、前記レンダリング手段が、前記照明情報、前記各画素の向きの情報、前記表示手段の表示面の方位及び前記凹凸の模様の画像の観者の方位に基づいて、前記凹凸の模様の表示データをレンダリングすることを含む、請求項9乃至15のいずれかに記載の建築素材凹凸模様画像処理方法。
The building material concavo-convex pattern image processing system further comprises spectator detection means for detecting the azimuth of the viewer of the concavo-convex pattern image,
Rendering the uneven pattern display data means that the rendering means includes the illumination information, the orientation information of each pixel, the orientation of the display surface of the display means, and the orientation of the viewer of the image of the uneven pattern. The building material uneven pattern image processing method according to claim 9, comprising rendering the display data of the uneven pattern based on the method.
コンピュータシステムに、請求項9乃至16のいずれかに記載の建築素材凹凸模様画像処理方法を実行させるプログラム。   A program for causing a computer system to execute the building material uneven pattern image processing method according to any one of claims 9 to 16.
JP2015152956A 2015-07-31 2015-07-31 Architectural material uneven pattern image processing system, method, and program Active JP6610064B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015152956A JP6610064B2 (en) 2015-07-31 2015-07-31 Architectural material uneven pattern image processing system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015152956A JP6610064B2 (en) 2015-07-31 2015-07-31 Architectural material uneven pattern image processing system, method, and program

Publications (2)

Publication Number Publication Date
JP2017033318A true JP2017033318A (en) 2017-02-09
JP6610064B2 JP6610064B2 (en) 2019-11-27

Family

ID=57988196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015152956A Active JP6610064B2 (en) 2015-07-31 2015-07-31 Architectural material uneven pattern image processing system, method, and program

Country Status (1)

Country Link
JP (1) JP6610064B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106411A (en) * 1995-10-12 1997-04-22 Sekisui House Ltd Method for switch-displaying surface material of building by means of computer graphic picture
JPH11175751A (en) * 1997-12-11 1999-07-02 Dainippon Printing Co Ltd Method and device for generating image
JPH11219384A (en) * 1998-02-02 1999-08-10 Nkk Corp Design system for building material and its medium
JP2008249952A (en) * 2007-03-30 2008-10-16 Sega Corp Image display system and image display program
JP2015102681A (en) * 2013-11-25 2015-06-04 カシオ計算機株式会社 Display device, display compensation method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106411A (en) * 1995-10-12 1997-04-22 Sekisui House Ltd Method for switch-displaying surface material of building by means of computer graphic picture
JPH11175751A (en) * 1997-12-11 1999-07-02 Dainippon Printing Co Ltd Method and device for generating image
JPH11219384A (en) * 1998-02-02 1999-08-10 Nkk Corp Design system for building material and its medium
JP2008249952A (en) * 2007-03-30 2008-10-16 Sega Corp Image display system and image display program
JP2015102681A (en) * 2013-11-25 2015-06-04 カシオ計算機株式会社 Display device, display compensation method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
尹新, 外2名: ""浮世絵のデジタルコンテンツ化のための3次元物体モデリングと可視化"", 情報処理学会研究報告, vol. 第2007巻, 第1号, JPN6019026681, 12 January 2007 (2007-01-12), JP, pages 39 - 44, ISSN: 0004073913 *

Also Published As

Publication number Publication date
JP6610064B2 (en) 2019-11-27

Similar Documents

Publication Publication Date Title
JP6610065B2 (en) Cosmetic material simulation system, method, and program
JP6610063B2 (en) Image processing system, method, and program
JP6720972B2 (en) Image processing system, method, and program
JP2016006627A (en) Image processor and image processing method
WO2010070517A1 (en) System for simulation of a lighting distribution
JP6589444B2 (en) Building material image processing system, method, and program
CN116113987A (en) Visualizing the appearance of at least two materials
CN116018576A (en) Visualizing the appearance of at least two materials
JP6610064B2 (en) Architectural material uneven pattern image processing system, method, and program
JP2017033315A (en) Image processing system, method and program
JP6554980B2 (en) Image processing system, method, and program
WO2017104448A1 (en) Information processing device, three-dimensional model generation device, method for controlling information processing device, and computer program
JP2003157290A (en) Processing method and processing system for image simulation, image simulation processing program, and recording medium
JP6717302B2 (en) Image processing system, method, and program
CN116075859A (en) Generating a target texture from a plurality of source textures
Ferwerda ImpastoR: A realistic surface display system
JP6756090B2 (en) Image processing equipment, methods, and programs
Navvab et al. Evaluation of historical museum interior lighting system using fully immersive virtual luminous environment
TWI787853B (en) Augmented-reality system and method
Kolomenski Realization Of A Spatial Augmented Reality System-A Digital Whiteboard Using a Kinect Sensor and a PC Projector
KR20190056694A (en) Virtual exhibition space providing method using 2.5 dimensional object tagged with digital drawing element
Ferwerda et al. Tangible images: Bridging the real and virtual worlds
JP2016212664A (en) Decorative sheet selection support device, selection support method, and computer program
JP2005122719A (en) Computer graphics system, computer graphics reproduction method and program
JP2024025926A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R150 Certificate of patent or registration of utility model

Ref document number: 6610064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250