WO2019130716A1 - 質感再現装置、質感再現方法、プログラムおよび記録媒体 - Google Patents

質感再現装置、質感再現方法、プログラムおよび記録媒体 Download PDF

Info

Publication number
WO2019130716A1
WO2019130716A1 PCT/JP2018/037755 JP2018037755W WO2019130716A1 WO 2019130716 A1 WO2019130716 A1 WO 2019130716A1 JP 2018037755 W JP2018037755 W JP 2018037755W WO 2019130716 A1 WO2019130716 A1 WO 2019130716A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
texture
light
projection
projection object
Prior art date
Application number
PCT/JP2018/037755
Other languages
English (en)
French (fr)
Inventor
善朗 山崎
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019562766A priority Critical patent/JPWO2019130716A1/ja
Publication of WO2019130716A1 publication Critical patent/WO2019130716A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading

Definitions

  • the present invention relates to a texture reproducing apparatus, a texture reproducing method, a program and a recording medium for reproducing optical characteristics of a target surface texture (target texture).
  • a sample of a product is manufactured to evaluate the texture of the sample surface or to imagine the texture of the product surface from similar samples so as to obtain the optical characteristics of the target texture.
  • this method if it is not possible to obtain the optical characteristics of the target texture by evaluating the quality of the texture of the sample surface, it is necessary to repeat trial manufacture and evaluation of the sample. There was a problem that reproduction was not easy.
  • Patent Documents 1 and 2 are prior art documents relevant to the present invention.
  • Patent Document 1 is a display processing device that controls display of a preview image, and is a background image of a display environment in real space, a first illumination image of illumination installed in the display environment, and light source information indicating light attributes in the display environment , Original data, and texture information of a recording medium to be subjected to image formation, and a second illumination image in which the first illumination image is corrected based on correction information predetermined according to the texture information, and a background image
  • the second illumination image is environment-mapped to the document surface on which the document data is displayed, and an image obtained by overlapping the document display surface with the light attribute specified by the light source information is estimated as the printing result of the document data. Display on the display as a preview image.
  • Patent Document 2 is a texture reproduction system that reproduces the texture of a sample object on a simulated object having a reflection characteristic different from that of the sample object, and based on the reflection characteristic of the sample object, the brightness of the sample object at a predetermined observation position
  • the image is calculated, the luminance image of the simulated object at a predetermined observation position is calculated based on the reflection characteristics of the simulated object, the difference between the luminance image of the sample object and the luminance image of the simulated object is calculated, and the difference is calculated
  • the projection luminance image is calculated so that the difference disappears, and the projection luminance image is projected on the sample object and / or the simulated object.
  • Patent Document 1 can provide a preview image in which the display environment of the real space is reflected.
  • the texture reproduction system of Patent Document 2 can realistically reproduce the texture of the sample object on a simulated object having a reflection characteristic different from that of the sample object.
  • Patent Documents 1 and 2 require a display environment and a sample object in real space, and it is also possible to set the optical characteristics of the target texture, and set the optical characteristics of the target texture on the surface of the projection object It can not be reproduced either.
  • An object of the present invention is to provide a texture reproduction device, a texture reproduction method, a program and a recording medium capable of setting an optical characteristic of a target texture and reproducing the optical characteristic of the set target texture on the surface of a projection object. It is to do.
  • the present invention provides an optical property setting unit for setting an optical property of a target texture, which is a target surface texture.
  • a projection object selection unit which selects one projection object to be used to reproduce optical characteristics of a target texture from among a plurality of projection objects different from each other as a selection projection object;
  • a surface angle acquisition unit that acquires a surface angle at each pixel position including the target position of the surface of the selected projection object with respect to the observation direction when observing the target position of the surface of the selected projection object from the observation position;
  • At least one projection unit that projects incident light from a preset direction on the surface of the selected projection object including the target position;
  • a target optical characteristic calculation unit that calculates an emission characteristic of target emitted light from the attention position to the observation position based on the optical characteristic of
  • At least one projection unit projects the optical characteristic of the target texture on the surface of the selected projected object including the attention position by projecting the incident light whose incident characteristic is controlled onto the surface of the selected projection object including the attention position.
  • the optical characteristics of the target texture include, as reflection characteristics, emission characteristics of light emitted from the surface of the projection object with respect to incident characteristics of incident light on the surface of the projection object
  • the incident characteristics of incident light to the surface of the projection object include the incident angle of incident light to the surface of the projection object, the light intensity and the spectral characteristics, and the emission characteristics of the light emitted from the surface of the projection object is the It is preferable that the light emission angle, the light intensity and the spectral characteristic of the light emitted from the surface of the projection object be included.
  • the reflection characteristic is preferably a reflection characteristic represented by BRDF or BSSRDF.
  • the optical characteristics of the target texture further include fluctuation information representing the dispersion of the optical characteristics of the surface of the projection object
  • the target optical characteristic calculation unit changes the optical characteristic of the target texture based on the fluctuation information, and includes the surface angle at each pixel position including the attention position, and the incident characteristic of incident light from at least one projection unit serving as a virtual light source. It is preferable to calculate the emission characteristic of the target emitted light based on the changed optical characteristic of the target texture and the optical characteristic of the surface of the selected projection object.
  • a projected object storage unit for storing data of a plurality of projected objects.
  • the projection object selection unit selects one projection object from among a plurality of projection objects corresponding to data of a plurality of projection objects stored in the projection object storage unit.
  • the projected object storage unit stores, as data of a plurality of projected objects, data in which at least one of shape, material, size, surface state, surface color and surface optical characteristic is different, It is preferable that the projection object selection unit select one projection object based on at least one of the shape, material, size, surface state, surface color, and optical characteristics of the surface of the projection object. .
  • an optical characteristic measurement unit that measures optical characteristics of a plurality of projected objects
  • the projection object storage unit store optical characteristics of the plurality of projection objects measured by the optical characteristic measurement unit as part of data of the plurality of projection objects.
  • the optical property measurement unit measures the optical property at any one point on the surface of the projection object, and uses the optical property of one point as the optical properties of all surfaces of the projection object.
  • the optical property measuring unit divides the surface of the projection object into a plurality of areas of a predetermined size, and measures the optical properties of each of the plurality of areas.
  • a surface angle measurement unit that measures the surface angle at each pixel position, including the target position of the surface of the selected projection object with respect to the observation direction.
  • the surface angle acquisition unit acquires the surface angle measured by the surface angle measurement unit.
  • the surface angle acquisition unit calculates the surface angle at each pixel position including the noted position of the surface of the selected projection object with respect to the observation direction based on the data of the shape of the selected projection object and the arrangement angle. It is preferable to obtain.
  • an arrangement angle change unit configured to change the arrangement angle of the selected projection object by control of the arrangement angle control unit.
  • the surface angle acquisition unit acquires the surface angle at each pixel position including the target position of the surface of the selected projection object whose arrangement angle has been changed with respect to the observation direction.
  • an emitted light measurement unit for measuring the emission characteristics of the emitted light from the surface of the selected projection object including the position of interest; It is preferable to include a texture evaluation unit that evaluates the reproducibility of the optical characteristics of the target texture based on the emission characteristics of the emission light measured by the emission light measurement unit.
  • the optical property setting unit sets an optical property of a target texture, which is a target surface texture. Selecting an object to be projected to be used to reproduce the optical characteristics of the target texture from among a plurality of different objects to be projected, as the selected object to be projected; Acquiring a surface angle at each pixel position including the notable position of the surface of the selected projection object relative to the observation direction when observing the notable position of the surface of the selected projection object from the observation position; , At least one projection unit serving as a virtual light source that reproduces the surface light at each pixel position, including the position of interest, and the environmental light when reproducing the optical characteristics of the target texture on the surface of the selected projection object Calculating the emission characteristics of the target emitted light from the target position to the observation position based on the incident characteristics of the incident light from the target, the optical characteristics of the target texture, and the optical characteristics of the surface of the selected projection object;
  • the projection control unit is configured such that the emission characteristic of the emission light from the target position to the observation position is the emission characteristic of the target
  • the present invention also provides a program for causing a computer to execute the steps of the above-described texture reproduction method.
  • the present invention also provides a computer-readable recording medium having recorded thereon a program for causing a computer to execute the steps of the above-described texture reproduction method.
  • the present invention comprises a processor and at least one projection unit
  • the processor is Set the optical characteristics of the target texture, which is the target surface texture
  • One projection object for reproducing the optical characteristic of the target texture is selected as a selection projection object from among a plurality of projection objects different from each other, Acquiring a surface angle at each pixel position including the target position of the surface of the selected projection object with respect to the observation direction when observing the target position of the surface of the selected projection object from the observation position;
  • the surface angle at each pixel position, including the position of interest, and the incident characteristics of incident light from at least one projection unit serving as a virtual light source that reproduces the environmental light when reproducing the optical characteristics of the target texture on the surface of the selected projection object
  • the incident characteristics of incident light on the surface of the selected projection object including the target position from at least one projection unit is controlled so that
  • the present invention it is possible to set the optical characteristics of the target texture and reproduce the optical characteristics of the target texture on the surface of the selected projection object without making a sample on a trial basis. Also, the optical characteristics of the reproduced target texture can be observed to evaluate its reproducibility. Therefore, by changing the optical characteristics of the target texture according to the evaluation result of the reproducibility and repeating the reproduction of the optical characteristics of the target texture, it is possible to make the optical characteristics of the target texture better and at the same time the target texture is Optical characteristics can be accurately reproduced.
  • FIG. 1 is a block diagram of an embodiment showing the configuration of the texture reproduction device of the present invention.
  • the texture reproduction apparatus 10 shown in FIG. 1 reproduces the optical characteristics of the target texture on the surface of the projection object, and includes an optical characteristic setting unit 12, an optical characteristic measurement unit 16, and a projection object storage unit 18.
  • the projection object selection unit 20, the arrangement angle control unit 22, the arrangement angle change unit 24, the surface angle measurement unit 26, the surface angle acquisition unit 28, the projection unit 30, the target optical characteristic calculation unit 32, and projection A control unit 34, an emitted light measurement unit 36, and a texture evaluation unit 38 are provided.
  • the optical property setting unit 12 includes an incident characteristic of incident light (environmental light) from a virtual light source described later, an incident characteristic of incident light (illumination light) from the projection unit 30, and a target surface. Set the optical characteristics of the target texture, which is the texture of the subject (visual texture of the observer).
  • data of the incident characteristic of ambient light, the incident characteristic of illumination light, and the optical characteristic of the target texture are input to the optical characteristic setting unit 12 from the outside of the texture reproduction device 10.
  • the optical characteristic setting unit 12 sets the incident characteristic of the ambient light and the incident characteristic of the illumination light based on the incident characteristic of the ambient light and the incident characteristic of the illumination light, and based on the data of the optical characteristic of the target texture, Set the optical characteristics of the target texture.
  • the operator of the texture reproducing apparatus 10 can set the incident characteristics of ambient light, the incident characteristics of illumination light, and the optical characteristics of the target texture by an arbitrary method, for example, directly input to the optical characteristic setting unit 12 and set. You can also.
  • the incident characteristics of ambient light include, for example, the light intensity and the spectral characteristics on the surface of the projected object, and the incident characteristics of the illumination light include the incident angle on the surface of the projected object, the light intensity and the spectral characteristics, etc. .
  • the optical property of the target texture is, for example, as a reflection property, as shown in FIG. 2, an emitted light from the surface of the projected object with respect to the incident property of incident light (environment light and illumination light) on the surface of the projected object Emission characteristics of the reflected light).
  • Ambient light is non-directional, light that is incident from all directions, and illumination light is directional light, such as fluorescent lamps and spotlights.
  • optical characteristics of the target texture it is possible to use any optical parameter including various optical characteristic values such as absorptivity, scattering coefficient, refractive index and anisotropy factor of the projection object.
  • the projected object plays the role of a screen on which the optical characteristics of the target texture are reproduced on its surface.
  • the object to be projected there can be used various materials including, for example, black glass, a diffusion plate (barium sulfate), a material whose surface roughness is changed, and the like.
  • the index of surface roughness is not particularly limited, and, for example, arithmetic average roughness Ra, maximum height Rz, and ten-point average roughness R ZJIS can be used.
  • the color of the projection object is not particularly limited, but is preferably achromatic (white, gray, black), for example.
  • Incident characteristics of incident light to the surface of the projected object include incident angles (including spread and area), light intensity (radiance) and spectral characteristics (spectral spectrum) of incident light to the surface of the projected object
  • the emission characteristics of the light emitted from the surface of the projection object include the emission angle of the light emitted from the surface of the projection object, the light intensity, the spectral characteristics, and the like.
  • the light intensities of the incident light and the emitted light are, for example, the light intensities of the respective colors of RGB when the incident light and the emitted light include light of each color of RGB (red, green and blue), and when the incident light and the emitted light are spectral Is the light intensity of the spectrum.
  • the spectral characteristics include spectral reflectance and the like.
  • the reflection characteristic of the outgoing light with respect to the incident light which is represented by BRDF (Bidirectional Reflectance Distribution Function: BRDF) which is one of the reflection models of light, is used. can do. Also, reflection characteristics represented by the Bidirectional Scattering Surface Reflectance Distribution Function (BSSRDF) and other reflection characteristics may be used.
  • BRDF Bidirectional Reflectance Distribution Function
  • BSSRDF Bidirectional Scattering Surface Reflectance Distribution Function
  • the optical property of the target texture may include fluctuation information that represents the variation (in-plane distribution) of the optical property of the surface of the projection object.
  • the optical properties of the surface of the object to be projected are desirably uniform, but may vary depending on the position.
  • the fluctuation information for example, when the surface of the projection object is divided into a plurality of regions of a fixed size, represents the variation of the optical characteristics of each of the plurality of divided regions.
  • the optical characteristic measurement unit 16 measures optical characteristics (reflection characteristics) of a plurality of projection objects different from one another.
  • the optical characteristic measurement unit 16 is a measurement instrument of optical characteristics, and for example, changes the arrangement angle of the projection object for each of the plurality of projection objects, and projects incident light from the light source onto the surface of the projection object
  • the optical characteristics of the object to be projected are measured by detecting light emitted from the surface of the object to be projected (reflected light) with a detector.
  • the combination of the arrangement angle control unit 22 and the arrangement angle change unit 24, and the projection unit 30 and the emitted light measurement unit 36 can also be used as the arrangement angle changing means, the light source, and the detector, respectively.
  • the optical characteristic measurement unit 16 measures, for example, the optical characteristic at any one point on the surface of the object to be projected, and projects the optical characteristic at the one measured point It can be used as an optical property of all surfaces of an object.
  • the optical characteristics of the projection object vary according to the position, for example, the surface of the projection object is divided into a plurality of areas of a fixed size, and the optical properties of each of the divided plurality of areas The characteristics may be measured or the fluctuation information described above may be used.
  • the projection object storage unit 18 stores data of a plurality of projection objects different from one another.
  • the projected object storage unit 18 includes, for example, at least one of a shape, a material, a size, a state of a surface (surface roughness), a color of the surface, an optical characteristic of the surface, and the like as data of a plurality of projected objects Store different data.
  • the projection object storage unit 18 stores data such as the optical characteristic of the surface of the projection object measured by the optical characteristic measurement unit 16 as a part of data of a plurality of projection objects.
  • the projection object storage unit 18 for example, various recordings such as a semiconductor memory, a hard disk (HD), a compact disk (CD), a DVD disk, a Blu-ray (registered trademark) Disc, etc. Media can be used.
  • the semiconductor memory for example, a universal serial bus (USB) memory, a secure digital (SD) memory, a solid state drive (SSD), or the like can be used.
  • the provision of the optical characteristic measurement unit 16 and the projection object storage unit 18 is not essential. For example, when there are data of a plurality of existing projection objects or data obtained by measuring the optical characteristics of a plurality of projection objects. May use these data.
  • the projection object selection unit 20 selects one projection object used to reproduce the optical characteristic of the target texture from among a plurality of projection objects different from each other as a selection projection object.
  • the projection object selection unit 20 has the optical characteristics of the target texture among the plurality of projection objects corresponding to the data of the plurality of projection objects stored in the projection object storage unit 18. Select one projection object that can be reproduced well. That is, based on at least one of the shape, material, size, surface state (surface roughness), surface color, surface optical property, etc. of the projection object, one of the plurality of projection objects is selected. Select one projection object.
  • the projection object selection unit 20 when reproducing the surface of a lacquer ware, since there is a difference in color such as black lacquer and red lacquer in lacquer, the projection object selection unit 20 has a surface color when reproducing the surface of black lacquer When a black projection object is selected and the surface of red lacquer is to be reproduced, the projection object whose surface color is red is selected. Further, since a high reflection intensity is required when reproducing a metal surface, the projection object selection unit 20 selects a projection object having a high reflection intensity on the surface.
  • data of a plurality of projected objects stored in the projected object storage unit 18 It is not essential to use data of a plurality of projected objects stored in the projected object storage unit 18.
  • data of a plurality of existing projection objects may be stored inside the projection object selection unit 20, and data of a plurality of projection objects in the inside may be used.
  • the arrangement angle control unit 22 controls the change of the arrangement angle of the selected projection object. Further, the arrangement angle changing unit 24 changes the arrangement angle of the selected projection object under the control of the arrangement angle control unit 22.
  • the arrangement angle changing unit 24 is a multi-axial rotation stage unit capable of changing the arrangement angle of the stage on which the projection target is placed.
  • the arrangement angle changing unit 24 various stage units capable of changing the arrangement angle of the stage can be used.
  • the arrangement angle control unit 22 changes the arrangement angle of the stage by controlling the rotation angle of each axis of the multi-axis rotation stage unit in which the selected projection object is placed on the stage. To control the change of the arrangement angle of the selected projection object.
  • the operator operates the arrangement angle control unit 22, and can arbitrarily change the arrangement angle of the selected projection object with respect to the projection object whose appearance changes according to the arrangement angle, for example.
  • the arrangement angle control unit 22 and the arrangement angle change unit 24 may be provided.
  • the arrangement angle of the selected projection object may be fixed, or the operator may hold the selected projection object by hand to change the arrangement angle.
  • the surface angle measurement unit 26 sets the surface angle at each pixel position including the target position of the surface of the selected projection object to the observation direction when observing the target position of the surface of the selected projection object from the observation position. taking measurement.
  • the position of interest is one pixel position on the surface of the selected projection object observed from the observation position, relative to the origin coordinates (0, 0, 0) in the three-dimensional space of the stage of the multi-axis rotation stage unit As shown in FIG. 4, it is represented by coordinates P (x, y, z).
  • the observation position is a position when observing the target position, and is, for example, the position of the eye of the observer or the arrangement position of the outgoing light measurement unit 36.
  • the observer evaluates the reproducibility of the optical characteristics of the target texture by observing the surface of the projected object centered on the coordinates P (x, y, z) of the position of interest.
  • the surface angle measurement unit 26 is a three-dimensional measurement device that measures the surface angle, and, for example, measures the surface angle of each of a plurality of minute regions on the surface of the selected projection object.
  • the surface angle at each pixel position is measured, including the coordinates P (x, y, z) of the position of interest.
  • the surface angle acquisition unit 28 determines the surface angle at each pixel position including the target position of the surface of the selected projection object with respect to the observation direction when observing the target position of the surface of the selected projection object from the observation position. Get coordinates. Further, when the arrangement angle of the selected projection object is changed, the surface angle and coordinates at each pixel position including the noted position of the surface of the selected projection object whose arrangement angle is changed with respect to the observation direction is acquired. .
  • the surface angle acquisition unit 28 acquires, for example, the surface angle measured by the surface angle measurement unit 26. It is not essential for the surface angle acquisition unit 28 to acquire the surface angle measured by the surface angle measurement unit 26, but it may be used as data on the arrangement angle and shape of the selected projection object (three-dimensional data of height and width) Based on the calculated surface angle and coordinates of each of the plurality of regions, it is also possible to obtain the surface angle and coordinates at each pixel position, including the noted position of the surface of the selected projection object relative to the viewing direction.
  • the surface angle acquisition unit 28 calculates the surface angles and coordinates of each of the plurality of regions based on, for example, data of the arrangement angle and shape of the selected projection object. Thus, it is possible to obtain surface angles and coordinates at each pixel position, including the target position of the surface of the selected projection object.
  • the surface angle acquisition unit 28 can acquire, for example, the surface angle measured by the surface angle measurement unit 26.
  • the selected target When observing the target position on the surface of the selected projection object from the observation position, the selected target is included in a range extending at a constant solid angle with the observation position as the apex of the cone according to the distance between the observation position and the target position.
  • the surface of the projectile is observed.
  • the preferable display resolution on the surface of the selected projection object changes according to the distance between the observation position and the attention position. For example, when the distance between the observation position and the attention position is 30 cm, it is preferably about 600 dpi.
  • the projection unit 30 projects incident light (illumination light) from the preset direction onto the surface of the selected projection object including the target position.
  • the projection unit 30 can obtain the positional relationship with the selection projection object. Accordingly, incident light can be projected from the preset direction onto the surface of the selected projection object including the target position.
  • the projection unit 30 may project light including each color of RGB at a constant ratio as incident light, or may project a spectrum of a specific spectrum.
  • the projection unit 30 is, for example, a surface light source, and is a projector or the like that projects incident light on the surface of the selected projection object.
  • the projection surface of the projection unit 30 may be a flat surface, or may be a curved surface having a constant curvature according to the shape of the object to be projected.
  • the texture reproduction device 10 may include at least one projection unit 30, but preferably includes two or more projection units 30. Although it is possible to reproduce the optical characteristics of the target texture using only one projection unit 30, it is more accurate by reproducing the optical characteristics of the target texture using two or more projection units simultaneously. It becomes possible to reproduce the optical characteristics of the target texture.
  • a plurality of projection units 30 are provided, for example, it is preferable to arrange them at equal intervals on the circumference of a circle with a constant radius centered on the arrangement position of the multi-axial rotation stage unit, that is, the selected projection object.
  • the target optical characteristic calculation unit 32 determines the surface angle at each pixel position including the attention position of the surface of the selected projection object with respect to the observation direction, and the incidence light from at least one projection unit 30 serving as a virtual light source.
  • the surface of the selected projection object such that the optical characteristics of the target texture are reproduced on the surface of the selected projection object based on the characteristics, the optical characteristics of the target texture, and the optical properties of the surface of the selected projection object, etc.
  • the emission characteristic of the target emitted light from the target position to the observation position is calculated.
  • the virtual light source is a virtual light source when calculating the emission characteristics of the target emission light, and reproduces the ambient light when reproducing the optical characteristics of the target texture on the surface of the selected projection object.
  • the virtual light source can be realized by, for example, the projection unit 30 as described above.
  • the incident characteristics of incident light from the virtual light source are the number of virtual light sources, the position of the virtual light source, the light intensity (radiance) of incident light (environment light) to the target position on the surface of the selected projection object and the spectral characteristics Spectrum) etc.
  • the emission characteristics of the target emission light include the light intensity and the spectral characteristics of the emission light from the position of interest on the surface of the selected projection object to the observation position.
  • the target optical property calculation unit 32 changes the optical property of the target texture based on the fluctuation information, that is, the variation of the optical property of the surface of the projection object, A surface angle at each pixel position, including a target position of the surface of the selected projection object, an incident characteristic of incident light from at least one projection unit 30 serving as a virtual light source, an optical characteristic of a changed target texture, and selection
  • the emission characteristic of the target emitted light is calculated based on the optical characteristic of the surface of the projection object and the like.
  • the projection control unit 34 sets the target position from the at least one projection unit 30 so that the emission characteristic of the emission light from the target position on the surface of the selected projection object to the observation position becomes the emission characteristic of the target emission light. And controlling the incident characteristics of incident light on the surface of the selected projection object.
  • the incident characteristics of the incident light include the incident angle of the incident light on the surface of the selected projection object including the target position, the light intensity, the spectral characteristics, and the like.
  • the incident angle of the incident light is determined by the direction of projection of the incident light set in advance according to the positional relationship between the projection unit 30 and the selected projection object.
  • the projection control unit 34 may control to use only one projection unit 30 of the at least one projection unit 30 or may control to use two or more projection units 30 simultaneously .
  • the emitted light measurement unit 36 measures the emission characteristics of the emitted light from the surface of the selected projection object including the target position.
  • the emitted light measurement unit 36 is, for example, a two-dimensional spectral luminance meter that two-dimensionally measures the luminance of the spectrum on the surface of the selected projection object including the attention position, or a camera having an XYZ filter and an RGB camera, It is a camera etc. which image
  • the emission characteristics of the emission light include the emission angle of the emission light from the position of interest on the surface of the selected projection object, the light intensity, the spectral characteristics, and the like.
  • the outgoing light (measurement light) of the outgoing angle (measurement angle) corresponding to the observation direction among the outgoing light (reflected light) corresponding to the incoming light a and b from the surface of the selected projection object including the attention position The emission characteristics of the emission light within a certain range including the above are measured by the emission light measurement unit 36.
  • the texture evaluation unit 38 evaluates the reproducibility of the optical characteristics of the target texture based on the emission characteristics and the like of the emission light measured by the emission light measurement unit 36.
  • the texture evaluation unit 38 evaluates that the optical characteristic of the target texture is reproduced or not reproduced, or evaluates that the light intensity of the emitted light is too strong, just enough, or too weak. Can.
  • the operator may change the optical characteristics of the target texture according to the evaluation result of the texture evaluation unit 38, and repeat the reproduction of the optical characteristics of the target texture. For example, when it is evaluated that the light intensity of the outgoing light is too strong, for example, the light intensity of the incident light is weakened as the optical characteristic of the target texture.
  • the observer may observe the surface of the selected projection object on which the optical characteristics of the target texture have been reproduced, to evaluate the reproducibility of the optical characteristics of the target texture, and change the optical characteristics of the target texture.
  • the optical characteristics measuring unit 16 measures the optical characteristics of a plurality of different objects to be projected, and measures the optical characteristics of the object to be projected Data of a plurality of projected objects, including the data, is stored in the projected object storage unit 18 (step S1).
  • the incident characteristics of the incident light (environmental light) from the virtual light source and the incident light (illumination light) from the projection unit 30 are set by the optical characteristic setting unit 12 (step S2). Also, the optical characteristics of the target texture are set (step S3).
  • the projected object selection unit 20 reproduces the optical characteristics of the target texture from among the plurality of projected objects corresponding to the data of the plurality of projected objects stored in the projected object storage unit 18.
  • One projected object is selected as the selected projected object (step S4).
  • the change of the arrangement angle of the selected projection object is controlled by the arrangement angle control unit 22, and the arrangement angle of the selected projection object is changed by the arrangement angle change unit 24 (step S5).
  • the surface angle measurement unit 26 measures the surface angle at each pixel position including the target position of the surface of the selected projection object with respect to the observation direction, and the surface angle measurement unit 26 measures the surface angle The obtained surface angle is obtained (step S6).
  • the surface of the selected projection object such that the optical characteristics of the target texture are reproduced on the surface of the selected projection object based on the characteristics, the optical characteristics of the target texture, and the optical properties of the surface of the selected projection object, etc.
  • the emission characteristic of the target emitted light from the target position to the observation position is calculated (step S7).
  • the projection control unit 34 sets the target position from the at least one projection unit 30 so that the emission characteristic of the emission light from the surface of the target position of the selected projection object to the observation position becomes the emission characteristic of the target emission light.
  • the incident characteristics of the incident light to the surface of the selected projection object to be included are controlled (step S8).
  • incident light whose incident characteristic is controlled by the projection control unit 34 is projected from the direction set in advance by the at least one projection unit 30 on the surface of the selected projection object including the target position.
  • the optical characteristic of the target texture is reproduced on the surface of the selected projection object including the attention position (step S9).
  • the emission characteristics of the emission light from the position of interest on the surface of the selected projection object are measured by the emission light measurement unit 36, and the emission characteristics of the emission light measured by the emission light measurement unit 36 by the texture evaluation unit 38.
  • the reproducibility of the optical characteristics of the target texture is evaluated on the basis of the above (step S10).
  • the optical property setting unit 12 sets, for example, strengths of a target diffused light component and a specular reflection component represented by BRDF, BSSRDF, or the like as a reflection property among the optical properties of the target texture. Further, as a spectral characteristic, a target spectral reflectance is set. When fluctuation information is required, the dispersion of the optical characteristics of the target surface is set for each of the diffuse light component and the specular reflection component represented by BRDF or BSSRDF, and the spectral reflectance.
  • the optical properties of the target texture are set by, for example, directly describing the operator using a user interface for setting the optical properties of the target texture, or selecting from a plurality of typical cases. Can.
  • a combination of the arrangement angle control unit 22 and the arrangement angle change unit 24, the projection unit 30 and the emitted light measurement unit 36 are used as the arrangement angle changing means of the optical characteristic measurement unit 16, the light source and the detector, respectively.
  • one projection object to be a candidate of the selected projection object is placed on the stage of the multi-axis rotation stage unit to be the arrangement angle changing unit 24, and the arrangement angle control unit 22
  • the arrangement angle of is changed, and the arrangement angle of the projection object is set to a certain arrangement angle.
  • each projection unit 30 may be controlled independently, or a plurality of projection units 30 may be combined and controlled.
  • each projection unit 30 is included in the range in which the optical characteristics of the target texture can be reproduced. It is possible to simultaneously obtain emission characteristics of light emitted from all pixel positions.
  • the arrangement angle of the stage is changed by the arrangement angle control unit 22 so that the arrangement angle of the projection object is changed, and the above operation is repeated.
  • the emission characteristics of the light emitted from all pixel positions included in the reproducible range of the optical characteristics of the texture are measured and stored in the projection object storage unit 18. Further, by repeating the above operation for each of the projection objects, the emission characteristics of the emission light for each arrangement angle of each of the projection objects are measured and stored.
  • a plurality of projected objects having different arrangement angles are virtually selected, and for each of the virtual projected objects having different arrangement angles and the virtual observation position, the objects to be projected are viewed from the observation position
  • the light component of the emitted light corresponding to the case where the position of interest on the surface of the projection object is viewed is calculated.
  • incident light to the pixel position of each pixel position on the surface of the projected object that can be seen from the observation position by the projected object selection unit 20 based on the arrangement angle and shape data of the projected object, etc.
  • the incident characteristics of the light and the illumination light are calculated for each angle of incidence.
  • the emission characteristics of the emitted light at the pixel position are calculated for each incident angle.
  • the solid angle collected at the observation position is calculated, and of the emitted light at the pixel position, the light of the emitted light collected at the observation position The components are calculated.
  • the light components of the outgoing light collected at the observation position are calculated.
  • the light component of the emitted light condensed at the observation position from the pixel position on the surface of the projection object seen from the observation position is converted into a value when measured by the emitted light measurement unit 36.
  • converted light components are calculated for each virtual projected object and virtual observation position where the arrangement angles are different.
  • the value of the converted light component and the emission characteristic of the emitted light for each arrangement angle of each of the projected objects, which has already been stored, are compared, and the same among the plurality of projected objects is identical.
  • a projection object capable of reproducing the optical characteristics of the target texture at the arrangement angle is selected as the selected projection object.
  • the selected projection object is placed on the stage of the multi-axis rotation stage unit, the arrangement angle of the stage is changed by the arrangement angle control unit 22, and the arrangement angle of the selected projection object is set to a predetermined arrangement angle. Be done.
  • the surface angle acquisition unit 28 selects data from the arrangement angle and shape of the selected projection object with respect to the origin coordinates (0, 0, 0) in the three-dimensional space of the stage of the multi-axis rotation stage unit Surface angles and coordinates at each pixel position on the surface of the projection object are obtained.
  • the coordinates of the observation position are determined in advance according to the coordinates of each pixel position on the surface of the selected projection object set at the predetermined arrangement angle when the selected projection object is set to the predetermined arrangement angle. Coordinates are used.
  • the arrangement angle of the selected projection object is changed, the coordinates of each pixel position on the surface of the selected projection object are measured by the surface angle measurement unit 26, and the measured on the surface of the selected projection object
  • the coordinates of the observation position are determined according to the coordinates of each pixel position of. Thereby, the positional relationship between each pixel position on the surface of the projection object and the observation position is determined.
  • the light component of the emitted light corresponding to the case where the target position of the surface of the selected projection object is viewed from the observation position is calculated. .
  • incident light to that pixel position For example, for each pixel position on the surface of the selected projection object that can be seen from the observation position by the target optical characteristic calculation unit 32 based on the arrangement angle and shape data of the selected projection object, incident light to that pixel position
  • the incident characteristics of (ambient light and illumination light) are calculated for each incident angle.
  • the emission characteristics of the emitted light at that pixel position are each incident angle Calculated every time.
  • the solid angle collected at the observation position is calculated, and of the emitted light at the pixel position, the light of the emitted light collected at the observation position.
  • the component, that is, the emission characteristics of the target emitted light are calculated.
  • the light components of the outgoing light collected at the observation position are calculated.
  • the light component of the emitted light condensed from the pixel position on the surface of the selected projection object visible from the observation position to the observation position is converted into a value when measured by the emitted light measurement unit 36.
  • the incident light determined to have the optimal incident characteristics is projected onto the surface of the selected projection object by the projection unit 30, and the optical characteristics of the target texture are reproduced on the surface of the selected projection object.
  • the texture reproducing apparatus 10 it is possible to set the optical characteristics of the target texture and reproduce the optical characteristics of the target texture on the surface of the selected projection object without making a sample on a trial basis. Also, the optical characteristics of the reproduced target texture can be observed to evaluate its reproducibility. Therefore, by changing the optical characteristics of the target texture according to the evaluation result of the reproducibility and repeating the reproduction of the optical characteristics of the target texture, it is possible to make the optical characteristics of the target texture better and at the same time the target texture is Optical characteristics can be accurately reproduced.
  • the optical characteristic setting unit 12 for example, the optical characteristic setting unit 12, the projection object selection unit 20, the arrangement angle control unit 22, the surface angle acquisition unit 28, the target optical characteristic calculation unit 32, the projection control unit 34, the texture evaluation unit 38, etc.
  • the hardware configuration of the processing unit (Processing Unit) that executes the various types of processing may be dedicated hardware or various processors or computers that execute programs.
  • circuit configuration after manufacturing a central processing unit (CPU) or a field programmable gate array (FPGA) that is a general-purpose processor that executes software (program) and functions as various processing units for various processors.
  • Logic circuit Programmable Logic Device: PLD
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be configured by one of these various processors, or a combination of two or more processors of the same or different types, for example, a combination of multiple FPGAs, or a combination of FPGA and CPU You may comprise by etc. Further, the plurality of processing units may be configured by one of various processors, or two or more of the plurality of processing units may be configured together using one processor.
  • processors are configured by a combination of one or more CPUs and software, and this processor functions as a plurality of processing units.
  • SoC system on chip
  • IC Integrated Circuit
  • circuitry an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the method of the present invention can be implemented by, for example, a program for causing a computer to execute the respective steps. It is also possible to provide a computer readable recording medium in which the program is recorded.
  • Texture Reproduction Device 12
  • Optical Property Setting Unit 16
  • Optical Property Measurement Unit 18 Projected Object Storage Unit 20
  • Projected Object Selection Unit 22
  • Arrangement Angle Control Unit 24
  • Arrangement Angle Change Unit 26
  • Plane Angle Measurement Unit 28
  • Plane Angle Acquisition Unit 30
  • Projection Unit 32
  • Target optical characteristic calculation unit 34
  • Projection control unit 36
  • Emitted light measurement unit 38

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

質感再現装置は、目標質感の光学特性を設定し、選択被投射物体の表面の注目位置を含む、各画素位置における面角度、仮想光源となる投射部からの入射光の入射特性、目標質感の光学特性および選択被投射物体の表面の光学特性に基づいて、目標出射光の出射特性を算出する。出射光の出射特性が目標出射光の出射特性となるように、投射部からの入射光の入射特性を制御し、投射部から、注目位置を含む選択被投射物体の表面に、入射特性が制御された入射光を投射することにより、注目位置を含む選択被投射物体の表面に目標質感の光学特性を再現する。

Description

質感再現装置、質感再現方法、プログラムおよび記録媒体
 本発明は、目標とする表面の質感(目標質感)の光学特性を再現する質感再現装置、質感再現方法、プログラムおよび記録媒体に関する。
 従来、目標質感の光学特性が得られるように、製品のサンプルを試作してサンプル表面の質感を評価するか、あるいは、類似サンプルから商品表面の質感を想像していた。しかし、この手法では、サンプル表面の質感の良し悪しを評価して目標質感の光学特性が得られていない場合、サンプルの試作および評価を繰り返し行う必要があるため、目標質感の光学特性の設定および再現が容易ではないという問題があった。
 ここで、本発明に関連性のある先行技術文献として、特許文献1および2がある。
 特許文献1は、プレビュー画像の表示を制御する表示処理装置であって、実空間における表示環境の背景画像、表示環境に設置された照明の第1照明画像、表示環境における光属性を示す光源情報、原稿データ、及び画像形成対象の記録媒体の質感情報を取得し、質感情報に応じて予め定められた補正情報に基づいて第1照明画像を補正した第2照明画像を生成し、背景画像と、原稿データの表示された原稿面に第2照明画像を環境マッピングすると共に光源情報によって特定される光属性の設定された原稿表示面と、を重ねた画像を、原稿データの印刷結果を推定したプレビュー画像として表示部に表示する。
 特許文献2は、見本物体の質感を、見本物体とは反射特性の異なる模擬物体上に再現する質感再現システムであって、見本物体の反射特性に基づいて、所定の観察位置における見本物体の輝度画像を演算し、模擬物体の反射特性に基づいて、所定の観察位置における模擬物体の輝度画像を演算し、見本物体の輝度画像と模擬物体の輝度画像との差分を演算し、差分に基づいて、この差分がなくなるような投影用輝度画像を演算し、見本物体および/または模擬物体に投影用輝度画像を投影する。
特開2014-095965号公報 特開2006-139726号公報
 特許文献1の表示処理装置は、実空間の表示環境を反映させたプレビュー画像を提供することができる。また、特許文献2の質感再現システムは、見本物体の質感を、見本物体とは反射特性の異なる模擬物体上にリアルに再現することができる。しかし、特許文献1および2は、実空間の表示環境および見本物体が必要であって、目標質感の光学特性を設定することも、設定された目標質感の光学特性を被投射物体の表面上に再現することもできない。
 本発明の目的は、目標質感の光学特性を設定し、設定された目標質感の光学特性を被投射物体の表面上に再現することができる質感再現装置、質感再現方法、プログラムおよび記録媒体を提供することにある。
 上記目的を達成するために、本発明は、目標とする表面の質感である目標質感の光学特性を設定する光学特性設定部と、
 それぞれ異なる複数の被投射物体の中から目標質感の光学特性を再現するために使用する1つの被投射物体を選択被投射物体として選択する被投射物体選択部と、
 観察位置から選択被投射物体の表面の注目位置を観察する際の観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度を取得する面角度取得部と、
 注目位置を含む選択被投射物体の表面に、入射光をあらかじめ設定された方向から投射する少なくとも1つの投射部と、
 注目位置を含む、各画素位置における面角度、選択被投射物体の表面に目標質感の光学特性を再現する際の環境光を再現する仮想光源となる少なくとも1つの投射部からの入射光の入射特性、目標質感の光学特性、および、選択被投射物体の表面の光学特性に基づいて、注目位置から観察位置への目標出射光の出射特性を算出する目標光学特性算出部と、
 注目位置から観察位置への出射光の出射特性が目標出射光の出射特性となるように、少なくとも1つの投射部から注目位置を含む選択被投射物体の表面への入射光の入射特性を制御する投射制御部とを備え、
 少なくとも1つの投射部は、注目位置を含む選択被投射物体の表面に、入射特性が制御された入射光を投射することにより、注目位置を含む選択被投射物体の表面に目標質感の光学特性を再現する質感再現装置を提供する。
 ここで、目標質感の光学特性は、反射特性として、被投射物体の表面への入射光の入射特性に対する、被投射物体の表面からの出射光の出射特性を含み、
 被投射物体の表面への入射光の入射特性は、被投射物体の表面への入射光の入射角、光強度および分光特性を含み、被投射物体の表面からの出射光の出射特性は、被投射物体の表面からの出射光の出射角、光強度および分光特性を含むことが好ましい。
 また、反射特性は、BRDFまたはBSSRDFによって表される反射特性であることが好ましい。
 また、目標質感の光学特性は、さらに、被投射物体の表面の光学特性のばらつきを表すゆらぎ情報を含み、
 目標光学特性算出部は、ゆらぎ情報に基づいて目標質感の光学特性を変更し、注目位置を含む、各画素位置における面角度、仮想光源となる少なくとも1つの投射部からの入射光の入射特性、変更された目標質感の光学特性、および、選択被投射物体の表面の光学特性に基づいて目標出射光の出射特性を算出することが好ましい。
 さらに、複数の被投射物体のデータを記憶する被投射物体記憶部を備え、
 被投射物体選択部は、被投射物体記憶部に記憶された複数の被投射物体のデータに対応する複数の被投射物体の中から1つの被投射物体を選択することが好ましい。
 また、被投射物体記憶部は、複数の被投射物体のデータとして、形状、材質、大きさ、表面の状態、表面の色および表面の光学特性のうちの少なくとも1つが異なるデータを記憶し、
 被投射物体選択部は、被投射物体の形状、材質、大きさ、表面の状態、表面の色および表面の光学特性のうちの少なくとも1つに基づいて1つの被投射物体を選択することが好ましい。
 さらに、複数の被投射物体の光学特性を測定する光学特性測定部を備え、
 被投射物体記憶部は、複数の被投射物体のデータの一部として、光学特性測定部によって測定された複数の被投射物体の光学特性を記憶することが好ましい。
 また、光学特性測定部は、被投射物体の表面の任意の1点における光学特性を測定し、1点の光学特性を被投射物体の全ての表面の光学特性として使用することが好ましい。
 また、光学特性測定部は、被投射物体の表面を一定の大きさの複数の領域に分割し、複数の領域の各々の光学特性を測定することが好ましい。
 さらに、観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度を測定する面角度測定部を備え、
 面角度取得部は、面角度測定部によって測定された面角度を取得することが好ましい。
 また、面角度取得部は、選択被投射物体の形状のデータおよび配置角度に基づいて、観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度を計算することにより取得することが好ましい。
 さらに、選択被投射物体の配置角度の変更を制御する配置角度制御部と、配置角度制御部の制御により、選択被投射物体の配置角度を変更する配置角度変更部とを備え、
 面角度取得部は、観察方向に対する、配置角度が変更された選択被投射物体の表面の注目位置を含む、各画素位置における面角度を取得することが好ましい。
 さらに、注目位置を含む選択被投射物体の表面からの出射光の出射特性を測定する出射光測定部と、
 出射光測定部によって測定された出射光の出射特性に基づいて、目標質感の光学特性の再現性を評価する質感評価部とを備えることが好ましい。
 また、本発明は、光学特性設定部が、目標とする表面の質感である目標質感の光学特性を設定するステップと、
 被投射物体選択部が、それぞれ異なる複数の被投射物体の中から目標質感の光学特性を再現するために使用する1つの被投射物体を選択被投射物体として選択するステップと、
 面角度取得部が、観察位置から選択被投射物体の表面の注目位置を観察する際の観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度を取得するステップと、
 目標光学特性算出部が、注目位置を含む、各画素位置における面角度、選択被投射物体の表面に目標質感の光学特性を再現する際の環境光を再現する仮想光源となる少なくとも1つの投射部からの入射光の入射特性、目標質感の光学特性、および、選択被投射物体の表面の光学特性に基づいて、注目位置から観察位置への目標出射光の出射特性を算出するステップと、
 投射制御部が、注目位置から観察位置への出射光の出射特性が目標出射光の出射特性となるように、少なくとも1つの投射部から注目位置を含む選択被投射物体の表面への入射光の入射特性を制御するステップと、
 少なくとも1つの投射部が、入射特性が制御された入射光をあらかじめ設定された方向から投射することにより、注目位置を含む選択被投射物体の表面に目標質感の光学特性を再現するステップとを含む質感再現方法を提供する。
 また、本発明は、上記の質感再現方法の各々のステップをコンピュータに実行させるためのプログラムを提供する。
 また、本発明は、上記の質感再現方法の各々のステップをコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供する。
 また、本発明は、プロセッサと、少なくとも1つの投射部とを備え、
 プロセッサは、
 目標とする表面の質感である目標質感の光学特性を設定し、
 それぞれ異なる複数の被投射物体の中から目標質感の光学特性を再現するための1つの被投射物体を選択被投射物体として選択し、
 観察位置から選択被投射物体の表面の注目位置を観察する際の観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度を取得し、
 注目位置を含む、各画素位置における面角度、選択被投射物体の表面に目標質感の光学特性を再現する際の環境光を再現する仮想光源となる少なくとも1つの投射部からの入射光の入射特性、目標質感の光学特性、および、選択被投射物体の表面の光学特性に基づいて、注目位置から観察位置への目標出射光の出射特性を算出し、
 注目位置から観察位置への出射光の出射特性が目標出射光の出射特性となるように、少なくとも1つの投射部から注目位置を含む選択被投射物体の表面への入射光の入射特性を制御し、
 少なくとも1つの投射部は、注目位置を含む選択被投射物体の表面に、入射特性が制御された入射光を投射することにより、注目位置を含む選択被投射物体の表面に目標質感の光学特性を再現する質感再現装置を提供する。
 本発明によれば、サンプルを試作することなく、目標質感の光学特性を設定し、選択被投射物体の表面に目標質感の光学特性を再現することができる。また、再現された目標質感の光学特性を観察して、その再現性を評価することができる。従って、再現性の評価結果に応じて目標質感の光学特性を変更し、目標質感の光学特性の再現を繰り返すことにより、目標質感の光学特性をより良いものにすることができ、かつ目標質感の光学特性を精度よく再現することができる。
本発明の質感再現装置の構成を表す一実施形態のブロック図である。 目標質感の光学特性として、反射特性を表す概念図である。 BRDFによって表される反射特性を表す概念図である。 選択被投射物体の表面上の注目位置の座標を表す概念図である。 2つの投射部からの入射光に対応する出射光のうち、観察方向に対応する出射光を表す概念図である。 質感再現装置の動作を表すフローチャートである。 被投射物体の出射光の出射特性を測定する様子を表す概念図である。 仮想的な観察位置から仮想的な被投射物体の表面の注目位置が目視された場合の様子を表す概念図である。
 以下に、添付の図面に示す好適実施形態に基づいて、本発明の質感再現装置、質感再現方法、プログラムおよび記録媒体を詳細に説明する。
 図1は、本発明の質感再現装置の構成を表す一実施形態のブロック図である。図1に示す質感再現装置10は、被投射物体の表面に目標質感の光学特性を再現するものであり、光学特性設定部12と、光学特性測定部16と、被投射物体記憶部18と、被投射物体選択部20と、配置角度制御部22と、配置角度変更部24と、面角度測定部26と、面角度取得部28と、投射部30と、目標光学特性算出部32と、投射制御部34と、出射光測定部36と、質感評価部38とを備えている。
 質感再現装置10において、光学特性設定部12は、後述する仮想光源からの入射光(環境光)の入射特性、投射部30からの入射光(照明光)の入射特性、および、目標とする表面の質感(観察者の視覚的な質感)である目標質感の光学特性を設定する。
 光学特性設定部12には、例えば、環境光の入射特性、照明光の入射特性および目標質感の光学特性のデータが質感再現装置10の外部から入力される。光学特性設定部12は、環境光の入射特性および照明光の入射特性のデータに基づいて、環境光の入射特性および照明光の入射特性を設定し、目標質感の光学特性のデータに基づいて、目標質感の光学特性を設定する。
 質感再現装置10のオペレータは、環境光の入射特性、照明光の入射特性および目標質感の光学特性を任意の方法によって設定することができ、例えば光学特性設定部12に直接入力して設定することもできる。
 環境光の入射特性は、例えば、被投射物体の表面への光強度および分光特性等を含み、照明光の入射特性は、被投射物体の表面への入射角、光強度および分光特性等を含む。
 目標質感の光学特性は、例えば反射特性として、図2に示すように、被投射物体の表面への入射光(環境光および照明光)の入射特性に対する、被投射物体の表面からの出射光(反射光)の出射特性を含む。環境光は方向性が無く、全方向から入射する光であり、照明光は、蛍光灯およびスポットライトのように指向性を持つ光である。また、目標質感の光学特性として、例えば被投射物体の吸収率、散乱率、屈折率、異方性因子等の各種の光学特性値を含む、任意の光学パラメータを使用することが可能である。
 被投射物体は、その表面に目標質感の光学特性が再現されるスクリーンの役割を果たす。被投射物体としては、例えば黒ガラス、拡散板(硫酸バリウム)、表面粗さを変更した材料等を含む、各種材質のものが利用可能である。表面粗さの指標は、特に限定されず、例えば算術平均粗さRa、最大高さRzおよび十点平均粗さRZJIS等がいずれも利用できる。また、被投射物体の色も特に限定されないが、例えば無彩色(白、灰色、黒)であるのが好ましい。
 被投射物体の表面への入射光の入射特性は、被投射物体の表面への入射光の入射角(広がり、面積を含む)、光強度(放射輝度)および分光特性(分光スペクトル)等を含み、被投射物体の表面からの出射光の出射特性は、被投射物体の表面からの出射光の出射角、光強度および分光特性等を含む。入射光および出射光の光強度は、例えば、入射光および出射光がRGB(赤緑青)の各色を含む光の場合にはRGBの各色の光強度であり、入射光および出射光が分光の場合には、分光の光強度である。また、分光特性は、分光反射率等を含む。
 反射特性としては、図3に示すように、光の反射モデルの1つであるBRDF(Bidirectional Reflectance Distribution Function:双方向反射率分布関数)によって表される、入射光に対する出射光の反射特性を使用することができる。また、BSSRDF(Bidirectional Scattering Surface Reflectance Distribution Function:双方向散乱面反射率分布関数)によって表される反射特性、および、他の反射特性を使用してもよい。
 また、目標質感の光学特性は、被投射物体の表面の光学特性のばらつき(面内分布)を表すゆらぎ情報を含んでいてもよい。被投射物体の表面の光学特性は均一であることが望ましいが、位置に応じてばらつく場合がある。ゆらぎ情報は、例えば、被投射物体の表面を一定の大きさの複数の領域に分割した場合に、分割された複数の領域の各々の光学特性のばらつきを表す。
 続いて、光学特性測定部16は、それぞれ異なる複数の被投射物体の光学特性(反射特性)を測定する。
 光学特性測定部16は、光学特性の測定器であり、複数の被投射物体の各々について、例えば、被投射物体の配置角度を変更して、光源から被投射物体の表面に入射光を投射し、被投射物体の表面からの出射光(反射光)を検出器で検出することにより、被投射物体の光学特性を測定する。なお、配置角度の変更手段、光源および検出器として、それぞれ、配置角度制御部22と配置角度変更部24の組み合わせ、投射部30および出射光測定部36を利用することもできる。
 光学特性測定部16は、被投射物体の光学特性が均一な場合には、例えば、被投射物体の表面の任意の1点における光学特性を測定し、測定された1点における光学特性を被投射物体の全ての表面の光学特性として使用することができる。また、被投射物体の光学特性が位置に応じてばらついている場合には、例えば、被投射物体の表面を一定の大きさの複数の領域に分割し、分割された複数の領域の各々の光学特性を測定してもよいし、前述のゆらぎ情報を使用してもよい。
 続いて、被投射物体記憶部18は、それぞれ異なる複数の被投射物体のデータを記憶する。
 被投射物体記憶部18は、複数の被投射物体のデータとして、例えば、形状、材質、大きさ、表面の状態(表面粗さ)、表面の色および表面の光学特性等のうちの少なくとも1つが異なるデータを記憶する。例えば、被投射物体記憶部18は、複数の被投射物体のデータの一部として、光学特性測定部16によって測定された被投射物体の表面の光学特性等のデータを記憶する。
 被投射物体記憶部18としては、例えば、半導体メモリ、ハードディスク(HD)、コンパクトディスク(CD)、ディーブイディーディスク(DVD)、ブルーレイディスク(Blu-ray(登録商標) Disc)等の各種の記録媒体を使用することができる。また、半導体メモリとしては、例えば、USB(Universal Serial Bus)メモリ、SD(Secure Digital)メモリ、SSD(Solid State Drive)等を使用することができる。
 光学特性測定部16および被投射物体記憶部18を備えることは必須ではなく、例えば、既存の複数の被投射物体のデータ、または、複数の被投射物体の光学特性を測定したデータがある場合には、これらのデータを利用してもよい。
 続いて、被投射物体選択部20は、それぞれ異なる複数の被投射物体の中から目標質感の光学特性を再現するために使用する1つの被投射物体を選択被投射物体として選択する。
 被投射物体選択部20は、本実施形態の場合、被投射物体記憶部18に記憶された複数の被投射物体のデータに対応する複数の被投射物体の中から、目標質感の光学特性を最もよく再現することができる1つの被投射物体を選択する。つまり、被投射物体の形状、材質、大きさ、表面の状態(表面粗さ)、表面の色および表面の光学特性等のうちの少なくとも1つに基づいて、複数の被投射物体の中から1つの被投射物体を選択する。
 例えば、漆器の表面を再現する場合、漆には、黒い漆および赤い漆等の色の違いがあるため、被投射物体選択部20は、黒い漆の表面を再現する場合には表面の色が黒い被投射物体を選択し、赤い漆の表面を再現する場合には表面の色が赤い被投射物体を選択する。また、金属表面を再現する場合には高い反射強度が要求されるため、被投射物体選択部20は、表面の反射強度が高い被投射物体を選択する。
 被投射物体記憶部18に記憶された複数の被投射物体のデータを使用することは必須ではない。例えば、既存の複数の被投射物体のデータを被投射物体選択部20の内部に格納しておき、内部の複数の被投射物体のデータを使用してもよい。
 続いて、配置角度制御部22は、選択被投射物体の配置角度の変更を制御する。
 また、配置角度変更部24は、配置角度制御部22の制御により、選択被投射物体の配置角度を変更する。
 配置角度変更部24は、本実施形態の場合、被投射物体が載置されるステージの配置角度を変更可能な多軸回転ステージユニットである。配置角度変更部24としては、ステージの配置角度を変更可能な各種のステージユニットを使用することができる。
 配置角度制御部22は、本実施形態の場合、選択被投射物体がステージ上に載置された多軸回転ステージユニットのそれぞれの軸の回転角度を制御することにより、ステージの配置角度を変更して選択被投射物体の配置角度の変更を制御する。オペレータは、配置角度制御部22を操作し、例えば、配置角度に応じて見え方が変わるような被投射物体に対して選択被投射物体の配置角度を任意に変更することができる。
 配置角度制御部22および配置角度変更部24を備えることは必須ではない。例えば、選択被投射物体の配置角度を固定してもよいし、オペレータが選択被投射物体を手で持って、その配置角度を変更してもよい。
 続いて、面角度測定部26は、観察位置から選択被投射物体の表面の注目位置を観察する際の観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度を測定する。
 注目位置は、観察位置から観察される被選択投射物体の表面上の1つの画素位置であり、多軸回転ステージユニットのステージの3次元空間内の原点座標(0,0,0)に対して、図4に示すように、座標P(x,y,z)で表される。観察位置は、注目位置を観察する際の位置であり、例えば、観察者の目の位置、あるいは、出射光測定部36の配置位置である。観察者は、注目位置の座標P(x,y,z)を中心とする被投射物体の表面を観察することによって目標質感の光学特性の再現性を評価する。
 面角度測定部26は、面角度を測定する3次元測定器であり、例えば、選択被投射物体の表面の複数の微小領域の各々の面角度を測定することにより、選択被投射物体の表面の注目位置の座標P(x,y,z)を含む、各画素位置における面角度を測定する。
 続いて、面角度取得部28は、観察位置から選択被投射物体の表面の注目位置を観察する際の観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度および座標を取得する。また、選択被投射物体の配置角度が変更された場合には、観察方向に対する、配置角度が変更された選択被投射物体の表面の注目位置を含む、各画素位置における面角度および座標を取得する。
 面角度取得部28は、例えば、面角度測定部26によって測定された面角度を取得する。面角度取得部28が、面角度測定部26によって測定された面角度を取得することは必須ではなく、選択被投射物体の配置角度および形状のデータ(縦横高さの3次元のデータ)等に基づいて、複数の領域の各々の面角度および座標を計算することにより、観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度および座標を取得することもできる。
 選択被投射物体の配置角度が固定の場合、面角度取得部28は、例えば、選択被投射物体の配置角度および形状のデータ等に基づいて、複数の領域の各々の面角度および座標を計算することにより、選択被投射物体の表面の注目位置を含む、各画素位置における面角度および座標を取得することができる。また、オペレータが選択被投射物体を手で持って配置角度を変更する場合、面角度取得部28は、例えば、面角度測定部26によって測定された面角度を取得することができる。
 観察位置から選択被投射物体の表面の注目位置を観察する場合、観察位置と注目位置との距離に応じて、観察位置を錐体の頂点として一定の立体角で広がる範囲内に含まれる選択被投射物体の表面が観察される。選択被投射物体の表面における好ましい表示解像度は、観察位置と注目位置との距離に応じて変化するが、例えば、観察位置と注目位置との距離が30cmの場合に600dpi程度であることが好ましい。
 続いて、投射部30は、注目位置を含む選択被投射物体の表面に、入射光(照明光)をあらかじめ設定された方向から投射する。
 キャリブレーションを行って、多軸回転ステージユニット、つまり、選択被投射物体の配置位置に対する投射部30の配置位置を決定しておくことにより、投射部30は、選択被投射物体との位置関係に応じて、注目位置を含む選択被投射物体の表面に、入射光をあらかじめ設定された方向から投射することができる。投射部30は、入射光として、RGBの各色を一定の割合で含む光を投射してもよいし、特定のスペクトルの分光を投射してもよい。
 投射部30は、例えば、面光源であり、選択被投射物体の表面に入射光を投射するプロジェクタ等である。投射部30の投射面は平面でもよいし、被投射物体の形状に応じて一定の曲率を持つ曲面としてもよい。
 質感再現装置10は、少なくとも1つの投射部30を備えていればよいが、2以上の投射部30を備えていることが好ましい。1つの投射部30のみを使用して目標質感の光学特性を再現することは可能であるが、2以上の投射部30を同時に使用して目標質感の光学特性を再現することにより、より精度よく目標質感の光学特性を再現することが可能になる。
 複数の投射部30を備える場合、例えば、多軸回転ステージユニット、つまり、選択被投射物体の配置位置を中心とする一定半径の円の円周上に均等な間隔で配置するのが好ましい。
 続いて、目標光学特性算出部32は、観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度、仮想光源となる少なくとも1つの投射部30からの入射光の入射特性、目標質感の光学特性、および、選択被投射物体の表面の光学特性等に基づいて、目標質感の光学特性が選択被投射物体の表面に再現されるように、選択被投射物体の表面の注目位置から観察位置への目標出射光の出射特性を算出する。
 仮想光源は、目標出射光の出射特性を算出する際の仮想的な光源であり、目標質感の光学特性を選択被投射物体の表面に再現する際の環境光を再現する。仮想光源は、上記のように、例えば投射部30によって実現することができる。仮想光源からの入射光の入射特性は、仮想光源の数、仮想光源の位置、選択被投射物体の表面の注目位置への入射光(環境光)の光強度(放射輝度)および分光特性(分光スペクトル)等を含む。目標出射光の出射特性は、選択被投射物体の表面の注目位置から観察位置への出射光の光強度および分光特性等を含む。
 目標質感の光学特性がゆらぎ情報を含む場合、目標光学特性算出部32は、ゆらぎ情報、つまり、被投射物体の表面の光学特性のばらつきに基づいて目標質感の光学特性を変更し、観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度、仮想光源となる少なくとも1つの投射部30からの入射光の入射特性、変更された目標質感の光学特性、および、選択被投射物体の表面の光学特性等に基づいて目標出射光の出射特性を算出する。
 続いて、投射制御部34は、選択被投射物体の表面の注目位置から観察位置への出射光の出射特性が目標出射光の出射特性となるように、少なくとも1つの投射部30から注目位置を含む選択被投射物体の表面への入射光の入射特性を制御する。
 入射光の入射特性は、注目位置を含む選択被投射物体の表面への入射光の入射角、光強度および分光特性等を含む。入射光の入射角は、投射部30と選択被投射物体との位置関係に応じてあらかじめ設定された入射光の投射の方向によって決定される。投射制御部34は、少なくとも1つの投射部30のうちの1つの投射部30だけを使用するように制御してもよいし、2以上の投射部30を同時に使用するように制御してもよい。
 続いて、出射光測定部36は、注目位置を含む選択被投射物体の表面からの出射光の出射特性を測定する。
 出射光測定部36は、例えば、注目位置を含む選択被投射物体の表面における分光の輝度を2次元的に計測する2次元分光輝度計、あるいは、XYZフィルタを持つカメラおよびRGBカメラのように、注目位置を含む選択被投射物体の表面を2次元的に撮影するカメラ等である。出射光の出射特性は、選択被投射物体の表面の注目位置からの出射光の出射角、光強度および分光特性等を含む。
 図5に示すように、例えば、2つの投射部30から注目位置を含む選択被投射物体の表面に、入射光aおよびbがそれぞれ入射角aおよびbで投射された場合を考える。この場合、注目位置を含む選択被投射物体の表面からの入射光aおよびbに対応する出射光(反射光)のうち、観察方向に対応する出射角(測定角)の出射光(測定光)を含む一定の範囲内の出射光の出射特性が出射光測定部36によって測定される。
 続いて、質感評価部38は、出射光測定部36によって測定された出射光の出射特性等に基づいて、目標質感の光学特性の再現性を評価する。
 質感評価部38は、例えば、目標質感の光学特性が再現されている、または、再現されていないと評価したり、出射光の光強度が強すぎる、ちょうどよい、弱すぎると評価したりすることができる。オペレータは、質感評価部38の評価結果に応じて目標質感の光学特性を変更し、目標質感の光学特性の再現を繰り返してもよい。例えば、出射光の光強度が強すぎると評価された場合には、目標質感の光学特性として、例えば、入射光の光強度を弱める。
 質感再現装置10において、出射光測定部36および質感評価部を備えることは必須ではない。例えば、目標質感の光学特性が再現された選択被投射物体の表面を観察者が観察して、目標質感の光学特性の再現性を評価し、目標質感の光学特性を変更してもよい。一方、目標質感の光学特性が再現された選択被投射物体の表面の光学特性を測定して記録したい場合などには、出射光測定部36および質感評価部を備えることが好ましい。
 次に、図6に示すフローチャートを参照して質感再現装置10の動作を説明する。
 まず、被投射物体の表面に目標質感の光学特性を再現する前に、光学特性測定部16により、それぞれ異なる複数の被投射物体の光学特性が測定され、測定された被投射物体の光学特性を含む、複数の被投射物体のデータが被投射物体記憶部18に記憶される(ステップS1)。
 続いて、光学特性設定部12により、仮想光源からの入射光(環境光)および投射部30からの入射光(照明光)の入射特性が設定される(ステップS2)。また、目標質感の光学特性が設定される(ステップS3)。
 続いて、被投射物体選択部20により、被投射物体記憶部18に記憶された複数の被投射物体のデータに対応する複数の被投射物体の中から目標質感の光学特性を再現するための1つの被投射物体が選択被投射物体として選択される(スッテプS4)。
 続いて、配置角度制御部22により、選択被投射物体の配置角度の変更が制御され、これに応じて、配置角度変更部24により、選択被投射物体の配置角度が変更される(ステップS5)。
 続いて、面角度測定部26により、観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度が測定され、面角度取得部28により、面角度測定部26によって測定された面角度が取得される(ステップS6)。
 続いて、目標光学特性算出部32により、観察方向に対する、選択被投射物体の表面の注目位置を含む、各画素位置における面角度、仮想光源となる少なくとも1つの投射部30からの入射光の入射特性、目標質感の光学特性、および、選択被投射物体の表面の光学特性等に基づいて、目標質感の光学特性が選択被投射物体の表面に再現されるように、選択被投射物体の表面の注目位置から観察位置への目標出射光の出射特性が算出される(ステップS7)。
 続いて、投射制御部34により、選択被投射物体の注目位置の表面から観察位置への出射光の出射特性が目標出射光の出射特性となるように、少なくとも1つの投射部30から注目位置を含む選択被投射物体の表面への入射光の入射特性が制御される(ステップS8)。
 続いて、少なくとも1つの投射部30により、注目位置を含む選択被投射物体の表面に、投射制御部34によって入射特性が制御された入射光があらかじめ設定された方向から投射される。これにより、注目位置を含む選択被投射物体の表面に目標質感の光学特性が再現される(ステップS9)。
 続いて、出射光測定部36により、選択被投射物体の表面の注目位置からの出射光の出射特性が測定され、質感評価部38により、出射光測定部36によって測定された出射光の出射特性等に基づいて、目標質感の光学特性の再現性が評価される(ステップS10)。
 次に、目標質感の光学特性を設定する手順について一例を挙げて説明する。
 光学特性設定部12により、例えば、目標質感の光学特性のうちの反射特性として、BRDFまたはBSSRDF等によって表される、目標となる拡散光成分および正反射成分の強さが設定される。また、分光特性として、目標となる分光反射率が設定される。ゆらぎ情報が必要な場合、目標となる表面の光学特性のばらつきが、BRDFまたはBSSRDFによって表される拡散光成分および正反射成分と、分光反射率との2つについて各々設定される。
 目標質感の光学特性は、例えば、オペレータが、目標質感の光学特性を設定するためのユーザインタフェイスを使って直接記述したり、典型的な複数の事例の中から選択したりして設定することができる。
 次に、複数の被投射物体の中から1つの被投射物体を選択被投射物体として選択する手順について一例を挙げて説明する。
 この例では、光学特性測定部16の配置角度の変更手段、光源および検出器として、それぞれ、配置角度制御部22と配置角度変更部24の組み合わせ、投射部30および出射光測定部36が使用されるとする。
 まず、図7に示すように、選択被投射物体の候補となる1つの被投射物体が配置角度変更部24となる多軸回転ステージユニットのステージ上に載置され、配置角度制御部22によりステージの配置角度が変更されて被投射物体の配置角度が、ある配置角度に設定される。
 続いて、投射制御部34の制御により、光学特性設定部12によって設定された入射特性の入射光が投射部30から被投射物体の表面に投射される。これにより、各々の投射部30が、被投射物体の表面において目標質感の光学特性を再現可能な範囲が決定される。2以上の投射部30を備えている場合には、各々の投射部30を独立に制御してもよいし、複数の投射部30を組み合わせて制御してもよい。
 続いて、観察位置に配置された出射光測定部36により、ある配置角度に設定された被投射物体の表面からの出射光の出射特性が測定される。出射光測定部36は、被投射物体の表面からの出射光の出射特性を2次元的に測定することができるため、各々の投射部30が目標質感の光学特性を再現可能な範囲に含まれる全画素位置からの出射光の出射特性を同時に取得することが可能である。
 続いて、配置角度制御部22により、ステージの配置角度が変更されて被投射物体の配置角度が変更され、上記動作が繰り返されることにより、各々の配置角度毎に、各々の投射部30が目標質感の光学特性を再現可能な範囲に含まれる全画素位置からの出射光の出射特性が測定されて被投射物体記憶部18に記憶される。また、各々の被投射物体について上記の動作が繰り返されることにより、各々の被投射物体の各々の配置角度毎の出射光の出射特性が測定されて記憶される。
 次に、図8に示すように、配置角度が異なる複数の被投射物体が仮想的に選択され、配置角度が異なる仮想的な各々の被投射物体および仮想的な観察位置について、観察位置から被投射物体の表面の注目位置が目視された場合に相当する出射光の光成分が計算される。
 例えば、被投射物体選択部20により、被投射物体の配置角度および形状のデータ等に基づいて、観察位置から見える被投射物体の表面上の各画素位置について、その画素位置への入射光(環境光および照明光)の入射特性が、各入射角毎に計算される。
 続いて、目標質感の光学特性および入射光の入射特性等に基づいて、その画素位置の出射光の出射特性が、各入射角毎に計算される。
 続いて、その画素位置と観察位置との位置関係に基づいて、観察位置に集光される立体角が計算され、その画素位置の出射光のうち、観察位置に集光される出射光の光成分が計算される。
 上記のようにして、観察位置から見える被投射物体の表面上の全画素位置について、観察位置に集光される出射光の光成分が計算される。
 次に、観察位置から見える被投射物体の表面上の画素位置から観察位置に集光される出射光の光成分が、出射光測定部36によって測定された場合の値に変換される。
 上記のようにして、配置角度が異なる仮想的な各々の被投射物体および仮想的な観察位置について、変換された光成分が計算される。
 続いて、変換された光成分の値と、既に記憶されている、各々の被投射物体の各々の配置角度毎の出射光の出射特性とが比較され、複数の被投射物体の中から、同じ配置角度において目標質感の光学特性を再現可能な被投射物体が選択被投射物体として選択される。
 次に、被投射物体と観察位置との間の位置関係を決定する手順について一例を挙げて説明する。
 まず、選択被投射物体が多軸回転ステージユニットのステージ上に載置され、配置角度制御部22により、ステージの配置角度が変更されて選択被投射物体の配置角度が、所定の配置角度に設定される。
 続いて、面角度取得部28により、多軸回転ステージユニットのステージの3次元空間内の原点座標(0,0,0)に対して、選択被投射物体の配置角度および形状のデータから選択被投射物体の表面上の各画素位置における面角度および座標が取得される。
 観察位置の座標は、選択被投射物体が所定の配置角度に設定された場合には、所定の配置角度に設定された選択被投射物体の表面上の各画素位置の座標に応じて事前に決定された座標が使用される。一方、選択被投射物体の配置角度が変更された場合には、面角度測定部26により選択被投射物体の表面上の各画素位置の座標を測定し、測定された選択被投射物体の表面上の各画素位置の座標に応じて観察位置の座標が決定される。これにより、被投射物体の表面上の各画素位置と観察位置との間の位置関係が決定される。
 次に、目標質感の光学特性を選択被投射物体の表面に再現する手順について一例を挙げて説明する。
 まず、上記のように決定された選択被投射物体の配置角度および観察位置について、観察位置から選択被投射物体の表面の注目位置が目視された場合に相当する出射光の光成分が計算される。
 例えば、目標光学特性算出部32により、選択被投射物体の配置角度および形状のデータ等に基づいて、観察位置から見える選択被投射物体の表面上の各画素位置について、その画素位置への入射光(環境光および照明光)の入射特性が、各入射角毎に計算される。
 続いて、各画素位置における面角度、入射光の入射特性、目標質感の光学特性および選択被投射物体の表面の光学特性等に基づいて、その画素位置の出射光の出射特性が、各入射角毎に計算される。
 続いて、その画素位置と観察位置との位置関係に基づいて、観察位置に集光される立体角が計算され、その画素位置の出射光のうち、観察位置に集光される出射光の光成分、つまり、目標出射光の出射特性が計算される。
 上記のようにして、観察位置から見える選択被投射物体の表面上の全画素位置について、観察位置に集光される出射光の光成分が計算される。
 次に、観察位置から見える選択被投射物体の表面上の画素位置から観察位置に集光される出射光の光成分が、出射光測定部36によって測定された場合の値に変換される。
 続いて、投射制御部34により、変換された光成分の値が選択被投射物体の表面の各画素位置毎に再現されるように、既に記憶されている、選択被投射物体の各々の配置角度毎の出射光の出射特性の中から変換された光成分の値に最も近い出射光の出射特性が選択され、選択された出射光の出射特性に対応する、各々の投射部30からの入射光の入射特性の組み合わせを初期値として、各々の投射部30から選択被投射物体の表面への最適な入射光の入射特性の組み合わせが決定される。
 続いて、投射部30により、最適な入射特性に決定された入射光が選択被投射物体の表面に投射され、選択被投射物体の表面に目標質感の光学特性が再現される。
 質感再現装置10においては、サンプルを試作することなく、目標質感の光学特性を設定し、選択被投射物体の表面に目標質感の光学特性を再現することができる。また、再現された目標質感の光学特性を観察して、その再現性を評価することができる。従って、再現性の評価結果に応じて目標質感の光学特性を変更し、目標質感の光学特性の再現を繰り返すことにより、目標質感の光学特性をより良いものにすることができ、かつ目標質感の光学特性を精度よく再現することができる。
 本発明の装置において、例えば、光学特性設定部12、被投射物体選択部20、配置角度制御部22、面角度取得部28、目標光学特性算出部32、投射制御部34および質感評価部38等の各種の処理を実行する処理部(Processing Unit)のハードウェア的な構成は、専用のハードウェアであってもよいし、プログラムを実行する各種のプロセッサまたはコンピュータであってもよい。
 各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理をさせるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部を、これら各種のプロセッサのうちの1つで構成してもよいし、同種または異種の2つ以上のプロセッサの組み合わせ、例えば、複数のFPGAの組み合わせ、または、FPGAおよびCPUの組み合わせ等によって構成してもよい。また、複数の処理部を、各種のプロセッサのうちの1つで構成してもよいし、複数の処理部のうちの2以上をまとめて1つのプロセッサを用いて構成してもよい。
 例えば、サーバおよびクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。また、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。
 さらに、これらの各種のプロセッサのハードウェア的な構成は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(Circuitry)である。
 また、本発明の方法は、例えば、その各々のステップをコンピュータに実行させるためのプログラムにより実施することができる。また、このプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することもできる。
 以上、本発明について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよいのはもちろんである。
 10 質感再現装置
 12 光学特性設定部
 16 光学特性測定部
 18 被投射物体記憶部
 20 被投射物体選択部
 22 配置角度制御部
 24 配置角度変更部
 26 面角度測定部
 28 面角度取得部
 30 投射部
 32 目標光学特性算出部
 34 投射制御部
 36 出射光測定部
 38 質感評価部

Claims (16)

  1.  目標とする表面の質感である目標質感の光学特性を設定する光学特性設定部と、
     それぞれ異なる複数の被投射物体の中から前記目標質感の光学特性を再現するために使用する1つの被投射物体を選択被投射物体として選択する被投射物体選択部と、
     観察位置から前記選択被投射物体の表面の注目位置を観察する際の観察方向に対する、前記選択被投射物体の表面の注目位置を含む、各画素位置における面角度を取得する面角度取得部と、
     前記注目位置を含む前記選択被投射物体の表面に、入射光をあらかじめ設定された方向から投射する少なくとも1つの投射部と、
     前記注目位置を含む、各画素位置における面角度、前記選択被投射物体の表面に前記目標質感の光学特性を再現する際の環境光を再現する仮想光源となる前記少なくとも1つの投射部からの入射光の入射特性、前記目標質感の光学特性、および、前記選択被投射物体の表面の光学特性に基づいて、前記注目位置から前記観察位置への目標出射光の出射特性を算出する目標光学特性算出部と、
     前記注目位置から前記観察位置への出射光の出射特性が前記目標出射光の出射特性となるように、前記少なくとも1つの投射部から前記注目位置を含む前記選択被投射物体の表面への入射光の入射特性を制御する投射制御部とを備え、
     前記少なくとも1つの投射部は、前記注目位置を含む前記選択被投射物体の表面に、前記入射特性が制御された入射光を投射することにより、前記注目位置を含む前記選択被投射物体の表面に前記目標質感の光学特性を再現する質感再現装置。
  2.  前記目標質感の光学特性は、反射特性として、前記被投射物体の表面への入射光の入射特性に対する、前記被投射物体の表面からの出射光の出射特性を含み、
     前記被投射物体の表面への入射光の入射特性は、前記被投射物体の表面への入射光の入射角、光強度および分光特性を含み、前記被投射物体の表面からの出射光の出射特性は、前記被投射物体の表面からの出射光の出射角、光強度および分光特性を含む請求項1に記載の質感再現装置。
  3.  前記反射特性は、BRDFまたはBSSRDFによって表される反射特性である請求項2に記載の質感再現装置。
  4.  前記目標質感の光学特性は、さらに、前記被投射物体の表面の光学特性のばらつきを表すゆらぎ情報を含み、
     前記目標光学特性算出部は、前記ゆらぎ情報に基づいて前記目標質感の光学特性を変更し、前記注目位置を含む、各画素位置における面角度、前記仮想光源となる前記少なくとも1つの投射部からの入射光の入射特性、前記変更された目標質感の光学特性、および、前記選択被投射物体の表面の光学特性に基づいて前記目標出射光の出射特性を算出する請求項1ないし3のいずれか一項に記載の質感再現装置。
  5.  さらに、前記複数の被投射物体のデータを記憶する被投射物体記憶部を備え、
     前記被投射物体選択部は、前記被投射物体記憶部に記憶された複数の被投射物体のデータに対応する複数の被投射物体の中から前記1つの被投射物体を選択する請求項1ないし4のいずれか一項に記載の質感再現装置。
  6.  前記被投射物体記憶部は、前記複数の被投射物体のデータとして、形状、材質、大きさ、表面の状態、表面の色および表面の光学特性のうちの少なくとも1つが異なるデータを記憶し、
     前記被投射物体選択部は、前記被投射物体の形状、材質、大きさ、表面の状態、表面の色および表面の光学特性のうちの少なくとも1つに基づいて前記1つの被投射物体を選択する請求項5に記載の質感再現装置。
  7.  さらに、前記複数の被投射物体の光学特性を測定する光学特性測定部を備え、
     前記被投射物体記憶部は、前記複数の被投射物体のデータの一部として、前記光学特性測定部によって測定された前記複数の被投射物体の光学特性を記憶する請求項5または6に記載の質感再現装置。
  8.  前記光学特性測定部は、前記被投射物体の表面の任意の1点における光学特性を測定し、前記1点の光学特性を前記被投射物体の全ての表面の光学特性として使用する請求項7に記載の質感再現装置。
  9.  前記光学特性測定部は、前記被投射物体の表面を一定の大きさの複数の領域に分割し、前記複数の領域の各々の光学特性を測定する請求項7に記載の質感再現装置。
  10.  さらに、前記観察方向に対する、前記選択被投射物体の表面の注目位置を含む、各画素位置における面角度を測定する面角度測定部を備え、
     前記面角度取得部は、前記面角度測定部によって測定された面角度を取得する請求項1ないし9のいずれか一項に記載の質感再現装置。
  11.  前記面角度取得部は、前記選択被投射物体の形状のデータおよび配置角度に基づいて、前記観察方向に対する、前記選択被投射物体の表面の注目位置を含む、各画素位置における面角度を計算することにより取得する請求項1ないし9のいずれか一項に記載の質感再現装置。
  12.  さらに、前記選択被投射物体の配置角度の変更を制御する配置角度制御部と、前記配置角度制御部の制御により、前記選択被投射物体の配置角度を変更する配置角度変更部とを備え、
     前記面角度取得部は、前記観察方向に対する、前記配置角度が変更された前記選択被投射物体の表面の注目位置を含む、各画素位置における面角度を取得する請求項1ないし11のいずれか一項に記載の質感再現装置。
  13.  さらに、前記注目位置を含む前記選択被投射物体の表面からの出射光の出射特性を測定する出射光測定部と、
     前記出射光測定部によって測定された出射光の出射特性に基づいて、前記目標質感の光学特性の再現性を評価する質感評価部とを備える請求項1ないし12のいずれか一項に記載の質感再現装置。
  14.  光学特性設定部が、目標とする表面の質感である目標質感の光学特性を設定するステップと、
     被投射物体選択部が、それぞれ異なる複数の被投射物体の中から前記目標質感の光学特性を再現するために使用する1つの被投射物体を選択被投射物体として選択するステップと、
     面角度取得部が、観察位置から前記選択被投射物体の表面の注目位置を観察する際の観察方向に対する、前記選択被投射物体の表面の注目位置を含む、各画素位置における面角度を取得するステップと、
     目標光学特性算出部が、前記注目位置を含む、各画素位置における面角度、前記選択被投射物体の表面に前記目標質感の光学特性を再現する際の環境光を再現する仮想光源となる少なくとも1つの投射部からの入射光の入射特性、前記目標質感の光学特性、および、前記選択被投射物体の表面の光学特性に基づいて、前記注目位置から前記観察位置への目標出射光の出射特性を算出するステップと、
     投射制御部が、前記注目位置から前記観察位置への出射光の出射特性が前記目標出射光の出射特性となるように、前記少なくとも1つの投射部から前記注目位置を含む前記選択被投射物体の表面への入射光の入射特性を制御するステップと、
     前記少なくとも1つの投射部が、前記入射特性が制御された入射光をあらかじめ設定された方向から投射することにより、前記注目位置を含む前記選択被投射物体の表面に前記目標質感の光学特性を再現するステップとを含む質感再現方法。
  15.  請求項14に記載の質感再現方法の各々のステップをコンピュータに実行させるためのプログラム。
  16.  請求項14に記載の質感再現方法の各々のステップをコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
PCT/JP2018/037755 2017-12-27 2018-10-10 質感再現装置、質感再現方法、プログラムおよび記録媒体 WO2019130716A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019562766A JPWO2019130716A1 (ja) 2017-12-27 2018-10-10 質感再現装置、質感再現方法、プログラムおよび記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-252055 2017-12-27
JP2017252055 2017-12-27

Publications (1)

Publication Number Publication Date
WO2019130716A1 true WO2019130716A1 (ja) 2019-07-04

Family

ID=67066799

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037755 WO2019130716A1 (ja) 2017-12-27 2018-10-10 質感再現装置、質感再現方法、プログラムおよび記録媒体

Country Status (2)

Country Link
JP (1) JPWO2019130716A1 (ja)
WO (1) WO2019130716A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003202216A (ja) * 2002-01-08 2003-07-18 Canon Inc 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
WO2006051841A1 (ja) * 2004-11-15 2006-05-18 Mitsubishi Heavy Industries, Ltd. 質感再現システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003202216A (ja) * 2002-01-08 2003-07-18 Canon Inc 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
WO2006051841A1 (ja) * 2004-11-15 2006-05-18 Mitsubishi Heavy Industries, Ltd. 質感再現システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AMANO, TOSHIYUKI: "Real-time manipulation of glossiness and transparency using a projector camera system", JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 68, no. 12, 2014, pages J528 - J533, Retrieved from the Internet <URL:https://www.jstage,jst.go.jp/article/itej/68/12/68_J528/_article/-char/ja> [retrieved on 20181211] *
MUKAIGAWA, YASUHIRO ET AL.: "Creation of virtual photometric environment by photometric pattern projection onto screen object", IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS, July 2001 (2001-07-01), pages 1448 - 1455, Retrieved from the Internet <URL:http://seki.ike.tottori-u.ac.jp/personal/nishiyama/pdf/2001-IEICE-PBAR.pdf> [retrieved on 20181211] *

Also Published As

Publication number Publication date
JPWO2019130716A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
US10240982B2 (en) Measurement system, information processing apparatus, information processing method, and medium
JP6038965B2 (ja) 着色検査装置および着色検査方法
US9500526B2 (en) High-throughput and high resolution method for measuring the color uniformity of a light spot
RU2193798C2 (ru) Способ обработки изображений
RU2476862C2 (ru) Устройство для экспертизы, оценки и классификации драгоценных камней
JP6942876B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6364777B2 (ja) 画像データ取得システム及び画像データ取得方法
CN116057576A (zh) 在异质测量环境中将至少两种材料的外观可视化
JPH11211673A (ja) 表面性状評価装置および表面性状評価方法
CN117147444B (zh) 珍珠晕彩的定量化测试方法、装置及存储介质
CN116075859A (zh) 从多个源质地生成目标质地
WO2019130716A1 (ja) 質感再現装置、質感再現方法、プログラムおよび記録媒体
Sole et al. Image based reflectance measurement based on camera spectral sensitivities
JP6871424B2 (ja) 質感再現装置、質感再現方法、プログラムおよび記録媒体
KR100544979B1 (ko) 물체의 반사율 획득 시스템 및 물체 표현 방법
KR102171773B1 (ko) 검사 영역 결정 방법 및 이를 이용하는 외관 검사 장치
KR100983877B1 (ko) 물체의 반사율을 측정하는 시스템 및 방법
JP2016116201A (ja) プリントデータ生成装置、プリントデータ生成方法およびプログラム
Boher et al. Accurate physico-realistic ray tracing simulation of displays
Krüger et al. 71‐4: Imaging Luminance Measuring Devices (ILMDs)‐Characterization and Standardization with Respect to Display Measurements
US20220072791A1 (en) Determining a light scattering property of an object based on transmission values of the object under different measurement conditions
Navvab et al. Evaluation of historical museum interior lighting system using fully immersive virtual luminous environment
TWI493160B (zh) 用於計算一光斑之色彩均勻性的方法及設備
JP2017153054A (ja) 着色検査装置および着色検査方法
WO2022034741A1 (ja) 測定装置、測定システム、判定方法および判定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18895937

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019562766

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18895937

Country of ref document: EP

Kind code of ref document: A1