WO2004040521A1 - 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法およびシェーディング情報取得装置 - Google Patents

画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法およびシェーディング情報取得装置 Download PDF

Info

Publication number
WO2004040521A1
WO2004040521A1 PCT/JP2003/013809 JP0313809W WO2004040521A1 WO 2004040521 A1 WO2004040521 A1 WO 2004040521A1 JP 0313809 W JP0313809 W JP 0313809W WO 2004040521 A1 WO2004040521 A1 WO 2004040521A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
shading information
shading
image processing
parameter
Prior art date
Application number
PCT/JP2003/013809
Other languages
English (en)
French (fr)
Inventor
Yoshiyuki Sakaguchi
Shintaro Takemura
Shigeru Mitsui
Yasunobu Yamauchi
Atsushi Kunimatsu
Original Assignee
Digital Fashion Ltd.
Kabushiki Kaisha Toshiba
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Fashion Ltd., Kabushiki Kaisha Toshiba filed Critical Digital Fashion Ltd.
Priority to EP03769925A priority Critical patent/EP1557794A4/en
Priority to US10/514,896 priority patent/US20050174348A1/en
Publication of WO2004040521A1 publication Critical patent/WO2004040521A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Definitions

  • Image processing device Description Image processing device, image processing program, recording medium for recording the program, image processing method, and shading information acquisition device
  • the present invention relates to a technique for rendering a virtual three-dimensional model virtually created on a computer.
  • the virtual 3D model created in the virtual 3D space set on the computer is the position of the virtual camera and the light source set in the 3D space, and the virtual 3D model of the light emitted from the light source.
  • it is drawn (rendered) on a virtual screen set at a predetermined position in the virtual three-dimensional space, and the image drawn on the virtual screen is displayed. Displayed above.
  • shading is performed in consideration of the effects of light emitted from the virtual light source and the material of the virtual 3D model. The processing was performed by the operator setting parameters.
  • a fibrous structure such as cloth has optical anisotropy in which the reflectance and diffusion of light change depending on the angle of light, and a virtual three-dimensional model composed of such a structure.
  • various parameters such as ambient light (ambient), divergent light (diffuse) and reflected light (successive light) in the virtual three-dimensional space more accurately.
  • the present invention has been made to solve the above-described problems, and has various aspects.
  • An image processing apparatus is an image processing apparatus that renders a virtual three-dimensional model created in a virtual three-dimensional space.
  • the image processing apparatus includes a photographing condition including at least a photographing direction and a light irradiation direction with respect to an actual sample.
  • a shading information acquiring means for acquiring shading information calculated for each parameter based on an image of the actual sample taken while changing the parameter and a parameter; and the acquired shading.
  • a shading information storage unit for storing information in association with the parameters, a position of a virtual camera, a position of a virtual light source set in the virtual three-dimensional space, and a shape of an arbitrary part of the virtual three-dimensional model Parameter calculation means for calculating the predetermined parameter value corresponding to the part based on the parameter, and a shear corresponding to the acquired parameter value.
  • shading information is acquired based on an image obtained by photographing an actual sample while changing parameters including imaging conditions, and the acquired shading information is at least an image of the actual specimen. It is stored in the shading information storage means in association with the parameter including the condition. Then, predetermined parameters corresponding to an arbitrary part of the virtual three-dimensional model are calculated, and shading information corresponding to the calculated parameters is read from the shading information storage means, and the read shearing information is read. Based on the sliding information, a luminance value at a predetermined portion is calculated and subjected to a shading process.
  • the shading process is performed using the shading information acquired based on the image obtained by photographing the actual sample under different imaging conditions. This makes it possible to express the texture of the material and the optical anisotropy of the cloth due to the influence of interference light, etc., and the virtual 3D model can be shaded more realistically.
  • FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the present embodiment.
  • FIG. 2 is a side view of the image acquisition mechanism.
  • FIG. 3 is an enlarged view of the light source arm as viewed in the direction of arrow K1 in FIG.
  • FIG. 4 is a top view of the image acquisition mechanism.
  • FIG. 5 is a perspective view schematically showing an image acquisition mechanism.
  • FIG. 6 is a functional block diagram of the image processing apparatus.
  • FIG. 7 is a diagram conceptually showing a data structure of a shading information storage unit.
  • FIG. 8 is a diagram conceptually showing a data structure of a shading information storage unit.
  • FIG. 9 is a schematic diagram for explaining the processing performed by the geometry information acquisition unit and the parameter overnight calculation unit.
  • FIG. 10 is a schematic diagram for explaining the processing performed by the geometry information acquisition unit and the parameter overnight calculation unit.
  • FIG. 11 is a flow chart showing a process in which the image processing apparatus calculates shading information by using an image obtained by photographing an actual sample placed on a sample table.
  • FIG. 12 is a flowchart showing a shading process performed by the image processing apparatus.
  • FIGS. 13A and 13B are diagrams for explaining the processing performed by the shading processing unit.
  • FIG. 13A is a graph showing the relationship between the luminance value C and the luminance value T of the texture.
  • (B) conceptually shows the texture stored in the texture storage unit.
  • FIGS. 14A and 14B are diagrams for explaining the effect of image processing in the present image processing apparatus.
  • FIG. 14A shows an image rendered by a conventional image processing apparatus
  • FIG. 14B shows an image rendered by the present image processing apparatus. The image shown is shown.
  • FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the present embodiment.
  • This image processing device includes a shading information acquisition device 1 for acquiring shading information used when rendering a virtual three-dimensional model, and a rendering process using the shading information acquired by the shading information acquisition device 1. And a personal computer 2 for performing image processing.
  • the shading information acquisition device 1 includes an image acquisition mechanism 3 that irradiates light to photograph an actual sample, and a control unit 4 that controls the operation of the image acquisition mechanism 3.
  • FIG. 2 shows a side view of the image acquisition mechanism 3
  • FIG. 3 shows an enlarged view of the light source arm 144 when viewed in the direction of arrow K 1 in FIG. 2
  • FIG. 4 shows the image acquisition mechanism 3.
  • FIG. The image acquisition mechanism 3 includes a pedestal 11, a shaft 12 erected on the pedestal 11, a sample table 13 supported on the upper end of the shaft 12, and a sample table 13. It includes a light emitting unit 14 for irradiating the sample in the sample, a photographing unit 15 for photographing the sample placed on the sample table 13, and a cover 16 for covering the entire apparatus.
  • the pedestal 11 has a disc-shaped recess 1 11 and four legs radially in contact with the recess 1 1 1, and the shaft 1 2 is fitted and fixed in the recess 1 1 1 Bracket 1 1 2 is formed.
  • wheels 11 3 for moving the pedestal 11 and stoppers 11 14 for fixing the pedestal 11 to the ground are mounted in appropriate places near the outer edge of the pedestal 11.
  • ⁇ Sample table 13 has a disk shape with a smaller diameter than pedestal 11
  • a columnar convex portion (not shown) is formed at the center of the member toward the pedestal portion 11 side, and the convex portion is rotatable with respect to the shaft 12. It is fitted.
  • a motor 13 1 for rotating the sample table 13 on a horizontal plane is attached to the convex portion of the sample table 13.
  • the convex portion and the motor 13 1 are mounted so that the gear of the motor shaft meshes with the gear mounted on the outer peripheral portion of the convex portion.
  • the sample table 13 is rotated by a predetermined angle and positioned when receiving the driving force of the moment.
  • the light-emitting part 14 has an arm-shaped connecting arm 14 1 attached to the outside so as to be orthogonal to the axial direction of the shaft 12, and one end outside the connecting arm 14 1. It has a light source arm 142 rotatably attached to the connecting arm 141 and a light source 144 connected to one end of the light source arm 142.
  • a cylindrical bearing holder 1 4 5 having a bearing 1 4 4 inside is attached, and the shaft 1 2 is connected via the bearing 1 4 4 Bearing holders 1 4 5 are inserted.
  • a motor 146 for rotating the connecting arm 144 in a horizontal plane is attached via a gear provided in the motor shaft and a gear provided in the bearing holder 145. I have.
  • the light source arm 142 is rotated in a direction parallel to the longitudinal direction of the connecting arm 141 via a connecting member 147 standing upright at the outer end of the connecting arm 141 in parallel to the axial direction.
  • the light source arm 144 which is rotatably mounted as RL1, has a half angle of ⁇ between the reference line KL orthogonal to the rotation axis RL1 and the light source arm 142, as shown in FIG.
  • the clockwise direction is defined as positive, rotation is possible within the range where the value of ⁇ is from 90 ° to + 90 °.
  • the light source arm 14 2 is provided with a motor 14 8 for rotating the light source arm 14 2 with respect to the arm 14 1.
  • the motor 14 8 is rotated by a predetermined angle by the driving force of the motor 14 8 and positioned. .
  • the light source arm 142 has an arc shape in which the imaging direction of the imaging device 153 is directed toward the center position ⁇ of the sample table 133 when the angle string is positioned at 0 °.
  • the light source 144 is composed of a metal halide light source as a light emission source, and a light source mounted on the emission side of the metal halide light source and converting the emitted light into parallel light, such as a cylindrical lens. It is also connected to one end of a light source arm 142 where the direction of light to be irradiated is directed to the center position O of the sample table.
  • the photographing unit 15 has almost the same configuration as the light emitting unit 14, and is parallel to the connecting arm 15 1 and the connecting arm 15 1 in the longitudinal direction of the connecting arm 15 1.
  • the main components are a photographing arm 152 mounted rotatably around a rotation axis RL2, which is a desired direction, and a photographing device 153 connected to one end of a photographing arm.
  • the longitudinal dimension of the connecting arm 15 1 is shorter than the longitudinal dimension of the connecting arm 14 1.
  • the photographing arm 15 2 connected to the outer end of the connecting arm 15 1, similarly to the light-emitting section 14, has a counterclockwise angle of] 3 between the reference line KL and the photographing arm 15 2. With the direction of rotation positive, we can rotate this] 3 so that it ranges from 190 degrees to +90 degrees.
  • the imaging arm 152 has an arc shape in which the imaging direction of the imaging device 1553 is directed toward the center position ⁇ of the sample table 13 when the angle / 3 is positioned at 0 °.
  • a motor 155 is attached to the photographing arm 155 through an upright connecting member 154 at one end on the outside of the connecting arm 155. Is rotated by a predetermined angle under the driving force of the motor 155 and positioned.
  • a cylindrical holder 15 6 is attached to one end of the connecting arm 15 1 on the shaft 12 side.
  • the shaft 15 is inserted into the holder 15 6 and the holder 15 6 Is fixed to axis 12 by key 1557.
  • the imaging device 153 has a CCD camera, zoom lens, close-up lens, etc. (all not shown), and is connected to one end of the imaging arm 152 so that the imaging direction is toward the center O of the sample table. Have been.
  • the cover 16 has a bottomless rectangular parallelepiped shape, and wheels 162 for transporting the cover 16 are attached at appropriate places on the bottom cross section of the side surface 161.
  • a stopper 16 3 for fixing the cover 16 to the ground is attached near each wheel 16 2.
  • the force par 16 is not limited to a rectangular parallelepiped shape, and may have any shape as long as it can cover the entire device, for example, a dome shape.
  • FIG. 5 is a perspective view for explaining the structure of the image acquisition mechanism 3. In FIG.
  • the coordinate axes orthogonal to N, U and V are virtually set with the center position O of the sample table 13 as the origin.
  • the U axis is set on the longitudinal direction of the connecting arm 15 1.
  • the angle d which is the rotation angle of the sample table 13, is based on the U axis.
  • the angle a between the U axis and the connecting arm 14 1 is the horizontal rotation angle of the light emitting unit 14.
  • the angle ⁇ 5 of the sample table 13 with respect to the U axis and the angle of the fiber direction FL of the cloth S with respect to the U axis match.
  • the connecting arm 14 1 is driven by a motor 14 6 so that the outer end 14 1 a of the connecting arm 14 1 a has an angle of 0 to 360 degrees along the circumference C 1 on the U—V plane. Is rotated and positioned so as to be within the range.
  • the light source arm 14 2 is driven by a motor 14 8 so that the light source 14 3 moves along the arc C 2 on the N—V plane, and the angle ⁇ ranges from 90 degrees to +90 degrees with respect to the N axis. It is rotated and positioned inside.
  • the photographing arm 15 2 is positioned so that the photographing device 15 3 is angled along the arc C 3 on the ⁇ -V plane.) 3 is in the range of 90 ° to + 90 ° with respect to the ⁇ axis. It is rotated and positioned.
  • the four types of angles ⁇ , ⁇ , ⁇ , and ⁇ are parameters ⁇ , ⁇ , ⁇ , and ⁇ .
  • the personal computer 2 has an input device 21 for receiving operation commands for the operation and a ROM (read-only memory) for recording a basic program such as a BIOS for operating the personal computer 2, for example. 2), a CPU (Central Processing Unit) 23 that executes an image processing program, a RAM (Random Access Memory) 24 that temporarily stores data and is used as a work area of the CPU 23, Stores processing programs, operating systems, etc.
  • An auxiliary storage device 25; a display device 26 for displaying images processed by the CPU 23; and a recording medium drive device 2 for reading data recorded on recording media such as a flexible disk, CD-ROM, and DVD-ROM. 7 is provided.
  • the personal computer 2 obtains an image obtained by the photographing device 153 photographing the actual sample through the cable CA connected to the DV terminal conforming to the IEEE1394 standard.
  • a video capture port 28 and a motor interface 29 for providing an interface between the CPU 23 and the motor controller 46 are provided.
  • the ROM 22, the CPU 23, the RAM 24, the auxiliary storage device 25, the display device 26, and the recording medium drive device 27 are mutually connected by a bus line.
  • the input device 21 includes a keyboard, a mouse, and the like, and is connected to, for example, a USB port provided behind the main body of the personal computer 2.
  • This image processing apparatus loads a recording medium, such as a CD—R ⁇ M, on which an image processing program for causing the personal computer 2 to function as an image processing apparatus is recorded in the recording medium drive device 27, and executes the image processing program.
  • a recording medium such as a CD—R ⁇ M
  • an image processing program for causing the personal computer 2 to function as an image processing apparatus is recorded in the recording medium drive device 27, and executes the image processing program.
  • the image processing program may be installed by downloading the image processing program from a web server that stores the image processing program via an Internet line.
  • various data is input by the personal computer 2, the data is processed on a web server arranged on the Internet, and the processing result is transmitted to the personal computer 2.
  • the image processing program may be executed in a distributed manner between the web server and the personal computer 2.
  • the control unit 4 receives a command from the personal computer 2 and controls the motor 13 1 for rotating the sample table 13, the motor 148 for rotating the light source arm 142, and the motor 146 for rotating the connecting arm 14 1.
  • the motor drivers 41 to 44 that control each of them, and the on / off and A light source driver 45 for controlling the intensity of the emitted light and a motor controller 46 for outputting various signals such as pulse signals and control signals to the motor drivers 41 to 44 are provided. .
  • the motor drivers 41 to 44 receive the pulse signals output from the motor controller 46 and control signals for designating the forward and reverse rotation of the motor, and convert the received pulse signals into power pulse signals. To excite the coils of each motor and drive each motor.
  • the light source driver 45 receives the control signal output from the personal computer 2, generates a drive current having a level corresponding to, for example, the intensity of the control signal, and turns on the light source 144.
  • the motor controller 46 receives various signals from a photographing mechanism control unit 208 described later via a motor interface 29 and drives the motor drivers 41 to 44 according to the signals. Output various signals.
  • FIG. 6 shows a functional block diagram of the present image processing apparatus.
  • This image processing apparatus includes a storage unit 10.0 mainly composed of RAM 24 and a program execution unit 200 mainly composed of CPU 23.
  • the storage unit 100 includes a shading information storage unit 101, a three-dimensional model storage unit 102, and a texture storage unit 103.
  • the program execution unit 200 includes a shading information calculation unit 2 01, a geometry information acquisition unit 202, a parameter calculation unit 203, a shading information reading unit 204, an interpolation processing unit 205, a shading processing unit 206, A rendering processing unit 207, a photographing mechanism control unit 208, and a shading information interpolation unit 209 are provided.
  • the shading information calculation unit 201 receives the image of the actual sample photographed by the image acquisition mechanism 3, and sets a predetermined position (for example, the center position) on the received image as the center of gravity, and vertically n Set a rectangular area of m pixels beside the pixel, calculate the average, maximum and minimum brightness of the set area, and use the calculated average, maximum and minimum brightness as shading information and receive Are stored in the shading information storage unit 101 in association with the parameters, ⁇ , ⁇ , and ⁇ , at the time of capturing the obtained image.
  • a predetermined position for example, the center position
  • n Set a rectangular area of m pixels beside the pixel, calculate the average, maximum and minimum brightness of the set area, and use the calculated average, maximum and minimum brightness as shading information and receive Are stored in the shading information storage unit 101 in association with the parameters, ⁇ , ⁇ , and ⁇ , at the time of capturing the obtained image.
  • FIGS. 7 and 8 schematically show the data structure of the shading information storage unit 101.
  • the shading information storage unit 101 has two types of tables including a first table and a second table.
  • FIG. 7 shows the first table
  • FIG. 8 shows the second table. I have.
  • the first table includes a column for an angle a, which is a vertical rotation angle of the light source arm 142, and a column for an angle ⁇ , which is a rotation angle of the sample table 13.
  • the angle is described in the range of _90 degrees to +90 degrees, for example, every 10 degrees
  • the angle ⁇ is 0 degrees to 360 degrees. For example, it is described every 15 degrees within the range of degrees.
  • Each cell in the first table stores an index representing a second staple identified by angles a and ⁇ 5.
  • the index of the second table is obtained by expressing each cell in the alphabet T as a subscript of a row number and a column number. For example, since the index T 00 is an index stored in a cell at row 0 and column 0, “0 0” is described as a subscript.
  • the second table is composed of a plurality of tables, and each table is provided with an index, and this index is associated with the index described in each cell of the first table.
  • the second table is composed of a column of [angle] 3 which is the rotation angle of the imaging arm 15 2, and ⁇ of the angle a which is the rotation angle of the connecting arm 14 1.
  • the angle ⁇ is described in the range of 190 degrees to +90 degrees, for example, every 10 degrees.
  • the angle a is described in a range of 0 to 360 degrees, for example, every 15 degrees.
  • Each cell of the second table stores shading information.
  • the step width of the angle a and the angle 3 is set every 10 degrees, and the step width of the angle ⁇ and the angle ⁇ is set every 15 degrees.
  • the present invention is not limited to this.
  • a finer step may be used, a larger step may be used, and, for example, a step of 5 degrees in a range of 0 to 45 degrees, and a step of 45 to 90 degrees
  • the step width may be appropriately changed according to the angle range such as a step of 10 degrees.
  • the shading information interpolator 209 is located on the optical axis of the light source 144.
  • the shading information obtained in the case where 1 5 3 is located (hereinafter referred to as “overlapping position”, and there are multiple overlapping positions) is obtained by using the shading information obtained at a plurality of positions adjacent to the overlapping position. Interpolation processing is performed to calculate normal shading information at the overlapping position.
  • the overlap position is determined by the structure of the image acquisition mechanism 3 and can be specified in advance, and thus is stored in the storage unit 100 in advance.
  • the three-dimensional model storage unit 102 stores various data for specifying the shape of the virtual three-dimensional model created in advance by the operator in a virtual three-dimensional space set on the computer, for example, a virtual three-dimensional model. Stores the coordinates of the vertices of each polygon consisting of a plurality of triangles or quadrangles attached to the surface, etc., and also stores the coordinates of the virtual light source and virtual force lens set in the virtual three-dimensional space.
  • the texture storage unit 103 stores a texture to be mapped to the virtual three-dimensional model.
  • the texture storage unit 103 stores a plurality of textures in advance, and the operator selects a texture to be mapped to the virtual 3D model from the plurality of textures. Further, the texture storage unit 103 can store a texture created by the operator.
  • FIG. 9 and FIG. 10 are schematic diagrams for explaining the processing performed by the geometry information acquisition unit 202 and the parameter calculation unit 203.
  • the geometry information acquisition unit 202 sets the target position HP at a predetermined position on the surface of the virtual 3D model, and sets the coordinates of each vertex of the polygon including the target position HP, the coordinates of the virtual camera VC, and the virtual light source VL. From the coordinates, the normal vector N 'at the set target position HP, the light source vector L from the target position HP to the virtual light source VL, and the viewpoint vector CV from the target position HP to the virtual camera VC are calculated. .
  • the geometry information acquisition unit 202 sequentially sets the target position HP over the entire virtual three-dimensional model.
  • the parameter calculator 203 calculates the angle between the normal vector N ′ and the light source vector L (vertical angle Z of the light source) and the normal vector N ′ and the viewpoint vector CV at the target position HP. Calculate the angle (viewpoint angle X). What As can be seen from FIG. 5, the vertical angle Z of the light source corresponds to the angle a, and the viewpoint angle X corresponds to the angle;
  • the parameter overnight calculation unit 203 sets the orthogonal U axis and the V ′ axis on the surface of the polygon including the target position HP, and calculates the U of the light source vector L. Calculates the angle between the orthogonal projection vector (orthogonal projection light source vector LH) on the V 'plane and the U' axis as the horizontal angle Y of the light source.
  • the U 'axis is the orthogonal projection vector CH onto the U'-V' plane of the viewpoint vector CV.
  • the horizontal angle Y of the light source corresponds to the angle ⁇ shown in FIG.
  • the parameter calculation unit 203 calculates the angle between the fiber direction FL ′ and the U ′ axis of the virtual cloth mapped on the surface of the polygon as the sample angle W.
  • This sample angle W corresponds to the angle ⁇ which is the rotation angle of the sample table 13 shown in FIG.
  • the shading information readout unit 204 uses the vertical angle ⁇ of the light source, the viewpoint angle X, the horizontal angle ⁇ of the light source, and the sample angle W calculated by the parameter calculation unit 203 as parameters, and the shading information storage unit 101 And read the shading information corresponding to these parameters.
  • the shading information reading section 204 calculates the shading information. Read the shading information corresponding to the parameter closest to the specified parameter.
  • the interpolation processing unit 205 reads the shading information if the parameter calculated by the parameter overnight calculation unit 203 does not match the parameter corresponding to the shading information read by the shading information reading unit 204. Is interpolated to calculate the shading information corresponding to the calculated parameter. For example, if the viewpoint angle X calculated by the parameter overnight calculation unit 203 is 42 degrees, and the shading information is read by setting the angle
  • the shading processing unit 206 includes the shading information acquired by reading by the shading information reading unit 204 or by interpolation by the interpolation processing unit 205, and the texture stored by the texture storage unit 103.
  • the maximum value of the luminance of the texture is used as the maximum value of the luminance of the obtained shading information
  • the minimum value of the luminance of the texture is used as the minimum value of the luminance of the obtained shading information
  • the average value of the luminance of the texture is obtained.
  • the maximum value, minimum value and average value of the acquired shading information are spline-interpolated to correspond to the average value of the acquired shading information, and the correlation function between the acquired shading information and the texture is calculated. Using the calculated and calculated correlation function, calculate the luminance value at the target position HP of the virtual 3D model
  • the rendering processing unit 2007 renders the virtual three-dimensional model on the virtual screen set in the virtual three-dimensional space by using, for example, a ray tracing method. Then, the rendered image is output to the display device 26 and displayed.
  • the imaging mechanism control unit 208 outputs a control signal to the motor controller 46, so that the sample table 13, the light-emitting unit 14, and the imaging unit 15 are each given a predetermined angle to the motor controller 46 at a predetermined timing.
  • the sample table 13, the light emitting unit 14, and the imaging unit 15 are controlled by moving the sample table.
  • the imaging mechanism control unit 208 supplies a driving current for lighting the light source 1443 at a predetermined time, for example, immediately before imaging the actual sample, so that the light source is turned on at a predetermined light amount. Is turned on, and at the end of shooting, the light source 144 is turned off to control the light source 144.
  • FIG. 11 is a flowchart showing a process in which the image processing apparatus calculates shading information using an image of a real sample placed on the sample table 13.
  • the image processing apparatus calculates shading information using an image of a real sample placed on the sample table 13.
  • ⁇ of the sample table 13 see FIG. 5
  • a cloth cut into a square shape having a predetermined length and width is placed in advance as an actual sample. I do.
  • step S1 when the start of photographing is instructed, the photographing mechanism control unit 2 In step 08, the sample table 13 is rotated by a predetermined angle, for example, 15 degrees by driving the motor 131, and the angle ⁇ of the sample table 13 is set.
  • the photographing mechanism control unit 208 drives the motor 146 to rotate the connecting arm 141 by a predetermined angle, for example, 15 degrees, so that the horizontal direction of the light emitting unit 14 Set the angle r of
  • step S3 the photographing mechanism control unit 208 drives the motor 148 to rotate the light source arm 142 by a predetermined angle, for example, 10 degrees, so that the vertical angle of the light emitting unit 14 Set ⁇ .
  • step S4 the photographing mechanism control unit 208 rotates the photographing arm 152 by a predetermined angle, for example, 10 degrees by driving the motor 155, and sets the angle of the photographing unit 15 .
  • angles ⁇ and ⁇ are positioned in units of 15 degrees, and the angles ⁇ and / 3 are positioned in units of 10 degrees. These values are set in advance by the operator via 1 and these values can be changed as appropriate.
  • step S5 the photographing mechanism control unit 208 turns on the light source 144 with a predetermined amount of light, and causes the photographing device 153 to photograph the actual sample placed on the sample table 13. Then, when the photographing is completed, the light sources 144 are turned off. Note that the imaging mechanism control unit 208 turns on the light source 144 each time the sample table 13, the light emitting unit 14 and the imaging unit 15 are positioned, but the shading information acquisition device 1 operates. During this operation, the light source 144 may be constantly turned on.
  • step S6 the shading information calculation unit 201 receives the image of the actual sample taken by the imaging device 153 via the cable C #, sets a predetermined area in the received image, and sets The maximum value, minimum value, and average value of the brightness of the calculated area are calculated, and these calculated values are used as shading information.
  • step S7 the shading information calculation unit 201 stores the shading information calculated in step S6 in the shading information storage unit 101 in association with the imaging conditions (angles ⁇ , ⁇ , r, and ⁇ ). Let it.
  • the shading information interpolating unit 209 interpolates the shading information at the overlapping position stored in advance in the storage unit 100 using the shading information at a plurality of adjacent positions, and obtains accurate shading information. Calculate information.
  • step S8 the photographing mechanism control unit 208 determines whether or not the angle; 8 of the photographing unit 15 is a predetermined final angle. If the final angle is the final angle (YE S in S8), step S8 Proceed to 9 and if it is not the final angle (O in 8), return to step S4 and set the angle of the imaging unit 15 again.
  • the angle ⁇ of the imaging unit 15 is set to 190 degrees as an initial value, and is sequentially changed in increments of 10 degrees up to +90 degrees (in step S9, the imaging The mechanism control unit 208 determines whether or not the vertical angle ⁇ of the light source 143 is the predetermined final angle.
  • step S10 the final angle If it is the final angle (YE S in S9), the process proceeds to step S10, where the final angle If not (NO in S9), the process returns to step S3, and the angle ⁇ of the light emitting unit 14 is set again.
  • the angle is set to 90 degrees as an initial value. The angle is gradually changed in increments of 10 degrees up to +90 degrees, so the final angle is +90 degrees.
  • step S10 the photographing mechanism control unit 208 determines whether or not the horizontal angle r of the light emitting unit 14 is a predetermined final angle. If the horizontal angle r is the final angle (YE S in S10) Then, proceeding to step SI1, if it is not the final angle (NO in S10), returning to step S2, the angle of the light emitting section 14 is set again.
  • the angle is set to 0 degrees as an initial value, and is sequentially changed in increments of 15 degrees up to 360 degrees. Therefore, the final angle is 360 degrees.
  • step S11 the imaging mechanism control unit 208 determines whether or not the angle of the sample table 13 is the final angle. If the angle is the final angle (YE S in S11), the processing ends. If the angle is not the final angle (NO in S11), the process returns to step S1 and the angle ⁇ 5 of the sample table 13 is set again.
  • the angle ⁇ 5 is set to 0 degrees as an initial value, and is sequentially changed up to 360 degrees in increments of 15 degrees. did Thus, the final angle is 360 degrees.
  • FIG. 12 is a flowchart showing a shading process performed by the image processing apparatus.
  • the geometry information acquisition unit 202 reads out the data stored in the three-dimensional model storage unit 102, as shown in FIG. 9, and stores the coordinates of the virtual camera VC and the coordinates of the virtual light source VL. Then, from the coordinates of the predetermined target position HP on the surface of the virtual 3D model, the normal vector N ′, the light source vector L, and the viewpoint vector CV at the target position HP are calculated.
  • step S22 the parameter calculation unit 203 uses the normal vector N ', the light source vector, and the viewpoint vector CV calculated in step S21 as shown in FIG. Calculate the vertical angle Z and viewpoint angle X of the light source at the position HP. Further, the parameter overnight calculation unit 203 sets the U ′ axis and the V ′ axis on the polygon plane including the attention position HP, and determines the angle of the orthogonally projected light source vector LH with respect to the U ′ axis by the light source. Calculated as horizontal angle Y. Further, the parameter overnight calculation unit 203 calculates the angle of the fiber direction FL ′ of the virtual cloth set on the surface of the polygon set on the target position HP with respect to the U ′ axis as the sample angle W.
  • step S23 the shading information readout unit 204 determines the viewpoint angle X (corresponding to the angle ⁇ ) calculated in step S22, and the vertical angle of the light source.
  • the shading information corresponding to the four parameters W (corresponding to the angle ⁇ ) is read from the shading information storage unit 101. If the shading information corresponding to the four parameters calculated in step S22 does not exist in the shading information storage unit 101, the shading information reading unit 204 is closest to the four parameters. The shading information corresponding to the parameter is read from the shading information storage unit 101.
  • step S24 if the shading information read out in step S23 corresponds to the approximated parameter, interpolation processing is required (YES in S24), and step S24 is executed. 25, the shading information read out in step S23 is calculated in step S22. If the parameters correspond to the set parameters, the process proceeds to step S26 because the interpolation process is not required.
  • the interpolation processing unit 205 reads out the difference between the parameter calculated in step S22 and the parameter corresponding to the shading information read in step S23.
  • the shading information corresponding to the parameter calculated by interpolating the obtained shading information is calculated.
  • step S26 when the color used for shading is specified by the operator (YES in S26), the process proceeds to step S27, and the shading processing unit 206 sets the shading information. If the specified color is added and the color used for shading is not specified (NO in S26), the process proceeds to step S28.
  • step S28 If the operator has set the transparency for the shading in step S28 (YES in step S28), the process proceeds to step S29, and the shading processing unit 206 displays the transparency in the shading information. Is set and the transparency is not set (NO in step S28), the process proceeds to step S30.
  • step S30 the shading processing unit 206 sets the shading information set in step S2329 and the plurality of textures stored in the texture storage unit 103 to one of the textures specified by the operator. Using the two textures, the brightness value of the target position HP is calculated.
  • FIGS. 13A and 13B are diagrams for explaining the processing performed by the shading processing unit 206.
  • FIG. 13A is a graph showing the relationship between the luminance value C and the luminance value T of the texture. Represents conceptually the texture stored in the texture storage unit 103.
  • Cmax, Cave, and Cmin shown on the vertical axis in (a) indicate the maximum value, average value, and minimum value of the brightness included in the shading information, respectively.
  • the texture storage unit 103 sets the origin at the upper left vertex of the square texture whose one side is 1, the u axis along the upper side, and the V axis along the left side.
  • the luminance value T of the texture is determined.
  • the shading processing unit 206 determines the maximum value Cma of the luminance contained in the set shading information so that the maximum value Tmax of the texture is 1, the average value Tave is 0.5, and the minimum value Tmin is 0. x, the average value C a V e and the minimum value C min are associated with the maximum value T max of the texture luminance, the average value T ave and the minimum value T min in, respectively.
  • the shading processing unit 206 substitutes the luminance value T (u, v) into the correlation function C (T).
  • the brightness value C at the target position HP is calculated.
  • the attention position HP is sequentially changed, the same processing is performed for each attention position HP, and the virtual 3D model is subjected to the seeding processing.
  • step S31 the rendering processing unit 207 renders the virtual three-dimensional model on a virtual screen set at a predetermined position in the virtual three-dimensional space.
  • the rendered image is displayed on the display device 26.
  • FIGS. 14A and 14B are diagrams for explaining the effect of image processing in the present image processing apparatus.
  • FIG. 14A shows an image that has been subjected to shading processing by a conventional image processing apparatus, and FIG. The processed image is shown.
  • the virtual human body model TO is wearing a red dress DO.
  • the dress DO is displayed with a single color of red throughout, although some shading appears on the side of the body. And lacks realism.
  • Fig. 14 (a) in the conventional image processing device, the dress DO is displayed with a single color of red throughout, although some shading appears on the side of the body. And lacks realism.
  • Fig. 14 (a) in the conventional image processing device, the dress DO is displayed with a single color of red throughout, although some shading appears on the side of the body. And lacks realism.
  • Fig. 14 (a) in the conventional image processing device, the dress DO is displayed with a single color of red throughout, although some shading appears on the side of the body. And lacks realism.
  • the shading process is performed using the image obtained by photographing the actual sample, so that it is possible to accurately express the shadow considering the optical anisotropy of the cloth It can be seen that the pleats at the tip and the chest of the dress D0 are realistically represented.
  • the present invention can adopt the following modes.
  • the image processing program is installed in the personal computer 2 .
  • the present invention is not limited to this, and the image processing program may be configured by hardware such as LSI.
  • the photographing unit 15 does not rotate in the horizontal direction with respect to the pedestal unit 11, but is not limited thereto, and may rotate in the horizontal direction.
  • the connecting arm 15 1 may be rotatably mounted on the shaft 12, and the connecting arm 15 1 may be driven by a motor.
  • the shading processing unit 206 may use only the average value of the luminance in the shading information and set the average value of the luminance as the luminance value of the target position HP of the corresponding virtual three-dimensional model.
  • the shading information obtained by imaging the actual sample with this image processing device can be used for the shading process by PTM (Polylynomial Texture Mapping). it can.
  • An image processing apparatus is an image processing apparatus that renders a virtual three-dimensional model created in a virtual three-dimensional space.
  • the image processing apparatus includes a photographing condition including at least a photographing direction and a light irradiation direction with respect to an actual sample.
  • a shading information acquiring means for acquiring shading information calculated for each parameter based on an image of the actual sample taken while changing the parameter and a parameter; and the acquired shading.
  • a shading information storage means for storing information in association with the parameters; a position of a virtual camera, a position of a virtual light source, and a position of the virtual light source set in the virtual three-dimensional space; Parameter calculating means for calculating the predetermined parameter corresponding to the part based on the shape of an arbitrary part of the three-dimensional model; and storing the shading information corresponding to the acquired parameter in the shading information. And a shading processing means for calculating a luminance value of a corresponding portion of the virtual three-dimensional model based on the read shading information.
  • the shading information is acquired based on an image obtained by photographing the actual sample while changing the parameters including the photographing conditions.
  • the acquired shading information is based on the actual specimen.
  • a predetermined parameter corresponding to an arbitrary part of the virtual three-dimensional model is calculated, and shading information corresponding to the calculated parameter is read from the shading information storage means, and the read shell is read.
  • a luminance value at a predetermined portion is calculated and subjected to a shading process.
  • the shading process can be performed by a simple operation without performing complicated parameter setting work, and based on images obtained by photographing the actual sample under different imaging conditions. Since the shading process is performed using the acquired shading information, it is possible to express the texture of the material and the optical anisotropy of the cloth due to the effects of light interference, etc. The model can be shaded more realistically.
  • the shading information acquiring means includes: a pedestal; a sample table disposed on the pedestal, on which the actual sample is mounted; and a light source for irradiating the actual sample with light from a first direction.
  • the light emitting means is configured to change the first direction, and the photographing means changes the second direction.
  • it is configured as possible.
  • the first direction which is the direction of light irradiation from the light source to the actual sample
  • the second direction which is the imaging direction from the imaging device to the actual sample
  • the shading information acquisition unit includes a storage unit that stores the positions of the light emitting unit and the photographing unit in advance when the first direction and the second direction overlap each other as an overlap position, and the shading information acquisition unit is adjacent to the overlap position. It is preferable to include shading information interpolation means for calculating shading information specified by the overlapping position by interpolating shading information specified by the position. '
  • the shading information at the position where the first and second directions overlap is calculated by performing interpolation processing using the shading information specified by the position adjacent to the overlap position. Therefore, accurate shading information at the overlapping position is calculated.
  • the light emitting means includes a light source arm formed in an arc shape toward the upper side of the sample table, and a light source arranged at an upper end portion, and the first direction includes the light source arm.
  • the rotation position when rotating a line perpendicular to the perpendicular to the table surface of the sample table as a rotation axis; the rotation position when rotating the sample table around the perpendicular as a rotation axis or the light source arm; It is preferable that the position is specified by a rotation position when the vertical line is used as a rotation axis.
  • the first direction which is the light irradiation direction on the actual sample
  • the light emitting means may convert the light into parallel light on the irradiation side of the light source. It is preferable to provide a lens. In this case, the light emitted from the light source is converted into parallel light by the lens and guided to the sample, so that the entire actual sample can be irradiated with a substantially uniform light amount.
  • the photographing means includes a photographing arm formed in an arc shape toward the upper side of the sample table, and a photographing device having a photographing device attached to an upper end thereof.
  • the rotation axis is specified by a rotation position when the imaging arm is rotated as a rotation axis.
  • the second direction which is the imaging direction of the actual sample
  • the actual sample can be imaged from various directions, and more detailed shading information can be obtained. can do.
  • the parameter includes an angle of the fiber sample direction of the actual sample with respect to the imaging direction.
  • the angle of the imaging direction with respect to the fiber direction is set as a parameter, and the shading information is calculated based on the image of the actual sample taken by changing this parameter.
  • the anisotropy can be expressed more realistically.
  • the apparatus further comprises a texture storage means for storing a texture to be mapped on a surface of the virtual three-dimensional space, wherein the shading information obtaining means sets a predetermined area in the captured image of the actual sample, and The average value, the maximum value, and the minimum value of the luminance in the obtained area are calculated as shading information.
  • the shading processing means calculates the shading information based on the read shading information and the texture stored in the texture storage means. It is preferable that a predetermined function for calculating a luminance value at an arbitrary part of the virtual three-dimensional model is calculated, and a luminance value at the arbitrary part is calculated using the calculated function.
  • the predetermined value calculated by the shading information processing unit is obtained.
  • the luminance value at an arbitrary part is calculated using the luminance value of the texture as an argument and the shading process is performed.
  • the shading processing means performs the reading so that the maximum value, the minimum value, and the average value of the luminance included in the read shading information correspond to the maximum value, the minimum value, and the average value of the texture of the texture, respectively.
  • the predetermined function is calculated by performing a predetermined interpolation process on the maximum value, the minimum value, and the average value of the luminance included in the shading information.
  • the virtual 3D model is used for all texture brightness values.
  • the luminance value of is calculated, the loss of data is eliminated, and more realistic shading processing can be performed.
  • the shading processing means calculates a predetermined function by interpolating three values of the maximum value, the minimum value, and the average value included in the read shading information, so that the predetermined function can be performed at high speed. Can be calculated.
  • the data structure according to the present invention is a data structure of shading information storage means for storing shading information used when rendering a virtual three-dimensional model created in a virtual three-dimensional space using a computer.
  • the shading information is obtained by using parameters of at least an imaging direction of the actual sample and an imaging condition including a light irradiation direction as a parameter, and changing the parameters in accordance with the image of the actual sample. It is acquired every evening, and is characterized in that the photographed image of the actual sample and the parameter are associated with each other.
  • a shading information acquisition device is a shading information acquisition device that acquires shading information used when rendering a virtual three-dimensional model created in a virtual three-dimensional space using a computer.
  • the first direction which is the direction of light irradiation from the light source to the actual sample
  • the second direction which is the imaging direction from the imaging device to the actual sample
  • An image processing program is an image processing program for rendering a virtual three-dimensional model created in a virtual three-dimensional space, comprising: a position of a virtual camera set in the virtual three-dimensional space; Parameter calculation means for calculating a predetermined parameter corresponding to the position based on the position of the light source and the shape of an arbitrary part of the virtual three-dimensional model, including at least a photographing direction and a light irradiation direction with respect to the actual sample
  • the shading information calculated for each parameter is stored in association with the parameter based on an image of the actual sample photographed while changing the parameter in the evening. Reading the shading information corresponding to the calculated parameter from the shading information storage means; And, based on the shading data read, Shiedingu processing of calculating the luminance value of a corresponding portion of the virtual three-dimensional model
  • the computer is caused to function as the means.
  • predetermined parameters corresponding to predetermined positions of the virtual three-dimensional model are calculated, and shading information corresponding to the calculated parameters is obtained by replacing the shading information with predetermined parameters in advance.
  • the luminance value is read out from the shading information storage means that is stored in association with it, and the luminance value at the corresponding arbitrary portion is calculated. Therefore, the shading process can be performed without performing complicated parameter setting work, and the shading information calculated based on images obtained by photographing the actual sample under different imaging conditions can be used.
  • Shading processing is applied to the virtual 3D model, making it possible to express the texture of the material and the optical anisotropy of the cloth due to the effects of light interference light, etc., and more realistic shading of the virtual 3D model. Can be processed.
  • a recording medium is a recording medium for recording an image processing program for rendering a virtual three-dimensional model created in a virtual three-dimensional space, the virtual medium being set in the virtual three-dimensional space.
  • Parameter calculation means for calculating a predetermined parameter based on the position of the camera, the position of the virtual light source, and the shape of an arbitrary part of the virtual 3D model; at least imaging of the actual sample
  • the imaging conditions including the direction and the direction of light irradiation are used as parameters, and the shading information calculated for each parameter based on the image of the actual sample taken while changing the parameters is used as a parameter.
  • an image processing program for causing a computer to function as a shading processing means for calculating a brightness value of a corresponding portion of the virtual three-dimensional model based on the read shading information. .
  • the recording medium on which the image processing program is recorded predetermined parameters corresponding to an arbitrary part of the virtual three-dimensional model are calculated, and the shading information corresponding to the calculated parameters is stored in advance.
  • the shading information storage means to be stored in association with a predetermined parameter And mapped to any corresponding site.
  • the shading process can be performed without performing complicated and complicated parameter setting work, and the shading information calculated based on the images obtained by photographing the actual sample under different photographing conditions is used. Since the virtual 3D model is subjected to shading processing, it is possible to express the texture of the material and the optical anisotropy of the cloth due to the effects of light interference, etc., and the virtual 3D model is more realistically shaded. can do.
  • the image processing method is an image processing method for rendering a virtual three-dimensional model created in a virtual three-dimensional space.
  • a step of calculating predetermined parameters corresponding to the position of the camera, the position of the virtual light source, and the shape of an arbitrary part of the virtual three-dimensional model; And the imaging conditions including the light irradiation direction are set as parameters.
  • the shading information calculated for each parameter is set as the parameter set.
  • Storing in association with the shading information the computer storing, in the shading information, the shading information corresponding to the parameter calculated above. Read from the stage, based on the read Shiedingu information, characterized by comprising the step of calculating a luminance value of a corresponding portion of the virtual three-dimensional model.
  • a predetermined parameter corresponding to a predetermined position of the virtual three-dimensional model is calculated, and the shading information corresponding to the calculated parameter is determined based on a predetermined shading information.
  • the brightness value is read out from the shading information storage means which stores the brightness value in association with the parameter, and a corresponding brightness value is calculated.
  • the shading process can be performed without performing complicated and complicated parameter setting work, and the shading calculated based on the images obtained by imaging the actual sample under different imaging conditions. Since the shading process is performed on the virtual 3D model using the scanning information, This makes it possible to express the texture of the material and the optical anisotropy of the cloth, making it possible to more realistically shade the virtual 3D model.
  • a shading process of a virtual three-dimensional model can be performed realistically, without setting various parameters and a simple operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 現物の試料を撮影するシェーディング情報取得装置1と、シェーディング情報取得装置1が取得した画像を用いてシェーディング情報を算出し、算出したシェーディング情報を画像撮影時の撮影条件を含むパラメータと対応付けてシェーディング情報記憶部101に記憶させるシェーディング情報算出部201と、仮想3次元モデルの所定の位置におけるパラメータを算出するパラメータ算出部203と、算出したパラメータに対応するシェーディング情報をシェーディング情報記憶部101が読み出すシェーディング情報読出部204と、読み出したシェーディング情報及びテクスチャ記憶部103が記憶するテクスチャとを用いて、仮想3次元モデルの注目位置HPの輝度値を算出するシェーディング処理部206とを備える。

Description

明細書 画像処理装置、 画像処理プログラム、 そのプログラムを記録する記録媒 体、 画像処理方法およびシエーディング情報取得装置 技袷分野
本発明は、 コンピュータ上に仮想的に作成された仮想 3次元モデルの レンダリングの技術に関する。
背景技術
コンピュータ上に設定された仮想 3次元空間内で作成された仮想 3次 元モデルは、 3次元空間内に設定された仮想カメラ及び光源の位置、 光 源から仮想的に照射される光の仮想 3次元空間内における反射や屈折な どの影響を考慮して、 仮想 3次元空間内の所定の位置に設定された仮想 スクリーン上に描画 (レンダリング) され、 その仮想スクリーン上で描 画された画像がディスプレイ上に表示される。 仮想 3次元モデルをレン ダリングする場合、 仮想光源から照射される光の影響や仮想 3次元モデ ルの材質などを考慮して、 シェーディング処理が行われるが、 従来の画 像処理装置では、 このシェーディング処理は、 オペレータがパラメータ を設定することにより行われていた。
しかしながら、 リアルなシェーディング処理を行うためには、 パラメ 一夕の設定を的確に行わなければならず、 熟練した技能が要求されため, 初心者には困難であるとともに、 熟練者であつても膨大な時間及び労力 を費やさなければならないという問題があつた。
特に、 布のような繊維状の構造体は、 光の当たる角度により光の反射 率や拡散などが変化する光学異方性を有しており、 このような構造体か らなる仮想 3次元モデルをリアルにシェ一ディング処理するためには、 仮想 3次元空間内の環境光 (アンビエント) 、 発散光 (ディフューズ) 及び反射光 (スぺキユラ) といった種々のパラメータをより的確に設定 することが要求され、 初心者はもとより熟練者であっても、 膨大な時間 及び労力を費やさなければリアルなシエーディング処理を行うことがで きないという問題があった。
本発明は、 上記課題を解決するためになされたものであり、 種々のパ ラメ一夕を設定するという煩雑な作業を行うことなく、 簡便な操作であ りながら仮想 3次元モデルをリアルにシェーディング処理する画像処理 装置、 データ構造、 シェーディング情報取得装置、 画像処理プログラム, そのプログラムを記録した記録媒体及び画像処理方法を提供することを 目的とする。
発明の開示
本発明にかかる画像処理装置は、 仮想 3次元空間内に作成された仮想 3次元モデルをレンダリングする画像処理装置であって、 現物の試料に 対する少なくとも撮影方向及び光の照射方向を含む撮影条件をパラメ一 夕とし、 当該パラメ一夕を変化させて撮影された前記現物の試料の画像 を基に、 パラメ一夕毎に算出されたシエーディング情報を取得するシェ —ディング情報取得手段と、 取得したシエーディング情報を前記パラメ 一夕と対応づけて記憶するシエーディング情報記憶手段と、 前記仮想 3 次元空間内に設定された仮想カメラの位置、 仮想光源の位置及び前記仮 想 3次元モデルの任意の部位の形状を基に、 当該部位に対応する前記所 定のパラメ一夕を算出するパラメータ算出手段と、 取得されたパラメ一 夕に対応するシエーディング情報を前記シエーディング情報記憶手段か ら読み出して、 読み出したシェーディング情報を基に、 前記仮想 3次元 モデルの対応する部位の輝度値を算出するシエーディング処理手段とを 備えることを特徴とする。
この構成によれば、 撮影条件を含むパラメータを変化させて現物の試 料を撮影することにより得られた画像を基にシエーディング情報が取得 され、 取得されたシェーディング情報は、 現物の試料の少なくとも撮影 条件を含むパラメ一夕と対応付けてシエーディング情報記憶手段に記憶 される。 そして、 仮想 3次元モデルの任意の部位に対応する所定のパラ メータが算出され、 算出されたパラメ一夕に対応するシェ一ディング情 報がシエーディング情報記憶手段から読み出され、 読み出されたシエー ディング情報を基に、 所定の部位における輝度値が算出されシエーディ ング処理が施される。
そのため、 煩雑なパラメータ設定作業を行うことなく簡便な操作によ りシエーディング処理を行うことができるとともに、 それぞれ異なる撮 影条件下において現物の試料を撮影することにより得られた画像を基に 取得されたシエーディング情報を用いてシエーディング処理が行われて いるため、 光の干渉光などの影響による素材の質感や布の光学異方性な どを表現することが可能となり、 仮想 3次元モデルをよりリアルにシェ 一ディング処理することができる。
図面の簡単な説明
図 1は、 本実施形態に係る画像処理装置の全体構成を示したブロック 構成図である。
図 2は、 画像取得機構の側面図である。
図 3は、 図 2において矢印 K 1方向視における光源アームの拡大図で ある。
図 4は、 画像取得機構の上面図である。
図 5は、 画像取得機構を模式的に表した斜視図である。
図 6は、 本画像処理装置の機能ブロック図である。
図 7は、 シエーデイング情報記憶部のデータ構造を概念的に示した図 である。
図 8は、 シエーディング情報記憶部のデータ構造を概念的に示した図 である。
図 9は、 ジオメトリ情報取得部及びパラメ一夕算出部が行う処理を説 明するための模式図である。
図 1 0は、 ジオメトリ情報取得部及びパラメ一夕算出部が行う処理を 説明するための模式図である。
図 1 1は、 本画像処理装置が、 試料テーブルに載置された現物の試料 を撮影した画像を用いてシエーディング情報を算出する処理を示したフ 口一チャートである。
図 1 2は、 本画像処理装置が行うシエーディング処理を示したフロー チヤ一卜である。
図 1 3は、 シェ一ディング処理部が行う処理を説明するための図であ り、 (a ) は輝度値 Cと、 テクスチャの輝度値 Tとの関係を表すグラフ を示し (b ) はテクスチャ記憶部が記憶するテクスチャを概念的に示し たものである
図 1 4は、 本画像処理装置おける画像処理の効果を説明するための図 であり (a ) は従来の画像処理装置によりレンダリングされた画像を示 し、 (b ) は本画像処理装置によりレンダリングされた画像を示してい る。
発明を実施するための最良の形態
以下、 本発明に係る画像処理装置の最良の形態について説明する。 図 1は、 本実施形態に係る画像処理装置の全体構成を示したブロック構成 図である。 本画像処理装置は、 仮想 3次元モデルをレンダリングする際 に用いられるシェ一ディング情報を取得するシエーディング情報取得装 置 1と、 シェ一ディング情報取得装置 1が取得したシエーデイング情報 を用いてレンダリング等の画像処理を行うパーソナルコンピュータ 2と を備えている。
シエーディング情報取得装置 1は、 光を照射して現物の試料の撮影を 行う画像取得機構 3と、 画像取得機構 3の動作を制御する制御部 4とを 備えている。
図 2は、 画像取得機構 3の側面図を示しており、 図 3は、 図 2におい て矢印 K 1方向視における光源アーム 1 4 2の拡大図を示し、 図 4は画 像取得機構 3の上面図を示している。 画像取得機構 3は、 台座部 1 1と, 台座部 1 1に立設された軸 1 2と、 軸 1 2の上端に軸支された試料テー ブル 1 3と、 試料テーブル 1 3に載置された現物の試料を照射する発光 部 1 4と、 試料テーブル 1 3に載置された試料を撮影する撮影部 1 5と, 装置全体を覆うカバー 1 6とを備えている。
台座部 1 1は、 円盤状の凹部 1 1 1と、 凹部 1 1 1から放射状に円接 された 4本の脚部とを有し、 凹部 1 1 1には、 軸 1 2が内嵌固着された ブラケット 1 1 2が形成されている。 さらに、 台座部 1 1の外縁付近の 適所には、 台座部 1 1を移動させるための車輪 1 1 3と、 台座部 1 1を 地表に対して固定するためのストッパー 1 1 4とが取り付けられている < 試料テーブル 1 3は、 台座部 1 1よりも小さな径寸法を有する円盤状 の部材であり、 その中心部には、 円柱状の凸部 (図略) が、 台座部 1 1 側に向けて形成されており、 この凸部は、 軸 1 2に対して回転可能に内 嵌されている。 また、 試料テーブル 1 3の凸部には、 試料テーブル 1 3 を水平面上で回転させるためのモータ 1 3 1が取り付けられている。 こ こで、 凸部とモータ 1 3 1とは、 凸部の外周部に取り付けられたギアに, モータ軸のギアが嚙み合うように取り付けられている。 試料テーブル 1 3はモ一夕の駆動力を受けると所定角度回転し、 位置決めされる。
発光部 1 4は、 軸 1 2の軸方向と直交するように外側に向けて取り付 けられたァ一ム状の連結アーム 1 4 1と、 連結アーム 1 4 1の外側の一 端において、 連結アーム 1 4 1に対して回転可能に取り付けられた光源 アーム 1 4 2と、 光源アーム 1 4 2の一端に接続された光源 1 4 3とを 備えている。
連結アーム 1 4 1の軸 1 2側の一端には、 内部に軸受 1 4 4を備えた 筒状の軸受ホルダー 1 4 5が取り付けられており、 軸 1 2は、 軸受 1 4 4を介して軸受ホルダー 1 4 5に内挿されている。 軸受ホルダー 1 4 5 には、 連結アーム 1 4 1を水平面上で回転させるモ一夕 1 4 6が、 モー 夕軸が備えるギア及び軸受ホルダー 1 4 5が備えるギアを介して取り付 けられている。
光源アーム 1 4 2は、 連結アーム 1 4 1の外側の一端において軸方向 と平行に立設された連結部材 1 4 7を介して、 連結アーム 1 4 1の長手 方向と平行な方向を回転軸 R L 1として回転可能に取り付けられている この光源アーム 1 4 2は、 図 3に示すように、 回転軸 R L 1に直交する 基準ライン K Lと光源アーム 1 4 2との角度を αとすると、 半時計回り 方向を正として、 この αの値が一 9 0 ° から + 9 0 ° となる範囲内で回 転することができる。 光源アーム 1 4 2には、 光源アーム 1 4 2を連結 アーム 1 4 1に対して回転させるモータ 1 4 8が取り付けられており、 モータ 1 4 8の駆動力により所定角度回転されて位置決めされる。
光源アーム 1 4 2は、 角度ひが 0度で位置決めされた場合、 撮影装置 1 5 3の撮影方向が試料テーブル 1 3の中心位置〇に向かう円弧状の形 状を有している。 光源 1 4 3は、 光の発光源としてのメタルハラライド光源と、 メタル ハラライド光源の射出側に取り付けられ、 射出された光を平行光に変換 する、 例えばシリンドリカルレンズなどで構成されており (いずれも図 略) 、 照射する光の方向が試料テーブルの中心位置 Oに向かう、 光源ァ ーム 1 4 2の一端に接続されている。
撮影部 1 5は、 発光部 1 4とほぼ同一の構成を有しており、 連結ァ一 ム 1 5 1と、 連結アーム 1 5 1に対して、 連結アーム 1 5 1の長尺方向 と平行な方向である回転軸 R L 2を軸として、 回転可能に取り付けられ た撮影ァ一ム 1 5 2と、 撮影アームの一端に接続された撮影装置 1 5 3 とを主な構成要素としている。
連結アーム 1 5 1の長手方向の寸法は、 連結アーム 1 4 1の長手方向 の寸法よりも短い。 連結アーム 1 5 1の外側の一端に接続された撮影ァ ーム 1 5 2は、 発光部 1 4と同様に、 基準ライン K Lと撮影アーム 1 5 2との角度を ]3とすると、 半時計回り方向を正として、 この ]3が一 9 0 度から + 9 0度の範囲をとるように回転することができる。 撮影アーム 1 5 2は、 角度 /3が 0度で位置決めされた場合、 撮影装置 1 5 3の撮影 方向が試料テーブル 1 3の中心位置〇に向かう円弧状の形状を有してい る。
また、 撮影アーム 1 5 2には、 連結アーム 1 5 1の外側の一端におい て、 立設された連結部材 1 5 4を介して、 モータ 1 5 5が取り付けられ ており、 撮影アーム 1 5 2は、 モータ 1 5 5の駆動力を受けて所定角度 回転され、 位置決めされる。
連結アーム 1 5 1の軸 1 2側の一端には、 筒状のホルダー 1 5 6が取 り付けられ、 このホルダー 1 5 6には、 軸 1 2が内挿され、 さらにホル ダー 1 5 6は、 キー 1 5 7によって、 軸 1 2に固定されている。
撮影装置 1 5 3は、 C C Dカメラ、 ズームレンズ及びクローズアップ レンズなどを備え (いずれも図略) 、 撮影方向が試料テーブルの中心位 置 Oに向かうように、 撮影アーム 1 5 2の一端に接続されている。 カバー 1 6は、 底なし直方体形状を有しており、 側面 1 6 1の底側の 断面の適所には、 カバ一 1 6を運搬するための車輪 1 6 2が取り付けら れているとともに、 各車輪 1 6 2の近傍にはカバ一 1 6を地面に対して 固定するためのストッパー 1 6 3が取り付けられている。 なお、 力パー 1 6は、 直方体形状に限らず、 例えばドーム形状のように装置全体を覆 うことができる形状であれば、 どのような形状を有していてもよい。 図 5は、 画像取得機構 3の構造を説明するための斜視図である。 図 5 において、 説明の便宜上、 試料テーブル 1 3の中心位置 Oを原点として, N、 U及び Vのそれぞれ直交する座標軸を仮想的に設定している。 U軸 は、 連結アーム 1 5 1の長手方向上に設定されている。 試料テーブル 1 3の回転角度である角度 dは U軸を基準としている。 また、 U軸及び連 結アーム 1 4 1間の角度ァが発光部 1 4の水平方向の回転角度である。 なお、 本実施形態では、 試料テーブル 1 3に、 現物の試料として布 Sを 載置するものとし、 δ = 0度のときに布 Sの繊維の方向 F Lを U軸と平 行になるように載置するため、 U軸に対する試料テーブル 1 3の角度 <5 と、 U軸に対する布 Sの繊維の方向 F Lの角度とは一致する。
連結アーム 1 4 1は、 モータ 1 4 6によって、 連結アーム 1 4 1の外 側の一端 1 4 1 aが U— V平面上の円周 C 1に沿って角度ァが 0〜 3 6 0度の範囲内をとるように回転されて位置決めされる。 光源アーム 1 4 2は、 モータ 1 4 8によって、 光源 1 4 3が N— V平面上の円弧 C 2に 沿って、 角度 αが N軸を基準として— 9 0度〜 + 9 0度の範囲内で回転 されて位置決めされる。 撮影アーム 1 5 2は、 撮影装置 1 5 3が Ν— V 平面上の円弧 C 3に沿って角度 )3が Ν軸を基準として一 9 0度〜 + 9 0 度の範囲をとなるように回転されて位置決めされる。 なお、 これら 4種 類の角度 α、 β、 ァ及び δがパラメ一夕 α、 β、 ァ及び である。
図 1に示すように、 パーソナルコンピュータ 2は、 ォペレ一夕の操作 指令を受け付ける入力装置 2 1と、 パーソナルコンピュータ 2を稼動さ せるための、 例えば B I O Sなどの基本プログラムを記録する R O M (リードオンリーメモリ) 2 2と、 画像処理プログラムを実行する C P U (中央演算処理装置) 2 3と、 一時的にデータを記憶し、 C P U 2 3 の作業領域として用いられる R A M (ランダムアクセスメモリ) 2 4と, 画像処理プログラムや、 オペレーティングングシステムなどを記憶する 補助記憶装置 2 5と、 C PU 2 3の処理した画像を表示する表示装置 2 6と、 フレキシブルディスク、 CD— ROM及び DVD— ROMなどの 記録媒体に記録されたデータを読み取る記録媒体駆動装置 2 7とを備え ている。
さらに、 パーソナルコンピュータ 2には、 撮影装置 1 5 3が現物の試 料を撮影することにより取得した画像を、 I EEE 1 3 94規格に準拠 した DV端子に接続されたケーブル C Aを介して取得するビデオキヤプ チヤポード 28と、 CPU 2 3及びモータコントローラ 46間のイン夕 フェイスを図るモー夕インタフェイス 2 9とを備えている。
ROM 2 2 , C PU2 3、 RAM 24、 補助記憶装置 2 5、 表示装置 26及び記録媒体駆動装置 2 7は、 バスラインにより相互に接続されて いる。 入力装置 2 1は、 キーボードやマウスなどを含み、 パーソナルコ ンピュータ 2本体の背後に備えられた例えば US Bポートなどに接続さ れている。
本画像処理装置は、 パーソナルコンピュータ 2を画像処理装置として 機能させる画像処理プログラムが記録された例えば C D—: R〇 Mなどの 記録媒体を、 記録媒体駆動装置 2 7に装填し、 画像処理プログラムを補 助記憶装置 2 5にィンストールすることにより、 パーソナルコンピュー 夕 2を画像処理装置としている。 なお、 画像処理プログラムを記憶する WE Bサ一バーからインタ一ネット回線を介してダウン口一ドすること により画像処理プログラムをィンストールしてもよい。
また、 パーソナルコンピュータ 2により種々のデータを入力し、 その デ一夕をィン夕一ネット上に配置された WE Bサーバー上で処理し、 処 理結果をパーソナルコンピュータ 2に送信するというように、 WE Bサ —バー及びパーソナルコンピュータ 2間で画像処理プログラムを分散的 に実行させてもよい。
制御部 4は、 パーソナルコンピュータ 2からの指示を受けて、 試料テ 一ブル 1 3を回転させるモータ 1 3 1、 光源アーム 142を回転させる モータ 148、 連結アーム 1 4 1を回転させるモー夕 146のそれぞれ を制御するモータドライバ 4 1〜44と、 光源 1 43のオン ·オフ及び 照射される光の強度を制御する光源ドライバ 4 5と、 モー夕ドライバ 4 1〜 4 4に対してパルス信号や制御信号などの種々の信号を出力するモ 一夕コントローラ 4 6とを備えている。
モ一タドライバ 4 1〜 4 4は、 モータコントローラ 4 6から出力され たパルス信号やモー夕の正逆回転を指定するための制御信号などを受信 し、 受信したパルス信号を電力パルス信号に変換して各モ一夕のコイル を励磁させ、 各モータを駆動させる。 光源ドライバ 4 5は、 パーソナル コンピュータ 2から出力された制御信号を受信し、 例えば制御信号の強 度に応じたレベルの駆動電流を生成し、 光源 1 4 3を点灯させる。 モー 夕コントローラ 4 6は、 モ一夕インタフェイス 2 9を介して、 後述する 撮影機構制御部 2 0 8から種々の信号を受信し、 その信号に応じてモー タドライバ 4 1〜4 4を駆動するための種々の信号を出力する。
図 6は、 本画像処理装置の機能ブロック図を示している。 本画像処理 装置は、 主に R A M 2 4から構成される記憶部 1 0 .0と、 主に C P U 2 3から構成されるプログラム実行部 2 0 0とを備えている。 記憶部 1 0 0は、 シェーディング情報記憶部 1 0 1と、 3次元モデル記憶部 1 0 2 と、 テクスチャ記憶部 1 0 3とを備え、 プログラム実行部 2 0 0は、 シ エーデイング情報算出部 2 0 1と、 ジオメトリ情報取得部 2 0 2と、 パ ラメ一夕算出部 2 0 3と、 シエーディング情報読出部 2 0 4と、 補間処 理部 2 0 5と、 シェーディング処理部 2 0 6と、 レンダリング処理部 2 0 7と、 撮影機構制御部 2 0 8と、 シヱーディング情報補間部 2 0 9と を備えている。
シェーディング情報算出部 2 0 1は、 画像取得機構 3が撮影した現物 の試料の画像を受信し、 受信した画像上の所定の位置 (伊!!えば、 中心位 置) を重心として、 縦に nピクセル横に mピクセルの四角形の領域を設 定し、 設定した領域の輝度の平均値、 最大値及び最小値を算出し、 算出 した輝度の平均値、 最大値及び最小値をシェーディング情報とし、 受信 した画像の撮影時のパラメータひ、 β、 ァ及び δと対応づけてシエーデ ィング情報記憶部 1 0 1に記憶させる。
図 7及び図 8は、 シェーディング情報記憶部 1 0 1のデータ構造を概 念的に示した図である。 シェーディング情報記憶部 1 0 1は、 第 1及び 第 2のテーブルからなる 2種類のテ一ブルを備えており、 図 7は、 第 1 のテーブルを示し、 図 8は第 2のテーブルを示している。
第 1のテーブルは、 光源アーム 1 4 2の垂直方向の回転角度である角 度 aの欄と、 試料テーブル 1 3の回転角度である角度 δの欄とから構成 されている。 角度 a;の欄には、 角度 が _ 9 0度〜 + 9 0度の範囲内で 例えば 1 0度毎に記載されており、 角度 δの欄には、 角度 δが 0度〜 3 6 0度の範囲内で例えば 1 5度毎に記載されている。 第 1のテーブルの 各セルには、 角度 a及び <5によって特定される第 2のテープルを表すィ ンデックスが記憶されている。 図 7では、 アルファベット Tに各セルを 行番号及び列番号添え字として表したものを第 2のテーブルのィンデッ クスとしている。 例えば、 インデックス T 0 0は 0行 0列にセルに記憶 されたインデックスであるため、 添え字として 「0 0」 が記載されてい る。
第 2のテーブルは、 複数のテーブルから構成され、 各テーブルは、 ィ ンデックスが付与されており、 このインデックスは、 第 1のテーブルの 各セルに記載されたィンデックスと対応づけられている。 第 2のテープ ルは、 それぞれ撮影アーム 1 5 2の回転角度である角度 ]3の欄と、 連結 アーム 1 4 1の回転角度である角度ァの檷とから構成されている。 角度 )3の欄は、 角度 βが、 一 9 0度〜 + 9 0度の範囲内で例えば 1 0度毎に 記載されている。 角度ァの欄には、 角度ァが 0度〜 3 6 0度の範囲で例 えば 1 5度毎に記載されている。 第 2のテーブルの各セルには、 シエー ディング情報が記憶されている。
なお、 図 7及び図 8では、 角度 a及び角度) 3の刻み幅を 1 0度毎に角 度 δ及び角度ァの刻み幅を 1 5度毎に設定しているが、 これに限定され ず、 より細かな刻み幅にしてもよいし、 より大きな刻み幅にしてもよい し、 さらには、 例えば、 0〜4 5度の範囲では 5度刻み、 4 5度〜 9 0 度の範囲では、 1 0度刻みというように角度範囲に応じて、 刻み幅を適 宜変更してもよい。
シェーディング情報補間部 2 0 9は、 光源 1 4 3の光軸上に撮影装置 1 5 3が位置する (以下、 「重なり位置」 といい、 重なり位置は複数存 在する。 ) 場合に取得されたシェーディング情報を、 その重なり位置に 隣接する複数の位置で取得されたシエーディング情報を補間処理して、 その重なり位置における正規のシェ一ディング情報を算出する。 なお、 重なり位置は、 画像取得機構 3の構造によって決定されるものであり、 予め特定することができるため、 予め記憶部 1 0 0に記憶されている。
3次元モデル記憶部 1 0 2は、 コンピュータ上に設定された仮想 3次 元空間内でオペレータが予め作成した仮想 3次元モデルの形状を特定す るための種々のデータ、 例えば、 仮想 3次元モデル表面に張られた複数 の 3角形または 4角形等からなるポリゴンの各々の頂点の座標等を記憶 するとともに、 仮想 3次元空間内に設定された仮想光源及び仮想力メラ の座標を記憶する。
テクスチャ記憶部 1 0 3は、 仮想 3次元モデルにマッピングするテク スチヤを記憶する。 テクスチャ記憶部 1 0 3は、 複数のテクスチャが予 め記憶されており、 オペレータは、 これら複数のテクスチャの中から仮 想 3次元モデルにマッピングするテクスチャを選択する。 さらに、 テク スチヤ記憶部 1 0 3は、 オペレータが作成したテクスチャを記憶するこ ともできる。
図 9及び図 1 0は、 ジオメトリ情報取得部 2 0 2及びパラメータ算出 部 2 0 3が行う処理を説明するための模式図である。 ジオメトリ情報取 得部 2 0 2は、 仮想 3次元モデルの表面の所定の位置に注目位置 H Pを 設定し、 注目位置 H Pを含むポリゴンの各頂点の座標、 仮想カメラ V C の座標及び仮想光源 V Lの座標から、 設定した注目位置 H Pにおける法 線べクトル N 'と、 注目位置 H Pから仮想光源 V Lへ向かう光源べクト ル Lと、 注目位置 H Pから仮想カメラ V Cへ向かう視点べクトル C Vと を算出する。 ジオメトリ情報取得部 2 0 2は、 この注目位置 H Pを仮想 3次元モデルの全体にわたって順次設定していく。
パラメータ算出部 2 0 3は、 注目位置 H Pにおいて、 法線ベクトル N ' と光源ベクトル Lとの間の角度 (光源の垂直角度 Z ) 及び法線べクト ル N 'と視点ベクトル C Vとの間の角度 (視点角度 X ) を算出する。 な お、 図 5を参照すれば分かるように光源の垂直角度 Zは角度 aに対応し ており、 視点角度 Xは角度; 8に対応している。
また、 パラメ一夕算出部 2 0 3は、 図 1 0に示すように、 注目位置 H Pを含むポリゴンの表面上に、 それぞれ直交する U一軸及び V '軸を設 定し、 光源ベクトル Lの U '— V '平面上への正射影ベクトル (正射影 光源ベクトル L H ) と、 U '軸との間の角度を光源の水平角度 Yとして 算出する。 ここで、 図 5に示す U軸及び V軸と U '軸及び V '軸とを対 応させるために、 U '軸は視点べクトル C Vの U '— V '平面上への正 射影ベクトル C H上に設定している。 この光源の水平角度 Yは、 図 5に 示す角度ァに対応している。
また、 パラメータ算出部 2 0 3は、 ポリゴンの表面にマッピングされ る仮想布の繊維方向 F L 'と U '軸との間の角度を試料角度 Wとして算 出する。 この試料角度 Wは図 5に示す試料テーブル 1 3の回転角度であ る角度 δに対応している。
シエーディング情報読出部 2 0 4は、 パラメ一夕算出部 2 0 3が算出 した光源の垂直角度 Ζ、 視点角度 X、 光源の水平角度 Υ及び試料角度 W をパラメータとして、 シェーディング情報記憶部 1 0 1を参照し、 これ らのパラメ一夕に対応するするシエーディング情報を読み取る。 ここで, パラメ一夕算出部 2 0 3が算出したパラメ一夕に対応するシェ一ディン グ情報が、 シェーディング情報記憶部 1 0 1に存在しない場合、 シエー ディング情報読出部 2 0 4は、 算出したパラメータに最も近いパラメ一 夕に対応するシェーディング情報を読み取る。
補間処理部 2 0 5は、 パラメ一夕算出部 2 0 3が算出したパラメータ と、 シエーディング情報読出部 2 0 4が読み取ったシエーディング情報 に対^するパラメータとがー致しない場合、 読み取ったシエーディング 情報を補間処理して、 算出したパラメ一夕に対応するシエーディング情 報を算出する。 例えば、 パラメ一夕算出部 2 0 3が算出した視点角度 X が 4 2度であり、 視点角度 Xに対応する角度 |Sを 4 0度としてシエーデ ィング情報を読み取った場合、 読み取ったシエーディング情報を記憶す るセルに隣接するセルに記憶されたシエーディング情報を用いて、 視点 角度 Xが 4 2度に対応するシエーディング情報を算出する。
シエーディング処理部 2 0 6は、 シヱーディング情報読出部 2 0 4が 読み取ることにより、 又は補間処理部 2 0 5が補間することにより取得 したシエーディング情報と、 テクスチャ記憶部 1 0 3が記憶するテクス チヤとを用いて、 そのテクスチャの輝度の最大値が、 取得したシエーデ イング情報の輝度の最大値に、 テクスチャの輝度の最小値が、 取得した シエーディング情報の輝度の最小値に、 テクスチャの輝度の平均値が、 取得したシエーディング情報の輝度の平均値に対応するように、 取得し たシエーディング情報の輝度の最大値、 最小値及び平均値をスプライン 補間して、 取得したシエーディング情報とテクスチャとの相関関数を算 出し、 算出した相関関数を用いて、 仮想 3次元モデルの注目位置 H Pに おける輝度値を算出する。
レンダリング処理部 2 0 7は、 仮想 3次元空間内に設定された仮想ス クリーン上に、 例えばレイ トレーシング等の手法を用いて仮想 3次元モ デルをレンダリングする。 そして、 レンダリングした画像を表示装置 2 6に出力して表示させる。
撮影機構制御部 2 0 8は、 モ一タコントローラ 4 6に制御信号を出力 することにより、 モータコントローラ 4 6に試料テーブル 1 3、 発光部 1 4及び撮影部 1 5をそれぞれ所定タイミングで所定角度移動させるこ とにより位置決めさせ、 試料テーブル 1 3、 発光部 1 4及び撮影部 1 5 を制御する。 また、 撮影機構制御部 2 0 8は、 光源 1 4 3を所定夕イミ ング、 例えば、 現物の試料を撮影する直前に、 所定光量で点灯させるた めに駆動電流を供給し、 光源 1 4 3を点灯させ、 撮影終了時に、 光源 1 4 3を消灯させて光源 1 4 3を制御する。
図 1 1は、 本画像処理装置が、 試料テーブル 1 3に載置された現物の 試料を撮影した画像を用いてシエーディング情報を算出する処理を示し たフローチャートである。 なお、 試料テーブル 1 3の中心位置〇には (図 5参照) 、 縦及び横に所定の長さ寸法を有する四角形状に裁断され た布が、 現物の試料として予め載置されているものとする。
ステップ S 1において、 撮影開始が指示されると、 撮影機構制御部 2 0 8は、 モー夕 1 3 1を駆動させることにより試料テーブル 1 3を所定 角度、 例えば 1 5度回転させ、 試料テーブル 1 3の角度 δを設定する。 ステップ S 2において、 撮影機構制御部 2 0 8は、 モ一タ 1 4 6を駆 動させることにより、 連結アーム 1 4 1を所定角度、 例えば 1 5度回転 させ、 発光部 1 4の水平方向の角度 rを設定する。
ステップ S 3において、 撮影機構制御部 2 0 8は、 モータ 1 4 8を駆 動させることにより、 光源アーム 1 4 2を所定角度、 例えば 1 0度回転 させ、 発光部 1 4の垂直方向の角度 αを設定する。
ステップ S 4において、 撮影機構制御部 2 0 8は、 モータ 1 5 5を駆 動させることにより、 撮影アーム 1 5 2を所定角度、 例えば 1 0度回転 させ、 撮影部 1 5の角度 を設定する。
なお、 ステップ S 1〜 S 4において、 角度 δ及びァは、 1 5度単位で 位置決めされ、 角度 α及び /3は、 1 0度単位で位置決めされているが、 これらの値は、 入力装置 2 1を介して予めオペレータにより設定された 値であり、 これらの値は、 適宜変更することができる。
ステップ S 5において、 撮影機構制御部 2 0 8は、 光源 1 4 3を所定 光量で点灯させ、 撮影装置 1 5 3により、 試料テーブル 1 3に載置され た現物の試料を撮影させる。 そして、 撮影が終了すると、 光源 1 4 3を 消灯させる。 なお、 撮影機構制御部 2 0 8は、 試料テーブル 1 3、 発光 部 1 4及び撮影部 1 5の位置決めがされる毎に光源 1 4 3を点灯させて いるが、 シェーディング情報取得装置 1が稼動している間、 常時光源 1 4 3を点灯させてもよい。
ステップ S 6において、 シェーディング情報算出部 2 0 1は、 撮影装 置 1 5 3が撮影した現物の試料の画像をケーブル C Αを介して受信し、 受信した画像に所定の領域を設定し、 設定した領域の輝度の最大値、 最 小値及び平均値を算出し、 算出したこれらの値をシエーディング情報と する。
ステップ S 7において、 シェーディング情報算出部 2 0 1は、 ステツ プ S 6で算出したシェーディング情報をその撮影条件 (角度 α、 β、 r 及び ό ) と対応づけてシエーディング情報記憶部 1 0 1に記憶させる。 この場合、 シェーディング情報補間部 2 0 9は、 予め記憶部 1 0 0に記 憶された重なり位置におけるシエーディング情報を、 隣接する複数の位 置のシエーディング情報を用いて補間処理し、 正確なシエーディング情 報を算出する。
ステップ S 8において、 撮影機構制御部 2 0 8により、 撮影部 1 5の 角度 ;8が所定の最終角度であるか否かが判断され、 最終角度である場合 (S 8で YE S) ステップ S 9に進み、 最終角度でない場合 ( 8で O) 、 ステップ S 4に戻り、 再度、 撮影部 1 5の角度 の設定が行われ る。 なお、 本実施形態では、 撮影部 1 5の角度^は、 初期値として一 9 0度が設定されており、 + 90度まで 1 0度単位で順次変更されていく ( ステップ S 9において、 撮影機構制御部 20 8により、 光源 143の 垂直方向の角度 αが所定の最終角度であるか否かが判断され、 最終角度 である場合 (S 9で YE S) ステップ S 1 0に進み、 最終角度でない場 合 (S 9で NO) ステップ S 3に戻り、 再度、 発光部 14の角度 αが設 定が行われる。 なお、 本実施形態では、 角度ひは、 初期値として一 90 度が設定されており、 + 9 0度まで 1 0度単位で順次変更されていく。 したがって、 最終角度は + 9 0度となる。
ステップ S 1 0において、 撮影機構制御部 2 0 8により、 発光部 14 の水平方向の角度 rが所定の最終角度でるか否かが判断され、 最終角度 である場合 (S 1 0で YE S) 、 ステップ S I 1に進み、 最終角度でな い場合 (S 1 0で NO) 、 ステップ S 2に戻り、 再度、 発光部 14の角 度ァの設定が行われる。 なお、 本実施形態では、 角度ァは、 初期値とし て、 0度が設定されており、 36 0度まで 1 5度単位で順次変更されて いく。 したがって、 最終角度は 3 6 0度となる。
ステップ S 1 1において、 撮影機構制御部 2 0 8により、 試料テープ ル 1 3の角度が最終角度であるか否かが判断され、 最終角度である場合 (S 1 1で YE S) 処理が終了され、 最終角度でない場合 (S 1 1で N O) 、 ステップ S 1に戻り、 再度、 試料テーブル 1 3の角度 <5の設定が 行われる。 なお、 本実施形態では、 角度 <5は、 初期値として、 0度が設 定されており、 3 6 0度まで、 1 5度単位で順次変更されていく。 した がって、 最終角度は 3 6 0度となる。
図 1 2は、 本画像処理装置が行うシエーディング処理を示したフロー チャートである。 ステップ S 2 1において、 ジオメトリ情報取得部 2 0 2は、 図 9に示すように、 3次元モデル記憶部 1 0 2に記憶されたデー 夕を読出し、 仮想カメラ V Cの座標、 仮想光源 V Lの座標及び仮想 3次 元モデル表面の所定の注目位置 H Pの座標から、 その注目位置 H Pにお ける法線べクトル N '、 光源べクトル L及び視点べクトル C Vをそれぞ れ算出する。
ステップ S 2 2において、 パラメータ算出部 2 0 3は、 図 9に示すよ うに、 ステップ S 2 1で算出された法線べクトル N '、 光源べクトルし 及び視点べクトル C Vを用いて、 注目位置 H Pにおける光源の垂直角度 Z及び視点角度 Xを算出する。 さらに、 パラメ一夕算出部 2 0 3は、 注 目位置 H Pを含むポリゴンの平面上に、 U '軸及び V '軸を設定し、 U '軸に対する正射影光源べクトル L Hの角度を光源の水平角度 Yとして 算出する。 さらに、 パラメ一夕算出部 2 0 3は、 U '軸に対する注目位 置 H P上に設定されたポリゴンの表面に設定された仮想布の繊維の方向 F L 'の角度を試料角度 Wとして算出する。
ステップ S 2 3において、 シェーディング情報読出部 2 0 4は、 ステ ップ S 2 2で算出された視点角度 X (角度^に対応) 、 光源の垂直角度
Z (角度 Q!に対応) 、 光源の水平角度 Y (角度ァに対応) 及び試料角度
W (角度 δに対応) の 4つのパラメ一夕に対応するシェーディング情報 をシェーディング情報記憶部 1 0 1から読み出す。 なお、 シェ一ディン グ情報読出部 2 0 4は、 ステップ S 2 2で算出した 4つのパラメータに 対応するシエーディング情報がシエーディング情報記憶部 1 0 1に存在 しない場合、 4つのパラメ一夕に最も近いパラメ一夕に対応するシエー デイング情報をシェーディング情報記憶部 1 0 1から読み出す。
ステップ S 2 4において、 ステップ S 2 3で読み出されたシエーディ ング情報が近似されたパラメ一夕に対応するものである場合、 補間処理 が必要とされて (S 2 4で Y E S ) 、 ステップ S 2 5に進み、 ステップ S 2 3で読み出されたシエーディング情報が、 ステップ S 2 2で算出さ れたパラメータに対応するものである場合、 補間処理は必要ないため、 ステップ S 2 6に進む。
スタップ S 2 5において、 補間処理部 2 0 5は、 ステップ S 2 2で算 出されたパラメ一夕と、 ステップ S 2 3で読み出したシエーディング情 報に対応するパラメ一夕との差分から、 読み出したシヱーディング情報 を補間して算出したパラメータに対応するシエーディング情報を算出す る。
ステップ S 2 6において、 オペレータによって、 シェーディングに用 いる色の指定がされている場合 (S 2 6で Y E S ) 、 ステップ S 2 7に 進み、 シェーディング処理部 2 0 6により、 シェーディング情報に対し て設定された所定の色が付され、 シエーディングに用いる色の指定がさ れていない場合は (S 2 6で N O ) ステップ S 2 8に進む。
ステップ S 2 8において、 オペレータによって、 シェーディングに対 して透明度が設定されている場合 (ステップ S 2 8で Y E S ) 、 ステツ プ S 2 9に進み、 シェーディング処理部 2 0 6により、 シェーディング 情報に透明度が設定され、 透明度が設定されていない場合 (ステップ S 2 8で N O ) 、 ステップ S 3 0に進む。
ステップ S 3 0において、 シェ一ディング処理部 2 0 6は、 ステップ S 2 3 2 9によって設定されたシエーディング情報とテクスチャ記 憶部 1 0 3が記憶する複数のテクスチャのうち、 オペレータが指定した 1つのテクスチャとを用いて、 注目位置 H Pの輝度値を算出する。 図 1 3は、 シェ一ディング処理部 2 0 6が行う処理を説明するための 図であり、 (a ) は輝度値 Cと、 テクスチャの輝度値 Tとの関係を表す グラフを示し (b ) はテクスチャ記憶部 1 0 3が記憶するテクスチャを 概念的に示したものである。 (a ) に示す縦軸上に示された C m a x、 C a v e及び C m i nは、 それぞれ、 シェーディング情報に含まれる輝 度の最大値、 平均値及び最小値を示している。 (b ) に示すように、 テ クスチヤ記憶部 1 0 3は、 1辺を 1とする正方形のテクスチャの左上の 頂点を原点とし、 上辺に沿って u軸、 左辺に沿って V軸が設定されてお り、 u及び Vの値を定めると、 テクスチャの輝度値 Tが決定される。 シエーディング処理部 206は、 テクスチャの輝度の最大値 Tm a x が 1、 平均値 T a v eが 0. 5及び最小値 Tm i nが 0となるように、 設定されたシエーディング情報に含まれる輝度の最大値 Cma x、 平均 値 C a V e及び最小値 Cm i nと、 テクスチャの輝度の最大値 Tm a x, 平均値 T a v e及び最小値 Tm i nとをそれぞれ対応付ける。 このよう な対応付けを行うことで、 テクスチャの全ての輝度値 Tに対応する輝度 値 Cが存在することになり、 よりリアルなシエーディング処理を行うこ とができる。 そして、 Cma x、 C a V e及び Cm i nの 3点に対して スプライン補間を施し、 かつ、 Cm i n = 0となるように輝度値 Cとテ クスチヤの輝度値 Tとの相関関数 C (T) を算出する。
そして、 シェーディング処理部 20 6は、 注目位置 HPにマッピング するテクスチャの輝度値 T (u, v) が決定されると、 輝度値 T (u, v) を相関関数 C (T) に代入して、 注目位置 HPにおける輝度値 Cと 算出する。 そして、 順次、 注目位置 HPを変化させ、 各注目位置 HPに 関して同様の処理を施し、 仮想 3次元モデルにシヱーディング処理を施 していく。 このようにテクスチャと、 現物の試料を撮影することにより 取得されたシエーディング情報とを用いてシエーディング処理を行うこ とにより、 布のミクロな質感を再現することが可能となる。
ステップ S 3 1において、 レンダリング処理部 20 7は、 仮想 3次元 空間内の所定の位置に設定された仮想スクリーン上に、 仮想 3次元モデ ルをレンダリングする。 レンダリングされた画像は、 表示装置 2 6に表 示される。
図 14は、 本画像処理装置おける画像処理の効果を説明するための図 であり (a) は従来の画像処理装置によりシェーディング処理された画 像を示し、 (b) は本画像処理装置によりシェーディング処理された画 像を示している。 図 14 (a) 及び (b) の画像は、 いずれも、 仮想人 体モデル TOが赤色のドレス DOを着服している。 図 14 (a) に示す ように、 従来の画像処理装置では、 ドレス DOは、 胴体の側部には多少 陰影が表われているものの、 表面が全体的に赤一色で着色されて表示さ れるにとどまり、 リアル性に欠ける。 一方、 図 14 (b) に示すように 本画像処理装置では、 現物の試料を撮影することにより取得された画像 を用いて、 シェーディング処理を行っているため、 布の光学異方性を考 慮した陰影を正確に表現することが可能となり、 ドレス D 0の先端部分 や胸の部分のプリーツがリアルに表現されていることが分かる。
なお、 本発明は、 以下の形態を採用することができる。
( 1 ) 上記実施形態では、 画像処理プログラムをパーソナルコンビュ 一夕 2にインストールする形態を示したが、 これに限定されず、 画像処 理プログラムを L S Iなどのハードウエアにより構成してもよい。
( 2 ) 上記実施形態では、 撮影部 1 5は台座部 1 1に対し水平方向に 回転しないものであつたが、 これに限定されず、 水平方向に回転させて もよい。 この場合、 連結アーム 1 5 1を軸 1 2に対して回転可能に取り 付け、 連結アーム 1 5 1をモータによって駆動させればよい。
( 3 ) 上記実施形態では、 テクスチャ記憶部 1 0 3が記憶するテクス チヤを用いてテクスチャマツピングする態様を示したが、 これに限定さ れず、 テクスチャマッピングを行わない場合も本発明に含まれる。 この 場合、 シェーディング処理部 2 0 6は、 シェーディング情報のうち輝度 の平均値のみを用い、 この輝度の平均値を対応する仮想 3次元モデルの 注目位置 H Pの輝度値とすればよい。
( 4 ) また、 本画像処理装置が現物の試料を撮影することにより取得 したシェ一デイング情報は、 P T M (Po lynomi a l Tex ture Mapp i ng) に よるシェ一ディング処理に対しても用いることができる。
本発明の要点をまとめると、 次のようになる。
本発明にかかる画像処理装置は、 仮想 3次元空間内に作成された仮想 3次元モデルをレンダリングする画像処理装置であって、 現物の試料に 対する少なくとも撮影方向及び光の照射方向を含む撮影条件をパラメ一 夕とし、 当該パラメ一夕を変化させて撮影された前記現物の試料の画像 を基に、 パラメ一夕毎に算出されたシエーディング情報を取得するシェ —ディング情報取得手段と、 取得したシエーディング情報を前記パラメ 一夕と対応づけて記憶するシェ一ディング情報記憶手段と、 前記仮想 3 次元空間内に設定された仮想カメラの位置、 仮想光源の位置及び前記仮 想 3次元モデルの任意の部位の形状を基に、 当該部位に対応する前記所 定のパラメ一タを算出するパラメータ算出手段と、 取得されたパラメ一 夕に対応するシエーディング情報を前記シエーディング情報記憶手段か ら読み出して、 読み出したシェーディング情報を基に、 前記仮想 3次元 モデルの対応する部位の輝度値を算出するシヱーディング処理手段とを 備えることを特徴とする。
この構成によれば、 撮影条件を含むパラメ一夕を変化させて現物の試 料を撮影することにより得られた画像を基にシエーディング情報が取得. され、 取得されたシェーディング情報は、 現物の試料の少なくとも撮影 条件を含むパラメータと対応付けてシエーディング情報記憶手段に記憶 される。 そして、 仮想 3次元モデルの任意の部位に対応する所定のパラ メ一夕が算出され、 算出されたパラメ一夕に対応するシエーディング情 報がシエーディング情報記憶手段から読み出され、 読み出されたシェ一 ディング情報を基に、 所定の部位における輝度値が算出されシエーディ ング処理が施される。
そのため、 煩雑なパラメ一夕設定作業を行うことなく簡便な操作によ りシエーディング処理を行うことができるとともに、 それぞれ異なる撮 影条件下において現物の試料を撮影することにより得られた画像を基に 取得されたシェ一ディング情報を用いてシエーディング処理が行われて いるため、 光の干渉光などの影響による素材の質感や布の光学異方性な どを表現することが可能となり、 仮想 3次元モデルをよりリアルにシェ 一ディング処理することができる。
また、 前記シェーディング情報取得手段は、 台座と、 前記台座の上に 配設され、 前記現物の試料を載置する試料テーブルと、 前記現物の試料 に対して第 1の方向から光を照射する発光手段と、 前記現物の試料を第 2の方向から撮影する撮影手段とを備え、 前記発光手段は、 前記第 1の 方向が変動可能に構成され、 前記撮影手段は、 前記第 2の方向が変動可 能に構成されていることが好ましい。
この場合、 光源から現物の試料に対する光の照射方向である第 1の方 向、 撮影装置から現物の試料に対する撮影方向である第 2の方向がそれ ぞれ変動可能に構成されているため、 撮影条件を変化させて現物の試料 を撮影することが容易となり、 複数のシエーディング情報を効率よく取 得することができる。 '
また、 前記シェーディング情報取得手段は、 前記第 1の方向と第 2の 方向が重なる場合の前記発光手段及び前記撮影手段の位置を予め重なり 位置として記憶する記憶手段を備え、 前記重なり位置に隣接する位置に よって特定されるシエーディング情報を補間処理することにより、 前記 重なり位置によって特定されるシエーディング情報を算出するシエーデ ィング情報補間手段を備えることが好ましい。 '
第 1及び第 2の方向が重なると、 発光手段から射出された光は撮影手 段によって遮られるため、 現物の試料が正確に照射されない、 あるいは 撮影方向である第 2の方向前方に発光手段が存在するために、 現物の試 料が正確に撮影されない。 そのため、 正確なシヱーデイング情報を取得 することができない。 本画像処理装置では、 第 1及び第 2の方向が重な り位置におけるシェ一ディング情報が、 その重なり位置に隣接する位置 によって特定されるシエーディング情報を用いて補間処理することによ り算出されるため、 重なり位置における正確なシエーディング情報が算 出される。
また、 前記発光手段は、 前記試料テーブルの上側に向けて円弧状に形 成され、 上側の端部に光源が配設された光源アームを備え、 前記第 1の 方向は、 前記光源アームを前記試料テーブルのテーブル面に対する垂線 に直交する線を回転軸として回転させた場合の回転位置と、 前記垂線を 回転軸として前記試料テ一ブルを回転させたときの回転位置又は前記光 源アームを前記垂線を回転軸として回転させたときの回転位置とによつ て特定されることが好ましい。
この場合、 現物の試料に対する光の照射方向である第 1の方向が 2つ の自由度によって特定されるため、 現物の試料を様々な角度から照射す ることができ、 より詳細なシエーディング情報を取得することができる また、 前記発光手段は、 前記光源の照射側に光を平行光に変換するレ ンズを備えることが好ましい。 この場合、 光源から照射された光は、 レ ンズにより平行光に変換されて、 試料へと導かれるため、 現物の試料全 体をほぼ均一な光量で照射することができる。
また、 前記撮影手段は、 前記試料テーブルの上側に向けて円弧状に形 成され、 上側の端部に撮影装置が取り付けられた撮影アームを備え、 前 記第 2の方向は、 前記撮影アームを前記試料テーブルのテーブル面に対 する垂線に直交する線を回転軸として回転させたときの回転位置と、 前 記垂線を回転軸として前記試料テーブルを回転させたときの回転位置又 は前記垂線を回転軸として前記撮影アームを回転させたときの回転位置 とによって特定されることを特徴とするが好ましい。
この場合、 現物の試料の撮影方向である第 2の方向が、 2つの自由度 によって決定されるため、 現物の試料を様々な方向から撮影することが でき、 より細かなシェ一ディング情報を取得することができる。
また、 前記パラメ一夕は、 前記撮影方向に対する前記現物の試料の繊 維方向の角度を含むことが好ましい。
この場合、 繊維方向に対する撮影方向の角度をパラメ一夕とし、 この パラメータを変化させて撮影された現物の試料の画像を基に、 シエーデ ィング情報が算出されるため、 仮想 3次元モデルの光学異方性をよりリ アルに表現することができる。
また、 前記仮想 3次元空間の表面にマッピングするテクスチャを記憶 するテクスチャ記憶手段をさらに備え、 前記シェ一ディング情報取得手 段は、 撮影した現物の試料の画像内に所定の領域を設定し、 設定した領 域内での輝度の平均値、 最大値及び最小値をシ: —ディング情報として 算出し、 前記シェーディング処理手段は、 読み出したシェーディング情 報と、 テクスチャ記憶手段が記憶するテクスチャとを基に、 前記仮想 3 次元モデルの任意の部位における輝度値を算出するための所定の関数を 算出し、 算出した関数を用いて、 前記任意の部位における輝度値を算出 することが好ましい。
この場合、 仮想 3次元モデルの任意の部位にマッピングするテクスチ ャの輝度値が決定されると、 シェ一ディング情報処理部が算出した所定 の関数を用いて、 そのテクスチャの輝度値を引数として、 任意の部位に おける輝度値が算出されシエーディング処理が施される。 このように、 テクスチャとシエーディング情報とを用いてシエーディング処理を行う ことで、 仮想 3次元モデルのミクロな質感を再現することができる。 また、 前記シェーディング処理手段は、 読み出したシェーディング情 報に含まれる輝度の最大値、 最小値及び平均値が、 それぞれ前記テクス チヤの輝度の最大値、 最小値及び平均値と対応するように、 読み出した シエーディング情報に含まれる輝度の最大値、 最小値及び平均値に対し て所定の補間処理を施すことにより、 前記所定の関数を算出することが 好ましい。
この場合、 輝度の最大値、 最小値及び平均値がそれぞれテクスチャの 輝度の最大値、 最小値及び平均値と対応づけられているため、 全てのテ クスチヤの輝度値に対して、 仮想 3次元モデルの輝度値が算出され、 デ 一夕の欠落がなくなり、 よりリアルなシエーディング処理を行うことが できる。 また、 シェーディング処理手段は、 読み出したシェーディング 情報に含まれる輝度の最大値、 最小値及び平均値の 3つの値を補間処理 することにより、 所定の関数を算出しているため、 所定の関数を高速に 算出することができる。
本発明に係るデ一夕構造は、 コンピュータを用いて仮想 3次元空間内 に作成された仮想 3次元モデルをレンダリングする際に使用されるシェ —ディング情報を記憶するシエーディング情報記憶手段のデータ構造で あって、 前記シェーディング情報は、 現物の試料の少なくとも撮影方向 及び光の照射方向を含む撮影条件をパラメータとし、 当該パラメ一夕を 変化させて撮影された前記現物の試料の画像に基づいてパラメ一夕毎に 取得されたものであり、 前記現物の試料の撮影画像と、 前記パラメータ とが対応づけられたデータであることを特徴とする。
本データ構造によれば、 撮影条件パラメータとし、 このパラメ一夕を 変化させて撮影された現物の試料の画像を基に算出されたシヱーディン グ情報が、 そのパラメ一夕と対応付けて記憶されているため、 仮想 3次 元モデルの任意の部位に対応するパラメータとシヱ一ディング情報が対 応づけられ、 仮想 3次元モデル上にシエーディング情報を容易にマツピ ングすることが可能となる。 さらに、 このシェーディング情報は、 撮影 された現物の試料の画像を基に算出されたものであるため、 仮想 3次元 モデルに対してよりリアルなシェ一ディング処理を施すことができる。 本発明に係るシエーディング情報取得装置は、 コンピュータを用いて 仮想 3次元空間内に作成された仮想 3次元モデルをレンダリングする際 に使用されるシエーディング情報を取得するシエーディング情報取得装 置であって、 台座と、 前記台座の上に配設され、 現物の試料を載置する 試料テーブルと、 前記現物の試料に対して第 1の方向から光を照射する 発光手段と、 前記現物の試料を第 2の方向から撮影する撮影手段とを備 え、 前記発光手段は、 前記第 1の方向が変動可能に構成され、 前記撮影 手段は、 前記第 2の方向が変動可能に構成されていることを特徴とする 本シエーディング情報取得装置によれば、 光源から現物の試料に対す る光の照射方向である第 1の方向、 撮影装置から現物の試料に対する撮 影方向である第 2の方向がそれぞれ変動可能に構成されているため、 撮 影条件を変化させて現物の試料を撮影することが容易となり、 複数のシ エーデイング情報を効率良く取得することができる。
本発明に係る画像処理プログラムは、 仮想 3次元空間内に作成された 仮想 3次元モデルをレンダリングするための画像処理プログラムであつ て、 前記仮想 3次元空間内に設定された仮想カメラの位置、 仮想光源の 位置及び前記仮想 3次元モデルの任意の部位の形状を基に、 当該部位に 対応する所定のパラメ一夕を算出するパラメータ算出手段、 現物の試料 に対する少なくとも撮影方向及び光の照射方向を含む撮影条件をパラメ —夕とし、 当該パラメ一 '夕を変化させて撮影された前記現物の試料の画 像を基に、 パラメータ毎に算出されたシェーディング情報を、 前記パラ メータと対応づけて記憶するシェ一ディング情報記憶手段、 前記算出し たパラメ一夕に対応するシェーディング情報を前記シヱーディング情報 記憶手段から読み出し、 読み出したシェーディング情報を基に、 前記仮 想 3次元モデルの対応する部位の輝度値を算出するシエーディング処理 手段としてコンピュータを機能させることを特徴とする。
本画像処理プログラムによれば、 仮想 3次元モデルの所定の位置に対 応する所定のパラメータが算出され、 算出されたパラメ一夕に対応する シエーディング情報が、 シェ一ディング情報を予め所定のパラメータと 対応付けて記憶するシエーディング情報記憶手段から読み出され、 対応 する任意の部位における輝度値が算出される。 そのため、 煩雑なパラメ 一夕設定作業を行うことなくシェ一ディング処理を行うことができると ともに、 それぞれ異なる撮影条件下で現物の試料を撮影した画像を基に 算出されたシエーディング情報を用いて、 仮想 3次元モデルにシエーデ ィング処理が施されるため、 光の干渉光などの影響による素材の質感や 布の光学異方性などを表現することが可能となり、 仮想 3次元モデルを よりリアルにシエーディング処理することができる。
本発明に係る記録媒体は、 仮想 3次元空間内に作成された仮想 3次元 モデルをレンダリングするための画像処理プログラムを記録する記録媒 体であって、 前記仮想 3次元空間内に設定された仮想カメラの位置、 仮 想光源の位置及び前記仮想 3次元モデルの任意の部位の形状とを基に、 当該部位に対応する.所定のパラメ一夕を算出するパラメータ算出手段、 現物の試料に対する少なくとも撮影方向及び光の照射方向を含む撮影条 件をパラメータとし、 当該パラメ一夕を変化させて撮影された前記現物 の試料の画像を基に、 パラメータ毎に算出されたシエーディング情報を、 前記パラメータと対応づけて記憶するシエーディング情報記憶手段、 前 記算出したパラメ一夕に対応するシエーディング情報を前記シエーディ ング情報記憶手段から読み出し、 読み出したシェ一ディング情報を基に、 前記仮想 3次元モデルの対応する部位の輝度値を算出するシェ一ディン グ処理手段としてコンピュータを機能させる画像処理プログラムを記録 することを特徴とする。
本画像処理プログラムを記録する記録媒体によれば、 仮想 3次元モデ ルの任意の部位に対応する所定のパラメータが算出され、 算出されたパ ラメ一夕に対応するシエーディング情報が、 シエーディング情報を予め 所定のパラメ一夕と対応付けて記憶するシエーディング情報記憶手段か ら読み出され、 対応する任意の部位にマッピングされる。 そのため、 複 雑かつ煩雑なパラメータ設定作業を行うことなくシエーディング処理を 行うことができるとともに、 それぞれ異なる撮影条件下で現物の試料を 撮影することにより得られた画像を基に算出されたシヱーディング情報 を用いて仮想 3次元モデルがシエーディング処理されるため、 光の干渉 光などの影響による素材の質感や布の光学異方性などを表現することが 可能となり、 仮想 3次元モデルをよりリアルにシエーディング処理する ことができる。
また、 本発明に係る画像処理方法は、 仮想 3次元空間内に作成された 仮想 3次元モデルをレンダリングする画像処理方法であって、 コンビュ 一夕が、 前記仮想 3次元空間内に設定された仮想カメラの位置、 仮想光 源の位置及び前記仮想 3次元モデルの任意の部位の形状を基に、 当該部 位に対応する所定のパラメータを算出するステツプと、 コンピュータが、 現物の試料に対する少なくとも撮影方向及び光の照射方向を含む撮影条 件をパラメ一夕とし、 当該パラメータを変化させて撮影された前記現物 の試料の画像を基に、 パラメータ毎に算出されたシエーディング情報を、 前記パラメ一夕と対応付けて記憶するステップと、 コンピュータが、 前 記算出したパラメ一夕に対応するシエーディング情報を前記シエーディ ング情報記憶手段から読出し、 読み出したシエーディング情報を基に、 前記仮想 3次元モデルの対応する部位の輝度値を算出するステップとを 備えることを特徴とする。
本画像処理方法によれば、 仮想 3次元モデルの所定の位置に対応する 所定のパラメ一夕が算出され、 算出されたパラメ一夕に対応するシエー ディング情報が、 シヱ一ディング情報を予め所定のパラメ一夕と対応付 けて記憶するシエーディング情報記憶手段から読み出され、 対応する任 意の部位における輝度値が算出される。 そのため、 複雑かつ煩雑なパラ メータ設定作業を行うことなくシエーディング処理を行うことができる とともに、 それぞれ異なる撮影条件下で現物の試料を撮影することによ り取得された画像を基に算出されたシェ一ディング情報を用いて、 仮想 3次元モデルにシエーディング処理が施されるため、 光の干渉光などの 二よる素材の質感や布の光学異方性などを表現することが可能とな り、 仮想 3次元モデルをよりリアルにシエーディング処理することがで きる。
産業上の利用可能性
本発明によれば、 種々のパラメ一夕を設定することなく、 簡便な操作 でありながら仮想 3次元モデルをリアルにシェ一ディング処理すること ができる。

Claims

請求の範囲
1 . 仮想 3次元空間内に作成された仮想 3次元モデルをレンダリ ングする画像処理装置であって、
現物の試料に対する少なくとも撮影方向及び光の照射方向を含む撮影 条件をパラメ一夕とし、 当該パラメータを変化させて撮影された前記現 物の試料の画像を基に、 パラメータ毎に算出されたシエーディング情報 を取得するシエーディング情報取得手段と、
取得したシエーディング情報を前記パラメ一夕と対応づけて記憶する シエーディング情報記憶手段と、
前記仮想 3次元空間内に設定された仮想カメラの位置、 仮想光源の位 置及び前記仮想 3次元モデルの任意の部位の形状を基に、 当該部位に対 応する前記所定のパラメータを算出するパラメ一夕算出手段と、 取得されたパラメ一夕に対応するシエーディング情報を前記シェ一デ ィング情報記憶手段から読み出して、 読み出したシエーディング情報を 基に、 前記仮想 3次元モデルの対応する部位の輝度値を算出するシエー ディング処理手段とを備えることを特徴とする画像処理装置
2. 前記シエーディング情報取得手段は、
台座と、
前記台座の上に配設され、 前記現物の試料を載置する試料テーブルと 前記現物の試料に対して第 1の方向から光を照射する発光手段と、 前記現物の試料を第 2の方向から撮影する撮影手段とを備え、 前記発光手段は、 前記第 1の方向が変動可能に構成され、 前記撮影手 段は、 前記第 2の方向が変動可能に構成されていることを特徴とする請 求項 1記載の画像処理装置
3. 前記シェーディング情報取得手段は、 前記第 1の方向と第 2 の方向が重なる場合の前記発光手段及び前記撮影手段の位置を予め重な り位置として記憶する記憶手段を備え、
前記重なり位置に隣接する位置によって特定されるシエーディング情 報を補間処理することにより、 前記重なり位置によって特定されるシェ 一ディング情報を算出することを特徴とする請求項 2に記載の画像処理
4. 前記発光手段は、
前記試料テーブルの上側に向けて円弧状に形成され、 上側の端部に光 源が配設された光源アームを備え、
前記第 1の方向は、 前記光源アームを前記試料テーブルのテーブル面 に対する垂線に直交する線を回転軸として回転させた場合の回転位置と 、 前記垂線を回転軸として前記試料テーブルを回転させたときの回転位 置又は前記光源アームを前記垂線を回転軸として回転させたときの回転 位置とによって特定されることを特徴とする請求項 2に記載の画像処理
5. 前記発光手段は、 前記光源から射出された光を平行光に変換 するレンズを備えることを特徴とする請求項 4記載の画像処理装置。
6. 前記撮影手段は、 前記試料テーブルの上側に向けて円弧状に 形成され、 上側の端部に撮影装置が取り付けられた撮影アームを備え、 前記第 2の方向は、 前記撮影アームを前記試料テーブルのテ一ブル面 に対する垂線に直交する線を回転軸として回転させたときの回転位置と 、 前記垂線を回転軸として前記試料テーブルを回転させたときの回転位 置又は前記垂線を回転軸として前記撮影アームを回転させたときの回転 位置とによって特定されることを特徴とする請求項 2に記載の画像処理
7. 前記パラメ一夕は、 前記撮影方向に対する前記現物の試料の 繊維方向の角度を含むことを特徴とする請求項 1に記載の画像処理装置
8. 前記仮想 3次元モデルにマツピングするテクスチャを記憶す るテクスチャ記憶手段をさらに備え、
前記シエーディング情報取得手段は、 撮影した現物の試料の画像内に 所定の領域を設定し、 設定した領域内での輝度の平均値、 最大値及び最 小値をシェーディング情報として算出し、
前記シエーディング処理手段は、 読み出したシヱーディング情報と、 テクスチャ記憶手段が記憶するテクスチャとを基に、 前記仮想 3次元モ デルの任意の部位における輝度値を算出するための所定の関数を算出し 、 算出した関数を用いて、 前記任意の部位における輝度値を算出するこ とを特徴とする請求項 1に記載の画像処理装置。
9. 前記シェーディング処理手段は、 読み出したシェーディング 情報に含まれる輝度の最大値、 最小値及び平均値が、 それぞれ前記テク スチヤの輝度の最大値、 最小値及び平均値と対応するように、 読み出し たシエーディング情報に含まれる輝度の最大値、 最小値及び平均値に対 して所定の補間処理を施すことにより、 前記所定の関数を算出すること を特徴とする請求項 8記載の画像処理装置。
10. コンピュータを用いて仮想 3次元空間内に作成された仮想 3 次元モデルをレンダリングする際に使用されるシヱーディング情報を記 憶するシヱ一ディング情報記憶手段のデータ構造であって、
前記シエーディング情報は、 現物の試料の少なくとも撮影方向及び光 の照射方向を含む撮影条件をパラメータとし、 当該パラメータを変化さ せて撮影された前記現物の試料の画像に基づいてパラメ一夕毎に取得さ れたものであり、 前記現物の試料の撮影画像と、 前記パラメータとが対 応づけられたデータであることを特徴とするデータ構造。
1 1. コンピュータを用いて仮想 3次元空間内に作成された仮想 3 次元モデルをレンダリングする際に使用されるシエーディング情報を取 得するシェ一ディング情報取得装置であって、
台座と、
前記台座の上に配設され、 現物の試料を載置する試料テーブルと、 前記現物の試料に対して第 1の方向から光を照射する発光手段と、 前記現物の試料を第 2の方向から撮影する撮影手段とを備え、 前記発光手段は、 前記第 1の方向が変動可能に構成され、 前記撮影手 段は、 前記第 2の方向が変動可能に構成されていることを特徴とするシ エーディング情報取得装置。
12. 仮想 3次元空間内に作成された仮想 3次元モデルをレンダリ ングするための画像処理プログラムであって、 前記仮想 3次元空間内に設定された仮想カメラの位置、 仮想光源の位 置及び前記仮想 3次元モデルの任意の部位の形状を基に、 当該部位に対 応する所定のパラメ一夕を算出するパラメ一夕算出手段、
現物の試料に対する少なくとも撮影方向及び光の照射方向を含む撮影 条件をパラメ一夕とし、 当該パラメ一夕を変化させて撮影された前記現 物の試料の画像を基に、 パラメ一夕毎に算出されたシエーディング情報 を、 前記パラメータと対応づけて記憶するシェ一ディング情報記憶手段、 前記算出したパラメータに対応するシエーディング情報を前記シェ一 ディング情報記憶手段から読み出し、 読み出したシエーディング情報を 基に、 前記仮想 3次元モデルの対応する部位の輝度値を算出するシエー ディング処理手段としてコンピュータを機能させることを特徴とする画 像処理プログラム。
13. 仮想 3次元空間内に作成された仮想 3次元モデルをレンダリ ングするための画像処理プログラムを記録する記録媒体であって、 前記仮想 3次元空間内に設定された仮想力メラの位置、 仮想光源の位 置及び前記仮想 3次元モデルの任意の部位の形状とを基に、 当該部位に 対応する所定のパラメ一夕を算出するパラメータ算出手段、
現物の試料に対する少なくとも撮影方向及び光の照射方向を含む撮影 条件をパラメータとし、 当該パラメータを変化させて撮影された前記現 物の試料の画像を基に、 パラメ一夕毎に算出されたシエーディング情報 を、 前記パラメ一夕と対応づけて記憶するシエーディング情報記憶手段, 前記算出したパラメ一夕に対応するシエーディング情報を前記シエー ディング情報記憶手段から読み出し、 読み出したシエーディング情報を 基に、 前記仮想 3次元モデルの対応する部位の輝度値を算出するシエー ディング処理手段としてコンピュータを機能させる画像処理プログラム を記録することを特徴とするコンピュータ読み取り可能な記録媒体。
14. 仮想 3次元空間内に作成された仮想 3次元モデルをレンダリ ングする画像処理方法であって、
コンピュータが、 前記仮想 3次元空間内に設定された仮想カメラの位 置、 仮想光源の位置及び前記仮想 3次元モデルの任意の部位の形状を基 に、 当該部位に対応する所定のパラメータを算出するステップと、 コンピュータが、 現物の試料に対する少なくとも撮影方向及び光の照 射方向を含む撮影条件をパラメ一夕とし、 当該パラメ一夕を変化させて 撮影された前記現物の試料の画像を基に、 パラメ一夕毎に算出されたシ エーデイング情報を、 前記パラメ一夕と対応付けて記憶するステップと. コンピュータが、 前記算出したパラメ一夕に対応するシエーディング 情報を前記シェーディング情報記憶手段から読出し、 読み出したシエー ディング情報を基に、 前記仮想 3次元モデルの対応する部位の獰度値を 算出するステップとを備えることを特徴とする画像処理方法。
PCT/JP2003/013809 2002-10-30 2003-10-29 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法およびシェーディング情報取得装置 WO2004040521A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP03769925A EP1557794A4 (en) 2002-10-30 2003-10-29 IMAGE PROCESSING DEVICE, PICTURE PROCESSING PROGRAM, PROGRAM RECORDING RECORDING MEDIUM, IMAGE PROCESSING METHOD AND SHADING INFORMATION DETECTION APPARATUS
US10/514,896 US20050174348A1 (en) 2002-10-30 2003-10-29 Image processing device, image processing program, recording medium recording the program, image processing method, and shading information acquisition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-316531 2002-10-30
JP2002316531A JP2004152015A (ja) 2002-10-30 2002-10-30 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法、シェーディング情報取得装置及びデータ構造

Publications (1)

Publication Number Publication Date
WO2004040521A1 true WO2004040521A1 (ja) 2004-05-13

Family

ID=32211685

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/013809 WO2004040521A1 (ja) 2002-10-30 2003-10-29 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法およびシェーディング情報取得装置

Country Status (6)

Country Link
US (1) US20050174348A1 (ja)
EP (1) EP1557794A4 (ja)
JP (1) JP2004152015A (ja)
KR (1) KR20050058997A (ja)
CN (1) CN1692376A (ja)
WO (1) WO2004040521A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101275993A (zh) * 2006-11-02 2008-10-01 美国西门子医疗解决公司 基于纹理的快速dt-mri张量场可视化系统和方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4806738B2 (ja) * 2005-03-30 2011-11-02 独立行政法人情報通信研究機構 光学特性測定装置及び画像処理システム
JP4667161B2 (ja) * 2005-08-10 2011-04-06 大日本印刷株式会社 表面に繊維シートを張り付けた三次元仮想物体に基づく二次元画像生成方法および生成装置
JP4808600B2 (ja) * 2006-11-22 2011-11-02 デジタルファッション株式会社 レンダリングプログラム、レンダリング装置、及びレンダリング方法
US20100066731A1 (en) * 2008-09-16 2010-03-18 James Calvin Vecore Configurator Process and System
JP5625856B2 (ja) * 2010-12-13 2014-11-19 ソニー株式会社 撮像装置および撮像装置の制御方法
CN102883100A (zh) * 2011-07-14 2013-01-16 天津市亚安科技股份有限公司 一种自动调整摄像参数的装置与方法
JP2014032114A (ja) * 2012-08-03 2014-02-20 Dainippon Printing Co Ltd 質感計測装置
JP6442209B2 (ja) 2014-09-26 2018-12-19 キヤノン株式会社 画像処理装置およびその制御方法
KR20170034727A (ko) 2015-09-21 2017-03-29 삼성전자주식회사 그림자 정보 저장 방법 및 장치, 3d 렌더링 방법 및 장치
CN105466430B (zh) * 2015-12-31 2018-11-06 天津远翥科技有限公司 一种无人机的定位方法和装置
KR102316438B1 (ko) * 2017-06-21 2021-10-22 에스케이텔레콤 주식회사 3차원 데이터 처리 방법
JP6583745B2 (ja) * 2017-11-08 2019-10-02 サイバーステップ株式会社 オンラインショッピングシステム
JP6708862B1 (ja) * 2019-12-09 2020-06-10 株式会社 アルステクネ 画像処理方法、プログラム、及び画像処理装置
CN116389857B (zh) * 2023-06-07 2023-09-12 北京市农林科学院信息技术研究中心 植物表型采集平台、方法、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161529A (ja) * 1994-12-01 1996-06-21 Hitachi Ltd 三次元図形表示装置及びその方法
JP2000315257A (ja) * 1999-04-30 2000-11-14 Shiseido Co Ltd 皮膚状態の三次元画像生成方法
JP2000348213A (ja) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体
JP2001291116A (ja) * 2000-04-11 2001-10-19 Sony Corp 三次元画像生成装置および三次元画像生成方法、並びにプログラム提供媒体

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3413348A1 (de) * 1984-04-09 1985-10-17 Siemens AG, 1000 Berlin und 8000 München Roentgenuntersuchungsgeraet
JPS62254137A (ja) * 1986-04-28 1987-11-05 Oak Seisakusho:Kk 平行光移動型露光装置
JP2806003B2 (ja) * 1990-07-31 1998-09-30 トヨタ自動車株式会社 カラーグラフィック装置
JPH1097642A (ja) * 1996-09-20 1998-04-14 Canon Inc 画像処理方法及び装置及び記憶媒体
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
JP2000172878A (ja) * 1998-12-09 2000-06-23 Sony Corp 情報処理装置および情報処理方法、並びに提供媒体
US6313842B1 (en) * 1999-03-03 2001-11-06 Discreet Logic Inc. Generating image data
JP3124999B1 (ja) * 1999-07-09 2001-01-15 株式会社スクウェア レンダリング方法及び装置、ゲーム装置、並びに仮想空間内のオブジェクトの陰影に関するデータを計算するためのプログラムを格納するコンピュータ読み取り可能な記録媒体
US6697062B1 (en) * 1999-08-06 2004-02-24 Microsoft Corporation Reflection space image based rendering
JP3807654B2 (ja) * 1999-12-28 2006-08-09 株式会社スクウェア・エニックス ビデオゲーム用のプログラムを記録したコンピュータ読み取り可能な記録媒体、ビデオゲームにおけるオブジェクト描画方法及びビデオゲーム装置
US6760024B1 (en) * 2000-07-19 2004-07-06 Pixar Method and apparatus for rendering shadows
JP3641578B2 (ja) * 2000-08-31 2005-04-20 コナミ株式会社 ゲーム用3次元画像処理方法、装置、ゲーム用3次元画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体及びビデオゲーム装置
US6765573B2 (en) * 2000-10-26 2004-07-20 Square Enix Co., Ltd. Surface shading using stored texture map based on bidirectional reflectance distribution function
US7068274B2 (en) * 2001-08-15 2006-06-27 Mitsubishi Electric Research Laboratories, Inc. System and method for animating real objects with projected images
US6791542B2 (en) * 2002-06-17 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Modeling 3D objects with opacity hulls
US6831641B2 (en) * 2002-06-17 2004-12-14 Mitsubishi Electric Research Labs, Inc. Modeling and rendering of surface reflectance fields of 3D objects
US6974964B1 (en) * 2002-06-17 2005-12-13 Bu-Chin Wang Method and apparatus for three-dimensional surface scanning and measurement of a moving object
JP3972784B2 (ja) * 2002-09-30 2007-09-05 ソニー株式会社 画像処理装置およびその方法
US7336283B2 (en) * 2002-10-24 2008-02-26 Hewlett-Packard Development Company, L.P. Efficient hardware A-buffer using three-dimensional allocation of fragment memory
US7106326B2 (en) * 2003-03-03 2006-09-12 Sun Microsystems, Inc. System and method for computing filtered shadow estimates using reduced bandwidth
US7095409B2 (en) * 2003-04-30 2006-08-22 Pixar Shot shading method and apparatus
US7091973B1 (en) * 2003-06-20 2006-08-15 Jonathan Michael Cohen Apparatus and method for estimating reflected radiance under complex distant illumination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161529A (ja) * 1994-12-01 1996-06-21 Hitachi Ltd 三次元図形表示装置及びその方法
JP2000315257A (ja) * 1999-04-30 2000-11-14 Shiseido Co Ltd 皮膚状態の三次元画像生成方法
JP2000348213A (ja) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体
JP2001291116A (ja) * 2000-04-11 2001-10-19 Sony Corp 三次元画像生成装置および三次元画像生成方法、並びにプログラム提供媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1557794A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101275993A (zh) * 2006-11-02 2008-10-01 美国西门子医疗解决公司 基于纹理的快速dt-mri张量场可视化系统和方法
CN101275993B (zh) * 2006-11-02 2012-11-28 美国西门子医疗解决公司 基于纹理的快速dt-mri张量场可视化系统和方法

Also Published As

Publication number Publication date
JP2004152015A (ja) 2004-05-27
KR20050058997A (ko) 2005-06-17
EP1557794A4 (en) 2007-12-05
EP1557794A1 (en) 2005-07-27
US20050174348A1 (en) 2005-08-11
CN1692376A (zh) 2005-11-02

Similar Documents

Publication Publication Date Title
WO2004040521A1 (ja) 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法およびシェーディング情報取得装置
JP6643357B2 (ja) 全球状取込方法
US7411592B1 (en) Graphical processing of object perimeter information
US6456287B1 (en) Method and apparatus for 3D model creation based on 2D images
JP2002236934A (ja) グラフィックシステムにおいて改良されたフォグ効果を提供するための方法および装置
US20080246760A1 (en) Method and apparatus for mapping texture onto 3-dimensional object model
JP2003099799A (ja) 変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法
JP4982862B2 (ja) プログラム、情報記憶媒体及び画像生成システム
US7616886B2 (en) Photographing apparatus, device and method for obtaining images to be used for creating a three-dimensional model
JP4096622B2 (ja) 画像処理方法及び装置、並びにプログラム及び記録媒体
CN1204532C (zh) 具有折射的图象的着色方法和设备
CN116485984B (zh) 全景影像车辆模型全局光照模拟方法、装置、设备及介质
JP2005115645A (ja) シェーディング情報取得装置及び画像処理装置
KR100489572B1 (ko) 화상 처리 방법
AU2004201817B2 (en) Game software and game machine
US6483520B1 (en) Image creating method and apparatus, recording medium for recording image creating program, and video game machine
JP4827250B2 (ja) プログラム、情報記憶媒体及び画像生成システム
US6924815B2 (en) Image generating system and image generation method for the same
JP2003168130A (ja) リアルタイムで合成シーンのフォトリアルなレンダリングをプレビューするための方法
JP2002092625A (ja) 画像処理装置および方法、並びに記録媒体
JP2007512603A (ja) 画像描画
US6559847B1 (en) Image processing apparatus, recording medium, and program
JP2020162089A (ja) 画像生成装置および画像生成方法
JP2809955B2 (ja) グラフィックス・ワークステーションおよび三次元グラフィックス画像の生成方法
JP2022067171A (ja) 生成装置、生成方法、及び、プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 20038A04565

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020047018204

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10514896

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003769925

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020047018204

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003769925

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2003769925

Country of ref document: EP