WO2007108041A1 - Video image converting method, video image converting device, server client system, mobile apparatus, and program - Google Patents

Video image converting method, video image converting device, server client system, mobile apparatus, and program Download PDF

Info

Publication number
WO2007108041A1
WO2007108041A1 PCT/JP2006/305095 JP2006305095W WO2007108041A1 WO 2007108041 A1 WO2007108041 A1 WO 2007108041A1 JP 2006305095 W JP2006305095 W JP 2006305095W WO 2007108041 A1 WO2007108041 A1 WO 2007108041A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parameter
image feature
vector
illumination
Prior art date
Application number
PCT/JP2006/305095
Other languages
French (fr)
Japanese (ja)
Inventor
Hideto Motomura
Katsuhiro Kanamori
Hiroyoshi Komobuchi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2006520477A priority Critical patent/JP3921496B1/en
Priority to PCT/JP2006/305095 priority patent/WO2007108041A1/en
Publication of WO2007108041A1 publication Critical patent/WO2007108041A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution

Definitions

  • Image conversion method image conversion apparatus, server client system, portable device, and program
  • the present invention relates to an image processing technique, and more particularly to a technique for realizing image conversion such as image enlargement, illumination conversion, and viewpoint conversion.
  • Image devices and network digital connections enable easy connection between different types of image devices, increasing the degree of freedom of image exchange. For example, users can freely access images taken with a digital still camera without being restricted by differences in the system, such as outputting to a printer, publishing on a network, or viewing on a home TV. An environment that can handle images has been improved.
  • an up-converter (a conversion device that increases the number of pixels and lines) and a down-converter (a conversion device that reduces the number of pixels and lines) are required to cope with frequently occurring image size conversion.
  • an upconverter a conversion device that increases the number of pixels and lines
  • a down-converter a conversion device that reduces the number of pixels and lines
  • images published on the network require conversion to the corresponding image size every time an output device is determined.
  • home TV since digital terrestrial services have been started, conventional standard TV and HD (High Definition) TV are mixed, so image size conversion is frequently performed.
  • Non-patent Document 1 In order to enlarge an image, it is necessary to newly create powerful image data that does not exist at the time of acquisition, but various methods have already been proposed. For example, methods using interpolation such as bilinear method and no-cubic method are common (Non-patent Document 1). However, when interpolation is used, only intermediate values of sampling data can be generated. The sharpness of edges and the like tends to deteriorate, resulting in a blurred image. Therefore, a technique is disclosed in which an interpolated image is used as an initial enlarged image, and then an edge portion is extracted to emphasize only the edge (Patent Document 1, Non-Patent Document 2). However, along with the emphasis of the edge part, which makes it difficult to separate the edge part from the noise, the noise tends to be emphasized and the image quality tends to deteriorate.
  • a learning method as a method for enlarging an image while suppressing image quality deterioration. That is, a high-resolution image corresponding to the enlarged image is taken in advance by a high-definition camera or the like, and a low-resolution image is created from the high-resolution image. Low-resolution images are usually generated by sub-sampling through a low-pass filter. Many pairs of such low-resolution images and high-resolution images are prepared, and the relationship is learned as an image enlargement method. Therefore, in the learning method, the above-described enhancement processing does not exist, and therefore, it is possible to realize an image enlargement with relatively little image quality deterioration.
  • Non-patent Document 3 a technique of performing learning using a statistical method is disclosed assuming that the relationship between luminance values with adjacent pixels is determined by a Markov process.
  • Non-patent Document 4 a technique has been disclosed in which a feature vector is obtained for each pixel in a conversion pair from low resolution to high resolution, and an enlarged image is generated from the degree of coincidence with the feature vector of the input pixel and the consistency with the surroundings.
  • Non-Patent Document 5 a plurality of objects with different textures (such as surface irregularities and patterns) are illuminated from different directions, learning data is created, and the illumination direction is changed while maintaining the texture. Techniques to do this are disclosed.
  • Patent Document 1 U.S. Pat.No. 5,717,789 ( Figure 5)
  • Non-Patent Document 1 Shinya Araya, “Clear 3D Computer Graphics”, Kyoritsu Shuppan, 2 September 25, 003, pp. 144-145
  • Non-Patent Document 2 Makoto Nakashizuka, “High-resolution image in multi-scale luminance gradient plane”, IEICE Transactions D— ⁇ Vol. J81 -D-II No. 10 pp. 2249— 2258, 1998 October
  • Non-Special Reference 3 Freeman et al., “Learnmg Low—Level Vision J, International Journal of Computer Vision 40 (1), pp. 25-47, 2000
  • Non-Patent Document 4 Hertzmann et al., “Image Analogies”, SIGGRAPH 2001 Proceedings, pp. 327-340, 2001
  • Non-Patent Document 5 Malik et al., "Representing and Recognizing the Visual Appearance of Materials using Three-dimensional TextonsJ, International al Journal of Computer Vision 43 (1), pp. 29-44, 2001
  • an object of the present invention is to increase the degree of freedom of image conversion in the image conversion using the learning method as compared with the conventional technique.
  • image feature analysis is performed on the first image, and the relationship between the image feature and the illumination equation parameter is referred to from the image feature of the first image, and the corresponding illumination equation parameter is determined. Is obtained as the original parameter value. Also, the operation details of the illumination equation parameters are determined according to the instructed image conversion. Then, the original parameter value is manipulated according to this parameter manipulation content to obtain a new parameter value. Based on this new parameter value, a second image after image conversion is generated.
  • the value of the illumination equation parameter corresponding to the image feature of the first image is acquired as the original parameter value, and the original parameter value is operated according to the operation content corresponding to the instructed image conversion. As a result, a new parameter value is obtained.
  • the second image is then generated from this new meter value. That is, image conversion is Since it is realized by the number conversion, it is possible to perform image conversion with a higher degree of freedom than in the past without being restricted by the image data at the time of learning. For example, in the case of image enlargement, it is only necessary to increase the density of the surface normal vector representing the shape information of the object among the parameters of the illumination equation. In this case, an arbitrary enlargement magnification can be set.
  • the illumination vector representing the illumination direction may be changed.
  • conversion of the viewing direction can be easily realized by manipulating the illumination equation parameters.
  • learning images are required for each type of image conversion.
  • the present invention performs image conversion by manipulating the parameters of the illumination equation, the number of learning images can be reduced.
  • the value of the illumination equation parameter is set, the set parameter value force also generates a learning image, and the learning image It is preferable to store the image features obtained from the image feature analysis in the database in association with the original parameter values.
  • the learning image can be generated by a computer using the illumination equation, so that shooting using the real object is not required for generating the learning image. Therefore, the processing becomes simple and various learning images can be easily prepared.
  • image conversion is realized by parameter conversion of the illumination equation, image conversion with a high degree of freedom is possible.
  • the number of learning images can be reduced.
  • various learning images can be easily prepared in the preprocessing.
  • FIG. 1 is a block diagram showing an image conversion apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a diagram for explaining the geometric conditions and optical conditions of the illumination equation.
  • FIG. 3 is a flowchart showing an image conversion method according to the first embodiment of the present invention.
  • FIG. 4 is a diagram showing image feature analysis using wavelet transform.
  • FIG. 5 is a diagram showing an example of parameter operations for performing image conversion.
  • FIG. 6 is a diagram showing an example of an edge portion formed by overlapping two objects.
  • FIG. 7 is a diagram showing an example of a method for generating and canceling an error of a specular reflection component due to mixing of materials.
  • FIG. 8 is a diagram showing an example of a method of error generation and error cancellation of diffuse reflection components due to mixing of materials.
  • FIG. 9 is a diagram showing an example of a surface normal vector interpolation method for double enlargement.
  • FIG. 10 is a diagram showing an example of a method for generalizing (Equation 2) with respect to the image enlargement ratio.
  • FIG. 11 is a diagram showing an example of a method for generalizing (Equation 2) with respect to the image enlargement ratio.
  • Equation 2 equation 2
  • Fig. 12 is a diagram showing illumination conversion as a second example of parameter operation for image conversion.
  • FIG. 13 is a diagram showing the relationship between the position of the illumination and the illumination vector.
  • FIG. 14 is a diagram showing the conversion of the diffuse reflection ratio of a specific material as a third example of the parameter operation for image conversion.
  • FIG. 15 is a diagram illustrating an example of an interface for adjusting the diffuse reflection component ratio of the image conversion instruction unit 105.
  • FIG. 16 is a diagram for converting the material of a specific pixel as a fourth example of the parameter operation for performing image conversion.
  • FIG. 17 is a diagram showing an example of a material change interface that the image conversion instruction unit 105 has.
  • FIG. 18 is a diagram showing image reduction as a fifth example of parameter operation for image conversion.
  • FIG. 19 is a diagram showing a method of learning the relationship between image features and illumination equation parameters.
  • FIG. 20 is a diagram for explaining the geometric condition and optical condition of the illumination equation.
  • FIG. 21 is a diagram showing another method for acquiring parameters according to image characteristics.
  • FIG. 22 is a diagram showing a configuration using a personal computer as a first configuration example for realizing the present invention.
  • FIG. 23 shows a second configuration example for realizing the present invention, which is a server client system. It is a figure which shows the structure using this.
  • FIG. 24 is a third configuration example for realizing the present invention, and shows a configuration using a camera-equipped mobile phone and a television set.
  • the first image is converted into the second image by the first image.
  • the image of the first image obtained in the first step is referred to by referring to the relationship between the image feature and the illumination equation parameter in the first step of performing image feature analysis.
  • a second step of acquiring the value of the illumination equation parameter corresponding to this as an original parameter value a third step of determining the operation content of the illumination equation parameter according to the instructed image conversion, and the original
  • the parameter value is manipulated according to the operation content determined in the third step, and a fourth step for obtaining a new parameter value, and a fifth step for generating the second image based on the new parameter value.
  • the image conversion method according to the first aspect wherein the image feature analysis in the first step is performed using a spatial frequency analysis.
  • a pre-processing for learning the relationship between the image feature and the illumination equation parameter is provided, and the pre-processing sets the first parameter value as the value of the illumination equation parameter; A step of generating a learning image from the first parameter value; and a step of performing image feature analysis substantially equivalent to the first step for the learning image.
  • a first mode image conversion method for storing in a database in association with a first parameter value.
  • the image conversion method according to the third aspect, wherein the first parameter value is set assuming an illumination equation parameter when the first image is taken.
  • the illumination equation represents a luminance in a viewpoint direction by a sum of a diffuse reflection component, a specular reflection component, and an ambient light component.
  • the illumination equation parameters include a surface normal vector, an illumination vector, a ratio of a diffuse reflection component to a specular reflection component, a reflectance of the diffuse reflection component, and a specular reflection component.
  • the third step when the instructed image conversion is image enlargement, includes a surface normal vector, an illumination vector, a diffuse reflection component, and a specular surface as the operation content of the illumination equation parameter.
  • Ratio with reflection component, reflectance of diffuse reflection component, and specular reflection Provided is an image conversion method according to a first aspect which defines at least one densification of component reflectances.
  • the relationship between the image feature and the illumination equation parameter is represented by a plurality of image feature vectors and a plurality of parameter values respectively associated with the image feature vectors
  • the second step includes selecting a predetermined number of image feature vectors similar to the first image feature vector representing the image features of the first image from the plurality of image feature vectors; and A step of obtaining a distance between each of the image feature vectors and the first image feature vector, and a parameter value corresponding to each of the predetermined number of image feature vectors obtained with respect to the image feature vector. And a step of calculating the original parameter value.
  • the first aspect of the image conversion method is provided.
  • an image feature analysis is performed on the input image, an image feature analysis unit that outputs a first image feature vector representing the image feature of the input image, and a plurality of image feature analysis units. And a plurality of parameter values corresponding to each of the image feature vectors of the illumination equation, and the original parameter value corresponding to the first image feature vector is received by receiving the first image feature vector.
  • a parameter output unit to output, a parameter operation setting unit for determining the operation content of the illumination equation parameter according to the instructed image conversion, and the original parameter value output from the parameter output unit by the parameter operation setting unit. Operate according to the defined operation details and obtain a new parameter value based on the new parameter value output from the parameter operation unit and the parameter operation unit.
  • the parameter output unit includes an image feature vector database that stores the plurality of image feature vectors and an illumination equation parameter database that stores the plurality of parameter values.
  • An image conversion device according to the ninth aspect is provided.
  • a server client system that performs image conversion
  • a server having an image feature analysis unit, a parameter output unit, a meter operation setting unit, and a parameter operation unit according to the ninth aspect
  • a client having an image generation unit of The client provides the server to instruct the contents of image conversion.
  • an image feature analysis unit that performs image feature analysis on an image photographed by the camera and outputs a first image feature vector representing the image feature;
  • An image feature vector database that stores a plurality of image feature vectors together with numbers, identifies an image feature vector similar to the first image feature vector, and outputs the number, and the image feature vector database Provide a portable device that transmits the number output from.
  • a first image analysis is performed on the first image.
  • the value of the illumination equation parameter corresponding to the image feature of the first image obtained in the first step is obtained as the original parameter value.
  • a fourth step of obtaining a new parameter value and a fifth step of generating the second image based on the new parameter value are executed on the computer.
  • FIG. 1 is a block diagram showing an image conversion apparatus according to the first embodiment of the present invention.
  • an image feature analysis unit 101 performs an image feature analysis on an input image ⁇ and generates an input image feature vector IINFV.
  • the image feature vector database 102 stores a plurality of image feature vectors, and the illumination equation parameter database 103 is associated with each image feature vector stored in the image feature vector database 102 for a predetermined illumination equation. Multiple meter values are stored. That is, the relationship between image features and lighting equation parameters is prepared. Then, the image feature vector database 102 and the illumination equation parameter database 103 output the value of the illumination equation parameter corresponding to the input image feature vector IINFV as the original parameter value IINLEP.
  • Image feature vector database 102 and lighting equation parameter data The database 103 constitutes the parameter output unit 10.
  • the image conversion instruction unit 105 outputs, for example, the contents of image conversion instructed by an external force as an image conversion instruction signal ICIS.
  • the parameter operation setting unit 106 determines the operation content of the illumination equation parameter according to the image conversion instructed by the image conversion instruction signal ICI S, and outputs this as the parameter operation instruction signal LEPS.
  • the parameter operation unit 104 operates the original parameter value ⁇ LEP according to the operation content instructed by the parameter operation instruction signal LEPS, and generates a new parameter value IOUTLEP.
  • the image generation unit 107 calculates an illumination equation using the new parameter value IOUTLEP and generates an output image IOUT.
  • the input image ⁇ ⁇ ⁇ as the first image is converted into an output image IOUT as the second image by the parameter conversion of the illumination equation.
  • Iv is the luminance in the viewpoint direction (viewpoint vector V)
  • la is the luminance of the ambient light
  • a is the reflectance of the ambient light
  • Ii is the luminance of the illumination
  • vector N is the surface normal vector
  • vector L is Dco is the solid angle of illumination
  • pd is the reflectance of the diffuse reflection component
  • kd and ks are the ratio of the diffuse reflection component and the specular reflection component
  • kd + ks l relationship.
  • the viewpoint vector V coincides with the optical axis of the camera CAM and starts from the point of interest P on the object surface SF.
  • Ambient light is light that enters the current attention point P on the object surface SF through multiple reflections and enters from the periphery, and corresponds to the bias component of the luminance Iv in the viewing direction (vector V).
  • the illumination equation parameter database 103 in FIG. 1 the surface normal vector N, illumination vector L, diffuse reflection component ratio kd, diffuse reflection component reflectance pd, specular reflection component reflectance ps, environment Seven types of light intensity Ia and ambient light reflectance pa are set. Note that the definitions of the illumination equations and the types of parameters according to the present invention are not limited to those shown here, and any illumination equations and parameters can be applied.
  • FIG. 3 is a flowchart showing an operation of the image conversion apparatus of FIG. 1, ie, an image conversion method according to the present embodiment. Note that the image conversion method according to the present embodiment can be realized by causing a computer to execute a program for realizing the method.
  • step S1 the image feature analysis unit 101 performs image feature analysis on the input image ⁇ ⁇ ⁇ as the first image.
  • the image feature analysis here is performed using spatial frequency analysis such as wavelet transform as shown in Fig. 4, for example.
  • the image features are represented by multiple resolution expressions.
  • the wavelet transform outputs HL, LH, HH, and LL are obtained for each of the n scalings, and these are combined for each layer, thereby obtaining the (3n + l) -dimensional vector as the first one. It is obtained as an input image feature vector IINFV as an image feature vector. Since the image feature vector IINFV is required for each pixel, the LL image is made the same size in each scale.
  • the method of analyzing and expressing image features in the present invention is not limited to this, and any method can be applied.
  • step S2 the image feature vector database 102 and the illumination equation parameter database 103 obtained by learning in advance are referred to.
  • the input image feature vector IINFV obtained in step S1 is used to determine the corresponding illumination equation parameter.
  • the value is obtained as the original parameter value IINLEP.
  • the image feature vector database 102 selects the input image feature vector IINFV from the q stored image feature vectors. Recently, an image feature vector is selected, and the selected image feature vector number is output as an input image feature vector number IINFVN.
  • the illumination equation parameter database 103 receives the input image feature vector number IINFVN, reads the corresponding parameter value, and outputs it as the original parameter value IINLEP.
  • step S3 the parameter operation setting unit 106 determines the operation content of the illumination equation parameter in accordance with the instructed image conversion.
  • the parameter operation unit 104 force operates the original parameter value IINLEP obtained in step S2 in accordance with the operation content determined in step S3, and obtains a new parameter value IOUTLEP.
  • Fig. 5 is a diagram showing an example of parameter operation, in which the original parameter value IINLEP and the new parameter value IOUTLEP are written and arranged for each pixel for one line.
  • the seven parameters described above are defined for each pixel, and three of the ambient light luminance Ia, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d and the specular reflection component reflectance p s depend on the material of the object, a suffix indicating the type of material is attached.
  • the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
  • the parameter operation setting unit 106 replaces “image enlargement with double enlargement ratio” and “image conversion” with “double density of surface normal vector N” t parameter operation instruction.
  • the signal LEPS is given to the parameter operation unit 104.
  • the norameter operation unit 104 doubles the surface normal vector N twice.
  • the number of pixels in the original parameter value IINLEP u force The number of pixels in the new parameter value IOUTLEP is 2u. Since parameters that depend on the material of the object do not depend on the resolution, the original parameter value IINLEP can be passed directly to the new parameter value IOUTLE P. Specifically, the diffuse reflection component ratio kd, The new parameter value IOUTLEP of the specular reflection component reflectivity ps is the same as the original parameter value IINLEP.
  • the normal vector N is a resolution-dependent parameter
  • the surface normal vector N of the new parameter value IOUTLEP represents the difference in pixels after densification.
  • the third subscript is memorized.
  • the boundary of the material (for example, between pixel 2 and pixel 3 in the original parameter value IINLEP) is as shown in FIG. Since it is highly possible that an edge portion is caused by overlapping, it is desirable to maintain this boundary condition even after densification.
  • pixel 4 and pixel 5 of the new parameter value IOUTLEP are matched with pixel 2 and pixel 3 of the original parameter value IINLEP, respectively. That is, to maintain the boundary conditions,
  • the brightness is reduced by moving 2,1,1 away from the specular direction to cancel the error.
  • the specular reflection component reflectance P of material 1 is lower than the specular reflection component reflectance p of material 2, IINLEP image s, l s, 2
  • Element 3 contains an error that causes the brightness to become darker, so the normal vector is moved as shown in Fig. 7 (b) to Fig. 7 (a).
  • the intensity of diffuse reflection is
  • the brightness is determined by the inner product (N'L) of the normal vector ⁇ and the illumination vector L, so it is not related to the direction of the line-of-sight vector V. Therefore, as shown in Fig. 8 (a), if the diffuse reflection component reflectivity P of material 1 is higher than the diffuse reflection component reflectivity p of material 2, then d, l d, 2 of IINLEP
  • reflection component reflectivity P is lower than the diffuse reflection component reflectivity p of material 2, then IINLEP d, l d, 2
  • the curved surface shape CSF included in the object 601 is discretized into a normal vector to form a polygonal line shape LF, which causes a quantization error. Therefore, for example, the pixel 3 of IINLEP is originally the surface 604 indicated by the force normal vector N having the intersecting edge 603 of the object 601 and the object 602 and the surface 605 indicated by the normal vector N.
  • the normal vector control has the effect of edge enhancement in addition to the correction of the luminance error due to the material mixing described in FIGS. 7 and 8, and the normal vector is determined by comprehensively considering the two effects.
  • An example of a normal vector control method is a method of referring to a database generated in advance by case learning. That is, normal vector data with a number of pixels twice different is measured using a plurality of sample subjects to obtain low-density normal vector data and high-density normal vector data. The relationship between low-density normal vector data and high-density normal vector data is stored in a database, and when edge enhancement is performed, high-density normal vector data is obtained from low-density normal vector data.
  • N -N,
  • the normal vector N and N force located in the vicinity are also interpolated.
  • the interpolation weights 3Z4 and 1Z4 are I
  • FIG. 10 shows a case where IINLEP pixel u is enlarged five times and five pixels u, 1, u, 2, u, 3, u, 4, u, 5 are generated in IOUTLEP.
  • the general rule of the image enlargement ratio is that the number of pixels of the IO UTLEP is arbitrary.
  • a method of generating ⁇ pixels in the UTLEP, where the image enlargement ratio is ⁇ will be described. Therefore, although FIG.
  • the image u, k corresponds to five pixels of pixels u, 1, u, 2, u, 3, u, 4, u, 5.
  • the normal vector in the vicinity of IINLEP of normal vector N of IOUTLEP pixels u and k is the combination of normal vectors N and N t, u, k t, u—l t, u
  • the force is a combination of “normal vectors N and N”.
  • IOUTLEP pixels u, k are II t t + l
  • the second neighbor normal vector is IINLEP pixel u—l, u + 1 normal vector N t
  • the weight of the interpolation calculation is calculated by the size of the IOUTLEP sub-pixel, where the size of the IINLEP pixel is 1, as in FIG.
  • One pixel of IINLEP is densified to ⁇ pixels by TL UTLEP according to the image magnification factor ⁇ . Therefore, the size of the IOUTLEP sub-pixel is ⁇ (2 ⁇ ).
  • the boundary between IINLEP pixel u-l and pixel u is defined as boundary 801, and the boundary between IINLEP pixel u and pixel u + 1 is defined as boundary 802.
  • the distance between normal vector N and boundary 801 is the size of IINLEP sub-pixel That is 1Z2.
  • the distance between boundary 801 and normal vector N is
  • the weights for t and u are [lZ2 + (2k ⁇ l) Z (2Q;)], and the normal vector N is
  • the distance between the line N and the normal vector N is (2k— 1— ⁇ ) subpixels of IOUTLEP t, u t, u, k
  • the t, u, k distance is the distance force between boundary 802 and normal vector N.
  • the weight for the normal vector N is [lZ2 + ⁇ Q ;-( 2k-l Q;
  • FIG. 12 is a diagram showing illumination conversion as a second example of the parameter operation.
  • the original parameter value IINLEP and the new parameter value IOUTLEP are written for each pixel for one line.
  • the above seven parameters are defined for each pixel, and the ambient light intensity Ia and the ambient light reflectance.
  • the pa and illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance pd, and the specular reflection component reflectance ps depend on the material of the object, a suffix indicating the type of material is attached.
  • the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
  • the image conversion instruction unit 105 receives the image conversion instruction signal ICIS to change the illumination position from (X, y, z) (ILLT1) to (x, y, z) (ILLT2). ⁇ Convert to ''!
  • the illuminance at the point of interest ⁇ ⁇ on the small surface PS of the subject surface increases as the angle between the surface normal vector ⁇ and the illumination vector L decreases, and the surface normal vector ⁇ and the illumination vector The larger the angle of L, the lower. Therefore, changing the position of the illumination changes the illuminance at the point of interest ⁇ .
  • the intensity of the specular reflection also changes.As explained in Fig. 7, the specular reflection intensity increases as the viewpoint vector approaches the regular reflection position of the illumination vector. Therefore, if the viewpoint vector moves away from the specular reflection position of the illumination vector, the specular reflection intensity decreases. In this way, the amount of light reflected to the viewpoint vector V changes by changing the position of the illumination, and the image recorded in the camera CAM changes.
  • the parameter operation setting unit 106 converts “the position of the illumination into (x, y, z) force (x, y, z).
  • the image conversion instruction “” is replaced with a parameter operation “convert illumination vector L1 to illumination vector L2”, and given to parameter operation section 104 as parameter operation instruction signal LEPS.
  • the illumination vector L1 is given by (X ⁇ X, y ⁇ y, ⁇ ) as a difference between the attention point P vector OW and the illumination position vector LW1.
  • the illumination vector L2 is
  • the meter operation unit 104 converts the illumination vector L1 into the illumination vector L2 in accordance with the parameter operation instruction signal LEPS.
  • the illumination vector L is at all positions on the subject.
  • the illumination vector L changes depending on the position of the attention point P. Therefore, the attention vector OW is replaced for each pixel. Therefore, it is necessary to calculate the illumination vector L.
  • Fig. 14 shows the third example of parameter operation, where the diffuse reflection component ratio kd of a specific material is converted.
  • the original parameter value IINLEP and the new parameter value IOUTLEP are written for each pixel for each line. Lined up.
  • the seven parameters described above are defined for each pixel, and three of the ambient light luminance Ia, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d, and the specular reflection component reflectance p s depend on the material of the object, a suffix indicating the type of material is attached.
  • the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
  • FIG. 15 shows an interface 1501 for adjusting the diffuse reflection component ratio kd of the image conversion instruction unit 105.
  • the operator 1502 inputs a conversion instruction to the image conversion instruction unit 105 using an input device 1504 such as a mouse while viewing the adjustment interface 1501 displayed on the display 1503.
  • the operator 1502 moves the cursor 1506 to a material to change the diffuse reflection component ratio kd in the pre-conversion image 1505, and picks up the diffuse reflection component ratio kd of the material of the cursor 1506 by clicking the input device 1504 or the like. If this is pixel 1 of IINLEP in Fig. 14, k is picked up.
  • a slider 1508 is displayed on the screen.
  • IINLEP pixel 2 is made of the same material as pixel 1, its diffuse reflection component ratio k is also subject to conversion. That is, the same
  • the diffuse reflection component of object 1509 is increased, and in this example, it is shown in converted image 1511. As shown, object 1509 has been reduced in brightness and darkened.
  • the change result of the diffuse reflection component ratio kd is displayed on the converted image 1511 as an output image IOUT by the method described later, and the operator 1502 evaluates the adjustment result of the diffuse reflection component ratio kd based on his own image production intention. If the adjustment is not enough, continue to move the slider 1510, check the converted image 1511 and repeat the series of operations.
  • the conversion contents of the diffuse reflection component ratio kd set in the image conversion instruction unit 105 are set to “change the diffuse reflection component ratio k of material 1 to k ′” by the image conversion instruction signal ICIS, and parameter operation is performed. Setting part 1
  • the meter operation setting unit 106 reads “diffuse reflection component ratio of material 1 k d, l
  • the parameter operation unit 104 sets k ′ to the diffuse reflection component ratio kd in (Equation 1) and sets the specular reflection component ratio ks to 1 k ′ in accordance with the parameter operation instruction signal LEPS.
  • the generation unit 107 calculates the illumination equation (Equation 1) using IOUTLEP in FIG. 14, and the result is the output image IOUT.
  • Fig. 16 is a diagram of converting the material of a specific pixel as a fourth example of parameter operation.
  • the original parameter value IINLEP and the new parameter value IOUTLEP are written and arranged for each pixel for one line.
  • the seven parameters described above are defined for each pixel, and three of the ambient light luminance la, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, diffuse reflection component reflectance pd, and specular reflection component reflectance ps depend on the material of the object, a suffix indicating the type of material is attached. Also, for the surface normal vector N of the original parameter value IINLE P, the first subscript indicates the type of material and the second subscript is Shows the difference in pixels within the same material.
  • FIG. 17 shows a material change interface 1701 included in the image conversion instruction unit 105.
  • the operator 1502 inputs a conversion instruction to the image conversion instruction unit 105 using the input device 1504 while viewing the material change interface 1 701 displayed on the display 1503.
  • the material database 1702 stores material images and parameters. In FIG. 17, the images and parameters of material A to material D are read from the material database 1702 and displayed.
  • the operator 1502 moves the cursor 1506 to the pixel whose material is to be changed in the pre-conversion image 1505, and determines the conversion target pixel by clicking the input device 1504 or the like. Since the parameters specific to the material are the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d, and the specular reflection component reflectance p s, these three parameters are to be converted. Specifically, assuming that the position force of the cursor 1506 in FIG. 17 is the pixel 2 of IINLEP in FIG. 16, the (k p p) of the pixel 2 is the conversion target. The operator 1502 then d, l d, l s, l
  • the quality D is a material having a lower luminance than the object 1509 and is converted into a material and a texture.
  • the above operation is performed by the image conversion instructing unit 105, and “diffuse reflection component ratio kd, diffuse reflection component reflectance pd, specular reflection component reflectance ps of IOUTLEP pixel 2 is set to 0.9, 0.3, 0. .8 ”is transmitted to the parameter operation setting unit 106 by the image conversion instruction signal ICIS.
  • the parameter operation setting unit 106 sets the diffuse reflection component ratio kd, diffuse reflection component reflectance pd, and specular reflection component reflectance P s of IOUTLEP pixel 2 to 0.9, 0.
  • the instruction “3, 0.8” is given to the parameter operation unit 104.
  • the output image IOUT In the above example, only one pixel is targeted for conversion. However, multiple pixels can be specified together, or an area can be specified on the image, and converted to a specific material. It is also possible.
  • To extract another material from the material database 1702 use the “next material list” button 1704, and to register a new material in the material database 1702, use the “new registration” button 1705.
  • FIG. 18 is a diagram showing image reduction as a fifth example of the parameter operation.
  • the original parameter value IINLEP and the new parameter value IOUTLEP are written for each pixel for one line.
  • the seven parameters described above are defined for each pixel, and three of the ambient light luminance Ia, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d, and the specular reflection component reflectance p s depend on the material of the object, a suffix indicating the type of material is attached.
  • the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
  • the parameter operation setting unit 106 replaces the image conversion instruction “reduce the image to 1Z3” with the parameter operation “obtains an average value for every three pixels of IINLEP and sets it as one pixel of IOUTL EP”.
  • the parameter operation instruction signal LEPS is given to the parameter operation unit 104.
  • the parameter operation unit 104 obtains an average value for every three pixels of IINLEP and sets it as one pixel of IOUTLEP.
  • the surface normal vector of pixel 1 of IOUTLEP is the surface normal vector N of pixel 1, pixel 2, and pixel 3 of IINLEP.
  • the ratio of diffuse reflection components is the ratio of diffuse reflection components of IINLEP pixel 1, pixel 2, and pixel 3 k d, l
  • the emissivity is the average (2 P + p) Z3 of the reflectances p, ⁇ , pd, ld, ld, 2 of the diffuse reflection components of pixels 1, 2 and 3 of IINLEP.
  • the reflectance of the specular reflection component of pixel 1 of IOUTLEP is d, l d, 2
  • the present invention does not limit the image reduction method, and any method can be applied.
  • low-pass filter is applied to each parameter image of IINLEP, A sub-sampling method can be used.
  • the present invention does not limit the method of operating the parameters of the illumination equation. Therefore, it is possible to manipulate any parameter of the lighting scheme by any method, and any parameter can be manipulated by any method, as in the example of the parameter manipulation method described with reference to FIGS.
  • the geometrical characteristics such as the surface normal vector are illustrated one-dimensionally in FIG. 2 and the like for convenience of explanation, but are originally three-dimensional information, and the present invention is not limited to one dimension.
  • the interpolation methods shown in (Equation 2), (Equation 3), and (Equation 4) are also examples, and any method can be applied to increase the spatial density. In FIG. 5, the image enlargement is explained by increasing the density of the surface normal vector N.
  • the present invention does not limit the illumination equation parameter to be operated and the operation method thereof.
  • Spatial densification can be achieved using any combination of parameters, such as increasing the density kd or increasing the density of the surface normal vector N and diffuse reflection component ratio kd.
  • the illumination parameters to be subjected to image conversion are arbitrary, and the combination thereof is also arbitrary. 5 to 18 show one line in the image, but if this is applied in the vertical and horizontal directions, it can be expanded into two-dimensional image processing.
  • step S5 the image generation unit 107 generates an output image IOUT as a second image based on the new parameter value IOUTLEP obtained in step S4.
  • the image feature vector is associated with the illumination equation parameters by using the image created from the illumination equation for learning the image feature vector.
  • a first parameter value LEP1 (number 1) is set as the value of the illumination equation parameter. Then, using the first parameter value LEP1, the calculation of (Equation 1) is performed to generate a learning image IL. Then, the generated learning image IL is subjected to image feature analysis substantially equivalent to step S1 described above to obtain an image feature vector ILFV.
  • This image feature vector ILFV is stored in number 1 of the image feature vector database 102.
  • the image feature vector ILFV and the first parameter value LEP1 are associated with each other and stored in the databases 102 and 103. By repeatedly executing such processing, an image feature vector database 102 and an illumination equation parameter database 103 as shown in FIG. 1 are generated.
  • the image generation unit 107 generates an image.
  • the image feature analysis unit 101 performs image feature analysis, but image generation and image feature analysis may be performed by other means in the pre-processing S00.
  • the illumination equation parameter IINLEP suitable for the input image ⁇ is selected from the image feature vector IINFV of the input image ⁇ .
  • this parameter IINLEP By manipulating this parameter IINLEP, various output images IOUT can be generated. Therefore, image conversion with a high degree of freedom is possible without being limited to image data at the time of learning.
  • the learning image IL can be generated by a computer using an illumination equation, so that it is not necessary to shoot with the real object for generating the learning image. Therefore, the processing is simplified and various learning images can be easily prepared.
  • an appropriate illumination equation parameter can be acquired. Therefore, when generating the learning image IL, it is desirable to set the illumination equation parameters assuming the conditions when the input image ⁇ was taken. For example, when the shooting location of the input image ⁇ ⁇ can be limited, and as a result, the illumination position can be limited, the illumination scale L uses the data when the input image ⁇ was taken.
  • image enlargement has been described as an example of image conversion.
  • the present invention is not limited to this, and parameter operations can be similarly performed for other image conversions. For example, if you want to change the illumination direction, you can change the illumination vector L, and if you want to change the ratio of the diffuse reflection component to the specular reflection component, change the diffuse reflection component ratio kd.
  • the specular reflection component reflectance ps is defined by bidirectional reflectance, it changes according to the line-of-sight direction. Therefore, for example, if the Cook-Torrance model given by (Equation 5) is introduced, the line-of-sight vector V, roughness coefficient m, and Fresnel coefficient F can be added to the illumination equation parameters. This enables image conversion such as changing the viewpoint direction and changing the surface roughness. [Equation 5]
  • vector H is an intermediate vector between viewpoint vector V and illumination vector L
  • represents an angle between intermediate vector ⁇ and surface normal vector ⁇
  • m is a coefficient representing the roughness of the surface of the object.
  • 8 is small, that is, the surface normal vector N shows strong reflection
  • 8 is large, that is, the surface.
  • the reflection distribution also spreads away from the normal vector N.
  • G is the geometric attenuation factor, and represents the effect of shading due to the unevenness of the object surface.
  • n is a refractive index.
  • the illumination equation can be arbitrarily defined and is not limited to (Equation 1) or (Equation 5).
  • the illumination equation parameter corresponding to the image feature vector closest to the image feature vector IINFV is acquired as the original parameter value IINLEP.
  • the method for acquiring the original parameter value IINLEP is as follows. It is not limited to. For example, as shown in FIG. That is, first, a predetermined number (three in FIG. 21) of image feature vectors similar to the input image feature vector IINFV are selected. For each selected image feature vector, the distance from the input image feature vector IINFV is obtained, and a weighting coefficient IINFVWF corresponding to this distance is determined. The parameter values respectively corresponding to the three selected image feature vectors are weighted and added using the weighting coefficient IINFVWF, and the result is output as the original parameter value IINLEP. Instead of weighted calorie calculation, parameter values corresponding to the selected predetermined number of image feature vectors, respectively. I can't help simply by taking the average.
  • the relationship between the image feature and the illumination equation parameter may be prepared by any means that does not necessarily have to be learned in advance.
  • FIG. 22 is a diagram showing a first configuration example, which is an example of a configuration for performing image conversion according to the present invention using a personal computer.
  • a first configuration example which is an example of a configuration for performing image conversion according to the present invention using a personal computer.
  • an enlarged image is created by an image conversion program loaded into the main memory 23.
  • the low resolution image captured by the camera 21 is recorded in the image memory 24.
  • an image feature vector database 102 and an illumination equation parameter database 103 are prepared in advance and can be referred to by an image conversion program module in the main memory 23.
  • the operation of the image conversion program, the contents of the image feature vector database 102 and the illumination equation parameter database 103, the creation method, and the like are as described in the first embodiment.
  • the image conversion program in the main memory 23 reads the low-resolution image in the image memory 24 via the memory bus 26, converts it into a high-resolution image in accordance with the resolution of the display 22, and then the video memory via the memory bus 26 again. Forward to 27.
  • the high resolution image transferred to the video memory 27 can be observed on the display 22.
  • the present invention can take various configurations that are not restricted by the configuration of FIG.
  • the low resolution image may be acquired via the network 28.
  • FIG. 23 is a diagram showing a second configuration example, which is an example of a configuration for performing image conversion according to the present invention using a server client system.
  • the resolution of the camera 31 is lower than that of the display 32.
  • image conversion is executed in the server client system.
  • the server 33 the first embodiment Similarly to the above, the image feature analysis unit 101, the image feature vector database 102, and the illumination equation equation parameter database 103 also calculate the original parameter value IINLEP for the input image repulsion.
  • the image feature vector database 102 and the illumination equation parameter database 103 constitute a parameter output unit 10.
  • an image conversion instruction (image enlargement in this example) is passed from the image conversion instruction unit 105 of the client 34 to the parameter operation setting unit 106 of the server 33 as an image conversion instruction signal ICIS.
  • the parameter operation setting unit 106 replaces the content of the image conversion by the image conversion instruction signal ICIS with the operation content of the illumination equation parameter, and outputs it to the parameter operation unit 104 as the parameter operation instruction signal LEPS.
  • the parameter operation unit 104 operates the original parameter value IINLEP to generate a new parameter value IOUTLEP.
  • the server 33 can provide the client 34 with the new parameter value IOUTLEP according to the image conversion instruction from the client 34 via the network 35.
  • the image generation unit 107 generates an enlarged image and supplies it to the display 32.
  • the present invention is not limited to the configuration shown in FIG. 23, the combination of image devices, the position of each means on the system (the force belonging to the force client 34 belonging to the server 33, or other Whether it belongs or not) is arbitrary.
  • FIG. 24 is a diagram showing a third configuration example, which is an example of a configuration for performing image processing according to the present invention using a camera-equipped mobile phone and a television.
  • a camera-equipped mobile phone 41 as a portable device can send image data to the television 44 via the network 42 or the memory card 43.
  • the camera 45 of the camera-equipped mobile phone 41 has a resolution lower than that of the television 44.
  • the image is converted by the image conversion device according to the present invention installed in the internal circuit of the television 44. Perform magnification.
  • the camera-equipped mobile phone 41 performs image feature analysis on the camera 45 and the image ⁇ ⁇ taken by the camera 45 and outputs the first image feature vector IINFV.
  • the image feature vector database that identifies the image feature vector similar to the first image feature vector IINFV and outputs its number IINFVN. 102 is shown.
  • the present invention can take various configurations other than the configuration shown in FIG.
  • the camera-equipped mobile phone 41 may be a digital still camera or a video movie camera.
  • the present invention can be executed on a wide variety of video devices such as personal computers, server client systems, camera-equipped mobile phones, digital still cameras, video movie cameras, and televisions that are widely used. No special equipment, operation or management is required. It should be noted that the device connection form and the internal configuration of the device, such as mounting on dedicated hardware or a combination of software and hardware, are not constrained.
  • various image conversions such as enlargement / reduction, illumination conversion, viewpoint conversion, and change of the ratio of the diffuse Z specular reflection component can be freely performed.
  • image conversions such as enlargement / reduction, illumination conversion, viewpoint conversion, and change of the ratio of the diffuse Z specular reflection component
  • sports, sightseeing, commemorative photography, etc. It can be used in the field of video entertainment that records these scenes as video.
  • it can be used to provide a highly flexible digital archiving system that is not limited by subject or shooting location.

Abstract

A video image characteristic analyzing unit (101) carries out a video image characteristic analysis of an input video image (IIN) and outputs a video image characteristic vector (IINFV). A parameter output unit (10) stores a plurality of video image characteristic vectors and a plurality of parameter values for an illumination equation corresponding to the video image characteristic vectors and outputs an initial parameter value (IINLEP) corresponding to the video image characteristic vector (IINFV). A parameter operation setting unit (106) determines contents of a parameter operation in accordance with an instructed video image conversion, and a parameter operation unit (104) operates the initial parameter value (IINLEP) in accordance with an instruction of the parameter operation setting unit (106) to obtain a new parameter value (IOUTLEP). A video image generating unit (107) generates an output video image (IOUT) based on the new parameter value (IOUTLEP).

Description

明 細 書  Specification
画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器 およびプログラム  Image conversion method, image conversion apparatus, server client system, portable device, and program
技術分野  Technical field
[0001] 本発明は、画像処理技術に関するものであり、特に、画像拡大や照明変換、視点 変換などの画像変換を実現する技術に関する。  [0001] The present invention relates to an image processing technique, and more particularly to a technique for realizing image conversion such as image enlargement, illumination conversion, and viewpoint conversion.
背景技術  Background art
[0002] 画像機器とネットワークのデジタルィ匕により、種類の異なる画像機器同士が容易に 接続可能になっており、画像交換の自由度が高まっている。例えば、デジタルスチル カメラで撮影した画像を、プリンタに出力したり、ネットワーク上で公開したり、家庭の テレビで鑑賞したり、というように、利用者がシステムの違いに制約を受けることなく自 由に画像を扱える環境が整備されてきた。  [0002] Image devices and network digital connections enable easy connection between different types of image devices, increasing the degree of freedom of image exchange. For example, users can freely access images taken with a digital still camera without being restricted by differences in the system, such as outputting to a printer, publishing on a network, or viewing on a home TV. An environment that can handle images has been improved.
[0003] 一方、このような環境を実現するために、システム側は様々な画像フォーマットに対 応する必要に迫られており、高度な画像フォーマット変換が求められている。例えば 、頻繁に発生する画像サイズ変換に対応するためには、アップコンバータ (画素数、 ライン数を増やす変換装置)やダウンコンバータ (画素数、ライン数を減らす変換装置 )が必要になる。例えば A4用紙(297mm X 210mm)に 600dpiの解像度で印刷す る場合、 7128画素 X 5040ラインのデータが必要になる力 多くのデジタルスチルカ メラの解像度はこれを下回るため、アップコンバータが必要になる。また、ネットワーク 上に公開された画像は、出力デバイスが決まるたびに、対応する画像サイズへの変 換を必要とする。家庭用テレビに関しては、デジタル地上波のサービスが開始された ため、従来の標準テレビと HD (High Definition)テレビとが混在し、このため、画 像サイズ変換が頻繁に行われる。  On the other hand, in order to realize such an environment, the system side is required to support various image formats, and advanced image format conversion is required. For example, an up-converter (a conversion device that increases the number of pixels and lines) and a down-converter (a conversion device that reduces the number of pixels and lines) are required to cope with frequently occurring image size conversion. For example, when printing on A4 paper (297mm x 210mm) at 600dpi resolution, the power required for 7128 pixel x 5040 line data is lower than this, so an upconverter is required. . Also, images published on the network require conversion to the corresponding image size every time an output device is determined. With regard to home TV, since digital terrestrial services have been started, conventional standard TV and HD (High Definition) TV are mixed, so image size conversion is frequently performed.
[0004] 画像を拡大するためには、取得時には存在しな力 た画像データを新たに作り出 す必要があるが、これにはすでに様々な方法が提案されている。例えば、バイリニア 法、ノ ィキュービック法などの内挿を用いる方法が、一般的である (非特許文献 1)。と ころが、内挿を用いた場合、サンプリングデータの中間的な値しか生成できないため 、エッジなどの先鋭度が劣化し、ぼけた画像になる傾向がある。そこで、初期拡大画 像として内挿画像を用い、その後、エッジ部を抽出して、エッジのみを強調する技術 が開示されている (特許文献 1、非特許文献 2)。しかし、エッジ部とノイズの切り分け が難しぐエッジ部の強調とともに、ノイズも強調されて画質劣化を招く傾向がある。 [0004] In order to enlarge an image, it is necessary to newly create powerful image data that does not exist at the time of acquisition, but various methods have already been proposed. For example, methods using interpolation such as bilinear method and no-cubic method are common (Non-patent Document 1). However, when interpolation is used, only intermediate values of sampling data can be generated. The sharpness of edges and the like tends to deteriorate, resulting in a blurred image. Therefore, a technique is disclosed in which an interpolated image is used as an initial enlarged image, and then an edge portion is extracted to emphasize only the edge (Patent Document 1, Non-Patent Document 2). However, along with the emphasis of the edge part, which makes it difficult to separate the edge part from the noise, the noise tends to be emphasized and the image quality tends to deteriorate.
[0005] そこで、画質劣化を抑えつつ画像拡大を行う方法として、学習方式がある。すなわ ち、拡大画像に相当する高解像度画像を高精細カメラ等によって予め撮影し、この 高解像度画像から低解像度画像を作成する。低解像度画像の生成は、通常、ロー パスフィルタを通してサブサンプリングする方法によって行う。このような低解像度画 像と高解像度画像の組を多数準備し、その関係を画像拡大方法として学習する。し たがって、学習方式では、上述したような強調処理は存在せず、このため、比較的画 質劣化の少な ヽ画像拡大を実現できる。 [0005] Therefore, there is a learning method as a method for enlarging an image while suppressing image quality deterioration. That is, a high-resolution image corresponding to the enlarged image is taken in advance by a high-definition camera or the like, and a low-resolution image is created from the high-resolution image. Low-resolution images are usually generated by sub-sampling through a low-pass filter. Many pairs of such low-resolution images and high-resolution images are prepared, and the relationship is learned as an image enlargement method. Therefore, in the learning method, the above-described enhancement processing does not exist, and therefore, it is possible to realize an image enlargement with relatively little image quality deterioration.
[0006] 学習方式の例としては、例えば、隣接画素との輝度値の関係がマルコフ過程で決 まるとして、統計的手法で学習を行う技術が開示されている (非特許文献 3)。また、 低解像度から高解像度への変換対で画素ごとに特徴ベクトルを求め、入力画素の特 徴ベクトルとの一致度と周辺との一貫性から、拡大画像を生成する技術が開示されて いる (非特許文献 4)。 [0006] As an example of a learning method, for example, a technique of performing learning using a statistical method is disclosed assuming that the relationship between luminance values with adjacent pixels is determined by a Markov process (Non-patent Document 3). In addition, a technique has been disclosed in which a feature vector is obtained for each pixel in a conversion pair from low resolution to high resolution, and an enlarged image is generated from the degree of coincidence with the feature vector of the input pixel and the consistency with the surroundings ( Non-patent document 4).
[0007] また学習方式は、画像拡大だけでなぐ例えば照明方向の変換などにも活用され ている(非特許文献 5)。非特許文献 5では、テクスチャ (物体表面の凹凸や模様など のこと)の異なる複数の物体に異なる複数の方向から照明をあてて、学習データを作 成し、テクスチャ感を保ちながら照明方向を変換する技術が開示されている。  [0007] In addition, the learning method is used not only for image enlargement but also for conversion of the illumination direction, for example (Non-Patent Document 5). In Non-Patent Document 5, a plurality of objects with different textures (such as surface irregularities and patterns) are illuminated from different directions, learning data is created, and the illumination direction is changed while maintaining the texture. Techniques to do this are disclosed.
特許文献 1 :米国特許第 5, 717, 789号 (図 5)  Patent Document 1: U.S. Pat.No. 5,717,789 (Figure 5)
非特許文献 1 :荒屋真ニ著, 「明解 3次元コンピュータグラフィックス」,共立出版, 2 003年 9月 25日, pp. 144- 145  Non-Patent Document 1: Shinya Araya, “Clear 3D Computer Graphics”, Kyoritsu Shuppan, 2 September 25, 003, pp. 144-145
非特許文献 2 :中静真ら、「多重スケール輝度こう配平面における画像高解像度化」、 電子情報通信学会論文誌 D—Π Vol. J81 -D-II No. 10 pp. 2249— 2258 , 1998年 10月  Non-Patent Document 2: Makoto Nakashizuka, “High-resolution image in multi-scale luminance gradient plane”, IEICE Transactions D—Π Vol. J81 -D-II No. 10 pp. 2249— 2258, 1998 October
非特干文献 3 : Freemanら、「Learnmg Low— Level VisionJ、 International J ournal of Computer Vision 40 (1) , pp. 25—47, 2000年 非特許文献 4:Hertzmannら、「Image Analogies] , SIGGRAPH 2001 予稿 集, pp. 327- 340, 2001年 Non-Special Reference 3: Freeman et al., “Learnmg Low—Level Vision J, International Journal of Computer Vision 40 (1), pp. 25-47, 2000 Non-Patent Document 4: Hertzmann et al., “Image Analogies”, SIGGRAPH 2001 Proceedings, pp. 327-340, 2001
非特許文献 5 : Malikら、「Representing and Recognizing the Visual Appe arance of Materials using Three― dimensional TextonsJ、 Interna tion al Journal of Computer Vision 43 (1) , pp. 29—44, 2001年  Non-Patent Document 5: Malik et al., "Representing and Recognizing the Visual Appearance of Materials using Three-dimensional TextonsJ, International al Journal of Computer Vision 43 (1), pp. 29-44, 2001
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0008] ところが、従来の技術では、次のような問題があった。 [0008] However, the conventional technique has the following problems.
[0009] 上述したような学習方式では、拡大画像は学習に用いた画像群の中から選ばれる ため、拡大方法は、学習データに依存してしまうという問題がある。また、画像拡大だ けでなぐ照明方向の変換などその他の画像変換でも、同様の問題が生じる。  [0009] In the learning method as described above, since the enlarged image is selected from the group of images used for learning, there is a problem that the enlargement method depends on the learning data. Similar problems also occur in other image conversions, such as conversion of the illumination direction that can be achieved only by image enlargement.
[0010] また、低解像度画像と高解像度画像を多数準備する必要があるため、学習を行う 前処理に工数力かかりすぎるという問題もある。さらに、学習時の画像データは実際 に撮影した画像力 作成する必要があるので、画像データに自ずと偏りが生じる可能 性があり、このことは自由度の高い画像変換を行うためには好ましくない。  [0010] In addition, since it is necessary to prepare a large number of low-resolution images and high-resolution images, there is also a problem that it takes too much manpower for pre-processing for learning. Furthermore, since it is necessary to create the image power actually captured when learning the image data at the time of learning, there is a possibility that the image data is naturally biased, which is not preferable for performing image conversion with a high degree of freedom.
[0011] 前記の問題に鑑み、本発明は、学習方式を用いた画像変換において、従来よりも 画像変換の自由度を高めることを課題とする。  In view of the above problems, an object of the present invention is to increase the degree of freedom of image conversion in the image conversion using the learning method as compared with the conventional technique.
課題を解決するための手段  Means for solving the problem
[0012] 本発明では、第 1の画像について画像特徴解析を行い、この第 1の画像の画像特 徴から、画像特徴と照明方程式パラメータとの関係を参照して、これに対応する照明 方程式パラメータの値を、原パラメータ値として取得する。また、指示された画像変換 に応じて、照明方程式パラメータの操作内容を定める。そして、このパラメータ操作内 容に従って原パラメータ値を操作し、新パラメータ値を得る。そして、この新パラメータ 値を基にして、画像変換後の第 2の画像を生成する。  [0012] In the present invention, image feature analysis is performed on the first image, and the relationship between the image feature and the illumination equation parameter is referred to from the image feature of the first image, and the corresponding illumination equation parameter is determined. Is obtained as the original parameter value. Also, the operation details of the illumination equation parameters are determined according to the instructed image conversion. Then, the original parameter value is manipulated according to this parameter manipulation content to obtain a new parameter value. Based on this new parameter value, a second image after image conversion is generated.
[0013] この発明によると、第 1の画像の画像特徴に対応する照明方程式パラメータの値が 原パラメータ値として取得され、この原パラメータ値を、指示された画像変換に応じた 操作内容に従って操作することによって、新パラメータ値が得られる。そして、この新 ノ メータ値から、第 2の画像が生成される。すなわち、画像変換が、照明方程式の ノ メータ変換によって実現されるので、学習時の画像データによって制約を受ける ことがなぐ従来よりも自由度の高い画像変換が可能となる。例えば、画像拡大の場 合は、照明方程式のパラメータのうち、物体の形状情報を表わす表面法線ベクトルを 高密化すればよい。この場合、任意の拡大倍率を設定することができる。また、照明 方向の変換の場合は、照明方向を表わす照明ベクトルを変更すればよい。その他、 視点方向の変換なども、照明方程式パラメータを操作することによって、容易に実現 することができる。また、従来技術では、画像変換の種類だけ学習画像が必要であつ たが、これに対して本発明は照明方程式のパラメータ操作によって画像変換を行うた め、学習画像数を抑えることができる。 According to the present invention, the value of the illumination equation parameter corresponding to the image feature of the first image is acquired as the original parameter value, and the original parameter value is operated according to the operation content corresponding to the instructed image conversion. As a result, a new parameter value is obtained. The second image is then generated from this new meter value. That is, image conversion is Since it is realized by the number conversion, it is possible to perform image conversion with a higher degree of freedom than in the past without being restricted by the image data at the time of learning. For example, in the case of image enlargement, it is only necessary to increase the density of the surface normal vector representing the shape information of the object among the parameters of the illumination equation. In this case, an arbitrary enlargement magnification can be set. In the case of conversion of the illumination direction, the illumination vector representing the illumination direction may be changed. In addition, conversion of the viewing direction can be easily realized by manipulating the illumination equation parameters. In the prior art, learning images are required for each type of image conversion. On the other hand, since the present invention performs image conversion by manipulating the parameters of the illumination equation, the number of learning images can be reduced.
[0014] また、本発明では、画像特徴と照明方程式パラメータとの関係を学習する前処理に おいて、照明方程式パラメータの値を設定し、設定したパラメータ値力も学習画像を 生成し、学習画像について画像特徴解析を行って得た画像特徴を、元のパラメータ 値と対応付けて、データベースに保存するのが好ま 、。  [0014] In the present invention, in the preprocessing for learning the relationship between the image feature and the illumination equation parameter, the value of the illumination equation parameter is set, the set parameter value force also generates a learning image, and the learning image It is preferable to store the image features obtained from the image feature analysis in the database in association with the original parameter values.
[0015] これにより、前処理において、学習画像は照明方程式を用いて計算機によって生 成が可能であるので、学習画像生成のために実物を用いた撮影を必要としない。し たがって、処理が簡易になるとともに、多様な学習画像を容易に準備することができ る。  [0015] With this, in the pre-processing, the learning image can be generated by a computer using the illumination equation, so that shooting using the real object is not required for generating the learning image. Therefore, the processing becomes simple and various learning images can be easily prepared.
発明の効果  The invention's effect
[0016] 本発明によると、画像変換が照明方程式のパラメータ変換によって実現されるので 、自由度の高い画像変換が可能になる。また、学習画像数を抑えることもできる。さら に、前処理において、多様な学習画像を容易に準備することができる。  [0016] According to the present invention, since image conversion is realized by parameter conversion of the illumination equation, image conversion with a high degree of freedom is possible. In addition, the number of learning images can be reduced. Furthermore, various learning images can be easily prepared in the preprocessing.
図面の簡単な説明  Brief Description of Drawings
[0017] [図 1]図 1は本発明の第 1の実施形態に係る画像変換装置を示すブロック図である。  FIG. 1 is a block diagram showing an image conversion apparatus according to a first embodiment of the present invention.
[図 2]図 2は照明方程式の幾何条件と光学条件を説明するための図である。  FIG. 2 is a diagram for explaining the geometric conditions and optical conditions of the illumination equation.
[図 3]図 3は本発明の第 1の実施形態に係る画像変換方法を示すフローチャートであ る。  FIG. 3 is a flowchart showing an image conversion method according to the first embodiment of the present invention.
[図 4]図 4はウェーブレット変換を用いた画像特徴解析を表す図である。  FIG. 4 is a diagram showing image feature analysis using wavelet transform.
[図 5]図 5は画像変換を行うためのパラメータ操作の一例を示す図である。 [図 6]図 6は 2つのオブジェクトの重なりによるエッジ部の一例を示す図である。 FIG. 5 is a diagram showing an example of parameter operations for performing image conversion. FIG. 6 is a diagram showing an example of an edge portion formed by overlapping two objects.
[図 7]図 7は材質の混入による鏡面反射成分の誤差発生と誤差相殺の方法の一例を 示す図である。  [FIG. 7] FIG. 7 is a diagram showing an example of a method for generating and canceling an error of a specular reflection component due to mixing of materials.
[図 8]図 8は材質の混入による拡散反射成分の誤差発生と誤差相殺の方法の一例を 示す図である。  [FIG. 8] FIG. 8 is a diagram showing an example of a method of error generation and error cancellation of diffuse reflection components due to mixing of materials.
[図 9]図 9は 2倍拡大のための表面法線ベクトルの補間方法の一例を示す図である。  FIG. 9 is a diagram showing an example of a surface normal vector interpolation method for double enlargement.
[図 10]図 10は (数 2)を画像拡大率に関して一般ィ匕する方法の一例を示す図である。 FIG. 10 is a diagram showing an example of a method for generalizing (Equation 2) with respect to the image enlargement ratio.
[図 11]図 11は (数 2)を画像拡大率に関して一般ィ匕する方法の一例を示す図である。 圆 12]図 12は画像変換を行うためのパラメータ操作の 2つめの例として、照明変換を 示す図である。 FIG. 11 is a diagram showing an example of a method for generalizing (Equation 2) with respect to the image enlargement ratio. [12] Fig. 12 is a diagram showing illumination conversion as a second example of parameter operation for image conversion.
圆 13]図 13は照明の位置と照明ベクトルの関係を示す図である。 [13] FIG. 13 is a diagram showing the relationship between the position of the illumination and the illumination vector.
[図 14]図 14は画像変換を行うためのパラメータ操作の 3つめの例として、特定の材質 の拡散反射比率を変換する図である。  [FIG. 14] FIG. 14 is a diagram showing the conversion of the diffuse reflection ratio of a specific material as a third example of the parameter operation for image conversion.
[図 15]図 15は画像変換指示部 105が有する拡散反射成分比率の調整用インターフ エースの一例を示す図である。  FIG. 15 is a diagram illustrating an example of an interface for adjusting the diffuse reflection component ratio of the image conversion instruction unit 105.
[図 16]図 16は画像変換を行うためのパラメータ操作の 4つめの例として、特定の画素 の材質を変換する図である。  [FIG. 16] FIG. 16 is a diagram for converting the material of a specific pixel as a fourth example of the parameter operation for performing image conversion.
[図 17]図 17は画像変換指示部 105が有する材質変更用インターフェースの一例を 示す図である。  FIG. 17 is a diagram showing an example of a material change interface that the image conversion instruction unit 105 has.
[図 18]図 18は画像変換を行うためのパラメータ操作の 5つめの例として、画像縮小を 示す図である。  FIG. 18 is a diagram showing image reduction as a fifth example of parameter operation for image conversion.
圆 19]図 19は画像特徴と照明方程式パラメータとの関係を学習する方法を示す図で ある。 [19] FIG. 19 is a diagram showing a method of learning the relationship between image features and illumination equation parameters.
圆 20]図 20は照明方程式の幾何条件と光学条件を説明するための図である。 [20] FIG. 20 is a diagram for explaining the geometric condition and optical condition of the illumination equation.
[図 21]図 21は画像特徴に応じたパラメータ取得の他の方法を示す図である。 FIG. 21 is a diagram showing another method for acquiring parameters according to image characteristics.
圆 22]図 22は本発明を実現する第 1の構成例であり、パーソナルコンピュータを用い た構成を示す図である。 [22] FIG. 22 is a diagram showing a configuration using a personal computer as a first configuration example for realizing the present invention.
圆 23]図 23は本発明を実現する第 2の構成例であり、サーバークライアントシステム を用いた構成を示す図である。 23] FIG. 23 shows a second configuration example for realizing the present invention, which is a server client system. It is a figure which shows the structure using this.
[図 24]図 24は本発明を実現する第 3の構成例であり、カメラ付携帯電話とテレビを用 いた構成を示す図である。  FIG. 24 is a third configuration example for realizing the present invention, and shows a configuration using a camera-equipped mobile phone and a television set.
符号の説明  Explanation of symbols
[0018] 10 パラメータ出力部 [0018] 10 parameter output section
33 サーバー  33 servers
34 クライアント  34 clients
41 カメラ付携帯電話 (携帯機器)  41 Mobile phone with camera (mobile device)
45 カメラ  45 Camera
101 画像特徴解析部  101 Image feature analysis unit
102 画像特徴ベクトルデータベース  102 Image feature vector database
103 照明方程式パラメータデータベース  103 Lighting equation parameter database
104 パラメータ操作部  104 Parameter operation section
105 画像変換指示部  105 Image conversion instruction section
106 パラメータ操作設定部  106 Parameter operation setting section
107 画像生成部  107 Image generator
ΠΝ 入力画像 (第 1の画像)  ΠΝ Input image (first image)
IINFV 入力画像特徴ベクトル (第 1の画像特徴ベクトル)  IINFV input image feature vector (first image feature vector)
IINFVN 入力画像特徴ベクトル番号  IINFVN input image feature vector number
IINLEP 原パラメータ値  IINLEP original parameter value
ICIS 画像変換指示信号  ICIS image conversion instruction signal
LEPS パラメータ操作指示信号  LEPS parameter operation instruction signal
IOUTLEP 新パラメータ値  IOUTLEP New parameter value
IOUT 出力画像 (第 2の画像)  IOUT output image (second image)
LEP1 第 1のパラメータ値  LEP1 first parameter value
IL 学習画像  IL learning image
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0019] 本発明の第 1態様では、第 1の画像を第 2の画像に変換する方法として、前記第 1 の画像にっ 、て画像特徴解析を行う第 1のステップと、画像特徴と照明方程式パラメ ータとの関係を参照し、前記第 1のステップにお 、て得た前記第 1の画像の画像特徴 から、これに対応する照明方程式パラメータの値を原パラメータ値として取得する第 2 のステップと、指示された画像変換に応じて照明方程式パラメータの操作内容を定め る第 3のステップと、前記原パラメータ値を前記第 3のステップにお 、て定めた操作内 容に従って操作し、新パラメータ値を得る第 4のステップと、前記新パラメータ値を基 にして前記第 2の画像を生成する第 5のステップとを備えたものを提供する。 In the first aspect of the present invention, the first image is converted into the second image by the first image. The image of the first image obtained in the first step is referred to by referring to the relationship between the image feature and the illumination equation parameter in the first step of performing image feature analysis. From the features, a second step of acquiring the value of the illumination equation parameter corresponding to this as an original parameter value, a third step of determining the operation content of the illumination equation parameter according to the instructed image conversion, and the original The parameter value is manipulated according to the operation content determined in the third step, and a fourth step for obtaining a new parameter value, and a fifth step for generating the second image based on the new parameter value. With a step.
[0020] 本発明の第 2態様では、前記第 1のステップにおける画像特徴解析は、空間周波 数解析を用いて行うものである第 1態様の画像変換方法を提供する。  [0020] According to a second aspect of the present invention, there is provided the image conversion method according to the first aspect, wherein the image feature analysis in the first step is performed using a spatial frequency analysis.
[0021] 本発明の第 3態様では、画像特徴と照明方程式パラメータとの関係を学習する前 処理を備え、前記前処理は、照明方程式パラメータの値として第 1のパラメータ値を 設定するステップと、前記第 1のパラメータ値から学習画像を生成するステップと、前 記学習画像について、前記第 1のステップと実質的に同等の画像特徴解析を行うス テツプとを備え、得られた画像特徴を前記第 1のパラメータ値と対応付けてデータべ ースに保存する第 1態様の画像変換方法を提供する。  [0021] In a third aspect of the present invention, a pre-processing for learning the relationship between the image feature and the illumination equation parameter is provided, and the pre-processing sets the first parameter value as the value of the illumination equation parameter; A step of generating a learning image from the first parameter value; and a step of performing image feature analysis substantially equivalent to the first step for the learning image. Provided is a first mode image conversion method for storing in a database in association with a first parameter value.
[0022] 本発明の第 4態様では、前記第 1のパラメータ値は、前記第 1の画像が撮影された 際の照明方程式パラメータを想定して設定される第 3態様の画像変換方法を提供す る。  [0022] In the fourth aspect of the present invention, there is provided the image conversion method according to the third aspect, wherein the first parameter value is set assuming an illumination equation parameter when the first image is taken. The
[0023] 本発明の第 5態様では、前記照明方程式は、視点方向の輝度を、拡散反射成分、 鏡面反射成分および環境光成分の和によって表わすものである第 1態様の画像変 換方法を提供する。  [0023] In the fifth aspect of the present invention, there is provided the image conversion method according to the first aspect, wherein the illumination equation represents a luminance in a viewpoint direction by a sum of a diffuse reflection component, a specular reflection component, and an ambient light component. To do.
[0024] 本発明の第 6態様では、前記照明方程式パラメータは、表面法線ベクトル、照明べ タトル、拡散反射成分と鏡面反射成分との比率、拡散反射成分の反射率、および鏡 面反射成分の反射率のうち、少なくとも 1つを含む第 1態様の画像変換方法を提供 する。  [0024] In the sixth aspect of the present invention, the illumination equation parameters include a surface normal vector, an illumination vector, a ratio of a diffuse reflection component to a specular reflection component, a reflectance of the diffuse reflection component, and a specular reflection component. An image conversion method according to a first aspect including at least one of reflectances is provided.
[0025] 本発明の第 7態様では、前記第 3のステップは、指示された画像変換が画像拡大で あるとき、照明方程式パラメータの操作内容として表面法線ベクトル、照明ベクトル、 拡散反射成分と鏡面反射成分との比率、拡散反射成分の反射率、および鏡面反射 成分の反射率のうち、少なくとも 1つの高密化を定めるものである第 1態様の画像変 換方法を提供する。 [0025] In the seventh aspect of the present invention, when the instructed image conversion is image enlargement, the third step includes a surface normal vector, an illumination vector, a diffuse reflection component, and a specular surface as the operation content of the illumination equation parameter. Ratio with reflection component, reflectance of diffuse reflection component, and specular reflection Provided is an image conversion method according to a first aspect which defines at least one densification of component reflectances.
[0026] 本発明の第 8態様では、画像特徴と照明方程式パラメータとの関係は、複数の画像 特徴ベクトルと各画像特徴ベクトルとそれぞれ対応付けられた複数のパラメータ値と によって表されており、前記第 2のステップは、前記複数の画像特徴ベクトルの中から 前記第 1の画像の画像特徴を表す第 1の画像特徴ベクトルと類似する所定数の画像 特徴ベクトルを選択するステップと、前記所定数の画像特徴ベクトルについて、前記 第 1の画像特徴ベクトルとの距離をそれぞれ求めるステップと、前記所定数の画像特 徴ベクトルにそれぞれ対応するパラメータ値を当該画像特徴ベクトルについて求めた 前記距離に応じて重み付け加算し、前記原パラメータ値を算出するステップとを備え たものである第 1態様の画像変換方法を提供する。  In the eighth aspect of the present invention, the relationship between the image feature and the illumination equation parameter is represented by a plurality of image feature vectors and a plurality of parameter values respectively associated with the image feature vectors, The second step includes selecting a predetermined number of image feature vectors similar to the first image feature vector representing the image features of the first image from the plurality of image feature vectors; and A step of obtaining a distance between each of the image feature vectors and the first image feature vector, and a parameter value corresponding to each of the predetermined number of image feature vectors obtained with respect to the image feature vector. And a step of calculating the original parameter value. The first aspect of the image conversion method is provided.
[0027] 本発明の第 9態様では、入力画像につ!ヽて画像特徴解析を行!ヽ、前記入力画像 の画像特徴を表す第 1の画像特徴ベクトルを出力する画像特徴解析部と、複数の画 像特徴ベクトルと、照明方程式の,前記各画像特徴ベクトルとそれぞれ対応する複数 のパラメータ値とを格納しており、前記第 1の画像特徴ベクトルを受けて、これに対応 する原パラメータ値を出力するパラメータ出力部と、指示された画像変換に応じて照 明方程式パラメータの操作内容を定めるパラメータ操作設定部と、前記パラメータ出 力部から出力された前記原パラメータ値を前記パラメータ操作設定部によって定めら れた操作内容に従って操作し、新パラメータ値を得るパラメータ操作部と、前記パラメ ータ操作部カゝら出力された新パラメータ値を基にして出力画像を生成する画像生成 部とを備えた画像変換装置を提供する。  [0027] In the ninth aspect of the present invention, an image feature analysis is performed on the input image, an image feature analysis unit that outputs a first image feature vector representing the image feature of the input image, and a plurality of image feature analysis units. And a plurality of parameter values corresponding to each of the image feature vectors of the illumination equation, and the original parameter value corresponding to the first image feature vector is received by receiving the first image feature vector. A parameter output unit to output, a parameter operation setting unit for determining the operation content of the illumination equation parameter according to the instructed image conversion, and the original parameter value output from the parameter output unit by the parameter operation setting unit. Operate according to the defined operation details and obtain a new parameter value based on the new parameter value output from the parameter operation unit and the parameter operation unit. To provide an image conversion apparatus and an image generation section that generates an image.
[0028] 本発明の第 10態様では、前記パラメータ出力部は、前記複数の画像特徴ベクトル を格納する画像特徴ベクトルデータベースと、前記複数のパラメータ値を格納する照 明方程式パラメータデータベースとを備えたものである第 9態様の画像変換装置を提 供する。  In the tenth aspect of the present invention, the parameter output unit includes an image feature vector database that stores the plurality of image feature vectors and an illumination equation parameter database that stores the plurality of parameter values. An image conversion device according to the ninth aspect is provided.
[0029] 本発明の第 11態様では、画像変換を行うサーバークライアントシステムとして、第 9 態様の画像特徴解析部、パラメータ出力部、ノ メータ操作設定部およびパラメータ 操作部を有するサーバと、第 9態様の画像生成部を有するクライアントとを備え、前記 クライアントは、前記サーバに画像変換の内容を指示するものを提供する。 [0029] In an eleventh aspect of the present invention, as a server client system that performs image conversion, a server having an image feature analysis unit, a parameter output unit, a meter operation setting unit, and a parameter operation unit according to the ninth aspect; A client having an image generation unit of The client provides the server to instruct the contents of image conversion.
[0030] 本発明の第 12態様では、カメラと、前記カメラによって撮影された画像について画 像特徴解析を行 ヽ、その画像特徴を表す第 1の画像特徴ベクトルを出力する画像特 徴解析部と、複数の画像特徴ベクトルを番号とともに格納しており、前記第 1の画像 特徴ベクトルと類似する画像特徴ベクトルを特定し、その番号を出力する画像特徴べ タトルデータベースとを備え、前記画像特徴ベクトルデータベースから出力された番 号を送信する携帯機器を提供する。  [0030] In a twelfth aspect of the present invention, an image feature analysis unit that performs image feature analysis on an image photographed by the camera and outputs a first image feature vector representing the image feature; An image feature vector database that stores a plurality of image feature vectors together with numbers, identifies an image feature vector similar to the first image feature vector, and outputs the number, and the image feature vector database Provide a portable device that transmits the number output from.
[0031] 本発明の第 13態様では、コンピュータに、第 1の画像を第 2の画像に変換する方法 をコンピュータに実行させるプログラムとして、前記第 1の画像について画像特徴解 析を行う第 1のステップと、画像特徴と照明方程式パラメータとの関係を参照し、前記 第 1のステップにおいて得た前記第 1の画像の画像特徴から、これに対応する照明 方程式パラメータの値を、原パラメータ値として取得する第 2のステップと、指示され た画像変換に応じて、照明方程式パラメータの操作内容を定める第 3のステップと、 前記原パラメータ値を、前記第 3のステップにおいて定めた操作内容に従って操作し 、新パラメータ値を得る第 4のステップと、前記新パラメータ値を基にして、前記第 2の 画像を生成する第 5のステップとをコンピュータに実行させるものを提供する。  [0031] In the thirteenth aspect of the present invention, as a program for causing a computer to execute a method of converting a first image into a second image, a first image analysis is performed on the first image. Referring to the relationship between the step and the image feature and the illumination equation parameter, the value of the illumination equation parameter corresponding to the image feature of the first image obtained in the first step is obtained as the original parameter value. A second step of determining the operation content of the illumination equation parameter according to the instructed image conversion, and operating the original parameter value according to the operation content determined in the third step; A fourth step of obtaining a new parameter value and a fifth step of generating the second image based on the new parameter value are executed on the computer. To provide a shall.
[0032] 以下、本発明の実施の形態について、図面を参照して説明する。  Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0033] (第 1の実施形態)  [0033] (First embodiment)
図 1は本発明の第 1の実施形態に係る画像変換装置を示すブロック図である。図 1 において、画像特徴解析部 101は入力画像 ΠΝについて画像特徴解析を行い、入 力画像特徴べクトル IINFVを生成する。画像特徴べクトルデータベース 102は複数 の画像特徴ベクトルを格納しており、照明方程式パラメータデータベース 103は所定 の照明方程式の、画像特徴ベクトルデータベース 102に格納された各画像特徴べク トルとそれぞれ対応付けられた複数のノ メータ値を格納している。すなわち、画像 特徴と照明方程式パラメータとの関係が、準備されている。そして、画像特徴ベクトル データベース 102および照明方程式パラメータデータベース 103は、入力画像特徴 ベクトル IINFVに対応する照明方程式パラメータの値を、原パラメータ値 IINLEPと して出力する。画像特徴ベクトルデータベース 102および照明方程式パラメータデー タベース 103によって、パラメータ出力部 10が構成されている。 FIG. 1 is a block diagram showing an image conversion apparatus according to the first embodiment of the present invention. In FIG. 1, an image feature analysis unit 101 performs an image feature analysis on an input image 、 and generates an input image feature vector IINFV. The image feature vector database 102 stores a plurality of image feature vectors, and the illumination equation parameter database 103 is associated with each image feature vector stored in the image feature vector database 102 for a predetermined illumination equation. Multiple meter values are stored. That is, the relationship between image features and lighting equation parameters is prepared. Then, the image feature vector database 102 and the illumination equation parameter database 103 output the value of the illumination equation parameter corresponding to the input image feature vector IINFV as the original parameter value IINLEP. Image feature vector database 102 and lighting equation parameter data The database 103 constitutes the parameter output unit 10.
[0034] 画像変換指示部 105は例えば外部力も指示された画像変換の内容を、画像変換 指示信号 ICISとして出力する。パラメータ操作設定部 106は画像変換指示信号 ICI Sによって指示された画像変換に応じて、照明方程式パラメータの操作内容を定め、 これをパラメータ操作指示信号 LEPSとして出力する。パラメータ操作部 104はパラメ ータ操作指示信号 LEPSによって指示された操作内容に従って、原パラメータ値 ΠΝ LEPを操作し、新パラメータ値 IOUTLEPを生成する。画像生成部 107は新パラメ ータ値 IOUTLEPを用いて照明方程式を演算し、出力画像 IOUTを生成する。 The image conversion instruction unit 105 outputs, for example, the contents of image conversion instructed by an external force as an image conversion instruction signal ICIS. The parameter operation setting unit 106 determines the operation content of the illumination equation parameter according to the image conversion instructed by the image conversion instruction signal ICI S, and outputs this as the parameter operation instruction signal LEPS. The parameter operation unit 104 operates the original parameter value ΠΝ LEP according to the operation content instructed by the parameter operation instruction signal LEPS, and generates a new parameter value IOUTLEP. The image generation unit 107 calculates an illumination equation using the new parameter value IOUTLEP and generates an output image IOUT.
[0035] すなわち、第 1の画像としての入力画像 ΠΝが、照明方程式のパラメータ変換によつ て、第 2の画像としての出力画像 IOUTに画像変換される。 That is, the input image と し て as the first image is converted into an output image IOUT as the second image by the parameter conversion of the illumination equation.
[0036] ここでは、図 2のような幾何条件と光学条件を想定して、次のような照明方程式を用 いる。 [0036] Here, assuming the geometric condition and optical condition as shown in Fig. 2, the following illumination equation is used.
[数 1] = PJa +ん (N · L) k + PS ) [Equation 1] = PJa + N (N · L) k + PS)
[0037] ここで、 Ivは視点方向(視点ベクトル V)の輝度、 laは環境光の輝度、 aは環境光 の反射率、 Iiは照明の輝度、ベクトル Nは表面法線ベクトル、ベクトル Lは照明方向を 表わす照明ベクトル、 d coは照明の立体角、 p dは拡散反射成分の反射率、 は鏡 面反射成分の反射率、 kdと ksは拡散反射成分と鏡面反射成分の割合を表わし、 kd + ks= lの関係を持つ。視点ベクトル Vは、カメラ CAMの光軸に一致し、物体表面 S F上の注目点 Pを始点とする。環境光とは、物体表面 SF上の現在の注目点 Pに多重 反射等で周辺から回り込んで入射する光であり、視点方向(ベクトル V)の輝度 Ivのバ ィァス成分に当たる。注目点 Pに放射照度 [0037] where Iv is the luminance in the viewpoint direction (viewpoint vector V), la is the luminance of the ambient light, a is the reflectance of the ambient light, Ii is the luminance of the illumination, vector N is the surface normal vector, and vector L is Dco is the solid angle of illumination, pd is the reflectance of the diffuse reflection component, is the reflectance of the specular reflection component, kd and ks are the ratio of the diffuse reflection component and the specular reflection component, kd + ks = l relationship. The viewpoint vector V coincides with the optical axis of the camera CAM and starts from the point of interest P on the object surface SF. Ambient light is light that enters the current attention point P on the object surface SF through multiple reflections and enters from the periphery, and corresponds to the bias component of the luminance Iv in the viewing direction (vector V). Irradiance at attention point P
[数 1A]  [Number 1A]
で照明から光が入射し、拡散反射成分が kd p d、鏡面反射成分が ks p sの割合で、 それぞれ入射光を反射する。 [0038] 図 1の照明方程式パラメータデータベース 103では、ノ ラメータとして、表面法線べ タトル N、照明ベクトル L、拡散反射成分比率 kd、拡散反射成分反射率 p d、鏡面反 射成分反射率 p s、環境光輝度 Ia、および環境光反射率 p aの 7種類が設定されて いる。なお、本発明に係る照明方程式の定義およびパラメータの種類は、ここで示し たものに限られるものではなぐ任意の照明方程式やパラメータが適用可能である。 The light is incident from the illumination, and the diffuse reflection component is reflected by kd pd and the specular reflection component is reflected by ks ps. [0038] In the illumination equation parameter database 103 in FIG. 1, the surface normal vector N, illumination vector L, diffuse reflection component ratio kd, diffuse reflection component reflectance pd, specular reflection component reflectance ps, environment Seven types of light intensity Ia and ambient light reflectance pa are set. Note that the definitions of the illumination equations and the types of parameters according to the present invention are not limited to those shown here, and any illumination equations and parameters can be applied.
[0039] 図 3は図 1の画像変換装置の動作、すなわち本実施形態に係る画像変換方法を示 すフローチャートである。なお、本実施形態に係る画像変換方法は、当該方法を実 現するためのプログラムをコンピュータに実行させることによって、実現することができ る。  FIG. 3 is a flowchart showing an operation of the image conversion apparatus of FIG. 1, ie, an image conversion method according to the present embodiment. Note that the image conversion method according to the present embodiment can be realized by causing a computer to execute a program for realizing the method.
[0040] まず、前処理 SOOにおいて、画像特徴と照明方程式パラメータとの関係を学習する 。この前処理 SOOの詳細については後述する。ここでは、予め学習により、図 1に示 すような画像特徴ベクトルデータベース 102および照明方程式パラメータデータべ一 ス 103が得られているものとする。  [0040] First, in the preprocessing SOO, the relationship between image features and illumination equation parameters is learned. Details of this preprocessing SOO will be described later. Here, it is assumed that an image feature vector database 102 and an illumination equation parameter database 103 as shown in FIG.
[0041] ステップ S1において、第 1の画像としての入力画像 ΠΝについて、画像特徴解析部 101が画像特徴解析を行う。ここでの画像特徴解析は、例えば図 4に示すようなゥェ 一ブレット変換などの空間周波数解析を用いて行う。このとき、画像特徴は多重解像 度表現によって表される。図 4の例では、 n回のスケーリングそれぞれにおいてゥエー ブレット変換の出力 HL、 LH、 HH、 LLを求め、これらを階層ごとに束ねることによつ て、(3n+ l)次元ベクトルを、第 1の画像特徴ベクトルとしての入力画像特徴ベクトル IINFVとして求めている。なお、画像特徴ベクトル IINFVは画素ごとに必要になるた め、各スケールにおいて LL画像が同一サイズになるようにしている。もちろん、本発 明における画像特徴の解析および表現方法はこれに限られるものではなぐ任意の 方法を適用することができる。  [0041] In step S1, the image feature analysis unit 101 performs image feature analysis on the input image と し て as the first image. The image feature analysis here is performed using spatial frequency analysis such as wavelet transform as shown in Fig. 4, for example. At this time, the image features are represented by multiple resolution expressions. In the example shown in Fig. 4, the wavelet transform outputs HL, LH, HH, and LL are obtained for each of the n scalings, and these are combined for each layer, thereby obtaining the (3n + l) -dimensional vector as the first one. It is obtained as an input image feature vector IINFV as an image feature vector. Since the image feature vector IINFV is required for each pixel, the LL image is made the same size in each scale. Of course, the method of analyzing and expressing image features in the present invention is not limited to this, and any method can be applied.
[0042] 次にステップ S2において、予め学習により求めた画像特徴ベクトルデータベース 1 02および照明方程式パラメータデータベース 103を参照し、ステップ S1で得た入力 画像特徴ベクトル IINFVから、これに対応する照明方程式パラメータの値を原パラメ ータ値 IINLEPとして取得する。ここでは、まず画像特徴ベクトルデータベース 102が 、格納している q個の画像特徴ベクトルの中から、入力画像特徴ベクトル IINFVに最 も近 、画像特徴ベクトルを選定し、選定した画像特徴ベクトルの番号を入力画像特 徴ベクトル番号 IINFVNとして出力する。そして照明方程式パラメータデータベース 103力 入力画像特徴ベクトル番号 IINFVNを受けて、これに対応するパラメータ値 を読み出し、原パラメータ値 IINLEPとして出力する。 [0042] Next, in step S2, the image feature vector database 102 and the illumination equation parameter database 103 obtained by learning in advance are referred to. The input image feature vector IINFV obtained in step S1 is used to determine the corresponding illumination equation parameter. The value is obtained as the original parameter value IINLEP. Here, first, the image feature vector database 102 selects the input image feature vector IINFV from the q stored image feature vectors. Recently, an image feature vector is selected, and the selected image feature vector number is output as an input image feature vector number IINFVN. The illumination equation parameter database 103 receives the input image feature vector number IINFVN, reads the corresponding parameter value, and outputs it as the original parameter value IINLEP.
[0043] 次にステップ S3において、パラメータ操作設定部 106が、指示された画像変換に 応じて、照明方程式パラメータの操作内容を定める。そしてステップ S4において、パ ラメータ操作部 104力 ステップ S2で得られた原パラメータ値 IINLEPを、ステップ S 3で定めた操作内容に従って操作し、新パラメータ値 IOUTLEPを得る。  [0043] Next, in step S3, the parameter operation setting unit 106 determines the operation content of the illumination equation parameter in accordance with the instructed image conversion. In step S4, the parameter operation unit 104 force operates the original parameter value IINLEP obtained in step S2 in accordance with the operation content determined in step S3, and obtains a new parameter value IOUTLEP.
[0044] 図 5はパラメータ操作の一例を示す図であり、原パラメータ値 IINLEPと新パラメ一 タ値 IOUTLEPを 1ライン分、画素ごとに書き並べている。各画素には上述した 7個の パラメータが定められており、環境光輝度 Ia、環境光反射率 p aおよび照明ベクトル L の 3つは各画素で共通である。拡散反射成分比率 kd、拡散反射成分反射率 p dおよ び鏡面反射成分反射率 p sは物体の材質に依存するため、材質の種類を示す添字 を付している。また、原パラメータ値 IINLEPの表面法線ベクトル Nについても、第 1 の添字は材質の種類を示し、第 2の添字は同一材質内での画素の違いを示している  [0044] Fig. 5 is a diagram showing an example of parameter operation, in which the original parameter value IINLEP and the new parameter value IOUTLEP are written and arranged for each pixel for one line. The seven parameters described above are defined for each pixel, and three of the ambient light luminance Ia, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d and the specular reflection component reflectance p s depend on the material of the object, a suffix indicating the type of material is attached. For the surface normal vector N of the original parameter value IINLEP, the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
[0045] いま、画像変換指示信号 ICISによって、「拡大率 2倍の画像拡大」という画像変換 が指示されたものとする。このときパラメータ操作設定部 106は、「拡大率 2倍の画像 拡大」と ヽぅ画像変換を「表面法線ベクトル Nの 2倍高密ィ匕」 t ヽぅパラメータ操作に置 き換え、パラメータ操作指示信号 LEPSとしてパラメータ操作部 104に与える。 Now, it is assumed that image conversion “image enlargement with double enlargement ratio” is instructed by the image conversion instruction signal ICIS. At this time, the parameter operation setting unit 106 replaces “image enlargement with double enlargement ratio” and “image conversion” with “double density of surface normal vector N” t parameter operation instruction. The signal LEPS is given to the parameter operation unit 104.
[0046] ノラメータ操作部 104はパラメータ操作指示信号 LEPSに従って、表面法線べタト ル Nを 2倍に高密化する。すなわち、原パラメータ値 IINLEPの画素数 u力 新パラメ ータ値 IOUTLEPでは画素数が 2uになる。物体の材質に依存するパラメータは解像 度に依存しないため、原パラメータ値 IINLEPをそのまま、新パラメータ値 IOUTLE Pに渡せばよぐ具体的には、拡散反射成分比率 kd、拡散反射成分反射率 およ び鏡面反射成分反射率 p sの新パラメータ値 IOUTLEPは原パラメータ値 IINLEPと 同一となる。一方、法線ベクトル Nは解像度に依存するパラメータであるため、新パラ メータ値 IOUTLEPの表面法線ベクトル Nでは、高密化後の画素の違 、を表わすた め、第 3の添字をカ卩えている。このとき、材質の境界 (例えば原パラメータ値 IINLEP における画素 2と画素 3の間)は、図 6に示すように、 2つのオブジェクト(材質 1から成 るオブジェクト 601と材質 2から成るオブジェクト 602)の重なりによるエッジ部となる可 能性が高いので、高密化後もこの境界条件を保持するのが望ましい。具体的には、 新パラメータ値 IOUTLEPの画素 4と画素 5を、それぞれ原パラメータ値 IINLEPの 画素 2と画素 3に一致させる。すなわち、境界条件の保持のために、 [0046] In accordance with the parameter operation instruction signal LEPS, the norameter operation unit 104 doubles the surface normal vector N twice. In other words, the number of pixels in the original parameter value IINLEP u force The number of pixels in the new parameter value IOUTLEP is 2u. Since parameters that depend on the material of the object do not depend on the resolution, the original parameter value IINLEP can be passed directly to the new parameter value IOUTLE P. Specifically, the diffuse reflection component ratio kd, The new parameter value IOUTLEP of the specular reflection component reflectivity ps is the same as the original parameter value IINLEP. On the other hand, since the normal vector N is a resolution-dependent parameter, the surface normal vector N of the new parameter value IOUTLEP represents the difference in pixels after densification. Therefore, the third subscript is memorized. At this time, the boundary of the material (for example, between pixel 2 and pixel 3 in the original parameter value IINLEP) is as shown in FIG. Since it is highly possible that an edge portion is caused by overlapping, it is desirable to maintain this boundary condition even after densification. Specifically, pixel 4 and pixel 5 of the new parameter value IOUTLEP are matched with pixel 2 and pixel 3 of the original parameter value IINLEP, respectively. That is, to maintain the boundary conditions,
N =N かつ N =N  N = N and N = N
1,2 1,2,2 2,1 2,1,1  1,2 1,2,2 2,1 2,1,1
とする。 And
ただし、 2つのオブジェクトの境界にカメラの撮像素子の境界が一致することはまれ で、図 6の場合は、画素 3の一部に材質 1が混入している。この誤差は、 IOUTLEP の法線ベクトル Nで相殺できる。つまり、図 7 (a)に示すように、材質 1の鏡面反射成 分反射率 P が材質 2の鏡面反射成分反射率 p より高い場合、 IINLEPの画素 3 s,l s,2  However, the border of the image sensor of the camera rarely matches the boundary of the two objects. In the case of Fig. 6, material 1 is mixed in part of pixel 3. This error can be offset by the normal vector N of IOUTLEP. That is, as shown in Fig. 7 (a), when the specular reflection component reflectivity P of material 1 is higher than the specular reflection component reflectivity p of material 2, the pixels 3 s, l s, 2 of IINLEP
は輝度が明るくなる誤差を含んでいるため、図 7 (b)に示すように、法線ベクトル N Contains an error that increases the brightness, so the normal vector N is shown in Fig. 7 (b).
2,1,1 を正反射方向から遠ざけて輝度を落とし、誤差を相殺する。一方、材質 1の鏡面反射 成分反射率 P が材質 2の鏡面反射成分反射率 p より低い場合は、 IINLEPの画 s,l s,2  The brightness is reduced by moving 2,1,1 away from the specular direction to cancel the error. On the other hand, if the specular reflection component reflectance P of material 1 is lower than the specular reflection component reflectance p of material 2, IINLEP image s, l s, 2
素 3は輝度が暗くなる誤差を含んで 、るため、図 7 (b)から図 7 (a)のように法線べタト ルを動かす。一方、拡散反射の強度は、(数 1)における Element 3 contains an error that causes the brightness to become darker, so the normal vector is moved as shown in Fig. 7 (b) to Fig. 7 (a). On the other hand, the intensity of diffuse reflection is
[数 1A] [Number 1A]
に示したように、法線ベクトル Νと照明ベクトル Lの内積 (N'L)で明るさが決まるため 、視線ベクトル Vの向きには関係しない。そこで、図 8 (a)に示すように、材質 1の拡散 反射成分反射率 P が材質 2の拡散反射成分反射率 p より高い場合、 IINLEPの d,l d,2 As shown in, the brightness is determined by the inner product (N'L) of the normal vector 照明 and the illumination vector L, so it is not related to the direction of the line-of-sight vector V. Therefore, as shown in Fig. 8 (a), if the diffuse reflection component reflectivity P of material 1 is higher than the diffuse reflection component reflectivity p of material 2, then d, l d, 2 of IINLEP
画素 3は輝度が明るくなる誤差を含んでいるため、図 8 (b)に示すように、法線べタト ル N を照明ベクトル Lカゝら遠ざけて輝度を落とし、誤差を相殺する。材質 1の拡散Since pixel 3 contains an error that increases the brightness, as shown in Fig. 8 (b), the normal vector N is moved away from the illumination vector L and the brightness is reduced to cancel the error. Material 1 diffusion
2,1,1 2,1,1
反射成分反射率 P が材質 2の拡散反射成分反射率 p より低い場合、 IINLEPの d,l d,2 If the reflection component reflectivity P is lower than the diffuse reflection component reflectivity p of material 2, then IINLEP d, l d, 2
画素 3は輝度が暗くなる誤差を含んで 、るため、図 8 (b)から図 8 (a)のように法線べ タトルを動かす。なお、鏡面反射と拡散反射のバランスは、拡散反射成分比率 k に よって制御可能である。 Since pixel 3 contains an error that causes the brightness to become dark, the normal vector is moved as shown in Fig. 8 (b) to Fig. 8 (a). The balance between specular reflection and diffuse reflection is the diffuse reflection component ratio k. Therefore, control is possible.
[0048] 図 6に示すように、オブジェクト 601が有する曲面形状 CSFは、法線ベクトルに離散 化されて折線形状 LFになるため、量子化誤差を生じる。そこで、たとえば、 IINLEP の画素 3は、本来、オブジェクト 601とオブジェクト 602の交差するエッジ 603を持って いる力 法線ベクトル N が示す面 604と法線ベクトル N が示す面 605が与えるエツ  [0048] As shown in FIG. 6, the curved surface shape CSF included in the object 601 is discretized into a normal vector to form a polygonal line shape LF, which causes a quantization error. Therefore, for example, the pixel 3 of IINLEP is originally the surface 604 indicated by the force normal vector N having the intersecting edge 603 of the object 601 and the object 602 and the surface 605 indicated by the normal vector N.
2,1 2,2  2,1 2,2
ジ 606のように先鋭さが劣化してしまう。そこで、法線ベクトル N または N の方向を  Sharpness will deteriorate like Di 606. Therefore, the direction of normal vector N or N
2,1 2,2 調整して、エッジ 606の先鋭さをカバーできる。従って、法線ベクトルの制御は、図 7 と図 8で説明した材質混入による輝度誤差の補正に加えて、エッジ強調の効果もあり 、 2つの効果を総合的に考慮して、法線ベクトルを制御する。法線ベクトルの制御方 法の一例には、事例学習により予め生成したデータベースを参照する方法などがあ る。つまり、複数のサンプル被写体を用いて画素数が 2倍異なる法線ベクトルデータ を計測して、低密度の法線ベクトルデータと高密度の法線ベクトルデータを得る。低 密度の法線ベクトルデータと高密度の法線ベクトルデータの関係をデータベースに 保存し、エッジ強調の実行時には、低密度の法線ベクトルデータから高密度の法線 ベクトルデータを得る。  2,1 2,2 Adjust to cover the sharpness of edge 606. Therefore, the normal vector control has the effect of edge enhancement in addition to the correction of the luminance error due to the material mixing described in FIGS. 7 and 8, and the normal vector is determined by comprehensively considering the two effects. Control. An example of a normal vector control method is a method of referring to a database generated in advance by case learning. That is, normal vector data with a number of pixels twice different is measured using a plurality of sample subjects to obtain low-density normal vector data and high-density normal vector data. The relationship between low-density normal vector data and high-density normal vector data is stored in a database, and when edge enhancement is performed, high-density normal vector data is obtained from low-density normal vector data.
[0049] 同一材質内で材質境界に位置しない法線ベクトル N、たとえば、 N や N は、図  [0049] Normal vectors N that are not located at material boundaries within the same material, for example, N and N
1,1,2 1,2,1 1,1,2 1,2,1
9に示すように、表面形状が滑らかに変化していると仮定して、次式の補間演算で求 める。たとえば、 N の場合、 As shown in Fig. 9, assuming that the surface shape is changing smoothly, it can be calculated by the following interpolation. For example, for N,
1,1,2  1,1,2
[数 2]  [Equation 2]
N = - N, | + -N N =-N, | + -N
" 4 4 となる。すなわち、 IOUTLEPの画素 2の法線ベクトル Ν は、 IINLEPにおいて最  "4 4. That is, the normal vector Ν of pixel 2 of IOUTLEP is the highest in IINLEP.
1,1,2  1,1,2
近傍に位置する法線ベクトル N と N 力も補間する。補間の重み 3Z4と 1Z4は、 I  The normal vector N and N force located in the vicinity are also interpolated. The interpolation weights 3Z4 and 1Z4 are I
1,1 1,2  1,1 1,2
OUTLEPのサブピクセル単位で計った N から N までの距離と N から N まで  N to N distance and N to N measured in OUTLEP sub-pixel units
1,1,2 1,1 1,1,2 1,2 の距離力も算出する。図 9では、 2倍の空間高密化であるため、 IINLEPの画素の大 きさを 1とした場合、 IOUTLEPのサブピクセルの大きさは、 1Z4になる。従って、 N  The distance force of 1,1,2 1,1 1,1,2 1,2 is also calculated. In Fig. 9, the space density is doubled, so if the size of the IINLEP pixel is 1, the size of the IOUTLEP sub-pixel is 1Z4. Therefore, N
1,1 力 N までの距離は 1Z4、 N 力 N までの距離は 3Z4となり、 1Z4が N へ The distance to 1,1 force N is 1Z4, the distance to N force N is 3Z4, and 1Z4 goes to N
,2 1,1 1,1,2 1,2 1,2 の重み、 3Z4が N への重みとなり、(数 2)が得られる。 [0050] (数 2)を画像拡大率に関して一般化する方法を、図 10および図 11を用いて説明 する。図 10は、 IINLEPの画素 uを 5倍拡大して、 IOUTLEPに画素 u, 1、 u, 2、 u, 3、 u, 4、 u, 5の 5つの画素が生成された場合を示す。画像拡大率の一般ィ匕は、 IO UTLEPの画素数を任意にすることであり、ここでは、画像拡大率を αとおいて、 ΙΟ UTLEPに α個の画素を生成する方法を説明する。従って、図 10は α = 5として図 示したが、以下の説明は、画像拡大率を任意とした場合の補間式の導出であり、(数 2)の一般化にあたる。(数 2)の補間演算では、 IOUTLEPの画素 2について、 IINL EPにおける近傍画素として、画素 1と画素 2を選んだ。これを図 10および図 11で一 般化する。 , 2 1,1 1,1,2 1,2 1,2 and 3Z4 is the weight for N, and (Equation 2) is obtained. [0050] A method of generalizing (Equation 2) regarding the image magnification will be described with reference to FIGS. 10 and 11. FIG. FIG. 10 shows a case where IINLEP pixel u is enlarged five times and five pixels u, 1, u, 2, u, 3, u, 4, u, 5 are generated in IOUTLEP. The general rule of the image enlargement ratio is that the number of pixels of the IO UTLEP is arbitrary. Here, a method of generating α pixels in the UTLEP, where the image enlargement ratio is α, will be described. Therefore, although FIG. 10 is shown as α = 5, the following explanation is a derivation of an interpolation formula when the image enlargement ratio is arbitrary, and is a generalization of (Equation 2). In the interpolation calculation of (Equation 2), pixel 1 and pixel 2 were selected as neighboring pixels in IINL EP for pixel 2 of IOUTLEP. This is generalized in Figs. 10 and 11.
[0051] 補間演算によって算出したい IOUTLEPの画素を画像 u, k (k= l, 2, . . . , α )と おく。図 10では、 a = 5として図示してあるため、画像 u, kは、画素 u, 1、 u, 2、 u, 3 、 u, 4、 u, 5の 5つの画素に相当する。 IOUTLEPの画素 u, kが持つ法線ベクトル N の IINLEPにおける近傍の法線ベクトルは、「法線ベクトル N と N 」の組み合わ t,u,k t,u—l t,u  [0051] Let IOUTLEP pixels to be calculated by interpolation calculation be images u, k (k = l, 2,..., Α). In FIG. 10, since it is illustrated as a = 5, the image u, k corresponds to five pixels of pixels u, 1, u, 2, u, 3, u, 4, u, 5. The normal vector in the vicinity of IINLEP of normal vector N of IOUTLEP pixels u and k is the combination of normal vectors N and N t, u, k t, u—l t, u
せ力 「法線ベクトル N と N 」の組み合わせになる。 IOUTLEPの画素 u, kは、 II t t +l  The force is a combination of “normal vectors N and N”. IOUTLEP pixels u, k are II t t + l
NLEPの画素 uに必ず含まれるため、 IINLEPの画素 uの法線ベクトル N は常に選  Since it is always included in NLEP pixel u, the normal vector N of IINLEP pixel u is always selected.
t,u  t, u
ばれる。 2つめの近傍法線ベクトルは、 IINLEPの画素 u—l、 u+ 1の法線ベクトル N t It is released. The second neighbor normal vector is IINLEP pixel u—l, u + 1 normal vector N t
、 N のどちらかになるが、この選択は、 IOUTLEPの画素 u, kが、 IINLEPの画, N, but this selection depends on whether IOUTLEP pixels u and k are IINLEP images.
,u - 1 t,u+l , U-1 t, u + l
素 u—lと画素 u+ 1のどちらに近いか、で決まる。すなわち、図 10の例のように、 a / 2≥kの場合、 IOUTLEPの画素 u, kは IINLEPの画素 u— 1に近いため、「法線べク トル N と N 」が選択される。一方、図 11の例のように、 α Ζ2く kの場合、 IOUTL t,u— 1 t,u  It is determined by whether it is closer to the element u−l or pixel u + 1. In other words, as in the example of FIG. 10, when a / 2≥k, the pixels u and k of IOUTLEP are close to the pixel u-1 of IINLEP, so “normal vectors N and N” are selected. On the other hand, as in the example in Fig. 11, if α Ζ2 k, IOUTL t, u— 1 t, u
EPの画素 u, kは IINLEPの画素 u+ 1に近いため、「法線ベクトル N と N 」が選  Since the pixels u and k of EP are close to the pixel u + 1 of IINLEP, “normal vectors N and N” are selected.
t t +l 択される。  t t + l is selected.
[0052] 補間演算の重みは、図 9と同様に、 IINLEPの画素の大きさを 1とした IOUTLEPの サブピクセルの大きさで算出する。 IINLEPの 1画素は、画像拡大率 αによって、 ΙΟ UTLEPで α個の画素に高密化される。そこで、 IOUTLEPのサブピクセルの大きさ は、 ΐΖ(2 α )となる。 IINLEPの画素 u—lと画素 uの境界を境界 801とし、 IINLEP の画素 uと画素 u+ 1の境界を境界 802とする。図 10 Z2≥k、 a = 5、k=2として 図示)の場合、法線ベクトル N と境界 801の距離は IINLEPのサブピクセルの大き さであり、 1Z2となる。また、境界 801と法線ベクトル N の距離は、 IOUTLEPのサ [0052] The weight of the interpolation calculation is calculated by the size of the IOUTLEP sub-pixel, where the size of the IINLEP pixel is 1, as in FIG. One pixel of IINLEP is densified to α pixels by TL UTLEP according to the image magnification factor α. Therefore, the size of the IOUTLEP sub-pixel is ΐΖ (2 α). The boundary between IINLEP pixel u-l and pixel u is defined as boundary 801, and the boundary between IINLEP pixel u and pixel u + 1 is defined as boundary 802. Figure 10 Z2≥k, a = 5, and k = 2)), the distance between normal vector N and boundary 801 is the size of IINLEP sub-pixel That is 1Z2. The distance between boundary 801 and normal vector N is
t,u,k  t, u, k
ブピクセルが(2k— 1)個分であるから、(2k— 1)Ζ(2α)となる。さらに、法線べタト ル Ν と法線ベクトル Ν の距離は、境界 801と法線ベクトル Ν の距離から境界 80 t,u,k t,u t,u Since there are (2k−1) subpixels, (2k−1) Ζ (2 α ). Furthermore, the distance between the normal line Ν and the normal vector Ν is the distance between the boundary 801 and the normal vector Ν, and the boundary 80 t, u, kt, ut, u
1と法線ベクトル N の距離を引けば算出でき、  It can be calculated by subtracting the distance between 1 and the normal vector N,
t,u,k [a— (2k— 1)]Ζ(2α)となる。以上 より、法線ベクトル N に対する重みは [ α— (2k- 1)  t, u, k [a- (2k- 1)] Ζ (2α). From the above, the weight for the normal vector N is [α— (2k- 1)
t,u_l ]Z (2 a )、法線ベクトル Ν  t, u_l] Z (2 a), normal vector Ν
t,u に対する重みは[lZ2+(2k—l)Z(2Q;)]となり、法線べクトルN は以下のように  The weights for t and u are [lZ2 + (2k−l) Z (2Q;)], and the normal vector N is
t,u,k  t, u, k
補間で算出できる。  It can be calculated by interpolation.
[数 3]  [Equation 3]
N,,u,k =N ,, u , k =
Figure imgf000018_0001
Figure imgf000018_0001
― a ~2k + l— a + 2k-\— , a ^ .  ― A ~ 2k + l— a + 2k-\ —, a ^.
<^ NI Uk Nt,u Νι,„ , where —>k <^ N IU k N t , u Νι, „, where —> k
2a 2a 2  2a 2a 2
[0053] 一方、 11(a/2<k、 a = 5、 k= 5として図示)の場合、境界 802と法線べク卜ノレ N の距離は IINLEPのサブピクセルの大きさであり、 1Z2となる。また、法線べタト t,U+l On the other hand, in the case of 11 (illustrated as a / 2 <k, a = 5, k = 5), the distance between the boundary 802 and the normal vector N is the size of the subpixel of IINLEP, and 1Z2 It becomes. Also, the normal solid t, U + l
ル N と法線ベクトル N の距離は、 IOUTLEPのサブピクセルが(2k— 1— α )個 t,u t,u,k  The distance between the line N and the normal vector N is (2k— 1— α) subpixels of IOUTLEP t, u t, u, k
分であるから、 (2k- 1- α)/(2α)となる。さらに、境界 802と法線ベクトル Ν の  Since it is minutes, (2k-1−α) / (2α). Furthermore, the boundary 802 and the normal vector Ν
t,u,k 距離は、境界 802と法線ベクトル N の距離力 法線ベクトル N と法線ベクトル N  The t, u, k distance is the distance force between boundary 802 and normal vector N. Normal vector N and normal vector N
t,u t,u t,u,k の距離を引けば算出でき、 [a -(2k-l- a)]/(2a)となる。以上より、法線べク トル N に対する重みは[lZ2+{ Q;—(2k—l Q;  It can be calculated by subtracting the distances t, u t, u t, u, k, and it becomes [a-(2k-l-a)] / (2a). From the above, the weight for the normal vector N is [lZ2 + {Q ;-( 2k-l Q;
t,U )}Z(2Q;)]、法線べクトルN  t, U)} Z (2Q ;)], normal vector N
t,U+l に対する重みは(2k— 1 a )Ζ (2 α)となり、法線ベクトル Ν は以下のように補間  The weight for t, U + l is (2k— 1 a) Ζ (2 α), and the normal vector 補 間 is interpolated as
t,u,k  t, u, k
で算出できる。  It can be calculated by
 Picture
, ,
 The
Figure imgf000018_0002
Figure imgf000018_0002
[0054] 図 12はパラメータ操作の 2つめの例として、照明変換を示す図であり、原パラメータ 値 IINLEPと新パラメータ値 IOUTLEPを 1ライン分、画素ごとに書き並べている。各 画素には上述した 7個のパラメータが定められており、環境光輝度 Ia、環境光反射率 p aおよび照明ベクトル Lの 3つは各画素で共通である。拡散反射成分比率 kd、拡散 反射成分反射率 p dおよび鏡面反射成分反射率 p sは物体の材質に依存するため 、材質の種類を示す添字を付している。また、原パラメータ値 IINLEPの表面法線べ タトル Nについても、第 1の添字は材質の種類を示し、第 2の添字は同一材質内での 画素の違いを示している。 FIG. 12 is a diagram showing illumination conversion as a second example of the parameter operation. The original parameter value IINLEP and the new parameter value IOUTLEP are written for each pixel for one line. The above seven parameters are defined for each pixel, and the ambient light intensity Ia and the ambient light reflectance. The pa and illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance pd, and the specular reflection component reflectance ps depend on the material of the object, a suffix indicating the type of material is attached. For the surface normal vector N of the original parameter value IINLEP, the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
[0055] いま、画像変換指示部 105から画像変換指示信号 ICISによって、図 13に示すよう に「照明の位置を (X, y, z) (ILLT1)から (x, y, z) (ILLT2)に変換」と!、う画 [0055] Now, as shown in FIG. 13, the image conversion instruction unit 105 receives the image conversion instruction signal ICIS to change the illumination position from (X, y, z) (ILLT1) to (x, y, z) (ILLT2). `` Convert to ''!
LW1 LW2  LW1 LW2
像変換が指示されたものとする。(数 1)における  Assume that image conversion is instructed. In (Equation 1)
[数 1A]  [Number 1A]
からわかるように、被写体表面の微小面 PS上の注目点 Ρでの照度は、表面法線べク トル Νと照明ベクトル Lの角度が小さいほど高くなり、表面法線ベクトル Νと照明べタト ル Lの角度が大きいほど低くなる。そこで、照明の位置を変えると、注目点 Ρでの照度 が変化する。また、照明ベクトル Lと視点ベクトル Vの関係が変化すると鏡面反射の強 度も変化し、図 7で説明したように、視点ベクトルが照明ベクトルの正反射位置に近づ けば鏡面反射強度は強くなり、視点ベクトルが照明ベクトルの正反射位置力 遠ざか れば鏡面反射強度は弱くなる。このように、照明の位置を変えることによって視点べク トル Vへ反射する光量が変化し、カメラ CAMに記録される画像が変化する。 As can be seen, the illuminance at the point of interest 上 の on the small surface PS of the subject surface increases as the angle between the surface normal vector Ν and the illumination vector L decreases, and the surface normal vector Ν and the illumination vector The larger the angle of L, the lower. Therefore, changing the position of the illumination changes the illuminance at the point of interest Ρ. In addition, as the relationship between the illumination vector L and the viewpoint vector V changes, the intensity of the specular reflection also changes.As explained in Fig. 7, the specular reflection intensity increases as the viewpoint vector approaches the regular reflection position of the illumination vector. Therefore, if the viewpoint vector moves away from the specular reflection position of the illumination vector, the specular reflection intensity decreases. In this way, the amount of light reflected to the viewpoint vector V changes by changing the position of the illumination, and the image recorded in the camera CAM changes.
[0056] パラメータ操作設定部 106は、「照明の位置を (X, y, z) 力も (x, y, z) に変換 [0056] The parameter operation setting unit 106 converts “the position of the illumination into (x, y, z) force (x, y, z).
LW1 LW2 LW1 LW2
」という画像変換の指示を「照明ベクトル L1を照明ベクトル L2に変換」というパラメ一 タ操作に置き換え、パラメータ操作指示信号 LEPSとしてパラメータ操作部 104に与 える。ここで、照明ベクトル L1は、注目点 Pベクトル OWと照明位置ベクトル LW1の差 分として(X - X , y -y , ζ - ζ )で与えられる。また、照明ベクトル L2は、注 The image conversion instruction “” is replaced with a parameter operation “convert illumination vector L1 to illumination vector L2”, and given to parameter operation section 104 as parameter operation instruction signal LEPS. Here, the illumination vector L1 is given by (X−X, y−y, ζ−ζ) as a difference between the attention point P vector OW and the illumination position vector LW1. The illumination vector L2 is
P LW1 P LW1 P LW1  P LW1 P LW1 P LW1
目点 Ρベクトル OWと照明位置ベクトル LW2の差分として(X - X  The difference between the eye point Ρvector OW and the illumination position vector LW2 (X-X
P LW2, y —y  P LW2, y —y
P LW2, z —z  P LW2, z —z
P  P
)で与えられる。  ).
LW2  LW2
[0057] ノ メータ操作部 104はパラメータ操作指示信号 LEPSに従って、照明ベクトル L1 を照明ベクトル L2に変換する。なお、照明ベクトル Lが被写体上のすべての位置で 同一となる平行光仮定を用いる場合、注目点 Pで照明ベクトルを算出すれば、これを すべての画素に適用できる。一方、照明ベクトル Lが 1点からあらゆる方向へ広がつ て射出される点光源仮定の場合は、注目点 Pの位置によって照明ベクトル Lが変わる ため、画素ごとに、注目点ベクトル OWを入れ替えて、照明ベクトル Lを算出する必要 がある。 [0057] The meter operation unit 104 converts the illumination vector L1 into the illumination vector L2 in accordance with the parameter operation instruction signal LEPS. Note that the illumination vector L is at all positions on the subject. When the same parallel light assumption is used, if the illumination vector is calculated at the point of interest P, this can be applied to all pixels. On the other hand, in the case of a point light source where the illumination vector L is emitted from one point in all directions, the illumination vector L changes depending on the position of the attention point P. Therefore, the attention vector OW is replaced for each pixel. Therefore, it is necessary to calculate the illumination vector L.
[0058] 図 14はパラメータ操作の 3つめの例として、特定の材質の拡散反射成分の割合 kd を変換する図であり、原パラメータ値 IINLEPと新パラメータ値 IOUTLEPを 1ライン 分、画素ごとに書き並べている。各画素には上述した 7個のパラメータが定められて おり、環境光輝度 Ia、環境光反射率 p aおよび照明ベクトル Lの 3つは各画素で共通 である。拡散反射成分比率 kd、拡散反射成分反射率 p dおよび鏡面反射成分反射 率 p sは物体の材質に依存するため、材質の種類を示す添字を付している。また、原 パラメータ値 IINLEPの表面法線ベクトル Nについても、第 1の添字は材質の種類を 示し、第 2の添字は同一材質内での画素の違!、を示して!/、る。  [0058] Fig. 14 shows the third example of parameter operation, where the diffuse reflection component ratio kd of a specific material is converted. The original parameter value IINLEP and the new parameter value IOUTLEP are written for each pixel for each line. Lined up. The seven parameters described above are defined for each pixel, and three of the ambient light luminance Ia, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d, and the specular reflection component reflectance p s depend on the material of the object, a suffix indicating the type of material is attached. Also for the surface normal vector N of the original parameter value IINLEP, the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
[0059] 図 15は画像変換指示部 105が有する拡散反射成分比率 kdの調整用インターフエ ース 1501を示す。オペレータ 1502はディスプレイ 1503に映し出された調整用イン ターフェース 1501を見ながら、マウス等の入力デバイス 1504を用いて、画像変換指 示部 105へ変換指示を入力する。オペレータ 1502は、変換前画像 1505内で拡散 反射成分比率 kdを変更したい材質へカーソール 1506を移動し、入力デバイス 150 4のクリック等でカーソール 1506の材質の拡散反射成分比率 kdをピックアップする。 これが、図 14の IINLEPの画素 1であったとすると、 k がピックアップされたことに対  FIG. 15 shows an interface 1501 for adjusting the diffuse reflection component ratio kd of the image conversion instruction unit 105. The operator 1502 inputs a conversion instruction to the image conversion instruction unit 105 using an input device 1504 such as a mouse while viewing the adjustment interface 1501 displayed on the display 1503. The operator 1502 moves the cursor 1506 to a material to change the diffuse reflection component ratio kd in the pre-conversion image 1505, and picks up the diffuse reflection component ratio kd of the material of the cursor 1506 by clicking the input device 1504 or the like. If this is pixel 1 of IINLEP in Fig. 14, k is picked up.
d,l  d, l
応する。図 15では、 k =0. 25として図示しており、スライドノ ー 1507の 0. 25の位  Respond. In FIG. 15, k = 0.25, and the position of 0.25 of slide no 1507 is shown.
d,l  d, l
置にスライダー 1508が表示される。図 14に示すように、 IINLEPの画素 2は画素 1と 同一材質であるため、その拡散反射成分比率 k も変換対象になる。すなわち、同一  A slider 1508 is displayed on the screen. As shown in Fig. 14, since IINLEP pixel 2 is made of the same material as pixel 1, its diffuse reflection component ratio k is also subject to conversion. That is, the same
d,l  d, l
材質から成る図 15のオブジェクト 1509に属する全ての画素の拡散反射成分比率 kd 力 変換対象になる。  The diffuse reflection component ratio kd force of all pixels belonging to the object 1509 in FIG.
[0060] 引き続き、オペレータ 1502はスライダー 1508をスライドバー 1507の 0. 75の位置  [0060] Subsequently, the operator 1502 moves the slider 1508 to the 0.75 position of the slide bar 1507.
(スライドバー 1510として図示)へ移動させ、拡散反射成分比率 kdを 0. 75に変更す る。オブジェクト 1509の拡散反射成分が増え、この例では、変換後画像 1511に示 すように、オブジェクト 1509は輝度が落ち、暗い質感に変更された。拡散反射成分 比率 kdの変更結果は、後述する方法で出力画像 IOUTとして変換後画像 1511に 表示され、オペレータ 1502が自身の画像制作意図に基づいて拡散反射成分比率 k dの調整結果を評価する。調整が不十分である場合は、引き続きスライダー 1510を 移動させ、変換後画像 1511を確認して一連の動作を繰り返す。画像変換指示部 10 5で設定された拡散反射成分比率 kdの変換内容は、画像変換指示信号 ICISによつ て、「材質 1が持つ拡散反射成分比率 k を k 'にする」とし、パラメータ操作設定部 1 Move to (shown as slide bar 1510) and change diffuse reflection component ratio kd to 0.75. The diffuse reflection component of object 1509 is increased, and in this example, it is shown in converted image 1511. As shown, object 1509 has been reduced in brightness and darkened. The change result of the diffuse reflection component ratio kd is displayed on the converted image 1511 as an output image IOUT by the method described later, and the operator 1502 evaluates the adjustment result of the diffuse reflection component ratio kd based on his own image production intention. If the adjustment is not enough, continue to move the slider 1510, check the converted image 1511 and repeat the series of operations. The conversion contents of the diffuse reflection component ratio kd set in the image conversion instruction unit 105 are set to “change the diffuse reflection component ratio k of material 1 to k ′” by the image conversion instruction signal ICIS, and parameter operation is performed. Setting part 1
d,l d,l  d, l d, l
06に伝えられる。(数 1)で示したように、拡散反射成分と鏡面反射成分の割合を表 わす kdと ksは、 kd+ks= lの関係を持つ。そこで、 k を k 'に変更した場合、 k '  Reported to 06. As shown in (Equation 1), kd and ks, which represent the ratio of the diffuse reflection component and the specular reflection component, have the relationship kd + ks = l. So, if k is changed to k ', k'
d,l d,l s,l は 1— k ,となる。ノ メータ操作設定部 106は、「材質 1が持つ拡散反射成分比率 k d,l  d, l d, l s, l is 1−k. The meter operation setting unit 106 reads “diffuse reflection component ratio of material 1 k d, l
を k 'にする」という画像変換の指示を「材質 1が持つ拡散反射成分比率 k を k ' d,l d,l d,l d,l に変換し、鏡面反射成分比率 k を l—k 'に変更する」というパラメータ操作に置き  Change the image conversion instruction to “k ′” to “change the diffuse reflection component ratio k of material 1 to k′d, ld, ld, ld, l, and change the specular reflection component ratio k to l−k ′. Put it in the parameter operation
s,l d,l  s, l d, l
換え、ノ ラメータ操作指示信号 LEPSとしてパラメータ操作部 104に与える。  Instead, it is given to the parameter operation unit 104 as a parameter operation instruction signal LEPS.
[0061] パラメータ操作部 104はパラメータ操作指示信号 LEPSに従って、(数 1)の拡散反 射成分比率 kdに k 'を設定し、鏡面反射成分比率 ksを 1 k 'に設定する。画像 The parameter operation unit 104 sets k ′ to the diffuse reflection component ratio kd in (Equation 1) and sets the specular reflection component ratio ks to 1 k ′ in accordance with the parameter operation instruction signal LEPS. Picture
d,l d,l  d, l d, l
生成部 107は図 14の IOUTLEPで (数 1)の照明方程式を計算し、その結果が出力 画像 IOUTとなる。なお、図 15の例では、特定の材質の拡散反射成分比率 kdを変 換したが、全画素の拡散反射成分比率 kdを α倍(ひは正の任意定数)することも可 能である。この場合は、カーソール 1506で材質を指定する必要はなぐ一律に拡散 反射成分比率 kdを α倍する。 α倍の乗算の結果、拡散反射成分比率 kdが 1を超え る場合は、 1でクリッピングして、 kd+ks= lの拘束条件を満たすようにする。  The generation unit 107 calculates the illumination equation (Equation 1) using IOUTLEP in FIG. 14, and the result is the output image IOUT. In the example of FIG. 15, the diffuse reflection component ratio kd of a specific material is converted, but it is also possible to multiply the diffuse reflection component ratio kd of all the pixels by α (or a positive arbitrary constant). In this case, it is not necessary to specify the material with the cursor 1506, and the diffuse reflection component ratio kd is multiplied by α. If the diffuse reflection component ratio kd exceeds 1 as a result of multiplication by α, clipping is performed so that the constraint condition of kd + ks = l is satisfied.
[0062] 図 16はパラメータ操作の 4つめの例として、特定の画素の材質を変換する図であり 、原パラメータ値 IINLEPと新パラメータ値 IOUTLEPを 1ライン分、画素ごとに書き 並べている。各画素には上述した 7個のパラメータが定められており、環境光輝度 la 、環境光反射率 p aおよび照明ベクトル Lの 3つは各画素で共通である。拡散反射成 分比率 kd、拡散反射成分反射率 p dおよび鏡面反射成分反射率 p sは物体の材質 に依存するため、材質の種類を示す添字を付している。また、原パラメータ値 IINLE Pの表面法線ベクトル Nについても、第 1の添字は材質の種類を示し、第 2の添字は 同一材質内での画素の違 、を示して 、る。 [0062] Fig. 16 is a diagram of converting the material of a specific pixel as a fourth example of parameter operation. The original parameter value IINLEP and the new parameter value IOUTLEP are written and arranged for each pixel for one line. The seven parameters described above are defined for each pixel, and three of the ambient light luminance la, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, diffuse reflection component reflectance pd, and specular reflection component reflectance ps depend on the material of the object, a suffix indicating the type of material is attached. Also, for the surface normal vector N of the original parameter value IINLE P, the first subscript indicates the type of material and the second subscript is Shows the difference in pixels within the same material.
[0063] 図 17は画像変換指示部 105が有する材質変更用インターフェース 1701を示す。  FIG. 17 shows a material change interface 1701 included in the image conversion instruction unit 105.
オペレータ 1502はディスプレイ 1503に映し出された材質変更用インターフェース 1 701を見ながら、入力デバイス 1504を用いて、画像変換指示部 105へ変換指示を 入力する。材質データベース 1702には材質画像とパラメータが格納されており、図 1 7では材質 Aから材質 Dの画像とパラメータが材質データベース 1702から読み出さ れて表示されている。オペレータ 1502は、変換前画像 1505内で材質を変更したい 画素にカーソール 1506を移動し、入力デバイス 1504のクリック等で変換対象の画 素を確定する。材質固有のパラメータは、拡散反射成分比率 kd、拡散反射成分反射 率 p dおよび鏡面反射成分反射率 p sであるため、この 3つのパラメータが変換対象 となる。具体的には、図 17のカーソール 1506の位置力 図 16の IINLEPの画素 2で あつたとして、画素 2の(k p p )が変換対象となる。次にオペレータ 1502は d,l d,l s,l  The operator 1502 inputs a conversion instruction to the image conversion instruction unit 105 using the input device 1504 while viewing the material change interface 1 701 displayed on the display 1503. The material database 1702 stores material images and parameters. In FIG. 17, the images and parameters of material A to material D are read from the material database 1702 and displayed. The operator 1502 moves the cursor 1506 to the pixel whose material is to be changed in the pre-conversion image 1505, and determines the conversion target pixel by clicking the input device 1504 or the like. Since the parameters specific to the material are the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d, and the specular reflection component reflectance p s, these three parameters are to be converted. Specifically, assuming that the position force of the cursor 1506 in FIG. 17 is the pixel 2 of IINLEP in FIG. 16, the (k p p) of the pixel 2 is the conversion target. The operator 1502 then d, l d, l s, l
変換先の材質を指定する。図 17の例では、材質 Dのラジオボタン 1703がチェックさ れ、 IOUTLEPの画素 2が(k p p ) = (0. 9 0. 3 0. 8)と決定される。材 d,3 d,3 s,3  Specify the material of the conversion destination. In the example of FIG. 17, the radio button 1703 of material D is checked, and the pixel 2 of IOUTLEP is determined as (k p p) = (0.9.0.3.0.8). Material d, 3 d, 3 s, 3
質 Dはオブジェクト 1509に比べて輝度の低 、材質であり、喑 、質感に変換される。 以上の動作が、画像変換指示部 105で成され、「IOUTLEPの画素 2の拡散反射成 分比率 kd、拡散反射成分反射率 p d、鏡面反射成分反射率 p sを 0. 9、 0. 3、 0. 8 に設定する」という指示が画像変換指示信号 ICISによって、パラメータ操作設定部 1 06に伝えられる。パラメータ操作設定部 106は、パラメータ操作指示信号 LEPSによ つて、 「IOUTLEPの画素 2の拡散反射成分比率 kd、拡散反射成分反射率 p d、鏡 面反射成分反射率 P sを 0. 9、 0. 3、 0. 8に設定する」という指示をパラメータ操作部 104に与える。  The quality D is a material having a lower luminance than the object 1509 and is converted into a material and a texture. The above operation is performed by the image conversion instructing unit 105, and “diffuse reflection component ratio kd, diffuse reflection component reflectance pd, specular reflection component reflectance ps of IOUTLEP pixel 2 is set to 0.9, 0.3, 0. .8 ”is transmitted to the parameter operation setting unit 106 by the image conversion instruction signal ICIS. In response to the parameter operation instruction signal LEPS, the parameter operation setting unit 106 sets the diffuse reflection component ratio kd, diffuse reflection component reflectance pd, and specular reflection component reflectance P s of IOUTLEP pixel 2 to 0.9, 0. The instruction “3, 0.8” is given to the parameter operation unit 104.
[0064] ノ メータ操作部 104はパラメータ操作指示信号 LEPSに従って、画素 2の拡散反 射成分の割合 k を拡散反射成分の割合 k に( = 0. 9)、拡散反射成分の反射率 p d,l d,3  [0064] In accordance with the parameter operation instruction signal LEPS, the meter operation unit 104 converts the diffuse reflection component ratio k of pixel 2 to the diffuse reflection component ratio k (= 0.9), and the diffuse reflection component reflectivities pd, ld. , 3
を拡散反射成分の反射率 P に( = 0. 3)、鏡面反射成分の反射率 p を鏡面反 d,l d,3 s,l 射成分の反射率 /o に( = 0. 8)それぞれ変換する。そして、画像生成部 107によつ s,3  Is converted to diffuse reflectance P (= 0.3), and specular reflectance p is converted to specular reflection d, ld, 3 s, l reflectance / o (= 0.8). To do. Then, the image generation unit 107 performs s, 3
て出力画像 IOUTを得る。なお、上記の例では、 1画素のみを変換対象としたが、複 数画素をまとめて指定、あるいは画像上でエリアを指定して、特定の材質に変換する ことも可能である。なお、材質データベース 1702から別の材質を引き出すには、「次 の材質リストへ」ボタン 1704を使い、新規の材質を材質データベース 1702に登録す るには、「新規登録」ボタン 1705を使う。 To obtain the output image IOUT. In the above example, only one pixel is targeted for conversion. However, multiple pixels can be specified together, or an area can be specified on the image, and converted to a specific material. It is also possible. To extract another material from the material database 1702, use the “next material list” button 1704, and to register a new material in the material database 1702, use the “new registration” button 1705.
[0065] 図 18はパラメータ操作の 5つめの例として、画像縮小を示す図であり、原パラメータ 値 IINLEPと新パラメータ値 IOUTLEPを 1ライン分、画素ごとに書き並べている。各 画素には上述した 7個のパラメータが定められており、環境光輝度 Ia、環境光反射率 p aおよび照明ベクトル Lの 3つは各画素で共通である。拡散反射成分比率 kd、拡散 反射成分反射率 p dおよび鏡面反射成分反射率 p sは物体の材質に依存するため 、材質の種類を示す添字を付している。また、原パラメータ値 IINLEPの表面法線べ タトル Nについても、第 1の添字は材質の種類を示し、第 2の添字は同一材質内での 画素の違いを示している。  FIG. 18 is a diagram showing image reduction as a fifth example of the parameter operation. The original parameter value IINLEP and the new parameter value IOUTLEP are written for each pixel for one line. The seven parameters described above are defined for each pixel, and three of the ambient light luminance Ia, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d, and the specular reflection component reflectance p s depend on the material of the object, a suffix indicating the type of material is attached. For the surface normal vector N of the original parameter value IINLEP, the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
[0066] いま、画像変換指示信号 ICISによって、「画像を 1/3に縮小する」という画像変換 が指示されたものとする。このときパラメータ操作設定部 106は、「画像を 1Z3に縮小 する」という画像変換の指示を「IINLEPの 3つの画素ごとに平均値を求めて IOUTL EPの 1画素とする」というパラメータ操作に置き換え、パラメータ操作指示信号 LEPS としてパラメータ操作部 104に与える。  Assume that image conversion “reducing an image to 1/3” is instructed by the image conversion instruction signal ICIS. At this time, the parameter operation setting unit 106 replaces the image conversion instruction “reduce the image to 1Z3” with the parameter operation “obtains an average value for every three pixels of IINLEP and sets it as one pixel of IOUTL EP”. The parameter operation instruction signal LEPS is given to the parameter operation unit 104.
[0067] パラメータ操作部 104はパラメータ操作指示信号 LEPSに従って、 IINLEPの 3つ の画素ごとに平均値を求めて IOUTLEPの 1画素とする。たとえば、 IOUTLEPの画 素 1の表面法線ベクトルは、 IINLEPの画素 1、画素 2、画素 3の表面法線ベクトル N  [0067] In accordance with the parameter operation instruction signal LEPS, the parameter operation unit 104 obtains an average value for every three pixels of IINLEP and sets it as one pixel of IOUTLEP. For example, the surface normal vector of pixel 1 of IOUTLEP is the surface normal vector N of pixel 1, pixel 2, and pixel 3 of IINLEP.
1, 1,
、 N 、 N の平均(N +N +N ) Z3となる。同様に、 IOUTLEPの画素 1の拡, N, N (N + N + N) Z3. Similarly, enlargement of IOUTLEP pixel 1
1 1,2 2,1 1,1 1,2 2,1 1 1,2 2,1 1,1 1,2 2,1
散反射成分の割合は、 IINLEPの画素 1、画素 2、画素 3の拡散反射成分の割合 k d,l The ratio of diffuse reflection components is the ratio of diffuse reflection components of IINLEP pixel 1, pixel 2, and pixel 3 k d, l
、 k 、 k の平均(2k +k ) Z3となる。 IOUTLEPの画素 1の拡散反射成分の反 d,l d,2 d,l d,2 , K and k (2k + k) Z3. Anti-d, l d, 2 d, l d, 2 of diffuse reflection component of pixel 1 of IOUTLEP
射率は、 IINLEPの画素 1、画素 2、画素 3の拡散反射成分の反射率 p , ρ , p d,l d,l d,2 の平均(2 P + p ) Z3となる。 IOUTLEPの画素 1の鏡面反射成分の反射率は、 d,l d,2  The emissivity is the average (2 P + p) Z3 of the reflectances p, ρ, pd, ld, ld, 2 of the diffuse reflection components of pixels 1, 2 and 3 of IINLEP. The reflectance of the specular reflection component of pixel 1 of IOUTLEP is d, l d, 2
IINLEPの画素 1、画素 2、画素 3の鏡面反射成分の反射率 p 、 P ヽ ρ の平均( s,l s,l s,2 The average of the reflectances p and P 3 ρ of the specular reflection components of pixel 1, pixel 2, and pixel 3 of IINLEP (s, ls, ls, 2
2 p + p ) Z3となる。  2 p + p) Z3.
s,l s,2  s, l s, 2
[0068] なお、本発明は、画像縮小方法に限定を与えるものではなく、任意の手法を適応 可能である。たとえば、 IINLEPの各パラメータ画像にローパスフィルタを掛け、 3画 素おきにサブサンプリングする手法も利用できる。 Note that the present invention does not limit the image reduction method, and any method can be applied. For example, low-pass filter is applied to each parameter image of IINLEP, A sub-sampling method can be used.
[0069] 本発明は、照明方程式のパラメータの操作方法を限定しない。従って、照明方程 式の任意のパラメータを任意の方法で操作可能であり、図 5から図 18を用いて説明 したパラメータ操作方法の例のように、任意のパラメータを任意の方法で操作できる。 表面法線ベクトルなどの幾何特性は、説明の都合上、図 2等では 1次元的に図示し たが、本来は 3次元情報であり、本発明は 1次元に限定するものではない。(数 2)、 ( 数 3)、(数 4)に示した補間方法も一例であり、空間高密化には任意の方式を適応で きる。図 5では、画像拡大を表面法線ベクトル Nの高密化で説明したが、これは一例 であり、本発明は操作すべき照明方程式パラメータやその操作方法を限定するもの ではなぐ例えば、拡散反射成分比率 kdを高密化したり、表面法線ベクトル Nと拡散 反射成分比率 kdを併せて高密化するなど、任意のパラメータとその組み合わせで空 間高密化が可能である。また、画像変換の対象になる照明パラメータも任意であり、 またその組み合わせも任意である。図 5から図 18では、画像中の 1ライン分を図示し たが、これを縦方向と横方向に施せば、 2次元の画像処理に展開できる。  [0069] The present invention does not limit the method of operating the parameters of the illumination equation. Therefore, it is possible to manipulate any parameter of the lighting scheme by any method, and any parameter can be manipulated by any method, as in the example of the parameter manipulation method described with reference to FIGS. The geometrical characteristics such as the surface normal vector are illustrated one-dimensionally in FIG. 2 and the like for convenience of explanation, but are originally three-dimensional information, and the present invention is not limited to one dimension. The interpolation methods shown in (Equation 2), (Equation 3), and (Equation 4) are also examples, and any method can be applied to increase the spatial density. In FIG. 5, the image enlargement is explained by increasing the density of the surface normal vector N. However, this is an example, and the present invention does not limit the illumination equation parameter to be operated and the operation method thereof. Spatial densification can be achieved using any combination of parameters, such as increasing the density kd or increasing the density of the surface normal vector N and diffuse reflection component ratio kd. Also, the illumination parameters to be subjected to image conversion are arbitrary, and the combination thereof is also arbitrary. 5 to 18 show one line in the image, but if this is applied in the vertical and horizontal directions, it can be expanded into two-dimensional image processing.
[0070] そして、ステップ S5にお 、て、画像生成部 107が、ステップ S4で得られた新パラメ ータ値 IOUTLEPを基にして、第 2の画像としての出力画像 IOUTを生成する。  [0070] Then, in step S5, the image generation unit 107 generates an output image IOUT as a second image based on the new parameter value IOUTLEP obtained in step S4.
[0071] ここで、前処理 SOOの詳細について、図 19を参照して説明する。ここでは、照明方 程式から作成した画像を画像特徴ベクトルの学習に用いることによって、画像特徴べ タトルと照明方程式パラメータとの関連付けを行う。  Here, details of the preprocessing SOO will be described with reference to FIG. Here, the image feature vector is associated with the illumination equation parameters by using the image created from the illumination equation for learning the image feature vector.
[0072] 具体的には、まず、照明方程式パラメータの値として、第 1のパラメータ値 LEP1 (番 号 1)を設定する。そしてこの第 1のパラメータ値 LEP1を用いて、(数 1)の演算を実 行し、学習画像 ILを生成する。そして生成された学習画像 ILについて、上述のステツ プ S1と実質的に同等の画像特徴解析を行い、画像特徴ベクトル ILFVを得る。この 画像特徴ベクトル ILFVを、画像特徴ベクトルデータベース 102の番号 1に格納する 。これにより、画像特徴ベクトル ILFVと第 1のパラメータ値 LEP1とが対応付けられて データベース 102, 103に保存される。このような処理を繰り返し実行することによつ て、図 1に示すような、画像特徴ベクトルデータベース 102および照明方程式パラメ ータデータベース 103が生成される。なお、図 19では、画像生成部 107が画像生成 を行い、画像特徴解析部 101が画像特徴解析を行っているが、前処理 S00におい て他の手段によって画像生成や画像特徴解析を行うようにしてもよい。 [0072] Specifically, first, a first parameter value LEP1 (number 1) is set as the value of the illumination equation parameter. Then, using the first parameter value LEP1, the calculation of (Equation 1) is performed to generate a learning image IL. Then, the generated learning image IL is subjected to image feature analysis substantially equivalent to step S1 described above to obtain an image feature vector ILFV. This image feature vector ILFV is stored in number 1 of the image feature vector database 102. As a result, the image feature vector ILFV and the first parameter value LEP1 are associated with each other and stored in the databases 102 and 103. By repeatedly executing such processing, an image feature vector database 102 and an illumination equation parameter database 103 as shown in FIG. 1 are generated. In FIG. 19, the image generation unit 107 generates an image. The image feature analysis unit 101 performs image feature analysis, but image generation and image feature analysis may be performed by other means in the pre-processing S00.
[0073] 以上のように本実施形態によると、入力画像 ΠΝの画像特徴ベクトル IINFVから、 入力画像 ΠΝにふさわしい照明方程式のパラメータ IINLEPが選定される。そして、こ のパラメータ IINLEPを操作することによって、様々な出力画像 IOUTを生成すること ができる。したがって、学習時の画像データに制限されず、自由度の高い画像変換 が可能になる。  As described above, according to the present embodiment, the illumination equation parameter IINLEP suitable for the input image ΠΝ is selected from the image feature vector IINFV of the input image ΠΝ. By manipulating this parameter IINLEP, various output images IOUT can be generated. Therefore, image conversion with a high degree of freedom is possible without being limited to image data at the time of learning.
[0074] また、照明方程式のパラメータ IINLEPを操作して画像変換を行うため、 、たずらに 多くの学習画像を準備する必要がなぐしたがって、学習画像数を抑えることができる 。また、前処理において、学習画像 ILは照明方程式を用いて計算機によって生成す ることが可能であるので、学習画像生成のために実物を用いた撮影を必要としない。 したがって、処理が簡易になるとともに、多様な学習画像を容易に準備することがで きる。なお、学習画像 ILの画像特徴 ILFVが入力画像 ΠΝの画像特徴 IINFVに近い ほど、適切な照明方程式パラメータが取得できる。そこで、学習画像 ILを生成する際 に、入力画像 ΠΝが撮影された際の条件を想定して照明方程式パラメータを設定す ることが望ましい。例えば、入力画像 ΠΝの撮影場所が限定でき、その結果、照明位 置が限定できる場合は、照明べ外ル Lは入力画像 ΠΝが撮影された際のデータを利 用する。  [0074] Further, since image conversion is performed by manipulating the illumination equation parameter IINLEP, it is not necessary to prepare a large number of learning images. Therefore, the number of learning images can be reduced. In the preprocessing, the learning image IL can be generated by a computer using an illumination equation, so that it is not necessary to shoot with the real object for generating the learning image. Therefore, the processing is simplified and various learning images can be easily prepared. As the image feature ILFV of the learning image IL is closer to the image feature IINFV of the input image ΠΝ, an appropriate illumination equation parameter can be acquired. Therefore, when generating the learning image IL, it is desirable to set the illumination equation parameters assuming the conditions when the input image ΠΝ was taken. For example, when the shooting location of the input image 撮 影 can be limited, and as a result, the illumination position can be limited, the illumination scale L uses the data when the input image ΠΝ was taken.
[0075] なお、本実施形態では、画像変換として画像拡大を例にとって説明したが、本発明 はこれに限定されるものではなぐ他の画像変換についても同様にパラメータ操作が 可能である。例えば、照明方向を変更したいときは、照明ベクトル Lを変更すればよ いし、また拡散反射成分と鏡面反射成分の割合を変更したいときは、拡散反射成分 比率 kdを変更すればょ ヽ。  In the present embodiment, image enlargement has been described as an example of image conversion. However, the present invention is not limited to this, and parameter operations can be similarly performed for other image conversions. For example, if you want to change the illumination direction, you can change the illumination vector L, and if you want to change the ratio of the diffuse reflection component to the specular reflection component, change the diffuse reflection component ratio kd.
[0076] また、鏡面反射成分反射率 p sは双方向反射率で定義されているため、視線方向 に応じて変化する。そこで、例えば (数 5)で与えられる Cook— Torranceモデルを導 入すれば、照明方程式パラメータに視線ベクトル V、粗さ係数 m、フレネル係数 F を加えることができる。これにより、視点方向の変更、表面粗さの変更などの画像変換 が可能になる。 [数 5] [0076] Further, since the specular reflection component reflectance ps is defined by bidirectional reflectance, it changes according to the line-of-sight direction. Therefore, for example, if the Cook-Torrance model given by (Equation 5) is introduced, the line-of-sight vector V, roughness coefficient m, and Fresnel coefficient F can be added to the illumination equation parameters. This enables image conversion such as changing the viewpoint direction and changing the surface roughness. [Equation 5]
Figure imgf000026_0001
Figure imgf000026_0001
g2 = n2 + c2 - \ g 2 = n 2 + c 2- \
C = (L- H)  C = (L- H)
[0077] ここで、図 20に示すように、ベクトル Hは視点ベクトル Vと照明ベクトル Lの中間べク トルであり、 βは中間ベクトル Ηと表面法線ベクトル Νとの角度を表す。 mは物体表面 の粗さを表わす係数であり、 mが小さいときは角度 |8が小さい部分すなわち表面法 線ベクトル N付近に強い反射を示し、 mが大きいときは角度 |8が大きい部分すなわち 表面法線ベクトル Nから離れた部分にも反射分布が広がる。 Gは幾何減衰率であり、 物体表面の凹凸による遮光の影響を表わす。 nは屈折率である。 Here, as shown in FIG. 20, vector H is an intermediate vector between viewpoint vector V and illumination vector L, and β represents an angle between intermediate vector 中間 and surface normal vector Ν. m is a coefficient representing the roughness of the surface of the object. When m is small, the angle | 8 is small, that is, the surface normal vector N shows strong reflection, and when m is large, the angle | 8 is large, that is, the surface. The reflection distribution also spreads away from the normal vector N. G is the geometric attenuation factor, and represents the effect of shading due to the unevenness of the object surface. n is a refractive index.
[0078] このように、本発明では、照明方程式は任意に定義可能であり、(数 1)や (数 5)に 限定されるものではない。  Thus, in the present invention, the illumination equation can be arbitrarily defined and is not limited to (Equation 1) or (Equation 5).
[0079] また、本実施形態では、画像特徴ベクトル IINFVに最も近 ヽ画像特徴ベクトルに対 応する照明方程式パラメータを原パラメータ値 IINLEPとして取得するものとしたが、 原パラメータ値 IINLEPの取得方法はこれに限られるものではない。例えば図 21に 示すように、取得してもよい。すなわち、まず、入力画像特徴ベクトル IINFVと類似す る所定数(図 21では 3個)の画像特徴ベクトルを選択する。そして、選択した各画像 特徴ベクトルについて、入力画像特徴ベクトル IINFVとの距離をそれぞれ求め、この 距離に応じた重み付け係数 IINFVWFを定める。そして、選択した 3個の画像特徴 ベクトルにそれぞれ対応するパラメータ値を、重み付け係数 IINFVWFを用いて重み 付け加算し、その結果を原パラメータ値 IINLEPとして出力する。なお、重み付けカロ 算の代わりに、選択した所定数の画像特徴ベクトルにそれぞれ対応するパラメータ値 について、単に平均をとつても力まわない。 In this embodiment, the illumination equation parameter corresponding to the image feature vector closest to the image feature vector IINFV is acquired as the original parameter value IINLEP. However, the method for acquiring the original parameter value IINLEP is as follows. It is not limited to. For example, as shown in FIG. That is, first, a predetermined number (three in FIG. 21) of image feature vectors similar to the input image feature vector IINFV are selected. For each selected image feature vector, the distance from the input image feature vector IINFV is obtained, and a weighting coefficient IINFVWF corresponding to this distance is determined. The parameter values respectively corresponding to the three selected image feature vectors are weighted and added using the weighting coefficient IINFVWF, and the result is output as the original parameter value IINLEP. Instead of weighted calorie calculation, parameter values corresponding to the selected predetermined number of image feature vectors, respectively. I can't help simply by taking the average.
[0080] なお、画像特徴と照明方程式パラメータとの関係は、予め学習されている必然性は なぐ任意の手段によって準備してかまわない。  [0080] Note that the relationship between the image feature and the illumination equation parameter may be prepared by any means that does not necessarily have to be learned in advance.
[0081] 以下、本発明を実現する構成例を例示する。  Hereinafter, a configuration example for realizing the present invention will be exemplified.
[0082] (第 1の構成例)  [0082] (First configuration example)
図 22は第 1の構成例を示す図であり、パーソナルコンピュータを用いて本発明に係 る画像変換を行う構成の一例である。カメラ 21の解像度はディスプレイ 22の解像度 よりも低ぐディスプレイ 22の表示能力を最大限に生かすために、メインメモリ 23に口 ードされた画像変換プログラムによって拡大画像を作成する。カメラ 21で取り込まれ た低解像度画像は画像メモリ 24に記録される。外部記録装置 25には予め画像特徴 ベクトルデータベース 102と照明方程式パラメータデータベース 103とが準備されて おり、メインメモリ 23の画像変換プログラムカゝら参照可能になっている。画像変換プロ グラムの動作や画像特徴ベクトルデータベース 102と照明方程式パラメータデータべ ース 103の内容や作成方法等は、第 1の実施形態で説明したとおりである。メインメ モリ 23の画像変換プログラムは、メモリバス 26を介して画像メモリ 24の低解像度画像 を読み込み、これをディスプレイ 22の解像度に合わせて高解像度画像に変換し、再 びメモリバス 26経由でビデオメモリ 27に転送する。ビデオメモリ 27に転送された高解 像度画像はディスプレイ 22において観察できる。  FIG. 22 is a diagram showing a first configuration example, which is an example of a configuration for performing image conversion according to the present invention using a personal computer. In order to take full advantage of the display capability of the display 22 whose resolution is lower than that of the display 22, an enlarged image is created by an image conversion program loaded into the main memory 23. The low resolution image captured by the camera 21 is recorded in the image memory 24. In the external recording device 25, an image feature vector database 102 and an illumination equation parameter database 103 are prepared in advance and can be referred to by an image conversion program module in the main memory 23. The operation of the image conversion program, the contents of the image feature vector database 102 and the illumination equation parameter database 103, the creation method, and the like are as described in the first embodiment. The image conversion program in the main memory 23 reads the low-resolution image in the image memory 24 via the memory bus 26, converts it into a high-resolution image in accordance with the resolution of the display 22, and then the video memory via the memory bus 26 again. Forward to 27. The high resolution image transferred to the video memory 27 can be observed on the display 22.
[0083] なお、本発明は図 22の構成に拘束されるものではなぐ様々な構成をとることがで きる。例えば、画像特徴ベクトルデータベース 102や照明方程式パラメータデータべ ース 103を別のパーソナルコンピュータに接続された外部記憶装置力もネットワーク 2 8を介して取得しても力まわない。また低解像度画像は、ネットワーク 28を介して取得 してもかまわない。  It should be noted that the present invention can take various configurations that are not restricted by the configuration of FIG. For example, it is possible to acquire the external storage device power connected to another personal computer via the network 28, even if the image feature vector database 102 and the illumination equation parameter database 103 are acquired. The low resolution image may be acquired via the network 28.
[0084] (第 2の構成例)  [0084] (Second configuration example)
図 23は第 2の構成例を示す図であり、サーバークライアントシステムを用いて本発 明に係る画像変換を行う構成の一例である。カメラ 31の解像度はディスプレイ 32の 解像度よりも低ぐディスプレイ 32の表示能力を最大限に生かすために、サーバーク ライアントシステムにおいて画像変換を実行する。サーバー 33では、第 1の実施形態 と同様に、画像特徴解析部 101、画像特徴ベクトルデータベース 102および照明方 程式パラメータデータベース 103が、入力画像 ΠΝ力も原パラメータ値 IINLEPを算 出する。画像特徴ベクトルデータベース 102および照明方程式パラメータデータべ ース 103によって、ノ ラメータ出力部 10が構成されている。一方、クライアント 34の画 像変換指示部 105から、画像変換の指示 (本例では画像拡大)が画像変換指示信 号 ICISとしてサーバー 33のパラメータ操作設定部 106に渡される。ノ ラメータ操作 設定部 106は画像変換指示信号 ICISによる画像変換の内容を照明方程式パラメ一 タの操作内容に置き換え、パラメータ操作指示信号 LEPSとしてパラメータ操作部 10 4に出力する。パラメータ操作部 104は原パラメータ値 IINLEPを操作し、新パラメ一 タ値 IOUTLEPを生成する。 FIG. 23 is a diagram showing a second configuration example, which is an example of a configuration for performing image conversion according to the present invention using a server client system. The resolution of the camera 31 is lower than that of the display 32. In order to make the best use of the display capability of the display 32, image conversion is executed in the server client system. In the server 33, the first embodiment Similarly to the above, the image feature analysis unit 101, the image feature vector database 102, and the illumination equation equation parameter database 103 also calculate the original parameter value IINLEP for the input image repulsion. The image feature vector database 102 and the illumination equation parameter database 103 constitute a parameter output unit 10. On the other hand, an image conversion instruction (image enlargement in this example) is passed from the image conversion instruction unit 105 of the client 34 to the parameter operation setting unit 106 of the server 33 as an image conversion instruction signal ICIS. The parameter operation setting unit 106 replaces the content of the image conversion by the image conversion instruction signal ICIS with the operation content of the illumination equation parameter, and outputs it to the parameter operation unit 104 as the parameter operation instruction signal LEPS. The parameter operation unit 104 operates the original parameter value IINLEP to generate a new parameter value IOUTLEP.
[0085] このような動作によって、サーバー 33はクライアント 34からの画像変換指示に従つ た新パラメータ値 IOUTLEPを、ネットワーク 35を介してクライアント 34に提供できる 。新パラメータ値 IOUTLEPを受け取ったクライアント 34では、画像生成部 107が拡 大画像を生成し、ディスプレイ 32に供給する。  With this operation, the server 33 can provide the client 34 with the new parameter value IOUTLEP according to the image conversion instruction from the client 34 via the network 35. In the client 34 that has received the new parameter value IOUTLEP, the image generation unit 107 generates an enlarged image and supplies it to the display 32.
[0086] なお、本発明は図 23の構成に拘束されるものではなぐ画像機器の組み合わせや 、各手段のシステム上の位置 (サーバー 33に属する力クライアント 34に属する力、ま たはそれ以外に属するかなど)は、任意である。  It should be noted that the present invention is not limited to the configuration shown in FIG. 23, the combination of image devices, the position of each means on the system (the force belonging to the force client 34 belonging to the server 33, or other Whether it belongs or not) is arbitrary.
[0087] (第 3の構成例)  [0087] (Third configuration example)
図 24は第 3の構成例を示す図であり、カメラ付携帯電話とテレビを用いて本発明に 係る画像処理を行う構成の一例である。携帯機器としてのカメラ付携帯電話 41はネ ットワーク 42またはメモリカード 43を介してテレビ 44に画像データを送ることができる 。カメラ付携帯電話 41のカメラ 45の解像度はテレビ 44の解像度よりも低ぐテレビ 44 の表示能力を最大限に生かすために、テレビ 44の内部回路に実装された本発明に 係る画像変換装置によって画像拡大を実行する。  FIG. 24 is a diagram showing a third configuration example, which is an example of a configuration for performing image processing according to the present invention using a camera-equipped mobile phone and a television. A camera-equipped mobile phone 41 as a portable device can send image data to the television 44 via the network 42 or the memory card 43. The camera 45 of the camera-equipped mobile phone 41 has a resolution lower than that of the television 44. In order to take full advantage of the display capability of the television 44, the image is converted by the image conversion device according to the present invention installed in the internal circuit of the television 44. Perform magnification.
[0088] 利用料金の面を考えると、カメラ付携帯電話 41からテレビ 44へ送るデータ量は、小 さいほど利用者力も歓迎される。そこで、ネットワーク 42で送信するデータは、入力画 像特徴ベクトル番号 IINFVNとするのが望ましい。また、ネットワーク 42における盗聴 の被害を最小限に抑えるためにも、番号自体には特に意味を持たな 、入力画像特 徴ベクトル番号 IINFVNを送ることが望ましい。すなわち、カメラ付き携帯電話 41が 画像特徴ベクトルデータベース 102を持ち、テレビ 44が照明方程式パラメータデー タベースを持つように構成し、その両方がそろってはじめて所望の画像変換が実現 できるようにする。これにより、利用料金を低く抑えることができるとともに、盗聴の被害 を最小限に抑えることができる。図 24では、カメラ付携帯電話 41が、カメラ 45と、カメ ラ 45によって撮影された画像 ΠΝにつ 、て画像特徴解析を行 、、第 1の画像特徴べ タトル IINFVを出力する画像特徴解析部 101と、格納して!/ヽる複数の画像特徴べタト ルの中力ゝら第 1の画像特徴ベクトル IINFVと類似する画像特徴ベクトルを特定し、そ の番号 IINFVNを出力する画像特徴ベクトルデータベース 102とを備えている構成 を示している。 [0088] Considering the usage fee, the smaller the amount of data sent from the camera-equipped mobile phone 41 to the television 44, the more user power is welcomed. Therefore, it is desirable that the data transmitted through the network 42 be the input image feature vector number IINFVN. Also, in order to minimize the damage caused by eavesdropping on the network 42, the number itself has no special meaning. It is desirable to send the collection vector number IINFVN. That is, the camera-equipped mobile phone 41 has the image feature vector database 102, and the television 44 has the illumination equation parameter database, so that the desired image conversion can be realized only when both are provided. As a result, usage fees can be kept low, and damage from eavesdropping can be minimized. In FIG. 24, the camera-equipped mobile phone 41 performs image feature analysis on the camera 45 and the image 撮 影 taken by the camera 45 and outputs the first image feature vector IINFV. The image feature vector database that identifies the image feature vector similar to the first image feature vector IINFV and outputs its number IINFVN. 102 is shown.
[0089] なお、本発明は図 24の構成に拘束されるものではなぐ様々な構成を取ることがで きる。例えば、カメラ付携帯電話 41はデジタルスチルカメラやビデオムービーカメラで もあってもかまわない。  It should be noted that the present invention can take various configurations other than the configuration shown in FIG. For example, the camera-equipped mobile phone 41 may be a digital still camera or a video movie camera.
[0090] 以上のように本発明は、広く普及しているパーソナルコンピュータや、サーバークラ イアントシステム、または、カメラ付携帯電話やデジタルスチルカメラ、ビデオムービー カメラ、テレビなどビデオ機器全般で実行可能であり、特別な機器、運用、管理など は必要ない。なお、専用ハードウェアへの実装やソフトウェアとハードウェアの組み合 わせなど、機器接続形態や機器内部の構成を拘束するものではな 、。  [0090] As described above, the present invention can be executed on a wide variety of video devices such as personal computers, server client systems, camera-equipped mobile phones, digital still cameras, video movie cameras, and televisions that are widely used. No special equipment, operation or management is required. It should be noted that the device connection form and the internal configuration of the device, such as mounting on dedicated hardware or a combination of software and hardware, are not constrained.
産業上の利用可能性  Industrial applicability
[0091] 本発明では、拡大縮小、照明変換、視点変換、拡散 Z鏡面反射成分の比率変更 など、様々な画像変換を自由に実施できるので、例えば、スポーツや観光、記念撮 影など目の前のシーンを映像として記録する映像エンタテイメント分野において利用 することができる。また、文化芸術の分野では、被写体や撮影場所に制限されない自 由度の高いデジタルアーカイブシステムを提供するために利用することができる。 [0091] In the present invention, various image conversions such as enlargement / reduction, illumination conversion, viewpoint conversion, and change of the ratio of the diffuse Z specular reflection component can be freely performed. For example, sports, sightseeing, commemorative photography, etc. It can be used in the field of video entertainment that records these scenes as video. In the field of culture and art, it can be used to provide a highly flexible digital archiving system that is not limited by subject or shooting location.

Claims

請求の範囲 The scope of the claims
[1] 第 1の画像を第 2の画像に変換する方法であって、  [1] A method for converting a first image into a second image,
前記第 1の画像について、画像特徴解析を行う第 1のステップと、  A first step of performing image feature analysis on the first image;
画像特徴と照明方程式パラメータとの関係を参照し、前記第 1のステップにおいて 得た前記第 1の画像の画像特徴から、これに対応する照明方程式パラメータの値を、 原パラメータ値として取得する第 2のステップと、  A second parameter is obtained by referring to the relationship between the image feature and the illumination equation parameter, and obtaining the value of the illumination equation parameter corresponding to the image feature of the first image obtained in the first step as an original parameter value. And the steps
指示された画像変換に応じて、照明方程式パラメータの操作内容を定める第 3のス テツプと、  A third step for determining the operation content of the illumination equation parameter according to the instructed image conversion;
前記原パラメータ値を、前記第 3のステップにおいて定めた操作内容に従って操作 し、新パラメータ値を得る第 4のステップと、  A fourth step of operating the original parameter value in accordance with the operation content determined in the third step to obtain a new parameter value;
前記新パラメータ値を基にして、前記第 2の画像を生成する第 5のステップとを備え た  And a fifth step of generating the second image based on the new parameter value.
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[2] 請求項 1において、 [2] In claim 1,
前記第 1のステップにおける画像特徴解析は、空間周波数解析を用いて行うもので ある  The image feature analysis in the first step is performed using spatial frequency analysis.
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[3] 請求項 1において、 [3] In claim 1,
画像特徴と照明方程式パラメータとの関係を学習する前処理を備え、  With preprocessing to learn the relationship between image features and lighting equation parameters,
前記前処理は、  The pretreatment includes
照明方程式パラメータの値として第 1のパラメータ値を設定するステップと、 前記第 1のパラメータ値から、学習画像を生成するステップと、  Setting a first parameter value as a value of the illumination equation parameter; generating a learning image from the first parameter value;
前記学習画像について、前記第 1のステップと実質的に同等の画像特徴解析を行 うステップとを備え、  A step of performing an image feature analysis substantially equivalent to the first step for the learning image,
得られた画像特徴を前記第 1のパラメータ値と対応付けて、データベースに保存す る  The obtained image feature is stored in the database in association with the first parameter value.
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[4] 請求項 3において、 前記第 1のパラメータ値は、前記第 1の画像が撮影された際の照明方程式パラメ一 タを想定して設定される [4] In claim 3, The first parameter value is set assuming an illumination equation parameter when the first image is taken.
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[5] 請求項 1において、  [5] In claim 1,
前記照明方程式は、視点方向の輝度を、拡散反射成分、鏡面反射成分および環 境光成分の和によって表わすものである  The illumination equation represents the luminance in the viewing direction by the sum of the diffuse reflection component, the specular reflection component, and the ambient light component.
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[6] 請求項 1において、 [6] In claim 1,
前記照明方程式パラメータは、表面法線ベクトル、照明ベクトル、拡散反射成分と 鏡面反射成分との比率、拡散反射成分の反射率、および鏡面反射成分の反射率の うち、少なくとも 1つを含む  The illumination equation parameter includes at least one of a surface normal vector, an illumination vector, a ratio between a diffuse reflection component and a specular reflection component, a reflectance of a diffuse reflection component, and a reflectance of a specular reflection component.
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[7] 請求項 1において、 [7] In claim 1,
前記第 3のステップは、指示された画像変換が画像拡大であるとき、照明方程式パ ラメータの操作内容として、表面法線ベクトル、照明ベクトル、拡散反射成分と鏡面反 射成分との比率、拡散反射成分の反射率、および鏡面反射成分の反射率のうち、少 なくとも 1つの高密化を、定めるものである  In the third step, when the instructed image conversion is image enlargement, the operation content of the illumination equation parameter includes the surface normal vector, the illumination vector, the ratio between the diffuse reflection component and the specular reflection component, and the diffuse reflection component. It defines at least one densification among the reflectance of the component and the reflectance of the specular reflection component.
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[8] 請求項 1において、 [8] In claim 1,
画像特徴と照明方程式パラメータとの関係は、複数の画像特徴ベクトルと、各画像 特徴ベクトルとそれぞれ対応付けられた複数のパラメータ値とによって、表されており 前記第 2のステップは、  The relationship between the image feature and the illumination equation parameter is represented by a plurality of image feature vectors and a plurality of parameter values respectively associated with each image feature vector.
前記複数の画像特徴ベクトルの中から、前記第 1の画像の画像特徴を表す第 1の 画像特徴ベクトルと類似する所定数の画像特徴ベクトルを、選択するステップと、 前記所定数の画像特徴ベクトルにつ ヽて、前記第 1の画像特徴ベクトルとの距離を 、それぞれ求めるステップと、  Selecting a predetermined number of image feature vectors similar to the first image feature vector representing the image features of the first image from the plurality of image feature vectors; Then, obtaining each distance from the first image feature vector,
前記所定数の画像特徴ベクトルにそれぞれ対応するパラメータ値を、当該画像特 徴ベクトルにつ 、て求めた前記距離に応じて重み付け加算し、前記原パラメータ値 を算出するステップとを備えたものである Parameter values respectively corresponding to the predetermined number of image feature vectors are assigned to the image feature vectors. And calculating the original parameter value by weighting and adding to the collection vector according to the distance obtained in the step
ことを特徴とする画像変換方法。  An image conversion method characterized by that.
[9] 入力画像につ!、て、画像特徴解析を行 ヽ、前記入力画像の画像特徴を表す第 1 の画像特徴ベクトルを出力する画像特徴解析部と、  [9] An image feature analysis unit that performs image feature analysis on the input image and outputs a first image feature vector representing the image feature of the input image;
複数の画像特徴ベクトルと、照明方程式の,前記各画像特徴ベクトルとそれぞれ対 応する複数のパラメータ値とを格納しており、前記第 1の画像特徴ベクトルを受けて、 これに対応する原パラメータ値を出力するパラメータ出力部と、  It stores a plurality of image feature vectors and a plurality of parameter values corresponding to each of the image feature vectors of the illumination equation, receives the first image feature vector, and corresponds to the original parameter value A parameter output unit for outputting
指示された画像変換に応じて、照明方程式パラメータの操作内容を定めるパラメ一 タ操作設定部と、  A parameter operation setting unit that determines the operation content of the illumination equation parameter according to the instructed image conversion;
前記パラメータ出力部力 出力された前記原パラメータ値を、前記パラメータ操作 設定部によって定められた操作内容に従って操作し、新パラメータ値を得るパラメ一 タ操作部と、  Parameter output unit force A parameter operation unit for operating the output original parameter value according to the operation content determined by the parameter operation setting unit and obtaining a new parameter value;
前記パラメータ操作部カゝら出力された新パラメータ値を基にして、出力画像を生成 する画像生成部とを備えた  An image generation unit for generating an output image based on the new parameter value output from the parameter operation unit.
ことを特徴とする画像変換装置。  An image conversion apparatus characterized by that.
[10] 請求項 9において、 [10] In claim 9,
前記パラメータ出力部は、  The parameter output unit includes:
前記複数の画像特徴ベクトルを格納する画像特徴ベクトルデータベースと、 前記複数のパラメータ値を格納する照明方程式パラメータデータベースとを備えた ものである  An image feature vector database for storing the plurality of image feature vectors; and an illumination equation parameter database for storing the plurality of parameter values.
ことを特徴とする画像変換装置。  An image conversion apparatus characterized by that.
[11] 画像変換を行うサーバークライアントシステムであって、 [11] A server client system for image conversion,
請求項 9の画像特徴解析部、パラメータ出力部、パラメータ操作設定部、およびパ ラメータ操作部を有するサーバと、  A server having the image feature analysis unit, the parameter output unit, the parameter operation setting unit, and the parameter operation unit according to claim 9;
請求項 9の画像生成部を有するクライアントとを備え、  A client having the image generation unit of claim 9,
前記クライアントは、前記サーバに、画像変換の内容を指示する  The client instructs the contents of image conversion to the server
ことを特徴とするサーバークライアントシステム。 Server client system characterized by that.
[12] カメラと、 [12] Camera and
前記カメラによって撮影された画像について画像特徴解析を行い、その画像特徴 を表す第 1の画像特徴ベクトルを出力する画像特徴解析部と、  An image feature analysis unit that performs image feature analysis on an image captured by the camera and outputs a first image feature vector representing the image feature;
複数の画像特徴ベクトルを番号とともに格納しており、前記第 1の画像特徴ベクトル と類似する画像特徴ベクトルを特定し、その番号を出力する画像特徴ベクトルデータ ベースとを備え、  A plurality of image feature vectors are stored together with numbers, an image feature vector similar to the first image feature vector is specified, and an image feature vector database for outputting the numbers is provided.
前記画像特徴ベクトルデータベースから出力された番号を、送信する  The number output from the image feature vector database is transmitted.
ことを特徴とする携帯機器。  A portable device characterized by that.
[13] コンピュータに、第 1の画像を第 2の画像に変換する方法をコンピュータに実行させ るプログラムであって、 [13] A program for causing a computer to execute a method of converting a first image into a second image,
前記第 1の画像について、画像特徴解析を行う第 1のステップと、  A first step of performing image feature analysis on the first image;
画像特徴と照明方程式パラメータとの関係を参照し、前記第 1のステップにおいて 得た前記第 1の画像の画像特徴から、これに対応する照明方程式パラメータの値を、 原パラメータ値として取得する第 2のステップと、  A second parameter is obtained by referring to the relationship between the image feature and the illumination equation parameter, and obtaining the value of the illumination equation parameter corresponding to the image feature of the first image obtained in the first step as an original parameter value. And the steps
指示された画像変換に応じて、照明方程式パラメータの操作内容を定める第 3のス テツプと、  A third step for determining the operation content of the illumination equation parameter according to the instructed image conversion;
前記原パラメータ値を、前記第 3のステップにおいて定めた操作内容に従って操作 し、新パラメータ値を得る第 4のステップと、  A fourth step of operating the original parameter value in accordance with the operation content determined in the third step to obtain a new parameter value;
前記新パラメータ値を基にして、前記第 2の画像を生成する第 5のステップとを コンピュータに実行させるプログラム。  A program for causing a computer to execute a fifth step of generating the second image based on the new parameter value.
PCT/JP2006/305095 2006-03-15 2006-03-15 Video image converting method, video image converting device, server client system, mobile apparatus, and program WO2007108041A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006520477A JP3921496B1 (en) 2006-03-15 2006-03-15 Image conversion method and image conversion apparatus
PCT/JP2006/305095 WO2007108041A1 (en) 2006-03-15 2006-03-15 Video image converting method, video image converting device, server client system, mobile apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/305095 WO2007108041A1 (en) 2006-03-15 2006-03-15 Video image converting method, video image converting device, server client system, mobile apparatus, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/541,508 Continuation US7340098B2 (en) 2006-03-15 2006-09-29 Method and apparatus for image conversion

Publications (1)

Publication Number Publication Date
WO2007108041A1 true WO2007108041A1 (en) 2007-09-27

Family

ID=38170218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/305095 WO2007108041A1 (en) 2006-03-15 2006-03-15 Video image converting method, video image converting device, server client system, mobile apparatus, and program

Country Status (2)

Country Link
JP (1) JP3921496B1 (en)
WO (1) WO2007108041A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010073547A1 (en) * 2008-12-25 2010-07-01 パナソニック株式会社 Image processing device and pseudo-3d image creation device
JP2011175600A (en) * 2010-02-25 2011-09-08 Canon Inc Recognition apparatus and method thereof, and computer program
US8350932B2 (en) 2008-07-30 2013-01-08 Panasonic Corporation Image generation device and image generation method for generating a high-quality image by using information from a low-quality image
JP2017101934A (en) * 2015-11-30 2017-06-08 キヤノン株式会社 Processing apparatus, processing system, imaging device, processing method, processing program, and recording medium
JP2018077702A (en) * 2016-11-10 2018-05-17 凸版印刷株式会社 Texture adjustment support system and texture adjustment support method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092973A (en) * 1999-09-24 2001-04-06 Fujitsu Ltd Device and method for analyzing image and program recording medium
JP2003022442A (en) * 2001-07-10 2003-01-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for object detection and position measurement, execution program for the same method, and its recording medium
JP2003115055A (en) * 2001-10-05 2003-04-18 Canon Inc Image generator
JP2003168129A (en) * 2001-12-03 2003-06-13 Canon Inc Method, program, apparatus and system for three- dimensional image processing
JP2003216973A (en) * 2002-01-21 2003-07-31 Canon Inc Method, program, device and system for processing three- dimensional image
JP2004054947A (en) * 2002-07-16 2004-02-19 Nec Corp Object collation system, object collation method and object collation program
JP2004110519A (en) * 2002-09-19 2004-04-08 Dainippon Ink & Chem Inc Texture expressing device and texture expressing method and synthesis method
JP2004171121A (en) * 2002-11-18 2004-06-17 Toshiba Corp Leaving control system by face image and leaving control method by face image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092973A (en) * 1999-09-24 2001-04-06 Fujitsu Ltd Device and method for analyzing image and program recording medium
JP2003022442A (en) * 2001-07-10 2003-01-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for object detection and position measurement, execution program for the same method, and its recording medium
JP2003115055A (en) * 2001-10-05 2003-04-18 Canon Inc Image generator
JP2003168129A (en) * 2001-12-03 2003-06-13 Canon Inc Method, program, apparatus and system for three- dimensional image processing
JP2003216973A (en) * 2002-01-21 2003-07-31 Canon Inc Method, program, device and system for processing three- dimensional image
JP2004054947A (en) * 2002-07-16 2004-02-19 Nec Corp Object collation system, object collation method and object collation program
JP2004110519A (en) * 2002-09-19 2004-04-08 Dainippon Ink & Chem Inc Texture expressing device and texture expressing method and synthesis method
JP2004171121A (en) * 2002-11-18 2004-06-17 Toshiba Corp Leaving control system by face image and leaving control method by face image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8350932B2 (en) 2008-07-30 2013-01-08 Panasonic Corporation Image generation device and image generation method for generating a high-quality image by using information from a low-quality image
US9087388B2 (en) 2008-07-30 2015-07-21 Panasonic Corporation Image generation device and image generation method
WO2010073547A1 (en) * 2008-12-25 2010-07-01 パナソニック株式会社 Image processing device and pseudo-3d image creation device
JP4563513B2 (en) * 2008-12-25 2010-10-13 パナソニック株式会社 Image processing apparatus and pseudo-stereoscopic image generation apparatus
JPWO2010073547A1 (en) * 2008-12-25 2012-06-07 パナソニック株式会社 Image processing apparatus and pseudo-stereoscopic image generation apparatus
US8654179B2 (en) 2008-12-25 2014-02-18 Panasonic Corporation Image processing device and pseudo-3D image creation device
JP2011175600A (en) * 2010-02-25 2011-09-08 Canon Inc Recognition apparatus and method thereof, and computer program
JP2017101934A (en) * 2015-11-30 2017-06-08 キヤノン株式会社 Processing apparatus, processing system, imaging device, processing method, processing program, and recording medium
JP2018077702A (en) * 2016-11-10 2018-05-17 凸版印刷株式会社 Texture adjustment support system and texture adjustment support method

Also Published As

Publication number Publication date
JP3921496B1 (en) 2007-05-30
JPWO2007108041A1 (en) 2009-07-30

Similar Documents

Publication Publication Date Title
US7340098B2 (en) Method and apparatus for image conversion
US7379618B2 (en) Image conversion method, texture mapping method, image conversion device, server-client system, and image conversion program
Kopf et al. Capturing and viewing gigapixel images
CN102693538B (en) Generate the global alignment method and apparatus of high dynamic range images
US20200051269A1 (en) Hybrid depth sensing pipeline
JP4139853B2 (en) Image processing apparatus, image processing method, and image processing program
KR101003277B1 (en) Method and system for producing seamless composite images having non-uniform resolution from a multi-imager
CN104641633B (en) System and method for combining the data from multiple depth cameras
CN102741883A (en) High dynamic range image generation and rendering
CN109618090A (en) To the method and system of the image distortion correction by using wide-angle lens captured image
US20070019887A1 (en) Computing a higher resolution image from multiple lower resolution images using model-base, robust bayesian estimation
US20060072851A1 (en) Deghosting mosaics using multiperspective plane sweep
CN100573579C (en) Image conversion method and device, texture mapping method and device, server-client system
JPWO2005122089A1 (en) Image processing method, image processing apparatus, and image enlargement method
CN112767290B (en) Image fusion method, image fusion device, storage medium and terminal device
JP2007293912A (en) Image processing method, and image processing apparatus
WO2007108041A1 (en) Video image converting method, video image converting device, server client system, mobile apparatus, and program
WO2006033257A1 (en) Image conversion method, image conversion device, server client system, mobile device, and program
JP2022002376A (en) Image processing apparatus, image processing method, and program
EP4292059A1 (en) Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture
Lukac Single-sensor imaging in consumer digital cameras: a survey of recent advances and future directions
WO2013190645A1 (en) Automatic image compositing device
JP2006209396A (en) Image conversion method/device, program and server client system
CN116681818B (en) New view angle reconstruction method, training method and device of new view angle reconstruction network
CN116758390B (en) Image data processing method, device, computer equipment and medium

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2006520477

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06729116

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06729116

Country of ref document: EP

Kind code of ref document: A1