WO2005073909A1 - 化粧シミュレーションプログラム、化粧シミュレーション装置、及び化粧シミュレーション方法 - Google Patents

化粧シミュレーションプログラム、化粧シミュレーション装置、及び化粧シミュレーション方法 Download PDF

Info

Publication number
WO2005073909A1
WO2005073909A1 PCT/JP2004/016125 JP2004016125W WO2005073909A1 WO 2005073909 A1 WO2005073909 A1 WO 2005073909A1 JP 2004016125 W JP2004016125 W JP 2004016125W WO 2005073909 A1 WO2005073909 A1 WO 2005073909A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
correlation value
makeup
layer
Prior art date
Application number
PCT/JP2004/016125
Other languages
English (en)
French (fr)
Inventor
Shoji Tanaka
Takao Furukawa
Tomotaka Ogino
Original Assignee
Digital Fashion Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004023947A external-priority patent/JP4404650B2/ja
Priority claimed from JP2004177954A external-priority patent/JP2006004051A/ja
Application filed by Digital Fashion Ltd. filed Critical Digital Fashion Ltd.
Priority to US10/583,619 priority Critical patent/US20070019882A1/en
Priority to EP04793233A priority patent/EP1710746A1/en
Publication of WO2005073909A1 publication Critical patent/WO2005073909A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Definitions

  • the present invention relates to a makeup simulation technique for virtually applying makeup to a person's face.
  • an input device such as a pen tablet and a commercially available computer on which commercially available retouched image processing software (for example, Adobe Photoshop etc.) is installed are used.
  • image processing software for example, Adobe Photoshop etc.
  • a method of performing a drawing process of applying makeup with a brush and virtually applying makeup to a still image of the face is known.
  • Patent Document 1 JP-A-2003-44837
  • the created simulation image simply designates an area on the face image and applies the makeup (makeup element image).
  • makeup makeup element image
  • the invention described in Patent Document 1 defines a makeup element image by a mathematical expression, adjusts parameters of the mathematical expression according to changes in facial expression, and obtains a simulation image. Adjustment of parameters requires specialized knowledge such as mathematics and programs. For this reason, there is a problem that it is difficult for a somewhat pictorial user without specialized knowledge to obtain a simulation image by a simplified operation. Also, makeup element image When the parameter is composed of a free-curve force, the parameter adjustment becomes very complicated, and even a skilled person with knowledge of mathematics and programming has a problem that the parameter adjustment requires a great deal of labor S. . Furthermore, since the makeup image is defined by mathematical expressions, there is a problem that a great deal of time is required for calculation. Further, since the makeup element image is approximated by a mathematical formula, it has been difficult to obtain a high-quality image as if makeup were actually applied.
  • the present invention has been made to solve the above-mentioned problem, and relates to a makeup simulation that can obtain a high-quality and high-speed simulation image by a simple operation, even without a person having specialized knowledge. It aims to provide technology.
  • a makeup simulation program is a makeup simulation program that causes a computer to execute makeup simulation using a reference image composed of n (n is a positive integer) layer images and one face image.
  • a simulation program wherein the reference image is created in advance based on a drawing command of a user force input through an operation device, and the n layer images each have at least one of the same color force.
  • N makeup element images, and for each of the n layer images, n first first images corresponding to each of the n layer images are based on the transparency set for each pixel of each layer image.
  • First image generating means for generating an image
  • target image obtaining means for obtaining a simulation target image including a face of a person to be simulated, included in the reference image
  • Mesh setting means for setting a mesh in a face area included in the simulation target image and setting a mesh in a face area included in the simulation target image, and a corresponding vertex of a mesh set in each of the reference image and the simulation target image.
  • a position difference is calculated, and based on the calculated difference, a makeup element image included in each of the n first images is adapted to match a face area included in the simulation target image.
  • Deforming means for performing a predetermined color conversion process using the color components of the n layer images on the simulation target image, thereby obtaining n images corresponding to each of the n layer images.
  • Second image creating means for creating a second image of the n images and the simulation target image based on the n first images, respectively. It determines the brightness, determined using a transparency with, synthesizes the second image of the n images and the simulation object image It is characterized by causing a computer to function as a synthesizing means.
  • a reference image composed of n layer images and one face image is calculated based on the transparency of each layer image constituting the reference image.
  • a first image is created, and a mesh is set for each face region of the reference image and the simulation target image. Then, the difference between the positions of the corresponding vertices of the mesh set in the face area of the reference image and the mesh set in the face area of the simulation target image is calculated, and based on the difference, n
  • the makeup element image included in each of the first images is deformed so as to match the face area in the simulation target image.
  • the simulation target image is converted using the color components of the respective layer images, a second image is created, and the transparency of the second image and the simulation target image is determined based on the first image. Then, the second image and the simulation target image are synthesized based on the determined transparency.
  • the reference image is an image created by a simple operation using an image creation software such as Photoshop (registered trademark) and an operating device such as a pen tablet on a face image of a certain person. . Then, makeup is applied to the simulation target image based on the reference image, and a high-quality makeup simulation image is generated. Therefore, the user can obtain a high-quality makeup simulation image at high speed by a simple operation.
  • an image creation software such as Photoshop (registered trademark) and an operating device such as a pen tablet on a face image of a certain person.
  • the reference image is composed of n layer image colors
  • some makeup element images are deleted from the simulation target image to which makeup is virtually applied, or some makeup element images are removed. By changing the color of the element image, such a change can be easily made.
  • FIG. 1 is a block diagram showing a hardware configuration of a makeup simulation apparatus according to an embodiment of the present invention.
  • FIG. 2 shows a functional block diagram of a makeup simulation apparatus.
  • FIG. 3 is a flowchart showing an operation of the makeup simulation apparatus.
  • FIG. 4 is a flowchart showing an operation of the makeup simulation apparatus.
  • FIG. 5 is a diagram for explaining Expression (1) and Expression (2).
  • FIG. 6 is a drawing for explaining feature point extraction processing.
  • FIG. 7 is a diagram showing an example of an initial mesh.
  • FIG. 3B shows a mesh for visual observation
  • FIG. 6B shows a mesh for oblique viewing.
  • FIG. 10 is a drawing showing the mesh set in the reference image when the operations of Equations (7) and (8) are applied five times to each vertex of the mesh. A mesh viewed in a direction is shown, and (b) shows a mesh viewed in an oblique direction.
  • FIG. 11 mesh For each vertex of the FIG. 11 mesh, it is a view showing a mesh that is set to use a reference image when applying 10 times the calculation of Expression (7) and (8), (a) is the Z direction (B) shows a mesh viewed in an oblique direction.
  • each vertex of the mesh it is a view showing a mesh that is set to use the reference image when the application operation 20 times of the formula (7) and (8), (a) is the Z direction (B) shows a mesh viewed in an oblique direction.
  • each vertex of the mesh is a view showing a mesh that is set to use a reference image when applying 30 times the calculation of Expression (7) and (8),
  • (a) is the Z direction
  • (B) shows a mesh viewed in an oblique direction.
  • each vertex of the mesh is a view showing a mesh that is set to use a reference image when applying 60 times the calculation of Expression (7) and (8),
  • (a) is the Z direction
  • (B) shows a mesh viewed in an oblique direction.
  • FIG. 15 is a screen view showing an example when a makeup element image is combined with an image in which polygons overlap.
  • Fig. 16 is a diagram showing a mesh set in a face area of a use reference image.
  • FIG. 17 is a drawing showing a mesh set in a face area of a frame image.
  • FIG. 19 is a drawing showing an example of an image synthesized by the synthesizing unit.
  • FIG. 20 is a block diagram showing a detailed configuration of a reference position detection unit.
  • FIG. 21 is a flowchart showing an operation of a reference position detection unit.
  • FIG. 22 is a view showing an image subjected to morphological processing.
  • FIG. 23 is a drawing showing left and right eye correlation value filters, where (a) shows a left eye correlation value filter and (b) shows a right eye correlation value filter.
  • FIG. 24 is a drawing showing a global pattern image and left and right eye local pattern images, where (a) shows a global pattern image and (b) shows left and right eye local pattern images.
  • FIG. 25 is a drawing showing an example of a face image, where (a) shows a case where the face is not tilted, and (b) shows a case where the face is tilted and bent.
  • FIG. 26 is a drawing showing an example of left and right eye correlation value images, where (a) shows a left eye correlation value image and (b) shows a right eye correlation value image.
  • FIG. 27 Drawings showing left and right eye correlation value images moved by a moving unit, (a) showing a left eye correlation value image, and (b) showing a right eye correlation value image.
  • FIG. 28 Drawings showing processing results obtained by a maximum value filter. Shows the right eye correlation value image that has been! / Puru.
  • FIG. 29 is a drawing showing a face center evaluation image.
  • FIG. 30 is a drawing showing a composite image that has been subjected to a filtering process using a face center evaluation image.
  • FIG. 31 is a functional block diagram of the makeup simulation apparatus in a reference image creation mode.
  • FIG. 32 is a flowchart showing the operation of the makeup simulation apparatus in the reference image creation mode.
  • FIG. 1 is a perspective view of a makeup simulation apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing one hardware configuration.
  • the simulation system shown in FIG. 1 is composed of a normal computer, and has an input device 1, a ROM (read only memory) 2, a CPU (central processing unit) 3, a RAM (random access memory) 4, and the like. , An external storage device 5, a display device 6, a recording medium drive device 7, and an input / output interface (IZF) 9. Each block is connected to an internal bus, through which various data is input / output, and under the control of the CPU 3, various processes are executed.
  • ROM read only memory
  • CPU central processing unit
  • RAM random access memory
  • An external storage device 5 a display device 6, a recording medium drive device 7, and an input / output interface (IZF) 9.
  • Each block is connected to an internal bus, through which various data is input / output, and under the control of the CPU 3, various processes are executed.
  • the input device 1 is composed of a keyboard, a mouse, a pen tablet, and the like, and is used by an operator to input various data, operation commands, and the like.
  • ROM2 uses the BIOS (Basic
  • the RAM 4 is used as a work area of the CPU 3 and the like.
  • the external storage device 5 is constituted by a hard disk drive or the like, and stores a predetermined OS (Operating System), a makeup simulation program described later, and the like.
  • OS Operating System
  • a makeup simulation program described later and the like.
  • the display device 6 includes a liquid crystal display device, a CRT (cathode ray tube), and the like, and displays various images under the control of the CPU 3.
  • a CRT cathode ray tube
  • the recording medium drive 7 includes a CD-ROM drive, a flexible disk drive, and the like.
  • a computer readable recording medium 8 such as a CD-ROM or a flexible disk for recording a makeup simulation program is loaded into a recording medium drive 7 and installed, so that the makeup simulation program is externally provided. It is stored in the storage device 5.
  • the makeup simulation program may be stored in a WEB server connected to the Internet, and the WEB server may download the makeup simulation program to install the makeup simulation program on the computer.
  • a computer acquires a moving image of a face, transmits the image to a web server, executes a simulation process on the web server, and transmits the processing result to a personal computer. And a computer to distribute and execute the makeup simulation program.
  • the video camera 10a is connected to a bus line via an input / output interface (I / F) 9, For example, various moving images are acquired at a predetermined frame rate by a CCD area sensor, and output to a computer.
  • I / F input / output interface
  • the still image camera 11a is connected to a bus line via the input / output IZF 9, and acquires various still images by, for example, a CCD area sensor and outputs the images to a computer.
  • the present makeup simulation apparatus includes a makeup simulation mode for performing a makeup simulation on a moving image based on a reference image created in advance by a user, and a reference image creation mode for creating the reference image. Have. First, the makeup simulation mode will be described.
  • FIG. 2 shows a functional block diagram of the makeup simulation device in the makeup simulation mode.
  • the present simulation system includes a reference image acquisition unit 10, a first image creation unit 20, a second image creation unit 30, a target image acquisition unit 40, a mesh setting unit 50, an image transformation unit 60, and a synthesis unit 70. , And a display unit 80. These functions are realized, for example, by the CPU 3 executing a makeup simulation program.
  • the reference image acquisition unit 10 includes a reference image storage unit 11, an operation unit 12, an initial setting unit 13, and a reference image storage unit 14 to be used.
  • the reference image storage unit 11 is composed of the external storage device 5 and stores one or more types of reference images created in the reference image creation mode.
  • the reference image is composed of N (N is a positive integer) layer images and one face image.
  • the face image is an image obtained by photographing a certain person with the still image camera 11a.
  • Each layer image includes one type of makeup element image.
  • the makeup element image is an image indicating the shape and color of each makeup element such as lipstick, teak, eyeshadow, and the like.
  • the makeup element image is an image drawn by the user using drawing software such as Photoshop (registered trademark) by operating the input device 1.
  • drawing software such as Photoshop (registered trademark) by operating the input device 1.
  • one layer image is created each time one type of makeup element image is created, so the layer image contains one type of makeup element image.
  • one color is set for one type of makeup element image.
  • Each pixel of the layer image is composed of a color component composed of R (red), G (green), and B (blue) values, and transparency. Since one type of makeup element image also has one color strength, the color components of one layer image have the same R, G, and B values in all pixels. That is, the color component of one layer image is represented by one type of R, G, and B values.
  • the transparency indicates the mixing ratio of the layer image to the face image.
  • the transparency shows the maximum value (100%)
  • only the layer image is displayed and the face image is not displayed.
  • the transparency shows the minimum value (0%)
  • the layer image is not displayed and only the face image is displayed.
  • the transparency of a certain pixel in the i (l ⁇ i ⁇ n) -th layer image is a
  • the transparency of the corresponding pixel in the face image is 1a.
  • the transparency is set according to the locus of the pen tablet, the pen pressure, and the like when the makeup element image is drawn.
  • the face image is composed of color component powers of R, G, and B values.
  • the color component of each pixel of the face image differs from the layer image, and has different R, G, and B values for each pixel.
  • the transparency of the face image itself is not set, but the transparency of the face image is defined by the transparency of the n layer images.
  • the operation unit 12 is composed of the input device 1, and is used by a user to input various operation commands.
  • the initial setting unit 13 performs a makeup simulation from a plurality of types of reference images stored in the reference image storage unit 11 based on an operation command from the user input via the operation unit 12.
  • the set reference image is stored in the use reference image storage unit 14 as a use reference image.
  • the layer images are deleted from the use reference images, and the use reference images are updated.
  • the use reference image has n (n ⁇ N) layer image powers.
  • the use reference image storage unit 14 includes the RAM 4 and stores the use reference image.
  • the first image creation unit 20 includes a transparency layer image creation unit 21, a transparency normalization unit 22, And a regular layer transparency image storage unit 23.
  • the transparency layer image creation unit 21 creates n transparency layer images corresponding to each of the n layer images based on the transparency of each pixel constituting the layer image. Since the layer image has different transparency for each pixel, it can be considered that the transparency layer image is an image in which the makeup element image is displayed in shades according to the transparency.
  • the transparency normalization unit 22 normalizes each pixel by performing the operation of Expression (1) on each pixel of the transparency layer image created by the transparency layer image creation unit 21. Create a transparentized layer image. Further, the transparency normalizing unit 22 normalizes the transparency of the face image by performing the operation of Expression (2) on each pixel of the face image.
  • a i indicates the transparency of each pixel of the transparency layer image of the i-th layer. Indicates the transparency of each pixel of the normalized transparency layer image.
  • y indicates the transparency of each pixel of the normalized face image.
  • the denominator of Equations (1) and (2) indicates the sum of the transparency of the transparency layer images at certain pixels in the 1st to nth layers.
  • the normalized transparency layer image storage unit 23 is composed of the RAM 4, and stores the normalized transparency layer image created by the transparency normalization unit 22 and the transparency of the face image.
  • the second image creation unit 30 includes a color layer creation unit 31, a color conversion processing unit 32, and a color conversion layer image storage unit 33.
  • the color layer creating section 31 creates n color layers corresponding to each of the n layer images based on the color components set in the layer images. Since the color components of the layer image are composed of one type of R, G, B value, One is data composed of one type of R, G, and B values.
  • the color conversion processing unit 32 converts the R, G, and B values of each pixel constituting one frame image extracted by the frame image extraction unit 42 into the HSV color system, After converting each R, G, B value of the color layer 1 into the HSV color system, the color conversion processing shown in Equation (3) -Equation (5) is executed, and the obtained image is further subjected to R, G, B Creates n color conversion layer images by converting to the B color system.
  • the HSV color system is a color system in which each pixel is represented by components of hue (H), saturation (S), and intensity (V).
  • V 0.8 XV + 0.2 XV... Equation (5)
  • H, S, and V indicate the H, S, and V values of the color layer, and S and V indicate the image with the frame image c c c f f
  • the color conversion layer image storage unit 33 is composed of the RAM 4 and stores n color conversion layer images created by the color conversion processing unit 32.
  • the target image acquisition unit 40 includes a moving image acquisition unit 41 and a frame image extraction unit 42.
  • the moving image acquisition unit 41 includes the moving image camera 10a, and acquires a moving image of a human face.
  • the human being as the subject is the human to whom the makeup simulation is applied, and may be the same person as the model of the use reference image or a different person.
  • the frame image extracting unit 42 sequentially extracts one frame image from the moving image acquired by the moving image acquiring unit 41.
  • the mesh setting unit 50 includes vertex extracting units 51 and 52, an initial mesh storage unit 53, and vertex moving units 54 and 55.
  • the vertex extraction unit 51 includes a reference position detection unit 511 and a feature point extraction unit 512.
  • the reference position detection unit 511 detects a space between eyebrows in a face area of a face image included in the use reference image as a reference position.
  • the feature point extracting unit 512 extracts a feature point from the used reference image using the reference position detected by the reference position detecting unit 511.
  • the characteristic points are points indicating predetermined characteristic parts of the face, such as the pupil, the front of the eyebrow, the front of the eye, the outer corner of the eye, the head of the nose, and the base of the upper and lower lips.
  • the vertex extraction unit 52 includes a reference position detection unit 521 and a feature point extraction unit 522.
  • the reference position detection unit 521 detects, as a reference position, the space between the eyebrows in the face area of the frame image extracted by the frame image extraction unit 42.
  • the feature point extracting unit 522 extracts a feature point from the frame image using the reference position detected by the reference position detecting unit 521 in the same manner as the feature point extracting unit 512.
  • the initial mesh storage unit 53 stores an initial mesh that is a prototype of a mesh set in a human face area. This initial mesh is created in advance based on a human face image, and each vertex of the mesh is set in the face region so that the vertices of some meshes are located at the feature points. I have.
  • feature vertices among the vertices of the initial mesh, the vertices located at the feature points are referred to as “feature vertices”, and the vertices of the mesh other than the feature vertices are referred to as “floating vertices”.
  • triangular polygons are used as polygons constituting the mesh. However, the present invention is not limited to this, and polygons such as quadrilaterals and pentagons may be used.
  • the initial mesh a mesh created using Metasequoia, which is shareware, is used.
  • the vertex moving unit 54 After moving the feature vertices of the initial mesh to the corresponding feature points extracted from the reference image for use, the vertex moving unit 54 keeps the distance between the vertices of the initial mesh constant (length constraint). ), And move the floating vertices according to the movement amount of the feature vertices so as to satisfy the constraint that the polygons constituting the mesh do not overlap, and set the mesh in the face area of the face image of the reference image to be used. . The details of the movement of each vertex of this mesh will be described later.
  • the vertex moving unit 55 sets a mesh in the face area of the frame image by the same method as the vertex moving unit 54.
  • the image transformation unit 60 includes a coordinate calculation unit 61, a coordinate conversion table storage unit 62, and a makeup element image transformation unit 63.
  • the coordinate calculation unit 61 calculates the difference vector of each vertex from the difference between the positions of the corresponding vertices between the mesh set in the face region of the frame image and the mesh set in the face region of the face image of the reference image for use. Is calculated, and a coordinate conversion table is created in which each vertex of the mesh is associated with a difference vector of each vertex.
  • the coordinate conversion table storage unit 62 is composed of the RAM 4, and stores the coordinate conversion table created by the coordinate calculation unit 61.
  • the makeup element image deforming unit 63 sets the mesh set as the use reference image for each of the n normalized transparency layer images, and converts each vertex of the set mesh into a coordinate conversion table. Are moved by the difference vector described in (1), and the makeup element images in the n regularity transparency layer images are deformed.
  • the synthesizing unit 70 determines the transparency ( ⁇ above) of each pixel of the n sheets of the normalization transparency layer image including the makeup element image deformed by the makeup element image deformation unit 63 by using the value of each pixel of the color conversion layer image.
  • the normalized transparency of each pixel of the face image ( ⁇ above) is used as the alpha value of each pixel of the frame image, and the frame image and the ⁇ color conversion layer images are obtained by alpha blending. Combine. Note that alpha blending is represented by equation (6).
  • the C vector indicates the R, G, and B values after synthesis.
  • the C vector indicates the R, G, and B values of each pixel in the frame image.
  • the C vector indicates the R, G, and B values of each pixel of the color conversion layer image.
  • is represented by equation (1)
  • is represented by equation (2).
  • the display unit 80 includes the display device 6, and displays an image synthesized by the synthesizing unit 70, that is, a moving image of a virtually makeup-applied face.
  • the first image creation unit 20 corresponds to a first image creation unit
  • the second image creation unit 30 corresponds to a second image creation unit
  • a frame image extraction unit The unit 42 corresponds to the target image acquiring unit
  • the mesh setting unit 50 corresponds to the mesh setting unit
  • the image deforming unit 60 corresponds to the image deforming unit
  • the combining unit 70 corresponds to the combining unit
  • the reference image for use Corresponds to the reference image.
  • step S1 the initial setting unit 13 determines one type of reference image selected by the user as a use reference image, and stores it in the use reference image storage unit 14. This In this case, the list image of the reference images stored in the reference image storage unit 11 is displayed on the display unit 80 by the initial setting unit 13. Then, the reference image clicked from the list image by the user is determined as the use reference image.
  • the initial setting unit 13 sets Delete the layer image in use reference image and update the use reference image. At this time, the updated use reference image is displayed on the display unit 80.
  • the value of the color component of the layer image is designated. Is changed to the specified color value, and the use reference image is updated. At this time, the updated use reference image is displayed on the display unit 80.
  • the user After clicking on the makeup element image included in the use reference image displayed on display unit 80, the user selects a desired color from a color palette for specifying the color displayed on display unit 80. Clicking on the color changes the color of the drama element image.
  • step S2 the transparency layer image creation unit 21 reads out the use reference images from the use reference image storage unit 14 and reads n reference images corresponding to each of the n layer images included in the read use reference images. Create a transparency layer image of.
  • step S3 the color layer creating unit 31 reads the use reference image from the use reference image storage unit 14, and selects n colors corresponding to each of the n layer images included in the read use reference image. Create a layer.
  • step S4 the transparency layer image creation unit 21 applies Equation (1) to each of the n transparency layer images to normalize the transparency of each pixel constituting each transparency layer image.
  • N normalized transparency layer images are created, and the transparency of each pixel constituting the face image included in the reference image is normalized using equation (2).
  • FIG. 5 is a diagram for explaining Expression (1) and Expression (2).
  • FIG. 5 shows a band graph corresponding to each of the layers 1 to n.
  • Each band graph includes the transparency ai of the i-th hierarchy transparency layer image and the transparency ( ⁇ ) of the i-th hierarchy face image. —Ai) is shown.
  • the band R1 on the right side of the band graph of layer 1 the first layer of the transparency layer The transparency of the image is shown, and in the region R2 on the left side, the transparency of the face image of the first hierarchy is shown.
  • each band graph indicates the ratio of the transparency ⁇ of each transparency layer image to the sum of the transparency a-a of the transparency layer images up to the first hierarchical power and the nth hierarchy.
  • FIG. 6 is a diagram for explaining a feature point extraction process.
  • ME1-4 indicate makeup element images.
  • the eyebrows RP are detected from the face image.
  • step S6 shown in FIG. 3 the feature point extracting unit 522 converts the face area included in the use reference image from the face image included in the use reference image using the method described in JP-A-2003-44837. , A hair region indicating a person's hair and a face region indicating a person's face are extracted. In this case, as shown in FIG. 6, a background area BC, a hair area HC, and a face area FC are extracted.
  • step S7 shown in FIG. 3 feature point extraction section 522 performs edge extraction processing on the face region extracted from the face image included in the use reference image, and extracts the extracted edge and the previously detected eyebrow interval.
  • the relationship with the RP also specifies the contours of face parts such as the face and eyes. In this case, as shown in FIG. 6, a face outline El, eyebrow outline E2, eye outline E3, and mouth outline E4 are specified.
  • step S8 shown in FIG. 3 feature point extraction section 512 detects feature points from the identified faces E1 to E4 of the face, eyebrows, eyes, and mouth.
  • eight feature points P11 to P18 are detected by detecting an inflection point of the inclination.
  • the feature points are collectively referred to, they are represented as feature points TP.
  • the contour E2 of the eyebrow the positions of the eyebrow tail and the eyebrow head are detected as feature points P21 and P22 by detecting the end.
  • the edge and the outer The head position is detected as feature points P31 and P32.
  • the bases of the upper lip and the lower lip are detected as the feature points P41 and P42 by detecting the ends.
  • the outline of the face part to be detected is not limited to the outlines E1 to E4 of the face, eyebrows, eyes, and mouth, and another outline of the face part, for example, the nose may be specified.
  • the contour of any one of the above four types of face parts may be omitted.
  • the feature points are not limited to those shown in FIG. 6, and other feature points may be detected, or some of the illustrated feature points may be omitted.
  • step S9 shown in FIG. 3 vertex moving section 54 moves the feature vertices of the initial mesh to the corresponding feature points of the reference image to be used.
  • FIG. 7 is a diagram showing an example of the initial mesh. As shown in FIG. 7, the initial mesh also includes a plurality of triangular polygon forces. Each vertex of the initial mesh is composed of a feature vertex TP 'and a floating vertex FP'.
  • the feature vertex TP ' is located on the contours E1'-E4' of the face, eyebrows, eyes, and mouth.
  • Characteristic vertices P21 'and P22' are set on the contour E2 'of the eyebrow, and are set at the positions of the eyebrow tail and eyebrow head, respectively.
  • Feature vertices P31 'and P32' are set on the eye contour E3 ', and are set at the outer and inner corners of the eye, respectively.
  • Feature vertices P41 'and P42' are set on the mouth contour E4 ', and are set at the bases of the upper and lower lips, respectively.
  • the vertex moving unit 54 superimposes this initial mesh on the use reference image shown in FIG. 6, and moves the feature vertex TP ′ of the initial mesh to the corresponding feature point TP of the use reference image.
  • the vertex moving unit 54 gives a fixed height component (Z component) to the floating vertex FP 'of the initial mesh to generate three-dimensional data, and calculates the equations (7) and (8) for the floating vertex FP'.
  • the floating vertex FP ' is moved by repeatedly applying the operation of).
  • a mesh that satisfies the above-described length constraint and does not cause overlapping of the polygons constituting the mesh is set for the use reference image.
  • the P. vector indicates the coordinates of the vertices of the mesh.
  • the P vector indicates the coordinates of the vertices of the mesh adjacent to the P vector.
  • the P ′ vector indicates the operated 1 ⁇ vector.
  • the vector indicates the operated P vector. 1 indicates the length of a line segment connecting the P vector and the P vector in the initial mesh. ⁇ indicates a constant value.
  • Fig. 8 shows that the feature vertex TP 'of the initial mesh is moved to the corresponding movement target position of the use reference image, and is set in the use reference image immediately after a certain height component is given to the floating vertex FP'. It is a figure which showed the mesh, (a) has shown the mesh of the Z direction view, and (b) has shown the mesh of the diagonal direction view. It can be seen that each floating vertex FP 'is shifted by a certain distance in the Z direction as shown in (b). Also, it can be seen that each feature vertex is located on the XY plane. Then, the mesh setting unit 50 sequentially applies the operations of Expressions (7) and (8) to each vertex.
  • FIG. 9 is a diagram showing a mesh set as a reference image to be used when the operations of Expressions (7) and (8) are applied once to each vertex shown in FIG. ( a ) shows a mesh viewed in the Z direction, and (b) shows a mesh viewed in the oblique direction.
  • FIG. 9 (b) it can be seen that the value of the Z component of each floating vertex FP 'is slightly smaller than that in the case of FIG. 8 (b).
  • FIG. 9 (a) it can be seen that the overlapping of the polygons constituting the mesh is slightly improved at each floating vertex FP 'as compared with the case of FIG. 8 (b).
  • FIG. 10 FIG. 14 show that the operations of Expressions (7) and (8) are performed five, ten, twenty, and thirty times for each floating vertex FP ′ shown in FIG. 8, respectively.
  • FIG. 15 is a diagram showing a mesh set in a use reference image when applied 60 times.
  • (a) shows a mesh in the Z direction
  • (b) shows a mesh in an oblique direction. 3 shows the mesh of the.
  • Fig. 10 (b)-Fig. 14 (b) when the number of times of applying equations (7) and (8) to each vertex is increased, the height of each floating vertex FP ' As the values of the components decrease as a whole, and the mesh obtained when the operation of equation (5) shown in FIG.
  • the initial mesh is deformed so as to satisfy the length constraint in the image plane without introducing the height, the positional relationship between the vertices of the mesh before deformation is maintained to some extent in a well-balanced manner. It is also possible to set a mesh in the face area with.
  • FIG. 15 is a screen diagram showing an example when a makeup element image is combined with an image in which polygons forming a mesh overlap.
  • the outline K1 of the lipstick does not follow the shape of the lip, and that the lipstick K2 protrudes from the lips.
  • the makeup element image is unnaturally synthesized with the face image.
  • the vertex moving unit 54 gives a height component to each vertex, and calculates the position of the floating vertex three-dimensionally using Expressions (7) and (8), so that the use reference image is obtained.
  • the mesh is prevented from being set to overlap.
  • FIG. 16 is a diagram showing a mesh set in the face area of the use reference image. As shown in FIG. 16, it can be seen that the mesh is set in a well-balanced manner in the face region where the polygons constituting the mesh do not overlap. In addition, it can be seen that the vertices of the mesh are located on the contours E1 to E4 of the face, eyebrows, eyes, and mouth.
  • step S10 shown in FIG. 3 moving image acquisition section 41 acquires a moving image of a person's face.
  • the frame image extracting unit extracts one frame image from the moving image acquired by the moving image acquiring unit 41.
  • the frame image extracting unit 42 may extract frame images one by one, or may extract the frame images at a predetermined frame interval.
  • the reference position detection unit 521 detects the eyebrows between the frame images in the same manner as in step S5.
  • FIG. 17 is a diagram showing a mesh set in the face area of the frame image. It can be seen that the direction of the face of the frame image shown in FIG. 17 has changed with respect to the use reference image shown in FIG. In this case, an eyebrow RP is detected as shown in FIG.
  • step S13 the feature point extraction unit 522 extracts the background area BC, the hair area HC, and the face area FC from the face area of the frame image in the same manner as in step S6.
  • step S14 the feature point extraction unit 522 performs edge extraction processing on the face region of the frame image in the same manner as in step S7, and specifies the contours E1 to E4 of the face, eyebrows, eyes, and mouth (see FIG. See 17).
  • step S15 the feature point extracting unit 522 also extracts feature points TP (omitted in FIG. 17) from the identified face, eyebrow, eye, and mouth contours E1-E4 in the same manner as in step S8.
  • step S16 the vertex moving unit 54 moves the characteristic vertex TP of the initial mesh to the characteristic point TP of the frame image as in step S9.
  • the vertex moving unit 54 moves the characteristic vertex TP of the initial mesh to the characteristic point TP of the frame image as in step S9.
  • meshes are set in a well-balanced manner in the face region so that polygons do not overlap.
  • step S17 the coordinate calculation unit 61 calculates the difference between the positions of the corresponding vertices of the mesh set in the use reference image and the mesh set in the frame image, creates a coordinate conversion table, It is stored in the coordinate conversion table storage unit 62. This coordinate conversion table is updated for each frame image.
  • step S18 makeup element image deformation section 63 deforms the makeup element image included in the normalized transparency layer image with reference to the coordinate conversion table.
  • FIGS. 18A and 18B are diagrams showing a state in which the makeup element image is deformed, wherein FIG. 18A shows the state before deformation and FIG. 18B shows the state after deformation.
  • the polygon PR1 on which the makeup element image G1 is drawn is transformed into a polygon PR2 as shown in FIG. 18B, and accordingly, the makeup element image G1 is transformed into the makeup element image G2. Is transformed into
  • step S19 shown in FIG. 4 the color conversion processing unit 32 applies the expression (3) to the frame image extracted in step S11 and the color layer created by the color layer creation unit 31. ) Apply the color conversion processing shown in the set (5) to create n color conversion layer images. The created n color conversion layer images are stored in the color conversion layer image storage unit 33.
  • step S20 the synthesizing unit 70 synthesizes the frame image and the color conversion layer image created by the color conversion processing unit 32 using Expression (6).
  • Equation (9) Equation (11) shows a general equation of alpha blending.
  • the Cr vector indicates the R, G, and B values of each pixel after synthesis.
  • the C vector is the reference image f
  • Equation (9) shows the case where one color conversion layer image is combined with the face image
  • Equation (10) shows the case where two color conversion layer images are combined with the face image
  • Equation (11) Shows a case where n color conversion layer images are combined with a face image. If the order of the color conversion layers is changed as shown in equation (11), the second term of equation (11) will have a different value according to the change, and the value of the C vector will be changed to the order of the color conversion layers. It depends.
  • the present simulation system uses the transparency ⁇ and the face ⁇ of each pixel of the normalized transparency layer image so that the value of the C vector is the same even if the order of the color conversion layer image is changed.
  • the transparency 1 ⁇ of each pixel of the image is normalized using Expressions (1) and (2) to obtain ⁇ and ⁇ .
  • is the alpha value of the color conversion layer image
  • is the face image The alpha value of the image, preventing the value of the C vector from being dependent on the order of the layers
  • step S21 the display unit 80 displays the image combined by the combining unit 70.
  • FIG. 19 is a diagram showing an example of an image synthesized by the synthesizing unit 70. As shown in FIG. 19, it can be seen that the iridescent element images ME1 to ME4 shown in FIG. 6 are deformed so as to conform to the change of the face, and are displayed on the frame image without any discomfort. Note that makeup element images ME1 to ME4 shown in FIGS. 6 and 17 are merely examples, and may include other makeup element images or may omit any of the makeup element images.
  • step S22 shown in FIG. 4 the frame image extracting unit 42 determines whether or not the extraction of all frame images is completed, and determines whether the extraction of all frame images is completed (YES in step S22). ), The process ends. On the other hand, in step S22, if the extraction of all frame images is completed, if not (NO in step S22), the next frame image is extracted (step S23), and the process returns to step S12.
  • the makeup element image included in the reference image created in advance by the user is deformed to match the frame image. Since it is displayed on the frame image, the user simply performs a simplified operation such as operating an operating device such as a tablet, and the like. Images can be obtained at high speed.
  • the reference image power is set such that a part of the makeup element image is deleted or a color of the makeup element image is changed. Can be easily performed.
  • the transparency of each pixel of the transparency layer image and the transparency of each pixel of the face image are normalized, alpha blending can be performed without depending on the order of the layers. Furthermore, since the mesh is set in the face area of the reference image and the frame image so as to satisfy the length constraint of the initial mesh and prevent the polygons constituting the mesh from overlapping, the makeup element image is displayed on the frame image. This makes it possible to display in a natural state without discomfort.
  • FIG. 20 is a block diagram illustrating a detailed configuration of the reference position detection units 511 and 521.
  • the reference position detection unit 511 includes a morphology processing unit 101, a resolution reduction processing unit 102, a correlation value image generation unit 103, a movement unit 104, a superimposition unit 105, and a detection unit 106.
  • the morphology processing unit 101 performs a filtering process using a maximum value filter on a frame image, performs a filtering process using a minimum value filter, subtracts the corresponding frame image from the obtained image, and converts the morphology image.
  • the filter processing using the minimum value filter is a process of employing the minimum luminance as the luminance of the target pixel in the target pixel and eight neighboring pixels surrounding the target pixel.
  • the resolution reduction processing unit 102 divides the morphological image into blocks each having a pixel power in a predetermined row and a predetermined column, and sets a representative value such as an average value or a median value of pixel data of each block as brightness of each block. A resolution lowering process is performed to lower the resolution of the morphological image.
  • the correlation value image generation unit 103 performs a filtering process using a left eye correlation value filter on the morphology image having the reduced resolution, and generates a left eye correlation value image indicating a correlation with the left eye local pattern image.
  • the morphological image that has been subjected to the resolution reduction process is also subjected to a filter process using a right-eye correlation value filter to generate a right-eye correlation value image indicating a correlation with the right-eye local pattern image. .
  • the moving unit 104 converts the region indicating the left eye in the left eye correlation value image and the right eye correlation value image into! Then, the left-eye correlation value image and the right-eye correlation value image are moved by a predetermined distance in a predetermined direction so that the region indicating the right eye is moved between the eyebrows.
  • the superimposing unit 105 performs a filtering process using a maximum value filter on the right-eye correlation value image and the left-eye correlation value image moved by the moving unit 104, and then performs the corresponding pixel processing. By multiplying the correlation value, the right eye correlation value image and the left eye correlation value image are superimposed to form one composite image. The superimposing unit 105 multiplies the composite image by the face center evaluation image.
  • Detecting section 106 detects an area in which the luminance is higher than a predetermined value in the composite image, and detects the coordinates of the center of the area as the eyebrows. (Operation of Reference Position Detection Unit)
  • the reference position detection unit 521 performs the same processing as the reference position detection unit 511 except that the processing target is a frame image, and thus the description of the reference position detection unit 521 is omitted.
  • step S201 the morphology processing unit 101 performs morphology processing on a face image.
  • a face image an image indicating a characteristic portion of the face such as the contour of the eye, the nose muscle, the eyebrows, and the lips is extracted from the face image.
  • a black portion indicates high luminance
  • a white portion indicates low luminance.
  • FIG. 22 is displayed in black and white binary, it is actually a grayscale image.
  • step S202 the resolution reduction processing unit 102 performs a resolution reduction process on the morphological image.
  • step S203 the correlation value image generation unit 103 performs a filtering process using the left and right eye correlation value filters on the correlation value image having the reduced resolution, and performs a left eye correlation value image and a right eye correlation Generate a value image.
  • FIGS. 23A and 23B are diagrams showing left and right eye correlation value filters.
  • FIG. 23A shows a left eye correlation value filter
  • FIG. 23B shows a right eye correlation value filter.
  • the left and right eye correlation value filters have a line-symmetric relationship.
  • P is the pixel of interest.
  • the correlation value image generation unit 103 sets each pixel of the morphology image on which the resolution reduction processing has been performed as a target pixel, and uses the left and right eye correlation value filters to obtain Max (P, Q) ⁇ 5 ⁇ (A + B + C + D + E) ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ .
  • This filter is a filter that detects an area having a higher luminance than the surrounding area.
  • FIG. 24 is a drawing showing a global pattern image and left and right eye local pattern images, where (a) shows a global pattern image and (b) shows a left and right eye local pattern image.
  • O shown in the global pattern image GP indicates the center of the global pattern image, and corresponds to the eyebrows.
  • Ol and 02 shown in the left and right eye local pattern images RP1 and RP2 correspond to the centers of the pupils of the left and right eyes.
  • FIG. 25 is a drawing showing an example of a face image.
  • FIG. 25 (a) shows a case where the face is not tilted
  • FIG. 25 (b) shows a case where the face is tilted! /
  • the global pattern image GP is used as a reference image
  • a region R1 including both eyes is detected from the face images shown in (a) and (b) by pattern matching, and eyebrows are detected based on the detected region R1.
  • the image processing apparatus separates the global pattern image GP into the left and right eye local pattern images RP1 and RP2, and detects both images individually, so that the face image can be tilted and tilted. Also makes it possible to detect the eyebrows.
  • FIG. 26 is a drawing showing an example of left and right eye correlation value images, where (a) shows a left eye correlation value image and (b) shows a right eye correlation value image.
  • the correlation value is indicated by the color depth, and the higher the color, the higher the correlation value.
  • the correlation value of the region R3 corresponding to the left eye is calculated to be high.
  • the correlation value of the region R4 corresponding to the right eye is calculated to be high.
  • step S204 shown in FIG. 21 the moving unit 104 adds the difference vector D1 shown in FIG. 24 to the coordinates of each pixel of the left eye correlation value image to convert the left eye correlation value image into a difference vector D1.
  • the right eye correlation value image is moved by the difference vector D2 by adding the difference vector D2 shown in FIG. 24 to the coordinates of each pixel of the right eye correlation value image.
  • the difference vector Dl is a vector starting from the center O of the global pattern image GP and the center Ol of the area Ml and ending at the center O of the global pattern image GP. Is a vector starting from the center 02 of the global pattern image GP and ending at the center O of the global pattern image GP.
  • the difference vectors Dl and D2 can be determined by the relative positional relationship of the left and right eye local pattern images RP1 and RP2 with respect to the global pattern image GP, the difference vectors Dl and D2 are stored in advance in the storage device. It is stored in
  • FIG. 27 is a drawing showing the left and right eye correlation value images moved by the movement unit 104, where (a) shows the left eye correlation value image and (b) shows the right eye correlation value image. ing. As shown in (a), it can be seen that the region R3 indicating the left eye has been moved to a position corresponding to the space between the eyebrows. Further, as shown in (b), it can be seen that the region R4 indicating the right eye has been moved to a position corresponding to the space between the eyebrows.
  • step S205 shown in FIG. 21 the superimposing unit 105 performs filtering by a maximum value filter on the left eye correlation value image shifted by the difference vector D1 and the right eye correlation value image shifted by the difference vector D2.
  • FIGS. 28A and 28B are diagrams showing processing results by the maximum value filter, in which FIG. 28A shows a left-eye correlation value image subjected to the filtering processing by the maximum value filter, and FIG. 3 shows a right eye correlation value image.
  • FIGS. 28 (a) and (b) in FIGS. 27 (a) and (b), the range of the regions R3 and R4 indicating the left and right eyes is increased to regions R5 and R6, The areas R3 and R4 showing the right eye overlap more reliably! I understand that.
  • step S206 shown in FIG. 21 the superimposing unit 105 multiplies the correlation values of the corresponding pixels of the left and right correlation value images and superimposes both images to generate one composite image.
  • the image is multiplied by the face center evaluation image (step S207), and a process of increasing the correlation value near the position corresponding to the space between the eyebrows in the composite image is performed.
  • the difference between the correlation values with the images other than the images showing the left and right eyes appears remarkably.
  • FIG. 29 is a drawing showing a face center evaluation image.
  • the face center evaluation image is an elliptical image in which the major axis is set to be parallel to the vertical direction, and the luminance increases as the color becomes darker.
  • This ellipse assumes the shape of the face, and corresponds to the position between the eyebrows. Has the maximum brightness, and the brightness increases from the periphery toward the position corresponding to the space between the eyebrows.
  • FIG. 30 is a drawing showing a composite image that has been subjected to the filtering process using the face center evaluation image. As shown in FIG. 30, it can be seen that images other than the images corresponding to the left and right eyes have been removed.
  • step S208 the detection unit 106 determines whether or not there is an area in the composite image that has been subjected to the filtering process using the face center evaluation image, where the correlation value is higher than a predetermined value. If there is a region larger than the value of (YES in step S208), the position of the center of the detected region is detected as the eyebrows (step S209). On the other hand, if it is a force that cannot detect an area where the correlation value is larger than the predetermined value (NO in step S208), it is determined that a force between the eyebrows cannot be detected, and the process ends. Note that, when detecting a plurality of regions having a high correlation value, the detecting unit 106 determines that the region between the eyebrows is not included, or sets the center of the region having the highest average luminance value as the region between the eyebrows.
  • the left and right correlation value images indicating the correlation with the left and right eye local pattern images RP1 and RP2 are obtained by the filter processing using the left and right correlation value filters. Has been generated.
  • an image indicating the correlation with the entire global pattern image GP is generated, even if the face image undergoes deformation such as rotation, enlargement, reduction, etc., the correlation can be increased.
  • the correlation value image shown in FIG. Then, both images are moved by the difference vectors Dl and D2, filtered by the maximum value filter, and superimposed. As a result, even when the face image is deformed, it is possible to obtain a composite image showing a high correlation at a position corresponding to the space between the eyebrows. Therefore, the eyebrows can be detected at high speed and with high accuracy.
  • FIG. 31 is a functional block diagram of the makeup simulation apparatus in the reference image creation mode.
  • the makeup simulation device in the reference image creation mode includes a reference image storage unit 11, a still image acquisition unit 301, an operation unit 302, a layer image creation unit 303, a transparency layer image creation unit 304, a color layer creation unit 304, and transparency normalization.
  • Section 306 normalized transparency layer image storage section 307, color conversion processing section 308, color conversion layer image storage section 309, synthesis section 310, display section 311, and reference image creation section. It has a formation section 331122. .
  • the still and still image acquisition unit 330011 is composed of a still and still image camera 1111aa, and becomes the model reference image of the basic reference image. A static still image of the face between humans is acquired and obtained.
  • the operation operation section 330022 is composed of an input / output device 11 and receives various input commands for operation from a user. It is used for sipping. .
  • the relay image generation unit 330033 includes 11 types of cosmetic element elements on a still and still image of a face according to a user's user. Each time an image is drawn, eleven images of the relay ear including the elementary image of the cosmetic element are created. .
  • the relay image is composed of the color components that also have the RR, GG, and BB values, and the transparency of each pixel element as described above. It is composed of lightness. .
  • the transparent lightness indicates the transparent lightness of the relay ear image to the still and still image. .
  • the transparent lightness relay ear image forming unit 330044 is similar to the transparent lightness relay eye image forming unit 2211 shown in FIG. Based on the transparent lightness of the relay ear image, a transparent lightness relay image corresponding to each layer of the relay ear image is created based on the transparent lightness of the relay ear image. Create it. .
  • the color relay layer creation section 330055 is based on the color layer component of the relay layer image image, and is based on the color layer components of the relay layer image. Create color relay layers that correspond to each level of the image hierarchy. .
  • the transparent lightness regularity regularization unit 330066 includes a transparent lightness regularity normalization unit 2222 shown in FIG. Transparency brightness value relay Each pixel of the image is subjected to the arithmetic operation of the above formula ((11)) for each pixel element of the image, and the normalized normalized transparency is obtained. In addition to creating a transparent lightness relay image, an expression ((22)) is applied to each pixel of the still and still image. Is performed to normalize the transparent lightness of each pixel in the still and still image image. .
  • the normal image processing image storage unit 330077 is composed of the RRAAMM44, and is composed of the normal normalization transparent lightness level. The translucent brightness of each pixel of the face image and the normalized face image is stored. .
  • the color conversion / conversion processing unit 330088 similarly to the color conversion / conversion processing unit 3322, outputs the RR, GG, BB values and the static values of the color relay layer in the same manner as the color conversion conversion processing unit 3322.
  • the color conversion conversion relay ear image image storage unit 330099 is composed of the RRAAMM44, and is configured by the color conversion conversion processing unit 330088.
  • the created color / conversion conversion / relay-layer image is stored. .
  • the combining unit 331100 is the same as the combining unit 7700 shown in Fig. 22, and is similar to the combining unit 7700 shown in Fig. 22. And the color value of each pixel in the color-conversion-converted relay-layer image is taken as the Aalulfur value of each pixel in the color-conversion-converted relay-layer image.
  • the display unit 311 includes the display device 6, and displays an image combined by the combining unit 310.
  • the reference image creation unit 312 causes the reference image storage unit 11 to store the layer image created by the layer image creation unit 303 and the still image acquired by the still image acquisition unit 301 as a reference image.
  • step S301 the still image obtaining unit 301 obtains a still image of a human face as a model of the reference image.
  • a still image of a human face as shown in FIG. 6 is obtained.
  • step S302 the layer image creation unit 303 receives a drawing input of a makeup element image by the user via the operation unit 302, and in step S303, receives a drawing input of one type of makeup element image.
  • step S303 receives a drawing input of one type of makeup element image.
  • the layer image creating unit 303 displays the still image acquired by the still image acquiring unit 301 on the display unit 311 and draws a makeup element image on the displayed still image using a pen tablet or the like.
  • the received makeup element image is accepted.
  • the received makeup element image is displayed on display unit 311. Also, whether or not input of one type of makeup element image has been completed is determined by a user's instruction.
  • the display unit 311 displays an image in which a makeup element image represented by transparency and a single color component is simply superimposed on a still image, and the makeup element image is displayed. It is displayed in an unnatural and unnatural state!
  • step S304 when the user inputs an instruction to combine the layer image created in step S303 with a still image (YES in step S304), the process proceeds to step S304.
  • step S304 if the instruction to combine the layer image with the still image is not input in step S304 (NO in step S304), the process proceeds to step S305.
  • step S305 when the user instructs to end the reference creation mode
  • step S305 the process ends.
  • the process proceeds. The process returns to step S302.
  • step S306 the transparency layer image creation unit 304 creates a transparency layer image corresponding to each layer of the layer image based on the transparency of the layer image.
  • step S307 the color layer creation unit 305 creates a color layer corresponding to each layer of the layer image based on the color components of the layer image.
  • step S308 the transparency normalizing unit 306 normalizes the transparency of each pixel of the transparency layer image, creates a normalized transparency layer image, and stores the normalized transparency layer image in the normalized transparency layer image storage unit 307. Then, the transparency of each pixel of the still image is normalized and stored in the normalized transparency layer image storage unit 307.
  • step S309 the color conversion processing unit 308 creates a color conversion layer image corresponding to each layer of the layer image based on the color layer and the still image, and stores it in the color conversion layer image storage unit 309. Let it.
  • step S310 the synthesizing unit 310 synthesizes a still image and a color conversion layer image by alpha blending.
  • step S311 the display unit 311 displays the image combined by the combining unit 310. In this case, at the stage of step S302, an unnatural feeling is displayed on the still image without any discomfort! The makeup element image is displayed on the still image in a natural state without discomfort.
  • step S312 when the user instructs to create a reference image (YES in step S312), the process proceeds to step S313, where reference image creation unit 312 sets the layer image created by layer image creation unit 303.
  • the reference image is created by synthesizing the reference image with the still image acquired by the still image acquisition unit 301, stored in the reference image storage unit 11, and the reference image creation mode is ended.
  • step S312 when the user does not give an instruction to create the reference image
  • step S312 (NO in step S312), and the process returns to step S302.
  • the present invention may employ the following embodiments.
  • the computer was made to function as a computer simulation program by installing the computer simulation program on the computer.
  • the present invention is not limited to this. Make-up simulation device using wear circuit Make it up.
  • the layer image includes one type of makeup element image, but is not limited to this, and may include a plurality of makeup element images with matching color components.
  • a still image was obtained and acquired with the still image camera 1 la, but the present invention is not limited to this, and one frame image of a moving image captured by the moving image camera is taken as a still image. It may be obtained as an image. Thereby, the still image camera 11a becomes unnecessary.
  • a makeup simulation program that causes a computer to execute a makeup simulation using a reference image composed of n (n is a positive integer) layer images and one face image, wherein the reference image is
  • the n layer images are created in advance based on a drawing command of the user's force input through the operating device, and the n layer images each include at least one makeup element image having the same color
  • First image creating means for creating, for each of the layer images, n first images corresponding to each of the n layer images based on the transparency set for each pixel of each layer image
  • a target image obtaining means for obtaining a simulation target image including a face of a person to be simulated; setting a mesh in a face region included in the reference image; Mesh setting means for setting a mesh in the face area included in the target image, calculating a difference between positions of corresponding vertices of the mesh set in each of the reference image and the simulation target image, and based on the calculated difference.
  • Deforming means for deforming the makeup element image included in each of the n first images so as to conform to the face area included in the simulation target image;
  • a second image creating means for executing a predetermined color conversion process using the color components of the layer images to create n second images corresponding to each of the n layer images; Determining the transparency of each of the n second images and the simulation target image based on the n first images, and using the determined transparency to perform the simulation.
  • a computer functioning as synthesizing means for synthesizing the image to be translated and the n second images. According to this configuration, the user can quickly obtain a makeup simulation image in which high-quality makeup is virtually applied by simple operation. In addition, when some makeup element images are deleted from the simulation target image to which makeup is virtually applied, or the colors of some makeup element images are changed, such a change can be easily performed.
  • the first image creating means creates a transparency layer image based on the transparency of each pixel set in the layer image, and sets the transparency of each pixel of the created transparency layer image. It is preferable that the obtained image is used as the first image, and the synthesizing means synthesizes the simulation target image and the second image by alpha blending.
  • the transparency of each pixel of the transparency layer image is normalized, so that the synthesizing unit can generate the same image even if the order of the layer images is changed.
  • the second image creating means converts the color components of each layer image and each color component of the simulation target image from the RGB color system to the HSV color system, and converts the two components. Performing the color conversion processing shown in Equation (A) -Equation (C) on the color components, converting the obtained image from the HSV color system to the RGB color system, and creating the second image. Is preferred.
  • V 0.8 XV + 0.2 XV... Equation
  • H, S, and V indicate the HSV values of the color components of the layer image, and S and V indicate the simulation c c c f f
  • H, S, and V indicate the HSV values of each pixel of the second image.
  • the hue of the makeup element image can be changed while maintaining the lightness' saturation of the simulation target image to some extent, so that the makeup element image can be displayed in a natural state on the simulation target image.
  • the mesh setting means includes an initial mesh storage means for storing an initial mesh composed of each vertex from a characteristic vertex set at a characteristic position of the face and other floating vertices.
  • a face area included in each of the simulation target image and the reference image A reference point detecting means for detecting a predetermined reference position from the simulation target image and a reference point detected from the reference image detected by the reference position detecting means.
  • the feature point extracting means to be extracted and the feature vertices are moved to the corresponding feature points extracted by the feature point extracting means, and the floating vertices are maintained at a distance between vertices of the initial mesh. It is preferable to provide a vertex moving means.
  • the mesh can be set in the reference image and the simulation target image while the positional relationship between the vertices of the initial mesh is maintained in a well-balanced manner.
  • the feature point moving means sets each vertex of the initial mesh as three-dimensional data to which a height component orthogonal to an image plane is given, and gives a constant height component to the floating vertex, It is preferable that the feature vertex is positioned on the image plane, and the floating vertex is moved by applying a predetermined number of operations represented by Expressions (D) and (E) to the respective vertices.
  • the Pi vector indicates the coordinates of the vertices of the mesh
  • the Pj vector indicates the coordinates of the vertices of the mesh adjacent to the vector
  • the p 'vector indicates the p vector on which the operation has been performed
  • the P' vector indicates the Indicates the applied p vector
  • 1 is the p vector and a line j connecting the p vector
  • the reference position detecting means uses the left eye fragment image and the right eye fragment image forming an eye region image that is a region including the left and right eyes and the space between the eyebrows, and uses the reference image and the simulation. It detects each eyebrow gap of the target image as the reference position, generates a left eye correlation value image indicating the correlation between the left eye fragment image and the face, and generates a right eye fragment image and a right eye fragment image.
  • Correlation value image moving means for moving the left eye and right eye correlation value images so that the region showing high correlation in the image and the region showing high correlation in the right eye correlation value image overlap between the eyebrows
  • the correlation value image superimposing means for superimposing the left eye and right eye correlation value images moved by the correlation value image moving means, and the left eye and right eye correlation value images superimposed by the correlation value image superimposing means, It is preferable to include an eyebrow interval detecting means for detecting an interval between eyebrows by detecting an area having a higher correlation value than the value.
  • a left-eye correlation value image indicating the correlation between the left-eye fragment image and the face image constituting the eye region image is generated, and the correlation between the right-eye fragment image and the face image is indicated.
  • a right eye correlation value image is generated.
  • the left-eye and right-eye correlation value images are generated using the left-eye and right-eye fragment images, which are fragment images of the eye-region image, instead of using the eye-region image, the face region is not included in the eye region.
  • the left-eye and right-eye correlation value images have higher correlation than the correlation value image between the eye region image and the face image. .
  • the high-correlation regions of the left-eye and right-eye correlation value images are moved so as to overlap between the eyebrows, and the left-eye and right-eye correlation value images are superimposed. Then, in the two superimposed correlation value images, a region having a higher correlation value than a predetermined value is detected, and a space between the eyebrows is detected.
  • both correlation value images show high correlation, so that the high correlation value and the region overlap.
  • the superimposed image shows a higher correlation.
  • the left eye or right eye correlation value image is high and does not show a correlation.
  • An image on which the eye correlation value image is superimposed is high and does not show a correlation.
  • the correlation value image generation means performs a morphology process on the face image to generate the left eye and right eye correlation value images.
  • the morphological processing for emphasizing an image having low luminance with respect to the surroundings is performed on the face image, the images of the left eye and the right eye are emphasized, and the morphological processing is performed on the face image. Since the left and right eye correlation value images are generated, it is possible to obtain a correlation value image that more accurately indicates the correlation between the left and right eye fragment images and the face image.
  • the correlation value image generating means generates a correlation value image by performing a process of further lowering a resolution on the image on which the morphology processing has been performed.
  • the left-eye and right-eye correlation value images can be generated at high speed.
  • the subsequent processing can be simplified.
  • the correlation value image superimposing means superimposes both correlation value images by multiplying corresponding pixel data of the left eye and right eye correlation value images moved by the correlation value image moving means. Is preferred.
  • the pixel data corresponding to the left-eye and right-eye correlation value images are multiplied, and the left-eye and right-eye correlation value images are superimposed.
  • the correlation value image superimposing means performs a process of enlarging a region showing a high correlation on the left eye and right eye correlation value images moved by the correlation value image moving means, and And the right-eye correlation value image.
  • the correlation value image superimposing means further increases the correlation value of a region showing a high correlation with respect to the left eye and right eye correlation value images moved by the correlation value image moving means. It is preferable to do
  • the simulation target image is preferably each frame image in a moving image.
  • a makeup simulation can be performed on a moving image.
  • the makeup simulation device performs makeup makeup using a reference image composed of n (n is a positive integer) layer images and one face image.
  • a simulation device wherein the reference image is created in advance based on a drawing command of a user force input via an operation device, and the n layer images each have at least one of the same color force.
  • a mesh setting means for setting a mesh in the face area included in the simulation target image, and a difference between the positions of the vertices corresponding to the meshes set in each of the reference image and the simulation target image are calculated.
  • Deforming means for deforming, based on the calculated difference, a makeup element image included in each of the n first images so as to conform to a face area included in the simulation target image; and By performing a predetermined color conversion process on the target image using the color components of the n layer images, n second images corresponding to each of the n layer images are created. On the basis of the second image creation means and the n first images, the transparency of each of the n second images and the simulation target image is determined. Using the transparency, before Combining means for combining the simulation target image and the n second images.
  • the user can quickly obtain a makeup simulation image in which high-quality makeup is virtually applied by a simple operation.
  • some makeup element images are deleted from the simulation target image to which makeup is virtually applied, or the colors of some makeup element images are changed, such a change can be easily performed.
  • the makeup simulation method empowered by the present invention is to provide a computer with a makeup simulation using a reference image composed of n (n is a positive integer) layer images and one face image.
  • the reference image is created in advance based on a drawing command of a user's force input via an operation device, and the n layer images each have the same color image.
  • Comprising at least one makeup element image comprising: a first image creation unit, a target image acquisition unit, a mesh setting unit, a deformation unit, a second image creation unit, and a combination unit.
  • the n first layer images corresponding to each of the n layer images are based on the transparency set for each pixel of each layer image.
  • the target image obtaining means obtaining a simulation target image including a face of a person to be simulated
  • mesh setting means setting a mesh in a face region included in the reference image
  • the deforming means calculates a difference between positions of vertices corresponding to the meshes set in the reference image and the simulation target image, respectively.
  • the second image creating means calculates the color components of the n layer images with respect to the image to be simulated. Executing the predetermined color conversion processing to generate n second images corresponding to each of the n layer images, and The transparency of each of the n second images and the simulation target image is determined based on the images, and the simulation target image and the n second images are combined using the determined transparency. Stets And a pump.
  • the user can quickly obtain a makeup simulation image in which high-quality makeup is virtually applied by a simple operation.
  • some makeup element images are deleted from the simulation target image to which makeup is virtually applied, or the colors of some makeup element images are changed, such a change can be easily performed.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 専門的な知識を有する者でなくとも、簡便な操作により高品質かつ高速にシミュレーション画像を得ることができる化粧シミュレーションに関する技術を提供することを目的とする。  使用基準画像に含まれるn枚のレイヤー画像を基に、各画素の透明度が正規化されたn枚の正規化透明度レイヤー画像を作成する第1の画像作成部20と、レイヤー画像の色成分を用いてフレーム画像に対して色変換処理を施してn枚の色変換レイヤー画像を作成する第2の画像作成部30と、フレーム画像及びメイクパターン画像中の各々の顔領域にメッシュを設定するメッシュ設定部50と、両画像に設定されたメッシュの頂点の差分を算出し、この差分を基に、正規化透明度レイヤー画像中の化粧要素画像を、フレーム画像の顔領域に適合するように変形させる画像変形部60と、色変換レイヤー画像及び各フレーム画像をアルファブレンディングにより合成する合成部70とを備える。

Description

明 細 書
化粧シミュレーションプログラム、化粧シミュレーション装置、及びィ匕粧シミ ユレ一シヨン方法
技術分野
[0001] 本発明は、人物の顔に対して仮想的に化粧を施すィ匕粧シミュレーション技術に関 する。
背景技術
[0002] 従来より、ペンタブレット等の入力装置と、市販のレタッチ画像処理ソフトウェア(例 えば、アドビ社のフォトショップ等)がインストールされた市販のコンピュータとを用いて 、ユーザからの描画指令を基に、ブラシで化粧を塗布するような描画処理を行い、顔 の静止画像に対して仮想的に化粧を施す手法が知られている。
[0003] また、顔の動画像の各フレームに対し、口及び目の位置を検出し、検出した位置を 基に、口紅、チーク等の化粧を施す領域を指定し、指定した領域に色を付すことによ り、顔の動画像に対してリアルタイムに化粧シミュレーションを行なう技術が知られて いる(特許文献 1)。
特許文献 1:特開 2003-44837号公報
発明の開示
[0004] しカゝしながら、上記静止画像に対して仮想的に化粧を施す手法では、作成された シミュレーション画像は、単に顔画像上に領域が指定されて化粧の塗布領域 (化粧 要素画像)が定められているにすぎず、力かる画像を、同一人物で表情の異なる画 像に適用する、あるいは、他人の画像に適用するというようなことはなされていなかつ た。
[0005] また、特許文献 1に記載の発明は、化粧要素画像を数式で定義し、顔の表情の変 化に応じて、数式のパラメータを調整し、シミュレーション画像を得るものである力 か 力るパラメータの調整には数学及びプログラム等の専門的な知識が要求される。その ため、専門的な知識を有さない多少絵心のあるユーザが、簡略化された操作によりシ ミュレーシヨン画像を得ることは困難であるという問題があった。また、化粧要素画像 が自由曲線力 構成される場合、パラメータの調整は非常に複雑となり、数学及びプ ログラミングの知識を有する熟練者であっても、パラメータの調整には、多大な労力 力 Sかかるという問題があった。さらに、化粧画像が数式で定義されているため、演算 に多大なる時間が力かるという問題があった。さらに、化粧要素画像を数式で近似す るという方式であるため、実際に化粧を塗布したような高品質な画像を得ることが困難 であった。
[0006] 本発明は、上記課題を解決するためになされたものであり、専門的な知識を有する 者でなくとも、簡便な操作により高品質かつ高速にシミュレーション画像を得ることが できる化粧シミュレーションに関する技術を提供することを目的とする。
[0007] 本発明による化粧シミュレーションプログラムは、 n (nは正の整数)枚のレイヤー画 像と 1枚の顔画像とから構成される基準画像を用いてコンピュータに化粧シミュレ一 シヨンを実行させる化粧シミュレーションプログラムであって、前記基準画像は操作装 置を介して入力されたユーザ力 の描画指令に基づいて予め作成されたものであり 、前記 n枚のレイヤー画像は、各々同一色力もなる少なくとも 1つの化粧要素画像を 含み、前記 n枚のレイヤー画像の各々に対し、各レイヤー画像の各画素に設定され た透明度を基に、前記 n枚のレイヤー画像の各々に対応する n枚の第 1の画像を作 成する第 1の画像作成手段、シミュレーション対象となる人物の顔を含むシミュレ一シ ヨン対象画像を取得する対象画像取得手段、前記基準画像に含まれる顔領域にメッ シュを設定すると共に、前記シミュレーション対象画像に含まれる顔領域にメッシュを 設定するメッシュ設定手段、前記基準画像及び前記シミュレーション対象画像の各 々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基 づいて、前記 n枚の第 1の画像の各々に含まれる化粧要素画像を、前記シミュレーシ ヨン対象画像に含まれるの顔領域に適合するように変形させる変形手段、前記シミュ レーシヨン対象画像に対して前記 n枚のレイヤー画像の色成分を用いた所定の色変 換処理を実行することにより、前記 n枚のレイヤー画像の各々に対応する n枚の第 2 の画像を作成する第 2の画像作成手段、前記 n枚の第 1の画像を基に、前記 n枚の 第 2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透 明度を用いて、前記シミュレーション対象画像と前記 n枚の第 2の画像とを合成する 合成手段としてコンピュータを機能させることを特徴とするものである。
[0008] 本発明による化粧シミュレーションプログラムによれば、 n枚のレイヤー画像と 1枚の 顔画像とから構成される基準画像に対して、基準画像を構成する各レイヤー画像の 透明度を基に、 n枚の第 1の画像が作成され、基準画像及びシミュレーション対象画 像の各々の顔領域に対してメッシュが設定される。そして、基準画像の顔の領域内に 設定されたメッシュと、シミュレーション対象画像の顔の領域内に設定されたメッシュと の対応する頂点同士の位置の差分が算出され、この差分を基に、 n枚の第 1の画像 の各々に含まれる化粧要素画像が、シミュレーション対象画像中の顔領域に適合す るように変形される。
[0009] そして、シミュレーション対象画像が各レイヤー画像の色成分を用いて変換され、 第 2の画像が作成され、第 1の画像を基に、第 2の画像及びシミュレーション対象画 像の透明度が決定され、決定された透明度により、第 2の画像及びシミュレーション 対象画像が合成される。
[0010] ここで、基準画像は、ある人物の顔画像に対し、フォトショップ (登録商標)等の画像 作成ソフトウェア及びペンタブレット等の操作装置を用いた簡便な作業により作成さ れた画像である。そして、基準画像を基に、シミュレーション対象画像に化粧が施さ れ、高品質な化粧シミュレーション画像が生成される。従って、ユーザは、簡便な操 作により高品質な化粧シミュレーション画像を高速に得ることができる。
[0011] また、基準画像は n枚のレイヤー画像カゝら構成されているため、仮想的に化粧が施 されたシミュレーション対象画像から一部の化粧要素画像を削除する、又は、一部の 化粧要素画像の色を変更すると 、うような変更を容易に行なうことができる。
図面の簡単な説明
[0012] [図 1]本発明の実施の形態による化粧シミュレーション装置のハードウェア構成を示 すブロック図である。
[図 2]化粧シミュレーション装置の機能ブロック図を示している。
[図 3]化粧シミュレーション装置の動作を示すフローチャートである。
[図 4]化粧シミュレーション装置の動作を示すフローチャートである。
[図 5]式(1)及び式 (2)を説明するための図である。 圆 6]特徴点の抽出処理を説明する図面である。
[図 7]初期メッシュの一例を示した図である。
圆 8]メッシュの浮動頂点に対して一定の高さ成分を付与した直後において、使用基 準画像に設定されたメッシュを示した図面であり、(a)は Z方向視のメッシュを示し、 (b )は斜め方向視のメッシュを示している。
圆 9]メッシュの各頂点に対し、式 (7)及び式 (8)の演算を 1回適用したときの使用基 準画像に設定されたメッシュを示した図であり、(a)は Z方向視のメッシュを示し、 (b) は斜め方向視のメッシュを示している。
[図 10]メッシュの各頂点に対し、式(7)及び式 (8)の演算を 5回適用したときの使用基 準画像に設定されたメッシュを示した図面であり、(a)は Z方向視のメッシュを示し、 (b )は斜め方向視のメッシュを示している。
[図 11]メッシュの各頂点に対し、式(7)及び式 (8)の演算を 10回適用したときの使用 基準画像に設定されたメッシュを示した図面であり、 (a)は Z方向視のメッシュを示し、 (b)は斜め方向視のメッシュを示している。
[図 12]メッシュの各頂点に対し、式(7)及び式 (8)の演算を 20回適用したときの使用 基準画像に設定されたメッシュを示した図面であり、 (a)は Z方向視のメッシュを示し、 (b)は斜め方向視のメッシュを示している。
[図 13]メッシュの各頂点に対し、式(7)及び式 (8)の演算を 30回適用したときの使用 基準画像に設定されたメッシュを示した図面であり、 (a)は Z方向視のメッシュを示し、 (b)は斜め方向視のメッシュを示している。
[図 14]メッシュの各頂点に対し、式(7)及び式 (8)の演算を 60回適用したときの使用 基準画像に設定されたメッシュを示した図面であり、 (a)は Z方向視のメッシュを示し、 (b)は斜め方向視のメッシュを示している。
[図 15]ポリゴンに重なりが生じている画像に対して、化粧要素画像を合成したときの 一例を示す画面図である。
圆 16]使用基準画像の顔領域に設定されたメッシュを示した図である。
[図 17]フレーム画像の顔領域に設定されたメッシュを示した図面である。
圆 18]化粧要素画像が変形される様子を示した図面であり、(a)は変形前を示し、 (b )は変形後を示している。
[図 19]合成部により合成された画像の一例を示した図面である。
[図 20]基準位置検出部の詳細な構成を示すブロック図である。
[図 21]基準位置検出部の動作を示すフローチャートである。
[図 22]モフォロジ処理された画像を示した図面である。
[図 23]左及び右眼相関値フィルタを示した図面であり、 (a)は左眼相関値フィルタを、 (b)は右眼相関値フィルタを示している。
[図 24]グローバルパターン画像と左及び右眼ローカルパターン画像とを示した図面 であり、(a)はグローバルパターン画像を示し、(b)は左及び右眼ローカルパターン 画像を示している。
[図 25]顔画像の一例を示した図面であり、(a)は顔が傾いていない場合、(b)は顔が 傾 ヽて 、る場合を示して 、る。
[図 26]左及び右眼相関値画像の一例を示した図面であり、 (a)は左眼相関値画像を 示し、(b)は右眼相関値画像を示している。
[図 27]移動部によって移動された左及び右眼相関値画像を示す図面であり、 (a)は 左眼相関値画像を示し、 (b)は右眼相関値画像を示している。
[図 28]最大値フィルタによる処理結果を示す図面であり、 (a)は最大値フィルタによる フィルタ処理が施された左眼相関値画像を示し、 (b)は最大値フィルタによるフィルタ 処理が施された右眼相関値画像を示して!/ヽる。
[図 29]顔中心評価画像を示した図面である。
[図 30]顔中心評価画像によるフィルタ処理が施された合成画像を示した図面である。
[図 31]基準画像作成モードにおける化粧シミュレーション装置の機能ブロック図であ る。
[図 32]基準画像作成モードにおける化粧シミュレーション装置の動作を示すフローチ ヤートである。
発明を実施するための最良の形態
以下、本発明の実施の形態による化粧シミュレーション装置について図面を参照し ながら説明する。図 1は、本発明の実施の形態による化粧シミュレーション装置のハ 一ドウエア構成を示すブロック図である。
[0014] 図 1に示すィ匕粧シミュレーション装置は、通常のコンピュータ等力 構成され、入力 装置 1、 ROM (リードオンリメモリ) 2、 CPU (中央演算処理装置) 3、 RAM (ランダム アクセスメモリ) 4、外部記憶装置 5、表示装置 6、記録媒体駆動装置 7、入出力インタ 一フェイス (IZF) 9を備える。各ブロックは内部のバスに接続され、このバスを介して 種々のデータが入出力され、 CPU3の制御の下、種々の処理が実行される。
[0015] 入力装置 1は、キーボード、マウス及びペンタブレット等力 構成され、操作者が種 々のデータ及び操作指令等を入力するために使用される。
[0016] ROM2は、 BIOS (Basic
Input/Output System)等のシステムプログラム等を記憶する。 RAM4は、 CPU3の 作業領域等として用いられる。
[0017] 外部記憶装置 5は、ハードディスクドライブ等力 構成され、所定の OS (Operating System)及び後述する化粧シミュレーションプログラム等を記憶する。
[0018] 表示装置 6は、液晶表示装置、 CRT (陰極線管)等から構成され、 CPU3の制御の 下、種々の画像を表示する。
[0019] 記録媒体駆動装置 7は、 CD— ROMドライブ、フレキシブルディスクドライブ等から 構成される。本実施形態では、化粧シミュレーションプログラムを記録する、 CD-RO M、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体 8を、記録媒体 駆動装置 7に装填し、インストールすることにより、化粧シミュレーションプログラムを外 部記憶装置 5に格納して 、る。
[0020] なお、インターネット上に接続された WEBサーバに化粧シミュレーションプログラム を記憶させておき、 WEBサーバ力もその化粧シミュレーションプログラムをダウンロー ドすることにより、コンピュータに化粧シミュレーションプログラムをインストールしてもよ い。また、コンピュータに顔の動画像を取得させ、 WEBサーバに送信し、 WEBサー バ上でィ匕粧シミュレーションの処理を実行し、その処理結果をパーソナルコンビユー タに送信するというように、 WEBサーバとコンピュータとで化粧シミュレーションプログ ラムを分散して実行させてもょ 、。
[0021] 動画カメラ 10aは、入出力インターフェイス (I/F) 9を介してバスラインに接続され、 例えば CCDエリアセンサにより、種々の動画像を所定のフレームレートで取得し、コ ンピュータに出力する。
[0022] 静止画カメラ 11aは、入出 IZF9を介してバスラインに接続され、例えば CCDエリア センサにより、種々の静止画像を取得し、コンピュータに出力する。
[0023] 本ィ匕粧シミュレーション装置は、ユーザによって予め作成された基準画像を基に、 動画像に対して化粧シミュレーションを実行する化粧シミュレーションモードと、上記 基準画像を作成する基準画像作成モードとを備えている。まず、化粧シミュレーショ ンモードにつ 、て説明する。
[0024] (化粧シミュレーションモード)
図 2は、化粧シミュレーションモードにおける化粧シミュレーション装置の機能ブロッ ク図を示している。本ィ匕粧シミュレーション装置は、基準画像取得部 10、第 1の画像 作成部 20、第 2の画像作成部 30、対象画像取得部 40、メッシュ設定部 50、画像変 形部 60、合成部 70、及び表示部 80を備えている。これらの機能は、 CPU3が化粧 シミュレーションプログラムを実行する等して実現される。
[0025] 基準画像取得部 10は、基準画像記憶部 11、操作部 12、初期設定部 13、及び使 用基準画像記憶部 14を備えている。基準画像記憶部 11は、外部記憶装置 5から構 成され、基準画像作成モードにお!、て作成された 1又は複数種類の基準画像を記憶 している。
[0026] 基準画像は、 N (Nは正の整数)枚のレイヤー画像と、 1枚の顔画像とから構成され ている。顔画像は、ある人物を静止画カメラ 11aで撮影することで取得された画像で ある。各レイヤー画像には、 1種類の化粧要素画像が含まれる。ここで、化粧要素画 像とは、口紅、チーク、アイシャドウ等、各化粧要素の形状及び色等を示す画像であ る。
[0027] 化粧要素画像は、入力装置 1を操作することにより、フォトショップ (登録商標)等の 描画ソフトを用いてユーザにより描画された画像である。基準画像作成モードでは、 1 種類の化粧要素画像が作成される毎に 1つのレイヤー画像が作成されるため、レイ ヤー画像には 1種類の化粧要素画像が含まれる。本実施の形態では、 1種類の化粧 要素画像に対して、 1個の色が設定されるものとする。 [0028] レイヤー画像の各画素は、 R (赤), G (緑) , B (青)値からなる色成分と、透明度とか ら構成されている。 1種類の化粧要素画像は、 1色力も構成されているため、 1枚のレ ィャ一画像の色成分は、全画素において同じ R, G, B値を有している。すなわち、 1 枚のレイヤー画像の色成分は、 1種類の R, G, B値により表される。
[0029] 透明度は、顔画像に対するレイヤー画像の混合率を示すものである。透明度が最 大値(100%)を示す場合、レイヤー画像のみが表示され顔画像は表示されない。一 方、透明度が最小値 (0%)を示す場合、レイヤー画像は表示されず、顔画像のみが 表示される。
[0030] 具体的には、 i(l≤i≤n)番目のレイヤー画像のある画素の透明度を aとすると、顔 画像の対応する画素の透明度は、 1 aとなる。なお、透明度は、化粧要素画像の描 画時のペンタブレットの軌跡や筆圧等に応じて設定される。
[0031] 顔画像は、 R, G, B値力 なる色成分力 構成されている。顔画像の各画素の色成 分は、レイヤー画像とは異なり、画素毎に異なる R, G, B値を有している。なお、顔画 像自体には、透明度が設定されてないが、 n枚のレイヤー画像の透明度によって、顔 画像の透明度が規定される。
[0032] 操作部 12は、入力装置 1から構成され、ユーザが種々の操作指令を入力するため に用いられる。
[0033] 初期設定部 13は、操作部 12を介して入力されたユーザからの操作指令を基に、 基準画像記憶部 11に記憶された複数種類の基準画像の中から、化粧シミュレーショ ンに使用する 1種類の基準画像を設定する。設定された基準画像は使用基準画像と して、使用基準画像記憶部 14に記憶される。
[0034] また、使用基準画像のうち、いずれか 1又は複数のレイヤー画像を削除する指令が 行なわれた場合、使用基準画像から当該レイヤー画像が削除され、使用基準画像が 更新される。また、使用基準画像のうち、いずれかのレイヤー画像に対し、色の指定 が行なわれた場合、当該レイヤー画像の色成分の値が、指定された色の値に変更さ れる。以下、使用基準画像は、 n (n≤N)枚のレイヤー画像力もなるものとする。使用 基準画像記憶部 14は、 RAM4から構成され、使用基準画像を記憶する。
[0035] 第 1の画像作成部 20は、透明度レイヤー画像作成部 21、透明度正規化部 22、及 び正規ィ匕透明度レイヤー画像記憶部 23を備えて ヽる。透明度レイヤー画像作成部 21は、レイヤー画像を構成する各画素の透明度により、 n枚のレイヤー画像の各々 に対応する n枚の透明度レイヤー画像を作成する。レイヤー画像は、画素毎に異なる 透明度を有しているため、透明度レイヤー画像は、透明度によって化粧要素画像が 濃淡表示された画像と考えることができる。
[0036] 透明度正規ィ匕部 22は、透明度レイヤー画像作成部 21によって作成された透明度 レイヤー画像の各画素に対して、式(1)の演算を施すことにより各画素を正規ィ匕し、 正規化透明度レイヤー画像を作成する。また、透明度正規ィ匕部 22は、顔画像の各 画素に対して、式 (2)の演算を施すことにより、顔画像の透明度を正規化する。
[0037] [数 1]
…式 (1)
J=i n
^ tt i Cl- Ot i)
y = ^—n · · ·式 (2) j=l
但し、 a iは第 i階層の透明度レイヤー画像の各画素の透明度を示す。 は正規ィ匕 された透明度レイヤー画像の各画素の透明度を示す。 yは正規化された顔画像の 各画素の透明度を示す。式(1)及び式(2)の分母は 1から n階層目までのある画素に おける透明度レイヤー画像の透明度の和を示す。
[0038] 正規化透明度レイヤー画像記憶部 23は、 RAM4から構成され、透明度正規化部 2 2によって作成された正規化透明度レイヤー画像と顔画像の透明度とを記憶する。
[0039] 第 2の画像作成部 30は、色レイヤー作成部 31、色変換処理部 32、及び色変換レ ィヤー画像記憶部 33を備えている。色レイヤー作成部 31は、レイヤー画像に設定さ れた色成分を基に、 n枚のレイヤー画像の各々に対応する n個の色レイヤーを作成 する。レイヤー画像の色成分は、 1種類の R, G, B値力も構成されるため、色レイヤ 一は、 1種類の R, G, B値から構成されるデータである。
[0040] 色変換処理部 32は、フレーム画像抽出部 42によって抽出された 1枚のフレーム画 像を構成する各画素の R, G, B値を HSV表色系に変換すると共に、 n個の色レイヤ 一の各々の R, G, B値を HSV表色系に変換した後、式(3)—式(5)に示す色変換 処理を実行し、得られた画像をさらに R, G, B表色系に変換することにより、 n枚の色 変換レイヤー画像を作成する。なお、 HSV表色系は、各画素が色相(H)、彩度(S) 及び強度 (V)の成分で表される表色系である。
H =H …式(3)
S =0. 8 X S +0. 2 X S …式(4)
V =0. 8 XV +0. 2 XV …式(5)
但し、 H、 S、 Vは色レイヤーの H, S, V値を示し、 S、 Vはフレーム画像のある画 c c c f f
素の H, S, V値を示し、 H、 S、 Vは色変換処理後の各画素の HSV値を示している 。色変換レイヤー画像記憶部 33は、 RAM4から構成され、色変換処理部 32によつ て作成された n枚の色変換レイヤー画像を記憶する。
[0041] 対象画像取得部 40は、動画像取得部 41、及びフレーム画像抽出部 42を備える。
動画像取得部 41は、動画カメラ 10aから構成され、人間の顔の動画像を取得する。 被写体となる人間は、化粧シミュレーションが適用される人間であり、使用基準画像 のモデルとなる人間と同一人であってもよいし、別人であってもよい。フレーム画像抽 出部 42は、動画像取得部 41によって取得された動画像から 1枚のフレーム画像を順 次抽出する。
[0042] メッシュ設定部 50は、頂点抽出部 51, 52、初期メッシュ記憶部 53、及び頂点移動 部 54, 55を備えている。頂点抽出部 51は、基準位置検出部 511及び特徴点抽出部 512を備える。
[0043] 基準位置検出部 511は、使用基準画像に含まれる顔画像の顔領域の眉間を基準 位置として検出する。特徴点抽出部 512は、基準位置検出部 511により検出された 基準位置を用いて、使用基準画像から特徴点を抽出する。なお、特徴点は、瞳、眉 頭、目頭、目尻、鼻頭、並びに上唇及び下唇の付け根等の予め定められた顔の特徴 的な箇所を示す点である。 [0044] 頂点抽出部 52は、基準位置検出部 521及び特徴点抽出部 522を備える。基準位 置検出部 521は、フレーム画像抽出部 42によって抽出されたフレーム画像の顔領域 の眉間を基準位置として検出する。特徴点抽出部 522は、特徴点抽出部 512と同一 の手法により、基準位置検出部 521により検出された基準位置を用いて、フレーム画 像から特徴点を抽出する。
[0045] 初期メッシュ記憶部 53は、人間の顔領域に設定されるメッシュの原型である初期メ ッシュを記憶する。この初期メッシュは、ある人間の顔画像に基づいて予め作成され たものであり、一部のメッシュの頂点が、前記特徴点に位置するように、顔領域にメッ シュの各頂点が設定されている。以下、初期メッシュの各頂点のうち、特徴点に位置 する頂点を「特徴頂点」と称し、特徴頂点以外のメッシュの頂点を「浮動頂点」と称す る。また、本実施形態では、メッシュを構成するポリゴンとしては、三角形のポリゴンを 用いたが、これに限定されず、四角形、五角形等のポリゴンを用いても良い。なお、 初期メッシュは、シェアウェアであるメタセコイアを用 、て作成されたものを用いる。
[0046] 頂点移動部 54は、初期メッシュの特徴頂点を、使用基準画像から抽出された対応 する特徴点に移動させた後、初期メッシュの各頂点間の距離を一定に保ち (長さ制 約)、かつ、メッシュを構成するポリゴンの重なりが生じないという制約条件を満たすよ うに、特徴頂点の移動量に応じて浮動頂点を移動させ、使用基準画像の顔画像の 顔領域にメッシュを設定する。このメッシュの各頂点の移動の詳細については後述す る。
[0047] 頂点移動部 55は、頂点移動部 54と同一の手法により、フレーム画像の顔領域にメ ッシュを設定する。
[0048] 画像変形部 60は、座標計算部 61、座標変換テーブル記憶部 62、及び化粧要素 画像変形部 63を備える。座標計算部 61は、フレーム画像の顔領域に設定されたメッ シュと、使用基準画像の顔画像の顔領域に設定されたメッシュとの対応する頂点同 士の位置の差分から各頂点の差分ベクトルを算出し、メッシュの各頂点と、各頂点の 差分ベクトルとが関連づけられた座標変換テーブル作成する。
[0049] 座標変換テーブル記憶部 62は、 RAM4から構成され、座標計算部 61によって作 成された座標変換テーブルを記憶する。 [0050] 化粧要素画像変形部 63は、使用基準画像に設定されたメッシュを n枚の正規化透 明度レイヤー画像の各々に対して設定し、設定したメッシュの各頂点を、座標変換テ 一ブルに記載された差分ベクトル分移動させて、 n枚の正規ィ匕透明度レイヤー画像 内の化粧要素画像を変形させる。
[0051] 合成部 70は、化粧要素画像変形部 63によって変形された化粧要素画像を含む n 枚の正規ィ匕透明度レイヤー画像の各画素の透明度(上記 β )を色変換レイヤー画像 の各画素のアルファ値とし、顔画像の正規化された各画素の透明度(上記 γ )をフレ ーム画像の各画素のアルファ値とし、アルファブレンデイングにより、フレーム画像と、 η枚の色変換レイヤー画像とを合成する。なお、アルファブレンデイングは、式 (6)に よって示される。
[0052] [数 2]
CF = y Cf + ∑j3i Q …式 (6)
i=l
但し、 Cベクトルは、合成後の R, G, B値を示す。 Cベクトルはフレーム画像の各画 素の R, G, B値を示す。 Cベクトルは色変換レイヤー画像の各画素の R, G, B値を 示す。また、 βは式(1)で表され、 γは式(2)で表される。
[0053] 表示部 80は、表示装置 6から構成され、合成部 70によって合成された画像、すな わち、仮想的に化粧が施された顔の動画像を表示する。
[0054] なお、本実施の形態では、第 1の画像作成部 20が第 1の画像作成手段に相当し、 第 2の画像作成部 30が第 2の画像作成手段に相当し、フレーム画像抽出部 42が対 象画像取得手段に相当し、メッシュ設定部 50がメッシュ設定手段に相当し、画像変 形部 60が画像変形手段に相当し、合成部 70が合成手段に相当し、使用基準画像 が基準画像に相当する。
[0055] (化粧シミュレーション装置の動作)
次に、図 3及び図 4に示すフローチャートにしたがって、本ィ匕粧シミュレーション装置 の動作について説明する。
[0056] まず、ステップ S1において、初期設定部 13は、ユーザによって選択された 1種類の 基準画像を使用基準画像として決定し、使用基準画像記憶部 14に記憶させる。この 場合、初期設定部 13により、基準画像記憶部 11に記憶されている基準画像の一覧 画像が、表示部 80に表示される。そして、ユーザによって、一覧画像の中からクリック された基準画像が使用基準画像として決定される。
[0057] さらに、ユーザにより、使用基準画像を構成する n枚のレイヤー画像のうちいずれか のレイヤー画像をィ匕粧シミュレーションに使用しない操作指令がユーザにより行われ ると、初期設定部 13は、当該レイヤー画像を使用基準画像力 削除し、使用基準画 像を更新する。このとき、更新された使用基準画像は、表示部 80に表示される。
[0058] また、化粧シミュレーションに使用する n枚のレイヤー画像のうち、いずれかのレイヤ 一画像に対する色を指定する操作指令がユーザにより行なわれた場合、当該レイヤ 一画像の色成分の値を指定された色の値に変更し、使用基準画像を更新する。この とき、更新された使用基準画像は、表示部 80に表示される。
[0059] また、ユーザは、表示部 80に表示された使用基準画像に含まれる化粧要素画像を クリックした後、表示部 80に表示された色を指定するためのカラーパレットの中から、 所望の色をクリックすることによりィ匕粧要素画像の色を変更する。
[0060] ステップ S2において、透明度レイヤー画像作成部 21は、使用基準画像記憶部 14 カゝら使用基準画像を読み出し、読み出した使用基準画像に含まれる n枚のレイヤー 画像の各々に対応する n枚の透明度レイヤー画像を作成する。
[0061] ステップ S3において、色レイヤー作成部 31は、使用基準画像記憶部 14から使用 基準画像を読み出し、読み出した使用基準画像に含まれる n枚のレイヤー画像の各 々に対応する n個の色レイヤーを作成する。
[0062] ステップ S4において、透明度レイヤー画像作成部 21は、 n枚の透明度レイヤー画 像の各々に対して式(1)を適用し、各透明度レイヤー画像を構成する各画素の透明 度を正規化し、 n枚の正規化透明度レイヤー画像を作成すると共に、式 (2)を用いて 基準画像に含まれる顔画像を構成する各画素の透明度を正規化する。
[0063] 図 5は、式(1)及び式(2)を説明するための図である。図 5では、レイヤー 1一 nの各 々に対応する帯グラフが示されており、各帯グラフは、第 i階層の透明度レイヤー画 像の透明度 a iと、第 i階層の顔画像の透明度(Ι—a i)との関係が示されている。例え ば、レイヤー 1の帯グラフにおいて右側の領域 R1には、第 1階層の透明度レイヤー 画像の透明度が示され、左側の領域 R2には、第 1階層の顔画像の透明度が示され ている。
[0064] 各帯グラフの右側に示された数式は、第 1階層力 第 n階層までの透明度レイヤー 画像の透明度 a - a の和に対する、各透明度レイヤー画像の透明度 αの比率を 示している。この比率を透明度 αにかけあわせると上記式(1)が得られる。
[0065] また、各帯グラフの右側に示された各透明度レイヤー画像の透明度 ex iの比率を顔 画像の透明度 1— αに乗じ、 1から ηまでの総和をとると上記式(2)が得られる。なお、 j8及び γは、∑ j8 + γ = 1の関係を有している。但し、∑ j8 = j8 + β β である。なお、正規化する理由については後述する。
[0066] 図 3に示すステップ S5において、基準位置検出部 511は、使用基準画像に含まれ る顔画像から眉間を検出する。この処理の詳細については後述する。図 6は、特徴点 の抽出処理を説明する図面である。なお、図 6において、 ME1— ΜΕ4は化粧要素 画像を示している。この場合、図 6に示すように、顔画像から眉間 RPが検出される。
[0067] 図 3に示すステップ S6において、特徴点抽出部 522は、特開 2003— 44837号公 報に記載の手法を用いて使用基準画像に含まれる顔画像から、人物の背景を示す 背景領域、人物の髪を示す髪領域、及び人物の顔を示す顔領域を抽出する。この場 合、図 6に示すように、背景領域 BC、髪領域 HC、及び顔領域 FCが抽出される。
[0068] 図 3に示すステップ S7において、特徴点抽出部 522は、使用基準画像に含まれる 顔画像から抽出した顔領域に対してエッジ抽出処理を実行し、抽出したエッジと先に 検出した眉間 RPとの関係力も顔、及び眼等の顔部品の輪郭を特定する。この場合、 図 6に示すように、顔の輪郭 El、眉の輪郭 E2、眼の輪郭 E3、及び口の輪郭 E4が特 定される。
[0069] 図 3に示すステップ S8において、特徴点抽出部 512は、特定した顔、眉、眼、及び 口の輪郭 E1— E4から特徴点を検出する。この場合、図 6に示すように、顔の輪郭 E1 においては、傾きの変曲点を検出することにより 8個の特徴点 P11— P18が検出され る。なお、特徴点を総称して呼ぶ場合、特徴点 TPと表す。また、眉の輪郭 E2におい ては、端部を検出することにより眉尻及び眉頭の位置が特徴点 P21及び P22として 検出される。さらに、眼の輪郭 E3においては、端部を検出することにより目尻及び目 頭の位置が特徴点 P31及び P32として検出される。さらに、口の輪郭 E4においては 、端部を検出することにより上唇と下唇の付け根が特徴点 P41、 P42として検出され る。
[0070] なお、検出する顔部品の輪郭としては、顔、眉、眼、及び口の輪郭 E1— E4に限定 されず、他の顔部品、例えば鼻等の輪郭を特定してもよいし、上記 4種類の顔部品の うちいずれかの顔部品の輪郭を省いてもよい。また、特徴点も図 6で示したものに限 定されず、他の特徴点を検出しても良いし、図示した特徴点のうち、一部の特徴点を 省略してちょい。
[0071] 図 3に示すステップ S9において、頂点移動部 54は、初期メッシュの特徴頂点を使 用基準画像の対応する特徴点に移動させる。図 7は、初期メッシュの一例を示した図 である。図 7に示すように初期メッシュは、複数の三角形のポリゴン力も構成されてい る。初期メッシュの各頂点は、特徴頂点 TP'及び浮動頂点 FP'から構成されている。
[0072] 特徴頂点 TP'は、顔、眉、目及び口の輪郭 E1 '— E4'上に位置する。顔の輪郭 E1 ,上には、 8個の特徴頂点 P11 '— P18'が設定されている。眉の輪郭 E2'上には特 徴頂点 P21 '及び P22'が設定され、それぞれ眉尻及び眉頭の位置に設定されてい る。眼の輪郭 E3'上には特徴頂点 P31 '及び P32'が設定され、それぞれ目尻及び 目頭の位置に設定されて 、る。口の輪郭 E4'上には特徴頂点 P41 '及び P42'が設 定され、それぞれ上唇と下唇の付け根の位置に設定されている。
[0073] 頂点移動部 54は、この初期メッシュを図 6に示す使用基準画像に重ね、初期メッシ ュの特徴頂点 TP'を、使用基準画像の対応する特徴点 TPに移動させる。次に、頂 点移動部 54は、初期メッシュの浮動頂点 FP'に一定の高さ成分 (Z成分)を与えて 3 次元データとし、浮動頂点 FP'に対して式(7)及び式 (8)の演算を繰り返し適用する ことにより、浮動頂点 FP'を移動させる。これにより、使用基準画像に対して、上述し た長さ制約を満たし、かつ、メッシュを構成するポリゴンの重なりが生じないようなメッ シュが設定されることとなる。
[0074] [数 3] ? Γ Ρ - Χ ( I Pi-Pj I - )(ρ厂 Pj) · · ·式 )
^= ρ] + λ ( I Ργ I - iij)(Pi-Pj) · · ·式 (8)
ただし、 P.ベクトルは、メッシュの頂点の座標を示す。 Pベクトルは、 Pベクトルに隣 接するメッシュの頂点の座標を示す。 P 'ベクトルは演算が施された 1^ベクトルを示す 。 ベクトルは演算が施された Pベクトルを示す。 1は初期メッシュにおける Pベタト j j i] i ル及び Pベクトルを結ぶ線分の長さを示す。 λは定数値を示す。
[0075] 図 8は、初期メッシュの特徴頂点 TP'を使用基準画像の対応する移動対象位置に 移動させ、浮動頂点 FP'に一定の高さ成分を付与した直後の使用基準画像に設定 されたメッシュを示した図であり、(a)は Z方向視のメッシュを示し、(b)は斜め方向視 のメッシュを示している。各浮動頂点 FP'は、(b)に示すように、 Z方向に一定の距離 ずらされていることが分かる。また、各特徴頂点は、 XY平面上に位置していることが 分かる。そして、メッシュ設定部 50は、各頂点に対し式(7)及び式 (8)の演算を順次 適用していく。
[0076] 図 9は、図 8に示す各頂点に対し、式(7)及び式 (8)の演算を 1回適用したときの使 用基準画像に設定されたメッシュを示した図であり、 (a)は Z方向視のメッシュを示し、 (b)は斜め方向視のメッシュを示している。図 9 (b)に示すように各浮動頂点 FP'は、 図 8 (b)の場合に比べ、 Z成分の値が少し小さくなつていること分かる。また、図 9 (a) に示すように各浮動頂点 FP'は、図 8 (b)の場合に比べ、メッシュを構成するポリゴン の重なりが多少改善されていることが分かる。
[0077] 図 10—図 14は、図 8に示す各浮動頂点 FP'に対し、式(7)及び式 (8)の演算をそ れぞれ 5回、 10回、 20回、 30回、 60回適用したときの使用基準画像に設定されたメ ッシュを示した図であり、図 10—図 14のいずれにおいても(a)は Z方向視のメッシュ を示し、(b)は斜め方向視のメッシュを示している。図 10 (b)—図 14 (b)に示すように 、各頂点に対して式 (7)及び式 (8)の演算を適用する回数を増加させると、各浮動頂 点 FP'の高さ成分の値が全体的に低くなつていき、図 14 (b)に示す式(5)の演算を 6 0回適用したときのメッシュに至っては、各浮動頂点 FP'の高さ成分がほぼ 0になって いることが分かる。また、これに伴い、図 10 (a)—図 14 (a)に示すように、式(7)及び 式 (8)の演算を適用する回数が増大するにつれてメッシュを構成するポリゴンの重な りが解消されていることが分かる。
[0078] 高さを導入せずとも画像平面状において、長さ制約を満たすように、初期メッシュを 変形させれば、ある程度、変形前のメッシュの頂点同士の位置関係をバランスよく保 持した状態で顔領域にメッシュを設定することも可能である。
[0079] し力しながら、高さを導入しない画像平面上において長さ制約のみをカ卩味して、初 期メッシュを変形させた場合、メッシュを構成するポリゴンの重なりが生じる可能性が 高くなる。かかるポリゴンの重なりは、初期メッシュのサイズよりも顔領域のサイズが小 さい場合に発生する。これは、実際の布を本来の大きさより小さく縮め、床に押し付け た場合に生じる皺に例えることができる。
[0080] 図 15は、メッシュを構成するポリゴンの重なりが生じている画像に対して、化粧要素 画像を合成したときの一例を示す画面図である。図 15の場合、口紅の輪郭 K1が口 の輪郭に沿った形状となっておらず、また、唇から口紅 K2がはみ出ていることが分か る。このようにメッシュを構成するポリゴンに重なりが生じると、顔の画像に対して化粧 要素画像が不自然に合成されてしまう。
[0081] そこで、頂点移動部 54は、各頂点に高さ成分を与え、式(7)及び式 (8)を用いて 3 次元的に浮動頂点の位置を算出することにより、使用基準画像に対し、メッシュが重 なって設定されることを防止して 、る。
[0082] 図 16は、使用基準画像の顔領域に設定されたメッシュを示した図である。図 16に 示すように、メッシュを構成するポリゴンの重なりが発生することなぐ顔領域にバラン スよくメッシュが設定されていることが分かる。また、顔、眉、眼、及び口の輪郭 E1— E 4上にメッシュの頂点が位置していることが分かる。
[0083] 図 3に示すステップ S10において、動画像取得部 41は、人物の顔の動画像を取得 する。ステップ S 11において、フレーム画像抽出部 42は、動画像取得部 41によって 取得された動画像から 1枚のフレーム画像を抽出する。なお、フレーム画像抽出部 4 2は、フレーム画像を 1枚ずつ抽出してもよいし、所定のコマ間隔で間引いて抽出し てもよい。 [0084] 図 4に示すステップ S12において、基準位置検出部 521は、ステップ S5と同様にし て、フレーム画像力も眉間を検出する。図 17は、フレーム画像の顔領域に設定され たメッシュを示した図面である。図 17に示すフレーム画像は、図 6に示す使用基準画 像に対して顔の向きが変化していることが分かる。この場合、図 17に示すように、眉 間 RPが検出される。
[0085] ステップ S13において、特徴点抽出部 522は、ステップ S6と同様にして、フレーム 画像の顔領域に背景領域 BC、髪領域 HC、及び顔領域 FCを抽出する。ステップ S1 4において、特徴点抽出部 522は、ステップ S7と同様にして、フレーム画像の顔領域 にエッジ抽出処理を実行し、顔、眉、眼、及び口の輪郭 E1— E4を特定する(図 17参 照)。
[0086] ステップ S15において、特徴点抽出部 522は、ステップ S8と同様にして、特定した 顔、眉、眼、及び口の輪郭 E1— E4力も特徴点 TP (図 17で省略)を抽出する。
[0087] ステップ S16において、頂点移動部 54は、ステップ S9と同様、初期メッシュの特徴 頂点 TP,をフレーム画像の特徴点 TPに移動させる。この場合、図 17に示すように、 使用基準画像に対して顔の向きが変化した場合でも、ポリゴンの重なりが生じないよ うに顔領域にバランス良くメッシュが設定されていることが分力る。
[0088] ステップ S17において、座標計算部 61は、使用基準画像に設定されたメッシュ及 びフレーム画像に設定されたメッシュの対応する頂点同士の位置の差分を算出し、 座標変換テーブルを作成し、座標変換テーブル記憶部 62に記憶させる。この座標 変換テーブルはフレーム画像毎に更新される。
[0089] ステップ S18にお 、て、化粧要素画像変形部 63は、座標変換テーブルを参照し、 正規化透明度レイヤー画像に含まれる化粧要素画像を変形させる。図 18は、化粧 要素画像が変形される様子を示した図面であり、(a)は変形前を示し、(b)は変形後 を示している。図 18 (a)に示すように、化粧要素画像 G1が描画されたポリゴン PR1が 、 (b)に示すように、ポリゴン PR2に変形され、それに伴って、化粧要素画像 G1が化 粧要素画像 G2に変形される。
[0090] 図 4に示すステップ S19において、色変換処理部 32は、ステップ S11で抽出された フレーム画像と、色レイヤー作成部 31によって作成された色レイヤーとに対し、式(3 )一式(5)に示す色変換処理を施し、 n枚の色変換レイヤー画像を作成する。作成さ れた n枚の色変換レイヤー画像は、色変換レイヤー画像記憶部 33に記憶される。
[0091] ステップ S20において、合成部 70は、フレーム画像と、色変換処理部 32により作成 された色変換レイヤー画像とを式 (6)を用いて合成する。
[0092] 次に、透明度正規ィ匕部 22が透明度 α及び透明度 1 αを正規化する理由につい て説明する。式 (9)一式(11)は、アルファブレンデイングの一般的な数式を示してい る。
[0093] [数 4]
Cr =(l- « i)Cf + 1 1 …式 (9)
Figure imgf000021_0001
=(1—ひ i) (l— a 2)Cf + ひ ι (1—
Figure imgf000021_0002
(トひ …式 (11)
Figure imgf000021_0003
但し、 Crベクトルは合成後の各画素の R, G, B値を示す。 Cベクトルは使用基準画 f
像に含まれる顔画像の各画素の R, G, B値を示す。 Cベクトルは第 i (i= l一 n)階層 の色変換レイヤー画像の各画素の R, G, B値を示す。また、式(9)は、 1枚の色変換 レイヤー画像を顔画像に合成する場合を示し、式(10)は 2枚の色変換レイヤー画像 を顔画像に合成する場合を示し、式(11)は n枚の色変換レイヤー画像を顔画像に 合成する場合を示している。式(11)に示すように色変換レイヤーの順番を入れ替え ると、式(11)の第 2項が入れ替えに応じて異なる値となってしまうため、 Cベクトルの 値が色変換レイヤーの順番に依存してしまう。
[0094] そこで、本ィ匕粧シミュレーション装置は、色変換レイヤー画像の順序が入れ替えら れても、 Cベクトルの値が同一となるように、正規化透明度レイヤー画像の各画素の 透明度 α及び顔画像の各画素の透明度 1 αを式(1)及び式(2)を用いて正規ィ匕 して β及び γとする。そして、 βを色変換レイヤー画像のアルファ値とし、 γを顔画 像のアルファ値とし、 Cベクトルの値がレイヤーの順番に依存することを防止している
[0095] ステップ S21において、表示部 80は、合成部 70により合成された画像を表示する。
図 19は、合成部 70により合成された画像の一例を示した図面である。図 19に示すよ うに、図 6に示すィ匕粧要素画像 ME1— ME4が、顔の変化に適合するように変形され 、フレーム画像上に違和感なく表示されていることが分かる。なお、図 6及び図 17に 示す化粧要素画像 ME1— ME4は、一例にすぎず、他の化粧要素画像を含んでも 良いし、いずれかの化粧要素画像を省略してもよい。
[0096] 図 4に示すステップ S22において、フレーム画像抽出部 42は、全フレーム画像の抽 出が終了した力否かを判定し、全フレーム画像の抽出が終了している場合 (ステップ S22で YES)、処理が終了される。一方、ステップ S22において、全フレーム画像の 抽出が終了して 、な 、場合 (ステップ S 22で NO)、次のフレーム画像を抽出し (ステ ップ S23)、処理がステップ S12に戻される。
[0097] このように、本ィ匕粧シミュレーション装置によれば、ペンタブレット等を操作すること によりユーザにより予め作成された基準画像に含まれる化粧要素画像をフレーム画 像に適合するように変形させ、フレーム画像上に表示させているため、ユーザは、ぺ ンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、 実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることが できる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、基準画 像力も一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更す ると 、うような設定を容易に行なうことができる。
[0098] さらに、透明度レイヤー画像の各画素の透明度及び顔画像の各画素の透明度を 正規化して 、るため、レイヤーの順序に依存しな 、アルファブレンデイングが可能と なる。さらに、初期メッシュの長さ制約を満たし、かつ、メッシュを構成するポリゴンの 重なりが生じないように、基準画像及びフレーム画像の顔領域にメッシュが設定され ているため、化粧要素画像をフレーム画像上により違和感なく自然な状態で表示す ることがでさる。
[0099] (基準位置検出部の詳細な構成) 次に、基準位置検出部 511, 521の詳細な構成について説明する。図 20は、基準 位置検出部 511, 521の詳細な構成を示すブロック図である。以下、基準位置検出 部 511, 521は同一であるため、基準位置検出部 511のみ説明する。基準位置検出 部 511は、モフォロジ処理部 101、解像度低下処理部 102、相関値画像生成部 103 、移動部 104、重畳部 105、検出部 106を備えている。
[0100] モフォロジ処理部 101は、フレーム画像に対し最大値フィルタによるフィルタ処理を 施した後、最小値フィルタによるフィルタ処理を施し、得られた画像から対応するフレ ーム画像を差し引き、モフォロジ画像を生成する。ここで、最小値フィルタを用いたフ ィルタ処理は、注目画素と、注目画素を取り巻く 8個の近傍画素とにおいて、最小の 輝度を注目画素の輝度として採用する処理である。
[0101] 解像度低下処理部 102は、モフォロジ画像を所定行所定列の画素力もなるブロック に区画し、各ブロックの画素データの平均値、中央値等の代表値を、各ブロックの輝 度とする解像度低下処理を施し、モフォロジ画像の解像度を低下させる。
[0102] 相関値画像生成部 103は、解像度が低下されたモフォロジ画像に対し、左眼相関 値フィルタを用いたフィルタ処理を施し、左眼ローカルパターン画像との相関を示す 左眼相関値画像を生成する共に、解像度を低下する処理が施されたモフォロジ画像 に対し、右眼相関値フィルタを用いたフィルタ処理を施し、右眼ローカルパターン画 像との相関を示す右眼相関値画像を生成する。
[0103] 移動部 104は、左眼相関値画像において左眼を示す領域と、右眼相関値画像に お!、て右眼を示す領域とが眉間に移動されるように、左眼相関値画像と右眼相関値 画像とを所定方向に所定距離移動させる。
[0104] 重畳部 105は、移動部 104によって移動された右眼相関値画像と、左眼相関値画 像とに対して、最大値フィルタを用いたフィルタ処理を実行した後、対応する画素の 相関値を乗算することにより、右眼相関値画像と左眼相関値画像とを重畳し、 1枚の 合成画像とする。また、重畳部 105は、合成画像に対して顔中心評価画像を乗算す る。
[0105] 検出部 106は、合成画像において、輝度が所定の値より高い領域を検出し、当該 領域の中心の座標を眉間として検出する。 [0106] (基準位置検出部の動作)
次に、図 21に示すフローチャートを用いて、基準位置検出部 511の動作について 説明する。なお、基準位置検出部 521は、処理対象がフレーム画像である以外は、 基準位置検出部 511と同一の処理を行うものであるため、基準位置検出部 521の説 明は省略する。
ステップ S201において、モフォロジ処理部 101は、顔画像に対してモフォロジ処理を 施す。この場合、図 22に示すように、眼の輪郭、鼻筋、眉毛、唇等の顔の特徴部分を 示す画像が顔画像から抽出される。なお、図 22において、黒い部分は輝度が高いこ とを示し、白い部分は輝度が低いことを示している。また、図 22は白黒の 2値で表示 されているが、実際には、濃淡画像である。
[0107] ステップ S202において、解像度低下処理部 102は、モフォロジ画像に対して解像 度低下処理を施す。これにより、モフォロジ画像の解像度は、顔画像の解像度が縦 X横 = 360 X 240であるのに対して、縦 X横 = 30 X 20とされる。なお、このサイズは 、 1画素が瞳 1個分の大きさになることを想定して!/、る。
[0108] ステップ S203において、相関値画像生成部 103は、解像度が低下された相関値 画像に対し、左及び右眼相関値フィルタを用いたフィルタ処理を施し左眼相関値画 像及び右眼相関値画像を生成する。図 23は左及び右眼相関値フィルタを示した図 面であり、(a)は左眼相関値フィルタを、(b)は右眼相関値フィルタを示している。 (a) 及び (b)を比較すれば分力るように、左及び右眼相関値フィルタは線対称の関係に ある。また、左及び右眼相関値フィルタにおいて Pが注目画素である。
[0109] 相関値画像生成部 103は、解像度低下処理が施されたモフォロジ画像の各画素を 注目画素とし、左及び右眼相関値フィルタを用いて、 Max (P, Q) X 5— (A+B + C + D + E) · · ·式(1)の演算を行い、各注目画素の相関値を求めることにより、左及び 右眼相関値画像を生成する。このフィルタは、周囲に対して輝度が高い領域を検出 するフィルタである。
[0110] 図 24は、グローバルパターン画像と左及び右眼ローカルパターン画像とを示した 図面であり、(a)はグローバルパターン画像を示し、(b)は左及び右眼ローカルパタ ーン画像を示して 、る。グローバルパターン画像 GP及び左及び右眼ローカルパター ン画像 RP1, RP2において、ハッチングが施された四角形からなる領域 Ml, M2は 、それぞれ左眼の瞳及び右眼の瞳に対応している。また、グローバルパターン画像 G Pに示す Oは、グロ一ノ レパターン画像の中心を示し、眉間に対応している。また、 左及び右眼ローカルパターン画像 RP1, RP2に示す Ol, 02は、左及び右眼の瞳 の中心に対応している。
[0111] 図 25は、顔画像の一例を示した図面であり、 (a)は顔が傾いていない場合、 (b)は 顔が傾!、て 、る場合を示して!/、る。
[0112] ここで、グローバルパターン画像 GPを基準画像とし、パターンマッチングにより、 (a ) , (b)に示す顔画像から両眼を含む領域 R1を検出し、検出した領域 R1を基に、眉 間を検出する処理を考える。 (a)に示すように、顔が傾いていない場合は、領域 R1を 抽出することができるため、領域 R1から眉間を検出することができる。しかし、(b)に 示すように、顔が傾いている場合は、領域 R1を検出することは困難であるため、眉間 を検出することはできない。そこで、本画像処理装置は、グローバルパターン画像 GP を左及び右眼ローカルパターン画像 RP1, RP2〖こ分け、両画像を個別に検出するこ とにより、顔が傾 、て 、るフレーム画像に対しても眉間を検出することを可能として ヽ る。
[0113] なお、式(1)において MAX (P, Q)の式に Qが含まれているため、顔が傾いている 場合における瞳の検出精度がさらに高められている。
[0114] 図 26は左及び右眼相関値画像の一例を示した図面であり、(a)は左眼相関値画 像を示し、(b)は右眼相関値画像を示している。(a)及び (b)において、色の濃さによ り相関値が示され、色が濃いほど相関値が高い。(a)に示すように左眼相関値画像 では、左眼に対応する領域 R3の相関値が高く算出されていることが分かる。また、 (b )に示すように右眼相関値画像では、右眼に対応する領域 R4の相関値が高く算出さ れていることが分かる。
[0115] 図 21に示すステップ S204において、移動部 104は、左眼相関値画像の各画素の 座標に、図 24で示す差分ベクトル D1を加えることにより、左眼相関値画像を差分べ タトル D1分、移動させると共に、右眼相関値画像の各画素の座標に図 24で示す差 分ベクトル D2を加えることにより、右眼相関値画像を差分ベクトル D2分移動させる。 なお、差分ベクトル Dlは、グローバルパターン画像 GPの中心 Oと、領域 Mlの中心 Olを始点とし、グローバルパターン画像 GPの中心 Oを終点とするベクトルであり、ま た、差分ベクトル D2は、領域 M2の中心 02を始点とし、グローバルパターン画像 GP の中心 Oを終点とするベクトルである。ここで、差分ベクトル Dl, D2は、グローバルパ ターン画像 GPに対する左及び右眼ローカルパターン画像 RP1, RP2の相対的な位 置関係によって決定することができるため、差分ベクトル Dl, D2は予め記憶装置に 記憶されている。
[0116] 図 27は、移動部 104によって移動された左及び右眼相関値画像を示す図面であり 、(a)は左眼相関値画像を示し、(b)は右眼相関値画像を示している。(a)に示すよう に、左眼を示す領域 R3が眉間に相当する位置に移動されていることが分かる。また 、(b)に示すように、右眼を示す領域 R4が眉間に相当する位置に移動されていること が分かる。
[0117] 図 21に示すステップ S205において、重畳部 105は、差分ベクトル D1移動された 左眼相関値画像と差分ベクトル D2移動された右眼相関値画像とに対して最大値フィ ルタによるフィルタ処理を施す。図 28は最大値フィルタによる処理結果を示す図面で あり、(a)は最大値フィルタによるフィルタ処理を施された左眼相関値画像を示し、 (b )は最大値フィルタによるフィルタ処理が施された右眼相関値画像を示している。図 2 8 (a) , (b)に示すように、図 27 (a)、(b)において、左及び右眼を示す領域 R3, R4 の範囲が大きくなり領域 R5, R6とされ、左及び右眼を示す領域 R3, R4がより確実に 重なるようにされて!、ることが分かる。
[0118] 図 21に示すステップ S206において、重畳部 105は、左及び右相関値画像の対応 する画素の相関値を乗算して両画像を重畳し、 1枚の合成画像を生成し、この合成 画像に対し顔中心評価画像を乗算し (ステップ S207)、合成画像中の眉間に相当す る位置付近の相関値をより高くする処理を行う。これにより、左及び右眼を示す画像 以外の画像との相関値の差が顕著に表れることとなる。
[0119] 図 29は、顔中心評価画像を示した図面である。図 29に示すように、顔中心評価画 像は、長軸が縦方向に平行に設定された楕円状の画像であり、色が濃くなるにつれ て輝度が高くなつている。この楕円は、顔の形を想定しており、眉間に相当する位置 の輝度が最大であり、周囲から眉間に相当する位置に向かうにつれて輝度が高くな つている。図 30は、顔中心評価画像によるフィルタ処理が施された合成画像を示し た図面である。図 30に示すように、左及び右眼に対応する画像以外の画像が除去さ れていることが分かる。
[0120] ステップ S208において、検出部 106は、顔中心評価画像によるフィルタ処理が施 された合成画像において、相関値が所定の値よりも高い領域が存在するカゝ否かを判 定し、所定の値よりも大きい領域が存在する場合 (ステップ S208で YES)、検出した 領域の中心の位置を眉間として検出する (ステップ S209)。一方、相関値が所定の 値よりも大きな領域を検出することができな力つた場合 (ステップ S 208で NO)、眉間 は検出できな力つたとして、処理が終了される。なお、検出部 106は、相関値が高い 領域を複数検出した場合、眉間は含まれていないとする、或いは輝度の平均値が最 大の領域の中心を眉間とする。
[0121] このように、基準位置検出部 512, 522によれば、左及び右相関値フィルタによるフ ィルタ処理により左及び右眼ローカルパターン画像 RP1, RP2に対する相関を示す 左及び右相関値画像が生成されている。これにより、グローバルパターン画像 GP全 体との相関を示す画像を生成する場合に比べて、顔画像が回転、拡大、縮小等の変 形を起こして 、る場合であっても、高 、相関を示す相関値画像を得ることができる。 そして、両画像が差分ベクトル Dl, D2移動され、最大値フィルタによるフィルタ処理 が施され、重畳されている。これにより、顔画像が上記変形を起こしている場合であつ ても、眉間に相当する位置において高い相関を示す合成画像を得ることができる。そ のため、眉間を高速、かつ、高精度に検出することができる。
[0122] (基準画像作成モード)
次に、基準画像作成モードについて説明する。図 31は、基準画像作成モードにお ける化粧シミュレーション装置の機能ブロック図である。基準画像作成モードにおける 化粧シミュレーション装置は、基準画像記憶部 11、静止画像取得部 301、操作部 30 2、レイヤー画像作成部 303、透明度レイヤー画像作成部 304、色レイヤー作成部 3 05、透明度正規化部 306、正規化透明度レイヤー画像記憶部 307、色変換処理部 308、色変換レイヤー画像記憶部 309、合成部 310、表示部 311、及び基準画像作 成成部部 331122をを備備ええてていいるる。。
[0123] 静静止止画画像像取取得得部部 330011はは、、静静止止画画カカメメララ 1111aaかからら構構成成さされれ、、基基準準画画像像ののモモデデルルととななるる 人人間間のの顔顔のの静静止止画画像像をを取取得得すするる。。操操作作部部 330022はは、、入入力力装装置置 11かからら構構成成さされれ、、ユユーーザザ かかららのの種種々々のの操操作作指指令令をを入入力力すするるたためめにに用用いいらられれるる。。
[0124] レレイイヤヤーー画画像像作作成成部部 330033はは、、ユユーーザザにによよりり顔顔のの静静止止画画像像上上にに 11種種類類のの化化粧粧要要素素画画 像像がが描描画画さされれるる毎毎ににそそのの化化粧粧要要素素画画像像をを含含むむ 11枚枚ののレレイイヤヤーー画画像像をを作作成成すするる。。レレイイ ヤヤーー画画像像はは、、上上述述ししたたよよううにに、、 RR,, GG,, BB値値力力ももななるる色色成成分分とと各各画画素素のの透透明明度度ととかからら構構 成成さされれるる。。透透明明度度はは、、レレイイヤヤーー画画像像のの静静止止画画像像にに対対すするる透透明明度度をを示示すす。。
[0125] 透透明明度度レレイイヤヤーー画画像像作作成成部部 330044はは、、図図 22にに示示すす透透明明度度レレイイヤヤーー画画像像作作成成部部 2211とと同同 様様にに、、レレイイヤヤーー画画像像のの透透明明度度をを基基にに、、レレイイヤヤーー画画像像のの各各階階層層にに対対応応すするる透透明明度度レレイイ ヤヤーー画画像像をを作作成成すするる。。色色レレイイヤヤーー作作成成部部 330055はは、、色色レレイイヤヤーー作作成成部部 3311とと同同様様にに、、レレ ィィヤヤーー画画像像のの色色成成分分をを基基にに、、レレイイヤヤーー画画像像のの各各階階層層にに対対応応すするる色色レレイイヤヤーーをを作作成成すす るる。。
[0126] 透透明明度度正正規規ィィ匕匕部部 330066はは、、図図 22にに示示すす透透明明度度正正規規化化部部 2222とと同同様様にに、、透透明明度度レレイイヤヤーー 画画像像のの各各画画素素にに対対しし、、上上記記式式((11))のの演演算算をを施施しし、、正正規規化化透透明明度度レレイイヤヤーー画画像像をを作作成成 すするるととととももにに、、静静止止画画像像のの各各画画素素にに対対しし式式((22))のの演演算算をを施施しし、、静静止止画画像像のの各各画画素素のの 透透明明度度をを正正規規化化すするる。。
[0127] 正正規規ィィ匕匕透透明明度度レレイイヤヤーー画画像像記記憶憶部部 330077はは、、 RRAAMM44かからら構構成成さされれ、、正正規規化化透透明明度度レレ ィィヤヤーー画画像像及及びび正正規規化化さされれたた顔顔画画像像のの各各画画素素のの透透明明度度をを記記憶憶すするる。。色色変変換換処処理理部部 330088はは、、色色変変換換処処理理部部 3322とと同同様様にに、、色色レレイイヤヤーーのの RR,, GG,, BB値値及及びび静静止止画画像像のの各各画画 素素のの RR,, GG,, BB値値ををそそれれぞぞれれ HHSSVV表表色色系系にに変変換換ししたた後後、、上上記記式式((33))——式式((55))にに示示すす 色色変変換換処処理理をを実実行行しし、、得得らられれたた画画像像ををささららにに、、 RR,, GG,, BB表表色色系系にに変変換換すするるここととにによよりり、、 レレイイヤヤーー画画像像のの各各階階層層にに対対応応すするる色色変変換換レレイイヤヤーー画画像像作作成成すするる。。
[0128] 色色変変換換レレイイヤヤーー画画像像記記憶憶部部 330099はは、、 RRAAMM44かからら構構成成さされれ、、色色変変換換処処理理部部 330088にによよ つつてて作作成成さされれたた色色変変換換レレイイヤヤーー画画像像をを記記憶憶すするる。。
[0129] 合合成成部部 331100はは、、図図 22にに示示すす合合成成部部 7700とと同同様様にに、、正正規規化化透透明明度度レレイイヤヤーー画画像像のの各各画画 素素のの透透明明度度をを色色変変換換レレイイヤヤーー画画像像のの各各画画素素ののアアルルフファァ値値ととしし、、色色変変換換レレイイヤヤーー画画像像 * [0130] 表示部 311は、表示装置 6から構成され、合成部 310によって合成された画像を表 示する。基準画像作成部 312は、レイヤー画像作成部 303によって作成されたレイ ヤー画像と静止画像取得部 301によって取得された静止画像とを、基準画像として、 基準画像記憶部 11に記憶させる。
[0131] 次に、基準画像作成モードにおける化粧シミュレーション装置の動作について、図 32に示すフローチャートを用いて説明する。まず、ステップ S301において、静止画 像取得部 301は、基準画像のモデルとなる人間の顔の静止画像を取得する。この場 合、例えば、図 6に示すような人間の顔の静止画像が取得される。
[0132] ステップ S302において、レイヤー画像作成部 303は、操作部 302を介して、ユー ザによる化粧要素画像の描画入力を受け付け、ステップ S303において、 1種類の化 粧要素画像の描画入力を受け付ける毎に、各化粧要素画像を含むレイヤー画像を 作成する。
[0133] この場合、レイヤー画像作成部 303は、静止画像取得部 301によって取得された 静止画像を表示部 311に表示させ、表示された静止画像上に化粧要素画像をペン タブレット等を用いて描画された化粧要素画を受け付ける。受け付けられた化粧要素 画像は、表示部 311に表示される。また、 1種類の化粧要素画像の入力が終了した か否かの判断はユーザの指示によって行なわれる。
[0134] この段階において、表示部 311には、透明度と、単色の色成分とによって表された 化粧要素画像が、静止画像上に単に重ねて合わされた画像が表示されており、化粧 要素画像が違和感のある不自然な状態で表示されて!、る。
[0135] ステップ S304において、ユーザによりステップ S303で作成されたレイヤー画像を 静止画像に合成する指示が入力されると (ステップ S304で YES)、処理がステップ S
306に進められる。一方、ステップ S304において、レイヤー画像を静止画像に合成 する指示が入力されない場合は(ステップ S304で NO)、処理がステップ S305に進 められる。
[0136] ステップ S305において、ユーザにより基準作成モードの終了の指示がされた場合
(ステップ S305で YES)、処理が終了される。一方、ステップ S305において、ユーザ により基準作成モードの終了の指示がされな力つた場合 (ステップ S305で NO)、処 理がステップ S302に戻される。
[0137] ステップ S306において、透明度レイヤー画像作成部 304は、レイヤー画像の透明 度を基に、レイヤー画像の各階層に対応する透明度レイヤー画像を作成する。ステ ップ S307において、色レイヤー作成部 305は、レイヤー画像の色成分を基に、レイ ヤー画像の各階層に対応する色レイヤーを作成する。
[0138] ステップ S308において、透明度正規ィ匕部 306は、透明度レイヤー画像の各画素 の透明度を正規ィ匕し、正規化透明度レイヤー画像を作成し、正規化透明度レイヤー 画像記憶部 307に記憶させるとともに、静止画像の各画素の透明度を正規ィ匕し、正 規ィ匕透明度レイヤー画像記憶部 307に記憶させる。
[0139] ステップ S309において、色変換処理部 308は、色レイヤーと静止画像とを基に、レ ィヤー画像の各階層に対応する色変換レイヤー画像を作成し、色変換レイヤー画像 記憶部 309に記憶させる。
[0140] ステップ S310において、合成部 310は、静止画像と、色変換レイヤー画像とをアル ファブレンデイングにより合成させる。ステップ S311において、表示部 311は、合成 部 310によって合成された画像を表示する。この場合、ステップ S302の段階で、静 止画像上に違和感なく不自然な状態で表示されて!、た化粧要素画像が違和感のな い自然な状態で静止画像上に表示されることとなる。
[0141] ステップ S312において、ユーザにより基準画像の作成指示がされると (ステップ S3 12で YES)、ステップ S313に進み、基準画像作成部 312は、レイヤー画像作成部 3 03によって作成されたレイヤー画像と静止画像取得部 301によって取得された静止 画像とを合成して基準画像を作成し、基準画像記憶部 11に記憶させ、基準画像作 成モードを終了させる。
[0142] 一方、ステップ S312において、ユーザにより基準画像の作成指示がされない場合
(ステップ S312で NO)、処理がステップ S302に戻される。
[0143] なお、本発明は、以下の態様を採用してもよい。
[0144] (1)上記実施の形態では、ィ匕粧シミュレーションプログラムをコンピュータにインスト ールすることにより、コンピュータをィ匕粧シミュレーション装置として機能させていたが 、これに限定されず、専用のハードウェア回路を用いて、化粧シミュレーション装置を 構成してちょい。
[0145] (2)上記実施の形態では、レイヤー画像は、 1種類の化粧要素画像を含むものとし たが、これに限定されず、色成分が一致する複数の化粧要素画像を含ませても良い
[0146] (3)上記実施の形態では、静止画像を静止画カメラ 1 laで取得して ヽたが、これに 限定されず、動画カメラにより撮影された動画像の 1枚のフレーム画像を静止画像と して取得してもよい。これにより、静止画カメラ 11aが不要となる。
[0147] (まとめ)
( 1) n (nは正の整数)枚のレイヤー画像と 1枚の顔画像とから構成される基準画像 を用いてコンピュータに化粧シミュレーションを実行させる化粧シミュレーションプログ ラムであって、前記基準画像は操作装置を介して入力されたユーザ力 の描画指令 に基づいて予め作成されたものであり、前記 n枚のレイヤー画像は、各々同一色から なる少なくとも 1つの化粧要素画像を含み、前記 n枚のレイヤー画像の各々に対し、 各レイヤー画像の各画素に設定された透明度を基に、前記 n枚のレイヤー画像の各 々に対応する n枚の第 1の画像を作成する第 1の画像作成手段、シミュレーション対 象となる人物の顔を含むシミュレーション対象画像を取得する対象画像取得手段、 前記基準画像に含まれる顔領域にメッシュを設定すると共に、前記シミュレーション 対象画像に含まれる顔領域にメッシュを設定するメッシュ設定手段、前記基準画像 及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位 置の差分を算出し、算出した差分に基づいて、前記 n枚の第 1の画像の各々に含ま れる化粧要素画像を、前記シミュレーション対象画像に含まれるの顔領域に適合す るように変形させる変形手段、前記シミュレーション対象画像に対して前記 n枚のレイ ヤー画像の色成分を用いた所定の色変換処理を実行することにより、前記 n枚のレイ ヤー画像の各々に対応する n枚の第 2の画像を作成する第 2の画像作成手段、前記 n枚の第 1の画像を基に、前記 n枚の第 2の画像及び前記シミュレーション対象画像 の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像 と前記 n枚の第 2の画像とを合成する合成手段としてコンピュータを機能させることを 特徴とする。 [0148] この構成によれば、ユーザは、簡便な操作により高品質な化粧が仮想的に施され た化粧シミュレーション画像を高速に得ることができる。また、仮想的に化粧が施され たシミュレーション対象画像から一部の化粧要素画像を削除する、又は、一部の化粧 要素画像の色を変更すると 、うような変更を容易に行なうことができる。
[0149] (2)また、前記第 1の画像作成手段は、前記レイヤー画像に設定された各画素の透 明度を基に、透明度レイヤー画像を作成し、作成した透明度レイヤー画像の各画素 の透明度を正規ィ匕し、得られた画像を前記第 1の画像とし、前記合成手段は、アルフ アブレンデイングにより、前記シミュレーション対象画像及び前記 2の画像を合成する ことが好ましい。
[0150] この構成によれば、透明度レイヤー画像の各画素の透明度が正規ィ匕されているた め、合成手段は、レイヤー画像の順序が入れ替わっても、同一の画像を生成すること ができる。
[0151] (3)前記第 2の画像作成手段は、各レイヤー画像の色成分及び前記シミュレーショ ン対象画像の各々の色成分を RGB表色系から HSV表色系に変換し、変換した両色 成分に対して式 (A)—式 (C)に示す色変換処理を実行し、得られた画像を HSV表 色系から RGB表色系に変換し、前記第 2の画像を作成することが好ま ヽ。
H =H …式(A)
S =0. 8 X S +0. 2 X S …式(B)
V =0. 8 XV +0. 2 XV …式 )
但し、 H、 S、 Vはレイヤー画像の色成分の HSV値を示し、 S、 Vはシミュレーショ c c c f f
ン対象画像の各画素の HSV値を示し、 H、 S、 Vは第 2の画像の各画素の HSV値 を示している。
[0152] この構成によれば、シミュレーション対象画像の明度'彩度をある程度維持したまま 、化粧要素画像の色相を変更することができるため、化粧要素画像をシミュレーショ ン対象画像上に自然な状態で表すことができる。
[0153] (4) 前記メッシュ設定手段は、顔の特徴的な位置に設定された特徴頂点と、その 他の浮動頂点とから各頂点が構成される初期メッシュを記憶する初期メッシュ記憶手 段と、前記シミュレーション対象画像及び前記基準画像の各々に含まれる顔領域か ら所定の基準位置を検出する基準位置検出手段と、前記基準位置検出手段により 検出された基準位置を基に、前記シミュレーション対象画像及び前記基準画像の各 々から前記特徴頂点に対応する特徴点を抽出する特徴点抽出手段と、前記特徴頂 点を、前記特徴点抽出手段により抽出された対応する特徴点に移動させると共に、 前記浮動頂点を、当該初期メッシュの各頂点間の距離が保持されるように移動させる 頂点移動手段とを備えることが好まし 、。
[0154] この構成によれば、初期メッシュの頂点同士の位置関係がバランスよく保持された 状態で、基準画像及びシミュレーション対象画像にメッシュを設定することができる。 (5)前記特徴点移動手段は、前記初期メッシュの各頂点を、画像面と直交する高さ 成分が付与された 3次元データとし、前記浮動頂点には、一定の高さ成分を付与し、 前記特徴頂点は、前記画像面上に位置させ、前記各頂点に対し、式 (D)及び式 (E) で示す演算を所定回数適用することにより前記浮動頂点を移動させることが好ましい
[0155] [数 5]
P = Pi - λ ( I Pi-Pj I lij)(Pi Pj) · · ·式 (D) = +え( I PpPj I - lij)(Pi-Pj) · · ·式 (E)
但し、 Piベクトルは、メッシュの頂点の座標を示し、 Pjベクトルは、 ベクトルに隣接 するメッシュの頂点の座標を示し、 p 'ベクトルは演算が施された pベクトルを示し、 P 'ベクトルは演算が施された pベクトルを示し、 1は pベクトル及び pベクトルを結ぶ線 j
分の長さを示し、 λは定数値を示している。
[0156] この構成によれば、初期メッシュの各頂点間の距離を保持しつつ、メッシュを構成 するポリゴンの重なりの発生を防止することができる。
[0157] (6)前記基準位置検出手段は、左右の眼及び眉間を含む領域力 なる眼領域画 像を構成する左眼断片画像及び右眼断片画像を用いて、前記基準画像及び前記シ ミュレーシヨン対象画像の各々の眉間を前記基準位置として検出するものであり、左 眼断片画像と顔との相関を示す左眼相関値画像を生成すると共に、右眼断片画像と 顔との相関を示す右眼相関値画像を生成する相関値画像生成手段と、前記眼領域 画像に対する左眼断片画像及び右眼断片画像の相対的な位置関係を基に、前記 左眼相関値画像内の高い相関を示す領域と前記右眼相関値画像内の高い相関を 示す領域とが眉間で重なるように、左眼及び右眼相関値画像を移動させる相関値画 像移動手段と、前記相関値画像移動手段により移動された左眼及び右眼相関値画 像を重畳する相関値画像重畳手段と、前記相関値画像重畳手段により重畳された 左眼及び右眼相関値画像において、所定の値より相関値が高い領域を検出すること により、眉間を検出する眉間検出手段とを備えることが好ましい。
[0158] この構成によれば、眼領域画像を構成する左眼断片画像と顔画像との相関を示す 左眼相関値画像が生成されると共に、右眼断片画像と顔画像との相関を示す右眼 相関値画像が生成される。ここで、眼領域画像を用いるのではなぐ眼領域画像の断 片画像である左眼及び右眼断片画像を用いて左眼及び右眼相関値画像が生成さ れているため、顔領域が眼領域画像に対して回転、拡大等の変形を起こしている場 合、左眼及び右眼相関値画像は、眼領域画像と顔画像との相関値画像に比べて高 い相関を示す画像となる。
[0159] そして、左眼及び右眼相関値画像の各々の高い相関を示す領域が眉間で重なる ように移動され、左眼及び右眼相関値画像が重畳される。そして、重畳された両相関 値画像において、所定の値よりも相関値が高い領域が検出され、眉間が検出されて いる。
[0160] ここで、左眼及び右眼断片画像の各々が、左眼及び右眼を検出している場合、両 相関値画像は高 、相関を示すため、相関値の高 、領域が重なるように各相関値画 像を移動させて重畳すると、重畳された画像は更に高い相関を示すこととなる。
[0161] 一方、左眼及び右眼断片画像の各々が、左眼及び右眼を検出していない場合、左 眼或いは右眼相関値画像は高 、相関を示さな 、ため、左眼及び右眼相関値画像を 重畳した画像は高 、相関を示さな 、こととなる。
[0162] そのため、左眼及び右眼相関値画像を重畳することで得られた画像力も高い相関 を示す領域を検出すれば、眉間を検出することが可能となる。したがって、眼領域画 像に対して、顔画像が拡大、縮小、回転等されていても、高精度に眉間を検出するこ とができる。さらに、特開 2003— 216931号公報記載の発明のように 2度に亘つて相 関を算出するというような複雑な処理が行なわれていないため、眉間を高速に検出す ることがでさる。
[0163] (7)前記相関値画像生成手段は、前記顔画像に対してモフォロジ処理を施し、前 記左眼及び右眼相関値画像を生成することが好ましい。
[0164] この構成によれば、周囲に対して輝度が低い画像を強調させるモフォロジ処理が顔 画像に対して施され、左眼及び右眼の画像が強調され、モフォロジ処理が施された 顔画像力ゝら左眼及び右眼相関値画像が生成されているため、左眼及び右眼断片画 像と顔画像との相関をより正確に示す相関値画像を得ることができる。
[0165] (8)前記相関値画像生成手段は、前記モフォロジ処理を施した画像に対し、更に 解像度を低下させる処理を施し、前記相関値画像を生成することが好まし 、。
[0166] この構成によれば、モフォロジ処理が施された顔画像に対し、更に解像度を低下さ せる処理が施されているため、左眼及び右眼相関値画像を高速に生成することがで きるとともに、後の処理を簡略ィ匕することができる。
[0167] (9)前記相関値画像重畳手段は、前記相関値画像移動手段により移動された左眼 及び右眼相関値画像の対応する画素データを乗算することにより両相関値画像を重 畳することが好ましい。
[0168] この構成によれば、左眼及び右眼相関値画像の対応する画素データが乗算され、 左眼及び右眼相関値画像が重畳されて 、るため、相関の高 、領域と相関の低 、領 域との差をより顕著に示す左眼及び右眼相関値画像を得ることができ、検出精度を 高めることができる。
[0169] (10)前記相関値画像重畳手段は、前記相関値画像移動手段により移動された左 眼及び右眼相関値画像に対し、高い相関を示す領域を拡大する処理を施し、前記 左眼及び右眼相関値画像を重畳することが好ましい。
[0170] この構成によれば、左眼及び右眼相関値画像に対して高い相関を示す領域を拡 大する処理が施され、両相関値画像が重畳されているため、左眼及び右眼断片画 像が小さく設定されている場合や、眼領域画像に対して右眼及び左眼が大きく変形 している場合であっても、高い相関を示す領域をより精度よく重畳させることができる [0171] (11)前記相関値画像重畳手段は、前記相関値画像移動手段により移動された前 記左眼及び右眼相関値画像に対し、高い相関を示す領域の相関値を更に高くする 処理を行なうことが好まし 、。
[0172] この構成によれば、眉間付近の相関値を高くする処理が行なわれるため、左眼及 び右眼に対する領域と他の領域との相関値の差が顕著となり、眉間をより正確に検 出することができる。
[0173] (12)前記シミュレーション対象画像は、動画像中の各フレーム画像であることが好 ましい。
[0174] この構成によれば、動画像に対して化粧シミュレーションを実行することができる。
[0175] (13)本発明による化粧シミュレーション装置は、 n(nは正の整数)枚のレイヤー画 像と 1枚の顔画像とから構成される基準画像を用いて化粧シミュレーションを実行す る化粧シミュレーション装置であって、前記基準画像は操作装置を介して入力された ユーザ力 の描画指令に基づいて予め作成されたものであり、前記 n枚のレイヤー画 像は、各々同一色力 なる少なくとも 1つの化粧要素画像を含み、前記 n枚のレイヤ 一画像の各々に対し、各レイヤー画像の各画素に設定された透明度を基に、前記 n 枚のレイヤー画像の各々に対応する n枚の第 1の画像を作成する第 1の画像作成手 段と、シミュレーション対象となる人物の顔を含むシミュレーション対象画像を取得す る対象画像取得手段と、前記基準画像に含まれる顔領域にメッシュを設定すると共 に、前記シミュレーション対象画像に含まれる顔領域にメッシュを設定するメッシュ設 定手段と、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッ シュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記 n枚の 第 1の画像の各々に含まれる化粧要素画像を、前記シミュレーション対象画像に含ま れるの顔領域に適合するように変形させる変形手段と、前記シミュレーション対象画 像に対して前記 n枚のレイヤー画像の色成分を用いた所定の色変換処理を実行す ることにより、前記 n枚のレイヤー画像の各々に対応する n枚の第 2の画像を作成する 第 2の画像作成手段と、前記 n枚の第 1の画像を基に、前記 n枚の第 2の画像及び前 記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前 記シミュレーション対象画像と前記 n枚の第 2の画像とを合成する合成手段とを備える ことを特徴とする。
[0176] この構成によれば、ユーザは、簡便な操作により高品質な化粧が仮想的に施され た化粧シミュレーション画像を高速に得ることができる。また、仮想的に化粧が施され たシミュレーション対象画像から一部の化粧要素画像を削除する、又は、一部の化粧 要素画像の色を変更すると 、うような変更を容易に行なうことができる。
[0177] (14)本発明に力かる化粧シミュレーション方法は、 n (nは正の整数)枚のレイヤー 画像と 1枚の顔画像とから構成される基準画像を用いてコンピュータに化粧シミュレ ーシヨンを実行させる化粧シミュレーション方法であって、前記基準画像は操作装置 を介して入力されたユーザ力 の描画指令に基づいて予め作成されたものであり、 前記 n枚のレイヤー画像は、各々同一色カゝらなる少なくとも 1つの化粧要素画像を含 み、前記コンピュータは、第 1の画像作成手段、対象画像取得手段、メッシュ設定手 段、変形手段、第 2の画像作成手段、及び合成手段を備え、前記第 1の画像作成手 段力 前記 n枚のレイヤー画像の各々に対し、各レイヤー画像の各画素に設定され た透明度を基に、前記 n枚のレイヤー画像の各々に対応する n枚の第 1の画像を作 成するステップと、前記対象画像取得手段が、シミュレーション対象となる人物の顔を 含むシミュレーション対象画像を取得するステップと、メッシュ設定手段が、前記基準 画像に含まれる顔領域にメッシュを設定すると共に、前記シミュレーション対象画像 に含まれる顔領域にメッシュを設定するステップと、前記変形手段が、前記基準画像 及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位 置の差分を算出し、算出した差分に基づいて、前記 n枚の第 1の画像の各々に含ま れる化粧要素画像を、前記シミュレーション対象画像に含まれるの顔領域に適合す るように変形させるステップと、前記第 2の画像作成手段が、前記シミュレーション対 象画像に対して前記 n枚のレイヤー画像の色成分を用いた所定の色変換処理を実 行することにより、前記 n枚のレイヤー画像の各々に対応する n枚の第 2の画像を作 成するステップと、前記合成手段が、前記 n枚の第 1の画像を基に、前記 n枚の第 2の 画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度 を用いて、前記シミュレーション対象画像と前記 n枚の第 2の画像とを合成するステツ プとを備えることを特徴とする。
この構成によれば、ユーザは、簡便な操作により高品質な化粧が仮想的に施され た化粧シミュレーション画像を高速に得ることができる。また、仮想的に化粧が施され たシミュレーション対象画像から一部の化粧要素画像を削除する、又は、一部の化粧 要素画像の色を変更すると 、うような変更を容易に行なうことができる。

Claims

請求の範囲
[1] n (nは正の整数)枚のレイヤー画像と 1枚の顔画像とから構成される基準画像を用 いてコンピュータに化粧シミュレーションを実行させる化粧シミュレーションプログラム であって、
前記基準画像は操作装置を介して入力されたユーザ力 の描画指令に基づいて 予め作成されたものであり、
前記 n枚のレイヤー画像は、各々同一色力もなる少なくとも 1つの化粧要素画像を 含み、
前記 n枚のレイヤー画像の各々に対し、各レイヤー画像の各画素に設定された透 明度を基に、前記 n枚のレイヤー画像の各々に対応する n枚の第 1の画像を作成す る第 1の画像作成手段、
シミュレーション対象となる人物の顔を含むシミュレーション対象画像を取得する対 象画像取得手段、
前記基準画像に含まれる顔領域にメッシュを設定すると共に、前記シミュレーション 対象画像に含まれる顔領域にメッシュを設定するメッシュ設定手段、
前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対 応する頂点の位置の差分を算出し、算出した差分に基づいて、前記 n枚の第 1の画 像の各々に含まれる化粧要素画像を、前記シミュレーション対象画像に含まれるの 顔領域に適合するように変形させる変形手段、
前記シミュレーション対象画像に対して前記 n枚のレイヤー画像の色成分を用いた 所定の色変換処理を実行することにより、前記 n枚のレイヤー画像の各々に対応する n枚の第 2の画像を作成する第 2の画像作成手段、
前記 n枚の第 1の画像を基に、前記 n枚の第 2の画像及び前記シミュレーション対象 画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象 画像と前記 n枚の第 2の画像とを合成する合成手段としてコンピュータを機能させるこ とを特徴とする化粧シミュレーションプログラム。
[2] 前記第 1の画像作成手段は、前記レイヤー画像に設定された各画素の透明度を基 に、透明度レイヤー画像を作成し、作成した透明度レイヤー画像の各画素の透明度 を正規化し、得られた画像を前記第 1の画像とし、
前記合成手段は、アルファブレンデイングにより、前記シミュレーション対象画像及 び前記 2の画像を合成することを特徴とする請求項 1記載の化粧シミュレーションプロ グラム。
[3] 前記第 2の画像作成手段は、各レイヤー画像の色成分及び前記シミュレーション対 象画像の各々の色成分を RGB表色系力 HSV表色系に変換し、変換した両色成 分に対して式 (A)—式 (C)に示す色変換処理を実行し、得られた画像を HSV表色 系から RGB表色系に変換し、前記第 2の画像を作成することを特徴とする請求項 2 記載の化粧シミュレーションプログラム。
H =H …式(A)
S =0. 8 X S +0. 2 X S …式(B)
V =0. 8 XV +0. 2 XV …式 )
但し、 H、 S、 Vはレイヤー画像の色成分の HSV値を示し、 S、 Vはシミュレーショ c c c f f
ン対象画像の各画素の HSV値を示し、 H、 S、 Vは第 2の画像の各画素の HSV値 を示している。
[4] 前記メッシュ設定手段は、
顔の特徴的な位置に設定された特徴頂点と、その他の浮動頂点とから各頂点が構 成される初期メッシュを記憶する初期メッシュ記憶手段と、
前記シミュレーション対象画像及び前記基準画像の各々に含まれる顔領域から所 定の基準位置を検出する基準位置検出手段と、
前記基準位置検出手段により検出された基準位置を基に、前記シミュレーション対 象画像及び前記基準画像の各々から前記特徴頂点に対応する特徴点を抽出する 特徴点抽出手段と、
前記特徴頂点を、前記特徴点抽出手段により抽出された対応する特徴点に移動さ せると共に、前記浮動頂点を、当該初期メッシュの各頂点間の距離が保持されるよう に移動させる頂点移動手段とを備えることを特徴とする請求項 1一 3のいずれかに記 載の化粧シミュレーションプログラム。
[5] 前記頂点移動手段は、前記初期メッシュの各頂点を、画像面と直交する高さ成分 が付与された 3次元データとし、前記浮動頂点には、一定の高さ成分を付与し、前記 特徴頂点は、前記画像面上に位置させ、前記各頂点に対し、式 (D)及び式 (E)で示 す演算を所定回数適用することにより前記浮動頂点を移動させることを特徴とする請 求項 4記載の化粧シミュレーションプログラム。
[数 1]
? r Pi ~ λ ( I Pi-Pj I― iij) Pi-Pj) · · ·式 (D) ? ρ^ + λ ( I PpPj I - iij)(Pi-Pj) · · ·式 (E)
但し、 Pベクトルは、メッシュの頂点の座標を示し、 Pベクトルは、 Pベクトルに隣接 するメッシュの頂点の座標を示し、 P 'ベクトルは演算が施された Pベクトルを示し、 P 'ベクトルは演算が施された Pベクトルを示し、 1は Pベクトル及び Pベクトルを結ぶ線 分の長さを示し、 λは定数値を示している。
前記基準位置検出手段は、
左右の眼及び眉間を含む領域カゝらなる眼領域画像を構成する左眼断片画像及び 右眼断片画像を用いて、前記基準画像及び前記シミュレーション対象画像の各々の 眉間を前記基準位置として検出するものであり、
左眼断片画像と顔との相関を示す左眼相関値画像を生成すると共に、右眼断片画 像と顔との相関を示す右眼相関値画像を生成する相関値画像生成手段と、 前記眼領域画像に対する左眼断片画像及び右眼断片画像の相対的な位置関係 を基に、前記左眼相関値画像内の高い相関を示す領域と前記右眼相関値画像内の 高 ヽ相関を示す領域とが眉間で重なるように、左眼及び右眼相関値画像を移動させ る相関値画像移動手段と、
前記相関値画像移動手段により移動された左眼及び右眼相関値画像を重畳する 相関値画像重畳手段と、
前記相関値画像重畳手段により重畳された左眼及び右眼相関値画像において、 所定の値より相関値が高い領域を検出することにより、眉間を検出する眉間検出手 段とを備えることを特徴とする請求項 4記載の化粧シミュレーションプログラム。 [7] 前記相関値画像生成手段は、前記顔画像に対してモフォロジ処理を施し、前記左 眼及び右眼相関値画像を生成することを特徴とする請求項 6記載の化粧シミュレ一 シヨンプログラム。
[8] 前記相関値画像生成手段は、前記モフォロジ処理を施した画像に対し、更に解像 度を低下させる処理を施し、前記相関値画像を生成することを特徴とする請求項 7記 載の化粧シミュレーションプログラム。
[9] 前記相関値画像重畳手段は、前記相関値画像移動手段により移動された左眼及 び右眼相関値画像の対応する画素データを乗算することにより両相関値画像を重畳 することを特徴とする請求項 6記載の化粧シミュレーションプログラム。
[10] 前記相関値画像重畳手段は、前記相関値画像移動手段により移動された左眼及 び右眼相関値画像に対し、高い相関を示す領域を拡大する処理を施し、前記左眼 及び右眼相関値画像を重畳することを特徴とする請求項 9記載の化粧シミュレーショ ンプログラム。
[11] 前記相関値画像重畳手段は、前記相関値画像移動手段により移動された前記左 眼及び右眼相関値画像に対し、高い相関を示す領域の相関値を更に高くする処理 を行なうことを特徴とする請求項 10記載の化粧シミュレーションプログラム。
[12] 前記シミュレーション対象画像は、動画像中の各フレーム画像であることを特徴とす る請求項 1記載の化粧シミュレーションプログラム。
[13] n(nは正の整数)枚のレイヤー画像と 1枚の顔画像とから構成される基準画像を用 いて化粧シミュレーションを実行する化粧シミュレーション装置であって、
前記基準画像は操作装置を介して入力されたユーザ力 の描画指令に基づいて 予め作成されたものであり、
前記 n枚のレイヤー画像は、各々同一色力もなる少なくとも 1つの化粧要素画像を 含み、
前記 n枚のレイヤー画像の各々に対し、各レイヤー画像の各画素に設定された透 明度を基に、前記 n枚のレイヤー画像の各々に対応する n枚の第 1の画像を作成す る第 1の画像作成手段と、
シミュレーション対象となる人物の顔を含むシミュレーション対象画像を取得する対 象画像取得手段と、
前記基準画像に含まれる顔領域にメッシュを設定すると共に、前記シミュレーション 対象画像に含まれる顔領域にメッシュを設定するメッシュ設定手段と、
前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対 応する頂点の位置の差分を算出し、算出した差分に基づいて、前記 n枚の第 1の画 像の各々に含まれる化粧要素画像を、前記シミュレーション対象画像に含まれるの 顔領域に適合するように変形させる変形手段と、
前記シミュレーション対象画像に対して前記 n枚のレイヤー画像の色成分を用いた 所定の色変換処理を実行することにより、前記 n枚のレイヤー画像の各々に対応する n枚の第 2の画像を作成する第 2の画像作成手段と、
前記 n枚の第 1の画像を基に、前記 n枚の第 2の画像及び前記シミュレーション対象 画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象 画像と前記 n枚の第 2の画像とを合成する合成手段とを備えることを特徴とする化粧 シミュレーション装置。
n (nは正の整数)枚のレイヤー画像と 1枚の顔画像とから構成される基準画像を用 いてコンピュータに化粧シミュレーションを実行させる化粧シミュレーション方法であつ て、
前記基準画像は操作装置を介して入力されたユーザ力 の描画指令に基づいて 予め作成されたものであり、
前記 n枚のレイヤー画像は、各々同一色力もなる少なくとも 1つの化粧要素画像を 含み、
前記コンピュータは、第 1の画像作成手段、対象画像取得手段、メッシュ設定手段 、変形手段、第 2の画像作成手段、及び合成手段を備え、
前記第 1の画像作成手段が、前記 n枚のレイヤー画像の各々に対し、各レイヤー画 像の各画素に設定された透明度を基に、前記 n枚のレイヤー画像の各々に対応する n枚の第 1の画像を作成するステップと、
前記対象画像取得手段が、シミュレーション対象となる人物の顔を含むシミュレ一 シヨン対象画像を取得するステップと、 前記メッシュ設定手段が、前記基準画像に含まれる顔領域にメッシュを設定すると 共に、前記シミュレーション対象画像に含まれる顔領域にメッシュを設定するステップ と、
前記変形手段が、前記基準画像及び前記シミュレーション対象画像の各々に設定 されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前 記 n枚の第 1の画像の各々に含まれる化粧要素画像を、前記シミュレーション対象画 像に含まれるの顔領域に適合するように変形させるステップと、
前記第 2の画像作成手段力 前記シミュレーション対象画像に対して前記 n枚のレ ィヤー画像の色成分を用いた所定の色変換処理を実行することにより、前記 n枚のレ ィヤー画像の各々に対応する n枚の第 2の画像を作成するステップと、
前記合成手段が、前記 n枚の第 1の画像を基に、前記 n枚の第 2の画像及び前記シ ミュレーシヨン対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シ ミュレーシヨン対象画像と前記 n枚の第 2の画像とを合成するステップとを備えることを 特徴とする化粧シミュレーション方法。
PCT/JP2004/016125 2004-01-30 2004-10-29 化粧シミュレーションプログラム、化粧シミュレーション装置、及び化粧シミュレーション方法 WO2005073909A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/583,619 US20070019882A1 (en) 2004-01-30 2004-10-29 Makeup simulation program, makeup simulation device, and makeup simulation method
EP04793233A EP1710746A1 (en) 2004-01-30 2004-10-29 Makeup simulation program, makeup simulation device, and makeup simulation method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-023947 2004-01-30
JP2004023947A JP4404650B2 (ja) 2004-01-30 2004-01-30 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム
JP2004177954A JP2006004051A (ja) 2004-06-16 2004-06-16 画像処理プログラム、画像処理装置、及び画像処理方法
JP2004-177954 2004-06-16

Publications (1)

Publication Number Publication Date
WO2005073909A1 true WO2005073909A1 (ja) 2005-08-11

Family

ID=34829423

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/016125 WO2005073909A1 (ja) 2004-01-30 2004-10-29 化粧シミュレーションプログラム、化粧シミュレーション装置、及び化粧シミュレーション方法

Country Status (3)

Country Link
US (1) US20070019882A1 (ja)
EP (1) EP1710746A1 (ja)
WO (1) WO2005073909A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100527170C (zh) * 2006-09-20 2009-08-12 清华大学 一种复杂表情仿真系统及其实现方法
CN111815534A (zh) * 2020-07-14 2020-10-23 厦门美图之家科技有限公司 实时皮肤妆容迁移方法、装置、电子设备和可读存储介质

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008228168A (ja) * 2007-03-15 2008-09-25 Fuji Xerox Co Ltd 画像処理装置およびプログラム
JP4289414B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP5432532B2 (ja) * 2008-01-22 2014-03-05 株式会社 資生堂 化粧方法、化粧シミュレーション装置、及び化粧シミュレーションプログラム
US9058765B1 (en) * 2008-03-17 2015-06-16 Taaz, Inc. System and method for creating and sharing personalized virtual makeovers
JP5525923B2 (ja) * 2010-06-09 2014-06-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP4760999B1 (ja) 2010-10-29 2011-08-31 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
TWI424917B (zh) * 2011-04-11 2014-02-01 Microjet Technology Co Ltd 立體成型機構之控制方法
US9088714B2 (en) 2011-05-17 2015-07-21 Apple Inc. Intelligent image blending for panoramic photography
US9762794B2 (en) 2011-05-17 2017-09-12 Apple Inc. Positional sensor-assisted perspective correction for panoramic photography
US8600194B2 (en) 2011-05-17 2013-12-03 Apple Inc. Positional sensor-assisted image registration for panoramic photography
US8957944B2 (en) 2011-05-17 2015-02-17 Apple Inc. Positional sensor-assisted motion filtering for panoramic photography
US9247133B2 (en) 2011-06-01 2016-01-26 Apple Inc. Image registration using sliding registration windows
KR101398188B1 (ko) * 2012-03-13 2014-05-30 주식회사 네오위즈블레스스튜디오 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템
US9118876B2 (en) * 2012-03-30 2015-08-25 Verizon Patent And Licensing Inc. Automatic skin tone calibration for camera images
KR102024903B1 (ko) * 2012-04-26 2019-09-25 한국전자통신연구원 분장 아바타 생성 장치 및 그 방법
US10306140B2 (en) 2012-06-06 2019-05-28 Apple Inc. Motion adaptive image slice selection
US9098922B2 (en) 2012-06-06 2015-08-04 Apple Inc. Adaptive image blending operations
US8902335B2 (en) 2012-06-06 2014-12-02 Apple Inc. Image blending operations
JP6396890B2 (ja) * 2013-04-08 2018-09-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム
US9968176B2 (en) * 2013-04-17 2018-05-15 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing device
US9832378B2 (en) 2013-06-06 2017-11-28 Apple Inc. Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure
GB2518589B (en) * 2013-07-30 2019-12-11 Holition Ltd Image processing
WO2015029372A1 (ja) 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、メイクアップ支援方法、およびメイクアップ支援プログラム
WO2015029392A1 (ja) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US9514558B2 (en) * 2013-09-06 2016-12-06 Imatte, Inc. Method for preventing selected pixels in a background image from showing through corresponding pixels in a transparency layer
US9288462B2 (en) * 2013-09-06 2016-03-15 Imatte, Inc. Conversion of an image to a transparency retaining readability and clarity of detail while automatically maintaining color information of broad areas
JP6348791B2 (ja) * 2014-07-16 2018-06-27 クラリオン株式会社 表示制御装置および表示制御方法
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
CN114049459A (zh) * 2015-07-21 2022-02-15 索尼公司 移动装置、信息处理方法以及非暂态计算机可读介质
US9646195B1 (en) * 2015-11-11 2017-05-09 Adobe Systems Incorporated Facial feature liquifying using face mesh
US9984282B2 (en) * 2015-12-10 2018-05-29 Perfect Corp. Systems and methods for distinguishing facial features for cosmetic application
US10162997B2 (en) 2015-12-27 2018-12-25 Asustek Computer Inc. Electronic device, computer readable storage medium and face image display method
EP3400706B1 (en) 2016-01-05 2022-04-13 RealD Spark, LLC Gaze correction of multi-view images
US10324739B2 (en) 2016-03-03 2019-06-18 Perfect Corp. Systems and methods for simulated application of cosmetic effects
US10229535B2 (en) * 2016-03-09 2019-03-12 Deluxe Media Creative Services Inc. Systems and methods for automated virtual geometry deformation
JP6731616B2 (ja) * 2016-06-10 2020-07-29 パナソニックIpマネジメント株式会社 バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム
US10762717B2 (en) * 2016-09-29 2020-09-01 Sony Interactive Entertainment America, LLC Blend shape system with dynamic partitioning
US10074193B2 (en) * 2016-10-04 2018-09-11 Microsoft Technology Licensing, Llc Controlled dynamic detailing of images using limited storage
US10748579B2 (en) 2016-10-26 2020-08-18 Adobe Inc. Employing live camera feeds to edit facial expressions
US10740985B2 (en) * 2017-08-08 2020-08-11 Reald Spark, Llc Adjusting a digital representation of a head region
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
CN108492247A (zh) * 2018-03-23 2018-09-04 成都品果科技有限公司 一种基于网格变形的眼妆贴图方法
WO2020079741A1 (ja) * 2018-10-16 2020-04-23 日本電気株式会社 虹彩認証装置、虹彩認証方法および記録媒体
US11253045B2 (en) 2019-07-18 2022-02-22 Perfect Mobile Corp. Systems and methods for recommendation of makeup effects based on makeup trends and facial analysis
CN112307848B (zh) * 2019-08-01 2024-04-30 惠普发展公司,有限责任合伙企业 检测视频会议中的欺骗说话者
CN111489311B (zh) * 2020-04-09 2023-08-08 北京百度网讯科技有限公司 一种人脸美化方法、装置、电子设备及存储介质
CN114095647A (zh) * 2020-08-24 2022-02-25 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN114723600A (zh) * 2022-03-11 2022-07-08 北京字跳网络技术有限公司 美妆特效的生成方法、装置、设备、存储介质和程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973559A (ja) * 1995-09-07 1997-03-18 Fujitsu Ltd モーフィング編集装置
JPH11143352A (ja) * 1997-11-13 1999-05-28 Onishi Netsugaku Kogyosho:Kk 化粧シミュレーション自動描画方法および装置
JP2000194835A (ja) * 1998-12-28 2000-07-14 Kao Corp 化粧アドバイスシステム
JP2003044837A (ja) * 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3912834B2 (ja) * 1997-03-06 2007-05-09 有限会社開発顧問室 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
NL1007397C2 (nl) * 1997-10-30 1999-05-12 V O F Headscanning Werkwijze en inrichting voor het met een gewijzigd uiterlijk weergeven van tenminste een deel van het menselijk lichaam.
JP2004201797A (ja) * 2002-12-24 2004-07-22 Yasutaka Nakada 肌分析方法
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
WO2004110264A1 (ja) * 2003-06-11 2004-12-23 Kose Corporation 肌の評価方法および画像のシミュレーション方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973559A (ja) * 1995-09-07 1997-03-18 Fujitsu Ltd モーフィング編集装置
JPH11143352A (ja) * 1997-11-13 1999-05-28 Onishi Netsugaku Kogyosho:Kk 化粧シミュレーション自動描画方法および装置
JP2000194835A (ja) * 1998-12-28 2000-07-14 Kao Corp 化粧アドバイスシステム
JP2003044837A (ja) * 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FURUKAWA T. ET AL: "Real Time Makeup Simulator.", KAI SENSING FORUM SHIRYO., vol. 19, 2 September 2002 (2002-09-02), pages 53 - 58, XP002988287 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100527170C (zh) * 2006-09-20 2009-08-12 清华大学 一种复杂表情仿真系统及其实现方法
CN111815534A (zh) * 2020-07-14 2020-10-23 厦门美图之家科技有限公司 实时皮肤妆容迁移方法、装置、电子设备和可读存储介质
CN111815534B (zh) * 2020-07-14 2023-12-19 厦门美图之家科技有限公司 实时皮肤妆容迁移方法、装置、电子设备和可读存储介质

Also Published As

Publication number Publication date
EP1710746A1 (en) 2006-10-11
US20070019882A1 (en) 2007-01-25

Similar Documents

Publication Publication Date Title
WO2005073909A1 (ja) 化粧シミュレーションプログラム、化粧シミュレーション装置、及び化粧シミュレーション方法
JP4404650B2 (ja) 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム
US9142054B2 (en) System and method for changing hair color in digital images
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20050180657A1 (en) System and method for image-based surface detail transfer
US20100189357A1 (en) Method and device for the virtual simulation of a sequence of video images
KR20200014280A (ko) 화상 처리 장치, 화상 처리 시스템, 및 화상 처리 방법, 그리고 프로그램
US8406566B1 (en) Methods and apparatus for soft edge masking
CN112669447A (zh) 一种模型头像创建方法、装置、电子设备和存储介质
JP2011048586A (ja) 画像処理装置および画像処理方法、並びにプログラム
CN111882627A (zh) 图像处理方法、视频处理方法、装置、设备和存储介质
JP6714357B2 (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
JP2009211513A (ja) 画像処理装置及びその方法
JPH1125253A (ja) 眉描画方法
JP6711020B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP4372494B2 (ja) 画像処理装置、画像処理方法、プログラム、記録媒体
KR100422470B1 (ko) 3차원 동화상 모델 얼굴 대체 방법 및 장치
JP3577154B2 (ja) 画像処理装置
JP4161613B2 (ja) 画像処理方法
CA2635068A1 (en) Emulating cosmetic facial treatments with digital images
US20050089217A1 (en) Data creation method data creation apparatus and 3-dimensional model
KR20010102873A (ko) 정형 이미지 템플릿을 이용한 실사 아바타 생성 방법 및시스템
JP2003030684A (ja) 顔3次元コンピュータグラフィック生成方法及び装置及び顔3次元コンピュータグラフィック生成プログラム及び顔3次元コンピュータグラフィック生成プログラムを格納した記憶媒体
JPH11120336A (ja) 顔画像描画方法および装置
JP2973432B2 (ja) 画像処理方法および装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480041041.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007019882

Country of ref document: US

Ref document number: 10583619

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004793233

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2004793233

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10583619

Country of ref document: US