WO2004023395A1 - 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム - Google Patents

頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム Download PDF

Info

Publication number
WO2004023395A1
WO2004023395A1 PCT/JP2003/011210 JP0311210W WO2004023395A1 WO 2004023395 A1 WO2004023395 A1 WO 2004023395A1 JP 0311210 W JP0311210 W JP 0311210W WO 2004023395 A1 WO2004023395 A1 WO 2004023395A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
image
estimating
orientation
shape
Prior art date
Application number
PCT/JP2003/011210
Other languages
English (en)
French (fr)
Inventor
Shizuo Sakamoto
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US10/513,354 priority Critical patent/US20050175234A1/en
Priority to EP03794188A priority patent/EP1501046A4/en
Publication of WO2004023395A1 publication Critical patent/WO2004023395A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47FSPECIAL FURNITURE, FITTINGS, OR ACCESSORIES FOR SHOPS, STOREHOUSES, BARS, RESTAURANTS OR THE LIKE; PAYING COUNTERS
    • A47F10/00Furniture or installations specially adapted to particular types of service systems, not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention is based on images such as eyelashes, earrings, hats, hairpieces, etc., which are worn on the head and images of ii, etc., which are applied to the face, and in the state where these difficulties and makeup are not actually applied. It is related to the image M that is combined with the image of the user as if he were actually wearing it and mirroring it on the mirror as if he were m.
  • an image composition system that can determine whether or not the user likes and does not use the actual ones for various fts and fts without performing t3 ⁇ 4 on the face.
  • this image synthesizing system as one of the following * ⁇ # ⁇ for B-rise, after the user's ®g image was obtained by the camera, the operator stored the eye image that had been stored in advance by hand. It is known that an image is synthesized by opening and standing (for example, see Japanese Patent Application Laid-Open No. 63-03929 (hereinafter referred to as Reference 1)).
  • an image synthesizing system capable of responding to changes in the direction of the face or the blue color, or to a detailed simulation of the lens (for example, Japanese Patent Application Laid-Open No. H06-13939318) Reference 8), Japanese Patent Application Laid-Open No. H06_11 8 349 (see Reference 9).
  • this image synthesis system after a 2 ⁇ 3 ⁇ 4 ⁇ image of a body is obtained, a standard cubic model is blitted onto the image and transformed.
  • an image synthesizing system in which a human body is subjected to ⁇ for detecting the orientation of a face to thereby produce a synthetic image that naturally follows the power of the head (see, for example, Japanese Patent Application Laid-Open No. — See 2 8 3 4 5 5 (hereinafter referred to as reference 10).
  • a user's image is obtained with a force camera, then displayed on the screen and manipulated with a tablet to process the image.
  • a simulation is performed (for example, see Japanese Patent Application Laid-Open No. Sho 62-144280 (hereinafter referred to as Reference 11)).
  • an image synthesizing system in which the light pen for the working roe is formed in the shape of a chemical shelf prop so as to be natural (for example, Japanese Patent Application Laid-Open No. 63-316,037 (hereinafter referred to as Reference 12)) Lipsticks and powders (K, eyebrows) Also, an image synthesizing system is known (see, for example, Japanese Patent Application Laid-Open No. H06-31696 (hereinafter, reference 13)).
  • the simulators for glasses and notes mainly synthesize images into a two-dimensional still image, so that they are actually dressed or photographed using mirrors. Contrary to what you see, the user could not be sure of the fitting.
  • the image synthesizing system described above cannot present a result without a sense of sharpness similar to ⁇ in the mirror that the user originally went to.
  • an object of the present invention is to provide a natural and fuzzy image, such as actually performing eye injections, hats, hairpieces, etc. on the head and performing ⁇ with a mirror. Is to be able to synthesize
  • a step of measuring a three-dimensional shape of a person's face a step of fitting eyes into a m ⁇ m three-dimensional shape, and a step of measuring an image of a person's face.
  • Let m be a process that includes the step of determining the orientation of the face g and the step of displaying the B rise in the image by using the estimated orientation of the face g3 ⁇ 4 ⁇ .
  • the second invention is a step of measuring a three-dimensional shape of a person's face and its reward I.
  • the tfjfS instead of the step of estimating the position of the face in the image representing the face of the person using the three-dimensional shape and the Rlt feature [4], the tfjfS
  • a step of estimating a face position g3 ⁇ 4 direction in an image of the face of the ItllB person, and a step of estimating the estimated face position g3 ⁇ 4 ⁇ direction Let m be the step of displaying 3 in the image by using and displaying it as a face.
  • the fifth invention is the invention according to the first, second, third or fourth invention, wherein an earring, a hat, a hairpiece, or other wearing on the head is used instead of the tiff's own eyes. It is assumed that the combination of "" is combined with the image.
  • a texture image with less shadow is used instead of the reflection characteristic.
  • a step of measuring a three-dimensional shape of a person's face, and applying a shape to a three-dimensional shape measured by Ml form a standard three-dimensional shape of a face with a "deformed deformation" in advance.
  • the process of applying the self-measured 3D shape, the process of changing the direction of the face in the image obtained by »tilting the face of the person, and the process of changing the facial expression in the image were estimated. It is assumed that the step of generating and displaying [[ ⁇ ] in the image to display " ⁇ " on the face using the change in the position, orientation, and expression of the face is denoted by ⁇ .
  • the eighth invention is a process of measuring the three-dimensional shape of a person's face and its characteristics 14, a process of applying (be) to the measured three-dimensional shape, and a face standard three-dimensional A process of applying the shape to the three-dimensional shape measured by tiff self-measurement; a process of estimating the position of the face in the image of the person's face 6 3 ⁇ 4 ⁇ using the self-measured 3 »shape and the special ffi; The process of inferring the facial expression change in the image, and using the determined face position, orientation, and 3 ⁇ 4f blue change in the image and ⁇ Srf in the face »Is defined as the process of displaying and displaying.
  • Itjf own 3D shape, tfiia characteristics and power, and a process of generating a basis for estimating the face position under various ⁇ 3 ⁇ 4 ⁇ lighting conditions, and using the basis Orienting the face in the image.
  • the eighth invention instead of the step of estimating a facial cleansing change in an image in which the face of the tfilH person is swollen, a variety of previously determined three-dimensional shapes and characteristics are used.
  • The basis for estimating the direction of the face standing under lighting conditions is ⁇ :]
  • the base is used in the image by using the base and the standard three-dimensional face with deformation /
  • the eighth, ninth, or tenth invention it is preferable that, instead of the reflection characteristic, a shade or a texture image is used instead of the reflection characteristic.
  • the twelfth invention provides a three-dimensional shape measuring means for measuring the three-dimensional shape of a person's face, eye and fitting means for fitting a selected eye to the measured three-dimensional shape, and tfjf.
  • the face standing and orientation estimating means for estimating the orientation of the face in the image, and the determined face orientation
  • the B rise is applied to the face in the fflWf image. It is supposed that it consists of an eye image generating means for displaying the placed gamma image and an "eye image displaying means" for synthesizing and displaying the foreground image and the ttiia rising image.
  • the thirteenth invention is a method for measuring the three-dimensional characteristic of a person's face and its characteristics.
  • 43 ⁇ 43 ⁇ 4O3 ⁇ 4f characteristic measurement means eyes for fitting the selected eye to the measured 3 ⁇ 55 shape »1 ⁇ 3 ⁇ 4 ⁇ buit means, and tfrl the face of the person's face» Face estimating direction using self 3 ⁇ shape and IMBKlt raw ⁇ 3 ⁇ 4 ⁇ Direction estimating means and using face position e3 ⁇ 4 ⁇ Eyes arranged so that! ⁇ It is assumed to be composed of B image means for displaying an image, and Tengai display means for combining and displaying the image and the tfiia image.
  • the ⁇ & ⁇ three-dimensional shape and the Sit features are used in advance under various lighting conditions.
  • Geodetic lighting calculation means for generating a geodetic lighting base for estimating the face position 3 ⁇ 4 ⁇ 3 ⁇ 4 ⁇ direction, and a face position ⁇ direction for estimating the face position ⁇ direction in the image using the base It is assumed that the estimation means is included.
  • the fifteenth invention is based on the twelfth, thirteenth, or fourteenth inventions, and uses ffJlE position g3 ⁇ 4 3 ⁇ 4 direction means, IfJt self means, and tiiK «OO indication means. That is ⁇ .
  • the first ⁇ invention is the invention according to the first, second, thirteenth, fourteenth, or fifteenth invention, wherein, instead of the eyeglasses, an earring, a hat, a hairpiece, or other wearing object on the head is used. , Make it difficult to combine those combinations into an image.
  • the seventeenth invention is the invention according to the thirteenth, fourteenth, fifteenth, or sixteenth invention, wherein:
  • An eighteenth invention is a three-dimensional shape measuring means for measuring the three-dimensional shape of a person's face, makeup means for applying ibffi to the measured three-dimensional shape, and a face standard three-dimensional with a predetermined ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ Face position in the MM image S and face position g & ⁇ direction estimating means for estimating the direction, face part changing means for estimating facial expression change in the image, ttilE estimated face position and orientation Using the facial expression change, the ilitt applied by the tfflS makeup means is transformed into a face in the llBM image so that it becomes ⁇ f. »Is defined as the facial expression change.
  • the nineteenth invention is a tertiary shape measuring means for measuring the tertiary shape of a person's face and its special characteristics, and applying makeup to the returned three-dimensional job (bffi means, 3D model and face storage means to record the face standard 3D shape attached to the deformed zottle, and 3D model fitting means to fit the tiil5 standard 3D model to the 3D measured by the self-measurement , ⁇ 3 ⁇ 4 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇
  • the face position under various difficult and lighting conditions is previously determined from the tfilB three-dimensional shape and the characteristics.
  • Geodesic illumination basis calculation means for generating a geodesic illumination basis for estimating a direction; and a face position of a face in an image using the basis, a face position and a direction estimating means. I do.
  • the twenty-first invention is similar to the nineteenth invention, except that, instead of the means for estimating the deformation of the parts, the various shapes and characteristics measured under various conditions and lighting conditions are used instead.
  • the various shapes and characteristics measured under various conditions and lighting conditions are used instead.
  • the face part changing means for changing the facial expression and the ⁇ means that it is.
  • the twenty-second invention is based on the nineteenth, twentieth or twenty-first invention, and uses a less shaded and textured image in place of the
  • is assumed that the face part changing means for changing the facial expression and the ⁇ means that it is.
  • the program of the twenty-third invention is a computer which measures a three-dimensional shape of a person's face, a step of fitting an eye! ⁇ To a tertiary measured tertiary shape, and a tff! B human face. Determining the orientation of the face in the captured image, and generating and displaying the glasses in the image using the estimated orientation of the face MR ⁇ .
  • a program provides a computer with a step of measuring the three-dimensional shape of a person's face and its Sf characteristic, a step of fitting an eye to the measured third order ⁇ , Estimating the orientation ⁇ of the face in the image showing the face using the t & l 3D shape and the tfrt feature I, and using the fixed face orientation And a step of displaying the B rise in the image as if it were a ⁇ ".
  • the program of the twenty-fifth invention is the program of the twenty-fourth invention, wherein Instead of the process of estimating the orientation of the face in the image using the three-dimensional shape and the SI ⁇ characteristic, the
  • a program pre-stores a computer with a step of measuring the three-dimensional shape of a person's face and its ⁇ characteristic, and a step of applying makeup to the three-dimensional shape measured by 3 ⁇ 4f ”.
  • the face of a touching person is revealed.
  • the 3D shape of the person's face was first measured by the 3D shape measuring means, and then the eyes ⁇ 1 »The fitting means fits the glasses selected by the user to the three-dimensional shape, and the face position and orientation estimating means» Utilizing the estimated orientation, the eyeglass image generating means generates an eye image in which the eyeglasses are arranged to face the face in the image.
  • the factory ⁇ B Tengai demonstrating means the customer image and the B profession image are combined and displayed.
  • FIG. 1 is a functional block diagram for explaining the overall structure of an eyelash simulation apparatus according to a first difficult example of the present invention.
  • FIG. 2 is an explanatory diagram of a face coordinate system.
  • FIGS. 3A to 3C are explanatory diagrams of 3D data of B rise.
  • FIGS. 4 (a) to 4 (d) are diagrams for explaining the legality of S ⁇ for a fine image.
  • FIG. 5 is a functional block diagram illustrating a detailed configuration of a face position / direction estimation unit.
  • FIG. 6 is a function block diagram for explaining the overall configuration of the doll making simulation apparatus according to the second example of the present invention.
  • FIG. 7 is an explanatory view of the dangling means.
  • FIG. 8 is an explanatory diagram of fitting between a standard face 3D shape model and measured 3D data.
  • Figures 9 (a) to (d) are schematic diagrams corresponding to the male ⁇ ⁇ of the face, using the standard 3D model and its modified function.
  • FIGS. 10 (a) to (c) are illustrations for legally applying a makeup image to an image.
  • FIG. 11 is a schematic block diagram showing the overall configuration of a computer system to which the g-job simulation device and the uf simulation device are applied. BEST MODE FOR CARRYING OUT THE INVENTION
  • the eyelash simulation device 201 shown in Fig. 1 Measurements of both of the 14 features are performed, and an image is stored and stored by a normal camera, and the processing of adding the HIT order to each of the B images is performed.
  • the three-dimensional (3D) shape features [4 Measuring means 1 measures the three shapes of the person's face that will be the final body and its delicate characteristics, or the shadow images and texture images according to Are output as the tertiary signal 102 and the Sit characteristic 1 raw signal 101.
  • a method for measuring the above three-dimensional data for example, a method disclosed in Japanese Patent Application Laid-Open No. 2000-010125 “3D weaving measurement method: a certain body” (hereinafter referred to as “Reference 14”) is used. can do.
  • Reference 15 In addition to the three-dimensional shape measurement, various existing URLs described in “Three-dimensional image measurement”, such as “Tsururu” and “Akiramitsu” (hereinafter referred to as “Reference 15”) are used. be able to.
  • Reference 14 after W, a texture image can be obtained simultaneously with the three-dimensional shape. Therefore, texture images that can be deemed to be delicately characteristic can be easily measured by duplicating lamps around the face so that light shines uniformly on the entire face.
  • the present invention can be configured as long as it is a method capable of measuring the characteristic 14 while standing the face.
  • Fig. 2 we consider a sphere that covers the face centered on the center of gravity of the face, which is the measurement object, and express the tertiary target value and texture value at each point P on the face surface.
  • the point P can be uniformly expressed by the «'key (s,) of the point ⁇ 3 obtained by shadowing the center of the center of gravity on the lift self « plane.
  • 3D iK / CT features The three-dimensional shape and texture image obtained by I
  • the geodesic illumination source means 2 receives the three-dimensional ⁇ $ -like signal 102 and the special signal 101 as inputs, finds a basis for approximating the appearance of the face under arbitrary illumination, and Output as bottom signal 103.
  • the measurement illumination base method refer to Japanese Patent Application Laid-Open No. 2002-1575705, “Object collation method, object illumination device, and recording medium recording the program” (hereinafter referred to as “Reference 16”). ”) Has been to IBM.
  • the geodesic lighting unit JS ⁇ output means 2 will be described in accordance with Reference 16.
  • the change in brightness due to the standing shadow on the face surface is calculated, and the texture group under various lighting cows is calculated.
  • the change in brightness and color due to the change in the shadow of the texture nucleus can be calculated based on the fraction of the object surface corresponding to the element, the direction that can be calculated from the cubic shape, and the direction of illumination.
  • shadow « use tff! B 3D shape! By performing processing such as / and ⁇ , it is possible to determine whether or not light is illuminated under the lighting conditions set for the disgusting pixels.
  • each pixel (s, t) of the texture of the face is represented by the characteristic B (s, t) of the face surface corresponding to the pixel, and the 3 ⁇ 4 ⁇ direction.
  • the eigenvectors are selected by the minimum number that gives a cumulative contribution rate of eigenvalues of 99% or more, and named as “geodesic lighting base”. As described above, an appropriate number, for example, 10 geodetic illumination bases can be obtained. This geodesic lighting base approximates the entire texture group.
  • Fitting means 3 receives 3D ⁇ $ -like signal 102, 1 ⁇ 1 optional symbol 104 and eye-catching 3D data signal 105, and specifies by user
  • the 3D data of the job B which is the obtained 3D data, is read from the eye storage means 4 and the measured face is referred to the 3D fraud and the objective is to bid on it.
  • Fig. 3 (a) to (c) show an example of the three-dimensional data of B ⁇
  • the camera 5 visually tests the image of the face of the person as a body and outputs an image signal 106 composed of a plurality of frames.
  • An example (for one frame) of the image signal 106 is shown in FIG. 4 (a).
  • the face erecting means 6 receives the W image signal 106, the three-dimensional shape signal 102, and the geodetic lighting base No. 103 as inputs, and as described in ffrlB literature 16 Then, for each frame of the image signal 106, the position and orientation of the face obtained by repeatedly searching for a better match are output as a face / standing / orientation signal 107.
  • the face position / orientation means 6 will be described in detail with reference to FIG. The following In the following, a brief description of one frame of the g image signal will be given, but a similar touch is performed on each frame.
  • the camera 5 is assumed to be a pinhole camera having a focal point ⁇
  • the present X Upsilon Z coordinate system as a reference, the position of the face in front of the body to become a person of the camera 5 (TX, ⁇ ⁇ , ⁇ ⁇ ) ⁇ , its direction (R x, R Y, R z) T And Each coordinate position ( Xi , Yi , zj) T of the three-dimensional shape of the face measured at this time is located at the seat (Xi, Yi, ⁇ ;) in front of the camera 5. .
  • Face position 'direction ⁇ means 15, the initial set position of the face ( ⁇ ⁇ ., ⁇ ⁇ . , ⁇ ⁇ .) ⁇ and direction (R x 0, R Y ° , R z.) T the original city, (T x . + Mm T x , ⁇ ⁇ . + ⁇ ⁇ , ⁇ ⁇ ° + ⁇ ⁇ ) T , (R X ° + AR X , R Y ° + AR Y , R 2 ° + AR Z ) T is output and output as face position / direction signal 121.
  • Illumination correction means 16 receives face orientation signal 121, three-dimensional shape signal 102, and geodesic illumination base iSi code 103 as inputs, and generates a plurality of unique vectors forming a geodesic illumination base in a three-dimensional shape.
  • the 5E image is output as the illumination correction image signal 122.
  • the HtJt ⁇ means 17 inputs the M1H elephant signal 105 and the illumination.
  • the final half 1J setting means 18 receives the image ⁇ symbol 1 2 3 and the face ⁇ standing.
  • the orientation signal 1 2 1 is input, and if the scattering becomes sufficiently small, the estimation of the face position and orientation is completed. And the face position and orientation at that time are output as the face position and orientation signal 107. If it is still finished and it is determined that the replay is not correct, the position and direction of the replay are corrected and the calculation is performed again.
  • the t command is output as the face position .direction ⁇ ] E command signal 124.
  • the face position / direction storage means 19 receives a face position / direction signal 107 as an input, stores the value, and outputs the value as a previous frame face position / direction signal 125 as needed.
  • Figure 4 (b) shows the result of drawing the cubic shape using the results of estimating the position and orientation of the body face.
  • the B image ⁇ means 7 receives the tertiary shape signal 102, the face position .direction signal 107, the selection M ⁇ one-fitting signal 108 and inputs the image signal 106
  • the face 37A3 ⁇ 4 ⁇ t ⁇ - is distributed in the same orientation and orientation as the face being photographed, and the relative positional relationship obtained for making the three-dimensional data fly is used.
  • the face / eye matching 5 display means 8 manually outputs the image signal 106 and the image signal 109.
  • the image with the B fiber applied is displayed.
  • Fig. 4 (d) shows an example of the final composite image.
  • the displayed image can be displayed as it is, or by flipping it left and right, it can be made to look as if it were reflected in a mirror.
  • the medium K1 is a disk, a body memory, or another medium, and describes a program for causing the computer to function as the eyeglasses simulation device 201.
  • This program is read by the simulation device 201, and by controlling its operation, on the B3 ⁇ 4 simulation device 201, 37 fire element type Totoku! ⁇ Raw measurement means 1, geodetic lighting Means 2, B selection 'fitting means 3, face position and orientation estimation means 6, B planning means 7, and face.
  • the geodesic illumination base method described in Ref. 16 was described as a means for detecting the position and orientation of the face. You can make efforts. In the above description, the eye mirror image and the image were simply combined with each other in the means 8.
  • the present invention can also be similarly configured by using other parts such as earrings, hats, and hairpieces on the head.
  • the present invention can also be configured to realize a more natural display by taking into account the movement of the face, taking into account the movement of the face, and making the movement and length of the wearing and the hairpiece itself more natural.
  • the present invention can be similarly configured by using not only one of the individual clothes but also a combination thereof.
  • the ik3 ⁇ 4 simulation device 202 shown in Fig. 6 measures the three-dimensional shape of the face and the orchid characteristics, and forms a B image using a normal camera to generate ⁇ . e is next synthesized ⁇ ⁇ ⁇ .
  • the makeup means 9 receives the 33 ⁇ 4fe 9f ⁇ number 102, the pictorial number 101, and the signal 110 while inputting makeup, applies makeup on the measured face, and finally finishes the makeup. 3) Output as signal 1 1 1 As for the conversion method, please do the secondary « «image »! ⁇ After applying the technique for applying images to images as described in References 1, 1, 12, and 13, etc. Conversely, the point corresponding to the shape can be obtained]].
  • Fig. 7 shows an example.
  • the characteristics are texture-mapped to the three-dimensional shape, and an image viewed from an appropriate direction is generated by using computer graphics as shown in FIG.
  • the appropriate color and nib are selected from the palette 1 2 6 and the color is applied with the pen 1 2 7 (Kazuru Saku signal 1 ⁇ ⁇ ).
  • the work can be used to create a table in each standing room. As shown in Fig. 2, the difficulty at point P can be obtained by craneing the center of gravity onto the plane.
  • the point ⁇ g (s, t) of the point Q can be uniformly expressed by the same coordinate system as a cubic shape and a special feature.
  • the created makeup is output as a makeup 3D signal 1 1 1.
  • the three-dimensional model fitting means 10 is a three-dimensional shape signal 102, a reflection characteristic ⁇ signal 101, a fitting operation signal 112, a face standard three-dimensional model.
  • No. 16 is input and the measured 3D weave is related to the standard 3D shape model of the face with the ⁇ ⁇ ff change notch, and the relationship between them is standard 3 3 ⁇ 43 ⁇ 43 ⁇ 4 fitting signal 1 1 Output as 3.
  • This fitting is described in “Tables Using Range Finder and Structure of Expression Editing Tool” (hereinafter referred to as Ref. 18).
  • the present invention can be configured by a method of forming a two-dimensional image as described in References 8 and 9 by once taking two images using measurement data.
  • the present invention can be configured in any manner that performs such association.
  • the point P 134 when calculating the movement amount of the point P 134 in the area defined by the right eye corner point 131, the right eye corner point 132, and the right mouth end point 133, the point P 134
  • the movement amount is calculated by the following equation for 3 ⁇ 4 ⁇ which is arranged at the position represented by the ratio as shown by.
  • q ⁇ r is a value from 0 to 1 ⁇ .
  • the parameters a to p obtained by the above operation, and the movement amount of each vertex coordinate on the face standard 3D model ( ⁇ , 1 , ⁇ ⁇ ⁇ 1 ) ⁇ ( ⁇ ⁇ 2 , ⁇ ⁇ 2 , ⁇ ⁇ ⁇ 2 ) ⁇ is output as the standard three-dimensional fitting signal 113. Therefore, all points on the face standard 3D model are mapped on the measurement data. Also, the face standard 3D model used in this difficult example is provided with a deformed "knowledge", which is a barley if change that can be performed by a person, such as opening and closing the eyes and opening and closing the mouth. It is defined so that it can be controlled as the movement amount of each coordinate point on the three-dimensional model.
  • Fig. 9 (a) is a schematic diagram showing the deformation of the eyes among the deformations.
  • the leftmost position is the initial state, and the coordinate points are given by giving the amount of opening of the eyes. Is given the amount of movement, as if gradually narrowing his eyes
  • Fig. 9 (c) it is assumed that the leftmost eye is the measured face 3D shape
  • Fig. 9 (b) is a schematic diagram of a face standard 3D model fitted to this shape.
  • Fig. 9 (d) is a schematic diagram of an eye shadow that has been measured and texture mapped onto an S 3D shape. In this case, V can be deformed along with the deformation of the face standard 3D model.
  • Face part means 11 is face position and orientation signal 107, standard 3D shape signal 102, geodesic illumination base signal 103, face image signal 106, standard 3D fitting signal 113, face
  • the face 3D model is applied to the measured 3D model, and the measured 3 and the geodetic lighting base on the surface are measured. Add ⁇ .
  • a plurality of three-dimensional shapes corresponding to each facial expression for example, a facial expression with the eyelid closed, a facial expression with the eyelid open, a magical expression with the lid closed halfway, etc.
  • Fig. 9 (c) is a template for closing the eyelids obtained by deforming the standard 3D model shown in Fig. 9 (a).
  • the makeup means 1 2 is composed of a three-dimensional ⁇ e signal 101, a direction signal 107, It takes the dimensional signal 1 1 1 and the face part deformation signal 1 1 4 as input, creates an image with the first applied makeup fitted to the image, and outputs it as a makeup image signal 1 15.
  • the face / ⁇ playing means 13 receives the image signal 106 and the bffi image signal 115, and overlays the image on the screen to overlay the image on the screen. To display.
  • Fig. 10 (a) shows an example of an input image
  • Fig. 10 (b) shows an example of a makeup image
  • Fig. 10 (c) shows an example of a composite image.
  • the composite image can be displayed as it is, or it can be shown as if it were mirrored by inverting left and right. Further, in the above-described face-to-face makeup display means 13, it is possible to obtain a more natural synthesized image by adding transparency to the force makeup image displayed when the ⁇ tig image is overlaid on the B image.
  • the face standard 3D model / deformation function storage means 14 stores a face standard 3D model accompanied by a face pattern generated by an expression or the like, and stores the face standard 3D model / deformation model as needed. ! Output as symbol 1 1 6
  • the knowledge medium # 2 is a disk, a body memory, and other photographic media, and a program for causing a computer to function as the i li simulation device 202 is described.
  • This program is read by the ftffi simulation device 202, and by controlling its operation, the three-dimensional characteristics 14 measurement means 1 and the geodetic lighting base detection means are provided on the ftffi simulation device 202.
  • Face position 'orientation Means 6 Means 9, 3D model, Nore fitting means 10
  • Face part changing means 1 1 Difficulty 1 3
  • the geodesic illumination base method described in the above-mentioned reference 15 has been described as a means for detecting the position and direction of the damage. ⁇ ] r can be.
  • the facial parts » ⁇ step even though the ⁇ -light basis method described in Ref. 15 described above is described in an extended form, the present invention is constituted as long as the facial parts are estimated. be able to.
  • the above description relates to the MM image signal 106 for one frame output from the camera 5, and the same operation as that described above composes the ffi® image signal 106. This is sequentially performed for each frame.
  • the force s which has been described as a separate example of wearing on the head of a occupation or the like and makeup, can be constructed in the same way using this combination.
  • the computer system 300 shown in FIG. 11 includes a node 310 and, as each component connected to the bus 310, a CPU 322 such as a CPU that handles information processing in the system. It has a main memory 330, a ROM (read 'only' memory) 340, a disk controller 350, a display controller 360, an input device 370, and a camera interface 380.
  • a CPU 322 such as a CPU that handles information processing in the system. It has a main memory 330, a ROM (read 'only' memory) 340, a disk controller 350, a display controller 360, an input device 370, and a camera interface 380.
  • the main memory 330 is composed of, for example, RAM (random access memory) and other dynamic storage devices (for example, DRAM, SRAM, etc.). It is capable of storing variables and other intermediate information that are temporarily generated during execution of a program instruction by the processor 320 and are included in the H blue report.
  • RAM random access memory
  • DRAM dynamic random access memory
  • SRAM static random access memory
  • the ROM 340 is constituted by, for example, a static * storage device (for example, PROM, EPROM, EPROM, or the like), and returns a fixed information command issued by the processor 320.
  • a static * storage device for example, PROM, EPROM, EPROM, or the like
  • An HDD (hard disk drive 15 1) and / or a removable media drive (magnetic disk, optical disk, magneto-optical disk, etc.) 15 2 are connected to the disk controller 350.
  • An HDD 35 1 and / or a removable disk Reference numeral 352 denotes various information commands which are processed by the disk controller 350 and processed by the processor 320.
  • the display controller 360 includes a display 361 such as a CRT (Cathode Ray Tube) or a liquid crystal display.
  • the display 36 1 is displayed by the disk controller 360 so as to display each of the collisions generated by the processor 320.
  • the input device 370 is composed of, for example, a keyboard 371 and a pointing device (such as a mouse) 372.
  • the input device 370 sends various ⁇ f # ⁇ commands to be input, instructed, and selected by the user operation to the processor 320.
  • the camera interface 380 is equipped with, for example, a communication interface of a predetermined type (can be adopted for both of wireless and wireless). Through the communication interface, is composed of a CMOS type fixed electrode. Camera 3 8 1 Power S An image signal picked up by the camera 38 1 is taken in through the camera interface 3 80.
  • the programs executed by the computer system 300 (OS 391, graphics processing program 392, etc.) 390 are, for example, ROM 340, hard disk 351 and other system 15 stored in a recording medium and executed by the processor 320.
  • OS 391, graphics processing program 392, etc. are, for example, ROM 340, hard disk 351 and other system 15 stored in a recording medium and executed by the processor 320.
  • the present invention is not limited to the examples of the representative examples, and if the present invention is applied to the present invention, based on the content of the scope of the request for special knowledge, various details may be provided within the scope of the invention.
  • the present invention can be modified and changed, and they also belong to the scope of the present invention.
  • the present invention is suitable for applications such as a spectacle simulation device and a makeup simulation device using a computer system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

頭部装着物画像合成装置の実施例として提供される眼鏡シミュレーション装置は、ユーザの顔画像に眼鏡を合成する際、人物の顔の3次元形状とその反射特性を測定し、その3次元形状に、ユーザによって選択された眼鏡をフィッティングし、人物の顔を撮影した顔画像中の、顔の位置及び向きを推定し、この推定した位置及び向きを利用して眼鏡を顔画像中の顔に合致するように配置した眼鏡画像を生成し、その眼鏡画像と顔画像とを合成して表示する。これにより、眼鏡の装着状態をあたかも実際に装着して鏡に写して確認している場合と同様な、ユーザの顔画像と眼鏡との合成画像を作成する。

Description

明 細 書 頭部装着物画像合 法、 條画像合戯法、 頭部装着物画像合 J«置、 画像合成装 ¾¾ぴプログラム
鎌分野
本発明は、 目騰、 イヤリング、 帽子、 ヘアピースなどの頭部に装着される難 物やその顔に施される i iなどの画像と、 実際にはこれらの難や化粧などをし ていない状態で驟されたユーザの顧像とを、 あたかも実際に装着して鏡に写 して mしている齢と同様に ロ感なく、 合^ rる画像合^ Mに関する。
背:
例えば B騰を購入する際、 ユーザは通常実際に麵へと出向き、 陳列されてい る »を難し鏡で 、することを行っている。 しかし、 陳列されている Β騰に は限りがあるために、 より好みに^- rる ΒΙ^を探そうとするときには とな つていた。
更にインターネット等の通信手段を通じた!^では、 ユーザの手元には 3纖は しないことから、 g職の »には困難があった。 同様に、 において も、 ユーザのためにはできるだけ多くの B¾gを陳列することが望ましレ、が、 これ により多くの をかかえるという問題が生じるため、 ユーザ及び の双方に とって好ましい 况ではないと言える。 同様なことは、 イヤリングや帽子、 ヘア ピースなど、頭部へ するもの一般に言うことができる。 また特に itliにつ!ヽ ては、 実際に顔へと時間をかけて行ってみるし力なく、 着 ¾ i以上に手間がかか るという意味で、 ユーザが + 糸 f¾得して i tt品ゃィ ί ^法を選択するのは困難であ つた。
そこで、様々な や ft¾などについて、 実際のものを用 る、 また顔へ と t¾を行うことなく、 好みと^ ¾しているかどうかの判断を下すことがで きる画像合成システムが されてきた。 この画像合成システムのうち、 B騰についての従 *Κ#ΐの一つとして、 ユーザ の ®g像をカメラにより得た後、 あらかじめ蓄えておいた目赚画像を、 オペレー タが手で合成の開^ ί立置を することにより画像へと合成するものが知られ ている(例えば、特開昭 6 3 - 0 3 9 2 9 (以下、文献 1 )参照)。また、 ユーザの左右の目の中 ィ立置などを入力することにより、 よりユーザの顔に^: する位置を指定することを可能にした画像合成システムも知られている (例えば、 特開昭 6 3— 0 7 6 5 8 1号 (以下、文献 2)、特開昭 6 3—1 1 3 6 7 1号 公報 (以下、 文献 3)、 平 0 8 - 0 3 1 1 2 6号公報 (以下、 文献 4)、 特開 平 0 2— 0 0 4 3 1 2号公報(以下、文献 5 )参照)。 また、 ^体である人間が 移動して合わせこむ画像合成システムも知られている (例えば、 特開昭 6 3— 2 6 1 2 1 8号公報 (以下、 文献 6) 参照)。
また、ネ 体の 3次 ¾?F$状を «計測して利用する画像合成システムも知られ ている (例えば、特開平 0 5— 1 7 2 5 4 5号公報(以下、文献 7)参照)。 この 画 ί象合成システムは、 計測 3次¾»状と Β謹フレーム形状とを用いて合成し、 ユーザに提示する きを持っている。
更に、 顔の向きや謝青などが変わったときやレンズの精細なシミュレーション にも対応する画像合成システムも知られている (例えば、 特開平 0 6—1 3 9 3 1 8号公報 (以下、 文献 8)、 特開平 0 6 _ 1 1 8 3 4 9号^ ¾ (以下、 文献 9) 参照)。 この画像合成システムは、 体の 2^¾ίϋ像を得た後、標準的な 3次 モデルを画像にブイットさせて変形処理するものである。
また、 顔の向きを検出する^ を 体である人物にかけさせることで、 体が頭を動力すのに自然に追随する合成画像を る画像合成システムも知ら れている (例えば、 特開平 1 0— 2 8 3 4 5 5号 (以下、 文献 1 0) 参照)。 一方、 上記画像合成システムのうち、化粧についての従 «#亍の一つとして、 ユーザの 像を力メラにより得た後、 上に表示するとともにタブレツトを 操作することで画像を加工して iiiKのシミュレーションを行うものも知られてレヽ る (例えば、 特開昭 6 2 - 1 4 4 2 8 0号公報 (以下、 文献 1 1 ) 参照)。 更に、 画働ロェ用ライトペンを化棚小道具の形にして自然になるよう工夫した画像合 成システム (例えば、特開昭 6 3— 3 1 6 0 3 7号公報(以下、文献 1 2)参照) や、 口紅やパウダー系 ( K、 眉力ットをそれぞ 虫立したシミュレーシヨンとし た画像合成システムも知られている (例えば、 特開平 0 6— 3 1 9 6 1 3号公報 (以下、 文献 1 3) 参照)。
しかしながら、 前述した従 ¾K術の画像合成システムのうち、 眼鏡や 註のシ ミュレータでは、 2次元静止 ΜΒί象への合成が主であったために、 実際に着装や ィ ^ffiなどをして鏡で見るのと違い、 ユーザはそのフィッティングについて十分確 認することはできなかつた。
また、 文献 7では、顔の 3次元形状を求めて 3次元グラフィックスにより合成 することで様々な難の細像を «することは可能であるが、 これも計測した タイミングでの 「顔」 を単に回しているにすぎず、 自然とは言い難い。
さらに、 文献 8、及ぴ文献 9では、顔の標準 3次元モデノレを 2 象へと フィットして: ^亍き情報を得、 3次元グラフィックスによる合成を ί亍っている力 的に奥行き†ffBは標準モデルそのものとなるため、更に ¾¾感が大きくなる。 また、 «1 0では、 方向検出用目赚をかけさせているが、 別の 8騰や化粧な どを合成するときには該方向検出用目騰を画 i:から消去する必要がある。 しか し完全に?肖去することは困難である。
以上説明した通り、 されている画像合成システムでは、 元来ユーザが 行つてきた鏡での βと同じような、 截ロ感のな 、合赚果を提示することがで きない。
発明の開示
そこで、 本発明の目的は、 目赚ゃイヤリング、 帽子、 ヘアピースなどの頭部へ の ゃィ ΰ注などを実際に行って鏡で βするような、 自然で ¾fロ感のなレ、画 像を合成できるようにすることにある。
上記目的を «する第 1の発明は、 人物の顔の 3次元形状を計測する工程と、 m^mした 3次元形状に目麟をフイツティングする工程と、 ΐΐιΐΒ人物の顔を した画像中の顔の位 g¾び向きを する工程と、 該推定した顔の位 g¾ぴ向き を利用して画像中に B騰を、顔に るよう^^して表示する工程とからなる ことを mとする。
第 2の発明は、 人物の顔の 3次元形状とその謝特 I·生とを計測する工程と、 該 計測した 3次元形状に B赚をフイツティングする工程と、 ΙϋΙΒ人物の顔を ii^し た画像中の顔の位 g¾び向きを tii!B 3次元幵娥と謝己 特生とを利用して推定 する工程と、 該推定した顔の位艱ぴ向きを利用して画像中に B赚を、 顔に錄 するよう^して表示する工程とからなることを »とする。
第 3の発明は、 第 2の発明において、 ΙίΐΒ人物の顔を娜した画像中の顔の位 ¾¾ぴ向きを 3次元形状と Rlt特 [4とを利用して推定する工程の代わりに、 tfjfS
3次元形状と fit己 "特 とからあらかじめ様々な難及び照明条件下での顔の 位 ¾¾ぴ向きを推^ るための基底を^ る工程と、 該基底を利用して画像中 の顔の位 6¾ぴ向きを推定する工程とを含むことを赚とする。
第 4の発明は、 第 1、 第 2または第 3の発明において、 ItllB人物の顔を娜し た画像中の顔の位 g¾び向きを推定する工程と、該推定した顔の位 g¾ぴ向きを 利用して画像中に 3 を、顔に^ るよう して表^ る工程とを して 行うことを mとする。
第 5の発明は、 第 1、 第 2、 第 3または第 4の発明において、 tiff己目赚の代わ りに、 イヤリング、 帽子、 ヘアピース、 またはその他の頭部への着 »、 あるい はそれらの組み合わせを画像へと合^"ることを«とする。
第 6の発明は、 第 2、 第 3、 第 4または第 5の発明において、前記反射特性の 代わりに、 陰が少ないテクスチャ画像を用いることを赚とする。
第 7の発明は、 人物の顔の 3次元形状を計測する工程と、 Ml十測した 3次 状にィ を施す と、 あらかじめ "る変形ノ^"ルが付帯した顔標準 3次元 形状を l己計測した 3次元形状にあてはめる工程と、 tills人物の顔を »した画 像中の顔のィ ¾¾ぴ向きを^する工程と、 画像中の顔の表情変化を するェ 程と、 ΙΐίϊΒ推定した顔の位置、 向き、 及び表情変化を利用して画像中にィ [^を、 顔に^ "るよう生成して表示する工程とからなることを赚とする。
第 8の発明は、 人物の顔の 3次元形状とその 特 14とを計測する工程と、該 計測した 3次元形状に {beを施す工程と、 あらかじめ髓する数 トルが付帯 した顔標準 3次元形状を tiff己計測した 3次元形状にあてはめる工程と、 ΙίίΙΒ人物 の顏を した画像中の顔の位 6¾ぴ向きを婦己計測した 3 »形状と 特 ffi とを利用して推定する工程と、 画像中の顔の表情変化を推針る工程と、 m 定した顔の位置、 向き、 ¾f青変化を利用して画像中にィ を、顔に^ Srfるよう »して表示する工程とからなることを赚とする。
第 9の発明は、 第 8の発明において、 前記人物の顔を撮影した画像中の顔の位 難び向きを 3«形状とその蘭特性とを利用して推定する工程の代わりに、
Itjf己 3次元形状と tfiia 特性と力らぁらカじめ様々な^ ¾ぴ照明条件下での 顔の位 g¾び向きを推定するための基底を生成する工程と、 該基底を利用して画 像中の顔の ί立 ¾¾ぴ向きを する工程とを含むことを とする。
第 1 0の発明は、 第 8の発明において、 tfilH人物の顔を膨した画像中の顔の 表清変化を推定する工程の代わりに、 it己計測した 3次元形状と 特性とから あらかじめ様々な^^照明条件下での顔の立 g¾び向きを推定するための基底 を^ ¾する:]:程と、 該基底と変形/ ルが付帯した顔標準 3次元形状とを利用し て画像中の顔の麦 If変化を推定する工程とを含むことを»とする。
第 1 1の発明は、 第 8、 第 9または第 1 0の発明において、 前記反射特性の代 わりに、 陰が少なレ、テクスチヤ画像を用レ、ることを赚とする。
第 1 2の発明は、 人物の顔の 3次元形状を計測する 3次元形状計測手段と、該 計測した 3次元形状に選択した目 をフィッティングする眼 びフィット 手段と、 tfjf己人物の顔を した 像中の顔の立¾¾ぴ向きを推定する顔立置 及び向き推定手段と、 赚定した顔の位難び向きを利用して、 B騰を fflWf 像中の顔に^ ¾ "るように配置した g赚画像を «する目赚画胜成手段と、前 像と ttiia騰画像とを合成して表示する «ぴ目赚合戯示手段とからな ることを«とする。
第 1 3の発明は、 人物の顔の 3次元赚とその碰特 とを計測する 3次
4¾¾O¾f特性計担!!手段と、 測した 3 ^55形状に選択した目 をフィッティ ングする目»1^¾ぴブイット手段と、 tfrl己人物の顔を »した 像中の顔の {立 S¾ぴ向きを ΙϋΙ己 3 ^形状と IMBKlt 生とを利用して推定する顔ィ立 §¾ぴ 向き推定手段と、 した顔の位 e¾ぴ向きを利用して、 目赚を画像中の顔 に^ Tるように配置した目!^画像を «する B赚画 手段と、 ΙίΜίϋ像 と tfiia¾ 画像とを合成して表示する 騰合^ *示手段とからなることを とする。
第 1 4の発明は、 第 1 3の発明において、 前言 位置及ぴ向き推定手段の代わ りに、 Ι&ΙΒ3次元形状と Sit特 1·生とからあらかじめ様々な^ 照明条件下での 顔の位 «¾ぴ向きを推定するための測地照明基底を生^ I"る測地照明計算手段と、 該基底を利用して 像中の顔の位 ¾¾ぴ向きを推定する顔位 ¾¾ぴ向き推定手 段とを含むことを [とする。
第 1 5の発明は、 第 1 2、 第 1 3または第 1 4の発明にぉレヽて、 ffJlE 位 g¾ ぴ向き »手段と IfJt己 手段と tiiK«O ^合 «示手段とを して行うことを赚とする。
第 1 δの発明は、 第 1 2、 第 1 3、 第 1 4または第 1 5の発明において、 前記 眼鏡の代わりに、 イヤリング、 帽子、 ヘアピース、 またはその他の頭部への着装 物、 あるレ、はそれらの組み合わせを画像へと合^ Τることを難とする。
第 1 7の発明は、 第 1 3、 第 1 4、 第 1 5または第 1 6の発明において、 前記
Sli特性の代わりに、 陰の少ないテクスチャ画像を用いることを mとする。 第 1 8の発明は、 人物の顔の 3次元形状を計測する 3次元形状計測手段と、 該 計測した 3次元形状に ibffiを施す化粧手段と、 あらかじめ る^^ ルが 付帯した顔標準 3次元形状を記' Ιϋ "る顔標準 3次元モデル及 U¾形ゾトル記憶手 段と、 |ίί«標準 3次元モデルを tfflB計測した 3次元形状へとあてはめる 3次元 モデノレフィッティング手段と、 191己人物の顔を した MM像中の顔の位 S¾び 向きを推定する顔位 g&ぴ向き推定手段と、 像中の顔の表情変化を推定する 顔部品変赚定手段と、 ttilE推定した顔の位置、向き、及び表情変化を利用して、 tfflS化粧手段で施した ilittを llB M像中の顔に^ fるように変形した fbW 像を «1 "るィ ^手段と、 廳 像と觸己化粧画像とを合成して赫 する M¾ H匕被合 β¾¾示手段とカゝらなることを »とする。
第 1 9の発明は、 人物の顔の 3次¾ ^状とその 特 I·生とを計測する 3次 状計測手段と、 歸測した 3次元職に化粧を施す (bffi手段と、 あらかじめ麟 する変形ゾトルが付帯した顔標準 3次元形状を記' る顔標準 3次元モデル及び ^ル記憶手段と、 tiil5 標準 3次元モデルを廳己計測した 3次元开狱へと あてはめる 3次元モデルフィッティング手段と、 ΙίίΙΒΛ物の顔を撮影した画像中 の顔の ί立 ¾ぴ向きを嫌己計測した 3次元形状と ^Ιί特 とを利用して推定する 顔位 «¾ぴ向き推定手段と、 β像中の顔の表情変化を推定する顔部品 手段と、 ΙίίΐΒ推定した顔の位置、 向き、 及び 胄変化を利用して、 肅己ィ 手段 で施した化粧を ΙΐΜΗ像中の顔に ^"するように 移した化粧画像を生成する 化驻画 i «手段と、 Misffiw像と ttif己ィ e®像とを合成して表示する «¾ 匕 被合^ ¾示手段とカゝらなることを mとする。
第 2 0の発明は、 第 1 9の発明において、 tfifS 位 び向き推定手段の代わ りに、 tfilB3次元形状と 特 |·生とからあらかじめ様々な難及び照明条件下で の顔の位 ¾¾ぴ向きを推定するための測地照明基底を生成する測地照明基底算出 手段と、 該基底を利用して 像中の顔の顔位 ぴ向きを推定する顔位 ¾¾ぴ 向き推定手段とを含むことを とする。
第 2 1の発明は、第 1 9の発明におレヽて、前 |5¾部品変形推定手段の代わりに、 廳己計測した 3 »形状と 特 とからあら力じめ様々な 及び照明条件下 での顔の位置及び向きを推定するための測地照明基底を生成する測地照明基底算 出手段と、 ttll3¾底と ^^ ルが付帯した顔標準 3次元形状とを利用して B 像中の顔の表情変化を it¾する顔部品変开继定手段と^^ことを赚とする。 第 2 2の発明は、 第 1 9、 第 2 0または第 2 1の発明にお Vヽて、 |ίί|Β騰特性 の代わりに、 陰の少なレ、テクスチヤ画像を用レ、ることを赚とする。
第 2 3の発明のプロダラムは、 コンピュータに、 人物の顔の 3次元形状を計測 する工程と、 ¾|十測した 3次 状に目!^をフィッティングする工程と、 tff!B人 物の顔を した画像中の顔の位 ¾¾ぴ向きを る工程と、 該推定した顔の 位 MRぴ向きを利用して画像中に眼鏡を、 顔に^ »るよう生成して表^るェ 程とを^?させる。
第 2 4の発明のプログラムは、 コンピュータに、 人物の顔の 3次元形状とその S f特 とを計測する工程と、 測した 3次^^に目赚をフィッティングす る工程と、 ΐίίΙ己人物の顔を ¾した画像中の顔の ί立 κ¾ぴ向きを t&l己 3次元形状 と tfrt己 特 I·生とを利用して推定する工程と、 定した顔の位 ¾¾ぴ向きを利 用して画像中に B騰を、顔に^ ¾ "るよう して表示する工程とを新させる。 第 2 5の発明のプログラムは、 第 2 4の発明において、 黼己人物の顔を βし た画像中の顔の位 び向きを 3次元形状と SI†特性とを利用して推定する工程 の代わりに、 |&|53次 状と if|HSW †生からあらかじめ様々な 及ぴ照明 条件下での顔の位 g¾び向きを推定するための基底を生成する工程と、 を 利用して画像中の位 §¾ぴ向きを ί!¾する工程とを含むことを ¾とする。 第 2 6の発明のプログラムは、 コンピュータに、 人物の顔の 3次元形状を計測 する工程と、 ^it測した 3次元形状にィ [^を施す工程と、 あらかじめ »rる変 形ルールが付帯した顔標準 3次元形状を ttJlB計測した 3次元形状にあてはめるェ 程と、 ItilB人物の顔を »した画像中の顏の位 ft¾び向きを ί6¾する工程と、 画 像中の顔の表情変化を推定する工程と、 tiff己推定した顔の位置、 向き、 及び ¾†青 変化を利用して画像中に化粧を、 顔に るよう して表示する工程とを実 行させる。
第 2 7の発明のプログラムは、 コンピュータに、 人物の顔の 3次元形状とその 赌特性を計測する工程と、 ¾ f"測した 3次元形状に化粧を施す工程と、 あらか じめ^する変 ^^トルが付帯した顔標準 3次 状を IWB計測した 3次元形状 にあてはめる工程と、 ΙίίΙΕ人物の顔を した画像中の顔のィ立 ^¾ぴ向きを till己 計測した 3次元形状と 特 I·生とを利用して推定する工程と、 画像中の顔の表 [f 変化を推定する工程と、 編己推定した顔の位置、 向き、 及び表清変化を利用して 画像中に »を、 顔に^ rrるよう «して表;^ rる工程とを節させる。 第 2 8の発明のプログラムは、 第 2 7の発明にぉ 、て、 觸己人物の顔を鄉し た画像中の顔の {立 g¾ぴ向きを 3次元开多状と R#t特 I生とを利用して する工程 の代わりに、 廳己 3次 ¾f 状と觸己通特性とからあらかじめ様々な難及び照 明条件下での顔の位置及び向きを推定するための基底を生成する工程と、 該基底 を利用して画像中の位 ¾¾ぴ向きを推定する工程とを含むことを [とする。 本努明の ί乍用を説明する。
ユーザの麵像 (カメラで遊的に灘した顔の画像) に目騰を合成する には、 先ず、 人物の顔の 3次元形状を 3次元形状計測手段により測定してお その後、 眼^ 1»ぴフィット手段により、 3次元形状にユーザによって選択さ れた眼鏡をフィッティングし、 顔位置及び向き推定手段により、 人物の顔を » した顧像中の顔の位 6¾ぴ向きを推定し、 この推定した位 ¾¾ぴ向きを利用し て、 眼鏡画像 «手段において、 眼鏡を 像中の顔に 敌するように配置した 目赚画像を^^する。 廠ぴ B騰合戯示手段では、 顧像と B職画像とを合成 し、表不する。
ユーザの細像に化粧を施 には、 先ず、 人物の顔の 37火 5 ^状を 3次元 形状測定手段で測定しておく。 その後、 計測した 3次元形状にィ ffi手段を使用し てィ を施す。 また、 3次元モデルフィッティング手段により、 ¾ ^ノ] ^ルが付 帯した顔標準 3次元モデルを計測した 3 ^形状へとあてはめる。 その後、 mm 像中の顔の位 ¾¾ぴ向きを顔位 ¾¾ぴ向き推定手段で推定すると共に、 画像中の 顔の表情変化などを顔部品 手段で推定する。 その後、 ί ^した位 e¾び 向き 情変化を利用して、 ィ匕粧手段で施した ibKを讓像中の顔に るよ うに変形した化粧画像を «し、 謙 t¾合 s¾¾示手段を用いて細像と 画像とを合 る。
図面の簡単な説明
第 1図は、 本発明の第 1の難例による目騰シミュレーション装置の全體成 を説明する機能プロック図である。
第 2図は、顔の座標系の説明図である。
第 3図 (a ) ~ ( c ) は、 B騰の 3 Dデータの説明図である。
第 4図 (a ) 〜 (d) は、細像への S赚の合 法説明図である。
第 5図は、顔位置'向き推定手段の詳細構成を説明する機能プロック図である。 第 6図は、 本発明の第 2の 例によるィ匕粧シミュレーション装置の全体構成 を説明する機能プロック図である。
第 7図は、 ィ匕粧手段の説明図である。
第 8図は、顔標準 3 D形状モデルと計測 3 Dデータとのフィッティングの説明 図である。
第 9図 (a ) 〜 (d) は、 標準 3 Dモデルとその変形ノ^"ルを利用した、 顔の ¾ ^雄と対応する化 明図である。
第 1 0図 (a ) 〜 (c ) は、 麵像への化粧画像の合 法説明図である。 第 1 1図は、 g職シミュレーション装置及 ufシミュレーション装置が適用 されるコンピュータシステムの全 成を示 ¾略プロック図である。 発明を するための最良の形態
以下、 本発明の難の形態にっ 、て図面を参照して詳細に説明する。
まず、 本発明の第 1の 例を、 第 1図を参照しながら説明する。
第 1図に示す目騰シミュレーション装置 2 0 1は、 顔の 3次 娥とその 特 14の双方を計測する麵と、 通常のカメラにより麵像を蔵して擁し、 こ の した各 B像へ HIT次 を合^ る処理とを行う。
3次元 ( 3 D) 形 特 [4計測手段 1は、ネ終体となる人物の顔の 3 形状とその繊特性、 あるいは赌特 14に準じる陰の少なレ、テクスチャ画像を計 測し、 それぞれを 3次 状信号 1 0 2と Sit特 1·生信号 1 0 1として出力する。 上記 3次元开狱の計測方法としては、 例えば特開 2 0 0 1 - 0 1 2 9 2 5¾ 報 「三次元織計測方 離びに麵某体」 (以下、 「文献 1 4」 ) を利 用することができる。 この他にも 3次元形概測の; W去としては 「三次元画像計 測」 讲ロ '鶴、 昭光 (以下、 「文献 1 5」 ) などに記載されている様々 な既存の を利用することができる。 また文献 1 4の; W去においては、 3次元 形状と同時にテクスチャ画像も取得することができる。 そこで、 顔の周りにラン プを複 egし、顔全体に一様に光があたるようにすることで、 繊的に 特 性とみなすことができるテクスチャ画像を簡単に計測することができる。 他にも 特 14を顔の 立置にぉ 、て計測できる手法であれば、 本発明を構成すること ができる。
一方、 第 2図に示したように、 計測 物体である顔の重心を中心とした顔を 覆う球を考え、 顔表面上の各点 Pにおける 3次 標値とテクスチヤ値を表現す るための座標系を設定する。 点 Pは、 重心を中心として lift己 «面上へ 影され ることにより得られる点 <3の« '鍵 (s, により、 統一的に表現するこ とができる。 3次元形 iK/CT特 I·生計測手段 1により得られた 3次元形状とテク スチヤ画像は、 上 ¾¾標系により、 点 Pにおける 3次元座標値
X
とそのテクスチャ値 B力 一つの座標 (s, t ) によりそれぞれ
と: B ( s, t ) として、 統一的に表現されるものとする。 なおこの座標系につい ては、 3次元形状とテクスチヤ力 S互レ、に関連を持つて扱うことが可能であればど のようなものであっても、本発明を構成することが可 である。
測地照明基 出手段 2では、 3次元开$状信号 1 0 2と 特 信号 1 0 1を 入力とし、任意照明下での顔の見えを近似するための基底を »し、測地照明基 底信号 1 0 3として出力する。 測¾照明基底法については特開 2 0 0 2— 1 5 7 5 9 5号公報 「物体照合方法、 物体照^ ¾置、 及びそのプログラムを記録した記 録媒体」 (以下、 「文献 1 6」 ) に IBMされている。 以下、 文献 1 6に従って測 地照明基 JS^出手段 2につレ、て説明する。
まず、 コンピュータグラフィックスの などを用いることにより、 顔表面上 の 立置の陰影 ^^による輝度 の変化を計算し、様々な照明 牛の下でのテ クスチヤ群を^ rる。 テクスチャの核の陰影の変化による輝度や色の変化は、 麵素に対応する物体表面の贿率、 3次 状から計算できる 方向、 及び 照明の方向により計算することができる。 影の «に関しては、 tff!B 3次元形状 を用!/、て雄 ϋ¾などの処理を行うことで、嫌己画素に設定した照明条件の下で 光が当たるかどうかを判定することができる。 物体表面の Sit特 14として完^ 乱面を仮定レ 物体形状が凸であり他の部分による光源の遮蔽によって生じる影 がなく、 光源が無 にあるとすれば、 i番目の照明のもとでのテクスチャの各 画素 (s , t ) の輝度値 (s, t ) は、 画素に対応している顔表面の 特 性 B ( s , t ) 、 ¾Ε方向
、 各照明の献 1 iおよびその方向
により、
次式で計算することができる。
IF (s, ή = B{JS, t% max(£ · N(s,
Figure imgf000013_0001
I ; ( s, t ) を! ^タトルとして並べ、 更に照明毎に » クトルを横に並 ベて行列を^^し、 共分 亍列を求めた後、 ^分分析により固有値 U i } と 固有べクトノレ
ft}
を求める。 ここで固有値 と固有ベクトル ft}
は、 固有値の大きな順に並んでいるとする。 これらより、 例えば固有値の累積寄 与率が 9 9 %以上となる最小の数だけ固有べクトルを選択し、 "測地照明基底"と 名付けることとする。 以上により適当な数、 例えば 1 0個 の測地照明基底を 得ることができる。 この測地照明基底は、 テクスチャ群全体を近似したものとな る。
BS^l^ .フィット手段 3では、 3次元开$状信号 1 0 2と、 目 1^1択ィ言号 1 0 4と目騰 3次元データ信号 1 0 5とを入力とし、 ユーザより指定された B職の 3 次元形^ータである S¾ ^ タ信号 1 0 5を目^^ータ蓄積手段 4より読み取 るとともに、 計測した顔 3次元开欺を参照してそれにブイットする目赚の位置と 大きさを決定し、選択 B騰 3次元データ ·フィッティング信号 1 0 8として出力 する。 B赚の 3次元形 'ータの一例を第 3図 (a ) 〜 (c )
Figure imgf000014_0001
第 3図 (a ) 〜 (c ) に示すように、 各 B縢の 3次元形;^ータには、 右鼻位 置 1 1 7、左鼻 f立置 1 1 8、 右耳 ±¾m i 1 9、 左耳上雜置 1 2 0が付与さ れており、顔 3次元形状と各対応位置とが^ るよう、 ツルの長さ Lを変更す ることによりフィットする。 このときの顔と B赚との相対位置とツルの長さ Lを ¾¾騰3次元データ ·フィッティング信号 1 0 8として出力する。 ここでは鼻 位置と耳 立置によりフイツティングすると したが、 前述した文献 7に記 載の謹など、 目騰をフィッティングする謹であれば何でも利用すること力 S可 能である。
カメラ 5は、 体となる人物の顔の画像を赚的に驗し、 複数のフレーム から成る麵像信号 1 0 6を出力する。麵像信号 1 0 6の一例 ( 1フレーム分) を第 4図 (a ) に示す。
顔 ί立置 .向き推定手段 6は、 ®W像信号 1 0 6と 3次元形状信号 1 0 2と測地 照明基藤号 1 0 3とを入力とし、 ffrlB文献 1 6において述べられているように、 顧像信号 1 0 6の各フレームそれぞれについて、 より適合する錢を繰り返し 探 ることにより得られた顔の位置と向きを、顔 ί立置 ·向き信号 1 0 7として 出力する。
顔位置'向き 手段 6について、 第 5図を用いて詳細に説明する。 尚、 以下 では、 ®g像信号 1フレーム分の纏にっレヽて説明するが、各フレームに対して 同様の觸が行われる。
カメラ 5は、 焦点 {¾| fを持つピンホールカメラであるとし、 その 向を z軸、 またスクリーンの縦軸 ·横軸に 亍な方向をそれぞれ γ軸 · X軸とする。 本 X Υ Z座標系を基準とし、該カメラ 5の前の 体となる人物の顔の位置が (T X, Τγ, Τζ) τ、 その向きが (Rx, RY, Rz) Tであるとする。 このとき計測し た顔の 3次元形状の各座標位置 (X iYi, z j) Tは、 カメラ 5の前の座ネ Κ立置 (Xi, Yi, Ζ;) 丁に ¾することとなる。
cosJRjp cosfi · 一 cosJf^- smR +smRY smJ^ cos ^ smR^ s Ry + ^ s .Rr a &R , ∞si£r miR cos Zj. + sbiiS sdnJ2r sinJZ' -cosJ2K sinJ¾ + co&R£ mi ^ a Rz
Figure imgf000015_0002
Figure imgf000015_0003
カメラスクリーンの繊 '横軸をそれぞれ v軸 -u軸としたとき、 (Xi, Yi, Zi) τ座標に位 g"fる顔の該当座 ίΐί立置は、 スクリーン上の (u V i) τ位置 へと »されることとなる。 ぶ
Figure imgf000015_0001
顔位置'向き β手段 15は、 初期設定された顔の位置 (Τχ。, Τγ。, Τζ。) τと向き (Rx 0, RY°, Rz。) Tを元とし、 それぞれ小修正した (Tx。+厶 Tx, ΤΥ。+ΔΤΥ, ΤΖ°+ΛΤΖ) T、 (RX°+ARX, RY°+ARY, R2°+ARZ) T を «し、顔位置 ·向き信号 121として出力する。
照明補正手段 16は、顔ィ ώ置 .向き信号 121と 3次元形状信号 102と測地 照明基 iSi言号 103とを入力とし、 3次元形状に測地照明基底を構^ る複数の 固有べクトル
ft}
をコンピュータグラフィッタスの手法により貼り付けてそ^ 1 'れ画^! ^を行い、 同じ数から構成される HIE画像
を得る。そして、上言 5¾E画像を難.照明補正画像信号 122として出力する。
HtJt^手段 17は、 M1H象信号 105と錢.照明補画象信号 122を入 力とし、 像
κ
との が最も小さくなるよう次式のパラメータ { a i } を求め、 この を画 像^言号 1 2 3として出力する。
Figure imgf000016_0001
終了半 1J定手段 1 8は、 画像^言号 1 2 3と顔 ί立置 .向き信号 1 2 1を入力と し、 もし散が十分小さくなれば、顔の位置と向きの推定が終了したと判断し、 そのときの顔位置 ·向きを、 顔位置 ·向き信号 1 0 7として出力する。 まだ終了 して 、なレヽと判断したときには、再麵の位置 ·向きを修正して計算し直 l t令 を、顔位置 .向き^] E指令信号 1 2 4として出力する。 顔位置 .向き記憶手段 1 9は、 顔位置'向き信号 1 0 7を入力とし、 その値を記憶しておき、必要に応じ て前フレーム顔位置 ·向き信号 1 2 5として出力する。
以上では顔位置 .向き推定手段 6として、 単純な {紅を繰り返す手法につ ヽて 説明したが、 その他の β 去によっても本発明を構成することができる。 体の顔の位置と向きの推 ¾ §果を用いて 3次 状により描画した結 ¾ を第 4 図 (b) に示す。
B騰画^^手段 7は、 3次 状信号 1 0 2、 顔位置 .向き信号 1 0 7、 選 択目 M ^一タ ·フィッティング信号 1 0 8を入力とし、 像信号 1 0 6上に撮 影されている顔と同 立置 ·向きに、 顔 37A¾^t^—タを配 るとともに、 該 3次元形 ータにブイットさせるために求めた相対位置関係を利用し、
3次元形;^一タを配 g-fる。 ここで 3職だけ 3^5グラフィックス鎌により 描画することにより、 元々の細像信号 1 0 6に »されている顏にフィットす る西驗画像が^^でき、 これを B¾ 画像信号 1 0 9として出力する。 なお眼鏡の フレームのうちツルの部分 ί±®部により遮蔽されて見えなくなるが、 目赚画 成手段 7では、 m像に るよう配置される本人の顔の 3次元形状を参照し ているために隠蔽判定は非常に簡単に ることができ、 見えている部分だけ を描画することが可能である。 Β騰の描画例を第 4図 (c ) に示す。
顔 ·目 合 5¾¾示手段 8は、 ®Βί象信号 1 0 6と 像信号 1 0 9とを人力 とし、 画像に対し B赚画像をオーバーレイして合成することにより、 B纖をか けた画像を して表示する。 最終的な合成画像例を第 4図 (d ) に示す。 この とき ¾した画像をそのまま表示することもできるし、 左右を反転させることに よりあたかも鏡に写した力のよう【 すこともできる。
媒体 K 1は、 ディスク、 ^体メモリ、 その他の »媒体であり、 コンビ ユータを眼鏡シミュレーション装置 2 0 1として機能させるためのプログラムが 言 されている。 このプログラムは、 シミュレーション装置 2 0 1により読 み取られ、 その動作を制御することで、 B¾ シミュレーション装置 2 0 1上に、 37火元形 藤特 !·生計測手段 1、 測地照明基藤出手段 2、 B麵択 'フイツ ト手段 3、 顔位置 .向き推定手段 6、 B鱲画 手段 7、 顔.目赚合戯示手 段 8を する。
上記難例では顔の位置と向きを検出するための手段として、 前述した文献 1 6記載の測地照明基底法を用いて説明したが、 精度良 W立置.向き推定方法であ れば何でも本努明を構針ることができる。 上讓 · g騰合戯示手段 8では眼 鏡画像と 像を単に合 るだけと |B¾したが、 特開 2 0 0 1— 3 3 1 5 5 0 号公報 「赚フレーム蔵システム」 (以下、 文献 1 7) にあるように、視力矯 正に必要なレンズ処方値に基づいて、細像を屈折させてより自然に表現するこ とでも本努明を構成することができる。
また上記実施例では眼鏡について説明したが、他にもイヤリングや帽子、 ヘア ピースなどの頭部への につレヽても同様に本発明を構成することができる。 このときィャリングゃヘアピースにおいて、顔の動きを考慮してィャリングやへ ァピース自体に動きや颜さなどを ϋ¾πし、 より自然な表示を可能にすることでも 本発明を構 β¾1 "ることができる。 また個々の着^)のうち一つだけを とする のではなく、 それらの組み合わせにつレヽても同様に本発明を構^- rることができ る。
本樂明の第 2の 例を、 第 6図を参照しながら説明する。
第 6図〖 した ik¾シミュレーション装置 2 0 2は、顔の 3次元形状と蘭特 性の双方を計測する と、 通常のカメラにより B像を して βし、 この βした各 Μίϋ像へと { eを 次合成する^ ¾とを行う。 以下の説明では第 1の 難例と異なる手段についてのみ詳¾1~ることとする。 化粧手段 9は、 3¾fe 9f贿号 1 0 2、 画言号 1 0 1、ィ匕麵乍信号 1 1 0を入力とし、 計測した顔の上に化粧を施して、 最終的にできあがった化粧を ィ匕粧 3 »信号 1 1 1として出力する。 化 »法については、 ー且 2次 ¾«Β像 を »して! ΐίΙΕ文献 1 1、 1 2、 1 3などに記載されている、 画像へとィ b¾を施 す雜を適用した後、 逆に形状の対応する地点を求めることで構]^ ることがで きる。 また 3次元 C ADなどのような操 ^^を構成してもかまわなレ、。 一例を 第 7図に 。 3次元形状に 特性をテクスチャマッピングし、 適当な方向か ら眺めた画像を第 7図に示すようにコンピュータグラフィックスの»により生 成する。 パレット 1 2 6の中から適当な色とペン先を藤し、 ペン 1 2 7により ィ を施す (化鶴作信号 1 ι ο) 。 «作により各座衞立置におけるィ を作 成することができ、 第 2図に示したように、 点 Pにおける化難は、重心を中心 として廳己 «面上へ鶴されることにより得られる点 Qの · ¾g ( s , t ) により、 3次 状や 特 と同じ座標系により統一的に表現することができ る。 作成した化粧を化粧 3次元信号 1 1 1として出力する。
3次元モデルフィッティング手段 1 0は、 3次元形状信号 1 0 2、反射特 ΙΦί言 号 1 0 1、 フイツティング操 ί乍信号 1 1 2、 顔標準 3次元モデノレ ·
Figure imgf000018_0001
号 1 6を入力とし、 計測した 3次元織と、 ¾ff変化ノトルがつけられた顔の 標準的な 3次元形状モデルとの間の関連づけを行い、 相互間の関係を標準 3 ¾¾¾ フィッティング信号 1 1 3として出力する。 本フィッティングは、 電子す f«信 学会研究速報 HC S 2 0 0 1— 3 2 「レンジフアインダを用いた表' ^ル と表情編集ツールの構^ j (以下、 文献 1 8 ) で ベられている 3次元形状間の が 固できる。 また計測データを用いて 2 像を一旦 するこ とにより、 前述した文献 8や文献 9のような 2次元画像を とする手法でも本 発明を構成することができる。 このような対応付けを行う雜であれば何でも、 本発明を構^ ることができる。
第 8図を用 、ながら、 フイツティングの一例を示す。 顔標準 3次元モデル 1 2 8と、 計測 3次元形^ータ 1 2 9との間の関連づけを、 双方の右目の目頭や目 尻を対応付けする右目対応付け操作 1 3 0や、 口の左右端を対応付ける口対応付 n ^ 1 3 1などを^ ることにより、 同一座標値をとるべき β点を る。対応付けられた顔標準 3次元モデル上の n個の »点 (x i 5 y;, Z i) Tと、 計測 3次 ¾^ータ上の対応する»点 (χ ;' , y;' , ζ;' ) τがほぼ同一 となるよう、 次式が最小となるようなパラメータ aから ρまでを求める。
¾ ■ ヽ
¾
ΙΛ 1 1 ■ " 1
Figure imgf000019_0001
上記式では対応づけられた顔標準 3次元モデル上の各点は、 計測 3 f ータ上の対応点とは完全には一致しない。 そこで洛¾*点について、 それぞれの
¾ ^である (Δ X Δ y j, Δ z 、即ち 、x (a x ; +b y i + c z; + d) , y j— (e x + f y j ' +g z;' +h) z j— ( i x j' + j y;' + k z;' + 1) ) 丁だけ更に移動させることで一致させる。 御点の間に位 e- る座標点にっ 、ては、 ま 1¾応する基準点からの«に合わせて重み付けした残 差だけ移動させる。
例えば第 7図の下側に示したように、 右目目尻点 131、右目目頭点 132、 右口端点 133により赚付けられる領域内の点 P 134の移動量を求める際、 該点 P 134が図で示したような比率にて表される位置に配置されていた ¾ ^に、 次式により移動量を求める。 ここで q · rは 0から 1までの値をとる ^[である とする。
1 Γ ) i 「 ίΑκ ヽ
^¾Θ
= (ト (l-d A¾a@¾a
、 右 s目 ノ
次に図 7の下側の三角形に垂直な方向
Figure imgf000019_0003
Figure imgf000019_0002
に移動し、 測定データ点に完全に一致させる。 以上の操作により得られた、 パラ メータ aから p、 また顔標準 3次元モデル上の各頂点座標の移動量 (Δχ,1, Λ 厶 Ζ ρ 1) τ (Δχρ 2, Δγρ 2, Δ ζρ 2) τを、 標準 3次元フイツティン グ信号 113として出力する。 これら〖こより、 顔標準 3次元モデル上の点は全て 計測データ上にマップされることとなる。 また本難例に用いられる顔標準 3次元モデル〖こは、 変形ノ "ルが付与されて いる。 "ルとは、 目の開閉、 口の開閉などの、 人が行うことができる麦 if 変化にっ 、て、 3次元モデル上の各座標点の移動量として制御可能なように定義 されているものである。 第 9図 (a ) は、 変形 ノレのうちの、 目の変形ノ "ル を模式図により示したものである。 一番左が初期状態であり、 目の開き量を与え ることにより座標点の移動量が与えられ、 あたかも徐々に目を細めてゆくような
Hiの動作を^ aして 、ることを示している。
第 9図 ( c ) は、 一番左の目は計測した顔 3次元形状であるとし、 本形状に顔 標準 3次元モデルをフィットしたものの模式図が第 9図(b )である。この結果、 フィッティングした顔標準 3次元モデルの險を閉じさせることにより、結果的に 計測した顔 3次元形状の自然な変形が可能となる。 第 9図 (d) は、 計測し S 3次元形状上へとテクスチャマッピングしたアイシャドウの模式図である。 こち らにつ V、ても顔標準 3次元モデルの変形に伴っての変形が可能となる。
顔部品 手段 1 1は、 顔位置 ·向き信号 1 0 7、標準 3次元形状信号 1 0 2、 測地照明基底信号 1 0 3、顔画像信号 1 0 6、 標準 3次元フィッティング 信号 1 1 3、顔標準 3 ¾fe¾モデ、 /レ ·変开 ト/ 言号 1 1 6を入力とし、顔標準 3 次元モデルに対して ^ルに従つた を行レヽ、 計測した 3 とその 表面上の測地照明基底に麵を加える。 この処理により、 各表情 (例えば、 瞼を 閉じた表情、 瞼を開いた表情、 瞼を半分閉じた表魔など) に対応した複数の 3次 元形状が得られる。
その後、储情に対応した 3次元織それぞれに、 その 3次元形状に対応する 測地照明基底を構成する複数の固有べクトル
ft}
をコンピュータグラフィッタスの手法により貼り付け、 各麦 |·青に対応するテンプ レートを作 る。 その後、 各テンプレートと顧像とを比較して最も 像に 近いテンプレートを選択することにより ¾ fの変化量を推定し、 顔部品麵$信号 1 1 4として出力する。 第 9図 (c ) は、 第 9図 (a ) にある標準 3次元モデル を変形させることによって得られる瞼を閉じてゆくテンプレートである。
化粧画 手段 1 2は、 3次元开娥信号 1 0 1、 . '向き信号 1 0 7、 ィ 次元信号 1 1 1、 顔部品変形信号 1 1 4を入力とし、 最初に施した化粧を 画像にフィットするよう «した 画像を して、 化粧画像信号 1 1 5とし て出力する。 顔 · { 合戯示手段 1 3は、讓像信号 1 0 6とィ bffi画像信号 1 1 5とを入力とし、 ィ匕粧画像を麵ィ肚にオーバーレイすることによりィ 後の 画像を «して表示する。
第 1 0図 (a ) に入力となる 像例、 同図 (b) に化粧画像例、 同図 (c ) に合成画像例を示す。 合成画像はそのまま表示することもできるし、左右を反転 させることによりあたかも鏡に写したかのように示すこともできる。 また上記 顔 .ィ匕粧合^ ¾示手段 1 3では {tig画像を B像にオーバーレイすると ΙΚίした 力 化粧画像に透明度をつけて合成することにより、 より自然な合成画像を得る こともできる。
顔標準 3次元モデル ·変形 Λ~ル記憶手段 1 4は、'表情などにより生じる顔の 麵ノ ルを付随した顔標準 3次元モデルを記憶しておき、 随時顔標準 3次元モ デル ·変形ノ! 言号 1 1 6として出力する。
識媒体 Κ 2は、 ディスク、 ^体メモリ、 その他の言撮媒体であり、 コンビ ュ一タを i liシミュレーション装置 2 0 2として機能させるためのプログラムが 言藤されている。 このプログラムは、 ftffiシミュレーション装置 2 0 2により読 み取られ、 その動作を制御することで、 イ^ ftシミュレーション装置 2 0 2上に、 3次元开 特 14計測手段 1、 測地照明基錄出手段 2、 顔位置'向き 手段 6、 手段 9、 3次元モデ、ノレフィッティング手段 1 0、 顔部品変 定手 段 1 1、
Figure imgf000021_0001
1 3を難する。
上記 例で〖壞の位置と向きを検出するための手段として、 前述した文献 1 5記載の測地照明基底法を用いて説明したが、 精度良レ 置 '向き推定施であ れば何でも本発明を構]^ rることができる。 同様に顔部品 »^段にっレ、ても前 述した文献 1 5記載の測 β明基底法を拡張する形にて記載したが、顔部品 を推定する であれば何でも本発明を構成することができる。 また、 以上の説 明は、 カメラ 5から出力される 1フレーム分の MM像信号 1 0 6に ¾ "るもので あり、 した動作と同様の動作が、 ffi®像信号 1 0 6を構^ 1~る各フレームに 対して順次行われる。
また上記 »例では として説明したが、 顔への^ンティング につ 、 ても同様に本宪明を構^ ることができる。
これまで B職などの頭部への着 と化粧とは別の建例として説明してきた 力 s、 これらの組み合わせについても同様に本樂明を構成することができる。
本発明によれば、 目騰ゃイヤリング、 帽子、 ヘアピースなどの頭部への着難 ゃィ ffiなどを、 実際に i *装ゃィ [^などしていない状態で した 像へと違 和感なく合成する画像合^^去、装 «¾ひ IB憶手段を難することが可能となる。 次に、 前述の眼鏡シミュレーション装置 2 0 1及 匕粧シミュレーション装置 2 0 2力 S適用されるコンピュータシステムの構成例を第 1 1図に基づき説明する。 第 1 1図に示すコンピュータシステム 3 0 0は、 ノ ス 3 1 0と、 このバス 3 1 0に «される各構成要素として、 システム内の情報処理を担う C P Uなどのプ 口セッサ 3 2 0、 メインメモリ 3 3 0、 ROM (リード 'オンリー'メモリ) 3 4 0、 ディスクコントローラ 3 5 0、 ディスプレイコントローラ 3 6 0、入力デ パイス 3 7 0、 及びカメラ用インターフェース 3 8 0を有する。
メインメモリ 3 3 0は、 例えば RAM (ランダム ·アクセス 'メモリ) や他の ダイナミック ·ストレージ ·デバイス (例えば、 DRAM, S RAM等) から構 成され、 プロセッサ 3 2 0により Hfiされるプログラムの命^ H青報を線内し、 またプロセッサ 3 2 0によるプログラムの命令実行中に一時的に生成される変数 や他の中間的情報を格納し得るものである。
ROM3 4 0は、例えばスタティック *ストレージ ·デバイス (例えば、 PR OM、 E PROM、 E E P ROM等) で構成され、 プロセッサ 3 2 0で麵され る固定情報^令を ^frrる。
ディスクコントローラ 3 5 0には、 HDD (ハードディスクドライフ 1 5 1 及び/又はリムーバブルメディアドライブ (磁気ディスク、 光ディスク、 光磁気 ディスクなど) 1 5 2が接続される。 HDD 3 5 1及び/又はリムーバフ ィ スク 3 5 2は、 ディスクコントローラ 3 5 0により »され、 プロセッサ 3 2 0 で処理される各種情報^令を糨内する。
ディスプレイコントローラ 3 6 0には、例えば CRT (Cathode Ray Tube) や 液晶ディスプレイ等のディスプレイ 3 6 1が される。ディスプレイ 3 6 1は、 ディスクコントローラ 3 6 0により 1¾1され、 プロセッサ 3 2 0から^された 各衝雜、 麵を表示する。 入力デバイス 3 7 0は、例えばキーボード 3 7 1ゃポインティングデバイス(マ ウス等) 3 7 2などで構成される。 入力デ、ノイス 3 7 0は、 ユーザ操作により入 力、 指示、選択等される各種†f# ^令をプロセッサ 3 2 0に送る。
カメラ用ィンターフェース 3 8 0には、 例えば所 格の通信ィンターフェ一 ス (摘、 無線のいずれでも採用できる) 力 S搭載され、 該通信インターフェース を介し、 は CMO S型の固 ί極 から構成されるカメラ 3 8 1 力 S される。 カメラ 3 8 1で撮像された画像信号は、 カメラ用インターフエ一 ス 3 8 0を介して取り込まれる。
上記コンピュータシステム 3 0 0により実行されるプログラム (O S 3 9 1、 画 »理プログラム 3 9 2等) 3 9 0は、 例えば R OM 3 4 0、ハ一ドディスク 3 5 1などのシステム內の 15録媒体に格納され、 プロセッサ 3 2 0により実行さ れる。 このプロセッサ 3 2 0によるプログラム 3 9 0の命令実行により、 前述し た本発明の 段が される。
なお、 本発明は、 代表的に例示した の鍾例に P胺されるものではなく、 当餘であれば、 特識求の範囲の記載内容に基づき、 その要旨を舰しない範 囲内で種々の«に変形、 変更することができ、 それらも本発明の衞 U範囲に属 するものである。
産 Hiiの利用可能性
以上のように、 本発明は、 コンピュータシステムを利用した眼鏡シミュレーシ ョン装置、 化粧シミュレーション装置などの用途に適して 、る。

Claims

請 求 の 範 囲
1 . 人物の顔の 3次 状を計測する工程と、
¾|十測した 3次元形状に目赚をブイッティングする工程と、
ΙίίΐΒ人物の顔を した画像中の顔の位 g¾び向きを推定する工程と、 該推定した顔の位 «ぴ向きを利用して画像中に目驗を、顔に^ ¾1 "るよう生 成して表示する工程とからなることを W [とする頭部着 画像合 fifcm
2. 人物の顔の 3次 ϋとその とを計測する工程と、
m- した 3次元形状に目赚をブイッティングする工程と、
ItifS人物の顔を した画像中の顔のィ立 ¾¾ぴ向きを fllB 3次元形状と ftllB反 射 †生とを利用して推定する工程と、
該推定した顔の位厳び向きを利用して画像中に目騰を、顔に^ rるよう生 成して表示する工程とからなることを^:とする頭部^ »画像合
3. 請求項 2記載の頭部 画像合 去にぉ ヽて、
ia人物の顔を Stした画像中の顔の位 §¾ぴ向きを 3次元形状と 特性と を利用して推定する工程の代わりに、
ttna 3次元形状と itiiBCT"特 !■生とからあらかじめ様々な^ 及ぴ照明^ ί牛下で の顔の位 e¾ぴ向きを推定するための基底を る工程と、
該基底を利用して画像中の顔の位 6¾ぴ向きを推定する工程とを含むことを特 徴とする頭部 画像合^法。
4 · 請求項 1乃至 3記載の頭部 画像合戯法にぉレヽて、
tfflB人物の顔を した画像中の顔の位 ¾¾ぴ向きを推定する工程と、
定した顔の位置及び向きを利用して画像中に眼鏡を、顔に合 るよう生 成して表示する工程とを聽して行うことを赚とする頭部 画像合
5. 請求項 1乃至 4曾己載の何れか 1つの頭部 画像合^^法にぉレヽて、 廳己目騰の代わりに、 イヤリング、 帽子、 ヘアピース、 またはその他の頭部へ の あるレ、はそれらの組み合わせを画像へと合财ることを赚とする頭 部 画像合 去。
6. 請求項 2乃至 5諫の何れか 1つの頭部^ ¾画像合 去にお 、て、 觸己 特 の代わりに、 陰が少な ヽテクスチヤ画像を用!/ヽることを赚とす る頭部^ 画像合 法。
7. 人物の顔の 3次^状を計測する工程と、
-mした 3次元形状に化粧を施す工程と、
あらかじめ »する変^^ "ルが付帯した顔標準 3次元形状を IfJl己計測した 3 次元形状にあてはめる工程と、
tfit己人物の顔を した画像中の顔の位 gaぴ向きを推定する工程と、 tiiia画像中の顔の ¾t青変化を推定する工程と、
tftiat^した顔の位置、 向き、 及び表情変化を利用して画像中にィ を、顔に ^it るよう して表示する工程とからなることを mとする i ¾画像合 法。
8. 人物の顔の 3次 9 状とその Sit特 14とを計測する工程と、
該計測した 3次元形状に化粧を施す工程と、 あらかじめ^する^ i^ "ルが 付帯した顔標準 3次元形状を l己計測した 3次 ^状にあてはめる工程と、
Mia人物の顔を »した画像中の顔の ί立 ¾¾ぴ向きを tfit己計測した 3次元开^ と 特 ftとを禾 して推定する工程と、
tins画像中の顔の表情変化を推定する工程と、
漏己推定した顔の位置、 向き、 及び表情変化を利用して画像中にィ を、顔に ^¾ι~るよう して表示する工程とからなることを «とする ^¾画像合^^ 法。
9 . 請求項 8記載のィ ffi画像合 去にお Vヽて、
t&ia人物の顔を した画像中の顔の位 ¾Rび向きを 3次元形状と 特 f生と を利用して推定する工程の代わりに、 Ιίίΐ己 3次元形状と tiff己 Sit特性とからあらかじめ様々な ^及び照明^ ί牛下で の顔の位 s¾び向きを ii¾するための基底を生^ る工程と、
該基底を利用して画像中の顔の位 s&ぴ向きを推定する工程と むことを特 徴とする化粧画像合 法。
1 0. 請求項 8記載の化粧画像合 ^^法にぉレゝて、
Itlf己人物の顔を した画像中の顔の表情変化を推定する工程の代わりに、 tff!B計測した 3次元开娥と Sit特 とからあらかじめ様々な ^^及び照明条件下 での顔の位 ¾¾ぴ向きを推定するための基底を^ ¾する工程と、
該基底と ^^トルが付帯した顔標準 3次 ¾ 状とを利用して画像中の顔の表 情変化を推定する工程と むことを赚とするィ 画像合 。
1 1. 請求項 8乃至 1 0記载の何れか 1つのィ 画像合 法にぉレヽて、 漏己碰特性の代わりに、 陰が少ないテクスチャ画像を用いることを赚とす る^ f K画像合 ^fcW去。
1 2. 人物の顔の 3次元形状を計測する 3次 状計測手段と、
^f 測した 3次元形状に選択した眼鏡をフィッティングする眼^ 1»ぴフィ ッ卜手段と、
IfJlB人物の顔を »した 像中の顔の i tt¾ぴ向きを推定する顔位 ¾¾び向 ぎ推定手段と、
該推定した顔の位 ¾¾び向きを利用して、 K ^を ¾®像中の顔に^!^する ように配置した g纖画像を る目赚爾 «手段と、
m m .と Ι&ΕΒΜ^Β像とを合成して表示する厳び 合戯示手段とか らなることを mとする頭部 面像合成装 ^
1 3. 人吻の顔の 3次元形状とその Rlt特性とを計測する 3次元形 特 ft計測手段と、
則した 3 «形状に選択した職糞をブイッティングする眼 H¾びフィ ット手段と、 ttilB人物の顔を した 像中の顔の位 S¾び向さを fif!B 3次元形状と tiff己 Sit特 とを利用して推定する顏ィ ¾¾ぴ向き推定手段と、
該推定した顔の位 ¾¾ぴ向きを利用して、 目贜を麵像中の顔に^ rるよう に配置した 8騰画像を^する目赚画 手段と、
ΙίίΙΜ像と tfilB目驗画像とを合成して表示する厳ぴ目 合戯示手段とか らなることを とする頭部着 »画像合
1 4. 請求項 1 3記載の頭部 画像合成装置にぉレヽて、
位 §¾ぴ向き 手段の代わりに、
tfifB 3次元形状と 生とからあらかじめ様々な ^及び照明条件下での顔 の位 ¾¾ぴ向きを推 るための測地照明基底を^ rる測地照明計算手段と、 該基底を利用して 像中の顔の位 s¾ぴ向きを推定する顔位 «¾ぴ向き推定 手段と^"むことを «とする頭部 画像合離¾ 1 5. 請求項 1 2乃至 1 4記載の何れか 1つの頭部 面像合成装置にぉレ、 て、
t!iism位 ¾¾ぴ向き推定手段と、 觸己 g赚画 成手段と、 tfrlBM¾ひ赚合 sg¾示手段とを して行うことを«とする頭部 画像合成装 1 6. 請求項 1 2乃至 1 5記載の何れか 1つの頭部 画像合成装置にぉ、 て、
tfif己眼鏡の代わりに、 イヤリング、 Φ冒子、 ヘアピース、 またはその他の頭部へ の »»、 あるいはそれらの組み合わせを画像へと合 j ^ることを s [とする頭
1 7. 請求項 1 3乃至 1 Θ記載の何れか 1つの頭部 画像合成装置にぉレ、 て、
tiilBR†特性の代わりに、 陰の少ないテクスチャ画像を用いることを赚とす 1 8 · 人物の顔の 3 状を計測する 3 状計測手段と、
i した 3次元形状にィ ffiを施す化被手段と、
あらかじめ! る^1さノ レが付帯した顔標準 3次元形状を記 111"る顔標準
3次元モデル及 «形/トル記憶手段と、
m 3次元モデルを ΙίίΙΕ計測した 3次 5¾F$状へとあてはめる 37火元モデ ルフィッティング手段と、
tin己人物の顔を した SM像中の顔の位 ¾¾ぴ向きを する顔 ί立 ¾¾ぴ向 ぎ推定手段と、
β像中の顔の表情変化を推定する顔部品変«定手段と、
MI己推定した顔の位置、 向き、 及び ¾·ϋ変化を利用して、 tfitaftiffi手段で施し た化粧を tie®像中の顔に るように変形したィ^»画像を する be画 «手段と、
tiiiass像と廳己 iwa画像とを合成して表示する厳 合戯示手段とか らなることを赚とする化粧画像合成装氍
1 9. 人物の顔の 3次元形状とその 特性とを計測する 3次 状計測手段 と、
¾|十測した 3次元形状に化粧を施す化粧手段と、
あらかじめ i¾t"Tる «/ ルが付帯した顔標準 3次元形状を記 Hi"る顔標準 3次元モデル及 形/! ^"ル記憶手段と、
m w 3次元モデルを fna計測した 3次^^へとあてはめる 3次元モデ ルフィッティング手段と、
l己人物の顔を撮影した画像中の顔の位 ¾¾ぴ向きを ilB計測した 3次元形状 と 特性とを利用して推定する顔位 び向き 手段と、
麵像中の顔の表情変化などを ti^ る顔部品舰維定手段と、
鍵己推定した顔の位置、 向き、 麦 If変化を利用して、 I&I己ィ bffi手段で施した化 粧を廳 »ί像中の顔に^ るように変形した {ttt画像を«するィ 画数 成手段と、
m m と tfr e画像とを合成して表示する 合戯示手段とか らなることを赚とする化粧画像合麟
2 0. 請求項請求項 1 9記載のィ ffi画像合離置にぉレ、て、
tfrfs 位 «¾び向き推定手段の代わりに、
廳己 3次元形状と と力らあら力じめ様々な^ ^及び照明条件下での顔 の^ m¾ぴ向きを推定するための測地照明基底を «■する測地照明基 JS^出手段 と、
該基底を利用して β像中の顔の位 び向きを推定する顔位 ¾¾ぴ向き推定 手段とを含むことを赚とする化粧画像合成装 fc 2 1 . 請求項 1 9記載の化粧画像合^ ¾置におレヽて、
ftJlBffi部品変开 ^^手段の代わりに、
廳己計測した 3次元开狱と KM特性とからあらかじめ様々な錢及ぴ照明^ (牛 下での顔の位 E¾び向きを推定するための測: 明基底を生成する測地照明基底 算出手段と、
HUBS底と変形/トルが付帯した顔標準 3次 状とを利用して B像中の顔 の麦 変ィ匕を推定する顔部品 手段と ^^むことを赚とする化粧画像合 成装
2 2. 請求項 1 9乃至 2 1記載の何れか 1つの fMf像合成装置にぉレヽて、
Figure imgf000029_0001
陰の少ないテクスチャ画像を用いることを とす る據画像合離齓
2 3. コンピュータに、 人物の顔の 3 ^开 を計測する工程と、
^測した 3次元形状に目纖をブイッティングする工程と、
ttHB人物の顔を βした画像中の顔の位 ¾¾ぴ向きを推定する工程と、 該推定した顔の位 8¾ぴ向きを利用して画像中に目騰を、顔に^ ¾1~るよう生 成して表示する工程とを 亍させるためのプログラム。
2 4. コンピュータに、 人物の顔の 3次¾ ^状とその Sit特 I"生とを計測するェ 程と、 ^f 測した 3次元形状に目赚をフィッティングする工程と、
fits人物の顔を娜した画像中の顔の位艱ぴ向きを 3次元赚と ftes 射特性とを利用して推定する工程と、
該推定した顔の位 ぴ向きを利用して画像中に B赚を、 顔に るよう生 成して表示する工程とを 亍させるためのプログラム。
2 5. 請求項 2 4記載のプロダラムにぉ ヽて、
IfflB人物の顔を した画像中の顔の位 g&ぴ向きを 3次元形状と ^"特 I·生と を利用して推定する工程の代わりに、
tfj|B3次元形状と tiitBSl†特性からあらかじめ様々な^ ^照明条件下での顔 の位 g¾ぴ向きを推定するための基底を^ rる工程と、
該基底を利用して画像中の位 ¾¾ぴ向きを推定する工程とを含むことを と するプログラム。 2 6. コンピュータに、 人物の顔の 3次元形状を計測する工程と、
^測した 3次元形状に化粧を施す工程と、
あらかじめ る^^ ルが付帯した顔標準 3次元形状を肅己計測した 3 次元形状にあてはめる工程と、
ItflB人物の顔を した画像中の顔の位 g¾び向きを推定する工程と、 画像中の顔の表情変化を推定する工程と、
ttna推定した顔の位置、 向き、及 u¾情変化を利用して画像中に化粧を、顔に ^•Sr るよう^^して表示する工程とを紫亍させるためのプログラム。 2 7. コンピュータに、 人物の顔の 3次元形状と sit特 ι·生を計測する工程と、 mmした 3次元形状に を施す工程と、
あらかじめ i¾fする ^ルが付帯した顔標準 3 ^状を tot己計測した 3 次元形状にあてはめる工程と、
tiff己人物の顔を した画像中の顔の位 ¾¾ぴ向きを ΙίίΙΒ計測した 3 ^形状 と 特 I生とを利用して推定する工程と、
画像中の顔の ¾f青変化を推定する工程と、 ΙϋΙΒ推定した顔 立置、 向き、 表情変化を利用して画像中に f Kを、衝こ するよう^^して表示する工程とを菊亍させるためのプログラム。
2 8. 請求項 2 7記載のプログラムにおいて、
tin己人物の顔を した画像中の顔の立 び向きを 3次 ¾ 状と ^ 1·生と を利用して推 る工程の代わりに、
ifjiE 3 ^^状と tifiasit特 とからあらかじめ様々な^ 照明条件下での 顔の位 ¾¾ぴ向きを推定するための基底を «する工程と、
該基底を利用して画像中のィ ig¾び向きを する工程とを含むことを mと するプログラム。
PCT/JP2003/011210 2002-09-03 2003-09-02 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム WO2004023395A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/513,354 US20050175234A1 (en) 2002-09-03 2003-09-02 Head-mounted object image combining method, makeup image combining method, headmounted object image combining device, makeup image composition device, and program
EP03794188A EP1501046A4 (en) 2002-09-03 2003-09-02 PLACE OBJECT IMAGE ASSOCIATING METHOD ON THE HEAD, MOUNTING IMAGE ASSOCIATING METHOD, OBJECT IMAGE ASSOCIATING DEVICE ON THE HEAD, MOUNTING IMAGE COMPOSING DEVICE, AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-257544 2002-09-03
JP2002257544A JP2004094773A (ja) 2002-09-03 2002-09-03 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2004023395A1 true WO2004023395A1 (ja) 2004-03-18

Family

ID=31972994

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/011210 WO2004023395A1 (ja) 2002-09-03 2003-09-02 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム

Country Status (4)

Country Link
US (1) US20050175234A1 (ja)
EP (1) EP1501046A4 (ja)
JP (1) JP2004094773A (ja)
WO (1) WO2004023395A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346206A (ja) * 2004-05-31 2005-12-15 Hoya Corp 三次元画像作成システム及び三次元画像データ
WO2006049147A1 (ja) * 2004-11-04 2006-05-11 Nec Corporation 三次元形状推定システム及び画像生成システム
JP3920889B2 (ja) * 2004-12-28 2007-05-30 沖電気工業株式会社 画像合成装置
JP2006227838A (ja) * 2005-02-16 2006-08-31 Nec Corp 画像処理装置及び画像処理プログラム
JP4417292B2 (ja) * 2005-05-25 2010-02-17 ソフトバンクモバイル株式会社 オブジェクト出力方法及び情報処理装置
US20100110073A1 (en) * 2006-11-15 2010-05-06 Tahg Llc Method for creating, storing, and providing access to three-dimensionally scanned images
US20100157021A1 (en) * 2006-11-15 2010-06-24 Abraham Thomas G Method for creating, storing, and providing access to three-dimensionally scanned images
EP2206093B1 (en) * 2007-11-02 2013-06-26 Koninklijke Philips Electronics N.V. Automatic movie fly-path calculation
JP2009211513A (ja) * 2008-03-05 2009-09-17 Toshiba Corp 画像処理装置及びその方法
EP2304647B1 (en) * 2008-05-08 2018-04-11 Nuance Communication, Inc. Localizing the position of a source of a voice signal
JP5327866B2 (ja) * 2009-09-11 2013-10-30 国立大学法人東京農工大学 眼鏡のフィッティングシミュレーションシステム、眼鏡のフィッティングシミュレーション方法及びプログラム
JP5648299B2 (ja) * 2010-03-16 2015-01-07 株式会社ニコン 眼鏡販売システム、レンズ企業端末、フレーム企業端末、眼鏡販売方法、および眼鏡販売プログラム
JP5652097B2 (ja) 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
US9224248B2 (en) * 2012-07-12 2015-12-29 Ulsee Inc. Method of virtual makeup achieved by facial tracking
JP2014199536A (ja) * 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント 顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラム
CN103646245B (zh) * 2013-12-18 2017-02-15 清华大学 儿童面部形状的模拟方法
DE102014217961A1 (de) * 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Pose eines HMD
JP6583660B2 (ja) * 2015-03-26 2019-10-02 パナソニックIpマネジメント株式会社 画像合成装置及び画像合成方法
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
US11030798B2 (en) 2019-01-30 2021-06-08 Perfect Mobile Corp. Systems and methods for virtual application of makeup effects based on lighting conditions and surface properties of makeup effects
JP6813839B1 (ja) * 2019-09-09 2021-01-13 株式会社カザック 眼鏡試着支援装置およびプログラム
CN111009031B (zh) * 2019-11-29 2020-11-24 腾讯科技(深圳)有限公司 一种人脸模型生成的方法、模型生成的方法及装置
DE102021108142A1 (de) * 2021-03-31 2022-10-06 Bundesdruckerei Gmbh Verfahren und Vorrichtung zur Erzeugung eines brillenlosen dreidimensionalen Modells des Kopfes einer bebrillten Person

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999023609A1 (en) * 1997-10-30 1999-05-14 Headscanning Patent B.V. A method and a device for displaying at least part of the human body with a modified appearance thereof
US6421629B1 (en) * 1999-04-30 2002-07-16 Nec Corporation Three-dimensional shape measurement method and apparatus and computer program product
US20020097906A1 (en) * 2000-11-20 2002-07-25 Nec Corporation Method and apparatus for collating object

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4539585A (en) * 1981-07-10 1985-09-03 Spackova Daniela S Previewer
JPH06118349A (ja) * 1992-10-02 1994-04-28 Seiko Epson Corp 眼鏡装用シミュレーション装置
JP3537831B2 (ja) * 1997-05-16 2004-06-14 Hoya株式会社 眼鏡のオーダーメイドシステム
US6792401B1 (en) * 2000-10-31 2004-09-14 Diamond Visionics Company Internet-based modeling kiosk and method for fitting and selling prescription eyeglasses
US7016824B2 (en) * 2001-02-06 2006-03-21 Geometrix, Inc. Interactive try-on platform for eyeglasses

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999023609A1 (en) * 1997-10-30 1999-05-14 Headscanning Patent B.V. A method and a device for displaying at least part of the human body with a modified appearance thereof
US6421629B1 (en) * 1999-04-30 2002-07-16 Nec Corporation Three-dimensional shape measurement method and apparatus and computer program product
US20020097906A1 (en) * 2000-11-20 2002-07-25 Nec Corporation Method and apparatus for collating object

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP1501046A4 *
SHUNSUKE OHASHI ET AL.: "Range finder o mochiita hyojo henkei rule to hyojo henshu tool no kochiku", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS GIJUTSU KENKYU HOKOKU, vol. 101, no. 610, 18 January 2002 (2002-01-18), pages 1 - 6, XP002975640 *

Also Published As

Publication number Publication date
EP1501046A4 (en) 2009-03-11
US20050175234A1 (en) 2005-08-11
EP1501046A1 (en) 2005-01-26
JP2004094773A (ja) 2004-03-25

Similar Documents

Publication Publication Date Title
WO2004023395A1 (ja) 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム
US11694392B2 (en) Environment synthesis for lighting an object
JP7342008B2 (ja) 仮想アバタのためのメッシュの合致
JP6542744B2 (ja) カスタム製品を創作するための方法及びシステム
KR100523742B1 (ko) 3차원 안경 시뮬레이션 시스템 및 방법
CN101779218B (zh) 化妆模拟系统及其化妆模拟方法
US11640672B2 (en) Method and system for wireless ultra-low footprint body scanning
JP3250184B2 (ja) 眼鏡装用シミュレーションシステム
US20190266778A1 (en) 3d mobile renderer for user-generated avatar, apparel, and accessories
US8139068B2 (en) Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
US8218903B2 (en) 3D object scanning using video camera and TV monitor
Foster et al. Integrating 3D modeling, photogrammetry and design
CN110431599A (zh) 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
CN103871106A (zh) 利用人体模型的虚拟物拟合方法及虚拟物拟合服务系统
JP2000107129A (ja) 眼光学系のシミュレーション方法及び装置
US10685457B2 (en) Systems and methods for visualizing eyewear on a user
JP2018195996A (ja) 画像投影装置、画像投影方法、及び、画像投影プログラム
WO2018182938A1 (en) Method and system for wireless ultra-low footprint body scanning
JP3825654B2 (ja) 眼光学系のシミュレーション方法及び装置
JP6062589B1 (ja) プログラム、情報処理装置、影響度導出方法、画像生成方法及び記録媒体
JP2009003812A (ja) デフォーカス画像の生成方法及び生成装置
CN115187703A (zh) 一种眉妆指导方法、装置、设备及介质
JP2022117813A (ja) 仮想試着システム及びそれに用いられるプログラム
JPH11272728A (ja) 眼鏡レンズ画像生成方法及び装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10513354

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003794188

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003794188

Country of ref document: EP