WO2014147940A1 - メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム - Google Patents

メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム Download PDF

Info

Publication number
WO2014147940A1
WO2014147940A1 PCT/JP2014/000591 JP2014000591W WO2014147940A1 WO 2014147940 A1 WO2014147940 A1 WO 2014147940A1 JP 2014000591 W JP2014000591 W JP 2014000591W WO 2014147940 A1 WO2014147940 A1 WO 2014147940A1
Authority
WO
WIPO (PCT)
Prior art keywords
makeup
face
unit
image
spray
Prior art date
Application number
PCT/JP2014/000591
Other languages
English (en)
French (fr)
Inventor
香織 安食
理惠子 浅井
泰弘 山口
智史 山梨
あおい 牟田
千枝 西
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP14770448.0A priority Critical patent/EP2976964B1/en
Priority to CN201480016331.2A priority patent/CN105188466A/zh
Priority to US14/774,321 priority patent/US10010155B2/en
Publication of WO2014147940A1 publication Critical patent/WO2014147940A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D40/00Casings or accessories specially adapted for storing or handling solid or pasty toiletry or cosmetic substances, e.g. shaving soaps or lipsticks
    • A45D40/30Masks for marking lips or eyelashes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Definitions

  • the present invention relates to a makeup support apparatus, a makeup support method, and a makeup support program that support facial makeup.
  • makeup face makeup methods
  • Patent Document 1 and Patent Document 2 describe a technique for selecting a makeup that matches facial features and generating and presenting a simulation image of the face when the selected makeup is applied.
  • the techniques described in Patent Document 1 and Patent Document 2 acquire an image obtained by photographing a face to be made up (hereinafter simply referred to as “face”), extract facial features, and set a predetermined selection criterion.
  • face an image obtained by photographing a face to be made up
  • face extract facial features
  • set a predetermined selection criterion The makeup that matches the facial features is selected.
  • the conventional technology generates and displays a simulation image by superimposing an image indicating the makeup state when the selected makeup is applied to the face on the acquired image.
  • Patent Document 3 prints basic cosmetics corresponding to skin care selected for each face on a cosmetic delivery sheet made of felt, paper, or a water-soluble substance.
  • the user can carry the basic cosmetic on the face by sticking the cosmetic delivery sheet on the facial skin with the printed surface facing the face.
  • this basic cosmetic it is conceivable to print a general cosmetic corresponding to the selected makeup.
  • Patent Document 3 Even if the technique described in Patent Document 3 is used, it is difficult to sufficiently reproduce the selected makeup. This is because a certain amount of technology is required to successfully transfer the general cosmetic from the cosmetic delivery sheet. In addition, when the cosmetic delivery sheet is left attached as a water-soluble substance, the concentration or distribution of the general cosmetics may change due to the dissolution of the cosmetic delivery sheet, resulting in a state of makeup collapse. . Therefore, the conventional technology has a problem that it is difficult to appropriately support makeup for a user who has insufficient makeup technology.
  • An object of the present invention is to provide a makeup support apparatus, a makeup support method, and a makeup support program that can appropriately support makeup even for a user with insufficient makeup technology. .
  • a makeup support apparatus provides a makeup selection unit that selects makeup as a makeup method for each face to be makeupd, and guides the position of the face to a predetermined position. And a makeup presenting unit that sprays cosmetics corresponding to the selected makeup with the predetermined position as a reference.
  • the makeup support method includes a step of selecting makeup as the makeup method for each face to be makeupd, and a step of guiding the face position to a predetermined position. And spraying cosmetics corresponding to the selected makeup on the basis of the predetermined position.
  • a makeup support program provides a computer with a process of selecting makeup as a makeup method for each face to be makeupd, and setting the position of the face to a predetermined position.
  • a process of guiding and a process of spraying cosmetics corresponding to the selected makeup with the predetermined position as a reference are executed.
  • makeup support can be appropriately performed even for users with insufficient makeup technology.
  • FIG. 2 is a block diagram showing an example of the configuration of a makeup support apparatus according to Embodiment 1 of the present invention.
  • FIG. 11 is a diagram illustrating an example of a makeup table in the second embodiment The figure which shows an example of the makeup information table in Embodiment 2 Sectional drawing which shows an example of schematic structure of the spray part in Embodiment 2.
  • FIG. 6 shows an example of an image in Embodiment 2
  • FIG. 10 is a diagram illustrating an example of a guide image in the second embodiment
  • Embodiment 1 of the present invention is an example of a basic aspect of the present invention.
  • FIG. 1 is a block diagram showing an example of the configuration of a makeup support apparatus according to the present embodiment.
  • makeup assisting apparatus 100 has makeup selecting section 250 and makeup presenting section 260.
  • the makeup selecting unit 250 selects makeup as a makeup method for each face to be makeupd (hereinafter simply referred to as “face”).
  • Makeup presenting section 260 guides the position and orientation of the face (hereinafter simply referred to as “position”) to a predetermined position and orientation (hereinafter simply referred to as “predetermined position”), and is selected on the basis of the predetermined position. Spray the cosmetics corresponding to the makeup.
  • the makeup support apparatus 100 includes, for example, a CPU (Central Processing Unit), a storage medium such as a ROM (Read Only Memory) storing a control program, and a working memory such as a RAM (Random Access Memory), although not shown. .
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • Such makeup assisting apparatus 100 can guide the position of the face to a predetermined position and spray cosmetics corresponding to the selected makeup on the basis of the predetermined position.
  • the user can easily reproduce the selected makeup by setting the face at a predetermined position according to the guidance. Therefore, makeup support apparatus 100 can appropriately provide makeup support even for users with insufficient makeup technology.
  • Embodiment 2 of the present invention is an example of a specific aspect of the present invention. This embodiment is an example in which the present invention is applied to an apparatus including a digital camera and a display with a touch panel.
  • facial parts refers to parts characterizing the impression of the face, such as eyes, eyebrows, nose, cheek bones, lips, and contours.
  • “Face part ID” is identification information of a face part.
  • a face part area refers to an area occupied by a face part in an image or real space, and includes the positions of feature points of the face part such as the corners of the eyes.
  • “Facial feature value” is a value of a predetermined parameter indicating a facial feature.
  • multivariate data consisting of multiple values such as the ratio of the face length to the face width, the ratio of the nose length to the distance between the eyes, and the ratio of the eye width to the face width
  • Makeup refers to makeup methods (types) that improve the aesthetics by correcting the impressions of facial parts such as eye shadows and lipsticks. Color, application concentration, and application range of cosmetics At least.
  • Makeup information is information indicating the contents of makeup.
  • Makeup type is a type of makeup such as “foundation”, “eyeshadow”, “lipstick”, “teak”, etc., which is distinguished at least by the positional relationship with the facial parts.
  • Makeup ID is makeup identification information.
  • FIG. 2 is a block diagram showing an example of the configuration of the makeup support apparatus according to the present embodiment.
  • makeup assisting apparatus 100 includes imaging unit 210, image acquisition unit 220, facial part acquisition unit 230, makeup table storage unit 240, makeup selection unit 250, makeup presentation unit 260, display unit 270, and spray unit 280.
  • the photographing unit 210 is, for example, a digital video camera and photographs a face image. Then, the imaging unit 210 outputs the captured video to the image acquisition unit 220.
  • the video is composed of a plurality of time-series images (frame images). In the present embodiment, it is assumed that the face to be made is the face of the user of makeup assisting apparatus 100.
  • the image acquisition unit 220 sequentially acquires images constituting the video from the input video. Then, the image acquisition unit 220 outputs the acquired image to the facial part acquisition unit 230 and the makeup presentation unit 260.
  • the facial part acquisition unit 230 acquires a facial part area from the input image.
  • the facial part area is acquired by, for example, matching each partial area of the image with a template image of each facial part prepared in advance (see, for example, Patent Document 4). Then, the facial part acquisition unit 230 outputs the acquired facial part identification information and information indicating the region (hereinafter referred to as “facial part information”) to the makeup selection unit 250.
  • the makeup table storage unit 240 stores a makeup table.
  • the makeup table is a table in which appropriate makeup is described for a face having the facial feature amount in association with the facial feature amount that can be acquired.
  • principal component analysis is performed in advance on samples of facial feature quantities of an unspecified number of faces that have been previously made by a makeup engineer.
  • the principal component analysis results are grouped in advance by a known principal component stratification method based on whether or not the principal component value is 1 ⁇ or more.
  • makeup table for each group of facial feature values, it is assumed that makeup that has been performed with a high frequency in the past with respect to the faces to be grouped is registered.
  • FIG. 3 is a diagram showing an example of a makeup table.
  • the makeup table 410 describes a plurality of makeup IDs 412 for each group of facial feature amounts 411.
  • the face feature value group 411 “FG1” is associated with two makeup IDs 412 “FM1 and FM2”. This indicates that the makeup indicated by the makeup ID “FM1” and the makeup indicated by the makeup ID “FM2” are appropriate when the facial feature quantity of the user's face is FG1.
  • makeup table 410 is periodically updated from a server on the Internet, for example, via a communication circuit (not shown) provided in makeup support apparatus 100.
  • the makeup table storage unit 240 in FIG. 2 stores a makeup information table.
  • the makeup information table is a table describing makeup information of makeup indicated by makeup ID 412 described in makeup table 410 (see FIG. 3).
  • FIG. 4 is a diagram illustrating an example of a makeup information table stored in the makeup table storage unit 240.
  • the makeup information table 420 describes, for example, a makeup ID 421, a makeup type 422, a color 423, a density 424, and a range 425 in association with each other.
  • the makeup ID 421 corresponds to the makeup ID 412 (see FIG. 3) of the makeup table 410.
  • the makeup type 422 is illustrated here in a simplified manner, and specifically includes “foundation”, “eye shadow”, “lipstick”, “teak”, and the like.
  • the color 423 is illustrated in a simplified manner here, specifically, it is an RGB value, a glossiness, and the like.
  • the density 424 is illustrated here in a simplified manner, but specifically, is the transparency and gradation method used when the image is superimposed on the face image.
  • the range 425 is illustrated here in a simplified manner, but specifically includes a group of relative coordinates from the feature points, a set of the relative position and radius of the center point with respect to the feature points, and the like.
  • the set of color 423, density 424, and range 425 includes at least information necessary for imaging.
  • the makeup information includes at least information necessary for generating an image when makeup is applied to the face from the face image (information indicating a difference from the face color). , Including.
  • makeup table 410 shown in FIG. 3 and makeup information table 420 shown in FIG. 4 may be integrated into one table.
  • the makeup selection unit 250 in FIG. 2 acquires the facial feature amount.
  • the makeup selection unit 250 may acquire the facial feature amount from the facial part information input from the facial part acquisition unit 230, or acquire the facial feature amount from the image by analyzing the image acquired by the image acquisition unit 220. May be.
  • the makeup selecting unit 250 refers to the makeup table 410 (see FIG. 3) based on the acquired face feature amount, and selects a candidate makeup that is a candidate for makeup to be described later for each facial part. Then makeup selecting section 250 acquires makeup information of the selected candidate makeup from makeup information table 420 (see FIG. 4), and outputs the makeup information to makeup presenting section 260.
  • makeup ID 412 is registered in makeup table 410 for each group of facial feature values. Therefore, makeup selecting section 250 determines to which face feature value group 411 registered in makeup table 410 the face feature value acquired from the face belongs, and to the determined face feature value group 411. The corresponding makeup ID 412 is selected. This determination is performed, for example, by calculating the distance between the acquired face feature amount and the representative value (centroid) of each group.
  • makeup selecting section 250 accepts, from the user, a switching operation for candidate makeup (hereinafter referred to as “display makeup”) that is a display target of a simulation image, which will be described later, and a selection operation for display makeup. These operations are performed, for example, via a touch panel provided in the display unit 270 described later.
  • Makeup selection section 250 selects the selected display makeup as an applied makeup that is a makeup to be sprayed, which will be described later. Then, makeup selecting section 250 acquires makeup information of the selected applied makeup from makeup information table 420 (see FIG. 4) and outputs the makeup information to makeup presenting section 260.
  • Makeup presentation unit 260 displays a candidate makeup simulation image on display unit 270 described later. More specifically, makeup presentation unit 260 generates a simulation image by superimposing an image indicating the state of candidate makeup when candidate makeup is applied to the face on the image input from image acquisition unit 220. To do. The superimposed position of the candidate makeup image is calculated from, for example, the facial part information and the makeup range included in the makeup information. Then makeup presentation unit 260 outputs the generated image data of the simulation image to display unit 270.
  • the superimposition of the image in the simulation image is performed by a known image composition process such as an alpha ( ⁇ ) blend process.
  • the alpha value ( ⁇ ) is set to a value corresponding to the makeup density.
  • the alpha blend process is expressed by, for example, the following formulas (1) to (3).
  • r 1 , g 1 , and b 1 are RGB values of an arbitrary region of the captured image
  • r 2 , g 2 , and b 2 are RGB values of makeup.
  • R, G, and B are RGB values of the corresponding region of the simulation image.
  • R r 2 ⁇ ⁇ + r 1 ⁇ (1- ⁇ ) (1)
  • G g 2 ⁇ ⁇ + g 1 ⁇ (1 ⁇ ) (2)
  • B b 2 ⁇ ⁇ + b 1 ⁇ (1 ⁇ ) (3)
  • the order in which each makeup is applied over the face (hereinafter referred to as “application order”) is set, and the image when the makeup is applied is a shaded image having a density corresponding to the density.
  • the application sequence defines, for example, that the application of cheek should be after the application of the foundation.
  • makeup presentation unit 260 may superimpose images by overcoating the images of each makeup in the order corresponding to the application order on the captured image.
  • makeup presentation unit 260 guides the position of the face to a predetermined position, and sprays cosmetics corresponding to the selected makeup on the basis of the predetermined position.
  • makeup presentation unit 260 sequentially generates guide images obtained by superimposing guide information indicating a predetermined position on an image for each image constituting the video. Then, makeup presentation unit 260 outputs image data of the generated guide image to display unit 270 to display the guide image.
  • makeup presentation unit 260 corresponds to the direction in which spray unit 280 performs spraying when the face is located at a predetermined position among the colors used for the selected makeup with respect to spray unit 280 described later.
  • the color cosmetics to be sprayed are sprayed.
  • makeup presentation unit 260 acquires the position of the face and records a set of the acquired position of the face and the spray amount per unit time at the position at a predetermined cycle.
  • makeup presentation unit 260 brings the actual makeup closer to the simulation image by controlling the spray amount per unit time of the cosmetic based on the history of the set of the face position and the spray amount per unit time.
  • the spraying part 280 mixes cosmetics and the powder body of a biocompatible polymer, and sprays multicolor cosmetics. For this reason, makeup presentation unit 260 determines the amount of the cosmetic sprayed per unit time and the biocompatibility so that the thickness of the powder of biocompatible polymer on the skin is about 10 nm to about 500 nm. The spray amount per unit time of the polymer is calculated. At this time, the makeup presentation unit 260 determines the spray amount per unit time of the cosmetic in consideration of the color of the powder of the biocompatible polymer, the scattering of light after adhering to the skin, and the like. Then, makeup presentation unit 260 controls spray unit 280 so that the biocompatible polymer is sprayed with the calculated value.
  • makeup presentation unit 260 specifies cosmetic color to be sprayed, a spray amount per unit time, and a spray amount per unit time of the biocompatible polymer to be sprayed. Information shall be generated. And makeup presentation part 260 shall control operation of spraying part 280 by outputting generated cosmetic spray information to spraying part 280.
  • the display unit 270 is, for example, a display part of a display with a touch panel.
  • Display unit 270 displays the simulation image to the user of makeup assisting apparatus 100 based on the input image data of the simulation image.
  • the display unit 270 displays a guide image based on the input image data of the guide image.
  • the spray unit 280 sprays multicolor cosmetics in a predetermined direction. More specifically, the spray unit 280 appropriately mixes a plurality of types of cosmetics having different colors with the color specified by the cosmetic spray information input from the makeup presenting unit 260 and the spray amount per unit time, Spray cosmetics.
  • spray unit 280 mixes cosmetics and biocompatible polymer powders (hereinafter referred to as “polymer powders”) to spray multicolor cosmetics.
  • the polymer particles are, for example, a thin film made of a biocompatible polymer such as polylactic acid, polyglycolic acid, polycaprolactone, or a copolymer thereof, hyaluronic acid, and chitosan (for example, Patent Document 5). ) Is pulverized.
  • the spray part 280 shall be a desktop type sprayer which sprays in the state mounted on the desktop.
  • FIG. 5 is a cross-sectional view showing an example of a schematic configuration of the spray unit 280.
  • the spray unit 280 includes a cartridge housing unit 282, a stirring unit 283, and a spray nozzle unit 284 inside the main body housing unit 281.
  • the cartridge storage section 282 stores a plurality of cartridge groups 301 to 304 that store cosmetics of different colors, and a cartridge group 305 that stores the above-described polymer particles. Note that these cartridge groups 301 to 305 can be replaced or refilled.
  • Each of the cartridge groups 301 to 305 discharges the cosmetic or polymer powder to be stored into the space 306 below the cartridge storage unit 282 according to the cosmetic spray information.
  • the space 306 communicates with a stirring unit 283, which will be described later, disposed below the space 306, so that the cosmetics and polymer powder discharged into the space 306 quickly fall into the stirring unit 283. It has become.
  • the stirring unit 283 has a space 307 for receiving and accumulating cosmetics and polymer particles falling from the cartridge storage unit 282 in the lower part. Further, the stirring unit 283 has a stirring mechanism 308 for stirring the cosmetics and polymer powder accumulated in the space 307.
  • the space 307 communicates with a spray nozzle portion 284, which will be described later, arranged in the lateral direction.
  • the spray nozzle unit 284 sprays the cosmetic and polymer powder agitation accumulated in the stirring unit 283 (hereinafter referred to as “cosmetic powder”) per spray amount indicated by the cosmetic spray information. Then, spraying is performed toward a predetermined range (hereinafter referred to as “spraying area”) 309.
  • an electrostatic atomization method is a technique in which a voltage is applied to the powder and the static electricity is generated, and the state of the powder and granular material is made unstable by the static electricity and is finely atomized (see, for example, Patent Document 6). ).
  • the cosmetic powder particles sprayed in this manner are in a state of being easily attracted to the skin, which is a conductor.
  • the spray unit 280 is a power unit that supplies power for operating the discharge heads of the cartridge groups 301 to 305, the stirring mechanism 308, and the spray nozzle unit 284.
  • the spray unit 280 is a shutter disposed between the stirring unit 283 and the spray nozzle unit 284 so that the granular material to be stored does not leak to the outside or dry while spraying, or It has a stopper attached to the spray nozzle part 284.
  • the time required from the discharge of the cosmetics and polymer particles from the cartridge groups 301 to 305 to the spraying of the cosmetic particles composed of the discharged cosmetics and polymer particles is as follows. , Very short. It is assumed that the spray unit 280 realizes an operation corresponding to the input cosmetic spray information in substantially real time.
  • the photographing unit 210, the display unit 270, and the spray unit 280 are arranged close to (for example, integrally) at a distance of about 20 cm from the user's face on the front side of the user's face.
  • makeup presentation unit 260 grasps the positional relationship between photographing unit 210 and spraying unit 280, and generates the above-described guide information based on the positional relationship.
  • makeup support apparatus 100 in FIG. 2 includes, for example, a CPU, a storage medium such as a ROM storing a control program, and a working memory such as a RAM.
  • a CPU central processing unit
  • storage medium such as a ROM storing a control program
  • working memory such as a RAM.
  • the function of each unit described above is realized by the CPU executing the control program.
  • Such makeup assisting apparatus 100 can guide the position of the face to a predetermined position and spray cosmetics corresponding to the selected makeup on the basis of the predetermined position.
  • the user can easily reproduce the selected makeup by setting the face at a predetermined position according to the guidance.
  • FIG. 6 is a flowchart showing an example of the operation of makeup support apparatus 100.
  • step S1100 the image capturing unit 210 starts capturing a video of the user's face, and the image acquisition unit 220 starts acquiring images constituting the captured video. Further, the facial part acquisition unit starts acquiring facial parts included in the image.
  • the facial part acquisition unit 230 extracts a facial feature point (facial part) from the image 510, for example, by analyzing the image 510 (see FIG. 7). Then, the facial part acquisition unit 230 acquires an area formed by the feature points constituting the same facial part as the facial part area. Then, the facial part acquisition unit 230 generates facial part information from the acquired facial part region.
  • a facial feature point facial part
  • FIG. 7 is a diagram showing an example of an image acquired in step S1100 of FIG.
  • the image 510 includes a user's face image (hereinafter referred to as “face image”) 511.
  • face image a user's face image
  • the user is not in makeup.
  • FIG. 8 is a diagram showing an example of the arrangement of facial feature points extracted in step S1100 of FIG.
  • a plurality of feature points are extracted from the face image 511.
  • the first to fourth feature points 521 to 524 constitute the right eye. Therefore, the facial part acquisition unit 230 acquires the region 525 surrounded by the first to fourth feature points 521 to 524 as the right eye region.
  • FIG. 9 is a diagram showing an example of face part information generated in step S1100 of FIG.
  • the face part information 530 describes, for example, an area 532 and a person ID 533 for each face part ID 531.
  • the face part ID 531 is identification information of face parts such as the left eye and the upper lip.
  • the area 532 is information indicating the range of the face part area in the image, and is, for example, a coordinate value list of a coordinate system set on the image.
  • the person ID 533 is person identification information. As the person ID 533, for example, a value designated by the user through an operation on a display with a touch panel or the like is set every time shooting is started.
  • makeup selecting section 250 acquires a facial feature amount.
  • the face feature amount is multivariate data for a predetermined parameter indicating the feature of the face.
  • makeup selecting section 250 acquires a facial feature amount from one of image 510 (see FIG. 7), facial feature point group (see FIG. 8), and facial part information 530 (see FIG. 9).
  • makeup selecting section 250 selects a candidate makeup based on the acquired face feature amount.
  • step S1300 makeup selecting section 250 determines one display makeup from among a plurality of candidate makeups. Then, makeup selecting section 250 outputs makeup information corresponding to the determined display makeup to makeup presenting section 260.
  • step S1400 makeup presenting section 260 generates a simulation image based on the determined makeup information relating to the displayed makeup, and causes display section 270 to display the simulation image.
  • FIG. 10 is a diagram illustrating an example of a simulation image generated in step S1400 of FIG.
  • the simulation image 540 is an image in which makeup images 541 to 545 such as eyebrow, eyeshadow, eyeliner, cheek, and lipstick are superimposed on the face image 511.
  • step S1500 makeup selecting section 250 determines whether or not an operation for selecting the currently displayed makeup as an applied makeup has been performed. If this operation has not been performed (S1500: NO), makeup selection unit 250 advances the process to step S1600.
  • step S1600 makeup selecting section 250 determines whether or not an operation for switching the displayed makeup to another candidate makeup has been performed. If such an operation has not been performed (S1600: NO), makeup selection unit 250 advances the process to step S1800 described later. In addition, makeup selecting section 250 advances the process to step S1700 when such an operation is performed (S1600: YES).
  • step S1700 makeup selecting section 250 changes the displayed makeup to another candidate makeup, outputs the corresponding makeup information to makeup presenting section 260, and proceeds to step S1800.
  • step S1800 the image acquisition unit 220 determines whether video input is continued. If the input of video continues (S1800: YES), the image acquisition unit 220 returns to step S1400 and moves the process to the next image. Further, the image acquisition unit 220 ends the series of processes when the input of the video is completed (S1800: NO).
  • makeup selection unit 250 advances the process to step S1900.
  • step S1900 makeup presentation unit 260 generates a guide image that guides the position of the user's face to a predetermined position, and causes display unit 270 to display the guide image.
  • FIG. 11 is a diagram illustrating an example of a guide image. Here, an example of performing makeup on the cheek of the left cheek among makeup is shown.
  • a guide image 550 includes an image obtained by superimposing a face position image 551 indicating a predetermined position by the position of a face part and the cheek image 544 on the left cheek as guide information on the face image 511. It has become.
  • a face position image 551 for example, a face image taken in the past can be used.
  • the makeup presenting unit 260 arranges the face position image 551, for example, the positional relationship between the photographing range of the photographing unit 210 and the spray area 309 (see FIG. 5) of the spraying unit 280, and each facial part and the left cheek. It is calculated from the positional relationship with the cheek. That is, makeup presenting section 260 generates face position image 551 and superimposes it on face image 511 so that spray area 309 matches or is included in the cheek range of the left cheek.
  • the user moves the face or changes the orientation of the face so that the face image 511 matches the face position image 551 while looking at the display unit 270.
  • the user can cause the cheek cosmetic powder particles sprayed from the spray unit 280 to hit the position of the cheek image 544 presented in the simulation image 540 (see FIG. 10).
  • step S2000 of FIG. 6 makeup presenting section 260 acquires the position of the face from, for example, face part information, and sets a set of the acquired position of the face and the spray amount per unit time at that position. Record. Note that this recording is performed at a predetermined cycle by a determination process in step S2100 described later. Then, makeup presentation unit 260 per unit time of the powder powder for makeup by spray unit 280 so that the actual makeup approaches the simulation image based on the history of the set of the face position and the spray amount per unit time. Control the amount of spraying.
  • makeup presentation unit 260 sets the spray amount per unit time to zero. This is to prevent the cosmetic powder from adhering to the region other than the makeup target region.
  • makeup presentation unit 260 controls the spray amount per unit time to a value that realizes the necessary spray amount in a predetermined time such as 2 seconds. This is to make the cosmetic powder particles adhere to the makeup target region at an appropriate concentration.
  • makeup presentation unit 260 controls the spray amount per unit time to a value that realizes a value obtained by subtracting the spray amount already performed from the required spray amount in a predetermined time. This is to prevent the cosmetic powder from being sprayed in a form that is applied twice, thereby making the makeup darker.
  • step S2100 makeup presenting section 260 determines whether or not makeup for the selected makeup has been completed. If makeup has not been finished yet (S2100: NO), makeup presenting section 260 returns the process to step S1900 and continues the display of the guide image and the control of the spraying of the cosmetic powder. If makeup has been completed (S2100: YES), a series of processing ends.
  • the makeup presentation unit 260 sprays the cosmetics in the order in accordance with the application order.
  • makeup presenting section 260 may select only makeup that is applied over a relatively wide area, such as foundation or teak, and does not require sharpness, among the selected makeups. In this case, it is desirable that makeup presenting section 260 switches between a guide image and an image for guiding makeup that is not to be sprayed, and causes display section 270 to display it.
  • makeup assisting apparatus 100 guides the position of the face to a predetermined position and sprays cosmetics corresponding to the selected makeup on the basis of the predetermined position.
  • the user can easily reproduce the selected makeup by setting the face at a predetermined position according to the guidance. Therefore, makeup support apparatus 100 can appropriately provide makeup support even for users with insufficient makeup technology.
  • makeup assisting apparatus 100 appropriately mixes a plurality of types of cosmetics having different colors and sprays multicolored cosmetics. Thereby, makeup assisting apparatus 100 can reproduce the complex color and subtle shade of makeup selected by makeup selecting section 250 with high accuracy.
  • makeup assisting apparatus 100 mixes multicolor cosmetics and biocompatible polymer powders and sprays multicolor cosmetics.
  • multicolor cosmetics can be easily mixed uniformly, and cosmetics can be easily adhered to the skin.
  • the granular material adhering to the skin forms a thin film having a mesh (mesh) shape on the surface of the skin, thin, high adhesion to the skin, and rich in elasticity. That is, a thin film is formed on the surface of the skin so as to maintain an initial state while having appropriate permeability with respect to oxygen and moisture. Therefore, makeup assisting apparatus 100 can realize makeup with less burden on the skin and less possibility of makeup collapse.
  • makeup selecting section 250 may preferentially select a trendy makeup regardless of the facial feature amount, or may select a candidate makeup based on the facial feature amount and other information.
  • the selection of makeup is performed based on the skin condition, for example.
  • the skin condition is, for example, the degree of facial skin stains, wrinkles, sebum secretion, hidden stains, moisture, blood flow, and sweating.
  • the skin condition is, for example, using daily light, ultraviolet light, infrared light, or laser light Acquired by analyzing the captured image.
  • the makeup selecting unit 250 selects, for example, makeup that sprays a concealer on a spot portion and a heel portion under the eyes.
  • the selection of makeup may be performed based on, for example, a predicted change in skin condition.
  • the change in the skin condition is predicted from, for example, the above-described skin condition, environment information, and physical condition information.
  • the environmental information is, for example, weather, temperature, season, and amount of solar radiation.
  • the physical condition information is, for example, sleep time, body temperature, amount of physical activity, eyelid opening, blink frequency, time in the menstrual cycle, and blood pressure.
  • makeup selecting unit 250 selects makeup that sprays a concealer under the eyes, assuming that the eyelids under the eyes become dark after a lapse of time.
  • the selection of makeup may be performed based on user attribute information of age or residential area, for example.
  • makeup support apparatus 100 may obtain from a server on the Internet or various home appliances or sensor devices used by the user by communication. May be.
  • makeup selecting section 250 may perform makeup color correction.
  • the impression of the face color changes depending on the surrounding color or scene. For example, the face color of a person wearing red clothes looks slightly closer to the blue-green side than the original color. Also, even with the same makeup, it can be felt in a flashy or plain color depending on the scene.
  • makeup selecting section 250 acquires, for example, the user's clothes color, skin color, hair color, and the like from the image, and selects makeup with an appropriate shade as a candidate makeup based on the acquired color. Or correct the selected candidate makeup color to an appropriate color. Thereby, makeup assisting apparatus 100 can select more appropriate makeup and present it to the user. Further, the user can perform makeup with an appropriate hue without determining whether the hue is good or bad. Such makeup selection is particularly effective in selecting a foundation color.
  • makeup assisting apparatus 100 may select, for each face, skin care realized by spraying cosmetics.
  • makeup selecting section 250 selects skin care using basic cosmetics for each face instead of makeup or in combination with makeup. Then, makeup presentation unit 260 causes spraying unit 280 to spray basic cosmetics corresponding to the selected skin care.
  • the selection of skin care is performed based on the skin condition, for example.
  • the makeup selecting unit 250 selects, for example, skin care for spraying a basic cosmetic material having a high light scattering effect on the stain portion, and a basic makeup having a high whitening effect on the hidden stain portion. Select skin care to spray the ingredients.
  • makeup selecting section 250 selects skin care for spraying basic cosmetics having a high astringent action and a sebum adsorbing action on the part estimated to have a high degree of aging from the ellipticity of the pores.
  • selection of skin care is performed based on, for example, a predicted change in skin condition.
  • makeup selecting section 250 selects skin care for spraying moisturizing cosmetic liquid on the assumption that the skin is dry, for example, when the user's body temperature is high.
  • Various types of information used for skin care selection may be input by a user's operation, or the makeup support apparatus 100 acquires from a server on the Internet or various home appliances or sensor devices used by the user by communication. May be.
  • the possibility of collapse of the basic cosmetics due to sweat and sebum can be reduced as described above, and the initial distribution state can be reduced. Can be maintained for a long time.
  • the maintenance of such a distribution state is suitable, for example, for a basic cosmetic having a so-called UV (ultraviolet) cut function that reduces the arrival of ultraviolet rays on the skin.
  • the structure of the spraying part 280 is not limited to the above-mentioned example.
  • the spray unit 280 may adopt a spray gun method as a spraying method for the cosmetic powder.
  • the spray unit 280 may be a handy type sprayer. In this case, it is desirable that the spray unit 280 exchange information such as cosmetic spray information from the makeup presenting unit 260 by wireless communication.
  • the spray unit 280 may be an ink jet printer that sprays ink to a narrow range while scanning a wide range.
  • the cosmetic spray information can be, for example, image data designating the color and density at each position.
  • cosmetic powder particles are made of a material that easily adheres to the skin, it is not always necessary to use polymer particles during spraying.
  • cosmetic powder granules may be prepared by spraying with a weakly volatile solution having biocompatibility such as water or ethanol instead of or in combination with the polymer powder. Good.
  • the cosmetic powder may be formulated with a dry gel.
  • makeup assisting apparatus 100 presents the user with information that guides where to apply.
  • the mechanism for transporting and preparing the cosmetics and polymer powders of a plurality of colors is not limited to the above example.
  • the space in which the cosmetic powder particles to be sprayed are stored may be cleaned every time the makeup type or color changes.
  • the spraying unit conveys each granular material by a pump, and cleans the space in which the cosmetic granular material is stored by injecting the cleaning agent by the pump and discharging the injected cleaning agent (for example, And Patent Document 7).
  • the spraying unit conveys each granular material by a pump, and cleans the space in which the cosmetic granular material is stored by injecting the cleaning agent by the pump and discharging the injected cleaning agent (for example, And Patent Document 7).
  • makeup support apparatus 100 can easily cope with a change in makeup type or color.
  • the method of guiding the face position to a predetermined position is not limited to the above example.
  • makeup presenting section 260 presents guide information for guiding the position of the face to a predetermined position, such as “Please move the face closer to the spray section by 5 cm.”, “Turn the face slightly to the right. You may do so by outputting a sound such as "Please.”
  • makeup presentation unit 260 may present guide information for guiding the position and orientation of the sprayer when spraying unit 280 is a handy type sprayer.
  • the guide information guides the position and orientation of the sprayer so that the relative position of the face to the sprayer becomes a predetermined position. This guidance may be performed by displaying an image showing the position and orientation of the sprayer, or may be performed by text display or voice output.
  • makeup presentation unit 260 determines the position and orientation of spray unit 280 from the captured image or the output of a sensor that detects the position and orientation attached to spray unit 280 (ie, relative to spray unit 280). It is desirable to obtain the face position and orientation. Then, it is desirable that makeup presentation unit 260 controls the above-described spray amount per unit time based on the acquired position and orientation of spray unit 280.
  • makeup presentation unit 260 uses a frame or the like that fits the face in the operation range when spray unit 280 is an ink jet printer that sprays ink in a narrow range while scanning a wide range.
  • the position may be guided to a predetermined position.
  • makeup presentation unit 260 may not perform the spraying of the cosmetic powder particles and the polymer powder particles at the timing when the user inhales.
  • makeup assisting apparatus 100 needs to further include a breathing timing detection unit that detects the breathing timing of the makeup subject (the owner of the face to be makeupd).
  • the breathing timing detection unit detects the movement of the makeup subject's body from the face image of the makeup subject, and detects the breathing timing of the makeup subject from the detected body motion (for example, Patent Document 8). reference).
  • the breathing timing detection unit detects the timing of breathing by detecting the humidity and temperature around the spray unit 280, or by detecting the movement of the body of the person to be makeup using far infrared rays or UWB (Ultra Wide Band) waves. May be.
  • makeup presentation part 260 controls the amount of spraying per unit time of cosmetics based on the timing of respiration detected. Thereby, it can prevent that a makeup subject sucks cosmetic powder particles and polymer powder particles into the body.
  • makeup assisting apparatus 100 may receive a predetermined operation indicating whether or not spraying is possible from the user, and may control whether or not to spray depending on whether or not such an operation is performed. For example, makeup assisting apparatus 100 performs spraying only while a predetermined key switch is pressed. Thereby, the user can control the on / off of the spray.
  • makeup support apparatus 100 may access a server on the network storing the table and select makeup.
  • makeup support apparatus 100 may constitute a distributed arrangement type system.
  • the spray unit 280 is a portable sprayer
  • the other device units are servers on the network. Or on the user's home PC. In this case, it is necessary to provide each device with a communication unit for performing communication between these devices.
  • makeup selecting section 250 may detect the external light and acquire the facial feature amount from the image while reducing the influence of the external light.
  • makeup to be presented includes a lip gloss method.
  • the target site for makeup is not limited to the face, and may include the neck and the back of the hand.
  • the makeup assisting apparatus 100 sprays the foundation applied to the face with gradation so that it gradually becomes thinner from the top of the neck to the bottom. Note that such gradation may be performed on the face and in the direction toward the hairline and neck.
  • the makeup support apparatus 100 may present the skin care to the user by a technique different from the spraying of cosmetics.
  • makeup support apparatus 100 may display information on skin care on display unit 270.
  • the skin care in this case may include various skin countermeasures other than the application of basic cosmetics, such as how to massage a face and how to eat.
  • the makeup support apparatus provides a makeup selection unit that selects makeup as the makeup method for each face to be makeupd, and guides the position of the face to a predetermined position. And a makeup presenting section for spraying cosmetics corresponding to the selected makeup.
  • the makeup support apparatus further includes a spray unit that sprays multicolor cosmetics in a predetermined direction, and the makeup presenting unit applies the selected makeup to the spray unit.
  • a spray unit that sprays multicolor cosmetics in a predetermined direction
  • the makeup presenting unit applies the selected makeup to the spray unit.
  • cosmetics of a color corresponding to the predetermined direction when the face is located at the predetermined position may be sprayed.
  • the spraying unit may appropriately mix a plurality of types of cosmetics having different colors and spray the multicolored cosmetics.
  • an image acquisition unit that acquires an image of the face
  • a facial part acquisition unit that acquires a facial part region of the face from the image
  • a display unit that displays an image.
  • the makeup selection unit selects, for each facial part, a candidate makeup that is a candidate for makeup to be sprayed, and the makeup presenting unit displays the image on the face.
  • a simulation image obtained by superimposing an image indicating the state of the candidate makeup when the candidate makeup is applied is displayed on the display unit, and the makeup selection unit accepts a selection operation for the displayed candidate makeup
  • the selected candidate makeup may be selected as an implementation makeup that is the makeup to be sprayed.
  • the makeup support apparatus may further include a photographing unit that captures the video of the face, the image acquisition unit acquires an image constituting the video, and the makeup presenting unit configures the video For each of the images, a guide image obtained by superimposing guide information indicating the predetermined position on the image may be sequentially generated and displayed on the display unit.
  • the makeup presenting unit may acquire the position of the face and control a spray amount per unit time of the cosmetic based on the acquired position of the face. .
  • the makeup presenting unit records a set of the acquired position of the face and the spray amount per unit time at the position at a predetermined cycle, and the position of the face and You may control the spraying amount per unit time of the said cosmetics based on the log
  • the makeup assisting apparatus may further include a breathing timing detecting unit that detects a breathing timing of the makeup subject who is the owner of the face, and the makeup presenting unit is based on the detected breathing timing.
  • the spray amount per unit time of the cosmetic may be controlled.
  • the spraying unit may spray the multicolor cosmetic by mixing the multicolor cosmetic and a biocompatible polymer powder.
  • the makeup support method of the present disclosure includes a step of selecting makeup that is the makeup method for each face to be makeupd, a step of guiding the position of the face to a predetermined position, and the predetermined Spraying cosmetics corresponding to the selected makeup on the basis of the position of.
  • the makeup support program of the present disclosure includes: a process for selecting makeup that is the makeup method for each face to be subjected to makeup; and a process for guiding the position of the face to a predetermined position. And a process of spraying cosmetics corresponding to the selected makeup on the basis of the predetermined position.
  • the program may be recorded on a computer-readable recording medium.
  • the recording medium may be a non-transitory recording medium such as a flash memory.
  • the present invention is useful as a makeup support device, a makeup support method, and a makeup support program that can appropriately support makeup even for users with insufficient makeup technology.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Cosmetics (AREA)
  • Image Analysis (AREA)

Abstract

 メイク技術が不十分なユーザに対してもメイクアップの支援を適切に行うことができるメイクアップ支援装置を提供すること。メイクアップ支援装置(100)は、メイクアップを行う対象となる顔毎に、メイクアップの仕方であるメイクを選択するメイク選択部(250)と、顔の位置を所定の位置に案内し、所定の位置を基準として、選択されたメイクに対応する化粧料を噴霧させるメイク提示部(260)と、を有する。メイク提示部(260)は、例えば、所定の方向に向けて多色の化粧料の噴霧を行う噴霧部に対し、選択されたメイクに用いられる色のうち、所定の位置に顔が位置しているときの所定の方向に対応する色の化粧料を噴霧させる。

Description

メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
 本発明は、顔のメイクアップ(化粧)を支援するメイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラムに関する。
 近年、顔のメイクアップの仕方(以下、単に「メイク」という)の多様化が進んでいる。無数の選択肢の中から適切なメイクを選択することは、特にメイクについての十分な知識を有さない人にとって、困難である。あらゆるメイクを実際に試して判断および比較を行うことは、膨大な時間および手間を要するからである。
 そこで、顔の特徴に合うメイクを選択し、選択されたメイクが適用されたときの顔のシミュレーション画像を生成して提示する技術が、例えば、特許文献1および特許文献2に記載されている。特許文献1および特許文献2に記載の技術は、メイクアップの対象となる顔(以下、単に「顔」という)を撮影した画像を取得し、顔の特徴を抽出し、予め定められた選択基準に基づいて、顔の特徴に合うメイクを選択する。そして、従来技術は、取得した画像に、選択したメイクを顔に適用したときのメイクの状態を示す画像を重畳して、シミュレーション画像を生成し、表示する。
 これらの技術によれば、実際にメイクアップを行うことなく、シミュレーション画像生成の対象を顔の特徴に合うメイクに絞り込んで、メイクの良し悪しを判断することが可能となる。すなわち、より少ない時間および手間で適切なメイクを選択することが可能となる。
 ところが、メイクの実施技術が不足しているユーザは、メイクのシミュレーション画像が提示されたとしても、そのメイクを再現することが困難である。そこで、特許文献3に記載された基礎化粧に関する技術を、メイクアップに転用することが考えられる。
 特許文献3に記載の技術は、フェルト製、紙製、あるいは水溶性物質等を基材とする化粧用送達シートに、顔毎に選択されたスキンケアに対応する基礎化粧料を印刷する。ユーザは、かかる化粧用送達シートを、印刷された面を顔に向けて顔の皮膚に貼り付けることにより、基礎化粧料を顔に担持させることができる。この基礎化粧料に代えて、選択されたメイクに対応する一般化粧料を印刷することが考えられる。
特開2001-346627号公報 特開2007-175384号公報 特表2012-502908号公報 特開2003-44837号公報 特開2012-86475号公報 特表2005-518278号公報 特開2003-310350号公報 特開2011-130996号公報
 しかしながら、特許文献3に記載の技術を用いたとしても、選択されたメイクを十分に再現することは困難である。なぜなら、化粧用送達シートから一般化粧料を上手く転写させるには、ある程度の技術を要するからである。また、化粧用送達シートを水溶性物質とし貼り付けたままとする場合、化粧用送達シートの溶解により、一般化粧料の濃度または分布が変化し、化粧崩れのような状態になり得るからである。したがって、従来技術は、メイク技術が不十分なユーザに対しては、メイクアップの支援を適切に行うことが難しいという課題を有する。
 本発明の目的は、メイク技術が不十分なユーザに対してもメイクアップの支援を適切に行うことができる、メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラムを提供することである。
 本発明の一態様に係るメイクアップ支援装置は、メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択するメイク選択部と、前記顔の位置を所定の位置に案内し、前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させるメイク提示部と、を有する。
 本発明の一態様に係るメイクアップ支援方法は、メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択するステップと、前記顔の位置を所定の位置に案内するステップと、前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させるステップと、を有する。
 本発明の一態様に係るメイクアップ支援プログラムは、コンピュータに、メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択する処理と、前記顔の位置を所定の位置に案内する処理と、前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させる処理と、を実行させる。
 本発明によれば、メイク技術が不十分なユーザに対してもメイクアップの支援を適切に行うことができる。
本発明の実施の形態1に係るメイクアップ支援装置の構成の一例を示すブロック図 本発明の実施の形態2に係るメイクアップ支援装置の構成の一例を示すブロック図 実施の形態2におけるメイクテーブルの一例を示す図 実施の形態2におけるメイク情報テーブルの一例を示す図 実施の形態2における噴霧部の概略構成の一例を示す断面図 実施の形態2に係るメイクアップ支援装置の動作の一例を示すフローチャート 実施の形態2における画像の一例を示す図 実施の形態2における顔の特徴点の配置の一例を示す図 実施の形態2における顔部品情報の一例を示す図 実施の形態2におけるシミュレーション画像の一例を示す図 実施の形態2におけるガイド画像の一例を示す図
 以下、本発明の各実施の形態について、図面を参照して詳細に説明する。
 (実施の形態1)
 本発明の実施の形態1は、本発明の基本的態様の一例である。
 図1は、本実施の形態に係るメイクアップ支援装置の構成の一例を示すブロック図である。
 図1において、メイクアップ支援装置100は、メイク選択部250、およびメイク提示部260を有する。
 メイク選択部250は、メイクアップを行う対象となる顔(以下、単に「顔」という)毎に、メイクアップの仕方であるメイクを選択する。
 メイク提示部260は、顔の位置および向き(以下、単に「位置」という)を所定の位置および向き(以下、単に「所定の位置」という)に案内し、所定の位置を基準として、選択されたメイクに対応する化粧料を噴霧させる。
 メイクアップ支援装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
 このようなメイクアップ支援装置100は、所定の位置に顔の位置を案内し、所定の位置を基準として、選択されたメイクに対応する化粧料を噴霧させることができる。これにより、ユーザは、案内に従って顔を所定の位置にセットすることにより、選択されたメイクを簡単に再現することができる。したがって、メイクアップ支援装置100は、メイク技術が不十分なユーザに対しても、メイクアップの支援を適切に行うことができる。
 (実施の形態2)
 本発明の実施の形態2は、本発明の具体的態様の一例である。本実施の形態は、本発明を、デジタルカメラおよびタッチパネル付きディスプレイを備えた装置に適用した例である。
 <用語の説明>
 まず、本実施の形態において用いられる用語について説明する。
 「顔部品」とは、目、眉、鼻、頬(ほお)骨、唇、輪郭等、顔の印象を特徴付ける部分を指すものとする。
 「顔部品ID」とは、顔部品の識別情報である。
 「顔部品の領域」とは、画像上あるいは実空間上で、顔部品が占める領域を指すものとし、目尻等、顔部品の特徴点の位置を含むものとする。
 「顔特徴量」とは、顔の特徴を示す所定のパラメータの値である。ここでは、顔の幅に対する顔の長さの比、両目の間隔に対する鼻の長さの比、および、顔の幅に対する目の幅の比等の、複数の値から成る多変量データであるものとする。
 「メイク」とは、アイシャドウおよび口紅等の、顔部品の特徴の印象を補正して審美性の向上を図るメイクアップの仕方(種類)を示し、化粧料の色、塗布濃度、および塗布範囲を少なくとも含む。
 「メイク情報」とは、メイクの内容を示す情報である。
 「メイク種別」とは、「ファンデーション」、「アイシャドウ」、「口紅」、および「チーク」等、少なくとも顔部品との位置関係により区別されるメイクの種類である。
 「メイクID」とは、メイクの識別情報である。
 <メイクアップ支援装置の構成>
 次に、本実施の形態に係るメイクアップ支援装置の構成について説明する。
 図2は、本実施の形態に係るメイクアップ支援装置の構成の一例を示すブロック図である。
 図2において、メイクアップ支援装置100は、撮影部210、画像取得部220、顔部品取得部230、メイクテーブル格納部240、メイク選択部250、メイク提示部260、表示部270、および噴霧部280を有する。
 撮影部210は、例えばデジタルビデオカメラであり、顔の映像を撮影する。そして、撮影部210は、撮影した映像を、画像取得部220へ出力する。映像は、時系列の複数の画像(フレーム画像)により構成される。なお、本実施の形態において、メイクの対象となる顔は、メイクアップ支援装置100のユーザの顔であるものとする。
 画像取得部220は、入力された映像から、映像を構成する画像を順次取得する。そして、画像取得部220は、取得した画像を、顔部品取得部230およびメイク提示部260へ出力する。
 顔部品取得部230は、入力された画像から、顔部品の領域を取得する。顔部品の領域の取得は、例えば、画像の各部分領域と、予め用意された各顔部品のテンプレート画像とのマッチングにより行われる(例えば、特許文献4参照)。そして、顔部品取得部230は、取得した顔部品の識別情報および領域を示す情報(以下「顔部品情報」という)を、メイク選択部250へ出力する。
 メイクテーブル格納部240は、メイクテーブルを格納している。メイクテーブルは、取得され得る顔特徴量に対応付けて、その顔特徴量を有する顔に適切なメイクを記述したテーブルである。
 なお、本実施の形態では、予め、過去にメイクアップ技術者によってメイクが行われた不特定多数の顔の顔特徴量のサンプルに対して、主成分分析が行われているものとする。そして、主成分分析結果は、主成分値が1σ以上であるか否か等を判定基準とする公知の主成分層別法により、予めグルーピングされているものとする。そして、メイクテーブルには、顔特徴量のグループ毎に、そのグループにする顔に対して過去に高い頻度で行われたメイクが、登録されているものとする。
 図3は、メイクテーブルの一例を示す図である。
 図3に示すように、メイクテーブル410は、顔特徴量のグループ411毎に、複数のメイクID412を記述している。例えば、「FG1」という顔特徴量のグループ411には、「FM1、FM2」という2つのメイクID412が対応付けられている。これは、ユーザの顔の顔特徴量がFG1である場合、「FM1」というメイクIDが示すメイクと、「FM2」というメイクIDが示すメイクとが、適切であるということを示す。
 なお、メイクの流行の変化は速く、提示すべきメイクの変化も速い。このため、メイクテーブル410は、例えば、メイクアップ支援装置100に備えられた通信回路(図示せず)を介して、インターネット上のサーバから定期的に更新されることが望ましい。
 また、図2のメイクテーブル格納部240は、メイク情報テーブルを格納している。メイク情報テーブルは、メイクテーブル410(図3参照)に記述されたメイクID412が示すメイクの、メイク情報を記述したテーブルである。
 図4は、メイクテーブル格納部240が格納するメイク情報テーブルの一例を示す図である。
 図4に示すように、メイク情報テーブル420は、例えば、メイクID421、メイク種別422、色423、濃度424、および範囲425を、対応付けて記述している。
 メイクID421は、メイクテーブル410のメイクID412(図3参照)に対応している。メイク種別422は、ここでは簡略化して図示しているが、具体的には、「ファンデーション」、「アイシャドウ」、「口紅」、および「チーク」等である。色423は、ここでは簡略化して図示しているが、具体的には、RGB値および光沢度等である。濃度424は、ここでは簡略化して図示しているが、具体的には、顔の画像の上に重畳する際の透過度およびグラデーションの仕方等である。範囲425は、ここでは簡略化して図示しているが、具体的には、特徴点からの相対座標群、特徴点に対する中心点の相対位置と半径との組等である。
 色423、濃度424、および範囲425の組は、少なくとも画像化に必要な情報を含む。すなわち、本実施の形態において、メイク情報は、少なくとも、顔の画像から、当該顔にメイクアップを施したときの画像を生成するために必要な情報(顔の色との差分を示す情報)を、含むものとする。
 なお、図3に示すメイクテーブル410および図4に示すメイク情報テーブル420は、1つのテーブルに統合されていてもよい。
 図2のメイク選択部250は、顔特徴量を取得する。なお、メイク選択部250は、顔特徴量を、顔部品取得部230から入力された顔部品情報から取得してもよいし、画像取得部220が取得した画像を解析することにより画像から取得してもよい。メイク選択部250は、取得した顔特徴量に基づき、メイクテーブル410(図3参照)を参照して、顔部品毎に、後述の噴霧の対象となるメイクの候補である候補メイクを選択する。そして、メイク選択部250は、選択された候補メイクのメイク情報を、メイク情報テーブル420(図4参照)から取得し、メイク提示部260へ出力する。
 なお、上述の通り、メイクテーブル410には、顔特徴量のグループ毎に、メイクID412が登録されている。したがって、メイク選択部250は、顔から取得された顔特徴量が、メイクテーブル410に登録された顔特徴量のグループ411のいずれに属するかを判定し、判定された顔特徴量のグループ411に対応するメイクID412を選択する。この判定は、例えば、取得された顔特徴量と各グループの代表値(セントロイド)との距離を算出することにより行われる。
 また、メイク選択部250は、ユーザから、後述のシミュレーション画像の表示の対象となる候補メイク(以下「表示メイク」という)の切り替え操作と、表示メイクに対する選択操作とを受け付ける。これらの操作は、例えば、後述の表示部270に備えられたタッチパネルを介して行われる。メイク選択部250は、選択された表示メイクを、後述の噴霧の対象となるメイクである実施メイクとして選択する。そして、メイク選択部250は、選択された実施メイクのメイク情報を、メイク情報テーブル420(図4参照)から取得し、メイク提示部260へ出力する。
 メイク提示部260は、候補メイクのシミュレーション画像を、後述の表示部270に表示させる。より具体的には、メイク提示部260は、画像取得部220から入力された画像に、顔に対して候補メイクを適用したときの候補メイクの状態を示す画像を重畳して、シミュレーション画像を生成する。候補メイクの画像の重畳位置は、例えば、顔部品情報と、メイク情報に含まれるメイクの範囲とから算出される。そして、メイク提示部260は、生成したシミュレーション画像の画像データを、表示部270へ出力する。
 なお、シミュレーション画像における画像の重畳は、例えば、アルファ(α)ブレンド処理等の公知の画像合成処理により行われる。この場合、アルファ値(α)は、メイクの濃度に応じた値に設定される。アルファブレンド処理は、例えば、以下の式(1)~(3)で表される。ここで、r、g、bは、撮影された画像の任意の領域のRGB値であり、r、g、bは、メイクのRGB値である。そして、R、G、Bは、シミュレーション画像の対応する領域のRGB値である。
 R = r×α+r×(1-α)   ・・・(1)
 G = g×α+g×(1-α)   ・・・(2)
 B = b×α+b×(1-α)   ・・・(3)
 また、メイクのそれぞれに、顔に重ねて塗布する場合の順序(以下「塗布順序」という)が設定されており、かつ、メイクを適用したときの画像が、濃度に応じた密度の網掛け画像であったとする。塗布順序は、例えば、チークの塗布が、ファンデーションの塗布の後にすべきものであるということを規定する。この場合、メイク提示部260は、画像の重畳を、撮影された画像に対して、各メイクの画像を塗布順序に応じた順序で上塗り処理することにより、行ってもよい。
 また、メイク提示部260は、顔の位置を所定の位置に案内し、所定の位置を基準として、選択されたメイクに対応する化粧料を噴霧させる。
 より具体的には、メイク提示部260は、映像を構成する画像毎に、所定の位置を示すガイド情報を画像に重畳して得られるガイド画像を、順次生成する。そして、メイク提示部260は、表示部270に対して、生成したガイド画像の画像データを出力し、ガイド画像を表示させる。
 そして、メイク提示部260は、後述の噴霧部280に対し、選択されたメイクに用いられる色のうち、所定の位置に顔が位置しているときの、噴霧部280が噴霧を行う方向に対応する色の化粧料を、噴霧させる。この際、メイク提示部260は、顔の位置を取得すると共に、取得された顔の位置と、その位置における単位時間当たりの噴霧量と、の組を所定の周期で記録する。そして、メイク提示部260は、顔の位置および単位時間当たりの噴霧量の組の履歴に基づいて、化粧料の単位時間当たりの噴霧量を制御することにより、実際のメイクをシミュレーション画像に近付ける。
 なお、後述するが、噴霧部280は、化粧料と、生体適合性ポリマーの粉粒体とを調合して、多色の化粧料の噴霧を行う。このため、メイク提示部260は、生体適合性ポリマーの粉粒体の皮膚上での厚さが、約10nm~約500nmとなるように、化粧料の単位時間当たりの噴霧量と、生体適合性ポリマーの単位時間当たりの噴霧量とを算出する。この際、メイク提示部260は、生体適合性ポリマーの粉粒体の色、および皮膚に付着した後の光の散乱等を考慮して、化粧料の単位時間当たりの噴霧量を決定する。そして、メイク提示部260は、算出した値で生体適合性ポリマーが噴霧されるように、噴霧部280を制御する。
 本実施の形態において、メイク提示部260は、噴霧すべき化粧料の色と単位時間当たりの噴霧量と、噴霧すべき生体適合性ポリマーの単位時間当たりの噴霧量と、を指定する化粧料噴霧情報を生成するものとする。そして、メイク提示部260は、生成した化粧料噴霧情報を噴霧部280へ出力することにより、噴霧部280の動作を制御するものとする。
 表示部270は、例えば、タッチパネル付きディスプレイのディスプレイ部分である。表示部270は、入力されたシミュレーション画像の画像データに基づき、メイクアップ支援装置100のユーザにシミュレーション画像を表示する。また、表示部270は、入力されたガイド画像の画像データに基づき、ガイド画像を表示する。
 噴霧部280は、所定の方向に向けて、多色の化粧料の噴霧を行う。より具体的には、噴霧部280は、メイク提示部260から入力される化粧料噴霧情報が指定する色および単位時間当たりの噴霧量で、色が異なる複数種類の化粧料を適宜調合して、化粧料の噴霧を行う。
 本実施の形態において、噴霧部280は、化粧料と、生体適合性ポリマーの粉粒体(以下「ポリマー粉粒体」という。)とを調合して、多色の化粧料の噴霧を行うものとする。ここで、ポリマー粉粒体とは、例えば、ポリ乳酸、ポリグリコール酸、ポリカプロラクトン、あるいはこれらの共重合体、ヒアルロン酸、およびキトサン等の、生体適合性ポリマーから成る薄膜(例えば、特許文献5参照)を、粉砕したものである。また、本実施の形態において、噴霧部280は、卓上に載置した状態で噴霧を行う、卓上型の噴霧器であるものとする。
 図5は、噴霧部280の概略構成の一例を示す断面図である。
 図5に示すように、噴霧部280は、本体ハウジング部281の内部に、カートリッジ収納部282、撹拌部283、および噴霧ノズル部284を有している。
 カートリッジ収納部282には、それぞれ異なる色の化粧料が格納された複数のカートリッジ群301~304と、上述のポリマー粉粒体が格納されたカートリッジ群305とが、収納されている。なお、これらのカートリッジ群301~305は、交換可能、あるいは、再充填可能となっている。
 カートリッジ群301~305は、それぞれ、化粧料噴霧情報に従って、格納する化粧料あるいはポリマー粉粒体をカートリッジ収納部282下部の空間306に吐出する。かかる空間306は、その下側に配置された、後述の撹拌部283と連通しており、空間306に吐出された化粧料およびポリマー粉粒体は、速やかに撹拌部283へと落下するようになっている。
 撹拌部283は、下部に、カートリッジ収納部282から落下してくる化粧料およびポリマー粉粒体を受けて蓄積する空間307を有している。また、撹拌部283は、当該空間307に蓄積された化粧料およびポリマー粉粒体を撹拌するための、撹拌機構308を有している。空間307は、その横方向に配置された、後述の噴霧ノズル部284と連通している。
 噴霧ノズル部284は、撹拌部283に蓄積された、化粧料およびポリマー粉粒体の撹拌物(以下「化粧用粉粒体」という)を、化粧料噴霧情報により指示された時間当たりの噴霧量で、所定の範囲(以下「噴霧エリア」という)309に向けて噴霧する。
 なお、化粧用粉粒体の噴霧手法としては、化粧用粉粒体が液体である場合、例えば、静電霧化方式を採用することができる。静電霧化方式とは、粉粒体に電圧を印加して静電気を発生させ、静電気によって粉粒体の状態を不安定にして微細化して霧化させる手法である(例えば、特許文献6参照)。このようにして噴霧された化粧用粉粒体は、導電体である皮膚に引き寄せられ易い状態となる。
 なお、ここでは図示および説明を省略しているが、噴霧部280は、カートリッジ群301~305の吐出ヘッド、撹拌機構308、および噴霧ノズル部284を動作させるための電源を供給する、電源部を更に有している。また、噴霧部280は、噴霧を行わない間、収容する粉粒体が外部に漏れ出したり乾燥したりしないように、撹拌部283と噴霧ノズル部284との間に配置されたシャッター、または、噴霧ノズル部284に取り付けられる栓を有している。
 また、本実施の形態において、カートリッジ群301~305からの化粧料およびポリマー粉粒体の吐出から、吐出された化粧料およびポリマー粉粒体から成る化粧用粉粒体の噴霧までに要する時間は、非常に短いものとする。噴霧部280は、入力された化粧料噴霧情報に対応する動作を、ほぼリアルタイムで実現するものとする。
 また、少なくとも撮影部210、表示部270、および噴霧部280は、ユーザの顔の正面側であってユーザの顔から約20cmの距離に、近接して(例えば一体的に)配置されるものとする。また、メイク提示部260は、撮影部210と噴霧部280との位置関係を把握しており、かかる位置関係に基づいて、上述のガイド情報を生成するものとする。
 また、図2のメイクアップ支援装置100は、図示しないが、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、およびRAM等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
 このようなメイクアップ支援装置100は、所定の位置に顔の位置を案内し、所定の位置を基準として、選択されたメイクに対応する化粧料を噴霧させることができる。これにより、ユーザは、案内に従って顔を所定の位置にセットすることにより、選択されたメイクを簡単に再現することができる。
 <メイクアップ支援装置の動作>
 次に、メイクアップ支援装置100の動作について説明する。
 図6は、メイクアップ支援装置100の動作の一例を示すフローチャートである。
 まず、ステップS1100において、撮影部210は、ユーザの顔の映像の撮影を開始し、画像取得部220は、撮影された映像を構成する画像の取得を開始する。また、顔部品取得部は、画像に含まれる顔の顔部品の取得を開始する。
 この際、顔部品取得部230は、例えば、画像510(図7参照)を解析することにより、画像510から顔の(顔部品の)特徴点を抽出する。そして、顔部品取得部230は、同一の顔部品を構成する特徴点により形成される領域を、顔部品の領域として取得する。そして、顔部品取得部230は、取得した顔部品の領域から、顔部品情報を生成する。
 図7は、図6のステップS1100において取得される、画像の一例を示す図である。
 図7に示すように、画像510は、ユーザの顔の画像(以下「顔画像」という)511を含む。ユーザは、メイクアップをしていない状態である。
 図8は、図6のステップS1100において抽出される、顔の特徴点の配置の一例を示す図である。
 図8に示すように、顔画像511からは、複数の特徴点(記号「●」で示す)が抽出される。例えば、第1~第4の特徴点521~524は、右目を構成する。したがって、顔部品取得部230は、第1~第4の特徴点521~524により囲まれる領域525を、右目の領域として取得する。
 図9は、図6のステップS1100において生成される、顔部品情報の一例を示す図である。
 図9に示すように、顔部品情報530は、例えば、顔部品ID531毎に、領域532および人ID533を記述している。顔部品ID531は、左目、上唇等の、顔部品の識別情報である。領域532は、画像における顔部品の領域の範囲を示す情報であり、例えば、画像上に設定された座標系の座標値リストである。人ID533は、人の識別情報である。人ID533は、例えば、撮影が開始される毎に、タッチパネル付きディスプレイに対する操作等を介してユーザにより指定された値が、設定される。
 そして、図6のステップS1200において、メイク選択部250は、顔特徴量を取得する。顔特徴量は、上述の通り、顔の特徴を示す所定のパラメータについての多変量データである。メイク選択部250は、例えば、画像510(図7参照)、顔の特徴点群(図8参照)、および、顔部品情報530(図9参照)のいずれかから、顔特徴量を取得する。そして、メイク選択部250は、取得された顔特徴量に基づいて、候補メイクを選択する。ここでは、複数の候補メイクが選択されるものとする。
 そして、ステップS1300において、メイク選択部250は、複数の候補メイクの中から、表示メイクを1つ決定する。そして、メイク選択部250は、決定した表示メイクに対応するメイク情報を、メイク提示部260へ出力する。
 そして、ステップS1400において、メイク提示部260は、決定された表示メイクに関するメイク情報に基づいて、シミュレーション画像を生成し、表示部270に表示させる。
 図10は、図6のステップS1400において生成される、シミュレーション画像の一例を示す図である。
 図10に示すように、シミュレーション画像540は、顔画像511に、アイブロウ、アイシャドウ、アイライナー、チーク、および口紅といった、メイクの画像541~545を重畳した画像となっている。
 そして、ステップS1500において、メイク選択部250は、現在の表示メイクを実施メイクとして選択する操作が行われたか否かを判断する。メイク選択部250は、かかる操作が行われていない場合(S1500:NO)、処理をステップS1600へ進める。
 ステップS1600において、メイク選択部250は、表示メイクを他の候補メイクに切り替える操作が行われたか否かを判断する。メイク選択部250は、かかる操作が行われていない場合(S1600:NO)、処理を後述のステップS1800へ進める。また、メイク選択部250は、かかる操作が行われた場合(S1600:YES)、処理をステップS1700へ進める。
 ステップS1700において、メイク選択部250は、表示メイクを他の候補メイクに変更し、対応するメイク情報をメイク提示部260へ出力して、ステップS1800へ進む。
 そして、ステップS1800において、画像取得部220は、映像の入力が継続しているか否かを判断する。画像取得部220は、映像の入力が継続している場合(S1800:YES)、ステップS1400へ戻り、次の画像に処理を移す。また、画像取得部220は、映像の入力が終了した場合(S1800:NO)、一連の処理を終了する。
 一方、いずれかの候補メイクについて実施メイクとして選択する操作が行われた場合(S1500:YES)、メイク選択部250は、処理をステップS1900へ進める。
 ステップS1900において、メイク提示部260は、所定の位置にユーザの顔の位置を案内するガイド画像を生成し、表示部270に表示させる。
 図11は、ガイド画像の一例を示す図である。ここでは、メイクのうち、左頬のチークのメイクを実施するときの例を示す。
 図11に示すように、ガイド画像550は、顔画像511に、ガイド情報として、所定の位置を顔部品の位置等によって示す顔位置画像551と、左頬のチークの画像544を重畳した画像となっている。顔位置画像551としては、例えば、過去に撮影された顔画像を用いることができる。
 メイク提示部260は、顔位置画像551の配置を、例えば、撮影部210の撮影範囲と、噴霧部280の噴霧エリア309(図5参照)との位置関係、および、各顔部品と左頬のチークとの位置関係から、算出する。すなわち、メイク提示部260は、噴霧エリア309が、左頬のチークの範囲に一致するように、あるいは、含まれるように、顔位置画像551を生成し、顔画像511に重畳する。
 ユーザは、表示部270を見ながら、顔位置画像551に顔画像511が一致するように、顔を移動させたり、顔の向きを変えたりする。これにより、ユーザは、噴霧部280から噴霧されるチークの化粧用粉粒体が、シミュレーション画像540(図10参照)で提示されたチークの画像544の位置に当たるようにすることができる。
 そして、図6のステップS2000において、メイク提示部260は、例えば顔部品情報から、顔の位置を取得すると共に、取得した顔の位置と、その位置における単位時間当たりの噴霧量と、の組を記録する。なお、後述のステップS2100の判断処理により、この記録は、所定の周期で行われる。そして、メイク提示部260は、顔の位置および単位時間当たりの噴霧量の組の履歴に基づいて、実際のメイクがシミュレーション画像に近付くように、噴霧部280による化粧用粉粒体の単位時間当たりの噴霧量を制御する。
 例えば、噴霧によるメイクの対象となっている皮膚の範囲(例えば、チークが施されるべき範囲。以下「メイク対象領域」という)以外の領域が、噴霧エリア309に位置していたとする。この場合、メイク提示部260は、単位時間当たりの噴霧量をゼロにする。これは、メイク対象領域以外の領域に、化粧用粉粒体が付着するのを防ぐためである。
 また、例えば、メイク対象領域が、噴霧エリア309を包含するように、噴霧エリア309に移動してきたとする。この場合、メイク提示部260は、単位時間当たりの噴霧量を、必要な噴霧量を2秒等の所定の時間で実現するような値、に制御する。これは、メイク対象領域に、化粧用粉粒体を適切な濃度で付着させるためである。
 また、例えば、メイク対象領域のうち既に噴霧が行われた領域が、噴霧エリア309に再び移動してきたとする。この場合、メイク提示部260は、単位時間当たりの噴霧量を、必要な噴霧量から既に行われた噴霧量を差し引いた値を、所定の時間で実現するような値に、制御する。これは、二度塗りのような形で化粧用粉粒体が噴霧され、メイクが濃くなることを防ぐためである。
 そして、ステップS2100において、メイク提示部260は、選択されたメイクについてのメイクアップが終了したか否かを判断する。メイク提示部260は、メイクアップがまだ終了していない場合(S2100:NO)、処理をステップS1900へ戻し、ガイド画像の表示と化粧用粉粒体の噴霧の制御とを継続する。また、メイクアップが終了した場合(S2100:YES)、一連の処理を終了する。
 なお、メイク提示部260は、メイクに塗布順序が設定されている場合、かかる塗布順序に沿った順序で、化粧料の噴霧を行うことが望ましい。
 また、メイク提示部260は、選択されたメイクのうち、ファンデーションまたはチーク等、比較的広範囲に施されるものであってシャープさを必要としないようなメイクのみを、噴霧の対象としてもよい。この場合、メイク提示部260は、ガイド画像と、噴霧の対象とならないメイクをガイドするための画像とを、切り替えて、表示部270に表示させることが望ましい。
 <本実施の形態の効果>
 以上のように、本実施の形態に係るメイクアップ支援装置100は、所定の位置に顔の位置を案内し、所定の位置を基準として、選択されたメイクに対応する化粧料を噴霧させる。これにより、ユーザは、案内に従って顔を所定の位置にセットすることにより、選択されたメイクを簡単に再現することができる。したがって、メイクアップ支援装置100は、メイク技術が不十分なユーザに対しても、メイクアップの支援を適切に行うことができる。
 また、本実施の形態に係るメイクアップ支援装置100は、色が異なる複数種類の化粧料を適宜調合して、多色の化粧料の噴霧を行う。これにより、メイクアップ支援装置100は、メイク選択部250が選択したメイクの、複雑な色、微妙な濃淡を、高い精度で再現することができる。
 また、本実施の形態に係るメイクアップ支援装置100は、多色の化粧料と生体適合性ポリマーの粉粒体とを調合して、多色の化粧料の噴霧を行う。これにより、多色の化粧料が均一に混合され易くし、また、化粧料を皮膚に付着し易くすることができる。また、皮膚に付着した粉粒体は、皮膚の表面で、メッシュ(網目)状であって、薄く、皮膚への密着性が高く、かつ、伸縮性に富んだ薄膜を形成する。すなわち、酸素および水分等について適度な透過性を有しつつ、初期の状態が維持されるような薄膜を、皮膚の表面に形成する。したがって、メイクアップ支援装置100は、皮膚への負担が少なく、かつ、化粧崩れの可能性が少ない、メイクを実現することができる。
 <候補メイクの他の選択手法>
 なお、候補メイクの選択手法は、上述の例に限定されない。例えば、メイク選択部250は、顔特徴量とは無関係に流行のメイクを優先的に選択してもよいし、顔特徴量と他の情報とに基づいて候補メイクを選択してもよい。
 メイクの選択は、例えば、肌状態に基づいて行われる。肌状態は、例えば、顔の皮膚の染み、皺、皮脂分泌、隠れ染み、水分、血流、および発汗等の度合いであり、例えば、日常光、紫外線、赤外光、あるいはレーザ光を用いて撮影された画像の解析により取得される。
 具体的には、メイク選択部250は、例えば、染みの部分および目の下の隈の部分に対して、コンシーラを噴霧するメイクを選択する。
 また、メイクの選択は、例えば、予測される肌状態の変化に基づいて行われてもよい。肌状態の変化は、例えば、上述の肌状態、環境情報、および体調情報から、予測される。環境情報は、例えば、天気、気温、季節、および日射量である。体調情報は、例えば、睡眠時間、体温、身体活動量、瞼の開度、瞬目頻度、月経周期における時期、血圧である。
 具体的には、メイク選択部250は、例えば、ユーザが寝不足である場合には、時間経過後に目の下の隈が濃くなることを想定して、目の下にコンシーラを噴霧するメイクを選択する。
 また、メイクの選択は、例えば、年齢または居住地域の、ユーザの属性情報に基づいて行われてもよい。
 メイクの選択に用いられる各種情報は、ユーザの操作により入力されてもよいし、メイクアップ支援装置100が、通信により、インターネット上のサーバ、またはユーザが使用する各種家電機器あるいはセンサ機器等から取得してもよい。
 また、例えば、メイク選択部250は、メイクの色補正を行ってもよい。
 顔の色の印象は、周囲の色または場面に応じて変化する。例えば、赤系の服を着ている人の顔色は、本来の色よりもやや青緑側に寄った色に見える。また、同じメイクであっても、場面に応じて派手な色合いに感じられたり地味な色合いに感じられたりする。
 そこで、メイク選択部250は、例えば、画像からユーザの服の色、肌の色、および髪の色等を取得し、取得された色に基づいて、適切な色合いのメイクを候補メイクとして選択したり、選択した候補メイクの色合いを適切な色合いに補正する。これにより、メイクアップ支援装置100は、より適切なメイクを選択し、ユーザに提示することができる。また、ユーザは、自分で色合いの良し悪しを判断することなく、適切な色合いのメイクを実施することができる。このようなメイクの選択は、特に、ファンデーションの色の選択において、高い効果を奏する。
 <基礎化粧料の顔毎の選択>
 また、メイクアップ支援装置100は、化粧料の噴霧により実現されるスキンケアを、顔毎に選択するようにしてもよい。
 この場合、メイク選択部250は、メイクに代えて、または、メイクと併せて、顔毎に、基礎化粧料を用いたスキンケアを選択する。そして、メイク提示部260は、噴霧部280に対し、選択されたスキンケアに対応する基礎化粧料を噴霧させる。
 スキンケアの選択は、例えば、肌状態に基づいて行われる。
 具体的には、メイク選択部250は、例えば、染みの部分に対して、光散乱効果の高い基礎化粧料を噴霧するスキンケアを選択し、隠れ染みの部分に対して、美白効果の高い基礎化粧料を噴霧するスキンケアを選択する。また、メイク選択部250は、毛穴の楕円率から老化度が高いと推定される部分に対して、収斂作用および皮脂吸着作用の高い基礎化粧料を噴霧するスキンケアを選択する。
 また、スキンケアの選択は、例えば、予測される肌状態の変化に基づいて行われる。
 具体的には、メイク選択部250は、例えば、ユーザの体温が高い場合には、肌の乾燥が進むことを想定して、保湿美容液を噴霧するスキンケアを選択する。
 スキンケアの選択に用いられる各種情報は、ユーザの操作により入力されてもよいし、メイクアップ支援装置100が、通信により、インターネット上のサーバ、またはユーザが使用する各種家電機器あるいはセンサ機器等から取得してもよい。
 特に、化粧料を生体適合性ポリマーの粉粒体と調合して噴霧する場合、上述の通り、汗および皮脂による基礎化粧料の化粧崩れの可能性を低減することができ、初期の分布状態を長時間維持することができる。このような分布状態の維持は、例えば、紫外線の皮膚への到達を低減する、いわゆるUV(紫外線)カット機能を有する基礎化粧料に好適である。
 <噴霧器の他の構成>
 また、噴霧部280の構成は、上述の例に限定されない。
 例えば、噴霧部280は、化粧用粉粒体の噴霧手法として、スプレーガン方式を採用したものであってもよい。
 また、噴霧部280は、ハンディタイプの噴霧器であってもよい。この場合、噴霧部280は、無線通信により、メイク提示部260からの化粧料噴霧情報等の情報のやり取りを行うことが望ましい。
 また、噴霧部280は、広い範囲を走査しながら狭い範囲へのインクの噴霧を行う、インクジェットプリンタであってもよい。この場合、化粧料噴霧情報は、例えば、各位置の色および濃度を指定する画像データとすることができる。
 また、化粧料粉粒体が、皮膚に密着し易い素材から成る場合、必ずしも、噴霧の際にポリマー粉粒体を用いなくてもよい。また、化粧料粉粒体は、ポリマー粉粒体に代えて、またはポリマー粉粒体と併せて、水あるいはエタノール等の生体適合性を有する弱揮発性の溶液と調合されて、噴霧されてもよい。また、化粧料粉粒体は、乾性ゲルと調合されてもよい。但し、この場合、メイクをする際に、指による塗布を行う必要がある。また、この場合、メイクアップ支援装置100は、どの場所に塗布すべきか等を案内する情報を、ユーザに提示することが望ましい。
 また、複数の色の化粧料およびポリマー粉粒体を搬送および調合するための機構は、上述の例に限定されない。また、噴霧の対象となる化粧料粉粒体が格納される空間は、メイク種別または色が変わる毎に、洗浄されてもよい。
 例えば、噴霧部は、ポンプにより、各粉粒体を搬送し、ポンプによる洗浄剤の注入と注入された洗浄剤の排出とにより、化粧料粉粒体が格納される空間の洗浄を行う(例えば、特許文献7参照)。これにより、メイクアップ支援装置100は、メイク種別または色の変更に対応し易くすることができる。
 <顔の位置の他の案内手法>
 また、顔の位置を所定の位置に案内する手法は、上述の例に限定されない。
 例えば、メイク提示部260は、顔の位置を所定の位置に案内するためのガイド情報の提示を、「顔をあと5cm、噴霧部に近付けて下さい。」、「顔をもう少しだけ右に向けて下さい。」等の音声を出力することにより行ってもよい。
 また、メイク提示部260は、噴霧部280がハンディタイプの噴霧器である場合、噴霧器の位置および向きを案内するガイド情報を提示してもよい。かかるガイド情報は、すなわち、顔の噴霧器に対する相対的な位置が、所定の位置となるように、噴霧器の位置および向きを案内する。この案内は、噴霧器の位置および向きを示す画像を表示することにより行ってもよいし、テキスト表示あるいは音声出力により行ってもよい。
 なお、この場合、メイク提示部260は、撮影画像から、あるいは、噴霧部280に取り付けられた位置および向きを検出するセンサの出力等から、噴霧部280の位置および向き(つまり、噴霧部280に対する顔の位置および向き)を取得することが望ましい。そして、メイク提示部260は、取得した噴霧部280の位置および向きに基づいて、上述の、単位時間当たりの噴霧量を制御することが望ましい。
 また、メイク提示部260は、噴霧部280が、広い範囲を走査しながら狭い範囲へのインクの噴霧を行う、インクジェットプリンタである場合、その操作範囲に顔を嵌め込むフレーム等を用いて、顔の位置を所定の位置に案内してもよい。この場合、フレームは、少なくとも噴霧部280に対して位置および向きが固定され、かつ、髪の生え際等、顔の輪郭以外の部分を覆う構成となっていることが望ましい。
 <噴霧量の他の制御手法>
 また、メイク提示部260は、ユーザの吸気が行われるタイミングでは、化粧料粉粒体およびポリマー粉粒体の噴霧を行わないようにしてもよい。
 この場合、メイクアップ支援装置100は、メイク対象者(メイクの対象となる顔の持ち主)の呼吸のタイミングを検出する呼吸タイミング検出部を、更に有する必要がある。呼吸タイミング検出部は、例えば、メイク対象者の顔画像から、メイク対象者の体の動きを検出し、検出した体の動きから、メイク対象者の呼吸のタイミングを検出する(例えば、特許文献8参照)。また、呼吸タイミング検出部は、噴霧部280周辺の湿度および温度を検出したり、遠赤外線あるいはUWB(Ultra Wide Band)波によりメイク対象者の身体の動きを検出することにより、呼吸のタイミングを検出してもよい。そして、メイク提示部260は、検出された呼吸のタイミングに基づいて、化粧料の単位時間当たりの噴霧量を制御する。これにより、メイク対象者が、化粧料粉粒体およびポリマー粉粒体を体内に吸引してしまうのを防ぐことができる。
 また、メイクアップ支援装置100は、噴霧の可否を示す所定の操作をユーザから受け付け、かかる操作が行われているか否かに応じて、噴霧を行うか否かを制御してもよい。例えば、メイクアップ支援装置100は、所定のキースイッチが押下されている間にのみ、噴霧を行うようにする。これにより、ユーザが噴霧のオンオフを制御することが可能になる。
 <その他の構成の変形例>
 また、上述の各種テーブルは、必ずしもメイクアップ支援装置100に格納されていなくてもよい。例えば、メイクアップ支援装置100がネットワークに接続可能である場合、メイクアップ支援装置100は、上記テーブルが格納されたネットワーク上のサーバにアクセスして、メイクを選択すればよい。
 また、メイクアップ支援装置100は、分散配置型のシステムを構成してもよい。例えば、図2に示す機能部のうち、撮影部210および表示部270のみをユーザの所持する端末に配置し、噴霧部280を携帯型の噴霧器とし、他の装置部については、ネットワーク上のサーバ、またはユーザの自宅PC上に配置してもよい。この場合、これらの装置間で通信を行うための通信部を、それぞれの装置に備える必要がある。
 また、メイク選択部250は、外光を検出し、画像から、外光の影響を軽減した状態で、顔特徴量の取得を行うようにしてもよい。
 また、メイクの具体的内容は、上述の例に限定されない。例えば、提示の対象となるメイクには、リップグロスの仕方等が含まれる。
 また、メイクの対象部位は、顔に限定されるものではなく、首および手の甲等を含んでもよい。メイクアップ支援装置100は、例えば、顔に施すファンデーションの噴霧を、首の上部から下に向かって徐々に薄くなるようにグラデーションを掛けて行うようにする。なお、このようなグラデーションは、顔においても、髪の生え際および首に向かう方向に行われてもよい。
 また、メイクアップ支援装置100は、スキンケアについては、化粧料の噴霧とは別の手法により、ユーザに提示してもよい。例えば、メイクアップ支援装置100は、スキンケアに関する情報を、表示部270に表示させてもよい。この場合のスキンケアには、顔のマッサージの仕方、食生活の仕方等、基礎化粧料の塗布以外の各種肌対策が含まれ得る。
 本開示のメイクアップ支援装置は、メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択するメイク選択部と、前記顔の位置を所定の位置に案内し、前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させるメイク提示部と、を有する。
 なお、上記メイクアップ支援装置は、所定の方向に向けて多色の化粧料の噴霧を行う噴霧部、を更に有し、前記メイク提示部は、前記噴霧部に対し、選択された前記メイクに用いられる色のうち、前記所定の位置に前記顔が位置しているときの前記所定の方向に対応する色の化粧料を噴霧させてもよい。
 また、上記メイクアップ支援装置において、前記噴霧部は、色が異なる複数種類の化粧料を適宜調合して、前記多色の化粧料の噴霧を行ってもよい。
 また、上記メイクアップ支援装置において、前記顔を撮影した画像を取得する画像取得部と、前記画像から、前記顔の顔部品の領域を取得する顔部品取得部と、画像を表示する表示部と、を更に有し、前記メイク選択部は、前記顔部品毎に、前記噴霧の対象となるメイクの候補である候補メイクを選択し、前記メイク提示部は、前記画像に、前記顔に対して前記候補メイクを適用したときの前記候補メイクの状態を示す画像を重畳して得られるシミュレーション画像を、前記表示部に表示させ、前記メイク選択部は、表示された前記候補メイクに対する選択操作を受け付け、選択された前記候補メイクを、前記噴霧の対象となるメイクである実施メイクとして選択してもよい。
 また、上記メイクアップ支援装置において、前記顔の映像を撮影する撮影部、を更に有し、前記画像取得部は、前記映像を構成する画像を取得し、前記メイク提示部は、前記映像を構成する前記画像毎に、前記所定の位置を示すガイド情報を前記画像に重畳して得られるガイド画像を、順次生成して、前記表示部に表示させてもよい。
 また、上記メイクアップ支援装置において、前記メイク提示部は、前記顔の位置を取得し、取得された前記顔の位置に基づいて、前記化粧料の単位時間当たりの噴霧量を制御してもよい。
 また、上記メイクアップ支援装置において、前記メイク提示部は、取得された前記顔の位置と、その位置における単位時間当たりの噴霧量と、の組を所定の周期で記録し、前記顔の位置および前記単位時間当たりの噴霧量の組の履歴に基づいて、前記化粧料の単位時間当たりの噴霧量を制御してもよい。
 また、上記メイクアップ支援装置において、前記顔の持ち主であるメイク対象者の呼吸のタイミングを検出する呼吸タイミング検出部、を更に有し、前記メイク提示部は、検出された前記呼吸のタイミングに基づいて、前記化粧料の単位時間当たりの噴霧量を制御してもよい。
 また、上記メイクアップ支援装置において、前記噴霧部は、前記多色の化粧料と生体適合性ポリマーの粉粒体とを調合して、前記多色の化粧料の噴霧を行ってもよい。
 本開示のメイクアップ支援方法は、メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択するステップと、前記顔の位置を所定の位置に案内するステップと、前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させるステップと、を有する。
 本開示のメイクアップ支援プログラムは、コンピュータに、メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択する処理と、前記顔の位置を所定の位置に案内する処理と、前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させる処理と、を実行させる。
 なお、プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。記録媒体は、フラッシュメモリなどの非一過性の記録媒体であってもよい。
 2013年3月22日出願の特願2013-059810の日本出願に含まれる明細書、図面及び要約書の開示内容は、すべて本願に援用される。
 本発明は、メイク技術が不十分なユーザに対してもメイクアップの支援を適切に行うことができる、メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラムとして有用である。
 100 メイクアップ支援装置
 210 撮影部
 220 画像取得部
 230 顔部品取得部
 240 メイクテーブル格納部
 250 メイク選択部
 260 メイク提示部
 270 表示部
 280 噴霧部
 281 本体ハウジング部
 282 カートリッジ収納部
 283 撹拌部
 284 噴霧ノズル部
 301~305 カートリッジ群
 306、307 空間
 308 撹拌機構
 

Claims (11)

  1.  メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択するメイク選択部と、
     前記顔の位置を所定の位置に案内し、前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させるメイク提示部と、を有する、
     メイクアップ支援装置。
  2.  所定の方向に向けて多色の化粧料の噴霧を行う噴霧部、を更に有し、
     前記メイク提示部は、
     前記噴霧部に対し、選択された前記メイクに用いられる色のうち、前記所定の位置に前記顔が位置しているときの前記所定の方向に対応する色の化粧料を噴霧させる、
     請求項1に記載のメイクアップ支援装置。
  3.  前記噴霧部は、
     色が異なる複数種類の化粧料を適宜調合して、前記多色の化粧料の噴霧を行う、
     請求項2に記載のメイクアップ支援装置。
  4.  前記顔を撮影した画像を取得する画像取得部と、
     前記画像から、前記顔の顔部品の領域を取得する顔部品取得部と、
     画像を表示する表示部と、を更に有し、
     前記メイク選択部は、
     前記顔部品毎に、前記噴霧の対象となるメイクの候補である候補メイクを選択し、
     前記メイク提示部は、
     前記画像に、前記顔に対して前記候補メイクを適用したときの前記候補メイクの状態を示す画像を重畳して得られるシミュレーション画像を、前記表示部に表示させ、
     前記メイク選択部は、
     表示された前記候補メイクに対する選択操作を受け付け、選択された前記候補メイクを、前記噴霧の対象となるメイクである実施メイクとして選択する、
     請求項2に記載のメイクアップ支援装置。
  5.  前記顔の映像を撮影する撮影部、を更に有し、
     前記画像取得部は、
     前記映像を構成する画像を取得し、
     前記メイク提示部は、
     前記映像を構成する前記画像毎に、前記所定の位置を示すガイド情報を前記画像に重畳して得られるガイド画像を、順次生成して、前記表示部に表示させる、
     請求項4に記載のメイクアップ支援装置。
  6.  前記メイク提示部は、
     前記顔の位置を取得し、取得された前記顔の位置に基づいて、前記化粧料の単位時間当たりの噴霧量を制御する、
     請求項5に記載のメイクアップ支援装置。
  7.  前記メイク提示部は、
     取得された前記顔の位置と、その位置における単位時間当たりの噴霧量と、の組を所定の周期で記録し、前記顔の位置および前記単位時間当たりの噴霧量の組の履歴に基づいて、前記化粧料の単位時間当たりの噴霧量を制御する、
     請求項6に記載のメイクアップ支援装置。
  8.  前記顔の持ち主であるメイク対象者の呼吸のタイミングを検出する呼吸タイミング検出部、を更に有し、
     前記メイク提示部は、
     検出された前記呼吸のタイミングに基づいて、前記化粧料の単位時間当たりの噴霧量を制御する、
     請求項2に記載のメイクアップ支援装置。
  9.  前記噴霧部は、
     前記多色の化粧料と生体適合性ポリマーの粉粒体とを調合して、前記多色の化粧料の噴霧を行う、
     請求項3に記載のメイクアップ支援装置。
  10.  メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択するステップと、
     前記顔の位置を所定の位置に案内するステップと、
     前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させるステップと、を有する、
     メイクアップ支援方法。
  11.  コンピュータに、
     メイクアップを行う対象となる顔毎に、前記メイクアップの仕方であるメイクを選択する処理と、
     前記顔の位置を所定の位置に案内する処理と、
     前記所定の位置を基準として、選択された前記メイクに対応する化粧料を噴霧させる処理と、を実行させる、
     メイクアップ支援プログラム。
     
PCT/JP2014/000591 2013-03-22 2014-02-04 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム WO2014147940A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14770448.0A EP2976964B1 (en) 2013-03-22 2014-02-04 Makeup support device, makeup support method, and makeup support program
CN201480016331.2A CN105188466A (zh) 2013-03-22 2014-02-04 化妆辅助装置、化妆辅助方法以及化妆辅助程序
US14/774,321 US10010155B2 (en) 2013-03-22 2014-02-04 Makeup support device, makeup support method, and makeup support program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-059810 2013-03-22
JP2013059810A JP5372276B1 (ja) 2013-03-22 2013-03-22 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム

Publications (1)

Publication Number Publication Date
WO2014147940A1 true WO2014147940A1 (ja) 2014-09-25

Family

ID=49954917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000591 WO2014147940A1 (ja) 2013-03-22 2014-02-04 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム

Country Status (5)

Country Link
US (1) US10010155B2 (ja)
EP (1) EP2976964B1 (ja)
JP (1) JP5372276B1 (ja)
CN (1) CN105188466A (ja)
WO (1) WO2014147940A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003421A1 (ja) * 2016-06-30 2018-01-04 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
WO2019026942A1 (ja) * 2017-08-04 2019-02-07 株式会社 資生堂 情報処理装置、プログラム、及び、化粧品提供装置

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6288404B2 (ja) 2013-02-28 2018-03-07 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP5372275B1 (ja) 2013-03-22 2013-12-18 パナソニック株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US9616447B2 (en) * 2014-03-28 2017-04-11 The Procter & Gamble Company Material dispensing system and methods
FR3022388B1 (fr) * 2014-06-16 2019-03-29 Antoine HUET Film personnalise et maquette video
US9760762B2 (en) 2014-11-03 2017-09-12 Anastasia Soare Facial structural shaping
WO2016087467A1 (en) 2014-12-02 2016-06-09 L'oreal System for dispensing at least one makeup product and method for dispensing and evaluating makeup
US10602830B2 (en) 2014-12-02 2020-03-31 L'oreal Dispensing system and method for learning to use such a dispensing system
US20170367462A1 (en) 2014-12-02 2017-12-28 L'oreal System for dispensing a makeup product
FR3029090B1 (fr) 2014-12-02 2018-04-06 L'oreal Ensemble comportant un aerographe
CN106998876B (zh) 2014-12-02 2021-01-22 欧莱雅 具有至少两个出口界面的分配系统
US9949547B2 (en) * 2015-06-11 2018-04-24 The Procter & Gamble Company Cartridges for use in an apparatus for modifying keratinous surfaces
US10282914B1 (en) * 2015-07-17 2019-05-07 Bao Tran Systems and methods for computer assisted operation
JP6200483B2 (ja) * 2015-12-23 2017-09-20 株式会社オプティム 画像処理システム、画像処理方法、および画像処理プログラム
US9858685B2 (en) * 2016-02-08 2018-01-02 Equality Cosmetics, Inc. Apparatus and method for formulation and dispensing of visually customized cosmetics
TWI573100B (zh) * 2016-06-02 2017-03-01 Zong Jing Investment Inc 自動臉部化妝方法
JP6902780B2 (ja) * 2017-05-10 2021-07-14 株式会社桃谷順天館 メイク指導装置、メイク指導プログラム、及びメイク指導システム
US10912372B2 (en) 2017-05-16 2021-02-09 Anastasia Beverly Hills, Llc Facial stencils
KR101936751B1 (ko) 2017-05-22 2019-04-09 주식회사 엘지생활건강 화장품 공급 장치 및 그의 동작 방법
CN109299636A (zh) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 可标示腮红区域的身体信息分析装置
CN109407912A (zh) * 2017-08-16 2019-03-01 丽宝大数据股份有限公司 电子装置及其提供试妆信息方法
US11250621B2 (en) * 2017-10-26 2022-02-15 Bao Tran Reality systems
US11191341B2 (en) * 2018-01-11 2021-12-07 Casio Computer Co., Ltd. Notification device, notification method, and storage medium having program stored therein
CN108830919A (zh) * 2018-03-24 2018-11-16 广州帕克西软件开发有限公司 一种多色眼影的仿真方法及装置
US10271629B1 (en) 2018-05-29 2019-04-30 Equality Cosmetics, Inc. Cosmetics portioning machine
CN108932654B (zh) * 2018-06-12 2021-03-26 苏州诚满信息技术有限公司 一种虚拟试妆指导方法及装置
US10575623B2 (en) 2018-06-29 2020-03-03 Sephora USA, Inc. Color capture system and device
KR102070221B1 (ko) * 2018-10-31 2020-01-28 한국기술교육대학교 산학협력단 메이크업 팔레트 장치
JP7450890B2 (ja) * 2019-03-07 2024-03-18 株式会社 資生堂 化粧料放出装置、及び、プログラム
CN115699130A (zh) 2020-03-31 2023-02-03 斯纳普公司 增强现实美容产品教程
JP2023536884A (ja) * 2020-08-03 2023-08-30 ジョンソン アンド ジョンソン コンシューマー インコーポレイテッド 目の下の増白を与えるための化粧品組成物の選択的適用のためのシステム及び方法
EP4222715A1 (en) 2020-09-30 2023-08-09 Snap Inc. Ingestion pipeline for augmented reality content generators
US11849829B2 (en) * 2021-01-29 2023-12-26 L'oreal Remote beauty consultation system
CN113100556A (zh) * 2021-04-14 2021-07-13 深圳维盟网络技术有限公司 一种智能化妆方法及化妆系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346627A (ja) 2000-06-07 2001-12-18 Kao Corp 化粧アドバイスシステム
JP2003044837A (ja) 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003310350A (ja) 2002-04-23 2003-11-05 Oki Electric Ind Co Ltd 化粧品販売装置およびそのプログラム並びにそれを用いた化粧品販売システム
JP2005518278A (ja) 2002-02-25 2005-06-23 ザ プロクター アンド ギャンブル カンパニー 静電噴霧装置
JP2007175384A (ja) 2005-12-28 2007-07-12 Shiseido Co Ltd チークメーキャップのための顔分類方法、顔分類装置、分類見極めマップ、顔分類プログラム、及び該プログラムが記録された記録媒体
JP2008017936A (ja) * 2006-07-11 2008-01-31 Fujifilm Corp 化粧装置及び方法
JP2011130996A (ja) 2009-12-25 2011-07-07 Denso Corp 生体活動計測装置
JP2012502908A (ja) 2008-09-16 2012-02-02 イーエルシー マネージメント エルエルシー 化粧有効成分の標的化/個別送達
JP2012071126A (ja) * 2010-09-21 2012-04-12 Zong Jing Investment Inc 顔メーキャップ適用機械及びそれを用いたメーキャップ適用方法
JP2012086475A (ja) 2010-10-20 2012-05-10 Hitachi Chemical Co Ltd 薄膜転写材及びその製造方法並びに薄膜付き成形体及びその製造方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060034731A1 (en) * 1995-03-27 2006-02-16 California Institute Of Technology Sensor arrays for detecting analytes in fluids
JP2001104050A (ja) 1999-10-06 2001-04-17 Seiko Epson Corp 画像処理を用いた化粧支援方法および化粧台ならびに画像処理を用いた化粧支援処理プログラムを記録した記録媒体
FR2810761B1 (fr) * 2000-06-26 2003-09-05 Oreal Procede et dispositif de traitement cosmetique,notamment de soin, de maquillage ou de coloration
US20030065589A1 (en) * 2001-10-01 2003-04-03 Daniella Giacchetti Body image templates with pre-applied beauty products
JP2005044195A (ja) * 2003-07-23 2005-02-17 Nec Saitama Ltd メイクアップ支援システム、方法、サーバ及びコンピュータで実行するプログラム
CA2618706C (en) 2005-08-12 2018-01-02 Rick B. Yeager System and method for medical monitoring and treatment through cosmetic monitoring and treatment
EP1975870B1 (en) 2006-01-17 2020-08-26 Shiseido Co., Ltd. Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
FR2942405A1 (fr) * 2009-02-23 2010-08-27 Oreal Procede de photomaquillage progressif
CN102406308B (zh) 2010-09-21 2013-07-24 宗经投资股份有限公司 脸部化妆机
US8902334B2 (en) * 2010-10-12 2014-12-02 Sony Corporation Terminal apparatus and method for adding an effect to an image
KR20120087256A (ko) * 2010-12-17 2012-08-07 한국전자통신연구원 전문가 지식 기반 메이크업 로봇의 운용 방법 및 시스템
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP5991536B2 (ja) 2013-02-01 2016-09-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6008323B2 (ja) 2013-02-01 2016-10-19 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6128309B2 (ja) 2013-02-01 2017-05-17 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6132232B2 (ja) 2013-02-01 2017-05-24 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
JP6368919B2 (ja) 2013-08-30 2018-08-08 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
EP3039991A4 (en) 2013-08-30 2016-09-14 Panasonic Ip Man Co Ltd MAKE-UP ASSISTING DEVICE, MAKE-UP ASSISTING METHOD, AND MAKE-UP ASSIST PROGRAM
JP6375480B2 (ja) 2013-08-30 2018-08-22 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6331515B2 (ja) 2014-03-13 2018-05-30 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346627A (ja) 2000-06-07 2001-12-18 Kao Corp 化粧アドバイスシステム
JP2003044837A (ja) 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005518278A (ja) 2002-02-25 2005-06-23 ザ プロクター アンド ギャンブル カンパニー 静電噴霧装置
JP2003310350A (ja) 2002-04-23 2003-11-05 Oki Electric Ind Co Ltd 化粧品販売装置およびそのプログラム並びにそれを用いた化粧品販売システム
JP2007175384A (ja) 2005-12-28 2007-07-12 Shiseido Co Ltd チークメーキャップのための顔分類方法、顔分類装置、分類見極めマップ、顔分類プログラム、及び該プログラムが記録された記録媒体
JP2008017936A (ja) * 2006-07-11 2008-01-31 Fujifilm Corp 化粧装置及び方法
JP2012502908A (ja) 2008-09-16 2012-02-02 イーエルシー マネージメント エルエルシー 化粧有効成分の標的化/個別送達
JP2011130996A (ja) 2009-12-25 2011-07-07 Denso Corp 生体活動計測装置
JP2012071126A (ja) * 2010-09-21 2012-04-12 Zong Jing Investment Inc 顔メーキャップ適用機械及びそれを用いたメーキャップ適用方法
JP2012086475A (ja) 2010-10-20 2012-05-10 Hitachi Chemical Co Ltd 薄膜転写材及びその製造方法並びに薄膜付き成形体及びその製造方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003421A1 (ja) * 2016-06-30 2018-01-04 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
JPWO2018003421A1 (ja) * 2016-06-30 2019-04-18 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
US10567599B2 (en) 2016-06-30 2020-02-18 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and method for processing image
WO2019026942A1 (ja) * 2017-08-04 2019-02-07 株式会社 資生堂 情報処理装置、プログラム、及び、化粧品提供装置
JPWO2019026942A1 (ja) * 2017-08-04 2020-06-25 株式会社 資生堂 情報処理装置、プログラム、及び、化粧品提供装置
JP7211950B2 (ja) 2017-08-04 2023-01-24 株式会社 資生堂 情報処理装置、プログラム、及び、化粧品提供装置
US11666133B2 (en) 2017-08-04 2023-06-06 Shiseido Company, Ltd. Information processing apparatus, program, cosmetic dispenser

Also Published As

Publication number Publication date
EP2976964B1 (en) 2018-09-12
EP2976964A1 (en) 2016-01-27
JP2014183917A (ja) 2014-10-02
CN105188466A (zh) 2015-12-23
US10010155B2 (en) 2018-07-03
JP5372276B1 (ja) 2013-12-18
US20160015152A1 (en) 2016-01-21
EP2976964A4 (en) 2016-04-06

Similar Documents

Publication Publication Date Title
JP5372276B1 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US10413042B2 (en) Makeup support device, makeup support method, and makeup support program
US20200167983A1 (en) Precise application of cosmetic looks from over a network environment
US11147357B2 (en) System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
JP6288404B2 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US10479109B2 (en) Automatic facial makeup method
EP2120709B1 (en) System and method for providing simulated images through cosmetic monitoring
AU2013200395B2 (en) System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
CN107160865A (zh) 图像处理装置、印刷装置及图像处理方法
CN112733007A (zh) 一种智能化妆方法及化妆镜
CN115393924A (zh) 一种基于面部纹理信息的选品方法、装置、设备、介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480016331.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14770448

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14774321

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2014770448

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE