WO2019130933A1 - 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム - Google Patents

身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム Download PDF

Info

Publication number
WO2019130933A1
WO2019130933A1 PCT/JP2018/043362 JP2018043362W WO2019130933A1 WO 2019130933 A1 WO2019130933 A1 WO 2019130933A1 JP 2018043362 W JP2018043362 W JP 2018043362W WO 2019130933 A1 WO2019130933 A1 WO 2019130933A1
Authority
WO
WIPO (PCT)
Prior art keywords
makeup
image
sheet
area
user
Prior art date
Application number
PCT/JP2018/043362
Other languages
English (en)
French (fr)
Inventor
雅世 篠田
真里 小野寺
さち子 竹下
理惠子 浅井
千枝 西
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP18895145.3A priority Critical patent/EP3733019A4/en
Priority to CN201880073791.7A priority patent/CN111356383A/zh
Priority to SG11202005625XA priority patent/SG11202005625XA/en
Publication of WO2019130933A1 publication Critical patent/WO2019130933A1/ja
Priority to US16/857,770 priority patent/US20200250404A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1296Printer job scheduling or printer resource handling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Definitions

  • the present disclosure relates to a body appearance correction support device, a body appearance correction support method, and a computer program.
  • colors used for makeup may differ from user to user
  • techniques are known for producing a cosmetic in which a set of colors is customized for each user.
  • a user selects a set of colored ink colors to be used for makeup, and displays a simulation of appearance made up using the selected set of colored ink colors.
  • a technique is disclosed for printing a set of colored ink colors on a substrate and providing the printed substrate to a user.
  • One aspect of the present disclosure is to improve the customization of a sheet created and provided for an individual user as a support target person in supporting visual correction of body appearance using a sheet that can be attached to the body.
  • the physical appearance correction support device is a physical appearance correction support device that supports visual correction of a physical appearance using a sheet that can be attached to a physical body, and from the physical image of the body taken,
  • a feature analysis unit that analyzes a feature related to the appearance shape of the body based on the skeleton of the body and generates body feature information indicating the analyzed feature, and the body based on the generated body feature information
  • a makeup determination unit that determines makeup that can visually correct the appearance shape of the image
  • a print information generation unit that generates print information related to printing of a makeup image on the sheet based on the determined makeup Prepare.
  • the customization of the sheet created and provided for each individual user who is the support target Can be improved.
  • FIG. 1 is a block diagram showing an example of the configuration of a makeup assisting apparatus according to a first embodiment;
  • the schematic diagram which shows the example of the procedure which produces
  • the schematic diagram for demonstrating the example of the method of extracting the skeletal feature point of a face.
  • FIG. 7 is a schematic view showing an example of a procedure for generating a make-up sheet for a leg according to the second embodiment.
  • FIG. 14 is a schematic view showing an example of a sticking assistance device for a make sheet according to a fourth embodiment.
  • FIG. 14 is a block diagram showing an example of the configuration of a makeup assisting apparatus according to a fifth embodiment; The figure for demonstrating the method to determine the makeup area of eyebrows. The figure for demonstrating the method to determine the makeup area of eyebrows.
  • FIG. 18 is a block diagram showing an example of the configuration of a makeup assisting apparatus according to a sixth embodiment; The figure for demonstrating the extension length L1 of a double line, and the extension length L2 of an eyeline. The figure for demonstrating the extension length L1 of a double line, and the extension length L2 of an eyeline. The figure for demonstrating the method to determine the shape of a double line. The figure for demonstrating the method to determine the shape of an eye line. The figure for demonstrating the method to determine the shape of an eye line. The figure for demonstrating the method to determine the shape of an eye line.
  • region of eye shadow The figure for demonstrating the method to determine the area
  • the block diagram which shows the example of the hardware constitutions of the makeup assisting device concerning this indication.
  • the makeup support device 10 is an example of a body appearance correction support device that supports visual correction of the body appearance using a sheet that can be attached to the body.
  • the makeup assisting apparatus 10 is an apparatus for producing a sheet (hereinafter referred to as a “make sheet”) for applying to the body to make up the body, or for supporting the production.
  • the makeup assisting apparatus 10 prints makeup ink on a thin and transparent sheet (thin film) to generate a makeup sheet.
  • the user changes the appearance of the part by pasting the make sheet on various parts of the body, such as the face, legs, arms, back, chest, and nails, that is, visual correction for the part You can get the effect.
  • the user can make the face look smaller (child face effect) or three-dimensional by sticking a makeup sheet on which low-light and highlight makeup is printed on the face.
  • the user can make the leg look thinner by sticking a make-up sheet with low light and highlight makeup printed on the leg (slimming effect). That is, makeup assisting apparatus 10 generates a makeup sheet that makes the user's face and proportion more attractive.
  • the makeup assisting apparatus 10 assists the generation of such a makeup sheet.
  • Makeup assisting apparatus 10 includes an imaging control unit 101, a body analysis unit 102, a makeup determination unit 103, a makeup image generation unit 104, a print information generation unit 105, a print control unit 106, and an input reception unit 107. , A display control unit 108, and a storage unit 109.
  • the makeup assisting apparatus 10 may have only a part of these functions.
  • the imaging control unit 101 controls the camera device 11 to capture an image of the user's body, and acquires the captured body image 110 from the camera device 11.
  • the imaging control unit 101 stores the acquired body image 110 in the storage unit 109 or provides the body analysis unit 102.
  • the photographing control unit 101 may control the position and / or the light amount of the lighting device 12 at the time of photographing. Thereby, the shadow of the body image 110 can be adjusted.
  • the shooting control unit 101 may control the camera device 11 to shoot either a still image or a moving image. That is, the body image 110 is not limited to a still image, and may be a moving image.
  • the body analysis unit 102 analyzes body characteristics from the body image 110, and generates body feature information 111 based on the analysis result.
  • the body characteristic information 111 includes, for example, information indicating a part of a body, information indicating unevenness of a body, information indicating a skeletal shape of a body, information indicating a characteristic position of a skeleton (hereinafter referred to as “skeletal feature point”), And / or information indicating the skin color of the body may be included.
  • the body analysis unit 102 stores the generated body characteristic information 111 in the storage unit 109 or provides the makeup determination unit 103.
  • the makeup determination unit 103 determines makeup suitable for the shape and / or skin color of the user's body based on the body characteristic information 111. For example, the makeup determination unit 103 may select a highlight and low light makeup area (hereinafter referred to as “make area”) suitable for the user's skeletal shape and a makeup color applied to the makeup area (hereinafter referred to as “make color”). Decide.
  • the makeup determination unit 103 generates makeup information 112 including the determination result, and stores the makeup information in the storage unit 109 or provides the makeup information generation unit 104.
  • the makeup image generation unit 104 generates a makeup image 114 which is an image obtained by applying makeup on the makeup information 112 to the body image 110.
  • the makeup image generation unit 104 may display the generated makeup image 114 on a display device (not shown) such as a display via the display control unit 108. This allows the user to visually confirm the image of the body after makeup, that is, the image of the body after applying the makeup sheet.
  • the input reception unit 107 receives correction of makeup (or change of makeup) from the user who has confirmed the makeup image 114.
  • the input reception unit 107 transmits the correction content to the makeup determination unit 103.
  • Makeup determining section 103 reflects the correction content in makeup information 112. Thereby, makeup information 112 suitable for the user's request can be generated. That is, it is possible to suppress the generation of a make sheet that is not suitable for the user's request.
  • the print information generation unit 105 determines how to print the content of the makeup information 112 (makeup image) on a sheet, and generates print information 113 including the determination result. For example, the print information generation unit 105 determines the print area and the ink on the sheet that respectively correspond to the make area and the make color. The print information generation unit 105 stores the generated print information 113 in the storage unit 109 or provides the print control unit 106.
  • the print control unit 106 controls the printing apparatus 13 to print the ink for makeup on the print area of the sheet based on the print information 113 and generate a makeup sheet.
  • the print control unit 106 may transmit the print information 113 to the printing apparatus 13, and the printing apparatus 13 may generate a make sheet based on the received print information 113.
  • the print control unit 106 may transmit the print information 113 to a predetermined facility provided with the printing apparatus 13, and generation of the make sheet may be performed at the facility. Also, relatively large make sheets may be transported in roll packages. This can prevent the make sheet from being creased.
  • the imaging control unit 101 and the body analysis unit 102 may have one or a combination of two or more of the following functions (A1) to (A6).
  • the imaging control unit 101 measures the illuminance using an illuminance meter while gradually increasing the light amount of the illumination device 12, performs imaging at a timing when a predetermined illuminance is measured, and acquires the body image 110. Thereby, the robustness of the color measurement with respect to the disturbance is improved, and the body analysis unit 102 and the makeup determination unit 103 can extract the skin color more accurately.
  • the example shown here presupposes that the camera apparatus 11 is a three-dimensional camera apparatus which image
  • the imaging control unit 101 captures an image of the body in three dimensions using the three-dimensional camera device 11, and obtains a body image 110 including three-dimensional information from the three-dimensional camera device 11.
  • the body analysis unit 102 can analyze the unevenness and the skeletal shape of the body more accurately from the body image 110 including three-dimensional information.
  • the body analysis unit 102 may calculate the curvature of the unevenness and the skeletal shape of the body from the body image 110 including the three-dimensional information, and may include the curvature in the body characteristic information 111.
  • the imaging control unit 101 continuously captures faces of different angles while having the user move the face left and right.
  • the physical analysis unit 102 analyzes facial features using a plurality of face images captured in this manner, and generates facial feature information, which is an example of the physical feature information 111. Thereby, the body analysis unit 102 can analyze face features more accurately than in the case of using a face image captured from one direction.
  • the imaging control unit 101 controls the illumination device 12 to illuminate the site of the body from different directions, and controls the camera device 11 to capture an image of the site. Thereby, the imaging control unit 101 can acquire the body image 110 in which the shadow produced by the unevenness of the body part is more pronounced.
  • the body analysis unit 102 can analyze the unevenness and the skeletal shape of the body more accurately by using the body image 110 captured in this manner.
  • the appropriate direction of illumination may differ depending on the part of the body to be imaged.
  • the imaging control unit 101 captures and acquires at least two body images 110 having different expressions or postures.
  • the body analysis unit 102 analyzes the amount of change in body shape in these body images 110, and based on the region where the amount of change is less than a predetermined threshold (that is, the change in body shape is relatively small) Identify.
  • the body analysis unit 102 analyzes the moving part and the non-moving part when changing the expression or the posture, and separately from the feature point indicating the shape of muscle or subcutaneous tissue such as cheek meat or jaw meat, Identify feature points that indicate the shape of the skeleton such as the jaw bone.
  • the body analysis unit 102 analyzes body characteristics (for example, a recess and a protrusion) for each user using body feature information 111 in a typical body.
  • Body characteristic information 111 in a typical body may differ depending on the gender, age, height and / or weight of the user. Thereby, the body analysis unit 102 can analyze body characteristics of each user more accurately.
  • the makeup determination unit 103 and the makeup image generation unit 104 may have one of the functions described in (B1) to (B7) below or a function combining two or more.
  • the makeup determination unit 103 determines the tone or L value of the makeup color of the highlight. Is raised in pixel units, and the makeup information 112 is corrected.
  • the makeup image generation unit 104 generates the makeup image 114 using the corrected makeup information 112 and displays it again. By repeating this, the user can transmit (enter) the desired makeup to the makeup assisting apparatus 10.
  • the makeup determination unit 103 extracts the skin color in the low light makeup area using the body characteristic information 111 (or the body image 110). Then, the makeup determination unit 103 fixes the hue of the extracted skin color and lowers the color tone, or fixes the a and b values of the Lab color space and lowers the L value, thereby Determine the makeup color in the makeup area. As a result, the makeup determination unit 103 can determine the makeup color of the low light suitable for the skin color of the user. However, the makeup determination unit 103 does not necessarily have to extract the skin color in the low light makeup area.
  • the makeup determination unit 103 extracts the skin color at a plurality of points on the body, and determines the makeup color in the low light makeup area as described above, using the average value of the extracted skin colors. It is also good.
  • the plurality of points on the body may be, for example, a plurality of points in the face region when the low light makeup area is a face, and may be a plurality of points in the decollete area when the low light makeup area is a decollete .
  • the makeup determination unit 103 calculates the curvature of the convex part of the body from the body characteristic information 111, and determines the size of the highlight makeup area in the convex part according to the size of the curvature. For example, as the curvature of the convex portion is smaller (that is, as the convex surface is steeper), the makeup determination unit 103 reduces (makes narrow) the make-up area of the highlight and the curvature of the convex portion increases (that is, the convex surface is gentler). So, make the highlight area of the highlight larger. Thereby, the makeup determination unit 103 can determine the makeup area of the highlight suitable for the shape of the user's body.
  • makeup determining unit 103 determines the density of makeup color at a position separated by a distance d or more from the outer periphery of central area 202 included in makeup area 201 of highlight as the density of makeup color in that central area. Determine 50% or more.
  • the distance d is preferably 2 mm or more. It is because the gap at the time of affixing a makeup sheet is often settled within 2 mm from experience.
  • the makeup determination unit 103 may determine the density of the makeup color of the highlight to be smaller as it goes away from the central region, that is, the makeup color to be gradation. In this way, the user can easily paste the makeup sheet on which makeup of the highlight is to be performed while hiding the stains or wrinkles of the skin with the makeup color of the central area at an appropriate position without performing high-accuracy positioning. Can.
  • the makeup determination unit 103 presents the user with a choice of makeup image keywords, which is a keyword representing a makeup image.
  • the user selects a desired makeup image keyword from the options, and inputs the selected makeup image keyword to the input accepting unit 107.
  • Makeup determining section 103 determines the makeup color of the highlight and the low light based on the selected makeup image keyword.
  • the makeup determination unit 103 presents "Glossy”, “Mat”, “Semi-mat”, etc. as options of the makeup image keyword related to the texture.
  • the makeup determination unit 103 presents “sharp”, “adult”, “good”, etc. as choices of makeup image keywords related to the atmosphere.
  • the makeup determination unit 103 presents “Nearly summer”, “Christmas”, and the like as options of makeup image keywords related to the feeling of season.
  • the makeup determination unit 103 presents "party”, “interview”, etc. as options of makeup image keywords related to a place.
  • the makeup determination unit 103 may determine the makeup color with reference to the keyword information in which the makeup image keyword is associated with the highlight and low-light makeup colors.
  • the keyword information may further be associated with the position and shape of the highlight and low light makeup regions, etc., for the makeup image keyword.
  • the user can select a makeup image keyword and easily transmit (enter) the desired makeup to the makeup assisting apparatus 10.
  • the makeup determination unit 103 determines the makeup area and makeup color of the highlight and the low light based on the drawn makeup. Thereby, the user can easily transmit (enter) the desired makeup to the makeup assisting apparatus 10.
  • the shooting control unit 101 shoots the body before and after makeup, respectively.
  • the makeup determination unit 103 extracts an area in which the color is changing from the body image 110 before makeup and after makeup. In short, the makeup determination unit 103 extracts the area and color of makeup actually applied to the body. Then, the makeup determination unit 103 determines the makeup area and makeup color of the highlight and the low light based on the extracted area. Thereby, desired makeup can be easily transmitted (inputted) to makeup assisting apparatus 10. In addition, the user can easily apply the makeup sheet generated as such to easily reproduce makeup similar to the body image 110 after makeup.
  • the print information generation unit 105 of the makeup support apparatus 10 may have one or a combination of two or more of the functions described in (C1) to (C5) below.
  • the print information generation unit 105 uses the ink for hiding the stain and the ink corresponding to the makeup color of the cheek. And print information 113 to be stacked and printed by the inkjet method. This makes it possible to print the make sheet for hiding stains on the cheek and the make sheet to be subjected to cheek separately, and to reduce the printing time and the time required for sticking compared to the case where each is attached to the cheek.
  • the print information generation unit 105 selects a spice component in accordance with the makeup image keyword selected by the user in the above (B5), and generates print information 113 to be printed using an ink containing the selected spice component. Alternatively, the print information generation unit 105 generates the print information 113 employing the sheet containing the selected flavor component.
  • the makeup image keyword and the spice component may be associated in advance. In this way, it is possible to generate a make-up sheet that produces not only visual effects but also scent effects.
  • the print information generation unit 105 generates print information 113 to be printed using a special ink that emits light or emits light due to light or temperature change. This makes it possible to generate a make-up sheet in which characters or designs are displayed under limited conditions without affecting visual effects.
  • the print information generation unit 105 generates print information 113 for printing personal information (or identification information) such as the user's name and address by using a special ink.
  • the print information 113 may include information such as characters, numbers, bar codes, and / or QR codes (registered trademark) indicating personal information (or identification information).
  • the user can prove his / her identity without carrying a name tag or a certificate by sticking the make sheet thus generated on the body.
  • the print information generation unit 105 When the brightness of the highlight is relatively high (equal to or higher than a predetermined threshold value), the print information generation unit 105 generates the print information 113 using the ink including the lame material or the white pigment. This allows the highlights to be printed more beautifully.
  • the print information generation unit 105 prints using an ink containing a white pigment and then prints using an ink corresponding to the makeup color. Print information 113 is generated. This improves the coloration of the make sheet.
  • the print control unit 106 may have one function or a function combining two or more of the functions described in (D1) to (D4) below.
  • the print control unit 106 After printing the first ink on the sheet by the inkjet method, the print control unit 106 prints the second ink on the necessary position of the sheet by the spray method.
  • the printing control unit 106 uses a spray method to print a second ink including a lame material, a pearl material, and the like, which have a relatively large specific gravity or particle size and are easily sedimented in the liquid.
  • the print control unit 106 employs a sheet in which polymer particles, the glitter material, and / or a pearl pigment material are mixed. Thereby, the tact time of the printing process can be shortened as compared with the case where the ink containing the lame material and the like is printed by the inkjet method.
  • seat is 250 micrometers or less.
  • particles larger than 250 ⁇ m are mixed into the sheet, the sheet is likely to be broken (that is, the durability is low).
  • the print control unit 106 prints an ink including an oil adsorbing component on the surface of the sheet in contact with the skin.
  • the print control unit 106 prints an ink including an oil adsorbing component on the lowermost layer on the side of the sheet not in contact with the skin.
  • the print control unit 106 prints an adhesive including a lame material on a sheet after printing a glue for fixing the lame.
  • fine lame material can be printed.
  • peeling of the lame material is reduced, and the makeup retention of the make sheet is improved.
  • the sheet structure may be a thin film, a highly breathable mesh, a non-woven fabric, or the like. Moreover, in order to make handling easy, the structure by which the sheet
  • the support is, for example, a paper, a non-woven fabric, a plastic film whose surface has been subjected to a hydrophilic treatment, a sponge having water absorbency, and the like.
  • the sheet component is, for example, polyester type, polyether type, polyamide / polyimide, polysaccharide, silicone type, acrylic acid type, olefin resin, polyurethane, conductive polymer, other polymers and the like.
  • the polyester type is, for example, polyglycolic acid, polylactic acid, polycaprolactone, polyethylene succinate, polyethylene terephthalate and the like.
  • the polyether type is, for example, polyethylene glycol, polypropylene glycol and the like.
  • the polyamide / polyimide is, for example, nylon, polyglutamic acid, polyimide or the like.
  • polysaccharides examples include pullulan, cellulose (such as carboxymethylcellulose and hydroxyethylcellulose), pectin, arabinoxylan, glycogen, amylose, amylopectin, and hyaluronic acid.
  • polysaccharides are, for example, starch, chitin, chitosan, alginic acid, corn starch and the like.
  • the silicone type is, for example, acrylic silicone, trimethylsiloxysilicic acid, dimethicone and the like.
  • the acrylic acid type is, for example, an acrylic acid / silicone copolymer, an alkyl acrylate / amide copolymer and the like.
  • the olefin resin is, for example, polyethylene, polypropylene or the like.
  • the conductive polymer is, for example, polyaniline, polythiophene, polypyrrole and the like.
  • polymers are, for example, polyvinyl alcohol, polycarbonate, polystyrene, Nafion and the like.
  • the ink is composed of, for example, water, alcohol, a coloring material and / or a film forming agent.
  • the ink used to print highlight makeup may include a pearlescent agent, a lame agent and / or a soft focus agent, and the like.
  • the alcohol is, for example, ethanol, ethyl alcohol, glycerin or propanediol.
  • the colorant is, for example, an inorganic pigment such as zinc oxide, titanium oxide, aluminum hydroxide, aluminum oxide, zirconium oxide, cyclopentasiloxane, silica, cerium oxide or the like.
  • the colorant may be an organic pigment, a dye, a phosphor or the like.
  • the pearlescent agent, soft focus agent or lame agent is, for example, the following.
  • ⁇ White pigments such as titanium oxide, zinc oxide, cerium oxide, barium sulfate ⁇ Talc, muscovite, phlogopite, flash mica, biotite, synthetic mica, sericite (sericite), synthetic sericite, kaolin, silicon carbide, Bentonite, smectite, anhydrous silica, aluminum oxide, magnesium oxide, zirconium oxide, antimony oxide, diatomaceous earth, aluminum silicate, magnesium aluminum metasilicate, calcium silicate, barium silicate, magnesium silicate, calcium carbonate, magnesium carbonate White powder, calcium aluminum borosilicate, hydroxyapatite, boron nitride etc., titanium dioxide coated mica, titanium dioxide coated glass powder, titanium dioxide coated bismuth oxychloride, titanium dioxide coated mica, titanium dioxide coated talc, iron oxide coated mica Bright powder such as iron oxide coated mica titanium, iron oxide coated glass powder,
  • the film forming agent or film forming agent is, for example, an acrylate resin, (alkyl acrylate / octyl acrylamide) copolymer, tricontanyl PVP, (eicosene / vinyl pyrrolidone) copolymer, (vinyl pyrrolidone / hexadecene) copolymer, glyceryl glucoside, glycosyl trehalose, water Cracked hydrogenated starch (sugar alcohol), emulsion resin, etc.
  • an acrylate resin alkyl acrylate / octyl acrylamide copolymer
  • tricontanyl PVP (eicosene / vinyl pyrrolidone) copolymer
  • (vinyl pyrrolidone / hexadecene) copolymer glyceryl glucoside
  • glycosyl trehalose water Cracked hydrogenated starch (s
  • the user first directs the front of the face to the camera device 11 as shown in FIG. 3 (a).
  • at least one illumination device 12 is disposed at a position to illuminate the face.
  • the imaging control unit 101 controls the illumination device 12 to illuminate the face, controls the camera device 11 to capture a face from the front, and acquires a face image as an example of the body image 110 from the camera device 11 Do.
  • the body analysis unit 102 analyzes the face image and generates face feature information which is an example of the body feature information 111.
  • the body analysis unit 102 analyzes the skeletal shape of the face using the face image, and extracts skeletal feature points of the face.
  • the skeletal feature points may be represented by coordinate points in a three-dimensional space. Note that a method of extracting face feature points of the face will be described later.
  • the makeup determination unit 103 uses the facial feature points of the face to determine the highlight and low light makeup areas and makeup color suitable for the user's face. The method of determining the makeup area of the face will be described later.
  • the makeup image generation unit 104 uses the makeup information 112 to generate a makeup image 114 in which makeup of highlight and low light is applied to the face image. Then, as shown in FIG. 3B, the makeup image generation unit 104 displays the makeup image 114 on the display device via the display control unit 108.
  • the user confirms the makeup image 114, and if he wishes to correct makeup, the user inputs the details of the correction through the input accepting unit 107.
  • the input reception unit 107 transmits the input correction content to the makeup determination unit 103.
  • the makeup determination unit 103 corrects the makeup information 112 based on the correction content, and the makeup image generation unit 104 displays the makeup image 114 after the correction.
  • the user When the user does not need to correct the makeup, the user inputs "OK” via the input receiving unit 107.
  • the input receiving unit 107 transmits to the makeup determining unit 103 that "OK" has been input.
  • makeup determining unit 103 determines makeup information 112.
  • the print information generation unit 105 generates print information 113 for printing a makeup sheet for the face, using the determined makeup information 112.
  • the print control unit 106 controls the printing apparatus 13 to print a makeup sheet for the face based on the print information 113.
  • a makeup sheet on which highlight and low-light makeup images are printed is generated.
  • the user sticks the side of the makeup sheet placed on the support to his face and peels off the support.
  • a makeup sheet is attached to the face of the user, and makeup of highlight and low light suitable for the face of the user is applied to the face of the user.
  • the facial feature points of the face may be extracted by one of the following methods (E1) to (E4) or a method combining two or more.
  • the body analysis unit 102 includes face feature points related to face parts such as the eye 301, the nose 302, the nose muscle center 303, the middle point 304 of the jaw, the middle point 305 of the lip, and the apex 306 of the temple. Extract. Next, the body analysis unit 102 extracts an intersection point 309 between the vertical line 307 passing through the eyeball 301 and the horizontal line 308 passing through the subnasal 302 as a skeletal feature point below the cheekbone. Further, an intersection point 311 of the vertical line 307 and the horizontal line 310 passing through the nasal muscle center 303 is extracted as a skeletal feature point of the cheekbone. Further, the body analysis unit 102 extracts a central point 313 of a line segment 312 connecting the central point 304 of the jaw and the central point 305 of the lip as a skeletal feature point of the mandible.
  • the imaging control unit 101 controls the illumination device 12 disposed above the face to illuminate the face from above and controls the camera device 11 to capture a face, and the upper side Acquire an illuminated face image. Furthermore, the imaging control unit 101 controls the illumination device 12 disposed below the face to illuminate the face from below, controls the camera device 11 to capture a face, and acquires a face image of downward illumination.
  • the body analysis unit 102 starts from an area in which the brightness is relatively high (more than a predetermined threshold) in the upper illuminated face image and relatively dark (less than the predetermined threshold) in the lower illuminated face image. As shown in FIG. 4, a skeletal feature point 311 on the upper cheekbone is identified.
  • the makeup determination unit 103 determines the vicinity of the skeletal feature point 311 in the upper part of the cheekbone as the highlight makeup area.
  • the imaging control unit 101 captures a face of the first expression and acquires a face image of the first expression. Furthermore, the imaging control unit 101 captures a face of the second expression and acquires a face image of the second expression.
  • the body analysis unit 102 extracts a skeletal feature point from an area in which the amount of change in the image is relatively small (less than a predetermined threshold) between the face image of the first expression and the face image of the second expression. .
  • the first expression and the second expression may be any expressions as long as they are expressions different from each other.
  • the first expression and the second expression may be expressionless and smile.
  • the first facial expression and the second facial expression may be a combination of any two of the expression with the mouth closed, the expression with the mouth wide open, and the expression with the mouth recessed.
  • the imaging control unit 101 controls the illumination device 12 to illuminate the face, and controls the camera device 11 to capture a face, and acquires an illuminated face image.
  • the body analysis unit 102 specifies an outline of the face from the illuminated face image. Then, the body analysis unit 102 extracts a first candidate point from a section in which the amount of change in curvature is relatively large (equal to or greater than a predetermined threshold) in the identified contour line.
  • the body analysis unit 102 extracts a second candidate point from a region where the shadow difference is relatively large (the lightness difference is equal to or greater than a predetermined threshold) from the illuminated face image.
  • the body analysis unit 102 sets a point common to the first candidate point and the second candidate point as a skeletal feature point.
  • the makeup area of the face may be determined by one of the following (F1) or (F2) methods or a combination of the two.
  • the makeup determination unit 103 determines the makeup region as follows. That is, as shown in FIG. 4, the makeup determination unit 103 determines the low light makeup area so as to include the area 314 connecting the skeletal feature point (309) below the cheekbone and the apex 306 of the temple. Further, makeup determining section 103 determines area 315 in the vicinity of the skeletal feature point (313) of the mandible as a makeup area of highlight. In addition, the makeup determination unit 103 determines the area 316 in the vicinity of the skeletal feature point (311) of the cheekbone as the highlight makeup area.
  • the makeup determination unit 103 determines makeup regions of highlight and low light using the facial feature information of the user and the average or ideal facial feature information.
  • the makeup determination unit 103 determines the makeup area as follows.
  • the makeup determination unit 103 compares the skeleton shape t1 of the user with the reference (ideal) skeleton shape T.
  • makeup determining section 103 specifies protruding regions X1 and X2 where the user's skeletal shape t1 protrudes from the reference skeletal shape T.
  • makeup determining section 103 specifies insufficient regions Y1 and Y2 in which skeletal shape t1 of the user is insufficient with respect to skeletal shape T of the reference.
  • the makeup determining unit 103 determines areas L1 and L2 corresponding to the protruding areas X1 and X2 in the face image as the low-light makeup area.
  • the makeup determining unit 103 determines areas H1 and H2 corresponding to the insufficient areas Y1 and Y2 as the makeup area of highlight, in the face image.
  • the makeup determination unit 103 determines the makeup area as follows.
  • the makeup determination unit 103 compares the skeleton shape t2 of the user with the reference (ideal) skeleton shape T.
  • makeup determining section 103 specifies protruding regions X3 and X4 in which the user's skeleton shape t2 protrudes from the reference skeleton shape T.
  • makeup determining section 103 specifies insufficient regions Y3 and Y4 in which skeletal shape t2 of the user is short with respect to skeletal shape T of the reference.
  • the makeup determining unit 103 determines areas L3 and L4 corresponding to the protruding areas X3 and X4 in the face image as the low-light makeup area.
  • makeup determining section 103 determines areas H7 and H8 corresponding to insufficient areas Y3 and Y4 in the face image as the makeup area of highlight.
  • makeup assisting apparatus 10 generates facial feature information including skeletal feature points from the face image in body analysis unit 102, and skeletal feature points included in the facial feature information in makeup determination unit 103. Based on, determine the makeup area and makeup color of the low light and highlight for the face.
  • the skeleton feature point is a portion that can be a reference position when determining individual differences between users and when determining a makeup region or the like. Therefore, by identifying the shape of the body based on the skeleton of the user from the captured camera image of the appearance of the user's body, it is possible to accurately determine the highlight and low-light makeup regions according to the individual user. Therefore, it is possible to easily generate a make sheet suitable for each user. That is, the customization of the sheet is improved.
  • a relatively simple method using a camera apparatus for photographing the appearance of the body is used. Feature points can be identified.
  • Second Embodiment In the second embodiment, a case will be described in which a makeup sheet for applying highlighting and low-light makeup to legs is generated using makeup assisting apparatus 10 shown in FIG. Further, in the third embodiment, a case is also described in which a make-up sheet for applying make-up to parts of the body other than the face and the legs is generated.
  • the user first directs the front of the leg to the camera device 11 as shown in FIG. 7 (a).
  • at least one illumination device 12 is disposed at a position to illuminate the leg.
  • the imaging control unit 101 controls the illumination device 12 to illuminate the leg, controls the camera device 11 to capture the leg from the front, and acquires a leg image which is an example of the body image 110 from the camera device 11 Do.
  • the body analysis unit 102 analyzes the leg image and generates leg feature information which is an example of the body feature information 111.
  • the body analysis unit 102 analyzes the skeletal shape of the leg using the leg image, and extracts the skeletal feature point of the leg.
  • the makeup determination unit 103 uses the skeletal shape and skeletal feature points of the leg to determine the highlight and low light makeup area and makeup color suitable for the user's leg. The method of determining the make-up area of the leg will be described later.
  • the makeup image generation unit 104 uses the makeup information 112 to generate a makeup image 114 in which highlights and low-light makeup are applied to the leg image. Then, as shown in FIG. 7B, the makeup image generation unit 104 displays the makeup image 114 on the display device via the display control unit 108.
  • the user confirms the makeup image 114, and if he wishes to correct makeup, the user inputs the details of the correction through the input accepting unit 107.
  • the input reception unit 107 transmits the input correction content to the makeup determination unit 103.
  • the makeup determination unit 103 corrects the makeup information 112 based on the correction content, and the makeup image generation unit 104 displays the makeup image 114 after the correction.
  • the user When the user does not need to correct the makeup, the user inputs "OK” via the input receiving unit 107.
  • the input receiving unit 107 transmits to the makeup determining unit 103 that "OK" has been input.
  • makeup determining unit 103 determines makeup information 112.
  • the print information generation unit 105 generates the print information 113 for printing the makeup sheet for the legs, using the determined makeup information 112.
  • the print control unit 106 controls the printing apparatus 13 using the print information 113 to print a make sheet for the leg.
  • a make-up sheet on which the makeup of the highlight and low light applied to the leg is printed is generated.
  • the user sticks the side of the makeup sheet placed on the support to his / her leg and peels off the support.
  • the make sheet is attached to the leg of the user, and the highlight and low light makeup suitable for the user leg are applied to the leg of the user.
  • the make-up area of the leg may be determined by one of the following (G1) to (G3), or a combination of at least two.
  • the makeup determination unit 103 calculates the leg width L of the user, as shown in FIG. 8, based on the leg feature information.
  • the leg width L may be calculated at a plurality of different positions of the left leg and the right leg of the user.
  • the makeup determination unit 103 determines the width of the highlight makeup area at the leg width L based on the ideal ratio of the width of the highlight makeup area and the width of the low light makeup area to the predetermined leg width.
  • a and the widths b1 and b2 of the low light makeup area are determined and included in the makeup information 112.
  • the print information generation unit 105 uses the width a of the highlight make area to the width a 'of the highlight print area 401 and the width b1 of the low light make area.
  • the widths b1 ′ and b2 ′ of the low-light print area 402 are calculated from b2 and b2 to generate the print information 113.
  • the photographing control unit 101 controls the illumination device 12 disposed on the left side of the leg to illuminate the leg from the left side, and controls the camera device 11 to photograph the leg. And acquire a leg image of the left radiation. Furthermore, the photographing control unit 101 controls the lighting device 12 disposed on the right side of the leg to illuminate the user's leg from the right side, controls the camera device 11 to photograph the leg, and Get leg image.
  • the makeup determination unit 103 determines an area having a relatively high lightness (equal to or higher than a predetermined threshold) in any of the left and right leg images, as a highlight makeup area.
  • makeup determination section 103 has a relatively low lightness (is less than a predetermined threshold) in a region where the lightness is relatively low (less than a predetermined threshold) in the leg image of leftward irradiation and in the leg image ) And the regions are respectively determined as low light make regions.
  • the photographing control unit 101 controls the camera device 11 to photograph a leg in a posture in which the knee is extended, and acquires a leg image of the first posture. Furthermore, the photographing control unit 101 controls the camera device 11 to photograph a leg in a posture in which the knee is bent, and acquires a leg image in a second posture.
  • the body analysis unit 102 compares the leg image of the first posture with the leg image of the second posture, analyzes the change of the leg part, and specifies the skeletal feature point of the leg. Thereby, the body analysis unit 102 can more accurately identify skeletal feature points of various parts of the leg, such as the knee, the thigh, the calf, and the Achilles tendon.
  • the makeup determination unit 103 uses the thus-generated leg feature information to determine the highlight and low light makeup areas for the leg.
  • the imaging control unit 101 captures a decollete in a natural state of the user, and acquires a decollete image of the first posture. Furthermore, the imaging control unit 101 captures a decollete in a state in which the user puts the chest close and lifts it, and acquires a decollete image of the second posture.
  • the makeup determining unit 103 compares the first posture decollete image with the second posture decollete image to extract a region in which the shadow is changing. Then, the makeup determination unit 103 determines the extracted area as the low light and highlight makeup area. For example, as shown in FIG. 10, the makeup determination unit 103 determines, in the decollete image of the second posture, an area 501 which is brighter than the decollete image of the first posture as the highlight makeup area, An area 502 which is darker than the first posture decollete image is determined as the low light makeup area.
  • the imaging control unit 101 captures a back of the user in a natural state, and acquires a back image of the first posture. Furthermore, the imaging control unit 101 captures an image of the back in a state in which the user draws the scapula of the back, and acquires a back image of the second posture.
  • the makeup determination unit 103 compares the back image of the first posture with the back image of the second posture to extract an area in which the shadow is changing. Then, the makeup determination unit 103 determines the extracted area as the low light and highlight makeup area. For example, in the back image of the second posture, the makeup determination unit 103 determines an area which is darker than the back image of the first posture as the makeup region of the low light, and the determined low light makeup The vicinity of the area is determined to be the highlight make area.
  • the imaging control unit 101 captures an image of the clavicle in a state in which the user lowers his / her hands, and acquires a clavicle image of the first posture. Furthermore, the imaging control unit 101 captures an image of the clavicle in a state in which the user is raising both hands, and acquires the clavicle image in the second posture.
  • the makeup determination unit 103 compares the clavicle image of the first posture with the clavicle image of the second posture to extract a region in which the shadow is changing. Then, as shown in FIG. 10, for example, as shown in FIG. 10, the makeup determination unit 103 determines the area 503 which is darker than the collar bone image of the first posture in the collar bone image of the second posture as the low light makeup region. , And the bright area 504 is determined as the highlight makeup area, which is almost the same as the first posture clavicle image.
  • the imaging control unit 101 captures an image of the second arm in a state in which the user stretches the arm, and acquires an arm image of the first posture. Furthermore, the imaging control unit 101 captures an image of the second arm in a state in which the user bends the arm to create a tentacle, and acquires an arm image of the second posture.
  • the makeup determination unit 103 compares the arm image of the first posture with the arm image of the second posture, and extracts a region in which the shadow is changing. Then, in the arm image of the second posture, the makeup determination unit 103 determines an area which is darker than the arm image of the first posture as the low light makeup area, and based on the arm image of the first posture. Also determine the brightly changing area as the highlight area.
  • the makeup sheet can also be used like a body paint by sticking the makeup sheet which printed arbitrary design on the body.
  • the makeup determination unit 103 calculates the size of the body based on the body characteristic information 111, and enlarges or reduces the size of the design (corresponding to the makeup area) according to the calculated size.
  • the makeup determining unit 103 when the arm 601 is relatively thick, the makeup determining unit 103 enlarges the size of the design (corresponding to the makeup area) 602. On the contrary, as shown in FIG. 11B, when the arm 601 is relatively thin, the makeup determining unit 103 reduces the size of the design (corresponding to the makeup area) 602.
  • the makeup region of the highlight and low light can also be determined using the makeup image of another person (e.g., a makeup image of a model or an actress) whose appearance the user wants to be (ideal) is taken.
  • the body analysis unit 102 extracts the physical feature information (which may include the skeletal feature points) of the other person from the makeup image of the other person.
  • the makeup determination unit 103 converts the makeup area extracted from the other person's makeup image into a makeup area compatible with the user's body ( For example, enlargement or reduction is performed to generate makeup information 112.
  • the print information generation unit 105 generates the print information 113 from the generated makeup information 112, and the print control unit 106 generates a makeup sheet from the generated print information 113.
  • makeup assisting apparatus 10 generates leg feature information including a skeletal feature point from the leg image in body analysis unit 102, and in makeup determination unit 103, a skeletal feature point included in the leg feature information. Determine the low light and highlight make-up area for the leg based on.
  • makeup assisting apparatus 10 uses the image of the other body part of its own instead of the leg image to determine the low light and highlight makeup regions for that body part as in the case of the leg image. May be
  • the makeup assisting apparatus 10 can generate a makeup sheet capable of applying low light and highlight makeup suitable for the physical characteristics of the individual user's leg or other body part.
  • a makeup sheet having a component for stimulating the acupressure point of the body (hereinafter referred to as "acupressure stimulation component") is generated using makeup assisting apparatus 10 shown in FIG.
  • the acupoint stimulation component may be printed on the sheet together with the ink exhibiting the visual effect as described in each of the above-described embodiments.
  • the user selects at least one desired effect via the input receiving unit 107 (S101).
  • the user may use the following methods: promoting firmness of face, measures against dullness of face, alleviation of tired eyes, small face, aging care, wrinkle removal, sagging, swelling, appetite promotion, appetite suppression, cooling measures, and relaxation. Select at least one effect.
  • the imaging control unit 101 identifies the region of the body where the acupoint corresponding to the efficacy selected in S101 exists, images the identified region of the body, and acquires the body image 110 (S102).
  • the correspondence relationship between the efficacy and the pressure may be defined in advance.
  • the body analysis unit 102 specifies the position of the pot from the body image 110 of S102 (S103).
  • makeup determining section 103 determines the position of the acupoint corresponding to the effect selected in S101 as a makeup area, and generates makeup information 112 (S104).
  • the print information generation unit 105 generates the print information 113 for printing the ink including the acupoint stimulation component in the print area corresponding to the makeup area (that is, the position of the acupressure point) of the makeup information 112 (S105).
  • the printing control unit 106 prints an ink containing a pot stimulation component on the printing area on the side of the sheet in contact with the skin based on the printing information 113 of S105 to generate a make sheet (S106). .
  • a large dented portion 701 at the end of the stomae and a dented portion 702 between the incisor and the nose as shown in FIG. It is effective to stimulate the point of Therefore, when the user selects the face firmness enhancement, the dullness reduction, or the reduction of tired eyes in S101, the makeup assisting apparatus 10 operates as follows.
  • the imaging control unit 101 instructs the user to capture a face image in S102.
  • the body analysis unit 102 specifies the positions 701 and 702 of the acupressure point shown in FIG. 13 from the face image of the user.
  • makeup determining unit 103 determines positions 701 and 702 of the acupressure point shown in FIG. 13 as a makeup area for printing the acupoint stimulation component.
  • the print information generation unit 105 prints the ink including the pressure stimulation component in the print area corresponding to the make area, that is, the area in contact with the positions 701 and 702 of the acupoint when the make sheet is attached to the face. Print information 113 is generated.
  • makeup assisting apparatus 10 operates as follows.
  • the imaging control unit 101 instructs the user to image the ankle of the leg in S102.
  • the body analysis unit 102 specifies the position 703 of the acupoint shown in FIG. 14 from the image of the ankle of the user's leg.
  • makeup determining unit 103 determines position 703 of the acupoint shown in FIG. 14 as a makeup area on which the acupuncture point stimulation component is to be printed.
  • the print information generation unit 105 in S105, the ink including the pressure point stimulation component in the print area corresponding to the make area, that is, the area in contact with the position 703 of the acupoint when the make sheet is attached to the inner ankle part. Print information 113 to be printed is generated.
  • the thickness and the material of the sheet used in the present embodiment are not limited to those described in the first embodiment.
  • the acupoint stimulation component may be a magnetic body.
  • the print information generation unit 105 may generate the print information 113 in which the wiring connected to the print area of the magnetic material is also printed.
  • the magnetic material can generate a magnetic field to stimulate the pressure point by supplying a current to the wiring printed on the make sheet.
  • the acupuncture point stimulation component may be a component that gives a warm sensation stimulation.
  • Ingredients which impart a warm sensation are, for example, red pepper extract, capsaicin extract, nonylic acid allirylamide, nicotinic acid ester and the like.
  • the resin may be stacked and printed high at the position of the pressure point of the sheet instead of the pressure point stimulation component or together with the pressure point stimulation component to form a convex shape. This makes it possible to generate a make sheet that physically stimulates (pushes) the position of the acupoint.
  • makeup assisting apparatus 10 specifies the position of the acupressure point from the body image 110 of the user in body analysis section 102, determines the position of the acupressure point in makeup area in makeup determination section 103, and prints
  • the information generation unit 105 generates print information 113 for printing an ink containing a pot stimulation component in the make area.
  • Embodiment 4 In the fourth embodiment, a method of attaching a make-up sheet generated using the makeup support device 10 shown in FIG. 1 to the skin will be described.
  • the make sheet may be attached to the skin by any one of the following methods (H1) to (H6).
  • the user sprays a mist of water onto the make sheet, waits for moisture to spread evenly on the make sheet, and then sticks the make sheet onto the skin.
  • the waiting time may be, for example, 10 to 60 seconds.
  • the user may stick the makeup sheet on that portion.
  • a sponge containing water may be pressed against the skin. According to this sticking method, the work of sticking the make sheet on the skin becomes easy.
  • a score line 403 (see FIG. 9) is provided on the center line of the backing sheet of the make sheet, and the user brings the makeup sheet into close contact with the skin while opening the backing sheet from the score line 403 to the left and right.
  • this pasting method the gap at the time of pasting the make sheet on the skin is reduced. That is, the user can easily paste the make sheet at the correct position.
  • This sticking method is more effective when sticking the make sheet on a relatively large area such as a decollete or a leg.
  • the sticking aid has a structure that holds a make sheet and, when pressed against the skin, sticks the held make sheet to the skin. According to this sticking method, the work of sticking the make sheet on the skin becomes easy. That is, the handling of the sheet is improved.
  • the user places another makeup sheet on top of the makeup sheet attached to the skin. For example, the user pastes over a shadow sheet that emphasizes shadows. According to this sticking method, the user can easily fine-tune the finish of the makeup.
  • an eyebrow sheet suitable for the user's face is generated using skeletal feature points of the face image.
  • At least one illumination device 12 is disposed at a position to illuminate the face.
  • the imaging control unit 101 controls the illumination device 12 to illuminate the face, controls the camera device 11 to capture a face from the front, and acquires a face image as an example of the body image 110 from the camera device 11 Do. At this time, the user is instructed to look straight at the camera device 11.
  • the body analysis unit 102 analyzes the face image and generates face feature information which is an example of the body feature information 111.
  • the body analysis unit 102 analyzes the skeletal shape around the jaw and the eyebrow using the face image, and extracts the skeletal feature points around the jaw and the eyebrow. Furthermore, the body analysis unit 102 acquires the positions and shapes of the eyes, the nose, and the black eyes.
  • the makeup determination unit 103 determines an eyebrow makeup area suitable for the user's face, using skeletal feature points around the jaws and eyebrows, and the positions and shapes of the eyes, nose, and black eyes. The method of determining the eyebrow makeup area will be described later.
  • the storage unit 109 holds a database 202.
  • the user selects a preferred eyebrow makeup 203 from the database 202 displayed via the display control unit 108.
  • the database 202 holds various types of eyebrow makeup 203 as a sample.
  • Each eyebrow makeup 203 has, for example, different shapes and / or colors such as parallel eyebrows, chevron eyebrows, thick eyebrows, narrow eyebrows and the like.
  • the selection of the eyebrow makeup 203 by the user does not necessarily have to be performed after the photographing and the body analysis, and may be performed at any stage prior to this.
  • the makeup image generation unit 104 uses the makeup information 112 to generate a makeup image 114 in which an eyebrow makeup is applied to the face image. Then, makeup image generation unit 104 displays makeup image 114 on the display device via display control unit 108.
  • the user confirms the makeup image 114, and if he wishes to correct makeup, the user inputs the details of the correction through the input accepting unit 107.
  • the input reception unit 107 transmits the input correction content to the makeup determination unit 103.
  • the makeup determination unit 103 corrects the makeup information 112 based on the correction content, and the makeup image generation unit 104 displays the makeup image 114 after the correction.
  • the user When the user does not need to correct the makeup, the user inputs "OK” via the input receiving unit 107.
  • the input receiving unit 107 transmits to the makeup determining unit 103 that "OK" has been input.
  • makeup determining unit 103 determines makeup information 112.
  • the printing information generation unit 105 uses the determined makeup information 112, the printing information generation unit 105 generates printing information 113 for printing an eyebrow makeup sheet.
  • the print control unit 106 controls the printing apparatus 13 using the print information 113 to print an eyebrow makeup sheet. This produces a make sheet on which the eyebrow makeup applied to the eyelid is printed.
  • the user sticks the side of the make sheet placed on the support to his / her heel and peels off the support.
  • the makeup sheet is attached to the user's eyebrow portion, and an eyebrow makeup suitable for the user is applied to the eyelid of the user.
  • the area of eyebrow makeup is determined using one of the following (I1) or (I2) or a combination of the two.
  • the makeup determination unit 103 acquires the central point X of the user's jaw based on the skeletal feature points of the jaw. Furthermore, the makeup determination unit 103 acquires a curve Y in which the eyebrow makeup is arranged, based on the skeleton feature points around the eyebrows. Then, makeup determining section 103 sets an intersection point with curve Y in a region between straight line M1 drawn from center point X toward the outside of the black eye and straight line M2 drawn from center point X toward the inside of the black eye. , Determined as the position Z1 of Mt.
  • the makeup determination unit 103 determines the intersection point of the straight line M3 drawn from the outside of the nostril toward the outside of the eye corner and the curve Y as the position Z2 of the eyebrow end.
  • the makeup image generation unit 104 adjusts the shape of the eyebrow makeup 203 selected by the user so as to match the position Z1 of the eyebrows and the position Z2 of the buttocks, and determines the shape of the eyebrow makeup suitable for the user .
  • the makeup image generation unit 104 outputs this as the makeup image 114.
  • the imaging control unit 101 controls the illumination device 12 disposed at least above the face to illuminate the face from above, controls the camera device 11 to capture the face, and acquires a face image.
  • the lighting devices 12 may be disposed not only on the top but also on the bottom and / or left and right.
  • the makeup determination unit 103 generates shadows in a region where the brightness around the eyebrows is relatively high (equal to or greater than a predetermined threshold) and the brightness around the eyebrows is low (predetermined A boundary area of the area (which is equal to or less than the threshold) is acquired as a curve Y on which the eyebrow makeup is arranged. Then, makeup determining section 103 sets an intersection point with curve Y in a region between straight line M1 drawn from center point X toward the outside of the black eye and straight line M2 drawn from center point X toward the inside of the black eye. , Determined as the position Z1 of Mt.
  • the makeup determination unit 103 determines an intersection point of a straight line M3 drawn from the outside of the nose toward the outside of the eyes and the curve Y as the position Z2 of the eyebrows.
  • the makeup image generation unit 104 adjusts the shape of the eyebrow makeup 203 selected by the user so as to match the position Z1 of the eyebrows and the position Z2 of the buttocks, and determines the shape of the eyebrow makeup suitable for the user .
  • the makeup image generation unit 104 outputs this as the makeup image 114.
  • an eyebrow sheet suitable for the user's face is generated using skeletal feature points of the face image.
  • the user directs the front of the face to the camera device 11.
  • at least one illumination device 12 is disposed at a position to illuminate the face.
  • the imaging control unit 101 controls the illumination device 12 to illuminate the face, controls the camera device 11 to capture a face from the front, and acquires a face image as an example of the body image 110 from the camera device 11 Do. At this time, the user is instructed to look straight at the camera device 11.
  • the body analysis unit 102 analyzes the face image and generates face feature information which is an example of the body feature information 111.
  • the body analysis unit 102 analyzes the skeletal shape of the jaw using a face image and extracts skeletal feature points of the jaw. Furthermore, the body analysis unit 102 acquires the positions and shapes of the eyes and the nose.
  • the makeup determination unit 103 determines an eye makeup area suitable for the user's face, using the skeletal feature points of the jaw, and the positions and shapes of the eyes and the nose. The method of determining the eye makeup area will be described later.
  • the storage unit 109 holds a database 202.
  • the user selects a preferred eye makeup 205 from the database 202 displayed via the display control unit 108.
  • the database 202 holds various types of eye makeup 205 as a sample.
  • Each eye makeup 205 is different in, for example, the shape and / or color of lines such as double lines, eye lines, and eye shadows.
  • the eye makeup 205 relating to the double line is different in the double width L3 at the time of eye opening, and the extension length L1 in the positive and negative direction with respect to the corner of the eye.
  • the eye makeup 205 relating to the eye line is different in the extension length L2 from the corner of the eye and the shape.
  • Variations of the shape of the extension length L2 from the edge of the eyes of the eyeline include, for example, a jumping shape, a shape of a sagging eye, and the like.
  • the selection of the eyebrow makeup 203 by the user does not necessarily have to be performed after shooting and body analysis, and may be performed at any stage prior to this.
  • the makeup image generation unit 104 uses the makeup information 112 to generate a makeup image 114 in which eye makeup is applied to the face image. Then, makeup image generation unit 104 displays makeup image 114 on the display device via display control unit 108.
  • the user confirms the makeup image 114, and if he wishes to correct makeup, the user inputs the details of the correction through the input accepting unit 107.
  • the input reception unit 107 transmits the input correction content to the makeup determination unit 103.
  • the makeup determination unit 103 corrects the makeup information 112 based on the correction content, and the makeup image generation unit 104 displays the makeup image 114 after the correction.
  • the user When the user does not need to correct the makeup, the user inputs "OK” via the input receiving unit 107.
  • the input receiving unit 107 transmits to the makeup determining unit 103 that "OK" has been input.
  • makeup determining unit 103 determines makeup information 112.
  • the print information generation unit 105 generates print information 113 for printing the eye makeup sheet, using the determined makeup information 112.
  • the print control unit 106 controls the printing apparatus 13 using the print information 113 to print an eye make sheet. As a result, a makeup sheet on which the eye makeup applied to the eyes is printed is generated.
  • the user sticks the side of the make sheet placed on the support to his / her eyes and peels off the support.
  • a makeup sheet is attached to the eyes of the user, and an eye makeup suitable for the user is applied to the eyes of the user.
  • the illuminance of the illumination unit (not shown), with the eye makeup determined by the user being displayed superimposed on the face image of the user,
  • the color and / or temperature may be varied to illuminate the user's face. This allows the user to confirm what color, expression, and impression will be in situations that actually use eye makeup.
  • the eye make region is determined using one of the following (J1) to (J3) or a method combining two or more.
  • the makeup determination unit 103 acquires the central point X of the user's jaw based on the skeletal feature points of the jaw.
  • the makeup determination unit 103 extends L1 along the line of the curve Y1 from the intersection point Z3 of the straight line M4 drawn from the center point X toward the outside of the eyes and the curve Y1.
  • the curve is determined as the double line reference line Y1 '.
  • the extension length L1 may be a direction (negative L1) approaching the mountain, or may be a direction (positive L1) separating from the mountain.
  • the makeup determination unit 103 adjusts the shape of the eye makeup 205 selected by the user so as to fit the curve Y1 ', and determines the shape of the double line suitable for the user.
  • the makeup image generation unit 104 outputs this as the makeup image 114.
  • J2 Eye Line Shape Determination Method The user is instructed to open and close the eyes, and as shown in FIG. 22B, the position of the double line from the line above the eyes when the eyes are open, as shown in FIG. 22B. And the shape is obtained, and as shown in FIG. 22A, the shape of the curve Y2 on which the eye line is placed is determined from the line of the eyelid when the eyes are closed.
  • makeup determining section 103 acquires central point X of the user's jaw based on the skeletal feature points of the jaw.
  • the makeup determination unit 103 extends from the intersection point Z4 of the straight line M5 drawn from the center point X toward the outside of the eyes and the curve Y2 by the distance L2 along the line Y2.
  • the curve is determined as the eyeline reference line Y2 '.
  • the makeup determination unit 103 adjusts the shape of the eye makeup 205 selected by the user to fit the curve Y2 ', and determines the shape of the eye line suitable for the user.
  • the makeup image generation unit 104 outputs this as the makeup image 114.
  • the eye line may have a gradation of color tone. For example, based on the position information and shape of the jaw's skeletal feature points, eyes, and nose, the eyeline has a gradation that gradually becomes darker toward the center, based on the eye position, the eye position, and the eye position information. You may have. Alternatively, the eyeline may have a gradation in which the color gradually becomes darker in the eye-edge direction.
  • (J3) Eye shadow area determination method The user is instructed to open and close the eyes, and as shown in FIG. 23A, the makeup determination unit 103 positions the double line from the line above the eyes when the eyes are opened. And obtain the shape and determine the curve Y1 on which the double line is placed. Furthermore, as shown in FIG. 23B, the makeup determination unit 103 expands the shape of the eyehole onto the curve Y1 from the shape of the eyehole and the position of the curve Y1 when the eyes are closed, in the eye shadow region Determined as A1.
  • makeup determining section 103 acquires central point X of the user's jaw based on the skeletal feature points of the jaw.
  • the makeup determination unit 103 adjusts the shape of the eye makeup 205 selected by the user to fit the area A1, and determines the shape of the eye shadow suitable for the user.
  • the makeup image generation unit 104 outputs this as the makeup image 114.
  • the makeup determination unit 103 may calculate the depth of the engraving and the depression in the upper part of the eye (that is, the skeletal feature of the eye) when determining the width of the eye makeup image in the eyelid direction from the eye. For example, in order to make it easy to detect the skeleton around the eyes, the imaging control unit 101 applies illumination to the face of the user at a predetermined angle from the top of the face, and captures the body image 110. Then, the makeup determination unit 103 analyzes (calculates) skeletal features of the eyes from the width to be a shadow.
  • the eye makeup area is a small, elongated area compared to the makeup on the cheeks and legs. For this reason, it is difficult to affix a makeup sheet beautifully to a desired position.
  • FIG. 24 shows a make sheet 2501 on which an eyeline image is printed, a sheet sticking mount 2502, and a sticking assistance device 2503.
  • the make sheet 2501 is grounded to one side of the sheet sticking mount 2502.
  • the adhesion aiding apparatus 2503 has a gripping portion 2504 and a support portion 2505.
  • the support portion 2505 has a shape that supports both ends of the eyeline make sheet 2501 in the long axis direction.
  • the support portion 2505 may have a shape that supports the make sheet 2501 at two or more points.
  • the support portion 2505 may be shaped to support the make sheet 2501 at three points according to a three-forked shape. Next, two examples of the sticking method are shown.
  • Step 1 The user holds the gripping portion 2504 by hand, presses the support portion 2505 against the other surface of the sheet bonding backing 2502 (the surface on which the make sheet 2501 is not grounded), and the sheet including the make sheet 2501 The paste board 2502 is attached to the support portion 2505. Then, the user lifts the sticking auxiliary device 2503.
  • Step 2 The user presses the support portion 2505 against eyes (eye line) while sticking his / her face displayed on the mirror or the display portion of the image processing apparatus and sticks only the makeup sheet 2501 to the face .
  • Step 3 After sticking the make sheet 2501, the user removes the sheet sticking mount 2502 remaining on the support portion 2505 with a finger or the like (manually).
  • assistant apparatus 2503 can be used repeatedly.
  • the surface of the support portion 2505 of the adhesion aiding apparatus 2503 may be surface-processed in a hook shape.
  • an adhesive may be applied to the other surface of the sheet bonding backing 2502 or the surface of the support portion 2505.
  • the sheet sticking backing 2502 is to be stuck to the support portion 2505.
  • Step 1 The user presses the support portion 2505 against one surface of the sheet sticking mount 2502 (the surface on which the make sheet 2501 is grounded), and sticks only the make sheet 2501 to the support portion 2505. Then, the user lifts the sticking auxiliary device 2503.
  • Step 2 The user presses the support portion 2505 on the eyes (eye line) and sticks the makeup sheet 2501 on the face.
  • the surface of the support portion 2505 may be processed to be hydrophilic.
  • hydrophilic processing is performed and the make sheet 2501 is attached using water, for example, it may be pressed against a moist sponge and uniformly supplied with moisture over the entire surface, and then pressed against the skin. Since the make sheet 2501 has an elongated shape, for example, when water spray is performed by atomization, the make sheet 2501 may move on the support portion 2505 by wind pressure.
  • FIG. 25 is a diagram showing a hardware configuration of a computer that realizes the functions of makeup assisting apparatus 10 by a program.
  • the computer 2100 includes an input device 2101 such as a keyboard or a mouse or a touch pad, an output device 2102 such as a display or a speaker, a central processing unit (CPU) 2103, a read only memory (ROM) 2104, and a random access memory (RAM) 2105.
  • a storage device 2106 such as a hard disk drive or solid state drive (SSD), a reader 2107 for reading information from a recording medium such as a digital versatile disk read only memory (DVD-ROM) or a universal serial bus (USB) memory
  • a transmission / reception device 2108 for communicating is provided, and each unit is connected by a bus 2109.
  • the reading device 2107 reads the program from the recording medium recording the program for realizing the function of each device described above, and causes the storage device 2106 to store the program.
  • the transmission / reception device 2108 communicates with a server device connected to the network, and stores a program for realizing the function of the makeup support device 10 downloaded from the server device in the storage device 2106.
  • the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, sequentially reads out the instruction included in the program from the RAM 2105, and executes it, whereby the function of the makeup support apparatus 10 is realized.
  • the physical appearance correction support device, the physical appearance correction support method, and the computer program according to the present disclosure can support the user to change the physical appearance using a sheet that can be attached to the body.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

メイクアップ支援装置(10)は、身体が撮影された身体画像から、当該身体の外観形状に係る特徴を、当該身体の骨格に基づいて解析して、解析された特徴を示す身体特徴情報を生成し、生成された身体特徴情報に基づいて、身体の外観形状を視覚的に補正可能なメイクアップを決定し、決定されたメイクアップに基づいて、シートへのメイク画像の印刷に関する印刷情報を生成し、生成された印刷情報に基づいて、シートにメイク画像を印刷してメイクシートを生成する。ユーザは、その生成されたメイクシートを身体に貼り付ける。

Description

身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム
 本開示は、身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラムに関する。
 メイクアップ(以下「メイク」という場合がある)に用いる色は、ユーザ毎に異なり得るため、ユーザ毎に色のセットをカスタマイズした化粧品を製造する技術が知られている。例えば、特許文献1には、ユーザがメイクアップに用いる着色インクの色のセットを選択し、その選択された着色インクの色のセットを用いてメイクアップした外観のシミュレーションを表示し、その選択された着色インクの色のセットを基材に印刷し、その印刷された基材をユーザに提供する技術が開示されている。
特表2017-503577号公報
 身体に適したメイクを施すことは、十分な知識と技術がないと難しい。例えば、ハイライトおよびローライトのメイクなどは、身体の形状および/または肌の色などを十分に把握してメイクを施さなければ、適切な視覚的な補正効果が得られない。
 本開示の一態様は、身体に貼付可能なシートを用いた身体外観の視覚的な補正の支援において、支援対象者となる個々のユーザに対して作成され、提供されるシートのカスタマイズ性を向上させる。
 本開示に係る身体外観補正支援装置は、身体に貼付可能なシートを用いた身体外観の視覚的な補正を支援する、身体外観補正支援装置であって、前記身体が撮影された身体画像から、当該身体の外観形状に係る特徴を、当該身体の骨格に基づいて解析して、解析された特徴を示す身体特徴情報を生成する特徴解析部と、生成された身体特徴情報に基づいて、前記身体の外観形状を視覚的に補正可能なメイクアップを決定するメイク決定部と、決定されたメイクアップに基づいて、前記シートへのメイク画像の印刷に関する印刷情報を生成する印刷情報生成部と、を備える。
 なお、これらの包括的または具体的な態様は、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示の一態様によれば、身体に貼付可能なシートを用いた身体外観の視覚的な補正の支援において、支援対象者となる個々のユーザに対して作成され、提供されるシートのカスタマイズ性を向上させることができる。
実施の形態1に係るメイクアップ支援装置の構成の例を示すブロック図。 メイク領域におけるメイク色の濃度を決定する方法の例を説明するための図。 顔のメイクシートを生成する手順の例を示す模式図。 顔の骨格特徴点を抽出する方法の例を説明するための模式図。 逆三角形型の顔の場合においてハイライトおよびローライトのメイク領域を決定する方法の例を説明するための図。 逆三角形型の顔の場合においてハイライトおよびローライトのメイク領域を決定する方法の例を説明するための図。 菱形の顔の場合においてハイライトおよびローライトのメイク領域を決定する方法の例を説明するための図。 菱形の顔の場合においてハイライトおよびローライトのメイク領域を決定する方法の例を説明するための図。 実施の形態2に係る脚のメイクシートを生成する手順の例を示す模式図。 脚のメイクシートのハイライトおよびローライトのメイク領域を決定する方法の例を説明するための図。 脚のメイクシートの例を示す模式図。 デコルテのハイライトおよびローライトのメイク領域を決定する方法の例を説明するための図。 身体的特徴に応じてメイク領域のサイズを決定する方法の例を説明するための図。 身体的特徴に応じてメイク領域のサイズを決定する方法の例を説明するための図。 実施の形態3に係るツボ刺激成分を含むメイクシートを生成する手順の例を示すフローチャート。 顔におけるツボの位置の例を示す模式図。 脚におけるツボの位置の例を示す模式図。 実施の形態4に係るメイクシートの貼付補助装置の例を示す模式図。 実施の形態5に係るメイクアップ支援装置の構成の例を示すブロック図。 アイブロウのメイク領域を決定する方法を説明するための図。 アイブロウのメイク領域を決定する方法を説明するための図。 実施の形態6に係るメイクアップ支援装置の構成の例を示すブロック図。 二重のラインの延長長さL1およびアイラインの延長長さL2を説明するための図。 二重のラインの延長長さL1およびアイラインの延長長さL2を説明するための図。 二重のラインの形状を決定する方法を説明するための図。 アイラインの形状を決定する方法を説明するための図。 アイラインの形状を決定する方法を説明するための図。 アイシャドウの領域を決定する方法を説明するための図。 アイシャドウの領域を決定する方法を説明するための図。 アイラインのメイクシートの貼付け補助装置を示す図。 本開示に係るメイクアップ支援装置のハードウェア構成の例を示すブロック図。
 以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 (実施の形態1)
 まず、図1を参照しながら、メイクアップ支援装置10の構成例について説明する。なお、メイクアップ支援装置10は、身体に貼付可能なシートを用いて身体外観の視覚的な補正を支援する身体外観補正支援装置の一例である。
 メイクアップ支援装置10は、身体に貼り付けて身体をメイクアップするためのシート(以下「メイクシート」という)を生成、または当該生成を支援するための装置である。
 メイクアップ支援装置10は、薄く透明なシート(薄膜)にメイクアップ用のインクを印刷し、メイクシートを生成する。ユーザは、そのメイクシートを、顔、脚、腕、背中、胸元、爪など、様々な身体の部位に貼り付けることにより、その部位の見た目を変化させること、つまり、その部位に対する視覚的な補正効果を得ることができる。例えば、ユーザは、ローライトおよびハイライトのメイクアップが印刷されたメイクシートを顔に貼り付けることにより、顔を、小さく見せたり(子顔効果)、立体的に見せたりすることができる。例えば、ユーザは、ローライトおよびハイライトのメイクアップが印刷されたメイクシートを脚に貼り付けることにより、脚を細く見せることができる(痩身効果)。すなわち、メイクアップ支援装置10は、ユーザの顔およびプロポーションをより魅力的に見せるメイクシートを生成する。
 身体の形状および肌の色等の身体的特徴はユーザ毎に異なるため、視覚的な補正効果を十分に得るためには、ユーザの身体的特徴に適したメイクシートを生成する必要がある。メイクアップ支援装置10は、このようなメイクシートの生成を支援する。
 メイクアップ支援装置10は、撮影制御部101と、身体解析部102と、メイク決定部103と、メイク画像生成部104と、印刷情報生成部105と、印刷制御部106と、入力受付部107と、表示制御部108と、記憶部109とを備える。なお、メイクアップ支援装置10は、これらの機能の一部のみを備えてもよい。
 撮影制御部101は、カメラ装置11を制御してユーザの身体を撮影し、その撮影された身体画像110をカメラ装置11から取得する。撮影制御部101は、その取得した身体画像110を、記憶部109に格納、または身体解析部102に提供する。なお、撮影制御部101は、撮影時に、照明装置12の位置および/または光量を制御してもよい。これにより、身体画像110の陰影を調整できる。また、撮影制御部101は、カメラ装置11を制御して、静止画および動画の何れを撮影してもよい。すなわち、身体画像110は、静止画に限らず、動画であってもよい。
 身体解析部102は、身体画像110から、身体的特徴を解析し、その解析結果に基づいて、身体特徴情報111を生成する。身体特徴情報111には、例えば、身体の部位を示す情報、身体の凹凸を示す情報、身体の骨格形状を示す情報、骨格の特徴的な位置を示す情報(以下「骨格特徴点」という)、および/または、身体の肌の色を示す情報などが含まれてよい。身体解析部102は、その生成した身体特徴情報111を、記憶部109に格納、またはメイク決定部103に提供する。
 メイク決定部103は、身体特徴情報111に基づいて、ユーザの身体の形状および/または肌の色に適したメイクを決定する。例えば、メイク決定部103は、ユーザの骨格形状に適したハイライトおよびローライトのメイクを施す領域(以下「メイク領域」という)およびそのメイク領域に施すメイクの色(以下「メイク色」という)を決定する。メイク決定部103は、その決定結果を含むメイク情報112を生成し、記憶部109に格納、またはメイク画像生成部104に提供する。
 メイク画像生成部104は、身体画像110に対してメイク情報112のメイクを施した画像であるメイク画像114を生成する。メイク画像生成部104は、その生成したメイク画像114を、表示制御部108を介して、ディスプレイ等の表示装置(図示せず)に表示してよい。これにより、ユーザは、メイク後の身体のイメージ、つまりメイクシートを貼り付けた後の身体のイメージを、視覚的に確認できる。
 入力受付部107は、メイク画像114を確認したユーザからのメイクの修正(またはメイクの変更)を受け付ける。入力受付部107は、ユーザからメイクの修正を受けた場合、その修正内容をメイク決定部103に伝える。メイク決定部103は、その修正内容をメイク情報112に反映する。これにより、ユーザの要望に適したメイク情報112を生成できる。すなわち、ユーザの要望に適していないメイクシートの生成を抑制できる。
 印刷情報生成部105は、メイク情報112の内容(メイク画像)をどのようにシートに印刷するかを決定し、その決定結果を含む印刷情報113を生成する。例えば、印刷情報生成部105は、メイク領域およびメイク色にそれぞれ対応する、シート上における印刷領域およびインクを決定する。印刷情報生成部105は、その生成した印刷情報113を、記憶部109に格納、または印刷制御部106に提供する。
 印刷制御部106は、印刷装置13を制御し、印刷情報113に基づいて、シートの印刷領域にメイク用のインクを印刷し、メイクシートを生成する。なお、印刷制御部106は、印刷情報113を印刷装置13へ送信し、印刷装置13が、受信した印刷情報113に基づいてメイクシートを生成してもよい。また、印刷制御部106は、印刷情報113を、印刷装置13を備える所定の施設へ送信し、メイクシートの生成は、その施設で行われてもよい。また、比較的大きいメイクシートは、ロールパッケージにして運搬されてもよい。これにより、メイクシートに折り目が付くことを防止できる。
 次に、メイクアップ支援装置10の各機能の詳細について説明する。
 <撮影制御部および身体解析部の詳細>
 撮影制御部101および身体解析部102は、次の(A1)から(A6)で説明する機能のうち、1つの機能、または、2つ以上を組み合わせた機能を有してよい。
 (A1)
 撮影制御部101は、照明装置12の光量を徐々に上げながら照度計を用いて照度を測定し、所定の照度が測定されたタイミングで、撮影を実行し、身体画像110を取得する。これにより、外乱に対する測色のロバスト性が向上し、身体解析部102およびメイク決定部103は、肌の色をより正確に抽出できる。
 (A2)
 ここで示す例は、カメラ装置11が、身体を3次元で撮影する3次元カメラ装置であることを前提とする。撮影制御部101は、身体を3次元で撮影する3次元カメラ装置11を用いて撮影し、3次元カメラ装置11から3次元情報を含む身体画像110を取得する。これにより、身体解析部102は、3次元情報を含む身体画像110から、身体の凹凸および骨格形状などを、より正確に解析できる。なお、身体解析部102は、3次元情報を含む身体画像110から、身体の凹凸および骨格形状などの曲率を算出し、身体特徴情報111に含めてよい。
 (A3)
 撮影制御部101は、ユーザに顔を左右に動かしてもらう間に、異なる角度の顔を連続撮影する。身体解析部102は、このように撮影された複数の顔画像を用いて、顔の特徴を解析し、身体特徴情報111の一例である顔特徴情報を生成する。これにより、身体解析部102は、一方向から撮影された顔画像を用いる場合と比較して、顔の特徴をより正確に解析できる。
 (A4)
 撮影制御部101は、照明装置12を制御して身体の部位に対して異なる方向から照明を当て、カメラ装置11を制御してその部位を撮影する。これにより、撮影制御部101は、身体の部位の凹凸によって生じる陰影がより際立つ身体画像110を取得できる。身体解析部102は、このように撮影された身体画像110を用いることにより、身体の凹凸および骨格形状をより正確に解析できる。なお、適切な照明の方向は、撮影する身体の部位によって異なり得る。
 (A5)
 撮影制御部101は、表情または姿勢が異なる少なくとも2つの身体画像110を撮影および取得する。身体解析部102は、これらの身体画像110における身体形状の変化量を解析し、その変化量が所定の閾値未満である(つまり身体形状の変化が比較的小さい)領域に基づき、骨格特徴点を特定する。要するに、身体解析部102は、表情または姿勢を変えたときに動く部位と動かない部位とを解析し、頬肉または顎肉などの筋肉または皮下組織の形状を示す特徴点とは別に、頬骨または顎骨などの骨格の形状を示す特徴点を特定する。
 (A6)
 身体解析部102は、典型的な身体における身体特徴情報111を用いて、ユーザ毎の身体的特徴(例えば凹部と凸部)を解析する。典型的な身体における身体特徴情報111は、ユーザの性別、年齢、身長および/または体重などによって異なってよい。これにより、身体解析部102は、ユーザ毎の身体的特徴をより正確に解析できる。
 <メイク決定部およびメイク画像生成部の詳細>
 メイク決定部103およびメイク画像生成部104は、次の(B1)から(B7)で説明する機能うち、1つの機能、または、2つ以上を組み合わせた機能を有してよい。
 (B1)
 メイク画像114を確認したユーザから、入力受付部107を介して、ハイライト(またはツヤ)を強化したい旨の修正を受けた場合、メイク決定部103は、ハイライトのメイク色の色調またはL値をピクセル単位で高くし、メイク情報112を修正する。メイク画像生成部104は、その修正されたメイク情報112を用いてメイク画像114を生成し、再表示する。これを繰り返すことにより、ユーザは、所望のメイクをメイクアップ支援装置10に伝える(入力する)ことができる。
 (B2)
 メイク決定部103は、身体特徴情報111(または身体画像110)を用いて、ローライトのメイク領域における肌の色を抽出する。そして、メイク決定部103は、その抽出した肌の色を、色相を固定して色調を下げて、またはLab色空間のa値およびb値を固定してL値を下げて、当該ローライトのメイク領域におけるメイク色を決定する。これにより、メイク決定部103は、ユーザの肌の色に適したローライトのメイク色を決定できる。ただし、メイク決定部103は、必ずしもローライトのメイク領域における肌の色を抽出する必要はない。例えば、メイク決定部103は、身体の複数の地点の肌の色を抽出し、これら抽出した肌の色の平均値を用いて、上記のようにローライトのメイク領域におけるメイク色を決定してもよい。身体の複数の地点は、例えば、ローライトのメイク領域が顔の場合、顔の領域における複数の地点であり、ローライトのメイク領域がデコルテの場合、デコルテの領域における複数の地点であってよい。
 (B3)
 メイク決定部103は、身体特徴情報111から、身体の凸面部分の曲率を算出し、その曲率の大きさに応じて、その凸面部分におけるハイライトのメイク領域の大きさを決定する。例えば、メイク決定部103は、凸面部分の曲率が小さいほど(つまり凸面が急なほど)、ハイライトのメイク領域を小さくし(狭くし)、凸面部分の曲率が大きいほど(つまり凸面が緩やかなほど)、ハイライトのメイク領域を大きく(広く)する。これにより、メイク決定部103は、ユーザの身体の形状に適したハイライトのメイク領域を決定できる。
 (B4)
 メイク決定部103は、図2に示すように、ハイライトのメイク領域201に含まれる中心領域202の外周から距離d以上離れた位置におけるメイク色の濃度を、その中心領域におけるメイク色の濃度の50%以上に決定する。距離dは、2mm以上が好ましい。経験上、メイクシートを貼り付ける際のズレは2mm以内に収まることが多いためである。なお、メイク決定部103は、ハイライトのメイク色の濃度を、中心領域から離れるに従って小さくなるように、つまり、メイク色を、グラデーションとなるように決定してよい。これにより、ユーザは、肌のシミまたは痣などを中心領域のメイク色で隠しつつ、ハイライトのメイクを施すメイクシートを、高精度な位置決めをせずとも、簡単に適切な位置に貼り付けることができる。
 (B5)
 メイク決定部103は、ユーザに対してメイクのイメージを表すキーワードであるメイクイメージキーワードの選択肢を提示する。ユーザは、その選択肢の中から、所望のメイクイメージキーワードを選択し、入力受付部107に入力する。メイク決定部103は、その選択されたメイクイメージキーワードに基づいて、ハイライトおよびローライトのメイク色を決定する。
 例えば、メイク決定部103は、質感に関するメイクイメージキーワードの選択肢として、「ツヤ」、「マット」、「セミマット」等を提示する。また、メイク決定部103は、雰囲気に関するメイクイメージキーワードの選択肢として、「シャープ」、「大人っぽい」、「元気な」等を提示する。また、メイク決定部103は、季節感に関するに係るメイクイメージキーワードの選択肢として、「夏らしい」、「クリスマス」等を提示する。また、メイク決定部103は、場所に関するメイクイメージキーワードの選択肢として、「パーティー」、「面接」等を提示する。
 メイク決定部103は、メイクイメージキーワードとハイライトおよびローライトのメイク色とが関連付けられているキーワード情報を参照して、メイク色を決定してよい。キーワード情報には、さらに、メイクイメージキーワードに対して、ハイライトおよびローライトのメイク領域の位置および形状なども関連付けられてよい。
 これにより、ユーザは、メイクイメージキーワードを選択して、所望のメイクを、簡単にメイクアップ支援装置10に伝える(入力する)ことができる。
 (B6)
 ユーザが、入力受付部107を介して、身体画像110に対してハイライトおよびローライトのメイクを描画する。メイク決定部103は、その描画されたメイクに基づいて、ハイライトおよびローライトのメイク領域およびメイク色を決定する。これにより、ユーザは、所望のメイクを、簡単にメイクアップ支援装置10に伝える(入力する)ことができる。
 (B7)
 撮影制御部101は、メイクアップ前とメイクアップ後の身体をそれぞれ撮影する。メイク決定部103は、メイクアップ前とメイクアップ後の身体画像110から、色が変化している領域を抽出する。要するに、メイク決定部103は、身体に実際に施されたメイクの領域および色を抽出する。そして、メイク決定部103は、その抽出した領域に基づいて、ハイライトおよびローライトのメイク領域およびメイク色を決定する。これにより、所望のメイクを簡単にメイクアップ支援装置10に伝える(入力する)ことができる。また、ユーザは、そのように生成されたメイクシートを貼り付けて、メイクアップ後の身体画像110と同じようなメイクを、簡単に再現することができる。
 <印刷情報生成部の詳細>
 メイクアップ支援装置10の印刷情報生成部105は、次の(C1)から(C5)で説明する機能のうち、1つの機能、または、2つ以上を組み合わせた機能を有してよい。
 (C1)
 ユーザが、例えば、頬のシミを隠し、かつ、当該頬にチークを施すメイクを所望する場合、印刷情報生成部105は、シミを隠すためのインクと、チークのメイク色に対応するインクとを、インクジェット方式で積層印刷する印刷情報113を生成する。これにより、頬のシミを隠すメイクシートとチークを施すメイクシートとを別々に印刷し、それぞれを頬に貼り付ける場合と比較して、印刷時間および貼り付けに要する時間を短縮できる。
 (C2)
 印刷情報生成部105は、上記(B5)においてユーザが選択したメイクイメージキーワードに応じて香料成分を選択し、その選択した香料成分を含むインクを用いて印刷する印刷情報113を生成する。または、印刷情報生成部105は、その選択した香料成分を含有するシートを採用する印刷情報113を生成する。なお、メイクイメージキーワードと香料成分とは予め関連付けられてよい。これにより、視覚効果だけでなく、香りの効果も演出するメイクシートを生成できる。
 (C3)
 印刷情報生成部105は、光または温度変化によって発色または発光する特殊なインクを用いて印刷する印刷情報113を生成する。これにより、視覚効果に影響を与えることなく、限定された条件下で文字またはデザインなどが表示されるメイクシートを生成できる。
 例えば、印刷情報生成部105は、特殊なインクを用いて、ユーザの氏名および住所等の個人情報(または識別情報)を印刷する印刷情報113を生成する。印刷情報113には、その個人情報(または識別情報)を示す文字、数字、バーコードおよび/またはQRコード(登録商標)等の情報が含まれてよい。
 ユーザは、このように生成されたメイクシートを身体に貼り付けることにより、名札または証明書などを携行せずとも、身分を証明できる。
 (C4)
 印刷情報生成部105は、ハイライトの明度が比較的高い(所定の閾値以上である)場合、ラメ素材または白色顔料を含むインクを用いる印刷情報113を生成する。これにより、ハイライトがより綺麗に印刷される。
 (C5)
 印刷情報生成部105は、肌の色のL値が比較的小さい(例えば所定の閾値未満である)場合、白色顔料を含むインクを用いて印刷した後に、メイク色に対応するインクを用いて印刷する印刷情報113を生成する。これにより、メイクシートの発色が向上する。
 <印刷制御部の詳細>
 印刷制御部106は、次の(D1)から(D4)で説明する機能のうち、1つの機能、または、2つ以上を組み合わせた機能を有してよい。
 (D1)
 印刷制御部106は、シートに対して、第1のインクをインクジェット方式で印刷後、そのシートの必要な位置に、第2のインクをスプレー方式で印刷する。例えば、印刷制御部106は、液中において比重または粒子径が比較的大きく沈降しやすいラメ素材、パール素材等を含む第2のインクを、スプレー方式で印刷する。
 (D2)
 印刷制御部106は、印刷情報113に、ラメ素材、パール素材等が含まれる場合、ポリマー粒子、ラメ素材および/またはパール顔料素材等が混合されているシートを採用する。これにより、ラメ素材等を含むインクをインクジェット方式で印刷する場合と比較して、印刷工程のタクトタイムを短縮できる。
 なお、シートに混合される素材の粒子の直径は、250μm以下であることが好ましい。250μmよりも大きい粒子がシートに混合されると、シートが破けやすく(つまり耐久性が低く)なるためである。
 (D3)
 印刷制御部106は、シートの肌に接触する側の面に、油分吸着成分を含むインクを印刷する。または、印刷制御部106は、シートの肌に接触しない側の面の最下層に、油分吸着成分を含むインクを印刷する。これにより、肌から生じた油分がメイクの色調に与える影響が低減され、メイクシートのメイク持ちが向上する。
 (D4)
 印刷制御部106は、シートにラメ固定用の糊を印刷した後、ラメ素材を含むインクを印刷する。これにより、微細なラメ素材を印刷できる。また、ラメ素材の剥離が低減され、メイクシートのメイク持ちが向上する。
 <シート成分の例>
 次に、シート成分の例について説明する。なお、シートの構造は、薄膜、通気性の高いメッシュ状、または不織布等であってよい。また、ハンドリングを容易にするために、支持体(台紙)の上にシート(薄膜)が載置されている構成であってもよい。支持体は、例えば、紙、不織布、表面が親水性処理されたプラスチックフィルム、吸水性を有するスポンジなどである。
 シート成分は、例えば、ポリエステル系、ポリエーテル系、ポリアミド/ポリイミド、多糖類、シリコーン系、アクリル酸系、オレフィン樹脂、ポリウレタン、導電性ポリマー、その他のポリマーなどである。
 ポリエステル系は、例えば、ポリグリコール酸、ポリ乳酸、ポリカプロラクトン、ポリエチレンサクシネート、ポリエチレンテレフタレートなどである。
 ポリエーテル系は、例えば、ポリエチレングリコール、ポリプロピレングリコールなどである。
 ポリアミド/ポリイミドは、例えば、ナイロン、ポリグルタミン酸、ポリイミドなどである。
 多糖類は、例えば、プルラン、セルロース(カルボキシメチルセルロース、ヒドロキシエチルセルロースなど)、ペクチン、アラビノキシラン、グリコーゲン、アミローズ、アミロペクチン、ヒアルロンなどである。または、多糖類は、例えば、デンプン、キチン、キトサン、アルギン酸、コーンスターチなどである。
 シリコーン系は、例えば、アクリルシリコーン、トリメチルシロキシケイ酸、ジメチコンなどである。
 アクリル酸系は、例えば、アクリル酸/シリコーン共重合体、アクリル酸アルキル/アミド共重合体などである。
 オレフィン樹脂は、例えば、ポリエチレン、ポリプロピレンなどである。
 導電性ポリマーは、例えば、ポリアニリン、ポリチオフェン、ポリピロールなどである。
 その他のポリマーは、例えば、ポリビニルアルコール、ポリカーボネート、ポリスチレン、ナフィオンなどである。
 <インク組成の例>
 インクは、例えば、水、アルコール、色材および/または皮膜化剤などで組成される。また、ハイライトのメイクの印刷に用いられるインクは、パール剤、ラメ剤および/またはソフトフォーカス剤などを含んでよい。
 アルコールは、例えば、エタノール、エチルアルコール、グリセリンまたはプロパンジオールなどである。
 色材は、例えば、酸化亜鉛、酸化チタン、水酸化アルミニウム、酸化アルミニウム、酸化ジルコニウム、シクロペンタシロキサン、シリカ、酸化セリウムなどの無機顔料である。または、色材は、有機顔料、染料、蛍光体などであってもよい。
 パール剤、ソフトフォーカス剤またはラメ剤は、例えば、以下である。
・酸化チタン、酸化亜鉛、酸化セリウム、硫酸バリウム等の白色顔料
・タルク、白雲母、金雲母、紅雲母、黒雲母、合成雲母、絹雲母(セリサイト)、合成セリサイト、カオリン、炭化珪素、ベントナイト、スメクタイト、無水ケイ酸、酸化アルミニウム、酸化マグネシウム、酸化ジルコニウム、酸化アンチモン、珪ソウ土、ケイ酸アルミニウム、メタケイ酸アルミニウムマグネシウム、ケイ酸カルシウム、ケイ酸バリウム、ケイ酸マグネシウム、炭酸カルシウム、炭酸マグネシウム、ヒドロキシアパタイト、窒化ホウ素等の白色体質粉体
・ホウケイ酸カルシウムアルミニウム、二酸化チタン被覆雲母、二酸化チタン被覆ガラス末、二酸化チタン被覆オキシ塩化ビスマス、二酸化チタン被覆マイカ、二酸化チタン被覆タルク、酸化鉄被覆雲母、酸化鉄被覆雲母チタン、酸化鉄被覆ガラス末、紺青処理雲母チタン、カルミン処理雲母チタン、オキシ塩化ビスマス、魚鱗箔、ポリエチレンテレフタレート・アルミニウム・エポキシ積層末、ポリエチレンテレフタレート・ポリオレフィン積層フィルム末等の光輝性粉体
・N-アシルリジン等の有機低分子性粉体、シルク粉末、セルロース粉末等の天然有機粉体
・アルミニウム粉、金粉、銀粉等の金属粉体
・微粒子酸化チタン被覆雲母チタン、微粒子酸化亜鉛被覆雲母チタン、硫酸バリウム被覆雲母チタン、酸化チタン含有二酸化珪素、酸化亜鉛含有二酸化珪素等の複合粉体
・カポック繊維、ポリメタクリル酸メチルクロスポリマー、非架橋アクリル粒子等
 皮膜剤または皮膜形成剤は、例えば、アクリレーツコポリマー、(アクリル酸アルキル/オクチルアクリルアミド)コポリマー、トリコンタニルPVP、(エイコセン/ビニルピロリドン)コポリマー、(ビニルピロリドン/ヘキサデセン)コポリマー、グリセリルグルコシド、グリコシルトレハロース、加水分解水添デンプン(糖アルコール)、エマルジョン樹脂等である。
 次に、図1に示すメイクアップ支援装置10を用いて、身体の一例である顔に、ハイライトおよびローライトのメイクを施すメイクシートを生成する場合について説明する。
 次に、図3を参照しながら、顔に貼り付けるメイクシートの生成手順を説明する。
 ユーザはまず、図3(a)に示すように、カメラ装置11に対して、顔の正面を向ける。なお、少なくとも1つの照明装置12が、顔を照らす位置に配置されている。
 次に、撮影制御部101は、照明装置12を制御して顔を照らし、カメラ装置11を制御して顔を正面から撮影し、カメラ装置11から、身体画像110の一例である顔画像を取得する。
 次に、身体解析部102は、顔画像を解析し、身体特徴情報111の一例である顔特徴情報を生成する。ここで、身体解析部102は、顔画像を用いて顔の骨格形状を解析し、顔の骨格特徴点を抽出する。骨格特徴点は、3次元空間上の座標点で表現されてよい。なお、顔の骨格特徴点の抽出方法については後述する。
 次に、メイク決定部103は、顔の骨格特徴点を用いて、ユーザの顔に適したハイライトおよびローライトのメイク領域およびメイク色を決定する。なお、顔のメイク領域の決定方法については後述する。
 次に、メイク画像生成部104は、メイク情報112を用いて、顔画像にハイライト及びローライトのメイクを施したメイク画像114を生成する。そして、メイク画像生成部104は、図3(b)に示すように、メイク画像114を、表示制御部108を介して、ディスプレイ装置に表示する。
 ユーザは、このメイク画像114を確認し、メイクを修正したい場合、入力受付部107を介して、その修正内容を入力する。入力受付部107は、その入力された修正内容を、メイク決定部103に伝える。メイク決定部103は、その修正内容に基づいて、メイク情報112を修正し、メイク画像生成部104は、修正後のメイク画像114を表示する。
 ユーザは、メイクの修正が必要ない場合、入力受付部107を介して、「確定」を入力する。入力受付部107は、「確定」が入力されたことを、メイク決定部103に伝える。メイク決定部103は、その確定を受けて、メイク情報112を確定する。
 次に、印刷情報生成部105は、その確定されたメイク情報112を用いて、顔用のメイクシートを印刷するための印刷情報113を生成する。
 次に、印刷制御部106は、図3(c)に示すように、印刷装置13を制御し、印刷情報113に基づいて、顔用のメイクシートを印刷する。これにより、図3(d)に示すように、ハイライトおよびローライトのメイク画像が印刷されたメイクシートが生成される。
 ユーザは、図3(e)に示すように、支持体に載置されているメイクシート側を自分の顔に貼り付け、支持体を剥がす。これにより、ユーザの顔にメイクシートが貼り付けられ、ユーザの顔に適したハイライトおよびローライトのメイクが、当該ユーザの顔に施される。
 <顔の骨格特徴点の抽出方法>
 顔の骨格特徴点は、次の(E1)から(E4)のうちの1つの方法、または、2つ以上を組み合わせた方法によって抽出されてよい。
 (E1)
 身体解析部102は、図4に示すように、眼球301、鼻下302、鼻筋中心303、顎の中央点304、唇の中央点305、こめかみの頂点306など、顔の部品に関する顔特徴点を抽出する。次に、身体解析部102は、眼球301を通る縦線307と鼻下302を通る横線308との交点309を、頬骨下の骨格特徴点として抽出する。また、縦線307と鼻筋中心303を通る横線310との交点311を、頬骨の骨格特徴点として抽出する。また、身体解析部102は、顎の中央点304と唇の中央点305とを結んだ線分312の中心点313を、下顎骨の骨格特徴点として抽出する。
 (E2)
 撮影制御部101は、図3(a)に示すように、顔の上方に配置されている照明装置12を制御して顔を上方から照らし、カメラ装置11を制御して顔を撮影し、上方照射の顔画像を取得する。さらに、撮影制御部101は、顔の下方に配置されている照明装置12を制御して顔を下方から照らし、カメラ装置11を制御して顔を撮影し、下方照射の顔画像を取得する。
 身体解析部102は、上方照射の顔画像において明度が比較的高く(所定の閾値以上であり)、かつ、下方照射の顔画像において明度が比較的暗い(所定の閾値未満である)領域から、図4に示すように、頬骨上部の骨格特徴点311を特定する。
 メイク決定部103は、その頬骨上部の骨格特徴点311の近傍を、ハイライトのメイク領域に決定する。
 (E3)
 撮影制御部101は、第1の表情の顔を撮影し、第1の表情の顔画像を取得する。さらに、撮影制御部101は、第2の表情の顔を撮影し、第2の表情の顔画像を取得する。
 身体解析部102は、第1の表情の顔画像と第2の表情の顔画像との間で画像の変化量が比較的小さい(所定の閾値未満である)領域から、骨格特徴点を抽出する。
 表情の変化は概して顔の筋肉の動きによって実現される。よって、このように、表情を変化させて、あまり動かない部位を特定することにより、筋肉および皮下組織とは別に、骨格を抽出できる。したがって、第1の表情と第2の表情とは、互いに異なる表情であれば、どのような表情であってもよい。例えば、第1の表情と第2の表情とは、無表情と笑顔とであってよい。または、第1の表情と第2の表情とは、口を閉じた表情と、口を大きく開けた表情と、口をすぼめた表情と、のうちの何れか2つの組み合わせであってよい。
 (E4)
 撮影制御部101は、照明装置12を制御して顔を照らし、カメラ装置11を制御して顔を撮影し、照射の顔画像を取得する。
 身体解析部102は、照射の顔画像から顔の輪郭線を特定する。そして、身体解析部102は、その特定した輪郭線において曲率の変化量が比較的大きい(所定の閾値以上である)である区画から、第1の候補点を抽出する。
 また、身体解析部102は、照射の顔画像から、陰影差の比較的大きい(明度差が所定の閾値以上である)領域から、第2の候補点を抽出する。
 そして、身体解析部102は、第1の候補点と第2の候補点とに共通する点を、骨格特徴点とする。
 <顔のメイク領域の決定方法>
 顔のメイク領域は、次の(F1)または(F2)のうちの1つの方法、または、2つを組み合わせた方法によって決定されてよい。
 (F1)
 身体解析部102が、上記の(E1)によって骨格特徴点を抽出した場合、メイク決定部103は、次のようにメイク領域を決定する。すなわち、図4に示すように、メイク決定部103は、頬骨下の骨格特徴点(309)とこめかみの頂点306とを結ぶ領域314を含むように、ローライトのメイク領域を決定する。また、メイク決定部103は、下顎骨の骨格特徴点(313)の近傍の領域315を、ハイライトのメイク領域に決定する。また、メイク決定部103は、頬骨の骨格特徴点(311)の近傍の領域316を、ハイライトのメイク領域に決定する。
 (F2)
 メイク決定部103は、ユーザの顔特徴情報と、平均的または理想的な顔特徴情報とを用いて、ハイライトおよびローライトのメイク領域を決定する。
 例えば、ユーザの顔の骨格形状が逆三角形型の場合、メイク決定部103は、次のようにメイク領域を決定する。
 メイク決定部103は、図5Aに示すように、ユーザの骨格形状t1と、基準(理想)の骨格形状Tとを対比する。次に、メイク決定部103は、ユーザの骨格形状t1が基準の骨格形状Tからはみ出しているはみ出し領域X1、X2を特定する。次に、メイク決定部103は、ユーザの骨格形状t1が基準の骨格形状Tに対して不足している不足領域Y1、Y2を特定する。次に、メイク決定部103は、図5Bに示すように、顔画像のうち、はみ出し領域X1、X2に対応する領域L1、L2を、ローライトのメイク領域に決定する。また、メイク決定部103は、図5Bに示すように、顔画像のうち、不足領域Y1、Y2に対応する領域H1、H2をハイライトのメイク領域に決定する。
 例えば、ユーザの顔の骨格形状が菱形の場合、メイク決定部103は、次のように、メイク領域を決定する。
 メイク決定部103は、図6Aに示すように、ユーザの骨格形状t2と、基準(理想)の骨格形状Tとを対比する。次に、メイク決定部103は、ユーザの骨格形状t2が基準の骨格形状Tからはみ出しているはみ出し領域X3、X4を特定する。次に、メイク決定部103は、ユーザの骨格形状t2が基準の骨格形状Tに対して不足している不足領域Y3、Y4を特定する。次に、メイク決定部103は、図6Bに示すように、顔画像のうち、はみ出し領域X3、X4に対応する領域L3、L4を、ローライトのメイク領域に決定する。また、メイク決定部103は、図6Bに示すように、顔画像のうち、不足領域Y3、Y4に対応する領域H7、H8を、ハイライトのメイク領域に決定する。
 <実施の形態1の効果>
 実施の形態1では、メイクアップ支援装置10は、身体解析部102において、顔画像から骨格特徴点を含む顔特徴情報を生成し、メイク決定部103において、その顔特徴情報に含まれる骨格特徴点に基づいて、顔に対するローライトおよびハイライトのメイク領域およびメイク色を決定する。
 骨格特徴点は、ユーザ毎の個体差が大きく、また、メイク領域などの決定に際して、基準位置となり得る部位である。したがって、ユーザの身体の外観が撮影されたカメラ画像からユーザの骨格に基づく身体の形状を特定することにより、個々のユーザに応じたハイライトおよびローライトのメイク領域を的確に判断できる。よって、個々のユーザに適したメイクシートを容易に生成できる。すなわち、シートのカスタマイズ性が向上する。
 また、本実施の形態によれば、例えば、放射線撮像装置のような骨格を直接撮影する大がかりな装置を用いることなく、身体の外観を撮影するカメラ装置を用いた比較的簡易な方法によって、骨格特徴点を特定することができる。
 (実施の形態2)
 実施の形態2では、図1に示すメイクアップ支援装置10を用いて、脚にハイライトとローライトのメイクを施すメイクシートを生成する場合について説明する。また、実施の形態3では、顔および脚以外の身体の部位にメイクを施すメイクシートを生成する場合についても説明する。
 次に、図7を参照しながら、脚に貼り付けるメイクシートの生成手順を説明する。
 ユーザはまず、図7(a)に示すように、カメラ装置11に対して、脚の正面を向ける。なお、少なくとも1つの照明装置12が、脚を照らす位置に配置されている。
 次に、撮影制御部101は、照明装置12を制御して脚を照らし、カメラ装置11を制御して脚を正面から撮影し、カメラ装置11から、身体画像110の一例である脚画像を取得する。
 次に、身体解析部102は、脚画像を解析し、身体特徴情報111の一例である脚特徴情報を生成する。ここで、身体解析部102は、脚画像を用いて脚の骨格形状を解析し、脚の骨格特徴点を抽出する。
 次に、メイク決定部103は、脚の骨格形状および骨格特徴点を用いて、ユーザの脚に適したハイライトおよびローライトのメイク領域およびメイク色を決定する。なお、脚のメイク領域の決定方法については後述する。
 次に、メイク画像生成部104は、メイク情報112を用いて、脚画像にハイライト及びローライトのメイクを施したメイク画像114を生成する。そして、メイク画像生成部104は、図7(b)に示すように、メイク画像114を、表示制御部108を介して、ディスプレイ装置に表示する。
 ユーザは、このメイク画像114を確認し、メイクを修正したい場合、入力受付部107を介して、その修正内容を入力する。入力受付部107は、その入力された修正内容を、メイク決定部103に伝える。メイク決定部103は、その修正内容に基づいて、メイク情報112を修正し、メイク画像生成部104は、修正後のメイク画像114を表示する。
 ユーザは、メイクの修正が必要ない場合、入力受付部107を介して、「確定」を入力する。入力受付部107は、「確定」が入力されたことをメイク決定部103に伝える。メイク決定部103は、その確定を受けて、メイク情報112を確定する。
 次に、印刷情報生成部105は、その確定されたメイク情報112を用いて、脚用のメイクシートを印刷するための印刷情報113を生成する。
 次に、印刷制御部106は、図7(c)に示すように、印刷情報113を用いて印刷装置13を制御し、脚用のメイクシートを印刷する。これにより、図7(d)に示すように、脚に施されるハイライトおよびローライトのメイクが印刷されたメイクシートが生成される。
 ユーザは、図7(e)に示すように、支持体に載置されているメイクシート側を自分の脚に貼り付け、支持体を剥がす。これにより、ユーザの脚にメイクシートが貼り付けられ、ユーザ脚に適したハイライトおよびローライトのメイクが、当該ユーザの脚に施される。
 <脚のメイク領域の決定方法>
 脚のメイク領域は、次の(G1)から(G3)のうちの1つの方法、または、少なくとも2つを組み合わせた方法によって決定されてよい。
 (G1)
 メイク決定部103は、脚特徴情報に基づき、図8に示すように、ユーザの脚幅Lを算出する。なお、脚幅Lは、ユーザの左脚および右脚の複数の異なる位置において、それぞれ算出されてよい。そして、メイク決定部103は、予め定められている脚幅に対するハイライトのメイク領域の幅およびローライトのメイク領域の幅の理想的な割合に基づき、脚幅Lにおけるハイライトのメイク領域の幅aと、ローライトのメイク領域の幅b1、b2とを決定し、メイク情報112に含める。
 印刷情報生成部105は、図9に示すように、メイク情報112を用いて、ハイライトのメイク領域の幅aからハイライトの印刷領域401の幅a’を、ローライトのメイク領域の幅b1、b2からローライトの印刷領域402の幅b1’、b2’を算出し、印刷情報113を生成する。
 (G2)
 撮影制御部101は、図7(a)に示すように、脚の左方に配置されている照明装置12を制御して脚を左方から照らし、カメラ装置11を制御してその脚を撮影し、左方照射の脚画像を取得する。さらに、撮影制御部101は、脚の右方に配置されている照明装置12を制御してユーザの脚を右方から照らし、カメラ装置11を制御してその脚を撮影し、右方照射の脚画像を取得する。
 メイク決定部103は、左方照射の脚画像および右方照射の脚画像の何れにおいても明度が比較的高い(所定の閾値以上である)領域を、ハイライトのメイク領域に決定する。
 また、メイク決定部103は、左方照射の脚画像において明度が比較的低い(所定の閾値未満である)領域と、右方照射の脚画像において明度が比較的低い(所定の閾値未満である)領域とを、それぞれ、ローライトのメイク領域に決定する。
 (G3)
 撮影制御部101は、カメラ装置11を制御して膝を伸ばした姿勢の脚を撮影し、第1の姿勢の脚画像を取得する。さらに、撮影制御部101は、カメラ装置11を制御して膝を曲げた姿勢の脚を撮影し、第2の姿勢の脚画像を取得する。
 身体解析部102は、第1の姿勢の脚画像と第2の姿勢の脚画像とを比較して脚の部位の変化を解析し、脚の骨格特徴点を特定する。これにより、身体解析部102は、膝、ふともも、ふくらはぎ、およびアキレス腱など、脚の様々な部位の骨格特徴点を、より正確に特定できる。
 メイク決定部103は、そのように生成された脚特徴情報を用いて、脚に対するハイライトおよびローライトのメイク領域を決定する。
 <他の部位のメイク領域の決定方法>
 次に、顔および脚以外の他の身体の部位におけるメイク領域の決定方法について説明する。
 (デコルテ)
 撮影制御部101は、ユーザの自然な状態でのデコルテを撮影し、第1の姿勢のデコルテ画像を取得する。さらに、撮影制御部101は、ユーザが胸を寄せて持ち上げた状態のデコルテを撮影し、第2の姿勢のデコルテ画像を取得する。
 メイク決定部103は、第1の姿勢のデコルテ画像と、第2の姿勢のデコルテ画像とを対比して、陰影が変化している領域を抽出する。そして、メイク決定部103は、その抽出した領域を、ローライトおよびハイライトのメイク領域に決定する。例えば、図10に示すように、メイク決定部103は、第2の姿勢のデコルテ画像において、第1の姿勢のデコルテ画像よりも明るく変化している領域501をハイライトのメイク領域に決定し、第1の姿勢のデコルテ画像よりも暗く変化している領域502をローライトのメイク領域に決定する。
 これにより、貼り付けたときに自然なバストアップの視覚効果が得られるメイクシートを生成できる。
 (背中)
 撮影制御部101は、ユーザの自然な状態での背中を撮影し、第1の姿勢の背中画像を取得する。さらに、撮影制御部101は、ユーザが背中の肩甲骨を引き寄せた状態の背中を撮影し、第2の姿勢の背中画像を取得する。
 メイク決定部103は、第1の姿勢の背中画像と、第2の姿勢の背中画像とを対比して、陰影が変化している領域を抽出する。そして、メイク決定部103は、その抽出した領域を、ローライトおよびハイライトのメイク領域に決定する。例えば、メイク決定部103は、第2の姿勢の背中画像において、第1の姿勢の背中画像よりも暗く変化している領域を、ローライトのメイク領域に決定し、その決定したローライトのメイク領域の近傍を、ハイライトのメイク領域に決定する。
 (鎖骨)
 撮影制御部101は、ユーザが両手を下ろしている状態の鎖骨を撮影し、第1の姿勢の鎖骨画像を取得する。さらに、撮影制御部101は、ユーザが両手を上げている状態の鎖骨を撮影し、第2の姿勢の鎖骨画像を取得する。
 メイク決定部103は、第1の姿勢の鎖骨画像と、第2の姿勢の鎖骨画像とを対比して、陰影が変化している領域を抽出する。そして、メイク決定部103は、例えば図10に示すように、第2の姿勢の鎖骨画像において、第1の姿勢の鎖骨画像よりも暗く変化している領域503をローライトのメイク領域に決定し、第1の姿勢の鎖骨画像とあまり変わらずに明るい領域504をハイライトのメイク領域に決定する。
 (二の腕)
 撮影制御部101は、ユーザが腕を伸ばしている状態の二の腕を撮影し、第1の姿勢の腕画像を取得する。さらに、撮影制御部101は、ユーザが腕を曲げて力こぶを作っている状態の二の腕を撮影し、第2の姿勢の腕画像を取得する。
 メイク決定部103は、第1の姿勢の腕画像と、第2の姿勢の腕画像とを対比して、陰影が変化している領域を抽出する。そして、メイク決定部103は、第2の姿勢の腕画像において、第1の姿勢の腕画像よりも暗く変化している領域をローライトのメイク領域に決定し、第1の姿勢の腕画像よりも明るく変化している領域をハイライトのメイク領域に決定する。
 (ボディペイント)
 任意のデザインを印刷したメイクシートを身体に貼り付けることにより、メイクシートを、ボディペイントのように用いることもできる。この場合、メイク決定部103は、身体特徴情報111に基づいて、身体のサイズを算出し、その算出したサイズに応じてデザイン(メイク領域に相当)のサイズを、拡大または縮小する。
 例えば、図11Aに示すように、腕601が比較的太い場合、メイク決定部103は、デザイン(メイク領域に相当)602のサイズを拡大する。反対に、図11Bに示すように、腕601が比較的細い場合、メイク決定部103は、デザイン(メイク領域に相当)602のサイズを縮小する。
 これにより、ユーザの身体的特徴(例えば身長および体型など)が異なる場合であっても、貼り付けたときに同じような視覚的な演出効果が得られるメイクシートを生成できる。
 (他人のメイク画像を利用)
 ユーザがなりたい(理想の)姿が撮影されている他人のメイク画像(例えばモデルまたは女優などのメイク画像)を用いて、ハイライトおよびローライトのメイク領域を決定することもできる。この場合、身体解析部102は、ユーザの骨格特徴点を抽出する処理に加えて、他人のメイク画像から当該他人の身体特徴情報(骨格特徴点を含んでもよい)を抽出し、また、当該他人のメイク画像におけるハイライトおよびローライトのメイク領域およびメイク色を抽出する。そして、メイク決定部103は、他人の身体特徴情報とユーザの身体特徴情報111との相違点に基づいて、他人のメイク画像から抽出したメイク領域を、ユーザの身体に適合するメイク領域に変換(例えば、拡大または縮小)し、メイク情報112を生成する。印刷情報生成部105は、その生成されたメイク情報112から印刷情報113を生成し、印刷制御部106は、その生成された印刷情報113からメイクシートを生成する。
 これにより、身体に貼り付けることにより、ユーザがなりたい(理想の)他人の姿と同じような外観の印象が得られるメイクシートを生成できる。
 <実施の形態2の効果>
 実施の形態2では、メイクアップ支援装置10は、身体解析部102において、脚画像から骨格特徴点を含む脚特徴情報を生成し、メイク決定部103において、その脚特徴情報に含まれる骨格特徴点に基づいて、脚に対するローライトおよびハイライトのメイク領域を決定する。
 また、メイクアップ支援装置10は、脚画像に代えて、自分の他の身体部位の画像を用いて、脚画像の場合と同様に、その身体部位に対するローライトおよびハイライトのメイク領域を決定してもよい。
 これにより、メイクアップ支援装置10は、個々のユーザの脚または他の身体部位における身体的特徴に適した、ローライトおよびハイライトのメイクを施すことができるメイクシートを生成できる。
 (実施の形態3)
 実施の形態3では、図1に示すメイクアップ支援装置10を用いて、身体のツボを刺激する成分(以下「ツボ刺激成分」という)を有するメイクシートを生成する場合について説明する。なお、ツボ刺激成分は、上述の各実施の形態で説明したような視覚効果を奏するインクと共に、シートに印刷されてよい。
 次に、図12のフローチャートを参照しながら、ツボ刺激成分をシートに印刷する手順を説明する。
 まず、ユーザは、入力受付部107を介して、所望する効能を少なくとも1つ選択する(S101)。例えば、ユーザは、顔のハリ促進、顔のくすみ対策、疲れ目の軽減、小顔、エイジングケア、シワ取り、たるみ取り、むくみとり、食欲増進、食欲抑制、冷え性対策、およびリラックスの中から、少なくとも1つの効能を選択する。
 次に、撮影制御部101は、S101で選択された効能に対応するツボが存在する身体の部位を特定し、その特定した身体の部位を撮影し、身体画像110を取得する(S102)。なお、効能とツボとの対応関係は、予め定義されてよい。
 次に、身体解析部102は、S102の身体画像110から、ツボの位置を特定する(S103)。
 次に、メイク決定部103は、S101で選択された効能に対応するツボの位置をメイク領域に決定し、メイク情報112を生成する(S104)。
 次に、印刷情報生成部105は、メイク情報112のメイク領域(つまりツボの位置)に対応する印刷領域に、ツボ刺激成分を含むインクを印刷する印刷情報113を生成する(S105)。
 次に、印刷制御部106は、S105の印刷情報113に基づいて、シートの肌に接触する側の面の印刷領域に、ツボ刺激成分を含むインクを印刷し、メイクシートを生成する(S106)。
 次に、ユーザは、S106で生成されたメイクシートを、S102で特定された身体の部位に貼り付ける(S107)。
 例えば、顔のハリ促進、くすみ対策、疲れ目の軽減には、図13に示すように、眉頭の端にある大きく凹んだ部分701、および、目頭から鼻の間の骨が凹んでいる部分702のツボを刺激することが効果的である。よって、ユーザが、S101において、顔のハリ促進、くすみ対策、または疲れ目の軽減を選択した場合、メイクアップ支援装置10は、次のように動作する。
 撮影制御部101は、S102において、ユーザに対して顔画像を撮影するように指示する。身体解析部102は、S103において、ユーザの顔画像から、図13に示すツボの位置701、702を特定する。メイク決定部103は、S104において、図13に示すツボの位置701、702を、ツボ刺激成分を印刷するメイク領域に決定する。印刷情報生成部105は、S105において、そのメイク領域に対応する印刷領域、つまり、メイクシートを顔に貼り付けたときにツボの位置701,702に接する領域に、ツボ刺激成分を含むインクを印刷する印刷情報113を生成する。
 例えば、冷え性対策には、図14に示すように、内くるぶしの高さの少し後ろ側で、アキレス腱との間にある少し凹んでいるところの真ん中の部分703のツボ(太渓)を刺激することが効果的である。よって、ユーザが、S101において、冷え性対策を選択した場合、メイクアップ支援装置10は、次のように動作する。
 撮影制御部101は、S102において、ユーザに対して脚の内くるぶしを撮影するように指示する。身体解析部102は、S103において、ユーザの脚の内くるぶしの画像から、図14に示すツボの位置703を特定する。メイク決定部103は、S104において、図14に示すツボの位置703を、ツボ刺激成分を印刷するメイク領域に決定する。印刷情報生成部105は、S105において、そのメイク領域に対応する印刷領域、つまり、メイクシートを内くるぶしの部分に貼り付けたときにツボの位置703に接する領域に、ツボ刺激成分を含むインクを印刷する印刷情報113を生成する。
 なお、本実施の形態で用いるシートの厚みおよび素材は、実施の形態1に記載したものに限定されない。
 また、ツボ刺激成分は、磁性体であってもよい。この場合、印刷情報生成部105は、その磁性体の印刷領域に繋がる配線も合わせて印刷する印刷情報113を生成してもよい。これにより、メイクシートに印刷された配線に電流を流すことで、磁性体が磁界を発生させて、ツボを刺激することができる。
 また、ツボ刺激成分は、温感刺激を与える成分であってよい。温感を与える成分は、例えば、トウガラシエキス、カプサイシンエキス、ノニル酸ワニリルアミド、ニコチン酸エステルなどである。
 また、ツボ刺激成分に代えて、またはツボ刺激成分と共に、シートのツボの位置に、樹脂を積層で高く印刷し、凸形状を形成してもよい。これにより、ツボの位置を物理的に刺激する(押す)メイクシートを生成できる。
 <実施の形態3の効果>
 実施の形態3では、メイクアップ支援装置10は、身体解析部102において、ユーザの身体画像110からツボの位置を特定し、メイク決定部103において、そのツボの位置をメイク領域に決定し、印刷情報生成部105において、そのメイク領域にツボ刺激成分を含むインクを印刷する印刷情報113を生成する。
 これにより、個々のユーザの身体的特徴に適した位置にツボ刺激成分が印刷されたメイクシートを生成できる。
 また、本実施の形態の内容を、実施の形態1、2の少なくとも1つの体系に組み込むことにより、視覚的な補正効果と、身体に実際に作用する効果とを両立するメイクシートを生成できる。
 (実施の形態4)
 実施の形態4では、図1に示すメイクアップ支援装置10を用いて生成したメイクシートを肌に貼り付ける方法について説明する。
 メイクシートは、次の(H1)から(H6)のうちの何れか1つの方法によって肌に貼り付けられてよい。
 (H1)
 ユーザは、メイクシートを肌に貼り付けた後、その貼り付けた部分に水のミストを噴霧する。これにより、メイクシートをより肌に密着させることができる。なお、水のミストを噴霧する代わりに、その貼り付けた部分に、水を含むスポンジを押し当ててもよい。この貼付方法によれば、メイクシートがしっかり肌に貼り付けられる。
 (H2)
 ユーザは、メイクシートに水のミストを噴霧し、水分がメイクシートに満遍なく広がるまで待機した後、メイクシートを肌に貼り付ける。待機の時間は、例えば、10~60秒であってよい。なお、ユーザは、肌に水のミストを噴霧した後、その部分にメイクシートを貼り付けてもよい。また、水のミストを噴霧する代わりに、肌に水を含むスポンジを押し当ててもよい。この貼付方法によれば、メイクシートを肌に貼り付ける作業が容易になる。
 (H3)
 メイクシートの台紙の中心線上には切れ目線403(図9参照)が設けられており、ユーザは、その切れ目線403から台紙を左右に開きながら、メイクシートを肌に密着させていく。この貼付方法によれば、メイクシートを肌に貼り付ける際のズレが小さくなる。すなわち、ユーザは、メイクシートを、正しい位置に、簡単に貼り付けることができる。この貼付方法は、デコルテまたは脚など、比較的面積の大きい部分にメイクシートを貼り付ける際に、より効果的である。
 (H4)
 ユーザは、メイクシートの貼り付けを補助する器具(以下「貼付補助器具」という)を使用して、メイクシートを肌に貼り付ける。例えば、貼付補助器具は、図15に示すように、メイクシートを保持し、かつ、肌に押し当てられると、その保持しているメイクシートを肌に貼り付ける構造を有する。この貼付方法によれば、メイクシートを肌に貼り付ける作業が容易になる。つまり、シートのハンドリング性が向上する。
 (H5)
 1枚のシートに、比較的関連性の高い複数のメイクパーツの画像を印刷し、これらのメイクパーツの輪郭に、切れ目線を設ける。例えば、顔に貼り付ける複数のメイクパーツの画像を、1枚のシートに印刷する。または、図7(d)に示すように、両脚のメイクパーツを、1枚のシートに印刷する。この貼付方法によれば、メイクパーツ同士の位置関係がわかりやすくなるので、ユーザは、メイクパーツを正しい位置に貼り付けることができる。
 (H6)
 ユーザは、肌に貼り付けたメイクシートの上に、さらに別のメイクシートを重ねて貼り付ける。例えば、ユーザは、陰影を強調するシャドーシートを重ねて貼り付ける。この貼付方法によれば、ユーザは、メイクの仕上がり具合を、簡単に微調整できる。
 <実施の形態4の効果>
 実施の形態4に述べた貼付方法によれば、メイクシートを肌に貼り付ける作業が容易になる。
 (実施の形態5)
 実施の形態5では、顔画像の骨格特徴点を利用して、ユーザの顔に適したアイブロウシートを生成する。
 図16を参照しながら、アイブロウシートの作成手順を説明する。なお、実施の形態1において説明した構成と同一の部分については説明を省略する。
 ユーザは、カメラ装置11に対して、顔の正面を向ける。なお、少なくとも1つの照明装置12が、顔を照らす位置に配置されている。
 次に、撮影制御部101は、照明装置12を制御して顔を照らし、カメラ装置11を制御して顔を正面から撮影し、カメラ装置11から、身体画像110の一例である顔画像を取得する。この際、ユーザはカメラ装置11をまっすぐ見るように指示される。
 次に、身体解析部102は、顔画像を解析し、身体特徴情報111の一例である顔特徴情報を生成する。ここで、身体解析部102は、顔画像を用いて顎および眉周りの骨格形状を解析し、顎および眉周りの骨格特徴点を抽出する。さらに、身体解析部102は、目、鼻、黒目の位置および形状を取得する。
 次に、メイク決定部103は、顎および眉周りの骨格特徴点、目、鼻、黒目の位置および形状を用いて、ユーザの顔に適したアイブロウメイク領域を決定する。なお、アイブロウメイク領域の決定方法については後述する。
 記憶部109はデータベース202を保持している。次に、ユーザは、表示制御部108を介して表示されたデータベース202から好ましいアイブロウメイク203を選択する。データベース202には見本となる様々なタイプのアイブロウメイク203が保持されている。各アイブロウメイク203は、例えば、並行眉、山型眉、太め眉、細め眉等の形状、および/またはカラーが異なっている。なお、ユーザによるアイブロウメイク203の選択は、必ずしも撮影および身体解析の後に行われる必要はなく、これより前のいずれかの段階にて行われても良い。
 次に、メイク画像生成部104は、メイク情報112を用いて、顔画像にアイブロウメイクを施したメイク画像114を生成する。そして、メイク画像生成部104は、メイク画像114を、表示制御部108を介してディスプレイ装置に表示する。
 ユーザは、このメイク画像114を確認し、メイクを修正したい場合、入力受付部107を介して、その修正内容を入力する。入力受付部107は、その入力された修正内容を、メイク決定部103に伝える。メイク決定部103は、その修正内容に基づいて、メイク情報112を修正し、メイク画像生成部104は、修正後のメイク画像114を表示する。
 ユーザは、メイクの修正が必要ない場合、入力受付部107を介して、「確定」を入力する。入力受付部107は、「確定」が入力されたことをメイク決定部103に伝える。メイク決定部103は、その確定を受けて、メイク情報112を確定する。
 次に、印刷情報生成部105は、その確定されたメイク情報112を用いて、アイブロウメイクシートを印刷するための印刷情報113を生成する。
 次に、印刷制御部106は、印刷情報113を用いて印刷装置13を制御し、アイブロウメイクシートを印刷する。これにより、眉に施されるアイブロウメイクが印刷されたメイクシートが生成される。
 ユーザは、支持体に載置されているメイクシート側を自分の眉部分に貼り付け、支持体を剥がす。これにより、ユーザの眉部分にメイクシートが貼り付けられ、ユーザに適したアイブロウメイクが、当該ユーザの眉に施される。
 <アイブロウメイク領域の決定方法>
 アイブロウメイクの領域は、次の(I1)あるいは(I2)のうちの1つの方法、または、2つを組み合わせた方法を用いて決定する。
 (I1)
 図17に示すように、メイク決定部103は、顎の骨格特徴点に基づき、ユーザの顎の中心点Xを取得する。さらに、メイク決定部103は、眉周りの骨格特徴点に基づき、アイブロウメイクが配置される曲線Yを取得する。そして、メイク決定部103は、中心点Xから黒目の外側に向かって引いた直線M1と中心点Xから黒目の内側に向かって引いた直線M2との間の領域における、曲線Yとの交点を、眉山の位置Z1として決定する。
 次に、図18に示すように、メイク決定部103は、小鼻の外側から目尻の外側に向かって引いた直線M3と曲線Yとの交点を、眉尻の位置Z2として決定する。
 次に、メイク画像生成部104は、ユーザにより選択されたアイブロウメイク203の形状を、眉山の位置Z1および眉尻の位置Z2に合うように調整し、ユーザに適したアイブロウメイクの形状を決定する。メイク画像生成部104は、これをメイク画像114として出力する。
 (I2)
 撮影制御部101は、顔の少なくとも上方に配置されている照明装置12を制御して顔を上方から照らし、カメラ装置11を制御してその顔を撮影し、顔画像を取得する。照明装置12は、上だけでなく、下および/または左右に配置されてもよい。
 次に、メイク決定部103は、照明照射の顔画像において、眉周りの明度が比較的高い(所定の閾値以上である)領域と、眉周りの明度が低く、影になっている(所定の閾値以下である)領域と、の境界領域を、アイブロウメイクが配置される曲線Yとして取得する。そして、メイク決定部103は、中心点Xから黒目の外側に向かって引いた直線M1と中心点Xから黒目の内側に向かって引いた直線M2との間の領域における、曲線Yとの交点を、眉山の位置Z1として決定する。
 次に、図18に示すように、メイク決定部103は、鼻の外側から目尻の外側に向かって引いた直線M3と曲線Yとの交点を、眉尻の位置Z2として決定する。
 次に、メイク画像生成部104は、ユーザにより選択されたアイブロウメイク203の形状を、眉山の位置Z1および眉尻の位置Z2に合うように調整し、ユーザに適したアイブロウメイクの形状を決定する。メイク画像生成部104は、これをメイク画像114として出力する。
 (実施の形態6)
 実施の形態6では、顔画像の骨格特徴点を利用して、ユーザの顔に適したアイブロウシートを生成する。
 図19を参照しながら、アイメイクシートの作成手順を説明する。なお、実施の形態1において説明した構成と同一の部分については説明を省略する。
 まず、ユーザは、カメラ装置11に対して、顔の正面を向ける。なお、少なくとも1つの照明装置12が、顔を照らす位置に配置されている。
 次に、撮影制御部101は、照明装置12を制御して顔を照らし、カメラ装置11を制御して顔を正面から撮影し、カメラ装置11から、身体画像110の一例である顔画像を取得する。この際、ユーザはカメラ装置11をまっすぐ見るように指示される。
 次に、身体解析部102は、顔画像を解析し、身体特徴情報111の一例である顔特徴情報を生成する。ここで、身体解析部102は、顔画像を用いて顎の骨格形状を解析し、顎の骨格特徴点を抽出する。さらに、身体解析部102は、目、鼻の位置および形状を取得する。
 次に、メイク決定部103は、顎の骨格特徴点、目、鼻の位置および形状を用いて、ユーザの顔に適したアイメイク領域を決定する。なお、アイメイク領域の決定方法については後述する。
 記憶部109はデータベース202を保持している。次に、ユーザは、表示制御部108を介して表示されたデータベース202から好ましいアイメイク205を選択する。データベース202には、見本となる様々なタイプのアイメイク205が保持されている。各アイメイク205は、例えば、二重ライン、アイライン、アイシャドウ等のラインの形状、および/またはカラーが異なっている。例えば、二重ラインに関するアイメイク205は、図20Aに示すように、開眼時の二重の幅L3、ならびに、目尻に対する正負方向の延長長さL1および形状が異なる。また、アイラインに関するアイメイク205は、図20Aに示すように、目尻からの延長長さL2および形状が異なる。アイラインの目尻からの延長長さL2の形状のバリエーションには、例えば、跳ね上げ形状、タレ目形状などがある。
 なお、ユーザによるアイブロウメイク203の選択は、必ずしも撮影および身体解析の後で行われる必要はなく、これより前のいずれかの段階にて行われても良い。
 次に、メイク画像生成部104は、メイク情報112を用いて、顔画像にアイメイクを施したメイク画像114を生成する。そして、メイク画像生成部104は、メイク画像114を、表示制御部108を介してディスプレイ装置に表示する。
 ユーザは、このメイク画像114を確認し、メイクを修正したい場合、入力受付部107を介して、その修正内容を入力する。入力受付部107は、その入力された修正内容を、メイク決定部103に伝える。メイク決定部103は、その修正内容に基づいて、メイク情報112を修正し、メイク画像生成部104は、修正後のメイク画像114を表示する。
 ユーザは、メイクの修正が必要ない場合、入力受付部107を介して、「確定」を入力する。入力受付部107は、「確定」が入力されたことをメイク決定部103に伝える。メイク決定部103は、その確定を受けて、メイク情報112を確定する。
 次に、印刷情報生成部105は、その確定されたメイク情報112を用いて、アイメイクシートを印刷するための印刷情報113を生成する。
 次に、印刷制御部106は、図7(c)に示すように、印刷情報113を用いて印刷装置13を制御し、アイメイクシートを印刷する。これにより、目元に施されるアイメイクが印刷されたメイクシートが生成される。
 ユーザは、支持体に載置されているメイクシート側を自分の目元に貼り付け、支持体を剥がす。これにより、ユーザの目元にメイクシートが貼り付けられ、ユーザに適したアイメイクが、当該ユーザの目元に施される。
 なお、ユーザが、決定したアイメイクのメイク画像114を確認する際、そのユーザが決定したアイメイクをユーザの顔画像に畳重して表示した状態で、照明部(図示せず)の照度、色および/または温度を変化させて、ユーザの顔を照らしてもよい。これにより、ユーザは、実際にアイメイクを使用するシチュエーションにおいて、どのような色、表現、および印象になるかを確認することができる。
 <アイメイク領域の決定方法>
 アイメイク領域は、次の(J1)から(J3)のうちの1つの方法、または、2つ以上を組み合わせた方法を用いて決定する。
 (J1)二重ラインの形状決定方法
 ユーザは目を開閉するように指示され、メイク決定部103は、図21に示すように、目を開けた際の目の上のラインから二重ラインの位置および形状を取得し、二重ラインが配置される曲線Y1を決定する。
 次に、メイク決定部103は、顎の骨格特徴点に基づき、図17に示すように、ユーザの顎の中心点Xを取得する。
 次に、メイク決定部103は、図21に示すように、中心点Xから目尻の外側に向かって引いた直線M4と曲線Y1との交点Z3から、曲線Y1のラインに沿ってL1だけ延長した曲線を、二重ラインの基準線Y1’として決定する。なお、延長長さL1は、眉山に近づく方向(負のL1)であってもよいし、眉山から離れる方向(正のL1)であってもよい。
 次に、メイク決定部103は、ユーザにより選択されたアイメイク205の形状を、曲線Y1’に合うように調整し、ユーザに適した二重ラインの形状を決定する。メイク画像生成部104は、これをメイク画像114として出力する。
 (J2)アイラインの形状決定方法
 ユーザは目を開閉するように指示され、メイク決定部103は、図22Bに示すように、目を開けた際の目の上のラインから二重ラインの位置および形状を取得し、図22Aに示すように、目を閉じた際のまぶたのラインからアイラインが配置される曲線Y2の形状を決定する。
 次に、メイク決定部103は、図17に示すように、顎の骨格特徴点に基づき、ユーザの顎の中心点Xを取得する。
 次に、メイク決定部103は、図22Bに示すように、中心点Xから目尻の外側に向かって引いた直線M5と曲線Y2との交点Z4から、Y2のラインに沿って距離L2だけ延長した曲線を、アイラインの基準線Y2’として決定する。
 次に、メイク決定部103は、ユーザにより選択されたアイメイク205の形状を曲線Y2’に合うように調整し、ユーザに適したアイラインの形状を決定する。メイク画像生成部104は、これをメイク画像114として出力する。
 なお、アイラインは、色の濃淡のグラデーションを有してもよい。例えば、顎の骨格特徴点、目、鼻の位置および形状から得られた、目尻、目頭、目の中央位置情報に基づいて、アイラインは、中央方向へ向かって徐々に色が濃くなるグラデーションを有してもよい。あるいは、アイラインは、目尻方向へ向かって徐々に色が濃くなるグラデーションを有してもよい。
 (J3)アイシャドウの領域決定方法
 ユーザは目を開閉するように指示され、メイク決定部103は、図23Aに示すように、目を開けた際の目の上のラインから二重ラインの位置および形状を取得し、二重ラインが配置される曲線Y1を決定する。さらに、メイク決定部103は、図23Bに示すように、目を閉じた際のアイホールの形状および曲線Y1の位置から、アイホールの形状を曲線Y1の上まで拡張した形を、アイシャドウ領域A1として決定する。
 次に、メイク決定部103は、図17に示すように、顎の骨格特徴点に基づき、ユーザの顎の中心点Xを取得する。
 次に、メイク決定部103は、ユーザにより選択されたアイメイク205の形状を、領域A1に合うように調整し、ユーザに適したアイシャドウの形状を決定する。メイク画像生成部104は、これをメイク画像114として出力する。
 なお、メイク決定部103は、アイメイク画像における目から眉方向へ向かう幅を決定する際、目上部における彫りおよび窪みの深さ(つまり、目元の骨格特徴)を算出してもよい。例えば、目元の骨格を検出しやすくするために、撮影制御部101は、顔の上部から所定の角度をつけてユーザの顔に照明を照射し、身体画像110を撮影する。そして、メイク決定部103は、影となる幅から、目元の骨格特徴を解析(算出)する。
 <アイメイクシートの貼付け方法>
 アイメイク領域は、頬や脚へのメイクと比較して、小さく、細長い領域である。このため、所望の位置にきれいにメイクシートを貼付けることが難しい。
 そこで、図24を参照して、アイライン画像が印刷されたメイクシートの貼付け方法の一例を説明する。なお、基本的な構成および貼付け方法は、実施の形態4において、図15を用いて説明した内容と同様である。
 図24には、アイライン画像が印刷されたメイクシート2501、シート貼付台紙2502、貼付補助装置2503が示されている。メイクシート2501は、シート貼付台紙2502の一方の面に接地されている。
 貼付補助装置2503は、把持部2504と支持部2505とを有する。、支持部2505は、アイラインのメイクシート2501の長軸方向の両端を支持する形状を有する。なお、支持部2505は、メイクシート2501を、2点以上で支持する形状であってもよい。例えば、支持部2505は、メイクシート2501を、三又形状による3点で支持する形状であってもよい。次に、貼付方法の例を2つ示す。
 <貼付方法1>
 (ステップ1)ユーザは、把持部2504を手で持ち、シート貼付台紙2502の他方の面(メイクシート2501が接地されていない方の面)に支持部2505を押し当て、メイクシート2501を含むシート貼付台紙2502を支持部2505に貼り付ける。そして、ユーザは、貼付補助装置2503を持ち上げる。
 (ステップ2)ユーザは、鏡または画像処理装置の表示部に表示されている自分の顔を確認しながら、支持部2505を目元(アイライン)に押し当て、メイクシート2501のみを顔に貼り付ける。
 (ステップ3)メイクシート2501の貼付後、ユーザは、支持部2505に残ったシート貼付台紙2502を、指などで(手動で)取り除く。
 これにより、貼付補助装置2503を繰り返し使用できる。なお、貼付補助装置2503の支持部2505の表面には、フック形状の表面加工がなされていてよい。あるいは、シート貼付台紙2502の他方の面又は支持部2505の表面には、粘着剤が塗布されていてよい。何れにおいても、ステップ1において、シート貼付台紙2502が支持部2505に貼り付くようになる。
 <貼付方法2>
 (ステップ1)ユーザは、シート貼付台紙2502の一方の面(メイクシート2501が接地されている方の面)に、支持部2505を押し当て、メイクシート2501のみを支持部2505に貼り付ける。そして、ユーザは、貼付補助装置2503を持ち上げる。
 (ステップ2)ユーザは、支持部2505を目元(アイライン)に押し当て、メイクシート2501を顔に貼り付ける。なお、支持部2505の表面には、親水性加工がなされていてよい。親水性加工がなされており、水を用いてメイクシート2501を貼り付ける場合、例えば水分を含ませたスポンジに押し当てて、水分を面全体に均一に供給した後に、肌に押し当てるとよい。メイクシート2501は細長い形状であるため、例えば霧吹き等で水噴霧を行うと、風圧によって、メイクシート2501が支持部2505上で動いてしまうおそれがあるためである。
 以上、本開示に係る実施形態について図面を参照して詳述してきたが、上述した、メイクアップ支援装置10の機能は、コンピュータプログラムにより実現され得る。
 図25は、メイクアップ支援装置10の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ2100は、キーボード又はマウス、タッチパッドなどの入力装置2101、ディスプレイ又はスピーカーなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105、ハードディスク装置又はSSD(Solid State Drive)などの記憶装置2106、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備え、各部はバス2109により接続される。
 そして、読取装置2107は、上記各装置の機能を実現するためのプログムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードしたメイクアップ支援装置10の機能を実現するためのプログラムを記憶装置2106に記憶させる。
 そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、メイクアップ支援装置10の機能が実現される。
 本開示に係る身体外観補正支援装置、身体外観補正支援方法およびコンピュータプログラムは、ユーザが、身体に貼付可能なシートを用いて身体外観を変化することを支援できる。
 10 メイクアップ支援装置
 11 カメラ装置
 12 照明装置
 13 印刷装置
 101 撮影制御部
 102 身体解析部
 103 メイク決定部
 104 メイク画像生成部
 105 印刷情報生成部
 106 印刷制御部
 107 入力受付部
 108 表示制御部
 109 記憶部
 110 身体画像
 111 身体特徴情報
 112 メイク情報
 113 印刷情報
 114 メイク画像
 202 データベース
 203 アイブロウメイク
 205 アイメイク

Claims (17)

  1.  身体に貼付可能なシートを用いた身体外観の視覚的な補正を支援する、身体外観補正支援装置であって、
     前記身体が撮影された身体画像から、当該身体の外観形状に係る特徴を、当該身体の骨格に基づいて解析して、解析された特徴を示す身体特徴情報を生成する特徴解析部と、
     生成された身体特徴情報に基づいて、前記身体の外観形状を視覚的に補正可能なメイクアップを決定するメイク決定部と、
     決定されたメイクアップに基づいて、前記シートへのメイク画像の印刷に関する印刷情報を生成する印刷情報生成部と、
     を備える身体外観補正支援装置。
  2.  前記身体の外観形状を視覚的に補正可能なメイクアップは、ローライトのメイクアップと、ハイライトのメイクアップとを含み、
     前記ローライトのメイク色は、前記ハイライトのメイク色よりも、色調またはLab色空間のL値が低い、
     請求項1に記載の身体外観補正支援装置。
  3.  前記メイク決定部は、前記身体特徴情報に基づき、前記ローライトのメイク領域と、前記ハイライトのメイク領域とを決定する、
     請求項2に記載の身体外観補正支援装置。
  4.  前記身体特徴情報は、前記身体の骨格に関する特徴的な位置を示す骨格特徴点を含む、
     請求項3に記載の身体外観補正支援装置。
  5.  前記身体画像は、顔を撮影した顔画像であり、
     前記特徴解析部は、前記顔画像における、眼球を通る縦方向の線と鼻下を通る横方向の線との交点に基づき、頬骨下の骨格特徴点を特定し、顎の中央点と唇の中央点とを結んだ線分の中心点に基づき、下顎骨の骨格特徴点を特定し、
     前記メイク決定部は、前記頬骨下の骨格特徴点とこめかみの頂点とを結ぶ領域に基づき、前記ローライトのメイク領域を決定し、前記下顎骨の骨格特徴点と前記顎の中央点とを結ぶ領域に基づき、前記ハイライトのメイク領域を決定する、
     請求項4に記載の身体外観補正支援装置。
  6.  前記特徴解析部は、前記身体画像における、前記身体の輪郭線の曲率の変化量が所定の第1閾値以上であり、かつ、明度差が所定の第2閾値以上である領域に基づき、前記骨格特徴点を特定する、
     請求項4に記載の身体外観補正支援装置。
  7.  前記特徴解析部は、表情または姿勢が異なる少なくとも2つの身体画像の間の変化量が所定の閾値未満である領域に基づき、前記骨格特徴点を特定する、
     請求項4に記載の身体外観補正支援装置。
  8.  前記メイク決定部は、前記身体画像における前記ローライトのメイク領域から抽出した肌の色を、色相を固定して色調を下げて、または、Lab色空間のa値およびb値を固定してL値を下げて、前記ローライトのメイク色を決定する、
     請求項3に記載の身体外観補正支援装置。
  9.  前記ハイライトのメイク色に対応する、前記シートに印刷されるインクは、ラメ、白色顔料、光沢剤または反射剤のうちの少なくとも1つを含む、
     請求項2に記載の身体外観補正支援装置。
  10.  前記メイク決定部は、前記身体特徴情報を用いて算出される前記身体の骨格形状の曲率の大きさに応じて、前記ハイライトのメイク領域の大きさを決定する、
     請求項3または4に記載の身体外観補正支援装置。
  11.  前記メイク決定部は、前記ハイライトのメイク領域に含まれる中心領域の外周から2mm以上離れた位置におけるメイク色の濃度を、前記中心領域におけるメイク色の濃度の50%以上に決定する、
     請求項3に記載の身体外観補正支援装置。
  12.  メイクアップのイメージを表すキーワードであるメイクイメージキーワードの選択を受け付ける入力受付部をさらに備え、
     前記メイク決定部は、選択された前記メイクイメージキーワードに対応付けられている色に基づき、前記ハイライトおよび前記ローライトのメイク色を決定する、
     請求項3に記載の身体外観補正支援装置。
  13.  前記身体画像に対するメイクアップの描画入力を受け付ける入力受付部をさらに備え、
     前記メイク決定部は、前記メイクアップの描画入力に基づき、前記ハイライトおよび前記ローライトのメイク領域および色を決定する、
     請求項3に記載の身体外観補正支援装置。
  14.  前記メイク決定部は、メイクアップ前とメイクアップ後がそれぞれ撮影されている少なくとも2つの身体画像において色が変化している領域に基づき、前記ハイライトおよび前記ローライトのメイク領域およびメイク色を決定する、
     請求項3に記載の身体外観補正支援装置。
  15.  前記特徴解析部は、前記骨格特徴点に基づき、前記身体のツボ位置を特定し、
     前記印刷情報生成部は、前記シートにおける、特定された前記ツボ位置に、ツボ刺激成分を印刷する前記印刷情報を生成する、
     請求項4に記載の身体外観補正支援装置。
  16.  身体に貼付可能なシートを用いた身体外観の視覚的な補正を支援する、身体外観補正支援方法であって、
     前記身体が撮影された身体画像から、当該身体の外観形状に係る特徴を、当該身体の骨格に基づいて解析して、解析された特徴を示す身体特徴情報を生成し、
     生成された前記身体特徴情報に基づいて、前記身体の外観形状を視覚的に補正可能なメイクアップを決定し、
     決定された前記メイクアップに基づいて、前記シートへのメイク画像の印刷に関する印刷情報を生成する、
     身体外観補正支援方法。
  17.  身体に貼付可能なシートを用いた身体外観の視覚的な補正を支援する、コンピュータプログラムであって、
     前記身体が撮影された身体画像から、当該身体の外観形状に係る特徴を、当該身体の骨格に基づいて解析して、解析された特徴を示す身体特徴情報を生成し、
     生成された身体特徴情報に基づいて、前記身体の外観形状を視覚的に補正可能なメイクアップを決定し、
     決定された前記メイクアップに基づいて、前記シートへのメイク画像の印刷に関する印刷情報を生成する、処理をコンピュータに実行させる、コンピュータプログラム。
PCT/JP2018/043362 2017-12-26 2018-11-26 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム WO2019130933A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18895145.3A EP3733019A4 (en) 2017-12-26 2018-11-26 DEVICE AND PROCEDURE FOR ASSISTANT CORRECTION OF PHYSICAL APPEARANCE, AND COMPUTER PROGRAM
CN201880073791.7A CN111356383A (zh) 2017-12-26 2018-11-26 身体外观修正辅助装置、身体外观修正辅助方法以及程序
SG11202005625XA SG11202005625XA (en) 2017-12-26 2018-11-26 Body Appearance Correction Support Apparatus, Body Appearance Correction Support Method, And Computer Program
US16/857,770 US20200250404A1 (en) 2017-12-26 2020-04-24 Body appearance correction support apparatus, body appearance correction support method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017249358 2017-12-26
JP2017-249358 2017-12-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/857,770 Continuation US20200250404A1 (en) 2017-12-26 2020-04-24 Body appearance correction support apparatus, body appearance correction support method, and storage medium

Publications (1)

Publication Number Publication Date
WO2019130933A1 true WO2019130933A1 (ja) 2019-07-04

Family

ID=67063048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/043362 WO2019130933A1 (ja) 2017-12-26 2018-11-26 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム

Country Status (6)

Country Link
US (1) US20200250404A1 (ja)
EP (1) EP3733019A4 (ja)
JP (1) JP2019115653A (ja)
CN (1) CN111356383A (ja)
SG (1) SG11202005625XA (ja)
WO (1) WO2019130933A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021049082A (ja) * 2019-09-24 2021-04-01 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
WO2021070698A1 (ja) * 2019-10-11 2021-04-15 株式会社資生堂 オートメイクアップマシン、方法、プログラム、および制御装置
CN113850708A (zh) * 2020-06-28 2021-12-28 华为技术有限公司 交互方法、交互装置、智能镜子

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7396258B2 (ja) * 2020-12-03 2023-12-12 トヨタ自動車株式会社 制御装置、歩行訓練システム、制御方法及び制御プログラム
KR20220145116A (ko) * 2021-04-21 2022-10-28 프링커코리아 주식회사 사용자 맞춤형 색조 화장용 인쇄 매체 제공 장치 및 방법
US20230196550A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining body contour

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53145910A (en) * 1977-05-24 1978-12-19 Mutsuhiko Yasuda Pappu medicine
JP2000011145A (ja) * 1998-06-18 2000-01-14 Shiseido Co Ltd 口紅色変換システム
JP2005044283A (ja) * 2003-07-25 2005-02-17 Seiko Epson Corp 化粧品ガイダンスシステム、サーバ装置、端末装置およびプログラム
JP2005074105A (ja) * 2003-09-02 2005-03-24 Kanebo Ltd カウンセリングツールおよびその使用方法
WO2008102440A1 (ja) * 2007-02-21 2008-08-28 Tadashi Goino 化粧顔画像生成装置及び方法
JP2013226356A (ja) * 2012-04-26 2013-11-07 I & I Consulting:Kk 鼻翼型経鼻カニューレ
JP2014131594A (ja) * 2012-12-03 2014-07-17 Kao Corp 化粧料塗布装置及びこれを用いた化粧方法
JP2014140097A (ja) * 2013-01-21 2014-07-31 Sony Corp 画像表示装置及び画像表示方法
JP2016064307A (ja) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 メイクアップ支援装置
WO2016158729A1 (ja) * 2015-03-27 2016-10-06 株式会社メガチップス 化粧支援システム、計測装置、携帯端末装置およびプログラム
JP2017093705A (ja) * 2015-11-20 2017-06-01 日本メナード化粧品株式会社 化粧料へ配合するパール剤の選出方法
WO2017110041A1 (ja) * 2015-12-25 2017-06-29 パナソニックIpマネジメント株式会社 メイクパーツ作成装置、メイクパーツ利用装置、メイクパーツ作成方法、メイクパーツ利用方法、メイクパーツ作成プログラム、およびメイクパーツ利用プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3912834B2 (ja) * 1997-03-06 2007-05-09 有限会社開発顧問室 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
JP3779570B2 (ja) * 2001-07-30 2006-05-31 デジタルファッション株式会社 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
CA2618706C (en) * 2005-08-12 2018-01-02 Rick B. Yeager System and method for medical monitoring and treatment through cosmetic monitoring and treatment
JP6288404B2 (ja) * 2013-02-28 2018-03-07 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP5372275B1 (ja) * 2013-03-22 2013-12-18 パナソニック株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6375480B2 (ja) * 2013-08-30 2018-08-22 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、メイクアップ支援方法、およびメイクアップ支援プログラム
US20160128919A1 (en) * 2014-11-06 2016-05-12 Dagmar Bjork SVEINE Non-invasive and long lasting skin darkening devices, compositions, and methods of use for body contouring
EP3278688A4 (en) * 2015-04-02 2018-03-21 Genic Co., Ltd. Base sheet for mask pack and mask pack using same

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53145910A (en) * 1977-05-24 1978-12-19 Mutsuhiko Yasuda Pappu medicine
JP2000011145A (ja) * 1998-06-18 2000-01-14 Shiseido Co Ltd 口紅色変換システム
JP2005044283A (ja) * 2003-07-25 2005-02-17 Seiko Epson Corp 化粧品ガイダンスシステム、サーバ装置、端末装置およびプログラム
JP2005074105A (ja) * 2003-09-02 2005-03-24 Kanebo Ltd カウンセリングツールおよびその使用方法
WO2008102440A1 (ja) * 2007-02-21 2008-08-28 Tadashi Goino 化粧顔画像生成装置及び方法
JP2013226356A (ja) * 2012-04-26 2013-11-07 I & I Consulting:Kk 鼻翼型経鼻カニューレ
JP2014131594A (ja) * 2012-12-03 2014-07-17 Kao Corp 化粧料塗布装置及びこれを用いた化粧方法
JP2014140097A (ja) * 2013-01-21 2014-07-31 Sony Corp 画像表示装置及び画像表示方法
WO2016158729A1 (ja) * 2015-03-27 2016-10-06 株式会社メガチップス 化粧支援システム、計測装置、携帯端末装置およびプログラム
JP2017093705A (ja) * 2015-11-20 2017-06-01 日本メナード化粧品株式会社 化粧料へ配合するパール剤の選出方法
WO2017110041A1 (ja) * 2015-12-25 2017-06-29 パナソニックIpマネジメント株式会社 メイクパーツ作成装置、メイクパーツ利用装置、メイクパーツ作成方法、メイクパーツ利用方法、メイクパーツ作成プログラム、およびメイクパーツ利用プログラム
JP2016064307A (ja) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 メイクアップ支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3733019A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021049082A (ja) * 2019-09-24 2021-04-01 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP7413691B2 (ja) 2019-09-24 2024-01-16 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
WO2021070698A1 (ja) * 2019-10-11 2021-04-15 株式会社資生堂 オートメイクアップマシン、方法、プログラム、および制御装置
CN114502036A (zh) * 2019-10-11 2022-05-13 株式会社资生堂 自动化妆机、方法、程序以及控制装置
CN113850708A (zh) * 2020-06-28 2021-12-28 华为技术有限公司 交互方法、交互装置、智能镜子

Also Published As

Publication number Publication date
CN111356383A (zh) 2020-06-30
JP2019115653A (ja) 2019-07-18
EP3733019A1 (en) 2020-11-04
SG11202005625XA (en) 2020-11-27
EP3733019A4 (en) 2021-03-10
US20200250404A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
WO2019130933A1 (ja) 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム
US10413042B2 (en) Makeup support device, makeup support method, and makeup support program
CN104270996B (zh) 对具有生物相容性的薄膜印刷功能性材料的装置以及印刷方法
EP2820970B1 (en) Makeup application assistance device, makeup application assistance method, and makeup application assistance program
CN102903135B (zh) 用于皱纹老化和去老化逼真模拟的方法和装置
JP2020515952A (ja) 年齢容姿シミュレーションのための方法
CN109152464B (zh) 图像处理装置以及图像处理方法
JPWO2018003421A1 (ja) 画像処理装置および画像処理方法
US20220044311A1 (en) Method for enhancing a user's image while e-commerce shopping for the purpose of enhancing the item that is for sale
CN108211241A (zh) 一种基于镜像视觉反馈的面部肌肉康复训练系统
CN104270997B (zh) 转印装置以及印刷装置
KR101516465B1 (ko) 아바타 생성 방법 및 장치
CN107125904A (zh) 图像处理装置以及图像处理方法
JP6515459B2 (ja) トータル美容アドバイス方法
JP6132248B2 (ja) メイクアップ支援装置
TW200819143A (en) Method of makeup
WO2012096081A1 (ja) マッサージの評価方法及び装置、並びにプログラム及びコンピュータ読み取り可能な記憶媒体
CN109965493A (zh) 一种分屏交互展示方法及装置
Rojas Photographing women: posing, lighting, and shooting techniques for portrait and fashion photography
CN111602950A (zh) 一种化妆纸、自动化妆装置及方法
Draper 'I'm sorry, you said she was how old?': youthfulness and the fashion model
Nosti Are you Ready?
McMurray Self-Portraits
TWM264886U (en) Malleable mask
Graves Drawing portraits

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18895145

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018895145

Country of ref document: EP

Effective date: 20200727

NENP Non-entry into the national phase

Ref country code: JP