WO2014119244A1 - メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法 - Google Patents

メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法 Download PDF

Info

Publication number
WO2014119244A1
WO2014119244A1 PCT/JP2014/000247 JP2014000247W WO2014119244A1 WO 2014119244 A1 WO2014119244 A1 WO 2014119244A1 JP 2014000247 W JP2014000247 W JP 2014000247W WO 2014119244 A1 WO2014119244 A1 WO 2014119244A1
Authority
WO
WIPO (PCT)
Prior art keywords
makeup
information
unit
user
implementation
Prior art date
Application number
PCT/JP2014/000247
Other languages
English (en)
French (fr)
Inventor
智史 山梨
理惠子 浅井
あおい 牟田
千枝 西
香織 安食
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/388,998 priority Critical patent/US9986812B2/en
Priority to CN201480000922.0A priority patent/CN104203043B/zh
Priority to EP14746673.4A priority patent/EP2820971B1/en
Publication of WO2014119244A1 publication Critical patent/WO2014119244A1/ja
Priority to US15/010,130 priority patent/US10028569B2/en
Priority to US15/010,122 priority patent/US10264870B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0076Body hygiene; Dressing; Knot tying
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Definitions

  • the present invention relates to a makeup assisting apparatus, makeup assisting system, and makeup assisting method for assisting facial makeup (makeup).
  • Patent Documents 1 to 3 The techniques described in Patent Documents 1 to 3 (hereinafter, referred to as “prior art”) acquire an image obtained by capturing a face to be a makeup target (hereinafter, simply referred to as “face”).
  • face a makeup target
  • a simulation image is generated by superimposing an image indicating the state of makeup when applying lipstick or cheek on a face to the acquired image. Then, according to the related art, the generated simulation image is displayed on the display device.
  • simulation target a target of simulation image generation
  • Patent Document 3 describes a technique for selecting a simulation target based on a predetermined selection criterion from among a plurality of makeups prepared in advance. Such a technology makes it possible to automatically narrow down the simulation target to an appropriate makeup.
  • An object of the present invention is to provide a makeup assisting apparatus, a makeup assisting system, and a makeup assisting method, which can appropriately assist makeup even if the makeup trend changes with time. .
  • the makeup assisting apparatus of the present invention comprises: a makeup collecting unit for collecting implementation makeup information indicating makeup selected as an implementation target in the makeup from each of a plurality of persons; A makeup analysis unit that analyzes and estimates epidemic makeup and determines selection criteria such that the estimated epidemic makeup is selected, and selects makeup based on the determined selection criteria and the selected makeup And a makeup presenting unit that presents suggested makeup information indicating the information to the user.
  • a makeup support system is a makeup support system including a plurality of terminals and a server capable of communicating with each of the plurality of terminals via a communication network, wherein the terminals are users of the terminals.
  • a makeup acquiring unit for acquiring implementation makeup information, and a makeup report unit for transmitting the acquired implementation makeup information to the server, wherein the makeup indicates makeup selected as an implementation target in makeup;
  • a makeup collecting unit for accumulating the makeup information transmitted from each of the plurality of terminals, and analyzing the accumulated makeup information to estimate epidemic makeup, the estimated makeup being estimated
  • a makeup analysis unit that determines selection criteria to be selected, and selects makeup based on the determined selection criteria, and selects the selected makeup The to the proposed makeup information, having a makeup presenting section for presenting to a user receiving the support of the makeup.
  • the makeup assisting method of the present invention comprises the steps of: collecting, from each of a plurality of persons, implemented makeup information indicating makeup selected by the person as a target for implementation in makeup; and analyzing the collected implemented makeup information. Estimating the makeup of the epidemic and determining the selection criteria such that the estimated epidemic makeup is selected, selecting the makeup based on the determined selection criteria, and indicating the selected makeup Presenting proposed makeup information to the user.
  • Block diagram showing an example of configuration of makeup support system according to Embodiment 1 of the present invention System configuration diagram showing an example of the configuration of a makeup support system according to Embodiment 2 of the present invention Block diagram showing an example of configuration of a terminal according to Embodiment 2 Block diagram showing an example of the configuration of the server according to Embodiment 2
  • a figure showing an example of a cosmetics table in Embodiment 2 Flow chart showing an example of the operation of the terminal according to the second embodiment A diagram showing an example of an image in the second embodiment A diagram showing an example of arrangement of face feature points in the second embodiment A diagram showing an example of face part information in the second embodiment
  • FIG. 2 The figure which shows an example of the proposal makeup message in Embodiment 2.
  • a diagram showing an example of a simulation image in the second embodiment Flow chart showing an example of the operation of the server according to the second embodiment
  • Embodiment 1 of the present invention is an example of a basic aspect of the present invention.
  • FIG. 1 is a block diagram showing an example of the configuration of a makeup support system according to the present embodiment.
  • makeup assisting system 100 includes first to N (N is an integer of 2 or more) and the terminal 200 1 through 200 N, the terminals 200 1 to the first to N through the communication network 300 200 And a server (make-up support apparatus according to the present invention) 400 capable of communicating with each of N.
  • the server 400 includes a makeup collection unit 420, a makeup analysis unit 440, and a makeup presentation unit 460.
  • the makeup collection unit 420 is implementation makeup information indicating makeup selected by the user (person) from among the users (plural persons) of the first to N-th terminals 200 1 to 200 N as a target for implementation in makeup. To collect More specifically, makeup collecting section 420 stores the applied makeup information sent from each of the first to Nth terminals 200 1 to 200 N.
  • the makeup analysis unit 440 analyzes the collected makeup information and determines the selection criteria of makeup to be presented to the user. More specifically, makeup analyzing section 440 analyzes the accumulated applied makeup information, and determines the selection criteria of makeup to be presented to the user receiving makeup assistance.
  • Makeup presenting section 460 selects makeup based on the determined selection criteria, and presents suggested makeup information indicating the selected makeup to the user who is assisted with makeup.
  • users who receive makeup support may be users of the first to Nth terminals 200 1 to 200 N or users other than users of the first to Nth terminals 200 1 to 200 N It may be.
  • the user who receives makeup assistance is a user of the first to Nth terminals 200 1 to 200 N
  • the suggested makeup information is presented to the user via the communication network 300.
  • the server 400 includes, for example, a central processing unit (CPU), a storage medium such as a read only memory (ROM) storing a control program, a working memory such as a random access memory (RAM), and a communication circuit.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • communication circuit a communication circuit.
  • the functions of the above-described units are realized by the CPU executing a control program.
  • Such makeup support system 100 collects, at the server 400, implementation makeup information from a plurality of users, and analyzes the collected information to determine selection criteria of makeup to be presented to the user. it can. Fashion makeup is often the makeup that is actually practiced by more people. Therefore, even when the makeup trend changes with time, makeup assisting system 100 can estimate makeup that is actually prevalent and can select it, and can appropriately assist makeup. .
  • Second Embodiment Embodiment 2 of the present invention is an example of a specific aspect of the present invention.
  • the present embodiment is an example in which the present invention is applied to a system having a plurality of terminals each provided with a digital camera and a display, and a server capable of communicating with the plurality of terminals.
  • “Face part” refers to a part that characterizes the impression of the face, such as eyes, eyebrows, nose, cheeks (brows), lips, and outlines.
  • the “face part ID” is identification information of a face part.
  • the “area of the face part” refers to the area occupied by the face part on the image or real space, and includes the positions of the feature points of the face part such as the corner of the eye.
  • the “face feature amount” is a value of a predetermined parameter indicating a face feature.
  • it is multivariate data consisting of multiple values, such as the ratio of face length to face width, the ratio of nose length to eye interval, and the ratio of eye width to face width I assume.
  • Make-up indicates the method (type) of makeup and includes at least the color, application concentration, and application range of the cosmetic for skin.
  • the “make pattern” is a pattern of makeup for the entire face, and is defined by the value of one predetermined parameter or a combination of the values of a plurality of predetermined parameters.
  • the “make pattern ID” is identification information of a plurality of make patterns prepared in advance.
  • the “implemented makeup information” is information indicating makeup selected as an implementation target in makeup, and is information that can be identified by the makeup pattern ID.
  • the “proposed makeup information” is information indicating makeup selected as makeup to be presented to the user receiving makeup assistance, and is information that can be identified by the makeup pattern ID.
  • Cosmetic information is information on skin cosmetics for applying makeup.
  • Cosmetics ID is identification information of skin cosmetics, and is information which can specify cosmetics information.
  • the “terminal ID” is identification information of a terminal, and is information capable of at least identifying an address for communication.
  • the “person ID” is identification information of a user who receives makeup support.
  • FIG. 2 is a system configuration diagram showing an example of the configuration of the makeup support system according to the present embodiment.
  • makeup assisting system 100 includes first to Nth terminals 200 1 to 200 N (terminal according to the present invention), communication network 300, and server (makeup assisting apparatus 400 according to the present invention). .
  • the first to Nth terminals 200 1 to 200 N are, for example, information communication terminals such as smart phones provided with digital cameras and displays.
  • the first to Nth terminals 200 1 to 200 N are assumed to be used by different users.
  • the communication network 300 is, for example, a public communication network such as the Internet.
  • the server 400 is an information processing apparatus capable of communicating with each of the first to N-th terminals 200 1 to 200 N through the communication network 300.
  • the server 400 supports makeup for the users of the first to N-th terminals 200 1 to 200 N.
  • the first to Nth terminals 200 1 to 200 N have the same configuration. Therefore, the first to Nth terminals 200 1 to 200 N are collectively referred to as “terminal 200” as appropriate.
  • FIG. 3 is a block diagram showing an example of the configuration of terminal 200. Referring to FIG. 3
  • the terminal 200 includes a terminal communication unit 210, an applied makeup acquiring unit 220, a photographing unit 230, an image acquiring unit 240, a face parts acquiring unit 250, a makeup reporting unit 260, a proposed makeup acquiring unit 270, and a terminal makeup presenting unit 280. , And a display portion 290.
  • the terminal communication unit 210 is connected to the communication network 300 and communicates with the server 400 via the communication network 300.
  • the applied makeup acquiring unit 220 acquires applied makeup information indicating the makeup selected by the user of the terminal 200 as an implementation target in makeup. Then, the applied makeup acquiring unit 220 outputs the acquired applied makeup information to the makeup reporting unit 260.
  • the applied makeup acquiring unit 220 presents the user with a plurality of makeup patterns prepared in advance by a makeup pattern table described later as options. Then, the applied makeup acquiring unit 220 receives, from the user, the selection of the makeup pattern on which the user has actually conducted makeup. Acceptance of selection of a makeup pattern is performed, for example, via a display with a touch panel.
  • the photographing unit 230 is, for example, a digital still camera, and photographs an image of the face of the user of the terminal 200. Then, the photographing unit 230 outputs the photographed image to the image acquisition unit 240.
  • the image acquisition unit 240 acquires the input image and outputs the image to the face part acquisition unit 250 and the terminal makeup presentation unit 280.
  • the face part acquisition unit 250 acquires the area of the face part of the face from the input image. Acquisition of the area of the face part is performed, for example, by matching each partial area of the image with a template image of each face part prepared in advance (see, for example, Patent Document 2). Then, the face part acquisition unit 250 outputs the acquired identification information of the face part and information indicating the area (hereinafter referred to as “face part information”) to the proposed makeup acquisition unit 270.
  • the face part acquisition unit 250 acquires a face feature amount which is a value indicating the feature of the face, and outputs the acquired face feature amount to the makeup report unit 260.
  • the face part acquisition unit 250 may acquire the face feature amount from the face part information or may acquire the face feature amount by separately analyzing the image.
  • the makeup report unit 260 sets the input implemented makeup information, the input face feature amount, the person ID of the user of the terminal 200, and the terminal ID of the terminal 200 into a set.
  • user information a set of such information is referred to as "user information”.
  • makeup report section 260 transmits an implementation makeup message including user information to server 400 via terminal communication section 210.
  • the user who receives support for makeup is the user of terminal 200 that has transmitted the implementation makeup message. That is, the transmission of the user information to the server 400 doubles as a request for the reply of the proposal makeup information.
  • the proposal makeup acquiring unit 270 receives this via the terminal communication unit 210.
  • the suggested makeup acquiring unit 270 acquires cosmetic information of cosmetics necessary for applying the makeup indicated by the received suggested makeup information. Acquisition of this cosmetic information is performed, for example, using a cosmetic table described later. Then, the suggested makeup acquiring unit 270 outputs, to the terminal makeup presenting unit 280, the face parts information input from the facial parts acquiring unit 250, the received suggested makeup information, and the acquired cosmetic information.
  • the terminal makeup presenting unit 280 presents the makeup indicated by the suggested makeup information to the user in association with the area of the corresponding face part. More specifically, terminal makeup presenting section 280 generates a simulation image based on the input image and the proposed makeup information, and outputs the generated simulation image to display section 290.
  • the simulation image is an image obtained by superimposing an image obtained when the makeup indicated by the proposed makeup information is applied to the input (photographed) image.
  • the alpha value ( ⁇ ) is set to a value according to the concentration of makeup.
  • the alpha blending process is represented, for example, by the following formulas (1) to (3).
  • r 1 , g 1 and b 1 are RGB values of an arbitrary area of the photographed image
  • r 2 , g 2 and b 2 are RGB values of the color of makeup.
  • R, G, B are RGB values of the corresponding region of the simulation image.
  • R r 2 ⁇ ⁇ + r 1 ⁇ (1- ⁇ ) (1)
  • G g 2 ⁇ ⁇ + g 1 ⁇ (1- ⁇ ) (2)
  • B b 2 ⁇ ⁇ + b 1 ⁇ (1- ⁇ ) (3)
  • the order in which the composition is applied to the face in a superimposed manner (hereinafter referred to as the "application order") is set for each of the makeups, and the image when the makeup is applied has a shaded image with a density according to the density. It is assumed that The application sequence defines, for example, that the application of teak should be after application of the foundation. In this case, the superposition of the images may be performed by overpainting the images of the respective makeup in the order according to the application order with respect to the photographed image.
  • the terminal makeup presenting unit 280 further presents the input cosmetic information. More specifically, the terminal makeup presenting unit 280 superimposes or adds an image or text indicating the input cosmetic information to the simulation image.
  • the display unit 290 is, for example, a display with a touch panel, and displays (presents) the input simulation image and the cosmetic information to the user of the terminal 200.
  • the terminal 200 includes, for example, a CPU, a storage medium such as a ROM storing a control program, a working memory such as a RAM, and a communication circuit.
  • a CPU central processing unit
  • a storage medium such as a ROM storing a control program
  • a working memory such as a RAM
  • a communication circuit In this case, the functions of the above-described units are realized by the CPU executing a control program.
  • FIG. 4 is a block diagram showing an example of the configuration of the server 400. As shown in FIG.
  • the server 400 includes a server communication unit 410, a makeup collection unit 420, a makeup storage unit 430, a makeup analysis unit 440, an analysis result storage unit 450, and a makeup presentation unit 460.
  • the server communication unit 410 is connected to the communication network 300, and communicates with each of the first to Nth terminals 200 1 to 200 N through the communication network 300.
  • the makeup collecting unit 420 collects implementation makeup information from each of the plurality of users of the first to N-th terminals 200 1 to 200 N via the server communication unit 410. More specifically, when an implementation makeup message is sent from any of the terminals 200, the makeup collection unit 420 receives the implementation makeup message. Then, makeup collecting section 420 stores user information included in the received implemented makeup message in makeup accumulation 430 in association with the reception time (time).
  • makeup collecting section 420 outputs, to makeup presenting section 460, at least the facial feature amount and the terminal ID among the received user information.
  • Makeup accumulating section 430 accumulates user information stored (inputted) by makeup collecting section 420.
  • the makeup analysis unit 440 analyzes the user information accumulated in the makeup accumulation unit 430, and determines the selection criterion of makeup to be presented to the user who is assisted in makeup. More specifically, makeup analyzing section 440 estimates makeup of an epidemic makeup for each group of face feature quantities based on the combination of the applied makeup information and the face feature quantities. The makeup analysis unit 440 then determines selection criteria such that the estimated makeup of the epidemic is selected. Details of the analysis method will be described later.
  • the makeup analysis unit 440 does not analyze makeup until a sufficient amount of user information (implemented makeup information) is accumulated.
  • the analysis result storage unit 450 stores a makeup analysis result table indicating the result of the analysis (selection criteria).
  • the makeup analysis result table registers in advance the facial feature that can be received from the plurality of users and the makeup pattern ID of the trendy makeup to be suggested to the user of the face having that facial feature, in registration. Table.
  • a makeup analysis result table indicating selection criteria of initial presentation makeup information is stored in advance at least until analysis of makeup is performed first.
  • Makeup presenting section 460 selects makeup based on the determined selection criteria, and presents the user with suggested makeup information indicating the selected makeup. More specifically, makeup presenting section 460 refers to the makeup analysis result table of analysis result storage section 450, and selects the makeup in vogue corresponding to the facial feature value input from makeup collecting section 420. Then, makeup presenting section 460 transmits the suggested makeup information indicating the selected makeup to terminal 200 indicated by the terminal ID input from makeup collecting section 420 via server communication section 410.
  • makeup presenting section 460 determines which of the groups registered in the makeup analysis result table belongs to the input face feature amount, and selects makeup corresponding to the determined group. This determination is performed, for example, by calculating the distance between the acquired face feature amount and the representative value (centroid) of each group.
  • the server 400 includes, for example, a CPU, a storage medium such as a ROM storing a control program, a working memory such as a RAM, and a communication circuit.
  • a CPU central processing unit
  • a storage medium such as a ROM storing a control program
  • a working memory such as a RAM
  • a communication circuit In this case, the functions of the above-described units are realized by the CPU executing a control program.
  • the terminal 200 and the server 400 store in advance, for example, a makeup pattern table of the same content in which the makeup pattern ID and the content of makeup are described in association with each other.
  • the terminal 200 stores, for example, a makeup pattern table in the proposed makeup acquiring unit 270 in a state where it can be referred to from the applied makeup acquiring unit 220.
  • the server 400 stores, for example, a makeup pattern table in the makeup analysis unit 440.
  • FIG. 5 is a diagram showing an example of a makeup pattern table.
  • the makeup pattern table 510 describes, for example, the corresponding makeup type 512 for each makeup pattern ID 511.
  • the makeup type 512 is illustrated in a simplified manner, but specifically, it is “foundation”, “eye shadow”, “lipstick”, “teak” or the like.
  • the makeup pattern table 510 describes the color 513, the density 514, the range 515, and the cosmetic ID 516 for each combination of the makeup pattern ID 511 and the makeup type 512.
  • the color 513 is illustrated here in a simplified manner, and specifically, is an RGB value, glossiness, and the like.
  • the density 514 is illustrated in a simplified manner here, specifically, it indicates the degree of transparency and gradation when superimposing on the image of a face.
  • the range 515 is illustrated in a simplified manner here, specifically, a relative coordinate group from the feature point, a set of a relative position of the central point to the feature point, and a radius, and the like. That is, the set of color 513, density 514, and range 515 contains at least the information necessary for imaging.
  • the makeup pattern table 510 may further describe the coating pattern of the skin cosmetic.
  • the coating pattern of the skin cosmetic is, for example, in the case of eye shadow, information indicating the relative range to the face part, such as an eye hole, an eye line, or under the eye.
  • makeup types 512 “MT1” to “MT4” are associated with a makeup pattern ID 511 “MP1”.
  • makeup pattern ID 511 “MP1” for the combination of makeup pattern ID 511 “MP1” and makeup type 512 “MT1”, color 513 “C1”, density 514 “D1”, range 515 “A1”, and “5” Cosmetic ID 516 “I1” is matched. This means that the makeup pattern ID “MP1” performs makeup “C1, D1, A1" for the makeup type "MT1". Further, this means that the makeup pattern ID "MP1” uses the cosmetics of the cosmetic ID "I1” for the makeup type "MT1".
  • the terminal 200 stores, for example, a cosmetic table in which the cosmetic ID and the cosmetic information are associated with each other and described in the proposed makeup acquiring unit 270.
  • FIG. 6 is a diagram showing an example of a cosmetic table.
  • the cosmetic table 520 describes a company ID 522 and a product number 523 for each cosmetic ID 521.
  • the cosmetic ID 521 corresponds to the cosmetic ID 516 of the makeup pattern table 510.
  • the company ID 522 is the name or identifier of a company that manufactures or sells skin cosmetics.
  • the product number 523 is a product number for skin cosmetics.
  • a company ID 522 "B1" and an item number 523 "b11” are associated with a cosmetic ID 521 "I1". This indicates that the cosmetic ID “I1” is a skin cosmetic product having a part number "b11" of the company indicated by the company ID "B1".
  • makeup pattern table 510 shown in FIG. 5 and cosmetic table 520 shown in FIG. 6 may be integrated into one table.
  • the makeup analysis unit 440 of the server 400 performs principal component analysis on face feature amounts among the accumulated user information. Then, makeup analyzing section 440 groups the result of principal component analysis of the face feature amount into a plurality of groups by a known principal component stratification method using, as a judgment standard, whether the principal component value is 1 ⁇ or more. . Then, for each group of face feature quantities, makeup analysis section 440 determines a representative value (centroid) of the group as a representative face feature quantity.
  • the makeup analyzing unit 440 performs, for each group of face feature quantities, a principal component analysis on the applied makeup information corresponding to the face feature quantities belonging to the group. Then, makeup analyzing section 440 groups the results of the principal component analysis of the applied makeup information into a plurality of groups by a known principal component stratification method. Then, for each of the groups of the applied makeup information, makeup analyzing section 440 determines a makeup pattern having the shortest distance to the representative value (centroid) of the group as the representative makeup pattern.
  • makeup analysis section 440 associates a plurality of representative makeup patterns for each representative face feature value. Then, makeup analyzing section 440 ranks a plurality of representative makeup patterns for each representative face feature value.
  • the following three can be considered as a method of ranking.
  • the first is a method of ranking the representative makeup patterns in descending order of the number of corresponding execution makeup information. This corresponds to determining a selection criterion such that makeup with a larger number of corresponding makeup information (that is, makeup in fashion) is preferentially selected.
  • the second is a method of ranking the representative makeup patterns in the order in which the average of the times at which corresponding makeup information is received is new. This is equivalent to determining selection criteria such that newer makeup (that is, makeup that is at the forefront of the trend) is preferentially selected as the average of the time when corresponding makeup information is acquired .
  • the third is a method of ranking the representative makeup patterns in descending order of increasing speed of the number of corresponding execution makeup information. This corresponds to determining a selection criterion such that makeups with higher speed of increase in the number of corresponding makeup information (that is, makeups that are in vogue) are preferentially selected.
  • the makeup analyzing unit 440 classifies the face feature quantities into groups, and associates, for each group of face feature quantities, a makeup pattern representing makeup applied to faces belonging to the group. Can.
  • the makeup analysis unit 440 can associate makeup actually in vogue with each group of face feature quantities.
  • the makeup analysis unit 440 generates / updates the makeup analysis result table described above based on the analysis result.
  • makeup analysis unit 440 receives a makeup pattern with a tendency (not in the database) that has not been accumulated in makeup accumulation unit 430 so far, that is, implementation makeup information indicating a novel makeup pattern is input, The effect may be detected. Then, when the makeup analysis unit 440 detects a novel makeup pattern, the makeup analysis unit 440 may determine selection criteria such that the makeup pattern is preferentially selected. When such a novel makeup pattern has as a parameter the number of the applied makeup information already accumulated in the makeup accumulation unit 430, the increase speed described above can be said to be a makeup pattern.
  • a specific process for detecting a novel makeup pattern is, for example, as follows. First, the makeup analysis unit 440 applies the already analyzed principal component load amount to the input makeup pattern, and calculates each principal component value. Next, makeup analyzing section 440 calculates the inner product of the vector consisting of each principal component value and the vector consisting of the principal component value of the representative makeup pattern of each group that has already been grouped. If the value of the inner product for all the groups is equal to or greater than the threshold value, the makeup analysis unit 440 determines that the makeup pattern input this time is a novel makeup pattern.
  • makeup analysis section 440 performs principal component analysis again every fixed period (for example, each time a fixed number of execution makeup information is input), and detects the presence or absence of a new group, thereby generating a new makeup pattern. The sign of the trend may be detected. Then, the makeup analyzing unit 440 may determine a selection criterion such that, when such a sign is detected, the corresponding makeup pattern is preferentially selected.
  • the makeup support system 100 having such a configuration can collect the applied makeup information and the facial feature value from the plurality of users of the plurality of terminals 200 in the server 400. Then, makeup analyzing system 100 can estimate the makeup of an epidemic for each group of face feature amounts by analyzing the collected information in server 400. Then, makeup support system 100 can determine a table in which trendy makeup is associated with each group of face feature amounts as a selection criterion of proposed makeup information. That is, makeup assisting system 100 can appropriately assist makeup even when the trend of makeup changes with time.
  • FIG. 7 is a flowchart showing an example of the operation of the terminal 200.
  • the terminal 200 executes, for example, the process shown in FIG. 7 each time a makeup pattern is selected as an implementation target in makeup.
  • step S1100 the photographing unit 230 photographs the face of the user, and the image acquiring unit 240 acquires an image constituting the photographed video.
  • FIG. 8 is a view showing an example of an image acquired in step S1100 of FIG.
  • the image 610 includes an image (hereinafter referred to as “face image”) 611 of the user's face. It is assumed that the user has not made makeup.
  • the face part acquisition unit 250 acquires a face part and a face feature amount from the image 610.
  • the face part acquisition unit 250 extracts feature points (of face parts) of the face from the image 610 by analyzing the image 610, for example.
  • the face part acquisition unit 250 acquires the area formed by the feature points constituting the same face part as the area of the face part.
  • the face part acquisition unit 250 generates face part information from the acquired area of the face part.
  • the face part acquisition unit 250 determines, for example, the ratio of the length of the face to the width of the face, the ratio of the length of the nose to the distance between the eyes, and the width of the eyes to the width of the face
  • the face feature is obtained from values such as the ratio of
  • FIG. 9 is a diagram showing an example of the arrangement of face feature points extracted in step S1200 of FIG.
  • the face part acquisition unit 250 acquires the area 625 surrounded by the first to fourth feature points 621 to 624 as the right eye area.
  • FIG. 10 is a diagram showing an example of face part information generated in step S1200 of FIG.
  • the face part information 630 describes, for example, an area 632 and a person ID 633 for each face part ID 631.
  • An area 632 is information indicating the range of the area of the face part in the image, and is, for example, a coordinate value list of a coordinate system set on the image. For example, every time shooting is started, the person ID 633 is set to a value designated by the user via an operation on the touch panel display.
  • the face feature amount for example, the ratio of the length of the face to the width of the face, the ratio of the length of the nose to the distance between the eyes, the ratio of the width of the eyes to the width of the face, etc. Multivariate data is acquired.
  • the applied makeup acquiring unit 220 acquires applied makeup information.
  • the acquisition of the applied makeup information is, in other words, the acquisition of the makeup pattern ID.
  • step S1400 makeup report unit 260 transmits the facial feature amount and the applied makeup information to server 400.
  • the transmission of the face feature amount and the implementation makeup information is, in other words, the transmission of the implementation makeup message.
  • FIG. 11 is a diagram showing an example of the implementation makeup message.
  • the implemented makeup message 640 includes, for example, a terminal ID 641, a person ID 642, a makeup pattern ID 643, and a face feature amount 644.
  • the terminal ID 641 is a terminal ID of the terminal 200.
  • the person ID 642 is a person ID of a person who is a target of extraction of the face feature quantity 644.
  • the makeup pattern ID 643 is the applied makeup information, and is the makeup pattern ID of the makeup selected for the person whose face feature amount 644 is the target of extraction.
  • the server 400 performs an operation shown in FIG. 14 described later.
  • the server 200 sends back a proposal makeup message including proposal makeup information to the terminal 200 as a response to the user information transmission.
  • the suggested makeup acquiring unit 270 receives the suggested makeup information from the server 400.
  • the reception of the proposal makeup information is, in other words, the reception of the proposal makeup message.
  • FIG. 12 is a diagram showing an example of the proposal makeup message.
  • a proposal makeup message 650 is associated with a plurality of makeup pattern IDs 653 in association with a combination of a terminal ID 651 and a person ID 652.
  • the terminal ID 651 indicates the transmission destination of the proposal makeup message 650.
  • the plurality of makeup pattern IDs 653 are makeup pattern IDs of makeup patterns having the highest priority among makeup patterns to be proposed for the person ID 652.
  • step S1600 of FIG. 7 the terminal makeup presenting unit 280 generates a simulation image based on the proposed makeup information included in the suggested makeup information, and causes the display unit 290 to display the simulation image.
  • the terminal makeup presenting unit 280 also causes the display unit 290 to display the cosmetic information.
  • FIG. 13 is a view showing an example of a simulation image displayed in step S1600 of FIG.
  • the simulation image 660 is an image in which images 661 to 665 of facial makeup such as eyebrows, eyeshadows, eyeliners, cheeks, and lipsticks are superimposed on a facial image 611.
  • an information display area 666 indicating cosmetic information is added to the simulation image 660. That is, in the simulation image 660, cosmetic information of the skin cosmetic necessary to apply the selected makeup is also displayed. When the user likes the makeup indicated by the displayed simulation image 660, the user can obtain the necessary skin cosmetics based on the displayed cosmetic information, and can easily perform the actual makeup. .
  • the terminal 200 transmits the user's applied makeup information to the server 400 together with the face feature amount, receives from the server 400 the information on the popular makeup matching the user's face, and presents it to the user can do.
  • FIG. 14 is a flowchart showing an example of the operation of the server 400.
  • step S2100 makeup collecting section 420 determines whether or not received makeup information (user information) from terminal 200.
  • the reception of the implementation makeup information is the reception of the implementation makeup message.
  • step S2500 described later.
  • step S2200 the flow proceeds to step S2200.
  • the makeup collecting unit 420 requests the first to Nth terminals 200 1 to 200 N to transmit user information on makeup newly selected as a target for implementation periodically, for example. , User information may be collected.
  • step S2200 makeup collecting section 420 causes makeup accumulating section 430 to accumulate the received applied makeup information in association with the reception time.
  • This accumulation of implementation makeup information is, in other words, accumulation of user information and reception time.
  • a set of user information and reception time is referred to as "user information history”.
  • FIG. 15 is a diagram showing an example of the user information history stored in the makeup storage unit 430. As shown in FIG.
  • the user information history 670 describes a terminal ID 671, a person ID 672, a makeup pattern ID 673, and a face feature 674 (that is, user information) and a reception time 675 in association with each other.
  • step S2300 in FIG. 14 makeup analyzing section 440 selects makeup based on the current selection criteria.
  • the current selection criterion is, in other words, the makeup analysis result table stored in the analysis result storage unit 450.
  • the selection of makeup is performed by determining which of the groups registered in the makeup analysis result table belongs to the received facial feature amount, and selecting the makeup corresponding to the determined group.
  • FIG. 16 is a diagram showing an example of a makeup analysis result table stored in the analysis result storage unit 450. As shown in FIG.
  • a plurality of makeup pattern IDs 682 are described in association with each group 681 of face feature amounts.
  • the plurality of makeup pattern IDs 682 are makeup pattern IDs of makeup patterns having the highest priority among makeup patterns to be proposed to a person of the face feature amount belonging to the face feature amount group 681.
  • a makeup pattern ID "MP1" is associated with a group 681 of face feature amounts "G1". Therefore, when the face feature amount sent from the terminal 200 belongs to the group 681 of the face feature amount "G1", the makeup presenting unit 460 determines the makeup pattern ID 682 "MP1" as presentation makeup information.
  • step S2400 in FIG. 14 makeup presenting section 460 sends, to terminal 200, suggested makeup information indicating the selected makeup.
  • the reply of the proposal makeup information is, in other words, a reply of the proposal makeup message.
  • step S2500 makeup analyzing section 440 determines whether it is time to analyze the applied makeup information accumulated in makeup accumulating section 430 or not.
  • the timing is, for example, a timing at which the amount (number) of the accumulated makeup information is equal to or more than a predetermined value and a predetermined time has elapsed since the last analysis.
  • step S2500 If the timing to analyze has not arrived (S2500: NO), the flow proceeds to step S2800 described later. Also, when the timing to perform the analysis has come (S2500: YES), the flow proceeds to step S2600.
  • step S2600 makeup analyzing section 440 analyzes the accumulated applied makeup information to determine selection criteria. That is, makeup analyzing section 440 classifies the facial feature amount and estimates makeup of the fashion from the applied makeup information collected from the plurality of users.
  • step S2700 makeup analyzing section 440 stores the determined selection criteria in analysis result storing section 450. That is, makeup analyzing section 440 updates makeup analysis result table 680 (see FIG. 16) based on the analysis result on the accumulated applied makeup information. The updated makeup analysis result table 680 will be used next when the process proceeds to step S2300.
  • step S2800 makeup collecting unit 420 determines whether or not an instruction to end the process has been issued by an operator operation of server 400 or the like.
  • the server 400 collects and analyzes the makeup information from the first to Nth terminals 200 1 to 200 N, and estimates the makeup of the epidemic makeup of the face feature amount for each group, and analyzes the makeup. The result can be fed back to each terminal 200.
  • makeup support system 100 collects implementation makeup information from each of a plurality of people, analyzes the collected information, and selects the makeup selection criteria to be presented to the user. Decide. Then, makeup assisting system 100 presents the makeup determined based on the determined selection criteria to the user. More specifically, makeup assisting system 100 proposes selection criteria for the proposed makeup from the number of times each makeup pattern is selected as the target of actual implementation, the freshness of time, the degree of increase in the number, etc. decide.
  • makeup support system 100 can estimate makeup that is actually in vogue and select it, even when the trend of makeup changes with time, and it is possible to support makeup. It can be done properly.
  • the selection criteria for selecting one makeup pattern as a presentation target from the face feature amount has been exemplified, but the present invention is not limited to this.
  • the server 400 may return a plurality of makeup patterns with the highest priority to the terminal 200 as presentation makeup information.
  • the terminal 200 presents, for example, a plurality of makeup patterns indicated by the received presentation makeup information as options, and sets the selected makeup pattern as a target of presentation by the terminal makeup presenting unit 280. More specifically, the terminal 200 causes the display unit 290 to display identification information of a plurality of makeup patterns in the proposed makeup acquiring unit 270. Then, the terminal 200 causes the proposed makeup acquiring unit 270 to output, to the terminal makeup presenting unit 280, the suggested makeup information on the makeup pattern selected by the user through an operation or the like on the touch panel display.
  • makeup assisting system 100 may perform grouping of the applied makeup information based on parameters other than the face feature amount. For example, makeup assisting system 100 may perform grouping based on various attributes of people, such as occupation, age, residence, and the like. In this case, the server 400 needs to collect information necessary for such grouping in association with the applied makeup information. This enables the makeup support system 100 to present more appropriate makeup when the appropriate makeup differs depending on the attribute of the person.
  • makeup support system 100 takes into consideration other index values such as the priority of cosmetic companies, etc.
  • the selection criteria of the pattern may be determined. For example, makeup support system 100 may determine selection criteria such that a particular cosmetic company is selected in preference while selecting epidemic makeup.
  • the terminal 200 may associate, with the cosmetic information to be displayed, link information to a website from which the skin cosmetic can be purchased.
  • the terminal 200 can display the corresponding web site via the communication network 300, and can assist makeup more effectively. Also, for cosmetics companies, sales of cosmetics can be promoted.
  • the terminal 200 may generate and display a simulation image of a face in the middle of makeup instead of a simulation image of a face after all the makeup has been performed. Further, as described above, when the application order is set for each makeup as described above, the terminal 200 may sequentially generate and display simulation images of faces in the process of makeup according to the application order. Thereby, the terminal 200 can present the user with an appropriate order of makeup.
  • the terminal 200 may present the correspondence with the selected makeup area, and the selected makeup color and density by text.
  • This text is, for example, "Please apply teak of B1 company's part number b55 in a thick eye in the range of about 4 cm in diameter centered on the highest position of both cheek bones.”
  • makeup assisting system 100 can perform makeup assisting without generating and displaying an image.
  • the terminal 200 may present makeup in a method other than the simulation image.
  • the terminal 200 is connected to a printer that transfers the cosmetic agent for skin cosmetics to a predetermined thin film (paper-like medium).
  • the thin film easily carries the transferred cosmetic agent. For this reason, the cosmetic on the thin film is easily transferred to the skin by being pressed against the skin.
  • the terminal 200 presents, in the terminal makeup presenting unit 280, the same shape and area as the area in the real space of the photographed face to a thin film, and instructs the printer to transfer the makeup to the corresponding area.
  • the thin film may be planar or three-dimensional.
  • the terminal 200 can present makeup to the user on the thin film in association with the corresponding areas.
  • the user actually makes the selected makeup based on the simulation image by pressing the entire thin film against the face with the points indicating the left and right eyes printed on the thin film aligned with the left and right eyes of the user. be able to. That is, the user can easily and quickly carry out a trendy makeup without performing the operation of applying a cosmetic agent to each face part.
  • the terminal 200 may capture an image of the face of the user with a digital video camera or the like, and generate and display a simulation image in real time for an image (frame) constituting the captured image.
  • the terminal makeup presenting unit 280 sequentially generates simulation images for each of the images constituting the image while maintaining the makeup indicated by the suggested makeup information temporarily input corresponding to the image, and causes the display unit 290 to It may be displayed.
  • the applied makeup acquiring unit 220 may receive the selection of the makeup pattern by receiving the selection of makeup separately for each part, such as every eye shadow or every cheek, and combining the accepted makeup.
  • the applied makeup acquiring unit 220 may acquire the applied makeup information by extracting a makeup pattern of makeup actually implemented from the face image of the user, converting the extracted makeup pattern into multivariate data, etc. .
  • the number of options for the makeup pattern is enormous. Therefore, in these cases, in particular, it is desirable for makeup assisting system 100 to use the multivariate data of the makeup pattern as it is, not the makeup pattern ID, as the applied makeup information.
  • the presentation destination of the proposal makeup information may not necessarily be the user of the transmission source of the implementation makeup information.
  • the server 400 may transmit the suggested makeup information selected based on the determined selection criteria to a terminal that is not the collection destination of the implemented makeup information, or may present it to the operator of the server 400.
  • acquisition of cosmetic information may be performed by the server 400.
  • a cosmetic table may be prepared in the server 400, and the server 400 may transmit cosmetic information to the terminal 200 together with the proposed makeup information.
  • the holding of the makeup analysis result table and the selection of the makeup pattern based on the makeup analysis result table may be performed by the terminal 200 instead of the server 400.
  • the server 400 needs to transmit the makeup analysis result table to the terminal 200, and the terminal 200 needs to be provided with a functional unit corresponding to the makeup presenting unit 460.
  • face makeup to be presented includes mascara, lip gloss, and the like.
  • the present invention is applied to a system including a server and a plurality of terminals.
  • data are directly shared among the terminals and analysis processing is performed in each terminal. Or the like may be used.
  • the makeup assisting apparatus of the present disclosure includes: a makeup collecting unit configured to collect implementation makeup information indicating makeup selected as a target to be implemented in the makeup from each of a plurality of persons; A makeup analysis unit that analyzes and estimates epidemic makeup and determines selection criteria such that the estimated epidemic makeup is selected, and selects makeup based on the determined selection criteria and the selected makeup And a makeup presenting unit that presents suggested makeup information indicating the information to the user.
  • the makeup assisting apparatus further includes a communication unit that communicates with each of the plurality of terminals used by the plurality of persons, and the makeup collecting unit further includes the communication unit via the communication unit. Implementation makeup information may be collected.
  • the user may be included in the plurality of persons, and the makeup presenting unit may present the proposed makeup information to the user via the communication unit.
  • the makeup analyzing unit may determine the selection criterion such that the makeup having a larger number of corresponding makeup informations is preferentially selected.
  • the makeup analyzing unit determines the selection criterion such that the makeup having a newer average of the times at which the corresponding applied makeup information is acquired is preferentially selected. May be
  • the makeup analyzing unit determines the selection criterion such that the makeup having a higher increase rate of the number of corresponding makeup information is selected preferentially. Good.
  • the makeup collecting unit further collects predetermined information other than the implemented makeup information from the plurality of persons
  • the makeup analyzing unit further includes the implemented makeup information and the predetermined information.
  • the selection criterion is determined for each content of the predetermined information based on a combination of the above, and the makeup presenting unit acquires the predetermined information of the user from the user, and the content of the acquired predetermined information
  • the makeup may be selected based on the selection criteria corresponding to.
  • the plurality of persons are respectively selected from among a plurality of makeups prepared in advance, each of which is defined by one predetermined parameter value or a combination of plural predetermined parameter values.
  • the target makeup to be performed in makeup may be selected, and the performance makeup information may include the one or more values defining the selected makeup.
  • the makeup may include at least a color, a coating concentration, and a coating range of the skin cosmetic preparation.
  • the makeup assisting system of the present disclosure is a makeup assisting system including a plurality of terminals and a server capable of communicating with each of the plurality of terminals via a communication network, wherein the terminal is a user of the terminals.
  • a makeup acquiring unit for acquiring implementation makeup information, and a makeup report unit for transmitting the acquired implementation makeup information to the server, wherein the makeup indicates makeup selected as an implementation target in makeup;
  • a makeup collecting unit for accumulating the makeup information transmitted from each of the plurality of terminals, and analyzing the accumulated makeup information to estimate epidemic makeup, the estimated makeup being estimated
  • a makeup analysis unit that determines selection criteria to be selected, and selects makeup based on the determined selection criteria, and selects the selected makeup The to the proposed makeup information, having a makeup presenting section for presenting to a user receiving the support of the makeup.
  • the terminal makeup presenting unit presents, to the user, the suggested makeup information when suggested makeup information indicating the makeup selected by the server is sent from the server.
  • the makeup presenting unit of the server may transmit the suggested makeup information to at least one of the plurality of terminals.
  • the makeup assisting method of the present disclosure comprises the steps of: collecting, from each of a plurality of persons, implementation makeup information indicating makeup selected by the person as a target for implementation in makeup; and analyzing the collected implementation makeup information. Estimating the makeup of the epidemic and determining the selection criteria such that the estimated epidemic makeup is selected, selecting the makeup based on the determined selection criteria, and indicating the selected makeup Presenting proposed makeup information to the user.
  • the present invention is useful as a makeup support device, a makeup support system, and a makeup support method that can appropriately assist makeup even when the makeup trend changes with time.
  • DESCRIPTION OF SYMBOLS 100 makeup support system 200 terminal 210 terminal communication part 220 implementation makeup acquisition part 230 imaging part 240 image acquisition part 250 face parts acquisition part 260 makeup report part 270 proposed makeup acquisition part 280 terminal makeup presentation part 290 display part 300 communication network 400 server 410 server communication unit 420 makeup collection unit 430 makeup storage unit 440 makeup analysis unit 450 analysis result storage unit 460 makeup presentation unit

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

 メイクの流行が時間と共に変化する場合でも、メイクアップの支援を適切に行うこと。メイクアップ支援システム100のサーバ400は、複数の人のそれぞれから、当該人がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集するメイク収集部420と、収集された実施メイク情報を分析し、ユーザに対して提示すべきメイクの選択基準を決定するメイク分析部440と、決定された選択基準に基づいてメイクを選択し、選択されたメイクを示す提案メイク情報をユーザに対して提示するメイク提示部460と、を有する。

Description

メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
 本発明は、顔のメイクアップ(化粧)を支援するメイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法に関する。
 近年、顔のメイクアップの仕方(以下、単に「メイク」という)の多様化が進んでいる。無数の選択肢の中から適切なメイクを選択することは、特にメイクについての十分な知識を有さない人にとって、困難となってきている。あらゆるメイクを実際に試して判断および比較を行うことは、膨大な時間および手間を要するからである。
 そこで、メイクアップが行われたときの顔のシミュレーション画像を生成して提示する技術が、例えば、特許文献1~特許文献3に記載されている。特許文献1~特許文献3に記載の技術(以下「従来技術」という)は、メイクアップの対象となる顔(以下、単に「顔」という)を撮影した画像を取得する。また、従来技術は、取得した画像に対して、口紅やチーク(頬紅)等を顔に施したときのメイクの状態を示す画像を重畳して、シミュレーション画像を生成する。そして、従来技術は、生成したシミュレーション画像を、表示装置に表示させる。
 このような従来技術では、実際にメイクアップを行うことなくメイクの良し悪しを判断することができ、より少ない時間および手間で適切なメイクを選択することが可能となる。
 ところが、メイクの選択肢が多い場合、どのメイクについてシミュレーション画像を生成すべきかが問題となる。例えば、シミュレーション画像生成の対象(以下「シミュレーション対象」という)として、ユーザの顔には不適切なメイクが連続して選択された場合、適切なメイクのシミュレーション画像を得るまでに、時間が掛かるおそれがある。
 そこで、特許文献3には、予め用意された複数のメイクの中から、予め定められた選択基準に基づいてシミュレーション対象を選択する技術が、記載されている。かかる技術は、シミュレーション対象を適切なメイクに自動で絞り込むことを可能にする。
特開2001-346627号公報 特開2003-44837号公報 特開2010-017360号公報
 しかしながら、近年では、メイクの多様化に伴い、メイクの流行の変化が速くなってきている。このため、その時々で実際にどのようなメイクが流行しているのかを的確に把握することは、困難となってきている。したがって、特許文献3の技術では、最新の流行のメイクが選択肢として用意されていない、あるいは、最新の流行のメイクに合わない選択基準が設定されている場合には、最新の流行とは異なる不適切なメイクが選択されるおそれがある。
 すなわち、従来技術は、メイクの流行が時間と共に変化する場合、メイクアップの支援を適切に行うことができないという課題を有する。
 本発明の目的は、メイクの流行が時間と共に変化する場合でも、メイクアップの支援を適切に行うことができる、メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法を提供することである。
 本発明のメイクアップ支援装置は、複数の人のそれぞれから、当該人がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集するメイク収集部と、収集された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するメイク分析部と、決定された前記選択基準に基づいてメイクを選択し、選択されたメイクを示す提案メイク情報を前記ユーザに対して提示するメイク提示部と、を有する。
 本発明のメイクアップ支援システムは、複数の端末と、通信ネットワークを介して前記複数の端末のそれぞれと通信可能なサーバと、を含むメイクアップ支援システムであって、前記端末は、前記端末のユーザがメイクアップにおける実施の対象として選択したメイクを示す、実施メイク情報を取得するメイク取得部と、取得された前記実施メイク情報を、前記サーバへ送信するメイク報告部と、を有し、前記サーバは、前記複数の端末のそれぞれから送られてきた前記実施メイク情報を蓄積するメイク収集部と、蓄積された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するメイク分析部と、決定された前記選択基準に基づいてメイクを選択し、選択されたメイクを示す前記提案メイク情報を、前記メイクアップの支援を受けるユーザに対して提示するメイク提示部と、を有する。
 本発明のメイクアップ支援方法は、複数の人のそれぞれから、当該人がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集するステップと、収集された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するステップと、決定された前記選択基準に基づいてメイクを選択するステップと、選択されたメイクを示す提案メイク情報を、前記ユーザに対して提示するステップと、を有する。
 本発明によれば、メイクの流行が時間と共に変化する場合でも、メイクアップの支援を適切に行うことができる。
本発明の実施の形態1に係るメイクアップ支援システムの構成の一例を示すブロック図 本発明の実施の形態2に係るメイクアップ支援システムの構成の一例を示すシステム構成図 実施の形態2に係る端末の構成の一例を示すブロック図 実施の形態2に係るサーバの構成の一例を示すブロック図 実施の形態2におけるメイクパターンテーブルの一例を示す図 実施の形態2における化粧品テーブルの一例を示す図 実施の形態2に係る端末の動作の一例を示すフローチャート 実施の形態2における画像の一例を示す図 実施の形態2における顔の特徴点の配置の一例を示す図 実施の形態2における顔部品情報の一例を示す図 実施の形態2における実施メイクメッセージの一例を示す図 実施の形態2における提案メイクメッセージの一例を示す図 実施の形態2におけるシミュレーション画像の一例を示す図 実施の形態2に係るサーバの動作の一例を示すフローチャート 実施の形態2におけるユーザ情報レコード群の一例を示す図 実施の形態2におけるメイク分析結果テーブルの一例を示す図
 以下、本発明の各実施の形態について、図面を参照して詳細に説明する。
 (実施の形態1)
 本発明の実施の形態1は、本発明の基本的態様の一例である。
 図1は、本実施の形態に係るメイクアップ支援システムの構成の一例を示すブロック図である。
 図1において、メイクアップ支援システム100は、第1~第N(Nは2以上の整数)の端末200~200と、通信ネットワーク300を介して第1~第Nの端末200~200のそれぞれと通信可能なサーバ(本発明に係るメイクアップ支援装置)400とを有する。
 サーバ400は、メイク収集部420、メイク分析部440、およびメイク提示部460を有する。
 メイク収集部420は、第1~第Nの端末200~200のユーザ(複数の人)のそれぞれから、当該ユーザ(人)がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集する。より具体的には、メイク収集部420は、第1~第Nの端末200~200のそれぞれから送られてきた実施メイク情報を、蓄積する。
 メイク分析部440は、収集された実施メイク情報を分析し、ユーザに対して提示すべきメイクの選択基準を決定する。より具体的には、メイク分析部440は、蓄積された実施メイク情報を分析し、メイクアップの支援を受けるユーザに対して提示すべきメイクの選択基準を決定する。
 メイク提示部460は、決定された選択基準に基づいてメイクを選択し、選択されたメイクを示す提案メイク情報を、メイクアップの支援を受けるユーザに対して提示する。
 なお、メイクアップの支援を受けるユーザは、第1~第Nの端末200~200のユーザであってもよいし、第1~第Nの端末200~200のユーザ以外のユーザであってもよい。メイクアップの支援を受けるユーザが第1~第Nの端末200~200のユーザである場合、提案メイク情報は、通信ネットワーク300を介して、当該ユーザに提示される。
 サーバ400は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリ、および通信回路を有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
 このようなメイクアップ支援システム100は、サーバ400において、複数のユーザから実施メイク情報を収集し、収集された情報を分析して、ユーザに対して提示すべきメイクの選択基準を決定することができる。流行のメイクは、より多くの人々に実際に実施されているメイクである場合が多い。したがって、メイクアップ支援システム100は、メイクの流行が時間と共に変化する場合でも、実際に流行しているメイクを推定してこれを選択することができ、メイクアップの支援を適切に行うことができる。
 (実施の形態2)
 本発明の実施の形態2は、本発明の具体的態様の一例である。本実施の形態は、本発明を、デジタルカメラおよびディスプレイをそれぞれ備えた複数の端末と、これら複数の端末と通信可能なサーバとを有するシステムに、適用した例である。
 <用語の説明>
 まず、本実施の形態において用いられる用語について説明する。
 「顔部品」とは、目、眉、鼻、頬(ほお)骨、唇、輪郭等、顔の印象を特徴付ける部分を指すものとする。
 「顔部品ID」とは、顔部品の識別情報である。
 「顔部品の領域」とは、画像上あるいは実空間上で、顔部品が占める領域を指すものとし、目尻等、顔部品の特徴点の位置を含むものとする。
 「顔特徴量」とは、顔の特徴を示す所定のパラメータの値である。ここでは、顔の幅に対する顔の長さの比、両目の間隔に対する鼻の長さの比、および、顔の幅に対する目の幅の比等の、複数の値から成る多変量データであるものとする。
 「メイク」とは、メイクアップの仕方(種類)を示し、肌用化粧剤の色、塗布濃度、および塗布範囲を少なくとも含むものとする。
 「メイクパターン」とは、顔全体に対するメイクのパターンであり、1つの所定のパラメータの値または複数の所定のパラメータの値の組み合わせにより、定義されるものとする。
 「メイクパターンID」とは、予め用意された複数のメイクパターンの、識別情報である。
 「実施メイク情報」とは、メイクアップにおける実施の対象として選択されたメイクを示す情報であり、メイクパターンIDにより特定可能な情報である。
 「提案メイク情報」とは、メイクアップの支援を受けるユーザに対して提示すべきメイクとして選択されたメイクを示す情報であり、メイクパターンIDにより特定可能な情報である。
 「化粧品情報」とは、メイクを適用するための肌用化粧品に関する情報である。
 「化粧品ID」とは、肌用化粧品の識別情報であり、化粧品情報を特定可能な情報である。
 「端末ID」とは、端末の識別情報であり、通信を行うためのアドレスを少なくとも特定可能な情報である。
 「人ID」とは、メイクアップ支援を受けるユーザの識別情報である。
 <メイクアップ支援システムの構成>
 次に、本実施の形態に係るメイクアップ支援システムの構成について説明する。
 図2は、本実施の形態に係るメイクアップ支援システムの構成の一例を示すシステム構成図である。
 図2において、メイクアップ支援システム100は、第1~第Nの端末200~200(本発明に係る端末)、通信ネットワーク300、およびサーバ(本発明に係るメイクアップ支援装置)400を有する。
 第1~第Nの端末200~200は、例えば、スマートフォン等の、デジタルカメラおよびディスプレイを備えた情報通信端末である。第1~第Nの端末200~200は、それぞれ異なるユーザが使用しているものとする。
 通信ネットワーク300は、例えば、インターネット等の公衆通信網である。
 サーバ400は、通信ネットワーク300を介して、第1~第Nの端末200~200のそれぞれと通信可能な情報処理装置である。サーバ400は、第1~第Nの端末200~200のユーザに対するメイクアップの支援を行う。
 なお、第1~第Nの端末200~200は、同一の構成を有するものとする。このため、第1~第Nの端末200~200は、適宜、「端末200」と総称する。
 <端末の構成>
 次に、端末200の構成について説明する。
 図3は、端末200の構成の一例を示すブロック図である。
 図3において、端末200は、端末通信部210、実施メイク取得部220、撮影部230、画像取得部240、顔部品取得部250、メイク報告部260、提案メイク取得部270、端末メイク提示部280、および表示部290を有する。
 端末通信部210は、通信ネットワーク300に接続し、通信ネットワーク300を介して、サーバ400との間で通信を行う。
 実施メイク取得部220は、端末200のユーザがメイクアップにおける実施の対象として選択したメイクを示す、実施メイク情報を取得する。そして、実施メイク取得部220は、取得した実施メイク情報を、メイク報告部260へ出力する。
 本実施の形態において、実施メイク取得部220は、例えば、後述のメイクパターンテーブルにより予め用意された複数のメイクパターンを、選択肢としてユーザに提示するものとする。そして、実施メイク取得部220は、ユーザが実際にメイクアップを実施したメイクパターンの選択を、ユーザから受け付けるものとする。メイクパターンの選択の受け付けは、例えば、タッチパネル付きディスプレイを介して行われる。
 撮影部230は、例えば、デジタルスチルカメラであり、端末200のユーザの顔の画像を撮影する。そして、撮影部230は、撮影した画像を、画像取得部240へ出力する。
 画像取得部240は、入力された画像を取得し、顔部品取得部250および端末メイク提示部280へ出力する。
 顔部品取得部250は、入力された画像から、顔の顔部品の領域を取得する。顔部品の領域の取得は、例えば、画像の各部分領域と、予め用意された各顔部品のテンプレート画像とのマッチングにより行われる(例えば、特許文献2参照)。そして、顔部品取得部250は、取得した顔部品の識別情報および領域を示す情報(以下「顔部品情報」という)を、提案メイク取得部270へ出力する。
 また、顔部品取得部250は、顔の特徴を示す値である顔特徴量を取得し、取得した顔特徴量を、メイク報告部260へ出力する。なお、顔部品取得部250は、顔特徴量を、顔部品情報から取得してもよいし、画像を別途解析することにより取得してもよい。
 メイク報告部260は、入力された実施メイク情報と、入力された顔特徴量と、端末200のユーザの人IDと、端末200の端末IDとを、組にする。以下、これらの情報の組は、「ユーザ情報」という。そして、メイク報告部260は、ユーザ情報を含む実施メイクメッセージを、端末通信部210を介してサーバ400へ送信する。
 なお、本実施の形態において、メイクアップの支援を受けるユーザは、実施メイクメッセージを送信した端末200のユーザとする。すなわち、ユーザ情報のサーバ400への送信は、提案メイク情報の返信の要求を兼ねるものとする。
 提案メイク取得部270は、サーバ400から、提案メイク情報が送られてきたとき、端末通信部210を介してこれを受信する。また、提案メイク取得部270は、受信した提案メイク情報が示すメイクを適用するのに必要な化粧品の化粧品情報を、取得する。この化粧品情報の取得は、例えば、後述の化粧品テーブルを用いて行われる。そして、提案メイク取得部270は、顔部品取得部250から入力された顔部品情報と、受信した提案メイク情報と、取得した化粧品情報とを、端末メイク提示部280へ出力する。
 端末メイク提示部280は、提案メイク情報が示すメイクを、対応する顔部品の領域に対応付けてユーザに提示する。より具体的には、端末メイク提示部280は、入力された画像および提案メイク情報に基づいて、シミュレーション画像を生成し、生成したシミュレーション画像を、表示部290に出力する。ここで、シミュレーション画像は、入力(撮影)された画像に、提案メイク情報が示すメイクを適用したときの画像を、重畳して得られる画像である。
 なお、画像の重畳は、例えば、アルファ(α)ブレンド処理等の公知の画像合成処理により行われる。この場合、アルファ値(α)は、メイクの濃度に応じた値に設定される。アルファブレンド処理は、例えば、以下の式(1)~(3)で表される。ここで、r、g、bは、撮影された画像の任意の領域のRGB値であり、r、g、bは、メイクの色のRGB値である。そして、R、G、Bは、シミュレーション画像の対応する領域のRGB値である。
 R = r×α+r×(1-α)   ・・・(1)
 G = g×α+g×(1-α)   ・・・(2)
 B = b×α+b×(1-α)   ・・・(3)
 また、メイクのそれぞれに、顔に重ねて塗布する場合の順序(以下「塗布順序」という)が設定されており、かつ、メイクを適用したときの画像が、濃度に応じた密度の網掛け画像であったとする。塗布順序は、例えば、チークの塗布が、ファンデーションの塗布の後にすべきものであるということを規定する。この場合、画像の重畳は、撮影された画像に対して、各メイクの画像を、塗布順序に応じた順序で上塗り処理することにより、行われてもよい。
 また、端末メイク提示部280は、入力された化粧品情報を、更に提示する。より具体的には、端末メイク提示部280は、上記シミュレーション画像に、入力された化粧品情報を示す画像あるいはテキストを、重畳あるいは追加する。
 表示部290は、例えば、タッチパネル付きディスプレイであり、端末200のユーザに対して、入力されたシミュレーション画像および化粧品情報を表示(提示)する。
 なお、端末200は、図示しないが、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、RAM等の作業用メモリ、および通信回路を有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
 <サーバの構成>
 次に、サーバ400の構成について説明する。
 図4は、サーバ400の構成の一例を示すブロック図である。
 図4において、サーバ400は、サーバ通信部410、メイク収集部420、メイク蓄積部430、メイク分析部440、分析結果格納部450、およびメイク提示部460を有する。
 サーバ通信部410は、通信ネットワーク300に接続し、通信ネットワーク300を介して第1~第Nの端末200~200のそれぞれとの間で通信を行う。
 メイク収集部420は、第1~第Nの端末200~200の複数のユーザのそれぞれから、サーバ通信部410を介して、実施メイク情報を収集する。より具体的には、メイク収集部420は、いずれかの端末200から実施メイクメッセージが送られてきたとき、当該実施メイクメッセージを受信する。そして、メイク収集部420は、受信した実施メイクメッセージに含まれるユーザ情報を、その受信時間(時刻)と対応付けて、メイク蓄積430に格納する。
 また、上述の通り、端末200からのユーザ情報の受信は、提案メイク情報の返信が要求されていることを示す。したがって、メイク収集部420は、受信したユーザ情報のうち、少なくとも顔特徴量および端末IDを、メイク提示部460へ出力する。
 メイク蓄積部430は、メイク収集部420により格納(入力)されたユーザ情報を蓄積する。
 メイク分析部440は、メイク蓄積部430に蓄積されたユーザ情報を分析し、メイクアップの支援を受けるユーザに対して提示すべきメイクの選択基準を決定する。より具体的には、メイク分析部440は、実施メイク情報と顔特徴量との組み合わせに基づき、顔特徴量のグループ毎に、流行のメイクを推定する。そして、メイク分析部440は、推定した流行のメイクが選択されるような選択基準を決定する。分析手法の詳細については、後述する。
 なお、メイク分析部440は、十分な量のユーザ情報(実施メイク情報)が蓄積されるまでの間は、メイクの分析を行わないものとする。
 分析結果格納部450は、上記分析の結果(選択基準)を示すメイク分析結果テーブルを格納する。メイク分析結果テーブルは、上記複数のユーザから受信し得る顔特徴量と、その顔特徴量を有する顔のユーザに対して提案すべき、流行のメイクのメイクパターンIDとを、予め対応付けて登録したテーブルである。
 なお、分析結果格納部450には、少なくともメイクの分析が最初に行われるまでの間、提示メイク情報の初期の選択基準を示すメイク分析結果テーブルが、予め格納されているものとする。
 メイク提示部460は、決定された選択基準に基づいてメイクを選択し、選択されたメイクを示す提案メイク情報を、ユーザに対して提示する。より具体的には、メイク提示部460は、分析結果格納部450のメイク分析結果テーブルを参照して、メイク取集部420から入力された顔特徴量に対応する流行のメイクを選択する。そして、メイク提示部460は、選択したメイクを示す提案メイク情報を、サーバ通信部410を介して、メイク取集部420から入力された端末IDが示す端末200へ送信する。
 なお、上述の通り、メイク分析結果テーブルには、顔特徴量のグループ毎に、流行のメイクが、そのグループに属する顔特徴量の顔に適したメイクとして、登録されている。したがって、メイク提示部460は、入力された顔特徴量が、メイク分析結果テーブルに登録されたグループのいずれに属するかを判定し、判定されたグループに対応するメイクを選択する。この判定は、例えば、取得された顔特徴量と各グループの代表値(セントロイド)との距離を算出することにより行われる。
 なお、サーバ400は、図示しないが、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、RAM等の作業用メモリ、および通信回路を有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
 <メイクパターンID>
 ここで、メイクパターンIDが示すメイクの内容について説明する。
 端末200およびサーバ400は、例えば、メイクパターンIDとメイクの内容とを対応づけて記述した、同一内容のメイクパターンテーブルを、それぞれ予め格納している。端末200は、例えば、提案メイク取得部270に、実施メイク取得部220から参照可能な状態で、メイクパターンテーブルを格納している。サーバ400は、例えば、メイク分析部440に、メイクパターンテーブルを格納している。
 図5は、メイクパターンテーブルの一例を示す図である。
 図5に示すように、メイクパターンテーブル510は、例えば、メイクパターンID511毎に、対応するメイク種別512を記述している。メイク種別512は、ここでは簡略化して図示しているが、具体的には、「ファンデーション」、「アイシャドウ」、「口紅」、および「チーク」等である。
 そして、メイクパターンテーブル510は、メイクパターンID511とメイク種別512との組み合わせ毎に、色513、濃度514、範囲515、および化粧品ID516を記述している。色513は、ここでは簡略化して図示しているが、具体的には、RGB値および光沢度等である。濃度514は、ここでは簡略化して図示しているが、具体的には、顔の画像の上に重畳する際の透過度およびグラデーションの仕方等である。範囲515は、ここでは簡略化して図示しているが、具体的には、特徴点からの相対座標群、特徴点に対する中心点の相対位置と半径との組等である。すなわち、色513、濃度514、および範囲515の組は、少なくとも画像化に必要な情報を含む。
 なお、メイクパターンテーブル510は、肌用化粧品の塗りパターンを更に記述してもよい。肌用化粧品の塗りパターンとは、例えば、アイシャドウの場合、アイホールか、アイラインか、目の下か等、顔部品に対する相対的な範囲を示す情報である。
 例えば、「MP1」というメイクパターンID511には、「MT1」~「MT4」というメイク種別512が対応付けられている。また、例えば、「MP1」というメイクパターンID511と「MT1」というメイク種別512との組み合わせに対しては、「C1」という色513、「D1」という濃度514、「A1」という範囲515、および「I1」という化粧品ID516が、対応付けられている。これは、「MP1」というメイクパターンIDが、「MT1」というメイク種別について「C1、D1、A1」というメイクアップを行うことを表す。また、これは、「MP1」というメイクパターンIDが、「MT1」というメイク種別について、「I1」という化粧品IDの化粧品を用いるということを表す。
 また、端末200は、例えば、提案メイク取得部270に、化粧品IDと化粧品情報とを対応づけて記述した化粧品テーブルを、予め格納している。
 図6は、化粧品テーブルの一例を示す図である。
 図6に示すように、化粧品テーブル520は、化粧品ID521毎に、会社ID522および品番523を記述している。化粧品ID521は、メイクパターンテーブル510の化粧品ID516に対応している。会社ID522は、肌用化粧品の製造あるいは販売をする会社の名称あるいは識別子である。品番523は、肌用化粧品の品番である。
 例えば、「I1」という化粧品ID521には、「B1」という会社ID522および「b11」という品番523が対応付けられている。これは、「I1」という化粧品IDが、「B1」という会社IDが示す会社の、「b11」という品番の肌用化粧品であるということを示す。
 なお、端末200において、図5に示すメイクパターンテーブル510と図6に示す化粧品テーブル520とは、1つのテーブルに統合されていてもよい。
 <実施メイク情報の分析>
 次に、実施メイク情報の分析手法の一例について説明する。
 サーバ400のメイク分析部440は、まず、蓄積されたユーザ情報のうち顔特徴量に対して、主成分分析を行う。そして、メイク分析部440は、顔特徴量の主成分分析結果を、主成分値が1σ以上であるか否か等を判定基準とする公知の主成分層別法により、複数のグループにグルーピングする。そして、メイク分析部440は、顔特徴量のグループ毎に、そのグループの代表値(セントロイド)を、代表顔特徴量として決定する。
 更に、メイク分析部440は、顔特徴量のグループ毎に、そのグループに属する顔特徴量に対応する実施メイク情報に対して、主成分分析を行う。そして、メイク分析部440は、実施メイク情報の主成分分析結果を、公知の主成分層別法により複数のグループにグルーピングする。そして、メイク分析部440は、実施メイク情報のグループ毎に、そのグループの代表値(セントロイド)との距離が最も短いメイクパターンを、代表メイクパターンとして決定する。
 この結果、メイク分析部440は、代表顔特徴量毎に、複数の代表メイクパターンを対応付ける。そして、メイク分析部440は、代表顔特徴量毎に、複数の代表メイクパターンに対して、順位付けを行う。
 この順位付けの手法としては、例えば以下の3つが考えられる。
 1つ目は、対応する実施メイク情報の数が多い順に、代表メイクパターンに対して順位付けを行う手法である。これは、対応する実施メイク情報の数がより多いメイク(つまり、流行中のメイク)が、優先して選択されるような、選択基準を決定することに相当する。
 2つ目は、対応する実施メイク情報が受信された時間の平均が新しい順に、代表メイクパターンに対して順位付けを行う手法である。これは、対応する実施メイク情報が取得された時間の平均がより新しいメイク(つまり、流行の最先端にあるメイク)が、優先して選択されるような、選択基準を決定することに相当する。
 3つ目は、対応する実施メイク情報の数の増加速度が高い順に、代表メイクパターンに対して順位付けを行う手法である。これは、対応する実施メイク情報の数の増加速度がより高いメイク(つまり、流行しつつあるメイク)が、優先して選択されるような、選択基準を決定することに相当する。
 このような分析の結果、メイク分析部440は、顔特徴量をグループに分類し、顔特徴量のグループ毎に、そのグループに属する顔に対して適用されたメイクを代表するメイクパターンを対応付けることができる。また、メイク分析部440は、顔特徴量のグループ毎に、実際に流行しているメイクを対応付けることができる。メイク分析部440は、この分析結果に基づいて、上述のメイク分析結果テーブルを生成/更新する。
 なお、メイク分析部440は、これまでにメイク蓄積部430に蓄積されていない(データベース内にない)傾向のメイクパターン、つまり、斬新なメイクパターンを示す実施メイク情報が入力された場合に、その旨を検知するようにしてもよい。そして、メイク分析部440は、斬新なメイクパターンを検知したとき、当該メイクパターンが優先して選択されるような、選択基準を決定してもよい。このような斬新なメイクパターンは、メイク蓄積部430に既に蓄積されている実施メイク情報の数を母数としたとき、上述の、増加速度がメイクパターンということができる。
 斬新なメイクパターンを検出するための具体的な処理は、例えば、以下の通りである。メイク分析部440は、まず、入力されたメイクパターンに対して、既に分析済みの主成分負荷量を適用し、各主成分値を算出する。次に、メイク分析部440は、各主成分値からなるベクトルと、既にグルーピングされている各グループの代表メイクパターンの主成分値から成るベクトルとの、内積を算出する。メイク分析部440は、全てのグループに対する内積の値が閾値以上である場合、今回入力されたメイクパターンを、斬新なメイクパターンであると判定する。
 また、メイク分析部440は、一定期間毎(例えば、一定数の実施メイク情報が入力される毎)に再度主成分分析を行い、新規のグループの有無を検出することにより、新たなメイクパターンのトレンドの予兆を検出してもよい。そして、メイク分析部440は、かかる予兆を検出したとき、該当するメイクパターンが優先して選択されるような、選択基準を決定してもよい。
 このような構成を有するメイクアップ支援システム100は、サーバ400において、複数の端末200の複数のユーザから、実施メイク情報および顔特徴量を収集することができる。そして、メイクアップ支援システム100は、サーバ400において、収集された情報を分析することにより、顔特徴量のグループ毎に、流行のメイクを推定することができる。そして、メイクアップ支援システム100は、顔特徴量のグループ毎に流行のメイクを対応付けたテーブルを、提案メイク情報の選択基準として決定することができる。すなわち、メイクアップ支援システム100は、メイクの流行が時間と共に変化する場合でも、メイクアップの支援を適切に行うことができる。
 <端末の動作>
 次に、端末200の動作について説明する。
 図7は、端末200の動作の一例を示すフローチャートである。端末200は、例えば、メイクアップにおける実施の対象としてメイクパターンが選択される毎に、図7に示す処理を実行する。
 まず、ステップS1100において、撮影部230は、ユーザの顔を撮影し、画像取得部240は、撮影された映像を構成する画像を取得する。
 図8は、図7のステップS1100において取得される、画像の一例を示す図である。
 図8に示すように、画像610は、ユーザの顔の画像(以下「顔画像」という)611を含む。ユーザは、メイクアップをしていない状態であるものとする。
 そして、図7のステップS1200において、顔部品取得部250は、画像610から、顔部品および顔特徴量を取得する。この際、顔部品取得部250は、例えば、画像610を解析することにより、画像610から顔の(顔部品の)特徴点を抽出する。そして、顔部品取得部250は、同一の顔部品を構成する特徴点により形成される領域を、顔部品の領域として取得する。そして、顔部品取得部250は、取得した顔部品の領域から、顔部品情報を生成する。また、顔部品取得部250は、抽出した顔の特徴点から、例えば、顔の幅に対する顔の長さの比、両目の間隔に対する鼻の長さの比、および、顔の幅に対する目の幅の比等の値から成る、顔特徴量を取得する。
 図9は、図7のステップS1200において抽出される、顔の特徴点の配置の一例を示す図である。
 図9に示すように、顔画像611からは、複数の特徴点(記号「●」で示す)が抽出される。例えば、第1~第4の特徴点621~624は、右目を構成する。したがって、顔部品取得部250は、第1~第4の特徴点621~624により囲まれる領域625を、右目の領域として取得する。
 図10は、図7のステップS1200において生成される、顔部品情報の一例を示す図である。
 図10に示すように、顔部品情報630は、例えば、顔部品ID631毎に、領域632および人ID633を記述している。領域632は、画像における顔部品の領域の範囲を示す情報であり、例えば、画像上に設定された座標系の座標値リストである。人ID633は、例えば、撮影が開始される毎に、タッチパネル付きディスプレイに対する操作等を介してユーザにより指定された値が、設定される。
 また、顔特徴量としては、例えば、上述の顔の幅に対する顔の長さの比、両目の間隔に対する鼻の長さの比、および、顔の幅に対する目の幅の比等を並べた、多変量データが取得される。
 そして、図7のステップS1300において、実施メイク取得部220は、実施メイク情報を取得する。この実施メイク情報の取得は、つまり、メイクパターンIDの取得である。
 そして、ステップS1400において、メイク報告部260は、顔特徴量および実施メイク情報を、サーバ400へ送信する。この顔特徴量および実施メイク情報の送信は、つまり、実施メイクメッセージの送信である。
 図11は、実施メイクメッセージの一例を示す図である。
 図11に示すように、実施メイクメッセージ640は、例えば、端末ID641、人ID642、メイクパターンID643、および顔特徴量644を含む。端末ID641は、端末200の端末IDである。人ID642は、顔特徴量644の抽出の対象となった人の人IDである。メイクパターンID643は、実施メイク情報であり、顔特徴量644が抽出の対象となった人に対して選択されたメイクの、メイクパターンIDである。
 なお、ステップS1400と、次のステップS1500との間に、サーバ400において、後述の図14に示す動作が行われる。その結果、端末200には、ユーザ情報送信に対する応答として、サーバ400から、提案メイク情報を含む提案メイクメッセージが返信されてくる。
 そして、図7のステップS1500において、提案メイク取得部270は、提案メイク情報を、サーバ400から受信する。この提案メイク情報の受信は、つまり、提案メイクメッセージの受信である。
 図12は、提案メイクメッセージの一例を示す図である。
 図12において、提案メイクメッセージ650は、端末ID651と人ID652との組に対応付けて、複数のメイクパターンID653を対応付けている。端末ID651は、提案メイクメッセージ650の送信先を示す。複数のメイクパターンID653は、人ID652に対して提案すべきメイクパターンのうち、優先度が最も高いメイクパターンのメイクパターンIDである。
 そして、図7のステップS1600において、端末メイク提示部280は、提案メイク情報に含まれていた提案メイク情報に基づいて、シミュレーション画像を生成し、表示部290に表示させる。この際、端末メイク提示部280は、化粧品情報についても、表示部290に表示させる。
 図13は、図7のステップS1600において表示される、シミュレーション画像の一例を示す図である。
 図13に示すように、シミュレーション画像660は、顔画像611に、アイブロウ、アイシャドウ、アイライナー、チーク、および口紅といった、顔用メイクの画像661~665を重畳した画像となっている。
 また、シミュレーション画像660には、化粧品情報を示す情報表示エリア666が追加されている。すなわち、シミュレーション画像660には、選択されたメイクを適用するのに必要な肌用化粧品の化粧品情報も、表示される。ユーザは、表示されているシミュレーション画像660が示すメイクを気に入った場合、表示された化粧品情報に基づいて、必要な肌用化粧品を入手することができ、実際のメイクアップを容易に行うことができる。
 このような動作により、端末200は、ユーザの実施メイク情報を顔特徴量と共にサーバ400へ送信し、ユーザの顔に合う流行のメイクに関する情報を、サーバ400から受信して、これをユーザに提示することができる。
 <サーバの動作>
 次に、サーバ400の動作について説明する。
 図14は、サーバ400の動作の一例を示すフローチャートである。
 まず、ステップS2100において、メイク収集部420は、端末200から、実施メイク情報(ユーザ情報)を受信したか否かを判断する。この実施メイク情報の受信は、つまり、実施メイクメッセージの受信である。
 メイク収集部420が実施メイク情報を受信していない場合(S2100:NO)、フローは後述のステップS2500へ進む。また、メイク収集部420が実施メイク情報を受信した場合(S2100:YES)、フローはステップS2200へ進む。
 なお、メイク収集部420は、第1~第Nの端末200~200に対して、例えば定期的に、新たに実施の対象として選択されたメイクについてユーザ情報を送信するように要求して、ユーザ情報の収集を行ってもよい。
 ステップS2200において、メイク収集部420は、受信した実施メイク情報を、その受信時間と対応付けて、メイク蓄積部430に蓄積させる。この実施メイク情報の蓄積は、つまり、ユーザ情報および受信時間の蓄積である。以下、ユーザ情報と受信時間との組は、「ユーザ情報履歴」という。
 図15は、メイク蓄積部430に格納されているユーザ情報履歴の一例を示す図である。
 図15に示すように、ユーザ情報履歴670は、端末ID671、人ID672、メイクパターンID673、および顔特徴量674(つまりユーザ情報)と、受信時間675とを、対応付けて記述している。
 そして、図14のステップS2300において、メイク分析部440は、現在の選択基準に基づき、メイクを選択する。現在の選択基準とは、つまり、分析結果格納部450に格納されているメイク分析結果テーブルである。メイクの選択は、上述の通り、受信した顔特徴量が、メイク分析結果テーブルに登録されたグループのいずれに属するかを判定し、判定されたグループに対応するメイクを選択することにより行われる。
 図16は、分析結果格納部450に格納されているメイク分析結果テーブルの一例を示す図である。
 図16に示すように、メイク分析結果テーブル680は、例えば、顔特徴量のグループ681毎に、複数のメイクパターンID682を対応付けて記述している。複数のメイクパターンID682は、顔特徴量のグループ681に属する顔特徴量の人に対して提案すべきメイクパターンのうち、優先度が最も高いメイクパターンのメイクパターンIDである。
 例えば、「G1」という顔特徴量のグループ681には、「MP1」というメイクパターンIDが対応付けられている。したがって、メイク提示部460は、端末200から送られてきた顔特徴量が、「G1」という顔特徴量のグループ681に属する場合、「MP1」というメイクパターンID682を、提示メイク情報として決定する。
 そして、図14のステップS2400において、メイク提示部460は、選択したメイクを示す提案メイク情報を、端末200へ返信する。この提案メイク情報の返信は、つまり、提案メイクメッセージの返信である。
 そして、ステップS2500において、メイク分析部440は、メイク蓄積部430に蓄積された実施メイク情報に対する分析を行うべきタイミングが到来したか否かを判断する。かかるタイミングは、例えば、蓄積された実施メイク情報の量(数)が所定の値以上であり、かつ、最後に分析を行ってから所定の時間が経過したタイミングである。
 分析を行うべきタイミングが到来していない場合(S2500:NO)、フローは後述のステップS2800へ進む。また、分析を行うべきタイミングが到来した場合(S2500:YES)、フローはステップS2600へ進む。
 ステップS2600において、メイク分析部440は、蓄積された実施メイク情報を分析し、選択基準を決定する。すなわち、メイク分析部440は、複数のユーザから収集された実施メイク情報から、顔特徴量の分類および流行のメイクの推定を行う。
 そして、ステップS2700において、メイク分析部440は、決定した選択基準を、分析結果格納部450に格納する。すなわち、メイク分析部440は、蓄積された実施メイク情報に対する分析結果に基づいて、メイク分析結果テーブル680(図16参照)を更新する。この更新されたメイク分析結果テーブル680は、次に処理がステップS2300へ進んだときに、用いられることになる。
 そして、ステップS2800において、メイク収集部420は、サーバ400のオペレータ操作等により処理の終了を指示されたか否かを判断する。
 メイク収集部420が処理の終了を指示されていない場合(S2800:NO)、フローはステップS2100へ戻る。また、メイク収集部420が処理の終了を指示された場合(S2800:YES)、一連の処理を終了する。
 このような動作により、サーバ400は、第1~第Nの端末200~200から実施メイク情報を収集して分析し、顔特徴量のグループ毎の流行のメイクを推定しつつ、その分析結果を、各端末200にフィードバックすることができる。
 <本実施の形態の効果>
 以上のように、本実施の形態に係るメイクアップ支援システム100は、複数の人のそれぞれから実施メイク情報を収集し、収集された情報を分析し、ユーザに対して提示すべきメイクの選択基準を決定する。そして、メイクアップ支援システム100は、決定された選択基準に基づいて決定されるメイクを、ユーザに対して提示する。より具体的には、メイクアップ支援システム100は、各メイクパターンの、実際の実施の対象として選択された回数、時間の新しさ、および数の増加の度合い等から、提案するメイクの選択基準を決定する。
 流行のメイクは、より多くの人々に実際に実施されているメイクである場合が多い。したがって、本実施の形態に係るメイクアップ支援システム100は、メイクの流行が時間と共に変化する場合でも、実際に流行しているメイクを推定してこれを選択することができ、メイクアップの支援を適切に行うことができる。
 <提示メイクの選択肢>
 なお、本実施の形態では、顔特徴量から1つのメイクパターンを提示対象として選択する選択基準を例示したが、これに限定されない。例えば、サーバ400は、優先度が最も高い複数のメイクパターンを、提示メイク情報として端末200に返信してもよい。
 この場合、端末200は、例えば、受信した提示メイク情報が示す複数のメイクパターンを選択肢として提示し、選択されたメイクパターンを、端末メイク提示部280による提示の対象とする。より具体的には、端末200は、提案メイク取得部270において、複数のメイクパターンの識別情報を、表示部290に表示させる。そして、端末200は、タッチパネル付きディスプレイに対する操作等を介してユーザにより選択されたメイクパターンの提案メイク情報を、提案メイク取得部270から端末メイク提示部280へと出力させる。
 <他のメイク選択手法>
 また、メイクアップ支援システム100は、顔特徴量以外のパラメータに基づいて、実施メイク情報のグルーピングを行ってもよい。例えば、メイクアップ支援システム100は、職業、年齢、居住地等、人の各種属性に基づくグルーピングを行ってもよい。この場合、サーバ400は、かかるグルーピングに必要な情報を、実施メイク情報と対応付けて収集する必要がある。これにより、メイクアップ支援システム100は、人の属性に応じて適切なメイクが異なる場合に、より適切なメイクを提示することが可能となる。
 また、メイクアップ支援システム100は、各メイクパターンの実施の回数、時間の新しさ、および数の増加の度合い等に加えて、化粧品会社の優先順位など、別の指標値を考慮して、メイクパターンの選択基準を決定してもよい。例えば、メイクアップ支援システム100は、流行のメイクを選択しつつ、特定の化粧品会社が優先して選択されるような、選択基準を決定してもよい。
 <化粧品情報の応用>
 また、端末200は、表示する化粧品情報に、肌用化粧品を購入することができるウェブサイトへのリンク情報を対応付けておいてもよい。この場合、端末200は、ユーザがメイクに対する決定操作を行ったとき、通信ネットワーク300を介して、対応するウェブサイトを表示させることが可能となり、メイクアップを更に効果的に支援することができる。また、化粧品会社に対しては、化粧品の販売を促進させることができる。
 <他の提示内容>
 また、端末200は、全てのメイクアップが行われた後の顔のシミュレーション画像ではなく、メイクアップ途中の顔のシミュレーション画像を生成して表示してもよい。また、端末200は、上述のように、各メイクに塗布順序が設定されている場合、この塗布順序に従って、メイクアップ途中の顔のシミュレーション画像を順次生成して表示してもよい。これにより、端末200は、ユーザに対して、適切なメイクアップの順序を提示することができる。
 また、端末200は、選択したメイクの領域との対応付け、および、選択したメイクの色および濃度を、テキストによって提示してもよい。このテキストは、例えば、「両頬骨の最も高い位置を中心にした直径約4cmの範囲に、B1社の品番b55のチークを、濃い目に塗布して下さい。」という内容である。ユーザによっては、テキスト情報のみからでもメイクアップが行われた顔をイメージすることができる。このようなユーザに対しては、このような提示手法によっても、メイクアップを十分に支援することが可能である。これにより、メイクアップ支援システム100は、画像を生成および表示することなく、メイクアップ支援を行うことができる。
 <他のメイク提示手法>
 また、端末200は、シミュレーション画像以外の手法で、メイクの提示を行ってもよい。
 例えば、端末200は、肌用化粧品の化粧剤を所定の薄膜(紙状媒体)に転写するプリンタに接続される。かかる薄膜は、転写された化粧剤を剥離容易に担持する。このため、薄膜上の化粧剤は、肌に押し付けられことにより、肌に容易に転写されるようになっている。
 そして、端末200は、端末メイク提示部280において、撮影された顔の実空間における領域と同じ形状および面積を薄膜に設定し、メイクを対応する領域に転写するように、プリンタに指示する。なお、薄膜は、平面状であっても、立体状であってもよい。
 これにより、端末200は、メイクを、薄膜上で、それぞれに対応する領域に対応付けて、ユーザに提示することができる。
 ユーザは、この薄膜に印刷された左右の目尻を示す点を、ユーザの左右の目尻に合わせた状態で、薄膜の全体を顔に押し付けることにより、シミュレーション画像に基づいて選択したメイクを実際に行うことができる。すなわち、ユーザは、顔部品毎に化粧剤を塗るといった作業を行うことなく、簡単かつ迅速に、流行のメイクを行うことができる。
 また、端末200は、デジタルビデオカメラ等によりユーザの顔の映像を撮影し、撮影映像を構成する画像(フレーム)に対して、リアルタイムにシミュレーション画像を生成して表示してもよい。この場合、端末メイク提示部280は、映像に対応して一旦入力された提案メイク情報が示すメイクを維持しつつ、映像を構成する画像毎に、順次、シミュレーション画像を生成して表示部290に表示させればよい。
 <他の実施メイク情報取得手法>
 また、実施メイク取得部220は、メイクパターンの選択の受け付けを、アイシャドウ毎、チーク毎というように、部分別にメイクの選択を受け付け、受け付けたメイクを組み合わせることによって、行ってもよい。また、実施メイク取得部220は、ユーザの顔画像から実際に実施されたメイクのメイクパターンを抽出し、抽出したメイクパターンを多変量データ化する等して、実施メイク情報を取得してもよい。但し、これらの場合、メイクパターンの選択肢は、膨大な数となる。したがって、特に、これらの場合、メイクアップ支援システム100は、実施メイク情報として、メイクパターンIDではなく、メイクパターンの多変量データをそのまま用いることが望ましい。
 <その他の構成の変形例>
 また、提案メイク情報の提示先は、必ずしも実施メイク情報の送信元のユーザでなくてもよい。例えば、サーバ400は、決定した選択基準に基づいて選択した提案メイク情報を、実施メイク情報の収集先となっていない端末に送信してもよいし、サーバ400のオペレータに提示してもよい。
 また、化粧品情報の取得は、サーバ400で行ってもよい。この場合、例えば、化粧品テーブルをサーバ400に用意し、サーバ400が、提案メイク情報と併せて化粧品情報を端末200に送信すればよい。
 また、本実施の形態では、メイク分析結果テーブルの保持およびメイク分析結果テーブルに基づくメイクパターンの選択を、サーバ400ではなく、端末200で行うようにしてもよい。この場合、サーバ400は、メイク分析結果テーブルを端末200に送信するようにし、かつ、端末200にメイク提示部460に対応する機能部を設ける必要がある。
 また、メイクの具体的内容は、上述の例に限定されない。例えば、提示の対象となる顔用メイクには、マスカラ、リップグロス等が含まれる。
 また、実施の形態では、本発明を、サーバと複数の端末とにより構成されるシステムに適用した場合について説明したが、本発明は、各端末間で直接データを共有して各端末で分析処理等を行うというような形態であってもよい。
 本開示のメイクアップ支援装置は、複数の人のそれぞれから、当該人がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集するメイク収集部と、収集された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するメイク分析部と、決定された前記選択基準に基づいてメイクを選択し、選択されたメイクを示す提案メイク情報を前記ユーザに対して提示するメイク提示部と、を有する。
 なお、上記メイクアップ支援装置は、前記複数の人がそれぞれ使用する複数の端末のそれぞれとの間で通信を行う通信部、を更に有し、前記メイク収集部は、前記通信部を介して前記実施メイク情報を収集してもよい。
 また、上記メイクアップ支援装置において、前記ユーザは、前記複数の人に含まれ、前記メイク提示部は、前記通信部を介して、前記提案メイク情報を前記ユーザに対して提示してもよい。
 また、上記メイクアップ支援装置において、前記メイク分析部は、対応する前記実施メイク情報の数がより多い前記メイクが、優先して選択されるような、前記選択基準を決定してもよい。
 また、上記メイクアップ支援装置において、前記メイク分析部は、対応する前記実施メイク情報が取得された時間の平均がより新しい前記メイクが、優先して選択されるような、前記選択基準を決定してもよい。
 また、上記メイクアップ支援装置において、前記メイク分析部は、対応する前記実施メイク情報の数の増加速度がより高い前記メイクが、優先して選択されるような、前記選択基準を決定してもよい。
 また、上記メイクアップ支援装置において、前記メイク収集部は、前記複数の人から、前記実施メイク情報以外の所定の情報を更に収集し、前記メイク分析部は、前記実施メイク情報と前記所定の情報との組み合わせに基づき、前記所定の情報の内容毎に、前記選択基準を決定し、前記メイク提示部は、前記ユーザから当該ユーザの前記所定の情報を取得し、取得した前記所定の情報の内容に対応する前記選択基準に基づいてメイクを選択してもよい。
 また、上記メイクアップ支援装置において、前記複数の人は、それぞれ、1つの所定のパラメータの値または複数の所定のパラメータの値の組み合わせによりそれぞれ定義される、予め用意された複数のメイクの中から、メイクアップにおける実施の対象を選択し、前記実施メイク情報は、選択された前記メイクを定義する前記1つまたは複数の値を含んでもよい。
 また、上記メイクアップ支援装置において、前記メイクは、肌用化粧剤の色、塗布濃度、および塗布範囲を少なくとも含んでもよい。
 本開示のメイクアップ支援システムは、複数の端末と、通信ネットワークを介して前記複数の端末のそれぞれと通信可能なサーバと、を含むメイクアップ支援システムであって、前記端末は、前記端末のユーザがメイクアップにおける実施の対象として選択したメイクを示す、実施メイク情報を取得するメイク取得部と、取得された前記実施メイク情報を、前記サーバへ送信するメイク報告部と、を有し、前記サーバは、前記複数の端末のそれぞれから送られてきた前記実施メイク情報を蓄積するメイク収集部と、蓄積された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するメイク分析部と、決定された前記選択基準に基づいてメイクを選択し、選択されたメイクを示す前記提案メイク情報を、前記メイクアップの支援を受けるユーザに対して提示するメイク提示部と、を有する。
 なお、上記メイクアップ支援システムにおいて、前記端末は、前記サーバから、前記サーバで選択されたメイクを示す提案メイク情報が送られてきたとき、当該提案メイク情報を前記ユーザに提示する端末メイク提示部、を更に有し、前記サーバの前記メイク提示部は、前記提案メイク情報を、前記複数の端末の少なくとも1つに対して送信してもよい。 
 本開示のメイクアップ支援方法は、複数の人のそれぞれから、当該人がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集するステップと、収集された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するステップと、決定された前記選択基準に基づいてメイクを選択するステップと、選択されたメイクを示す提案メイク情報を、前記ユーザに対して提示するステップと、を有する。
 2013年2月1日出願の特願2013-018274の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本発明は、メイクの流行が時間と共に変化する場合でも、メイクアップの支援を適切に行うことができる、メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法として有用である。
 100 メイクアップ支援システム
 200 端末
 210 端末通信部
 220 実施メイク取得部
 230 撮影部
 240 画像取得部
 250 顔部品取得部
 260 メイク報告部
 270 提案メイク取得部
 280 端末メイク提示部
 290 表示部
 300 通信ネットワーク
 400 サーバ
 410 サーバ通信部
 420 メイク収集部
 430 メイク蓄積部
 440 メイク分析部
 450 分析結果格納部
 460 メイク提示部

Claims (11)

  1.  複数の人のそれぞれから、当該人がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集するメイク収集部と、
     収集された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するメイク分析部と、
     決定された前記選択基準に基づいてメイクを選択し、選択されたメイクを示す提案メイク情報を前記ユーザに対して提示するメイク提示部と、を有する、
     メイクアップ支援装置。
  2.  前記メイク分析部は、
     対応する前記実施メイク情報の数がより多い前記メイクが、優先して選択されるような、前記選択基準を決定する、
     請求項1に記載のメイクアップ支援装置。
  3.  前記メイク分析部は、
     対応する前記実施メイク情報が取得された時間の平均がより新しい前記メイクが、優先して選択されるような、前記選択基準を決定する、
     請求項1に記載のメイクアップ支援装置。
  4.  前記メイク分析部は、
     対応する前記実施メイク情報の数の増加速度がより高い前記メイクが、優先して選択されるような、前記選択基準を決定する、
     請求項1に記載のメイクアップ支援装置。
  5.  前記メイク収集部は、
     前記複数の人から、前記実施メイク情報以外の所定の情報を更に収集し、
     前記メイク分析部は、
     前記実施メイク情報と前記所定の情報との組み合わせに基づき、前記所定の情報の内容毎に、前記選択基準を決定し、
     前記メイク提示部は、
     前記ユーザから当該ユーザの前記所定の情報を取得し、取得した前記所定の情報の内容に対応する前記選択基準に基づいてメイクを選択する、
     請求項1に記載のメイクアップ支援装置。
  6.  前記所定の情報は、顔特徴量を少なくとも含む、
     請求項5に記載のメイクアップ支援装置。
  7.  前記複数の人は、それぞれ、1つの所定のパラメータの値または複数の所定のパラメータの値の組み合わせによりそれぞれ定義される、予め用意された複数のメイクの中から、メイクアップにおける実施の対象を選択し、
     前記実施メイク情報は、選択された前記メイクを定義する前記1つまたは複数の値を含む、
     請求項1に記載のメイクアップ支援装置。
  8.  前記メイクは、肌用化粧剤の色、塗布濃度、および塗布範囲を少なくとも含む、
     請求項1に記載のメイクアップ支援装置。
  9.  複数の端末と、通信ネットワークを介して前記複数の端末のそれぞれと通信可能なサーバと、を含むメイクアップ支援システムであって、
     前記端末は、
     前記端末のユーザがメイクアップにおける実施の対象として選択したメイクを示す、実施メイク情報を取得するメイク取得部と、
     取得された前記実施メイク情報を、前記サーバへ送信するメイク報告部と、を有し、
     前記サーバは、
     前記複数の端末のそれぞれから送られてきた前記実施メイク情報を蓄積するメイク収集部と、
     蓄積された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するメイク分析部と、
     決定された前記選択基準に基づいてメイクを選択し、選択されたメイクを示す前記提案メイク情報を、前記メイクアップの支援を受けるユーザに対して提示するメイク提示部と、を有する、
     メイクアップ支援システム。
  10.  前記端末は、
     前記サーバから、前記サーバで選択されたメイクを示す提案メイク情報が送られてきたとき、当該提案メイク情報を前記ユーザに提示する端末メイク提示部、を更に有し、
     前記サーバの前記メイク提示部は、
     前記提案メイク情報を、前記複数の端末の少なくとも1つに対して送信する、
     請求項9に記載のメイクアップ支援システム。
  11.  複数の人のそれぞれから、当該人がメイクアップにおける実施の対象として選択したメイクを示す実施メイク情報を収集するステップと、
     収集された前記実施メイク情報を分析して流行のメイクを推定し、前記推定した流行のメイクが選択されるように選択基準を決定するステップと、
     決定された前記選択基準に基づいてメイクを選択するステップと、
     選択されたメイクを示す提案メイク情報を、前記ユーザに対して提示するステップと、を有する、
     メイクアップ支援方法。
PCT/JP2014/000247 2013-02-01 2014-01-20 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法 WO2014119244A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/388,998 US9986812B2 (en) 2013-02-01 2014-01-20 Makeup application assistance device, makeup application assistance system, and makeup application assistance method
CN201480000922.0A CN104203043B (zh) 2013-02-01 2014-01-20 化妆辅助装置及化妆辅助方法
EP14746673.4A EP2820971B1 (en) 2013-02-01 2014-01-20 Makeup application assistance device, makeup application assistance system, and makeup application assistance method
US15/010,130 US10028569B2 (en) 2013-02-01 2016-01-29 Makeup application assistance device, makeup application assistance system, and makeup application assistance method
US15/010,122 US10264870B2 (en) 2013-02-01 2016-01-29 Makeup application assistance device, makeup application assistance system, and makeup application assistance method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013018274A JP6132232B2 (ja) 2013-02-01 2013-02-01 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
JP2013-018274 2013-02-01

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US14/388,998 A-371-Of-International US9986812B2 (en) 2013-02-01 2014-01-20 Makeup application assistance device, makeup application assistance system, and makeup application assistance method
US15/010,122 Continuation US10264870B2 (en) 2013-02-01 2016-01-29 Makeup application assistance device, makeup application assistance system, and makeup application assistance method
US15/010,130 Continuation US10028569B2 (en) 2013-02-01 2016-01-29 Makeup application assistance device, makeup application assistance system, and makeup application assistance method

Publications (1)

Publication Number Publication Date
WO2014119244A1 true WO2014119244A1 (ja) 2014-08-07

Family

ID=51261961

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000247 WO2014119244A1 (ja) 2013-02-01 2014-01-20 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法

Country Status (5)

Country Link
US (3) US9986812B2 (ja)
EP (1) EP2820971B1 (ja)
JP (1) JP6132232B2 (ja)
CN (1) CN104203043B (ja)
WO (1) WO2014119244A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6128309B2 (ja) 2013-02-01 2017-05-17 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
EP2953090A4 (en) 2013-02-01 2016-05-25 Panasonic Ip Man Co Ltd MAKEUP AID, MAKEUP AID, MAKEUP ASSISTANCE AND MAKEUP ASSISTANCE
JP5991536B2 (ja) 2013-02-01 2016-09-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6008323B2 (ja) 2013-02-01 2016-10-19 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6288404B2 (ja) 2013-02-28 2018-03-07 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP5372276B1 (ja) 2013-03-22 2013-12-18 パナソニック株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP5372275B1 (ja) 2013-03-22 2013-12-18 パナソニック株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
CN105468950B (zh) * 2014-09-03 2020-06-30 阿里巴巴集团控股有限公司 身份认证方法、装置、终端及服务器
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
US10667595B2 (en) 2015-12-11 2020-06-02 Heather J. Tribbett Modular cosmetic system and method of use
JP6200483B2 (ja) * 2015-12-23 2017-09-20 株式会社オプティム 画像処理システム、画像処理方法、および画像処理プログラム
EP3400706B1 (en) 2016-01-05 2022-04-13 RealD Spark, LLC Gaze correction of multi-view images
EP3407290A1 (en) 2016-01-22 2018-11-28 Panasonic Intellectual Property Management Co., Ltd. Makeup trend analysis device, makeup trend analysis method, and makeup trend analysis program
US10324739B2 (en) 2016-03-03 2019-06-18 Perfect Corp. Systems and methods for simulated application of cosmetic effects
JPWO2018029963A1 (ja) * 2016-08-08 2019-06-06 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
JP6753276B2 (ja) * 2016-11-11 2020-09-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN106780662B (zh) 2016-11-16 2020-09-18 北京旷视科技有限公司 人脸图像生成方法、装置及设备
CN106780658B (zh) * 2016-11-16 2021-03-09 北京旷视科技有限公司 人脸特征添加方法、装置及设备
KR101872635B1 (ko) * 2017-02-01 2018-06-29 주식회사 엘지생활건강 메이크업 자동 평가 시스템 및 그의 동작 방법
US11113511B2 (en) 2017-02-01 2021-09-07 Lg Household & Health Care Ltd. Makeup evaluation system and operating method thereof
JP6902780B2 (ja) * 2017-05-10 2021-07-14 株式会社桃谷順天館 メイク指導装置、メイク指導プログラム、及びメイク指導システム
CN109299636A (zh) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 可标示腮红区域的身体信息分析装置
TW201911084A (zh) * 2017-08-04 2019-03-16 日商資生堂股份有限公司 資訊處理裝置、程式、及化粧品提供裝置
US10740985B2 (en) 2017-08-08 2020-08-11 Reald Spark, Llc Adjusting a digital representation of a head region
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
KR102343251B1 (ko) 2018-04-13 2021-12-27 샤넬 파르퓜 보트 의도된 사용자를 위한 화장품의 선택 방법
US10762665B2 (en) 2018-05-23 2020-09-01 Perfect Corp. Systems and methods for performing virtual application of makeup effects based on a source image
US11257142B2 (en) 2018-09-19 2022-02-22 Perfect Mobile Corp. Systems and methods for virtual application of cosmetic products based on facial identification and corresponding makeup information
EP3664035B1 (en) 2018-12-03 2021-03-03 Chanel Parfums Beauté Method for simulating the realistic rendering of a makeup product
US11253045B2 (en) * 2019-07-18 2022-02-22 Perfect Mobile Corp. Systems and methods for recommendation of makeup effects based on makeup trends and facial analysis
GB2606955A (en) * 2020-01-06 2022-11-23 Kao Corp Sheet-providing method and sheet-providing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346627A (ja) 2000-06-07 2001-12-18 Kao Corp 化粧アドバイスシステム
WO2002008983A1 (fr) * 2000-07-19 2002-01-31 Shiseido Company, Ltd. Systeme et procede de selection d'une couleur par une personne
JP2003044837A (ja) 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004220200A (ja) * 2003-01-10 2004-08-05 Sony Ericsson Mobilecommunications Japan Inc コーディネイト情報提供方法及び装置、コーディネイト情報提供システム、コーディネイト情報提供プログラム
JP2010017360A (ja) 2008-07-10 2010-01-28 Sega Corp ゲーム装置、ゲーム制御方法、ゲーム制御プログラム、及び、該プログラムを記録した記録媒体
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MXPA02011866A (es) * 2000-05-31 2003-04-10 Procter & Gamble Metodos y sistema para proveer preparaciones personalizadas.
JP2002221896A (ja) * 2001-01-24 2002-08-09 Victor Co Of Japan Ltd 化粧シミュレーションシステム
US20060085274A1 (en) * 2004-10-14 2006-04-20 The Procter & Gamble Company Methods and apparatus for selecting a color for use by a personal care product recommendation system
FR2881858A1 (fr) * 2005-02-04 2006-08-11 Oreal Systeme interactif utile en cosmetique et procede de construction d'une base de donnees
WO2007024736A2 (en) * 2005-08-19 2007-03-01 Biap Systems, Inc. System and method for recommending items of interest to a user
JP4809056B2 (ja) 2005-12-28 2011-11-02 株式会社 資生堂 チークメーキャップのための顔分類装置、顔分類プログラム、及び該プログラムが記録された記録媒体
JP2010520551A (ja) * 2007-03-08 2010-06-10 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 画像から推定される皮膚色に基づいて製品を推奨するための方法及びシステム
JP4939349B2 (ja) * 2007-09-12 2012-05-23 日本電信電話株式会社 トレンド検出方法、トレンド検出プログラムおよびトレンド検出装置
WO2009146489A1 (en) * 2008-06-02 2009-12-10 Andrew Robert Dalgleish An item recommendation system
JP2010055391A (ja) * 2008-08-28 2010-03-11 Fujifilm Corp 商品分析装置、商品提案装置、商品分析方法及びプログラム
JP5276581B2 (ja) * 2009-12-25 2013-08-28 日本電信電話株式会社 トレンド分析装置、トレンド分析方法およびトレンド分析プログラム
JP5656603B2 (ja) * 2010-12-14 2015-01-21 キヤノン株式会社 情報処理装置、情報処理方法、およびそのプログラム
JP6128309B2 (ja) 2013-02-01 2017-05-17 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP5991536B2 (ja) 2013-02-01 2016-09-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6008323B2 (ja) 2013-02-01 2016-10-19 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346627A (ja) 2000-06-07 2001-12-18 Kao Corp 化粧アドバイスシステム
WO2002008983A1 (fr) * 2000-07-19 2002-01-31 Shiseido Company, Ltd. Systeme et procede de selection d'une couleur par une personne
JP2003044837A (ja) 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004220200A (ja) * 2003-01-10 2004-08-05 Sony Ericsson Mobilecommunications Japan Inc コーディネイト情報提供方法及び装置、コーディネイト情報提供システム、コーディネイト情報提供プログラム
JP2010017360A (ja) 2008-07-10 2010-01-28 Sega Corp ゲーム装置、ゲーム制御方法、ゲーム制御プログラム、及び、該プログラムを記録した記録媒体
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Also Published As

Publication number Publication date
CN104203043A (zh) 2014-12-10
US9986812B2 (en) 2018-06-05
US20150086945A1 (en) 2015-03-26
JP6132232B2 (ja) 2017-05-24
US20160143420A1 (en) 2016-05-26
US10264870B2 (en) 2019-04-23
EP2820971A1 (en) 2015-01-07
CN104203043B (zh) 2017-08-11
JP2014147561A (ja) 2014-08-21
US10028569B2 (en) 2018-07-24
EP2820971A4 (en) 2015-05-27
US20160143421A1 (en) 2016-05-26
EP2820971B1 (en) 2018-09-12

Similar Documents

Publication Publication Date Title
WO2014119244A1 (ja) メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
JP5991536B2 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6128309B2 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US10762333B2 (en) Makeup trend analyzing apparatus, makeup trend analyzing method, and non-transitory computer-readable recording medium storing makeup trend analyzing program
WO2015122195A1 (ja) 印象分析装置、ゲーム装置、健康管理装置、広告支援装置、印象分析システム、印象分析方法、プログラム、及びプログラム記録媒体
JP6986676B2 (ja) 化粧品提示システム、化粧品提示方法、及び化粧品提示サーバ
JP2013037533A (ja) 商品情報取得システムおよび商品情報提供サーバ装置
JP5726421B2 (ja) 携帯端末機
JP6601747B2 (ja) メイクアップ支援システム、及びメイクアップ支援方法
JP6296305B2 (ja) メイクアップ支援装置、メイクアップ支援方法およびメイクアップ支援プログラム
JP6132249B2 (ja) メイクアップ支援装置、メイクアップ支援方法およびメイクアップ支援プログラム
JP6128357B2 (ja) メイクアップ支援装置およびメイクアップ支援方法
JP6078896B2 (ja) メイクアップ支援装置およびメイクアップ支援方法
JP6078897B2 (ja) メイクアップ支援装置およびメイクアップ支援方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14746673

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14388998

Country of ref document: US

Ref document number: 2014746673

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE