WO2007063878A1 - 顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログラムが記録された記録媒体 - Google Patents

顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログラムが記録された記録媒体 Download PDF

Info

Publication number
WO2007063878A1
WO2007063878A1 PCT/JP2006/323781 JP2006323781W WO2007063878A1 WO 2007063878 A1 WO2007063878 A1 WO 2007063878A1 JP 2006323781 W JP2006323781 W JP 2006323781W WO 2007063878 A1 WO2007063878 A1 WO 2007063878A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
classification
evaluation
average
depth
Prior art date
Application number
PCT/JP2006/323781
Other languages
English (en)
French (fr)
Inventor
Ruriko Takano
Noriko Okubo
Sawako Yuri
Ken Hosoya
Yuko Ishikawa
Hiroyo Usuki
Original Assignee
Shiseido Company, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Company, Ltd. filed Critical Shiseido Company, Ltd.
Priority to US12/095,507 priority Critical patent/US8351711B2/en
Priority to CN2006800451781A priority patent/CN101341507B/zh
Priority to EP06833585A priority patent/EP1956548A4/en
Publication of WO2007063878A1 publication Critical patent/WO2007063878A1/ja
Priority to KR1020087013097A priority patent/KR101259662B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Definitions

  • Face classification method face classification device, classification map, face classification program, and recording medium on which the program is recorded
  • the present invention relates to a face classification method, a face classification device, a classification map, a face classification program, and a recording medium on which the program is recorded, and in particular, a face classification for classifying a three-dimensional effect of a face with high accuracy.
  • the present invention relates to a method, a face classification device, a classification map, a face classification program, and a recording medium on which the program is recorded.
  • a technique that emphasizes the three-dimensional feeling by using, for example, noh, illite or shadow has been mainly used. Specifically, for example, highlight the nose to make the nose look higher, apply a shadow to the base of the nose, apply a shadow to the cheeks to make the face line look clear, There was a technique that was swollen to show, shadowed the eyelids, and recessed the eyelids.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-224430
  • Patent Document 2 Japanese Patent Laid-Open No. 10-289303
  • the makeup technology described above is a technology applied to a part of the face such as the nose and eyes, and has not been effective in the technology that captures the three-dimensional effect of the entire face.
  • the present invention has been made in view of the above problems, and includes a face classification method, a face classification device, a classification map, a face classification program, and a method for classifying a stereoscopic effect of a face with high accuracy.
  • An object is to provide a recording medium on which a program is recorded. Means for solving the problem
  • the present invention employs means for solving the problems having the following characteristics.
  • One embodiment of the present invention is a face classification method for classifying a three-dimensional effect of a subject's face, based on at least two indicators of the face space and the depth of the entire face 'skeletal fleshiness. And a classification step for positioning the result evaluated in the evaluation step as one of at least four types classified in advance.
  • the evaluation step uses a preset average face and each of the four types of representative faces in order to evaluate the face of the subject. .
  • the evaluation step includes the degree of the ratio of the vertical and horizontal widths of the face reflecting the balance between the vertical and horizontal widths of the hip, cheek, or chin as the facial space. Is evaluated based on the average face, and the degree of depth and skeletal fleshiness is evaluated to be completely sharp or soft.
  • the three-dimensional effect can be evaluated with an appropriate scale.
  • the types of faces classified by the classification step are maps in which the average face and the four types are positioned in each quadrant of a plane coordinate space.
  • the makeup method can be easily grasped by displaying the adjustment method for adjusting the stereoscopic effect with the makeup.
  • the adjustment method is similar to the contour shape of the average face, and the ratio of width to length reduced at a predetermined ratio is 1: 1.35 to L.45. It is characterized in that the adjustment is performed based on the shape.
  • an appropriate three-dimensional effect is obtained by adjusting the appearance of the facial space and depth 'skeletal flesh feeling with a makeup so that the contour shape of the average face emerges inside the face. be able to.
  • a face classification device for classifying a three-dimensional effect of a subject's face
  • photographing means for photographing the face image of the subject
  • at least a captured face image camera Based on two indicators of the facial space and the depth of the whole face, skeletal fleshiness
  • control means for performing control for positioning to any one of at least four types of types classified in advance, and classification by the control means
  • display means for displaying the classified results in correspondence with the four types on a map positioned in each quadrant of the plane coordinate space.
  • control means uses a preset average face and each of the four types of representative faces in order to evaluate the face of the subject. .
  • the accuracy of the evaluation can be improved and the evaluation can be performed simply and efficiently.
  • control means includes a degree of the ratio of the vertical and horizontal widths of the face reflecting the balance between the vertical and horizontal widths of the hip, cheek, or chin as the facial space. Based on the average face, the depth and skeletal flesh feel The evaluation is based on the degree of sharpness or softness.
  • the three-dimensional effect can be evaluated with an appropriate scale.
  • the display means approximates the three-dimensional effect of the average face based on the classified face form, so that the three-dimensional effect is made up for each of the four types.
  • An adjustment method for adjusting with is displayed.
  • the makeup method can be easily grasped by displaying the adjustment method for adjusting the stereoscopic effect with the makeup.
  • the adjustment method is similar to the contour of the average face.
  • the adjustment is based on a shape in which the width to width ratio reduced by a predetermined ratio is 1: 1.35 to L45.
  • an appropriate three-dimensional effect can be obtained by adjusting the appearance of the facial space and the depth 'skeletal flesh feeling with the makeup so that the contour of the average face is highlighted.
  • a first axis indicating a face type including a face space
  • a second axis indicating a face type that also has a depth of the entire face.
  • a coordinate space in which a face image having a standard and ideal stereoscopic effect preset in the center where the two axes intersect and a quadrant classified by the two axes is arranged.
  • the first axis reflects a balance between the vertical and horizontal widths of the human face, cheek, or chin as the face space with respect to a preset average face.
  • the second axis indicates the degree of depth and skeletal fleshiness, and the other is fluffy soft. It is characterized by indicating the degree.
  • the stereoscopic effect can be evaluated by an appropriate scale.
  • Another embodiment of the present invention is a face classification program characterized by operating a computer so as to execute the face classification method of the present invention.
  • the present embodiment it is possible to classify the stereoscopic effect of the face with high accuracy. Further, by installing the program, the face classification in the present invention can be easily realized by a general-purpose personal computer or the like.
  • Another embodiment of the present invention is a computer-readable recording medium in which the face classification program of the present invention is recorded.
  • the face classification program can be easily installed on a plurality of other computers using a recording medium. Also, by installing the program
  • the face classification in the present invention can be easily realized by a general-purpose personal computer or the like.
  • the stereoscopic effect of a face can be classified with high accuracy.
  • FIG. 1 is a diagram showing an example of a device configuration of a face classification device according to the present invention.
  • FIG. 2A is a diagram (part 1) showing an example of a feature expression term recalled.
  • FIG. 2B is a diagram (part 2) showing an example of a feature expression term recalled.
  • FIG. 3 shows an example of an evaluation sheet used for evaluating the three-dimensional effect of the face.
  • FIG. 4 is a diagram showing an example of an average evaluation result for each subject.
  • FIG. 5 is a diagram showing an example of an evaluation result between an actual product and a photograph.
  • FIG. 6 is a diagram showing an example of a stereoscopic effect evaluation sheet based on a selected word.
  • FIG. 7 is a diagram showing factor loadings.
  • FIG. 8 An example of plotting each target with the score of the extracted first and second factors
  • FIG. 9 Plotting each target with the score of the extracted third and fourth factors It is a figure which shows an example
  • FIG. 10 is a diagram showing a first example of a classification map classified based on the depth of the face 'skeletal flesh and space.
  • FIG. 11 is a diagram showing an example of a point of interest when evaluating each index in the present invention.
  • FIG. 12 is a diagram showing an example of evaluation items for face appearance and overall impression.
  • FIG. 13 is a diagram showing an example of an evaluation result regarding the appearance of a face.
  • FIG. 14 is a diagram showing an example of an “average face” created using face photographs for 40 women.
  • FIG.15 Information obtained by removing depth 'skeletal flesh information from "average face”.
  • FIG. 16 is a diagram showing an example of an average face shadow analysis result.
  • FIG. 17 is a diagram showing an example of best opal.
  • FIG. 18 is a diagram illustrating an example of the shape of the best opal.
  • FIG. 19 is a diagram showing an example of recording of face powder application procedures.
  • FIG. 20 is a diagram showing an example of evaluation of the face of subject A and the face after applying face powder.
  • FIG. 21 is a diagram showing a second example of the classification map classified based on the depth of the face's skeletal flesh and space.
  • FIG. 22 is a diagram showing an example of a makeup adjustment method for each type of face classification.
  • FIG. 23 is a diagram showing an example of the evaluation of the target person regarding the makeup finish.
  • FIG. 24 is a flowchart for explaining a makeup procedure using a classification map according to the present invention.
  • the present invention has the effect of adjusting the beauty of the three-dimensional effect of the face, and the effect of beauty by makeup
  • the three-dimensional effect of each face is evaluated, and the result is classified by a preset classification map.
  • the three-dimensional effect can be easily and efficiently adjusted according to the classified type.
  • the index of face evaluation and classification in the present invention is the face space and depth 'skeleton. It is expressed by a feeling of fleshiness, and specifically, it is judged by “whether the balance of the facial space is long or short”, “depth • whether the flesh feeling of the skeleton is smooth and sharp, soft or soft”.
  • “depth” and skeletal flesh are two composite indicators of “depth” and “skeletal flesh”, and these two indicators are correlated. In other words, there is a relationship that there is a depth when there is a skeletal feeling (without feeling flesh), and there is no depth when there is no skeletal feeling (with feeling flesh), so this correlation force is combined and expressed.
  • the “best opal adjustment method” is used to adjust the stereoscopic effect.
  • the best overlap refers to the contour shape of a face having a standard face balance.
  • the contour shape is similar to a figure composed of two super ellipses with different curvatures in the upper half and lower half of the face, and is reduced by a predetermined ratio, with a width-to-width ratio of 1: 1. 4 super oval.
  • opal opal it is possible to adjust the appearance of the face space, depth, and skeletal flesh based on the classification map presented on the screen or paper! Appropriate makeup is possible.
  • the face classification device uses, for example, a general-purpose personal computer, a server, etc., and installs an execution program (face classification program) that can cause the computer to execute each process according to the present invention.
  • face classification program an execution program that can cause the computer to execute each process according to the present invention. Realizing face classification processing in the invention Can do.
  • FIG. 1 is a diagram showing an example of the device configuration of the face classification device according to the present invention.
  • a face classification device 10 shown in FIG. 1 includes an input device 11, an output device 12, a drive device 13, an auxiliary storage device 14, a memory 15, a CPU (Central Processing Unit) 16 that performs various controls,
  • the network connection device 17 and the imaging device 18 are configured to be connected to each other via a system bus B.
  • CPU Central Processing Unit
  • the input device 11 has a pointing device such as a keyboard and a mouse operated by a user, and inputs various operation signals such as execution of a user-friendly program.
  • the output device 12 has a display for displaying various windows and data necessary for operating the computer main body for performing the processing according to the present invention, and the program execution progress, results, etc. are displayed by the control program of the CPU 16. Can be displayed.
  • the output device 12 may have a function such as a printer.In that case, an evaluation sheet, a face classification map, a face classification result, a method for adjusting a stereoscopic effect by makeup, and the like can be acquired.
  • Various kinds of information can be printed on a printing medium such as paper and provided to a subject or the like.
  • the execution program installed in the computer main body is provided by the recording medium 19 such as a CD-ROM, for example.
  • the recording medium 19 in which the program is recorded can be set in the drive device 13, and the execution program included in the recording medium 19 is installed in the auxiliary storage device 14 from the recording medium 19 via the drive device 13.
  • the recording medium 19 is not only a CD-ROM, but also a recording medium that records information optically, electrically, or magnetically, such as a flexible disk or a magneto-optical disk, ROM (Read Only Memory), flash
  • Various types of recording media such as a semiconductor memory that electrically records information, such as a memory, can be used.
  • the auxiliary storage device 14 is a storage means such as a hard disk.
  • the auxiliary storage device 14 is an execution program according to the present invention, a control program provided in a computer, various image data such as an average face image, and the face of a subject. Evaluation results can be accumulated and input / output can be performed as necessary.
  • the CPU 16 performs various operations and hardware based on a control program such as an OS (Operating System) and an execution program read and stored by the memory 15. Each process to be described later in the face classification process and the like can be realized by controlling the process of the entire computer, such as data input / output with the component.
  • the CPU 16 acquires from the auxiliary storage device 14 various information such as the evaluation result of the subject's face necessary for executing the program, information necessary for displaying the classification map in the present invention on the output means 12,
  • the result executed by the program can be stored in the auxiliary storage device 14.
  • the network connection device 17 is connected to a communication network or the like, so that the execution program is transmitted from another terminal or the like connected to the communication network ⁇ represented by the Internet or a LAN (Local Area Network).
  • the execution result obtained by executing or executing the program or the execution program itself according to the present invention can be provided to another terminal or the like.
  • the imaging device 18 is powered by a CCD (Charge Coupled Devices) camera or the like, and captures a front face image of a subject, an oblique face image from a predetermined angle, and the like.
  • the captured image is stored in the auxiliary storage device 14 and the like, and is read out as necessary to perform processing such as face classification.
  • CCD Charge Coupled Devices
  • the face classification processing in the present invention can be executed. Further, by installing the program, the face classification processing in the present invention can be easily realized by a general-purpose personal computer or the like.
  • an index for classifying faces is constructed.
  • the present invention is characterized in that each face is evaluated and classified according to the characteristics of the three-dimensional feeling of the face. Therefore, it is assumed that there is a common understanding in the recognition of the three-dimensional effect. Therefore, based on the criteria of each of the four researchers, the face photos that feel “the face's three-dimensional effect is similar” are grouped together, and more similar groups are placed close together. We examined whether it was recognized. For the examination, the front face photographs of the above 21 samples collected were used.
  • FIGS. 2A and 2B are diagrams showing examples of feature expression terms recalled from face photographs. In fact, the number of words recalled was 282
  • FIG. 3 is a diagram showing an example of an evaluation sheet used for evaluating the three-dimensional effect of the face.
  • the evaluation by the evaluation sheet shown in FIG. 3 is performed by, for example, displaying the evaluation sheet shown in FIG. 3 on the display of the face classification device 10 described above, and the evaluator and the like using the input device 11 and the like.
  • the evaluation may be performed by inputting predetermined evaluation information for the face.
  • the method for inputting evaluation information can be set by, for example, using a pointing device such as a mouse to position and select a cursor at a predetermined position of a predetermined evaluation item.
  • the data input method is not limited to this.
  • the evaluation information may be input using a keyboard or the like.
  • FIG. 4 is a diagram showing an example of the average evaluation result for each target person.
  • Figure 4 shows the evaluation results for 5 subjects (Kr, Ct, Km, Ng, Nt). Examinations as shown in Figure 4 were conducted for all subjects, and items that differed in evaluation depending on the subject were judged to be important as assessment items.
  • FIG. 5 is a diagram showing an example of an evaluation result between an actual product and a photograph.
  • Figure 5 shows the evaluation of the subject Ng.
  • the unevenness was evaluated depending on the reflectance of the reflector placed under the face when the photograph was taken.
  • the deviation from the actual object was reduced.
  • FIG. 6 is a diagram showing an example of a stereoscopic effect evaluation sheet based on the selected word.
  • the evaluation was performed by 4 to 6 people, including beauty engineers and product development staff, in addition to the above-mentioned research staff.
  • the reason for the increase in the number of evaluators is to avoid individual evaluation variations.
  • the evaluation items were defined in common and checked in advance so that the variation in evaluation would be reduced.
  • the above evaluation can also be performed using the face classification device 10.
  • the evaluation sheet shown in FIG. 6 is displayed on the display of the face classification device 10, and the evaluator or the like performs evaluation by inputting predetermined evaluation information by the above-described method using the input device 11. Is possible.
  • factor analysis is a statistical method that reduces the information of variables that are correlated to each other to a small number of potential factors.
  • the variable here is the average evaluation score for each item. Therefore, by performing factor analysis, it is possible to collect correlated items and extract a small number of evaluation factors.
  • FIG. 7 is a diagram showing the factor load obtained as a result of this.
  • the first factor of factor loading (factorl) is composed of items such as the height of the root of the nose, three-dimensional and planar, and so on.
  • the second factor (factor2) is composed of items such as “smoothly crisp” and “feeling flesh” and “skeletal feeling”.
  • the third factor (facto r3) was defined as the factor of the width because of the fact that it is composed of items such as “no”, “broad” and “narrow”.
  • the fourth factor (factor4) is a factor of length (height) because the chin is composed of long “short”, cheek is long “short”, chin is large and small.
  • the cumulative contribution rate which is an indicator of the degree of explanation, was 63%.
  • FIG. 8 is a diagram showing an example in which each target is plotted by the score of the extracted first and second factors. Analysis of the configuration shown in Fig. 8 shows that each object is positioned and separated and evaluated according to the characteristics of solidness and fleshiness.
  • FIG. 9 is a diagram showing an example in which each target is plotted by the extracted scores of the third and fourth factors. In Figure 9, we can see that each object is positioned, separated and evaluated by length and width characteristics. The factors extracted in this analysis are the same as those estimated in 1-2-2. Estimation of evaluation index> as described above, and it is understood that the point of interest at the time of evaluation is reflected.
  • S1 to S34 shown in FIGS. 8 and 9 are such that, among the 34 general monitors up to the 40's centered on the 20's mentioned above, the sag evaluation of the face line is too far from the others. Since the analysis was performed with the exception of the two (S5, S8), the plot positions for each of the 32 subjects are shown.
  • a classification map for evaluating the stereoscopic effect of the face is created.
  • the indicators obtained were further organized in consideration of the convenience and versatility of beauty counseling.
  • the factor of the three-dimensional feeling of the first factor and the fleshly skeletal feeling of the second factor are the depth 'skeletal flesh feeling, and are combined into one composite element.
  • the width of the third factor and the length of the fourth factor are considered to represent the space by multiplying the width and length, and are combined into one element of space.
  • FIG. 10 is a diagram showing a first example of the classification map classified based on the face depth 'skeletal fleshiness and space.
  • Figure 10 shows two axes, the first axis showing the face type including the balance of the facial space, and the second axis showing the face type that also has the depth of the whole face. It consists of a quadrant classified by two axes and a coordinate space in which a face image (for example, an average face image) having a standard and ideal stereoscopic effect set in advance is arranged in the center where the two axes intersect.
  • a face image for example, an average face image
  • the first axis indicates whether the length of the face, the cheeks, or the chin is based on an average face in which the length of the face is long or short. This indicates the degree.
  • the second axis indicates the degree to which the depth 'skeletal flesh is completely sharp and the other is the degree of softness.
  • the arrangement of the vertical and horizontal axes in the present invention is not particularly limited.
  • FIG. 11 is a diagram showing an example of a point of interest when evaluating each index in the present invention.
  • 11 (a) and 11 (b) show examples for explaining the balance of the facial space
  • FIGS. 11 (c) and 11 (d) show examples for explaining the depth 'skeletal flesh feeling. Show.
  • the analysis of the face space is performed on the basis of the ratio between the width and length of the face outline (width to height ratio), that is, the outer face line described later.
  • the ratio of horizontal width to vertical width is compared based on the ratio of the outer face line of the average face, which is 1: 1.4.
  • the vertical width is smaller than 1.35 as shown in Fig. 11 (a)
  • the width is shorter (wide width)
  • the vertical width is larger than 1.45 as shown in Fig. 11 (b)
  • this range measures the aspect ratio of the 34 faces of general monitors up to the 40's, mainly the 20's mentioned above, and other outer face lines, and sets an appropriate range based on the measurement results. did.
  • the depth of the face 'skeletal flesh is as follows: (1) flesh on the side of the nose, (2) cheekbones, and (3) ear strength Judgment is based on the face line on the chin.
  • the cheek bone is squared”, “the cheek on the side of the nose is depressed”, “the face line over the ear strength chin is straight”, etc., it is judged as “clean and sharp”. If the cheek bones and cheeks on the side of the nose are rounded, or the face line on the ear chin is curvilinear, etc., it is determined that it is soft.
  • test subject's face image used for the above-described evaluation is captured in advance by the imaging device 18 or the like of the face classification device 10 and stored in the auxiliary storage device 14, and the stored image power It can be evaluated by performing image analysis.
  • FIG. 12 is a diagram showing an example of evaluation items for the appearance of the face and the overall impression.
  • FIG. 12 there are 8 items related to the appearance of the face (how to see the chin, how the three-dimensionality of the chin is, like the nose, with the flesh of the cheek, the length of the cheek, the face line, the appearance of the chin, The evaluation was made on three items (3D appearance, beauty, and preference). In addition, he asked me whether he was able to see how the face looked.
  • FIG. 13 is a diagram illustrating an example of an evaluation result regarding the appearance of a face.
  • Fig. 13 shows the average value of the evaluation of 6 female models in their 20s. As shown in Fig. 13, when the three-dimensional effect was adjusted to the egg-shaped base, it became clear that the evaluation of the face was higher than that of the real face or the face-like base.
  • the eye position is about 1Z2 of the total head height
  • the hairline has a hairline up to the chin.
  • the eyebrow head is located 1Z3 from the hairline and the nose is located 2Z3 from the hairline.
  • the size information and color information of a plurality of face photographs are averaged by a conventional image composition technique or the like. It is known that the balance of the “average face” created by leveling approaches this golden balance value. In addition, it has been shown that if 10 people are used to create the average face, the impression is almost the same as that of the face photo power created for 10 different people (for example, Miwa Nishitani et al. Investigating the characteristics of the Japanese Society of Psychology, The 63rd Annual Conference of the Japanese Psychological Association, published in August 1999)
  • FIG. 14 is a diagram showing an example of an “average face” created using face photographs for 40 women.
  • the face shown in Fig. 14 satisfies the golden balance described above.
  • this golden balance is the standard balance.
  • FIG. 15 shows the information obtained by removing the depth and skeletal flesh information from the “average face” (excluding skin color information).
  • Figure 15 shows that depth and skeletal flesh greatly affect the impression of the face.
  • image analysis Monte Carlization processing
  • FIG. 16 is a diagram illustrating an example of an average face image (or stereoscopic effect) analysis result.
  • a face line (inner face line) 21 in which the outer face line 20 is similarly reduced inside the outer face line (outer face line) 20 corresponding to the face line of the face. I helped. From this, it was shown that showing the three-dimensional effect inside the face in an egg shape is one of the new ways to produce beauty.
  • FIG. 17 is a diagram illustrating an example of the best opal.
  • the outer face line balance is a space adjustment for the entire face. It is a point to determine the direction of the alignment.
  • the inner face line 21 is applied to each face, the lateral width of the left and right cheeks of each face is set to 1 as shown in FIG.
  • the inner face line balance is a zone for adjusting the three-dimensional effect and space due to the skeleton.
  • a zone 12 (hatched portion in FIG. 17) that gives a natural sense of depth.
  • the zone 22 is a depth adjustment zone in which the shape of the outer face line 20 and the inner face line 21 is adjusted and shown at the same time as the depth is increased.
  • FIG. 18 is a diagram illustrating an example of the shape of the best opal.
  • the shape of the best oval is Y> 0 (upper half of the face in Fig. 18) and 0 (lower half of the face in Fig. 18).
  • the degree of curvature n is in the area of Y> 0! 2. 29 ⁇ 2. 63, in the range 0! /, 1. 75 ⁇ 2.
  • Face Evaluation Experiment> The makeup was applied to adjust the stereoscopic effect using face powder.
  • the face powder used here has two colors of focus color that inject light to adjust the skeleton and flesh, and two modeling colors that correct the skeleton and flesh with shadows to create a clean three-dimensional face. Three types of focus color were used depending on the brightness of the skin color.
  • the makeup was done by a beauty technician.
  • FIG. 19 is a diagram showing an example of the recording procedure for applying the face powder.
  • FIG. 19 shows an example of a recording procedure of the face powder applied to the subject A, whose facial space balance is short and the depth 'skeletal flesh is soft and soft.
  • the hatched portion indicates the portion where the focus color is applied
  • the mesh portion indicates the portion where the modeling color is applied.
  • adjustment is made using a cosmetic such as face powder so that the space in the inner face line and the skeleton flesh can be seen as an average face. For example, if the space is long, the short skeleton is conspicuous. The outer face line adds a natural depth to the modeling color. At this time, make the inner face line look like the best opal.
  • a cosmetic such as face powder
  • FIG. 20 is a diagram showing an example of the evaluation of the face of the subject A and the face after applying the face powder.
  • FIG. 20 shows the average evaluation value of the four evaluators.
  • the clean and powerful face line can be seen clearly, and the chewy cheeks can be seen clearly, and the depth and skeletal flesh has become closer to the standard.
  • the lower jaw strength was evaluated as the standard, and the nose muscles were evaluated in the direction through which the face space was adjusted.
  • FIG. 21 is a diagram showing a second example of the classification map classified based on the face depth 'skeletal flesh and space.
  • FIG. 22 is a diagram showing an example of a makeup adjustment method for each type of face classification.
  • Fig. 22 (a) in the case of the ⁇ short '' clean type, where the balance of the face space is short and the skeleton is conspicuous, the balance of the face space is shown long and the physique is relieved.
  • the focus color should be squeezed ahead of the modeling color to soften the skeletal feel, give it a rounded cheek, and make the face look longer.
  • the focus color avoids high cheek bones and creates a fluffy feeling from the inside to the bottom of the cheek. It also creates a feeling of fluffiness in the temples.
  • the T zone is blurred longer.
  • the modeling color is blurred on the corner of the chin and the side of the chin, conscious of the best opal. Also, slightly blur the area where cheeks appear to be stretched.
  • Fig. 22 (b) in the case of the "short" fluffy type, where the balance of the facial space is short and fluffy, the balance of the facial space is shown long, Make-up that emphasizes the skeletal feel.
  • the modeling color is blurred before the focus color to emphasize the skeleton, and the width of the face is shaped to make it look longer.
  • the modeling collar is blurred vertically on the side part of the contour in consideration of the best phone.
  • teak is blurred from the bottom of the cheek along the cheek toward the center of the face.
  • blur under the eyebrows The focus color is more obscure than the actual angle at high cheeks. Also, blur the T zone longer.
  • the face balance is long and fluffy.
  • the skeleton is emphasized by blurring the modeling color before the focus color, the face length is shaped, and the horizontal line is emphasized.
  • Modeling colors are made with a wide range of contours and chins with the best opal in mind.
  • blush teak horizontally from below the cheekbone toward the center of the face.
  • blur under the eyebrows The focus color is more vertical than basic.
  • the place where the cheekbones are high makes up more horizontally than the actual angle.
  • blur the T zone shortly.
  • Fig. 22 (d) in the case of the "longer" type, where the balance of the facial space is longer and the skeleton is conspicuous, the balance of the facial space is shown shorter and the skeletal feel is improved.
  • Apply a soothing makeup Specifically, the focus color is squeezed ahead of the modeling color to soften the skeletal feel, giving the cheeks a soft roundness, and making the face length inconspicuous.
  • the focus color avoids high cheek bones and creates a fluffy feeling in a C shape from the inside to the bottom of the cheek.
  • blur the T zone shortly.
  • the modeling color is conscious of the best opal and blurs widely on the hairline and chin. Also, slightly blur the area where cheek bones appear to be stretched.
  • the classification of the subject's face according to the above-described classification map is a face having a standard and ideal three-dimensional effect (for example, an average face)
  • a makeup set in advance corresponding thereto Apply.
  • the focus color is blurred from the high cheek bone to the bottom of the Mt.
  • the modeling color blurs the outline of the face line, chin, hairline, etc. and under the cheekbones.
  • each of the face classification having an image and Z or the above-mentioned comment as shown in FIG.
  • the makeup adjustment method for each type can be provided to the subject or the like by printing the screen display or paper on the face classification device 10.
  • FIG. 23 is a diagram showing an example of the subject's evaluation of the makeup finish. As shown in Fig. 23, when the finish of the besthorn adjustment method was evaluated, it was found that there was a high preference. As for the finishing preference, 23 out of 25 respondents rated it in a favorable direction (like: 11 people, somewhat like: 12 people), and both responded that there were 2 respondents who didn't like Ena. Met.
  • FIG. 24 is a flowchart for explaining a makeup procedure using the classification map in the present invention.
  • S01 for example, the front face image of the subject and the face image taken from 45 degrees are obtained by the imaging device 18.
  • the stereoscopic effect of the subject's face is evaluated from the acquired image data (S02). Specifically, as shown in FIG. 11 described above, the face is longer or shorter than the standard face line, or the skeletal feeling and swaying power, whether it is soft and gentle, etc. Perform judgment evaluation.
  • the classification map in the present invention as shown in FIG. 10 or FIG. 21, which subject belongs to which category is evaluated, and the subject is classified (S03). ).
  • the classification is based on the evaluation information of the subject's face for each item, and the corresponding classification is positioned based on the result and a preset value. It is.
  • the classification result is displayed on a display or the like (S04).
  • the classification map shown in FIG. 10 or FIG. 21 and the evaluation results are plotted and displayed at predetermined positions of the classification map.
  • the display also shows an adjustment method for adjusting the sense of standing in each classification by makeup as described above.
  • the above classification results can also be printed on paper and presented to the subject.
  • the subject or the like makes a corresponding makeup based on the displayed adjustment method or the like (S05). Specifically, as described above, adjustment is performed so that the inner face line looks like the best opal. For example, the method shown in FIG. 19 is stored in advance for each classification, and the adjustment method corresponding to the classification result of the subject is displayed.
  • the present invention it is possible to classify the stereoscopic effect of a face with high accuracy.
  • an appropriate make-up adjustment can be performed based on the type classified by the subject.
  • the three-dimensionality of the face is determined by the method of classifying the three-dimensionality of the face according to the length of the face and the skeleton of the entire face (especially cheeks) and the classification type for the classification. You can present a way to arrange the beautifully.
  • the classification map can be used as a makeup tool for makeup.
  • the makeup may be applied in any direction. Or, it can be learned without requiring special skills, and an appropriate makeup adjustment method can be presented.
  • a target makeup can be shown by the inner face line (super ellipse) without analyzing the stereoscopic effect.
  • the goal of makeup with this interface line as a guideline is a universal method that can be applied to all people because it does not depend on the characteristics of the three-dimensional effect of each face and is uniquely determined.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 被験者の顔の立体感を分類する顔分類装置であって、前記被験者の顔画像を撮影する撮影手段と、撮影した顔画像から少なくとも顔のスペース及び顔全体の奥行き・骨格肉付き感の2つの指標に基づいて、予め分類された少なくとも4種類のタイプの何れかに位置付けるための制御を行う制御手段と、前記制御手段により分類された分類結果を、前記4種類のタイプが平面座標空間の各象限に位置付けられたマップ上に対応させて表示する表示手段とを有する顔分類装置を開示する。

Description

顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログ ラムが記録された記録媒体
技術分野
[0001] 本発明は、顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プロ グラムが記録された記録媒体に係り、特に顔の立体感を高精度に分類するための顔 分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログラムが記録さ れた記録媒体に関する。
背景技術
[0002] 従来、顔の立体感や骨格肉付き感を演出するメーキャップ技術としては、例えばノ、 イライトやシャドウを用いて、立体感を強調するものが主であった。具体的には、例え ば鼻を高く見せるために鼻筋にハイライトをのせ、鼻の付け根に影をつける手法や、 フェースラインをすっきりと見せるためにほおに影をつける手法、彫りの深い顔に見せ るために腫れぼった 、瞼に影をつけ、瞼を窪んでみせる手法等があった。
[0003] また、被験者の顔立ちを顔の形態の特徴別に分類し、分類したタイプに基づいてメ 一キャップのガイドラインを示す手法があった (例えば、特許文献 1、特許文献 2を参 照。)。
特許文献 1:特開 2001— 224430号公報
特許文献 2:特開平 10— 289303号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上述した顔の立体感や陰影感を演出するメーキャップ技術によれば 、立体感を過度に強調することがあり、全体のバランスとしては悪い仕上がりになるこ とがある。また、上述したメーキャップ技術は、鼻や目元等の顔のある一部分に対して 施す技術であり、顔全体の立体感を捉えた技術ではな力つた。
[0005] したがって、個々の顔全体の立体感の特徴を的確に捉えるための指標と、顔全体 の立体感の調整方法とを確立することが必要になる。そこで、上述したように分類マツ プを 1つの指標として用いる手法があるが、顔全体の立体感に対応する分類マップ は提案されていな力つた。
[0006] 本発明は、上記の問題点に鑑みてなされたものであって、顔の立体感を高精度に 分類するための顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該 プログラムが記録された記録媒体を提供することを目的とする。 課題を解決するための手段
[0007] 上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するた めの手段を採用している。
[0008] 本発明の一実施形態は、被験者の顔の立体感を分類する顔分類方法において、 少なくとも顔のスペース及び顔全体の奥行き'骨格肉付き感の 2つの指標に基づいて 、前記被験者の顔を評価する評価段階と、前記評価段階により評価された結果を予 め分類された少なくとも 4種類のタイプの何れかに位置付ける分類段階とを有するこ とを特徴とする。
[0009] 本実施形態によれば、少なくとも顔のスペース及び顔全体の奥行き'骨格肉付き感 の 2つの指標に基づいて、顔の立体感を高精度に分類することができる。
[0010] 本発明の更なる実施形態において、前記評価段階は、前記被験者の顔を評価す るため、予め設定される平均顔と前記 4種類のタイプの各代表顔を用いることを特徴 とする。
[0011] 本実施形態によれば、平均顔画像と 4種類のタイプの各代表顔画像を用いることに より、評価の精度を高めると共に、評価を簡便に効率よく行うことができる。
[0012] 本発明の更なる実施形態において、前記評価段階は、前記顔のスペースとしての ひたい、ほお、又はあごの縦幅と横幅のバランスを反映する顔の縦幅と横幅の比率 の度合 、を前記平均顔に基づ 、て評価し、また前記奥行き ·骨格肉付き感がすつき りシャープである度合い又はふつくらソフトである度合いにより評価することを特徴と する。
[0013] 本実施形態によれば、立体感を適切な尺度により評価することができる。
[0014] また、本発明の別の実施形態は、前記分類段階により分類された顔のタイプを、前 記平均顔と前記 4種類のタイプとが平面座標空間の各象限に位置付けられたマップ 上に対応させて表示し、更に前記 4種類の各タイプの立体感を前記平均顔が有する 立体感に近づけるため、前記 4種類の各タイプ毎に立体感をメーキャップで調整する ための調整方法を表示する表示段階を有することを特徴とする。
[0015] 本実施形態によれば、立体感をメーキャップで調整するための調整方法を表示す ることにより、メーキャップ方法を容易に把握することができる。
[0016] 本発明の更なる実施形態において、前記調整方法は、前記平均顔の輪郭形状と 相似し、所定比率で縮小させた横幅対縦幅比が 1 : 1. 35〜: L . 45となる形状に基づ く調整を行うことを特徴とする。
[0017] 本実施形態によれば、平均顔の輪郭形状を顔の内側に浮かび上がらせるように顔 のスペースと奥行き'骨格肉付き感の見え方をメーキャップにより調整することで、適 切な立体感を得ることができる。
[0018] また、本発明の別の実施形態は、被験者の顔の立体感を分類する顔分類装置に おいて、前記被験者の顔画像を撮影する撮影手段と、撮影した顔画像カゝら少なくとも 顔のスペース及び顔全体の奥行き'骨格肉付き感の 2つの指標に基づいて、予め分 類された少なくとも 4種類のタイプの何れカゝに位置付けるための制御を行う制御手段 と、前記制御手段により分類された分類結果を、前記 4種類のタイプが平面座標空間 の各象限に位置付けられたマップ上に対応させて表示する表示手段とを有すること を特徴とする。
[0019] 本実施形態によれば、少なくとも顔のスペース及び顔全体の奥行き'骨格肉付き感 の 2つの指標に基づいて、顔の立体感を高精度に分類することができる。
[0020] 本発明の更なる実施形態において、前記制御手段は、前記被験者の顔を評価す るため、予め設定される平均顔と前記 4種類のタイプの各代表顔を用いることを特徴 とする。
[0021] 本実施形態によれば、平均顔画像と 4種類のタイプの各代表顔画像を用いることに より、評価の精度を高めると共に、評価を簡便に効率よく行うことができる。
[0022] 本発明の更なる実施形態において、前記制御手段は、前記顔のスペースとしての ひたい、ほお、又はあごの縦幅と横幅のバランスを反映する顔の縦幅と横幅の比率 の度合 、を前記平均顔に基づ 、て評価し、また前記奥行き ·骨格肉付き感がすつき りシャープである度合い又はふつくらソフトである度合いにより評価することを特徴と する。
[0023] 本実施形態によれば、立体感を適切な尺度により評価することができる。
[0024] 本発明の更なる実施形態において、前記表示手段は、分類された顔の形態に基づ いて前記平均顔が有する立体感に近づけるため、前記 4種類の各タイプ毎に立体感 をメーキャップで調整するための調整方法を表示することを特徴とする。
[0025] 本実施形態によれば、立体感をメーキャップで調整するための調整方法を表示す ることにより、メーキャップ方法を容易に把握することができる。
[0026] 本発明の更なる実施形態において、前記調整方法は、前記平均顔の輪郭と相似し
、所定比率で縮小させた横幅対縦幅比が 1 : 1. 35〜: L 45となる形状に基づく調整 を行うことを特徴とする。
[0027] 本実施形態によれば、平均顔の輪郭を浮かび上がらせるように顔のスペースと奥行 き'骨格肉付き感の見え方をメーキャップにより調整することで、適切な立体感を得る ことができる。
[0028] また、本発明の別の実施形態は、顔のスペースを含む顔のタイプを示す第 1の軸、 及び顔全体の奥行き'骨格肉付き感カもなる顔のタイプを示す第 2の軸の 2軸と、前 記 2軸によって分類される象限及び 2軸の交差する中央に予め設定される標準的且 つ理想的な立体感を有する顔画像を配置した座標空間とからなることを特徴とする。
[0029] 本実施形態によれば、顔のスペース及び顔全体の奥行き'骨格肉付き感の 2つの 指標に基づいて、顔の立体感を高精度に分類することができる。
[0030] 本発明の更なる実施形態において、前記第 1の軸は、予め設定される平均顔に対 する前記顔のスペースとしてのひたい、ほお、又はあごの縦幅と横幅のバランスを反 映する顔の縦幅と横幅の比率の度合いを示すものであり、前記第 2の軸は、一方が、 奥行き'骨格肉付き感がすつきりシャープである度合いを示し、他方がふつくらソフト である度合 、を示すものであることを特徴とする。
[0031] 本実施形態によれば、立体感を適切な尺度により評価することができる。
[0032] 本発明の更なる実施形態において、前記 2軸によって分類される象限に、前記平 均顔が有する立体感に近づけるため、立体感をメーキャップで調整するための調整 方法が表示されて!ヽることを特徴とする。
[0033] 本実施形態によれば、顔のスペース及び奥行き'骨格肉付き感の見え方をマップ に基づ!/ヽて調整することで、立体感の好適なメーキャップが可能となる。
[0034] また、本発明の別の実施形態は、本発明の顔分類方法を実行させるようにコンビュ ータを動作させることを特徴とする顔分類プログラムである。
[0035] 本実施形態によれば、顔の立体感を高精度に分類することができる。また、プロダラ ムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における 顔分類を容易に実現することができる。
[0036] また、本発明の別の実施形態は、本発明の顔分類プログラムが記録されたコンビュ ータ読み取り可能な記録媒体である。
[0037] 本実施形態によれば、記録媒体により他の複数のコンピュータに容易に顔分類プ ログラムをインストールすることができる。また、プログラムをインストールすることにより
、汎用のパーソナルコンピュータ等で本発明における顔分類を容易に実現すること ができる。
発明の効果
[0038] 本発明によれば、顔の立体感を高精度に分類することができる。
図面の簡単な説明
[0039] [図 1]本発明における顔分類装置の装置構成の一例を示す図である。
[図 2A]顔写真力 想起された特徴表現用語の一例を示す図 (その 1)である。
[図 2B]顔写真力 想起された特徴表現用語の一例を示す図 (その 2)である。
[図 3]顔の立体感の評価に用いる評価シートの一例を示している。
[図 4]対象者別の平均評価結果の一例を示す図である。
[図 5]実物と写真との評価結果の一例を示す図である。
[図 6]選定語に基づいた立体感の評価シートの一例を示す図である。
[図 7]因子負荷量を示す図である。
[図 8]抽出された第 1と第 2の因子の得点で各対象をプロットした一例を示す図である [図 9]抽出された第 3と第 4の因子の得点で各対象をプロットした一例を示す図である [図 10]顔の奥行き'骨格肉付き感とスペースに基づいて分類した分類マップの第 1の 実施例を示す図である。
[図 11]本発明における各指標の評価の際の着目点の一例を示す図である。
[図 12]顔の見え方と全体印象についての評価項目の一例を示す図である。
[図 13]顔の見え方についての評価結果の一例を示す図である。
[図 14]女性 40名分の顔写真を用いて作成した「平均顔」の一例を示す図である。
[図 15]「平均顔」から奥行き'骨格肉付き感の情報を除去したものである。
[図 16]平均顔の陰影解析結果の一例を示す図である。
[図 17]ベストオーパルの一例を示す図である。
[図 18]ベストオーパルの形状を説明するための一例の図である。
[図 19]フェースパウダーの塗布要領の記録の一例を示す図である。
[図 20]対象者 Aの素顔とフェースパウダー塗布後の顔の評価の一例を示す図である
[図 21]顔の奥行き'骨格肉付き感とスペースに基づいて分類した分類マップの第 2の 実施例を示す図である。
[図 22]顔分類の各タイプ別におけるメーキャップ調整方法の一例を示す図である。
[図 23]メーク仕上がりにつ 、ての対象者の評価の一例を示す図である。
[図 24]本発明における分類マップを利用したメーキャップ手順を説明するためのフロ 一チャートである。
発明を実施するための最良の形態
[0040] 以下、図面を参照して、本発明の良好な実施の形態について説明する。
[0041] 〈本発明の概要〉
本発明は、顔の立体感の調整力 Sメーキャップによる美の演出に効果を有するという 点に着目し、個々の顔の立体感を評価し、その結果を予め設定された分類マップに より分類し、分類したタイプにより立体感の調整を簡単に、且つ効率よく行い得るよう にするものである。
[0042] ここで、本発明における顔の評価、分類の指標は、顔のスペース及び奥行き'骨格 肉付き感で表され、具体的には「顔のスペースのバランスは長いか短いか」、「奥行き •骨格肉付き感はすつきりシャープ力、ふつくらソフトか」により判断される。ここで、奥 行き'骨格肉付き感とは、「奥行き」と、「骨格肉付き」の 2つの複合指標であり、この 2 つの指標には相関がある。つまり、骨格感がある(肉付き感がない)と奥行きがあり、 骨格感がない(肉付き感がある)と奥行きがないという関係があるため、この相関関係 力 複合させて表現したものである。
[0043] また、マップの 2軸によって分類される象限及び 2軸の交差する中央に、予め設定さ れる標準的且つ理想的な立体感を有する平均顔の顔画像の例を配置することで、評 価の精度を高めると共に、評価を簡便に効率よく行うことができる。
[0044] また、立体感の分類マップに、実際に異なる顔の特徴 (タイプ)毎に予め設定されて V、る立体感をメーキャップで調整するための調整方法 (要領)を表記する。これにより 、分類毎にどのようなメーキャップを施せばよいかを簡単に把握することができる。
[0045] 更に、立体感の調整には、「ベストオーパル調整法」を用いる。ここで、ベストオーバ ルとは、標準の顔バランスを有する顔の輪郭形状をいう。その輪郭形状は、顔の上半 分と下半分とで曲率の異なる 2つのスーパー楕円を複合した図形と相似し、所定比 率で縮小させた形状をいい、横幅体縦幅比が 1 : 1. 4のスーパー楕円である。このよ うなべストオーパルを実現するように、顔のスペースと奥行き ·骨格肉付き感の見え方 を画面又は紙等により提示される分類マップに基づ!/ヽて調整することで、立体感の好 適なメーキャップが可能となる。
[0046] く装置構成〉
まず、被験者の顔に関する評価情報を入力し、予め作成された分類マップに基づ いて、マップ上のどの分類に属しているかを分析、評価し、更にメーキャップによる立 体感の調整方法を表示するための顔分類装置の装置構成例について説明する。な お、後述する顔分類装置は、後述する分類マップの作成に係る解析処理等を行う際 にも禾 IJ用することができる。
[0047] ここで、顔分類装置は、例えば汎用のパーソナルコンピュータ、サーバ等を用い、 本発明に係る各処理をコンピュータに実行させることができる実行プログラム (顔分類 プログラム)をインストールすることにより、本発明における顔分類処理を実現すること ができる。
[0048] 図 1は、本発明における顔分類装置の装置構成の一例を示す図である。図 1に示 す顔分類装置 10は、入力装置 11と、出力装置 12と、ドライブ装置 13と、補助記憶装 置 14と、メモリ 15と、各種制御を行う CPU (Central Processing Unit) 16と、ネッ トワーク接続装置 17と、撮像装置 18とを有するよう構成されており、これらはシステム バス Bで相互に接続されて 、る。
[0049] 入力装置 11は、ユーザが操作するキーボード及びマウス等のポインティングデバイ スを有しており、ユーザ力ものプログラムの実行等、各種操作信号を入力する。出力 装置 12は、本発明における処理を行うためのコンピュータ本体を操作するのに必要 な各種ウィンドウやデータ等を表示するディスプレイを有し、 CPU16が有する制御プ ログラムによりプログラムの実行経過や結果等を表示することができる。また、出力装 置 12は、プリンタ等の機能を有していてもよぐその場合には、後述する評価シート や、顔分類マップ、顔分類結果、メーキャップによる立体感の調整方法等、取得可能 な各種情報を紙等の印刷媒体に印刷して被験者等に提供することもできる。
[0050] ここで、本発明にお 、て、コンピュータ本体にインストールされる実行プログラムは、 例えば、 CD— ROM等の記録媒体 19等により提供される。プログラムを記録した記 録媒体 19は、ドライブ装置 13にセット可能であり、記録媒体 19に含まれる実行プロ グラムが、記録媒体 19からドライブ装置 13を介して補助記憶装置 14にインストール される。なお、記録媒体 19としては、 CD— ROM以外でも、例えばフレキシブルディ スク、光磁気ディスク等のように情報を光学的、電気的或いは磁気的に記録する記録 媒体、 ROM (Read Only Memory)、フラッシュメモリ等のように情報を電気的に 記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
[0051] また、補助記憶装置 14は、ハードディスク等のストレージ手段であり、本発明におけ る実行プログラムや、コンピュータに設けられた制御プログラム、平均顔画像等の各 種画像データ、被験者の顔の評価結果等を蓄積し必要に応じて入出力を行うことが できる。
[0052] CPU16は、 OS (Operating System)等の制御プログラム、及びメモリ 15により 読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア 構成部とのデータの入出力等、コンピュータ全体の処理を制御して、顔分類処理等 における後述する各処理を実現することができる。また、 CPU16は、プログラムの実 行中に必要な被験者の顔の評価結果等の各種情報や本発明における分類マップを 出力手段 12に表示するために必要な情報等を、補助記憶装置 14から取得すること ができ、またプログラムにより実行された結果等を補助記憶装置 14に格納することが できる。
[0053] ネットワーク接続装置 17は、通信ネットワーク等と接続することにより、実行プロダラ ムをインターネット等や LAN (Local Area Network)等に代表される通信ネットヮ →に接続されて ヽる他の端末等から取得したり、プログラムを実行することで得られ た実行結果又は本発明における実行プログラム自体を他の端末等に提供することが できる。
[0054] また、撮像装置 18は、 CCD (Charge Coupled Devices)カメラ等力 なり、被験 者の正面顔画像や所定の角度からの斜め顔画像等を撮影する。撮影された画像は 、補助記憶装置 14等に蓄積され、必要に応じて読み出され顔分類等の処理を行う。
[0055] 上述したような装置構成により、本発明における顔分類処理を実行することができる 。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で 本発明における顔分類処理を容易に実現することができる。
[0056] く本発明における顔の分類法〉
次に、本発明における顔の分類法、及びメーキャップによる立体感の調整方法のガ イドラインとして利用される分類マップについて、本発明に至るまでの各検討内容も 含めて具体的に説明する。
[0057] 〈1.顔の立体感の分析及び分類法の検討〉
く 1— 1.評価用語抽出のためのサンプル収集〉
まず、顔を分類するための指標を構築する。顔全体の立体感を捉えるのにどのよう な表現が用いられているかを検討するため、顔の特徴が異なる人物の顔写真を収集 した。具体的には、化粧品会社に勤務する 20代力も 40代の女性 21名の顔を、正面 と斜め 45度の向き力も撮影をしたサンプルを収集した。
[0058] く 1 2.分析指標の予備検討〉 〈1— 2—1.立体感の認識の共通理解の検討〉
本発明では、顔の立体感の特徴にしたがって、個々の顔を評価、分類することを特 徴としている。そのために、立体感の認識に共通理解があることが前提となる。そこで 、研究担当者 4人の各自の基準で、「顔の立体感が似ている」と感じる顔写真同士を グループとしてまとめ、更に似ているグループを近くに配置し、その結果に共通性が 認められるかを検討した。なお、検討には収集した上述の 21名のサンプルの正面顔 写真を用いた。
[0059] 4人の結果から、担当者間で共通し同じグループにまとめられる顔があること、また グループは異なっていても近い位置にあることがわ力つた。以上のことから、顔の立 体感の判断には共通の認識があることがわかった。
[0060] く 1 2— 2.評価指標の推測〉
次に、グループ分けの際に着目した顔の類似特徴について、各自の写真分類を撮 影しプリントした用紙に書き込みを行った。その結果、「顔全体の肉付き感と骨格感」 、「顔の横幅と長さ」、「フェースラインの形状」、「ほおやひたいのスペースの広さ」等 が着目されていることがわ力つた。また、標準的と判断される顔があることもわ力つた。 この検討は、後の分析結果との整合性を考察する参考情報とした。
[0061] く 1 3.表現用語の検討〉
く 1 3— 1.表現用語の想起〉
次に、顔の立体感の評価に適する表現用語について検討した。上述した 21名分の 顔写真を研究担当者 4人で 1枚ずつ観察し、顔の立体感、陰影感の特徴を主とし、 顔を見て想起する事項を口頭で述べ、それを記録した。例えば「鼻が高い」、「ほお がぼつちやり」、「顔が長い」等である。このとき、立体感に該当しないものでも、想起を 抑制しないように自由に発言をさせた。ここで、図 2A及び 2Bは、顔写真から想起さ れた特徴表現用語の一例を示す図である。実際には、想起された語数は 282語であ つた o
[0062] 次に、記録した表現用語を、意味内容から要素毎に整理した。要素は「輪郭」、「フ エースライン」、「ひたい」、「目元」、「鼻」、「ほお」、「口元」、「あご」、「全体」、「スぺ一 ス」、「目鼻口のパーツの配置」、「目鼻立ち」、「首等その他」の 13の要素を用いた。 各語の内容を検討し、意味的類似性が高いものは一つに集約し、一般的な表現に 適さないもの、顔の立体感、陰影感を含む形態特徴の表現に該当しないものを除外 し、顔の輪郭、ほおの肉付き等、計 49の形容詞対を暫定的な評価用語として選定し た。
[0063] なお、この時点では、顔の立体感の適切な表現は不明なため、顔のタイプ (形態特 徴)を評価する語、及び顔の輪郭形状の 9表現も含めた。ここで、図 3は、顔の立体感 の評価に用いる評価シートの一例を示す図である。
[0064] なお、図 3に示す評価シートによる評価は、例えば上述した顔分類装置 10のデイス プレイに図 3に示す評価シートを表示させて、評価者等が入力装置 11等により、被 験者の顔に対する所定の評価情報を入力することで、評価を行ってもよい。なお、評 価情報の入力手法は、例えばマウス等のポインティングデバイスにより、カーソルを所 定の評価項目の所定位置に位置づけて選択することにより設定することができる。な お、データの入力手法はこの限りではなぐ例えば、キーボード等を用いて評価情報 を入力してもよい。
[0065] く 1 3— 2.評価用語の選定〉
次に、評価用語の適切性を検討するため、 49の形容詞対と顔の輪郭形状の 9表現 を用いて、実際に顔の評価を行った。なお、評価は、上述した 21名の顔画像のサン プルから、上述したく 1 2— 2.評価指標の推測〉で仮定された指標の差が顕著な 9 名を対象とした。まず、図 3に示す評価シートを用い、研究担当者 4人で対象の評価 を行った。なお、評価の段階は、中央 (3)を「どちらともいえない」とする 5段階とした。
[0066] 次に、評価結果を集計し、対象者別に平均評価を算出した。図 4は、対象者別の平 均評価結果の一例を示す図である。図 4では、対象者中 5名(Kr, Ct, Km, Ng, Nt )についての評価結果を示している。図 4に示すような検討を全対象について行い、 対象によって評価に差が出る項目を、評価項目として重要であると判断した。
[0067] なお、得点の差が大き!/、項目は、輪郭及びフェースラインでは「角張って 、る Z丸 い」、「シャープ Zもったり」であり、目もとでは「まぶたの肉付き、眉から鼻筋にかけて の立体感(直線 Z曲線)」であり、鼻では「長い Z短い」、「丸い Z直線的」、「鼻のつ け根が出ている Z出ていない」であり、ほおでは「肉付き感 Z骨格感」、「平ら Z出て いる」、「重心が上 Z下」、「ほおの隆起がなだらか」であり、あごでは「丸い Z角張って いる」であり、顔全体では「肉付き感 Z骨格感」、「なめらか Zごつごつ」であり、顔のス ペースで評価した場合では「ひた 、が広!、z狭 、」、「あごが長 、z短 、」であった。
[0068] 一方、差が小さ!/、項目(数値があまり変動しな 、項目)は、フェースラインでは「なめ らかさ」であり、ひたいでは「横幅」であり、目もとでは「眉弓骨」であり、あごでは「出て いる、幅が広い」であり、全体では「立体的 Z平面的」等であった。
[0069] そこで、これらの結果を踏まえて項目を選定し、顔の形態特徴と立体感の評価に有 効な 31の形容詞対と顔の輪郭形状の 9表現を決定し、後の検討に使用した。
[0070] 〈1 4.実物と写真との評価の対応〉
ここで、実物と写真との評価の対応についても検討を行った。実物評価を行った対 象 9名について、同じ評価者 4名力 同一人の写真を用いて評価した。ここで、図 5は 、実物と写真との評価結果の一例を示す図である。なお、図 5は、対象者 Ngに関す る評価を示している。ここで、実物と写真との評価の結果、写真撮影時に顔の下に置 いた反射板の反射率によっては、凹凸感がない方向に評価される傾向があった。ま た、反射率を弱めた撮影の場合、実物との乖離は小さくなることがわ力つた。
[0071] また、鼻の高さやフェースラインの形状等は、あごの引き方等によって見え方が異な るため、正面顔だけでは判断が難しい項目があることがわ力つた。なお、これらの項 目については、斜め方向や横方向から撮影した写真を合わせて用いることで、実物 評価と差がなくなることがわ力つた。
[0072] く 1 5.顔の立体感分析指標の抽出〉
く 1 5— 1.顔評価実験〉
ここで、顔の立体感を分析する指標を抽出するために、更に検討を行った。具体的 には、選定した語による評価シートを用い、 20代を中心とする 40代までの一般モニタ 一の 34名の顔を実際に評価した。ここで、図 6は、選定語に基づいた立体感の評価 シートの一例を示す図である。なお、評価は、上述した研究担当者に加え美容技術 者、商品開発担当者を含む 4〜6名で行った。評価者の人数を増やしたのは、個人 による評価のばらつきを回避するためである。ただし、評価項目については定義を共 有し、評価のばらつきが小さくなるよう予め確認を行った。 [0073] また、上述の評価は、顔分類装置 10を用いても行うことができる。つまり、図 6に示 す評価シートを顔分類装置 10のディスプレイに表示させて、評価者等が入力装置 1 1を用いて上述した手法等により所定の評価情報を入力することで評価を行うことが できる。
[0074] く 1 5— 2.因子分析による指標の抽出〉
次に、各評価者の評価結果の数値を入力し、表計算ソフト等で各対象者の平均評 価得点を項目毎に算出した。また、この値を用いて因子分析を行った。ここで、因子 分析とは、互いに相関のある変量の持つ情報を、少数個の潜在的な因子に縮約する 統計的手法である。なお、ここでいう変量としては各項目の平均評価得点が該当する 。したがって、因子分析を行うことで、相関のある項目をまとめ、少数個の評価因子を 抽出することができる。
[0075] また、因子分析には市販の統計解析ソフトウェア(例えば、 SPSS (Statistical Pa ckage for Social Science) ver. 10. OJ等)を用い、そのソフトを例えば顔分類 装置 10等のコンピュータ機器にインストールすることで、因子分析を行うことができる 。また、因子の分析方法には主因子法を指定し、回転法にはプロマックス法を指定し た。その結果、 4つの因子(立体感評価因子)が抽出された。ここで、図 7は、この結 果力 得られる因子負荷量を示す図である。
[0076] 図 7に示すように、因子負荷量の第 1因子 (factorl)は、鼻の付け根の高低、立体 的 ·平面的等の項目で構成されていることから、立体感 (Depth)の因子とした。また、 第 2因子 (factor2)は、ほおがぼつちやり'すっきり、肉付き感がある'骨格感がある等 の項目で構成されていることから、骨格肉付き感の因子とした。また、第 3因子 (facto r3)は、えらがはっている'はっていない、ほおが広い'狭い等の項目で構成されてい ること力ら、幅 (Wide)の因子とした。更に、第 4因子(factor4)は、あごが長い'短い 、ほおが長い'短い、あごが大きい'小さいで構成されていることから、長さ(Height) の因子とした。なお、説明の程度の指標となる累積寄与率は 63%であった。
[0077] 図 8は、抽出された第 1と第 2の因子の得点で各対象をプロットした一例を示す図で ある。図 8に示す布置を分析すると、立体、肉付き感の特徴によって各対象が位置付 けられ、分離されて評価されていることがわかる。 [0078] また、同様に図 9は、抽出された第 3と第 4の因子の得点で各対象をプロットした一 例を示す図である。図 9では、長さと幅の特徴によって各対象が位置付けられ、分離 されて評価されていることがわかる。この分析で抽出された因子は、上述したく 1—2 - 2.評価指標の推測〉で推測された指標とも共通しており、評価の際の着目点を反 映することがわかる。
[0079] なお、図 8及び図 9に示す S1〜S34は、上述した 20代を中心とする 40代までの一 般モニターの 34名のうち、ほお、フェースラインのたるみ評価が他と離れすぎている 2 名(S5、 S8)を除いて分析したため、 32人の被験者のそれぞれのプロット位置を示し ている。
[0080] 〈1 6.分類マップの作成〉
以上の結果を総合し、顔の立体感を評価するための分類マップを作成する。なお、 作成に際しては、美容カウンセリング等の利便性、汎用性を考慮し、得られた指標を 更に整理した。第 1因子の立体感と第 2因子の肉付き骨格感の因子は奥行き'骨格 肉付き感とし、複合要素として一つにまとめた。また、第 3因子の幅と第 4因子の長さ は、幅と長さの掛け合わせでスペースを表すと考え、スペースの要素として一つにま とめた。
[0081] これら 2つの要素を組み合わせて、顔を分類する際の評価指標とした。ここで、図 1 0は、顔の奥行き'骨格肉付き感とスペースに基づいて分類した分類マップの第 1の 実施例を示す図である。図 10には、顔のスペースのバランスを含む顔のタイプを示 す第 1の軸、及び顔全体の奥行き'骨格肉付き感カもなる顔のタイプを示す第 2の軸 の 2軸と、その 2軸によって分類される象限及び 2軸の交差する中央に、予め設定さ れる標準的且つ理想的な立体感を有する顔画像 (例えば、平均顔画像)を配置した 座標空間とからなる。
[0082] また、第 1の軸(図 10における縦軸)は、顔のスペースとしてのひたい、ほお、又は あごの縦幅が予め設定される平均顔に基づ 、て長 、か短 、かの度合 、を示すもの である。また、第 2の軸(図 10における横軸)は、一方が、奥行き'骨格肉付き感がす つきりシャープである度合いを示し、他方がふつくらソフトである度合いを示すもので ある。なお、本発明における縦横軸の配置は特に限定されるものではない。 [0083] また、図 10には、顔の評価 (分析)を容易にするため、各軸の特徴を示す表現 (文 字)を付与し、更に各象限の特徴を顕著に表す顔画像 (写真)を顔分類装置 10でコ ンピュータグラフイクスにより作成して、対応する位置に配置している。このとき、正面 顔画像だけでなく斜め方向からの顔画像も作成して配置する。これにより、上述した ように正面顔だけでは評価精度が悪くなる点を解決することができる。
[0084] ここで、図 11は、本発明における各指標の評価の際の着目点の一例を示す図であ る。なお、図 11 (a)、(b)は、顔のスペースのバランスを説明するための例を示し、図 11 (c) , (d)は、奥行き'骨格肉付き感を説明するための例を示している。
[0085] 図 11に示すように、顔のスペースの分析は、顔の輪郭の横幅と縦幅との比 (横幅対 縦幅比)、すなわち後述するアウターフェースラインを基準にして行う。具体的には横 幅対縦幅比を、平均顔のアウターフェースラインの比である 1 : 1. 4を基準として比較 することで行う。例えば、図 11 (a)のように縦幅が 1. 35よりも小さければ短め(横幅が 広い)、図 11 (b)のように縦幅が 1. 45よりも大きければ長め(縦が長い)と判断する。 なお、この範囲は、上述した 20代を中心とする 40代までの一般モニターの 34名の顔 、及びその他のアウターフェースラインの縦横比を計測し、その計測結果に基づいて 適切な範囲を設定した。
[0086] また、図 l l (c)、 (d)に示すように、顔の奥行き'骨格肉付き感は、(1)鼻の脇のほ おの肉付き、(2)ほお骨、(3)耳力もあごにかけてのフェースラインで判断する。つま り、「ほお骨が角張っている」、「鼻の脇のほおがくぼんでいる」、「耳力 あごにかけて のフェースラインが直線的」等である場合は、「すっきりシャープ」であると判断する。 また、「ほお骨、鼻の脇のほおが丸みを帯びている」、「耳力 あごにかけてのフエ一 スラインが曲線的」等である場合は、「ふつくらソフト」であると判断する。
[0087] なお、上述した評価に用いられる被験者の顔画像は、予め顔分類装置 10の撮像 装置 18等により撮影して補助記憶装置 14に蓄積しておき、その蓄積しておいた画 像力 画像解析を行うことで評価することができる。
[0088] く 2.立体感の調整方法の検討〉
く 2—1. 目指す立体感の抽出〉
次に、立体感を調整し、美しさを演出する方法を抽出するため、どのような立体感 が美しいと評価されるのかについて検討を行った。検討に際しては、(a)素顔、(b)肌 の色むらを自然に整えた素顔風ベースメーク、(c)顔全体が平均顔のバランスに見え るよう立体感を調整した卵型ベースメークの各顔を用いる。
[0089] ここで、上述した(a)〜(c)の 3タイプのベースメークを、顔の特徴の異なる 6名のモ デルに施し、それらを撮影した顔写真を用い、 20代女性 20名を対象としてアンケー トを実施した。ここで、図 12は、顔の見え方と全体印象についての評価項目の一例を 示す図である。
[0090] 図 12に示すように、顔の見え方に関する 8項目(ひたいの見え方、ひたいの立体感 、鼻筋のとおり具合、ほおの肉付き、ほおの長さ、フェースライン、あごの出具合、目 鼻立ちのバランス)と、顔全体の立体感、美しさ、好ましさの全体的な印象に関する 3 項目(顔全体の立体感、美しさ、好ましさ)で評価を行った。また、顔の見え方につい ては、適度かどうかも合わせて回答してもらった。
[0091] その結果、ベースメークを施すことで、目鼻立ちのバランスが整って見え、立体的に 見えることがわ力つた。美しさ、好ましさの評価も高まった。その評価は、卵型ベースメ ークで最も高かった。
[0092] また、図 13は、顔の見え方についての評価結果の一例を示す図である。なお、図 1 3では、 20代女性のモデル 6名に対する評価を平均した値を示している。図 13に示 すように、卵型ベースに立体感を調整すると、素顔や素顔風ベースよりも顔の評価を 高めることが明ら力となった。
[0093] 更に、卵型ベースメークにっ 、て詳細な分析を行ったところ、平均顔の輪郭形状と 相似の楕円が眉尻を通る顔の内側に浮かび上がるようにベースメークが施されたこと がわかった。
[0094] く 2— 2.標準バランスの顔による検討〉
ここで、一般的な美人顔の条件として、卵型のフェースラインと黄金バランスがある。 その黄金バランスでは、例えば目の位置は全頭高の約 1Z2、髪の生え際力もあご先 までのうち、生え際から 1Z3の位置に眉頭が、生え際から 2Z3の位置に小鼻が位置 する。
[0095] ここで、従来の画像合成技術等により複数名の顔写真の寸法情報と色彩情報を平 均化することで作成される「平均顔」のバランスは、この黄金バランスの値に近づくこと が知られている。また、平均顔の作成には、 10人分を用いれば、異なる 10人分の顔 写真力 作成したものとほぼ印象が変わらないことが示されている(例えば、西谷美 和他、「平均顔の特徴を探る」、 日本心理学会第 63回大会発表論文集、 1999年 8月 発行等)。
[0096] ここで、図 14は、女性 40名分の顔写真を用いて作成した「平均顔」の一例を示す 図である。図 14に示す顔は、上述した黄金バランスを満たす。なお、後述では、この 黄金バランスを標準バランスとする。
[0097] また、図 15は、「平均顔」から (肌色の情報を除去し)奥行きと骨格肉付き感の情報 を除去したものである。図 15により奥行きと骨格肉付き感が顔の印象に大きく影響を 与えることがわかる。また、この平均顔について上述した画像解析 (モノクロ化ポスタリ ゼーシヨン処理)を施したところ、フェースラインの内側にも、フェースラインと相似形 の卵型が抽出できることがわ力つた。
[0098] ここで、図 16は、平均顔の画像 (又は立体感)解析結果の一例を示す図である。図 16に示すように、顔のフェースラインに対応する外側のフェースライン (アウターフエ ースライン) 20の内側にもアウターフェースライン 20を相似縮小させたフェースライン (インナーフェースライン) 21が存在することがわ力つた。このことからも、顔の内側の 立体感を卵型に見せることは、新たな美しさの演出法の一つであることが示された。
[0099] 〈3.立体感の調整一べストオーパル調整法一〉
次に、フェースラインの内佃 jの立体感、すなわちインナーフェースラインを卵型に整 える美容法を作成するため、調整仮説を立てた。ここで、平均顔で得られるアウター フェースラインとインナーフェースラインの形状を「ベストオーパル」と定義する。ァウタ 一フェースラインは、横幅対縦幅比がほぼ 1 : 1. 4の卵型形状 (標準アウターフェース ライン)である。「平均顔」のインナーフェースラインは、この標準アウターフェースライ ンと相似し、所定比率で縮小させた形状であり、横幅対縦幅比もほぼ 1 : 1. 4である。 ここで、図 17は、ベストオーパルの一例を示す図である。
[0100] アウターフェースライン 20は、上述したように「顔の横幅:縦幅比 = 1 : 1. 4」の関係 で示される形状である。なお、アウターフェースラインバランスは、顔全体スペース調 整の方向性を見極めるポイントとなる。また、インナーフェースライン 21を個々の顔に 当て嵌める場合には、図 17に示すように、まず個々の顔の左右のほお骨の横幅を 1 とする。次に、その横幅を基準に縦幅がほぼ 1. 4の標準インナーフェースライン 21、 すなわちベストオーパルを描き、各顔の眉尻 (小鼻の横から目尻を通る延長線上を 目安)に接するように位置付ける。なお、インナーフェースラインバランスは、骨格'肉 付きによる立体感とスペースの調整ゾーンとなる。
[0101] また、アウターフェースライン 20とインナーフェースライン 21の間は、自然な奥行き 感をつけるゾーン(図 17の斜線部分) 12とした。また、このゾーン 22は、奥行きを出 すと同時にアウターフェースライン 20とインナーフェースライン 21の形を整えて見せ る奥行きの調整ゾーンである。
[0102] また、図 18は、ベストオーパルの形状を説明するための一例の図である。一般にス 一パー楕円は、図 18に示す XY平面上で、楕円の長半径を a、短半径を b、曲率度 合を nとすると、〃(XZa)n+ (YZb)n= l〃と表すことができる。このとき、ベストオーバ ルの形状は、 Y〉0 (図 18における顔上半分)と Υく 0 (図 18における顔下半分)の各変 数力 それぞれ、「扁平率 bZa= l. 4±0. 05」、及び「曲率度合である次数 nが、 Y> 0エリアにお!ヽて 2. 29≤η≤2. 63、 Υく 0にお!/、て 1. 75≤η≤2. 00」となるような範 囲となるスーパー楕円を Υ=0にて連結したものとする。
[0103] また、上述のようにインナーフェースライン 21の形を調整する際には、上述した図 1 0に示す分類マップ上の位置によって、調整の方向性が異なるという仮説も立てた。 その一つは、対象の顔をスペースのバランスが短 、と判断した場合はスペースのバラ ンスを長めに見せるように調整し、逆にスペースのバランスが長めと判断した場合は スペースのバランスを短めに見せるよう調整することである。
[0104] 更にもう一つは、奥行き'骨格肉付き感をふつくらでソフトと判断した場合は骨格感 を強調するように調整し、逆に奥行き ·骨格肉付き感をすっきりでシャープと判断した 場合は骨格感を和らげるように調整することである。これらをべストオーパル調整法と し、この仮説の検証を行った。
[0105] く 4.立体感調整の仮説検証〉
上述したく 1 5— 1.顔評価実験〉の顔評価を行った対象者について、調整仮説を 適用して、フェースパウダーを用いて立体感を調整するメーキャップを施した。ここで 用いたフェースパウダーは、光を注入し、骨格、肉付きを調整するフォーカスカラー 2 色、及び影で骨格、肉付きを矯正し、すっきりとした立体顔を作るモデリングカラー 2 色である。なお、フォーカスカラーについては、肌の色の明るさに応じて 3種を用いた 。また、メーキャップは、美容技術者が行った。
[0106] メーキャップの仕上がりについて、評価者 4〜6名で顔の評価を実物で行った。その 結果、ほおの長さや肉付き感の見え方が調整され、顔全体の立体感の見え方が標 準に近づくことがわ力つた。
[0107] 図 19は、フェースパウダーの塗布要領の記録の一例を示す図である。ここで、図 1 9は、顔のスペースのバランスが短めで、奥行き'骨格肉付き感がふつくらでソフトとし た対象者 Aに施したフェースパウダーの塗布要領の記録の一例を示している。
[0108] また、図 19において、斜線部はフォーカスカラーを施した部分を示し、網線部がモ デリングカラーを施した部分を示している。このような調整により、顔の縦側のスぺー スを長く見せ、ほおの肉付きをすっきりと見せること、また、奥行き 'メリノ、リをつけ立体 的に見せることでインナーフェースラインを卵型に見せる。これにより、アウターフエ一 スラインも gii次的にϊ卩型に見える。
[0109] 具体的には、インナーフェースライン内のスペース、骨格肉付きを平均顔に見える ように、フェースパウダー等の化粧料を用いて調整する。例えば、スペースが長けれ ば短ぐ骨格が目立ちごつごつしていればなだらかにふつくら見えるようにする。また 、アウターフェースラインは、自然な奥行き感をモデリングカラーによって付ける。この とき、インナーフェースラインがベストオーパルに見えるようにする。
[0110] ここで、図 20は、対象者 Aの素顔とフェースパウダー塗布後の顔の評価の一例を示 す図である。なお、図 20は、評価者 4名における評価の平均値を示している。図 20 に示すように、すっきりしていな力つたフェースラインがすっきりと見え、ぼつちやりとし たほおがすっきりと見えるようになり、奥行き ·骨格肉付き感が標準に近づいた。また、 小さ力つたあごが標準に、鼻筋は通った方向に評価され、顔のスペースが調整され たことがわかる。
[0111] く 5.タイプ別の調整方法〉 ここで、上述した検証を通じ、マップ上で判断される顔の位置によって、調整の方向 性が異なることがわ力つた。つまり、メーキャップによる調整については、上述した図 1 0に示したマップの軸に対応して示すことができ、これにより各顔の位置と調整方向を 示すことができることがわ力つた。図 21は、顔の奥行き'骨格肉付き感とスペースに基 づいて分類した分類マップの第 2の実施例を示す図である。
[0112] 図 21〖こ示すよう〖こ、マップ上には、 2軸によって分類される象限に予め設定されて V、る立体感をメーキャップで調整するための調整方法が表示されて 、る。このように、 マップ上の位置に対応した立体感の調整方向を示すことにより、より高精度に顔評価 とメーキャップによる立体感の調整方法を被験者等に提示することができる。
[0113] ここで、図 22は、顔分類の各タイプ別におけるメーキャップ調整方法の一例を示す 図である。まず、図 22 (a)に示すように、顔のスペースのバランスが短めで骨格が目 立つ「短め'すっきりタイプ」の場合には、顔のスペースのバランスを長めに見せ、骨 格感を和らげるようなメーキャップを施す。具体的には、フォーカスカラーをモデリン グカラーよりも先にぼ力して骨格感を和らげ、ほおにふつくらした丸みを与え、更に顔 を長く見せるようにする。フォーカスカラーは、ほお骨の高い所は避け、ほおの内側か ら下にかけて C状にぼ力しふつくら感を演出する。また、こめかみにもぼ力しふつくら 感を演出する。更に Tゾーンは長めにぼかす。モデリングカラーは、ベストオーパルを 意識しひたいの角、あごのサイドにぼかす。また、ほお骨が張って見えるところを少し ぼかす。
[0114] また、図 22 (b)に示すように、顔のスペースのバランスが短めでふつくらしている「短 め'ふつくらタイプ」の場合には、顔のスペースのバランスを長めに見せ、骨格感を強 調するようなメーキャップを施す。具体的には、モデリングカラーをフォーカスカラーよ りも先にぼかして骨格を強調し、顔の横幅をシエープして長く見せるようにする。モデ リングカラーは、ベストォーノ レを意識し輪郭のサイド部分に縦長にぼかす。また、ほ お骨の下からほお骨に沿って顔の中心に向かってチークをぼかす。更に、眉頭の下 をぼかす。フォーカスカラーは、ほお骨の高い所は実際の角度より縦気味にぼかす。 また、 Tゾーンは長めにぼかす。
[0115] また、図 22 (c)に示すように、顔のスペースのバランスが長めでふつくらしている「長 め'ふつくらタイプ」の場合には、顔のスペースのバランスを短めに見せ、骨格感を強 調するようなメーキャップを施す。具体的には、モデリングカラーをフォーカスカラーよ りも先にぼかして骨格を強調し、顔の長さをシエープし横のラインを強調する。モデリ ングカラーは、ベストオーパルを意識し輪郭のひたいとあご先に幅広くメークする。ま た、ほお骨の下から水平に顔の中心に向かってチークをぼかす。更に、眉頭の下を ぼかす。フォーカスカラーは、基本より縦気味にメークする。また、ほお骨の高い所は 実際の角度より水平気味にメークする。また、 Tゾーンは短めにぼかす。
[0116] また、図 22 (d)に示すように、顔のスペースのバランスが長めで骨格が目立つ「長 め'すっきりタイプ」の場合は、顔のスペースのバランスを短めに見せ、骨格感を和ら げるようなメーキャップを施す。具体的には、フォーカスカラーをモデリングカラーより も先にぼ力して骨格感を和らげ、ほおにふつくらした丸みを与え、更に顔の長さを目 立たなくさせる。フォーカスカラーは、ほお骨の高い所は避け、ほおの内側から下に かけて C状にぼ力しふつくら感を演出する。また、 Tゾーンは短めにぼかす。モデリン グカラーは、ベストオーパルを意識し髪の生え際とあご先に幅広くぼかす。また、ほお 骨が張って見えるところを少しぼかす。
[0117] なお、上述した分類マップによる被験者の顔の分類が、標準的且つ理想的な立体 感を有する顔 (例えば、平均顔)であった場合には、それに対応して予め設定された メーキャップを施す。具体的には、図 22 (e)に示す「標準的 ·理想的タイプ」である場 合、フォーカスカラーは、ほお骨の高い所から眉山の下、及びひたいから鼻筋にかけ てあご先にぼかす。また、先に使用したフォーカスカラーと異なるもう一方の色のフォ 一力スカラーで、先にぼ力したフォーカスカラーに重ねて肌に馴染ませるようにぼか す。モデリングカラーは、フェースライン、あご先、髪の生え際等の輪郭部分やほお骨 の下をぼかす。また、先に使用したモデリングカラーと異なるもう一方の色のモデリン グカラーで、先にぼかしたモデリングカラーの周りや輪郭部分の内側 (顔側)の肌に 馴染ませるようにぼかす。
[0118] このように、分類マップ上の位置に対応した各タイプにおける立体感の調整方向を 示すことで、顔分類に基づいたメーキャップによるべストォーノ レの調整を行うことが できる。なお、図 5に示すような画像及び Z又は上述したコメントを有する顔分類の各 タイプ別におけるメーキャップ調整方法を、顔分類装置 10において画面表示や紙等 に印刷することで被験者等に提供することもできる。
[0119] く 6.調整法の受容性〉
最後に、対象者にメーキャップによるべストオーパル調整法の仕上がりの評価をし てもらった。図 23は、メーク仕上がりについての対象者の評価の一例を示す図である 。図 23に示すように、ベストォーノ レ調整法の仕上がりの評価をしてもらったところ、 高い嗜好があることがわかった。仕上がりの好みは 25名中 23名が好ましい方向に評 価し (好き: 11名、やや好き: 12名)と回答し、どちらとも 、えな 、が 2名、嫌 、との回 答者は 0であった。
[0120] また、普段自分自身で行うベースメークと比較して回答してもらうと、今回のほうが好 きが 15名、今回がやや好きが 7名で好ましく評価した対象者は 25名中 22名であった 。このことから、この調整法は好感度が高ぐ一般に受け入れやすいことが示された。
[0121] く分類マップを利用したメーキャップ手順〉
次に、本発明における分類マップを利用して、顔分類装置 10により実行される被験 者の顔の分類と、分類結果に基づくメーキャップの調整方法の表示までの一連のメ 一キャップ手順の一例についてフローチャートを用いて説明する。
[0122] 図 24は、本発明における分類マップを利用したメーキャップ手順を説明するための フローチャートである。まず、メーキャップを行う対象の被験者の顔画像を取得する(
S01)。なお、 S01では、例えば撮像装置 18により被験者の正面顔画像及び斜め 45 度から撮影した顔画像等を取得する。
[0123] 次に、取得した画像データから被験者の顔の立体感の評価を行う (S02)。具体的 には、上述した図 11に示すように標準フェースラインと比較して、顔が長いか短いか 、又は、骨格感がありすつきりしている力、ふつくらしてなだらかであるか等の判断評 価を行う。
[0124] また、 S02の評価結果に基づいて、図 10又は図 21に示すような本発明における分 類マップにおいて、どの被験者がどの分類に属するかの評価を行い、被験者の分類 を行う(S03)。なお、分類は、上述したように被験者の顔の評価情報を各項目毎に 集計し、その結果と予め設定される値とに基づいて対応する分類に位置付けが行わ れる。
[0125] また、分類結果は、ディスプレイ等に表示される(S04)。なお、ディスプレイには、 図 10又は図 21に示す分類マップと、その分類マップの所定の位置に評価結果がプ ロットされて表示される。また、ディスプレイには、上述したように各分類毎における立 体感をメーキャップで調整するための調整方法も表示される。なお、上述の分類結果 は、紙等に印刷して被験者等に提示することもできる。
[0126] 被験者等は、表示された調整方法等に基づいて対応するメーキャップを施す (S05 ) o具体的には上述したように、インナーフェースラインがベストオーパルに見えるよう に調整する。なお、上述の調整を行うための手法は、例えば図 19に示すような手法 が各分類毎に予め蓄積されており、被験者の分類結果に対応する調整手法を表示 することちでさる。
[0127] 上述したように、標準の顔の輪郭 (アウターフェースライン)と相似のインナーフエ一 スラインを用いてメーキャップを行うことで、被験者の立体感を美しく見せるメークをガ イドラインとして提示することができる。
[0128] 上述したように本発明によれば、顔の立体感を高精度に分類することができる。また 、被験者に分類したタイプに基づ 、た適切なメーキャップの調整を行わせることがで きる。具体的には、顔の立体感を顔の長さ、顔全体 (特にほお)の骨格 '肉付きによつ て分類する方法と、そのための分類マップを利用して、分類したタイプにより、立体感 を美しく整える方法を提示することができる。
[0129] また、調整の際には、標準の顔の輪郭 (アウターフェースライン)と相似のインナーフ エースラインを用いる。これにより、顔のタイプ毎で顔の立体感を高精度に分類するこ とができる。また、顔全体の調和がとれ、美しさ、好ましさの高評価につながる。
[0130] また、分類マップにより、メーキャップに用いる化粧用のツールとして使用することが でき、これをガイドラインとすることで目的とするイメージを演出するためにはどのよう な方向でメーキャップを施せばよいか、格別の熟練を要することなく知ることができ、 適切なメーキャップの調整法を提示することができる。
[0131] これにより、ベースメーキャップにおいて、輪郭の見え方を「卵型」に調整し、顔全体 の調和を取ることができる。つまり、輪郭の卵型「アウターフェースライン」だけでなぐ 顔の内側の卵型「インナーフェースライン」も整った所謂「ベストオーパル」な顔立ちに することができる。
[0132] つまり、本発明を適用することにより、立体感の分析を行わずともインナーフェース ライン (スーパー楕円)によって目標とするメーキャップを示すことができる。このイン ナーフェースラインをガイドラインとするメーキャップの目標は、個々の顔の立体感の 特徴に依存せず、一義に決まるため、万人に適用可能な普遍的な方法である。
[0133] また、本発明を適用したメーキャップの調整においては、予め顔の立体感を分類す ることにより、影と立体との双方向の調整も顔の特徴に応じて適用することができるた め、立体感を適切に調整することができる。
[0134] 以上本発明の好ましい実施例について詳述した力 本発明は係る特定の実施形 態に限定されるものではなぐ特許請求の範囲に記載された本発明の要旨の範囲内 において、種々の変形、変更が可能である。
[0135] 本願 ίま 2005年 12月 1曰に出願した曰本国特許出願 2005— 348320号に基づく 優先権を主張するものであり同日本国出願の全内容を本願に参照により援用する。

Claims

請求の範囲
[1] 被験者の顔の立体感を分類する顔分類方法にぉ ヽて、
少なくとも顔のスペース及び顔全体の奥行き'骨格肉付き感の 2つの指標に基づい て、前記被験者の顔を評価する評価段階と、
前記評価段階により評価された結果を予め分類された少なくとも 4種類のタイプの 何れかに位置付ける分類段階とを有することを特徴とする顔分類方法。
[2] 前記評価段階は、
前記被験者の顔を評価するため、予め設定される平均顔と前記 4種類のタイプの 各代表顔を用いることを特徴とする請求項 1に記載の顔分類方法。
[3] 前記評価段階は、
前記顔のスペースとしてのひたい、ほお、又はあごの縦幅と横幅のバランスを反映 する顔の縦幅と横幅の比率の度合いを前記平均顔に基づいて評価し、また前記奥 行き ·骨格肉付き感がすつきりシャープである度合 、又はふつくらソフトである度合 、 により評価することを特徴とする請求項 2に記載の顔分類方法。
[4] 前記分類段階により分類された顔のタイプを、前記平均顔と前記 4種類のタイプと が平面座標空間の各象限に位置付けられたマップ上に対応させて表示し、更に前 記 4種類の各タイプの立体感を前記平均顔が有する立体感に近づけるため、前記 4 種類の各タイプ毎に立体感をメーキャップで調整するための調整方法を表示する表 示段階を有することを特徴とする請求項 1乃至 3の何れか 1項に記載の顔分類方法。
[5] 前記調整方法は、
前記平均顔の輪郭形状と相似し、所定比率で縮小させた横幅対縦幅比が 1 : 1. 35 〜1. 45となる形状に基づく調整を行うことを特徴とする請求項 4に記載の顔分類方 法。
[6] 被験者の顔の立体感を分類する顔分類装置にお!ヽて、
前記被験者の顔画像を撮影する撮影手段と、
撮影した顔画像カゝら少なくとも顔のスペース及び顔全体の奥行き ·骨格肉付き感の 2つの指標に基づいて、予め分類された少なくとも 4種類のタイプの何れかに位置付 けるための制御を行う制御手段と、 前記制御手段により分類された分類結果を、前記 4種類のタイプが平面座標空間 の各象限に位置付けられたマップ上に対応させて表示する表示手段とを有すること を特徴とする顔分類装置。
[7] 前記制御手段は、
前記被験者の顔を評価するため、予め設定される平均顔と前記 4種類のタイプの 各代表顔を用いることを特徴とする請求項 6に記載の顔分類装置。
[8] 前記制御手段は、
前記顔のスペースとしてのひたい、ほお、又はあごの縦幅と横幅のバランスを反映 する顔の縦幅と横幅の比率の度合いを前記平均顔に基づいて評価し、また前記奥 行き ·骨格肉付き感がすつきりシャープである度合 、又はふつくらソフトである度合 、 により評価することを特徴とする請求項 7に記載の顔分類装置。
[9] 前記表示手段は、
分類された顔の形態に基づいて前記平均顔が有する立体感の見え方に近づける ため、前記 4種類の各タイプ毎に立体感をメーキャップで調整するための調整方法を 表示することを特徴とする請求項 6乃至 8の何れか 1項に記載の顔分類装置。
[10] 前記調整方法は、
前記平均顔の輪郭と相似し、所定比率で縮小させた横幅対縦幅比が 1 : 1. 35〜1 . 45となる形状に基づく調整を行うことを特徴とする請求項 9に記載の顔分類装置。
[11] 顔のスペースを含む顔のタイプを示す第 1の軸、及び顔全体の奥行き'骨格肉付き 感力 なる顔のタイプを示す第 2の軸の 2軸と、前記 2軸によって分類される象限及び 2軸の交差する中央に予め設定される標準的且つ理想的な立体感を有する顔画像 を配置した座標空間とからなることを特徴とする顔分類マップ。
[12] 前記第 1の軸は、予め設定される平均顔に対する前記顔のスペースとしてのひたい 、ほお、又はあごの縦幅と横幅のバランスを反映する顔の縦幅と横幅の比率の度合 いを示すものであり、前記第 2の軸は、一方が、奥行き'骨格肉付き感がすつきりシャ ープである度合!/、を示し、他方がふつくらソフトである度合 、を示すものであることを 特徴とする請求項 11に記載の顔分類マップ。
[13] 前記 2軸によって分類される象限に、前記平均顔が有する立体感に近づけるため、 立体感をメーキャップで調整するための調整方法が表示されていることを特徴とする 請求項 11又は 12に記載の顔分類マップ。
[14] 請求項 1乃至 5の何れか 1項に記載の顔分類方法を実行させるようにコンピュータ を動作させることを特徴とする顔分類プログラム。
[15] 請求項 14に記載の顔分類プログラムが記録されたコンピュータ読み取り可能な記 録媒体。
PCT/JP2006/323781 2005-12-01 2006-11-29 顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログラムが記録された記録媒体 WO2007063878A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US12/095,507 US8351711B2 (en) 2005-12-01 2006-11-29 Face categorizing method, face categorizing apparatus, categorization map, face categorizing program, and computer-readable medium storing program
CN2006800451781A CN101341507B (zh) 2005-12-01 2006-11-29 面部分类方法以及面部分类装置
EP06833585A EP1956548A4 (en) 2005-12-01 2006-11-29 FACIAL CLASSIFICATION PROCEDURE, FACE CLASSIFICATION DEVICE, CLASSIFICATION IMAGING, FACE CLASSIFICATION PROGRAM, RECORDING MEDIUM ON WHICH THE PROGRAM IS RECORDED
KR1020087013097A KR101259662B1 (ko) 2005-12-01 2008-05-30 얼굴 분류 방법, 얼굴 분류 장치, 분류맵, 얼굴 분류프로그램, 및 상기 프로그램이 기록된 기록매체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-348320 2005-12-01
JP2005348320 2005-12-01

Publications (1)

Publication Number Publication Date
WO2007063878A1 true WO2007063878A1 (ja) 2007-06-07

Family

ID=38092211

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/323781 WO2007063878A1 (ja) 2005-12-01 2006-11-29 顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログラムが記録された記録媒体

Country Status (5)

Country Link
US (1) US8351711B2 (ja)
EP (1) EP1956548A4 (ja)
KR (1) KR101259662B1 (ja)
CN (1) CN101341507B (ja)
WO (1) WO2007063878A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110088765A (zh) * 2016-12-21 2019-08-02 松下知识产权经营株式会社 对照装置和对照方法
WO2023210341A1 (ja) * 2022-04-25 2023-11-02 株式会社資生堂 顔分類方法、装置、およびプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2373366T3 (es) * 2004-10-22 2012-02-02 Shiseido Co., Ltd. Procedimiento de maquillaje de labios.
FR2959846B1 (fr) * 2010-05-04 2014-03-14 Vesalis Procede de traitement d'image pour corriger une cible en fonction d'une image de reference et dispositif de traitement d'image correspondant
EP2462535A2 (fr) * 2009-08-04 2012-06-13 Vesalis Procédé de traitement d'image pour corriger une image cible en fonction d'une image de reference et dispositif de traitement d'image correspondant
US8839118B2 (en) * 2010-06-30 2014-09-16 Verizon Patent And Licensing Inc. Users as actors in content
TW201212852A (en) * 2010-09-21 2012-04-01 Zong Jing Investment Inc Facial cosmetic machine
JP4862955B1 (ja) * 2010-10-29 2012-01-25 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
TWI463955B (zh) * 2012-02-20 2014-12-11 Zong Jing Investment Inc Eye makeup device
JP6128309B2 (ja) 2013-02-01 2017-05-17 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
WO2015029372A1 (ja) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、メイクアップ支援方法、およびメイクアップ支援プログラム
US10314996B2 (en) * 2014-08-25 2019-06-11 Innosparks Pte Ltd Mask package apparatus integrated with mask sizing ruler
US9760762B2 (en) 2014-11-03 2017-09-12 Anastasia Soare Facial structural shaping
TWI646503B (zh) * 2014-12-30 2019-01-01 香港商富智康〈香港〉有限公司 照片方位校正系統及方法
CN106052034B (zh) * 2015-10-30 2019-01-22 广东美的制冷设备有限公司 一种基于脸部特征进行空调控制的方法、系统及空调
JP6731616B2 (ja) * 2016-06-10 2020-07-29 パナソニックIpマネジメント株式会社 バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム
US10912372B2 (en) 2017-05-16 2021-02-09 Anastasia Beverly Hills, Llc Facial stencils
CN109288233A (zh) 2017-07-25 2019-02-01 丽宝大数据股份有限公司 可标示修容区域的身体信息分析装置
CN109299636A (zh) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 可标示腮红区域的身体信息分析装置
WO2019027505A1 (en) * 2017-08-01 2019-02-07 Apple Inc. FACE DETECTION, ESTIMATED INSTALLATION AND ESTIMATED DISTANCE BETWEEN THE FACE AND THE SHOOTING DEVICE USING A SINGLE ARRAY
CN108830200A (zh) * 2018-05-31 2018-11-16 北京市商汤科技开发有限公司 一种图像处理方法、装置和计算机存储介质
CN110417990B (zh) * 2019-03-25 2020-07-24 浙江麦知网络科技有限公司 基于目标分析的app启动系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1075823A (ja) * 1996-09-05 1998-03-24 Shiseido Co Ltd 顔だち分類法及び顔だちマップ
JPH10289303A (ja) 1997-04-16 1998-10-27 Pola Chem Ind Inc 好印象を形成するメークアップの選択法
JP2001224430A (ja) 2001-01-26 2001-08-21 Shiseido Co Ltd 顔だち分類法及び顔だちマップ
JP2005348320A (ja) 2004-06-07 2005-12-15 Sony Corp 動画像変換装置、および動画像変換方法、並びにコンピュータ・プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH119338A (ja) 1997-06-26 1999-01-19 Pola Chem Ind Inc 顔比較キット
US6252976B1 (en) * 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
JP3430944B2 (ja) 1997-12-15 2003-07-28 花王株式会社 印象の評価方法
JP4364373B2 (ja) 1999-09-10 2009-11-18 ポーラ化成工業株式会社 顔形分類装置及び記録媒体
JP2003099779A (ja) 2001-09-21 2003-04-04 Japan Science & Technology Corp 人物属性評価装置、人物属性評価方法及び人物属性評価プログラム
FR2857481A1 (fr) 2003-07-08 2005-01-14 Thomson Licensing Sa Procede et dispositif de detection de visages dans une image couleur

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1075823A (ja) * 1996-09-05 1998-03-24 Shiseido Co Ltd 顔だち分類法及び顔だちマップ
JPH10289303A (ja) 1997-04-16 1998-10-27 Pola Chem Ind Inc 好印象を形成するメークアップの選択法
JP2001224430A (ja) 2001-01-26 2001-08-21 Shiseido Co Ltd 顔だち分類法及び顔だちマップ
JP2005348320A (ja) 2004-06-07 2005-12-15 Sony Corp 動画像変換装置、および動画像変換方法、並びにコンピュータ・プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MIWA NISHITANI ET AL.: "Characteristics of Average Faces", August 1999
See also references of EP1956548A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110088765A (zh) * 2016-12-21 2019-08-02 松下知识产权经营株式会社 对照装置和对照方法
CN110088765B (zh) * 2016-12-21 2023-01-03 松下知识产权经营株式会社 对照装置和对照方法
WO2023210341A1 (ja) * 2022-04-25 2023-11-02 株式会社資生堂 顔分類方法、装置、およびプログラム

Also Published As

Publication number Publication date
EP1956548A4 (en) 2009-04-15
US8351711B2 (en) 2013-01-08
CN101341507A (zh) 2009-01-07
EP1956548A1 (en) 2008-08-13
US20100220933A1 (en) 2010-09-02
KR101259662B1 (ko) 2013-05-02
KR20080084933A (ko) 2008-09-22
CN101341507B (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
WO2007063878A1 (ja) 顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログラムが記録された記録媒体
CN101779218B (zh) 化妆模拟系统及其化妆模拟方法
JP5231685B1 (ja) 顔印象分析方法、美容カウンセリング方法および顔画像生成方法
JP4809056B2 (ja) チークメーキャップのための顔分類装置、顔分類プログラム、及び該プログラムが記録された記録媒体
JP5261586B2 (ja) メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP5432532B2 (ja) 化粧方法、化粧シミュレーション装置、及び化粧シミュレーションプログラム
JP2010534376A (ja) しわのエイジング及びディエイジングの現実的シミュレーションの方法及び装置
JP2001346627A (ja) 化粧アドバイスシステム
CN106548156A (zh) 一种根据人脸图像提供整容建议的方法
JP2011150595A (ja) 顔形状評価装置、顔形状評価方法、及び顔形状評価プログラム
JP5095182B2 (ja) 顔分類装置、顔分類プログラム、及び該プログラムが記録された記録媒体
JP3920747B2 (ja) 画像処理装置
CN113344837B (zh) 人脸图像处理方法及装置、计算机可读存储介质、终端
JPH11265443A (ja) 印象の評価方法及び装置
Bastanfard et al. Toward E-appearance of human face and hair by age, expression and rejuvenation
CN117132711A (zh) 一种数字人像定制方法、装置、设备及存储介质
JP4893968B2 (ja) 顔画像の合成方法
JP7095849B1 (ja) アイウェア仮想試着システム、アイウェア選定システム、アイウェア試着システムおよびアイウェア分類システム
JPH1021290A (ja) メークアップのシミュレート法
Leta et al. A study of the facial aging-a multidisciplinary approach
JP5234857B2 (ja) チークメーキャップのための顔分類方法、分類見極めマップ、顔分類プログラム、及び該プログラムが記録された記録媒体
JP2023155988A (ja) 鼻唇側影分析方法
Danino et al. Algorithm for facial weight-change [image weight-change simulator]
JP2023038871A (ja) 特徴抽出方法及び特徴抽出システム
Andito AI ASSISTED FACIAL RECONSTRUCTION OF PANJI’S LOVER CHARACTER IN PENATARAN TEMPLE’S BAS RELIEFS USING SKETCH TO IMAGE METHOD

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680045178.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006833585

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020087013097

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12095507

Country of ref document: US