WO2015125552A1 - うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラム - Google Patents

うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラム Download PDF

Info

Publication number
WO2015125552A1
WO2015125552A1 PCT/JP2015/051802 JP2015051802W WO2015125552A1 WO 2015125552 A1 WO2015125552 A1 WO 2015125552A1 JP 2015051802 W JP2015051802 W JP 2015051802W WO 2015125552 A1 WO2015125552 A1 WO 2015125552A1
Authority
WO
WIPO (PCT)
Prior art keywords
brightness
color
evaluation
calculation unit
index
Prior art date
Application number
PCT/JP2015/051802
Other languages
English (en)
French (fr)
Inventor
那緒子 吉田
郁子 大軽
恵梨子 池田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2015125552A1 publication Critical patent/WO2015125552A1/ja
Priority to US15/237,135 priority Critical patent/US20160345887A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4261Evaluating exocrine secretion production
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part

Definitions

  • the present invention relates to a moist feeling evaluation apparatus, a moist feeling evaluation method, and a moist feeling evaluation program, and in particular, a moist feeling evaluation apparatus, a moist feeling evaluation method, and a moist feeling that evaluate moist feeling based on a photographed image obtained by photographing a subject's face. It relates to a feeling evaluation program.
  • moisturized skin refers to fresh skin that appears to contain moisture, but even if the moisture content of the skin is evaluated simply by measuring the moisture content of the skin, it is actually an observer.
  • a high correlation could not be obtained with the sensory evaluation evaluated by looking at the skin. Therefore, an evaluation method having a high correlation with sensory evaluation is required.
  • Patent Document 1 evaluates a moist feeling based on the partial physical characteristics of the skin, and a high correlation is obtained with respect to the sensory evaluation for partially observing the skin. A high correlation was not obtained for the sensory evaluation for evaluating the moist feeling (visual moist feeling) when viewing the image.
  • the visual moist feeling was evaluated by looking at the entire skin, and the evaluation results differed greatly from the sense of moist feeling when actually looking at the skin.
  • the facial condition of the face changes in a complex manner depending on the position, and from the evaluation of only a part or only one type of physical characteristics, the evaluation result is highly correlated with the sense of moisture when actually looking at the skin. It is difficult to get.
  • the present invention has been made to solve such a conventional problem, and a moisture feeling evaluation apparatus, a moisture feeling evaluation method, and a moisture feeling evaluation program capable of accurately evaluating the visual moisture feeling of a face.
  • the purpose is to provide.
  • the moisture evaluation device includes an image input unit that inputs a photographed image obtained by photographing a subject's face from the front, and a brightness that includes skin brightness, redness, and yellowness from the photographed image input to the image input unit.
  • the brightness / color index calculation unit that calculates the brightness / color component value and calculates the brightness / color index based on the brightness / color component value, and the uneven portion of the skin from the captured image input to the image input unit
  • a shape index calculation unit that calculates a shape index based on the abundance of the uneven portion, and a moisture evaluation unit that evaluates the visual moisture feeling of the subject's face based on the brightness / color index and the shape index It is what has.
  • the brightness / color index calculation unit calculates a brightness calculation unit that calculates the brightness of the skin, a dull calculation unit that calculates the amount of the dull part in the skin, and the amount of the spot part in the skin. It has a wrinkle calculation unit and a color unevenness calculation unit that calculates the amount of uneven color in the skin, and the shape index calculation unit calculates the amount of wrinkle in the skin and a pore part in the skin. It is preferable to have a pore calculation unit that calculates the amount of the presence of a dent and a contour depression amount calculation unit that calculates the amount of depression generated in the cheek contour shape from the ear to the mouth.
  • the brightness calculation unit sets a first evaluation area in the captured image, calculates an average value of brightness in the first evaluation area as the brightness of the skin, and the dullness calculation unit adds a first evaluation area to the captured image. 2 evaluation areas are set, a dull portion is detected from the second evaluation area based on the brightness value, the redness value, and the yellowness value, and the total area of the dull portion and the dullness with respect to the second evaluation area are detected.
  • the area ratio of the portion or the density of the dull portion is calculated as the abundance of the dull portion, and the spot calculation unit sets a third evaluation region in the photographed image, and the value of the brightness component or the value of the color component is locally
  • a spot portion that changes to the third evaluation region is detected based on the size, and the total area of the stain portion, the area ratio of the stain portion with respect to the third evaluation region, the density of the stain portion, or the stain in the third evaluation region Calculate the number of parts as the amount of spot parts
  • the color unevenness calculation unit sets a fourth evaluation region in the photographed image, and a color unevenness portion in which the value of the brightness component or the color component changes locally and is larger than the stain portion is determined from the fourth evaluation region.
  • the total area of the uneven color portion, the area ratio of the uneven color portion with respect to the fourth evaluation region, the density of the uneven color portion, or the number of the uneven color portion in the fourth evaluation region is calculated as the existence amount of the uneven color portion. It is preferable.
  • the wrinkle calculation unit sets a fifth evaluation region extending from the small nose to the corner of the mouth in the photographed image, detects a wrinkle portion whose brightness decreases in the fifth evaluation region, and calculates the total area of the wrinkle portion, the fifth The area ratio of the wrinkle part with respect to the evaluation area, the density of the wrinkle part or the length of the wrinkle part is calculated as the abundance of the wrinkle part, and the pore calculation unit sets the sixth evaluation area in the photographed image, and brightness A pore portion whose component value or color component value is locally changed and smaller than a spot portion is detected from the sixth evaluation region, and the total area of the pore portion, the area ratio of the pore portion with respect to the sixth evaluation region, the pores The density of the portion or the number of pore portions in the sixth evaluation region is calculated as the existence amount of the pore portion, and the contour depression amount calculation unit detects the cheek contour shape in the photographed image, and is the portion located on the outermost side in the cheek contour shape Down from Towards drawing a straight line, it is preferable to calculate the amount of depression of
  • the moisture feeling evaluation unit obtains a reference value (visual evaluation value) of the visual moisture feeling obtained in advance by visually evaluating the face of the subject with different brightness / color component values and abundance portions. It is possible to evaluate the visual moist feeling based on the linear sum of the brightness / color index and the shape index.
  • the database further stores a coefficient for calculating a linear sum of the brightness / color index and the shape index with respect to the reference value, and the moisture evaluation unit includes the brightness calculated by the brightness / color index calculation unit. It is preferable to obtain an evaluation value of a visually moist feeling by referring to a database based on the color index value and the shape index value calculated by the shape index calculation unit.
  • the moisture evaluation method inputs a photographed image obtained by photographing a subject's face, obtains values of brightness / color components including skin brightness, redness and yellowness from the photographed image, and determines brightness / color. Calculates brightness / color index based on component values, detects skin irregularities from captured images, calculates shape index based on presence of irregularities, based on brightness / color index and shape index The visual moist feeling of the subject's face is evaluated.
  • the moisture evaluation program includes a step of inputting a photographed image obtained by photographing a subject's face, and obtains values of brightness and color components including skin brightness, redness and yellowness from the photographed image.
  • the visual moist feeling of the subject's face based on the brightness / color index calculated based on the brightness / color component values and the shape index calculated based on the abundance of the uneven portion. Therefore, it is possible to evaluate the visual moist feeling of the face with high accuracy.
  • FIG. 1 shows the configuration of a moisture feeling evaluation apparatus according to an embodiment of the present invention.
  • the moisture feeling evaluation apparatus evaluates the visual moisture feeling of the subject's face F using a photographed image obtained by photographing the subject's face F with the camera C from the front, and includes an image input unit 1 connected to the camera C.
  • a pre-processing unit 2, a color space conversion unit 3, an index calculation unit 4, a moisture feeling evaluation unit 5, and a display unit 6 are sequentially connected to the image input unit 1.
  • a reference value database 7 is connected to the moisture feeling evaluation unit 5.
  • a control unit 8 is connected to the color space conversion unit 3, the index calculation unit 4, and the moisture feeling evaluation unit 5, and an operation unit 9 is connected to the control unit 8.
  • the image input unit 1 inputs a captured image from the camera C that captured the face F of the subject.
  • the photographed image is obtained by photographing the subject's face F from the front so that both ears of the subject's face F are captured.
  • the captured image input from the camera C has an RGB color space.
  • the camera C only needs to be able to photograph the subject's face F.
  • a digital camera and a CCD camera can be used, and a photographed image photographed with a mobile phone such as a smartphone can also be used.
  • the preprocessing unit 2 performs preprocessing such as light amount correction and noise removal on the captured image input from the image input unit 1.
  • the color space conversion unit 3 converts the color space of the captured image input from the preprocessing unit 2 to generate a color space conversion image.
  • a color space converted image for example, an image converted into an L * a * b * color space, an LCH color space, a YCC color space, or the like can be used.
  • a D65 light source can be used as the calculation light source.
  • the color space conversion unit 3 divides the generated color space conversion image into a brightness component (luminance component) and a color component, and generates a brightness component image and a color component image, respectively.
  • the brightness component indicates the L * component
  • the color component is the a * component (complementary color component corresponding to red and green), b * component (complementary color component corresponding to yellow and blue), C * component (saturation component), Hue component (hue component), and the like.
  • the index calculation unit 4 includes a brightness / color index calculation unit 10 and a shape index calculation unit 11 respectively connected to the color space conversion unit 3.
  • the brightness / color index calculation unit 10 receives the brightness component image and the color component image from the color space conversion unit 3, respectively, and brightness including skin brightness, redness and yellowness from the brightness component image and the color component image.
  • the brightness / color component value is obtained, and the brightness / color index for evaluating the visual moist feeling is calculated based on the brightness / color component value.
  • the shape index calculation unit 11 receives the brightness component image, the color component image, and the captured image input to the image input unit 1 from the color space conversion unit 3, respectively, and the skin from the brightness component image, the color component image, and the captured image.
  • a shape index for evaluating the visual moist feeling is calculated based on the abundance of the uneven portion.
  • the brightness / color index calculation unit 10 and the shape index calculation unit 11 output the calculated brightness / color index and shape index to the moisture evaluation unit 5, respectively.
  • the reference value database 7 includes brightness / color index values and shape index values obtained in advance by visual evaluation of a plurality of subjects' faces having different brightness / color component values and abundance portions. Stores the relationship between the value and the reference value of the visual moisture feeling. For example, a linear sum of the brightness / color index value and the shape index value can be obtained, and a function indicating a reference value of the visual moisture feeling for the linear sum can be stored.
  • the moisture feeling evaluation unit 5 evaluates the visual moisture feeling of the face of the subject based on the brightness / color index and the shape index.
  • the reference value database 7 is referred to based on the value of the brightness / color index calculated by the brightness / color index calculation unit 10 and the value of the shape index calculated by the shape index calculation unit 11. By doing so, the evaluation value of the visual moisture feeling is obtained.
  • the moisture evaluation unit 5 visually moisturizes based on a function indicating the reference value of the visual moisture feeling for the linear sum of the brightness / color index value and the shape index value stored in the reference value database 7. Evaluation of feeling can be requested.
  • the moist feeling indicates so-called fresh skin that has tension and transparency and seems to contain moisture.
  • the moist feeling evaluation unit 5 feels moist when the entire face F of the subject is seen. It evaluates the visual moist feeling that indicates.
  • the display unit 6 includes a display device such as an LCD, for example, and displays the evaluation result of the visual moisture feeling evaluated by the moisture feeling evaluation unit 5.
  • the operation unit 9 is for an operator to input information, and can be formed from a keyboard, a mouse, a trackball, a touch panel, and the like.
  • the control unit 8 controls each unit in the moisture feeling evaluation apparatus based on various command signals input from the operation unit 9 by the operator.
  • the color space conversion unit 3, the index calculation unit 4, the moisture feeling evaluation unit 5 and the control unit 8 are composed of a CPU and an operation program for causing the CPU to perform various processes. It may be configured. Further, a memory can be connected to the CPU via a signal line such as a bus. For example, a captured image input to the image input unit 1, a brightness component image and a color component image generated by the color space conversion unit 3 The image generated by the index calculating unit 4 and the visual moist feeling evaluation result calculated by the moist feeling evaluation unit 5 are respectively stored in the memory, and the image and visual moist feeling evaluation stored in the memory are stored. The result can be displayed on the display unit 6 under the control of the control unit 8.
  • the brightness / color index calculation unit 10 of the index calculation unit 4 includes a brightness calculation unit 12, a dullness calculation unit 13, a spot calculation unit 14, and a color connected to the color space conversion unit 3 and the moisture feeling evaluation unit 5, respectively.
  • An unevenness calculation unit 15 is included.
  • the brightness calculation unit 12 calculates the brightness of the skin as a brightness / color index. Specifically, the brightness calculation unit 12 sets the evaluation region R1 for the brightness component image generated by the color space conversion unit 3. The evaluation region R1 can be set, for example, on the entire face F or cheek portion of the subject. Subsequently, the brightness calculation unit 12 calculates, for example, an average value of brightness components in the evaluation region R1 as the brightness / color index.
  • the dullness calculation unit 13 calculates the amount of dullness in the skin as the brightness / color index.
  • the dull part occurs on the entire face, around the eyes, or on the cheeks.
  • the redness of the skin decreases, yellowing increases, the skin becomes glossy or clear, and the skin surface is uneven. This indicates that the brightness is lowered due to a shadow or the like, and the boundary looks unclear.
  • the dullness calculation unit 13 sets the evaluation region R2 for the brightness component image and the color component image generated by the color space conversion unit 3.
  • the evaluation region R2 is preferably set around the eyes where both brownishness and yellowishness tend to occur, and around the mouth where yellowishness tends to occur.
  • the dullness calculation unit 13 detects a dull portion from the evaluation region R2 based on the brightness value, the redness value, and the yellowness value, and, for example, the total area of the dull portion in the evaluation region R2, the evaluation region R2
  • the shading of the dull part based on the area ratio of the dull part or the intensity of the brightness with respect to is calculated as a brightness / color index.
  • the spot calculation unit 14 calculates the abundance of the spot part on the skin as the brightness / color index.
  • the spot portion is a portion in which the value of the brightness component or the value of the color component varies locally, for example, a size (maximum width or diameter) that is larger than 2 mm and smaller than 50 mm.
  • the spot calculation unit 14 sets the evaluation region R3 for the brightness component image and the color component image generated by the color space conversion unit 3.
  • the evaluation region R3 can be set, for example, on the entire face F or cheek portion of the subject.
  • the spot calculation unit 14 detects a spot part in which the value of the brightness component or the value of the color component locally changes from the evaluation region R3 based on the size, for example, the total of the spot parts in the evaluation region R3.
  • the area, the area ratio of the stain portion with respect to the evaluation region R3, the density of the stain portion based on the intensity of brightness, or the number of the stain portions in the evaluation region R3 is calculated as the brightness / color index.
  • the color unevenness calculation unit 15 calculates the existence amount of the color unevenness portion in the skin as the brightness / color index.
  • the uneven color portion indicates a state where the value of the brightness component or the value of the color component is locally changed, the size thereof is larger than the spot portion, and the boundary is unclearly distributed.
  • the color unevenness calculation unit 15 sets the evaluation region R4 for the brightness component image and the color component image generated by the color space conversion unit 3.
  • the evaluation region R4 can be set, for example, on the entire face F or cheek portion of the subject. Subsequently, the color unevenness calculation unit 15 detects from the evaluation region R4 a color unevenness portion in which the value of the brightness component or the value of the color component locally changes and the size thereof is larger than the stain portion.
  • the total area of the uneven color portion in R4, the area ratio of the uneven color portion relative to the evaluation region R4, the density of the uneven color portion based on the intensity of brightness, or the number of uneven color portions in the evaluation region R4 is calculated as the brightness / color index. To do.
  • the shape index calculation unit 11 of the index calculation unit 4 includes a wrinkle calculation unit 16, a pore calculation unit 17, and a contour depression amount calculation unit 18 connected to the color space conversion unit 3 and the moisture feeling evaluation unit 5, respectively.
  • the wrinkle calculation unit 16 calculates the amount of wrinkle portions in the skin as a shape index.
  • the wrinkle portion indicates a shape in which the value of the brightness component or the value of the color component changes locally and extends in a predetermined direction.
  • the wrinkle calculation unit 16 sets an evaluation region R5 extending from the nose to the mouth corner for the brightness component image generated by the color space conversion unit 3.
  • the wrinkle calculation unit 16 detects a wrinkle portion whose brightness decreases in the evaluation region R5. For example, the total area of the wrinkle portion in the evaluation region R5, the area ratio of the wrinkle portion with respect to the evaluation region R5, and the intensity of the brightness
  • the wrinkle density based on the above or the length of the wrinkle part in the evaluation region R5 is calculated as a shape index.
  • the pore calculation part 17 calculates the existence amount of the pore part in skin as a shape parameter
  • the pore portion indicates that the value of the brightness component or the value of the color component is locally changed and the size thereof is smaller than the spot portion.
  • the pore calculation unit 17 sets the evaluation region R6 for the brightness component image and the color component image generated by the color space conversion unit 3.
  • the evaluation region R6 can be set, for example, on the entire face F or cheek portion of the subject.
  • the pore calculation unit 17 detects, from the evaluation region R6, a pore portion whose brightness component value or color component value changes locally and whose size is smaller than the spot portion.
  • the total area of the pores, the area ratio of the pores with respect to the evaluation region R6, the density of the pores based on the intensity of brightness, or the number of pores in the evaluation region R6 is calculated as a shape index.
  • the contour depression amount calculation unit 18 detects a cheek contour shape extending from the ear of the subject's face to the mouth in the photographed image input to the image input unit 1, and calculates the depression amount generated in the cheek contour shape as a shape index.
  • a photographed image obtained by photographing the subject's face F with the camera C is input from the camera C to the preprocessing unit 2 via the image input unit 1 of the moisture evaluation device as shown in FIG. .
  • the captured image is subjected to preprocessing such as light source correction and noise removal, and then output from the preprocessing unit 2 to the color space conversion unit 3.
  • the color space of the captured image is converted by the color space conversion unit 3, for example, L * A color space conversion image is generated by converting to the a * b * color space.
  • the color space conversion unit 3 extracts a brightness component and a color component from the color space conversion image, and generates a brightness component image and a color component image, respectively.
  • an L * component image can be generated as a brightness component image
  • a C * component image, an a * component image, and a b * component image can be generated as color component images.
  • the color space conversion unit 3 sends the generated brightness component image and color component image to the brightness calculation unit 12, the dullness calculation unit 13, the spot calculation unit 14, and the color unevenness calculation unit 15 of the brightness / color index calculation unit 10, respectively. Output.
  • the brightness calculation unit 12 For the L * component image input from the color space conversion unit 3, the brightness calculation unit 12 sets an evaluation region R1 on the cheek portion of the subject's face F as shown in FIG. Subsequently, the brightness calculation unit 12 calculates an average value of the intensity of the L * component for the evaluation region R1 set in the L * component image.
  • the value of the L * component of the evaluation region R1 obtained by the brightness calculation unit 12 is considered to be an index that represents a change in the visual moisture feeling accompanying aging. Specifically, the higher the value of the L * component (brighter), the higher the visual moist feeling of the face F of the subject. Therefore, the average value of the L * component in the evaluation region R1 is output from the brightness calculation unit 12 to the moisture evaluation unit 5 as the brightness / color index.
  • the dullness calculation unit 13 sets an evaluation region R2 on the face F of the subject for the L * component image, the a * component image, and the b * component image input from the color space conversion unit 3, and the set evaluation region A dull part is detected from R2. Specifically, the dullness calculation unit 13 sets the evaluation region R2 in a region where a dull portion is likely to occur in the subject's face F, and sets the reference region R2a in a forehead region where a dull portion is unlikely to occur. For example, as shown in FIG. 5, the evaluation region R2 may be set around the eyes where both brown and yellow dullness are likely to occur, next to the nose where brown dullness is likely to occur, and around the mouth where yellowish dullness is likely to occur. it can. Further, the reference region R2a can be set in a range of about 1 cm 2 above the eyebrows.
  • the dullness calculation part 13 calculates
  • a ⁇ a * component image is generated by subtracting the average value of the components, and a ⁇ b * component image is generated by subtracting the average value of the b * component in the reference region R2a from the value of the b * component in the evaluation region R2.
  • the dullness calculation unit 13 detects a dull part from the evaluation region R2 of the ⁇ L * component image, the ⁇ a * component image, and the ⁇ b * component image based on a predetermined threshold set in advance. For example, when detecting brown dullness, a portion where the value of ⁇ L * component is less than ⁇ 5 and the value of ⁇ a * component exceeds 2.5 is detected as a dull portion, and when detecting yellowish dullness, A dull portion can be detected when the value of the ⁇ L * component is less than ⁇ 5 and the value of the ⁇ b * component exceeds 2.5.
  • the dullness calculation part 13 calculates the total area of the dull part detected in evaluation area
  • the dull part gives a dark impression when the face F of the subject is viewed as a whole.
  • the smaller the total area the higher the visual moist feeling of the face F of the subject.
  • the dullness calculation unit 13 outputs the calculated brightness / color index to the moisture feeling evaluation unit 5.
  • the spot calculation unit 14 sets an evaluation region R3 for the brightness component image or the color component image input from the color space conversion unit 3, and detects a spot portion from the evaluation region R3.
  • the evaluation region R3 can be set in the cheek portion of the subject's face F with respect to the L * component image.
  • the spot portion can be detected, for example, by generating a Dog image (Difference of Gaussian image). Specifically, a Dog image having a different Gaussian size is generated from the L * component image. Generally, the stain is 2 mm to 10 mm in size and has a frequency of 0.05 cycle / mm to 0.25 cycle / mm. Therefore, the spot calculation unit 14 performs Dog image processing so that a component having a spot frequency band is extracted. Further, during the Dog image processing, the shape of each component is calculated from the thresholded binarized image, and a component having a round shape and a circularity (4 ⁇ ⁇ area) / perimeter length 2 of 2 mm to 10 mm is stained. It can be detected as a part. Further, the spot portion may be detected by extracting a component in which the redness value and the yellowness value are smaller than a predetermined threshold set in the dull portion after performing the above-described Dog image processing.
  • a Dog image Difference of Gaussian image
  • a Dog image using not only the L * component image but also color component images such as an a * component image and a b * component image, and detect a spot portion in the same manner as described above.
  • a spot image can be detected by generating a Dog image using the B channel in the RGB color space.
  • the spot calculation unit 14 extracts, for example, a component having an intensity equal to or less than a predetermined threshold from the L * component image without generating a Dog image, and performs principal component analysis and independent component analysis on the extracted component. It is also possible to detect a spot portion by carrying out.
  • the spot calculation unit 14 calculates the total area of the spot portions detected in the evaluation region R3 as the brightness / color index.
  • the spot portion gives a dark impression when the face F of the subject is viewed as a whole.
  • the smaller the total area the higher the visual moist feeling of the face F of the subject.
  • the spot calculation unit 14 outputs the calculated brightness / color index to the moisture evaluation unit 5.
  • the color unevenness calculation unit 15 sets an evaluation region R4 for the brightness component image or color component image input from the color space conversion unit 3, and detects a color unevenness portion from the evaluation region R4.
  • the evaluation region R4 can be set in the cheek portion of the subject's face F with respect to the L * component image.
  • the uneven color portion can be detected by generating a Dog image in the same manner as the detection of the spot portion. That is, a Dog image having a different Gaussian size is generated from the L * component image.
  • the color unevenness has a size of about 10 mm or more and a frequency of 0.05 cycle / mm or more. Therefore, the color unevenness calculation unit 15 performs Dog image processing so that a component having a frequency band of color unevenness is extracted. Further, during this Dog image processing, the shape of each component is calculated from the threshold-processed binarized image, and a component having a round shape and a circularity (4 ⁇ ⁇ area) / perimeter length 2 of about 10 mm or more is colored. It can be detected as an uneven part.
  • the uneven color portion may be detected by extracting components whose redness value and yellowness value are smaller than a predetermined threshold set in the dull portion after performing the above-described Dog image processing.
  • the color unevenness calculation unit 15 calculates, for example, the total area of the color unevenness detected in the evaluation region R4 as the brightness / color index.
  • the uneven color portion gives a dark impression when the face F of the subject is viewed as a whole.
  • the smaller the total area the higher the visual moist feeling of the face F of the subject.
  • the color unevenness calculation unit 15 outputs the calculated brightness / color index to the moisture feeling evaluation unit 5.
  • the color space conversion unit 3 outputs the generated brightness component image or color component image to the wrinkle calculation unit 16 and the pore calculation unit 17 of the shape index calculation unit 11, and the captured image input to the image input unit 1. Is output to the contour depression amount calculation unit 18.
  • the wrinkle calculation unit 16 sets an evaluation region R5 extending from the nose to the mouth corner of the brightness component image or the color component image input from the color space conversion unit 3, and from the evaluation region R5 Detect wrinkles.
  • the wrinkle calculation unit 16 sets a reference region R5a around the evaluation region R5, and obtains an average value of L * components in the reference region R5a.
  • the wrinkle calculation unit 16 creates a ⁇ L * component image obtained by subtracting the average value of the L * component in the reference region R5a from the value of the L * component in the evaluation region R5, and based on a predetermined threshold set in advance.
  • a wrinkle portion is detected from the evaluation region R5 of the ⁇ L * component image. For example, a wrinkle portion can be detected when the value of the ⁇ L * component is less than 10 in the evaluation region R5.
  • the wrinkle calculation part 16 calculates the total area of the wrinkle part detected in evaluation area
  • the wrinkle portion detected in the evaluation region R5 is a so-called fringe line, and gives an impression as an uneven portion that produces a dark shadow when the subject's face F is viewed as a whole. The smaller the total area, the higher the visual moist feeling of the subject's face F.
  • the wrinkle calculation unit 16 outputs the calculated shape index to the moisture evaluation unit 5.
  • the pore calculation unit 17 sets an evaluation region R6 for the brightness component image or the color component image input from the color space conversion unit 3, and detects a pore portion from the evaluation region R6.
  • the evaluation region R6 can be set in the cheek portion of the subject's face F with respect to the L * component image.
  • the pore portion can be detected by generating a Dog image as in the case of detecting the spot portion. That is, a Dog image having a different Gaussian size is generated from the L * component image.
  • pores are 0.5 mm to 2 mm in size and have a frequency of 0.25 cycle / mm to 1.0 cycle / mm. Therefore, the pore calculation unit 17 performs Dog image processing so that a component having a frequency band of pores is extracted.
  • each component is calculated from the binarized image that has been threshold-processed, and the component has a round shape and a circularity (4 ⁇ ⁇ area) / perimeter length 2 of 0.5 mm to 2 mm.
  • the pore portion may be detected by extracting components whose redness value and yellowness value are smaller than a predetermined threshold set in the dull portion after performing the above-described Dog image processing.
  • the pore calculation part 17 calculates the total area of the pore part detected in evaluation area
  • the pore portion gives an impression as a concavo-convex portion that produces a dark shadow when the subject's face F is viewed as a whole.
  • the pore calculation unit 17 outputs the calculated shape index to the moisture evaluation unit 5.
  • the contour depression amount calculation unit 18 detects the cheek contour shape from the ear to the mouth in the captured image input from the color space conversion unit 3, and draws a straight line downward from the outermost position in the cheek contour shape. Then, the distance from the straight line to the cheek contour shape is calculated as the dent amount of the contour shape. Specifically, after detecting the contour of the subject's face F in the captured image, the contour depression amount calculation unit 18 starts from the horizontal line L1 passing through the center of both ears, as shown in FIGS. 7 (a) and (b). A plurality of horizontal lines are drawn at regular intervals to the horizontal line L2 passing through the mouth, and an intersection where each horizontal line intersects the contour is detected. Thereby, it is possible to detect the contour shape extending from the intersection P1 with the horizontal line L1 to the intersection P2 with the horizontal line L2, that is, the contour shape C of the cheek extending from the ear to the mouth.
  • FIG. 7A shows the contour shape C of the subject's cheek with a high visual moisture feeling
  • FIG. 7B shows the contour shape C of the subject's cheek with a low visual moisture feeling.
  • the cheek contour shape C of the subject having a low visual moisture feeling is recessed inwardly with respect to the cheek contour shape C of the subject having a high visual moisture feeling.
  • FIG. 8 shows a comparison of the cheek contour C of the subject with a high visual moist feeling and the cheek contour C of the subject with a low visual moist feeling.
  • FIG. 8 shows the contour shape C of the cheek by plotting the intersection where each horizontal line intersects the contour, with the horizontal axis as the horizontal position and the vertical axis as the height position.
  • the cheek contour shape C of the subject with high is indicated by “ ⁇ ”
  • the cheek contour shape C of the subject with low visual moisture feeling is indicated by “ ⁇ ”. From this, it can be seen that the cheek contour shape C of the subject with a low visual moisture feeling is recessed inwardly with respect to the cheek contour shape C of the subject with a high visual moisture feeling.
  • the contour shape C of the cheeks is soaked, that is, indented inward with aging. It is considered that the depression of the cheek contour shape C gives an impression as an uneven portion that produces a dark shadow when the subject's face F is viewed as a whole, and is a factor that reduces the visual moist feeling. .
  • the contour depression amount calculation unit 18 calculates the depression amount of the detected cheek contour shape C. For example, as shown in FIGS. 7A and 7B, a perpendicular line S is drawn downward from the intersection P1 in a direction perpendicular to the horizontal line L1, and the distance D from the perpendicular S to each intersection is set respectively. calculate. And the sum total of the distance D from the perpendicular S to each intersection can be made into the hollow amount of the outline shape C of a cheek. Note that the contour shape of the chin located below the mouth is greatly affected by the skeleton and so on, so that the cheek cavities associated with aging are reliably reflected in the contour shape C of the cheek extending from the ear to the mouth. It is preferable to calculate the amount of depression. As described above, the depression of the cheek outline C is such that the smaller the amount of depression, the higher the visual moist feeling of the face F of the subject. The contour depression amount calculation unit 18 outputs the calculated depression amount of the contour shape C of the cheek to the moisture evaluation unit 5.
  • the brightness / color index calculated by the brightness calculation unit 12, the dullness calculation unit 13, the spot calculation unit 14 and the color unevenness calculation unit 15 of the brightness / color index calculation unit 10 is a moisture feeling evaluation unit. 5
  • the shape index calculated by the wrinkle calculation unit 16, the pore calculation unit 17, and the contour depression amount calculation unit 18 of the shape index calculation unit 11 are input to the moisture evaluation unit 5.
  • the moisture feeling evaluation unit 5 refers to the reference value database 7 based on the input brightness / color index value and shape index value.
  • the reference value of the visual moist feeling obtained by performing sensory evaluation in advance is a linear sum of brightness / color index values and shape index values using a multiple regression equation or the like. Stored for the overall index. Therefore, the moisture evaluation unit 5 refers to the reference value database 7 and obtains a reference value of the visual moisture according to the value of the brightness / color index and the shape index input from the index calculation unit 4. Based on this reference value, the visual moist feeling of the face F of the subject is evaluated. The evaluation result of the visual moisture feeling obtained by the moisture feeling evaluation unit 5 is output and displayed on the display unit 6.
  • each physical characteristic of the visual moist feeling over the entire face F of the subject is evaluated in a composite manner, an evaluation close to a sense when the subject's face F is viewed as a whole can be performed.
  • the visual moisture feeling can be evaluated with high accuracy.
  • the evaluation of the visual moisture feeling as described above can be executed by causing a computer including an input means, a CPU, a memory, and the like to function by a moisture feeling evaluation program. That is, when the moist feeling evaluation program causes the computer to function, the image input unit 1 acquires a captured image obtained by capturing the face of the subject, and based on the acquired captured image, the CPU performs the preprocessing unit 2, the color.
  • the space conversion unit 3, the index calculation unit 4, and the moisture feeling evaluation unit 5 are executed to evaluate the visual moisture feeling of the face of the subject.
  • the dullness calculation unit 13 detects a dull portion based on a predetermined threshold set in advance for each of the ⁇ L * component, the ⁇ a * component, and the ⁇ b * component.
  • the detection is not limited to this as long as it can be detected.
  • the dull portion can be detected using a statistical analysis method such as linear discriminant analysis.
  • FIG. 9 shows the result of plotting the value of the ⁇ L * component against the value of the ⁇ a * component for the non-dull portion in the reference region R2a, the brown dull portion in the evaluation region R2, and the yellow dull portion in the evaluation region R2.
  • the non-dull part is indicated by “ ⁇ ”
  • the brown part is indicated by “ ⁇ ”
  • the yellowish part is indicated by “ ⁇ ”.
  • the non-dull part, the brown dull part and the yellow dull part can be separated with an accuracy of about 95% by the discriminant function N. This shows that a dull part can be detected with high accuracy using linear discriminant analysis.
  • FIG. 10 shows the result of plotting the value of the ⁇ L * component against the value of the ⁇ b * component for the non-dull portion in the reference region R2a, the brown dull portion in the evaluation region R2, and the yellow dull portion in the evaluation region R2.
  • the non-dull part is indicated by “ ⁇ ”
  • the brown part is indicated by “ ⁇ ”
  • the yellowish part is indicated by “ ⁇ ”.
  • a dull portion can be detected with high accuracy using linear discriminant analysis.
  • the captured image is input from the camera C connected to the image input unit 1.
  • the captured image is not limited to this as long as the captured image can be input.
  • a captured image can be input to the image input unit 1 via a network from a computer that stores the captured image.
  • the moisture evaluation device evaluates a visual moisture feeling based on a photographed image input from a computer, and stores the evaluation result in a server or the like. Thereby, the user can browse the evaluation result of the visual moisture feeling by accessing the server, or can obtain the evaluation result of the visual moisture feeling from the server via the network.
  • FIG. 11 shows a graph in which the values of the overall index calculated by linearly summing the brightness / color index and the shape index obtained using the moisture feeling evaluation apparatus are plotted against the sensory evaluation value.
  • the sensory evaluation value is an average value obtained by evaluating the visual moist feeling in five stages according to the sensory evaluation of three observers, and is evaluated as having a visual moist feeling as the value approaches 5. It is.
  • the correlation coefficient R 2 was 0.79.
  • each physical characteristic of the visual moist feeling over the entire face F of the subject is evaluated in a complex manner, so that the correlation with the sensory evaluation of the entire face F of the subject becomes very high, and the visual It can be seen that the moisture feeling can be evaluated with high accuracy.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dermatology (AREA)
  • Physiology (AREA)
  • Endocrinology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 本発明に係るうるおい感評価装置は、画像入力部1が被験者の顔Fを正面から撮影した撮影画像を入力し、画像入力部1に入力された撮影画像から明るさ・色指標算出部10が肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、明るさ・色成分の値に基づいて明るさ・色指標を算出し、画像入力部1に入力された撮影画像から形状指標算出部11が肌の凹凸部分を検出して、凹凸部分の存在量に基づいて形状指標を算出し、うるおい感評価部5が明るさ・色指標と形状指標に基づいて被験者の顔Fの視覚的うるおい感を評価する。

Description

うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラム
 この発明は、うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラムに係り、特に、被験者の顔を撮影した撮影画像に基づいてうるおい感を評価するうるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラムに関する。
 近年、美容分野において、肌のうるおい感を評価する様々な方法が提案されている。一般的に、うるおい感のある肌とは、水分を含んでいるように見えるみずみずしい肌を示すが、単に肌の水分量などを測定して肌のうるおい感を評価しても、実際に観察者が肌を見て評価した官能評価との間に高い相関を得ることができなかった。そこで、官能評価との相関が高い評価方法が求められている。
 このような、うるおい感の評価方法としては、例えば、特許文献1に開示されているように、ヒトの皮膚の表面における、平均摩擦係数及び/又は平均摩擦係数の変動係数と、皮膚の状態を表す官能指標とを関連付けて皮膚のうるおい感を評価する、皮膚の状態の評価方法が提案されている。
特開2003-024282号公報
 しかしながら、特許文献1の評価方法は、肌の部分的な物理特性に基づいてうるおい感を評価するものであり、肌を部分的に観察する官能評価に対しては高い相関が得られるものの肌全体を見たときのうるおい感(視覚的うるおい感)を評価する官能評価に対しては高い相関が得られなかった。実際に肌を見てうるおい感を評価するときには、肌全体を見て視覚的うるおい感を評価しており、実際に肌を見たときのうるおい感の感覚と大きく異なる評価結果となっていた。特に、顔は、位置によって肌の状態が複雑に変化しており、一部分だけの評価または1種類だけの物理特性から、実際に肌を見たときのうるおい感の感覚と相関が高い評価結果を得ることは困難である。
 この発明は、このような従来の問題点を解消するためになされたもので、顔の視覚的うるおい感を高精度に評価することができるうるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラムを提供することを目的とする。
 この発明に係るうるおい感評価装置は、被験者の顔を正面から撮影した撮影画像を入力する画像入力部と、画像入力部に入力された撮影画像から肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、明るさ・色成分の値に基づいて明るさ・色指標を算出する明るさ・色指標算出部と、画像入力部に入力された撮影画像から肌の凹凸部分を検出し、凹凸部分の存在量に基づいて形状指標を算出する形状指標算出部と、明るさ・色指標と形状指標に基づいて被験者の顔の視覚的うるおい感を評価するうるおい感評価部とを有するものである。
 ここで、明るさ・色指標算出部は、肌の明るさを算出する明るさ算出部と、肌におけるくすみ部分の存在量を算出するくすみ算出部と、肌におけるシミ部分の存在量を算出するシミ算出部と、肌における色むら部分の存在量を算出する色むら算出部とを有し、形状指標算出部は、肌におけるシワ部分の存在量を算出するシワ算出部と、肌における毛穴部分の存在量を算出する毛穴算出部と、耳から口にわたる頬輪郭形状に生じた窪み量を算出する輪郭窪み量算出部とを有することが好ましい。
 また、明るさ算出部は、撮影画像に第1の評価領域を設定して、第1の評価領域における明るさの平均値を肌の明るさとして算出し、くすみ算出部は、撮影画像に第2の評価領域を設定して、明るさの値、赤みの値および黄みの値に基づいて第2の評価領域からくすみ部分を検出し、くすみ部分の総面積、第2の評価領域に対するくすみ部分の面積率またはくすみ部分の濃淡をくすみ部分の存在量として算出し、シミ算出部は、撮影画像に第3の評価領域を設定して、明るさ成分の値または色成分の値が局所的に変化するシミ部分を大きさに基づいて第3の評価領域から検出し、シミ部分の総面積、第3の評価領域に対するシミ部分の面積率、シミ部分の濃淡または第3の評価領域におけるシミ部分の個数をシミ部分の存在量として算出し、色むら算出部は、撮影画像に第4の評価領域を設定して、明るさ成分の値または色成分の値が局所的に変化し且つシミ部分より大きい色むら部分を第4の評価領域から検出し、色むら部分の総面積、第4の評価領域に対する色むら部分の面積率、色むら部分の濃淡または第4の評価領域における色むら部分の個数を色むら部分の存在量として算出することが好ましい。
 また、シワ算出部は、撮影画像において小鼻から口角に延びる第5の評価領域を設定して、第5の評価領域において明るさが低下するシワ部分を検出し、シワ部分の総面積、第5の評価領域に対するシワ部分の面積率、シワ部分の濃淡またはシワ部分の長さをシワ部分の存在量として算出し、毛穴算出部は、撮影画像に第6の評価領域を設定して、明るさ成分の値または色成分の値が局所的に変化し且つシミ部分より小さい毛穴部分を第6の評価領域から検出し、毛穴部分の総面積、第6の評価領域に対する毛穴部分の面積率、毛穴部分の濃淡または第6の評価領域における毛穴部分の個数を毛穴部分の存在量として算出し、輪郭窪み量算出部は、撮影画像において頬輪郭形状を検出し、頬輪郭形状において最も外側位置する部分から下方に向かって直線を引き、直線から頬輪郭形状までの距離を窪み量として算出することが好ましい。
 また、うるおい感評価部は、明るさ・色成分の値と凹凸部分の存在量がそれぞれ異なる被験者の顔を目視評価することにより予め求められた視覚的うるおい感の基準値(目視評価値)に相当する、明るさ・色指標と形状指標の線形和に基づいた視覚的うるおい感を評価することができる。
 また、基準値に対する明るさ・色指標と形状指標の線形和を算出するための各係数を格納するデータベースをさらに備え、うるおい感評価部は、明るさ・色指標算出部で算出された明るさ・色指標の値と形状指標算出部で算出された形状指標の値とに基づいてデータベースを参照することにより視覚的うるおい感の評価値を求めることが好ましい。
 この発明に係るうるおい感評価方法は、被験者の顔を撮影した撮影画像を入力し、撮影画像から肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、明るさ・色成分の値に基づいて明るさ・色指標を算出し、撮影画像から肌の凹凸部分を検出し、凹凸部分の存在量に基づいて形状指標を算出し、明るさ・色指標と形状指標に基づいて被験者の顔の視覚的うるおい感を評価するものである。
 この発明に係るうるおい感評価プログラムは、被験者の顔を撮影した撮影画像を入力するステップと、撮影画像から肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、明るさ・色成分の値に基づいて明るさ・色指標を算出するステップと、撮影画像から肌の凹凸部分を検出し、凹凸部分の存在量に基づいて形状指標を算出するステップと、明るさ・色指標と形状指標に基づいて被験者の顔の視覚的うるおい感を評価するステップとをコンピュータに実行させるものである。
 この発明によれば、明るさ・色成分の値に基づいて算出された明るさ・色指標と凹凸部分の存在量に基づいて算出された形状指標とに基づいて被験者の顔の視覚的うるおい感を評価するので、顔の視覚的うるおい感を高精度に評価することが可能となる。
この発明に係るうるおい感評価装置の構成を示すブロック図である。 明るさ・色指標算出部の構成を示すブロック図である。 形状指標算出部の構成を示すブロック図である。 明るさ算出部において被験者の顔に設定される評価領域を示す図である。 くすみ算出部において被験者の顔に設定される評価領域を示す図である。 シワ算出部において被験者の顔に設定される評価領域を示す図である。 輪郭窪み量算出部において被験者の頬輪郭形状の窪み量を算出する様子を示す図である。 輪郭窪み量算出部において検出された被験者の頬輪郭形状を示す図である。 線形判別分析を用いてくすみ部分を検出する方法を示す図である。 線形判別分析を用いてくすみ部分を検出する他の方法を示す図である。 視覚的うるおい感を評価するための総合指標の値と官能評価値との相関を求めた図である。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
 図1に、この発明の実施の形態に係るうるおい感評価装置の構成を示す。うるおい感評価装置は、被験者の顔Fを正面からカメラCで撮影した撮影画像を用いて被験者の顔Fの視覚的うるおい感を評価するもので、カメラCに接続される画像入力部1を備え、この画像入力部1に前処理部2、色空間変換部3、指標算出部4、うるおい感評価部5および表示部6が順次接続されている。また、うるおい感評価部5には、基準値データベース7が接続されている。さらに、色空間変換部3、指標算出部4およびうるおい感評価部5には制御部8が接続され、この制御部8に操作部9が接続されている。
 画像入力部1は、被験者の顔Fを撮影したカメラCから撮影画像を入力する。
 ここで、撮影画像は、被験者の顔Fの両方の耳が写るように被験者の顔Fを正面から撮影したものが好ましい。また、カメラCから入力される撮影画像は、RGB色空間を有するものとする。カメラCは、被験者の顔Fを撮影できるものであればよく、例えば、デジタルカメラおよびCCDカメラなどを用いることができ、スマートフォンなどの携帯電話で撮影した撮影画像を用いることもできる。
 前処理部2は、画像入力部1から入力される撮影画像に対して、光量補正およびノイズ除去などの前処理を施す。
 色空間変換部3は、前処理部2から入力される撮影画像の色空間を変換して色空間変換画像を生成する。色空間変換画像としては、例えば、L色空間、LCH色空間、またはYCC色空間などに変換した画像を用いることができる。L色空間に変換する場合には、計算光源としてD65光源を用いることができる。そして、色空間変換部3は、生成した色空間変換画像を明るさ成分(輝度成分)と色成分に分けて明るさ成分画像と色成分画像をそれぞれ生成する。具体的には、L色空間を有する色空間変換画像であれば、明るさ成分はL成分を示し、色成分はa成分(赤と緑に対応した補色成分)、b成分(黄色と青に対応した補色成分)、C成分(彩度成分)およびHue成分(色相成分)などを示すものである。
 指標算出部4は、色空間変換部3にそれぞれ接続される明るさ・色指標算出部10と形状指標算出部11とを有する。
 明るさ・色指標算出部10は、色空間変換部3から明るさ成分画像と色成分画像がそれぞれ入力され、明るさ成分画像および色成分画像から肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、この明るさ・色成分の値に基づいて視覚的うるおい感を評価するための明るさ・色指標を算出する。
 形状指標算出部11は、色空間変換部3から明るさ成分画像、色成分画像および画像入力部1に入力された撮影画像がそれぞれ入力され、明るさ成分画像、色成分画像および撮影画像から肌の凹凸部分を検出し、この凹凸部分の存在量に基づいて視覚的うるおい感を評価するための形状指標を算出する。
 明るさ・色指標算出部10および形状指標算出部11は、それぞれ算出した明るさ・色指標および形状指標をうるおい感評価部5に出力する。
 基準値データベース7は、明るさ・色成分の値と凹凸部分の存在量がそれぞれ異なる複数の被験者の顔を目視評価することにより予め求められた、明るさ・色指標の値と、形状指標の値と、視覚的うるおい感の基準値との関係を格納する。例えば、明るさ・色指標の値と形状指標の値の線形和を求めて、この線形和に対する視覚的うるおい感の基準値を示す関数を格納することができる。
 うるおい感評価部5は、明るさ・色指標と形状指標に基づいて被験者の顔の視覚的うるおい感を評価する。
 具体的には、明るさ・色指標算出部10で算出された明るさ・色指標の値と、形状指標算出部11で算出された形状指標の値とに基づいて、基準値データベース7を参照することにより視覚的うるおい感の評価値を求める。例えば、うるおい感評価部5は、基準値データベース7に格納された明るさ・色指標の値と形状指標の値の線形和に対する視覚的うるおい感の基準値を示す関数に基づいて、視覚的うるおい感の評価を求めることができる。
 ここで、うるおい感とは、張りおよび透明感があり且つ水分を含んでいるように見える、いわゆるみずみずしい肌を示し、うるおい感評価部5は、被験者の顔F全体を見たときに感じるうるおい感を示す視覚的うるおい感について評価するものである。
 表示部6は、例えば、LCD等のディスプレイ装置を含んでおり、うるおい感評価部5で評価された視覚的うるおい感の評価結果を表示する。
 操作部9は、操作者が情報の入力操作を行うためのもので、キーボード、マウス、トラックボール、タッチパネル等から形成することができる。
 制御部8は、操作者により操作部9から入力された各種の指令信号等に基づいて、うるおい感評価装置内の各部の制御を行うものである。
 なお、色空間変換部3、指標算出部4、うるおい感評価部5および制御部8は、CPUと、CPUに各種の処理を行わせるための動作プログラムから構成されるが、それらをデジタル回路で構成してもよい。また、CPUにバスなどの信号線を介してメモリを接続することができ、例えば、画像入力部1に入力された撮影画像、色空間変換部3で生成された明るさ成分画像と色成分画像、指標算出部4で生成された画像、およびうるおい感評価部5で算出された視覚的うるおい感の評価結果などをメモリにそれぞれ格納し、このメモリに格納された画像および視覚的うるおい感の評価結果を制御部8の制御の下で表示部6に表示させることができる。
 次に、指標算出部4の明るさ・色指標算出部10について詳細に説明する。
 図2に示すように、明るさ・色指標算出部10は、色空間変換部3とうるおい感評価部5にそれぞれ接続された明るさ算出部12、くすみ算出部13、シミ算出部14および色むら算出部15を有する。
 明るさ算出部12は、明るさ・色指標として肌の明るさを算出するものである。具体的には、明るさ算出部12は、色空間変換部3で生成された明るさ成分画像に対して評価領域R1を設定する。評価領域R1は、例えば被験者の顔F全体または頬部分に設定することができる。続いて、明るさ算出部12は、明るさ・色指標として、例えば、評価領域R1における明るさ成分の平均値を算出する。
 くすみ算出部13は、明るさ・色指標として肌におけるくすみ部分の存在量を算出するものである。ここで、くすみ部分とは、顔全体、目の周りまたは頬などに生じ、具体的には、肌の赤みが減少して黄みが増すと共に肌のつやまたは透明感の減少および皮膚表面の凹凸による影などにより明度が低下して暗く見える状態で、その境界が不明瞭であるものを示す。
 具体的には、くすみ算出部13は、色空間変換部3で生成された明るさ成分画像および色成分画像に対して、評価領域R2を設定する。評価領域R2は、茶くすみおよび黄くすみが共に生じ易い目の周り、黄くすみが生じやすい口の周りに設定するのが好ましい。続いて、くすみ算出部13は、明るさの値、赤みの値および黄みの値に基づいて評価領域R2からくすみ部分を検出し、例えば、評価領域R2におけるくすみ部分の総面積、評価領域R2に対するくすみ部分の面積率または明るさの強度に基づくくすみ部分の濃淡を明るさ・色指標として算出する。
 シミ算出部14は、明るさ・色指標として肌におけるシミ部分の存在量を算出するものである。ここで、シミ部分とは、明るさ成分の値または色成分の値が局所的に変化するものであり、例えば、大きさ(最大幅または直径)が2mmより大きく50mmより小さいものを示す。
 具体的には、シミ算出部14は、色空間変換部3で生成された明るさ成分画像および色成分画像に対して、評価領域R3を設定する。評価領域R3は、例えば被験者の顔F全体または頬部分に設定することができる。続いて、シミ算出部14は、明るさ成分の値または色成分の値が局所的に変化するシミ部分を大きさに基づいて評価領域R3から検出し、例えば、評価領域R3におけるシミ部分の総面積、評価領域R3に対するシミ部分の面積率、明るさの強度に基づくシミ部分の濃淡、または評価領域R3におけるシミ部分の個数を明るさ・色指標として算出する。
 色むら算出部15は、明るさ・色指標として肌における色むら部分の存在量を算出するものである。ここで、色むら部分とは、明るさ成分の値または色成分の値が局所的に変化し且つその大きさがシミ部分より大きく、さらに境界が不明瞭に分布している状態のものを示す。
 具体的には、色むら算出部15は、色空間変換部3で生成された明るさ成分画像および色成分画像に対して、評価領域R4を設定する。評価領域R4は、例えば被験者の顔F全体または頬部分に設定することができる。続いて、色むら算出部15は、明るさ成分の値または色成分の値が局所的に変化し且つその大きさがシミ部分より大きい色むら部分を評価領域R4から検出し、例えば、評価領域R4における色むら部分の総面積、評価領域R4に対する色むら部分の面積率、明るさの強度に基づく色むら部分の濃淡、または評価領域R4における色むら部分の個数を明るさ・色指標として算出する。
 次に、指標算出部4の形状指標算出部11について詳細に説明する。
 図3に示すように、形状指標算出部11は、色空間変換部3とうるおい感評価部5にそれぞれ接続されたシワ算出部16、毛穴算出部17および輪郭窪み量算出部18を有する。
 シワ算出部16は、形状指標として肌におけるシワ部分の存在量を算出するものである。ここで、シワ部分とは、明るさ成分の値または色成分の値が局所的に変化し且つ所定の方向に細長く延びる形状を有するものを示す。
 具体的には、シワ算出部16は、色空間変換部3で生成された明るさ成分画像に対して、小鼻から口角に延びる評価領域R5を設定する。続いて、シワ算出部16は、評価領域R5において明るさが低下するシワ部分を検出し、例えば、評価領域R5におけるシワ部分の総面積、評価領域R5に対するシワ部分の面積率、明るさの強度に基づくシワ部分の濃淡、または評価領域R5におけるシワ部分の長さを形状指標として算出する。
 毛穴算出部17は、形状指標として肌における毛穴部分の存在量を算出するものである。ここで、毛穴部分とは、明るさ成分の値または色成分の値が局所的に変化し且つその大きさがシミ部分より小さいものを示す。
 具体的には、毛穴算出部17は、色空間変換部3で生成された明るさ成分画像および色成分画像に対して、評価領域R6を設定する。評価領域R6は、例えば被験者の顔F全体または頬部分に設定することができる。続いて、毛穴算出部17は、明るさ成分の値または色成分の値が局所的に変化し且つその大きさがシミ部分より小さい毛穴部分を評価領域R6から検出し、例えば、評価領域R6における毛穴部分の総面積、評価領域R6に対する毛穴部分の面積率、明るさの強度に基づく毛穴部分の濃淡、または評価領域R6における毛穴部分の個数を形状指標として算出する。
 輪郭窪み量算出部18は、画像入力部1に入力された撮影画像において、被験者の顔の耳から口にわたる頬輪郭形状を検出し、頬輪郭形状に生じた窪み量を形状指標として算出する。
 次に、この実施の形態の動作について説明する。
 まず、被験者の顔FをカメラCで撮影して得られた撮影画像が、図1に示すように、カメラCからうるおい感評価装置の画像入力部1を介して前処理部2に入力される。撮影画像は、光源補正およびノイズ除去などの前処理が施された後、前処理部2から色空間変換部3に出力され、その撮影画像の色空間が色空間変換部3により、例えばL色空間に変換されて色空間変換画像が生成される。そして、色空間変換部3は、色空間変換画像から明るさ成分と色成分を抽出し、明るさ成分画像と色成分画像をそれぞれ生成する。例えば、明るさ成分画像としてL成分画像を生成することができ、色成分画像としてC成分画像、a成分画像およびb成分画像を生成することができる。
 色空間変換部3は、生成した明るさ成分画像と色成分画像を明るさ・色指標算出部10の明るさ算出部12、くすみ算出部13、シミ算出部14および色むら算出部15にそれぞれ出力する。
 明るさ算出部12は、色空間変換部3から入力されたL成分画像に対して、図4に示すように、被験者の顔Fの頬部分に評価領域R1を設定する。続いて、明るさ算出部12は、L成分画像に設定された評価領域R1についてL成分の強度の平均値を求める。
 一般的に、若い人の肌は色が白くて明るいのに対し、加齢に伴って肌が全体的に黄色みを帯びて暗くなり、肌の視覚的うるおい感が全体的に減少していくことが知られている。このため、明るさ算出部12で求められる評価領域R1のL成分の値は、加齢に伴う視覚的うるおい感の変化を表す指標となるものと考えられる。具体的には、L成分の値が高い(明るい)ほど、被験者の顔Fの視覚的うるおい感は高く感じられるものである。そこで、評価領域R1におけるL成分の平均値を明るさ・色指標として明るさ算出部12からうるおい感評価部5に出力する。
 くすみ算出部13は、色空間変換部3から入力されたL成分画像、a成分画像およびb成分画像に対して、被験者の顔Fに評価領域R2を設定し、設定された評価領域R2からくすみ部分を検出する。
 具体的には、くすみ算出部13は、被験者の顔Fにおいてくすみ部分が発生し易い領域に評価領域R2を設定すると共にくすみ部分が発生しにくい額領域に基準領域R2aを設定する。評価領域R2は、例えば、図5に示すように、茶くすみおよび黄くすみが共に生じやすい目の周り、茶くすみが生じやすい小鼻の横、および黄くすみが生じやすい口の周りに設定することができる。また、基準領域R2aは、眉間の上側に約1cm程度の範囲で設定することができる。
 くすみ算出部13は、基準領域R2aについて、L成分の平均値、a成分の平均値およびb成分の平均値を求める。そして、評価領域R2におけるL成分の値から基準領域R2aにおけるL成分の平均値を減算したΔL成分画像を作成すると共に、評価領域R2におけるa成分の値から基準領域R2aにおけるa成分の平均値を減算したΔa成分画像を作成し、さらに評価領域R2におけるb成分の値から基準領域R2aにおけるb成分の平均値を減算したΔb成分画像を作成する。
 続いて、くすみ算出部13は、予め設定された所定の閾値に基づいて、ΔL成分画像、Δa成分画像およびΔb成分画像の評価領域R2からくすみ部分を検出する。例えば、茶くすみを検出する場合には、ΔL成分の値が-5未満で且つΔa成分の値が2.5を超えるものをくすみ部分として検出し、黄くすみを検出する場合には、ΔL成分の値が-5未満で且つΔb成分の値が2.5を超えるものをくすみ部分として検出することができる。
 そして、くすみ算出部13は、例えば、評価領域R2において検出されたくすみ部分の総面積を明るさ・色指標として算出する。ここで、くすみ部分は、被験者の顔Fを全体的に見たときに暗い印象を与えるものであり、その総面積が小さいほど被験者の顔Fの視覚的うるおい感が高く感じられる。
 くすみ算出部13は、算出した明るさ・色指標をうるおい感評価部5に出力する。
 シミ算出部14は、色空間変換部3から入力された明るさ成分画像または色成分画像に対して評価領域R3を設定し、評価領域R3からシミ部分を検出する。例えば、L成分画像に対して被験者の顔Fの頬部分に評価領域R3を設定することができる。
 ここで、シミ部分は、例えば、Dog画像(Difference of Gaussian画像)を生成することにより検出することができる。具体的には、L成分画像からガウシアンの大きさが異なるDog画像を生成する。一般的に、シミは2mm~10mmの大きさで且つ0.05cycle/mm~0.25cycle/mmの周波数を有する。そこで、シミ算出部14は、シミの周波数帯域を有する成分が抽出されるようにDog画像処理を行う。さらに、このDog画像処理の際に、閾値処理した2値化画像から各成分の形状を算出し、丸い形状で且つその円形度(4π×面積)/周囲長が2mm~10mmの成分をシミ部分として検出することができる。
 また、シミ部分は、上述したDog画像処理を行った後に、さらに赤みの値および黄みの値がくすみ部分で設定された所定の閾値より小さい成分を抽出することで検出してもよい。
 なお、L成分画像だけでなく、a成分画像およびb成分画像などの色成分画像を用いてDog画像を生成し、上記と同様にして、シミ部分を検出することもできる。また、RGB色空間のBチャネルを用いてDog画像を生成して、シミ部分を検出することもできる。
 また、シミ算出部14は、Dog画像を生成することなく、例えば、L成分画像から所定の閾値以下の強度を有する成分を抽出し、抽出された成分について主成分分析および独立成分分析などを実施することによりシミ部分を検出することもできる。
 そして、シミ算出部14は、例えば、評価領域R3において検出されたシミ部分の総面積を明るさ・色指標として算出する。ここで、シミ部分は、被験者の顔Fを全体的に見たときに暗い印象を与えるものであり、その総面積が小さいほど被験者の顔Fの視覚的うるおい感が高く感じられる。
 シミ算出部14は、算出した明るさ・色指標をうるおい感評価部5に出力する。
 色むら算出部15は、色空間変換部3から入力された明るさ成分画像または色成分画像に対して評価領域R4を設定し、評価領域R4から色むら部分を検出する。例えば、L成分画像に対して被験者の顔Fの頬部分に評価領域R4を設定することができる。
 ここで、色むら部分は、シミ部分の検出と同様にして、Dog画像を生成することにより検出することができる。すなわち、L成分画像からガウシアンの大きさが異なるDog画像を生成する。一般的に、色むらは、約10mm以上の大きさで且つ0.05cycle/mm以上の周波数を有する。そこで、色むら算出部15は、色むらの周波数帯域を有する成分が抽出されるようにDog画像処理を行う。さらに、このDog画像処理の際に、閾値処理した2値化画像から各成分の形状を算出し、丸い形状で且つその円形度(4π×面積)/周囲長が約10mm以上の成分を色むら部分として検出することができる。
 また、色むら部分は、上述したDog画像処理を行った後に、さらに赤みの値および黄みの値がくすみ部分で設定された所定の閾値より小さい成分を抽出することで検出してもよい。
 なお、L成分画像だけでなく、a成分画像およびb成分画像などの色成分画像を用いてDog画像を生成し、上記と同様にして、色むら部分を検出することもできる。また、RGB色空間のBチャネルを用いてDog画像を生成して、色むら部分を検出することもできる。
 そして、色むら算出部15は、例えば、評価領域R4において検出された色むら部分の総面積を明るさ・色指標として算出する。ここで、色むら部分は、被験者の顔Fを全体的に見たときに暗い印象を与えるものであり、その総面積が小さいほど被験者の顔Fの視覚的うるおい感が高く感じられる。
 色むら算出部15は、算出した明るさ・色指標をうるおい感評価部5に出力する。
 また、色空間変換部3は、生成した明るさ成分画像または色成分画像を形状指標算出部11のシワ算出部16および毛穴算出部17に出力すると共に、画像入力部1に入力された撮影画像を輪郭窪み量算出部18に出力する。
 シワ算出部16は、色空間変換部3から入力された明るさ成分画像または色成分画像に対して、図6に示すように、小鼻から口角に延びる評価領域R5を設定し、評価領域R5からシワ部分を検出する。また、シワ算出部16は、評価領域R5の周辺に基準領域R5aを設定し、基準領域R5aにおけるL成分の平均値を求める。
 続いて、シワ算出部16は、評価領域R5におけるL成分の値から基準領域R5aのL成分の平均値を減算したΔL成分画像を作成し、予め設定された所定の閾値に基づいてΔL成分画像の評価領域R5からシワ部分を検出する。例えば、評価領域R5においてΔL成分の値が10未満となるものをシワ部分として検出することができる。
 そして、シワ算出部16は、例えば、評価領域R5において検出されたシワ部分の総面積を形状指標として算出する。ここで、評価領域R5において検出されるシワ部分は、いわゆるほうれい線であり、被験者の顔Fを全体的に見たときに、暗い影を生じる凹凸部分としての印象を与えるものであり、その総面積が小さいほど被験者の顔Fの視覚的うるおい感が高く感じられる。
 シワ算出部16は、算出した形状指標をうるおい感評価部5に出力する。
 毛穴算出部17は、色空間変換部3から入力された明るさ成分画像または色成分画像に対して評価領域R6を設定し、評価領域R6から毛穴部分を検出する。例えば、L成分画像に対して被験者の顔Fの頬部分に評価領域R6を設定することができる。
 ここで、毛穴部分は、シミ部分を検出する場合と同様に、Dog画像を生成することにより検出することができる。すなわち、L成分画像からガウシアンの大きさが異なるDog画像を生成する。一般的に、毛穴は0.5mm~2mmの大きさで且つ0.25cycle/mm~1.0cycle/mmの周波数を有する。そこで、毛穴算出部17は、毛穴の周波数帯域を有する成分が抽出されるようにDog画像処理を行う。さらに、このDog画像処理の際に、閾値処理した2値化画像から各成分の形状を算出し、丸い形状で且つその円形度(4π×面積)/周囲長が0.5mm~2mmの成分を毛穴部分として検出することができる。
 また、毛穴部分は、上述したDog画像処理を行った後に、さらに赤みの値および黄みの値がくすみ部分で設定された所定の閾値より小さい成分を抽出することで検出してもよい。
 なお、L成分画像だけでなく、a成分画像およびb成分画像などの色成分画像を用いてDog画像を生成し、上記と同様にして、毛穴部分を検出することもできる。また、RGB色空間のBチャネルを用いてDog画像を生成して、毛穴部分を検出することもできる。
 そして、毛穴算出部17は、例えば、評価領域R6において検出された毛穴部分の総面積を形状指標として算出する。ここで、毛穴部分は、被験者の顔Fを全体的に見たときに、暗い影を生じる凹凸部分としての印象を与えるものであり、その総面積が小さいほど被験者の顔Fの視覚的うるおい感が高く感じられる。
 毛穴算出部17は、算出した形状指標をうるおい感評価部5に出力する。
 輪郭窪み量算出部18は、色空間変換部3から入力された撮影画像において耳から口にわたる頬の輪郭形状を検出し、頬輪郭形状において最も外側位置する部分から下方に向かって直線を引いて、その直線から頬輪郭形状までの距離を輪郭形状の窪み量として算出する。
 具体的には、輪郭窪み量算出部18は、撮影画像において被験者の顔Fの輪郭を検出した後、図7(a)および(b)に示すように、両耳の中心を通る水平線L1から口元を通る水平線L2まで一定間隔で複数の水平線を引いて、それぞれの水平線が輪郭と交差する交差点を検出する。これにより、水平線L1との交差点P1から水平線L2との交差点P2にわたる輪郭形状、すなわち耳から口にわたる頬の輪郭形状Cを検出することができる。
 ここで、図7(a)は、視覚的うるおい感が高い被験者の頬の輪郭形状Cであり、図7(b)は、視覚的うるおい感が低い被験者の頬の輪郭形状Cである。視覚的うるおい感が高い被験者の頬の輪郭形状Cに対して、視覚的うるおい感が低い被験者の頬の輪郭形状Cは、内側に窪んでいる。
 実際に、視覚的うるおい感が高い被験者の頬の輪郭形状Cと視覚的うるおい感が低い被験者の頬の輪郭形状Cとを検出して比較したものを図8に示す。ここで、図8は、横軸を水平位置、縦軸を高さ位置として、各水平線が輪郭と交差する交差点をそれぞれプロットして頬の輪郭形状Cを示したものであり、視覚的うるおい感が高い被験者の頬の輪郭形状Cを「▲」で示し、視覚的うるおい感が低い被験者の頬の輪郭形状Cを「●」で示している。これから、視覚的うるおい感が高い被験者の頬の輪郭形状Cに対して、視覚的うるおい感が低い被験者の頬の輪郭形状Cが内側に窪んでいることがわかる。
 一般的に、頬の輪郭形状Cは、加齢に伴って内側に窪む、いわゆる頬がこけることが知られている。この頬の輪郭形状Cの窪みが、被験者の顔Fを全体的に見たときに、暗い影を生じる凹凸部分としての印象を与え、視覚的うるおい感を低下させる要因となっていると考えられる。
 そこで、輪郭窪み量算出部18は、検出した頬の輪郭形状Cの窪み量を算出する。例えば、図7(a)および(b)に示すように、水平線L1に対して直行する方向に、交差点P1から下方に向かって垂線Sを引き、この垂線Sから各交差点までの距離Dをそれぞれ算出する。そして、垂線Sから各交差点までの距離Dの総和を頬の輪郭形状Cの窪み量とすることができる。なお、口元から下側に位置する顎の輪郭形状は骨格などの影響が大きいため、加齢に伴う頬の窪みが確実に反映されるように、耳から口にわたる頬の輪郭形状Cに限定して窪み量を算出することが好ましい。
 このように、頬の輪郭形状Cの窪みは、その窪み量が小さいほど被験者の顔Fの視覚的うるおい感が高く感じられるものである。
 輪郭窪み量算出部18は、算出した頬の輪郭形状Cの窪み量をうるおい感評価部5に出力する。
 このようにして、明るさ・色指標算出部10の明るさ算出部12、くすみ算出部13、シミ算出部14および色むら算出部15でそれぞれ算出された明るさ・色指標がうるおい感評価部5に入力されると共に、形状指標算出部11のシワ算出部16、毛穴算出部17および輪郭窪み量算出部18でそれぞれ算出された形状指標がうるおい感評価部5に入力される。
 うるおい感評価部5は、入力された明るさ・色指標の値と形状指標の値とに基づいて、基準値データベース7を参照する。基準値データベース7には、予め官能評価を実施して得られた視覚的うるおい感の基準値が、明るさ・色指標の値と形状指標の値とを重回帰式などを用いて線形和した総合指標に対して格納されている。そこで、うるおい感評価部5は、基準値データベース7を参照して、指標算出部4から入力された明るさ・色指標の値と形状指標の値に応じた視覚的うるおい感の基準値を求め、この基準値に基づいて被験者の顔Fの視覚的うるおい感の評価を行う。
 うるおい感評価部5で求められた視覚的うるおい感の評価結果は、表示部6に出力されて表示される。
 本実施の形態によれば、被験者の顔F全体にわたる視覚的うるおい感の各物理特性を複合的に評価するため、被験者の顔Fを全体的に見たときの感覚に近い評価を行うことができ、視覚的うるおい感を高精度に評価することができる。
 なお、上記のような視覚的うるおい感の評価は、入力手段、CPUおよびメモリなどから構成されるコンピュータをうるおい感評価プログラムにより機能させることで実行することができる。すなわち、うるおい感評価プログラムがコンピュータを機能させることにより、画像入力部1が、被験者の顔を撮影した撮影画像を取得し、取得された撮影画像に基づいて、CPUが、前処理部2、色空間変換部3、指標算出部4およびうるおい感評価部5を実行させて被験者の顔について視覚的うるおい感の評価を行う。
 また、上記の実施の形態では、くすみ算出部13は、それぞれΔL成分、Δa成分およびΔb成分に対して予め設定された所定の閾値に基づいてくすみ部分を検出したが、くすみ部分を検出することができればよく、これに限られるものではない。
 例えば、線形判別分析等の統計解析手法を用いてくすみ部分を検出することができる。図9に、基準領域R2aにおける非くすみ部分、評価領域R2における茶くすみ部分、および評価領域R2における黄くすみ部分について、Δa成分の値に対するΔL成分の値をプロットした結果を示す。ここで、非くすみ部分を「○」で、茶くすみ部分を「□」で、黄くすみ部分を「△」でそれぞれ示している。その結果、判別関数Nにより95%程度の精度で、非くすみ部分と、茶くすみ部分並びに黄くすみ部分とを分離可能であることが分かった。このことから、線形判別分析を用いてくすみ部分を高精度に検出できることがわかる。
 なお、図10に、基準領域R2aにおける非くすみ部分、評価領域R2における茶くすみ部分、および評価領域R2における黄くすみ部分について、Δb成分の値に対するΔL成分の値をプロットした結果を示す。ここで、非くすみ部分を「○」で、茶くすみ部分を「□」で、黄くすみ部分を「△」でそれぞれ示している。同様にして、線形判別分析を用いてくすみ部分を高精度に検出できることがわかる。
 また、上記の実施の形態では、画像入力部1に接続されたカメラCから撮影画像が入力されたが、撮影画像を入力することができればよく、これに限られるものではない。
 例えば、撮影画像を保存したコンピュータからネットワークを介して画像入力部1に撮影画像を入力することもできる。うるおい感評価装置は、コンピュータから入力された撮影画像に基づいて視覚的うるおい感を評価して、その評価結果をサーバなどに格納する。これにより、ユーザは、サーバにアクセスすることで視覚的うるおい感の評価結果を閲覧、または、サーバからネットワークを介して視覚的うるおい感の評価結果を入手することができる。
 実際に、うるおい感評価装置を用いて被験者の顔の視覚的うるおい感を評価した実施例を示す。
 この実施例は、20歳代から40歳代の被験者に対して、上記のうるおい感評価装置を用いて視覚的うるおい感の評価を行うと共に、3名の観察者により被験者の顔Fを全体的に見たときの視覚的うるおい感の官能評価を行ったものである。
 図11に、うるおい感評価装置を用いて得られた明るさ・色指標と形状指標とを線形和して算出した総合指標の値を、官能評価値に対してプロットしたグラフを示す。ここで、官能評価値は、3名の観察者の官能評価により視覚的うるおい感をそれぞれ5段階で評価した平均値であり、値が5に近づくほど視覚的うるおい感があると評価されたものである。図11に基づいて、総合指標の値と官能評価値との間の相関を求めた結果、相関係数Rは0.79であった。
 このことから、被験者の顔F全体にわたる視覚的うるおい感の各物理特性を複合的に評価することにより、被験者の顔Fを全体的に観察した官能評価との相関が非常に高くなり、視覚的うるおい感を高精度に評価することができることがわかる。
 1 画像入力部、2 前処理部、3 色空間変換部、4 指標算出部、5 うるおい感評価部、6 表示部、7 基準値データベース、8 制御部、9 操作部、10 明るさ・色指標算出部、11 形状指標算出部、12 明るさ算出部、13 くすみ算出部、14 シミ算出部、15 色むら算出部、16 シワ算出部、17 毛穴算出部、18 輪郭窪み量算出部、R1~R6 評価領域、R2a 基準領域、F 顔、C カメラ、L1,L2 水平線、P1,P2 交差点、C 頬の輪郭形状、S 垂線、D 垂線から交差点までの距離、N 判別関数。

Claims (8)

  1.  被験者の顔を撮影した撮影画像を入力する画像入力部と、
     前記画像入力部に入力された前記撮影画像から肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、前記明るさ・色成分の値に基づいて明るさ・色指標を算出する明るさ・色指標算出部と、
     前記画像入力部に入力された前記撮影画像から肌の凹凸部分を検出し、前記凹凸部分の存在量に基づいて形状指標を算出する形状指標算出部と、
     前記明るさ・色指標と前記形状指標に基づいて前記被験者の顔の視覚的うるおい感を評価するうるおい感評価部と
     を有するうるおい感評価装置。
  2.  前記明るさ・色指標算出部は、肌の明るさを算出する明るさ算出部と、肌におけるくすみ部分の存在量を算出するくすみ算出部と、肌におけるシミ部分の存在量を算出するシミ算出部と、肌における色むら部分の存在量を算出する色むら算出部とを有し、
     前記形状指標算出部は、肌におけるシワ部分の存在量を算出するシワ算出部と、肌における毛穴部分の存在量を算出する毛穴算出部と、耳から口にわたる頬輪郭形状に生じた窪み量を算出する輪郭窪み量算出部とを有する請求項1に記載のうるおい感評価装置。
  3.  前記明るさ算出部は、前記撮影画像に第1の評価領域を設定して、前記第1の評価領域における明るさの平均値を前記肌の明るさとして算出し、
     前記くすみ算出部は、前記撮影画像に第2の評価領域を設定して、明るさの値、赤みの値および黄みの値に基づいて前記第2の評価領域から前記くすみ部分を検出し、前記くすみ部分の総面積、前記第2の評価領域に対する前記くすみ部分の面積率または前記くすみ部分の濃淡を前記くすみ部分の存在量として算出し、
     前記シミ算出部は、前記撮影画像に第3の評価領域を設定して、明るさ成分の値または色成分の値が局所的に変化する前記シミ部分を大きさに基づいて前記第3の評価領域から検出し、前記シミ部分の総面積、前記第3の評価領域に対する前記シミ部分の面積率、前記シミ部分の濃淡または前記第3の評価領域における前記シミ部分の個数を前記シミ部分の存在量として算出し、
     前記色むら算出部は、前記撮影画像に第4の評価領域を設定して、明るさ成分の値または色成分の値が局所的に変化し且つ前記シミ部分より大きい前記色むら部分を前記第4の評価領域から検出し、前記色むら部分の総面積、前記第4の評価領域に対する前記色むら部分の面積率、前記色むら部分の濃淡または前記第4の評価領域における前記色むら部分の個数を前記色むら部分の存在量として算出する請求項2に記載のうるおい感評価装置。
  4.  前記シワ算出部は、前記撮影画像において小鼻から口角に延びる第5の評価領域を設定して、前記第5の評価領域において明るさが低下する前記シワ部分を検出し、前記シワ部分の総面積、前記第5の評価領域に対する前記シワ部分の面積率、前記シワ部分の濃淡または前記シワ部分の長さを前記シワ部分の存在量として算出し、
     前記毛穴算出部は、前記撮影画像に第6の評価領域を設定して、明るさ成分の値または色成分の値が局所的に変化し且つ前記シミ部分より小さい前記毛穴部分を前記第6の評価領域から検出し、前記毛穴部分の総面積、前記第6の評価領域に対する前記毛穴部分の面積率、前記毛穴部分の濃淡または前記第6の評価領域における前記毛穴部分の個数を前記毛穴部分の存在量として算出し、
     前記輪郭窪み量算出部は、前記撮影画像において前記頬輪郭形状を検出し、前記頬輪郭形状において最も外側位置する部分から下方に向かって直線を引き、前記直線から前記頬輪郭形状までの距離を前記窪み量として算出する請求項2または3に記載のうるおい感評価装置。
  5.  前記うるおい感評価部は、前記明るさ・色成分の値と前記凹凸部分の存在量がそれぞれ異なる被験者の顔を目視評価することにより予め求められた視覚的うるおい感の基準値に対する前記明るさ・色指標と前記形状指標の線形和に基づいて前記視覚的うるおい感を評価する請求項1~4のいずれか一項に記載のうるおい感評価装置。
  6.  前記基準値に対する前記明るさ・色指標と前記形状指標の線形和を格納するデータベースをさらに備え、
     前記うるおい感評価部は、前記明るさ・色指標算出部で算出された前記明るさ・色指標の値と前記形状指標算出部で算出された前記形状指標の値とに基づいて前記データベースを参照することにより前記視覚的うるおい感の評価値を求める請求項5に記載のうるおい感評価装置。
  7.  被験者の顔を撮影した撮影画像を入力し、
     前記撮影画像から肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、前記明るさ・色成分の値に基づいて明るさ・色指標を算出し、
     前記撮影画像から肌の凹凸部分を検出し、前記凹凸部分の存在量に基づいて形状指標を算出し、
     前記明るさ・色指標と前記形状指標に基づいて前記被験者の顔の視覚的うるおい感を評価するうるおい感評価方法。
  8.  被験者の顔を撮影した撮影画像を入力するステップと、
     前記撮影画像から肌の明るさ、赤みおよび黄みを含む明るさ・色成分の値を求め、前記明るさ・色成分の値に基づいて明るさ・色指標を算出するステップと、
     前記撮影画像から肌の凹凸部分を検出し、前記凹凸部分の存在量に基づいて形状指標を算出するステップと、
     前記明るさ・色指標と前記形状指標に基づいて前記被験者の顔の視覚的うるおい感を評価するステップとをコンピュータに実行させるためのうるおい感評価プログラム。
PCT/JP2015/051802 2014-02-21 2015-01-23 うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラム WO2015125552A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/237,135 US20160345887A1 (en) 2014-02-21 2016-08-15 Moisture feeling evaluation device, moisture feeling evaluation method, and moisture feeling evaluation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-031460 2014-02-21
JP2014031460A JP2015154886A (ja) 2014-02-21 2014-02-21 うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/237,135 Continuation US20160345887A1 (en) 2014-02-21 2016-08-15 Moisture feeling evaluation device, moisture feeling evaluation method, and moisture feeling evaluation program

Publications (1)

Publication Number Publication Date
WO2015125552A1 true WO2015125552A1 (ja) 2015-08-27

Family

ID=53878066

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/051802 WO2015125552A1 (ja) 2014-02-21 2015-01-23 うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラム

Country Status (3)

Country Link
US (1) US20160345887A1 (ja)
JP (1) JP2015154886A (ja)
WO (1) WO2015125552A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024719B (zh) * 2015-09-10 2020-11-03 富士胶片株式会社 肌肤的光泽评价装置、光泽评价方法及记录介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102322442B1 (ko) * 2015-03-31 2021-11-09 (주)아모레퍼시픽 개인맞춤형 화장료 제안방법
JP2018057513A (ja) * 2016-10-03 2018-04-12 株式会社桃谷順天館 肌評価方法、肌評価装置、及び肌改善推奨方法
JP7075442B2 (ja) * 2020-05-28 2022-05-25 シチズン時計株式会社 皮膚状態検知装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006346020A (ja) * 2005-06-14 2006-12-28 Kao Corp 皮膚性状の評価方法
JP2007252891A (ja) * 2006-02-23 2007-10-04 Masahiro Nakagawa 肌の美しさの目視評価値の推定方法
JP2008093048A (ja) * 2006-10-06 2008-04-24 Kao Corp ハリ感評価方法
WO2014208067A1 (ja) * 2013-06-28 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 肌の官能評価装置および肌の評価方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006346020A (ja) * 2005-06-14 2006-12-28 Kao Corp 皮膚性状の評価方法
JP2007252891A (ja) * 2006-02-23 2007-10-04 Masahiro Nakagawa 肌の美しさの目視評価値の推定方法
JP2008093048A (ja) * 2006-10-06 2008-04-24 Kao Corp ハリ感評価方法
WO2014208067A1 (ja) * 2013-06-28 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 肌の官能評価装置および肌の評価方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024719B (zh) * 2015-09-10 2020-11-03 富士胶片株式会社 肌肤的光泽评价装置、光泽评价方法及记录介质

Also Published As

Publication number Publication date
JP2015154886A (ja) 2015-08-27
US20160345887A1 (en) 2016-12-01

Similar Documents

Publication Publication Date Title
JP6026655B2 (ja) 透明感評価装置、透明感評価装置の作動方法、透明感評価方法および透明感評価プログラム
JP6297941B2 (ja) うるおい感評価装置、うるおい感評価装置の作動方法およびうるおい感評価プログラム
JP5657494B2 (ja) シワ検出方法、シワ検出装置およびシワ検出プログラム、並びに、シワ評価方法、シワ評価装置およびシワ評価プログラム
JP6473401B2 (ja) 肌の光沢評価装置、光沢評価方法および光沢評価プログラム
JP6214914B2 (ja) 肌のくすみ評価装置、肌のくすみ評価方法、及び肌のくすみ評価プログラム
CN107479801A (zh) 基于用户表情的终端显示方法、装置及终端
WO2015125552A1 (ja) うるおい感評価装置、うるおい感評価方法およびうるおい感評価プログラム
CN101609500A (zh) 出入境数字人像相片质量评估方法
JP5753055B2 (ja) 肌画像分析装置及び肌画像分析方法
JP7477678B2 (ja) 皮膚の歪み測定方法
JP2009082338A (ja) エントロピーを用いた肌の鑑別方法
JP6008698B2 (ja) 顔画像分析装置及び顔画像分析方法
JP6351550B2 (ja) ハリ感評価装置、ハリ感評価方法およびハリ感評価プログラム
US10909351B2 (en) Method of improving image analysis
JP2017012384A (ja) シワ状態分析装置及びシワ状態分析方法
KR101998211B1 (ko) 피부 윤기 지수의 생성 방법
Berueco et al. Age Estimation Using Support Vector Machine–Sequential Minimal Optimization
JP5093540B2 (ja) 目の位置の検出方法および検出システム
JP2017158921A (ja) 肌状態評価方法
KR20230052341A (ko) 민감성 피부를 위한 맞춤형 화장품 제조 시스템 및 그 방법
JP6359389B2 (ja) 唇の美的印象の評価方法及びその評価を支援する支援装置
TWI466038B (zh) Eyelid length measurement method and device thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15751730

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15751730

Country of ref document: EP

Kind code of ref document: A1