WO2006118060A1 - 肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを記録した記録媒体 - Google Patents

肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2006118060A1
WO2006118060A1 PCT/JP2006/308464 JP2006308464W WO2006118060A1 WO 2006118060 A1 WO2006118060 A1 WO 2006118060A1 JP 2006308464 W JP2006308464 W JP 2006308464W WO 2006118060 A1 WO2006118060 A1 WO 2006118060A1
Authority
WO
WIPO (PCT)
Prior art keywords
skin
image
pore
parameter
component
Prior art date
Application number
PCT/JP2006/308464
Other languages
English (en)
French (fr)
Inventor
Naomi Kitamura
Yuji Masuda
Hiroyuki Ohnishi
Original Assignee
Shiseido Company, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2005133275A external-priority patent/JP4579046B2/ja
Priority claimed from JP2005324117A external-priority patent/JP4717595B2/ja
Application filed by Shiseido Company, Ltd. filed Critical Shiseido Company, Ltd.
Priority to KR1020127030649A priority Critical patent/KR101260722B1/ko
Priority to US11/912,916 priority patent/US20090054744A1/en
Priority to EP06732222.2A priority patent/EP1875863B1/en
Priority to KR1020077023881A priority patent/KR101269533B1/ko
Priority to ES06732222.2T priority patent/ES2534190T3/es
Priority to CN2006800147866A priority patent/CN101170945B/zh
Publication of WO2006118060A1 publication Critical patent/WO2006118060A1/ja
Priority to US13/405,807 priority patent/US8591414B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface

Definitions

  • Skin condition analysis method skin condition analysis apparatus, and recording medium on which skin condition analysis program is recorded
  • the present invention relates to a skin condition analyzing method, a skin condition analyzing apparatus, and a recording medium on which a skin condition analyzing program is recorded, and in particular, a skin condition analyzing method for performing multi-dimensional analysis of skin conditions with high accuracy. , Skin condition analysis apparatus, and recording medium on which skin condition analysis program is recorded
  • Patent Documents 1 and 2 disclose a technique for photographing a surface condition of a local area of skin (skin) such as fine lines, pores, spots, freckles, etc. with a microscope and analyzing the photographed contents. Yes.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-24283
  • Patent Document 2 JP-A-7-323013
  • the present invention has been made in view of the above-described problems, and is a skin condition analysis method, a skin condition analysis apparatus, and a skin condition analysis product for performing a multi-dimensional analysis of a skin condition with high accuracy. It is an object of the present invention to provide a recording medium on which a program is recorded.
  • the present invention provides the following skin condition analysis method
  • an analysis for analyzing at least one of the above-mentioned image power skin texture 'pores, spots, skin color, and sebum amount.
  • An accumulation step for accumulating the image and the analysis result obtained from the analysis step according to the measurement date and subject information of the subject's skin, and for each subject accumulated by the accumulation step.
  • a display screen generating step for generating a screen for displaying the image and the analysis result, and an output step for outputting the information generated by the display screen generating step.
  • the display screen generating step displays the measurement result of the subject in association with the evaluation result in the age-specific distribution accumulated in advance.
  • the display screen generating step displays the measurement result of the subject in association with other data of the same age (same generation), it is possible to make a multifaceted diagnosis in accordance with the subject.
  • the display screen generation step sets at least one evaluation range in which the skin condition is classified according to the age distribution, and displays the set evaluation range and the analysis result. It is preferable. Thereby, the skin state can be grasped with high accuracy.
  • the display screen generation step preferably displays a plurality of measurement results over time from the latest measurement results of the subject and the past measurement results accumulated by the accumulation step. This makes it possible to accurately grasp changes in the state over time. Therefore, it is possible to make a multifaceted diagnosis that suits the subject.
  • the display screen generation step displays the time interval of the time axis to be displayed in correspondence with the number of measurements or the actual date and time. Thereby, various time displays can be realized. In addition, since the actual progress of the date and time can be accurately grasped, it is possible to easily estimate the skin condition other than the measurement date.
  • the present invention provides a skin condition analysis method for analyzing skin texture or pores using a photographed skin image of a subject.
  • a parameter generation step for parameterizing at least one of sharpness, fineness of the skin, and shape of the skin, and the parameter generation step force is also based on the obtained parameter.
  • an analysis step for analyzing skin texture or pores is also based on the obtained parameter.
  • the parameter generation step when the pore size is parameterized, the pore area obtained by the image force is used, and when the sharpness of the skin groove is parameterized, When using the width of the skin groove obtained from the image to parameterize the thinness of the skin, parameterize the shape of the skin using the number or average area of the skin from the image. In this case, it is preferable to use the circularity of the cuticle obtained from the image force. As a result, it is possible to easily realize high-accuracy analysis of skin texture or pores obtained with skin image power using parameters expressed by numerical values.
  • the present invention provides a skin condition analysis method for analyzing skin texture or pores using a photographed skin image of a subject, wherein R component, G component, and B component are extracted from the image.
  • RGB component extraction step to extract, R component obtained by the RGB component extraction step, pore image extraction step to extract pore image from B component or G component, and pore size from the pore image
  • a pore parameter generation step for converting the image into a pore
  • a skin image extracting step for extracting a skin groove image from the G component obtained by the RGB component extraction step, and a skin groove in which the skin image power also parameterizes the sharpness of the skin groove
  • a parameter generation step a skin image extracting step for extracting a skin image from the pore image and the skin groove image, and a parameter of the fineness of the skin and the Z or skin shape from the skin image.
  • the pore image extraction step generates a difference image from the R component and the B component or the G component, removes skin pores from the generated difference image, and generates the pore image. It is preferable to extract. As a result, the pore image can be extracted with high accuracy by using the R component and the difference image generated with the B component or the G component.
  • the pore parameter generation step calculates an average area and Z or total area of pores in the pore image, and generates a pore parameter based on the calculated area. This makes it possible to obtain numerically calculated parameters based on pores with high accuracy. In addition, uniform analysis can be performed from the contents of parameters without being an expert.
  • the skin groove image extracting step performs filtering using a differential filter that emphasizes the shape of the skin groove based on the G component image, and extracts the skin groove image.
  • pore removal and skin groove emphasis can be performed with high accuracy by performing filtering using a differential filter that emphasizes the shape of the skin groove using the G component. Therefore, the skin groove image can be acquired with high accuracy.
  • the skin groove parameter generation step generates a skin groove parameter based on the width of the skin groove obtained from the skin groove image. This makes it possible to obtain the quantified parameters based on the skin groove with high accuracy. Moreover, even if you are not an expert in parameter content, you can perform uniform analysis.
  • the skin image extracting step acquires a skin region from the skin image, reduces the periphery of the acquired plurality of skin images by a predetermined number of pixels, and converts the image to the skin image. It is preferable to extract the skin mound image by removing the pore portion by dividing the discrete skin mound image based on the pore image!
  • the step of generating a skin parameter may include the number or average area of skins in the predetermined image area obtained from the skin image, or the number or average area of skins of the face of the subject. It is preferable to generate the skin parameter based on the number corresponding to the surface area and the Z or the circularity of the skin. As a result, the number or average area of the hides or the number or average area of the hides corresponding to the surface area of the subject's face, and the parameter quantified by the circularity of Z or hides are highly accurate. Can be obtained. Further, even if the parameter content is not an expert, a uniform analysis can be performed.
  • the analysis step includes the pore parameter, the skin groove parameter, and the skin.
  • At least one of the hill parameter, the pore image, the skin groove image, and the skin hill image is displayed with different colors, and the pores, skin grooves, and skin hills between adjacent ones are made different. It is preferable to display in color.
  • different pores, skin groove portions, and skin hill portions can be individually displayed visually clearly. Thereby, the user etc. can grasp
  • the following skin condition analyzing apparatus is also provided.
  • a skin condition analyzing apparatus that analyzes a skin condition using a photographed skin image of a subject, at least one of the above-mentioned image power skin texture 'pores, spots, skin color, and sebum amount is obtained.
  • Analyzing means for analyzing, accumulating means for accumulating the image and the analysis result obtained from the analyzing means in correspondence with the measurement date and subject information of the subject's skin, and the subject accumulated by the accumulating means A display screen generating unit configured to generate a screen for displaying the image and the analysis result for each image; and an output unit configured to output information generated by the display screen generating unit.
  • the display screen generation means displays the measurement result of the subject in association with the evaluation result in the age-specific distribution accumulated in advance. In this way, by displaying the measurement results of the subject in comparison with other data of the same age (same generation), it is possible to make a multifaceted diagnosis in accordance with the subject.
  • the display screen generation means sets at least one evaluation range in which the skin state is classified in the distribution according to the age, and displays the set evaluation range and the analysis result. It is preferable. It is possible to grasp the skin condition with high accuracy.
  • the display screen generation means displays a plurality of measurement results over time from the latest measurement results of the subject and the past measurement results accumulated by the accumulation means. Thereby, the change of a state with time can be grasped correctly. This makes it possible to make a multifaceted diagnosis that suits the subject.
  • the display screen generation means displays the time interval of the time axis to be displayed in correspondence with the number of measurements or the actual date and time. This allows various time display Can be realized. In addition, since the actual date and time can be accurately grasped, it is possible to easily estimate the skin condition other than the measurement date.
  • the present invention provides a skin condition analysis apparatus for analyzing skin texture or pores using a photographed skin image of a subject, wherein an R component, a G component, and a B component are extracted from the image.
  • RGB component extracting means for extracting, R image obtained by the RGB component extracting means, pore image extracting means for extracting a pore image from the B component or G component, and the pore image force also parameterizes the size of the pore Pore parameter generation means, skin groove image extraction means for extracting a skin groove image from the G component obtained by the RGB component extraction means, skin groove image power, skin groove parameter generation means for parameterizing the sharpness of the skin groove
  • parameter analysis means for analyzing skin texture or pores using at least one of the parameters obtained by the pore parameter generation means, the skin groove parameter generation means, and the skin parameter generation means. It is characterized by having. Thereby, the texture or pores of the subject's skin can be analyzed with high accuracy.
  • the pore image extraction means generates a difference image from the R component and the B component or the G component, and removes the pores from the generated difference image to extract the pore image. It is preferable. Thus, the pore image can be extracted with high accuracy by using the difference image generated from the R component and the B component.
  • the pore parameter generation means calculates an average area and Z or total area of the pores in the pore image, and generates a pore parameter based on the calculated area. This makes it possible to obtain numerically calculated parameters based on pores with high accuracy. In addition, even if the content of parameters is not an expert, uniform analysis can be performed.
  • the skin groove image extraction means may perform filtering using a differential filter that emphasizes the shape of the skin groove on the G component image to extract the skin groove image.
  • pore filtering and skin groove enhancement can be performed with high accuracy by performing filtering using a differential filter that enhances the skin groove shape using the G component. The Therefore, the skin groove image can be acquired with high accuracy.
  • the skin groove parameter generating means generates a skin groove parameter based on a width of the skin groove obtained from the skin groove image. This makes it possible to obtain the numerically calculated parameters based on the skin groove with high accuracy. Moreover, uniform analysis can be performed from the contents of the parameters without being an expert.
  • the skin mound image extracting means acquires a skin mound part from the skin groove image, reduces the periphery of the acquired plurality of skin mound images by a predetermined number of pixels, and divides the image into discrete images of the skin mound image. It is preferable to extract the skin image by removing the pore portion from the pore image based on the pore image! It is possible to obtain with high accuracy the number, average area, and shape of the dermis that cannot be misjudged and mis-analyzed as a plurality of connected dermis forces.
  • the skin parameter generating means may calculate the number or average area of the skins in the predetermined image area obtained from the skin image, or the number or average area of the skins of the face of the subject. It is preferable to generate the skin parameter based on the number corresponding to the surface area and the circularity of the Z or the skin.
  • the number or average area of the skin or the number or average area of the skin is made to correspond to the surface area of the subject's face, and the parameter quantified by Z or the circularity of the skin is highly accurate. Can be obtained.
  • uniform analysis can be performed from the contents of the parameter even if it is not an expert.
  • the analysis means displays at least one of the pore parameter, the skin groove parameter, and the skin mound parameter, the pore image, the skin groove image, and the skin mound by color-coding. It is preferable to display the pores, the skin grooves, and the skin hills between adjacent ones with different colors. As a result, each of the different pore portions, skin groove portions, and skin hill portions can be clearly displayed visually. As a result, the user and the like can easily grasp the shape, size, number, etc. of pores and skins.
  • a recording medium recording a skin condition analysis program for causing a computer to execute a skin condition analysis process for analyzing a skin condition using a photographed skin image of a subject
  • the image power Skin texture 'Analysis processing for analyzing at least one of pores, spots, skin color, and sebum amount; and the measurement date and time of the subject's skin with the image and the analysis result obtained from the analysis processing
  • a storage process for storing corresponding to subject information
  • a display screen generation process for generating a screen for displaying the image and the analysis result for each subject stored by the storage process
  • a skin condition analysis program is recorded for causing the computer to execute an output process for outputting information generated by.
  • the present invention records a skin condition analysis program for causing a computer to execute a skin condition analysis process for analyzing skin texture or pores using a photographed skin image of a subject.
  • a recording medium an RGB component extraction process that extracts an R component, a G component, and a B component from the image, and a pore that extracts a pore image from the R component obtained by the RGB component extraction process and the B component or the G component Image extraction processing, pore parameter generation processing for parameterizing the size of pores from the pore images, skin image extraction processing for extracting skin image from G components obtained by the RGB component extraction processing, and the skin Groove image power Skin groove parameter generation processing for parameterizing the sharpness of the skin groove, skin mound image extraction processing for extracting the skin image from the pore image and the skin groove image, and the skin image Parameters obtained by skin parameter generation processing for parameterizing the fineness of the skin and Z or the shape of the skin, the pore parameter generation processing, the skin groove parameter generation processing, and the skin parameter generation processing Record a
  • FIG. 1 is a diagram showing an example of a schematic configuration of a skin condition analysis system according to the present invention.
  • FIG. 2 is a diagram showing an example of a functional configuration of a skin observation apparatus.
  • FIG. 3 is a diagram showing an example of a functional configuration of the skin condition analysis apparatus. [4] It is a diagram showing an example of a schematic configuration for realizing a numerical method related to the texture in the analysis means.
  • FIG. 5 is a diagram showing an example of a hardware configuration capable of realizing skin condition analysis in the present invention.
  • FIG. 6 is a flowchart showing an example of a skin condition analysis processing procedure in the present invention.
  • FIG. 7 is a flowchart showing an example of an analysis processing procedure relating to a texture 'pore.
  • ⁇ 8 It is a flowchart showing an example of a pore image extraction and pore parameter generation processing procedure in the present invention.
  • FIG. 9 is a diagram showing an example of each image in the process of extracting pore images.
  • FIG. 11 is a diagram showing an example of each image in the process of extracting a skin groove image.
  • ⁇ 12 It is a flowchart showing an example of a procedure for extracting a dune and producing a dune parameter in the present invention.
  • FIG. 13 is a diagram showing an example of each image in the extraction process of a skin mound image.
  • FIG. 15 is a diagram showing an example of a member management screen.
  • FIG. 16 is a diagram showing an example of a measurement history list display screen.
  • FIG. 17 is a diagram showing an example of a total result display screen.
  • FIG. 18 is a diagram showing an example of a texture / pore display screen.
  • FIG. 19 is a diagram showing another example of a texture / pore progress display screen.
  • FIG. 20 is a diagram showing an example of a spot display screen.
  • FIG. 21 is a diagram showing an example of a skin color display screen.
  • FIG. 22 is a diagram showing another example of a skin color display screen.
  • FIG. 23 is a diagram showing an example of a sebum amount display screen.
  • FIG. 24 is a diagram showing an example of an analysis execution screen related to a texture according to the present invention. Explanation of symbols
  • RGB component extraction means Pore image extraction means Pore parameter generation means Skin groove image extraction means Skin groove parameter generation means Skin hill image extraction means Skin hill parameter generation means Parameter analysis means Input device
  • Auxiliary storage device 65 Memory devices
  • FIG. 1 is a diagram showing an example of a schematic configuration of a skin condition analysis system according to the present invention.
  • the skin condition analysis system 10 shown in FIG. 1 is configured to have a skin observation device 11 and a skin condition analysis device 12.
  • the skin observation device 11 and the skin condition analysis device 12 are provided on the Internet and
  • the communication network 13 typified by a LAN (Local Area Network) or the like is connected so that data can be transmitted and received.
  • LAN Local Area Network
  • the skin observation apparatus 11 captures an image of the subject using a CCD (Charge Coupled Device) camera, for example, and acquires an image of the skin area of the subject or an enlarged image enlarged to a predetermined size.
  • a CCD Charge Coupled Device
  • the SMA Skin Micro Analyzer
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-24283
  • the apparatus for observing the skin surface state shown in the publication can be used, but the present invention is not limited to this.
  • the skin observation device 11 measures at least one piece of information among texture, pores, spots, skin color, and sebum amount.
  • the skin observation apparatus 11 transmits each piece of measurement result information such as a photographed image to the skin condition analysis apparatus 12 via the communication network 13.
  • the skin condition analysis device 12 Based on the image transmitted from the skin observation device 11, the skin condition analysis device 12 analyzes at least one of skin blemishes, skin color, and sebum amount, and observes the analysis result and the photographed image. Analyzing the age distribution, changes over time, etc. alone, displays it on the display screen.
  • the system configuration shown in Fig. 1 is roughly configured to have one skin observation device 11 and one skin condition analysis device 12, but the present invention is not limited to this. Then, for example, the skin observation apparatus 11 and Z or the skin condition analysis apparatus 12 may be configured to have a plurality. In addition, when there is already image information or the like on which to analyze the skin condition that may be provided in the skin condition analysis apparatus 12 for imaging the skin of the subject in the skin observation apparatus 11, The skin observation device 11 need not be provided.
  • the processing by the skin observation device 11 is pre-processing in actual skin diagnosis, and therefore, for example, assists a doctor such as a medical staff.
  • the process in the skin observation apparatus 12 is a process that can be performed by a doctor who actually performs skin diagnosis.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of the skin observation apparatus.
  • the skin observation apparatus 11 shown in FIG. Output means 22, member management means 23, transmission / reception means 24, storage means 25, texture / pore measurement means 26, stain measurement means 27, skin color measurement means 28, sebum amount measurement means 29, And the control means 30.
  • the input means 21 accepts input of various data when registering a member (subject) who performs counseling or the like from a user or the like, registration of measurement execution date and time, and the like. Further, the input unit 21 accepts a measurement execution instruction with user power, an instruction to transmit data to the skin condition analysis apparatus 12, and the like. Note that the input means 21 may be a pointing device such as a keyboard or a mouse.
  • the output means 22 displays and outputs the contents input by the input means 21 and the contents executed based on the input contents.
  • the output means 22 also has a display force and other force.
  • the output means 22 may have a function of a printer or the like. In that case, the measurement result or the like can be printed on a print medium such as paper and provided to the user, the subject, or the like.
  • the member management means 23 manages the member's personal information and the number of measurements.
  • the member management means 23 registers members, calls member information that has already been registered and accumulated in the storage means 25, calls up the member information and measurement (shooting) results, etc. It can be performed.
  • the contents registered as member information include, for example, a "medical chart number” for identifying each member and measurement contents, "name”, "date of birth”, “gender”, “measurement” There are “parts” and “memos (remarks)”. Further, the member information to be registered is not particularly limited in the present invention, and may be set to register “age” instead of “birth date”, for example. When calling a member, use the above-mentioned “medical chart number” or “name”.
  • the transmission / reception means 24 is a communication interface for transmitting and receiving data between the skin observation apparatus 11 and the skin condition analysis apparatus 12 via the communication network 13. Therefore, in the skin observation apparatus 11, the transmission / reception means 24 receives a request for acquiring various information such as member information and measurement contents from the skin condition analysis apparatus 12, or the input means 21 sends various information to the skin condition analysis apparatus 12. When a transmission instruction is accepted, the transmission / reception means 24 Information is transmitted to the skin condition analyzer 12 via the mark 13.
  • the storage means 25 stores various information such as member information and measurement content obtained by the member management means 23 described above.
  • the storage means 25 stores the measurement results obtained from the texture / pore measurement means 26, the stain measurement means 27, the skin color measurement means 28, and the sebum amount measurement means 29 in association with the measurement date / time information and member information.
  • the texture pore measuring means 26 captures the image data of the texture pores by photographing with an optical system that actively acquires the surface reflected light of the light incident on the local area of the skin to be observed.
  • an optical system that actively acquires the surface reflected light of the light incident on the local area of the skin to be observed.
  • specular reflection light light having the same polarization as that of the irradiation light
  • the texture pore measuring means 26 causes the storage means 25 to store the measured image data.
  • the spot measuring means 27 captures the image data of the spot by photographing with an optical system that actively acquires the internal diffused light of the light incident on the local area of the skin to be observed.
  • an optical system that actively acquires the internal diffused light of the light incident on the local area of the skin to be observed.
  • a microscope is used to capture spots as a configuration, so that internal diffused light (light polarized perpendicular to the light to be irradiated) can be acquired in order to acquire light from the inside.
  • the stain measuring means 27 causes the storage means 25 to store the measured image data.
  • the texture measuring means 26 and the spot measuring means 27 may be provided with a mechanism capable of switching the respective polarizing filters in the force microscope provided with the individual polarizing filters.
  • a technique relating to the switching of the polarizing filter for example, the technique described in Patent Document 2 (Japanese Patent Laid-Open No. 7-323013) described above can be used.
  • the skin color measuring means 28 takes an image with an optical system that acquires all the light that can be acquired with respect to the light incident on the local area of the skin to be observed, and acquires skin color image data.
  • the optical system that acquires all the light is the force that uses an optical system that actively acquires specular reflection and internal diffused light in the above-mentioned photographing of skin spots. It shows that an optical system that receives all the light that has returned is used.
  • the skin color measuring means 28 shoots a skin for skin and also shoots a calibration plate for calibrating the color of the image after shooting.
  • the calibration plate is used to calibrate the color every time skin color is measured, and the RGB value of the calibration plate is preset.
  • the RGB value obtained by receiving the light with the CCD is converted into the RGB value obtained by measuring the color. Therefore, the RGB value obtained by photographing the calibration plate and receiving the light with the CCD is also calibrated.
  • a relational expression with the original RGB value of the board is created, and the original RGB value of the skin color is calibrated with that expression.
  • the order of photographing the skin and the calibration plate in the skin color measuring means 28 may be either. Further, the skin color measuring means 28 causes the storage means 25 to store the measured image data.
  • the sebum amount measuring means 29 measures the sebum amount by, for example, pressing a repeat marker against the measurement site for a certain period of time and photographing the pressed repeat marker.
  • the repeat marker is a substance that adsorbs sebum on the skin and changes the color of the adsorbed part when adhered to a measurement site.
  • the image power captured by the microscope is analyzed by the skin analyzer 12 described later based on the color change of the Lippitma obtained by the sebum amount measuring means 29, and the numerical value of the amount of sebum adsorbed is analyzed. A trap is performed.
  • the sebum amount measuring means 29 causes the storage means 25 to store the measured image data.
  • control means 30 controls the entire components of the skin observation apparatus 11. Specifically, for example, based on an instruction from the input means 21, etc., based on a measurement start instruction from the user, etc., measurement is performed by a measurement means corresponding to the setting of the measurement date and time and the part determination instruction. The contents are registered in the storage means 25, and various kinds of measured data are transmitted to the skin condition analyzer 12.
  • FIG. 3 is a diagram illustrating an example of a functional configuration of the skin condition analysis apparatus.
  • the skin condition analysis apparatus 12 shown in FIG. 3 includes an input means 41, an output means 42, a member management means 43, a transmission / reception means 44, an accumulation means 45, an analysis means 46, a display screen generation means 47, And a control means 48.
  • the input means 41 is a member acquired by the skin observation apparatus 11 and stored in the storage means 45. Input of various data when instructing information to be recalled and instructing to analyze and evaluate various data obtained from the skin observation device 11 and displaying the evaluated results Accept.
  • the input means 41 is powered by a pointing device such as a keyboard or a mouse.
  • the output means 42 displays the contents input by the input means 41 and the contents executed based on the input contents.
  • the output means 42 can be a display or a speaker. Further, the output means 42 may have a function of a printer or the like. In that case, the measurement result or the like can be printed on a print medium such as paper and provided to the user, the subject, or the like.
  • the member management means 43 manages the personal information of members, the number of measurements, and the like.
  • the member management means 43 can register members, call member information that has already been registered and stored in the storage means 45, and perform reference, correction, deletion, and the like. Note that the member information stored in the storage means 45 is substantially the same as the contents registered in the skin observation apparatus 11 described above.
  • the transmission / reception means 44 is a communication interface for transmitting and receiving data between the skin condition analysis device 12 and the skin observation device 11 via the communication network 13. Therefore, the skin condition analysis device 12 receives various information measured by the skin observation device 11 from the transmission / reception means 44 via the communication network 13. In addition, the skin observation apparatus 11 is requested to acquire various information, and if there is information that has not been transmitted yet, the information is acquired.
  • the storage means 45 displays various information such as member information and various measurement contents acquired from the skin observation apparatus 11, the analysis result analyzed by the analysis means 46, and the analysis result displayed on the display screen generation means 47.
  • the results of diagnosis (evaluation) by a counselor or doctor are accumulated.
  • the storage means 45 stores measurement data, analysis results, evaluation results, etc. in association with measurement date / time information and member information.
  • the analysis means 46 performs at least one analysis on each measurement result of the texture pores, spots, skin color, and sebum amount measured by the skin observation device 11. Specifically, the analysis means 46 is based on the input of the measurement result of the texture “pores”, “detail of the skin”, “shape of the skin”, “sharpness of the skin” representing the characteristics of the texture. The numerical value is calculated for at least one of the “pore size”.
  • the R component first from the image of the subject's skin, G component and B component are extracted, and pore images are extracted from the extracted R component and B or G component. Also, the size of the pores in the pore image cover is numerically entered.
  • the skin groove image is extracted from the G component, and the clearness of the skin groove is numerically calculated from the extracted skin image power. Furthermore, the skin image is extracted from the pore image and the skin groove image, and the fineness of the skin and the Z or the shape of the skin are digitized from the extracted skin image. The numerical method relating to the above-mentioned texture pores in the analysis means 46 will be described later.
  • the analysis means 46 does not perform the above-described processing such as digitization on the spot measurement result, and causes the display screen generation means 47 to display the spot measurement result on the screen. Have doctors observe and evaluate.
  • the analysis means 46 calculates at least one of hue, brightness, melanin amount, and hemoglobin amount from the RGB value of the image calibrated using the calibration plate with respect to the skin color measurement result.
  • RGB value power HLS H: Hue, L: Lightness :, S: Saturation
  • H (Hue) V lightness
  • the amount of melanin and the amount of hemoglobin can be calculated based on the mathematical formula described in Patent Document 1 (Japanese Patent Laid-Open No. 2003-244283) described above.
  • the analysis means 46 numerically calculates the area of the sebum amount measured by the sebum using the repeat marker.
  • the analysis means 46 accumulates the above-described analysis results in the accumulation means 45.
  • the display screen generation means 47 generates a screen for displaying the analysis results based on the above-mentioned texture, pores, stains, skin color, and sebum amount, and outputs the result by the output means 42 to a counselor or a doctor. Have the skin condition evaluated. Specifically, the display screen generation unit 47 generates a screen so as to display a list of the numerical results of the texture, pores, the stain image, the numerical value of the skin color, and the numerical result of the sebum amount, and the output unit 42 displays the screen. .
  • the display screen generating means 47 is the same as the measurement history of the same part of the same member accumulated in the accumulating means 45 for the pores, skin color, and sebum amount. Generate a screen that displays at least one image and its analysis results. In addition, display screen generation In step 47, for example, a screen for displaying at least one image of the measurement history of the same part of the same member stored in the storage means 45 in addition to the latest image of the stain is generated.
  • the display screen generation means 47 creates distribution data for each age accumulated in advance for texture, pores, stains, skin color, and amount of sebum, and displays the measurement data of the subject on the distribution data Processing can also be performed. This makes it possible to perform a relative evaluation for each age (age, generation). Furthermore, the display screen generation means 47 generates a screen that displays past measurement results as elapsed data over time (in time series). This makes it possible to accurately predict changes in skin condition over time and future skin conditions.
  • the display screen generation means 47 evaluated the displayed result! /, Causing the counselor or the like to select the area by the input means 41, etc., and analyzing the RGB value, HLS value, etc. in the selected area. It can be analyzed by means 46 and displayed again.
  • an analysis region is set from an image, so that the R value (red), G value (green), B value (blue), By measuring the H value (hue), L value (brightness), and S value (saturation), and displaying the contents along with past measurement results, you can grasp changes in color and brightness. It is possible to evaluate the stain with high accuracy.
  • An example of the output screen obtained by the display screen generating means 47 will be described later.
  • control means 48 controls the entire components of the skin condition analysis device 12. Specifically, for example, based on an instruction from the input means 41, various information such as member information and measurement contents from the skin observation apparatus 11 is received from the transmission / reception means 44, and various information is accumulated in the accumulation means 45. It also controls each process such as measurement content analysis and display output.
  • FIG. 4 is a diagram showing an example of a schematic configuration for realizing a numerical method related to texture and pores in the analysis means.
  • 4 includes an image input means 51, an RGB component extraction means 52, a pore image extraction means 53, a pore parameter generation means 54, a skin groove image extraction means 55, and a skin groove parameter generation means 56.
  • it is configured to include a skin mound image extracting means 57, a skin mound parameter generating means 58, and a parameter analyzing means 59.
  • the image input means 51 inputs an image from the above-described skin observation apparatus 11 or the like.
  • the input image may be an image taken by a high-quality camera or the like, but a high-quality image taken by a microscope such as a video microscope (VMS) is preferable.
  • the image input means 51 outputs the input image as it is to the RGB component extraction means 52 when the acquired image is a local image of the skin.
  • the image input means 51 separates the image for each preset image size (region) and selects the separated image or the separated image by the user or the like. The obtained image is output to the RGB component extraction means 52.
  • the RGB component extraction means 52 extracts an image of an R (Red) component, a G (Green) component, and a B (Blue) component that are three primary colors from the input image. Also, the RGB component extraction means 52 performs distortion correction for each of the R, G, and B components. Here, a correction method such as a Gaussian filter can be used for distortion correction of each component. Further, the RGB component extraction means 52 outputs the R component, B component or G component images to the pore image extraction means 53. Further, the RGB component extraction unit 52 outputs an image (for example, a G image) of a component used for extracting the skin groove image to the skin groove image extracting unit 55.
  • a correction method such as a Gaussian filter
  • the pore image extracting means 53 also extracts the pore image with the image power of the R component and the B component or G component obtained by the RGB component extracting means 52. Specifically, the pore image extraction unit 53 generates, for example, a difference image of the R component and the B component, binarizes the generated difference image, performs a smoothing process, etc., and extracts a pore image.
  • the difference image is preferably an image obtained by subtracting the B component from the R component (R-B image), but the opposite is also possible! /.
  • the pore image extraction means 53 may generate a difference image of the R component and the G component, binarize the generated difference image, perform smoothing processing, etc., and extract the pore image. .
  • the difference image using the R component and the B component has a better contrast and is much easier to extract.
  • an example using a difference image mainly of the R component and the B component will be described, but the present invention is not limited to this, and as described above, the difference due to the R component and the G component. An image may be used.
  • the pore image extracting means 53 outputs the extracted image to the pore parameter generating means 54 and the skin mound image extracting means 57.
  • the pore parameter generation means 54 calculates the pore size based on the pore extraction image, A parameter is generated based on the calculated result. Further, the pore parameter generation means 54 outputs the generated pore parameter to the parameter analysis means 59.
  • the skin groove image extraction means 55 performs noise removal on the input G component image. Further, the skin groove image extraction means 55 performs image differentiation processing by the Gaussian filter, binarization of the differentiated image, and the like for the G component from which noise is removed, and extracts the skin groove image. Note that the skin groove image extracting means 55 is not limited to the G component image, but the R component image, the B component image, or an image obtained by synthesizing a plurality of R, G, and B components. It may be used to extract the groove image.
  • the skin groove image extraction unit 55 outputs the skin groove image to the skin groove parameter generation unit 56 and the skin mound image extraction unit 57.
  • the skin groove parameter generation means 56 calculates a parameter for the clearness of the skin groove. Further, the skin groove parameter generation means 56 outputs the generated skin groove parameter to the parameter analysis means 59.
  • the skin mound image extraction means 57 extracts a skin mound image based on the images obtained by the pore image extraction means 53 and the skin groove image extraction means 55. Specifically, the image obtained by the skin groove image extraction means 55 is reversed in black and white, and the pores in the image are also removed using the image obtained by the pore image extraction means 53, and noise removal processing is performed. Then, the skin extracted image is extracted. Furthermore, the skin image extracting means 57 outputs the extracted skin image to the skin parameter generating means 58. The skin mound parameter generating means 58 generates parameters for the fineness of the skin and the shape of the skin. Further, the skin mound parameter generating means 58 outputs the generated parameters to the parameter analyzing means 59.
  • the parameter analysis means 59 analyzes the skin condition based on at least one of the parameters obtained from the pore parameter generation means 54, the skin groove parameter generation means 56, and the skin hill parameter generation means 58. Do.
  • the meter analyzing means 59 causes the output means 42 or the like to display at least one of the pore parameter, the skin groove parameter, the skin hill parameter, the pore image, the skin groove image, and the skin hill color-coded.
  • the pores, furrows, and skins between adjacent neighbors are displayed in different colors.
  • different pores, skin grooves, and skin hills can be displayed individually and visually. Therefore, the user, subject, etc., can have the shape and size of pores and skins, Numbers etc. can be easily grasped.
  • display processing may be performed so that the location can be easily grasped by diagonal lines or mesh lines.
  • the skin condition of the subject is determined based on at least one information (parameter) of pore size, skin clearness, skin detail, and skin shape.
  • the condition, particularly skin texture or pores, can be analyzed with high accuracy.
  • the skin condition analysis device 12 described above can be controlled by a dedicated device configuration having the functions described above, but generates an execution program that can cause a computer to execute each function.
  • the skin condition analysis process according to the present invention can be realized by installing the execution program in a general-purpose personal computer, server, or the like.
  • FIG. 5 is a diagram illustrating an example of a hardware configuration capable of realizing skin condition analysis according to the present invention.
  • the computer main body in FIG. 5 includes an input device 61, an output device 62, a drive device 63, an auxiliary storage device 64, a memory device 65, and a CPU (Central Processing Unit) 66 that performs various controls. And a network connection device 67, which are connected to each other via the system bus B !.
  • an input device 61 an output device 62, a drive device 63, an auxiliary storage device 64, a memory device 65, and a CPU (Central Processing Unit) 66 that performs various controls.
  • a network connection device 67 which are connected to each other via the system bus B !.
  • the input device 61 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program of user power.
  • the output device 62 has a monitor that displays various windows and data necessary for operating the computer main body for performing processing according to the present invention, and displays the program execution progress and results by the control program of the CPU 66. can do.
  • the execution program installed in the computer body according to the present invention is provided by, for example, a recording medium 68 such as a CD-ROM.
  • the recording medium 68 on which the program is recorded can be set in the drive device 63, and the execution program included in the recording medium 68 is installed in the auxiliary storage device 64 from the recording medium 68 via the drive device 63.
  • the auxiliary storage device 64 is a storage means such as a hard disk, and can store an execution program in the present invention, a control program provided in a computer, and perform input / output as necessary.
  • the CPU 66 performs various calculations and data input / output with each hardware component based on a control program such as an OS (Operating System) and an execution program read and stored by the memory device 65.
  • a control program such as an OS (Operating System) and an execution program read and stored by the memory device 65.
  • OS Operating System
  • an execution program read and stored by the memory device 65.
  • Various information such as skin measurement results required during the execution of the program can be obtained from the auxiliary storage device 64, and the execution results can be stored in the thread.
  • the network connection device 67 is obtained by connecting an execution program to the communication network 13 by connecting to a communication network or the like!
  • the execution result or the execution program itself according to the present invention can be provided to other terminals.
  • the skin condition analysis process according to the present invention can be executed.
  • skin image analysis according to the present invention can be easily realized by a general-purpose personal computer or the like. Next, specific contents of the skin condition analysis process will be described.
  • FIG. 6 is a flowchart showing an example of the skin condition analysis processing procedure in the present invention. Note that the flowchart shown in FIG. 6 is a processing procedure for the skin condition analysis system in the skin observation apparatus 11 and the skin condition analysis apparatus 12 described above.
  • the member when performing skin analysis, it is determined whether or not the subject member is registered (S01). If the member is not registered (NO in S01), the member is registered (S02). Member information to be registered includes “Lute No.”, “Name”, “Date of birth”, “Gender” for identifying each measurement content, as shown in Member Management Method 23 above. ”,“ Measurement site ”,“ memo (remarks) ”, etc. In addition, the registered member information is not particularly limited in the present invention. For example, it may be set to register “age” instead of “birth date”. [0098] Also, in the SOI processing, when determining whether or not a member is registered, a search is made using information such as “medical chart number” or “name” stored in the storage means. You can check if the member is registered.
  • the measurement content is set (S03). Specifically, as described above, information on at least one of measurement of skin texture / pores, spots, skin color, and sebum amount is acquired.
  • the measurement method implements the measurement shown in the skin observation apparatus 11 described above.
  • the measurement date / time is acquired, and the measurement result is stored together with the date / time information and member information (S05).
  • the measurement results of the members can be displayed over time in the evaluation process described later. As a result, multifaceted analysis and evaluation of the skin condition can be realized.
  • S06 Next, based on the measured results, at least one of skin texture, pores, spots, and skin color is analyzed (S06), and the analysis results and measurement result images are based on predetermined conditions.
  • a display screen is generated (S07).
  • the generated screen is displayed by an output means such as a display and presented to the doctor or the subject (S08).
  • analysis results and evaluation results are accumulated (S09), and the process is terminated.
  • S01 to S09 S01 to S05 are skin observation processing
  • S06 to S09 are skin condition analysis processing, which can be installed as separate programs in the same device. May be installed. In other words, if only skin measurement is performed, the process from S01 to S05 is executed. If the measurement result is already registered, the process from S06 to S09 may be performed.
  • the skin condition analysis processing according to the present invention enables highly accurate multi-faceted analysis of skin conditions such as the results of age distribution and time distribution that can be obtained only by calculation of result values and observation of captured images. It can be carried out.
  • FIG. 7 is a flowchart showing an example of an analysis processing procedure relating to the texture pores.
  • the skin image stored in S05 described above is input (Sl l), and RGB components are extracted (S12).
  • the image input as the original image for example, a local image of the skin acquired by the VMS described above is used, but it may be an entire image of the face of the subject. In that case, the image may be separated into predetermined image areas, and RGB component extraction processing may be performed for each separated image.
  • a pore image is extracted using the R component and B component images obtained from the S12 force (S21), and the extracted pores are extracted.
  • the pore size is generated from the image by parameterizing the pore size using a numerical value or the like (S22).
  • a skin groove image is extracted using the G component image obtained from S12 (S23), and the extracted skin groove image strength is defined as a parameter using numerical values and the skin groove is obtained.
  • Generate parameters S24. The clearness of the skin groove is expressed by the width of the skin groove included in a predetermined image size.
  • a skin image is extracted (S25), and the extracted skin image power is also the strength of the skin.
  • the shape of the hill is parameterized using numerical values and the like, and the hill parameter is generated (S26).
  • pore parameter, the skin groove parameter, and the skin mound parameter, and the pore image, the skin groove image, and the skin mound image are displayed in different colors, and each adjacent region is displayed.
  • the pores, the skin grooves, and the skin hills are displayed in different colors.
  • different pores, skin gaps, and skin hills can be displayed individually and clearly. Therefore, the user can easily grasp the size, number, etc. of the pores, skins and the like.
  • Display processing that makes it easy to understand what the location indicates is possible.
  • FIG. 8 is a flowchart showing an example of a pore image extraction and pore parameter generation processing procedure in the present invention.
  • FIG. 9 is a diagram showing an example of each image in the pore image extraction process.
  • an R image and a B image obtained by extracting RGB components from an original image (original image 71 in FIG. 9) that is an input image are input (S31 ).
  • distortion correction is performed using a Gaussian filter or the like (S32).
  • a Gaussian filter is used as the smoothing filter.
  • a smoothing filter such as a Gaussian filter cannot correct distortion if the cut-off frequency is set higher, and can correct distortion if the cut-off frequency is set lower. Even parts that are originally textured will be deleted by correction. Therefore, an appropriate value is set based on the magnification and resolution of the skin image. For example, when an 8-bit image of 640 x 480 pixels is used using a 50x microscope, the Gaussian filter cutoff frequency is preferably 1.6 to 1.8 mm.
  • the difference calculation uses “R—B * R—aveZ B—ave X a” as an example of a force R ⁇ B difference calculation formula that has various calculation methods depending on the image content.
  • R-ave indicates the average value of the R component
  • B-ave indicates the average value of the B component.
  • a represents a value arbitrarily set depending on the image size, resolution, etc. of the skin image, but the value of a is preferably 1.3 to 1.5.
  • the calculated RB difference image is binarized (image 74 in Fig. 9), and the pore portion is extracted (S34). Further, the RB differential image force obtained in S34 is also subjected to the process of filling in the part where the noise has been removed by removing the narrow skin groove (S35). Specifically, smoothing is performed using, for example, a median filter. In this case, as filtering, for example, Filter the narrow skin by repeating the reduction and enlargement 1 to 10 times for a 3 X 3 pixel rectangular image, and the reduction and enlargement 1 to 5 times for a 5 X 5 pixel rectangular image. Thereby, the thin skin groove part is removed (S36). Note that the RB difference image described above may be an RG difference image as described above.
  • the noise is removed by performing a labeling process for each skin groove (S37), and the image acquired by S37 (see Fig. 9).
  • the image after the pore extraction (image 76 in FIG. 9) is extracted by deleting the thick skin groove portion from the image 75) (S38).
  • the noise removal processing in S37 for example, by extracting pores based on 50 to 400 pixels or less (0.005 mm 2 to 0.04 mm 2 or less), and removing other pores and skin gaps. To remove noise.
  • the pore size used as the pore parameter is based on the average area of the pores. Specifically, the pore average area or the total pore area in a predetermined image region is calculated (S39), and a pore size parameter is generated and output using the calculated area as an index (S40).
  • FIG. 10 is a flowchart showing an example of a processing procedure for skin groove extraction and skin groove parameter generation according to the present invention.
  • FIG. 11 is a diagram illustrating an example of each image in the process of extracting the skin groove image.
  • a G image obtained by extracting RGB components from an original image (original image 71 in FIG. 11) that is an input image is input (S41). Further, in order to remove the distortion at the periphery of the image, the distortion is corrected by using a Gaussian filter or the like (S42). For example, when an 8-bit image of 640 X 480 pixels is used with a 50x microscope, the image is filtered with a Gaussian filter cutoff frequency of 1.6 to 1.8 mm. Next, noise is removed from the distortion-corrected image (G image 81 in FIG. 11) (S43). In this case, a smooth filter is used for noise removal.
  • the shape is mainly cruciform and the size is 3 X 3 pixels (0.03 X 0. 03mn!) To 5 X 5 pixels (0. 05 X 0. 05mm) Is used.
  • the differential filter 1 sets the optimum size of the differential filter by making full use of the width of the skin groove and the characteristics of the skin groove distribution. Specifically, differential filtering with an appropriate size for each pixel (for example, 55 pixels (0.05 x 0.05 mm;) to 45 x 45 pixels (0.45 x 0.45 mm)) I do. For this reason, it is possible to prevent the pores from being extracted in addition to the skin groove due to the excessively large size and the noise being increased due to the size being too small. As a result, it is possible to acquire an image (image 82 in FIG. 11) in which the skin groove is emphasized and the pores are deleted. Further, an image obtained by the processing of S44 is binarized to extract a skin groove image (image 83 in FIG. 11) (S45).
  • noise is removed by performing a labeling process for each skin groove using the skin groove image extracted in S45 (S46). Specifically, pores and skin grooves of a predetermined width are removed as noise based on 50 to 400 pixels or less (0.005 mm 2 to 0.04 mm 2 or less), and the noise-removed skin groove image (Fig. The image 84) in 11 is extracted (S47).
  • the skin groove image obtained by S47 is subjected to fine line processing (S48), and the skinned groove analysis image (image 85 in Fig. 11) is extracted (S49).
  • the clearness of the skin groove used as the skin groove parameter uses the average width of the skin groove included in the predetermined image as an index. Specifically, the skin groove area obtained by S47 is divided by the skin groove area in the skin groove thin line image obtained by S49 (skin area Z skin thin line image area) (S50), By parameterizing the width (thickness) of the groove according to the calculated value, a parameter for the sharpness of the groove is generated and output (S51).
  • FIG. 12 shows the dermis extraction and hill parameter generation in the present invention. It is a flowchart which shows an example of a process sequence.
  • FIG. 13 is a diagram showing an example of each image in the extraction process of the skin mound image.
  • the skin groove image (image 91 in FIG. 13) obtained in S47 is input (S61). Further, the input skin groove image is reversed in black and white, and noise is removed by performing a labeling process for each skin hill in the obtained reverse image (S62).
  • FIG. 14 is a diagram for explaining an example of separating the hides in the image.
  • the skins labeled by S62 may be labeled as a single skin by connecting multiple skins. Therefore, as shown in Fig. 14 (b), the image (image 93 in Fig. 13) is extracted by reducing the surrounding area of each labeled skin mound by one pixel and making it discrete.
  • the number of pixels for reducing the peripheral portion of the image is not limited to one pixel, but may be, for example, two pixels or three pixels.
  • the pore image obtained in S38 described above is input (S64), and the pore portion of the input pore image is removed (S65). Specifically, a difference image between the skin mound discrete extracted by the processing of S63 and the pore image input by S64 is obtained, and a skin mound analysis image (image 94 in FIG. 13) is generated.
  • noise removal is performed for each hideous hill by labeling processing (S66), and the image from which noise has been removed is output as a cuticle image (S67).
  • a skin image of a predetermined size is acquired on the basis of 1 to: LOO pixels or less (0.001 mm 2 to 0.01 mm 2 or less).
  • the fineness of the skin bump is indicative average area of several or skin bumps skin hills included in a predetermined image area of 2 such as surface area and 100cm face.
  • the number of labels is also calculated for the image power of the hide mound obtained in S67 (S68).
  • the number of labels indicates the number of labeled skins included in the image as described above.
  • the number of hides is parameterized using numerical values as an indicator of the fineness of the hides and output (S69).
  • a method for calculating the number of hides for example, the number of hides in a 4.8 mm square image area can be counted. The key may be calculated. Note that the method for counting the number of hides is not limited to this. For example, the hides may be counted manually or by other methods from the image to correspond to the surface area of the face.
  • the average area of the hides included in the predetermined image area may be calculated, and the value may represent the fineness of the hides. In that case, it is possible to calculate the force that makes the total number of skin hills by making the average area correspond to the surface area of the face.
  • the shape of the skin used as a skin parameter other than the fineness of the skin is indicated by the circularity of the skin included in the predetermined image as an index.
  • the circularity is calculated from the shape of the skin image obtained in S67 (S70), and the calculated circularity is parameterized using a numerical value or the like and output (S71).
  • the circularity in S71 can be calculated from, for example, “4 ⁇ X skin area ⁇ (perimeter length of skin hill length X perimeter length of skin) for the acquired skin image. The calculation method is not limited to this.
  • the conditions (indicators) for analyzing skin texture or pores are "pore size”, “skin crevice”, By using the four parameters of “fineness of skin” and “shape of skin”, numerically analyzed skin condition can be performed with high accuracy.
  • the “pore size” is generated based on the area of the pores obtained from the skin image force
  • the “skin sharpness” is obtained from the skin image force.
  • Parameter is generated based on the average width of the skin groove
  • “skin sharpness” is generated based on the number of skin mound labels (number of skin mounds) obtained from the skin image power. Is generated based on the circularity of the cuticle obtained from the skin image. This enables high-precision texture or pore analysis. Can be realized. Therefore, a multifaceted analysis of the skin condition can be performed with high accuracy.
  • display screen examples according to the present invention will be described with reference to the drawings.
  • a main menu or the like can be provided to select the information power.
  • the types of display items and the display layout on each screen are not limited in the present invention.
  • FIG. 15 shows an example of the member management screen.
  • the member management screen 100 shown in FIG. 15 is configured to have a member selection area 101, a member-one list display area 102, and a remark content display area 103.
  • human powers such as “medical chart No.”, “name”, “gender”, “birth date”, “measurement site”, “previous measurement date” can be performed.
  • search button”, “clear button”, “measurement / analysis button”, “new registration button”, “correction button”, “replacement button”, and the like are provided in the member selection area.
  • the subject member is registered as a result of the above-described search, or if the corresponding member information is strong as a result of the search, a message to that effect is displayed. Is displayed. In that case, for example, the above-mentioned “medical record No.”, “name”, “gender”, “date of birth”, “measurement site”, “previous measurement date”, and remarks content in the remarks content display area 103, etc. Is entered, the member information is newly registered as a member, and the member information registered in the member list display area 102 is displayed. The registered member information can be changed by selecting a “correct button” after changing a predetermined item.
  • the “swap button” displays information on the member stored in the storage means when the registered member has previously measured and the force has been weak for a while, etc. It is a button for transferring to DVD or DVD.
  • the member management screen 100 may have a registration number display area 104 for displaying the number of registered members. If there is a main menu or the like, a main menu button 105 for returning to the main menu may be provided. Good.
  • FIG. 16 is a diagram showing an example of a measurement history list display screen.
  • the measurement history list display screen 110 shown in FIG. 16 is configured to have a member information display area 111 and a measurement history display area 112.
  • the member information display area 111 displays member information corresponding to the measurement history (such as “medical chart No.”, “name”, “date of birth”, “gender”, “measurement site”, etc.).
  • each of measurement of pores, spots, skin color, and sebum is performed in correspondence with the “history number” and “measurement date” given numbers based on the measurement date and time. “ ⁇ ” is displayed in the measured content.
  • the number of histories stored for each member is not particularly limited, but a predetermined number (for example, a maximum of 12 histories) may be set.
  • FIG. 17 is a diagram showing an example of the total result display screen.
  • the total result display screen 120 shown in FIG. 17 displays the analysis results of the measured texture (skin texture), stain (brown spot), skin color (skin tone), and sebum amount (sebum).
  • the overall result display screen 120 includes a member information display area 121, a texture / pore analysis result display area 122, a stain analysis result display area 123, a skin color analysis result display area 124, and a sebum analysis result display. It is configured to have a region 125.
  • “result display date”, “medical chart number”, “name”, “measurement date”, “remarks”, “measurement site”, etc. are displayed.
  • the texture / pore analysis result display area 122 displays a texture / pore measurement image, texture fineness, texture width, texture shape, texture size, and the like.
  • spot analysis result display area 123 a spot measurement image (local image or local enlargement) is displayed. Large image etc.) is displayed.
  • skin color analysis result display area 124 the measurement result corresponding to the brightness and the hue, the melanin amount, and the hemoglobin amount are displayed in a graph.
  • the sebum analysis result display area 125 displays the amount of sebum numerically and Z or graphed.
  • the total result display screen 120 is a measurement item on the measurement date, and when there is an item measured, the item is displayed blank.
  • the overall result display screen 120 is provided with a tab 126. Specifically, overall result tab 126-1, skin texture tab 126-2, spot spot (Brown Spots) tab 126-3, skin tone tab 126-4, sebum (Sebum) Tabs 126-5 are provided, and selecting each tab displays detailed information corresponding to each measurement and analysis result. Further, the total result display screen 120 is provided with a measurement history selection screen button for changing the screen to the measurement history list display screen 110 as shown in FIG. 16 and a main menu button for changing the screen to the main menu. Moyo.
  • FIG. 18 is a diagram showing an example of a textured pore display screen.
  • the texture 'pore display screen 130 shown in FIG. 18 includes a measurement date selection unit 131, an image display region 132, an analysis result display region 133, and an age distribution display region 134-1 to 134-4 corresponding to each analysis result. It is comprised so that.
  • the measurement date selection unit 131 can also select a texture / pore analysis result based on a desired measurement date result from the history measured so far, including the current measurement, by using a combo box or the like.
  • the corresponding measurement image is displayed in the image display area 132, and the fineness of the texture, the sharpness of the texture, the shape of the texture, and the size of the pores are displayed.
  • the analyzed and digitized analysis result is displayed in the analysis result display area 133.
  • the texture 'pore age distribution display screen 130 displays the analysis result corresponding to the age of the subject for each of the fineness of the texture, the sharpness of the texture, the shape of the texture, and the size of the pores. Display in correspondence with the distribution display area 134-1 to 134-4.
  • the horizontal axis represents the age
  • the vertical axis represents the corresponding evaluation value.
  • zones indicating at least one evaluation range for classifying the evaluation results are displayed. This zone is stored in advance. Based on the evaluation results for each age group! /, It indicates the range of the set evaluation results.
  • this zone may be displayed by hatching, mesh lines, or the like, which may be displayed in different colors.
  • the texture / pore age distribution display screen 130 can be displayed on the tab 126-1 to 126- without selecting the tab 126-1 to 126-5 by setting the back button 135 and the next button 136. Transition to each analysis result display screen shown in Fig. 5 is possible.
  • FIG. 19 is a diagram showing another example of the texture / pore progress display screen.
  • other history information can be browsed by providing measurement progress display areas 137-1 to 137-4 instead of the age distribution display areas 134-1 to 134-4.
  • the horizontal axis of the measurement progress display area indicates the date, and the vertical axis is set corresponding to the value of each analysis result.
  • the memory width of the date on the horizontal axis shown in FIG. 19 is divided into equal widths based on the number of measurements, but in the present invention, measurement is performed by setting the width to a date standard that is not limited to this. It is possible to estimate the force as a result of measuring the skin condition on the days before and after the measurement day before and after. As a result, it is possible to make a prediction of the state of the skin over time and future predictions with high accuracy.
  • the age display area 134 and the measurement progress display area 137 may both be displayed on one screen.
  • FIG. 20 is a diagram showing an example of a spot display screen.
  • the spot display screen 140 shown in FIG. 20 includes a measurement date selection unit 141, an image display area 142, an RGB value display unit 143, and an HLS value display unit 144.
  • the image display area 142 there are spots such as spots.
  • the RGB value and the HLS value for the circular area 145 having a predetermined diameter centered on that portion are displayed on the RGB value display unit 143 and the HLS value display unit 144, respectively.
  • region mentioned above is not limited to a perfect circle, An ellipse and a polygon may be sufficient.
  • the stain display screen 140 can display a plurality of evaluation results from the measurement history. This makes it possible to evaluate stains over time on a single screen.
  • FIG. 21 is a diagram showing an example of a skin color display screen.
  • the skin color display screen 150 shown in FIG. 21 includes a measurement date selection unit 151, a brightness / hue correlation display area 152, an analysis result display area 153, and an age distribution display area corresponding to each analysis result. It is comprised so that.
  • the measurement date selection unit 151 also has the power of a combo box and selects the skin color analysis result based on the desired measurement date result from the history measured so far.
  • the corresponding brightness / hue correlation is displayed in the brightness / hue correlation display area 152.
  • a good area 155 in which the correlation between the brightness and hue is considered to be good is displayed by being color-coded or hatched, so that the analysis result 156 of the subject is located at any position. It is possible to know exactly whether it belongs.
  • the evaluation results of hue (YR), brightness, melanin, and hemoglobin are displayed in the analysis result display area 153.
  • the skin color display screen 150 displays the evaluation result 157 corresponding to the age of the subject in the age distribution display areas 154 -1 to 154-4 for each evaluation result of hue, brightness, melanin, and hemoglobin. Display in correspondence.
  • the horizontal axis indicates the age
  • the vertical axis indicates the value of the corresponding evaluation result.
  • zones for classifying the evaluation results are displayed. Therefore, it is possible to accurately grasp in which state the subject is in comparison with the same age.
  • Fig. 22 is a diagram showing another example of the skin color display screen.
  • a plurality (two or more) of measurement date selection sections 151 and analysis result display areas 153 are provided based on history information, and the evaluation results 156-1 and 156-2 are displayed as brightness / hue correlation display areas 152. May be displayed.
  • a melanin 'hemoglobin correlation display area 158 may be provided.
  • the evaluation results 156-1 and 156-2 may be displayed in the correlation display area 158 of lanin / hemoglobin. These evaluation results are displayed separately by color coding or diagonal lines. Thereby, skin color evaluation with time can be performed.
  • FIG. 23 is a diagram showing an example of a sebum amount display screen.
  • the sebum amount display screen 160 shown in FIG. 23 includes a measurement date selection unit 161 for selecting at least one measurement date, a sebum amount display unit 162, a sebum amount display region 163, an age distribution display region 164, and a measurement process. And a display area 165.
  • the above-described age distribution display area 164 and the measurement progress display area 165 can both be displayed simultaneously.
  • the sebum amount display area 163 can display the sebum amount.
  • the sebum amount can display highly accurate skin diagnosis by displaying information over time.
  • the above-described screen examples are examples, and other screen configurations may be formed by combining the above-described items on each screen. This makes it possible to perform highly accurate skin diagnosis by clearly displaying information over time.
  • FIG. 24 is a diagram showing an example of an analysis execution screen related to the texture pores in the present invention.
  • the texture 'pore analysis execution screen 170 shown in FIG. 24 has a main operation button area 171, an original image display area 172, an analysis result image display area 173, an analysis result image setting area 174, and an analysis result display. And a region 175.
  • the main operation button area 171 performs operations such as input of an original image (Load) and execution of skin condition analysis (An alyzed).
  • the skin condition analysis process is performed for each parameter corresponding to the above-mentioned “pore size”, “skin clearness”, “skin sharpness”, and “skin shape”. Process to parameterize at least one of them. Therefore, for example, it is possible to generate only pore parameters or to execute processing for generating all parameters.
  • a predetermined storage area such as a folder unit or a drive unit is selected, and a plurality of images included in the selected storage area are selected to analyze the skin condition. Can be executed continuously (MaltiLoad).
  • the user or the like can easily grasp the shape, size, number, etc. of pores, skins, and the like. In other words, for example, even when adjacent pores, skin grooves, and hides are separated by only one pixel, it is possible to easily grasp whether or not they are separated.
  • display processing is performed so that it is easy to grasp what the location indicates by diagonal lines or mesh lines.
  • the display method of colors and diagonal lines may be changed depending on the parameter value, and the colors and analysis results may be displayed in association with each other. Thus, for example, if the area is a predetermined area, the area may be displayed in red.
  • the analysis result image setting area 174 displays each part of the analysis result image (Furrow, Ridge, (pore) Pore, (composition of them) Composition). be able to.
  • the images to be displayed are images extracted in each process as shown in FIGS. 9, 11, and 13. Here, the displayed image can be highlighted as described above.
  • the analysis result setting area 174 stores only the analysis result image (Save).
  • the analysis result display area 175 includes the furrow vividness, the ridge fineness (Ridge Fineness), the ridge shape (Ridge Shape), and the pore size (Pore Size). Displays the result (parameter) of. Note that, in FIG. 24, the power at which the digitized value is displayed.
  • the parameter display in the present invention is not limited to this. For example, “good”, “normal”, A number of categories such as “bad” may be provided, and the corresponding characters may be displayed. Also, 20-23 year old skin, 30's skin, etc. You may make it display the skin age etc. which were set corresponding to the meter.
  • the analysis result display area 175 can save the displayed result (parameter data) (Data Save).
  • the skin condition analysis method, the skin condition analysis apparatus, and the recording medium on which the skin condition analysis program is recorded in the present invention are not limited to specialists, for example, in the sales of medical and cosmetic products. Using the expressed analysis results and the contents displayed over time, skin diagnosis or beauty counseling with high accuracy can be realized uniformly.
  • the skin condition analysis method of the present invention can be applied to a device or the like in which the subject himself performs a self-check.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Dermatology (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 撮影された被験者の肌の画像を用いて肌状態の解析を行う肌状態解析方法において、前記画像から肌のキメ・毛穴、シミ、肌色、皮脂量のうち、少なくとも1つを解析する解析ステップと、前記画像と前記解析ステップから得られる解析結果とを前記被験者の肌の測定日時や被験者情報に対応させて蓄積する蓄積ステップと、前記蓄積ステップにより蓄積された前記被験者毎の前記画像や前記解析結果を表示させる画面を生成する表示画面生成ステップと、前記表示画面生成ステップにより生成された情報を出力する出力ステップとを有する。

Description

明 細 書
肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを記録し た記録媒体
技術分野
[0001] 本発明は、肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを記録 した記録媒体に係り、特に肌状態の多角的な解析を高精度に行うための肌状態解 析方法、肌状態解析装置、及び肌状態解析プログラムを記録した記録媒体に関する 背景技術
[0002] 従来、化粧カウンセリングや医療の分野において、皮膚の状態を解析するための 様々な手法が提案されている。例えば、特許文献 1, 2等には、肌 (皮膚)の小じわや 毛穴、シミ、そばかす等といった肌の局部の表面状態をマイクロスコープ等で撮影し 、撮影した内容を解析する手法が開示されている。
特許文献 1:特開 2003 - 24283号公報
特許文献 2 :特開平 7— 323013号公報
発明の開示
発明が解決しょうとする課題
[0003] し力しながら、上述したようにマイクロスコープを装備した計測機器から取得した被 験者の肌情報を用いて、肌の評価を高精度に行うために必要なキメゃ毛穴、シミ、肌 色、皮脂量を解析し、数値ィ匕する解析装置は存在していなカゝつた。また、解析結果を 被験者やカウンセラー、医師等にわ力り易く表示させることで多角的な解析'診断を 行わせる手法にっ 、ても提案されて 、なかった。
[0004] 本発明は、上記の問題点に鑑みてなされたものであって、肌状態の多角的な解析 を高精度に行うための肌状態解析方法、肌状態解析装置、及び肌状態解析プロダラ ムを記録した記録媒体を提供することを目的とする。
課題を解決するための手段
[0005] 本発明は、上記の目的を達成するため、次の肌状態解析方法を提供する 撮影された被験者の肌の画像を用いて肌状態の解析を行う肌状態解析方法にお いて、前記画像力 肌のキメ '毛穴、シミ、肌色、皮脂量のうち、少なくとも 1つを解析 する解析ステップと、前記画像と前記解析ステップカゝら得られる解析結果とを前記被 験者の肌の測定日時や被験者情報に対応させて蓄積する蓄積ステップと、前記蓄 積ステップにより蓄積された前記被験者毎の前記画像や前記解析結果を表示させる 画面を生成する表示画面生成ステップと、前記表示画面生成ステップにより生成され た情報を出力する出力ステップとを有することを特徴とする。これにより、肌のキメ '毛 穴、シミ、肌色、皮脂量の解析結果力 肌状態の多角的な解析を高精度に行うことが できる。
[0006] また、前記表示画面生成ステップは、前記被験者の測定結果を予め蓄積された年 齢別分布における評価結果に対応付けて表示させることが好ましい。これにより、被 験者の測定結果を他の同年代(同世代)のデータと対比させて表示することで、被験 者に即した多角的な診断を行うことができる。
[0007] また、前記表示画面生成ステップは、前記年齢別分布にお!ヽて、肌状態を分類分 けした少なくとも 1つの評価範囲を設定し、設定された評価範囲と解析結果とを表示 させることが好ましい。これにより、肌状態の高精度に把握することができる。
[0008] また、前記表示画面生成ステップは、前記被験者の最新の測定結果と前記蓄積ス テツプにより蓄積された過去の測定結果との中から複数の測定結果を経時的に表示 させることが好ましい。これにより、経時的な状態の変化を正確に把握することができ る。したがって、被験者に即した多角的な診断を行うことができる。
[0009] また、前記表示画面生成ステップは、表示される時間軸の時間間隔を、前記測定 回数又は実際の日時に対応させて表示することが好ましい。これにより、種々の時間 表示が実現できる。また、実際の日時の経過を正確に把握することができるため、測 定日以外の肌状態の推測を容易に行うことができる。
[0010] また、本発明は、撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析 を行うための肌状態解析方法において、前記画像から得られる毛穴の大きさ、皮溝 の鮮明さ、皮丘の細かさ、及び皮丘の形状のうち、少なくとも 1つをパラメータ化する ノ メータ生成ステップと、前記パラメータ生成ステップ力も得られるパラメータに基 づ 、て肌のキメ又は毛穴の解析を行う解析ステップとを有することを特徴とする。これ により、被験者の肌のキメ又は毛穴の解析を高精度に行うことができる。
[0011] また、前記パラメータ生成ステップは、前記毛穴の大きさをパラメータ化する場合に は、前記画像力 得られる毛穴の面積を用い、前記皮溝の鮮明さをパラメータ化する 場合には、前記画像から得られる皮溝の幅を用い、前記皮丘の細力さをパラメータ化 する場合には、前記画像から得られる皮丘の数又は平均面積を用い、前記皮丘の 形状をパラメータ化する場合には、前記画像力 得られる皮丘の円形度を用いること が好ましい。これにより、肌画像力 得られる肌のキメ又は毛穴について、数値等によ り表現されたパラメータを用いて、容易に高精度な解析を実現することができる。
[0012] また、本発明は、撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析 を行うための肌状態解析方法において、前記画像から R成分、 G成分、及び B成分を 抽出する RGB成分抽出ステップと、前記 RGB成分抽出ステップにより得られる R成 分と、 B成分あるいは G成分とから毛穴画像を抽出する毛穴画像抽出ステップと、前 記毛穴画像から毛穴の大きさをパラメータ化する毛穴パラメータ生成ステップと、前 記 RGB成分抽出ステップにより得られる G成分から皮溝画像を抽出する皮溝画像抽 出ステップと、前記皮溝画像力も皮溝の鮮明さをパラメータ化する皮溝パラメータ生 成ステップと、前記毛穴画像及び前記皮溝画像から皮丘画像を抽出する皮丘画像 抽出ステップと、前記皮丘画像から皮丘の細かさ及び Z又は皮丘の形状をパラメ一 タ化する皮丘パラメータ生成ステップと、前記毛穴パラメータ生成ステップ、前記皮溝 ノ メータ生成ステップ、及び前記皮丘パラメータ生成ステップにより得られるパラメ ータのうち、少なくとも 1つを用いて肌のキメ又は毛穴の解析を行うパラメータ解析ス テツプとを有することを特徴とする。これにより、被験者の肌のキメ又は毛穴の解析を 高精度に行うことができる。
[0013] また、前記毛穴画像抽出ステップは、前記 R成分と、前記 B成分あるいは前記 G成 分とから差分画像を生成し、生成した差分画像から皮溝の除去を行い、前記毛穴画 像を抽出することが好ましい。これにより、 R成分と、前記 B成分あるいは前記 G成分と 力 生成される差分画像を用いることにより、毛穴画像を高精度に抽出することがで きる。 [0014] また、前記毛穴パラメータ生成ステップは、前記毛穴画像における毛穴の平均面積 及び Z又は総面積を算出し、算出された面積に基づいて毛穴パラメータを生成する ことが好ましい。これにより、毛穴に基づく数値ィ匕されたパラメータを高精度に取得す ることができる。また、パラメータの内容から専門家でなくとも均一的な解析を行うこと ができる。
[0015] また、前記皮溝画像抽出ステップは、前記 G成分の画像にっ 、て前記皮溝の形状 を強調する微分フィルターを用いてフィルタリングを行 、、前記皮溝画像を抽出する ことが好ましい。これにより、 G成分を用いて皮溝の形状を強調する微分フィルターに よるフィルタリングを行うことにより、毛穴除去及び皮溝の強調を高精度に行うことがで きる。したがって、皮溝画像を高精度に取得することができる。
[0016] また、前記皮溝パラメータ生成ステップは、前記皮溝画像から得られる皮溝の幅に 基づいて、皮溝パラメータを生成することが好ましい。これにより、皮溝に基づく数値 化されたパラメータを高精度に取得することができる。また、パラメータの内容力 専 門家でなくとも均一的な解析を行うことができる。
[0017] また、前記皮丘画像抽出ステップは、前記皮溝画像から皮丘部分を取得し、取得し た複数の皮丘画像の周辺を所定の画素数分縮小させて画像を皮丘画像の離散を行 V、、離散した皮丘画像を前記毛穴画像に基づ!/ヽて毛穴部分を除去することにより、 皮丘画像を抽出することが好ましい。
[0018] これにより、連結している複数の皮丘が 1つの皮丘として誤判断及び誤解析される ことがなぐ皮丘の数又は平均面積、形状を高精度に取得することができる。
[0019] また、前記皮丘パラメータ生成ステップは、前記皮丘画像により得られる所定の画 像領域中における皮丘の数又は平均面積、あるいは前記皮丘の数又は平均面積を 前記被験者の顔の表面積に対応させた場合の数、及び Z又は皮丘の円形度に基 づいて皮丘パラメータを生成することが好ましい。これにより、皮丘の数又は平均面 積あるいは皮丘の数又は平均面積を前記被験者の顔の表面積に対応させた数、及 び Z又は皮丘の円形度により数値化されたパラメータを高精度に取得することができ る。また、パラメータの内容力も専門家でなくとも均一的な解析を行うことができる。
[0020] また、前記解析ステップは、前記毛穴パラメータ、前記皮溝パラメータ、及び前記皮 丘パラメータ、前記毛穴画像、前記皮溝画像、及び前記皮丘画像のうち、少なくとも 1 つを色分けして表示させ、それぞれの隣接間の前記毛穴、前記皮溝、及び前記皮丘 を異ならせた色で表示させることが好ましい。これにより、異なる毛穴部分や皮溝部 分、皮丘部分においては、それぞれが個々に視覚上明確に表示させることができる。 これにより、使用者等は、毛穴や皮丘等の形状や大きさ、数等を容易に把握すること ができる。
[0021] 更に、次の肌状態解析装置も提供する。
[0022] 撮影された被験者の肌の画像を用いて肌状態の解析を行う肌状態解析装置にお いて、前記画像力 肌のキメ '毛穴、シミ、肌色、皮脂量のうち、少なくとも 1つを解析 する解析手段と、前記画像と前記解析手段から得られる解析結果とを前記被験者の 肌の測定日時や被験者情報に対応させて蓄積する蓄積手段と、前記蓄積手段によ り蓄積された前記被験者毎の前記画像や前記解析結果を表示させる画面を生成す る表示画面生成手段と、前記表示画面生成手段により生成された情報を出力する出 力手段とを有することを特徴とする。これにより、肌のキメ ·毛穴、シミ、肌色、皮脂量 の解析結果力 肌状態の多角的な解析を高精度に行うことができる。
[0023] また、前記表示画面生成手段は、前記被験者の測定結果を予め蓄積された年齢 別分布における評価結果に対応付けて表示させることが好ましい。これにより、被験 者の測定結果を他の同年代(同世代)のデータと対比させて表示することで、被験者 に即した多角的な診断を行うことができる。
[0024] また、前記表示画面生成手段は、前記年齢別分布にお!、て、肌状態を分類分けし た少なくとも 1つの評価範囲を設定し、設定された評価範囲と解析結果とを表示させ ることが好ましい。肌状態の高精度に把握することができる。
[0025] また、前記表示画面生成手段は、前記被験者の最新の測定結果と前記蓄積手段 により蓄積された過去の測定結果との中から複数の測定結果を経時的に表示させる ことが好ましい。これにより、経時的な状態の変化を正確に把握することができる。こ れにより、被験者に即した多角的な診断を行うことができる。
[0026] また、前記表示画面生成手段は、表示される時間軸の時間間隔を、前記測定回数 又は実際の日時に対応させて表示することが好ましい。これにより、種々の時間表示 が実現できる。また、実際の日時の経過を正確に把握することができるため、測定日 以外の肌状態の推測を容易に行うことができる。
[0027] また、本発明は、撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析 を行うための肌状態解析装置において、前記画像から R成分、 G成分、及び B成分を 抽出する RGB成分抽出手段と、前記 RGB成分抽出手段により得られる R成分と、 B 成分あるいは G成分とから毛穴画像を抽出する毛穴画像抽出手段と、前記毛穴画像 力も毛穴の大きさをパラメータ化する毛穴パラメータ生成手段と、前記 RGB成分抽出 手段により得られる G成分から皮溝画像を抽出する皮溝画像抽出手段と、前記皮溝 画像力 皮溝の鮮明さをパラメータ化する皮溝パラメータ生成手段と、前記毛穴画像 及び前記皮溝画像から皮丘画像を抽出する皮丘画像抽出手段と、前記皮丘画像か ら皮丘の細かさ及び Z又は皮丘の形状をパラメータ化する皮丘パラメータ生成手段 と、前記毛穴パラメータ生成手段、前記皮溝パラメータ生成手段、及び前記皮丘パラ メータ生成手段により得られるパラメータのうち、少なくとも 1つを用いて肌のキメ又は 毛穴の解析を行うパラメータ解析手段とを有することを特徴とする。これにより、被験 者の肌のキメ又は毛穴の解析を高精度に行うことができる。
[0028] また、前記毛穴画像抽出手段は、前記 R成分と、前記 B成分あるいは前記 G成分と から差分画像を生成し、生成した差分画像から皮溝の除去を行い、前記毛穴画像を 抽出することが好ましい。これにより、 R成分及び B成分から生成される差分画像を用 いることにより、毛穴画像を高精度に抽出することができる。
[0029] また、前記毛穴パラメータ生成手段は、前記毛穴画像における毛穴の平均面積及 び Z又は総面積を算出し、算出された面積に基づいて毛穴パラメータを生成するこ とが好ましい。これにより、毛穴に基づく数値ィ匕されたパラメータを高精度に取得する ことができる。また、パラメータの内容力も専門家でなくとも均一的な解析を行うことが できる。
[0030] また、前記皮溝画像抽出手段は、前記 G成分の画像にっ 、て前記皮溝の形状を 強調する微分フィルターを用いてフィルタリングを行 、、前記皮溝画像を抽出するこ とが好ましい。これにより、 G成分を用いて皮溝の形状を強調する微分フィルタ一によ るフィルタリングを行うことにより、毛穴除去及び皮溝の強調を高精度に行うことができ る。したがって、皮溝画像を高精度に取得することができる。
[0031] また、前記皮溝パラメータ生成手段は、前記皮溝画像から得られる皮溝の幅に基 づいて、皮溝パラメータを生成することが好ましい。これにより、皮溝に基づく数値ィ匕 されたパラメータを高精度に取得することができる。また、パラメータの内容から専門 家でなくとも均一的な解析を行うことができる。
[0032] また、前記皮丘画像抽出手段は、前記皮溝画像から皮丘部分を取得し、取得した 複数の皮丘画像の周辺を所定の画素数分縮小させて画像を皮丘画像の離散を行 V、、離散した皮丘画像を前記毛穴画像に基づ!/ヽて毛穴部分を除去することにより、 皮丘画像を抽出することが好ましい。連結している複数の皮丘力^つの皮丘として誤 判断及び誤解析されることがなぐ皮丘の数又は平均面積、形状を高精度に取得す ることがでさる。
[0033] また、前記皮丘パラメータ生成手段は、前記皮丘画像により得られる所定の画像領 域中における皮丘の数又は平均面積、あるいは前記皮丘の数又は平均面積を前記 被験者の顔の表面積に対応させた場合の数、及び Z又は皮丘の円形度に基づいて 皮丘パラメータを生成することが好ましい。これにより、皮丘の数又は平均面積あるい は皮丘の数又は平均面積を前記被験者の顔の表面積に対応させた数、及び Z又は 皮丘の円形度により数値化されたパラメータを高精度に取得することができる。また、 ノ ラメータの内容から専門家でなくとも均一的な解析を行うことができる。
[0034] また、前記解析手段は、前記毛穴パラメータ、前記皮溝パラメータ、及び前記皮丘 パラメータ、前記毛穴画像、前記皮溝画像、及び前記皮丘画像のうち、少なくとも 1つ を色分けして表示させ、それぞれの隣接間の前記毛穴、前記皮溝、及び前記皮丘を 異ならせた色で表示させることが好ましい。これにより、異なる毛穴部分や皮溝部分、 皮丘部分においては、それぞれが個々に視覚上明確に表示させることができる。こ れにより、使用者等は、毛穴や皮丘等の形状や大きさ、数等を容易に把握することが できる。
[0035] 更に、次の肌状態解析プログラムを記録した記録媒体も提供する。
[0036] 撮影された被験者の肌の画像を用いて肌状態の解析を行う肌状態解析処理をコン ピュータに実行させるための肌状態解析プログラムを記録した記録媒体において、 前記画像力 肌のキメ '毛穴、シミ、肌色、皮脂量のうち、少なくとも 1つを解析する解 析処理と、前記画像と前記解析処理から得られる解析結果とを前記被験者の肌の測 定日時や被験者情報に対応させて蓄積する蓄積処理と、前記蓄積処理により蓄積さ れた前記被験者毎の前記画像や前記解析結果を表示させる画面を生成する表示画 面生成処理と、前記表示画面生成処理により生成された情報を出力する出力処理と をコンピュータに実行させるための肌状態解析プログラムを記録する。
[0037] また、本発明は、撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析 を行うための肌状態解析処理をコンピュータに実行させるための肌状態解析プロダラ ムを記録した記録媒体において、前記画像から R成分、 G成分、及び B成分を抽出 する RGB成分抽出処理と、前記 RGB成分抽出処理により得られる R成分と、 B成分 あるいは G成分とから毛穴画像を抽出する毛穴画像抽出処理と、前記毛穴画像から 毛穴の大きさをパラメータ化する毛穴パラメータ生成処理と、前記 RGB成分抽出処 理により得られる G成分から皮溝画像を抽出する皮溝画像抽出処理と、前記皮溝画 像力 皮溝の鮮明さをパラメータ化する皮溝パラメータ生成処理と、前記毛穴画像及 び前記皮溝画像から皮丘画像を抽出する皮丘画像抽出処理と、前記皮丘画像から 皮丘の細力さ及び Z又は皮丘の形状をパラメータ化する皮丘パラメータ生成処理と 、前記毛穴パラメータ生成処理、前記皮溝パラメータ生成処理、及び前記皮丘パラメ ータ生成処理により得られるパラメータのうち、少なくとも 1つを用いて肌のキメ又は毛 穴の解析を行うパラメータ解析処理とをコンピュータに実行させるための肌状態解析 プログラムを記録する。これにより、被験者の肌のキメ又は毛穴の解析を高精度に行 うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコン ピュータ等で本発明における肌状態の解析を容易に実現することができる。 発明の効果
[0038] 本発明によれば、肌状態の多角的な解析を高精度に行うことができる。
図面の簡単な説明
[0039] [図 1]本発明における肌状態解析システムの概略構成の一例を示す図である。
[図 2]肌観察装置の機能構成の一例を示す図である。
[図 3]肌状態解析装置の機能構成の一例を示す図である。 圆 4]解析手段におけるキメ '毛穴に関する数値ィ匕手法を実現するための概略構成 の一例を示す図である。
圆 5]本発明における肌状態解析が実現可能なハードウ ア構成の一例を示す図で ある。
[図 6]本発明における肌状態解析処理手順の一例を示すフローチャートである。
[図 7]キメ '毛穴に関する解析処理手順の一例を示すフローチャートである。
圆 8]本発明における毛穴画像抽出及び毛穴パラメータ生成処理手順の一例を示す フローチャートである。
[図 9]毛穴画像の抽出過程における各画像の一例を示す図である。
圆 10]本発明における皮溝抽出及び皮溝パラメータ生成処理手順の一例を示すフロ 一チャートである。
[図 11]皮溝画像の抽出過程における各画像の一例を示す図である。
圆 12]本発明における皮丘抽出及び皮丘パラメータ生成処理手順の一例を示すフロ 一チャートである。
[図 13]皮丘画像の抽出過程における各画像の一例を示す図である。
圆 14]画像中における皮丘を分離させる一例を説明するための図である。
[図 15]メンバー管理画面の一例を示す図である。
[図 16]測定履歴一覧表示画面の一例を示す図である。
[図 17]総合結果表示画面の一例を示す図である。
[図 18]キメ ·毛穴表示画面の一例を示す図である。
[図 19]キメ ·毛穴経過表示画面の他の例を示す図である。
[図 20]シミ表示画面の一例を示す図である。
[図 21]肌色表示画面の一例を示す図である。
[図 22]肌色表示画面の他の例を示す図である。
[図 23]皮脂量表示画面の一例を示す図である。
[図 24]本発明におけるキメ '毛穴に関する解析実行画面の一例を示す図である。 符号の説明
10 肌状態解析システム 肌観察装置
肌状態解析装置 通信ネットワーク, 41 入力手段
, 42 出力手段
, 43 メンバー管理手段, 44 送受信手段, 45 蓄積手段
キメ ·毛穴測定手段 シミ測定手段 肌色測定手段 皮脂量測定手段, 48 制御手段 解析手段
表示画面生成手段 画像入力手段
RGB成分抽出手段 毛穴画像抽出手段 毛穴パラメータ生成手段 皮溝画像抽出手段 皮溝パラメータ生成手段 皮丘画像抽出手段 皮丘パラメータ生成手段 パラメータ解析手段 入力装置
出力装置
ドライブ装置
補助記憶装置 65 メモリ装置
66 CPU
67 ネットワーク接続装置
68 記録媒体
71 元画像
72 R画像
73 B画像
74- 、76, 82〜85, 91〜94 画像
81 G画像
100 メンバー管理画面
101 メンバー選択領域
102 メンバ一一覧表示領域
103 備考内容表示領域
104 登録数表示領域
105 メインメニューボタン
110 測定履歴一覧表示画面 in, 121 メンバー情報表示領域
112 測定履歴表示領域
120 総合結果表示画面
122 キメ ·毛穴解析結果表示領域
123 シミ解析結果表示領域
124 肌色解析結果表示領域
125 皮脂解析結果表示領域
126 タブ
130 キメ,毛穴表示画面
131, 141, 151, 161 測定日選択部
132, 142 画像表示領域
133, 153, 175 解析結果表示領域 134, 154, 164 年齢分布表示領域
135 戻るボタン
136 次へボタン
137, 165 測定経過表示領域
140 シミ表示画面
143 RGB値表示部
144 HLS値表示部
145 正円領域
150 肌色表示画面
152 明度 ·色相相関表示領域
155 良好領域
156 解析結果
157 評価結果
158 メラニン 'ヘモグロビンの相関表示領域
160 皮脂量表示画面
162 皮脂量表示部
163 皮脂量表示領域
170 キメ,毛穴解析実行画面
171 メイン操作ボタン領域
172 元画像表示領域
173 解析結果画像表示領域
174 解析結果画像設定領域
発明を実施するための最良の形態
[0041] 以下、本発明を実施するための最良の形態を図面に基づいて具体的に説明する。
[0042] ぐンステム構成〉
図 1は、本発明における肌状態解析システムの概略構成の一例を示す図である。 図 1に示す肌状態解析システム 10は、肌観察装置 11と、肌状態解析装置 12とを有 するよう構成されており、肌観察装置 11及び肌状態解析装置 12は、インターネットや LAN (Local Area Network)等に代表される通信ネットワーク 13によりデータの 送受信が可能な状態で接続されて ヽる。
[0043] 肌観察装置 11は、例えば CCD (Charge Coupled Device)カメラ等を用いて被 験者の撮像等を行い、被験者の肌局部等の画像又は所定の大きさに拡大した拡大 画像等を取得する。なお、本発明において顔や肌を撮影するための手法としては、 例えば SMA (Skin Micro Analyzer)の皮膚拡大マイクロスコープシステムを用 いることができ、また上述した特許文献 1 (特開 2003— 24283号公報)に示されてい る皮膚表面状態観察装置を用いることができるが、本発明においてはこれに限定さ れない。
[0044] また、肌観察装置 11は、キメ、毛穴、シミ、肌色、皮脂量のうち、少なくとも 1つの情 報を測定する。また、肌観察装置 11は、撮影した画像等の測定結果の各情報を、通 信ネットワーク 13を介して肌状態解析装置 12に送信する。
[0045] 肌状態解析装置 12は、肌観察装置 11から送信された画像に基づいて、肌のキ入 シミ、肌色、皮脂量のうち少なくとも 1つを解析し、その解析結果や撮影画像の観察 だけでなぐ年代分布や経時変化等を分析して表示画面に表示する。
[0046] なお、図 1に示すシステム構成は、概略的に肌観察装置 11及び肌状態解析装置 1 2をそれぞれ 1台有する構成となっているが、本発明においてはこれに限定されるも のではなぐ例えば肌観察装置 11及び Z又は肌状態解析装置 12が複数台有するよ う構成されていてもよい。また、肌観察装置 11における被験者の肌を撮像するため の各構成を肌状態解析装置 12内に設けてもよぐ肌状態を解析する元となる画像情 報等が既に存在する場合には、肌観察装置 11を設けなくてよい。
[0047] なお、図 1に示すような肌状態解析システム 10においては、肌観察装置 11での処 理は、実際の肌診断における前処理であるため、例えば医療スタッフ等の医師を補 助する者が行うことができる処理であり、肌観察装置 12における処理は、実際に肌診 断を行う医師等が行うことができる処理である。
[0048] く肌観察装置 11〉
次に、肌観察装置 11の機能構成例について図を用いて説明する。図 2は、肌観察 装置の機能構成の一例を示す図である。図 2に示す肌観察装置 11は、入力手段 21 と、出力手段 22と、メンバー管理手段 23と、送受信手段 24と、蓄積手段 25と、キメ · 毛穴測定手段 26と、シミ測定手段 27と、肌色測定手段 28と、皮脂量測定手段 29と、 制御手段 30とを有するよう構成されて 、る。
[0049] 入力手段 21は、使用者等からのカウンセリング等を行うメンバー (被験者)の登録や 、測定実施日時の登録等を行う際の各種データの入力を受け付ける。また、入力手 段 21は、使用者力もの測定実施指示や肌状態解析装置 12へのデータの送信指示 等を受け付ける。なお、入力手段 21は、例えばキーボードや、マウス等のポインティ ングデバイス等力 なる。
[0050] また、出力手段 22は、入力手段 21により入力された内容や、入力内容に基づいて 実行された内容等の表示 ·出力を行う。なお、出力手段 22は、ディスプレイゃスピー 力等力もなる。更に、出力手段 22は、プリンタ等の機能を有していてもよぐその場合 には測定結果等を紙等の印刷媒体に印刷して、使用者、被験者等に提供することも できる。
[0051] また、メンバー管理手段 23は、メンバーの個人情報及び測定回数等を管理する。
具体的には、メンバー管理手段 23は、メンバーの登録を行ったり、既に登録され蓄 積手段 25に蓄積されて!ヽるメンバー情報や測定 (撮影)結果等を呼び出し、参照、 修正、削除等を行うことができる。
[0052] なお、メンバー情報として登録される内容としては、例えば各メンバーや測定内容 等を識別するための「カルテ No.」や、「氏名」、「生年月日」、「性別」、「測定部位」、 「メモ (備考)」等がある。また、登録されるメンバー情報は、本発明においては特に制 限されることはなく、例えば「生年月日」の変わりに「年代」を登録するような設定にし てもよい。また、メンバーを呼び出す場合には、上述した「カルテ No.」や「氏名」等を 用いる。
[0053] 送受信手段 24は、肌観察装置 11と肌状態解析装置 12との間で通信ネットワーク 1 3を介してデータの送受信を行うための通信インターフェースである。したがって、肌 観察装置 11は、送受信手段 24が肌状態解析装置 12からのメンバー情報や測定内 容等の各種情報の取得要求を受信したり、入力手段 21により肌状態解析装置 12に 各種情報の送信指示を受け付けたりした場合に、送受信手段 24により通信ネットヮ ーク 13を介して肌状態解析装置 12に情報を送信する。
[0054] 蓄積手段 25は、上述したメンバー管理手段 23により得られるメンバー情報や測定 内容等の各種情報を蓄積する。また、蓄積手段 25は、キメ ·毛穴測定手段 26、シミ 測定手段 27、肌色測定手段 28、皮脂量測定手段 29から得られる各測定結果を測 定日時情報やメンバー情報と関連付けて蓄積する。
[0055] 次に、キメ '毛穴測定手段 26は、観察対象の皮膚の局部に入射した光の表面反射 光を積極的に取得する光学系で撮影し、キメ '毛穴の画像データを取得する。具体 的には、例えばマイクロスコープを用い、その構成としてキメ '毛穴の撮影のために皮 膚表面の凹凸がはっきりわ力るようにするため、鏡面反射光 (照射する光と同じ偏光 の光)を取得できるよう LED (Light Emitting Diode)と CCDの前に偏光フィルタ 一等を設置する。これにより、表面反射光を積極的に取得することができる。なお、キ メ'毛穴測定手段 26は、測定された画像データを蓄積手段 25により蓄積させる。
[0056] また、シミ測定手段 27は、観察対象の皮膚の局部に入射した光の内部拡散光を積 極的に取得する光学系で撮影し、シミの画像データを取得する。具体的には、例え ばマイクロスコープを用い、その構成としてシミの撮影のため、内部からの光を取得 するために内部拡散光(照射する光と垂直の偏光の光)を取得できるように、 LEDと CCDの前に偏光フィルタ一等を設置する。これにより、内部拡散光を積極的に取得 することができる。なお、シミ測定手段 27は、測定された画像データを蓄積手段 25に より蓄積させる。
[0057] なお、キメ'毛穴測定手段 26とシミ測定手段 27では、それぞれ個別の偏光フィルタ 一を設けている力 マイクロスコープに偏光フィルターをそれぞれ切り替え可能な機 構を設けてもよい。この偏光フィルターの切り替えに関する手法としては、例えば上述 した特許文献 2 (特開平 7— 323013号公報)に示されて 、る手法を用いることができ る。
[0058] また、肌色測定手段 28は、観察対象の皮膚の局部に入射した光に対して取得でき る全ての光を取得する光学系で撮影し、肌色の画像データを取得する。なお、全て の光を取得する光学系とは、上述したキメゃシミの撮影では鏡面反射や内部拡散光 を積極的に取得する光学系を利用している力 肌色の場合はフィルターを通さず肌 力も返ってきた光を全て受光する光学系を用いることを示している。また、肌色測定 手段 28は、肌の撮影を行うと共に撮影後の画像に対する色の校正を行うための校正 板の撮影を行う。ここで、校正板とは、肌色の測定を行う度に色を校正するためのも のであり、校正板の RGBの値は予め設定されている。つまり、校正板を用いることで 、 CCDで受光して得られる RGB値を本来測色して得られる RGB値にするため、校 正板を撮影して CCDで受光して得られる RGB値力も校正板本来の RGB値との関係 式を作成し、その式で肌色の本来の RGB値へと校正している。なお、肌色測定手段 28における皮膚と校正板の撮影の順番はどちらでもよい。また、肌色測定手段 28は 、測定された画像データを蓄積手段 25により蓄積させる。
[0059] また、皮脂量測定手段 29は、例えばリピットマーカーを測定部位に一定時間押し 当て、その押し当てたリピットマーカーを撮影することで、皮脂量の測定を行う。なお 、リピットマーカーとは、測定部位に接着させると皮膚上の皮脂を吸着し、吸着部分 の色が変化するものである。このように、皮脂量測定手段 29により得られるリピットマ 一力一の色の変化に基づいて、マイクロスコープで撮影された画像力 後述する肌 解析装置 12により解析が行われ皮脂の吸着量の数値ィ匕が行われる。なお、皮脂量 測定手段 29は、測定された画像データを蓄積手段 25により蓄積させる。
[0060] また、制御手段 30は、肌観察装置 11の各構成部全体の制御を行う。具体的には、 例えば入力手段 21からの指示等に基づいて、使用者等からの測定開始指示に基づ き、測定日時の設定や部位の決定指示に対応して対応する測定手段により測定を 行わせ、その内容を蓄積手段 25への登録、測定した各種データを肌状態解析装置 12へ送信させる等の制御を行う。
[0061] く肌状態解析装置 12〉
次に、肌状態解析装置 12の機能構成例について図を用いて説明する。図 3は、肌 状態解析装置の機能構成の一例を示す図である。図 3に示す肌状態解析装置 12は 、入力手段 41と、出力手段 42と、メンバー管理手段 43と、送受信手段 44と、蓄積手 段 45と、解析手段 46と、表示画面生成手段 47と、制御手段 48とを有するよう構成さ れている。
[0062] 入力手段 41は、肌観察装置 11により取得し蓄積手段 45に蓄積されているメンバ 一情報の呼び出しや肌観察装置 11から得られた各種データを解析、評価を行うた めの指示を行ったり、評価された結果を表示させるための指示等を行う際の各種デ ータの入力を受け付ける。なお、入力手段 41は、例えばキーボードや、マウス等のポ インティングデバイス等力 なる。
[0063] また、出力手段 42は、入力手段 41により入力された内容や、入力内容に基づいて 実行された内容を表示する。なお、出力手段 42は、ディスプレイやスピーカ等力ゝらな る。更に、出力手段 42は、プリンタ等の機能を有していてもよぐその場合には測定 結果等を紙等の印刷媒体に印刷して、使用者、被験者等に提供することもできる。
[0064] また、メンバー管理手段 43は、メンバーの個人情報及び測定回数等を管理する。
具体的には、メンバー管理手段 43は、メンバーの登録を行ったり、既に登録され蓄 積手段 45に蓄積されているメンバー情報を呼び出し、参照、修正、削除等を行うこと ができる。なお、蓄積手段 45に蓄積されるメンバー情報は、上述した肌観察装置 11 において登録される内容と略同様である。
[0065] 送受信手段 44は、肌状態解析装置 12と肌観察装置 11との間で通信ネットワーク 1 3を介してデータの送受信を行うための通信インターフェースである。したがって、肌 状態解析装置 12は、肌観察装置 11にて測定された各種の情報を通信ネットワーク 1 3を介して送受信手段 44から受信する。また、肌観察装置 11に各種情報の取得要 求を行い、まだ送信されていない情報があれば、その情報を取得する。
[0066] また、蓄積手段 45は、肌観察装置 11から取得されるメンバー情報や各種測定内容 等の各種情報、解析手段 46により解析された解析結果、表示画面生成手段 47に解 析結果が表示され、カウンセラーや医師等により診断 (評価)された結果等を蓄積す る。なお、蓄積手段 45は、測定データや解析結果、評価結果等を測定日時情報及 びメンバー情報に関連づけて蓄積する。
[0067] また、解析手段 46は、肌観察装置 11にて測定された、キメ '毛穴、シミ、肌色、皮脂 量のそれぞれの測定結果に対して少なくとも 1つの解析を行う。具体的には、解析手 段 46は、キメ '毛穴の測定結果の入力に対して、キメの特徴を表す「皮丘の細かさ」、 「皮丘の形状」、「皮溝の鮮明さ」、「毛穴の大きさ」のうち、少なくとも 1つの情報につ いて数値ィ匕を行う。数値化する際は、まず被験者の肌が撮影された画像から R成分、 G成分、及び B成分を抽出し、抽出された R成分と、 B成分あるいは G成分とから毛穴 画像を抽出する。また、毛穴画像カゝら毛穴の大きさを数値ィ匕する。また、 G成分から 皮溝画像を抽出し、抽出された皮溝画像力ゝら皮溝の鮮明さを数値ィ匕する。更に、毛 穴画像及び皮溝画像から皮丘画像を抽出し、抽出された皮丘画像から皮丘の細か さ及び Z又は皮丘の形状を数値化する。なお、解析手段 46における上述のキメ '毛 穴等に関する数値ィ匕手法については後述する。
[0068] また、解析手段 46は、シミの測定結果に対しては、上述した数値化等の処理は行 わず、表示画面生成手段 47においてシミの測定結果を画面に表示させ、カウンセラ 一や医師等に観察、評価させる。
[0069] また、解析手段 46は、肌色の測定結果に対して、校正板を用いて校正された画像 の RGB値から、色相、明度、メラニン量、ヘモグロビン量のうち少なくとも 1つを算出 する。
[0070] 例えば、色相、明度につ!、ては、一般的な手法で RGB値力 HLS (H:色相、 L: 明度:、 S :彩度)値へ変換して、 H (色相)と V (明度)を算出することができる。また、メ ラニン量とヘモグロビン量については、例えば、上述した特許文献 1 (特開 2003— 2 4283号公報)に記載された数式に基づいて、メラニン量、ヘモグロビン量を算出する ことができる。
[0071] また、解析手段 46は、皮脂量の測定結果に対して、リピットマーカーで皮脂により 変色した面積を数値ィ匕する。なお、解析手段 46は、上述した解析結果を蓄積手段 4 5に蓄積する。
[0072] 表示画面生成手段 47は、上述したキメ ·毛穴、シミ、肌色、皮脂量のそれぞれに基 づく解析結果を表示する画面を生成し、出力手段 42により出力させて、カウンセラー や医師等に肌状態の評価を行わせる。具体的には、表示画面生成手段 47は、キメ、 毛穴の数値結果、シミの画像、肌色の数値結果、皮脂量の数値結果を一覧で表示 するよう画面を生成し、出力手段 42により表示する。なお、表示画面生成手段 47は 、キメ '毛穴、肌色、及び皮脂量については、最新の画像とその解析結果の他に、蓄 積手段 45に蓄積された同一メンバーの同一箇所の測定履歴のうち、少なくとも 1つの 画像及びその解析結果を表示させるような画面を生成する。また、表示画面生成手 段 47は、例えばシミについては最新の画像の他に、蓄積手段 45に蓄積された同一 メンバーの同一箇所の測定履歴のうち少なくとも 1つの画像を表示させるような画面 を生成する。
[0073] また、表示画面生成手段 47は、キメ ·毛穴、シミ、肌色、皮脂量について、予め蓄積 された各年齢毎の分布データを作成し、その分布データ上に被験者の測定データを 表示させる処理も行うことができる。これにより、年齢 (年代、世代)毎の相対的な評価 を行うことができる。更に、表示画面生成手段 47は、過去の測定結果を経過データと して経時的(時系列)に表示させるような画面を生成する。これにより、肌状態の経時 的な変化や今後の肌状態の予想を高精度に行うことができる。
[0074] なお、表示画面生成手段 47は、表示された結果から評価した!/、領域を入力手段 4 1等によりカウンセラー等に選択させて、選択された領域における RGB値や HLS値 等を解析手段 46により解析させて再表示することもできる。
[0075] 例えば、シミの解析の場合は、まず、画像の中から解析領域が設定されることで、そ の領域内の R値 (赤)、 G値 (緑)、 B値 (青)、 H値 (色相)、 L値 (明度)、 S値 (彩度)を 測定し、その内容を過去の測定結果と共に表示することで、色の変化や明るさの変 化を把握することができ、シミの評価を高精度に行うことができる。なお、表示画面生 成手段 47により得られる出力画面例については後述する。
[0076] また、制御手段 48は、肌状態解析装置 12の各構成部全体の制御を行う。具体的 には、例えば入力手段 41からの指示等に基づいて、肌観察装置 11からのメンバー 情報や測定内容等の各種情報を送受信手段 44から受信させ、蓄積手段 45に各種 情報を蓄積させ、また測定内容の解析や、表示出力等の各処理の制御を行う。
[0077] く解析手段 46におけるキメ ·毛穴に関する数値ィ匕手法〉
ここで、上述した解析手段 46におけるキメ '毛穴に関する数値ィ匕手法について説 明する。図 4は、解析手段におけるキメ,毛穴に関する数値ィ匕手法を実現するための 概略構成の一例を示す図である。図 4に示す構成は、画像入力手段 51と、 RGB成 分抽出手段 52と、毛穴画像抽出手段 53と、毛穴パラメータ生成手段 54と、皮溝画 像抽出手段 55と、皮溝パラメータ生成手段 56と、皮丘画像抽出手段 57と、皮丘パラ メータ生成手段 58と、パラメータ解析手段 59とを有するよう構成されて ヽる。 [0078] 画像入力手段 51は、上述した肌観察装置 11等からの画像を入力する。なお、入 力される画像は、高画質カメラ等により撮影された画像でもよいが、例えばビデオマイ クロスコープ (VMS : Video Micro Scope)等のような顕微鏡等により撮影された 高画質画像が好ましい。なお、画像入力手段 51は、取得した画像が肌の局部の画 像である場合には入力した画像をそのまま、 RGB成分抽出手段 52に出力する。また 、画像入力手段 51は、取得した画像が顔全体の画像である場合は、予め設定され た画像サイズ (領域)毎に分離し、分離した画像又は分離した画像の中から使用者等 により選択された画像を RGB成分抽出手段 52に出力する。
[0079] RGB成分抽出手段 52は、入力画像を三原色である R (Red)成分、 G (Green)成 分、 B (Blue)成分の画像を抽出する。また、 RGB成分抽出手段 52は、それぞれの R 、 G、 B成分のそれぞれの歪み補正を行う。ここで、各成分の歪み補正は、ガウシアン フィルター(Gaussian Filter)等の補正手法を用いることができる。また、 RGB成分 抽出手段 52は、 R成分、及び、 B成分あるいは G成分の画像を毛穴画像抽出手段 5 3に出力する。また、 RGB成分抽出手段 52は、皮溝の画像抽出に用いられる成分の 画像 (例えば、 G画像)を皮溝画像抽出手段 55に出力する。
[0080] 毛穴画像抽出手段 53は、 RGB成分抽出手段 52により得られる R成分、及び、 B成 分あるいは G成分の画像力も毛穴画像の抽出を行う。具体的には、毛穴画像抽出手 段 53は、例えば R成分及び B成分の差分画像を生成し、生成した差分画像を二値 化して平滑化処理等を行い毛穴画像の抽出を行う。なお、差分画像は、 R成分から B 成分を差分した画像 (R— B画像)を用いることが好ま 、が、その逆であってもよ!/、。
[0081] また、毛穴画像抽出手段 53は、 R成分及び G成分の差分画像を生成し、生成した 差分画像を二値化して平滑化処理等を行 、毛穴画像の抽出を行ってもょ ヽ。なお、 R成分及び B成分を用いた差分画像の方が、コントラストがよく、抽出がしゃすい。ま た、以下の説明では、主に R成分及び B成分による差分画像を用いた例について説 明するが、本発明においてはこれに限定されず、上述したように R成分及び G成分に よる差分画像を用いてもよい。毛穴画像抽出手段 53は、抽出された画像を毛穴パラ メータ生成手段 54及び皮丘画像抽出手段 57に出力する。
[0082] 毛穴パラメータ生成手段 54は、毛穴抽出画像に基づいて毛穴の大きさを算出し、 算出した結果に基づいてパラメータを生成する。また、毛穴パラメータ生成手段 54は 、生成された毛穴パラメータをパラメータ解析手段 59に出力する。
[0083] 一方、皮溝画像抽出手段 55は、入力された G成分の画像のノイズ除去を行う。また 、皮溝画像抽出手段 55は、ノイズ除去した G成分についてガウシアンフィルタ一によ る画像の微分処理や、微分した画像の二値化等を行い、皮溝画像の抽出を行う。な お、皮溝画像抽出手段 55は、 G成分の画像に限定されず、 R成分の画像や B成分 の画像、あるいは R, G, Bの各成分のうち複数の成分を合成した画像等を用いて皮 溝画像を抽出してもよい。
[0084] 更に、皮溝画像抽出手段 55は、皮溝画像を皮溝パラメータ生成手段 56及び皮丘 画像抽出手段 57に出力する。皮溝パラメータ生成手段 56は、皮溝の鮮明さについ てのパラメータを算出する。また、皮溝パラメータ生成手段 56は、生成した皮溝パラメ ータをパラメータ解析手段 59に出力する。
[0085] 次に、皮丘画像抽出手段 57は、毛穴画像抽出手段 53及び皮溝画像抽出手段 55 により得られる画像に基づいて、皮丘画像を抽出する。具体的には、皮溝画像抽出 手段 55により得られる画像を白黒反転させ、更に毛穴画像抽出手段 53により得られ る画像も用いて画像中における毛穴部分を除去して、ノイズ除去処理等を行い、皮 丘抽出画像を抽出する。更に、皮丘画像抽出手段 57は、抽出された皮丘画像を皮 丘パラメータ生成手段 58に出力する。皮丘パラメータ生成手段 58は、皮丘の細かさ 、皮丘の形状におけるパラメータを生成する。また、皮丘パラメータ生成手段 58は、 生成したパラメータをパラメータ解析手段 59に出力する。
[0086] パラメータ解析手段 59は、毛穴パラメータ生成手段 54、皮溝パラメータ生成手段 5 6、及び皮丘パラメータ生成手段 58から得られるパラメータのうち、少なくとも 1つのパ ラメータに基づいて肌状態の解析を行う。なお、ノ メータ解析手段 59は、出力手段 42等において、毛穴パラメータ、皮溝パラメータ、及び皮丘パラメータ、毛穴画像、 皮溝画像、及び皮丘画像のうち、少なくとも 1つを色分けして表示させ、それぞれの 隣接間の毛穴、皮溝、及び皮丘を異ならせた色で表示させる。これにより、異なる毛 穴部分や皮溝部分、皮丘部分においては、それぞれが個々に視覚上明確に表示さ せることができる。したがって、使用者、被験者等は、毛穴や皮丘等の形状や大きさ、 数等を容易に把握することができる。また、色分けの他にも、斜線や網線等によりそ の場所が何を示すものかが容易に把握できるような表示処理が行われてもよ 、。
[0087] これにより、被験者の肌の状態を、毛穴の大きさ、皮溝の鮮明さ、皮丘の細かさ、皮 丘の形状のうち少なくとも 1つの情報 (パラメータ)に基づいて、被験者の肌状態、特 に肌のキメ又は毛穴を高精度に解析することができる。
[0088] ここで、上述した肌状態解析装置 12は、上述した機能を有する専用の装置構成に より制御を行うこともできるが、各機能をコンピュータに実行させることができる実行プ ログラムを生成し、例えば、汎用のパーソナルコンピュータ、サーバ等にその実行プ ログラムをインストールすることにより、本発明における肌状態解析処理を実現するこ とがでさる。
[0089] 〈ハードウェア構成〉
ここで、本発明における肌状態解析が実現可能なコンピュータのハードウェア構成 例について図を用いて説明する。図 5は、本発明における肌状態解析が実現可能な ハードウェア構成の一例を示す図である。
[0090] 図 5におけるコンピュータ本体には、入力装置 61と、出力装置 62と、ドライブ装置 6 3と、補助記憶装置 64と、メモリ装置 65と、各種制御を行う CPU (Central Processi ng Unit) 66と、ネットワーク接続装置 67とを有するよう構成されており、これらはシ ステムバス Bで相互に接続されて!、る。
[0091] 入力装置 61は、使用者等が操作するキーボード及びマウス等のポインティングデ バイスを有しており、使用者等力 のプログラムの実行等、各種操作信号を入力する 。出力装置 62は、本発明における処理を行うためのコンピュータ本体を操作するの に必要な各種ウィンドウやデータ等を表示するモニタを有し、 CPU66が有する制御 プログラムによりプログラムの実行経過や結果等を表示することができる。
[0092] ここで、本発明にお!/、て、コンピュータ本体にインストールされる実行プログラムは、 例えば、 CD— ROM等の記録媒体 68等により提供される。プログラムを記録した記 録媒体 68は、ドライブ装置 63にセット可能であり、記録媒体 68に含まれる実行プロ グラムが、記録媒体 68からドライブ装置 63を介して補助記憶装置 64にインストール される。 [0093] 補助記憶装置 64は、ハードディスク等のストレージ手段であり、本発明における実 行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて 入出力を行うことができる。
[0094] CPU66は、 OS (Operating System)等の制御プログラム、及びメモリ装置 65に より読み出され格納されている実行プログラムに基づいて、各種演算や各ハードゥエ ァ構成部とのデータの入出力等、コンピュータ全体の処理を制御して、肌状態解析 等における各処理を実現することができる。プログラムの実行中に必要な肌測定結果 等の各種情報等は、補助記憶装置 64から取得することができ、また実行結果等を格 糸内することちでさる。
[0095] ネットワーク接続装置 67は、通信ネットワーク等と接続することにより、実行プロダラ ムを通信ネットワーク 13に接続されて!、る他の端末等力 取得したり、プログラムを実 行することで得られた実行結果又は本発明における実行プログラム自体を他の端末 等に提供することができる。上述したようなハードウェア構成により、本発明における 肌状態解析処理を実行することができる。また、プログラムをインストールすることによ り、汎用のパーソナルコンピュータ等で本発明における肌画像の解析を容易に実現 することができる。次に、肌状態解析処理の具体的な内容について説明する。
[0096] く肌状態解析処理手順〉
次に、本発明における肌状態解析システムの処理手順の一例についてフローチヤ ートを用いて説明する。図 6は、本発明における肌状態解析処理手順の一例を示す フローチャートである。なお、図 6に示すフローチャートは、上述した肌観察装置 11及 び肌状態解析装置 12における肌状態解析システムにつ ヽての処理手順である。
[0097] 図 6に示すフローチャートでは、まず肌解析を行うにあたり、被験者カ ンバー登録 されているカゝ否かを判断する(S01)。ここで、メンバー登録されていない場合(S01 において、 NO)、メンバーの登録を行う(S02)。なお、登録されるメンバー情報として は、上述したメンバー管理手段 23で示したように、各測定内容を識別するための「力 ルテ No.」や、「氏名」、「生年月日」、「性別」、「測定部位」、「メモ (備考)」等がある。 また、登録されるメンバー情報は、本発明においては特に制限されることはなぐ例え ば「生年月日」の変わりに「年代」を登録するような設定にしてもょ 、。 [0098] また、 SOIの処理において、メンバーが登録されているか否かを判断する場合は、 蓄積手段に蓄積されて 、る情報から「カルテ No.」や「氏名」等を用いて検索すること で、メンバーの登録の有無を確認することができる。
[0099] また、 S02の処理によるメンバーの登録後、又はメンバー情報が既に登録されてい る場合 (S01において、 YES)、測定内容の設定を行う(S03)。具体的には、上述し たように、皮膚のキメ ·毛穴、シミ、肌色、皮脂量の測定のうち少なくとも 1つが設定さ れた情報を取得する。
[0100] 次に、 S03の処理において、取得した測定内容に基づく測定を行う(S04)。なお、 測定手法は、上述した肌観察装置 11で示した測定を実施する。なお、測定する際に は、測定日時を取得しておき、その日時情報とメンバー情報と共に測定結果を蓄積 する(S05)。 日時情報と共に蓄積することで、後述する評価処理において、メンバー の測定結果を経時的に表示することができる。これにより、肌状態の多角的な解析、 評価を実現することができる。
[0101] 次に、測定された結果に基づいて、皮膚のキメ '毛穴、シミ、肌色のうち、少なくとも 1つの解析を行い (S06)、その解析結果や測定結果の画像を所定の条件に基づき 表示画面を生成(S07)する。また、 S07の処理において、生成された画面をディスプ レイ等の出力手段により表示して医師や被験者に提示する(S08)。また、解析結果 や評価結果を蓄積し (S09)、処理を終了する。なお、上述した S01〜S09の処理に おいて、 S01〜S05を肌観察処理とし、 S06〜S09を肌状態解析処理として、別プロ グラムとして個々の装置にインストールされてもよぐ同一の装置にインストールされて もよい。つまり、肌の測定のみを行う場合には、 S01〜S05までの処理を実行すれば よぐ測定結果が既に登録されている場合には S06〜S09までの処理を行えばよい
[0102] 上述したように、本発明における肌状態解析処理により、結果値の算出や撮影画 像の観察だけでなぐ年代分布や経時分布の結果等の肌状態の多角的な解析を高 精度に行うことができる。
[0103] く S06 :解析処理〉
ここで、上述した解析処理のうち、特にキメ ·毛穴に関する解析処理について、具体 的に説明する。図 7は、キメ '毛穴に関する解析処理手順の一例を示すフローチヤ一 トである。
[0104] 図 7に示すフローチャートにおいて、まず、上述した S05にて蓄積された肌画像を 入力し (Sl l)、 RGB成分の抽出を行う(S12)。ここで、元画像として入力される画像 としては、例えば上述した VMSにより取得される肌の局部画像を用いることとするが 、被験者の顔の全体画像であってもよい。その場合には、所定の画像領域に分離し て、分離された画像毎に RGB成分の抽出処理を行ってもよい。
[0105] 次に、 S12において、抽出された R成分、 G成分、及び B成分の画像を用いて、毛 穴の大きさ、皮溝の鮮明さ、皮丘の細かさ、及び皮丘の形状うち、少なくとも 1っをパ ラメータ化する(S13)。次に、 S03にて生成されるパラメータのうち、少なくとも 1つを 用いて S 11により入力した肌画像に対するキメ又は毛穴の解析を行う(S 14)。
[0106] ここで、 S13におけるパラメータの生成については、図 7に示すように、 S12力ら得ら れる R成分及び B成分の画像を用いて毛穴画像を抽出し (S21)、抽出された毛穴画 像から毛穴の大きさを数値等を用いてパラメータ化して、毛穴パラメータを生成する( S22)。
[0107] また、 S12から得られる G成分の画像を用いて皮溝画像を抽出し (S23)、抽出され た皮溝画像力 皮溝の鮮明さを数値等を用いてパラメータ化して、皮溝パラメータを 生成する(S24)。なお、皮溝の鮮明さは、所定の画像サイズ中に含まれる皮溝の幅 等により表現される。
[0108] 更に、 S21の処理により得られる毛穴画像及び S23の処理により得られる皮溝画像 に基づいて、皮丘画像を抽出し (S25)、抽出した皮丘画像力も皮丘の細力さ及び皮 丘の形状を数値等を用いてパラメータ化して、皮丘パラメータを生成する(S26)。
[0109] また、 S14では、毛穴パラメータ、皮溝パラメータ、及び皮丘パラメータと、毛穴画像 、皮溝画像、及び皮丘画像のうち、少なくとも 1つを色分けして表示させ、それぞれの 隣接間の前記毛穴、前記皮溝、及び前記皮丘を異ならせた色で表示させる。これに より、異なる毛穴部分や皮溝部分、皮丘部分においては、それぞれが個々に視覚上 明確に表示させることができる。したがって、使用者等は、毛穴や皮丘等の形状ゃ大 きさ、数等を容易に把握することができる。また、色分けの他にも、斜線や網線等によ りその場所が何を示すものかが容易に把握できるような表示処理が行われてもよ 、。
[0110] く毛穴画像抽出、毛穴パラメータ生成〉
次に、上述した S21、 S22における毛穴画像抽出、及び毛穴パラメータ生成につい て、具体的に説明する。図 8は、本発明における毛穴画像抽出及び毛穴パラメータ 生成処理手順の一例を示すフローチャートである。また、図 9は、毛穴画像の抽出過 程における各画像の一例を示す図である。
[0111] 図 8に示すフローチャートでは、上述したように、まず入力画像である元画像(図 9 における元画像 71)から RGB成分を抽出することにより得られる R画像及び B画像を 入力する(S31)。また、それぞれの画像の周辺部の歪みを取り除くため、ガウシアン フィルタ一等により歪み補正を行う(S32)。
[0112] ここで、歪み補正は、例えば平滑ィ匕フィルタ一としてガウシアンフィルターを用いる。
なお、ガウシアンフィルタ一等の平滑ィ匕フィルタ一は、カットオフ周波数を大きめに設 定すると歪みを補正することができず、またカットオフ周波数を小さめに設定すると、 歪みを補正することができるが、本来キメである部分までもが補正により削除されてし まう。したがって、肌画像の倍率、解像度等に基づいて適切な値を設定する。例えば 、入力画像が 50倍のマイクロスコープを用いて 640 X 480画素の 8bitの画像を用い た場合、ガウシアンフィルターのカットオフ周波数は、 1. 6〜1. 8mmとすることが好 ましい。
[0113] 次に、歪み補正された画像(図 9における R画像 72、 B画像 73)について、 R画像か ら B画像を差分演算して毛穴の強調を行う(S33)。ここで、差分演算は、画像内容に より種々の演算方式がある力 R— B差分演算式の一例として、 "R— B *R— aveZ B— ave X a"を用いる。なお、 R— aveは、 R成分の平均値を示し、 B— aveは、 B成分 の平均値を示す。また、 aは、肌画像の画像サイズや解像度等により任意に設定され る値を示すが aの値は 1. 3〜1. 5であることが好ましい。
[0114] また、算出された R—B差分画像の 2値ィ匕を行い(図 9における画像 74)、毛穴部分 の抽出を行う(S34)。更に、 S34により得られた R—B差分画像力も細い皮溝を除去 し、ノイズの除去を行った部分の穴埋め処理を行う(S35)。具体的には、例えばメデ イアンフィルタ一等を用いて平滑ィ匕を行う。この場合、フィルタリングとしては、例えば 3 X 3画素の矩形画像について縮小及び拡大を 1〜 10回繰り返したり、 5 X 5画素の 矩形画像について縮小及び拡大を 1〜5回繰り返すことにより細い皮溝のフィルタリ ングを行う。これにより、細い皮溝部分を除去する(S36)。なお、上述した R— B差分 画像は、上述したように R—G差分画像であってもよい。
[0115] 上述したような処理を行うことで、ある程度の大きさを有する皮溝を肌状態の解析の 対象とすることにより、細い皮溝又はノイズによる誤差を無くして均一的に高精度な肌 状態の解析を実現することができる。
[0116] また、 S36により抽出された細い皮溝を除去した画像を用いて、皮溝毎にラベリング 処理を行うことによりノイズを除去し (S37)、更に S37により取得した画像(図 9におけ る画像 75)から太い皮溝部分を削除することにより、毛穴抽出後の画像(図 9におけ る画像 76)を抽出する(S38)。なお、 S37におけるノイズ除去処理は、例えば、 50〜 400画素以下(0. 005mm2〜0. 04mm2以下)を基準として毛穴を抽出することによ り、それ以外の毛穴部分や皮溝を削除することでノイズ除去を行う。
[0117] 次に、本発明における毛穴パラメータの生成において、毛穴パラメータとして用いら れる毛穴の大きさは、毛穴の平均面積を指標とする。具体的には、所定画像領域中 における毛穴平均面積又は毛穴の総面積を算出して (S39)、算出された面積を指 標として毛穴の大きさのパラメータを生成して出力する(S40)。
[0118] く皮溝画像抽出、皮溝パラメータ生成〉
次に、上述した S23、 S24における皮溝画像抽出、及び皮溝パラメータ生成につい て、具体的に説明する。図 10は、本発明における皮溝抽出及び皮溝パラメータ生成 処理手順の一例を示すフローチャートである。また、図 11は、皮溝画像の抽出過程 における各画像の一例を示す図である。
[0119] 図 10に示すフローチャートにおいて、上述したように、まず入力画像である元画像( 図 11における元画像 71)から RGB成分を抽出することにより得られる G画像を入力 する(S41)。また、画像の周辺部の歪みを取り除くため、ガウシアンフィルタ一等によ り歪み補正を行う(S42)。例えば、 50倍のマイクロスコープを用いて 640 X 480画素 の 8bitの画像を用いた場合、ガウシアンフィルターのカットオフ周波数を 1. 6〜1. 8 mmとして画像のフィルタリングを行う。 [0120] 次に、歪み補正した画像(図 11における G画像 81)のノイズ除去を行う(S43)。な お、ここでのノイズ除去は、平滑ィ匕フィルターを用いる。ここで、例えば、平滑ィ匕フィル ターとして、形は主に十字型で大きさは 3 X 3画素(0. 03 X 0. 03mn!)〜 5 X 5画素 (0. 05 X 0. 05mm)を用いる。
[0121] 次に、ノイズ除去された画像を用いて微分フィルターによる皮溝の強調を行う(S44 )。なお、微分フィルタ一は、皮溝の幅や皮溝の分布の特徴を活力ゝして、微分フィルタ 一の最適なサイズを設定する。具体的には、各画素に対して適切な大きさ(例えば、 5 5画素(0. 05 X 0. 05mm;)〜 45 X 45画素(0. 45 X 0. 45mm) )の微分フィル ター処理を行う。このため、サイズが小さすぎることによりノイズが多くなることなぐま たサイズが大きすぎることにより皮溝の他に毛穴が抽出されてしまうことを防止するこ とができる。これにより、皮溝を強調し毛穴を削除した画像(図 11における画像 82)を 取得することができる。更に、 S44の処理により得られる画像をニ値ィ匕することにより、 皮溝の画像(図 11における画像 83)を抽出する(S45)。
[0122] また、 S45により抽出された皮溝画像を用いて、皮溝毎にラベリング処理を行うこと によりノイズを除去する(S46)。具体的には、 50〜400画素以下(0. 005mm2〜0. 04mm2以下)を基準として毛穴や所定の幅の皮溝をノイズとして除去して、ノイズ除 去された皮溝画像(図 11における画像 84)を抽出する(S47)。
[0123] 更に、 S47により得られる皮溝画像について細線ィ匕処理を行い(S48)、細線化さ れた皮溝解析画像(図 11における画像 85)を抽出する(S49)。
[0124] 次に、本発明における皮溝パラメータの生成において、皮溝パラメータとして用いら れる皮溝の鮮明さは、所定画像中に含まれる皮溝の平均幅を指標とする。具体的に は、 S47により得られる皮溝の面積を S49により得られる皮溝細線ィ匕画像における皮 溝の面積で除算 (皮溝面積 Z皮溝細線ィ匕画像の面積)し (S50)、算出された値によ り皮溝の幅 (太さ)をパラメータ化することにより、皮溝の鮮明さのパラメータを生成し て出力する(S51)。
[0125] く皮丘画像抽出、皮丘パラメータ生成〉
次に、上述した S25、 S26における皮丘画像抽出、及び皮丘パラメータ生成につい て、具体的に説明する。図 12は、本発明における皮丘抽出及び皮丘パラメータ生成 処理手順の一例を示すフローチャートである。また、図 13は、皮丘画像の抽出過程 における各画像の一例を示す図である。
[0126] 図 12に示すフローチャートにおいて、上述したように、まず S47で得られる皮溝画 像(図 13における画像 91)を入力する(S61)。また、入力した皮溝画像を白黒反転 し、得られた反転画像のうち、皮丘毎にラベリング処理を行うことによりノイズを除去す る(S62)。
[0127] ここで、ラベリングされた皮丘のうち、複数の皮丘が連結していることにより 1つの皮 丘としてラベリングされている可能性がある。この場合には、後の処理で皮丘の数を ノ ラメータの指標とするため、皮丘毎に正確にラベリングされている必要がある。その ため、 S62により得られた画像(図 13における画像 92)を用いて皮丘離散を行う(S6 3)。
[0128] 具体的には、 S62により得られた皮丘毎における各画像領域に対して画像を周辺 部から所定の画素分 (例えば、 1〜2画素分)を縮小させた画像を生成することで、皮 丘の分離を行う。図 14は、画像中における皮丘を分離させる一例を説明するための 図である。図 14 (a)に示すように、 S62によりラベリングされた皮丘は、複数の皮丘が 連結して 1つの皮丘としてラベリングされる可能性がある。そこで、図 14 (b)に示すよ うに、ラベリングされたそれぞれの皮丘画像の周辺を 1画素分縮小して皮丘離散させ た画像(図 13における画像 93)を抽出する。なお、画像の周辺部分を縮小させる画 素数は、 1画素に限定されるものではなぐ例えば 2画素や 3画素等であってもよい。
[0129] 次に、上述した S38により得られる毛穴画像を入力し(S64)、入力した毛穴画像の 毛穴部分の除去を行う(S65)。具体的には、 S63の処理により抽出された皮丘離散 と、 S64により入力した毛穴画像の差分画像を求めて皮丘解析画像(図 13における 画像 94)を生成する。
[0130] 次に、皮丘毎にラベリング処理によるノイズ除去を行い(S66)、ノイズ除去された画 像を皮丘画像として出力する(S67)。ここで、ノイズ除去は、例えば 1〜: LOO画素以 下(0. 001mm2〜0. 01mm2以下)を基準として所定の大きさの皮丘画像を取得す る。
[0131] 次に、本発明における皮丘パラメータの生成において、皮丘パラメータとして用いら れる皮丘の細かさは、顔の表面積や 100cm2等の所定の画像領域中に含まれる皮 丘の数又は皮丘の平均面積を指標とする。具体的には、 S67により得られる皮丘画 像力もラベル数の算出を行う(S68)。ここで、ラベル数は、上述したように画像中に含 まれるラベリングされた皮丘の数を示す。この皮丘の数を皮丘の細力さの指標として 数値等を用いてパラメータ化して出力する(S69)。なお、皮丘の数の算出手法として は、例えば 4. 8mm四方の画像領域中に皮丘が何個あるかをカウントしてもよぐそ の数値を顔の表面積に対応させて合計何個になるカゝを算出してもよい。なお、皮丘 の数のカウント手法については、これに限定されるものではなぐ例えば画像から手 計算もしくは他の方法で皮丘をカウントして顔の表面積に対応させてもょ 、。
[0132] また、所定の画像領域中に含まれる皮丘の平均面積を算出してその値を皮丘の細 力さを表してもよい。その場合には、その平均面積を顔の表面積に対応させて皮丘 の数が合計何個になる力を算出してもよ 、。
[0133] また、本発明におけるパラメータの生成において、皮丘の細かさ以外の皮丘パラメ ータとして用いられる皮丘の形状は、所定画像中に含まれる皮丘の円形度を指標と する。具体的には、 S67により得られる皮丘画像の形状から円形度を算出し (S70)、 算出した円形度を数値等を用いてパラメータ化して出力する(S71)。ここで、 S71に おける円形度は、例えば取得した皮丘画像について、 "4 π X皮丘の面積 Ζ (皮丘の 周囲長 X皮丘の周囲長) Ίこより算出することができる。なお、算出手法については、 これに限定されるものではない。
[0134] このように、上述にて得られたパラメータに示すように、肌のキメ又は毛穴を解析す るための条件 (指標)として「毛穴の大きさ」、「皮溝の鮮明さ」、「皮丘の細かさ」、及び 「皮丘の形状」の 4つのパラメータを用いることにより数値化された肌状態の解析を高 精度に行うことができる。
[0135] また、本発明によれば、上述したパラメータについては、「毛穴の大きさ」を肌画像 力 得られる毛穴の面積に基づいて生成し、「皮溝の鮮明さ」を肌画像力 得られる 皮溝の平均幅に基づいてパラメータを生成し、「皮溝の鮮明さ」を肌画像力 得られ る皮丘のラベル数 (皮丘の数)に基づいて生成し、「皮丘の形状」を肌画像から得られ る皮丘の円形度に基づいて生成する。これにより、高精度なキメ又は毛穴の解析を 実現することができる。したがって、肌状態の多面的な解析を高精度に行うことができ る。
[0136] く表示画面例〉
次に、本発明における表示画面例について、図を用いて説明する。なお、以下に 示す画面例は、例えばメインメニュー等を設けてその情報力も選択することができる。 また、各画面における表示項目の種類や表示レイアウトにおいては、本発明におい ては限定されるものではない。
[0137] 〈メンバー管理画面〉
図 15は、メンバー管理画面の一例を示す図である。図 15に示すメンバー管理画面 100は、メンバー選択領域 101と、メンバ一一覧表示領域 102と、備考内容表示領 域 103とを有するよう構成されている。メンバー選択領域 101には、「カルテ No. 」、「 氏名」、「性別」、「生年月日」、「測定部位」、「前回測定日」等の人力を行うことができ る。また、メンバー選択領域には、「検索ボタン」、「クリアボタン」、「測定'解析ボタン」 、「新規登録ボタン」、「修正ボタン」、「入れ替えボタン」等が設けられている。
[0138] まず、被験者のメンバー情報が含まれているかを確認する場合、例えば図 15に示 す「カルテ No.」や「氏名」等を入力して「検索ボタン」を選択 (クリック)する。もし登録 されていれば、他の項目(「性別」、「生年月日」、「測定部位」、「前回測定日」等)が 表示されるため、メンバー登録の有無を確認することができる。なお、「クリアボタン」 は、検索の際、入力された「カルテ No.」や「氏名」のデータをクリアにする。また、「測 定 '解析ボタン」は実際に肌の測定を行う場合に選択する。
[0139] また、上述したような検索をした結果、被験者カ ンバー登録されて 、な 、場合、又 は検索の結果、該当するメンバー情報がな力つた場合には、その旨を示すメッセ一 ジを表示される。その場合には、例えば、上述した「カルテ No.」、「氏名」、「性別」、 「生年月日」、「測定部位」、「前回測定日」、及び備考内容表示領域 103に備考内容 等を入力した後、新規登録を行うことで、メンバーとして新たに登録され、メンバ一一 覧表示領域 102に登録されたメンバー情報が表示される。なお、登録されたメンバー 情報は、所定の項目を変更した後、「修正ボタン」を選択することで、メンバー情報を 変更することができる。 [0140] なお、「入れ替えボタン」は、登録したメンバーが前回測定して力もしばらくの間、診 断に来な力つた場合等に、蓄積手段に蓄積されているそのメンバーの情報を CD- ROMや DVD等に移し替えるためのボタンである。また、メンバー管理画面 100は、 メンバーの登録数を表示する登録数表示領域 104を設けていてもよぐまたメインメ ニュー等があれば、メインメニューに戻るためのメインメニューボタン 105を設けてい てもよい。
[0141] く測定履歴一覧表示画面〉
図 16は、測定履歴一覧表示画面の一例を示す図である。図 16に示す測定履歴一 覧表示画面 110は、メンバー情報表示領域 111と、測定履歴表示領域 112とを有す るよう構成されている。メンバー情報表示領域 111は、その測定履歴に対応するメン バーの情報(「カルテ No.」、「氏名」、「生年月日」、「性別」、「測定部位」等)が表示 される。また、測定履歴表示領域 112には、測定日時に基づいて番号が付与された「 履歴番号」及び「測定日」に対応させて、キメ '毛穴、シミ、肌色、皮脂の各測定のうち 、実施した測定内容に「參」が表示される。これにより、いつどの測定を行つたかを容 易に把握することができ、今回の測定内容の設定を履歴情報を参考に正確に行うこ とができる。なお、蓄積されるメンバー毎の履歴数については、特に限定されないが 、所定数 (例えば、最大 12履歴等)を設定してもよい。
[0142] く総合結果表示画面〉
図 17は、総合結果表示画面の一例を示す図である。ここで、図 17に示す総合結果 表示画面 120は、測定したキメ '毛穴(Skin Texture)、シミ(Brown Spots)、肌 色(Skin Tone)、皮脂量 (Sebum)の各解析結果を表示するものである。具体的に は、例えば総合結果表示画面 120は、メンバー情報表示領域 121と、キメ ·毛穴解析 結果表示領域 122と、シミ解析結果表示領域 123と、肌色解析結果表示領域 124と 、皮脂解析結果表示領域 125を有するよう構成されている。メンバー情報表示領域 には、「結果表示日」、「カルテ No.」、「氏名」、「測定日」、「備考」、「測定部位」等が 表示されている。また、キメ ·毛穴解析結果表示領域 122には、キメ ·毛穴の測定画像 と、キメの細かさ、キメの幅、キメの形状、キメの大きさ等が表示される。
[0143] また、シミ解析結果表示領域 123には、シミ部分の測定画像 (局部画像又は局部拡 大画像等)が表示される。また、肌色解析結果表示領域 124には、明度及び色相に 対応させた測定結果やメラニン量、ヘモグロビン量がグラフ化されて表示される。更 に、皮脂解析結果表示領域 125には、皮脂量が数値及び Z又はグラフ化されて表 示される。ここで、総合結果表示画面 120は、その測定日における測定項目で、測定 して 、な 、項目がある場合、その項目は空欄で表示される。
[0144] また、総合結果表示画面 120には、タブ 126が設けられている。具体的には、総合 結果タブ 126— 1と、キメ ·毛穴(Skin Texture)タブ 126— 2、シミ(Brown Spots )タブ 126— 3、肌色(Skin Tone)タブ 126— 4、皮脂量(Sebum)タブ 126— 5を設 けており、各タブを選択することにより、それぞれの測定、解析結果に対応する詳細 情報が表示される。また、総合結果表示画面 120には、図 16に示すような測定履歴 一覧表示画面 110に画面を遷移させる測定履歴選択画面ボタンやメインメニューに 画面を遷移させるメインメニューボタン等が設けられて 、てもよ 、。
[0145] 〈キメ ·毛穴表示画面〉
図 18は、キメ '毛穴表示画面の一例を示す図である。図 18に示すキメ '毛穴表示画 面 130は、測定日選択部 131と、画像表示領域 132と、解析結果表示領域 133と、 各解析結果に対応した年齢分布表示領域 134— 1〜134— 4とを有するよう構成さ れている。測定日選択部 131は、コンボボックス等力もなり、今回の測定分も含めて 今まで測定した履歴の中から所望する測定日の結果に基づくキメ ·毛穴解析結果を 選択することができる。
[0146] 測定選択部 131により測定日が設定されると、対応する測定画像が画像表示領域 132に表示されると共に、キメの細かさ、キメの鮮明さ、キメの形状、毛穴の大きさを 解析し数値化された解析結果を解析結果表示領域 133に表示する。
[0147] 更に、キメ '毛穴年齢分布表示画面 130は、キメの細かさ、キメの鮮明さ、キメの形 状、毛穴の大きさのそれぞれに対して、被験者の年齢に対応する解析結果を年齢分 布表示領域 134— 1〜134— 4に対応させて表示する。なお、年齢分布表示領域 13 4— 1〜134— 4の横軸は年齢を示し、縦軸はそれぞれ対応する評価の値を示して いる。ここで、年齢分布表示領域 134— 1〜134— 4には、それぞれ評価結果を分類 する少なくとも 1つの評価範囲を示すゾーンが表示されている。このゾーンは、予め蓄 積された年齢別の評価結果に基づ!/、て、設定された評価結果の範囲を示すもので あり、例えば、「良好ゾーン」、「普通ゾーン」、「あと一歩ゾーン」、「頑張りましょうゾー ン」、「赤みゾーン」、「黄みゾーン」等に所定の分類で分類分けされて表示されている 。したがって、被験者が同年代と比較してどの状態にあるかを正確に把握することが できる。
[0148] なお、このゾーンは色分けされて表示されてもよぐ斜線や網線等により表示されて いてもよい。また、ゾーンの設定には、所定の関数等を用いて設定することが好まし い。これにより、高精度なゾーンの設定を行うことができる。例えば、このゾーンの設定 として各年代毎の 67%の人がいる平均値士標準偏差のゾーンと、 95%の人が存在 する平均値 ± 1. 95 X標準偏差のゾーンを分けて表示することができる。
[0149] なお、キメ ·毛穴年齢分布表示画面 130は、戻るボタン 135や次へボタン 136を設 けることにより、タブ 126— 1〜126— 5を選択することなく、タブ 126— 1〜126— 5に 示される各解析結果表示画面に遷移させることができる。
[0150] 〈キメ '毛穴表示画面:他の例〉
また、図 19は、キメ ·毛穴経過表示画面の他の例を示す図である。図 19に示すよう に、年齢分布表示領域 134— 1〜134— 4の代わりに、測定経過表示領域 137— 1 〜137— 4を設けることにより、他の履歴情報も閲覧することができる。ここで、測定経 過表示領域の横軸は日付を示し、縦軸は各解析結果の値に対応して設定されてい る。また、図 19に示す横軸の日付のメモリ幅は、測定回数で均等な幅に区切って示 しているが、本発明においてはこの限りではなぐ日付基準に幅を設定することで、測 定していない日における肌の状態をその前後の測定日に測定した結果力 推定する ことができる。これにより、いままでの肌の経時的な状態や、今後の予想を高精度に 行うことができる。なお、画面の表示例としてはこの限りではなぐ例えば、年齢分布 表示領域 134と測定経過表示領域 137とを両方 1画面上に表示させてもよい。
[0151] ぐンミ表示画面〉
図 20は、シミ表示画面の一例を示す図である。図 20に示すシミ表示画面 140は、 測定日選択部 141と、画像表示領域 142と、 RGB値表示部 143と、 HLS値表示部 1 44とを有するよう構成されている。ここで、画像表示領域 142のうち、シミがある等、所 定の位置を選択することにより、その部分を中心とした所定の径の正円領域 145に対 する RGB値及び HLS値がそれぞれ RGB値表示部 143及び HLS値表示部 144に 表示される。なお、上述した領域は正円に限定されず、楕円や多角形でもよい。
[0152] なお、シミ表示画面 140は、測定履歴の中から複数の評価結果を表示することがで きる。これにより、シミの経時的な評価を 1つの画面で行うことができる。
[0153] く肌色表示画面〉
図 21は、肌色表示画面の一例を示す図である。図 21に示す肌色表示画面 150は 、測定日選択部 151と、明度 ·色相相関表示領域 152と、解析結果表示領域 153と、 各解析結果に対応した年齢分布表示領域 154— 1〜154— 4とを有するよう構成さ れている。測定日選択部 151は、コンボボックス等力もなり、今まで測定した履歴の中 から所望する測定日の結果に基づく肌色解析結果を選択する。
[0154] 測定選択部 151により測定日が設定されると、対応する明度 ·色相相関関係に対し て明度,色相相関表示領域 152に表示される。なお、明度,色相相関表示領域 152 には、明度及び色相の相関関係が良好とされる良好領域 155が色分け又は斜線等 により区別されて表示されているため、被験者の解析結果 156がどの位置に属する かを正確に把握することができる。また、色相 (YR)、明度、メラニン、ヘモグロビンの それぞれの評価結果が解析結果表示領域 153に表示される。
[0155] 更に、肌色表示画面 150は、色相、明度、メラニン、ヘモグロビンのそれぞれの評 価結果に対して、被験者の年齢に対応する評価結果 157を年齢分布表示領域 154 —1〜 154— 4に対応させて表示する。なお、年齢分布表示領域 154— 1〜 154— 4 の横軸は年齢を示し、縦軸はそれぞれ対応する評価結果の値を示している。ここで、 年齢分布表示領域 154— 1〜154— 4には、上述したように、それぞれ評価結果を分 類するゾーンが表示されている。したがって、被験者が同年代と比較してどの状態に あるかを正確に把握することができる。
[0156] また、図 22は、肌色表示画面の他の例を示す図である。図 22に示すように、測定 日選択部 151及び解析結果表示領域 153を履歴情報に基づいて複数 (2以上)設け 、それぞれの評価結果 156— 1, 156— 2を明度 ·色相相関表示領域 152に表示さ せてもよい。更に、メラニン 'ヘモグロビンの相関表示領域 158を設けてもよぐそのメ ラニン ·ヘモグロビンの相関表示領域 158にそれぞれの評価結果 156 - 1, 156 - 2 を表示させてもよい。なお、これらの評価結果は、色分け又は斜線等により区別され て表示される。これにより、経時的な肌色評価を行うことができる。
[0157] く皮脂量表示画面〉
図 23は、皮脂量表示画面の一例を示す図である。図 23に示す皮脂量表示画面 1 60は、少なくとも 1つの測定日を選択する測定日選択部 161と、皮脂量表示部 162と 、皮脂量表示領域 163と、年齢分布表示領域 164と、測定経過表示領域 165とを有 するように構成されている。皮脂量表示画面 160に示すように、上述した年齢分布表 示領域 164と、測定経過表示領域 165を両方同時に表示させることもできる。また、 皮脂量表示領域 163には、皮脂量を表示することができる。
[0158] 図 23に示すように、皮脂量においては、経時的な情報を表示させることで、高精度 な肌診断を行うことができる。
[0159] 上述した画面例は一例であり、上述した各画面における項目を組み合わせて他の 画面構成を形成してもよい。これにより、経時的な情報を明確に表示させることで、高 精度な肌診断を行うことができる。
[0160] くキメ ·毛穴に関する解析実行画面〉
また、本発明では、上述したキメ '毛穴に関する解析処理における実行結果を画面 生成して表示させることができる。図 24は、本発明におけるキメ '毛穴に関する解析 実行画面の一例を示す図である。
[0161] 図 24に示すキメ '毛穴解析実行画面 170は、メイン操作ボタン領域 171と、元画像 表示領域 172と、解析結果画像表示領域 173と、解析結果画像設定領域 174と、解 析結果表示領域 175とを有するよう構成されている。
[0162] メイン操作ボタン領域 171は、元画像の入力(Load)や、肌状態の解析の実行 (An alyzed)等の操作を行う。なお、肌状態の解析処理は、上述した「毛穴の大きさ」、「 皮溝の鮮明さ」、「皮溝の鮮明さ」、及び「皮丘の形状」に対応するそれぞれのパラメ ータのうち、少なくとも 1つをパラメータ化する処理を実行させる。したがって、例えば 、毛穴パラメータのみを生成したり、全てのパラメータを生成する処理を実行させるこ とがでさる。 [0163] また、画像の入力にお 、ては、フォルダ単位やドライブ単位等の所定の記憶領域を 選択し、選択された記憶領域中に含まれる複数の画像につ!ヽて肌状態の解析を連 続的に実行する(MaltiLoad)こともできる。
[0164] また、元画像表示領域 172には、処理対象の元画像が表示され、解析結果画像表 示領域 173には、上述した肌画像の解析結果の画像が表示される。ここで、解析結 果の肌画像は、毛穴部分、皮溝部分、皮丘部分等がそれぞれ強調表示される。つま り、異なる毛穴部分や皮溝部分、皮丘部分においては、それぞれが個々に視覚上明 確に表示させるために、複数の色を用いて色分けされて表示するようにする。特に、 隣接間は異なる色で表示する。
[0165] これにより、使用者等は、毛穴や皮丘等の形状や大きさ、数等を容易に把握するこ とができる。つまり、例えば隣接する毛穴や皮溝、皮丘が 1画素分しか離れていない ような場合でも分離している力否かを容易に把握することができる。また、色分けの他 にも、斜線や網線等によりその場所が何を示すものかが容易に把握できるような表示 処理が行われる。更に、パラメータの値によって色や斜線等の表示の仕方を変え、色 と解析結果とを対応付けて表示させてもよい。これにより、例えば、所定の面積の大き さの場合には、その領域を赤色で表示する等の処理を行ってもょ 、。
[0166] また、解析結果画像設定領域 174は、解析結果画像の各部分 (皮溝 (Furrow)、 皮丘(Ridge)、(毛穴) Pore、(それらの合成) Composition)のそれぞれを表示させ ることができる。なお、表示させる画像は、上述した図 9、図 11、図 13に示すような各 処理において抽出された画像を用いる。ここで、表示される画像は、上述したように 強調表示させることができる。また、解析結果設定領域 174は、解析結果画像のみを 保存 (Save)等を行う。
[0167] また、解析結果表示領域 175は、皮溝の鮮明さ (Furrow vividness)、皮丘の細 力さ(Ridge Fineness)、皮丘の形状(Ridge Shape)、毛穴の大きさ(Pore Size )の結果 (パラメータ)を表示する。なお、図 24では、数値化された値が表示されてい る力 本発明におけるパラメータ表示はこれに限定されるものではなぐ例えば数値 に対応して予め設定された、「良い」、「普通」、「悪い」等の多数の区分を設けて、そ れぞれ対応する文字を表示させてもよい。また、 20〜23才の肌、 30代の肌等、予め ノ メータに対応して設定された肌年齢等を表示させるようにしてもよい。また、解析 結果表示領域 175は、表示された結果 (パラメータデータ)を保存する(Data Save )ことができる。
[0168] ここで、図 24に示すキメ '毛穴解析実行画面 170は、終了ボタン (Exit) 176を選択 することにより画面を閉じて処理を終了する。なお、上述したキメ ·毛穴解析実行画面 170における各領域の大きさや配置は、図 24に限定されるものではなぐ例えば、そ れぞれの領域が別の画面(ウィンドウ)に表示させるような構成であってもよ 、。
[0169] このように、図 24に示す解析実行画面による処理により、被験者の肌のキメ又は毛 穴の解析を高精度に行うことができる。また、上述したキメ ·毛穴解析実行画面 170を 用 ヽて実行させた結果の画像等を、図 17〜 19に示すキメ ·毛穴解析結果として表示 させることがでさる。
[0170] 上述したように、本発明によれば、肌状態の多角的な解析を高精度に行うことがで きる。
産業上の利用可能性
[0171] 本発明における肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを 記録した記録媒体は、例えば医療やィ匕粧品の販売等において、専門家に限らず本 発明における数値等で表現された解析結果や経時的に表示された内容を用いて均 一的に高精度な肌診断又は美容カウンセリング等を実現することができる。また、本 発明における肌状態解析の手法を被験者自らがセルフチェックを行う装置等に適用 することちでさる。
[0172] 本国際出願は 2005年 4月 28日に出願した日本国特許出願 2005— 133275号、 及び、 2005年 11月 8日に出願した日本国特許出願 2005— 324117号に基づく優 先権を主張するものであり、 2005— 133275号、及び 2005— 324117号の全内容 を本国際出願に援用する。

Claims

請求の範囲
[1] 撮影された被験者の肌の画像を用いて肌状態の解析を行う肌状態解析方法にお いて、
前記画像から肌のキメ'毛穴、シミ、肌色、皮脂量のうち、少なくとも 1つを解析する 解析ステップと、
前記画像と前記解析ステップ力 得られる解析結果とを前記被験者の肌の測定日 時や被験者情報に対応させて蓄積する蓄積ステップと、
前記蓄積ステップにより蓄積された前記被験者毎の前記画像や前記解析結果を表 示させる画面を生成する表示画面生成ステップと、
前記表示画面生成ステップにより生成された情報を出力する出力ステップとを有す ることを特徴とする肌状態解析方法。
[2] 前記表示画面生成ステップは、
前記被験者の測定結果を予め蓄積された年齢別分布における評価結果に対応付 けて表示させることを特徴とする請求項 1に記載の肌状態解析方法。
[3] 前記表示画面生成ステップは、
前記年齢別分布において、肌状態を分類分けした少なくとも 1つの評価範囲を設 定し、設定された評価範囲と解析結果とを表示させることを特徴とする請求項 1に記 載の肌状態解析方法。
[4] 前記表示画面生成ステップは、
前記被験者の最新の測定結果と前記蓄積ステップにより蓄積された過去の測定結 果との中から複数の測定結果を経時的に表示させることを特徴とする請求項 1に記 載の肌状態解析方法。
[5] 前記表示画面生成ステップは、
表示される時間軸の時間間隔を、前記測定回数又は実際の日時に対応させて表 示することを特徴とする請求項 4に記載の肌状態解析方法。
[6] 撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析を行うための肌状 態解析方法において、
前記画像から得られる毛穴の大きさ、皮溝の鮮明さ、皮丘の細かさ、及び皮丘の形 状のうち、少なくとも 1つをパラメータ化するパラメータ生成ステップと、前記パラメータ 生成ステップ力も得られるパラメータに基づいて肌のキメ又は毛穴の解析を行うパラ メータ解析ステップとを有することを特徴とする肌状態解析方法。
[7] 前記パラメータ生成ステップは、前記毛穴の大きさをパラメータ化する場合には、前 記画像力 得られる毛穴の面積を用い、前記皮溝の鮮明さをパラメータ化する場合 には、前記画像から得られる皮溝の幅を用い、前記皮丘の細力さをパラメータ化する 場合には、前記画像から得られる皮丘の数又は平均面積を用い、前記皮丘の形状 をパラメータ化する場合には、前記画像力 得られる皮丘の円形度を用いることを特 徴とする請求項 6に記載の肌状態解析方法。
[8] 撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析を行うための肌状 態解析方法において、
前記画像から R成分、 G成分、及び B成分を抽出する RGB成分抽出ステップと、 前記 RGB成分抽出ステップにより得られる R成分と、 B成分あるいは G成分とから毛 穴画像を抽出する毛穴画像抽出ステップと、
前記毛穴画像力 毛穴の大きさをパラメータ化する毛穴パラメータ生成ステップと、 前記 RGB成分抽出ステップにより得られる G成分から皮溝画像を抽出する皮溝画 像抽出ステップと、
前記皮溝画像力 皮溝の鮮明さをパラメータ化する皮溝パラメータ生成ステップと、 前記毛穴画像及び前記皮溝画像から皮丘画像を抽出する皮丘画像抽出ステップ と、
前記皮丘画像から皮丘の細かさ及び Z又は皮丘の形状をパラメータ化する皮丘パ ラメータ生成ステップと、前記毛穴パラメータ生成ステップ、前記皮溝パラメータ生成 ステップ、及び前記皮丘パラメータ生成ステップにより得られるパラメータのうち、少な くとも 1つを用いて肌のキメ又は毛穴の解析を行うパラメータ解析ステップとを有する ことを特徴とする肌状態解析方法。
[9] 前記毛穴画像抽出ステップは、
前記 R成分と、前記 B成分あるいは前記 G成分とから差分画像を生成し、生成した 差分画像力 皮溝の除去を行い、前記毛穴画像を抽出することを特徴とする請求項 8に記載の肌状態解析方法。
[10] 前記毛穴パラメータ生成ステップは、
前記毛穴画像における毛穴の平均面積及び Z又は総面積を算出し、算出された 面積に基づいて毛穴パラメータを生成することを特徴とする請求項 8に記載の肌状 態解析方法。
[11] 前記皮溝画像抽出ステップは、
前記 G成分の画像にっ 、て前記皮溝の形状を強調する微分フィルターを用いてフ ィルタリングを行い、前記皮溝画像を抽出することを特徴とする請求項 8に記載の肌 状態解析方法。
[12] 前記皮溝パラメータ生成ステップは、
前記皮溝画像から得られる皮溝の幅に基づいて、皮溝パラメータを生成することを 特徴とする請求項 8に記載の肌状態解析方法。
[13] 前記皮丘画像抽出ステップは、
前記皮溝画像から皮丘部分を取得し、取得した複数の皮丘画像の周辺を所定の 画素数分縮小させて画像を皮丘画像の離散を行 ヽ、離散した皮丘画像を前記毛穴 画像に基づいて毛穴部分を除去することにより、皮丘画像を抽出することを特徴とす る請求項 8に記載の肌状態解析方法。
[14] 前記皮丘パラメータ生成ステップは、前記皮丘画像により得られる所定の画像領域 中における皮丘の数又は平均面積、あるいは前記皮丘の数又は平均面積を前記被 験者の顔の表面積に対応させた場合の数、及び Z又は皮丘の円形度に基づいて皮 丘パラメータを生成することを特徴とする請求項 8に記載の肌状態解析方法。
[15] 前記パラメータ解析ステップは、
前記毛穴パラメータ、前記皮溝パラメータ、及び前記皮丘パラメータ、前記毛穴画 像、前記皮溝画像、及び前記皮丘画像のうち、少なくとも 1つを色分けして表示させ、 それぞれの隣接間の前記毛穴、前記皮溝、及び前記皮丘を異ならせた色で表示さ せることを特徴とする請求項 8に記載の肌状態解析方法。
[16] 撮影された被験者の肌の画像を用いて肌状態の解析を行う肌状態解析装置にお いて、 前記画像から肌のキメ'毛穴、シミ、肌色、皮脂量のうち、少なくとも 1つを解析する 解析手段と、
前記画像と前記解析手段力 得られる解析結果とを前記被験者の肌の測定日時 や被験者情報に対応させて蓄積する蓄積手段と、
前記蓄積手段により蓄積された前記被験者毎の前記画像や前記解析結果を表示 させる画面を生成する表示画面生成手段と、
前記表示画面生成手段により生成された情報を出力する出力手段とを有すること を特徴とする肌状態解析装置。
[17] 前記表示画面生成手段は、
前記被験者の測定結果を予め蓄積された年齢別分布における評価結果に対応付 けて表示させることを特徴とする請求項 16に記載の肌状態解析装置。
[18] 前記表示画面生成手段は、
前記年齢別分布において、肌状態を分類分けした少なくとも 1つの評価範囲を設 定し、設定された評価範囲と解析結果とを表示させることを特徴とする請求項 16に記 載の肌状態解析装置。
[19] 前記表示画面生成手段は、
前記被験者の最新の測定結果と前記蓄積手段により蓄積された過去の測定結果と の中から複数の測定結果を経時的に表示させることを特徴とする請求項 16に記載の 肌状態解析装置。
[20] 前記表示画面生成手段は、
表示される時間軸の時間間隔を、前記測定回数又は実際の日時に対応させて表 示することを特徴とする請求項 19に記載の肌状態解析装置。
[21] 撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析を行うための肌状 態解析装置において、
前記画像から R成分、 G成分、及び B成分を抽出する RGB成分抽出手段と、 前記 RGB成分抽出手段により得られる R成分と、 B成分あるいは G成分とから毛穴 画像を抽出する毛穴画像抽出手段と、
前記毛穴画像力 毛穴の大きさをパラメータ化する毛穴パラメータ生成手段と、 前記 RGB成分抽出手段により得られる G成分から皮溝画像を抽出する皮溝画像 抽出手段と、
前記皮溝画像力 皮溝の鮮明さをパラメータ化する皮溝パラメータ生成手段と、 前記毛穴画像及び前記皮溝画像から皮丘画像を抽出する皮丘画像抽出手段と、 前記皮丘画像から皮丘の細かさ及び Z又は皮丘の形状をパラメータ化する皮丘パ ラメータ生成手段と、
前記毛穴パラメータ生成手段、前記皮溝パラメータ生成手段、及び前記皮丘パラメ ータ生成手段により得られるパラメータのうち、少なくとも 1つを用いて肌のキメ又は毛 穴の解析を行うパラメータ解析手段とを有することを特徴とする肌状態解析装置。
[22] 前記毛穴画像抽出手段は、
前記 R成分と、前記 B成分あるいは前記 G成分とから差分画像を生成し、生成した 差分画像力 皮溝の除去を行い、前記毛穴画像を抽出することを特徴とする請求項 21に記載の肌状態解析装置。
[23] 前記毛穴パラメータ生成手段は、
前記毛穴画像における毛穴の平均面積及び Z又は総面積を算出し、算出された 面積に基づいて毛穴パラメータを生成することを特徴とする請求項 21に記載の肌状 態解析装置。
[24] 前記皮溝画像抽出手段は、
前記 G成分の画像にっ 、て前記皮溝の形状を強調する微分フィルターを用いてフ ィルタリングを行 ヽ、前記皮溝画像を抽出することを特徴とする請求項 21に記載の肌 状態解析装置。
[25] 前記皮溝パラメータ生成手段は、
前記皮溝画像から得られる皮溝の幅に基づいて、皮溝パラメータを生成することを 特徴とする請求項 21に記載の肌状態解析装置。
[26] 前記皮丘画像抽出手段は、
前記皮溝画像から皮丘部分を取得し、取得した複数の皮丘画像の周辺を所定の 画素数分縮小させて画像を皮丘画像の離散を行 ヽ、離散した皮丘画像を前記毛穴 画像に基づいて毛穴部分を除去することにより、皮丘画像を抽出することを特徴とす る請求項 21に記載の肌状態解析装置。
[27] 前記皮丘パラメータ生成手段は、
前記皮丘画像により得られる所定の画像領域中における皮丘の数又は平均面積、 あるいは前記皮丘の数又は平均面積を前記被験者の顔の表面積に対応させた場合 の数、及び Z又は皮丘の円形度に基づいて皮丘パラメータを生成することを特徴と する請求項 21に記載の肌状態解析装置。
[28] 前記パラメータ解析手段は、
前記毛穴パラメータ、前記皮溝パラメータ、及び前記皮丘パラメータ、前記毛穴画 像、前記皮溝画像、及び前記皮丘画像のうち、少なくとも 1つを色分けして表示させ、 それぞれの隣接間の前記毛穴、前記皮溝、及び前記皮丘を異ならせた色で表示さ せることを特徴とする請求項 21に記載の肌状態解析装置。
[29] 撮影された被験者の肌の画像を用いて肌状態の解析を行う肌状態解析処理をコン ピュータに実行させるための肌状態解析プログラムを記録した記録媒体において、 前記画像から肌のキメ'毛穴、シミ、肌色、皮脂量のうち、少なくとも 1つを解析する 解析処理と、
前記画像と前記解析処理から得られる解析結果とを前記被験者の肌の測定日時 や被験者情報に対応させて蓄積する蓄積処理と、
前記蓄積処理により蓄積された前記被験者毎の前記画像や前記解析結果を表示 させる画面を生成する表示画面生成処理と、
前記表示画面生成処理により生成された情報を出力する出力処理とをコンビユー タに実行させるための肌状態解析プログラムを記録した記録媒体。
[30] 撮影された被験者の肌の画像を用いて肌のキメ又は毛穴の解析を行うための肌状 態解析処理をコンピュータに実行させるための肌状態解析プログラムを記録した記 録媒体において、
前記画像から R成分、 G成分、及び B成分を抽出する RGB成分抽出処理と、 前記 RGB成分抽出処理により得られる R成分と、 B成分あるいは G成分とから毛穴 画像を抽出する毛穴画像抽出処理と、
前記毛穴画像力 毛穴の大きさをパラメータ化する毛穴パラメータ生成処理と、 前記 RGB成分抽出処理により得られる G成分から皮溝画像を抽出する皮溝画像 抽出処理と、
前記皮溝画像力 皮溝の鮮明さをパラメータ化する皮溝パラメータ生成処理と、 前記毛穴画像及び前記皮溝画像から皮丘画像を抽出する皮丘画像抽出処理と、 前記皮丘画像から皮丘の細かさ及び Z又は皮丘の形状をパラメータ化する皮丘パ ラメータ生成処理と、
前記毛穴パラメータ生成処理、前記皮溝パラメータ生成処理、及び前記皮丘パラメ ータ生成処理により得られるパラメータのうち、少なくとも 1つを用いて肌のキメ又は毛 穴の解析を行うパラメータ解析処理とをコンピュータに実行させるための肌状態解析 プログラムを記録した記録媒体。
PCT/JP2006/308464 2005-04-28 2006-04-21 肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを記録した記録媒体 WO2006118060A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020127030649A KR101260722B1 (ko) 2005-04-28 2006-04-21 피부 상태 해석 방법, 피부 상태 해석 장치, 및 피부 상태 해석 프로그램을 기록한 기록 매체
US11/912,916 US20090054744A1 (en) 2005-04-28 2006-04-21 Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program
EP06732222.2A EP1875863B1 (en) 2005-04-28 2006-04-21 Skin state analyzing method, skin state analyzing device, and recording medium on which skin state analyzing program is recorded
KR1020077023881A KR101269533B1 (ko) 2005-04-28 2006-04-21 피부 상태 해석 방법, 피부 상태 해석 장치, 및 피부 상태해석 프로그램을 기록한 기록 매체
ES06732222.2T ES2534190T3 (es) 2005-04-28 2006-04-21 Método de análisis del estado de la piel, dispositivo de análisis del estado de la piel y medio de grabación en el que se graba un programa de análisis del estado de la piel
CN2006800147866A CN101170945B (zh) 2005-04-28 2006-04-21 肌肤状态分析方法、肌肤状态分析装置
US13/405,807 US8591414B2 (en) 2005-04-28 2012-02-27 Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-133275 2005-04-28
JP2005133275A JP4579046B2 (ja) 2005-04-28 2005-04-28 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2005-324117 2005-11-08
JP2005324117A JP4717595B2 (ja) 2005-11-08 2005-11-08 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/912,916 A-371-Of-International US20090054744A1 (en) 2005-04-28 2006-04-21 Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program
US13/405,807 Division US8591414B2 (en) 2005-04-28 2012-02-27 Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program

Publications (1)

Publication Number Publication Date
WO2006118060A1 true WO2006118060A1 (ja) 2006-11-09

Family

ID=37307860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/308464 WO2006118060A1 (ja) 2005-04-28 2006-04-21 肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを記録した記録媒体

Country Status (6)

Country Link
US (2) US20090054744A1 (ja)
EP (2) EP1875863B1 (ja)
KR (2) KR101260722B1 (ja)
ES (2) ES2432515T3 (ja)
TW (1) TWI426891B (ja)
WO (1) WO2006118060A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008245843A (ja) * 2007-03-29 2008-10-16 Shiseido Co Ltd 化粧料付着状態解析方法、化粧料付着状態解析装置、化粧料付着状態解析プログラム、及び該プログラムが記録された記録媒体
WO2008150343A1 (en) * 2007-05-22 2008-12-11 Eastman Kodak Company Monitoring physiological conditions
US20100284610A1 (en) * 2008-01-17 2010-11-11 Shiseido Company, Ltd. Skin color evaluation method, skin color evaluation apparatus, skin color evaluation program, and recording medium with the program recorded thereon
CN102819732A (zh) * 2007-02-14 2012-12-12 宝丽化学工业有限公司 支持鉴别角质细胞的方法和计算机
JPWO2014027523A1 (ja) * 2012-08-17 2016-07-25 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム
WO2016121518A1 (ja) * 2015-01-29 2016-08-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017140206A (ja) * 2016-02-10 2017-08-17 株式会社ファンケル 肌理評価方法
CN109859217B (zh) * 2019-02-20 2020-12-29 厦门美图之家科技有限公司 人脸图像中毛孔区域的分割方法及计算设备
WO2024034630A1 (ja) * 2022-08-10 2024-02-15 ライオン株式会社 画像処理装置、モデル生成装置、皮膚状態測定システム、画像処理方法、モデル生成方法、判定方法及び教師データ作成方法

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2337862B1 (es) * 2008-01-16 2011-07-12 Universitat Politècnica De Catalunya Dispositivo para la deteccion del color de la piel y del color y tamaño de las manchas en la piel.
JP5263991B2 (ja) * 2008-05-23 2013-08-14 ポーラ化成工業株式会社 肌のキメ及び/又はシワの鑑別法及び鑑別装置、肌の鑑別プログラム、並びに皮膚外用剤の選択方法
FR2933583B1 (fr) * 2008-07-10 2011-10-07 Oreal Dispositif pour appliquer une composition sur les matieres keratiniques humaines
FR2933582B1 (fr) * 2008-07-10 2011-10-07 Oreal Dispositif de traitement des matieres keratiniques humaines
FR2933581B1 (fr) * 2008-07-10 2011-12-02 Oreal Procede de maquillage et dispositif pour la mise en oeuvre d'un tel procede
FR2933611B1 (fr) 2008-07-10 2012-12-14 Oreal Procede de maquillage et dispositif pour la mise en oeuvre d'un tel procede.
KR101633345B1 (ko) * 2009-09-07 2016-06-28 (주)아모레퍼시픽 목 피부 나이 판별 방법 및 키트
US8401300B2 (en) * 2009-12-14 2013-03-19 Conopco, Inc. Targeted image transformation of skin attribute
JP5733570B2 (ja) 2011-05-23 2015-06-10 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および、記録媒体
JP6299594B2 (ja) 2012-08-17 2018-03-28 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム
US9101320B2 (en) 2013-04-09 2015-08-11 Elc Management Llc Skin diagnostic and image processing methods
US9256963B2 (en) 2013-04-09 2016-02-09 Elc Management Llc Skin diagnostic and image processing systems, apparatus and articles
FR3004536B1 (fr) * 2013-04-15 2016-04-15 Oreal Dispositif d'evaluation d'un produit a l'application
WO2015060376A1 (ja) * 2013-10-23 2015-04-30 日立マクセル株式会社 表面状態測定分析情報管理システムおよび表面状態測定分析情報管理方法
TW201540264A (zh) * 2014-04-18 2015-11-01 Sony Corp 資訊處理裝置、資訊處理方法、及程式
US10368795B2 (en) * 2014-06-30 2019-08-06 Canfield Scientific, Incorporated Acne imaging methods and apparatus
JP6138745B2 (ja) * 2014-11-19 2017-05-31 株式会社 資生堂 シミ評価装置、及びシミ評価プログラム
JP6380988B2 (ja) * 2015-03-31 2018-08-29 富士フイルム株式会社 肌評価装置および方法並びにプログラム
JP6566240B2 (ja) * 2015-04-16 2019-08-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR102490438B1 (ko) * 2015-09-02 2023-01-19 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR20170062676A (ko) * 2015-11-30 2017-06-08 (주)아모레퍼시픽 피부 특성 시각화 방법
KR102429838B1 (ko) * 2016-03-11 2022-08-05 (주)아모레퍼시픽 피부결 블랍을 기초로한 피부결 평가 장치 및 그 방법
TWI585711B (zh) 2016-05-24 2017-06-01 泰金寶電通股份有限公司 獲得保養信息的方法、分享保養信息的方法及其電子裝置
CN106421994A (zh) * 2016-08-29 2017-02-22 南昌禾雅堂贸易有限公司 一种具有光学扫描反馈的自动无针注射装置
US11122206B2 (en) 2016-11-08 2021-09-14 Preh Holding, Llc Personal care device with camera
US10511777B2 (en) 2016-11-08 2019-12-17 Thomas Nichols Personal care device with camera
WO2018182173A1 (ko) * 2017-03-27 2018-10-04 (주)아모레퍼시픽 2차원 피부 이미지 분석 시스템 및 분석 방법
US10878941B2 (en) * 2017-05-22 2020-12-29 Zeyix Llc Perpetual bioinformatics and virtual colorimeter expert system
CN109300164A (zh) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 皮肤基底色调判断方法与电子装置
TWI687686B (zh) * 2018-02-21 2020-03-11 魔力歐生技有限公司 生物表皮層檢測方法、裝置與系統
JP7108127B2 (ja) 2018-08-21 2022-07-27 ザ プロクター アンド ギャンブル カンパニー 毛穴の色を特定する方法
JP7281261B2 (ja) * 2018-09-20 2023-05-25 花王株式会社 物質の感覚刺激性の解析方法
JP7010265B2 (ja) * 2019-04-02 2022-01-26 花王株式会社 鱗屑の定量方法
US11010894B1 (en) * 2019-04-02 2021-05-18 NakedPoppy, Inc. Deriving a skin profile from an image
US10999530B1 (en) * 2019-11-26 2021-05-04 L'oreal Techniques for generating time-series images of changes in personal appearance
USD1000624S1 (en) 2019-12-27 2023-10-03 Thomas Nichols Personal care device with camera
JP7436708B2 (ja) 2020-05-08 2024-02-22 ザ プロクター アンド ギャンブル カンパニー 樹状毛穴を識別するための方法
CN113838550A (zh) * 2020-06-08 2021-12-24 华为技术有限公司 一种健康数据展示方法和电子设备
CN116637255B (zh) * 2023-04-23 2024-06-07 卓优医疗(苏州)有限公司 一种用于无针注射装置的微剂量调节方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070749A (ja) * 2001-09-07 2003-03-11 Scalar Corp 診断システム、肌の診断方法、及びそれに用いられる情報処理装置、並びにプログラム、記録媒体
JP2003190104A (ja) * 2001-12-27 2003-07-08 Kanebo Ltd 肌色評価方法およびそれに用いる装置
JP2003345895A (ja) * 2002-05-29 2003-12-05 Kenji Nishi 顧客情報管理システム
JP2004121858A (ja) 2002-07-09 2004-04-22 Ric:Kk デジタルズーム肌診断装置
US20040215066A1 (en) 2003-04-23 2004-10-28 Kelly Huang Method of measuring the efficacy of a skin treatment program
US20040214336A1 (en) 2001-10-29 2004-10-28 Yoshikazu Hirai Method for staining corneocites, method for preparing corneocites specimen and skin analysis system
JP2005080774A (ja) 2003-09-05 2005-03-31 Kanebo Cosmetics Inc 肌状態評価方法およびそれに用いる装置、並びにそれに用いるカウンセリングツール

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
GB9111548D0 (en) * 1991-05-29 1991-07-17 Unilever Plc Measuring device
JPH07323013A (ja) 1994-06-01 1995-12-12 Kao Corp 皮膚表面観察装置
JPH09154832A (ja) 1995-12-12 1997-06-17 Kao Corp 皮膚表面形態判定方法及び装置
US6081612A (en) * 1997-02-28 2000-06-27 Electro Optical Sciences Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6571003B1 (en) 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
US6587711B1 (en) * 1999-07-22 2003-07-01 The Research Foundation Of Cuny Spectral polarizing tomographic dermatoscope
JP2003024283A (ja) 2001-07-18 2003-01-28 Shiseido Co Ltd 皮膚表面状態観察装置
US7324668B2 (en) * 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis
JP3837077B2 (ja) 2001-10-29 2006-10-25 ポーラ化成工業株式会社 肌分析システム
US7738032B2 (en) * 2001-11-08 2010-06-15 Johnson & Johnson Consumer Companies, Inc. Apparatus for and method of taking and viewing images of the skin
JP3530523B1 (ja) 2002-07-09 2004-05-24 株式会社リック デジタルズーム肌診断装置
JP2004201797A (ja) 2002-12-24 2004-07-22 Yasutaka Nakada 肌分析方法
JP4105554B2 (ja) 2003-01-16 2008-06-25 株式会社資生堂 皮膚の透明感評価方法
JP4141288B2 (ja) * 2003-01-30 2008-08-27 ポーラ化成工業株式会社 シワ・レプリカ像の鑑別法
CN101194270B (zh) * 2003-04-04 2012-07-11 光谱辨识公司 多谱生物统计传感器
US7566303B1 (en) * 2003-04-21 2009-07-28 Chameleon Development LLC Skin condition indicator
US7233693B2 (en) * 2003-04-29 2007-06-19 Inforward, Inc. Methods and systems for computer analysis of skin image
AU2003289004A1 (en) * 2003-06-11 2005-01-04 Kose Corporation Skin evaluation method and image simulation method
JP4274429B2 (ja) 2003-06-17 2009-06-10 Hoya株式会社 光ピックアップ用対物レンズおよび光ピックアップ装置
JP3789911B2 (ja) 2003-07-14 2006-06-28 花王株式会社 画像処理装置および顔画像処理装置
JP4230848B2 (ja) 2003-07-16 2009-02-25 株式会社肌粧品科学開放研究所 皮膚表面状態評価方法並びにその装置
US20060257509A1 (en) * 2003-10-10 2006-11-16 Zimmerman Amy C Cosmetic composition and methods
JP4016012B2 (ja) 2003-10-10 2007-12-05 株式会社島精機製作所 横編機用摺動抵抗付加装置
JP4124120B2 (ja) 2003-12-25 2008-07-23 株式会社デンソーウェーブ タグ取付方法、タグ取付具および取付装置
JP4237070B2 (ja) 2004-02-03 2009-03-11 株式会社資生堂 多角度反射光測定装置
US8026942B2 (en) * 2004-10-29 2011-09-27 Johnson & Johnson Consumer Companies, Inc. Skin imaging system with probe
US7564990B2 (en) * 2005-08-18 2009-07-21 Nu Skin International, Inc. Imaging system and method for physical feature analysis
US7454046B2 (en) * 2005-09-20 2008-11-18 Brightex Bio-Photonics, Llc Method and system for analyzing skin conditions using digital images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070749A (ja) * 2001-09-07 2003-03-11 Scalar Corp 診断システム、肌の診断方法、及びそれに用いられる情報処理装置、並びにプログラム、記録媒体
US20040214336A1 (en) 2001-10-29 2004-10-28 Yoshikazu Hirai Method for staining corneocites, method for preparing corneocites specimen and skin analysis system
JP2003190104A (ja) * 2001-12-27 2003-07-08 Kanebo Ltd 肌色評価方法およびそれに用いる装置
JP2003345895A (ja) * 2002-05-29 2003-12-05 Kenji Nishi 顧客情報管理システム
JP2004121858A (ja) 2002-07-09 2004-04-22 Ric:Kk デジタルズーム肌診断装置
US20040215066A1 (en) 2003-04-23 2004-10-28 Kelly Huang Method of measuring the efficacy of a skin treatment program
JP2005080774A (ja) 2003-09-05 2005-03-31 Kanebo Cosmetics Inc 肌状態評価方法およびそれに用いる装置、並びにそれに用いるカウンセリングツール

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1875863A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102819732A (zh) * 2007-02-14 2012-12-12 宝丽化学工业有限公司 支持鉴别角质细胞的方法和计算机
CN102819732B (zh) * 2007-02-14 2016-02-10 宝丽化学工业有限公司 支持鉴别角质细胞的方法和计算机
JP2008245843A (ja) * 2007-03-29 2008-10-16 Shiseido Co Ltd 化粧料付着状態解析方法、化粧料付着状態解析装置、化粧料付着状態解析プログラム、及び該プログラムが記録された記録媒体
WO2008150343A1 (en) * 2007-05-22 2008-12-11 Eastman Kodak Company Monitoring physiological conditions
US20100284610A1 (en) * 2008-01-17 2010-11-11 Shiseido Company, Ltd. Skin color evaluation method, skin color evaluation apparatus, skin color evaluation program, and recording medium with the program recorded thereon
JPWO2014027523A1 (ja) * 2012-08-17 2016-07-25 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム
WO2016121518A1 (ja) * 2015-01-29 2016-08-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2016121518A1 (ja) * 2015-01-29 2017-11-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10682089B2 (en) 2015-01-29 2020-06-16 Sony Corporation Information processing apparatus, information processing method, and program
JP2017140206A (ja) * 2016-02-10 2017-08-17 株式会社ファンケル 肌理評価方法
CN109859217B (zh) * 2019-02-20 2020-12-29 厦门美图之家科技有限公司 人脸图像中毛孔区域的分割方法及计算设备
WO2024034630A1 (ja) * 2022-08-10 2024-02-15 ライオン株式会社 画像処理装置、モデル生成装置、皮膚状態測定システム、画像処理方法、モデル生成方法、判定方法及び教師データ作成方法

Also Published As

Publication number Publication date
EP1875863A1 (en) 2008-01-09
ES2432515T3 (es) 2013-12-04
TWI426891B (zh) 2014-02-21
US8591414B2 (en) 2013-11-26
EP2474264B1 (en) 2013-07-24
US20120157821A1 (en) 2012-06-21
KR20120132644A (ko) 2012-12-06
TW200716061A (en) 2007-05-01
KR101260722B1 (ko) 2013-05-06
EP1875863B1 (en) 2015-03-18
KR101269533B1 (ko) 2013-06-04
ES2534190T3 (es) 2015-04-20
KR20080003815A (ko) 2008-01-08
US20090054744A1 (en) 2009-02-26
EP2474264A1 (en) 2012-07-11
EP1875863A4 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
WO2006118060A1 (ja) 肌状態解析方法、肌状態解析装置、及び肌状態解析プログラムを記録した記録媒体
JP5080060B2 (ja) 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
CN101548880B (zh) 肌肤状态分析方法、肌肤状态分析装置
US8094186B2 (en) Skin condition diagnosis system and beauty counseling system
JP5290585B2 (ja) 肌色評価方法、肌色評価装置、肌色評価プログラム、及び該プログラムが記録された記録媒体
JP2004321793A (ja) 皮膚画像のコンピュータ解析のための方法およびシステム
US20100201800A1 (en) Microscopy system
US20210133473A1 (en) Learning apparatus and learning method
JP5576993B2 (ja) 画像計測装置、画像計測方法及び画像計測システム
RU2633320C2 (ru) Отбор изображений для оптического исследования шейки матки
JP5547597B2 (ja) 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
JP5528692B2 (ja) シワ評価方法、シワ評価装置、シワ評価プログラム、及び該プログラムが記録された記録媒体
Yang et al. Development of an integrated multimodal optical imaging system with real-time image analysis for the evaluation of oral premalignant lesions
JP2007068620A (ja) 心理状態計測装置
JP2007252891A (ja) 肌の美しさの目視評価値の推定方法
Seidenari et al. Computer description of colours in dermoscopic melanocytic lesion images reproducing clinical assessment
JP2009082338A (ja) エントロピーを用いた肌の鑑別方法
JP2011118671A (ja) 画像処理装置、画像処理方法、画像処理システム、肌評価方法
JP4717595B2 (ja) 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2019118670A (ja) 診断支援装置、画像処理方法及びプログラム
JP2010119428A (ja) 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2016174728A (ja) 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム
Rimskaya et al. Development Of A Mobile Application For An Independent Express Assessment Of Pigmented Skin Lesions
WO2019168372A1 (ko) 의료 영상 처리 장치 및 그 동작 방법
Waghmare et al. “TRICHOASSIST” Trichogram Hair and Scalp Feature Extraction and Analysis Using Image Processing

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680014786.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020077023881

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11912916

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006732222

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006732222

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020127030649

Country of ref document: KR