KR102183370B1 - 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 - Google Patents

케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 Download PDF

Info

Publication number
KR102183370B1
KR102183370B1 KR1020160112125A KR20160112125A KR102183370B1 KR 102183370 B1 KR102183370 B1 KR 102183370B1 KR 1020160112125 A KR1020160112125 A KR 1020160112125A KR 20160112125 A KR20160112125 A KR 20160112125A KR 102183370 B1 KR102183370 B1 KR 102183370B1
Authority
KR
South Korea
Prior art keywords
skin
information
predetermined time
current user
time interval
Prior art date
Application number
KR1020160112125A
Other languages
English (en)
Other versions
KR20170132644A (ko
Inventor
나이-치앙 빠이
수-차우 첸
시-용 센
Original Assignee
칼-콤프 일렉트로닉스 앤드 커뮤니케이션즈 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칼-콤프 일렉트로닉스 앤드 커뮤니케이션즈 컴퍼니 리미티드 filed Critical 칼-콤프 일렉트로닉스 앤드 커뮤니케이션즈 컴퍼니 리미티드
Publication of KR20170132644A publication Critical patent/KR20170132644A/ko
Application granted granted Critical
Publication of KR102183370B1 publication Critical patent/KR102183370B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0079Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/444Evaluating skin marks, e.g. mole, nevi, tumour, scar
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • A61B90/96Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06K9/00295
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N5/217
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0431Portable apparatus, e.g. comprising a handle or case
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/18Shielding or protection of sensors from environmental influences, e.g. protection from mechanical damage
    • A61B2562/185Optical shielding, e.g. baffles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Abstract

케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 그리고 그것들을 위한 전자 장치가 제공된다. 케어 정보를 획득하기 위한 상기 방법은: 상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 그 얼굴 데이터의 초기 피부 정보를 획득하는 단계; 클라우드 데이터베이스에 의해 상기 현재 사용자를 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하는 단계; 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계; 그리고 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹 내 다른 사용자의 피부-달성 이력을 상기 전자 장치에 의해 획득하는 단계를 포함한다. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 다른 사용자에 의해 달성된 피부-상태 목표에 관한 케어 정보이다.

Description

케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 {METHOD FOR OBTAINING CARE INFORMATION, METHOD FOR SHARING CARE INFORMATION, AND ELECTRONIC APPARATUS THEREFOR}
관련된 출원 상호 참조
본원은 2016년 5월 24일에 출원된 대만 출원 일련 번호 105116064의 우선권의 이익을 향유한다. 상기 언급된 출원의 전체는 본원에 참조로 편입되며 그리고 본원의 일부를 형성한다.
기술적인 분야
본원 개시는 피부 검출 및 피부 케어 (care)에 관한 정보를 공유하기 위한 기술에 관련되며, 그리고 더욱 상세하게는 피부 케어 정보를 획득하기 위한 방법, 피부 케어 정보를 공유하기 위한 방법 그리고 그것들을 위한 전자 장치에 관련된다.
전통적인 피부 검출은 사람의 피부 상태를 얻기 위해서 인간의 피부를 스캔하기 위해 전문적인 피부 검출 장치를 보통 채택한다. 그 서비스 제공자의 판매자는 그 피부 상태에 따른 대응하는 케어 제품들을 또한 추천할 수 있다. 그러나, 사용자들이 그런 피부 검출 장치를 소유하는 것은 어렵다. 그 이유는 그런 피부 검출 장치는 보통은 비싸며 과도하게 크기 때문이다. 또한, 상기 피부 검출 장치는 피부를 스캔하기 위해 상이한 확대 배율들을 가진 현미경들을 설치하는 것을 필요로 하며, 그래서 피부 영역의 작은 부분만이 매 회에 스캔될 수 있기 때문에 그 피부 검출 장치는 동작시키기에 긴 시간을 필요로 할 수 있다. 더욱이, 사용자들은 그 피부 검출 장치를 이용하여 피부 상태를 판별하기 위해서 숙련되게 훈련되어야만 한다. 그러므로, 사용자들이 자기 가신의 피부 또는 피부 상태가 실제로 개선되었는가의 여부를 항상 알기를 원하는 경우에, 그 피부 검출 장치는 그런 요구를 충족시킬 수 없을 수 있다.
반면에, 더욱 효율적이며 시간을 절약하는 방식으로 젊음과 아름다음을 유지하기 위해서, 그 사용자들은 다른 사람들이 자기 자신의 피부를 어떻게 돌보는가, 피부 케어를 위해 얼마나 오랜 시간이 걸리는가, 어떤 종류의 케어 제품들이 사용될 것인가 등에 관한 케어 정보를 습득하기를 원한다는 것은 아주 흔하다. 그럼에도 불구하고, 케어 정보에 대한 확실성은 판별하기 어렵지만 사용자들 자신에 의해서만 판별될 수 있다. 또한, 각 개인이 다른 사람들과는 아주 상이한 피부 성장 환경을 가지고 다이어트를 하기 때문에, 케어 정보에 대한 확실성은 한 가지 방법을 이용함으로써 단순하게 보장될 수는 없다. 따라서, 어떻게 피부 검출을 수행하고, 어떻게 피부 케어의 진행을 기록하고 그리고 어떻게 다른 사람들과 그 케어 정보를 공유하는가는 자신의 피부 상태들을 개선하기를 원하는 사용자들에게는 가장 필요한 제품 특징들 중 하나가 되고 있다.
본 발명의 개시는 피부 케어 정보를 획득하기 위한 방법 및 그것을 위한 전자 장치에 관한 것이며, 그것들로 인해서 사용자들은 다른 사용자들에 의해 공유된 케어 정보 (예를 들면, 케어 행동들, 사용된 케어 제품들 등)를 그 사용자를 위한 얼굴 피부 케어에 대한 레퍼런스로서 획득할 수 있다.
반면에, 상기 개시들은 피부 케어 정보를 공유하기 위한 방법 및 그것을 위한 전자 장치를 제공하며, 그것들에 의해서 사용자는 피부 케어 이력을 피부-상태 목표를 달성한 이후에 상기 전자 장치에 의해서 동일한 피부 상태를 가진 다른 사용자들과 공유할 수 있으며, 이는 얼굴 피부 케어를 위한 개인적인 팁들을 공유하기 위한 것이다.
본 발명의 상기 개시의 케어 정보를 획득하기 위한 방법은, 이미지 캡쳐링 장비를 포함하는 전자 장치에 적응된다. 상기 방법은 다음의 단계들을 포함한다: 상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 초기 피부 정보를 획득하기 위해 그 얼굴 데이터를 분석하는 단계; 클라우드 데이터베이스에 의해 상기 현재 사용자를 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하는 단계로, 상기 그룹들 각각은 복수의 분류된 사용자들을 포함하는, 분류 단계; 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계; 그리고 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 중 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 상기 전자 장치에 의해 획득하는 단계. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 케어 정보이다.
본 발명 개시의 실시예에서, 상기 현재 사용자를 그룹들 하나로 분류하는 상기 단계는: 상기 현재 사용자를 상기 초기 피부 정보 및 복수의 분류 기준들에 따라 상기 그룹들 중 하나로 분류하는 단계를 포함한다. 상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함한다.
본 발명 개시의 실시예에서, 상기 방법은: 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계; 그리고 상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계를 더 포함한다.
본 발명 개시의 실시예에서, 상기 초기 피부 정보 또는 상기 현재 피부 정보는 상기 얼굴 데이터로부터 분석된 복수의 가변 특징들을 포함한다. 상기 가변 특징들은 주름들, 얼굴 라인들, 홍반 (Erythema), 여드름 (acne), 반점들 (spots), 모공들 (pores), 피부 색상 및 다크 서클 중 하나 또는 그것들의 조합을 포함한다.
본 발명 개시의 실시예에서, 상기 초기 피부 정보 또는 상기 현재의 피부 정보는 상기 가변 특징들에 따라 계산된 복수의 피부 파라미터들을 더 포함한다. 상기 피부 파라미터들은 맑음 (clearness), 질감 (texture), 견고함 (firmness), 밝음 (brightness) 및 건강함 중 하나 또는 그것들의 조합을 포함한다.
본 발명 개시의 실시예에서, 상기 케어 정보는 상기 분류된 사용자들 중 하나의 적어도 하나의 사용된 케어 제품 및 적어도 하나의 케어 행동을 적어도 포함한다.
본 발명 개시의 케어 정보를 공유하기 위한 방법은 이미지 캡쳐링 장비를 포함하는 전자 장치에 적합하다. 상기 방법은 다음의 단계들을 포함한다: 상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 현재의 피부 정보를 초기 피부 정보로서 획득하기 위해 그 얼굴 데이터를 분석하는 단계; 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계; 상기 전자 장치에 의해서, 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 상기 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계; 상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계; 그리고 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 피부-상태 목표를 달성하기를 원하는 다른 사용자와 상기 피부-달성 이력을 공유하는 단계.
본 발명 개시의 전자 장치는 이미지 캡쳐링 장비, 입력 장비 및 네트워크 통신 장비를 포함한다. 상기 이미지 캡쳐링 장비는 현재 사용자의 얼굴 데이터를 획득한다. 상기 프로세서는 상기 이미지 캡쳐링 장비 및 상기 입력 장비에 연결된다. 상기 프로세서는 상기 네트워크 통신 장비를 경유하여 네트워크에 연결된다. 상기 프로세서는 초기 피부 정보를 얻기 위해 상기 얼굴 데이터를 분석하고, 그리고 상기 현재 사용자를 상기 네트워크 내 클라우드 데이터베이스에 의해 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하며, 이 경우 상기 그룹들 각각은 복수의 분류된 사용자들을 포함한다. 상기 입력 장비는 상기 현재 사용자에 의해 세팅된 미리 정해진 시간 구간 및 피부-상태 목표를 수신하며, 그리고 상기 프로세서는 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 획득한다. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 피부-상태 목표에 관한 케어 정보이다.
위의 내용을 기초로 하여, 본 발명 개시의 실시예들에 따라, 상기 전자 장치 내 상기 이미지 캡쳐링 장비는 상기 사용자의 초기 피부 정보를 획득하기 위해서 사용자를 위한 피부 검출을 수행하기 위해 사용되며, 그리고 상기 클라우드 데이터베이스는 스킨 상태를 향상시키기 위해서 비슷한 환경, 비숫한 미리 정해진 시간 구간 및 비슷한 피부-상태 목표를 가진 사용자들을 동일한 그룹으로 분류하기 위해 사용된다. 피부-상태 목표가 상기 미리 정해진 시간 구간 내에서 상기 사용자에 의해 달성되면, 상기 전자 장치는 상기 미리 정해진 시간 구간 내에서 상기 사용자의 케어 정보 (예를 들면, 피부를 위한 케어 행동, 사용된 케어 제품들 등)를 배치하고, 그리고 상기 피부-달성 이력을 동일한 그룹 내 동일한 상태를 가진 다른 사용자들에게 공유시킬 수 있다. 그처럼, 얼굴 피부를 위한 개인적인 팁들이 공유될 수 있을 것이다. 반면에, 상기 사용자는 다른 사용자들에 의해 공유된 케어 정보를 상기 현재 사용자를 위한 얼굴 피부 케어에 대한 레퍼런스들로서 또한 획득할 수 있다.
본 발명 개시의 상기 특징들 및 유리함들을 더 잘 이해할 수 있도록 하기 위해서, 도면들과 동반된 여러 실시예들이 다음과 같이 상세하게 설명된다.
본 발명의 효과는 본 명세서의 해당되는 부분들에 개별적으로 명시되어 있다.
동반되는 도면들은 상기 개시에 대한 추가의 이해를 제공하기 위해서 포함된 것이며, 그리고 본 명세서에 편입되어 본 명세서의 일부를 구성한다. 상기 도면들은 본 발명 개시의 실시예들을 예시하며 그리고 설명과 함께 본 발명 개시의 원칙들을 설명하기 위해 도움이 된다.
도 1은 본 발명 개시의 실시예에 따른 전자 장치의 개략적인 도면이다.
도 2는 본 발명 개시의 실시예에 따라 케어 정보를 획득하기 위한 방법의 흐름도이다.
도 3은 본 발명 개시의 실시예에 따른 얼굴 마크업 및 터치 스크린의 개략적인 도면이다.
도 4는 본 발명 개시의 실시예에 따른 얼굴 데이터의 얼굴 부분들 각각의 개략적인 도면이다.
도 5는 본 발명 개시의 실시예에 따라 케어 정보를 공유하기 위한 방법의 흐름도이다.
전술한 그리고 다른 상세한 설명들, 특징들, 및 효과들은 아래에서의 도면들과 동반된 실시예들을 제공함으로써 더욱 광범위하게 설명될 의도라는 것이 이해되어야 한다. 다음의 실시예들에서, "위 (up)", "아래 (down)", "앞 (front)", "뒤 (back)", "왼쪽 (left)" 및 "오른쪽 (right)"과 같이 방향들을 지시하기 위해 사용된 용어는 동반된 도면들에서의 방향들을 단순하게 언급한다. 그러므로, 상기 방향성 용어는 본 발명 개시를 제한하는 것이 아니라 예시하기 위해 사용된다. 더욱이, 동일한 또는 유사한 참조 번호들은 다음의 실시예들에서 동일한 또는 유사한 요소들을 나타낸다.
도 1은 본 발명 개시의 실시예에 따른 전자 장치 (100)의 개략적인 도면이다. 상기 전자 장치 (100)는 이미지 캡쳐링 장비 (110), 프로세서 (120), 네트워크 통신 장비 (130), 디스플레이 스크린 및 입력 장비를 포함한다. 상기 프로세서 (120)는 이미지 캡쳐링 장비 (110), 네트워크 통신 장비 (130), 디스플레이 스크린 및 입력 장비에 연결된다. 본 발명 개시의 본 실시예에서, 상기 전자 장치 (100)는 예를 들면 화장대 상에 설치된 설비일 수 있다. 이 경우에, 상기 전자 장치 (100)의 디스플레이 스크린은 화장대의 거울 뒤에 설치되어, 다른 사용자들의 피부-달성 이력은 물론이며 텍스트 또는 이미지를 디스플레이하여 사용자가 그 거울을 통해서 보도록 할 수 있다.
다른 실시예들에서, 상기 전자 장치 (100)는 또한 소비자 전자 제품들 (예를 들면, 스마트폰, 태블릿 컴퓨터 등)일 수 있으며 또는 휴대용 거울과 조합하여 형성된 휴대용 거울 박스일 수 있다. 본 실시예에서, 상기 디스플레이 스크린 및 상기 입력 장비는 터치 스크린 (140)을 이용하여 구현될 수 있을 것이다. 본 발명 개시의 본 실시예에서, 상기 터치 스크린 (140) 외부에 배치된 유리 부분은 그 거울로 구성되어 그 거울의 유효함을 제공할 수 있을 것이다.
상기 이미지 캡처링 장비 (110)는 카메라일 수 있을 것이며, 이는 현재의 사용자의 얼굴 데이터를 얻기 위해서 이미지를 캡쳐하도록 구성된다. 상기 프로세서 (120)는 중앙 처리 유닛, 이미지 프로세서 또는 특수 목적 프로세서일 수 있다. 상기 프로세서 (120)는 이어지는 프로세스에서의 단계들을 수행하기 이전에 상기 이미지 캡쳐링 장비 (110)에 의해 획득된 얼굴 데이터를 분석한다. 상기 프로세서 (120)는 상기 네트워크 통신 장비 (130)를 경유하여 네트워크 (150)에 연결된다. 상기 네트워크 통신 장비 (130)는 하나 또는 그 이상의 통신 프로토콜들 (예를 들면, 무선 네트워크 프로토콜, 블루투스 프로토콜 등)을 지원하는 네트워크 칩 또는 네트워크 카드일 수 있다. 본 실시예에서, 상기 네트워크 (150)는 클라우드 데이터베이스 (160)를 포함한다. 상기 클라우드 데이터베이스 (160)는 다양한 사용자들의 개인적인 정보 (예를 들면, 그 사용자의 나이, 지리적인 위치 등) 및 얼굴 피부 케어를 위한 피부-달성 이력을 포함할 수 있다. 또한, 상기 클라우드 데이터베이스 (160)는 이 사용자들을 복수의 분류 기준에 따라서 상이한 그룹들로 분류할 수 있다. 상기 분류 기준에 따라 상기 사용자들을 어떻게 분류하는가에 관한 상세한 내용들은 다음의 설명에서 나중에 제공될 것이다.
본 발명 개시의 실시예들에 따라서 케어 정보를 획득하기 위한 방법 그리고 그 케어 정보를 공유하기 위한 방법들에서의 단계들은 상기 전자 장치 내 하드웨어 칩들 또는 펌웨어 칩들에 의해 구현될 수 있을 것이며, 그리고 상기 전자 장치 (100) 내 프로세서 (120)에 의해 실행되는 소프트웨어 또는 APP에 의해 또한 구현될 수 있을 것이다.
도 2는 본 발명 개시의 실시예에 따라 케어 정보를 획득하는 방법의 흐름도이다. 본 발명 개시의 이 실시예에서, 케어 정보를 획득하기 위한 상기 방법은 도 1에서 보이는 것처럼, 이미지 캡쳐링 장비 (110)를 포함하는 전자 장치 (100)에 적응된다. 도 2의 흐름도에서의 각 단계는 도 1에서의 전자 장치 (100)의 각 요소를 참조하여 설명된다. 단계 S210에서, 상기 프로세서 (120)는 상기 이미지 캡쳐링 장비 (110)로부터 현재 사용자의 얼굴 데이터를 획득하며 그리고 상기 프로세서 (120)는 초기 피부 정보를 획득하기 위해서 상기 현재 사용자의 얼굴 데이터를 분석한다. 본 실시예에서, 상기 이미지 캡처링 장비 (110)는 더 높은 이미지 해상도를 위한 캡쳐링 기능을 필요로 할 수 있으며, 또는 더욱 바람직한 이미지들을 획득하기 위해서 여러 샷들을 촬영할 수 있을 것이다. 그 이유는, 사람 얼굴의 피부 상태를 상세하게 검출하기 위해서, 그 이미지들은 더 높은 해상도, 전체 얼굴 및 비-흐림 (non-blur) 이미지들을 위해 미리 세팅된 개수 (예를 들면, 4M 픽셀들)보다 더 많은 개수의 유효 픽셀들을 가져야 하기 때문이다. 그렇지 않다면, 얼굴 데이터에 대한 이어지는 인식은 흐름 이미지들 상에서 수행될 수 없다.
여기에서, 단계 S210에서의 상세한 프로세서가 아래에서 상세하게 설명될 것이다. 우선, 상기 프로세서 (120)는 현재 사용자의 얼굴 데이터를 상기 이미지 캡처링 장비 (110)로부터 획득한다. 도 3은 터치 스크린 (140) 그리고 본 발명 개시의 실시예에 따른 얼굴 마크업 (310)의 개략적인 도면이다. 도 3을 참조하면, 도 3이 현재 사용자의 얼굴 데이터를 획득하도록 의도된 것일 때에, 상기 이미지 캡처링 장비 (110)에 의해 현재 캡처된 이미지를 상기 터치 스크린 (140)에 상에 제시하면서, 하나의 얼굴 마크업 (310)이 디스플레이 스크린 (예를 들면, 상기 터치 스크린 (140)) 상에 제시될 수 있을 것이다. 다른 말로 하면, 본 실시예에서의 얼굴 마크업 (310)의 주요한 목적은 상기 전자 장치 (100)가 상기 터치 스크린 (140) 상의 얼굴 마크업 (310) 내 사용자 얼굴의 이미지를 획득할 것을 의도한 현재 사용자의 (얼굴 윤곽, 눈, 코 브리지 등을 포함하는) 얼굴 부분들의 위치들을 표시하는 것이다. 본 실시예의 이런 적용은 얼굴 윤곽만을 포함하거나 또는 눈들의 위치들만을 포함하는 얼굴 마크업과 같은 다른 유형의 얼굴 마크업을 채택하여 위의 것을 또한 구현할 수 있을 것이다. 이 방식에서, 사용자는 상기 얼굴 부분들을 상기 얼굴 마크업 (310)에 자체-정렬할 수 있으며, 그래서 후속의 프로세스에서 상기 얼굴 데이터를 획득하고 그리고 상기 초기 피부 정보를 판별할 때에 상기 프로세서 (150)가 더욱 정밀할 수 있도록 한다. (예를 들면, 상기 현재 사용자의 얼굴 부분들이 측면 측에 과도하게 기울어질 때에, 상기 얼굴 부분들 사이의 입술 아래 영역이 너무 작을 때 등에) 상기 현재 사용자가 사진 자세로 인해 상기 이미지 캡처링 장비 (110)에 직접적으로 대면하는 방식에서 상기 얼굴 부분들을 정렬시키지 않는다면, 상기 얼굴 부분들을 포함하는 영역이 완전하게 캡처되지 않을 수 있기 때문에, 얼굴 인식이 수행될 수 없다
도 1 및 도 2의 단계 S210을 참조하면, 상기 현재 사용자의 얼굴 데이터를 획득한 이후에, 상기 프로세서 (120)는 초기 피부 정보를 획득하기 위해서 상기 현재 사용자의 얼굴 데이터를 분석한다. 상기 피부 정보 (예를 들면, 초기 피부 정보 및 아래에서 설명된 현재의 피부 정보)를 획득하기 위해 상기 프로세서 (120)가 어떻게 상기 얼굴 데이터를 분석하는가에 관한 설명이 아래에서 제공된다. 본 실시예에서, 상기 피부 정보는 상기 현재 사용자의 얼굴 이미지 내 상이한 구역들을 분석함으로써 획득된 그리고 피부에 관련된 복수의 가변 특징들의 엄격함 레벨일 수 있으며, 여기에서 상기 가변 특징들은 피부에 관련된 피부 파라미터들 각각을 계산하기 위해 사용될 수 있을 것이다. 이 가변 특징들은, 예를 들면, 주름들, 얼굴 라인들, 홍반 (Erythema), 여드름 (acne), 반점들 (spots), 모공들 (pores), 피부 색상, 다크 서클 등이다. 상기 전자 장치 (100) 내 상기 프로세서 (120)는 특정 판별 레퍼런스 및 상기 엄격함 레벨에 따라 상기 가변 특징들을 획득하고, 그리고 상기 가변 특징들에 따라 상기 얼굴 파라미터들을 계산할 수 있다.
도 4는 본 발명 개시의 실시예에 따른 얼굴 데이터의 참조번호 460의 얼굴 부분들 (410) 각각의 개략적인 도면이다. 도 4를 참조하면, 도 4는 상기 프로세서 (120)에 의해 획득된 현재 사용자의 얼굴 데이터 (400)이며, 그리고 얼굴 인식 기술을 사용함으로써 상기 얼굴 데이터 (400)는 복수의 얼굴 부분들 (410 내지 460)로 분할된다. 이 얼굴 부분들 (410 내지 460)은 이마 부분 (410), 코 부분 (420), 눈 부분 (430), 우측-얼굴 부분 (440), 좌측-얼굴 부분 (450) 및 턱 부분 (460)을 포함한다. 위에서 설명된 가변 특징들은 그것들이 나타난 상이한 부분들로 인해 상이한 특징 정의들을 가질 수 있을 것이며, 또는 그것들의 엄격함 레벨, 및 가변 특징들은 본 실시예에서 도 4를 참조하여 하나씩 설명된다. 본 실시예에서, 상기 가변 특징들의 상기 엄격함 레벨은 레벨 1 (가장 덜 엄격함) 내지 레벨 5 (가장 엄격함)로 더 분할되며, 그리고 상기 가변 특징들의 영역들은 전체 얼굴에 대한 자신들의 영역 백분율들을 계산하기 위한 단편들로서 참조된다. 본 실시예를 그렇게 적용하는 것은 이 가변 특징들의 정의들이 본원의 실시예들에 의해 제한되는 것이 아니라 요청들을 기반으로 하여 또한 조절될 수 있을 것이라는 것을 또한 이해해야 한다.
소위 "주름들 (wrinkles)"의 용어는 더 깊고 더 긴 전체 얼굴의 얼굴 데이터 (400)에서의 선형 증가를 언급하는 것이며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 본 실시예에서, "주름들"의 깊이 및 길이의 최대 값들, 평균 값들 및 최소 값들은 상기 클라우드 데이터베이스 (160) 또는 다른 소스들로부터의 사용자 얼굴 데이터를 통해서 획득될 수 있을 것이며, 그리고 그 값들은 상기 얼굴 데이터 (400) 내 주름들의 개수 및 그 전체 얼굴에 대한 주름들의 영역 백분율을 계산하기 위해 사용될 수 있을 것이다. 또한, 본 실시예에서, 주름들은 상기 얼굴 데이터 (400) 내에서 라벨링하는 방식으로 그 사용자에 대한 레퍼런스들로서 표시된다. 소위 "얼굴 라인들"의 용어는 더 얕고 더 짧은 전체 얼굴의 얼굴 데이터 (400) 내에서의 선형 증가를 언급하는 것이며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 본 실시예에서, "얼굴 라인들"의 깊이 및 길이의 최대 값들, 평균 값들 및 최소 값들은 상기 클라우드 데이터베이스 (160) 또는 다른 소스들로부터의 사용자 얼굴 데이터를 통해서 획득될 수 있을 것이며, 그리고 그 값들은 상기 얼굴 데이터 내 얼굴 라인들의 개수 및 그 전체 얼굴에 대한 얼굴 라인들의 영역 백분율을 계산하기 위해 사용될 수 있을 것이다. 또한, 본 실시예에서, 얼굴 라인들은 상기 얼굴 데이터 (400) 내에서 라벨링하는 방식으로 그 사용자에 대한 레퍼런스들로서 표시된다.
소위 "홍반 (Erythema)"의 용어는 사용자의 피부 색상에 비교하여 불그스레한 전체 얼굴의 얼굴 데이터 (400) 내 모반 (plaque)을 언급하는 것이며 더 큰 영역을 가지며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 전체 얼굴에 대한 홍반의 영역 백분율은 얼굴 이미지 인식 기술을 통해 획득될 수 있을 것이다. 소위 "여드름 (acne)"의 용어는 사용자의 피부 색상에 비교하여 불그스레한 전체 얼굴의 얼굴 데이터 (400) 내 모반을 언급하는 것이며 더 작은 영역을 가지며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 얼굴 데이터 (400) 내 여드름의 개수는 얼굴 이미지 인식 기술을 통해 획득될 수 있을 것이며, 그리고 상기 개수에 따른 엄격함 레벨을 결정하기 위해 사용될 수 있을 것이다. 소위 "반점들 (spots)"의 용어는 사용자의 피부 색상에 비교하여 더 어두운 전체 얼굴의 얼굴 데이터 (400) 내 모반이나 반점을 언급하는 것이며,그리고 상기 얼굴 부분들 (410 내지 460) 각각 내에 나타날 수 있을 것이다. 상기 얼굴 데이터 (400) 내 반점들의 개수 및 상기 전체 얼굴에 상대적인 반점들의 영역 백분율은 얼굴 이미지 인식 기술을 통해 획득될 수 있을 것이며, 그리고 상기 개수 및 상기 영역 백분율에 따라 엄격함 레벨을 결정하기 위해 사용될 수 있을 것이다. 상기 소위 "모공들 (pores)"의 용어는 상기 우측-얼굴 부분 (440), 좌측-얼굴 부분 (450) 및 코 부분 (420) 내 피부 표면 상의 모공 및 열린 구멍을 언급하는 것이다. 상기 얼굴 데이터 (400) 내 모공들의 개수 그리고 상기 우측-얼굴 부분 (440), 좌측-얼굴 부분 (450) 및 코 부분 (420)에 대한 모공들의 영역 백분율은 얼굴 이미지 인식 기술을 통해서 획득될 수 있을 것이며, 그리고 상기 개수 및 상기 영역 백분율들에 따른 엄격함 레벨을 결정하기 위해 사용될 수 있을 것이다.
소위 "피부 색상 (skin color)"의 용어는 전체 얼굴의 얼굴 데이터 (400) 내 피부 그 자체의 평균 피부 색상을 언급하는 것이다. 여기에서의 상기 평균 색상은 여드름 및 반점들이 생기는 위치들에서의 피부 색상들 및 다크 서클의 피부 색상을 포함하지 않을 수 있을 것이다. 소위 "다크 서클 (dark circle)"의 용어는 상기 눈 부분 (430) 아래의 위치들에서의 피부 색상을 언급하는 것이다.
상기 가변 특징들은 상기 얼굴 데이터 (400) 내 절대값들에 속하지만, 상기 얼굴 피부 케어의 분야에서 흔히 사용되는 특정 피부 파라미터들과는 여전히 약간 상이하다. 그러므로, 본 실시예에서, 도 1의 프로세서 (120)는 상기 가변 특징들에 따라 피부 파라미터들을 계산할 수 있을 것이다. 이 피부 파라미터들은 얼굴 피부 케어의 분야에서 흔히 사용되는 결정 기준이다. 상기 피부 파라미터들은, 예를 들면, 맑음 (clearness), 질감 (texture), 견고함 (firmness), 밝음 (brightness), 건강함 등이다. 본 실시예에서, 상기 피부 파라미터들은 촬영된 사용자의 두 얼굴 이미지들을 기초로 한다. 예를 들면, 두 얼굴 이미지들 사이에서의 피부 진행 레벨 (skin progress level)은, 예를 들면, 초기 피부 정보를 현재의 피부 정보와 비교함으로써 계산될 수 있을 것이다. 그처럼, 이 피부 파라미터들은 백분율 (%)로 표현될 수 있다. 피부의 "맑음 (clearness)"은 다크 사이클의 색상-페이딩 레벨은 물론이며 전체 얼굴의 화이트 레벨, 얼굴 상의 얼굴 모공들 (예를 들면, 반점들, 홍반, 여드름, 모공들)의 줄어든 영역 또는 줄어든 개수를 계산함으로써 획득될 수 있을 것이다. 피부의 "질감 (texture)"은 얼굴 라인들의 커버리지 영역을 계산함으로써 주로 획득되며, 그리고 모공들의 커버리지 영역 및 개수를 제2 옵션으로서 계산함으로써 또한 획득될 수 있을 것이다. 피부의 "견고함 (firmness)"은 모공들의 개수 및 영역을 계산함으로써 획득된다. 피부의 "밝음 (brightness)"은 전체 얼굴의 밝음 레벨을 주 가변 특징으로서 계산함으로써 주로 획득된다. 피부의 "건강함 (healthiness)"은 홍반의 개수 그리고 홍반의 커버리지 영역을 주 가변 특징들로서 계산함으로써 주로 획득된다.
도 1 및 도 2를 참조하면, 상기 방법은 단계 S210이 완료된 이후에 단계 S220으로 진행한다. 단계 S220에서, 상기 프로세서 (120)는 네트워크 (150) 내 클라우드 데이터베이스 (160)에 의해 상기 초기 피부 정보에 따라서 상기 현재의 사용자를 복수의 그룹들 중 하나의 그룹으로 분류한다. 본 실시예에서, 상기 클라우드 데이터베이스 (160) 내 상기 그룹들 각각은 복수의 분류된 사용자들을 포함한다. 단계 S220의 목적은 동일한 지리적 위치, 동일한 환경, 유사한 인종 또는 심지어는 유사한 다이어트를 가진 사용자들을 동일한 그룹으로 분류하는 것을 목표로 하는 것이며, 그래서 동일한 그룹 내 사용자들이 피부 케어 이력들 및 경험들을 다른 사람들과 공유하는 것을 가능하게 하도록 한다.
본 발명 개시의 본 실시예에서, 상기 현재 사용자는 주로 상기 초기 피부 정보에 따라서 대응하는 그룹으로 분류되며, 그래서 동일한 또는 대략적으로 같은 피부 정보를 가진 사용자들이 동일한 그룹으로 분류될 수 있도록 한다. 본 발명 개시의 범위와 일치하는 몇몇의 실시예들에서, 상기 초기 피부 정보에 따라서 사용자들을 분류하는 것 이외에, 상기 프로세서 (120)는 상기 현재 사용자를 복수의 분류 기준들에 따라 상기 그룹들 중 하나로 또한 분류할 수 있을 것이다. 상기 개시의 본 실시예들의 상기 분류 기준들은 다양한 방식들에 의해 구현될 수 있을 것이며, 그리고 이 분류 기준들 각각은 상기 현재 사용자를 분류함으로써 구현될 수 있을 것이다. 상기 분류 기준들은 그 현재 사용자의 성별, 나이, 지리적 위치 및 인종 정보 중 하나 또는 그것들의 결합과 같은 그 사용자를 주로 기초로 하는 분류 기준들일 수 있다. 또한 상기 분류 기준들은 상기 현재 사용자에 의해 세팅된 미리 정해진 시간 구간 및 피부-상태 목표일 수 있다. "미리 정해진 시간 구간" 및 "피부-상태 목표"에 관한 상세한 설명들은 다음의 실시예들에서 제공될 것이다.
첫 번째 분류 기준은 그 사용자의 성별이다. 남자 사용자 및 여성 사용자의 피부 상태들이 매우 상이하기 때문에, 상이한 성별을 가진 사용자가 첫 번째로 분류되어야 할 수 있다. 두 번째 분류 기준은 그 사용자의 나이이다. 20세부터 25세까지의 사용자들 그리고 26세부터 30세까지의 사용자들의 피부 상태들 및 피부 케어 이력들은 또한 매우 상이하다. 세 번째 분류 기준은 지리적 위치들 사이의 관계일 수 있다 (예를 들면, 사용자들은 그 사용자들이 위치한 지역들 또는 지리적인 구역들에 따라 분류된다). 상기 지리적인 구역들은 지구 상의 7개 대륙들 (예를 들면, 아시아, 북미 등)에 따라서 분류될 수 있을 것이다. 이 분류 기준은 비슷한 지리적 환경을 가진 사용자 정보를 동일한 그룹으로 분류하는 것을 목표로 한다. 네 번째 분류 기준은 "인종"일 수 있다. 소위 "인종"의 용어는 그 사용자의 인종 유형을 획득하는 것을 목표로 하며, 그래서 사용자들이 신체적인 패턴들 또는 유전적인 특성들에서 공통적인 특징들의 인종 유형들을 가지는, 그런 그룹으로 사용자가 분류될 수 있도록 한다. "인종"을 이용하여 분류하는 동안에, 사용자들은 외모 특징들 (예를 들면, 머리 색상, 피부 색상 및 얼굴 골격 구조), 성별 등과 같은 객관적인 상태들을 기초로 하여 자기 자신의 "인종" 유형을 자체 선택할 수 있을 것이다. 실제의 구현들에서, 상기 사용자의 인종 유형은 이미지 인식 기술을 통해서 상기 전자 장치 상의 이미지 캡처링 장비에 의해 결정될 수 있을 것이며, 또는 선택된 언어에 의해 결정될 수 있을 것이다. 상기 "인종" 유형은 남태평양상 흑인 인종 (즉, 흑인), 코카서스 인종 (즉, 백인), 몽고 인종 (즉, 황인), 오스트레일리아 인종 (즉, 갈색인) 및 아프리카 남부지역 흑인 (전통적인 흑인과는 상이한 독립적인 인종)일 수 있다. 상기 사용자들이 자기 자신의 "인종"을 분류 기분으로서 선택하는 문제를 가질 수 있을 것이라는 것이 가능하다. 그 경우에, "언어"는 상기 분류 기준으로서 "인종"을 대체하기 위해 사용될 수 있을 것이며, 이는 동일한 인종인 대부분의 사람이 유사한 언어들을 말하기 때문이다. 본 실시예를 적용하는 것은 전술한 실시예들에 의해 제한된 것이 아니라, 상기 분류 기준을 이용하거나 상기 데이터베이스 내 사용자 데이터의 양 또는 데이터 콘텐트 내 차이들에 따른 다른 분류 기준을 추가하는가 또는 그렇지 않는가의 여부를 적절하게 조절할 수 있을 것이다.
단계 S230에서, 상기 현재 사용자는 상기 전자 장치 (100) 내 입력 장비 (예를 들면, 터치 스크린 (140))를 이용함으로써 원하는 향상을 위한 미리 정해진 시간 구간 및 피부-상태 목표를 세팅할 수 있다. "미리 정해진 시간 구간" 및 "피부-상태 목표"는 상기 사용자에 의해 세팅될 수 있을 것이며 또는 상기 클라우드 데이터베이스 (160)를 통해 상기 전자 장치 (100)에 의해 추천될 수 있을 것이다. "미리 정해진 시간 구간"은, 예를 들면, 한 주, 한 달, 세 달, 여섯 달, 일 년 또는 이 년으로 세팅될 수 있을 것이다; "피부-상태 목표"는, 예를 들면, 향상될 맑음의 원하는 백분율, 주름들의 엄격함 레벨에 대한 원하는 축소 등으로 세팅될 수 있을 것이다.
단계 S240에서, 상기 "미리 정해진 시간 구간" 및 "피부-상태 목표"를 수신한 이후에, 상기 전자 장치 (100)는 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을, 상기 초기 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 그룹들 중 하나로부터 획득한다. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 피부-상태 목표에 관한 케어 정보이다. 다른 말로 하면, 상기 전자 장치 (100)는, 단계 S240에서, 동일한 또는 비슷한 초기 피부 정보를 구비한, 동일한 또는 비슷한 미리 정해진 시간 구간을 구비한, 동일한 또는 비슷한 피부-상태 목표를 구비한 그리고 동일한 그룹의 다른 사용자들에 의해 이미 달성된 피부-달성 이력을 찾기 위해서 클라우드 데이터베이스 (160) 내에서 상기 현재 사용자를 포함하는 그룹을 검색하며, 그래서 상기 피부-달성 이력이 상기 현재 사용자를 위한 레퍼런스들로서 소용이 될 수 있도록 한다. 상기 케어 정보는 상기 분류된 사용자들의 적어도 하나 이상의 사용된 케어 제품들 및 적어도 하나의 케어 행동을 적어도 포함한다. 따라서, 상기 전자 장치 (100)의 사용과 함께, 상기 현재 사용자는 상기 다른 사용자들에 의해 공유된 케어 정보를 상기 현재 사용자를 위한 얼굴 피부 케어에 대한 레퍼런스들로서 획득할 수 있다. 반면에, 상기 전자 장치 (100)는 상기 케어 정보 내에 상기 케어 제품들이나 상기 케어 제품들과 동일한 또는 유사한 효과를 가지는 제품들의 구매 정보를 또한 제공할 수 있을 것이며, 이는 상기 전자 장치 (100)의 기능성을 더욱 확장하기 위한 것이다.
동일한 그룹 또는 동일한 레벨 내 사용자들은 비슷한 피부 정보 및 상태들을 가진 것으로서만 참조될 수 있으며, 이는 상기 피부 상태를 상이한 유형들 또는 레벨들로 분할 (예를 들면, 상기 피부 상태는 1 내지 10의 레벨들로 분할될 수 있을 것이다)하는 방식에 의해 각 사용자의 피부 정보가 분류되거나 식별되기 때문이라는 것에 유의해야 한다. 그러므로, 사용자들이 초기 피부 정보에 따라 상이한 그룹들로 분류될 때에, 동일한 그룹 내 사용자들의 피부 상태들은 비슷하다.
상기 현재 사용자가 피부-달성 이력을 획득한 이후에 상기 피부-달성 이력 내 케어 정보에 따라 상기 얼굴 피부 케어를 집행하기를 원한다면, 단계 S250에서, 상기 전자 장치 (100)의 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 현재 피부 정보 및 상기 현재 사용자의 케어 정보 (예를 들면, 사용된 케어 제품, 피부 케어 행동 등)를 계속적으로 기록한다. 그러면, 단계 S260에서, 상기 프로세서 (120)는 초기 검출 내 상기 초기 피부 정보를 상기 현재 피부 정보와 비교함으로써, 상기 현재 사용자에 의해 세팅된 피부-상태 목표가 달성되는가의 여부를 판별한다.
상기 현재 사용자에 의해 세팅된 피부-상태 목표가 상기 미리 정해진 시간 구간에서 달성될 때에, 상기 방법은 단계 S260으로부터 단계 S270으로 진행하며, 단계 S270에서, 상기 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치한다. 나중에, 상기 프로세서 (120)는 상기 피부-달성 이력을 상기 클라우드 데이터베이스 (160)로 업로드하는가의 여부를 상기 현재 사용자에게 문의할 수 있다. 그렇게 함으로써, 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 피부-달성 이력을 달성하기를 원하는 다른 사용자에게 공유될 수 있으며, 이 경우에 상기 다른 사용자 및 상기 현재 사용자는 동일한 그룹에 속한다. 반면에, 상기 현재 사용자에 의해 세팅된 상기 피부-상태 목표가 상기 미리 정해진 시간 구간 내에 달성되지 않을 때에, 상기 방법은 단계 S260으로부터 단계 S280으로 진행한다. 단계 S280에서, 상기 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 피부 케어 이력 내로 배치하며, 그리고 상기 피부 케어 이력은 다른 사용자들, 서비스 제공자 또는 심지어는 피부과 의사에게 공유될 수 있을 것이며, 그래서 그들이 이 피부 케어 이력이 상기 얼굴 피부를 실제로 향상시킬 수 있도록 한다. 더욱이, 피부과 의사가 상기 케어 정보 및 상기 흐름을 더 향상시키기 위해서 상기 피부 케어 이력에 관한 향상을 위한 제안들을 제공할 수 있을 것 같다.
도 5는 본 발명 개시의 실시예에 따라 케어 정보를 공유하기 위한 방법의 흐름도이다. 본 발명 개시의 본 실시예에서, 케어 정보를 공유하기 위한 상기 방법은 도 1에서 도시된 것과 같은 이미지 캡쳐링 장비 (110)를 포함하는 전자 장치 (100)에 적응된다. 도 5의 흐름도에서의 각 단계는 도 1 내 전자 장치 (100)의 각 요소를 참조하여 설명된다. 단계 S510에서, 상기 프로세서 (120)는 상기 이미지 캡처링 장비 (110)로부터 현재 사용자의 얼굴 데이터를 획득하며, 그리고 상기 프로세서 (120)는 상기 얼굴 데이터를 분석하여, 현재의 피부 정보를 초기 피부 정보로서 획득한다. 단계 S520에서, 상기 프로세서 (120)는 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치 (100) 내 입력 장비 (예를 들면, 터치 스크린 (140))에 의해 세팅한다. 단계 S530에서, 상기 현재 사용자는 상기 전자 장치 (100) 내 다양한 요소들을 사용하여, 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 현재 피부 정보 및 케어 정보를 연속해서 기록하며 그리고 상기 초기 피부 정보를 상기 현재 피부 정보와 비교함으로써 피부-상태 목표가 달성되었는가의 여부를 판별한다. 단계 S540에서, 상기 피부-상태 목표가 상기 미리 정해진 시간 구간 내에서 달성되었는가의 여부를 판별할 때에, 상기 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치한다. 단계 S550에서, 상기 프로세서 (120)는 현재 사용자에 대응하는 피부-달성 이력을 상기 네트워크 통신 장비 (130)에 의해 네트워크 (150) 내 클라우드 데이터베이스 (160)를 통해서, 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 동일한 피부-상태 목표를 달성하기를 원하는 다른 사용자와 공유할 수 있다. 본 실시예에서, 상기 현재 사용자 및 상기 다른 사용자는 동일한 그룹으로 분류되어야 한다. 상기의 상세한 단계들은 전술할 실시예에 관련된 것일 수 있다.
요약하면, 본 발명 개시의 실시예에 따라, 상기 전자 장치 내 이미지 캡처링 장비는 사용자의 초기 피부 정보를 획득하기 위해서 사용자를 위한 피부 검출을 수행하기 위해 사용되며, 그리고 피부 상태를 향상시키기 위해 비슷한 환경, 비슷한 미리 정해진 시간 구간 및 비슷한 피부-상태 목표를 가진 사용자들을 동일한 그룹으로 분류한다. 상기 피부-상태 목표가 상기 미리 정해진 시간 구간 내에서 상기 사용자에 의해 달성된다면, 상기 전자 장치는 그 미리 정해진 시간 구간 내에서 상기 사용자의 케어 정보 (예를 들면, 피부를 위한 케어 행동, 사용된 케어 제품들 등)를 배치하고, 그리고 그 피부-달성 이력을 동일한 그룹 내 동일한 상태를 가진 다른 사용자들과 공유할 수 있다. 그처럼, 얼굴 피부 케어를 위한 개인적인 팁들이 공유될 수 있을 것이다. 반면에, 상기 사용자는 다른 사용자들에 의해 공유된 케어 정보를 상기 현재 사용자를 위한 얼굴 피부에 대한 레퍼런스들로서 또한 획득할 수 있다.
다양한 수정들 및 변형들이 상기 개시된 실시예들에 대해 만들어질 수 있다는 것이 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자들에게는 자명할 것이다. 본 명세서 및 예들은 단지 예시적인 것으로 간주되며, 다음의 청구항들 및 그것들의 등가들에 의해 표시된 본 발명 개시의 진정한 범위를 구비하는 것으로 의도된 것이다.

Claims (17)

  1. 이미지 캡쳐링 장비를 포함하는 전자 장치에 적합한, 케어 (care) 정보 획득 방법으로, 상기 방법은:
    상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 초기 피부 정보를 획득하기 위해 그 얼굴 데이터를 분석하는 단계로, 상기 초기 피부 정보는 이미지 인식을 통해 상기 얼굴 데이터로부터 분석된 얼굴 특징을 포함하는 가변 특징들에 따라 계산된 복수의 피부 파라미터들을 포함하며, 그리고 상기 피부 파라미터들은 숫자이며 상기 얼굴 특징의 엄격함 레벨이나 상기 얼굴 특징의 전체 얼굴에 대한 영역 백분율에 기반하여 계산되는, 획득 및 분석 단계;
    클라우드 데이터베이스 사용에 의해 인구통계적 속성들과 연관된 복수의 분류 기준들 중 적어도 하나 그리고 상기 초기 피부 정보에 따라서 프로세서에 의해 상기 현재 사용자를 복수의 그룹들 중 하나로 분류하는 단계로, 상기 그룹들 각각은 복수의 분류된 사용자들을 포함하는, 분류 단계;
    상기 현재 사용자에 의해 입력된, 원하는 피부 향상을 위한 원하는 미리 정해진 시간 구간 및 피부-상태 목표를 세팅하는 단계로, 상기 피부 상태 목표는 상기 얼굴 특징의 엄격함 레벨이나 향상될 전체 얼굴에 대한 상기 얼굴 특징의 원하는 백분율에 대한 원하는 축소인, 세팅 단계;
    상기 초기 피부 정보, 상기 원하는 피부 향상을 위한 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 중 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 획득하는 단계로, 상기 피부-달성 이력은 상기 초기 피부 정보와 비슷한, 비슷한 초기 피부 정보 및 상기 원하는 미리 정해진 시간 구간과 비슷한, 비슷한 미리 정해진 시간 구간의 환경들하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 케어 정보이며, 상기 케어 정보는 상기 분류된 사용자들의 케어 행동들 및 사용된 케어 제품들을 포함하는, 획득 단계; 그리고
    상기 초기 피부 정보와 비슷한, 상기 비슷한 초기 피부 정보 및 상기 원하는 미리 정해진 시간 구간과 비슷한, 상기 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 상기 케어 정보를 이용하여 상기 피부-상태 목표를 달성하기 위한 처리를 구현하는 단계를 포함하는 케어 정보 획득 방법.
  2. 제1항에 있어서,
    상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 획득 방법.
  3. 제1항에 있어서:
    상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계; 그리고
    상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계를 더 포함하는, 케어 정보 획득 방법.
  4. 제3항에 있어서,
    상기 가변 특징들은 주름들, 얼굴 라인들, 홍반 (Erythema), 여드름 (acne), 반점들 (spots), 모공들 (pores), 피부 색상 및 다크 서클 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 획득 방법.
  5. 제4항에 있어서,
    상기 피부 파라미터들은 맑음 (clearness), 질감 (texture), 견고함 (firmness), 밝음 (brightness) 및 건강함 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 획득 방법.
  6. 삭제
  7. 이미지 캡쳐링 장비를 포함하는 전자 장치에 적합한, 케어 정보 공유 방법으로, 상기 방법은:
    상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 현재 피부 정보를 초기 피부 정보로서 획득하기 위해 그 얼굴 데이터를 분석하는 단계로, 상기 초기 피부 정보는 이미지 인식을 통해 상기 얼굴 데이터로부터 분석된 얼굴 특징을 포함하는 가변 특징들에 따라 계산된 복수의 피부 파라미터들을 포함하며, 그리고 상기 피부 파라미터들은 숫자이며 상기 얼굴 특징의 엄격함 레벨이나 상기 얼굴 특징의 전체 얼굴에 대한 영역 백분율에 기반하여 계산되는, 획득 및 분석 단계;
    클라우드 데이터베이스 사용에 의해 인구통계적 속성들과 연관된 복수의 분류 기준들 중 적어도 하나 그리고 상기 초기 피부 정보에 따라서 상기 현재 사용자를 복수의 그룹들 중 하나로 분류하는 단계로, 상기 그룹들 각각은 복수의 분류된 사용자들을 포함하는, 분류 단계;
    상기 현재 사용자에 의해 입력된, 원하는 피부 향상을 위한 원하는 미리 정해진 시간 구간 및 피부-상태 목표를 세팅하는 단계로, 상기 피부 상태 목표는 상기 얼굴 특징의 엄격함 레벨이나 향상될 전체 얼굴에 대한 상기 얼굴 특징의 원하는 백분율에 대한 원하는 축소인, 세팅 단계;
    상기 초기 피부 정보, 상기 원하는 피부 향상을 위한 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 중 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 획득하는 단계로, 상기 피부-달성 이력은 상기 초기 피부 정보와 비슷한, 비슷한 초기 피부 정보 및 상기 원하는 미리 정해진 시간 구간과 비슷한, 비슷한 미리 정해진 시간 구간의 환경들하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 케어 정보이며. 상기 케어 정보는 상기 분류된 사용자들의 케어 행동들 및 사용된 케어 제품들을 포함하는, 획득 단계;
    상기 초기 피부 정보와 비슷한, 상기 비슷한 초기 피부 정보 및 상기 원하는 미리 정해진 시간 구간과 비슷한, 상기 비슷한 미리 정해진 시간 구간의 환경들하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 상기 케어 정보를 이용하여 상기 피부-상태 목표를 달성하기 위한 처리를 구현하는 단계;
    상기 전자 장치에 의해서, 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 상기 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 원하는 피부 향상을 위한 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계;
    상기 피부-상태 목표가 달성될 때에 상기 원하는 미리 정해진 시간 구간 내 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계; 그리고
    상기 초기 피부 정보와 비슷한, 상기 비슷한 초기 피부 정보 및 상기 원하는 미리 정해진 시간 구간과 비슷한, 상기 비슷한 미리 정해진 시간 구간의 환경들하에서 상기 피부-상태 목표를 달성하기를 원하며 상기 현재 사용자와 동일한 그룹으로 분류된 다른 사용자와 상기 피부-달성 이력을 공유하는 단계를 포함하는, 케어 정보 공유 방법.
  8. 삭제
  9. 제7항에 있어서,
    상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 공유 방법.
  10. 삭제
  11. 전자 장치로서:
    현재 사용자의 얼굴 데이터를 획득하는 이미지 캡쳐링 장비;
    상기 이미지 캡쳐링 장비에 연결된 프로세서;
    상기 프로세서에 연결된 입력 장비; 그리고
    네트워크 통신 장비를 포함하며,
    상기 프로세서는 상기 네트워크 통신 장비를 경유하여 네트워크에 연결되며,
    상기 프로세서는 상기 이미지 캡쳐링 장비로부터 상기 얼굴 데이터를 획득하며 그리고 초기 피부 정보를 얻기 위해 상기 얼굴 데이터를 분석하고, 상기 초기 피부 정보는 이미지 인식을 통해 상기 얼굴 데이터로부터 분석된 얼굴 특징을 포함하는 가변 특징들에 따라 계산된 복수의 피부 파라미터들을 포함하며, 그리고 상기 피부 파라미터들은 숫자이며 상기 얼굴 특징의 엄격함 레벨이나 상기 얼굴 특징의 전체 얼굴에 대한 영역 백분율에 기반하여 계산되며;
    상기 프로세서는, 상기 네트워크 내 클라우드 데이터베이스에 의해 인구통계적 속성들과 연관된 복수의 분류 기준들 중 적어도 하나 그리고 상기 초기 피부 정보에 따라서 상기 현재 사용자를 복수의 그룹들 중 하나로 분류하며, 상기 그룹들 각각은 복수의 분류된 사용자들을 포함하며;
    상기 입력 장비는 상기 현재 사용자에 의해 입력된 원하는 피부 향상을 위한 피부-상태 목표 및 원하는 미리 정해진 시간 구간을 수신하며, 상기 피부 상태 목표는 상기 얼굴 특징의 엄격함 레벨이나 향상될 전체 얼굴에 대한 상기 얼굴 특징의 원하는 백분율에 대한 원하는 축소이며,
    상기 프로세서는 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 획득하며,
    상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들하에서 상기 분류된 사용자들 중 하나에 의해 달성된 피부-상태 목표에 관한 케어 정보이며, 상기 케어 정보는 상기 분류된 사용자들의 케어 행동들 및 사용된 케어 제품들을 포함하며,
    상기 프로세서는, 상기 초기 피부 정보와 비슷한, 상기 비슷한 초기 피부 정보 및 상기 원하는 미리 정해진 시간 구간과 비슷한, 상기 비슷한 미리 정해진 시간 구간의 환경들하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 상기 케어 정보를 이용하여 상기 피부-상태 목표를 달성하기 위한 처리를 구현하는, 전자 장치.
  12. 제11항에 있어서,
    상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함하는, 전자 장치.
  13. 제11항에 있어서,
    상기 프로세서는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하고, 그리고
    상기 프로세서는 상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하며 그리고 상기 피부-달성 이력을 상기 클라우드 데이터베이스로 업로드하는, 전자 장치.
  14. 제13항에 있어서,
    상기 가변 특징들은 주름들, 얼굴 라인들, 홍반, 여드름, 반점들, 모공들, 피부 색상 및 다크 서클 중 하나 또는 그것들의 조합을 포함하는, 전자 장치.
  15. 제11항에 있어서,
    상기 케어 정보는 상기 현재 사용자의 적어도 하나의 케어 행동 및 상기 현재 사용자에 의해 사용된 적어도 하나의 케어 제품을 적어도 포함하며,
    상기 피부 파라미터들은 맑음, 질감, 견고함, 밝음 및 건강함 중 하나 또는 그것들의 조합을 포함하는, 전자 장치.
  16. 삭제
  17. 삭제
KR1020160112125A 2016-05-24 2016-08-31 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 KR102183370B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW105116064 2016-05-24
TW105116064A TWI585711B (zh) 2016-05-24 2016-05-24 獲得保養信息的方法、分享保養信息的方法及其電子裝置

Publications (2)

Publication Number Publication Date
KR20170132644A KR20170132644A (ko) 2017-12-04
KR102183370B1 true KR102183370B1 (ko) 2020-11-27

Family

ID=57354110

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160112125A KR102183370B1 (ko) 2016-05-24 2016-08-31 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치

Country Status (6)

Country Link
US (2) US10361004B2 (ko)
EP (2) EP3249562B1 (ko)
JP (2) JP6715152B2 (ko)
KR (1) KR102183370B1 (ko)
CN (2) CN107423661A (ko)
TW (1) TWI585711B (ko)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102490438B1 (ko) * 2015-09-02 2023-01-19 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
USD844792S1 (en) * 2016-11-18 2019-04-02 Samsung Electronics Co., Ltd. Skin condition measuring apparatus
DE102017209860B4 (de) * 2017-06-12 2019-07-11 Henkel Ag & Co. Kgaa Verfahren und Vorrichtung zum Ermitteln eines Körperbereichzustands
GB201715450D0 (en) * 2017-09-25 2017-11-08 Deb Ip Ltd Skin condition and risk evaluation methodology
JP6992411B2 (ja) 2017-11-01 2022-01-13 株式会社デンソー 機器冷却装置
CN107977549B (zh) * 2017-12-06 2021-04-13 懿奈(上海)生物科技有限公司 一种基于皮肤多组学的护肤匹配方法及终端
WO2019226131A2 (en) * 2017-12-12 2019-11-28 Turkcell Teknoloji Arastirma Ve Gelistirme Anonim Sirketi A system and method for diagnosing potential diseases from photo and video data and informing the user
EP3718050A1 (en) * 2018-01-05 2020-10-07 L'oreal Machine-implemented facial health and beauty assistant
CN108470321B (zh) * 2018-02-27 2022-03-01 北京小米移动软件有限公司 照片的美颜处理方法、装置和存储介质
KR101927286B1 (ko) * 2018-03-05 2018-12-10 와이케이씨테크(주) 무인 안면 및 손등 피부 분석장치
CN110811115A (zh) * 2018-08-13 2020-02-21 丽宝大数据股份有限公司 电子化妆镜装置及其脚本运行方法
JP7230409B2 (ja) * 2018-10-02 2023-03-01 カシオ計算機株式会社 判定装置、判定方法及び判定プログラム
US11042726B2 (en) * 2018-11-05 2021-06-22 Panasonic Intellectual Property Management Co., Ltd. Skin analyzer, skin analysis method, and non-transitory computer-readable recording medium
JP2020081323A (ja) * 2018-11-22 2020-06-04 パナソニックIpマネジメント株式会社 肌分析装置、肌分析方法、及び、コンピュータプログラム
US10970593B2 (en) 2018-12-03 2021-04-06 International Business Machines Corporation Product effect analysis
AU2019416130A1 (en) * 2018-12-27 2021-06-10 Johnson & Johnson Consumer Inc. Device and method for application of topical compositions guided by projected fiducials
CN109730637B (zh) * 2018-12-29 2021-04-23 中国科学院半导体研究所 一种人脸面部图像定量分析系统及方法
CN110033344A (zh) * 2019-03-06 2019-07-19 百度在线网络技术(北京)有限公司 基于神经网络的护肤品推荐方法、装置及存储介质
TWI708164B (zh) * 2019-03-13 2020-10-21 麗寶大數據股份有限公司 虛擬彩妝系統與虛擬彩妝上色方法
USD923043S1 (en) * 2019-04-23 2021-06-22 The Procter & Gamble Company Display panel with graphical user interface for skin age determination
WO2020242274A1 (en) * 2019-05-31 2020-12-03 Samsung Electronics Co., Ltd. Electronic device for controlling skin-care device and method of operating the same
EP3980962A1 (en) * 2019-06-10 2022-04-13 The Procter & Gamble Company Method of generating user feedback information to enhance product use results
US11567562B2 (en) * 2019-06-28 2023-01-31 Ncr Corporation Self-checkout terminal sleep and wake operations
US11501356B2 (en) * 2019-07-31 2022-11-15 L'oreal Systems and methods for generating personalized skincare formulations based on biomarker analysis
US11741523B2 (en) 2019-07-31 2023-08-29 L'oreal Personalized skincare recommendations based on biomarker analysis
KR20190103097A (ko) * 2019-08-16 2019-09-04 엘지전자 주식회사 뷰티 카운슬링 정보 제공 방법 및 장치
CN110533651B (zh) * 2019-08-29 2022-04-08 维沃移动通信有限公司 一种图像处理方法及装置
EP3800644A1 (en) * 2019-10-02 2021-04-07 Koninklijke Philips N.V. Determining a location of a device
KR20210075673A (ko) 2019-12-13 2021-06-23 삼성전자주식회사 사용자의 피부 상태를 측정하는 전자 장치와 이의 동작 방법
US20210195713A1 (en) * 2019-12-18 2021-06-24 L'oreal Location based lighting experience
JP7442173B2 (ja) 2019-12-27 2024-03-04 B-by-C株式会社 画像処理システム、画像処理方法、および画像処理プログラム
US20210201008A1 (en) * 2019-12-31 2021-07-01 L'oreal High-resolution and hyperspectral imaging of skin
US11869213B2 (en) 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
DE102020203189A1 (de) * 2020-03-12 2021-09-16 Beiersdorf Aktiengesellschaft Verfahren zur Produktempfehlung
US20230126775A1 (en) * 2020-03-16 2023-04-27 Aquavit Pharmaceuticals, Inc. System and methods for personalized skin health and/or appearance regimen supported with mirror-based digital interface apparatus
US20210307492A1 (en) * 2020-04-01 2021-10-07 Magicom Inc. Smart-mirror display system
CN111507478A (zh) * 2020-04-08 2020-08-07 秦国洪 一种ai化妆师系统
CN111557644A (zh) * 2020-04-22 2020-08-21 深圳市锐吉电子科技有限公司 一种基于智能镜面设备的护肤方法、装置及护肤设备
USD968441S1 (en) 2020-04-30 2022-11-01 The Procter & Gamble Company Display screen with graphical user interface
USD962256S1 (en) 2020-05-14 2022-08-30 The Procter & Gamble Company Display screen with graphical user interface
CN111651040B (zh) * 2020-05-27 2021-11-26 华为技术有限公司 用于肌肤检测的电子设备的交互方法及电子设备
KR20210152179A (ko) * 2020-06-08 2021-12-15 주식회사 휴먼피부임상시험센터 시리얼 피부 유형 분석과 맞춤형 화장품 조제 장치
US10952519B1 (en) 2020-07-16 2021-03-23 Elyse Enterprises LLC Virtual hub for three-step process for mimicking plastic surgery results
US10909879B1 (en) * 2020-07-16 2021-02-02 Elyse Enterprises LLC Multilingual interface for three-step process for mimicking plastic surgery results
US11160497B1 (en) * 2020-07-16 2021-11-02 Elyse Enterprises LLC Software configuration for virtual skincare assessment and virtual cues
US11403694B2 (en) 2020-07-17 2022-08-02 YUTYBAZAR Limited System and method for intelligent context-based personalized beauty product recommendation and matching
US11793451B2 (en) * 2020-07-31 2023-10-24 L'oreal Interface and analysis techniques for customized skin care regimen based on skin diagnostics
KR20230047155A (ko) * 2020-08-03 2023-04-06 존슨 앤드 존슨 컨수머 인코포레이티드 눈밑 브라이트닝을 부여하기 위한 화장 조성물의 선택적 도포용 시스템 및 방법
CA3191566A1 (en) * 2020-08-11 2022-02-17 Cortina Health, Inc. Systems and methods for using artificial intelligence for skin condition diagnosis and treatment options
CN112107296B (zh) * 2020-09-10 2023-03-14 深圳安道客网络科技有限公司 皮肤信息检测系统及检测方法
CN113729626B (zh) * 2021-08-03 2023-04-14 蒋登文 一种基于图像识别的便携式皮肤质量检测装置及系统
KR102360993B1 (ko) * 2021-08-23 2022-02-09 주식회사 브이 메이커스 사용자에게 화장품을 추천하는 서비스를 제공하는 방법 및 장치
KR102354086B1 (ko) * 2021-09-01 2022-01-20 안효진 고객 맞춤형 화장품 판매 방법
KR102422772B1 (ko) * 2022-01-05 2022-07-22 주식회사 룰루랩 사용자를 위한 케어 기기를 추천하는 방법 및 장치
JP2024019796A (ja) * 2022-08-01 2024-02-14 ヤーマン株式会社 肌処理システム
WO2024072813A1 (en) * 2022-09-29 2024-04-04 Johnson & Johnson Consumer Inc. Cooperative longitudinal skin care monitoring

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010093503A9 (en) * 2007-01-05 2011-03-03 Myskin, Inc. Skin analysis methods

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2097952A (en) * 1930-04-14 1937-11-02 Fillor Famous Facial Corp Method of and means for facial treatments
US4276570A (en) * 1979-05-08 1981-06-30 Nancy Burson Method and apparatus for producing an image of a person's face at a different age
US4944030B1 (en) * 1986-05-12 1993-05-25 Asahi Optical Co Ltd Lens shutter camera including zoom lens
US5734627A (en) * 1996-11-27 1998-03-31 Timex Corporation Silhouette image on illuminated watch dial
US6700692B2 (en) * 1997-04-02 2004-03-02 Gentex Corporation Electrochromic rearview mirror assembly incorporating a display/signal light
US6571003B1 (en) * 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
US20030065588A1 (en) * 2001-10-01 2003-04-03 Gilles Rubinstenn Identification and presentation of analogous beauty case histories
US20030065523A1 (en) * 2001-10-01 2003-04-03 Francis Pruche Early detection of beauty treatment progress
US20030065255A1 (en) * 2001-10-01 2003-04-03 Daniela Giacchetti Simulation of an aesthetic feature on a facial image
US20030065589A1 (en) * 2001-10-01 2003-04-03 Daniella Giacchetti Body image templates with pre-applied beauty products
DE102004024274A1 (de) * 2004-05-15 2005-12-01 Basf Ag Verfahren zur Herstellung einer Lösung von reinem Triethylendiamin (TEDA)
US20060010010A1 (en) * 2004-07-12 2006-01-12 Benjamin Wiegand Method for recommending an acne treatment/prevention program
EP1877774A4 (en) * 2005-03-25 2011-01-12 Cnoga Holdings Ltd OPTICAL SENSOR DEVICE AND IMAGE PROCESSING UNIT FOR MEASURING CHEMICAL CONCENTRATIONS, CHEMICAL SATURATIONS AND BIOPHYSICAL PARAMETERS
ES2432515T3 (es) 2005-04-28 2013-12-04 Shiseido Company, Limited Método de análisis del estado de la piel, aparato de análisis del estado de la piel y medio legible por ordenador que almacena un programa de análisis del estado de la piel
US7626749B2 (en) * 2005-05-16 2009-12-01 Donnelly Corporation Vehicle mirror assembly with indicia at reflective element
TW200706865A (en) * 2005-08-05 2007-02-16 Shi-Wei Chen System and method of skin diagnosis and cosmetics selection
US20080119913A1 (en) * 2006-10-26 2008-05-22 Lumiport, Llc Light therapy personal care device
US8109875B2 (en) * 2007-01-03 2012-02-07 Gizewski Theodore M Derma diagnostic and automated data analysis system
AU2008204997A1 (en) * 2007-01-05 2008-07-17 Myskin, Inc. System, device and method for dermal imaging
US20120321759A1 (en) * 2007-01-05 2012-12-20 Myskin, Inc. Characterization of food materials by optomagnetic fingerprinting
US20150313532A1 (en) * 2007-01-05 2015-11-05 Sava Marinkovich Method and system for managing and quantifying sun exposure
US20090245603A1 (en) * 2007-01-05 2009-10-01 Djuro Koruga System and method for analysis of light-matter interaction based on spectral convolution
CN201048939Y (zh) * 2007-04-26 2008-04-23 廖苑利 整合性肤质改善装置
US8029837B2 (en) * 2007-06-08 2011-10-04 Philip Morris Usa Inc. Chewable pouch for flavored product delivery
EP2175792A4 (en) * 2007-08-10 2011-07-06 Eleme Medical Inc MULTIMODULE SKIN OR BODY TREATMENT DEVICE AND METHOD OF USE
US7413233B1 (en) * 2007-08-28 2008-08-19 Man-Young Jung Vehicle sun visor with auto-shading prompter screen
US8849380B2 (en) * 2007-11-26 2014-09-30 Canfield Scientific Inc. Multi-spectral tissue imaging
US8036925B2 (en) * 2008-01-14 2011-10-11 General Electric Company System and method to manage assets of healthcare facility
US20100030578A1 (en) * 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
CA2750266A1 (en) * 2009-01-20 2010-08-19 Myskin, Inc. Using polarized and non-polarized reflections for analysis of skin and other materials
TWI452998B (zh) * 2009-06-17 2014-09-21 Univ Southern Taiwan System and method for establishing and analyzing skin parameters using digital image multi-area analysis
US8332979B2 (en) * 2009-08-06 2012-12-18 Stryker Corporation Cushion bladder with middle layer having gaps and various positioned interior welds
CA2791624A1 (en) 2010-02-26 2011-09-01 Myskin, Inc. Analytic methods of tissue evaluation
US8475059B2 (en) * 2010-03-31 2013-07-02 Logitech Europe S.A. Image capturing device with lens cover and folding support
US9789295B2 (en) * 2010-11-02 2017-10-17 Yuchen Zhou Customized skin care and method to provide same
KR20120051342A (ko) * 2010-11-12 2012-05-22 한국전자통신연구원 사용자 색감 기반의 감성 화장 추천 시스템 및 방법
FR2970801B1 (fr) * 2011-01-20 2013-08-09 Galderma Res & Dev Procede de determination de l'efficacite d'un traitement et systeme de traitement d'image associe
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
US8582850B2 (en) * 2011-03-08 2013-11-12 Bank Of America Corporation Providing information regarding medical conditions
US20120281874A1 (en) * 2011-05-05 2012-11-08 Lure Yuan-Ming F Method, material, and apparatus to improve acquisition of human frontal face images using image template
TWI430776B (zh) * 2011-05-30 2014-03-21 Univ Southern Taiwan 智慧型影像膚質檢測系統及方法
TW201306699A (zh) * 2011-07-29 2013-02-01 Hon Hai Prec Ind Co Ltd 電子裝置
CN103717109B (zh) * 2011-08-05 2016-07-27 花王株式会社 皮肤状态判定方法以及商品提示方法
TWI556116B (zh) * 2012-02-15 2016-11-01 Hitachi Maxell Skin condition analysis and analysis information management system, skin condition analysis and analysis information management method, and data management server
US9633186B2 (en) * 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
WO2014051633A1 (en) * 2012-09-30 2014-04-03 Hewlett-Packard Development Company, Lp Transflective display with a light-recycling modulation layer
KR101315394B1 (ko) * 2012-12-31 2013-10-07 (주)닥터스텍 피부 미용 서비스 제공 방법 및 그 시스템
US9026053B2 (en) 2013-02-17 2015-05-05 Fitbit, Inc. System and method for wireless device pairing
CN103989454A (zh) * 2013-02-19 2014-08-20 北京银万特科技有限公司 基于移动智能终端的皮肤监测与保养方法及系统
US20150045631A1 (en) * 2013-03-15 2015-02-12 Lee Pederson Skin health system
US9542595B2 (en) * 2013-03-25 2017-01-10 Brightex Bio-Photonics Llc Systems and methods for recommending cosmetic products for users with mobile devices
JP6251489B2 (ja) * 2013-03-28 2017-12-20 株式会社 資生堂 画像解析装置、画像解析方法、及び画像解析プログラム
US9218574B2 (en) * 2013-05-29 2015-12-22 Purepredictive, Inc. User interface for machine learning
US20140358828A1 (en) * 2013-05-29 2014-12-04 Purepredictive, Inc. Machine learning generated action plan
WO2014210502A1 (en) * 2013-06-28 2014-12-31 Chia Ming Chen Controlling device operation according to hand gestures
WO2015048222A1 (en) * 2013-09-25 2015-04-02 The Procter & Gamble Company Method and system for skin care consultation
US20150099947A1 (en) * 2013-10-04 2015-04-09 Access Business Group International Llc Skin youthfulness index, methods and applications thereof
KR102310776B1 (ko) * 2014-02-10 2021-10-07 애플 인크. 광학 센서를 사용해 검출된 모션 제스처 입력
US10366487B2 (en) * 2014-03-14 2019-07-30 Samsung Electronics Co., Ltd. Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
CN103971270A (zh) * 2014-05-07 2014-08-06 深圳市思肯三维科技发展有限公司 一种基于肤质检测的产品推荐方法及系统
CN105893721A (zh) * 2014-05-13 2016-08-24 陈威宇 适应性护肤信息提示系统及其适应性护肤提示方法
SG10201406215YA (en) * 2014-09-30 2016-04-28 Mentorica Technology Pte Ltd Systems and methods for automated data analysis and customer relationship management
US9956151B2 (en) * 2015-03-05 2018-05-01 Avon Products, Inc. Methods for treating skin
US20160357578A1 (en) * 2015-06-03 2016-12-08 Samsung Electronics Co., Ltd. Method and device for providing makeup mirror
KR102490438B1 (ko) * 2015-09-02 2023-01-19 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US20170109486A1 (en) * 2015-10-16 2017-04-20 Hien Thanh Tran Computerized system, device, method and program product for medical treatment automation
US20170246473A1 (en) * 2016-02-25 2017-08-31 Sava Marinkovich Method and system for managing treatments
US10026296B2 (en) * 2016-03-17 2018-07-17 Kali Care, Inc. Network-connected cap for a container
JP6730443B2 (ja) * 2016-03-21 2020-07-29 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company カスタマイズされた製品の推奨を提供するためのシステム及び方法
US20170289766A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Digital Assistant Experience based on Presence Detection
CN105843404A (zh) * 2016-05-12 2016-08-10 深圳市联谛信息无障碍有限责任公司 基于读屏应用指令输入方法及装置
CA2963108A1 (en) * 2016-06-29 2017-12-29 EyesMatch Ltd. System and method for digital makeup mirror
US11556911B2 (en) * 2016-07-14 2023-01-17 NeoCaddie Inc. Systems and methods for automated equipment rental
US11315173B2 (en) * 2016-09-15 2022-04-26 GlamST LLC Applying virtual makeup products
TWI657799B (zh) * 2016-09-29 2019-05-01 麗寶大數據股份有限公司 電子裝置與其提供膚質檢測資訊的方法
KR102433182B1 (ko) * 2017-01-05 2022-08-17 리바이버맥스, 인코포레이티드. 디지털 차량 번호판의 전력 및 통신 모드
CN108618752A (zh) * 2017-03-23 2018-10-09 丽宝大数据股份有限公司 肌肤产品适配方法及其电子装置
US10881182B2 (en) * 2018-01-05 2021-01-05 L'oreal Makeup compact for utilizing client device to guide makeup application
US10431010B2 (en) * 2018-02-09 2019-10-01 Perfect Corp. Systems and methods for virtual application of cosmetic effects to a remote user

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010093503A9 (en) * 2007-01-05 2011-03-03 Myskin, Inc. Skin analysis methods

Also Published As

Publication number Publication date
JP2017211970A (ja) 2017-11-30
US10614921B2 (en) 2020-04-07
CN108354587A (zh) 2018-08-03
EP3249562A1 (en) 2017-11-29
TWI585711B (zh) 2017-06-01
KR20170132644A (ko) 2017-12-04
CN107423661A (zh) 2017-12-01
JP2018108377A (ja) 2018-07-12
US20170340267A1 (en) 2017-11-30
EP3249562B1 (en) 2020-09-02
US10361004B2 (en) 2019-07-23
TW201741994A (zh) 2017-12-01
EP3343568A1 (en) 2018-07-04
US20170345144A1 (en) 2017-11-30
JP6715152B2 (ja) 2020-07-01

Similar Documents

Publication Publication Date Title
KR102183370B1 (ko) 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치
KR101140533B1 (ko) 이미지로부터 추정된 피부색에 기초해서 제품을 추천하는 컴퓨터 구현된 방법
CN107358241B (zh) 图像处理方法、装置、存储介质及电子设备
AU2015201759B2 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer readable storage medium
US10607372B2 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
RU2668408C2 (ru) Устройства, системы и способы виртуализации зеркала
US7522768B2 (en) Capture and systematic use of expert color analysis
US20170238859A1 (en) Mental state data tagging and mood analysis for data collected from multiple sources
CN105849685B (zh) 用于图像区域的编辑选项
US20150339757A1 (en) Method, system and computer program product for generating recommendations for products and treatments
US10354124B2 (en) Electronic apparatus and controlling method for improve the image quality preference of skin area
KR20210084102A (ko) 전자 장치, 두피 케어 시스템 및 그들의 제어 방법
US11010894B1 (en) Deriving a skin profile from an image
TWI718142B (zh) 顯示裝置及非暫時性電腦可讀媒體
JP2017134585A (ja) 収穫適期判定支援装置及び収穫適期判定支援プログラム
US20170105668A1 (en) Image analysis for data collected from a remote computing device
CN112785488A (zh) 一种图像处理方法、装置、存储介质及终端
KR102110053B1 (ko) 얼굴 특징 분석 및 개인화된 조언을 제공하는 방법 및 시스템
CN112488647A (zh) 考勤系统及方法、存储介质及电子设备
US11210829B2 (en) Image processing device, image processing method, program, and recording medium
KR20180061629A (ko) 영상을 이용한 피부 상태 평가 방법 및 영상을 이용한 피부 상태 평가 장치
CN105306833A (zh) 图像处理装置和图像处理方法
US20230077452A1 (en) Methods and Systems for Analyzing Skin and Providing Information Via a Graphical User Interface (GUI)
US20230419549A1 (en) Systems and methods for determining and using a multidimensional measure of apparent skin color
KR102330368B1 (ko) 메이크업 평가 시스템 및 그의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right