KR20170132644A - 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 - Google Patents
케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 Download PDFInfo
- Publication number
- KR20170132644A KR20170132644A KR1020160112125A KR20160112125A KR20170132644A KR 20170132644 A KR20170132644 A KR 20170132644A KR 1020160112125 A KR1020160112125 A KR 1020160112125A KR 20160112125 A KR20160112125 A KR 20160112125A KR 20170132644 A KR20170132644 A KR 20170132644A
- Authority
- KR
- South Korea
- Prior art keywords
- skin
- information
- current user
- care
- predetermined time
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000001815 facial effect Effects 0.000 claims description 25
- 239000011148 porous material Substances 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 10
- 206010015150 Erythema Diseases 0.000 claims description 9
- 231100000321 erythema Toxicity 0.000 claims description 9
- 206010000496 acne Diseases 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 8
- 208000002874 Acne Vulgaris Diseases 0.000 claims description 7
- 230000037303 wrinkles Effects 0.000 claims description 6
- 230000036541 health Effects 0.000 claims description 2
- 230000036651 mood Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036449 good health Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000001916 dieting Nutrition 0.000 description 1
- 230000037228 dieting effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008470 skin growth Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
- A61B5/0079—Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/442—Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/444—Evaluating skin marks, e.g. mole, nevi, tumour, scar
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/445—Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/486—Bio-feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7445—Display arrangements, e.g. multiple display units
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
- A61B5/749—Voice-controlled interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
- A61B90/96—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G06K9/00295—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H04N5/217—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/309—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/02—Operational features
- A61B2560/0242—Operational features adapted to measure environmental factors, e.g. temperature, pollution
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0431—Portable apparatus, e.g. comprising a handle or case
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/18—Shielding or protection of sensors from environmental influences, e.g. protection from mechanical damage
- A61B2562/185—Optical shielding, e.g. baffles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Radiology & Medical Imaging (AREA)
- Data Mining & Analysis (AREA)
- General Business, Economics & Management (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dermatology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- Tourism & Hospitality (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Quality & Reliability (AREA)
- Marketing (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
Abstract
케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 그리고 그것들을 위한 전자 장치가 제공된다. 케어 정보를 획득하기 위한 상기 방법은: 상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 그 얼굴 데이터의 초기 피부 정보를 획득하는 단계; 클라우드 데이터베이스에 의해 상기 현재 사용자를 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하는 단계; 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계; 그리고 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹 내 다른 사용자의 피부-달성 이력을 상기 전자 장치에 의해 획득하는 단계를 포함한다. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 다른 사용자에 의해 달성된 피부-상태 목표에 관한 케어 정보이다.
Description
관련된 출원 상호 참조
본원은 2016년 5월 24일에 출원된 대만 출원 일련 번호 105116064의 우선권의 이익을 향유한다. 상기 언급된 출원의 전체는 본원에 참조로 편입되며 그리고 본원의 일부를 형성한다.
기술적인 분야
본원 개시는 피부 검출 및 피부 케어 (care)에 관한 정보를 공유하기 위한 기술에 관련되며, 그리고 더욱 상세하게는 피부 케어 정보를 획득하기 위한 방법, 피부 케어 정보를 공유하기 위한 방법 그리고 그것들을 위한 전자 장치에 관련된다.
전통적인 피부 검출은 사람의 피부 상태를 얻기 위해서 인간의 피부를 스캔하기 위해 전문적인 피부 검출 장치를 보통 채택한다. 그 서비스 제공자의 판매자는 그 피부 상태에 따른 대응하는 케어 제품들을 또한 추천할 수 있다. 그러나, 사용자들이 그런 피부 검출 장치를 소유하는 것은 어렵다. 그 이유는 그런 피부 검출 장치는 보통은 비싸며 과도하게 크기 때문이다. 또한, 상기 피부 검출 장치는 피부를 스캔하기 위해 상이한 확대 배율들을 가진 현미경들을 설치하는 것을 필요로 하며, 그래서 피부 영역의 작은 부분만이 매 회에 스캔될 수 있기 때문에 그 피부 검출 장치는 동작시키기에 긴 시간을 필요로 할 수 있다. 더욱이, 사용자들은 그 피부 검출 장치를 이용하여 피부 상태를 판별하기 위해서 숙련되게 훈련되어야만 한다. 그러므로, 사용자들이 자기 가신의 피부 또는 피부 상태가 실제로 개선되었는가의 여부를 항상 알기를 원하는 경우에, 그 피부 검출 장치는 그런 요구를 충족시킬 수 없을 수 있다.
반면에, 더욱 효율적이며 시간을 절약하는 방식으로 젊음과 아름다음을 유지하기 위해서, 그 사용자들은 다른 사람들이 자기 자신의 피부를 어떻게 돌보는가, 피부 케어를 위해 얼마나 오랜 시간이 걸리는가, 어떤 종류의 케어 제품들이 사용될 것인가 등에 관한 케어 정보를 습득하기를 원한다는 것은 아주 흔하다. 그럼에도 불구하고, 케어 정보에 대한 확실성은 판별하기 어렵지만 사용자들 자신에 의해서만 판별될 수 있다. 또한, 각 개인이 다른 사람들과는 아주 상이한 피부 성장 환경을 가지고 다이어트를 하기 때문에, 케어 정보에 대한 확실성은 한 가지 방법을 이용함으로써 단순하게 보장될 수는 없다. 따라서, 어떻게 피부 검출을 수행하고, 어떻게 피부 케어의 진행을 기록하고 그리고 어떻게 다른 사람들과 그 케어 정보를 공유하는가는 자신의 피부 상태들을 개선하기를 원하는 사용자들에게는 가장 필요한 제품 특징들 중 하나가 되고 있다.
본 발명의 개시는 피부 케어 정보를 획득하기 위한 방법 및 그것을 위한 전자 장치에 관한 것이며, 그것들로 인해서 사용자들은 다른 사용자들에 의해 공유된 케어 정보 (예를 들면, 케어 행동들, 사용된 케어 제품들 등)를 그 사용자를 위한 얼굴 피부 케어에 대한 레퍼런스로서 획득할 수 있다.
반면에, 상기 개시들은 피부 케어 정보를 공유하기 위한 방법 및 그것을 위한 전자 장치를 제공하며, 그것들에 의해서 사용자는 피부 케어 이력을 피부-상태 목표를 달성한 이후에 상기 전자 장치에 의해서 동일한 피부 상태를 가진 다른 사용자들과 공유할 수 있으며, 이는 얼굴 피부 케어를 위한 개인적인 팁들을 공유하기 위한 것이다.
본 발명의 상기 개시의 케어 정보를 획득하기 위한 방법은, 이미지 캡쳐링 장비를 포함하는 전자 장치에 적응된다. 상기 방법은 다음의 단계들을 포함한다: 상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 초기 피부 정보를 획득하기 위해 그 얼굴 데이터를 분석하는 단계; 클라우드 데이터베이스에 의해 상기 현재 사용자를 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하는 단계로, 상기 그룹들 각각은 복수의 분류된 사용자들을 포함하는, 분류 단계; 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계; 그리고 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 중 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 상기 전자 장치에 의해 획득하는 단계. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 케어 정보이다.
본 발명 개시의 실시예에서, 상기 현재 사용자를 그룹들 하나로 분류하는 상기 단계는: 상기 현재 사용자를 상기 초기 피부 정보 및 복수의 분류 기준들에 따라 상기 그룹들 중 하나로 분류하는 단계를 포함한다. 상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함한다.
본 발명 개시의 실시예에서, 상기 방법은: 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계; 그리고 상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계를 더 포함한다.
본 발명 개시의 실시예에서, 상기 초기 피부 정보 또는 상기 현재 피부 정보는 상기 얼굴 데이터로부터 분석된 복수의 가변 특징들을 포함한다. 상기 가변 특징들은 주름들, 얼굴 라인들, 홍반 (Erythema), 여드름 (acne), 반점들 (spots), 모공들 (pores), 피부 색상 및 다크 서클 중 하나 또는 그것들의 조합을 포함한다.
본 발명 개시의 실시예에서, 상기 초기 피부 정보 또는 상기 현재의 피부 정보는 상기 가변 특징들에 따라 계산된 복수의 피부 파라미터들을 더 포함한다. 상기 피부 파라미터들은 맑음 (clearness), 질감 (texture), 견고함 (firmness), 밝음 (brightness) 및 건강함 중 하나 또는 그것들의 조합을 포함한다.
본 발명 개시의 실시예에서, 상기 케어 정보는 상기 분류된 사용자들 중 하나의 적어도 하나의 사용된 케어 제품 및 적어도 하나의 케어 행동을 적어도 포함한다.
본 발명 개시의 케어 정보를 공유하기 위한 방법은 이미지 캡쳐링 장비를 포함하는 전자 장치에 적합하다. 상기 방법은 다음의 단계들을 포함한다: 상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 현재의 피부 정보를 초기 피부 정보로서 획득하기 위해 그 얼굴 데이터를 분석하는 단계; 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계; 상기 전자 장치에 의해서, 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 상기 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계; 상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계; 그리고 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 피부-상태 목표를 달성하기를 원하는 다른 사용자와 상기 피부-달성 이력을 공유하는 단계.
본 발명 개시의 전자 장치는 이미지 캡쳐링 장비, 입력 장비 및 네트워크 통신 장비를 포함한다. 상기 이미지 캡쳐링 장비는 현재 사용자의 얼굴 데이터를 획득한다. 상기 프로세서는 상기 이미지 캡쳐링 장비 및 상기 입력 장비에 연결된다. 상기 프로세서는 상기 네트워크 통신 장비를 경유하여 네트워크에 연결된다. 상기 프로세서는 초기 피부 정보를 얻기 위해 상기 얼굴 데이터를 분석하고, 그리고 상기 현재 사용자를 상기 네트워크 내 클라우드 데이터베이스에 의해 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하며, 이 경우 상기 그룹들 각각은 복수의 분류된 사용자들을 포함한다. 상기 입력 장비는 상기 현재 사용자에 의해 세팅된 미리 정해진 시간 구간 및 피부-상태 목표를 수신하며, 그리고 상기 프로세서는 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 획득한다. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 피부-상태 목표에 관한 케어 정보이다.
위의 내용을 기초로 하여, 본 발명 개시의 실시예들에 따라, 상기 전자 장치 내 상기 이미지 캡쳐링 장비는 상기 사용자의 초기 피부 정보를 획득하기 위해서 사용자를 위한 피부 검출을 수행하기 위해 사용되며, 그리고 상기 클라우드 데이터베이스는 스킨 상태를 향상시키기 위해서 비슷한 환경, 비숫한 미리 정해진 시간 구간 및 비슷한 피부-상태 목표를 가진 사용자들을 동일한 그룹으로 분류하기 위해 사용된다. 피부-상태 목표가 상기 미리 정해진 시간 구간 내에서 상기 사용자에 의해 달성되면, 상기 전자 장치는 상기 미리 정해진 시간 구간 내에서 상기 사용자의 케어 정보 (예를 들면, 피부를 위한 케어 행동, 사용된 케어 제품들 등)를 배치하고, 그리고 상기 피부-달성 이력을 동일한 그룹 내 동일한 상태를 가진 다른 사용자들에게 공유시킬 수 있다. 그처럼, 얼굴 피부를 위한 개인적인 팁들이 공유될 수 있을 것이다. 반면에, 상기 사용자는 다른 사용자들에 의해 공유된 케어 정보를 상기 현재 사용자를 위한 얼굴 피부 케어에 대한 레퍼런스들로서 또한 획득할 수 있다.
본 발명 개시의 상기 특징들 및 유리함들을 더 잘 이해할 수 있도록 하기 위해서, 도면들과 동반된 여러 실시예들이 다음과 같이 상세하게 설명된다.
본 발명의 효과는 본 명세서의 해당되는 부분들에 개별적으로 명시되어 있다.
동반되는 도면들은 상기 개시에 대한 추가의 이해를 제공하기 위해서 포함된 것이며, 그리고 본 명세서에 편입되어 본 명세서의 일부를 구성한다. 상기 도면들은 본 발명 개시의 실시예들을 예시하며 그리고 설명과 함께 본 발명 개시의 원칙들을 설명하기 위해 도움이 된다.
도 1은 본 발명 개시의 실시예에 따른 전자 장치의 개략적인 도면이다.
도 2는 본 발명 개시의 실시예에 따라 케어 정보를 획득하기 위한 방법의 흐름도이다.
도 3은 본 발명 개시의 실시예에 따른 얼굴 마크업 및 터치 스크린의 개략적인 도면이다.
도 4는 본 발명 개시의 실시예에 따른 얼굴 데이터의 얼굴 부분들 각각의 개략적인 도면이다.
도 5는 본 발명 개시의 실시예에 따라 케어 정보를 공유하기 위한 방법의 흐름도이다.
도 1은 본 발명 개시의 실시예에 따른 전자 장치의 개략적인 도면이다.
도 2는 본 발명 개시의 실시예에 따라 케어 정보를 획득하기 위한 방법의 흐름도이다.
도 3은 본 발명 개시의 실시예에 따른 얼굴 마크업 및 터치 스크린의 개략적인 도면이다.
도 4는 본 발명 개시의 실시예에 따른 얼굴 데이터의 얼굴 부분들 각각의 개략적인 도면이다.
도 5는 본 발명 개시의 실시예에 따라 케어 정보를 공유하기 위한 방법의 흐름도이다.
전술한 그리고 다른 상세한 설명들, 특징들, 및 효과들은 아래에서의 도면들과 동반된 실시예들을 제공함으로써 더욱 광범위하게 설명될 의도라는 것이 이해되어야 한다. 다음의 실시예들에서, "위 (up)", "아래 (down)", "앞 (front)", "뒤 (back)", "왼쪽 (left)" 및 "오른쪽 (right)"과 같이 방향들을 지시하기 위해 사용된 용어는 동반된 도면들에서의 방향들을 단순하게 언급한다. 그러므로, 상기 방향성 용어는 본 발명 개시를 제한하는 것이 아니라 예시하기 위해 사용된다. 더욱이, 동일한 또는 유사한 참조 번호들은 다음의 실시예들에서 동일한 또는 유사한 요소들을 나타낸다.
도 1은 본 발명 개시의 실시예에 따른 전자 장치 (100)의 개략적인 도면이다. 상기 전자 장치 (100)는 이미지 캡쳐링 장비 (110), 프로세서 (120), 네트워크 통신 장비 (130), 디스플레이 스크린 및 입력 장비를 포함한다. 상기 프로세서 (120)는 이미지 캡쳐링 장비 (110), 네트워크 통신 장비 (130), 디스플레이 스크린 및 입력 장비에 연결된다. 본 발명 개시의 본 실시예에서, 상기 전자 장치 (100)는 예를 들면 화장대 상에 설치된 설비일 수 있다. 이 경우에, 상기 전자 장치 (100)의 디스플레이 스크린은 화장대의 거울 뒤에 설치되어, 다른 사용자들의 피부-달성 이력은 물론이며 텍스트 또는 이미지를 디스플레이하여 사용자가 그 거울을 통해서 보도록 할 수 있다.
다른 실시예들에서, 상기 전자 장치 (100)는 또한 소비자 전자 제품들 (예를 들면, 스마트폰, 태블릿 컴퓨터 등)일 수 있으며 또는 휴대용 거울과 조합하여 형성된 휴대용 거울 박스일 수 있다. 본 실시예에서, 상기 디스플레이 스크린 및 상기 입력 장비는 터치 스크린 (140)을 이용하여 구현될 수 있을 것이다. 본 발명 개시의 본 실시예에서, 상기 터치 스크린 (140) 외부에 배치된 유리 부분은 그 거울로 구성되어 그 거울의 유효함을 제공할 수 있을 것이다.
상기 이미지 캡처링 장비 (110)는 카메라일 수 있을 것이며, 이는 현재의 사용자의 얼굴 데이터를 얻기 위해서 이미지를 캡쳐하도록 구성된다. 상기 프로세서 (120)는 중앙 처리 유닛, 이미지 프로세서 또는 특수 목적 프로세서일 수 있다. 상기 프로세서 (120)는 이어지는 프로세스에서의 단계들을 수행하기 이전에 상기 이미지 캡쳐링 장비 (110)에 의해 획득된 얼굴 데이터를 분석한다. 상기 프로세서 (120)는 상기 네트워크 통신 장비 (130)를 경유하여 네트워크 (150)에 연결된다. 상기 네트워크 통신 장비 (130)는 하나 또는 그 이상의 통신 프로토콜들 (예를 들면, 무선 네트워크 프로토콜, 블루투스 프로토콜 등)을 지원하는 네트워크 칩 또는 네트워크 카드일 수 있다. 본 실시예에서, 상기 네트워크 (150)는 클라우드 데이터베이스 (160)를 포함한다. 상기 클라우드 데이터베이스 (160)는 다양한 사용자들의 개인적인 정보 (예를 들면, 그 사용자의 나이, 지리적인 위치 등) 및 얼굴 피부 케어를 위한 피부-달성 이력을 포함할 수 있다. 또한, 상기 클라우드 데이터베이스 (160)는 이 사용자들을 복수의 분류 기준에 따라서 상이한 그룹들로 분류할 수 있다. 상기 분류 기준에 따라 상기 사용자들을 어떻게 분류하는가에 관한 상세한 내용들은 다음의 설명에서 나중에 제공될 것이다.
본 발명 개시의 실시예들에 따라서 케어 정보를 획득하기 위한 방법 그리고 그 케어 정보를 공유하기 위한 방법들에서의 단계들은 상기 전자 장치 내 하드웨어 칩들 또는 펌웨어 칩들에 의해 구현될 수 있을 것이며, 그리고 상기 전자 장치 (100) 내 프로세서 (120)에 의해 실행되는 소프트웨어 또는 APP에 의해 또한 구현될 수 있을 것이다.
도 2는 본 발명 개시의 실시예에 따라 케어 정보를 획득하는 방법의 흐름도이다. 본 발명 개시의 이 실시예에서, 케어 정보를 획득하기 위한 상기 방법은 도 1에서 보이는 것처럼, 이미지 캡쳐링 장비 (110)를 포함하는 전자 장치 (100)에 적응된다. 도 2의 흐름도에서의 각 단계는 도 1에서의 전자 장치 (100)의 각 요소를 참조하여 설명된다. 단계 S210에서, 상기 프로세서 (120)는 상기 이미지 캡쳐링 장비 (110)로부터 현재 사용자의 얼굴 데이터를 획득하며 그리고 상기 프로세서 (120)는 초기 피부 정보를 획득하기 위해서 상기 현재 사용자의 얼굴 데이터를 분석한다. 본 실시예에서, 상기 이미지 캡처링 장비 (110)는 더 높은 이미지 해상도를 위한 캡쳐링 기능을 필요로 할 수 있으며, 또는 더욱 바람직한 이미지들을 획득하기 위해서 여러 샷들을 촬영할 수 있을 것이다. 그 이유는, 사람 얼굴의 피부 상태를 상세하게 검출하기 위해서, 그 이미지들은 더 높은 해상도, 전체 얼굴 및 비-흐림 (non-blur) 이미지들을 위해 미리 세팅된 개수 (예를 들면, 4M 픽셀들)보다 더 많은 개수의 유효 픽셀들을 가져야 하기 때문이다. 그렇지 않다면, 얼굴 데이터에 대한 이어지는 인식은 흐름 이미지들 상에서 수행될 수 없다.
여기에서, 단계 S210에서의 상세한 프로세서가 아래에서 상세하게 설명될 것이다. 우선, 상기 프로세서 (120)는 현재 사용자의 얼굴 데이터를 상기 이미지 캡처링 장비 (110)로부터 획득한다. 도 3은 터치 스크린 (140) 그리고 본 발명 개시의 실시예에 따른 얼굴 마크업 (310)의 개략적인 도면이다. 도 3을 참조하면, 도 3이 현재 사용자의 얼굴 데이터를 획득하도록 의도된 것일 때에, 상기 이미지 캡처링 장비 (110)에 의해 현재 캡처된 이미지를 상기 터치 스크린 (140)에 상에 제시하면서, 하나의 얼굴 마크업 (310)이 디스플레이 스크린 (예를 들면, 상기 터치 스크린 (140)) 상에 제시될 수 있을 것이다. 다른 말로 하면, 본 실시예에서의 얼굴 마크업 (310)의 주요한 목적은 상기 전자 장치 (100)가 상기 터치 스크린 (140) 상의 얼굴 마크업 (310) 내 사용자 얼굴의 이미지를 획득할 것을 의도한 현재 사용자의 (얼굴 윤곽, 눈, 코 브리지 등을 포함하는) 얼굴 부분들의 위치들을 표시하는 것이다. 본 실시예의 이런 적용은 얼굴 윤곽만을 포함하거나 또는 눈들의 위치들만을 포함하는 얼굴 마크업과 같은 다른 유형의 얼굴 마크업을 채택하여 위의 것을 또한 구현할 수 있을 것이다. 이 방식에서, 사용자는 상기 얼굴 부분들을 상기 얼굴 마크업 (310)에 자체-정렬할 수 있으며, 그래서 후속의 프로세스에서 상기 얼굴 데이터를 획득하고 그리고 상기 초기 피부 정보를 판별할 때에 상기 프로세서 (150)가 더욱 정밀할 수 있도록 한다. (예를 들면, 상기 현재 사용자의 얼굴 부분들이 측면 측에 과도하게 기울어질 때에, 상기 얼굴 부분들 사이의 입술 아래 영역이 너무 작을 때 등에) 상기 현재 사용자가 사진 자세로 인해 상기 이미지 캡처링 장비 (110)에 직접적으로 대면하는 방식에서 상기 얼굴 부분들을 정렬시키지 않는다면, 상기 얼굴 부분들을 포함하는 영역이 완전하게 캡처되지 않을 수 있기 때문에, 얼굴 인식이 수행될 수 없다
도 1 및 도 2의 단계 S210을 참조하면, 상기 현재 사용자의 얼굴 데이터를 획득한 이후에, 상기 프로세서 (120)는 초기 피부 정보를 획득하기 위해서 상기 현재 사용자의 얼굴 데이터를 분석한다. 상기 피부 정보 (예를 들면, 초기 피부 정보 및 아래에서 설명된 현재의 피부 정보)를 획득하기 위해 상기 프로세서 (120)가 어떻게 상기 얼굴 데이터를 분석하는가에 관한 설명이 아래에서 제공된다. 본 실시예에서, 상기 피부 정보는 상기 현재 사용자의 얼굴 이미지 내 상이한 구역들을 분석함으로써 획득된 그리고 피부에 관련된 복수의 가변 특징들의 엄격함 레벨일 수 있으며, 여기에서 상기 가변 특징들은 피부에 관련된 피부 파라미터들 각각을 계산하기 위해 사용될 수 있을 것이다. 이 가변 특징들은, 예를 들면, 주름들, 얼굴 라인들, 홍반 (Erythema), 여드름 (acne), 반점들 (spots), 모공들 (pores), 피부 색상, 다크 서클 등이다. 상기 전자 장치 (100) 내 상기 프로세서 (120)는 특정 판별 레퍼런스 및 상기 엄격함 레벨에 따라 상기 가변 특징들을 획득하고, 그리고 상기 가변 특징들에 따라 상기 얼굴 파라미터들을 계산할 수 있다.
도 4는 본 발명 개시의 실시예에 따른 얼굴 데이터의 참조번호 460의 얼굴 부분들 (410) 각각의 개략적인 도면이다. 도 4를 참조하면, 도 4는 상기 프로세서 (120)에 의해 획득된 현재 사용자의 얼굴 데이터 (400)이며, 그리고 얼굴 인식 기술을 사용함으로써 상기 얼굴 데이터 (400)는 복수의 얼굴 부분들 (410 내지 460)로 분할된다. 이 얼굴 부분들 (410 내지 460)은 이마 부분 (410), 코 부분 (420), 눈 부분 (430), 우측-얼굴 부분 (440), 좌측-얼굴 부분 (450) 및 턱 부분 (460)을 포함한다. 위에서 설명된 가변 특징들은 그것들이 나타난 상이한 부분들로 인해 상이한 특징 정의들을 가질 수 있을 것이며, 또는 그것들의 엄격함 레벨, 및 가변 특징들은 본 실시예에서 도 4를 참조하여 하나씩 설명된다. 본 실시예에서, 상기 가변 특징들의 상기 엄격함 레벨은 레벨 1 (가장 덜 엄격함) 내지 레벨 5 (가장 엄격함)로 더 분할되며, 그리고 상기 가변 특징들의 영역들은 전체 얼굴에 대한 자신들의 영역 백분율들을 계산하기 위한 단편들로서 참조된다. 본 실시예를 그렇게 적용하는 것은 이 가변 특징들의 정의들이 본원의 실시예들에 의해 제한되는 것이 아니라 요청들을 기반으로 하여 또한 조절될 수 있을 것이라는 것을 또한 이해해야 한다.
소위 "주름들 (wrinkles)"의 용어는 더 깊고 더 긴 전체 얼굴의 얼굴 데이터 (400)에서의 선형 증가를 언급하는 것이며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 본 실시예에서, "주름들"의 깊이 및 길이의 최대 값들, 평균 값들 및 최소 값들은 상기 클라우드 데이터베이스 (160) 또는 다른 소스들로부터의 사용자 얼굴 데이터를 통해서 획득될 수 있을 것이며, 그리고 그 값들은 상기 얼굴 데이터 (400) 내 주름들의 개수 및 그 전체 얼굴에 대한 주름들의 영역 백분율을 계산하기 위해 사용될 수 있을 것이다. 또한, 본 실시예에서, 주름들은 상기 얼굴 데이터 (400) 내에서 라벨링하는 방식으로 그 사용자에 대한 레퍼런스들로서 표시된다. 소위 "얼굴 라인들"의 용어는 더 얕고 더 짧은 전체 얼굴의 얼굴 데이터 (400) 내에서의 선형 증가를 언급하는 것이며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 본 실시예에서, "얼굴 라인들"의 깊이 및 길이의 최대 값들, 평균 값들 및 최소 값들은 상기 클라우드 데이터베이스 (160) 또는 다른 소스들로부터의 사용자 얼굴 데이터를 통해서 획득될 수 있을 것이며, 그리고 그 값들은 상기 얼굴 데이터 내 얼굴 라인들의 개수 및 그 전체 얼굴에 대한 얼굴 라인들의 영역 백분율을 계산하기 위해 사용될 수 있을 것이다. 또한, 본 실시예에서, 얼굴 라인들은 상기 얼굴 데이터 (400) 내에서 라벨링하는 방식으로 그 사용자에 대한 레퍼런스들로서 표시된다.
소위 "홍반 (Erythema)"의 용어는 사용자의 피부 색상에 비교하여 불그스레한 전체 얼굴의 얼굴 데이터 (400) 내 모반 (plaque)을 언급하는 것이며 더 큰 영역을 가지며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 전체 얼굴에 대한 홍반의 영역 백분율은 얼굴 이미지 인식 기술을 통해 획득될 수 있을 것이다. 소위 "여드름 (acne)"의 용어는 사용자의 피부 색상에 비교하여 불그스레한 전체 얼굴의 얼굴 데이터 (400) 내 모반을 언급하는 것이며 더 작은 영역을 가지며, 그리고 상기 얼굴 부분들 (410 내지 460) 각각에 나타날 수 있다. 얼굴 데이터 (400) 내 여드름의 개수는 얼굴 이미지 인식 기술을 통해 획득될 수 있을 것이며, 그리고 상기 개수에 따른 엄격함 레벨을 결정하기 위해 사용될 수 있을 것이다. 소위 "반점들 (spots)"의 용어는 사용자의 피부 색상에 비교하여 더 어두운 전체 얼굴의 얼굴 데이터 (400) 내 모반이나 반점을 언급하는 것이며,그리고 상기 얼굴 부분들 (410 내지 460) 각각 내에 나타날 수 있을 것이다. 상기 얼굴 데이터 (400) 내 반점들의 개수 및 상기 전체 얼굴에 상대적인 반점들의 영역 백분율은 얼굴 이미지 인식 기술을 통해 획득될 수 있을 것이며, 그리고 상기 개수 및 상기 영역 백분율에 따라 엄격함 레벨을 결정하기 위해 사용될 수 있을 것이다. 상기 소위 "모공들 (pores)"의 용어는 상기 우측-얼굴 부분 (440), 좌측-얼굴 부분 (450) 및 코 부분 (420) 내 피부 표면 상의 모공 및 열린 구멍을 언급하는 것이다. 상기 얼굴 데이터 (400) 내 모공들의 개수 그리고 상기 우측-얼굴 부분 (440), 좌측-얼굴 부분 (450) 및 코 부분 (420)에 대한 모공들의 영역 백분율은 얼굴 이미지 인식 기술을 통해서 획득될 수 있을 것이며, 그리고 상기 개수 및 상기 영역 백분율들에 따른 엄격함 레벨을 결정하기 위해 사용될 수 있을 것이다.
소위 "피부 색상 (skin color)"의 용어는 전체 얼굴의 얼굴 데이터 (400) 내 피부 그 자체의 평균 피부 색상을 언급하는 것이다. 여기에서의 상기 평균 색상은 여드름 및 반점들이 생기는 위치들에서의 피부 색상들 및 다크 서클의 피부 색상을 포함하지 않을 수 있을 것이다. 소위 "다크 서클 (dark circle)"의 용어는 상기 눈 부분 (430) 아래의 위치들에서의 피부 색상을 언급하는 것이다.
상기 가변 특징들은 상기 얼굴 데이터 (400) 내 절대값들에 속하지만, 상기 얼굴 피부 케어의 분야에서 흔히 사용되는 특정 피부 파라미터들과는 여전히 약간 상이하다. 그러므로, 본 실시예에서, 도 1의 프로세서 (120)는 상기 가변 특징들에 따라 피부 파라미터들을 계산할 수 있을 것이다. 이 피부 파라미터들은 얼굴 피부 케어의 분야에서 흔히 사용되는 결정 기준이다. 상기 피부 파라미터들은, 예를 들면, 맑음 (clearness), 질감 (texture), 견고함 (firmness), 밝음 (brightness), 건강함 등이다. 본 실시예에서, 상기 피부 파라미터들은 촬영된 사용자의 두 얼굴 이미지들을 기초로 한다. 예를 들면, 두 얼굴 이미지들 사이에서의 피부 진행 레벨 (skin progress level)은, 예를 들면, 초기 피부 정보를 현재의 피부 정보와 비교함으로써 계산될 수 있을 것이다. 그처럼, 이 피부 파라미터들은 백분율 (%)로 표현될 수 있다. 피부의 "맑음 (clearness)"은 다크 사이클의 색상-페이딩 레벨은 물론이며 전체 얼굴의 화이트 레벨, 얼굴 상의 얼굴 모공들 (예를 들면, 반점들, 홍반, 여드름, 모공들)의 줄어든 영역 또는 줄어든 개수를 계산함으로써 획득될 수 있을 것이다. 피부의 "질감 (texture)"은 얼굴 라인들의 커버리지 영역을 계산함으로써 주로 획득되며, 그리고 모공들의 커버리지 영역 및 개수를 제2 옵션으로서 계산함으로써 또한 획득될 수 있을 것이다. 피부의 "견고함 (firmness)"은 모공들의 개수 및 영역을 계산함으로써 획득된다. 피부의 "밝음 (brightness)"은 전체 얼굴의 밝음 레벨을 주 가변 특징으로서 계산함으로써 주로 획득된다. 피부의 "건강함 (healthiness)"은 홍반의 개수 그리고 홍반의 커버리지 영역을 주 가변 특징들로서 계산함으로써 주로 획득된다.
도 1 및 도 2를 참조하면, 상기 방법은 단계 S210이 완료된 이후에 단계 S220으로 진행한다. 단계 S220에서, 상기 프로세서 (120)는 네트워크 (150) 내 클라우드 데이터베이스 (160)에 의해 상기 초기 피부 정보에 따라서 상기 현재의 사용자를 복수의 그룹들 중 하나의 그룹으로 분류한다. 본 실시예에서, 상기 클라우드 데이터베이스 (160) 내 상기 그룹들 각각은 복수의 분류된 사용자들을 포함한다. 단계 S220의 목적은 동일한 지리적 위치, 동일한 환경, 유사한 인종 또는 심지어는 유사한 다이어트를 가진 사용자들을 동일한 그룹으로 분류하는 것을 목표로 하는 것이며, 그래서 동일한 그룹 내 사용자들이 피부 케어 이력들 및 경험들을 다른 사람들과 공유하는 것을 가능하게 하도록 한다.
본 발명 개시의 본 실시예에서, 상기 현재 사용자는 주로 상기 초기 피부 정보에 따라서 대응하는 그룹으로 분류되며, 그래서 동일한 또는 대략적으로 같은 피부 정보를 가진 사용자들이 동일한 그룹으로 분류될 수 있도록 한다. 본 발명 개시의 범위와 일치하는 몇몇의 실시예들에서, 상기 초기 피부 정보에 따라서 사용자들을 분류하는 것 이외에, 상기 프로세서 (120)는 상기 현재 사용자를 복수의 분류 기준들에 따라 상기 그룹들 중 하나로 또한 분류할 수 있을 것이다. 상기 개시의 본 실시예들의 상기 분류 기준들은 다양한 방식들에 의해 구현될 수 있을 것이며, 그리고 이 분류 기준들 각각은 상기 현재 사용자를 분류함으로써 구현될 수 있을 것이다. 상기 분류 기준들은 그 현재 사용자의 성별, 나이, 지리적 위치 및 인종 정보 중 하나 또는 그것들의 결합과 같은 그 사용자를 주로 기초로 하는 분류 기준들일 수 있다. 또한 상기 분류 기준들은 상기 현재 사용자에 의해 세팅된 미리 정해진 시간 구간 및 피부-상태 목표일 수 있다. "미리 정해진 시간 구간" 및 "피부-상태 목표"에 관한 상세한 설명들은 다음의 실시예들에서 제공될 것이다.
첫 번째 분류 기준은 그 사용자의 성별이다. 남자 사용자 및 여성 사용자의 피부 상태들이 매우 상이하기 때문에, 상이한 성별을 가진 사용자가 첫 번째로 분류되어야 할 수 있다. 두 번째 분류 기준은 그 사용자의 나이이다. 20세부터 25세까지의 사용자들 그리고 26세부터 30세까지의 사용자들의 피부 상태들 및 피부 케어 이력들은 또한 매우 상이하다. 세 번째 분류 기준은 지리적 위치들 사이의 관계일 수 있다 (예를 들면, 사용자들은 그 사용자들이 위치한 지역들 또는 지리적인 구역들에 따라 분류된다). 상기 지리적인 구역들은 지구 상의 7개 대륙들 (예를 들면, 아시아, 북미 등)에 따라서 분류될 수 있을 것이다. 이 분류 기준은 비슷한 지리적 환경을 가진 사용자 정보를 동일한 그룹으로 분류하는 것을 목표로 한다. 네 번째 분류 기준은 "인종"일 수 있다. 소위 "인종"의 용어는 그 사용자의 인종 유형을 획득하는 것을 목표로 하며, 그래서 사용자들이 신체적인 패턴들 또는 유전적인 특성들에서 공통적인 특징들의 인종 유형들을 가지는, 그런 그룹으로 사용자가 분류될 수 있도록 한다. "인종"을 이용하여 분류하는 동안에, 사용자들은 외모 특징들 (예를 들면, 머리 색상, 피부 색상 및 얼굴 골격 구조), 성별 등과 같은 객관적인 상태들을 기초로 하여 자기 자신의 "인종" 유형을 자체 선택할 수 있을 것이다. 실제의 구현들에서, 상기 사용자의 인종 유형은 이미지 인식 기술을 통해서 상기 전자 장치 상의 이미지 캡처링 장비에 의해 결정될 수 있을 것이며, 또는 선택된 언어에 의해 결정될 수 있을 것이다. 상기 "인종" 유형은 남태평양상 흑인 인종 (즉, 흑인), 코카서스 인종 (즉, 백인), 몽고 인종 (즉, 황인), 오스트레일리아 인종 (즉, 갈색인) 및 아프리카 남부지역 흑인 (전통적인 흑인과는 상이한 독립적인 인종)일 수 있다. 상기 사용자들이 자기 자신의 "인종"을 분류 기분으로서 선택하는 문제를 가질 수 있을 것이라는 것이 가능하다. 그 경우에, "언어"는 상기 분류 기준으로서 "인종"을 대체하기 위해 사용될 수 있을 것이며, 이는 동일한 인종인 대부분의 사람이 유사한 언어들을 말하기 때문이다. 본 실시예를 적용하는 것은 전술한 실시예들에 의해 제한된 것이 아니라, 상기 분류 기준을 이용하거나 상기 데이터베이스 내 사용자 데이터의 양 또는 데이터 콘텐트 내 차이들에 따른 다른 분류 기준을 추가하는가 또는 그렇지 않는가의 여부를 적절하게 조절할 수 있을 것이다.
단계 S230에서, 상기 현재 사용자는 상기 전자 장치 (100) 내 입력 장비 (예를 들면, 터치 스크린 (140))를 이용함으로써 원하는 향상을 위한 미리 정해진 시간 구간 및 피부-상태 목표를 세팅할 수 있다. "미리 정해진 시간 구간" 및 "피부-상태 목표"는 상기 사용자에 의해 세팅될 수 있을 것이며 또는 상기 클라우드 데이터베이스 (160)를 통해 상기 전자 장치 (100)에 의해 추천될 수 있을 것이다. "미리 정해진 시간 구간"은, 예를 들면, 한 주, 한 달, 세 달, 여섯 달, 일 년 또는 이 년으로 세팅될 수 있을 것이다; "피부-상태 목표"는, 예를 들면, 향상될 맑음의 원하는 백분율, 주름들의 엄격함 레벨에 대한 원하는 축소 등으로 세팅될 수 있을 것이다.
단계 S240에서, 상기 "미리 정해진 시간 구간" 및 "피부-상태 목표"를 수신한 이후에, 상기 전자 장치 (100)는 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을, 상기 초기 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 그룹들 중 하나로부터 획득한다. 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 피부-상태 목표에 관한 케어 정보이다. 다른 말로 하면, 상기 전자 장치 (100)는, 단계 S240에서, 동일한 또는 비슷한 초기 피부 정보를 구비한, 동일한 또는 비슷한 미리 정해진 시간 구간을 구비한, 동일한 또는 비슷한 피부-상태 목표를 구비한 그리고 동일한 그룹의 다른 사용자들에 의해 이미 달성된 피부-달성 이력을 찾기 위해서 클라우드 데이터베이스 (160) 내에서 상기 현재 사용자를 포함하는 그룹을 검색하며, 그래서 상기 피부-달성 이력이 상기 현재 사용자를 위한 레퍼런스들로서 소용이 될 수 있도록 한다. 상기 케어 정보는 상기 분류된 사용자들의 적어도 하나 이상의 사용된 케어 제품들 및 적어도 하나의 케어 행동을 적어도 포함한다. 따라서, 상기 전자 장치 (100)의 사용과 함께, 상기 현재 사용자는 상기 다른 사용자들에 의해 공유된 케어 정보를 상기 현재 사용자를 위한 얼굴 피부 케어에 대한 레퍼런스들로서 획득할 수 있다. 반면에, 상기 전자 장치 (100)는 상기 케어 정보 내에 상기 케어 제품들이나 상기 케어 제품들과 동일한 또는 유사한 효과를 가지는 제품들의 구매 정보를 또한 제공할 수 있을 것이며, 이는 상기 전자 장치 (100)의 기능성을 더욱 확장하기 위한 것이다.
동일한 그룹 또는 동일한 레벨 내 사용자들은 비슷한 피부 정보 및 상태들을 가진 것으로서만 참조될 수 있으며, 이는 상기 피부 상태를 상이한 유형들 또는 레벨들로 분할 (예를 들면, 상기 피부 상태는 1 내지 10의 레벨들로 분할될 수 있을 것이다)하는 방식에 의해 각 사용자의 피부 정보가 분류되거나 식별되기 때문이라는 것에 유의해야 한다. 그러므로, 사용자들이 초기 피부 정보에 따라 상이한 그룹들로 분류될 때에, 동일한 그룹 내 사용자들의 피부 상태들은 비슷하다.
상기 현재 사용자가 피부-달성 이력을 획득한 이후에 상기 피부-달성 이력 내 케어 정보에 따라 상기 얼굴 피부 케어를 집행하기를 원한다면, 단계 S250에서, 상기 전자 장치 (100)의 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 현재 피부 정보 및 상기 현재 사용자의 케어 정보 (예를 들면, 사용된 케어 제품, 피부 케어 행동 등)를 계속적으로 기록한다. 그러면, 단계 S260에서, 상기 프로세서 (120)는 초기 검출 내 상기 초기 피부 정보를 상기 현재 피부 정보와 비교함으로써, 상기 현재 사용자에 의해 세팅된 피부-상태 목표가 달성되는가의 여부를 판별한다.
상기 현재 사용자에 의해 세팅된 피부-상태 목표가 상기 미리 정해진 시간 구간에서 달성될 때에, 상기 방법은 단계 S260으로부터 단계 S270으로 진행하며, 단계 S270에서, 상기 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치한다. 나중에, 상기 프로세서 (120)는 상기 피부-달성 이력을 상기 클라우드 데이터베이스 (160)로 업로드하는가의 여부를 상기 현재 사용자에게 문의할 수 있다. 그렇게 함으로써, 상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 피부-달성 이력을 달성하기를 원하는 다른 사용자에게 공유될 수 있으며, 이 경우에 상기 다른 사용자 및 상기 현재 사용자는 동일한 그룹에 속한다. 반면에, 상기 현재 사용자에 의해 세팅된 상기 피부-상태 목표가 상기 미리 정해진 시간 구간 내에 달성되지 않을 때에, 상기 방법은 단계 S260으로부터 단계 S280으로 진행한다. 단계 S280에서, 상기 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 피부 케어 이력 내로 배치하며, 그리고 상기 피부 케어 이력은 다른 사용자들, 서비스 제공자 또는 심지어는 피부과 의사에게 공유될 수 있을 것이며, 그래서 그들이 이 피부 케어 이력이 상기 얼굴 피부를 실제로 향상시킬 수 있도록 한다. 더욱이, 피부과 의사가 상기 케어 정보 및 상기 흐름을 더 향상시키기 위해서 상기 피부 케어 이력에 관한 향상을 위한 제안들을 제공할 수 있을 것 같다.
도 5는 본 발명 개시의 실시예에 따라 케어 정보를 공유하기 위한 방법의 흐름도이다. 본 발명 개시의 본 실시예에서, 케어 정보를 공유하기 위한 상기 방법은 도 1에서 도시된 것과 같은 이미지 캡쳐링 장비 (110)를 포함하는 전자 장치 (100)에 적응된다. 도 5의 흐름도에서의 각 단계는 도 1 내 전자 장치 (100)의 각 요소를 참조하여 설명된다. 단계 S510에서, 상기 프로세서 (120)는 상기 이미지 캡처링 장비 (110)로부터 현재 사용자의 얼굴 데이터를 획득하며, 그리고 상기 프로세서 (120)는 상기 얼굴 데이터를 분석하여, 현재의 피부 정보를 초기 피부 정보로서 획득한다. 단계 S520에서, 상기 프로세서 (120)는 미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치 (100) 내 입력 장비 (예를 들면, 터치 스크린 (140))에 의해 세팅한다. 단계 S530에서, 상기 현재 사용자는 상기 전자 장치 (100) 내 다양한 요소들을 사용하여, 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 현재 피부 정보 및 케어 정보를 연속해서 기록하며 그리고 상기 초기 피부 정보를 상기 현재 피부 정보와 비교함으로써 피부-상태 목표가 달성되었는가의 여부를 판별한다. 단계 S540에서, 상기 피부-상태 목표가 상기 미리 정해진 시간 구간 내에서 달성되었는가의 여부를 판별할 때에, 상기 프로세서 (120)는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치한다. 단계 S550에서, 상기 프로세서 (120)는 현재 사용자에 대응하는 피부-달성 이력을 상기 네트워크 통신 장비 (130)에 의해 네트워크 (150) 내 클라우드 데이터베이스 (160)를 통해서, 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 동일한 피부-상태 목표를 달성하기를 원하는 다른 사용자와 공유할 수 있다. 본 실시예에서, 상기 현재 사용자 및 상기 다른 사용자는 동일한 그룹으로 분류되어야 한다. 상기의 상세한 단계들은 전술할 실시예에 관련된 것일 수 있다.
요약하면, 본 발명 개시의 실시예에 따라, 상기 전자 장치 내 이미지 캡처링 장비는 사용자의 초기 피부 정보를 획득하기 위해서 사용자를 위한 피부 검출을 수행하기 위해 사용되며, 그리고 피부 상태를 향상시키기 위해 비슷한 환경, 비슷한 미리 정해진 시간 구간 및 비슷한 피부-상태 목표를 가진 사용자들을 동일한 그룹으로 분류한다. 상기 피부-상태 목표가 상기 미리 정해진 시간 구간 내에서 상기 사용자에 의해 달성된다면, 상기 전자 장치는 그 미리 정해진 시간 구간 내에서 상기 사용자의 케어 정보 (예를 들면, 피부를 위한 케어 행동, 사용된 케어 제품들 등)를 배치하고, 그리고 그 피부-달성 이력을 동일한 그룹 내 동일한 상태를 가진 다른 사용자들과 공유할 수 있다. 그처럼, 얼굴 피부 케어를 위한 개인적인 팁들이 공유될 수 있을 것이다. 반면에, 상기 사용자는 다른 사용자들에 의해 공유된 케어 정보를 상기 현재 사용자를 위한 얼굴 피부에 대한 레퍼런스들로서 또한 획득할 수 있다.
다양한 수정들 및 변형들이 상기 개시된 실시예들에 대해 만들어질 수 있다는 것이 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자들에게는 자명할 것이다. 본 명세서 및 예들은 단지 예시적인 것으로 간주되며, 다음의 청구항들 및 그것들의 등가들에 의해 표시된 본 발명 개시의 진정한 범위를 구비하는 것으로 의도된 것이다.
Claims (17)
- 이미지 캡쳐링 장비를 포함하는 전자 장치에 적합한, 케어 (care) 정보 획득 방법으로, 상기 방법은:
상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 초기 피부 정보를 획득하기 위해 그 얼굴 데이터를 분석하는 단계;
클라우드 데이터베이스에 의해 상기 현재 사용자를 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하는 단계로, 상기 그룹들 각각은 복수의 분류된 사용자들을 포함하는, 분류 단계;
미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계; 그리고
상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 중 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 상기 전자 장치에 의해 획득하는 단계를 포함하며,
상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 상기 피부-상태 목표에 관한 케어 정보인, 케어 정보 획득 방법. - 제1항에 있어서,
상기 현재 사용자를 그룹들 하나로 분류하는 상기 단계는:
상기 현재 사용자를 상기 초기 피부 정보 및 복수의 분류 기준들에 따라 상기 그룹들 중 하나로 분류하는 단계를 포함하며,
상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 획득 방법. - 제1항에 있어서:
상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계; 그리고
상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계를 더 포함하는, 케어 정보 획득 방법. - 제3항에 있어서,
상기 초기 피부 정보 또는 상기 현재 피부 정보는 상기 얼굴 데이터로부터 분석된 복수의 가변 특징들을 포함하며,
상기 가변 특징들은 주름들, 얼굴 라인들, 홍반 (Erythema), 여드름 (acne), 반점들 (spots), 모공들 (pores), 피부 색상 및 다크 서클 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 획득 방법. - 제4항에 있어서,
상기 초기 피부 정보 또는 상기 현재의 피부 정보는 상기 가변 특징들에 따라 계산된 복수의 피부 파라미터들을 더 포함하며,
상기 피부 파라미터들은 맑음 (clearness), 질감 (texture), 견고함 (firmness), 밝음 (brightness) 및 건강함 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 획득 방법. - 제1항에 있어서,
상기 케어 정보는 상기 분류된 사용자들 중 하나의 적어도 하나의 사용된 케어 제품 및 적어도 하나의 케어 행동을 적어도 포함하는, 케어 정보 획득 방법. - 이미지 캡쳐링 장비를 포함하는 전자 장치에 적합한, 케어 정보 공유 방법으로, 상기 방법은:
상기 이미지 캡쳐링 장비로부터 현재 사용자의 얼굴 데이터를 획득하고 그리고 현재의 피부 정보를 초기 피부 정보로서 획득하기 위해 그 얼굴 데이터를 분석하는 단계;
미리 정해진 시간 구간 및 피부-상태 목표를 상기 전자 장치에 의해 세팅하는 단계;
상기 전자 장치에 의해서, 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 상기 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하는 단계;
상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하는 단계; 그리고
비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 피부-상태 목표를 달성하기를 원하는 다른 사용자와 상기 피부-달성 이력을 공유하는 단계를 포함하는, 케어 정보 공유 방법. - 제7항에 있어서:
클라우드 데이터베이스에 의해 상기 현재 사용자를 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하는 단계를 더 포함하며,
상기 그룹들 각각은 복수의 분류된 사용자들을 포함하며,
상기 현재 사용자 그리고 상기 다른 사용자 둘 모두는 상기 분류된 사용자들 중 하나에 속하는, 케어 정보 공유 방법. - 제8항에 있어서,
상기 현재 사용자를 상기 그룹들 하나로 분류하는 상기 단계는:
상기 현재 사용자를 상기 초기 피부 정보 및 복수의 분류 기준들에 따라 상기 그룹들 중 하나로 분류하는 단계를 포함하며,
상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함하는, 케어 정보 공유 방법. - 제7항에 있어서,
상기 케어 정보는 상기 현재 사용자의 적어도 하나의 케어 행동 및 상기 현재 사용자에 의해 사용된 적어도 하나의 케어 제품을 적어도 포함하는, 케어 정보 공유 방법. - 전자 장치로서:
현재 사용자의 얼굴 데이터를 획득하는 이미지 캡쳐링 장비;
상기 이미지 캡쳐링 장비에 연결된 프로세서;
상기 프로세서에 연결된 입력 장비; 그리고
네트워크 통신 장비를 포함하며,
상기 프로세서는 상기 네트워크 통신 장비를 경유하여 네트워크에 연결되며,
상기 프로세서는 초기 피부 정보를 얻기 위해 상기 얼굴 데이터를 분석하고, 그리고 상기 현재 사용자를 상기 네트워크 내 클라우드 데이터베이스에 의해 상기 초기 피부 정보에 따라 복수의 그룹들 중 하나로 분류하며,
상기 그룹들 각각은 복수의 분류된 사용자들을 포함하며,
상기 입력 장비는 상기 현재 사용자에 의해 세팅된 미리 정해진 시간 구간 및 피부-상태 목표를 수신하며, 그리고
상기 프로세서는 상기 초기 피부 정보, 상기 미리 정해진 시간 구간 및 상기 피부-상태 목표에 따라 상기 현재 사용자를 포함하는 상기 그룹들 하나로부터 상기 분류된 사용자들 중 하나에 대응하는 피부-달성 이력을 획득하며,
상기 피부-달성 이력은 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 분류된 사용자들 중 하나에 의해 달성된 피부-상태 목표에 관한 케어 정보인, 전자 장치. - 제11항에 있어서,
상기 프로세서는 상기 클라우드 데이터베이스에 의해 상기 초기 피부 정보 및 복수의 분류 기분들에 따라 상기 현재 사용자를 상기 그룹들 중 하나로 분류하며,
상기 분류 기준들은 상기 현재 사용자의 성별, 나이, 지리적인 위치, 인종 정보 및 상기 미리 정해진 시간 구간 중 하나 또는 그것들의 조합을 포함하는, 전자 장치. - 제11항에 있어서,
상기 프로세서는 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보 및 현재의 피부 정보를 계속해서 기록하고 그리고 상기 초기 피부 정보를 상기 현재의 피부 정보와 비교함으로써 상기 피부-상태 목표가 달성되었는가의 여부를 판별하고, 그리고
상기 프로세서는 상기 피부-상태 목표가 달성될 때에 상기 미리 정해진 시간 구간 내에서 상기 현재 사용자의 케어 정보를 상기 현재 사용자에 대응하는 피부-달성 이력 내로 배치하며 그리고 상기 피부-달성 이력을 상기 클라우드 데이터베이스로 업로드하는, 전자 장치. - 제13항에 있어서,
상기 초기 피부 정보 또는 상기 현재 피부 정보는 상기 얼굴 데이터로부터 분석된 복수의 가변 특징들을 포함하며,
상기 가변 특징들은 주름들, 얼굴 라인들, 홍반, 여드름, 반점들, 모공들, 피부 색상 및 다크 서클 중 하나 또는 그것들의 조합을 포함하는, 전자 장치. - 제11항에 있어서,
상기 케어 정보는 상기 현재 사용자의 적어도 하나의 케어 행동 및 상기 현재 사용자에 의해 사용된 적어도 하나의 케어 제품을 적어도 포함하며,
상기 피부 파라미터들은 맑음, 질감, 견고함, 밝음 및 건강함 중 하나 또는 그것들의 조합을 포함하는, 전자 장치. - 제14항에 있어서,
상기 케어 정보는 상기 현재 사용자의 적어도 하나의 케어 행동 및 상기 현재 사용자에 의해 사용된 적어도 하나의 케어 제품을 적어도 포함하는, 전자 장치. - 제14항에 있어서,
상기 프로세서는 상기 클라우드 데이터베이스에 의해 상기 현재 사용자에 대응하는 피부-달성 이력을 비슷한 초기 피부 정보 및 비슷한 미리 정해진 시간 구간의 환경들 하에서 상기 피부-상태 목표를 달성하기를 원하는 다른 사용자와 공유하는, 전자 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105116064 | 2016-05-24 | ||
TW105116064A TWI585711B (zh) | 2016-05-24 | 2016-05-24 | 獲得保養信息的方法、分享保養信息的方法及其電子裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170132644A true KR20170132644A (ko) | 2017-12-04 |
KR102183370B1 KR102183370B1 (ko) | 2020-11-27 |
Family
ID=57354110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160112125A KR102183370B1 (ko) | 2016-05-24 | 2016-08-31 | 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10361004B2 (ko) |
EP (2) | EP3249562B1 (ko) |
JP (2) | JP6715152B2 (ko) |
KR (1) | KR102183370B1 (ko) |
CN (2) | CN107423661A (ko) |
TW (1) | TWI585711B (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102354086B1 (ko) * | 2021-09-01 | 2022-01-20 | 안효진 | 고객 맞춤형 화장품 판매 방법 |
KR102360993B1 (ko) * | 2021-08-23 | 2022-02-09 | 주식회사 브이 메이커스 | 사용자에게 화장품을 추천하는 서비스를 제공하는 방법 및 장치 |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102490438B1 (ko) * | 2015-09-02 | 2023-01-19 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
JP6872742B2 (ja) * | 2016-06-30 | 2021-05-19 | 学校法人明治大学 | 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム |
USD844792S1 (en) * | 2016-11-18 | 2019-04-02 | Samsung Electronics Co., Ltd. | Skin condition measuring apparatus |
DE102017209860B4 (de) * | 2017-06-12 | 2019-07-11 | Henkel Ag & Co. Kgaa | Verfahren und Vorrichtung zum Ermitteln eines Körperbereichzustands |
GB201715450D0 (en) * | 2017-09-25 | 2017-11-08 | Deb Ip Ltd | Skin condition and risk evaluation methodology |
JP6992411B2 (ja) | 2017-11-01 | 2022-01-13 | 株式会社デンソー | 機器冷却装置 |
CN107977549B (zh) * | 2017-12-06 | 2021-04-13 | 懿奈(上海)生物科技有限公司 | 一种基于皮肤多组学的护肤匹配方法及终端 |
EP3723594A4 (en) * | 2017-12-12 | 2021-08-18 | Turkcell Teknoloji Arastirma Ve Gelistirme Anonim Sirketi | SYSTEM AND PROCEDURE FOR DIAGNOSING POTENTIAL DISEASES FROM PHOTO AND VIDEO DATA AND FOR INFORMATION TO THE USER |
KR102619221B1 (ko) * | 2018-01-05 | 2023-12-28 | 로레알 | 머신 구현 안면 건강 및 미용 보조기 |
CN108470321B (zh) * | 2018-02-27 | 2022-03-01 | 北京小米移动软件有限公司 | 照片的美颜处理方法、装置和存储介质 |
KR101927286B1 (ko) * | 2018-03-05 | 2018-12-10 | 와이케이씨테크(주) | 무인 안면 및 손등 피부 분석장치 |
CN110811115A (zh) * | 2018-08-13 | 2020-02-21 | 丽宝大数据股份有限公司 | 电子化妆镜装置及其脚本运行方法 |
JP7230409B2 (ja) * | 2018-10-02 | 2023-03-01 | カシオ計算機株式会社 | 判定装置、判定方法及び判定プログラム |
US11042726B2 (en) * | 2018-11-05 | 2021-06-22 | Panasonic Intellectual Property Management Co., Ltd. | Skin analyzer, skin analysis method, and non-transitory computer-readable recording medium |
JP2020081323A (ja) * | 2018-11-22 | 2020-06-04 | パナソニックIpマネジメント株式会社 | 肌分析装置、肌分析方法、及び、コンピュータプログラム |
US10970593B2 (en) | 2018-12-03 | 2021-04-06 | International Business Machines Corporation | Product effect analysis |
AU2019416130A1 (en) * | 2018-12-27 | 2021-06-10 | Johnson & Johnson Consumer Inc. | Device and method for application of topical compositions guided by projected fiducials |
CN109730637B (zh) * | 2018-12-29 | 2021-04-23 | 中国科学院半导体研究所 | 一种人脸面部图像定量分析系统及方法 |
CN110033344A (zh) * | 2019-03-06 | 2019-07-19 | 百度在线网络技术(北京)有限公司 | 基于神经网络的护肤品推荐方法、装置及存储介质 |
TWI708164B (zh) * | 2019-03-13 | 2020-10-21 | 麗寶大數據股份有限公司 | 虛擬彩妝系統與虛擬彩妝上色方法 |
USD923043S1 (en) * | 2019-04-23 | 2021-06-22 | The Procter & Gamble Company | Display panel with graphical user interface for skin age determination |
CN114208141A (zh) | 2019-05-31 | 2022-03-18 | 三星电子株式会社 | 用于控制皮肤护理设备的电子设备及其操作方法 |
WO2020252498A1 (en) * | 2019-06-10 | 2020-12-17 | The Procter & Gamble Company | Method of generating user feedback information to enhance product use results |
US11567562B2 (en) * | 2019-06-28 | 2023-01-31 | Ncr Corporation | Self-checkout terminal sleep and wake operations |
US11501356B2 (en) * | 2019-07-31 | 2022-11-15 | L'oreal | Systems and methods for generating personalized skincare formulations based on biomarker analysis |
US11741523B2 (en) | 2019-07-31 | 2023-08-29 | L'oreal | Personalized skincare recommendations based on biomarker analysis |
KR20190103097A (ko) * | 2019-08-16 | 2019-09-04 | 엘지전자 주식회사 | 뷰티 카운슬링 정보 제공 방법 및 장치 |
CN110533651B (zh) * | 2019-08-29 | 2022-04-08 | 维沃移动通信有限公司 | 一种图像处理方法及装置 |
JP7419720B2 (ja) * | 2019-09-24 | 2024-01-23 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
EP3800644A1 (en) * | 2019-10-02 | 2021-04-07 | Koninklijke Philips N.V. | Determining a location of a device |
KR20210075673A (ko) | 2019-12-13 | 2021-06-23 | 삼성전자주식회사 | 사용자의 피부 상태를 측정하는 전자 장치와 이의 동작 방법 |
US20210195713A1 (en) * | 2019-12-18 | 2021-06-24 | L'oreal | Location based lighting experience |
JP7442173B2 (ja) * | 2019-12-27 | 2024-03-04 | B-by-C株式会社 | 画像処理システム、画像処理方法、および画像処理プログラム |
WO2021138481A1 (en) * | 2019-12-31 | 2021-07-08 | L'oreal | High-resolution and hyperspectral imaging of skin |
US11869213B2 (en) | 2020-01-17 | 2024-01-09 | Samsung Electronics Co., Ltd. | Electronic device for analyzing skin image and method for controlling the same |
DE102020203189A1 (de) * | 2020-03-12 | 2021-09-16 | Beiersdorf Aktiengesellschaft | Verfahren zur Produktempfehlung |
WO2021188582A1 (en) * | 2020-03-16 | 2021-09-23 | Aquavit Pharmaceuticals, Inc. | System and methods for personalized skin health and/or appearance regimen supported with mirror-based digital interface apparatus |
US20210307492A1 (en) * | 2020-04-01 | 2021-10-07 | Magicom Inc. | Smart-mirror display system |
CN111507478A (zh) * | 2020-04-08 | 2020-08-07 | 秦国洪 | 一种ai化妆师系统 |
CN111557644A (zh) * | 2020-04-22 | 2020-08-21 | 深圳市锐吉电子科技有限公司 | 一种基于智能镜面设备的护肤方法、装置及护肤设备 |
USD968441S1 (en) | 2020-04-30 | 2022-11-01 | The Procter & Gamble Company | Display screen with graphical user interface |
USD962256S1 (en) | 2020-05-14 | 2022-08-30 | The Procter & Gamble Company | Display screen with graphical user interface |
CN111651040B (zh) * | 2020-05-27 | 2021-11-26 | 华为技术有限公司 | 用于肌肤检测的电子设备的交互方法及电子设备 |
KR20210152179A (ko) * | 2020-06-08 | 2021-12-15 | 주식회사 휴먼피부임상시험센터 | 시리얼 피부 유형 분석과 맞춤형 화장품 조제 장치 |
US11160497B1 (en) * | 2020-07-16 | 2021-11-02 | Elyse Enterprises LLC | Software configuration for virtual skincare assessment and virtual cues |
US10909879B1 (en) * | 2020-07-16 | 2021-02-02 | Elyse Enterprises LLC | Multilingual interface for three-step process for mimicking plastic surgery results |
US10952519B1 (en) | 2020-07-16 | 2021-03-23 | Elyse Enterprises LLC | Virtual hub for three-step process for mimicking plastic surgery results |
US11403694B2 (en) | 2020-07-17 | 2022-08-02 | YUTYBAZAR Limited | System and method for intelligent context-based personalized beauty product recommendation and matching |
US11793451B2 (en) * | 2020-07-31 | 2023-10-24 | L'oreal | Interface and analysis techniques for customized skin care regimen based on skin diagnostics |
EP4188196A1 (en) * | 2020-08-03 | 2023-06-07 | Johnson & Johnson Consumer Inc. | System and method for selective application of cosmetic composition to impart undereye brightening |
EP4196947A4 (en) * | 2020-08-11 | 2024-09-25 | Cortina Health Inc | SYSTEMS AND METHODS FOR USING ARTIFICIAL INTELLIGENCE FOR DIAGNOSTIC AND TREATMENT OPTIONS FOR SKIN CONDITIONS |
CN112107296B (zh) * | 2020-09-10 | 2023-03-14 | 深圳安道客网络科技有限公司 | 皮肤信息检测系统及检测方法 |
CN113520312A (zh) * | 2021-05-28 | 2021-10-22 | 安徽中实华粹医疗器械有限公司 | 一种便携式智能皮肤显微分析系统 |
CN113729626B (zh) * | 2021-08-03 | 2023-04-14 | 蒋登文 | 一种基于图像识别的便携式皮肤质量检测装置及系统 |
KR102422772B1 (ko) * | 2022-01-05 | 2022-07-22 | 주식회사 룰루랩 | 사용자를 위한 케어 기기를 추천하는 방법 및 장치 |
JP2024019796A (ja) * | 2022-08-01 | 2024-02-14 | ヤーマン株式会社 | 肌処理システム |
WO2024072813A1 (en) * | 2022-09-29 | 2024-04-04 | Johnson & Johnson Consumer Inc. | Cooperative longitudinal skin care monitoring |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010093503A9 (en) * | 2007-01-05 | 2011-03-03 | Myskin, Inc. | Skin analysis methods |
Family Cites Families (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2097952A (en) * | 1930-04-14 | 1937-11-02 | Fillor Famous Facial Corp | Method of and means for facial treatments |
US4276570A (en) * | 1979-05-08 | 1981-06-30 | Nancy Burson | Method and apparatus for producing an image of a person's face at a different age |
US4944030B1 (en) * | 1986-05-12 | 1993-05-25 | Asahi Optical Co Ltd | Lens shutter camera including zoom lens |
US5734627A (en) * | 1996-11-27 | 1998-03-31 | Timex Corporation | Silhouette image on illuminated watch dial |
US6700692B2 (en) * | 1997-04-02 | 2004-03-02 | Gentex Corporation | Electrochromic rearview mirror assembly incorporating a display/signal light |
US6571003B1 (en) * | 1999-06-14 | 2003-05-27 | The Procter & Gamble Company | Skin imaging and analysis systems and methods |
US20030065523A1 (en) * | 2001-10-01 | 2003-04-03 | Francis Pruche | Early detection of beauty treatment progress |
US20030065589A1 (en) * | 2001-10-01 | 2003-04-03 | Daniella Giacchetti | Body image templates with pre-applied beauty products |
US20030065588A1 (en) * | 2001-10-01 | 2003-04-03 | Gilles Rubinstenn | Identification and presentation of analogous beauty case histories |
US20030065255A1 (en) * | 2001-10-01 | 2003-04-03 | Daniela Giacchetti | Simulation of an aesthetic feature on a facial image |
DE102004024274A1 (de) * | 2004-05-15 | 2005-12-01 | Basf Ag | Verfahren zur Herstellung einer Lösung von reinem Triethylendiamin (TEDA) |
US20060010010A1 (en) * | 2004-07-12 | 2006-01-12 | Benjamin Wiegand | Method for recommending an acne treatment/prevention program |
WO2006100685A2 (en) * | 2005-03-25 | 2006-09-28 | Cnoga Holdings Ltd | Optical sensor device and image processing unit for measuring chemical concentrations, chemical saturations and biophysical parameters |
US20090054744A1 (en) | 2005-04-28 | 2009-02-26 | Naomi Kitamura | Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program |
US7626749B2 (en) * | 2005-05-16 | 2009-12-01 | Donnelly Corporation | Vehicle mirror assembly with indicia at reflective element |
TW200706865A (en) * | 2005-08-05 | 2007-02-16 | Shi-Wei Chen | System and method of skin diagnosis and cosmetics selection |
US20080119913A1 (en) * | 2006-10-26 | 2008-05-22 | Lumiport, Llc | Light therapy personal care device |
US8109875B2 (en) * | 2007-01-03 | 2012-02-07 | Gizewski Theodore M | Derma diagnostic and automated data analysis system |
US20090245603A1 (en) * | 2007-01-05 | 2009-10-01 | Djuro Koruga | System and method for analysis of light-matter interaction based on spectral convolution |
US20120321759A1 (en) * | 2007-01-05 | 2012-12-20 | Myskin, Inc. | Characterization of food materials by optomagnetic fingerprinting |
CN101686819B (zh) * | 2007-01-05 | 2014-08-13 | 迈斯金公司 | 皮肤成像的系统、装置和方法 |
US20150313532A1 (en) * | 2007-01-05 | 2015-11-05 | Sava Marinkovich | Method and system for managing and quantifying sun exposure |
CN201048939Y (zh) * | 2007-04-26 | 2008-04-23 | 廖苑利 | 整合性肤质改善装置 |
US8029837B2 (en) * | 2007-06-08 | 2011-10-04 | Philip Morris Usa Inc. | Chewable pouch for flavored product delivery |
JP2010535595A (ja) * | 2007-08-10 | 2010-11-25 | エレメ メディカル インコーポレイテッド | 多重モジュール皮膚または身体治療システムおよびその使用法 |
US7413233B1 (en) * | 2007-08-28 | 2008-08-19 | Man-Young Jung | Vehicle sun visor with auto-shading prompter screen |
US8849380B2 (en) * | 2007-11-26 | 2014-09-30 | Canfield Scientific Inc. | Multi-spectral tissue imaging |
US8036925B2 (en) * | 2008-01-14 | 2011-10-11 | General Electric Company | System and method to manage assets of healthcare facility |
CA2659698C (en) * | 2008-03-21 | 2020-06-16 | Dressbot Inc. | System and method for collaborative shopping, business and entertainment |
EP2389573B1 (en) * | 2009-01-20 | 2016-01-20 | Myskin, Inc. | Skin analysis methods |
TWI452998B (zh) * | 2009-06-17 | 2014-09-21 | Univ Southern Taiwan | System and method for establishing and analyzing skin parameters using digital image multi-area analysis |
US8332979B2 (en) * | 2009-08-06 | 2012-12-18 | Stryker Corporation | Cushion bladder with middle layer having gaps and various positioned interior welds |
EP2538841A2 (en) * | 2010-02-26 | 2013-01-02 | Myskin, Inc. | Analytic methods of tissue evaluation |
US8475059B2 (en) * | 2010-03-31 | 2013-07-02 | Logitech Europe S.A. | Image capturing device with lens cover and folding support |
US9789295B2 (en) * | 2010-11-02 | 2017-10-17 | Yuchen Zhou | Customized skin care and method to provide same |
KR20120051342A (ko) * | 2010-11-12 | 2012-05-22 | 한국전자통신연구원 | 사용자 색감 기반의 감성 화장 추천 시스템 및 방법 |
FR2970801B1 (fr) * | 2011-01-20 | 2013-08-09 | Galderma Res & Dev | Procede de determination de l'efficacite d'un traitement et systeme de traitement d'image associe |
JP2012181688A (ja) * | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
US8582850B2 (en) * | 2011-03-08 | 2013-11-12 | Bank Of America Corporation | Providing information regarding medical conditions |
US20120281874A1 (en) * | 2011-05-05 | 2012-11-08 | Lure Yuan-Ming F | Method, material, and apparatus to improve acquisition of human frontal face images using image template |
TWI430776B (zh) * | 2011-05-30 | 2014-03-21 | Univ Southern Taiwan | 智慧型影像膚質檢測系統及方法 |
TW201306699A (zh) * | 2011-07-29 | 2013-02-01 | Hon Hai Prec Ind Co Ltd | 電子裝置 |
WO2013021595A1 (ja) * | 2011-08-05 | 2013-02-14 | 花王株式会社 | 肌状態判定方法および商品提示方法 |
TWI556116B (zh) * | 2012-02-15 | 2016-11-01 | Hitachi Maxell | Skin condition analysis and analysis information management system, skin condition analysis and analysis information management method, and data management server |
US9633186B2 (en) * | 2012-04-23 | 2017-04-25 | Apple Inc. | Systems and methods for controlling output of content based on human recognition data detection |
US20150219962A1 (en) * | 2012-09-30 | 2015-08-06 | Hewlett-Packard Development Company, Lp | Transflective display with a light-recycling modulation layer |
KR101315394B1 (ko) * | 2012-12-31 | 2013-10-07 | (주)닥터스텍 | 피부 미용 서비스 제공 방법 및 그 시스템 |
US9026053B2 (en) | 2013-02-17 | 2015-05-05 | Fitbit, Inc. | System and method for wireless device pairing |
CN103989454A (zh) * | 2013-02-19 | 2014-08-20 | 北京银万特科技有限公司 | 基于移动智能终端的皮肤监测与保养方法及系统 |
US20150045631A1 (en) * | 2013-03-15 | 2015-02-12 | Lee Pederson | Skin health system |
US9542595B2 (en) * | 2013-03-25 | 2017-01-10 | Brightex Bio-Photonics Llc | Systems and methods for recommending cosmetic products for users with mobile devices |
JP6251489B2 (ja) * | 2013-03-28 | 2017-12-20 | 株式会社 資生堂 | 画像解析装置、画像解析方法、及び画像解析プログラム |
US20140358828A1 (en) * | 2013-05-29 | 2014-12-04 | Purepredictive, Inc. | Machine learning generated action plan |
US9218574B2 (en) * | 2013-05-29 | 2015-12-22 | Purepredictive, Inc. | User interface for machine learning |
US9423879B2 (en) * | 2013-06-28 | 2016-08-23 | Chia Ming Chen | Systems and methods for controlling device operation according to hand gestures |
KR20160075501A (ko) * | 2013-09-25 | 2016-06-29 | 더 프록터 앤드 갬블 캄파니 | 피부 케어 상담을 위한 방법 및 시스템 |
US20150099947A1 (en) * | 2013-10-04 | 2015-04-09 | Access Business Group International Llc | Skin youthfulness index, methods and applications thereof |
KR102019969B1 (ko) * | 2014-02-10 | 2019-09-09 | 애플 인크. | 광학 센서를 사용해 검출된 모션 제스처 입력 |
EP2919142B1 (en) * | 2014-03-14 | 2023-02-22 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for providing health status information |
CN103971270A (zh) * | 2014-05-07 | 2014-08-06 | 深圳市思肯三维科技发展有限公司 | 一种基于肤质检测的产品推荐方法及系统 |
CN105893721A (zh) * | 2014-05-13 | 2016-08-24 | 陈威宇 | 适应性护肤信息提示系统及其适应性护肤提示方法 |
SG10201406215YA (en) * | 2014-09-30 | 2016-04-28 | Mentorica Technology Pte Ltd | Systems and methods for automated data analysis and customer relationship management |
AU2016226072B2 (en) * | 2015-03-05 | 2021-07-01 | Avon Products, Inc. | Methods for treating skin |
US20160357578A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Method and device for providing makeup mirror |
KR102490438B1 (ko) * | 2015-09-02 | 2023-01-19 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US20170109486A1 (en) * | 2015-10-16 | 2017-04-20 | Hien Thanh Tran | Computerized system, device, method and program product for medical treatment automation |
US20170246473A1 (en) * | 2016-02-25 | 2017-08-31 | Sava Marinkovich | Method and system for managing treatments |
US10026296B2 (en) * | 2016-03-17 | 2018-07-17 | Kali Care, Inc. | Network-connected cap for a container |
JP6730443B2 (ja) * | 2016-03-21 | 2020-07-29 | ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company | カスタマイズされた製品の推奨を提供するためのシステム及び方法 |
US20170289766A1 (en) * | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Digital Assistant Experience based on Presence Detection |
CN105843404A (zh) * | 2016-05-12 | 2016-08-10 | 深圳市联谛信息无障碍有限责任公司 | 基于读屏应用指令输入方法及装置 |
CA2963108A1 (en) * | 2016-06-29 | 2017-12-29 | EyesMatch Ltd. | System and method for digital makeup mirror |
US11556911B2 (en) * | 2016-07-14 | 2023-01-17 | NeoCaddie Inc. | Systems and methods for automated equipment rental |
US11315173B2 (en) * | 2016-09-15 | 2022-04-26 | GlamST LLC | Applying virtual makeup products |
TWI657799B (zh) * | 2016-09-29 | 2019-05-01 | 麗寶大數據股份有限公司 | 電子裝置與其提供膚質檢測資訊的方法 |
US10589699B2 (en) * | 2017-01-05 | 2020-03-17 | Revivermx, Inc. | Power and communication modes for digital license plate |
CN108618752A (zh) * | 2017-03-23 | 2018-10-09 | 丽宝大数据股份有限公司 | 肌肤产品适配方法及其电子装置 |
US10881182B2 (en) * | 2018-01-05 | 2021-01-05 | L'oreal | Makeup compact for utilizing client device to guide makeup application |
US10431010B2 (en) * | 2018-02-09 | 2019-10-01 | Perfect Corp. | Systems and methods for virtual application of cosmetic effects to a remote user |
-
2016
- 2016-05-24 TW TW105116064A patent/TWI585711B/zh not_active IP Right Cessation
- 2016-06-28 CN CN201610485994.XA patent/CN107423661A/zh active Pending
- 2016-07-27 US US15/220,399 patent/US10361004B2/en not_active Expired - Fee Related
- 2016-08-31 KR KR1020160112125A patent/KR102183370B1/ko active IP Right Grant
- 2016-09-30 JP JP2016193048A patent/JP6715152B2/ja not_active Expired - Fee Related
- 2016-11-10 EP EP16198073.5A patent/EP3249562B1/en active Active
-
2017
- 2017-01-03 US US15/397,700 patent/US10614921B2/en not_active Expired - Fee Related
-
2018
- 2018-01-02 EP EP18150062.0A patent/EP3343568A1/en not_active Withdrawn
- 2018-01-03 CN CN201810005834.XA patent/CN108354587A/zh active Pending
- 2018-01-04 JP JP2018000130A patent/JP2018108377A/ja not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010093503A9 (en) * | 2007-01-05 | 2011-03-03 | Myskin, Inc. | Skin analysis methods |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102360993B1 (ko) * | 2021-08-23 | 2022-02-09 | 주식회사 브이 메이커스 | 사용자에게 화장품을 추천하는 서비스를 제공하는 방법 및 장치 |
KR102354086B1 (ko) * | 2021-09-01 | 2022-01-20 | 안효진 | 고객 맞춤형 화장품 판매 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20170340267A1 (en) | 2017-11-30 |
US10361004B2 (en) | 2019-07-23 |
CN108354587A (zh) | 2018-08-03 |
JP6715152B2 (ja) | 2020-07-01 |
TW201741994A (zh) | 2017-12-01 |
EP3249562B1 (en) | 2020-09-02 |
US10614921B2 (en) | 2020-04-07 |
EP3343568A1 (en) | 2018-07-04 |
JP2017211970A (ja) | 2017-11-30 |
EP3249562A1 (en) | 2017-11-29 |
KR102183370B1 (ko) | 2020-11-27 |
US20170345144A1 (en) | 2017-11-30 |
TWI585711B (zh) | 2017-06-01 |
CN107423661A (zh) | 2017-12-01 |
JP2018108377A (ja) | 2018-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102183370B1 (ko) | 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치 | |
RU2668408C2 (ru) | Устройства, системы и способы виртуализации зеркала | |
US9445087B2 (en) | Systems, devices, and methods for providing products and consultations | |
AU2015201759B2 (en) | Electronic apparatus for providing health status information, method of controlling the same, and computer readable storage medium | |
JP4683200B2 (ja) | 髪領域の自動抽出方法 | |
US9262696B2 (en) | Image capture feedback | |
US20170238859A1 (en) | Mental state data tagging and mood analysis for data collected from multiple sources | |
US20170319065A1 (en) | Information processing device, information processing method, and program | |
CN108024719B (zh) | 肌肤的光泽评价装置、光泽评价方法及记录介质 | |
JP6715810B2 (ja) | スキンケア製品適合方法及び適合用電子装置 | |
JP2020505989A (ja) | メイクアップ評価システム及びその動作方法 | |
EP2131697A1 (en) | Method and system for recommending a product based upon skin color estimated from an image | |
KR20210084102A (ko) | 전자 장치, 두피 케어 시스템 및 그들의 제어 방법 | |
CN111062891A (zh) | 图像处理方法、装置、终端及计算机可读存储介质 | |
US20170105668A1 (en) | Image analysis for data collected from a remote computing device | |
CN114219868A (zh) | 一种护肤方案推荐方法和系统 | |
TW202022682A (zh) | 皮膚檢測方法及影像處理裝置 | |
US20230077452A1 (en) | Methods and Systems for Analyzing Skin and Providing Information Via a Graphical User Interface (GUI) | |
KR101957773B1 (ko) | 영상을 이용한 피부 상태 평가 방법 및 영상을 이용한 피부 상태 평가 장치 | |
JP2021010652A (ja) | 情報処理装置、評価方法、および情報処理プログラム | |
KR102330368B1 (ko) | 메이크업 평가 시스템 및 그의 동작 방법 | |
KR102654041B1 (ko) | 스캔을 바탕으로 신체 정보를 측정하고 운동을 추천하는 전자 장치, 및 시스템 | |
EP4213105A1 (en) | Gaze estimation system and method thereof | |
CN116739978A (zh) | 色斑检测方法、电子设备、存储介质及程序产品 | |
WO2008108771A1 (en) | Capture and systematic use of expert color analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |