KR102045216B1 - 인체 정보 분석장치 및 볼터치 분석 방법 - Google Patents

인체 정보 분석장치 및 볼터치 분석 방법 Download PDF

Info

Publication number
KR102045216B1
KR102045216B1 KR1020180005058A KR20180005058A KR102045216B1 KR 102045216 B1 KR102045216 B1 KR 102045216B1 KR 1020180005058 A KR1020180005058 A KR 1020180005058A KR 20180005058 A KR20180005058 A KR 20180005058A KR 102045216 B1 KR102045216 B1 KR 102045216B1
Authority
KR
South Korea
Prior art keywords
face
auxiliary line
ball touch
line
color value
Prior art date
Application number
KR1020180005058A
Other languages
English (en)
Other versions
KR20190031102A (ko
Inventor
샤이-용 센
민-창 치
부디만 고스노 에릭
Original Assignee
칼-콤프 빅 데이터, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칼-콤프 빅 데이터, 인크. filed Critical 칼-콤프 빅 데이터, 인크.
Publication of KR20190031102A publication Critical patent/KR20190031102A/ko
Application granted granted Critical
Publication of KR102045216B1 publication Critical patent/KR102045216B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D42/00Hand, pocket, or shaving mirrors
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • A47G1/02Mirrors used as equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0023Colour matching, recognition, analysis, mixture or the like
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Geometry (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 인체 정보 분석장치 및 그 볼터치 분석방법으로서, 그 중 볼터치 분석방법은 인체 정보 분석장치의 영상 캡쳐 모듈이 사람의 얼굴을 인식 시 얼굴의 유형을 판단하는 단계; 얼굴 유형에 따라 대응하는 위치결정 프로세스를 이용하여 얼굴에서 볼터치 위치를 찾는 단계; 좌측 볼터치의 평균 색상 수치 및 우측 볼터치의 평균 색상 수치를 분석하는 단계; 좌측 볼터치의 평균 색상 수치를 우측 볼터치의 평균 색상 수치와 상호 비교하거나, 또는 평균 색상 수치를 사전설정 색상 수치와 비교하는 단계; 인체 정보 분석장치의 디스플레이 모듈에 비교 결과를 디스플레이하는 단계; 및 보조 동작이 완료되기 전 상기 단계를 반복 실행하는 단계를 포함한다.

Description

인체 정보 분석장치 및 볼터치 분석 방법{Body information analysis apparatus and blush analysis method thereof}
본 발명은 분석장치 및 분석방법에 관한 것으로서, 특히 인체 정보 분석장치 및 볼터치 분석방법에 관한 것이다.
여성에게 있어서, 화장은 매일 실행해야 하는 동작 중의 하나라고 말할 수 있다.
일반적으로, 사용자는 모두 거울 앞에 앉아 화장을 하거나, 또는 스마트폰, 태블릿 컴퓨터 등 장치의 카메라와 스크린을 통해 화장을 한다.
그러나 사용자의 화장이 고르게 되었는지, 색상이 적당한지 등의 문제는 종종 사용자가 육안을 통해 직접 관찰하거나 확인할 수 밖에 없다. 따라서 일부 경험이 부족한 사용자는 화장 속도가 지나치게 느리거나 또는 화장을 잘 못하는 어려움이 있을 수 있다.
이를 감안하여, 본 기술 분야에서, 사용자가 신속하게 화장 동작을 완료하도록 효과적으로 돕고, 경험이 부족한 사용자가 화장을 잘 할 수 있도록 도움을 줄 수 있는 보조장치가 매우 필요하다.
(선행기술문헌)
(특허문헌)
일본 공개특허공보 특개2007-175384호(2007.07.12.),
일본 공개특허공보 특개2012-095730호(2012.05.24.)
본 발명은 사용자가 화장 시 볼터치 위치의 영상분석을 제공하고 가이드를 제공함으로써, 사용자가 신속하고 정확하게 화장 동작을 실시할 수 있도록 도움을 줄 수 있는 인체 정보 분석장치 및 볼터치 분석방법을 제공한다.
본 발명의 실시예에서, 본 발명의 일 실시예에서, 상기 볼터치 분석방법은
a) 상기 인체 정보 분석장치의 영상 캡쳐 모듈이 외부 영상을 캡쳐하는 단계;
b) 상기 인체 정보 분석장치의 처리유닛이 상기 외부 영상 중 사람의 얼굴을 인식 시, 상기 얼굴의 각 부위에 대해 위치를 결정하고, 또한 상기 얼굴의 얼굴형을 판단하는 단계;
c) 상기 처리유닛이 상기 얼굴의 얼굴형에 따라 대응하는 위치결정 프로세스를 실행하여, 상기 얼굴에서 좌측 볼터치의 위치 및 우측 볼터치의 위치를 찾는 단계;
d) 상기 처리유닛이 상기 좌측 볼터치의 제1 평균 색상 수치와 상기 우측 볼터치의 제2 평균 색상 수치를 분석하는 단계;
e) 상기 제1 평균 색상 수치 및 상기 제2 평균 색상 수치를 사전설정 색상 수치와 비교하거나, 또는 상기 제1 평균 색상 수치를 상기 제2 평균 색상 수치와 상호 비교하여 비교 결과를 생성하는 단계; 및
f) 상기 인체 정보 분석장치의 디스플레이 모듈이 상기 비교 결과를 디스플레이하는 단계를 포함한다.
본 발명의 일 실시예에서, 상기 인체 정보 분석장치는
외부 영상을 캡쳐하기 위한 영상 캡쳐 모듈;
디스플레이 모듈; 및
상기 영상 캡쳐 모듈 및 상기 디스플레이 모듈에 전기적으로 연결되어, 상기 외부 영상을 식별하고, 상기 외부 영상 중 사람의 얼굴이 인식된 경우 상기 얼굴의 각 부위에 대해 위치결정을 실시하고 상기 얼굴의 얼굴형을 판단하는 처리유닛을 포함하며;
그 중, 상기 처리유닛은 상기 얼굴의 얼굴형에 따라 대응되는 위치결정 프로세스를 실행하여, 상기 얼굴에서 좌측 볼터치의 위치 및 우측 볼터치의 위치를 찾고, 이어서 상기 좌측 볼터치의 제1 평균 색상 수치와 상기 우측 볼터치의 제2 평균 색상 수치를 분석한 다음, 상기 제1 평균 색상 수치 및 상기 제2 평균 색상 수치를 사전설정 색상 수치와 비교하거나, 또는 상기 제1 평균 색상 수치를 상기 제2 평균 색상 수치와 상호 비교하여 비교 결과를 생성하며;
그 중, 상기 디스플레이 모듈은 상기 비교 결과를 디스플레이한다.
관련 기술과 비교하여 본 발명이 달성할 수 있는 기술 효과는, 사용자가 인체 정보 분석장치를 통해 화장 동작을 실시 시, 자신의 얼굴 모습을 볼 수 있는 이외에, 볼터치 위치의 영상 분석을 직접 획득할 수도 있어, 보다 신속하고 정확하게 화장 동작을 실시할 수 있도록 하는데 있다.
도 1은 본 발명의 제1 구체적인 실시예의 시스템 구조도이다.
도 2는 본 발명의 제1 구체적인 실시예의 분석장치 설명도이다.
도 3은 본 발명의 제1 구체적인 실시예의 분석장치 설명도이다.
도 4는 본 발명의 제1 구체적인 실시예의 분석장치 블록도이다.
도 5는 본 발명의 제1 구체적인 실시예의의 처리유닛 설명도이다.
도 6a는 본 발명의 제1 구체적인 실시예의 제1 볼터치 분석 흐름도이다.
도 6b는 본 발명의 제1 구체적인 실시예의 제2 볼터치 분석 흐름도이다.
도 6c는 본 발명의 제1 구체적인 실시예의 제3 볼터치 분석 흐름도이다.
도 7은 얼굴부 위치결정 설명도이다.
도 8a는 본 발명의 제1 구체적인 실시예의 볼터치 위치결정 흐름도이다.
도 8b는 본 발명의 제1 구체적인 실시예의 볼터치 위치 설명도이다.
도 9a는 본 발명의 제2 구체적인 실시예의 볼터치 위치결정 흐름도이다.
도 9b는 본 발명의 제2 구체적인 실시예의 볼터치 위치 설명도이다.
도 10a는 본 발명의 제3 구체적인 실시예의 볼터치 위치결정 흐름도이다.
도 10b는 본 발명의 제3 구체적인 실시예의 볼터치 위치 설명도이다.
도 11a는 본 발명의 제4 구체적인 실시예의 볼터치 위치결정 흐름도이다.
도 11b는 본 발명의 제4 구체적인 실시예의 볼터치 위치 설명도이다.
도 12는 본 발명의 제1 구체적인 실시예의 사전설정 수치 분석 흐름도이다.
도 13은 본 발명의 제3 구체적인 실시예의 분석장치 설명도이다.
본 발명의 바람직한 실시예에 대하여 도면을 결합하여, 아래와 같이 상세히 설명한다.
도 1을 참조하면, 본 발명의 제1 구체적인 실시예의 시스템 구조도이다. 본 발명은 인체 정보 분석장치(이하 분석장치(1)로 약칭함)를 공개하였으며, 상기 분석장치(1)는 주로 사용자가 신속하고 정확하게 볼터치 화장 동작을 실시하도록 도움을 주는 볼터치 분석 방법(이하 분석방법으로 약칭함)을 실행하기 위한 것이다.
일 실시예에서, 사용자는 전자장치(2)의 조작을 통해 분석장치(1)를 설정할 수 있다. 구체적으로, 분석장치(1)와 전자장치(2)가 동일한 무선 라우터(3)에 연결된 후, 분석장치(1)는 무선 라우터(3)를 통해 전자장치(2)와 무선으로 연결될 수 있다. 또한, 분석장치(1)와 전자장치(2)는 기타 무선통신 프로토콜을 통해 직접 페어링되거나 연결될 수도 있으며(예를 들어 블루투쓰 페어링, Zigbee 연결, 주파수 연결 등), 이를 통해 데이터, 명령과 신호를 상호 전달한다.
도 1에 도시된 바와 같이, 전자장치(2)에 소프트웨어(21)가 내장된다. 구체적으로, 소프트웨어(21)는 분석장치(1)와 상호 지원 가능한 소프트웨어(21)(예를 들어 분석장치(1)의 제조업체가 개발하여 제공하는 소프트웨어)이다. 본 발명에서, 사용자는 소프트웨어(21)에 대한 조작을 통해, 분석장치(1) 상의 각종 설정 동작을 완료할 수 있다(예를 들어 얼굴 정보 등록, 각종 사전설정값 설정 등).
일 실시예에서, 분석장치(1)는 소재 지역 중의 무선 라우터(3)에 연결되어, 무선 라우터(3)를 통해 인터넷(4)에 연결될 수 있다. 이에 따라, 분석장치(1)는 인터넷(4)을 통해 펌웨어의 업데이트, 데이터의 업로드와 다운로드 등 동작을 수행할 수 있다. 또한, 분석장치(1)는 인터넷(4)을 통해 사용자의 인체 정보를 원거리 컴퓨터 장치(미도시)로 전송하여, 사용자가 원격으로 조회하거나 또는 이를 통해 원격 백업 목적을 구현할 수도 있다.
도 2 및 도 3을 동시에 참조하면, 각각 본 발명의 제1 구체적인 실시예와 제2 구체적인 실시예의 분석장치 설명도이다. 본 발명의 분석장치(1)는 사용자(5)가 인체 정보(예를 들어 얼굴 부위, 목 부위, 손 부위의 피부 상황)를 탐지 및 분석하고, 또한 분석장치(1)를 통해 화장 동작에 도움을 주기 편리하도록, 주로 사용자(5)의 침실 또는 파우더룸에 설치된다.
분석장치(1)는 미러 스크린(11)을 구비한다. 분석장치(1)를 작동 시, 미러 스크린(11)을 통해 그래픽 사용자 인터페이스(graphical User Interface, GUI)를 디스플레이하고, 그래픽 사용자 인터페이스를 통해 사용자(5)와 상호작용한다. 한편, 분석장치(1)가 꺼지면, 미러 스크린(11)은 사용자(5)의 모습을 반사하는 단순한 거울로도 사용될 수 있다. 본 발명은 주로 분석장치(1)를 통해 사용자(5)의 화장 동작을 돕고자 하는 것이므로, 미러 스크린(11)은 사용자(5)의 모습을 반사함과 동시에 그래픽 사용자 인터페이스를 디스플레이할 수 있다. 이에 따라, 분석장치(1)는 사용자(5)가 화장 시 사용자(5)의 화장한 모습을 분석함과 동시에 도움(이후 상세히 설명한다)을 제공할 수 있다. 일 실시예에서, 미러 스크린(11)은 터치식 스크린일 수 있으며, 사용자(5)는 미러 스크린(11)을 통해 분석장치(1)에 자료 입력 동작을 수행할 수 있다.
분석장치(1)는 분석장치(1)에 설치되어 각도 조정을 받을 수 있는 영상 캡쳐 모듈(12)을 더 구비한다. 일 실시예에서, 영상 캡쳐 모듈(12)은 사용자(5)에 대해 고해상도 영상(예를 들어 얼굴 영상, 목 부위 영상, 손 부위 영상 등)을 촬영할 수 있으며, 분석장치(1)는 상기 영상을 통해 사용자(5)의 인체 정보 및 화장 진도를 분석할 수 있다. 또 다른 실시예에서, 영상 캡쳐 모듈(12)은 외부 정보(예를 들어 바코드, QR 코드 등)를 캡쳐하여 정보 내용을 통해 대응하는 자료를 획득할 수 있다.
분석장치(1)는 복수의 버튼(13)을 더 구비할 수 있다. 본 실시예에서, 복수의 버튼(13)은 실제 버튼(button)이거나 또는 터치 키(touch key)일 수 있으며, 이에 대해 한정하지 않는다. 사용자(5)는 버튼(13)을 트리거함으로써 상기 그래픽 사용자 인터페이스를 제어할 수 있으며(예를 들어 그래픽 사용자 인터페이스가 첫 페이지, 이전 페이지 또는 다음 페이지로 이동하도록 제어하는 등), 또는 분석장치(1)가 대응되는 기능(예를 들어 미러 스크린(11) 켜기, 미러 스크린(11) 끄기, 영상 캡쳐 모듈(12) 실행하기 등)을 신속하게 실행하도록 할 수 있다.
분석장치(1)는 분석장치(1)가 소재하는 환경의 환경 데이터를 감지하는 하나 또는 복수의 센서(14)(예를 들어 온도 센서, 습도 센서 등)를 더 구비하여, 사용자(5)의 인체 정보에 대한 분석장치(1)의 검출과 분석의 정확도를 높일 수 있다. 예를 들어 센서(14)가 초전형 적외선 센서(Pyroelectric Infrared Radial sensor, PIR sensor)인 경우, 수시로 사용자(5)가 분석장치(1)의 사용 영역에 진입하였음을 감지하여, 대기모드로부터 벗어나 영상 캡쳐 모드(12)를 작동시키고 사용자(5)의 얼굴 영상 촬영을 시도하는 등, 분석 플로우를 시작할 수 있다.
또 다른 실시예에서, 상기 센서(14)는 모션 센서(motion sensor)일 수도 있으며, 분석장치(1)는 모션 센서를 통해 사용자(5)의 손동작(예를 들어 좌측으로 휘두르거나, 우측으로 휘두르거나, 아래로 휘두르거나, 앞으로 밀거나 또는 뒤로 당기는 등)을 감지할 수 있다. 이와 같은 방식으로, 사용자(5)는 손동작을 통해 분석장치(1)에 데이터 입력 동작을 수행할 수 있으며, 상기 미러 스크린(11) 또는 버튼을 터치할 필요가 없어 지문의 잔류를 방지할 수 있다.
계속 도 4를 참조하면, 본 발명의 제1 구체적인 실시예의 분석장치 블록도이다. 도 4에 도시된 바와 같이, 분석장치(1)는 주로 처리유닛(10) 및 처리유닛(10)과 전기적으로 연결되는 디스플레이 모듈(111), 영상 캡쳐 모듈(12), 입력 인터페이스(15) 및 무선전송 모듈(16)을 포함한다.
일 실시예에서, 영상 캡쳐 모듈(12)은 외부 영상과 외부 정보를 캡쳐하기 위한 카메라이다. 분석장치(1)는 외부 영상을 통해 사용자를 인식하여(예를 들어 얼굴 인식, 목 부위 인식, 손 부위 인식 등), 사용자의 얼굴, 목, 손 등 부위를 분석할 수 있다. 또한, 분석장치(1)는 외부 정보의 내용을 통해 대응되는 동작을 실행할 수도 있다.
디스플레이 모듈(111)은 상기 그래픽 사용자 인터페이스를 디스플레이하기 위한 것이다. 일 실시예에서, 디스플레이 모듈(111)은 상기 미러 스크린(11)에 장착된다. 디스플레이 모듈(111)이 활성화(enable) 되었을 때, 디스플레이 모듈(111)의 광원이 미러 스크린(11)을 투과하여 그래픽 사용자 인터페이스를 미러 스크린(11)에 디스플레이할 수 있고, 디스플레이 모듈(111)이 비활성화되었을 때, 사용자는 미러 스크린(11)을 일반 거울로 사용할 수 있다. 일 실시예에서, 분석장치(1)는 디스플레이 모듈(111)의 광원 강도 또는 디스플레이 영역을 조정하여, 미러 스크린(11)이 사용자의 영상을 반사함과 동시에 그래픽 사용자 인터페이스를 디스플레이하도록 할 수도 있다.
분석장치(1)는 입력 인터페이스(15)를 통해 사용자의 외부 입력을 수신하며, 이를 통해 사용자는 그래픽 사용자 인터페이스와 상호작용하거나, 또는 필요한 설정 동작을 수행할 수 있다. 일 실시예에서, 입력 인터페이스(15)는 사용자의 손동작 입력을 감지하기 위한 상기 센서(14)일 수 있고, 다른 실시예에서, 입력 인터페이스(15)는 외부 영상 또는 외부 정보를 캡쳐하기 위한 영상 캡쳐 모듈(12)일 수 있다. 또 다른 실시예에서, 입력 인터페이스(15)는 사용자의 입력 동작을 수신하기 위한 터치 스크린 또는 버튼(13)일 수 있고, 또 다른 실시예에서, 입력 인터페이스(15)는 외부 음성정보를 수신하기 위한 마이크일 수 있다.
무선전송 모듈(16)은 인터넷(4)에 연결하기 위한 것이다. 구체적으로, 사용자는 인터넷(4)을 통해 분석장치(1)에 원격으로 연결되어, 분석장치(1)에 기록된 각종 정보(예를 들어 인체 정보)를 수시로 검색할 수 있다.
처리유닛(10)은 디스플레이 모듈(111), 영상 캡쳐 모듈(12), 입력 인터페이스(15) 및 무선전송 모듈(16)과 연결되고, 또한 처리유닛(10)은 컴퓨터 실행코드(미도시)를 포함한다. 컴퓨터 실행코드의 실행을 통해, 처리유닛(10)은 본 발명의 분석방법을 더 구현할 수 있다.
도 5를 동시에 참조하면, 본 발명의 제1 구체적인 실시예의 처리유닛 설명도이다. 구체적으로, 처리유닛(10)은 주로 상기 컴퓨터 실행코드를 통해 본 발명의 분석방법 중의 각 기능을 구현하며, 또한 상이한 기능에 따라, 상기 컴퓨터 실행코드를 이하 몇 가지 기능 모듈로 구분할 수 있다.
1. 영상 캡쳐 모듈(12)이 캡쳐한 외부 영상을 인식하여 외부 영상 중 사람의 얼굴이 존재하는지 여부를 판단하기 위한 얼굴 인식 모듈(101);
2. 알고리즘을 통해 외부 영상 중의 얼굴에 대해 위치결정을 수행하여 얼굴의 각 부위의 위치를 획득하고, 또한, 상기 얼굴의 얼굴형을 더 판단할 수 있는 위치결정 모듈(102);
3. 위치결정 모듈(102)이 판단한 얼굴형에 따라 대응되는 위치결정 프로세스를 실행하여, 상기 얼굴에서 정확한 볼터치 위치를 찾는 판단모듈(103);
4. 찾아낸 볼터치 위치에 대해 영상 분석을 실시하여 사용자의 현재 볼터치 상황(좌측 볼터치 상황과 우측 볼터치 상황 포함, 예를 들어 색상 밝기, 색상 분포 등)을 획득하는 분석 모듈(104); 및
5. 사용자의 현재의 좌측 볼터치 상황과 우측 볼터치 상황을 비교하고, 사용자에게 비교결과(예를 들어 좌측 볼터치 색상이 우측 볼터치 색상보다 밝다거나, 볼터치 색상이 균형적이지 않다는 등)를 고지하여, 이를 통해 사용자에게 화장 보조 역할을 제공하는 비교모듈(105).
또 다른 실시예에서, 비교 모듈(105)은 사용자의 현재의 볼터치 상황을 사전설정 수치와 비교하되, 사용자의 좌측 볼터치를 우측 볼터치와 비교하지 않을 수 있다(이후 상세히 설명한다). 이에 따라, 화장이 완료된 볼터치가 바람직한 양태 (즉, 사용자가 선택한 양태 또는 분석장치(1)가 미리 설정한 양태)에 부합되도록 할 수 있다.
본 실시예에서, 상기 위치결정 모듈(102)은 위치결정이 완료된 후, 적어도 타원형 얼굴, 원형 얼굴, 사각형 얼굴, 장형 얼굴, 역삼각형 얼굴 및 마름모형 얼굴 등 6종 얼굴형을 인식할 수 있으나, 단 이로써 한정되지 않는다.
상기 판단 모듈(103)은 상기 얼굴이 타원형으로 인식된 경우 제1 위치결정 프로세스를 실행하여, 얼굴에서 볼터치 위치(좌측 볼터치 위치와 우측 볼터치 위치 포함)를 찾고; 상기 얼굴이 원형 얼굴 또는 사각형 얼굴로 인식된 경우 제2 위치결정 프로세스를 실행하여, 얼굴에서 볼터치 위치를 찾으며; 상기 얼굴이 장형 얼굴로 인식된 경우 제3 위치결정 프로세스를 실행하여, 얼굴에서 볼터치 위치를 찾고; 상기 얼굴이 역삼각형 얼굴 또는 마름모형 얼굴로 인색된 경우 제4 위치결정 프로세스를 실행하여, 얼굴에서 볼터치 위치를 찾을 수 있다. 다만, 상기 내용은 단지 본 발명의 몇 가지 구체적인 실시예일뿐, 결코 본 특허 출원 범위를 제한하기 위한 것이 아니다.
사용자가 분석장치(1)와 마주할 때, 분석장치(1)는 영상 캡쳐 모듈(12)을 통해 사용자를 포함한 외부 영상을 획득할 수 있다. 이어서, 분석장치(1)는 처리유닛(10)의 얼굴 인식 모듈(101)을 통해 외부 영상 중의 사람의 얼굴 영상을 추출하고, 처리유닛(10)의 위치결정 모듈(102)을 통해 상기 얼굴 영상의 얼굴형을 인식한다. 이어서, 분석장치(1)는 다시 처리유닛(10)의 판단모듈(103)을 통해 얼굴형에 대응되는 위치결정 프로세스를 실행하여, 얼굴 영상에서 볼터치 위치를 찾아낼 수 있다.
이어서, 분석장치(1)는 다시 처리유닛(10)의 분석모듈(104)을 통해 알고리즘을 실행하여, 상기 얼굴 영상 중의 좌측 볼터치 상황과 우측 볼터치 상황을 분석한다. 또한, 분석장치(1)는 다시 처리유닛(10)의 비교모듈(105)을 통해 좌측 볼터치 상황과 우측 볼터치 상황을 비교한다.
비교 완료 후, 분석장치(1)는 미러 스크린(11)을 통해 사용자의 얼굴 영상을 반사함과 동시에, 디스플레이 모듈(111)을 통해 비교모듈(105)의 비교 결과를 디스플레이할 수 있다. 이와 같은 방식으로, 사용자는 미러 스크린(11) 상의 얼굴 영상 및 비교 결과를 통해 볼터치 화장을 할 수 있다.
도 6a, 도 6b 및 도 6c를 계속 참조하면, 각각 본 발명의 제1 구체적인 실시예의 제1 볼터치 분석 흐름도, 제2 볼터치 분석 흐름도 및 제3 볼터치 분석 흐름도이다. 도 6a 내지 도 6c는 본 발명의 분석방법의 각 단계를 설명하기 위한 것이며, 또한 주로 도 1 내지 도 5에 도시된 분석장치(1)에 응용된다. 구체적으로, 본 발명의 분석장치(1)는 처리유닛(10)을 통해 상기 컴퓨터 실행코드(즉, 상기 각 기능모듈(101)~(105))를 실행함으로써, 하기의 각 단계를 구현한다.
도 6a에 도시된 바와 같이, 본 발명의 분석장치(1)를 통해 상기 분석방법을 실행하여 사용자의 화장 동작을 돕기 위해서는, 먼저 사용자가 분석장치(1)를 작동시켜야 한다(단계 S10). 일 실시예에서, 사용자는 터치 스크린 또는 버튼(13)을 트리거하여 분석장치(1)를 작동시킬 수 있다. 또 다른 실시예에서, 분석장치(1)는 통전 후 자동으로 대기모드로 진입하여, 사용자가 영상 캡쳐 모듈(12) 또는 센서(14)를 통해 손동작을 입력하여 분석장치(1)를 작동시킬 수도 있으며, 이에 대해 제한하지 않는다.
구체적으로, 본 발명 중 분석장치(1)는 상이한 기능을 제공하기 위한 상이한 모드를 구비하며, 본 실시예에서는 분석장치(1)가 작동된 후 자동으로 사용자의 화장 동작을 돕는 보조모드로 진입한다. 기타 실시예에서, 분석장치(1)는 작동 후 대기모드로 진입하고, 사용자의 명령을 수신한 후, 보조모드로 진입하도록 할 수도 있다.
분석장치(1)가 작동된 후, 즉 영상 캡쳐 모듈(12)이 지속적으로 외부 영상을 캡쳐하고(단계 S12), 또한, 처리유닛(10)이 지속적으로 캡쳐된 외부 영상에 사람의 얼굴이 존재하는지 여부를 판단한다(단계 S14). 일 실시예에서, 처리유닛(10)은 영상 캡쳐 모듈(12)이 외부 영상을 획득하고, 상기 얼굴 인식 모듈(101)이 외부 영상에 대해 얼굴 인식을 수행하여 외부 영상에 사람의 얼굴이 존재하는지 여부를 판단한다.
외부 영상에 사람의 얼굴이 존재하지 않을 경우, 즉 분석장치(1)는 단계 S12를 재실행하여, 지속적으로 외부 영상의 캡쳐와 분석을 수행한다. 예를 들어, 외부 영상에 침대, 문, 의자 등 물체(침실에 사람이 없음을 나타낸다)가 존재하거나, 또는 사용자의 신체 또는 등 부위(사용자가 화장 동작을 하지 않음을 나타낸다)만 존재할 가능성이 있으며, 이 경우, 분석장치(1)는 본 발명의 분석방법을 주동적으로 실행하지 않는다.
이어서 도 6b에 도시된 바와 같이, 처리유닛(10)이 인식을 거친 후, 외부 영상에 사람의 얼굴이 존재한다고 판단한 경우, 얼굴의 각 부위(주로 사용자의 오관)에 대해 위치결정을 수행하고, 또한 상기 얼굴의 얼굴형을 판단한다(단계 S16). 일 실시예에서, 처리유닛(10)은 외부 영상에 얼굴이 존재한다고 판단 후, 얼굴의 크기가 특정 비율보다 큰지 여부를 더 판단한다(예를 들어 외부 영상의 40% 이상 차지). 또한, 처리유닛(10)은 얼굴의 크기가 특정 비율보다 큰 경우에만 얼굴의 각 부위에 대해 위치결정을 수행하고, 또한 얼굴의 얼굴형을 판단한다.
일 실시예에서, 처리유닛(10)은 외부 영상에 얼굴이 존재한다고 판단한 후, 얼굴 영상을 상기 위치결정 모듈(102)로 전달하고, 위치결정 모듈(102)이 상기 얼굴에 대해 위치결정을 수행하며, 또한 얼굴의 얼굴형을 인식한다. 본 실시예에서, 위치결정 모듈(102)은 상기 얼굴 상의 각 부위의 위치, 비율 등 파라미터에 따라 얼굴형의 판단을 수행할 수 있으며, 또한 적어도 타원형 얼굴, 원형 얼굴, 사각형 얼굴, 장형 얼굴, 역삼각형 얼굴 및 마름모형 얼굴 등 6종 얼굴형을 인식할 수 있다.
언급해두어야 할 점으로, 본 실시예에서, 위치결정 모듈(102)은 주로 Dlib Face Landmark 시스템을 통해 얼굴 상의 각 부위에 대해 위치결정을 수행할 수 있으나, 단 이에 대해 한정하지 않는다.
도 7을 동시에 참조하면, 얼굴 부위의 위치결정 설명도이다. 처리유닛(10)이 외부 영상에 얼굴이 존재한다고 인식한 후, 또한 상기 Dlib Face Landmark 시스템을 통해 얼굴부(51)의 영상에 대해 분석을 실시할 수 있다. Dlib Face Landmark 시스템은 본 기술 분야에서 상용하는 기술 수단이며, 분석이 완료된 후, 얼굴부(51)의 영상 중 복수의 위치결정점(6)(예를 들어 198개의 위치결정점일 수 있다)이 생성된다. 이에 따라, Dlib Face Landmark 시스템은 복수의 위치결정점(6)의 번호, 형상, 배열 순서 등 정보에 따라 얼굴부(51)의 영상 중 각 부위의 위치를 확정하여 상기 위치결정 동작을 완료할 수 있다.
또한, 상기 위치결정 모듈(102)은 복수의 위치결정점(6)의 위치에 따라 얼굴부(51)의 각 부위의 위치와 비율 관계를 확인함으로써, 얼굴부(51)의 얼굴형을 확인할 수도 있다.
도 6b로 되돌아가, 단계 S16 이후, 처리유닛(10)은 상기 얼굴이 어느 얼굴형에 속하는지 알 수 있으며, 또한 얼굴형에 따라 대응되는 위치결정 프로세스를 사용하여, 상기 얼굴에서 볼터치 위치를 찾고, 사용자의 현재 볼터치 상황에 대해 분석할 수 있다. 본 발명에서, 처리유닛(10)은 상기 얼굴이 타원형 얼굴이라 판단 시 제1 위치결정 프로세서를 실행하고, 상기 얼굴이 원형 얼굴 또는 사각형 얼굴이라 판단 시 제2 위치결정 프로세스를 실행하며, 상기 얼굴이 장형 얼굴이라 판단 시 제3 위치결정 프로세스를 실행하고, 상기 얼굴이 역삼각형 얼굴 또는 마름모형 얼굴이라 판단 시 제4 위치결정 프로세스를 실행한다.
제1 실시예에서, 처리유닛(10)은 식별 후 생성된 얼굴형 정보를 상기 판단 모듈(103)로 전달하고, 판단모듈(103)은 상기 얼굴이 타원형 얼굴로 판단된 경우 제1 위치결정 프로세스를 실행하여, 제1 위치결정 프로세스를 통해 상기 얼굴에서 볼터치 위치를 찾는다(단계 S18). 본 실시예 중 상기 볼터치 위치는 얼굴 상의 좌측 볼터치 위치 및 우측 볼터치 위치를 포함한다.
제2 실시예에서, 처리유닛(10)은 인식 후 생성된 얼굴형 정보를 상기 판단 모듈(103)로 전달하고, 판단모듈(103)은 상기 얼굴이 원형 얼굴 또는 사각형 얼굴로 판단된 경우 제2 위치결정 프로세스를 실행하여, 제2 위치결정 프로세스를 통해 상기 얼굴에서 볼터치 위치를 찾는다(단계 S20).
제3 실시예에서, 처리유닛(10)은 인식 후 생성된 얼굴형 정보를 상기 판단 모듈(103)로 전달하고, 판단모듈(103)은 상기 얼굴이 장형 얼굴로 판단된 경우 제3 위치결정 프로세스를 실행하여, 제3 위치결정 프로세스를 통해 상기 얼굴에서 볼터치 위치를 찾는다(단계 S22).
제4 실시예에서, 처리유닛(10)은 인식 후 생성된 얼굴형 정보를 상기 판단 모듈(103)로 전달하고, 판단모듈(103)은 상기 얼굴이 역삼각형 얼굴 또는 마름모형 얼굴로 판단된 경우 제4 위치결정 프로세스를 실행하여, 제4 위치결정 프로세스를 통해 상기 얼굴에서 볼터치 위치를 찾는다(단계 S24).
언급해두어야 할 점으로, 본 발명의 목적 중 하나는 사용자의 볼터치 화장 동작을 돕는 것이므로, 볼터치 위치 찾기가 완료된 후, 분석장치(1)는 선택적으로 상기 디스플레이 모듈(111)(및 상기 미러 스크린(11))을 통해 상기 얼굴의 영상 및 볼터치 위치의 표시를 디스플레이하고(단계 S26), 또한 볼터치 위치의 표시를 얼굴의 영상과 중첩시킬 수 있다. 이와 같은 방식으로, 사용자는 직접 미러 스크린(11)에서 상기 볼터치를 어느 위치에 그려야 하는지 알 수 있다.
이어서 도 6c를 참조하면, 처리유닛(10)은 좌측 볼터치 영상 및 우측 볼터이 영상에 따라 좌측 볼터치의 제1 평균 색상 수치 및 우측 볼터치의 제2 평균 색상 수치를 분석한다(단계 S28).
일 실시예에서, 처리유닛(10)은 단계 S18, 단계 S20, 단계 S22 또는 단계 S24에서 획득한 볼터치 위치에 따라 얼굴의 영상으로부터 좌측 볼터치 영상 및 우측 볼터치 영상을 획득하고, 또한 좌측 볼터치 영상 및 우측 볼터치 영상을 각각 상기 분석 모듈(104)로 전달하여, 분석 모듈(104)을 통해 좌측 볼터치의 제1 평균 색상 수치 및 우측 볼터치의 제2 평균 색상 수치를 분석한다. 본 실시예에서, 분석 모듈(104)은 관련 기술 중의 다양한 영상 분석 알고리즘을 이용하여, 좌측 볼터치 영상을 통해 상기 제1 평균 색상 수치를 분석하고, 우측 볼터치 영상을 통해 상기 제2 평균 색상 수치를 분석한다.
구체적으로, 상기 평균 색상 수치는 처리유닛(10)이 획득된 볼터치 영상을 상이한 색 공간 포맷으로 표시 및 분석해 계산하는 것일 수 있다. 예를 들면, 상기 색 공간은 RGB 색 공간, HSV 색 공간, HSL 색 공간 등등일 수 있으며, 이에 대해 제한하지 않는다. 심지어, 처리유닛(10)이 채택한 분석방식의 필요를 바탕으로, 두 가지 색 공간 포맷을 이용하여 표시 및 분석할 수도 있고, 그 중 분량을 골라 분석할 수도 있다.
예를 들어, 컬러 영상의 색 공간 포맷이 HSV 색 공간이라 가정하면, 영상 중 각 화소의 색상은 '색상 분량(Hue)', '포화도 분량(Saturation)', '명도 분량(Value)'으로 표시할 수 있다. 컬러 영상의 색 공간 포맷이 RGB 색 공간이라 가정하면, 즉 영상 중 각 화소의 색상은 '적색 분량(Red)', '녹색 분량(Green)', '청색 분량(Blue)'으로 표시할 수 있다.
단계 S28 이후, 처리유닛(10)은 상기 제1 평균 색상 수치와 상기 제2 평균 색상 수치를 비교하여 비교 결과를 생성한다(단계 S30). 일 실시예에서, 처리유닛(10)은 직접 상기 제1 평균 색상 수치 및 제2 평균 색상 수치를 전술한 비교 모듈(105)로 전달하며, 비교 모듈(105)은 사용자의 현재의 좌측 볼터치 상황과 우측 볼터치 상황이 같거나 또는 유사한지 여부(색상, 밝기가 같거나 유사한지 여부)를 판단한다. 이에 따라, 사용자가 화장하는 볼터치의 좌우를 일치시킬 수 있다.
또 다른 실시예에서, 처리유닛(10)은 사정설정 색상 수치(좌측 볼터치에 대응하는 사전설정 색상 수치 및 우측 볼터치에 대응하는 사전설정 색상 수치 포함)를 획득하고, 또한 전술한 단계 S30에서, 처리유닛(10)은 비교 모듈(105)을 통해 상기 제1/제2 평균 색상 수치를 상기 사전설정 색상 수치와 비교할 수 있다. 이를 통해, 사용자는 현재의 볼터치 상황과 필요한 볼터치 상황(즉, 사전설정 색상 수치가 나타내는 상황)의 차이를 알 수 있다.
본 실시예에서, 처리유닛(10)은 상기 사전설정 색상 수치를 미리 저장하여, 단계 S30에서 상기 제1/제2 평균 색상 수치를 사전설정 색상 수치와 비교할 수 있다. 또한, 처리유닛(10)은 하나 또는 복수의 비교 영상(예를 들어 증강현실(Augmented Reality, AR))을 미리 저장하고, 단계 S30을 실행하기 전 먼저 비교 영상을 분석하여 상기 사전설정 색상 수치를 획득한 후, 이어서 단계 S30에서 상기 제1/제2 평균 색상 수치를 사전설정 색상 수치와 비교할 수도 있다.
또 다른 실시예에서, 사용자는 분석장치(1)가 미리 저장한 볼터치 제품 또는 볼터치 효과를 자체적으로 선택하거나, 또는 사용하고자 하는 볼터치 제품을 자체적으로 입력하여, 분석장치(1)가 대응 효과를 자동으로 생성하도록 할 수 있다. 상기 증강현실 영상은 분석장치(1)가 영상 캡쳐 모듈(12)을 통해 사용자의 현재 영상을 실시간으로 획득하고, 전술한 사용자가 자체적으로 선택한 효과를 사용자의 볼터치 위치 영상에 겹쳐놓는 것이다. 또한, 사용자는 상기 선택된 효과에 만족한 경우, 이러한 대응되는 효과 및 증강현실 영상을 선택하여 분석장치(1)에 저장할 수도 있다.
구체적으로, 상기 실시예에서, 분석장치(1)는 복수의 증강현실 영상을 생성 즉시 내장할 수 있으며, 사용자는 상기 입력 인터페이스(15)를 통해 복수의 증강현실 영상 중의 하나를 상기 비교 영상으로 선택할 수 있다. 또한, 사용자는 주변장치 또는 네트워크를 통해 좋아하는 비교 영상을 입력하고 분석장치(1)에 저장하여, 비교 영상의 종류와 수량을 추가할 수 있다. 본 실시예에서, 상기 비교 영상은 주로 각종 얼굴형에 대응하는 얼굴부 영상이다.
상기 사전설정 색상 수치는 예를 들어 표준 색상 또는 표준 밝기일 수 있다. 일 실시예에서, 사전설정 색상 수치는 처리유닛(10)이 전술한 비교 영상을 분석한 후 획득하며, 상기 표준 색상과 표준 밝기가 즉 비교 영상 중의 얼굴부 영상에 나타나는 색상과 밝기이다. 또 다른 실시예에서, 사전설정 색상 수치는 미리 분석장치(1)에 기록되며, 상기 표준 색상 또는 표준 밝기가 즉 미리 설정된 이상적인 색상과 밝기이다. 또 다른 실시예에서, 분석장치(1)는 인터넷(4)을 통해 사용자가 필요로 하는 화장 모습을 다운로드하고, 상기 다운로드된 화장 모습에 대해 영상 분석을 실시하여 상기 사전설정 색상 수치를 생성할 수도 있다.
단계 S30 이후, 분석장치(1)는 디스플레이 모듈(111)을 통해 상기 비교 결과를 미러 스크린(11)에 디스플레이하며(단계 S32), 사용자는 직접 미러 스크린(11)에서 현재의 볼터치 상황(예를 들어 좌측 볼터치 색상 밝기가 우측 볼터치의 색상 밝기보다 크다거나, 우측 볼터치의 색상 밝기가 표준 밝기보다 높다는 등)을 획득하고, 이를 통해 분석장치(1)로부터 화장의 도움을 받을 수 있다.
일 실시예에서, 상기 제1 평균 색상 수치, 제2 평균 색상 수치와 사전설정 색상 수치는 0~255의 화소값이고, 비교 결과는 백분율이며, 또한 비교 모듈(105)은
Figure 112018004609462-pat00001
의 계산식에 따라 비교 결과를 생성하거나, 또는
Figure 112018004609462-pat00002
의 계산식에 따라 비교 결과를 생성한다. 다만, 상기 내용은 단지 본 발명 중의 하나의 실시예일뿐이나, 결코 이로써 한정되지 않는다.
일 실시예에서, 처리유닛(10)은 또한 좌측 볼터치 영상 및 우측 볼터치의 영상에 따라 좌측 볼터치의 제1 표준차(Standard Deviation, SD) 및 우측 볼터치의 제2 표준차를 분석한다(단계 S34).
일 실시예에서, 처리유닛(10)은 좌측 볼터치의 영상 및 우측 볼터치의 영상을 전술한 분석 모듈(104)로 전달하여, 분석 모듈(104)이 상기 제1 표준차와 제2 표준차를 분석한다. 마찬가지로, 분석 모듈(104)은 관련 기술 중의 다양한 영상 분석 알고리즘을 이용하여, 좌측 볼터치의 영상을 통해 상기 제1 표준차를 분석하고 우측 볼터치의 영상을 통해 상기 제2 표준차를 분석할 수 있다.
단계 S34 이후, 처리유닛(10)은 상기 제1 표준차를 상기 제2 표준차와 비교하여, 제2 비교 결과를 생성한다(단계 S36). 일 실시예에서, 처리유닛(10)은 직접 상기 제1 표준차 및 제2 표준차를 전술한 비교 모듈(105)로 전송하고, 비교 모듈(105)이 사용자의 현재의 좌측 볼터치의 분포 상황과 우측 볼터치의 분포 상황이 같거나 또는 유사한지 여부(분포가 균일한지 여부)를 판단한다.
또 다른 실시예에서, 처리유닛(10)은 분석모듈(104)이 상기 비교 영상에 대해 영상분석을 실시하여 사전설정 표준차(좌측 볼터치에 대응하는 사전설정 표준차와 우측 볼터치에 대응하는 사전설정 표준차 포함)를 추출하고, 전술한 비교 모듈(105)이 상기 제1/제2 표준차를 사전설정 표준차와 비교하여 상기 제2 비교 결과를 생성한다.
또 다른 실시예에서, 처리유닛(10)은 전술한 비교 모듈(105)이 사전설정 표준차를 미리 저장하고, 단계 S34 이후 상기 제1 표준차, 제2 표준차를 비교 모듈(105)로 전달한다. 이에 따라, 비교 모듈(105)은 제1/제2 표준차를 미리 저장한 사전설정 표준차와 비교하여 상기 제2 비교 결과를 생성한다.
단계 S36 이후, 분석장치(1)는 디스플레이 모듈(111)을 통해 상기 제2 비교 결과를 미러 스크린(11)에 디스플레이하여(단계 S38), 사용자가 직접 현재의 볼터치 상황이 균일하지 못한 현상이 있는지 여부를 살펴보고 추가적으로 수정할 수 있게 한다.
언급해두어야 할 점으로, 단계 S28 내지 단계 S32와 단계 S34 내지 단계 S38은 실행상에 순서 관계가 없으며, 분석장치(1)는 선택적으로 상기 비교 결과 또는 상기 제2 비교 결과를 먼저 계산하고 디스플레이하거나, 또는 멀티프로세싱을 통해 상기 비교결과 및 상기 제2 비교 결과를 동시에 계산하고 디스플레이할 수 있으며, 도 6c에 도시된 단계 순서에 한정되지 않는다.
일 실시예에서, 전술한 표준차는 상기 평균 색상 수치와 유사하여, 0~255의 화소값일 수 있고, 또한 제2 비교 결과는 전술한 비교 결과와 유사하여 백분율일 수 있다. 본 실시예에서, 비교 모듈(105)은
Figure 112018004609462-pat00003
의 계산식에 따라 제2 비교 결과를 생성하거나, 또는
Figure 112018004609462-pat00004
의 계산식에 따라 제2 비교 결과를 생성한다. 다만, 상기 내용은 본 발명 중의 일 실시예일뿐이며, 결코 이에 한정되지 않는다.
이어서, 분석장치(1)는 본 회의 보조 동작이 완료되었는지 여부를 판단하고(단계 S40), 보조 동작이 완료되기 전, 단계 S18 내지 단계 S38을 반복 실행하여, 좌측 볼터치 및 우측 볼터치의 위치 및 영상을 지속적으로 획득하고, 상기 제1 평균 색상 수치, 제2 평균 색상 수치, 제1 표준차와 제2 표준차를 지속적으로 분석하며, 비교 결과 및 제2 비교 결과를 지속적으로 비교, 생성 및 디스플레이한다. 분석장치(1)가 본 회의 보조 동작이 완료된 것으로 판단한 경우, 본 회의 분석방법을 종료한다. 상기 단계 S18 내지 단계 S38의 반복 실행을 통해, 본 발명의 분석장치(1)와 분석방법은 실시간(real time) 화장 보조 기능을 구현할 수 있다.
예를 들어 설명하면, 분석장치(1)가 사용자의 얼굴부(51)를 분석하여, 디스플레이되는 비교 결과가 사용자의 좌측 볼터치의 색상이 우측 볼터치의 색상보다 5% 어둡다고 나타나면, 비교 결과에 따라, 사용자는 좌측 볼터치를 보강할 수 있다. 사용자가 보강을 함과 동시에, 분석장치(1)는 지속적으로 사용자의 얼굴부(51)를 분석하고, 비교 결과를 수정하여 사용자의 좌측 볼터치의 색상이 우측 볼터치의 색상보다 3% 어둡다고 표시한다.
상기 비교 결과에 따라, 사용자는 계속 좌측 볼터치를 보강할 수 있으며, 또한 분석장치(1)는 지속적으로 사용자의 얼굴부(51)를 분석한다. 이어서, 분석장치(1)가 비교 결과를 재수정하여 사용자의 좌측 볼터치의 색상이 우측 볼터치의 색상보다 1.5% 어둡다고 표시하며, 이와 같이 유추한다. 이를 통해, 사용자는 좌측 볼터치와 우측 볼터치의 색상/밝기가 같거나 유사해질 때까지 지속적으로 볼터치를 보강할 수 있다.
일 실시예에서, 분석장치(1)는 단계 S40에서 상기 비교 결과(및 제2 비교 결과)가 화장 완성 표준에 부합되는지 여부를 판단한다. 예를 들어, 분석장치(1)는 전술한 비교 결과 및 제2 비교 결과에 따라 제1 평균 색상 수치와 제2 평균 색상 수치가 같거나 또는 유사한지, 및 제1 표준차와 제2 표준차가 같거나 또는 유사한지 여부를 판단할 수 있다. 또한, 분석장치(1)는 제1 평균 색상 수치가 제2 평균 색상 수치와 같거나 또는 유사하고, 또한 제1 표준차가 제2 표준차와 같거나 또는 유사한 경우, 상기 비교 결과(및 제2 비교 결과)가 화장 완성 표준에 부합한다고 판단한다.
또 다른 실시예에서, 분석장치(1)는 단계 S40에서 분석장치(1)가 꺼졌는지 여부를 판단한다. 본 실시예에서, 분석장치(1)가 꺼지기 전 단계 S18 내지 단계 S38을 반복 실행하며, 또한 꺼진 후 본 회의 분석방법을 종료한다. 이에 따라, 분석장치(1)는 기기가 켜진 후 상기 화장 보조 기능이 상주할 수 있다.
계속 도 8a와 도 8b를 동시에 참조하면, 각각 본 발명의 제1 구체적인 실시예의 볼터치 위치결정 흐름도와 볼터치 위치 설명도이다. 도 8a는 위치결정 모듈(102)이 전술한 단계 S16에서 사용자의 얼굴형이 타원형 얼굴이라 판단한 후, 판단모듈(103)이 상기 단계 S18에서 어떻게 상기 제1 위치결정 프로세스를 통해 볼터치 위치를 찾는지 추가적으로 설명하기 위한 것이다. 구체적으로, 상기 제1 위치결정 프로세스는 처리유닛(10)에 기록된 컴퓨터 실행코드로 구성되며, 판단모듈(103)이 제1 위치결정 프로세스를 실행 시, 도 8a에 도시된 각 단계를 실행할 수 있다.
이어서 도 8b를 결합하여 상기 제1 위치결정 프로세스를 다음과 같이 설명한다.
먼저, 판단 모듈(103)은 상기 얼굴의 눈 아래 위치로부터 제1 수평선(71)을 생성하고(단계 S180), 또한 제1 수평선(71)과 얼굴의 윤곽의 제1 교점(61)을 획득한다(단계 S182). 구체적으로, 상기 제1 교점(61)은 제1 수평선(71)과 얼굴의 좌측 윤곽의 교점 및 제1 수평선(71)과 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 판단 모듈(103)은 상기 제1 교점(61)으로부터 얼굴의 입꼬리 위치(81)를 연결하여 제1 보조선(91)을 획득한다(단계 S184). 구체적으로, 상기 제1 보조선(91)은 좌측 제1 교점으로부터 좌측 입꼬리까지 연결된 보조선 및 우측 제1 교점으로부터 우측 입꼬리까지 연결된 보조선을 포함한다.
이어서, 판단 모듈(103)은 상기 입꼬리 위치(81)로부터 제2 수평선(72)을 생성하며(단계 S186), 그 중 상기 제2 수평선(72)은 얼굴의 좌측 입꼬리 및 우측 입꼬리와 평행하다. 또한 판단 모듈(103)은 제2 수평선(72)과 얼굴 윤곽의 제2 교점(62)을 획득한다(단계 S188). 구체적으로, 상기 제2 교점(62)은 제2 수평선(72)과 얼굴의 좌측 윤곽의 교점 및 제2 수평선(72)과 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 판단 모듈(103)은 제2 교점(62)으로부터 얼굴의 아래 눈꺼풀 중간점 위치(82)를 연결하여 제2 보조선(92)을 획득한다(단계 S190). 구체적으로, 상기 제2 보조선(92)은 좌측 제2 교점으로부터 좌측 눈꺼풀까지 연결된 보조선 및 우측 제2 교점으로부터 우측 눈꺼풀까지 연결된 보조선을 포함한다.
마지막으로, 판단 모듈(103)은 얼굴의 코의 최저점 위치(83)로부터 제3 수평선을 생성하고, 제3 수평선을 제3 보조선(93)으로 삼는다(단계 S192). 구체적으로, 상기 제3 보조선(93)은 코로부터 좌측으로 연장되는 보조선 및 코로부터 우측으로 연장되는 보조선을 포함한다. 이에 따라, 판단 모듈(103)은 제1 보조선(91), 제2 보조선(92) 및 제3 보조선(93)으로 상기 얼굴에 볼터치 위치(A1)를 구성할 수 있다(단계 S194).
구체적으로, 본 실시예에서, 상기 볼터치 영역(A1)은 좌측에 위치한 제1 보조선(91), 제2 보조선(92) 및 제3 보조선(93)으로 구성되는 좌측 볼터치 위치(A1), 및 우측에 위치한 제1 보조선(91), 제2 보조선(92) 및 제3 보조선(93)으로 구성되는 우측 볼터치 위치(A1)를 포함한다. 더욱 구체적으로, 상기 볼터치 위치(A1)는 제1 보조선(91), 제2 보조선(92), 제3 보조선(93) 및 상기 얼굴의 윤곽으로 둘러싸인 영역이다.
계속 도 9a와 도 9b를 동시에 참조하면, 각각 본 발명의 제2 구체적인 실시예의 볼터치 위치결정 흐름도와 볼터치 위치 설명도이다. 도 9a는 위치결정 모듈(102)이 전술한 단계 S16에서 사용자의 얼굴형이 원형 또는 사각형 얼굴이라 판단한 후, 판단모듈(103)이 상기 단계 S20에서 어떻게 상기 제2 위치결정 프로세스를 통해 볼터치 위치를 찾는지 추가적으로 설명하기 위한 것이다. 구체적으로, 상기 제2 위치결정 프로세스는 처리유닛(10)에 기록된 컴퓨터 실행코드로 구성되며, 판단모듈(103)이 제2 위치결정 프로세스를 실행 시, 도 9a에 도시된 각 단계를 실행할 수 있다.
이어서 도 9b를 결합하여 상기 제2 위치결정 프로세스를 다음과 같이 설명한다.
먼저, 판단 모듈(103)이 상기 얼굴의 코의 최저점 위치(83)로부터 제1 수평선(71)을 생성한다(단계 S200). 이어서, 판단 모듈(103)은 사람의 눈 아래 위치로부터 제2 수평선(72)을 생성하고(단계 S202), 제2 수평선(72)과 얼굴 윤곽의 제1 교점(61)을 획득한다(단계 S204). 구체적으로, 상기 제1 교점(61)은 제2 수평선(72)과 얼굴의 좌측 윤곽의 교점 및 제2 수평선(72)과 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 판단 모듈(103)은 상기 제1 교점(61)으로부터 얼굴의 콧방울의 최고점 위치(84)를 연결하여, 제4 보조선(94)을 획득한다(단계 S206). 구체적으로, 상기 제4 보조선(94)은 좌측 제1 교점으로부터 좌측 콧방울까지 연결된 보조선 및 우측 제1 교점으로부터 우측 콧방울까지 연결된 보조선을 포함한다.
이어서, 판단 모듈(103)은 상기 제4 보조선(94)을 상기 제1 수평선(71)과 만나는 위치까지 하향 수평 이동시켜, 제5 보조선(95)을 획득한다(단계 S208). 구체적으로, 상기 제5 보조선(95)은 좌측의 제4 보조선(94)을 하향 수평 이동시켜 생성된 보조선 및 우측의 제4 보조선(94)을 하향 수평 이동시켜 생성된 보조선을 포함한다.
마지막으로, 판단 모듈(103)은 얼굴의 입꼬리 위치(81)로부터 수직선을 생성하고, 수직선을 제6 보조선(96)으로 삼는다(단계 S210). 구체적으로, 상기 제6 보조선(96)은 좌측 입꼬리로부터 수직으로 생성되는 보조선 및 우측 입꼬리로부터 수직으로 생성되는 보조선을 포함한다. 이에 따라, 판단 모듈(103)은 제4 보조선(94), 제5 보조선(95) 및 제6 보조선(96)으로 상기 얼굴에 볼터치 위치(A2)를 구성할 수 있다(단계 S212).
구체적으로, 본 실시예에서, 상기 볼터치 위치(A2)는 좌측에 위치한 제4 보조선(94), 제5 보조선(95) 및 제6 보조선(96)으로 구성된 좌측의 볼터치 위치(A2), 및 우측에 위치한 제4 보조선(94), 제5 보조선(95) 및 제6 보조선(96)으로 구성된 우측의 볼터치 위치(A2)를 포함한다. 더욱 구체적으로, 상기 볼터치 위치(A2)는 제4 보조선(94), 제5 보조선(95), 제6 보조선(96) 및 상기 얼굴 윤곽으로 둘러싸인 영역이다.
계속 도 10a와 도 10b를 동시에 참조하면, 각각 본 발명의 제3 구체적인 실시예의 볼터치 위치결정 흐름도와 볼터치 위치 설명도이다. 도 10a는 위치결정 모듈(102)이 전술한 단계 S16에서 사용자의 얼굴형이 장형 얼굴이라 판단한 후, 판단모듈(103)이 상기 단계 S22에서 어떻게 상기 제3 위치결정 프로세스를 통해 볼터치 위치를 찾는지 추가적으로 설명하기 위한 것이다. 구체적으로, 상기 제3 위치결정 프로세스는 처리유닛(10)에 기록된 컴퓨터 실행코드로 구성되며, 판단모듈(103)이 제3 위치결정 프로세스를 실행 시, 도 10a에 도시된 각 단계를 실행할 수 있다.
이어서 도 10b를 결합하여 상기 제3 위치결정 프로세스를 다음과 같이 설명한다.
먼저, 판단 모듈(103)이 얼굴의 눈 아래 위치로부터 제1 수평선을 생성하고, 제1 수평선을 제7 보조선(97)으로 삼는다(단계 S220). 구체적으로, 상기 제7 보조선(97)은 좌측 눈의 하부 가장자리로부터 좌측으로 연장되는 보조선 및 우측 눈의 하부 가장자리로부터 우측으로 연장되는 보조선을 포함한다. 이어서, 판단 모듈(103)은 얼굴의 콧방울의 최고점 위치(84)로부터 제2 수평선을 생성하고, 제2 수평선을 제8 보조선(98)으로 삼는다(단계 S222). 구체적으로, 상기 제8 보조선(98)은 좌측 콧방울로부터 좌측으로 연장되는 보조선 및 우측 콧방울로부터 우측으로 연장되는 보조선을 포함한다.
이어서, 판단 모듈(103)은 얼굴의 콧방울 외측 위치(85)로부터 수직선을 생성하고, 수직선을 제9 보조선(99)으로 삼는다(단계 S224). 구체적으로, 상기 제9 보조선(99)은 좌측 콧방울로부터 수직으로 생성되는 보조선, 및 우측 콧방울로부터 수직으로 생성되는 보조선을 포함한다. 이에 따라, 판단 모듈(103)은 제7 보조선(97), 제8 보조선(98) 및 제9 보조선(99)으로 상기 얼굴에 볼터치 위치(A3)를 구성할 수 있다(단계 S226).
구체적으로, 본 실시예에서, 상기 볼터치 위치(A3)는 좌측에 위치한 제7 보조선(97), 제8 보조선(98) 및 제9 보조선(99)으로 구성된 좌측의 볼터치 위치(A3), 및 우측에 위치한 제7 보조선(97), 제8 보조선(98) 및 제9 보조선(99)으로 구성된 우측의 볼터치 위치(A3)를 포함한다. 더욱 구체적으로, 상기 볼터치 위치(A3)는 제7 보조선(97), 제8 보조선(98), 제9 보조선(99) 및 상기 얼굴의 윤곽으로 둘러싸인 영역이다.
계속 도 11a와 도 11b를 동시에 참조하면, 각각 본 발명의 제4 구체적인 실시예의 볼터치 위치결정 흐름도와 볼터치 위치 설명도이다. 도 11a는 위치결정 모듈(102)이 전술한 단계 S16에서 사용자의 얼굴형이 역삼각형 또는 마름모형 얼굴이라 판단한 후, 판단모듈(103)이 상기 단계 S24에서 어떻게 상기 제4 위치결정 프로세스를 통해 볼터치 위치를 찾는지 추가적으로 설명하기 위한 것이다. 구체적으로, 상기 제4 위치결정 프로세스는 처리유닛(10)에 기록된 컴퓨터 실행코드로 구성되며, 판단모듈(103)이 제4 위치결정 프로세스를 실행 시, 도 11a에 도시된 각 단계를 실행할 수 있다.
이어서 도 11b를 결합하여 상기 제4 위치결정 프로세스를 다음과 같이 설명한다.
먼저, 판단 모듈(103)이 얼굴의 눈 아래 위치로부터 제1 수평선(71)을 생성하고(단계 S240), 또한 제1 수평선(71)과 얼굴 윤곽의 제1 교점(61)을 획득한다(단계 S242). 구체적으로, 상기 제1 교점(61)은 제1 수평선(71)과 얼굴의 좌측 윤곽의 교점 및 제1 수평선(71)과 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 판단 모듈(103)은 제1 교점(61)으로부터 얼굴의 콧방울의 최고점 위치(84)를 연결하여 제10 보조선(910)을 획득한다(단계 S244). 구체적으로, 상기 제10 보조선(910)은 좌측 교점으로부터 좌측 콧방울까지 연결된 보조선 및 우측 교점으로부터 우측 콧방울까지 연결된 보조선을 포함한다.
이어서, 판단 모듈(103)은 얼굴의 눈썹산 위치(86)로부터 수직선을 생성하고, 수직선을 제11 보조선(911)으로 삼는다(단계 S246). 구체적으로 상기 제11 보조선(911)은 좌측 눈썹산으로부터 수직으로 생성되는 보조선 및 우측 눈썹산으로부터 수직으로 생성되는 보조선을 포함한다.
이어서, 판단 모듈(103)은 얼굴의 코의 최저점 위치(83)로부터 제2 수평선(72)을 생성하고(단계 S248), 또한 제2 수평선(72)과 얼굴 윤곽의 제2 교점(62)을 획득한다(단계 S250). 구체적으로, 상기 제2 교점(62)은 제2 수평선(72)과 얼굴의 좌측 윤곽의 교점 및 제2 수평선(72)과 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 판단 모듈(103)은 제2 교점(62)으로부터 상기 콧방울의 최고점 위치(84)를 연결하여 제12 보조선(912)을 획득한다(단계 S252). 구체적으로, 상기 제12 보조선(912)은 좌측 제2 교점으로부터 좌측 콧방울까지 연결된 보조선 및 우측 제2 교점으로부터 우측 콧방울까지 연결된 보조선을 포함한다. 이에 따라, 판단 모듈(103)은 제10 보조선(910), 제11 보조선(911) 및 제12 보조선(912)으로 상기 얼굴에 볼터치 위치(A4)를 구성할 수 있다(단계 S254).
구체적으로, 본 실시예에서, 상기 볼터치 위치(A4)는 좌측에 위치한 제10 보조선(910), 제11 보조선(911) 및 제12 보조선(912)으로 구성되는 좌측의 볼터치 위치(A4), 및 우측에 위치한 제10 보조선(910), 제11 보조선(911) 및 제12 보조선(912)으로 구성되는 우측의 볼터치 위치(A4)를 포함한다. 더욱 구체적으로, 상기 볼터치 위치(A4)는 제10 보조선(910), 제11 보조선(911), 제12 보조선(912) 및 상기 얼굴의 윤곽으로 둘러싸인 영역이다.
처리유닛(10)이 전술한 볼터치 위치(A1-A4) 중의 하나를 찾은 후, 분석장치(1)는 전술한 단계 S26를 계속 실행하여, 미러 스크린(11)에 상기 얼굴 및 상기 볼터치 위치(A1-A4)의 표시를 디스플레이하고, 또한 볼터치 상황에 대해 분석과 비교를 더 실시할 수 있다.
상기한 바와 같이, 본 발명에서, 분석장치(1)의 처리유닛(10)은 직접 사용자의 좌측 볼터치와 우측 볼터치를 비교할 수 있으며, 사용자의 볼터치(좌측 볼터치와 우측 볼터치)를 미리 저장된 사전설정 데이터와 비교하거나, 또는 선택된 비교 영상(예를 들어 증강현실 영상)과 비교할 수도 있다.
도 12를 참조하면, 본 발명의 제1 구체적인 실시예의 사전설정 수치 분석 흐름도이다. 도 12는 상기 사전설정 색상 수치 및 사전설정 표준차에 대해 더욱 구체적으로 설명하기 위한 것이다.
본 실시예에서, 분석장치(1)는 처리유닛(10)을 통해 미리 저장된 복수의 비교 영상 중의 하나를 독취한다(단계 S50). 이어서, 위치결정 모듈(102)이 선택된 비교 영상에 대해 위치결정과 분석을 실시한 다음, 판단 모듈(103)이 비교 영상 중의 좌측 볼터치 영상과 우측 볼터치 영상을 획득한다(단계 S52).
이어서, 처리유닛(10)은 분석 모듈(104)을 통해 좌측 볼터치의 영상과 우측 볼터치의 영상을 분석하여, 각각 좌측 볼터치의 평균 색상 수치와 우측 볼터치의 평균 색상 수치를 획득하고, 획득된 평균 색상 수치를 상기 사전설정 색상 수치로 삼는다(단계 S54). 이밖에, 처리유닛(10)은 또한 분석 모듈(104)을 통해 좌측 볼터치와 우측 볼터치의 표준차를 획득하고, 획득된 표준차를 상기 사전설정 표준차로 삼는다(단계 S56). 본 실시예에서, 분석 모듈(104)은 관련 기술 중의 하나 또는 다수의 영상 분석 알고리즘을 이용하여, 좌측 볼터치의 영상과 우측 볼터치의 영상을 통해 상기 사전설정 색상 수치 및 사전설정 표준차를 분석할 수 있다.
본 발명의 일 실시예에서, 사용자는 화장 전 먼저 분석장치(1)를 조작하여, 분석장치(1)가 디스플레이 모듈(111)에 복수의 비교 영상을 디스플레이하도록 하고, 입력 인터페이스(15)를 통해 그 중 하나를 선택할 수 있다. 이에 따라, 사용자는 화장 전, 먼저 미러 스크린(11)을 통해 선택한 비교 영상을 살펴봄으로써, 볼터치 화장이 완료된 후의 모양을 확인하고, 현재 디스플레이되는 비교 영상을 채택할 것인지 여부를 결정할 수 있다. 이와 같은 방식으로, 분석장치(1)는 상기 보조 모드에서 사용자의 현재의 볼터치를 선택된 비교 영상과 비교하여, 사용자가 비교 영상과 동일한 볼터치를 신속하게 완료할 수 있도록 도움을 줄 수 있다.
계속 도 13을 참조하면, 본 발명의 제3 구체적인 실시예의 분석장치 설명도이다. 앞에서 설명한 바와 같이, 본 발명 중 분석장치(1)는 사용자(5)의 얼굴부 영상을 실시간으로 캡쳐하여, 사용자(5)의 현재의 좌측 볼터치와 우측 볼터치를 비교하고, 비교 결과를 미러 스크린(11)상의 정보 디스플레이 영역(1111)에 디스플레이한다. 분석장치(1)가 사용자의 현재 볼터치 상황을 비교 영상(110)과 비교할 경우, 즉 분석장치(1)는 또한 선택된 비교 영상(110)을 미러 스크린(11) 상의 영상 디스플레이 영역(1112), (1113)에 디스플레이하여, 사용자가 볼터치 화장 완료 후의 모습을 알 수 있게 한다.
구체적으로, 분석장치(1)는 복수의 비교 영상 중 사용자(5)가 선택한 비교 영상(110)을 독취하고, 처리를 거친 후(예를 들어 확대 처리), 디스플레이 모듈(111)이 영상 디스플레이 영역(1112), (1113)에 비교 영상(110)을 완전하게 디스플레이하거나, 또는 비교 영상(110)을 좌측 볼터치 위치/우측 볼터치 위치의 클로즈업 영상에 국부적으로 디스플레이하도록 제어한다.
도 13에 도시된 바와 같이, 미러 스크린(11)은 정보 디스플레이 영역(1111)을 더 구비하며, 분석장치(1)는 디스플레이 모듈(111)이 상기 비교 결과(및 제2 비교 결과)를 미러 스크린(11)의 정보 디스플레이 영역(1111)에 디스플레이하도록 제어할 수 있다.
본 실시예에서, 사용자(5)는 미러 스크린(11)을 통해 자신의 얼굴부의 반사 영상을 볼 수 있으며, 또한 정보 디스플레이 영역(1111)을 통해 현재의 좌측 볼터치와 우측 볼터치의 색상 및 분포 상황이 동일하거나 또는 유사한지 여부를 알 수 있다.
예를 들어 설명하면, 도 13의 실시예에서, 비교 결과가 현재 좌측 볼터치의 색상 밝기가 우측 볼터치의 색상 밝기보다 2% 낮다고 표시되고, 또한 현재 좌측 볼터치 및 우측 볼터치의 색상 분포율이 모두 균일하다면 더 조정할 필요가 없다. 이에 따라, 분석장치(1)는 사용자(5)의 볼터치 화장 동작에 효과적으로 도움을 줄 수 있으며, 따라서 사용자(5)의 화장 속도가 빨라지고 화장 효과가 최적화될 수 있다.
본 발명의 분석장치(1) 및 분석방법을 통해, 사용자(5)는 화장 동작을 실시 시, 미러 스크린(11)에서 자신의 얼굴 모습을 볼 수 있는 이외에, 볼터치 위치의 영상 분석을 직접 획득할 수 있어, 화장 동작을 보다 신속하고 보다 완벽하게 실시할 수 있다.
이상의 설명은 단지 본 발명의 바람직한 구체적인 실시예일뿐, 결코 이에 따라 본 발명의 특허범위가 제한되는 것은 아니며, 따라서 본 발명의 내용을 운용하여 실시되는 등가의 변화는 모두 같은 이치로 본 발명의 범위에 포함된다.
1: 인체 정보 분석장치 2: 전자장치
3: 무선 라우터 4: 인터넷
5: 사용자 6: 위치결정점
10: 처리유닛 11: 미러 스크린
12: 영상 캡쳐 모듈 13: 버튼
14: 센서 15: 입력 인터페이스
16: 무선전송 모듈 21: 소프트웨어
51: 얼굴부 61: 제1 교점
62: 제2 교점 71: 제1 수평선
72: 제2 수평선 81: 입꼬리 위치
82: 아래 눈썹 중간점 위치 82: 코의 최저점 위치
84: 콧방울 최고점 위치 85: 콧방울 외측 위치
86: 눈썹산 위치 91: 제1 보조선
92: 제2 보조선 93: 제3 보조선
94: 제4 보조선 95: 제5 보조선
96: 제6 보조선 97: 제7 보조선
98: 제8 보조선 99: 제9 보조선
101: 얼굴 인식 모듈 102: 위치결정 모듈
103: 판단 모듈 104: 분석 모듈
105: 비교 모듈 110: 비교 영상
111: 디스플레이 모듈 910: 제10 보조선
911: 제11 보조선 912: 제12 보조선
1111: 정보 디스플레이 영역 1112, 1113: 영상 디스플레이 영역
A1, A2, A3, A4: 볼터치 위치 S10~S40: 분석 단계
S180~S194: 위치결정 단계 S200~S212: 위치결정 단계
S220~S226: 위치결정 단계 S240~S254: 위치결정 단계
S50~S56: 분석 단계

Claims (15)

  1. 인체 정보 분석장치에 응용되는 볼터치 분석방법에 있어서,
    a) 상기 인체 정보 분석장치의 영상 캡쳐 모듈로 외부 영상을 캡쳐하는 단계;
    b) 상기 인체 정보 분석장치의 처리유닛이 상기 외부 영상에서 사람의 얼굴을 인식시, 상기 얼굴의 각 부위에 대해 위치결정을 수행하고 상기 얼굴의 얼굴형은 복수의 얼굴형 중의 하나로 판단하는 단계;
    c1) 상기 처리유닛은 상기 얼굴의 얼굴형이 상기 복수의 얼굴형 중에서 타원형 얼굴이라 판단시, 제1 위치결정 프로세스를 실행하여 좌측 볼터치 화장영역 및 우측 볼터치 화장영역을 찾는 단계;
    c2) 상기 처리유닛은 상기 얼굴의 얼굴형이 상기 복수의 얼굴형 중에서 원형 또는 사각형이라 판단시, 제2 위치결정 프로세스를 실행하여, 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 찾는 단계;
    c3) 상기 처리유닛은 상기 얼굴의 얼굴형이 상기 복수의 얼굴형 중에서 장형이라 판단시, 제3 위치결정 프로세스를 실행하여, 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 찾는 단계;
    c4) 상기 처리유닛은 상기 얼굴의 얼굴형이 상기 복수의 얼굴형 중에서 역삼각형 또는 마름모형이라 판단시, 제4 위치결정 프로세스를 실행하여, 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 찾는 단계;
    d) 상기 처리유닛이 상기 좌측 볼터치 화장영역의 제1 평균 색상 수치와 상기 우측 볼터치 화장영역의 제2 평균 색상 수치를 분석하는 단계;
    e) 상기 제1 평균 색상 수치 및 상기 제2 평균 색상 수치를 사전설정 색상 수치와 비교하거나, 또는 상기 제1 평균 색상 수치를 상기 제2 평균 색상 수치와 상호 비교하여 비교 결과를 생성하는 단계; 및
    f) 상기 인체 정보 분석장치의 디스플레이 모듈이 상기 비교 결과를 디스플레이하는 단계를 포함하는 볼터치 분석방법.
  2. 제1항에 있어서,
    g1) 상기 비교 결과가 화장 완성 표준에 부합되는지 여부를 판단하는 단계; 및
    g2) 상기 비교 결과가 상기 화장 완성 표준에 부합되기 전 단계 c 내지 단계 f를 반복 실행하는 단계를 더 포함하는 볼터치 분석방법.
  3. 제1항에 있어서, 단계 c1의 상기 제1 위치결정 프로세스는
    c11) 상기 얼굴의 눈 아래 위치에 제1 수평선을 생성하는 단계;
    c12) 상기 제1 수평선과 얼굴 윤곽의 제1 교점을 획득하는 단계;
    c13) 상기 제1 교점으로부터 상기 얼굴의 입꼬리 위치까지 연결하여 제1 보조선을 획득하는 단계;
    c14) 상기 입꼬리 위치로부터 제2 수평선을 생성하는 단계;
    c15) 상기 제2 수평선과 상기 얼굴 윤곽의 제2 교점을 획득하는 단계;
    c16) 상기 제2 교점으로부터 상기 얼굴의 아래 눈꺼풀 중간점 위치를 연결하여 제2 보조선을 획득하는 단계;
    c17) 상기 얼굴의 코의 최저점 위치로부터 제3 수평선을 생성하여 제3 보조선으로 삼는 단계; 및
    c18) 상기 제1 보조선, 상기 제2 보조선 및 상기 제3 보조선으로 상기 좌측 볼터치 화장영역과 상기 우측 볼터치 화장영역을 구성하는 단계를 포함하는 볼터치 분석방법.
  4. 제1항에 있어서, 단계 c2의 상기 제2 위치결정 프로세스는
    c21) 상기 얼굴의 코의 최저점 위치로부터 제1 수평선을 생성하는 단계;
    c22) 상기 얼굴의 눈 아래 위치로부터 제2 수평선을 생성하는 단계;
    c23) 상기 제2 수평선과 얼굴 윤곽의 제1 교점을 획득하는 단계;
    c24) 상기 제1 교점으로부터 상기 얼굴의 콧방울 최고점 위치를 연결하여 제4 보조선을 획득하는 단계;
    c25) 상기 제4 보조선을 상기 제1 수평선과 만나는 위치까지 하향 수평 이동하여 제5 보조선을 획득하는 단계;
    c26) 상기 얼굴의 입꼬리 위치로부터 수직선을 생성하여 제6 보조선으로 삼는 단계; 및
    c27) 상기 제4 보조선, 제5 보조선 및 상기 제6 보조선으로 상기 좌측 볼터치 화장영역과 상기 우측 볼터치 화장영역을 구성하는 단계를 포함하는 볼터치 분석방법.
  5. 제1항에 있어서, 단계 c3의 상기 제3 위치결정 프로세스는
    c31) 상기 얼굴의 눈 아래 위치로부터 제1 수평선을 생성하여 제7 보조선으로 삼는 단계;
    c32) 상기 얼굴의 콧방울 최고점 위치로부터 제2 수평선을 생성하여 제8 보조선으로 삼는 단계;
    c33) 상기 얼굴의 콧방울 외측 위치로부터 수직선을 생성하여 제9 보조선으로 삼는 단계;
    c34) 상기 제7 보조선, 상기 제8 보조선 및 상기 제9 보조선으로 상기 좌측 볼터치 화장영역과 상기 우측 볼터치 화장영역을 구성하는 단계를 포함하는 볼터치 분석방법.
  6. 제1항에 있어서, 단계 c4의 상기 제4 위치결정 프로세스는
    c41) 상기 얼굴의 눈 아래 위치로부터 제1 수평선을 생성하는 단계;
    c42) 상기 제1 수평선과 얼굴 윤곽의 제1 교점을 획득하는 단계;
    c43) 상기 제1 교점으로부터 상기 얼굴의 콧방울 최고점 위치를 연결하여 제10 보조선을 획득하는 단계;
    c44) 상기 얼굴의 눈썹산 위치로부터 수직선을 생성하여 제11 보조선으로 삼는 단계;
    c45) 상기 얼굴의 코의 최저점 위치로부터 제2 수평선을 생성하는 단계;
    c46) 상기 제2 수평선과 상기 얼굴 윤곽의 제2 교점을 획득하는 단계;
    c47) 상기 제2 교점으로부터 상기 콧방울 최고점 위치를 연결하여 제12 보조선을 획득하는 단계; 및
    c48) 상기 제10 보조선, 상기 제11 보조선 및 상기 제12 보조선으로 상기 좌측 볼터치 화장영역과 상기 우측 볼터치 화장영역을 구성하는 단계를 포함하는 볼터치 분석방법.
  7. 제1항에 있어서,
    i) 상기 처리유닛이 상기 좌측 볼터치 화장영역의 제1 표준차(Standard Deviation, SD)와 상기 우측 볼터치 화장영역의 제2 표준차를 분석하는 단계;
    j) 상기 제1 표준차 및 상기 제2 표준차를 사전설정 표준차와 비교하거나, 또는 상기 제1 표준차를 상기 제2 표준차와 상호 비교하여, 제2 비교 결과를 생성하는 단계; 및
    k) 상기 디스플레이 모듈에 상기 제2 비교 결과를 디스플레이하는 단계를 더 포함하는 볼터치 분석방법.
  8. 인체 정보 분석장치에 있어서,
    외부 영상을 캡쳐하기 위한 영상 캡쳐 모듈
    디스플레이 모듈; 및
    상기 영상 캡쳐 모듈 및 상기 디스플레이 모듈과 전기적으로 연결되며, 상기 외부 영상을 식별하여, 상기 외부 영상에 사람의 얼굴이 식별되었을 때 상기 얼굴의 각 부위에 대해 위치결정을 수행하고, 상기 얼굴의 얼굴형이 복수의 얼굴형 중에서, 타원형 얼굴, 원형 얼굴, 사각형 얼굴, 장형 얼굴, 역삼각형 얼굴 또는 마름모형 얼굴인지 여부를 판단하기 위한 처리유닛;을 포함하며,
    상기 처리유닛이 상기 얼굴이 타원형 얼굴이라 판단시 제1 위치결정 프로세스를 실행하여 좌측 볼터치 화장영역 및 우측 볼터치 화장영역을 찾고, 상기 처리유닛이 상기 얼굴이 원형 또는 사각형이라 판단시 제2 위치결정 프로세스를 실행하여 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 찾고, 상기 처리유닛이 상기 얼굴이 장형이라 판단시 제3 위치결정 프로세스를 실행하여 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 찾고, 상기 처리유닛이 상기 얼굴이 역삼각형 또는 마름모형이라 판단시 제4 위치결정 프로세스를 실행하여 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 찾고, 이어서 상기 처리유닛이 상기 좌측 볼터치 화장영역의 제1 평균 색상 수치와 상기 우측 볼터치 화장영역의 제2 평균 색상 수치를 분석한 다음, 상기 제1 평균 색상 수치 및 상기 제2 평균 색상 수치를 사전설정 색상 수치와 비교하거나, 또는 상기 제1 평균 색상 수치를 상기 제2 평균 색상 수치와 상호 비교하여 비교 결과를 생성하며;
    상기 디스플레이 모듈로 상기 비교 결과를 디스플레이하는 인체 정보 분석장치.
  9. 제8항에 있어서, 상기 처리유닛은
    상기 외부 영상을 식별하여 상기 외부 영상 중 상기 사람의 얼굴이 존재하는지 여부를 판단하는 얼굴 인식 모듈;
    상기 얼굴의 각 부위에 대해 위치결정을 수행하고, 상기 얼굴의 얼굴형을 판단하는 위치결정 모듈;
    상기 얼굴의 얼굴형에 따라 대응되는 상기 제1 위치결정 프로세스, 제2 위치결정 프로세스, 제3 위치결정 프로세스 및 제4 위치결정 프로세스를 실행하여, 상기 얼굴에서 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 찾는 판단 모듈;
    알고리즘을 통해 상기 좌측 볼터치 화장영역의 영상과 상기 우측 볼터치 화장영역의 영상을 분석하여, 상기 제1 평균 색상 수치 및 상기 제2 평균 색상 수치를 생성하는 분석 모듈; 및
    상기 제1 평균 색상 수치 및 상기 제2 평균 색상 수치를 상기 사전설정 색상 수치와 비교하거나, 또는 상기 제1 평균 색상 수치를 상기 제2 평균 색상 수치와 상호 비교하여 상기 비교 결과를 생성하는 비교 모듈을 포함하는 인체 정보 분석장치.
  10. 제9항에 있어서, 상기 판단모듈은 상기 얼굴이 타원형 얼굴이라 판단시 상기 제1 위치결정 프로세스를 실행하여, 이하
    상기 얼굴의 눈 아래 위치로부터 제1 수평선을 생성하는 단계;
    상기 제1 수평선과 얼굴 윤곽의 제1 교점을 획득하는 단계;
    상기 제1 교점으로부터 상기 얼굴의 입꼬리 위치를 연결하여 제1 보조선을 획득하는 단계;
    상기 입꼬리 위치로부터 제2 수평선을 생성하는 단계;
    상기 제2 수평선과 상기 얼굴 윤곽의 제2 교점을 획득하는 단계;
    상기 제2 교점으로부터 상기 얼굴의 아래 눈꺼풀 중간점 위치를 연결하여 제2 보조선을 획득하는 단계;
    상기 얼굴의 코의 최저점 위치로부터 제3 수평선을 생성하여 제3 보조선으로 삼는 단계; 및
    상기 제1 보조선, 상기 제2 보조선 및 상기 제3 보조선으로 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 구성하는 단계의 동작을 실행하는 인체 정보 분석장치.
  11. 제9항에 있어서,
    상기 판단 모듈은 상기 얼굴이 원형 얼굴 또는 사각형 얼굴이라 판단시 상기 제2 위치결정 프로세스를 실행하여, 이하
    상기 얼굴의 코의 최저점 위치로부터 제1 수평선을 생성하는 단계;
    상기 얼굴의 눈 아래 위치로부터 제2 수평선을 생성하는 단계;
    상기 제2 수평선과 얼굴 윤곽의 제1 교점을 획득하는 단계;
    상기 제1 교점으로부터 상기 얼굴의 콧방울 최고점 위치를 연결하여 제4 보조선을 획득하는 단계;
    상기 제4 보조선을 상기 제1 수평선과 만나는 위치까지 하향 수평 이동시켜 제5 보조선을 획득하는 단계;
    상기 얼굴의 입꼬리 위치로부터 수직선을 생성하여 제6 보조선으로 삼는 단계; 및
    상기 제4 보조선, 상기 제5 보조선 및 상기 제6 보조선으로 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 구성하는 단계의 동작을 실행하는 인체 정보 분석장치.
  12. 제9항에 있어서,
    상기 판단 모듈은 상기 얼굴이 장형 얼굴이라 판단시 상기 제3 위치결정 프로세스를 실행하여, 이하
    상기 얼굴의 눈 아래 위치로부터 제1 수평선을 생성하여 제7 보조선으로 삼는 단계;
    상기 얼굴의 콧방울 최고점 위치로부터 제2 수평선을 생성하여 제8 보조선으로 삼는 단계;
    상기 얼굴의 콧방울 외측 위치로부터 수직선을 생성하여 제9 보조선으로 삼는 단계; 및
    상기 제7 보조선, 상기 제8 보조선 및 상기 제9 보조선으로 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 구성하는 단계의 동작을 실행하는 인체 정보 분석장치.
  13. 제9항에 있어서,
    상기 판단 모듈은 상기 얼굴이 역삼각형 얼굴 또는 마름모형 얼굴이라 판단시 상기 제4 위치결정 프로세스를 실행하여, 이하
    상기 얼굴의 눈 아래 위치로부터 제1 수평선을 생성하는 단계;
    상기 제1 수평선과 얼굴 윤곽의 제1 교점을 획득하는 단계;
    상기 제1 교점으로부터 상기 얼굴의 콧방울 최고점 위치를 연결하여 제10 보조선을 획득하는 단계;
    상기 얼굴의 눈썹산으로부터 수직선을 생성하여 제11 보조선으로 삼는 단계;
    상기 얼굴의 코의 최저점 위치로부터 제2 수평선을 생성하는 단계;
    상기 제2 수평선과 상기 얼굴 윤곽의 제2 교점을 획득하는 단계;
    상기 제2 교점으로부터 상기 콧방울 최고점 위치를 연결하여 제12 보조선을 획득하는 단계; 및
    상기 제10 보조선, 상기 제11 보조선 및 상기 제12 보조선으로 상기 좌측 볼터치 화장영역 및 상기 우측 볼터치 화장영역을 구성하는 단계의 동작을 실행하는 인체 정보 분석장치.
  14. 제9항에 있어서,
    상기 처리유닛은 상기 분석 모듈이 상기 좌측 볼터치 화장영역의 제1 표준차(Standard Deviation, SD)과 상기 우측 볼터치 화장영역의 제2 표준차를 분석하도록 더 제어하고, 상기 비교 모듈이 상기 제1 표준차 및 상기 제2 표준차를 사전설정 표준차와 비교하도록 제어하거나, 또는 상기 제1 표준차를 상기 제2 표준차와 상호 비교하여 제2 비교 결과를 생성하고, 상기 디스플레이 모듈이 상기 제2 비교 결과를 디스플레이하도록 제어하는 인체 정보 분석장치.
  15. 삭제
KR1020180005058A 2017-09-15 2018-01-15 인체 정보 분석장치 및 볼터치 분석 방법 KR102045216B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710833322.8A CN109508581A (zh) 2017-09-15 2017-09-15 身体信息分析装置及其腮红分析方法
CN201710833322.8 2017-09-15

Publications (2)

Publication Number Publication Date
KR20190031102A KR20190031102A (ko) 2019-03-25
KR102045216B1 true KR102045216B1 (ko) 2019-11-15

Family

ID=61655662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180005058A KR102045216B1 (ko) 2017-09-15 2018-01-15 인체 정보 분석장치 및 볼터치 분석 방법

Country Status (6)

Country Link
US (1) US10540538B2 (ko)
EP (1) EP3457318A1 (ko)
JP (1) JP6547013B2 (ko)
KR (1) KR102045216B1 (ko)
CN (1) CN109508581A (ko)
MA (1) MA47134A (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960841A (zh) * 2018-07-16 2018-12-07 阿里巴巴集团控股有限公司 支付方法、装置及系统
TWI702538B (zh) * 2019-03-29 2020-08-21 麗寶大數據股份有限公司 運用於化妝輔助裝置的化妝輔助方法
USD879480S1 (en) * 2019-11-12 2020-03-31 Dongguan Powerme Plastic Mfg. Co., Ltd. Makeup mirror
CN113496459A (zh) * 2020-04-01 2021-10-12 华为技术有限公司 辅助化妆方法、终端设备、存储介质及程序产品
US20210307492A1 (en) * 2020-04-01 2021-10-07 Magicom Inc. Smart-mirror display system
CN111583139B (zh) * 2020-04-27 2023-06-20 抖音视界有限公司 腮红调整方法、装置、电子设备及计算机可读介质
US11138734B1 (en) * 2021-02-19 2021-10-05 Vr Media Technology, Inc. Hyperspectral facial analysis system and method for personalized health scoring
CN113837020B (zh) * 2021-08-31 2024-02-02 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007175384A (ja) * 2005-12-28 2007-07-12 Shiseido Co Ltd チークメーキャップのための顔分類方法、顔分類装置、分類見極めマップ、顔分類プログラム、及び該プログラムが記録された記録媒体
JP2012095730A (ja) * 2010-10-29 2012-05-24 Omron Corp 画像処理装置、画像処理方法、および制御プログラム
JP5656603B2 (ja) * 2010-12-14 2015-01-21 キヤノン株式会社 情報処理装置、情報処理方法、およびそのプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002044410A (ja) * 2000-07-21 2002-02-08 Minolta Co Ltd 画像形成システムおよび画像データ作成装置
JP4180027B2 (ja) * 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム
JP2008257381A (ja) 2007-04-03 2008-10-23 Sony Corp 情報解析システム、情報解析装置、情報解析方法および情報解析プログラム、ならびに、記録媒体
JP2009064423A (ja) 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP5432532B2 (ja) * 2008-01-22 2014-03-05 株式会社 資生堂 化粧方法、化粧シミュレーション装置、及び化粧シミュレーションプログラム
JP2009213751A (ja) 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc 化粧評価プログラム、化粧評価方法および化粧評価装置
JP5463866B2 (ja) * 2009-11-16 2014-04-09 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8908904B2 (en) * 2011-12-28 2014-12-09 Samsung Electrônica da Amazônia Ltda. Method and system for make-up simulation on portable devices having digital cameras
JP2014014969A (ja) 2012-07-09 2014-01-30 Aitec:Kk パイプインサートとそのインサートブロー成形方法
JP6128309B2 (ja) * 2013-02-01 2017-05-17 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
EP2985732B1 (en) * 2013-04-08 2017-08-02 Panasonic Intellectual Property Corporation of America Image processing device, image processing method, and program, capable of virtual reproduction of makeup application state
KR20150072463A (ko) * 2013-12-11 2015-06-30 한국 한의학 연구원 안면 영상을 이용하는 건강 상태 판단 장치 및 건강 상태 판단 방법
WO2015172229A1 (en) * 2014-05-13 2015-11-19 Valorbec, Limited Partnership Virtual mirror systems and methods
JP5863930B2 (ja) 2014-11-14 2016-02-17 レノボ・イノベーションズ・リミテッド(香港) 化粧支援装置、化粧支援方法、及びプログラム
US9750420B1 (en) * 2014-12-10 2017-09-05 Amazon Technologies, Inc. Facial feature selection for heart rate detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007175384A (ja) * 2005-12-28 2007-07-12 Shiseido Co Ltd チークメーキャップのための顔分類方法、顔分類装置、分類見極めマップ、顔分類プログラム、及び該プログラムが記録された記録媒体
JP2012095730A (ja) * 2010-10-29 2012-05-24 Omron Corp 画像処理装置、画像処理方法、および制御プログラム
JP5656603B2 (ja) * 2010-12-14 2015-01-21 キヤノン株式会社 情報処理装置、情報処理方法、およびそのプログラム

Also Published As

Publication number Publication date
JP6547013B2 (ja) 2019-07-17
CN109508581A (zh) 2019-03-22
MA47134A (fr) 2019-10-30
JP2019053708A (ja) 2019-04-04
US10540538B2 (en) 2020-01-21
EP3457318A1 (en) 2019-03-20
US20190087641A1 (en) 2019-03-21
KR20190031102A (ko) 2019-03-25

Similar Documents

Publication Publication Date Title
KR102045216B1 (ko) 인체 정보 분석장치 및 볼터치 분석 방법
JP6568606B2 (ja) 身体情報分析装置およびそのアイシャドウの分析方法
JP6761824B2 (ja) 身体情報分析装置およびその眉型比較補助方法
KR102065480B1 (ko) 신체 정보 분석 장치 및 입술 화장 분석 방법
KR102045219B1 (ko) 증강 현실과 결합된 신체 정보 분석 장치 및 눈썹 모양 미리보기 방법
US10423824B2 (en) Body information analysis apparatus and method of analyzing hand skin using same
KR102045228B1 (ko) 신체 정보 분석 장치 및 얼굴형 모의 방법
KR102045217B1 (ko) 인체 정보 분석장치 및 메이크업 파운데이션 분석 방법
EP3435277A1 (en) Body information analysis apparatus capable of indicating blush-areas
US10824850B2 (en) Body information analysis apparatus capable of indicating shading-areas
KR20190032156A (ko) 신체 정보 분석 장치 및 얼굴형 검측 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant