KR20190037050A - 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법 - Google Patents

신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법 Download PDF

Info

Publication number
KR20190037050A
KR20190037050A KR1020180005061A KR20180005061A KR20190037050A KR 20190037050 A KR20190037050 A KR 20190037050A KR 1020180005061 A KR1020180005061 A KR 1020180005061A KR 20180005061 A KR20180005061 A KR 20180005061A KR 20190037050 A KR20190037050 A KR 20190037050A
Authority
KR
South Korea
Prior art keywords
eyebrow
feature points
image
mirror
mirror surface
Prior art date
Application number
KR1020180005061A
Other languages
English (en)
Other versions
KR102045218B1 (ko
Inventor
샤이-용 센
민-창 치
부디만 고스노 에릭
Original Assignee
칼-콤프 빅 데이터, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칼-콤프 빅 데이터, 인크. filed Critical 칼-콤프 빅 데이터, 인크.
Publication of KR20190037050A publication Critical patent/KR20190037050A/ko
Application granted granted Critical
Publication of KR102045218B1 publication Critical patent/KR102045218B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • G06K9/00288
    • G06K9/00308
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Tourism & Hospitality (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법을 공개한 것이다. 눈썹 모양 보조 비교 방법은 얼굴 영상을 취득하는 단계; 얼굴 영상으로부터 눈썹 영상을 식별하는 단계; 눈썹 영상에 의하여 거울면 반사 눈썹 모양 도안을 생성하는 단계; 눈썹 영상의 위치에 의하여 대칭 보조선을 기준으로 거울면 반사 눈썹 모양 도안의 투영 위치를 계산하는 단계; 및, 얼굴 영상을 표시하는 동시에 투영 위치에 거울면 반사 눈썹 모양 도안을 표시하는 단계; 를 포함하여 구성된다. 본 발명은 사용자의 눈썹 영상 및 권장하는 거울면 반사 눈썹 모양 도안을 동시에 표시함으로써 사용자가 직관적이고 정확하게 눈썹 화장을 실행할 수 있도록 하고, 더 나아가서 눈썹 화장의 기술 난이도를 낮추고 눈썹 화장의 성공 확율을 향상시킬 수 있다.

Description

신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법 {Body Information Analysis Apparatus and Method of Auxiliary Comparison of Eyebrow Shapes thereof}
본 발명은 장치 및 방법에 관한 것으로서, 더욱 상세하게는 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법에 관한 것이다.
눈썹 화장은 기술 난이도가 매우 높은 화장 항목 중의 하나이다. 성공적인 눈썹 화장은 남에게 가져 주는 얼굴형 감각을 변화시킬 수 있고, 더 나아가서 남에게 가져 주는 외모 인상을 개선시킬 수 있다.
또한, 눈썹 화장 성공 여부의 판단 기준은 통상적으로 왼쪽 눈썹과 오른쪽 눈썹의 눈썹 모양의 대칭 여부에 있다.
일반적으로, 사용자는 거울 앞에 앉아서 눈썹 화장을 하거나, 또는 스마트폰의 카메라 및 스크린을 이용하여 거울을 대체하여 눈썹 화장을 하게 된다.
하지만, 사용자가 눈썹 화장을 할 때, 일반적으로 화장을 거친 후의 눈썹 모양을 상상하면서 이를 근거로 눈썹 화장 동작을 실행하여야 한다. 따라서, 순썹 화장 기술에 능숙하지 못한 사용자들은 자주 눈썹 화장 속도가 너무 느리거나 또는 화장한 후의 왼쪽 눈썹과 오른쪽 눈썹이 대칭되지 않는 문제를 겪게 된다.
이에 따라, 현재 경험이 부족한 사용자에게 효과적으로 도움을 주어 빠른 속도로 눈썹 화장을 완성하도록 할 수 있는 보조 장치가 시급히 필요한 현황이다.
본 발명은 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법을 제공함으로써 사용자에게 도움을 주어 눈썹 화장 과정 중에 현재 눈썹 모양과 권장하는 눈썹 모양 사이의 차이를 비교할 수 있도록 한다.
일 실시예에 있어서, 눈썹 모양 보조 비교 방법은 신체 정보 분석 장치에 적용되되, 신체 정보 분석 장치의 영상 취득 모듈을 제어하여 얼굴 영상을 취득하는 단계; 신체 정보 분석 장치의 처리 유닛을 제어하여 얼굴 영상 일 측의 눈썹 영상을 식별하는 단계; 처리 유닛이 식별된 눈썹 영상에 의하여 거울면 반사 눈썹 모양 도안을 생성하는 단계; 처리 유닛이 눈썹 영상의 위치에 의하여 얼굴 영상의 대칭 보조선을 기준으로 거울면 반사 눈썹 모양 도안의 투영 위치를 계산하되, 그 중, 투영 위치는 얼굴 영상이 대칭 보조선을 상대로 한 타 측에 위치하는 단계; 및, e) 신체 정보 분석 장치의 디스플레이 모듈을 제어하여 얼굴 영상을 표시하는 동시에 투영 위치에 거울면 반사 눈썹 모양 도안을 표시하는 단계; 를 포함하여 구성된다.
일 실시예에 있어서, 신체 정보 분석 장치는 영상 취득 모듈, 디스플레이 모듈, 및 영상 취득 모듈 및 디스플레이 모듈에 전기적으로 연결되는 처리 유닛을 포함하여 구성된다. 영상 취득 모듈은 외부 영상을 취득하기 위하여 사용된다. 디스플레이 모듈은 얼굴 영상을 표시하는 동시에 투영 위치에 거울면 반사 눈썹 모양 도안을 표시하기 위하여 사용된다. 처리 유닛은 얼굴 영상 일 측의 눈썹 영상을 식별하고, 식별된 눈썹 영상에 의하여 거울면 반사 눈썹 모양 도안을 생성하며, 눈썹 영상의 위치에 의하여 얼굴 영상의 대칭 보조선을 기준으로 거울면 반사 눈썹 모양 도안의 투영 위치를 계산하기 위하여 사용되되, 그 중, 투영 위치는 얼굴 영상이 대칭 보조선을 상대로 한 타 측에 위치한다.
본 발명은 사용자의 눈썹 영상 및 권장하는 거울면 반사 눈썹 모양 도안을 동시에 표시함으로써 사용자가 직관적이고 정확하게 눈썹 화장을 실행할 수 있도록 하고, 더 나아가서 눈썹 화장의 기술 난이도를 낮추고 눈썹 화장의 성공 확율을 향상시킬 수 있다.
도 1은 본 발명의 제1 실시예에 따른 시스템 구성도이다.
도 2는 본 발명에 따른 신체 정보 분석 장치의 제1 예시도이다.
도 3은 본 발명에 따른 신체 정보 분석 장치의 제2 예시도이다.
도 4는 본 발명의 제1 실시예에 따른 신체 정보 분석 장치의 구성도이다.
도 5는 본 발명의 제1 실시예에 따른 처리 유닛의 예시도이다.
도 6은 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교 방법의 흐름도이다.
도 7은 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교 방법의 흐름도이다.
도 8은 본 발명의 제3 실시예에 따른 눈썹 모양 보조 비교 방법의 부분 흐름도이다.
도 9는 얼굴 분석 예시도이다.
도 10a는 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교의 제1 예시도이다.
도 10b는 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교의 제2 예시도이다.
도 10c는 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교의 제3 예시도이다.
도 11a는 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교의 제1 예시도이다.
도 11b는 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교의 제2 예시도이다.
도 11c는 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교의 제3 예시도이다.
도 12a는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제1 예시도이다.
도 12b는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제2 예시도이다.
도 12c는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제3 예시도이다.
도 12d는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제4 예시도이다.
도 13a는 본 발명의 제4 실시예에 따른 조절 전의 투영 위치의 예시도이다.
도 13b는 본 발명의 제4 실시예에 따른 조절 후의 투영 위치의 예시도이다.
도 14a는 본 발명의 제5 실시예에 따른 조절 전의 눈썹 모양의 예시도이다.
도 14b는 본 발명의 제5 실시예에 따른 조절 후의 눈썹 모양의 예시도이다.
이하, 첨부된 도면 및 구체적인 실시예를 참조하여 본 발명의 기술적 방안에 대하여 상세하게 설명함으로써 본 발명의 목적, 방안 및 효과를 더욱 명확하게 이해할 수 있도록 한다. 하지만, 이는 본 발명에 첨부된 청구항의 보호 범위를 한정하고자 하는 것은 아니다.
본 발명은 신체 정보 분석 장치(이하 분석 장치로 약함)를 공개한 것으로서, 상기 분석 장치는 주로 하나의 눈썹 모양 보조 비교 방법(이하 비교 방법으로 약함)을 실행하여 사용자가 현재 눈썹 모양 및 권장하는 눈썹 모양 사이의 차이를 쉽게 비교하여 사용자에게 도움을 주어 눈썹 화장 동작을 실행할 수 있도록 한다.
도 1을 참조하면, 도 1은 본 발명의 제1 실시예에 따른 시스템 구성도이다. 도 1에 도시된 실시예에 있어서, 사용자는 전자 장치(2)를 조작하여 분석 장치(1)에 대한 설정을 실행할 수 있다.
구체적으로 말하면, 전자 장치(2)의 메모리(미도시)에는 소프트웨어(21)가 설치되어 있다. 소프트웨어(21)는 분석 장치(1)와 연결(예를 들면 분석 장치(1)의 제조업체가 개발 및 제공한 응용 프로그램)하는데 사용된다. 또한, 사용자는 운영 소프트웨어(21)를 사용하여 분석 장치(1)에 대하여 다양한 설정 동작(예를 들면 사용자 정보의 입력, 사용자의 얼굴 영상의 등록 및/또는 다양한 사전 설정값의 설정 등)을 실행할 수 있다.
일 실시예에 있어서, 사용자는 또한 직접 분석 장치(1)의 입력 인터페이스(예를 들면 도 4에 도시된 입력 인터페이스(15))를 직접 조작하여 다양한 설정 동작을 실행할 수도 있다.
일 실시예에 있어서, 분석 장치(1)의 무선 송수신 모듈(16)은 Wi-Fi 통신 기술, 블루투스 통신 기술, Zigbee 통신 기술, 무선 주파수(RF) 통신 기술, 적외선 통신 기술, 광 통신 기술, 음성 통신 기술 및/또는 기타 무선 통신 기술을 통하여 전자 장치(2)와의 자료 송수신을 실행한다.
일 실시예에 있어서, 분석 장치(1)는 소재 구역 상의 무선 라우터(3)에 연결하여 무선 라우터(3)를 통하여 인터넷(4)에 접속할 수 있다. 이에 따라, 분석 장치(1)는 인터넷(4)을 통하여 펌웨어 업데이트, 데이터 업로드 및 다운로드 등 동작을 실행할 수 있다. 또한, 분석 장치(1)는 인터넷(4)을 통하여 사용자의 신체 정보(예를 들면 후술되는 얼굴 영상, 눈썹 영상 및/또는 거울면 반사 눈썹 도안 등)를 원격 컴퓨터 장치(미도시)에 전송함으로써, 사용자가 원격으로 조회할 수 있도록 하거나 이를 통하여 원격 백업의 목적을 실현할 수도 있다.
도 2 및 도 3을 동시에 참조하면, 도 2는 본 발명에 따른 신체 정보 분석 장치의 제1 예시도이고, 도 3은 본 발명에 따른 신체 정보 분석 장치의 제2 예시도이다. 도 2 및 도 3의 실시예에 따른 분석 장치(1)는 주로 사용자의 침실 또는 화장실에 설치되어 사용자가 신체 정보(예를 들면 얼굴, 목 또는 손)를 검측 및 분석할 수 있도록 한다.
분석 장치(1)에는 거울면 스크린(11)이 구비된다. 분석 장치(1)가 시동(도 2에 도시된 바와 같이)되면 거울면 스크린(11)을 통하여 그래픽 유저 인터페이스(Graphical User Interface, GUI)를 표시하는 동시에 그래픽 유저 인터페이스를 통하여 사용자와의 대화를 실현할 수 있다. 한편, 분석 장치(1)가 꺼져(도 3에 도시된 바와 같이) 있을 때, 거울면 스크린(11)은 단순히 거울로 사용되어 사용자의 광학적 거울상(5)을 반사할 수도 있다.
본 발명은 주로 분석 장치(1)를 통하여 사용자에게 도움을 주어 화장 동작(예를 들면 눈썹 화장)을 실행하기 때문에, 거울면 스크린(11)은 그래픽 사용자 인터페이스를 표시하는 동시에 사용자의 광학적 거울상(5)을 반사함으로써, 사용자가 화장을 진행할 때 사용자의 화장 상태를 분석하는 동시에 보조 작용을 일으키도록 할 수 있다(후술되는 내용에서 상세하게 설명).
일 실시예에 있어서, 분석 장치(1)에는 영상 취득 모듈(12)이 더 구비되되, 분석 장치(1)에 설치되고 각도에 대한 조절을 실행할 수 있다. 일 실시예에 있어서, 영상 취득 모듈(12)은 사용자에 대한 촬영을 통하여 고해상도 영상(예를 들면 얼굴 영상, 목 영상 또는 손 영상 등)을 취득할 수 있고, 분석 장치(1)는 상기 영상에 의하여 사용자의 신체 정보 및 화장 진도를 분석할 수 있다. 다른 실시예에 있어서, 영상 취득 모듈(12)은 외부 정보(예를 들면 바코드, QR 코드 등)를 취득한 다음 정보의 내용에 의하여 대응되는 데이터를 취득할 수 있다.
또한, 분석 장치(1)는 영상 취득 모듈(12)을 통하여 취득한 영상을 실시간으로 거울면 스크린(11)에 표시한다. 이에 따라, 거울면 스크린(11)이 꺼져 있지 않더라도, 사용자는 실시간으로 거울면 스크린(11)을 통하여 자신의 전자적 거울상(5)을 관찰할 수 있게 된다.
더 나아가서, 분석 장치(1)는 우선 취득한 영상에 대하여 실시간 처리(예를 들면 후술되는 거울면 반사 눈썹 모양 도안 등 표기, 또는 기타 사용자에게 도움을 주어 눈썹 화장을 할 수 있도록 하는 그래픽 또는 문자 지시 정보를 영상으로 추가)를 실행한 다음, 처리 후의 영상을 거울면 스크린(11)에 표시할 수도 있다.
이에 따라, 분석 장치(1)는 증강 현실(Augmented Reality, AR)의 방식으로 사용자가 화장할 때 실시간 및 직관적으로 거울면 스크린(11) 상에 보조 정보를 제공함으로써 사용자 체험을 효과적으로 향상시킬 수 있다.
일 실시예에 있어서, 거울면 스크린(11)을 터치 스크린으로 구성함으로써 사용자는 거울면 스크린(11)을 통하여 분석 장치(1)에 대하여 데이터 입력 동작을 실행할 수 있다.
분석 장치(1)는 복수의 버튼(13)을 더 구비할 수 있다. 본 실시예에 있어서, 복수의 버튼(13)은 실체 버튼(button) 또는 터치 키(touch key)일 수 있으나 이에 한정되는 것은 아니다. 사용자는 버튼(13)을 촉발함으로써 상기 그래픽 유저 인터페이스를 제어(예를 들면 그래픽 유저 인터페이스를 제어하여 메인 페이지, 이전 페이지 또는 다음 페이지로 이동)하거나, 또는 분석 장치(1)가 대응되는 기능(예를 들면 거울면 스크린(11) 열기, 거울면 스크린(11) 닫기, 영상 취득 모듈(12) 시동 등)을 바로 실행하도록 할 수 있다.
분석 장치(1)는 하나 또는 복수의 센서(14)(예를 들면 온도 센서, 습도 센서 등)를 더 구비하여 분석 장치(1)가 위치한 환경의 환경 데이터를 감지함으로써 분석 장치(1)의 사용자 신체 정보 감지 및 분석 정확도를 향상시킬 수 있다. 일 실시예에 있어서, 상기 센서(14)는 동작 센서(motion sensor)로서 분석 장치(1)가 동작 센서를 통하여 사용자의 이동 손동작(예를 들면 왼쪽으로 이동, 오른쪽으로 이동, 위로 이동, 아래로 이동, 앞으로 이동 또는 뒤로 이동 등)을 감지하도록 할 수 있다. 이에 따라, 사용자는 손동작을 통하여 상기 거울면 스크린(11) 또는 버튼(13)에 대한 조작이 필요 없이 지문이 남겨지지 않는 상태로 분석 장치(1)에 대한 데이터 입력 동작을 실행할 수 있다.
이어서 도 4를 참조하면, 도 4는 본 발명의 제1 실시예에 따른 신체 정보 분석 장치의 구성도이다. 도 4에 도시된 바와 같이, 분석 장치(1)는 주로 처리 유닛(10), 그리고 처리 유닛(10)과 전기적으로 연결되는 디스플레이 모듈(111), 영상 취득 모듈(12), 입력 인터페이스(15) 및 무선 송수신 모듈(16)을 포함하여 구성된다.
일 실시예에 있어서, 영상 취득 모듈(12)은 카메라 또는 비디오 카메라로 구성되어 외부 영상(예를 들면 사용자의 얼굴 영상) 및 외부 정보를 취득하기 위하여 사용된다. 분석 장치(1)는 외부 영상을 이용한 사용자 식별(예를 들면 눈썹 식별, 얼굴 식별, 목 식별 또는 손 식별 등)을 통하여 사용자의 눈썹, 얼굴, 목 또는 손 등 부위에 대한 분석을 실행하거나, 또는 외부 정보의 내용에 의하여 대응되는 동작을 실행할 수 있다.
디스플레이 모듈(111)은 상기 그래픽 유저 인터페이스를 표시한다. 일 실시예에 있어서, 디스플레이 모듈(111)은 상기 거울면 스크린(11)에 설치된다. 디스플레이 모듈(111)이 활성화될 때, 디스플레이 모듈(111)의 광원은 거울면 스크린(11)의 단일 방향 유리(미도시)를 투과하여 사용자의 눈에 입사됨으로써 사용자가 거울면 스크린(11)을 통하여 그래픽 유저 인터페이스를 관찰할 수 있도록 한다. 디스플레이 모듈(111)이 비활성화될 때, 단일 방향 유리의 단일면 광 투과 특성으로 인하여, 사용자는 거울면 스크린(11)을 통하여 자신의 광학적 거울상(5)을 관찰할 수 있게 된다. 일 실시예에 있어서, 분석 장치(1)는 디스플레이 모듈(111)의 광원 세기 또는 디스플레이 구역을 조절함으로써 거울면 스크린(11)이 사용자의 광학적 거울상(5)을 반사하는 동시에 그래픽 유저 인터페이스를 표시하도록 할 수 있다.
분석 장치(1)는 입력 인터페이스(15)를 통하여 사용자의 외부 입력을 접수함으로써 사용자와 그래픽 유저 인터페이스 사이의 대화를 실현하거나 필요한 설정 동작을 실행하도록 할 수 있다. 일 실시예에 있어서, 입력 인터페이스(15)는 상기 센서(14)로 구성되어 사용자의 손동작 입력을 감지할 수 있다. 다른 실시예에 있어서, 입력 인터페이스(15)는 상기 영상 취득 모듈(12)로 구성되어 외부 영상 또는 외부 정보를 취득할 수 있다. 또 다른 실시예에 있어서, 입력 인터페이스(15)는 터치 스크린 또는 버튼(13)으로 구성되어 사용자의 입력 동작을 접수할 수 있다. 또 다른 실시예에 있어서, 입력 인터페이스(15)는 마이크로 구성되어 외부의 음성 정보를 접수할 수 있다.
무선 송수신 모듈(16)은 인터넷(4) 연결에 사용된다. 구체적으로 말하면, 사용자는 인터넷(4)을 통하여 분석 장치(1)로 원격 접속함으로써 분석 장치(1)에 기록된 다양한 정보(예를 들면 신체 정보)를 수시로 조회할 수 있다.
처리 유닛(10)은 디스플레이 모듈(111), 영상 취득 모듈(12), 입력 인터페이스(15) 및 무선 송수신 모듈(16)과 연결되고 처리 유닛(10)에는 컴퓨터로 실행 가능한 프로그램 코드(미도시)를 포함하여 구성된다. 컴퓨터로 실행 가능한 프로그램 코드를 실행함에 따라서, 처리 유닛(10)은 본 발명에 따른 비교 방법을 실현할 수 있다.
동시에 도 5를 참조하면, 도 5는 본 발명의 제1 실시예에 따른 처리 유닛의 예시도이다. 구체적으로 말하면, 처리 유닛(10)은 주로 상기 컴퓨터로 실행 가능한 프로그램 코드를 통하여 본 발명에 따른 비교 방법 중의 각 기능을 실행하되, 다양한 기능에 따라서 상기 컴퓨터로 실행 가능한 프로그램 코드를 하기와 같은 기능 모듈로 구분할 수 있다.
1. 얼굴 비교 모듈(101), 영상 취득 모듈(12)을 통하여 취득한 얼굴 영상에 대하여 얼굴 식별 처리를 실행하기 위하여 사용된다. 구체적으로 말하면, 얼굴 식별 모듈(101)은 얼굴 영상으로부터 얼굴 각 부위의 영상(예를 들면 눈썹 영상, 눈 영상, 코 영상, 귀 영상 또는 입 영상 등)을 식별해낼 수 있다. 일 실시예에 있어서, 얼굴 식별 모듈(101)은 얼굴 영상에 대하여 얼굴 분석 처리를 실행함으로써 각 부위 영상의 복수개 특징점(도 9에 도시된 바와 같음)을 식별하되, 그 중, 각 특징점은 각각 사용자 얼굴의 특정 부위의 다양한 특징(예를 들면 눈썹의 눈썹머리, 눈썹꼬리 또는 눈썹융기, 코의 콧등, 콧마루 또는 비익, 눈의 눈머리 또는 눈꼬리)에 대응된다.
2. 거울면 반사 모듈(102), 대칭 보조선의 일 측에 위치한 특정 부위(예를 들면, 두 눈썹 중의 하나, 두 눈 중의 하나, 코의 왼쪽 절반 부분 또는 오른쪽 절반 부분, 두 귀 중의 하나, 입의 왼쪽 절반 부분 또는 오른쪽 절반 부분, 또는 기타 외관이 대칭되는 부위)의 특징점에 대하여 거울면 반사 처리를 실행함으로써 대칭 보조선의 타 측에 위치한 거울면 반사 특징점을 취득하기 위하여 사용하되, 그 중, 취득한 각 거울면 반사 특징점은 상기 특정 부위의 각 특징점에 서로 대응된다.
3. 계산 모듈(103), 얼굴 영상의 대칭 보조선을 계산하기 위하여 사용되고, 또한 상기 특정 부위의 투영 도안이 대칭 보조선의 타 측에서의 권장 투영 위치를 계산하기 위하여 사용된다.
4. 제도 모듈(104), 상기 투영 도안을 제도하기 위하여 사용된다.
일 실시예에 있어서, 얼굴 분석 모듈(101)은 얼굴 영상의 일 측 눈썹 영상(예를 들면 왼쪽 눈썹 영상)의 복수개 눈썹 특징점을 식별한다. 거울면 반사 모듈(102)은 복수개 눈썹 특징점에 대하여 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점을 취득한다. 계산 모듈(103)은 대칭 보조선을 계산하고, 대칭 보조선 및 거울면 반사 특징점에 의하여 투영 위치를 계산하되, 그 중, 투영 위치 및 복수개 눈썹 특징점은 각각 대칭 보조선의 서로 다른 측에 위치한다. 제도 모듈(104)은 복수개 거울면 반사 특징점에 의하여 투영 위치에 거울면 반사 눈썹 모양 도안을 제도한다.
이에 따라, 본 발명은 얼굴 영상 일 측의 대칭 부위(예를 들면 왼쪽 눈썹)에 의하여 타 측의 대칭 부위(예를 들면 오른쪽 눈썹)을 제도하고 적당한 위치에 투영함으로써 사용자가 화장의 근거로 사용하도록 할 수 있다.
이어서 도 6을 참조하면, 도 6은 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교 방법의 흐름도이다. 본 발명에 따른 분석 장치(1)는 처리 유닛(10)을 통하여 상기 컴퓨터로 실행 가능한 프로그램 코드(예를 들면 상기 각 기능 모듈(101~104))를 실행함으로써 본 발명의 각 실시예에 따른 비교 방법의 각 단계를 실현한다.
본 실시예에 따른 비교 방법은 눈썹 모양 보조 비교 기능을 실현하기 위한 하기 단계를 포함하여 구성된다.
S10 단계 : 분석 장치(1)의 처리 유닛(10)은 영상 취득 모듈(12)을 제어하여 사용자의 얼굴에 대하여 촬영을 실행함으로써 사용자의 얼굴 영상(예를 들면 도 9에 도시된 얼굴 영상(51))을 취득한다.
S12 단계 : 처리 유닛(10)은 취득한 얼굴 영상(51)에 대하여 얼굴 분석 처리를 실행함으로써 얼굴 영상(51)으로부터 눈썹 영상을 식별한다.
일 실시예에 있어서, 처리 유닛(10)은 단지 얼굴 영상(51)의 일 측(예를 들면 왼쪽)에 위치한 한 조의 눈썹 영상(예를 들면 왼쪽 눈썹 영상)을 취득하지만, 이에 한정되는 것은 아니다. 다른 실시예에 있어서, 처리 유닛(10)은 각각 얼굴 영상(51)의 양 측에 위치한 양 조의 눈썹 영상(즉 오른쪽 눈썹 영상 및 왼쪽 눈썹 영상)을 취득한 다음, 그 중의 하나를 선택하여 후속 처리를 실행할 수도 있다.
일 실시예에 있어서, 처리 유닛(10)은 얼굴 분석 모듈(101)을 통하여 얼굴 영상(51)에 대한 분석을 실행함으로써 얼굴의 복수개 부위(예를 들면 얼굴 윤곽, 눈, 눈썹, 코, 입, 귀 및 얼굴의 기타 부위)의 영상을 식별하고, 양 조의 눈썹 영상 중의 하나를 선택하여 후속 처리를 실행할 수 있다.
일 실시예에 있어서, 상기 얼굴 분석 처리는 얼굴 표기(Face Landmark) 알고리즘을 통하여 얼굴 영상(51)에 대하여 분석을 실행함으로써 얼굴 영상(51) 중 얼굴의 특정 부위의 특징을 포지셔닝할 수 있으나, 이에 한정되는 것은 아니다. 더 나아가서, 상기 얼굴 표기 알고리즘은 Dlib 라이브러리(Library)를 사용하여 실현된다.
이어서 도 9를 참조하면, 도 9는 얼굴 분석 예시도이다. 얼굴 분석 처리를 실행할 때, 얼굴 분석 모듈(101)은 우선 얼굴 영상(51) 중에서 상기 얼굴 표기 알고리즘을 통하여 얼굴 영상(51)에 대한 분석을 실행할 수 있다. 상기 얼굴 표기 알고리즘은 본 기술 분야 중의 통상적인 기술적 수단으로서, 기계 학습(Machine Learning) 기술을 기준으로 얼굴 영상(51)에 대하여 얼굴 분석을 실행함으로써 얼굴의 하나 또는 복수개 특정 부위(예를 들면 눈썹, 눈, 코 또는 귀)의 복수개 특징점(6)(예를 들면 눈썹융기 및 눈썹머리, 눈꼬리 및 눈머리, 콧등 및 비익, 귓바퀴 및 귓볼 등, 예를 들면 68개 특징점(6) 또는 198개 특징점(6)일 수 있음)을 식별한다. 또한, 상기 얼굴 표기 알고리즘은 더 나아가서 특정 부위의 복수개 특징점을 얼굴 영상(51)에 표기할 수 있다.
일 실시예에 있어서, 얼굴 분석 모듈(101)은 각 특징점(6)이 소속되는 부위 및 대응되는 특징에 의하여 각 특징점(6)에 번호를 매길 수 있다.
이에 따라, 본 발명은 복수개 특징점(6)의 번호, 형상, 순서 등 정보에 의하여 얼굴 영상(51) 중에서 각 부위의 위치를 확정함으로써 특정 부위를 식별할 수 있다.
다시 도 6을 참조하면, 이어서 S14 단계를 실행, 즉, 처리 유닛(10)은 식별된(또는 선택된) 눈썹 영상에 의하여 거울면 반사 모듈(102) 및 제도 모듈(104)을 통하여 거울면 반사 눈썹 모양 도안을 생성한다.
일 실시예에 있어서, 거울면 반사 모듈(102)은 우선 식별된(또는 선택된) 눈썹 영상(예를 들면 왼쪽 눈썹)의 복수개 눈썹 특징점에 대하여 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점을 취득한다. 이어서, 제도 모듈(104)은 복수개 거울면 반사 특징점에 의하여 거울면 반사 눈썹 모양 도안을 제도한다.
일 실시예에 있어서, 처리 유닛(10)은 계산 모듈(103)을 통하여 얼굴 영상(51)의 대칭 보조선을 계산하고, 이어서 거울면 반사 모듈(102) 및 제도 모듈(104)을 통하여 계산된 대칭 보조선을 기준으로 거울면 반사 눈썹 모양 도안을 생성한다.
S16 단계 : 처리 유닛(10)은 눈썹 영상의 위치에 의하여 얼굴 영상의 대칭 보조선을 기준으로 거울면 반사 눈썹 모양 도안이 얼굴 영상(51) 중에서의 투영 위치를 계산한다. 일 실시예에 있어서, 투영 위치 및 눈썹 영상의 복수개 눈썹 특징점은 각각 얼굴 영상(51)의 서로 다른 측에 위치하는 바, 즉, 투영 위치 및 눈썹 영상의 복수개 눈썹 특징점은 각각 대칭 보조선의 양 측에 위치한다.
S18 단계 : 처리 유닛(10)은 디스플레이 모듈(111)을 제어하여 취득한 얼굴 영상(51)을 표시하는 동시에, 계산된 투영 위치에 거울면 반사 눈썹 모양 도안을 표시하되, 그 중, 상기 투영 위치는 얼굴 영상(51)에 위치하기 때문에 거울면 반사 눈썹 모양 도안은 얼굴 영상(51)과 중첩된다. 일 실시예에 있어서, 거울면 반사 눈썹 모양 도안은 얼굴 영상(51)의 윗층에 위치하여 거울면 반사 눈썹 모양 도안이 일부분 얼굴 영상(51)을 가리게 된다. 일 실시예에 있어서, 영상 처리를 통하여 사용자의 원래 눈썹을 제거하고 거울면 반사 눈썹 모양 도안을 남겨 두는 단계를 더 포함하여 구성된다.
도 10a 내지 도 10c를 참조하면, 도 10a는 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교의 제1 예시도이고, 도 10b는 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교의 제2 예시도이며, 도 10c는 본 발명의 제1 실시예에 따른 눈썹 모양 보조 비교의 제3 예시도이다. 본 실시예에 있어서, 사용자는 오른쪽 눈썹을 기준으로 왼쪽 눈썹에 대한 눈썹 화장 동작을 실행한다.
우선, 분석 장치(1)는 얼굴 영상(52)(본 실시예에서는 국부 얼굴 영상을 촬영하는 경우로 예로 들고, 얼굴 영상(52)은 사용자와 좌우가 반대된 전자 거울면 영상인 바, 즉, 얼굴 영상(52)의 왼쪽 눈썹의 영상은 실제적으로 사용자의 오른쪽 눈썹에 대응됨)을 촬영한 다음, 촬영한 얼굴 영상(52)으로부터 사용자의 오른쪽 눈썹에 대응되는 오른쪽 눈썹 영상(71) 및 사용자의 왼쪽 눈썹에 대응되는 왼쪽 눈썹 영상(72)을 식별한 다음 선택한 오른쪽 눈썹 영상(71)에 대하여 처리를 실행(도 10a에 도시된 바와 같음)한다.
이어서, 분석 장치(1)는 거울면 반사 눈썹 모양 도안(71')을 생성하고 얼굴 영상(52)의 대칭 보조선(81)(도 10b에 도시된 바와 같음)을 계산하며 대칭 보조선(81) 및 오른쪽 눈썹 영상(71)의 위치를 기준으로 투영 위치를 계산한다. 마지막으로, 분석 장치(1)는 얼굴 영상(52)을 표시하는 동시에 투영 위치에 거울면 반사 눈썹 모양 도안(71')을 표시(도 10c에 도시된 바와 같음)한다.
이에 따라, 사용자는 직접 분석 장치(1)를 관찰하면서 왼쪽 눈썹 영상(72) 및 거울면 반사 눈썹 모양 도안(71') 사이의 형상 및 위치 차이에 의하여 왼쪽 눈썹의 눈썹 화장 동작을 실행함으로써 직관적이고 정확하게 눈썹 화장을 진행하고, 이에 따라 화장이 완성된 왼쪽 눈썹이 오른쪽 눈썹과 대칭되도록 할 수 있다.
일 실시예에 있어서, 분석 장치(1)는 눈썹 모양 보조 비교 기능이 활성화되어 있는 기간 내에 S10~S18 단계를 중복적으로 실행함으로써 표시되는 화면을 갱신할 수 있다. 이에 따라, 분석 장치(1)는 거울면 스크린(11)을 통하여 사용자의 실시간 거울면 영상을 표시할 수 있다. 또한, 본 실시예에서는 거울면 반사 눈썹 모양 도안(71') 및 그 투영 위치를 중복적으로 재계산함으로써 본 실시예에 따른 거울면 반사 눈썹 모양 도안(71') 및 그 투영 위치가 사용자의 이동에 대응하여 변화하도록 할 수 있다.
예를 들면, 사용자가 왼쪽으로 이동할 때, 재계산된 거울면 반사 눈썹 모양 도안(71')의 투영 위치도 대응되게 왼쪽으로 지우치게 되고, 이는 표시된 거울면 반사 눈썹 모양 도안(71')이 얼굴 영상(52) 중의 기타 부위와 고정적인 상대적 위치를 유지하도록 할 수 있으며; 사용자가 분석 장치(1)와 가까이 하는 방향으로 이동할 때, 재생성된 거울면 반사 눈썹 도안(71')의 크기도 대응되게 확대되고 이는 표시된 거울면 반사 눈썹 모양 도안(71')이 얼굴 영상(52)의 기타 부위와 고정적인 상대 비례를 유지하도록 할 수 있으며, 기타 경우에도 이러한 방식으로 유추한다.
이에 따라, 사용자는 거울면 스크린(11)에서 자신의 실시간 얼굴 영상(52)과 권장하는 거울면 반사 눈썹 모양 도안(71') 및 그 위치를 동시에 관찰하면서 직관적이고 정확하게 눈썹 화장을 실행할 수 있도록 하고, 더 나아가서 눈썹 화장의 기술 난이도를 낮추고 눈썹 화장의 성공 확율을 향상시킬 수 있다.
이어서 도 7 및 도 11a 내지 도 11c를 참조하면, 도 7은 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교 방법의 흐름도이고, 도 11a는 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교의 제1 예시도이며, 도 11b는 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교의 제2 예시도이고, 도 11c는 본 발명의 제2 실시예에 따른 눈썹 모양 보조 비교의 제3 예시도이다. 본 실시예에 따른 비교 방법은 눈썹 모양 보조 비교 기능을 실현하기 위한 하기 단계를 포함하여 구성된다.
S200 단계 : 처리 유닛(10)은 영상 취득 모듈(12)을 제어하여 사용자에 대하여 촬영을 실행함으로써 사용자의 얼굴 영상을 취득한다.
S202 단계 : 처리 유닛(10)은 얼굴 영상의 양 측 중의 하나를 선택하여 기준 측으로 사용한다. 구체적으로 말하면, 사용자는 우선 오른쪽 눈썹에 대하여 눈썹 화장 동작을 실행하고, 화장이 완료된 다음 분석 장치(1)를 이용하여 화장 후의 오른쪽 눈썹을 상기 기준 측으로 하여 분석 장치(1)를 통하여 계속 왼쪽 눈썹에 대하여 화장 동작을 실행할 수 있고, 이와 반대인 경우에도 이러하다.
일 실시예에 있어서, 사용자는 분석 장치(1)의 입력 인터페이스(15)를 통하여 기준 측 선택 동작을 입력할 수 있되, 그 중, 상기 기준 측 선택 동작에서는 얼굴 영상의 양 측 중의 하나를 선택하는 동작일 수 있다. 또는, 사용자는 전자 장치(2)에 대한 조작을 통하여 기준 측 선택 명령을 분석 장치(1)의 무선 송수신 모듈(16)로 전송하되, 그 중, 상기 기준 측 선택 명령은 얼굴 영상의 양 측 중의 하나를 선택하는 명령일 수 있다. 이어서, 처리 유닛(10)은 기준 측 선택 명령 또는 기준 측 선택 동작에 의하여 얼굴 영상의 양 측 중의 하나를 상기 기준 측으로 사용할 수 있다.
S204 단계 : 처리 유닛(10)은 얼굴 분석 모듈(101)을 통하여 얼굴 영상에 대하여 얼굴 분석 처리를 실행함으로써 얼굴의 하나 또는 복수개 특정 부위의 복수개 특징점을 식별한다.
일 실시예에 있어서, 얼굴 분석 모듈(101)은 오른쪽 눈썹 영상(73)(제1 눈썹 영상)의 복수개 눈썹 특징점(61)(제1 눈썹 특징점) 및 왼쪽 눈썹 영상(74)(제2 눈썹 영상)의 복수개 눈썹 특징점(미도시, 이하 제2 눈썹 특징점으로 약함)을 식별하고, 기준 측의 눈썹 영상(오른쪽 눈썹 영상(73)을 선택하는 경우를 예로 듬)을 선택한 다음, 복수개 제1 눈썹 특징점에 의하여 눈썹 데이터 세트(제1 눈썹 데이터 세트)를 생성하고, 복수개 제2 눈썹 특징점에 의하여 눈썹 데이터 세트(제2 눈썹 데이터 세트)를 생성하되, 그 중, 복수개 제1 눈썹 특징점은 각각 오른쪽 눈썹 상의 다양한 특징에 대응되고, 복수개 제2 눈썹 특징점은 각각 왼쪽 눈썹 상의 다양한 특징에 대응된다. 더 나아가서, 그 중, 복수개 제1 눈썹 특징점에는 적어도 각각 오른쪽 눈썹의 눈썹머리, 눈썹융기 및 눈썹꼬리에 대응되는 3개 특징점을 포함하여 구성되고, 복수개 제2 눈썹 특징점은 적어도 각각 왼쪽 눈썹의 눈썹머리, 눈썹융기 및 눈썹꼬리에 대응되는 3개 특징점을 포함하여 구성된다.
일 실시예에 있어서, 얼굴 분석 모듈(101)은 더 나아가서 코 영상의 복수개 코 특징점(도 11a에서는 두개 코 특징점(62, 63)을 설정하는 경우를 예로 들었는 바, 그 중, 코 특징점(62)은 코의 콧등에 대응되고 코 특징점(63)은 코의 비소주에 대응됨)을 식별하고 상기 복수개 코 특징점에 의하여 코 데이터 세트를 생성할 수도 있다. 상기 복수개 코 특징점은 대칭 보조선(82)의 계산에 사용될 수 있다.
S206 단계 : 처리 유닛(10)은 계산 모듈(103)을 통하여 코 데이터 세트에 의하여 대칭 보조선(82)을 계산한다.
일 실시예에 있어서, 계산 모듈(103)은 코 데이터 세트의 복수개 특징점(62, 63)을 통과하는 직선을 대칭 보조선(82)으로 사용한다.
일 실시예에 있어서, 계산 모듈(103)은 코 데이터 세트의 복수개 특징점(62, 63)에 대하여 선형 회귀 계산을 하고 계산해낸 회귀선을 대칭 보조선(82)으로 사용한다.
일 실시예에 있어서, 계산 모듈(103)은 직접 얼굴 영상 중의 중간선을 대칭 보조선(82)으로 사용한다.
S208 단계 : 처리 유닛(10)은 거울면 반사 모듈(102)을 통하여 대칭 보조선(82)을 기준으로 제1 눈썹 데이터 세트에 대하여 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점(61')의 배열 관계를 포함한 거울면 반사 데이터 세트를 취득한다.
일 실시예에 있어서, 처리 유닛(10)은 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점(61')의 배열 관계만 생성할 뿐 각 거울면 반사 특징점(61')의 위치를 설정하지는 않는다.
S210 단계 : 처리 유닛(10)은 제도 모듈(104)을 통하여 제1 눈썹 데이터 세트의 복수개 거울면 반사 특징점(61')을 연결하여 거울면 반사 눈썹 모양 도안(73')을 제도한다.
S212 단계 : 처리 유닛(10)은 계산 모듈(103)을 통하여 제1 눈썹 데이터 세트의 전부 또는 일부분 눈썹 특징점(61) 및 대칭 보조선(82) 사이의 복수개 수직 거리(제1 수직 거리)를 계산한다.
도 11b를 참조하여 예로 들면, 계산 모듈(103)은 제1 눈썹 특징점(61)과 대칭 보조선(82) 사이의 제1 수직 거리는 D1이고, 제2 눈썹 특징점(61)과 대칭 보조선(82) 사이의 제1 수직 거리는 D2이며, 제3 눈썹 특징점(61)과 대칭 보조선(82) 사이의 제1 수직 거리는 D3임을 계산해낼 수 있고, 그 이후에도 이러한 방식으로 유추한다.
S214 단계 : 처리 유닛(10)은 거울면 반사 모듈(102)을 통하여 대칭 보조선(82) 및 계산해낸 복수개 수직 거리를 기준으로 대칭 보조선(82)의 타 측에 위치한 복수개 거울면 반사 특징점(61')의 위치를 설정하고, 설정된 복수개 거울면 반사 특징점(61')의 위치에 의하여 거울면 반사 눈썹 모양 도안(73')의 투영 위치를 계산한다.
일 실시예에 있어서, 위치를 설정한 후의 복수개 거울면 반사 특징점(61') 및 대칭 보조선 사이의 복수개 수직 거리(제2 수직 거리)는 각각 복수개 눈썹 특징점(61) 및 대칭 보조선(82) 사이의 복수개 제1 수직 거리와 동일하다.
도 11c를 참조하여 예로 들면, 제1 거울면 반사 특징점(61')과 대칭 보조선(82) 사이의 제2 수직 거리는 D1이고, 제2 거울면 반사 특징점(61')과 대칭 보조선(82) 사이의 제2 수직 거리는 D2이며, 제3 거울면 반사 특징점(61')과 대칭 보조선(82) 사이의 제2 수직 거리는 D3이고, 그 이후에도 이러한 방식으로 유추한다. 각 제2 수직 거리는 각각 대응되는 제1 수직 거리와 동일하다.
일 실시예에 있어서, 각 눈썹 특징점(61)과 대응되는 거울면 반사 특징점(61') 사이의 연결선은 대칭 보조선(82)에 수직된다. 다시 말하면, 각 눈썹 특징점(62)과 대응되는 거울면 반사 특징점(61')은 얼굴 영상 중에서 좌우로 대칭된다.
특별히 설명하여야 할 것은, 상기 투영 위치는 얼굴 영상 중의 특정 구역 또는 단일 위치일 수 있다.
일 실시예에 있어서, 거울면 반사 모듈(102)은 복수개 거울면 반사 특징점(61')에 의하여 둘러 싸인 구역을 투영 위치로 사용하지만 이에 한정되는 것은 아니다.
다른 실시예에 있어서, 거울면 반사 모듈(102)은 복수개 거울면 반사 특징점(61')의 중심을 계산해내어 투영 위치로 사용할 수 있다. 또는, 거울면 반사 모듈(102)은 복수개 거울면 반사 특징점(61') 중의 하나를 선택하고, 선택된 거울면 반사 특징점(61')의 위치를 투영 위치로 사용할 수 있다.
일 실시예에 있어서, S208~S214 단계는 통합되어 실행될 수 있다. 구체적으로 말하면, 처리 유닛(10)은 대칭 보조선(82) 및 계산해낸 복수개 수직 거리를 기준으로 복수개 거울면 반사 특징점(61')을 생성하고, 대칭 보조선(82)의 타 측에 위치한 복수개 거울면 반사 특징점(61')의 위치를 직접 설정(복수개 거울면 반사 특징점(61')의 위치를 통하여 복수개 거울면 반사 특징점(61') 사이의 배열 관계를 추정할 수 있음)할 수 있다. 이어서, 처리 유닛(10)은 복수개 거울면 반사 특징점(61')의 위치에 의하여 투영 위치를 계산하고, 거울면 반사 눈썹 모양 도안을 제도한다.
S216 단계 : 처리 유닛(10)은 디스플레이 모듈을 통하여 얼굴 영상(53)을 표시하고, 투영 위치에 거울면 반사 눈썹 모양 도안(73')을 표시한다.
일 실시예에 있어서, 거울면 반사 모듈(102)이 복수개 거울면 반사 특징점(61')의 중심을 투영 위치로 사용할 때, 처리 유닛(10)은 거울면 반사 눈썹 모양 도안(73')의 중심을 투영 위치에 일치시켜 표시한다.
일 실시예에 있어서, 거울면 반사 모듈(102)이 복수개 거울면 반사 특징점(61')에 의하여 둘러 싸인 구역을 투영 위치로 사용할 때, 처리 유닛(10)은 거울면 반사 눈썹 모양 도안(73')을 상기 둘러 싸인 구역 내부에 표시한다.
일 실시예에 있어서, 거울면 반사 모듈(102)이 복수개 거울면 반사 특징점(61') 중의 하나를 선택하여 투영 위치로 사용할 때, 처리 유닛(10)은 거울면 반사 눈썹 모양 도안(73')의 특정 부위를 투영 위치에 일치시켜 표시한다.
S218 단계 : 처리 유닛(10)은 사용자가 눈썹 모양 보조 비교 기능을 비활성화하였는지 판단한다.
구체적으로 말하면, 사용자는 눈썹 화장 동작을 완성한 다음, 입력 인터페이스(15) 또는 전자 장치(2)를 통하여 눈썹 모양 보조 비교 기능을 비활성화할 수 있다.
처리 유닛(10)은 눈썹 모양 보조 비교 기능이 비활성화되었을 때, 눈썹 모양 보조 비교 방법을 종료한다. 그러지 아니하면, 처리 유닛(10)은 다시 S200~S216 단계를 실행한다.
본 발명은 수직 거리에 의하여 투영 위치를 계산함으로써 계산량을 효과적으로 줄이고 처리의 지연 현상을 줄임으로써 표시의 유창성을 향상시킬 수 있고, 사용자가 거울면 스크린(11)을 통하여 실시간으로 자신의 거울면 영상 및 거울면 반사 눈썹 모양 도안을 관찰하여 사용자 체험을 향상시킬 수 있다.
상기 실시예에 있어서, 거울면 반사 눈썹 모양 도안의 투영 위치는 기준 측의 눈썹 영상의 위치와 완전히 좌우 대칭된다. 또한, 거울면 반사 눈썹 모양 도안의 범위 및 모양은 모두 기준 측의 눈썹 영상과 완전히 좌우 대칭된다.
하지만, 통상적으로 사람 얼굴의 각 부위는 완전히 좌우 대칭되는 것이 아니다(예를 들면 뇐쪽 눈의 높이와 오른쪽 눈의 높이가 다를 가능성이 있거나, 콧등 및 얼굴 중간선이 완전히 중첩되지 않을 가능성이 있거나, 또는 왼쪽 눈썹의 굵기 및 각도가 오른쪽 눈썹의 형상 및 각도와 다를 가능성이 있다). 사용자가 완전히 대칭되는 거울면 반사 눈썹 모양 도안 및 투영 위치에 의하여 눈썹 화장 동작을 실행할 때, 눈썹 화장을 완성한 후의 왼쪽 눈썹 및 오른쪽 눈썹이 너무 일치하여 자연스럽지 않을 수도 있다.
상기와 같은 문제를 해결하기 위하여, 본 발명은 더 나아가서 눈썹 수식 기능을 제공하는 바, 눈썹 화장 전의 눈썹의 형상, 각도 또는 위치에 의하여 거울면 반사 눈썹 모양 도안의 형상 또는 각도를 조절하거나 또는 투영 위치를 조절함으로써 눈썹 화장을 완성한 후의 눈썹이 더욱 자연스럽도록 할 수 있다.
이어서 도 6, 도 8 및 도 12a 내지 도 14b를 동시에 참조하면, 도 8은 본 발명의 제3 실시예에 따른 눈썹 모양 보조 비교 방법의 부분 흐름도이고, 도 12a는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제1 예시도이며, 도 12b는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제2 예시도이고, 도 12c는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제3 예시도이며, 도 12d는 본 발명의 제3 실시예에 따른 눈썹 모양 식별의 제4 예시도이고, 도 13a는 본 발명의 제4 실시예에 따른 조절 전의 투영 위치의 예시도이며, 도 13b는 본 발명의 제4 실시예에 따른 조절 후의 투영 위치의 예시도이고, 도 14a는 본 발명의 제5 실시예에 따른 조절 전의 눈썹 모양의 예시도이며, 도 14b는 본 발명의 제5 실시예에 따른 조절 후의 눈썹 모양의 예시도이다. 도 6에 도시된 실시예에 비하여, 본 실시예에 따른 S14 단계는 S30~S38 단계를 더 포함하여 구성된다.
본 발시예에 있어서, 제2 눈썹 영상(76)(예를 들면 왼쪽 눈썹 영상)에 대응되는 제2 눈썹 데이터 세트를 기준으로 얼굴 영상의 타 측(예를 들면 오른쪽)에 권장하는 거울면 반사 눈썹 모양 도안을 표시함으로써 사용자가 이에 의하여 오른쪽 눈썹을 수식하도록 할 수 있다.
본 실시예의 S14 단계에 있어서, 처리 유닛(10)은 얼굴 분석 모듈(101)을 통하여 얼굴 영상에 대하여 얼굴 분석 처리를 실행함으로써 각각 대칭 보조선의 양 측에 위치한 제1 눈썹 영상(75) 및 제2 눈썹 영상(76)을 식별하고, 제1 눈썹 영상(75)에 복수개 제1 눈썹 특징점을 설정하여 제1 눈썹 데이터 세트(도 12a에 도시된 바와 같음)를 생성하고, 제2 눈썹 영상(76)에 복수개 제2 눈썹 특징점을 설정하여 제2 눈썹 데이터 세트(도 12b에 도시된 바와 같음)을 생성한다.
또한, 본 실시예의 S16 단계에 있어서, 처리 유닛(10)은 계산 모듈(103)을 통하여 조절 후의 복수개 거울면 반사 특징점의 위치(후술되는 내용에서 상세하게 설명)를 투영 위치로 사용한다.
일 실시예에 있어서, 그 중, 3개 제1 눈썹 특징점(64~66) 및 3개 제2 눈썹 특징점(67~69)은 각각 사용자의 눈썹의 눈썹머리, 눈썹융기 및 눈썹꼬리에 대응된다. 구체적으로 말하면, 제1 눈썹 특징점(64) 및 제2 눈썹 특징점(67)은 눈썹머리에 대응되고, 제1 눈썹 특징점(65) 및 제2 눈썹 특징점(68)은 눈썹융기에 대응되며, 제1 눈썹 특징점(66) 및 제2 눈썹 특징점(69)은 눈썹꼬리에 대응된다.
도 6에 도시된 실시예에 비하여, 본 실시예의 S14 단계는 하기와 같은 단계를 포함하여 구성된다.
S30 단계 : 처리 유닛(10)은 계산 모듈(103)을 통하여 대칭 보조선을 계산한다.
S32 단계 : 처리 유닛(10)은 대칭 보조선을 기준으로 제2 눈썹 데이터 세트의 복수개 제2 눈썹 특징점(67~69)에 대하여 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점(67'~69')을 취득(도 12d에 도시된 바와 같음)한다. 또한, 처리 유닛(10)은 제1 눈썹 데이터 세트의 복수개 제1 눈썹 특징점(64~66)에 대하여 거울면 반사 처리를 실행할 필요하 없다(도 12c에 도시된 바와 같음).
S34 단계 : 처리 유닛(10)은 계산 모듈(103)을 통하여 복수개 거울면 반사 특징점(67'~69') 및 기준으로 하는 제2 눈썹 데이터 세트에 의하여 조절 파라미터 세트를 계산한다.
일 실시예에 있어서, 상기 조절 파라미터 세트는 평행 이동(translation) 파라미터, 회전(rotation) 파라미터 및 스케일링(scaling) 파라미터를 포함하여 구성된다.
일 실시예에 있어서, 계산 모듈(103)은 Rigid Registration 시스템을 이용하여 Least-square estimation 알고리즘을 통하여 상기 조절 파라미터 세트를 계산한다. Rigid Registration 시스템 및 Least-square estimation 알고리즘은 본 기술 분야 중의 통상적인 기술적 수단으로서 두개 데이터(예를 들면 복수개 제1 눈썹 특징점(64~66) 및 복수개 거울면 반사 특징점(67'~69'))에 대한 분석으로 통하여 한 조의 조절 파라미터를 계산해낼 수 있다. 계산해낸 조절 파라미터 세트 중의 하나의 자료(예를 들면 복수개 거울면 반사 특징점(67'~69'))을 사용하여 변환 처리를 실행함으로써, 변환 후의 자료와 다른 자료가 비교적 높은 유사도를 가지도록 할 수 있다.
S36 단계 : 처리 유닛(10)은 계산 모듈(103)을 통하여 대칭 보조선 및 계산해낸 조절 파라미터 세트에 의하여 복수개 거울면 반사 특징점(67'~69')(도 13a에 도시된 바와 같음)의 위치를 조절함으로써 위치를 조절한 후의 복수개 거울면 반사 특징점(67''~69'')(도 13b에 도시된 바와 같음) 및 대응되는 화장을 거치지 않은 눈썹의 복수개 제1 눈썹 특징점(64~66) 사이에 비교적 높은 유사도를 가지도록 할 수 있다.
일 실시예에 있어서, 계산 모듈(103)은 평행 이동 파라미터에 의하여 복수개 거울면 반사 특징점(67'~69')의 위치를 변환시킴으로써 복수개 거울면 반사 특징점(67'~69')에 의하여 둘러 싸인 도안을 평행 이동시키거나, 회전 파라미터에 의하여 복수개 거울면 반사 특징점(67'~69')의 위치를 변환시킴으로써 복수개 거울면 반사 특징점(67'~69')에 의하여 둘러 싸인 도안을 회전시키거나, 또는 스케일링 파라미터에 의하여 복수개 거울면 반사 특징점(67'~69')의 위치를 변환시킴으로써 복수개 거울면 반사 특징점(67'~69')에 의하여 둘러 싸인 도안을 스케일링 할 수 있다.
이어서 도 13a, 도 13b, 도 14a 및 도 14b를 참조한다. 도면에 도시된 바와 같이, 조절 파라미터 세트에 의하여 위치를 변환하기 전에, 복수개 거울면 반사 특징점(67'~69')에 의하여 둘러 싸인 도안(90)과 복수개 제1 눈썹 특징점(64~66)(화장을 거치지 않은 눈썹에 대응됨)에 의하여 둘러 싸인 도안(91) 사이에는 매우 큰 차이가 있기 때문에, 사용자가 많은 눈썹 화장 동작을 실행하여야 한다. 또한, 눈썹 화장 동작을 완성한 후의 두 눈썹은 너무 일치하여 자연스럽지 않을 수도 있다.
조절 파라미터 세트에 의하여 위치를 변환한 다음, 변환을 거친 복수개 거울면 반사 특징점(67''~69'')에 의하여 둘러 싸인 도안(92)과 도안(91)은 비교적 높은 유사도를 가지기 때문에 사용자가 많은 눈썹 화장 동작을 실행하지 않아도 된다. 또한, 눈썹 화장 동작을 완성한 후의 두 눈썹에 미세한 치이가 있기 때문에 더욱 자연스러울 수 있다.
S38 단계 : 처리 유닛(10)은 제도 모듈(104)을 통하여 조절 후의 복수개 거울면 반사 특징점(67''~69'')의 위치에 의하여 거울면 반사 눈썹 모양 도안을 제도한다.
본 발명은 눈썹 수식 기능을 효과적으로 실현함으로써 눈썹 화장을 완성한 후의 눈썹이 더욱 자연스럽도록 할 수 있다.
본 발명이 기타 다양한 실시예를 통하여 구현될 수 있음은 당연한 것이고, 본 발명의 정신 및 그 실질을 벗어나지 않는 전제 하에, 본 분야에 익숙한 기술자는 본 발명에 대한 다양한 수정 및 변형을 실행할 수 있고, 대응되는 수정 및 변형은 모두 본 발명에 첨부된 청구항의 보호 범위에 속하는 것으로 해석되어야 할 것이다.
1 : 신체 정보 분석 장치
10 : 처리 유닛
101 : 얼굴 분석 모듈
102 : 거울면 반사 모듈
103 : 계산 모듈
104 : 제도 모듈
11 : 거울면 스크린
111 : 디스플레이 모듈
12 : 영상 취득 모듈
13 : 버튼
14 : 센서
15 : 입력 인터페이스
16 : 무선 송수신 모듈
2 : 전자 장치
21 : 소프트웨어
3 : 무선 라우터
4 : 인터넷
5 : 거울상
51~53 : 얼굴 영상
6 : 특징점
61, 64~69 : 눈썹 특징점
61', 67'~69' : 거울면 반사 특징점
62~63: 코 특징점
67''~69'' : 조절 후의 거울면 반사 특징점
71~76 : 눈썹 영상
71', 73' : 거울면 반사 눈썹 모양 도안
81~82 : 대칭 보조선
90~92 : 도안
D1~D3 : 수직 거리
S10~S18 : 제1 눈썹 모양 보조 비교 단계
S200~S218 : 제2 눈썹 모양 보조 비교 단계
S30~S38 : 거울면 반사 눈썹 모양 도안 생성 단계

Claims (15)

  1. 하나의 신체 정보 분석 장치에 적용되기 위한 눈썹 모양 보조 비교 방법에 있어서,
    a) 상기 신체 정보 분석 장치의 하나의 영상 취득 모듈을 제어하여 하나의 얼굴 영상을 취득하는 단계;
    b) 상기 신체 정보 분석 장치의 하나의 처리 유닛을 제어하여 상기 얼굴 영상 일 측의 하나의 눈썹 영상을 식별하는 단계;
    c) 상기 처리 유닛이 식별된 상기 눈썹 영상에 의하여 하나의 거울면 반사 눈썹 모양 도안을 생성하는 단계;
    d) 상기 처리 유닛이 상기 눈썹 영상의 위치에 의하여 상기 얼굴 영상의 하나의 대칭 보조선을 기준으로 상기 거울면 반사 눈썹 모양 도안의 하나의 투영 위치를 계산하되, 그 중, 상기 투영 위치는 상기 얼굴 영상이 상기 대칭 보조선을 상대로 한 타 측에 위치하는 단계; 및
    e) 상기 신체 정보 분석 장치의 하나의 디스플레이 모듈을 제어하여 상기 얼굴 영상을 표시하는 동시에 상기 투영 위치에 상기 거울면 반사 눈썹 모양 도안을 표시하는 단계; 를 포함하여 구성되는 눈썹 모양 보조 비교 방법.
  2. 제 1항에 있어서,
    그 중, 상기 b) 단계는,
    b1) 상기 얼굴 영상에 대하여 하나의 얼굴 분석 처리를 실행함으로써 상기 눈썹 영상의 복수개 눈썹 특징점을 식별하되, 그 중, 상기 복수개 눈썹 특징점은 각각 눈썹의 다양한 특징에 대응되는 단계; 를 포함하여 구성되는 눈썹 모양 보조 비교 방법.
  3. 제 2항에 있어서,
    그 중, 상기 c) 단계는,
    c1) 상기 대칭 보조선을 기준으로 상기 복수개 눈썹 특징점에 대하여 하나의 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점을 취득하되, 그 중, 상기 복수개 거울면 반사 특징점 및 상기 복수개 눈썹 특징점은 각각 상기 대칭 보조선의 다른 측에 위치하는 단계; 및
    c2) 상기 복수개 거울면 반사 특징점을 연결함으로써 상기 거울면 반사 눈썹 모양 도안을 제도하는 단계; 를 포함하여 구성되는 눈썹 모양 보조 비교 방법.
  4. 제 3항에 있어서,
    그 중, 상기 b1) 단계는 더 나아가서 하나의 코 영상의 복수개 코 특징점을 식별하되, 그 중, 상기 복수개 코 특징점은 각각 코의 다양한 특징에 대응되고; 또한 상기 c1) 단계 이전에, c0) 상기 복수개 코 특징점에 의하여 상기 대칭 보조선을 계산하는 단계; 를 더 포함하여 구성되며; 상기 d) 단계는 상기 복수개 눈썹 특징점의 위치에 의하여 상기 대칭 보조선을 기준으로 상기 투영 위치를 계산하는 눈썹 모양 보조 비교 방법.
  5. 제 4항에 있어서,
    그 중, 상기 d) 단계는,
    d1) 상기 복수개 눈썹 특징점 및 상기 대칭 보조선 사이의 복수개 제1 수직 거리를 계산 하는 단계; 및
    d2) 상기 복수개 제1 수직 거리에 의하여 상기 복수개 거울면 반사 특징점의 위치를 상기 대칭 보조선의 타 측에 설정하고, 설정 후의 상기 복수개 거울면 반사 특징점의 위치에 의하여 상기 투영 위치를 계산하되, 그 중, 상기 복수개 거울면 반사 특징점과 상기 대칭 보조선 사이의 복수개 제2 수직 거리는 각각 상기 복수개 제1 수직 거리와 동일하고, 또한 상기 각 눈썹 특징점 및 대응되는 각 상기 거울면 반사 특징점 사이의 연결선은 상기 대칭 보조선에 수직되는 단계; 를 포함하여 구성되는 눈썹 모양 보조 비교 방법.
  6. 제 1항에 있어서,
    그 중, 상기 b) 단계 이전에, f) 하나의 기준 측 선택 명형 또는 하나의 기준 측 선택 조작에 의하여 상기 얼굴 영상의 양 측 중의 하나를 선택하는 단계; 를 더 포함하여 구성되고, 상기 b) 단계는 상기 얼굴 영상으로부터 선택된 상기 측의 상기 눈썹 영상을 식별하며; 상기 c) 단계는 선택된 상기 측의 상기 눈썹 영상에 의하여 상기 거울면 반사 눈썹 모양 도안을 생성하는 눈썹 모양 보조 비교 방법.
  7. 제 1항에 있어서,
    그 중, 상기 b) 단계는,
    b2) 상기 얼굴 영상에 대하여 하나의 얼굴 분석 처리를 실행함으로써 각각 상기 얼굴 영상의 양 측에 위치한 하나의 제1 눈썹 영상의 복수개 제1 눈썹 특징점 및 하나의 제2 눈썹 영상의 복수개 제2 눈썹 특징점을 식별하고, 상기 복수개 제1 눈썹 특징점에 의하여 하나의 제1 눈썹 데이터 세트를 생성하고 상기 복수개 제2 눈썹 특징점에 의하여 하나의 제2 눈썹 데이터 세트를 생성하되, 그 중, 상기 복수개 제1 눈썹 특징점은 적어도 각각 일 측의 눈썹의 눈썹머리, 눈썹융기 및 눈썹꼬리에 대응되는 3개 상기 제1 눈썹 특징점을 포함하여 구성되고, 상기 복수개 제2 눈썹 특징점은 적어도 각각 타 측의 눈썹의 눈썹머리, 눈썹융기 및 눈썹꼬리에 대응되는 3개 상기 제2 눈썹 특징점을 포함하여 구성되는 단계; 를 포함하여 구성되는 눈썹 모양 보조 비교 방법.
  8. 제 7항에 있어서,
    그 중, 상기 c) 단계는,
    c3) 상기 대칭 보조선을 기준으로 상기 제1 눈썹 데이터 세트에 대하여 하나의 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점을 취득하는 단계;
    c4) 상기 복수개 거울면 반사 특징점 및 상기 제2 눈썹 데이터 세트에 의하여 하나의 조절 파라미터 세트를 계산하되, 그 중, 상기 조절 파라미터는 하나의 평행 이동 파라미터, 하나의 회전 파라미터 및 하나의 스케일링 파라미터를 포함하여 구성되는 단계;
    c5) 상기 대칭 보조선 및 상기 조절 파라미터 세트에 의하여 상기 복수개 거울면 반사 특징점의 위치를 조잘하는 단계; 및
    c6) 조절 후의 상기 복수개 거울면 반사 특징점의 위치에 의하여 상기 거울면 반사 눈썹 모양 도안을 제도하는 단계; 를 포함하여 구성되는 눈썹 모양 보조 비교 방법.
  9. 제 8항에 있어서,
    그 중, 상기 d) 단계는 조절 후의 상기 복수개 거울면 반사 특징점의 위치에 의하여 상기 투영 위치를 계산하는 눈썹 모양 보조 비교 방법.
  10. 신체 정보 분석 장치에 있어서,
    하나의 얼굴 영상을 취득하는 하나의 영상 취득 모듈;
    상기 얼굴 영상을 표시하는 동시에 하나의 투영 위치에 하나의 거울면 반사 눈썹 모양 도안을 표시하는 하나의 디스플레이 모듈; 및
    상기 영상 취득 모듈 및 상기 디스플레이 모듈에 전기적으로 연결되는 하나의 처리 유닛; 을 포함하여 구성되되,
    상기 처리 유닛은 상기 얼굴 영상 일 측의 하나의 눈썹 영상을 식별하고, 식별된 상기 눈썹 영상에 의하여 하나의 거울면 반사 눈썹 모양 도안을 생성하며, 상기 눈썹 영상의 위치에 의하여 상기 얼굴 영상의 하나의 대칭 보조선을 기준으로 상기 거울면 반사 눈썹 모양 도안의 상기 투영 위치를 계산하고, 그 중, 상기 투영 위치는 상기 얼굴 영상이 상기 대칭 보조선을 상대로 한 타 측에 위치하는 신체 정보 분석 장치.
  11. 제 10항에 있어서,
    그 중, 상기 처리 유닛은,
    상기 얼굴 영상에 대하여 하나의 얼굴 분석 처리를 실행함으로써 상기 눈썹 영상의 복수개 눈썹 특징점 및 하나의 코 영상의 복수개 코 특징점을 식별하되, 그 중, 상기 복수개 눈썹 특징점은 각각 눈썹의 다양한 특징에 대응되고, 상기 복수개 코 특징점은 각각 코의 다양한 특징에 대응되는 하나의 얼굴 분석 모듈; 을 포함하여 구성되는 신체 정보 분석 장치.
  12. 제 10항에 있어서,
    그 중, 상기 처리 유닛은,
    상기 대칭 보조선을 기준으로 상기 복수개 눈썹 특징점에 대하여 하나의 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점을 취득하되, 그 중, 상기 복수개 거울면 반사 특징점 및 상기 복수개 눈썹 특징점은 각각 상기 대칭 보조선의 다른 측에 위치하는 하나의 거울면 반사 모듈;
    상기 복수개 코 특징점에 의하여 상기 대칭 보조선을 계산하고, 상기 대칭 보조선 및 상기 복수개 거울면 반사 특징점의 위치에 의하여 상기 투영 위치를 계산하는 하나의 계산 모듈; 및
    상기 복수개 거울면 반사 특징점을 연결함으로써 상기 거울면 반사 눈썹 모양 도안을 제도하는 하나의 제도 모듈; 을 더 포함하여 구성되는 신체 정보 분석 장치.
  13. 제 12항에 있어서,
    그 중, 상기 계산 모듈은 상기 복수개 눈썹 특징점 및 상기 대칭 보조선 사이의 복수개 제1 수직 거리를 계산하고, 또한 상기 복수개 제1 수직 거리에 의하여 상기 대칭 보조선의 타 측에 위치한 상기 복수개 거울면 반사 특징점을 계산하며, 상기 복수개 거울면 반사 특징점의 위치에 의하여 상기 투영 위치를 계산하되, 그 중, 상기 복수개 거울면 반사 특징점 및 상기 대칭 보조선 사이의 복수개 제2 수직 거리는 각각 상기 복수개 제1 수직 거리와 동일하고, 또한 상기 각 눈썹 특징점 및 대응되는 각 상기 거울면 반사 특징점 사이의 연결선은 상기 대칭 보조선에 수직되는 신체 정보 분석 장치.
  14. 제 10항에 있어서,
    상기 처리 유닛에 전기적으로 연결되어 상기 얼굴 영상의 양 측 중의 하나를 하나의 기준 측으로 선택하는 선택 동작을 접수하는 하나의 입력 인터페이스; 및
    하나의 전자 장치에 연결되어 상기 전자 장치로부터 상기 얼굴 영상의 양 측 중의 하나를 하나의 기준 측으로 선택하는 선택 명령을 접수하는 하나의 무선 송수신 모듈; 을 더 포함하여 구성되고,
    그 중, 상기 처리 유닛은 상기 얼굴 영상으로부터 선택된 상기 측의 상기 눈썹 영상을 식별하고, 또한 선택된 상기 측의 상기 눈썹 영상에 의하여 상기 거울면 반사 눈썹 도안을 생성하는 신체 정보 분석 장치.
  15. 제 10항에 있어서,
    그 중, 상기 처리 유닛은,
    상기 얼굴 영상에 대하여 하나의 얼굴 분석 처리를 실행함으로써 각각 상기 대칭 보조선의 양 측에 위치한 하나의 제1 눈썹 영상의 복수개 제1 눈썹 특징점 및 하나의 제2 눈썹 영상의 복수개 제2 눈썹 특징점을 식별하고, 상기 복수개 제1 눈썹 특징점에 의하여 하나의 제1 눈썹 데이터 세트를 생성하고 상기 복수개 제2 눈썹 특징점에 의하여 하나의 제2 눈썹 데이터 세트를 생성하되, 그 중, 상기 복수개 제1 눈썹 특징점은 적어도 각각 일 측의 눈썹의 눈썹머리, 눈썹융기 및 눈썹꼬리에 대응되는 3개 상기 제1 눈썹 특징점을 포함하여 구성되고, 상기 복수개 제2 눈썹 특징점은 적어도 각각 타 측의 눈썹의 눈썹머리, 눈썹융기 및 눈썹꼬리에 대응되는 3개 상기 제2 눈썹 특징점을 포함하여 구성되는 하나의 얼굴 분석 모듈;
    상기 대칭 보조선을 기준으로 상기 제1 눈썹 데이터 세트에 대하여 하나의 거울면 반사 처리를 실행함으로써 복수개 거울면 반사 특징점을 취득하는 하나의 거울면 반사 모듈;
    상기 복수개 거울면 반사 특징점 및 상기 제2 눈썹 데이터 세트에 의하여 하나의 조절 파라미터 세트를 계산하고, 상기 대칭 보조선 및 상기 조절 파라미터에 의하여 상기 복수개 거울면 반사 특징점의 위치를 조절하며, 조절 후의 상기 복수개 거울면 반사 특징점의 위치에 의하여 상기 투영 위치를 계산하되, 그 중, 상기 조절 파라미터는 하나의 평행 이동 파라미터, 하나의 회전 파라미터 및 하나의 스케일링 파라미터를 포함하여 구성되는 하나의 계산 모듈; 및
    조절 후의 상기 복수개 거울면 반사 특징점의 위치에 의하여 상기 거울면 반사 눈썹 모양 도안을 제도하는 하나의 제도 모듈; 을 포함하여 구성되는 신체 정보 분석 장치.
KR1020180005061A 2017-09-28 2018-01-15 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법 KR102045218B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710896760.9A CN109583261A (zh) 2017-09-28 2017-09-28 身体信息分析装置及其辅助比对眉型方法
CN201710896760.9 2017-09-28

Publications (2)

Publication Number Publication Date
KR20190037050A true KR20190037050A (ko) 2019-04-05
KR102045218B1 KR102045218B1 (ko) 2019-11-15

Family

ID=61691252

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180005061A KR102045218B1 (ko) 2017-09-28 2018-01-15 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법

Country Status (5)

Country Link
US (1) US10521648B2 (ko)
EP (1) EP3462376B1 (ko)
JP (1) JP6761824B2 (ko)
KR (1) KR102045218B1 (ko)
CN (1) CN109583261A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553221A (zh) * 2020-04-21 2020-08-18 海信集团有限公司 一种数据处理方法及智能设备
CN111553220A (zh) * 2020-04-21 2020-08-18 海信集团有限公司 一种智能设备及数据处理方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109288233A (zh) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 可标示修容区域的身体信息分析装置
US11935449B2 (en) * 2018-01-22 2024-03-19 Sony Corporation Information processing apparatus and information processing method
CN109165571B (zh) * 2018-08-03 2020-04-24 北京字节跳动网络技术有限公司 用于插入图像的方法和装置
JP7175476B2 (ja) * 2019-10-30 2022-11-21 有限会社 ティ・アール・コーポレーション デザイン方法、眉デザインサーバ及びデザイン支援プログラム
CN110866979A (zh) * 2019-11-14 2020-03-06 联想(北京)有限公司 数据处理方法、装置、计算设备以及介质
US20210187765A1 (en) * 2019-12-18 2021-06-24 L'oreal Browblade adapter mechanism
CN114554097A (zh) * 2022-02-28 2022-05-27 维沃移动通信有限公司 显示方法、显示装置、电子设备和可读存储介质
WO2023225367A1 (en) * 2022-05-19 2023-11-23 Fleek Inc. System and method for guiding eyebrow shaping with projected light

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216000A (ja) * 2006-01-17 2007-08-30 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2007293649A (ja) * 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc メークアップアシスト装置および眉毛描画アシスト装置
JP2012095730A (ja) * 2010-10-29 2012-05-24 Omron Corp 画像処理装置、画像処理方法、および制御プログラム
JP5656603B2 (ja) * 2010-12-14 2015-01-21 キヤノン株式会社 情報処理装置、情報処理方法、およびそのプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2341231A (en) 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
AUPS140502A0 (en) * 2002-03-27 2002-05-09 Seeing Machines Pty Ltd Method for automatic detection of facial features
JP2004357801A (ja) * 2003-06-02 2004-12-24 Fuji Photo Film Co Ltd 化粧用表示装置
JP4180027B2 (ja) * 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム
US20070047761A1 (en) * 2005-06-10 2007-03-01 Wasilunas Elizabeth A Methods Of Analyzing Human Facial Symmetry And Balance To Provide Beauty Advice
WO2007083600A1 (ja) * 2006-01-17 2007-07-26 Shiseido Company, Ltd. メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
EP1865443A3 (en) 2006-06-09 2010-03-17 Samsung Electronics Co.,Ltd. Facial feature detection method and device
US20090151741A1 (en) * 2007-12-14 2009-06-18 Diem Ngo A cosmetic template and method for creating a cosmetic template
JP2009213751A (ja) * 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc 化粧評価プログラム、化粧評価方法および化粧評価装置
JP2013158481A (ja) 2012-02-06 2013-08-19 Seiko Epson Corp 電子鏡およびそのプログラム
CN102708575A (zh) * 2012-05-17 2012-10-03 彭强 基于人脸特征区域识别的生活化妆容设计方法及系统
FR2995411B1 (fr) 2012-09-07 2014-09-19 Tipheret Procede et dispositif pour preparer une monture de lunettes
US9613282B2 (en) * 2012-11-14 2017-04-04 Golan Weiss Biometric methods and systems for enrollment and authentication
EP2981935A4 (en) 2013-04-03 2016-12-07 Nokia Technologies Oy APPARATUS AND ASSOCIATED METHODS
JP5863930B2 (ja) * 2014-11-14 2016-02-17 レノボ・イノベーションズ・リミテッド(香港) 化粧支援装置、化粧支援方法、及びプログラム
US10292483B2 (en) * 2017-03-21 2019-05-21 Nisan Shlomov Eyebrow shaping method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216000A (ja) * 2006-01-17 2007-08-30 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2007293649A (ja) * 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc メークアップアシスト装置および眉毛描画アシスト装置
JP2012095730A (ja) * 2010-10-29 2012-05-24 Omron Corp 画像処理装置、画像処理方法、および制御プログラム
JP5656603B2 (ja) * 2010-12-14 2015-01-21 キヤノン株式会社 情報処理装置、情報処理方法、およびそのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553221A (zh) * 2020-04-21 2020-08-18 海信集团有限公司 一种数据处理方法及智能设备
CN111553220A (zh) * 2020-04-21 2020-08-18 海信集团有限公司 一种智能设备及数据处理方法
CN111553221B (zh) * 2020-04-21 2023-10-31 海信集团有限公司 一种数据处理方法及智能设备

Also Published As

Publication number Publication date
EP3462376A1 (en) 2019-04-03
US10521648B2 (en) 2019-12-31
US20190095696A1 (en) 2019-03-28
EP3462376B1 (en) 2020-06-17
CN109583261A (zh) 2019-04-05
KR102045218B1 (ko) 2019-11-15
JP2019063479A (ja) 2019-04-25
JP6761824B2 (ja) 2020-09-30

Similar Documents

Publication Publication Date Title
KR20190037050A (ko) 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법
US20210177124A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
KR102045219B1 (ko) 증강 현실과 결합된 신체 정보 분석 장치 및 눈썹 모양 미리보기 방법
US10580160B2 (en) Device and method for determining a position of a mobile device in relation to a subject
JP6547013B2 (ja) 生体情報解析装置及びその頬紅解析方法
JP6568606B2 (ja) 身体情報分析装置およびそのアイシャドウの分析方法
KR102045228B1 (ko) 신체 정보 분석 장치 및 얼굴형 모의 방법
KR102065480B1 (ko) 신체 정보 분석 장치 및 입술 화장 분석 방법
KR20190028258A (ko) 신체 정보 분석 장치 및 손 피부 분석 방법
JP2007299070A (ja) 顔形状モデル生成装置及びその方法
EP4356226A1 (en) Inferring user pose using optical data
KR102045217B1 (ko) 인체 정보 분석장치 및 메이크업 파운데이션 분석 방법
KR102101337B1 (ko) 볼터치 구역의 표시가 가능한 신체 정보 분석 장치
KR20190032156A (ko) 신체 정보 분석 장치 및 얼굴형 검측 방법
KR20190011651A (ko) 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치
CN117389676B (zh) 一种基于显示界面的智能发型适配展示方法
US20240032856A1 (en) Method and device for providing alopecia information
WO2022266515A1 (en) Inferring user pose using optical data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant