KR20190011651A - 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치 - Google Patents

쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치 Download PDF

Info

Publication number
KR20190011651A
KR20190011651A KR1020170157206A KR20170157206A KR20190011651A KR 20190011651 A KR20190011651 A KR 20190011651A KR 1020170157206 A KR1020170157206 A KR 1020170157206A KR 20170157206 A KR20170157206 A KR 20170157206A KR 20190011651 A KR20190011651 A KR 20190011651A
Authority
KR
South Korea
Prior art keywords
human face
face
shading
line
area
Prior art date
Application number
KR1020170157206A
Other languages
English (en)
Inventor
샤이-용 센
민-창 치
후이-텅 린
Original Assignee
칼-콤프 빅 데이터, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칼-콤프 빅 데이터, 인크. filed Critical 칼-콤프 빅 데이터, 인크.
Publication of KR20190011651A publication Critical patent/KR20190011651A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 발명은 외부 영상을 취득하는 영상 취득 모듈; 영상 취득 모듈과 전기적으로 연결되고 복수의 얼굴 윤곽 및 복수의 얼굴 윤곽에 각각 대응되는 복수의 표시 프로그램이 저장되며, 외부 영상으로부터 사람 얼굴이 식별되었을 때 사람 얼굴의 얼굴 윤곽을 판단한 다음 판단한 얼굴 윤곽에 의하여 대응되는 표시 프로그램을 실행하여 사람 얼굴에 쉐이딩 구역을 표시하는 처리 유닛; 및 처리 유닛과 전기적으로 연결되고 사람 얼굴 및 쉐이딩 구역을 표시하는 디스플레이 모듈; 을 포함하여 구성되는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치에 관한 것이다.

Description

쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치 {Body information analysis apparatus capable of indicating repair-area}
본 발명은 분석 장치에 관한 것으로서 더욱 상세하게는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치에 관한 것이다.
여성들에게 있어서, 화장은 거의 매일 하는 동작 중의 하나라고 볼 수 있다.
통상적으로, 사용자는 거울 앞에 앉아서 화장을 하거나 또는 스마트폰, 태블릿 PC 등 장치의 카메라 렌즈 및 스크린을 통하여 화장을 하게 된다.
하지만, 사용자 화장의 균일 여부, 위치의 정확 여부 등 문제는 통상적으로 사용자가 친히 육안을 통하여 관찰 및 확인하여야 한다. 따라서, 일부 경험이 부족한 사용자는 자주 화장 속도가 느리거나 화장 효과가 좋지 못한 문제에 봉착하게 된다.
이에 따라, 본 기술 분야에 있어서, 사용자에게 도움을 주어 빠른 속도로 화장 동작을 완성하고 경험이 부족한 사용자들도 높은 품질의 화장을 완성하도록 할 수 있는 보조 장치가 시급히 필요한 현황이다.
본 발명에 따른 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치는 사용자가 화장을 할 때 사용자의 얼굴 윤곽에 의하여 자동으로 사용자의 사람 얼굴 영상에 쉐이딩 구역을 표시함으로써 사용자를 안내하여 정확한 위치에 쉐이딩 동작을 실행하도록 하기 위한 것이다.
본 발명의 일 실시예에 따른 상기 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치는,
하나의 외부 영상을 취득하는 하나의 영상 취득 모듈;
상기 영상 취득 모듈과 전기적으로 연결되고 복수의 얼굴 윤곽 및 상기 각 얼굴 윤곽에 각각 대응되는 복수의 표시 프로그램이 저장되며, 상기 외부 영상에 대한 식별을 통하여 상기 외부 영상으로부터 하나의 사람 얼굴이 식별되었을 때 상기 사람 얼굴의 각 부위에 대하여 포지셔닝하여 상기 사람 얼굴의 얼굴 윤곽을 판단하되,
상기 사람 얼굴이 상기 복수의 얼굴 윤곽 중의 하나라고 판단될 때, 상기 얼굴 윤곽에 대응되는 상기 표시 프로그램을 실행하여 상기 사람 얼굴에 하나의 쉐이딩 구역을 표시하는 하나의 처리 유닛; 및
상기 처리 유닛과 전기적으로 연결되고, 상기 쉐이딩 구역과 상기 사람 얼굴이 중첩되는 방식으로 상기 사람 얼굴 및 상기 쉐이딩 구역을 표시하는 디스플레이 모듈; 을 포함하여 구성된다.
상기 내용에 있어서, 그중 상기 처리 유닛은,
상기 외부 영상에 대한 식별을 통하여 상기 외부 영상에 상기 사람 얼굴이 포함되어 있는지 판단하는 하나의 얼굴 식별 모듈;
상기 사람 얼굴에 대하여 포지셔닝하고 상기 사람 얼굴이 상기 복수의 얼굴 윤곽 중의 하나인지 판단하는 하나의 포지셔닝 모듈; 및
상기 얼굴 윤곽에 의하여 상기 복수의 표시 프로그램 중의 하나를 실행하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시하는 하나의 표시 모듈; 을 포함하여 구성된다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 사람 얼굴이 타원형 얼굴이라고 판단되었을 때 상기 사람 얼굴에 대한 단장이 필요 없다고 판정한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 사람 얼굴이 원형 얼굴이라고 판단되었을 때 하나의 제1 표시 프로그램을 통하여 상기 사람 얼굴에 하나의 쉐이딩 구역을 표시한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 제1 표시 프로그램을 실행하여,
상기 사람 얼굴의 하나의 눈썹 융기 위치에 하나의 제1 수평선을 생성하고;
상기 제1 수평선과 상기 사람 얼굴의 하나의 머리선 사이의 3분의 2 높이 위치를 연결하여 하나의 제2 수평선을 생성하고;
상기 제2 수평선과 상기 사람 얼굴 윤곽의 하나의 제1 교점을 취득하고;
상기 제1 교점과 상기 제1 수평선을 수직 연결하여 하나의 제1 수직선을 생성하고;
상기 눈썹 융기 위치로부터 위 방향으로 상기 제1 수직선의 중간 높이까지 이동하여 하나의 포지셔닝 포인트를 취득하고;
상기 포지셔닝 포인트와 상기 머리선을 수직 연결하여 하나의 제1 보조선을 생성하고;
상기 사람 얼굴의 하나의 미간 위치와 상기 제1 수평선을 수직 연결하여 하나의 제2 보조선을 생성하고;
상기 포지셔닝 포인트와 상기 제1 수평선 및 상기 제2 보조선의 교점을 연결하여 하나의 제3 보조선을 생성하고;
상기 제1 보조선, 상기 제2 보조선 및 상기 제3 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
상기 사람 얼굴의 하나의 입 최저점 위치에 수평으로 하나의 제4 보조선을 생성하고;
상기 사람 얼굴의 하나의 입가 위치에 아래 방향으로 수직되게 하나의 제5 보조선을 생성하고;
상기 제4 보조선 및 상기 제5 보조선으로 상기 쉐이딩 구역 중의 하나의 아래턱 구역을 구성하고;
상기 사람 얼굴의 하나의 비익 최고점 위치에 하나의 제3 수평선을 생성하고;
상기 제3 수평선과 상기 사람 얼굴 윤곽의 하나의 제2 교점을 취득하고;
상기 제5 보조선과 상기 사람 얼굴 윤곽의 하나의 제3 교점을 취득하고;
상기 제2 교점과 상기 제3 교점을 연결하여 하나의 제6 보조선을 생성하고; 및
상기 제6 보조선으로 상기 쉐이딩 구역 중의 하나의 하악 구역을 구성하는; 동작을 실행한다.
상기 내용에 있어서, 그중 상기 제1 표시 프로그램은 상기 윗이마 구역과 상기 아래턱 구역을 라이트 메이크업 구역으로 표시하고, 상기 하악 구역을 다크 메이크업 구역으로 표시한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 사람 얼굴이 사각형 얼굴이라고 판단되었을 때 하나의 제2 표시 프로그램을 통하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 제2 표시 프로그램을 실행하여,
상기 사람 얼굴의 하나의 미간 위치에 하나의 제1 수평선을 생성하고;
상기 제1 수평선과 상기 사람 얼굴 윤곽의 하나의 제1 교점을 취득하고;
상기 제1 교점과 상기 사람 얼굴의 하나의 머리선을 연결하여 하나의 제7 보조선을 생성하고;
상기 제7 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
상기 사람 얼굴의 하나의 비익 최고점 위치에 하나의 제2 수평선을 생성하고;
상기 제2 수평선과 상기 사람 얼굴 윤곽의 하나의 제2 교점을 취득하고;
상기 사람 얼굴의 하나의 입가 위치에 아래 방향으로 하나의 제1 수직선을 생성하고;
상기 제1 수직선과 상기 사람 얼굴 윤곽의 하나의 제3 교점을 취득하고;
상기 제2 교점과 상기 제3 교점을 연결하여 하나의 제8 보조선을 생성하고; 및
상기 제8 보조선으로 상기 쉐이딩 구역 중의 하나의 하악 구역을 구성하는; 동작을 실행한다.
상기 내용에 있어서, 그중 상기 제2 표시 프로그램은 상기 윗이마 구역과 상기 하악 구역을 다크 메이크업 구역으로 표시한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 사람 얼굴이 긴 얼굴이라고 판단되었을 때 하나의 제3 표시 프로그램을 통하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 제3 표시 프로그램을 실행하여,
상기 사람 얼굴의 하나의 이마 중간 위치에 하나의 제1 수평선을 생성하고;
상기 제1 수평선과 상기 사람 얼굴의 하나의 머리선 사이의 2분의 1 높이 위치에 수평으로 하나의 제9 보조선을 생성하고;
상기 제9 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
상기 사람 얼굴의 하나의 입 최저점 위치에 하나의 제2 수평선을 생성하고;
상기 제2 수평선과 상기 사람 얼굴의 최하단 사이의 2분의 1 높이 위치에 수평으로 하나의 제10 보조선을 생성하고; 및
상기 제10 보조선으로 상기 쉐이딩 구역 중의 하나의 아래턱 구역을 구성하는; 동작을 실행한다.
상기 내용에 있어서, 그중 상기 제3 표시 프로그램은 상기 윗이마 구역과 상기 아래턱 구역을 다크 메이크업 구역으로 표시한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 사람 얼굴이 역삼각형 얼굴 또는 능형 얼굴이라고 판단되었을 때 하나의 제4 표시 프로그램을 통하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시한다.
상기 내용에 있어서, 그중 상기 표시 모듈은 상기 제4 표시 프로그램을 실행하여,
상기 사람 얼굴의 하나의 눈 하부 가장자리 위치에 하나의 제1 수평선을 생성하고;
상기 제1 수평선과 상기 사람 얼굴 윤곽의 하나의 제1 교점을 취득하고;
상기 제1 교점과 상기 사람 얼굴의 하나의 머리선을 연결하여 하나의 제11 보조선을 생성하고;
상기 제11 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
상기 사람 얼굴의 하나의 코 최저점 위치에 하나의 제2 수평선을 생성하고;
상기 제2 수평선과 상기 사람 얼굴 윤곽의 하나의 제2 교점을 취득하고;
상기 사람 얼굴의 하나의 입가 위치에 아래 방향으로 하나의 제1 수직선을 생성하고;
상기 제1 수직선과 상기 사람 얼굴 윤곽의 하나의 제3 교점을 취득하고;
상기 제2 교점과 상기 제3 교점을 연결하여 하나의 제12 보조선을 생성하고; 및
상기 제12 보조선으로 상기 쉐이딩 구역 중의 하나의 하악 구역을 구성하는; 동작을 실행한다.
상기 내용에 있어서, 그중 상기 제4 표시 프로그램은 상기 윗이마 구역을 라이트 메이크업 구역으로 표시하고, 상기 하악 구역을 다크 메이크업 구역으로 표시한다.
본 발명이 관련 종래 기술에 비하여 달성할 수 있는 기술적 효과는, 사용자가 신체 정보 분석 장치를 이용하여 화장 동작을 실행할 때, 자신의 얼굴 영상을 관찰할 수 있는 동시에 얼굴 영상으로부터 장치가 권장하는 쉐이딩 구역을 취득하여 빠른 속도로 정확한 위치에 쉐이딩 동작을 실행할 수 있는데 있다.
도 1은 본 발명의 제1 구체 실시예에 따른 시스템 구성도이다.
도 2는 본 발명의 제1 구체 실시예에 따른 분석 장치 예시도이다.
도 3은 본 발명의 제2 구체 실시예에 따른 분석 장치 예시도이다.
도 4는 본 발명의 제1 구체 실시예에 따른 분석 장치 블록도이다.
도 5는 본 발명의 제1 구체 실시예에 따른 처리 유닛 예시도이다.
도 6a는 본 발명의 제1 구체 실시예에 따른 제1 표시 흐름도이다.
도 6b는 본 발명의 제1 구체 실시예에 따른 제2 표시 흐름도이다.
도 7은 얼굴 포지셔닝 예시도이다.
도 8a는 본 발명의 제2 구체 실시예에 따른 쉐이딩 구역 제1 표시 흐름도이다.
도 8b는 본 발명의 제2 구체 실시예에 따른 쉐이딩 구역 제2 표시 흐름도이다.
도 8c는 본 발명의 제2 구체 실시예에 따른 제1 쉐이딩 구역 예시도이다.
도 8d는 본 발명의 제2 구체 실시예에 따른 제2 쉐이딩 구역 예시도이다.
도 9a는 본 발명의 제3 구체 실시예에 따른 쉐이딩 구역 표시 흐름도이다.
도 9b는 본 발명의 제3 구체 실시예에 따른 쉐이딩 구역 예시도이다.
도 10a는 본 발명의 제4 구체 실시예에 따른 쉐이딩 구역 표시 흐름도이다.
도 10b는 본 발명의 제4 구체 실시예에 따른 쉐이딩 구역 예시도이다.
도 11a는 본 발명의 제5 구체 실시예에 따른 쉐이딩 구역 표시 흐름도이다.
도 11b는 본 발명의 제5 구체 실시예에 따른 쉐이딩 구역 예시도이다.
도 12는 본 발명의 제3 구체 실시예에 따른 분석 장치 예시도이다.
이하 도면을 참조하여 본 발명에 따른 여러가지 실시예를 상세하게 설명하면 다음과 같다.
도 1은 본 발명의 제1 구체 실시예에 따른 시스템 구성도이다. 본 발명은 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치(이하 분석 장치(1)로 지칭함)를 공개한 것으로서, 상기 분석 장치(1)는 주로 하나의 쉐이딩 구역(shading-area) 표시 방법(이하 표시 방법으로 지칭함)을 실행하여 사용자에게 도움을 주어 빠른 속도로 정확한 위치에 쉐이딩 동작을 실행할 수 있도록 한다.
일 실시예에 있어서, 사용자는 전자 장치(2)에 대한 조작을 통하여 분석 장치(1)에 대한 설정을 진행할 수 있다. 구체적으로 말하면, 분석 장치(1) 및 전자 장치(2)가 동일한 무선 라우터(3)에 연결된 다음, 분석 장치(1)는 무선 라우터(3)를 통하여 전자 장치(2)와 무선 연결될 수 있다. 또한, 분석 장치(1) 및 전자 장치(2)는 기타 무선 통신 프로토콜을 통하여 직접 매칭 및 연결(예를 들면 블루투스 매칭, Zigbee 연결, RF 연결 등)되어 서로 사이에서 데이터, 명령 및 신호를 송수신할 수 있다.
도 1에 도시된 바와 같이, 전자 장치(2) 내에는 소프트웨어(21)가 설치된다. 구체적으로 말하면, 소프트웨어(21)는 분석 장치(1)와 서로 호환성이 있는 소프트웨어(21)(예를 들면 분석 장치(1)의 제조 업체에서 개발 및 제공한 소프트웨어)일 수 있다. 본 발명에서, 사용자는 소프트웨어(21)에 대한 조작을 통하여 분석 장치(1) 상의 다양한 설정 동작(예를 들면 얼굴 정보의 등록, 다양한 프리셋 값의 설정 등)을 완성할 수 있다.
일 실시예에 있어서, 분석 장치(1)는 소재 구역 상의 무선 라우터(3)에 연결하여 무선 라우터(3)를 통하여 인터넷(4)에 접속할 수 있다. 이에 따라, 분석 장치(1)는 인터넷(4)을 통하여 펌웨어의 업데이트, 데이터의 업로드 및 다운로드 등 동작을 실행할 수 있다. 또한, 분석 장치(1)는 인터넷(4)을 통하여 사용자의 신체 정보를 원격 컴퓨터 장치(미도시)에 전송함으로써, 사용자가 원격으로 조회할 수 있도록 하거나 이를 통하여 원격 백업의 목적을 실현할 수도 있다.
도 2 및 도 3은 본 발명의 제1 구체 실시예 및 제2 구체 실시예에 따른 분석 장치 예시도이다. 본 발명에 따른 분석 장치(1)는 주로 사용자(5)의 침실 또는 화장실에 설치되어 사용자(5)가 신체 정보(예를 들면 얼굴, 목, 손의 피부 상태)를 감지 및 분석하고, 이 분석 장치(1)의 도움에 의해 화장 동작을 실행할 수 있도록 한다.
분석 장치(1)에는 거울면 스크린(11)이 구비된다. 분석 장치(1)가 시동되면 거울면 스크린(11)을 통하여 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 표시하는 동시에 그래픽 유저 인터페이스를 통하여 사용자(5)와의 대화를 실현할 수 있다. 다른 방면으로, 분석 장치(1)가 꺼져 있을 때, 거울면 스크린(11)은 단순히 거울로 사용되어 사용자(5)의 모습을 반사할 수도 있다. 본 발명은 주로 분석 장치(1)를 통하여 사용자(5)에게 도움을 주어 화장 동작을 실행하기 때문에, 거울면 스크린(11)은 사용자(5)의 모습을 반사하는 동시에 그래픽 유저 인터페이스를 표시할 수 있다. 이에 따라, 분석 장치(1)는 사용자(5)가 화장을 하는 과정 중, 사용자(5)의 화장 상태에 대한 분석을 통하여 보조적인 역할(하기 내용에서 상세하게 설명)을 일으킬 수 있다. 일 실시예에 있어서, 거울면 스크린(11)을 터치 스크린으로 구성함으로써 사용자(5)는 거울면 스크린(11)을 통하여 분석 장치(1)에 대하여 데이터 입력 동작을 실행할 수 있다.
분석 장치(1)에는 영상 취득 모듈(12)이 더 구비되되, 분석 장치(1)에 설치되고 각도에 대한 조절을 실행할 수 있다. 일 실시예에 있어서, 영상 취득 모듈(12)은 사용자(5)의 고해상도 영상(예를 들면 얼굴 영상, 목 영상, 손 영상 등)을 촬영할 수 있고, 분석 장치(1)는 상기 영상에 의하여 사용자(5)의 신체 정보 및 화장 진도를 분석할 수 있다. 다른 실시예에 있어서, 영상 취득 모듈(12)은 외부 정보(예를 들면 바코드, QR 코드 등)를 취득한 다음 정보의 내용에 의하여 대응되는 데이터를 취득할 수 있다.
분석 장치(1)는 복수의 버튼(13)을 더 구비할 수 있다. 본 실시예에 있어서, 복수의 버튼(13)은 실체 버튼(button) 또는 터치 키(touch key)일 수 있으나 이에 한정되는 것은 아니다. 사용자(5)는 버튼(13)을 촉발함으로써 상기 그래픽 유저 인터페이스를 제어(예를 들면 그래픽 유저 인터페이스를 제어하여 메인 페이지, 이전 페이지 또는 다음 페이지로 이동)하거나, 또는 분석 장치(1)가 대응되는 기능(예를 들면 거울면 스크린(11) 열기, 거울면 스크린(11) 닫기, 영상 취득 모듈(12) 시동 등)을 바로 실행하도록 할 수 있다.
분석 장치(1)는 하나 또는 복수의 센서(14)(예를 들면 온도 센서, 습도 센서 등)를 더 구비하여 분석 장치(1)가 위치한 환경의 환경 데이터를 감지함으로써 분석 장치(1)의 사용자(5) 신체 정보 감지 및 분석 정확도를 향상시킬 수 있다. 일 실시예에 있어서, 상기 센서(14)는 동작 센서(motion sensor)로서 분석 장치(1)가 동작 센서를 통하여 사용자(5)의 이동 손동작(예를 들면 좌측으로 이동, 우측으로 이동, 위로 이동, 아래로 이동, 앞으로 이동 또는 뒤로 이동 등)을 감지하도록 할 수 있다. 이에 따라, 사용자(5)는 손동작을 통하여 상기 거울면 스크린(11) 또는 버튼(13)에 대한 조작이 필요 없이 지문이 남겨지지 않는 상태로 분석 장치(1)에 대한 데이터 입력 동작을 실행할 수 있다.
도 4는 본 발명의 제1 구체 실시예에 따른 분석 장치 블록도이다. 도 4에 도시된 바와 같이, 분석 장치(1)는 주로 처리 유닛(10), 그리고 처리 유닛(10)과 전기적으로 연결되는 디스플레이 모듈(111), 영상 취득 모듈(12), 입력 인터페이스(15) 및 무선 송수신 모듈(16)을 포함하여 구성된다.
일 실시예에 있어서, 영상 취득 모듈(12)은 카메라로 구성되어 외부 영상 및 외부 정보를 취득할 수 있다. 분석 장치(1)는 외부 영상을 이용한 사용자 식별(예를 얼굴 식별, 목 식별, 손 식별 등)을 통하여 사용자의 얼굴, 목, 손 등 부위에 대한 분석을 실행할 수 있다. 또한, 분석 장치(1)는 외부 정보의 내용에 의하여 대응되는 동작을 실행할 수도 있다.
디스플레이 모듈(111)은 상기 그래픽 유저 인터페이스를 표시한다. 일 실시예에 있어서, 디스플레이 모듈(111)은 상기 거울면 스크린(11)에 설치된다. 디스플레이 모듈(111)이 활성화될 때, 디스플레이 모듈(111)의 광원은 거울면 스크린(11)을 투과하여 그래픽 유저 인터페이스를 거울면 스크린(11)에 표시할 수 있다. 디스플레이 모듈(111)이 비활성화될 때, 사용자는 거울면 스크린(11)을 일반 거울로 사용할 수 있다. 일 실시예에 있어서, 분석 장치(1)는 디스플레이 모듈(111)의 광원 세기 또는 디스플레이 구역을 조절함으로써 거울면 스크린(11)이 사용자의 영상을 반사하는 동시에 그래픽 유저 인터페이스를 표시하도록 할 수 있다.
분석 장치(1)는 입력 인터페이스(15)를 통하여 사용자의 외부 입력을 접수함으로써 사용자와 그래픽 유저 인터페이스 사이의 대화를 실현하거나 필요한 설정 동작을 실행하도록 할 수 있다. 일 실시예에 있어서, 입력 인터페이스(15)는 상기 센서(14)로 구성되어 사용자의 손동작 입력을 감지할 수 있다. 다른 실시예에 있어서, 입력 인터페이스(15)는 상기 영상 취득 모듈(12)로 구성되어 외부 영상 또는 외부 정보를 취득할 수 있다. 또 다른 실시예에 있어서, 입력 인터페이스(15)는 터치 스크린 또는 버튼(13)으로 구성되어 사용자의 입력 동작을 접수할 수 있다. 또 다른 실시예에 있어서, 입력 인터페이스(15)는 마이크로 구성되어 외부의 음성 정보를 접수할 수 있다.
무선 송수신 모듈(16)은 인터넷(4) 연결에 사용된다. 구체적으로 말하면, 사용자는 인터넷(4)을 통하여 분석 장치(1)로 원격 접속함으로써 분석 장치(1)에 기록된 다양한 정보(예를 들면 신체 정보)를 수시로 조회할 수 있다.
처리 유닛(10)은 디스플레이 모듈(111), 영상 취득 모듈(12), 입력 인터페이스(15) 및 무선 송수신 모듈(16)과 연결되고 처리 유닛(10)에는 컴퓨터로 실행 가능한 프로그램 코드(미도시)를 포함하여 구성된다. 컴퓨터로 실행 가능한 프로그램 코드를 실행함에 따라서, 처리 유닛(10)은 본 발명에 따른 표시 방법을 실현할 수 있다.
도 5는 본 발명의 제1 구체 실시예에 따른 처리 유닛 예시도이다. 구체적으로 말하면, 처리 유닛(10)은 주로 상기 컴퓨터로 실행 가능한 프로그램 코드를 통하여 본 발명에 따른 표시 방법 중의 각 기능을 실행하되, 다양한 기능에 따라서 상기 컴퓨터로 실행 가능한 프로그램 코드를 하기와 같은 기능 모듈로 구분할 수 있다.
1. 영상 취득 모듈(12)을 통하여 취득한 외부 영상에 대한 식별을 통하여 외부 영상 중 사람 얼굴의 존재 여부를 판단하는 얼굴 식별 모듈(101);
2. 특정 알고리즘을 통하여 외부 영상 중의 사람 얼굴을 포지셔닝함으로써 사람 얼굴 상의 각 부위의 위치를 취득하고 더 나아가서 상기 사람 얼굴의 얼굴 윤곽을 판단하는 포지셔닝 모듈(102); 및
3. 포지셔닝 모듈(102)을 통하여 판단한 얼굴 윤곽에 따라서 대응되는 프로그램을 실행하여 상기 사람 얼굴에 정확한 권장 쉐이딩 구역을 표시하는 표시 모듈(103).
본 실시예에 있어서, 처리 유닛(10)에는 복수의 얼굴 윤곽이 기록되어 상기 포지셔닝 모듈(102)이 포지셔닝 작업을 완성한 다음 적어도 타원형 얼굴, 원형 얼굴, 사각형 얼굴, 긴 얼굴, 역삼각형 얼굴 및 능형 얼굴 등 여섯가지 얼굴 윤곽 중의 하나로 식별하되, 이에 한정되는 것은 아니다.
처리 유닛(10)에는 또한 상기 각 얼굴 윤곽에 대응되는 복수의 표시 프로그램이 기록되고, 각 표시 프로그램은 각각 서로 다른 얼굴 윤곽에 쉐이딩 구역을 표시하는데 사용되며, 각 표시 프로그램은 각각 서로 다른 표시 단계를 실행한다.
구체적으로 말하면, 표시 모듈(103)은 상기 사람 얼굴이 원형 얼굴로 식별되었을 때 제1 표시 프로그램을 실행하여 사람 얼굴에 쉐이딩 구역을 표시할 수 있고; 상기 사람 얼굴이 장방형 얼굴로 식별되었을 때 제2 표시 프로그램을 실행하여 사람 얼굴에 쉐이딩 구역을 표시할 수 있으며; 상기 사람 얼굴이 긴 얼굴로 식별되었을 때 제3 표시 프로그램을 실행하여 사람 얼굴에 쉐이딩 구역을 표시할 수 있고; 상기 사람 얼굴이 역삼각형 얼굴 또는 능형 얼굴로 식별되었을 때 제4 표시 프로그램을 실행하여 사람 얼굴에 쉐이딩 구역을 표시할 수 있다. 특별히 설명하여야 할 것은, 상기 사람 얼굴이 타원형 얼굴로 식별되었을 때, 표시 모듈(103)은 상기 사람 얼굴에 대한 단장이 필요 없다고 판정하여 쉐이딩 구역의 표시 동작을 실행하지 않는다. 단, 상기 내용은 본 발명에 따른 몇가지 구체적인 실시예일 뿐, 본 발명의 특허 청구 범위를 한정하는 것이 아니다.
본 발명에 있어서, 사용자가 분석 장치(1)를 향하고 있을 때, 분석 장치(1)는 영상 취득 모듈(12)을 통하여 사용자를 포함한 외부 영상을 취득할 수 있다. 이어서, 분석 장치(1)는 처리 유닛(10)의 얼굴 식별 모듈(101)을 통하여 외부 영상 중의 사람 얼굴 영상을 추출한 다음 처리 유닛(10)의 포지셔닝 모듈(102)을 통하여 상기 사람 얼굴 영상의 얼굴 윤곽을 식별할 수 있다. 이어서, 분석 장치(1)는 처리 유닛(10)의 표시 모듈(103)을 통하여 얼굴 윤곽과 대응되는 표시 프로그램을 실행하여 사람 얼굴 영상에 쉐이딩 구역을 표시한다.
따라서, 분석 장치(1)는 거울면 스크린(11)을 통하여 사용자의 사람 얼굴 영상을 반사하는 동시에, 디스플레이 모듈(111)을 통하여 상기 사람 얼굴 영상에 상기 쉐이딩 구역을 표시(예를 들면 도 12에 도시된 바와 같이 사람 얼굴 영상과 쉐이딩 구역이 중첩되게 표시) 할 수 있다. 이에 따라서, 사용자는 직접 분석 장치(1)에 표시되는 쉐이딩 구역을 참고하여 빠른 속도로 정확한 위치에 쉐이딩 동작을 할 수 있다.
도 6a 및 도 6b는 본 발명의 제1 구체 실시예에 따른 제1 표시 흐름도 및 제2 표시 흐름도이다. 도 6a 및 도 6b는 본 발명에 따른 표시 방법의 각 단계를 설명하기 위한 것으로서, 주로 도 1 내지 도 5에 도시된 바와 같은 분석 장치(1)에 적용된다. 구체적으로 말하면, 본 발명에 따른 분석 장치(1)는 처리 유닛(10)을 통하여 상기 컴퓨터로 실행 가능한 프로그램 코드(즉 상기 각 기능 모듈(101~103))을 실행함으로써 하기와 같은 각 단계를 실현한다.
도 6a에 도시된 바와 같이, 본 발명에 따른 분석 장치(1)를 통하여 상기 분석 방법을 실행하여 사용자의 화장 동작에 도움을 주기 위하여, 우선 사용자가 분석 장치(1)를 켜야 한다(S10 단계). 일 실시예에 있어서, 사용자는 터치 스크린 혹은 버튼(13)을 촉발함으로써 분석 장치(1)를 켤 수 있다. 다른 실시예에 있어서, 분석 장치(1)는 전원을 연결한 후 자동으로 대기 모드로 진입하고, 사용자가 영상 취득 모듈(12) 또는 센서(14)를 통하여 손동작을 입력하였을 때 분석 장치(1)를 가동할 수 있지만, 이에 한정되는 것은 아니다.
구체적으로 말하면, 본 발명에 따른 분석 장치(1)는 서로 다른 기능을 제공하기 위한 다양한 모드를 가지고, 본 실시예는 분석 장치(1)가 켜진 다음 자동으로 사용자의 화장 동작에 도움을 주기 위한 협조 모드로 진입하는 경우이다. 다른 실시예에 있어서, 분석 장치(1)가 켜진 후 대기 모드로 진입하고, 사용자의 명령을 입력받았을 때 보조 모드로 진입할 수 있다.
분석 장치(1)가 켜진 다음, 영상 취득 모듈(12)을 통하여 지속적으로 외부 영상을 취득(S12 단계)하고, 처리 유닛(10)은 지속적으로 취득한 외부 영상 중 사람 얼굴의 존재 여부를 판단(S14 단계)한다. 일 실시예에 있어서, 처리 유닛(10)은 영상 취득 모듈(12)로부터 외부 영상을 취득하고, 상기 얼굴 식별 모듈(101)을 통하여 외부 영상에 대한 얼굴 식별을 실행함으로써 외부 영상 중 사람 얼굴의 존재 여부를 판단한다.
외부 영상 중 사람 얼굴이 존재하지 않을 때, 분석 장치(1)는 다시 S12 단계 및 S14 단계를 실행하여 지속적으로 외부 영상을 취득 및 분석한다. 예를 들면, 외부 영상 중에 침대, 문, 의자 등 물품밖에 없을(침실에 사람이 없음을 의미) 때, 또는 사용자의 신체 또는 배부밖에 없을(사용자가 화장 동작을 실행하지 않음을 의미) 때, 분석 장치(1)는 본 발명에 따른 표시 방법을 주동적으로 실행하지 않는다.
이어서 도 6b에 도시된 바와 같이, 처리 유닛(10)은 식별을 통하여 외부 영상 중에 사람 얼굴이 존재하는 것으로 판단되었을 때, 더 나아가서 사람 얼굴의 각 부위(주로는 사용자의 오관)에 대한 포지셔닝을 통하여 상기 사람 얼굴의 얼굴 윤곽을 판단(S16 단계)한다. 일 실시예에 있어서, 처리 유닛(10)은 외부 영상 중에 사람 얼굴이 존재하는 것으로 판단된 다음, 더 나아가서 사람 얼굴의 크기가 특정 비례 이상인지 판단(예를 들면 위부 영상 중의 40% 이상 차지)한다. 또한, 처리 유닛(10)은 사람 얼굴의 크기가 특정 비례 이상인 경우에만 사람 얼굴의 각 부위에 대한 포지셔닝을 통하여 사람 얼굴의 얼굴 윤곽을 판단한다.
일 실시예에 있어서, 처리 유닛(10)은 외부 영상 중에 사람 얼굴이 존재하는 것으로 판단된 다음, 사람 얼굴 영상을 상기 포지셔닝 모듈(102)로 송신하고 포지셔닝 모듈(102)을 통하여 상기 사람 얼굴에 대하여 포지셔닝 함으로써 사람 얼굴의 얼굴 윤곽을 식별한다. 본 실시예에 있어서, 포지셔닝 모듈(102)은 상기 사람 얼굴 상의 각 부위의 위치, 비례 등 파라미터에 의하여 얼굴 윤곽을 판단하고, 적어도 타원형 얼굴, 원형 얼굴, 사각형 얼굴, 긴 얼굴, 역삼각형 얼굴 및 능형 얼굴 등 여섯가지 얼굴 윤곽을 식별할 수 있다.
특별히 설명하여야 할 것은, 본 실시예에 있어서, 포지셔닝 모듈(102)은 하나의 Dlib Face Landmark 시스템을 통하여 상기 사람 얼굴 상의 각 부위에 대하여 포지셔닝할 수 있지만, 이에 한정되는 것은 아니다..
도 7은 얼굴 포지셔닝 예시도이다. 처리 유닛(10)이 외부 영상 중의 사람 얼굴을 식별한 다음, 더 나아가서 상기 Dlib Face Landmark 시스템을 통하여 얼굴(51) 영상에 대한 분석을 실행한다. Dlib Face Landmard 시스템은 본 기술 분야의 통상적인 기술적 수단으로서, 분석이 완성되었을 때 얼굴(51) 영상에 복수의 포지셔닝 포인트(6)(예를 들면 198개 포지셔닝 포인트)를 생성할 수 있다. 따라서, Dlib Face Landmark 시스템은 복수의 포지셔닝 포인트(6)의 번호, 형상, 배열 등 정보를 통하여 얼굴(51) 영상 중 각 부위의 위치를 확정하여 상기 포지셔닝 동작을 완성할 수 있다.
또한, 상기 포지셔닝 모듈(102)은 복수의 포지셔닝 포인트(6)의 위치를 통하여 얼굴(51) 각 부위의 위치 및 비례 관계를 확정하여 얼굴(51) 윤곽을 확인할 수도 있다.
다시 도 6b를 참조한다. S16 단계 이후, 처리 유닛(10)은 상기 사람 얼굴이 어떠한 얼굴 윤곽에 속하는지 확인하고 얼굴 윤곽에 따라서 대응되는 표시 프로그램을 사용하여 상기 사람 얼굴에 쉐이딩 구역을 표시함으로써 사용자의 쉐이딩 동작에 도움을 줄 수 있다. 본 발명에 있어서, 처리 유닛(10)은 상기 사람 얼굴이 원형 얼굴이라고 판단되었을 때 제1 표시 프로그램을 사용하고, 상기 사람 얼굴이 사각형 얼굴이라고 판단되었을 때 제2 표시 프로그램을 사용하며, 상기 사람 얼굴이 긴 얼굴이라고 판단되었을 때 제3 표시 프로그램을 사용하고, 상기 사람 얼굴이 역삼각형 또는 능형 얼굴이라고 판단되었을 때 제4 표시 프로그램을 사용하며, 이를 통하여 상기 쉐이딩 구역의 표시 동작을 실행한다. 또한, 처리 유닛(10)은 상기 사람 얼굴이 타원형 얼굴로 판단되었을 때, 사람 얼굴에 대한 단장이 필요 없다고 판정하여 쉐이딩 구역의 표시 동작을 실행하지 않는다.
제1 실시예에 있어서, 처리 유닛(10)은 식별을 통하여 생성된 얼굴 윤곽 정보를 상기 표시 모듈(103)에 송신하고, 표시 모듈(103)은 상기 사람 얼굴에 대한 단장이 필요 없다고 판정(S18 단계)하여 표시 모듈(103)은 상기 쉐이딩 구역의 표시 동작을 실행하지 않는다.
제2 실시예에 있어서, 처리 유닛(10)은 식별을 통하여 생성된 얼굴 윤곽 정보를 상기 표시 모듈(103)에 송신하고, 표시 모듈(103)은 상기 사람 얼굴이 원형 얼굴이라고 판단되었을 때 제1 표시 프로그램을 실행함으로써 제1 표시 프로그램을 통하여 사람 얼굴에 쉐이딩 구역을 표시(S20 단계)한다.
제3 실시예에 있어서, 처리 유닛(10)은 식별을 통하여 생성된 얼굴 윤곽 정보를 상기 표시 모듈(103)에 송신하고, 표시 모듈(103)은 상기 사람 얼굴이 사각형 얼굴이라고 판단되었을 때 제2 표시 프로그램을 실행함으로써 제2 표시 프로그램을 통하여 사람 얼굴에 쉐이딩 구역을 표시(S22 단계)한다.
제4 실시예에 있어서, 처리 유닛(10)은 식별을 통하여 생성된 얼굴 윤곽 정보를 상기 표시 모듈(103)에 송신하고, 표시 모듈(103)은 상기 사람 얼굴이 긴 얼굴이라고 판단되었을 때 제3 표시 프로그램을 실행함으로써 제3 표시 프로그램을 통하여 사람 얼굴에 쉐이딩 구역을 표시(S24 단계)한다.
제5 실시예에 있어서, 처리 유닛(10)은 식별을 통하여 생성된 얼굴 윤곽 정보를 상기 표시 모듈(103)에 송신하고, 표시 모듈(103)은 상기 사람 얼굴이 역삼각형 얼굴 또는 능형 얼굴이라고 판단되었을 때 제4 표시 프로그램을 실행함으로써 제4 표시 프로그램을 통하여 사람 얼굴에 쉐이딩 구역을 표시(S26 단계)한다.
쉐이딩 구역의 표시를 완성한 다음, 분석 장치(1)는 상기 디스플레이 모듈(111)을 통하여 사람 얼굴 영상 및 표시한 쉐이딩 구역을 표시하되, 그중 표시되는 쉐이딩 구역은 표시되는 사람 얼굴과 서로 중첩되게 표시(S28 단계)된다. 이에 따라서, 사용자는 직접 거울면 스크린(11)에서 사람 얼굴 상의 쉐이딩 구역 위치를 확인함으로써 빠른 속도로 쉐이딩 동작을 실행할 수 있다. 특별히 설명하여야 할 것은, 처리 유닛(10)이 상기 사람 얼굴이 타원형 얼굴로 판단(즉, 처리 유닛(10)이 상기 사람 얼굴에 대한 단장이 필요 없다고 판정)되었을 때, 상기 S28 단계에서 상기 사람 얼굴 영상만 표시할 수 있다.
이어서, 분석 장치(1)는 사용자의 화장 동작 완성 여부를 판단(S30 단계)한다. 일 실시예에 있어서, 분석 장치(1)는 외부 영상 중 사람 얼굴이 존재하지 않을 때, 사람 얼굴의 크기가 특정 비례 이하일 때, 사용자가 화장 동작을 중지하였을 때, 사용자가 분석 장치(1) 상의 중지 버튼을 촉발하였을 때 또는 중지 손동작을 입력받았을 때 사용자의 화장 동작이 완성된 것으로 판단할 수 있다.
본 발명에 있어서, 분석 장치(1)는 사용자의 화장 동작이 완성되기 전에, S18 단계 내지 S28 단계를 중복 실행함으로써, 지속적으로 사용자의 사람 얼굴 영상 취득하고, 사람 얼굴 영상에 쉐이딩 구역 표시하며, 거울면 스크린(11)에 사람 얼굴 영상 및 쉐이딩 구역 표시할 수 있다. 이에 따라서, 본 발명에 따른 분석 장치(1)는 쉐이딩 구역의 동태적 분석 및 표시의 기술적 효과를 실현할 수 있다. 즉, 사용자의 얼굴이 이동할 때, 거울면 스크린(11)에 표시되는 쉐이딩 구역도 이에 따라 사람 얼굴 영상의 정확한 위치에 표시되도록 이동함으로써 사용자의 편리성을 더 향상시킬 수 있다.
도 8a, 도 8b, 도 8c 및 도 8d는 각각 본 발명의 제2 구체 실시예에 따른 쉐이딩 구역 제1 표시 흐름도, 쉐이딩 구역 제2 표시 흐름도, 제1 쉐이딩 구역 예시도 및 제2 쉐이딩 구역 예시도이다.
도 8a 및 도 8b는 포지셔닝 모듈(102)이 상기 S16 단계에서 사용자의 얼굴 윤곽을 원형 얼굴로 판단한 다음 표시 모듈(103)이 상기 S20 단계에서 상기 제1 표시 프로그램을 통하여 쉐이딩 구역을 표시하는 방법을 더 상세하게 설명하였다. 구체적으로 말하면, 상기 제1 표시 프로그램은 처리 유닛(10)에 기록된 컴퓨터로 실행 가능한 프로그램 코드로 구성되고, 표시 모듈(103)이 제1 표시 프로그램을 실행할 때 도 8a 및 도 8b에 도시된 각 단계를 실행할 수 있다.
이어서 도 8c 및 도 8d를 참조하여 상기 제1 표시 프로그램을 설명하면 다음과 같다.
우선, 표시 모듈(103)은 상기 사람 얼굴의 눈썹 융기 위치(81)에 제1 수평선(711)을 생성(S200 단계)하되, 그중 제1 수평선(711)은 사람 얼굴의 좌측 눈썹 융기 위치 및 우측 눈썹 융기 위치와 평행된다. 이어서, 표시 모듈(103)은 제1 수평선(711)과 사람 얼굴의 머리선(70) 사이의 3분의 2 높이 위치에 제2 수평선(712)을 생성(S201 단계)하고, 제2 수평선(712)과 사람 얼굴 윤곽의 제1 교점(61)을 취득(S202 단계)한다. 구체적으로 말하면, 상기 제1 교점(61)은 제2 수평선(712)과 사람 얼굴의 좌측 윤곽의 교점 및 제2 수평선(712)과 사람 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 표시 모듈(103)은 제1 교점(61)과 상기 제1 수평선(711)을 수직 연결하여 제1 수직선(721)을 생성(S203 단계)한다. 구체적으로 말하면, 상기 제1 수직선(721)은 좌측의 제1 교점(61)과 제1 수평선(711)을 수직 연결하여 생성된 수직선 및 우측의 제1 교점(61)과 제1 수평선(711)을 수직 연결하여 생성된 수직선을 포함한다. 이어서, 표시 모듈(103)은 사람 얼굴의 눈썹 융기 위치(81)로부터 위 방향으로 제1 수직선(721)의 중간 높이까지 이동하여 포지셔닝 포인트(60)를 취득(S204 단계)한다. 구체적으로 말하면, 상기 포지셔닝 포인트(60)는 좌측의 눈썹 융기 위치로부터 위 방향으로 이동하여 생성된 포지셔닝 포인트 및 우측의 눈썹 융기 위치로부터 위 방향으로 이동하여 생성된 포지셔닝 포인트를 포함한다.
S204 단계 이후, 표시 모듈(103)은 상기 포지셔닝 포인트(60)와 상기 머리선(70)을 수직 연결하여 제1 보조선(91)을 생성(S205 단계)한다. 구체적으로 말하면, 상기 제1 보조선(91)은 좌측의 포지셔닝 포인트(60)와 머리선(70)을 수직 연결하여 생성된 보조선 및 우측의 포지셔닝 포인트(60)와 머리선(70)을 수직 연결하여 생성된 보조선을 포함한다. 이어서, 표시 모듈(103)은 사람 얼굴의 미간 위치(82)와 상기 제1 수평선(711)을 수직 연결하여 제2 보조선(92)을 생성(S206 단계)한다. 구체적으로 말하면, 상기 제2 보조선(92)은 좌측의 미간 위치(60)와 제1 수평선(711)을 수직 연결하여 생성된 보조선 및 우측의 미간 위치(60)와 제1 수평선(711)을 수직 연결하여 생성된 보조선을 포함한다.
마지막으로, 표시 모듈(103)은 상기 포지셔닝 포인트(60)와 제1 수평선(711) 및 제2 보조선(92)의 교점을 연결하여 제3 보조선을 생성(S207 단계)한다. 구체적으로 말하면, 상기 제3 보조선(93)은 좌측의 포지셔닝 포인트(60)와 제1 수평선(711) 및 좌측의 제2 보조선(92)의 교점을 연결한 보조선 및 우측의 포지셔닝 포인트(60)와 제1 수평선(711) 및 우측의 제2 보조선(92)의 교점을 연결한 보조선을 포함한다. 이에 따라, 표시 모듈(103)은 제1 보조선(91), 제2 보조선(92) 및 제3 보조선(93)으로 상기 쉐이딩 구역 중의 윗이마 구역(A1)을 구성(S208 단계)할 수 있다.
더 구체적으로 말하면, 본 실시예 중에 언급되는 윗이마 구역(A1)은 좌측의 제1 보조선(91), 제2 보조선(92), 제3 보조선(93) 및 우측의 제1 보조선(91), 제2 보조선(92), 제3 보조선(93) 및 상기 사람 얼굴의 상부 가장자리 윤곽으로 둘러 싸여진 구역을 가리킨다.
도 8d에 도시된 바와 같이, 표시 모듈(103)은 또한 상기 사람 얼굴의 입 최저점 위치(83)에 수평으로 하나의 제4 보조선(94)을 생성(S209 단계)하고, 사람 얼굴의 입가 위치(84)에 아래 방향으로 수직되게 제5 보조선(95)을 생성(S210 단계)한다. 구체적으로 말하면, 상기 제5 보조선(95)은 좌측의 입가 위치(84)에서 아래 방향으로 수직되게 생성된 보조선 및 우측의 입가 위치(84)에서 아래 방향으로 수직되게 생성된 보조선을 포함한다. 이에 따라, 표시 모듈(103)은 제4 보조선(94) 및 제5 보조선(95)으로 상기 쉐이딩 구역 중의 아래턱 구역(A2)을 구성(S211 단계)할 수 있다.
구체적으로 말하면, 본 실시예 중에 언급되는 아래턱 구역(A2)은 제4 보조선(94), 좌측에 위치한 제5 보조선(95), 우측에 위치한 제5 보조선(95) 및 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역을 가리킨다.
또한, 표시 모듈(103)은 사람 얼굴의 비익 최고점 위치(85)에 제3 수평선(713)을 생성(S212 단계)하고, 제3 수평선(713)과 사람 얼굴 윤곽의 제2 교점(62)을 취득(S213 단계)한다. 구체적으로 말하면, 상기 제3 수평선(713)은 좌측의 비익 최고점 위치(85) 및 우측의 비익 최고점 위치(85)와 평행되고, 상기 제2 교점(62)은 제3 수평선(713)과 사람 얼굴의 좌측 윤곽의 교점 및 제3 수평선(713)과 사람 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 표시 모듈(103)은 상기 제5 보조선(95)과 사람 얼굴 윤곽의 제3 교점(63)을 취득(S214 단계)한다. 구체적으로 말하면, 상기 제3 교점(63)은 좌측의 제5 보조선(95)과 사람 얼굴 윤곽의 교점 및 우측의 제5 보조선(95)과 사람 얼굴 윤곽의 교점을 포함한다. 마지막으로, 표시 모듈(103)은 제2 교점(62)과 제3 교점(63)을 연결하여 제6 보조선(96)을 생성(S215 단계)하되, 그중 상기 제6 보조선(96)은 좌측의 제2 교점(62)과 좌측의 제3 교점(63)을 연결하여 생성된 보조선 및 우측의 제2 교점(62)과 우측의 제3 교점(63)을 연결하여 생성된 보조선을 포함한다.
마지막으로, 표시 모듈(103)은 제6 보조선(96)으로 상기 쉐이딩 구역 중의 하악 구역(A3)을 구성(S216 단계)한다. 구체적으로 말하면, 본 실시예 중에 언급되는 하악 구역(A3)은 좌측의 제6 보조선(96)과 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역 및 우측의 제6 보조선(96)과 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역을 가리킨다.
단, 상기 윗이마 구역(A1), 아래턱 구역(A2) 및 하악 구역(A3)은 고정된 표시 순서가 없고, 표시 모듈(103)은 실제적인 알고리즘 설계에 의하여 임의 순서로 표시하거나 또는 멀티 태스킹 방식으로 동시에 상기 구역들을 표시할 수 있지만, 이에 한정되는 것은 아니다.
특별히 설명하여야 할 것은, 도 8a 내지 도 8d의 실시예는 원형 얼굴의 사용자에 도움을 주어 쉐이딩 동작을 실행하기 위한 것이기 때문에, 본 실시예에 있어서, 표시 모듈(103)은 더 나아가서 상기 윗이마 구역(A1) 및 아래턱 구역(A2)을 라이트 메이크업 구역으로 표시하여 사용자가 상기 구역을 라이트 메이크업하도록 제시할 수 있다. 또한, 표시 모듈(103)은 더 나아가서 상기 하악 구역(A3)을 다크 메이크업 구역으로 표시하여 사용자가 상기 구역을 다크 메이크업하도록 제시함으로써, 사용자가 더욱 좋은 쉐이딩 효과를 이루도록 할 수 있다.
도 9a 및 도 9b는 각각 본 발명의 제3 구체 실시예에 따른 쉐이딩 구역 표시 흐름도 및 쉐이딩 구역 예시도이다.
도 9a 및 도 9b는 포지셔닝 모듈(102)이 상기 S16 단계에서 사용자의 얼굴 윤곽을 사각형 얼굴로 판단한 다음 표시 모듈(103)이 상기 S22 단계에서 상기 제2 표시 프로그램을 통하여 쉐이딩 구역을 표시하는 방법을 더 상세하게 설명하였다. 구체적으로 말하면, 상기 제2 표시 프로그램은 처리 유닛(10)에 기록된 컴퓨터로 실행 가능한 프로그램 코드로 구성되고, 표시 모듈(103)이 제2 표시 프로그램을 실행할 때 도 9a에 도시된 각 단계를 실행할 수 있다.
이어서 도 9b를 참조하여 상기 제2 표시 프로그램을 설명하면 다음과 같다.
우선, 표시 모듈(103)은 상기 사람 얼굴의 미간 위치(82)에 제1 수평선(711)을 생성(S220 단계)하고, 제1 수평선(711)과 사람 얼굴 윤곽의 제1 교점(61)을 취득(S222 단계)한다. 구체적으로 말하면, 상기 제1 수평선(711)은 좌측의 미간 위치(82) 및 우측의 미간 위치(82)와 평행되고, 상기 제1 교점(61)은 제1 수평선(711)과 사람 얼굴의 좌측 윤곽의 교점 및 제1 수평선(711)과 사람 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 표시 모듈(103)은 제1 교점(61)과 사람 얼굴의 머리선(70)을 연결하여 제7 보조선(97)을 생성(S224 단계)한다. 구체적으로 말하면, 표시 모듈(103)은 제1 교점(61)으로부터 머리선(70) 상의 임의 점(예를 들면 머리선(70) 상 눈썹 융기 위치와 수직되는 점)을 연결하여 제7 보조선(97)을 생성한다. 또한, 본 실시예에 있어서, 상기 제7 보조선(97)은 좌측의 제1 교점(61)과 머리선(70)을 연결하여 생성된 보조선 및 우측의 제1 교점(61)과 머리선(70)을 연결하여 생성된 보조선을 포함한다.
이에 따라, 표시 모듈(103)은 제7 보조선(97)으로 상기 쉐이딩 구역 중의 윗이마 구역(A1)을 구성(S226 단계)할 수 있다. 구체적으로 말하면, 본 실시예 중에 언급되는 윗이마 구역(A1)은 좌측에 위치한 제7 보조선(97)과 사람 얼굴의 상부 가장자리 윤곽으로 둘러 싸여진 구역 및 우측에 위치한 제7 보조선(97)과 사람 얼굴의 상부 가장자리 윤곽으로 둘러 싸여진 구역을 포함한다.
또한, 표시 모듈(103)은 상기 사람 얼굴의 비익 최고점 위치(85)에 제2 수평선(712)을 생성(S228 단계)하고, 제2 수평선(712)과 사람 얼굴 윤곽의 제2 교점(62)을 취득(S230 단계)한다. 구체적으로 말하면, 상기 제2 수평선(712)은 좌측의 비익 최고점 위치(85) 및 우측의 비익 최고점 위치(85)와 평행되고, 상기 제2 교점(62)은 제2 수평선(712)과 사람 얼굴의 좌측 윤곽의 교점 및 제2 수평선(712)과 사람 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 표시 모듈(103)은 사람 얼굴의 입가 위치(84)로부터 아래 방향으로 제1 수직선(721)을 생성(S232 단계)한다.. 구체적으로 말하면, 상기 제1 수직선(721)은 좌측의 입가 위치(84)에서 아래 방향으로 생성된 수직선 및 우측의 입가 위치(84)에서 아래 방향으로 생성된 보조선을 포함한다.
제1 수직선(721)을 생성한 다음, 표시 모듈(103)은 제1 수직선(721)과 사람 얼굴 윤곽의 제3 교점(63)을 취득(S234 단계)한다. 구체적으로 말하면, 상기 제3 교점(63)은 좌측의 수직선(721)과 사람 얼굴 윤곽의 교점 및 우측의 수직선(721)과 사람 얼굴 윤곽의 교점을 포함한다. 이어서, 표시 모듈(103)은 제2 교점(62)과 제3 교점(63)을 연결하여 제8 보조선(98)을 생성(S236 단계)하되, 그중 제8 보조선(98)은 좌측의 제2 교점(62)과 좌측의 제3 교점(63)을 연결하여 생성된 보조선 및 우측의 제2 교점(62)과 우측의 제3 교점(63)을 연결하여 생성된 보조선을 포함한다.
이에 따라, 표시 모듈(103)은 제8 보조선(98)으로 상기 쉐이딩 구역 중의 하악 구역(A3)을 구성(S238 단계)할 수 있다. 구체적으로 말하면, 본 실시예 중에 언급되는 하악 구역(A3)은 좌측에 위치한 제8 보조선(98)과 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역 및 우측에 위치한 제8 보조선(98)과 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역을 포함한다.
단, 상기 윗이마 구역(A1) 및 하악 구역(A3)은 고정된 표시 순서가 없고, 표시 모듈(103)은 실제적인 알고리즘 설계에 의하여 임의 순서로 표시하거나 또는 멀티 태스킹 방식으로 동시에 상기 구역들을 표시할 수 있지만, 이에 한정되는 것은 아니다.
특별히 설명하여야 할 것은, 도 9a, 도 9b의 실시예는 사각형 얼굴의 사용자에게 도움을 주어 쉐이딩 동작을 실행하기 위한 것이기 때문에, 본 실시예에 있어서, 표시 모듈(103)은 더 나아가서 상기 윗이마 구역(A1) 및 하악 구역(A3)을 다크 메이크업 구역으로 표시하여 사용자가 상기 구역을 다크 메이크업하도록 제시함으로써, 사용자가 더욱 좋은 쉐이딩 효과를 이루도록 할 수 있다. 또한, 본 실시예에 있어서, 분석 장치(1)는 사람 얼굴 중 아래턱 구역에 대하여 표시하지 않게 되는데, 이는 사각형 얼굴의 사용자에게 있어서, 아래턱 구역은 특별한 쉐이딩 동작이 필요 없음을 의미한다.
도 10a 및 도 10b는 각각 본 발명의 제4 구체 실시예에 따른 쉐이딩 구역 표시 흐름도 및 쉐이딩 구역 예시도이다.
도 10a 및 도 10b는 포지셔닝 모듈(102)이 상기 S16 단계에서 사용자의 얼굴 윤곽을 긴 얼굴로 판단한 다음 표시 모듈(103)이 상기 S24 단계에서 상기 제3 표시 프로그램을 통하여 쉐이딩 구역을 표시하는 방법을 더 상세하게 설명하였다. 구체적으로 말하면, 상기 제3 표시 프로그램은 처리 유닛(10)에 기록된 컴퓨터로 실행 가능한 프로그램 코드로 구성되고, 표시 모듈(103)이 제3 표시 프로그램을 실행할 때 도 10a에 도시된 각 단계를 실행할 수 있다.
이어서 도 10b를 참조하여 상기 제3 표시 프로그램을 설명하면 다음과 같다.
우선, 표시 모듈(103)은 상기 사람 얼굴의 이마 중간 위치에 제1 수평선(711)을 생성(S240 단계)하고, 이어서 제1 수평선(711)과 사람 얼굴의 머리선(70) 사이의 2분의 1 높이 위치에 수평으로 제9 보조선(99)을 생성(S242 단계)한다. 이에 따라, 표시 모듈(103)은 제9 보조선(99)으로 상기 쉐이딩 구역 중의 윗이마 구역(A1)을 구성(S244 단계)할 수 있다. 구체적으로 말하면, 본 실시예 중에 언급되는 윗이마 구역(A1)은 제9 보조선(99) 및 사람 얼굴의 상부 가장자리 윤곽으로 둘러 싸여진 구역을 가리킨다.
또한, 표시 모듈(103)은 사람 얼굴의 입 최저점 위치(83)에 제2 수평선(712)을 생성(S246 단계)하고, 이어서 제2 수평선(712)과 사람 얼굴의 최하단 사이의 2분의 1 높이 위치에 수평으로 제10 보조선(910)을 생성(S248 단계)한다. 이에 따라, 표시 모듈(103)은 제10 보조선(910)으로 상기 쉐이딩 구역 중의 아래턱 구역(A2)을 구성(S250 단계)할 수 있다. 구체적으로 말하면, 본 실시예 중에 언급되는 아래턱 구역(A2)은 제10 보조선(910) 및 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역을 가리킨다.
단, 상기 윗이마 구역(A1) 및 아래턱 구역(A2)은 고정된 표시 순서가 없고, 표시 모듈(103)은 실제적인 알고리즘 설계에 의하여 임의 순서로 표시하거나 또는 멀티 태스킹 방식으로 동시에 상기 구역들을 표시할 수 있지만, 이에 한정되는 것은 아니다.
특별히 설명하여야 할 것은, 도 10a, 도 10b의 실시예는 사각형 얼굴의 사용자에게 도움을 주어 쉐이딩 동작을 실행하기 위한 것이기 때문에, 본 실시예에 있어서, 표시 모듈(103)은 더 나아가서 상기 윗이마 구역(A1) 및 아래턱 구역(A2)을 다크 메이크업 구역으로 표시하여 사용자가 상기 구역을 다크 메이크업하도록 제시함으로써, 사용자가 더욱 좋은 쉐이딩 효과를 이루도록 할 수 있다. 또한, 본 실시예에 있어서, 분석 장치(1)는 사람 얼굴 중 하악 구역에 대하여 표시하지 않게 되는데, 이는 긴 얼굴의 사용자에게 있어서, 하악 구역은 특별한 쉐이딩 동작이 필요 없음을 의미한다.
도 11a 및 도 11b는 각각 본 발명의 제5 구체 실시예에 따른 쉐이딩 구역 표시 흐름도 및 쉐이딩 구역 예시도이다.
도 11a 및 도 11b는 포지셔닝 모듈(102)이 상기 S16 단계에서 사용자의 얼굴 윤곽을 역삼각형 얼굴 또는 능형 얼굴로 판단한 다음 표시 모듈(103)이 상기 S26 단계에서 상기 제4 표시 프로그램을 통하여 쉐이딩 구역을 표시하는 방법을 더 상세하게 설명하였다. 구체적으로 말하면, 상기 제4 표시 프로그램은 처리 유닛(10)에 기록된 컴퓨터로 실행 가능한 프로그램 코드로 구성되고, 표시 모듈(103)이 제4 표시 프로그램을 실행할 때 도 11a에 도시된 각 단계를 실행할 수 있다.
이어서 도 11b를 참조하여 상기 제4 표시 프로그램을 설명하면 다음과 같다.
우선, 표시 모듈(103)은 상기 사람 얼굴의 눈 하부 가장자리 위치에 제1 수평선(711)을 생성(S260 단계)하고, 제1 수평선(711)과 사람 얼굴 윤곽의 제1 교점(61)을 취득(S262 단계)한다. 구체적으로 말하면, 상기 제1 수평선(711)은 좌측의 눈 하부 가장자리 우측의 눈 하부 가장자리와 평행되고, 상기 제1 교점(61)은 제1 수평선(711)과 사람 얼굴의 좌측 윤곽의 교점 및 제1 수평선(711)과 사람 얼굴의 우측 윤곽의 교점을 포함한다.
이어서, 표시 모듈(103)은 제1 교점(61)과 사람 얼굴의 머리선(70)을 연결하여 제11 보조선(911)을 생성(S264 단계)한다. 구체적으로 말하면, 표시 모듈(103)은 제1 교점(61)으로부터 머리선(70) 상의 임의 점(예를 들면 머리선(70) 상 눈썹 융기 위치와 수직되는 점)을 연결하여 제11 보조선(911)을 생성한다. 또한, 본 실시예에 있어서, 상기 제11 보조선(911)은 좌측의 제1 교점(61)과 머리선(70)을 연결하여 생성된 보조선 및 우측의 제1 교점(61)과 머리선(70)을 연결하여 생성된 보조선을 포함한다.
이에 따라, 표시 모듈(103)은 제11 보조선(911)으로 상기 쉐이딩 구역 중의 윗이마 구역(A1)을 구성(S266 단계)할 수 있다. 구체적으로 말하면, 본 실시예 중에 언급되는 윗이마 구역(A1)은 좌측에 위치한 제11 보조선(911)과 사람 얼굴의 상부 가장자리 윤곽으로 둘러 싸여진 구역 및 우측에 위치한 제11 보조선(911)과 사람 얼굴의 상부 가장자리 윤곽으로 둘러 싸여진 구역을 포함한다.
또한, 표시 모듈(103)은 사람 얼굴의 코 최저점 위치(86)에 제2 수평선(712)을 생성(S268 단계)하고, 제2 수평선(712)과 사람 얼굴 윤곽의 제2 교점(62)을 취득(S270 단계)한다. 구체적으로 말하면, 상기 제2 교점(62)은 제2 수평선(712)과 사람의 좌측 윤곽의 교점 및 제2 수평선(712)과 사람의 우측 윤곽의 교점을 포함한다.
이어서, 표시 모듈(103)은 사람 얼굴의 입가 위치(84)에 아래 방향으로 제1 수직선(721)을 생성(S272 단계)하고, 제1 수직선(721)과 사람 얼굴 윤곽의 제3 교점(63)을 취득(S274 단계)한다. 구체적으로 말하면, 상기 제1 수직선(721)은 좌측의 입가 위치(84)에서 아래 방향으로 생성된 수직선 및 우측의 입가 위치(84)에서 아래 방향으로 생성된 보조선을 포함하고, 상기 제3 교점(63)은 좌측의 제1 수직선(721)과 사람 얼굴 윤곽의 교점 및 우측의 제1 수직선(721)과 사람 얼굴 윤곽의 교점을 포함한다.
이어서, 표시 모듈(103)은 제2 교점(62)과 제3 교점(63)을 연결하여 제12 보조선(912)을 생성(S276 단계)한다. 구체적으로 말하면, 상기 제12 보조선(912)은 좌측의 제2 교점(62)과 좌측의 제3 교점(63)을 연결하여 생성된 보조선 및 우측의 제2 교점(62)과 우측의 제3 교점(63)을 연결하여 생성된 보조선을 포함한다. 이에 따라, 표시 모듈(103)은 제12 보조선(912)으로 상기 쉐이딩 구역 중의 하악 구역(A3)을 구성(S278 단계)한다.
구체적으로 말하면, 본 실시예 중에 언급되는 하악 구역(A3)은 좌측의 제12 보조선(912)과 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역 및 우측의 제12 보조선(912)과 사람 얼굴의 하부 가장자리 윤곽으로 둘러 싸여진 구역을 가리킨다.
단, 상기 윗이마 구역(A1) 및 하악 구역(A3)은 고정된 표시 순서가 없고, 표시 모듈(103)은 실제적인 알고리즘 설계에 의하여 임의 순서로 표시하거나 또는 멀티 태스킹 방식으로 동시에 상기 구역들을 표시할 수 있지만, 이에 한정되는 것은 아니다.
특별히 설명하여야 할 것은, 도 11a, 도 11b의 실시예는 역삼각형 얼굴 또는 능형 얼굴의 사용자에게 도움을 주어 쉐이딩 동작을 실행하기 위한 것이기 때문에, 본 실시예에 있어서, 표시 모듈(103)은 더 나아가서 상기 윗이마 구역(A1)을 라이트 메이크업 구역으로 표시하여 사용자가 상기 구역을 라이트 메이크업하도록 제시할 수 있다. 또한, 표시 모듈(103)은 더 나아가서 상기 하악 구역(A3)을 다크 메이크업 구역으로 표시하여 사용자가 상기 구역을 다크 메이크업하도록 제시함으로써, 사용자가 더욱 좋은 쉐이딩 효과를 이루도록 할 수 있다. 또한, 본 실시예에 있어서, 분석 장치(1)는 사람 얼굴 중 아래턱 구역에 대하여 표시하지 않게 되는데, 이는 역삼각형 얼굴 또는 능형 얼굴의 사용자에게 있어서, 아래턱 구역은 특별한 쉐이딩 동작이 필요 없음을 의미한다.
상기 쉐이딩 구역(A1~A3)의 표시가 완성된 다음, 분석 장치(1)는 계속 상기 S28 단계를 실행하여 거울면 스크린(11)에 상기 사람 얼굴 영상 및 상기 쉐이딩 구역(A1~A3)의 영상을 표시할 수 있다.
도 12는 본 발명의 제3 구체 실시예에 따른 분석 장치 예시도이다. 상기에 설명한 바와 같이, 본 발명에 따른 분석 장치(1)는 실시적으로 사용자(5)의 사람 얼굴 영상을 취득하고 사용자(5)의 얼굴 윤곽에 의하여 쉐이딩 구역의 위치를 표시한다. 또한, 분석 장치(1)는 거울면 스크린(11)에 사용자(5)의 사람 얼굴 영상을 표시하는 동시에 사람 얼굴 영상에 쉐이딩 구역(즉, 상기 윗이마 구역(A1), 아래턱 구역(A2) 및 하악 구역(A3), 도 12 중 원형 얼굴의 쉐이딩 구역을 예로 듬)을 표시할 수 있다.
특별히 설명하여야 할 것은, 상기 실시예에 있어서, 처리 유닛(10)은 하나 또는 복수의 보조선(91~912)으로 상기 윗이마 구역(A1), 아래턱 구역(A2) 및 하악 구역(A3)를 구성하였기 때문에, 도 8c~도 8d, 도 9b, 도 10b 및 도 11b에 도시된 바와 같이, 구성된 윗이마 구역(A1), 아래턱 구역(A2) 및 하악 구역(A3)은 선명한 끼움각을 가지게 된다. 단, 표시하기 전에, 처리 유닛(10)은 상기 윗이마 구역(A1), 아래턱 구역(A2) 및 하악 구역(A3)에 대한 전처리를 통하여 거울면 스크린(11)에 표시되는 쉐이딩 구역(A1~A3)이 비교적 완화된 끼움각을 가짐도록 함으로써, 사용자가 비교적 정확하게 쉐이딩 동작을 하도록 협조할 수 있다.
도 12에 도시된 바와 같이, 사용자(5)는 거울면 스크린(11)을 통하여 자신 얼굴의 반사 영상을 관찰할 수 있고, 상기 쉐이딩 구역(A1~A3)은 직접 반사 영상과 중첩되는 방식으로 반사 영상에 표시될 수 있다. 이에 따라서, 사용자(5)는 직접 거울면 스크린(11)에 표시되는 쉐이딩 구역(A1~A3)을 참고로 쉐이딩 동작을 실행할 수 있다.
본 발명에 따른 분선 장치(1) 및 표시 방법을 통하여, 사용자(5)는 화장 동작을 실행할 때 거울면 스크린(11)을 통하여 자신의 얼굴 영상을 관찰하는 동시에 직접 분석 장치(1)가 분석 및 권장하는 쉐이딩 구역을 확인할 수 있기 때문에, 빠른 속도로 정확한 위치에 쉐이딩 동작을 실행할 수 있다.
상기 내용은 본 발명에 따른 바람직한 구체 실시예일 뿐, 본 발명의 특허 청구 범위에 대한 한정이 아니다. 따라서, 본 발명의 내용을 기초로 한 동등 효과 변화는 모두 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
1 : 신체 정보 분석 장치
10 : 처리 유닛
101 : 얼굴 식별 모듈
102 : 포지셔닝 모듈
103 : 표시 모듈
11 : 거울면 스크린
111 : 디스플레이 모듈
12 : 영상 취득 모듈
13 : 버튼
14 : 센서
15 : 입력 인터페이스
16 : 무선 송수신 모듈
2 : 전자 장치
21 : 소프트웨어
3 : 무선 라우터
4 : 인터넷
5 : 사용자
51 : 얼굴
6 : 포지셔닝 포인트
60 : 포지셔닝 포인트
61 : 제1 교점
62 : 제2 교점
63 : 제3 교점
70 : 머리선
711 : 제1 수평선
712 : 제2 수평선
713 : 제3 수평선
721 : 제1 수직선
81 : 눈썹 융기 위치
82 : 미간 위치
83 : 입 최저점 위치
84 : 입가 위치
85 : 비익 최고점 위치
86 : 코 최저점 위치
91 : 제1 보조선
92 : 제2 보조선
93 : 제3 보조선
94 : 제4 보조선
95 : 제5 보조선
96 : 제6 보조선
97 : 제7 보조선
98 : 제8 보조선
99 : 제9 보조선
910 : 제10 보조선
911 : 제11 보조선
912 : 제12 보조선
A1 : 윗이마 구역
A2 : 아래턱 구역
A3 : 하악 구역
S10~S30 : 표시 단계
S200~S216 : 표시 단계
S220~S238 : 표시 단계
S240~S250 : 표시 단계
S260~S278 : 표시 단계

Claims (15)

  1. 하나의 외부 영상을 취득하는 하나의 영상 취득 모듈;
    상기 영상 취득 모듈과 전기적으로 연결되고 복수의 얼굴 윤곽 및 상기 각 얼굴 윤곽에 각각 대응되는 복수의 표시 프로그램이 저장되며, 상기 외부 영상에 대한 식별을 통하여 상기 외부 영상으로부터 하나의 사람 얼굴이 식별되었을 때 상기 사람 얼굴의 각 부위에 대하여 포지셔닝하여 상기 사람 얼굴의 얼굴 윤곽을 판단하되,
    상기 사람 얼굴이 상기 복수의 얼굴 윤곽 중의 하나라고 판단될 때, 상기 얼굴 윤곽에 대응되는 상기 표시 프로그램을 실행하여 상기 사람 얼굴에 하나의 쉐이딩 구역을 표시하는 하나의 처리 유닛; 및
    상기 처리 유닛과 전기적으로 연결되고, 상기 쉐이딩 구역과 상기 사람 얼굴이 중첩되는 방식으로 상기 사람 얼굴 및 상기 쉐이딩 구역을 표시하는 디스플레이 모듈; 을 포함하여 구성되는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  2. 제 1항에 있어서,
    그중 상기 처리 유닛은,
    상기 외부 영상에 대한 식별을 통하여 상기 외부 영상에 상기 사람 얼굴이 포함되어 있는지 판단하는 하나의 얼굴 식별 모듈;
    상기 사람 얼굴에 대하여 포지셔닝하고 상기 사람 얼굴이 상기 복수의 얼굴 윤곽 중의 하나인지 판단하는 하나의 포지셔닝 모듈; 및
    상기 얼굴 윤곽에 의하여 상기 복수의 표시 프로그램 중의 하나를 실행하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시하는 하나의 표시 모듈; 을 포함하여 구성되는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  3. 제 2항에 있어서,
    그중 상기 표시 모듈은 상기 사람 얼굴이 타원형 얼굴이라고 판단되었을 때 상기 사람 얼굴에 대한 단장이 필요 없다고 판정하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  4. 제 2항에 있어서,
    그중 상기 표시 모듈은 상기 사람 얼굴이 원형 얼굴이라고 판단되었을 때 하나의 제1 표시 프로그램을 통하여 상기 사람 얼굴에 하나의 쉐이딩 구역을 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  5. 제 4항에 있어서,
    그중 상기 표시 모듈은 상기 제1 표시 프로그램을 실행하여,
    상기 사람 얼굴의 하나의 눈썹 융기 위치에 하나의 제1 수평선을 생성하고;
    상기 제1 수평선과 상기 사람 얼굴의 하나의 머리선 사이의 3분의 2 높이 위치를 연결하여 하나의 제2 수평선을 생성하고;
    상기 제2 수평선과 상기 사람 얼굴 윤곽의 하나의 제1 교점을 취득하고;
    상기 제1 교점과 상기 제1 수평선을 수직 연결하여 하나의 제1 수직선을 생성하고;
    상기 눈썹 융기 위치로부터 위 방향으로 상기 제1 수직선의 중간 높이까지 이동하여 하나의 포지셔닝 포인트를 취득하고;
    상기 포지셔닝 포인트와 상기 머리선을 수직 연결하여 하나의 제1 보조선을 생성하고;
    상기 사람 얼굴의 하나의 미간 위치와 상기 제1 수평선을 수직 연결하여 하나의 제2 보조선을 생성하고;
    상기 포지셔닝 포인트와 상기 제1 수평선 및 상기 제2 보조선의 교점을 연결하여 하나의 제3 보조선을 생성하고;
    상기 제1 보조선, 상기 제2 보조선 및 상기 제3 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
    상기 사람 얼굴의 하나의 입 최저점 위치에 수평으로 하나의 제4 보조선을 생성하고;
    상기 사람 얼굴의 하나의 입가 위치에 아래 방향으로 수직되게 하나의 제5 보조선을 생성하고;
    상기 제4 보조선 및 상기 제5 보조선으로 상기 쉐이딩 구역 중의 하나의 아래턱 구역을 구성하고;
    상기 사람 얼굴의 하나의 비익 최고점 위치에 하나의 제3 수평선을 생성하고;
    상기 제3 수평선과 상기 사람 얼굴 윤곽의 하나의 제2 교점을 취득하고;
    상기 제5 보조선과 상기 사람 얼굴 윤곽의 하나의 제3 교점을 취득하고;
    상기 제2 교점과 상기 제3 교점을 연결하여 하나의 제6 보조선을 생성하고; 및
    상기 제6 보조선으로 상기 쉐이딩 구역 중의 하나의 하악 구역을 구성하는; 동작을 실행하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  6. 제 5항에 있어서,
    그중 상기 제1 표시 프로그램은 상기 윗이마 구역과 상기 아래턱 구역을 라이트 메이크업 구역으로 표시하고, 상기 하악 구역을 다크 메이크업 구역으로 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  7. 제 2항에 있어서,
    그중 상기 표시 모듈은 상기 사람 얼굴이 사각형 얼굴이라고 판단되었을 때 하나의 제2 표시 프로그램을 통하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  8. 제 7항에 있어서,
    그중 상기 표시 모듈은 상기 제2 표시 프로그램을 실행하여,
    상기 사람 얼굴의 하나의 미간 위치에 하나의 제1 수평선을 생성하고;
    상기 제1 수평선과 상기 사람 얼굴 윤곽의 하나의 제1 교점을 취득하고;
    상기 제1 교점과 상기 사람 얼굴의 하나의 머리선을 연결하여 하나의 제7 보조선을 생성하고;
    상기 제7 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
    상기 사람 얼굴의 하나의 비익 최고점 위치에 하나의 제2 수평선을 생성하고;
    상기 제2 수평선과 상기 사람 얼굴 윤곽의 하나의 제2 교점을 취득하고;
    상기 사람 얼굴의 하나의 입가 위치에 아래 방향으로 하나의 제1 수직선을 생성하고;
    상기 제1 수직선과 상기 사람 얼굴 윤곽의 하나의 제3 교점을 취득하고;
    상기 제2 교점과 상기 제3 교점을 연결하여 하나의 제8 보조선을 생성하고; 및
    상기 제8 보조선으로 상기 쉐이딩 구역 중의 하나의 하악 구역을 구성하는; 동작을 실행하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  9. 제 8항에 있어서,
    그중 상기 제2 표시 프로그램은 상기 윗이마 구역과 상기 하악 구역을 다크 메이크업 구역으로 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  10. 제 2항에 있어서,
    그중 상기 표시 모듈은 상기 사람 얼굴이 긴 얼굴이라고 판단되었을 때 하나의 제3 표시 프로그램을 통하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  11. 제 10항에 있어서,
    그중 상기 표시 모듈은 상기 제3 표시 프로그램을 실행하여,
    상기 사람 얼굴의 하나의 이마 중간 위치에 하나의 제1 수평선을 생성하고;
    상기 제1 수평선과 상기 사람 얼굴의 하나의 머리선 사이의 2분의 1 높이 위치에 수평으로 하나의 제9 보조선을 생성하고;
    상기 제9 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
    상기 사람 얼굴의 하나의 입 최저점 위치에 하나의 제2 수평선을 생성하고;
    상기 제2 수평선과 상기 사람 얼굴의 최하단 사이의 2분의 1 높이 위치에 수평으로 하나의 제10 보조선을 생성하고; 및
    상기 제10 보조선으로 상기 쉐이딩 구역 중의 하나의 아래턱 구역을 구성하는; 동작을 실행하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  12. 제 11항에 있어서,
    그중 상기 제3 표시 프로그램은 상기 윗이마 구역과 상기 아래턱 구역을 다크 메이크업 구역으로 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  13. 제 2항에 있어서,
    그중 상기 표시 모듈은 상기 사람 얼굴이 역삼각형 얼굴 또는 능형 얼굴이라고 판단되었을 때 하나의 제4 표시 프로그램을 통하여 상기 사람 얼굴에 상기 쉐이딩 구역을 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  14. 제 13항에 있어서,
    그중 상기 표시 모듈은 상기 제4 표시 프로그램을 실행하여,
    상기 사람 얼굴의 하나의 눈 하부 가장자리 위치에 하나의 제1 수평선을 생성하고;
    상기 제1 수평선과 상기 사람 얼굴 윤곽의 하나의 제1 교점을 취득하고;
    상기 제1 교점과 상기 사람 얼굴의 하나의 머리선을 연결하여 하나의 제11 보조선을 생성하고;
    상기 제11 보조선으로 상기 쉐이딩 구역 중의 하나의 윗이마 구역을 구성하고;
    상기 사람 얼굴의 하나의 코 최저점 위치에 하나의 제2 수평선을 생성하고;
    상기 제2 수평선과 상기 사람 얼굴 윤곽의 하나의 제2 교점을 취득하고;
    상기 사람 얼굴의 하나의 입가 위치에 아래 방향으로 하나의 제1 수직선을 생성하고;
    상기 제1 수직선과 상기 사람 얼굴 윤곽의 하나의 제3 교점을 취득하고;
    상기 제2 교점과 상기 제3 교점을 연결하여 하나의 제12 보조선을 생성하고; 및
    상기 제12 보조선으로 상기 쉐이딩 구역 중의 하나의 하악 구역을 구성하는; 동작을 실행하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
  15. 제 14항에 있어서,
    그중 상기 제4 표시 프로그램은 상기 윗이마 구역을 라이트 메이크업 구역으로 표시하고, 상기 하악 구역을 다크 메이크업 구역으로 표시하는 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치.
KR1020170157206A 2017-07-25 2017-11-23 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치 KR20190011651A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710612666.6 2017-07-25
CN201710612666.6A CN109288233A (zh) 2017-07-25 2017-07-25 可标示修容区域的身体信息分析装置

Publications (1)

Publication Number Publication Date
KR20190011651A true KR20190011651A (ko) 2019-02-07

Family

ID=60480222

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170157206A KR20190011651A (ko) 2017-07-25 2017-11-23 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치

Country Status (5)

Country Link
US (2) US10521647B2 (ko)
EP (1) EP3435278A1 (ko)
JP (1) JP2019025288A (ko)
KR (1) KR20190011651A (ko)
CN (1) CN109288233A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210307492A1 (en) * 2020-04-01 2021-10-07 Magicom Inc. Smart-mirror display system

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2751145B2 (ja) * 1993-12-15 1998-05-18 株式会社三城 眼鏡形状デザイン設計システム
JP4364373B2 (ja) * 1999-09-10 2009-11-18 ポーラ化成工業株式会社 顔形分類装置及び記録媒体
JP3855939B2 (ja) * 2003-01-31 2006-12-13 ソニー株式会社 画像処理装置、画像処理方法及び撮影装置
JP5095182B2 (ja) * 2005-12-01 2012-12-12 株式会社 資生堂 顔分類装置、顔分類プログラム、及び該プログラムが記録された記録媒体
US8351711B2 (en) 2005-12-01 2013-01-08 Shiseido Company, Ltd. Face categorizing method, face categorizing apparatus, categorization map, face categorizing program, and computer-readable medium storing program
KR101000130B1 (ko) 2007-10-15 2010-12-10 에스케이 텔레콤주식회사 얼굴인식 가능한 단말기 및 그의 얼굴인식 방법
JP2011121915A (ja) * 2009-12-11 2011-06-23 Shiseido Co Ltd 化粧方法
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
FR2995411B1 (fr) * 2012-09-07 2014-09-19 Tipheret Procede et dispositif pour preparer une monture de lunettes
CN103605975B (zh) * 2013-11-28 2018-10-19 小米科技有限责任公司 一种图像处理的方法、装置及终端设备
JP6331515B2 (ja) * 2014-03-13 2018-05-30 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
WO2015172229A1 (en) * 2014-05-13 2015-11-19 Valorbec, Limited Partnership Virtual mirror systems and methods
KR102214918B1 (ko) * 2014-10-21 2021-02-10 삼성전자주식회사 얼굴 인식 방법 및 장치
JP6485629B2 (ja) * 2015-01-29 2019-03-20 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
WO2016158729A1 (ja) * 2015-03-27 2016-10-06 株式会社メガチップス 化粧支援システム、計測装置、携帯端末装置およびプログラム
JP2015164309A (ja) 2015-03-31 2015-09-10 レノボ・イノベーションズ・リミテッド(香港) 携帯端末機
US20160357578A1 (en) * 2015-06-03 2016-12-08 Samsung Electronics Co., Ltd. Method and device for providing makeup mirror
JP6200483B2 (ja) * 2015-12-23 2017-09-20 株式会社オプティム 画像処理システム、画像処理方法、および画像処理プログラム
CN106940880A (zh) * 2016-01-04 2017-07-11 中兴通讯股份有限公司 一种美颜处理方法、装置和终端设备
CN106296571B (zh) * 2016-07-29 2019-06-04 厦门美图之家科技有限公司 一种基于人脸网格的缩小鼻翼方法、装置和计算设备
CN108021847B (zh) * 2016-11-02 2021-09-14 佳能株式会社 用于识别脸部表情的装置和方法、图像处理装置和系统
CN106937791A (zh) * 2017-04-22 2017-07-11 中山市庭升塑胶制品有限公司 一种智能化妆美容仪及其智能教学系统
CN108874113A (zh) * 2017-05-08 2018-11-23 丽宝大数据股份有限公司 电子化妆镜装置及其背景转换方法
CN108875462A (zh) * 2017-05-16 2018-11-23 丽宝大数据股份有限公司 眉毛造型指引装置及其方法
KR102299847B1 (ko) * 2017-06-26 2021-09-08 삼성전자주식회사 얼굴 인증 방법 및 장치
CN109299636A (zh) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 可标示腮红区域的身体信息分析装置
CN109389015A (zh) * 2017-08-10 2019-02-26 丽宝大数据股份有限公司 脸部相似度评估方法与电子装置
CN109419140A (zh) * 2017-08-31 2019-03-05 丽宝大数据股份有限公司 推荐眉毛形状显示方法与电子装置
CN109583261A (zh) * 2017-09-28 2019-04-05 丽宝大数据股份有限公司 身体信息分析装置及其辅助比对眉型方法
CN109583263A (zh) * 2017-09-28 2019-04-05 丽宝大数据股份有限公司 结合扩增实境的身体信息分析装置及其眉型预览方法
US20190251675A1 (en) * 2018-02-09 2019-08-15 Megvii Technology Llc Image processing method, image processing device and storage medium

Also Published As

Publication number Publication date
US10521647B2 (en) 2019-12-31
EP3435278A1 (en) 2019-01-30
CN109288233A (zh) 2019-02-01
JP2019025288A (ja) 2019-02-21
US10824850B2 (en) 2020-11-03
US20200089935A1 (en) 2020-03-19
US20190034699A1 (en) 2019-01-31

Similar Documents

Publication Publication Date Title
US10963047B2 (en) Augmented mirror
JP6547013B2 (ja) 生体情報解析装置及びその頬紅解析方法
KR20190037050A (ko) 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법
CN108431730B (zh) 增强型镜子
KR102065480B1 (ko) 신체 정보 분석 장치 및 입술 화장 분석 방법
KR102045214B1 (ko) 신체 정보 분석 장치 및 아이섀도 분석 방법
KR102045228B1 (ko) 신체 정보 분석 장치 및 얼굴형 모의 방법
US10843299B2 (en) Object recognition and presentation for the visually impaired
KR20190037051A (ko) 증강 현실과 결합된 신체 정보 분석 장치 및 눈썹 모양 미리보기 방법
KR102101337B1 (ko) 볼터치 구역의 표시가 가능한 신체 정보 분석 장치
KR20190011651A (ko) 쉐이딩 구역의 표시가 가능한 신체 정보 분석 장치
JP6547012B2 (ja) 生体情報解析装置及びその基礎化粧解析方法
WO2017108702A1 (en) Augmented mirror
KR20190032156A (ko) 신체 정보 분석 장치 및 얼굴형 검측 방법
JP2018185784A (ja) 頬紅案内装置及びその方法
JP2020057153A (ja) 表示制御装置、表示制御方法及び表示制御プログラム
CN113487489A (zh) 一种脸部修容显示及关键点检测模型训练方法及终端
CN117373061A (zh) 按摩控制方法、装置和按摩设备

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right