KR20220121162A - 탈모 상태 정보 제공 방법 및 장치 - Google Patents

탈모 상태 정보 제공 방법 및 장치 Download PDF

Info

Publication number
KR20220121162A
KR20220121162A KR1020210118969A KR20210118969A KR20220121162A KR 20220121162 A KR20220121162 A KR 20220121162A KR 1020210118969 A KR1020210118969 A KR 1020210118969A KR 20210118969 A KR20210118969 A KR 20210118969A KR 20220121162 A KR20220121162 A KR 20220121162A
Authority
KR
South Korea
Prior art keywords
user
point
matching
boundary
group
Prior art date
Application number
KR1020210118969A
Other languages
English (en)
Other versions
KR102553141B1 (ko
Inventor
박민석
Original Assignee
주식회사 비컨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210039223A external-priority patent/KR20220121137A/ko
Application filed by 주식회사 비컨 filed Critical 주식회사 비컨
Publication of KR20220121162A publication Critical patent/KR20220121162A/ko
Application granted granted Critical
Publication of KR102553141B1 publication Critical patent/KR102553141B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/448Hair evaluation, e.g. for hair disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • A61B5/706Indicia not located on the patient, e.g. floor marking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Dermatology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

본 출원의 일 실시예에 따른 탈모 상태 정보 제공 방법은, 사용자의 머리 이미지를 획득하는 단계; 상기 머리 이미지에서 복수의 특징점을 추출하는 단계- 상기 복수의 특징점은 제1 그룹의 특징점 및 제2 그룹의 특징점을 포함함 -; 상기 머리 이미지에서 상기 사용자의 머리카락 및 이마의 경계선에 대응되는 복수의 경계점을 추출하는 단계; 상기 복수의 경계점 중에서 상기 제1 그룹의 특징점에 대응되는 매칭 경계점을 선택하는 단계; 상기 머리 이미지 상의 제1 축을 기준으로 상기 제1 그룹의 특징점과 이에 대응하는 매칭 경계점 사이의 거리에 기초하여 정해지는 상안면부 산출 값을 획득하는 단계; 상기 제1 축을 기준으로 상기 제1 그룹의 특징점과 상기 제2 그룹의 특징점 사이의 거리에 기초하여 정해지는 중하안면부 산출 값을 획득하는 단계; 및 상기 상안면부 산출 값 및 상기 중하안면부 산출 값의 비율에 기초하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함한다.

Description

탈모 상태 정보 제공 방법 및 장치{METHOD AND DEVICE FOR PROVIDING ALOPECIA INFORMATION}
본 출원은 사용자의 탈모 상태 정보를 제공하는 방법 및 탈모 상태 정보를 제공하는 장치에 관한 것이다.
탈모는 정상적으로 모발이 존재해야 할 부위에 모발이 없는 상태를 의미하며, 일반적으로 두피의 성모가 빠지는 것을 의미한다. 탈모는 유병율이 높은 질환으로, 발병하는 경우 개인에게 심리적으로 부정적인 영향 예컨대, 스트레스, 자신감 결여, 대인 기피증, 우울증 등의 문제를 야기할 수 있으며, 심할 경우 정신적 질환으로까지 이어질 수 있다. 이와 같은 탈모 현상의 부정적인 영향으로 인하여 탈모는 사회적으로 심각한 문제로 인식되고 있으며, 이에 따라, 탈모와 관련된 시장이 꾸준히 성장하고 있다.
탈모 상태를 진단 및 관리하고, 필요한 경우 탈모를 치료하기 위해서는 개인의 머리 이미지로부터 현재 탈모가 어느정도 진행되었는지를 정확하게 파악하는 것이 필수적으로 요구된다.
그러나 종래의 탈모 상태를 판단하는 방법은 개인이 직접 병원 또는 클리닉에 방문하여 육안에 의해 관찰되는 방법으로 이루어졌다. 이 경우, 탈모 치료를 위한 상담 또는 진단을 위해서는 병원 또는 클리닉에 직접 방문하여야 한다는 불편함이 존재하였고, 현재 탈모 진행 상태에 관하여 정상인과 비교한 객관적인 판단 결과를 얻기 어렵다는 한계점이 존재하였다.
이에, 개개인이 현장 방문 없이 간편하게 탈모 상태를 파악하고 진단하기 위한 방법의 개발이 요구되고 있다.
아래의 종래문헌은 탈모와 상태를 관찰하고 진단하는 모발관리 통합진단시스템 및 그 운용 방법을 개시하고 있다.
* 대한민국특허청(KR) 공개특허공보 10-2004-0048668 (2004. 06. 10.)
본 발명의 일 과제는, 탈모 상태 정보를 제공하는 방법 및 탈모 상태 정보를 제공하는 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원의 개시된 탈모 상태 정보를 제공하는 방법은, 사용자의 머리 이미지를 획득하는 단계; 상기 머리 이미지에서 복수의 특징점을 추출하는 단계- 상기 복수의 특징점은 제1 그룹의 특징점 및 제2 그룹의 특징점을 포함함 -; 상기 머리 이미지에서 상기 사용자의 머리카락 및 이마의 경계선에 대응되는 복수의 경계점을 추출하는 단계; 상기 복수의 경계점 중에서 상기 제1 그룹의 특징점에 대응되는 매칭 경계점을 선택하는 단계; 상기 머리 이미지 상의 제1 축을 기준으로 상기 제1 그룹의 특징점과 이에 대응하는 매칭 경계점 사이의 거리에 기초하여 정해지는 상안면부 산출 값을 획득하는 단계; 상기 제1 축을 기준으로 상기 제1 그룹의 특징점과 상기 제2 그룹의 특징점 사이의 거리에 기초하여 정해지는 중하안면부 산출 값을 획득하는 단계; 및 상기 상안면부 산출 값 및 상기 중하안면부 산출 값의 비율에 기초하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함할 수 있다.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원의 실시예에 의하면, 사용자는 병원 등의 현장을 방문하지 않고도 간편하게 자신의 탈모 상태에 관한 정보를 획득할 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 탈모 상태 정보를 제공하는 방법을 설명하기 위한 도면이다.
도 2는 사용자 단말기의 구성을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 탈모 상태 정보 제공 시스템을 설명하기 위한 도면이다.
도 4는 이미지 촬영부를 통해 사용자의 머리가 촬영되는 동작을 예시적으로 설명하기 위한 도면이다.
도 5는 이미지 촬영부를 통해 획득된 사용자의 머리 이미지를 나타내는 도면이다.
도 6은 도 1 내지 3에서 설명한 사용자 단말기의 제어부에 포함되어 있는 모듈 및 이들의 동작을 설명하기 위한 도면이다.
도 7은 머리 이미지로부터 추출된 특징점을 설명하기 위한 도면이다.
도 8 및 도 9는 머리 이미지로부터 추출된 경계점을 설명하기 위한 도면이다.
도 10은 머리 이미지로부터 경계점을 획득하기 위한 신경망의 구조에 대한 실시예를 도시한 것이다.
도 11은 머리 이미지로부터 매칭 경계점을 선택하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 제1 그룹의 특징점 및 이에 대응하는 매칭 경계점을 도시한 도면이다.
도 13은 일 실시예에 따른 매칭 경계점을 선택하는 방법을 설명하기 위한 도면이다.
도 14는 다른 실시예에 따른 매칭 경계점을 선택하는 방법을 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 탈모 상태 정보 제공 프로세스를 설명하기 위한 도면이다.
도 16은 머리 이미지에 기초하여 제1 산출 값 및 제2 산출 값을 획득하는 방법을 예시적으로 설명하기 위한 도면이다.
도 17은 사용자의 탈모 상태를 판단할 때 이용되는 기준 비율을 예시적으로 설명하기 위한 도면이다.
도 18은 다른 실시예에 따른 사용자의 탈모 상태를 판단하기 위한 방법을 설명하기 위한 순서도이다.
도 19는 머리 이미지에서 기준점을 결정하는 방법을 설명하기 위한 도면이다.
도 20은 일 실시예에 따른 상안면부의 면적을 산출하는 방법을 설명하기 위한 도면이다.
도 21 및 도 22는 일 실시예에 따른 상안면부의 면적을 나타내는 도면이다.
도 23은 다른 실시예에 따른 사용자의 탈모 상태를 판단하기 위한 방법을 설명하기 위한 도면이다.
도 24는 머리 이미지에서 사용자 머리의 기울어진 각도에 기초하여 이미지를 재보정하는 방법을 설명하기 위한 도면이다.
도 25는 사용자 얼굴의 주요 부위와 관련된 상세 비율을 설명하기 위한 도면이다.
도 26 및 도 27은 사용자 입력 정보에 기초하여 출력부가 사용자의 탈모 상태와 관련된 정보를 출력하는 것을 설명하기 위한 도면이다.
도 28 및 도 29는 출력부가 사용자의 시술 후 머리 이미지를 출력하는 것을 예시적으로 설명하기 위한 도면이다.
본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.
본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.
예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.
본 출원의 일 실시예에 따른 탈모 상태 정보 제공 방법에 있어서, 사용자의 머리 이미지를 획득하는 단계; 상기 머리 이미지에서 복수의 특징점을 추출하는 단계- 상기 복수의 특징점은 제1 그룹의 특징점 및 제2 그룹의 특징점을 포함함 -; 상기 머리 이미지에서 상기 사용자의 머리카락 및 이마의 경계선에 대응되는 복수의 경계점을 추출하는 단계; 상기 복수의 경계점 중에서 상기 제1 그룹의 특징점에 대응되는 매칭 경계점을 선택하는 단계; 상기 머리 이미지 상의 제1 축을 기준으로 상기 제1 그룹의 특징점과 이에 대응하는 매칭 경계점 사이의 거리에 기초하여 정해지는 상안면부 산출 값을 획득하는 단계; 상기 제1 축을 기준으로 상기 제1 그룹의 특징점과 상기 제2 그룹의 특징점 사이의 거리에 기초하여 정해지는 중하안면부 산출 값을 획득하는 단계; 및 상기 상안면부 산출 값 및 상기 중하안면부 산출 값의 비율에 기초하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함할 수 있다.
상기 복수의 경계점은 상기 사용자의 머리카락 및 이마의 경계선에 대응될 확률 값에 기초하여 추출되며, 상기 매칭 경계점을 선택하는 단계는, 상기 제1 그룹의 특징점에 대응되는 제1 지점 및 제2 지점에서 상기 제1 축 방향으로 각각 연장 형성된 제1 직선 및 제2 직선 사이의 매칭 영역을 설정하는 단계; 및 상기 매칭 영역에 포함되는 복수의 경계점 중 상기 확률 값이 미리 정해진 임계 값 이상인 매칭 후보 경계점들 중 적어도 하나를 상기 매칭 경계점으로 선택하는 단계를 포함하되, 상기 제1 지점 및 상기 제2 지점은 상기 제1 그룹 특징점에서 상기 제1 축에 직교하는 제2 축 방향으로 각각 제1 거리 및 제2 거리만큼 떨어진 지점일 수 있다.
상기 매칭 경계점은, 상기 매칭 후보 경계점들 중 상기 제1 그룹의 특징점으로부터 상기 제1 축의 제1 방향으로 가장 멀리 위치한 점일 수 있다.
상기 상안면부 산출 값은 상기 제1 그룹의 특징점 및 상기 매칭 경계점에 기초하여 설정되는 상기 머리 이미지의 상안면부 면적 값을 포함하고, 상기 중하안면부 산출 값은 상기 제1 그룹의 특징점 및 상기 제2 그룹의 특징점에 기초하여 설정되는 상기 머리 이미지의 중하안면부 면적 값을 포함할 수 있다.
상기 매칭 경계점을 선택하는 단계는, 상기 제1 그룹의 특징점으로부터 적어도 제1 특징점 및 제2 특징점을 포함하는 복수의 특징점을 선택하는 단계; 및 상기 제1 특징점 및 상기 제2 특징점 각각에 대응되는 제1 매칭 경계점 및 제2 매칭 경계점을 선택하는 단계를 포함하고, 상기 탈모 상태 정보 제공 단계는, 상기 머리 이미지에서 상기 제1 특징점에 대응되는 제1 기준점 및 상기 제2 특징점에 대응되는 제2 기준점을 추출하는 단계- 상기 제1 기준점 및 제2 기준점은 상기 제1 특징점 및 제2 특징점으로부터 각각 상기 제1 축의 제1 방향으로 상기 중하안면부 산출 값의 미리 설정된 비율의 거리만큼 떨어진 지점임 -; 상기 제1 특징점, 상기 제2 특징점, 상기 제1 매칭 경계점 및 상기 제2 매칭 경계점에 기초하여 정해지는 제1 상안면부 면적 값을 획득하는 단계; 상기 제1 특징점, 상기 제2 특징점, 상기 제1 기준점 및 상기 제2 기준점에 기초하여 제2 상안면부 면적 값을 산출하는 단계; 및 상기 제1 상안면부 면적 값 및 상기 제2 상안면부 면적 값의 비율에 기초하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함할 수 있다.
상기 사용자의 탈모 상태 정보를 제공하는 단계는, 상기 이미지에서 상기 사용자의 시술이 요구되는 시술 영역에 관한 정보를 제공하는 것을 포함하되, 상기 시술 영역은 상기 제1 상안면부 면적 값과 상기 제2 상안면부 면적 값 차이에 기초하여 정해지는 것일 수 있다.
상기 제1 상안면부 면적 값과 상기 제2 상안면부 면적 값은 상기 사용자 얼굴의 기준 가로 길이와 세로 길이에 기초하여 산출되고, 상기 기준 가로 길이는, 상기 사용자 얼굴의 종횡비 및 미리 설정된 표준 얼굴 길이에 기초하여 결정될 수 있다.
상기 사용자의 탈모 상태 정보를 제공하는 단계는, 상기 사용자 또는 제3자로부터 입력된 모발 시술양의 정보를 획득하는 단계 및 상기 모발 시술양에 따른 상기 사용자의 시술 후 이마 영역을 출력하는 단계를 포함할 수 있다.
상기 복수의 경계점은 신경망 모델을 이용하여 획득되되, 상기 신경망 모델은, 머리카락과 이마의 경계선 중 적어도 일부를 포함하는 학습 머리 이미지에 기초하여 상기 머리카락과 이마의 경계선에 대응되는 복수의 기준 경계점을 획득하도록 학습될 수 있다.
상기 신경망 모델은, 상기 학습 머리 이미지에 기초하여 상기 머리카락과 이마를 포함하는 관심 영역을 획득하는 제1 부분 및 상기 관심 영역에 기초하여 상기 복수의 기준 경계점을 획득하도록 학습되는 제2 부분을 포함할 수 있다.
다른 실시예에 따르면, 사용자의 머리 이미지를 획득하는 단계; 상기 머리 이미지에서 복수의 특징점을 추출하는 단계- 상기 복수의 특징점은 제1 그룹의 특징점 및 제2 그룹의 특징점을 포함함 -; 상기 머리 이미지에서 상기 사용자의 머리카락 및 이마의 경계선에 대응되는 복수의 경계점을 추출하는 단계;
상기 복수의 경계점 중에서 상기 제1 그룹의 특징점에 대응되는 매칭 경계점을 선택하는 단계; 상기 머리 이미지 상의 제1 축을 기준으로 상기 제1 그룹의 특징점과 상기 매칭 경계점 사이의 거리에 기초하여 정해지는 상안면부 산출 값을 획득하는 단계; 상기 제1 축을 기준으로 상기 제1 그룹의 특징점과 상기 제2 그룹의 특징점 사이의 거리에 기초하여 정해지는 중하안면부 산출 값을 획득하는 단계; 및 상기 상안면부 산출 값 및 상기 중하안면부 산출 값의 비율에 기초하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함하는 탈모 상태 정보 제공 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램을 제공할 수 있다.
이하에서는 도면을 참고하여, 본 출원의 탈모 상태 정보 제공 장치, 탈모 상태 정보 제공 시스템 및 탈모 상태 정보 제공 방법에 관하여 설명한다.
도 1은 일 실시예에 따른 탈모 상태 정보를 제공하는 방법을 설명하기 위한 도면이고, 도 2는 사용자 단말기의 구성을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 탈모 상태 정보를 제공하는 방법은 사용자 단말기(1000)를 통해 수행될 수 있다. 사용자 단말기(1000)는 도 2를 참조하면, 제어부(100), 이미지 촬영부(200), 저장부(300), 사용자 입력부(400), 출력부(500), 전원 공급부(600) 및 통신부(700)를 포함할 수 있다. 이때, 사용자 단말기(1000)는 휴대 가능한 정보통신기기 예컨대, 스마트폰, 테블릿 등을 포함할 수 있다.
이미지 촬영부(200)는 디지털 카메라로, 이미지 센서와 영상처리부를 포함할 수 있다. 이미지 센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 직접된 칩으로 구성될 수 있다. 예시적으로, 이미지 센서는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등을 포함할 수 있다. 한편, 영상처리부는 촬영된 결과를 영상 처리하여, 영상 정보를 생성할 수 있다.
저장부(300)는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 저장수단으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. 저장부(300)에는 사용자 단말기(1000)에 수신되는 데이터가 저장될 수 있다.
사용자 입력부(400)는 사용자 단말기(1000)에 대한 사용자의 입력을 수신한다. 수신된 입력은 제어부(100)에 전달될 수 있다. 일 실시예에 따르면, 사용자 입력부(400)는 터치 디스플레이를 통해 사용자의 입력을 수신할 수 있다. 또한, 사용자 입력부(400)는 사용자로부터 명령이 입력되는 사용자 인터페이스 화면을 의미할 수 있다.
출력부(500)는 제어부(100)의 제어 명령에 따라 각종 정보를 출력한다. 일 실시예에 따르면, 출력부(500)는 디스플레이 패널을 통해 정보를 출력할 수 있다. 보다 구체적으로, 출력부(500)는 디스플레이 패널을 통해 사용자의 탈모 상태와 관련된 정보를 출력할 수 있다. 다만, 출력부(500)는 디스플레이 패널로 한정되지 않으며, 스피커 등 정보를 출력할 수 있는 다양한 수단을 포함할 수 있다.
전원 공급부(600)는 배터리를 포함하며, 상기 배터리는 사용자 단말기(1000)에 내장되거나 외부에서 착탈이 가능하게 구비될 수 있다. 전원 공급부(600)는 사용자 단말기(1000)의 각 구성 요소에서 필요로 하는 전력을 공급할 수 있다.
통신부(700)는 무선 통신 모듈 및/또는 유선 통신 모듈을 포함할 수 있다. 여기서, 무선 통신 모듈은 와이파이(Wi-Fi) 통신 모듈, 셀룰러 통신 모듈 등을 포함할 수 있다.
제어부(100)는 적어도 하나의 프로세서를 포함할 수 있다. 이때, 각각의 프로세서는 메모리에 저장된 적어도 하나의 명령어를 실행시킴으로써, 소정의 동작을 실행할 수 있다. 구체적으로, 제어부(100)는 사용자 단말기(1000)에 포함되어 있는 구성들의 전체적인 동작을 제어할 수 있다. 다시 말해, 사용자 단말기(1000)는 제어부(100)에 의해 제어 또는 동작될 수 있다.
한편, 도 2에는 도시되지 않았으나, 사용자 단말기(1000)는 다양한 센서를 포함할 수 있다. 예를 들어, 사용자 단말기(1000)는 자이로 센서, 온도 센서, 모션 센서, 터치 센서, 근접 센서 등을 포함할 수 있다.
본 출원의 실시예에 따르면, 사용자는 사용자 단말기(1000)를 통해 자신의 탈모 상태 예컨대, 탈모 진행 여부, 탈모 진행 정도, 탈모 유형, 모발 이식 시뮬레이션 등에 관한 정보를 제공받을 수 있다. 예를 들어, 사용자는 사용자 단말기(1000)에 구비되어 있는 이미지 촬영부(200)를 통해 자신의 머리 이미지를 촬영한 후, 자신의 탈모 상태에 관한 정보를 출력부(500)를 통해 제공받을 수 있다.
보다 구체적인 예로, 사용자 단말기(1000)는 이미지 촬영부(200)를 통해 촬영된 사용자의 머리 이미지를 획득한 후, 미리 학습된 신경망 모델을 이용하여 사용자의 탈모 상태와 관련된 정보를 획득하고 이를 출력부(500)를 통해 사용자에게 제공할 수 있다. 사용자 단말기(1000)가 사용자의 탈모 상태와 관련된 정보를 획득하는 보다 상세한 방법에 관하여는 후술하도록 한다.
도 3은 일 실시예에 따른 탈모 상태 정보 제공 시스템을 설명하기 위한 도면이다. 도 3을 참조하면, 탈모 상태 정보 제공 시스템은 사용자 단말기(1000)와 서버(S)를 포함할 수 있다.
일 실시예에 따르면, 서버(S)는 사용자의 머리 이미지에 기초하여 해당 사용자의 탈모 상태 정보를 출력하기 위한 신경망 모델의 학습을 수행할 수 있다. 사용자 단말기(1000)는 학습된 신경망 모델에 대한 정보를 서버(S)로부터 수신할 수 있다. 이 경우, 사용자 단말기(1000)는 서버(S)로부터 수신된 학습된 신경망 모델을 이용하여, 사용자의 탈모 상태 정보를 제공하기 위한 일련의 동작을 수행할 수 있다. 보다 구체적으로, 사용자 단말기(1000)는 사용자의 머리 이미지를 획득하고, 이에 기초하여 사용자의 탈모 상태에 관한 정보를 생성할 수 있다. 또한, 사용자 단말기(1000)는 사용자의 탈모 상태에 관한 정보를 사용자에게 제공할 수 있다.
다른 실시예에 따르면, 전술한 사용자의 탈모 상태 정보를 판단하기 위한 일련의 동작은 서버(S)에 의해 수행될 수 있다. 즉, 서버(S)는 사용자 단말기(1000)로부터 사용자의 머리 이미지를 획득할 수 있다. 이후, 서버(S)는 학습된 신경망 모델을 이용해 상기 머리 이미지로부터 사용자의 탈모 상태를 판단할 수 있다. 또한, 서버(S)는 사용자의 탈모 상태 판단 결과를 사용자 단말기(1000)에 전송할 수 있다. 이 경우, 사용자 단말기(1000)는 사용자의 탈모 상태 판단 결과를 사용자에게 제공할 수 있다.
한편, 도 3을 참조하여 상술한 사용자 단말기(1000)는 진단 장치일 수 있다. 이 경우, 사용자 단말기(1000)가 수행하는 일련의 동작은 진단 장치에서 동일하거나 상응하게 수행될 수 있다.
예를 들어, 진단 장치는 학습된 신경망 모델에 대한 정보를 서버(S)로부터 수신할 수 있다. 이 경우, 진단 장치는 서버(S)로부터 수신된 학습된 신경망 모델을 이용하여, 사용자의 탈모 상태 정보를 제공하기 위한 일련의 동작을 수행할 수 있다.
다른 예로, 진단 장치는 사용자의 머리 이미지를 서버(S)로 전송할 수 있다. 이후, 서버(S)는 학습된 신경망 모델을 이용해 상기 머리 이미지로부터 사용자의 탈모 상태를 판단할 수 있고, 그 결과를 진단 장치에 전송할 수 있다.
한편, 진단 장치는 예시적으로, 병원, 클리닉 등에서 사용되는 두피 상태 측정 장치일 수 있다. 또는, 진단 장치는 병원, 클리닉 등에서 환자의 탈모 상태를 진단하기 위해 사용되는 장치일 수 있으나, 이에 한정되는 것은 아니며, 기 알려진 다양한 종류의 의료 기구 또는 장치를 포함할 수 있다.
이하에서는 설명의 편의를 위해 사용자 단말기(1000)에서 수행되는 동작에 대해 설명하지만, 구현 예에 따라 이와 동일하거나 상응하는 동작들이 진단 장치에서 수행될 수도 있다.
사용자 단말기(1000)는 사용자의 탈모 상태를 판단하기 위하여 사용자의 머리 이미지를 활용할 수 있다. 이하에서는, 사용자 단말기(1000)가 머리 이미지를 획득하는 방법에 대해 설명하고, 획득된 머리 이미지에 대하여 도면을 참고하여, 구체적으로 설명한다.
사용자 단말기(1000)는 도 2의 이미지 촬영부(200)를 통해 사용자의 머리 이미지를 획득할 수 있다.
사용자 단말기(1000)는 사용자가 이미지 촬영부(200)를 통해 자신 또는 타인의 머리를 촬영하는 경우 출력부(500)를 통해 촬영 가이드를 표시할 수 있다. 촬영 가이드는 사람의 머리 또는 얼굴의 윤곽선에 관한 것일 수 있으나, 이에 한정되는 것은 아니며, 기 알려진 다양한 촬영 가이드의 형태를 포함할 수 있다.
사용자가 촬영 가이드에 기초하여 머리를 촬영하는 경우, 촬영 가이드 내에 머리가 미리 정해진 기준을 만족하여 위치할 경우, 단말기의 제어부(100)는 촬영 버튼을 활성화하여 사용자의 머리 촬영 및 저장이 가능하도록 할 수 있다.
이때, 상기 미리 정해진 기준은 촬영 가이드 내에 사용자의 머리가 온전히 위치하였는지에 기초하여 정해질 수 있다. 바람직하게는, 상기 미리 정해진 기준은 촬영 가이드 내에 사용자의 머리카락을 포함하는 얼굴 전체가 위치하였는지에 기초하여 정해질 수 있다. 다른 예로, 상기 미리 정해진 기준은 촬영 가이드 내에 사용자의 머리 중 특정 부분 예컨대, 머리카락과 이마의 경계 부분이 위치하였는지에 관한 것일 수 있다.
한편, 상술한 바와 같이, 사용자 단말기(1000)에는 자이로 센서가 탑재될 수 있다. 이 경우, 상기 미리 정해진 기준은 자이로 센서를 통해 획득된 사용자 단말기(1000)의 기울어짐 정도와 관련된 것일 수 있다.
보다 구체적으로, 사용자 단말기(1000)의 제어부(100)는 자이로 센서를 통해 사용자 단말기(1000)의 기울어짐 정보를 획득할 수 있다. 이후, 제어부(100)는 상기 기울어짐 정보에 기초하여 이미지 촬영부(200)가 머리 이미지를 촬영하도록 제어할 수 있다. 예컨대, 제어부(100)는 사용자 단말기(1000)의 기울짐어 정도가 일정 수준 이하일 경우에만 이미지 촬영부(200)가 머리 이미지를 촬영하도록 할 수 있다.
도 4는 이미지 촬영부를 통해 사용자의 머리가 촬영되는 동작을 예시적으로 설명하기 위한 도면이다. 도 4를 참조하면, 사용자 단말기(1000)는 출력부(500)를 통해 촬영 가이드 메시지를 출력할 수 있다.
도 4의 (a)는 사용자 단말기(1000)의 좌우 또는 앞뒤로 기울어진 정도가 미리 정해진 기준을 만족하는 경우를 표현한 도면이다. 반면에, 도 4의 (b)는 사용자 단말기(1000)가 좌우로 기울어진 상태에 놓인 경우를 표현한 도면이며, 도 4의 (c)는 사용자 단말기(1000)가 앞뒤로 기울어진 상태에 놓인 경우를 표현한 도면이다.
도 4의 (a)와 같이 사용자 단말기(1000)의 기울어진 정도가 미리 정해진 기준을 만족하는 경우, 사용자 단말기(1000)의 제어부(100)는 이미지 촬영부(200)의 촬영 버튼을 활성화할 수 있다. 다만, 도 4의 (b) 또는 (c)와 같이 사용자 단말기(1000)가 좌우 또는 앞뒤로 기울어진 경우, 사용자 단말기(1000)는 이미지 촬영부(200)의 촬영 버튼을 비활성화한 후 단말기의 기울어진 정도가 일정 수준 이하가 될 경우에 촬영 버튼을 활성화시킬 수 있다.
도 5는 이미지 촬영부를 통해 획득된 사용자의 머리 이미지를 나타내는 도면이다. 이미지 촬영부(400)가 획득한 머리 이미지는 제어부(100)에 전달될 수 있다. 이하에서는, 도 5를 참조하여, 사용자의 머리 이미지에 관하여 설명한다.
도 5를 참조하면, 머리 이미지는 사용자의 머리 전부 또는 일부가 촬영된 이미지일 수 있다.
일 예로, 머리 이미지가 사용자의 머리 전부가 촬영된 이미지인 경우, 상기 머리 이미지는 머리카락을 포함하는 사용자의 안면 전부가 포함된 이미지일 수 있다. 또는, 상기 머리 이미지는 머리카락, 이마 및 얼굴의 윤곽선이 모두 포함된 이미지일 수 있다. 또는, 상기 머리 이미지는 얼굴의 주요 부위가 모두 포함된 이미지일 수 있다.
다른 예로, 머리 이미지가 사용자 머리의 일부가 촬영된 이미지인 경우, 상기 머리 이미지는 적어도 사용자의 머리카락과 이마가 촬영된 이미지일 수 있다. 또는, 상기 머리 이미지는 사용자의 머리카락 중 적어도 일부와 이마 중 적어도 일부가 촬영된 이미지일 수 있다. 또는, 상기 머리 이미지는 사용자의 얼굴을 구성하는 주요 부위 중 적어도 하나를 포함하는 이미지일 수 있다. 이때, 상기 주요 부위는 눈, 코, 입, 귀 등의 신체 기관 또는 이마, 미간, 볼, 턱 등의 얼굴의 특정 부분일 수 있다.
또 다른 예로, 머리 이미지는 사용자 머리의 앞면, 좌측면 또는 우측면에 관한 이미지일 수 있다. 이때, 사용자 머리의 앞면에 관한 이미지는 사용자의 눈, 코 및 입 중 적어도 어느 하나를 포함하는 사용자의 안면 이미지일 수 있다. 상기 사용자 머리의 좌측면 및 우측면에 관한 이미지는 사용자의 이마가 적어도 일부 포함되어 있는 사용자의 머리의 측면 이미지일 수 있다.
머리 이미지는 피사체가 움직이지 않는 영상일 수 있고, 또는 피사체가 움직이는 동영상일 수도 있다. 이때, 머리 이미지가 동영상일 경우, 상기 동영상은 사용자 머리의 앞면, 좌측면 및/또는 우측면이 촬영된 복수의 영상을 포함할 수 있다. 또는, 상기 동영상은 사용자의 머리카락 및 이마의 경계 영역이 모두 촬영된 동영상을 의미할 수 있다.
한편, 머리 이미지 상에서 특정 좌표를 나타내기 위한 제1 축(AX1) 및 제2 축(AX2)이 정의될 수 있다.
일 실시예에 따르면, 제1 축(AX1) 및 제2 축(AX2)은 각각 이미지 상의 y축 및 x축을 의미할 수 있다. 예를 들어, 머리 이미지는 도 5의 (a)와 같이 사용자의 머리가 기울어지지 않은 상태로 촬영된 이미지일 수 있다. 이 경우, 제1 축(AX1)은 이미지 상의 y축에 대응할 수 있다. 또한, 제2 축(AX2)은 이미지 상의 x축에 대응할 수 있다. 이 경우, 제2 축(AX2)은 상기 제1 축(AX1)에 직교하는 축일 수 있다.
다른 실시예에 따르면, 제1 축(AX1) 및 제2 축(AX2)은 머리 이미지 상에서 사용자의 머리가 기울어진 정도에 대응하여 정의될 수 있다. 예를 들어, 머리 이미지는 도 5의 (b)와 같이 사용자의 머리가 좌우로 기울어진 상태로 촬영된 이미지일 수 있다. 도 5의 (b)에서와 같이 머리 이미지에서 사용자의 머리가 y축을 기준으로 각도 a만큼 기울어진 것으로 판단된 경우, 제1 축(AX1)은 y축을 기준으로 a만큼 기울어진 축으로 정의될 수 있고, 제2 축(AX2)은 x축을 기준으로 a만큼 기울어진 축으로 정의될 수 있다.
머리 이미지는 복수의 영역으로 구분될 수 있다. 일 실시예에 따르면, 머리 이미지는 두 개의 영역으로 구분될 수 있다. 예를 들어, 머리 이미지는 얼굴의 상부 영역 및 하부 영역으로 구분될 수 있다. 또는, 머리 이미지는 이마 영역 및 얼굴 하단 영역으로 구분될 수 있다. 또는, 머리 이미지는 상안면부 및 중하안면부로 구분될 수 있다. 다만, 본 출원의 실시예는 이에 한정되는 것은 아니며 머리 이미지는 하나의 영역을 두 개의 영역으로 구분 지을 수 있는 다양한 용어에 의해 구분될 수 있다. 이하에서는, 설명의 편의를 위해 머리 이미지 상의 두 개의 영역을 각각 상안면부 및 중하안면부로 정의한 후 설명한다.
이때, 머리 이미지를 두개의 영역으로 구분하는 기준은 사용자의 눈썹을 기초로 정해질 수 있다. 예를 들어, 상안면부는 눈썹을 기준으로 윗부분을 의미할 수 있고, 중하안면부는 눈썹의 아랫부분을 의미할 수 있다.
다른 실시예에 따르면, 머리 이미지는 세 개의 영역으로 구분될 수 있다. 예를 들어, 머리 이미지는 상부 영역, 중앙 영역 및 하부 영역으로 구분될 수 있다. 또는, 머리 이미지는 이마 영역, 코 영역, 입술 영역으로 구분될 수 있다. 또는, 머리 이미지는 상안면부, 중안면부 및 하안면부로 구분될 수 있다. 다만, 본 출원의 실시예는 이에 한정되는 것은 아니며 머리 이미지는 하나의 영역을 세 개의 영역으로 구분 지을 수 있는 다양한 용어에 의해 구분될 수 있다. 이하에서는, 설명의 편의를 위해 머리 이미지 상의 세 개의 영역을 각각 상안면부, 중안면부 및 하안면부로 정의한 후 설명한다.
이때, 머리 이미지를 세 개의 영역으로 구분하는 기준은 사용자의 눈썹 및 입술을 기초로 정해질 수 있다. 예를 들어, 상안면부는 눈썹 윗부분의 영역을 의미할 수 있고, 중안면부는 눈썹 아랫부분부터 입술 윗부분까지를 의미할 수 있으며, 하안면부는 입술 아랫부분을 의미할 수 있으나, 이에 한정되는 것은 아니다.
도 6은 도 1 내지 3에서 설명한 사용자 단말기의 제어부에 포함되어 있는 모듈 및 이들의 동작을 설명하기 위한 도면이다.
제어부(100)는 사용자 단말기(1000)의 이미지 촬영부(200)가 획득한 사용자의 머리 이미지에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 보다 구체적으로, 제어부(100)는 도 4 및 도 5에서 설명한 사용자의 머리 이미지를 입력 받아, 이에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 이하에서는, 제어부(100)가 사용자의 탈모 상태를 판단함에 있어 제어부(100)에 포함되어 있는 각각의 모듈이 수행하는 기능에 대하여 설명한다.
도 6을 참조하면, 제어부(100)는 경계점 추출 모듈(110), 특징점 추출 모듈(120), 매칭 경계점 선택 모듈(130), 제1 산출 값 획득 모듈(140), 제2 산출 값 획득 모듈(150) 및 사용자 탈모 상태 판단 모듈(160)을 포함할 수 있다.
경계점 추출 모듈(110)은 머리 이미지에서 경계점(BP)을 추출할 수 있다. 또한, 특징점 추출 모듈(120)은 머리 이미지에서 특징점(FP)을 추출할 수 있다. 매칭 경계점 선택 모듈(130)은 특징점(FP)에 기초하여 경계점(BP) 중에서 매칭 경계점(MBP)을 선택할 수 있다.
제1 산출 값 획득 모듈(140)은 특징점(FP) 및 매칭 경계점(MBP)에 기초하여 제1 산출 값을 획득할 수 있다. 또한, 제2 산출 값 획득 모듈(150)은 특징점(FP)에 기초하여 제2 산출 값을 획득할 수 있다. 사용자 탈모 상태 판단 모듈(160)은 제1 산출 값 및 제2 산출 값에 기초하여 사용자의 탈모 상태 예컨대, 탈모 진행 여부, 탈모 진행 정도, 탈모 유형 등에 관한 판단을 수행할 수 있다.
한편, 도 6에 도시된 모듈들은 제어부(100)의 하위 구성들이며, 실시예에 따라 하나 또는 복수의 프로세서를 통해 통합하여 수행될 수 있다. 이하에서는, 도면을 참조하여 제어부(100)를 구성하는 각각의 모듈의 동작에 대하여 구체적으로 설명한다.
도 7은 머리 이미지로부터 추출된 특징점을 설명하기 위한 도면이다. 이하에서는, 도 7을 참조하여, 머리 이미지로부터 특징점(FP)을 추출하는 방법에 관하여 알아본다.
특징점(FP)은 얼굴의 주요 부위에 관한 랜드마크(landmark)를 표현할 수 있다. 여기서, 얼굴의 주요 부위는 얼굴을 구성하고 있는 신체 기관(예를 들어, 눈, 눈썹, 코, 입, 귀 등) 또는 얼굴의 특정 부분(예를 들어, 이마, 미간, 볼, 턱, 얼굴의 윤곽선 등)을 포함할 수 있다.
도 6를 참조하면, 특징점(FP)들은 제1 그룹의 특징점(G1FP) 및 제2 그룹의 특징점(G2FP)으로 분류될 수 있다. 이때, 제1 그룹의 특징점(G1FP) 및 제2 그룹의 특징점(G2FP)은 각각 하나 이상의 특징점을 포함할 수 있다.
예를 들어, 제1 그룹의 특징점(G1FP)은 얼굴의 길이 방향으로 기 설정된 지점, 위치 또는 부위를 기준으로 상부에 위치한 얼굴의 주요 부위에 관한 랜드마크를 표현할 수 있다. 또한, 제2 그룹의 특징점(G2FP)은 얼굴의 길이 방향으로 기 설정된 지점, 위치 또는 부위를 기준으로 하부에 위치한 얼굴의 주요 부위에 관한 랜드마크를 표현할 수 있다. 한편, 상기 제2 그룹의 특징점(G2FP)은 머리 이미지 상에서 얼굴의 길이 방향으로 상기 제1 그룹의 특징점(G1FP) 보다 하단에 위치할 수 있다.
다른 예로, 제1 그룹의 특징점(G1FP)은 얼굴의 제1 주요 부위에 대응하는 랜드마크를 표현할 수 있고, 제2 그룹의 특징점(G2FP)은 얼굴의 제2 주요 부위에 대응하는 랜드마크를 표현할 수 있다. 이 경우, 얼굴의 제1 주요 부위 및 제2 주요 부위는 서로 상이할 수 있다. 예시적으로, 제1 그룹의 특징점(G1FP)은 눈썹에 대응하는 랜드마크를 표현할 수 있고, 제2 그룹의 특징점(G2FP)은 얼굴의 윤곽선(예를 들어, 턱선)에 대응하는 랜드마크를 표현할 수 있다. 또는, 얼굴의 제1 주요 부위 및 제2 주요 부위는 서로 동일할 수 있다. 예시적으로, 제1 그룹의 특징점(G1FP)은 얼굴의 좌측 눈썹에 대응하는 랜드마크를 표현할 수 있고, 제2 그룹의 특징점(G2FP)은 얼굴의 우측 눈썹에 대응하는 랜드마크를 표현할 수 있다.
특징점 추출 모듈(120)은 이미지 촬영부(200)를 통해 촬영된 머리 이미지로부터 복수의 특징점(FP)을 추출할 수 있다. 보다 구체적으로, 특징점 추출 모듈(120)은 미리 설정된 알고리즘을 이용하여 머리 이미지로부터 특징점(FP)을 추출할 수 있다. 여기서, 알고리즘은 얼굴 이미지로부터 얼굴의 주요 부위에 해당하는 랜드마크(facial landmark)를 자동으로 검출해주는 컴퓨터 알고리즘을 의미할 수 있으나, 이에 한정되는 것은 아니고, 기 알려진 다양한 얼굴 검출 알고리즘(face detection algorithm)을 포함할 수 있다.
일 실시예에 따르면, 사용자 단말기(1000)에는 상술한 알고리즘과 관련한 소프트웨어가 저장되어 있을 수 있다. 이 경우, 사용자 단말기(1000)는 저장되어 있는 알고리즘에 따라 머리 이미지로부터 특징점(FP)을 추출할 수 있다.
다른 실시예에 따르면, 상술한 알고리즘과 관련한 소프트웨어는 서버(S)에 저장되어 있을 수 있다. 이 경우, 사용자 단말기(1000)는 서버(S)를 통해 실시간으로 데이터를 송수신하는 방법으로 머리 이미지로부터 특징점(FP)을 추출할 수 있다.
도 8 및 도 9는 머리 이미지로부터 추출된 경계점을 설명하기 위한 도면이다. 이하에서는, 도 8 및 도 9를 참조하여, 머리 이미지로부터 복수의 경계점(BP)을 추출하는 방법에 관하여 알아본다.
도 8을 참조하면, 경계점(BP)은 머리카락과 이마의 경계 영역에 포함되어 있는 지점일 수 있다. 또는, 경계점(BP)은 머리카락과 이마의 경계선에 대응되는 복수의 지점일 수 있다. 보다 구체적으로, 경계점(BP)은 사용자의 머리 이미지를 구성하는 복수의 픽셀 중 머리카락과 이마의 경계점일 확률 값이 미리 정해진 기준 이상의 픽셀을 의미할 수 있다. 일 실시예에 따르면, 머리카락과 이마의 경계점에 해당할 확률은 미리 학습된 신경망 모델에 의해 판단될 수 있다.
일 실시예에 따르면, 경계점(BP)은 도 8과 같이 머리카락과 이마의 경계에 대응되는 픽셀을 기반으로 추출될 수 있다. 이 경우, 경계점(BP)은 머리카락과 이마를 포함하는 영역에 대한 세그멘테이션 이미지에 기초하여 추출될 수 있다.
다른 실시예에 따르면, 경계점(BP)은 도 9와 같이 머리카락과 이마의 경계에 대응되는 영역을 기반으로 추출될 수 있다. 이 경우, 머리카락과 이마를 포함하는 영역에서 경계 영역에 대응하는 하나 이상의 바운딩 박스(Bounding box)가 획득될 수 있다. 이후, 경계점 추출 모듈(110)은 획득된 바운딩 박스 내의 기 설정된 위치의 점을 경계점으로서 추출할 수 있다. 이때, 기 설정된 위치는 상기 바운딩 박스의 중간 지점 또는 모서리 중 어느 하나일 수 있다.
도 10은 머리 이미지로부터 경계점을 획득하기 위한 신경망의 구조에 대한 실시예를 도시한 것이다. 이하에서는, 도 10을 참조하여, 미리 학습된 인공 신경망을 통해 머리 이미지로부터 경계점(BP)을 추출하는 방법을 설명하도록 한다.
도 10을 참조하면, 경계점 추출 모듈(110)은 미리 학습된 신경망 모델을 통해 머리 이미지로부터 경계점(BP)을 추출할 수 있다.
도 10의 (a)를 참조하면, 일 실시예에 따르면, 경계점 추출 모듈(110)은 하나의 신경망 모델(NN)을 이용하여 머리 이미지로부터 복수의 경계점(BP)을 추출할 수 있다. 신경망 모델(NN)은 머리 이미지를 입력 받아 관심 영역(ROI) 및 경계점(BP')을 획득하도록 학습될 수 있다. 이때, 관심 영역(ROI)은 머리카락과 이마의 경계 및 그 주변의 머리카락과 이마의 적어도 일부를 포함하는 영역을 의미할 수 있다.
신경망 모델(NN)은 머리 이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있다. 이때, 상기 라벨링 데이터는 관심 영역(ROI)에 대응되는 제1 라벨링 값을 포함할 수 있다. 또한, 상기 라벨링 데이터는 경계점에 대응되는 제2 라벨링 값을 포함할 수 있다.
구체적으로, 신경망 모델(NN)은 머리 이미지를 입력 받은 후 출력 값을 획득할 수 있다. 이후, 신경망 모델(NN)은 출력 값과 라벨링 데이터의 차이를 고려하여 산출된 오차 값에 기초하여 상기 신경망 모델(NN)을 갱신하는 방법으로 학습될 수 있다. 이때, 상기 출력 값은 상기 제1 라벨링 값에 대응되는 제1 출력 값 및 상기 제2 라벨링 값에 대응되는 제2 출력 값을 포함할 수 있다.
경계점 추출 모듈(110)은 신경망 모델(NN)을 이용하여 관심 영역(ROI) 및 경계점(BP')을 각각 획득할 수 있다. 이후, 경계점 추출 모듈(110)은 획득된 경계점(BP') 중에서 관심 영역(ROI) 내에 위치한 점만을 최종적으로 경계점(BP)으로 추출할 수 있다.
구체적으로, 신경망 모델(NN)을 통해 획득한 경계점(BP')은 관심 영역(ROI) 내에 위치한 경계점 및 관심 영역(ROI) 밖에 위치한 경계점을 모두 포함할 수 있다. 이때, 경계점 추출 모듈(110)이 최종적으로 추출하는 경계점(BP)은 신경망 모델(NN)을 통해 획득한 경계점(BP') 중 관심 영역(ROI) 내에 위치한 점만을 의미할 수 있다.
도 10의 (b)를 참조하면, 다른 실시예에 따르면, 경계점 추출 모듈(110)은 복수의 신경망 모델, 예를 들어 2개의 신경망 모델(NN1 및 NN2)을 이용하여 머리 이미지로부터 복수의 경계점(BP)을 추출할 수 있다. 제1 신경망 모델(NN1)은 머리 이미지를 입력 받아 관심 영역(ROI)을 획득하도록 학습될 수 있다. 또한, 제2 신경망 모델(NN2)은 관심 영역(ROI)을 입력 받아 경계점(BP)을 획득하도록 학습될 수 있다. 이때, 관심 영역(ROI)은 도 10의 (a)를 통해 상술한 바와 같다.
제1 신경망 모델(NN1) 및 제2 신경망 모델(NN2)은 독립된 별개의 신경망 모델을 의미할 수 있으나 이에 한정되는 것은 아니며, 하나의 신경망 모델에서 물리적 또는 논리적으로 분리되어 있을 수 있다. 즉, 신경망 모델의 제1 부분은 머리 이미지로부터 관심 영역(ROI)을 획득하고, 제2 부분은 관심 영역(ROI)로부터 경계점(BP)을 획득하도록 학습될 수 있다.
제1 신경망 모델(NN1)은 머리 이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있다. 이때, 상기 라벨링 데이터는 머리카락과 이마의 경계 및 그 주변의 머리카락과 이마의 적어도 일부를 포함하는 영역에 대응되는 라벨링 값을 포함할 수 있다. 구체적으로, 제1 신경망 모델(NN1)은 머리 이미지를 입력 받은 후 출력 값을 획득할 수 있다. 이후, 제1 신경망 모델(NN1)은 출력 값과 라벨링 데이터의 차이를 고려하여 산출된 오차 값에 기초하여 상기 제1 신경망 모델(NN1)을 갱신하는 방법으로 학습될 수 있다.
제2 신경망 모델(NN2)은 관심 영역(ROI)에 관한 이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있다. 이때, 상기 라벨링 데이터는 머리카락과 이마의 경계점에 대응되는 라벨링 값을 포함할 수 있다. 구체적으로, 제2 신경망 모델(NN2)은 관심 영역(ROI)에 관한 이미지를 입력 받은 후 출력 값을 획득할 수 있다. 이후, 제2 신경망 모델(NN2)은 출력 값과 라벨링 데이터의 차이를 고려하여 산출된 오차 값에 기초하여 상기 제2 신경망 모델(NN2)을 갱신하는 방법으로 학습될 수 있다.
다시 말해, 경계점 추출 모듈(110)은 제1 신경망 모델(NN1)을 이용하여 머리 이미지로부터 관심 영역(ROI)을 획득할 수 있고, 제2 신경망 모델(NN2)을 이용하여 관심 영역(ROI)으로부터 경계점(BP)을 획득할 수 있다. 일 예로, 경계점 추출 모듈(110)은 제2 신경망 모델(NN2)을 이용하여, 제1 신경망 모델(NN1)을 통해 획득한 관심 영역(ROI)을 입력 데이터로 하여, 경계점(BP)을 획득할 수 있다. 다른 예로, 경계점 추출 모듈(110)은 제2 신경망 모델(NN2)을 통해, 머리카락과 이마의 경계 및 그 주변의 머리카락과 이마의 적어도 일부를 포함하는 관심 영역(ROI)을 입력 데이터로 하여, 경계점(BP)을 획득할 수 있다.
한편, 신경망 모델은 CNN(Convolutional Neural Network), RNN(Recursive Neural Network), DBN(Deep Belief Network), LSTM(Long Short-term Memory), GRU(Gated Recurrent Neural Network), 이들의 변형 및 조합 중 적어도 하나일 수 있다.
도 11은 머리 이미지로부터 매칭 경계점을 선택하는 방법을 설명하기 위한 도면이다. 이하에서는, 도 11을 참조하여, 머리 이미지로부터 추출된 복수의 특징점(FP)에 기초하여 복수의 경계점(BP) 중 매칭 경계점(MBP)을 선택하는 방법을 설명한다.
도 11을 참조하면, 매칭 경계점 선택 모듈(130)은 매칭 영역 설정 단계(S131), 매칭 후보 경계점 추출 단계(S133) 및 매칭 경계점 선택 단계(S135)를 통해 매칭 경계점(MBP)을 선택할 수 있다. 이하에서는, 도면을 참조하여 매칭 경계점 선택 모듈(130)이 수행하는 각각의 단계에 대하여 보다 상세히 설명하도록 한다.
매칭 경계점(MBP)은 경계점 추출 모듈(110)로부터 추출된 복수의 경계점(BP) 중 적어도 어느 하나를 의미할 수 있다. 예를 들어, 매칭 경계점(MBP)은 경계점 추출 모듈(110)로부터 추출된 복수의 경계점(BP) 중 특징점(FP)에 대응되는 경계점을 의미할 수 있다. 또는, 매칭 경계점(MBP)은 복수의 경계점(BP) 중 제1 그룹의 특징점(G1FP)에 대응되는 경계점을 의미할 수 있다.
도 12는 일 실시예에 따른 제1 그룹의 특징점 및 이에 대응하는 매칭 경계점을 도시한 도면이다. 도 12에 표시된 제1 그룹의 특징점(G1FP) 및 매칭 경계점(MBP)은 일 실시예에 의한 것이며, 제1 그룹의 특징점(G1FP) 및 매칭 경계점(MBP)의 개수 및 위치는 도 12에 도시된 것과 상이할 수 있다.
예시적으로, 도 12에서 제1 특징점(FP1) 내지 제10 특징점(FP10)은 제1 그룹의 특징점(G1FP)들이고, 제1 매칭 경계점(MBP1) 내지 제11 매칭 경계점(MBP11)은 매칭 경계점(MBP)들이다. 이 경우, 매칭 경계점(MBP)은 복수의 특징점(FP) 중 적어도 하나 이상의 특징점에 대응하는 경계점으로 선택될 수 있다. 또는, 매칭 경계점(MBP)은 제1 그룹의 특징점(G1FP) 중 하나 이상의 특징점에 대응하는 경계점으로 선택될 수 있다.
일 실시예에 따르면, 매칭 경계점(MBP)은 제1 그룹의 특징점(G1FP)들 중 어느 하나의 특징점에 대응하는 경계점으로 선택될 수 있다. 일 예로, 도 12를 참조하면, 매칭 경계점(MBP)은 제1 그룹의 특징점(G1FP)에 해당하는 제1 특징점(FP1) 내지 제10 특징점(FP10) 중 하나의 특징점에 기초하여 선택될 수 있다. 예를 들어, 제1 매칭 경계점(MBP1)은 복수의 경계점(BP) 중 제1 특징점(FP1)에 대응되는 경계점일 수 있고, 제2 매칭 경계점(MBP2)은 복수의 경계점(BP) 중 제2 특징점(FP2)에 대응되는 경계점일 수 있다.
다른 실시예에 따르면, 매칭 경계점(MBP)은 제1 그룹의 특징점(G1FP)들 중 2개 이상의 특징점에 대응하는 경계점으로 선택될 수 있다. 보다 구체적으로, 매칭 경계점(MBP)은 제1 그룹의 특징점(G1FP)들 중 이웃하는 2개의 점들에 대응하는 경계점이 매칭 경계점으로 선택될 수 있다. 일 예로, 도 12를 참조하면, 매칭 경계점(MBP)은 제1 그룹의 특징점(G1FP)에 해당하는 제1 특징점(FP1) 내지 제10 특징점(FP10) 중 복수의 특징점에 기초하여 선택될 수 있다. 예를 들어, 제6 매칭 경계점(MBP6)은 제5 특징점(FP5) 및 제6 특징점(FP6)에 기초하여 선택될 수 있다. 보다 구체적으로, 제6 매칭 경계점(MBP6)은 제5 특징점(FP5)과 제6 특징점(FP6)의 중간 지점의 x좌표에 대응되는 경계점일 수 있다.
매칭 경계점(MBP)은 복수의 경계점(BP) 중 얼굴의 특징적인 부분에 대응되는 경계점일 수 있다. 이 경우, 얼굴의 특징적인 부분은, 머리카락과 이마의 경계 중 특징점에 대응하는 부분을 의미할 수 있다. 예를 들어, 얼굴의 특징적인 부분은 머리카락과 이마의 경계 중 이마의 중앙 부분에 대응하는 부분 또는 눈썹의 특정 부위에 대응하는 부분을 의미할 수 있다. 도 12를 참조하면, 상술한 이마의 중앙 부분에 대응하는 매칭 경계점은 제6 매칭 경계점(MBP6)을 일 수 있고, 이마의 경계 중 눈썹의 특정 부위에 대응하는 매칭 경계점은 제4 매칭 경계점(MBP4) 또는 제7 매칭 경계점(MBP7)일 수 있다.
일 실시예에 따르면, 도 6의 사용자 탈모 상태 판단 모듈(160)은 매칭 경계점 선택 모듈(130)에 의해 획득된 매칭 경계점에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 보다 구체적으로, 매칭 경계점 선택 모듈(130)은 복수의 특징점(FP) 중 미리 정해진 기준을 만족하는 하나 이상의 특징점에 대응하는 매칭 경계점(MBP)을 선택할 수 있고, 사용자 탈모 상태 판단 모듈(160)은 선택된 매칭 경계점(MBP)에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
예를 들어, 도 12를 참조하면, 매칭 경계점 선택 모듈(130)은 제1 그룹의 특징점(G1FP) 중 미리 정해진 기준을 만족하는 하나 이상의 특징점 (예컨대, 제3 특징점(FP3), 제5 특징점(FP5), 제6 특징점(FP6) 또는 제8 특징점(FP8))에 대응하는 매칭 경계점(MBP) (예컨대, 제4 매칭 경계점(MBP4), 제6 매칭 경계점(MBP6) 또는 제8 매칭 경계점(MBP8))을 선택할 수 있고, 사용자 탈모 상태 판단 모듈(160)은 선택된 매칭 경계점에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
다른 실시예에 따르면, 사용자 탈모 상태 판단 모듈(160)은 매칭 경계점 선택 모듈(130)에 의해 획득된 매칭 경계점 중 미리 정해진 기준을 만족하는 하나 이상의 경계점에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 보다 구체적으로, 매칭 경계점 선택 모듈(130)은 특징점(FP)에 대응되는 매칭 경계점(MBP)들을 선택할 수 있고, 사용자 탈모 상태 판단 모듈(160)은 선택된 매칭 경계점(MBP)들 중 미리 정해진 기준을 만족하는 하나 이상의 매칭 경계점(MBP)에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
예를 들어, 도 12를 참조하면, 매칭 경계점 선택 모듈(130)은 제1 그룹의 특징점(G1FP)에 대응되는 복수의 매칭 경계점 예컨대 제1 매칭 경계점(MBP1) 내지 제11 매칭 경계점(MBP11)을 선택할 수 있고, 사용자 탈모 상태 판단 모듈(160)은 선택된 매칭 경계점(MBP)들 중 미리 정해진 기준을 만족하는 매칭 경계점(MBP) 예컨대, 제4 매칭 경계점(MBP4), 제6 매칭 경계점(MBP6) 또는 제8 매칭 경계점(MBP8)에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
도 11을 참조하면, 매칭 영역 설정 단계(S131)에서 매칭 경계점 선택 모듈(130)은 매칭 영역을 설정할 수 있다. 후술하는 바와 같이, 매칭 영역은 복수의 경계점(BP) 중 매칭 경계점(MBP)을 선택하기 위한 기준 영역으로 사용될 수 있다.
매칭 영역은 단일의 특징점 또는 복수의 특징점에 기초해서 설정될 수 있다. 도 13은 일 실시예에 따른 매칭 경계점을 선택하는 방법을 설명하기 위한 도면이다. 도 13을 참조하면, 매칭 영역은 단일의 특징점에 기초하여 설정될 수 있다.
일 실시예에 따르면, 매칭 영역은 하나의 제1 그룹 특징점(G1FP)에 기초하여 결정되는 두 개의 점(P1, P2)에서 머리 이미지 상의 제1 축(AX1) 방향으로 각각 연장 형성된 제1 직선(L1) 및 제2 직선(L2) 사이의 영역으로 설정될 수 있다. 이때, 제1 지점(P1)은 제1 그룹 특징점(G1FP)에서 머리 이미지 상의 제2 축(AX2) 방향으로 제1 거리만큼 떨어진 지점이고, 제2 지점(P2)은 제1 그룹 특징점(G1FP)에서 상기 제2 축(AX2) 방향으로 제2 거리만큼 떨어진 지점일 수 있다.
일 실시예에 따르면, 제1 지점(P1)은 제1 그룹 특징점(G1FP)에서 제2 축(AX2)의 제1 방향으로 제1 거리만큼 떨어진 지점이고, 제2 지점(P2)은 제1 그룹 특징점(G1FP)에서 상기 제2 축(AX2)의 제2 방향으로 제2 거리만큼 떨어진 지점일 수 있다. 이때, 제1 방향은 해당 축의 음의 방향일 수 있으며, 제2 방향은 해당 축의 양의 방향일 수 있다. 또한, 제1 거리 및 제2 거리는 동일할 수도 있으며, 서로 다를 수 있다.
다른 실시예에 따르면, 제1 지점(P1) 및 제2 지점(P2)은 제1 그룹 특징점(G1FP)에서 제2 축(AX2)의 동일한 방향으로 각각 제1 거리 및 제2 거리만큼 떨어진 지점일 수 있다. 이때, 제1 거리 및 제2 거리는 서로 다른 값으로 설정된다.
상기 제2 축(AX2)은 제1 축(AX1)에 직교한 축으로 설정될 수 있다. 일 실시예에 따르면, 제1 축(AX1)은 머리 이미지의 y축을, 제2 축(AX2)은 머리 이미지의 x축을 가리킬 수 있으나, 본 발명은 이에 한정되지 않는다. 예를 들어, 획득된 머리 이미지에서 사용자의 머리가 이미지의 y축을 기준으로 각도 a만큼 기울어진 것으로 판단된 경우, 제1 축(AX1) 및 제2 축(AX2)은 각각 머리 이미지의 y축 및 x축을 기준으로 a만큼 기울어진 축으로 설정될 수 있다.
도 14는 다른 실시예에 따른 매칭 경계점을 선택하는 방법을 설명하기 위한 도면이다. 도 14를 참조하면, 매칭 영역은 복수의 특징점에 기초하여 설정될 수 있다.
일 실시예에 따르면, 매칭 영역은 복수의 제1 그룹 특징점(G1FP)에서 머리 이미지 상의 제1 축(AX1) 방향으로 각각 연장 형성된 제1 직선(L1) 및 제2 직선(L2) 사이의 영역으로 설정될 수 있다. 구체적으로, 매칭 영역은 제1 그룹의 특징점(G1FP)을 구성하는 제1 특징점 및 제2 특징점 각각에서 머리 이미지 상의 제1 축(AX1) 방향으로 각각 연장 형성된 제1 직선(L1) 및 제2 직선(L2) 사이의 영역으로 설정될 수 있다. 이때, 복수의 제1 그룹 특징점(G1FP)은 제1 그룹의 특징점(G1FP)들 중에서 서로 이웃하는 2개의 특징점(FP)을 의미할 수 있다.
한편, 도 14에 도시된 제1 축(AX1) 및 제2 축(AX2)의 정의는 도 13에서 상술한 제1 축(AX2) 및 제2 축(AX2)의 정의와 동일하다.
다시 도 11을 참조하면, 매칭 후보 경계점 추출 단계(S133)에서 매칭 경계점 선택 모듈(130)은 매칭 후보 경계점을 추출할 수 있다. 보다 구체적으로, 매칭 경계점 선택 모듈(130)은 복수의 경계점(BP) 중 매칭 영역 내에 위치하는 경계점 중 적어도 하나를 매칭 후보 경계점(MCBP)으로 추출할 수 있다.
여기서, 매칭 후보 경계점(MCBP)은 복수의 경계점(BP) 중 매칭 영역 내에 위치하고 있는 적어도 하나 이상의 경계점을 의미할 수 있다. 일 실시예에 따르면, 매칭 후보 경계점(MCBP)은 매칭 영역 내에 위치하는 복수의 경계점(BP) 중 일정 기준을 만족하는 적어도 하나 이상의 경계점을 의미할 수 있다. 예를 들어, 매칭 후보 경계점(MCBP)은 매칭 영역 내에 위치하는 복수의 경계점(BP) 중 머리카락과 이마의 경계선에 대응될 확률 값이 미리 정해진 임계 값 이상인 경계점을 의미할 수 있다.
도 13의 (a)를 참조하면, 매칭 후보 경계점(MCBP)은 단일의 제1 그룹 특징점(G1FP)에 대응하는 경계점일 수 있다. 일 실시예에 따르면, 매칭 후보 경계점(MCBP)은 하나의 제1 그룹 특징점(G1FP)에 기초하여 결정되는 두개의 점(P1, P2)에서 머리 이미지 상의 제1 축(AX1) 방향으로 각각 연장 형성된 제1 직선(L1) 및 제2 직선(L2) 사이의 영역에 위치하는 경계점일 수 있다. 여기서, 제1 지점(P1) 및 제2 지점(P2)은 매칭 영역 설정 단계(S131)에서 상술한 바와 같다. 다른 실시예에 따르면, 매칭 후보 경계점(MCBP)은 하나의 제1 그룹 특징점(G1FP)에 기초하여 결정되는 두개의 점(P1, P2)에서 머리 이미지 상의 제1 축(AX1) 방향으로 각각 연장 형성된 제1 직선(L1) 및 제2 직선(L2) 사이의 영역에 위치하는 경계점 중 머리카락과 이마의 경계선에 대응될 확률 값이 미리 정해진 임계 값 이상인 경계점일 수 있다.
도 14의 (a)를 참조하면, 매칭 후보 경계점(MCBP)은 복수의 제1 그룹 특징점(G1FP)에 대응하는 경계점일 수 있다. 일 실시예에 따르면, 매칭 후보 경계점(MCBP)은 복수의 제1 그룹 특징점(G1FP)에서 머리 이미지 상의 제1 축(AX1) 방향으로 각각 연장 형성된 제1 직선(L1) 및 제2 직선(L2) 사이의 영역에 위치하는 경계점일 수 있다. 이 경우, 상기 복수의 제1 그룹 특징점(G1FP)은 제1 그룹의 특징점(G1FP)들 중에서 서로 이웃하는 2개의 특징점(FP)을 의미할 수 있다. 다른 실시예에 따르면, 매칭 후보 경계점(MCBP)은 복수의 제1 그룹 특징점(G1FP)에서 머리 이미지 상의 제1 축(AX1) 방향으로 각각 연장 형성된 제1 직선(L1) 및 제2 직선(L2) 사이의 영역에 위치하는 경계점 중 머리카락과 이마의 경계선에 대응될 확률 값이 미리 정해진 임계 값 이상인 경계점일 수 있다.
다시 도 11을 참조하면, 매칭 경계점 선택 단계(S135)에서 매칭 경계점 선택 모듈(130)은 매칭 후보 경계점들 중에서 특정 매칭 경계점(MBP)을 선택할 수 있다. 보다 구체적으로, 매칭 경계점 선택 모듈(130)은 제1 그룹의 특징점(G1FP)에 대응되는 매칭 경계점(MBP)을 선택할 수 있다. 또는, 매칭 경계점 선택 모듈(130)은 상술한 매칭 영역 내에 포함되어 있는 매칭 후보 경계점(MCBP) 중에서 일정 기준을 만족하는 적어도 하나 이상의 매칭 경계점(MBP)을 선택할 수 있다.
매칭 경계점 선택 모듈(130)은 매칭 후보 경계점(MCBP) 중 대표 값이 미리 정해진 기준을 만족하는 경계점을 매칭 경계점(MBP)으로 선택할 수 있다. 이 경우, 상기 대표 값은 해당 경계점이 머리카락과 이마의 경계선에 대응될 확률 값, 해당 경계점의 머리 이미지 상의 제1 축(AX1) 및/또는 제2 축(AX2) 좌표 값 등을 포함할 수 있다.
일 실시예에 따르면, 매칭 경계점 선택 모듈(130)은 매칭 영역 내의 매칭 후보 경계점(MCBP) 중 머리카락과 이마의 경계선에 대응될 확률 값이 가장 높은 경계점을 매칭 경계점(MBP)으로 선택할 수 있다. 도 13의 (b) 및 도 14의 (b)를 참조하면, 매칭 경계점 선택 모듈(130)은 각각의 도면에 도시된 매칭 후보 경계점(MCBP) 중에서 머리카락과 이마의 경계선에 대응될 확률 값이 가장 높은 경계점을 매칭 경계점(MBP)으로 선택할 수 있다.
다른 실시예에 따르면, 매칭 경계점 선택 모듈(130)은 매칭 영역 내의 매칭 후보 경계점(MCBP) 중 머리 이미지 상의 제1 축(AX1) 좌표 값이 가장 높은 경계점을 매칭 경계점(MBP)으로 선택할 수 있다. 도 13의 (c) 및 도 14의 (c)를 참조하면, 매칭 경계점 선택 모듈(130)은 도 13의 (a) 및 도 14의 (a) 각각에 도시된 매칭 후보 경계점(MCBP) 중에서 머리 이미지 상의 제1 축(AX1) 좌표 값이 가장 높은 경계점을 매칭 경계점(MBP)으로 선택할 수 있다.
또 다른 실시예에 따르면, 매칭 경계점 선택 모듈(130)은 매칭 영역 내에서 머리카락과 이마의 경계선에 대응될 확률 값이 미리 정해진 기준 이상인 매칭 후보 경계점(MCBP) 중 머리 이미지 상의 제1 축(AX1) 좌표 값이 가장 높은 경계점을 매칭 경계점(MBP)으로 선택할 수 있다. 도 13의 (c) 및 도 14의 (c)를 참조하면, 매칭 경계점 선택 모듈(130)은, 각각의 도면에 도시된, 머리카락과 이마의 경계선에 대응될 확률 값이 미리 정해진 기준 이상인 매칭 후보 경계점(MCBP) 중 머리 이미지 상의 제1 축(AX1) 좌표 값이 가장 높은 경계점을 매칭 경계점(MBP)으로 선택할 수 있다.
또 다른 실시예에 따르면, 도면에는 도시되지 않았지만, 매칭 경계점 선택 모듈(130)은 매칭 영역 내의 매칭 후보 경계점(MCBP) 중 상기 매칭 영역 선택의 기준이 된 특징점(FP)의 제2 축(AX2) 좌표 값에 대응하는 경계점을 매칭 경계점(MBP)으로 선택할 수 있다. 또는, 매칭 경계점 선택 모듈(130)은 머리카락과 이마의 경계선에 대응될 확률 값이 미리 정해진 기준 이상인 매칭 후보 경계점(MCBP) 중 상기 매칭 영역 선택의 기준이 된 특징점(FP)의 제2 축(AX2) 좌표 값에 대응하는 경계점을 매칭 경계점(MBP)으로 선택할 수 있다.
보다 구체적으로, 매칭 경계점 선택 모듈(130)은 매칭 영역 내의 매칭 후보 경계점(MCBP) 중 상기 매칭 영역 선택의 기준이 된 단일의 제1 그룹 특징점(G1FP)의 제2 축(AX2) 좌표 값에 가장 근접한 제2 축(AX2) 좌표 값을 가지는 경계점을 매칭 경계점(MBP)으로 선택할 수 있다. 또는, 매칭 경계점 선택 모듈(130)은 매칭 영역 내의 매칭 후보 경계점(MCBP) 중 상기 매칭 영역 선택의 기준이 된 서로 이웃하는 2개의 특징점(FP)의 제2 축(AX2) 좌표 값의 중간 값과 가장 근접한 제2 축(AX2) 좌표 값을 가지는 경계점을 매칭 경계점(MBP)으로 선택할 수 있다.
이와 같이, 사용자 단말기는 다양한 기준에 따라 매칭 경계점(MBP)을 선택하고 이에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 전술한 실시예들에서, 머리 이미지 상의 제1 축(AX1) 좌표 값이 가장 높은 경계점을 매칭 경계점(MBP)으로 선택하는 경우, 머리 이미지 상에서 탈모의 진행 정도가 보다 심각한 부위에 대응되는 매칭 경계점(MBP)을 선택할 수 있게 되어, 사용자의 탈모 상태에 관해 보다 보수적으로 판단할 수 있다는 효과를 제공할 수 있다.
매칭 경계점(MBP)은 상술한 바와 같이 특징점(FP)에 기초하여 선택될 수 있고, 제어부(100)는 선택된 매칭 경계점(MBP) 중 적어도 하나를 이용하여 사용자의 탈모 상태를 판단할 수 있다.
한편, 경우에 따라, 사용자의 탈모 상태를 판단하기 위해 필요한 매칭 경계점(MBP)이 누락되거나 부족한 경우가 있을 수 있다. 이 경우에는, 기 선택된 매칭 경계점(MBP) 중 적어도 하나에 기초하여 누락된 매칭 경계점의 좌표가 정해질 수 있다. 이하에서는, 기 선택된 매칭 경계점(MBP) 중 적어도 하나에 기초하여 누락된 매칭 경계점을 정의하는 방법에 대하여 설명한다.
추가적인 실시예에 따르면, 매칭 경계점(MBP) 중 적어도 일부는 기 선택된 매칭 경계점(MBP)에 기초하여 정의될 수 있다. 예를 들어, 머리 이미지의 중앙을 기준으로 이마의 우측 영역에 누락된 매칭 경계점이 있는 경우, 기 선택된 매칭 경계점(MBP) 중 이마의 좌측 영역에 대응하는 매칭 경계점(MBP)에 기초하여 상기 누락된 매칭 경계점이 정의될 수 있다.
도 12를 참조하면, 머리 이미지의 중앙을 기준으로 이마의 우측 영역에서 제8 매칭 경계점(MBP8)이 누락되었다고 가정하면, 기 선택된 매칭 경계점(MBP) 중 이마의 좌측 영역에 대응하는 제4 매칭 경계점(MBP4)에 기초하여 상기 누락된 제8 매칭 경계점(MBP8)이 정의될 수 있다. 다시 말해, 제8 매칭 경계점(MBP8)은 제4 매칭 경계점(MBP4)의 좌표에 의해 정의될 수 있다. 보다 구체적으로, 제8 매칭 경계점(MBP8)의 제1 축(AX1) 좌표는 제4 매칭 경계점(MBP4)의 제1 축(AX1) 좌표로 정의될 수 있다. 또한, 제8 매칭 경계점(MBP8)의 제2 축(AX2) 좌표는 제7 특징점(FP7)의 제2 축(AX2) 좌표에 대응할 수 있다. 이때, 제7 특징점(FP7)은 제4 매칭 경계점(MBP4) 선택의 기초가 된 제4 특징점(FP4)에 대응하는 특징점일 수 있다.
한편, 누락된 매칭 경계점이 머리 이미지의 중앙을 기준으로 이마의 우측 영역에 대응하는 경우에 관하여 상술하였으나, 이마의 좌측 영역에 누락된 매칭 경계점이 있는 경우에도, 상술한 방법과 마찬가지의 방법으로 기 선택된 매칭 경계점(MBP) 중 이마의 우측 영역에 대응하는 매칭 경계점(MBP)에 기초하여 상기 누락된 매칭 경계점이 정의될 수 있다.
다른 예로, 머리 이미지의 제2 축(AX2) 중앙에 대응하는 중앙 매칭 경계점이 누락된 경우, 상기 누락된 중앙 매칭 경계점은 기 선택된 매칭 경계점(MBP) 중 좌측 또는 우측 눈썹의 일 영역에 대응하는 매칭 경계점(MBP)에 의해 정의될 수 있다. 도 12를 참조하면, 머리카락과 이마의 경계점 중 머리 이미지의 제2 축(AX2) 중앙에 대응하는 제6 매칭 경계점(MBP6)이 누락되었다고 가정하면, 상기 제6 매칭 경계점(MBP6)의 제1 축(AX1) 좌표는 기 선택된 매칭 경계점 중 좌측 눈썹의 일 영역에 대응하는 제4 매칭 경계점(MBP4)의 제1 축(AX1) 좌표로 정해질 수 있다. 이때, 상기 좌측 또는 우측 눈썹의 일 영역에 대응하는 매칭 경계점(MBP)은 도 13을 통해 상술한 매칭 경계점(MBP)과 동일하거나 상응할 수 있다.
한편, 상기 누락된 제6 매칭 경계점(MBP6)의 제2 축(AX2) 좌표는, 좌측 눈썹의 일 영역에 대응하는 제1 특징점과 우측 눈썹의 일 영역에 대응하는 제2 특징점의 제2 축(AX2) 좌표에 기초하여 정해질 수 있다. 예를 들어, 상기 누락된 제6 매칭 경계점(MBP6)의 제2 축(AX2) 좌표는, 상기 제1 특징점의 제2 축(AX2) 좌표와 상기 제2 특징점의 제2 축(AX2) 좌표의 중간 좌표로 정해질 수 있다. 이때, 상기 좌측 눈썹의 일 영역과 우측 눈썹의 일 영역은 머리 이미지 상의 제1 축(AX1)을 기준으로 대칭될 수 있다.
또 다른 예로, 매칭 경계점(MBP)의 제1 축(AX1) 좌표는 머리 이미지의 중앙에서 제1 축(AX1)을 기준으로 오차 범위 내에서 상호 대칭하는 또 다른 매칭 경계점(MBP)의 제1 축(AX1) 좌표에 의해 정해질 수 있다. 보다 구체적으로, 제1 매칭 경계점과 제2 매칭 경계점이 머리 이미지의 중앙에서 제1 축(AX1)을 기준으로 오차 범위 내에서 서로 대칭하고 있다고 가정하면, 상기 제1 매칭 경계점의 제1 축(AX1) 좌표가 상기 제2 매칭 경계점의 제1 축(AX1) 좌표보다 클 경우, 상기 제2 매칭 경계점의 제1 축(AX1) 좌표는 상기 제1 매칭 경계점의 제1 축(AX1) 좌표로 정해질 수 있다. 도 12를 참조하면, 제4 매칭 경계점(MBP4)과 제8 매칭 경계점(MBP8)은 머리 이미지 상의 제1 축(AX1)을 기준으로 오차 범위 내에서 서로 대칭한다. 이 경우, 상기 제4 매칭 경계점(MBP4)의 제1 축(AX1) 좌표가 제8 매칭 경계점(MBP8)의 제1 축(AX1) 좌표보다 큰 경우, 상기 제8 매칭 경계점(MBP8)의 제1 축(AX1) 좌표는 상기 제4 매칭 경계점(MBP4)의 제1 축(AX1) 좌표로 정해질 수 있다.
지금까지 사용자의 머리 이미지로부터 경계점, 특징점 및 매칭 경계점을 추출하는 다양한 실시예들을 설명하였다. 본 출원의 실시예에 따르면, 사용자 단말기는 추출된 경계점, 특징점 및/또는 매칭 경계점을 기초로 사용자의 탈모 상태 정보를 제공할 수 있다.
도 15는 일 실시예에 따른 탈모 상태 정보 제공 프로세스를 설명하기 위한 도면이다.
도 15를 참조하면, 일 실시예에 따른 탈모 상태 정보 제공 프로세스는 사용자의 머리 이미지를 획득하는 단계(S100), 획득된 머리 이미지로부터 경계점 및 특징점을 추출하는 단계(S110, S120), 머리 이미지의 매칭 경계점을 선택하는 단계(S130), 머리 이미지의 제1 산출 값 및 제2 산출 값을 획득하는 단계(S140, S150), 제1 산출 값 및 제2 산출 값에 기초하여 사용자 탈모 상태를 판단하는 단계(S160) 및 사용자 탈모 상태 판단 결과에 기초하여 사용자에게 탈모 상태 정보를 제공하는 단계(S170)을 포함할 수 있다. 한편, 도 15의 순서도는 예시적인 것이며, 도 15에 도시된 각각의 단계의 일부 순서는 변경될 수 있다.
도 15를 참조하면, 도 2의 제어부(100)는 경계점 추출 단계(S110)를 통해 머리 이미지로부터 경계점(BP)을 추출할 수 있다. 구체적으로, 제어부(100)는 이미지 촬영부(200)로 부터 사용자의 머리 이미지를 획득하고, 이에 기초하여 경계점(BP)을 추출할 수 있다. 또한, 제어부(100)는 특징점 추출 단계(S120)를 통해 머리 이미지로부터 특징점(FP)을 추출할 수 있다. 구체적으로, 제어부(100)는 이미지 촬영부(200)로부터 사용자의 머리 이미지를 획득하고, 이에 기초하여 특징점(FP)을 추출할 수 있다.
또한, 제어부(100)는 매칭 경계점 선택 단계(S130)를 통해 머리 이미지의 경계점(BP) 및 특징점(FP)에 기초하여 매칭 경계점(MBP)을 선택할 수 있다. 구체적으로, 제어부(100)는 복수의 경계점(BP) 중 특징점(FP)에 대응되는 하나 이상의 매칭 경계점(MBP)을 선택할 수 있다. 머리 이미지로부터 복수의 경계점(BP)과 복수의 특징점(FP)을 추출하는 방법 및 매칭 경계점(MBP)을 선택하는 방법에 관하여는 상술한바 있으므로 구체적인 설명은 생략하도록 한다.
일 실시예에 따르면, 도 2의 제어부(100)는 머리 이미지로부터 기 설정된 기준에 따른 산출 값들을 산출하고, 이에 기초하여 사용자의 탈모 상태를 진단할 수 있다. 도 15의 제1 산출 값을 획득하는 단계(S140)에서, 제어부(100)는 머리 이미지에 대한 제1 산출 값을 획득할 수 있다. 일 실시예에 따라, 제1 산출 값 획득은 제어부(100)의 제1 산출 값 획득 모듈(140)에 의해 수행될 수 있다. 제1 산출 값 획득 모듈(140)은 특징점(FP) 및 매칭 경계점(MBP)에 기초하여 제1 산출 값을 획득할 수 있다. 여기서, 제1 산출 값은 상술한 상안면부와 관련된 산출 값을 의미할 수 있다.
예를 들어, 제1 산출 값은 특징점(FP) 및 매칭 경계점(MBP) 사이의 거리에 기초하여 결정될 수 있다. 예컨대, 제1 산출 값은 제1 축(AX1)을 기준으로 정해지는 특징점(FP)과 매칭 경계점(MBP) 사이의 거리 또는 제2 축(AX2)을 기준으로 정해지는 특징점(FP)과 매칭 경계점(MBP) 사이의 거리에 기초하여 결정될 수 있다. 다시 말해, 제1 산출 값은 특징점(FP)의 제1 축(AX1) 좌표와 상기 특징점에 대응하는 매칭 경계점(MBP)의 제1 축(AX1) 좌표 사이의 거리 값을 의미할 수 있다.
다른 예로, 제1 산출 값은 적어도 하나 이상의 특징점(FP) 및 적어도 하나 이상의 매칭 경계점(MBP)에 의해 산출되는 면적에 기초하여 결정될 수 있다. 예컨대, 제1 산출 값은 복수의 특징점(FP) 및 상기 복수의 특징점(FP) 각각에 대응되는 복수의 매칭 경계점(MBP)에 의해 산출되는 면적 값을 의미할 수 있다.
도 16은 머리 이미지에 기초하여 제1 산출 값 및 제2 산출 값을 획득하는 방법을 예시적으로 설명하기 위한 도면이다. 이하에서는, 도 16을 참조하여, 제1 산출 값을 획득하는 방법에 관하여 상세히 설명한다.
도 16을 참조하면, 제1 산출 값은 머리 이미지 상의 제1 축(AX1)을 기준으로 제1 그룹의 특징점(G1FP)과 이에 대응하는 매칭 경계점(MBP) 사이의 거리에 기초하여 정해지는 상안면부 산출 값을 포함할 수 있다. 이때, 상안면부 산출 값은 상안면부의 길이(d1)를 포함할 수 있고, 또는 상안면부의 면적 값을 포함할 수 있다. 다시 말해, 제1 산출 값은 얼굴의 기 설정된 영역을 기준으로 결정된 상안면부의 길이(d1)를 의미할 수 있다. 이때, 도 16의 (a)는 얼굴의 센터 영역을 기준으로 구해지는 상안면부의 길이(d1)를 예시적으로 나타낸 도면이다.
도 16의 (a)를 참조하면, 제1 산출 값은 얼굴의 센터 영역을 기준으로 구해지는 상안면부의 길이(d1)를 의미할 수 있다. 여기서, 얼굴의 센터 영역을 기준으로 구해지는 상안면부의 길이(d1)란, 상안면부의 중앙에서의 제1 축(AX1) 방향의 길이를 의미할 수 있다. 이때, 상안면부의 길이(d1)는 머리 이미지 상의 제2 축(AX2)을 기준으로 한 얼굴의 중앙 부분에 기초하여 결정될 수 있다. 일 실시예에 따르면, 제1 산출 값은 단일의 제1 그룹의 특징점(G1FP) 및 이에 기초하여 선택된 단일의 매칭 경계점(MBP)에 기초하여 산출될 수 있다. 다른 실시예에 따르면, 제1 산출 값은 복수의 제1 그룹의 특징점(G1FP) 및 이에 기초하여 선택된 단일의 매칭 경계점(MBP)에 기초하여 산출될 수 있다.
예시적으로, 단일의 매칭 경계점(MBP)은 좌측 눈썹의 일 영역에 대응하는 제1 특징점과 우측 눈썹의 일 영역에 대응하는 제2 특징점에 기초하여 선택될 수 있다. 이때, 상기 좌측 눈썹의 일 영역과 우측 눈썹의 일 영역은 머리 이미지 상의 제1 축(AX1)을 기준으로 대칭될 수 있다. 보다 구체적인 예로, 매칭 경계점(MBP)은 제1 그룹의 특징점(G1FP) 중 좌측 눈썹의 가장 오른쪽에 위치하는 특징점과 우측 눈썹의 가장 왼쪽에 위치하는 특징점의 중간 지점에 대응하도록 선택될 수 있다. 이 경우, 제1 산출 값(d1)은 머리 이미지 상의 제1 축(AX1)을 기준으로 상기 중간 지점의 좌표 값과 상기 매칭 경계점(MBP)의 좌표 값의 차이에 의해 결정될 수 있다. 즉, 제1 산출 값(d1)은 상기 중간 지점의 제1 축(AX1) 좌표 값과 상기 매칭 경계점(MBP)의 제1 축(AX1) 좌표 값의 차이에 의해 결정될 수 있다.
다른 실시예에 따르면, 제1 산출 값(d1)은 복수의 제1 그룹의 특징점(G1FP) 및 복수의 제1 그룹의 특징점(G1FP) 각각에 기초하여 선택된 복수의 매칭 경계점(MBP)에 기초하여 산출될 수 있다.
도 16의 (b)는 눈썹 위 영역을 기준으로 구해지는 상안면부의 길이(d1)를 예시적으로 나타낸 도면이다. 도 16의 (b)를 참조하면, 제1 산출 값(d1)은 눈썹 위 영역을 기준으로 구해지는 상안면부의 길이(d1)를 의미할 수 있다. 이때, 제1 산출 값은 적어도 하나 이상의 제1 그룹의 특징점(G1FP) 및 이에 기초하여 선택되는 적어도 하나 이상의 매칭 경계점(MBP)에 의해 산출될 수 있으며, 이에 관하여는 도 16의 (a)에서 설명한바와 동일하거나 상응하므로 중복되는 설명은 생략하도록 한다.
일 예로, 제1 산출 값(d1)은 좌측 또는 우측 눈썹의 일 영역에 위치하는 제1 그룹의 특징점(G1FP) 및 이에 대응하여 선택되는 매칭 경계점(MBP)에 기초하여 산출될 수 있다. 보다 구체적인 예로, 제1 산출 값(d1)은 머리 이미지 상의 제1 축(AX1)을 기준으로 상기 제1 그룹의 특징점(G1FP)의 좌표 값과 상기 매칭 경계점(MBP)의 좌표 값의 차이에 의해 결정될 수 있다. 즉, 제1 산출 값(d1)은 상기 제1 그룹의 특징점(G1FP)의 제1 축(AX1) 좌표 값과 상기 매칭 경계점(MBP)의 제1 축(AX1) 좌표 값의 차이에 의해 결정될 수 있다.
한편, 도 16의 (a) 및 (b)를 통하여 제1 산출 값(d1)이 길이를 나타내는 경우에 대한 다양한 실시예를 설명하였으나, 이에 한정되는 것은 아니며, 제1 산출 값(d1)은 적어도 하나 이상의 특징점(FP) 및 적어도 하나 이상의 매칭 경계점(MBP)에 의해 산출되는 면적 또는 폭과 관련된 값일 수 있다. 예를 들어, 도면에는 도시되지 않았지만, 제1 산출 값은 적어도 하나 이상의 특징점(FP) 및 적어도 하나 이상의 매칭 경계점(MBP)에 의해 산출되는 면적 값일 수 있다. 구체적으로, 제1 산출 값은 적어도 하나 이상의 특징점(FP)의 좌표 및 적어도 하나 이상의 매칭 경계점(MBP)의 좌표를 이용하여 산출되는 상안면부의 면적 값을 의미할 수 있다. 다른 예로, 도면에는 도시되지 않았지만, 제1 산출 값은 적어도 하나 이상의 특징점(FP) 및 적어도 하나 이상의 매칭 경계점(MBP)에 의해 산출되는 폭 값일 수 있다. 구체적으로, 제1 산출 값은 적어도 하나 이상의 특징점(FP)의 제2 축(AX2) 좌표 및 적어도 하나 이상의 매칭 경계점(MBP)의 제2 축(AX2)의 좌표에 의해 결정되는 폭, 예컨대 머리 이미지 상의 제2 축(AX2) 방향의 거리 값을 의미할 수 있다.
도 15의 제2 산출 값을 획득하는 단계(S150)에서, 제어부(100)는 머리 이미지에 대한 제2 산출 값을 획득할 수 있다. 일 실시예에 따라, 제2 산출 값 획득은 제어부(100)의 제2 산출 값 획득 모듈(150)에 의해 수행될 수 있다. 제2 산출 값 획득 모듈(140)은 특징점(FP)에 기초하여 제2 산출 값을 획득할 수 있다. 여기서, 제2 산출 값은 상술한 중하안면부와 관련된 산출 값을 의미할 수 있다.
예를 들어, 제2 산출 값은 복수의 특징점(FP) 사이의 거리에 기초하여 결정될 수 있다. 또는, 제2 산출 값은 제1 그룹의 특징점(G1FP)과 제2 그룹의 특징점(G2FP) 사이의 거리에 기초하여 결정될 수 있다. 예컨대, 제2 산출 값은 제1 축(AX1)을 기준으로 정해지는 제1 그룹의 특징점(G1FP)과 제2 그룹의 특징점(G2FP) 사이의 거리 또는 제2 축(AX2)을 기준으로 정해지는 제1 그룹의 특징점(G1FP)과 제2 그룹의 특징점(G2FP) 사이의 거리에 기초하여 결정될 수 있다. 보다 구체적인 예로, 제2 산출 값은 제1 그룹의 특징점(G1FP)의 제1 축(AX1) 좌표와 상기 제1 그룹의 특징점(G1FP)에 대응하는 제2 그룹의 특징점(G2FP)의 제1 축(AX1) 좌표 사이의 거리 값을 의미할 수 있다.
다른 예로, 제2 산출 값은 적어도 복수의 특징점(FP)에 의해 산출되는 면적에 기초하여 결정될 수 있다. 예컨대, 제2 산출 값은 복수의 제1 그룹의 특징점(G1FP) 및 상기 복수의 제1 그룹의 특징점(G1FP) 각각에 대응되는 복수의 제2 그룹의 특징점(G2FP)에 의해 산출되는 면적 값을 의미할 수 있다.
이하에서는, 도 16을 참조하여, 제2 산출 값을 획득하는 방법에 관하여 상세히 설명한다. 도 16을 참조하면, 제2 산출 값은 머리 이미지 상의 제1 축(AX1)을 기준으로 제1 그룹의 특징점(G1FP)과 이에 대응하는 제2 그룹의 특징점(G2FP) 사이의 거리에 기초하여 정해지는 중하안면부 산출 값을 포함할 수 있다. 이때, 중하안면부 산출 값은 중하안면부의 길이(d2)를 포함할 수 있고, 또는 중하안면부의 면적 값을 포함할 수 있다.
도 16의 (a)를 참조하면, 제2 산출 값은 얼굴의 센터 영역을 기준으로 구해지는 중하안면부의 길이(d2)를 의미할 수 있다. 여기서, 얼굴의 센터 영역을 기준으로 구해지는 중하안면부의 길이(d2)란, 중하안면부의 중앙에서의 제1 축 방향의 길이를 의미할 수 있다. 이때, 중하안면부의 길이(d2)는 머리 이미지 상의 제2 축(AX2)을 기준으로한 얼굴의 중앙 부분에 기초하여 결정될 수 있다.
일 실시예에 따르면, 제2 산출 값은 단일의 제1 그룹의 특징점(G1FP) 및 이에 기초하여 선택된 단일의 제2 그룹의 특징점(G2FP)에 기초하여 산출될 수 있다. 또는, 제2 산출 값은 단일의 제2 그룹의 특징점(G2FP) 및 이에 기초하여 선택된 단일의 제1 그룹의 특징점(G1FP)에 기초하여 산출될 수 있다.
다른 실시예에 따르면, 제2 산출 값은 복수의 제1 그룹의 특징점(G1FP) 및 이에 기초하여 선택된 단일의 제2 그룹의 특징점(G2FP)에 기초하여 산출될 수 있다. 또는, 제2 산출 값은 복수의 제2 그룹의 특징점(G2FP) 및 이에 기초하여 선택된 단일의 제1 그룹의 특징점(G1FP)에 기초하여 산출될 수 있다.
예시적으로, 제2 그룹의 특징점(G2FP)은 좌측 눈썹의 일 영역에 대응하는 제1 그룹의 특징점(G1FP)과 우측 눈썹의 일 영역에 대응하는 제1 그룹의 특징점(G1FP)에 기초하여 선택될 수 있다. 이때, 상기 좌측 눈썹의 일 영역과 우측 눈썹의 일 영역은 머리 이미지 상의 제1 축(AX1)을 기준으로 대칭될 수 있다. 보다 구체적인 예로, 제2 그룹의 특징점(G2FP)은 제1 그룹의 특징점(G1FP) 중 좌측 눈썹의 가장 오른쪽에 위치하는 특징점과 우측 눈썹의 가장 왼쪽에 위치하는 특징점의 중간 지점에 대응하도록 선택될 수 있다. 이 경우, 제2 산출 값(d2)은 머리 이미지 상의 제1 축(AX1)을 기준으로 상기 중간 지점의 좌표 값과 상기 제2 그룹의 특징점(G2FP)의 좌표 값의 차이에 의해 결정될 수 있다. 즉, 제2 산출 값(d2)은 상기 중간 지점의 제1 축(AX1) 좌표 값과 상기 제2 그룹의 특징점(G2FP)의 제1 축(AX1) 좌표 값의 차이에 의해 결정될 수 있다.
다른 실시예에 따르면, 제2 산출 값(d2)은 복수의 제1 그룹의 특징점(G1FP) 및 복수의 제1 그룹의 특징점(G1FP) 각각에 기초하여 선택된 복수의 제2 그룹의 특징점(G2FP)에 기초하여 산출될 수 있다.
도 16의 (b)는 눈썹 아래 영역을 기준으로 구해지는 상안면부의 길이(d2)를 예시적으로 나타낸 도면이다. 도 16의 (b)를 참조하면, 제2 산출 값(d2)은 눈썹 아래 영역을 기준으로 구해지는 중하안면부의 길이(d2)를 의미할 수 있다. 이때, 제2 산출 값은 적어도 하나 이상의 제1 그룹의 특징점(G1FP) 및 이에 기초하여 선택되는 적어도 하나 이상의 제2 그룹의 특징점(G2FP)에 의해 산출될 수 있으며, 이에 관하여는 도 16의 (a)에서 설명한바와 동일하거나 상응하므로 중복되는 설명은 생략하도록 한다.
일 예로, 제2 산출 값(d2)은 좌측 또는 우측 눈썹의 일 영역에 위치하는 제1 그룹의 특징점(G1FP) 및 이에 대응하여 선택되는 제2 그룹의 특징점(G2FP)에 기초하여 산출될 수 있다. 보다 구체적인 예로, 제2 산출 값(d2)은 머리 이미지 상의 제1 축(AX1)을 기준으로 상기 제1 그룹의 특징점(G1FP)의 좌표 값과 상기 제2 그룹의 특징점(G2FP)의 좌표 값의 차이에 의해 결정될 수 있다. 즉, 제2 산출 값(d2)은 상기 제1 그룹의 특징점(G1FP)의 제1 축(AX1) 좌표 값과 상기 제2 그룹의 특징점(G2FP)의 제1 축(AX1) 좌표 값의 차이에 의해 결정될 수 있다.
한편, 도 16의 (a) 및 (b)를 통하여 제2 산출 값(d2)이 길이를 나타내는 경우에 대한 다양한 실시예를 설명하였으나, 이에 한정되는 것은 아니며, 제2 산출 값(d2)은 적어도 하나 이상의 특징점(FP) 예컨대, 제1 그룹의 특징점(G1FP) 및 제2 그룹의 특징점(G2FP)에 의해 산출되는 면적 또는 폭과 관련된 값일 수 있다.
예를 들어, 도면에는 도시되지 않았지만, 제2 산출 값은 복수의 특징점(FP)에 의해 산출되는 면적 값일 수 있다. 구체적으로, 제2 산출 값은 제1 그룹의 특징점(G1FP) 및 제2 그룹의 특징점(G2FP)의 좌표를 이용하여 산출되는 중하안면부의 면적 값을 의미할 수 있다.
다른 예로, 도면에는 도시되지 않았지만, 제2 산출 값은 복수의 특징점(FP) 예컨대, 제1 그룹의 특징점(G1FP) 및 제2 그룹의 특징점(G2FP)에 의해 산출되는 폭 값일 수 있다. 구체적으로, 제2 산출 값은 제1 그룹의 특징점(G1FP)의 제2 축(AX2) 좌표 및 제2 그룹의 특징점(G2FP)의 제2 축(AX2) 좌표에 의해 결정되는 폭, 예컨대 머리 이미지 상의 제2 축(AX2) 방향의 거리 값을 의미할 수 있다.
한편, 제1 산출 값 및 제2 산출 값은 머리 이미지에서 사용자의 머리가 기울어진 각도를 고려하여 산출될 수 있다. 구체적으로, 도 5의 (b)와 같이 머리 이미지에서 사용자의 머리가 기울어져 있는 경우, 이미지의 기준 축 또는 이미지 자체를 보정한 후 제1 산출 값 또는 제2 산출 값을 산출할 수 있다. 예를 들어, 머리 이미지에서 사용자의 머리가 y축을 기준으로 각도 a만큼 기울어진 경우, 머리 이미지 상의 제1 축(AX1) 및 제2 축(AX2)을 각각 이미지의 y축 및 x축을 기준으로 a만큼 기울어진 축으로 정의하여 제1 산출 값 및 제2 산출 값이 산출될 수 있다. 다른 예로, 머리 이미지가 기울어진 정도에 기초하여 머리 이미지 자체를 보정한 후, 보정된 머리 이미지에 기초하여 제1 산출 값 및 제2 산출 값이 산출될 수 있다.
한편, 상술한 바와 같이 제1 산출 값 및 제2 산출 값은 얼굴의 기 설정된 영역을 기준으로 구해질 수 있다. 이때, 상기 얼굴의 기 설정된 영역과 관련하여, 도 16의 (a) 및 (b)에서는 얼굴의 기 설정된 영역을 각각 얼굴의 센터 영역 및 얼굴의 눈썹 위/아래 영역으로 예시하여 설명하였으나, 이에 한정되는 것은 아니다. 도면에는 도시되지 않았지만, 얼굴의 기 설정된 영역은 얼굴의 주요 부위에 관한 다양한 영역을 의미할 수 있다.
또한, 도 16의 (a)에서는, 제1 산출 값(d1) 및 제2 산출 값(d2)이 얼굴의 센터 영역을 기준으로 구해지는 것으로 도시되었고, 도 16의 (b)에서는, 제1 산출 값(d1) 및 제2 산출 값(d2)이 얼굴의 눈썹 위/아래 영역을 기준으로 구해지는 것으로 도시되었으나, 이에 한정되는 것은 아니다. 예를 들어, 제1 산출 값(d1)은 얼굴의 센터 영역을 기준으로 구해지고, 제2 산출 값(d2)은 얼굴의 눈썹 아래 영역을 기준으로 구해질 수 있다. 다른 예로, 제1 산출 값(d1)은 얼굴의 눈썹 위 영역을 기준으로 구해지고, 제2 산출 값(d2)은 얼굴의 센터 영역을 기준으로 구해질 수 있다. 이 외에도, 도면에는 도시되지 않았으나, 제1 산출 값(d1) 및 제2 산출 값(d2)은 얼굴의 기 설정된 서로 다른 영역을 기준으로 구해질 수 있다.
다시 도 15를 참조하면, 제어부(100)는 사용자 탈모 상태 판단 단계(S160)를 통해 사용자의 탈모 상태를 판단할 수 있다. 더욱 구체적으로, 제어부(100)의 사용자 탈모 상태 판단 모듈(160)은 제1 산출 값과 제2 산출 값에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 보다 구체적으로, 사용자 탈모 상태 판단 모듈(160)은 제1 산출 값 (예컨대, 상안면부 산출 값)과 제2 산출 값 (예컨대, 중하안면부 산출 값)의 비율에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
일 실시예에 따르면, 사용자 탈모 상태 판단 모듈(160)은 상기 제1 산출 값과 제2 산출 값의 비율을 미리 정해진 비율과 비교하여 판단할 수 있다. 예를 들어, 사용자 탈모 상태 판단 모듈(160)은 제1 산출 값과 제2 산출 값의 비율이 미리 정해진 비율과 비교하여 제1 기준을 만족하는 경우 사용자의 탈모 상태가 정상이라고 판단할 수 있다. 다른 예로, 사용자 탈모 상태 판단 모듈(160)은 제1 산출 값과 제2 산출 값의 비율이 미리 정해진 비율과 비교하여 제1 기준을 만족하지 못하는 경우 사용자의 탈모 상태가 진행 중이라고 판단할 수 있다.
보다 구체적인 예로, 사용자 탈모 상태 판단 모듈(160)은 제2 산출 값에 대한 제1 산출 값의 비율이 미리 정해진 비율 이상인 경우 사용자의 탈모 상태가 진행중이라고 판단할 수 있다. 또는, 사용자 탈모 상태 판단 모듈(160)은 제2 산출 값에 대한 제1 산출 값의 비율이 미리 정해진 비율 미만인 경우 사용자의 탈모 상태가 정상이라고 판단할 수 있다. 이때, 상기 미리 정해진 비율은 얼굴을 구성하는 각 부위 또는 영역 간의 비율을 의미할 수 있다. 또는, 상기 미리 정해진 비율은 얼굴을 구성하는 각 부위 또는 영역이 안정감 있고 균형 있게 느껴지도록 미리 정해진 비율을 의미할 수 있다.
도 17은 사용자의 탈모 상태를 판단할 때 이용되는 기준 비율을 예시적으로 설명하기 위한 도면이다. 도 17을 참조하면, 미리 정해진 비율은 상안면부의 길이(a), 중안면부의 길이(b) 및 하안면부의 길이(c) 간의 비율을 포함할 수 있다. 또는, 미리 정해진 비율은 상안면부의 길이(a) 및 중하안면부의 길이(b+c) 간의 비율을 포함할 수 있다. 보다 구체적으로, 미리 정해진 비율은 머리카락과 이마의 경계선부터 눈썹까지의 길이(a)와 눈썹 아래부분부터 턱 끝까지의 길이(b+c)의 비율을 포함할 수 있다. 이 경우, 상기 상안면부의 길이(a), 중안면부의 길이(b) 및 하안면부의 길이(c)는 머리 이미지 상의 제1 축(AX1)을 기준으로 결정되는 길이를 의미할 수 있다.
한편, 상기 미리 정해진 비율은 사용자의 선택에 의해 달라질 수 있다. 즉, 사용자가 이상적으로 생각한 비율에 기초하여 상기 미리 정해진 비율이 정해질 수 있다. 예를 들어, 상기 미리 정해진 비율은 사용자가 선호하는 또는 평소 이상적으로 생각했던 표본 머리 이미지에 기초한 비율로 정해질 수 있다. 이에 따라, 사용자의 취향이 반영된 비율에 기초하여 사용자 탈모 상태 판단 모듈(160)은 사용자의 탈모 상태에 관하여 판단할 수 있다.
도 18은 다른 실시예에 따른 사용자의 탈모 상태를 판단하기 위한 방법을 설명하기 위한 순서도이다.
도 18을 참조하면, 다른 실시예에 따른 사용자의 탈모 상태 판단 프로세스는 사용자의 머리 이미지를 획득하는 단계(S200), 획득된 머리 이미지로부터 경계점 및 특징점을 추출하는 단계(S210, S220), 머리 이미지의 매칭 경계점을 선택하는 단계(S230), 머리 이미지로부터 기준점을 추출하는 단계(S240), 머리 이미지의 제1 상안면부 산출 값 및 제2 상안면부 산출 값을 획득하는 단계(S250, S260), 제1 상안면부 산출 값 및 제2 상안면부 산출 값에 기초하여 사용자의 탈모 상태를 판단하는 단계(S270) 및 사용자 탈모 상태 판단 결과에 기초하여 사용자에게 탈모 상태 정보를 제공하는 단계(S280)을 포함할 수 있다. 한편, 도 18의 순서도는 예시적인 것이며, 도 18에 도시된 각각의 단계의 일부 순서는 변경될 수 있다.
한편, 도 18의 사용자의 머리 이미지 획득 단계(S200) 내지 매칭 경계점 선택 단계(S230)는 각각 도 15의 사용자의 머리 이미지 획득 단계(S100) 내지 매칭 경계점 선택 단계(S130)와 동일하거나 상응하게 수행될 수 있다.
다른 실시예에 따르면, 제어부(100)는 상안면부 산출 값과 기준 값을 비교하여 사용자의 탈모 상태를 판단할 수 있다. 상기 기준 값은 사용자의 탈모 상태를 판단하기 위해 기준이 되는 값을 의미할 수 있다. 보다 구체적으로, 상기 상안면부 산출 값은 머리 이미지로부터 획득된 사용자의 현재 이마 영역에 대응되는 값일 수 있는데, 이때, 상기 기준 값은 상기 상안면부 산출 값이 사용자의 탈모 상태가 정상일때와 비교하여 큰지 또는 작은지 판단하기 위해 기준이되는 값일 수 있다. 이때, 상기 기준 값은 미리 정해진 비율에 기초하여 결정될 수 있다.
즉, 제어부(100)는 머리 이미지로부터 획득된 상안면부 산출 값을 기준 값과 비교함으로써, 사용자의 탈모 상태가 정상인지 진행중인지 판단할 수 있다. 예시적으로, 제어부(100)는 상기 상안면부 산출 값이 상기 기준 값보다 큰지 또는 작은지에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 다른 예로, 제어부(100)는 상기 상안면부 산출 값이 상기 기준 값의 미리 정해진 비율 이내에 해당하는지 여부에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 이하에서는 설명의 편의를 위해 상기 상안면부 산출 값을 제1 상안면부 산출 값, 상기 기준 값을 제2 상안면부 산출 값으로 정의하고 설명하도록 한다.
제어부(100)는 제1 상안면부 산출 값 획득 단계(S250)를 통해 특징점(FP)과 이에 대응하는 매칭 경계점(MBP)에 기초하여 제1 상안면부 산출 값을 획득할 수 있다. 이에 대한 구체적인 실시예는 도 15 및 도 16을 통해 상술한 제1 산출 값 획득 방법에 대응하며, 중복되는 설명은 생략한다.
제어부(100)는 제2 상안면부 산출 값 획득 단계(S260)를 통해 특징점(FP)과 이에 대응하는 기준점(RP)에 기초하여 제2 상안면부 산출 값을 획득할 수 있다. 또는, 제어부(100)는 제2 상안면부 산출 값 획득 단계(S260)를 통해 복수의 특징점(FP)에 기초하여 산출된 중하안면부 산출 값과 미리 정해진 비율에 기초하여 제2 상안면부 산출 값을 획득할 수 있다.
한편, 제2 상안면부 산출 값은 머리 이미지 상의 제1 축(AX1)을 기준으로 정해지는 특징점(FP)과 이에 대응하는 기준점(RP) 사이의 거리에 기초하여 결정될 수 있다. 또는, 제2 상안면부 산출 값은 특징점(FP)의 좌표와 이에 대응하는 기준점(RP)의 좌표 사이의 거리에 기초하여 결정될 수 있다. 예를 들어, 제2 상안면부 산출 값은 특징점(FP)의 제1 축(AX1) 좌표와 이에 대응하는 기준점(RP)의 제1 축(AX1) 좌표 사이의 거리 값을 의미할 수 있다.
제어부(100)는 머리 이미지로부터 기준점을 추출하는 단계(S240)를 통해 기준점을 추출할 수 있다. 구체적으로, 기준점(RP)은 중하안면부 산출 값의 미리 설정된 비율의 거리만큼 특징점(FP)으로부터 제1 축(AX1) 상으로 떨어진 지점으로 결정될 수 있다. 예를 들어, 기준점(RP)은 제1 그룹의 특징점(G1FP) 및 제2 그룹의 특징점(G2FP)에 기초하여 결정된 중하안면부 산출 값의 미리 설정된 비율의 거리만큼 상기 제1 그룹의 특징점(G1FP)으로부터 제1 축(AX1)의 제1 방향으로 떨어진 지점으로 결정될 수 있다. 이하에서는, 도면을 참조하여 기준점(RP)을 결정하는 방법에 대해 구체적으로 설명한다.
도 19는 머리 이미지에서 기준점을 결정하는 방법을 설명하기 위한 도면이다. 도 19를 참조하면, 기준점(RP)은 제1 그룹의 특징점(G1FP)으로부터 머리 이미지 상의 제1 축(AX1)의 제1 방향으로 중하안면부 산출 값의 미리 설정된 비율의 거리만큼 떨어진 지점일 수 있다. 다시 말해, 기준점(RP)은 제1 그룹의 특징점(G1FP)으로부터 머리 이미지 상의 제1 축(AX1)의 제1 방향으로 중하안면부 산출 값과 미리 설정된 비율을 곱하거나 나눈 값만큼 떨어진 지점일 수 있다. 한편, 중하안면부 산출 값은 복수의 특징점(FP)에 기초하여 결정될 수 있으며, 이는 도 15 및 도 16을 통해 상술한 제2 산출 값에 대응할 수 있다. 또한, 상기 미리 설정된 비율은 도 17을 통해 상술한 비율에 대응할 수 있으며, 이와 관련하여 중복되는 설명은 생략한다.
제어부(100)는 사용자 탈모 상태 판단 단계(S270)에서 상술한 제1 상안면부 산출 값과 제2 상안면부 산출 값에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 예를 들어, 제어부(100)는 제1 상안면부 산출 값이 제2 상안면부 산출 값 이하인 경우, 사용자의 탈모 상태가 정상이라고 판단할 수 있다. 또는, 제어부(100)는 제1 상안면부 산출 값이 제2 상안면부 산출 값을 초과하는 경우, 사용자의 탈모 상태가 진행 중이라고 판단할 수 있다. 이후, 제어부(100)는 사용자 탈모 상태 정보 제공 단계(S280)에서 사용자 탈모 상태 판단 결과에 기초하여 사용자에게 탈모 상태 정보를 제공할 수 있다.
다른 실시예에 따르면, 도 6의 사용자 탈모 상태 판단 모듈(160)은 상안면부 면적 값에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 보다 구체적으로, 사용자 탈모 상태 판단 모듈(160)은 제1 상안면부의 면적 값과 제2 상안면부의 면적 값에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
여기서, 제1 상안면부의 면적 값과 제2 상안면부의 면적 값은 사용자의 머리 이미지에 기초하여 결정될 수 있다. 다만, 제1 상안면부의 면적 값은 사용자의 현재 이마 영역(예를 들어, 머리 이미지에서 눈썹 위부터 머리 카락과 이마의 경계선 아래 영역)의 면적을 의미하고, 제2 상안면부의 면적 값은 미리 정해진 비율에 기초하여 결정되는 사용자의 이상적인 이마 영역의 면적을 의미할 수 있다. 즉, 사용자 탈모 상태 판단 모듈(160)은 머리 이미지를 통해 결정된 사용자의 현재 이마 영역에 관한 면적과 사용자의 이상적인 이마 영역에 관한 면적을 비교하여 사용자의 탈모가 진행중인지 정상인지를 판단할 수 있다.
한편, 제1 상안면부의 면적 값은 복수의 특징점(FP)과 이에 대응하는 복수의 매칭 경계점(MBP)에 기초하여 산출될 수 있다. 또한, 제2 상안면부의 면적 값은 복수의 특징점(FP)과 이에 대응하는 복수의 기준점(RP)에 기초하여 산출될 수 있다. 이하에서는, 도면을 참조하여 제1 상안면부의 면적 값 및 제2 상안면부의 면적 값을 산출하는 방법에 대하여 설명한다.
도 6의 특징점 추출 모듈(120)은 머리 이미지로부터 복수의 특징점(FP)을 추출할 수 있다. 이 경우, 특징점 추출 모듈(120)에 의해 추출된 복수의 특징점(FP)은 제1 특징점(FP1) 및 제2 특징점(FP2)을 포함할 수 있다.
도 20은 일 실시예에 따른 상안면부의 면적을 산출하는 방법을 설명하기 위한 도면이다. 도 20을 참조하면, 제1 특징점(FP1) 및 제2 특징점(FP2)은 각각 제1 그룹의 특징점(G1FP) 중 어느 하나일 수 있다. 예시적으로, 제1 특징점(FP1)은 제1 그룹의 특징점(G1FP) 중 좌측 눈썹의 일 영역에 위치하는 복수의 특징점 중 어느 하나일 수 있다. 또한, 제2 특징점(FP2)은 제1 그룹의 특징점(G1FP) 중 우측 눈썹의 일 영역에 위치하는 특징점 중 어느 하나일 수 있다. 제1 특징점(FP1) 및 제2 특징점(FP2)은 제1 그룹의 특징점(G1FP) 중에서 머리 이미지의 중앙에서 제1 축(AX1)을 기준으로 오차 범위 내에서 서로 대칭하도록 위치한 특징점 중 어느 하나일 수 있다. 예를 들어, 제1 특징점(FP1)은 제1 그룹의 특징점(G1FP) 중에서 좌측 눈썹의 중앙에 대응되는 특징점일 수 있고, 제2 특징점(FP2)은 제1 그룹의 특징점(G1FP) 중에서 우측 눈썹의 중앙에 대응되는 특징점일 수도 있다.
도 6의 매칭 경계점 선택 모듈(130)은 머리 이미지로부터 추출된 경계점들 중에서 복수의 매칭 경계점(MBP)을 선택할 수 있다. 이 경우, 선택된 복수의 매칭 경계점(MBP)은 제1 매칭 경계점(MBP1) 및 제2 매칭 경계점(MBP2)을 포함할 수 있다. 도 20을 참조하면, 매칭 경계점 선택 모듈(130)은 제1 특징점(FP1)에 대응되는 제1 매칭 경계점(MBP1)을 선택할 수 있다. 또한, 매칭 경계점 선택 모듈(130)은 제2 특징점(FP2)에 대응되는 제2 매칭 경계점(MBP2)을 선택할 수 있다. 한편, 특징점(FP)에 대응되는 매칭 경계점(MBP)을 선택하는 방법은 도 11 내지 14를 통해 상술한바 있으므로 중복되는 설명은 생략한다.
추가적인 실시예에 따르면, 제어부(100)는 머리 이미지로부터 복수의 기준점을 추출할 수 있다. 이 경우, 추출된 복수의 기준점은 제1 기준점(BP1) 및 제2 기준점(BP2)을 포함할 수 있다. 도 20을 참조하면, 제어부는(100) 제1 특징점(FP1)에 대응되는 제1 기준점(RP1)을 추출할 수 있다. 또한, 제어부(100)는 제2 특징점(FP2)에 대응되는 제2 기준점(RP2)을 추출할 수 있다. 한편, 상기 복수의 기준점(RP)은 특징점(FP) 및 미리 정해진 비율에 기초하여 결정될 수 있으며, 이에 관하여는 도 19를 참조하여 상술한바 있으므로 중복되는 설명은 생략한다.
도 21 및 도 22는 일 실시예에 따른 상안면부의 면적을 나타내는 도면이다. 도 21을 참조하면, 상안면부는 상술한바와 같이 머리 이미지에서 머리카락과 이마의 경계선부터 눈썹 윗부분 사이에 해당하는 영역을 의미할 수 있다.
도 21의 (a)를 참조하면, 제1 상안면부(AR1)는 제1 특징점(FP1), 제2 특징점(FP2), 제1 매칭 경계점(MBP1) 및 제2 매칭 경계점(MBP2)에 기초하여 정해지는 영역일 수 있다. 즉, 제1 상안면부(AR1)는 사용자의 현재 이마 영역 예컨대, 눈썹 위부터 머리카락과 이마의 경계선 아래의 영역에 대응할 수 있다. 또한, 도 21의 (b)를 참조하면, 제2 상안면부(AR2)는 제1 특징점(FP1), 제2 특징점(FP2), 제1 기준점(RP1) 및 제2 기준점(RP2)에 기초하여 정해지는 영역일 수 있다. 즉, 제2 상안면부(AR2)는 미리 설정된 비율에 기초하여 정해진 사용자의 이상적인 이마 영역 예컨대, 눈썹 위부터 제1 기준점(RP1)과 제2 기준점(RP2) 사이의 영역에 대응할 수 있다.
일 실시예에 따르면, 제어부(100)는 제1 특징점(FP1), 제2 특징점(FP2), 제1 매칭 경계점(MBP1) 및 제2 매칭 경계점(MBP2)에 기초하여 제1 상안면부(AR1)의 면적 값을 산출할 수 있다. 제어부(100)는 제1 특징점(FP1), 제2 특징점(FP2), 제1 매칭 경계점(MBP1) 및 제2 매칭 경계점(MBP2) 각각의 좌표에 기초하여 제1 상안면부(AR1)의 면적 값을 산출할 수 있다. 예를 들어, 제어부(100)는 제1 특징점(FP1), 제2 특징점(FP2), 제1 매칭 경계점(MBP1) 및 제2 매칭 경계점(MBP2) 각각의 좌표에 기초하여 삼각함수 계산법을 통해 제1 상안면부(AR1)의 면적 값을 산출할 수 있으나, 이에 한정되는 것은 아니며, 좌표를 이용해 면적을 구하는 기 알려진 다양한 방법이 활용될 수 있다.
한편, 제어부(100)는 제1 특징점(FP1), 제2 특징점(FP2), 제1 기준점(RP1) 및 제2 기준점(RP2)에 기초하여 제2 상안면부(AR2)의 면적 값을 산출할 수 있으며, 구체적인 방법은 제1 상안면부(AR1)의 면적 값을 산출하는 방법과 동일하므로 중복되는 설명은 생략한다.
다른 실시예에 따르면, 제어부(100)는 기준 가로 길이와 제1 특징점(FP1), 제2 특징점(FP2), 제1 매칭 경계점(MBP1) 및 제2 매칭 경계점(MBP2)에 기초하여 제1 상안면부(AR1)의 면적 값을 산출할 수 있다. 구체적으로, 제어부(100)는 특징점(FP)과 이에 대응하는 매칭 경계점(MBP)에 기초하여 제1 상안면부(AR1)의 세로 길이를 획득하고, 획득된 상기 세로 길이와 상기 기준 가로 길이를 이용하여 제1 상안면부(AR1)의 면적 값을 산출할 수 있다.
도 21을 참조하면, 제어부(100)는 제1 상안면부(AR1)의 세로 길이(예를 들어, 제1 특징점(FP1)과 이에 대응하는 제1 매칭 경계점(MBP1)에 기초하여 정해지는 길이 또는 제2 특징점(FP2)과 이에 대응하는 제2 매칭 경계점(MBP2)에 기초하여 정해지는 길이)와 상기 기준 가로 길이를 곱하여 제1 상안면부(AR1)의 면적 값을 산출할 수 있다. 이때, 상기 기준 가로 길이는 사용자 얼굴의 종횡비 및 미리 설정된 표준 얼굴 길이에 기초하여 결정될 수 있다. 이때, 상기 사용자 얼굴의 종횡비는 머리 이미지 내에 존재하는 특징점(FP) 또는 경계점(BP) 중 적어도 어느 하나에 기초하여 결정된 사용자 얼굴의 가로 길이와 세로 길이의 비율일 수 있다. 구체적으로, 사용자 얼굴의 세로 길이는 특징점(FP) 중 어느 하나와 경계점(BP) 중 어느 하나에 기초하여 결정될 수 있다. 또한, 사용자 얼굴의 가로 길이는 복수의 특징점(FP) 또는 복수의 경계점(BP)에 기초하여 결정될 수 있다.
한편, 미리 설정된 표준 얼굴 길이는 미리 설정된 표준 얼굴 가로 길이 또는 세로 길이를 포함할 수 있다. 예를 들어, 상기 미리 설정된 표준 얼굴 길이는 남성(또는 여성) 얼굴의 평균 세로(또는 가로) 길이일 수 있다. 예시적으로, 기준 가로 길이는 미리 설정된 표준 남성 얼굴의 세로 길이와 사용자 얼굴의 종횡비에 기초하여 정해질 수 있다.
도 22는 사용자 탈모 상태 판단 모듈이 제1 상안면부 및 제2 상안면부에 기초하여 사용자의 탈모 상태를 판단하는 방법을 설명하기 위한 도면이다. 도 22를 참조하면, 사용자 탈모 상태 판단 모듈(160)은 제1 상안면부(AR1) 면적 값 및 제2 상안면부(AR2) 면적 값에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
보다 구체적으로, 사용자 탈모 상태 판단 모듈(160)은 제1 상안면부(AR1) 면적 값과 제2 상안면부(AR2) 면적 값의 차이에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 또는, 사용자 탈모 상태 판단 모듈(160)은 제1 상안면부(AR1) 면적 값과 제2 상안면부(AR2) 면적 값의 비율에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
예를 들어, 사용자 탈모 상태 판단 모듈(160)은 제2 상안면부(AR2)의 면적 값(즉, 기준 면적 값)에 비해 제1 상안면부(AR1)의 면적 값이 크거나 작음에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 예컨대, 사용자 탈모 상태 판단 모듈(160)은 제1 상안면부(AR1)의 면적 값이 제2 상안면부(AR2)의 면적 값보다 작은 경우 사용자의 탈모 상태는 정상이라고 판단할 수 있다. 또한, 사용자 탈모 상태 판단 모듈(160)은 제1 상안면부(AR1)의 면적 값이 제2 상안면부(AR2)의 면적 값보다 큰 경우 사용자의 탈모 상태는 진행 중이라고 판단할 수 있다. 다른 예로, 사용자 탈모 상태 판단 모듈(160)은 제1 상안면부(AR1)의 면적 값과 제2 상안면부(AR2)의 면적 값의 비율에 기초하여 사용자의 탈모 상태를 단계적으로 판단할 수 있다.
도 23은 다른 실시예에 따른 사용자의 탈모 상태를 판단하기 위한 방법을 설명하기 위한 도면이다. 이하에서는, 도 23을 참조하여 다른 실시예에 따른 사용자의 탈모 상태를 판단하기 위한 방법을 설명한다.
도 23을 참조하면, 사용자 탈모 상태 판단 모듈(160)은 제1 그룹의 특징점(G1FP) 및 매칭 경계점(MBP)에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 사용자 탈모 상태 판단 모듈(160)은 적어도 하나 이상의 제1 그룹의 특징점(G1FP)에 대응하여 선택된 제1 매칭 경계점(MBP1) 및 제2 매칭 경계점(MBP2)에 기초하여 사용자의 탈모 상태를 판단할 수 있다.
제1 매칭 경계점(MBP1)은 좌측 또는 우측 눈썹의 일 영역에 위치하는 특징점에 대응하는 매칭 후보 경계점(MCBP) 중 머리 이미지 상의 제1 축(AX1) 좌표 값이 가장 높은 경계점일 수 있다. 이는, 도 13의 (c)에서 상술한바 있으므로, 중복되는 설명은 생략한다. 제2 매칭 경계점(MBP2)은 머리 이미지에서 이마의 중앙 부분에 대응하는 경계점일 수 있다. 일 실시예에 따르면, 제2 매칭 경계점(MBP2)는 복수의 제1 그룹의 특징점(G1FP)에 기초하여 선택될 수 있다. 예를 들어, 제2 매칭 경계점(MBP2)은 제1 그룹의 특징점(G1FP) 중 좌측 눈썹의 일 영역에 위치하는 제1 특징점과 우측 눈썹의 일 영역에 위치하는 제2 특징점의 중간 지점에 대응하도록 선택될 수 있다. 한편, 도 23에서의 제2 매칭 경계점(MBP2)은 도 12의 제6 매칭 경계점(MBP6)에 대응될 수 있다.
사용자 상태 판단 모듈(160)은 상기 제1 매칭 경계점(MBP1)과 제2 매칭 경계점(MBP2)을 연결하는 직선과 제2 축(AX2)이 이루는 각도(a)에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 예를 들어, 사용자 상태 판단 모듈(160)은 상기 제1 매칭 경계점(MBP1)과 제2 매칭 경계점(MBP2)을 연결하는 직선과 제2 축(AX2)이 이루는 각도(M자 각도)가 미리 정해진 기준 이상일 경우 사용자의 탈모 상태가 진행 중이라고 판단할 수 있고, 미리 정해진 기준 미만일 경우 사용자의 탈모 상태가 정상이라고 판단할 수 있다.
이처럼, 사용자의 머리카락과 이마의 경계점에 기초하여 사용자의 탈모 여부를 판단함에 따라, 사용자 탈모 상태 판단 모듈(160)은 사용자의 M자 탈모에 관하여 보다 정확하게 판단할 수 있다.
도 24는 머리 이미지에서 사용자 머리의 기울어진 각도에 기초하여 이미지를 재보정하는 방법을 설명하기 위한 도면이다.
머리 이미지 상에서 사용자의 머리는 3차원 적으로 기울어진 상태로 촬영될 수 있다. 이 경우, 머리 이미지에 포함되어 있는 사용자 얼굴의 주요 부위 예컨대, 눈, 코, 잎, 귀 등의 측정 길이는 기울어진 각도에 따라 실제 길이와 상이할 수 있다. 이에 따라, 머리 이미지에 포함되어 있는 상기 주요 부위의 측정 길이는 머리 이미지에서 사용자의 머리가 기울어진 각도에 기초하여 보정될 필요가 있다. 이때, 측정 길이는 사용자 얼굴의 주요 부위의 길이를 머리 이미지 상의 X축 또는 Y축 방향으로 측정한 길이를 의미할 수 있다.
도 24를 참조하면, 촬영된 머리 이미지에서 사용자의 머리는 이미지 상의 X축 또는 Y축을 기준으로 일정 각도로 기울어진 상태일 수 있다. 구체적으로, 사용자의 머리는 사용자의 왼쪽 눈썹 상단 부위를 X축 상으로 연장한 직선과 상기 왼쪽 눈썹 상단 부위와 오른쪽 눈썹 상단 부위를 연결한 직선이 이루는 각도(theta_a) 만큼 기울어질 수 있다. 또는, 사용자의 머리는 사용자의 코 끝과 턱 끝을 연결한 직선과 코 끝을 Y축 상으로 연장한 직선이 이루는 각도(theta_b) 만큼 기울어질 수 있다.
이 경우, 사용자 얼굴 주요 부위의 실제 길이는 측정 길이와 기울어진 각도(theta_a 또는 theta_b)의 비율에 따라 정해질 수 있다. 예시적으로, 사용자의 얼굴이 좌측 눈썹보다 우측 눈썹이 높도록 기울어져 있는 경우, 좌측 눈썹의 실제 길이는 좌측 눈썹의 측정 길이를 cos(theta_a) 값으로 나눈 길이일 수 있고, 우측 눈썹의 실제 길이는 우측 눈썹의 측정 길이를 cos(theta_b) 값으로 곱한 길이일 수 있다.
다른 예로, 사용자의 얼굴이 우측 눈썹보다 좌측 눈썹이 높도록 기울어져 있는 경우, 좌측 눈썹의 실제 길이는 좌측 눈썹의 측정 길이를 cos(theta_a) 값으로 곱한 길이일 수 있고, 우측 눈썹의 실제 길이는 우측 눈썹의 측정 길이를 cos(theta_a) 값으로 나눈 길이일 수 있다. 또 다른 예로, 사용자의 코 중앙의 끝단부터 아랫입술 중앙의 밑단까지의 실제 길이는 측정 길이를 cos(theta_b) 값으로 나눈 길이일 수 있다. 이때, 상기 측정 길이는 코 중앙의 끝단부터 아랫입술 중앙의 밑단까지의 Y축 방향 길이일 수 있다. 또 다른 예로, 사용자의 아랫입술 중앙의 밑단부터 턱 끝단까지의 실제 길이는 측정 길이를 cos(theta_b) 값으로 나눈 길이일 수 있다. 이때, 상기 측정 길이는 아랫입술 중앙의 밑단부터 턱 끝단까지의 Y축 방향 길이일 수 있다.
상술한 방법으로 측정된 사용자 얼굴의 주요 부위와 관련된 실제 길이는 사용자의 탈모 상태를 판단하기 위해 사용될 수 있으며, 또는, 사용자 얼굴의 주요 부위의 비율을 미리 정해진 비율과 비교 판단하기 위해 사용될 수도 있다.
도 25는 사용자 얼굴의 주요 부위와 관련된 상세 비율을 설명하기 위한 도면이다. 도 25를 참조하면, 사용자의 머리 이미지로부터 얼굴의 주요 부위와 관련된 다양한 상세 비율을 측정할 수 있으며, 측정된 상세 비율에 기초하여 사용자의 탈모 상태를 판단할 수 있다. 또는, 측정된 상세 비율은 사용자 얼굴의 주요 부위의 비율을 미리 정해진 비율과 비교 판단하는 경우에 활용될 수 있다.
출력부(500)는 제어부(100)가 사용자 탈모 상태 판단 모듈(160)을 통하여 판단한 사용자의 탈모 상태와 관련된 정보를 출력할 수 있다. 일 예로, 출력부(500)는 제어부(100)에서 제1 산출 값 및/또는 제2 산출 값에 기초하여 판단된 사용자 탈모 상태 정보를 출력할 수 있다. 또는, 출력부(500)는 제어부(100)에서 추출 또는 선택된 복수의 특징점(FP) 및 복수의 경계점(BP) 중 적어도 어느 하나에 기초하여 판단된 사용자 탈모 상태 정보를 출력할 수 있다. 또는, 출력부(500)는 제어부(100)에서 제1 상안면부 면적 값 및/또는 제2 상안면부 면적 값에 기초하여 판단된 사용자 탈모 상태 정보를 출력할 수 있다. 상술한 사용자의 탈모 상태와 관련된 정보는, 예를 들어, 사용자에게 탈모가 진행되고 있는지 여부, 탈모가 진행된 정도, 탈모의 유형, 시술이 필요한 영역에 관한 정보 등의 다양한 정보를 포함할 수 있다.
출력부(500)는 시술 영역에 관한 정보를 출력할 수 있다. 출력부(500)는 사용자 탈모 상태 판단 모듈(160)을 통해 획득한 정보에 기초하여 정해지는 시술 영역에 관한 정보를 출력할 수 있다. 시술 영역은 사용자에게 발생한 탈모로 인하여 머리 상에 모발 이식이 필요한 영역을 의미할 수 있다. 또는, 시술 영역은 머리 상에 모발이 이식되기를 사용자가 희망하는 영역을 의미할 수 있다. 다시 말해, 시술 영역은 사용자에 의해 머리 상에 모발 이식이 필요하다고 판단된 영역을 의미할 수 있다.
예시적으로, 시술 영역은 도 21 및 도 22에서 설명한 제1 상안면부(AR1) 면적 값과 제2 상안면부(AR2) 면적 값에 기초하여 정해질 수 있다. 보다 구체적으로, 시술 영역은 제1 상안면부(AR1)와 제2 상안면부(AR2)의 차이에 해당하는 영역(AR3)에 기초하여 정해질 수 있다.
출력부(500)는 시술 영역을 텍스트 또는 이미지 형식으로 출력할 수 있다. 일 예로, 출력부(500)가 시술 영역을 텍스트 형식으로 출력하는 경우, 출력부(500)는 시술이 필요한 영역의 면적 값, 시술 영역에 시술될 모낭 수 등에 관한 정보를 함께 출력할 수 있다. 다른 예로, 출력부(500)가 시술 영역을 이미지 형식으로 출력하는 경우, 출력부(500)는 시술 영역에 모발이 이식된 후의 머리 이미지 즉, 사용자의 시술 후 머리 이미지를 출력할 수 있다.
도 26 및 도 27은 사용자 입력 정보에 기초하여 출력부가 사용자의 탈모 상태와 관련된 정보를 출력하는 것을 설명하기 위한 도면이고, 도 28 및 도 29는 출력부가 사용자의 시술 후 머리 이미지를 출력하는 것을 예시적으로 설명하기 위한 도면이다. 이하에서는, 도 26 내지 도 29을 참조하여, 출력부가 사용자 입력 정보에 기초하여 사용자의 탈모 상태와 관련된 정보를 출력하는 방법에 대하여 설명한다.
도 26 및 도 27을 참조하면, 출력부(500)는 사용자 입력부(400)를 통해 획득한 사용자의 입력 정보에 기초하여 탈모 상태와 관련된 정보를 출력할 수 있다. 출력부(500)는 사용자 입력부(400)를 통해 획득한 사용자의 입력 정보에 기초하여 시술 후 머리 이미지를 출력할 수 있다.
출력부(500)의 모발 시술양 정보 획득 모듈(510)은 사용자 또는 제3자로부터 모발 시술양 정보를 획득하는 단계(S510)를 통해 모발 시술양 정보를 획득할 수 있다. 여기서, 모발 시술양 정보는 사용자 또는 제3자에 의해 입력된 정보로, 모낭 수, 시술될 모발의 종류, 시술 면적, 시술 부위, 시술 방법 등에 관한 정보를 포함할 수 있다. 시술 후 이미지 생성 모듈(530)은 시술 후 이미지 생성 단계(S530)를 통해 사용자의 시술 후 머리 이미지를 생성할 수 있다.
도 28을 참조하면, 시술 후 이미지 출력 모듈(550)은 시술 후 이미지 출력 단계(S550)에서 사용자의 시술 후 머리 이미지를 출력할 수 있다. 시술 후 이미지 출력 모듈(550)은 사용자 입력 정보에 기초하여 결정된 시술 영역에 관한 이미지를 출력할 수 있다. 상기 시술 영역은 제1 시술 영역 및 상기 제1 시술 영역과 다른 제2 시술 영역을 포함할 수 있으며, 제1 시술 영역은 사용자에 의해 입력된 모발 시술양이 제1 시술양인 경우 결정되는 영역이고, 제2 시술 영역은 사용자에 의해 입력된 모발 시술양이 제2 시술양인 경우 결정되는 영역일 수 있다.
도 28의 (a)를 참조하면, 모발 시술양 정보 획득 모듈(510)이 획득한 모발 시술양이 제1 시술양인 경우, 시술 영역은 제1 시술 영역(AR1)으로 정해질 수 있다. 도 28의 (b)를 참조하면, 모발 시술양 정보 획득 모듈(510)이 획득한 모발 시술양이 제2 시술양인 경우, 시술 영역은 제2 시술 영역(AR2)으로 정해질 수 있으며, 이때 제2 시술양의 값은 제1 시술양의 값보다 더 큰 값일 수 있다.
도 29를 참조하면, 일 예로, 시술 후 이미지 출력 모듈(550)이 출력하는 시술 후 머리 이미지는 입력된 모발 시술양에 기초하여 사용자의 머리카락과 이마의 경계선으로부터 머리 이미지 상의 제1 축(AX1)의 제2 방향(머리카락에서 턱을 향하는 방향)으로 점차 모발이 이식되도록 시뮬레이션 된 영역(VAR)에 관한 이미지일 수 있다. 다른 예로, 시술 후 이미지 출력 모듈(550)이 출력하는 시술 후 머리 이미지는 입력된 모발 시술양에 기초하여 사용자의 머리카락과 이마의 경계선으로부터 머리 이미지 상의 제2 축(AX2) 방향으로 점차 모발이 이식되도록 시뮬레이션 된 영역(HAR)에 관한 이미지일 수 있다. 출력부(500)가 제1 축 및/또는 제2 축의 방향에 기초하여 모발이 이식되도록 하는 시술 후 머리 이미지를 제공함에 따라, 보다 정밀한 시뮬레이션 정보를 사용자에게 제공할 수 있다.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (13)

  1. 탈모 상태 정보 제공 장치 또는 서버의 프로세서에 의해 수행되는 탈모 상태 정보 제공 방법에 있어서,
    사용자의 머리 이미지를 획득하는 단계;
    상기 머리 이미지에서 복수의 특징점을 추출하는 단계- 상기 복수의 특징점은 제1 그룹의 특징점 및 제2 그룹의 특징점을 포함함 -;
    상기 머리 이미지에서 상기 사용자의 머리카락 및 이마의 경계선에 대응되는 복수의 경계점을 추출하는 단계;
    상기 복수의 경계점 중에서 상기 제1 그룹의 특징점에 대응되는 매칭 경계점을 선택하는 단계;
    상기 제1 그룹의 하나 이상의 특징점의 좌표와 이에 대응하는 매칭 경계점의 좌표에 기초하여 정해지는 상안면부 산출 값을 획득하는 단계;
    상기 제1 그룹의 하나 이상의 특징점의 좌표와 상기 제2 그룹의 하나 이상의 특징점의 좌표에 기초하여 정해지는 중하안면부 산출 값을 획득하는 단계;
    상기 중하안면부 산출 값과 미리 정해진 비율에 기초하여 기준 값을 획득하는 단계; 및
    상기 상안면부 산출 값 및 상기 기준 값을 비교하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함하는,
    탈모 상태 정보 제공 방법.
  2. 제1항에 있어서,
    상기 복수의 경계점은 상기 사용자의 머리카락 및 이마의 경계선에 대응될 확률 값에 기초하여 추출되며,
    상기 매칭 경계점을 선택하는 단계는,
    상기 제1 그룹의 특징점에 대응되는 제1 지점 및 제2 지점에서 상기 머리 이미지 상의 제1 축 방향으로 각각 연장 형성된 제1 직선 및 제2 직선 사이의 매칭 영역을 설정하는 단계; 및
    상기 매칭 영역에 포함되는 복수의 경계점 중 상기 확률 값이 미리 정해진 임계 값 이상인 매칭 후보 경계점들 중 적어도 하나를 상기 매칭 경계점으로 선택하는 단계를 포함하되,
    상기 제1 지점 및 상기 제2 지점은 상기 제1 그룹 특징점에서 상기 제1 축에 직교하는 제2 축 방향으로 각각 제1 거리 및 제2 거리만큼 떨어진 지점인,
    탈모 상태 정보 제공 방법.
  3. 제2항에 있어서,
    상기 매칭 경계점은, 상기 매칭 후보 경계점들 중 상기 제1 그룹의 특징점으로부터 상기 제1 축의 제1 방향으로 가장 멀리 위치한 점인,
    탈모 상태 정보 제공 방법.
  4. 제1항에 있어서,
    상기 상안면부 산출 값은 상기 제1 그룹의 특징점 및 상기 매칭 경계점에 기초하여 설정되는 상기 머리 이미지의 상안면부 길이 값을 포함하고,
    상기 중하안면부 산출 값은 상기 제1 그룹의 특징점 및 상기 제2 그룹의 특징점에 기초하여 설정되는 상기 머리 이미지의 중하안면부 길이 값을 포함하는,
    탈모 상태 정보 제공 방법.
  5. 제1항에 있어서,
    상기 상안면부 산출 값은 상기 제1 그룹의 특징점 및 상기 매칭 경계점에 기초하여 설정되는 상기 머리 이미지의 상안면부 면적 값을 포함하고,
    상기 중하안면부 산출 값은 상기 제1 그룹의 특징점 및 상기 제2 그룹의 특징점에 기초하여 설정되는 상기 머리 이미지의 중하안면부 면적 값을 포함하는,
    탈모 상태 정보 제공 방법.
  6. 제1항에 있어서,
    상기 매칭 경계점을 선택하는 단계는,
    상기 제1 그룹의 특징점으로부터 적어도 제1 특징점 및 제2 특징점을 포함하는 복수의 특징점을 선택하는 단계; 및
    상기 제1 특징점 및 상기 제2 특징점 각각에 대응되는 제1 매칭 경계점 및 제2 매칭 경계점을 선택하는 단계를 포함하고,
    상기 탈모 상태 정보 제공 단계는,
    상기 머리 이미지에서 상기 제1 특징점에 대응되는 제1 기준점 및 상기 제2 특징점에 대응되는 제2 기준점을 추출하는 단계- 상기 제1 기준점 및 제2 기준점은 상기 제1 특징점 및 제2 특징점으로부터 각각 상기 머리 이미지 상의 제1 축의 제1 방향으로 상기 중하안면부 산출 값의 미리 설정된 비율의 거리만큼 떨어진 지점임 -;
    상기 상안면부 산출 값은 상기 제1 특징점의 좌표, 상기 제2 특징점의 좌표, 상기 제1 매칭 경계점의 좌표 및 상기 제2 매칭 경계점의 좌표에 기초하여 정해지고,
    상기 기준 값은 상기 제1 특징점의 좌표, 상기 제2 특징점의 좌표, 상기 제1 기준점의 좌표 및 상기 제2 기준점의 좌표에 기초하여 정해지는,
    탈모 상태 정보 제공 방법.
  7. 제6항에 있어서,
    상기 상안면부 산출 값과 상기 기준 값은 상기 사용자 얼굴의 기준 가로 길이와 세로 길이에 기초하여 산출되고,
    상기 기준 가로 길이는, 상기 사용자 얼굴의 종횡비 및 미리 설정된 표준 얼굴 길이에 기초하여 결정되는,
    탈모 상태 정보 제공 방법.
  8. 제1항에 있어서,
    상기 사용자의 탈모 상태 정보를 제공하는 단계는, 상기 이미지에서 상기 사용자의 시술이 요구되는 시술 영역에 관한 정보를 제공하는 것을 포함하되,
    상기 시술 영역은 상기 상안면부 산출 값과 상기 기준 값의 비교를 통해 정해지는 것인,
    탈모 상태 정보 제공 방법.
  9. 제8항에 있어서,
    상기 사용자의 탈모 상태 정보를 제공하는 단계는,
    상기 사용자의 시술이 요구되는 시술 영역을 결정하는 사용자의 입력을 수신하는 단계;
    상기 수신된 사용자의 입력에 따른 상기 사용자의 시술 후 머리 이미지를 출력하는 단계를 포함하는,
    탈모 상태 정보 제공 방법.
  10. 제9항에 있어서,
    상기 사용자의 입력은 모발 시술양의 정보를 포함하는,
    탈모 상태 정보 제공 방법.
  11. 제1항에 있어서,
    상기 복수의 경계점은 신경망 모델을 이용하여 획득되되,
    상기 신경망 모델은, 머리카락과 이마의 경계선 중 적어도 일부를 포함하는 학습 머리 이미지에 기초하여 상기 머리카락과 이마의 경계선에 대응되는 복수의 기준 경계점을 획득하도록 학습되는,
    탈모 상태 정보 제공 방법.
  12. 제11항에 있어서,
    상기 신경망 모델은, 상기 학습 머리 이미지에 기초하여 상기 머리카락과 이마를 포함하는 관심 영역을 획득하는 제1 부분 및 상기 관심 영역에 기초하여 상기 복수의 기준 경계점을 획득하도록 학습되는 제2 부분을 포함하는,
    탈모 상태 정보 제공 방법.
  13. 사용자의 머리 이미지를 획득하는 단계;
    상기 머리 이미지에서 복수의 특징점을 추출하는 단계- 상기 복수의 특징점은 제1 그룹의 특징점 및 제2 그룹의 특징점을 포함함 -;
    상기 머리 이미지에서 상기 사용자의 머리카락 및 이마의 경계선에 대응되는 복수의 경계점을 추출하는 단계;
    상기 복수의 경계점 중에서 상기 제1 그룹의 특징점에 대응되는 매칭 경계점을 선택하는 단계;
    상기 제1 그룹의 하나 이상의 특징점의 좌표와 이에 대응하는 매칭 경계점의 좌표에 기초하여 정해지는 상안면부 산출 값을 획득하는 단계;
    상기 제1 그룹의 하나 이상의 특징점의 좌표와 상기 제2 그룹의 하나 이상의 특징점의 좌표에 기초하여 정해지는 중하안면부 산출 값을 획득하는 단계;
    상기 중하안면부 산출 값과 미리 정해진 비율에 기초하여 기준 값을 획득하는 단계; 및
    상기 상안면부 산출 값 및 상기 기준 값을 비교하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함하는 탈모 상태 정보 제공 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램.
KR1020210118969A 2021-02-23 2021-09-07 탈모 상태 정보 제공 방법 및 장치 KR102553141B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210024387 2021-02-23
KR20210024387 2021-02-23
KR1020210039223A KR20220121137A (ko) 2021-02-23 2021-03-26 탈모 상태 정보 제공 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210039223A Division KR20220121137A (ko) 2021-02-23 2021-03-26 탈모 상태 정보 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220121162A true KR20220121162A (ko) 2022-08-31
KR102553141B1 KR102553141B1 (ko) 2023-07-10

Family

ID=76899620

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020210039284A KR102272468B1 (ko) 2021-02-23 2021-03-26 탈모 상태 정보 제공 방법 및 장치
KR1020210118969A KR102553141B1 (ko) 2021-02-23 2021-09-07 탈모 상태 정보 제공 방법 및 장치
KR1020230072072A KR102657095B1 (ko) 2021-02-23 2023-06-05 탈모 상태 정보 제공 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210039284A KR102272468B1 (ko) 2021-02-23 2021-03-26 탈모 상태 정보 제공 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230072072A KR102657095B1 (ko) 2021-02-23 2023-06-05 탈모 상태 정보 제공 방법 및 장치

Country Status (1)

Country Link
KR (3) KR102272468B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240032856A1 (en) * 2021-02-23 2024-02-01 Becon Co., Ltd. Method and device for providing alopecia information
KR20230166568A (ko) 2022-05-31 2023-12-07 주식회사 제이솔루션 모낭 분류 및 탈모 심각도 추정 시스템 및 방법

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040048668A (ko) * 2002-12-04 2004-06-10 최성문 모발관리 통합진단시스템 및 그 운용방법
KR20150113699A (ko) * 2014-03-31 2015-10-08 삼성전자주식회사 영상 저장 시스템 및 방법
KR20150122441A (ko) * 2014-04-23 2015-11-02 한국 한의학 연구원 안면 표현형 결정 장치 및 방법
KR20170019823A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
KR20170088174A (ko) * 2016-01-22 2017-08-01 고려대학교 산학협력단 영상 기반의 두피 진단 정보 제공 방법
KR20190051256A (ko) * 2017-11-06 2019-05-15 주식회사 베이바이오텍 이미지 분석 결과 및 학습된 피부 인식기에 기초하여 피부의 상태를 평가하는 방법 및 프로그램
KR20190123067A (ko) * 2018-04-23 2019-10-31 (주)이노진 탈모 진단 장치 및 방법
KR20190135598A (ko) * 2018-05-29 2019-12-09 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
KR20200110871A (ko) * 2019-03-18 2020-09-28 주식회사 팀엘리시움 모낭 탐색 장치, 모낭 탐색 방법, 및 컴퓨터 판독 가능한 기록 매체
KR20210051839A (ko) * 2019-10-31 2021-05-10 신영길 모공정합을 통한 탈모상태 모니터링 장치 및 그 방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040048668A (ko) * 2002-12-04 2004-06-10 최성문 모발관리 통합진단시스템 및 그 운용방법
KR20150113699A (ko) * 2014-03-31 2015-10-08 삼성전자주식회사 영상 저장 시스템 및 방법
KR20150122441A (ko) * 2014-04-23 2015-11-02 한국 한의학 연구원 안면 표현형 결정 장치 및 방법
KR101571241B1 (ko) * 2014-04-23 2015-11-23 한국 한의학 연구원 안면 표현형 결정 장치 및 방법
KR20170019823A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
KR20170088174A (ko) * 2016-01-22 2017-08-01 고려대학교 산학협력단 영상 기반의 두피 진단 정보 제공 방법
KR20190051256A (ko) * 2017-11-06 2019-05-15 주식회사 베이바이오텍 이미지 분석 결과 및 학습된 피부 인식기에 기초하여 피부의 상태를 평가하는 방법 및 프로그램
KR20190123067A (ko) * 2018-04-23 2019-10-31 (주)이노진 탈모 진단 장치 및 방법
KR20190135598A (ko) * 2018-05-29 2019-12-09 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
KR20200110871A (ko) * 2019-03-18 2020-09-28 주식회사 팀엘리시움 모낭 탐색 장치, 모낭 탐색 방법, 및 컴퓨터 판독 가능한 기록 매체
KR20210051839A (ko) * 2019-10-31 2021-05-10 신영길 모공정합을 통한 탈모상태 모니터링 장치 및 그 방법

Also Published As

Publication number Publication date
KR102272468B1 (ko) 2021-07-05
KR102657095B1 (ko) 2024-04-25
KR102553141B1 (ko) 2023-07-10
KR20230085901A (ko) 2023-06-14

Similar Documents

Publication Publication Date Title
KR102657095B1 (ko) 탈모 상태 정보 제공 방법 및 장치
JP6742405B2 (ja) 表情検出機能を備えたヘッドマウントディスプレイ
US11715231B2 (en) Head pose estimation from local eye region
CN112040834A (zh) 眼球跟踪方法及系统
WO2020042542A1 (zh) 眼动控制校准数据获取方法和装置
ES2883563T3 (es) Método y aparato de estimación de la mirada
CN108875485A (zh) 一种底图录入方法、装置及系统
EP4134981A1 (en) Method for acquiring side image for eye protrusion analysis, image capture device for performing same, and recording medium
WO2021135639A1 (zh) 活体检测方法及装置
JP6191943B2 (ja) 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
JP2008102902A (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2011090702A (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
KR20210103998A (ko) 시계의 착용자의 안면 인식을 위한 방법
JP4682372B2 (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
US20230337913A1 (en) Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
KR20220121137A (ko) 탈모 상태 정보 제공 방법 및 장치
JP5092093B2 (ja) 画像処理装置
JP5958082B2 (ja) 画像処理装置、画像処理方法
US20240032856A1 (en) Method and device for providing alopecia information
EP4089628A1 (en) Sight line estimation device, sight line estimation method, model generation device, and model generation method
WO2024004789A1 (ja) 情報処理装置、情報処理方法、情報処理システム及び記録媒体
WO2022173055A1 (ja) 骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル
US20220351545A1 (en) Obtaining high-resolution oculometric parameters
TR202018758A1 (tr) İskelet sinif iii maloklüzyonun erken teşhi̇si̇ i̇çi̇n bi̇r si̇stem

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant