KR102316286B1 - 인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치 - Google Patents

인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치 Download PDF

Info

Publication number
KR102316286B1
KR102316286B1 KR1020210042465A KR20210042465A KR102316286B1 KR 102316286 B1 KR102316286 B1 KR 102316286B1 KR 1020210042465 A KR1020210042465 A KR 1020210042465A KR 20210042465 A KR20210042465 A KR 20210042465A KR 102316286 B1 KR102316286 B1 KR 102316286B1
Authority
KR
South Korea
Prior art keywords
cuticle
hair
image
standard deviation
regions
Prior art date
Application number
KR1020210042465A
Other languages
English (en)
Inventor
임계현
최원기
Original Assignee
임계현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임계현 filed Critical 임계현
Application granted granted Critical
Publication of KR102316286B1 publication Critical patent/KR102316286B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/448Hair evaluation, e.g. for hair disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Dermatology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Fuzzy Systems (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)
  • Evolutionary Computation (AREA)

Abstract

인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치가 개시된다. 개시되는 일 실시예에 따른 모발 상태 분석 방법은, 하나 이상의 프로세서들, 및 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 사용자의 모발 영상을 획득하는 동작, 모발 영상에 대해 전처리를 수행하여 모발 분석 기초 데이터를 생성하는 동작, 및 모발 분석 기초 데이터를 인공 신경망 모델로 입력하여 사용자의 모발 손상 정도에 대한 분류 값을 출력하는 동작을 포함한다.

Description

인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치{METHOD FOR ANALYZING HAIR CONDITION USING ARTIFICIAL INTELLIGENCE AND COMPUTING DEVICE FOR EXECUTING THE METHOD}
본 발명의 실시예는 모발 상태 분석 기술과 관련된다.
모발은 샴푸, 세제, 염색, 펌, 염분, 자외선, 수분 등의 환경적인 스트레스에 의해 쉽게 상하거나 변하게 되어 시간이 지남에 따라 그 기능이 떨어지는 경우가 많이 발생한다. 특히, 외부 환경에 의해 손상 받게 되면 결합이 파괴된 모발 내부의 단백질이 세정 시 쉽게 빠져 나오게 되어 결과적으로 모발의 물리적 특성을 약하게 만드는 요인이 된다. 최근, 중년층이나 노년층 이외에 20대나 30대에게서도 탈모 증세가 증가하고 있는 추세인 바, 모발의 손상 정도 또는 모발의 상태를 분석할 수 있는 방안이 요구된다.
한국공개특허공보 제10-2013-0059803호(2013.06.07)
본 발명의 실시예는 사용자의 모발 상태를 신속하고 정확하게 분석할 수 있는 새로운 기법을 제공하기 위한 것이다.
개시되는 일 실시예에 따른 모발 상태 분석 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 사용자의 모발 영상을 획득하는 동작; 상기 모발 영상에 대해 전처리를 수행하여 모발 분석 기초 데이터를 생성하는 동작; 및 상기 모발 분석 기초 데이터를 인공 신경망 모델로 입력하여 상기 사용자의 모발 손상 정도에 대한 분류 값을 출력하는 동작을 포함한다.
상기 모발 분석 기초 데이터를 생성하는 동작은, 상기 모발 영상의 모발 가닥 영역 내에서 각 에지를 검출하여 에지 이미지를 생성하는 동작; 상기 에지 이미지에서 큐티클의 윤곽을 형성하여 큐티클 윤곽 이미지를 생성하는 동작; 및 상기 큐티클 윤곽 이미지에 기반하여 상기 모발 분석 기초 데이터를 생성하는 동작을 포함할 수 있다.
상기 모발 분석 기초 데이터를 생성하는 동작은, 상기 큐티클 윤곽 이미지에서 각 큐티클 영역을 검출하는 동작; 및 상기 검출된 큐티클 영역 간의 간격을 산출하는 동작을 포함할 수 있다.
상기 분류 값을 출력하는 동작은, 상기 큐티클 영역의 개수, 상기 큐티클 영역 간의 평균 간격, 및 상기 규티클 영역 간의 간격 표준 편차들 중 하나 이상을 상기 인공 신경망 모델로 입력하는 동작을 포함할 수 있다.
상기 모발 분석 기초 데이터를 생성하는 동작은, 상기 큐티클 윤곽 이미지에서 각 큐티클 영역을 검출하는 동작; 및 상기 검출된 각 큐티클 영역의 크기를 산출하는 동작을 포함할 수 있다.
상기 분류 값을 출력하는 동작은, 상기 큐티클 영역의 개수, 상기 큐티클 영역의 평균 크기, 및 상기 큐티클 영역의 크기 표준 편차 중 하나 이상을 상기 인공 신경망 모델로 입력하는 동작을 포함할 수 있다.
상기 모발 분석 기초 데이터를 생성하는 동작은, 상기 큐티클 윤곽 이미지에서 각 큐티클 영역을 검출하는 동작; 상기 검출된 큐티클 영역 간의 간격 표준 편차를 산출하는 동작; 및 사기 검출된 큐티클 영역의 크기 표준 편차를 산출하는 동작을 포함하고, 상기 분류 값을 출력하는 동작은, 상기 큐티클 영역 간의 간격 표준 편차 및 상기 큐티클 영역의 크기 표준 편차를 상기 인공 신경망 모델로 입력하는 동작을 포함할 수 있다.
상기 간격 표준 편차(ISD)는 하기 수학식 1에 의해 산출하고, 상기 크기 표준 편차(SSD)는 하기 수학식 2에 의해 산출할 수 있다.
(수학식 1)
Figure 112021038216445-pat00001
n : 큐티클 영역 간의 간격 개수
xi : i번째 큐티클 영역 간의 간격
m : 큐티클 영역 간의 평균 간격
(수학식 2)
Figure 112021038216445-pat00002
k : 큐티클 영역의 개수
yi : i번째 큐티클 영역의 크기
l : 큐티클 영역의 평균 크기
상기 분류 값을 출력하는 동작은, 상기 큐티클 윤곽 이미지의 각 큐티클 영역의 개수, 큐티클 영역 간의 평균 간격, 큐티클 영역 간의 간격 표준 편차, 큐티클 영역의 평균 크기, 및 큐티클 영역의 크기 표준 편차 중 2개 이상을 입력 데이터 셋으로 설정하여 상기 인공 신경망 모델로 입력하는 동작을 포함할 수 있다.
개시되는 일 실시예에 따른 컴퓨팅 장치는, 하나 이상의 프로세서들; 메모리; 및 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은 상기 메모리에 저장되고, 상기 하나 이상의 프로세서들에 의해 실행되도록 구성되며, 상기 하나 이상의 프로그램들은, 사용자의 모발 영상을 획득하기 위한 명령; 상기 모발 영상에 대해 전처리를 수행하여 모발 분석 기초 데이터를 생성하기 위한 명령; 및 상기 모발 분석 기초 데이터를 인공 신경망 모델로 입력하여 상기 사용자의 모발 손상 정도에 대한 분류 값을 출력하기 위한 명령을 포함한다.
개시되는 실시예에 의하면, 사용자의 모발을 촬영한 모발 영상을 분석하여 전체 큐티클 영역의 개수, 큐티클 영역 간의 평균 간격, 큐티클 영역 간의 간격 표준 편차, 큐티클 영역의 평균 크기, 및 큐티클 영역의 크기 표준 편차 등과 같은 모발 분석 기초 데이터를 생성하고 이를 인공 신경망 모델의 입력 데이터로 사용함으로써, 사용자의 모발 상태를 신속하고 정확하게 분석할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 모발 상태 분석 서비스 시스템의 구성을 나타낸 도면
도 2는 본 발명의 일 실시예에 따른 모발 분석 서버의 구성을 나타낸 블록도
도 3은 본 발명의 일 실시예에 따른 전처리 모듈의 구성을 나타낸 블록도
도 4는 모발 영상에서 모발 가닥 영역을 검출하는 상태를 나타낸 도면
도 5는 본 발명의 일 실시예에 따른 모발 영상에서 에지 이미지를 생성한 상태를 나타낸 도면
도 6은 본 발명의 일 실시예에서 에지 이미지에 이미지 컨투어 처리를 수행하여 큐티클 윤곽 이미지를 생성한 상태를 나타낸 도면
도 7은 본 발명의 일 실시예에 따른 인공 신경망 모델을 개략적으로 나타낸 도면
도 8은 본 발명의 일 실시예에 따른 모발 상태 분석 방법을 나타낸 흐름도
도 9는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
도 1은 본 발명의 일 실시예에 따른 모발 상태 분석 서비스 시스템의 구성을 나타낸 도면이다.
도 1을 참조하면, 모발 상태 분석 서비스 시스템(100)은 클라이언트 단말(102) 및 모발 분석 서버(104)를 포함한다. 클라이언트 단말(102)은 통신 네트워크(150)를 통해 모발 분석 서버(104)와 통신 가능하게 연결된다.
실시예들에서, 통신 네트워크(150)는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wide area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.
클라이언트 단말(102)은 사용자의 모발 상태를 의뢰하기 위한 단말일 수 있다. 클라이언트 단말(102)은 사용자가 소지하고 있는 스마트 폰, 태블릿 PC, 노트북, 데스탑 PC 등 다양한 전자 기기가 사용될 수 있다. 클라이언트 단말(102)은 사용자의 모발을 촬영한 영상(즉, 모발 영상)을 모발 분석 서버(104)로 송신할 수 있다. 클라이언트 단말(102)은 모발 분석 서버(104)로부터 모발 상태 분석 정보를 수신할 수 있다.
예시적인 실시예에서, 모발 영상은 사용자의 모발 1 가닥을 촬영한 영상일 수 있다. 이를 위해, 모발 영상은 주사 전자 현미경(Scanning Electron Microscope : SEM) 또는 원자 현미경(Atomic Force Microscope : AFM) 등을 통해 촬영된 영상일 수 있다. 또는, 모발 영상은 카메라와 같은 촬영 수단을 통해 촬영한 영상을 확대한 영상(예를 들어, 수십 배 ~ 수천 배 확대)일 수도 있다.
클라이언트 단말(102)에는 모발 상태 분석 서비스를 제공하기 위한 어플리케이션이 설치될 수 있다. 상기 어플리케이션은 클라이언트 단말(102)의 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 상기 어플리케이션은 클라이언트 단말(102)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다. 상기 명령어는 클라이언트 단말(102)의 프로세서로 하여금 예시적인 실시예에 따른 동작을 수행하게 할 수 있다. 클라이언트 단말(102)의 컴퓨터 판독 가능 저장 매체는 클라이언트 단말(102) 상에서 상기 어플리케이션과 같은 명령어 집합을 실행하기 위한 운영 체제의 컴포넌트들을 포함한다. 예를 들어, 이러한 운영 체제는 애플(Apple) 사의 iOS 또는 구글(Google) 사의 Android 일 수 있다.
모발 분석 서버(104)는 클라이언트 단말(102)로부터 수신한 모발 영상을 분석하여 해당 사용자의 모발 상태 분석 정보를 생성할 수 있다. 모발 분석 서버(104)는 모발 상태 분석 정보를 클라이언트 단말(102)로 송신할 수 있다. 모발 분석 서버(104)는 인공 신경망 기술에 기반하여 모발 영상을 분석할 수 있다.
도 2는 본 발명의 일 실시예에 따른 모발 분석 서버(104)의 구성을 나타낸 블록도이다. 도 2를 참조하면, 모발 분석 서버(104)는 영상 획득 모듈(111), 전처리 모듈(113), 및 모발 분석 모듈(115)를 포함할 수 있다.
영상 획득 모듈(111)은 사용자의 모발 영상을 획득할 수 있다. 영상 획득 모듈(111)은 클라이언트 단말(102)로부터 사용자의 모발 영상을 획득할 수 있다. 이 경우, 영상 획득 모듈(111)은 클라이언트 단말(102)과 통신을 수행하기 위한 통신 수단을 포함할 수 있다.
전처리 모듈(113)은 획득한 모발 영상에 대해 전처리를 수행하여 모발 영상으로부터 모발 분석 기초 데이터를 생성할 수 있다. 전처리 모듈(113)은 모발 영상을 기 설정된 크기로 정규화 한 후 모발 영상으로부터 모발 분석 기초 데이터를 생성할 수 있다.
도 3은 본 발명의 일 실시예에 따른 전처리 모듈(113)의 구성을 나타낸 블록도이다. 도 3을 참조하면, 전처리 모듈(113)은 모발 가닥 영역 검출부(121), 에지 검출부(123), 큐티클 윤곽 형성부(125), 및 기초 데이터 생성부(127)를 포함할 수 있다.
예시적인 실시예에서, 모발 가닥 영역 검출부(121), 에지 검출부(123), 큐티클 윤곽 형성부(125), 및 기초 데이터 생성부(127)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.
모발 가닥 영역 검출부(121)는 획득한 모발 영상에서 모발 가닥 영역을 검출할 수 있다. 즉, 모발 가닥 영역 검출부(121)는 모발 영상에서 모발 가닥이 있는 영역만을 검출할 수 있다. 모발 영상에서 모발 가닥 영역을 검출함으로써, 모발 영상에 포함된 노이즈를 제거할 수 있다.
즉, 모발 영상은 주사 전자 현미경(SEM) 또는 원자 현미경(AFM) 등을 통해 촬영되거나 카메라로 촬영한 영상을 확대한 영상이기 때문에, 촬영 환경에 따라 모발 영상에 먼지 또는 습기 등과 같은 이물질이 포함되어 있을 수 있다. 도 4는 모발 영상에서 모발 가닥 영역을 검출하는 상태를 나타낸 도면이다. 도 4를 참조하면, 모발 영상에는 렌즈에 낀 이물질(E)들이 포함될 수 있다. 이에, 모발 가닥 영역 검출부(121)는 모발 영상에서 모발 가닥이 있는 영역(S)만을 검출하여 모발 영상에 포함된 이물질과 같은 노이즈를 제거할 수 있다.
예시적인 실시예에서, 모발 가닥 영역 검출부(121)는 모발 영상에서 모발 가닥이 있는 영역을 검출하기 위해 인공 신경망 기술을 이용할 수 있다. 모발 가닥 영역 검출부(121)는 인공 신경망 모델(121a)을 포함할 수 있다. 인공 신경망 모델(121a)은 모발 영상이 입력되는 경우, 모발 영상에서 모발 가닥 영역을 검출하도록 학습될 수 있다. 즉, 인공 신경망 모델(121a)은 입력되는 모발 영상에서 모발 가닥이라는 오브젝트를 분류하여 인식하고, 인식된 오브젝트 영역을 검출하도록 학습될 수 있다.
에지 검출부(123)는 모발 영상의 모발 가닥 영역 내에서 각 에지(Edge)를 검출할 수 있다. 구체적으로, 에지 검출부(123)는 모발 영상에 대해 이미지 샤프닝(Image Sharpening) 처리를 수행할 수 있다. 에지 검출부(123)는 모발 영상에 기 설정된 마스크(예를 들어, 3×3 크기의 마스크)를 적용하여 이미지 샤프닝 처리를 수행할 수 있다. 예를 들어, 이미지 샤프닝 처리를 위한 마스크는 라플라시안(Laplacian) 마스크일 수 있으나, 이에 한정되는 것은 아니다.
에지 검출부(123)는 라플라시안 마스크를 일정 간격으로 이동시키면서 모발 영상에 적용하여 각 에지를 검출할 수 있다. 에지 검출부(123)는 모발 영상의 모발 가닥 영역 내에서 각 에지를 선명하게 하기 위해 라플라시안 마스크 내의 가중치 값을 조절할 수 있다.
에지 검출부(123)는 모발 영상의 모발 가닥 영역 내에서 각 에지를 검출하여 에지 이미지를 생성할 수 있다. 여기서, 에지 이미지는 바이너리 이미지(Binary Image)일 수 있다. 예시적인 실시예에서, 에지 이미지는 모발 영상에서 에지 부분은 픽셀 값이 255(흰색)이고, 그 이외의 부분은 픽셀 값이 0(검정색)인 바이너리 이미지일 수 있다.
도 5는 본 발명의 일 실시예에 따른 모발 영상에서 에지 이미지를 생성한 상태를 나타낸 도면이다. 도 5를 참조하면, 에지 이미지에서 모발 가닥 영역 내의 각 에지는 모발에 형성되는 큐티클(Cuticle)(비늘 형태의 모발의 표피층)의 경계를 의미할 수 있다.
큐티클 윤곽 형성부(125)는 에지 검출부(123)가 생성한 에지 이미지에서 큐티클의 윤곽을 형성하여 큐티클 윤곽 이미지를 생성할 수 있다. 즉, 에지 이미지에서 모발 가닥 영역 내의 에지들은 불규칙한 모양의 라인(line) 형태로 상호 이격되어 있게 된다. 이때, 큐티클 윤곽 형성부(125)는 에지 이미지에서 상호 이격되어 있는 인접한 에지들을 서로 연결하여 큐티클의 윤곽을 형성함으로써 큐티클 윤곽 이미지를 생성할 수 있다.
예시적인 실시예에서, 큐티클 윤곽 형성부(125)는 에지 이미지에 이미지 컨투어(Image Contour) 처리를 수행하여 큐티클의 윤곽을 형성할 수 있다. 에지 이미지에 이미지 컨투어 처리를 수행하면, 도 6에 도시된 바와 같이, 모발 가닥 영역 내에서 동일한 강도 또는 동일한 색을 가지는 에지들이 상호 연결되므로 에지로 이루어지는(또는 에지로 둘러싸이는) 큐티클의 영역(C)이 형성되게 된다.
기초 데이터 생성부(127)는 큐티클 윤곽 이미지에 기반하여 모발 분석 기초 데이터를 생성할 수 있다. 기초 데이터 생성부(127)는 모발 분석 기초 데이터를 모발 분석 모듈(115)로 전달할 수 있다.
예시적인 실시예에서, 모발 분석 기초 데이터는 전체 큐티클 영역의 개수, 큐티클 영역 간의 평균 간격, 큐티클 영역 간의 간격 표준 편차, 큐티클 영역의 평균 크기, 및 큐티클 영역의 크기 표준 편차 중 하나 이상을 포함할 수 있다.
기초 데이터 생성부(127)는 큐티클 윤곽 이미지에서 각 큐티클 영역을 검출할 수 있다. 기초 데이터 생성부(127)는 큐티클 윤곽 이미지에 포함된 전체 큐티클 영역의 개수를 산출할 수 있다.
기초 데이터 생성부(127)는 검출된 큐티클 영역 간의 간격을 산출할 수 있다. 기초 데이터 생성부(127)는 각 큐티클 영역의 대표 지점을 설정할 수 있다. 예를 들어, 기초 데이터 생성부(127)는 각 큐티클 영역의 중심 지점을 해당 큐티클 영역의 대표 지점으로 설정할 수 있으나, 이에 한정되는 것은 아니다. 기초 데이터 생성부(127)는 각 큐티클 영역의 대표 지점 간의 거리를 산출하여 큐티클 영역 간의 간격을 산출할 수 있다. 기초 데이터 생성부(127)는 각 큐티클 영역 간의 간격에 기반하여 큐티클 영역 간의 평균 간격을 산출할 수 있다.
기초 데이터 생성부(127)는 큐티클 영역 간의 평균 간격에 기반하여 큐티클 영역 간의 간격 표준 편차를 산출할 수 있다. 기초 데이터 생성부(127)는 아래의 수학식 1에 의해 큐티클 영역 간의 간격 표준 편차(ISD)를 산출할 수 있다.
(수학식 1)
Figure 112021038216445-pat00003
n : 큐티클 영역 간의 간격 개수
xi : i번째 큐티클 영역 간의 간격
m : 큐티클 영역 간의 평균 간격
기초 데이터 생성부(127)는 검출된 각 큐티클 영역의 크기(즉, 면적)을 산출할 수 있다. 기초 데이터 생성부(127)는 검출된 큐티클 영역의 평균 크기를 산출할 수 있다. 기초 데이터 생성부(127)는 큐티클 영역의 평균 크기에 기반하여 큐티클 영역의 크기 표준 편차를 산출할 수 있다. 기초 데이터 생성부(127)는 아래의 수학식 2에 의해 큐티클 영역의 크기 표준 편차(SSD)를 산출할 수 있다.
(수학식 2)
Figure 112021038216445-pat00004
k : 큐티클 영역의 개수
yi : i번째 큐티클 영역의 크기
l : 큐티클 영역의 평균 크기
다시 도 2를 참조하면, 모발 분석 모듈(115)은 전처리 모듈(113)로부터 수신한 모발 분석 기초 데이터에 기반하여 사용자의 모발 상태 분석 정보를 생성할 수 있다. 예시적인 실시예에서, 모발 상태 분석 정보는 모발 손상 정도를 포함할 수 있다. 모발 분석 모듈(115)은 입력되는 모발 분석 기초 데이터로부터 모발 손상 정도를 출력하도록 학습되는 인공 신경망 모델(115a)을 포함할 수 있다.
도 7은 본 발명의 일 실시예에 따른 인공 신경망 모델(115a)을 개략적으로 나타낸 도면이다. 도 7을 참조하면, 인공 신경망 모델(115a)은 입력층(131), 복수 개의 히든층(133), 및 출력층(135)을 포함할 수 있다.
입력층(131)은 전처리 모듈(113)로부터 입력 데이터 셋을 입력 받을 수 있다. 여기서, 전체 큐티클 영역의 개수, 큐티클 영역 간의 평균 간격, 큐티클 영역 간의 간격 표준 편차, 큐티클 영역의 평균 크기, 및 큐티클 영역의 크기 표준 편차 중 2개 이상의 데이터가 인공 신경망 모델(115a)의 입력 데이터 셋으로 사용될 수 있다. 인공 신경망 모델(115a)의 학습 단계에서 각 입력 데이터 셋은 모발의 손상 정도에 따라 라벨링 될 수 있다.
예시적인 실시예에서, 큐티클 영역 간의 간격 표준 편차 및 큐티클 영역의 크기 표준 편차가 입력 데이터 셋으로 사용될 수도 있고, 전체 큐티클 영역의 개수, 큐티클 영역 간의 간격 표준 편차, 및 큐티클 영역의 크기 표준 편차가 입력 데이터 셋으로 사용될 수도 있으며, 전체 큐티클 영역의 개수, 큐티클 영역 간의 평균 간격, 큐티클 영역 간의 간격 표준 편차, 및 큐티클 영역의 크기 표준 편차가 입력 데이터 셋으로 사용될 수도 있다.
복수 개의 히든층(133)은 입력층(131)으로부터 입력되는 입력 데이터 셋으로부터 특징을 추출할 수 있다. 도 7에서는 히든층(133)이 3개인 것으로 도시하였으나, 이에 한정되는 것은 아니며 히든층(133)은 그 이외의 다양한 개수로 마련될 수 있다.
복수 개의 히든층(133)은 순차적으로 연결되어 마련될 수 있다. 각 히든층(133)은 복수 개의 노드(133a)를 포함하며, 각 노드(133a)에서의 회귀식은 다음의 수학식 3으로 나타낼 수 있다.
(수학식 3)
Figure 112021038216445-pat00005
여기서, wn과 bn은 각각 가중치(Weight)와 편향(Bias)을 나타낸다. 이 두 값은 학습에 따라 변동 할 수 있다.
출력층(135)은 복수 개의 히든층(133)으로부터 출력되는 특징에 기반하여 모발 손상 정도에 대한 분류 값을 출력할 수 있다. 예를 들어, 출력층(135)은 모발 손상 정도가 약할수록 0에 가까운 분류 값을 출력하고, 모발 손상 정도가 클수록 1에 가까운 분류 값을 출력할 수 있다. 그러나, 이에 한정되는 것은 아니며 그 반대의 경우도 가능하다.
개시되는 실시예에 의하면, 사용자의 모발을 촬영한 모발 영상을 분석하여 전체 큐티클 영역의 개수, 큐티클 영역 간의 평균 간격, 큐티클 영역 간의 간격 표준 편차, 큐티클 영역의 평균 크기, 및 큐티클 영역의 크기 표준 편차 등과 같은 모발 분석 기초 데이터를 생성하고 이를 인공 신경망 모델의 입력 데이터로 사용함으로써, 사용자의 모발 상태를 신속하고 정확하게 분석할 수 있게 된다.
본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 "모듈"은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아니다.
도 8은 본 발명의 일 실시예에 따른 모발 상태 분석 방법을 나타낸 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 8을 참조하면, 모발 분석 서버(104)는 사용자의 모발 영상을 획득한다(S 101). 여기서, 모발 영상은 사용자의 모발 가닥을 촬영한 영상일 수 있다.
다음으로, 모발 분석 서버(104)는 모발 영상에서 모발 가닥이 있는 모발 가닥 영역을 검출한다(S 103). 예시적인 실시예에서, 모발 분석 서버(104)는 모발 영상을 인공 신경망 모델(121a)로 입력하여 모발 영상에서 모발 가닥 영역을 검출할 수 있다.
다음으로, 모발 분석 서버(104)는 모발 영상의 모발 가닥 영역에서 각 에지를 검출하여 에지 이미지를 생성한다(S 105). 여기서, 에지 이미지는 바이너리 이미지일 수 있다.
다음으로, 모발 분석 서버(104)는 에지 이미지에서 큐티클의 윤곽을 형성하여 큐티클 윤곽 이미지를 생성한다(S 107). 모발 분석 서버(104)는 에지 이미지에 이미지 컨투어(Image Contour) 처리를 수행하여 큐티클 윤곽 이미지를 생성할 수 있다.
다음으로, 모발 분석 서버(104)는 큐티클 윤곽 이미지에 기반하여 모발 분석 기초 데이터를 생성한다(S 109). 예시적인 실시예에서, 모발 분석 기초 데이터는 전체 큐티클 영역의 개수, 큐티클 영역 간의 평균 간격, 큐티클 영역 간의 간격 표준 편차, 큐티클 영역의 평균 크기, 및 큐티클 영역의 크기 표준 편차 중 하나 이상을 포함할 수 있다.
다음으로, 모발 분석 서버(104)는 모발 분석 기초 데이터를 인공 신경망 모델(115a)의 입력으로 하여 모발 손상 정도에 대한 분류 값을 출력한다(S 111).
도 9는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 클라이언트 단말(102)일 수 있다. 또한, 컴퓨팅 장치(12)는 모발 분석 서버(104)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100 : 모발 상태 분석 서비스 시스템
102 : 클라이언트 단말
104 : 모발 분석 서버
111 : 영상 획득 모듈
113 : 전처리 모듈
115 : 모발 분석 모듈
115a : 제2 인공 신경망 모델
121 : 모발 가닥 영역 검출부
121a : 제1 인공 신경망 모델
123 : 에지 검출부
125 : 큐티클 윤곽 형성부
127 : 기초 데이터 생성부
131 : 입력층
133 : 히든층
133a : 노드
135 : 출력층

Claims (10)

  1. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    상기 컴퓨팅 장치에서, 사용자의 모발 영상을 획득하는 단계;
    상기 컴퓨팅 장치에서, 상기 모발 영상에 대해 전처리를 수행하여 모발 분석 기초 데이터를 생성하는 단계; 및
    상기 컴퓨팅 장치에서, 상기 모발 분석 기초 데이터를 인공 신경망 모델로 입력하여 상기 사용자의 모발 손상 정도에 대한 분류 값을 출력하는 단계를 포함하고,
    상기 모발 분석 기초 데이터를 생성하는 단계는,
    상기 모발 영상의 모발 가닥 영역 내에서 각 에지를 검출하여 에지 이미지를 생성하는 단계;
    상기 에지 이미지에서 큐티클의 윤곽을 형성하여 큐티클 윤곽 이미지를 생성하는 단계;
    상기 큐티클 윤곽 이미지에서 각 큐티클 영역을 검출하는 단계;
    상기 검출된 큐티클 영역 간의 간격 표준 편차를 산출하는 단계; 및
    상기 검출된 큐티클 영역의 크기 표준 편차를 산출하는 단계를 포함하며,
    상기 큐티클 윤곽 이미지를 생성하는 단계는, 상기 에지 이미지에서 상호 이격 되어 있는 큐티클의 경계인 에지들을 연결하여 큐티클의 영역이 형성되도록 하는 단계를 포함하고,
    상기 분류 값을 출력하는 단계는,
    상기 큐티클 영역 간의 간격 표준 편차 및 상기 큐티클 영역의 크기 표준 편차를 상기 인공 신경망 모델로 입력하는 단계; 및
    상기 인공 신경망 모델에서 상기 간격 표준 편차 및 상기 크기 표준 편차로부터 특징을 각각 추출하고, 추출된 각 특징에 기반하여 상기 분류 값을 출력하는 단계를 포함하는, 모발 상태 분석 방법.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 모발 분석 기초 데이터를 생성하는 단계는,
    상기 각 큐티클 영역의 개수를 산출하는 단계;
    상기 검출된 큐티클 영역 간의 간격을 산출하는 단계; 및
    상기 큐티클 영역 간의 평균 간격을 산출하는 단계를 더 포함하는, 모발 상태 분석 방법.
  4. 청구항 3에 있어서,
    상기 분류 값을 출력하는 단계는,
    상기 간격 표준 편차 및 상기 크기 표준 편차 이외에 상기 큐티클 영역의 개수 및 상기 큐티클 영역 간의 평균 간격을 상기 인공 신경망 모델로 추가 입력하는 단계를 포함하는, 모발 상태 분석 방법.
  5. 청구항 1에 있어서,
    상기 모발 분석 기초 데이터를 생성하는 단계는,
    상기 각 큐티클 영역의 개수를 산출하는 단계;
    상기 검출된 큐티클 영역 간의 크기를 산출하는 단계; 및
    상기 큐티클 영역의 평균 크기를 산출하는 단계를 더 포함하는, 모발 상태 분석 방법.
  6. 청구항 5에 있어서,
    상기 분류 값을 출력하는 단계는,
    상기 간격 표준 편차 및 상기 크기 표준 편차 이외에 상기 큐티클 영역의 개수 및 상기 큐티클 영역의 평균 크기를 상기 인공 신경망 모델로 추가 입력하는 단계를 포함하는, 모발 상태 분석 방법.
  7. 삭제
  8. 청구항 1에 있어서,
    상기 간격 표준 편차(ISD)는 하기 수학식 1에 의해 산출하고, 상기 크기 표준 편차(SSD)는 하기 수학식 2에 의해 산출하는, 모발 상태 분석 방법.
    (수학식 1)
    Figure 112021068454688-pat00006

    n : 큐티클 영역 간의 간격 개수
    xi : i번째 큐티클 영역 간의 간격
    m : 큐티클 영역 간의 평균 간격
    (수학식 2)
    Figure 112021068454688-pat00007

    k : 큐티클 영역의 개수
    yi : i번째 큐티클 영역의 크기
    l : 큐티클 영역의 평균 크기
  9. 삭제
  10. 하나 이상의 프로세서들;
    메모리; 및
    하나 이상의 프로그램들을 포함하고,
    상기 하나 이상의 프로그램들은 상기 메모리에 저장되고, 상기 하나 이상의 프로세서들에 의해 실행되도록 구성되며,
    상기 하나 이상의 프로그램들은,
    사용자의 모발 영상을 획득하기 위한 명령;
    상기 모발 영상에 대해 전처리를 수행하여 모발 분석 기초 데이터를 생성하기 위한 명령; 및
    상기 모발 분석 기초 데이터를 인공 신경망 모델로 입력하여 상기 사용자의 모발 손상 정도에 대한 분류 값을 출력하기 위한 명령을 포함하고,
    상기 모발 분석 기초 데이터를 생성하기 위한 명령은,
    상기 모발 영상의 모발 가닥 영역 내에서 각 에지를 검출하여 에지 이미지를 생성하기 위한 명령;
    상기 에지 이미지에서 큐티클의 윤곽을 형성하여 큐티클 윤곽 이미지를 생성하기 위한 명령;
    상기 큐티클 윤곽 이미지에서 각 큐티클 영역을 검출하기 위한 명령;
    상기 검출된 큐티클 영역 간의 간격 표준 편차를 산출하기 위한 명령; 및
    상기 검출된 큐티클 영역의 크기 표준 편차를 산출하기 위한 명령을 포함하며,
    상기 큐티클 윤곽 이미지를 생성하기 위한 명령은, 상기 에지 이미지에서 상호 이격 되어 있는 큐티클의 경계인 에지들을 연결하여 큐티클의 영역이 형성되도록 하기 위한 명령을 포함하고,
    상기 분류 값을 출력하기 위한 명령은,
    상기 큐티클 영역 간의 간격 표준 편차 및 상기 큐티클 영역의 크기 표준 편차를 상기 인공 신경망 모델로 입력하기 위한 명령; 및
    상기 인공 신경망 모델에서 상기 간격 표준 편차 및 상기 크기 표준 편차로부터 특징을 각각 추출하고, 추출된 각 특징에 기반하여 상기 분류 값을 출력하기 위한 명령을 포함하는, 컴퓨팅 장치.
KR1020210042465A 2021-02-18 2021-04-01 인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치 KR102316286B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210021742 2021-02-18
KR20210021742 2021-02-18

Publications (1)

Publication Number Publication Date
KR102316286B1 true KR102316286B1 (ko) 2021-10-22

Family

ID=78275800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210042465A KR102316286B1 (ko) 2021-02-18 2021-04-01 인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치

Country Status (1)

Country Link
KR (1) KR102316286B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264296B1 (ja) 2022-04-20 2023-04-25 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム
KR20230081911A (ko) * 2021-11-30 2023-06-08 (주)자비스 선택적 인공 지능 엔진 기반 대상체 비파괴 검사 방법, 장치 및 시스템
KR20230104310A (ko) * 2021-12-30 2023-07-10 가천대학교 산학협력단 머신러닝 기반 모발 건강 진단 방법 및 시스템
KR20230104311A (ko) * 2021-12-30 2023-07-10 가천대학교 산학협력단 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템
WO2024092333A1 (pt) * 2022-10-31 2024-05-10 Natura Cosméticos S.A. Sistema e método de avaliação de imagens do estado dos fios de cabelos de um usuário

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080067433A (ko) * 2007-01-16 2008-07-21 전병문 모발 손상 측정시스템과 그 측정방법
KR20080095481A (ko) * 2007-04-24 2008-10-29 (주)엘리드 피부 영상 오버레이 및 매칭 방법
JP2010179004A (ja) * 2009-02-06 2010-08-19 Takara Belmont Co Ltd 毛髪診断システム
KR101197798B1 (ko) * 2012-02-27 2012-11-05 경일대학교산학협력단 피부 진단을 위한 장치
KR20130059803A (ko) 2011-11-29 2013-06-07 이문원 모발 건강 검진 시스템 및 방법
JP2014522500A (ja) * 2011-06-15 2014-09-04 ザ プロクター アンド ギャンブル カンパニー 毛髪繊維の分析装置及び本装置を使用する方法
KR20170088174A (ko) * 2016-01-22 2017-08-01 고려대학교 산학협력단 영상 기반의 두피 진단 정보 제공 방법
KR20200063299A (ko) * 2018-11-19 2020-06-05 유소현 빅데이터 기반 인공지능 기계학습을 이용한 피부관리 추천 서비스 제공 방법
KR20200110871A (ko) * 2019-03-18 2020-09-28 주식회사 팀엘리시움 모낭 탐색 장치, 모낭 탐색 방법, 및 컴퓨터 판독 가능한 기록 매체
KR20200121898A (ko) * 2018-03-12 2020-10-26 티-바이오맥스 에스디엔 비에이취디 모발 및 두피 진단 및 치료

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080067433A (ko) * 2007-01-16 2008-07-21 전병문 모발 손상 측정시스템과 그 측정방법
KR20080095481A (ko) * 2007-04-24 2008-10-29 (주)엘리드 피부 영상 오버레이 및 매칭 방법
JP2010179004A (ja) * 2009-02-06 2010-08-19 Takara Belmont Co Ltd 毛髪診断システム
JP2014522500A (ja) * 2011-06-15 2014-09-04 ザ プロクター アンド ギャンブル カンパニー 毛髪繊維の分析装置及び本装置を使用する方法
KR20130059803A (ko) 2011-11-29 2013-06-07 이문원 모발 건강 검진 시스템 및 방법
KR101197798B1 (ko) * 2012-02-27 2012-11-05 경일대학교산학협력단 피부 진단을 위한 장치
KR20170088174A (ko) * 2016-01-22 2017-08-01 고려대학교 산학협력단 영상 기반의 두피 진단 정보 제공 방법
KR20200121898A (ko) * 2018-03-12 2020-10-26 티-바이오맥스 에스디엔 비에이취디 모발 및 두피 진단 및 치료
KR20200063299A (ko) * 2018-11-19 2020-06-05 유소현 빅데이터 기반 인공지능 기계학습을 이용한 피부관리 추천 서비스 제공 방법
KR20200110871A (ko) * 2019-03-18 2020-09-28 주식회사 팀엘리시움 모낭 탐색 장치, 모낭 탐색 방법, 및 컴퓨터 판독 가능한 기록 매체

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국교원대학교 석사학위논문. 2010* *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230081911A (ko) * 2021-11-30 2023-06-08 (주)자비스 선택적 인공 지능 엔진 기반 대상체 비파괴 검사 방법, 장치 및 시스템
WO2023101375A1 (ko) * 2021-11-30 2023-06-08 (주)자비스 선택적 인공 지능 엔진 기반 대상체 비파괴 검사 방법, 장치 및 시스템
KR102602559B1 (ko) * 2021-11-30 2023-11-16 (주)자비스 선택적 인공 지능 엔진 기반 대상체 비파괴 검사 방법, 장치 및 시스템
KR20230104310A (ko) * 2021-12-30 2023-07-10 가천대학교 산학협력단 머신러닝 기반 모발 건강 진단 방법 및 시스템
KR20230104311A (ko) * 2021-12-30 2023-07-10 가천대학교 산학협력단 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템
KR102567671B1 (ko) * 2021-12-30 2023-08-17 가천대학교 산학협력단 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템
KR102567138B1 (ko) * 2021-12-30 2023-08-17 가천대학교 산학협력단 머신러닝 기반 모발 건강 진단 방법 및 시스템
JP7264296B1 (ja) 2022-04-20 2023-04-25 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム
JP2023159529A (ja) * 2022-04-20 2023-11-01 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム
WO2024092333A1 (pt) * 2022-10-31 2024-05-10 Natura Cosméticos S.A. Sistema e método de avaliação de imagens do estado dos fios de cabelos de um usuário

Similar Documents

Publication Publication Date Title
KR102316286B1 (ko) 인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치
US9619735B1 (en) Pure convolutional neural network localization
JP6282045B2 (ja) 情報処理装置および方法、プログラム、記憶媒体
KR102287407B1 (ko) 이미지 생성을 위한 학습 장치 및 방법과 이미지 생성 장치 및 방법
US11334773B2 (en) Task-based image masking
CN108509994B (zh) 人物图像聚类方法和装置
US10296782B2 (en) Processing device and method for face detection
KR20170109304A (ko) 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법
CN112949767A (zh) 样本图像增量、图像检测模型训练及图像检测方法
KR102313215B1 (ko) 특징 생성 기술을 이용한 머신러닝 기반 결함 분류 장치 및 방법
CN108615006B (zh) 用于输出信息的方法和装置
KR102114273B1 (ko) 퍼스널 이미지 진단 제공방법 및 이를 수행하기 위한 컴퓨팅 장치
CN111932577A (zh) 文本检测方法、电子设备及计算机可读介质
CN112507897A (zh) 跨模态人脸识别方法、装置、设备及存储介质
CN112418320A (zh) 一种企业关联关系识别方法、装置及存储介质
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
Chen et al. Image splicing localization using residual image and residual-based fully convolutional network
KR20210044080A (ko) 머신러닝 기반 결함 분류 장치 및 방법
Fathurrahman et al. Lightweight convolution neural network for image-based malware classification on embedded systems
KR20200055836A (ko) 데이터 분류 방법 및 장치, 분류기의 학습 방법 및 장치
CN116569210A (zh) 归一化oct图像数据
CN113705650A (zh) 一种人脸图片集的处理方法、装置、介质和计算设备
KR20210059991A (ko) IoT 악성행위 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치
KR20200134813A (ko) 기계 학습을 위한 이미지 처리 장치 및 방법
CN113361455B (zh) 人脸鉴伪模型的训练方法、相关装置及计算机程序产品

Legal Events

Date Code Title Description
GRNT Written decision to grant