KR20230166568A - Hair follicle classification and hair loss severity estimation system and method - Google Patents

Hair follicle classification and hair loss severity estimation system and method Download PDF

Info

Publication number
KR20230166568A
KR20230166568A KR1020220066703A KR20220066703A KR20230166568A KR 20230166568 A KR20230166568 A KR 20230166568A KR 1020220066703 A KR1020220066703 A KR 1020220066703A KR 20220066703 A KR20220066703 A KR 20220066703A KR 20230166568 A KR20230166568 A KR 20230166568A
Authority
KR
South Korea
Prior art keywords
hair
hair loss
severity
follicle
module
Prior art date
Application number
KR1020220066703A
Other languages
Korean (ko)
Inventor
권세기
김종환
Original Assignee
주식회사 제이솔루션
김종환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제이솔루션, 김종환 filed Critical 주식회사 제이솔루션
Priority to KR1020220066703A priority Critical patent/KR20230166568A/en
Publication of KR20230166568A publication Critical patent/KR20230166568A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/448Hair evaluation, e.g. for hair disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/446Scalp evaluation or scalp disorder diagnosis, e.g. dandruff
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Abstract

이미지 영역 분할 딥러닝 기반의 모낭 분류 및 탈모 심각도를 추정할 수 있는 시스템 및 방법에 관한 것으로, 두피의 영상을 수집하는 이미지 수집 모듈, 상기 이미지 수집 모듈에서 수집된 영상에 대해 모낭의 영역을 원형으로 추출하는 추출 모듈, 상기 추출 모듈에서 추출된 모낭의 영역에서 모낭의 상태를 판별하는 판별 모듈, 상기 추출 모듈에서 추출된 각각의 모낭의 영역과 상기 판별 모듈에서 판별된 모낭의 상태에 따라 이미지별 탈모의 심각도를 추정하는 추정 모듈, 상기 추정 모듈에서 추정된 탈모의 심각도에 대해 전체 두피의 탈모 심각도로 가시화하고, 정량화하여 표시하는 탈모 상태 판정 모듈을 포함하는 구성을 마련하여, 딥 러닝 알고리즘을 사용하여 국소 및 두피 수준 탈모 심각도를 추정할 수 있다.This relates to a system and method for classifying hair follicles and estimating hair loss severity based on deep learning for image region segmentation. An image collection module that collects images of the scalp, and an area of the hair follicles is divided into a circle for the images collected in the image collection module. An extraction module for extracting, a discrimination module for determining the state of hair follicles in the region of hair follicles extracted from the extraction module, hair loss for each image according to the region of each hair follicle extracted from the extraction module and the state of the hair follicles determined in the discrimination module A configuration is provided that includes an estimation module that estimates the severity of hair loss, and a hair loss status determination module that visualizes, quantifies, and displays the hair loss severity of the entire scalp for the severity of hair loss estimated in the estimation module, using a deep learning algorithm. Local and scalp level hair loss severity can be estimated.

Description

모낭 분류 및 탈모 심각도 추정 시스템 및 방법{Hair follicle classification and hair loss severity estimation system and method} Hair follicle classification and hair loss severity estimation system and method}

본 발명은 이미지 영역 분할 딥러닝 기반의 모낭 분류 및 탈모 심각도를 추정할 수 있는 시스템 및 방법에 관한 것으로, 특히 모공의 영역을 모공의 형태와 유사한 원형으로 추출하고, 이미지 영역분할에 활발히 적용되는 Mask R-CNN 프레임 워크와 멀티태스킹 딥러닝 방법을 적용하여 모낭을 분류하고 탈모의 심각도를 추정하는 모낭 분류 및 탈모 심각도 추정 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for classifying hair follicles and estimating the severity of hair loss based on deep learning for image region segmentation. In particular, the pore region is extracted into a circular shape similar to the shape of the pore, and Mask is actively applied to image region segmentation. It relates to a hair follicle classification and hair loss severity estimation system and method that classifies hair follicles and estimates the severity of hair loss by applying the R-CNN framework and multitasking deep learning method.

일반적으로 탈모(hair loss)는 두피에서 모발이 존재하여야 할 부위에 모발이 없는 상태로서, 두피의 머리카락이 점점 빠지는 것을 의미하며, 탈모가 진행되면 정상적인 사람에 비해서 10년 내지 20년까지 나이가 더 들어 보이게 하기 때문에 탈모는 사람의 외모에 지대한 영향을 미친다. In general, hair loss is a condition in which there is no hair in the area of the scalp where hair should be present. It means that the hair on the scalp gradually falls out. As hair loss progresses, the person becomes 10 to 20 years older than a normal person. Hair loss has a huge impact on a person's appearance because it makes them look thinner.

이러한 탈모는 노화나 유전적인 원인으로 발생되는 것이 일반적이나, 최근에 들어서는 노화나 유전적인 요인뿐만 아니라 환경오염, 스트레스, 식생활 변화에 따른 호르몬 분비 이상 등과 같은 후천적인 원인으로 인해 청년, 장년, 노인층을 막론하고 다양한 연령대에서 발생되고 있으며, 그 진행 속도도 가속화되고 있다.This kind of hair loss is generally caused by aging or genetic causes, but recently, not only due to aging or genetic factors, but also acquired causes such as environmental pollution, stress, abnormal hormonal secretion due to changes in diet, etc. It occurs in all age groups, and the rate of progression is accelerating.

상술한 바와 같은 탈모는 유병율이 높은 질환으로, 발병하는 경우 개인에게 심리적으로 부정적인 영향 예를 들어, 스트레스, 자신감 결여, 대인 기피증, 우울증 등의 문제를 야기할 수 있으며, 심할 경우 정신적 질환으로까지 이어질 수 있다. Hair loss as described above is a disease with a high prevalence rate, and when it occurs, it can cause negative psychological effects on the individual, such as stress, lack of confidence, social phobia, and depression, and in severe cases, it can lead to mental illness. You can.

이와 같은 탈모 상태를 감지하기 위한 기술의 일 예가 하기 특허 문헌 1 내지 3 등에 개시되어 있다.An example of a technology for detecting such a hair loss state is disclosed in Patent Documents 1 to 3 below.

예를 들어, 하기 특허문헌 1에는 두피를 촬영한 적어도 하나 이상의 두피 영상으로부터 모공을 추출하여 상기 두피 영상에 대한 모공 영상을 생성하는 모공 영상 생성부, 상기 생성한 모공 영상으로부터 사용자의 두피에 대한 모공 맵을 생성하는 모공 맵 생성부 및 상기 모공 맵을 시계열적으로 생성하고, 상기 생성한 모공 맵을 서로 매칭하여 탈모상태를 모니터링하는 탈모상태 모니터링부를 포함하는 모공 정합을 통한 탈모상태 모니터링 장치에 대해 개시되어 있다.For example, in Patent Document 1 below, a pore image generating unit extracts pores from at least one scalp image taken of the scalp and generates a pore image for the scalp image, and pores for the user's scalp from the generated pore image. Disclosed is a hair loss status monitoring device through pore matching, including a pore map generator that generates a map and a hair loss status monitor that generates the pore map in time series and monitors the hair loss status by matching the generated pore maps with each other. It is done.

또 하기 특허문헌 2에는 머리카락 두께 값과 머리숱 둘레길이 값을 복수 회 측정하여 머리카락 두께 값과 머리숱 둘레길이 값을 포함하는 머리카락 정보를 출력하는 측정부, 상기 측정부에서 출력된 머리카락 정보로부터 머리카락 두께 값과 머리숱 둘레길이 값의 평균값을 각각 산출한 후 기설정된 기준범위와 비교하여 탈모 여부를 판단하여 출력하는 탈모 판단부 및 상기 측정부, 탈모 판단부의 구동 상태를 표시하는 디스플레이부를 포함하는 휴대용 탈모 측정장치에 대해 개시되어 있다.In addition, Patent Document 2 below discloses a measurement unit that measures the hair thickness value and hair circumference value multiple times and outputs hair information including the hair thickness value and hair circumference value, and hair information is measured from the hair information output from the measurement unit. A portable device including a hair loss determination unit that calculates the average value of the thickness value and the hair circumference value and then compares it with a preset reference range to determine and output hair loss, and a display unit that displays the operation status of the measurement unit and the hair loss determination unit. A hair loss measuring device is disclosed.

또한, 하기 특허문헌 3에는 사용자의 머리 이미지를 획득하는 단계, 상기 머리 이미지에서 제1 그룹의 특징점 및 제2 그룹의 특징점을 추출하는 단계, 상기 머리 이미지에서 상기 사용자의 머리카락 및 이마의 경계선에 대응되는 복수의 경계점을 추출하는 단계, 상기 복수의 경계점 중에서 상기 제1 그룹의 특징점에 대응되는 매칭 경계점을 선택하는 단계, 상기 머리 이미지상의 제1 축을 기준으로 상기 제1 그룹의 특징점과 이에 대응하는 매칭 경계점 사이의 거리에 기초하여 정해지는 상안면부 산출 값을 획득하는 단계, 상기 제1 축을 기준으로 상기 제1 그룹의 특징점과 상기 제2 그룹의 특징점 사이의 거리에 기초하여 정해지는 중하안면부 산출 값을 획득하는 단계 및 상기 상안면부 산출 값 및 상기 중하안면부 산출 값의 비율에 기초하여 상기 사용자의 탈모 상태 정보를 제공하는 단계를 포함하는 탈모 상태 정보 제공 방법에 대해 개시되어 있다.In addition, Patent Document 3 below discloses a step of obtaining a head image of a user, extracting a first group of feature points and a second group of feature points from the head image, and corresponding to the boundary line of the user's hair and forehead in the head image. extracting a plurality of boundary points, selecting a matching boundary point corresponding to a feature point of the first group from among the plurality of boundary points, and matching the feature point of the first group and the corresponding feature point based on a first axis on the head image. Obtaining a calculated value of the upper facial region determined based on the distance between boundary points, calculating a calculated value of the middle and lower facial region determined based on the distance between the feature points of the first group and the feature points of the second group with respect to the first axis. A method of providing hair loss status information including the step of obtaining and providing hair loss status information of the user based on a ratio of the calculated value of the upper facial portion and the calculated value of the middle or lower facial portion is disclosed.

한편, 하기 비특허문헌 1에는 모발 밀도 측정(HDM)이 이식을 위해 후두 기증자 부위에 존재하는 모발의 수를 세어 탈모의 심각성을 감지하는 데 사용되는 프로세스로서, 모공의 영역을 사각형으로 추출하고, 객체 감지에 딥러닝 기술을 적용하여 HDM의 정확도를 분석하고 HDM 자동화 가능성에 대해 개시되어 있으며, 훈련 및 평가를 위한 데이터 세트는 남성 탈모 환자로부터 획득한 4,492개의 확대된 모발 두피 RGB 영상과 영상에 존재하는 모낭의 위치 정보와 모발 수에 따른 모낭 유형 정보가 포함된 해당 주석 데이터로 구성되며, EfficientDet, YOLOv4 및 DetectoRS는 성능 비교를 위한 객체 감지 알고리즘으로 사용하는 기술에 대해 개시되어 있다.Meanwhile, in Non-Patent Document 1 below, hair density measurement (HDM) is a process used to detect the severity of hair loss by counting the number of hairs present in the occipital donor area for transplantation, in which the area of pores is extracted as a square, The accuracy of HDM is analyzed by applying deep learning technology to object detection and the possibility of HDM automation is disclosed, and the data set for training and evaluation exists in 4,492 enlarged hair scalp RGB images and images acquired from male hair loss patients. It consists of corresponding annotation data including location information of hair follicles and hair follicle type information according to the number of hairs, and EfficientDet, YOLOv4, and DetectoRS are disclosed for technologies used as object detection algorithms for performance comparison.

대한민국 등록특허공보 제10-2303429호(2021.09.13 등록)Republic of Korea Patent Publication No. 10-2303429 (registered on September 13, 2021) 대한민국 공개특허공보 제2018-0110856호(2018.10.11 공개)Republic of Korea Patent Publication No. 2018-0110856 (published on October 11, 2018) 대한민국 등록특허공보 제10-2272468호(2021.06.28 등록)Republic of Korea Patent Publication No. 10-2272468 (registered on June 28, 2021)

M. Kim, S. Kang, and B.-D. Lee, "Evaluation of Automated Measurement of Hair Density Using Deep Neural Networks, "Sensors, vol. 22, no.2, p.650, 14 January 2022. M. Kim, S. Kang, and B.-D. Lee, “Evaluation of Automated Measurement of Hair Density Using Deep Neural Networks,” Sensors, vol. 22, no.2, p.650, 14 January 2022.

상술한 바와 같은 특허문헌 1에는 정합한 모공 맵을 토대로 시계열적으로 모공의 패턴이 변화하는 것을 추적하여 비교함으로써, 탈모의 진행을 확인하고 감시할 수 있는 기술에 대해 개시되어 있지만, 탈모의 심각도를 판단할 수는 없었다. 즉, 상기 특허문헌 1에서는 수집된 복수의 두피 영상으로부터 탈모의 진행을 감시할 수 있지만, 탈모 유형의 판단 기준이 마련되지 않아 탈모의 심각도를 판단할 수는 없었다.Patent Document 1 as described above discloses a technology that can confirm and monitor the progress of hair loss by tracking and comparing changes in pore patterns in time series based on the matched pore map, but the severity of hair loss can be measured. I couldn't judge. That is, in Patent Document 1, the progress of hair loss can be monitored from a plurality of collected scalp images, but the severity of hair loss cannot be determined because a standard for determining the type of hair loss has not been established.

또, 상기 특허문헌 2에는 탈모가 진행되는 상태를 머리카락 두께 값 및 머리숱 둘레길이 값을 측정하여 진단할 수 있는 기술에 대해 개시되어 있지만, 머리카락 두께를 측정하기 위해 일부 머리카락을 잘라 내야 하고, 둘레길이를 측정하기 위해서는 전체 머리카락을 모아서 측정해야 하므로, 머리카락이 짧은 사람의 경우에는 측정할 수 없다는 문제가 있었다.In addition, Patent Document 2 discloses a technology that can diagnose the state of hair loss by measuring the hair thickness value and the hair circumference value. However, in order to measure the hair thickness, some hair must be cut off, and the circumference In order to measure length, all hair must be collected and measured, so there was a problem that it could not be measured in the case of people with short hair.

또한, 상기 특허문헌 3에서는 머리 이미지의 경계점 및 특징점에 기초하여 매칭 경계점을 선택하고, 사용자의 머리카락 및 이마의 경계선에 의해 탈모 상태를 판단하므로, 두피의 중앙 부분에서 발생하는 탈모를 측정할 수 없다는 문제가 있었다.In addition, in Patent Document 3, matching boundary points are selected based on the boundary points and feature points of the head image, and hair loss status is determined based on the boundary points of the user's hair and forehead, so hair loss occurring in the central part of the scalp cannot be measured. There was a problem.

한편, 상기 비특허문헌 1은 모공의 영역을 사각형으로 추출하고 모공을 파악하여 그 모공의 수를 산출하고 머리카락 밀도를 추정하는 기술로서, 추출 성능이 저하되고, 탈모의 상태를 판별할 수 없다는 문제가 있었다.Meanwhile, the non-patent document 1 is a technology for extracting the pore area in a rectangular shape, identifying the pores, calculating the number of pores, and estimating the hair density, but the problem is that the extraction performance is reduced and the state of hair loss cannot be determined. There was.

상술한 바와 같이 상기 종래 기술에서는 탈모의 상태에 따라 탈모의 심각도를 판단할 수 있는 기술에 대해서는 개시되어 있지 않았다. As described above, the prior art did not disclose a technology capable of determining the severity of hair loss depending on the state of hair loss.

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위해 이루어진 것으로서, 탈모의 상태에 따라 탈모의 심각도를 판단하며, 탈모의 심각도를 시각적으로 표시할 수 있는 모낭 분류 및 탈모 심각도 추정 시스템 및 방법을 제공하는 것이다.The purpose of the present invention is to solve the problems described above, and provide a system and method for classifying hair follicles and estimating the severity of hair loss that can visually display the severity of hair loss and determine the severity of hair loss according to the state of hair loss. It is done.

본 발명의 다른 목적은 탈모의 상태에 따라 탈모의 유형을 판단할 수 있는 모낭 분류 및 탈모 심각도 추정 시스템 및 방법을 제공하는 것이다.Another object of the present invention is to provide a system and method for classifying hair follicles and estimating hair loss severity that can determine the type of hair loss according to the state of hair loss.

본 발명의 또 다른 목적은 탈모의 판단을 고속으로 정확하게 실행할 수 있는 모낭 분류 및 탈모 심각도 추정 시스템 및 방법을 제공하는 것이다.Another object of the present invention is to provide a system and method for classifying hair follicles and estimating hair loss severity that can accurately determine hair loss at high speed.

상기 목적을 달성하기 위해 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템은 두피의 영상을 수집하는 이미지 수집 모듈, 상기 이미지 수집 모듈에서 수집된 영상에 대해 모낭의 영역을 원형으로 추출하는 추출 모듈, 상기 추출 모듈에서 추출된 모낭의 영역에서 모낭의 상태를 판별하는 판별 모듈, 상기 추출 모듈에서 추출된 각각의 모낭의 영역과 상기 판별 모듈에서 판별된 모낭의 상태에 따라 이미지별 탈모의 심각도를 추정하는 추정 모듈, 상기 추정 모듈에서 추정된 탈모의 심각도에 대해 전체 두피의 탈모 심각도로 가시화하고, 정량화하여 표시하는 탈모 상태 판정 모듈을 포함하는 것을 특징으로 한다.In order to achieve the above object, the hair follicle classification and hair loss severity estimation system according to the present invention includes an image collection module that collects images of the scalp, an extraction module that extracts a circular area of the hair follicle for the images collected in the image collection module, A discrimination module that determines the state of hair follicles in the area of the hair follicles extracted from the extraction module, and an estimation that estimates the severity of hair loss for each image according to the area of each hair follicle extracted from the extraction module and the state of the hair follicles determined in the discrimination module. It is characterized in that it includes a hair loss status determination module that visualizes, quantifies, and displays the hair loss severity of the entire scalp with respect to the severity of hair loss estimated in the estimation module.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템에서, 상기 추출 모듈에서의 모낭의 영역 추출과 상기 판별 모듈에서의 모낭의 상태 판별은 동시에 실행되는 것을 특징으로 한다.In addition, in the hair follicle classification and hair loss severity estimation system according to the present invention, the extraction of the hair follicle area in the extraction module and the determination of the state of the hair follicle in the discrimination module are performed simultaneously.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템에서, 상기 추출 모듈은 ResNet(ResNet 50 또는 ResNet 101) 기반의 Mask R-CNN 기술을 적용하여 모낭의 영역을 원형으로 추출하는 것을 특징으로 한다.In addition, in the hair follicle classification and hair loss severity estimation system according to the present invention, the extraction module is characterized by extracting the hair follicle area in a circular shape by applying Mask R-CNN technology based on ResNet (ResNet 50 or ResNet 101).

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템에서, 상기 판별 모듈에서의 모낭의 상태 판별은 모낭의 수, 모발의 굵기 및 각 모낭의 모발 수에 따라 양호, 보통, 심각으로 판별하는 것을 특징으로 한다.In addition, in the hair follicle classification and hair loss severity estimation system according to the present invention, the condition of the hair follicles in the determination module is determined as good, normal, or severe depending on the number of hair follicles, the thickness of the hair, and the number of hairs in each hair follicle. do.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템에서, 상기 추정 모듈에서 심각도 추정은 하기 식에 의한 탈모 심각도 지수(P)를 추정하는 것에 의해 실행되며, In addition, in the hair follicle classification and hair loss severity estimation system according to the present invention, the severity estimation in the estimation module is performed by estimating the hair loss severity index (P) according to the following equation,

여기서, k 는 12곳의 위치를 의미하고, n은 모낭의 수를 의미하고, i는 i={1(심각), 2(보통), 3(양호)}의 3가지를 상태를 의미하고, α는 모낭의 상태에 대한 가중치를 의미하고, β는 전체 모낭의 수에 대한 가중치를 의미한다. 그리고 전체 값에 대한 결과를 normalize 함으로서 식 (1)을 통해 두피를 촬영한 12곳의 탈모 심각도를 0 ~ 1 사이값으로 산출하는 것을 특징으로 한다.Here, k refers to the 12 locations, n refers to the number of hair follicles, and i refers to the three conditions: i={1 (serious), 2 (normal), and 3 (good)}. α refers to the weight for the state of the hair follicles, and β refers to the weight for the total number of hair follicles. And by normalizing the results for the entire value, the hair loss severity of 12 areas where the scalp was photographed is calculated as a value between 0 and 1 through equation (1).

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템에서, 상기 심각의 판단은 모낭의 반지름이 10 픽셀 미만이고 모낭별 모발 수가 1개일 때이며 모발의 굵기가 3 픽셀 미만일 때로 판단하고, 상기 보통의 판단은 모낭의 반지름이 10 픽셀과 20 픽셀 사이이고 모낭별 모발 수가 1개일 때이며, 모발의 굵기가 3 픽셀에서 6 픽셀 사이일 때로 판단하고, 상기 양호의 판단은 모낭의 반지름이 20 픽셀 초과이고 모낭별 모발 수가 2개 이상이며, 모발의 굵기가 6 픽셀 초과일 때로 판단하는 것을 특징으로 한다.In addition, in the hair follicle classification and hair loss severity estimation system according to the present invention, the severity is judged when the radius of the hair follicle is less than 10 pixels, the number of hairs per follicle is 1, and the thickness of the hair is less than 3 pixels, and the normal judgment is It is judged when the radius of the hair follicle is between 10 pixels and 20 pixels, the number of hairs per follicle is 1, and the thickness of the hair is between 3 pixels and 6 pixels, and the above judgment of good is when the radius of the hair follicle is greater than 20 pixels and the number of hairs per follicle is It is characterized in that it is judged when the number is 2 or more and the thickness of the hair exceeds 6 pixels.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템에서, 상기 탈모 상태 판정 모듈에서 탈모 심각도의 가시화는 탈모 유형의 판단을 위해 히트맵으로 표시되고, 탈모 심각도는 0~1 사이의 값으로 정량화되는 것을 특징으로 한다.In addition, in the hair follicle classification and hair loss severity estimation system according to the present invention, the visualization of the hair loss severity in the hair loss status determination module is displayed as a heat map to determine the hair loss type, and the hair loss severity is quantified as a value between 0 and 1. It is characterized by

또한, 상기 목적을 달성하기 위해 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 방법은 (a) 마이크로 현미경(Dino-Lite)으로 이루어진 영상 촬영 장치를 이용하여 두피를 촬영하고 200배 배율로 두피 이미지를 수집하는 단계, (b) 상기 단계 (a)에서 수집된 이미지에 대해 추출 모듈에서 모낭의 영역을 원형으로 추출함과 동시에 판별 모듈에서 모낭의 상태를 판별하는 단계, (c) 상기 단계 (b)에서 모낭을 분류하여 모낭의 상태를 판별한 후, 각각의 모낭의 영역과 모낭의 상태에 따라 추정 모듈에서 이미지별 탈모의 심각도를 추정하는 단계, (d) 상기 단계 (c)에서 추정된 탈모의 심각도에 따라 탈모 상태 판정 모듈에서 가시화 및 정량화를 실행하는 단계를 포함하는 것을 특징으로 한다.In addition, in order to achieve the above object, the method of classifying hair follicles and estimating hair loss severity according to the present invention includes (a) photographing the scalp using an imaging device consisting of a micro microscope (Dino-Lite) and collecting scalp images at 200 times magnification; (b) extracting the hair follicle area as a circle in the extraction module for the image collected in step (a) and simultaneously determining the state of the hair follicle in the discrimination module, (c) in step (b) After classifying the hair follicles and determining the state of the hair follicles, estimating the severity of hair loss for each image in an estimation module according to the area of each hair follicle and the state of the hair follicles, (d) the severity of hair loss estimated in step (c) It is characterized in that it includes the step of executing visualization and quantification in the hair loss status determination module.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 방법에서, 상기 단계 (b)에서의 추출은 ResNet(ResNet 50 또는 ResNet 101) 기반의 Mask R-CNN 기술을 적용하여 모낭의 영역을 원형으로 추출하는 것을 특징으로 한다.In addition, in the hair follicle classification and hair loss severity estimation method according to the present invention, the extraction in step (b) involves extracting the hair follicle area in a circular shape by applying Mask R-CNN technology based on ResNet (ResNet 50 or ResNet 101). It is characterized by

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 방법에서, 상기 단계 (b)에서 모낭의 상태 판별은 모낭의 수, 모발의 굵기 및 각 모낭의 모발 수에 따라 양호, 보통, 심각으로 판별하고, 상기 단계 (c)에서 심각도 추정은 하기 식에 의한 탈모 심각도 지수(P)를 추정하는 것에 의해 실행되며, In addition, in the hair follicle classification and hair loss severity estimation method according to the present invention, the condition of the hair follicles in step (b) is determined as good, normal, or severe depending on the number of hair follicles, the thickness of the hair, and the number of hairs in each hair follicle, and In step (c), severity estimation is performed by estimating the hair loss severity index (P) according to the following equation,

여기서, k 는 12곳의 위치를 의미하고, n은 모낭의 수를 의미하고, i는 i={1(심각), 2(보통), 3(양호)}의 3가지를 상태를 의미하고, α는 모낭의 상태에 대한 가중치를 의미하고, β는 전체 모낭의 수에 대한 가중치를 의미한다. 그리고 전체 값에 대한 결과를 normalize 함으로서 식 (1)을 통해 두피를 촬영한 12곳의 탈모 심각도를 0 ~ 1 사이값으로 산출하는 것을 특징으로 한다.Here, k refers to the 12 locations, n refers to the number of hair follicles, and i refers to the three conditions: i={1 (serious), 2 (normal), and 3 (good)}. α refers to the weight for the state of the hair follicles, and β refers to the weight for the total number of hair follicles. And by normalizing the results for the entire value, the hair loss severity of 12 areas where the scalp was photographed is calculated as a value between 0 and 1 through equation (1).

상술한 바와 같이, 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템 및 방법에 의하면, 모낭의 영역을 원형으로 추출하는 추출 모듈, 모낭의 영역에서 모낭의 상태를 판별하는 판별 모듈, 이미지별 탈모의 심각도를 추정하는 추정 모듈을 마련하는 것에 의해 모낭을 감지하고 분류하는 효율적이고 정확한 방법과 딥 러닝 알고리즘을 사용하여 국소 및 두피 수준 탈모 심각도를 추정할 수 있다는 효과가 얻어진다.As described above, according to the hair follicle classification and hair loss severity estimation system and method according to the present invention, the extraction module for extracting the hair follicle area in a circular shape, the discrimination module for determining the state of the hair follicle in the hair follicle area, and the severity of hair loss for each image By providing an estimation module that estimates , an efficient and accurate method for detecting and classifying hair follicles and a deep learning algorithm can be used to estimate local and scalp level hair loss severity.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템 및 방법에 의하면, 두피 영상 촬영이 완료되면 개인의 탈모 상태를 정확하고 효율적으로 알려줄 수 있어 임상적 의미를 부여할 수 있다는 효과가 얻어진다.In addition, according to the system and method for classifying hair follicles and estimating hair loss severity according to the present invention, once scalp imaging is completed, the individual's hair loss status can be accurately and efficiently informed, giving the effect of giving clinical significance.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템 및 방법에 의하면, 히트맵을 사용하여 탈모의 전반적인 탈모 심각도 추정을 시각적으로 표현할 수 있다는 효과가 얻어진다.In addition, according to the hair follicle classification and hair loss severity estimation system and method according to the present invention, the effect of being able to visually express the overall hair loss severity estimate of hair loss using a heat map is obtained.

도 1은 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템의 블록도,
도 2는 본 발명에 따른 추출 모듈에서 Mask R-CNN으로 모낭 영역 추출 결과를 나타내는 도면,
도 3은 VIA(VGG Image Annotation)를 사용한 라벨링 결과를 나타내는 도면,
도 4는 이미지 수집 모듈에서 촬영된 이미지에 ResNet 101 기반의 Mask R-CNN 적용하여 모낭의 영역을 추출하고 그 상태를 판별한 결과를 나타내는 사진,
도 5는 본 발명에 따라 전체 두피의 탈모 심각도 가시화 및 정량화 결과를 나타내는 도면,
도 6은 본 발명에 따른 모낭 분류 및 탈모 심각도를 추정하는 과정을 설명하기 위한 공정도,
도 7은 본 발명에 적용되는 Mask-RCNN의 모델 아키텍처,
도 8은 ResNet 101과 ResNet 50을 비교한 훈련 데이터 세트(상부)와 테스트 데이터 세트(하부)의 모낭 분류 결과를 나타낸 도면,
도 9는 모낭 분류의 혼동행렬 결과를 나타내는 도면.
1 is a block diagram of a hair follicle classification and hair loss severity estimation system according to the present invention;
Figure 2 is a diagram showing the results of hair follicle area extraction using Mask R-CNN in the extraction module according to the present invention;
Figure 3 is a diagram showing the labeling results using VIA (VGG Image Annotation);
Figure 4 is a photo showing the results of extracting the hair follicle area and determining its status by applying Mask R-CNN based on ResNet 101 to the image taken by the image collection module;
Figure 5 is a diagram showing the results of visualizing and quantifying the severity of hair loss on the entire scalp according to the present invention;
Figure 6 is a process chart for explaining the process of classifying hair follicles and estimating hair loss severity according to the present invention;
Figure 7 shows the model architecture of Mask-RCNN applied to the present invention;
Figure 8 is a diagram showing the hair follicle classification results of the training data set (top) and test data set (bottom) comparing ResNet 101 and ResNet 50;
Figure 9 is a diagram showing the confusion matrix results of hair follicle classification.

본 발명의 상기 및 그 밖의 목적과 새로운 특징은 본 명세서의 기술 및 첨부 도면에 의해 더욱 명확하게 될 것이다.The above and other objects and new features of the present invention will become more clear by the description of this specification and the accompanying drawings.

본원에서 사용하는 용어 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 기계적 구성 또는 전기전자적 구성으로 이루어진 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다. The term “module” or “unit” used herein performs at least one function or operation, and may be implemented as hardware or software consisting of a mechanical or electrical or electronic configuration, or as a combination of hardware and software, and may be implemented as a plurality of functions or operations. A “module” or a plurality of “units” may be integrated into at least one module and implemented with at least one processor, except for a “module” or “unit” that needs to be implemented with specific hardware.

먼저, 본 발명에 적용되는 모낭 분류 및 탈모 심각도 추정을 위한 탈모에 관해 설명한다.First, hair loss for hair follicle classification and hair loss severity estimation applied to the present invention will be described.

안드로겐성 탈모(Androgenetic alopecia) 또는 안드로겐 디하이드로테스토스테론(Androgen dihydrotestosterone)의 존재에 의해 매개되는 탈모는 유전성 탈모를 말하며, 남성과 여성에서 가장 흔한 형태의 탈모(탈모증)로 전 세계 인구의 최대 50%에 영향을 미친다. 특히, 동양인 남성의 경우 전 연령 남성형 탈모증은 14.1%로 나이가 들수록 꾸준히 증가한다. 예를 들어, 원형 탈모증은 모발이 하나 또는 그 이상의 작은 덩어리로 빠지는 자가면역 질환으로, 30세 이전에 발병하여 일생에 걸쳐 흉터가 없는 형태의 탈모로 정의된다. 상태는 알려져 있지 않지만 다른 자가면역 질환이 있는 사람들에게 더 일반적이며, 동일한 과정으로 두피의 모발이 완전히 손실될 수 있다(전두 탈모증).Androgenetic alopecia, or hair loss mediated by the presence of androgen dihydrotestosterone, refers to hereditary hair loss and is the most common form of hair loss (alopecia) in men and women, affecting up to 50% of the world's population. It affects. In particular, in Asian men, the incidence of male pattern baldness at all ages is 14.1%, and it steadily increases with age. For example, alopecia areata is an autoimmune disease in which hair falls out in one or more small clumps, and is defined as a lifelong, non-scarring form of hair loss that begins before the age of 30. The condition is unknown, but is more common in people with other autoimmune diseases, and the same process can lead to complete loss of hair on the scalp (alopecia totalis).

또, 휴지기 탈모(Telogen effluvium)는 탈모의 두 번째로 흔한 형태로서, 모발이 자라는 모낭 수의 변화이며 두피의 모발이 가늘어지는 것과 관련이 있고, 두피 상단에서 더 많이 발생한다. 성장기 탈모(Anagen effluvium)는 탈모의 또 다른 형태이며 더 급격한 탈모를 초래한다. 외상성 탈모는 외부적 손상에 의하여 발생하는 탈모증으로서, 모발을 잡아당기는 미용 기술, 극도의 열에 모발 노출, 강한 화학 물질로 모발을 손상시키는 미용 기술(표백, 모발 염색, 퍼머넌트)로 인해 발생한다.Telogen effluvium is the second most common form of hair loss, and is a change in the number of hair follicles from which hair grows. It is associated with thinning of the hair on the scalp and occurs more frequently at the top of the scalp. Anagen effluvium is another form of hair loss that results in more rapid hair loss. Traumatic hair loss is alopecia caused by external damage, such as hair pulling, hair exposure to extreme heat, or strong chemicals that damage the hair (bleaching, hair dye, permanent).

또한, 탈모의 주요 원인으로서는 유전, 호르몬 변화, 당뇨병, 루푸스 등의 질병, 약물 및 보충제, 노화의 정상적인 부분이며 심한 스트레스나 정서적 외상에 의해서도 유발될 수 있다. 탈모는 유전에 의해 가장 흔하게 발생하며 나이가 들수록 더 흔해지고, 탈모의 유형, 중증도 및 진행에 대한 정확하고 시기 적절한 진단은 올바른 치료 및 중재 방법을 개발하고 탈모의 발병 또는 추가 진행을 지연시켜 보다 근본적인 의학적 치료 또는 수술 절차와 관련된 비용을 줄이는 데 필수적이다.In addition, major causes of hair loss include genetics, hormonal changes, diseases such as diabetes and lupus, medications and supplements, and a normal part of aging. It can also be caused by severe stress or emotional trauma. Hair loss is most commonly caused by heredity and becomes more common with age, and an accurate and timely diagnosis of the type, severity and progression of hair loss can help develop the right treatment and intervention methods and delay the onset or further progression of hair loss, leading to a more fundamental It is essential for reducing costs associated with medical treatment or surgical procedures.

임상 환경에서 널리 채택되고 실행되는 일반적인 탈모 진단 방법은 모발 뽑기 검사, 뽑기 검사, 두피 생검, 일일 모발 계수 또는 모발 확대경(trichoscopy) 검사다. 이 중 모발 확대경 검사는 두피와 모발의 특성을 분석하기 위해 컴퓨터 측정 도구를 사용하며 일반적으로 고정밀 현미경 카메라가 있는 소형 장치를 사용하여 두피와 모발의 사진을 찍고, 탈모의 진행을 객관적으로 진단하고 모니터링할 수 있는 수단을 제공하며, 두피의 총 모발 수와 모발의 각 가닥의 직경을 포함하여 모발 상태, 모낭 및 두피에 대한 정보를 제공한다. 따라서 모발 확대경 검사는 현재 탈모의 진단 및 예후에 가장 효과적인 방법으로 간주되고 있지만, 이 방법에는 모발 확대경의 디지털 이미지에 대한 시각적 검사에 크게 의존하며, 사람의 오류가 발생하기 쉽고 임상의마다 다른 결과를 초래하고, 개인을 교육하고 훈련시키는 데 많은 비용과 시간이 소요된다는 한계가 있다.Common hair loss diagnostic methods widely adopted and practiced in clinical settings are hair pluck testing, pluck testing, scalp biopsy, daily hair counting, or trichoscopy. Among these, hair colposcopy uses computer measuring tools to analyze the characteristics of the scalp and hair, and generally uses a small device with a high-precision microscope camera to take pictures of the scalp and hair, and objectively diagnose and monitor the progression of hair loss. It provides the means to do so and provides information about the hair condition, hair follicles, and scalp, including the total number of hairs on the scalp and the diameter of each hair strand. Therefore, although hair colposcopy is currently considered the most effective method for the diagnosis and prognosis of hair loss, this method relies heavily on visual inspection of digital images in the hair colposcope, is prone to human error, and produces different results from clinician to clinician. There is a limitation in that it takes a lot of money and time to educate and train individuals.

이러한 제한으로 인해 컴퓨터 기반 처리 및 분석, 특히 딥 러닝을 활용하는 고급 도구와 기술이 개발되고 있으며, 인공 신경망의 일종인 다층 피드포워드 신경망(Multilayer feed-forward neural network)은 성별, 연령, 유전적 요인, 수술, 임신, 아연 결핍, 철 결핍, 빈혈, 그리고 화장품의 사용과 같은 8가지 속성을 기반으로 탈모를 예측하는 역전파 알고리즘을 사용하였다. 이 방법은 Levenberg-Marquardt 알고리즘과 함께 사용되는 2계층 신경망에서 좋은 정확도를 보였다. SVM(Support Vector Machine) 분류기를 사용하여 여포(follicle) 감지를 위해 가우스 차이(DoG) 필터가 적용되었다. 그러나 이 방법은 오류가 발생하기 쉬운 미세한 두피 모발 이미지에서 선별된 기능에 크게 의존한다. 자율 모발 분할 및 계수 방식도 제안되었는데, 웨이브진 머리와 곱슬머리를 분류할 때 정확도가 95.3%, 재현율이 88.6%로 나타났지만, 마찬가지로 주요 단점은 수동 매개변수 선택이었다. Due to these limitations, advanced tools and techniques are being developed that leverage computer-based processing and analysis, especially deep learning, and multilayer feed-forward neural networks, a type of artificial neural network, are being developed based on gender, age, and genetic factors. , used a backpropagation algorithm to predict hair loss based on eight attributes: surgery, pregnancy, zinc deficiency, iron deficiency, anemia, and use of cosmetics. This method showed good accuracy in a two-layer neural network used with the Levenberg-Marquardt algorithm. A difference of Gaussian (DoG) filter was applied for follicle detection using a Support Vector Machine (SVM) classifier. However, this method relies heavily on features selected from microscopic scalp hair images, which are prone to errors. An autonomous hair segmentation and counting method was also proposed, which showed an accuracy of 95.3% and a recall of 88.6% when classifying wavy and curly hair, but similarly its main drawback was manual parameter selection.

다른 분류 방법, 예를 들어 현미경 이미지를 사용한 두피 얼룩 감지 및 모발 상태 평가, 얼굴 이미지에서 패턴화된 대머리 및 탈모 수준을 분류하는 딥 러닝 방법 또는 4가지 일반적인 두피 모발 증상(비듬)을 분류하는 딥 러닝 방법도 개발되었다. 그러나 모발 수를 세거나 모발의 각 가닥의 직경을 측정하는 것과 같이 국소 및 두피 수준의 탈모 심각성을 보다 포괄적으로 추론하는 것보다 정확하고 효율적이며 강력한 방법이 필요하다.Other classification methods, such as scalp stain detection and hair condition assessment using microscopic images, deep learning methods to classify patterned baldness and hair loss levels in facial images, or deep learning to classify four common scalp hair symptoms (dandruff). A method was also developed. However, more accurate, efficient, and robust methods are needed to more comprehensively infer hair loss severity at the local and scalp level, such as by counting the number of hairs or measuring the diameter of each strand of hair.

최근에는 격자선 선택과 고유값을 이용하여 현미경으로 촬영한 두피 영상을 결합하고 탈모의 진행 정도를 파악하여 탈모 특징을 추출하는 기술도 개발되었다. 또한, SVM(Support Vector Machine)과 KNN(k-nearest neighbor)을 사용하여 건강한 모발과 원형 탈모증을 분류하는 머신 러닝 모델도 개발되었다. EfficientDet, YOLOv4와 같은 다른 방법과 딥 러닝 기반 객체 감지를 사용하여 모낭의 모발 수와 유형을 측정하여 모발 밀도 평가 프로세스의 자동화 가능성을 테스트했습니다. 이러한 접근 방식의 일반적인 단점은 모발 수에 대한 잘못된 감지가 만연하고 모낭 감지의 부정확성 및 전체 두피 수준 탈모 심각도 추정이 부족하다.Recently, a technology has been developed to extract hair loss features by combining scalp images taken with a microscope using grid line selection and eigenvalues and identifying the progress of hair loss. Additionally, a machine learning model was developed to classify healthy hair and alopecia areata using SVM (Support Vector Machine) and KNN (k-nearest neighbor). We tested the possibility of automating the hair density assessment process by measuring the number and type of hairs in hair follicles using different methods such as EfficientDet, YOLOv4, and deep learning-based object detection. Common drawbacks of these approaches are the prevalence of false detection of hair counts, inaccuracy in hair follicle detection, and lack of full scalp-level hair loss severity estimation.

본 발명에서는 상술한 바와 같은 탈모 감지 알고리즘의 한계를 해결하기 위해 Mask R-CNN(Convolutional Neural Network) 프레임 워크와 멀티태스킹 딥러닝 방법을 적용하여 모낭을 분류하고 탈모의 심각도를 추정하는 지능형 시스템을 마련하였다. In order to solve the limitations of the hair loss detection algorithm as described above, the present invention applies the Mask R-CNN (Convolutional Neural Network) framework and multitasking deep learning method to provide an intelligent system that classifies hair follicles and estimates the severity of hair loss. did.

본 발명은 두피를 촬영하는 200배 배율의 마이크로 현미경(Dino-Lite Microscope)을 통해 두피의 12곳의 이미지를 수집하고 본 발명에서 개발한 Mask R-CNN 기반의 모낭 영역분할 기술을 적용하여 모낭의 수, 모발의 굵기 및 각 모낭의 모발 수를 판별하고, 멀티태스킹 딥러닝 기법을 적용하여 모낭별로 모낭의 상태를 3가지(양호, 보통, 심각)로 구분한다. 전단계에서 획득된 정보를 기초로 두피 12곳의 탈모 심각도를 0~1의 정규화된 값으로 산출하며, 이를 기초로 두피 전체의 탈모 심각도 가시화하고 이를 0~1 사이의 값으로 정량화 하였다.The present invention collects images of 12 areas of the scalp through a 200x magnification micro microscope (Dino-Lite Microscope) that photographs the scalp, and applies the hair follicle region segmentation technology based on Mask R-CNN developed in the present invention to determine the size of hair follicles. It determines the number, hair thickness, and number of hairs in each hair follicle, and applies multitasking deep learning techniques to classify the condition of each hair follicle into three types (good, normal, and serious). Based on the information obtained in the previous step, the hair loss severity in 12 areas of the scalp was calculated as a normalized value of 0 to 1, and based on this, the hair loss severity of the entire scalp was visualized and quantified as a value between 0 and 1.

이하, 본 발명에 따른 실시 예를 도면에 따라서 설명한다.Hereinafter, embodiments according to the present invention will be described with reference to the drawings.

도 1은 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템의 블록도이다.Figure 1 is a block diagram of a hair follicle classification and hair loss severity estimation system according to the present invention.

본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템은 도 1에 도시된 바와 같이, 두피의 영상을 수집하는 이미지 수집 모듈(100), 상기 이미지 수집 모듈(100)에서 수집된 영상에 대해 모낭의 영역을 원형으로 추출하는 추출 모듈(200), 상기 추출 모듈(200)에서 추출된 모낭의 영역에서 모낭의 상태를 판별하는 판별 모듈(300), 상기 추출 모듈(200)에서 추출된 각각의 모낭의 영역과 상기 판별 모듈(300)에서 판별된 모낭의 상태에 따라 이미지별 탈모의 심각도를 추정하는 추정 모듈(400), 상기 추정 모듈(400)에서 추정된 탈모의 심각도에 대해 전체 두피의 탈모 심각도로 가시화하고, 정량화하여 표시하는 탈모 상태 판정 모듈(500)을 포함할 수 있다.As shown in FIG. 1, the hair follicle classification and hair loss severity estimation system according to the present invention includes an image collection module 100 that collects images of the scalp, and an area of the hair follicle for the images collected by the image collection module 100. An extraction module 200 for extracting a circular shape, a determination module 300 for determining the state of a hair follicle in the area of the hair follicle extracted from the extraction module 200, an area of each hair follicle extracted from the extraction module 200, and An estimation module 400 that estimates the severity of hair loss for each image according to the state of the hair follicles determined in the determination module 300, and visualizes the severity of hair loss estimated in the estimation module 400 as the severity of hair loss on the entire scalp, , may include a hair loss status determination module 500 that quantifies and displays the hair loss status.

상기 이미지 수집 모듈(100)은 예를 들어, 마이크로 현미경(Dino-Lite)으로 이루어진 영상 촬영 장치를 포함할 수 있고, 두피 12곳의 영상정보를 200배 배율의 두피 이미지로 수집된다. 상기 이미지 수집 모듈(100)에서 수집된 이미지는 예를 들어, USB를 통해 추출 모듈(200)과 연결될 수 있으며, OpenCV와 Python 기술 적용하여 이미지를 실시간으로 전송 및 처리한다. 본 발명에 적용되는 수집 이미지는 총 600장 모두 25세~55세의 한국인 남자이고 이들의 다양한 두피 위치로부터 수집하여 사용되었다. For example, the image collection module 100 may include an image capture device consisting of a micro microscope (Dino-Lite), and image information from 12 locations on the scalp is collected as a scalp image with a magnification of 200 times. Images collected in the image collection module 100 can be connected to the extraction module 200 through, for example, USB, and the images are transmitted and processed in real time by applying OpenCV and Python technology. A total of 600 collected images applied to the present invention were of Korean men aged 25 to 55, and were collected from various scalp locations.

상기 추출 모듈(200)은 모낭의 영역을 원형으로 추출하기 위해 ResNet(ResNet 50 또는 ResNet 101) 기반의 Mask R-CNN 기술을 적용하여 도 2에 도시된 바와 같이, 모낭의 영역을 추출한다. 이를 위해 VIA(VGG Image Anotation Tool)을 사용하여 각 모낭의 영역을 도 3에 도시된 바와 같이 라벨링 하였다. 라벨링의 개수는 24,012이고, 이를 학습용과 검증용으로 3:1의 비율로 구분하여 Mask R-CNN 학습을 진행하였다. The extraction module 200 applies Mask R-CNN technology based on ResNet (ResNet 50 or ResNet 101) to extract the hair follicle area in a circular shape, as shown in FIG. 2. For this purpose, the area of each hair follicle was labeled using VIA (VGG Image Anotation Tool) as shown in Figure 3. The number of labeling was 24,012, and Mask R-CNN learning was conducted by dividing them into learning and verification purposes at a ratio of 3:1.

도 2는 본 발명에 따른 추출 모듈에서 Mask R-CNN으로 모낭 영역 추출 결과를 나타내는 도면이며, 도 3은 VIA(VGG Image Annotation)를 사용한 라벨링 결과를 나타내는 도면이다. 도 3에서는 VIA 도구를 사용하는 세 가지 분류의 레이블 체계를 나타내며, 도 3에서 0 및 빨간색 원은 "심각", 1 및 파란색 원은 "보통", 2 및 녹색 원은 "양호"를 나타낸다.Figure 2 is a diagram showing the results of hair follicle area extraction using Mask R-CNN in the extraction module according to the present invention, and Figure 3 is a diagram showing the labeling results using VIA (VGG Image Annotation). Figure 3 shows the labeling scheme for the three classifications using the VIA tool, where 0 and the red circle represent “severe,” 1 and the blue circle represent “moderate,” and 2 and the green circle represent “good.”

상기 판별 모듈(300)은 도 2 및 도 3에 도시된 모낭의 상태를 판별하며, 모낭의 상태는 심각, 보통, 양호의 3가지로 구분하였다. 이 3가지는 모발의 굵기, 모낭의 모발 수를 기초로 구분하였다. 예를 들어 심각의 경우는 모낭의 반지름이 10 픽셀 미만이고, 모낭별 모발 수가 1개일 때이며 모발의 굵기가 3 픽셀 미만일 때이다. 보통의 경우는 모낭의 반지름이 10 픽셀과 20 픽셀 사이이고 모낭별 모발 수가 1개 일 때이며, 모발의 굵기가 3 픽셀에서 6 픽셀 사이이다. 양호의 경우는 모낭의 반지름이 20 픽셀 초과이고 모낭별 모발 수가 2개 이상이며, 모발의 굵기가 6 픽셀 초과이다. The determination module 300 determines the condition of the hair follicles shown in FIGS. 2 and 3, and the condition of the hair follicles is classified into three types: serious, normal, and good. These three types were classified based on hair thickness and number of hairs in hair follicles. For example, in severe cases, the radius of the hair follicle is less than 10 pixels, the number of hairs per follicle is 1, and the thickness of the hair is less than 3 pixels. In a normal case, the radius of the hair follicle is between 10 pixels and 20 pixels, the number of hairs per follicle is 1, and the thickness of the hair is between 3 pixels and 6 pixels. In the case of good, the radius of the hair follicle is more than 20 pixels, the number of hairs per follicle is 2 or more, and the thickness of the hair is more than 6 pixels.

상기 판별 모듈(300)은 추출 모듈(200)에 의해 추출된 영역에서 모발의 굵기와 모낭의 모발 수를 기초로 멀티태스킹 딥러닝 기술을 적용하여 도 4에 도시된 바와 같이, 각 모낭의 상태를 양호, 보통, 그리고 심각의 3가지 단계로 판별한다. The determination module 300 applies multitasking deep learning technology based on the thickness of the hair and the number of hairs in the hair follicle in the area extracted by the extraction module 200 to determine the state of each hair follicle, as shown in FIG. It is classified into three levels: good, normal, and serious.

도 4는 이미지 수집 모듈에서 촬영된 이미지에 ResNet 101 기반의 Mask R-CNN 적용하여 모낭의 영역을 추출하고 그 상태를 판별한 결과를 나타내는 사진이다. 도 4의 (a) 내지 (f)에서는 각각 양호 내지 심각 탈모 등급을 나타내었다. 도 4에서 빨간색 원은 심각 라벨, 파란색 원은 보통 라벨, 녹색 원은 양호 라벨을 나타내며, 보라색 원은 두 개의 매우 인접한 모낭(심각 및 보통)의 분류가 다르기 때문에 나타난다. 또한, 각 이미지에서 해당 예측 라벨이 있는 바운딩 박스는 신뢰 확률로 표시된다. Figure 4 is a photograph showing the results of extracting the hair follicle area and determining its condition by applying Mask R-CNN based on ResNet 101 to the image captured by the image collection module. Figures 4 (a) to (f) show good to severe hair loss grades, respectively. In Figure 4, the red circle represents the severe label, the blue circle represents the normal label, the green circle represents the good label, and the purple circle appears because the classification of two very adjacent hair follicles (severe and normal) is different. Additionally, the bounding box with the corresponding predicted label in each image is indicated with a confidence probability.

상기 추정 모듈(400)은 이미지별 탈모 심각도를 추정하기 위해 마련되며, 각각의 모낭의 영역과 모낭의 상태를 판별한 기초로, 하기 식(1)을 적용하여 촬영된 부위의 탈모 심각도 지수(P)를 추정한다. 탈모의 심각도는 3가지 모낭 상태별 모낭의 수와 전체 모낭의 수를 기초로 산출된다.The estimation module 400 is provided to estimate the hair loss severity for each image, and on the basis of determining the area of each hair follicle and the state of the hair follicle, the hair loss severity index (P ) is estimated. The severity of hair loss is calculated based on the number of hair follicles for each of the three hair follicle conditions and the total number of hair follicles.

… (1) … (One)

여기서, k 는 12곳의 위치를 의미하고, n은 모낭의 수를 의미하고, i는 i={1(심각), 2(보통), 3(양호)}의 3가지를 상태를 의미하고, α는 모낭의 상태에 대한 가중치를 의미하고, β는 전체 모낭의 수에 대한 가중치를 의미한다. 그리고 전체 값에 대한 결과를 normalize 함으로서 식 (1)을 통해 두피를 촬영한 12곳의 탈모 심각도를 0 ~ 1 사이값으로 산출할 수 있다. Here, k refers to the 12 locations, n refers to the number of hair follicles, and i refers to the three conditions: i={1 (serious), 2 (normal), and 3 (good)}. α refers to the weight for the state of the hair follicles, and β refers to the weight for the total number of hair follicles. And by normalizing the results for the entire value, the hair loss severity of 12 areas where the scalp was photographed can be calculated as a value between 0 and 1 through equation (1).

상기 탈모 상태 판정 모듈(500)은 이미지 수집 모듈(100)에 의해 수집된 전체 두피의 12곳의 탈모 심각도를 0~1 사이의 값으로 추정하고 도 5에 도시된 바와 같이, 이를 가시화한다. The hair loss status determination module 500 estimates the severity of hair loss in 12 areas of the entire scalp collected by the image collection module 100 as a value between 0 and 1 and visualizes it as shown in FIG. 5.

도 5는 본 발명에 따라 전체 두피의 탈모 심각도 가시화 및 정량화 결과를 나타내는 도면이다. 도 5의 (a) 및 (d)는 전반적인 양호 상태, 도 5의 (b) 및 (e)는 중간 정도의 탈모 상태, 도 5의 (c) 및 (f)는 심한 탈모 상태를 가진 대상의 대표적인 평면도 머리 사진 및 각각의 탈모 심각도의 히트맵(heatmap)이다. 도 5의 상부에는 두피의 여러 위치에서 촬영한 이미지와 함께 국소 탈모 심각도 지수(P)가 표시된다. 양호, 중등 탈모, 심각 탈모에 대한 탈모 심각도 추정치 Pavg는 각각 0.879, 0.565, 0.160으로 탈모가 진행됨에 따라 점차적으로 감소하는 수치를 나타낸다.Figure 5 is a diagram showing the results of visualizing and quantifying the severity of hair loss on the entire scalp according to the present invention. Figures 5 (a) and (d) show an overall good condition, Figures 5 (b) and (e) show a subject with moderate hair loss, and Figures 5 (c) and (f) show a subject with severe hair loss. Representative top view head photos and heatmaps of each hair loss severity. The upper part of Figure 5 displays the local hair loss severity index (P) along with images taken at various locations on the scalp. The hair loss severity estimates P avg for good, moderate, and severe hair loss are 0.879, 0.565, and 0.160, respectively, indicating values that gradually decrease as hair loss progresses.

도 5에 도시된 바와 같이, 본 발명에 따른 탈모 상태 판정 모듈(500)에서 가시화는 두피 전체를 하나의 라운드 사각형으로 가정하고 각각의 위치별 심각도 값과 그 사이의 값을 2차원 보간법을 적용하여 추정한다. 이러한 결과를 기초로 탈모의 심각도 히트맵을 출력한다. 또한, 12개의 위치별 심각도 값의 평균값을 통해 현재 탈모 심각도를 0~1 사이의 값으로 정량화할 수 있다. 상술한 바와 같은 히트맵은 시스템에 마련된 표시 부재에 표시할 수 있다.As shown in Figure 5, visualization in the hair loss status determination module 500 according to the present invention assumes the entire scalp as one round rectangle and applies two-dimensional interpolation to the severity value for each location and the values between them. estimate. Based on these results, a heat map of the severity of hair loss is output. Additionally, the current hair loss severity can be quantified as a value between 0 and 1 through the average of the severity values for each 12 locations. The heat map as described above can be displayed on a display member provided in the system.

한편, 상기 설명에서는 추출 모듈(200), 판별 모듈(300), 추정 모듈(400), 탈모 상태 판정 모듈(500)을 각각 분리하여 설명하였지만, 이에 한정되는 것은 아니고 컴퓨터 시스템에 마련된 프로그램 등에 의해 연속적으로 실행될 수 있다. 즉, 이미지 수집 모듈(100)에 의해 수집된 이미지가 USB를 통해 컴퓨터 시스템에 실시간으로 전송되고, 상술한 추출 모듈(200), 판별 모듈(300), 추정 모듈(400) 및 탈모 상태 판정 모듈(500)에서 Mask R-CNN 기반의 모낭 영역 분할 기술이 적용되어 도 5에 도시된 바와 같은 탈모 심각도를 표시 부재에 표시되게 마련될 수 있다.Meanwhile, in the above description, the extraction module 200, the determination module 300, the estimation module 400, and the hair loss status determination module 500 are described separately, but are not limited thereto and are continuously operated by a program provided in the computer system, etc. It can be executed with . That is, the image collected by the image collection module 100 is transmitted in real time to the computer system via USB, and the above-described extraction module 200, determination module 300, estimation module 400, and hair loss status determination module ( In 500), the hair follicle area segmentation technology based on Mask R-CNN is applied to display the severity of hair loss as shown in FIG. 5 on the display member.

또 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템에서는 도 2에 도시된 바와 같은 모낭의 영역 추출 및 도 3에 도시된 바와 같은 모낭의 상태 판별을 동시에 실행하여 탈모의 판단을 고속으로 정확하게 실행할 수 있다. 또한, 도 5에 도시된 바와 같이, 탈모 심각도를 히트맵으로 표시 부재에 표시하여 탈모의 유형을 판단할 수 있다.In addition, in the hair follicle classification and hair loss severity estimation system according to the present invention, hair loss can be determined at high speed and accurately by simultaneously extracting the hair follicle area as shown in FIG. 2 and determining the condition of the hair follicle as shown in FIG. 3. . Additionally, as shown in Figure 5, the type of hair loss can be determined by displaying the severity of hair loss on a display member as a heat map.

한편, 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템은 카메라 기능을 구비한 스마트 폰과 같은 사용자 단말을 통해 사용자 개인이 구비할 수 있도록 구성되거나, 성형외과 또는 미용실, 이용원 등의 모발 케어 숍과 같은 다양한 모발 전문 관리 기관이나 서비스 숍(shop) 등에 장착되어 사용될 수 있다.On the other hand, the hair follicle classification and hair loss severity estimation system according to the present invention is configured to be provided by individual users through a user terminal such as a smart phone equipped with a camera function, or can be provided by a hair care shop such as a plastic surgery clinic, beauty salon, or Lee Yong-won. It can be installed and used in various hair care institutions or service shops.

다음에 도 1에 도시된 바와 같은 모낭 분류 및 탈모 심각도 추정 시스템을 적용하여 탈모의 심각도를 추정하는 방법에 대해 도 6 및 도 7을 참조하여 설명한다.Next, a method of estimating the severity of hair loss by applying the hair follicle classification and hair loss severity estimation system shown in FIG. 1 will be described with reference to FIGS. 6 and 7.

도 6은 본 발명에 따른 모낭 분류 및 탈모 심각도를 추정하는 과정을 설명하기 위한 공정도이고, 도 7은 본 발명에 적용되는 Mask-RCNN의 모델 아키텍처이다. Figure 6 is a process diagram for explaining the process of classifying hair follicles and estimating hair loss severity according to the present invention, and Figure 7 is the model architecture of Mask-RCNN applied to the present invention.

본 발명에 따른 모낭 분류 및 탈모 심각도를 추정하기 위해, 먼저 도 6 및 도 7에 도시된 바와 같이, 이미지 수집 모듈(100)에서 마이크로 현미경(Dino-Lite)으로 이루어진 영상 촬영 장치를 이용하여 두피 12곳을 촬영하고 200배 배율로 두피 이미지를 수집한다(S10). In order to classify hair follicles and estimate hair loss severity according to the present invention, first, as shown in FIGS. 6 and 7, the scalp 12 is captured using an imaging device consisting of a micro microscope (Dino-Lite) in the image collection module 100. Photograph the area and collect scalp images at 200x magnification (S10).

다음에, 추출 모듈(200)에서 ResNet(ResNet 50 또는 ResNet 101) 기반의 Mask R-CNN 기술을 적용하여 도 2에 도시된 바와 같이, 두피 12곳을 촬영한 이미지에서 모낭의 영역을 원형으로 추출함과 동시에 판별 모듈(300)에서 모낭의 상태를 판별한다(S20).Next, the extraction module 200 applies Mask R-CNN technology based on ResNet (ResNet 50 or ResNet 101) to extract the hair follicle area in a circular shape from images taken of 12 scalp locations, as shown in Figure 2. At the same time, the status of the hair follicle is determined in the determination module 300 (S20).

상기 단계 S20에 적용되는 Mask R-CNN은 딥 러닝 및 이미지 분할을 사용하는 객체 감지 및 위치 파악 알고리즘 중 하나로 의료 및 산업 응용 프로그램과 같은 다양한 분야에서 사용되고 있다. 이러한 Mask R-CNN은 Faster R-CNN의 확장으로 두 단계로 구성된다. 첫 번째 단계는 이미지를 확인한 다음 제안을 생성하고, 두 번째 단계는 제안을 분류하고 마스크와 바운딩 박스(bounding boxes)를 생성한다. 또한, 박스 회귀 및 분류를 통해 객체의 영역 제안을 수행하고, 이미지가 해당하는 클래스를 분류한다. Mask R-CNN의 백본 네트워크는 ResNet 50과 ResNet 101을 채택하였다. ResNet 50은 50개의 네트워크 레이어로 2,560만 개의 파라미터로 동작하며, ResNet 101보다 훈련 속도와 알고리즘 실행이 빠른 장점이 있다. 반면에 ResNet 101은 101개의 네트워크 레이어를 가진 4,450만 개의 매개변수에서 작동하므로 훈련 및 알고리즘 실행 속도는 정확도를 높이는 대신 ResNet 50보다 상대적으로 느리다.Mask R-CNN, applied in step S20, is one of the object detection and localization algorithms that uses deep learning and image segmentation and is used in various fields such as medical and industrial applications. This Mask R-CNN is an extension of Faster R-CNN and consists of two stages. The first step checks the image and then generates suggestions, and the second step classifies the suggestions and creates masks and bounding boxes. In addition, we perform region proposal of the object through box regression and classification, and classify the class to which the image corresponds. Mask R-CNN's backbone network adopted ResNet 50 and ResNet 101. ResNet 50 operates with 50 network layers and 25.6 million parameters, and has the advantage of faster training speed and faster algorithm execution than ResNet 101. On the other hand, ResNet 101 operates on 44.5 million parameters with 101 network layers, so the training and algorithm execution speed is relatively slower than ResNet 50 at the expense of increasing accuracy.

따라서, 본 발명에서는 입력 이미지의 크기를 조정한 후 데이터는 COCO 데이터 세트에서 사전 훈련된 ResNet 101을 사용하여 특징 추출기를 전달한다. 다음으로, 특징 맵을 얻은 후 관심 영역(ROI)은 특징 맵에서 관련 영역을 찾기 위해 정렬된다. 신경망의 여러 계층이 다양한 규모의 기능을 학습하도록 한다. 헤드에서 마스크, 바운딩 박스 회귀 및 분류의 세 가지 분기가 포함된다. 훈련을 위해 헤드가 N 번 미세 조정되면, 사전 훈련된 가중치가 고정되고 이후 훈련 가능한 모든 레이어가 N번 훈련된다.Therefore, in the present invention, after resizing the input image, the data is passed to a feature extractor using ResNet 101 pre-trained on the COCO data set. Next, after obtaining the feature maps, the regions of interest (ROIs) are sorted to find relevant regions in the feature maps. It allows multiple layers of a neural network to learn features at different scales. It includes three branches: head to mask, bounding box regression, and classification. For training, the head is fine-tuned N times, the pre-trained weights are fixed and all trainable layers are subsequently trained N times.

도 7에 도시된 프로세스에서는 먼저 ResNet 모델을 입력 영상의 특징 추출기로 사용하고 추출된 특징을 바운딩 박스 회귀에 사용한다. 다음에 훈련된 모델은 모낭을 클래스별로 국부화 및 분류하여 특징 인자를 추출하는 과정을 구현한다. 모낭의 상태, 즉 단위 면적당 모발의 수에 따라 각 등급을 구분하여 결과를 얻은 후 평균값을 취하였다. 위와 같은 과정을 거친 후 추출된 특징 인자의 분포를 분석하여 양호, 보통, 심각의 3단계로 구분하며, 각 모낭에 대한 점수가 계산되고 0에서 1 사이의 범위로 정규화된다.In the process shown in Figure 7, the ResNet model is first used as a feature extractor of the input image, and the extracted features are used for bounding box regression. Next, the trained model implements the process of localizing and classifying hair follicles by class and extracting feature factors. Each grade was classified according to the condition of the hair follicles, that is, the number of hairs per unit area, the results were obtained, and the average value was taken. After going through the above process, the distribution of the extracted feature factors is analyzed and classified into three levels: good, normal, and severe. The score for each hair follicle is calculated and normalized to a range between 0 and 1.

라벨링 기준은 모낭의 수, 모발의 굵기 및 각 모낭의 모발 수의 3가지 요소에 의해 결정한다. 심각 라벨은 모낭의 반지름이 10 픽셀 미만이고, 모낭별 모발 수가 1개일 때이며 모발의 굵기가 3 픽셀 미만일 때이다. 보통 라벨은 모낭의 반지름이 10 픽셀과 20 픽셀 사이이고 모낭별 모발 수가 1개 일 때이며, 모발의 굵기가 3 픽셀에서 6 픽셀 사이이다. 양호 라벨은 모낭의 반지름이 20 픽셀 초과이고 모낭별 모발 수가 2개 이상이며, 모발의 굵기가 6 픽셀 초과인 경우를 나타낸다. 또한, 본 발명에서 훈련 모델은 탈모 정도에 초점을 맞추었기 때문에 붉은 반점, 유분, 각질 등 다른 요인은 고려하지 않고 학습을 진행하였다.Labeling standards are determined by three factors: number of hair follicles, hair thickness, and number of hairs in each follicle. The serious label is when the radius of the hair follicle is less than 10 pixels, the number of hairs per follicle is 1, and the thickness of the hair is less than 3 pixels. Usually, the label is used when the radius of the hair follicle is between 10 pixels and 20 pixels, the number of hairs per follicle is 1, and the thickness of the hair is between 3 pixels and 6 pixels. A good label indicates that the radius of the hair follicle is more than 20 pixels, the number of hairs per follicle is 2 or more, and the thickness of the hair is more than 6 pixels. Additionally, because the training model in the present invention focused on the degree of hair loss, learning was conducted without considering other factors such as red spots, oil, and dead skin cells.

한편, 여성의 탈모는 일반적으로 남성보다 덜 심각하기 때문에 두피의 다양한 위치에서 연령대에 걸쳐 남성(모두 아시아인)의 이미지만 수집했다. 또한, 데이터 획득 당시 머리 쪽 탈모와 구레나룻이 만연하지 않아 주로 두피의 상부에서 데이터를 획득하였다. 10명의 남성(25세에서 55세 사이)으로부터 총 600개의 이미지를 수집하고 각 이미지에 대한 데이터 라벨링을 임상의가 수행하여 이미지당 10~45개의 영역 주석이 생성되었다. 총 라벨 수는 24,012개였으며, 이 중 심각 3,836개, 보통 11,262개, 양호 8,914개였다.Meanwhile, because hair loss in women is generally less severe than in men, we only collected images of men (all Asian) across age groups and at various locations on the scalp. Additionally, at the time of data acquisition, hair loss on the head and sideburns were not prevalent, so data were mainly obtained from the upper part of the scalp. A total of 600 images were collected from 10 men (aged between 25 and 55 years), and data labeling for each image was performed by a clinician, resulting in 10 to 45 region annotations per image. The total number of labels was 24,012, of which 3,836 were serious, 11,262 were normal, and 8,914 were good.

데이터 세트의 훈련 대 테스트 비율은 0.75에서 0.25로 설정되고, VIA(VGG Image Annotation) 도구는 마스크 주석(감지된 각 모낭 주위의 원형 경계)에 사용되었으며 각 모낭에 대해 수행된 정확한 라벨링은 도 3에 도시된 바와 같이, 여러 임상의에 의해 검증되었다.The training to test ratio of the dataset was set from 0.75 to 0.25, VGG Image Annotation (VIA) tool was used for mask annotation (circular border around each detected hair follicle) and the exact labeling performed for each hair follicle is shown in Figure 3 As shown, it was validated by several clinicians.

또한, 상기 단계 S20에서 모낭의 상태를 판별하기 위한 훈련은 Ubuntu 18.04 5 LTS 환경에서 Nvidia Titan x3 및 32GB RAM이 장착된 AMD Ryzen 9 3950X 16코어 프로세서에서 실행되는 TensorFlow v2 프레임워크를 사용하여 수행되었다. 한편, 옵티마이저로 ADAM(Adaptive Moment Estimation)을 사용하여 프로세스 간의 배치 크기는 25, 학습률은 1x10-4 였다. 모델 훈련은 COCO 데이터 세트에 대해 사전 훈련된 ResNet 모델을 미세 조정하여 수행되었다. 머리는 50 epoch, 나머지 전신은 50 epoch를 훈련시킨 후 bbox loss가 수렴하여 그 지점에서 훈련을 종료하였다. 450개의 이미지가 훈련에 사용된 반면(데이터의 75%), 150개의 이미지가 테스트에 사용되었다(데이터의 25%). 또한, 본 발명에서는 모낭의 건강 상태를 감지하고 분류할 수 있는 인스턴스 분할을 수행했습니다. 지역적 맥락, 즉 이미지를 가져온 두피의 부분을 고려하지 않고 전체 데이터 세트에서 무작위로 선택된 이미지로 훈련을 수행했다는 점은 주목할 가치가 있다.In addition, training to determine the status of hair follicles in step S20 was performed using the TensorFlow v2 framework running on an AMD Ryzen 9 3950X 16-core processor equipped with Nvidia Titan x3 and 32GB RAM in an Ubuntu 18.04 5 LTS environment. Meanwhile, using ADAM (Adaptive Moment Estimation) as the optimizer, the batch size between processes was 25 and the learning rate was 1x10 -4 . Model training was performed by fine-tuning a pre-trained ResNet model on the COCO dataset. After training the head for 50 epochs and the rest of the body for 50 epochs, the bbox loss converged and training was terminated at that point. 450 images were used for training (75% of the data), while 150 images were used for testing (25% of the data). Additionally, the present invention performed instance segmentation, which can detect and classify the health status of hair follicles. It is worth noting that training was performed on randomly selected images from the entire dataset without considering the local context, i.e. the part of the scalp from which the images were taken.

또, 상기 단계 S20에서 모낭의 상태를 판별하기 위한 모델 훈련 및 테스트에 사용된 테스트 이미지의 정확도와 품질을 개선하기 위해 데이터 증강(Data augmentation)이 수행되었다. 먼저, 테스트 이미지의 일관성을 위해 밝기와 대비를 조정하여 이미지 캡처 중 주변광의 차이를 보정한다. 다음에, 이미지 수집 모듈(100)에서의 카메라 앵글로 인해 테스트 이미지가 뒤집히거나 기울어진 경우 데이터의 정규성을 향상시키기 위해 적절한 보정을 하였다. 마지막으로 모델의 이미지 인식 성능을 향상시키기 위해 가우시안 블러(Gaussian Blur)를 사용하였다. 이러한 단계를 통해 이미지의 유용성과 정확성이 향상되어 모델 훈련 및 테스트의 성능과 효율성이 향상되었다. 모낭의 바운딩 박스는 하기 식 (2) 및 (3)에 따라 모낭의 너비와 높이를 기준으로 생성되었다. In addition, data augmentation was performed to improve the accuracy and quality of the test image used for model training and testing to determine the state of the hair follicle in step S20. First, adjust brightness and contrast to compensate for differences in ambient light during image capture for consistency in test images. Next, if the test image was flipped or tilted due to the camera angle in the image acquisition module 100, appropriate correction was made to improve the normality of the data. Lastly, Gaussian Blur was used to improve the model's image recognition performance. These steps improved the usefulness and accuracy of the images, improving the performance and efficiency of model training and testing. The bounding box of the hair follicle was created based on the width and height of the hair follicle according to equations (2) and (3) below.

… (2) … (2)

… (3) … (3)

또한, 하기 식 (3)의 부분최소자승법(PLS)과 함께 모낭수를 이용한 모발수를 탈모의 심각도를 측정하는 지표로 사용하였다.In addition, the number of hairs using the number of hair follicles along with the partial least squares (PLS) method of equation (3) below was used as an indicator to measure the severity of hair loss.

… (4) … (4)

상기 식 (2) 내지 (4)에서, m, n은 각각 모낭의 수, 훈련 데이터 세트의 이미지 수를 나타내고, Areaij는 각 모낭당 바운딩 박스의 면적으로 계산되고, yij는 각 모낭에 대한 예측 라벨이다. 따라서 PLS는 바운딩 박스의 면적을 고려한 각 이미지의 가중치 합으로 계산된다.In the above equations (2) to (4), m and n represent the number of hair follicles and the number of images in the training data set, respectively, Area ij is calculated as the area of the bounding box for each hair follicle, and y ij is for each hair follicle. It is a prediction label. Therefore, PLS is calculated as the weighted sum of each image considering the area of the bounding box.

Mask R-CNN의 멀티태스킹 손실 함수는 분류, 지역화 및 세분화 마스크의 손실의 결합이다. 즉, L = Lcls + Lbox + Lmask 이다. 여기서 Lcls와 Lbox는 Faster R-CNN과 동일하다. 마스크 분기는 각 ROI 및 각 클래스(총 k 클래스)에 대해 m×m 차원의 마스크를 생성한다. 따라서 총 출력은 Km2 크기이다. 모델이 클래스별로 마스크를 학습하기 때문에 마스크 생성을 위한 클래스 간 경쟁이 없다. Lmask는 평균 이진 교차 엔트로피 손실로 정의되며, 영역이 그라운드 트루(ground truth) 클래스 k와 연결된 경우 k번째 마스크만 포함한다. 각 마스크 계산에 사용된 상세한 손실은 하기 식 (5)와 같다.The multitasking loss function of Mask R-CNN is a combination of the losses of classification, localization, and segmentation masks. That is, L = L cls + L box + L mask . Here, L cls and L box are the same as Faster R-CNN. Mask branching creates a mask of dimension m×m for each ROI and each class (k classes in total). Therefore, the total output is of size Km 2 . Because the model learns masks for each class, there is no competition between classes to generate masks. L mask is defined as the average binary cross-entropy loss and contains only the kth mask if the region is associated with the ground truth class k. The detailed loss used in each mask calculation is given in Equation (5) below.

… (5) … (5)

여기서 yij는 m×m 크기의 영역에 대한 실제 마스크에서 셀의 라벨(i, j)이며, 는 그라운드 트루 클래스 k에 대해 학습된 마스크에서 동일한 셀의 예측 값이다.where y ij is the label (i, j) of the cell in the actual mask for an area of size m×m, is the predicted value of the same cell in the mask learned for ground true class k.

바운딩 박스는 ResNet 101을 특징 추출기로 사용하여 훈련된 Mask R-CNN의 테스트 결과의 사진인 도 4와 같이 모낭의 크기에 따라 적응적으로 크기를 변경한다. 도 4에 도시된 바와 같이, 각 이미지의 크기가 조금씩 다르기 때문에 모든 이미지는 1,024 픽셀의 일관된 너비로 크기를 조정한 후 처리하고, 훈련용 주석 마스크에도 동일한 스케일링을 적용하였다. 다음 과정에서 Mask R-CNN을 적용하였다. 먼저, 모발의 건강상태를 3등급(양호, 보통, 심각)으로 분류한 후, 해당 라벨 정보를 바탕으로 훈련을 진행하였다. 다음으로, 모낭 검출을 통해 모낭의 수와 모발 상태로 탈모 정도를 평가하였다. 모발 분포와 탈모는 두피의 다른 영역에 따라 다르기 때문에 데이터는 두피의 12가지 다른 위치에서 수집하였다. 모델 추론 단계에서 각 이미지는 모낭의 감지, 위치 파악 및 분류를 포함하여 결과를 처리하고 출력하는 데 약 2분이 걸렸으며 이는 합리적으로 빠르고 효율적입니다.The bounding box adaptively changes its size according to the size of the hair follicle, as shown in Figure 4, which is a photo of the test result of Mask R-CNN trained using ResNet 101 as a feature extractor. As shown in Figure 4, because the size of each image is slightly different, all images were processed after being resized to a consistent width of 1,024 pixels, and the same scaling was applied to the annotation mask for training. Mask R-CNN was applied in the next process. First, the health status of the hair was classified into 3 levels (good, normal, serious), and then training was conducted based on the corresponding label information. Next, the degree of hair loss was evaluated based on the number of hair follicles and hair condition through hair follicle detection. Because hair distribution and hair loss vary in different areas of the scalp, data were collected from 12 different locations on the scalp. During the model inference phase, each image took approximately 2 minutes to process and output the results, including detection, localization, and classification of hair follicles, which is reasonably fast and efficient.

또 상기 단계 S20에서, Mask R-CNN을 사용한 모낭 분류에는 ResNet 50과 ResNet 101의 두 가지 모델이 사용되었다. 이 두 모델의 성능은 딥 러닝 모델의 성능 평가에 일반적으로 사용되는 4가지 활용 지표(정밀도, 재현율, f1 점수 및 정확도)를 사용하여 훈련 및 테스트 데이터 세트에 대해 평가되었다. 전반적으로 훈련 및 테스트 데이터 세트 모두에 대해 평가된 모든 활용 지표에서 ResNet 101은 ResNet 50에 비해 2배 더 많은 레이어와 1.7배 더 많은 매개변수 수로 인해 ResNet50을 능가했다.Also, in step S20, two models, ResNet 50 and ResNet 101, were used to classify hair follicles using Mask R-CNN. The performance of these two models was evaluated on training and test datasets using four utility metrics commonly used to evaluate the performance of deep learning models: precision, recall, f1 score, and accuracy. Overall, in all utilization metrics evaluated for both training and test datasets, ResNet 101 outperformed ResNet50 due to having 2x more layers and 1.7x more parameters compared to ResNet 50.

또한, 각 모델의 성능은 훈련 및 테스트 데이터 세트에 대해 각 라벨에 대해 도 8에 도시된 바와 같이, 개별적으로 평가하였다. 도 8은 ResNet 101과 ResNet 50을 비교한 훈련 데이터 세트(상부)와 테스트 데이터 세트(하부)의 모낭 분류 결과를 나타낸 도면이다.Additionally, the performance of each model was evaluated separately for each label on the training and test data sets, as shown in Figure 8. Figure 8 is a diagram showing the hair follicle classification results of the training data set (top) and test data set (bottom) comparing ResNet 101 and ResNet 50.

결과는 도 8에서 알 수 있는 바와 같이, 훈련 및 테스트 데이터 세트 모두에 대해 세 가지 라벨 모두에서 ResNet 50보다 ResNet 101의 우수한 성능을 확인하였다. 훈련 데이터 세트에서 ResNet 50은 66%에서 74%에 도달한 반면 ResNet 101은 82%에서 87%에 도달했다. 테스트 데이터 세트에서 ResNet 50은 55%에서 72%에 도달한 반면 ResNet 101은 76%에서 86%에 도달했다. ResNet 101에서는 66%~70%, ResNet 50에서는 55%~67%의 심각(severe) 라벨에 대해 보통(normal) 및 양호(healthy) 두 라벨과 비교하여 비교적 낮은 성능이 관찰되었다. 이것은 보통(11,262) 및 양호(8,914)보다 더 적은 심각(3,836)의 샘플 때문일 수도 있다.As can be seen in Figure 8, the results confirmed the superior performance of ResNet 101 over ResNet 50 in all three labels for both training and test data sets. On the training dataset, ResNet 50 reached 66% to 74%, while ResNet 101 reached 82% to 87%. On the test dataset, ResNet 50 reached 55% to 72%, while ResNet 101 reached 76% to 86%. Relatively low performance was observed for the severe label of 66% to 70% in ResNet 101 and 55% to 67% in ResNet 50 compared to both normal and healthy labels. This may be due to the smaller sample of severe (3,836) than moderate (11,262) and good (8,914).

또한, 훈련 데이터 세트와 테스트 데이터 세트 모두에 대해 두 모델 간의 오분류 비율을 비교하기 위해 도 9에 도시된 바와 같은 혼동 행렬(Confusion Matrix)이 생성되었다. 도 9는 모낭 분류의 혼동행렬 결과로서, 왼쪽 상부는 ResNet 50 훈련 데이터 세트, 오른쪽 상부는 ResNet 101 훈련 데이터 세트, 왼쪽 하부는 ResNet 50 테스트 데이터 세트, 오른쪽 하부는 ResNet 101 테스트 데이터 세트를 나타낸다.Additionally, a confusion matrix as shown in Figure 9 was created to compare the misclassification rate between the two models for both the training and test data sets. Figure 9 is a confusion matrix result of hair follicle classification, where the upper left shows the ResNet 50 training data set, the upper right shows the ResNet 101 training data set, the lower left shows the ResNet 50 test data set, and the lower right shows the ResNet 101 test data set.

ResNet 50 훈련 데이터 세트는 심각 라벨을 보통 라벨과 양호 라벨로 각각 633개 및 308개 오분류했으며, 이는 각각 ResNet 101 훈련 데이터 세트(429개 및 83개)보다 크다. 두 모델 모두 양호 경우보다 2배 이상 심각을 보통으로 잘못 분류했다. 유사하게, ResNet 50 훈련 데이터 세트는 보통 라벨의 600 및 1,491 오분류를 심각 및 양호로 각각 나타내었으며, 이는 각각 ResNet 101 훈련 데이터 세트(347 및 985)보다 크다. 두 모델 모두 심각 경우보다 2.5배 이상 보통을 양호로 잘못 분류했다. 마지막으로, ResNet 50 훈련 데이터 세트는 양호 라벨의 198 및 1,491 오분류를 각각 심각 및 보통으로 나타냈으며, 이는 각각 ResNet 101 훈련 데이터 세트(0 및 1,012)보다 크다. 두 모델 모두 양호를 보통으로 잘못 분류했지만 심각 경우만큼은 아니다. 전반적으로 대부분의 오분류는 예상대로 심각과 보통 사이 및 보통과 양호 사이에서 발생했다. 훈련 데이터 세트에서 ResNet 50과 RestNet 101의 오분류율은 각각 0.274와 0.165로, RestNet 101을 지원하는 것이 ResNet 50보다 더 나은 성능을 보였다. 오분류율이 각각 0.316과 0.207인 ResNet 50과 RestNet 101 사이의 테스트 데이터 세트에서도 유사한 경향이 관찰되었다. 특히 ResNet 101(훈련에서 0.010, 테스트 데이터 세트에서 0.025)보다 ResNet 50(훈련에서 0.071, 테스트 테이터 세트에서 0.114)에서 "심각"과 "양호"의 오분류 비율이 5배 이상 높았다. 이러한 결과는 본 발명에서 Mask R-CNN의 시스템 아키텍처로 ResNet 50보다 ResNet 101을 선택한 근거를 뒷받침한다.The ResNet 50 training dataset misclassified 633 and 308 severe labels into moderate and good labels, respectively, which is larger than the ResNet 101 training dataset (429 and 83), respectively. Both models incorrectly classified severe cases as moderate more than twice as often as good cases. Similarly, the ResNet 50 training dataset showed 600 and 1,491 misclassifications of moderate labels as severe and good, respectively, which is more than the ResNet 101 training dataset (347 and 985), respectively. Both models incorrectly classified moderate cases as good more than 2.5 times more than severe cases. Finally, the ResNet 50 training dataset showed 198 and 1,491 misclassifications of good labels as severe and moderate, respectively, which are larger than the ResNet 101 training dataset (0 and 1,012), respectively. Both models misclassified good as moderate, but not as much as severe. Overall, most misclassifications occurred between severe and moderate and between moderate and good, as expected. In the training data set, the misclassification rates of ResNet 50 and RestNet 101 were 0.274 and 0.165, respectively, showing that supporting RestNet 101 performed better than ResNet 50. A similar trend was observed in the test dataset between ResNet 50 and RestNet 101, with misclassification rates of 0.316 and 0.207, respectively. In particular, the misclassification rate between “severe” and “good” was more than five times higher in ResNet 50 (0.071 in training, 0.114 in test data set) than in ResNet 101 (0.010 in training, 0.025 in test data set). These results support the rationale for selecting ResNet 101 over ResNet 50 as the system architecture of Mask R-CNN in the present invention.

다른 대안에 비해 ResNet 101 모델의 성능을 추가로 검증하기 위해 표 2에 나타낸 바와 같이, 다른 모델(EfficientDet 및 YOLOv4)과 유사하게 모낭 검출 분류에 적용된 벤치마크 비교를 수행했다. 표 2는 모낭 분류에 적용된 딥 러닝 모델 간의 성능 비교를 나타낸다.To further verify the performance of the ResNet 101 model compared to other alternatives, we performed a benchmark comparison similarly applied to hair follicle detection classification with other models (EfficientDet and YOLOv4), as shown in Table 2. Table 2 presents a performance comparison between deep learning models applied to hair follicle classification.

표 2에서 알 수 있는 바와 같이, ResNet 50은 EfficientDet에 비해 더 나은 성능을 보였다. 그러나 YOLOv4에 비해 성능이 떨어졌다. 반면, ResNet 101은 비교한 다른 모든 모델에 비해 우수한 성능을 보였다. 또 본 발명에서는 모델을 훈련하기 위해 관심 영역(ROI)을 마스크하기 위해 원형을 적용하였다. 이것은 IoU(Intersection over Union)를 개선할 수 있는 실제 모낭의 모양과 더 유사하기 때문에 다른 모델에 비해 ResNet 101의 mAP 값이 더 높은 이유일 수 있다.As can be seen in Table 2, ResNet 50 showed better performance compared to EfficientDet. However, performance was inferior compared to YOLOv4. On the other hand, ResNet 101 showed superior performance compared to all other models compared. Additionally, in the present invention, a prototype was applied to mask the region of interest (ROI) to train the model. This may be the reason why the mAP value of ResNet 101 is higher compared to other models because it is more similar to the shape of an actual hair follicle, which can improve Intersection over Union (IoU).

다음에 상기 단계 S20에서 모낭을 분류하여 모낭의 상태를 판별한 후, 각각의 모낭의 영역과 모낭의 상태에 따라 추정 모듈(400)에서 이미지별 탈모의 심각도를 추정한다(S30).Next, after classifying the hair follicles and determining the state of the hair follicles in step S20, the severity of hair loss for each image is estimated in the estimation module 400 according to the area and state of each hair follicle (S30).

상술한 바와 같이, 상기 단계 S20에서 ResNet 101을 이용한 Mask R-CNN의 결과는 검출된 모든 모낭을 양호, 보통, 심각으로 분류하였다. 이 정보를 사용하여 탈모 심각도 지수(P)는 3가지 모낭 상태별 모낭의 수와 전체 모낭의 수를 기초로 상술한 식 (1)을 적용하여 0과 1 사이의 범위로 정규화된 국부적 수준 이미지의 탈모 심각도를 나타내도록 추정한다.As described above, the results of Mask R-CNN using ResNet 101 in step S20 classified all detected hair follicles as good, normal, and severe. Using this information, the Hair Loss Severity Index (P) is calculated by applying Equation (1) described above based on the number of hair follicles for each of the three hair follicle states and the total number of hair follicles, normalized to a range between 0 and 1. It is estimated to indicate the severity of hair loss.

한편, 본 발명에서는 상기 단계 S30에서 추정된 탈모의 심각도에 따라 탈모 상태 판정 모듈(500)에서 가시화 및 정량화를 실행한다(S40). Meanwhile, in the present invention, visualization and quantification are performed in the hair loss status determination module 500 according to the severity of hair loss estimated in step S30 (S40).

즉, 도 5에 도시된 바와 같이, 두피의 상부 영역은 12개의 하위 영역으로, 구체적으로 두피의 좌측, 중앙 및 우측으로 분할하고, 각각은 비율에 따라 전방에서 후방까지 4개의 영역으로 분할하여, 전반적인 탈모 심각도와 유형을 파악하였다. 탈모 심각도 추정치 Pavg는 식 (6)에 나타낸 바와 같이, 두피의 12개 위치에서 얻은 P 값의 평균으로 계산되었다(식 6).That is, as shown in Figure 5, the upper region of the scalp is divided into 12 sub-regions, specifically the left, center, and right sides of the scalp, and each is divided into 4 regions from front to back according to the ratio, The overall severity and type of hair loss was identified. The hair loss severity estimate P avg was calculated as the average of the P values obtained from 12 locations on the scalp, as shown in Equation (6).

… (6) … (6)

Pavg는 개인의 탈모 심각도를 정성적으로 나타내는 0~1 척도이다. 여기서 m은 이 경우 12인 이미지의 수이다.P avg is a scale of 0 to 1 that qualitatively indicates the severity of hair loss in an individual. Here m is the number of images, which in this case is 12.

두피의 그래픽 표현에 대한 국소 탈모 심각도 지수의 매핑은 전체 두피의 전반적인 탈모 심각도를 시각화하는 히트맵을 사용하여 실행하였다. 도 5에서는 국부적 탈모 심각도 지수 산출부터 탈모 심각도 추정 및 매핑까지의 과정을 보여주기 위해 대표적인 3인의 양호, 중등 탈모, 심각 탈모의 데이터를 나타내었다. Mapping of the localized hair loss severity index to a graphical representation of the scalp was performed using a heatmap that visualizes the overall hair loss severity of the entire scalp. Figure 5 shows data on good hair loss, moderate hair loss, and severe hair loss from three representative people to show the process from calculating the local hair loss severity index to estimating and mapping hair loss severity.

즉, 심각도 지수의 가시화 및 정량화를 위한 매핑은 먼저 두피의 주요 부위의 대표 영상과 해당 부위의 탈모 심각도 지수 P를 제시한다. 그런 다음, Pavg는 12개 위치 모두의 kP 값을 처리한 후 각각의 경우에 대해 계산되었으며, 이는 탈모 심각도로서 양호 0.879, 중등 탈모 0.565, 심각 탈모 0.160에 일치한다. 히트맵을 사용한 탈모 심각도 매핑은 도 5의 (d)-(f)에서와 같이, 양호 상태 내지 심각 상태 손실 영역을 나타낸다. In other words, mapping for visualization and quantification of the severity index first presents a representative image of the main area of the scalp and the hair loss severity index P of the corresponding area. P avg was then calculated for each case after processing the k P values of all 12 positions, which corresponds to hair loss severity of 0.879 for good, 0.565 for moderate hair loss, and 0.160 for severe hair loss. Hair loss severity mapping using a heatmap indicates areas of good to severe loss, as shown in Figures 5 (d)-(f).

따라서, 본 발명에 따른 모낭 분류 및 탈모 심각도 추정 방법에서는 탈모 부위와 상태는 물론 M형, U형 또는 O형과 같은 다양한 유형의 탈모를 시각화하는 직관적인 방법을 제공할 수 있다. 또한, 이러한 탈모 심각도의 시각적 매핑은 진단 및/또는 예측 도구로 사용되거나 매핑이 주기적으로 수행된 경우 치료 결과를 평가하는 데 사용할 수도 있다.Therefore, the hair follicle classification and hair loss severity estimation method according to the present invention can provide an intuitive method to visualize various types of hair loss such as M type, U type, or O type as well as the hair loss area and condition. Additionally, this visual mapping of hair loss severity can also be used as a diagnostic and/or predictive tool or to evaluate treatment results if mapping is performed periodically.

이상 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.Although the invention made by the present inventor has been described in detail according to the above-mentioned embodiments, the present invention is not limited to the above-described embodiments and can of course be changed in various ways without departing from the gist of the invention.

본 발명에 따른 모낭 분류 및 탈모 심각도 추정 시스템 및 방법을 사용하는 것에 의해 딥 러닝 알고리즘을 사용하여 국소 및 두피 수준 탈모 심각도를 추정할 수 있다.By using the hair follicle classification and hair loss severity estimation system and method according to the present invention, local and scalp level hair loss severity can be estimated using deep learning algorithms.

100 : 이미지 수집 모듈
200 : 추출 모듈
300 : 판별 모듈
400 : 추정 모듈
500 : 탈모 상태 판정 모듈
100: Image acquisition module
200: extraction module
300: Discrimination module
400: Estimation module
500: Hair loss status determination module

Claims (10)

두피의 영상을 수집하는 이미지 수집 모듈,
상기 이미지 수집 모듈에서 수집된 영상에 대해 모낭의 영역을 원형으로 추출하는 추출 모듈,
상기 추출 모듈에서 추출된 모낭의 영역에서 모낭의 상태를 판별하는 판별 모듈,
상기 추출 모듈에서 추출된 각각의 모낭의 영역과 상기 판별 모듈에서 판별된 모낭의 상태에 따라 이미지별 탈모의 심각도를 추정하는 추정 모듈,
상기 추정 모듈에서 추정된 탈모의 심각도에 대해 전체 두피의 탈모 심각도로 가시화하고, 정량화하여 표시하는 탈모 상태 판정 모듈을 포함하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 시스템.
An image collection module that collects images of the scalp,
An extraction module that extracts a circular area of the hair follicle from the image collected in the image collection module,
A determination module that determines the status of hair follicles in the area of hair follicles extracted from the extraction module,
An estimation module that estimates the severity of hair loss for each image according to the area of each hair follicle extracted in the extraction module and the state of the hair follicle determined in the determination module,
A hair follicle classification and hair loss severity estimation system comprising a hair loss status determination module that visualizes, quantifies, and displays the hair loss severity of the entire scalp with respect to the hair loss severity estimated in the estimation module.
제1항에서,
상기 추출 모듈에서의 모낭의 영역 추출과 상기 판별 모듈에서의 모낭의 상태 판별은 동시에 실행되는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 시스템.
In paragraph 1:
A hair follicle classification and hair loss severity estimation system, characterized in that the extraction of the hair follicle area in the extraction module and the determination of the state of the hair follicle in the determination module are performed simultaneously.
제2항에서,
상기 추출 모듈은 ResNet(ResNet 50 또는 ResNet 101) 기반의 Mask R-CNN 기술을 적용하여 모낭의 영역을 원형으로 추출하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 시스템.
In paragraph 2,
The extraction module is a hair follicle classification and hair loss severity estimation system characterized in that the hair follicle area is extracted in a circular shape by applying Mask R-CNN technology based on ResNet (ResNet 50 or ResNet 101).
제3항에서,
상기 판별 모듈에서의 모낭의 상태 판별은 모낭의 수, 모발의 굵기 및 각 모낭의 모발 수에 따라 양호, 보통, 심각으로 판별하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 시스템.
In paragraph 3,
A hair follicle classification and hair loss severity estimation system characterized in that the condition of the hair follicles in the determination module is judged as good, normal, or severe depending on the number of hair follicles, hair thickness, and the number of hairs in each hair follicle.
제4항에서,
상기 추정 모듈에서 심각도 추정은 하기 식에 의한 탈모 심각도 지수(P)를 추정하는 것에 의해 실행되며,

여기서, k 는 12곳의 위치를 의미하고, n은 모낭의 수를 의미하고, i는 i={1(심각), 2(보통), 3(양호)}의 3가지를 상태를 의미하고, α는 모낭의 상태에 대한 가중치를 의미하고, β는 전체 모낭의 수에 대한 가중치를 의미한다. 그리고 전체 값에 대한 결과를 normalize 함으로서 식 (1)을 통해 두피를 촬영한 12곳의 탈모 심각도를 0 ~ 1 사이값으로 산출하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 시스템.
In paragraph 4,
In the estimation module, severity estimation is performed by estimating the hair loss severity index (P) according to the following equation,

Here, k refers to the 12 locations, n refers to the number of hair follicles, and i refers to the three conditions: i={1 (serious), 2 (normal), and 3 (good)}. α refers to the weight for the state of the hair follicles, and β refers to the weight for the total number of hair follicles. And a hair follicle classification and hair loss severity estimation system characterized by calculating the hair loss severity of 12 areas where the scalp was photographed as a value between 0 and 1 through equation (1) by normalizing the results for the entire value.
제4항에서,
상기 심각의 판단은 모낭의 반지름이 10 픽셀 미만이고 모낭별 모발 수가 1개일 때이며 모발의 굵기가 3 픽셀 미만일 때로 판단하고,
상기 보통의 판단은 모낭의 반지름이 10 픽셀과 20 픽셀 사이이고 모낭별 모발 수가 1개일 때이며, 모발의 굵기가 3 픽셀에서 6 픽셀 사이일 때로 판단하고,
상기 양호의 판단은 모낭의 반지름이 20 픽셀 초과이고 모낭별 모발 수가 2개 이상이며, 모발의 굵기가 6 픽셀 초과일 때로 판단하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 시스템.
In paragraph 4,
The severity is judged when the radius of the hair follicle is less than 10 pixels, the number of hairs per follicle is 1, and the thickness of the hair is less than 3 pixels,
The above normal judgment is made when the radius of the hair follicle is between 10 pixels and 20 pixels, the number of hairs per follicle is 1, and the thickness of the hair is between 3 pixels and 6 pixels,
The hair follicle classification and hair loss severity estimation system is characterized in that the judgment of the good condition is made when the radius of the hair follicle is more than 20 pixels, the number of hairs per follicle is 2 or more, and the thickness of the hair is more than 6 pixels.
제2항에서,
상기 탈모 상태 판정 모듈에서 탈모 심각도의 가시화는 탈모 유형의 판단을 위해 히트맵으로 표시되고, 탈모 심각도는 0~1 사이의 값으로 정량화되는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 시스템.
In paragraph 2,
In the hair loss status determination module, the visualization of the hair loss severity is displayed as a heat map to determine the hair loss type, and the hair loss severity is quantified as a value between 0 and 1. A hair follicle classification and hair loss severity estimation system.
(a) 마이크로 현미경(Dino-Lite)으로 이루어진 영상 촬영 장치를 이용하여 두피를 촬영하고 200배 배율로 두피 이미지를 수집하는 단계,
(b) 상기 단계 (a)에서 수집된 이미지에 대해 추출 모듈에서 모낭의 영역을 원형으로 추출함과 동시에 판별 모듈에서 모낭의 상태를 판별하는 단계,
(c) 상기 단계 (b)에서 모낭을 분류하여 모낭의 상태를 판별한 후, 각각의 모낭의 영역과 모낭의 상태에 따라 추정 모듈에서 이미지별 탈모의 심각도를 추정하는 단계,
(d) 상기 단계 (c)에서 추정된 탈모의 심각도에 따라 탈모 상태 판정 모듈에서 가시화 및 정량화를 실행하는 단계를 포함하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 방법.
(a) photographing the scalp using an imaging device consisting of a micromicroscope (Dino-Lite) and collecting scalp images at 200x magnification,
(b) extracting the hair follicle area as a circle in the extraction module for the image collected in step (a) and simultaneously determining the state of the hair follicle in the discrimination module;
(c) classifying the hair follicles in step (b) to determine the state of the hair follicles, and then estimating the severity of hair loss for each image in an estimation module according to the area of each hair follicle and the state of the hair follicle,
(d) A method for classifying hair follicles and estimating hair loss severity, comprising the step of performing visualization and quantification in a hair loss status determination module according to the severity of hair loss estimated in step (c).
제8항에서,
상기 단계 (b)에서의 추출은 ResNet(ResNet 50 또는 ResNet 101) 기반의 Mask R-CNN 기술을 적용하여 모낭의 영역을 원형으로 추출하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 방법.
In paragraph 8:
The extraction in step (b) is a hair follicle classification and hair loss severity estimation method characterized in that the hair follicle area is extracted in a circular shape by applying Mask R-CNN technology based on ResNet (ResNet 50 or ResNet 101).
제9항에서,
상기 단계 (b)에서 모낭의 상태 판별은 모낭의 수, 모발의 굵기 및 각 모낭의 모발 수에 따라 양호, 보통, 심각으로 판별하고,
상기 단계 (c)에서 심각도 추정은 하기 식에 의한 탈모 심각도 지수(P)를 추정하는 것에 의해 실행되며,

여기서, k 는 12곳의 위치를 의미하고, n은 모낭의 수를 의미하고, i는 i={1(심각), 2(보통), 3(양호)}의 3가지를 상태를 의미하고, α는 모낭의 상태에 대한 가중치를 의미하고, β는 전체 모낭의 수에 대한 가중치를 의미한다. 그리고 전체 값에 대한 결과를 normalize 함으로서 식 (1)을 통해 두피를 촬영한 12곳의 탈모 심각도를 0 ~ 1 사이값으로 산출하는 것을 특징으로 하는 모낭 분류 및 탈모 심각도 추정 방법.
In paragraph 9:
In step (b), the condition of the hair follicles is determined as good, normal, or serious depending on the number of hair follicles, hair thickness, and the number of hairs in each hair follicle,
In step (c), severity estimation is performed by estimating the hair loss severity index (P) according to the following equation,

Here, k refers to the 12 locations, n refers to the number of hair follicles, and i refers to the three conditions: i={1 (serious), 2 (normal), and 3 (good)}. α refers to the weight for the state of the hair follicles, and β refers to the weight for the total number of hair follicles. And a hair follicle classification and hair loss severity estimation method characterized by calculating the hair loss severity of 12 areas where the scalp was photographed as a value between 0 and 1 through equation (1) by normalizing the results for the entire value.
KR1020220066703A 2022-05-31 2022-05-31 Hair follicle classification and hair loss severity estimation system and method KR20230166568A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220066703A KR20230166568A (en) 2022-05-31 2022-05-31 Hair follicle classification and hair loss severity estimation system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220066703A KR20230166568A (en) 2022-05-31 2022-05-31 Hair follicle classification and hair loss severity estimation system and method

Publications (1)

Publication Number Publication Date
KR20230166568A true KR20230166568A (en) 2023-12-07

Family

ID=89163858

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220066703A KR20230166568A (en) 2022-05-31 2022-05-31 Hair follicle classification and hair loss severity estimation system and method

Country Status (1)

Country Link
KR (1) KR20230166568A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180110856A (en) 2017-03-30 2018-10-11 김나현 A potable hair loss measuring apparatus
KR102272468B1 (en) 2021-02-23 2021-07-05 주식회사 비컨 Method and device for providing alopecia information
KR102303429B1 (en) 2019-10-31 2021-09-16 신영길 Apparatus for monitoring hair loss through hair pore matching and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180110856A (en) 2017-03-30 2018-10-11 김나현 A potable hair loss measuring apparatus
KR102303429B1 (en) 2019-10-31 2021-09-16 신영길 Apparatus for monitoring hair loss through hair pore matching and method thereof
KR102272468B1 (en) 2021-02-23 2021-07-05 주식회사 비컨 Method and device for providing alopecia information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M. Kim, S. Kang, and B.-D. Lee, "Evaluation of Automated Measurement of Hair Density Using Deep Neural Networks, "Sensors, vol. 22, no.2, p.650, 14 January 2022.

Similar Documents

Publication Publication Date Title
Bejnordi et al. Automated detection of DCIS in whole-slide H&E stained breast histopathology images
Wang et al. Assisted diagnosis of cervical intraepithelial neoplasia (CIN)
CN112088394A (en) Computerized classification of biological tissue
Kavitha et al. Hierarchical classifier for soft and hard exudates detection of retinal fundus images
Vocaturo et al. Dangerousness of dysplastic nevi: A multiple instance learning solution for early diagnosis
CN113129281B (en) Wheat stem section parameter detection method based on deep learning
Dhanashree et al. Fingernail analysis for early detection and diagnosis of diseases using machine learning techniques
Grochowski et al. Machine learning system for automated blood smear analysis
US20150117745A1 (en) Method, system and a service for analyzing samples of a dried liquid
Hortinela IV et al. Development of abnormal red blood cells classifier using image processing techniques with support vector machine
CN117036288A (en) Tumor subtype diagnosis method for full-slice pathological image
Babar et al. A refined approach for classification and detection of melanoma skin cancer using deep neural network
Sobrevilla et al. Fuzzy-based analysis of microscopic color cervical pap smear images: nuclei detection
KR20230166568A (en) Hair follicle classification and hair loss severity estimation system and method
Duanggate et al. A review of image analysis and pattern classification techniques for automatic pap smear screening process
Munia et al. Automatic clustering-based segmentation and plaque localization in psoriasis digital images
Jardeleza et al. Detection of Common Types of Eczema Using Gray Level Co-occurrence Matrix and Support Vector Machine
Hemalatha et al. Skin Cancer Detection Using Deep Learning Technique
Navarro et al. Skin Disease Analysis using Digital Image processing
Kumar et al. An efficient technique to detect skin Disease Using Image Processing
CN111401119A (en) Classification of cell nuclei
Ahmed et al. Skin Cancer Classification Utilizing a Hybrid Model of Machine Learning Models Trained on Dermoscopic Images
Alzahrani et al. A Deep Hybrid Learning Approach For Nail Diseases Classification
KR102567671B1 (en) Efficient hair damage detection method and system using sem image based on convolutional neural network
JP2023013783A (en) Information processing method, program, information processing device, and learned model generation method