KR102567671B1 - Efficient hair damage detection method and system using sem image based on convolutional neural network - Google Patents

Efficient hair damage detection method and system using sem image based on convolutional neural network Download PDF

Info

Publication number
KR102567671B1
KR102567671B1 KR1020210192176A KR20210192176A KR102567671B1 KR 102567671 B1 KR102567671 B1 KR 102567671B1 KR 1020210192176 A KR1020210192176 A KR 1020210192176A KR 20210192176 A KR20210192176 A KR 20210192176A KR 102567671 B1 KR102567671 B1 KR 102567671B1
Authority
KR
South Korea
Prior art keywords
hair
scanning electron
convolutional neural
channel
attention
Prior art date
Application number
KR1020210192176A
Other languages
Korean (ko)
Other versions
KR20230104311A (en
Inventor
조영임
만교월
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020210192176A priority Critical patent/KR102567671B1/en
Publication of KR20230104311A publication Critical patent/KR20230104311A/en
Application granted granted Critical
Publication of KR102567671B1 publication Critical patent/KR102567671B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/448Hair evaluation, e.g. for hair disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Chemical & Material Sciences (AREA)
  • Primary Health Care (AREA)
  • Dermatology (AREA)
  • Computational Linguistics (AREA)
  • Immunology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)

Abstract

본 발명의 목적은 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법은, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집하는 제 1 단계; 수집된 상기 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성하는 제 2 단계; 생성된 데이터 세트로부터 추출부에 의해 상기 모발 데이터 샘플 이미지의 특징을 추출하는 제 3 단계; 및 추출된 상기 특징을 분류부에 의해 분류하는 제 4 단계;를 포함하는 것을 특징으로 한다.
An object of the present invention is to automatically identify and segment damage based on an artificial intelligence algorithm used for hair surface image damage by scanning electron microscopy, while constructing a new hair damage data set based on scanning electron microscopy image data. It is to provide an efficient hair damage detection method and system using neural network-based scanning electron microscope images.
In order to achieve the above object, an efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention includes a first step of collecting, by a collecting unit, hair data sample images taken by a scanning electron microscope; a second step of generating a data set from the collected hair data sample images by a construction unit; a third step of extracting features of the hair data sample image from the generated data set by an extractor; and a fourth step of classifying the extracted features by a classification unit.

Description

콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템{EFFICIENT HAIR DAMAGE DETECTION METHOD AND SYSTEM USING SEM IMAGE BASED ON CONVOLUTIONAL NEURAL NETWORK}Efficient hair damage detection method and system using scanning electron microscope image based on convolutional neural network

본 발명은 콘볼루션 신경망 기반의 주자 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템에 관한 것으로, 더욱 상세하게는 모발 이미지에서 모발 손상 정도를 인식하고 판단할 수 있는 콘볼루션 신경망 기반의 주자 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템에 관한 것이다.The present invention relates to an efficient hair damage detection method and system using a runner electron microscope image based on a convolutional neural network, and more particularly, to a runner electron microscope based on a convolutional neural network capable of recognizing and determining the degree of hair damage from a hair image It relates to an efficient hair damage detection method and system using images.

모발은 인체 이미지의 중요한 부분이다.Hair is an important part of human body image.

아름다움에 대한 현대인의 미적 욕망, 모발의 지속적인 성장과 다양화, 모발의 모양, 색상, 질감의 지속적인 발전으로 변화를 시도하고 있으며, 자신의 개성을 이용하여 이미지를 변화시켜 트렌드를 따라갈 수 있다.Modern people's aesthetic desire for beauty, continuous growth and diversification of hair, and continuous development of hair shape, color, and texture are trying to change, and they can change their image using their individuality to follow the trend.

모발은 1 ~ 8 % 외부 소수성 지질 표피, 80 ~ 90 % α-나선 또는 평행 폴리펩타이드 사슬의 β-시트 형태로 구성되어 수불용성 케라틴, 3% 미만의 멜라닌 색소 및 0.6 ~ 1.0 % 미량 원소, 수분 10 ~ 15 % 등을 형성한다.Hair consists of 1 to 8% outer hydrophobic lipid epidermis, 80 to 90% α-helical or β-sheet form of parallel polypeptide chains, containing water insoluble keratin, less than 3% melanin pigment and 0.6 to 1.0% trace elements, moisture. form 10-15%, etc.

정상적인 큐티클은 빛을 반사하고, 모간 사이의 마찰을 제한하는 매끄러운 외관을 가지고 있다.A normal cuticle has a smooth appearance that reflects light and limits friction between the hair shafts.

이는 모발의 윤기와 질감을 담당한다.It is responsible for the shine and texture of the hair.

모발의 케라틴층은 외부 환경, 온도, 습도, 화학적, 물리적 처리의 영향으로 약해지고 갈라져 모발 품질에 영향을 미친다.The keratin layer of hair is weakened and split under the influence of external environment, temperature, humidity, chemical and physical treatment, which affects hair quality.

대부분의 사람들의 모발은 관찰하기 불편하기 때문에 다양한 손상 문제가 발생하기 쉬우나, 자세한 분석이 불가능하고 이와 관련된 모발 손상에 대한 연구도 거의 없는 문제가 있다.Most people's hair is inconvenient to observe, so it is easy to cause various damage problems, but there is a problem that detailed analysis is impossible and there are few studies on hair damage related to it.

모발 미세 구조 분석 분야에서 광현미경이 널리 보급되면서 기존의 현미경으로는 명확하게 관찰하기 어려웠던 모발 디테일을 보다 쉽게 관찰할 수 있게 되었다.With the widespread use of light microscopy in the field of hair microstructure analysis, it has become easier to observe hair details that were difficult to observe clearly with conventional microscopes.

임상적으로 현미경적 분석은 모발 손상을 평가하는 도구로 건강 상태의 지표로 사용될 수 있으며, 모발 손상의 형태학적 특성을 식별하여 정성적으로 분석할 수 있다.Clinically, microscopic analysis can be used as an indicator of health status as a tool to evaluate hair damage, and can be qualitatively analyzed by identifying morphological characteristics of hair damage.

세제, 염료, 빗질, 자외선 등과 같은 다양한 화학 물질 및 물리적 영향에 대한 모발 노출은 모발에 영향을 미친다.Exposure of hair to various chemical and physical influences such as detergents, dyes, combing, ultraviolet light, etc. affects the hair.

그러나 모발의 형태적 특성에 따라 모발 손상 정도를 정량화한 연구는 거의 없다.However, few studies have quantified the degree of hair damage according to the morphological characteristics of hair.

전통적으로 광학 현미경으로 수동으로 관찰하는 것만으로는 모발 손상을 자세히 구분하기 어렵다.Traditionally, it is difficult to distinguish hair damage in detail only by manual observation with an optical microscope.

현미경 기술의 발달과 다양한 분야의 주사 전자 현미경(SEM)의 적용으로 모발의 미세한 부분을 더 용이하게 찾을 수 있다.With the development of microscopy technology and the application of scanning electron microscopy (SEM) in various fields, fine parts of hair can be found more easily.

예를 들어, 주사 전자 현미경을 사용하여 에너지 분산 X선 분광법(EDX: Energy-Dispersive X-ray Spectroscopy)과, 기타 물리적 및 화학적 방법을 사용하여 원형 탈모증이 인간 모발의 구조와 구성에 미치는 영향을 확인하였다.For example, energy-dispersive X-ray spectroscopy (EDX) using scanning electron microscopy and other physical and chemical methods to determine the effect of alopecia areata on the structure and composition of human hair. did

또한, 가열 인두를 사용하여 모발을 가열하고 주사 전자 현미경으로 모발 이미지를 관찰하여 열손실에 의한 모발 섬유의 표피 및 피질 손상을 평가하였다.In addition, hair was heated using a heating iron and hair images were observed with a scanning electron microscope to evaluate damage to the epidermis and cortex of hair fibers due to heat loss.

하지만, 이러한 수동 방법은 주사 전자 현미경 영상 기술을 사용하여 모발 현미경 이미지를 분석하지만 모발 손상에 대한 자세한 정량적 분류를 수행하지 않았다.However, this manual method uses scanning electron microscopy imaging techniques to analyze hair microscopic images, but does not perform detailed quantitative classification of hair damage.

국내 공개특허공보 제10-2019-0049222호Korean Patent Publication No. 10-2019-0049222

상기한 바와 같은 종래의 문제점을 해결하기 위한 본 발명의 목적은 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템을 제공하는 것이다.An object of the present invention to solve the conventional problems as described above is to automatically identify and segment damage based on an artificial intelligence algorithm used for hair surface image damage by scanning electron microscopy, and at the same time based on scanning electron microscopy image data To provide an efficient hair damage detection method and system using scanning electron microscope images based on a convolutional neural network that constructs a new hair damage data set.

상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법은, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집하는 제 1 단계; 수집된 상기 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성하는 제 2 단계; 생성된 데이터 세트로부터 추출부에 의해 상기 모발 데이터 샘플 이미지의 특징을 추출하는 제 3 단계; 및 추출된 상기 특징을 분류부에 의해 분류하는 제 4 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, an efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention includes a first step of collecting, by a collecting unit, hair data sample images taken by a scanning electron microscope; a second step of generating a data set from the collected hair data sample images by a construction unit; a third step of extracting features of the hair data sample image from the generated data set by an extractor; and a fourth step of classifying the extracted features by a classification unit.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 데이터 세트는, 수집된 모발 데이터 샘플 이미지를 3등분으로 균등하게 분할하고, 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 최종 샘플 데이터 세트로 생성하는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the data set equally divides the collected hair data sample image into 3 equal parts, and divides the central 5 mm segment into It is characterized by selecting for observation and generating weak damage, medium damage, and high damage images as the final sample data set.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 최종 샘플 데이터 세트의 총 양을 데이터 향상 알고리즘을 통해 확장하고, 상기 데이터 향상 알고리즘은 이미지 반전 알고리즘, 회전 알고리즘, 자르기 알고리즘, 가우스 노이즈 추가 알고리즘 중 하나 이상인 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the total amount of the final sample data set is expanded through a data enhancement algorithm, the data enhancement algorithm comprising an image inversion algorithm, Characterized in that it is at least one of a rotation algorithm, a cropping algorithm, and a Gaussian noise addition algorithm.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 추출부는, 컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the extraction unit is a convolutional neural network (CNN), a residual channel spatial attention network (RCSAN-Net: Residual Channel Spatial Attention Network) is used.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 다중 잔여 블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 네트워크 프레임워크를 구축하는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a convolutional neural network-based scanning electron microscope image according to the present invention, the residual channel spatial attention network stacks multiple residual blocks and multiple residual attentional blocks formed by combining attentional blocks, It is characterized by building a network framework.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 스킵 연결을 사용하여 상기 잔여 블록과 상기 주의 블록을 연결하는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the residual channel spatial attention network connects the residual block and the attention block using skip connection, characterized in that do.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하고, 주의 메커니즘 모듈로 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하며, 계산 라운드로 들어가 주의 특징 맵을 생성하는 것을 특징으로 한다.In addition, in the convolutional neural network-based efficient hair damage detection method using scanning electron microscopy images according to the present invention, the residual channel spatial attention network generates a feature map using standard convolution calculation in an initial stage, and the attention mechanism It is characterized by entering a module to extract multi-channel and spatial information for features, and entering a calculation round to generate a state feature map.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 채널주의 모듈과 공간주의 모듈을 갖는 주의 메커니즘 모듈을 포함하는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a convolutional neural network-based scanning electron microscope image according to the present invention, the residual channel spatial attention network includes a channel attention module and an attention mechanism module having a spatial attention module. do.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 채널주의 모듈은, 특징 채널 간의 상호 의존성을 향상시키는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the channel attention module is characterized in that the interdependence between feature channels is improved.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 공간주의 모듈은, 상기 채널주의 모듈을 보완하는 특징 맵의 특정 영역 정보 부분이며, 공간주의 맵은 요소 간의 공간 관계를 사용하여 생성되는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the spatial attention module is a specific region information part of a feature map supplementing the channel attention module, and the spatial attention map is Characterized in that it is created using spatial relationships between elements.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 공간주의 모듈은, 상기 채널주의 모듈에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성하는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the spatial attention module combines maximum pooling and average pooling to maintain feature information at maximum in the channel attention module It is characterized in that two two-dimensional feature maps (Fa and Fm) are generated by adopting a double pooling method.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 한다.In addition, in the efficient hair damage detection method using a convolutional neural network-based scanning electron microscope image according to the present invention, the residual channel spatial attention network collects hair features to improve detection and recognition accuracy. It is characterized by designing a channelism model and a spatialism model in the sensing model.

또한, 상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은, 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에 의해 감지한다.In addition, in order to achieve the above object, an efficient hair damage detection system using a scanning electron microscope image based on a convolutional neural network according to the present invention is detected by an efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network. do.

한편, 상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집하는 수집부; 수집된 상기 모발 데이터 샘플 이미지를 데이터 세트로 생성하는 구성부; 생성된 데이터 세트로부터 상기 모발 데이터 샘플 이미지의 특징을 추출하는 추출부; 및 추출된 상기 특징을 분류하는 분류부;를 포함하는 것을 특징으로 한다.On the other hand, in order to achieve the above object, an efficient hair damage detection system using a scanning electron microscope image based on a convolutional neural network according to the present invention includes a collection unit for collecting hair data sample images taken by a scanning electron microscope; a configuration unit generating a data set from the collected hair data sample images; an extraction unit extracting features of the hair data sample image from the generated data set; and a classification unit for classifying the extracted features.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템에서, 상기 추출부는, 컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하는 것을 특징으로 한다.In addition, in the efficient hair damage detection system using a scanning electron microscope image based on a convolutional neural network according to the present invention, the extraction unit is a convolutional neural network (CNN), a residual channel spatial attention network (RCSAN-Net: Residual Channel Spatial Attention Network) is used.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템에서, 상기 잔여 채널 공간주의 네트워크는, 감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 한다.In addition, in the efficient hair damage detection system using a convolutional neural network-based scanning electron microscope image according to the present invention, the residual channel spatial attention network collects hair features to improve detection and recognition accuracy. It is characterized by designing a channelism model and a spatialism model in the sensing model.

기타 실시 예의 구체적인 사항은 "발명을 실시하기 위한 구체적인 내용" 및 첨부 "도면"에 포함되어 있다.Details of other embodiments are included in the "specific details for carrying out the invention" and the accompanying "drawings".

본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 각종 실시 예를 참조하면 명확해질 것이다.Advantages and/or features of the present invention, and methods of achieving them, will become apparent with reference to the various embodiments described below in detail in conjunction with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 각 실시 예의 구성만으로 한정되는 것이 아니라 서로 다른 다양한 형태로도 구현될 수도 있으며, 단지 본 명세서에서 개시한 각각의 실시 예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구범위의 각 청구항의 범주에 의해 정의될 뿐임을 알아야 한다.However, the present invention is not limited only to the configuration of each embodiment disclosed below, but may also be implemented in various other forms, and each embodiment disclosed herein only makes the disclosure of the present invention complete, and the present invention It is provided to completely inform those skilled in the art of the scope of the present invention, and it should be noted that the present invention is only defined by the scope of each claim of the claims.

본 발명에 의하면, 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 효과가 있다.According to the present invention, there is an effect of automatically identifying and segmenting damage based on an artificial intelligence algorithm used for hair surface image damage by scanning electron microscopy and at the same time constructing a new hair damage data set based on scanning electron microscopy image data. there is.

도 1은 모발 배율 800× 현미경 사진을 관찰하기 위한 주사 전자 현미경(SEM) 사진.
도 2는 ResNet의 다양한 잔여 블록 프레임 워크를 나타내는 도면.
도 3은 잔여 채널 공간주의 네트워크(RCSAN)를 나타내는 도면.
도 4는 주의 메커니즘, 특징과 주의 마스크 간의 상호 작용을 나타내는 도면.
도 5는 채널주의 모듈의 구조를 나타내는 도면.
도 6은 공간주의 모듈의 구조를 나타내는 도면.
도 7은 모발 손상의 분류를 나타내는 도면.
도 8은 모발 SEM 현미경 이미지 데이터의 증강을 나타내는 도면.
도 9는 도 9는 모발 손상 영역의 주의 특성을 나타내는 도면.
도 10은 다양한 배율에서 모발의 미세 디테일 비교를 나타내는 도면.
도 11은 도 11은 주의 메커니즘 모듈의 주의 기능 추출을 나타내는 도면.
1 is a scanning electron microscope (SEM) photograph for observing a hair magnification 800× micrograph.
Fig. 2 shows various residual block frameworks of ResNet;
3 is a diagram illustrating a Residual Channel Spatialism Network (RCSAN);
Fig. 4 is an attentional mechanism, a diagram illustrating interactions between features and attentional masks;
Fig. 5 shows the structure of a channel attention module;
6 is a diagram showing the structure of a spatial attention module;
7 is a diagram showing classification of hair damage.
8 is a diagram showing enhancement of hair SEM microscopic image data.
Fig. 9 is a diagram showing attention characteristics of a hair damaged area;
10 is a diagram showing a comparison of fine details of hair at various magnifications.
Fig. 11 is a diagram illustrating attentional function extraction of an attentional mechanism module;

본 발명을 상세하게 설명하기 전에, 본 명세서에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 무조건 한정하여 해석되어서는 아니 되며, 본 발명의 발명자가 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 각종 용어의 개념을 적절하게 정의하여 사용할 수 있고, 더 나아가 이들 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 함을 알아야 한다.Before explaining the present invention in detail, the terms or words used in this specification should not be construed unconditionally in a conventional or dictionary sense, and in order for the inventor of the present invention to explain his/her invention in the best way It should be noted that concepts of various terms may be appropriately defined and used, and furthermore, these terms or words should be interpreted as meanings and concepts corresponding to the technical idea of the present invention.

즉, 본 명세서에서 사용된 용어는 본 발명의 바람직한 실시 예를 설명하기 위해서 사용되는 것일 뿐이고, 본 발명의 내용을 구체적으로 한정하려는 의도로 사용된 것이 아니며, 이들 용어는 본 발명의 여러 가지 가능성을 고려하여 정의된 용어임을 알아야 한다.That is, the terms used in this specification are only used to describe preferred embodiments of the present invention, and are not intended to specifically limit the contents of the present invention, and these terms represent various possibilities of the present invention. It should be noted that it is a defined term.

또한, 본 명세서에서, 단수의 표현은 문맥상 명확하게 다른 의미로 지시하지 않는 이상, 복수의 표현을 포함할 수 있으며, 유사하게 복수로 표현되어 있다고 하더라도 단수의 의미를 포함할 수 있음을 알아야 한다.In addition, it should be noted that in this specification, singular expressions may include plural expressions unless the context clearly indicates otherwise, and similarly, even if they are expressed in plural numbers, they may include singular meanings. .

본 명세서의 전체에 걸쳐서 어떤 구성 요소가 다른 구성 요소를 "포함"한다고 기재하는 경우에는, 특별히 반대되는 의미의 기재가 없는 한 임의의 다른 구성 요소를 제외하는 것이 아니라 임의의 다른 구성 요소를 더 포함할 수도 있다는 것을 의미할 수 있다.Throughout this specification, when a component is described as "including" another component, it does not exclude any other component, but further includes any other component, unless otherwise stated. It can mean you can do it.

더 나아가서, 어떤 구성 요소가 다른 구성 요소의 "내부에 존재하거나, 연결되어 설치된다"라고 기재한 경우에는, 이 구성 요소가 다른 구성 요소와 직접적으로 연결되어 있거나 접촉하여 설치되어 있을 수 있고, 일정한 거리를 두고 이격되어 설치되어 있을 수도 있으며, 일정한 거리를 두고 이격되어 설치되어 있는 경우에 대해서는 해당 구성 요소를 다른 구성 요소에 고정 내지 연결하기 위한 제 3의 구성 요소 또는 수단이 존재할 수 있으며, 이 제 3의 구성 요소 또는 수단에 대한 설명은 생략될 수도 있음을 알아야 한다.Furthermore, when a component is described as “existing inside or connected to and installed” of another component, this component may be directly connected to or installed in contact with the other component, and a certain It may be installed at a distance, and when it is installed at a certain distance, a third component or means for fixing or connecting the corresponding component to another component may exist, and now It should be noted that the description of the components or means of 3 may be omitted.

반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결"되어 있다거나, 또는 "직접 접속"되어 있다고 기재되는 경우에는, 제 3의 구성 요소 또는 수단이 존재하지 않는 것으로 이해하여야 한다.On the other hand, when it is described that a certain element is "directly connected" to another element, or is "directly connected", it should be understood that no third element or means exists.

마찬가지로, 각 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 " ~ 사이에"와 "바로 ~ 사이에", 또는 " ~ 에 이웃하는"과 " ~ 에 직접 이웃하는" 등도 마찬가지의 취지를 가지고 있는 것으로 해석되어야 한다.Similarly, other expressions describing the relationship between components, such as "between" and "directly between", or "adjacent to" and "directly adjacent to" have the same meaning. should be interpreted as

또한, 본 명세서에서 "일면", "타면", "일측", "타측", "제 1", "제 2" 등의 용어는, 사용된다면, 하나의 구성 요소에 대해서 이 하나의 구성 요소가 다른 구성 요소로부터 명확하게 구별될 수 있도록 하기 위해서 사용되며, 이와 같은 용어에 의해서 해당 구성 요소의 의미가 제한적으로 사용되는 것은 아님을 알아야 한다.In addition, in this specification, the terms "one side", "the other side", "one side", "the other side", "first", "second", etc., if used, refer to one component It is used to be clearly distinguished from other components, and it should be noted that the meaning of the corresponding component is not limitedly used by such a term.

또한, 본 명세서에서 "상", "하", "좌", "우" 등의 위치와 관련된 용어는, 사용된다면, 해당 구성 요소에 대해서 해당 도면에서의 상대적인 위치를 나타내고 있는 것으로 이해하여야 하며, 이들의 위치에 대해서 절대적인 위치를 특정하지 않는 이상은, 이들 위치 관련 용어가 절대적인 위치를 언급하고 있는 것으로 이해하여서는 아니된다.In addition, in this specification, terms related to positions such as "top", "bottom", "left", and "right", if used, should be understood as indicating a relative position in the drawing with respect to the corresponding component, Unless an absolute position is specified for these positions, these positional terms should not be understood as referring to an absolute position.

또한, 본 명세서에서는 각 도면의 각 구성 요소에 대해서 그 도면 부호를 명기함에 있어서, 동일한 구성 요소에 대해서는 이 구성 요소가 비록 다른 도면에 표시되더라도 동일한 도면 부호를 가지고 있도록, 즉 명세서 전체에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지시하고 있다.In addition, in this specification, in specifying the reference numerals for each component of each drawing, for the same component, even if the component is displayed in different drawings, it has the same reference numeral, that is, the same reference throughout the specification. Symbols indicate identical components.

본 명세서에 첨부된 도면에서 본 발명을 구성하는 각 구성 요소의 크기, 위치, 결합 관계 등은 본 발명의 사상을 충분히 명확하게 전달할 수 있도록 하기 위해서 또는 설명의 편의를 위해서 일부 과장 또는 축소되거나 생략되어 기술되어 있을 수 있고, 따라서 그 비례나 축척은 엄밀하지 않을 수 있다.In the drawings accompanying this specification, the size, position, coupling relationship, etc. of each component constituting the present invention is partially exaggerated, reduced, or omitted in order to sufficiently clearly convey the spirit of the present invention or for convenience of explanation. may be described, and therefore the proportions or scale may not be exact.

또한, 이하에서, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 구성, 예를 들어, 종래 기술을 포함하는 공지 기술에 대해 상세한 설명은 생략될 수도 있다.In addition, in the following description of the present invention, a detailed description of a configuration that is determined to unnecessarily obscure the subject matter of the present invention, for example, a known technology including the prior art, may be omitted.

이하, 본 발명의 실시 예에 대해 관련 도면들을 참조하여 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to related drawings.

본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법은 4개의 단계를 포함한다.An efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention includes four steps.

제 1 단계에서는, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집한다.In a first step, a hair data sample image taken by a scanning electron microscope is collected by a collection unit.

제 2 단계에서는, 수집된 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성한다.In the second step, the collected hair data sample images are created as a data set by the construction unit.

제 3 단계에서는, 생성된 데이터 세트로부터 추출부에 의해 모발 데이터 샘플 이미지의 특징을 추출한다.In the third step, the feature of the hair data sample image is extracted from the generated data set by the extraction unit.

제 4 단계에서는, 추출된 특징을 분류부에 의해 분류한다.In the fourth step, the extracted features are classified by a classification unit.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에 의해 감지한다.In addition, the efficient hair damage detection system using a scanning electron microscope image based on a convolutional neural network according to the present invention detects hair damage using an efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network.

좀 더 상세하게는, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은 수집부와, 구성부와, 추출부와, 분류부를 포함한다.More specifically, an efficient hair damage detection system using a convolutional neural network-based scanning electron microscope image according to the present invention includes a collection unit, a configuration unit, an extraction unit, and a classification unit.

수집부는 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집한다.The collection unit collects hair data sample images taken with a scanning electron microscope.

구성부는 수집된 모발 데이터 샘플 이미지를 데이터 세트로 생성한다.The construction unit generates the collected hair data sample images as a data set.

추출부는 생성된 데이터 세트로부터 모발 데이터 샘플 이미지의 특징을 추출한다.The extraction unit extracts features of the hair data sample image from the generated data set.

분류부는 추출된 특징을 분류한다.The classification unit classifies the extracted features.

본 발명에서는 새로운 모발 손상 감지 네트워크를 제공한다(도 3 참조).In the present invention, a novel hair damage detection network is provided (see FIG. 3).

주사 전자 현미경에 의한 모발 표면 이미지 손상(도 1 참조)에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할한다.It automatically identifies and segments the damage based on the artificial intelligence algorithm used for image damage to the hair surface by scanning electron microscopy (see Figure 1).

도 1은 모발 배율 800× 현미경 사진을 관찰하기 위한 주사 전자 현미경(SEM) 사진이다.1 is a scanning electron microscope (SEM) photograph for observing a hair magnification 800× micrograph.

동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 한다.At the same time, a new hair damage data set should be constructed based on the scanning electron microscopy image data.

요약하면, 본 발명은 다음과 같다.In summary, the present invention is as follows.

주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 현미경 데이터 세트를 생성하고, 모발 손상 정도를 약한 손상, 중간 손상, 높은 손상으로 분류하기 위해 정량 분석을 수행한다.A new hair microscopy data set is created based on the scanning electron microscopy image data, and quantitative analysis is performed to classify the degree of hair damage into weak, medium, and high damage.

모발 손상 감지를 위한 새롭고 효과적인 컨볼루션 신경망 모델인 RCSAN-Net(Residual Channel Spatial Attention Network)를 제공한다.We present RCSAN-Net (Residual Channel Spatial Attention Network), a novel and effective convolutional neural network model for hair damage detection.

감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 메커니즘(Channel Attention Mechanism) 및 공간주의 메커니즘(Spatial Attention Mechanism)을 설계하고 도입한다.To improve the accuracy of detection and recognition, a channel attention mechanism and a spatial attention mechanism are designed and introduced into a hair damage detection model that collects hair features.

환언하면, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 추출부는 컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용한다.In other words, in the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the extraction unit is a convolutional neural network (CNN), a residual channel spatial attention network (RCSAN-Net: Residual Channel Spatial Attention Network) is used.

이러한 잔여 채널 공간주의 네트워크는 감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계한다.In this residual channel spatial attention network, a channel attention model and a spatial attention model are designed in a hair damage detection model that collects hair features to improve detection and recognition accuracy.

- 관련 작업 -- Related Tasks -

모발의 미세 세부 사항 감지 및 인식은 의학 및 법의학과 같은 많은 분야에서 사용할 수 있다.The detection and recognition of fine details in hair can be used in many fields such as medicine and forensics.

법의학의 맥락에서 미시적 모발 분석(정성적 방법)은 효과적인 판별을 보여주었고, 현미경으로 모발을 자세히 조사하는 것은 법의학적 식별에 도움이 된다.In the context of forensic science, microscopic hair analysis (a qualitative method) has shown effective discrimination, and detailed examination of hair under a microscope aids in forensic identification.

임상적으로는 현미경적 분석이 모발 손상을 평가하는 도구로 건강 상태의 지표로 사용될 수 있지만, 특정 조건에서 분석을 수행해야 한다.Clinically, microscopic analysis can be used as a tool to assess hair damage and as an indicator of health status, but the analysis must be performed under specific conditions.

모발은 세제, 염료, 빗질, 자외선을 포함한 다양한 물리적, 화학적 작용제에 노출되어 모발의 구조를 변화시킨다.Hair is exposed to various physical and chemical agents, including detergents, dyes, combing, and ultraviolet light, which change the structure of the hair.

손상된 모발의 형태학적 특성은 임상 연구를 위한 정성적 방법으로 감지할 수 있다. Morphological characteristics of damaged hair can be detected by qualitative methods for clinical studies.

대부분의 연구는 모발 손상의 식별에 중점을 두고 있으며, 형태학적 특성을 기반으로 모발 손상 정도를 정량화하는 연구는 거의 없다.Most studies have focused on the identification of hair damage, and few studies have quantified the extent of hair damage based on morphological characteristics.

기존의 일 예에서는 모발 손상에 대한 분류 시스템을 제공했다.In one existing example, a classification system for hair damage was provided.

이 시스템은 5가지 손상 수준으로 구분되며, 모발 손상에 대한 외부 요인의 영향을 설명하였다.This system is divided into 5 damage levels, and the influence of external factors on hair damage is explained.

그 후, 손상 수준을 12개로 확장된 예가 있다.After that, there is an example of extending the damage level to 12.

이 예에서는 주사 전자 현미경의 모발 현미경 이미지를 관찰하여 모발 구조의 불규칙성을 주관적으로 평가하고, 모발 손상 정도를 12단계로 세분화하였다.In this example, hair microscopic images of a scanning electron microscope were observed to subjectively evaluate hair structure irregularities, and the degree of hair damage was subdivided into 12 stages.

또한, 모발 손상에 대한 주요 정성적 기법으로 시각적 평가를 사용하였다.In addition, visual evaluation was used as the main qualitative technique for hair damage.

보다 객관적인 모발 손상 분석 및 식별 시스템의 발명은 거의 없으며 대부분의 발명은 광학 현미경으로 감지된 형태학적 특징의 수동 분석 및 상용 소프트웨어를 사용한 분석에 중점을 두고 있는 반면 모발 손상의 자동 및 효율적인 감지에 대한 발명은 거의 없다.There are few inventions of more objective hair damage analysis and identification systems and most inventions focus on manual analysis of morphological features detected by light microscopy and analysis using commercial software, whereas inventions on automatic and efficient detection of hair damage is almost non-existent.

모발의 미세한 특징을 감지하고 인식하는 것은 어려운 작업이다.Detecting and recognizing minute features of hair is a difficult task.

최근 수십 년 동안 현미경 검사 기술의 지속적인 발전으로 관찰할 수 있는 모발의 미세 구조가 더 명확하고 정확하며, 샘플 준비가 간단하고 고해상도이므로 모발의 형태를 더 깊이 있는 현미경 형태에 대한 연구가 더 많이 이루어지고 있다.In recent decades, with the continuous development of microscopy technology, the microscopic structure of hair that can be observed is clearer and more accurate, and sample preparation is simple and high-resolution, so more research on microscopic morphology of hair morphology in greater depth is being conducted. there is.

수동 탐지 방법은 여전히 가장 중요한 실용적인 탐지 방법이지만, 자격을 갖춘 전문 탐지 인력을 양성하는 데 일반적으로 최소 1년이 걸린다.Manual detection methods are still the most important practical detection methods, but it usually takes at least one year to train qualified professional detection personnel.

이는 현미경을 사용하는 사람이 현미경으로 섬유의 형태를 오랜 시간 관찰해야 하고, 현미경을 사용하는 사람의 경험에 따라 주관적인 정확도와 검출 정확도가 달라지기 때문에 시간과 노력이 많이 들어간다.This takes a lot of time and effort because the person using the microscope has to observe the shape of the fiber for a long time with the microscope, and subjective accuracy and detection accuracy vary depending on the person using the microscope.

따라서, 수년에 걸쳐 모발 손상 정도를 자동으로 감지하는 빠르고 정확한 방법을 개발해 왔으며 많은 유용한 시도가 있다.Therefore, over the years, fast and accurate methods for automatically detecting the extent of hair damage have been developed and many useful trials have been made.

이러한 방법으로는 주로 광학 현미경 및 주사 전자 현미경 관찰 및 모발 현미경 이미지 분석, 이미지 처리 및 컴퓨터 비전 기술을 적용하여 모발 손상 정도를 자율적이고 효율적으로 감지하는 방법이 있다.These methods mainly include methods for autonomously and efficiently detecting the degree of hair damage by applying light microscope and scanning electron microscope observation, hair microscope image analysis, image processing, and computer vision technology.

최근 몇 년 동안 컨볼루션 신경망의 출현과 많은 응용 프로그램이 있다.In recent years, there has been the emergence and many applications of convolutional neural networks.

이미지 처리 및 컴퓨터 비전을 기반으로 하는 방법은 현재 연구 핫스팟이며, 점점 더 많은 발명자들이 모발 감지 분야에 집중하고 있다.Methods based on image processing and computer vision are current research hotspots, with more and more inventors focusing on the field of hair detection.

예를 들어, 제약 없는 관점에서 컨볼루션 신경망 알고리즘을 사용하고 텍스처 정보만 사용하여 완전한 모발 분석(검출, 분할 및 헤어스타일 분류)을 달성하는 컨볼루션 모델이 있다.For example, there are convolutional models that use convolutional neural network algorithms from an unconstrained perspective and achieve complete hair analysis (detection, segmentation, and hairstyle classification) using only texture information.

또한, 두피 건강 관리의 일환으로 4가지 일반적인 두피 및 모발 증상(비듬, 모낭염, 탈모, 지성 모발)을 감지하고 진단하는 딥러닝 기반의 스마트 두피 검사 및 진단 시스템이 있으며, 효과적인 검사 및 진단 시스템인 두피 및 모발 물리 치료에 사용된다.In addition, as part of scalp health management, there is a deep learning-based smart scalp inspection and diagnosis system that detects and diagnoses four common scalp and hair symptoms (dandruff, folliculitis, hair loss, and oily hair). and hair physical therapy.

초기에 사람들은 주로 이미지 처리 기술을 사용하여 모발 직경 및 모발 균일성과 같은 모발의 기하학적 매개 변수를 측정하였다.In the early days, people mainly used image processing techniques to measure geometrical parameters of hair such as hair diameter and hair uniformity.

최근 모발 현미경 영상에서 추상적인 세부 특징을 인식하기 위해 컴퓨터 비전 기술을 사용하여 추상적인 세부 특징을 추출하기 시작하였다.Recently, in order to recognize abstract detailed features in hair microscopic images, computer vision technology has begun to extract abstract detailed features.

예를 들어, 포렌식 범죄 수사 사건을 처리하기 위해 주사 전자 현미경 이미지의 특징 분석, 추출 및 분류를 수행하는 인공 지능 기반의 컨벌루션 신경망 알고리즘인 XI-Net이 있다.For example, there is XI-Net, an artificial intelligence-based convolutional neural network algorithm that performs feature analysis, extraction, and classification of scanning electron microscope images to handle forensic crime investigation cases.

이 알고리즘에 따르면 포렌식은 원하는 머리카락 디테일 특징을 빠르게 추출할 수 있으며, 조사 효율성이 크게 향상되어 사건의 감지 속도를 높일 수 있다. According to this algorithm, forensics can quickly extract the desired hair detail features, and the investigation efficiency can be greatly improved, which can speed up the detection of incidents.

- 재료 및 방법 -- Materials and Methods -

- 컨볼루션 신경망- Convolutional Neural Networks

필기체 인식 분야에서 컨벌루션 신경망은 자동 이미지 인식의 새로운 장을 열었다.In the field of handwriting recognition, convolutional neural networks have opened a new chapter in automatic image recognition.

이후, 컨볼루션 신경망이 이미지 분류에 적용되고 있다.Since then, convolutional neural networks have been applied to image classification.

이러한 추세에 따라 추세가 엔지니어링 수동 기능에서 엔지니어링 네트워크 아키텍처로 이동하였다.Following this trend, the trend has shifted from engineering manual functions to engineering network architectures.

예를 들어, VGG-Net은 네트워크 설계의 워크플로를 단순화하고, 다운스트림 애플리케이션의 전이 학습을 단순화하는 동일한 유형의 네트워크 블록 전략을 스택하는 모듈식 네트워크 설계 방법을 제안했다.For example, VGG-Net proposed a modular network design method to stack strategies of network blocks of the same type, which simplifies the workflow of network design and simplifies the transfer learning of downstream applications.

VGG-Net은 네트워크 설계의 워크플로를 단순화하고 다운스트림 애플리케이션의 전이 학습을 단순화하는 동일한 유형의 네트워크 블록 전략을 스택(stacking)하는 모듈식 네트워크 설계 방법을 제공하고 있다.VGG-Net provides a modular network design method for stacking strategies of network blocks of the same type that simplifies the workflow of network design and transfer learning for downstream applications.

Inception은 컨볼루션 레이어의 깊이와 너비를 확장하고 이미지의 여러 스케일 정보를 추출하여 더 많은 기능을 획득한다.Inception acquires more features by extending the depth and width of the convolutional layer and extracting multiple scale information from the image.

동시에 차원 축소를 위해 1 × 1 크기의 컨볼루션 레이어를 사용하여 계산량을 감소시킨다.At the same time, the amount of computation is reduced by using a 1 × 1 convolutional layer for dimensionality reduction.

ResNet은 스킵 연결을 도입하여, 심층 신경망에서 그래디언트가 사라지는 문제를 크게 완화하고, 네트워크가 향상된 기능 표현을 학습할 수 있도록 한다.ResNet introduces skip connections, which greatly alleviates the problem of vanishing gradients in deep neural networks and allows the network to learn enhanced feature representations.

잔여 블록(도 2 참조)에서, 레이어의 유형과 수를 적절하게 변경하면 네트워크 성능을 향상시킬 수 있다.In the remaining blocks (see FIG. 2), network performance can be improved by appropriately changing the type and number of layers.

도 2는 ResNet의 다양한 잔여 블록 프레임 워크를 나타내는 도면이다.Figure 2 is a diagram showing various residual block frameworks of ResNet.

ResNet은 가장 성공적인 CNN 아키텍처 중 하나이며, 다양한 컴퓨터 비전 애플리케이션에 채택되고 있다.ResNet is one of the most successful CNN architectures and has been adopted for various computer vision applications.

- RCSAN-Net: 잔여 채널 공간주의 네트워크 -- RCSAN-Net: Residual Channel Spatialism Network -

도 3은 잔여 채널 공간주의 네트워크(RCSAN)를 나타내는 도면이다.3 is a diagram illustrating a residual channel spatial attention network (RCSAN).

본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 잔여 채널 공간주의 네트워크는 다중 잔여 블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 네트워크 프레임워크를 구축한다.In the convolutional neural network-based efficient hair damage detection method using scanning electron microscope images according to the present invention, the residual channel spatial attention network stacks multiple residual blocks and multiple residual attentional blocks formed by combining the attentional blocks to form a network framework. build

또한, 잔여 채널 공간주의 네트워크는, 스킵 연결을 사용하여 상기 잔여 블록과 상기 주의 블록을 연결한다.In addition, the residual channel spatial attentional network connects the residual block and the attentional block using a skip connection.

도 3에 나타낸 바와 같이 RCSAN 네트워크는 잔여 네트워크를 기반으로 한다.As shown in Figure 3, the RCSAN network is based on the residual network.

다중 잔여블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 복잡하고 감지하기 어려운 모발 손상 특징 영역을 처리함으로써 모발 손상 감지를 위한 효율적인 네트워크 프레임워크를 구축한다. We build an efficient network framework for hair damage detection by stacking multiple residual blocks formed by combining multiple residual blocks and attention blocks to process complex and difficult-to-detect hair damage feature regions.

RCSAN 네트워크는 여러 개의 잔여 주의 모듈을 스택하여 구성된다.The RCSAN network is constructed by stacking several residual attention modules.

이전에는 일반적으로 스케일 주의 또는 공간 주의와 같은 한 가지 유형의 주의에만 초점을 맞추었으며, 대상 영역의 정확한 특징을 추출할 수 없었다.Previously, we generally focused on only one type of attention, such as scale attention or spatial attention, and could not extract accurate features of the target region.

주의 메커니즘 모델에서, 각 모듈은 잔여 블록과 채널 공간 결합주의 블록의 두 부분으로 나뉜다.In the attention mechanism model, each module is divided into two parts: a residual block and a channel-space connective attention block.

잔여 블록 컨볼루션 네트워크는 이미지의 전역 특징을 추출한 다음 주의 모듈에 들어가 로컬 세부 특징에 주의를 기울인다.The residual block convolutional network extracts the global features of the image and then enters the attention module to pay attention to the local detailed features.

그러나 관심 모델의 수를 추가한다고 해서 전체 네트워크 성능이 향상되지는 않는다.However, adding the number of models of interest does not improve the overall network performance.

본 발명의 네트워크 모델에서는 스킵 연결을 사용하여 잔여 블록과 주의 모듈을 연결한다.In the network model of the present invention, the residual block and the attention module are connected using skip connection.

또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 잔여 채널 공간주의 네트워크는 초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하고, 주의 메커니즘 모듈로 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하며, 계산 라운드로 들어가 주의 특징 맵을 생성한다.In addition, in the convolutional neural network-based efficient hair damage detection method using scanning electron microscopy images according to the present invention, the residual channel spatial attention network generates a feature map using standard convolution calculation at an early stage, and as an attention mechanism module Enter to extract multi-channel and spatial information for features, and enter a computational round to generate state feature maps.

이 모델은 이미지를 수신한 후, 초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하고, 주의 메커니즘 모듈에 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하고, 다음 계산 라운드로 들어가 주의 특징 맵을 생성한다.After receiving the image, this model generates a feature map using standard convolutional calculations in the initial step, enters the Attention Mechanisms module to extract multi-channel and spatial information about features, and enters the next round of computation to generate the Attention Feature Map. generate

도 4는 주의 메커니즘, 특징과 주의 마스크 간의 상호 작용을 나타내는 도면이다.Figure 4 is a diagram illustrating the interaction between attentional mechanisms, features and attentional masks.

특징 추출 프로세스에 대한 주의는 도 4에 나타내고 있다.A note on the feature extraction process is shown in FIG. 4 .

- 주의 메커니즘 모듈 -- Attention Mechanism Module -

본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 잔여 채널 공간주의 네트워크는 채널주의 모듈과 공간주의 모듈을 갖는 주의 메커니즘 모듈을 포함한다.In the efficient method for detecting hair damage using a scanning electron microscope image based on a convolutional neural network according to the present invention, the residual channel spatial attention network includes a channel attention module and an attention mechanism module having a spatial attention module.

주의는 인간의 지각에서 중요한 역할을 한다.Attention plays an important role in human perception.

인간은 시각적 구조를 더 잘 포착하기 위해, 일련의 부품을 사용하여 눈에 띄는 부분을 흘끗 보고 선택적으로 초점을 맞춘다.To better capture the visual structure, humans use a series of parts to glance at and selectively focus on a prominent part.

콘볼루션 신경망에서 주의 메커니즘을 추가하면 대규모 분류 작업에서 CNN의 성능을 효과적으로 향상시킬 수 있다.Adding attention mechanisms in convolutional neural networks can effectively improve the performance of CNNs on large-scale classification tasks.

주사 전자 현미경의 모발 이미지 데이터를 처리할 때, 모발 표면 특성의 작은 차이로 인해 일반 알고리즘 모델은 모발 손상의 미묘한 차이를 정확하게 식별할 수 없다.When processing hair image data from scanning electron microscopy, general algorithmic models cannot accurately discern subtle differences in hair damage due to small differences in hair surface properties.

본 발명에서는 모발 현미경 영상에 적합한 주의 메커니즘 모듈을 설계한다.In the present invention, an attention mechanism module suitable for hair microscopic imaging is designed.

주사 전자 현미경의 모발 이미지의 감지 및 손상 특징 식별의 정확도를 개선한다.Improve the accuracy of detection of hair images of scanning electron microscopy and identification of damage features.

주의 메커니즘 모듈에는 채널주의 모듈과 공간주의 모듈이 있다.Attention mechanism modules include a channel attention module and a spatial attention module.

- 채널주의 모듈 -- Channel attention module -

본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 채널주의 모듈은 특징 채널 간의 상호 의존성을 향상시킨다.In the method for efficient hair damage detection using scanning electron microscopy images based on a convolutional neural network according to the present invention, the channel attention module improves interdependence between feature channels.

특징의 각 채널 그래프는 클래스별 응답으로 간주될 수 있으며, 서로 다른 의미론적 응답이 서로 관련된다.Each channel graph of a feature can be regarded as a response by class, and different semantic responses are related to each other.

채널 매핑 간의 상호 의존성을 활용하여 상호 의존적 특징 매핑을 강조하고, 특정 의미론적 기능 표현을 개선할 수 있다.Interdependencies between channel mappings can be exploited to emphasize interdependent feature mappings and improve specific semantic functional representations.

따라서, 특징 채널 간의 상호 의존성을 향상시키는데 사용되는 채널주의 모듈을 추가한다.Therefore, a channel attention module used to improve the interdependency between feature channels is added.

채널주의 모듈의 구조는 도 5에 나타내고 있다.The structure of the channel attention module is shown in FIG. 5 .

도 5는 채널주의 모듈의 구조를 나타내는 도면이다.5 is a diagram showing the structure of a channel attention module.

도 5를 참조하면, 으로 변형하고, 의 전치 사이에 행렬 곱셈을 수행한 다음, softmax 함수를 전달하여 주의 특징 를 생성한다.Referring to Figure 5, cast transformed into and After performing matrix multiplication between the transpositions of , and then passing the softmax function to generate

또한, K와 A의 전치 사이에 행렬 곱셈을 수행하고, 그 결과를 로 변형한다.In addition, matrix multiplication is performed between the transpositions of K and A, and the result is transform into

최종 출력 채널주의 특징 맵 Mc(F)∈RC×H×WCharacteristic map of the final output channel Mc(F)∈RC×H×W

최종 출력 채널 주의 기능 맵 은 수식 1로 나타낸다.Function map of final output channel attention is represented by Equation 1.

[수식 1][Equation 1]

가 i번째 채널에 대한 j번째 채널의 영향을 측정하는 경우, 스케일 매개변수 는 0에서 가중치를 점차적으로 학습한다. scale parameter if measures the effect of the jth channel on the ith channel learns the weights gradually from 0.

각 채널의 최종 특징은 모든 채널의 특징과, 특징 맵 간의 원격 의미 의존성을 모델링하는 원래 특징의 가중치 합이다.The final feature of each channel is a weighted sum of the features of all channels and the original features modeling the remote semantic dependencies between the feature maps.

- 공간주의 모듈 -- Spatial attention module -

본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 공간주의 모듈은 채널주의 모듈을 보완하는 특징 맵의 특정 영역 정보 부분이며, 공간주의 맵은 요소 간의 공간 관계를 사용하여 생성된다.In the efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to the present invention, the spatial attention module is a specific area information part of a feature map that complements the channel attention module, and the spatial attention map determines the spatial relationship between elements. created using

이러한 공간주의 모듈은 채널주의 모듈에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성한다.This spatial attention module generates two 2-dimensional feature maps (Fa and Fm) by adopting a double pooling method combining maximum pooling and average pooling to keep feature information at maximum in the channelism module.

좀 더 상세하게는 채널주의와 달리 공간주의의 초점은 채널주의를 보완하는 특징 맵의 특정 영역 정보 부분이다.In more detail, unlike channelism, the focus of spatialism is a specific region information part of a feature map that complements channelism.

공간주의 맵은 요소 간의 공간 관계를 사용하여 생성된다.A spatial attention map is created using spatial relationships between elements.

공간주의 모듈의 구조는 도 6에 나타낸 바와 같다.The structure of the spatial attention module is as shown in FIG. 6 .

도 6은 공간주의 모듈의 구조를 나타내는 도면이다.6 is a diagram showing the structure of a spatial attention module.

도 6을 참조하면, 공간주의를 계산할 때 채널주의에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성한다.Referring to FIG. 6, two two-dimensional feature maps (Fa and Fm) are generated by adopting a double pooling method combining maximum pooling and average pooling in order to maximize feature information in channelism when calculating spatial attention.

이는 효과적인 특징 설명자를 생성하기 위해 연결되고, 표준 컨볼루션 레이어의 계산 후에 공간주의 특징 맵 을 생성한다.These are concatenated to create effective feature descriptors, and after the computation of standard convolutional layers, the feature maps of the spatial domain. generate

이는 수식 2로 나타낼 수 있다.This can be represented by Equation 2.

[수식 2][Equation 2]

여기서 는 시그모이드 함수를 나타내고, 은 컨볼루션 연산의 필터 크기이다.here denotes the sigmoid function, is the filter size of the convolution operation.

- 결과 -- result -

- 데이터 세트 - data set

20 ~ 60대 남성 50명, 여성 50명의 모발 샘플을 수집하고, 히타치(Hitachi)의 S-4700 주사 전자 현미경을 이용하여 모발 현미경 영상을 생성한다.Hair samples of 50 men and 50 women aged 20 to 60 are collected, and hair microscopic images are generated using a Hitachi S-4700 scanning electron microscope.

우선, 샘플 모발을 선별, 분류 및 절단한다.First, sample hair is sorted, sorted and cut.

모발 단면은 양면이 탄소로 코팅된 전도성 테이프에 부착되어 금속 알루미늄 막대에 고정되고 금속 타겟은 백금이 사용된다.The hair section is attached to a conductive tape coated with carbon on both sides and fixed to a metal aluminum rod, and platinum is used as a metal target.

스프레이 코팅기는 고진공 상태에서 스퍼터링 코팅을 수행한다.The spray coater performs sputtering coating in a high vacuum condition.

다음 주사 전자 현미경(모델명: 히타치 S-4700)을 사용하여 15 ㎸ 에서 코팅된 모발 샘플을 스캔한다.Next, the coated hair sample was scanned at 15 kV using a scanning electron microscope (model name: Hitachi S-4700).

각 축의 여러 섹션을 스캔하여 관찰된 모발 샘플 표면의 변화가 균일하고 분리되지 않았는지 확인한다.Multiple sections of each axis are scanned to ensure that the observed changes in the surface of the hair sample are uniform and not separated.

도 7은 모발 손상의 분류를 나타내는 도면이다.7 is a diagram showing classification of hair damage.

주사 전자 현미경에서 모간 손상은 약한 손상, 중간 손상, 높은 손상의 3단계로 구분한다(도 7 참조).In a scanning electron microscope, hair shaft damage is classified into three stages: weak damage, medium damage, and high damage (see FIG. 7).

본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 데이터 세트는 수집된 모발 데이터 샘플 이미지를 3등분으로 균등하게 분할하고, 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 최종 샘플 데이터 세트로 생성한다.In the efficient hair damage detection method using a convolutional neural network-based scanning electron microscope image according to the present invention, the data set equally divides the collected hair data sample image into 3 equal parts, and selects the central 5 mm segment for observation to generate weak, medium and high damage images as the final sample data set.

모발 손상 정도를 판단하는 기준으로 큐티클 손상 정도를 사용한다.The degree of cuticle damage is used as a criterion for determining the degree of hair damage.

모발 표면의 큐티클에 명백한 균열이 없는 샘플은 약한 손상으로 정의한다.Samples without obvious cracks in the cuticle of the hair surface are defined as mild damage.

표피의 심각한 균열 및 뒤틀림이 있는 샘플은 중간 손상으로 정의한다.Samples with severe cracks and distortions of the skin are defined as moderate damage.

표피가 샘플에서 거의 완전히 사라졌을 경우, 이는 높은 손상으로 정의한다.When the epidermis has almost completely disappeared from the sample, this is defined as high damage.

100 명의 테스터로부터 500 개의 모발 샘플의 데이터를 수집하고, 각 모발 데이터 샘플을 3등분으로 균등하게 분할하고 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 생성한다.Data of 500 hair samples from 100 testers are collected, each hair data sample is equally divided into 3 parts and the central 5 mm segment is selected for observation to generate weak damage, medium damage and high damage images.

각 모발 손상 카테고리에 대한 500개의 이미지가 생성된다.500 images for each hair damage category are generated.

주사 전자 현미경의 모발 이미지의 수집은 복잡하고 비용이 많이 들기 때문에 대규모 데이터 수집이 불가능하다.The collection of scanning electron microscopy hair images is complex and expensive, making large-scale data collection impossible.

도 8은 모발 SEM 현미경 이미지 데이터의 증강을 나타내는 도면이다.8 is a diagram showing enhancement of hair SEM microscopic image data.

본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 최종 샘플 데이터 세트의 총 양을 데이터 향상 알고리즘을 통해 확장하고, 데이터 향상 알고리즘은 이미지 반전 알고리즘, 회전 알고리즘, 자르기 알고리즘, 가우스 노이즈 추가 알고리즘 중 하나 이상이다.In the efficient hair damage detection method using scanning electron microscope images based on convolutional neural networks according to the present invention, the total amount of the final sample data set is expanded through a data enhancement algorithm, and the data enhancement algorithm includes an image inversion algorithm, a rotation algorithm, and a cropping algorithm. algorithm, one or more of the Gaussian noise addition algorithms.

이를 위해 도 8에 나타낸 바와 같이 수집된 주사 전자 현미경의 모발 이미지를 향상시키기 위해 데이터 향상 알고리즘을 사용한다.To this end, a data enhancement algorithm is used to enhance the collected scanning electron microscope hair images as shown in FIG. 8 .

예를 들어, 이미지 반전, 회전, 자르기, 가우스 노이즈 추가 및 기타 알고리즘 등이 있다.Examples include image inversion, rotation, cropping, Gaussian noise addition, and other algorithms.

다양한 유형의 총 15,000 개의 주사 전자 현미경의 모발 이미지가 포함된 주자 전자 현미경의 모발 데이터 세트를 만들었다.A runner electron microscopy hair data set was created, which contains a total of 15,000 scanning electron microscopy hair images of various types.

이는 다음과 같다.This is as follows.

약하게 손상된 주사 전자 현미경의 모발 이미지 5000 장과, 중간 정도로 손상된 주사 전자 현미경의 모발 이미지 5000 장과, 높게 손상된 주사 전자 현미경의 모발 이미지 5000 장의 데이터 세트를 만들었다.A dataset of 5000 lightly damaged scanning electron microscopy hair images, 5000 moderately damaged scanning electron microscopy hair images, and 5000 highly damaged scanning electron microscopy hair images were created.

- 상세 구현 -- detailed implementation -

실험에서, 데이터를 학습 세트와 테스트 세트로 나누어 80% 를 학습 세트로, 20% 를 테스트 세트로 나누었다.In our experiment, we split the data into training set and test set, 80% for training set and 20% for test set.

중앙 자르기를 사용하여 이미지 크기를 224 × 224 로 자르도록 한다.Crop the image size to 224 × 224 using center crop.

네트워크는 SGD(Stochastic Gradient Descent Algorithm)를 사용하여 학습된다.The network is trained using Stochastic Gradient Descent Algorithm (SGD).

초기 학습률을 0.1로 설정하고 점차 감소시킨다.The initial learning rate is set to 0.1 and gradually decreased.

0.9의 Nesterov 모멘텀과 모든 가중치에 대해 감쇠 없이 10-4 가중치 감소를 사용하였다.A Nesterov momentum of 0.9 and 10-4 weight reduction without damping were used for all weights.

이러한 모델 매개 변수는 표 1에 나타내고 있다.These model parameters are shown in Table 1.

[표 1][Table 1]

표 1은 SACN-Net의 구성 매개 변수이다.Table 1 is the configuration parameters of SACN-Net.

- 다른 방법과 비교 -- Comparison with other methods -

다른 네트워크 모델, 예를 들어 클래식 AlexNet 알고리즘, 널리 사용되는 VGG 네트워크 모델, 경량 CNN 네트워크 MobileNet, ResNet 및 기타 최첨단 방법을 선택하여 제공된 모델 알고리즘과 비교하였다.Different network models, such as the classic AlexNet algorithm, the popular VGG network model, the lightweight CNN networks MobileNet, ResNet, and other state-of-the-art methods were selected and compared with the provided model algorithms.

본 모델은 ResNet50을 기반으로 한다.This model is based on ResNet50.

성능 테스트 비교에서는 34-레이어와 50-레이어 ResNet 네트워크를 비교하였다.In the performance test comparison, 34-layer and 50-layer ResNet networks were compared.

표 2에 나타낸 바와 같이, 본 SACN-Net이 다른 모델에 비해 정확도가 더 우수함을 보여준다.As shown in Table 2, it shows that this SACN-Net has better accuracy than other models.

[표 2][Table 2]

표 2는 다른 모델의 정확도 비교를 나타낸다.Table 2 shows the accuracy comparison of different models.

모델 테스트에서 주의 모듈의 테스트를 추가하였다.In the model test, the test of the attention module was added.

도 9는 모발 손상 영역의 주의 특성을 나타내는 도면이다.Fig. 9 is a diagram showing attention characteristics of a hair damage region.

도 9는 모델의 전체 성능에 대한 채널주의 모듈 전용, 일회용 공간주의 모듈 및 위치 변경 방법과 결합된 채널공간주의 모듈의 비교 테스트 결과이다.9 is a comparative test result of a dedicated channel attention module, a one-time use spatial attention module, and a channel spatial attention module combined with a position change method for the overall performance of the model.

모델에서 다른 주의 모듈을 사용하도록 선택하면 성능에 큰 차이가 있다.If you choose to use different attention modules in your model, there is a big difference in performance.

단일 주의 모듈을 사용하면 대상을 정확하게 식별할 수 없다.A single attentional module cannot accurately identify an object.

[표 3][Table 3]

표 3은 주사 전자 현미경의 모발 데이터 세트에서 분류 오류를 나타내고 있다.Table 3 shows the classification errors in the scanning electron microscopy hair data set.

표 3의 Top-1과 같은 벤치 마크 테스트에서 채널을 먼저 기준으로 한 다음 공간주의 모듈을 기준으로 성능이 가장 좋은 것으로 나타났다. In a benchmark test such as Top-1 in Table 3, it was found that the performance was the best based on the channel first and then on the spatial attention module.

본 발명은 모발 손상을 자율적이고 효율적으로 감지하는 방법이다.The present invention is a method for autonomously and efficiently detecting hair damage.

모발 손상 정도를 자율적으로 감지할 수 있는 인공 지능 컨볼우션 신경망 기반 시스템을 구축하여, 개인의 일상 관리 및 유지 관리, 의료 건강 진단 및 기타 방향에 사용될 수 있다.By building an artificial intelligence convolutional neural network-based system that can autonomously detect the degree of hair damage, it can be used for personal daily care and maintenance, medical health diagnosis and other directions.

모발 손상 정도를 감지할 수 있는 휴대용 기계를 개발하고 모발 손상 감지 알고리즘과 결합하여 모발 손상을 빠르게 진단할 수 있다.By developing a handheld machine that can detect the degree of hair damage and combining it with a hair damage detection algorithm, hair damage can be quickly diagnosed.

모발 샘플 채취시 20 ~ 60 세 성인만 고려하며, 미성년자 및 60 세 이상의 모발 샘플 수집은 포함하지 않는다.When collecting hair samples, only adults aged 20 to 60 years are considered, and collections of hair samples from minors and those over 60 years of age are not included.

그 이유는 20 ~ 60 세 성인의 사람들이 일상적인 모발 관리에 더 신경을 쓰고, 더 많은 모발 손상이 있기 때문이다.The reason is that people between the ages of 20 and 60 pay more attention to daily hair care and have more hair damage.

따라서, 모발 손상 샘플 수집에 도움이 된다.Thus, it is helpful in collecting hair damage samples.

주사 전자 현미경을 관찰하여 모발의 손상 정도에 대한 모발 색상의 영향 가능성을 고려하여 갈색, 갈색 및 빨강 모발 샘플을 일부 수집하였다.Brown, brown, and red hair samples were partially collected by observing the scanning electron microscope to consider the possibility of the effect of hair color on the degree of damage to the hair.

관찰 및 분석 결과, 모발 색상과 모발 손상 사이의 관계가 약함을 발견하였다.As a result of observation and analysis, it was found that the relationship between hair color and hair damage was weak.

도 10은 다양한 배율에서 모발의 미세 디테일 비교를 나타내는 도면이다.10 is a diagram illustrating a comparison of fine details of hair at various magnifications.

데이터 세트를 만들 때, 400×와, 800×에서 모발의 미세한 특성을 비교하였다(도 10 참조).When creating the data set, the microscopic properties of the hair were compared at 400× and 800× (see FIG. 10).

먼저 주사 전자 현미경의 관찰에서 400× 모발 이미지를 사용하였다.First, a 400× hair image was used in observation with a scanning electron microscope.

디스플레이 효과가 만족스럽지 못했으며, 모발 표면 질감을 정확하게 표현하지 못하고, 모델 학습에 활용하기 어려웠다.The display effect was unsatisfactory, the hair surface texture could not be accurately expressed, and it was difficult to use for model learning.

마지막으로 데이터 세트의 표준으로 800× 헤어 이미지를 선택하고 자체 주사 전자 현미경에 의한 모발 데이터 세트를 만들었다.Finally, we chose 800× hair images as the standard for our data set and created our own Scanning Electron Microscopy hair data set.

모델에서, 모델의 최상의 성능을 찾기 위해 제안된 주의 메커니즘 모델에 대해 논의하였다.In the model, the proposed attentional mechanism model is discussed to find the best performance of the model.

많은 수정 후에 듀얼 주의 메커니즘 모듈, 특히 채널 우선 주의 방법이 모발 손상 특징을 식별하는 데 가장 높은 효율성을 갖는 것으로 나타났다.After many modifications, the dual attention mechanism module, especially the channel-priority attention method, was found to have the highest efficiency in identifying hair damage features.

도 11은 주의 메커니즘 모듈의 주의 기능 추출을 나타내는 도면이다.11 is a diagram illustrating attention function extraction of an attention mechanism module.

- 결론 -- conclusion -

본 발명에서는 20 ~ 60세의 남성 50명, 여성 50명으로 구성된 현미경에 의한 모발 데이터 세트를 주사 전자 현미경을 기반으로 생성하여 머리카락 표면에 큐티클 손상 정도에 따라 약한 손상, 중간 손상, 높은 손상으로 데이터를 구분하였다.In the present invention, a microscopic hair data set consisting of 50 males and 50 females aged 20 to 60 years old was created based on a scanning electron microscope, and data were classified into weak, medium, and high damage according to the degree of cuticle damage on the hair surface. separated.

주로 모발 손상 정도에 중점을 두었다.The focus was mainly on the degree of hair damage.

모발 샘플을 수집할 때 무작위 수집 방법을 채택하였다.A random collection method was adopted when collecting hair samples.

샘플에는 염색모, 곱슬머리, 직모 등의 모발 샘플이 포함된다.Samples include hair samples such as dyed hair, curly hair, and straight hair.

현미경 관찰시 각 모발의 중간 부분을 관찰 영역으로 사용한다.When observing under a microscope, the middle part of each hair is used as an observation area.

샘플의 변동성을 줄인다.Reduce sample variability.

또한 공간주의 모듈을 기반으로 하는 새로운 잔차 컨볼루션 네트워크를 제공하고 데이터 세트로 검증하였다.In addition, a new residual convolution network based on the spatial attention module is provided and verified with a data set.

실험은 네트워크 모델이 효과적이고 강력하다는 것을 보여준다.Experiments show that the network model is effective and robust.

이와 같이 본 발명에 의하면, 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 효과가 있다.As described above, according to the present invention, based on an artificial intelligence algorithm used for hair surface image damage by scanning electron microscopy, damage is automatically identified and segmented, while constructing a new hair damage data set based on scanning electron microscopy image data. It works.

이상, 일부 예를 들어서 본 발명의 바람직한 여러 가지 실시 예에 대해서 설명하였지만, 본 "발명을 실시하기 위한 구체적인 내용" 항목에 기재된 여러 가지 다양한 실시 예에 관한 설명은 예시적인 것에 불과한 것이며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이상의 설명으로부터 본 발명을 다양하게 변형하여 실시하거나 본 발명과 균등한 실시를 행할 수 있다는 점을 잘 이해하고 있을 것이다.In the above, various preferred embodiments of the present invention have been described with some examples, but the description of various embodiments described in the "Specific Contents for Carrying Out the Invention" section is only exemplary, and the present invention Those skilled in the art will understand from the above description that the present invention can be practiced with various modifications or equivalent implementations of the present invention can be performed.

또한, 본 발명은 다른 다양한 형태로 구현될 수 있기 때문에 본 발명은 상술한 설명에 의해서 한정되는 것이 아니며, 이상의 설명은 본 발명의 개시 내용이 완전해지도록 하기 위한 것으로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이며, 본 발명은 청구범위의 각 청구항에 의해서 정의될 뿐임을 알아야 한다.In addition, since the present invention can be implemented in various other forms, the present invention is not limited by the above description, and the above description is intended to complete the disclosure of the present invention and is common in the technical field to which the present invention belongs. It is only provided to completely inform those skilled in the art of the scope of the present invention, and it should be noted that the present invention is only defined by each claim of the claims.

Claims (16)

주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집하는 제 1 단계;
수집된 상기 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성하는 제 2 단계;
생성된 데이터 세트로부터 추출부에 의해 상기 모발 데이터 샘플 이미지의 특징을 추출하는 제 3 단계; 및
추출된 상기 특징을 분류부에 의해 분류하는 제 4 단계;를 포함하며,
상기 추출부는,
컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하고,
상기 잔여 채널 공간주의 네트워크는,
다중 잔여 블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 네트워크 프레임워크를 구축하며,
스킵 연결을 사용하여 상기 잔여 블록과 상기 주의 블록을 연결하고,
초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하며, 주의 메커니즘 모듈로 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하고, 계산 라운드로 들어가 주의 특징 맵을 생성하며,
상기 주의 특징 맵은,
채널주의 특징 맵인 하기 수식 1과, 공간주의 특징 맵인 하기 수식 2인 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
[수식 1]


[수식 2]

A first step of collecting, by a collecting unit, hair data sample images taken with a scanning electron microscope;
a second step of generating a data set from the collected hair data sample images by a construction unit;
a third step of extracting features of the hair data sample image from the generated data set by an extractor; and
A fourth step of classifying the extracted features by a classification unit; includes,
The extraction part,
Using a residual channel spatial attention network (RCSAN-Net), which is a convolutional neural network (CNN),
The residual channel spatialism network,
Build a network framework by stacking multiple residual blocks formed by combining multiple residual blocks and attentional blocks;
Connecting the residual block and the attentional block using skip connection;
In the initial stage, standard convolutional calculations are used to generate feature maps, the attention mechanism module is entered to extract multi-channel and spatial information for features, the calculation round is entered to generate attentional feature maps,
The feature map of the state is,
Characterized in that the following Equation 1, which is a feature map of the channel principle, and Equation 2 below, which is the feature map of the spatial principle,
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
[Formula 1]


[Formula 2]

제 1 항에 있어서,
상기 데이터 세트는,
수집된 모발 데이터 샘플 이미지를 3등분으로 균등하게 분할하고, 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 최종 샘플 데이터 세트로 생성하는 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
According to claim 1,
The data set is
Characterized in that the collected hair data sample image is equally divided into 3 equal parts and the central 5 mm segment is selected for observation to generate weak damage, medium damage and high damage images as the final sample data set,
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
제 2 항에 있어서,
상기 최종 샘플 데이터 세트의 총 양을 데이터 향상 알고리즘을 통해 확장하고,
상기 데이터 향상 알고리즘은 이미지 반전 알고리즘, 회전 알고리즘, 자르기 알고리즘, 가우스 노이즈 추가 알고리즘 중 하나 이상인 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
According to claim 2,
Expanding the total amount of the final sample data set through a data enhancement algorithm;
Characterized in that the data enhancement algorithm is one or more of an image inversion algorithm, a rotation algorithm, a cropping algorithm, and a Gaussian noise addition algorithm.
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 잔여 채널 공간주의 네트워크는,
채널주의 모듈과 공간주의 모듈을 갖는 주의 메커니즘 모듈을 포함하는 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
According to claim 1,
The residual channel spatialism network,
Characterized in that it comprises an attention mechanism module having a channel attention module and a spatial attention module,
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
제 8 항에 있어서,
상기 채널주의 모듈은,
특징 채널 간의 상호 의존성을 향상시키는 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
According to claim 8,
The channel attention module,
Characterized in improving the interdependence between feature channels,
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
제 9 항에 있어서,
상기 공간주의 모듈은,
상기 채널주의 모듈을 보완하는 특징 맵의 특정 영역 정보 부분이며,
공간주의 맵은 요소 간의 공간 관계를 사용하여 생성되는 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
According to claim 9,
The spatial attention module,
A specific area information part of a feature map that complements the channel attention module,
Characterized in that the spatial attention map is generated using the spatial relationship between elements,
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
제 10 항에 있어서,
상기 공간주의 모듈은,
상기 채널주의 모듈에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성하는 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
According to claim 10,
The spatial attention module,
Characterized in that, in the channel attention module, two two-dimensional feature maps (Fa and Fm) are generated by adopting a double pooling method combining maximum pooling and average pooling to maintain the maximum feature information.
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
제 1 항에 있어서,
상기 잔여 채널 공간주의 네트워크는,
감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
According to claim 1,
The residual channel spatialism network,
In order to improve the accuracy of detection and recognition, a channel attention model and a spatial attention model are designed in a hair damage detection model that collects hair features,
Efficient hair damage detection method using scanning electron microscopy images based on convolutional neural networks.
제 1 항 내지 제 3 항, 제 8 항 내지 제 12 항 중 한 항에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에 의해 감지하는 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템.
A scanning electron microscope image based on a convolutional neural network detected by an efficient hair damage detection method using a scanning electron microscope image based on a convolutional neural network according to one of claims 1 to 3 and 8 to 12 Efficient hair damage detection system using
주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집하는 수집부;
수집된 상기 모발 데이터 샘플 이미지를 데이터 세트로 생성하는 구성부;
생성된 데이터 세트로부터 상기 모발 데이터 샘플 이미지의 특징을 추출하는 추출부; 및
추출된 상기 특징을 분류하는 분류부;를 포함하며,
상기 추출부는,
컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하고,
상기 잔여 채널 공간주의 네트워크는,
다중 잔여 블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 네트워크 프레임워크를 구축하며,
스킵 연결을 사용하여 상기 잔여 블록과 상기 주의 블록을 연결하고,
초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하며, 주의 메커니즘 모듈로 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하고, 계산 라운드로 들어가 주의 특징 맵을 생성하며,
상기 주의 특징 맵은,
채널주의 특징 맵인 하기 수식 1과, 공간주의 특징 맵인 하기 수식 2인 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템.
[수식 1]


[수식 2]

a collection unit that collects hair data sample images taken with a scanning electron microscope;
a configuration unit generating a data set from the collected hair data sample images;
an extraction unit extracting features of the hair data sample image from the generated data set; and
A classification unit for classifying the extracted features; includes,
The extraction part,
Using a residual channel spatial attention network (RCSAN-Net), which is a convolutional neural network (CNN),
The residual channel spatialism network,
Build a network framework by stacking multiple residual blocks formed by combining multiple residual blocks and attentional blocks;
Connecting the residual block and the attentional block using a skip connection;
In the initial stage, standard convolutional calculations are used to generate feature maps, the Attention Mechanism module is entered to extract multi-channel and spatial information for features, the calculation round is entered to generate Attention Feature Maps,
The feature map of the state is,
Characterized in that the following Equation 1, which is a feature map of channel principals, and Equation 2 below, which is a feature map of spatial principals,
An efficient hair damage detection system using scanning electron microscopy images based on convolutional neural networks.
[Equation 1]


[Equation 2]

삭제delete 제 14 항에 있어서,
상기 잔여 채널 공간주의 네트워크는,
감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 하는,
콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템.

15. The method of claim 14,
The residual channel spatialism network,
In order to improve the accuracy of detection and recognition, a channel attention model and a spatial attention model are designed in a hair damage detection model that collects hair features,
An efficient hair damage detection system using scanning electron microscopy images based on convolutional neural networks.

KR1020210192176A 2021-12-30 2021-12-30 Efficient hair damage detection method and system using sem image based on convolutional neural network KR102567671B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210192176A KR102567671B1 (en) 2021-12-30 2021-12-30 Efficient hair damage detection method and system using sem image based on convolutional neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210192176A KR102567671B1 (en) 2021-12-30 2021-12-30 Efficient hair damage detection method and system using sem image based on convolutional neural network

Publications (2)

Publication Number Publication Date
KR20230104311A KR20230104311A (en) 2023-07-10
KR102567671B1 true KR102567671B1 (en) 2023-08-17

Family

ID=87155759

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210192176A KR102567671B1 (en) 2021-12-30 2021-12-30 Efficient hair damage detection method and system using sem image based on convolutional neural network

Country Status (1)

Country Link
KR (1) KR102567671B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316286B1 (en) * 2021-02-18 2021-10-22 임계현 Method for analyzing hair condition using artificial intelligence and computing device for executing the method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102390840B1 (en) 2017-11-01 2022-04-25 주식회사 엘지생활건강 Apparatus for rating hair damage degree and method for rating hair damage using thereof
KR20200005407A (en) * 2018-07-06 2020-01-15 주식회사 메디웨일 Diagnostic auxiliary image providing device based on eye image
KR102497361B1 (en) * 2020-05-20 2023-02-10 한국전자통신연구원 Object detecting system and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316286B1 (en) * 2021-02-18 2021-10-22 임계현 Method for analyzing hair condition using artificial intelligence and computing device for executing the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Xin Jiang 등, Residual Spatial and Channel Attention Networks for Single Image Dehazing, Sensors 2021, 21, 7922, pp1-20, 2021.11.27.*

Also Published As

Publication number Publication date
KR20230104311A (en) 2023-07-10

Similar Documents

Publication Publication Date Title
Mishra et al. Gray level co-occurrence matrix and random forest based acute lymphoblastic leukemia detection
KR102108050B1 (en) Method for classifying breast cancer histology images through incremental boosting convolution networks and apparatus thereof
Forero et al. Automatic identification techniques of tuberculosis bacteria
Pan et al. Cell detection in pathology and microscopy images with multi-scale fully convolutional neural networks
Li et al. Parasitologist-level classification of apicomplexan parasites and host cell with deep cycle transfer learning (DCTL)
CN111009324A (en) Mild cognitive impairment auxiliary diagnosis system and method based on brain network multi-feature analysis
Mikołajczyk et al. Towards explainable classifiers using the counterfactual approach-global explanations for discovering bias in data
Safdar et al. An automated deep learning based ensemble approach for malignant melanoma detection using dermoscopy images
CN112784767A (en) Cell example segmentation algorithm based on leukocyte microscopic image
Lin et al. Quality assessment of fetal head ultrasound images based on faster R-CNN
CN115457334A (en) Resting state functional magnetic resonance image data classification method and system and related products
Bozkurt et al. Skin strata delineation in reflectance confocal microscopy images using recurrent convolutional networks with attention
Scheurer et al. Semantic segmentation of histopathological slides for the classification of cutaneous lymphoma and eczema
CN113129281B (en) Wheat stem section parameter detection method based on deep learning
Aliyu et al. Red blood cells abnormality classification: Deep learning architecture versus support vector machine
KR102567671B1 (en) Efficient hair damage detection method and system using sem image based on convolutional neural network
Pattanaik et al. ILCAN: a new vision attention-based late blight disease localization and classification
Saraswathi et al. FRCNN based Deep Learning for Identification and Classification of Alopecia Areata
Wang et al. Shape-aware fine-grained classification of erythroid cells
Hartmann et al. COVID-19 Diagnosis in 3D Chest CT Scans with Attention-Based Models
KR102567138B1 (en) Method and system for diagnosing hair health based on machine learning
Liu et al. 3D Rotation-Invariant description from tensor operation on spherical HOG field
Jaisakthi et al. Role of Deep Learning Techniques in Detecting Skin Cancer: A Review
Sönmez et al. Deep Learning-Based Classification of Dermoscopic Images for Skin Lesions
Yogalakshmi et al. A Transparent Hybrid Deep Learning Framework to Assess German Measles Disease in Skin Images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant