KR20230104311A - 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템 - Google Patents

콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템 Download PDF

Info

Publication number
KR20230104311A
KR20230104311A KR1020210192176A KR20210192176A KR20230104311A KR 20230104311 A KR20230104311 A KR 20230104311A KR 1020210192176 A KR1020210192176 A KR 1020210192176A KR 20210192176 A KR20210192176 A KR 20210192176A KR 20230104311 A KR20230104311 A KR 20230104311A
Authority
KR
South Korea
Prior art keywords
hair
scanning electron
convolutional neural
damage detection
hair damage
Prior art date
Application number
KR1020210192176A
Other languages
English (en)
Other versions
KR102567671B1 (ko
Inventor
조영임
만교월
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020210192176A priority Critical patent/KR102567671B1/ko
Publication of KR20230104311A publication Critical patent/KR20230104311A/ko
Application granted granted Critical
Publication of KR102567671B1 publication Critical patent/KR102567671B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/448Hair evaluation, e.g. for hair disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Dermatology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Immunology (AREA)
  • Fuzzy Systems (AREA)
  • Biochemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Analytical Chemistry (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)

Abstract

본 발명의 목적은 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법은, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집하는 제 1 단계; 수집된 상기 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성하는 제 2 단계; 생성된 데이터 세트로부터 추출부에 의해 상기 모발 데이터 샘플 이미지의 특징을 추출하는 제 3 단계; 및 추출된 상기 특징을 분류부에 의해 분류하는 제 4 단계;를 포함하는 것을 특징으로 한다.

Description

콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템{EFFICIENT HAIR DAMAGE DETECTION METHOD AND SYSTEM USING SEM IMAGE BASED ON CONVOLUTIONAL NEURAL NETWORK}
본 발명은 콘볼루션 신경망 기반의 주자 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템에 관한 것으로, 더욱 상세하게는 모발 이미지에서 모발 손상 정도를 인식하고 판단할 수 있는 콘볼루션 신경망 기반의 주자 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템에 관한 것이다.
모발은 인체 이미지의 중요한 부분이다.
아름다움에 대한 현대인의 미적 욕망, 모발의 지속적인 성장과 다양화, 모발의 모양, 색상, 질감의 지속적인 발전으로 변화를 시도하고 있으며, 자신의 개성을 이용하여 이미지를 변화시켜 트렌드를 따라갈 수 있다.
모발은 1 ~ 8 % 외부 소수성 지질 표피, 80 ~ 90 % α-나선 또는 평행 폴리펩타이드 사슬의 β-시트 형태로 구성되어 수불용성 케라틴, 3% 미만의 멜라닌 색소 및 0.6 ~ 1.0 % 미량 원소, 수분 10 ~ 15 % 등을 형성한다.
정상적인 큐티클은 빛을 반사하고, 모간 사이의 마찰을 제한하는 매끄러운 외관을 가지고 있다.
이는 모발의 윤기와 질감을 담당한다.
모발의 케라틴층은 외부 환경, 온도, 습도, 화학적, 물리적 처리의 영향으로 약해지고 갈라져 모발 품질에 영향을 미친다.
대부분의 사람들의 모발은 관찰하기 불편하기 때문에 다양한 손상 문제가 발생하기 쉬우나, 자세한 분석이 불가능하고 이와 관련된 모발 손상에 대한 연구도 거의 없는 문제가 있다.
모발 미세 구조 분석 분야에서 광현미경이 널리 보급되면서 기존의 현미경으로는 명확하게 관찰하기 어려웠던 모발 디테일을 보다 쉽게 관찰할 수 있게 되었다.
임상적으로 현미경적 분석은 모발 손상을 평가하는 도구로 건강 상태의 지표로 사용될 수 있으며, 모발 손상의 형태학적 특성을 식별하여 정성적으로 분석할 수 있다.
세제, 염료, 빗질, 자외선 등과 같은 다양한 화학 물질 및 물리적 영향에 대한 모발 노출은 모발에 영향을 미친다.
그러나 모발의 형태적 특성에 따라 모발 손상 정도를 정량화한 연구는 거의 없다.
전통적으로 광학 현미경으로 수동으로 관찰하는 것만으로는 모발 손상을 자세히 구분하기 어렵다.
현미경 기술의 발달과 다양한 분야의 주사 전자 현미경(SEM)의 적용으로 모발의 미세한 부분을 더 용이하게 찾을 수 있다.
예를 들어, 주사 전자 현미경을 사용하여 에너지 분산 X선 분광법(EDX: Energy-Dispersive X-ray Spectroscopy)과, 기타 물리적 및 화학적 방법을 사용하여 원형 탈모증이 인간 모발의 구조와 구성에 미치는 영향을 확인하였다.
또한, 가열 인두를 사용하여 모발을 가열하고 주사 전자 현미경으로 모발 이미지를 관찰하여 열손실에 의한 모발 섬유의 표피 및 피질 손상을 평가하였다.
하지만, 이러한 수동 방법은 주사 전자 현미경 영상 기술을 사용하여 모발 현미경 이미지를 분석하지만 모발 손상에 대한 자세한 정량적 분류를 수행하지 않았다.
국내 공개특허공보 제10-2019-0049222호
상기한 바와 같은 종래의 문제점을 해결하기 위한 본 발명의 목적은 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법은, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집하는 제 1 단계; 수집된 상기 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성하는 제 2 단계; 생성된 데이터 세트로부터 추출부에 의해 상기 모발 데이터 샘플 이미지의 특징을 추출하는 제 3 단계; 및 추출된 상기 특징을 분류부에 의해 분류하는 제 4 단계;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 데이터 세트는, 수집된 모발 데이터 샘플 이미지를 3등분으로 균등하게 분할하고, 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 최종 샘플 데이터 세트로 생성하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 최종 샘플 데이터 세트의 총 양을 데이터 향상 알고리즘을 통해 확장하고, 상기 데이터 향상 알고리즘은 이미지 반전 알고리즘, 회전 알고리즘, 자르기 알고리즘, 가우스 노이즈 추가 알고리즘 중 하나 이상인 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 추출부는, 컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 다중 잔여 블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 네트워크 프레임워크를 구축하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 스킵 연결을 사용하여 상기 잔여 블록과 상기 주의 블록을 연결하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하고, 주의 메커니즘 모듈로 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하며, 계산 라운드로 들어가 주의 특징 맵을 생성하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 채널주의 모듈과 공간주의 모듈을 갖는 주의 메커니즘 모듈을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 채널주의 모듈은, 특징 채널 간의 상호 의존성을 향상시키는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 공간주의 모듈은, 상기 채널주의 모듈을 보완하는 특징 맵의 특정 영역 정보 부분이며, 공간주의 맵은 요소 간의 공간 관계를 사용하여 생성되는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 공간주의 모듈은, 상기 채널주의 모듈에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 상기 잔여 채널 공간주의 네트워크는, 감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 한다.
또한, 상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은, 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에 의해 감지한다.
한편, 상기 목적을 달성하기 위해, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집하는 수집부; 수집된 상기 모발 데이터 샘플 이미지를 데이터 세트로 생성하는 구성부; 생성된 데이터 세트로부터 상기 모발 데이터 샘플 이미지의 특징을 추출하는 추출부; 및 추출된 상기 특징을 분류하는 분류부;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템에서, 상기 추출부는, 컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하는 것을 특징으로 한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템에서, 상기 잔여 채널 공간주의 네트워크는, 감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 한다.
기타 실시 예의 구체적인 사항은 "발명을 실시하기 위한 구체적인 내용" 및 첨부 "도면"에 포함되어 있다.
본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 각종 실시 예를 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 각 실시 예의 구성만으로 한정되는 것이 아니라 서로 다른 다양한 형태로도 구현될 수도 있으며, 단지 본 명세서에서 개시한 각각의 실시 예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구범위의 각 청구항의 범주에 의해 정의될 뿐임을 알아야 한다.
본 발명에 의하면, 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 효과가 있다.
도 1은 모발 배율 800× 현미경 사진을 관찰하기 위한 주사 전자 현미경(SEM) 사진.
도 2는 ResNet의 다양한 잔여 블록 프레임 워크를 나타내는 도면.
도 3은 잔여 채널 공간주의 네트워크(RCSAN)를 나타내는 도면.
도 4는 주의 메커니즘, 특징과 주의 마스크 간의 상호 작용을 나타내는 도면.
도 5는 채널주의 모듈의 구조를 나타내는 도면.
도 6은 공간주의 모듈의 구조를 나타내는 도면.
도 7은 모발 손상의 분류를 나타내는 도면.
도 8은 모발 SEM 현미경 이미지 데이터의 증강을 나타내는 도면.
도 9는 도 9는 모발 손상 영역의 주의 특성을 나타내는 도면.
도 10은 다양한 배율에서 모발의 미세 디테일 비교를 나타내는 도면.
도 11은 도 11은 주의 메커니즘 모듈의 주의 기능 추출을 나타내는 도면.
본 발명을 상세하게 설명하기 전에, 본 명세서에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 무조건 한정하여 해석되어서는 아니 되며, 본 발명의 발명자가 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 각종 용어의 개념을 적절하게 정의하여 사용할 수 있고, 더 나아가 이들 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 함을 알아야 한다.
즉, 본 명세서에서 사용된 용어는 본 발명의 바람직한 실시 예를 설명하기 위해서 사용되는 것일 뿐이고, 본 발명의 내용을 구체적으로 한정하려는 의도로 사용된 것이 아니며, 이들 용어는 본 발명의 여러 가지 가능성을 고려하여 정의된 용어임을 알아야 한다.
또한, 본 명세서에서, 단수의 표현은 문맥상 명확하게 다른 의미로 지시하지 않는 이상, 복수의 표현을 포함할 수 있으며, 유사하게 복수로 표현되어 있다고 하더라도 단수의 의미를 포함할 수 있음을 알아야 한다.
본 명세서의 전체에 걸쳐서 어떤 구성 요소가 다른 구성 요소를 "포함"한다고 기재하는 경우에는, 특별히 반대되는 의미의 기재가 없는 한 임의의 다른 구성 요소를 제외하는 것이 아니라 임의의 다른 구성 요소를 더 포함할 수도 있다는 것을 의미할 수 있다.
더 나아가서, 어떤 구성 요소가 다른 구성 요소의 "내부에 존재하거나, 연결되어 설치된다"라고 기재한 경우에는, 이 구성 요소가 다른 구성 요소와 직접적으로 연결되어 있거나 접촉하여 설치되어 있을 수 있고, 일정한 거리를 두고 이격되어 설치되어 있을 수도 있으며, 일정한 거리를 두고 이격되어 설치되어 있는 경우에 대해서는 해당 구성 요소를 다른 구성 요소에 고정 내지 연결하기 위한 제 3의 구성 요소 또는 수단이 존재할 수 있으며, 이 제 3의 구성 요소 또는 수단에 대한 설명은 생략될 수도 있음을 알아야 한다.
반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결"되어 있다거나, 또는 "직접 접속"되어 있다고 기재되는 경우에는, 제 3의 구성 요소 또는 수단이 존재하지 않는 것으로 이해하여야 한다.
마찬가지로, 각 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 " ~ 사이에"와 "바로 ~ 사이에", 또는 " ~ 에 이웃하는"과 " ~ 에 직접 이웃하는" 등도 마찬가지의 취지를 가지고 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 "일면", "타면", "일측", "타측", "제 1", "제 2" 등의 용어는, 사용된다면, 하나의 구성 요소에 대해서 이 하나의 구성 요소가 다른 구성 요소로부터 명확하게 구별될 수 있도록 하기 위해서 사용되며, 이와 같은 용어에 의해서 해당 구성 요소의 의미가 제한적으로 사용되는 것은 아님을 알아야 한다.
또한, 본 명세서에서 "상", "하", "좌", "우" 등의 위치와 관련된 용어는, 사용된다면, 해당 구성 요소에 대해서 해당 도면에서의 상대적인 위치를 나타내고 있는 것으로 이해하여야 하며, 이들의 위치에 대해서 절대적인 위치를 특정하지 않는 이상은, 이들 위치 관련 용어가 절대적인 위치를 언급하고 있는 것으로 이해하여서는 아니된다.
또한, 본 명세서에서는 각 도면의 각 구성 요소에 대해서 그 도면 부호를 명기함에 있어서, 동일한 구성 요소에 대해서는 이 구성 요소가 비록 다른 도면에 표시되더라도 동일한 도면 부호를 가지고 있도록, 즉 명세서 전체에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지시하고 있다.
본 명세서에 첨부된 도면에서 본 발명을 구성하는 각 구성 요소의 크기, 위치, 결합 관계 등은 본 발명의 사상을 충분히 명확하게 전달할 수 있도록 하기 위해서 또는 설명의 편의를 위해서 일부 과장 또는 축소되거나 생략되어 기술되어 있을 수 있고, 따라서 그 비례나 축척은 엄밀하지 않을 수 있다.
또한, 이하에서, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 구성, 예를 들어, 종래 기술을 포함하는 공지 기술에 대해 상세한 설명은 생략될 수도 있다.
이하, 본 발명의 실시 예에 대해 관련 도면들을 참조하여 상세히 설명하기로 한다.
본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법은 4개의 단계를 포함한다.
제 1 단계에서는, 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집한다.
제 2 단계에서는, 수집된 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성한다.
제 3 단계에서는, 생성된 데이터 세트로부터 추출부에 의해 모발 데이터 샘플 이미지의 특징을 추출한다.
제 4 단계에서는, 추출된 특징을 분류부에 의해 분류한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에 의해 감지한다.
좀 더 상세하게는, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템은 수집부와, 구성부와, 추출부와, 분류부를 포함한다.
수집부는 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집한다.
구성부는 수집된 모발 데이터 샘플 이미지를 데이터 세트로 생성한다.
추출부는 생성된 데이터 세트로부터 모발 데이터 샘플 이미지의 특징을 추출한다.
분류부는 추출된 특징을 분류한다.
본 발명에서는 새로운 모발 손상 감지 네트워크를 제공한다(도 3 참조).
주사 전자 현미경에 의한 모발 표면 이미지 손상(도 1 참조)에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할한다.
도 1은 모발 배율 800× 현미경 사진을 관찰하기 위한 주사 전자 현미경(SEM) 사진이다.
동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 한다.
요약하면, 본 발명은 다음과 같다.
주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 현미경 데이터 세트를 생성하고, 모발 손상 정도를 약한 손상, 중간 손상, 높은 손상으로 분류하기 위해 정량 분석을 수행한다.
모발 손상 감지를 위한 새롭고 효과적인 컨볼루션 신경망 모델인 RCSAN-Net(Residual Channel Spatial Attention Network)를 제공한다.
감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 메커니즘(Channel Attention Mechanism) 및 공간주의 메커니즘(Spatial Attention Mechanism)을 설계하고 도입한다.
환언하면, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 추출부는 컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용한다.
이러한 잔여 채널 공간주의 네트워크는 감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계한다.
- 관련 작업 -
모발의 미세 세부 사항 감지 및 인식은 의학 및 법의학과 같은 많은 분야에서 사용할 수 있다.
법의학의 맥락에서 미시적 모발 분석(정성적 방법)은 효과적인 판별을 보여주었고, 현미경으로 모발을 자세히 조사하는 것은 법의학적 식별에 도움이 된다.
임상적으로는 현미경적 분석이 모발 손상을 평가하는 도구로 건강 상태의 지표로 사용될 수 있지만, 특정 조건에서 분석을 수행해야 한다.
모발은 세제, 염료, 빗질, 자외선을 포함한 다양한 물리적, 화학적 작용제에 노출되어 모발의 구조를 변화시킨다.
손상된 모발의 형태학적 특성은 임상 연구를 위한 정성적 방법으로 감지할 수 있다.
대부분의 연구는 모발 손상의 식별에 중점을 두고 있으며, 형태학적 특성을 기반으로 모발 손상 정도를 정량화하는 연구는 거의 없다.
기존의 일 예에서는 모발 손상에 대한 분류 시스템을 제공했다.
이 시스템은 5가지 손상 수준으로 구분되며, 모발 손상에 대한 외부 요인의 영향을 설명하였다.
그 후, 손상 수준을 12개로 확장된 예가 있다.
이 예에서는 주사 전자 현미경의 모발 현미경 이미지를 관찰하여 모발 구조의 불규칙성을 주관적으로 평가하고, 모발 손상 정도를 12단계로 세분화하였다.
또한, 모발 손상에 대한 주요 정성적 기법으로 시각적 평가를 사용하였다.
보다 객관적인 모발 손상 분석 및 식별 시스템의 발명은 거의 없으며 대부분의 발명은 광학 현미경으로 감지된 형태학적 특징의 수동 분석 및 상용 소프트웨어를 사용한 분석에 중점을 두고 있는 반면 모발 손상의 자동 및 효율적인 감지에 대한 발명은 거의 없다.
모발의 미세한 특징을 감지하고 인식하는 것은 어려운 작업이다.
최근 수십 년 동안 현미경 검사 기술의 지속적인 발전으로 관찰할 수 있는 모발의 미세 구조가 더 명확하고 정확하며, 샘플 준비가 간단하고 고해상도이므로 모발의 형태를 더 깊이 있는 현미경 형태에 대한 연구가 더 많이 이루어지고 있다.
수동 탐지 방법은 여전히 가장 중요한 실용적인 탐지 방법이지만, 자격을 갖춘 전문 탐지 인력을 양성하는 데 일반적으로 최소 1년이 걸린다.
이는 현미경을 사용하는 사람이 현미경으로 섬유의 형태를 오랜 시간 관찰해야 하고, 현미경을 사용하는 사람의 경험에 따라 주관적인 정확도와 검출 정확도가 달라지기 때문에 시간과 노력이 많이 들어간다.
따라서, 수년에 걸쳐 모발 손상 정도를 자동으로 감지하는 빠르고 정확한 방법을 개발해 왔으며 많은 유용한 시도가 있다.
이러한 방법으로는 주로 광학 현미경 및 주사 전자 현미경 관찰 및 모발 현미경 이미지 분석, 이미지 처리 및 컴퓨터 비전 기술을 적용하여 모발 손상 정도를 자율적이고 효율적으로 감지하는 방법이 있다.
최근 몇 년 동안 컨볼루션 신경망의 출현과 많은 응용 프로그램이 있다.
이미지 처리 및 컴퓨터 비전을 기반으로 하는 방법은 현재 연구 핫스팟이며, 점점 더 많은 발명자들이 모발 감지 분야에 집중하고 있다.
예를 들어, 제약 없는 관점에서 컨볼루션 신경망 알고리즘을 사용하고 텍스처 정보만 사용하여 완전한 모발 분석(검출, 분할 및 헤어스타일 분류)을 달성하는 컨볼루션 모델이 있다.
또한, 두피 건강 관리의 일환으로 4가지 일반적인 두피 및 모발 증상(비듬, 모낭염, 탈모, 지성 모발)을 감지하고 진단하는 딥러닝 기반의 스마트 두피 검사 및 진단 시스템이 있으며, 효과적인 검사 및 진단 시스템인 두피 및 모발 물리 치료에 사용된다.
초기에 사람들은 주로 이미지 처리 기술을 사용하여 모발 직경 및 모발 균일성과 같은 모발의 기하학적 매개 변수를 측정하였다.
최근 모발 현미경 영상에서 추상적인 세부 특징을 인식하기 위해 컴퓨터 비전 기술을 사용하여 추상적인 세부 특징을 추출하기 시작하였다.
예를 들어, 포렌식 범죄 수사 사건을 처리하기 위해 주사 전자 현미경 이미지의 특징 분석, 추출 및 분류를 수행하는 인공 지능 기반의 컨벌루션 신경망 알고리즘인 XI-Net이 있다.
이 알고리즘에 따르면 포렌식은 원하는 머리카락 디테일 특징을 빠르게 추출할 수 있으며, 조사 효율성이 크게 향상되어 사건의 감지 속도를 높일 수 있다.
- 재료 및 방법 -
- 컨볼루션 신경망
필기체 인식 분야에서 컨벌루션 신경망은 자동 이미지 인식의 새로운 장을 열었다.
이후, 컨볼루션 신경망이 이미지 분류에 적용되고 있다.
이러한 추세에 따라 추세가 엔지니어링 수동 기능에서 엔지니어링 네트워크 아키텍처로 이동하였다.
예를 들어, VGG-Net은 네트워크 설계의 워크플로를 단순화하고, 다운스트림 애플리케이션의 전이 학습을 단순화하는 동일한 유형의 네트워크 블록 전략을 스택하는 모듈식 네트워크 설계 방법을 제안했다.
VGG-Net은 네트워크 설계의 워크플로를 단순화하고 다운스트림 애플리케이션의 전이 학습을 단순화하는 동일한 유형의 네트워크 블록 전략을 스택(stacking)하는 모듈식 네트워크 설계 방법을 제공하고 있다.
Inception은 컨볼루션 레이어의 깊이와 너비를 확장하고 이미지의 여러 스케일 정보를 추출하여 더 많은 기능을 획득한다.
동시에 차원 축소를 위해 1 × 1 크기의 컨볼루션 레이어를 사용하여 계산량을 감소시킨다.
ResNet은 스킵 연결을 도입하여, 심층 신경망에서 그래디언트가 사라지는 문제를 크게 완화하고, 네트워크가 향상된 기능 표현을 학습할 수 있도록 한다.
잔여 블록(도 2 참조)에서, 레이어의 유형과 수를 적절하게 변경하면 네트워크 성능을 향상시킬 수 있다.
도 2는 ResNet의 다양한 잔여 블록 프레임 워크를 나타내는 도면이다.
ResNet은 가장 성공적인 CNN 아키텍처 중 하나이며, 다양한 컴퓨터 비전 애플리케이션에 채택되고 있다.
- RCSAN-Net: 잔여 채널 공간주의 네트워크 -
도 3은 잔여 채널 공간주의 네트워크(RCSAN)를 나타내는 도면이다.
본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 잔여 채널 공간주의 네트워크는 다중 잔여 블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 네트워크 프레임워크를 구축한다.
또한, 잔여 채널 공간주의 네트워크는, 스킵 연결을 사용하여 상기 잔여 블록과 상기 주의 블록을 연결한다.
도 3에 나타낸 바와 같이 RCSAN 네트워크는 잔여 네트워크를 기반으로 한다.
다중 잔여블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 복잡하고 감지하기 어려운 모발 손상 특징 영역을 처리함으로써 모발 손상 감지를 위한 효율적인 네트워크 프레임워크를 구축한다.
RCSAN 네트워크는 여러 개의 잔여 주의 모듈을 스택하여 구성된다.
이전에는 일반적으로 스케일 주의 또는 공간 주의와 같은 한 가지 유형의 주의에만 초점을 맞추었으며, 대상 영역의 정확한 특징을 추출할 수 없었다.
주의 메커니즘 모델에서, 각 모듈은 잔여 블록과 채널 공간 결합주의 블록의 두 부분으로 나뉜다.
잔여 블록 컨볼루션 네트워크는 이미지의 전역 특징을 추출한 다음 주의 모듈에 들어가 로컬 세부 특징에 주의를 기울인다.
그러나 관심 모델의 수를 추가한다고 해서 전체 네트워크 성능이 향상되지는 않는다.
본 발명의 네트워크 모델에서는 스킵 연결을 사용하여 잔여 블록과 주의 모듈을 연결한다.
또한, 본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 잔여 채널 공간주의 네트워크는 초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하고, 주의 메커니즘 모듈로 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하며, 계산 라운드로 들어가 주의 특징 맵을 생성한다.
이 모델은 이미지를 수신한 후, 초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하고, 주의 메커니즘 모듈에 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하고, 다음 계산 라운드로 들어가 주의 특징 맵을 생성한다.
도 4는 주의 메커니즘, 특징과 주의 마스크 간의 상호 작용을 나타내는 도면이다.
특징 추출 프로세스에 대한 주의는 도 4에 나타내고 있다.
- 주의 메커니즘 모듈 -
본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 잔여 채널 공간주의 네트워크는 채널주의 모듈과 공간주의 모듈을 갖는 주의 메커니즘 모듈을 포함한다.
주의는 인간의 지각에서 중요한 역할을 한다.
인간은 시각적 구조를 더 잘 포착하기 위해, 일련의 부품을 사용하여 눈에 띄는 부분을 흘끗 보고 선택적으로 초점을 맞춘다.
콘볼루션 신경망에서 주의 메커니즘을 추가하면 대규모 분류 작업에서 CNN의 성능을 효과적으로 향상시킬 수 있다.
주사 전자 현미경의 모발 이미지 데이터를 처리할 때, 모발 표면 특성의 작은 차이로 인해 일반 알고리즘 모델은 모발 손상의 미묘한 차이를 정확하게 식별할 수 없다.
본 발명에서는 모발 현미경 영상에 적합한 주의 메커니즘 모듈을 설계한다.
주사 전자 현미경의 모발 이미지의 감지 및 손상 특징 식별의 정확도를 개선한다.
주의 메커니즘 모듈에는 채널주의 모듈과 공간주의 모듈이 있다.
- 채널주의 모듈 -
본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 채널주의 모듈은 특징 채널 간의 상호 의존성을 향상시킨다.
특징의 각 채널 그래프는 클래스별 응답으로 간주될 수 있으며, 서로 다른 의미론적 응답이 서로 관련된다.
채널 매핑 간의 상호 의존성을 활용하여 상호 의존적 특징 매핑을 강조하고, 특정 의미론적 기능 표현을 개선할 수 있다.
따라서, 특징 채널 간의 상호 의존성을 향상시키는데 사용되는 채널주의 모듈을 추가한다.
채널주의 모듈의 구조는 도 5에 나타내고 있다.
도 5는 채널주의 모듈의 구조를 나타내는 도면이다.
도 5를 참조하면,
Figure pat00001
Figure pat00002
으로 변형하고,
Figure pat00003
Figure pat00004
의 전치 사이에 행렬 곱셈을 수행한 다음, softmax 함수를 전달하여 주의 특징
Figure pat00005
를 생성한다.
또한, K와 A의 전치 사이에 행렬 곱셈을 수행하고, 그 결과를
Figure pat00006
로 변형한다.
최종 출력 채널주의 특징 맵 Mc(F)∈RC×H×W
최종 출력 채널 주의 기능 맵
Figure pat00007
은 수식 1로 나타낸다.
[수식 1]
Figure pat00008
Figure pat00009
가 i번째 채널에 대한 j번째 채널의 영향을 측정하는 경우, 스케일 매개변수
Figure pat00010
는 0에서 가중치를 점차적으로 학습한다.
각 채널의 최종 특징은 모든 채널의 특징과, 특징 맵 간의 원격 의미 의존성을 모델링하는 원래 특징의 가중치 합이다.
- 공간주의 모듈 -
본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 공간주의 모듈은 채널주의 모듈을 보완하는 특징 맵의 특정 영역 정보 부분이며, 공간주의 맵은 요소 간의 공간 관계를 사용하여 생성된다.
이러한 공간주의 모듈은 채널주의 모듈에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성한다.
좀 더 상세하게는 채널주의와 달리 공간주의의 초점은 채널주의를 보완하는 특징 맵의 특정 영역 정보 부분이다.
공간주의 맵은 요소 간의 공간 관계를 사용하여 생성된다.
공간주의 모듈의 구조는 도 6에 나타낸 바와 같다.
도 6은 공간주의 모듈의 구조를 나타내는 도면이다.
도 6을 참조하면, 공간주의를 계산할 때 채널주의에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성한다.
이는 효과적인 특징 설명자를 생성하기 위해 연결되고, 표준 컨볼루션 레이어의 계산 후에 공간주의 특징 맵
Figure pat00011
을 생성한다.
이는 수식 2로 나타낼 수 있다.
[수식 2]
Figure pat00012
여기서
Figure pat00013
는 시그모이드 함수를 나타내고,
Figure pat00014
은 컨볼루션 연산의 필터 크기이다.
- 결과 -
- 데이터 세트
20 ~ 60대 남성 50명, 여성 50명의 모발 샘플을 수집하고, 히타치(Hitachi)의 S-4700 주사 전자 현미경을 이용하여 모발 현미경 영상을 생성한다.
우선, 샘플 모발을 선별, 분류 및 절단한다.
모발 단면은 양면이 탄소로 코팅된 전도성 테이프에 부착되어 금속 알루미늄 막대에 고정되고 금속 타겟은 백금이 사용된다.
스프레이 코팅기는 고진공 상태에서 스퍼터링 코팅을 수행한다.
다음 주사 전자 현미경(모델명: 히타치 S-4700)을 사용하여 15 ㎸ 에서 코팅된 모발 샘플을 스캔한다.
각 축의 여러 섹션을 스캔하여 관찰된 모발 샘플 표면의 변화가 균일하고 분리되지 않았는지 확인한다.
도 7은 모발 손상의 분류를 나타내는 도면이다.
주사 전자 현미경에서 모간 손상은 약한 손상, 중간 손상, 높은 손상의 3단계로 구분한다(도 7 참조).
본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 데이터 세트는 수집된 모발 데이터 샘플 이미지를 3등분으로 균등하게 분할하고, 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 최종 샘플 데이터 세트로 생성한다.
모발 손상 정도를 판단하는 기준으로 큐티클 손상 정도를 사용한다.
모발 표면의 큐티클에 명백한 균열이 없는 샘플은 약한 손상으로 정의한다.
표피의 심각한 균열 및 뒤틀림이 있는 샘플은 중간 손상으로 정의한다.
표피가 샘플에서 거의 완전히 사라졌을 경우, 이는 높은 손상으로 정의한다.
100 명의 테스터로부터 500 개의 모발 샘플의 데이터를 수집하고, 각 모발 데이터 샘플을 3등분으로 균등하게 분할하고 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 생성한다.
각 모발 손상 카테고리에 대한 500개의 이미지가 생성된다.
주사 전자 현미경의 모발 이미지의 수집은 복잡하고 비용이 많이 들기 때문에 대규모 데이터 수집이 불가능하다.
도 8은 모발 SEM 현미경 이미지 데이터의 증강을 나타내는 도면이다.
본 발명에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에서, 최종 샘플 데이터 세트의 총 양을 데이터 향상 알고리즘을 통해 확장하고, 데이터 향상 알고리즘은 이미지 반전 알고리즘, 회전 알고리즘, 자르기 알고리즘, 가우스 노이즈 추가 알고리즘 중 하나 이상이다.
이를 위해 도 8에 나타낸 바와 같이 수집된 주사 전자 현미경의 모발 이미지를 향상시키기 위해 데이터 향상 알고리즘을 사용한다.
예를 들어, 이미지 반전, 회전, 자르기, 가우스 노이즈 추가 및 기타 알고리즘 등이 있다.
다양한 유형의 총 15,000 개의 주사 전자 현미경의 모발 이미지가 포함된 주자 전자 현미경의 모발 데이터 세트를 만들었다.
이는 다음과 같다.
약하게 손상된 주사 전자 현미경의 모발 이미지 5000 장과, 중간 정도로 손상된 주사 전자 현미경의 모발 이미지 5000 장과, 높게 손상된 주사 전자 현미경의 모발 이미지 5000 장의 데이터 세트를 만들었다.
- 상세 구현 -
실험에서, 데이터를 학습 세트와 테스트 세트로 나누어 80% 를 학습 세트로, 20% 를 테스트 세트로 나누었다.
중앙 자르기를 사용하여 이미지 크기를 224 × 224 로 자르도록 한다.
네트워크는 SGD(Stochastic Gradient Descent Algorithm)를 사용하여 학습된다.
초기 학습률을 0.1로 설정하고 점차 감소시킨다.
0.9의 Nesterov 모멘텀과 모든 가중치에 대해 감쇠 없이 10-4 가중치 감소를 사용하였다.
이러한 모델 매개 변수는 표 1에 나타내고 있다.
[표 1]
Figure pat00015
표 1은 SACN-Net의 구성 매개 변수이다.
- 다른 방법과 비교 -
다른 네트워크 모델, 예를 들어 클래식 AlexNet 알고리즘, 널리 사용되는 VGG 네트워크 모델, 경량 CNN 네트워크 MobileNet, ResNet 및 기타 최첨단 방법을 선택하여 제공된 모델 알고리즘과 비교하였다.
본 모델은 ResNet50을 기반으로 한다.
성능 테스트 비교에서는 34-레이어와 50-레이어 ResNet 네트워크를 비교하였다.
표 2에 나타낸 바와 같이, 본 SACN-Net이 다른 모델에 비해 정확도가 더 우수함을 보여준다.
[표 2]
Figure pat00016
표 2는 다른 모델의 정확도 비교를 나타낸다.
모델 테스트에서 주의 모듈의 테스트를 추가하였다.
도 9는 모발 손상 영역의 주의 특성을 나타내는 도면이다.
도 9는 모델의 전체 성능에 대한 채널주의 모듈 전용, 일회용 공간주의 모듈 및 위치 변경 방법과 결합된 채널공간주의 모듈의 비교 테스트 결과이다.
모델에서 다른 주의 모듈을 사용하도록 선택하면 성능에 큰 차이가 있다.
단일 주의 모듈을 사용하면 대상을 정확하게 식별할 수 없다.
[표 3]
Figure pat00017
표 3은 주사 전자 현미경의 모발 데이터 세트에서 분류 오류를 나타내고 있다.
표 3의 Top-1과 같은 벤치 마크 테스트에서 채널을 먼저 기준으로 한 다음 공간주의 모듈을 기준으로 성능이 가장 좋은 것으로 나타났다.
본 발명은 모발 손상을 자율적이고 효율적으로 감지하는 방법이다.
모발 손상 정도를 자율적으로 감지할 수 있는 인공 지능 컨볼우션 신경망 기반 시스템을 구축하여, 개인의 일상 관리 및 유지 관리, 의료 건강 진단 및 기타 방향에 사용될 수 있다.
모발 손상 정도를 감지할 수 있는 휴대용 기계를 개발하고 모발 손상 감지 알고리즘과 결합하여 모발 손상을 빠르게 진단할 수 있다.
모발 샘플 채취시 20 ~ 60 세 성인만 고려하며, 미성년자 및 60 세 이상의 모발 샘플 수집은 포함하지 않는다.
그 이유는 20 ~ 60 세 성인의 사람들이 일상적인 모발 관리에 더 신경을 쓰고, 더 많은 모발 손상이 있기 때문이다.
따라서, 모발 손상 샘플 수집에 도움이 된다.
주사 전자 현미경을 관찰하여 모발의 손상 정도에 대한 모발 색상의 영향 가능성을 고려하여 갈색, 갈색 및 빨강 모발 샘플을 일부 수집하였다.
관찰 및 분석 결과, 모발 색상과 모발 손상 사이의 관계가 약함을 발견하였다.
도 10은 다양한 배율에서 모발의 미세 디테일 비교를 나타내는 도면이다.
데이터 세트를 만들 때, 400×와, 800×에서 모발의 미세한 특성을 비교하였다(도 10 참조).
먼저 주사 전자 현미경의 관찰에서 400× 모발 이미지를 사용하였다.
디스플레이 효과가 만족스럽지 못했으며, 모발 표면 질감을 정확하게 표현하지 못하고, 모델 학습에 활용하기 어려웠다.
마지막으로 데이터 세트의 표준으로 800× 헤어 이미지를 선택하고 자체 주사 전자 현미경에 의한 모발 데이터 세트를 만들었다.
모델에서, 모델의 최상의 성능을 찾기 위해 제안된 주의 메커니즘 모델에 대해 논의하였다.
많은 수정 후에 듀얼 주의 메커니즘 모듈, 특히 채널 우선 주의 방법이 모발 손상 특징을 식별하는 데 가장 높은 효율성을 갖는 것으로 나타났다.
도 11은 주의 메커니즘 모듈의 주의 기능 추출을 나타내는 도면이다.
- 결론 -
본 발명에서는 20 ~ 60세의 남성 50명, 여성 50명으로 구성된 현미경에 의한 모발 데이터 세트를 주사 전자 현미경을 기반으로 생성하여 머리카락 표면에 큐티클 손상 정도에 따라 약한 손상, 중간 손상, 높은 손상으로 데이터를 구분하였다.
주로 모발 손상 정도에 중점을 두었다.
모발 샘플을 수집할 때 무작위 수집 방법을 채택하였다.
샘플에는 염색모, 곱슬머리, 직모 등의 모발 샘플이 포함된다.
현미경 관찰시 각 모발의 중간 부분을 관찰 영역으로 사용한다.
샘플의 변동성을 줄인다.
또한 공간주의 모듈을 기반으로 하는 새로운 잔차 컨볼루션 네트워크를 제공하고 데이터 세트로 검증하였다.
실험은 네트워크 모델이 효과적이고 강력하다는 것을 보여준다.
이와 같이 본 발명에 의하면, 주사 전자 현미경에 의한 모발 표면 이미지 손상에 사용되는 인공 지능 알고리즘을 기반으로 손상을 자동으로 식별하고 분할하는 동시에 주사 전자 현미경 이미지 데이터를 기반으로 새로운 모발 손상 데이터 세트를 구축하는 효과가 있다.
이상, 일부 예를 들어서 본 발명의 바람직한 여러 가지 실시 예에 대해서 설명하였지만, 본 "발명을 실시하기 위한 구체적인 내용" 항목에 기재된 여러 가지 다양한 실시 예에 관한 설명은 예시적인 것에 불과한 것이며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이상의 설명으로부터 본 발명을 다양하게 변형하여 실시하거나 본 발명과 균등한 실시를 행할 수 있다는 점을 잘 이해하고 있을 것이다.
또한, 본 발명은 다른 다양한 형태로 구현될 수 있기 때문에 본 발명은 상술한 설명에 의해서 한정되는 것이 아니며, 이상의 설명은 본 발명의 개시 내용이 완전해지도록 하기 위한 것으로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이며, 본 발명은 청구범위의 각 청구항에 의해서 정의될 뿐임을 알아야 한다.

Claims (16)

  1. 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집부에 의해 수집하는 제 1 단계;
    수집된 상기 모발 데이터 샘플 이미지를 구성부에 의해 데이터 세트로 생성하는 제 2 단계;
    생성된 데이터 세트로부터 추출부에 의해 상기 모발 데이터 샘플 이미지의 특징을 추출하는 제 3 단계; 및
    추출된 상기 특징을 분류부에 의해 분류하는 제 4 단계;를 포함하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  2. 제 1 항에 있어서,
    상기 데이터 세트는,
    수집된 모발 데이터 샘플 이미지를 3등분으로 균등하게 분할하고, 중앙의 5 ㎜ 세그먼트를 관찰용으로 선택하여 약한 손상, 중간 손상 및 높은 손상 이미지를 최종 샘플 데이터 세트로 생성하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  3. 제 2 항에 있어서,
    상기 최종 샘플 데이터 세트의 총 양을 데이터 향상 알고리즘을 통해 확장하고,
    상기 데이터 향상 알고리즘은 이미지 반전 알고리즘, 회전 알고리즘, 자르기 알고리즘, 가우스 노이즈 추가 알고리즘 중 하나 이상인 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  4. 제 1 항에 있어서,
    상기 추출부는,
    컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  5. 제 4 항에 있어서,
    상기 잔여 채널 공간주의 네트워크는,
    다중 잔여 블록과, 주의 블록을 결합하여 형성된 다중 잔여 주의 블록을 스택하여 네트워크 프레임워크를 구축하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  6. 제 5 항에 있어서,
    상기 잔여 채널 공간주의 네트워크는,
    스킵 연결을 사용하여 상기 잔여 블록과 상기 주의 블록을 연결하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  7. 제 6 항에 있어서,
    상기 잔여 채널 공간주의 네트워크는,
    초기 단계에서 표준 컨볼루션 계산을 사용하여 특징 맵을 생성하고, 주의 메커니즘 모듈로 들어가 특징에 대한 다중 채널 및 공간 정보를 추출하며, 계산 라운드로 들어가 주의 특징 맵을 생성하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  8. 제 7 항에 있어서,
    상기 잔여 채널 공간주의 네트워크는,
    채널주의 모듈과 공간주의 모듈을 갖는 주의 메커니즘 모듈을 포함하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  9. 제 8 항에 있어서,
    상기 채널주의 모듈은,
    특징 채널 간의 상호 의존성을 향상시키는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  10. 제 9 항에 있어서,
    상기 공간주의 모듈은,
    상기 채널주의 모듈을 보완하는 특징 맵의 특정 영역 정보 부분이며,
    공간주의 맵은 요소 간의 공간 관계를 사용하여 생성되는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  11. 제 10 항에 있어서,
    상기 공간주의 모듈은,
    상기 채널주의 모듈에서 특징 정보를 최대로 유지하기 위해 최대 풀링과 평균 풀링을 결합한 이중 풀링 방법을 채택하여 두 개의 2차원 특징 맵(Fa 및 Fm)을 생성하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  12. 제 4 항에 있어서,
    상기 잔여 채널 공간주의 네트워크는,
    감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법.
  13. 제 1 항 내지 제 12 항 중 한 항에 따른 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법에 의해 감지하는 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템.
  14. 주사 전자 현미경으로 촬영한 모발 데이터 샘플 이미지를 수집하는 수집부;
    수집된 상기 모발 데이터 샘플 이미지를 데이터 세트로 생성하는 구성부;
    생성된 데이터 세트로부터 상기 모발 데이터 샘플 이미지의 특징을 추출하는 추출부; 및
    추출된 상기 특징을 분류하는 분류부;를 포함하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템.
  15. 제 14 항에 있어서,
    상기 추출부는,
    컨볼루션 신경망(CNN: Convolutional Neural Network)인 잔여 채널 공간주의 네트워크(RCSAN-Net: Residual Channel Spatial Attention Network)를 사용하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템.
  16. 제 15 항에 있어서,
    상기 잔여 채널 공간주의 네트워크는,
    감지 및 인식의 정확도를 향상시키기 위해, 헤어의 특징을 수집하는 모발 손상 감지 모델에 채널주의 모델 및 공간주의 모델을 설계하는 것을 특징으로 하는,
    콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 시스템.

KR1020210192176A 2021-12-30 2021-12-30 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템 KR102567671B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210192176A KR102567671B1 (ko) 2021-12-30 2021-12-30 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210192176A KR102567671B1 (ko) 2021-12-30 2021-12-30 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20230104311A true KR20230104311A (ko) 2023-07-10
KR102567671B1 KR102567671B1 (ko) 2023-08-17

Family

ID=87155759

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210192176A KR102567671B1 (ko) 2021-12-30 2021-12-30 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102567671B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190049222A (ko) 2017-11-01 2019-05-09 주식회사 엘지생활건강 모발 손상도 평가를 위한 장치 및 이를 이용하여 모발 손상도를 평가하는 방법
KR20200005409A (ko) * 2018-07-06 2020-01-15 연세대학교 산학협력단 안저 이미지 관리 장치 및 안저 이미지의 적합성 판단 방법
KR102316286B1 (ko) * 2021-02-18 2021-10-22 임계현 인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치
KR20210143401A (ko) * 2020-05-20 2021-11-29 한국전자통신연구원 객체 검출 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190049222A (ko) 2017-11-01 2019-05-09 주식회사 엘지생활건강 모발 손상도 평가를 위한 장치 및 이를 이용하여 모발 손상도를 평가하는 방법
KR20200005409A (ko) * 2018-07-06 2020-01-15 연세대학교 산학협력단 안저 이미지 관리 장치 및 안저 이미지의 적합성 판단 방법
KR20210143401A (ko) * 2020-05-20 2021-11-29 한국전자통신연구원 객체 검출 시스템 및 방법
KR102316286B1 (ko) * 2021-02-18 2021-10-22 임계현 인공 지능을 이용한 모발 상태 분석 방법 및 이를 수행하기 위한 컴퓨팅 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Xin Jiang 등, Residual Spatial and Channel Attention Networks for Single Image Dehazing, Sensors 2021, 21, 7922, pp1-20, 2021.11.27.* *

Also Published As

Publication number Publication date
KR102567671B1 (ko) 2023-08-17

Similar Documents

Publication Publication Date Title
Mishra et al. Gray level co-occurrence matrix and random forest based acute lymphoblastic leukemia detection
KR102108050B1 (ko) 증강 컨볼루션 네트워크를 통한 유방암 조직학 이미지 분류 방법 및 그 장치
Forero et al. Automatic identification techniques of tuberculosis bacteria
Pan et al. Cell detection in pathology and microscopy images with multi-scale fully convolutional neural networks
Li et al. Parasitologist-level classification of apicomplexan parasites and host cell with deep cycle transfer learning (DCTL)
Zhang et al. Characterization of task-free and task-performance brain states via functional connectome patterns
CN111009324A (zh) 脑网络多特征分析的轻度认知障碍辅助诊断系统及方法
Mikołajczyk et al. Towards explainable classifiers using the counterfactual approach-global explanations for discovering bias in data
CN112784767A (zh) 基于白细胞显微图像的细胞实例分割算法
Safdar et al. An automated deep learning based ensemble approach for malignant melanoma detection using dermoscopy images
Lin et al. Quality assessment of fetal head ultrasound images based on faster R-CNN
CN115457334A (zh) 静息态功能磁共振影像数据分类方法、系统及相关产品
Bozkurt et al. Skin strata delineation in reflectance confocal microscopy images using recurrent convolutional networks with attention
Scheurer et al. Semantic segmentation of histopathological slides for the classification of cutaneous lymphoma and eczema
CN113129281B (zh) 一种基于深度学习的小麦茎秆截面参数检测方法
Aliyu et al. Red blood cells abnormality classification: Deep learning architecture versus support vector machine
KR102567671B1 (ko) 콘볼루션 신경망 기반의 주사 전자 현미경 이미지를 이용한 효율적인 모발 손상 감지 방법 및 시스템
Pattanaik et al. ILCAN: a new vision attention-based late blight disease localization and classification
KR20230054286A (ko) 딥 러닝을 이용한 이미지 분석 기반의 피부 진단 시스템 및 방법
Wang et al. Towards interpretable attention networks for cervical cancer analysis
Saraswathi et al. FRCNN based Deep Learning for Identification and Classification of Alopecia Areata
Hartmann et al. COVID-19 Diagnosis in 3D Chest CT Scans with Attention-Based Models
KR102567138B1 (ko) 머신러닝 기반 모발 건강 진단 방법 및 시스템
Liu et al. 3D Rotation-Invariant description from tensor operation on spherical HOG field
Alzahrani et al. A Deep Hybrid Learning Approach For Nail Diseases Classification

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant