KR20230069953A - 피부 표면 해석 장치 및 피부 표면 해석 방법 - Google Patents

피부 표면 해석 장치 및 피부 표면 해석 방법 Download PDF

Info

Publication number
KR20230069953A
KR20230069953A KR1020237011964A KR20237011964A KR20230069953A KR 20230069953 A KR20230069953 A KR 20230069953A KR 1020237011964 A KR1020237011964 A KR 1020237011964A KR 20237011964 A KR20237011964 A KR 20237011964A KR 20230069953 A KR20230069953 A KR 20230069953A
Authority
KR
South Korea
Prior art keywords
image
skin
skin surface
unit
sweat
Prior art date
Application number
KR1020237011964A
Other languages
English (en)
Inventor
테츠시 코이데
미치히로 히데
유미 아오야마
Original Assignee
고쿠리츠다이가쿠호진 히로시마다이가쿠
카와사키 가쿠엔 에듀케이셔널 파운데이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고쿠리츠다이가쿠호진 히로시마다이가쿠, 카와사키 가쿠엔 에듀케이셔널 파운데이션 filed Critical 고쿠리츠다이가쿠호진 히로시마다이가쿠
Publication of KR20230069953A publication Critical patent/KR20230069953A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14507Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood
    • A61B5/14517Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood for sweat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • Dermatology (AREA)
  • Optics & Photonics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

전사재를 촬상한 화상에 로컬 화상 강조 처리를 실행한다. 강조 처리 화상을 복수의 패치 화상으로 분할하여 기계 학습 식별기에 입력한다. 기계 학습 식별기로부터 출력된 세그먼테이션 후의 패치 화상을 합성하고, 전체 화상으로부터 세그먼테이션 결과에 기초하여 피부소릉의 우도 맵 화상을 생성한다. 우도 맵 화상에 2치화 처리를 실행하여 2치화 화상을 생성한다. 2치화 화상에 기초하여 피부소릉 영역을 추출하고, 피부소릉 영역의 면적을 산출한다.

Description

피부 표면 해석 장치 및 피부 표면 해석 방법
본 개시는, 사람의 피부 표면을 해석하는 피부 표면 해석 장치 및 피부 표면 해석 방법에 관한 것이다.
사람 피부의 표면(피부 표면)에는, 피부소구라고 불리는 홈 형상 부분과, 피부소구에 의해 구획된 피부소릉이라고 불리는 융기 형상 부분이 존재한다. 사람은 안정 시에도 미량이지만 발한하고, 이 안정 시의 발한은 기초 발한이라고 불린다. 기초 발한 시의 땀은, 주로 피부소구에 분비되어, 각질수분량과 관련되고, 피부의 배리어 기능 유지에 중요한 작용을 하는 것으로 알려져 있다. 예를 들어, 아토피성 피부염, 콜린성 두드러기, 양진, 태선 아밀로이드 등의 염증성 피부 질환은, 피부의 배리어 기능의 저하, 즉, 기초 발한 장애에 기인하여 발생하거나 기초 발한 장애로 인해 증상이 악화되는 경우가 있다. 환자의 기초 발한을 검출할 수 있다면 치료 방침의 책정이나 증상의 완화, 치유 정도를 판단할 수 있고, 진단 및 치료에 유효하다.
기초 발한의 검출 수법으로는, 예를 들어, Impression mold technique(IMT 또는 IM법이라고도 불림)가 알려져 있다. IMT는, 치과용 실리콘 인상재를 피부 표면에 막상으로 도포하여 소정 시간 방치한 후, 실리콘 인상재를 피부로부터 박리함으로써, 피부 표면 구조를 취득함과 함께, 발한 상태를 취득하는 발한 기능 정량 측정법이다.
특허문헌 1 : 일본 재공표특허 2018/230733호 공보
그런데, IMT를 이용함으로써, 막상의 실리콘재에 피부 표면 구조가 정밀하게 전사되므로, 피부소릉의 식별 및 피부소릉의 면적 측정을 실시할 수 있고, 추가로, 실리콘재에 땀방울도 정밀하게 전사되므로, 땀방울 수, 직경, 면적도 측정할 수 있다. 이로써, 피부 표면의 상태를 해석할 수 있다. 이 해석 결과를 이용하면, 예를 들어 아토피성 피부염의 경우, 건강한 사람에 비해 피부소릉의 면적이 넓고, 땀방울 수가 적은 경향에 있음을 정량적으로 취득할 수 있다는 이점이 있다.
IMT에서 피부소릉 및 땀방울을 판별할 때에는, 실리콘재의 전사면을 확대한 화상에 기초하여 실시할 수 있다. 구체적으로는, 실리콘재의 전사면을 광학현미경으로 확대한 화상을 취득하여 모니터에 비춘 후, 검사원이 그 화상을 모니터 상에서 보면서, 피부소릉과 피부소구를 식별하여 피부소릉에 상당하는 부분을 둘러싸서 착색하고, 착색한 영역의 면적을 산출하고, 추가로, 땀방울을 찾아내어 땀방울에 상당하는 부분을 착색하고, 착색한 영역의 면적을 산출한다. 이와 같이 하면, 피부 표면의 상태를 정량적으로 취득할 수 있지만, 이하에 서술하는 문제가 있었다.
즉, 피부 표면의 구조는 복잡함과 더불어, 발증하는 피부 질환에 따라서도 크게 상이하므로, 검사원에 의한 판별 시에, 화상 중의 어디가 피부소구인지, 또는 어디가 피부소릉인지 판정하는 데에 시간이 걸려, 일정 시간 내에 처리할 수 있는 샘플 수에는 한계가 있었다. 또한, 실리콘에는 기포가 포함되는 경우가 있어, 그 기포와 땀방울을 구별하기 어렵고, 땀방울의 판별도 시간과 수고가 드는 작업이었다. 또한, 피부소구 및 피부소릉 판별, 땀방울 판별 작업에 필요한 시간이 장시간화함과 함께, 화상을 보고 판단하므로, 검사원 능력에 따라 판별 결과가 상이하는 등 개인차도 문제였다. 작업이 장시간화함으로써, 간과 등도 발생할 가능성이 있었다.
추가로, 땀방울 수는 동일한 사람이어도 피부 표면의 부위에 따라서도 상이하여, 땀방울 수가 평균적인 수인 부위를 측정 대상으로 하지 않으면, 해석 결과가 부적절해질 우려가 있다. 이 평균적인 부위를 얻으려면, 피부 표면의 넓은 범위에 대하여 전술한 피부소구 및 피부소릉 판별과 땀방울 판별을 실시해야 하며, 이는 해석에 필요한 시간을 한층 더 장시간화하는 요인이 되었다.
본 개시는, 이러한 점을 감안하여 이루어진 것이며, 그 목적으로 하는 바는, 피부 표면 상태의 해석 정밀도를 높임과 함께, 해석에 필요한 시간을 단축하는 데 있다.
상기 목적을 달성하기 위하여, 제1 개시는, 사람의 피부 표면 구조가 전사된 전사재를 이용하여 피부 표면을 해석하는 피부 표면 해석 장치로서, 상기 전사재를 촬상한 화상이 입력되는 화상 입력부와, 상기 화상 입력부에 입력된 화상의 국소 영역의 콘트라스트를 강조하는 로컬 화상 강조 처리를 실행하여 강조 처리 화상을 생성하는 로컬 화상 강조 처리부와, 상기 로컬 화상 강조 처리부에 의해 생성된 강조 처리 화상을 복수의 패치 화상으로 분할하는 패치 화상 생성부와, 상기 패치 화상 생성부에 의해 생성된 각 패치 화상이 입력되고, 입력된 각 패치 화상의 세그먼테이션을 실행하는 기계 학습 식별기와, 상기 기계 학습 식별기로부터 출력된 세그먼테이션 후의 패치 화상을 합성하여 전체 화상을 생성하는 전체 화상 생성부와, 상기 전체 화상 생성부에 의해 생성된 전체 화상으로부터 상기 세그먼테이션 결과에 기초하여 피부소릉의 우도 맵 화상을 생성하는 우도 맵 생성부와, 상기 우도 맵 생성부에 의해 생성된 우도 맵 화상에 2치화 처리를 실행하여 2치화 화상을 생성하는 2치화 처리부와, 상기 2치화 처리부에 의해 생성된 2치화 화상에 기초하여 피부소릉 영역을 추출하는 영역 추출부와, 상기 영역 추출부에 의해 추출된 피부소릉 영역의 면적을 산출하는 피부소릉 해석부를 구비한다.
이 구성에 의하면, 사람의 피부 표면 구조가 전사된 전사재의 화상이 입력되면, 그 화상에 로컬 화상 강조 처리가 실행되어 강조 처리 화상이 생성된다. 이로써, 화상의 세부의 가시성이 높아진다. 로컬 화상 강조 처리가 실행되기 전의 화상은, 컬러 화상이어도 되고, 그레이 스케일화된 화상이어도 된다. 강조 처리 화상은 복수의 패치 화상으로 분할된 후, 각 패치 화상이 기계 학습 식별기에 입력되면, 각 패치 화상이 세그먼테이션된다. 각 패치 화상의 세그먼테이션의 수법은 종래부터 이용되는 딥 러닝 수법이고, 이 세그먼테이션에 의해, 예를 들어 화소마다 어느 카테고리에 속하는지가 구해지고, 피부소릉, 피부소구, 땀방울, 그 이외 등으로 구분된다. 기계 학습 식별기로부터 출력된 세그먼테이션 후의 패치 화상이 합성되어 전체 화상이 생성되면, 그 전체 화상으로부터 세그먼테이션 결과에 기초하여 피부소릉의 우도 맵 화상이 생성된다. 우도 맵 화상으로부터 2치화 화상이 생성되면, 예를 들어 흰색이 피부소릉 영역이라고 한 경우, 흰 영역을 추출함으로써, 피부소릉 영역을 판별할 수 있게 된다. 추출된 피부소릉 영역의 면적을 산출함으로써, 피부 표면 해석이 가능해진다.
제2, 3 개시에서는, 전체 화상 생성부에 의해 생성된 전체 화상으로부터 상기 세그먼테이션 결과에 기초하여 땀방울의 우도 맵 화상을 생성하는 우도 맵 생성부와, 상기 우도 맵 생성부에 의해 생성된 우도 맵 화상에 기초하여 땀방울을 추출하는 땀방울 추출부와, 상기 땀방울 추출부에 의해 추출된 땀방울의 분포를 산출하는 땀방울 해석부를 구비한다.
이 구성에 의하면, 기계 학습 식별기로부터 출력된 세그먼테이션 후의 패치 화상이 합성되어 전체 화상이 생성되면, 그 전체 화상으로부터 세그먼테이션 결과에 기초하여 땀방울의 우도 맵 화상이 생성된다. 우도 맵 화상의 예를 들어 흰색이 땀방울이라고 한 경우, 흰 영역을 추출함으로써, 땀방울을 판별할 수 있게 된다. 추출된 땀방울의 분포를 산출함으로써, 피부 표면 해석이 가능해진다.
제4 개시에서는, 상기 전사재는, Impression mold technique로 취득된 것이고, 상기 전사재를 촬상한 화상을 그레이 스케일화하는 그레이 스케일 처리부를 구비하는 구성이다.
즉, IMT에 의하면 실리콘을 이용한 피부 표면의 정밀 전사가 가능해지므로, 해석 정밀도가 한층 더 향상된다. 이 실리콘은 예를 들어 핑크색 등으로 착색된 경우가 있으나, 본 구성에 의하면 전사재를 촬상한 화상이 그레이 스케일 처리부에 의해 그레이 스케일화되므로, 해석에 적절한 그레이 스케일 화상으로서 취급할 수 있다. 이로써 처리 속도를 고속화할 수 있다.
제5 개시에서는, 상기 패치 화상 생성부는, 인접하는 패치 화상끼리의 일부가 서로 중복하도록 패치 화상을 생성할 수 있다.
즉, 복수의 패치 화상으로 분할할 때, 인접하는 패치 화상을 중복시키지 않은 경우에는, 인접하는 패치 화상의 경계에 우연히 피부소릉의 가장자리나 땀방울이 겹치는 것을 생각할 수 있고, 경계에 겹쳐진 피부소릉이나 땀방울의 판별 정밀도가 저하될 우려가 있다. 이에 반해, 본 구성에 의하면, 인접하는 패치 화상끼리의 일부가 서로 중복함으로써, 전술한 위치에 있는 피부소릉이나 땀방울이어도 정밀도 좋게 판별할 수 있다.
제6 개시에서는, 상기 기계 학습 식별기는, 입력 화상의 해상도와 출력 화상의 해상도를 동일하게 할 수 있다. 이 구성에 의하면, 예를 들어 미세한 피부소릉의 형상이나, 땀방울의 크기를 정확하게 출력할 수 있다.
제7 개시에서는, 상기 피부소릉 해석부는, 화상 상에 소정의 크기의 그리드를 복수 설정하고, 상기 각 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 산출할 수 있다.
이 구성에 의하면, 예를 들어 피부 표면의 결의 고움을 평가하고 싶은 경우, 2치화 화상 상에 설정한 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율에 기초하여 평가할 수 있다. 피부소릉 영역의 비율이 소정 이상인 경우에는, 피부가 거칠다고 판단하는 지침의 하나로서 이용할 수 있고, 또한, 피부소릉 영역의 비율이 소정 미만인 경우에는, 피부가 곱다고 판단하는 지침의 하나로서 이용할 수 있다.
제8 개시에서는, 상기 피부소릉 해석부는, 상기 각 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 수치화하고 도수 분포(히스토그램)를 산출할 수 있다.
제9 개시에서는, 상기 영역 추출부는, 피부소릉 영역 추출 후, 추출된 피부소릉 영역의 각 부분의 돌출 여부를 판정하고, 돌출이 아니라고 판정된 부분에 의해 상기 피부소릉 영역을 분할할 수 있다.
즉, 병태에 따라서는 피부소릉의 일부에 홈이 생길 경우가 있고, 이 경우는, 추출된 피부소릉 영역 내에 돌출되지 않은 부분, 즉 오목이 존재하게 된다. 이 오목에 의해 피부소릉 영역을 분할함으로써, 병태나 임상적인 평가에 이용하는 것을 기대할 수 있다.
제10 개시에서는, 상기 영역 추출부에 의해 추출된 피부소릉 영역의 형상에 관한 정보를 생성하여 출력하는 정보 출력부를 구비하므로, 각 정보를 의료 종사자 등에게 제시하여 진단 등에 이용할 수 있다.
이상 설명한 바와 같이, 본 개시에 의하면, 기계 학습 식별기를 이용하여 피부 표면의 우도 맵 화상을 생성하고, 우도 맵 화상을 이용하여 피부소릉 영역이나 땀방울을 판별할 수 있으므로, 해석 시의 개인차를 배제하여 피부 표면 상태의 해석 정밀도를 높일 수 있음과 함께, 해석에 필요한 시간을 단축할 수 있다.
도 1은, 본 발명의 실시형태에 따른 피부 표면 해석 장치의 구성을 나타내는 모식도이다.
도 2는, 상기 피부 표면 해석 장치의 계통도이다.
도 3은, 피부 표면 해석 방법의 전반(前半)의 흐름을 설명하는 흐름도이다.
도 4는, 피부 표면 해석 방법의 후반의 흐름을 설명하는 흐름도이다.
도 5a는, 종래 기술을 설명하는 도면이고, IMT에 의해 피부소릉을 판별하고, 피부소릉의 면적을 측정하는 요령을 나타낸다.
도 5b는, 종래 기술을 설명하는 도면이고, IMT에 의해 땀방울을 판별하고, 땀방울 수, 직경, 면적을 측정하는 요령을 나타낸다.
도 6은, 그레이 스케일 화상의 일례를 나타내는 도면이다.
도 7은, 로컬 화상 강조 처리 화상의 일례를 나타내는 도면이다.
도 8은, 로컬 화상 강조 처리 화상을 복수의 패치 화상으로 분할한 상태를 나타내는 도면이다.
도 9는, 기계 학습 식별기에 의한 세그먼테이션의 일례를 나타내는 도면이다.
도 10은, 피부소릉·피부소구의 전체 화상의 일례를 나타내는 도면이다.
도 11은, 땀방울의 전체 화상의 일례를 나타내는 도면이다.
도 12는, 피부소릉·피부소구의 우도 맵(likelihood map) 화상의 일례를 나타내는 도면이다.
도 13은, 땀방울의 우도 맵 화상의 일례를 나타내는 도면이다.
도 14는, 피부소릉·피부소구의 우도 맵을 2치화한 화상의 일례를 나타내는 도면이다.
도 15는, 피부소릉·피부소구를 추출한 화상의 일례를 나타내는 도면이다.
도 16은, 땀방울을 추출한 화상의 일례를 나타내는 도면이다.
도 17은, 땀방울의 위치와 피부소릉·피부소구를 비교하여 나타내는 화상의 일례를 나타내는 도면이다.
도 18은, 피부소릉·피부소구에 있는 땀방울을 동정(同定)한 화상의 일례를 나타내는 도면이다.
도 19는, 피부소릉 정보의 히스토그램이다.
도 20은, 땀방울의 히트 맵 화상의 일례를 나타내는 도면이다.
도 21은, 피부소릉 영역 화상의 일례를 나타내는 도면이다.
도 22는, 피부소릉 영역의 제원을 나타내는 표이다.
도 23은, 1그리드당 피부소릉과 피부소구의 2차원 분포를 나타내는 그래프이다.
도 24는, 복수의 그리드를 설정하여 해석을 실시하는 경우의 화상의 일례를 나타내는 도면이다.
도 25는, 9시야의 촬상 영역을 합성한 화상의 일례를 나타내는 도면이다.
도 26은, 건강한 사람의 전완의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 100Х100픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 27은, 건강한 사람의 전완의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 150Х150픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 28은, 건강한 사람의 전완의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 200Х200픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 29는, 건강한 사람의 전완의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 250Х250픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 30은, 아토피성 피부염 환자의 대퇴의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 100Х100픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 31은, 아토피성 피부염 환자의 대퇴의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 150Х150픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 32는, 아토피성 피부염 환자의 대퇴의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 200Х200픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 33은, 아토피성 피부염 환자의 대퇴의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 250Х250픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 34는, 아토피성 피부염 환자의 이마의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 100Х100픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 35는, 아토피성 피부염 환자의 이마의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 150Х150픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 36은, 아토피성 피부염 환자의 이마의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 200Х200픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 37은, 아토피성 피부염 환자의 이마의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 250Х250픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 38은, 아토피성 피부염 환자의 팔꿈치의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 100Х100픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 39는, 아토피성 피부염 환자의 팔꿈치의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 150Х150픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 40은, 아토피성 피부염 환자의 팔꿈치의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 200Х200픽셀 크기의 그리드를 설정한 경우를 나타낸다.
도 41은, 아토피성 피부염 환자의 팔꿈치의 피부소릉·피부소구의 비율을 나타내는 그래프이고, 250Х250픽셀 크기의 그리드를 설정한 경우를 나타낸다.
이하, 본 발명의 실시형태를 도면에 기초하여 상세하게 설명한다. 그리고, 이하의 바람직한 실시형태의 설명은, 본질적으로 예시에 지나지 않으며, 본 발명, 그 적용물 또는 그 용도의 제한을 의도하는 것이 아니다.
도 1은, 본 발명의 실시형태에 따른 피부 표면 해석 장치(1)의 구성을 나타내는 모식도이다. 피부 표면 해석 장치(1)는, 사람의 피부 표면 구조가 전사된 전사재(100)를 이용하여 피부 표면을 해석하는 장치이고, 이 피부 표면 해석 장치(1)를 이용함으로써 본 발명에 따른 피부 표면 해석 방법을 실행할 수 있다.
이 실시형태의 설명에서는, IMT로 취득된 전사재(100)를 이용하여 피부 표면을 해석하는 경우에 대하여 설명하지만, 전사재(100)는 IMT 이외의 방법으로 사람의 피부 표면 구조를 전사한 것이어도 된다.
IMT는, 치과용 실리콘 인상재를 피부 표면에 막상으로 도포하여 소정 시간 방치한 후, 실리콘 인상재를 피부로부터 박리함으로써, 피부 표면 구조를 취득함과 함께, 발한 상태를 취득하는 발한 기능 정량 측정법이다. 이 IMT는, 기초 발한의 검출 수법으로서 종래부터 이용되고 있으므로 상세한 설명은 생략한다. 치료용 실리콘 인상재는, 예를 들어 핑크색으로 착색되어 있는 경우가 있다.
도 1에서는, 상기 실리콘을 전완에 펴 발라 소정 시간 방치하고, 경화시킨 후, 피부로부터 박리하여 전사재(100)를 얻은 경우에 대하여 설명하지만, 이에 한정되지 않고, 다리나 가슴, 등, 이마 등, 어느 피부 표면 구조를 전사한 것이어도 된다. IMT를 이용함으로써, 피부 표면 구조가 막상의 실리콘재에 정밀하게 전사되므로, 피부소릉의 식별 및 면적 측정을 실시할 수 있고, 추가로, 실리콘재에 땀방울도 정밀하게 전사되므로, 땀방울 수, 직경, 면적도 측정할 수 있다.
도 5a는, 종래 기술을 설명하는 도면이고, IMT에 의해 피부소릉을 판별하고, 피부소릉의 면적을 측정하는 요령을 나타낸다. 이 도면은, 전사재(100)의 전사면을 반사형의 실체현미경(101)(도 1에 나타냄)으로 확대하여, 촬상한 화상이 기초가 된다. 검사원은, 이 화상을 모니터에 비추어 농담이나 명암을 단서로 하여 피부소릉 영역 및 피부소구 영역을 판별한다. 피부소릉 영역으로 판별한 영역을 둘러싸도록 도형을 그리고, 이 그린 도형의 면적을 측정함으로써, 피부소릉의 면적을 얻을 수 있다.
한편, 도 5b는, 종래 기술을 설명하는 도면이고, IMT에 의해 땀방울을 판별하고, 땀방울 수, 직경, 면적을 측정하는 요령을 나타낸다. 이 도면에 있어서도, 검사원은, 전사재(100)의 전사면을 실체현미경(101)으로 확대하여 촬상한 화상을 이용하여, 이 화상을 모니터에 비추어 농담이나 명암, 그 형상을 단서로 하여 땀방울을 판별한다. 땀방울을 원으로 마킹한다. 피부소릉에 있는 땀방울과, 피부소구에 있는 땀방울과는 구별하기 위해, 마크의 색을 바꿨다. 이로써, 땀방울 수, 직경, 면적을 측정할 수 있다. 그리고, 실리콘에는, 기포가 포함되는 경우가 있으므로, 직경이 예를 들어 40㎛ 이하의 원형에 가까운 형상 부분은, 기포로서 판별한다.
이상이 검사원에 의한 피부소릉·피부소구의 판별, 땀방울 판별 수법이지만, 도 5a, 도 5b에 나타내는 바와 같이, 피부 표면의 구조는 복잡함과 더불어, 발증하는 피부 질환에 따라서도 크게 상이하므로, 검사원에 의한 판별 시에, 화상 중의 어디가 피부소구인지, 또는 어디가 피부소릉인지 판정하는 데에 시간이 걸려, 일정 시간 내에 처리할 수 있는 샘플 수에는 한계가 있었다. 또한, 실리콘에는 기포가 포함되는 경우가 있어, 그 기포와 땀방울을 구별하기 어렵고, 땀방울의 판별도 시간과 수고가 드는 작업이었다.
본 실시형태에 따른 피부 표면 해석 장치(1)는, 도 5a, 도 5b에 나타내는 바와 같은 화상이어도, 후술하는 기계 학습 식별기(24)를 이용하여 피부 표면의 우도 맵 화상을 생성하고, 우도 맵 화상을 이용하여 피부소릉 영역이나 땀방울을 판별할 수 있어, 피부 표면 상태의 해석 정밀도를 높일 수 있음과 함께, 해석에 필요한 시간을 단축할 수 있는 것이다.
이하, 피부 표면 해석 장치(1)의 구성에 대하여 구체적으로 설명한다. 도 1에 나타내는 바와 같이, 피부 표면 해석 장치(1)는, 예를 들어 퍼스널 컴퓨터 등으로 구성할 수 있고, 본체부(10)와, 모니터(11)와, 키보드(12)와, 마우스(13)를 구비한다. 예를 들어 범용 퍼스널 컴퓨터에, 후술하는 제어 내용, 화상 처리, 연산 처리, 통계 처리를 실행하는 프로그램을 설치함에 따라 피부 표면 해석 장치(1)로 할 수 있다. 또한, 상기 프로그램이 실장된 전용 하드웨어로 피부 표면 해석 장치(1)를 구성하여도 된다.
모니터(11)는, 각종 화상이나 설정용 UI화상 등을 표시하는 것이고, 예를 들어 액정 디스플레이 등으로 구성할 수 있다. 키보드(12) 및 마우스(13)는, 종래부터 퍼스널 컴퓨터 등의 조작 수단으로서 이용되는 것이다. 키보드(12) 및 마우스(13) 대신에, 또는 키보드(12) 및 마우스(13)와 더불어, 터치 조작 패널 등을 배치하여도 된다. 본체부(10), 모니터(11) 및 조작 수단은, 일체화되어도 된다.
도 2에 나타내는 바와 같이, 본체부(10)는, 통신부(10a)와 제어부(10b)와 기억부(10c)를 구비한다. 통신부(10a)는, 외부와 데이터 통신을 실행하는 부분이고, 각종 통신 모듈 등으로 구성된다. 통신부(10a)를 개재하여 인터넷 등의 네트워크 회선에 접속함으로써, 외부로부터 데이터를 읽어들이거나, 본체부(10)의 데이터를 송출하는 것이 가능해진다. 기억부(10c)는, 예를 들어 하드디스크나 SSD(Solid State Drive) 등으로 구성되고, 각종 화상이나 설정 정보, 해석 결과, 통계 처리 결과 등을 기억할 수 있게 되어 있다. 기억부(10c)는, 외부 기억 장치로 구성되어도 되고, 이른바 클라우드서버 등으로 구성되어도 된다.
제어부(10b)는, 도시하지 않지만, 예를 들어 시스템(LSI, MPU, GPU, DSP)이나 전용 하드웨어 등으로 구성할 수 있고, 각종 프로그램에 기초하여 수치 계산이나 정보 처리를 실시함과 함께, 하드웨어 각 부를 제어한다. 각 하드웨어는, 버스 등의 전기적인 통신로(배선)를 개재하여, 쌍방향 통신 가능 또는 일방향 통신 가능하게 접속된다. 제어부(10b)는, 후술하는 바와 같이 여러 처리를 실시할 수 있도록 구성되지만, 이들 처리는 논리회로에 의해 실현 가능하게 되어도 되고, 소프트웨어를 실행함으로써 실현되는 것이어도 된다. 제어부(10b)가 실행 가능한 처리에는, 일반적인 각종 화상 처리도 포함된다. 또한, 제어부(10b)는 하드웨어와 소프트웨어와의 조합으로 구성할 수 있다.
먼저, 제어부(10b)의 구성에 대해서 설명하고, 그 후, 구체적인 화상 예를 나타내어 제어부(10b)에 의한 피부 표면 해석 방법에 대하여 설명한다.
(제어부(10b)의 구성)
제어부(10b)에는, 통신부(10a)를 개재하여, 또는 직접, 외부로부터 화상을 불러올 수 있게 되어 있다. 불러온 화상은 기억부(10c)에 기억시켜 둘 수 있다. 불러오는 화상은, 전사재(100)의 전사면을 실체현미경(101)으로 확대하여, 촬상한 화상이며, 예를 들어 도 5a, 도 5b의 기초가 되는 화상이다. 불러오는 화상은, 컬러 화상이어도 되고, 그레이 스케일화된 그레이 스케일 화상이어도 된다.
제어부(10b)는, 컬러 화상 또는 그레이 스케일화된 화상이 입력되는 화상 입력부(20)를 구비한다. 화상 입력부(20)에는, 후술하는 그레이 스케일 처리부(21)에 의해 그레이 스케일화된 화상이 입력되어도 되고, 피부 표면 해석 장치(1)의 외부에서 미리 그레이 스케일화된 화상이 입력되어도 된다. 화상 입력부(20)에 화상을 입력할 때에는, 전술한 그레이 스케일 처리부(21)로 화상을 읽어들이는 것과 마찬가지로, 피부 표면 해석 장치(1)의 유저가 실행 가능하다. 화상 입력부(20)에는, 컬러 화상을 입력할 수도 있다.
제어부(10b)는, 불러온 화상이 컬러 화상인 경우에, 당해 컬러 화상을 그레이 스케일화하는 그레이 스케일 처리부(21)를 구비한다. 컬러 화상을 반드시 그레이 스케일화할 필요는 없고, 컬러 화상인 채로, 후술하는 로컬 화상 강조 처리 이후를 실행하여도 된다.
예를 들어, 화상을 불러오는 것은, 피부 표면 해석 장치(1)의 유저에 의해 실행 가능하다. 예를 들어, 실체현미경(101)으로 확대한 화상을 촬상소자(도시하지 않음)로 촬상한 후, 그에 의해 얻어진 화상 데이터를 그레이 스케일 처리부(21)에 읽어들이는 조작이 가능하게 구성된다. 본 예에서는, 촬상소자로부터 출력된 화상 데이터를 JPEG 형식으로 보존한 화상을 이용하지만, 이에 한정되지 않고, 다른 압축 형식으로 압축한 화상 데이터여도 되고, RAW 화상이어도 된다. 또한, 본 예에서는, 화상의 크기를 1600Х1200pixel(픽셀)로 하지만, 이것도 임의로 설정할 수 있다.
그레이 스케일 처리부(21)는, 컬러 화상을 예를 들어 8bit 계조로 그레이 스케일화한다. 구체적으로는, 그레이 스케일 처리부(21)는, 화상을 구성하는 각 화소의 표본값에 휘도 이외의 정보가 포함되어 있지 않는 화상으로 변환한다. 이 그레이 스케일은, 2치 화상과 상이하고, 화상을 휘도가 가장 강한 흰색부터 가장 약한 검은색까지의 사이에서, 회색의 명암도 포함하여 표현한다. 이 계조는, 8bit에 한정되는 것이 아니고, 임의의 계조로 설정할 수 있다.
제어부(10b)는, 로컬 화상 강조 처리부(22)를 구비한다. 로컬 화상 강조 처리부(22)는, 화상 입력부(20)에 입력된 그레이 스케일화된 화상의 국소 영역의 콘트라스트를 강조하는 로컬 화상 강조 처리를 실행하여 강조 처리 화상을 생성한다. 이로써, 화상의 세부의 가시성이 높아진다. 로컬 화상 강조 처리는, 예를 들어 히스토그램 평탄화 처리(histogram equalization) 등과 같이, 화상의 국소 영역의 콘트라스트를 강조함으로써 세부의 가시성을 높이는 처리를 들 수 있다.
제어부(10b)는, 패치 화상 생성부(23)를 구비한다. 패치 화상 생성부(23)는, 로컬 화상 강조 처리부(22)에 의해 생성된 강조 처리 화상을 복수의 패치 화상으로 분할하는 부분이다. 구체적으로는, 패치 화상 생성부(23)는, 예를 들어, 1600Х1200pixel 크기의 화상이 강조 처리 화상이라고 하면, 이 화상을, 하나가 256Х256pixel 크기의 화상(패치 화상)이 되도록 분할한다. 패치 화상 생성부(23)는, 인접하는 패치 화상끼리의 일부가 서로 중복하도록 패치 화상을 생성할 수도 있다. 즉, 패치 화상 생성부(23)에 의해 생성된 패치 화상은, 인접하는 패치 화상의 일부와 중복하고, 이 중복 범위는, 예를 들어, 64pixel 정도로 설정할 수 있다. 이 중복 범위의 설정을 예를 들어 "64pixel stride"라고도 부를 수 있다. 그리고, 전술한 pixel의 값은 일례이고, 다른 값으로 할 수도 있다.
가령, 복수의 패치 화상으로 분할할 때, 인접하는 패치 화상을 중복시키지 않은 경우에는, 인접하는 패치 화상의 경계에 우연히 피부소릉의 가장자리나 땀방울이 겹치는 것을 생각할 수 있고, 경계에 겹쳐진 피부소릉이나 땀방울의 기계 학습 식별기(24)(후술함)에 의한 판별 정밀도가 저하될 우려가 있다. 이에 반해, 본 예와 같이 인접하는 패치 화상끼리의 일부를 서로 중복시킴으로써, 전술한 위치에 있는 피부소릉이나 땀방울이어도 정밀도 좋게 판별할 수 있게 된다.
제어부(10b)는, 기계 학습 식별기(24)를 구비한다. 기계 학습 식별기(24)는, 패치 화상 생성부(23)에 의해 생성된 각 패치 화상이 입력되고, 입력된 각 패치 화상의 세그먼테이션을 실행하는 부분이다. 기계 학습 식별기(24) 자체는, 주지의 딥 러닝 수법에 따라 입력 화상을 세그먼테이션하고, 이 세그먼테이션에 의해, 예를 들어 화소마다 어느 카테고리에 속하는지를 구하여 출력 화상으로서 출력한다. 기계 학습 식별기(24)는, 입력 화상이 입력되는 입력층과, 출력 화상을 출력하는 출력층을 가짐과 함께, 입력층과 출력층과의 사이에 복수의 은닉층을 갖는다. 기계 학습 식별기(24)는, 다수의 교사 데이터(teacher data)를 학습함으로써 공통되는 특징량을 자동으로 추출하여 판단을 유연하게 할 수 있게 한 것이고, 학습이 완료되어 있다.
본 예에서는, 기계 학습 식별기(24)는, 입력 화상의 해상도와 출력 화상의 해상도를 동일하게 한다. 일반적인 기계 학습 식별기의 경우, 입력 화상의 해상도가 높고, 출력 화상의 해상도를 낮추어 출력하지만, 본 예는 미세한 피부소릉의 형상이나 땀방울의 크기 등을 정확하게 판별할 필요가 있으므로, 출력 화상의 해상도를 낮추지 않도록 한다. 일례를 들면, 기계 학습 식별기(24)의 입력층에 256Х256pixel 크기의 패치 화상이 입력된 경우, 출력층으로부터는 256Х256pixel 크기의 출력 화상이 출력된다.
또한, 본 예의 기계 학습 식별기(24)는, 피부소릉·피부소구의 검출과, 땀방울 검출을 동시에 실행할 수 있도록 구성된다. 즉, 기계 학습 식별기(24)는, 피부소릉·피부소구를 검출하는 피부소릉·피부소구 검출기(24a)와, 땀방울을 검출하는 땀방울 검출기(24b)를 갖는다. 피부소릉·피부소구 검출기(24a) 및 땀방울 검출기(24b)는, 각각 예를 들어 네트워크로서 Unet을 이용하여 구축할 수 있다.
제어부(10b)는, 전체 화상 생성부(25)를 구비한다. 전체 화상 생성부(25)는, 기계 학습 식별기(24)로부터 출력된 세그먼테이션 후의 패치 화상을 합성하여 전체 화상을 생성하는 부분이다. 구체적으로는, 전체 화상 생성부(25)는, 피부소릉·피부소구 검출기(24a)로부터 출력된 패치 화상을 분할 전의 화상과 같이 합성하여 피부소릉·피부소구 판별용 전체 화상을 생성하고, 또한, 땀방울 검출기(24b)로부터 출력된 패치 화상을 마찬가지로 합성하여 땀방울 판별용 전체 화상을 생성한다. 전체 화상은, 분할 전의 화상 크기와 동일하게 된다.
제어부(10b)는, 우도 맵 생성부(26)를 구비한다. 우도 맵 생성부(26)는, 전체 화상 생성부(25)에 의해 생성된 피부소릉·피부소구 판별용 전체 화상으로부터 기계 학습 식별기(24)에 의한 세그먼테이션 결과에 기초하여 피부소릉의 우도 맵 화상을 생성하는 부분이다. 우도 맵 화상은, 각 화소의 우도에 따라 색별하여 표시한 화상이고, 어느 화소의 우도가 높은지, 또는 낮은지를 상대적으로 나타낸다. 예를 들어 가장 높은 우도를 가진 화소를 빨강, 가장 낮은 우도를 가진 화소를 파랑으로 하고, 그 사이를 8bit의 계조로 표현한 컬러 맵 화상을 피부소릉·피부소구의 우도 맵 화상으로 할 수 있다. 그리고, 이 표시 형태는 일례이고, 그레이 스케일로 표시하여도 되고, 명도를 바꾼 표시 형태여도 되며, 계조는 8bit 이외여도 된다.
또한, 우도 맵 생성부(26)는, 전체 화상 생성부(25)에 의해 생성된 땀방울 판별용 전체 화상으로부터 기계 학습 식별기(24)에 의한 세그먼테이션 결과에 기초하여 땀방울의 우도 맵 화상을 생성한다. 땀방울일 우도가 가장 높은 화소를 빨강, 땀방울일 우도가 가장 낮은 화소를 파랑으로 하고, 그 사이를 8bit의 계조로 표현한 컬러 맵 화상을 땀방울의 우도 맵 화상으로 할 수 있다. 땀방울의 우도 맵 화상은, 피부소릉·피부소구의 경우와 마찬가지로, 그레이 스케일로 표시하여도 되고, 명도를 바꾼 표시 형태여도 되며, 계조는 8bit 이외여도 된다.
제어부(10b)는, 2치화 처리부(27)를 갖는다. 2치화 처리부(27)는, 우도 맵 생성부(26)에 의해 생성된 우도 맵 화상에 2치화 처리를 실행하여 2치화 화상(흑백 화상)을 생성하는 부분이다. 2치화 처리 시에 이용되는 역치(Th)는, 임의의 값으로 설정하면 되고, 예를 들어 계조가 8bit인 경우, Th=150 등의 값으로 설정할 수 있다. 피부소릉·피부소구 판별용 전체 화상에 기초한 우도 맵 화상을 이용함으로써, 예를 들어, 검은색이 피부소구, 흰색이 피부소릉이라는 식으로 판별할 수 있다. 또한, 땀방울 판별용 전체 화상에 기초함으로써, 예를 들어, 흰색이 땀방울, 검은색이 땀방울 이외의 부분이라는 식으로 판별할 수 있다.
제어부(10b)는, 영역 추출부(28)를 구비한다. 영역 추출부(28)는, 2치화 처리부(27)에 의해 생성된 2치화 화상에 기초하여 피부소릉 영역을 추출하는 부분이다. 구체적으로는, 2치화 화상의 흰색이 피부소릉인 경우에는, 2치화 화상의 흰색의 화소의 집단을 피부소릉 영역으로서 추출한다. 또한, 영역 추출부(28)는, 2치화 처리부(27)에 의해 생성된 2치화 화상에 기초하여 피부소구 영역을 추출하여도 된다. 이 경우, 2치화 화상의 검은색이 피부소구라고 하면, 2치화 화상의 검은색의 화소의 집단을 피부소구 영역으로서 추출한다. 영역 추출부(28)는, 피부소구를 추출한 후, 그 밖의 영역을 피부소릉 영역으로서 추출하여도 된다. 또한, 영역 추출부(28)는, 피부소릉을 추출한 후, 그 밖의 영역을 피부소구 영역으로서 추출하여도 된다.
제어부(10b)는, 땀방울 추출부(29)를 구비한다. 땀방울 추출부(29)는, 땀방울의 우도 맵 화상에 기초하여 땀방울을 추출하는 부분이다. 구체적으로는, 땀방울의 우도 맵 화상의 흰색(또는 빨강)이 땀방울인 경우에는, 땀방울의 우도 맵 화상의 흰색(또는 빨강)의 화소의 집단을 땀방울로서 추출한다. 또한 땀방울 추출부(29)는, 땀방울의 우도 맵 화상에 기초하여 땀방울 이외의 부분을 추출하여도 된다. 이 경우, 땀방울의 우도 맵 화상의 검은색(또는 파랑)이 땀방울 이외의 부분이라고 하면, 땀방울의 우도 맵 화상의 검은색(또는 빨강)의 화소의 집단을 땀방울 이외의 부분으로서 추출한다. 땀방울 추출부(29)는, 땀방울의 우도 맵 화상의 땀방울 이외의 부분을 추출한 후, 그 밖의 영역을 땀방울로서 추출하여도 된다.
전사재(100)에는 기포가 포함되는 경우가 있고, 이 기포가 땀방울로서 판별될 우려가 있다. 이 경우에는, 치수를 이용한 판별 수법도 적용한다. 예를 들어 판별 역치의 일례로서 "40㎛"로 설정해 둠으로써, 직경이 40㎛ 이하의 작은 영역은 기포라고 하고, 직경이 40㎛를 초과하는 영역만 땀방울로서 판별한다. 판별 역치의 다른 예로서는, 면적을 들 수 있고, 예를 들어 직경이 40㎛인 원의 면적을 구해 두고, 그 면적 이하의 작은 영역은 기포라고 하고, 그 면적을 초과하는 영역만 땀방울로서 판별할 수 있다. 상기 "직경"은 예를 들어 타원 근사의 경우의 긴 직경으로 하여도 된다.
제어부(10b)는, 피부소릉 해석부(30)를 구비한다. 피부소릉 해석부(30)는, 영역 추출부(28)에 의해 추출된 피부소릉 영역의 면적을 산출하는 부분이다. 피부소릉 해석부(30)는, 예를 들어, 영역 추출부(28)에 의해 추출된 피부소릉 영역을 둘러싸는 윤곽선을 생성함으로써, 피부소릉의 형상을 취득할 수 있다. 피부소릉 해석부(30)는, 피부소릉의 윤곽선으로 둘러싸인 영역의 면적을 구함으로써, 피부소릉의 면적을 산출할 수 있다. 또한, 피부소릉 해석부(30)는, 예를 들어, 영역 추출부(28)에 의해 추출된 피부소구 영역을 둘러싸는 윤곽선을 생성함으로써, 피부소구의 형상도 취득할 수 있다. 피부소릉 해석부(30)는, 피부소구의 윤곽선으로 둘러싸인 영역의 면적을 구함으로써, 피부소구의 면적도 산출할 수 있다.
피부소릉 해석부(30)는, 2치화 화상 상 또는 그레이 스케일 화상 상에 소정의 크기의 그리드를 복수 설정하고, 각 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 산출한다. 구체적으로는, 피부소릉 해석부(30)는, 일례로서 2치화 화상을 9개로 등분할하도록 그리드를 설정하여 제1~제9 분할 화상을 가정한 경우, 각 분할 화상에 포함되는 피부소릉 영역의 면적과 피부소구 영역의 면적을 산출하고, 피부소릉 영역의 면적과 피부소구 영역의 면적의 비율을 산출한다. 예를 들어 피부 표면의 결의 고움을 평가하고 싶은 경우, 2치화 화상 상 또는 그레이 스케일 화상 상에 설정한 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율에 기초하여 평가할 수 있다. 피부소릉 영역의 비율이 소정 이상인 경우에는, 피부가 거칠다고 판단하는 기준이 될 수 있다. 또한, 피부소릉 영역의 비율이 소정 미만인 경우에는, 피부가 곱다고 판단하는 기준이 될 수 있다.
이후의 실시형태의 설명에서는, 피부소릉 해석부(30)에 있어서, 피부소릉과 피부소구(피부소릉이 흰색에 가까움, 피부소구가 검은색에 가까움)를 그레이 스케일 화상으로 해석한 결과를 이용한 경우이다. 건강한 사람의 경우에는, 피부소릉과 피부소구의 경계가 명확하여, 피부소릉의 면적을 계측할 수 있지만, 아토피성 피부염의 환자인 경우에는, 피부소릉과 피부소구의 경계가 명확하지 않은 경우가 있고, 이 경우, 그레이 스케일 화상을 그대로 해석에 이용함으로써, 복수의 그리드에서의 피부소릉과 피부소구의 비율을 구하고, 그 그리드 내의 화소의 그레이 스케일 값을 이용함으로써, 피부소릉과 피부소구의 비율을 해석하고, 히스토그램 표시함으로써, 피부결 고움 등의 판단 기준에 이용할 수 있다(후술한다).
또한, 피부소릉 해석부(30)는, 상기 각 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 수치화하고 도수 분포를 산출한다. 구체적으로는, 피부소릉 영역의 면적과 피부소구 영역의 면적의 비율을 산출한 후, 이를 수치화하고, 도수 분포표의 형식으로 데이터 집계한다. 또한, 피부소릉 해석부(30)는, 각 피부소릉 영역의 중심(重心) 위치, 피부소릉 영역의 둘레 길이, 직사각형 근사, 타원 근사, 원형도, 종횡비, 조밀도 등을 산출할 수 있다.
또한, 병태에 따라서는 피부소릉의 일부에 홈이 생길 경우가 있고, 이 경우는, 추출된 피부소릉 영역 내에 돌출되지 않은 부분, 즉 오목이 존재하게 된다. 이 오목에 의해 피부소릉 영역을 분할함으로써, 병태나 임상적인 평가를 적절히 실시하는 기준이 될 수 있다. 이에 대응하도록, 피부소릉 해석부(30)는, 피부소릉 영역 추출 후, 추출된 피부소릉 영역의 각 부분의 돌출 여부를 판정하고, 돌출이 아니라고 판정된 부분에 의해 피부소릉 영역을 분할한다. 예를 들어, 피부소릉 영역에 홈 형상의 부분이 존재하는 경우가 있고, 이 경우, 피부소릉 영역의 전부가 돌출이 아니라, 일부(홈 형상의 부분)가 오목이 된다. 돌출이 아니라고 판정된 부분, 즉 오목이라고 판정된 부분은, 홈 형상의 부분인 점에서, 이 홈 형상의 부분에 의해 피부소릉 영역을 분할하고, 이에 의해, 하나의 피부소릉 영역이 복수의 피부소릉 영역이 된다.
제어부(10b)는, 땀방울 해석부(31)를 구비한다. 땀방울 해석부(31)는, 땀방울 추출부(29)에 의해 추출된 땀방울의 분포를 산출한다. 땀방울 해석부(31)는, 예를 들어, 피부 표면의 단위 면적당(1㎟, 1㎠ 등)에 존재하는 땀방울 수, 각 땀방울의 크기(직경), 땀방울의 면적 등을 산출할 수 있다. 또한, 땀방울 해석부(31)는, 피부 표면의 단위 면적당 존재하는 땀방울의 합계 면적을 산출할 수도 있다.
제어부(10b)는, 정보 출력부(32)를 구비한다. 정보 출력부(32)는, 영역 추출부(28)에 의해 추출된 피부소릉 영역의 형상에 관한 정보, 땀방울 추출부(29)에 의해 추출된 땀방울에 관한 정보를 생성하여 출력한다. 피부소릉 영역의 형상에 관한 정보로는, 피부소릉 해석부(30)가 산출한 결과를 포함하고, 예를 들어, 피부소릉 영역의 면적, 피부소릉 영역의 중심 위치, 피부소릉 영역의 둘레 길이, 직사각형 근사, 타원 근사, 원형도, 종횡비, 조밀도 등을 들 수 있다. 또한, 땀방울에 관한 정보로는, 땀방울 해석부(31)가 산출한 결과를 포함하고, 예를 들어 단위 면적당 존재하는 땀방울 수, 단위 면적당 존재하는 땀방울의 합계 면적 등을 들 수 있다.
(피부 표면 해석 방법)
다음으로, 상기와 같이 구성된 피부 표면 해석 장치(1)를 이용하여 실시되는 피부 표면 해석 방법에 대하여, 구체적인 화상 예를 나타내면서 설명한다. 피부 표면 해석 방법의 흐름은 도 3 및 도 4에 나타내는 흐름도와 같다. 도 3에 나타내는 흐름도의 단계 S1에서는, IMT를 실시한다. 이 단계에서는, 도 1에 나타내는 바와 같이, 치과용 실리콘 인상재를 피부 표면에 막상으로 도포하여 소정 시간 방치한 후, 실리콘 인상재를 피부로부터 박리하여 사람의 피부 표면 구조가 전사된 전사재(100)를 얻는다.
그 후, 단계 S2로 진행한다. 단계 S2에서는, 전사재(100)를 실체현미경(101)에 세팅하여 소정의 배율로 관찰하고, 관찰 시야를 촬상 소자에 의해 촬상한다. 이에 의해, JPEG 형식의 컬러 화상(1600Х1200pixel)을 취득한다. 이어서 단계 S3으로 진행하고, 촬상 소자로 촬상한 컬러 화상을 피부 표면 해석 장치(1)의 제어부(10b)에 읽어들인다. 그 후, 단계 S4로 진행하고, 단계 S3에서 읽어들인 컬러 화상을 그레이 스케일 처리부(21)(도 2에 나타냄)에 의해 8bit의 그레이 스케일화하여, 그레이 스케일 화상을 생성한다. 생성한 그레이 스케일 화상의 일례를 도 6에 나타낸다. 그레이 스케일 화상 상에서 색이 연한 부분이 피부소릉, 색이 진한 부분이 피부소구이지만, 그 경계는 명확하지 않고, 검사원에 의한 판별 시에, 화상 중의 어디가 피부소구인지, 또는 어디가 피부소릉인지 판정하는 데에 시간이 걸리고, 일정 시간 내에 처리할 수 있는 샘플 수에는 한계가 있었다. 제어부(10b)에 읽어들인 화상이 그레이 스케일 화상이면, 그레이 스케일 처리는 불필요하다.
이어지는 단계 S5에서는, 그레이 스케일 화상을 화상 입력부(20)에 입력한다. 이 단계가 화상 입력 단계이다. 그 후, 단계 S6에서는, 단계 S5에서 입력된 그레이 스케일 화상에 대하여 로컬 화상 강조 처리부(22)가 로컬 화상 강조 처리를 실행한다. 이 단계가 로컬 화상 강조 처리 단계이다. 로컬 화상 강조 처리가 실행된 화상을 도 7에 나타낸다. 도 7에 나타내는 화상은, 도 6에 나타내는 화상에 비해 국소 영역의 콘트라스트가 강조되어 세부의 가시성이 높아졌음을 알 수 있다.
그 후, 단계 S7로 진행한다. 단계 S7에서는, 패치 화상 생성부(23)가 단계 S6에서 생성된 강조 처리 화상을 복수의 패치 화상으로 분할한다. 도 8에는, 패치 화상으로 분할한 상태를 나타내고, 그리드 형상의 선이 패치 화상의 경계에 상당한다. 이때, "64pixel stride"에서 도면의 상하 방향 및 좌우 방향으로 인접하는 패치 화상을 서로 중복시킨다. 이 단계가 패치 화상 생성 단계이다.
패치 화상을 생성한 후, 단계 S8로 진행한다. 단계 S8에서는, 단계 S7에서 생성된 각 패치 화상을 기계 학습 식별기(24)에 입력하고, 입력한 각 패치 화상의 세그먼테이션을 기계 학습 식별기(24)에 의해 실행한다. 이때, 피부소릉·피부소구 검출기(24a)와 땀방울 검출기(24b)의 양쪽에 동일한 패치 화상을 입력한다(단계 S9, S10). 이 단계가 세그먼테이션 단계이다.
구체적으로는, 도 9에 나타내는 바와 같이, 8개의 패치 화상이 입력 화상으로서 존재한 경우, 8개의 패치 화상을 피부소릉·피부소구 검출기(24a)에 입력함과 함께, 땀방울 검출기(24b)에도 입력한다. 피부소릉·피부소구 검출기(24a)는, 입력 화상 전체에 대하여 피부소릉의 가능성이 높을수록 하얗게 되도록, 피부소릉의 가능성이 낮을수록(피부소구의 가능성이 높을수록) 까맣게 되도록 각 화소의 색을 설정한 출력 화상을 생성하여 출력한다. 또한, 땀방울 검출기(24b)는, 입력 화상 전체에 대하여 땀방울의 가능성이 높을수록 하얗게 되도록, 땀방울의 가능성이 낮을수록 까맣게 되도록 각 화소의 색을 설정한 출력 화상을 생성하여 출력한다.
도 9에서는, 피부소릉·피부소구 검출기(24a)로부터 출력된 피부소릉·피부소구 출력 화상 및 땀방울 검출기(24b)로부터 출력된 땀방울 출력 화상의 일례를 나타낸다. 피부소릉·피부소구 출력 화상 중의 흰 부분이 피부소릉 영역이고, 검은 부분이 피부소구 영역이다. 또한, 땀방울 출력 화상 중의 흰 부분이 땀방울이다.
본 예에서는, 전술한 바와 같이, 단계 S7에 있어서 복수의 패치 화상으로 분할할 때, 인접하는 패치 화상을 중복시킨다. 가령, 패치 화상을 중복시키지 않게 한 경우, 인접하는 패치 화상의 경계에 우연히 피부소릉의 가장자리나 땀방울이 겹치는 것을 생각할 수 있고, 경계에 겹쳐진 피부소릉이나 땀방울의 판별 정밀도가 저하될 우려가 있다. 이에 반해, 본 예에서는, 인접하는 패치 화상끼리의 일부가 서로 중복함으로써, 전술한 위치에 있는 피부소릉이나 땀방울이어도 정밀도 좋게 판별할 수 있다.
그 후, 단계 S11로 진행하고, 단계 S9 후의 피부소릉·피부소구 출력 화상(패치 화상)을 합성하여 도 10에 나타내는 바와 같은 전체 화상을 생성한다. 또한, 이 단계 S11에서는, 단계 S9 후의 땀방울 출력 화상(패치 화상)을 합성하여 도 11에 나타내는 바와 같은 전체 화상도 생성한다. 각 전체 화상의 픽셀수는, 단계 S5에서 입력된 화상의 픽셀수와 동일하게 된다. 이 단계가 전체 화상 생성 단계이다.
이어서 도 4에 나타내는 단계 S12로 진행하고, 단계 S11에서 생성된 전체 화상으로부터 세그먼테이션 결과에 기초하여, 우도 맵 생성부(26)가, 피부소릉의 우도 맵 화상 및 땀방울의 우도 맵 화상을 생성한다. 이 단계가 우도 맵 생성 단계이다. 도 12는, 피부소릉의 우도 맵 화상의 일례를 나타낸다. 이 도면에서는 편의상, 그레이 스케일 화상으로 하였지만, 본 예에서는, 피부소릉의 우도가 가장 높은 화소를 빨강, 피부소릉의 우도가 가장 낮은 화소를 파랑으로 하고, 그 사이를 8bit의 계조로 표현한 컬러 화상으로 한다. 이에 의해, 피부소릉 영역과 피부소구 영역과의 판별이 용이해진다.
또한, 도 13은, 땀방울의 우도 맵 화상의 일례를 나타낸다. 원래는 이 화상도 컬러이고, 땀방울의 우도가 가장 높은 화소를 빨강, 땀방울의 우도가 가장 낮은 화소를 파랑으로 하고, 그 사이를 8bit의 계조로 표현한 컬러 화상으로 한다. 이에 의해, 땀방울의 판별이 용이해진다.
피부소릉의 우도 맵 화상 및 땀방울 우도 맵 화상을 생성한 후, 단계 S13으로 진행한다. 단계 S13에서는, 단계 S12에서 생성된 피부소릉의 우도 맵 화상에 2치화 처리를 실행하여 2치화 화상을 생성한다. 이 단계는 2치화 처리부(27)가 실행하는 것이고, 2치화 처리 단계이다. 도 14는, 피부소릉의 우도 맵 화상에 2치화 처리를 실행함으로써 생성된 2치화 화상을 나타낸다.
그 후, 단계 S14로 진행하고, 단계 S13에서 생성된 2치화 화상에 기초하여, 영역 추출부(28)가 피부소릉 영역을 추출한다. 이때, 피부소구 영역을 추출하여도 된다. 도 15는, 피부소릉·피부소구를 추출한 화상이고, 피부소릉 영역을 검은 선으로 둘러쌈으로써 표시한다. 이 단계가 영역 추출 단계이다.
또한, 단계 S15로 진행하면, 단계 S12에 의해 생성된 땀방울의 우도 맵 화상에 기초하여, 땀방울 추출부(29)가 땀방울을 추출한다. 이 단계가 땀방울 추출 단계이다. 도 16은, 땀방울을 추출한 화상이고, 땀방울을 검은 선으로 둘러쌈으로써 표시한다.
이어서 단계 S16으로 진행한다. 단계 S16에서는, 땀방울의 위치와, 피부소릉·피부소구를 비교한다. 땀방울의 위치나 범위는, 화상 상의 XY좌표로 특정할 수 있다. 또한, 피부소릉·피부소구의 위치나 범위도 화상 상의 XY좌표로 특정할 수 있다. 땀방울의 위치나 범위를 특정하는 화상과, 피부소릉·피부소구의 위치나 범위를 특정하는 화상이란, 원래의 화상이 동일한 점에서, 도 17에 나타내는 바와 같이, 피부소릉·피부소구를 나타낸 화상 상에 땀방울을 배치할 수 있다. 이에 의해, 땀방울과, 피부소릉·피부소구와의 상대적인 위치 관계를 취득할 수 있다. 이때, 피부소릉의 영역, 땀방울의 중심 위치 좌표를 이용할 수 있다.
그 후, 단계 S17로 진행한다. 단계 S17에서는, 피부소릉·피부소구에 있는 땀방울의 동정을 실시한다. 도 18은, 피부소릉·피부소구에 있는 땀방울의 동정을 실시한 화상이고, 이에 의해, 피부소릉에 있는 땀방울과, 피부소구에 있는 땀방울을 구별하는 것이 가능해진다. 도 18 중, 원에 가까운 형상인 것이 땀방울이다.
동정을 실시한 후, 단계 S18 및 단계 S19로 진행한다. 단계 S18 및 단계 S19의 순서는 어느 것이 먼저여도 된다. 단계 S18에서는, 피부소릉 정보의 히스토그램을 작성하고, 모니터(11)에 표시시킨다. 먼저, 피부소릉 해석부(30)가, 단계 S14에서 추출된 각 피부소릉 영역의 면적을 각각 산출한다. 그리고, 도 19에 나타내는 바와 같이, 가로축을 면적으로 설정하고, 세로축을 도수로 설정한 히스토그램을 작성한다. 이 단계가 피부소릉 해석 단계이다. 이로써, 피부소릉 영역의 면적의 분포를 파악할 수 있다. 예를 들어, 아토피성 피부염의 경우에는, 하나의 피부소릉의 면적이 넓어지기 쉬운 경향이 있어, 넓은 면적의 도수가 높으면, 아토피성 피부염의 발한 장애의 경향이 강함을 알 수 있다.
또한, 단계 S19에서는, 땀방울의 히트 맵 화상을 작성하고, 모니터(11)에 표시시킨다. 먼저, 땀방울 해석부(31)가, 단계 S15에 의해 추출된 땀방울의 분포를 산출한다. 예를 들어, 도 20에 나타내는 바와 같이, 전사재(100)를 촬상한 화상 상에 그리드를 형성하고, 각 그리드 내에 존재하는 땀방울 수를 계수한다. 이는, 단계 S15에 의해 추출된 땀방울의 중심 위치의 좌표가 어느 그리드 내에 위치하는지를 판정해 감으로써 가능하다. 예를 들어, 땀방울이 존재하지 않는 그리드, 땀방울이 하나 존재하는 그리드, 땀방울이 2개 존재하는 그리드, 땀방울이 3개 존재하는 그리드, ??마다 색별하고, 각 그리드를 착색함으로써, 땀방울의 분포를 파악할 수 있고, 이와 같이 색별 표시한 화상을 히트 맵 화상이라고 부를 수 있다. 이 단계가 땀방울 해석 단계이다. 땀방울의 분포가 드문드문이면, 아토피성 피부염의 발한 장애의 경향이 강함을 알 수 있다.
또한, 히트 맵 화상을 작성함으로써 개개의 해석 영역에서는 얻을 수 없는, 또는 넓은 범위에서도 전체를 평균하면 판단할 수 없는, 좁은 범위의 발한 및 피부소릉의 상태를 패턴으로서 판단할 수 있다는 이점도 있다. 또한, 히트 맵 화상을 시계열로 나열하여 모니터(11)에 표시시킬 수도 있다. 예를 들어, 아토피성 피부염의 환자가 치료를 개시하고 나서 1주일, 2주일, 3주일, 경과한 시점에서 각각 히트 맵 화상을 생성해 두고, 이를 목록 형식으로 표시함으로써, 증상이 개선되었는지 여부를 판단할 수 있음과 함께, 경과를 정량적으로 판단할 수 있다.
도 21은, 단계 S14에서 추출된 각 피부소릉 영역을 둘러싸는 선을 나타낸 피부소릉 영역 화상의 일례다. 이 도면에 나타내는 화상은, 피부소릉 해석부(30)가 생성하고, 모니터(11)에 표시시킬 수 있다. 도면 중, "15"로 나타내는 제15번째 피부소릉 영역과, "16"으로 나타내는 제16번째 피부소릉 영역이 존재하는 경우, 도 22에 나타내는 바와 같이, 피부소릉 해석부(30)가 제원의 측정 결과를 표 형식으로 작성하고, 모니터(11)에 표시시킨다.
도 22에 나타내는 표 중, "Label"은, 제15번째 피부소릉 영역과, 제16번째 피부소릉 영역을 구별하기 위해 마련된다. "Area"는 피부소릉 영역의 면적, "XM" 및 "YM"은 피부소릉 영역의 중심 위치, "Perimeter"는 피부소릉 영역의 둘레 길이, "BX", "BY", "Width" 및 "Height"는 직사각형 근사, "Major", "Minor" 및 "Angle"은 타원 근사, "Circularity"는 원형도, "Aspect Ratio"는 종횡비, "Solidity"는 조밀도를 나타내는 제원이다. 이들 제원값은, 예를 들어 화상 해석 소프트웨어를 이용함으로써 피부소릉 해석부(30)가 산출 가능하다. 이와 같이, 하나의 지표만이 아니라, 복수의 지표를 이용함으로써, 임상적인 정보와 대응시켜 판단하는 것이 가능해진다. 또한, 이 지표도 피부 표면의 결 고움의 판별에 기여할 수 있으므로, 기계 학습 식별기(24)를 이용하여 피부 표면의 결 고움의 판별을 실시하는 것도 가능하다. 또한, 도 22에 나타내는 바와 같이, 통계적(합계, 최대, 최소, 편차 등)으로 처리하는 것도 가능하다.
도 23은, 128Х128pixel의 그리드당 피부소릉과 피부소구의 2차원 분포를 나타내는 그래프이고, 이와 같은 그래프도 피부소릉 해석부(30)가 생성하여 모니터(11)에 표시시킬 수 있다. 예를 들어, 피부소릉 영역을 빨강, 피부소구 영역을 파랑으로서 8bit의 컬러 화상으로 표시할 수 있다. 예를 들어, 피부 표면의 결 고움이나, 증상이 개선되어 감을 표현하는 방법의 일례로서 사용할 수 있고, 히트 맵으로 표현해도 되며, 피부소릉과 피부소구의 면적의 비율로 수치화한 때에, 이를 히스토그램으로 표시하면, 피부 표면의 결이 고운 경우에는, 중앙값 주변의 빈도가 높아지는 한편, 아토피성 피부염의 경우에는, 분포가 전체적으로 넓어지고, 폭이 넓어진다. 이로써, 2차원적인 정보를 정량화하고 진단 정보로서 이용할 수 있게 된다.
도 24는, 피부소릉 해석부(30)가, 화상 상에 소정의 크기의 그리드를 복수(본 예에서는 24) 설정하고, 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 산출하는 경우를 나타내는 것이다. 이 경우, 각 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 수치화하여 도수 분포를 산출할 수 있고, 히스토그램의 형식으로 모니터(11)에 표시시킬 수 있다. 예를 들어, 피부 표면의 결 고움을 평가하기 위해서, 피부소릉의 면적만을 이용하는 방법을 생각할 수 있는데, 그 경우에는, 인접하는 2개의 피부소릉이 매우 가까워 하나의 피부소릉으로서 판별된 때, 2배 정도의 크기의 피부소릉이 되어, 해석 결과가 부정확해질 우려가 있다. 본 예와 같이 각 그리드 중의 피부소릉과 피부소구의 비율을 구함으로써, 피부 표면의 결 고움을 정량적으로 산출할 수 있다.
도 25는, 3Х3=9시야의 촬상 영역을 합성한 화상이다. 이로써, 넓은 범위를 관찰할 수 있고, 넓은 범위 중, 발한의 평균적인 시야의 화상에 대하여 전술한 각 해석을 실시한다. 예를 들어, 하나의 시야에만 착안한 경우, 그 시야는 발한이 적은 시야인지, 많은 시야인지, 평균적인지 판별할 수 없지만, 9시야 정도의 넓은 시야의 전체에 대하여 땀방울을 해석해 둠으로써, 발한이 적은 시야 및 많은 시야를 제외하여 평균적인 시야, 즉 피부 표면 해석에 적합한 시야를 선택할 수 있다. 이로써, 해석 결과가 정확한 것이 된다. 검사원에 의한 해석의 경우에는, 시간적인 제약상, 처리하는 시야는 3시야 정도였지만, 본 발명에 의해, 3시야를 크게 넘는 다수의 시야의 해석이 가능해지고, 보다 정확한 피부 표면의 해석이 가능해진다.
피부소릉 해석부(30)는, 도 25에 나타내는 바와 같은 화상을 시계열로 나열하여 모니터(11)에 표시시킬 수도 있다. 예를 들어, 아토피성 피부염의 환자가 치료를 개시하고 나서 1주일, 2주일, 3주일, 경과한 시점에서 각각 도 25에 나타내는 바와 같이 화상을 생성해 두고, 이를 목록 형식으로 모니터(11)에 표시함으로써, 증상이 개선되었는지 여부를 판단할 수 있음과 함께, 경과 정도를 정량적으로 판단할 수 있다.
(피부소릉·피부소구 비율에 기초한 피부결 정량화)
도 26은, 건강한 사람의 전완의 피부소릉과 피부소구의 비율을 나타내는 그래프(히스토그램)이고, 그레이 스케일 화상에 있어서 100Х100픽셀 크기의 그리드를 설정한 경우를 나타낸다. 가로축은, 피부소릉과 피부소구의 비율이고, 세로축은 수이다. 도 26의 우측 그래프는, 커널 밀도 추정 그래프도 표시한다. 또한, 마찬가지로, 도 27은 150Х150픽셀 크기의 그리드를 설정한 경우, 도 28은 200Х200픽셀 크기의 그리드를 설정한 경우, 도 29는 250Х250픽셀 크기의 그리드를 설정한 경우를 각각 나타낸다.
건강한 사람의 전완과 같이, 피부결이 고운 경우에는, 100Х100, 150Х150, 200Х200, 250Х250픽셀 크기의 그리드의 어느 것에서도, 중앙 부분에 피크를 가진 분포가 된다. 또한, 그리드 크기에 의해, 피부소릉과 피부소구의 비율을 알 수 있으므로, 피부소릉만이 아니라, 피부소구의 크기도 정량화할 수 있다.
다음으로, 아토피성 피부염의 환자의 경우에 대해서 설명한다. 도 30~도 33은, 아토피성 피부염 환자의 대퇴의 피부소릉과 피부소구의 비율을 나타내는 그래프이고, 각각, 도 26~도 29에 상당한다. 건강한 사람을 나타내는 도 26~도 29의 그래프에 비해, 피크가 중앙으로부터 이동되어 있거나, 복수의 피크가 형성되어 있으므로, 이들 그래프를 봄으로써, 건강한 사람과 아토피성 피부염 환자와의 상이를 파악할 수 있다.
또한, 도 34~도 37은, 아토피성 피부염 환자의 이마의 피부소릉과 피부소구의 비율을 나타내는 그래프이고, 각각, 도 26~도 29에 상당한다. 건강한 사람을 나타내는 도 26~도 29의 그래프에 비해, 전체적으로 피크가 우측(피부소릉·피부소구의 비율이 큰 측)으로 이동되어 있거나, 복수의 피크가 형성되어 있으므로, 이들 그래프를 봄으로써, 건강한 사람과 아토피성 피부염 환자와의 상이를 파악할 수 있음과 함께, 아토피성 피부염 환자의 피부결의 고움이나 피부 상태를 파악할 수 있으므로, 경과 관찰에 있어서, 치료 효과를 객관적인 지표로서 제시하는 것이 가능해진다.
또한, 도 38~도 41은, 아토피성 피부염 환자의 팔꿈치의 피부소릉과 피부소구의 비율을 나타내는 그래프이고, 각각, 도 26~도 29에 상당한다. 건강한 사람을 나타내는 도 26~도 29의 그래프에 비해, 피크가 중앙으로부터 이동되어 있거나, 복수의 피크가 형성되어 있으므로, 이들 그래프를 봄으로써, 건강한 사람과 아토피성 피부염 환자와의 상이를 파악할 수 있음과 함께, 아토피성 피부염 환자의 피부결의 고움이나 피부 상태를 파악할 수 있으므로, 경과 관찰에 있어서, 치료 효과를 객관적인 지표로서 제시하는 것이 가능해진다.
(실시형태의 작용 효과)
이상 설명한 바와 같이, 이 실시형태에 의하면, 기계 학습 식별기(24)를 이용하여 피부 표면의 우도 맵 화상을 생성하고, 우도 맵 화상을 이용하여 피부소릉 영역이나 땀방울을 판별할 수 있으므로, 해석 시의 개인차를 배제하여 피부 표면 상태의 해석 정밀도를 높일 수 있음과 함께, 해석에 필요한 시간을 단축할 수 있다.
전술한 실시형태는 모든 점에서 단순한 예시에 지나지 않고, 한정적으로 해석하면 안 된다. 또한, 특허 청구범위의 균등 범위에 속하는 변형이나 변경은, 모두 본 발명의 범위 내의 것이다.
이상 설명한 바와 같이, 본 발명에 따른 피부 표면 해석 장치 및 피부 표면 해석 방법은, 예를 들어 사람의 피부 표면을 해석하는 경우에 이용할 수 있다.
1 : 피부 표면 해석 장치
20 : 화상 입력부
21 : 그레이 스케일 처리부
22 : 화상 강조 처리부
23 : 패치 화상 생성부
24 : 기계 학습 식별기
24a : 피부소릉·피부소구 검출기
24b : 땀방울 검출기
25 : 전체 화상 생성부
26 : 우도 맵 생성부
27 : 2치화 처리부
28 : 영역 추출부
29 : 땀방울 추출부
30 : 피부소릉 해석부
31 : 땀방울 해석부
100 : 전사재

Claims (12)

  1. 사람의 피부 표면 구조가 전사된 전사재를 이용하여 피부 표면을 해석하는 피부 표면 해석 장치로서,
    상기 전사재를 촬상한 화상이 입력되는 화상 입력부와,
    상기 화상 입력부에 입력된 화상의 국소 영역의 콘트라스트를 강조하는 로컬 화상 강조 처리를 실행하여 강조 처리 화상을 생성하는 로컬 화상 강조 처리부와,
    상기 로컬 화상 강조 처리부에 의해 생성된 강조 처리 화상을 복수의 패치 화상으로 분할하는 패치 화상 생성부와,
    상기 패치 화상 생성부에 의해 생성된 각 패치 화상이 입력되고, 입력된 각 패치 화상의 세그먼테이션을 실행하는 기계 학습 식별기와,
    상기 기계 학습 식별기로부터 출력된 세그먼테이션 후의 패치 화상을 합성하여 전체 화상을 생성하는 전체 화상 생성부와,
    상기 전체 화상 생성부에 의해 생성된 전체 화상으로부터 상기 세그먼테이션 결과에 기초하여 피부소릉의 우도 맵 화상을 생성하는 우도 맵 생성부와,
    상기 우도 맵 생성부에 의해 생성된 우도 맵 화상에 2치화 처리를 실행하여 2치화 화상을 생성하는 2치화 처리부와,
    상기 2치화 처리부에 의해 생성된 2치화 화상에 기초하여 피부소릉 영역을 추출하는 영역 추출부와,
    상기 영역 추출부에 의해 추출된 피부소릉 영역의 면적을 산출하는 피부소릉 해석부를 구비하는 것을 특징으로 하는 피부 표면 해석 장치.
  2. 사람의 피부 표면 구조가 전사된 전사재를 이용하여 피부 표면을 해석하는 피부 표면 해석 장치로서,
    상기 전사재를 촬상한 화상이 입력되는 화상 입력부와,
    상기 화상 입력부에 입력된 화상의 국소 영역의 콘트라스트를 강조하는 로컬 화상 강조 처리를 실행하여 강조 처리 화상을 생성하는 로컬 화상 강조 처리부와,
    상기 로컬 화상 강조 처리부에 의해 생성된 강조 처리 화상을 복수의 패치 화상으로 분할하는 패치 화상 생성부와,
    상기 패치 화상 생성부에 의해 생성된 각 패치 화상이 입력되고, 입력된 각 패치 화상의 세그먼테이션을 실행하는 기계 학습 식별기와,
    상기 기계 학습 식별기로부터 출력된 세그먼테이션 후의 패치 화상을 합성하여 전체 화상을 생성하는 전체 화상 생성부와,
    상기 전체 화상 생성부에 의해 생성된 전체 화상으로부터 상기 세그먼테이션 결과에 기초하여 땀방울의 우도 맵 화상을 생성하는 우도 맵 생성부와,
    상기 우도 맵 생성부에 의해 생성된 우도 맵 화상에 기초하여 땀방울을 추출하는 땀방울 추출부와,
    상기 땀방울 추출부에 의해 추출된 땀방울의 분포를 산출하는 땀방울 해석부를 구비하는 것을 특징으로 하는 피부 표면 해석 장치.
  3. 제1항에 있어서,
    상기 전체 화상 생성부에 의해 생성된 전체 화상으로부터 상기 세그먼테이션 결과에 기초하여 땀방울의 우도 맵 화상을 생성하는 우도 맵 생성부와,
    상기 우도 맵 생성부에 의해 생성된 우도 맵 화상에 기초하여 땀방울을 추출하는 땀방울 추출부와,
    상기 땀방울 추출부에 의해 추출된 땀방울의 분포를 산출하는 땀방울 해석부를 구비하는 것을 특징으로 하는 피부 표면 해석 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 전사재는, Impression mold technique로 취득된 것이고,
    상기 전사재를 촬상한 화상을 그레이 스케일화하는 그레이 스케일 처리부를 구비하는 것을 특징으로 하는 피부 표면 해석 장치.
  5. 제1항에 있어서,
    상기 패치 화상 생성부는, 인접하는 패치 화상끼리의 일부가 서로 중복하도록 패치 화상을 생성하는 것을 특징으로 하는 피부 표면 해석 장치.
  6. 제1항에 있어서,
    상기 기계 학습 식별기는, 입력 화상의 해상도와 출력 화상의 해상도를 동일하게 하는 것을 특징으로 하는 피부 표면 해석 장치.
  7. 제1항에 있어서,
    상기 피부소릉 해석부는, 화상 상에 소정의 크기의 그리드를 복수 설정하고, 상기 각 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 산출하는 것을 특징으로 하는 피부 표면 해석 장치.
  8. 제7항에 있어서,
    상기 피부소릉 해석부는, 상기 각 그리드 내의 피부소릉 영역과 피부소구 영역과의 비율을 수치화하고 도수 분포를 산출하는 것을 특징으로 하는 피부 표면 해석 장치.
  9. 제1항에 있어서,
    상기 영역 추출부는, 피부소릉 영역 추출 후, 추출된 피부소릉 영역의 각 부분의 돌출 여부를 판정하고, 돌출이 아니라고 판정된 부분에 의해 상기 피부소릉 영역을 분할하는 것을 특징으로 하는 피부 표면 해석 장치.
  10. 제3항에 있어서,
    상기 영역 추출부에 의해 추출된 피부소릉 영역의 형상에 관한 정보를 생성하여 출력하는 정보 출력부를 구비하는 것을 특징으로 하는 피부 표면 해석 장치.
  11. 사람의 피부 표면 구조가 전사된 전사재를 이용하여 피부 표면을 해석하는 피부 표면 해석 방법으로서,
    상기 전사재를 촬상한 화상을 입력하는 화상 입력 단계와,
    상기 화상 입력 단계에서 입력된 화상의 국소 영역의 콘트라스트를 강조하는 로컬 화상 강조 처리를 실행하여 강조 처리 화상을 생성하는 로컬 화상 강조 처리 단계와,
    상기 로컬 화상 강조 처리 단계에 의해 생성된 강조 처리 화상을 복수의 패치 화상으로 분할하는 패치 화상 생성 단계와,
    상기 패치 화상 생성 단계에 의해 생성된 각 패치 화상을 기계 학습 식별기에 입력하고, 입력한 각 패치 화상의 세그먼테이션을 기계 학습 식별기에 의해 실행하는 세그먼테이션 단계와,
    상기 세그먼테이션 단계 후의 패치 화상을 합성하여 전체 화상을 생성하는 전체 화상 생성 단계와,
    상기 전체 화상 생성 단계에 의해 생성된 전체 화상으로부터 상기 세그먼테이션 결과에 기초하여 피부소릉의 우도 맵 화상을 생성하는 우도 맵 생성 단계와,
    상기 우도 맵 생성 단계에 의해 생성된 우도 맵 화상에 2치화 처리를 실행하여 2치화 화상을 생성하는 2치화 처리 단계와,
    상기 2치화 처리 단계에 의해 생성된 2치화 화상에 기초하여 피부소릉 영역을 추출하는 영역 추출 단계와,
    상기 영역 추출 단계에 의해 추출된 피부소릉 영역의 면적을 산출하는 피부소릉 해석 단계를 구비하는 것을 특징으로 하는 피부 표면 해석 방법.
  12. 사람의 피부 표면 구조가 전사된 전사재를 이용하여 피부 표면을 해석하는 피부 표면 해석 방법으로서,
    상기 전사재를 촬상한 화상을 입력하는 화상 입력 단계와,
    상기 화상 입력 단계에서 입력된 화상의 국소 영역의 콘트라스트를 강조하는 로컬 화상 강조 처리를 실행하여 강조 처리 화상을 생성하는 로컬 화상 강조 처리 단계와,
    상기 로컬 화상 강조 처리 단계에 의해 생성된 강조 처리 화상을 복수의 패치 화상으로 분할하는 패치 화상 생성 단계와,
    상기 패치 화상 생성 단계에 의해 생성된 각 패치 화상을 기계 학습 식별기에 입력하고, 입력한 각 패치 화상의 세그먼테이션을 기계 학습 식별기에 의해 실행하는 세그먼테이션 단계와,
    상기 세그먼테이션 단계 후의 패치 화상을 합성하여 전체 화상을 생성하는 전체 화상 생성 단계와,
    상기 전체 화상 생성 단계에 의해 생성된 전체 화상으로부터 상기 세그먼테이션 결과에 기초하여 땀방울의 우도 맵 화상을 생성하는 우도 맵 생성 단계와,
    상기 우도 맵 생성 단계에 의해 생성된 우도 맵 화상에 기초하여 땀방울을 추출하는 땀방울 추출 단계와,
    상기 땀방울 추출 단계에 의해 추출된 땀방울의 분포를 산출하는 땀방울 해석 단계를 구비하는 것을 특징으로 하는 피부 표면 해석 방법.
KR1020237011964A 2020-09-17 2021-09-09 피부 표면 해석 장치 및 피부 표면 해석 방법 KR20230069953A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020156214 2020-09-17
JPJP-P-2020-156214 2020-09-17
PCT/JP2021/033184 WO2022059596A1 (ja) 2020-09-17 2021-09-09 皮表解析装置及び皮表解析方法

Publications (1)

Publication Number Publication Date
KR20230069953A true KR20230069953A (ko) 2023-05-19

Family

ID=80777006

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237011964A KR20230069953A (ko) 2020-09-17 2021-09-09 피부 표면 해석 장치 및 피부 표면 해석 방법

Country Status (6)

Country Link
US (1) US20230214970A1 (ko)
EP (1) EP4216153A4 (ko)
JP (1) JPWO2022059596A1 (ko)
KR (1) KR20230069953A (ko)
CN (1) CN116113984A (ko)
WO (1) WO2022059596A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264296B1 (ja) 2022-04-20 2023-04-25 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180230733A1 (en) 2017-02-15 2018-08-16 Vkr Holding A/S Method for Attaching a Pane Element to a Sash and a Pane Module including a Pane Element

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793549A (ja) * 1993-09-24 1995-04-07 Shiseido Co Ltd 帰納学習を用いた物理情報分類装置及び帰納学習を用いた物理情報分類規則生成方法
JPH09308619A (ja) * 1996-05-23 1997-12-02 Kao Corp 皮膚表面分析方法及び装置
JP5993587B2 (ja) * 2012-03-13 2016-09-14 株式会社 資生堂 肌状態解析方法、肌状態解析装置、及び、肌状態解析システム、並びに、該肌状態解析方法を実行させるためのプログラム、及び、該プログラムを記録した記録媒体
JP6546852B2 (ja) * 2013-08-30 2019-07-17 株式会社ニュートリション・アクト 解析装置、解析方法、およびプログラム
WO2018230733A1 (ja) 2017-06-16 2018-12-20 マルホ株式会社 皮膚外用剤
US20200234444A1 (en) * 2019-01-18 2020-07-23 Tissue Analytics, Inc. Systems and methods for the analysis of skin conditions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180230733A1 (en) 2017-02-15 2018-08-16 Vkr Holding A/S Method for Attaching a Pane Element to a Sash and a Pane Module including a Pane Element

Also Published As

Publication number Publication date
EP4216153A4 (en) 2024-04-03
CN116113984A (zh) 2023-05-12
US20230214970A1 (en) 2023-07-06
EP4216153A1 (en) 2023-07-26
JPWO2022059596A1 (ko) 2022-03-24
WO2022059596A1 (ja) 2022-03-24

Similar Documents

Publication Publication Date Title
Raghavendra et al. Computer-aided diagnosis for the identification of breast cancer using thermogram images: A comprehensive review
Senan et al. Analysis of dermoscopy images by using ABCD rule for early detection of skin cancer
Garnavi et al. Automatic segmentation of dermoscopy images using histogram thresholding on optimal color channels
JP4850927B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
CN105431089B (zh) 根据肝脏扫描确定肝功能的系统和方法
US8591414B2 (en) Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program
US9330453B2 (en) Apparatus and method for determining a skin inflammation value
Javed et al. Region-based active contour JSEG fusion technique for skin lesion segmentation from dermoscopic images
EP3461413B1 (en) Information processing apparatus, information processing method and computer program
US20140018681A1 (en) Ultrasound imaging breast tumor detection and diagnostic system and method
TWI719587B (zh) 眼底圖像定量分析的前置處理方法及存放裝置
Hu et al. Color correction parameter estimation on the smartphone and its application to automatic tongue diagnosis
Kermani et al. Automatic color segmentation of breast infrared images using a Gaussian mixture model
CN117877691B (zh) 一种基于图像识别的智能化伤口信息采集系统
KR20200108686A (ko) 딥러닝 알고리즘을 이용한 근감소증 분석 프로그램 및 애플리케이션
JP2019028887A (ja) 画像処理方法
JPWO2019044081A1 (ja) 医用画像表示装置、方法及びプログラム
KR20230069953A (ko) 피부 표면 해석 장치 및 피부 표면 해석 방법
JP2011115393A (ja) 肌特徴判別システム、肌特徴判別方法及び肌特徴判別プログラム
US20150086095A1 (en) Quantification and imaging methods and system of the echo texture feature
Goceri et al. Automated Detection of Facial Disorders (ADFD): a novel approach based-on digital photographs
JP2007252892A (ja) 皮膚表面の立体形状の目視評価値の推定方法
Selvarasu et al. Image processing techniques and neural networks for automated cancer analysis from breast thermographs-A review
EP2980757B1 (en) Quantification and imaging methods of the echo-texture feature
Mishra et al. Automatic separation of basal cell carcinoma from benign lesions in dermoscopy images with border thresholding techniques