KR102313652B1 - 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템 - Google Patents

의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템 Download PDF

Info

Publication number
KR102313652B1
KR102313652B1 KR1020200187930A KR20200187930A KR102313652B1 KR 102313652 B1 KR102313652 B1 KR 102313652B1 KR 1020200187930 A KR1020200187930 A KR 1020200187930A KR 20200187930 A KR20200187930 A KR 20200187930A KR 102313652 B1 KR102313652 B1 KR 102313652B1
Authority
KR
South Korea
Prior art keywords
target
morphological
medical image
image
scan condition
Prior art date
Application number
KR1020200187930A
Other languages
English (en)
Other versions
KR102313652B9 (ko
Inventor
김동현
김은영
Original Assignee
뉴로핏 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴로핏 주식회사 filed Critical 뉴로핏 주식회사
Priority to KR1020200187930A priority Critical patent/KR102313652B1/ko
Application granted granted Critical
Publication of KR102313652B1 publication Critical patent/KR102313652B1/ko
Publication of KR102313652B9 publication Critical patent/KR102313652B9/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Neurology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Neurosurgery (AREA)
  • Physiology (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Hospice & Palliative Care (AREA)
  • Dentistry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)

Abstract

본 출원의 일 실시예에 따른 의료 영상 분석 방법은, 제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 계산된 보정 파라미터를 획득함; 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득함; 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함; 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함; 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득함; 및 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함한다.

Description

의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템{METHOD FOR, DEVICE FOR, AND SYSTEM FOR ANALAZING MEDICAL IMAGE}
본 출원은 의료 영상을 분석하는 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템에 관한 것이다.
이미지 세그멘테이션 기술의 향상으로 인해, 의료 영상을 세그멘테이션하여 질환과 관련된 진단 보조 지표 등을 산출하는 것이 가능해지면서, 최근 의료 영상 분석 분야가 주목받고 있다.
특히, 치매의 진단 보조 지표를 제공하기 위하여 의료 영상 분석 기술이 다방면으로 이용되고 있으며, 객관적인 치매 진단 보조 정보를 제공하기 위하여 의료 영상으로부터 특정 영역의 형태학적 특성을 보다 정확하게 계산하는 것이 필수적으로 요구된다.
그러나 종래의 의료 영상 분석 기술은, 의료 영상 내에 이미지 세그멘테이션에 적합하지 않은 아티팩트(Artifact)가 포함되어 있는 등 의료 영상 자체에 오류가 존재함에 따른 여러 제약을 안고 있으며, 의료 영상이 획득된 스캔 조건에 따라 동일한 대상체에 대한 진단 보조 정보가 상이할 수 있다는 한계점을 가지고 있다. 또한, 종래의 의료 영상 분석 기술은, 의료 영상에 포함된 뇌를 표준 뇌 모델에 대하여 표준화한 이후에 이미지 세그멘테이션을 수행하는 방식을 사용하여, 대상체에 대하여 완전히 "개인화"된 진단 보조 정보를 제공할 수 없다는 문제점을 가지고 있어 높은 정확도가 요구되는 상황에서는 한계점을 가지고 있는 상황이다.
이에, 이미지에 노이즈가 포함된 경우라 할지라도 판단 가능한 진단 정보의 경우 사용자에게 제공할 수 있도록 하는 이미지 분석 방법 및 장치의 개발이 요구된다. 의료 영상이 촬영된 스캔 조건을 고려하여 진단 보조 정보를 획득하고 대상체에 대하여 개인화된 진단 보조 정보를 획득하기 위한 이미지 분석 방법 및 장치의 개발이 요구된다.
아래의 종래문헌들은 의료 영상을 분석하여 질병에 관한 정보를 제공하기 위한 지표를 산출하기 위한 방식을 개시한다.
* 대한민국특허청(KR) 등록특허공보 10-1754291(2017.07.06)
* 대한민국특허청(KR) 등록특허공보 10-1676789(2016.11.10)
또한, 아래의 선행문헌들은 여러 형식에 따른 의료 영상을 세그멘테이션하는 방식에 대해 개시한다.
* 미국 특허출원공개공보 US2019/0096059 A1
* 미국 특허출원공개공보 US2020/0167930 A1
본 발명의 일 과제는, 의료 영상과 관련된 정보를 제공하는 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원에 개시된 의료 영상 분석 방법은, 제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 계산된 보정 파라미터를 획득함; 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득함; 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함; 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함; 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득함; 및 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 장치는, 타겟 의료 영상을 획득하는 영상 획득부; 및 상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되, 상기 컨트롤러는, 제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 계산된 보정 파라미터를 획득하고, 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득하고, 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득하고, 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득하고, 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 방법은, 타겟 의료 영상을 획득함; 상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득함; 상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함; 상기 타겟 스캔 조건에 기초하여, 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정함; 및 상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함하되, 상기 타겟 보정 파라미터를 결정하는 것은, 상기 타겟 스캔 조건이 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고, 상기 타겟 스캔 조건이 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는, 상기 제1 스캔 조건과는 상이한 상기 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정하는 것을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 장치는, 타겟 의료 영상을 획득하는 영상 획득부; 및 상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되, 상기 컨트롤러는, 상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득하고, 상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 스캔 조건에 기초하여 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정하고, 상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성되되, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정함으로써 상기 타겟 보정 파라미터를 결정하도록 구성될 수 있다.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원의 실시예에 의하면, 대상 의료 이미지에 대한 퀄리티 분석을 수행하며 그 분석 결과에 대한 정보를 사용자에게 제공하여 의료 이미지 분석 결과에 대한 신뢰도를 높일 수 있다.
본 출원의 실시예에 의하면, 대상체의 의료 이미지에 기반하여 형태학적 지표를 산출하며 의료 이미지가 획득된 스캔 조건 혹은 타겟 요소의 위치를 고려하여 보정 파라미터를 적절하게 적용함으로써 보다 정확하게 형태학적 지표를 산출할 수 있다.
본 출원의 실시예에 의하면, 대상 의료 이미지의 분석을 통해 획득되는 다양한 지표 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공하여 사용자 편의를 증진시킬 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 출원의 일 실시예에 따른 의료 이미지 분석 시스템에 관한 개략도이다.
도 2는 본 출원의 일 실시예에 따른 이미지 분석을 위한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 출력 장치(2600)의 개략도이다
도 3은 본 출원의 일 실시예에 따른 이미지 분석 장치에 관한 블록도이다.
도 4는 본 출원의 일 실시예에 따른 출력 장치의 블록도이다.
도 5는 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다.
도 6은 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다.
도 7은 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
도 8은 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법에 대한 순서도이다.
도 9는 본 출원의 일 실시예에 따른 이미지 데이터 세트의 예시적인 구조도이다.
도 10은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 일 예이다.
도 11은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 다른 예이다.
도 12는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 방법에 대한 순서도이다.
도 13은 본 출원의 일 실시예에 따른 대상 이미지의 예시적인 구조도이다.
도 14는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 세그멘테이션 프로세스에 의해 획득된 결과값에 기초하여 획득된 이미지의 예시들이다.
도 15는 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
도 16은 본 출원의 일 실시예에 따른 이미지 데이터 세트들의 예시적인 구조도이다.
도 17은 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
도 18은 일 실시예에 따른 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 19는 이미지 품질 판단 프로세스를 수행하는 이미지 분석 장치를 설명하기 위한 도면이다.
도 20은 이미지 품질 판단 모듈을 설명하기 위한 도면이다.
도 21은 제1 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 22는 제1 이미지 품질 판단부를 설명하기 위한 도면이다.
도 23은 제2 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 24는 제2 이미지 품질 판단 프로세스가 인공 신경망 모델을 이용하여 의료 이미지 내의 아티팩트 발생 위치를 판단하는 것을 예시적으로 설명하기 위한 도면이다.
도 25는 일 실시예에 따른 아티팩트 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 26은 제3 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 27은 제3 이미지 품질 판단 프로세스의 일 실시예를 설명하기 위한 도면이다.
도 28은 제4 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 29는 아티팩트가 발생한 이미지를 예시하기 위한 도면이다.
도 30는 다른 실시예에 따른 제4 이미지 품질 판단 프로세스에서 아티팩트가 관심 영역과 중첩되어 발생되었는지 판단하는 것을 설명하기 위한 도면이다.
도 31은 일 실시예에 따른 이미지 품질 관련 정보 출력 모듈을 설명하기 위한 도면이다.
도 32는 제1 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 33 및 도 34는 제2 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 35 및 도36는 제3 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 37 및 도 38은 제4 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 39는 이미지 품질 관련 정보 출력 모듈(3900)이 출력하는 선택창을 예시적으로 설명하기 위한 도면이다.
도 40는 이미지 품질 관련 정보 출력 모듈(3900)이 출력하는 선택창을 예시적으로 설명하기 위한 도면이다.
도 41 내지 도 43은 제1 내지 제3 품질 판단 프로세스를 설명하기 위한 도면이다.
도 44 및 도 45는 제4 품질 판단 프로세스를 설명하기 위한 도면이다.
도 46 및 도 47은 제5 품질 판단 프로세스를 설명하기 위한 도면이다.
도 48은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 분석 방법의 일 동작을 도시한 흐름도이다.
도 49는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 정렬 방법의 예시적인 도면이다.
도 50은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도이다.
도 51은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 일 예를 도시한 도면이다.
도 52는 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법에 따라 획득된 제2 내부영역의 일 예를 도시한 도면이다.
도 53은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 다른 예를 도시한 도면이다.
도 54 내지 도 57은 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들을 도시한 예시적인 도면이다.
도 58은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 형태학적 수치의 보정 방법을 일 동작을 도시한 흐름도이다.
도 59는 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도이다.
도 60은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 구현되는 보정 파라미터의 획득 방법의 일 동작을 도시한 흐름도이다.
도 61은 본 출원의 일 실시예에 따른 복수의 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다.
도 62는 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 일 예를 도시한 그래프이다.
도 63은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 다른 예를 도시한 그래프이다.
도 64는 본 출원의 일 실시예에 따른 복수의 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다.
도 65는 본 출원의 일 실시예에 따른 타겟 요소가 두개골 내에 분포하는 위치에 따른 형태학적 값들 간의 상관관계 분석의 예시적인 도면이다.
도 66은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도이다.
도 67은 본 출원의 일 실시예에 따른 유저 인터페이스를 개략화한 도면이다.
도 68은 일 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.
도 69는 일 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.
도 70은 의료 데이터 획득 모듈을 설명하기 위한 도면이다.
도 71은 의료 정보 획득 모듈을 설명하기 위한 도면이다.
도 72는 진단 보조 정보 획득 모듈을 설명하기 위한 도면이다.
도 73는 진단 보조 정보 출력 모듈을 설명하기 위한 도면이다.
도 74는 몇몇 대상 질병에 대하여, 관련된 지표를 예시하기 위한 도면이다.
도 75는 일 실시예에 따른 의료 정보 출력 화면을 설명하기 위한 도면이다.
도 76는 다른 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.
도 77은 다른 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.
도 78은 선별 정보 획득 모듈을 설명하기 위한 도면이다.
도 79은 선별 정보 출력 모듈을 설명하기 위한 도면이다.
도 80 및 도 81은 선별 정보 출력 화면을 설명하기 위한 도면이다.
본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.
본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.
예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.
본 출원의 일 실시예에 따른 의료 이미지 분석 방법에 있어서, 상기 방법은, 적어도 하나의 아티팩트를 포함하는 대상 의료 이미지를 획득하는 단계; 상기 대상 의료 이미지에 기초하여, 상기 아티팩트와 관련된 아티팩트 정보를 획득하는 단계- 상기 아티팩트 정보는 상기 아티팩트가 분포하는 영역을 나타내는 아티팩트 영역을 포함함 -; 제1 신경망 모델을 이용하여, 상기 대상 의료 이미지에 기초하여, 해부학적으로 구분되는 하나 이상의 요소에 각각 대응되는 복수의 영역을 획득하는 단계- 상기 제1 신경망 모델은, 의료 이미지에 기초하여 상기 복수의 영역을 획득하도록 학습되고, 상기 복수의 영역은 제1 요소에 대응되는 제1 영역, 제2 요소에 대응되는 제2 영역 및 제3 요소에 대응되는 제3 영역을 포함함 -; 상기 아티팩트 영역과 관심 영역의 중첩 정도를 획득하는 단계- 상기 관심 영역은 상기 제1 영역의 적어도 일부를 포함함-; 상기 중첩 정도에 기초하여 상기 대상 의료 이미지의 품질 판단을 수행하는 제1 품질 판단 단계; 및 상기 제1 품질 판단에 기초하여, 상기 대상 의료 이미지의 품질 관련 정보를 출력하는 단계를 포함할 수 있다.
상기 제1 요소는 두개골이고, 상기 제1 영역은 상기 두개골에 대응되는 영역을 포함하되, 상기 관심 영역은 상기 두개골 영역 또는 두개골의 내부 영역일 수 있다.
상기 제2 요소는 대상 질병의 진단과 관련된 요소이고, 상기 관심 영역은 상기 제2 영역의 적어도 일부를 포함할 수 있다.
상기 아티팩트 영역은, 상기 의료 이미지에 아티팩트가 존재하는지 여부를 판단하도록 학습된 제2 신경망 모델을 이용하여 획득되되, 상기 아티팩트 영역은, 상기 제2 신경망 모델로부터 획득되고 상기 대상 의료 이미지에 존재하는 대상 아티팩트와 관련된 특징맵에 기초하여, 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 기준값 이상인 영역일 수 있다.
상기 아티팩트 영역은, 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함하되, 상기 제1 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역이고, 상기 제2 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 상기 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.
상기 아티팩트 영역은, 상기 의료 이미지에 포함되는 상기 아티팩트에 대응되는 영역을 세그멘테이션 하도록 학습된 제2 신경망 모델을 이용하여 획득될 수 있다.
상기 중첩 정도를 판단하는 단계는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역의 외곽 라인 및 상기 관심 영역의 외곽 라인을 획득하고, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 의료 이미지 상에서 중첩되는지 여부에 기초하여, 상기 아티팩트와 상기 관심 영역의 중첩 여부를 판단하는 것을 포함할 수 있다.
상기 제1 품질 판단 단계는, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 대상 의료 이미지 상에서 중첩되는 교차점이 2개 미만인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단하고, 상기 교차점이 2개 이상인 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단하는 것을 포함할 수 있다.
상기 중첩 정도를 판단하는 단계는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역 및 상기 관심 영역에 모두 포함되는 공통 픽셀의 수를 획득하는 단계; 및 상F기 공통 픽셀의 수를 이용하여 상기 아티팩트와 상기 관심 영역의 중첩 정도를 판단하는 단계를 포함할 수 있다.
상기 제1 품질 판단 단계는, 상기 공통 픽셀수가 미리 정해진 기준 값을 초과하는 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단하고, 상기 공통 픽셀수가 미리 정해진 기준 값 이하인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단하는 것을 포함할 수 있다.
상기 제3 영역에 기초하여 상기 대상 의료 이미지의 품질 판단을 수행하는 제2 품질 판단 단계를 더 포함하되, 상기 제2 품질 판단 단계는, 상기 제3 영역에 기초하여 형태학적 지표를 획득하는 단계 및 상기 형태학적 지표가 정량적인 기준을 만족하는지 판단하는 단계를 포함할 수 있다.
상기 형태학적 지표는 상기 제1 영역 및 상기 제3 영역에 기초하여 획득될 수 있다.
상기 형태학적 지표는 상기 제1 영역의 부피와 상기 제3 영역의 부피의 비율에 기초하여 획득될 수 있다.
상기 제3 영역은 상기 대상 의료 이미지의 가장 하단에 위치하는 요소에 대응되는 영역일 수 있다.
상기 제3 영역은 대상 질병의 진단과 관련된 요소에 대응되는 영역일 수 있다.
상기 의료 이미지의 품질 관련 정보를 출력하는 단계는, 상기 제1 품질 판단에 기초하여 생성된 에러 정보 및 상기 에러 정보와 관련된 선택창을 표시하는 것을 포함하되, 상기 에러 정보는 상기 아티팩트 정보 및 상기 복수의 영역에 관한 정보를 포함할 수 있다.
상기 선택창은 제1 오브젝트를 포함하고, 상기 의료 이미지 분석 방법은 상기 제1 오브젝트에 대한 사용자의 선택에 따라 후속 동작을 진행하는 것을 포함하되, 상기 후속 동작은, 상기 대상 의료 이미지 분석 동작, 상기 대상 의료 이미지를 보정하는 동작 또는 상기 대상 의료 이미지를 재 촬영하는 동작 중 어느 하나를 포함할 수 있다.
본 출원의 다른 실시예에 따른 의료 이미지 분석 장치는, 의료 이미지를 획득하는 획득부; 상기 의료 이미지에 기초하여 이미지 품질 정보를 획득하는 처리부; 및 상기 이미지 품질 정보를 출력하는 출력부;를 포함하되, 상기 처리부는, 상기 획득부를 통하여, 아티팩트를 포함하는 대상 의료 이미지를 획득하고, 상기 대상 의료 이미지에 기초하여 상기 아티팩트와 관련된 아티팩트 정보를 획득하고- 상기 아티팩트 정보는 상기 아티팩트가 분포하는 영역을 나타내는 아티팩트 영역을 포함함 -, 제1 신경망 모델을 이용하여, 상기 대상 의료 이미지에 기초하여, 해부학적으로 구분되는 하나 이상의 요소에 각각 대응되는 복수의 영역을 획득하고- 상기 제1 신경망 모델은, 상기 의료 이미지에 기초하여 상기 복수의 영역을 획득하도록 학습되고, 상기 복수의 영역은 제1 요소에 대응되는 제1 영역, 제2 요소에 대응되는 제2 영역 및 제3 요소에 대응되는 제3 영역을 포함함 -, 상기 아티팩트 영역과 관심 영역의 중첩 정도를 획득하고- 상기 관심 영역은 상기 제1 영역의 적어도 일부를 포함함 -, 상기 중첩 정도에 기초하여 상기 대상 의료 이미지의 제1 품질 판단을 수행하고, 상기 출력부는 상기 제1 품질 판단에 기초하여 상기 대상 의료 이미지의 품질 관련 정보를 출력할 수 있다.
상기 제1 요소는 두개골이고, 상기 제1 영역은 상기 두개골에 대응되는 영역을 포함하되, 상기 관심 영역은 상기 두개골 영역 또는 두개골의 내부 영역일 수 있다.
상기 제2 요소는 대상 질병의 진단과 관련된 요소이고, 상기 관심 영역은 상기 제2 영역의 적어도 일부를 포함할 수 있다.
상기 아티팩트 영역은, 상기 의료 이미지에 아티팩트가 존재하는지 여부를 판단하도록 학습된 제2 신경망 모델을 이용하여 획득되되, 상기 아티팩트 영역은, 상기 제2 신경망 모델로부터 획득되고 상기 대상 의료 이미지에 존재하는 대상 아티팩트와 관련된 특징맵에 기초하여, 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 기준값 이상인 영역일 수 있다.
상기 아티팩트 영역은, 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함하되, 상기 제1 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역이고, 상기 제2 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 상기 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.
상기 아티팩트 영역은, 상기 의료 이미지에 포함되는 상기 아티팩트에 대응되는 영역을 세그멘테이션 하도록 학습된 제2 신경망 모델을 이용하여 획득될 수 있다.
상기 처리부는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역의 외곽 라인 및 상기 관심 영역의 외곽 라인을 획득하고, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 의료 이미지 상에서 중첩되는지 여부에 기초하여, 상기 아티팩트와 상기 관심 영역의 중첩 여부를 판단할 수 있다.
상기 처리부는, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 대상 의료 이미지 상에서 중첩되는 교차점이 2개 미만인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단하고, 상기 교차점이 2개 이상인 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단할 수 있다.
상기 처리부는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역 및 상기 관심 영역에 모두 포함되는 공통 픽셀의 수를 획득하고, 상기 공통 픽셀의 수를 이용하여 상기 아티팩트와 상기 관심 영역의 중첩 정도를 판단할 수 있다.
상기 처리부는, 상기 공통 픽셀수가 미리 정해진 기준 값을 초과하는 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단하고, 상기 공통 픽셀수가 미리 정해진 기준 값 이하인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단할 수 있다.
상기 처리부는, 상기 제3 영역에 기초하여 형태학적 지표를 획득하고, 상기 형태학적 지표가 정량적인 기준을 만족하는지에 기초하여 제2 품질 판단을 수행할 수 있다.
상기 형태학적 지표는 상기 제1 영역 및 상기 제3 영역에 기초하여 획득될 수 있다.
상기 형태학적 지표는 상기 제1 영역의 부피와 상기 제3 영역의 부피의 비율 기초하여 획득될 수 있다.
상기 제3 영역은 상기 대상 의료 이미지의 가장 하단에 위치하는 요소에 대응되는 영역일 수 있다.
상기 제3 영역은 대상 질병의 진단과 관련된 요소에 대응되는 영역일 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 복셀 데이터를 포함하는 뇌 영상을 획득함; 상기 뇌 영상을 두개골 영역 및 레퍼런스 영역을 포함하는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 두개골 영역의 내부인 제1 내부 영역을 정의하는 제1 바운더리 및 상기 레퍼런스 영역을 획득함; 상기 레퍼런스 영역에 기초하여 상기 제1 내부 영역과 관련된 상기 제1 바운더리의 적어도 일부를 수정함으로써 제2 바운더리를 갖는 제2 내부 영역을 획득함- 상기 제2 내부 영역의 일부는 상기 제1 내부 영역에 포함되며 상기 타겟 요소를 포함함-; 상기 타겟 요소에 대응되는 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 제1 체적 값을 획득함; 상기 제2 바운더리에 포함된 복셀 데이터에 기초하여 상기 제2 내부 영역과 관련된 제2 체적 값을 획득함; 상기 제1 체적 값 및 상기 제2 체적 값에 기초하여 상기 타겟 요소의 체적 지표를 계산함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하기 위하여 상기 뇌 영상을 정렬함;을 더 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 뇌 영상을 정렬하는 것은, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득함;
상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출함; 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 뇌 영상의 촬영 방향을 획득함; 및 상기 촬영 방향이 기준 방향과 평행하도록 상기 뇌 영상을 정렬함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 특징 영역은 전측 교련(anterior commissure)에 대응되는 영역이며, 상기 제2 특징 영역은 후측 교련(posterior commissure)에 대응되는 영역이며, 상기 제1 특징점은 상기 전측 교련에 대응되는 영역을 정의하는 바운더리에 포함되며, 상기 제2 특징점은 상기 후측 교련에 대응되는 영역을 정의하는 바운더리에 포함될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 뇌 영상을 정렬하는 것은, 상기 뇌 영상에 포함된 상기 뇌 영상의 방향과 관련된 데이터를 획득함; 상기 뇌 영상의 방향과 관련된 데이터에 기초하여 상기 뇌 영상의 촬영 방향을 획득함; 및 상기 촬영 방향이 기준 방향에 대응하도록 상기 뇌 영상을 정렬함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하는 것은, 상기 뇌 영상으로부터 상기 레퍼런스 영역에 인접하는 기준 평면을 획득함; 및 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 기준 평면은 상기 뇌 영상의 횡평면(transverse plane)과 평행한 평면이며, 상기 제2 내부 영역을 획득하는 것은, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정함; 및 상기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 레퍼런스 영역은 소뇌에 대응되는 영역이며, 상기 기준 평면은 상기 소뇌의 대응되는 영역을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 레퍼런스 영역은 소뇌에 대응되는 영역이며, 상기 기준 평면은 상기 소뇌의 대응되는 영역을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하는 것은, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득함; 상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출함; 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 제1 특징점 및 상기 제2 특징점을 연결하는 기준 방향을 획득함; 상기 기준 방향에 대하여 평행한 기준 평면을 획득함; 및 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 레퍼런스 영역은 목뼈에 대응되는 영역이며, 상기 기준 평면은, 상기 목뼈에 대응되는 영역에 인접하며 시상면(sagittal plane)과 수직일 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하는 것은, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정함; 및 기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 체적 지표는 상기 제2 체적 값에 대한 상기 제1 체적 값의 비율로서 정의될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 타겟 요소의 상기 체적 지표를 계산하는 것은, 상기 제1 체적 값을 보정하기 위한 제1 보정 파라미터를 획득함-상기 제1 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-; 및 상기 제1 보정 파라미터 및 상기 제1 체적 값에 기초하여 상기 제1 체적 보정 값을 계산함;을 포함하는 제1 체적 보정 값을 획득함; 상기 제2 체적 값을 보정하기 위한 제2 보정 파라미터를 획득함-상기 제2 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-; 및 상기 제2 보정 파라미터 및 상기 제2 체적 값에 기초하여 상기 제2 체적 보정 값을 계산함;을 포함하는 제2 체적 보정 값을 획득함; 및 상기 제1 체적 보정 값 및 상기 제2 체적 보정 값에 기초하여 상기 체적 지표를 계산함;을 더 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 뇌 영상이 획득된 스캔 조건은, 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 뇌 영상을 획득하는 영상 획득부; 및 상기 뇌 영상에 기초하여 뇌 영상 분석 정보를 제공하는 컨트롤러;를 포함하되, 상기 컨트롤러는, 복셀 데이터를 포함하는 뇌 영상을 획득하고, 상기 뇌 영상을 두개골 영역 및 레퍼런스 영역을 포함하는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 두개골 영역의 내부인 제1 내부 영역을 정의하는 제1 바운더리 및 상기 레퍼런스 영역을 획득하고, 상기 레퍼런스 영역에 기초하여 상기 제1 내부 영역과 관련된 상기 제1 바운더리의 적어도 일부를 수정함으로써 제2 바운더리를 갖는 제2 내부 영역을 획득- 상기 제2 내부 영역의 일부는 상기 제1 내부 영역에 포함되며 상기 타겟 요소를 포함함-하고, 상기 타겟 요소에 대응되는 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 제1 체적 값을 획득하고, 상기 제2 바운더리에 포함된 복셀 데이터에 기초하여 상기 제2 내부 영역과 관련된 제2 체적 값을 획득하고, 상기 제1 체적 값 및 상기 제2 체적 값에 기초하여 상기 타겟 요소의 체적 지표를 계산하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제2 내부 영역을 획득하기 위하여 상기 뇌 영상을 정렬하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득하고, 상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출하고, 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 뇌 영상의 촬영 방향을 획득하고, 상기 촬영 방향이 기준 방향과 평행하도록 상기 뇌 영상을 정렬하여 상기 뇌 영상을 정렬하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 특징 영역은 전측 교련(anterior commissure)에 대응되는 영역이며, 상기 제2 특징 영역은 후측 교련(posterior commissure)에 대응되는 영역이며, 상기 제1 특징점은 상기 전측 교련에 대응되는 영역을 정의하는 바운더리에 포함되며, 상기 제2 특징점은 상기 후측 교련에 대응되는 영역을 정의하는 바운더리에 포함될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상에 포함된 상기 뇌 영상의 방향과 관련된 데이터를 획득하고, 상기 뇌 영상의 방향과 관련된 데이터에 기초하여 상기 뇌 영상의 촬영 방향을 획득하고, 상기 촬영 방향이 기준 방향에 대응하도록 상기 뇌 영상을 정렬하여 상기 뇌 영상을 정렬하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상으로부터 상기 레퍼런스 영역에 인접하는 기준 평면을 획득하고, 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함으로써, 상기 제2 내부 영역을 획득하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 기준 평면은 상기 뇌 영상의 횡평면(transverse plane)과 평행한 평면이며, 상기 컨트롤러는, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정하고, 상기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함으로써, 상기 제2 내부 영역을 획득하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 레퍼런스 영역은 소뇌에 대응되는 영역이며, 상기 기준 평면은 상기 소뇌의 대응되는 영역을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접할 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득하고, 상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출하고, 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 제1 특징점 및 상기 제2 특징점을 연결하는 기준 방향을 획득하고, 상기 기준 방향에 대하여 평행한 기준 평면을 획득하고, 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함으로써, 상기 제2 내부 영역을 획득하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 레퍼런스 영역은 목뼈에 대응되는 영역이며, 상기 기준 평면은, 상기 목뼈에 대응되는 영역에 인접하며 시상면(sagittal plane)과 수직일 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정하고, 상기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제2 체적 값에 대한 상기 제1 체적 값의 비율로 상기 체적 지표를 정의하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제1 체적 값을 보정하기 위한 제1 보정 파라미터를 획득-상기 제1 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-;하고, 상기 제1 보정 파라미터 및 상기 제1 체적 값에 기초하여 상기 제1 체적 보정 값을 계산하여 상기 제1 체적 보정 값을 획득하고, 상기 제2 체적 값을 보정하기 위한 제2 보정 파라미터를 획득-상기 제2 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-;하고, 상기 제2 보정 파라미터 및 상기 제2 체적 값에 기초하여 상기 제2 체적 보정 값을 계산하여 상기 제2 체적 보정 값을 획득하고, 상기 제1 체적 보정 값 및 상기 제2 체적 보정 값에 기초하여 상기 체적 지표를 계산함으로써, 상기 타겟 요소의 상기 체적 지표를 계산하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 뇌 영상이 획득된 스캔 조건은, 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 계산된 보정 파라미터를 획득함; 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득함; 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함; 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함; 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득함; 및 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 파라미터를 포함하고, 상기 보정된 형태학적 값을 획득하는 것은, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여, 상기 제1 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 보정된 형태학적 값을 획득하는 것을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 선형 함수와 관련된 파라미터를 포함하고, 상기 보정된 형태학적 값을 획득하는 것은, 상기 타겟 형태학적 값 및 상기 파라미터를 포함하는 상기 선형 함수에 기초하여, 상기 보정된 형태학적 값을 획득하는 것을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 세그멘테이션은, 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제2 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 제1 스캔 조건 하에서 획득된 영상에 대응하는 의료 영상으로 변환함;을 더 포함하며, 상기 세그멘테이션은 상기 변환된 의료 영상에 기초하여 수행될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건이 자기장 강도와 관련되는 경우, 상기 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 제2 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제2 형태학적 값을, 제1 자기장 강도 하에서 획득된 상기 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제1 형태학적 값으로 변환하기 위한 파라미터 세트를 포함하며, 상기 타겟 의료 영상이 상기 제2 자기장 강도 하에서 획득된 경우, 상기 보정된 형태학적 값은, 상기 타겟 형태학적 값 및 상기 파라미터 세트에 기초하여 획득될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 타겟 의료 영상을 획득하는 영상 획득부; 및 상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되, 상기 컨트롤러는, 제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 계산된 보정 파라미터를 획득하고, 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득하고, 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득하고, 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득하고, 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 파라미터를 포함하고, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여, 상기 제1 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 보정된 형태학적 값을 획득할 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 선형 함수와 관련된 파라미터를 포함하고, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 파라미터를 포함하는 상기 선형 함수에 기초하여, 상기 보정된 형태학적 값을 획득하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 세그멘테이션은, 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제2 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 제1 스캔 조건 하에서 획득된 영상에 대응하는 의료 영상으로 변환하며, 상기 세그멘테이션은 상기 변환된 의료 영상에 기초하여 수행되도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 형태학적 지표 및 형태학적 지표 데이터베이스에 기초하여 획득한 형태학적 정보를 출력하는 출력 모듈을 더 포함하되, 상기 형태학적 정보는 상기 형태학적 지표 데이터베이스 및 상기 형태학적 지표에 기초하여, 상기 타겟 의료 영상의 대상체와 관련된 상기 형태학적 지표의 상기 형태학적 지표 데이터베이스에 대한 백분위 정보를 포함하며, 상기 출력 모듈은 상기 백분위 정보를 반영하는 상기 형태학적 정보를 출력하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건이 자기장 강도와 관련되는 경우, 상기 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 제2 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제2 형태학적 값을, 제1 자기장 강도 하에서 획득된 상기 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제1 형태학적 값으로 변환하기 위한 파라미터 세트를 포함하며, 상기 타겟 의료 영상이 상기 제2 자기장 강도 하에서 획득된 경우, 상기 보정된 형태학적 값은, 상기 타겟 형태학적 값 및 상기 파라미터 세트에 기초하여 획득될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 타겟 의료 영상을 획득함; 상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득함; 상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함; 상기 타겟 스캔 조건에 기초하여, 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정함; 및 상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함하되, 상기 타겟 보정 파라미터를 결정하는 것은, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는, 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정하는 것을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 형태학적 지표를 출력하는 것은, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표와는 상이한 상기 제2 보정된 형태학적 지표를 계산함; 및 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 제1 보정된 형태학적 지표를 출력하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 제2 보정된 형태학적 지표를 출력함;을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 보정 파라미터를 결정하기 위한 기준이 되는 레퍼런스 스캔 조건을 획득함; 을 더 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하되, 상기 제1 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제3 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 제1 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제1 파라미터 세트를 포함하는 상기 제1 선형 함수에 기초하여, 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제2 파라미터 세트를 포함하는 상기 제2 선형 함수에 기초하여, 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 대상체로부터 획득되고, 상기 제1 보정 파라미터 또는 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 형태학적 값을 획득하는 것은, 상기 타겟 의료 영상을 적어도 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함; 및 상기 타겟 영역에 대응되는 복셀 데이터에 기초하여 상기 타겟 형태학적 값을 획득함을 포함하며, 상기 세그멘테이션은 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 타겟 스캔 조건 이외의 스캔 조건 하에서 촬영된 영상에 대응하는 의료 영상으로 변환함;을 더 포함하며, 상기 세그멘테이션은 상기 변환된 의료 영상에 기초하여 수행될 수 있다.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건이 자기장 강도와 관련되는 경우, 상기 제1 보정 파라미터는 제1 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제1 형태학적 값을 보정하기 위한 제1 파라미터 세트를 포함하며, 상기 제2 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제2 형태학적 값을 보정하기 위한 제2 파라미터 세트를 포함하며, 상기 타겟 보정 파라미터를 결정하는 것은, 상기 타겟 스캔 조건이 상기 제1 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 파라미터 세트로 결정하고, 상기 타겟 스캔 조건이 상기 제2 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는, 제2 파라미터 세트로 결정하는 것을 포함할 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 타겟 의료 영상을 획득하는 영상 획득부; 및 상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되, 상기 컨트롤러는, 상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득하고, 상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 스캔 조건에 기초하여 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정하고, 상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성되되, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정함으로써 상기 타겟 보정 파라미터를 결정하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표와는 상이한 상기 제2 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 제1 보정된 형태학적 지표를 출력하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 제2 보정된 형태학적 지표를 출력함으로써 상기 형태학적 지표를 출력하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하되, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제3 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하여 상기 제2 보정된 형태학적 지표를 계산하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 제1 파라미터 세트를 포함하는 상기 제1 선형 함수에 기초하여, 상기 제1 보정된 형태학적 값을 획득하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 형태학적 값 및 상기 제2 파라미터 세트를 포함하는 상기 제2 선형 함수에 기초하여, 상기 제2 보정된 형태학적 값을 획득하여 상기 제2 보정된 형태학적 지표를 계산하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 대상체로부터 획득되고, 상기 제1 보정 파라미터 및 상기 제2 보정 파라미터 중 적어도 하나를 포함하는 상기 타겟 보정 파라미터는, 상기 제1 특성을 가지는 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 의료 영상을 적어도 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득하며, 상기 타겟 영역에 대응되는 복셀 데이터에 기초하여 상기 타겟 형태학적 값을 획득하도록 구성되며, 상기 세그멘테이션은 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 타겟 스캔 조건 이외의 스캔 조건 하에서 촬영된 영상에 대응하는 의료 영상으로 변환하며, 상기 변환된 의료 영상에 기초하여 상기 세그멘테이션을 수행하도록 구성될 수 있다.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건이 자기장 강도와 관련되는 경우, 상기 제1 보정 파라미터는 제1 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제1 형태학적 값을 보정하기 위한 제1 파라미터 세트를 포함하며, 상기 제2 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제2 형태학적 값을 보정하기 위한 제2 파라미터 세트를 포함하며, 상기 컨트롤러는, 상기 타겟 스캔 조건이 상기 제1 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 파라미터 세트로 결정하고, 상기 타겟 스캔 조건이 상기 제2 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는, 제2 파라미터 세트로 결정함으로써, 상기 타겟 보정 파라미터를 결정하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터를 획득함; 제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터를 획득함; 타겟 뇌 영상을 획득함; 상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득함; 상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득함; 및 상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제3 영역에 대응되는 복셀 데이터에 기초하여 상기 내부 영역과 관련된 기준 형태학적 값을 획득함;을 더 포함하며, 상기 제1 뇌 형태학적 지표를 획득하는 것은, 상기 제1 영역에 대응되는 복셀 데이터에 기초하여 상기 제1 뇌 요소와 관련된 제1 타겟 형태학적 값을 획득함; 상기 제1 타겟 형태학적 값과 상기 제1 보정 파라미터에 기초하여 제1 뇌 요소와 관련된 제1 보정된 형태학적 값을 계산함; 및 상기 제1 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제1 뇌 형태학적 지표를 계산함;을 포함하며, 상기 제2 뇌 형태학적 지표를 획득하는 것은, 상기 제2 영역에 대응되는 복셀 데이터에 기초하여 상기 제2 뇌 요소와 관련된 제2 타겟 형태학적 값을 획득함; 상기 제2 타겟 형태학적 값과 상기 제2 보정 파라미터에 기초하여 제2 뇌 요소와 관련된 제2 보정된 형태학적 값을 계산함; 및 상기 제2 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제2 뇌 형태학적 지표를 계산함;을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 형태학적 값 및 상기 제2 형태학적 값은 제1 스캔 조건 하에서 획득된 값이며, 상기 타겟 뇌 영상은 상기 제1 스캔 조건 하에서 획득되며, 상기 제1 보정 파라미터는 상기 제1 형태학적 값에 기초하여 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 제1 뇌 요소와 관련된 제3 형태학적 값을 계산하기 위한 제1 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제2 스캔 조건 하에서 획득된 상기 제2 뇌 요소와 관련된 제4 형태학적 값을 계산하기 위한 제2 파라미터를 포함하며, 상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 제1 뇌 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 값을 계산하는 것은, 상기 제2 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 제2 뇌 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 보정 파라미터는, 상기 제1 형태학적 값에 기초하여 상기 제3 형태학적 값을 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제4 형태학적 값을 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 값을 계산하는 것은, 상기 제2 타겟 형태학적 값 및 상기 제2 선형 함수와 관련된 제2 파라미터 세트에 기초하여 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 뇌 요소에 대응되는 상기 제1 영역은, 상기 제2 뇌 요소에 대응되는 상기 제2 영역과 비교하여 상기 두개골 영역에 인접하여 위치할 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 뇌 요소는 제1 뇌 기능을 수행하는 요소와 관련되며, 상기 제2 뇌 요소는 상기 제1 뇌 기능과는 상이한 제2 뇌 기능을 수행하는 요소와 관련될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 타겟 뇌 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 제1 보정 파라미터 및 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 세그멘테이션은, 상기 타겟 뇌 영상에 기초하여 상기 제1 뇌 요소, 상기 제2 뇌 요소 및 상기 두개골을 포함하는 복수의 뇌 요소들에 대응되는 복수의 뇌 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 타겟 뇌 영상을 전처리함;을 더 포함하되, 상기 타겟 뇌 영상을 전처리하는 것은, 상기 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 상기 제2 영역에 대하여는 제1 방법과는 상이한 제2 방법의 전처리를 수행하는 것을 포함하며, 상기 세그멘테이션은 상기 전처리된 상기 타겟 뇌 영상에 기초하여 수행될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 보정된 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제1 뇌 요소와 관련된 체적값이며, 상기 제2 타겟 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제2 뇌 요소와 관련된 체적값이며, 상기 제1 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제1 보정된 형태학적 값으로 계산되며, 상기 제2 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제2 보정된 형태학적 값으로 계산될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 타겟 뇌 영상을 획득하는 영상 획득부; 및 상기 타겟 뇌 영상에 기초하여 뇌 영상 분석 정보를 제공하는 컨트롤러;를 포함하되, 상기 컨트롤러는, 제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터를 획득하고, 제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터를 획득하고, 타겟 뇌 영상을 획득하고, 상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득하고, 상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득하고, 상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제3 영역에 대응되는 복셀 데이터에 기초하여 상기 내부 영역과 관련된 기준 형태학적 값을 획득하도록 구성되며, 상기 제1 영역에 대응되는 복셀 데이터에 기초하여 상기 제1 뇌 요소와 관련된 제1 타겟 형태학적 값을 획득하고, 상기 제1 타겟 형태학적 값과 상기 제1 보정 파라미터에 기초하여 제1 뇌 요소와 관련된 제1 보정된 형태학적 값을 계산하고, 상기 제1 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제1 뇌 형태학적 지표를 계산하여 상기 제1 뇌 형태학적 지표를 획득하며, 상기 제2 영역에 대응되는 복셀 데이터에 기초하여 상기 제2 뇌 요소와 관련된 제2 타겟 형태학적 값을 획득하고, 상기 제2 타겟 형태학적 값과 상기 제2 보정 파라미터에 기초하여 제2 뇌 요소와 관련된 제2 보정된 형태학적 값을 계산하고, 상기 제2 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제2 뇌 형태학적 지표를 계산하여 상기 제2 뇌 형태학적 지표를 획득하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 형태학적 값 및 상기 제2 형태학적 값은 제1 스캔 조건 하에서 획득된 값이며, 상기 타겟 뇌 영상은 상기 제1 스캔 조건 하에서 획득되며, 상기 제1 보정 파라미터는 상기 제1 형태학적 값에 기초하여 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 제1 뇌 요소와 관련된 제3 형태학적 값을 계산하기 위한 제1 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제2 스캔 조건 하에서 획득된 상기 제2 뇌 요소와 관련된 제4 형태학적 값을 계산하기 위한 제2 파라미터를 포함하며, 상기 컨트롤러는, 상기 제1 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제2 스캔 조건 하에서의 상기 제1 뇌 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 계산하며, 상기 제2 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제2 스캔 조건 하에서의 상기 제2 뇌 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 계산하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 보정 파라미터는, 상기 제1 형태학적 값에 기초하여 상기 제3 형태학적 값을 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제4 형태학적 값을 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 컨트롤러는, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 계산하며, 상기 제2 타겟 형태학적 값 및 상기 제2 선형 함수와 관련된 제2 파라미터 세트에 기초하여 상기 제2 보정된 형태학적 값을 계산하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 뇌 요소에 대응되는 상기 제1 영역은, 상기 제2 뇌 요소에 대응되는 상기 제2 영역과 비교하여 상기 두개골 영역에 인접하여 위치할 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 뇌 요소는 제1 뇌 기능을 수행하는 요소와 관련되며, 상기 제2 뇌 요소는 상기 제1 뇌 기능과는 상이한 제2 뇌 기능을 수행하는 요소와 관련될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 뇌 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 제1 보정 파라미터 및 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 세그멘테이션은, 상기 타겟 뇌 영상에 기초하여 상기 제1 뇌 요소, 상기 제2 뇌 요소 및 상기 두개골을 포함하는 복수의 뇌 요소들에 대응되는 복수의 뇌 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 뇌 영상을 전처리하며, 상기 세그멘테이션은 상기 전처리된 상기 타겟 뇌 영상에 기초하여 수행하되, 상기 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 상기 제2 영역에 대하여는 제1 방법과는 상이한 전처리를 수행하도록 구성될 수 있다.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 보정된 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제1 뇌 요소와 관련된 체적값이며, 상기 제2 타겟 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제2 뇌 요소와 관련된 체적값이며, 상기 제1 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제1 보정된 형태학적 값으로 계산되며, 상기 제2 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제2 보정된 형태학적 값으로 계산될 수 있다.
이하에서는 본 출원의 뇌 영상 분석 장치, 뇌 영상 분석 시스템 및 뇌 영상 분석 방법에 관하여 설명한다. 여기서, 뇌 영상 분석은 뇌 영상에 대하여 세그멘테이션을 수행함으로써 복수의 뇌 영역을 획득한 후 뇌와 관련된 형태학적 지표를 계산하고 이를 사용자에게 출력함으로써 수행될 수 있다.
본 출원에서는 이러한 뇌 영상 분석의 정확도와 신뢰도를 개선하기 위하여, 뇌 영상의 퀄리티를 체크하여 뇌 영상 분석 결과에 대한 신뢰도를 개선하거나, 획득된 특정 뇌 영역의 형태학적 값 혹은 형태학적 지표를 보정하여 뇌 영상 분석 결과의 정확도를 개선하거나, 분석될 뇌 영상 자체로부터 특정 뇌 영역의 형태학적 값 혹은 형태학적 지표을 계산하여 개인 맞춤형인 분석 결과를 제공하거나, 사용자에게 선별적인 정보만을 제공하여 사용자 친화적인 레포트를 제공하는 등의 다양한 기법들을 개시한다.
이하에서는 본 출원의 일 실시예에 따른 의료 이미지 분석 방법 및 의료 이미지 분석 장치 및 의료 이미지 분석 시스템에 관하여 설명한다.
도 1은 본 출원의 일 실시예에 따른 의료 이미지 분석 시스템에 관한 개략도이다. 도 1을 참고하면, 본 출원의 일 실시예에 따른 의료 이미지 분석 시스템은 이미지 획득 장치(1000) 및 이미지 분석 장치(2000)를 포함할 수 있다.
이미지 획득 장치(1000)는 이미지를 획득하여 네트워크를 통하여 이미지 분석 장치(2000)에 송신할 수 있다.
일 예로, 이미지 획득 장치(1000)는 자기 공명 영상(MRI, Magnetic Resonance Imaging)을 획득하기 위한 장치일 수 있다. 이때, 이미지 획득 장치(1000)에 획득된 자기 공명 영상은 네트워크를 통하여 이미지 분석 장치(2000)로 전달될 수 있다.
다른 예로, 이미지 획득 장치(1000)는 컴퓨터 단층 촬영(CT, Computed Tomography) 영상을 획득하기 위한 장치일 수 있다. 이때, 이미지 획득 장치(1000)에 획득된 컴퓨터 단층 촬영 영상은 네트워크를 통하여 이미지 분석 장치(2000)로 전달될 수 있다.
또 다른 예로, 이미지 획득 장치(1000)는 방사선 촬영(Radiography)에 의하여 획득된 영상을 획득하기 위한 장치일 수 있다. 이때, 이미지 획득 장치(1000)에 획득된 방사선 촬영 영상은 네트워크를 통하여 이미지 분석 장치(2000)로 전달될 수 있다.
또 다른 예로, 이미지 획득 장치(1000)는 양전자 방사 단층 촬영법(positron emission tomography, PET)에 의하여 획득된 영상을 획득하기 위한 장치일 수 있다.
다만 상술한 이미지 획득 장치(1000)는 예시에 불과하며, 이에 제한되지 않고, 의학 촬영(medical imaging)에 활용되는 임의의 적절한 장치나 시스템을 포괄하는 의미로 해석되어야 할 것이다.
이미지 획득 장치(1000)에 의해 획득된 이미지는 2차원 형태의 이미지일 수 있다. 이때, 이미지는 픽셀의 좌표, 색상, 강도 등과 관련된 픽셀 정보를 포함할 수 있다.
이미지 획득 장치(1000)에 의해 획득된 이미지는 3차원 형태의 이미지일 수 있다. 이때, 이미지는 복셀의 좌표, 색상, 강도와 관련된 픽셀 정보를 포함할 수 있다.
이미지 획득 장치(1000)에 의해 획득된 이미지는 이미지의 정렬과 관련된 정보를 포함할 수 있다. 예를 들어, 이미지 획득 장치(1000)는 대상체(100)의 기준 좌표축의 방향(RAS)을 고려하여, 촬영된 이미지의 방향과 관련된 데이터(ijk)를 함께 획득할 수 있다. 구체적으로 이미지 획득 장치는 이미지 획득 장치의 좌표 축에 대한 정보(xyz) 및 대상체(100)의 기준 좌표 축에 대한 정보(RAS)를 고려하여 촬영된 이미지의 방향과 관련된 데이터(ijk)를 획득할 수 있다.
이미지 획득 장치(1000)는 이미지의 자기장 세기와 관련된 데이터, 이미지 장치의 제조사와 관련된 데이터, 이미지 장치의 세팅 파라미터와 관련된 데이터, 이미지의 대상체와 관련된 데이터 등을 획득할 수 있다.
자기장 세기와 관련된 데이터란 자기장을 이용하여 의료 이미지를 획득하는 경우(예, MRI)에 있어서, 대상체에 대하여 인가되는 자기장의 세기와 관련된 데이터를 포괄하는 의미일 수 있다. 예를 들어, 대상 이미지가 1.5T(Tesla)의 자기장 세기 조건 하에서 획득된 경우에는 "1.5T"에 대응되는 데이터가 자기장 세기와 관련된 데이터에 해당할 수 있다. 다만 1.5T에 제한되지 않고, 3T, 7T, 8T 등 의료 영상을 획득하기 위하여 일반적으로 사용되는 자기장 세기에 대응되는 데이터가 자기장 세기와 관련된 데이터에 해당될 수 있다.
이미지 장치의 세팅 파라미터란 의료 영상을 획득하기 위하여 이미지 장치에서 조절하거나 제어할 수 있는 파라미터를 포괄하는 의미일 수 있다. 예를 들어, 이미지 장치의 세팅 파라미터는 동일한 슬라이스에 적용된 연속 펄스 시퀀스 사이의 시간을 의미하는 반복시간(TR, Repetition Time), RF 펄스 전달과 에코 신호 수신 사이의 시간(TE, Time to Echo), 여기된 양성자가 평형 상태로 돌아가는 속도와 관련된 시간 상수(T1), 여기 된 양성자가 평형에 도달하거나 서로 위상을 벗어나는 속도와 관련된 시간 상수(T2), 양성자 밀도(PD, Proton density) 혹은 이들의 임의의 조합을 포괄하는 의미일 수 있다.
다만 상술한 예시에 제한되지 않고 자기장 특성과 관련된 임의의 파라미티를 포함하는 의미로 해석되어야 한다. 또한, 자기장을 이용하여 대상 이미지를 획득하는 것에 제한되지 않고, CT 방식 혹은 방사선(예, X-ray) 조사 방식을 이용하는 이미지 장치와 관련된 임의의 파라미터를 포함하는 의미로서 해석되어야 한다.
이때, 상술한 데이터들은 획득된 이미지 내에 메타 데이터로 처리되어 이미지 분석 장치(2000)로 송신되거나 이미지와는 별개로 이미지 분석 장치(2000)로 전달될 수 있다.
이미지 획득 장치(1000)는 MRI, CT 및 X-ray 등 의료용 이미지를 획득하는 장치일 수 있다.
이미지 획득 장치(1000)는 다양한 스캔 조건 하에서 이미지를 획득할 수 있다.
예를 들어, 이미지 장치가 MRI인 경우에는 자기장 세기가 1.5 Tesla(이하 T)인 스캔 조건 하에서 이미지가 획득될 수 있다. 또한, 자기장 세기가 3T인 스캔 조건 하에서 이미지가 획득될 수 있다. 또한, 자기장 세기가 7T 혹은 8T인 스캔 조건 하에서 이미지가 획득될 수 있다.
다른 예를 들어, 이미지 획득 장치(1000)가 MRI인 경우에는 상술한 바와 같이 이미지 획득 장치(1000)의 TR(Repetition Time), TE(Time to Echo), 양성자 밀도(PD) 혹은 여기된 양성자가 평형 상태로 돌아가는 속도와 관련된 시간 상수(T1), 여기 된 양성자가 평형에 도달하거나 서로 위상을 벗어나는 속도와 관련된 시간 상수(T2) 혹은 이들의 임의의 조합으로 구성되는 세팅 파라미터의 스캔 조건 하에서 이미지가 획득될 수 있다.
또 다른 예를 들어, 이미지 획득 장치(1000)는 CT와 관련된 장치일 수 있으며, 이때, CT 장치에 세팅될 수 있는 전압(voltage), 전류(Current), 노출 시간(Exposure time), 스캐닝 타임(Scanning time), 프로젝션(projection) 및 이들의 임의의 조합들과 관련된 세팅 파라미터의 스캔 조건 하에서 이미지가 획득될 수 있다.
또 다른 예를 들어, 이미지 획득 장치(1000)는 X-ray와 관련된 장치일 수 있으며, 이때, X-ray 이미지 장치에 세팅될 수 있는 관전압, 관전류, 촬영 시간, X선관장치와 디텍터 사이의 거리(SID), X선관 지지장치의 각도 및 이들의 임의의 조합과 관련된 세팅 파라미터의 스캔 조건 하에서 이미지가 획득될 수 있다.
또한, 방사선을 조사하는 시술자(applicator)의 성향에 따라 이미지가 상이하게 획득될 수 있다. 이때, 시술자의 성향에 대한 정보가 파라미터화될 수 있다. 또한, 시술자의 성향에 대한 파라미터는 후술할 스캔 조건을 고려하여 형태학적 값이나 형태학적 지표를 보정하는 것과 관련하여 하나의 고려 요소로 이용될 수 있다. 다시 말해, 시술자의 성향에 따라 형태학적 값이나 형태학적 지표를 보정할 수 있다. 좀 더 구체적으로 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건과 관련하여, 시술자의 식별 정보를 획득할 수 있다. 또한 이미지 분석 장치(2000)는 시술자의 식별 정보에 기초하여 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하도록 구현될 수 있다. 예컨대, 이미지 분석 장치(2000)는 제1 시술자에 의해 촬영된 제1 이미지로부터 계산된 제1 형태학적 값과 제2 시술자에 의해 촬영된 제2 이미지로부터 계산된 제2 형태학적 값 간의 상관관계에 기초하여, 제1 시술자로부터 획득된 대상 이미지로부터 계산된 형태학적 값을 제2 시술자와 관련된 형태학적 값으로 추정하기 위한 보정 파라미터(또는 제2 시술자로부터 획득된 대상 이미지로부터 계산된 형태학적 값을 제1 시술자와 관련된 형태학적 값으로 추정하기 위한 보정 파라미터)를 획득할 수 있다.
또 다른 예를 들어, 이미지 획득 장치(1000)는 양전자 방사 단층 촬영법(positron emission tomography, PET)을 사용하는 MRI 장치 또는 CT 장치일 수 있다. PET 촬영법을 이용하는 경우 방사성 의약품과 관련된 약물이 이용될 수 있다. 예컨대, 아밀로이드 베타(amyloid beta)를 측정하기 위하여는 18F-florbetapir, 18F-florbetaben, 18F-flutemetamol, 18F-Florapronol 등과 같은 약품(혹은 트레이서(tracer))이 사용될 수 있다. 타우(tau) 단백질을 측정하기 위하여는 18F-flortaucipir 등과 같은 약품(혹은 트레이서(tracer))이 사용될 수 있다. 사용되는 약물은 이미지 획득 장치의 제조사에 따라 상이하게 사용될 수 있다. 이때, 사용되는 약물에 대한 정보가 파라미터화될 수 있다. 이미지 획득 장치에 대하여 사용되는 약물에 대한 파라미터는 스캔 조건으로서 사용될 수 있으며, 후술할 스캔 조건을 고려하여 형태학적 값이나 형태학적 지표를 보정하는 것과 관련하여 하나의 고려 요소로 이용될 수 있다. 다시 말해, 이미지 획득 장치의 제조사 및 사용되는 약물에 기초하여 따라 형태학적 값이나 형태학적 지표를 보정할 수 있다. 좀 더 구체적으로 이미지 분석 장치(2000)는 이미지 획득 장치의 제조사 및 사용되는 약물의 정보를 획득할 수 있으며, 이미지 획득 장치의 제조사 및 사용되는 약물의 정보에 기초하여 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하도록 구현될 수 있다. 예컨대, 이미지 분석 장치(2000)는 제1 약물(예, 18F-florbetapir)을 사용하여 촬영된 제1 이미지로부터 계산된 제1 형태학적 값과 제2 약물(예, 18F-florbetaben)을 사용하여 촬영된 제2 이미지로부터 계산된 제2 형태학적 값 간의 상관관계에 기초하여, 제1 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제2 약물을 사용하여 획득된 형태학적 값으로 추정하기 위한 제1 보정 파라미터(또는 제2 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제1 약물을 사용하여 획득된 형태학적 값으로 추정하기 위한 보정 파라미터)를 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 제2 약물을 사용하여 촬영된 제2 이미지로부터 계산된 제2 형태학적 값과 제3 약물을 사용하여 촬영된 제3 이미지로부터 계산된 제3 형태학적 값 간의 상관관계에 기초하여, 제2 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제3 약물(예, 18F-flutemetamol)을 사용하여 획득된 형태학적 값으로 추정하기 위한 제2 보정 파라미터(또는 제3 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제2 약물을 사용하여 획득된 형태학적 값으로 추정하기 위한 보정 파라미터)를 획득할 수 있다. 이때, 제1 보정 파라미터와 제2 보정 파라미터는 상이할 수 있다.
또한, 이미지 획득 장치(1000)는 적어도 하나 이상의 세팅 파라미터를 포함하는 스캔 조건 하에서 이미지가 획득될 수 있다. 다시 말해, 상술한 세팅 파라미터들의 다양한 조합에 기초한 스캔 조건 하에서 이미지가 획득될 수 있다.
예를 들어, 세팅 파라미터가 제1 조합인 제1 스캔 조건 하에서 이미지가 획득될 수 있다. 또한 세팅 파라미터가 제2 조합이며, 자기장 세기가 제1 세기인 제2 스캔 조건 하에서 이미지가 획득될 수 있다. 이에 제한되지 않으며, 이미지 획득 장치(1000)에 의해 획득되는 이미지들은 세팅 파라미터의 다양한 조합에 따른 다양한 스캔 조건 하에서 획득된 이미지들일 수 있다.
또한, 이미지 획득 장치(1000)는 복수 개의 이미지 획득 장치(1000)로 구성될 수 있다.
이때, 복수의 이미지 획득 장치(1000)는 상이한 제조사에 의해 제조된 장치일 수 있다. 상이한 제조사에 제조된 장치에 의해 획득된 이미지들은, 스캔 조건과 세팅 파라미터가 동일하더라도 밝기, 강도 등 일부 특성이 상이할 수 있다. 따라서, 동일한 대상체에 대하여 의료 이미지를 획득하더라도 제조사 장치에 따라 의료 이미지에 기초한 형태학적 지표가 상이할 수 있다.
따라서, 후술할 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의하여 스캔 조건과 세팅 파라미터 혹은 이미지 장치의 제조사에 따른 변수를 통제하기 위한 보정 파라미터 획득 동작이 요구된다.
이미지 획득 장치(1000)에 의해 획득된 이미지는 신체의 특정 부위의 해부학적 구조와 관련된 정보를 포함할 수 있다. 또한, 신체의 특정 부위는 의학 촬영(medical imaging)이 활용될 수 있는 모든 부위에 대응될 수 있다. 설명의 편의를 위하여 후술할 도면과 명세서에서는 뇌(brain)와 관련된 이미지를 중심으로 서술하나, 이는 예시에 불과하며 본 출원에 개시된 다양한 실시예들은 뇌 이외의 임의의 적절한 신체의 부위(예를 들어, 폐, 유방, 심장, 관절, 혈관 등)에 대하여도 적용될 수 있다.
한편, 본 출원의 일 실시예에 따른 이미지 획득 장치(1000)는 서버의 형태로 구현될 수 있다. 이때, 서버는 의료 이미지 및 의료 이미지와 관련된 정보들을 저장하도록 구성될 수 있다. 또한 서버는 의료 이미지 및 의료 이미지와 관련된 정보들을 수정하거나 가공(processing)하도록 구현될 수 있다.
또한 의료 이미지들은 이미지 분석 장치(2000)의 메모리 혹은 서버에 저장되어 보정 파라미터를 계산하거나 퀄리티 컨트롤을 수행하거나 분석 결과를 출력하는 데 활용될 수 있다. 이와 관련하여는, 이하에서 자세히 후술한다.
이하에서는 도 2를 참고하여, 본 출원의 일 실시예에 따른 이미지 분석을 위한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 출력 장치(2600)를 설명한다. 도 2는 본 출원의 일 실시예에 따른 의료 이미지 분석을 위한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 출력 장치(2600)의 개략도이다.
이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지를 학습 장치(2200)에 의해 학습된 인공신경망을 이용하여 세그멘테이션하거나, 이미지 내에 포함된 타겟 요소의 형태학적 지표를 계산하는 동작을 수행할 수 있다.
학습 장치(2200)는 복수의 이미지 데이터 세트를 이용하여, 이미지의 세그멘테이션을 위한 신경망 모델 혹은 이미지의 퀄리티 컨트롤을 위한 신경망 모델 등을 학습시키는 동작을 수행할 수 있다.
보정 파라미터 획득 장치(2400)는 복수의 이미지 데이터 세트와 스캔 조건에 관한 데이터를 이용하여, 이미지 분석 장치(2000)에서 획득한 타겟 이미지(혹은 대상 이미지)의 타겟 요소와 관련된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를 계산하는 동작을 수행할 수 있다.
도 2에 도시된 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400)는 임의의 통신 방식을 이용하여 서로 데이터들을 송수신하도록 구현될 수 있다.
예를 들어, 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400)는 서버를 공유하도록 구현될 수 있다.
도 2에 도시한 바에 따르면, 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400)가 별개의 장치로 제공되는 것으로 도시하였으나, 이는 예시에 불과하며, 이미지 분석 장치(2000), 학습 장치(2200) 및/또는 보정 파라미터 획득 장치(2400)는 단일한 장치로 구현될 수도 있을 것이다. 혹은 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400) 중 일부는 별개의 장치로 제공하고 나머지 장치는 단일한 장치로 구현될 수 있다.
이하에서는 도 3을 참고하여 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 구성을 서술한다. 도 3은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 관한 블록도이다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 제1 통신 모듈(2010), 제1 메모리(2020), 제1 컨트롤러(2030)를 포함할 수 있다.
제1 통신 모듈(2010)은 이미지 획득 장치(1000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 후술할 출력 장치(2600)를 포함한 임의의 외부 기기와 통신을 수행할 수 있다. 다시 말해, 이미지 분석 장치(2000)는 제1 통신 모듈(2010)을 통해, 이미지 획득 장치(1000)로부터 이미지를 송수신하거나 학습 장치(2200), 파라미터 획득 장치(2400) 및 후술할 출력 장치(2600), 중계기 및 서버 등을 포함한 외부 기기들과 데이터의 송수신을 할 수 있다.
예를 들어, 이미지 분석 장치(2000)는, 제1 통신 모듈(2010)을 통해, 이미지 획득 장치(1000)로부터 획득된 이미지, 학습 장치(2200)로부터 학습된 신경망 모델에 관한 정보, 보정 파라미터 획득 장치(2400)로부터 계산된 보정 파라미터와 관련된 정보들을 수신할 수 있다. 또 다른 예를 들어, 이미지 분석 장치(2000)는, 제1 통신 모듈(2010)을 통해, 이미지의 스캔 조건과 관련된 정보를 보정 파라미터 획득 장치(2400)로 송신하거나 분석 결과와 관련된 정보들을 출력 장치(2600)로 송신할 수 있다. 또 다른 예로, 이미지 분석 장치(2000)는 제1 통신 모듈(2010)을 통해 인터넷에 접속하여 이미지와 관련된 각종 데이터, 스캔 조건과 관련된 정보, 분석 결과와 관련된 정보들을 업로드할 수 있다.
제1 통신 모듈(2010)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 이미지 분석 장치(2000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.
여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.
또 여기서, 무선 타입의 경우에는 주로 블루투스(Bluetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.
제1 메모리(2020)는 각종 정보를 저장할 수 있다. 제1 메모리(2020)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 제1 메모리(2020)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다.
제1 메모리(2020)는 이미지 분석 장치(2000)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다. 제1 메모리(2020)에는 이미지 분석 장치(2000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 이미지 분석 장치(2000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 이미지 분석 장치(2000)의 동작에 필요한 각종 데이터가 저장될 수 있다. 예를 들어, 제1 메모리(2020)에는 이미지와 관련된 각종 데이터, 스캔 조건과 관련된 정보, 분석 결과와 관련된 정보들이 저장될 수 있다.
제1 컨트롤러(2030)는 이미지 분석 장치(2000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제1 컨트롤러(2030)는 제1 메모리(2020)로부터 이미지 분석 장치(2000)의 동작을 위한 프로그램을 로딩하여 실행할 수 있다.
제1 컨트롤러(2030)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.
한편, 도 3을 다시 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 입력 모듈(2040)과 출력 모듈(2050)을 포함할 수 있다.
이때, 이미지 분석 장치(2000)는 입력 모듈(2040) 및 출력 모듈(2050)을 이용하여 사용자의 입력을 획득하고, 사용자의 입력에 대응되는 정보를 출력할 수 있다. 예컨대, 이미지 분석 장치(2000)는 입력 모듈(2040)을 이용하여 데이터 획득을 요청하는 사용자 입력, 전 처리를 지시하는 사용자 입력, 이미지 세그멘테이션과 관련된 사용자 입력 및 형태학적 지표의 계산과 관련된 레퍼런스 스캔 조건에 대한 사용자 입력을 획득하고, 대응되는 정보를 출력 모듈(2050)을 통하여 출력할 수 있다.
일 예로, 사용자는 입력 모듈(2040)을 통하여 이미지 분석 장치(2000)의 분석과 관련된 조건이나 설정을 입력할 수 있다.
예를 들어, 사용자는 입력 모듈(2040)을 통하여 타겟 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터와 관련된 레퍼런스 스캔 조건을 설정할 수 있다. 이때, 이미지 분석 장치(2000)는 입력 모듈(2040)로부터 수신된 레퍼런스 스캔 조건에 기초하여 형태학적 값이나 형태학적 지표의 보정을 수행할 수 있다.
입력 모듈(2040)은 마우스, 키보드, 터치 패드 등 다양한 형태로 구현될 수 있다.
출력 모듈(2050)은 이미지 분석 장치(2000)의 이미지 분석 동작 상에서 알림이나 이미지 분석 결과 등을 출력하도록 제공될 수 있다.
예를 들어, 이미지 분석 장치(2000)가 이미지의 퀄리티를 체크하는 동작을 수행하는 경우, 타겟 이미지에 아티팩트가 존재한다는 알림창이 출력 모듈(2050)을 통하여 제공될 수 있다.
다른 예를 들어, 이미지 분석 장치(2000)가 이미지의 퀄리티를 체크하는 동작을 수행하는 경우, 타겟 이미지에 심각한 아티팩트가 존재하여 이미지 분석 여부를 선택하도록 알림창이 출력 모듈(2050)을 통하여 제공될 수 있다.
또 다른 예를 들어, 이미지 분석 장치(2000)가 타겟 이미지의 세그멘테이션 동작을 수행하는 경우, 세그멘테이션의 결과가 출력 모듈(2050)을 통하여 제공될 수 있다.
또 다른 예를 들어, 이미지 분석 장치(2000)가 타겟 이미지의 분석이 완료된 경우, 타겟 이미지의 분석 결과가 출력 모듈(2050)을 통하여 제공될 수 있다.
출력 모듈(2050)은 디스플레이 등 다양한 형태로 구현될 수 있다.
또한, 이미지 분석 장치(2000)는 입력 모듈(2040)을 통하여 사용자의 입력을 획득하고 출력 모듈(2050)을 통하여 사용자의 입력에 대응되는 정보를 출력하기 위한 유저 인터페이스를 더 포함할 수 있다.
도 3에서는, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)가 입력 모듈(2040) 및 출력 모듈(2050)을 포함하는 것으로 도시하였으나, 이는 예시에 불과하며, 입력 모듈(2040) 및 출력 모듈(2050)이 생략된 이미지 분석 장치(2000)가 제공될 수 있다.
한편, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 서버의 형태로 구현될 수 있다. 이때, 서버는 이미지 획득 장치(1000)로부터 송신된 의료 이미지 및 의료 이미지와 관련된 정보들을 저장하도록 구성될 수 있다. 또한 서버는 이미지 획득 장치(1000)로부터 송신된 의료 이미지 및 의료 이미지와 관련된 정보들을 수정하거나 가공(processing)하도록 구현될 수 있다.
또한, 이미지 분석 장치(2000)의 서버는 이미지 획득 장치(1000)의 서버와 별개로 구현될 수 있으나, 이에 제한되지 않으며 이미지 획득 장치(1000)의 서버와 이미지 분석 장치(2000)의 서버는 단일한 형태로 구현될 수 있다. 다시 말해, 이미지 획득 장치(1000)와 이미지 분석 장치(2000)은 공통의 서버를 가지는 형태로 구현될 수 있다.
한편, 다시 도 2를 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 출력 장치(2600)와 통신을 수행하도록 구현될 수 있다.
본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)의 분석 결과를 수신하여, 사용자에게 이미지 분석 결과를 시각적인 형태로 출력하도록 구현될 수 있다.
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 이미지의 퀄리티와 관련된 정보를 수신 받아 사용자에게 출력하도록 구현될 수 있다. 예를 들어, 출력 장치(2600)는 이미지의 퀄리티와 관련된 지표나 이미지의 퀄리티와 관련된 이미지 분석 결과의 신뢰도와 관련된 코멘트를 출력하도록 구현될 수 있다.
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 형태학적 지표와 관련된 분석 결과를 수신 받아 사용자에게 출력하도록 구현될 수 있다.
예를 들어, 출력 장치(2600)는 대상체의 형태학적 지표와 관련된 분석 결과를 비교 대상체 집단의 통계 자료와 비교 분석한 결과를 사용자에게 출력하도록 구현될 수 있다. 이때, 비교 대상체 집단의 통계 자료와 비교 분석한 결과는 임의의 적절한 그래프와 같은 형태의 통계적인 정보로 가공되어 출력될 수 있다. 또한, 출력 장치(2600)는 대상체의 복수의 부위의 형태학적 지표와 관련된 분석 결과들을 함께 제공하도록 구현될 수 있다.
다른 예를 들어, 출력 장치(2600)는 대상체의 형태학적 지표와 관련된 분석 결과를 출력하면서, 형태학적 지표와 관련된 신체 부위가 어디에 해당하는 지와 관련된 정보를 시각적인 형태로 출력하도록 제공될 수 있을 것이다.
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 이미지의 세그멘테이션 결과를 수신 받아 사용자에게 출력되도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)의 세그멘테이션 결과는 이미지 내의 라벨링된 결과일 수 있다. 이때, 이미지 분석 장치(2000) 혹은 출력 장치(2600)는 라벨링된 결과에 기초하여 신체의 해부학적 구조에 따라 시각적으로 이미지를 가공할 수 있으며, 출력 장치(2600)는 신체의 해부학적 구조를 시각적으로 구분한 이미지를 사용자에게 출력하도록 구현될 수 있다.
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 레포트를 수신 받아 사용자에게 출력되도록 구현될 수 있다.
이하에서는 도 4를 참고하여 본 출원의 일 실시예에 따른 출력 장치(2600)의 구성과 동작에 대하여 서술한다. 도 4는 본 출원의 일 실시예에 따른 출력 장치의 블록도이다.
본 출원의 일 실시예에 따른 출력 장치(2600)는 제2 통신 모듈(2610), 제2 메모리(2620), 제2 컨트롤러(2630)를 포함할 수 있다.
제2 통신 모듈(2610)은 이미지 획득 장치(1000), 이미지 분석 장치(2000)를 포함한 임의의 외부 기기와 통신을 수행할 수 있다. 다시 말해, 출력 장치(2600)는 제2 통신 모듈(2610)을 통해, 이미지 획득 장치(1000)로부터 이미지들을 송수신하거나 이미지 분석 장치(2000)로부터 이미지 분석 결과를 송수신할 수 있다. 또한 출력 장치(2600)는 제2 통신 모듈(2610)을 통해, 중계기 등을 포함한 임의의 외부 기기들과 데이터의 송수신을 할 수 있다.
예를 들어, 출력 장치(2600)는, 제2 통신 모듈(2610)을 통해, 이미지 획득 장치(1000)로부터 획득된 이미지들, 이미지 분석 장치(2000)로부터 획득된 이미지의 퀄리티와 관련된 분석 결과의 신뢰도에 관련된 데이터, 이미지의 세그멘테이션 결과에 대한 데이터, 형태학적 지표와 같은 데이터 등을 수신할 수 있다. 또 다른 예를 들어, 출력 장치(2600)는, 제2 통신 모듈(2610)을 통해, 후술할 입력 모듈(2640)로부터 수신된 사용자의 입력과 관련된 데이터를 이미지 분석 장치(2000)로 송신하거나 출력 장치(2600) 상에서 가공된 데이터들을 이미지 분석 장치(2000)로 송신할 수 있다. 또 다른 예로, 출력 장치(2600)는 제2 통신 모듈(2610)을 통해 인터넷에 접속하여 사용자의 입력과 관련된 데이터, 출력 장치(2600) 상에서 가공된 데이터들을 업로드할 수 있다.
제2 통신 모듈(2610)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 이미지 분석 장치(2000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.
여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.
또 여기서, 무선 타입의 경우에는 주로 블루투스(RPuetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.
제2 메모리(2620)는 각종 정보를 저장할 수 있다. 제2 메모리(2620)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 제2 메모리(2620)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다.
제2 메모리(2620)는 출력 장치(2600)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다. 제2 메모리(2620)에는 출력 장치(2600)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 출력 장치(2600)의 각 구성을 동작시키기 위한 프로그램을 비롯해 출력 장치(2600)의 동작에 필요한 각종 데이터가 저장될 수 있다. 예를 들어, 제2 메모리(2620)에는 이미지와 관련된 각종 데이터, 분석 결과와 관련된 정보 및 사용자의 입력 데이터들이 저장될 수 있다.
제2 컨트롤러(2630)는 출력 장치(2600)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제2 컨트롤러(2630)는 제2 메모리(2620)로부터 출력 장치(2600)의 동작을 위한 프로그램을 로딩하여 실행할 수 있다.
제2 컨트롤러(2630)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.
한편, 도 4를 다시 참고하면, 본 출원의 일 실시예에 따른 출력 장치(2600)는 입력 모듈(2640) 및 출력 모듈(2650)을 포함할 수 있다.
이때, 출력 장치(2600)는 입력 모듈(2640) 및 출력 모듈(2650)을 이용하여 사용자의 입력을 획득하고, 사용자의 입력에 대응되는 정보를 출력할 수 있다.
예컨대, 출력 장치(2600)는 입력 모듈(2640)을 이용하여 데이터 획득을 요청하는 사용자 입력, 전 처리를 지시하는 사용자 입력, 이미지 세그멘테이션과 관련된 사용자 입력 및 형태학적 지표의 계산과 관련된 레퍼런스 스캔 조건과 관련된 사용자 입력을 획득하고, 대응되는 정보를 출력 모듈(2650)을 통하여 출력할 수 있다.
이때, 출력 장치(2600)는 입력 모듈(2640)을 통하여 사용자의 입력을 획득하고 출력 모듈(2650)을 통하여 사용자의 입력에 대응되는 정보를 출력하기 위한 유저 인터페이스를 더 포함할 수 있다.
일 실시예로, 사용자는 입력 모듈(2640)을 통하여 출력 장치(2600)의 출력과 관련된 조건이나 설정을 입력하거나 출력된 복수의 데이터 중 일부를 선택할 수 있다.
일 예로, 사용자는 입력 모듈(2640)을 통하여 타겟 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터와 관련된 레퍼런스 스캔 조건을 설정할 수 있다. 이때, 출력 장치(2600)는 입력 모듈(2640)로부터 수신된 레퍼런스 스캔 조건(예, 자기장 강도, 제조사, 이미지 장치의 세팅 파라미터 등)에 기초하여 보정된 형태학적 값이나 보정된 형태학적 지표에 대응되는 분석 결과를 출력하도록 구현될 수 있다.
예를 들어, 사용자가 자기장 강도를 변화시켜 변화된 자기장 강도에 따른 이미지 분석 결과를 제공받고자 한다면, 자기장 강도에 대한 스캔 조건을 입력 모듈(2640)을 통하여 입력할 수 있다. 이때, 출력 장치(2600)는 사용자에 의해 입력된 자기장 강도에 대한 스캔 조건에 기초하여 보정된 이미지 분석 결과를 출력하도록 구현될 수 있다. 이때, 출력 장치(2600)는 사용자에 의해 입력된 자기장 강도에 대한 스캔 조건과 관련된 입력 데이터를 이미지 분석 장치(2000)로 송신할 수 있으며, 이미지 분석 장치(2000)는 수신된 사용자의 입력에 기초하여 획득한 보정 파라미터에 기초하여 이미지 분석 결과를 수정하여 출력 장치(2600)로 전달할 수 있다. 물론, 출력 장치(2600)가 이미지 분석 장치(2000)로부터 보정 파라미터를 수신 받아 이미지 분석 결과를 수정하여 출력하도록 구현될 수 있다.
이와 관련하여는, 도 66 및 도 67과 관련하여 보다 구체적으로 후술한다.
다만 상술한 내용은 예시에 불과하며, 이에 제한되지 않고 사용자가 제공받고자 하는 임의의 형태의 정보를 출력하기 위하여 출력 장치(2600)가 입력 모듈(2640)을 통하여 사용자의 입력을 수신하도록 구현될 수 있다.
입력 모듈(2640)은 마우스, 키보드, 터치 패드 등 다양한 형태로 구현될 수 있다.
출력 모듈(2650)은 이미지 분석 장치(2000)로부터 수신된 이미지 분석 결과 등을 출력하도록 제공될 수 있다.
예를 들어, 출력 장치(2600)는, 출력 모듈(2650)을 통하여, 이미지 분석 장치(2000)로부터 수신한 타겟 이미지에 아티팩트가 존재하는지 여부, 그로 인한 분석 결과의 신뢰도에 대한 정보를 텍스트나 임의의 적절한 시각적인 형태로 출력할 수 있다.
다른 예를 들어, 출력 장치(2600)는, 출력 모듈(2650)을 통하여, 이미지 분석 장치(2000)로부터 수신한 타겟 이미지의 세그멘테이션의 결과를 출력할 수 있다. 이때, 세그멘테이션 결과는 시각적인 그래픽 형태로 신체의 해부학적 구조를 나누어 출력하도록 구현될 수 있다.
또 다른 예를 들어, 출력 장치(2600)는, 출력 모듈(2650)을 통하여, 이미지 분석 장치(2000)로부터 수신한 타겟 이미지의 분석 결과를 출력할 수 있다. 이때, 타겟 이미지의 분석 결과는 레포트의 형식으로 출력될 수 있다. 또한, 타겟 이미지의 분석 결과에 포함된 해부학적 구조의 형태학적 값이나 형태학적 지표가 그래프와 같은 통계적인 기법을 이용하여 출력되도록 구현될 수 있다. 또한, 타겟 이미지의 분석 결과에 포함된 해부학적 구조의 형태학적 값이나 형태학적 지표들은 비교 대상체 집단의 통계 자료와 비교하여 그래프와 같은 통계적인 기법을 이용하여 출력되도록 구현될 수 있다.
출력 모듈(2650)은 디스플레이 등 다양한 형태로 구현될 수 있다.
상술한 바에 따르면, 이미지 분석 장치(2000)와 출력 장치(2600)는 분리된 장치로 설명하였다. 다만, 이는 예시에 불과하며 이미지 분석 장치(2000)와 출력 장치(2600)는 단일한 장치로 구현될 수 있다.
이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 전달된 의료 이미지를 수신하여, 의료 이미지의 정렬, 의료 이미지의 밝기 혹은 강도(intensity) 등의 정규화, 노이즈 제거 등의 전 처리(pre-processing)를 수행할 수 있다.
또한, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 전달된 의료 이미지를 수신하여, 의료 이미지의 세그멘테이션을 수행할 수 있다. 이때, 본 출원의 일 실시예에 따른 의료 이미지의 세그멘테이션은 학습된 신경망 모델을 이용하여 수행될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 의료 이미지의 퀄리티를 컨트롤하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 의료 이미지 분석 결과에 대한 신뢰도를 높일 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체로부터 획득된 의료 이미지에 기초하여 형태학적 지표를 계산하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 대상체의 신체의 해부학적 구조와 관련되어 정확한 형태학적 지표가 계산될 수 있다. 이를 통하여 대상체의 질환에 대한 정확하고 객관적인 지표를 제공할 수 있다는 유리한 효과가 존재한다. 특히, 대상체와 관련된 뇌 이미지를 표준 뇌 모델에 정합하지 않고 이미지 세그멘테이션하여 형태학적 지표를 계산할 수 있기 때문에 개인화된 뇌 질환과 관련된 진단 보조 지표를 제공할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 의료 이미지가 획득된 스캔 조건 혹은 신체 부위를 고려하여, 형태학적 값이나 형태학적 지표를 보정하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 대상체의 신체의 해부학적 구조와 관련되어 정확한 형태학적 지표가 계산될 수 있다. 다시 말해, 스캔 조건이나 신체 부위에 따라 계산된 형태학적 값에 약간의 오차가 존재할 수 있는데, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 스캔 조건이나 신체 부위를 고려하여 1차적으로 계산된 형태학적 값이나 형태학적 지표를 보정할 수 있다. 이를 통하여, 대상체의 질환에 대한 정확하고 객관적인 지표를 제공할 수 있다는 유리한 효과가 존재한다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 다양한 이미지 분석 결과에 대하여 대상체의 상태 혹은 진단 분야에 따라 우선 순위를 부여하여 우선 순위에 기초하여 선별된 이미지 분석 결과들을 출력하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 대상 의료 이미지의 분석을 통해 획득되는 다양한 지표 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공하여 사용자 편의를 증진시킬 수 있다.
이하에서는 이미지 분석 장치(2000)의 일 실시예에 의해 수행되는 몇몇 동작들에 대해서 보다 구체적으로 설명한다.
이하에서는 설명의 편의를 위하여 뇌(brain)와 관련된 이미지를 분석하는 실시예를 중심으로 서술한다. 다만, 뇌에 제한되지 않으며 본 출원에 개시된 다양한 실시예들은 뇌 이외의 임의의 적절한 신체의 부위에 대한 의료 이미지에 대하여도 적용될 수 있다.
또한, 이하에서는 의료 이미지, 뇌 이미지, 대상 이미지(혹은 타겟 이미지) 등을 혼용하여 사용하나, 이는 설명의 편의를 위한 것일 뿐이며, 의료 이미지, 뇌 이미지, 대상 이미지(혹은 타겟 이미지)는 모두 이미지 분석 장치(2000, 3000, 4000)에 의해 분석될 이미지를 지칭하는 것으로 해석되어야 한다.
또한, 이하에서의 내용은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000, 3000, 4000)에 의해 수행될 수 있다. 이미지 분석 장치를 지칭하는 도면 부호는 설명의 편의상 단순히 이미지 분석 장치의 동작들을 구별하여 설명하기 위하여 구분한 것에 불과하며, 도면 부호에 의하여 이미지 분석 장치가 제한되지 않는다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌 이미지 및 뇌 이미지와 관련된 정보를 획득할 수 있다.
구체적으로 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 뇌 이미지를 획득할 수 있다. 또한 이미지 분석 장치(2000)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치(예, 서버)로부터 뇌 이미지와 관련된 정보를 획득할 수 있다.
좀 더 구체적으로 이미지 분석 장치(2000)는 제1 통신 모듈(2010)을 통하여 이미지 획득 장치(1000)로부터 뇌 이미지와 뇌 이미지와 관련된 데이터들을 획득할 수 있다.
이때, 뇌 이미지의 형식은 다양한 의료 이미지의 형식일 수 있다. 예를 들어, 뇌 이미지는 DICOM, Nifti(Neuroimaging Ingormatics Technology Initiative), 혹은 임의의 적절한 포맷일 수 있다.
뇌 이미지와 관련된 데이터들은 뇌 이미지에 포함된 데이터들, 뇌 이미지가 획득된 스캔 조건과 관련된 데이터, 뇌 이미지의 대상체에 대한 데이터들을 포괄하는 의미일 수 있다.
이때, 뇌 이미지에 포함된 데이터들은 뇌 이미지 내에 포함된 픽셀 혹은 복셀과 관련된 데이터, 뇌 이미지의 방향(orientation)과 관련된 데이터 및 뇌 이미지에 대하여 구조화된 임의의 메타 데이터(metadata)일 수 있다.
특히, 후술할 뇌 이미지가 획득된 스캔 조건과 관련된 데이터 혹은 뇌 이미지의 대상체에 대한 데이터들이 메타데이터로서 뇌 이미지에 대하여 구조화될 수 있다.
한편, 뇌 이미지가 획득된 스캔 조건과 관련된 데이터들은 뇌 이미지가 획득된 이미지 획득 장치(1000)의 자기장 세기, 이미지 획득 장치(1000)의 이미지 장치의 세팅 파라미터 혹은 이미지 장치의 제조사와 관련된 데이터들일 수 있다.
스캔 조건에 따라 뇌 이미지로부터 획득된 형태학적 수치들이 영향을 받을 수 있기 때문에, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건과 관련된 데이터를 획득하여 형태학적 수치들에 대한 보정을 수행할 수 있다. 이와 관련하여는 도 58 내지 도 67과 관련하여 자세히 후술한다.
뇌 이미지의 대상체에 대한 데이터들은, 이미지 분석 장치(2000)에 의해 분석될 타겟 이미지의 대상체의 관한 인적 정보들이나 의료 정보들일 수 있다. 예를 들어, 뇌 이미지의 대상체에 대한 데이터들은 대상체의 성별, 나이 등과 관련된 인적 정보들 및 뇌질환 (예, 치매, 알츠하이머 병, 우울증, 뇌졸증 등)과 관련된 설문조사 정보 혹은 기저 질환과 관련된 정보 등과 관련된 각종 의료 정보들을 포함할 수 있다.
특히, 성별과 나이는 뇌질환에 있어 중요한 변수들이기 때문에, 대상체의 성별과 나이와 관련된 데이터들은 이미지 분석 장치(2000)가 보정 파라미터를 결정하거나 획득하는 데 기초가 될 수 있다. 예를 들어, 분석할 대상 이미지가 성별 및 나이와 관련된 제1 특성을 가지는 제1 대상체로부터 획득되었을 경우, 이미지 분석 장치(2000)는 대상 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를, 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득된 보정 파라미터로 결정할 수 있다. 예컨대, 이미지 분석 장치(2000)는 대상 이미지의 제1 대상체와 유사한 나이 및 동일한 성별을 가지는 제2 대상체로부터 획득된 보정 파라미터를 대상 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터로 결정할 수 있다.
또는, 대상체의 성별과 나이와 관련된 데이터들은 성별과 나이에 따른 대상체의 형태학적 지표의 상대적인 백분위를 통계학적인 기법을 활용하여 출력하는데 고려될 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌 이미지 분석과 관련된 동작과 관련된 정보들을 획득할 수 있다.
구체적으로 이미지 분석 장치(2000)는, 뇌 이미지를 전 처리하거나 정렬하기 위한 뇌와 관련된 템플릿(Template)과 관련된 정보들을 임의의 외부 장치로부터 획득할 수 있다. 이와 관련하여는, 도 5, 도 6 및 도 48과 관련하여 자세히 후술한다.
또한, 이미지 분석 장치(2000)는, 임의의 외부 장치로부터 뇌 이미지를 세그멘테이션하기 위한 기준이 되는 뇌 아틀라스와 관련된 정보들을 획득할 수 있다.
일 예로, 뇌 아틀라스와 관련된 정보들은 뇌의 구조와 관련된 아틀라스와 관련된 정보일 수 있다. 예를 들어, 뇌의 구조와 관련된 아틀라스는 Automated Anatomical Labeling (Tzourio-Mazoyer 2002), Desikan-Killiany Atlas (Desikan 2006), Destrieux Atlas (Destrieux 2010), Harvard-Oxford cortical/subcortical atlases (Makris 2006), MICCAI 2012 Multi-Atlas Labeling Workshop and Challenge (Neuromorphometrics), Hammersmith atlas (Hammers 2003, Gousias 2008, Faillenot 2017), HCP MMP 1.0 (Glasser 2016), JuBrain/Juelich histological atlas (Eickhoff 2005) 혹은 MarsAtlas (Auzias 2016)일 수 있다.
다른 예로, 뇌 아틀라스와 관련된 정보들은 뇌의 기능과 관련된 아틀라스와 관련된 정보일 수 있다. 예를 들어, 뇌의 기능과 관련된 아틀라스는 Mindboggle 101 (Klein 2012), Cortical Area Parcellation from Resting-State Correlations (Gordon 2016), Consensual Atlas of REsting-state Network (CAREN, Doucet 2019), Brainnetome Atlas parcellation (Fan 2016), Local-Global Parcellation of the Human Cerebral Cortex (Schaefer 2018), Human Motor Area Template (Mayka 2005), Sensorimotor Area Tract Template (Archer 2017), AICHA: An atlas of intrinsic connectivity of homotopic areas (Joliot 2015), Yeo 2011 functional parcellations (Yeo 2011), PrAGMATiC (Huth 2016), fMRI-based random parcellations (Craddock 2011), Voxelwise parcellations (Lead-DBS), SUIT Cerebellar parcellation (Diedrichsen 2006) 혹은 Buckner functional cerebellar parcellation (Buckner 2011)일 수 있다.
이미지 분석 장치(2000)는 상술한 뇌와 관련된 뇌 아틀라스에 대한 정보를 학습 장치(2200)로 송신할 수 있으며, 학습 장치(2200)는 뇌 아틀라스에 대한 정보를 기초로, 뇌 이미지의 세그멘테이션을 위한 신경망 모델을 학습하도록 구현될 수 있다.
다만, 상술한 뇌의 구조와 관련된 아틀라스 혹은 뇌의 기능과 관련된 아틀라스에 대한 정보는 예시일 뿐이며, 이미지 분석 장치(2000)는 임의의 적절한 뇌와 관련된 아틀라스 정보를 획득하여 학습 장치(2200)의 이미지 세그멘테이션을 위한 인공 신경망 모델을 학습시키는 데 기초가 되도록 구현될 수 있다.
이미지 분석 장치(2000)는, 이미지 분석 장치(2000)의 입력 모듈(2040) 혹은 출력 장치(2600)의 입력 모듈(2640)로부터 사용자의 입력을 수신할 수 있다.
이미지 분석 장치(2000)는, 진단 대상 질병과 관련된 사용자 입력을 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 대상 이미지와 관련된 진단 대상 질병에 대응되는 뇌 질환(예, 치매, 우울증, 뇌졸증 등)과 관련된 사용자 입력을 획득할 수 있다.
이미지 분석 장치(2000)는 환자와 관련된 사용자 입력을 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 대상 이미지와 관련된 환자의 성별, 나이, 이름 등과 관련된 사용자의 입력을 획득할 수 있다.
이미지 분석 장치(2000)는, 이미지 분석과 관련된 사용자 입력을 획득할 수 있다.
일 예로, 이미지 분석 장치(2000)는, 이미지의 전처리와 관련된 사용자 입력을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 대상 이미지의 인텐시티를 보정하거나 노이즈를 제거하는 등 이미지를 처리(processing)하는 것과 관련된 사용자 입력을 획득할 수 있다.
일 예로, 이미지 분석 장치(2000)는, 세그멘테이션과 관련된 사용자 입력을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는, 세그멘테이션에 고려되는 뇌 아틀라스, 신경망 모델로부터 출력되는 라벨링 데이터를 수정하기 위한 사용자 입력을 획득할 수 있다.
일 예로, 이미지 분석 장치(2000)는 대상 이미지가 촬영된 스캔 조건에 대한 사용자 입력을 입력 모듈을 통하여 수신할 수 있다. 대상 이미지가 촬영된 스캔 조건에 대한 정보는 대상 이미지의 메타 데이터로 포함되어 획득될 수 있으나, 사용자 입력으로도 획득될 수 있다.
일 예로, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 계산된 뇌와 관련된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터의 기준과 관련된 레퍼런스 스캔 조건에 대한 사용자 입력을 입력 모듈을 통하여 수신할 수 있다. 이때, 이미지 분석 장치(2000)는 레퍼런스 스캔 조건 등에 대한 사용자 입력에 기초하여 보정 파라미터를 획득하고 뇌와 관련된 형태학적 값이나 형태학적 지표를 보정할 수 있다. 이와 관련하여는, 도 66 및 도 67과 관련하여 자세히 후술한다.
다른 예를 들어, 이미지 분석 장치(2000)는 이미지 분석 결과를 출력하는 경우, 출력하는 결과들 중 일부를 선택하거나 우선 순위를 부여하기 위한 사용자 입력을 입력 모듈을 통하여 수신할 수 있다. 이때, 이미지 분석 장치(2000)는 사용자 입력에 기초하여 출력될 분석 결과의 정보를 선별적으로 출력하거나 사용자의 우선 순위를 반영한 분석 결과를 출력하도록 구현될 수 있다. 이와 관련하여는, 도 68 내지 도 81에서 자세히 후술한다.
이미지 분석 장치(2000)가 획득된 데이터들은 이미지 분석 장치(2000)의 제1 메모리(2020) 혹은 이미지 분석 장치(2000)의 임의의 외부 장치(예, 서버)에 저장될 수 있다. 또한 이미지 분석 장치(2000)가 획득된 데이터들은 학습 장치(2200) 혹은 보정 파라미터 획득 장치(2400)에 송신될 수 있다. 또는 이미지 분석 장치(2000)가 획득된 데이터들은 출력 장치(2600)에 송신되거나 임의의 외부 장치(예, 서버)에 송신될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지의 전 처리를 수행할 수 있다. 이미지 분석 장치(2000)는 이미지 분석 정확도를 향상시키기 위한 전처리를 수행할 수 있다. 이미지 분석 장치(2000)는 이미지를 세그멘테이션의 동작을 수행하기 전에, 보다 정확한 세그멘테이션 결과를 도출하기 위한 이미지의 전 처리를 수행하도록 제공될 수 있다.
일 예로 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 형식의 변환을 수행하도록 제공될 수 있다. 구체적으로 분석할 이미지들의 형식을 통일함으로써 신경망 모델을 보다 안정적이고 정확하게 학습시킬 수 있다. 좀 더 구체적으로 신경망 모델의 학습에 이용된 이미지와 동일한 형식을 가지는 이미지를 이용하여 이미지 분석을 수행하는 것이 보다 안정적이고 정확할 수 있다. 따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 형식의 변환을 수행하도록 제공될 수 있다.
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 제1 형식의 이미지를 제2 형식인 이미지로 변환하는 동작을 수행할 수 있다. 예를 들어, 이미지 획득 장치(1000)로부터 획득된 이미지의 형식은 의료 이미지에서 일반적으로 사용하는 DICOM 형식일 수 있다. 이때, DICOM 형식의 이미지를 기초로 이미지의 세그멘테이션이나 형태학적 지표를 계산할 수도 있다.
다만, 뇌 이미지를 분석하는 데 있어, 뇌 영상분석계통에서는 Nifti 형식의 뇌 이미지를 이용하여 이미지를 분석하거나 인공신경망을 학습시키는 것이 상대적으로 용이할 수 있다. 따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 형식을 Nifti 형식으로 변환하는 동작을 수행하도록 제공될 수 있다.
다만, 상술한 형식은 예시에 불과하며 이미지 분석 장치(2000)는 필요에 따라 Nifti 형식 이외의 임의의 적절한 형식으로의 변환 동작을 수행하도록 제공될 수 있을 것이다. 또한, 이미지 획득 장치(1000)로부터 획득된 이미지의 형식이 DICOM 형식 이외의 임의의 형식의 의료 이미지일 수 있으며 이 경우에도 이미지 분석 장치(2000)는 임의의 적절한 형식으로의 변환 동작을 수행하도록 제공될 수 있을 것이다.
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지에 존재할 수 있는 노이즈(noise)를 제거하거나 아티팩트(artifact)의 보정을 수행하도록 제공될 수 있다. 예를 들어, 노이즈를 제거하기 위하여 블러링 기법 및 미디안 필터(Median filter)를 이용한 기법이 이용될 수 있다. 이미지 분석 장치(2000)는 노이즈를 제거하고, 아티팩트의 보정을 수행함으로써, 보다 정확한 이미지의 세그멘테이션 결과를 도출할 수 있으며, 정확도가 개선된 세그멘테이션 결과에 기초하여 형태학적 지표를 계산할 수 있기 때문에 높은 신뢰도로 뇌와 관련된 질환에 대하여 객관적인 진단 보조 지표를 제공할 수 있다.
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 인텐시티(intensity)를 보정하는 동작을 수행하도록 제공될 수 있다. 인텐시티(intensity)를 적절하게 보정함으로써, 이미지에 존재할 수 있는 노이즈(noise)를 제거할 수 있으며, 분석하고자 하는 뇌의 해부학 구조에 특화된 이미지를 획득할 수 있다.
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지를 스무딩 처리하는 동작을 수행하도록 제공될 수 있다. 예를 들어, 이미지를 스무딩 처리하는 방법으로서 블러링(RPurring), 가우시안 필터(Gaussian filter)를 이용한 기법이 이용될 수 있다.
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 비율을 조절하거나 이미지를 자르는 동작을 수행하도록 제공될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 이미지를 자르기 위하여 임의의 적절한 크롭(crop) 기법을 활용하도록 구현될 수 있다. 혹은 이미지 분석 장치(2000)는 이미지의 비율을 조절하기 위하여 온디맨드 이미지 리사이징(Ondemand image resizing) 람다 이미지 리사이징(Lambda image resizing), CILanczosScaleTransform 필터를 이용한 리사이징 방법, CIFilter를 이용한 리사이징 방법 등 임의의 적절한 이미지 리사이징 기법을 활용하도록 구현될 수 있다.
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지를 이미지가 촬영된 스캔 조건과 상이한 스캔 조건 하에서 촬영된 이미지로 변환하는 동작을 수행할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 MRI 장치의 제1 스캔 조건 하에서 촬영된 이미지를 MRI 장치의 제2 스캔 조건 하에서 촬영된 것과 같은 추정 이미지로 변환하는 동작을 수행하도록 제공될 수 있다. 이러한 이미지 변환 동작은 MR 컨버팅 기술 혹은 인공 지능 모델을 이용하여 수행될 수 있을 것이다. 다만, 이에 제한되지 않으며, 이미지 분석 장치(2000)는 임의의 적절한 소프트웨어 혹은 이미지 프로세싱 기술을 이용하여 스캔 조건을 고려하여 이미지의 변환을 수행하도록 제공될 수 있을 것이다.
일 예로, 이미지 분석 장치(2000)는 후술할 학습 장치(2200)에서의 이미지에 대한 전처리 동작에 대응하는 전처리 동작을 수행하도록 구현될 수 있다. 예를 들어, 학습 장치(2200)에서 이미지를 제1 전처리 기법을 사용하여 신경망 모델을 학습시킨 경우에는, 이미지 분석 장치(2000)는 제1 전처리 기법에 대응하는 전 처리 기법으로 대상 이미지를 전처리하도록 구현될 수 있다. 이를 통하여 신경망 모델을 이용하는 이미지 세그멘테이션이 보다 안정적으로 정확하게 구현될 수 있다.
이하에서는 도 5 내지 도 6을 참고하여 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 이미지 정렬 관련 동작에 대하여 서술한다.
도 5는 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다.
도 6은 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다.
이미지 분석 장치(2000)는 뇌 이미지에 포함된 뇌 이미지의 방향(orientation)과 관련된 데이터에 기초하여, 뇌 이미지를 정렬시키는 동작을 수행하도록 구현될 수 있다.
일 예로, 이미지 분석 장치(2000)는 이미지의 세그멘테이션 동작을 수행하기 전에 뇌 이미지를 정렬시키는 동작을 수행하도록 구현될 수 있다.
예를 들어, 도 5를 참고하면 이미지 획득 장치(1000)는 대상체(100)의 기준 좌표축의 방향(R-A-S)을 고려하여, 촬영된 이미지의 방향과 관련된 데이터(i,j,k)를 함께 획득할 수 있다. 구체적으로 이미지 획득 장치(1000)는 이미지 획득 장치(1000)의 좌표 축에 대한 정보(x,y,z) 및 대상체(100)의 기준 좌표 축에 대한 정보(R-A-S)를 고려하여 촬영된 이미지의 방향과 관련된 데이터(i,j,k)를 획득할 수 있다.
이미지의 방향과 관련된 데이터는 이미지에 대하여 메타 데이터로 구조화될 수 있다. 혹은 이미지와는 별도로 이미지 분석 장치(2000)로 전달될 수 있다.
이미지 분석 장치(2000)는 이미지 방향과 관련된 데이터(i-j-k)를 기초로 하여, 대상체(100)의 RAS 방향(Right-Anterior-Superior 방향)에 대응되도록 이미지를 정렬하도록 구현될 수 있다.
상술한 이미지 분석 장치(2000)의 이미지 정렬 동작에 의하면, 세그멘테이션 동작을 수행하기 전에, 세그멘테이션의 기초가 되는 뇌 이미지들을 공통된 방향으로 정렬시킬 수 있기 때문에 부정확한 세그멘테이션 결과를 미연에 방지하고, 신경망의 세그멘테이션 동작의 안정성을 확보할 수 있다.
이미지 분석 장치(2000)는 뇌 이미지의 공간 정규화를 수행하도록 구현될 수 있다.
구체적으로 뇌 이미지의 세그멘테이션 등을 위한 인공 신경망 모델은 "학습 데이터"로 이용된 학습 이미지의 공간적 분포에 대응되는 뇌 이미지에 대하여 안정적으로 구동될 수 있다. 다시 말해, 뇌 이미지가 학습 이미지의 공간적 분포와 상이한 경우, 학습된 인공 신경망이 안정적으로 구동되지 않을 가능성이 존재한다.
따라서, 이미지 분석 장치(2000)는 뇌 이미지의 공간적 불확실성을 줄이기 위하여 뇌 이미지의 공간 정규화를 수행하도록 구현될 수 있다.
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌 템플렛에 기초하여 뇌 이미지의 공간 정규화를 수행하도록 구현될 수 있다. 구체적으로 이미지 분석 장치(2000)는 뇌 이미지를 뇌 템플렛에 정합함으로써 뇌 이미지의 공간적 분포를 인공 신경망 모델에 대하여 최적의 상태가 되도록 뇌 이미지의 좌표를 변환할 수 있다.
예를 들어, 뇌 이미지를 정합시키기 위한 뇌 템플릿은 MNI 템플렛, Talairach 템플릿 등일 수 있다.
상술한 바에 따르면, 이미지 분석 장치(2000)가 뇌 이미지를 뇌 템플렛에 정합시키는 동작을 수행한다고 서술하였다. 이때, "정합"이란 뇌 이미지의 뇌의 내부 요소들을 뇌 템플렛의 뇌의 내부 요소에 대응하는 동작이 아니라 단순히 뇌 이미지의 위치적인 공간을 정합하는 의미일 수 있다.
상술한 이미지 분석 장치(2000)의 공간 정규화 동작에 의하면, 이미지에 대한 공간적 불확실성을 제거할 수 있어 신경망을 이용한 세그멘테이션 동작의 안정성을 확보할 있으며, 정확도가 향상된 세그멘테이션 결과를 획득할 수 있다.
또한, 뇌 이미지가 뇌 템플렛에 대하여 정합됨으로써 변환된 좌표와 관련된 데이터가 생성될 수 있다. 변환된 좌표와 관련된 데이터는 후술할 세그멘테이션이 완료된 후, 뇌 이미지의 본래의 좌표로 변환하는 데 이용될 수 있다. 다시 말해, 이미지 분석 장치(2000)는 변환된 좌표와 관련된 데이터를 이용하여 뇌 템플릿의 공간적 분포에 기초하여 획득된 세그멘테이션 결과를 원본 뇌 이미지에 대응되도록 변환하는 동작을 수행하도록 구현될 수 있다.
이러한 이미지 분석 장치(2000)의 동작을 통하여 사용자는 본래의 좌표에 대한 뇌 이미지에 대하여 분석 결과를 제공받을 수 있게 된다.
예를 들어, 뇌 이미지와 관련된 형태학적 지표를 출력 모듈을 통하여 출력하는 경우에는 보정 파라미터를 이용하여 보정한 형태학적 지표 등으로 출력될 수 있다. 반변, 뇌의 시각적인 정보(예, 도 57에 도시된 info. 13, 혹은 세그멘테이션 결과 등)를 출력 모듈을 통하여 출력하는 경우에는 상술한 변환된 좌표에 기초하여 역변환된 이미지, 즉 원본 뇌 이미지에 기초하여 뇌와 관련된 시각적인 정보들이 출력될 수 있다.
이하에서는 도 7 내지 도 17을 참고하여 본 출원의 일 실시예에 따른 학습 장치(2200) 및 이미지 분석 장치(2000)의 이미지 세그멘테이션과 관련된 동작에 대하여 서술한다.
본 출원의 일 실시예에 따르면, 이미지 세그멘테이션 동작은 학습된 신경망 모델을 이용하여 수행될 수 있다. 다만, 신경망 모델을 이용하지 않더라도 임의의 적절한 방법을 이용하여 본 출원의 일 실시예에 따른 이미지 세그멘테이션 동작이 구현될 수 있다.
이하에서는 이미지 세그멘테이션을 위한 신경망 모델을 학습시키는 동작과 학습된 신경망 모델을 이용하여 이미지 세그멘테이션을 수행하는 내용을 중심으로 서술한다.
도 7을 참고한다. 도 7은 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
도 7을 참고하면, 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스는, 이미지 세그멘테이션을 위한 인공신경망 모델의 학습 프로세스(P1000)와 학습된 인공신경망 모델을 이용한 대상 이미지의 세그멘테이션 프로세스(P2000)를 포함할 수 있다.
이때, 학습 프로세스(P1000)는 본 출원의 일 실시예에 따른 학습 장치(2200)에 의해 구현될 수 있다.
또한, 세그멘테이션 프로세스(P2000)는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현될 수 있다.
이때, 학습 장치(2200)에서 구현되는 학습 프로세스(P1000)에 의해 획득된 신경망 모델의 파라미터는 임의의 적절한 통신 모듈을 통하여 이미지 분석 장치(2000)로 송신될 수 있다.
이때, 이미지 분석 장치(2000)는 학습 프로세스(P1000)에 의해 획득된 신경망 모델의 파라미터에 기초하여 대상 이미지의 세그멘테이션을 수행하도록 구현될 수 있다.
본 출원의 일 실시예에 따른 학습 프로세스(P1000)는 이미지 데이터 세트를 획득하는 프로세스(P1100), 신경망 모델을 학습시키는 프로세스(P1200), 신경망 모델을 검증하는 프로세스(P1300) 및 신경망 모델의 파라미터를 획득하는 프로세스(P1400)를 포함할 수 있다.
이하에서 도 8을 참고하여, 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법을 설명한다. 도 8은 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법에 대한 순서도이다.
도 8을 참고하면, 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법은 이미지 데이터 세트를 획득하는 단계(S1100), 이미지 데이터 세트를 스크리닝하는 단계(S1200), 이미지 데이터 세트의 전처리 및 정렬(S1300), 신경망 모델의 학습 및 검증 단계(S1400) 및 신경망 모델 파라미터를 획득하는 단계(S1500)를 포함할 수 있다.
이미지 데이터 세트를 획득하는 단계(S1100)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치들로부터 이미지 데이터 세트들을 획득할 수 있다.
도 9를 참고한다. 도 9는 본 출원의 일 실시예에 따른 이미지 데이터 세트의 예시적인 구조도이다.
학습 장치(2200)가 획득하는 이미지 데이터 세트(DS)는 적어도 하나 이상의 이미지 데이터들을 포함할 수 있다. 다시 말해, 학습 장치(2200)가 획득하는 이미지 데이터 세트(DS)는 제1 이미지 데이터(ID1), 제2 이미지 데이터(ID2) 및 제n 이미지 데이터(IDn) 등 적어도 하나 이상의 이미지 데이터를 포함할 수 있다.
이때, 학습 장치(2200)가 획득하는 이미지 데이터 세트(DS)에 포함된 이미지 데이터는, 이미지 및 라벨과 관련된 데이터를 포함할 수 있다.
예를 들어, 도 9를 참고하면, 이미지 데이터 세트(DS)에 포함된 제1 이미지 데이터(ID1)는 제1 이미지(I1) 및 제1 라벨(L1)과 관련된 데이터를 포함할 수 있다.
구체적으로 제1 라벨(L1)은 뇌 질환을 진단할 수 있는 임상의로부터 수동으로 제1 이미지(I1)에 대하여 라벨링되어 획득될 수 있다. 혹은 제1 라벨(L1)은 임의의 적절한 이미지 세그멘테이션 기법을 이용하여 자동으로 라벨링되어 획득될 수 있다.
이미지 데이터에 포함된 이미지 및 라벨과 관련된 데이터는 본 출원의 일 실시예에 따른 학습 방법과 관련하여 인공 신경망 모델을 학습시키고 인공 신경망 모델을 검증하는 데 기초가 될 수 있다.
한편, 이미지 데이터 세트(DS)에 포함된 이미지 데이터는 스캔 조건과 관련된 데이터를 포함할 수 있다. 이때, 스캔 조건과 관련된 데이터는 상술한 바와 같이 자기장 강도와 관련된 데이터, 이미지 장치의 세팅 파라미터 및/또는 이미지 장치의 제조사와 관련된 데이터일 수 있다. 또한, 스캔 조건과 관련된 데이터는 이미지 데이터에 대하여 메타 데이터로서 구조화될 수 있다.
일 예로, 도 9를 참고하면, 제1 이미지 데이터(ID1)는 제1 이미지 데이터(ID1)가 촬영된 스캔 조건과 관련된 제1 스캔 조건(SC1)과 관련된 데이터를 포함할 수 있다. 예를 들어, 제1 이미지 데이터(ID1)가 3T의 자기장 강도 하에서 촬영되었다면, 3T에 대응되는 자기장 강도와 관련된 정보가 제1 이미지 데이터(ID1)에 대하여 메타 데이터로서 구조화되어 데이터 세트 획득 단계(S1100)를 통하여 학습 장치(2200)로 획득될 수 있다.
이미지 데이터에 포함된 스캔 조건과 관련된 데이터는, 후술할 대상 이미지로부터 획득된 타겟 요소에 대응되는 형태학적 값 혹은 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하는데 고려될 수 있다.
도 9에서는 제1 이미지 데이터(ID1)에 포함된 데이터만을 도시하였으나, 이는 예시에 불과하며, 제2 이미지 데이터(ID2) 혹은 제n 이미지 데이터(IDn) 등을 포함하는 이미지 데이터 세트의 이미지 데이터는 이미지, 라벨 및 스캔 조건과 관련된 데이터를 포함할 수 있다.
추가적으로 학습 장치(2200)는 뇌 이미지와 관련된 세그멘테이션을 위하여 뇌 구조 혹은 뇌 기능과 관련된 뇌 아틀라스(atlas)와 관련된 정보를 획득하도록 구현될 수 있다.
구체적으로, 학습 장치(2200)는 상술한 뇌의 구조 혹은 뇌의 기능과 관련된 뇌 아틀라스와 관련된 정보를 이미지 분석 장치(2000) 혹은 임의의 외부 장치로부터 획득할 수 있다.
이때, 학습 장치(2200)는 뇌 아틀라스와 관련된 정보를 고려하여 후술할 인공 신경망 모델을 학습시키거나 인공 신경망 모델을 검증하도록 구현될 수 있다.
이미지 데이터 세트를 스크리닝하는 단계(S1200)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트를 획득하는 단계(S1100)에서 획득된 이미지 데이터 세트를 스크리닝하거나 이미지 데이터 세트에 포함된 이미지 데이터 중에서 일부 이미지 데이터만을 선별하는 동작을 수행하도록 구현될 수 있다.
일 예로, 획득된 이미지 데이터 세트 중에 일부 이미지 데이터들은 세그멘테이션을 위한 인공 신경망 모델을 학습하는 데 적절하지 않을 수 있다. 예를 들어, 일부 이미지 데이터들은 심각한 아티팩트(Artifact)나 심각한 노이즈를 포함할 수 있다. 이러한 이미지 데이터들은 인공 신경망 모델을 학습시키는 데 적절치 않을 수 있다.
따라서, 학습 장치(2200)는 획득된 이미지 데이터 세트에 포함된 이미지 데이터를 스크리닝하거나 인공 신경망 모델을 학습시키는데 유효한 이미지 데이터를 선별하도록 구현될 수 있다.
이미지 데이터 세트의 전처리 및 정렬하는 단계(S1300)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트에 포함된 이미지의 노이즈나 아티팩트를 제거하거나, 이미지의 인텐시티를 보정하는 전처리 동작을 수행하도록 구현될 수 있다.
또한, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지의 방향과 관련된 데이터에 기초하여 이미지를 정렬하거나, 이미지를 뇌 템플릿에 정합하여 공간 정규화를 하여 이미지를 정렬하는 동작을 수행하도록 구현될 수 있다.
이와 관련하여는, 상술한 이미지 분석 장치(2000)의 전처리 동작과 도 5 내지 도 6과 관련하여 상술한 이미지의 정렬 동작이 동일하게 학습 장치에서 구현되도록 제공될 수 있다. 혹은 학습 장치(2200)와 이미지 분석 장치(2000) 간의 데이터 송수신을 통하여 이미지 분석 장치(2000)에서 이미지의 전처리 및 정렬 동작을 수행한 후 학습 장치(2200)로 전달하도록 구현될 수 있을 것이다.
신경망 모델의 학습 및 검증 단계(S1400)에서, 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 학습 장치(2200)는 이미지 세그멘테이션을 위한 인공 신경망 모델을 학습시킬 수 있다.
구체적으로 인공 신경망 모델은 이미지 데이터를 입력받기 위한 입력 레이어, 세그멘테이션 결과인 라벨링 결과를 출력하기 위한 출력 레이어 및 적어도 하나 이상의 노드를 포함하는 히든 레이어를 포함할 수 있다.
이때, 학습 장치(2200)는, 획득된 이미지 데이터 세트에 포함된 이미지 데이터를 입력 레이어를 통하여 입력받고, 신경망 모델에 의해 획득된 이미지 데이터에 대한 라벨링 결과를 출력 레이어를 통하여 획득하도록 구현될 수 있다.
예를 들어, 학습 장치(2200)는 제1 이미지 데이터(ID1)를 입력으로 하고, 출력 레이어를 통하여 제1' 라벨(L1')을 출력하도록 구성된 인공 신경망을 학습하도록 구현될 수 있다. 또한, 학습 장치(2200)는 제2 이미지 데이터(ID2)를 입력 레이어로 입력하며, 출력 레이어를 통하여 출력된 제2' 라벨(L2')을 획득할 수 있다.
또한, 본 출원의 일 실시예에 따른 학습 장치(2200)는 상술한 뇌의 구조와 관련된 뇌의 아틀라스 혹은 뇌의 기능과 관련된 뇌의 아틀라스를 고려하여 인공 신경망을 학습시킬 수 있다.
일 실시예에 따른 학습 장치는, 미리 정해진 뇌 아틀라스에 기초하여 뇌 이미지를 분할하도록 신경망 모델을 학습할 수 있다. 뇌 아틀라스는 제1 뇌 영역 및 제2 뇌 영역을 포함하는 복수의 뇌 영역을 포함할 수 있다. 학습 장치는, 제1 뇌 영역에 대응되는 제1 영역 및 제2 뇌 영역에 대응되는 제2 영역이 라벨링된 이미지를 이용하고, 이미지를 입력으로 하여 제1 영역 및 제2 영역을 획득하도록 신경망 모델을 학습할 수 있다.
예를 들어, 본 출원의 일 실시예에 따른 학습 장치(2200)는 Desikan-Killiany Atlas (Desikan 2006)를 기초로 이미지 데이터 세트들에 포함된 이미지 데이터의 세그멘테이션을 위한 인공 신경망 모델을 학습시키도록 구현될 수 있다. Desikan-Killiany Atlas (Desikan 2006)는 제1 뇌 영역 및 제2 뇌 영역을 포함하는 복수의 뇌 영역을 포함하는 피질(cerebral cortex)을 복수의 뇌 영역에 대응되는 영역을 획득하도록 이용되는 아틀라스이다.
이때, 학습 장치(2400)는 Desikan-Killiany Atlas (Desikan 2006)를 고려하여, 제1 뇌 영역에 대응하는 제1 영역 및 제2 뇌 영역에 대응하는 제2 영역이 라벨링된 이미지 데이터를 이용하여, 뇌의 피질 영역을 세그멘테이션하기 위한 신경망 모델을 학습시킬 수 있다.
다만, 상술한 뇌 아틀라스는 예시에 불과하며, 이미지 데이터의 세그멘테이션의 목적이나 관심 영역에 따라 임의의 적절한 뇌 아틀라스가 고려될 수 있다.
또한, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터가 촬영된 스캔 조건에 따라 신경망 모델을 학습시키도록 구현될 수 있다.
예를 들어, 학습 장치(2200)는 제1 스캔 조건에서 획득된 제1 이미지는 제1 이미지로부터 복수의 영역을 세그멘테이션하도록 제1 신경망 모델을 이용하도록 구현될 수 있다. 반면, 학습 장치(2200)는 제2 스캔 조건에서 획득된 제2 이미지는, 제2 이미지로부터 복수의 영역을 세그멘테이션하도록 제2 신경망 모델을 이용하도록 구현될 수 있다. 다시 말해, 학습 장치(2200)는 이미지가 촬영된 스캔 조건에 따라 신경망 모델을 상이하게 학습시킬 수 있다.
또한, 세그멘테이션 프로세스(P2000)에서 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 제1 스캔 조건 하에서 획득된 타겟 이미지는 학습된 제1 신경망 모델을 이용하여 세그멘테이션하며, 제2 스캔 조건 하에서 획득된 타겟 이미지는 학습된 제2 신경망 모델을 이용하여 세그멘테이션하도록 구현될 수 있다.
이를 통하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건별로 최적의 신경망 모델을 이용하여 타겟 이미지의 세그멘테이션을 수행할 수 있기 때문에, 복수의 영역들을 보다 안정적이고 정확하게 획득할 수 있다.
이하에서는 도 10 내지 도 11을 참고하여 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 예시에 대하여 서술한다.
도 10은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 일 예이다.
도 11은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 다른 예이다.
도 10을 참고하면, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net을 활용할 수 있다.
이미지 세그멘테이션에 활용되는 U-net은 수축 경로(Contraction path) 및 확장 경로(Expansion Path)를 포함하는 아키텍처로 구성될 수 있다.
구체적으로 U-net의 수축 경로는 2번의 컨볼루전(convolution) 및 맥스 풀링(max pooling)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 수축 경로에서는 이미지와 관련된 특성들이 추출될 수 있다.
하지만, 수축 경로에서는 특성 맵의 크기 또한 줄어들기 때문에 U-net은 확장 경로를 추가적으로 포함하여 특성 맵의 크기를 복구하도록 구성될 수 있다.
U-net의 확장 경로는 업-컨볼루전(Up-convolution) 및 2번의 컨볼루전(convolution)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 확장 경로에서는 이미지와 특성 맵의 크기가 추출될 수 있다.
추가적으로 U-net은 동일한 레벨의 특성 맵을 콘카테네이션(concatenation) 하도록 아키텍처가 구성되어 수축 경로에서 확장 경로로 특성과 관련된 위치 정보를 제공할 수 있다.
이때, 입력 이미지(Input Image)의 라벨과 출력 세그멘테이션 맵의 라벨 차이에 기초하여, 입력 이미지의 라벨과 출력 세그멘테이션 맵의 라벨 차이가 최소가 되도록 U-net의 포함된 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치가 조절될 수 있다.
또한, 도 11을 참고하면, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net++을 활용할 수 있다. U-net++은 U-net의 성능을 향상시키기 위하여 DenseNet의 고밀도 블록 아이디어를 사용한 인공 신경망 모델로서, 스킵 경로에 컨볼루션 레이어가 존재하여 인코더 및 디코더 특성 맵 사이의 시맨틱 갭을 연결하며, 스킵 경로에 덴스 스킵 연결이 존재하여 그래디언트 흐름을 향상시키는 점에서 U-net과의 차이점이 존재한다.
구체적으로, 학습 장치(2200)는 U-net++ 신경망 모델의 입력 레이어에 대하여 입력 이미지를 입력하고 출력 레이어를 통하여 출력된 라벨 정보를 획득하도록 구현될 수 있다. 이때, 학습 장치(2200)는 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이에 기초하여 Unet++의 포함된 히든 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치를 조절할 수 있다.
구체적으로 학습 장치(2200)는 상술한 적어도 하나의 노드의 파라미터 혹은 가중치를 조절하는 동작을 반복적으로 수행하도록 구현되어, 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이가 최소화되는 노드의 파라미터 혹은 가중치를 획득할 수 있다.
상술한 바와 같이, 본 출원의 일 실시예에 따른 학습 장치(2200)는 출력된 라벨 결과에 기초하여 인공 신경망 모델을 학습시키는 동작을 수행할 수 있다.
구체적으로 인공 신경망 모델을 학습하는 단계(S1400)에서는, 이미지 데이터 세트를 획득하는 단계(S1100)로부터 획득된 이미지 데이터에 포함된 라벨과 관련된 데이터를 획득할 수 있다.
이때, 학습 장치(2200)는 이미지 데이터 및 신경망 모델의 출력 레이어를 통하여 출력되는 라벨링 데이터에 기초하여 인공신경망 모델을 학습시키도록 구현될 수 있다.
좀 더 구체적으로, 학습 장치(2200)는 이미지 데이터에 포함된 라벨링 데이터와 신경망 모델의 출력 레이어를 통하여 출력되는 라벨링 데이터의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절함으로써 신경망 모델을 학습시키도록 구현될 수 있다.
일 예로, 학습 장치(2200)는 제1 이미지 데이터(ID1)를 인공 신경망의 입력 레이어로 입력하여 제1A 라벨(L1A)에 대응하는 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제1 이미지 데이터(ID1)에 포함된 제1 라벨(L1)에 대응되는 라벨링 데이터 및 제1A 라벨(L1A)에 관련된 라벨링 데이터에 기초하여 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제1 라벨(L1)과 제1A 라벨(L1A)의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절시킴으로써 신경망 모델을 학습시키도록 구현될 수 있다.
다른 예로, 학습 장치(2200)는 제i 이미지 데이터(IDi)를 인공 신경망의 입력 레이어로 입력하여 제iA 라벨(LiA)에 대응하는 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제i 이미지 데이터(IDi)에 포함된 제i 라벨(Li)에 대응되는 라벨링 데이터 및 제iA 라벨(LiA)에 관련된 라벨링 데이터에 기초하여 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제i 라벨(Li)과 제iA 라벨(LiA)의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절시킴으로써 신경망 모델을 학습시키도록 구현될 수 있다. 여기서 i는 임의의 수일 수 있다.
인공 신경망 모델을 검증하는 단계(S1400)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 인공 신경망 모델을 검증할 수 있다.
일 예로, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트(DS)에 포함된 적어도 하나의 이미지 데이터에 기초하여, 학습된 신경망 모델을 통하여 출력되는 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치(2200)는 적어도 하나의 이미지 데이터와 관련된 라벨링 데이터 및 학습된 신경망 모델을 통하여 출력되는 라벨링 데이터에 기초하여 학습된 신경망 모델을 검증할 수 있다.
예를 들어, 학습 장치(2200)는 적어도 하나의 이미지 데이터와 관련된 라벨링 데이터 및 학습된 신경망 모델을 통하여 출력되는 라벨링 데이터의 유사도를 비교함으로써, 학습된 신경망 모델의 히든 레이어의 노드의 파라미터 혹은 가중치가 적절한 지 여부를 검증할 수 있다.
인공 신경망 모델을 획득하는 단계(S1500)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트에 포함된 이미지 데이터들에 대하여 인공 신경망 모델을 학습시키고 인공 신경망 모델을 검증하는 동작을 반복 수행함으로써, 이미지 데이터에 포함된 라벨과 관련된 데이터와 인공 신경망의 출력되는 라벨과 관련된 데이터 간의 차이가 최소화되는 가중치나 파라미터를 가지는 적어도 하나의 노드를 포함하는 신경망 모델을 획득할 수 있다.
획득된 노드의 파라미터나 가중치는 세그멘테이션 프로세스(P2000)의 이미지 세그멘테이션을 위한 인공 신경망 모델에 이용될 수 있다.
상술한 바에 따르면 인공 신경망을 이용한 세그멘테이션을 중심으로 서술하였으나, 본 출원에 개시된 이미지 분석 장치(2000)는, 인공 신경망을 이용한 이미지 세그멘테이션을 포함하여 다양한 이미지 세그멘테이션 알고리즘을 이용할 수 있다.
일 예로, 이미지 세그멘테이션 알고리즘은 기계학습 모델로 제공될 수 있다. 기계학습 모델의 대표적인 예로는, 인공 신경망(Artificial Neural Network)이 있을 수 있다. 구체적으로 인공 신경망의 대표적인 예로는 데이터를 입력받는 입력 레이어, 결과를 출력하는 출력 레이어 및 입력 레이어와 출력 레이어 사이에서 데이터를 처리하는 히든 레이어(hidden layer)를 포함하는 딥 러닝 계열의 인공 신경망이 있다. 인공 신경망의 세부적인 예시들로는, 합성곱 인공 신경망(Convolution Neural Network), 순환신경망(Recurrent Neural Network), 심층신경망(Deep Neural Network), 생산적 적대 신경망(Generative Adversarial Network) 등이 있으며, 본 명세서에서 인공 신경망은 상술된 인공 신경망, 그 외의 다양한 형태의 인공 신경망 및 이들이 조합된 형태의 인공 신경망을 모두 포함하는 포괄적인 의미로 해석되어야 하며, 반드시 딥 러닝 계열이어야만 하는 것도 아니다.
뿐만 아니라, 기계학습 모델이 반드시 인공 신경망 모델 형태이어야만 하는 것은 아니며, 이외에도 최근접 이웃 알고리즘(KNN), 랜덤 포레스트(RandomForest), 서포트 벡터 머신(SVM), 주성분분석법(PCA) 등이 포함될 수 있으며, 이상에서 언급된 기법들이 앙상블된 형태나 그 외에 다양한 방식으로 조합된 형태까지도 전부 포함할 수 있다. 한편, 인공 신경망을 중심으로 언급되는 실시예들에서 특별한 언급이 없는 한 인공 신경망이 다른 기계학습 모델로 대체될 수 있음을 미리 밝혀둔다.
나아가, 본 명세서에서 이미지 세그멘테이션 알고리즘이 반드시 기계학습 모델로 한정되는 것은 아니다. 즉, 이미지 세그멘테이션 알고리즘은 기계학습 모델이 아닌 다양한 판단/결정 알고리즘이 포함될 수도 있다.
따라서, 본 명세서에서 이미지 세그멘테이션 알고리즘은 이미지 데이터를 이용하여 세그멘테이션을 수행하는 모든 형태의 알고리즘을 모두 포함하는 포괄적인 의미로 이해되어야 함을 밝혀 둔다.
다시 도 7을 참고하면, 본 출원의 일 실시예에 따른 세그멘테이션 프로세스(P2000)는 데이터 획득 프로세스(P2100) 및 학습된 신경망 모델을 이용한 세그멘테이션 프로세스(P2200)를 포함할 수 있다.
세그멘테이션 프로세스(P2000)는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현될 수 있다.
이하에서는 도 12를 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 동작을 설명한다. 도 12는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 방법에 대한 순서도이다.
도 12를 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 방법은 대상 이미지 데이터를 획득하는 단계(S2100), 학습된 신경망을 이용하여 세그멘테이션 정보를 획득하는 단계(S2200) 및 세그멘테이션 정보를 출력하는 단계(S2300)를 포함할 수 있다.
구체적으로 대상 이미지 데이터를 획득하는 단계(S2000)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 대상 이미지를 획득할 수 있다. 또한 이미지 분석 장치(2000)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치로부터 대상 이미지와 관련된 대상 객체 정보 혹은 대상 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다.
이때, 대상 이미지와 관련된 대상 객체 정보 혹은 대상 이미지가 촬영된 스캔 조건과 관련된 정보들은, 후술할 보정 파라미터를 획득하는 것에 고려될 수 있다. 이와 관련하여는, 도 58 내지 도 67과 관련하여 자세히 서술한다.
도 13을 참고한다. 도 13은 본 출원의 일 실시예에 따른 대상 이미지의 예시적인 구조도이다.
일 예로, 본 출원의 일 실시예에 따라 이미지 분석 장치(2000)가 획득하는 대상 이미지 데이터는 대상 이미지(TI)에 대한 정보를 포함할 수 있다. 예를 들어, 대상 이미지(TI)에 대한 정보는 픽셀의 좌표, 강도, 색상 등과 관련된 정보를 포괄할 수 있다.
다른 예로, 대상 이미지 데이터는 대상 객체 정보(TO)를 포함할 수 있다. 예를 들어, 대상 객체 정보(TO)에 대한 정보는 대상 이미지(TI)와 관련된 대상체(예, 뇌질환 검사 환자)의 인적 사항에 대한 정보일 수 있다. 예를 들어, 대상 객체 정보(TO)에 대한 정보는 대상체(예, 뇌질환 검사 환자)의 이름, 나이, 성별 등과 관련된 정보들일 수 있다. 이때, 이미지 분석 장치(2000)는 임의의 외부 장치로부터 대상 객체 정보(TO)에 대한 정보를 획득할 수 있다. 혹은 이미지 분석 장치(2000)는 대상 이미지 데이터에 대하여 구조화된 메타 데이터를 인식함으로써 대상 객체 정보(TO)에 대한 정보를 획득할 수 있다.
다른 예로, 대상 이미지 데이터는 대상 스캔 조건(TSC)에 대한 정보를 포함할 수 있다. 예를 들어, 대상 스캔 조건(TSC)에 대한 정보는 대상 이미지(TI)가 촬영된 스캔 조건과 관련된 정보일 수 있다. 예를 들어, 대상 스캔 조건(TSC)에 대한 정보는 대상 이미지(TI)가 촬영된 자기장 강도, 대상 이미지(TI)가 촬영된 이미지 장치의 세팅 파라미터 혹은 대상 이미지(TI)가 촬영된 이미지 장치의 제조사와 관련된 정보들일 수 있다. 이때, 이미지 분석 장치(2000)는 임의의 외부 장치로부터 대상 스캔 조건(TSC)에 대한 정보를 획득할 수 있다. 혹은 이미지 분석 장치(2000)는 대상 이미지 데이터에 대하여 구조화된 메타 데이터를 획득함으로써 대상 스캔 조건(TSC)에 대한 정보를 획득할 수 있다.
다시 도 7을 참고하면, 이미지 분석 장치(2000)는, 데이터 획득 프로세스(P2100)에서 획득된 대상 이미지 데이터를 학습된 신경망 모델의 입력 레이어로 입력하도록 구현될 수 있다.
이때, 이미지 분석 장치(2000)는, 상술한 학습 장치(2200)에서 구현되는 학습 프로세스(P1000)에 따라 획득된 인공 신경망 모델의 노드의 가중치 및/또는 노드의 파라미터를 대상 이미지 데이터를 세그멘테이션 하기 위한 인공신경망 모델에 활용하도록 구현될 수 있다.
다시, 도 12를 참고하면, 학습된 신경망 모델을 이용하여 세그멘테이션 정보를 획득하는 단계(S2200)에서, 학습 장치(2200)로부터 획득된 노드의 가중치 및/또는 노드의 파라미터에 기초한 학습된 신경망 모델은, 대상 이미지 데이터를 입력 레이어를 통하여 입력 받아 대상 이미지(TI)를 세그멘테이션한 결과로서 대상 이미지(TI)를 라벨링한 결과를 출력 레이어를 통하여 출력하도록 제공될 수 있다. 이때, 이미지 분석 장치(2000)는 학습된 신경망 모델의 출력 레이어를 통하여 대상 이미지의 라벨링과 관련된 세그멘테이션 정보를 획득할 수 있다.
이때, 인공 신경망 모델의 출력 레이어를 통하여 출력되는 결과는 대상 이미지 데이터의 대상 이미지로부터 획득된 복수의 대상 영역을 포함할 수 있다.
신경망 모델의 출력 레이어를 통하여 출력되는 결과는 대상 이미지로부터 획득된 복수의 대상 영역에 대응되는 라벨링 형태일 수 있다. 예를 들어, 신경망 모델의 출력 레이어를 통하여 출력되는 결과는 대상 이미지로부터 획득된 제1 영역을 정의하는 제1 라벨, 제2 영역을 정의하는 제2 라벨을 포함하는 라벨링 데이터의 형태일 수 있다.
이때, 신경망 모델의 출력 레이어를 통하여 출력되는 결과는 제1 라벨에 기초하여 대상 이미지의 제1 영역에 제1 색상을 오버레이하고 대상 이미지의 제2 영역에 제2 색상을 오버레이한 형태일 수 있다. 이를 통하여 제1 영역과 제2 영역이 보다 수월하게 구별될 수 있다. 다만, 상술한 내용은 예시에 불과하며 제1 영역과 제2 영역을 구별하기 위한 임의의 형태로서 출력 결과를 구성할 수 있다.
또한, 신경망 모델의 출력 레이어를 통하여 출력되는 세그멘테이션 정보는 미리 정해진 뇌 아틀라스에 기초하여 대상 이미지를 복수의 영역으로 구획된 형태일 수 있다. 예를 들어, 상술한 바와 같이 학습 장치는 미리 정해진 뇌 아틀라스에 기초하여 학습 이미지를 제1 뇌 영역에 대응되는 제1 영역 및 제2 뇌 영역에 대응하는 제2 영역으로 분할하도록 신경망 모델을 학습할 수 있다. 이때, 미리 정해진 뇌 아틀라스에 기초하여 학습된 신경망 모델을 이용하기 때문에, 신경망 모델의 출력 레이어를 통하여 출력되는 세그멘테이션 정보는 대상 이미지의 제1 뇌 영역에 대응되는 제1 영역 및 제2 뇌 영역에 제2 영역을 포함하는 복수의 영역으로 구획된 형태로 출력될 수 있다.
이미지 분석 장치(2000)는 출력 레이어를 통하여 출력되는 세그멘테이션 정보에 기초하여, 특정 영역에 대응되는 형태학적 수치를 계산하는 동작을 수행할 수 있다.
일 예로, 이미지 분석 장치(2000)는 출력 레이어를 통하여 출력된 제1 영역과 관련된 세그멘테이션 정보에 기초하여 제1 뇌 영역과 관련된 형태학적 특성(morphological character)을 나타내는 형태학적 수치를 계산하도록 구현될 수 있다. 예를 들면, 형태학적 특성(morphological character)은 부피, 두께, 길이 혹은 형태 등과 관련될 수 있다.
세그멘테이션 정보를 출력하는 단계(S2300)에서, 이미지 분석 장치(2000)는 출력 레이어를 통하여 출력되는 세그멘테이션 정보에 기초하여, 복수의 뇌 영역에 대하여 시각적인 그래픽을 오버레이하여 출력 장치(2600)의 출력 모듈(2650) 혹은 이미지 분석 장치(2000)의 출력 모듈(2050)을 통하여 사용자에게 디스플레이하도록 구현될 수 있다.
도 14를 참고한다. 도 14는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 세그멘테이션 프로세스에 의해 획득된 세그멘테이션 정보에 기초하여 획득된 이미지의 예시들이다.
구체적으로, 도 14의 상측에 도시된 도면은 T1-MRI로부터 획득된 이미지에 대한 세그멘테이션 결과에 기초하여 출력되는 이미지의 예시이다. 도 14의 하측에 도시된 도면은 T2-Flair MRI로부터 획득된 이미지에 대한 세그멘테이션 결과에 기초하여 출력되는 이미지의 예시이다.
예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 T1-MRI로부터 획득된 이미지에 대한 세그멘이션 프로세스에 의하여 전두엽, 측두엽, 두정엽, 후두엽, 외측 뇌실, 편도체, 해마 영역 등에 대응하는 세그멘테이션 정보를 획득할 수 있다.
예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 T2-Flair MRI로부터 획득된 이미지에 대한 세그멘이션 프로세스에 의하여 백질, 회백질, 뇌실, WMH(white matter hyperintensity) 영역 등에 대응하는 세그멘테이션 정보를 획득할 수 있다.
상술한 이미지 분석 장치(2000)의 이미지 세그멘테이션 동작에 의하면, 사용자는 세그멘테이션 결과를 시각적으로 확인할 수 있어 용이하게 세그멘테이션 결과를 확인할 수 있다. 또한, 사용자의 뇌 질환 진단의 보조 지표에 대한 이해도를 향상시킬 수 있다는 유리한 효과가 제공될 수 있다.
한편, 도 7에서 사용되는 인공 신경망 모델은 적어도 하나의 인공 신경망 모델로 구현될 수 있다.
이하에서는, 도 15 내지 도 17을 참고하여, 적어도 하나의 인공 신경망 모델을 이용하는 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 서술한다. 구체적으로 도 7의 인공 신경망 모델을 학습시키는 프로세스(P1200)와 관련하여 복수의 인공 신경망 모델을 이용하는 경우의 특징적인 내용들을 중심으로 서술한다. 도 7 내지 도 14와 관련되어 서술한 내용은, 도 15 내지 도 17과 관련하여 후술할 실시예에도 유추적용될 수 있다.
도 15는 본 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
일 예로, 도 15를 참고하면, 도 7의 학습 프로세스(P1000)의 신경망 모델 학습 프로세스(P1200)는 제1 신경망 모델을 학습시키는 프로세스(P1210) 및 제2 신경망 모델을 학습시키는 프로세스(P1220)로 구성될 수 있다.
일 예로, 제1 신경망 모델은 제1 뇌 영역에 대응하는 제1 영역 및 제2 뇌 영역에 대응하는 제2 영역을 획득하도록 학습될 수 있다. 이때, 제2 신경망 모델은 제1 신경망 모델로부터 획득될 수 있는 제1 영역에 포함된 제3 영역 및 제4 영역을 획득하도록 학습될 수 있다. 다시 말해, 제1 신경망 모델은 뇌의 거시적인 구조에 대응되는 영역들(예, 두개골 영역, 뇌 척수액(CSF) 영역, 피질 영역, 수질 영역)을 획득하도록 학습될 수 있으며, 제2 신경망 모델은 뇌의 세부적인 구조에 대응되는 영역들(예, 피질 내에 위치하는 뇌 요소들에 대응되는 영역, 수질 내에 위치하는 뇌 요소들에 대응되는 영역)을 획득하도록 학습될 수 있다.
다른 예로, 제1 신경망 모델은 제1 뇌 아틀라스에 대응되는 뇌 영역들에 대응되는 영역들을 획득하도록 학습될 수 있다. 반면 제2 신경망 모델은 제2 뇌 아틀라스에 대응되는 뇌 영역들에 대응되는 영역들을 획득하도록 학습될 수 있다.
또 다른 예로, 제1 신경망 모델은 뇌의 거시적인 구조에 대응되는 영역들(예, 두개골 영역, 뇌 척수액(CSF) 영역, 피질 영역, 수질 영역)을 획득하도록 학습될 수 있다. 반면, 제2 신경망 모델은 뇌 아틀라스에 대응되는 뇌 영역들에 대응되는 영역들을 획득하도록 학습될 수 있다. 예를 들어, 제2 신경망 모델은 Desikan-Killiany Atlas (Desikan 2006)에 기초하여 복수의 뇌 영역에 대응되는 영역들을 획득하도록 학습될 수 있으며, Desikan-Killiany Atlas (Desikan 2006)에 기초하여 학습된 제2 신경망 모델은 전두엽, 측두엽, 두정엽, 후두엽, 외측 뇌실, 편도체 및 해마를 포함하는 영역들을 획득하도록 학습될 수 있다.
제1 신경망 모델을 학습시키는 프로세스(P1210)와 제2 신경망 모델을 학습시키는 프로세스(P1220)는 독립적으로 수행될 수 있다.
구체적으로 제1 신경망 모델을 학습시키는 프로세스(P1210)와 제2 신경망 모델을 학습시키는 프로세스(P1220)에 활용되는 데이터 세트는 독립적일 수 있다.
도 16을 참고한다. 도 16은 본 출원의 일 실시예에 따른 이미지 데이터 세트들의 예시적인 구조도이다. 구체적으로 도 16의 왼쪽에 도시된 이미지 데이터 세트는 제1 신경망 모델을 학습시키기 위한 이미지 데이터 세트일 수 있다. 반면 도 16의 오른쪽에 도시된 이미지 데이터 세트는 제2 신경망 모델을 학습시키기 위한 이미지 데이터 세트일 수 있다.
예를 들어, 제1 신경망 모델을 학습시키기 위한 이미지 데이터 세트(DS)는 제1 이미지(I1) 및 제1 영역들과 관련된 제1a 라벨(L1a)과 관련된 정보를 포함하는 제1 이미지 데이터를 포함할 수 있다. 반면 제2 신경망 모델을 학습시키기 위한 이미지 데이터 세트(DS)는 제1 이미지(I1) 및 제2 영역들과 관련된 제1b 라벨(L1b)과 관련된 정보를 포함하는 제1 이미지 데이터를 포함할 수 있다.
이때, 학습 장치는 제1 신경망 모델을 이용하여, 제1 이미지 데이터(ID1)를 인공 신경망의 입력 레이어로 입력하여 제1 영역들과 관련된 제1a 라벨(L1a')에 대응하는 출력 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제1 이미지 데이터(ID1)에 포함된 제1 영역들과 관련된 라벨(L1a)에 대응되는 라벨링 데이터 및 제1 영역과 관련된 제1a' 라벨(L1a')에 관련된 출력 라벨링 데이터에 기초하여 인공 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제1a 라벨(L1a)과 제1a' 라벨(L1a')의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절하도록 구현될 수 있다. 또한 상술한 제1 신경망 모델을 학습시키는 프로세스를 반복적으로 수행함으로써, 제1 영역과 관련된 제1 신경망 모델과 관련된 파라미터를 획득할 수 있다.
반면, 학습 장치는 제2 신경망 모델을 이용하여, 제1 이미지 데이터를 인공 신경망의 입력 레이어로 입력하여 제2 영역들과 관련된 제1b' 라벨(L1b')에 대응하는 출력 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제1 이미지 데이터(ID1)에 포함된 제2 영역들과 관련된 제1b 라벨(L1b)에 대응되는 라벨링 데이터 및 제2 영역과 관련된 제1b 라벨(L1b')에 관련된 출력 라벨링 데이터에 기초하여 인공 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제1b 라벨(L1b)과 제1b' 라벨(L1b')의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절하도록 구현될 수 있다. 또한, 상술한 제2 신경망 모델을 학습시키는 프로세스를 반복적으로 수행함으로써, 제2 영역과 관련된 제2 신경망 모델과 관련된 파라미터를 획득할 수 있다.
또한, 학습 프로세스(P1000)에서 획득된 제1 신경망 모델과 관련된 파라미터는 세그멘테이션 프로세스(P2000)의 제1 영역에 대응되는 이미지 세그멘테이션을 위한 제1 신경망 모델에 이용될 수 있으며(P2210), 학습 프로세스(P1000)에서 획득된 제2 신경망 모델과 관련된 파라미터는 세그멘테이션 프로세스(P2000)의 제2 영역에 대응되는 이미지 세그멘테이션을 위한 제2 신경망 모델에 이용(P2220)되도록 구현될 수 있을 것이다.
다만, 도 16에 따르면, 제1 신경망 모델과 관련된 이미지 데이터에 포함된 제1a 라벨은 제1 영역과 관련된 라벨이며 제2 신경망 모델과 관련된 이미지 데이터에 포함된 제1b 라벨은 제2 영역과 관련된 라벨인 것으로 도시되었으나, 이는 예시에 불과하며 이에 제한되지 않는다. 예를 들어, 제1 및 2 신경망 모델의 이미지 데이터는 제1 영역 및 제2 영역과 관련된 라벨 정보를 포함할 수 있으며, 제1 신경망 모델을 학습시키는 경우에는 제1 영역과 관련된 라벨 정보만을 이용하고 제2 신경망 모델을 학습시키는 경우에는 제2 영역과 관련된 라벨 정보만을 이용하도록 구현될 수 있을 것이다.
또한, 상술한 바에 따르면, 제1 신경망 모델과 제2 신경망 모델이 독립적인 것으로 서술되었으나, 이에 제한되지 않으며, 제1 신경망 모델과 제2 신경망 모델은 적어도 일부 레이어를 공유할 수 있다. 다시 말해, 제1 신경망 모델과 제2 신경망 모델은 공통되는 레이어를 적어도 하나 포함할 수 있다.
한편, 제1 신경망 모델을 학습시키는 프로세스와 제2 신경망 모델을 학습시키는 프로세스는 독립적일 수 있으나, 서로 관련되도록 학습시킬 수 있다. 여기서, 서로 관련되도록 학습시킨다 것은 둘 중 하나의 신경망 모델에서 출력되는 데이터를 다른 신경망 모델의 입력 데이터로 사용하는 것을 포함하여, 둘 중 하나의 신경망 모델에서 생성된 임의의 데이터를 다른 신경망 모델에서 이용하는 모든 형태를 포괄하는 것을 의미할 수 있다.
도 17을 참고한다. 도 17은 본 출원의 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
일 실시예로, 본 출원의 일 실시예에 따른 학습 프로세스(P1000)의 신경망 모델을 학습시키는 프로세스(P1200)는 제1 신경망 모델을 학습시키는 프로세스(P1211) 및 제2 신경망 모델을 학습시키는 프로세스(P1221)를 포함하되, 제1 신경망 모델로부터 출력되는 결과와 관련된 데이터가 제2 신경망 모델에 입력 데이터로 입력되도록 구현될 수 있다.
일 예로, 학습 장치(2200)는 제2 신경망 모델이 제1 영역과 관련된 라벨링 데이터를 입력받도록 구성할 수 있다. 이때, 제1 영역과 관련된 라벨링 데이터는 이미지 데이터에 대하여 제1 뇌 영역에 대응되는 제1 영역을 수동으로 라벨링됨으로써 획득되거나, 임의의 자동 라벨링 소프트웨어를 이용하여 획득될 수 있다.
예를 들어, 제1 영역과 관련된 라벨링 데이터는 제1 신경망 모델에 입력되는 이미지 데이터에 대하여 임상의에 의하여 수동으로 라벨링된 데이터일 수 있다.
다른 예를 들어, 제1 신경망 모델은 제1 영역과 관련된 라벨링 데이터를 출력하도록 학습될 수 있으며, 이때, 제2 신경망 모델에 입력되는 제1 영역과 관련된 라벨링 데이터는 제1 신경망 모델로부터 출력되는 라벨링 데이터일 수 있다.
이때, 제2 신경망 모델은 제1 영역과 관련된 라벨링 데이터 및 이미지 데이터에 기초하여 제2 영역과 관련된 라벨링 데이터를 출력하도록 학습될 수 있다.
따라서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 제1 신경망 모델을 통하여 제1 영역과 관련된 라벨링 데이터를 획득할 수 있으며 제2 신경망 모델을 통하여 제2 영역과 관련된 라벨링 데이터를 획득하도록 구현될 수 있다. 따라서, 학습 장치(2200)는 제1 영역 및 제2 영역과 관련된 라벨링 데이터를 획득하도록 제1 신경망 모델 및 제2 신경망 모델을 학습시킬 수 있다.
또한, 학습 장치(2200)는 제1 영역 및 제2 영역과 관련된 라벨과 관련된 라벨링 데이터 및 이미지 데이터 세트의 제1 영역 및 제2 영역과 관련된 라벨링 데이터의 차이에 기초하여, 제1 신경망 모델의 적어도 하나의 노드의 가중치나 파라미터를 조절하거나 제2 신경망 모델의 적어도 하나의 노드의 가중치나 파라미터를 조절하도록 제공될 수 있다.
또한, 학습 프로세서(P1000)에서 획득된 제1 신경망 모델 및 제2 신경망 모델과 관련된 파라미터는 세그멘테이션 프로세스(P2000)의 제1 영역 및 제2 영역에 대응되는 이미지 세그멘테이션을 위한 제1 신경망 모델 및 제2 신경망 모델에 이용될 수 있다.
이때, 제1 영역 또는 제2 영역은 뇌의 해부학적 구조와 관련된 영역일 수 있으며, 상술한 뇌 아틀라스에 기초하여 구획된 영역 중 하나일 수 있다. 또한 제1 영역 또는 제2 영역은 뇌 질환과 관련된 유의미한 연관성을 나타내는 영역일 수 있다.
다만, 상술한 신경망 모델의 학습 프로세스는 예시에 불과하며, 임의의 적절한 형태, 유형, 파라미터를 가진 적어도 하나 이상의 신경망 모델의 다양한 조합이나 연결관계를 이용하여 이미지 세그멘테이션 동작을 학습시키고 신경망 모델을 검증하여 신경망 모델의 파라미터를 획득할 수 있을 것이다.
한편, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 세그멘테이션 프로세스(P2000)에서, 학습된 인공 신경망 모델을 갱신하거나 업데이트하도록 구현될 수 있다.
일 예로, 이미지 분석 장치(2000)는, 학습된 신경망 모델을 이용한 세그멘테이션 프로세스(P2200)에 의해 대상 이미지를 세그멘테이션하여 획득된 세그멘테이션 정보를 수동으로 또는 임의의 소프트웨어를 이용하여 수정 가능하도록 구현될 수 있다. 이때, 이미지 분석 장치(2000)는 수정된 세그멘테이션 정보에 기초하여, 학습된 신경망 모델의 적어도 하나 이상의 노드의 가중치나 적어도 하나 이상의 노드의 파라미터를 수정함으로써, 인공 신경망 모델을 갱신하거나 업데이트하도록 구현될 수 있다.
일 실시예에 따른 이미지 분석 장치는 이미지의 품질을 판단하는 기능을 수행할 수 있다. 이미지 분석 장치는 이미지의 품질을 판단하기 위한 품질 기준을 가지고, 입력되는 이미지가 품질 기준을 만족하는지 여부를 판단할 수 있다.
보다 구체적으로, 이미지 품질 판단은 이미지 획득 장치에 의해 획득된 의료 이미지가 일정 수준 이상의 품질을 갖추고 있는지 판단하는 것을 의미할 수 있다. 다시 말해, 이미지 품질 판단은 이미지 획득 장치에 의해 획득된 의료 이미지로부터 일정 수준 이상의 신뢰도를 가지는 의료 정보의 획득이 가능한지 판단하는 것을 의미할 수 있다.
이미지 품질 판단은 이미지 분석 동작을 구성하는 세부 동작과 함께 수행될 수 있다. 예컨대, 이미지 품질 판단 동작은 본 명세서에서 설명하는 이미지 획득 동작, 이미지 전처리 동작, 이미지 세그멘테이션 동작 및/또는 의료 정보 출력 동작과 함께 수행될 수 있다.
이미지 품질 판단 동작은 적어도 하나의 세부 동작의 수행 전에 또는 수행 후에 수행될 수 있다. 이미지 품질 판단 동작은 세부 동작의 수행 결과 얻어진 정보에 기초하여 수행될 수 있다. 이미지 품질 판단 동작은 세부 동작을 수행하기 위한 기준을 만족하는지 판단하기 위하여 수행될 수 있다.
이미지 품질 판단은 이미지 데이터에 기초하여 수행될 수 있다. 이미지 품질 판단은 이미지 로데이터를 기초로 수행될 수 있다. 이미지 품질 판단은 전처리가 수행된 의료 이미지를 기초로 수행될 수 있다. 다른 예로, 이미지 품질 판단은 의료 이미지를 세그멘테이션(segmentation)한 결과를 기초로 수행될 수 있다. 또다른 예로, 이미지 품질 판단은 의료 이미지를 분석한 결과를 기초로 수행될 수 있다.
이미지 품질 판단은 이미지 데이터와 관련된 비-이미지 데이터에 기초하여 수행될 수 있다. 이미지 품질 판단은 의료 이미지에 관한 메타데이터(metadata) 정보, 의료 이미지에 포함되어 있는 아티팩트 정보 또는 의료 이미지 세그멘테이션(segmentation)을 통해 확보된 관심 영역 정보 중 적어도 어느 하나를 기초로 수행될 수 있다.
일 실시예에 따르면, 이미지 품질 판단은 대응되는 세부 동작 별로 달리 수행될 수 있다.
예컨대, 제1 품질 판단은 전처리 동작 전에 로데이터에 기초하여 수행될 수 있다. 이때, 제1 품질 기준을 만족하는 이미지에 대하여 전처리 동작이 수행될 수 있다. 또 예컨대, 제2 품질 판단은, 세그멘테이션 동작 전에 로데이터 또는 전처리된 이미지에 기초하여 수행될 수 있다. 이때, 제2 품질 기준을 만족하는 이미지에 대하여 세그멘테이션 동작이 수행될 수 있다. 또 예컨대, 제3 품질 판단은, 이미지 분석 전에, 로데이터, 전처리된 이미지 또는 이미지 세그멘테이션 결과에 기초하여 수행될 수 있다. 제3 품질 기준을 만족하는 이미지에 대하여 이미지 분석이 수행될 수 있다. 제1 내지 제3 품질 기준은 서로 다를 수 있다.
이미지 품질 판단을 통하여 획득된 정보는 출력될 수 있다. 이미지 품질 판단을 통하여 획득된 정보는 이미지 품질 판단의 근거가 되는 정보를 포함할 수 있다. 이미지 품질 판단의 근거가 되는 정보는 이미지에 흠결이 존재하는지 여부, 이미지의 형식 정보, 이미지의 획득 조건 등을 포함할 수 있다. 이미지 품질 판단을 통하여 획득된 정보는, 후속 동작의 수행 여부와 관련된 정보의 생성 또는 제공에 이용될 수 있다.
이미지 품질 판단의 구체적인 실시예에 대하여는 후술하도록 한다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지의 세그멘테이션 결과에 기초하여 대상체의 뇌 형태학적 지표를 계산하는 동작을 수행하도록 제공될 수 있다.
구체적으로, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 두개골의 내부 영역과 타겟 요소에 대응되는 영역을 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 타겟 요소의 형태학적 지표를 계산하기 위하여 두개골의 내부 영역에 대응되는 바운더리를 수정하는 동작을 추가적으로 수행할 수 있다.
또한, 이미지 분석 장치(2000)는 두개골의 내부 영역의 바운더리를 수정하기 위하여 뇌 이미지를 정렬하는 동작을 추가적으로 수행할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 대상체의 뇌 형태학적 지표를 계산하는 동작은 도 48 내지 도 57과 관련하여 자세히 후술하도록 한다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지의 세그멘테이션 결과에 기초하여 계산된 뇌의 형태학적 값 혹은 형태학적 지표를 보정하는 동작을 수행하도록 제공될 수 있다.
구체적으로, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 타겟 요소에 대응되는 영역과 타겟 요소에 대응되는 픽셀이나 복셀 데이터를 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 타겟 요소에 대응되는 픽셀이나 복셀 데이터에 기초하여 타겟 요소의 형태학적 값을 획득할 수 있다.
또한, 이미지 분석 장치(2000)는 보다 정확한 형태학적 지표를 출력하도록, 대상 이미지가 획득된 스캔 조건이나 대상 이미지 내에 타겟 요소의 위치를 고려하여 타겟 요소의 형태학적 값을 보정하는 동작을 수행할 수 있다.
이때, 이미지 분석 장치(2000)는 타겟 요소의 형태학적 값을 보정하기 위하여 보정 파라미터 획득 장치(2400)로부터 스캔 조건이나 타겟 요소의 위치를 고려한 보정 파라미터를 획득할 수 있으며, 보정 파라미터 및 타겟 요소의 형태학적 값에 기초하여 타겟 요소의 형태학적 지표를 출력하는 동작을 수행하도록 제공될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 뇌의 형태학적 값 혹은 형태학적 지표를 보정하는 동작은 도 58 내지 도 67과 관련하여 자세히 후술하도록 한다.
일 실시예에 따른 이미지 출력 장치는 이미지 분석을 통해 획득되는 다양한 의료 정보를 기초로 진단 보조 정보를 사용자에게 제공할 수 있다. 여기서, 진단 보조 정보는 의료 이미지로부터 획득되는 다양한 의료 정보의 가공을 통해 획득되는 정보를 포함할 수 있다. 예를 들어, 진단 보조 정보는 의료 정보를 가공하여 획득된 정보 예컨대, 의료 정보에 기초한 진단 정보, 분석 정보, 처방 정보 등을 포함할 수 있다.
진단 보조 정보 제공 동작은 이미지 출력 동작을 구성하는 세부 동작과 함께 수행될 수 있다. 예컨대, 진단 보조 정보 제공 동작은 본 명세서에서 설명하는 이미지 획득 동작, 이미지로부터 의료 정보를 획득하는 동작, 획득된 정보 중 진단 보조 정보를 획득하는 동작, 진단 보조 정보를 출력하는 동작 및/또는 진단 보조 정보에 기초하여 코멘트를 제공하는 동작과 함께 수행될 수 있다. 상술한 각각의 동작에 관한 자세한 설명은 후술하도록 한다.
다른 실시예에 따른 이미지 출력 장치는 이미지 분석을 통해 획득되는 다양한 의료 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공할 수 있다. 여기서, 선택적 정보 제공은 이미지 분석 장치를 통해 획득할 수 있는 다양한 의료 정보 중 사용자에게 필요한 의료 정보만을 선택적으로 제공하는 것을 포함할 수 있다.
선택적 정보 제공 동작은 이미지 출력 동작을 구성하는 세부 동작과 함께 수행될 수 있다. 예컨대, 선택적 정보 제공 동작은 본 명세서에서 설명하는 이미지 획득 동작, 이미지로부터 의료 정보를 획득하는 동작, 획득된 정보 중 선택적 정보를 획득하는 동작, 선택적 정보를 출력하는 동작 및/또는 선택적 정보에 기초하여 코멘트를 제공하는 동작과 함께 수행될 수 있다. 상술한 각각의 동작에 관한 자세한 설명은 후술하도록 한다.
이상에서는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 구성과 동작에 대하여 서술하였다. 이하에서는 본 실시예에 따른 이미지 분석 방법에 관하여 보다 구체적으로 설명한다.
이하의 설명에서는 본 출원의 일 실시예에 따른 이미지 분석 방법이 상술한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)에 의해 수행되는 것으로 설명한다. 다만, 이는 설명의 편의를 위한 것에 불과하므로, 본 출원의 일 실시예에 따른 이미지 분석 방법이 상술한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)로 한정되는 것은 아니다. 즉, 후술되는 이미지 분석 방법이 반드시 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)에 의해서만 수행되어야 하는 것은 아니며 상술한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)와 유사한 기능을 갖는 다른 시스템이나 장치 등에 의해 수행되는 것도 가능하다.
환자의 건강 상태를 판단하기 위해 의료 이미지로부터 다양한 정보가 획득되는데, 정확한 정보를 획득하기 위하여는 일정 수준 이상의 품질을 가지고 필요 조건을 만족하는 의료 이미지를 기초로 분석이 이루어져야 한다.
보다 구체적으로, 이미지 획득 장치에 의해 획득된 의료 이미지는 이미지 분석이 이루어지기에 적합하지 않은 품질(또는 성질)을 가질 수 있다. 예컨대, 이미지는 의료 데이터 획득에 부적절한 형식적 또는 실질적 흠결을 가질 수 있다. 예를 들어, 이미지의 밝기, 이미지의 해상도, 촬영이 이루어진 부위, 촬영이 이루어진 방향, 촬영이 이루어진 각도 또는 그 밖의 촬영 중에 발생할 수 있는 문제로 인해 이미지 내에 발생된 다양한 결함 등으로 인해 의료 이미지는 일정 수준 이상의 품질을 구비하지 못할 수 있다. 또는, 이미지 파일의 형식, 크기 등 이미지의 형식이 필요 조건을 만족하지 아니할 수 있다.
상기와 같은 일정 수준 이상의 품질을 가지지 않는 의료 이미지를 기초로 분석이 이루어지는 경우, 그 분석 결과 또한 일정 수준 이상의 신뢰도를 구비하지 못할 수 있다. 이에 따라, 보다 높은 수준의 신뢰도를 가질 수 있는 분석 결과의 도출을 위해서는 이미지 획득 장치에 의해 획득된 이미지가 일정 수준 이상의 품질을 가지고 있는지에 관한 이미지 품질 판단이 이루어져야 한다.
기존에는 촬영 장비를 통해 획득한 의료 이미지에 불량한 부분이 있는지 판단하기 위해 검수자가 직접 일일이 판단하였다. 다만, 검수자의 관점, 검수자의 경험, 검수자의 컨디션에 따라 판단 결과가 일정하지 않을 수 있어 일정한 수준의 정확도 높은 품질 판단이 이루어지기 어려운 한계점이 존재하였다.
일 실시예에 따르면, 상술한 한계점을 극복하고, 촬영된 의료 이미지의 향상된 품질 판단을 위하여 인공지능이 활용될 수 있다. 즉, 일 실시예에 따른 이미지 분석 장치는 인공지능을 활용하여 높은 수준의 의료 이미지 품질 판단을 수행할 수 있다.
도 18은 일 실시예에 따른 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 18을 참조하면, 일 실시예에 따른 이미지 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 품질 판단 단계(S3300) 및 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다. 이 경우, 의료 이미지 품질 관련 정보 출력 단계(S3500)는 생략될 수 있다. 한편, 이미지 품질 판단 프로세스는 의료 이미지를 전처리하는 단계 및/또는 의료 이미지를 세그멘테이션하는 단계를 더 포함할 수 있다.
도 19는 이미지 품질 판단 프로세스를 수행하는 이미지 분석 장치(3000)를 설명하기 위한 도면이다.
도 19를 참조하면, 이미지 분석 장치(3000)는 이미지 품질 판단 프로세스를 수행할 수 있다. 이미지 분석 장치(3000)는 이미지 품질 판단을 수행하기 위한 하나 이상의 모듈을 포함할 수 있다. 예컨대, 이미지 분석 장치(3000)는 전처리 수행 모듈(3300), 이미지 세그멘테이션 모듈(3500) 또는 이미지 품질 판단 모듈(3700), 이미지 품질 관련 정보 출력 모듈(3900) 중 적어도 어느 하나를 포함할 수 있다.
이하에서는, 이미지 품질 판단 프로세스의 각 단계에 대하여 보다 구체적인 예를 들어 설명한다. 이하에서 설명하는 이미지 품질 판단 프로세스는 전술한 이미지 분석 장치(3000) 또는 본 명세서 전반에 걸쳐 설명하는 장치 또는 시스템에 의하여 수행될 수 있다.
일 실시예에 따른 이미지 획득 장치는 의료 이미지를 획득할 수 있다. 예시적으로, 의료 이미지는 CT(Computed Tomography), MRI(Magnetic resonance imaging), X-ray 등의 이미지를 포함할 수 있으나, 이에 한정되는 것은 아니다. 이 경우, MRI 이미지는 MRI 촬영 장비에 의해 촬영될 수 있는 다양한 종류의 영상 예컨대, T1강조영상, T2강조영상 또는 FLAIR영상 등을 포함할 수 있다. 또한, MRI 이미지는 MRI 촬영 장비에 의해 촬영되는 다양한 종류의 평면 예컨대, Axial, Sagittal 또는 Coronal 평면에서 촬영된 이미지를 포함할 수 있다.
일 실시예에 따른 이미지 획득 장치는 이미지 분석 장치(3000)는, 적어도 일부가 온전히 촬영되지 않은 의료 이미지를 획득할 수 있다. 예컨대, 이미지 분석 장치(3000)는, 대상 영역 중 적어도 일부가 누락되거나 부적절하게 촬영된 의료 이미지를 획득할 수 있다.
예를 들어, 이미지 획득 장치는 일정 수준 이하의 품질을 가지는 의료 이미지를 획득할 수 있다. 이미지 획득 장치는 일정 수준 이상의 신뢰도를 가지는 의료 정보의 추출을 기대하기 어려운 의료 이미지를 획득할 수 있다. 다른 예로, 이미지 획득 장치는 파일 구조가 비정상적이거나 환자 정보가 누락되어 있는 의료 이미지를 획득할 수 있다. 또 다른 예로, 이미지 획득 장치는 적어도 하나의 노이즈를 포함하고 있는 의료 이미지를 획득할 수 있다. 여기서, 노이즈는 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 의미할 수 있다.
일 실시예에 따른 이미지 품질 판단 프로세스는 의료 이미지를 전처리하는 단계를 포함할 수 있다. 예컨대, 일 실시예에 따른 이미지 품질 판단 프로세스는 이미지 품질 판단이 수행되기에 적합하도록 이미지 획득 장치에 의해 획득된 의료 이미지를 전처리하는 단계를 포함할 수 있다.
예시적으로, 이미지 전처리 단계는 의료 이미지 내에 포함되어 있는 아티팩트의 검출이 보다 원활히 이루어질 수 있도록 이미지의 밝기, 크기, 비율, 방향 또는 해상도를 보정하는 등의 다양한 전처리 과정을 수행하는 것을 포함할 수 있다. 다른 예로, 이미지 전처리 단계는 의료 이미지 내에 포함되어 있는 해부학적 구조에 관한 정보의 획득이 보다 원활히 이루어질 수 있도록 이미지의 밝기, 크기, 비율, 방향 또는 해상도를 보정하는 등의 다양한 전처리 과정을 수행하는 것을 포함할 수 있다.
그 밖에도, 이미지 전처리 단계는 이미지 품질 판단을 위한 다양한 전처리 과정을 수행하는 것을 포함할 수 있으며, 이에 관한 자세한 내용은 상술한바 있으므로 중복되는 내용은 생략하도록 한다.
일 실시예에 따른 이미지 품질 판단 프로세스는 의료 이미지를 세그멘테이션(segmentation)하는 단계를 포함할 수 있다. 예컨대, 일 실시예에 따른 이미지 품질 판단 프로세스는 이미지 품질 판단을 위하여 이미지 획득 장치에 의해 획득된 의료 이미지를 세그멘테이션하는 단계를 포함할 수 있다.
예시적으로, 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 아티팩트와 관련된 정보의 획득을 위해 의료 이미지 세그멘테이션을 수행하는 것을 포함할 수 있다. 보다 구체적인 예로, 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 아티팩트와 대응되는 영역의 세그멘테이션을 수행하는 것을 포함할 수 있다.
아티팩트에 대응되는 영역의 세그멘테이션은, 의료 이미지에 포함된 아티팩트에 대응되는 영역을 획득하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 아티팩트 영역을 세그멘테이션하는 것은, 아티팩트 영역이 라벨링된 하나 이상의 의료 이미지를 포함하는 학습 데이터를 이용하여 학습된 신경망 모델을 이용하여 수행될 수 있다.
다른 예로, 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 인체의 영역 중 적어도 일부에 기초하여 이미지 품질 판단이 이루어질 수 있도록 의료 이미지를 세그멘테이션하는 것을 포함할 수 있다. 보다 구체적인 예로, 이미지 세그멘테이션 단계는 이미지 품질 판단의 기초가 될 수 있는 인체의 해부학적 또는 기능적 구조에 관한 정보를 얻기 위해 의료 이미지를 세그멘테이션하는 것을 포함할 수 있다. 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 인체의 구조와 대응되는 영역의 세그멘테이션하는 것을 포함할 수 있다. 이미지 세그멘테이션 단계는 이미지 품질 판단에 이용되는 구조에 대응되는 영역을 획득하는 것을 포함할 수 있다.
인체의 구조에 대응되는 영역의 세그멘테이션은 신경망 모델을 이용하여 수행될 수 있다. 구조에 대응되는 영역의 세그멘테이션은 의료 이미지에 포함된 영역을 세그멘테이션하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 이미지 세그멘테이션 단계는 미리 학습된 신경망 모델을 이용하여 의료 이미지의 세그멘테이션을 수행하여 적어도 하나의 세그멘테이션된 영역을 획득하는 것을 포함할 수 있다. 이 경우, 적어도 하나의 세그멘테이션된 영역은 각각 다른 해부학적 또는 기능적 구조에 대응될 수 있다. 또한, 적어도 하나의 세그멘테이션된 영역은 품질 판단에 이용되는 인체 구조에 대응되는 영역을 포함할 수 있다. 해부학적 또는 기능적 구조에 대응되는 영역의 세그멘테이션은, 본 명세서 전반에 걸쳐 설명되는 이미지의 세그멘테이션과 관련된 내용이 유사하게 적용될 수 있다.
도 20은 이미지 품질 판단 모듈(3700)을 설명하기 위한 도면이다.
도 20을 참조하면, 이미지 품질 판단 모듈(3700)은 제1 이미지 품질 판단부(3710), 제2 이미지 품질 판단부(3730), 제3 이미지 품질 판단부(3750) 또는 제4 이미지 품질 판단부(3770) 중 적어도 어느 하나를 포함할 수 있다.
예시적으로, 제1 이미지 품질 판단부(3710)는 메타데이터 정보에 기초하여 이미지의 품질을 판단할 수 있고, 제2 이미지 품질 판단부(3730)는 노이즈 정보에 기초하여 이미지의 품질을 판단할 수 있고, 제3 이미지 품질 판단부(3750)는 해부학적으로 세그멘테이션된 세그멘테이션 정보에 기초하여 이미지의 품질을 판단할 수 있으며, 제4 이미지 품질 판단부(3770)는 복합 정보 예컨대, 노이즈 정보와 해부학적으로 세그멘테이션된 세그멘테이션 정보 간의 관계에 기초하여 이미지의 품질을 판단할 수 있다. 제1 이미지 품질 판단부(3710) 내지 제4 이미지 품질 판단부(3770)에 관한 자세한 내용은 후술하도록 한다.
일 실시예에 따른 이미지 품질 판단을 수행하는 신경망 모델은 이미지 획득 장치에 의해 획득되는 의료 이미지의 종류에 따라 다르게 학습 및 수행될 수 있다. 예시적으로, 이미지 획득 장치에 의해 획득되는 의료 이미지의 종류가 CT 이미지인 경우, 이미지 분석 장치(3000)의 이미지 품질 판단 모델은 CT 이미지에 기초하여 학습되고 수행되는 모델일 수 있다. 다른 예로, 이미지 획득 장치에 의해 획득되는 의료 이미지의 종류가 MRI인 경우, 이미지 분석 장치(3000)의 이미지 품질 판단 모델은 MRI 이미지에 기초하여 학습되고 수행되는 모델일 수 있다.
일 실시예에 따른 제1 이미지 품질 판단부(3710)는 이미지 분석이 정상적으로 이루어질 수 있는지 여부를 판단하기 위해 메타데이터 정보에 기초하여 수행될 수 있다. 이때, 메타데이터 정보는 이미지 획득 장치로부터 획득한 의료 이미지에 관한 정보를 포함할 수 있다. 보다 구체적으로, 메타데이터 정보는 의료 이미지의 파일 구조 정보 또는 의료 이미지에 입력되어 있는 환자 정보 중 적어도 어느 하나를 포함할 수 있다.
도 21은 제1 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 21을 참조하면, 제1 이미지 품질 판단 프로세스는 의료 이미지 획득 단계(S3711), 비-이미지 정보 획득 단계(S3713), 비-이미지 정보 정상 여부 판단 단계(S3715) 및 비-이미지 관련 정보 출력 단계(S3717)를 포함할 수 있다.
비-이미지 정보 획득 단계(S3713)는 의료 이미지로부터 의료 이미지 정보를 획득하는 것을 포함할 수 있다. 비-이미지 정보 획득 단계(S3713)는 의료 이미지로부터 비-이미지 정보를 획득하는 것을 포함할 수 있다. 여기서, 비-이미지 정보는 의료 이미지의 파일 구조 정보 또는 의료 이미지에 입력되어 있는 환자 정보를 포함할 수 있다.
이때, 의료 이미지의 파일 구조 정보는 의료 이미지의 파일 형식, 의료 이미지의 포맷 또는 파일의 크기에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 환자 정보는 환자의 성명, 나이 등의 인적 사항과 관련된 정보, 환자가 의료 이미지를 촬영한 시점과 관련된 정보 또는 환자의 건강 상태에 관한 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지로부터 추출한 비-이미지 정보에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지로부터 파일 구조 정보 또는 환자 정보 중 적어도 어느 하나에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다.
일 실시예에 따르면, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지의 파일 구조가 비정상적인지 여부를 판단할 수 있다. 여기서 의료 이미지의 파일 구조는 의료 이미지의 파일 형식, 의료 이미지의 포맷 또는 파일의 크기를 의미할 수 있으나 이에 한정되는 것은 아니다.
예를 들어, 의료 이미지의 파일 형식 또는 포맷은 이미지 분석 장치(3000)에 의해 이미지 분석이 수행되기에 적합한 파일 형식 또는 포맷이어야 하므로, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지의 파일 형식 또는 포맷이 이미지 분석 장치(3000)에 의해 이미지 분석이 수행되기에 적합한 파일 형식 또는 포맷인지 여부를 판단하는 것을 포함할 수 있다. 이에 따라, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지의 파일 구조 정보에 기초하여 이미지 분석이 정상적으로 이루어질 수 있는지 여부에 관한 정보를 획득하는 것을 포함할 수 있다.
다른 실시예에 따르면, 비-이미지 정보 정상 여부 판단 단계(S3715)는 이미지 획득 장치로부터 획득한 의료 이미지에 환자 정보가 누락되어 있는지 여부를 판단하는 것을 포함할 수 있다. 여기서 환자 정보는 환자의 성명, 나이 등의 인적 사항 또는 환자의 건강 상태에 관한 정보를 포함할 수 있으나 이에 한정되는 것은 아니다.
예를 들어, 의료 이미지에 환자 정보가 포함되어 있지 않으면 이미지 분석 장치(3000)에 의한 이미지 분석 결과가 어느 환자에 관한 것인지 알 수 없으므로, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지에 환자 정보가 포함되어 있는지 여부를 판단하는 것을 포함할 수 있다. 이에 따라, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지에 환자 정보가 입력되어 있는지 여부에 관한 정보를 획득하는 것을 포함할 수 있다.
도 22는 제1 이미지 품질 판단부(3710)를 설명하기 위한 도면이다.
도 22를 참조하면, 제1 이미지 품질 판단부(3710)는 비-이미지 정보 획득부(3711) 또는 비-이미지 정보 정상 여부 판단부(3717) 중 적어도 하나를 포함할 수 있다.
비-이미지 정보 획득부(3711)는 파일 구조 정보 획득부(3713) 또는 환자 정보 획득부(3715)를 포함할 수 있다. 비-이미지 정보 획득부(3711)는 획득된 의료 이미지에 기초하여 비-이미지 정보를 획득할 수 있다. 이 경우, 획득된 의료 이미지는 전처리 동작 전의 로데이터 또는 전처리 동작이 수행된 이미지를 포함할 수 있다.
비-이미지 정보 정상 여부 판단부(3717)는 비-이미지 정보 획득부(3711)에서 획득한 비-이미지 정보에 기초하여 비-이미지 정보가 정상인지 여부를 판단할 수 있다. 비-이미지 정보 정상 여부 판단부(3717)는 비-이미지 정보가 정상인지 여부를 판단한 결과에 관한 정보를 출력할 수 있다. 예시적으로, 비-이미지 정보 정상 여부 판단부(3717)는 의료 이미지의 파일 구조 정보에 기초하여 이미지 분석이 정상적으로 이루어질 수 있는지 여부에 관한 정보 또는 의료 이미지에 환자 정보가 입력되어 있는지 여부에 관한 정보를 출력할 수 있다.
일 실시예에 따른 제2 이미지 품질 판단부(3730)는 이미지 내에 포함되어 있는 노이즈 정보를 추출하는 기능을 수행할 수 있다. 여기서, 노이즈 정보는 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 의미할 수 있다. 예컨대, 노이즈 정보는 이미지의 해상도와 관련된 정보, 이미지의 밝기와 관련된 정보 또는 이미지에 발생된 아티팩트 정보를 포함할 수 있으며, 이 외에 부적절한 영상 샘플링의 결과로 만들어지는 다양한 화상의 결함을 의미할 수 있다.
도 23은 제2 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 23을 참조하면, 제2 이미지 품질 판단 프로세스는 의료 이미지 획득 단계(S3731), 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733), 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735) 및 아티팩트 정보 출력 단계(S3737)를 포함할 수 있다.
의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733)는 의료 이미지 내에 아티팩트가 포함되어 있는지 여부를 판단하는 것을 포함할 수 있다. 여기서, 아티팩트는 의료 이미지에서 해부학적 구조를 충실하게 보여주지 않는 픽셀에 관련된 노이즈를 포함할 수 있다. 예시적으로, 아티팩트는 Motion artifact, Bias artifact, Zipper artifact, Ghost artifact, Spike artifact 등의 종류를 포함할 수 있으나, 이에 한정되는 것은 아니며 기 알려진 다양한 종류의 아티팩트를 포함할 수 있다.
의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 의료 이미지 내에 발생된 아티팩트에 관한 정보를 획득하는 것을 포함할 수 있다. 여기서, 아티팩트 정보는 아티팩트와 관련 있는 정보 예컨대, 아티팩트의 발생 여부에 관한 정보, 아티팩트 발생 위치에 관한 정보, 발생된 아티팩트의 종류에 관한 정보, 아티팩트의 발생 정도에 관한 정보 등을 포함할 수 있다.
일 실시예에 따르면, 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733) 또는 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 학습된 신경망 모델을 이용하여 수행하는 것을 포함할 수 있다. 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733)는 학습된 신경망 모델을 이용하여 의료 이미지 내에 아티팩트가 발생되었는지 여부를 판단하는 것을 포함할 수 있다. 도면에서는 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733)와 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)를 구분 지어 표현하였지만, 각 단계는 하나의 신경망 모델을 이용하여 아티팩트 발생 여부 및 아티팩트와 관련된 정보를 획득하는 것을 포함할 수 있다.
신경망 모델은 의료 이미지에 기초하여 아티팩트 발생 여부를 획득할 수 있다. 신경망 모델은 입력된 의료 이미지에 기초하여, 획득된 의료 이미지의 특정 영역 내에 아티팩트가 존재하는지 여부를 획득할 수 있다.
또한, 신경망 모델은 의료 이미지에 기초하여 아티팩트 정보를 획득할 수 있다. 신경망 모델은 입력된 의료 이미지에 기초하여 아티팩트의 발생 여부에 관한 정보, 아티팩트 발생 위치에 관한 정보, 발생된 아티팩트의 종류에 관한 정보, 아티팩트의 발생 정도에 관한 정보를 획득할 수 있다.
아티팩트 정보는 이미지 획득 장치에 의해 획득된 의료 이미지에 기초하여 획득될 수 있다. 예시적으로, 아티팩트 정보는 의료 이미지에 기초하여 아티팩트 정보를 획득하도록 학습된 신경망 모델을 이용하여 획득될 수 있다.
아티팩트 정보 획득을 위하여, 입력 이미지를 하나 이상의 라벨에 대하여 분류 또는 예측하는 분류기 알고리즘이 이용될 수 있다. 분류 또는 예측을 위하여, 다양한 형태의 알고리즘이 이용될 수 있다. 예컨대, K-최근접이웃(k-nearest neighbor), 서포트벡터머신(Support Vector Machine), 인공신경망(Artificial Neural Nerwork), 의사결정나무(Decision Tree), 자기조직화 맵(Self-organizing map), 논리적 회귀(Logistic regression) 등이 이용될 수 있다.
인공 신경망은 분류기, 하이브리드형 분류기 (Hybrid classifiers), 앙상블형 분류기 (Ensemble classifiers), 선형 회귀(Linear Regression) 신경망 등일 수 있다. 인공 신경망은 CNN(Convolutional Neural Network)을 포함할 수 있다. 인공 신경망은 지도 학습, 비지도 학습 또는 강화 학습된 모델일 수 있다.
도 25는 일 실시예에 따른 아티팩트 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다. 도 25를 참조하면, 일 실시예에 따른 신경망 모델은 분류기 형태로 마련될 수 있다. 일 실시예에 따르면, 신경망 모델은 입력 레이어(IL), 풀링 레이어(PL), 컨벌루션 신경망 레이어(CL), 전연결 레이어(FCL), 히든 레이어(HL) 및 출력 레이어(OL) 등을 포함하고, 입력 이미지에 기초하여 특징 벡터를 획득할 수 있다. 신경망 모델은 입력 이미지를 하나 이상의 라벨로 분류하는 분류기 형태로 마련될 수 있다. 또는 신경망 모델은 회귀 모델 형태로 마련될 수도 있다. 신경망 모델은 입력에 이미지에 기초하여, 특정 아티팩트 정보에 대한 선형 출력값을 획득하는 회귀 모델로 마련될 수 있다.
신경망 모델은 인체의 특정 영역을 촬영하여 획득된 의료 이미지를 입력으로 하여, 출력 정보를 획득할 수 있다. 출력 정보는 입력된 이미지가 대상 오브젝트를 포함하는지 여부를 나타낼 수 있다. 예컨대, 신경망 모델의 출력 레이어는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 신경망 모델의 출력 레이어는 대상 이미지가 대상 오브젝트를 포함하는지 여부를 나타내는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 출력 레이어는 하나 이상의 대상 오브젝트에 대하여, 입력 이미지가 각각의 대상 오브젝트를 포함하는지 여부를 나타내는 하나 이상의 확률 함수가 부여된 출력 노드를 포함할 수 있다.
신경망 모델은 아티팩트 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 아티팩트 정보가 라벨링된 의료 이미지를 하나 이상 포함하는 학습 데이터에 기초하여, 아티팩트 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 아티팩트 영역이 라벨링된 의료 이미지를 하나 이상 포함하는 학습 데이터에 기초하여, 아티팩트 영역을 획득하도록 학습될 수 있다.
아티팩트 학습 데이터는 복수의 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 다양한 방식으로 촬영되는 의료 이미지 예컨대, CT, MRI 또는 X-ray 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 다양한 종류, 범위, 크기, 모양 또는 위치의 아티팩트가 포함된 복수의 의료 이미지를 포함할 수 있다.
아티팩트 학습 데이터는 아티팩트 발생 유무를 나타내는 아티팩트 라벨이 부여된 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 인체의 다양한 부위를 촬영하여 획득되고 아티팩트 발생 유무를 나타내는 아티팩트 라벨이 부여된 의료 이미지를 포함할 수 있다. 여기서, 아티팩트 라벨은 아티팩트의 발생 위치, 아티팩트의 발생 정도, 아티팩트의 발생 모양 또는 아티팩트의 종류 등에 따라 달리 부여될 수 있다.
아티팩트 학습 데이터는 아티팩트 발생 영역에 마스킹된 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 하나 이상의 아티팩트 발생 영역에 대하여 마스킹(또는 라벨링)된 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 복수 종류의 아티팩트 발생 영역에 대하여 서로 달리 마스킹(또는 라벨링)된 의료 이미지를 포함할 수 있다. 예컨대, 아티팩트 학습 데이터는 제1 종류의 아티팩트 발생에 대하여 제1 색상으로 표시되고, 제2 종류의 아티팩트 발생에 대하여 제2 색상으로 표시된 의료 이미지를 포함할 수 있다.
신경망 모델은 상술한 아티팩트 학습 데이터를 이용하여 학습될 수 있다. 신경망 모델은 아티팩트 학습 데이터를 이용하여, 의료 이미지에 기초하여 아티팩트 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.
신경망 모델은 의료 이미지를 아티팩트 발생 여부가 라벨링된 의료 이미지를 포함하는 아티팩트 학습 데이터를 이용하여 아티팩트를 포함하는지 여부에 따라 분류하도록 학습될 수 있다. 신경망 모델은 의료 이미지를 의료 이미지에 포함된 아티팩트의 종류에 따라 분류하도록 학습될 수 있다. 신경망 모델은 복수 종류의 아티팩트의 유무에 대하여 라벨링된 의료 이미지를 포함하는 아티팩트 학습 데이터를 통하여, 복수의 아티팩트에 대하여, 대상 이미지가 각 종류의 아티팩트를 포함하는지 여부를 획득하도록 학습될 수 있다.
신경망 모델은 아티팩트 학습 데이터를 통하여 아티팩트 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 하나 이상의 종류의 아티팩트에 대하여 아티팩트 발생 부위에 마스킹된 의료 이미지를 포함하는 아티팩트 학습 데이터를 이용하여 대상 이미지로부터 아티팩트 발생 영역을 검출하도록 학습될 수 있다. 신경망 모델은 복수 종류의 아티팩트 발생 영역에 대하여 라벨링된 의료 이미지를 포함하는 아티팩트 학습 데이터를 통하여, 의료 이미지에 포함된 복수의 아티팩트 각각에 대하여, 각 아티팩트가 분포하는 영역 및/또는 종류에 대한 아티팩트 영역 정보를 획득하도록 학습될 수 있다.
신경망 모델은 복수의 아티팩트 학습 데이터를 이용하여 학습될 수도 있다. 신경망 모델은 제1 종류의 아티팩트를 가지는 의료 이미지를 포함하는 제1 아티팩트 학습 데이터 및 제2 종류의 아티팩트를 가지는 의료 이미지를 포함하는 제2 아티팩트 학습 데이터를 이용하여 학습될 수 있다.
한편, 복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 아티팩트 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 아티팩트 학습 데이터에 기초하여 학습될 수 있다. 제2 아티팩트 학습 데이터는 제1 아티팩트 학습 데이터와 적어도 일부 상이할 수 있다.
도 24는 제2 이미지 품질 판단 프로세스가 인공 신경망 모델을 이용하여 의료 이미지 내의 아티팩트 발생 위치를 판단하는 것을 예시적으로 설명하기 위한 도면이다. 도 24를 참조하면, 신경망 모델은 이미지 획득 장치를 통해 획득된 의료 이미지를 입력으로 하여 아티팩트 발생 위치에 관한 아티팩트 영역 정보를 획득할 수 있다.
도 24를 참조하면, 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 의료 이미지 내의 아티팩트 영역 정보를 획득하는 것을 포함할 수 있다.
아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내기 위한 표시, 예컨대 히트맵 형태의 샐리언시 맵 형태로 구비될 수 있다. 아티팩트 영역 정보는 아티팩트 유무를 판단하는 신경망 모델 또는 아티팩트 정보를 획득하는 신경망 모델로부터 획득된 특징맵일 수 있다.
아티팩트 영역은, 학습된 신경망 모델로부터 획득되고 대상 의료 이미지에 존재하는 대상 아티팩트와 관련된 특징맵에 기초하여 특징맵 상에서 대상 아티팩트와의 관련성이 기준값 이상인 영역일 수 있다. 아티팩트 영역은, 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함할 수 있다. 제1 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역일 수 있다. 제2 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.
도 24의 (a) 내지 (c)를 참조하면, 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 아티팩트가 포함된 제1 원본 이미지(a), 제2 원본 이미지(b), 제3 원본 이미지(c)를 획득하는 것을 포함할 수 있다. 이 경우, 제1 원본 이미지(a) 내지 제3 원본 이미지(c)는 각각 서로 다른 평면에서 촬영된 이미지일 수 있다. 제1 원본 이미지(a) 내지 제3 원본 이미지(c)는 동일한 피검자에 대하여 동일 시점에서 촬영된 이미지일 수 있다.
도 24의 (d) 내지 (f)를 참조하면, 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 아티팩트의 위치가 표현된 제1 아티팩트 이미지(d), 제2 아티팩트 이미지(e), 제3 아티팩트 이미지(f)를 획득하는 것을 포함할 수 있다. 여기서, 제1 아티팩트 이미지(d)는 제1 원본 이미지(a)에 기초하여 획득된 아티팩트 영역 정보가 제1 원본 이미지(a)에 표시된 이미지일 수 있다. 제2 아티팩트 이미지(e)는 제2 원본 이미지(b)에 기초하여 획득된 아티팩트 영역 정보가 제2 원본 이미지(b)에 표시된 이미지일 수 있다. 제3 아티팩트 이미지(f)는 제3 원본 이미지(c)에 기초하여 획득된 아티팩트 영역 정보가 제3 원본 이미지(c)에 표시된 이미지일 수 있다.
또한, 도 24의 (d) 내지 (f)를 참조하면, 제1 내지 제3 아티팩트 이미지는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 순서로 제1 영역(A1) 내지 제4 영역(A4)이 표시된 이미지 일 수 있다. 여기서, 제1 영역(A1) 내지 제4 영역(A4)은 이미지 내 아티팩트가 위치하는 영역과 대응되는 영역일 수 있다. 제1 영역(A1) 내지 제4 영역(A4)은 이미지 내 아티팩트가 위치하는 영역의 적어도 일부를 포함하는 영역일 수 있다. 제1 영역(A1)은 제2 영역(A2)에 포함되는 영역일 수 있다. 제2 영역(A2)은 제3 영역(A3)에 포함되는 영역일 수 있다. 제3 영역(A3)은 제4 영역(A4)에 포함되는 영역일 수 있다.
도면에는 도시되지 않았지만, 아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치하는 영역을 표시하기 위한 바운딩 박스를 포함할 수 있다. 아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치하는 좌표 정보, 픽셀 정보 등을 포함할 수 있다. 예시적으로, 제2 이미지 품질 판단부(3730)는 아티팩트 발생 위치 정보를 획득하기 위해 BBMs(Backpropagation Based Method), ABMs(Activation Based Method), PBMs(Pertubation Based Method) 등의 인공 신경망 모델을 이용할 수 있으며, 여기서, BBMs 방법으로는 LRP(Layer-wise Relevance Propagation), DeepLIFT, SmoothGrad, VarGrad 등이 있을 수 있고, ABMs 방법으로는 CAM(Class Activation Map), Grad-CAM(Gradient-Class Activation Map) 등이 있을 수 있으며, PBMs 방법으로는 LIME(Local Interpretable Model-Agnostic Explanation) 등이 있을 수 있다.
일 실시예에 따른 제3 이미지 품질 판단부(3750)는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여, 세그멘테이션 정보가 정량적인 기준을 만족하는지를 고려하여 품질 판단을 수행할 수 있다. 보다 구체적인 예로, 제3 이미지 품질 판단부(3750)는 의료 이미지가 포함하고 있는 해부학적 구조 중 적어도 일부가 미리 정해진 정량적인 기준을 만족하는지를 판단할 수 있다.
제3 이미지 품질 판단부(3750)는 이미지 내에 포함되고 인체의 일 부위에 대응되는 소정 영역과 관련된 값이 기준을 만족하는지 여부를 판단할 수 있다. 제3 이미지 품질 판단부(3750)는 이미지 촬영 장치를 통해 촬영된 인체의 해부학적 구조 중 적어도 일부가 온전히 촬영되었는지 여부를 판단할 수 있다.
예를 들어, 인체의 특정 부위를 이미지 촬영 장치를 통해 촬영한 후 이를 분석하는 경우, 촬영된 인체의 영역 중 적어도 일부의 형태학적 지표를 통해 질병을 판단할 수 있는데, 이때, 인체의 각 영역의 촬영이 온전히 이루어지지 않은 경우 질병 판단의 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 따라서, 인체의 각 영역은 온전히 촬영되어야 하므로, 제3 이미지 품질 판단부(3750)는 의료 이미지가 포함하고 있는 인체의 해부학적 영역에 기초한 형태학적 지표가 일반적으로 요구되는 기준 값을 만족하는지를 고려하여 인체의 각 영역의 촬영이 온전히 이루어졌는지 여부를 판단하는 기능을 수행할 수 있다.
보다 구체적인 예로, 이미지 분석 장치(3000)가 뇌에 관한 MRI 이미지를 분석하는 경우, 뇌의 각 해부학적 영역에 관한 부피 값의 비율을 계산하여 질병을 판단할 수 있는데, 이때 촬영된 뇌의 특정 영역의 부피 값이 일반적으로 요구되는 기준 값을 만족하지 않는 경우 질병 판단 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 이때, 뇌의 특정 영역이 온전히 촬영되지 못하였다면 해당 영역의 부피 값을 기초로 질병 판단이 이루어지게 되면 질병 판단의 결과는 부정확할 수 있다. 이에 따라, 제3 이미지 품질 판단부(3750)는 MRI 이미지가 포함하고 있는 뇌의 각 영역에 관한 형태학적 지표가 일반적으로 요구되는 기준 값을 만족하는지를 고려하여 뇌의 각 영역의 촬영이 온전히 이루어졌는지 여부를 판단하는 기능을 수행할 수 있다.
도 26은 제3 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 26을 참조하면, 제3 이미지 품질 판단 프로세스는 이미지 세그멘테이션 정보 획득 단계(S3751), 품질 판단 대상 영역 획득 단계(S3753), 대상 영역의 형태학적 지표 획득 단계(S3755) 및 대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)를 포함할 수 있다.
이미지 세그멘테이션 정보 획득 단계(S3751)는 이미지 세그멘테이션 모듈(3500)에 의해 세그멘테이션된 의료 이미지에 기초하여 획득된 세그멘테이션 정보를 획득하는 것을 포함할 수 있다.
세그멘테이션 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조에 관한 정보를 포함할 수 있다. 세그멘테이션 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 지표를 포함할 수 있다. 또한, 세그멘테이션 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 값을 포함할 수 있다.
형태학적 지표는 형태학적 값에 기초하여 획득될 수 있다. 형태학적 지표는 복수의 형태학적 값 예컨대, 제1 형태학적 값과 제2 형태학적 값에 기초하여 획득될 수 있다. 예를 들어, 형태학적 지표는 제1 형태학적 값과 제2 형태학적 값의 비율에 기초하여 획득될 수 있다. 이 경우, 제1 형태학적 값은 소뇌일 수 있고, 제2 형태학적 값은 두개골 내의 해부학적 영역일 수 있으며, 제1 형태학적 값과 제2 형태학적 값의 비율에 의해 획득된 형태학적 지표는 ICV 값을 의미할 수 있다. 형태학적 값은 인체의 해부학적 구조 중 적어도 일부 영역의 면적, 부피, 위치 또는 모양 등에 관한 정보일 수 있다.
품질 판단 대상 영역 획득 단계(S3753)는 세그멘테이션 정보에 기초하여 제3 이미지 품질 판단을 수행할 대상 영역을 특정하는 것을 포함할 수 있다. 여기서, 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 적어도 일부 영역을 포함할 수 있다. 또한, 대상 영역은 인체의 해부학적 구조 중 질병 판단 결과의 신뢰도에 영향을 미칠 수 있는 적어도 일부 영역을 포함할 수 있다.
예시적으로, 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 의료 이미지의 중심에서 가장 외측에 위치한 영역을 포함할 수 있다. 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 질병 진단의 근거가 되는 영역을 포함할 수 있다. 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 가장 좌측, 우측, 상측 또는 하측에 위치한 영역 중 어느 하나를 포함할 수 있다. 대상 영역은 뇌에 관한 의료 이미지를 기초로 이미지 품질 판단이 수행되는 경우, 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 뇌의 두개골 내부 영역 중 적어도 일부를 포함할 수 있다.
대상 영역의 형태학적 지표 획득 단계(S3755)는 특정된 대상 영역에 관한 형태학적 지표를 획득하는 단계를 포함할 수 있다. 예시적으로, 대상 영역의 형태학적 지표 획득 단계(S3755)는 이미지 획득 장치에 의해 확보된 복수의 의료 이미지들 중 적어도 일부에 기초하여 대상 영역의 형태학적 지표를 획득하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표 획득 단계(S3755)는 이미지 획득 장치에 의해 확보된 복수의 의료 이미지들 중 적어도 일부에 기초하여 대상 영역의 형태학적 값을 획득하는 것을 포함할 수 있다.
대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)는 대상 영역의 형태학적 지표 또는 형태학적 값을 미리 정해진 기준 값과 비교하는 것을 포함할 수 있다. 여기서, 미리 정해진 기준 값이란 다수의 일반인을 대상으로 대상 영역의 형태학적 값의 평균값을 의미할 수 있다. 미리 정해진 기준 값이란 대상 영역의 형태학적 지표를 기초로 질병 판단 시 일정 수준 이상의 신뢰도를 가지는 의료 정보의 획득이 가능한 때의 대상 영역과 관련된 지표 또는 측정 값을 의미할 수 있다.
도 27은 제3 이미지 품질 판단 프로세스의 일 실시예를 설명하기 위한 도면이다.
도 27의 (a) 내지 (c)를 참조하면, 일 시시예에 따른 제3 이미지 품질 판단 프로세스는 뇌에 관한 의료 이미지를 기초로 품질 판단을 수행하는 것을 포함할 수 있다. 일 실시예에 따르면, 제3 이미지 품질 판단 프로세스는 뇌에 관한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여, 세그멘테이션 정보가 정량적인 기준을 만족하는지에 관한 품질 판단을 수행하는 것을 포함할 수 있다.
이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌를 촬영한 MRI 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보를 수신하는 것을 포함할 수 있다. 품질 판단 대상 영역 획득 단계(S3753)는 해부학적으로 세그멘테이션된 뇌의 각 영역 중 품질 판단 대상 영역 예컨대, 해부학적으로 세그멘테이션된 뇌의 각 영역 중 소뇌에 대응하는 소정 영역을 특정하는 것을 포함할 수 있다.
예시적으로, 품질 판단 대상 영역이 소뇌에 대응하는 소정 영역인 경우, 이미지 세그멘테이션 정보 획득 단계(S3751)에서 수신되는 세그멘테이션 정보는 뇌의 일 부위에 대응되는 소정 영역이 온전히 촬영되지 못한 MRI 이미지에 기초하여 획득된 정보일 수 있다. 여기서, 소뇌가 온전히 촬영되었는지에 관한 기준은 본 명세서의 ICV를 설명하는 파트에서 소뇌의 형태학적 값에 기초하여 두개골 내부 영역을 정의하는 기준과 동일한 기준으로 적용될 수 있다.
도 27의 (a)를 참조하면, 이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌의 각 영역 중 소뇌에 대응되는 소정 영역의 적어도 일부가 촬영되지 못한 제1 대상 영역 이미지에 기초하여 획득된 세그멘테이션 정보를 수신하는 것을 포함할 수 있다.
도 27의 (b)를 참조하면, 이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌의 각 영역 중 소뇌에 대응되는 소정 영역이 모두 촬영된 제2 대상 영역 이미지에 기초하여 획득된 세그멘테이션 정보를 수신하는 것을 포함할 수 있다.
도 27의 (c)를 참조하면, 이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌의 각 영역 중 소뇌에 대응되는 소정 영역이 모두 촬영되었으나 소뇌 외에 다른 해부학적 구조에 대응되는 영역 중 적어도 일부가 온전히 촬영되지 못한 제3 대상 영역 이미지에 기초하여 획득된 세그멘테이션 정보를 수신하는 것을 포함할 수 있다.
대상 영역의 형태학적 지표 획득 단계(S3755)는 품질 판단 대상 영역의 형태학적 지표 예컨대, 품질 판단 대상 영역으로 특정된 소뇌의 부피 값을 획득하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표 획득 단계(S3755)는 대상 영역의 형태학적 지표를 기준 값과 비교하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표 획득 단계(S3755)는 대상 영역으로 특정된 소뇌의 부피 값을 미리 정해진 기준 값과 비교하여 정량적인 기준을 만족하는지 여부를 판단하는 것을 포함할 수 있다.
예시적으로, 미리 정해진 기준 값은 도 27의 (b)와 같이 소뇌에 대응되는 소정 영역이 온전히 촬영된 제2 대상 영역 이미지에 기초하여 획득된 소뇌의 형태학적 지표를 의미할 수 있다. 미리 정해진 기준 값은 소뇌에 대응되는 소정 영역이 온전히 촬영된 복수의 이미지에 기초하여 획득된 소뇌의 형태학적 지표에 기초하여 획득될 수 있다. 미리 정해진 기준 값은 복수의 이미지에 기초하여 획득된 소뇌의 부피 값들의 평균값일 수 있다.
이 경우, 대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)는 도 27의 (a)와 같이 소뇌에 대응되는 소정 영역의 적어도 일부가 촬영되지 못한 제1 대상 영역 이미지에 기초하여 획득된 소뇌의 형태학적 지표를 도 27의 (b)의 제2 대상 영역 이미지에 기초하여 획득된 소뇌의 형태학적 지표 즉, 미리 정해진 기준 값과 비교하여 정량적인 기준을 만족하는지 여부를 판단하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)는 도 27의 (a)의 제1 대상 영역 이미지에 기초하여 획득된 소뇌의 부피 값이 미리 정해진 기준 값보다 일정 범위 이상의 차이를 보이는지에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다.
도 27의 (c)를 참조하면, 대상 영역으로 특정된 소뇌에 대응되는 영역은 온전히 촬영되었으나 소뇌 외에 다른 해부학적 구조에 대응되는 영역 중 적어도 일부가 온전히 촬영되지 못한 제3 대상 영역 이미지의 경우, 제3 이미지 품질 판단 프로세스는 품질 판단 대상 영역을 다시 특정한 후 이미지 품질 판단을 수행하는 것을 포함할 수 있다.
도 27의 (c)를 참조하면, 소뇌에 대응되는 영역을 기준으로 하여 이미지 품질 판단을 수행하는 경우, 이미지 하방(Inferior)의 누락에 대하여는 판단이 가능하나, 이미지 상방(Superior)의 누락에 대하여는 판단이 어려울 수 있다. 이러한 문제점을 방지하기 위하여, 소뇌에 대응되는 영역 외에 다른 지표를 이미지 품질 판단의 지표로 활용할 수 있다. 예컨대, 두개골 내지 대뇌에 대응되는 영역의 부피(또는 ICV)를 품질 판단의 지표로 활용할 수 있다.
또는, 소뇌에 대응되는 영역에 기초하여 획득되는 형태학적 지표(예컨대, 소뇌의 ICV값)이 기준 값 이상인 경우, 소뇌를 제외한 다른 영역의 촬영이 불완전하게 이루어진 것으로 판단할 수도 있다.
일 실시예에 따른 제4 이미지 품질 판단부(3770)는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보와 이미지 획득 장치로부터 획득한 의료 이미지에서 추출한 아티팩트 정보 간의 관계에 기초하여 이미지 품질 판단을 수행할 수 있다. 예시적으로, 제4 이미지 품질 판단부(3770)는 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는지 여부를 판단할 수 있다.
예를 들어, 이미지 분석 장치(3000)가 인체의 특정 부위를 이미지 촬영 장치를 통해 촬영한 후 이를 분석하는 경우, 인체의 각 영역을 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 질병을 판단할 수 있는데, 이때 질병 판단의 근거가 될 수 있는 세그멘테이션 정보에 아티팩트가 발생되어 있는 경우 해당 의료 이미지에 기초한 질병 판단의 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 반대로, 의료 이미지 내에 아티팩트가 발생되어 있더라도 아티팩트가 질병 판단의 근거가 될 수 있는 세그멘테이션 정보에 영향을 미치지 않는 경우 예컨대, 아티팩트가 세그멘테이션 정보와 중첩되지 않는 영역에 발생된 경우에는 해당 의료 이미지에 기초한 질병 판단의 결과는 일정 수준을 만족하는 신뢰도를 가질 수 있다. 따라서, 제4 이미지 품질 판단부(3770)는 의료 이미지 내에 아티팩트가 발생된 경우에도, 질병 판단의 근거가 될 수 있는 세그멘테이션 정보에 아티팩트가 영향을 미치는지를 고려하여 정상적으로 의료 이미지의 분석이 이루어질 수 있는지 여부를 판단하는 기능을 수행할 수 있다.
보다 구체적인 예로, 이미지 분석 장치(3000)가 뇌에 관한 MRI 이미지를 분석하는 경우, 뇌의 각 영역을 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 질병을 판단할 수 있는데, 이때 질병 판단의 근거가 될 수 있는 세그멘테이션된 뇌의 해부학적 영역 중 적어도 일부에 아티팩트가 발생되어 있는 경우 해당 의료 이미지에 기초한 질병 판단의 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 이에 따라, 제4 이미지 품질 판단부(3770)는 MRI 이미지가 포함하고 있는 뇌의 각 영역의 해부학적 구조 중 적어도 일부에 아티팩트가 발생되었는지를 고려하여 정상적으로 의료 이미지의 분석이 이루어질 수 있는지 여부를 판단하는 기능을 수행할 수 있다.
도 28은 제4 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 28을 참조하면, 제4 이미지 품질 판단 프로세스는 아티팩트 발생 위치 정보 획득 단계(S3771), 이미지 세그멘테이션 정보 획득 단계(S3773), 관심 영역(Region of interest) 획득 단계(S3775) 및 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)를 포함할 수 있다.
아티팩트 발생 위치 정보 획득 단계(S3771)는 아티팩트 발생 위치 정보를 획득하는 것을 포함할 수 있다. 이때, 아티팩트 발생 위치 정보는 이미지 분석 장치(3000)로부터 획득될 수 있다. 아티팩트 발생 위치 정보는 아티팩트 발생 위치에 관한 아티팩트 영역 정보 예컨대, 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내는 히트맵 형태의 샐리언시 맵, 의료 이미지 내에서 아티팩트가 위치하는 영역을 표시하기 위한 바운딩 박스, 의료 이미지 내에서 아티팩트가 위치하는 좌표 정보 또는 픽셀 정보 등을 포함할 수 있으며, 이에 관한 설명은 제2 이미지 품질 판단부(3730)와 관련하여 상술한 바 있으므로 자세한 설명은 생략한다.
이하에서 말하는 아티팩트는 노이즈 예컨대, 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 포함할 수 있다. 또한, 아티팩트는 이미지의 해상도, 이미지의 밝기 이 외에 부적절한 영상 샘플링의 결과로 만들어지는 다양한 화상의 결함을 포함할 수 있다.
이미지 세그멘테이션 정보 획득 단계(S3773)는 이미지 세그멘테이션 모듈(3500)에 의해 세그멘테이션된 의료 이미지에 기초하여 획득된 세그멘테이션 정보를 획득하는 것을 포함할 수 있다. 여기서, 이미지 세그멘테이션 정보는 의료 이미지를 해부학적으로 세그멘테이션하여 획득한 정보를 포함할 수 있다. 이미지 세그멘테이션 정보는 뇌를 촬영한 MRI 이미지를 해부학적으로 세그멘테이션하여 획득한 세그멘테이션 정보를 포함할 수 있으며, 이에 관한 설명은 제3 이미지 품질 판단부(3750)과 관련하여 상술한 바 있으므로 자세한 설명은 생략한다.
관심 영역 획득 단계(S3775)는 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 관심 영역과 관련된 정보를 획득하는 것을 포함할 수 있다. 관심 영역 획득 단계(S3775)는 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보 중에서 관심 영역과 관련된 정보를 획득하는 것을 포함할 수 있다. 관심 영역 획득 단계(S3775)는 의료 이미지를 세그멘테이션 하여 하나 이상의 영역을 획득하고, 관심 영역에 대응되는 영역을 획득할 수 있다.
관심 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 적어도 일부 영역을 포함할 수 있다. 관심 영역은, 의료 이미지 상의 특정 해부학적(또는 기능적) 요소에 대응되는 영역으로 미리 정의될 수 있다. 관심 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 의료 이미지의 중심에서 가장 외측에 위치한 영역을 포함할 수 있다. 관심 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 질병 진단의 근거가 되는 영역을 포함할 수 있다. 관심 영역은 뇌에 관한 MRI이미지를 기초로 이미지 품질 판단이 수행되는 경우, 의료 이미지 세그멘테이션을 통하여 획득한 뇌의 두개골 영역 및 두개골 내부 영역 중 적어도 일부를 포함할 수 있다. 관심 영역은 대상 질병의 진단과 관련된 요소일 수 있다.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 아티팩트 발생 위치와 관심 영역의 관계를 판단하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 포함되어 있는 아티팩트의 정보와 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 관심 영역에 관한 정보를 기초로 품질 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 발생된 아티팩트와 관심 영역의 중첩 정도가 질병 판단 결과의 신뢰도에 일정 수준 이하로 영향을 미치는지에 기초하여 이미지 품질 판단을 수행할 수 있다.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 발생된 아티팩트 중 적어도 일부가 관심 영역 상에 위치하였는지, 또는, 의료 이미지 내에 발생된 아티팩트 중 적어도 일부가 관심 영역과 중첩되는지 여부에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 아티팩트의 위치와 관련된 기준선(artifact boundary)과 관심 영역의 관계에 기초하여, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는 것을 포함할 수 있다. 여기서, 아티팩트 기준선(artifact boundary)는 아티팩트 영역의 외곽 라인일 수 있다. 아티팩트 기준선(artifact boundary)은, 아티팩트 유무를 판단하는 신경망 모델로부터 획득되고 아티팩트의 위치 추정과 관련된 샐리언시 맵(예컨대, CAM)에 기초하여 획득될 수 있다.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 상에서 아티팩트 영역의 외곽 라인 및 관심 영역의 외곽 라인을 획득하고, 아티팩트 영역의 외곽 라인과 관심 영역의 외곽 라인이 의료 이미지 상에서 중첩되는지 여부에 기초하여, 아티팩트와 관심 영역의 중첩 여부를 판단하는 것을 포함할 수 있다. 이 경우, 이미지 분석 장치(3000)는 아티팩트 영역의 외곽 라인과 관심 영역의 외곽 라인이 의료 이미지 상에서 중첩되는 교차점이 2개 미만인 경우 의료 이미지의 품질이 정상이라고 판단할 수 있다. 또는, 이미지 분석 장치(3000)는 교차점이 2개 이상인 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단할 수 있다.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 상에서, 아티팩트 영역 및 관심 영역에 모두 포함되는 공통 픽셀의 수를 획득하고, 공통 픽셀의 수를 이용하여 아티팩트와 상기 관심 영역의 중첩 정도를 판단하는 것을 포함할 수 있다. 이 경우, 이미지 분석 장치(3000)는 공통 픽셀수가 미리 정해진 기준 값을 초과하는 경우 의료 이미지의 품질이 비정상이라고 판단할 수 있다. 또는, 이미지 분석 장치(3000)는 공통 픽셀수가 미리 정해진 기준 값 이하인 경우 의료 이미지의 품질이 정상이라고 판단할 수 있다.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 관심영역 예컨대, 두개골 영역 또는 두개골 내부 영역 중 적어도 일부에 아티팩트가 발생되었는지 여부에 관한 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 관심 영역 예컨대, 두개골 영역 및 두개골 내부 영역 중 적어도 일부에 아티팩트가 중첩되었는지 여부에 관한 판단을 수행하는 것을 포함할 수 있다.
도 29는 아티팩트가 발생한 이미지를 예시하기 위한 도면이다. 이하에서는, 도 28 및 29를 참조하여, 아티팩트의 발생 범위에 따른, 이미지 품질 판단 프로세스에 대하여 설명한다.
도 29의 (a)를 참조하면, 두개골 영역 및 두개골의 내부 영역과 중첩되는 아티팩트를 포함하는 이미지가 획득될 수 있다. 도 29의 (b)를 참조하면, 두개골 영역의 일부와 중첩되는 아티팩트를 포함하는 이미지가 획득될 수 있다. 도 29의 (a) 및 (b)를 참조하면, 관심 영역은, 두개골 내부 영역 또는 두개골에 대응되는 영역일 수 있다.
도 29의(a)를 참조하면, 대상 의료 이미지가 두개골 영역 및 두개골의 내부 영역과 중첩되는 아티팩트를 포함하고, 관심 영역이 두개골 내부 영역 또는 두개골 영역인 경우, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는(S3777) 것은, 관심 영역과 아티팩트 발생 위치가 중첩되는 것으로 판단하는 것을 포함할 수 있다.
도 29(b)를 참조하면, 대상 의료 이미지가 두개골 영역과 중첩되는 아티팩트를 포함하고, 관심 영역이 두개골 내부 영역인 경우, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는(S3777) 것은, 관심 영역과 아티팩트 발생 위치가 중첩되지 않는 것으로 판단하는 것을 포함할 수 있다.
도 29(b)를 참조하면, 대상 의료 이미지가 두개골 영역과 중첩되는 아티팩트를 포함하고, 관심 영역이 두개골 영역인 경우, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는(S3777) 것은, 관심 영역과 아티팩트 발생 위치가 중첩되는 것으로 판단하는 것을 포함할 수 있다.
도 29에서 예시하는 아티팩트는 아티팩트 영역으로 판단된 영역을 의미할 수 있다. 아티팩트 영역으로 판단된 영역은, 아티팩트 영역을 획득하는 세그멘테이션 신경망 모델 또는 아티팩트 정보를 획득하는 분류기 모델을 통하여 획득될 수 있으며, 관련 내용은 이하에서 보다 자세히 설명한다.
제4 이미지 품질 판단은 아티팩트와 관련된 복수의 기준 영역을 획득하고, 각 기준 영역과 관심 영역의 중첩에 기초하여 이미지의 품질을 판단하는 것을 포함할 수 있다.
일 실시예에 따른 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 아티팩트의 위치와 관련된 아티팩트 정보와, 관심 영역이 분포하는 영역에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률에 관한 정보와 관심 영역 정보에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 발생된 아티팩트와 관심 영역의 중첩 정도가 미리 정해진 기준 값을 초과하는지를 판단하는 것을 포함할 수 있다.
의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률에 관한 정보는 아티팩트 영역 정보를 포함할 수 있다. 여기서, 아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 순서로 제1 아티팩트 영역 내지 제n 아티팩트 영역을 포함할 수 있다. 아티팩트 영역은 제2 이미지 품질 판단 프로세스에서 상술한 바와 같이 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함할 수 있고, 제1 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역일 수 있으며, 제2 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.
도 30는 다른 실시예에 따른 제4 이미지 품질 판단 프로세스에서 아티팩트가 관심 영역과 중첩되어 발생되었는지 판단하는 것을 설명하기 위한 도면이다.
도 30의 (b)를 참조하면, 아티팩트 영역은 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 순서로 제1 아티팩트(AR1) 영역, 제2 아티팩트 영역(AR2), 제3 아티팩트 영역(AR3) 또는 제4 아티팩트 영역(AR4)을 포함할 수 있다. 제1 아티팩트 영역(AR1) 내지 제4 아티팩트 영역(AR4)은 이미지 내 아티팩트가 위치하는 영역의 적어도 일부를 포함할 수 있다. 아티팩트 영역은 아티팩트와 높은 연관성을 보이는 순서대로 제1 아티팩트 영역(AR1), 제2 아티팩트 영역(AR2), 제3 아티팩트 영역(AR3) 및 제4 아티팩트 영역(AR4)일 수 있다.
또는, 아티팩트 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역(예를 들어, 제3 아티팩트 영역(AR3) 및 제4 아티팩트 영역(AR4))을 포함할 수 있다. 아티팩트 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역(예를 들어, 제1 아티팩트 영역(AR1) 및 제2 아티팩트 영역(AR2))을 포함할 수 있다.
도 30의 (b)를 참조하면, 아티팩트 영역 및 관심 영역에 모두 포함되는 공통 픽셀의 수를 이용하여 아티팩트와 관심 영역의 중첩 정도를 판단할 수 있다. 예를 들어, 제3 아티팩트 영역(A3) 및 제4 아티팩트 영역(A4)과 관심 영역에 모두 포함되는 공통 픽셀의 수가 미리 정해진 기준 값을 초과하는 경우 이미지 분석 장치(3000)는 의료 이미지의 품질이 비정상이라고 판단할 수 있다. 다른 예로, 제1 아티팩트 영역(A1) 및 제2 아티팩트 영역(A2)과 관심 영역에 모두 포함되는 공통 픽셀의 수가 미리 정해진 기준 값을 이하인 경우 이미지 분석 장치(3000)는 의료 이미지의 품질이 정상이라고 판단할 수 있다.
도 30의 (c)를 참조하면, 아티팩트 영역의 외곽 라인이 아티팩트 기준선(artifact boundary)으로 이용될 수 있다. 아티팩트 기준선(artifact boundary)은, 도 30의 (a)와 같은 아티팩트 영역과 관련된 특징맵에 기초하여 결정될 수 있다. 아티팩트 기준선(artifact boundary)은, 도 30의 (b)와 같은 제1 아티팩트 영역(AR1) 내지 제4 아티팩트 영역(AR4) 중 어느 하나의 바운더리로 결정될 수 있다. 아티팩트 기준선(artifact boundary)은 제1 아티팩트 영역(AR1) 내지 제4 아티팩트 영역(AR4)의 바운더리의 평균으로 결정될 수 있다.
아티팩트 기준선(artifact boundary)은 제1 영역(예컨대, 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역)의 외곽 라인일 수 있다. 아티팩트 기준선(artifact boundary)은 제2 영역(예컨대, 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역)의 외곽 라인일 수 있다.
아티팩트 기준선(artifact boundary)과 관심 영역의 관계에 기초하여, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는 것은, 아티팩트 기준선(artifact boundary)과 관심 영역의 중첩 여부에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다.
도 30의 (c)와 같이 아티팩트 기준선(artifact boundary)과 관심 영역의 외곽 라인이 의료 이미지 상에서 중첩되는 교차점이 2개 이상인 경우, 이미지 분석 장치(3000)는 대상 의료 이미지의 품질이 비정상이라고 판단할 수 있다.
대상 이미지 내에 복수의 아티팩트가 존재하는 경우, 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 복수의 아티팩트 중 어느 하나와 관심 영역의 중첩 여부 또는 중첩 정도에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다.
이미지 출력 장치는 이미지 품질 관련 정보 출력 모듈(3900)을 포함할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 분석 장치(3000)의 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과를 출력할 수 있다. 또한, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 분석 장치(3000)의 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과에 기초하여 생성된 정보를 출력할 수 있다.
이미지 출력 장치 또는 이미지 분석 장치는, 선택창 출력에 응답하여, 추가적인 동작을 지시하는 사용자 입력을 획득할 수 있다.
도 31은 일 실시예에 따른 이미지 품질 관련 정보 출력 모듈을 설명하기 위한 도면이다.
도 31을 참조하면, 이미지 품질 관련 정보 출력 모듈(3900)은 에러 정보 출력부(3910) 또는 선택창 출력부(3930) 중 적어도 어느 하나를 포함할 수 있다. 이 경우, 에러 정보 출력부(3910)는 이미지 품질 판단 결과를 기초로 획득한 정보에 관한 에러 정보를 출력할 수 있다. 선택창 출력부(3930)는 이미지 품질 판단 결과를 기초로 획득한 정보에 관한 선택창을 출력할 수 있다.
에러 정보 출력부(3910)와 선택창 출력부(3930)는 각각 독립된 이미지 품질 판단 결과에 기초하여 결정된 정보를 출력할 수 있다. 예컨대, 에러 정보 출력부(3910)는 제1 품질 판단 결과에 기초하여 결정된 에러 정보를 출력하고, 선택창 출력부(3930)는 제2 품질 판단 결과에 기초하여 결정된 선택창을 출력할 수 있다.
또는, 에러 정보 출력부(3910)와 선택창 출력부(3930)는 동일한 이미지 품질 판단 결과에 기초하여 결정된 정보를 출력할 수 있다. 에러 정보 출력부(3910)는 제1 품질 판단 결과에 기초하여 결정된 에러 정보를 출력하고, 선택창 출력부(3930)는 제1 품질 판단 결과에 기초하여 결정된 선택창을 출력할 수 있다.
도 31에서는, 에러 정보 출력부(3910)와 선택창 출력부(3930)가 구별되는 것으로 예시하였으나, 이는 예시에 불과하며, 에러 정보 출력부(3910)와 선택창 출력부(3930)는 하나의 물리적 또는 논리적 구성으로 마련될 수 있다. 예컨대, 이미지 품질 관련 정보 출력 모듈(3900)은 품질 판단 결과에 기초하여 생성된 에러 정보 및 에러 정보에 대응되는 선택창을 출력할 수도 있다.
선택창 출력부(3930)는 품질 판단 결과에 기초하여, 추가적으로 수행 가능한 동작과 관련한 사용자 지시를 획득하기 위한 선택창을 출력할 수 있다.
이미지 품질 관련 정보 출력 모듈(3900)은 에러 정보 또는 선택창 중 적어도 어느 하나를 텍스트 또는 이미지 형식으로 출력할 수 있다.
이미지 품질 관련 정보 출력 모듈(3900)은 에러 정보를 출력할 수 있다. 이 경우, 에러 정보는 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과를 기초로 획득된 정보를 포함할 수 있다. 또한, 에러 정보는 제1 이미지 품질 판단 결과와 관련된 제1 에러 정보, 제2 이미지 품질 판단 결과와 관련된 제2 에러 정보, 제3 이미지 품질 판단 결과와 관련된 제3 에러 정보 및 제4 이미지 품질 판단 결과와 관련된 제4 에러 정보 중 적어도 어느 하나를 포함할 수 있다.
이미지 품질 관련 정보 출력 모듈(3900)은 제1 에러 정보 화면을 출력할 수 있다. 제1 에러 정보는 제1 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다. 제1 에러 정보는 의료 이미지의 메타데이터 정보에 기초하여 획득한 정보를 포함할 수 있다.
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지의 파일 구조 정보 예컨대, 의료 이미지의 파일 형식, 의료 이미지의 포맷 또는 파일의 크기에 이상이 있는 경우 제1 에러 정보 화면을 출력할 수 있다. 이 경우, 제1 에러 정보 화면은 의료 이미지의 파일 구조 정보에 이상이 있다는 제1 알림창 또는 의료 이미지의 파일 구조에 관한 정보를 포함할 수 있다.
다른 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지에 환자 정보 예컨대, 환자의 성명, 나이 등의 인적 사항과 관련된 정보, 의료 이미지를 촬영한 시점과 관련된 정보 또는 환자의 건강 상태에 관한 정보 등이 누락되어 있는 경우 제1 에러 정보 화면을 출력할 수 있다. 이 경우, 제1 에러 정보는 의료 이미지에 환자 정보가 누락되어 있다는 제1 알림창 또는 의료 이미지에 누락 또는 포함되어 있는 환자 정보를 포함할 수 있다.
도 32는 제1 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 32의 (a)를 참조하면, 제1 에러 정보 화면은 제1 이미지 품질 판단에 기초한 의료 이미지(MI), 의료 이미지의 파일 구조 정보(DI) 또는 의료 이미지에 입력되어 있는 환자 정보(PI) 중 적어도 어느 하나를 포함할 수 있다.
이 경우, 의료 이미지(MI)는 제1 이미지 품질 판단에 사용된 의료 이미지가 표시된 이미지일 수 있다. 의료 이미지의 파일 구조 정보(DI)는 의료 이미지의 형식에 관한 제1 파일 구조 정보, 의료 이미지의 포맷에 관한 제2 파일 구조 정보 또는 의료 이미지의 크기에 관한 제3 파일 구조 정보를 포함할 수 있다. 이 경우, 도면에는 도시되지 않았으나 제1 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 파일 구조 정보(DI)에 관한 보다 상세한 내용(예를 들어, 환자의 생년월일, 환자의 주소, 촬영 시점, 촬영 장소, 촬영 장치 등)을 추가적으로 표시할 수 있다.
도 32의 (b)를 참조하면, 제1 에러 정보 화면은 제1 이미지 품질 판단 결과 의료 이미지가 비정상적이라는 제1 정보를 포함하는 제1 알림창(CO)을 포함할 수 있다. 예시적으로, 제1 알림창(CO)은 의료 이미지의 파일 구조에 이상이 있거나 의료 이미지에 환자 정보가 누락되었다는 에러 코드를 포함할 수 있다. 이 경우, 제1 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제1 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.
이미지 품질 관련 정보 출력 모듈(3900)은 제2 에러 정보 화면을 출력할 수 있다. 제2 에러 정보는 제2 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다. 제2 에러 정보는 노이즈 정보에 기초하여 획득한 정보를 포함할 수 있다. 제2 에러 정보는 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 기초로 획득한 정보를 포함할 수 있다.
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지에 노이즈가 포함되어 있는 경우 제2 에러 정보 화면을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 제2 에러 정보를 텍스트 또는 이미지 형식으로 출력할 수 있다.
예시적으로, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지에 아티팩트가 포함되어 있는 경우 제2 에러 정보 화면을 출력할 수 있다. 제2 에러 정보 화면은 의료 이미지 내에 아티팩트가 포함되어 있음을 알려주는 에러 메시지를 포함할 수 있다. 또한, 제2 에러 정보는 의료 이미지 내에 아티팩트가 발생된 위치에 관한 정보, 아티팩트의 발생 정도에 관한 정보, 아티팩트의 발생 범위에 관한 정보 또는 아티팩트의 종류에 관한 정보 중 어느 하나를 포함할 수 있다.
제2 에러 정보 화면은 텍스트 또는 이미지를 포함할 수 있다. 예를 들어, 제2 에러 정보 화면은 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내기 위한 표시, 예컨대 히트맵 형태의 이미지를 포함할 수 있다. 다른 예로, 제2 에러 정보 화면은 의료 이미지 내에서 아티팩트의 위치를 나타내는 바운딩 박스를 나타내는 이미지를 포함할 수 있다. 또 다른 예로, 제2 에러 정보 화면은 의료 이미지 내의 해부학적 세그멘테이션 정보를 나타내기 위한 이미지를 포함할 수 있다.
도 33 및 도 34는 제2 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 33의 (a)를 참조하면, 제2 에러 정보 화면은 제2 이미지 품질 판단과 관련 있는 의료 이미지(MI) 표시 영역을 포함할 수 있다. 제2 에러 정보 화면은 아티팩트 정보(AF) 출력 영역을 포함할 수 있다.
의료 이미지(MI)는 제2 이미지 품질 판단에 기초하여 의료 이미지 내에 아티팩트가 위치할 가능성이 높은 영역이 강조된 이미지일 수 있다. 의료 이미지(MI)는 아티팩트와 관련이 높은 것으로 판단된 영역이 히트맵 형태로 강조된 이미지일 수 있다. 의료 이미지(MI)는, 사용자 조작에 따라, 아티팩트의 종류, 발생 범위, 형태 등을 보다 자세히 확인할 수 있도록 확대 또는 축소될 수 있다.
아티팩트 정보(AF)는 아티팩트의 종류에 관한 정보, 아티팩트가 위치할 가능성이 높은 영역에 관한 정보 또는 아티팩트의 발생 정도에 관한 정보 중 적어도 어느 하나를 포함할 수 있다. 제2 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 아티팩트 정보(AF)에 관한 보다 상세한 내용(예를 들어, 이미지 내 특정 영역에 아티팩트가 위치할 확률에 관한 정보, 아티팩트의 발생 범위에 관한 히트맵 정보 또는 바운더리 정보 등)을 추가적으로 표시할 수 있다.
도 33의 (b)를 참조하면, 제2 에러 정보 화면은 의료 이미지 내에 포함된 아티팩트에 관한 제2 정보를 포함하는 제2 알림창(CO)를 포함할 수 있다. 예시적으로, 제2 알림창(CO)은 의료 이미지 내에 아티팩트가 발생되었다는 에러 코드가 표시된 메시지를 포함할 수 있다. 이 경우, 제2 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제2 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.
도 34를 참조하면, 아티팩트 정보(AF)는 아티팩트의 종류에 관한 정보를 포함하는 제1 아티팩트 정보(AF1), 아티팩트가 위치할 가능성이 높은 영역에 관한 정보를 포함하는 제2 아티팩트 정보(AF2) 또는 아티팩트의 발생 정도에 관한 정보를 포함하는 제3 아티팩트 정보(AF3)를 포함할 수 있다.
제1 아티팩트 정보(AF1)는 아티팩트의 종류에 관한 정보, 아티팩트가 발생된 이미지의 보정 가부에 관한 정보 등을 포함할 수 있다. 이 경우, 아티팩트가 발생된 이미지의 보정 가부에 관한 정보는 아티팩트의 종류, 발생 위치, 발생 범위 또는 발생 정도 중 어느 하나에 기초하여 획득된 정보를 포함할 수 있다.
제2 아티팩트 정보(AF2)는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역에 관한 정보, 의료 이미지 내의 해부학적 구조에 대응되는 영역 중 분석 가능 영역 등에 관한 정보를 포함할 수 있다. 이 경우, 분석 가능 영역에 관한 정보는 해부학적 세그멘테이션 정보와 아티팩트 발생 위치 정보에 기초하여 획득될 수 있다. 예시적으로, 진단 영역에 관한 정보는 의료 이미지 내의 해부학적 구조에 대응되는 영역 중 아티팩트와 중첩되지 않는 영역에 관한 정보 또는 의료 이미지 내의 해부학적 구조에 대응되는 영역 중 아티팩트와 중첩 정도가 낮은 영역에 관한 정보 등을 포함할 수 있다. 이때, 분석 가능 영역에 따라 진단 가능 질병은 달라질 수 있다.
제3 아티팩트 정보(AF3)은 아티팩트의 발생 정도, 레벨, 범위 등에 관한 정보를 포함할 수 있다. 이 경우, 이미지 분석 장치는 제3 아티팩트 정보(AF3)에 기초하여 이미지 분석 진행 가부에 관한 판단을 수행할 수 있다. 예를 들어, 이미지 분석 장치는 의료 이미지 내에 아티팩트가 발생된 경우에도 제3 아티팩트 정보(AF3)에 기초하여 아티팩트의 발생 정도가 미리 정해진 기준 값보다 낮다고 판단되는 경우 이미지 분석 진행을 수행할 수 있다고 판단할 수 있다.
이미지 품질 관련 정보 출력 모듈(3900)은 제3 에러 정보 화면을 출력할 수 있다. 제3 에러 정보는 제3 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다. 또한, 제3 에러 정보는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초로 획득한 정보를 포함할 수 있다.
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지가 포함하고 있는 해부학적 구조 중 적어도 일부가 미리 정해진 정량적인 기준을 만족하지 않는 경우 제3 에러 정보 화면을 출력할 수 있다. 예를 들어, 이미지 품질 관련 정보 출력 모듈(3900)은 의료 이미지 내에 포함되고 인체의 일 부위에 대응되는 소정 영역과 관련된 값이 기준을 만족하지 않는 경우 제3 에러 정보 화면을 출력할 수 있다. 보다 구체적인 예로, 이미지 품질 관련 정보 출력 모듈(3900)은 뇌에 관한 MRI 이미지에 포함되어 있는 뇌의 일 부위에 대응되는 소정 영역의 부피 값이 미리 정해진 기준 값을 만족하지 않는 경우 제3 에러 정보 화면을 출력할 수 있다. 또한, 이미지 품질 관련 정보 출력 모듈(3900)은 제3 에러 정보 화면을 텍스트 또는 이미지 형식으로 출력할 수 있다.
제3 에러 정보는 의료 이미지 내의 해부학적 구조 중 적어도 일부에 이상이 있다는 에러 메시지 또는 이상이 있는 해부학적 구조에 관한 정보를 포함할 수 있다. 보다 구체적인 예로, 제3 에러 정보는 이미지 세그멘테이션 결과를 기초로 품질 판단을 수행할 대상 영역에 관련된 정보를 포함할 수 있다. 제3 에러 정보는 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 질병 판단 결과의 신뢰도에 영향을 미칠 수 있는 적어도 일부 영역에 관련된 정보를 포함할 수 있다.
제3 에러 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 지표 또는 형태학적 값 예컨대, 면적, 부피, 위치 또는 모양 등에 관한 정보를 포함할 수 있다.
제3 에러 정보는 대상 영역의 형태학적 지표 또는 형태학적 값과 미리 정해진 기준 값의 비교 결과에 관한 정보를 포함할 수 있다. 보다 구체적인 예로, 제3 에러 정보는 의료 이미지가 포함하고 있는 해부학적 구조 중 적어도 일부가 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함할 수 있다.
제3 에러 정보 화면은 텍스트 또는 이미지를 포함할 수 있다. 제3 에러 정보 화면은 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 지표 또는 형태학적 값을 수치로 나타낸 텍스트를 포함할 수 있다. 제3 에러 정보 화면은 품질 판단의 기준이 되는 해부학적 구조에 대응되는 대상 영역이 원본 의료 이미지상에 표시된 이미지를 포함할 수 있다.
도 35 및 도 36은 제3 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 35의 (a)를 참조하면, 제3 에러 정보 화면은 제3 이미지 품질 판단과 관련 있는 의료 이미지(MI) 또는 영역 정보(RI)를 포함할 수 있다.
이 경우, 의료 이미지(MI)는 이미지 세그멘테이션 결과를 기초로 제3 이미지 품질 판단에 이용되는 대상 영역에 관련된 정보를 포함할 수 있다. 예를 들어, 의료 이미지의 하측이 온전히 촬영되었는지 판단하는 경우, 의료 이미지는 품질 판단을 수행할 대상 영역, 예컨대, 소뇌와 관련된 정보가 표현된 이미지를 포함할 수 있다. 제3 에러 정보 화면은 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 정보를 보다 자세히 확인하기 위해 의료 이미지(MI)를 확대 또는 축소할 수 있는 버튼을 포함할 수 있다. 또한, 영역 정보(RI)는 이미지 품질 판단을 수행할 대상 영역과 관련된 정보, 의료 이미지에서 온전히 촬영되지 못한 부분에 관한 정보 또는 대상 영역이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보 중 어느 하나를 포함할 수 있다. 이때, 제3 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 영역 정보(RI)에 관한 보다 상세한 내용(예를 들어, 품질 판단의 대상이 된 인체의 영역 정보, 품질 판단의 대상이 된 이미지 영역에 관한 정보 등)을 추가적으로 표시할 수 있다.
도 35의 (b)를 참조하면, 제3 에러 정보 화면은 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 제3 정보를 포함하는 제3 알림창(CO)을 포함할 수 있다. 예시적으로, 제3 알림창(CO)은 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 에러 정보 예컨대, 세그멘테이션 정보가 미리 정해진 정량적인 기준을 만족하지 못하였다는 에러 코드가 표시된 메시지를 포함할 수 있다. 이 경우, 제3 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제3 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.
도 36를 참조하면, 영역 정보(RI)는 의료 이미지의 제1 부분에 포함된 제1 대상 영역 및 제1 대상 영역이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함하는 제1 영역 정보(RI1), 의료 이미지의 제2 부분에 포함된 제2 대상 영역 및 제2 대상 영역이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함하는 제2 영역 정보(RI2) 또는 의료 이미지 내의 해부학적 구조의 배치에 관한 정보 및 보정 가부에 관한 정보를 포함하는 제3 영역 정보(RI3)를 포함할 수 있다.
예시적으로, 제1 영역 정보(RI1)는 의료 이미지의 상부에 위치하는 대상 영역 예컨대, 전두엽에 관한 형태학적 지표 또는 형태학적 값이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함할 수 있다.
제2 영역 정보(RI2)는 의료 이미지의 하부에 위치하는 대상 영역 예컨대, 소뇌에 관한 형태학적 지표 또는 형태학적 값이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함할 수 있다.
제3 영역 정보(RI3)는 의료 이미지 내의 해부학적 구조의 배치에 관한 정보 예컨대, 의료 이미지 내의 해부학적 구조가 기울어져 촬영되었는지에 관한 정보 및 이에 기초하여 의료 이미지를 보정할 수 있는지에 관한 판단 정보를 포함할 수 있다.
이미지 품질 관련 정보 출력 모듈(3900)은 제4 에러 정보 화면을 출력할 수 있다. 제4 에러 정보는 제4 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다.
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는 경우 제4 에러 정보 화면을 출력할 수 있다.
제4 에러 정보는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보와 이미지 획득 장치로부터 획득한 의료 이미지에서 추출한 아티팩트 정보 간의 관계를 기초로 획득한 정보를 포함할 수 있다. 예시적으로, 제4 에러 정보는 MRI 이미지가 포함하고 있는 뇌의 각 영역의 해부학적 구조 중 적어도 일부에 아티팩트가 발생되었는지에 관한 정보를 포함할 수 있다.
제4 에러 정보는 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는지에 관한 정보를 포함할 수 있다. 또한, 제4 에러 정보는 의료 이미지 내에 발생된 아티팩트와 의료 이미지 내에 포함되어 있는 해부학적 구조 중 적어도 일부의 중첩 정도에 관한 정보를 포함할 수 있다. 또한, 제4 에러 정보는 의료 이미지 내에 발생된 아티팩트와 의료 이미지 내에 포함되어 있는 해부학적 구조 중 적어도 일부의 중첩 정도에 기초하여 의료 이미지의 분석을 통한 질병 판단 결과의 신뢰도에 관한 정보를 포함할 수 있다.
제4 에러 정보는 의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률과 관심 영역 간의 관계에 관한 정보를 포함할 수 있다. 또한, 제4 에러 정보는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역인 제1 아티팩트 영역, 의료 이미지 내에서 아티팩트가 위치할 가능성이 보통인 영역인 제2 아티팩트 영역 또는 의료 이미지 내에서 아티팩트가 위치할 가능성이 낮은 영역인 제3 아티팩트 영역에 관한 정보 중 적어도 어느 하나를 포함할 수 있다. 제1 내지 제3 아티팩트 영역은 원본 의료 이미지 상에 시각적으로 강조될 수 있다. 제1 내지 제3 아티팩트 영역은 히트맵 형태로, 원본 의료 이미지 상에 중첩되어 표시될 수 있다.
제4 에러 정보 화면은 텍스트 또는 이미지를 포함할 수 있다. 예를 들어, 제4 에러 정보 화면은 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 상에 아티팩트 영역 정보 예컨대, 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내는 히트맵 형태의 샐리언시 맵, 의료 이미지 내에서 아티팩트가 위치하는 영역을 표시하기 위한 바운딩 박스, 의료 이미지 내에서 아티팩트가 위치하는 좌표 정보 또는 픽셀 정보 등을 표시한 이미지를 포함할 수 있다.
도 37 및 도 38은 제4 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 37의 (a)를 참조하면, 제4 에러 정보 화면은 제4 이미지 품질 판단과 관련 있는 의료 이미지(MI) 또는 아티팩트와 관심 영역 간의 관계에 관한 정보(QI) 중 적어도 어느 하나를 포함할 수 있다.
의료 이미지(MI)는 이미지 내에 관심 영역이 표시된 이미지일 수 있다. 의료 이미지(MI)는 이미지 내의 특정 영역에 아티팩트가 위치할 가능성이 높은 영역이 표시된 이미지일 수 있다.
의료 이미지(MI)는 아티팩트의 위치 정보에 기초하여 획득된 관심 영역과 아티팩트의 중첩 정도를 표시할 수 있다. 예를 들어, 의료 이미지(MI)는 관심 영역과 아티팩트가 중첩된 영역에 관련된 정보 예컨대, 중첩된 영역의 면적, 모양, 픽셀의 수 등을 표시할 수 있다. 의료 이미지(MI)는 관심 영역과 관심 영역 중 아티팩트와 중첩되는 영역의 비율을 표시할 수 있다.
의료 이미지(MI)는 의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률과 관심 영역 간의 관계가 표시된 이미지일 수 있다.
예를 들어, 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 시각적으로 강조되도록 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 히트맵 형식으로 표시되거나 아티팩트에 대응되는 영역의 경계선 예컨대, 외곽 라인이 표시된 이미지일 수 있다.
또는, 의료 이미지(MI)는 아티팩트와 관심 영역이 중첩되는 부분이 시각적으로 강조되도록 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역의 경계선 예컨대, 외곽 라인이 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 히트맵 형식으로 표시된 이미지일 수 있다.
아티팩트와 관심 영역 간의 관계에 관한 정보(QI)는 관심 영역의 종류에 관한 정보, 관심 영역과 아티팩트의 중첩 정보 또는 중첩 정보에 기초한 품질 판단 결과 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이 경우, 제4 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 아티팩트와 관심 영역 간의 관계에 관한 정보(QI)에 관한 보다 상세한 내용(예를 들면, 관심 영역과 아티팩트가 중첩되는 정도를 보다 세분화된 단계로 나누어 표현한 정보, 관심 영역과 아티팩트가 중첩되는 정도를 수치로 나타낸 정보, 관심 영역 중 아티팩트와 중첩되는 부분에 관한 상세 정보 등)을 추가적으로 표시할 수 있다.
도 37의 (b)를 참조하면, 제4 에러 정보 화면은 의료 이미지 내의 관심 영역에 관한 제4 정보를 포함하는 제4 알림창(CO)을 포함할 수 있다.
제4 알림창(CO)은 관심 영역 중 적어도 일부와 아티팩트가 중첩되었다는 정보가 포함된 에러 코드가 표시된 메시지를 포함할 수 있다. 이 경우, 제4 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제4 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.
제4 알림창(CO)은 관심 영역 중 적어도 일부와 아티팩트가 중첩된 경우 계속하여 이미지 분석을 진행할지 여부를 선택할 수 있는 오브젝트를 포함하고, 이미지 분석 장치(3900)는 이미지 분석 진행 오브젝트에 대한 사용자의 선택에 따라 계속하여 이미지 분석을 진행할 수 있다.
제4 알림창(CO)은 관심 영역 중 적어도 일부와 아티팩트가 중첩된 경우 이미지 분석을 중단 오브젝트를 포함하고, 이미지 분석 장치(3900)는 이미지 분석 중단 오브젝트에 대한 사용자의 선택에 따라 이미지 분석을 중단할 수 있다.
도 38을 참조하면, 아티팩트와 관심 영역 간의 관계에 관한 정보(QI)는 의료 이미지 내에 발생된 아티팩트 정보(QI1), 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 관심 영역 정보(QI2) 또는 아티팩트와 해부학적 구조에 대응되는 영역의 중첩 정도에 관한 정보(QI3) 중 적어도 하나를 포함할 수 있다. 예시적으로, 제4 에러 정보는 관심 영역이 두개골로 특정된 경우, 두개골에 대응되는 소정 영역에 아티팩트가 발생되어 있는지에 관한 정보, 두개골에 대응되는 소정 영역과 아티팩트의 중첩 정도에 관한 정보 등을 포함할 수 있다.
도 39 및 도 40은 이미지 품질 관련 정보 출력 모듈(3900)이 출력하는 선택창을 예시적으로 설명하기 위한 도면이다.
상술한 바와 같이 획득된 의료 데이터에 부적절한 형식적 또는 실질적 흠결이 존재하는 경우 상기 의료 데이터에 기초한 이미지 분석의 결과는 일정 수준 이상의 신뢰도를 갖기 어려울 수 있다.
다만, 의료 데이터에 형식적 또는 실질적 흠결이 존재하더라도, 일정 기준 예컨대, 의료 데이터에 존재하는 흠결의 종류 또는 정도에 관한 기준을 만족하는 경우 이미지 분석이 계속하여 수행될 수 있다. 이에 따라, 의료 데이터에 일정 흠결이 존재하는 경우에도, 일률적으로 이미지 분석의 진행을 중단하는 것이 아니라, 일정 기준에 따라 이미지 분석의 진행 여부를 결정하거나 의료 이미지를 보정 또는 재촬영한 후 이미지 분석을 다시 진행할 수 있도록 함으로써, 시간 및 비용 측면에서 경제적이고 효율적으로 이미지 분석을 수행할 수 있다.
본 발명의 이미지 품질 판단 프로세스는 의료 데이터에 일정 흠결이 발생한 경우, 상기 흠결에도 불구하고 이미지 분석 장치가 이미지 분석을 계속하여 수행할 수 있을지 판단할 수 있는 기준을 제공하는 것을 포함할 수 있다. 또한, 이미지 품질 판단 프로세스는 의료 데이터의 품질과 관련된 정보를 사용자에게 제공하고, 사용자의 선택에 따라 이미지 분석의 진행 여부가 결정되거나 의료 이미지를 보정 또는 재촬영한 후 이미지 분석의 재수행이 결정되도록 하는 수단을 제공할 수 있다.
도 39을 참조하면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 결과에 기초하여 선택창을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단을 통해 이미지의 품질이 정상적이지 않다고 판단되는 경우 선택창을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단을 통해 이미지의 품질이 정상적이라고 판단되는 경우 이미지 분석을 진행한 후 이미지 품질 관련 정보를 출력할 수 있다.
선택창은 이미지 품질 판단에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 의료 이미지의 품질이 이미지 분석 진행이 수행되기에 적합하지 않음을 나타내는 메시지를 포함할 수 있다.
도 40을 참조하면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 결과에 기초하여 선택창을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단을 통해 이미지 품질이 정상적이지 않다고 판단되는 경우, 이미지 분석 진행과 관련한 사용자 지시를 획득하기 위한 선택창을 출력할 수 있다. 이에 따라, 이미지 분석 장치는 의료 데이터에 흠결이 발생한 경우에도, 일정 기준에 기초한 사용자의 선택에 따라 이미지 분석을 계속하여 진행할 수 있다. 이미지 분석 장치는 의료 데이터에 흠결이 발생한 경우에도, 사용자의 선택에 따라 의료 이미지를 보정 또는 재촬영한 후 이미지 분석을 다시 진행할 수 있다.
선택창은 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 제1 이미지 품질 판단부(3710) 내지 제4 이미지 품질 판단부(3770)가 수행한 결과에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 의료 이미지의 품질이 일정 수준을 만족하지 못하고 있음을 나타내는 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 의료 이미지의 품질이 이미지 분석 진행이 수행되기에 적합하지 않음을 나타내는 메시지를 포함할 수 있다.
선택창은 상술한 메시지에 대한 사용자의 동의 여부를 획득하기 위한 제1 버튼 및 제2 버튼을 포함할 수 있다. 이미지 분석 장치는 사용자의 제1 버튼의 선택에 따라 이미지 분석 진행 여부를 선택할 수 있는 추가적인 메시지를 출력할 수 있다. 이미지 분석 장치는 사용자의 제2 버튼의 선택에 따라 상기 메시지에 관한 보다 상세한 내용을 출력할 수 있다.
선택창은 이미지 분석 장치에 의한 이미지 분석 진행과 관련한 사용자 지시를 획득하기 위한 제1 선택창을 포함할 수 있다. 즉, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 모듈(3700)이 수행한 결과에 기초하여 이미지 분석 장치에 의한 이미지 분석을 계속하여 진행할지 여부에 관한 사용자 지시를 획득하기 위한 제1 선택창을 출력할 수 있다.
선택창은 이미지 품질 판단 프로세스를 다시 수행하는 동작과 관련한 사용자의 지시를 획득하기 위한 제2 선택창을 포함할 수 있다. 즉, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 모듈(3700)이 수행한 결과에 기초하여 이미지 품질 판단 프로세스를 다시 진행할지에 관한 사용자의 지시를 획득하기 위한 제2 선택창을 출력할 수 있다.
일 실시예에 따르면, 제2 이미지 품질 판단부(3730)에 의한 품질 판단 결과 의료 이미지 내에 아티팩트가 포함되어 있다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 제1 선택창을 출력할 수 있다.
제1 선택창은 의료 이미지 내에 포함되어 있는 아티팩트 정보 예컨대, 아티팩트 발생 여부, 아티팩트 발생 위치, 아티팩트 발생 정도, 아티팩트 발생 범위 또는 아티팩트 종류 등에 관한 제1 메시지를 출력할 수 있다.
제2 이미지 품질 판단부(3730)에 의한 품질 판단 결과 의료 이미지 내에 아티팩트가 포함되어 있다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 프로세스의 재 수행과 관련한 사용자의 지시를 획득할 수 있는 제2 선택창을 출력할 수 있다.
제2 선택창은 의료 이미지 내에 포함되어 있는 아티팩트를 보정 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다. 제2 선택창은 의료 이미지를 재촬영한 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다.
다른 실시예에 따르면, 제3 이미지 품질 판단부(3750)에 의한 품질 판단 결과 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 세그멘테이션 정보가 정량적인 기준을 만족하지 못한다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 제1 선택창을 출력할 수 있다.
제1 선택창은 의료 이미지 세그멘테이션을 통하여 획득한 영역 중 적어도 일부 영역에 관한 형태학적 지표 또는 형태학적 값, 예컨대, 해당 영역의 면적, 부피, 위치 또는 모양 등에 관한 제1 메시지를 포함할 수 있다.
제3 이미지 품질 판단부(3750)에 의한 품질 판단 결과 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 세그멘테이션 정보가 정량적인 기준을 만족하지 못한다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 프로세스의 재 수행 동작과 관련한 사용자의 지시를 획득할 수 있는 제2 선택창을 출력할 수 있다.
제2 선택창은 의료 이미지 내의 해부학적 세그멘테이션 정보를 보정 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자 지시를 요청하는 제2 메시지를 출력할 수 있다. 제2 선택창은 의료 이미지를 재촬영한 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다.
일 실시예에 따르면, 제4 이미지 품질 판단부(3770)에 의한 품질 판단 결과 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 제1 선택창을 출력할 수 있다.
제1 선택창은 의료 이미지 내에 포함되어 있는 아티팩트와 관심 영역의 관계 정보 예컨대, 아티팩트와 관심 영역의 중첩 정도, 관심 영역 내에 존재하는 아티팩트의 위치 정보 등에 관한 제1 메시지를 출력할 수 있다.
제4 이미지 품질 판단부(3770)에 의한 품질 판단 결과 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 사용자가 이미지 품질 판단 프로세스를의 재 수행과 관련한 사용자의 지시를 획득할 수 있는 제2 선택창을 출력할 수 있다.
제2 선택창은 의료 이미지 내에 포함되어 있는 해부학적 구조 중 적어도 일부를 보정 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다. 제2 선택 창은 의료 이미지를 재촬영한 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다.
이하에서는 다양한 실시예에 따른 품질 판단 프로세스를 설명한다. 특별한 설명이 없는 한 각 단계의 내용은 본 명세서에서 전술한 내용이 유사하게 적용될 수 있다.
도 41 내지 도 43은 제1 내지 제3 품질 판단 프로세스를 설명하기 위한 도면이다. 제1 내지 제4 품질 판단 프로세스는 품질 판단의 기준이 되는 데이터, 품질 판단의 기준이 되는 품질 기준, 출력되는 품질 정보 등이 상이할 수 있다.
도 41 내지 도 43을 참조하면, 제1 내지 제3 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 품질 판단 단계(S3300), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400) 또는 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다.
도 41을 참조하면, 제1 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 품질 판단 단계(S3300), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400) 및 의료 이미지 품질 관련 정보 출력 단계(S3500) 순서로 수행될 수 있다. 이 경우, 의료 이미지 품질 판단 단계(S3300)는 전처리 동작 전에 로데이터에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 의료 이미지 전처리 단계(S3200)는 의료 이미지 품질 판단이 수행된 이미지에 대하여 전처리를 수행하는 것을 포함할 수 있다.
도 42을 참조하면, 제2 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 전처리 단계(S3200), 의료 이미지 품질 판단 단계(S3300), 의료 이미지 세그멘테이션 단계(S3400) 및 의료 이미지 품질 관련 정보 출력 단계(S3500) 순서로 수행될 수 있다. 이 경우, 의료 이미지 품질 판단 단계(S3300)는 전처리가 수행된 이미지를 기초로 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 의료 이미지 세그멘테이션 단계(S3400)는 의료 이미지 품질 판단이 수행된 이미지에 대하여 세그멘테이션을 수행하는 것을 포함할 수 있다.
도 43을 참조하면, 제3 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400) 의료 이미지 품질 판단 단계(S3300), 및 의료 이미지 품질 관련 정보 출력 단계(S3500) 순서로 수행될 수 있다. 이 경우, 의료 이미지 품질 판단 단계(S3300)는 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다.
도 44 및 도 45는 제4 품질 판단 프로세스를 설명하기 위한 도면이다.
도 44를 참조하면, 제4 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 제1 이미지 품질 판단 단계(S3310), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400), 제2 이미지 품질 판단 단계(S3320), 제3 이미지 품질 판단 단계(S3330), 제4 이미지 품질 판단 단계(S3340) 및 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다.
제1 이미지 품질 판단 단계(S3310)는 전처리 동작 전에 로데이터에 기초하여 제1 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 제2 내지 제4 이미지 품질 판단 단계는 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제2 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 이때, 제2 내지 제4 이미지 품질 판단 단계의 순서는 본 명세서에서 설명하는 발명의 내용을 한정하는 것은 아니며, 각 단계의 순서는 변경될 수 있다.
예를 들어, 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제3 이미지 품질 판단 단계(S3330)가 수행된 후 제2 이미지 품질 판단 단계(S3320)가 수행될 수 있다. 또는, 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제2 이미지 품질 판단 단계(S3320)와 제3 이미지 품질 판단 단계(S3330)는 병렬적으로 수행될 수 있다.
도 45를 참조하면, 이미지 분석 장치(3000)는 이미지 획득 장치로부터 의료 이미지를 획득(S3910)할 수 있다. 이미지 분석 장치(3000)는 획득된 의료 이미지에 기초하여 1차 이미지 품질 판단을 수행(S3911)할 수 있다. 여기서, 1차 이미지 품질 판단은 의료 이미지 세그멘테이션 동작 전에 수행되는 일련의 품질 판단을 포함할 수 있다. 예를 들어, 1차 이미지 품질 판단은 의료 이미지의 메타데이터에 기초하여 수행되는 품질 판단을 포함할 수 있다.
이때, 1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족하지 못한다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단하고 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다.
1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족한다고 판단되는 경우, 이미지 분석 장치(3000)는 의료 이미지 세그멘테이션을 수행(S3913)할 수 있다. 또한, 이미지 분석 장치(3000)는 세그멘테이션 동작이 수행된 의료 이미지에 기초하여 2차 이미지 품질 판단을 수행(S3914)할 수 있다.
2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 의료 이미지 분석을 계속하여 수행(S3917)한 후 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다.
2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되었다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단할 수 있다. 이 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단한 후 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다. 예시적으로, 2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되었다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단한 후 의료 이미지를 보정한 다음 이미지 품질 판단 프로세스를 다시 수행할 수 있다. 다른 예로, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단한 후 의료 이미지를 재촬영한 다음 이미지 품질 판단 프로세스를 다시 수행할 수 있다.
2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석을 계속하여 수행(S3917)한 후 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다.
도 46 및 도 47은 제5 품질 판단 프로세스를 설명하기 위한 도면이다.
도 46을 참조하면, 제5 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 제1 이미지 품질 판단 단계(S3310), 의료 이미지 전처리 단계(S3200), 제2 이미지 품질 판단 단계(S3320), 의료 이미지 세그멘테이션 단계(S3400), 제3 이미지 품질 판단 단계(S3330), 제4 이미지 품질 판단 단계(S3340) 및 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다.
제1 이미지 품질 판단 단계(S3310)는 전처리 동작 전에 로데이터에 기초하여 제1 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 제2 이미지 품질 판단 단계(S3320)는 전처리 동작이 수행된 이미지에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다. 제3 이미지 품질 판단 단계(S3330) 및 제4 이미지 품질 판단 단계(S3340)는 세그멘테이션 동작이 수행된 이미지에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다.
제3 이미지 품질 판단 단계(S3330) 및 제4 이미지 품질 판단 단계(S3340)의 순서는 본 명세서에서 설명하는 발명의 내용을 한정하는 것은 아니며, 각 단계의 순서는 변경될 수 있다. 예를 들어, 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제3 이미지 품질 판단 단계(S3330)와 제4 이미지 품질 판단 단계(S3340)는 병렬적으로 수행될 수 있다.
도 47을 참조하면, 이미지 분석 장치(3000)는 이미지 획득 장치로부터 의료 이미지를 획득(S3920)할 수 있다. 이미지 분석 장치(3000)는 획득된 의료 이미지에 기초하여 1차 이미지 품질 판단을 수행(S3921)할 수 있다.
1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족하지 못한다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단하고 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다.
1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족한다고 판단되는 경우, 이미지 분석 장치(3000)는 2차 이미지 품질 판단을 수행(S3923)할 수 있다. 여기서, 2차 이미지 품질 판단은 이미지 세그멘테이션 동작 전에 수행되는 일련의 품질 판단을 포함할 수 있다.
이미지 분석 장치(3000)는 2차 이미지 품질 판단이 수행된 의료 이미지에 기초하여 의료 이미지 세그멘테이션을 수행(S3924)할 수 있다. 또한, 이미지 분석 장치(3000)는 의료 이미지 세그멘테이션이 수행된 세그멘테이션 정보에 기초하여 3차 이미지 품질 판단을 수행(3925)할 수 있다. 여기서, 3차 이미지 품질 판단은 이미지 세그멘테이션 동작 후에 수행되는 일련의 품질 판단을 포함할 수 있다.
3차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 의료 이미지 분석을 계속하여 수행한 후 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다.
3차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되었다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단3000하고, 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다. 여기서, 의료 이미지 품질 관련 정보란 1차 내지 3차 이미지 품질 판단에 기초한 정보를 포함할 수 있다.
3차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석을 계속하여 수행한 후 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다. 여기서, 의료 이미지 품질 관련 정보란 1차 내지 3차 이미지 품질 판단에 기초한 정보를 포함할 수 있다.
본 명세서에 따른 이미지 품질 판단 프로세스는 도 44 내지 도 47에 설명된 순서 외의 다른 순서로도 구현될 수 있다.
뇌와 관련된 질환, 특히 치매와 관련하여, 뇌의 수축 정도가 지표화되어 치매 진단의 보조 지표로 사용되고 있다. 뇌의 수축 정도와 관련하여 다양한 지표가 있으며, 그 지표를 획득하기 위한 일 예로 두개골 내부 부피 분석(Intracranial Volume Analysis, ICV Analysis)이 치매 진단과 관련된 보조 지표를 제공하는데 사용되고 있다. 다만, 종래의 두개골 내부 부피 분석은, 대상체의 대상 이미지를 표준 뇌 모델에 정합시키는 방법을 사용하였다. 다만, 표준 뇌 모델에 대상체의 대상 이미지를 정합하는 방식은, 인종 간의 표준 뇌 모델의 차이가 존재하여 인종을 고려한 부피 분석이 제대로 반영되지 않아 부정확할 수 있다는 문제가 존재하였다. 또한, 개인별 두뇌 구조를 표준 뇌 모델에 정합시킴에 따라, 개인의 두뇌에 대한 특성을 반영하는 부피 분석에는 한계가 존재한다는 문제가 존재하였다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 대상 이미지를 표준 뇌 모델에 정합하지 않고, 대상 이미지의 세그멘테이션을 수행하여 대상체의 두개골과 그 내부 영역을 획득할 수 있으며, 이에 기초한 두개골 내부 부피 분석의 정확도가 개선될 수 있다는 유리한 효과를 제공할 수 있다.
이하에서는 도 48 내지 도 57을 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 부피 분석 방법을 구체적으로 서술한다.
도 48을 참고한다. 도 48은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 분석 방법의 일 동작을 도시한 흐름도이다. 구체적으로 도 48은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 뇌의 형태학적 지표를 획득하는 동작을 도시한 흐름도이다.
본 출원의 일 실시예에 따른 이미지 분석 방법은 이미지를 획득하는 단계(S4100); 이미지의 전처리 단계 및 이미지 정렬 단계(S4200), 이미지 세그멘테이션 단계(S4300) 및 형태학적 지표를 획득하는 단계(S4400)를 포함할 수 있다.
이미지를 획득하는 단계(S4100)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 대상 이미지를 획득할 수 있다.
이미지의 전처리 및 이미지의 정렬 단계(S4200)에서는, 상술한 이미지의 전 처리 동작들이 수행될 수 있다. 예를 들어, 이미지의 전처리 및 이미지의 정렬 단계(S4200)에서, 이미지 분석 장치(2000)는 대상 이미지의 형식의 변환, 이미지의 노이즈 제거 혹은 이미지의 인텐시티(intensity) 보정과 같은 대상 이미지의 전 처리 동작을 수행하도록 구현될 수 있다.
또한, 이미지의 전처리 및 이미지의 정렬 단계(S4200)에서는, 도 5 내지 도 6과 관련하여 상술한, 이미지의 정렬 동작들이 수행될 수 있다. 대상 이미지를 정렬함으로써, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 신경망 모델의 학습 데이터의 이미지의 방향과 대응되는 방향을 가진 대상 이미지를 신경망 모델에 입력할 수 있어, 통일된 기준 하에 분석 결과를 도출할 수 있다.
일 예로, 이미지 분석 장치(2000)는 대상 이미지에 대하여 메타데이터(metadata)로서 구조화된 뇌 이미지의 방향(orientation)과 관련된 데이터에 기초하여 이미지의 방향을 정렬하는 동작을 수행하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 대상 이미지의 메타 데이터를 이용하여, 촬영된 뇌 이미지를 대상체의 좌우(left, right), 전후(anterior, posterior), 상하(superial, inferior)에 대하여 일치시키는 이미지 정렬 동작을 수행할 수 있다.
다른 예로, 이미지 분석 장치(2000)는, 이미지의 정렬 동작의 한 방법으로서 대상 이미지의 공간 정규화를 수행하도록 구현될 수 있다. 구체적으로 이미지 분석 장치(2000)는 뇌 템플릿에 기초하여 대상 이미지의 공간 정규화를 수행하도록 구현될 수 있다. 보다 구체적으로 이미지 분석 장치(2000)는 대상 이미지를 뇌 템플렛에 정합함으로써 대상 이미지의 공간적 분포를 인공 신경망 모델에 대하여 최적의 상태가 되도록 대상 이미지의 좌표를 변환하고, 대상 이미지를 정렬할 수 있다.
일 예로, 이미지 분석 장치(2000)는 대상 이미지 내의 특징 영역을 기초로 하여 대상 이미지를 정렬하는 동작을 수행하도록 구현될 수 있다.
도 49를 참고한다. 도 49는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 정렬 방법의 예시적인 도면이다.
예를 들어, 도 49를 참고하면, 뇌 이미지에는 전측 교련(anterior commissure, AC)과 후측 교련(posterior commissure, PC)에 대응되는 특징 영역이 존재할 수 있다. 이때, 이미지 분석 장치(2000)는 전측 교련(AC)과 후측 교련(PC)을 연결하는 AC-PC 라인을 기준으로 대상 이미지의 공간 정렬(spatial alignment) 동작을 수행하도록 구현될 수 있다.
예를 들어, 제1 이미지는 제1 방향에서 촬영되었으며, 제2 이미지는 제2 방향에서 촬영되었으며, 제3 이미지는 제3 방향에서 촬영되었을 수 있다. 랜덤한 방향에서 촬영이 되었기 때문에 이미지 획득 장치(1000)로부터 획득된 이미지들은 공간적으로 정렬이 되지 않은 상태일 수 있다. 이때, 이미지 분석 장치(2000)는 각 이미지들을 공간적으로 정렬함으로써 이미지의 방향을 통일시킬 수 있다.
예컨대, 제1 이미지는 전측 교련(AC1)과 후측 교련(PC1)을 연결하는 AC-PC 라인(L1)이 제1 방향으로 향하는 상태로 획득될 수 있으며, 제2 이미지는 전측 교련(AC2)과 후측 교련(PC2)을 연결하는 AC-PC 라인(L2)이 제2 방향으로 향하는 상태로 획득될 수 있으며, 제3 이미지는 전측 교련(AC3)과 후측 교련(PC3)을 연결하는 AC-PC 라인(L3)이 제3 방향으로 향하는 상태로 획득될 수 있다.
이때, 이미지 분석 장치(2000)는 각 이미지들의 AC-PC 라인(L1, L2, L3)가 공간적으로 동일한 기준 방향을 향하도록 이미지를 정렬하도록 구현될 수 있다.
예를 들어, 이미지 분석 장치(2000)는 제1 이미지가 획득된 AC-PC 라인(L1)을 기준 방향으로 하여, 제2 이미지와 제3 이미지를 정렬시킬 수 있다.
다른 예를 들어, 이미지 분석 장치(2000)는 사용자로부터 기준 방향에 대한 입력을 획득할 수 있으며, 사용자의 입력에 기초하여 제1 이미지, 제2 이미지 및 제3 이미지를 정렬할 수 있다.
다만, 상술한 내용은 예시에 불과하며, 이미지 분석 장치(2000)가 분석할 대상 이미지의 방향을 통일시키도록 임의의 기준 방향에 대하여 대상 이미지를 정렬시킬 수 있다.
또한, 상술한 바에 따르면, 이미지 내의 특징 영역을 전측 교련, 후측 교련으로 설명하였으나 이는 예시에 불과하며, 대상 이미지의 공간 정렬을 수행하기 위한 임의의 적절한 특징 영역이 활용될 수 있을 것이다. 예를 들어, 두 안구의 중심과 두 안구의 중심을 연결한 라인이 동일한 방향을 향하도록 이미지를 정렬하도록 이미지 분석 장치(2000)가 구현될 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 상술한 AC-PC 라인(혹은 평면)에 기초하여 생성된 템플릿에 대하여, 대상 이미지를 정합함으로써 대상 이미지를 정렬하도록 구현될 수 있다. 다시 말해 도 49와 관련하여 대상 이미지에 포함된 이미지들의 AC-PC 라인이 동일한 방향이 되도록 대상 이미지를 정렬하는 방식으로 설명하였으나, 이에 제한되지 않고 AC-PC 라인에 대한 정보가 포함된 표준 템플릿이 생성될 수 있으며, 대상 이미지를 표준 템플릿에 정합시킴으로써 대상 이미지를 정렬할 수도 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지의 공간 정렬을 수행함으로써, 인공신경망을 이용하는 대상 이미지의 세그멘테이션 정확도를 향상시킬 수 있다.
또한, 두개골 내부 부피 분석(Intracranial Volume Analysis, ICV Analysis)과 같은 부피 분석 시, 체적 값을 계산할 내부 영역을 정의해야 하는데, 일 실시예에 따른 이미지 분석 장치(2000)는 공통된 기준에 따라 정렬된 대상 이미지에 대하여 내부 영역을 정의하도록 구현될 수 있기 때문에 부피 분석의 재현성이나 정확도를 높일 수 있다.
이미지 세그멘테이션 단계(S4300)에서, 이미지 분석 장치(2000)는, 도 7 내지 도 17과 관련하여 상술한 이미지 세그멘테이션 동작에 따라, 대상 이미지의 세그멘테이션을 수행할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 후술할 형태학적 지표의 일 예로서,
Figure 112020143517221-pat00001
을 획득하도록 구현될 수 있다. 이때, 형태학적 지표를 계산하기 위하여는, 이미지 분석 장치(2000)는 대상 이미지로부터 적어도 타겟 요소에 대응되는 영역과 제2 내부 영역에 대응되는 영역을 획득하여야 한다.
이때, 제2 내부 영역은 두개골의 내부 영역에 포함된 영역일 수 있다. 따라서, 이미지 분석 장치(2000)는 대상 이미지로부터 적어도 두개골에 대응하는 영역과 두개골의 내부 영역을 획득하도록 구현될 수 있다.
또한, 이미지 분석 장치(2000)는 대상 이미지로부터 획득된 두개골의 내부 영역과 관련된 바운더리를 수정함으로써 제2 내부 영역을 획득할 수 있다. 이때, 두개골의 내부 영역과 관련된 바운더리를 수정하기 위하여 레퍼런스 영역이 기초가 될 수 있다. 따라서, 이미지 분석 장치(2000)는 대상 이미지로부터 레퍼런스 영역에 대응되는 영역을 획득하도록 구현될 수 있다.
따라서, 이미지 분석 장치(2000)의 세그멘테이션 동작에 의해 대상 이미지는 적어도 두개골 영역 및 타겟 요소에 대응되는 영역을 포함하는 복수의 영역으로 구획될 수 있다. 또한, 이미지 분석 장치(2000)의 세그멘테이션 동작에 의해 후술할 두개골의 내부 영역의 바운더리를 수정하기 위해 기준이 되는 레퍼런스 영역이 추가적으로 획득될 수 있다.
일 예로, 두개골의 내부 영역의 바운더리를 수정하기 위해 기준이 되는 레퍼런스 영역은 소뇌에 대응되는 영역 혹은 목뼈(cervical vertebrae)에 대응되는 영역일 수 있다. 다만, 이는 예시에 불과하며 두개골의 내부 영역을 정의하기 위하여 필요에 따라 임의의 뇌 요소에 대응되는 영역을 레퍼런스 영역으로 획득할 수 있음은 자명하다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 세그멘테이션에 의해 획득된 두개골 영역에 기초하여 두개골의 내부 영역을 획득할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 방법에 따르면, 이미지 분석 장치(2000)는 형태학적 지표를 계산(S4400)할 수 있다. 이때, 형태학적 지표는 이미지로부터 획득될 수 있는 정략적인 정보 혹은 정성적인 정보를 포괄하는 정보로 해석될 수 있을 것이다.
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 방법에 의하면, 형태학적 지표로서 뇌의 체적과 관련된 형태학적 지표를 획득될 수 있다.
뇌의 체적과 관련된 형태학적 지표의 형태는 다양할 수 있다.
예를 들어, 형태학적 지표는 NBV(Normalized brain parenchymal volume), RBPV(Regional Brain Parenchymal volume) 등을 포함할 수 있다.
다른 예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 방법에 의하면, ICV와 관련된 형태학적 지표를 계산하도록 구현될 수 있다. 이때, ICV와 관련된 형태학적 지표는
Figure 112020143517221-pat00002
으로 정의될 수 있으며, ICV와 관련된 형태학적 지표는 뇌질환(예, 우울증, 치매) 진단의 보조 지표로 사용될 수 있다.
이하에서는 정확도가 개선되고 개인화된 ICV와 관련된 형태학적 지표를 계산하기 위한 본 출원의 일 실시예에 따른 이미지 분석 방법을 중심으로 설명한다.
형태학적 지표를 계산하는 단계(S4400)에서는, 이미지 분석 장치(2000)는, 두개골의 내부 영역의 바운더리를 수정하며, 수정된 바운더리에 기초하여 형태학적 지표를 계산하는 동작을 수행하도록 구현될 수 있다.
이하에서는 도 50을 참고하여 형태학적 지표를 계산하는 단계(S4400)에 대하여 보다 구체적으로 서술한다. 도 50은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도를 나타낸 도면이며, 구체적으로 도 48의 상기 S4400 단계를 세분화한 도면이다.
도 50을 참고하면, 본 출원의 일 실시예에 따른 형태학적 지표를 계산하는 단계(S4400)는, 두개골의 제1 내부영역의 제1 바운더리를 획득하는 단계(S4410), 제1 바운더리를 수정하여 제2 바운더리를 갖는 제2 내부 영역을 획득하는 단계(S4420), 제2 내부 영역의 형태학적 체적값을 획득하는 단계(S4430), 타겟 요소에 대응되는 영역의 형태학적 체적 값을 획득하는 단계(S4440) 및 형태학적 체적 지표를 계산하는 단계(S4450)를 더 포함할 수 있다.
구체적으로, 형태학적 지표를 계산하는 단계(S4400)에서, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 획득된 두개골 영역에 기초하여 두개골의 제1 내부 영역 및 두개골의 제1 내부 영역에 대응되는 제1 바운더리를 획득할 수 있다.
도 51을 참고한다. 도 51은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 일 예를 도시한 도면이다.
도 51을 참고하면, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 획득된 두개골 영역(SR)에 기초하여 두개골의 제1 내부영역(IR1)을 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 획득한 두개골의 제1 내부영역(IR1)에 기초하여 두개골의 제1 내부영역(IR1)에 대응되는 제1 바운더리(BD1)를 획득할 수 있다.
일 예로, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 뇌 척수액(CSF)에 대응되는 영역을 획득할 수 있으며, 뇌 척수액(CSF)에 대응되는 영역에 기초하여 두개골 영역을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 외부 바운더리를 두개골 영역의 내부 바운더리로 하여 두개골 영역을 획득할 수 있다.
이때, 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 외부 바운더리를 제1 바운더리(BD1)로 획득할 수 있다.
혹은, 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 내부 바운더리를 제1 바운더리(BD1)로 획득할 수 있다.
다만, 상술한 제1 바운더리는 예시에 불과하며 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 외부 바운더리와 내부 바운더리의 사이의 임의의 영역들로 구성된 제1 바운더리(BD1)로 획득할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 획득된 두개골의 내부 영역(예, 제1 내부영역 혹은 후술할 제2 내부 영역)에 대응되는 바운더리를 스무딩하거나 보정할 수 있다. 구체적으로 획득된 두개골의 내부 영역에 대응되는 바운더리들이 선명하지 않거나 오차가 존재할 가능성이 존재할 수 있다. 따라서, 이미지 분석 장치(2000)는 획득된 두개골의 내부 영역에 대응되는 바운더리에 대응되는 바운더리를 스무딩하거나 바운더리와 관련된 오차를 보정할 수 있다.
예컨대, 바운더리가 선명하지 않은 경우에는, 이미지 분석 장치(2000)는 상술한 이미지 전처리 기법 등과 같이 임의의 적절한 이미지의 인텐시티 보정 방법 및 스무딩 방법을 사용하도록 구현될 수 있다.
예컨대, 획득된 바운더리에 오차가 존재하는 경우에는, 이미지 분석 장치(2000)는 입력 모듈을 통하여 바운더리를 수정하는 사용자 입력을 획득할 수 있으며, 사용자 입력에 기초하여 바운더리를 수정하도록 구현될 수 있다. 혹은 이미지 분석 장치(2000)는 상술한 이미지 전처리 기법 등과 같이 임의의 적절한 노이즈 제거 방법 등을 사용하도록 구현될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 획득된 레퍼런스 영역(RR)에 기초하여 두개골의 제1 내부영역(IR1)와 관련된 제1 바운더리(BD1)의 일부를 수정하는 동작을 수행할 수 있다.
대상 이미지마다 이미지의 촬영 방식에 따라 획득된 이미지 내에 포함된 뇌에 대응되는 영역의 위치나 크기 등이 상이할 수 있다.
예를 들어, 제1 촬영 방식에 의해 획득된 두개골의 제1 내부 영역이 포함하는 뇌 영역과 제2 촬영 방식에 의해 획득된 두개골의 제1 내부 영역이 포함하는 뇌 영역이 상이할 수 있다.
따라서, 질병 진단 보조에 유관한 정보를 제공하는데 필요한 영역을 포함하면서도 이미지의 촬영 방식에 영향을 받지 않는 바운더리 정의 방식이 필요하다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 두개골의 제1 내부 영역에 대응되는 제1 바운더리의 일부를 수정할 수 있으며, 대상 이미지에 대하여 "공통된 기준"에 기초하여 제1 바운더리의 일부를 수정하는 동작을 수행할 수 있기 때문에 질병 진단 보조에 의미있는 정보를 획득할 수 있으며 대상 이미지마다 공통된 기준에 따라 질병 진단 보조 지표를 획득할 수 있다.
이하에서는 도 51 및 도 52를 참고하여, 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 일 예를 서술한다. 도 52는 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법에 따라 획득된 제2 내부영역의 일 예를 도시한 도면이다.
상술한 이미지 세그멘테이션 단계(S4300)에서 획득된 제1 바운더리(BD1)는 3D의 바운더리일 수 있다.
이때, 이미지 분석 장치(2000)는 질병 진단 보조에 의미 있는 정보를 제공하기 위한 필요 영역을 획득하기 위해, 3D인 제1 바운더리를 수정하기 위하여, 수정의 기준이 되는 기준 평면(혹은 2D 이미지 슬라이스, RP)를 획득할 수 있다. 또한, 기준 평면(RP)을 획득하기 위하여 이미지 분석 장치(2000)는 도 51 및 도 52에 도시된 바와 같이 시상면(Saggital plane) 이미지에 포함된 특징 영역을 이용할 수 있다.
예컨대, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)과 관련된 기준 평면(RP)을 획득할 수 있다. 이미지 분석 장치(2000)는 대상 이미지로부터 레퍼런스 영역(RR)에 인접하는 기준 평면(RP)을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접하는 평면을 기준 평면(RP)으로 획득할 수 있다. 기준 평면(RP)은 타겟 이미지의 횡평면(transverse plane)과 평행하고 시상면(Saggital plane)에 대하여 수직한 평면일 수 있다. 이때, 레퍼런스 영역(RR)은 소뇌에 대응되는 영역일 수 있다.
이미지 분석 장치(2000)는 획득한 기준 평면(RP)에 기초하여 제1 내부영역의 제1 바운더리의 일부를 수정하여 제2 바운더리(BD2)를 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 기준 평면(RP)의 하측(bottom side)에 위치하는 제1 바운더리(BD1)의 부분을 수정하고 기준 평면(RP)의 상측(upper side)에 위치하는 제1 바운더리(BD1)에 기초하여 제2 바운더리(BD2)를 획득할 수 있다.
좀 더 구체적으로 이미지 분석 장치(2000)는 기준 평면(RP)의 하측에 위치하는 제1 바운더리의 부분을 상기 기준 평면(RP)에 포함된 기준선이나 기준면으로 대체함으로써, 제1 바운더리를 수정하도록 구현될 수 있다.
이미지 분석 장치(2000)는 제1 바운더리를 수정하여 제2 바운더리를 획득할 수 있으며, 제2 바운더리를 갖는 두개골의 제2 내부 영역을 획득할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 기준 평면(RP)에 기초하여 제1 바운더리(BD1)의 일부를 수정함으로써, 질병 진단 보조에 유관한 정보를 제공하는데 필요한 영역인 제2 내부 영역(BD2)을 획득할 수 있으며, 대상 이미지에 대하여 공통된 기준에 따라 획득된 제2 내부 영역(BD2)에 기초하여 형태학적 지표를 계산할 수 있기 때문에 질병 진단 보조에 의미있는 정보가 획득될 수 있다.
도 52를 참고하면, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)에 인접하는 기준 평면(RP, 예, 레퍼런스 영역(RR)의 하부 가장자리(inferior edge)를 포함하는 기준 평면)을 기준으로 제1 바운더리(BD1)의 일부를 수정하여, 제2 바운더리(BD2)를 갖는 두개골의 제2 내부 영역(IR2)을 획득할 수 있다. 이때, 도 51과 비교하면, 기준 평면(RP)의 하측에 있는 제1 바운더리(BD1)의 부분이 기준 평면(RP)의 기준면으로 대체됨으로써, 제1 바운더리(BD1)가 수정된 것을 확인할 수 있다. 또한, 제1 바운더리(BD1)를 수정함으로써, 제2 바운더리(BD)를 갖는 제2 내부 영역(IR2)이 획득될 수 있다.
도 51 및 52에서는 뇌 이미지 중 시상면(sagittal plane)과 관련된 뇌 이미지에 대하여만 두개골의 제1 내부 영역(IR)의 제1 바운더리(BD1)의 일부를 수정하는 예를 도시하였으나, 이미지 분석 장치(2000)는 뇌 이미지 중 관상면(coronal plane) 및 횡평면(transverse plane)과 관련된 뇌 이미지에 대하여도 대응되는 바운더리 수정 동작을 수행할 수 있다.
이하에서는 도 53을 참고하여, 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 다른 예를 서술한다. 도 53은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 다른 예를 도시한 도면이다.
도 53을 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 목뼈(cervical vertebrae)에 대응되는 영역을 레퍼런스 영역(RR)으로 하여 두개골의 제1 내부영역(IR1)의 제1 바운더리(BD1)의 일부를 수정하도록 구현될 수 있다.
일 예로, 이미지 분석 장치(2000)는 목뼈와 관련된 C1 영역을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 목뼈(cervical vertebrae)와 관련된 C1 영역에 기초하여 두개골의 제1 내부영역(IR1)의 제1 바운더리(BD1)의 일부를 수정할 수 있다.
이미지 분석 장치(2000)는 대상 이미지로부터 제1 특징 영역 및 제2 특징 영역을 획득할 수 있다. 예를 들어, 제1 특징 영역은 전측 교련(AC)에 대응되는 영역일 수 있으며, 제2 특징 영역은 후측 교련(PC)에 대응되는 영역일 수 있다.
이미지 분석 장치(2000)는 제1 특징 영역으로부터 제1 특징점을 산출하며, 제2 특징 영역으로부터 제2 특징점을 산출하도록 구현될 수 있다.
예를 들어, 이미지 분석 장치(2000)는 제1 특징 영역일 수 있는 전측 교련(AC)에 대응되는 영역의 중심점이나 전측 교련(AC)에 대응되는 영역을 정의하는 바운더리에 포함된 상부 가장자리(Superior edge), 하부 가장자리(inferior edge) 등에 대응되는 영역에 기초하여 제1 특징점을 산출할 수 있다. 또한 이미지 분석 장치(2000)는 제2 특징 영역일 수 있는 후측 교련(PC)에 대응되는 영역의 중심점 혹은 후측 교련(PC)에 대응되는 영역을 정의하는 바운더리에 포함된 상부 가장자리(Superior edge), 하부 가장자리(inferior edge) 등에 대응되는 영역에 기초하여 제2 특징점을 산출할 수 있다.
또한, 이미지 분석 장치(2000)는 산출된 제1 특징점 및 제2 특징점에 기초하여 기준 평면을 획득할 수 있다.
예컨대, 이미지 분석 장치(2000)는, 시상면(Saggital) 상에서 전측 교련(AC)의 중심점과 후측 교련(PC)의 중심점에 기초하여 기준 방향을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 전측 교련(AC)의 중심점과 후측 교련(PC)의 중심점을 연결하는 기준 방향을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는, 레퍼런스 영역(RR)에 인접하며 기준 방향과 평행한 기준 평면(P2)를 획득할 수 있다.
다른 예를 들어, 이미지 분석 장치(2000)는 전측 교련(AC)의 중심점과 후측 교련(PC)의 중심점을 포함하고, 시상면(Saggital)에 수직한 제1 평면(P1)을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)에 인접하며 제1 평면(P1)과 평행한 기준 평면(P2)를 획득할 수 있다.
이미지 분석 장치(2000)는 기준 평면(P2)에 기초하여 제1 내부영역의 제1 바운더리(B1)의 일부를 수정하여 제2 바운더리(BD2)를 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 기준 평면(P2)의 하측(bottom side)에 위치하는 제1 바운더리(BD1)의 부분을 수정하고 기준 평면(P2)의 상측(upper side)에 위치하는 제1 바운더리(BD1)에 기초하여 제2 바운더리(BD2)를 획득할 수 있다.
좀 더 구체적으로 이미지 분석 장치(2000)는 기준 평면(P2)의 하측에 위치하는 제1 바운더리(BD1)의 부분을 상기 기준 평면(P2)에 포함된 기준선이나 기준면으로 대체함으로써, 제1 바운더리(BD1)를 수정하도록 구현될 수 있다
이미지 분석 장치(2000)는 수정된 제1 바운더리에 기초하여 제2 바운더리(BD2)를 획득할 수 있으며, 제2 바운더리(BD2)를 갖는 두개골의 제2 내부 영역(IR2)을 획득할 수 있다.
도 53에서는 뇌 이미지 중 시상면(sagittal plane)과 관련된 뇌 이미지에 대하여만 두개골의 제1 내부 영역(IR)의 제1 바운더리(BD1)의 일부를 수정하는 예를 도시하였으나, 이미지 분석 장치(2000)는 뇌 이미지 중 관상면(coronal plane) 및 횡평면(transverse plane)과 관련된 뇌 이미지에 대하여도 대응되는 바운더리 수정 동작을 수행할 수 있다.
또한, 도 53에서는 목뼈(cervical vertebrae)의 C1 영역에 기초하여 두개골의 제1 내부영역(IR1)의 제1 바운더리(BD1)의 일부를 수정하는 것으로 서술하였으나, 반드시 목뼈(cervical vertebrae)의 C1 영역에 기초하여 제1 바운더리(BD1)를 수정하는 것에 제한되지 않는다. 예를 들어 목뼈(cervical vertebrae)의 다른 영역들에 기초하여 제1 바운더리(BD1)를 수정할 수도 있으며, 뇌 이미지 내에 두드러지는 특징을 가진 영역에 기초하여 제1 바운더리(BD1)를 수정하도록 이미지 분석 장치(2000)가 구현될 수 있다.
또한, 도 53에서는, 기준 평면(P2)을 전측 교련(AC) 및 후측 교련(PC)에 기초하여 획득된 제1 평면(P1)에 평행한 평면으로 예시하였으나, 이는 예시에 불과하며, 이미지 분석 장치(2000)는 대상 이미지의 횡평면(transverse plane)과 평행하며 C1 영역을 포함하는 평면을 기준 평면(P2)으로 획득할 수 있으며, 기준 평면(P2)에 기초하여 제1 바운더리(BD1)를 수정하도록 구현될 수 있다.
또한, 도 51 내지 도 53에 의하면, 이차원 이미지에 대하여 바운더리를 수정하는 것으로 도시되었으나, 이는 설명의 편의를 위한 것일 뿐, 3차원 이미지에 대하여 바운더리를 수정하여 내부영역을 획득하는 것으로 해석되어야 할 것이다.
다시 도 50을 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 방법은, 제2 내부 영역의 형태학적 체적값을 획득하는 단계(S4430)를 포함할 수 있다.
구체적으로, 제2 내부 영역의 형태학적 체적값을 획득하는 단계(S4430)에서, 이미지 분석 장치(2000)는 획득한 제2 내부 영역에 기초하여 형태학적 체적값을 계산할 수 있다. 구체적으로 이미지 분석 장치(2000)는 제2 내부 영역에 대응되는 복셀 데이터에 기초하여 제2 내부 영역에 대응되는 형태학적 체적값을 획득할 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 방법은, 타겟 요소의 형태학적 체적값을 획득하는 단계(S4440)를 포함할 수 있다.
구체적으로, 타겟 요소의 형태학적 체적값을 획득하는 단계(S4440)에서, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300) 단계에서 획득한 타겟 요소에 대응하는 영역에 기초하여, 타겟 요소와 관련된 형태학적 체적값을 계산할 수 있다. 구체적으로 이미지 분석 장치(2000)는 타겟 요소에 대응되는 복셀 데이터에 기초하여 타겟 요소에 대응되는 형태학적 체적값을 획득하도록 제공될 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 방법은, 형태학적 지표를 계산하는 단계(S4450)를 포함할 수 있다. 구체적으로 형태학적 지표를 계산하는 단계(S4450)에서, 이미지 분석 장치(2000)는 상기 S4430 단계에서 획득된 제2 내부 영역에 대응되는 형태학적 체적 값과 상기 S4450 단계에서 획득된 타겟 요소에 대응되는 형태학적 체적 값에 기초하여 형태학적 지표를 계산할 수 있다.
일 예로, 형태학적 지표는 제2 내부 영역에 대응되는 형태학적 체적 값에 대한 타겟 요소에 대응되는 형태학적 체적 값의 비율로 정의되는 지표일 수 있다.
예를 들어, 형태학적 지표=
Figure 112020143517221-pat00003
일 수 있다.
또한, 계산된 형태학적 지표는 치매, 우울증, 뇌졸증 등과 관련된 뇌 질환과 관련된 진단 보조 지표로서 의미 있는 정보를 제공할 수 있다.
도 48 및 도 50에는 도시되지 않았으나, 상기 S4430 단계에서 획득된 제2 내부영역에 대응되는 형태학적 체적 값과 상기 S4440 단계에서 획득된 타겟 요소에 대응되는 형태학적 체적 값 각각은, 스캔 조건과 관련된 보정 파라미터 혹은 타겟 요소의 위치와 관련된 보정 파라미터에 기초하여 보정될 수 있다. 이때, 이미지 분석 장치(2000)는 제2 내부영역에 대응되는 형태학적 보정 체적 값과 타겟 요소에 대응되는 형태학적 보정 체적 값에 기초하여 형태학적 지표를 최종적으로 계산하도록 구현될 수 있다. 이와 관련하여는, 도 58 내지 도 67과 관련하여 자세히 후술한다.
이하에서는 도 54 내지 도 57을 참고하여, 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들의 예시 및 그 정보들을 출력하기 위한 이미지 획득 장치(2000)의 동작을 설명한다. 도 54 내지 도 57은 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들을 도시한 예시적인 도면이다.
후술할 출력되는 형태학적 지표와 관련된 정보들은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 출력 모듈(2050) 혹은 출력 장치(2600)를 통하여 출력될 수 있다.
도 54를 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표와 관련된 정보는 전체 두개골 내 용적(ICV, Info. 1)을 포함할 수 있다.
예를 들어, 전체 두개골 내 용적(ICV, Info. 1)은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)가 대상 이미지의 두개골의 내부 영역에 대응되는 복셀 데이터에 기초하여 획득한 체적 값일 수 있다.
이때, 상술한 바와 같이, 이미지 분석 장치(2000)는 두개골의 내부 영역을 정의하기 위하여 대상 이미지의 세그멘테이션 결과에 기초하여 획득된 두개골의 제1 내부영역의 제1 바운더리의 일부를 수정하여 제2 바운더리를 갖는 제2 내부영역을 획득할 수 있다. 이때, 바람직한 실시예에 따르면, 전체 두개 내 용적(ICV, Info. 1)은 제2 내부 영역에 대응되는 대상 이미지의 복셀 데이터에 기초하여 획득된 값일 수 있다.
도 54를 다시 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표와 관련된 정보는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 및 형태학적 지표의 백분위 정보(Info. 4)를 포함할 수 있다. 다시 말해, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 및 형태학적 지표의 백분위(Info. 4)를 포함한 형태학적 지표와 관련된 정보를 출력할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 정보는 타겟 요소는 뇌에 위치하는 다양한 영역과 관련된 정보일 수 있다. 이때, 타겟 요소는 뇌 질환과 유의미하게 관련된 영역일 수 있다. 예를 들어, 타겟 요소는 치매와 같은 뇌 질환과 관련된 해마, 외측 뇌실, 전두엽, 측두엽, 두정엽, 후두엽, 편도체와 관련된 영역일 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지를 상술한 영역들을 포함하는 복수의 뇌 영역으로 세그멘테이션한 후, 각각의 영역에 대응되는 복셀 데이터에 기초하여 타겟 요소들의 각각의 부피 값(체적 값)을 획득하여 출력하도록 제공될 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 획득된 타겟 요소들의 부피 값을 획득하고, 대상 이미지가 촬영된 스캔 조건 혹은 타겟 요소의 위치 등을 고려하여 타겟 요소들의 부피 값을 보정할 수 있다.
이때, 도 54의 타겟 요소들의 부피(Info. 2)는 보정된 부피 값일 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표(Info. 3)는 두개골의 내부 영역에 대응되는 체적과 타겟 요소에 대응되는 영역의 체적의 비율일 수 있다. 예를 들어, 도 54를 참고하면, 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표(Info. 3)는 전체 두개 내 용적(ICV, Info. 1)에 대한 타겟 요소들의 체적값(혹은 부피값, Info. 2)의 비율일 수 있다.
다만, 이는 예시에 불과하며, 체적에 제한되지 않고 임의의 적절한 뇌 질환과 관련된 형상, 길이, 두께 등과 관련된 형태학적 지표를 획득하여 출력하도록 이미지 분석 장치(2000)가 제공될 수 있을 것이다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 형태학적 지표 데이터베이스를 획득하고, 이에 기초하여 대상체의 형태학적 지표의 백분위(Info. 4)를 획득할 수 있다. 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표의 백분위(Info. 4)는 비교 대상군의 형태학적 지표들에서 위치하는 대상체의 형태학적 지표(Info. 3)의 백분위와 관련된 정보일 수 있다. 이때, 비교 대상군은 대상 이미지의 대상체의 성별 혹은 나이를 고려하여 획득된 대상군일 수 있다.
구체적으로, 이미지 분석 장치(2000)는, 비교 대상 뇌 이미지에 기초하여 획득된 형태학적 지표를 하나 이상 포함하는 형태학적 지표 데이터베이스를 이용하여, 대상체의 형태학적 지표의 백분위 정보를 획득할 수 있다.
예컨대, 이미지 분석 장치(2000)는, 형태학적 지표 데이터베이스로부터 획득된 ICV와 관련된 형태학적 값이나 형태학적 지표를 하나 이상 포함하는 ICV 데이터를 획득하고, 대상체의 대상 이미지에 기초하여 획득된 ICV와 관련된 형태학적 값이나 형태학적 지표의 ICV 데이터 상에서의 백분위를 획득할 수 있다.
일 예로, 이미지 분석 장치(2000)는 대상 이미지의 대상체의 성별 혹은 나이와 관련된 대상체의 정보를 획득하고, 대상체의 정보에 기초하여 형태학적 지표 데이터베이스를 획득할 수 있다. 형태학적 지표 데이터베이스는, 대상체의 정보와 유사한 특성(성별, 나이 등)을 가지는 비교 대상군의 뇌 이미지에 기초하여 획득된 하나 이상의 형태학적 지표를 포함할 수 있다.
이미지 분석 장치(2000)는, 획득된 형태학적 지표 데이터베이스를 이용하여, 대상체의 형태학적 지표의 백분위 정보를 획득할 수 있다.
예컨대, 이미지 분석 장치(2000)는, 60대 남성의 뇌 이미지에 기초하여 획득된 ICV와 관련된 형태학적 값이나 형태학적 지표를 하나 이상 포함하는 ICV 데이터를 획득하고, 60대 남성인 대상체의 뇌 이미지에 기초하여 획득된 ICV 값과 관련된 형태학적 값이나 형태학적 지표의 ICV 데이터 상에서의 백분위를 획득할 수 있다.
다른 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지와 관련된 대상체의 정보(예, 나이 혹은 성별)를 획득하고, 데이터베이스 혹은 메모리(2020)에 저장된 복수의 뇌 이미지들 중에서 대상체의 정보를 고려하여 비교 대상군 뇌 이미지를 선별할 수 있다.
이미지 분석 장치(2000)는 선별된 비교 대상군 뇌 이미지들로부터, 대상 이미지로부터 형태학적 지표를 획득한 동작과 유사한 동작을 통하여, 타겟 요소에 대응하는 ICV와 관련된 형태학적 값이나 형태학적 지표를 하나 이상 포함하는 ICV 데이터를 획득할 수 있다.
이미지 분석 장치(2000)는 대상 이미지로부터 획득된 ICV 값과 관련된 형태학적 값이나 형태학적 지표와 비교 대상군 뇌 이미지들로부터 획득된 ICV 데이터를 비교하여 대상 이미지로부터 획득된 ICV 값과 관련된 형태학적 값이나 형태학적 지표의 ICV 데이터 상에서의 백분위를 계산할 수 있을 것이다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 및 형태학적 지표의 백분위(Info. 4)와 관련된 정보들은 좌반구와 우반구에 대하여 개별적으로 각각 획득되어 출력될 수 있다.
다만, 도 54에 도시된 형태학적 지표와 관련된 정보들은 예시에 불과하며, 임의의 적절한 정보들이, 이미지 분석 장치(2000)로부터 추가적으로 획득되어 출력될 수 있음은 물론이다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 혹은 형태학적 지표의 백분위(Info. 4)와 관련된 정보들은 임의의 적절한 그래프를 활용한 통계학적 기법으로 형태학적 지표와 관련된 정보들이 가공(processing)되어 출력될 수 있다.
이하에서는 도 55 내지 도 57을 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해, 형태학적 지표와 관련된 정보들이 가공되어 출력되는 예시적인 내용들을 서술한다.
도 55를 참고하면, 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표와 관련된 정보는 형태학적 지표의 백분위(Info. 5), 형태학적 지표의 백분위에 대한 그래프(Info. 6, 7) 및 뇌 질환과 관련된 위험도(Info. 8)와 관련된 정보를 포함할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표의 백분위(Info. 5)는 좌반구에 위치하는 타겟 요소와 우반구에 위치하는 타겟 요소에 대하여 획득된 수치일 수 있다.
예를 들어, 도 55를 참고하면, 전두엽, 측두엽, 두정엽, 후두엽, 대상회, 해마 및 시상에 대하여 획득된 형태학적 지표의 백분위 값이 시각적으로 출력될 수 있다. 이때, 좌반구에 위치하는 전두엽 등에 대한 형태학적 지표의 백분위와 우반구에 위치하는 전두엽 등에 대한 형태학적 지표의 백분위들이 함께 시각적으로 출력될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표의 백분위에 대한 그래프(Info. 6, 7)는, 도 54와 관련하여 서술한, 대상체의 형태학적 지표(Info. 3)와 비교 대상군 뇌 이미지들로부터 획득된 형태학적 지표를 비교하여 계산된 대상체의 형태학적 지표의 백분위에 기초하여 생성될 수 있다.
이때, 그래프는 형태학적 지표의 백분위를 시각적으로 표시하도록 제공될 수 있으며, 대상체의 형태학적 지표의 백분위가 어디에 분포하는지를 나타내는 백분위와 관련된 눈금자(Info. 7)를 포함할 수 있다.
또한, 그래프는 좌반구에 대한 형태학적 지표의 백분위와 우반구에 대한 형태학적 지표의 백분위를 구별되도록 표시하여 제공될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 뇌 질환과 관련된 위험도(Info. 8)와 관련된 정보는, 대상체의 형태학적 지표의 백분위에 기초하여 위험도가 계산될 수 있으며, 위험도에 따라 시각적으로 상이하게 출력되도록 제공될 수 있다.
구체적으로, 이미지 분석 장치(2000)는 뇌 질환과 관련된 위험도(Info. 8)와 관련하여, 형태학적 지표의 백분위에 대하여 미리 결정된 임계값이 설정되도록 제공될 수 있다. 이때, 미리 결정된 임계값은 위험도의 정도(예, 주의, 위험, 정상)에 따라 상이하게 미리 설정될 수 있다.
이때, 이미지 분석 장치(2000)는 대상체의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 작은 경우에는, 대상체가 뇌 질환이 존재할 수 있어 위험하다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어, 도 55를 참고하면, 이미지 분석 장치(2000)는 대상체의 좌반구, 우반구에 위치하는 해마의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 작아 위험하다고 판단할 수 있으며, 위험하다는 판단 결과에 기초하여 해마와 관련된 형태학적 지표의 백분위를 제1 색상(예, 빨간색)으로 출력하도록 구현될 수 있다.
또한, 이미지 분석 장치(2000)는 대상체의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 크며 미리 결정된 제2 임계값보다 작은 경우에는 대상체가 뇌 질환이 존재할 가능성이 어느정도 존재하여 주의가 필요하다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는, 대상체의 좌반구, 우반구에 위치하는 특정 타겟 요소의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 크며 미리 결정된 제2 임계값보다 작은 경우에는, 주의가 필요하다고 판단하도록 구현될 수 있고, 주의가 필요하다는 판단에 기초하여 특정 타겟 요소의 형태학적 지표의 백분위를 제2 색상(예, 주황색)으로 출력하도록 구현될 수 있다.
다만, 상술한 위험도에 따라 상이한 색상으로 출력하는 것은 예시에 불과하며, 이에 제한되지 않고 임의의 적절한 방법을 활용하여 뇌 질환과 관련된 위험도와 관련된 정보를 제공하도록 이미지 분석 장치(2000)가 구현될 수 있음은 물론이다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지로부터 획득된 대상체의 형태학적 지표와, 비교 대상군 뇌 이미지들로부터 획득된 형태학적 지표들과 관련된 정보를 제공하도록 구현될 수 있다.
구체적으로, 도 55와 관련하여 상술한 바와 같이, 이미지 분석 장치(2000)는 대상 이미지의 대상체의 나이 혹은 성별을 포함하는 대상체의 정보에 기초하여, 형태학적 지표 데이터베이스로부터 비교 대상군의 형태학적 지표들을 획득할 수 있다.
이때, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 정보에 따라 대상체의 형태학적 지표와 비교 대상군의 형태학적 지표를 시각적인 그래프의 형태로 출력하도록 구현될 있다. 이때, 대상체의 정보에 따른 비교 대상군의 형태학적 지표는 비교 대상군의 형태학적 지표들의 평균값 및 뇌 질환에 대한 위험도와 관련되어 미리 결정된 임계값들에 대응되는 비교 대상군들의 형태학적 지표들을 반영하여 출력되도록 구현될 수 있다.
도 56을 참고한다. 도 56은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 출력되는 형태학적 지표와 관련된 정보들의 예시를 도시한 그래프이다.
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 출력되는 형태학적 지표는 대상 이미지와 관련된 대상체의 정보(예, 나이 혹은 성별)에 따른 대상체의 형태학적 지표(Info. 9)로서 출력될 수 있다.
이때, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 뇌질환과 관련된 정보를 제공하기 위하여 대상체의 형태학적 지표(Info. 9)와 함께 비교 대상군의 형태학적 지표들(Info. 10, Info. 11)을 추가적으로 출력하도록 구현될 수 있다.
예를 들어, 이미지 분석 장치(2000)는 상술한 바와 같이, 대상체의 나이(예, 도 56의 79세)를 고려하여, 형태학적 지표 데이터베이스로부터 70대와 80대의 비교 대상군의 형태학적 지표 정보들을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 나이를 고려하여 획득된 비교 대상군의 형태학적 지표 정보의 평균값(Info. 10)을 획득하여 출력하도록 구현될 수 있다.
다른 예를 들어, 이미지 분석 장치(2000)는 상술한 바와 같이, 뇌질환과 관련된 위험도에 대한 정보를 제공하도록 비교 대상군들의 형태학적 지표들과 관련된 임계값들이 설정될 수 있다. 예를 들어, 대상체의 형태학적 지표의 백분위가 5% 미만에 해당하는 경우에는 위험하다는 판단을 하도록 이미지 분석 장치(2000)은 임계값이 미리 설정되도록 구현될 수 있다. 혹은 대상체의 형태학적 지표의 백분위가 5% 이상 10% 미만에 해당하는 경우에는 주의가 필요하다는 판단을 하도록 이미지 분석 장치(2000)은 임계값이 미리 설정되도록 구현될 수 있다.
이때, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌질환에 대한 위험도와 관련되어 미리 설정된 임계값에 대응되는 비교 대상군들의 형태학적 지표들(Info. 11)을 출력하도록 구현될 수 있다. 이때, 비교 대상군들의 형태학적 지표들(Info. 11)는, 대상체의 나이와 같은 대상체의 정보에 따라 출력될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 형태학적 지표의 백분위와 뇌질환에 대한 위험도와 관련되어 미리 설정된 임계값에 기초하여, 뇌 질환에 대한 위험도와 관련된 정보(Info. 12)를 출력하도록 제공될 수 있다.
예를 들어, 대상체의 형태학적 지표의 백분위가 5% 미만에 해당하는 경우에는 위험하다는 판단을 하도록 이미지 분석 장치(2000)는 임계값이 미리 설정되도록 구현될 수 있다. 이때, 대상체의 형태학적 지표의 백분위가 5% 미만에 해당하는 경우에는 이미지 분석 장치(2000)는 대상체가 특정 뇌질환에 대하여 위험한 상태일 수 있다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어 도 56을 참고하면, 대상체의 형태학적 지표(Info. 9)가 제1 색상(예, 빨간색)으로 표시되어 출력되도록 이미지 분석 장치(2000)가 구현될 수 있다.
혹은 대상체의 형태학적 지표의 백분위가 5% 이상 10% 미만에 해당하는 경우에는 주의가 필요하다는 판단을 하도록 이미지 분석 장치(2000)은 임계값이 미리 설정되도록 구현될 수 있다. 이때, 대상체의 형태학적 지표의 백분위가 5% 이상 및 10% 미만에 해당하는 경우에는 이미지 분석 장치(2000)는 대상체가 특정 뇌질환에 대하여 주의가 필요한 상태일 수 있다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어, 대상체의 형태학적 지표(Info. 9)가 제2 색상(예, 주황색)으로 표시되어 출력되도록 이미지 분석 장치(2000)가 구현될 수 있다.
다만, 상술한 내용은 예시에 불과하며 이에 제한되지 않는다. 즉, 이미지 분석 장치(2000)는 임의의 적절한 방식을 이용하여 대상체의 뇌질환에 대한 위험도와 관련된 정보를 출력하도록 구현될 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 3차원 구조 혹은 타겟 요소가 뇌 내부에 어디에 위치하는지에 대한 정보를 제공하기 위하여 3차원 뇌 정보와 관련된 정보를 시각적으로 출력하도록 제공될 수 있다. 이하에서는 도 57을 참고하여, 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들의 예시 및 그 정보들을 출력하기 위한 이미지 획득 장치(2000)의 동작을 설명한다.
예를 들어, 이미지 분석 장치(2000)는 3차원 뇌 템플렛과 관련된 데이터를 추가적으로 획득할 수 있으며, 대상 이미지에 대한 세그멘테이션에 의해 획득된 타겟 요소와 대응되는 영역 및 3차원 뇌 템플렛에 관련된 데이터에 기초하여, 타겟 요소의 3차원 구조 혹은 타겟 요소가 뇌 내부에 어디에 위치하는지에 대한 정보를 시각적인 그래픽 형태(Info. 13)로 출력할 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 3차원 뇌 템플렛과 관련된 데이터 및 상술한 바에 따라 계산된 타겟 요소와 관련된 형태학적 지표의 백분위에 기초하여, 타겟 요소와 관련된 형태학적 지표의 백분위에 대한 정보를 3차원 뇌 템플렛에 오버레이(Info. 14)시켜 출력하도록 구현될 수 있다. 예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소와 관련된 형태학적 지표의 백분위에 따라 상이한 색상을 3차원 뇌 템플렛에 오버레이시켜, 타겟 요소의 부피 위축도와 관련된 정보를 제공하도록 구현될 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 사용자로부터 입력 모듈을 통하여 세부적인 형태학적 지표와 관련된 정보를 출력하기 위한 입력을 수신하고, 사용자의 입력에 대응되는 출력을 출력 모듈을 통하여 사용자에게 출력하도록 구현될 수 있다. 예를 들어, 도 57에 도시된 3차원 뇌 템플렛의 특정 뇌 영역에 대한 사용자의 입력이 획득되면, 이미지 분석 장치(2000)는 획득된 입력에 대응되는 특정 뇌 영역에 대한 형태학적 지표와 관련된 정보들(예, 도 54 내지 도 56에 도시된 정보들 등)을 출력하도록 제공될 수 있다.
다만, 도 57에 도시된 형태학적 지표와 관련된 정보들은 예시에 불과하며, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 임의의 적절한 방법으로 타겟 요소와 관련된 형태학적 지표의 백분위에 대한 정보를 3차원적으로 제공하도록 구현될 수 있을 것이다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체와 관련된 형태학적 지표와 관련된 정보들을 시간적인 변수에 따라 출력하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 제1 시점에서의 대상체로부터 획득된 형태학적 지표와 관련된 정보들(예, 도 54 내지 도 57에 도시된 정보들)과 제2 시점에서의 대상체로부터 획득된 형태학적 지표와 관련된 정보들(예, 도 54 내지 도 57에 도시된 정보들)을 출력하도록 구현될 수 있다. 특히, 뇌 질환과 관련되어 비교 대상 군과의 형태학적 지표를 비교하는 것도 중요하지만, 대상체의 형태학적 지표를 시간적 변수에 따라 분석하는 것도 중요할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 제1 시점에서의 대상체로부터 획득된 뇌 이미지로부터 상술한 이미지 분석 동작들을 통하여 제1 시점에서의 형태학적 지표와 관련된 정보들을 획득할 수 있으며, 제1 시점과는 상이한 제2 시점에서의 대상체로부터 획득된 뇌 이미지로부터 상술한 이미지 분석 동작들을 통하여 제2 시점에서의 형태학적 지표와 관련된 정보들을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 제1 시점에서의 형태학적 지표와 관련된 정보들과 제2 시점에서의 형태학적 지표와 관련된 정보들은 다양한 통계 기법을 통하여 사용자에게 출력하도록 구현될 수 있다.
다만, 도 54 내지 도 57와 관련하여 상술한 형태학적 지표와 관련된 정보들은 예시에 불과하며, 임의의 적절한 형태의 뇌 질환과 관련된 정보들이 임의의 적절한 방법으로 사용자에게 출력될 수 있을 것이다.
뇌와 관련된 질환, 특히 치매와 관련하여 뇌의 수축 정도를 수치화한 지표가 치매 진단의 보조 지표로 사용되고 있다. 이때, 뇌의 수축 정도와 관련된 수치는 뇌 이미지가 촬영된 스캔 조건 혹은 타겟 요소의 위치에 따라 상이하게 측정될 수 있다. 여기에서 타겟 요소의 위치란 타겟 요소가 두개골 내부에 분포하는 위치를 의미할 수 있다.
예를 들어, 동일한 대상체에 대하여 획득된 형태학적 지표, 즉 뇌의 수축 정도와 관련된 수치는 뇌 이미지가 촬영된 이미지 획득 장치의 자기장의 세기, 이미지 획득 장치의 제조사 혹은 이미지 획득 장치의 세팅 파라미터를 포함하는 스캔 조건에 의존할 수 있다. 구체적인 예를 들어, 동일한 대상체에 대하여 획득된 형태학적 지표가 자기장의 세기라는 변수에 따라 상이하게 측정될 수 있다.
다른 예를 들어, 동일한 대상체에 대하여 획득된 형태학적 지표, 즉 타겟 요소의 수축 정도와 관련된 수치는 타겟 요소의 두개골 내에서의 위치에 따라 상이하게 측정될 수 있다.
따라서, 형태학적 지표를 뇌 이미지가 촬영된 스캔 조건이나 타겟 요소의 위치에 따라 보정하는 것이 요구된다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 뇌 이미지가 촬영된 스캔 조건이나 타겟 요소의 위치를 고려하여, 타겟 요소의 형태학적 값이나 형태학적 지표를 보정하는 동작을 수행하도록 구현될 수 있다.
따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 뇌 질환과 관련된 뇌의 수축 정도와 관련된 형태학적 지표를 보다 정확하게 획득할 수 있으며, 보다 객관적인 형태학적 지표를 뇌 질환과 관련된 진단 보조 정보로 사용자에게 제공할 수 있다는 유리한 효과를 제공할 수 있다.
이하에서는 도 58 내지 도 67을 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 형태학적 수치의 보정 방법을 구체적으로 서술한다. 이하에서는 체적과 관련된 형태학적 수치를 중심으로 서술하나 이에 제한되지 않으며, 체적 이외의 뇌 질환의 지표가 될 수 있는 대상 부위의 형태, 두께, 길이 등 임의의 적절한 형태학적 특성에 대하여도 동일하게 보정 방법이 적용될 수 있다.
도 58을 참고한다. 도 58은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 형태학적 수치의 보정 방법을 일 동작을 도시한 흐름도이다. 구체적으로 도 58은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 뇌와 관련된 형태학적 값이나 뇌와 관련된 형태학적 지표를 보정하는 동작을 도시한 흐름도이다.
본 출원의 일 실시예에 따른 형태학적 수치의 보정 방법은, 타겟 이미지 및 타겟 이미지의 스캔 조건을 획득하는 단계(S5100); 타겟 이미지의 세그멘테이션 단계(S5200) 및 뇌 형태학적 지표를 보정하는 단계(S5300)를 포함할 수 있다.
타겟 이미지 및 타겟 이미지의 스캔 조건을 획득하는 단계(S5100)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 타겟 이미지를 획득할 수 있다. 타겟 이미지는 이미지 분석 장치(2000)로부터 분석될 뇌 이미지를 포괄하는 의미일 수 있다. 다시 말해, 타겟 이미지는 이미지 분석 장치(2000)로부터 타겟 요소의 형태학적 값이나 형태학적 지표가 계산될 대상 뇌 이미지를 포괄할 수 있다.
또한, 타겟 이미지 및 타겟 이미지의 스캔 조건을 획득하는 단계(S5100)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 타겟 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다. 타겟 이미지가 촬영된 스캔 조건과 관련된 정보는 상술한 바와 같이, 타겟 이미지에 대하여 메타데이터로서 구조화되어, 타겟 이미지를 이미지 획득 장치(1000)로부터 획득함으로써 함께 획득될 수 있다. 혹은 타겟 이미지가 촬영된 스캔 조건과 관련된 정보는 타겟 이미지와는 별개로 임의의 외부 장치로부터 획득될 수 있다.
타겟 이미지의 세그멘테이션 단계(S5200)에서, 이미지 분석 장치(2000)는, 도 7 내지 도 17과 관련하여 상술한 이미지 세그멘테이션 동작에 따라, 타겟 이미지의 세그멘테이션을 수행할 수 있다.
일 예에 따르면, 이미지 분석 장치(2000)의 세그멘테이션 동작을 통하여, 타겟 이미지에 포함되는 적어도 하나의 타겟 요소를 획득할 수 있다.
또한, 이미지 분석 장치(2000)의 세그멘테이션 동작에 의해 후술할 두개골의 내부 영역을 획득할 수 있다. 두개골의 내부 영역을 획득하기 위하여 이미지 분석 장치(2000)는 도 48 및 도 57과 관련하여 상술한, 두개골의 제1 내부 영역의 제1 바운더리의 일부를 수정하여 제2 바운더리를 갖는 두개골의 제2 내부 영역을 획득하는 동작을 수행하도록 구현될 수 있다.
또한, 이미지 분석 장치(2000)에 제공되는 신경망 모델은 스캔 조건에 따라 뇌 이미지를 세그멘테이션을 수행하도록 학습될 수 있다. 예를 들어, 제1 스캔 조건 하에서 획득된 뇌 이미지를 포함하는 학습 데이터로부터 학습된 제1 신경망 모델이 제1 스캔 조건 하에서 획득된 타겟 이미지를 세그멘테이션하도록 제공될 수 있다. 다른 예를 들어, 제2 스캔 조건 하에서 획득된 뇌 이미지를 포함하는 학습 데이터로부터 학습된 제2 신경망 모델이 제2 스캔 조건 하에서 획득된 타겟 이미지를 세그멘테이션하도록 제공될 수 있다.
도 58에 의하면, 타겟 이미지의 전처리 및 타겟 이미지의 정렬 단계는 도시되어 있지 않지만, 도 48과 관련하여 서술한 이미지의 전처리 및 이미지의 정렬 단계(S4200)에서의 이미지 분석 장치(2000)의 동작들이 동일하게 적용될 수 있다.
이하에서는 도 59를 참고하여 뇌 형태학적 지표를 보정하는 단계(S5300)의 일 실시예에 대하여 보다 구체적으로 서술한다. 도 59는 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도를 나타낸 도면이며, 구체적으로 도 58의 상기 S52600 단계를 세분화한 도면이다.
도 59를 참고하면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 세그멘테이션 결과에 기초하여 타겟 요소의 형태학적 값을 획득하는 단계(S5310), 보정 파리미터를 획득하는 단계(S5320), 형태학적 값 및 보정 파라미터에 기초하여 형태학적 보정값을 획득하는 단계(S5330) 및 형태학적 보정 값을 기초로 뇌 형태학적 지표를 획득 및 출력하는 단계(S5340)를 더 포함할 수 있다.
세그멘테이션 결과에 기초하여 타겟 요소의 형태학적 값을 획득하는 단계(S5310)에서, 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 타겟 요소에 대응되는 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 타겟 요소와 관련된 형태학적 값을 획득할 수 있다. 혹은 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 두개골의 내부 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 두개골의 내부 영역과 관련된 형태학적 값을 획득할 수 있다.
또한, 세그멘테이션 결과에 기초하여 타겟 요소의 형태학적 값을 획득하는 단계(S5310)에서, 이미지 분석 장치(2000)는, 타겟 요소와 관련된 형태학적 값과 두개골의 내부 영역과 관련된 형태학적 값에 기초하여 타겟 요소와 관련된 형태학적 지표를 획득할 수 있다.
이때, 타겟 요소의 형태학적 값이나 뇌 형태학적 지표는 타겟 요소의 부피, 두께, 길이 및 형태 등을 포함하는 형태학적 특성(morphological character)와 관련된 수치일 수 있다.
보정 파리미터를 획득하는 단계(S5320)에서, 이미지 분석 장치(2000)는, 파라미터 획득 장치(2400)으로부터 보정 파라미터를 획득하여 타겟 요소와 관련된 형태학적 값 혹은 두개골의 내부 영역과 관련된 형태학적 값을 보정하는 동작을 수행하도록 구현될 수 있다.
또는, 보정 파리미터를 획득하는 단계(S5320)에서, 이미지 분석 장치(2000)는, 파라미터 획득 장치(2400)으로부터 보정 파라미터를 획득하여 타겟 요소와 관련된 형태학적 지표를 보정하는 동작을 수행하도록 구현될 수 있다. 즉, 도 59에 따르면, 타겟 요소의 형태학적 값에 대하여 보정 파라미터를 적용하여 보정하는 것으로 도시하였으나, 이는 예시에 불과하며 이에 제한되지 않고 타겟 요소의 형태학적 값 및 두개골의 내부 영역과 관련된 형태학적 값에 기초하여 계산된 뇌 형태학적 지표에 대하여 보정 파라미터를 적용하여 출력하도록 이미지 분석 장치(2000)가 구현될 수 있다.
이때, 파라미터 획득 장치(2400)는 스캔 조건 혹은 타겟 요소의 위치에 따른 형태학적 값과 관련된 상관관계 분석을 통하여 보정 파라미터들을 획득할 수 있다. 보정 파리미터를 획득하는 단계(S5320)와 관련한 보정 파라미터 획득 장치(2400)의 동작에 대하여는, 도 60 내지 도 65와 관련하여 자세히 후술한다.
형태학적 값 및 보정 파라미터에 기초하여 형태학적 보정값을 획득하는 단계(S5330)에서, 이미지 분석 장치(2000)는, 타겟 요소에 대응되는 형태학적 값과 보정 파라미터 획득 장치(2400)로부터 획득한 보정 파라미터에 기초하여 타겟 요소와 관련된 형태학적 보정값을 획득하는 동작을 수행하도록 구현될 수 있다.
보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하거나 추정하기 위한 파라미터일 수 있다.
예컨대, 이미지 분석 장치(2000)는, 타겟 요소에 대응되는 형태학적 값 및 보정 파라미터 획득 장치(2400)로부터 획득된 변환 함수에 포함된 보정 파라미터에 기초하여, 타겟 요소와 관련된 형태학적 보정값을 획득할 수 있다.
이때, 변환 함수는 임의의 n차 함수일 수 있으며, 보정 파라미터는 변환 함수에 포함된 계수를 의미할 수 있다.
예컨대, 보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 타겟 요소와 관련된 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a*x+b라면, a와 b가 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하거나 추정하기 위한 보정 파라미터일 수 있다. 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지로부터 획득된 타겟 요소와 관련된 형태학적 값에 보정 파라미터(a)를 곱하고, 보정 파라미터(b)를 더함으로써, 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하거나 추정할 수 있다.
한편, 타겟 이미지로부터 획득된 타겟 요소의 위치에 따라 타겟 요소의 형태학적 측정값과 형태학적 참값(혹은 형태학적 기준값)에 대한 차이가 상이할 수 있다. 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 위치를 고려하여 타겟 요소의 형태학적 측정값을 보정할 수 있다,
예를 들어, 이미지 분석 장치(2000)는 제1 뇌 요소의 형태학적 측정값을 제1 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제1 보정 파라미터를 획득할 수 있다.
반면, 이미지 분석 장치(2000)는 제2 뇌 요소의 형태학적 측정 값을 제2 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제2 보정 파라미터를 획득할 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건 및 타겟 요소의 위치와 관련된 변수를 모두 고려하여 보정 파라미터를 획득할 수 있다.
예컨대, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지의 제1 뇌 요소과 관련된 형태학적 값에 대하여는 제1 보정 파라미터를 이용하여 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다. 반면, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지의 제2 뇌 요소과 관련된 형태학적 값에 대하여는 제2 보정 파라미터를 이용하여 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다.
예를 들어, 제1 뇌 요소와 관련하여 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a1*x+b1라면, a1와 b1가 제1 스캔 조건 하에서 획득된 제1 뇌 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다. 반면, 제2 뇌 요소와 관련하여 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a2*x+b2라면, a2와 b2가 제1 스캔 조건 하에서 획득된 제2 뇌 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다.
이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지로부터 획득된 제1 뇌 요소와 관련된 형태학적 값에 보정 파라미터(a1)를 곱하고, 보정 파라미터(b1)를 더함으로써, 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다. 반면 제1 스캔 조건 하에서 획득된 타겟 이미지와 관련된 제2 뇌 요소에 대하여, 이미지 분석 장치(2000)는 제2 뇌 요소와 관련된 형태학적 값에 보정 파라미터(a2)를 곱하고, 보정 파라미터(b2)를 더함으로써, 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다.
다만 상술한 변환 함수는 예시에 불과하며, 임의의 적절한 함수를 획득함으로써 스캔 조건을 고려한 형태학적 값의 보정이 수행될 수 있을 것이다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 다양한 스캔 조건 하에서 획득된 값들에 기초하여 일관된 스캔 조건 하에서 획득된 값으로 형태학적 값을 근사할 수 있으며, 이를 통하여 일관성 있는 뇌질환과 관련된 진단 보조 지표를 제공할 수 있다.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 위치를 고려하여 보정 파라미터를 상이하게 획득하여 보정을 수행할 수 있기 때문에 보다 정확한 뇌질환과 관련된 진단 보조 지표를 제공할 수 있다.
형태학적 보정 값을 기초로 뇌 형태학적 지표를 획득 및 출력하는 단계(S5340)에서, 이미지 분석 장치(2000)는, 타겟 요소와 관련된 제1 형태학적 보정값과 두개골의 내부 영역과 관련된 제2 형태학적 보정값에 기초하여 뇌 형태학적 지표를 계산하여 출력하도록 구현될 수 있다.
일 예로, 뇌 형태학적 지표는 제2 형태학적 보정 값에 대한 제1 형태학적 보정 값으로 정의될 수 있다. 다만, 이는 예시에 불과하며, 뇌질환과 관련된 임의의 적절한 진단 보조 지표로 뇌 형태학적 지표가 정의될 수 있다.
한편, 타겟 요소가 복수 개일 수 있다. 다시 말해, 타겟 요소가 제1 뇌 요소 및 제2 뇌 요소를 포함할 수 있다.
이때, 이미지 분석 장치(2000)는 타겟 이미지를 세그멘테이션하여 제1 뇌 요소에 대응되는 제1 영역, 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 두개골 영역에 기초하여 두개골의 내부 영역을 획득할 수 있다.
이때, 이미지 분석 장치(2000)는 상술한 바와 같이 보정 파라미터 및 제1 영역의 복셀 데이터에 기초하여 제1 뇌 요소와 제1 보정된 형태학적 값을 계산할 수 있으며, 보정 파라미터 및 제2 영역의 복셀 데이터에 기초하여 제2 뇌 요소와 제2 보정된 형태학적 값을 계산할 수 있다. 또한, 이미지 분석 장치(2000)는 두개골의 내부 영역에 대응되는 복셀 데이터에 기초하여 두개골의 내부 영역과 관련된 기준 형태학적 값을 획득할 수 있으며, 이 값은 뇌 형태학적 지표를 계산하는 데 기준이 될 수 있다. 이때, 제1 뇌 요소와 관련된 보정 파라미터와 제2 뇌 요소와 관련된 보정 파라미터는 상이할 수 있다. 이와 관련하여는 도 64와 관련하여 후술한다.
이미지 분석 장치(2000)는 제1 보정된 형태학적 값 및 기준 형태학적 값에 기초하여 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 계산할 수 있다. 또한, 이미지 분석 장치(2000)는 제2 보정된 형태학적 값 및 기준 형태학적 값에 기초하여 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 계산할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 이미지의 대상체의 나이 및 성별 등을 포함한 특성을 고려하여 타겟 이미지로부터 획득된 형태학적 값을 보정하기 위한 보정 파라미터를 결정할 수 있다.
예를 들어, 타겟 이미지가 성별 및 나이와 관련된 제1 특성을 가지는 제1 대상체로부터 획득되었을 경우, 이미지 분석 장치(2000)는 타겟 이미지로부터 획득된 형태학적 값을 보정하기 위한 보정 파라미터를, 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득된 보정 파라미터로 결정할 수 있다. 예컨대, 이미지 분석 장치(2000)는 타겟 이미지의 제1 대상체와 유사한 나이 및 동일한 성별을 가지는 제2 대상체로부터 획득된 보정 파라미터를 타겟 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터로 결정할 수 있다.
형태학적 보정 값을 기초로 뇌 형태학적 지표를 획득 및 출력하는 단계(S5340)에서, 이미지 분석 장치(2000)는 획득된 뇌 형태학적 지표와 관련된 정보를 출력 모듈(2050)이나 출력 장치(2600)에 포함된 출력 모듈(2650)를 통하여 출력할 수 있다. 구체적으로 이미지 분석 장치(2000)는 도 54 내지 도 57과 관련된 정보들을 유사하게 시각적으로 출력하도록 구현될 수 있다.
한편, 도 59에 따르면, 타겟 요소와 관련된 형태학적 값에 대하여 보정을 한 후 타겟 요소와 관련된 뇌 형태학적 지표를 출력하는 것으로 도시하였으나, 타겟 요소와 관련된 형태학적 값에 기초하여 뇌 형태학적 지표를 계산한 후 보정 파라미터를 고려하여 뇌 형태학적 지표를 보정하여 출력하는 방식으로도 이미지 분석 장치(2000)와 파라미터 획득 장치(2400)가 구현될 수도 있다.
본 실시예에 따르면, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 촬영된 타겟 이미지의 타겟 요소와 관련된 영역에 대응되는 타겟 형태학적 값을, 제1 스캔 조건 이외의 제2 스캔 조건 혹은 제3 스캔 조건 하에서의 타겟 요소의 형태학적 추정값으로 계산할 수 있다.
따라서, 본 실시예에 따른 이미지 분석 장치(2000)는 타겟 형태학적 값을 보다 정확도가 높은 스캔 조건에 대응하는 형태학적 추정값으로 자유롭게 보정할 수 있어 정확도가 개선된 따른 형태학적 지표 정보들을 출력할 수 있다.
이하에서는 도 60 내지 도 65를 참고하여, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)가 보정 파라미터를 획득하는 동작에 대하여 구체적으로 서술한다.
도 60은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 구현되는 보정 파라미터의 획득 방법의 일 동작을 도시한 흐름도이다. 후술할 보정 파라미터는 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 획득될 수 있다. 다시 말해, 도 60에 개시된 보정 파라미터를 획득하는 동작은 보정 파라미터 획득 장치(2400)에 의해 구현될 수 있다.
도 60을 참고하면, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 복수의 뇌 이미지 데이터 세트들을 획득하는 단계(S6100), 적어도 하나 이상의 데이터 세트의 스캔 조건에 따른 형태학적 값의 상관관계를 분석하는 단계(S6200) 및 상관관계 분석 결과에 기초하여 보정 파라미터를 획득하는 단계(S6300)를 포함할 수 있다.
복수의 뇌 이미지 데이터 세트들을 획득하는 단계(S6100)에서, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 복수의 뇌 이미지 데이터 세트들을 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 복수의 뇌 이미지 데이터 세트들은 이미지 획득 장치(1000) 혹은 임의의 외부 장치로부터 획득할 수 있다.
도 61을 참고한다. 도 61은 본 출원의 일 실시예에 따른 복수의 뇌 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다.
복수의 뇌 이미지 데이터 세트들은, 뇌 이미지와 관련된 타겟 요소에 대응되는 영역의 형태학적 수치 혹은 형태학적 지표에 관한 정보를 포함할 수 있다.
또한, 복수의 뇌 이미지 데이터 세트들, 뇌 이미지가 획득된 스캔 조건 혹은 타겟 요소의 위치에 대한 정보와 그 스캔 조건 혹은 타겟 요소의 위치와 관련하여 획득된 형태학적 수치 혹은 형태학적 지표에 관한 정보를 포함할 수 있다.
일 예로, 제1 데이터 세트는, 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1)로부터 계산된 제1 형태학적 수치(혹은 제1 형태학적 지표, V1)와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2)로부터 계산된 제2 형태학적 수치(혹은 제2 형태학적 지표, V2)와 관련된 정보를 포함할 수 있다. 또한, 제1 데이터 세트는 제3 스캔 조건 하에서 획득된 제3 뇌 이미지(IM3)로부터 계산된 제3 형태학적 수치(혹은 제3 형태학적 지표, V3)와 관련된 정보를 더 포함할 수 있다.
또한, 복수의 뇌 이미지 데이터 세트들은 제1 데이터 세트와 그 형태가 유사한 다양한 뇌 데이터들을 더 포함할 수 있다. 예를 들어, 제n 데이터 세트는, 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1n)로부터 계산된 제1 형태학적 수치(혹은 제1 형태학적 지표, V1n)와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2n)로부터 계산된 제2 형태학적 수치(혹은 제2 형태학적 지표, V2n)와 관련된 정보를 포함할 수 있다. 또한, 제n 데이터 세트는 제3 스캔 조건 하에서 획득된 제3 뇌 이미지(IM3n)로부터 계산된 제3 형태학적 수치(혹은 제3 형태학적 지표, V3n)와 관련된 정보를 더 포함할 수 있다.
바람직하게는, 복수의 뇌 이미지 데이터 세트들은, 동일한 대상체에 대하여 획득된 뇌 이미지들의 스캔 조건에 따른 형태학적 수치(혹은 형태학적 지표) 포함할 수 있다. 예를 들어, 도 61을 참고하면, 제1 데이터 세트에 포함된 제1 뇌 이미지(IM1), 제2 뇌 이미지(IM2) 및 제3 뇌 이미지(IM3)는 제1 대상체로부터 획득된 뇌 이미지들일 수 있다. 또한, 제n 데이터 세트에 포함된 제1 뇌 이미지(IM1n), 제2 뇌 이미지(IM2n) 및 제3 뇌 이미지(IM3n)는 제n 대상체로부터 획득된 뇌 이미지들일 수 있다.
이때, 제1 스캔 조건 내지 제3 스캔 조건은 이미지 획득 장치의 이미지의 해상도와 관련되는 자기장의 세기(또는 자기장의 강도), 이미지 획득 장치에 설정될 수 있는, 생성되는 자기장의 형태와 관련된 세팅 파라미터, 이미지 획득 장치의 제조사의 종류 혹은 이들의 조합과 관련된 조건들일 수 있다.
한편, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 대상체의 특성을 고려한 데이터 세트를 이용하여 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는 하나 이상의 동일한 특성(예컨대, 나이 또는 성별)을 가지는 대상체들로부터 획득된 데이터 세트를 이용하여 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는, 타겟 이미지에 대응되는 대상체의 특성과 대응되는 특성을 가지는 데이터 세트에 기초하여 획득된 보정 파라미터가 타겟 이미지의 분석에 이용되도록, 하나 이상의 보정 파라미터를 이미지 분석 장치(2000)로 전달할 수 있다.
다시 도 60을 참고하면, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나의 데이터 세트의 스캔 조건과 형태학적 값의 상관관계를 분석하는 단계(S6200)를 포함할 수 있다.
적어도 하나의 데이터 세트의 스캔 조건과 형태학적 값의 상관관계를 분석하는 단계(S6200)에서, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 복수의 뇌 이미지 데이터 세트들 중 적어도 하나 이상의 데이트 세트들에 포함된 스캔 조건에 따른 형태학적 수치(혹은 형태학적 지표) 간의 상관관계를 분석하도록 구현될 수 있다. 이때, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 구현되는 상관관계의 분석은 선형 분석, 비선형 분석 및 회귀 분석 등 다양한 통계 기법을 활용하여 구현될 수 있다.
본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 상관관계 분석 결과에 기초하여 보정 파라미터를 획득하는 단계(S6300)를 포함할 수 있다.
구체적으로, 보정 파라미터 획득 장치(2400)는, 복수의 뇌 이미지 데이터 세트들 중 적어도 하나 이상의 데이트 세트들에 포함된 제i 데이터 세트로부터, 제1 스캔 조건에서 획득된 제1 형태학적 수치(V1i), 제2 스캔 조건에서 획득된 제2 형태학적 수치(V2i) 및 제3 스캔 조건에서 획득된 제3 형태학적 수치(V3i)를 획득할 수 있다.
또한 보정 파라미터 획득 장치(2400)는, 제i 데이터 세트뿐만 아니라 임의의 제j 데이터 세트로부터, 제1 스캔 조건에서 획득된 제1 형태학적 수치(V1j), 제2 스캔 조건에서 획득된 제2 형태학적 수치(V2j) 및 제3 스캔 조건에서 획득된 제3 형태학적 수치(V3j)를 획득할 수 있다.
이때, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 제i, j 데이터 세트로부터 획득된 제1 형태학적 수치 및 제2 형태학적 수치 간의 상관관계를 분석할 수 있으며, 상관관계 분석 결과에 기초하여 제1 스캔 조건 하에서 획득된 형태학적 수치와 제2 스캔 조건 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다.
또한, 보정 파라미터 획득 장치(2400)는 제i, j 데이터 세트로부터 획득된 제2 형태학적 수치 및 제3 형태학적 수치 간의 상관관계를 분석할 수 있으며, 상관관계 분석 결과에 기초하여 제2 스캔 조건 하에서 획득된 형태학적 수치와 제3 스캔 조건 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다.
또한, 보정 파라미터 획득 장치(2400)는 제i, j 데이터 세트로부터 획득된 제1 형태학적 수치 및 제3 형태학적 수치 간의 상관관계를 분석할 수 있으며, 상관관계 분석 결과에 기초하여 제1 스캔 조건 하에서 획득된 형태학적 수치와 제3 스캔 조건 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다.
예컨대, 보정 파라미터 획득 장치(2400)는 제1 스캔 조건 하에서 획득된 제1 형태학적 수치와 제2 스캔 조건 하에서 획득된 제2 형태학적 수치에 기초한 상관관계 분석을 통하여 제1 스캔 조건 하에서 획득된 형태학적 수치를 제2 스캔 조건 하에서 측정된 형태학적 수치로 변환하는 보정 파라미터를 획득할 수 있다. 혹은 제2 스캔 조건 하에서 획득된 형태학적 수치를 제1 스캔 조건 하에서 측정된 형태학적 수치로 변환하는 보정 파라미터를 획득할 수 있다.
예컨대, 보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 타겟 요소와 관련된 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a*x+b라면, a와 b가 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다.
또한 보정 파라미터 획득 장치(2400)는, 상술한 바와 유사하게 상관관계 분석을 통하여, 제2 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제3 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터, 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제3 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터, 제2 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터 또는 제3 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터를 획득할 수 있다.
도 62 및 도 63을 참고한다.
도 62는 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 일 예를 도시한 그래프이다.
도 63은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 다른 예를 도시한 그래프이다.
도 62를 참고하면, 보정 파라미터 획득 장치(2400)는 제i 데이터 세트로부터, 제1 자기장 강도(예, 1.5T) 하에서 획득된 형태학적 수치(예, 타겟 요소의 부피)와 제2 자기장 강도(예, 3T 혹은 8T) 하에서 획득된 형태학적 수치(예, 타겟 요소의 부피)를 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 도 62에 도시된 선형 분석과 같은 임의의 적절한 통계학적 기법을 활용한 상관관계 분석법에 의하여 제1 자기장 강도(예, 1.5T) 하에서 획득된 형태학적 수치와 제2 자기장 강도(예, 3T 혹은 8T) 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는 제1 자기장 강도 하에서 획득된 형태학적 수치를 제2 자기장 강도 하에서 획득된 형태학적 수치로 보정하기 위한 보정 파라미터를 획득할 수 있다.
도 63을 참고하면, 보정 파라미터 획득 장치(2400)는 제j 데이터 세트로부터, 제1 제조사의 이미지 장치로부터 획득된 형태학적 수치(예, 타겟 요소의 부피)와 제2 제조사의 이미지 장치로부터 획득된 형태학적 수치(예, 타겟 요소의 부피)를 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 도 63에 도시된 선형 분석과 같은 임의의 적절한 통계학적 기법을 활용한 상관관계 분석법에 의하여 제1 제조사의 이미지 장치로부터 획득된 형태학적 수치와 제2 제조사의 이미지 장치로부터 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는 제1 제조사의 이미지 장치로부터 획득된 뇌 이미지로부터 획득된 형태학적 수치를 제2 제조사의 이미지 장치로부터 획득된 뇌 이미지로부터 획득된 형태학적 수치로 보정하기 위한 보정 파라미터를 획득할 수 있다.
다만, 도 63 및 도 64에서 서술된 상관관계 분석은 예시에 불과하며, 비선형 분석 혹은 회귀분석 등 임의의 적절한 통계학적 기법을 활용하여 스캔 조건에 따른 형태학적 수치 간의 보정 파라미터를 획득할 수 있을 것이다.
또한, 도 63 및 도 64는 스캔 조건으로서 각각 자기장 강도와 제조사의 변수를 고려한 형태학적 수치 간의 보정 파라미터를 획득하는 방법에 대하여 예시하였으나, 유사한 방식으로 이미지 장치의 세팅 파라미터와 관련된 스캔 조건을 고려하여 보정 파라미터를 획득할 수 있음은 자명하다.
또한, 자기장 강도와 관련된 스캔 조건, 제조사와 관련된 스캔 조건 및 이미지 장치의 세팅 파라미터와 관련된 스캔 조건 중 적어도 2 이상의 스캔 조건을 고려하여 스캔 조건에 따른 형태학적 수치 간의 보정 파라미터를 획득할 수 있음은 물론이다.
다시 도 60을 참고한다. 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나 이상의 데이터 세트의 스캔 조건에 따른 형태학적 값의 상관관계를 분석하는 단계(S6200)를 포함할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 스캔 조건 이외의 타겟 요소의 위치와 관련된 정보를 고려하여 상관관계 분석을 수행하여 보정 파라미터를 획득하도록 구현될 수 있다.
다시 말해, 스캔 조건이 동일하더라도 타겟 요소의 위치에 따라 형태학적 지표를 보정하기 위한 파라미터가 상이할 수 있는데, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는, 타겟 요소의 위치를 고려하여 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하도록 구현될 수 있다.
구체적으로 타겟 이미지로부터 획득된 타겟 요소의 위치에 따라 타겟 요소의 형태학적 측정값과 형태학적 참값(혹은 형태학적 기준값)에 대한 차이가 상이할 수 있다. 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 위치를 고려하여 타겟 요소의 형태학적 측정값을 보정할 수 있다,
예를 들어, 이미지 분석 장치(2000)는 제1 뇌 요소의 형태학적 측정값을 제1 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제1 보정 파라미터를 획득할 수 있다. 반면 이미지 분석 장치(2000)는 제2 뇌 요소의 형태학적 측정값을 제2 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제2 보정 파라미터를 획득할 수 있다.
다른 예를 들어, 이미지 분석 장치(2000)는 제1 뇌 요소의 형태학적 측정값을 제1 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제1 보정 파라미터를 획득할 수 있다. 반면, 이미지 분석 장치(2000)는 제2 뇌 요소의 형태학적 측정 값은 제2 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)과 실질적으로 동일하다고 판단할 수 있으며 보정 파라미터 획득 장치(2400)로부터 제2 보정 파라미터를 획득하지 않도록 구현될 수 있다.
다시 말해, 이미지 분석 장치(2000)는 타겟 요소의 위치에 따라 형태학적 측정값의 보정 여부를 다르게 수행하도록 구현될 수 있다.
이때, 뇌 요소의 형태학적 측정 값과 뇌 요소의 형태학적 참값이 실질적으로 동일한 지를 판단하기 위한 임의의 형태의 임계값이 설정될 수 있다.
이하에서는 스캔 조건 이외의 타겟 요소의 위치와 관련된 정보를 더 고려함에 따라 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법에 대하여 변경되거나 추가되는 내용을 중심으로 서술한다.
복수의 뇌 이미지 데이터 세트들을 획득하는 단계(S6100)에서, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치로부터 복수의 뇌 이미지 데이터 세트들을 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 데이터베이스 혹은 임의의 외부 장치로부터 복수의 뇌 이미지 데이터 세트들을 획득할 수 있다.
도 64를 참고한다. 도 64는 본 출원의 일 실시예에 따른 복수의 뇌 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다.
복수의 뇌 이미지 데이터 세트들은, 뇌 이미지가 획득된 스캔 조건 및 타겟 요소의 위치에 따른 형태학적 수치 혹은 형태학적 지표에 관한 정보를 포함할 수 있다.
일 예로, 제1 데이터 세트는, 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1)와 관련된 정보 및 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2)와 관련된 정보를 포함할 수 있다. 또한, 제1 데이터 세트는, 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1')와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2')와 관련된 정보를 포함할 수 있다.
또한, 복수의 뇌 이미지 데이터들을 제1 데이터 세트와 유사한 다양한 뇌 데이터들을 더 포함할 수 있다. 예를 들어, 제n 데이터 세트는, 제1 스캔 조건 하에서 획득된 제n 뇌 이미지(IMn)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1n)와 관련된 정보 및 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1n)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2n)와 관련된 정보를 포함할 수 있다. 또한, 제n 데이터 세트는, 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2n)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1n')와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2n)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2n')와 관련된 정보를 포함할 수 있다.
이때, 제2 부위는 제1 부위와 비교하여 두개골에 인접하여 위치될 수 있다. 즉 제1 부위와 제2 부위는 두개골 내에서 서로 상이한 위치에 존재하는 뇌 요소일 수 있다.
또한, 제1 부위와 제2 부위는 해부학적으로 구별될 수 있다.
또는, 제1 부위와 제2 부위는 서로 상이한 기능을 수행할 수 있다. 다시 말해, 제1 부위는 제1 뇌 기능을 수행하는 뇌 요소인 반면, 제2 부위는 제2 뇌 기능을 수행하는 뇌 요소일 수 있다.
다시 도 60을 참고하면, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나의 데이터 세트의 스캔 조건에 따른 형태학적 값의 상관관계를 분석하는 단계(S6200) 및 상관관계 분석 결과에 기초하여 보정 파라미터를 획득하는 단계(S6300)를 포함할 수 있다.
이때, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나 이상의 데이터 세트의 스캔 조건 및 "타겟 요소가 분포하는 위치"에 따른 형태학적 값들에 기초하여 상관관계 분석을 수행할 수 있다.
도 65를 참고한다. 도 65는 본 출원의 일 실시예에 따른 타겟 요소의 위치에 따른 형태학적 값들 간의 상관관계 분석의 예시적인 도면이다. 이때, x축은 제1 스캔 조건에서 획득된 형태학적 수치이며, y축은 제2 스캔 조건에서 획득된 형태학적 수치일 수 있다.
일 예로, 도 65를 참고하면, 보정 파라미터 획득 장치(2400)는 임의의 제i 데이터 세트에 포함된 제1 부위(예, frontal lobe 영역)와 관련하여, 제1 스캔 조건 하(예, 1.5T)에서 촬영된 제i 뇌 이미지(IM1i)로부터 획득된 형태학적 수치(V1i) 및 제2 스캔 조건 하(예, 3T 혹은 8T)에서 촬영된 제i 뇌 이미지(IM2i)로부터 획득된 형태학적 수치(V1i')들에 기초하여 제1 부위에 대한 제1 보정 파라미터를 획득할 수 있다.
다른 예로, 도 65를 참고하면, 보정 파라미터 획득 장치(2400)는 임의의 제j 데이터 세트에 포함된 제2 부위(예, cerebellum 영역)와 관련하여, 제1 스캔 조건 하(예, 1.5T)에서 촬영된 제j 뇌 이미지(IM1j)로부터 획득된 형태학적 수치(V2j) 및 제2 스캔 조건 하(예, 3T 혹은 8T)에서 촬영된 제j 뇌 이미지(IM2j)로부터 획득된 형태학적 수치(V2j')들에 기초하여 제2 부위에 대한 제2 보정 파라미터를 획득할 수 있다.
이때, 제1 부위에 대한 제1 보정 파라미터와 제2 부위에 대한 제2 보정 파라미터는 상이할 수 있다.
예컨대, 제1 보정 파라미터는 제1 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 수치를 제2 스캔 조건 하에서 측정된 제1 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다. 혹은 제1 보정 파라미터는 제2 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 수치를 제1 스캔 조건 하에서 측정된 제1 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다.
예컨대, 제1 보정 파라미터는 제1 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 값과 제2 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a1*x+b1라면, a1과 b1이 제1 스캔 조건 하에서 획득된 제1 부위의 형태학적 값을 제2 스캔 조건 하에서 획득된 제1 부위의 형태학적 값으로 근사하기 위한 파라미터일 수 있다.
반면, 제2 보정 파라미터는 제1 스캔 조건 하에서 획득된 "제2 부위"와 관련된 형태학적 수치와 제2 스캔 조건 하에서 획득된 "제2 부위" 관련된 형태학적 수치에 기초한 상관관계 분석을 통하여, 제1 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 수치를 제2 스캔 조건 하에서 측정된 제2 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다. 혹은 제2 보정 파라미터는 제2 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 수치를 제2 스캔 조건 하에서 측정된 제2 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다.
예컨대, 제2 보정 파라미터는 제1 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a2*x+b2라면, a2와 b2가 제1 스캔 조건 하에서 획득된 제2 부위의 형태학적 값을 제2 스캔 조건 하에서 획득된 제2 부ㅇ위의 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다.
또한 보정 파라미터 획득 장치(2400)는, 상술한 바와 유사하게 상관관계 분석을 통하여, 제2 스캔 조건 하에서 획득된 제1 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제1 부위의 형태학적 값으로 근사하기 위한 보정 파라미터, 제2 스캔 조건 하에서 획득된 제2 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제2 부위의 형태학적 값으로 근사하기 위한 보정 파라미터를 획득할 수 있다.
또한 보정 파라미터 획득 장치(2400)는, 상술한 바와 유사하게 상관관계 분석을 통하여, 제1 스캔 조건 하에서 획득된 제1 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제1 부위의 형태학적 값으로 근사하기 위한 보정 파라미터, 제1 스캔 조건 하에서 획득된 제2 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제2 부위의 형태학적 값으로 근사하기 위한 보정 파라미터를 획득할 수 있다.
본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 타겟 요소의 위치에 대한 변수를 고려하여 보정 파라미터를 부위별로 보다 정확하게 획득할 수 있으며, 부위별로 스캔 조건에 따라 영항을 받는 형태학적 수치나 지표를 보상할 수 있다는 유리한 효과가 존재한다.
따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 보다 정확하고 객관적인 뇌 질환과 관련된 형태학적 지표 및 뇌 질환 진단 보조 지표를 사용자에게 제공할 수 있다는 장점이 존재한다.
추가적으로 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 뇌의 좌반구, 우반구 모두에 존재하는 타겟 요소(예, 제1 뇌 요소 및 제2 뇌 요소)에 대하여 상술한 보정 파라미터 획득 동작을 각각 수행하도록 구현될 수 있다.
예를 들어, 도 65와 관련된 일 예에서는, 보정 파라미터 획득 장치(2400)는 좌반구에 위치하는 제1 부위(예, Frontal lobe)에 대하여 상관관계 분석을 수행하여 보정 파라미터를 획득할 수 있다.
또한, 보정 파라미터 획득 장치(2400)는 우반구에 위치하는 제1 부위(예, Frontal lobe)에 대하여도 상관관계 분석을 수행하여 보정 파라미터를 획득하도록 구현될 수 있으며, 제1 부위에 대하여 획득된 보정 파라미터는 좌반구와 우반구에 따라 상이할 수 있다.
한편, 이미지 분석 장치(2000)로부터 출력되는 타겟 요소와 관련된 형태학적 값이나 타겟 요소와 관련된 형태학적 지표를 이미지 분석 장치(2000)의 사용자가 목표하는 스캔 조건에 대응하는 형태학적 값이나 형태학적 지표로 수정할 필요성이 존재할 수 있다. 예를 들어, 출력되는 타겟 요소와 관련된 형태학적 값 등이 제1 스캔 조건 하에서 획득된 형태학적 값에 기초하여 획득된 값일 때, 사용자는 제1 스캔 조건이 아닌 제2 스캔 조건 하에서 획득된 형태학적 값에 대응하는 결과들로 타겟 요소와 관련된 형태학적 정보들을 출력받기를 원할 수 있다.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 입력 모듈을 통하여 사용자로부터 레퍼런스 스캔 조건과 관련된 입력을 획득할 수 있으며, 사용자 입력에 대응하는 타겟 요소와 관련된 형태학적 정보들을 출력하도록 구현될 수 있다.
이하에서는 도 66을 참고하여, 레퍼런스 스캔 조건과 관련된 사용자의 입력에 기초하여 뇌 형태학적 지표를 보정하는 다른 실시예에 대하여 보다 구체적으로 서술한다. 도 66은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도를 나타낸 도면이며, 구체적으로 도 58의 상기 S5300 단계를 세분화한 도면이다.
도 66을 참고하면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 세그멘테이션 결과에 기초하여 타겟 요소의 타겟 형태학적 값을 획득하는 단계(S5410), 레퍼런스 스캔 조건을 획득하는 단계(S5420) 및 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)를 포함할 수 있다.
이때, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 타겟 형태학적 값을 기초로 뇌 형태학적 지표를 출력하는 단계(S5440)를 포함할 수 있다.
한편, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 보정 파라미터를 획득하는 단계(S5450), 타겟 형태학적 값 및 보정 파라미터에 기초하여 타겟 형태학적 보정값을 획득하는 단계(S5460) 및 타겟 형태학적 보정값을 기초로 뇌 형태학적 지표를 출력하는 단계(S5470)를 포함할 수 있다.
세그멘테이션 결과에 기초하여 타겟 요소의 타겟 형태학적 값을 획득하는 단계(S5410)에서, 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 타겟 요소에 대응되는 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 타겟 요소와 관련된 타겟 형태학적 값을 획득할 수 있다.
혹은 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 두개골의 내부 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 두개골의 내부 영역과 관련된 형태학적 값을 획득할 수 있다.
또한, 세그멘테이션 결과에 기초하여 타겟 요소의 타겟 형태학적 값을 획득하는 단계(S5410)에서, 이미지 분석 장치(2000)는, 타겟 요소와 관련된 형태학적 값과 두개골의 내부 영역과 관련된 형태학적 값에 기초하여 타겟 요소와 관련된 타겟 요소의 뇌 형태학적 지표를 획득할 수 있다.
이때, 타겟 형태학적 값이나 뇌 형태학적 지표는 부피, 두께, 길이 및 형태 등을 포함하는 형태학적 특성(morphological character)와 관련된 수치일 수 있다.
레퍼런스 스캔 조건을 획득하는 단계(S5420)에서, 이미지 분석 장치(2000)는, 이미지 분석 장치(2000)에 포함된 입력 모듈(2040)을 통하여 사용자의 레퍼런스 스캔 조건과 관련된 입력을 획득할 수 있다. 혹은 이미지 분석 장치(2000)는, 출력 장치(2600)의 입력 모듈(2640)을 통하여 사용자의 레퍼런스 스캔 조건과 관련된 입력을 획득할 수 있다.
혹은 레퍼런스 스캔 조건은 미리 설정되어 있을 수 있다. 이미지 분석 장치(2000)는 미리 설정된 레퍼런스 스캔 조건과 관련된 정보를 획득할 수 있다.
이때, 레퍼런스 스캔 조건은 자기장 세기, 이미지 장치의 세팅 파라미터 혹은 이미지 장치의 제조사와 관련된 스캔 조건일 수 있다. 또는 레퍼런스 스캔 조건은 형태학적 지표를 획득하고자 하는 타겟 요소의 위치를 추가적으로 고려한 스캔 조건일 수 있다
이미지 분석 장치(2000)는 레퍼런스 스캔 조건을 획득함으로써, 레퍼런스 스캔 조건에 대응하는 타겟 요소의 형태학적 값이나 뇌 형태학적 지표를 출력하거나 보정할 수 있다. 예를 들어, 사용자는 레퍼런스 스캔 조건을 입력함으로써, 레퍼런스 스캔 조건 하에서 측정된 값으로 추정된 타겟 요소와 관련된 형태학적 값이나 뇌 형태학적 지표를 제공받을 수 있다.
타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)에서, 이미지 분석 장치(2000)는 획득된 레퍼런스 스캔 조건과 타겟 이미지가 촬영된 스캔 조건이 대응되는지 여부를 판단할 수 있다.
구체적으로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)나 혹은 임의의 외부 장치(예, 서버)로부터 타겟 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다.
예를 들어, 상술한 바와 같이, 타겟 이미지가 촬영된 스캔 조건이 타겟 이미지에 대하여 메타 데이터로서 구조화될 수 있으며, 이미지 분석 장치(2000)는 타겟 이미지가 촬영된 스캔 조건와 관련된 메타 데이터를 인식함으로써, 타겟 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다.
다른 예를 들어, 이미지 분석 장치(2000)는 타겟 이미지가 촬영된 스캔 조건을 입력 모듈을 통하여 사용자로부터 입력받아 타겟 이미지가 촬영된 스캔 조건을 획득할 수 있다.
다른 예를 들어, 상술한 바와 같이, 타겟 이미지가 촬영된 스캔 조건과 관련된 정보는 임의의 외부 장치로부터 획득될 수 있다.
이때, 이미지 분석 장치(2000)는 획득한 타겟 이미지가 촬영된 스캔 조건과 레퍼런스 스캔 조건이 대응하는지 여부를 판단할 수 있다.
예를 들어, 타겟 이미지가 자기장 세기가 1.5T에서 촬영되었으며, 사용자로부터 레퍼런스 스캔 조건으로 자기장 세기 3T과 관련된 정보가 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다고 판단할 수 있다.
반면, 타겟 이미지가 자기장 세기가 3T에서 촬영되었으며, 자기장 세기 3T과 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다고 판단할 수 있다.
다른 예를 들어, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제2 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다고 판단할 수 있다.
반면, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제1 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다고 판단할 수 있다.
타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)에서, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다고 판단한다면, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 획득한 타겟 요소의 타겟 형태학적 값을 기초로 뇌 형태학적 지표를 출력하도록 구현될 수 있다. (S5440)
다시 말해, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다면, 사용자가 제공받고자 하는 스캔 조건으로의 보정이 수행되지 않아도 무방하기에 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 획득한 타겟 요소의 타겟 형태학적 값을 기초로 뇌 형태학적 지표를 출력하도록 구현될 수 있다.
반면, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)에서, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다고 판단한다면, 이미지 분석 장치(2000)는 보정 파라미터 획득 장치(2400)로부터 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건에 대응되는 상관관계 분석에 기초하여 획득된 보정 파라미터를 획득하도록 구현될 수 있다. (S5450)
예를 들어, 타겟 이미지가 자기장 세기가 1.5T에서 촬영되었으며, 자기장 세기 3T과 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 자기장 세기가 1.5T에서 촬영된 제1 이미지로부터 획득된 제1 형태학적 값을 자기장 세기가 3T에서 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 보정 파라미터를 획득하도록 구현될 수 있다. 또는 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 획득된 보정 파라미터 데이터베이스로부터 자기장 세기가 1.5T에서 촬영된 제1 이미지로부터 획득된 제1 형태학적 값을 자기장 세기가 3T에서 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 파리미터를 보정 파라미터로 결정할 수 있다.
다른 예를 들어, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제2 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 제1 제조사의 이미지 장치로 촬영된 제1 이미지로부터 획득된 제1 형태학적 값과 제2 제조사의 이미지 장치로 촬영된 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 보정 파라미터를 획득하도록 구현될 수 있다. 또는 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 획득된 보정 파라미터 데이터베이스로부터 제1 제조사의 이미지 장치로 촬영된 제1 이미지로부터 획득된 제1 형태학적 값과 제2 제조사의 이미지 장치로 촬영된 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 파라미터를 보정 파라미터로 결정하도록 구현될 수 있다.
타겟 형태학적 값 및 보정 파라미터에 기초하여 타겟 형태학적 보정값을 획득하는 단계(S5460)에서, 이미지 분석 장치(2000)는 획득한 보정 파라미터 및 세그멘테이션 결과에 기초하여 획득한 타겟 요소의 타겟 형태학적 값에 기초하여 타겟 형태학적 보정값(혹은 보정된 타겟 형태학적 값)을 획득할 수 있다.
예를 들어, 타겟 이미지가 자기장 세기가 1.5T에서 촬영되었으며, 자기장 세기 3T과 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 1.5T에서 촬영된 뇌 이미지로부터 획득한 타겟 요소와 관련된 형태학적 값(혹은 형태학적 지표)을 3T에서 획득된 것에 대응될 수 있는 형태학적 값(혹은 형태학적 지표)으로 보정할 수 있는 제1 보정 파라미터를 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 타겟 이미지의 세그멘테이션 결과에 기초하여 획득한 타겟 요소와 관련된 타겟 형태학적 값(혹은 타겟 형태학적 지표)에 제1 보정 파라미터를 적용함으로써, 타겟 형태학적 보정값을 획득할 수 있다.
다른 예를 들어, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제2 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 제1 제조사의 이미지 장치로 촬영된 뇌 이미지로부터 획득한 타겟 요소와 관련된 형태학적 값(혹은 형태학적 지표)을 제2 제조사의 이미지 장치로부터 획득된 것에 대응될 수 있는 형태학적 값(혹은 형태학적 지표)으로 보정할 수 있는 제2 보정 파라미터를 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 타겟 이미지의 세그멘테이션 결과에 기초하여 획득한 타겟 요소와 관련된 타겟 형태학적 값(혹은 타겟 형태학적 지표)에 제2 보정 파라미터를 적용함으로써, 타겟 형태학적 보정값을 획득할 수 있다.
타겟 형태학적 보정값을 기초로 뇌 형태학적 지표를 출력하는 단계(S5470)에서, 이미지 분석 장치(2000)는 타겟 형태학적 보정값을 기초로 타겟 요소와 관련된 뇌 형태학적 지표를 출력할 수 있다.
예를 들어, 이미지 분석 장치(2000)는 타겟 이미지의 세그멘테이션 결과에 따라 획득된 두개골의 내부 영역에 대응되는 형태학적 값과 타겟 형태학적 보정값을 기초로 타겟 요소와 관련된 뇌 형태학적 지표를 계산하여 출력하도록 구현될 수 있다. 좀 더 구체적으로 두개골의 내부 영역에 대응되는 형태학적 값에 대한 타겟 형태학적 보정값의 비율을 타겟 요소와 관련된 뇌 형태학적 지표로 계산하여 출력하도록 이미지 분석 장치(2000)가 구현될 수 있다.
이때, 두개골의 내부 영역에 대응되는 형태학적 값은 상술한 바와 같이 사용자의 레퍼런스 스캔 조건의 입력에 따라 보정 파라미터를 획득하여 보정된 값일 수 있다.
상술한 바에 따르면, 스캔 조건으로 자기장 세기와 이미지 장치의 제조사와 관련된 내용을 중심으로 서술하였으나, 이에 제한되지 않으며, 이미지 장치와 관련된 세팅 파라미터에 대한 스캔 조건에 대하여도 유사하게 적용될 수 있다.
또한, 도 66에 따르면, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하며, 판단한 결과에 따라 보정 파라미터를 획득하거나 결정하는 것으로 설명하였으나, 이에 제한되지 않으며, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 과정이 생략될 수 있다. 예컨대, 이미지 분석 장치(2000)는 레퍼런스 스캔 조건 및 타겟 이미지의 스캔 조건을 획득하고, 레퍼런스 스캔 조건 및 타겟 이미지의 스캔 조건에 기초하여 결정된 보정 파라미터에 기초하여 타겟 형태학적 보정값이나 뇌 형태학적 지표를 획득하도록 구현될 수 있을 것이다.
이하에서는 도 67을 참고하여, 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들의 예시 및 사용자의 레퍼런스 스캔 조건과 관련된 입력을 수신하는 유저 인터페이스를 설명한다. 도 67은 본 출원의 일 실시예에 따른 유저 인터페이스를 개략화한 도면이다.
도 67을 참고하면, 본 출원의 일 실시예에 따른 유저 인터페이스는 입력 모듈(2040 혹은 2640)을 통하여 레퍼런스 스캔 조건과 관련된 사용자의 입력을 획득하고, 출력 모듈(2050 혹은 2650)을 통하여 레퍼런스 스캔 조건과 관련된 사용자의 입력에 대응되는 정보를 출력하도록 제공될 수 있다. 이때, 출력 모듈(2050 혹은 2650)은 스마트폰의 디스플레이, 모니터의 디스플레이 등 임의의 적절한 형태로서 구현될 수 있다.
일 예로, 이미지 분석 장치(2000)는, 이미지 분석 장치(2000)의 출력 모듈(2050) 혹은 출력 장치(2600)의 출력 모듈(2650)을 통하여, 형태학적 지표와 관련된 정보들을 출력할 수 있다.
이때, 이미지 분석 장치(2000)는 현재 스캔 조건에 대한 정보(O1)를 출력하도록 구현될 수 있다. 구체적으로 이미지 분석 장치(2000)는 출력되는 형태학적 지표와 관련된 정보들이 어떠한 스캔 조건에 대응되어 출력되는 것인지와 관련된 정보들(O1)을 출력하도록 구현될 수 있다. 예를 들어, 도 67을 다시 참고하면, 현재 출력되는 형태학적 지표와 관련된 정보들은, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 1.5T의 자기장 세기에 대응하는 스캔 조건 하에서 획득된 것을 나타내는 정보들을 포함할 수 있다.
본 출원의 일 실시예에 따른 유저 인터페이스는 사용자의 레퍼런스 스캔 조건에 대한 입력을 획득하기 위한 체크박스들을 포함한 레퍼런스 스캔 조건에 대한 정보(O2)를 출력하도록 구현될 수 있다.
구체적으로 사용자는 입력 모듈을 통하여 자기장 세기과 관련된 레퍼런스 스캔 조건에 대응되는 체크박스를 선택하도록 유저 인터페이스가 구현될 수 있으며, 이미지 분석 장치(2000)는 유저 인터페이스를 통하여 자기장 세기와 관련된 레퍼런스 스캔 조건을 획득할 수 있다.
또한 사용자는 입력 모듈을 통하여 제조사와 관련된 레퍼런스 스캔 조건에 대응되는 체크박스를 선택하도록 유저 인터페이스가 구현될 수 있으며, 이미지 분석 장치(2000)는 유저 인터페이스를 통하여 제조사와 관련된 관련된 레퍼런스 스캔 조건을 획득할 수 있다. 레퍼런스 스캔 조건에 대한 정보(O2)는 체크 박스 이외의 다른 형태의 입력 인터페이스를 통하여 입력될 수도 있다.
예를 들어, 도 67을 참고하면, 사용자는 입력 모듈을 통하여, 현재 출력되는 형태학적 지표와 관련된 정보(예, 제1 제조사에 의해 제조된 이미지 장치에서 1.5T의 자기장 세기에 대응하는 스캔 조건 하에서 계산된 정보들(F1, G1, T1))들을 제1 제조사에 의해 제조된 이미지 장치에서 3T의 자기장 세기에 대응하는 스캔 조건 하에서 획득된 것과 같은 형태학적 지표와 관련된 정보들로 변환하기 위한 입력 데이터를 입력할 수 있다.
이때, 이미지 분석 장치(2000)는, 도 67과 관련되어 상술한, 획득된 레퍼런스 스캔 조건에 기초하여 대응되는 보정 파라미터를 획득하고, 형태학적 값(혹은 형태학적 지표)을 보정하여 출력하는 동작을 수행하도록 구현될 수 있다.
이때, 이미지 분석 장치(2000)는 보정된 형태학적 값 혹은 보정된 형태학적 지표에 기초하여, 기존에 출력된 형태학적 지표와 관련된 정보들을 변경하여 출력하도록 구현될 수 있다.
예를 들어, 사용자으로부터 획득된 레퍼런스 스캔 조건에 따라 계산된 형태학적 값이나 형태학적 지표가 변경될 수 있으며, 이에 기초하여 뇌 부피 백분위 그래프(G1)가 수정되어 출력 모듈(2050)를 통하여 출력되도록 구현될 수 있다.
다른 예를 들어, 사용자으로부터 획득된 레퍼런스 스캔 조건에 따라 계산된 형태학적 값이나 형태학적 지표가 변경될 수 있으며, 이에 기초하여 뇌 부피 상세분석표(T1)에 포함된 형태학적 값이나 형태학적 지표와 관련된 백분위와 같은 수치들이 수정되어 출력 모듈(2050)를 통하여 출력되도록 구현될 수 있다.
또 다른 예를 들어, 사용자으로부터 획득된 레퍼런스 스캔 조건에 따라 계산된 형태학적 값이나 형태학적 지표가 변경될 수 있으며, 이에 기초하여 뇌 부피 위축도(F1)에 포함된 형태학적 지표와 관련된 백분위에 따른 색상이 수정되어 출력 모듈(2050)를 통하여 출력되도록 구현될 수 있다.
다만 도 67에 도시된 유저 인터페이스는 예시에 불과하며, 유저 인터페이스는 임의의 적절한 방법을 통하여 사용자의 임의의 적절한 입력을 획득하고, 사용자 입력에 기초하여 변경되는 이미지 분석 장치의 분석 결과를 임의의 적절한 방법으로 출력하도록 구현될 수 있을 것이다.
본 실시예에 따르면, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 촬영된 타겟 이미지의 타겟 요소와 관련된 영역에 대응되는 타겟 형태학적 값을, 사용자의 입력에 기초하여 제1 스캔 조건 이외의 제2 스캔 조건 혹은 제3 스캔 조건 하에서의 타겟 요소의 형태학적 추정값으로 계산할 수 있다.
따라서, 본 실시예에 따른 이미지 분석 장치(2000)는 타겟 형태학적 값을 사용자가 원하는 스캔 조건에 대응하는 형태학적 추정값으로 자유롭게 보정할 수 있어 사용자가 원하는 스캔 조건에 따른 형태학적 지표 정보들을 사용자에게 제공할 수 있다는 유리한 효과가 존재한다.
한편, 본 출원의 일 실시예에 따른 형태학적 수치를 보정하기 위한 일 예는 도 58의 세그멘테이션 단계(S5200) 이전에도 수행될 수 있다. 다시 말해, 형태학적 수치를 보다 정확히 획득하기 위하여 이미지 분석 장치(2000)는 세그멘테이션 단계(S5200) 이전에 보정 동작을 수행하도록 구현될 수 있다.
이때, 본 출원의 일 실시예에 따르면, 타겟 이미지가 획득된 스캔 조건별로 타겟 이미지와 관련된 보정이 다르게 구현될 수 있다.
일 예로, 이미지 분석 장치(2000)는 타겟 이미지의 인텐시티(intentsity)의 정규화(Regularization)과 같은 동작을 수행하도록 제공될 수 있다. 이때, 타겟 이미지가 획득된 스캔 조건별로 인텐시티(intentsity)의 정규화(Regularization)의 보정 방법이 상이하게 구현될 수 있다.
다른 예로, 이미지 분석 장치(2000)는 타겟 이미지를 목표하는 자기장 세기 혹은 세팅 파라미터와 관련된 스캔 조건에 대응되는 뇌 이미지로 변환하는 동작을 수행하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 MR 시뮬레이터(MR simulator) 등과 같은 임의의 적절한 소프트웨어, 이미지 변환 기법 혹은 학습된 인공 신경망을 이용하여, 타겟 이미지를 목표하는 스캔 조건에 대응되는 뇌 이미지로 변환할 수 있다. 이때, 타겟 이미지가 획득된 스캔 조건별로, 특히 타겟 이미지가 획득된 세팅 파라미터(예, TR, TE 등)를 고려하여 MR 시뮬레이터(MR simulator) 등의 이미지 변환 파라미터를 상이하게 제공함으로써 타겟 이미지의 보정이 수행될 수 있다. 이때, 이미지 분석 장치(2000)는 스캔 조건을 고려하여 타겟 이미지를 목표하는 스캔 조건에 대응되는 뇌 이미지로 변환하기 위한 변환 파라미터를 획득하거나 계산하도록 구현될 수 있다.
또는 타겟 요소의 위치별로 타겟 이미지와 관련된 보정이 다르게 제공될 수 있다.
일 예로, 이미지 분석 장치(2000)는 제1 뇌 요소에 대응되는 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 제2 뇌 요소에 대응되는 제2 영역에 대하여는 제1 방법과는 상이한 제2 방법의 전처리를 수행하도록 구현될 수 있다.
예컨대, 제1 뇌 요소에 대응되는 제1 영역은, 제2 뇌 요소에 대응되는 제2 영역과 비교하여 두개골 영역에 인접하여 위치될 수 있다. 이때, 타겟 이미지의 해상도나 선명도와 관련하여 제1 영역은, 제2 영역에 비하여 상대적으로 선명하지 않을 수 있다. 이때, 이미지 분석 장치(2000)는 제1 영역에 대하여는 제1 방법을 이용하여 제1 영역의 선명도를 개선하는 전 처리를 수행하도록 구현될 수 있으며, 제2 영역에 대하여는 임의의 적절한 제2 방법을 이용하여 이미지 분석의 정확도를 개선하기 위한 전 처리를 수행하도록 구현될 수 있다.
상술한 바에 따르면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 획득된 형태학적 수치(예, 형태학적 값이나 형태학적 지표)에 대한 보정뿐만 아니라, 세그멘테이션 이전에 스캔 조건 등을 고려하여 추가적인 보정을 수행할 수 있기 때문에 보다 정확한 형태학적 수치를 획득할 수 있다는 유리한 효과가 존재할 수 있다.
따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 객관적인 뇌 질환과 관련된 진단 보조 지표를 사용자에게 제공할 수 있다는 장점이 존재할 수 있다.
의료 이미지의 분석을 통해 다양한 지표 정보가 획득될 수 있고, 상기 지표 정보들로부터 도출될 수 있는 의료 정보 또한 다양할 수 있다. 예를 들어, 상기 지표 정보들로부터 도출될 수 있는 의료 정보는 상기 지표 정보들의 분석을 통해 획득되는 진단 정보, 분석 정보 또는 처방 정보에 관한 것일 수 있다.
이 경우, 획득되는 다양한 지표 정보 중 사용자에게 필요한 정보는 각각의 사용자마다 상이할 수 있다. 이에 따라, 의료 이미지가 포함하고 있는 다양한 지표 정보 중 사용자에게 필요한 지표 정보가 선별적으로 제공되어야 할 필요성이 존재한다. 또는, 의료 이미지가 포함하고 있는 다양한 지표 정보 중 사용자의 관심에 따라 선택된 지표 정보가 선별적으로 제공되어야 할 필요성도 존재한다. 즉, 사용자에게 필요한 정보를, 환자 정보 또는 사용자 정보 등에 따라 달리 제공함으로써, 의료 이미지로부터 도출된 지표 정보를 일률적으로 제공하는 것에 비하여, 사용자의 정보 취득이 보다 용이해질 수 있다.
일 실시예에 따르면, 이미지 출력 장치는 촬영된 의료 이미지의 분석을 통해 획득되는 다양한 지표 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공할 수 있다.
도 68은 일 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.
도 68을 참조하면, 일 실시예에 따른 의료 정보 출력 프로세스는 의료 데이터 획득 단계(S4100), 의료 정보 획득 단계(S4200), 진단 보조 정보 획득 단계(S4300) 및 진단 보조 정보 출력 단계(S4400)를 포함할 수 있다.
도 69는 일 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.
도 69를 참조하면, 일 실시예에 따른 이미지 분석 장치(4000)는 의료 정보를 출력할 수 있다. 이미지 분석 장치(4000)는 의료 데이터 획득 모듈(4100), 의료 정보 획득 모듈(4200), 진단 보조 정보 획득 모듈(4300) 및 진단 보조 정보 출력 모듈(4400)을 포함할 수 있다.
도면에서는 의료 데이터가 이미지 분석 장치를 통해 획득되는 것으로 표시되어 있으나, 의료 데이터는 이미지 획득 장치에 의해 획득될 수도 있다.
도 70은 의료 데이터 획득 모듈을 설명하기 위한 도면이다.
도 70을 참조하면, 의료 데이터 획득 모듈(4100)은 이미지 데이터 획득부(4110) 또는 비-이미지 데이터 획득부(4130) 중 어느 하나를 포함할 수 있다. 의료 데이터는 이미지 데이터 또는 비-이미지 데이터 중 어느 하나를 포함할 수 있다.
이미지 데이터 획득부(4110)는 이미지 데이터를 획득할 수 있다. 여기서, 이미지 데이터는 다양한 종류의 의료 이미지 또는 의료 영상을 포함할 수 있다. 이미지 데이터는 복수의 의료 이미지 또는 의료 영상을 포함할 수 있다.
비-이미지 데이터 획득부(4130)는 비-이미지 데이터를 획득할 수 있다. 여기서, 비-이미지 데이터는 건강과 관련된 문진표 데이터를 포함할 수 있다. 비-이미지 데이터는 이미지 데이터에 기초하여 획득된 비-이미지 정보를 포함할 수 있다.
도 71은 의료 정보 획득 모듈(4200)을 설명하기 위한 도면이다.
의료 정보 획득 모듈(4200)은 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 의료 정보는 대상체의 건강 상태와 관련한 다양한 정보를 포함할 수 있다. 의료 정보는 대상체와 관련한 다양한 지표 정보 예컨대, 인체의 일 영역에 관한 면적, 부피, 위치 또는 모양 등을 포함할 수 있다.
도 71을 참조하면, 의료 정보 획득 모듈(4200)은 제1 의료 정보 획득부(4210) 또는 제2 의료 정보 획득부(4230) 중 어느 하나를 포함할 수 있다.
제1 의료 정보 획득부(4210)는 제1 의료 정보를 획득할 수 있다. 제2 의료 정보 획득부(4230)는 제2 의료 정보를 획득할 수 있다. 이 경우, 제1 의료 정보 또는 제2 의료 정보는 학습된 신경망을 이용하여 의료 데이터를 기초로 획득된 정보를 포함할 수 있다. 제1 의료 정보 또는 제2 의료 정보는 의료 데이터와 로데이터를 포함할 수 있다. 제1 의료 정보 또는 제2 의료 정보는 의료 데이터를 기초로 획득되는 형태학적 지표 또는 형태학적 값을 포함할 수 있다.
제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 각각 독립된 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 제1 의료 정보 획득부(4210)은 제1 의료 데이터에 기초하여 의료 정보를 획득하고, 제2 의료 정보 획득부(4230)는 제2 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 예시적으로, 제1 의료 정보 획득부(4210)은 이미지 데이터에 기초하여 의료 정보를 획득하고, 제2 의료 정보 획득부(4230)는 비-이미지 데이터에 기초하여 의료 정보를 획득할 수 있다.
또는, 제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 공통되는 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 제1 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 예시적으로, 제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 이미지 데이터 또는 비-이미지 데이터에 기초하여 의료 정보를 획득할 수 있다.
도 71에서는, 제1 의료 정보 획득부(4210)와 제2 의료 정보 획득부(4230)가 구별되는 것으로 예시하였으나, 이는 예시에 불과하며 제1 의료 정보 획득부(4210)와 제2 의료 정보 획득부(4230)는 하나의 물리적 또는 논리적 구성으로 마련될 수 있다.
도 72는 진단 보조 정보 획득 모듈(4300)을 설명하기 위한 도면이다.
진단 보조 정보 획득 모듈(4300)은 진단 보조 정보를 획득할 수 있다. 진단 보조 정보는 학습된 신경망을 이용하여 의료 정보를 기초로 획득된 정보일 수 있다. 진단 보조 정보는 의료 정보를 가공하여 획득된 정보일 수 있다. 예컨대, 진단 보조 정보는 의료 정보에 기초한 질병 진단 정보, 의료 정보 분석 정보, 처방 정보 등을 포함할 수 있다. 진단 보조 정보는 이미지 형태 또는 텍스트 형태일 수 있다.
또한, 진단 보조 정보는 본 명세서에서 예시된 이미지 분석과 관련된 정보 예컨대, 이미지 품질 관련 정보, ICV 관련 정보, Calibration 관련 정보 또는 세그멘테이션(segmentation) 관련 정보를 포함할 수 있다.
도 72를 참조하면, 진단 보조 정보 획득 모듈(4300)은 제1 진단 보조 정보 획득부(4310) 또는 제2 진단 보조 정보 획득부(4330) 중 어느 하나를 포함할 수 있다.
제1 진단 보조 정보 획득부(4310)는 제1 진단 보조 정보를 획득할 수 있다. 제2 진단 보조 정보 획득부(4330)는 제2 진단 보조 정보를 획득할 수 있다.
제1 진단 보조 정보 획득부(4310) 및 제2 진단 보조 정보 획득부(4330)는 각각 독립된 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 제1 진단 보조 정보 획득부(4310)는 제1 의료 정보에 기초하여 진단 보조 정보를 획득하고, 제2 진단 보조 정보 획득부(4330)는 제2 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 예시적으로, 제1 진단 보조 정보 획득부(4310)는 이미지 데이터에 기초하여 진단 보조 정보를 획득하고, 제2 진단 보조 정보 획득부(7313)는 비-이미지 데이터에 기초하여 진단 보조 정보를 획득할 수 있다.
또는, 제1 진단 보조 정보 획득부(4310) 및 제2 진단 보조 정보 획득부(4330)는 공통되는 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 제1 진단 보조 정보 획득부(4310) 및 제2 진단 보조 정보 획득부(4330)는 제1 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 예시적으로, 제1 의료 정보는 이미지 데이터 또는 비-이미지 데이터일 수 있다.
도 72에서는, 제1 진단 보조 정보 획득부(4310)와 제2 진단 보조 정보 획득부(4330)가 구별되는 것으로 예시하였으나, 이는 예시에 불과하며 제1 진단 보조 정보 획득부(4310)와 제2 진단 보조 정보 획득부(4330)는 하나의 물리적 또는 논리적 구성으로 마련될 수 있다.
도 73는 진단 보조 정보 출력 모듈(4400)을 설명하기 위한 도면이다.
도 73을 참조하면, 진단 보조 정보 출력 모듈(4400)은 진단 보조 정보 출력부(4410), 코멘트 생성부(4420) 또는 코멘트 출력부(4430)를 포함할 수 있다.
진단 보조 정보 출력부(4410)는 진단 보조 정보를 출력할 수 있다. 진단 보조 정보 출력부(4410)는 복수의 진단 보조 정보(예컨대, 처방 정보 및 대상 질병 관련 지표 정보)를 출력할 수 있다. 예컨대, 진단 보조 정보 출력부(4410)는 제1 진단 보조 정보와 제2 진단 보조 정보에 기초한 정보를 출력할 수 있다. 진단 보조 정보 출력부(4410)는 진단 보조 정보를 이미지 또는 비-이미지 형태로 가공한 정보를 출력할 수 있다.
코멘트 생성부(4420)는 진단 보조 정보에 기초하여 결정된 코멘트를 생성할 수 있다. 코멘트 생성부(4420)는 복수의 진단 보조 정보에 기초하여 결정된 코멘트를 생성할 수 있다. 예컨대, 코멘트 생성부(4420)는 제1 질병과 관련된 제1 진단 보조 정보와 제2 질병과 관련된 제2 진단 보조 정보에 기초하여 제1 코멘트를 생성할 수 있다. 이 경우, 제1 코멘트는 제1 질병과 관련된 정보 및/또는 제1 질병에 대한 처방 내지 의료적 처치와 관련된 정보를 포함할 수 있다.
치매와 관련된 제1 보조 정보 예컨대, 해마의 수축 정도에 관한 정보와 치매와 관련된 제2 보조 정보 예컨대, 해마의 모양과 관련한 정보에 기초하여 제1 코멘트를 생성할 수 있다.
제1 코멘트는 대상체가 치매 위험도가 00%로 치매 초기 단계에 해당할 수 있다는 메시지를 나타낼 수 있다. 또한, 제1 코멘트는 대상체가 치매 초기 단계에 해당하므로 인지 능력이 저하될 수 있다는 메시지를 나타낼 수 있다.
한편, 진단 보조 정보 출력 모듈은, 복수의 미리 정해진 조건에 기초하여, 획득한 의료 정보가 만족하는 조건에 따라, 진단 보조 정보 또는 코멘트를 달리 출력할 수 있다.
예컨대, 복수의 미리 정해진 조건은, 하나 이상의 의료 정보에 대한 기준값을 포함하는 제1 조건 및 하나 이상의 의료 정보에 대한 기준값을 포함하고 제1 조건과 적어도 일부 상이한 제2 조건을 포함하고, 진단 보조 정보 출력 모듈은, 획득한 복수의 의료 정보가 제1 조건을 만족하는 경우 제1 진단 보조 정보(또는 제1 코멘트)를 출력하고, 획득한 복수의 의료 정보가 제2 조건을 만족하는 경우 제2 진단 보조 정보(또는 제2 코멘트)를 출력할 수 있다.
제1 조건은 제1 질병과 관련되고, 제1 의료 정보에 대한 제1 조건 및 제2 의료 정보에 대한 제2 조건을 포함할 수 있다. 제1 의료 정보에 대한 제1 조건은 제1 의료 정보가 제1 기준값을 초과하는 것을 포함하고, 제2 의료 정보에 대한 제2 조건은 제2 의료 정보가 제2 기준값을 초과하는 것을 포함할 수 있다. 제2 조건은 제2 질병과 관련되고, 제1 조건과 유사하게 구현될 수 있다.
이하에서는, 진단 보조 정보 및/또는 코멘트 생성에 기초가 되는 미리 정해진 조건에 대하여, 몇몇 실시예를 들어 설명한다.
도 74는 몇몇 대상 질병에 대하여, 관련된 지표를 예시하기 위한 도면이다.
도 74를 참조하면, 알츠하이머성 치매의 경우, 측두엽 위축 지표, 두정엽 위축 지표 및 해마 위축 지표와 관련될 수 있다. 혈관성 치매의 경우, 측두엽 위축 지표, 두정엽 위축 지표, 해마 위축 지표, 백질 병변 위축 지표 및 대상회 위축 지표와 관련될 수 있다. 전두측두엽(FTLD) 치매의 경우, 전두엽 위축 지표, 측두엽 위축 지표 및 해마 위축 지표와 관련될 수 있다.
각 질병과 지표 사이의 상관관계는 상이할 수 있다. 예컨대, 해마 위축 지표가 측두엽 위축 지표 및 두정엽 위축 지표보다 알츠하이머성 치매와 높은 연관성을 가질 수 있다. 백질 병변 지표가 해마 위축 지표 보다 혈관성 치매와 높은 연관성을 가지고, 해마 위축 지표가 전두엽 위축 지표, 측두엽 위축 지표 및 두정엽 위축 지표보다 혈관성 치매와 높은 연관성을 가질 수 있다. 전두엽 위축 지표 및 측두엽 위축 지표가 해마 위축 지표보다 전두측두엽 치매와 높은 연관성을 가질 수 있다.
진단 보조 정보 출력 모듈(4400)은, 도 74에서 예시하는 것과 같은 지표(의료 정보)와 질병 사이의 연관 관계에 기초하여 생성된 진단 보조 정보를 출력할 수 있다.
예컨대, 도 74를 참조하면, 의료 정보에 따르면 전두엽 지표, 측두엽 지표 및 해마 지표가 각각 임계값 이상인 경우, 진단 보조 정보 출력 모듈(4400)은, 대상체가 FTLD에 대하여 위험군에 속함을 나타내는 진단 보조 정보를 출력할 수 있다. 또는, 해마 지표, 측두엽 지표 및 두정엽 지표가 각각 임계값 이상인 경우, 진단 보조 정보 출력 모듈(4400)은, 대상체가 AD(Alzheimer’s disease)에 대하여 위험군에 속함을 나타내는 진단 보조 정보를 출력할 수 있다.
도 75는 일 실시예에 따른 의료 정보 출력 화면을 설명하기 위한 도면이다.
도 75를 참조하면, 의료 정보 출력 화면은 환자 정보(PI), 이미지 정보(RI), 지표 정보(FI), 진단 정보(DI) 또는 코멘트(CMT)를 포함할 수 있다.
이미지 정보(RI)는 진단 보조 정보와 관련된 의료 이미지가 표시된 이미지를 포함할 수 있다. 지표 정보(FI)는 의료 데이터로부터 획득된 의료 정보와 관련된 정보를 포함할 수 있다. 진단 정보(DI)는 의료 정보로부터 획득된 진단 보조 정보 예컨대, 질병 진단 정보, 의료 정보 분석 정보, 처방 정보 등을 포함할 수 있다.
코멘트(CMT)는 진단 보조 정보에 기초하여 생성된 코멘트를 포함할 수 있다. 도 74를 함께 참조하면, 전두엽 지표, 측두엽 지표 및 해마 지표가 각각 임계값 이상인 경우, ‘전두엽 및 측두엽의 위축 정도가 정상인에 비해 높은 수치를 나타내고, 해마의 위축 정도가 위험 수준이므로 FTLD(Frontal-temporal lobe dementia) 질병의 발생이 의심되는 상황’임을 나타내는 코멘트를 제공할 수 있다.
또는, 해마 지표, 측두엽 지표 및 두정엽 지표가 각각 임계값 이상인 경우, ‘해마의 위축 정도가 정상인인에 비해 높은 수치를 나타내고, 측두엽 및 두정엽의 위축 정도가 위험 수준에 해당하므로, AD(Alzheimer’s disease) 질병이 의심되는 상황’임을 나타내는 코멘트를 제공할 수 있다.
코멘트(CMT)는 진단 보조 정보에 기초하여 생성되는 처방 정보를 포함할 수 있다. 도 74를 함께 참조하면, 측두엽 지표, 두정엽 지표 및 해마 지표가 각각 임계값 이상인 경우, ‘알츠하이머 침해가 의심되는 상황이므로, 제1 처방 정보 예컨대, 아스피린 등의 혈소판 응집억제제, 와파린 등의 항응고제, 혈류순환개선제, 아세틸콜린 분해효소 억제제의 처방이 요구됨’을 나타내는 코멘트를 제공할 수 있다.
또는, 전두엽 지표, 측두엽 지표 및 해마 지표가 각각 임계값 이상인 경우, ‘전두측두엽 치매가 의심되는 상황이므로, 제2 처방 예컨대, 항정신병 약물, 항우울제, 항불안제, 수면제 등의 정신과적 약물에 관한 처방이 요구됨’을 나타내는 코멘트를 제공할 수 있다.
의료 이미지의 분석을 통해 다양한 지표 정보가 획득될 수 있는데, 상기 다양한 지표 정보를 사용자에게 일률적으로 표시 또는 제공하는 경우, 사용자(예를 들어, 임상의)가 필요에 따라 정보를 선별적으로 획득하여야 하는 불편함이 존재한다. 이에 따라, 사용자의 편의를 증진하기 위해, 사용자 정보 내지 환자 정보에 따라 의료 정보를 달리 제공하여야 할 필요성이 있다.
일 실시예에 따른 이미지 장치는 의료 데이터를 획득하고, 의료 데이터에 기초하여 복수의 의료 정보(예컨대, ICV 기타 형태학적 지표)를 획득하고, 의료 정보를 재구성한 후, 재구성된 정보를 제공할 수 있다.
재구성된 정보는 사용자 정보 또는 환자 정보에 기초하여 재구성된 정보일 수 있다. 여기서, 사용자 정보는 진료 과목, 카테고리, 평소 선호하는 지표들에 대한 사용자의 선택 등을 포함하고, 환자 정보는 환자 인적 사항, 환자의 건강 상태에 관한 정보, 환자의 의료 데이터를 분석하여 얻은 정보, 환자의 과거 진료 이력 등을 포함할 수 있다.
또는, 재구성된 정보는 상술한 사용자 정보 내지 환자 정보에 기초하여 획득된 복수의 의료 정보에 관한 우선 순위 또는 정렬 순서가 결정된 정보를 포함할 수 있다.
또는, 재구성된 정보는 획득된 복수의 의료 정보 중 상술한 사용자 정보 내지 환자 정보에 기초하여 우선적으로 선별된 일부 의료 정보를 포함할 수 있다.
진단 보조 정보 출력 모듈(4400)이 재구성된 정보를 제공하는 것은, 사용자 정보 내지 환자 정보에 기초하여 우선 순위가 높은 의료 정보가 상단에 표시되도록 제공하는 것을 포함할 수 있다. 또는, 진단 보조 정보 출력 모듈(4400)이 재구성된 정보를 제공하는 것은, 상술한 사용자 정보 내지 환자 정보에 기초하여 선별된 의료 정보를 제공하는 것을 포함할 수 있다.
이하에서는, 의료 정보를 선별적으로 제공하는 장치 및 방법에 대하여 보다 구체적으로 설명한다.
도 76는 다른 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.
도 76를 참조하면, 다른 실시예에 따른 의료 정보 출력 프로세스는 의료 데이터 획득 단계(S4100), 의료 정보 획득 단계(S4200), 선별 정보 획득 단계(S4700) 및 선별 정보 출력 단계(S4900)를 포함할 수 있다.
도 77은 다른 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.
도 77을 참조하면, 다른 실시예에 따른 이미지 분석 장치(4000)는 의료 정보를 출력할 수 있다. 이미지 분석 장치(4000)는 의료 데이터 획득 모듈(4100), 의료 정보 획득 모듈(4200), 선별 정보 획득 모듈(4700) 및 선별 정보 출력 모듈(4900)을 포함할 수 있다. 도면에서는 의료 데이터가 이미지 분석 장치를 통해 획득되는 것으로 표시되어 있으나, 의료 데이터는 이미지 획득 장치에 의해 획득될 수도 있다.
선별 정보 획득 모듈(4700)은 선별 정보를 획득할 수 있다.
선별 정보는 의료 정보를 기초로 획득된 정보일 수 있다. 선별 정보는 학습된 신경망 모델을 이용하여 의료 정보를 기초로 획득된 정보일 수 있다. 선별 정보는 의료 정보 중에서 질병 판단의 근거가 되는 정보일 수 있다. 선별 정보는 의료 정보 중 학습된 신경망 모델을 이용하여 선택된 정보를 의미할 수 있다.
선별 정보는 의료 정보 중 미리 정해진 선별 기준에 의해 선택된 정보를 의미할 수 있다.
일 실시예에 따르면, 선별 기준은 환자 정보를 기초로 결정될 수 있다. 선별 기준은 이미지 데이터에 기초하여 획득된 의료 정보 중 환자의 상태와 관련 있는 정보를 이미지 데이터 또는 비-이미지 데이터에 기초하여 획득된 의료 정보에서 선택하도록 정해질 수 있다.
선별 기준은 이미지 데이터에 기초하여 획득된 의료 정보 중 환자의 상태와 관련 있는 정보가 선별되도록 정해질 수 있다.
선별 기준은 기준 의료 정보에 따라 미리 정해진 의료 정보 세트가 선별되도록 정해질 수 있다. 구체적인 예로, 기준 의료 정보가 해마의 수축 정도인 경우, 선별 기준은, 해마의 수축 정도가 기준값 이상인 경우, 미리 정해진 하나 이상의 의료 정보가 출력되도록 정해질 수 있다. 이때, 선별되는 하나 이상의 의료 정보는 해마의 수축과 관련된 의료 정보일 수 있다. 예컨대, 해마의 수축은 혈관성 치매와 높은 관련성을 가지고, 선별되는 하나 이상의 의료 정보는, 혈관성 치매의 진단에 이용되는 측두엽 위축 정보 및 두정엽 위축 정보를 포함할 수 있다.
선별 기준은 사용자의 선택에 따라 미리 정해진 의료 정보 세트가 선별되도록 정해질 수 있다. 구체적인 예로, 사용자가 제1 진료과(예컨대, 영상의학과)에 속해 있는 경우, 선별 기준은, 사용자가 제1 진료과(예컨대, 영상의학과)인 경우, 미리 정해진 하나 이상의 의료 정보가 출력되도록 정해질 수 있다. 선별 정보 출력 모듈(4900)은 복수의 진료과(또는 항목) 중 어느 하나를 선택하는 사용자 입력에 기초하여, 선택된 진료과에 대응되는 의료 정보를 선별적으로 제공할 수 있다. 이때, 선별되는 하나 이상의 의료 정보는 제1 진료과(예컨대, 영상의학과)에서 다루어지는 의료 정보일 수 있다. 예컨대, 사용자가 제1 진료과에 속해있는 경우, 선별 정보 출력 모듈(4900)은 제1 진료과를 선택하는 사용자 입력에 응답하여, 제1 지표를 포함하는 의료 정보를 출력할 수 있다. 제1 지표는 제1 진료과에 대응되도록 미리 정해질 수 있다. 제1 진료과(예컨대, 영상의학과)는 제1 지표(예컨대, 백질 병변 등)와 높은 관련성을 가질 수 있다.
선별 기준은 의사의 관심 대상 질병에 따라 미리 정해진 의료 정보 세트가 선별되도록 정해질 수 있다. 구체적인 예로, 의사가 제1 질병(예컨대, 치매)를 관심 대상으로 하는 경우, 선별 기준은, 의사가 제1 질병(예컨대, 치매)인 경우, 미리 정해진 하나 이상의 의료 정보가 출력되도록 정해질 수 있다. 선별 정보 출력 모듈(4900)은 복수의 관심 대상 질병 중 어느 하나를 선택하는 사용자 입력에 기초하여, 선택된 질병에 대응되는 의료 정보를 선별적으로 제공할 수 있다. 이때, 선별되는 하나 이상의 의료 정보는 제1 질병(예컨대, 치매)와 높은 관련성을 가지는 의료 정보일 수 있다.
도 78은 선별 정보 획득 모듈을 설명하기 위한 도면이다.
도 78을 참조하면, 선별 정보 획득 모듈(4700)은 제1 선별 정보 획득부(4710) 또는 제2 선별 정보 획득부(4730)을 포함할 수 있다.
제1 선별 정보 획득부(4710)는 의료 정보 중 제1 선별 기준에 따라 선택된 제1 선별 정보를 획득할 수 있다.
제2 선별 정보 획득부(4730)는 의료 정보 중 제2 선별 기준에 따라 선택된 제2 선별 정보를 획득할 수 있다.
제1 선별 기준은 사용자 정보 또는 환자 정보와 관련된 기준 중 어느 하나일 수 있다. 제2 선별 기준은 사용자 정보 또는 환자 정보와 관련된 기준 중 제1 선별 기준과 상이한 어느 하나일 수 있다. 일 예로, 제1 선별 기준은 사용자 정보(예컨대, 의사의 진료과의 종류, 의사의 관심 대상)에 기초한 기준일 수 있고, 제2 선별 기준은 환자 정보(예컨대, 환자 인적 사항, 환자의 의료 데이터를 분석하여 얻은 정보, 환자의 과거 진료 이력)에 기초한 기준일 수 있다.
도 79은 선별 정보 출력 모듈(4900)을 설명하기 위한 도면이다.
도 79을 참조하면, 선별 정보 출력 모듈(4900)은 선별 정보 정렬부(4910), 선별 정보 출력부(4920), 코멘트 생성부(4930) 및 코멘트 출력부(4940)을 포함할 수 있다.
선별 정보 정렬부(4910)는 선별 정보 획득 모듈(4700)을 통해 획득된 선별 정보를 미리 정해진 정렬 기준에 따라 정렬할 수 있다. 정렬 기준은 선별 정보가 상술한 선별 기준에 가장 부합하는 순서로 정렬되도록 정해진 기준을 포함할 수 있다.
선별 정보 정렬부(4910)는 선별 정보가 선별 정보의 유형 별로 정렬되도록 정해진 기준에 따라 선별 정보를 정렬할 수 있다. 예컨대, 선별 정보 정렬부(4910)는 제1 질병과 관련된 선별 정보, 제2 질병과 관련된 선별 정보를 분류하여 정렬하도록 정해진 기준을 포함할 수 있다. 선별 정보 정렬부(4910)는 생략될 수 있다.
선별 정보 출력부(4920)는 선별 정보를 출력할 수 있다. 선별 정보 출력부(4920)는 선별 정보에 포함되는 복수의 의료 정보 중 일부를 출력할 수 있다. 선별 정보 출력부(4920)는 선별 정보에 포함되는 복수의 의료 정보 중 선별 기준에 부합하는 정도가 높은 일부 정보를 출력할 수 있다.
코멘트 생성부(4930)는 선별 정보에 기초하여 코멘트를 생성할 수 있다. 코멘트 생성부(4930)는 복수의 선별 정보에 기초하여 코멘트를 생성할 수 있다. 예컨대, 코멘트 생성부(4930)는 제1 질병과 관련된 제1 선별 정보와 제1 질병과 관련된 제2 선별 정보에 기초하여 제1 코멘트를 생성할 수 있다. 이 경우, 제1 코멘트는 제1 질병과 관련된 정보 및/또는 제1 질병에 대한 처방 내지 의료적 처치와 관련된 정보를 포함할 수 있다.
예시적으로, 치매와 관련된 제1 선별 정보 예컨대, 해마의 수축 정도에 관한 정보와 치매와 관련된 제2 선별 정보 예컨대, 해마의 모양과 관련한 정보에 기초하여 제1 코멘트를 생성할 수 있다. 이 경우, 제1 코멘트는 대상체는 치매 위험도가 00%로 치매 초기 단계에 해당할 수 있다는 메시지를 나타낼 수 있다. 또한, 제1 코멘트는 대상체가 치매 초기 단계에 해당하므로 인지 능력이 저하될 수 있다는 메시지를 나타낼 수 있다. 또한, 제1 코멘트는 대상체의 치매 진행 정도에 기초한 처방 정보를 나타낼 수 있다.
도 80 및 도 81은 선별 정보 출력 화면을 설명하기 위한 도면이다.
도 80를 참조하면, 일 실시예에 따른 선별 정보 출력 화면은 의료 정보 중 환자 정보와 관련된 정보를 선택하도록 정해진 선별 기준에 따라 선택된 정보에 기초한 출력화면일 수 있다.
일 실시예에 따른 선별 정보 출력 화면은 환자 정보(PI), 이미지 정보(MI), 질병 정보(DI), 선별 정보(SI), 분석 정보(AN) 또는 코멘트(CMT)를 포함할 수 있다.
이미지 정보(MI)는 선별 기준(예컨대, 환자 정보에 따른 선별 기준)에 따라 선택된 선별 정보와 관련된 의료 이미지를 포함할 수 있다.
질병 정보(DI)는 제1 선별 기준에 따라 선택된 선별 정보에 기초하여 획득된 질병 정보를 포함할 수 있다. 이 경우, 질병 정보(DI)는 대상체에 발생될 수 있는 적어도 하나 이상의 질병 정보 및 대상체에 해당 질병이 발생될 확률에 관한 정보를 포함할 수 있다. 질병 정보(DI)는 대상체에 발생될 수 있는 복수의 질병 정보가 일정 기준에 따라 정렬된 정보를 포함할 수 있다.
선별 정보(SI)는 의료 정보에 포함되어 있는 해부학적 지표 중 환자 정보와 관련된 해부학적 지표를 포함할 수 있다. 선별 정보(SI)는 질병 정보(DI)와 연관성이 있는 해부학적 지표를 포함할 수 있다. 예컨대, 사용자가 복수의 질병 정보 중 제1 질병 정보를 선택하는 경우, 선별 정보 출력 화면은 제1 질병과 관련 있는 해부학적 지표에 관한 제1 선별 정보를 제공할 수 있다. 사용자가 복수의 질병 정보 중 제1 질병 정보 및 제2 질병 정보를 선택하는 경우, 선별 정보 출력 화면은 제1 질병 정보 및 제2 질병 정보와 관련 있는 해부학적 지표에 관한 제2 선별 정보를 제공할 수 있다.
분석 정보(AN)는 대상체에 관한 의료 데이터에 기초하여 획득된 종합 분석 결과 예컨대, 레포트 형식의 종합 분석 결과를 포함할 수 있다.
코멘트(CMT)는 선별 정보에 기초하여 생성된 코멘트를 포함할 수 있다. 코멘트에 관련하여서는 본 명세서에서 상술한 내용이 적용될 수 있다. 코멘트는, 의료 정보 중 제1 질병을 기초로 획득된 선별 정보에 기초하여 제1 질병과 관련한 코멘트를 생성할 수 있다. 예컨대, 도 80을 참조하면, 코멘트는, 알츠하이머와 관련된 제1 선별 정보(예컨대, 해마 위축 정도) ,제2 선별 정보(예컨대, 전두엽 위축 정도) 및 대상체의 알츠하이머 위험 정도와 관련된 정보를 포함할 수 있다.
코멘트는, 복수의 질병 정보 중 어느 하나를 선택하는 사용자 입력에 응답하여 변경될 수 있다. 예컨대, 도 80에서, 사용자가 혈관성 치매 질병 정보 오브젝트를 선택함에 따라, 코멘트는 대상체의 혈관성 치매 위험 정도 및 대상체의 혈관성 치매에 관련된 선별 정보를 포함하는 것으로 변경될 수 있다.
도 81을 참조하면, 다른 실시예에 따른 선별 정보 출력 화면은 의료 정보 중 진료과에 따라 관련된 정보를 선택하도록 정해진 선별 기준에 따라 선택된 정보에 기초한 출력화면일 수 있다.
다른 실시예에 따른 선별 정보 출력화면은 환자 정보(PI), 이미지 정보(MI), 진료과 정보(CAT), 선별 정보(SI), 분석 정보(AN) 또는 코멘트(CMT)를 포함할 수 있다.
이미지 정보(MI)는 선별 기준(예컨대, 진료 과목에 따른 선별 기준)에 따라 선택된 선별 정보와 관련된 의료 이미지를 포함할 수 있다.
진료과 정보(CAT)는 제2 선별 기준에 따라 선택된 선별 정보에 기초하여 획득된 질병 정보를 포함할 수 있다. 이 경우, 진료과 정보(CAT)는 대상체와 관련된 의료 데이터를 분석하는 진료과 리스트를 포함할 수 있다. 진료과 리스트는 대상체와 관련된 의료 데이터의 분석을 요하는 적어도 하나 이상의 진료과를 포함할 수 있다.
선별 정보(SI)는 의료 정보에 포함되어 있는 해부학적 지표 중 선택된 진료과 정보(CAT)와 관련된 해부학적 지표를 포함할 수 있다. 선별 정보(SI)는 선택된 진료과 정보(CAT))와 연관성이 있는 해부학적 지표를 포함할 수 있다. 예컨대, 사용자가 복수의 진료과 중 제1 진료과를 선택하는 경우, 선별 정보 출력 화면은 제1 진료과와 관련 있는 해부학적 지표에 관한 제3 선별 정보를 제공할 수 있다. 사용자가 복수의 진료과 중 제1 진료과 및 제2 진료과를 선택하는 경우, 선별 정보 출력 화면은 제1 진료과 및 제2 진료과와 관련 있는 해부학적 지표에 관한 제4 선별 정보를 제공할 수 있다.
분석 정보(AN)는 대상체에 관한 의료 데이터에 기초하여 획득된 종합 분석 결과 예컨대, 레포트 형식의 종합 분석 결과를 포함할 수 있다.
코멘트(CMT)는 선별 정보에 기초하여 생성된 코멘트를 포함할 수 있다. 코멘트와 관련하여서는 본 명세서에서 상술한 내용이 적용될 수 있다. 코멘트는, 제1 진료과와 관련되어 획득된 선별 정보에 기초하여 제1 진료과와 관련한 코멘트를 생성할 수 있다. 예컨대, 도 81을 참조하면, 코멘트는, 신경과와 관련된 제1 선별 정보 및 제2 선별 정보와 관련된 정보를 포함할 수 있다.
코멘트는, 복수의 진료 과 중 어느 하나를 선택하는 사용자의 입력에 응답하여 변경될 수 있다. 예컨대, 도 81에서, 사용자가 영상학과 오브젝트를 선택함에 따라, 코멘트는 영상학과에서 필요로 하는 선별 정보를 포함하는 것으로 변경될 수 있다.
상술한 이미지 분석 장치(2000)의 이미지 분석 방법들은 이미지 분석 장치(2000)의 제1 메모리(2020)에 저장될 수 있으며, 이미지 분석 장치(2000)의 제1 컨트롤러(2030)는 제1 메모리(2020)에 저장된 이미지 분석 방법들을 수행하도록 제공될 수 있다.
본 출원에 개시된 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템은 뇌 영상을 분석하는 데 이용될 수 있다.
특히, 본 출원에 개시된 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템은, 정확도와 신뢰도가 높은 뇌 질환과 관련된 정보를 제공하는 모든 분야에 적용될 수 있다. 예를 들어, 뇌 질환을 진단하는 보조 지표를 계산하거나 뇌 질환과 관련된 보조 지표를 제공하는 건강 검진 분야 등에 활용될 수 있다.
다만, 본 출원에 개시된 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템은, 뇌 영상뿐만 아니라 모든 의료 이미지에 대하여도 적용될 수 있다. 따라서, 뇌 질환을 진단하는 보조 지표뿐만 아니라 다양한 질환을 진단하는 것을 보조하기 위한 특정 부위의 길이, 형상, 체적, 두께 등과 관련된 형태학적 지표를 획득하고 제공하기 위한 모든 분야에 대하여 적용될 수 있다.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (36)

  1. 의료 영상을 획득하고, 상기 의료 영상에 기초하여 형태학적 분석을 수행하는 장치가 상기 의료 영상을 분석하는 방법에 있어서, 상기 방법은,
    제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 보정 파라미터를 획득함;
    상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득함;
    상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함;
    상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함;
    상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득함; 및
    상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함하되,
    상기 제1 형태학적 값, 상기 제2 형태학적 값 및 상기 타겟 형태학적 값은 상기 타겟 요소의 부피, 길이, 폭, 두께 중 적어도 하나인,
    의료 영상 분석 방법.
  2. 제1 항에 있어서,
    상기 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 파라미터를 포함하고,
    상기 보정된 형태학적 값을 획득하는 것은, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여, 상기 제1 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 보정된 형태학적 값을 획득하는 것을 포함하는,
    의료 영상 분석 방법.
  3. 제2 항에 있어서,
    상기 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 선형 함수와 관련된 파라미터를 포함하고,
    상기 보정된 형태학적 값을 획득하는 것은, 상기 타겟 형태학적 값 및 상기 파라미터를 포함하는 상기 선형 함수에 기초하여, 상기 보정된 형태학적 값을 획득하는 것을 포함하는,
    의료 영상 분석 방법.
  4. 제1 항에 있어서,
    상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련된,
    의료 영상 분석 방법.
  5. 제1 항에 있어서,
    상기 타겟 의료 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고,
    상기 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되,
    상기 제1 특성은 대상체의 나이 또는 성별과 관련되는,
    의료 영상 분석 방법.
  6. 제1 항에 있어서,
    상기 세그멘테이션은, 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행되는,
    의료 영상 분석 방법.
  7. 제1 항에 있어서,
    상기 타겟 의료 영상을 획득하는 것은,
    초기 의료 영상을 획득함; 및
    상기 초기 의료 영상을 상기 제2 스캔 조건 하에서 획득된 영상에 대응하는 상기 타겟 의료 영상으로 변환함;을 더 포함하는,
    의료 영상 분석 방법.
  8. 제1 항에 있어서,
    상기 제1 스캔 조건 및 상기 제2 스캔 조건이 자기장 강도와 관련되는 경우, 상기 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 제2 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제2 형태학적 값을, 제1 자기장 강도 하에서 획득된 상기 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제1 형태학적 값으로 변환하기 위한 파라미터 세트를 포함하며,
    상기 타겟 의료 영상이 상기 제2 자기장 강도 하에서 획득된 경우, 상기 보정된 형태학적 값은, 상기 타겟 형태학적 값 및 상기 파라미터 세트에 기초하여 획득되는,
    의료 영상 분석 방법.
  9. 의료 영상을 분석하는 장치에 있어서,
    타겟 의료 영상을 획득하는 영상 획득부; 및
    상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되,
    상기 컨트롤러는,
    제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 보정 파라미터를 획득하고, 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득하고, 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득하고, 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득하고, 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성되되,
    상기 제1 형태학적 값, 상기 제2 형태학적 값 및 상기 타겟 형태학적 값은 상기 타겟 요소의 부피, 길이, 폭, 두께 중 적어도 하나인,
    의료 영상 분석 장치.
  10. 제9 항에 있어서,
    상기 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 파라미터를 포함하고,
    상기 컨트롤러는,
    상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여, 상기 제1 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 보정된 형태학적 값을 획득하도록 구성된,
    의료 영상 분석 장치.
  11. 제10 항에 있어서,
    상기 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 선형 함수와 관련된 파라미터를 포함하고,
    상기 컨트롤러는,
    상기 타겟 형태학적 값 및 상기 파라미터를 포함하는 상기 선형 함수에 기초하여, 상기 보정된 형태학적 값을 획득하도록 구성된,
    의료 영상 분석 장치.
  12. 제9 항에 있어서,
    상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련된,
    의료 영상 분석 장치.
  13. 제9 항에 있어서,
    상기 타겟 의료 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고,
    상기 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되,
    상기 제1 특성은 대상체의 나이 또는 성별과 관련되는,
    의료 영상 분석 장치.
  14. 제9 항에 있어서,
    상기 세그멘테이션은, 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행되는,
    의료 영상 분석 장치.
  15. 제9 항에 있어서,
    상기 컨트롤러는,
    상기 제2 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 제1 스캔 조건 하에서 획득된 영상에 대응하는 의료 영상으로 변환하며, 상기 세그멘테이션은 상기 변환된 의료 영상에 기초하여 수행되도록 구성된,
    의료 영상 분석 장치.
  16. 제9 항에 있어서,
    상기 장치는,
    상기 형태학적 지표 및 형태학적 지표 데이터베이스에 기초하여 획득한 형태학적 정보를 출력하는 출력 모듈을 더 포함하되,
    상기 형태학적 정보는 상기 형태학적 지표 데이터베이스 및 상기 형태학적 지표에 기초하여, 상기 타겟 의료 영상의 대상체와 관련된 상기 형태학적 지표의 상기 형태학적 지표 데이터베이스에 대한 백분위 정보를 포함하며,
    상기 출력 모듈은 상기 백분위 정보를 반영하는 상기 형태학적 정보를 출력하도록 구성된,
    의료 영상 분석 장치.
  17. 제9 항에 있어서,
    상기 제1 스캔 조건 및 상기 제2 스캔 조건이 자기장 강도와 관련되는 경우, 상기 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 제2 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제2 형태학적 값을, 제1 자기장 강도 하에서 획득된 상기 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제1 형태학적 값으로 변환하기 위한 파라미터 세트를 포함하며,
    상기 타겟 의료 영상이 상기 제2 자기장 강도 하에서 획득된 경우, 상기 보정된 형태학적 값은, 상기 타겟 형태학적 값 및 상기 파라미터 세트에 기초하여 획득되는,
    의료 영상 분석 장치.
  18. 의료 영상을 획득하고, 상기 의료 영상에 기초하여 형태학적 분석을 수행하는 장치가 의료 영상을 분석하는 방법에 있어서, 상기 방법은,
    타겟 의료 영상을 획득함;
    상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득함;
    상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함;
    상기 타겟 스캔 조건에 기초하여, 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정함; 및
    상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함하되,
    상기 타겟 보정 파라미터를 결정하는 것은,
    상기 타겟 스캔 조건이 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고,
    상기 타겟 스캔 조건이 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는, 상기 제1 스캔 조건과는 상이한 상기 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정하는 것을 포함하되,
    상기 제1 형태학적 값, 상기 제2 형태학적 값 및 상기 타겟 형태학적 값은 상기 타겟 요소의 부피, 길이, 폭, 두께 중 적어도 하나인,
    의료 영상 분석 방법.
  19. 제18 항에 있어서,
    상기 형태학적 지표를 출력하는 것은,
    상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표와는 상이한 상기 제2 보정된 형태학적 지표를 계산함; 및
    상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 제1 보정된 형태학적 지표를 출력하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 제2 보정된 형태학적 지표를 출력함;을 포함하는,
    의료 영상 분석 방법.
  20. 제19 항에 있어서,
    상기 타겟 보정 파라미터를 결정하는 것은,
    상기 타겟 보정 파라미터를 결정하기 위한 기준이 되는 레퍼런스 스캔 조건을 획득함; 및
    상기 타겟 스캔 조건 및 상기 레퍼런스 스캔 조건에 기초하여 타겟 보정 파라미터를 결정함;을 더 포함하는,
    의료 영상 분석 방법.
  21. 제19 항에 있어서,
    상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하되,
    상기 제1 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며,
    상기 제2 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제3 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하는 것을 포함하는,
    의료 영상 분석 방법.
  22. 제19 항에 있어서,
    상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며,
    상기 제1 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제1 파라미터 세트를 포함하는 상기 제1 선형 함수에 기초하여, 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며,
    상기 제2 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제2 파라미터 세트를 포함하는 상기 제2 선형 함수에 기초하여, 상기 제2 보정된 형태학적 값을 획득하는 것을 포함하는,
    의료 영상 분석 방법.
  23. 제18 항에 있어서,
    상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련된,
    의료 영상 분석 방법.
  24. 제18 항에 있어서,
    상기 타겟 의료 영상은 제1 특성을 가지는 대상체로부터 획득되고,
    상기 제1 보정 파라미터 또는 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되,
    상기 제1 특성은 대상체의 나이 또는 성별과 관련되는,
    의료 영상 분석 방법.
  25. 제18 항에 있어서,
    상기 타겟 형태학적 값을 획득하는 것은,
    상기 타겟 의료 영상을 적어도 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함; 및
    상기 타겟 영역에 대응되는 복셀 데이터에 기초하여 상기 타겟 형태학적 값을 획득함을 포함하며,
    상기 세그멘테이션은 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행되는,
    의료 영상 분석 방법.
  26. 제25 항에 있어서,
    상기 타겟 의료 영상을 획득하는 것은,
    초기 의료 영상을 획득함; 및
    상기 초기 의료 영상을 상기 타겟 스캔 조건 하에서 획득된 영상에 대응하는 상기 타겟 의료 영상으로 변환함;을 더 포함하는,
    의료 영상 분석 방법.
  27. 제18 항에 있어서,
    상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건이 자기장 강도와 관련되는 경우, 상기 제1 보정 파라미터는 제1 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제1 형태학적 값을 보정하기 위한 제1 파라미터 세트를 포함하며, 상기 제2 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제2 형태학적 값을 보정하기 위한 제2 파라미터 세트를 포함하며,
    상기 타겟 보정 파라미터를 결정하는 것은,
    상기 타겟 스캔 조건이 상기 제1 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 파라미터 세트로 결정하고,
    상기 타겟 스캔 조건이 상기 제2 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는, 제2 파라미터 세트로 결정하는 것을 포함하는,
    의료 영상 분석 방법.

  28. 의료 영상을 분석하는 장치에 있어서,
    타겟 의료 영상을 획득하는 영상 획득부; 및
    상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되,
    상기 컨트롤러는,
    상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득하고, 상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 스캔 조건에 기초하여 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정하고, 상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성되되,
    상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고,
    상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정함으로써 상기 타겟 보정 파라미터를 결정하도록 구성되되,
    상기 제1 형태학적 값, 상기 제2 형태학적 값 및 상기 타겟 형태학적 값은 상기 타겟 요소의 부피, 길이, 폭, 두께 중 적어도 하나인,
    의료 영상 분석 장치.
  29. 제28 항에 있어서,
    상기 컨트롤러는,
    상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표와는 상이한 상기 제2 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 제1 보정된 형태학적 지표를 출력하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 제2 보정된 형태학적 지표를 출력함으로써 상기 형태학적 지표를 출력하도록 구성되는,
    의료 영상 분석 장치.
  30. 제29 항에 있어서,
    상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하되,
    상기 컨트롤러는,
    상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하여 상기 제1 보정된 형태학적 지표를 계산하며,
    상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제3 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하여 상기 제2 보정된 형태학적 지표를 계산하도록 구성되는,
    의료 영상 분석 장치.
  31. 제30 항에 있어서,
    상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며,
    상기 컨트롤러는,
    상기 타겟 형태학적 값 및 상기 제1 파라미터 세트를 포함하는 상기 제1 선형 함수에 기초하여, 상기 제1 보정된 형태학적 값을 획득하여 상기 제1 보정된 형태학적 지표를 계산하며,
    상기 타겟 형태학적 값 및 상기 제2 파라미터 세트를 포함하는 상기 제2 선형 함수에 기초하여, 상기 제2 보정된 형태학적 값을 획득하여 상기 제2 보정된 형태학적 지표를 계산하도록 구성되는,
    의료 영상 분석 장치.
  32. 제28 항에 있어서,
    상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련된,
    의료 영상 분석 장치.
  33. 제28 항에 있어서,
    상기 타겟 의료 영상은 제1 특성을 가지는 대상체로부터 획득되고,
    상기 제1 보정 파라미터 및 상기 제2 보정 파라미터 중 적어도 하나를 포함하는 상기 타겟 보정 파라미터는, 상기 제1 특성을 가지는 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되,
    상기 제1 특성은 대상체의 나이 또는 성별과 관련되는,
    의료 영상 분석 장치.
  34. 제28 항에 있어서,
    상기 컨트롤러는,
    상기 타겟 의료 영상을 적어도 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득하며, 상기 타겟 영역에 대응되는 복셀 데이터에 기초하여 상기 타겟 형태학적 값을 획득하도록 구성되며,
    상기 세그멘테이션은 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행되는,
    의료 영상 분석 장치.
  35. 제34 항에 있어서,
    상기 컨트롤러는,
    상기 타겟 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 타겟 스캔 조건 이외의 스캔 조건 하에서 촬영된 영상에 대응하는 의료 영상으로 변환하며, 상기 변환된 의료 영상에 기초하여 상기 세그멘테이션을 수행하도록 구성되는,
    의료 영상 분석 장치.
  36. 제28 항에 있어서,
    상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건이 자기장 강도와 관련되는 경우, 상기 제1 보정 파라미터는 제1 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제1 형태학적 값을 보정하기 위한 제1 파라미터 세트를 포함하며, 상기 제2 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제2 형태학적 값을 보정하기 위한 제2 파라미터 세트를 포함하며,
    상기 컨트롤러는,
    상기 타겟 스캔 조건이 상기 제1 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 파라미터 세트로 결정하고,
    상기 타겟 스캔 조건이 상기 제2 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는, 제2 파라미터 세트로 결정함으로써, 상기 타겟 보정 파라미터를 결정하도록 구성된,
    의료 영상 분석 장치.
KR1020200187930A 2020-12-30 2020-12-30 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템 KR102313652B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200187930A KR102313652B1 (ko) 2020-12-30 2020-12-30 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200187930A KR102313652B1 (ko) 2020-12-30 2020-12-30 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템

Publications (2)

Publication Number Publication Date
KR102313652B1 true KR102313652B1 (ko) 2021-10-19
KR102313652B9 KR102313652B9 (ko) 2022-04-11

Family

ID=78228136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200187930A KR102313652B1 (ko) 2020-12-30 2020-12-30 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템

Country Status (1)

Country Link
KR (1) KR102313652B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492949B1 (ko) * 2022-01-04 2023-01-31 주식회사 클라리파이 의료영상의 처리장치 및 처리방법
KR102606790B1 (ko) * 2023-03-07 2023-11-29 주식회사 바스젠바이오 의료용 이미지 데이터 퀄리티 스크리닝 시스템 및 그 방법
WO2023243992A1 (ko) * 2022-06-13 2023-12-21 서울대학교병원 의료 정보를 추출하는 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209785A (ja) * 1999-11-19 2001-08-03 Fujitsu Ltd 画像処理装置、画像処理方法、および画像処理プログラム記憶媒体
KR20140144065A (ko) * 2013-06-10 2014-12-18 삼성전자주식회사 의료 영상 촬영 방법 및 장치, 및 개인화된 파라미터 값의 생성 방법
JP2019000628A (ja) * 2017-06-13 2019-01-10 キヤノンメディカルシステムズ株式会社 画像処理装置、医用画像診断装置及び画像処理プログラム
KR102058884B1 (ko) * 2019-04-11 2019-12-24 주식회사 홍복 치매를 진단을 하기 위해 홍채 영상을 인공지능으로 분석하는 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209785A (ja) * 1999-11-19 2001-08-03 Fujitsu Ltd 画像処理装置、画像処理方法、および画像処理プログラム記憶媒体
KR20140144065A (ko) * 2013-06-10 2014-12-18 삼성전자주식회사 의료 영상 촬영 방법 및 장치, 및 개인화된 파라미터 값의 생성 방법
JP2019000628A (ja) * 2017-06-13 2019-01-10 キヤノンメディカルシステムズ株式会社 画像処理装置、医用画像診断装置及び画像処理プログラム
KR102058884B1 (ko) * 2019-04-11 2019-12-24 주식회사 홍복 치매를 진단을 하기 위해 홍채 영상을 인공지능으로 분석하는 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492949B1 (ko) * 2022-01-04 2023-01-31 주식회사 클라리파이 의료영상의 처리장치 및 처리방법
WO2023243992A1 (ko) * 2022-06-13 2023-12-21 서울대학교병원 의료 정보를 추출하는 장치 및 방법
KR102606790B1 (ko) * 2023-03-07 2023-11-29 주식회사 바스젠바이오 의료용 이미지 데이터 퀄리티 스크리닝 시스템 및 그 방법

Also Published As

Publication number Publication date
KR102313652B9 (ko) 2022-04-11

Similar Documents

Publication Publication Date Title
KR102313652B1 (ko) 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템
US8634616B2 (en) Method, apparatus, and computer program product for acquiring medical image data
EP3608871A1 (en) Plane selection using localizer images
KR102313658B1 (ko) 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템
EP3496034B1 (en) Identification of critical findings in imaging scans
KR102313662B1 (ko) 이미지 품질 판단 장치 및 방법
US11087465B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
US20190267132A1 (en) Medical image display device, method, and program
JP2006314778A (ja) 医用画像処理装置及び医用画像処理方法
JP6739422B2 (ja) 被験者の画像をセグメント化するためのデバイス、システム及び方法
JP7187244B2 (ja) 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
US20190279408A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
US10489905B2 (en) Method and apparatus for presentation of medical images
US20190125306A1 (en) Method of transmitting a medical image, and a medical imaging apparatus performing the method
JP2023134655A (ja) 医療映像分析方法、医療映像分析装置及び医療映像分析システム
JP2013220319A (ja) 画像処理装置、方法及びプログラム
JP2019536515A (ja) 医用画像データセットの品質評価のための装置及び方法
KR102313656B1 (ko) 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템
US20190019304A1 (en) Medical image processing apparatus, method, and program
US11551351B2 (en) Priority judgement device, method, and program
KR102300226B1 (ko) 진단보조정보를 제공하는 방법 및 이를 수행하는 장치
KR102300228B1 (ko) 진단보조정보를 제공하는 방법 및 이를 수행하는 장치
KR102300234B1 (ko) 진단보조정보를 제공하는 방법 및 이를 수행하는 장치
US20060257007A1 (en) Method and device for analysis of three-dimensional digital image data
US20200160516A1 (en) Priority judgement device, method, and program

Legal Events

Date Code Title Description
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]