KR102300234B1 - A method for providing disease information and device performing the same - Google Patents
A method for providing disease information and device performing the same Download PDFInfo
- Publication number
- KR102300234B1 KR102300234B1 KR1020200187939A KR20200187939A KR102300234B1 KR 102300234 B1 KR102300234 B1 KR 102300234B1 KR 1020200187939 A KR1020200187939 A KR 1020200187939A KR 20200187939 A KR20200187939 A KR 20200187939A KR 102300234 B1 KR102300234 B1 KR 102300234B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- region
- information
- medical
- neural network
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4058—Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
- A61B5/4064—Evaluating the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4842—Monitoring progression or stage of a disease
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Neurology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- General Physics & Mathematics (AREA)
- Psychology (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Neurosurgery (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
Abstract
Description
본 발명은 메디컬 이미지를 분석하여 진단보조정보를 제공하는 방법 및 이를 수행하기 위한 시스템에 관한 것으로, 보다 상세하게는 메디컬 이미지를 복수의 영역으로 세그멘테이션하고, 상기 복수의 영역 간의 상관관계에 기초하여 진단보조정보를 제공하는 방법 및 이를 수행하기 위한 시스템에 관한 것이다.The present invention relates to a method for providing diagnostic assistance information by analyzing a medical image, and to a system for performing the same, and more particularly, to a medical image segmented into a plurality of regions, and diagnosis based on a correlation between the plurality of regions It relates to a method for providing auxiliary information and a system for performing the same.
현대 의료 기술 분야에서는 메디컬 이미지를 정밀하게 분석하여 보다 정확하게 질병에 관한 정보를 제공하기 위한 다양한 기법들에 대한 요구가 점차 증대되고 있다. 이러한 추세 속에서, 메디컬 이미지를 분석하여 통일화 된 질병 지표를 제공하는 차세대 의료 기술이 각광받고 있다.In the field of modern medical technology, there is a growing demand for various techniques for precisely analyzing a medical image and providing information about a disease more accurately. In this trend, next-generation medical technology that analyzes medical images and provides unified disease indicators is in the spotlight.
메디컬 이미지를 분석하여 질병에 관한 정보를 제공하기 위한 지표를 산출하는 방식은 다양한 문헌들을 통해 공개된 바 있다. 그러나 이러한 논문들은 대부분 메디컬 이미지를 분석하는 의사의 임상적 판단이 개입되어, 환자에게 제공되는 질병에 관한 정보가 의사에 따라 지나치게 주관적이고 편차가 심한 한계점이 있었다. A method of calculating an index for providing information about a disease by analyzing a medical image has been disclosed through various literatures. However, most of these papers involve the clinical judgment of the doctor who analyzes the medical image, so the information on the disease provided to the patient is too subjective and has severe deviations depending on the doctor.
또한, 메디컬 이미지로부터 질병에 관한 정보를 제공하기 위해 이미지 세그멘테이션을 수행하는 경우에도, 메디컬 이미지의 획득 조건에 따라 메디컬 이미지의 내에서 세그멘테이션 될 수 있는 영역이 달라진다. 이로 인해, 특정한 하나의 메디컬 이미지 내에서는 질병에 관한 충분한 정보를 획득하기 어려워, 정확한 진단 보조정보를 제공하기 위해서는 다양한 조건에서 획득된 메디컬 이미지를 각각 세그멘테이션 해야 하는 번거로움이 존재하였다.
아래의 종래문헌들은 메디컬 이미지를 분석하여 질병에 관한 정보를 제공하기 위한 지표를 산출하기 위한 방식을 개시한다.
* 대한민국특허청(KR) 등록특허공보 10-1754291(2017.07.06)
* 대한민국특허청(KR) 등록특허공보 10-1676789(2016.11.10)
또한, 아래의 선행문헌들은 여러 형식에 따른 메디컬 이미지를 세그멘테이션 하는 방식에 대해 개시한다.
* 미국 특허출원공개공보 US2019/0096059 A1
* 미국 특허출원공개공보 US2020/0167930 A1Also, even when image segmentation is performed to provide disease-related information from a medical image, a segmented region within the medical image varies according to an acquisition condition of the medical image. For this reason, it is difficult to obtain sufficient information about a disease in one specific medical image, and in order to provide accurate diagnostic auxiliary information, it is inconvenient to segment the medical images obtained under various conditions.
The following conventional documents disclose a method for calculating an index for providing information about a disease by analyzing a medical image.
* Korean Intellectual Property Office (KR) Registered Patent Publication No. 10-1754291 (2017.07.06)
* Korean Intellectual Property Office (KR) Registered Patent Publication No. 10-1676789 (2016.11.10)
In addition, the following prior documents disclose a method of segmenting a medical image according to various formats.
* US Patent Application Publication US2019/0096059 A1
* US Patent Application Publication US2020/0167930 A1
본 발명이 해결하고자 하는 일 과제는 메디컬 이미지를 분석하여 질병에 관한 지표를 산출함에 있어서 획일화된 기준을 제공하여 의사의 주관적 판단에 의한 영향을 제거하는 데에 있다.One problem to be solved by the present invention is to provide a standardized standard in calculating an index related to a disease by analyzing a medical image to eliminate the influence of a physician's subjective judgment.
본 발명이 해결하고자 하는 일 과제는 고도로 훈련된 인공신경망을 이용하여 메디컬 이미지를 분석함으로써, 객관적이고 획일화 된 질병 지표를 산출하는 데에 있다.One problem to be solved by the present invention is to calculate an objective and uniform disease index by analyzing a medical image using a highly trained artificial neural network.
본 발명이 해결하고자 하는 일 과제는 메디컬 이미지가 가지는 성향에 대응되는 질병 지표를 산출하여, 메디컬 이미지의 다양성에 의한 영향이 제거된 질병 정보를 제공하는 데에 있다.One problem to be solved by the present invention is to provide disease information in which the influence of the diversity of medical images is removed by calculating a disease index corresponding to the propensity of the medical image.
본 발명이 해결하고자 하는 일 과제는, 하나의 메디컬 이미지로부터 적어도 2 이상의 고유한 특성을 가지는 세그멘테이션 결과를 획득함으로써, 질병에 관한 정보를 제공하는 데에 다양성을 증가시키는 데에 있다.One problem to be solved by the present invention is to increase the diversity of providing information about diseases by obtaining segmentation results having at least two or more unique characteristics from one medical image.
본 발명의 일 실시예에 따르면, 제1 조건에서 획득되고 뇌와 관련된 제1 영역 과 관련된 정보를 포함하는 제1 이미지 데이터 및 제2 조건에서 획득된 제2 이미지 데이터를 획득하는 단계; 제1 입력 데이터를 획득하기 위하여 제2 이미지 데이터 내에서 제2 영역 정보 - 상기 제2 영역 정보는 상기 제1 영역 정보에 기초하여, 상기 제2 이미지 데이터에 대응되도록 생성됨 - 를 결정하는 단계; 인공신경망이 제1 타겟 영역에 관한 정보를 포함하는 제1 출력 데이터를 출력하도록, 상기 제1 입력 데이터 및 상기 제2 이미지 데이터를 상기 인공신경망에 입력하여 상기 인공신경망을 학습시키는 단계; 상기 제1 출력 데이터 내의 상기 제1 타겟 영역의 적어도 일부를 형태학적으로 수정하여, 상기 제1 출력 데이터를 제2 입력 데이터로 변환하는 단계; 및 상기 인공신경망이 상기 제2 이미지 데이터에서 관측되는 제2 특성과 다른 제1 특성을 반영하는 제2 타겟 영역을 출력하도록, 상기 제2 입력 데이터 및 상기 제2 이미지 데이터를 입력하여 상기 인공신경망을 학습 시키는 단계;를 포함하는 메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법이 제공될 수 있다.According to an embodiment of the present invention, there is provided a method comprising: obtaining first image data obtained under a first condition and including information related to a first region related to the brain and second image data obtained under a second condition; determining second region information in second image data to obtain first input data, wherein the second region information is generated to correspond to the second image data based on the first region information; learning the artificial neural network by inputting the first input data and the second image data to the artificial neural network so that the artificial neural network outputs first output data including information about a first target region; transforming the first output data into second input data by morphologically modifying at least a portion of the first target region in the first output data; and inputting the second input data and the second image data so that the artificial neural network outputs a second target area reflecting a first characteristic different from a second characteristic observed in the second image data to generate the artificial neural network. A learning method of an artificial neural network for segmentation of a medical image including the step of learning may be provided.
본 발명의 다른 양상에 따르면,진단보조정보 제공 장치에 있어서, 입력 이미지 데이터를 획득하는 통신모듈; 상기 입력 이미지 데이터를 분석하는 콘트롤러; 를 포함하고, 상기 콘트롤러는, 제1 조건에 대응하는 제1 특성을 반영하는 상기 입력 이미지 데이터를, 제2 조건과 대응되는 제2 특성을 반영한 제2 이미지 데이터에 기초한 러닝셋을 이용하여 학습된 인공신경망에 입력하여 결과 이미지 데이터를 획득하되, 상기 결과 이미지 데이터는 적어도 제1 특성과 관련된 병변 정보를 지시하는 제1 영역 및 제2 특성과 관련된 구조적 정보를 지시하는 제2 영역을 포함하는 진단보조정보 제공 장치가 제공될 수 있다. According to another aspect of the present invention, there is provided an apparatus for providing diagnostic auxiliary information, comprising: a communication module for acquiring input image data; a controller for analyzing the input image data; Including, the controller, the input image data reflecting the first characteristic corresponding to the first condition, using a learning set based on the second image data reflecting the second characteristic corresponding to the second condition A diagnosis aid comprising input into an artificial neural network to obtain result image data, wherein the result image data includes at least a first region indicating lesion information related to a first characteristic and a second region indicating structural information related to a second characteristic An information providing device may be provided.
본 발명에 의하면, 메디컬 이미지로부터 질병 지표를 산출하는 데에 획일화 된 기준을 제공함으로써, 환자의 상태로부터 객관적이고 명료한 질병 정보를 제공할 수 있다.According to the present invention, it is possible to provide objective and clear disease information from a patient's condition by providing a standardized standard for calculating a disease index from a medical image.
본 발명에 의하면, 메디컬 이미지에 포함된 특성이 반영된 기준을 산정하는 방법을 제공함으로써, 다양한 메디컬 이미지에 적용될 수 있는 질병 정보 제공 방법이 제공될 수 있다.According to the present invention, by providing a method for calculating a criterion in which characteristics included in a medical image are reflected, a method for providing disease information that can be applied to various medical images can be provided.
본 발명에 의하면, 고도로 훈련된 인공신경망을 이용하여 메디컬 이미지를 분석함으로써, 의사의 임상적 판단이 제거된 객관적이고 명료한 질병 정보가 제공될 수 있다.According to the present invention, by analyzing a medical image using a highly trained artificial neural network, objective and clear disease information from which a doctor's clinical judgment is removed can be provided.
본 발명에 의하면, 적어도 2 이상의 다른 특성을 가지는 메디컬 이미지를 통하여 학습된 인공신경망을 이용함으로써, 환자가 가지는 질병의 특성에 대응되는 메디컬 이미지에 대한 질병 정보를 정확하게 제공할 수 있다.According to the present invention, by using an artificial neural network learned through medical images having at least two different characteristics, it is possible to accurately provide disease information on a medical image corresponding to the characteristics of a patient's disease.
도 1은 일 실시예에 따른 진단보조정보 제공 시스템의 일 구현예이다.
도 2는 일 실시예에 따른 진단보조정보 제공 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 3은 일 실시예에 따른 영상획득장치의 구성을 나타낸 블록도이다.
도 4는 일 실시예에 따른 영상분석장치의 구성을 나타낸 블록도이다.
도 5는 일 실시예에 따른 진단보조정보 제공 시스템에서 수행되는 진단보조정보 제공 방법의 개괄적인 순서도이다.
도 6은 일 실시예에 따른 메디컬 이미지의 예시이다.
도 7은 일 실시예에 따른 다양한 획득 조건에 따른 메디컬 이미지의 예시를 나타낸 것이다.
도 8은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지 분석 동작의 세부동작을 나타낸 순서도이다.
도 9는 일 실시예에 따른 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.
도 10은 일 실시예에 따른 메디컬 이미지로부터 질병 인덱스를 추출하는 방법의 일 예를 나타낸 순서도이다.
도 11은 일 실시예에 따른 기준 영역과 기준 바운더리가 도시된 메디컬 이미지의 일 예이다.
도 12는 일 실시예에 따른 대상 영역의 영역정보를 획득하는 과정의 일 예이다.
도 13은 일 실시예에 따른 대상 영역의 영역정보를 획득하는 과정의 다른 예이다.
도 14는 일 실시예에 따라 계산된 질병 인덱스에 기초하여 획득된 진단보조정보가 제공되는 일 구현예이다.
도 15는 일 실시예에 따라 수정된 기준 바운더리를 이용하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.
도 16은 일 실시예에 따라 기준 바운더리와 비관심 영역이 오버랩 된 경우를 나타낸 것이다.
도 17a 및 도 17b는 일 실시예에 따라 수정된 기준 바운더리를 계산하는 방법의 예시를 나타낸 것이다.
도 18은 일 실시예에 따라 일부가 수정된 기준 바운더리 및 전체적으로 수정된 기준 바운더리의 예시를 나타낸 것이다.
도 19는 일 실시예에 따라 일부가 수정된 기준 바운더리의 구체적인 수정 과정의 예시를 나타낸 것이다.
도 20은 일 실시예에 따라 영상분석장치가 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법에 관한 개략적인 순서도이다.
도 21은 일 실시예에 따른 복수의 메디컬 이미지의 일 예를 나타낸 것이다.
도 22는 각각 다른 정보를 포함하고 있는 슬라이스 이미지의들의 예시 및 이를 통한 진단보조정보의 제공에 관한 일 예이다.
도 23은 실시예에 따라 후보 이미지로부터 진단보조정보를 획득하는 방법을 개략적으로 나타낸 순서도이다.
도 24은 일 실시예에 따른 후보 이미지의 예시이다.
도 25는 일 실시예에 따른 후보 이미지로부터 진단보조정보를 제공하는 예시를 나타낸 것이다.
도 26은 일 실시예에 따른 진단보조정보 제공의 다른 구현예이다.
도 27은 일 실시예에 따른 복수의 이미지에 기초하여 질병 인덱스를 획득하는 방법을 나타낸 순서도이다.
도 28은 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 일 예이다.
도 29는 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 다른 예이다.
도 30은 일 실시예에 따른 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.
도 31은 일 실시예에 따라 3D 메디컬 모델로부터 질병 인덱스를 산출하는 과정의 일 예를 나타낸 것이다.
도 32는 일 실시예에 따라 3D 메디컬 모델로부터 질병 인덱스를 산출하는 과정의 다른 예를 나타낸 것이다.
도 33은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지의 세그멘테이션 동작을 개괄적으로 나타낸 것이다.
도 34는 일 실시예에 따른 인공신경망 모델의 일 구현예를 나타낸 것이다.
도 35는 일 실시예에 따른 인공신경망 모델의 다른 구현예를 나타낸 것이다.
도 36은 일 실시예에 따른 인공신경망 모델을 이용한 세그멘테이션 결과를 예시적으로 나타낸 것이다.
도 37은 일 실시예에 따라 복수의 특성을 포함하도록 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.
도 38은 일 실시예에 따른 인공신경망의 학습 과정을 나타낸 순서도이다.
도 39는 일 실시예에 따른 제1 이미지와 제2 이미지의 정합 과정을 나타낸 예시이다.
도 40은 일 실시예에 따른 형태학적(morphological) 수정의 예시를 나타낸 것이다.
도 41은 일 실시예에 따른 영상분석장치의 인공신경망을 이용한 디플로잉(deploying) 과정을 나타낸 순서도이다.
도 42은 일 실시예에 따른 인공신경망의 최종 출력 결과물의 일 예이다.1 is an exemplary embodiment of a system for providing diagnostic auxiliary information according to an exemplary embodiment.
2 is a block diagram schematically illustrating the configuration of a system for providing diagnostic auxiliary information according to an exemplary embodiment.
3 is a block diagram illustrating the configuration of an image acquisition apparatus according to an embodiment.
4 is a block diagram illustrating the configuration of an image analysis apparatus according to an embodiment.
5 is a schematic flowchart of a method for providing auxiliary diagnostic information performed in a system for providing auxiliary diagnostic information according to an exemplary embodiment.
6 is an example of a medical image according to an embodiment.
7 illustrates an example of a medical image according to various acquisition conditions according to an exemplary embodiment.
8 is a flowchart illustrating detailed operations of a medical image analysis operation performed by an image analysis apparatus according to an exemplary embodiment.
9 illustrates an example of a segmented medical image according to an embodiment.
10 is a flowchart illustrating an example of a method of extracting a disease index from a medical image according to an embodiment.
11 is an example of a medical image showing a reference region and a reference boundary according to an exemplary embodiment.
12 is an example of a process of obtaining area information of a target area according to an embodiment.
13 is another example of a process of obtaining area information of a target area according to an exemplary embodiment.
14 is an embodiment in which diagnostic auxiliary information obtained based on a disease index calculated according to an embodiment is provided.
15 is a flowchart illustrating an example of a method of providing diagnostic assistance information using a modified reference boundary according to an exemplary embodiment.
16 illustrates a case in which a reference boundary and an uninterested region overlap according to an exemplary embodiment.
17A and 17B illustrate examples of a method of calculating a modified reference boundary according to an embodiment.
18 illustrates an example of a partially modified reference boundary and a fully modified reference boundary according to an embodiment.
19 illustrates an example of a specific modification process of a partially modified reference boundary according to an embodiment.
20 is a schematic flowchart of a method for an image analysis apparatus to provide diagnostic assistance information from a plurality of medical images, according to an exemplary embodiment.
21 illustrates an example of a plurality of medical images according to an embodiment.
22 is an example of slice images each including different information and an example of providing diagnostic auxiliary information through this example.
23 is a flowchart schematically illustrating a method of obtaining diagnostic assistance information from a candidate image according to an exemplary embodiment.
24 is an example of a candidate image according to an embodiment.
25 is a diagram illustrating an example of providing diagnostic auxiliary information from a candidate image according to an exemplary embodiment.
26 is another example of providing diagnostic auxiliary information according to an exemplary embodiment.
27 is a flowchart illustrating a method of obtaining a disease index based on a plurality of images according to an embodiment.
28 is an example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an embodiment.
29 is another example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an exemplary embodiment.
30 is a flowchart illustrating an example of a method of providing diagnostic assistance information based on a 3D medical model according to an embodiment.
31 illustrates an example of a process of calculating a disease index from a 3D medical model according to an embodiment.
32 illustrates another example of a process of calculating a disease index from a 3D medical model according to an embodiment.
33 is a diagram schematically illustrating a segmentation operation of a medical image performed by an image analysis apparatus according to an exemplary embodiment.
34 shows an embodiment of an artificial neural network model according to an embodiment.
35 shows another implementation of an artificial neural network model according to an embodiment.
36 exemplarily shows a segmentation result using an artificial neural network model according to an embodiment.
37 illustrates an example of a medical image segmented to include a plurality of characteristics according to an embodiment.
38 is a flowchart illustrating a learning process of an artificial neural network according to an embodiment.
39 is an example illustrating a process of matching a first image and a second image according to an exemplary embodiment.
40 illustrates an example of morphological modification according to an embodiment.
41 is a flowchart illustrating a deployment process using an artificial neural network of an image analysis apparatus according to an embodiment.
42 is an example of a final output result of an artificial neural network according to an embodiment.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above-described objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, since the present invention may have various changes and may have various embodiments, specific embodiments will be exemplified in the drawings and described in detail below.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.In the drawings, the thicknesses of layers and regions are exaggerated for clarity, and also, an element or layer may be referred to as “on” or “on” another component or layer. What is referred to includes all cases in which other layers or other components are interposed in the middle as well as directly on top of other components or layers. Throughout the specification, like reference numerals refer to like elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present specification are only identification symbols for distinguishing one component from other components.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.
본 명세서는 메디컬 이미지를 분석하고, 메디컬 이미지와 관련된 진단보조정보를 제공하는 방법 및 이를 수행하는 시스템에 관한 것이다.The present specification relates to a method of analyzing a medical image and providing diagnostic auxiliary information related to the medical image, and a system for performing the same.
여기서, 본 명세서에서의 '메디컬 이미지'는 의료 산업상에서 획득될 수 있는 다양한 이미지를 포괄하는 것으로 해석될 수 있다. 즉, 본 명세서에서의 메디컬 이미지는 의료 산업에서 이용되는 다양한 장치들로부터 획득 될 수 있는 이미지들을 통칭할 수 있다. 일 예로, 메디컬 이미지는 자기공명영상(MRI) 과 같이 컴퓨터토모그래피(CT) 장치에서 획득된 이미지 일 수 있다. 다른 예로, 메디컬 이미지는 엑스선촬영장치(X-ray)에서 획득된 메디컬 이미지 일 수 있다. 이에 국한되는 것이 아니며, 일반적인 카메라 장치에서 획득될 수 있는 사진 등 의료산업 분야에서 획득할 수 있는 모든 이미지를 포괄할 수 있다.Here, 'medical image' in the present specification may be interpreted as encompassing various images that may be acquired in the medical industry. That is, the medical image in the present specification may collectively refer to images that can be acquired from various devices used in the medical industry. For example, the medical image may be an image obtained by a computer tomography (CT) apparatus such as magnetic resonance imaging (MRI). As another example, the medical image may be a medical image obtained by an X-ray imaging apparatus (X-ray). The present invention is not limited thereto, and may include all images that can be acquired in the medical industry, such as photos that can be acquired by a general camera device.
뿐만 아니라, 일 실시예에 따른 메디컬 이미지의 대상 객체는 의료 산업상에서 대상이 될 수 있는 모든 피촬영 객체를 포함할 수 있다. 일 예로, 메디컬 이미지는 환자의 이미지일 수 있다. 구체적으로는, 메디컬 이미지는 환자의 신체 특정부위에 관한 이미지일 수 있다. 구체적인 예시로, 메디컬 이미지는 치매가 의심되는 환자의 뇌와 관련된 사진일 수 있으며, 폐암이 의심되는 환자의 폐와 관련된 이미지일 수도 있다. 뿐만 아니라, 일 실시예에 따른 메디컬 이미지의 대상 객체는 인간으로부터 채취한 신체 조직일 수도 있다. In addition, the target object of the medical image according to an embodiment may include all target objects that may be targets in the medical industry. For example, the medical image may be an image of a patient. Specifically, the medical image may be an image related to a specific part of the patient's body. As a specific example, the medical image may be a picture related to the brain of a patient suspected of having dementia, or may be an image related to the lungs of a patient suspected of having lung cancer. In addition, the target object of the medical image according to an embodiment may be a body tissue collected from a human.
즉, 본 명세서에서의 메디컬 이미지는, 본 발명의 사상에 따른 이미지 분석 방법에 의해 이미지 내의 질병 정보를 획득하고자 하는 의료 산업상의 모든 피촬영 객체에 관한 이미지일 수 있으며, 의료 산업상 이용되는 다양한 장치들로부터 획득된 형식(form)을 가지는 이미지일 수 있는 것이다. 다만, 본 명세서의 이하의 설명에서는 설명의 편의를 위해 인체의 뇌와 관련된 자기공명영상(이하, 'MRI'라 칭함)에 관하여 주로 설명할 것이나, 본 명세서의 사상이 이에 국한되는 것은 아니다. That is, the medical image in the present specification may be an image of any object to be photographed in the medical industry for which disease information in the image is to be obtained by the image analysis method according to the spirit of the present invention, and various devices used in the medical industry It may be an image having a form obtained from . However, in the following description of the present specification, for convenience of explanation, magnetic resonance imaging (hereinafter, referred to as 'MRI') related to the brain of the human body will be mainly described, but the spirit of the present specification is not limited thereto.
또한, 본 명세서에서의 '진단보조정보'라 함은 메디컬 이미지로부터 판단할 수 있는 질병과 관련되어 객관적으로 판단될 수 있는 포괄적인 정보를 의미할 수 있다. 일 예로, 본 명세서에서의 진단보조정보라 함은, 특정 질병의 존재 유무 여부일 수 있다. 다른 예로, 진단보조정보는 특정 질병의 진행 정도일 수 있다. 또 다른 예로, 진단보조정보는 질병의 심각도일 수 있다. 또 다른 예로는, 진단보조정보는 평균집단에 대비한 특정 환자의 질환 정도를 수치적으로 나타낸 것일 수도 있다. 이 외에도, 전술한 바와 같이 메디컬 이미지 내에서 판단될 수 있는 질병과 관련된 모든 정보를 통칭하여 본 명세서 내에서 '진단보조정보'라고 표현할 수 있을 것이다.Also, in the present specification, 'diagnostic auxiliary information' may mean comprehensive information that can be objectively determined in relation to a disease that can be determined from a medical image. For example, in the present specification, the diagnosis auxiliary information may indicate whether a specific disease is present or not. As another example, the diagnostic auxiliary information may be a degree of progression of a specific disease. As another example, the diagnostic auxiliary information may be the severity of a disease. As another example, the diagnostic auxiliary information may be a numerical representation of the degree of disease of a specific patient compared to the average group. In addition, as described above, all information related to a disease that can be determined in a medical image may be collectively expressed as 'diagnostic auxiliary information' in the present specification.
먼저, 도 1 및 도 2를 참조하여, 일 실시예에 따른 진단보조정보 제공 시스템의 구성 및 예시적인 구현 예를 살펴보도록 한다.First, with reference to FIGS. 1 and 2 , a configuration and exemplary implementation example of a system for providing diagnostic assistance information according to an embodiment will be described.
도 1은 일 실시예에 따른 진단보조정보 제공 시스템의 일 구현예이고, 도 2는 일 실시예에 따른 진단보조정보 제공 시스템의 구성을 개략적으로 나타낸 블록도이다.1 is an embodiment of a system for providing diagnostic assistance information according to an embodiment, and FIG. 2 is a block diagram schematically illustrating the configuration of a system for providing diagnostic assistance information according to an embodiment.
도 1 및 도 2를 참조하면, 일 실시예에 따른 시스템(10000)은 메디컬 이미지를 분석하여 진단보조정보를 제공할 수 있다.1 and 2 , a
일 실시예에 따른 시스템(10000)은 영상획득장치(1000) 및 영상분석장치(2000)를 포함할 수 있다.The
영상획득장치(1000)는 피촬영 객체로부터 메디컬 이미지를 획득할 수 있다. 여기서, 영상획득장치(1000)는 메디컬 이미지를 획득할 수 있는 다양한 장치 또는 시스템을 의미할 수 있다. 일 예로, 도 1에 도시된 바와 같이, 영상획득장치(1000)는 MRI 장치일 수 있다. 다만, 전술한 바와 같이, 본 명세서에서 의미하는 영상획득장치(1000)가 MRI 장치에 국한되는 것이 아님이 이해될 것이다.The
영상분석장치(2000)는 영상획득장치(1000)로부터 획득된 메디컬 이미지를 분석하여 진단보조정보를 제공할 수 있다. 구체적으로, 영상분석장치(2000)는 메디컬 이미지로부터 질병과 관련된 여러 지표들을 추출하고, 추출된 지표들에 기초하여 진단보조정보를 계산할 수 있다. 영상분석장치(2000)에서 수행되는 메디컬 이미지를 분석하는 동작에 관해서는, 후술하여 상세히 설명하도록 하겠다.The
또한, 이상에서는 영상획득장치(1000)와 영상분석장치(2000)는 각각 별도의 장치인 것으로 설명하였으나, 이는 예시일 뿐이며 진단보조정보 제공 시스템(10000)으로써 구현될 수 있는 다양한 형태를 포괄할 수 있다. 즉, 일 실시예에 따른 영상분석장치(2000)는 별도의 서버(server)로서 구현될 수도 있으며, 영상획득장치(1000)에 통합된 프로그램으로 구현될 수도 있다. 다만, 본 명세서에서는, 설명의 편의를 위하여 별도의 영상분석장치(2000)로 구현된 시스템(10000)에 대해서 설명하도록 한다.In addition, in the above, the
이하에서는, 일 실시예에 따른 영상획득장치와 영상분석장치의 구성에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, the configuration of the image acquisition apparatus and the image analysis apparatus according to an embodiment will be described with reference to the drawings.
도 3은 일 실시예에 따른 영상획득장치의 구성을 나타낸 블록도이다.3 is a block diagram illustrating the configuration of an image acquisition apparatus according to an embodiment.
도 3을 참조하면, 일 실시예에 따른 영상획득장치(1000)는 제1 콘트롤러(1002), 이미지 획득 모듈(1200), 제1 메모리(1400) 및 제1 통신모듈(1800)을 포함할 수 있다.Referring to FIG. 3 , the
일 실시예에 따르면, 제1 콘트롤러(1002)는 이미지 획득 모듈(1200)에서 획득한 메디컬 이미지를 제1 통신모듈(1800)을 통해 영상분석장치(2000)에 전송할 수 있다.According to an embodiment, the
이하에서는 일 실시예에 따른 영상획득장치(1000)의 각 구성에 대해 설명하기로 한다.Hereinafter, each configuration of the
일 실시예에 따르면, 이미지 획득 모듈(1200)은 피촬영 객체에 대한 촬영 결과를 획득할 수 있다. 여기서, 이미지 획득 모듈(1200)은 다양한 메디컬 이미지를 획득하기 위한 구성을 포괄할 수 있다. 일 예로, 이미지 획득 모듈(1200)은 자기공명영상(MRI) 이미지를 획득하기 위한 구성일 수 있다. 다른 예로, 이미지 획득 모듈(1200)은 X-ray 또는 CT 영상을 획득하기 위한 구성일 수도 있다.According to an embodiment, the
여기서, 제1 콘트롤러(1002)는 이미지 획득 모듈의 설정 파라미터를 조절할 수 있다. 예를 들어, 이미지 획득 모듈(1200)이 MRI 이미지를 획득하기 위한 구성인 경우, 제1 콘트롤러(1002)는 MRI 이미지 장치의 반복시간(TR) 및 에코시간(TE)를 조절할 수 있다. 이로써, MRI 이미지 장치는 T1-weighted 이미지 또는 T2-weighted 이미지를 획득할 수 있다. 또한, 제1 콘트롤러(1002)는 MRI 이미지 장치에서 FLAIR 영상을 획득하도록 반전펄스(inversion pulse)와 관련된 파라미터를 조절할 수 있다. Here, the
일 실시예에 따른 제1 통신모듈(1800)은 외부 장치 또는 외부 서버와 통신을 수행할 수 있다. 영상획득장치(1000)는 제1 통신모듈(1800)을 통해 영상분석장치(2000) 또는 외부기기(또는 서버)와 데이터 통신을 수행할 수 있다. 예를 들어, 영상획득장치(1000)는 제1 통신모듈(1800)를 이용하여, 메디컬 이미지 또는 메디컬 이미지와 관련된 데이터를 영상분석장치(2000) 또는 외부 기기 에 전송할 수 있다. The
제1 통신 모듈(1800)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 영상획득장치(1000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.The
여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.Here, in the case of the wired type, LAN (Local Area Network) or USB (Universal Serial Bus) communication is a representative example, and other methods are also possible.
또 여기서, 무선 타입의 경우에는 주로 블루투스(RPuetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.In addition, in the case of the wireless type, a communication method of a Wireless Personal Area Network (WPAN) series such as Bluetooth (RPuetooth) or Zigbee may be mainly used. However, since the wireless communication protocol is not limited thereto, the wireless communication module may use a wireless local area network (WLAN)-based communication method such as Wi-Fi or other known communication methods.
제1 메모리(1400)는 각종 정보를 저장할 수 있다. 제1 메모리(1400)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 제1 메모리(1400)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. The
제1 메모리(1400)에는 영상획득장치(1000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 영상획득장치(1000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 영상획득장치(1000)의 동작에 필요한 각종 데이터가 저장될 수 있다. The
일 실시예에 따른 제1 콘트롤러(1002)는 영상획득장치(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제1 콘트롤러(1002)는 이미지 획득 모듈(1200)로부터 메디컬 이미지를 수신하여 제1 통신모듈(1800)을 통해 데이터 분석 장치(2000)에 전송하도록 제어 신호를 생성할 수 있다. The
제1 컨트롤러(1002)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The
영상획득장치(1000)는 별도의 전원부를 가지거나 유선 혹은 무선으로 외부로부터 전원을 공급받을 수 있으며 전원부를 제어하는 스위치를 가질수도 있다.The
도 4는 일 실시예에 따른 영상분석장치의 구성을 나타낸 블록도이다.4 is a block diagram illustrating the configuration of an image analysis apparatus according to an embodiment.
도 4를 참조하면, 영상분석장치(2000)는 제2 콘트롤러(2002), 제2 메모리(2400), 디스플레이 모듈(2600) 및 제2 통신모듈(2800)을 포함할 수 있다.Referring to FIG. 4 , the
일 실시예에 따르면, 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해 영상획득장치(1000)으로부터 메디컬 이미지를 획득하고, 제2 메모리(2400)에 저장된 분석을 위한 프로그램을 이용하여 상기 메디컬 이미지를 분석하여 메디컬 이미지로부터 진단보조정보를 계산할 수 있다. According to an embodiment, the
이하에서는 일 실시예에 따른 영상분석장치(2000)의 각 구성에 대해 설명한다.Hereinafter, each configuration of the
제2 메모리(2400)는 영상분석장치(2000)의 각종 정보를 저장할 수 있다.The
제2 메모리(2200)에는 영상분석장치(2000)를 구동하기 위한 운용 프로그램이나 영상분석장치(2000)의 각 구성을 동작시키기 위한 프로그램을 비롯해, 영상분석장치(2000)의 동작에 필요한 각종 데이터가 저장될 수 있다. 예를 들어, 제2 메모리(2400)에는 메디컬 이미지를 가공하기 위한 프로그램 및/또는 가공된 메디컬 이미지를 분석하기 위한 프로그램 등이 저장될 수 있다. 상기 프로그램들은 머신러닝 알고리즘으로 구현될 수 있으며, 구체적인 설명은 후술하도록 한다. In the second memory 2200 , various data necessary for the operation of the
제2 메모리(2400)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. Examples of the
제2 메모리(2400)에는 영상분석장치(2000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 영상분석장치(2000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 영상분석장치(2000)의 동작에 필요한 각종 데이터가 저장될 수 있다.In the
제2 통신모듈(2800)은 외부 기기 또는 외부 서버와 통신을 수행할 수 있다. 영상분석장치(2000)는 제2 통신 모듈(2800)을 이용하여 영상획득장치(1000) 또는 외부 서버와 데이터 통신을 수행할 수 있다. 예를 들어, 영상분석장치(2000)는 제2 통신모듈(2800)을 이용하여 영상획득장치(1000)로부터 진단보조정보를 제공하는 데에 필요한 메디컬 이미지를 획득할 수 있다. The
제2 통신 모듈(2800)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 영상분석장치(2000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.The
여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.Here, in the case of the wired type, LAN (Local Area Network) or USB (Universal Serial Bus) communication is a representative example, and other methods are also possible.
또 여기서, 무선 타입의 경우에는 주로 블루투스(RPuetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.In addition, in the case of the wireless type, a communication method of a Wireless Personal Area Network (WPAN) series such as Bluetooth (RPuetooth) or Zigbee may be mainly used. However, since the wireless communication protocol is not limited thereto, the wireless communication module may use a wireless local area network (WLAN)-based communication method such as Wi-Fi or other known communication methods.
제2 콘트롤러(2002)는 영상분석장치(2000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제2 메모리(2400)로부터 이미지 데이터 가공 및 분석을 위한 프로그램을 로딩하여 영상획득장치(1000)로부터 획득한 메디컬 이미지를 가공 및 분석하고, 그 결과를 제2 통신모듈(2800)을 통해 외부 기기 또는 외부 서버에 제공하도록 제어 신호를 생성할 수 있다. 영상분석장치(2000)에서 수행되는 구체적인 진단보조정보 제공 방법에 대해서는 후술하여 자세히 설명하도록 한다.The
제2 컨트롤러(2002)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The
또한, 영상분석장치(2000)는 메디컬 이미지 분석 결과를 출력하기 위한 별도의 디스플레이 모듈(2600)을 더 포함할 수 있다. 디스플레이 모듈은 유저에게 정보를 제공할 수 있도록 다양하게 구현될 수 있다. 여기서, 제2 콘트롤러(2002)는 영상획득장치(1000)로부터 획득한 메디컬 이미지를 가공 및 분석하고, 그 결과를 디스플레이 모듈(2600)을 통해 제공하기 위한 제어 신호를 생성할 수도 있다.Also, the
이하에서는, 일 실시예에 따른 진단보조정보 제공 시스템이 수행하는 메디컬 이미지를 분석하여 진단보조정보를 제공하는 방법에 대해 구체적으로 살펴보기로 한다.Hereinafter, a method of providing diagnostic auxiliary information by analyzing a medical image performed by the diagnostic auxiliary information providing system according to an exemplary embodiment will be described in detail.
도 5는 일 실시예에 따른 진단보조정보 제공 시스템에서 수행되는 진단보조정보 제공 방법의 개괄적인 순서도이다.5 is a schematic flowchart of a method for providing auxiliary diagnostic information performed in a system for providing auxiliary diagnostic information according to an exemplary embodiment.
도 5를 참조하면, 일 실시예에 따른 진단보조정보 제공 동작은 메디컬 이미지를 획득하는 단계(S1000), 획득된 메디컬 이미지를 분석하는 단계(S1200) 및 분석 결과에 기초하여 진단보조정보를 제공하는 단계(S1400)를 포함할 수 있다.Referring to FIG. 5 , the operation of providing diagnostic auxiliary information according to an exemplary embodiment includes obtaining a medical image (S1000), analyzing the obtained medical image (S1200), and providing diagnostic auxiliary information based on the analysis result. It may include a step (S1400).
먼저, 일 실시예에 따른 진단보조정보 제공 시스템(10000)은 피촬영 객체로부터 메디컬 이미지를 획득할 수 있다. 구체적으로, 영상획득장치(1000)는 환자 또는 시료와 같은 피촬영 객체로부터, 진단보조정보를 획득하기 위한 메디컬 이미지를 획득할 수 있다. 보다 더 구체적으로, 영상획득장치(1000) 내의 이미지 획득 모듈(1200)은 피촬영 객체를 촬영하여 메디컬 이미지를 획득하고, 획득된 메디컬 이미지를 제1 통신모듈(1800)을 통해 영상분석장치(2000)로 전송할 수 있다. 여기서, 메디컬 이미지는 복수개일 수 있다. 즉, 영상획득장치(1000)는 피촬영 객체로부터, 특정 방향 또는 특정 평면에 대한 복수개의 단층 이미지를 획득할 수 있다. First, the diagnostic assistance
여기서, 복수의 메디컬 이미지는 3차원의 정보를 포함할 수 있다. 즉, 메디컬 이미지는 3D 이미지로서 획득될 수도 있다. Here, the plurality of medical images may include three-dimensional information. That is, the medical image may be acquired as a 3D image.
또한 여기서, 특정 방향 및 특정 평면은 피촬영 객체의 횡평면(transverse plane), 시상면(saggital plane), 관상면(coronal plane) 등, 피촬영 객체로부터 획득될 수 있는 모든 방향과 평면에 관한 정보를 포함할 수 있다. Also, here, the specific direction and specific plane are information about all directions and planes that can be obtained from the object to be photographed, such as the transverse plane, sagittal plane, coronal plane, etc. of the object to be photographed. may include.
이후, 진단보조정보 제공 시스템(10000)은 메디컬 이미지를 분석할 수 있다.(S1200) 영상분석장치(2000)는 영상획득장치(1000)로부터 전송받은 메디컬 이미지를 분석할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 분석을 위한 프로그램을 이용하여 제2 통신모듈(2800)을 통해 수신한 메디컬 이미지를 분석할 수 있다. 일 예로, 제2 콘트롤러(2002)는, 제2 메모리(2400)에 저장된 프로그램을 이용하여 메디컬 이미지를 세그멘테이션 할 수 있다. Thereafter, the diagnostic auxiliary
이후, 진단보조정보 제공 시스템(10000)은 메디컬 이미지의 분석 결과에 기초하여 진단보조정보를 획득할 수 있다 (S1400). 즉, 영상분석장치(2000)는 제2 메모리(2400)에 저장된 진단보조정보 획득을 위한 프로그램을 이용하여, 분석된 메디컬 이미지로부터 메디컬 이미지에 포함된 진단보조정보를 획득할 수 있다. 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해 계산된 진단보조정보를 외부기기 또는 외부 서버로 전송하거나, 별도로 구비한 디스플레이 모듈(2600) 등을 이용하여 진단보조정보를 출력할 수 있다.Thereafter, the diagnostic auxiliary
이상에서는, 일 실시예에 따라 진단보조정보 제공 시스템(10000)에서 수행되는 진단보조정보 제공 방법에 대해 개괄적으로 살펴보았다. 이하부터는, 진단보조정보 제공 시스템(10000)에서 수행되는 진단보조정보 제공 방법의 각 단계에 대해 세분화된 동작이나 내용에 대해 설명하도록 한다.In the above, a method for providing diagnostic auxiliary information performed by the diagnostic auxiliary
먼저, 메디컬 이미지 획득단계(S1000)와 관련하여, 일 실시예에 따라 영상획득장치(1000)에서 획득될 수 있는 다양한 메디컬 이미지의 예시들을 살펴보기로 한다.First, in relation to the medical image acquisition step ( S1000 ), examples of various medical images that can be acquired by the
도 6은 일 실시예에 따른 메디컬 이미지의 예시이다.6 is an example of a medical image according to an embodiment.
도 6을 참조하면, 일 실시예에 따른 메디컬 이미지는 다양한 형태로 구현되는 영상획득장치(1000)에 의해 획득될 수 있다. 메디컬 이미지는 다양한 컴퓨터 단층영상 촬영장치에서 촬영된 영상일 수 있다. 또한, 전술한 바와 같이 메디컬 이미지는 복수개의 슬라이스 이미지(slice image)로 구성된 단층영상의 집합일 수도 있다.Referring to FIG. 6 , a medical image according to an embodiment may be acquired by the
일 예로, 메디컬 이미지는 MRI 장치에서 촬영된 MRI 이미지 일 수 있다. (a), (b)는 MRI 장치에서 촬영된 환자의 다양한 신체 부위를 도시한 것이다. 다른 예로, 메디컬 이미지는 X-ray 장치에서 촬영된 X-ray 이미지 일 수 있다. (c)는 X-ray 장치에서 촬영된 환자의 X-ray 이미지를 도시한 것이다. 또 다른 예로, 메디컬 이미지는 CT 장치에서 촬영된 CT 이미지일 수 있다. (d)는 CT 장치에서 촬영된 환자의 CT 이미지를 도시한 것이다.For example, the medical image may be an MRI image captured by an MRI apparatus. (a) and (b) show various body parts of a patient photographed by an MRI apparatus. As another example, the medical image may be an X-ray image captured by an X-ray apparatus. (c) shows the X-ray image of the patient taken by the X-ray device. As another example, the medical image may be a CT image taken by a CT apparatus. (d) shows the CT image of the patient taken by the CT device.
또한, 일 실시예에 따른 메디컬 이미지는 다양한 신체부위에 관한 이미지일 수 있다. 도 6을 다시 참조하면, 메디컬 이미지는 환자의 뇌나 폐 등의 장기 뿐만 아니라, 척추와 같은 골격, 신경구조를 모두 포괄하는 신체 부위에 관한 이미지일 수 있다.Also, the medical image according to an embodiment may be an image of various body parts. Referring back to FIG. 6 , the medical image may be an image of a body part that encompasses not only organs such as the brain or lungs of a patient, but also a skeleton such as a spine and a neural structure.
일 실시예에 따른 메디컬 이미지는, 메디컬 이미지를 획득하는 영상획득장치(1000)의 설정 파라미터에 따라 이미지 내에 포함된 정보가 달라질 수 있다. In the medical image according to an embodiment, information included in the image may vary according to a setting parameter of the
도 7은 일 실시예에 따른 다양한 획득 조건에 따른 메디컬 이미지의 예시를 나타낸 것이다.7 illustrates an example of a medical image according to various acquisition conditions according to an exemplary embodiment.
도 7을 참조하면, 일 실시예에 따른 영상획득장치(1000)는 장치의 파라미터 설정에 따라 다양한 영상을 획득할 수 있다. 예시적으로, 영상획득장치(1000)가 MRI 장치로 구현된 경우, 영상획득장치(1000)는 마그네틱 컨디션(magnetic condition)에 관련된 파라미터를 조절함으로써, 다양한 정보를 포함하고 있는 메디컬 이미지를 획득할 수 있다.Referring to FIG. 7 , the
보다 구체적인 예시로, 영상획득장치(1000)는 짧은 TR/TE 시간을 갖도록 파라미터를 설정하여, T1-weighted 이미지를 획득할 수 있다. T1-weighted 이미지는 신호강도가 높아 해부학적 구조물을 명확히 구분하는 데에 유용하다. 즉, T1-weighted 이미지는 인체의 해부학적 특성을 판단하는 데에 주로 이용된다.As a more specific example, the
또한, 영상획득장치(1000)는 긴 TR/TE 시간을 갖도록 파라미터를 설정하여 T2-weighted 이미지를 획득할 수 있으며, 반전펄스(inversion pulse)를 이용하여 FLAIR(Fluid attenuated inversion recovery) 이미지를 획득할 수도 있다. T2-weighted 이미지와 FLAIR 이미지는 수분이 함유된 영역이 하얗게 보이는 것이 특징이며, 병변영역은 주로 수분 함유량이 높기 때문에, 병변영역을 발견하는 데에 유용하게 이용된다.In addition, the
이 외에도, 확산강조영상(DWI) 이나, PET, fMRI 등의 특수촬영 기법을 이용한 메디컬 이미지도 본 명세서의 사상에 포함될 수 있다. In addition, medical images using special imaging techniques such as diffusion-weighted imaging (DWI), PET, and fMRI may also be included in the scope of the present specification.
이상에서는, 일 실시예에 따른 메디컬 이미지 획득 단계(S1000)에서 획득되는 다양한 메디컬 이미지들의 예시를 살펴보았다. 이하에서는, 획득된 메디컬 이미지를 분석하는 단계(S1200)에 대한 세부내용에 대해 살펴보기로 한다.In the above, examples of various medical images acquired in the medical image acquisition step (S1000) according to an embodiment have been described. Hereinafter, details of the step ( S1200 ) of analyzing the acquired medical image will be described.
도 8은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지 분석 동작의 세부동작을 나타낸 순서도이다.8 is a flowchart illustrating detailed operations of a medical image analysis operation performed by an image analysis apparatus according to an exemplary embodiment.
도 8을 참조하면, 일 실시예에 따른 메디컬 이미지 분석 동작은 메디컬 이미지를 세그멘테이션하는 단계(S2002), 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 단계(S2004), 추출된 질병 인덱스에 기초하여 진단보조정보를 획득하는 단계(S2006)을 포함할 수 있다.Referring to FIG. 8 , the medical image analysis operation according to an embodiment includes the steps of segmenting the medical image (S2002), extracting a disease index from the segmented medical image (S2004), and assisting diagnosis based on the extracted disease index It may include obtaining information (S2006).
먼저, 영상분석장치(2000)는 메디컬 이미지를 세그멘테이션 할 수 있다(S2002). 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 세그멘테이션을 위한 프로그램을 이용하여 메디컬 이미지를 세그멘테이션 할 수 있다. 예시적으로, 제2 콘트롤러(2002)는 뇌와 관련된 메디컬 이미지를 뇌의 영역별로 세그멘테이션 할 수 있다. 여기서, 뇌의 영역은 메디컬 이미지 내에서 발견되는 병변을 의미할 수 있으며, 또한 메디컬 이미지 내에서 발견되는 뇌의 구조적인 영역을 의미할 수도 있다. 즉, 메디컬 이미지 내에서 발견되는 뇌의 영역은, 이미지 내에서 구별될 수 있는 모든 객체를 포함할 수 있다. 정리하자면, 제2 콘트롤러(2002)는 뇌와 관련된 메디컬 이미지를 적어도 2 이상의 영역으로 구분되도록 세그멘테이션 할 수 있다. First, the
제2 메모리(2002)에 저장된 이미지 세그멘테이션을 위한 프로그램은 머신러닝 알고리즘으로 구현될 수 있으며, 이에 관해서는 후술하여 상세히 설명하도록 하겠다.A program for image segmentation stored in the
메디컬 이미지 세그멘테이션 단계(S2002) 이후, 영상분석장치(2000)는 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출할 수 있다(S2004). 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 알고리즘을 이용하여 세그멘테이션 된 메디컬 이미지에 포함된 각 영역에 기초하여 질병 인덱스를 추출할 수 있다. After the medical image segmentation step (S2002), the
본 명세서에서, 질병 인덱스는 메디컬 이미지 내의 뇌의 각 영역간의 관계를 특정 질병과 관련하여 표현한 지표로 정의될 수 있다. 질병 인덱스는 예시적으로 파제카 스케일(Fazekas scale), ARWMC(Age-related whitematter change), Posterior atrophy score of parietal atrophy, MTA(Medial temporal lobe atrophy score), Orbito-Frontal, Anterior Cingulate, Fronto-Insula, Anterior Temporal Scale 등을 포함하여, 메디컬 이미지로부터 질병에 관한 정보를 추출할 수 있는 다양한 지표가 이용될 수 있음이 이해될 것이다. In the present specification, the disease index may be defined as an index expressing the relationship between each region of the brain in a medical image in relation to a specific disease. Disease index is illustratively Fazekas scale (Fazekas scale), ARWMC (Age-related whitematter change), Posterior atrophy score of parietal atrophy, MTA (Medial temporal lobe atrophy score), Orbito-Frontal, Anterior Cingulate, Fronto-Insula, It will be understood that various indicators capable of extracting disease-related information from a medical image may be used, including the Anterior Temporal Scale and the like.
질병 인덱스 추출 단계(S2004) 이후, 영상분석장치(2000)는 추출된 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 알고리즘을 이용하여, 추출된 질병 인덱스에 기초하여 메디컬 이미지로부터 질병에 관한 정보를 획득하고, 획득된 결과를 출력할 수 있다.After the disease index extraction step ( S2004 ), the
이하에서는, 먼저 질병 인덱스 추출을 위하여 세그멘테이션 된 메디컬 이미지의 예시를 살펴보고, 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 다양한 실시예들에 대해서 도 9를 참조하여 살펴보기로 한다.Hereinafter, an example of a medical image segmented for disease index extraction will be first described, and various embodiments of extracting a disease index from the segmented medical image will be described with reference to FIG. 9 .
도 9는 일 실시예에 따른 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.9 illustrates an example of a segmented medical image according to an embodiment.
도 9를 참조하면, 영상분석장치(2000)에서 세그멘테이션 된 메디컬 이미지의 예시들이 도시되어 있다.Referring to FIG. 9 , examples of medical images segmented by the
도 9를 참조하면, 영상분석장치(2000)는 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 세그멘테이션은 영상분석장치(2000)가 메디컬 이미지에 포함된 단위 셀(cell)들에 특정 값을 부여하는 것을 의미할 수 있다. 구체적으로, 세그멘테이션은 제2 콘트롤러(2002)가 메디컬 이미지에 포함된 픽셀(pixel) 이나 복셀(voxel)등에 특징 값을 레이블링 하는 것을 의미할 수 있다. 일 예로, 제2 콘트롤러(2002)는, 메디컬 이미지에 포함된 복수의 픽셀에 뇌의 영역을 지칭하는 특징값을 레이블링 할 수 있다. Referring to FIG. 9 , the
영상분석장치(2000)는 메디컬 이미지의형식(form)에 대응되도록, 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 메디컬 이미지의 형식(form)은 메디컬 이미지가 획득될 때의 획득 조건획득 조건에 대응될 수 있다. 일 예로, 메디컬 이미지가 특정 마그네틱 컨디션 하에서 촬영되는 경우, 메디컬 이미지는 T1-weighted 이미지의 형식(form)을 가질 수 있는 것이다. 본 명세서에서의 이하의 설명에서는, 설명의 편의를 위하여 메디컬 이미지의 형식(form)과 메디컬 이미지의 획득 조건 등의 용어를 혼용하여 사용할 것이나 본 명세서의 사상이 용어의 사용으로 인해 달라지는 것이 아님은 이해될 것이다. 또한, 메디컬 이미지의 형식(form)이나 메디컬 이미지의 획득 조건에 따라 메디컬 이미지가 포함하고 있는 특성(예를 들어, 해부학적 특성 또는 병변적 특성)이 달라질 수 있으므로, 메디컬 이미지의 특성이라는 용어도 혼용되어 사용될 수 있을 것이다. The
구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 세그멘테이션을 위한 프로그램을 이용하여, 메디컬 이미지의 특성이 반영되도록 메디컬 이미지를 세그멘테이션 할 수 있다. Specifically, the
제2 콘트롤러(2002)는 메디컬 이미지에 포함된 픽셀에 뇌의 영역을 지칭하는 값을 레이블링 할 수 있다. 즉, FLAIR 이미지로 구현된 메디컬 이미지 내라면, 제2 콘트롤러(2002)는 백질, 회백질, 뇌실 등으로 구별된 픽셀들에 각각의 영역을 지칭하는 값을 레이블링 할 수 있다. The
예시적으로, (a)는 영상분석장치(2000)가 T1-weighted MRI 이미지를 세그멘테이션 한 것이고, (b)는 영상분석장치(2000)가 T2-FLAIR MRI 이미지를 세그멘테이션 한 것이다.Exemplarily, (a) is a segmentation of the T1-weighted MRI image by the
도면에 도시되어 있는 바와 같이, (a) T1-weighted MRI 이미지는 뇌의 해부학적 특성을 파악하기 용이하다. 즉, 영상분석장치(2000)가 T1-weighted MRI 이미지를 세그멘테이션 하는 경우, 영상분석장치(2000)는 뇌를 구성하는 각 부분이 구별되도록 세그멘테이션 할 수 있다. 예를 들어, 일 실시예에 따른 영상분석 장치(2000)는 대뇌, 소뇌, 간뇌, 해마 등 뇌에 포함된 기관이 구별되도록 뇌를 세그멘테이션 할 수도 있고 측두엽, 전두엽, 후두엽 등 뇌의 부위별 위치에 따라 구별되도록 뇌를 세그멘테이션 할 수도 있으며, 이들을 조합하여 세그멘테이션 하는 것도 가능하다. 이처럼, 뇌의 해부학적 특성이 잘 관측되는 T1-weighted MRI 이미지를 분석하여 진단보조정보를 획득하는 경우, 영상분석장치(2000)는 위축성 알츠하이머와 같이, 뇌의 해부학적 특성과 관련있는 질병 정보를 용이하게 분석할 수 있다. As shown in the figure, (a) T1-weighted MRI image is easy to grasp the anatomical characteristics of the brain. That is, when the
또한, (b) T2 FLAIR MRI 이미지는 뇌의 병변적 특성을 파악하기 용이하다. 일 실시예에 따른 영상분석장치(2000)가 T2-FLAIR MRI 이미지를 세그멘테이션 하는 경우, 영상분석장치(2000)는 뇌의 병변적 특성이 구별되도록 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 뇌의 병변적 특성은 메디컬 이미지에서 관측되는 백질고강도신호(white matter hyperintensity, 이하 'WMH'라 칭함)를 통해 검출될 수 있다. 즉, 영상분석장치(2000)는 T2-FLAIR MRI 이미지에서, WMH와 뇌를 구성하는 물질이나 다른 영역들이 구별되도록 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 뇌(또는 사람의 머리)를 구성하는 물질들은, 백질(white matter), 회백질(graymatter), 스컬(skull) 등이 있을 것이고, 다른 영역에는 뇌실(ventricle) 등이 있을 수 있다. 영상분석장치(2000)는 WMH의 위치와 뇌의 다른 구성들간의 관계에 기초하여 질병 인덱스를 추출할 수 있으며, 이에 관해서는 후술하여 상세히 설명하도록 하겠다.In addition, (b) T2 FLAIR MRI image is easy to understand the lesion characteristics of the brain. When the
도면에서는 예시적으로 T1-weighted MRI 이미지와 T2-FLAIR MRI 이미지 위주로 설명하였으나, 전술한 바와 같이 본 명세서의 사상이 이에 국한되는 것은 아니며 DWI, SWI 등의 다른 마그네틱 컨디션 조건하에서 촬영된 MRI 이미지나, X-ray, CT 등 다른 촬영기기로 촬영된 메디컬 이미지가 모두 이용될 수 있다.In the drawings, the T1-weighted MRI image and the T2-FLAIR MRI image have been mainly described, but as described above, the spirit of the present specification is not limited thereto. All medical images taken with other imaging devices such as X-ray and CT may be used.
또한, 영상분석장치(2000)는 특정 특성을 가지는(즉, 특정 획득 조건 하에서 획득된) 메디컬 이미지가, 다른 특성에 관한 정보를 포함하도록 세그멘테이션을 수행할 수도 있다. 구체적으로, 제2 콘트롤러(2002)는, 제2 메모리(2400)에 저장된 머신러닝 알고리즘을 이용하여 제1 조건하에서 촬영되어 제1 특성을 가지는 메디컬 이미지에, 제1 특성 뿐 아니라 제2 조건하에서 촬영되는 경우 획득될 수 있는 제2 특성의 정보를 함께 포함하도록 세그멘테이션을 수행할 수 있다. 예를 들어, T2-FLAIR MRI 이미지를 세그멘테이션 하는 경우, 영상분석장치(2000)는 T1-weighted MRI 이미지에서 관측될 수 있는 해부학적 정보까지 함께 포함되도록 T2-FLAIR 이미지를 세그멘테이션 할 수 있다. 이와 관련하여는 후술하여 도면을 참조하여 상세히 설명하도록 하겠다. Also, the
이하에서는, 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 구체적인 방법의 일 구현예에 대하여 도면을 참조하여 설명하도록 한다.Hereinafter, an embodiment of a specific method for extracting a disease index from a segmented medical image will be described with reference to the drawings.
도 10은 일 실시예에 따른 메디컬 이미지로부터 질병 인덱스를 추출하는 방법의 일 예를 나타낸 순서도이고, 도 11은 기준 영역과 기준 바운더리가 도시된 메디컬 이미지의 일 예이며, 도 12는 대상 영역의 영역정보를 획득하는 일 예이며, 도 13은 대상 영역의 영역정보를 획득하는 다른 예시이다. 도 14는 계산된 질병 인덱스에 기초하여 획득된 진단보조정보가 제공되는 일 구현예이다.10 is a flowchart illustrating an example of a method of extracting a disease index from a medical image according to an embodiment, FIG. 11 is an example of a medical image showing a reference region and a reference boundary, and FIG. 12 is an area of the target region This is an example of obtaining information, and FIG. 13 is another example of obtaining area information of the target area. 14 is an exemplary embodiment in which diagnostic auxiliary information obtained based on a calculated disease index is provided.
먼저, 도 10을 참조하여 개괄적인 플로우에 대하여 설명한다. 일 실시예에 따라 영상분석장치(2000)에서 수행되는 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 방법은 세그멘테이션 된 메디컬 이미지에서 기준 영역을 검출하는 단계(S2102), 검출된 기준 영역에 기초하여 기준 바운더리를 설정하는 단계(S2104) 및 기준 바운더리와 대상 영역의 관계에 기초하여 질병 인덱스를 추출하는 단계(S2106)을 포함할 수 있다.First, a general flow will be described with reference to FIG. 10 . According to an embodiment, the method of extracting a disease index from a segmented medical image performed by the
영상분석장치(2000)는 세그멘테이션 된 메디컬 이미지로부터 기준 영역을 검출할 수 있다.(S2102) 구체적으로, 제2 콘트롤러(2002)는, 세그멘테이션 된 메디컬 이미지에서 기준 영역을 지시하도록 레이블링 된 픽셀들을 검출하고, 이들의 집합을 기준 영역으로 판단할 수 있다. 여기서, 기준 영역은, 후술할 바와 같이 메디컬 이미지 내에 포함되어 특정 질병 인덱스를 계산하기 위한 기준이 되는 영역을 의미할 수 있다. 일 예로, 기준 영역은 뇌실(ventricle) 영역일 수 있다. 다른 예로, 기준 영역은 백질 영역일 수 있다.The
여기서, 기준 영역은 기준 영역을 지시하도록 레이블링 된 픽셀들의 집합에서 일정 영역 이상의 버퍼영역이 추가된 영역일 수 있다. 기준영역은 기준 영역을 지시하도록 레이블링 된 픽셀들의 집합에서 외곽 부분의 일정 픽셀들은 제거한 영역으로 정의될 수 있다. Here, the reference area may be an area to which a buffer area of a predetermined area or more is added from a set of labeled pixels to indicate the reference area. The reference region may be defined as a region in which certain pixels of an outer portion are removed from a set of pixels labeled to indicate the reference region.
또한, 영상분석장치(2000)는 세그멘테이션 된 메디컬 이미지로부터 분석 대상에 대응되는 영역을 검출할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 분석 대상을 지시하도록 레이블링 된 픽셀들을 검출하고, 이들의 집합을 분석 대상 영역(이하 '대상 영역'이라 칭함)으로 판단할 수 있다.여기서, 대상 영역은, 후술할 바와 같이 메디컬 이미지 내에 포함될 수 있으며, 특정 질병 인덱스를 계산하기 위한 분석의 대상이 되는 영역을 의미할 수 있다. 일 예로, 대상 영역은 WMH 영역을 의미할 수 있다. 대상 영역을 검출하는 방식은 전술한 뇌실 영역을 검출하는 방식과 유사하므로, 자세한 설명은 생략하도록 하겠다.Also, the
기준 영역이 검출되면, 영상분석장치(2000)는 검출된 기준 영역에 기초하여 기준 바운더리를 설정할 수 있다.(S2104). 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지 내에서 검출된 뇌실 영역으로부터 미리 정해진 거리만큼 떨어져 있는 경계를 기준 바운더리로 설정할 수 있다. When the reference region is detected, the
여기서, 기준 바운더리는 후술할 바와 같이 기준 영역과 대상 영역의 관계를 도출하여 질병 인덱스를 추출하기 위한 기준이 되는 경계를 의미할 수 있다. 즉, 알츠하이머와 관련된 질병 정보를 판단함에 있어 Fazekas scale과 같은 질병 인덱스가 이용되는 경우, 뇌실(ventricle)과 WMH간의 위치적 관계가 중요한 지표로 이용될 수 있고, 상기 뇌실(ventricle)과 WMH 간의 위치적 관계를 파악하기 위한 기준으로서, 기준 바운더리가 이용되는 것이다. 이때, 뇌실의 경우 Fazekas scale의 기준 영역으로, WMH의 경우 Fazekas scale의 대상 영역으로 결정될 수 있다. Here, the reference boundary may refer to a boundary serving as a reference for extracting a disease index by deriving a relationship between the reference region and the target region, as will be described later. That is, when a disease index such as the Fazekas scale is used in determining disease information related to Alzheimer's, the positional relationship between the ventricle and WMH can be used as an important indicator, and the position between the ventricle and WMH As a criterion for figuring out the adversarial relationship, the criterion boundary is used. At this time, in the case of the ventricle, it may be determined as a reference area of the Fazekas scale, and in the case of WMH, it may be determined as a target area of the Fazekas scale.
또한, 여기서 기준 바운더리를 획득하기 위하여, 기준 영역 내의 임의의 지점으로부터 미리 정해진 거리가 계산될 수 있다. 즉, 예를 들어, 기준 바운더리는 기준 영역의 외곽에 있는 픽셀로부터 미리 정해진 거리만큼 떨어진 픽셀들의 집합을 의미할 수 있다. 이 경우, 미리 정해진 거리의 기준이 되는 방향은, 기준 영역의 경계면의 법선 방향이 바람직할 것이다. 다른 예로, 기준 바운더리는 기준 영역의 중심으로부터 미리 정해진 거리만큼 떨어진 픽셀들의 집합을 의미할 수도 있다. Also, here, in order to obtain the reference boundary, a predetermined distance from any point in the reference area may be calculated. That is, for example, the reference boundary may mean a set of pixels separated by a predetermined distance from a pixel outside the reference area. In this case, the direction serving as a reference for the predetermined distance may preferably be a direction normal to the boundary surface of the reference region. As another example, the reference boundary may mean a set of pixels separated by a predetermined distance from the center of the reference area.
도 11을 참조하여 기준 바운더리에 관련하여 설명하도록 한다.It will be described in relation to the reference boundary with reference to FIG. 11 .
도 11을 참조하면, T2-FLAIR MRI 이미지 내에, 뇌실(ventricle), WMH, 백질, 회백질, 스컬 등이 세그멘테이션 된 결과가 도시되어 있다. Referring to FIG. 11 , in the T2-FLAIR MRI image, the results of segmentation of the ventricle, WMH, white matter, gray matter, and skull are shown.
영상분석장치(2000)는 질병 인덱스로서 Fazekas scale을 이용할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 뇌실 영역을 기준 영역으로 결정하고, WMH 영역을 대상 영역으로 결정하여 Fazekas scale을 계산할 수 있다. 여기서, 제2 콘트롤러(2002)는 Fazekas scale을 계산하기 위한 기준 바운더리로서, 뇌실(ventricle)로 레이블링 된 픽셀로부터 미리 정해진 거리만큼 떨어진 픽셀들의 집합을 기준 바운더리로 설정할 수 있다. 또한, 기준 바운더리는, 뇌실 영역의 외곽에 있는 픽셀들로부터 산정될 수 있으며, 미리 정해진 거리는 10mm로 계산될 수 있다. 다만 이는 예시적인 수치일 뿐이며, 5mm 내지 15mm 범위 내에서 임의의 거리가 정해질 수 있다.The
도 11을 참조하면, 기준 바운더리 내부 및 외부 모두에 WMH가 존재하는 것으로 도시되어 있다. 기준 바운더리 내부 및 외부에 존재하는 WMH는 진단보조정보를 판단하는 데에 중요한 팩터(factor)로 작용한다. 구체적으로, WMH가 차지하는 영역과 관련된 정보(이하 '영역정보')와 기준 바운더리 간의 관계가 진단보조정보에 밀접한 관련성이 있다. 따라서, WMH가 세그멘테이션 된 메디컬 이미지로부터, WMH의 영역정보를 산출하는 방법에 대해 도 12 내지 도 13을 참조하여 설명한다..Referring to FIG. 11 , it is shown that WMH is present both inside and outside the reference boundary. WMH existing inside and outside the reference boundary acts as an important factor in determining the diagnostic auxiliary information. Specifically, the relationship between the information related to the area occupied by the WMH (hereinafter 'region information') and the reference boundary is closely related to the diagnostic auxiliary information. Accordingly, a method of calculating the WMH region information from the segmented medical image by the WMH will be described with reference to FIGS. 12 to 13 .
의학적 연구에 따르면, 일반적으로 뇌의 영역 중에서 상대적으로 뇌실과 가까운 백질 영역이 상대적으로 뇌실과 멀리 떨어진 백질 영역보다 변성이 쉽게 되는 경향이 있다. 따라서, 메디컬 이미지에 포함된 뇌실 주위에 형성된 WMH 영역과 상대적으로 뇌실로부터 멀리 떨어진 WMH 영역은 각각 질병과 관련된 다른 정보를 포함하고 있을 수 있다. 이에 따라, 메디컬 이미지 내에 포함된 WMH 영역을 분석함에 있어서는 뇌실과의 거리를 고려하여 분석해야 될 필요가 있다. According to medical research, in general, the white matter region relatively close to the ventricle of the brain tends to be more susceptible to degeneration than the white matter region relatively far from the ventricle. Therefore, the WMH region formed around the ventricle and the WMH region relatively far from the ventricle included in the medical image may each contain different information related to disease. Accordingly, when analyzing the WMH region included in the medical image, it is necessary to analyze the distance from the ventricle into consideration.
도 12 및 도 13은, 기준 영역과 대상 영역의 거리를 고려하여, 대상 영역에 관한 영역 정보를 획득하는 방법의 예시를 나타낸 것이다.12 and 13 illustrate examples of a method of acquiring region information on a target region in consideration of the distance between the reference region and the target region.
도 12를 참조하면, 일 실시예에 따른 영상분석장치(2000)는 메디컬 이미지 내의 대상 영역의 영역 정보를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 세그멘테이션 결과에 기초하여, 메디컬 이미지 내의 대상 영역에 대한 영역정보를 획득할 수 있다. 여기서, 영역 정보는 특정 영역의 두께 또는 넓이를 의미할 수 있다. 또한, 후술할 바와 같이, 메디컬 이미지가 3D 로 구현된 경우, 영역 정보는 부피를 의미할 수도 있다. Referring to FIG. 12 , the
먼저, 일 실시예에 따라 Fazekas scale을 기초로 질병 인덱스를 계산하는 경우에, 메디컬 이미지에 포함된 기준 영역 근처에 존재하는, 즉 전술한 기준 바운더리 내에 존재하는 대상 영역의 영역 정보를 계산하는 방법에 대해 설명하도록 한다. First, in the case of calculating the disease index based on the Fazekas scale according to an embodiment, the region information of the target region that exists near the reference region included in the medical image, that is, within the aforementioned reference boundary. to explain about it.
영상분석장치(2000)는 기준 영역으로부터 대상 영역까지의 거리에 기초하여 대상 영역의 영역 정보를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지 내에 기준 영역으로 레이블링 된 영역에서, 대상 영역으로 레이블링 된 영역까지의 거리에 기초하여 대상 영역의 영역 정보를 계산할 수 있다. The
예컨대, 제2 콘트롤러(2002)는 메디컬 이미지 내의 뇌실로 레이블링 된 영역에서 WMH로 레이블링 된 영역까지의 거리에 기초하여 WMH 영역의 두께를 계산할 수 있다. 여기서, 거리의 기준은 뇌실로 레이블링 된 영역의 바운더리에서 법선방향으로 정의될 수 있다. 또한 여기서, 계산된 WMH의 두께 중 가장 크게 나오는 길이를 WMH의 두께로 측정할 수 있다. 보다 더 구체적으로, 제2 콘트롤러(2002)는 뇌실로 레이블링 된 영역의 바운더리로부터 법선 방향으로 가장 가까이 위치한 WMH 영역을 제1 포인트로 결정하고, 가장 멀리 위치한 WMH 영역을 제2 포인트로 결정하여, 제1 포인트와 제2 포인트 사이의 거리를 WMH 영역의 두께(폭)으로 판단할 수 있다. 여기서, 만약 WMH 영역이 뇌실 영역과 연결되어(붙어서) 형성되는 경우, 제1 포인트는 뇌실 상의 한 포인트로 결정될 수도 있을 것이다.For example, the
즉, 이를 다르게 표현하자면, 제2 콘트롤러(2002)는 메디컬 이미지 내의 뇌실 영역의 바운더리에서 법선 방향으로 레이(ray)를 생성하고, 생성된 레이(ray)들과 WMH로 레이블링 된 픽셀들의 접점을 고려하여 WMH의 두께를 계산할 수 있다. 여기서, 레이(ray)와 WMH로 레이블링 된 픽셀들의 접점은, 뇌실 영역과 WMH 영역 사이의 거리가 가깝게 측정되는 제1 접점 및 가장 멀게 측정되는 제2 접점을 포함할 수 있다. 즉, 제2 콘트롤러(2002)는 상기 제1 접점 및 제2 접점 사이의 거리를 고려하여 WMH 영역의 두께(폭)을 계산할 수 있다. 여기서, 제1 접점이 뇌실 영역 상에 존재할 수 있음은 전술한 바와 같다. That is, to express this differently, the
레이(ray)를 이용한 방식은 전술한 기준 바운더리 내에 위치하는 WMH에 적용하는 것이 바람직 하나, 반드시 이에 국한되는 것은 아니며, 기준 바운더리 이외의 WMH에 대해서도 동일한 방식이 적용될 수 있다. The method using a ray is preferably applied to the WMH located within the aforementioned reference boundary, but is not necessarily limited thereto, and the same method may be applied to a WMH other than the reference boundary.
또한, 도 13에는 기준 바운더리 외의 WMH에 대한 영역정보를 계산하는 방식이 도시되어 있다.Also, FIG. 13 shows a method of calculating area information for WMH other than the reference boundary.
도 13을 참조하면, 영상분석장치(2000)는 주성분 분석기법을 이용하여 대상 영역의 영역정보를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 주성분 분석기법(principal component analysis)을 이용하여 대상 영역의 적어도 2 이상의 주성분을 추출하고, 추출된 주성분에 기초하여 대상 영역의 영역정보를 계산할 수 있다. Referring to FIG. 13 , the
예컨대, 제2 콘트롤러(2002)는 메디컬 이미지 내의 WMH로 레이블링 된 영역에서, 적어도 2 이상의 축에 대한 주성분을 추출할 수 있다. 여기서, 주성분은 다양하게 추출될 수 있으나, WMH로 레이블링 된 영역 내에서 단축(short axis) 및 장축(long axis)으로 추출되는 것이 바람직할 것이다. 주성분이 추출되면, 제2 콘트롤러(2002)는 추출된 주성분에 기초하여 WMH로 레이블링 된 영역의 두께를 계산할 수 있다.For example, the
즉, 이를 다르게 표현하자면, 제2 콘트롤러(2002)는 WMH로 레이블링 된 영역에 대해 주성분 분석기법을 수행하여 장축 및 단축에 대한 방향과 크기를 획득하고, 장축에 대한 길이에 기초하여 WMH로 레이블링 된 영역의 두께를 계산할 수 있다. 또는, 제2 콘트롤러(2002)가 WMH 영역의 폭을 계산할 수 있다고도 표현할 수 있을 것이다.That is, to express this differently, the
이상에서는, 메디컬 이미지로부터 질병 인덱스를 획득하기 위하여 이용되는 대상 영역의 영역정보를 계산하는 방식에 대해 살펴보았다. 또한, 대상 영역의 영역 정보를 획득함에 있어서, 대상 영역과 기준 영역의 위치 관계도 고려될 수 있음을 설명하였다.In the above, a method of calculating area information of a target area used to obtain a disease index from a medical image has been described. In addition, it has been described that the positional relationship between the target area and the reference area may be considered when obtaining area information of the target area.
이하에서는, 다시 도 10을 참조하여, 계산된 WMH의 영역정보와 기준 바운더리에 기초하여 질병 인덱스를 추출하는 방법에 대해 설명하도록 한다. Hereinafter, a method of extracting a disease index based on the calculated WMH region information and a reference boundary will be described with reference to FIG. 10 again.
다시 도 10을 참조하면, 영상분석장치(2000)는 메디컬 이미지 내에 설정된 기준 바운더리와 대상 영역의 영역정보에 기초하여 질병인덱스를 계산할 수 있다.(S2106)Referring back to FIG. 10 , the
구체적으로, 제2 콘트롤러(2002)는 기준 바운더리와 대상 영역 간의 상관관계 및 대상 영역의 영역 정보를 종합적으로 고려하여 질병 인덱스를 계산할 수 있다. Specifically, the
여기서, 상관관계는 일 예로 WMH가 기준 바운더리 내부 또는 외부에 위치하는지에 대한 여부일 수 있다.Here, the correlation may be, for example, whether the WMH is located inside or outside the reference boundary.
구체적인 예시를 들자면, WMH의 두께가 클수록 질병의 심각성이 높다고 판단되는 것이 일반적이나, 일 실시예에 따른 질병 인덱스 추출 방법은 WMH의 두께 뿐 아니라, WMH가 기준 바운더리 내에 존재하는 지, 기준 바운더리 외에 존재하는 지 여부를 종합적으로 고려할 수 있다. As a specific example, it is generally judged that the greater the thickness of the WMH, the higher the severity of the disease. It can be considered comprehensively whether or not
표 1은 기존의 의사의 주관에 따라 질병 인덱스 계산하는 기준을 나타낸 일 예이다.Table 1 is an example showing the criteria for calculating the disease index according to the subjectivity of the existing doctor.
표 1을 참조하면, 기존의 의료 산업 현장에서 이용되는 파제카 스케일(Fazeka scale)을 계산하기 위한 기준의 일 예가 나타나 있다. 파제카 스케일(Fazekas scale)은 여러 논문에 게재된 질병 인덱스의 계산 방법으로써, 의료 산업 현장에서 공신력 있는 질병 인덱스의 계산 방법으로 이용되고 있다. 그러나, 표 1에 나타나 있듯이, 기존의 의료 산업에서는 모호한 기준에 기초하여 의사의 주관에 따라 질병 인덱스를 계산하고 있어 환자에게 객관적인 진단 정보 또는 진단보조정보를 제공하지 못하는 문제점이 있었다.Referring to Table 1, an example of a criterion for calculating the Fazeka scale used in the existing medical industry field is shown. The Fazekas scale is a method of calculating a disease index published in several papers, and it is used as a method of calculating a reliable disease index in the medical industry. However, as shown in Table 1, there is a problem in that the existing medical industry cannot provide objective diagnostic information or diagnostic auxiliary information to the patient because the disease index is calculated according to the subjectivity of the doctor based on ambiguous criteria.
표 2는 일 실시예에 따른 영상분석장치가 수행하는 질병 인덱스 계산의 기준을 나타낸 것이다.Table 2 shows the criteria for calculating the disease index performed by the image analysis apparatus according to an embodiment.
이에, 표 2를 참조하면, 일 실시예에 따른 영상분석장치(2000)는, 명확한 기준에 따라 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 질병 인덱스를 계산하기 위한 기준에 따라, 메디컬 이미지로부터 질병 인덱스를 계산할 수 있다. Accordingly, referring to Table 2, the
여기서, 영상분석장치(2000)가 질병 인덱스를 계산하기 위한 기준은 의료 산업 현장에서 미리 획득된 여러 진단 결과 내지는 진단 보조 결과에 기초하여 결정될 수 있다. 즉, 일 실시예에 따르면, 영상분석장치(2000)는 의료 산업 현장으로부터 미리 획득되어 질병 인덱스가 계산된 복수의 메디컬 이미지를 분석한 결과로서 정량화된 기준을 이용하여, 메디컬 이미지로부터 질병 인덱스를 계산할 수 있는 것이다.Here, the criterion for the
즉, 영상분석장치(2000)는 메디컬 이미지를 분석하여 소정의 기준에 따라 계산할 질병 인덱스를 결정하고, 계산이 결정된 질병 인덱스에 대응하는 질병 인덱스의 등급을 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 영역으로부터 기준 바운더리를 판단하고, 결정된 기준 바운더리와 대상 영역간의 관계를 고려하여 계산할 질병 인덱스를 결정하고, 결정된 질병 인덱스에 대응하는 등급 값을 계산할 수 있다.That is, the
여기서, 계산할 질병 인덱스를 결정하기 위한 소정의 기준은 전술한 기준 바운더리가 될 수 있다. 예컨대, 대상 영역이 기준 바운더리 내에 존재하는지 또는 대상 영역이 기준 바운더리 외부에 존재하는 지 여부에 따라, 영상분석장치(2000)가 계산할 질병 인덱스의 종류가 달라질 수 있다.Here, the predetermined criterion for determining the disease index to be calculated may be the above-described reference boundary. For example, the type of disease index to be calculated by the
여기서, 동일한 질병 인덱스를 계산함에 있어서, 질병 인덱스의 등급을 구별하기 위한 기준이 존재할 수 있다. 일 예로, 미리 정해진 기준은 대상 영역의 영역 정보와 관련된 기준일 수 있다. Here, in calculating the same disease index, there may be a criterion for distinguishing the grade of the disease index. For example, the predetermined criterion may be a criterion related to region information of the target region.
다시 표 2를 참조하면, 일 실시예에 따른 질병 인덱스는 제1 내지 제3 질병 인덱스를 포함할 수 있다.표 2에 도시된 질병 인덱스는 Fazekas scale을 의미할 수 있다. 제1 질병 인덱스는 뇌실 주위 백질(Peri-ventricular white matter)에 관련된 질병 인덱스이고, 제2 질병 인덱스는 심부 백질(Deep white matter)에 관련된 질병 인덱스를 나타내며, 제3 질병 인덱스는 제1 및 제2 질병 인덱스를 고려하여 계산되는 종합(Total) 지표를 나타낼 수 있다.Referring back to Table 2, the disease index according to an embodiment may include first to third disease indexes. The disease index shown in Table 2 may mean a Fazekas scale. The first disease index is a disease index related to Peri-ventricular white matter, the second disease index represents a disease index related to Deep white matter, and the third disease index is the first and second A total index calculated in consideration of the disease index may be represented.
여기서, 기준 바운더리는 제1 질병 인덱스와 제2 질병 인덱스를 구분하기 위하여 이용될 수 있다. 즉, 전술한 바와 같이, 제2 콘트롤러(2002)는 기준 바운더리를 이용하여 기준 바운더리 내의 대상 영역으로부터 제1 질병 인덱스를 계산할 수 있다. 제2 콘트롤러(2002)는 기준 바운더리를 이용하여 기준 바운더리 외의 대상 영역으로부터 제2 질병 인덱스를 계산할 수 있다. Here, the reference boundary may be used to distinguish the first disease index and the second disease index. That is, as described above, the
또한, 동일한 질병 인덱스 내에서 등급이 구별될 수 있다. 즉, 제2 콘트롤러(2002)는 미리 정해진 기준에 따라 메디컬 이미지로부터 특정 질병 인덱스에 대응하는 등급값을 계산할 수 있다. In addition, classes can be distinguished within the same disease index. That is, the
여기서, 미리 정해진 기준은 대상 영역의 영역 정보와 관련될 수 있다. 일 예로, 대상 영역을 지시하는 셀(cell)이 존재하지 않거나, 미리 정해진 수 이하로 판단 된다면, 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 0이라고 판단할 수 있다. 다른 예로, 대상 영역의 두께가 제1 값 이상으로 획득된 경우, 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 1 이라고 판단할 수 있다. 또 다른 예로, 대상 영역의 두께가 제 2값 이상으로 획득된 경우, 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 2라고 판단할 수 있다. 또 다른 예로, 대상 영역의 두께가 제3 값 이상으로 측정되거나 다른 대상 영역과 연결되는 경우 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 3 이라고 판단할 수 있다. Here, the predetermined criterion may be related to area information of the target area. For example, if there is no cell indicating the target region or it is determined to be less than or equal to a predetermined number, the
즉, 표 2를 참조한 예시를 들자면, 제2 콘트롤러(2002)는 메디컬 이미지의 분석 결과로, 기준 바운더리 내에 포함된 대상 영역에 기초하여 제1 질병 인덱스를 계산할 수 있고, 상기 기준 바운더리 내에 포함된 대상 영역의 영역 정보를 고려하여 제1 질병 인덱스와 관련된 등급 값을 계산할 수 있다. That is, taking an example referring to Table 2, the
또한, 영상분석장치(2000)는 동일한 메디컬 이미지 내에서, 제1 질병 인덱스와 제2 질병 인덱스에 관련된 값을 모두 계산할 수도 있다. 메디컬 이미지의 세그멘테이션 결과 기준 바운더리 내 외부에 모두 대상 영역이 존재하는 경우, 제2 콘트롤러(2002)는 제1 질병 인덱스 및 제2 질병 인덱스에 관한 등급을 모두 계산할 수 있다. Also, the
또한, 영상분석장치(2000)는, 제1 질병 인덱스 및/또는 제2 질병 인덱스를 고려하여 제3 질병 인덱스를 계산할 수도 있다.Also, the
도 14는 일 실시예에 따른 질병 인덱스 및 질병 인덱스에 기초한 진단보조정보를 제공하는 디스플레이의 일 구현예이다.14 is an exemplary embodiment of a display providing a disease index and diagnostic auxiliary information based on the disease index, according to an exemplary embodiment.
도 14를 참조하면, 영상분석장치(2000)는 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지의 분석 결과로 질병 인덱스를 획득할 수 있고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다.Referring to FIG. 14 , the
도면을 참조하여 구체적인 예시로써 설명하자면, 제2 콘트롤러(2002)는 메디컬 이미지의 분석 결과를 기초로 하여, 기준 바운더리 내의 대상 영역과 관련된 질병 인덱스를 제공할 수 있다. 또한, 질병 인덱스에 기초하여, 질병 인덱스가 어떠한 의미를 가지는 지에 대한 정보를 제공할 수도 있다. As a specific example with reference to the drawings, the
여기서, 전술한 바와 같이 질병 인덱스는, 메디컬 이미지 내에서 판단할 수 있는 질병의 진행정도 또는 심각도에 관한 척도(내지는 기준)를 의미할 수 있다. 예를 들어, 질병 인덱스의 기준이 Fazekas scale이라고 한다면, 질병 인덱스는 Fazekas scale의 등급으로 표현될 수 있다. Here, as described above, the disease index may refer to a measure (or reference) regarding the degree of progression or severity of a disease that can be determined in the medical image. For example, if the criterion of the disease index is the Fazekas scale, the disease index may be expressed as a grade of the Fazekas scale.
또한, 진단보조정보는 상기 질병 인덱스에 기초하여 판단될 수 있는 질병에 관련된 정보를 의미할 수 있다. 예를 들어, 전술한 질병 인덱스가 Fazekas scale로써 특정 등급이 계산되는 경우, 진단보조정보는 현재 질병의 진행 정도, 정상범주와의 차이, 연령별 평균과의 차이 등 질병 인덱스로부터 유추할 수 있는 질병에 관한 정보를 의미할 수 있는 것이다.In addition, the diagnosis auxiliary information may refer to information related to a disease that may be determined based on the disease index. For example, when the above-mentioned disease index is calculated as a specific grade using the Fazekas scale, the diagnostic auxiliary information is related to the disease that can be inferred from the disease index, such as the current disease progression, the difference from the normal category, and the difference from the average by age. It can mean information about
메디컬 이미지로부터 획득할 수 있는 진단보조정보와 비교 대상이 되는 진단보조정보들, 예를 들어 연령별 평균값, 정상인의 질병 지표값 등, 은 미리 획득되어 제2 메모리(2400)에 저장될 수 있으며 지속적으로 업데이트 될 수 있다.Diagnostic auxiliary information obtainable from the medical image and diagnostic auxiliary information to be compared, for example, an average value by age, a disease index value of a normal person, etc. may be acquired in advance and stored in the
이상에서 설명한 바와 같이, 영상분석장치(2000)에서 명확한 기준을 설정하여 메디컬 이미지로부터 질병 인덱스를 추출하고, 추출된 질병 인덱스에 기초하여 진단보조정보를 제공함으로써, 그동안 의료 산업상에서 의사의 주관적인 판단에 의존했던 질병에 관한 정보 보다 객관적이고 정확한 진단보조정보 획득이 가능해지는 효과가 도출될 수 있다.As described above, by setting clear criteria in the
이상에서는 진단보조정보를 제공하는 방법의 일 실시예로써 미리 정해진 기준 바운더리를 이용하는 방법에 대하여 설명하였다. 다만, 메디컬 이미지의 특성에 따라, 고정된 기준 바운더리를 이용하는 것 보다, 메디컬 이미지의 특성을 고려하여 기준 바운더리가 수정되는 것이 보다 더 정확한 진단보조정보를 제공하는 데에 필요할 수 있다.In the above, a method using a predetermined reference boundary has been described as an embodiment of a method for providing diagnostic auxiliary information. However, depending on the characteristics of the medical image, rather than using a fixed reference boundary, it may be necessary to modify the reference boundary in consideration of the characteristics of the medical image to provide more accurate diagnostic auxiliary information.
이하에서는, 일 실시예에 따른 진단보조정보를 제공하는 방법의 다른 실시예로써, 수정된 기준 바운더리를 이용하는 방법에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, a method of using a modified reference boundary as another embodiment of a method of providing diagnostic auxiliary information according to an embodiment will be described with reference to the drawings.
먼저 도 15를 참조하여, 일 실시예에 따른 메디컬 이미지로부터 질병 인덱스를 추출하고, 질병 정보를 획득하는 다른 예에 대해 개괄적으로 설명하도록 한다.First, with reference to FIG. 15 , another example of extracting a disease index from a medical image and acquiring disease information according to an embodiment will be briefly described.
도 15는 일 실시예에 따라 수정된 기준 바운더리를 이용하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.15 is a flowchart illustrating an example of a method of providing diagnostic assistance information using a modified reference boundary according to an embodiment.
도 15를 참조하면, 일 실시예에 따른 진단보조정보 제공 방법은 세그멘테이션 된 메디컬 이미지로부터 기준 영역을 검출하는 단계(S2202), 검출된 기준 영역에 기초하여 기준 바운더리를 설정하는 단계(S2204), 기준 바운더리와 비관심 영역의 오버랩 여부를 판단하는 단계(S2206), 기준 바운더리를 수정하는 단계(S2208) 및 수정된 기준 바운더리에 기초하여 질병 인덱스를 획득하는 단계(S2210)를 포함할 수 있다.15 , the method for providing diagnostic auxiliary information according to an exemplary embodiment includes detecting a reference region from a segmented medical image (S2202), setting a reference boundary based on the detected reference region (S2204), and a reference The method may include determining whether the boundary overlaps the non-interested region (S2206), correcting the reference boundary (S2208), and obtaining a disease index based on the corrected reference boundary (S2210).
먼저, 영상분석장치(2000)는, 도 10 내지 도 14를 참조하여 설명한 실시예에서 수행한 동작과 유사하게 기준 영역 검출단계(S2202), 검출된 기준영역에 기초하여 기준 바운더리를 설정하는 단계(S2204)를 수행할 수 있으므로, 자세한 설명은 생략하도록 한다.First, in the
기준 바운더리가 설정되면, 영상분석장치(2000)는 설정된 기준 바운더리가 세그멘테이션 된 메디컬 이미지의 비관심 영역과 오버랩 되는지 여부를 판단할 수 있다.(S2206) 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지 내에서, 설정된 기준 바운더리에 해당하는 픽셀이 비관심 영역을 지시한 값으로 레이블링 된 픽셀에 포함되는 지 여부를 판단할 수 있다. 여기서, 비관심 영역은 회백질 영역일 수 있다.When the reference boundary is set, the
잠시 도 16을 참조하여 설명한다.It will be briefly described with reference to FIG. 16 .
도 16은 일 실시예에 따른 기준 바운더리와 비관심 영역이 오버랩 된 경우를 나타낸 것이다. 16 illustrates a case in which a reference boundary and an uninterested region overlap according to an exemplary embodiment.
도 16을 참조하면, 메디컬 이미지 내의 회백질로 레이블링 된 영역에 기준 바운더리가 오버랩 된 것이 도시되어 있다. Referring to FIG. 16 , it is shown that the reference boundary overlaps the gray matter-labeled region in the medical image.
일반적으로, WMH는 백질에 주로 발생하며 회백질 영역에서는 WMH가 발견되지 않는다. 이러한 이유에서, 기준 바운더리가 회백질 영역을 침범하는 경우에 기존과 같이 질병 인덱스를 추출하는 경우, 질병 인덱스가 부정확하게 계산될 수 있으며, 이에 따라 질병 인덱스에 기초한 진단보조정보 역시도 부정확한 정보일 확률이 높아진다. 따라서, 기준 바운더리가 회백질 영역 등에 오버랩 된 경우, 기준 바운더리를 수정하여 수정된 기준 바운더리에 의해 질병 인덱스를 계산할 필요가 있다.In general, WMH mainly occurs in the white matter, and WMH is not found in the gray matter region. For this reason, when the disease index is extracted as before when the reference boundary invades the gray matter region, the disease index may be calculated inaccurately. rises Therefore, when the reference boundary overlaps the gray matter region, it is necessary to correct the reference boundary and calculate the disease index by the modified reference boundary.
본 명세서의 이하의 설명에서는, 백질 영역과 같이 대상 영역(예를 들어 WMH)이 관측될 수 있는 영역에 대하여 '관심 영역' 이라고 지칭하기로 하며, 회백질 영역과 같이 대상 영역(WMH)가 관측되지 않는 영역에 대해서는 '비관심 영역' 이라는 용어를 사용하도록 한다.In the following description of the present specification, a region in which a target region (eg, WMH) can be observed, such as a white matter region, will be referred to as a 'region of interest', and the target region (WMH) is not observed like a gray matter region. The term 'non-interested area' should be used for non-interested areas.
따라서, 제2 콘트롤러(2002)는 메디컬 이미지를 세그멘테이션 하고 기준 바운더리를 설정한 이후, 기준 바운더리가 회백질로 레이블링 된 영역의 적어도 일부와 오버랩 되는 경우 기준 바운더리를 수정할 수 있다.(S2208)Accordingly, after segmenting the medical image and setting the reference boundary, the
다시 도 15를 참조하면, 기준 바운더리가 수정되면, 영상분석장치(2000)는 수정된 기준 바운더리에 기초하여 질병 인덱스를 획득할 수 있다.(S2210) 질병 인덱스를 획득하는 방법에 대해서는 도 10 내지 도 14를 참조하여 설명한 실시예와 유사하므로, 자세한 설명은 생략하도록 하겠다.Referring back to FIG. 15 , when the reference boundary is corrected, the
이하에서는, 기준 바운더리를 수정의 예시에 대하여 도면을 참조하여 설명하도록 한다.Hereinafter, an example of modifying the reference boundary will be described with reference to the drawings.
도 17a 및 도 17b는 일 실시예에 따라 수정된 기준 바운더리를 계산하는 방법의 여러 예시이다.17A and 17B are various examples of a method of calculating a modified reference boundary according to an embodiment.
도 17a 및 도 17b를 참조하면, 영상분석장치(2000)는 기준 바운더리를 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 바운더리를 수정하여, 수정된 기준 바운더리가 비관심 영역으로 레이블링 된 영역과 기준 영역으로 레이블링 된 영역 사이에 위치하도록 변경할 수 있다. 여기서, 기준 바운더리는 기준 영역과 비관심 영역사이의 간격을 미리 정해진 비율로 내분하도록 위치할 수 있다. 여기서, 미리 정해진 비율은 다양한 요인을 고려하여 설정될 수 있다. 일 예로는 미리 정해진 비율은 비관심 영역과 기준 영역 사이의 거리를 고려하여 결정될 수 있다. 즉, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 간의 거리, 비관심 영역과 오버랩 되는 기준 바운더리의 위치 및/또는 기준 영역의 형상 등을 포함하는 메디컬 이미지 내에서 고려될 수 있는 다양한 요소들을 반영하여 기준 바운더리를 수정할 수 있다.17A and 17B , the
도면을 참조하여 구체적인 예시를 들자면, 도 17a의 경우에는 비관심 영역(회백질)과 기준 영역(뇌실) 사이의 거리가 상대적으로 가까워, 기준 바운더리가 비관심 영역과 상대적으로 많은 부분에 오버랩 되어있는 것이 도시되어 있다. 이 경우, 제2 콘트롤러는 비관심 영역과 기준 영역 사이의 거리를 고려하여, 수정된 기준 바운더리가 회백질 영역과 뇌실 영역 중간(뇌실과 회백질간의 거리를 5:5로 내분하도록)에 위치하도록 기준 바운더리를 수정할 수 있다. To give a specific example with reference to the drawings, in the case of FIG. 17A , the distance between the non-interest region (gray matter) and the reference region (ventricle) is relatively close, so that the reference boundary overlaps the non-interest region in a relatively large portion. is shown. In this case, in consideration of the distance between the non-interested region and the reference region, the second controller sets the reference boundary so that the modified reference boundary is located in the middle of the gray matter region and the ventricular region (to internalize the distance between the ventricle and the gray matter by 5:5). can be modified.
또한 도 17b의 경우, 비관심 영역(회백질)과 기준 영역(뇌실) 사이의 거리가 상대적으로 멀고, 기준 바운더리가 상대적으로 비관심 영역에 적은 부분에만 오버랩 된 것이 도시되어 있다. 이 경우, 제2 콘트롤러(2002)는 수정된 기준 바운더리가 비관심 영역에 보다 더 가까워 지도록 기준 바운더리를 수정할 수 있다. In addition, in the case of Figure 17b, the distance between the non-interest region (gray matter) and the reference region (ventricle) is relatively long, it is shown that the reference boundary overlaps only a relatively small portion of the non-interest region. In this case, the
또한, 일 실시예에 따르면 하나의 메디컬 이미지에서 결정된 기준 바운더리가, 복수의 비관심 영역과 오버랩 되는 경우가 있다. 즉 예시적으로, 도 17(a)와 도 17(b)와 같은 상황이 하나의 메디컬 이미지 내에서 발생할 수도 있다.Also, according to an embodiment, a reference boundary determined in one medical image may overlap a plurality of non-interested regions. That is, for example, situations such as FIGS. 17(a) and 17(b) may occur within one medical image.
이런 경우, 제2 콘트롤러(2002)는 기준 바운더리 내에서 비관심 영역과 오버랩되는 제1 구간과 제2 구간이 다른 비율을 가지도록 기준 바운더리를 수정할 수 있다. 예시적으로, 제2 콘트롤러(2002)는 제1 구간에서는 도 17a에서 상술한 바와 같이 기준 바운더리를 수정할 수 있고, 제2 구간에서는 도 17b에서 상술한 바와 같이 기준 바운더리를 수정할 수 있을 것이다.In this case, the
이를 달리 표현하자면, 제2 콘트롤러(2002)는 비관심 영역과 기준 영역 간의 거리가 제1 거리인 위치에서, 기준 영역으로부터 기준 바운더리까지의 거리와 기준 바운더리로부터 비관심 영역까지의 거리에 대한 비율은 제1 값이 되도록 설정하고, 비관심 영역과 기준 영역간의 거리가 제2 거리인 위치에서, 기준 영역으로부터 기준 바운더리까지의 거리와 기준 바운더리로부터 비관심 영역까지의 거리에 대한 비율은 제2 값이 되도록 기준 바운더리를 수정할 수 있다. 여기서, 제2 거리가 제1 거리보다 클 때, 제2 값은 제1 값보다 작도록 기준 바운더리를 수정할 수 있다. 예컨대, 기준 영역과 비관심 영역 사이의 거리가 상대적으로 멀어질수록 수정된 기준 바운더리는 비관심 영역 쪽에 더 치우쳐서 위치할 수 있다. In other words, in the
구체적인 예시로, 제2 콘트롤러(2002)는 회백질과 뇌실간의 거리가 상대적으로 가까운 제1 구역의 경우에는 기준 바운더리가 회백질과 뇌실 사이의 거리를 5:5로 내분하도록 기준 바운더리를 수정하고, 회백질과 뇌실간의 거리가 상대적으로 먼 제2 구역의 경우에는 회백질과 뇌실 사이의 거리를 3:7로 내분하도록 기준 바운더리를 수정할 수 있다. 여기서, 회백질과 뇌실 사이의 거리를 내분하는 비율은 미리 설정될 수 있다.As a specific example, the
또한, 제2 콘트롤러(2002)는, 기준 바운더리와 비관심 영역이 오버랩 되는 영역에 대해서만 기준 바운더리를 수정할 수도 있고, 기준 바운더리 전체를 수정할 수도 있다. 뿐만 아니라, 제2 콘트롤러(2002)는 기준 바운더리와 회백질 영역이 오버랩 되는 영역에 더하여 추가적인 버퍼영역에 대해서 기준 바운더리를 수정하는 것도 가능하다. 이에 관해서는 도 18을 참조하여 이하에서 구체적으로 설명하도록 하겠다.Also, the
도 18은 일 실시예에 따라 일부가 수정된 기준 바운더리 및 전체적으로 수정된 기준 바운더리의 예시를 나타낸 것이다. 18 illustrates an example of a partially modified reference boundary and a fully modified reference boundary according to an embodiment.
도 18을 참조하면, 영상분석장치(2000)는 기준 바운더리의 전부 또는 일부를 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 사이의 관계를 고려하여, 기준 바운더리의 전부를 수정하거나 또는 일부를 수정할 수 있다. Referring to FIG. 18 , the
예를 들어, 기준 영역과 비관심 영역 사이의 거리가, 특정 일부분에서만 가깝다면, 해당 특정 일부분에 대응되는 기준 바운더리의 일부 구간에서만 기준 바운더리가 수정될 수 있으며, 전체적으로 비관심 영역과 기준 영역 간의 거리가 비슷하게 측정된다면 기준 바운더리를 전반적으로 수정할 수 있을 것이다. 다만 이는 예시일 뿐이며, 기준 바운더리를 전체적으로 또는 부분적으로 수정할 상황에 대해서는 다양할 수 있다.For example, if the distance between the reference region and the non-interest region is close only in a specific portion, the reference boundary may be modified only in a partial section of the reference boundary corresponding to the specific portion, and the distance between the non-interest region and the reference region as a whole If is measured similarly, it would be possible to modify the reference boundary as a whole. However, this is only an example, and the situation in which the reference boundary is fully or partially modified may vary.
도면을 참조하여 예시적으로 설명한다. 도면에는 전체적으로 수정된 기준 바운더리와 일부만이 수정된 기준 바운더리가 도시되어 있다.It will be described by way of example with reference to the drawings. In the drawing, the reference boundary modified entirely and the reference boundary partially modified are shown.
기준 바운더리가 전반적으로 수정된 예시에 대해 먼저 살펴본다.First, let's look at an example in which the reference boundary has been modified in general.
영상분석장치(2000)는 기준 바운더리를 전체적으로 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는, 기준 영역과 비관심 영역 사이의 거리를 고려하여 기준 바운더리를 전체적으로 수정할 수 있다. The
제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역이 오버랩 된 구간에서 기준 바운더리를 수정한 것에 상응하도록, 기준 바운더리의 전부를 수정할 수 있다.The
또는 제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역이 오버랩 된 구간 뿐 아니라, 기준 바운더리의 모든 구간에서 기준 영역과 비관심 영역 사이의 거리를 고려하여 기준 바운더리를 수정할 수 있다. Alternatively, the
예컨대, 제2 콘트롤러(2002)는 제1 영역에서의 비관심 영역과 기준 영역 사이의 거리를 고려하여, 제1 영역에서 비관심 영역과 기준 영역 사이의 거리를 내분한 위치에 대응하도록, 기준 바운더리를 전반적으로 수정할 수 있다고도 표현할 수 있을 것이다. For example, the
또한, 제2 콘트롤러(2002)는 기준 바운더리의 모든 구간에 대해 기준 영역의 전반적인 영역과 비관심 영역 사이의 거리를 고려하여, 기준 바운더리를 전반적으로 수정할 수도 있다.Also, for all sections of the reference boundary, the
또한, 영상분석장치(2000)는 기준 바운더리의 일부만을 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역이 오버랩 된 구간에 대응되는 일부 구간에 대해서만 기준 바운더리를 수정할 수 있다. 여기서, 제2 콘트롤러(2002)는, 기준 바운더리와 비관심 영역이 오버랩 되는 구간에 버퍼 구간을 추가한 부분에 대해서도 기준 바운더리를 수정할 수도 있고, 일부 구간을 제거한 구간에 대해서만 기준 바운더리를 수정할 수도 있다. Also, the
이를 달리 표현하자면, 제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역 사이의 거리가 미리 정해진 거리보다 가까운 구간에 대해서는 기준 바운더리와 기준 영역이 제1 거리를 가지도록 기준 바운더리를 결정하고, 기준 바운더리와 비관심 영역이 미리 정해진 거리보다 먼 구간에 대해서는 기준 바운더리와 기준 영역이 제2 거리를 가지도록 기준 바운더리를 결정할 수 있다. 여기서, 미리 정해진 거리는 도 10 내지 도 14에서 상술한 기준 바운더리와 기준 영역간의 거리에 대응될 수 있을 것이다. In other words, the
도면을 참조하면, 일부가 수정된 기준 바운더리와 전체적으로 수정된 기준 바운더리 1, 전체적으로 수정된 기준바운더리 2 모두, 비관심 영역(회백질)과 기준 영역이 가깝게 위치한 구간에서는 비슷한 형태를 띄는 것이 도시되어 있다. 다만, 전체적으로 수정된 기준 바운더리 1은, 비관심 영역과 기준 영역 사이의 거리가 멀어진 구간에서도, 동일한 거리만큼 기준 영역과 떨어져 있는 것이 잘 나타나 있다. 이에 비해, 전체적으로 수정된 기준 바운더리 2는, 기준 바운더리의 모든 구간에서 비관심 영역과 기준 영역을 미리 정해진 비율로 내분하는 위치에 기준 바운더리가 위치하도록 결정되었다. Referring to the drawings, the partially modified reference boundary, the fully modified
다만, 일부만을 수정한 기준 바운더리의 경우라도 수정된 기준 바운더리가 부드러운 형상을 유지하도록, 기준 바운더리가 수정된 영역과 기존의 기준 바운더리를 부드럽게 연결할 필요가 있다. However, even in the case of a partially modified reference boundary, it is necessary to smoothly connect an area in which the reference boundary is modified and the existing reference boundary so that the modified reference boundary maintains a smooth shape.
이하에서는, 기준 바운더리의 일부를 수정하는 경우에, 기존의 기준 바운더리와 수정된 기준 바운더리 사이의 연결관계에 대해 도면을 참조하여 설명하도록 한다. Hereinafter, when a part of the reference boundary is corrected, a connection relationship between the existing reference boundary and the modified reference boundary will be described with reference to the drawings.
도 19는 일 실시예에 따라, 일부가 수정된 기준 바운더리의 구체적인 수정 과정의예시를 나타낸 것이다.19 illustrates an example of a specific modification process of a partially modified reference boundary, according to an embodiment.
도 19를 참조하면, 영상분석장치(2000)는 수정된 기준 바운더리와 기존의 기준 바운더리를 연결할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 사이의 거리를 고려하여, 기준 바운더리가 수정될 범위를 결정하고, 수정된 기준 바운더리의 일부 영역으로부터 기존의 기준 바운더리를 연결할 수 있다. Referring to FIG. 19 , the
먼저, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 사이의 거리가 임계거리 이하가 되는 제1 지점부터, 기준 영역과 비관심 영역 사이의 거리가 임계거리 이하가 되는 제2 지점까지 기준 바운더리를 수정할 수 있다. 다만, 이는 예시적인 것으로서, 제1 지점은 기준 바운더리와 비관심 영역이 오버랩 되는 임의의 지점이나, 비관심 영역과 기준 영역 사이의 거리가 미리 정해진 거리 이하가 되는 임의의 지점으로 선택될 수도 있다. 또한, 기준 바운더리를 수정하는 방법에 대해서는 전술한 실시예들 혹은 기타 본 발명의 사상에 통합되는 방법이 이용될 수 있다.First, the
이후, 제2 콘트롤러(2002)는 기준 바운더리가 수정된 영역의 끝지점인 제1 지점 또는 제2 지점과 기존의 기준 바운더리가 다시 시작되는 구간인 제3 지점을 연결할 수 있다. 여기서, 기존의 기준 바운더리에 따른 제3 지점과 기준 영역 사이의 거리는 도 10 내지 도 14에서 전술한 바와 같이 미리 정해질 수 있다. Thereafter, the
제2 콘트롤러(2002)는, 제1 지점 또는 2 지점의 위치값과 제3 지점의 위치값 사이를 보간하여 제1 지점 또는 2 지점과 제3 지점을 연결할 수 있다. 여기서, 제2 지점과 제3 지점의 사이인 보간구간의 길이는 다양하게 설정될 수 있다. 일 예로, 보간구간은 비관심 영역과 관심 영역 사이의 거리를 고려하여 설정될 수 있다.The
도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.
제2 콘트롤러(2002)는 회백질과 뇌실 사이의 거리가 가깝거나 기존의 기준 바운더리가 회백질 영역과 오버랩 되는 구간에 대해서 기준 바운더리를 일부 수정할 수 있다. 제2 콘트롤러(2002)는 수정된 기준 바운더리의 일측에 위치한 제1 지점과 기존의 기준 바운더리 상에 위치한 제3 지점 사이를 보간하여 서로 연결할 수 있다. 여기서, 제2 지점은 회백질과 뇌실 사이의 거리가 임계거리 이상이 되는 지점으로 선택 될 수 있다. 또는 제2 지점은 수정된 기준 바운더리와 비관심 영역이 임계거리 이상이 되는 지점으로 선택될 수 있다.. The
이처럼, 일 실시예에 따른 영상분석장치(2000)는 기존의 기준 바운더리와 수정된 기준 바운더리를 부드럽게 연결함으로써, 질병 인덱스를 계산하기 위한 기준 바운더리를 보다 명확하게 설정할 수 있고, 명확하게 설정된 기준 바운더리로 인해 영상분석장치(2000)가 획득하는 질병 인덱스의 정확성 역시 향상될 수 있다.As such, the
수정된 기준 바운더리에 의해 질병 인덱스가 계산되면, 영상분석장치(2000)는 수정된 기준 바운더리를 이용하여 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 수정된 기준 바운더리를 이용한 메디컬 이미지의 분석 결과로 질병 인덱스를 획득할 수 있고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 제공되는 질병 인덱스 또는 질병 정보에 관한 내용은 도 14에서 전술한 바와 유사하므로 자세한 설명은 생략하도록 하겠다.When the disease index is calculated by the modified reference boundary, the
이상에서 설명한 바와 같이, 수정된 기준 바운더리를 이용함으로써, 일률 적인 기준 바운더리를 이용하는 경우에 비해서 더 다양한 이미지로부터 정확한 질병 인덱스를 획득할 수 있게 된다. As described above, by using the modified reference boundary, it is possible to obtain an accurate disease index from more diverse images than in the case of using a uniform reference boundary.
또한, 이상의 설명에서는 기준 바운더리가 회백질 영역과 오버랩 되는 경우에만 기준 바운더리를 수정하는 것으로 설명하였으나, 처음부터 기준 바운더리를 도 15 내지 도 19에서 설명한 바와 같이 설정하는 것도 가능함은 물론이며, 필드에서 요구되는 바에 따라 적절한 기준 바운더리 설정 방법을 채택하여 이용할 수 있을 것이다.In addition, in the above description, it has been described that the reference boundary is corrected only when the reference boundary overlaps the gray matter region, but it is also possible to set the reference boundary as described in FIGS. 15 to 19 from the beginning. Depending on the bar, an appropriate reference boundary setting method may be adopted and used.
본 명세서의 이상의 설명에서는 하나의 메디컬 이미지를 분석하는 방법에 대해서 주로 설명하였다. In the above description of the present specification, a method of analyzing one medical image has been mainly described.
이하에서는, 영상분석장치(2000) 복수의 메디컬 이미지를 분석하는 경우에, 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법에 대해서 설명하기로 한다.Hereinafter, when the
도 20은 일 실시예에 따라 영상분석장치(2000)가 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법에 관한 개략적인 순서도이다.20 is a schematic flowchart of a method for the
도 20을 참조하면, 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S3200), 복수의 메디컬 이미지로부터 질병 인덱스를 획득하는 단계(S3400) 및 복수의 질병 인덱스에 기초하여 진단보조정보를 제공하는 단계(S3600)를 포함할 수 있다.Referring to FIG. 20 , a method of providing diagnostic auxiliary information from a plurality of medical images includes obtaining a plurality of medical images ( S3200 ), obtaining a disease index from the plurality of medical images ( S3400 ), and a plurality of disease indexes It may include a step (S3600) of providing diagnostic auxiliary information based on the .
먼저, 영상분석장치(2000)는 복수의 메디컬 이미지를 획득할 수 있다(S3200). 구체적으로, 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해, 영상획득장치(1000)로부터 복수의 메디컬 이미지를 획득할 수 있다. 여기서, 복수의 메디컬 이미지는 피촬영 객체를 촬영한 단층 이미지의 집합일 수 있다. 일 예로, 복수의 메디컬 이미지는 피촬영 객체에 대한 MRI 슬라이스 이미지의 집합일 수 있다. First, the
이후, 영상분석장치(2000)는 복수의 메디컬 이미지로부터 질병 인덱스를 획득할 수 있다.(S3400). 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 질병 인덱스 획득을 위한 프로그램을 이용하여, 복수의 메디컬 이미지에 대한 질병 인덱스를 획득할 수 있다. 여기서, 제2 콘트롤러(2002)는 복수의 메디컬 이미지 각각에 대한 질병 인덱스를 획득할 수도 있고, 복수의 메디컬 이미지중 일부에 대한 질병 인덱스를 획득할 수도 있다. 질병 인덱스를 획득하는 방법에 대해서는 전술한 바와 유사하므로, 자세한 설명은 생략하도록 하겠다.Thereafter, the
복수의 질병 인덱스가 획득되면, 영상분석장치(2000)는 복수의 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다(S3600). 구체적으로, 제2 콘트롤러(2002)는 획득한 복수의 메디컬 이미지에 관한 질병 인덱스를 종합적으로 고려하여, 진단보조정보를 획득하고 이를 제공할 수 있다. 여기서, 제2 콘트롤러(2002)는 질병 인덱스가 계산된 복수의 메디컬 이미지 전부에 대한 진단보조정보를 제공할 수도 있고, 질병 인덱스가 계산된 복수의 메디컬 이미지 중 일부에 대해서만 진단보조정보를 제공할 수도 있다. 영상분석장치(2000)가 복수의 메디컬 이미지에 대한 진단보조정보를 제공하는 방식에 대해서는 후술하여 자세히 설명하도록 하겠다.When a plurality of disease indices are obtained, the
이하에서는, 일 실시예에 따른 복수의 메디컬 이미지의 예시와, 복수의 메디컬 이미지에 기초하여 진단보조정보를 제공하는 방법에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, an example of a plurality of medical images and a method of providing diagnostic assistance information based on the plurality of medical images according to an embodiment will be described with reference to the drawings.
도 21은 일 실시예에 따른 복수의 메디컬 이미지의 일 예를 나타낸 것이다.21 illustrates an example of a plurality of medical images according to an embodiment.
도 21을 참조하면, 영상분석장치(2000)는 피촬영 객체와 관련된 복수의 단층 이미지를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해 피촬영 객체의 복수의 단면의 이미지를 포함하는 복수의 메디컬 이미지를 획득할 수 있다. 여기서, 복수의 단층 이미지는, 슬라이스 이미지의 집합으로 구성될 수 있음은 전술한 바와 같다.Referring to FIG. 21 , the
도 21에는, MRI 이미지 장치에서 획득한 복수의 메디컬 이미지에 관한 예시가 도시되어 있다.21 shows an example of a plurality of medical images acquired by the MRI imaging apparatus.
도 21을 참조하면, 복수의 메디컬 이미지는 피촬영 객체의 제1 축에 대해 평행한 복수의 평면에 관한 슬라이스 이미지들을 포함한다. 또한 각 슬라이스 이미지들은 서로 소정의 거리만큼 이격된 위치에서의 피촬영 객체에 대한 정보를 포함할 수 있다. 즉, 각각의 슬라이스 이미지는 피촬영 객체에 관하여 각기 다른 정보를 포함할 수 있다. 이처럼, 복수의 메디컬 이미지는 피촬영 객체의 여러 단면에 관한 정보를 포괄적으로 포함하고 있어, 영상분석장치(2000)는 복수의 메디컬 이미지를 분석함으로써 피촬영 객체 전반에 관한 진단보조정보를 획득할 수 있다.Referring to FIG. 21 , the plurality of medical images includes slice images of a plurality of planes parallel to a first axis of an object to be photographed. In addition, each slice image may include information about the object to be photographed at positions spaced apart from each other by a predetermined distance. That is, each slice image may include different information about the object to be photographed. As such, since the plurality of medical images comprehensively include information on various cross-sections of the object to be photographed, the
도 22는 각각 다른 정보를 포함하고 있는 슬라이스 이미지의들의 예시 및 이를 통한 진단보조정보의 제공에 관한 일 예이다.22 is an example of slice images each including different information and an example of providing diagnostic auxiliary information through this example.
도 22를 참조하면, 하나의 피촬영 객체에 대해 다른 단면을 촬영한 복수의 메디컬 이미지의 예시가 도시되어 있다. 구체적으로, 도 22는 사람의 뇌를 촬영한 MRI 이미지의 여러 슬라이스 이미지들의 집합을 나타낸 것이다.Referring to FIG. 22 , an example of a plurality of medical images obtained by photographing different cross-sections for one object to be photographed is illustrated. Specifically, FIG. 22 shows a set of several slice images of an MRI image of a human brain.
(a)의 경우 뇌의 상부측의 단면에 관한 MRI 슬라이스 이미지이고, (b)의 경우 뇌의 가운데 측 단면에 관한 MRI 슬라이스 이미지를 나타낸 것이다.In case of (a), an MRI slice image of a cross-section of the upper side of the brain is shown, and in case of (b), an MRI slice image of a cross-section of the middle side of the brain is shown.
(a)는 (b)에 비하여 뇌의 상부에 위치하는 영역의 단면을 촬영한 이미지로, 뇌실의 크기가 (b) 보다 작게 촬영되었다. 또한, (a)와 (b)에 포함된 백질영역과 회백질 영역 또한 다르게 도시되고 있으며, 가장 중요하게는, WMH로 구별된 영역정보를 다르게 포함하고 있음을 알 수 있다.(a) is an image of a cross-section of a region located in the upper part of the brain compared to (b), and the size of the ventricle was taken smaller than (b). In addition, the white matter region and the gray matter region included in (a) and (b) are also shown differently, and most importantly, it can be seen that the region information differentiated by WMH is included differently.
전술한 바와 같이, 일 실시예에 따른 질병 인덱스는 기준 영역과 대상 영역의 영역정보의 관계에 기초하여 획득될 수 있다. 따라서, 피촬영 객체의 여러 위치에서의 단면을 포함하는 복수의 메디컬 이미지 각각에서 서로 다른 질병 인덱스가 계산될 수 있다. 구체적인 예시로, 뇌의 상부측의 단면을 촬영한 (a)의 경우 3등급의 질병 인덱스가 계산되었고, 뇌의 가운데 측 단면을 촬영한 (b)의 경우 2등급의 질병 인덱스가 계산되었다.As described above, the disease index according to an embodiment may be obtained based on the relation between the reference region and the region information of the target region. Accordingly, different disease indices may be calculated in each of a plurality of medical images including cross-sections at various positions of the object to be photographed. As a specific example, in the case of (a), a cross-section of the upper side of the brain was taken, a disease index of
이런 경우, (a)에 관한 진단보조정보 및 (b)에 관한 진단보조정보가 모두 획득될 수 있으며, 영상분석장치(2000)는 모든 이미지에 대한 진단보조정보나, 일부 이미지에 대한 진단보조정보를 획득하여 제공할 수 있다.In this case, both the auxiliary diagnosis information regarding (a) and the auxiliary diagnosis information regarding (b) can be obtained, and the
즉, 일 실시예에 따른 영상분석장치(2000)는, 피촬영 객체의 여러 단면을 촬영한 복수의 메디컬 이미지에 대한 질병 인덱스를 계산할 수 있고, 계산된 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다.That is, the
또한, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 모두에 관하여 진단보조정보를 제공할 수도 있고, 일부에 대하여만 진단보조정보를 제공할 수도 있다. Also, the
영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중 일부 이미지를 선택하고, 선택된 메디컬 이미지에 대하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 진단 인덱스가 계산된 메디컬 이미지 중, 소정의 정보를 포함하고 있는 이미지를 선택하고, 소정의 정보를 포함하고 있는 이미지에 대하여 질병 인덱스를 계산하여 진단보조정보를 제공할 수 있다.The
여기서, 진단보조정보가 제공될 메디컬 이미지를 선택하는 기준은 다양할 수 있다. 즉, 영상분석장치(2000)는, 질병 인덱스의 종류나 등급에 기초하여 진단보조정보를 제공할 메디컬 이미지를 선택할 수도 있다. Here, the criteria for selecting a medical image to which the diagnosis auxiliary information is to be provided may vary. That is, the
예를 들어, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중, 질병의 진행 정도가 가장 심각함을 나타내는 질병 인덱스의 등급 계산의 기초가 된 메디컬 이미지에 대한 진단보조정보를 제공할 수 있다. 다른 예로, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중, 질병의 상태가 가장 호전되었음을 나타내는 질병 인덱스의 등급의 계산 기초가 된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있다. 또 다른 예로, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중, 복수의 메디컬 이미지로부터 계산된 질병 인덱스의 평균값(또는 중간값)을 나타내는 질병 인덱스의 등급의 계산 기초가 된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있다.For example, the
다른 예로, 영상분석장치(2000)는, 질병 인덱스의 종류를 고려하여, 제1 질병 인덱스가 높게 측정된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있고, 제2 질병 인덱스가 높게 측정된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있으며, 이들을 조합하여 진단보조정보를 제공할 수도 있다. 또한, 영상분석장치(2000)는 질병 인덱스의 종류와 등급 모두를 고려하여 진단보조정보를 제공할 메디컬 이미지를 선택할 수 있음은 물론이다.As another example, the
이처럼, 질병 인덱스의 종류나 등급에 따라 다른 진단보조정보가 계산될 수 있으므로, 영상분석장치(2000)는 피촬영 객체(예를 들어 주로 환자의 경우)의 특성을 고려하여 질병 인덱스의 종류나 등급을 고려하여 진단보조정보를 제공할 메디컬 이미지를 선택함으로써, 환자에 적합한 진단보조정보를 제공할 수 있게 된다.As such, since different diagnostic auxiliary information may be calculated according to the type or grade of the disease index, the
다른 실시예로써, 영상분석장치(2000)는 복수의 메디컬 이미지로부터 질병 인덱스를 계산하기 위한 후보 이미지를 선택하고, 선택된 후보 이미지들로부터 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수도 있다.As another embodiment, the
이하에서는, 영상분석장치(2000)가 후보 이미지들로부터 획득한 질병 인덱스에 기초하여 진단보조정보를 제공하는 방법에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, a method in which the
도 23은 실시예에 따라 후보 이미지로부터 진단보조정보를 획득하는 방법을 개략적으로 나타낸 순서도이다.23 is a flowchart schematically illustrating a method of obtaining diagnostic assistance information from a candidate image according to an exemplary embodiment.
도 23을 참조하면, 영상분석장치(2000)가 후보 이미지로부터 진단보조정보를 획득하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S1202), 복수의 메디컬 이미지를 세그멘테이션하는 단계(S1212), 세그멘테이션 된 복수의 이미지에서 후보 이미지를 판단하는 단계(S1222), 선택된 후보 이미지에 대한 질병 인덱스를 획득하는 단계(S1402) 및 획득된 질병 인덱스에 기초하여 진단보조정보를 제공하는 단계(S1602)를 포함할 수 있다.Referring to FIG. 23 , the method for the
먼저, 영상분석장치(2000)는 영상획득장치(1000)로부터 복수의 메디컬 이미지를 획득할 수 있다(S1202). 복수의 메디컬 이미지를 획득하는 단계(S1202)는 도 20에서 설명한 바와 유사하므로, 자세한 설명은 생략하도록 한다.First, the
이후, 영상분석장치(2000)는 복수의 메디컬 이미지를 세그멘테이션 할 수 있다(S1212). 메디컬 이미지에 대한 세그멘테이션 역시, 전술한 바와 유사하게 수행될 수 있어 자세한 설명은 생략하도록 하겠다. Thereafter, the
세그멘테이션이 수행되면, 영상분석장치(2000)는 세그멘테이션 된 복수의 메디컬 이미지로부터 후보 이미지를 결정할 수 있다(S1222). 구체적으로, 제2 콘트롤러(2002)는 미리 정해진 기준에 따라, 세그멘테이션 된 복수의 메디컬 이미지 중에서 미리 정해진 기준을 만족하는 후보 이미지들을 결정할 수 있다. 후보 이미지에 관한 상세한 설명은 도면을 참조하여 후술하도록 하겠다. When segmentation is performed, the
후보 이미지를 결정하면, 영상분석장치(2000)는 후보 이미지로부터 질병 인덱스를 획득할 수 있다(S1402). 구체적으로, 제2 콘트롤러(2002)는 후보 이미지들 전부 또는 일부에 대하여 제2 메모리(2002)에 저장된 질병 인덱스 계산을 위한 프로그램을 이용하여 질병 인덱스를 획득할 수 있다. 질병 인덱스를 획득하는 방법은, 전술한 바와 유사하게 수행될 수 있으므로 구체적인 설명은 생략하도록 한다.When the candidate image is determined, the
질병 인덱스가 획득되면, 영상분석장치(2000)는 획득된 질병 인덱스에 기초하여 진단보조정보를 획득하고, 제공할 수 있다(S1602). 구체적으로, 제2 콘트롤러(2002)는 하나 이상의 후보 이미지들로부터 획득된 질병 지표에 기초하여 진단보조정보를 제공할 수 있다. 여기서, 제2 콘트롤러(2002)가 복수의 후보 이미지들로부터 진단보조정보를 제공하는 방법은, 도 20 내지 22에서 언급한 바와 같이, 복수의 메디컬 이미지들로부터 진단보조정보를 제공하는 방법이 적용될 수 있다.When the disease index is obtained, the
이하에서는, 복수의 메디컬 이미지로부터 후보 이미지가 추출된 예시 및 추출된 후보 이미지들로부터 질병 인덱스를 계산하고, 진단보조정보를 제공하는 예시에 대해 도면을 참조하여 설명하도록 하겠다.Hereinafter, an example in which a candidate image is extracted from a plurality of medical images, an example in which a disease index is calculated from the extracted candidate images, and an example in which the diagnosis auxiliary information is provided will be described with reference to the drawings.
도 24은 일 실시예에 따른 후보 이미지의 예시이다.24 is an example of a candidate image according to an embodiment.
도 24를 참조하면, 영상분석장치(2000)는 후보 이미지를 선택할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 영상획득장치(1000)로부터 획득한 복수의 메디컬 이미지 중에서, 하나 이상의 후보 이미지를 선택할 수 있다. 여기서, 후보 이미지는 복수의 메디컬 이미지 중에서 미리 정해진 기준을 만족하는 이미지일 수 있다. Referring to FIG. 24 , the
여기서, 미리 정해진 기준은 계산하고자 하는 질병 인덱스에 대응되도록 결정될 수 있다. 일 예로, 미리 정해진 기준은 기준 영역의 포함 여부일 수 있다. 즉, 제2 콘트롤러(2002)는 복수의 메디컬 이미지 중에서 기준 영역에 관한 정보를 포함하고 있는 이미지를 후보 이미지로 선택할 수 있다. 다른 예로, 미리 정해진 기준은 대상 영역의 포함 여부일 수 있다. 즉, 제2 콘트롤러(2002)는 복수의 메디컬 이미지 중에서 대상 영역에 관한 정보를 포함하고 있는 이미지를 후보 이미지로 선택할 수 있다. 또한, 제2 콘트롤러(2002)는 대상 영역과 기준 영역 모두를 포함하는 메디컬 이미지를 후보 이미지로 선택할 수 있다. Here, the predetermined criterion may be determined to correspond to a disease index to be calculated. For example, the predetermined criterion may be whether the reference region is included. That is, the
또한 여기서, 후보 이미지는 도면에 도시된 바와 같이 후보 이미지 범위 내에 포함되는 하나 이상의 이미지로 결정될 수도 있다. 여기서, 후보 이미지 범위는, 동일한 피촬영 객체를 하나의 축에 대한 여러 평면으로 촬영한 연속적인 순서를 가지는 단층 메디컬 이미지 중에서, 미리 정해진 조건을 만족하는 제1 메디컬 이미지부터 미리 정해진 조건을 만족하는 제2 메디컬 사이까지의 범위를 의미할 수 있다. 여기서, 제1 메디컬 이미지부터 제2 메디컬 이미지 사이의 범위는 제1 메디컬 이미지와 제2 메디컬 이미지 사이의 순차적으로 위치하는 복수의 메디컬 이미지를 포함할 수 있다.Also, here, the candidate image may be determined as one or more images included in the candidate image range as shown in the drawing. Here, the candidate image range includes a first medical image that satisfies a predetermined condition among tomographic medical images having a continuous sequence obtained by photographing the same object to be photographed in multiple planes about one axis, and a first medical image that satisfies the predetermined condition. It may mean a range between 2 medical. Here, the range between the first medical image and the second medical image may include a plurality of medical images sequentially positioned between the first medical image and the second medical image.
즉, 도면을 참조하여 구체적인 예시를 들자면, 기준 영역이 뇌실 영역인 경우, saggital 축에 대한 transverse 평면을 연속적인 단면으로 촬영한 복수의 메디컬 이미지 중에서, 뇌실이 포함된 메디컬 이미지 중 가장 하부에 위치한 제1 메디컬 이미지부터 뇌실이 포함된 메디컬 이미지 중 가장 상부에 위치한 제2 메디컬 이미지 사이가 후보 이미지 범위로 설정될 수 있는 것이다.That is, to give a specific example with reference to the drawings, if the reference region is the ventricle region, among a plurality of medical images obtained by taking a transverse plane with respect to the saggital axis as a continuous cross-section, the lowermost medical image including the ventricle A range between the first medical image and the second medical image located at the top of the medical images including the ventricle may be set as the candidate image range.
이를 달리 표현하면, 제2 콘트롤러(2002)는 메디컬 이미지에 포함된 미리 설정된 조건에 대응되는 픽셀의 수가 임계값 이하 또는 이상인지 여부에 기초하여 후보 이미지 또는 후보 이미지의 범위를 선택할 수 있다.In other words, the
구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지의 세그멘테이션 결과를 분석하여, 뇌실로 레이블링 된 픽셀의 수가 임계값 이하인지 여부를 판단할 수 있다. 제2 콘트롤러(2002)는 메디컬 이미지에 포함된 뇌실로 레이블링 된 픽셀의 수가 임계값 이상 또는 초과일 경우에, 상기 메디컬 이미지를 후보 이미지로 결정할 수 있다.Specifically, the
또한 제2 콘트롤러(2002)가 후보 이미지의 범위를 설정하는 경우, 인접한 2개의 메디컬 이미지 분석 결과 하나의 이미지에 포함된 뇌실로 레이블링 된 픽셀의 수가 임계값 미만 또는 이하이고 다른 하나의 이미지에 포함된 뇌실로 레이블링 된 픽셀의 수가 임계값 이상 또는 초과라면, 상기 다른 하나의 이미지가 후보 이미지의 범위의 일 경계로 설정될 수 있다. In addition, when the
도 25는 일 실시예에 따른 후보 이미지로부터 진단보조정보를 제공하는 예시를 나타낸 것이다.25 is a diagram illustrating an example of providing diagnostic auxiliary information from a candidate image according to an exemplary embodiment.
도 25를 참조하면, 영상분석장치(2000)는 후보 이미지로부터 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 후보 이미지로부터 질병 인덱스를 획득하고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다.Referring to FIG. 25 , the
질병 인덱스를 산출하는 방식에 대해서는 전술한 바와 같아 구체적인 설명은 생략하도록 한다.Since the method of calculating the disease index has been described above, a detailed description thereof will be omitted.
도 25에 도시된 바에 따르면, (a)의 경우 후보 이미지가 아닌 메디컬 이미지이고, (b)의 경우 후보 이미지로 결정된 메디컬 이미지이다. As shown in FIG. 25 , in case of (a), it is a medical image that is not a candidate image, and in case of (b), it is a medical image determined as a candidate image.
일 실시예에 따라 질병 인덱스를 계산함에 있어서, 피촬영 객체의 특정 영역이 메디컬 이미지 내에 포함되는 것이 중요할 수 있다. 예를 들어, 일 실시예에 따른 질병 인덱스획득 방법은 뇌실과 WMH의 상관관계에 의해 도출될 수 있는데, 이런 경우 메디컬 이미지 내에 뇌실이 포함되어 있지 않다면 질병 인덱스를 산출하기 어려워질 수 있고, 이로 인해 정확한 진단보조정보가 제공되지 못할 수도 있다. 즉, 도 25의 (a)의 경우, 뇌의 상단부를 촬영한 메디컬 이미지로, 메디컬 이미지 내에 뇌실 영역이 포함되어 있지 않기 때문에, 일 실시예에 따른 질병 인덱스계산 방법이 이용되기 어려울 수 있다.In calculating the disease index according to an embodiment, it may be important that a specific region of the object to be photographed is included in the medical image. For example, the disease index acquisition method according to an embodiment may be derived by the correlation between the ventricle and WMH. In this case, if the ventricle is not included in the medical image, it may be difficult to calculate the disease index, which Accurate diagnostic assistance information may not be provided. That is, in the case of (a) of FIG. 25 , it is a medical image obtained by photographing the upper part of the brain, and since the ventricular region is not included in the medical image, it may be difficult to use the disease index calculation method according to an embodiment.
(b)의 경우, 뇌실영역이 메디컬 이미지 내에 포함되어 있어, 제2 콘트롤러(2002)는 (b)와 같은 메디컬 이미지를 분석하여 질병 인덱스를 계산할 수 있고, 계산된 질병 인덱스에 기초하여 진단보조정보를 획득할 수 있는 것이다.In the case of (b), since the ventricular region is included in the medical image, the
또한, 피촬영 객체와 관련된 모든 메디컬 이미지를 분석하는 경우, 영상분석장치(2000)의 연산량이 과도해져 연산속도가 느려질 수 있고 이에 따라 연산과정에서 오류가 발생할 수도 있다.In addition, when all medical images related to the object to be photographed are analyzed, the amount of computation of the
그러나, 일 실시예에 따른 후보 이미지를 이용한 진단보조정보 제공 방법에 의하면, 복수의 이미지를 세그멘테이션 한 이후 질병 인덱스를 계산할 후보 이미지를 먼저 결정하고, 결정된 후보 이미지들에 대해서만 질병 인덱스를 계산하므로, 연산량을 감소시킴으로써 연산속도가 빨라지고 연산의 정확도가 향상될 수 있게 되는 것이다.However, according to the method for providing diagnostic assistance information using candidate images according to an embodiment, after segmenting a plurality of images, a candidate image for which a disease index is to be calculated is first determined, and a disease index is calculated only for the determined candidate images, so the amount of computation is By reducing
도 26은 일 실시예에 따른 진단보조정보 제공의 다른 구현예이다.26 is another example of providing diagnostic auxiliary information according to an exemplary embodiment.
도 26을 참조하면, 일 실시예에 따른 영상분석장치(2000)는 후보 이미지들 중 적어도 하나 이상의 이미지에 관한 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 후보 이미지로 선택된 메디컬 이미지들 중에서, 미리 정해진 조건을 만족하는 적어도 하나 이상의 이미지에 관한 진단보조정보를 제공할 수 있다.Referring to FIG. 26 , the
여기서, 미리 정해진 조건은 질병 인덱스를 고려하여 결정될 수 있다. 일 예로, 미리 정해진 조건은 가장 심한 질병 진행도를 지시하는 질병 인덱스 값일 수 있다. 즉, 제2 콘트롤러(2002)는 후보 이미지들의 질병 인덱스 중에서 질병 인덱스가 가장 심한 질병의 진행도를 나타내고 있는 특정 메디컬 이미지를 진단보조정보 제공을 위한 메디컬 이미지로 선택할 수 있다. Here, the predetermined condition may be determined in consideration of the disease index. For example, the predetermined condition may be a disease index value indicating the most severe disease progression. That is, the
또한, 메디컬 이미지로부터 복수의 질병 인덱스가 계산될 수 있는 경우, 미리 정해진 조건은 각각의 질병 인덱스를 모두 고려하여 결정될 수도 있다. 즉 제2 콘트롤러(2002)는 복수의 질병 인덱스 각각에 대한 특정 후보 이미지를 진단 보조정보 제공을 위한 메디컬 이미지로 모두 선택할 수도 있고, 복수의 질병 인덱스 중 일부에 대한 특정 후보 이미지만을 진단 보조정보 제공을 위한 메디컬 이미지로 선택할 수 있는 것이다.In addition, when a plurality of disease indices can be calculated from the medical image, the predetermined condition may be determined in consideration of all disease indices. That is, the
도면을 참조한 구체적인 예시를 들자면, 제2 콘트롤러(2002)는, 복수의 메디컬 이미지 중 제1 질병 인덱스에 관한 미리 정해진 조건을 만족하는 메디컬 이미지에 관한 진단보조정보를 디스플레이모듈(2600)를 통해 제공할 수 있다. 여기서, 미리 정해진 조건은, 복수의 후보 이미지 중 제1 질병 인덱스의 등급이 가장 높게 계산 되었는지 여부일 수 있다. 또한, 제2 콘트롤러(2002)는, 복수의 메디컬 이미지 중 제2 질병 인덱스에 관한 미리 정해진 조건을 만족하는 메디컬 이미지에 관한 진단보조정보를 디스플레이모듈(2600)을 통해 제공할 수도 있고, 제1 질병 인덱스 및 제2 질병 인덱스에 관한 미리 정해진 조건을 만족하는 메디컬 이미지 모두에 대한 진단보조정보를 제공할 수도 있다.As a specific example with reference to the drawings, the
이상에서는, 복수의 메디컬 이미지로부터 질병 인덱스를 계산하기 위한 후보 이미지를 결정하는 방법이나, 하나의 메디컬 이미지에 관한 질병 인덱스를 산출하는 방법 위주로 설명하였다. In the above, a method for determining a candidate image for calculating a disease index from a plurality of medical images and a method for calculating a disease index for one medical image have been mainly described.
그러나, 일 실시예에 따르면, 보다 정확한 질병 인덱스를 계산하기 위하여 복수의 메디컬 이미지를 이용하여 질병 인덱스를 계산할 수도 있는데, 이와 관련하여 도 27 내지 도 29을 참조하여 설명하도록 한다.However, according to an embodiment, the disease index may be calculated using a plurality of medical images in order to more accurately calculate the disease index, which will be described with reference to FIGS. 27 to 29 .
도 27은 일 실시예에 따른 복수의 이미지에 기초하여 질병 인덱스를 획득하는 방법을 나타낸 순서도이다. 27 is a flowchart illustrating a method of obtaining a disease index based on a plurality of images according to an embodiment.
도 27을 참조하면, 일 실시예에 따른 복수의 이미지에 기초하여 질병 인덱스를 획득하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S4200), 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S4400), 제1 이미지의 타겟영역정보를 획득하는 단계(S4600) 및 제1 이미지의 타겟영역정보에 기초하여 제2 이미지의 질병 인덱스를 획득하는 단계(S4800)를 포함할 수 있다.Referring to FIG. 27 , a method for obtaining a disease index based on a plurality of images according to an embodiment includes obtaining a plurality of medical images (S4200), and performing segmentation on the plurality of medical images (S4400). , obtaining the target area information of the first image (S4600) and obtaining the disease index of the second image based on the target area information of the first image (S4800).
먼저, 복수의 메디컬 이미지를 획득하고(S4200), 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S4400)는 전술한 동작과 유사하게 수행될 수 있으므로, 구체적인 설명은 생략하도록 하겠다.First, acquiring a plurality of medical images (S4200) and performing segmentation on the plurality of medical images (S4400) may be performed similarly to the above-described operation, and thus a detailed description thereof will be omitted.
메디컬 이미지에 대한 세그멘테이션 수행 이후, 영상분석장치(2000)는 제1 이미지에 대한 타겟영역에 관한 정보를 획득할 수 있다(S4600). 구체적으로, 제2 콘트롤러(2002)는, 계산하고자 하는 질병 인덱스에 대응되는 타겟영역에 대한 정보를 획득할 수 있다. 여기서, 타겟영역은 특정 질병 인덱스를 계산함에 있어 필수적으로 필요한 영역을 의미할 수 있다. 구체적인 내용에 대해서는 후술하도록 한다.After the segmentation is performed on the medical image, the
타겟영역에 관한 정보를 획득하면, 영상분석장치(2000)는 제1 이미지의 타겟영역정보에 기초하여 제2 이미지의 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지로부터 획득한 타겟영역정보와 제2 이미지에 포함되어 있는 피촬영 객체와 관련된 영역정보에 기초하여, 제2 이미지에 관련된 질병 인덱스를 계산할 수 있다. 이와 관련된 예시는 후술하여 설명하도록 한다.When information on the target region is obtained, the
이하에서는, 도면을 참조하여 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 방법에 대해 구체적인 예시를 들어 설명하도록 한다.Hereinafter, a method of calculating the disease index of the second image in consideration of the information of the first image with reference to the drawings will be described with reference to a specific example.
도 28은 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 일 예이다.28 is an example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an embodiment.
일 실시예에 따르면, 영상분석장치(2000)는 제1 이미지로부터 직접 제2 이미지의 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지에 포함된 제1 영역 정보와 제2 이미지에 포함된 제2 영역정보의 관계에 기초하여, 제2 이미지의 질병 인덱스를 계산할 수 있다. 여기서, 제1 영역 정보는 제1 이미지에 포함된 기준 영역에 관한 정보일 수 있다. 또한, 제2 영역 정보는 제2 이미지에 포함된 대상 영역에 관한 정보일 수 있다.According to an embodiment, the
질병 인덱스를 계산함에 있어서, 기준 영역에 관한 정보는 메디컬 이미지 내에 포함되어 있지 않으면서, 대상 영역에 관한 정보는 포함되어 있는 경우가 있다. 이런 경우, 질병 인덱스를 계산하기 위한 요건이 충족되지 않았기 때문에 질병 인덱스를 계산하기가 난해할 수 있으나, 경우에 따라 이러한 메디컬 이미지에 대해서도 질병 인덱스를 계산할 필요가 있다.In calculating the disease index, information on the reference region may not be included in the medical image, but information on the target region may be included. In this case, it may be difficult to calculate the disease index because the requirements for calculating the disease index are not met, but in some cases, it is necessary to calculate the disease index even for these medical images.
즉, 예시적으로 도 28을 참조하면, 제1 슬라이스 이미지의 경우 WMH에 관한 정보가 포함되어 있으나, 뇌실에 관한 정보가 포함되어 있지 않다. 이런 경우, 뇌실과 WMH의 관계로부터 도출되는 질병 인덱스는 제1 슬라이스 이미지로부터 도출되기가 난해할 수 있다. 그러나, WMH는 질병에 관한 중요한 정보를 내포하고 있을 가능성이 높아, 보다 정확한 진단보조정보를 제공하기 위해서는 WMH가 발견된 이미지에 대해서는 질병 인덱스를 계산하는 것이 바람직하다. That is, illustratively referring to FIG. 28 , in the case of the first slice image, information about WMH is included, but information about the ventricle is not included. In this case, the disease index derived from the relationship between the ventricle and WMH may be difficult to derive from the first slice image. However, since WMH is likely to contain important information on disease, it is desirable to calculate a disease index for the image in which WMH was found in order to provide more accurate diagnostic auxiliary information.
이런 경우, 제2 콘트롤러(2002)는 제1 이미지와 제2 이미지의 관계에 기초하여, 제1 이미지에 관한 정보를 고려하여 제2 이미지의 질병 인덱스를 계산할 수 있다. 여기서, 제1 이미지와 제2 이미지의 관계는 미리 획득될 수 있다. 일 예로, 제1 이미지와 제2 이미지의 관계는, 슬라이스 이미지 사이의 거리일 수 있다.In this case, the
다시 도면을 참조하여 구체적인 예시들 들어 설명한다.With reference to the drawings again, specific examples will be described.
제2 콘트롤러(2002)는 먼저 복수의 메디컬 이미지에 대한 세그멘테이션의 결과로, 메디컬 이미지 내에 질병 인덱스를 계산하기 위한 대상 영역은 포함되어 있으나, 기준 영역은 포함되어 있지 않은 제1 이미지를 결정할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 일 실시예에 따른 질병 인덱스를 계산하기 위하여는 뇌실 및 WMH에 관한 정보가 필요함에도, 메디컬 이미지 내에 WMH에 관한 정보만이 포함되어 있고 뇌실에 관한 정보가 포함되어 있지 않은 제1 이미지를 선택할 수 있다.The
이후, 제2 콘트롤러(2002)는 제1 이미지근처의 다른 메디컬 이미지 중에서, 제1 이미지에 포함되어 있지 않은 기준 영역을 포함하고 있는 제2 이미지를 선택할 수 있다. 여기서, 제2 이미지는 제1 이미지와 바로 인접한 이미지 일 수도 있으나, 이에 국한되는 것은 아니다. 예를 들어, 제2 콘트롤러(2002)는 제1 이미지 주변에 위치된(예컨대, 시상면(saggital)축에서의 제1 이미지로부터의 거리가 소정 거리 이하인) 메디컬 이미지 중에서, 질병 인덱스를 계산하기 위한 뇌실 영역을 포함하고 있는 제2 이미지를 선택할 수 있다.Thereafter, the
제2 이미지가 선택되면, 제2 콘트롤러(2002)는 제2 이미지에 포함된 기준 영역과 제1 이미지에 포함된 대상 영역의 관계에 기초하여, 질병 인덱스를 계산할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실영역으로부터 제1 이미지에 포함된 WMH 까지의 거리정보 및 제2 이미지에 포함된 WMH의 영역정보에 기초하여 제2 이미지 내의 질병 인덱스를 계산할 수 있다. 여기서, 제1 이미지와 제2 이미지 사이의 거리는 미리 획득되어 저장될 수 있다. When the second image is selected, the
또한 여기서, 제2 이미지에 포함된 기준 영역과 제1 이미지에 포함된 대상 영역 사이의 관계를 도출하기 위한 기준은 다양하게 결정될 수 있다. 일 예로, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실 영역의 중심으로부터 제1 이미지에 포함된 WMH 영역 까지의 거리에 기초하여 질병 인덱스를 계산할 수 있다. 다른 예로, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실 영역 중 제1 이미지에 포함된 WMH 영역과 가장 가까운 뇌실영역으로부터, 제1 이미지에 포함된 WMH 영역까지의 거리에 기초하여 질병 인덱스를 계산할 수도 있다. 예시적으로 언급한 방법 외에도 제2 이미지에 포함된 뇌실영역으로부터 제1 이미지에 포함된 WMH 영역까지의 거리를 계산할 수 있는 기준이라면, 다양한 방법이 본 발명의 사상에 통합될 수 있음이 통상의 기술자라면 이해될 것이다.Also, here, a criterion for deriving a relationship between the reference region included in the second image and the target region included in the first image may be variously determined. As an example, the
이하에서는 도면을 참조하여, 제1 이미지로부터 간접적으로 제2 이미지의 질병 인덱스를 계산하는 방법에 대해 도면을 참조하여 설명한다.Hereinafter, a method of calculating the disease index of the second image indirectly from the first image will be described with reference to the drawings.
도 29는 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 다른 예이다.29 is another example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an embodiment.
일 실시예에 따르면, 영상분석장치(2000)는 제1 이미지로부터 간접적으로 제2 이미지의 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지에 포함된 기준 영역에 관한 정보로부터 간접적으로 획득된 제2 이미지 내의 기준 셀과 제2 이미지내에 포함된 대상 영역의 관계에 기초하여, 제2 이미지의 질병 인덱스를 계산할 수 있다.According to an embodiment, the
도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.
제2 콘트롤러(2002)는, 도 27에서 설명한 바와 마찬가지로, 먼저 복수의 메디컬 이미지에 대한 세그멘테이션의 결과로, 메디컬 이미지 내에 질병 인덱스를 계산하기 위한 대상 영역은 포함되어 있으나, 기준 영역은 포함되어 있지 않은 제1 이미지를 결정할 수 있다. As described with reference to FIG. 27 , first, as a result of segmentation on a plurality of medical images, the
예를 들어, 제2 콘트롤러(2002)는 일 실시예에 따른 질병 인덱스를 계산하기 위하여는 뇌실 및 WMH에 관한 정보가 필요함에도, 메디컬 이미지 내에 WMH에 관한 정보만이 포함되어 있고 뇌실에 관한 정보가 포함되어 있지 않은 제1 이미지를 선택할 수 있다.For example, the
이후, 제2 콘트롤러(2002)는 제1 이미지와 인접한 다른 메디컬 이미지 중에서, 제1 이미지에 포함되어 있지 않은 기준 영역을 포함하고 있는 제2 이미지를 선택할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제1 이미지 근처에 위치한 메디컬 이미지 중에서, 질병 인덱스를 계산하기 위한 뇌실 영역을 포함하고 있는 제2 이미지를 선택할 수 있다.Thereafter, the
제2 이미지가 선택되면, 제2 콘트롤러(2002)는 제2 이미지에 포함된 기준 영역에 관한 정보에 기초하여, 제1 이미지 상에서 제2 이미지에 포함된 기준 영역에 대응되는 기준 셀을 결정할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실영역에 관한 정보에 기초하여, 제1 이미지 상에 제2 이미지에 포함된 뇌실영역에 대응되는 기준 셀(cell)을 결정할 수 있다.When the second image is selected, the
기준 셀이 결정되면, 제2 콘트롤러(2002)는 제1 이미지에 포함된 기준 셀과대상 영역에 관한 정보에 기초하여 질병 인덱스를 계산할 수 있다. 즉, 예를 들어 제2 콘트롤러(2002)는 제1 이미지에 포함된 뇌실영역에 대응되는 제2 영역의 기준 셀을 뇌실로 간주하고, 제1 이미지에 포함된 WMH와의 관계를 도출하여 질병 인덱스를 계산할 수 있는 것이다. 기준 셀과 WMH의 관계에 기초하여 질병 인덱스를 계산하는 방식에 대해서는, 전술한 바와 유사한 질병 인덱스계산 방법이 이용될 수 있음은 물론이다.When the reference cell is determined, the
이상에서와 같이, 일 실시예에 따르면 영상분석장치(2000)는 정확한 질병 인덱스를 획득하기 위하여 복수의 메디컬 이미지를 이용하여 질병 인덱스를 계산할 수 있고, 이에 기초하여 진단보조정보를 제공할 수 있다. As described above, according to an exemplary embodiment, the
이에 더하여, 일 실시예에 따른 진단보조정보 제공 시스템(10000)은 메디컬 이미지를 3D 모델링한 3D 메디컬 모델에서도 질병 인덱스를 계산하고, 진단보조정보를 제공할 수 있다.In addition, the diagnostic assistance
이하에서는 도 30 내지 도 32를 참조하여, 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법에 대하여 설명한다.Hereinafter, a method of providing diagnostic assistance information based on a 3D medical model will be described with reference to FIGS. 30 to 32 .
도 30은 일 실시예에 따른 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.30 is a flowchart illustrating an example of a method of providing diagnostic assistance information based on a 3D medical model according to an embodiment.
일 실시예에 따라 영상분석장치(2000)가 수행하는 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S5200), 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S5400), 세그멘테이션 된 메디컬 이미지에 기초하여 3차원 모델링을 수행하는 단계(S5600) 및 3차원 모델링에 기초하여 질병 인덱스를 획득하는 단계(S5800)를 포함할 수 있다.According to an embodiment, a method of providing diagnostic auxiliary information based on a 3D medical model performed by the
복수의 메디컬 이미지를 획득하는 단계(S5200) 및 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S5400)에 대해서는 전술한 바와 유사하게 수행될 수 있어 자세한 설명은 생략하도록 한다.The steps of obtaining a plurality of medical images ( S5200 ) and performing segmentation on the plurality of medical images ( S5400 ) may be performed similarly to those described above, and thus a detailed description thereof will be omitted.
복수의 메디컬 이미지에 대한 세그멘테이션을 수행하면, 영상분석장치(2000)는 세그멘테이션 된 복수의 메디컬 이미지에 기초하여, 3D 메디컬 모델을 획득할 수 있다(S5600). 구체적으로, 제2 콘트롤러(2002)는, 피촬영 객체를 연속적인 단면으로 촬영한 복수의 메디컬 이미지를 가공하여, 3D 메디컬 모델을 생성할 수 있다. 여기서, 3D 메디컬 모델은 복수의 세그멘테이션 된 메디컬 이미지를 기초로 생성되어, 복수의 뇌 영역 정보를 반영하는 3D 픽셀 정보를 포함할 수 있다. 즉, 3차원 상에서 복수의 뇌 영역별로 세그멘테이션 되어 있을 수 있다. 또한, 전술한 기준 바운더리가 3차원 상에서 형성될 수 있다. (설명 적당히 : 복수의 뇌 영역 별로 대응되는 3D 픽셀 정보, 바운더리 등등 포함)을 생성할 수 있다.When segmentation is performed on a plurality of medical images, the
3D 메디컬 모델을 획득하면, 영상분석장치(2000)는 획득된 3D 메디컬 모델에 기초하여 질병 인덱스를 획득하고 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 질병 인덱스획득을 위한 프로그램을 이용하여 3D 메디컬 모델로부터 질병 인덱스를 산출하고, 산출된 질병 인덱스로부터 진단보조정보를 획득할 수 있다.When the 3D medical model is obtained, the
3D 메디컬 모델로부터 질병 인덱스를 산출하고 진단보조정보를 제공하는 예시에 대해서 이하부터 도면을 참조하여 설명하도록 한다.An example of calculating a disease index from a 3D medical model and providing diagnostic auxiliary information will be described below with reference to the drawings.
도 31은 일 실시예에 따른 3D 메디컬 모델로부터 질병 인덱스를 산출하는 과정의 일 예를 나타낸 것이고, 도 32는 일 실시예에 따라 질병 인덱스를 산출하는 과정의 다른 예를 나타낸 것이다..31 shows an example of a process of calculating a disease index from a 3D medical model according to an embodiment, and FIG. 32 shows another example of a process of calculating a disease index according to an embodiment.
도 31을 참조하면, 영상분석장치(2000)는 3D 메디컬 모델에 포함된 영역정보에 기초하여 질병 인덱스를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 3D 메디컬 모델에 포함되어 있는 피촬영 객체의 하나 이상의 특정 영역정보에 기초하여, 질병 인덱스를 계산할 수 있다. 여기서, 하나 이상의 특정 영역은 전술한 바와 같이 대상 영역 및 기준 영역을 포함할 수 있다. 구체적으로, 3차원 상에서 표현된 대상 영역 또는 기준 영역으로 레이블링 된 셀(예를 들어 복셀(voxel))일 수 있다. 또한 여기서, 제2 콘트롤러(2002)는 하나 이상의 피촬영 객체에 포함된 영역 간의 관계를 도출하기 위한 기준을 설정할 수 있다.Referring to FIG. 31 , the
일 예로, 제2 콘트롤러(2002)는 3D 메디컬 모델에 포함되어 있는 뇌실영역과 WMH 영역에 기초하여, 질병 인덱스를 계산할 수 있다. 여기서, 제2 콘트롤러(2002)는, 전술한 예시와 유사하게, 뇌실영역과 WMH 영역간의 관계를 도출하기 위하여 기준 바운더리를 설정할 수 있다. 즉, 제2 콘트롤러(2002)는 3차원 상의 뇌실 영역으로부터 미리 설정된 거리만큼 떨어진 셀(cell)들의 집합을 기준 바운더리로 설정할 수 있다. 또한, 전술한 메디컬 이미지에서 설정된 기준 바운더리 유사하게, 제2 콘트롤러(2002)는 다양한 방식으로 기준 바운더리를 설정하거나 수정할 수 있다. As an example, the
제2 콘트롤러(2002)는 3차원에서 형성된 기준 바운더리에 기초하여 WMH 영역과의 관계를 고려하여 질병 인덱스를 계산할 수 있다. 여기서, 기준 바운더리와 WMH의 관계는 전술한 바와 유사하다. 또한, 2차원의 메디컬 이미지에서 3차원의 3D 모델링이 수행됨에 따라서, 피촬영 객체의 영역에 관한 정보, 일 예로 대상 영역에 관한 영역 정보는 3차원적인 물리량이 될 수 있다. 즉, 제2 콘트롤러(2002)는, 2차원의 메디컬 이미지에서는 획득할 수 없었던 피촬영 객체에 포함된 특정 영역의 두께와 같은 3차원 정보까지도 3D 모델링을 통해 획득할 수 있다. 다른 예로, WMH에 관한 정보는, WMH로 태깅된 셀(cell)들에 대응되는 부피(또는 수)가 될 수도 있다.The
도 32를 참조하면, 영상분석장치(2000)는 3D 메디컬 모델에 포함된 복수의 평면에 기초하여 질병 인덱스를 산출하고 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 3D 메디컬 모델에 포함된 피촬영 객체와 관련된 적어도 하나 이상의 특정 영역에 관한 정보를 포함하고 있는 1 이상의 평면에 기초하여 질병 인덱스를 계산하고, 진단보조정보를 제공할 수 있다.Referring to FIG. 32 , the
3D 모델링을 수행함에 따라, 질병 인덱스를 산출하기 위한 특정 영역간의 관계를 도출하기가 용이해지는 장점이 있다. 즉, 전술한 바와 같이 슬라이스 이미지를 분석하여 질병 인덱스를 계산하는 경우, 슬라이스 이미지 내에 질병 인덱스를 산출하기 위한 피촬영 객체에 포함된 필수 영역에 관한 정보가 포함되어 있지 않다면 질병 인덱스를 용이하게 획득할 수 없을 뿐 아니라, 획득한 질병 인덱스의 정확도가 낮아질 수 있다. As 3D modeling is performed, there is an advantage in that it becomes easy to derive a relationship between specific regions for calculating a disease index. That is, when calculating the disease index by analyzing the slice image as described above, if the slice image does not contain information on the essential region included in the object to be photographed for calculating the disease index, the disease index can be easily obtained. Not only that, but the accuracy of the acquired disease index may be lowered.
그러나, 3D 모델링을 수행하여 질병 인덱스를 계산하는 경우, 질병 인덱스의 계산에 필수적인 영역이 모두 포함되도록 평면을 결정하여, 해당 평면에 대하여 질병 인덱스를 계산함으로써 질병 인덱스의 정확도가 향상될 수 있다.However, when calculating the disease index by performing 3D modeling, the accuracy of the disease index may be improved by determining a plane to include all regions essential for calculating the disease index and calculating the disease index with respect to the corresponding plane.
도면을 참조하여 구체적인 예시로써 설명한다.It will be described as a specific example with reference to the drawings.
도 32를 다시 참조하면, 제2 콘트롤러(2002)는 뇌실영역과 제1 WMH 영역이 모두 포함되되도록 미리 설정된 기준에 대응되도록 제1 평면을 설정하고, 설정된 제1 평면에 대한 질병 인덱스를 계산할 수 있다. 여기서, 제1 평면을 설정하는 기준은 다양할 수 있다. 일 예로, 제1 평면은, 대상 영역과기준 영역 사이의 거리를 고려하여 설정된 평면일 수 있다. 보다 더 구체적인 예로, 제1 평면은 WMH 영역과 뇌실 영역 사이의 거리가 최소가 되는 직선을 포함하도록 설정된 평면일 수 있다.Referring back to FIG. 32 , the
다른 예로, 제2 콘트롤러(2002)는 평면 내에 포함되는 대상 영역의 수를 고려하여 제2 평면을 설정하고, 설정된 제2 평면에 대한 질병 인덱스를 계산할 수 있다. 예컨대, 제2 콘트롤러(2002)는 기준 영역에 관한 정보를 포함함에 더하여, 가장 많은 수의 대상 영역을 포함하도록 제2 평면을 설정할 수 있다. 또한, 제2 콘트롤러(2002)는 대상 영역으로 레이블링 된 픽셀의 수가 최대가 되도록 제2 평면을 설정할 수도 있다.As another example, the
즉, 제2 콘트롤러(2002)는 다양한 기준에 따라 제1 대상 영역 및 기준 영역이 포함되도록 제1 평면을 설정할 수도 있고, 제2 대상 영역 및 기준 영역이 포함되도록 제2 평면을 설정할 수도 있다. 이때, 제1 평면과 제2 평면은 소정의 각도를 형성할 수 있다. 이처럼, 영상분석장치(2000)는 3D 메디컬 모델의 베이스가 된 메디컬 이미지가 포함된 평면과 소정의 각도를 이루는 평면에 대해서도, 기준 영역과 대상 영역에 대한 관계를 도출할 수 있고, 질병 인덱스를 계산하거나 진단보조정보를 제공할 수도 있다.That is, the
이상에서는, 다양한 실시예에 따라, 진단보조정보 제공 시스템(10000)이 수행하는 하나 또는 복수의 메디컬 이미지로부터 질병 인덱스를 획득하고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공하는 방법의 예시에 대해 설명하였다.In the above, according to various embodiments, an example of a method of obtaining a disease index from one or a plurality of medical images performed by the diagnostic assistance
이상에서 설명한 바와 같이, 일 실시예에 다른 진단보조정보 제공 시스템(10000)에서 수행되는 진단보조정보 제공 방법에 따르면, 메디컬 이미지로부터 명확하고 일률적인 기준을 가지고 자동화된 알고리즘 또는 프로그램에 기초하여 질병 인덱스를 계산함으로써, 인간의 주관적인 판단이 배제되어 보다 객관적인 질병 인덱스가 계산될 수 있으며, 이로 인해 더 정확한 진단보조정보가 제공될 수 있게 될 수 있다.As described above, according to the diagnostic auxiliary information providing method performed by the diagnostic auxiliary
이하에서는, 일 실시예에 따라 진단보조정보 제공 시스템(10000)이 메디컬 이미지로부터 메디컬 이미지 내에 포함된 특정 영역들에 대해 세그멘테이션을 수행하는 방법에 대해 설명하도록 한다.Hereinafter, a method in which the diagnostic assistance
일 실시예에 따르면, 진단보조정보 제공 시스템(10000)은 메디컬 이미지를 세그멘테이션 할 수 있다. 구체적으로, 영상분석장치(2000)는 영상획득장치(1000)로부터 메디컬 이미지를 획득하고, 획득된 메디컬 이미지를 세그멘테이션 할 수 있다. 보다 더 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 세그멘테이션을 위한 알고리즘을 이용하여, 메디컬 이미지를 세그멘테이션 할 수 있다. According to an embodiment, the diagnostic assistance
이하에서는, 도면을 참조하여 설명하도록 한다.Hereinafter, it will be described with reference to the drawings.
도 33은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지의 세그멘테이션 동작을 개괄적으로 나타낸 것이다.33 schematically illustrates a segmentation operation of a medical image performed by an image analysis apparatus according to an exemplary embodiment.
일 실시예에 따르면, 영상분석장치(2000)는 인풋데이터를 입력받아 아웃풋 데이터를 출력할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 영상획득장치(1000)로부터 획득한 메디컬 이미지를 인풋데이터로 이미지 세그멘테이션을 위한 알고리즘에 입력하여, 메디컬 이미지가 세그멘테이션 된 아웃풋데이터를 획득할 수 있다. According to an embodiment, the
일 실시예에 따른 영상분석장치(2000)는 이미지 세그멘테이션을 위한 다양한 알고리즘을 이용할 수 있다.The
일 예로, 이미지 세그멘테이션을 위한 알고리즘은 머신러닝 모델로 제공될 수 있다. 머신러닝 모델의 대표적인 예로는, 인공 신경망(Artificial Neural Network)이 있을 수 있다. 구체적으로 인공 신경망의 대표적인 예로는 데이터를 입력받는 입력 레이어, 결과를 출력하는 출력 레이어 및 입력 레이어와 출력 레이어 사이에서 데이터를 처리하는 히든 레이어(hidden layer)를 포함하는 딥 러닝 계열의 인공 신경망이 있다. As an example, an algorithm for image segmentation may be provided as a machine learning model. A representative example of a machine learning model may include an artificial neural network. Specifically, a representative example of an artificial neural network is a deep learning-based artificial neural network that includes an input layer that receives data, an output layer that outputs a result, and a hidden layer that processes data between the input and output layers. .
인공 신경망의 세부적인 예시들로는 회귀분석 인공 신경망(Convolution Neural Network), 순환신경망(Recurrent Neural Network), 심층신경망(Deep Neural Network) 등이 있으며, 본 명세서에서 인공 신경망은 상술된 인공 신경망, 그 외의 다양한 형태의 인공 신경망 및 이들이 조합된 형태의 인공 신경망을 모두 포함하는 포괄적인 의미로 해석되어야 하며, 반드시 딥 러닝 계열이어야만 하는 것도 아니다. Detailed examples of the artificial neural network include a regression analysis artificial neural network, a recurrent neural network, a deep neural network, and the like. It should be interpreted as a comprehensive meaning that includes both artificial neural networks in the form of artificial neural networks and artificial neural networks in the form of a combination thereof, and does not necessarily have to be a deep learning series.
뿐만 아니라, 머신러닝 모델이 반드시 인공 신경망 모델 형태이어야만 하는 것은 아니며, 이외에도 최근접 이웃 알고리즘(KNN), 랜덤 포레스트(Random Forest), 서포트 벡터 머신(SVM), 주성분분석법(PCA) 등이 포함될 수 있으며, 이상에서 언급된 기법들이 앙상블된 형태나 그 외에 다양한 방식으로 조합된 형태까지도 전부 포함할 수 있다. 한편, 인공 신경망을 중심으로 언급되는 실시예들에서 특별한 언급이 없는 한 인공 신경망이 다른 머신러닝 모델로 대체될 수 있음을 미리 밝혀둔다. In addition, the machine learning model does not necessarily have to be in the form of an artificial neural network model, and may include nearest neighbor algorithm (KNN), random forest, support vector machine (SVM), principal component analysis (PCA), etc. , may include all of the above-mentioned techniques in an ensemble form or in a form in which other methods are combined in various ways. On the other hand, it is stated in advance that the artificial neural network can be replaced with another machine learning model unless otherwise specified in the embodiments mentioned mainly with the artificial neural network.
나아가, 본 명세서에서 이미지 세그멘테이션을 위한 알고리즘이 반드시 머신러닝 모델로 한정되는 것은 아니다. 즉, 이미지 세그멘테이션을 위한 알고리즘은 머신러닝 모델이 아닌 다양한 판단/결정 알고리즘이 포함될 수도 있다. Furthermore, in the present specification, an algorithm for image segmentation is not necessarily limited to a machine learning model. That is, the algorithm for image segmentation may include various judgment/decision algorithms rather than a machine learning model.
따라서, 본 명세서에서 이미지 세그멘테이션을 위한 알고리즘은 메디컬 이미지를 분석하여 메디컬 이미지 내에 포함된 영역을 구별하는 모든 형태의 알고리즘을 모두 포함하는 포괄적인 의미로 이해되어야 함을 미리 밝혀 둔다.Therefore, it is clarified in advance that the algorithm for image segmentation in the present specification should be understood as a comprehensive meaning including all types of algorithms that analyze a medical image and distinguish a region included in the medical image.
도 34 및 도 35을 참조하여, 인공신경망 모델의 구현 예를 설명하도록 한다.. An example of implementation of an artificial neural network model will be described with reference to FIGS. 34 and 35 .
도 34는 일 실시예에 따른 인공신경망 모델의 일 구현예를 나타낸 것이다.34 shows an embodiment of an artificial neural network model according to an embodiment.
도 34를 참조하면, 본 출원의 일 실시예에 따른 영상분석장치(2000)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net을 활용할 수 있다.Referring to FIG. 34 , the
이미지 세그멘테이션에 많이 활용되는 U-net은 수축 경로(Contraction path) 및 확장 경로(Expansion Path)를 포함하는 아키텍처로 구성될 수 있다. U-net, which is widely used for image segmentation, may have an architecture including a contraction path and an expansion path.
구체적으로 U-net의 수축 경로는 2번의 컨볼루전(convolution) 및 맥스 풀링(max pooling)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 수축 경로에서는 이미지와 관련된 특성들이 추출될 수 있다. Specifically, the contraction path of the U-net may be configured such that two convolutions and max pooling are successively performed. In this case, image-related characteristics may be extracted from the contraction path of the U-net.
하지만, 수축 경로에서는 특성 맵의 크기 또한 줄어들기 때문에 U-net은 확장 경로를 추가적으로 포함하여 특성 맵의 크기를 복구하도록 구성될 수 있다. However, since the size of the characteristic map is also reduced in the constricted path, the U-net may be configured to recover the size of the characteristic map by additionally including the expansion path.
U-net의 확장 경로는 업-컨볼루전(Up-convolution) 및 2번의 컨볼루전(convolution)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 확장 경로에서는 이미지와 특성 맵의 크기가 추출될 수 있다. The extension path of the U-net may be configured such that up-convolution and two convolutions are successively performed. In this case, the size of the image and the characteristic map may be extracted from the extension path of U-net.
추가적으로 U-net은 동일한 레벨의 특성 맵을 콘카테네이션(concatenation) 하도록 아키텍처가 구성되어 수축 경로에서 확장 경로로 특성과 관련된 위치 정보를 제공할 수 있다. Additionally, the U-net architecture is configured to concatenate the characteristic map of the same level, so that it is possible to provide positional information related to the characteristic from the contraction path to the expansion path.
이때, 입력 이미지(Input Image)의 라벨과 출력 세그멘테이션 맵의 라벨 차이에 기초하여, 입력 이미지의 라벨과 출력 세그멘테이션 맵의 라벨 차이가 최소가 되도록 U-net의 포함된 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치를 조절하게 되는 것이다.At this time, based on the difference between the label of the input image and the label of the output segmentation map, the parameter of at least one node of the included layer of U-net so that the difference between the label of the input image and the label of the output segmentation map is minimized Or you can adjust the weight.
도 35는 일 실시예에 따른 인공신경망 모델의 다른 구현예를 나타낸 것이다. 35 shows another implementation of an artificial neural network model according to an embodiment.
도 35를 참조하면, 일 실시예에 따른 영상분석장치(2000)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net++을 활용할 수 있다. U-net++은 U-net의 성능을 향상시키기 위하여 DenseNet의 고밀도 블록 아이디어를 사용한 인공 신경망 모델로서, 스킵 경로에 컨볼루션 레이어가 존재하여 인코더 및 디코더 특성 맵 사이의 시맨틱 갭을 연결하며, 스킵 경로에 덴스 스킵 연결이 존재하여 그래디언트 흐름을 향상시키는 점에서 U-net과의 차이점이 존재한다. Referring to FIG. 35 , the
구체적으로, 영상분석장치(2000)는 U-net++ 신경망 모델의 입력 레이어에 대하여 입력 이미지를 입력하고 출력 레이어를 통하여 출력된 라벨 정보를 획득하도록 구현될 수 있다. 이때, 영상분석장치(2000)는 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이에 기초하여 Unet++의 포함된 히든 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치를 조절할 수 있다. Specifically, the
좀 더 구체적으로 제2 콘트롤러(2002)는 상술한 적어도 하나의 노드의 파라미터 혹은 가중치를 조절하는 동작을 반복적으로 수행하도록 구현되어, 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이가 최소화되는 노드의 파라미터 혹은 가중치를 획득할 수 있다.More specifically, the
도 36은 일 실시예에 따른 인공신경망 모델을 이용한 세그멘테이션 결과를 예시적으로 나타낸 것이다.36 exemplarily shows a segmentation result using an artificial neural network model according to an embodiment.
일 실시예에 따르면, 영상분석장치(2000)는 메디컬 이미지의 특성에 기초하여, 메디컬 이미지를 세그멘테이션 할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지가 획득된 조건에 대응하도록, 메디컬 이미지를 세그멘테이션 할 수 있다. According to an embodiment, the
여기서, 메디컬 이미지가 획득된 조건은 영상획득장치(1000)의 설정 파라미터에 따라 달라질 수 있다. 일 예로, 메디컬 이미지가 획득된 조건은, 영상획득장치(1000)의 미리 설정된 마그네틱 컨디션 파라미터 값 일 수 있다. 구체적으로, 영상획득장치(1000)가 MRI 장치로 구현된 경우, TR/TE 값의 설정에 따라 T1-weighted 이미지 또는 T2-weighted 이미지가 획득될 수 있고, 제2 콘트롤러(2002)는 획득된 이미지에 대응되도록 이미지를 세그멘테이션 할 수 있다. 여기서, 메디컬 이미지의 획득 조건에 따른 특성은 전술한 바와 같다.Here, the condition under which the medical image is obtained may vary according to a setting parameter of the
도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.
도 36을 참조하면, 동일한 피촬영 객체에서 각각 획득된 T1-weighted 이미지와 T2 - FLAIR 이미지의 세그멘테이션 결과가 도시되어 있다.Referring to FIG. 36 , a segmentation result of a T1-weighted image and a T2- FLAIR image obtained from the same object to be photographed is shown.
일 실시예에 따르면, 제2 콘트롤러(2002)는 T1-weighted 이미지를 세그멘테이션 할 수 있다. 여기서, T1-weighted 이미지는 해부학적 특성을 판단하기 위해 세그멘테이션 될 수 있다. 도면에 도시된 바와 같이, T1-weighted 이미지를 세그멘테이션 한 결과는, T2-FLAIR 이미지를 세그멘테이션 한 결과에 비해, 회백질 외각 영역의 주름 부분이 더 선명하게 세그멘테이션 된 것을 확인할 수 있다. According to an embodiment, the
또한, 일 실시예에 따르면, 제2 콘트롤러(2002)는 T2-FLAIR 이미지를 세그멘테이션 할 수 있다. 여기서, T2-FLAIR 이미지는 병변적 특성을 판단하기 위해 세그멘테이션 될 수 있다. 도면에 도시된 바와 같이, T2-FLAIR 이미지를 세그멘테이션 한 결과는, T1-weighted 이미지를 세그멘테이션 한 결과와 비교하여 WMH 영역에 대한 정보를 더 포함하고 있음이 도시되어 있다. Also, according to an embodiment, the
이처럼, 동일한 피촬영 객체로부터 획득한 메디컬 이미지라도, 영상획득장치(1000)의 획득 조건에 따라 메디컬 이미지에 포함된 특성(예를 들어 해부학적 특성, 병변적 특성)이 달라지고, 메디컬 이미지의 특성에 따라 메디컬 이미지에서 관측될 수 있는 정보 또한 달라질 수 있다.As such, even in the case of a medical image acquired from the same object to be photographed, the characteristics (eg, anatomical characteristics, lesion characteristics) included in the medical image vary according to the acquisition conditions of the
그러나, 필요에 따라, 여러 메디컬 이미지의 특성이 종합적으로 고려되는 경우, 보다 정확한 진단보조정보를 제공할 수 있게 된다. 따라서, 본 명세서의 이하의 설명에서는 복수의 특성을 포함하도록 메디컬 이미지를 세그멘테이션하는 과정에 대해 설명하도록 하겠다.However, if the characteristics of several medical images are comprehensively considered as necessary, more accurate diagnostic auxiliary information can be provided. Accordingly, in the following description of the present specification, a process of segmenting a medical image to include a plurality of characteristics will be described.
도 37은 일 실시예에 따라 복수의 특성을 포함하도록 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.37 illustrates an example of a medical image segmented to include a plurality of characteristics according to an embodiment.
도 37을 참조하면, 일 실시예에 따른 영상분석장치(2000)는 획득 조건에 따라 달라지는 적어도 2 이상의 특성이 하나의 메디컬 이미지에 포함되도록 메디컬 이미지를 세그멘테이션 할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지를 베이스로 하여, 제2 이미지의 특성이 포함되도록 제1 이미지를 세그멘테이션 할 수 있다. Referring to FIG. 37 , the
도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.
제2 콘트롤러(2002)는 제1 특성을 포함하는 제1 메디컬 이미지를 인풋데이터로 인공신경망에 입력하여, 제1 특성 및 제2 메디컬 이미지와 관련된 제2 특성이 레이블링 된 아웃풋 데이터를 획득할 수 있다. 여기서, 인공신경망은 제2 특성을 가지는 제2 이미지와 관련된 러닝셋을 기초로 하여 학습될 수 있다. 예를 들어, 여기서 제1 특성은 해부학적 특성 또는 구조적 특성일 수 있으며, 이에 따라 제1 이미지는 T1-weighted 이미지 일 수 있다. 또한, 제2 특성은 병변적 특성일 수 있으며, 이에 따라 제2 이미지는 T2-FLAIR 이미지 일 수 있다.The
보다 더 구체적인 예시로, (a)와 같이, 제2 콘트롤러(2002)는 병변적 특성을 포함하는 제1 이미지(예시에서는, T2-FLAIR 이미지)를 인풋 데이터로 일 실시예에 따른 인공신경망에 입력할 수 있다. As a more specific example, as shown in (a), the
여기서, 제1 이미지와 관련된 러닝셋으로만 학습된 인공신경망을 이용하는 경우, 제2 콘트롤러(2002)는 (b)와 같이, 제1 특성(즉, 병변적 특성) 만을 포함하는 세그멘테이션 결과만을 출력하게 된다.Here, when using an artificial neural network trained only with a running set related to the first image, the
다만, 본 명세서에서의 일 실시예에 따른 인공신경망은 제1 특성에 관한 제1 이미지 및 제2 특성에 관한 제2 이미지 모두에 기초한 러닝셋을 이용하여 학습할 수 있다. 이로 인하여, 제2 콘트롤러(2002)는 제1 이미지를 상기 인공신경망에 입력하여 (c)와 같이 제1 특성 및 제2 특성이 모두 반영된 제1 이미지에 대한 세그멘테이션 결과를 획득할 수 있게 되는 것이다.However, the artificial neural network according to an embodiment in the present specification may learn using a learning set based on both the first image regarding the first characteristic and the second image regarding the second characteristic. For this reason, the
이처럼, 하나의 특성을 포함하는 메디컬 이미지를 세그멘테이션 하는 경우에도 복수의 특성에 관한 정보를 함께 획득함으로써, 하나의 메디컬 이미지로부터 다양한 질병에 관한 정보를 획득할 수 있게 되어, 일 실시예에 따른 영상분석장치(2000)는 메디컬 이미지로부터 보다 정확하고 다양한 진단보조정보를 제공할 수 있게 되는 것이다.As such, even when a medical image including one characteristic is segmented, information on a plurality of characteristics is acquired together, so that information on various diseases can be acquired from one medical image, and image analysis according to an embodiment The
이하에서는, 일 실시예에 따른 인공신경망의 학습 과정에 대해 도면을 참조하여 설명하도록 하겠다.Hereinafter, a learning process of an artificial neural network according to an embodiment will be described with reference to the drawings.
도 38은 일 실시예에 따른 인공신경망의 학습 과정을 나타낸 순서도이다.38 is a flowchart illustrating a learning process of an artificial neural network according to an embodiment.
일 실시예에 따른 인공신경망은, 학습 데이터를 이용하여 학습할 수 있다. 여기서, 일 실시예에 따른 인공신경망은, 인공신경망 알고리즘을 구동할 수 있는 다양한 장치를 통해 학습될 수 있다. 일 예로, 인공신경망은 영상분석장치(2000)를 통해 학습될 수 있다. 본 명세서에서는 설명의 편의를 위하여 일 실시예에 따른 인공신경망이 영상분석장치(2000)를 통해 학습되는 것으로 설명할 것이나, 이에 국한되는 것은 아니며, 다른 인공신경망의 구동을 위한 장치를 통해 학습될 수도 있음이 이해될 것이다.The artificial neural network according to an embodiment may learn by using learning data. Here, the artificial neural network according to an embodiment may be learned through various devices capable of driving an artificial neural network algorithm. As an example, the artificial neural network may be learned through the
도 39를 참조하면, 일 실시예에 따른 인공신경망의 학습 과정은 제1 특성을 포함하는 제1 이미지를 세그멘테이션 하는 단계(S6000), 제2 특성을 포함하는 제2 이미지를 기초로 제1 이미지의 세그멘테이션 정보를 정합하는 단계(S6200), 정합된 이미지와 제2 이미지를 이용하여 1차 학습을 수행하는 단계(S6400), 1차 학습의 출력 결과를 포함하는 제2 이미지에 대하여 형태학적으로 수정하는 단계(S6600) 및 형태학적 수정된 세그멘테이션 결과를 포함하는 제2 이미지를 이용하여 2차 학습을 수행하는단계(S6800)를 포함할 수 있다.Referring to FIG. 39 , in the learning process of the artificial neural network according to an embodiment, the step of segmenting the first image including the first characteristic ( S6000 ), and the second image including the second characteristic Matching the segmentation information (S6200), performing the primary learning using the matched image and the second image (S6400), morphologically modifying the second image including the output result of the primary learning It may include the step (S6600) and the step of performing secondary learning using the second image including the morphologically corrected segmentation result (S6800).
먼저, 영상분석장치(2000)는 제1 특성을 포함하는 제1 이미지를 세그멘테이션 할 수 있다(S6000). 구체적으로, 제2 콘트롤러(2002)는 제1 획득 조건에서 획득 되는 제1 특성에 관한 정보가 포함되도록, 제1 이미지를 세그멘테이션 할 수 있다. 이를 달리 표현하자면, 영상획득장치(1000)가 제1 파라미터로 설정되었을 때 획득되는 제1 특성을 포함하는 제1 이미지를 세그멘테이션 할 수 있다. First, the
제1 이미지를 세그멘테이션 한 이후, 영상분석장치(2000)는 제2 이미지를 기초로 하여 세그멘테이션 된 제1 이미지와 제2 이미지를 정합할 수 있다(S6200). 구체적으로, 제2 콘트롤러(2002)는 제2 특성을 포함하는 제2 이미지 상에, 제1 특성을 포함하도록 세그멘테이션 된 제1 이미지를 정합하여, 제1 특성에 관한 세그멘테이션 된 정보를 포함하는 제2 이미지를 획득할 수 있다. 이를 달리 표현하자면, 영상획득장치(1000)의 제2 파라미터로 설정되었을 때 획득되는 제2 특성을 포함하는 제2 이미지 상에, 전술한 제1 특성을 포함하도록 세그멘테이션 된 제1 이미지를 정합할 수 있다. 이에 관하여는 후술하여 자세히 설명하도록 하겠다.After segmenting the first image, the
제1 이미지와 제2 이미지가 정합된 이후, 영상분석장치(2000)는 정합된 제2 이미지와 정합되지 않은 제2 이미지를 이용하여 1차 학습을 수행할 수 있다(S6400). 구체적으로, 제2 콘트롤러(2002)는, 일 실시예에 따른 인공신경망이 제2 이미지로부터 제1 특성을 포함한 세그멘테이션 결과를 출력하도록, 제2 이미지와 제1 특성이 반영되도록 정합된 제2 이미지를 이용하여 인공신경망을 학습시킬 수 있다. After the first image and the second image are matched, the
즉, 일 실시예에 따른 인공신경망은, 제1 특성이 레이블링 된 제2 이미지와 원본 제2 이미지를 포함하는 러닝셋을 이용하여 학습할 수 있다. 이로 인해, 인공신경망은 제2 이미지를 입력 데이터로 입력 받고, 제1 특성이 레이블링 된 제2 이미지를 출력할 수 있다. 여기서, 러닝셋이 원본 제2 이미지를 포함하는 것으로 설명하였으나, 원본 제2 이미지 외에도 가공된 제2 이미지가 이용될 수 있다. 일 예로, 제2 이미지는 제2 특성을 포함하도록 세그멘테이션 된 제2 이미지일 수 있다. 또한, 그 외 다른 전처리 과정이 수행된 제2 이미지일 수도 있다. 다만, 본 명세서의 이하의 설명에서는 설명의 편의를 위해 인공신경망이 원본 제2 이미지에 기초한 러닝셋을 이용하여 학습하는 것을 위주로 설명한다.That is, the artificial neural network according to an embodiment may learn by using a learning set including the second image labeled with the first characteristic and the original second image. Accordingly, the artificial neural network may receive the second image as input data and output the second image labeled with the first characteristic. Here, although the running set has been described as including the original second image, a processed second image may be used in addition to the original second image. As an example, the second image may be a second image segmented to include the second characteristic. Also, it may be the second image on which other pre-processing processes have been performed. However, in the following description of the present specification, for convenience of explanation, the artificial neural network will be mainly described using a learning set based on the original second image.
인공신경망이 1차적으로 학습된 이후, 영상분석장치(2000)는 1차학습된 인공신경망의 아웃풋 이미지에 대해 형태학적(morphological) 수정을 수행할 수 있다(S6600). 구체적으로, 제2 콘트롤러(2002)는 원본 제2 이미지 데이터를 상기 인공신경망에 입력하여 출력된 제2 특성을 포함하도록 세그멘테이션 된 제2 이미지에 대하여, 세그멘테이션 결과의 정확도를 높이기 위하여 형태학적 수정을 수행할 수 있다. After the artificial neural network is primarily learned, the
1차적으로 학습한 인공신경망은, 제1 특성에 관한 정보를 정확하게 포함하고 있지 않을 수 있다. 따라서, 일 실시예에 따른 영상분석장치(2000)는 제1 특성을 포함하는 제1 이미지에 기초하여 인공신경망의 1차 아웃풋 데이터를 형태학적으로 수정함으로써, 인공신경망이 제1 특성에 관한 정보를 제2 이미지 상에 보다 더 정확하게 구별할 수 있도록 인공신경망의 연산 정확도를 향상시킬 수 있다.The artificial neural network learned primarily may not accurately include information about the first characteristic. Accordingly, the
인공신경망의 1차 아웃풋 데이터에 대한 형태학적 수정이 완료되면, 영상분석장치(2000)는 형태학적으로 수정된 제2 이미지에 기초하여 인공신경망을 2차적으로 학습시킬 수 있다(S6800). 구체적으로, 제2 콘트롤러(2002)는 형태학적으로 수정되어 제1 특성이 레이블링 된 제2 이미지를 포함하는 러닝셋에 기초하여 일 실시예에 따른 인공신경망을 학습시킬 수 있다. 즉, 일 실시예에 따른 인공신경망은 형태학적으로 수정된 제1 특성이 반영되도록 레이블링 된 제2 이미지를 포함하는 러닝셋을 이용하여 학습함으로써, 제2 이미지로부터 보다 정확하게 제1 특성에 관한 정보가 반영되도록 세그멘테이션을 수행할 수 있게 되는 것이다.When the morphological correction of the first output data of the artificial neural network is completed, the
이하에서는, 도면을 참조하여 일 실시예에 따른 인공신경망의 학습과정에 대한 예시를 살펴보도록 하겠다.Hereinafter, an example of a learning process of an artificial neural network according to an embodiment will be described with reference to the drawings.
도 39는 일 실시예에 따른 제1 이미지와 제2 이미지의 정합 과정을 나타낸 예시이다.39 is an example illustrating a process of matching a first image and a second image according to an exemplary embodiment.
도 39를 참조하면, 일 실시예에 따른 영상분석장치(2000)는 제1 이미지와 제2 이미지를 정합할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지와 제2 이미지 사이의 정합 매트릭스를 획득할 수 있다. 여기서, 정합 매트릭스는 제1 이미지와 제2 이미지 사이의 변환함수를 의미할 수 있다. 즉, 일 실시예에 따른 정합 매트릭스는 동일한 피촬영 객체에 대한 제1 이미지와 제2 이미지 상호간에 대하여, 제1 이미지에 포함된 제1 포인트와 제2 이미지에 포함된 제2 포인트 간의 상관관계를 나타낸 함수라고 표현할 수도 있겠다. 여기서, 제1 포인트 및 제2 포인트는 픽셀을 의미할 수도 있을 것이고, 픽셀들의 집합을 의미할 수도 있을 것이다.Referring to FIG. 39 , the
일 실시예에 따른 영상분석장치(2000)는 정합 매트릭스를 이용하여 제1 특성에 대해 세그멘테이션 된 제1 이미지에 기초하여, 제2 이미지를 제1 이미지의 세그멘테이션 결과와 대응되도록 가공할 수 있다. 즉, 제2 콘트롤러(2002)는 제1 특성에 관한 제1 이미지의 세그멘테이션 결과가 제2 이미지에 반영되도록, 제2 이미지를 세그멘테이션 할 수 있다. 여기서, 전술한 바와 같이, 제2 이미지는 제2 특성을 포함하도록 미리 세그멘테이션 될 수도 있을 것이다. 즉, 제2 콘트롤러(2002)는 제1 특성 및 제2 특성이 모두 반영되도록 제2 이미지를 세그멘테이션 할 수도 있다.The
보다 구체적인 예시로, 제1 이미지는 T1-weighted 이미지일 수 있고, 제2 이미지는 T2-FLAIR 이미지 일 수 있다. 즉, 영상분석장치(2000)는 먼저 T1-weighted 이미지와 T2-FLAIR 이미지를 정합하여 정합 매트릭스를 획득할 수 있다.As a more specific example, the first image may be a T1-weighted image, and the second image may be a T2-FLAIR image. That is, the
또한, 영상분석장치(2000)는 T1-weighted 이미지의 해부학적 특성이나 구조적 특성이 반영되도록 T1-weighted 이미지를 세그멘테이션 할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 뇌의 특정 영역이 구별되도록 T1-weighted 이미지를 가공할 수 있다. 보다 구체적으로, 제2 콘트롤러(2002)는 대뇌, 소뇌, 간뇌, 해마 등 뇌에 포함된 기관이 구별되도록 T1-weighted 이미지를 세그멘테이션 할 수도 있고 측두엽, 전두엽, 후두엽 등 뇌의 부위별 위치에 따라 구별되도록 T1-weighted 이미지를 세그멘테이션 할 수도 있으며, 이들을 조합하여 세그멘테이션 하는 것도 가능하다. Also, the
이후, 영상분석장치(2000)는 정합 매트릭스를 이용하여, T1-weighted 이미지의 세그멘테이션 결과가 T2-FLAIR 이미지에 반영되도록, 세그멘테이션 된 T1-weighted 이미지를 T2-FLAIR 이미지에 정합할 수 있다. Thereafter, the
이로써, 영상분석장치(2000)는 해부학적 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지를 획득할 수 있다. 구체적으로 제2 콘트롤러(2002)는 메디컬 이미지에서 관측되는 WMH 또는 뇌를 구성하는 물질들인 백질(white matter), 회백질(gray matter) 등이 구별되는 T2-FLAIR 영상에, 전술한 해부학적 특성이 반영되도록 T2-FLAIR 이미지를 세그멘테이션 할 수 있다. 상기 해부학적 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지는, 전술한 바와 같이 인공신경망의 1차 학습에 이용될 수 있다.Accordingly, the
도 40은 일 실시예에 따른 형태학적(morphological) 수정의 예시를 나타낸 것이다.40 illustrates an example of morphological modification according to an embodiment.
도 40을 참조하면, 일 실시예에 따른 영상분석장치(2000)는 메디컬 이미지에 대한 세그멘테이션 결과를 형태학적으로 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 이미지에 포함된 제1 특성을 반영하는 세그멘테이션 결과를 형태학적으로 수정할 수 있다. 형태학적으로 수정된 세그멘테이션 결과를 포함하는 제2 이미지는, 제1 특성을 보다 정확히 반영할 수 있다. Referring to FIG. 40 , the
도면을 참조하여 구체적인 예시로써 설명한다.It will be described as a specific example with reference to the drawings.
상술한 바와 같이, 인공신경망은 해부학적 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지와 원본 T2-FLAIR 이미지를 이용하여 1차 학습할 수 있다. 1차 학습의 결과물로, 인공신경망은 T2-FLAIR 이미지를 입력받아 T1-weighted 이미지의 특성(해부학적 또는 구조적 특성)이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지를 출력할 수 있다. 인공신경망의 출력 결과인 T2-FLAIR 이미지는, T1-weighted 이미지의 특성을 반영하도록 세그멘테이션 되었으나, 일부 영역에서 불완전 하여 수정이 필요할 수 있다. As described above, the artificial neural network can perform primary learning using the segmented T2-FLAIR image and the original T2-FLAIR image to reflect anatomical characteristics. As a result of the primary learning, the artificial neural network may receive a T2-FLAIR image and output a segmented T2-FLAIR image to reflect the characteristics (anatomical or structural characteristics) of the T1-weighted image. The T2-FLAIR image, which is the output result of the artificial neural network, is segmented to reflect the characteristics of the T1-weighted image, but it is incomplete in some areas and may require correction.
(a)의 경우는 일 실시예에 따른 인공신경망의 1차 학습 결과로써, 세그멘테이션 된 구역의 외곽 부분이 해부학적 특성을 불완전하게 반영하여 세그멘테이션 된 것이 도시되어 있다. 이에 비해, (b)는 형태학적으로 수정된 인공신경망의 1차 출력으로써, 세그멘테이션 된 외곽부분이 해부학적 특성을 잘 반영하도록 수정되어 있는 것이 도시되어 있다.In the case of (a), as the primary learning result of the artificial neural network according to an embodiment, it is shown that the outer part of the segmented region is segmented by incompletely reflecting anatomical characteristics. In contrast, (b) is the primary output of the morphologically modified artificial neural network, and it is shown that the segmented outer part is modified to reflect the anatomical characteristics well.
보다 구체적으로, (a)의 경우 일부 회백질 영역이 구별되어 있지 않으며, 각 영역의 경계선이 부분적으로 끊어져 있는 것이 도시되어 있다. 또한 불완전한 학습으로 인해 영역이 잘못 레이블링 된 노이즈들도 포함되어 있다.More specifically, in the case of (a), some gray matter regions are not distinguished, and the boundary line of each region is partially broken. Also included are noises with regions mislabeled due to incomplete learning.
그러나, 형태학적으로 수정된 메디컬 이미지는 회백질 영역이 잘 구별되어 있으며, 각 영역의 경계선이 명확하게 특정 영역들을 구별하고 있는 것이 도시되어 있다. However, in the morphologically corrected medical image, gray matter regions are well distinguished, and the boundaries of each region clearly distinguish specific regions.
여기서, 일 실시예에 따르면, 제2 콘트롤러(2002)는 뇌 구조의 특성을 기반으로 형태학적 수정을 수행할 수 있다. 일반적으로, 뇌실을 포함한 뇌의 영역들은 3차원 상에서 26가지 방식으로 연결되어야 한다. 따라서, 제2 콘트롤러(2002)는 뇌의 각 영역 사이의 연결관계를 기초로 하여 세그멘테이션 된 메디컬 이미지 내에 포함된 노이즈를 감소시킬 수 있다. Here, according to an embodiment, the
또한 여기서, 뇌실은 기타 다른 비조직(none-tissue)와 잘못 구별되어, 비조직으로 잘못 레이블링 될 수 있다. 이 경우, 뇌실 영역의 잘못된 레이블링을 보상하기 위하여 ,제2 콘트롤러(2002)는 필-홀(fill-hole) 방법을 이용하여 뇌실 영역을 레이블링 할 수 있다.Also here, the ventricle may be mislabeled as non-tissue because it is misidentified from other non-tissues. In this case, in order to compensate for incorrect labeling of the ventricular region, the
이처럼 일 실시예에 따른 인공신경망은, 형태학적으로 세그멘테이션 결과가 수정된 결과물을 입력으로 재 학습하여, 포함하고자 하는 특성이 보다 정확하게 반영되도록 결과를 출력할 수 있다.As described above, the artificial neural network according to an embodiment may re-learn as an input the morphologically modified result of the segmentation result, and output the result so that the characteristics to be included are more accurately reflected.
도 41은 일 실시예에 따른 영상분석장치의 인공신경망을 이용한 디플로잉(deploying) 과정을 나타낸 순서도이다.41 is a flowchart illustrating a deployment process using an artificial neural network of an image analysis apparatus according to an embodiment.
도 41을 참조하면, 일 실시예에 따른 영상분석장치(2000)의 인공신경망을 이용한 디플로잉(deploying) 과정은, 제1 특성을 포함하는 제1 이미지를 입력하는 단계(S7000) 및 제1 특성 및 제2 특성이 포함된 세그멘테이션 결과를 포함하도록 가공된 제1 이미지를 출력하는 단계(S7200)를 포함할 수 있다.Referring to FIG. 41 , the deploying process using an artificial neural network of the
먼저, 영상분석장치(2000)는 제1 특성을 포함하는 제1 이미지를 인공신경망에 입력할 수 있다(S7000). 구체적으로, 제2 콘트롤러(2002)는, 충분히 학습되어 제2 메모리(2400)에 저장된 인공신경망에 제1 특성을 포함하는 제1 이미지를 입력할 수 있다. 여기서, 인공신경망은 상술된 학습과정을 거쳐 충분히 학습되어 있을 것이다. First, the
제1 이미지를 입력하면, 영상분석장치(2000)는 인공신경망의 출력 결과로써 제1 이미지에 관련된 제1 특성 및 제1 이미지와 다른 형식의 제2 이미지와 관련된 제2 특성을 포함하도록 가공된 제1 이미지를 획득할 수 있다(S7200). 구체적으로, 제2 콘트롤러(2002)는, 제1 이미지와 관련된 제1 특성 및 제1 이미지와 다른 제2 이미지와 관련된 제2 특성이 종합적으로 구별되도록 세그멘테이션 된 제1 이미지를 획득할 수 있다.When the first image is input, the
이처럼, 일 실시예에 따른 인공신경망의 학습과정에 따라 충분히 학습된 인공신경망을 이용함으로써, 영상분석장치(2000)는 제1 특성만을 포함한 메디컬 이미지를 인공신경망에 입력함에도, 제1 특성 및 제1 특성과 다른 제2 특성을 모두 포함하도록 세그멘테이션 된 메디컬 이미지를 획득할 수 있다. 이로 인해, 관련된 정보를 획득하고자 하는 질병을 분석하기 위한 다양한 정보를 획득할 수 있으며, 다양한 정보를 분석함으로써 질병에 관련하여도 보다 다양한 정보를 유저에게 제공할 수 있다.As such, by using the artificial neural network sufficiently learned according to the learning process of the artificial neural network according to the embodiment, the
도 42은 일 실시예에 따른 인공신경망의 최종 출력 결과물의 일 예이다.42 is an example of a final output result of an artificial neural network according to an embodiment.
도 42를 참조하면, 영상분석장치(2000)는 제1 이미지를 인공신경망에 입력하여, 다양한 특성이 포함되도록 가공된 제1 이미지를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 특성이 반영된 제1 이미지를 인공신경망에 입력하여, 제1 특성과 다른 특성이 더 반영되도록 세그멘테이션 된 제1 이미지를 획득할 수 있다.Referring to FIG. 42 , the
도면을 참조하여 구체적인 예시로써 설명하자면, 영상분석장치(2000)는 T2-FLAIR 이미지를 인공신경망에 입력하여, T1-weighted 이미지의 특성이 반영되도록 가공된 이미지를 획득할 수 있다. To describe as a specific example with reference to the drawings, the
구체적으로, 제2 콘트롤러(2002)는 T1-weighted 이미지의 특성 및 T2-FlAIR 이미지의 특성이 반영된 러닝셋에 기초하여 충분히 학습된 인공신경망에 T2-FLAIR 이미지를 입력하여, T1-weighted 이미지의 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지를 획득할 수 있다. 여기서, 인공신경망은 T2-FLAIR 이미지의 기존의 특성을 반영하여 세그멘테이션 하도록 학습될 수 있음은 물론이다. 즉, 일 실시예에 따른 인공신경망은 T2-FLAIR 이미지를 입력 데이터로 하여, T1-weighted 이미지에서 관측되기 용이한 해부학적 또는 구조적 특성이 반영될 뿐만 아니라, T2-FLAIR 이미지에서 관측되기 용이한 병변적 특성 모두를 포함하도록 세그멘테이션 된 이미지를 획득할 수 있는 것이다.Specifically, the
보다 더 구체적인 예시를 들자면, 일 실시예에 따른 인공신경망의 최종 출력은, WMH와 같은 병변적 특성 및 백질, 회백질 등의 뇌를 구성하는 물질이 잘 구별되는 T2-FLAIR 이미지를 기반으로 하여, 뇌에 포함된 기관 및 뇌의 부위별 위치와 같이 T1-weighted 이미지의 특성이 모두 포함되도록 세그멘테이션 될 수 있다.To give a more specific example, the final output of the artificial neural network according to an embodiment is based on a T2-FLAIR image in which lesion characteristics such as WMH and materials constituting the brain such as white matter and gray matter are well distinguished. It can be segmented to include all characteristics of the T1-weighted image, such as the location of organs and brain regions included in the .
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (18)
제1 조건에서 획득되고 뇌와 관련된 제1 영역 과 관련된 정보를 포함하는 제1 이미지 데이터 및 제2 조건에서 획득된 제2 이미지 데이터를 획득하는 단계;
제1 입력 데이터를 획득하기 위하여 제2 이미지 데이터 내에서 제2 영역 정보 - 상기 제2 영역 정보는 상기 제1 영역 정보에 기초하여, 상기 제2 이미지 데이터에 대응되도록 생성됨 - 를 결정하는 단계;
인공신경망이 제1 타겟 영역에 관한 정보를 포함하는 제1 출력 데이터를 출력하도록, 상기 제1 입력 데이터 및 상기 제2 이미지 데이터를 상기 인공신경망에 입력하여 상기 인공신경망을 학습시키는 단계;
상기 제1 출력 데이터 내의 상기 제1 타겟 영역의 적어도 일부를 형태학적으로 수정하여, 상기 제1 출력 데이터를 제2 입력 데이터로 변환하는 단계; 및
상기 인공신경망이 상기 제2 이미지 데이터에서 관측되는 제2 특성과 다른 제1 특성을 반영하는 제2 타겟 영역을 출력하도록, 상기 제2 입력 데이터 및 상기 제2 이미지 데이터를 입력하여 상기 인공신경망을 학습 시키는 단계;를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
A learning method of an artificial neural network for segmentation of a medical image performed by a diagnostic auxiliary device, the method comprising:
acquiring first image data obtained under the first condition and including information related to a first region related to the brain and second image data obtained under the second condition;
determining second region information in second image data to obtain first input data, wherein the second region information is generated to correspond to the second image data based on the first region information;
learning the artificial neural network by inputting the first input data and the second image data to the artificial neural network so that the artificial neural network outputs first output data including information about a first target region;
transforming the first output data into second input data by morphologically modifying at least a portion of the first target region in the first output data; and
The artificial neural network is learned by inputting the second input data and the second image data so that the artificial neural network outputs a second target region reflecting a first characteristic different from the second characteristic observed in the second image data. making; including
Learning method of artificial neural network for segmentation of medical images.
상기 제1 이미지 데이터는 T1-weighted MRI 이미지인,
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The first image data is a T1-weighted MRI image,
Learning method of artificial neural network for segmentation of medical images.
상기 제2 이미지 데이터는 T2-FLAIR MRI 이미지인,
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The second image data is a T2-FLAIR MRI image,
Learning method of artificial neural network for segmentation of medical images.
제1 특성은 해부학적 특성이고,
제1 영역은 해부학적 특성이 반영된 뇌의 기관, 위치 또는 부위 중 적어도 어느 하나의 영역에 관한 정보를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The first characteristic is an anatomical characteristic,
The first region includes information on at least one region of an organ, location, or region of the brain to which anatomical characteristics are reflected.
Learning method of artificial neural network for segmentation of medical images.
상기 인공신경망은 U-net ++ 구조를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The artificial neural network includes a U-net ++ structure
Learning method of artificial neural network for segmentation of medical images.
상기 인공신경망은,
제2 조건에 대응하는 제2 특성을 반영하는 제2 영역에 관한 정보를 출력하도록 학습되는,
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The artificial neural network is
learned to output information about a second region that reflects a second characteristic corresponding to a second condition;
Learning method of artificial neural network for segmentation of medical images.
상기 제2 특성은 병변적 특성이고,
상기 제2 영역 정보는 백질고강도신호와 관련된 정보를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
7. The method of claim 6,
The second characteristic is a lesion characteristic,
The second region information includes information related to a white matter high intensity signal.
Learning method of artificial neural network for segmentation of medical images.
상기 입력 이미지 데이터를 입력하여 인공신경망 - 상기 인공신경망은 제2 조건과 대응되는 제2 특성을 반영한 제2 이미지 데이터에 기초한 러닝셋을 이용하여 학습됨 - 의 출력 결과로서, 결과 이미지 데이터를 획득하는 단계; 를 포함하되,
상기 결과 이미지 데이터는 적어도 제1 특성과 관련된 병변 정보를 지시하는 제1 영역 및 제2 특성과 관련된 구조적 정보를 지시하는 제2 영역을 포함하는
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
obtaining input image data obtained under a first condition, wherein the input image data reflects a first characteristic corresponding to the first condition; and
Obtaining the resulting image data as an output result of the artificial neural network by inputting the input image data - the artificial neural network is learned using a learning set based on the second image data reflecting the second characteristic corresponding to the second condition step; including,
The resultant image data includes at least a first region indicating lesion information related to the first characteristic and a second region indicating structural information related to the second characteristic.
A method of segmenting a medical image using an artificial neural network.
상기 입력 이미지 데이터는 T2-FLAIR MRI 이미지인
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
9. The method of claim 8,
The input image data is a T2-FLAIR MRI image.
A method of segmenting a medical image using an artificial neural network.
상기 제2 이미지 데이터는 T1-weighted MRI 이미지인,
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
9. The method of claim 8,
The second image data is a T1-weighted MRI image,
A method of segmenting a medical image using an artificial neural network.
상기 병변 정보는 백질고강도신호(WMH)를 포함하는
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
9. The method of claim 8,
The lesion information includes white matter high intensity signal (WMH)
A method of segmenting a medical image using an artificial neural network.
상기 결과 이미지 데이터는,
백질고강도신호가 발생한 해부학적 위치 정보를 제공하는
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
12. The method of claim 11,
The resulting image data is
Provides anatomical location information where white matter high-intensity signals are generated.
A method of segmenting a medical image using an artificial neural network.
A computer-readable recording medium in which a program for driving the method of any one of claims 1 to 12 is recorded.
입력 이미지 데이터를 획득하는 통신모듈;
상기 입력 이미지 데이터를 분석하는 콘트롤러; 를 포함하고,
상기 콘트롤러는, 제1 조건에 대응하는 제1 특성을 반영하는 상기 입력 이미지 데이터를, 제2 조건과 대응되는 제2 특성을 반영한 제2 이미지 데이터에 기초한 러닝셋을 이용하여 학습된 인공신경망에 입력하여 결과 이미지 데이터를 획득하되,
상기 결과 이미지 데이터는 적어도 제1 특성과 관련된 병변 정보를 지시하는 제1 영역 및 제2 특성과 관련된 구조적 정보를 지시하는 제2 영역을 포함하는
진단보조정보 제공 장치.
In the diagnostic auxiliary information providing device,
a communication module for acquiring input image data;
a controller for analyzing the input image data; including,
The controller inputs the input image data reflecting the first characteristic corresponding to the first condition to the artificial neural network learned by using a learning set based on the second image data reflecting the second characteristic corresponding to the second condition. to obtain the resulting image data,
The resultant image data includes at least a first region indicating lesion information related to the first characteristic and a second region indicating structural information related to the second characteristic.
A device for providing diagnostic auxiliary information.
상기 입력 이미지 데이터는 T2-FLAIR MRI 이미지인
진단보조정보 제공 장치.
15. The method of claim 14,
The input image data is a T2-FLAIR MRI image.
A device for providing diagnostic auxiliary information.
상기 제2 이미지 데이터는 T1-weighted MRI 이미지인,
진단보조정보 제공 장치.
15. The method of claim 14,
The second image data is a T1-weighted MRI image,
A device for providing diagnostic auxiliary information.
상기 병변 정보는 백질고강도신호(WMH)를 포함하는
진단보조정보 제공 장치.
15. The method of claim 14,
The lesion information includes white matter high intensity signal (WMH)
A device for providing diagnostic auxiliary information.
상기 결과 이미지 데이터는,
백질고강도신호가 발생한 해부학적 위치 정보를 제공하는
진단보조정보 제공 장치.
18. The method of claim 17,
The resulting image data is
Provides anatomical location information where white matter high-intensity signals are generated.
A device for providing diagnostic auxiliary information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200187939A KR102300234B1 (en) | 2020-12-30 | 2020-12-30 | A method for providing disease information and device performing the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200187939A KR102300234B1 (en) | 2020-12-30 | 2020-12-30 | A method for providing disease information and device performing the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR102300234B1 true KR102300234B1 (en) | 2021-09-10 |
KR102300234B9 KR102300234B9 (en) | 2022-04-11 |
Family
ID=77777102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200187939A KR102300234B1 (en) | 2020-12-30 | 2020-12-30 | A method for providing disease information and device performing the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102300234B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023121005A1 (en) * | 2021-12-21 | 2023-06-29 | 주식회사 뷰노 | Method for outputting classification information on basis of artificial nerual network and apparatus therefor |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130109838A (en) * | 2012-03-28 | 2013-10-08 | 삼성전자주식회사 | Apparatus and method for supporting lesion diagnosis |
-
2020
- 2020-12-30 KR KR1020200187939A patent/KR102300234B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130109838A (en) * | 2012-03-28 | 2013-10-08 | 삼성전자주식회사 | Apparatus and method for supporting lesion diagnosis |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023121005A1 (en) * | 2021-12-21 | 2023-06-29 | 주식회사 뷰노 | Method for outputting classification information on basis of artificial nerual network and apparatus therefor |
Also Published As
Publication number | Publication date |
---|---|
KR102300234B9 (en) | 2022-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102410955B1 (en) | Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images | |
US8218845B2 (en) | Dynamic pulmonary trunk modeling in computed tomography and magnetic resonance imaging based on the detection of bounding boxes, anatomical landmarks, and ribs of a pulmonary artery | |
EP2375378A1 (en) | Medical image diagnosis assisting apparatus and method, and computer readable recording medium on which is recorded program for the same | |
US20150141818A1 (en) | Vascular imaging method and device | |
WO2014016268A1 (en) | Method, apparatus and system for automated spine labeling | |
JP6739422B2 (en) | Device, system and method for segmenting an image of a subject | |
US20120078102A1 (en) | 3-dimensional (3d) ultrasound system using image filtering and method for operating 3d ultrasound system | |
US20130303900A1 (en) | Method and apparatus for processing of stroke ct scans | |
KR102300234B1 (en) | A method for providing disease information and device performing the same | |
KR20210020629A (en) | Tumor automatic segmentation based on deep learning in a medical image | |
KR102300226B1 (en) | A method for providing disease information and device performing the same | |
KR102300228B1 (en) | A method for providing disease information and device performing the same | |
JP3234668U (en) | Image recognition system for scoliosis by X-ray | |
KR102313658B1 (en) | Method for, device for, and system for analazing brain image | |
KR102313662B1 (en) | Device and method for determining quality of image | |
KR102300236B1 (en) | A method for providing disease information and device performing the same | |
KR102300235B1 (en) | A method for providing disease information and device performing the same | |
KR102300231B1 (en) | A method for providing disease information and device performing the same | |
JP2023134655A (en) | Medical image analysis method, medical image analysis device and medical image analysis system | |
CN113348485A (en) | Abnormality detection method, abnormality detection program, abnormality detection device, server device, and information processing method | |
EP4272635A1 (en) | Method for providing diagnosis assistance information, and device performing same | |
KR102313656B1 (en) | Method for, device for, and system for analazing brain image | |
KR102349360B1 (en) | Diagnosis Method and System of Idiopathic Normal Pressure Hydrocephalus Using Imaging Diagnostic Equipment | |
US20200315569A1 (en) | System and method for determining condition of fetal nervous system | |
KR20210069250A (en) | Tumor automatic segmentation using deep learning based on dual window setting in a medical image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |