KR102300234B1 - A method for providing disease information and device performing the same - Google Patents

A method for providing disease information and device performing the same Download PDF

Info

Publication number
KR102300234B1
KR102300234B1 KR1020200187939A KR20200187939A KR102300234B1 KR 102300234 B1 KR102300234 B1 KR 102300234B1 KR 1020200187939 A KR1020200187939 A KR 1020200187939A KR 20200187939 A KR20200187939 A KR 20200187939A KR 102300234 B1 KR102300234 B1 KR 102300234B1
Authority
KR
South Korea
Prior art keywords
image
region
information
medical
neural network
Prior art date
Application number
KR1020200187939A
Other languages
Korean (ko)
Other versions
KR102300234B9 (en
Inventor
김동현
Original Assignee
뉴로핏 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴로핏 주식회사 filed Critical 뉴로핏 주식회사
Priority to KR1020200187939A priority Critical patent/KR102300234B1/en
Application granted granted Critical
Publication of KR102300234B1 publication Critical patent/KR102300234B1/en
Publication of KR102300234B9 publication Critical patent/KR102300234B9/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Neurology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Neurosurgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)

Abstract

The present invention relates to a method for providing diagnostic assistance information by analyzing a medical image which comprises the following steps of: acquiring a brain image; labeling a feature value reflecting a region of a brain; determining a reference boundary within the brain image; calculating a first disease index and a second disease index; and providing diagnostic assistance information based on the first and second disease indexes.

Description

진단보조정보를 제공하는 방법 및 이를 수행하는 장치{A METHOD FOR PROVIDING DISEASE INFORMATION AND DEVICE PERFORMING THE SAME}A method for providing diagnostic auxiliary information and a device for performing the same

본 발명은 메디컬 이미지를 분석하여 진단보조정보를 제공하는 방법 및 이를 수행하기 위한 시스템에 관한 것으로, 보다 상세하게는 메디컬 이미지를 복수의 영역으로 세그멘테이션하고, 상기 복수의 영역 간의 상관관계에 기초하여 진단보조정보를 제공하는 방법 및 이를 수행하기 위한 시스템에 관한 것이다.The present invention relates to a method for providing diagnostic assistance information by analyzing a medical image, and to a system for performing the same, and more particularly, to a medical image segmented into a plurality of regions, and diagnosis based on a correlation between the plurality of regions It relates to a method for providing auxiliary information and a system for performing the same.

현대 의료 기술 분야에서는 메디컬 이미지를 정밀하게 분석하여 보다 정확하게 질병에 관한 정보를 제공하기 위한 다양한 기법들에 대한 요구가 점차 증대되고 있다. 이러한 추세 속에서, 메디컬 이미지를 분석하여 통일화 된 질병 지표를 제공하는 차세대 의료 기술이 각광받고 있다.In the field of modern medical technology, there is a growing demand for various techniques for precisely analyzing a medical image and providing information about a disease more accurately. In this trend, next-generation medical technology that analyzes medical images and provides unified disease indicators is in the spotlight.

메디컬 이미지를 분석하여 질병에 관한 정보를 제공하기 위한 지표를 산출하는 방식은 다양한 문헌들을 통해 공개된 바 있다. 그러나 이러한 논문들은 대부분 메디컬 이미지를 분석하는 의사의 임상적 판단이 개입되어, 환자에게 제공되는 질병에 관한 정보가 의사에 따라 지나치게 주관적이고 편차가 심한 한계점이 있었다. A method of calculating an index for providing information about a disease by analyzing a medical image has been disclosed through various literatures. However, most of these papers involve the clinical judgment of the doctor who analyzes the medical image, so the information on the disease provided to the patient is too subjective and has severe deviations depending on the doctor.

또한, 메디컬 이미지로부터 질병에 관한 정보를 제공하기 위해 이미지 세그멘테이션을 수행하는 경우에도, 메디컬 이미지의 획득 조건에 따라 메디컬 이미지의 내에서 세그멘테이션 될 수 있는 영역이 달라진다. 이로 인해, 특정한 하나의 메디컬 이미지 내에서는 질병에 관한 충분한 정보를 획득하기 어려워, 정확한 진단 보조정보를 제공하기 위해서는 다양한 조건에서 획득된 메디컬 이미지를 각각 세그멘테이션 해야 하는 번거로움이 존재하였다.
아래의 종래문헌들은 메디컬 이미지를 분석하여 질병에 관한 정보를 제공하기 위한 지표를 산출하기 위한 방식을 개시한다.
* 대한민국특허청(KR) 등록특허공보 10-1754291(2017.07.06)
* 대한민국특허청(KR) 등록특허공보 10-1676789(2016.11.10)
또한, 아래의 선행문헌들은 여러 형식에 따른 메디컬 이미지를 세그멘테이션 하는 방식에 대해 개시한다.
* 미국 특허출원공개공보 US2019/0096059 A1
* 미국 특허출원공개공보 US2020/0167930 A1
Also, even when image segmentation is performed to provide disease-related information from a medical image, a segmented region within the medical image varies according to an acquisition condition of the medical image. For this reason, it is difficult to obtain sufficient information about a disease in one specific medical image, and in order to provide accurate diagnostic auxiliary information, it is inconvenient to segment the medical images obtained under various conditions.
The following conventional documents disclose a method for calculating an index for providing information about a disease by analyzing a medical image.
* Korean Intellectual Property Office (KR) Registered Patent Publication No. 10-1754291 (2017.07.06)
* Korean Intellectual Property Office (KR) Registered Patent Publication No. 10-1676789 (2016.11.10)
In addition, the following prior documents disclose a method of segmenting a medical image according to various formats.
* US Patent Application Publication US2019/0096059 A1
* US Patent Application Publication US2020/0167930 A1

본 발명이 해결하고자 하는 일 과제는 메디컬 이미지를 분석하여 질병에 관한 지표를 산출함에 있어서 획일화된 기준을 제공하여 의사의 주관적 판단에 의한 영향을 제거하는 데에 있다.One problem to be solved by the present invention is to provide a standardized standard in calculating an index related to a disease by analyzing a medical image to eliminate the influence of a physician's subjective judgment.

본 발명이 해결하고자 하는 일 과제는 고도로 훈련된 인공신경망을 이용하여 메디컬 이미지를 분석함으로써, 객관적이고 획일화 된 질병 지표를 산출하는 데에 있다.One problem to be solved by the present invention is to calculate an objective and uniform disease index by analyzing a medical image using a highly trained artificial neural network.

본 발명이 해결하고자 하는 일 과제는 메디컬 이미지가 가지는 성향에 대응되는 질병 지표를 산출하여, 메디컬 이미지의 다양성에 의한 영향이 제거된 질병 정보를 제공하는 데에 있다.One problem to be solved by the present invention is to provide disease information in which the influence of the diversity of medical images is removed by calculating a disease index corresponding to the propensity of the medical image.

본 발명이 해결하고자 하는 일 과제는, 하나의 메디컬 이미지로부터 적어도 2 이상의 고유한 특성을 가지는 세그멘테이션 결과를 획득함으로써, 질병에 관한 정보를 제공하는 데에 다양성을 증가시키는 데에 있다.One problem to be solved by the present invention is to increase the diversity of providing information about diseases by obtaining segmentation results having at least two or more unique characteristics from one medical image.

본 발명의 일 실시예에 따르면, 제1 조건에서 획득되고 뇌와 관련된 제1 영역 과 관련된 정보를 포함하는 제1 이미지 데이터 및 제2 조건에서 획득된 제2 이미지 데이터를 획득하는 단계; 제1 입력 데이터를 획득하기 위하여 제2 이미지 데이터 내에서 제2 영역 정보 - 상기 제2 영역 정보는 상기 제1 영역 정보에 기초하여, 상기 제2 이미지 데이터에 대응되도록 생성됨 - 를 결정하는 단계; 인공신경망이 제1 타겟 영역에 관한 정보를 포함하는 제1 출력 데이터를 출력하도록, 상기 제1 입력 데이터 및 상기 제2 이미지 데이터를 상기 인공신경망에 입력하여 상기 인공신경망을 학습시키는 단계; 상기 제1 출력 데이터 내의 상기 제1 타겟 영역의 적어도 일부를 형태학적으로 수정하여, 상기 제1 출력 데이터를 제2 입력 데이터로 변환하는 단계; 및 상기 인공신경망이 상기 제2 이미지 데이터에서 관측되는 제2 특성과 다른 제1 특성을 반영하는 제2 타겟 영역을 출력하도록, 상기 제2 입력 데이터 및 상기 제2 이미지 데이터를 입력하여 상기 인공신경망을 학습 시키는 단계;를 포함하는 메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법이 제공될 수 있다.According to an embodiment of the present invention, there is provided a method comprising: obtaining first image data obtained under a first condition and including information related to a first region related to the brain and second image data obtained under a second condition; determining second region information in second image data to obtain first input data, wherein the second region information is generated to correspond to the second image data based on the first region information; learning the artificial neural network by inputting the first input data and the second image data to the artificial neural network so that the artificial neural network outputs first output data including information about a first target region; transforming the first output data into second input data by morphologically modifying at least a portion of the first target region in the first output data; and inputting the second input data and the second image data so that the artificial neural network outputs a second target area reflecting a first characteristic different from a second characteristic observed in the second image data to generate the artificial neural network. A learning method of an artificial neural network for segmentation of a medical image including the step of learning may be provided.

본 발명의 다른 양상에 따르면,진단보조정보 제공 장치에 있어서, 입력 이미지 데이터를 획득하는 통신모듈; 상기 입력 이미지 데이터를 분석하는 콘트롤러; 를 포함하고, 상기 콘트롤러는, 제1 조건에 대응하는 제1 특성을 반영하는 상기 입력 이미지 데이터를, 제2 조건과 대응되는 제2 특성을 반영한 제2 이미지 데이터에 기초한 러닝셋을 이용하여 학습된 인공신경망에 입력하여 결과 이미지 데이터를 획득하되, 상기 결과 이미지 데이터는 적어도 제1 특성과 관련된 병변 정보를 지시하는 제1 영역 및 제2 특성과 관련된 구조적 정보를 지시하는 제2 영역을 포함하는 진단보조정보 제공 장치가 제공될 수 있다. According to another aspect of the present invention, there is provided an apparatus for providing diagnostic auxiliary information, comprising: a communication module for acquiring input image data; a controller for analyzing the input image data; Including, the controller, the input image data reflecting the first characteristic corresponding to the first condition, using a learning set based on the second image data reflecting the second characteristic corresponding to the second condition A diagnosis aid comprising input into an artificial neural network to obtain result image data, wherein the result image data includes at least a first region indicating lesion information related to a first characteristic and a second region indicating structural information related to a second characteristic An information providing device may be provided.

본 발명에 의하면, 메디컬 이미지로부터 질병 지표를 산출하는 데에 획일화 된 기준을 제공함으로써, 환자의 상태로부터 객관적이고 명료한 질병 정보를 제공할 수 있다.According to the present invention, it is possible to provide objective and clear disease information from a patient's condition by providing a standardized standard for calculating a disease index from a medical image.

본 발명에 의하면, 메디컬 이미지에 포함된 특성이 반영된 기준을 산정하는 방법을 제공함으로써, 다양한 메디컬 이미지에 적용될 수 있는 질병 정보 제공 방법이 제공될 수 있다.According to the present invention, by providing a method for calculating a criterion in which characteristics included in a medical image are reflected, a method for providing disease information that can be applied to various medical images can be provided.

본 발명에 의하면, 고도로 훈련된 인공신경망을 이용하여 메디컬 이미지를 분석함으로써, 의사의 임상적 판단이 제거된 객관적이고 명료한 질병 정보가 제공될 수 있다.According to the present invention, by analyzing a medical image using a highly trained artificial neural network, objective and clear disease information from which a doctor's clinical judgment is removed can be provided.

본 발명에 의하면, 적어도 2 이상의 다른 특성을 가지는 메디컬 이미지를 통하여 학습된 인공신경망을 이용함으로써, 환자가 가지는 질병의 특성에 대응되는 메디컬 이미지에 대한 질병 정보를 정확하게 제공할 수 있다.According to the present invention, by using an artificial neural network learned through medical images having at least two different characteristics, it is possible to accurately provide disease information on a medical image corresponding to the characteristics of a patient's disease.

도 1은 일 실시예에 따른 진단보조정보 제공 시스템의 일 구현예이다.
도 2는 일 실시예에 따른 진단보조정보 제공 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 3은 일 실시예에 따른 영상획득장치의 구성을 나타낸 블록도이다.
도 4는 일 실시예에 따른 영상분석장치의 구성을 나타낸 블록도이다.
도 5는 일 실시예에 따른 진단보조정보 제공 시스템에서 수행되는 진단보조정보 제공 방법의 개괄적인 순서도이다.
도 6은 일 실시예에 따른 메디컬 이미지의 예시이다.
도 7은 일 실시예에 따른 다양한 획득 조건에 따른 메디컬 이미지의 예시를 나타낸 것이다.
도 8은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지 분석 동작의 세부동작을 나타낸 순서도이다.
도 9는 일 실시예에 따른 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.
도 10은 일 실시예에 따른 메디컬 이미지로부터 질병 인덱스를 추출하는 방법의 일 예를 나타낸 순서도이다.
도 11은 일 실시예에 따른 기준 영역과 기준 바운더리가 도시된 메디컬 이미지의 일 예이다.
도 12는 일 실시예에 따른 대상 영역의 영역정보를 획득하는 과정의 일 예이다.
도 13은 일 실시예에 따른 대상 영역의 영역정보를 획득하는 과정의 다른 예이다.
도 14는 일 실시예에 따라 계산된 질병 인덱스에 기초하여 획득된 진단보조정보가 제공되는 일 구현예이다.
도 15는 일 실시예에 따라 수정된 기준 바운더리를 이용하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.
도 16은 일 실시예에 따라 기준 바운더리와 비관심 영역이 오버랩 된 경우를 나타낸 것이다.
도 17a 및 도 17b는 일 실시예에 따라 수정된 기준 바운더리를 계산하는 방법의 예시를 나타낸 것이다.
도 18은 일 실시예에 따라 일부가 수정된 기준 바운더리 및 전체적으로 수정된 기준 바운더리의 예시를 나타낸 것이다.
도 19는 일 실시예에 따라 일부가 수정된 기준 바운더리의 구체적인 수정 과정의 예시를 나타낸 것이다.
도 20은 일 실시예에 따라 영상분석장치가 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법에 관한 개략적인 순서도이다.
도 21은 일 실시예에 따른 복수의 메디컬 이미지의 일 예를 나타낸 것이다.
도 22는 각각 다른 정보를 포함하고 있는 슬라이스 이미지의들의 예시 및 이를 통한 진단보조정보의 제공에 관한 일 예이다.
도 23은 실시예에 따라 후보 이미지로부터 진단보조정보를 획득하는 방법을 개략적으로 나타낸 순서도이다.
도 24은 일 실시예에 따른 후보 이미지의 예시이다.
도 25는 일 실시예에 따른 후보 이미지로부터 진단보조정보를 제공하는 예시를 나타낸 것이다.
도 26은 일 실시예에 따른 진단보조정보 제공의 다른 구현예이다.
도 27은 일 실시예에 따른 복수의 이미지에 기초하여 질병 인덱스를 획득하는 방법을 나타낸 순서도이다.
도 28은 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 일 예이다.
도 29는 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 다른 예이다.
도 30은 일 실시예에 따른 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.
도 31은 일 실시예에 따라 3D 메디컬 모델로부터 질병 인덱스를 산출하는 과정의 일 예를 나타낸 것이다.
도 32는 일 실시예에 따라 3D 메디컬 모델로부터 질병 인덱스를 산출하는 과정의 다른 예를 나타낸 것이다.
도 33은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지의 세그멘테이션 동작을 개괄적으로 나타낸 것이다.
도 34는 일 실시예에 따른 인공신경망 모델의 일 구현예를 나타낸 것이다.
도 35는 일 실시예에 따른 인공신경망 모델의 다른 구현예를 나타낸 것이다.
도 36은 일 실시예에 따른 인공신경망 모델을 이용한 세그멘테이션 결과를 예시적으로 나타낸 것이다.
도 37은 일 실시예에 따라 복수의 특성을 포함하도록 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.
도 38은 일 실시예에 따른 인공신경망의 학습 과정을 나타낸 순서도이다.
도 39는 일 실시예에 따른 제1 이미지와 제2 이미지의 정합 과정을 나타낸 예시이다.
도 40은 일 실시예에 따른 형태학적(morphological) 수정의 예시를 나타낸 것이다.
도 41은 일 실시예에 따른 영상분석장치의 인공신경망을 이용한 디플로잉(deploying) 과정을 나타낸 순서도이다.
도 42은 일 실시예에 따른 인공신경망의 최종 출력 결과물의 일 예이다.
1 is an exemplary embodiment of a system for providing diagnostic auxiliary information according to an exemplary embodiment.
2 is a block diagram schematically illustrating the configuration of a system for providing diagnostic auxiliary information according to an exemplary embodiment.
3 is a block diagram illustrating the configuration of an image acquisition apparatus according to an embodiment.
4 is a block diagram illustrating the configuration of an image analysis apparatus according to an embodiment.
5 is a schematic flowchart of a method for providing auxiliary diagnostic information performed in a system for providing auxiliary diagnostic information according to an exemplary embodiment.
6 is an example of a medical image according to an embodiment.
7 illustrates an example of a medical image according to various acquisition conditions according to an exemplary embodiment.
8 is a flowchart illustrating detailed operations of a medical image analysis operation performed by an image analysis apparatus according to an exemplary embodiment.
9 illustrates an example of a segmented medical image according to an embodiment.
10 is a flowchart illustrating an example of a method of extracting a disease index from a medical image according to an embodiment.
11 is an example of a medical image showing a reference region and a reference boundary according to an exemplary embodiment.
12 is an example of a process of obtaining area information of a target area according to an embodiment.
13 is another example of a process of obtaining area information of a target area according to an exemplary embodiment.
14 is an embodiment in which diagnostic auxiliary information obtained based on a disease index calculated according to an embodiment is provided.
15 is a flowchart illustrating an example of a method of providing diagnostic assistance information using a modified reference boundary according to an exemplary embodiment.
16 illustrates a case in which a reference boundary and an uninterested region overlap according to an exemplary embodiment.
17A and 17B illustrate examples of a method of calculating a modified reference boundary according to an embodiment.
18 illustrates an example of a partially modified reference boundary and a fully modified reference boundary according to an embodiment.
19 illustrates an example of a specific modification process of a partially modified reference boundary according to an embodiment.
20 is a schematic flowchart of a method for an image analysis apparatus to provide diagnostic assistance information from a plurality of medical images, according to an exemplary embodiment.
21 illustrates an example of a plurality of medical images according to an embodiment.
22 is an example of slice images each including different information and an example of providing diagnostic auxiliary information through this example.
23 is a flowchart schematically illustrating a method of obtaining diagnostic assistance information from a candidate image according to an exemplary embodiment.
24 is an example of a candidate image according to an embodiment.
25 is a diagram illustrating an example of providing diagnostic auxiliary information from a candidate image according to an exemplary embodiment.
26 is another example of providing diagnostic auxiliary information according to an exemplary embodiment.
27 is a flowchart illustrating a method of obtaining a disease index based on a plurality of images according to an embodiment.
28 is an example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an embodiment.
29 is another example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an exemplary embodiment.
30 is a flowchart illustrating an example of a method of providing diagnostic assistance information based on a 3D medical model according to an embodiment.
31 illustrates an example of a process of calculating a disease index from a 3D medical model according to an embodiment.
32 illustrates another example of a process of calculating a disease index from a 3D medical model according to an embodiment.
33 is a diagram schematically illustrating a segmentation operation of a medical image performed by an image analysis apparatus according to an exemplary embodiment.
34 shows an embodiment of an artificial neural network model according to an embodiment.
35 shows another implementation of an artificial neural network model according to an embodiment.
36 exemplarily shows a segmentation result using an artificial neural network model according to an embodiment.
37 illustrates an example of a medical image segmented to include a plurality of characteristics according to an embodiment.
38 is a flowchart illustrating a learning process of an artificial neural network according to an embodiment.
39 is an example illustrating a process of matching a first image and a second image according to an exemplary embodiment.
40 illustrates an example of morphological modification according to an embodiment.
41 is a flowchart illustrating a deployment process using an artificial neural network of an image analysis apparatus according to an embodiment.
42 is an example of a final output result of an artificial neural network according to an embodiment.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above-described objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, since the present invention may have various changes and may have various embodiments, specific embodiments will be exemplified in the drawings and described in detail below.

도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.In the drawings, the thicknesses of layers and regions are exaggerated for clarity, and also, an element or layer may be referred to as “on” or “on” another component or layer. What is referred to includes all cases in which other layers or other components are interposed in the middle as well as directly on top of other components or layers. Throughout the specification, like reference numerals refer to like elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.

본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present specification are only identification symbols for distinguishing one component from other components.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.

본 명세서는 메디컬 이미지를 분석하고, 메디컬 이미지와 관련된 진단보조정보를 제공하는 방법 및 이를 수행하는 시스템에 관한 것이다.The present specification relates to a method of analyzing a medical image and providing diagnostic auxiliary information related to the medical image, and a system for performing the same.

여기서, 본 명세서에서의 '메디컬 이미지'는 의료 산업상에서 획득될 수 있는 다양한 이미지를 포괄하는 것으로 해석될 수 있다. 즉, 본 명세서에서의 메디컬 이미지는 의료 산업에서 이용되는 다양한 장치들로부터 획득 될 수 있는 이미지들을 통칭할 수 있다. 일 예로, 메디컬 이미지는 자기공명영상(MRI) 과 같이 컴퓨터토모그래피(CT) 장치에서 획득된 이미지 일 수 있다. 다른 예로, 메디컬 이미지는 엑스선촬영장치(X-ray)에서 획득된 메디컬 이미지 일 수 있다. 이에 국한되는 것이 아니며, 일반적인 카메라 장치에서 획득될 수 있는 사진 등 의료산업 분야에서 획득할 수 있는 모든 이미지를 포괄할 수 있다.Here, 'medical image' in the present specification may be interpreted as encompassing various images that may be acquired in the medical industry. That is, the medical image in the present specification may collectively refer to images that can be acquired from various devices used in the medical industry. For example, the medical image may be an image obtained by a computer tomography (CT) apparatus such as magnetic resonance imaging (MRI). As another example, the medical image may be a medical image obtained by an X-ray imaging apparatus (X-ray). The present invention is not limited thereto, and may include all images that can be acquired in the medical industry, such as photos that can be acquired by a general camera device.

뿐만 아니라, 일 실시예에 따른 메디컬 이미지의 대상 객체는 의료 산업상에서 대상이 될 수 있는 모든 피촬영 객체를 포함할 수 있다. 일 예로, 메디컬 이미지는 환자의 이미지일 수 있다. 구체적으로는, 메디컬 이미지는 환자의 신체 특정부위에 관한 이미지일 수 있다. 구체적인 예시로, 메디컬 이미지는 치매가 의심되는 환자의 뇌와 관련된 사진일 수 있으며, 폐암이 의심되는 환자의 폐와 관련된 이미지일 수도 있다. 뿐만 아니라, 일 실시예에 따른 메디컬 이미지의 대상 객체는 인간으로부터 채취한 신체 조직일 수도 있다. In addition, the target object of the medical image according to an embodiment may include all target objects that may be targets in the medical industry. For example, the medical image may be an image of a patient. Specifically, the medical image may be an image related to a specific part of the patient's body. As a specific example, the medical image may be a picture related to the brain of a patient suspected of having dementia, or may be an image related to the lungs of a patient suspected of having lung cancer. In addition, the target object of the medical image according to an embodiment may be a body tissue collected from a human.

즉, 본 명세서에서의 메디컬 이미지는, 본 발명의 사상에 따른 이미지 분석 방법에 의해 이미지 내의 질병 정보를 획득하고자 하는 의료 산업상의 모든 피촬영 객체에 관한 이미지일 수 있으며, 의료 산업상 이용되는 다양한 장치들로부터 획득된 형식(form)을 가지는 이미지일 수 있는 것이다. 다만, 본 명세서의 이하의 설명에서는 설명의 편의를 위해 인체의 뇌와 관련된 자기공명영상(이하, 'MRI'라 칭함)에 관하여 주로 설명할 것이나, 본 명세서의 사상이 이에 국한되는 것은 아니다. That is, the medical image in the present specification may be an image of any object to be photographed in the medical industry for which disease information in the image is to be obtained by the image analysis method according to the spirit of the present invention, and various devices used in the medical industry It may be an image having a form obtained from . However, in the following description of the present specification, for convenience of explanation, magnetic resonance imaging (hereinafter, referred to as 'MRI') related to the brain of the human body will be mainly described, but the spirit of the present specification is not limited thereto.

또한, 본 명세서에서의 '진단보조정보'라 함은 메디컬 이미지로부터 판단할 수 있는 질병과 관련되어 객관적으로 판단될 수 있는 포괄적인 정보를 의미할 수 있다. 일 예로, 본 명세서에서의 진단보조정보라 함은, 특정 질병의 존재 유무 여부일 수 있다. 다른 예로, 진단보조정보는 특정 질병의 진행 정도일 수 있다. 또 다른 예로, 진단보조정보는 질병의 심각도일 수 있다. 또 다른 예로는, 진단보조정보는 평균집단에 대비한 특정 환자의 질환 정도를 수치적으로 나타낸 것일 수도 있다. 이 외에도, 전술한 바와 같이 메디컬 이미지 내에서 판단될 수 있는 질병과 관련된 모든 정보를 통칭하여 본 명세서 내에서 '진단보조정보'라고 표현할 수 있을 것이다.Also, in the present specification, 'diagnostic auxiliary information' may mean comprehensive information that can be objectively determined in relation to a disease that can be determined from a medical image. For example, in the present specification, the diagnosis auxiliary information may indicate whether a specific disease is present or not. As another example, the diagnostic auxiliary information may be a degree of progression of a specific disease. As another example, the diagnostic auxiliary information may be the severity of a disease. As another example, the diagnostic auxiliary information may be a numerical representation of the degree of disease of a specific patient compared to the average group. In addition, as described above, all information related to a disease that can be determined in a medical image may be collectively expressed as 'diagnostic auxiliary information' in the present specification.

먼저, 도 1 및 도 2를 참조하여, 일 실시예에 따른 진단보조정보 제공 시스템의 구성 및 예시적인 구현 예를 살펴보도록 한다.First, with reference to FIGS. 1 and 2 , a configuration and exemplary implementation example of a system for providing diagnostic assistance information according to an embodiment will be described.

도 1은 일 실시예에 따른 진단보조정보 제공 시스템의 일 구현예이고, 도 2는 일 실시예에 따른 진단보조정보 제공 시스템의 구성을 개략적으로 나타낸 블록도이다.1 is an embodiment of a system for providing diagnostic assistance information according to an embodiment, and FIG. 2 is a block diagram schematically illustrating the configuration of a system for providing diagnostic assistance information according to an embodiment.

도 1 및 도 2를 참조하면, 일 실시예에 따른 시스템(10000)은 메디컬 이미지를 분석하여 진단보조정보를 제공할 수 있다.1 and 2 , a system 10000 according to an exemplary embodiment may analyze a medical image to provide diagnostic assistance information.

일 실시예에 따른 시스템(10000)은 영상획득장치(1000) 및 영상분석장치(2000)를 포함할 수 있다.The system 10000 according to an embodiment may include an image acquisition apparatus 1000 and an image analysis apparatus 2000 .

영상획득장치(1000)는 피촬영 객체로부터 메디컬 이미지를 획득할 수 있다. 여기서, 영상획득장치(1000)는 메디컬 이미지를 획득할 수 있는 다양한 장치 또는 시스템을 의미할 수 있다. 일 예로, 도 1에 도시된 바와 같이, 영상획득장치(1000)는 MRI 장치일 수 있다. 다만, 전술한 바와 같이, 본 명세서에서 의미하는 영상획득장치(1000)가 MRI 장치에 국한되는 것이 아님이 이해될 것이다.The image acquisition apparatus 1000 may acquire a medical image from the object to be photographed. Here, the image acquisition device 1000 may refer to various devices or systems capable of acquiring a medical image. For example, as shown in FIG. 1 , the image acquisition apparatus 1000 may be an MRI apparatus. However, as described above, it will be understood that the image acquisition apparatus 1000 as used herein is not limited to the MRI apparatus.

영상분석장치(2000)는 영상획득장치(1000)로부터 획득된 메디컬 이미지를 분석하여 진단보조정보를 제공할 수 있다. 구체적으로, 영상분석장치(2000)는 메디컬 이미지로부터 질병과 관련된 여러 지표들을 추출하고, 추출된 지표들에 기초하여 진단보조정보를 계산할 수 있다. 영상분석장치(2000)에서 수행되는 메디컬 이미지를 분석하는 동작에 관해서는, 후술하여 상세히 설명하도록 하겠다.The image analysis apparatus 2000 may analyze the medical image obtained from the image acquisition apparatus 1000 to provide diagnosis auxiliary information. Specifically, the image analysis apparatus 2000 may extract various disease-related indices from the medical image, and calculate auxiliary diagnosis information based on the extracted indices. An operation of analyzing a medical image performed by the image analysis apparatus 2000 will be described later in detail.

또한, 이상에서는 영상획득장치(1000)와 영상분석장치(2000)는 각각 별도의 장치인 것으로 설명하였으나, 이는 예시일 뿐이며 진단보조정보 제공 시스템(10000)으로써 구현될 수 있는 다양한 형태를 포괄할 수 있다. 즉, 일 실시예에 따른 영상분석장치(2000)는 별도의 서버(server)로서 구현될 수도 있으며, 영상획득장치(1000)에 통합된 프로그램으로 구현될 수도 있다. 다만, 본 명세서에서는, 설명의 편의를 위하여 별도의 영상분석장치(2000)로 구현된 시스템(10000)에 대해서 설명하도록 한다.In addition, in the above, the image acquisition apparatus 1000 and the image analysis apparatus 2000 have been described as separate devices, but this is only an example and may encompass various forms that can be implemented as the diagnostic auxiliary information providing system 10000 . have. That is, the image analysis apparatus 2000 according to an embodiment may be implemented as a separate server, or may be implemented as a program integrated into the image acquisition apparatus 1000 . However, in this specification, for convenience of description, the system 10000 implemented as a separate image analysis apparatus 2000 will be described.

이하에서는, 일 실시예에 따른 영상획득장치와 영상분석장치의 구성에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, the configuration of the image acquisition apparatus and the image analysis apparatus according to an embodiment will be described with reference to the drawings.

도 3은 일 실시예에 따른 영상획득장치의 구성을 나타낸 블록도이다.3 is a block diagram illustrating the configuration of an image acquisition apparatus according to an embodiment.

도 3을 참조하면, 일 실시예에 따른 영상획득장치(1000)는 제1 콘트롤러(1002), 이미지 획득 모듈(1200), 제1 메모리(1400) 및 제1 통신모듈(1800)을 포함할 수 있다.Referring to FIG. 3 , the image acquisition apparatus 1000 according to an embodiment may include a first controller 1002 , an image acquisition module 1200 , a first memory 1400 , and a first communication module 1800 . have.

일 실시예에 따르면, 제1 콘트롤러(1002)는 이미지 획득 모듈(1200)에서 획득한 메디컬 이미지를 제1 통신모듈(1800)을 통해 영상분석장치(2000)에 전송할 수 있다.According to an embodiment, the first controller 1002 may transmit the medical image acquired by the image acquisition module 1200 to the image analysis apparatus 2000 through the first communication module 1800 .

이하에서는 일 실시예에 따른 영상획득장치(1000)의 각 구성에 대해 설명하기로 한다.Hereinafter, each configuration of the image acquisition apparatus 1000 according to an embodiment will be described.

일 실시예에 따르면, 이미지 획득 모듈(1200)은 피촬영 객체에 대한 촬영 결과를 획득할 수 있다. 여기서, 이미지 획득 모듈(1200)은 다양한 메디컬 이미지를 획득하기 위한 구성을 포괄할 수 있다. 일 예로, 이미지 획득 모듈(1200)은 자기공명영상(MRI) 이미지를 획득하기 위한 구성일 수 있다. 다른 예로, 이미지 획득 모듈(1200)은 X-ray 또는 CT 영상을 획득하기 위한 구성일 수도 있다.According to an embodiment, the image acquisition module 1200 may acquire a photographing result of the object to be photographed. Here, the image acquisition module 1200 may include a configuration for acquiring various medical images. As an example, the image acquisition module 1200 may be configured to acquire a magnetic resonance imaging (MRI) image. As another example, the image acquisition module 1200 may be configured to acquire an X-ray or CT image.

여기서, 제1 콘트롤러(1002)는 이미지 획득 모듈의 설정 파라미터를 조절할 수 있다. 예를 들어, 이미지 획득 모듈(1200)이 MRI 이미지를 획득하기 위한 구성인 경우, 제1 콘트롤러(1002)는 MRI 이미지 장치의 반복시간(TR) 및 에코시간(TE)를 조절할 수 있다. 이로써, MRI 이미지 장치는 T1-weighted 이미지 또는 T2-weighted 이미지를 획득할 수 있다. 또한, 제1 콘트롤러(1002)는 MRI 이미지 장치에서 FLAIR 영상을 획득하도록 반전펄스(inversion pulse)와 관련된 파라미터를 조절할 수 있다. Here, the first controller 1002 may adjust a setting parameter of the image acquisition module. For example, when the image acquisition module 1200 is configured to acquire an MRI image, the first controller 1002 may adjust the repetition time TR and the echo time TE of the MRI imaging apparatus. Accordingly, the MRI imaging apparatus may acquire a T1-weighted image or a T2-weighted image. Also, the first controller 1002 may adjust a parameter related to an inversion pulse to obtain a FLAIR image from the MRI imaging apparatus.

일 실시예에 따른 제1 통신모듈(1800)은 외부 장치 또는 외부 서버와 통신을 수행할 수 있다. 영상획득장치(1000)는 제1 통신모듈(1800)을 통해 영상분석장치(2000) 또는 외부기기(또는 서버)와 데이터 통신을 수행할 수 있다. 예를 들어, 영상획득장치(1000)는 제1 통신모듈(1800)를 이용하여, 메디컬 이미지 또는 메디컬 이미지와 관련된 데이터를 영상분석장치(2000) 또는 외부 기기 에 전송할 수 있다. The first communication module 1800 according to an embodiment may communicate with an external device or an external server. The image acquisition apparatus 1000 may perform data communication with the image analysis apparatus 2000 or an external device (or server) through the first communication module 1800 . For example, the image acquisition apparatus 1000 may transmit a medical image or data related to the medical image to the image analysis apparatus 2000 or an external device by using the first communication module 1800 .

제1 통신 모듈(1800)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 영상획득장치(1000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.The first communication module 1800 is largely divided into a wired type and a wireless type. Since the wired type and the wireless type have their respective advantages and disadvantages, in some cases, the image acquisition apparatus 1000 may be provided with both the wired type and the wireless type at the same time.

여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.Here, in the case of the wired type, LAN (Local Area Network) or USB (Universal Serial Bus) communication is a representative example, and other methods are also possible.

또 여기서, 무선 타입의 경우에는 주로 블루투스(RPuetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.In addition, in the case of the wireless type, a communication method of a Wireless Personal Area Network (WPAN) series such as Bluetooth (RPuetooth) or Zigbee may be mainly used. However, since the wireless communication protocol is not limited thereto, the wireless communication module may use a wireless local area network (WLAN)-based communication method such as Wi-Fi or other known communication methods.

제1 메모리(1400)는 각종 정보를 저장할 수 있다. 제1 메모리(1400)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 제1 메모리(1400)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. The first memory 1400 may store various types of information. Various data may be temporarily or semi-permanently stored in the first memory 1400 . Examples of the first memory 1400 include a hard disk (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), and a random access memory (RAM). ), and so on.

제1 메모리(1400)에는 영상획득장치(1000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 영상획득장치(1000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 영상획득장치(1000)의 동작에 필요한 각종 데이터가 저장될 수 있다. The first memory 1400 includes an operating system (OS) for driving the image acquisition apparatus 1000 or a program for operating each component of the image acquisition apparatus 1000 , as well as an operation of the image acquisition apparatus 1000 . Various data necessary for the .

일 실시예에 따른 제1 콘트롤러(1002)는 영상획득장치(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제1 콘트롤러(1002)는 이미지 획득 모듈(1200)로부터 메디컬 이미지를 수신하여 제1 통신모듈(1800)을 통해 데이터 분석 장치(2000)에 전송하도록 제어 신호를 생성할 수 있다. The first controller 1002 according to an embodiment may control the overall operation of the image acquisition apparatus 1000 . For example, the first controller 1002 may receive a medical image from the image acquisition module 1200 and generate a control signal to transmit it to the data analysis apparatus 2000 through the first communication module 1800 .

제1 컨트롤러(1002)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The first controller 1002 may be implemented as a CPU (Central Processing Unit) or a similar device according to hardware, software, or a combination thereof. In hardware, it may be provided in the form of an electronic circuit that performs a control function by processing an electrical signal, and in software, it may be provided in the form of a program or code for driving a hardware circuit.

영상획득장치(1000)는 별도의 전원부를 가지거나 유선 혹은 무선으로 외부로부터 전원을 공급받을 수 있으며 전원부를 제어하는 스위치를 가질수도 있다.The image acquisition apparatus 1000 may have a separate power supply unit or may receive power from the outside by wire or wirelessly, and may have a switch for controlling the power supply unit.

도 4는 일 실시예에 따른 영상분석장치의 구성을 나타낸 블록도이다.4 is a block diagram illustrating the configuration of an image analysis apparatus according to an embodiment.

도 4를 참조하면, 영상분석장치(2000)는 제2 콘트롤러(2002), 제2 메모리(2400), 디스플레이 모듈(2600) 및 제2 통신모듈(2800)을 포함할 수 있다.Referring to FIG. 4 , the image analysis apparatus 2000 may include a second controller 2002 , a second memory 2400 , a display module 2600 , and a second communication module 2800 .

일 실시예에 따르면, 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해 영상획득장치(1000)으로부터 메디컬 이미지를 획득하고, 제2 메모리(2400)에 저장된 분석을 위한 프로그램을 이용하여 상기 메디컬 이미지를 분석하여 메디컬 이미지로부터 진단보조정보를 계산할 수 있다. According to an embodiment, the second controller 2002 acquires a medical image from the image acquisition device 1000 through the second communication module 2800 and uses a program for analysis stored in the second memory 2400 . By analyzing the medical image, diagnosis auxiliary information may be calculated from the medical image.

이하에서는 일 실시예에 따른 영상분석장치(2000)의 각 구성에 대해 설명한다.Hereinafter, each configuration of the image analysis apparatus 2000 according to an embodiment will be described.

제2 메모리(2400)는 영상분석장치(2000)의 각종 정보를 저장할 수 있다.The second memory 2400 may store various types of information of the image analysis apparatus 2000 .

제2 메모리(2200)에는 영상분석장치(2000)를 구동하기 위한 운용 프로그램이나 영상분석장치(2000)의 각 구성을 동작시키기 위한 프로그램을 비롯해, 영상분석장치(2000)의 동작에 필요한 각종 데이터가 저장될 수 있다. 예를 들어, 제2 메모리(2400)에는 메디컬 이미지를 가공하기 위한 프로그램 및/또는 가공된 메디컬 이미지를 분석하기 위한 프로그램 등이 저장될 수 있다. 상기 프로그램들은 머신러닝 알고리즘으로 구현될 수 있으며, 구체적인 설명은 후술하도록 한다. In the second memory 2200 , various data necessary for the operation of the image analysis apparatus 2000 are stored in the second memory 2200 , including an operation program for driving the image analysis apparatus 2000 or a program for operating each component of the image analysis apparatus 2000 . can be saved. For example, a program for processing a medical image and/or a program for analyzing the processed medical image may be stored in the second memory 2400 . The programs may be implemented as a machine learning algorithm, and a detailed description will be given later.

제2 메모리(2400)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. Examples of the second memory 2400 include a hard disk (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), and a random access memory (RAM). ), and so on.

제2 메모리(2400)에는 영상분석장치(2000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 영상분석장치(2000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 영상분석장치(2000)의 동작에 필요한 각종 데이터가 저장될 수 있다.In the second memory 2400 , an operating program (OS) for driving the image analysis apparatus 2000 or a program for operating each component of the image analysis apparatus 2000, as well as an operation of the image analysis apparatus 2000 Various data necessary for the .

제2 통신모듈(2800)은 외부 기기 또는 외부 서버와 통신을 수행할 수 있다. 영상분석장치(2000)는 제2 통신 모듈(2800)을 이용하여 영상획득장치(1000) 또는 외부 서버와 데이터 통신을 수행할 수 있다. 예를 들어, 영상분석장치(2000)는 제2 통신모듈(2800)을 이용하여 영상획득장치(1000)로부터 진단보조정보를 제공하는 데에 필요한 메디컬 이미지를 획득할 수 있다. The second communication module 2800 may communicate with an external device or an external server. The image analysis apparatus 2000 may perform data communication with the image acquisition apparatus 1000 or an external server using the second communication module 2800 . For example, the image analysis apparatus 2000 may acquire a medical image necessary for providing the diagnosis auxiliary information from the image acquisition apparatus 1000 using the second communication module 2800 .

제2 통신 모듈(2800)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 영상분석장치(2000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.The second communication module 2800 is largely divided into a wired type and a wireless type. Since the wired type and the wireless type have their respective strengths and weaknesses, in some cases, the image analysis apparatus 2000 may be provided with both the wired type and the wireless type at the same time.

여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.Here, in the case of the wired type, LAN (Local Area Network) or USB (Universal Serial Bus) communication is a representative example, and other methods are also possible.

또 여기서, 무선 타입의 경우에는 주로 블루투스(RPuetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.In addition, in the case of the wireless type, a communication method of a Wireless Personal Area Network (WPAN) series such as Bluetooth (RPuetooth) or Zigbee may be mainly used. However, since the wireless communication protocol is not limited thereto, the wireless communication module may use a wireless local area network (WLAN)-based communication method such as Wi-Fi or other known communication methods.

제2 콘트롤러(2002)는 영상분석장치(2000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제2 메모리(2400)로부터 이미지 데이터 가공 및 분석을 위한 프로그램을 로딩하여 영상획득장치(1000)로부터 획득한 메디컬 이미지를 가공 및 분석하고, 그 결과를 제2 통신모듈(2800)을 통해 외부 기기 또는 외부 서버에 제공하도록 제어 신호를 생성할 수 있다. 영상분석장치(2000)에서 수행되는 구체적인 진단보조정보 제공 방법에 대해서는 후술하여 자세히 설명하도록 한다.The second controller 2002 may control the overall operation of the image analysis apparatus 2000 . For example, the second controller 2002 loads a program for image data processing and analysis from the second memory 2400, processes and analyzes the medical image acquired from the image acquisition device 1000, and displays the result. 2 A control signal may be generated to be provided to an external device or an external server through the communication module 2800 . A detailed method for providing diagnostic auxiliary information performed by the image analysis apparatus 2000 will be described later in detail.

제2 컨트롤러(2002)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The second controller 2002 may be implemented as a central processing unit (CPU) or a similar device according to hardware, software, or a combination thereof. In hardware, it may be provided in the form of an electronic circuit that performs a control function by processing an electrical signal, and in software, it may be provided in the form of a program or code for driving a hardware circuit.

또한, 영상분석장치(2000)는 메디컬 이미지 분석 결과를 출력하기 위한 별도의 디스플레이 모듈(2600)을 더 포함할 수 있다. 디스플레이 모듈은 유저에게 정보를 제공할 수 있도록 다양하게 구현될 수 있다. 여기서, 제2 콘트롤러(2002)는 영상획득장치(1000)로부터 획득한 메디컬 이미지를 가공 및 분석하고, 그 결과를 디스플레이 모듈(2600)을 통해 제공하기 위한 제어 신호를 생성할 수도 있다.Also, the image analysis apparatus 2000 may further include a separate display module 2600 for outputting a medical image analysis result. The display module may be implemented in various ways to provide information to the user. Here, the second controller 2002 may process and analyze the medical image acquired from the image acquisition apparatus 1000 , and generate a control signal for providing the result through the display module 2600 .

이하에서는, 일 실시예에 따른 진단보조정보 제공 시스템이 수행하는 메디컬 이미지를 분석하여 진단보조정보를 제공하는 방법에 대해 구체적으로 살펴보기로 한다.Hereinafter, a method of providing diagnostic auxiliary information by analyzing a medical image performed by the diagnostic auxiliary information providing system according to an exemplary embodiment will be described in detail.

도 5는 일 실시예에 따른 진단보조정보 제공 시스템에서 수행되는 진단보조정보 제공 방법의 개괄적인 순서도이다.5 is a schematic flowchart of a method for providing auxiliary diagnostic information performed in a system for providing auxiliary diagnostic information according to an exemplary embodiment.

도 5를 참조하면, 일 실시예에 따른 진단보조정보 제공 동작은 메디컬 이미지를 획득하는 단계(S1000), 획득된 메디컬 이미지를 분석하는 단계(S1200) 및 분석 결과에 기초하여 진단보조정보를 제공하는 단계(S1400)를 포함할 수 있다.Referring to FIG. 5 , the operation of providing diagnostic auxiliary information according to an exemplary embodiment includes obtaining a medical image (S1000), analyzing the obtained medical image (S1200), and providing diagnostic auxiliary information based on the analysis result. It may include a step (S1400).

먼저, 일 실시예에 따른 진단보조정보 제공 시스템(10000)은 피촬영 객체로부터 메디컬 이미지를 획득할 수 있다. 구체적으로, 영상획득장치(1000)는 환자 또는 시료와 같은 피촬영 객체로부터, 진단보조정보를 획득하기 위한 메디컬 이미지를 획득할 수 있다. 보다 더 구체적으로, 영상획득장치(1000) 내의 이미지 획득 모듈(1200)은 피촬영 객체를 촬영하여 메디컬 이미지를 획득하고, 획득된 메디컬 이미지를 제1 통신모듈(1800)을 통해 영상분석장치(2000)로 전송할 수 있다. 여기서, 메디컬 이미지는 복수개일 수 있다. 즉, 영상획득장치(1000)는 피촬영 객체로부터, 특정 방향 또는 특정 평면에 대한 복수개의 단층 이미지를 획득할 수 있다. First, the diagnostic assistance information providing system 10000 according to an embodiment may acquire a medical image from an object to be photographed. Specifically, the image acquisition apparatus 1000 may acquire a medical image for acquiring diagnostic auxiliary information from an object to be photographed, such as a patient or a sample. More specifically, the image acquisition module 1200 in the image acquisition device 1000 captures the object to be photographed to acquire a medical image, and uses the acquired medical image to the image analysis device 2000 through the first communication module 1800 . ) can be transmitted. Here, there may be a plurality of medical images. That is, the image acquisition apparatus 1000 may acquire a plurality of tomographic images for a specific direction or a specific plane from the object to be photographed.

여기서, 복수의 메디컬 이미지는 3차원의 정보를 포함할 수 있다. 즉, 메디컬 이미지는 3D 이미지로서 획득될 수도 있다. Here, the plurality of medical images may include three-dimensional information. That is, the medical image may be acquired as a 3D image.

또한 여기서, 특정 방향 및 특정 평면은 피촬영 객체의 횡평면(transverse plane), 시상면(saggital plane), 관상면(coronal plane) 등, 피촬영 객체로부터 획득될 수 있는 모든 방향과 평면에 관한 정보를 포함할 수 있다. Also, here, the specific direction and specific plane are information about all directions and planes that can be obtained from the object to be photographed, such as the transverse plane, sagittal plane, coronal plane, etc. of the object to be photographed. may include.

이후, 진단보조정보 제공 시스템(10000)은 메디컬 이미지를 분석할 수 있다.(S1200) 영상분석장치(2000)는 영상획득장치(1000)로부터 전송받은 메디컬 이미지를 분석할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 분석을 위한 프로그램을 이용하여 제2 통신모듈(2800)을 통해 수신한 메디컬 이미지를 분석할 수 있다. 일 예로, 제2 콘트롤러(2002)는, 제2 메모리(2400)에 저장된 프로그램을 이용하여 메디컬 이미지를 세그멘테이션 할 수 있다. Thereafter, the diagnostic auxiliary information providing system 10000 may analyze the medical image. (S1200) The image analysis apparatus 2000 may analyze the medical image received from the image acquisition apparatus 1000 . Specifically, the second controller 2002 may analyze the medical image received through the second communication module 2800 using a program for image analysis stored in the second memory 2400 . For example, the second controller 2002 may segment the medical image using a program stored in the second memory 2400 .

이후, 진단보조정보 제공 시스템(10000)은 메디컬 이미지의 분석 결과에 기초하여 진단보조정보를 획득할 수 있다 (S1400). 즉, 영상분석장치(2000)는 제2 메모리(2400)에 저장된 진단보조정보 획득을 위한 프로그램을 이용하여, 분석된 메디컬 이미지로부터 메디컬 이미지에 포함된 진단보조정보를 획득할 수 있다. 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해 계산된 진단보조정보를 외부기기 또는 외부 서버로 전송하거나, 별도로 구비한 디스플레이 모듈(2600) 등을 이용하여 진단보조정보를 출력할 수 있다.Thereafter, the diagnostic auxiliary information providing system 10000 may acquire the diagnostic auxiliary information based on the analysis result of the medical image ( S1400 ). That is, the image analysis apparatus 2000 may acquire the diagnostic auxiliary information included in the medical image from the analyzed medical image by using the program for obtaining the diagnostic auxiliary information stored in the second memory 2400 . The second controller 2002 may transmit the diagnostic auxiliary information calculated through the second communication module 2800 to an external device or an external server, or output the diagnostic auxiliary information using a separately provided display module 2600, etc. have.

이상에서는, 일 실시예에 따라 진단보조정보 제공 시스템(10000)에서 수행되는 진단보조정보 제공 방법에 대해 개괄적으로 살펴보았다. 이하부터는, 진단보조정보 제공 시스템(10000)에서 수행되는 진단보조정보 제공 방법의 각 단계에 대해 세분화된 동작이나 내용에 대해 설명하도록 한다.In the above, a method for providing diagnostic auxiliary information performed by the diagnostic auxiliary information providing system 10000 according to an exemplary embodiment has been overviewed. Hereinafter, detailed operations or contents of each step of the method for providing diagnostic auxiliary information performed by the diagnostic auxiliary information providing system 10000 will be described.

먼저, 메디컬 이미지 획득단계(S1000)와 관련하여, 일 실시예에 따라 영상획득장치(1000)에서 획득될 수 있는 다양한 메디컬 이미지의 예시들을 살펴보기로 한다.First, in relation to the medical image acquisition step ( S1000 ), examples of various medical images that can be acquired by the image acquisition apparatus 1000 according to an embodiment will be described.

도 6은 일 실시예에 따른 메디컬 이미지의 예시이다.6 is an example of a medical image according to an embodiment.

도 6을 참조하면, 일 실시예에 따른 메디컬 이미지는 다양한 형태로 구현되는 영상획득장치(1000)에 의해 획득될 수 있다. 메디컬 이미지는 다양한 컴퓨터 단층영상 촬영장치에서 촬영된 영상일 수 있다. 또한, 전술한 바와 같이 메디컬 이미지는 복수개의 슬라이스 이미지(slice image)로 구성된 단층영상의 집합일 수도 있다.Referring to FIG. 6 , a medical image according to an embodiment may be acquired by the image acquisition apparatus 1000 implemented in various forms. The medical image may be an image captured by various computed tomography imaging devices. Also, as described above, the medical image may be a set of tomographic images composed of a plurality of slice images.

일 예로, 메디컬 이미지는 MRI 장치에서 촬영된 MRI 이미지 일 수 있다. (a), (b)는 MRI 장치에서 촬영된 환자의 다양한 신체 부위를 도시한 것이다. 다른 예로, 메디컬 이미지는 X-ray 장치에서 촬영된 X-ray 이미지 일 수 있다. (c)는 X-ray 장치에서 촬영된 환자의 X-ray 이미지를 도시한 것이다. 또 다른 예로, 메디컬 이미지는 CT 장치에서 촬영된 CT 이미지일 수 있다. (d)는 CT 장치에서 촬영된 환자의 CT 이미지를 도시한 것이다.For example, the medical image may be an MRI image captured by an MRI apparatus. (a) and (b) show various body parts of a patient photographed by an MRI apparatus. As another example, the medical image may be an X-ray image captured by an X-ray apparatus. (c) shows the X-ray image of the patient taken by the X-ray device. As another example, the medical image may be a CT image taken by a CT apparatus. (d) shows the CT image of the patient taken by the CT device.

또한, 일 실시예에 따른 메디컬 이미지는 다양한 신체부위에 관한 이미지일 수 있다. 도 6을 다시 참조하면, 메디컬 이미지는 환자의 뇌나 폐 등의 장기 뿐만 아니라, 척추와 같은 골격, 신경구조를 모두 포괄하는 신체 부위에 관한 이미지일 수 있다.Also, the medical image according to an embodiment may be an image of various body parts. Referring back to FIG. 6 , the medical image may be an image of a body part that encompasses not only organs such as the brain or lungs of a patient, but also a skeleton such as a spine and a neural structure.

일 실시예에 따른 메디컬 이미지는, 메디컬 이미지를 획득하는 영상획득장치(1000)의 설정 파라미터에 따라 이미지 내에 포함된 정보가 달라질 수 있다. In the medical image according to an embodiment, information included in the image may vary according to a setting parameter of the image acquisition apparatus 1000 for acquiring the medical image.

도 7은 일 실시예에 따른 다양한 획득 조건에 따른 메디컬 이미지의 예시를 나타낸 것이다.7 illustrates an example of a medical image according to various acquisition conditions according to an exemplary embodiment.

도 7을 참조하면, 일 실시예에 따른 영상획득장치(1000)는 장치의 파라미터 설정에 따라 다양한 영상을 획득할 수 있다. 예시적으로, 영상획득장치(1000)가 MRI 장치로 구현된 경우, 영상획득장치(1000)는 마그네틱 컨디션(magnetic condition)에 관련된 파라미터를 조절함으로써, 다양한 정보를 포함하고 있는 메디컬 이미지를 획득할 수 있다.Referring to FIG. 7 , the image acquisition apparatus 1000 according to an embodiment may acquire various images according to parameter settings of the apparatus. For example, when the image acquisition apparatus 1000 is implemented as an MRI apparatus, the image acquisition apparatus 1000 may acquire a medical image including various information by adjusting a parameter related to a magnetic condition. have.

보다 구체적인 예시로, 영상획득장치(1000)는 짧은 TR/TE 시간을 갖도록 파라미터를 설정하여, T1-weighted 이미지를 획득할 수 있다. T1-weighted 이미지는 신호강도가 높아 해부학적 구조물을 명확히 구분하는 데에 유용하다. 즉, T1-weighted 이미지는 인체의 해부학적 특성을 판단하는 데에 주로 이용된다.As a more specific example, the image acquisition apparatus 1000 may obtain a T1-weighted image by setting a parameter to have a short TR/TE time. T1-weighted images are useful for clearly distinguishing anatomical structures due to their high signal intensity. That is, the T1-weighted image is mainly used to determine the anatomical characteristics of the human body.

또한, 영상획득장치(1000)는 긴 TR/TE 시간을 갖도록 파라미터를 설정하여 T2-weighted 이미지를 획득할 수 있으며, 반전펄스(inversion pulse)를 이용하여 FLAIR(Fluid attenuated inversion recovery) 이미지를 획득할 수도 있다. T2-weighted 이미지와 FLAIR 이미지는 수분이 함유된 영역이 하얗게 보이는 것이 특징이며, 병변영역은 주로 수분 함유량이 높기 때문에, 병변영역을 발견하는 데에 유용하게 이용된다.In addition, the image acquisition device 1000 may acquire a T2-weighted image by setting parameters to have a long TR/TE time, and using an inversion pulse to acquire a FLAIR (Fluid attenuated inversion recovery) image. may be The T2-weighted image and the FLAIR image are characterized in that the water-containing area appears white, and the lesion area is mainly used for detecting the lesion area because the water content is high.

이 외에도, 확산강조영상(DWI) 이나, PET, fMRI 등의 특수촬영 기법을 이용한 메디컬 이미지도 본 명세서의 사상에 포함될 수 있다. In addition, medical images using special imaging techniques such as diffusion-weighted imaging (DWI), PET, and fMRI may also be included in the scope of the present specification.

이상에서는, 일 실시예에 따른 메디컬 이미지 획득 단계(S1000)에서 획득되는 다양한 메디컬 이미지들의 예시를 살펴보았다. 이하에서는, 획득된 메디컬 이미지를 분석하는 단계(S1200)에 대한 세부내용에 대해 살펴보기로 한다.In the above, examples of various medical images acquired in the medical image acquisition step (S1000) according to an embodiment have been described. Hereinafter, details of the step ( S1200 ) of analyzing the acquired medical image will be described.

도 8은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지 분석 동작의 세부동작을 나타낸 순서도이다.8 is a flowchart illustrating detailed operations of a medical image analysis operation performed by an image analysis apparatus according to an exemplary embodiment.

도 8을 참조하면, 일 실시예에 따른 메디컬 이미지 분석 동작은 메디컬 이미지를 세그멘테이션하는 단계(S2002), 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 단계(S2004), 추출된 질병 인덱스에 기초하여 진단보조정보를 획득하는 단계(S2006)을 포함할 수 있다.Referring to FIG. 8 , the medical image analysis operation according to an embodiment includes the steps of segmenting the medical image (S2002), extracting a disease index from the segmented medical image (S2004), and assisting diagnosis based on the extracted disease index It may include obtaining information (S2006).

먼저, 영상분석장치(2000)는 메디컬 이미지를 세그멘테이션 할 수 있다(S2002). 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 세그멘테이션을 위한 프로그램을 이용하여 메디컬 이미지를 세그멘테이션 할 수 있다. 예시적으로, 제2 콘트롤러(2002)는 뇌와 관련된 메디컬 이미지를 뇌의 영역별로 세그멘테이션 할 수 있다. 여기서, 뇌의 영역은 메디컬 이미지 내에서 발견되는 병변을 의미할 수 있으며, 또한 메디컬 이미지 내에서 발견되는 뇌의 구조적인 영역을 의미할 수도 있다. 즉, 메디컬 이미지 내에서 발견되는 뇌의 영역은, 이미지 내에서 구별될 수 있는 모든 객체를 포함할 수 있다. 정리하자면, 제2 콘트롤러(2002)는 뇌와 관련된 메디컬 이미지를 적어도 2 이상의 영역으로 구분되도록 세그멘테이션 할 수 있다. First, the image analysis apparatus 2000 may segment the medical image (S2002). Specifically, the second controller 2002 may segment the medical image using a program for image segmentation stored in the second memory 2400 . For example, the second controller 2002 may segment a brain-related medical image for each brain region. Here, the brain region may refer to a lesion found in the medical image, or may also refer to a structural region of the brain found in the medical image. That is, the region of the brain found in the medical image may include all objects that can be distinguished in the image. In summary, the second controller 2002 may segment the brain-related medical image into at least two or more regions.

제2 메모리(2002)에 저장된 이미지 세그멘테이션을 위한 프로그램은 머신러닝 알고리즘으로 구현될 수 있으며, 이에 관해서는 후술하여 상세히 설명하도록 하겠다.A program for image segmentation stored in the second memory 2002 may be implemented as a machine learning algorithm, which will be described later in detail.

메디컬 이미지 세그멘테이션 단계(S2002) 이후, 영상분석장치(2000)는 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출할 수 있다(S2004). 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 알고리즘을 이용하여 세그멘테이션 된 메디컬 이미지에 포함된 각 영역에 기초하여 질병 인덱스를 추출할 수 있다. After the medical image segmentation step (S2002), the image analysis apparatus 2000 may extract a disease index from the segmented medical image (S2004). Specifically, the second controller 2002 may extract a disease index based on each region included in the segmented medical image using an algorithm stored in the second memory 2400 .

본 명세서에서, 질병 인덱스는 메디컬 이미지 내의 뇌의 각 영역간의 관계를 특정 질병과 관련하여 표현한 지표로 정의될 수 있다. 질병 인덱스는 예시적으로 파제카 스케일(Fazekas scale), ARWMC(Age-related whitematter change), Posterior atrophy score of parietal atrophy, MTA(Medial temporal lobe atrophy score), Orbito-Frontal, Anterior Cingulate, Fronto-Insula, Anterior Temporal Scale 등을 포함하여, 메디컬 이미지로부터 질병에 관한 정보를 추출할 수 있는 다양한 지표가 이용될 수 있음이 이해될 것이다. In the present specification, the disease index may be defined as an index expressing the relationship between each region of the brain in a medical image in relation to a specific disease. Disease index is illustratively Fazekas scale (Fazekas scale), ARWMC (Age-related whitematter change), Posterior atrophy score of parietal atrophy, MTA (Medial temporal lobe atrophy score), Orbito-Frontal, Anterior Cingulate, Fronto-Insula, It will be understood that various indicators capable of extracting disease-related information from a medical image may be used, including the Anterior Temporal Scale and the like.

질병 인덱스 추출 단계(S2004) 이후, 영상분석장치(2000)는 추출된 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 알고리즘을 이용하여, 추출된 질병 인덱스에 기초하여 메디컬 이미지로부터 질병에 관한 정보를 획득하고, 획득된 결과를 출력할 수 있다.After the disease index extraction step ( S2004 ), the image analysis apparatus 2000 may provide diagnosis auxiliary information based on the extracted disease index. Specifically, the second controller 2002 may use an algorithm stored in the second memory 2400 to obtain information about a disease from a medical image based on the extracted disease index, and output the obtained result.

이하에서는, 먼저 질병 인덱스 추출을 위하여 세그멘테이션 된 메디컬 이미지의 예시를 살펴보고, 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 다양한 실시예들에 대해서 도 9를 참조하여 살펴보기로 한다.Hereinafter, an example of a medical image segmented for disease index extraction will be first described, and various embodiments of extracting a disease index from the segmented medical image will be described with reference to FIG. 9 .

도 9는 일 실시예에 따른 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.9 illustrates an example of a segmented medical image according to an embodiment.

도 9를 참조하면, 영상분석장치(2000)에서 세그멘테이션 된 메디컬 이미지의 예시들이 도시되어 있다.Referring to FIG. 9 , examples of medical images segmented by the image analysis apparatus 2000 are illustrated.

도 9를 참조하면, 영상분석장치(2000)는 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 세그멘테이션은 영상분석장치(2000)가 메디컬 이미지에 포함된 단위 셀(cell)들에 특정 값을 부여하는 것을 의미할 수 있다. 구체적으로, 세그멘테이션은 제2 콘트롤러(2002)가 메디컬 이미지에 포함된 픽셀(pixel) 이나 복셀(voxel)등에 특징 값을 레이블링 하는 것을 의미할 수 있다. 일 예로, 제2 콘트롤러(2002)는, 메디컬 이미지에 포함된 복수의 픽셀에 뇌의 영역을 지칭하는 특징값을 레이블링 할 수 있다. Referring to FIG. 9 , the image analysis apparatus 2000 may segment a medical image. Here, the segmentation may mean that the image analysis apparatus 2000 assigns a specific value to unit cells included in the medical image. Specifically, the segmentation may mean that the second controller 2002 labels a feature value on a pixel or a voxel included in a medical image. As an example, the second controller 2002 may label a plurality of pixels included in the medical image with feature values indicating brain regions.

영상분석장치(2000)는 메디컬 이미지의형식(form)에 대응되도록, 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 메디컬 이미지의 형식(form)은 메디컬 이미지가 획득될 때의 획득 조건획득 조건에 대응될 수 있다. 일 예로, 메디컬 이미지가 특정 마그네틱 컨디션 하에서 촬영되는 경우, 메디컬 이미지는 T1-weighted 이미지의 형식(form)을 가질 수 있는 것이다. 본 명세서에서의 이하의 설명에서는, 설명의 편의를 위하여 메디컬 이미지의 형식(form)과 메디컬 이미지의 획득 조건 등의 용어를 혼용하여 사용할 것이나 본 명세서의 사상이 용어의 사용으로 인해 달라지는 것이 아님은 이해될 것이다. 또한, 메디컬 이미지의 형식(form)이나 메디컬 이미지의 획득 조건에 따라 메디컬 이미지가 포함하고 있는 특성(예를 들어, 해부학적 특성 또는 병변적 특성)이 달라질 수 있으므로, 메디컬 이미지의 특성이라는 용어도 혼용되어 사용될 수 있을 것이다. The image analysis apparatus 2000 may segment the medical image to correspond to the form of the medical image. Here, the form of the medical image may correspond to the acquisition condition when the medical image is acquired. For example, when the medical image is taken under a specific magnetic condition, the medical image may have the form of a T1-weighted image. In the following description in this specification, terms such as the form of the medical image and the conditions for obtaining the medical image will be used interchangeably for convenience of explanation, but it is understood that the spirit of the present specification does not change due to the use of the term. will be In addition, since characteristics (eg, anatomical characteristics or lesion characteristics) included in the medical image may vary depending on the form of the medical image or the conditions for obtaining the medical image, the term characteristics of the medical image is also used interchangeably. and will be able to be used

구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 세그멘테이션을 위한 프로그램을 이용하여, 메디컬 이미지의 특성이 반영되도록 메디컬 이미지를 세그멘테이션 할 수 있다. Specifically, the second controller 2002 may segment the medical image so that characteristics of the medical image are reflected by using the image segmentation program stored in the second memory 2400 .

제2 콘트롤러(2002)는 메디컬 이미지에 포함된 픽셀에 뇌의 영역을 지칭하는 값을 레이블링 할 수 있다. 즉, FLAIR 이미지로 구현된 메디컬 이미지 내라면, 제2 콘트롤러(2002)는 백질, 회백질, 뇌실 등으로 구별된 픽셀들에 각각의 영역을 지칭하는 값을 레이블링 할 수 있다. The second controller 2002 may label a pixel included in the medical image with a value indicating a brain region. That is, if it is within a medical image implemented as a FLAIR image, the second controller 2002 may label the pixels divided into white matter, gray matter, ventricle, and the like, with values indicating respective regions.

예시적으로, (a)는 영상분석장치(2000)가 T1-weighted MRI 이미지를 세그멘테이션 한 것이고, (b)는 영상분석장치(2000)가 T2-FLAIR MRI 이미지를 세그멘테이션 한 것이다.Exemplarily, (a) is a segmentation of the T1-weighted MRI image by the image analysis apparatus 2000, and (b) is a segmentation of the T2-FLAIR MRI image by the image analysis apparatus 2000.

도면에 도시되어 있는 바와 같이, (a) T1-weighted MRI 이미지는 뇌의 해부학적 특성을 파악하기 용이하다. 즉, 영상분석장치(2000)가 T1-weighted MRI 이미지를 세그멘테이션 하는 경우, 영상분석장치(2000)는 뇌를 구성하는 각 부분이 구별되도록 세그멘테이션 할 수 있다. 예를 들어, 일 실시예에 따른 영상분석 장치(2000)는 대뇌, 소뇌, 간뇌, 해마 등 뇌에 포함된 기관이 구별되도록 뇌를 세그멘테이션 할 수도 있고 측두엽, 전두엽, 후두엽 등 뇌의 부위별 위치에 따라 구별되도록 뇌를 세그멘테이션 할 수도 있으며, 이들을 조합하여 세그멘테이션 하는 것도 가능하다. 이처럼, 뇌의 해부학적 특성이 잘 관측되는 T1-weighted MRI 이미지를 분석하여 진단보조정보를 획득하는 경우, 영상분석장치(2000)는 위축성 알츠하이머와 같이, 뇌의 해부학적 특성과 관련있는 질병 정보를 용이하게 분석할 수 있다. As shown in the figure, (a) T1-weighted MRI image is easy to grasp the anatomical characteristics of the brain. That is, when the image analysis apparatus 2000 segments the T1-weighted MRI image, the image analysis apparatus 2000 may segment the brain so that each part constituting the brain is distinguished. For example, the image analysis apparatus 2000 according to an embodiment may segment the brain so that organs included in the brain, such as the cerebrum, cerebellum, diencephalon, and hippocampus, are distinguished. It is also possible to segment the brain so that it can be distinguished according to each other, and it is also possible to segment them by combining them. As such, when the diagnostic auxiliary information is obtained by analyzing the T1-weighted MRI image in which the anatomical characteristics of the brain are well observed, the image analysis apparatus 2000 collects disease information related to the anatomical characteristics of the brain, such as atrophic Alzheimer's. can be easily analyzed.

또한, (b) T2 FLAIR MRI 이미지는 뇌의 병변적 특성을 파악하기 용이하다. 일 실시예에 따른 영상분석장치(2000)가 T2-FLAIR MRI 이미지를 세그멘테이션 하는 경우, 영상분석장치(2000)는 뇌의 병변적 특성이 구별되도록 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 뇌의 병변적 특성은 메디컬 이미지에서 관측되는 백질고강도신호(white matter hyperintensity, 이하 'WMH'라 칭함)를 통해 검출될 수 있다. 즉, 영상분석장치(2000)는 T2-FLAIR MRI 이미지에서, WMH와 뇌를 구성하는 물질이나 다른 영역들이 구별되도록 메디컬 이미지를 세그멘테이션 할 수 있다. 여기서, 뇌(또는 사람의 머리)를 구성하는 물질들은, 백질(white matter), 회백질(graymatter), 스컬(skull) 등이 있을 것이고, 다른 영역에는 뇌실(ventricle) 등이 있을 수 있다. 영상분석장치(2000)는 WMH의 위치와 뇌의 다른 구성들간의 관계에 기초하여 질병 인덱스를 추출할 수 있으며, 이에 관해서는 후술하여 상세히 설명하도록 하겠다.In addition, (b) T2 FLAIR MRI image is easy to understand the lesion characteristics of the brain. When the image analysis apparatus 2000 according to an embodiment segments the T2-FLAIR MRI image, the image analysis apparatus 2000 may segment the medical image so that lesion characteristics of the brain are distinguished. Here, the lesion characteristics of the brain can be detected through white matter hyperintensity (hereinafter referred to as 'WMH') observed in the medical image. That is, the image analysis apparatus 2000 may segment the medical image in the T2-FLAIR MRI image so that the WMH and the material or other regions constituting the brain are distinguished. Here, the materials constituting the brain (or the head of a person), white matter (white matter), gray matter (graymatter), the skull (skull), etc. will be there, in other areas there may be a ventricle (ventricle) and the like. The image analysis apparatus 2000 may extract a disease index based on the relationship between the location of the WMH and other brain components, which will be described later in detail.

도면에서는 예시적으로 T1-weighted MRI 이미지와 T2-FLAIR MRI 이미지 위주로 설명하였으나, 전술한 바와 같이 본 명세서의 사상이 이에 국한되는 것은 아니며 DWI, SWI 등의 다른 마그네틱 컨디션 조건하에서 촬영된 MRI 이미지나, X-ray, CT 등 다른 촬영기기로 촬영된 메디컬 이미지가 모두 이용될 수 있다.In the drawings, the T1-weighted MRI image and the T2-FLAIR MRI image have been mainly described, but as described above, the spirit of the present specification is not limited thereto. All medical images taken with other imaging devices such as X-ray and CT may be used.

또한, 영상분석장치(2000)는 특정 특성을 가지는(즉, 특정 획득 조건 하에서 획득된) 메디컬 이미지가, 다른 특성에 관한 정보를 포함하도록 세그멘테이션을 수행할 수도 있다. 구체적으로, 제2 콘트롤러(2002)는, 제2 메모리(2400)에 저장된 머신러닝 알고리즘을 이용하여 제1 조건하에서 촬영되어 제1 특성을 가지는 메디컬 이미지에, 제1 특성 뿐 아니라 제2 조건하에서 촬영되는 경우 획득될 수 있는 제2 특성의 정보를 함께 포함하도록 세그멘테이션을 수행할 수 있다. 예를 들어, T2-FLAIR MRI 이미지를 세그멘테이션 하는 경우, 영상분석장치(2000)는 T1-weighted MRI 이미지에서 관측될 수 있는 해부학적 정보까지 함께 포함되도록 T2-FLAIR 이미지를 세그멘테이션 할 수 있다. 이와 관련하여는 후술하여 도면을 참조하여 상세히 설명하도록 하겠다. Also, the image analysis apparatus 2000 may segment a medical image having a specific characteristic (ie, acquired under a specific acquisition condition) to include information about other characteristics. Specifically, the second controller 2002 uses a machine learning algorithm stored in the second memory 2400 to photograph a medical image having the first characteristic taken under the first condition under the second condition as well as the first characteristic. Segmentation may be performed to include information of the second characteristic that may be obtained if necessary. For example, when the T2-FLAIR MRI image is segmented, the image analysis apparatus 2000 may segment the T2-FLAIR image to include anatomical information that can be observed in the T1-weighted MRI image. In this regard, it will be described later in detail with reference to the drawings.

이하에서는, 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 구체적인 방법의 일 구현예에 대하여 도면을 참조하여 설명하도록 한다.Hereinafter, an embodiment of a specific method for extracting a disease index from a segmented medical image will be described with reference to the drawings.

도 10은 일 실시예에 따른 메디컬 이미지로부터 질병 인덱스를 추출하는 방법의 일 예를 나타낸 순서도이고, 도 11은 기준 영역과 기준 바운더리가 도시된 메디컬 이미지의 일 예이며, 도 12는 대상 영역의 영역정보를 획득하는 일 예이며, 도 13은 대상 영역의 영역정보를 획득하는 다른 예시이다. 도 14는 계산된 질병 인덱스에 기초하여 획득된 진단보조정보가 제공되는 일 구현예이다.10 is a flowchart illustrating an example of a method of extracting a disease index from a medical image according to an embodiment, FIG. 11 is an example of a medical image showing a reference region and a reference boundary, and FIG. 12 is an area of the target region This is an example of obtaining information, and FIG. 13 is another example of obtaining area information of the target area. 14 is an exemplary embodiment in which diagnostic auxiliary information obtained based on a calculated disease index is provided.

먼저, 도 10을 참조하여 개괄적인 플로우에 대하여 설명한다. 일 실시예에 따라 영상분석장치(2000)에서 수행되는 세그멘테이션 된 메디컬 이미지로부터 질병 인덱스를 추출하는 방법은 세그멘테이션 된 메디컬 이미지에서 기준 영역을 검출하는 단계(S2102), 검출된 기준 영역에 기초하여 기준 바운더리를 설정하는 단계(S2104) 및 기준 바운더리와 대상 영역의 관계에 기초하여 질병 인덱스를 추출하는 단계(S2106)을 포함할 수 있다.First, a general flow will be described with reference to FIG. 10 . According to an embodiment, the method of extracting a disease index from a segmented medical image performed by the image analysis apparatus 2000 includes detecting a reference region in the segmented medical image (S2102), and a reference boundary based on the detected reference region. It may include setting (S2104) and extracting a disease index based on the relationship between the reference boundary and the target region (S2106).

영상분석장치(2000)는 세그멘테이션 된 메디컬 이미지로부터 기준 영역을 검출할 수 있다.(S2102) 구체적으로, 제2 콘트롤러(2002)는, 세그멘테이션 된 메디컬 이미지에서 기준 영역을 지시하도록 레이블링 된 픽셀들을 검출하고, 이들의 집합을 기준 영역으로 판단할 수 있다. 여기서, 기준 영역은, 후술할 바와 같이 메디컬 이미지 내에 포함되어 특정 질병 인덱스를 계산하기 위한 기준이 되는 영역을 의미할 수 있다. 일 예로, 기준 영역은 뇌실(ventricle) 영역일 수 있다. 다른 예로, 기준 영역은 백질 영역일 수 있다.The image analysis apparatus 2000 may detect the reference region from the segmented medical image. (S2102) Specifically, the second controller 2002 detects pixels labeled to indicate the reference region in the segmented medical image, and , a set of these can be determined as a reference area. Here, the reference region may refer to a region that is included in the medical image and serves as a reference for calculating a specific disease index, as will be described later. For example, the reference region may be a ventricle region. As another example, the reference region may be a white matter region.

여기서, 기준 영역은 기준 영역을 지시하도록 레이블링 된 픽셀들의 집합에서 일정 영역 이상의 버퍼영역이 추가된 영역일 수 있다. 기준영역은 기준 영역을 지시하도록 레이블링 된 픽셀들의 집합에서 외곽 부분의 일정 픽셀들은 제거한 영역으로 정의될 수 있다. Here, the reference area may be an area to which a buffer area of a predetermined area or more is added from a set of labeled pixels to indicate the reference area. The reference region may be defined as a region in which certain pixels of an outer portion are removed from a set of pixels labeled to indicate the reference region.

또한, 영상분석장치(2000)는 세그멘테이션 된 메디컬 이미지로부터 분석 대상에 대응되는 영역을 검출할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 분석 대상을 지시하도록 레이블링 된 픽셀들을 검출하고, 이들의 집합을 분석 대상 영역(이하 '대상 영역'이라 칭함)으로 판단할 수 있다.여기서, 대상 영역은, 후술할 바와 같이 메디컬 이미지 내에 포함될 수 있으며, 특정 질병 인덱스를 계산하기 위한 분석의 대상이 되는 영역을 의미할 수 있다. 일 예로, 대상 영역은 WMH 영역을 의미할 수 있다. 대상 영역을 검출하는 방식은 전술한 뇌실 영역을 검출하는 방식과 유사하므로, 자세한 설명은 생략하도록 하겠다.Also, the image analysis apparatus 2000 may detect a region corresponding to the analysis target from the segmented medical image. Specifically, the second controller 2002 may detect pixels labeled to indicate an analysis target, and determine a set of them as an analysis target area (hereinafter referred to as a 'target area'). Here, the target area is, As will be described later, it may be included in a medical image, and may mean an area to be analyzed for calculating a specific disease index. For example, the target area may mean a WMH area. Since the method of detecting the target region is similar to the method of detecting the ventricular region described above, a detailed description thereof will be omitted.

기준 영역이 검출되면, 영상분석장치(2000)는 검출된 기준 영역에 기초하여 기준 바운더리를 설정할 수 있다.(S2104). 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지 내에서 검출된 뇌실 영역으로부터 미리 정해진 거리만큼 떨어져 있는 경계를 기준 바운더리로 설정할 수 있다. When the reference region is detected, the image analysis apparatus 2000 may set a reference boundary based on the detected reference region (S2104). Specifically, the second controller 2002 may set a boundary separated by a predetermined distance from the ventricular region detected in the medical image as the reference boundary.

여기서, 기준 바운더리는 후술할 바와 같이 기준 영역과 대상 영역의 관계를 도출하여 질병 인덱스를 추출하기 위한 기준이 되는 경계를 의미할 수 있다. 즉, 알츠하이머와 관련된 질병 정보를 판단함에 있어 Fazekas scale과 같은 질병 인덱스가 이용되는 경우, 뇌실(ventricle)과 WMH간의 위치적 관계가 중요한 지표로 이용될 수 있고, 상기 뇌실(ventricle)과 WMH 간의 위치적 관계를 파악하기 위한 기준으로서, 기준 바운더리가 이용되는 것이다. 이때, 뇌실의 경우 Fazekas scale의 기준 영역으로, WMH의 경우 Fazekas scale의 대상 영역으로 결정될 수 있다. Here, the reference boundary may refer to a boundary serving as a reference for extracting a disease index by deriving a relationship between the reference region and the target region, as will be described later. That is, when a disease index such as the Fazekas scale is used in determining disease information related to Alzheimer's, the positional relationship between the ventricle and WMH can be used as an important indicator, and the position between the ventricle and WMH As a criterion for figuring out the adversarial relationship, the criterion boundary is used. At this time, in the case of the ventricle, it may be determined as a reference area of the Fazekas scale, and in the case of WMH, it may be determined as a target area of the Fazekas scale.

또한, 여기서 기준 바운더리를 획득하기 위하여, 기준 영역 내의 임의의 지점으로부터 미리 정해진 거리가 계산될 수 있다. 즉, 예를 들어, 기준 바운더리는 기준 영역의 외곽에 있는 픽셀로부터 미리 정해진 거리만큼 떨어진 픽셀들의 집합을 의미할 수 있다. 이 경우, 미리 정해진 거리의 기준이 되는 방향은, 기준 영역의 경계면의 법선 방향이 바람직할 것이다. 다른 예로, 기준 바운더리는 기준 영역의 중심으로부터 미리 정해진 거리만큼 떨어진 픽셀들의 집합을 의미할 수도 있다. Also, here, in order to obtain the reference boundary, a predetermined distance from any point in the reference area may be calculated. That is, for example, the reference boundary may mean a set of pixels separated by a predetermined distance from a pixel outside the reference area. In this case, the direction serving as a reference for the predetermined distance may preferably be a direction normal to the boundary surface of the reference region. As another example, the reference boundary may mean a set of pixels separated by a predetermined distance from the center of the reference area.

도 11을 참조하여 기준 바운더리에 관련하여 설명하도록 한다.It will be described in relation to the reference boundary with reference to FIG. 11 .

도 11을 참조하면, T2-FLAIR MRI 이미지 내에, 뇌실(ventricle), WMH, 백질, 회백질, 스컬 등이 세그멘테이션 된 결과가 도시되어 있다. Referring to FIG. 11 , in the T2-FLAIR MRI image, the results of segmentation of the ventricle, WMH, white matter, gray matter, and skull are shown.

영상분석장치(2000)는 질병 인덱스로서 Fazekas scale을 이용할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 뇌실 영역을 기준 영역으로 결정하고, WMH 영역을 대상 영역으로 결정하여 Fazekas scale을 계산할 수 있다. 여기서, 제2 콘트롤러(2002)는 Fazekas scale을 계산하기 위한 기준 바운더리로서, 뇌실(ventricle)로 레이블링 된 픽셀로부터 미리 정해진 거리만큼 떨어진 픽셀들의 집합을 기준 바운더리로 설정할 수 있다. 또한, 기준 바운더리는, 뇌실 영역의 외곽에 있는 픽셀들로부터 산정될 수 있으며, 미리 정해진 거리는 10mm로 계산될 수 있다. 다만 이는 예시적인 수치일 뿐이며, 5mm 내지 15mm 범위 내에서 임의의 거리가 정해질 수 있다.The image analysis apparatus 2000 may use the Fazekas scale as a disease index. Specifically, the second controller 2002 may calculate the Fazekas scale by determining the ventricular region as the reference region, and determining the WMH region as the target region. Here, as a reference boundary for calculating the Fazekas scale, the second controller 2002 may set a set of pixels separated by a predetermined distance from a pixel labeled with a ventricle as the reference boundary. In addition, the reference boundary may be calculated from pixels on the outskirts of the ventricular region, and the predetermined distance may be calculated as 10 mm. However, this is only an exemplary value, and an arbitrary distance may be determined within the range of 5 mm to 15 mm.

도 11을 참조하면, 기준 바운더리 내부 및 외부 모두에 WMH가 존재하는 것으로 도시되어 있다. 기준 바운더리 내부 및 외부에 존재하는 WMH는 진단보조정보를 판단하는 데에 중요한 팩터(factor)로 작용한다. 구체적으로, WMH가 차지하는 영역과 관련된 정보(이하 '영역정보')와 기준 바운더리 간의 관계가 진단보조정보에 밀접한 관련성이 있다. 따라서, WMH가 세그멘테이션 된 메디컬 이미지로부터, WMH의 영역정보를 산출하는 방법에 대해 도 12 내지 도 13을 참조하여 설명한다..Referring to FIG. 11 , it is shown that WMH is present both inside and outside the reference boundary. WMH existing inside and outside the reference boundary acts as an important factor in determining the diagnostic auxiliary information. Specifically, the relationship between the information related to the area occupied by the WMH (hereinafter 'region information') and the reference boundary is closely related to the diagnostic auxiliary information. Accordingly, a method of calculating the WMH region information from the segmented medical image by the WMH will be described with reference to FIGS. 12 to 13 .

의학적 연구에 따르면, 일반적으로 뇌의 영역 중에서 상대적으로 뇌실과 가까운 백질 영역이 상대적으로 뇌실과 멀리 떨어진 백질 영역보다 변성이 쉽게 되는 경향이 있다. 따라서, 메디컬 이미지에 포함된 뇌실 주위에 형성된 WMH 영역과 상대적으로 뇌실로부터 멀리 떨어진 WMH 영역은 각각 질병과 관련된 다른 정보를 포함하고 있을 수 있다. 이에 따라, 메디컬 이미지 내에 포함된 WMH 영역을 분석함에 있어서는 뇌실과의 거리를 고려하여 분석해야 될 필요가 있다. According to medical research, in general, the white matter region relatively close to the ventricle of the brain tends to be more susceptible to degeneration than the white matter region relatively far from the ventricle. Therefore, the WMH region formed around the ventricle and the WMH region relatively far from the ventricle included in the medical image may each contain different information related to disease. Accordingly, when analyzing the WMH region included in the medical image, it is necessary to analyze the distance from the ventricle into consideration.

도 12 및 도 13은, 기준 영역과 대상 영역의 거리를 고려하여, 대상 영역에 관한 영역 정보를 획득하는 방법의 예시를 나타낸 것이다.12 and 13 illustrate examples of a method of acquiring region information on a target region in consideration of the distance between the reference region and the target region.

도 12를 참조하면, 일 실시예에 따른 영상분석장치(2000)는 메디컬 이미지 내의 대상 영역의 영역 정보를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 세그멘테이션 결과에 기초하여, 메디컬 이미지 내의 대상 영역에 대한 영역정보를 획득할 수 있다. 여기서, 영역 정보는 특정 영역의 두께 또는 넓이를 의미할 수 있다. 또한, 후술할 바와 같이, 메디컬 이미지가 3D 로 구현된 경우, 영역 정보는 부피를 의미할 수도 있다. Referring to FIG. 12 , the image analysis apparatus 2000 according to an embodiment may acquire region information of a target region in a medical image. Specifically, the second controller 2002 may acquire region information on the target region in the medical image based on the segmentation result. Here, the area information may mean a thickness or an area of a specific area. Also, as will be described later, when the medical image is implemented in 3D, the area information may mean a volume.

먼저, 일 실시예에 따라 Fazekas scale을 기초로 질병 인덱스를 계산하는 경우에, 메디컬 이미지에 포함된 기준 영역 근처에 존재하는, 즉 전술한 기준 바운더리 내에 존재하는 대상 영역의 영역 정보를 계산하는 방법에 대해 설명하도록 한다. First, in the case of calculating the disease index based on the Fazekas scale according to an embodiment, the region information of the target region that exists near the reference region included in the medical image, that is, within the aforementioned reference boundary. to explain about it.

영상분석장치(2000)는 기준 영역으로부터 대상 영역까지의 거리에 기초하여 대상 영역의 영역 정보를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지 내에 기준 영역으로 레이블링 된 영역에서, 대상 영역으로 레이블링 된 영역까지의 거리에 기초하여 대상 영역의 영역 정보를 계산할 수 있다. The image analysis apparatus 2000 may acquire area information of the target area based on the distance from the reference area to the target area. Specifically, the second controller 2002 may calculate area information of the target area based on the distance from the area labeled as the reference area in the medical image to the area labeled as the target area.

예컨대, 제2 콘트롤러(2002)는 메디컬 이미지 내의 뇌실로 레이블링 된 영역에서 WMH로 레이블링 된 영역까지의 거리에 기초하여 WMH 영역의 두께를 계산할 수 있다. 여기서, 거리의 기준은 뇌실로 레이블링 된 영역의 바운더리에서 법선방향으로 정의될 수 있다. 또한 여기서, 계산된 WMH의 두께 중 가장 크게 나오는 길이를 WMH의 두께로 측정할 수 있다. 보다 더 구체적으로, 제2 콘트롤러(2002)는 뇌실로 레이블링 된 영역의 바운더리로부터 법선 방향으로 가장 가까이 위치한 WMH 영역을 제1 포인트로 결정하고, 가장 멀리 위치한 WMH 영역을 제2 포인트로 결정하여, 제1 포인트와 제2 포인트 사이의 거리를 WMH 영역의 두께(폭)으로 판단할 수 있다. 여기서, 만약 WMH 영역이 뇌실 영역과 연결되어(붙어서) 형성되는 경우, 제1 포인트는 뇌실 상의 한 포인트로 결정될 수도 있을 것이다.For example, the second controller 2002 may calculate the thickness of the WMH region based on the distance from the region labeled with the ventricle in the medical image to the region labeled with the WMH. Here, the reference of the distance can be defined in the normal direction from the boundary of the area labeled with the ventricle. Also, here, the largest length among the calculated thicknesses of the WMH may be measured as the thickness of the WMH. More specifically, the second controller 2002 determines the closest WMH region in the normal direction from the boundary of the region labeled with the ventricle as the first point, and determines the furthest WMH region as the second point, The distance between the first point and the second point may be determined as the thickness (width) of the WMH region. Here, if the WMH region is formed by connecting (adhering to) the ventricular region, the first point may be determined as a point on the ventricle.

즉, 이를 다르게 표현하자면, 제2 콘트롤러(2002)는 메디컬 이미지 내의 뇌실 영역의 바운더리에서 법선 방향으로 레이(ray)를 생성하고, 생성된 레이(ray)들과 WMH로 레이블링 된 픽셀들의 접점을 고려하여 WMH의 두께를 계산할 수 있다. 여기서, 레이(ray)와 WMH로 레이블링 된 픽셀들의 접점은, 뇌실 영역과 WMH 영역 사이의 거리가 가깝게 측정되는 제1 접점 및 가장 멀게 측정되는 제2 접점을 포함할 수 있다. 즉, 제2 콘트롤러(2002)는 상기 제1 접점 및 제2 접점 사이의 거리를 고려하여 WMH 영역의 두께(폭)을 계산할 수 있다. 여기서, 제1 접점이 뇌실 영역 상에 존재할 수 있음은 전술한 바와 같다. That is, to express this differently, the second controller 2002 generates a ray in the normal direction at the boundary of the ventricular region in the medical image, and considers the contact point between the generated rays and the pixels labeled with WMH. Thus, the thickness of WMH can be calculated. Here, the contact point of the pixels labeled with ray and WMH may include a first contact point in which the distance between the ventricular area and the WMH area is measured to be close and a second contact point to be measured farthest. That is, the second controller 2002 may calculate the thickness (width) of the WMH region in consideration of the distance between the first contact point and the second contact point. Here, the first contact point may be present on the ventricular region as described above.

레이(ray)를 이용한 방식은 전술한 기준 바운더리 내에 위치하는 WMH에 적용하는 것이 바람직 하나, 반드시 이에 국한되는 것은 아니며, 기준 바운더리 이외의 WMH에 대해서도 동일한 방식이 적용될 수 있다. The method using a ray is preferably applied to the WMH located within the aforementioned reference boundary, but is not necessarily limited thereto, and the same method may be applied to a WMH other than the reference boundary.

또한, 도 13에는 기준 바운더리 외의 WMH에 대한 영역정보를 계산하는 방식이 도시되어 있다.Also, FIG. 13 shows a method of calculating area information for WMH other than the reference boundary.

도 13을 참조하면, 영상분석장치(2000)는 주성분 분석기법을 이용하여 대상 영역의 영역정보를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 주성분 분석기법(principal component analysis)을 이용하여 대상 영역의 적어도 2 이상의 주성분을 추출하고, 추출된 주성분에 기초하여 대상 영역의 영역정보를 계산할 수 있다. Referring to FIG. 13 , the image analysis apparatus 2000 may acquire region information of a target region by using a principal component analysis technique. Specifically, the second controller 2002 may extract at least two or more principal components of the target region using principal component analysis, and calculate region information of the target region based on the extracted principal components.

예컨대, 제2 콘트롤러(2002)는 메디컬 이미지 내의 WMH로 레이블링 된 영역에서, 적어도 2 이상의 축에 대한 주성분을 추출할 수 있다. 여기서, 주성분은 다양하게 추출될 수 있으나, WMH로 레이블링 된 영역 내에서 단축(short axis) 및 장축(long axis)으로 추출되는 것이 바람직할 것이다. 주성분이 추출되면, 제2 콘트롤러(2002)는 추출된 주성분에 기초하여 WMH로 레이블링 된 영역의 두께를 계산할 수 있다.For example, the second controller 2002 may extract principal components for at least two or more axes from the WMH-labeled area in the medical image. Here, the main component may be extracted in various ways, but it is preferable to extract it in the short axis and the long axis within the WMH-labeled region. When the principal component is extracted, the second controller 2002 may calculate the thickness of the region labeled WMH based on the extracted principal component.

즉, 이를 다르게 표현하자면, 제2 콘트롤러(2002)는 WMH로 레이블링 된 영역에 대해 주성분 분석기법을 수행하여 장축 및 단축에 대한 방향과 크기를 획득하고, 장축에 대한 길이에 기초하여 WMH로 레이블링 된 영역의 두께를 계산할 수 있다. 또는, 제2 콘트롤러(2002)가 WMH 영역의 폭을 계산할 수 있다고도 표현할 수 있을 것이다.That is, to express this differently, the second controller 2002 performs the principal component analysis technique on the region labeled with WMH to obtain directions and sizes for the major and minor axes, and based on the length for the major axis, the WMH labeled The thickness of the area can be calculated. Alternatively, it may be expressed that the second controller 2002 can calculate the width of the WMH region.

이상에서는, 메디컬 이미지로부터 질병 인덱스를 획득하기 위하여 이용되는 대상 영역의 영역정보를 계산하는 방식에 대해 살펴보았다. 또한, 대상 영역의 영역 정보를 획득함에 있어서, 대상 영역과 기준 영역의 위치 관계도 고려될 수 있음을 설명하였다.In the above, a method of calculating area information of a target area used to obtain a disease index from a medical image has been described. In addition, it has been described that the positional relationship between the target area and the reference area may be considered when obtaining area information of the target area.

이하에서는, 다시 도 10을 참조하여, 계산된 WMH의 영역정보와 기준 바운더리에 기초하여 질병 인덱스를 추출하는 방법에 대해 설명하도록 한다. Hereinafter, a method of extracting a disease index based on the calculated WMH region information and a reference boundary will be described with reference to FIG. 10 again.

다시 도 10을 참조하면, 영상분석장치(2000)는 메디컬 이미지 내에 설정된 기준 바운더리와 대상 영역의 영역정보에 기초하여 질병인덱스를 계산할 수 있다.(S2106)Referring back to FIG. 10 , the image analysis apparatus 2000 may calculate the disease index based on the reference boundary set in the medical image and the region information of the target region (S2106).

구체적으로, 제2 콘트롤러(2002)는 기준 바운더리와 대상 영역 간의 상관관계 및 대상 영역의 영역 정보를 종합적으로 고려하여 질병 인덱스를 계산할 수 있다. Specifically, the second controller 2002 may calculate the disease index by comprehensively considering the correlation between the reference boundary and the target region and region information of the target region.

여기서, 상관관계는 일 예로 WMH가 기준 바운더리 내부 또는 외부에 위치하는지에 대한 여부일 수 있다.Here, the correlation may be, for example, whether the WMH is located inside or outside the reference boundary.

구체적인 예시를 들자면, WMH의 두께가 클수록 질병의 심각성이 높다고 판단되는 것이 일반적이나, 일 실시예에 따른 질병 인덱스 추출 방법은 WMH의 두께 뿐 아니라, WMH가 기준 바운더리 내에 존재하는 지, 기준 바운더리 외에 존재하는 지 여부를 종합적으로 고려할 수 있다. As a specific example, it is generally judged that the greater the thickness of the WMH, the higher the severity of the disease. It can be considered comprehensively whether or not

등급ranking 제1 질병 인덱스first disease index 제2 질병 인덱스Second disease index 제3 질병 인덱스3rd disease index 00 백질 변성 없음No white matter degeneration 백질 변성 없음No white matter degeneration 제1 질병 인덱스와 제2 질병 인덱스를 고려하여 산정Calculated by considering the first disease index and the second disease index 1One 뇌실 주위 '캡' 또는 선형의 변성Periventricular 'cap' or linear degeneration 심부 백질 상의 반점 형상의 변성Degeneration of speckle shape on deep white matter 22 뇌실 주위 부드러운 '헤일로' 형태의 변성Degeneration in the form of soft 'halos' around the ventricles 뇌실 주위 변성 영역과 합류 시작Initiation of confluence with periventricular degenerative areas 33 심부 백질까지 연장된 불규칙적인 뇌실 주위 변성Irregular periventricular degeneration extending to the deep white matter 뇌실 주위 변성 영역과 큰 합류영역 형성Formation of periventricular degeneration area and large confluence area

등급ranking 제1 질병 인덱스first disease index 제2 질병 인덱스Second disease index 제3 질병 인덱스3rd disease index 00 WMH 없음No WMH WMH 없음No WMH 제1 질병 인덱스가 0, 제2 질병 인덱스가 0인 경우When the first disease index is 0 and the second disease index is 0 1One 기준 바운더리 이내에서 백질 변성의 두께가 5mm 미만The thickness of the white matter degeneration within the reference boundary is less than 5 mm 기준 바운더리 외에서 백질 변성의 두께 또는 길이가 10mm 미만Less than 10 mm in thickness or length of white matter degeneration outside the baseline boundary 제1 질병 인덱스가 1 ~ 2 등급이면서, 제2 질병 인덱스가 1 등급인 경우 When the first disease index is grade 1 or 2, and the second disease index is grade 1 22 기준 바운더리 이내에서 백질 변성의 두께가 5mm 이상 10 mm 미만Within the reference boundary, the thickness of white matter degeneration is 5 mm or more but less than 10 mm 기준 바운더리 외에서 백질 변성의 두께 또는 길이가 10mm 이상 25mm 미만Thickness or length of white matter degeneration outside the reference boundary of 10 mm or more but less than 25 mm 제1 질병 인덱스가 1~3 등급이면서 제2 질병 인덱스가 2등급인경우 또는 제1 질병 인덱스가 3등급이면서 제2 질병 인덱스가 1등급인 경우When the first disease index is grade 1 to 3 and the second disease index is grade 2, or when the first disease index is grade 3 and the second disease index is grade 1 33 기준 바운더리 이내로부터 측정된 백질 변성의 두께가 10mm 이상The thickness of white matter degeneration measured from within the reference boundary is 10 mm or more 기준 바운더리 외에서 백질 변성의 두께 또는 길이가 25mm 이상25 mm or more in thickness or length of white matter degeneration outside the reference boundary 제2 질병 인덱스가 3등급이면서 제1 질병 인덱스가 1~3등급인 경우When the second disease index is grade 3 and the first disease index is grades 1-3

표 1은 기존의 의사의 주관에 따라 질병 인덱스 계산하는 기준을 나타낸 일 예이다.Table 1 is an example showing the criteria for calculating the disease index according to the subjectivity of the existing doctor.

표 1을 참조하면, 기존의 의료 산업 현장에서 이용되는 파제카 스케일(Fazeka scale)을 계산하기 위한 기준의 일 예가 나타나 있다. 파제카 스케일(Fazekas scale)은 여러 논문에 게재된 질병 인덱스의 계산 방법으로써, 의료 산업 현장에서 공신력 있는 질병 인덱스의 계산 방법으로 이용되고 있다. 그러나, 표 1에 나타나 있듯이, 기존의 의료 산업에서는 모호한 기준에 기초하여 의사의 주관에 따라 질병 인덱스를 계산하고 있어 환자에게 객관적인 진단 정보 또는 진단보조정보를 제공하지 못하는 문제점이 있었다.Referring to Table 1, an example of a criterion for calculating the Fazeka scale used in the existing medical industry field is shown. The Fazekas scale is a method of calculating a disease index published in several papers, and it is used as a method of calculating a reliable disease index in the medical industry. However, as shown in Table 1, there is a problem in that the existing medical industry cannot provide objective diagnostic information or diagnostic auxiliary information to the patient because the disease index is calculated according to the subjectivity of the doctor based on ambiguous criteria.

표 2는 일 실시예에 따른 영상분석장치가 수행하는 질병 인덱스 계산의 기준을 나타낸 것이다.Table 2 shows the criteria for calculating the disease index performed by the image analysis apparatus according to an embodiment.

이에, 표 2를 참조하면, 일 실시예에 따른 영상분석장치(2000)는, 명확한 기준에 따라 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 질병 인덱스를 계산하기 위한 기준에 따라, 메디컬 이미지로부터 질병 인덱스를 계산할 수 있다. Accordingly, referring to Table 2, the image analysis apparatus 2000 according to an embodiment may calculate a disease index according to a clear criterion. Specifically, the second controller 2002 may calculate the disease index from the medical image according to the criterion for calculating the disease index stored in the second memory 2400 .

여기서, 영상분석장치(2000)가 질병 인덱스를 계산하기 위한 기준은 의료 산업 현장에서 미리 획득된 여러 진단 결과 내지는 진단 보조 결과에 기초하여 결정될 수 있다. 즉, 일 실시예에 따르면, 영상분석장치(2000)는 의료 산업 현장으로부터 미리 획득되어 질병 인덱스가 계산된 복수의 메디컬 이미지를 분석한 결과로서 정량화된 기준을 이용하여, 메디컬 이미지로부터 질병 인덱스를 계산할 수 있는 것이다.Here, the criterion for the image analysis apparatus 2000 to calculate the disease index may be determined based on various diagnosis results or diagnosis auxiliary results obtained in advance in the medical industry field. That is, according to an embodiment, the image analysis apparatus 2000 calculates the disease index from the medical image by using a criterion quantified as a result of analyzing a plurality of medical images for which the disease index is calculated and obtained in advance from the medical industry site. it can be

즉, 영상분석장치(2000)는 메디컬 이미지를 분석하여 소정의 기준에 따라 계산할 질병 인덱스를 결정하고, 계산이 결정된 질병 인덱스에 대응하는 질병 인덱스의 등급을 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 영역으로부터 기준 바운더리를 판단하고, 결정된 기준 바운더리와 대상 영역간의 관계를 고려하여 계산할 질병 인덱스를 결정하고, 결정된 질병 인덱스에 대응하는 등급 값을 계산할 수 있다.That is, the image analysis apparatus 2000 may analyze the medical image to determine a disease index to be calculated according to a predetermined criterion, and calculate a grade of the disease index corresponding to the calculated disease index. Specifically, the second controller 2002 may determine a reference boundary from the reference region, determine a disease index to be calculated in consideration of the relationship between the determined reference boundary and the target region, and calculate a grade value corresponding to the determined disease index.

여기서, 계산할 질병 인덱스를 결정하기 위한 소정의 기준은 전술한 기준 바운더리가 될 수 있다. 예컨대, 대상 영역이 기준 바운더리 내에 존재하는지 또는 대상 영역이 기준 바운더리 외부에 존재하는 지 여부에 따라, 영상분석장치(2000)가 계산할 질병 인덱스의 종류가 달라질 수 있다.Here, the predetermined criterion for determining the disease index to be calculated may be the above-described reference boundary. For example, the type of disease index to be calculated by the image analysis apparatus 2000 may vary depending on whether the target region exists within the reference boundary or whether the target region exists outside the reference boundary.

여기서, 동일한 질병 인덱스를 계산함에 있어서, 질병 인덱스의 등급을 구별하기 위한 기준이 존재할 수 있다. 일 예로, 미리 정해진 기준은 대상 영역의 영역 정보와 관련된 기준일 수 있다. Here, in calculating the same disease index, there may be a criterion for distinguishing the grade of the disease index. For example, the predetermined criterion may be a criterion related to region information of the target region.

다시 표 2를 참조하면, 일 실시예에 따른 질병 인덱스는 제1 내지 제3 질병 인덱스를 포함할 수 있다.표 2에 도시된 질병 인덱스는 Fazekas scale을 의미할 수 있다. 제1 질병 인덱스는 뇌실 주위 백질(Peri-ventricular white matter)에 관련된 질병 인덱스이고, 제2 질병 인덱스는 심부 백질(Deep white matter)에 관련된 질병 인덱스를 나타내며, 제3 질병 인덱스는 제1 및 제2 질병 인덱스를 고려하여 계산되는 종합(Total) 지표를 나타낼 수 있다.Referring back to Table 2, the disease index according to an embodiment may include first to third disease indexes. The disease index shown in Table 2 may mean a Fazekas scale. The first disease index is a disease index related to Peri-ventricular white matter, the second disease index represents a disease index related to Deep white matter, and the third disease index is the first and second A total index calculated in consideration of the disease index may be represented.

여기서, 기준 바운더리는 제1 질병 인덱스와 제2 질병 인덱스를 구분하기 위하여 이용될 수 있다. 즉, 전술한 바와 같이, 제2 콘트롤러(2002)는 기준 바운더리를 이용하여 기준 바운더리 내의 대상 영역으로부터 제1 질병 인덱스를 계산할 수 있다. 제2 콘트롤러(2002)는 기준 바운더리를 이용하여 기준 바운더리 외의 대상 영역으로부터 제2 질병 인덱스를 계산할 수 있다. Here, the reference boundary may be used to distinguish the first disease index and the second disease index. That is, as described above, the second controller 2002 may calculate the first disease index from the target region within the reference boundary by using the reference boundary. The second controller 2002 may calculate a second disease index from a target region other than the reference boundary by using the reference boundary.

또한, 동일한 질병 인덱스 내에서 등급이 구별될 수 있다. 즉, 제2 콘트롤러(2002)는 미리 정해진 기준에 따라 메디컬 이미지로부터 특정 질병 인덱스에 대응하는 등급값을 계산할 수 있다. In addition, classes can be distinguished within the same disease index. That is, the second controller 2002 may calculate a grade value corresponding to a specific disease index from the medical image according to a predetermined criterion.

여기서, 미리 정해진 기준은 대상 영역의 영역 정보와 관련될 수 있다. 일 예로, 대상 영역을 지시하는 셀(cell)이 존재하지 않거나, 미리 정해진 수 이하로 판단 된다면, 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 0이라고 판단할 수 있다. 다른 예로, 대상 영역의 두께가 제1 값 이상으로 획득된 경우, 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 1 이라고 판단할 수 있다. 또 다른 예로, 대상 영역의 두께가 제 2값 이상으로 획득된 경우, 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 2라고 판단할 수 있다. 또 다른 예로, 대상 영역의 두께가 제3 값 이상으로 측정되거나 다른 대상 영역과 연결되는 경우 제2 콘트롤러(2002)는 특정 질병 인덱스의 등급 값이 3 이라고 판단할 수 있다. Here, the predetermined criterion may be related to area information of the target area. For example, if there is no cell indicating the target region or it is determined to be less than or equal to a predetermined number, the second controller 2002 may determine that the grade value of the specific disease index is 0. As another example, when the thickness of the target region is obtained to be equal to or greater than the first value, the second controller 2002 may determine that the grade value of the specific disease index is 1. As another example, when the thickness of the target region is obtained to be equal to or greater than the second value, the second controller 2002 may determine that the grade value of the specific disease index is 2 . As another example, when the thickness of the target region is measured to be greater than or equal to the third value or connected to another target region, the second controller 2002 may determine that the grade value of the specific disease index is 3 .

즉, 표 2를 참조한 예시를 들자면, 제2 콘트롤러(2002)는 메디컬 이미지의 분석 결과로, 기준 바운더리 내에 포함된 대상 영역에 기초하여 제1 질병 인덱스를 계산할 수 있고, 상기 기준 바운더리 내에 포함된 대상 영역의 영역 정보를 고려하여 제1 질병 인덱스와 관련된 등급 값을 계산할 수 있다. That is, taking an example referring to Table 2, the second controller 2002 may calculate the first disease index based on the target area included in the reference boundary as a result of analyzing the medical image, and the target included in the reference boundary A grade value related to the first disease index may be calculated in consideration of region information of the region.

또한, 영상분석장치(2000)는 동일한 메디컬 이미지 내에서, 제1 질병 인덱스와 제2 질병 인덱스에 관련된 값을 모두 계산할 수도 있다. 메디컬 이미지의 세그멘테이션 결과 기준 바운더리 내 외부에 모두 대상 영역이 존재하는 경우, 제2 콘트롤러(2002)는 제1 질병 인덱스 및 제2 질병 인덱스에 관한 등급을 모두 계산할 수 있다. Also, the image analysis apparatus 2000 may calculate both values related to the first disease index and the second disease index in the same medical image. When the target region exists both inside and outside the reference boundary as a result of the segmentation of the medical image, the second controller 2002 may calculate both the grades of the first disease index and the second disease index.

또한, 영상분석장치(2000)는, 제1 질병 인덱스 및/또는 제2 질병 인덱스를 고려하여 제3 질병 인덱스를 계산할 수도 있다.Also, the image analysis apparatus 2000 may calculate the third disease index in consideration of the first disease index and/or the second disease index.

도 14는 일 실시예에 따른 질병 인덱스 및 질병 인덱스에 기초한 진단보조정보를 제공하는 디스플레이의 일 구현예이다.14 is an exemplary embodiment of a display providing a disease index and diagnostic auxiliary information based on the disease index, according to an exemplary embodiment.

도 14를 참조하면, 영상분석장치(2000)는 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지의 분석 결과로 질병 인덱스를 획득할 수 있고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다.Referring to FIG. 14 , the image analysis apparatus 2000 may provide diagnosis auxiliary information based on a disease index. Specifically, the second controller 2002 may obtain a disease index as a result of analyzing the medical image, and may provide diagnostic assistance information based on the acquired disease index.

도면을 참조하여 구체적인 예시로써 설명하자면, 제2 콘트롤러(2002)는 메디컬 이미지의 분석 결과를 기초로 하여, 기준 바운더리 내의 대상 영역과 관련된 질병 인덱스를 제공할 수 있다. 또한, 질병 인덱스에 기초하여, 질병 인덱스가 어떠한 의미를 가지는 지에 대한 정보를 제공할 수도 있다. As a specific example with reference to the drawings, the second controller 2002 may provide a disease index related to the target region within the reference boundary based on the analysis result of the medical image. Also, based on the disease index, information on the meaning of the disease index may be provided.

여기서, 전술한 바와 같이 질병 인덱스는, 메디컬 이미지 내에서 판단할 수 있는 질병의 진행정도 또는 심각도에 관한 척도(내지는 기준)를 의미할 수 있다. 예를 들어, 질병 인덱스의 기준이 Fazekas scale이라고 한다면, 질병 인덱스는 Fazekas scale의 등급으로 표현될 수 있다. Here, as described above, the disease index may refer to a measure (or reference) regarding the degree of progression or severity of a disease that can be determined in the medical image. For example, if the criterion of the disease index is the Fazekas scale, the disease index may be expressed as a grade of the Fazekas scale.

또한, 진단보조정보는 상기 질병 인덱스에 기초하여 판단될 수 있는 질병에 관련된 정보를 의미할 수 있다. 예를 들어, 전술한 질병 인덱스가 Fazekas scale로써 특정 등급이 계산되는 경우, 진단보조정보는 현재 질병의 진행 정도, 정상범주와의 차이, 연령별 평균과의 차이 등 질병 인덱스로부터 유추할 수 있는 질병에 관한 정보를 의미할 수 있는 것이다.In addition, the diagnosis auxiliary information may refer to information related to a disease that may be determined based on the disease index. For example, when the above-mentioned disease index is calculated as a specific grade using the Fazekas scale, the diagnostic auxiliary information is related to the disease that can be inferred from the disease index, such as the current disease progression, the difference from the normal category, and the difference from the average by age. It can mean information about

메디컬 이미지로부터 획득할 수 있는 진단보조정보와 비교 대상이 되는 진단보조정보들, 예를 들어 연령별 평균값, 정상인의 질병 지표값 등, 은 미리 획득되어 제2 메모리(2400)에 저장될 수 있으며 지속적으로 업데이트 될 수 있다.Diagnostic auxiliary information obtainable from the medical image and diagnostic auxiliary information to be compared, for example, an average value by age, a disease index value of a normal person, etc. may be acquired in advance and stored in the second memory 2400 and continuously can be updated.

이상에서 설명한 바와 같이, 영상분석장치(2000)에서 명확한 기준을 설정하여 메디컬 이미지로부터 질병 인덱스를 추출하고, 추출된 질병 인덱스에 기초하여 진단보조정보를 제공함으로써, 그동안 의료 산업상에서 의사의 주관적인 판단에 의존했던 질병에 관한 정보 보다 객관적이고 정확한 진단보조정보 획득이 가능해지는 효과가 도출될 수 있다.As described above, by setting clear criteria in the image analysis apparatus 2000, extracting a disease index from a medical image, and providing diagnostic auxiliary information based on the extracted disease index, in the meantime, the subjective judgment of doctors in the medical industry The effect of being able to obtain more objective and accurate diagnostic auxiliary information than the information about the disease on which it relied can be derived.

이상에서는 진단보조정보를 제공하는 방법의 일 실시예로써 미리 정해진 기준 바운더리를 이용하는 방법에 대하여 설명하였다. 다만, 메디컬 이미지의 특성에 따라, 고정된 기준 바운더리를 이용하는 것 보다, 메디컬 이미지의 특성을 고려하여 기준 바운더리가 수정되는 것이 보다 더 정확한 진단보조정보를 제공하는 데에 필요할 수 있다.In the above, a method using a predetermined reference boundary has been described as an embodiment of a method for providing diagnostic auxiliary information. However, depending on the characteristics of the medical image, rather than using a fixed reference boundary, it may be necessary to modify the reference boundary in consideration of the characteristics of the medical image to provide more accurate diagnostic auxiliary information.

이하에서는, 일 실시예에 따른 진단보조정보를 제공하는 방법의 다른 실시예로써, 수정된 기준 바운더리를 이용하는 방법에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, a method of using a modified reference boundary as another embodiment of a method of providing diagnostic auxiliary information according to an embodiment will be described with reference to the drawings.

먼저 도 15를 참조하여, 일 실시예에 따른 메디컬 이미지로부터 질병 인덱스를 추출하고, 질병 정보를 획득하는 다른 예에 대해 개괄적으로 설명하도록 한다.First, with reference to FIG. 15 , another example of extracting a disease index from a medical image and acquiring disease information according to an embodiment will be briefly described.

도 15는 일 실시예에 따라 수정된 기준 바운더리를 이용하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.15 is a flowchart illustrating an example of a method of providing diagnostic assistance information using a modified reference boundary according to an embodiment.

도 15를 참조하면, 일 실시예에 따른 진단보조정보 제공 방법은 세그멘테이션 된 메디컬 이미지로부터 기준 영역을 검출하는 단계(S2202), 검출된 기준 영역에 기초하여 기준 바운더리를 설정하는 단계(S2204), 기준 바운더리와 비관심 영역의 오버랩 여부를 판단하는 단계(S2206), 기준 바운더리를 수정하는 단계(S2208) 및 수정된 기준 바운더리에 기초하여 질병 인덱스를 획득하는 단계(S2210)를 포함할 수 있다.15 , the method for providing diagnostic auxiliary information according to an exemplary embodiment includes detecting a reference region from a segmented medical image (S2202), setting a reference boundary based on the detected reference region (S2204), and a reference The method may include determining whether the boundary overlaps the non-interested region (S2206), correcting the reference boundary (S2208), and obtaining a disease index based on the corrected reference boundary (S2210).

먼저, 영상분석장치(2000)는, 도 10 내지 도 14를 참조하여 설명한 실시예에서 수행한 동작과 유사하게 기준 영역 검출단계(S2202), 검출된 기준영역에 기초하여 기준 바운더리를 설정하는 단계(S2204)를 수행할 수 있으므로, 자세한 설명은 생략하도록 한다.First, in the image analysis apparatus 2000, similar to the operation performed in the embodiment described with reference to FIGS. 10 to 14 , the step of detecting a reference region ( S2202 ), setting a reference boundary based on the detected reference region ( S2202 ) S2204) can be performed, so a detailed description will be omitted.

기준 바운더리가 설정되면, 영상분석장치(2000)는 설정된 기준 바운더리가 세그멘테이션 된 메디컬 이미지의 비관심 영역과 오버랩 되는지 여부를 판단할 수 있다.(S2206) 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지 내에서, 설정된 기준 바운더리에 해당하는 픽셀이 비관심 영역을 지시한 값으로 레이블링 된 픽셀에 포함되는 지 여부를 판단할 수 있다. 여기서, 비관심 영역은 회백질 영역일 수 있다.When the reference boundary is set, the image analysis apparatus 2000 may determine whether the set reference boundary overlaps the non-interested region of the segmented medical image (S2206). Specifically, the second controller 2002 is the medical image. , it may be determined whether a pixel corresponding to a set reference boundary is included in a pixel labeled with a value indicating an uninterested region. Here, the non-interested region may be a gray matter region.

잠시 도 16을 참조하여 설명한다.It will be briefly described with reference to FIG. 16 .

도 16은 일 실시예에 따른 기준 바운더리와 비관심 영역이 오버랩 된 경우를 나타낸 것이다. 16 illustrates a case in which a reference boundary and an uninterested region overlap according to an exemplary embodiment.

도 16을 참조하면, 메디컬 이미지 내의 회백질로 레이블링 된 영역에 기준 바운더리가 오버랩 된 것이 도시되어 있다. Referring to FIG. 16 , it is shown that the reference boundary overlaps the gray matter-labeled region in the medical image.

일반적으로, WMH는 백질에 주로 발생하며 회백질 영역에서는 WMH가 발견되지 않는다. 이러한 이유에서, 기준 바운더리가 회백질 영역을 침범하는 경우에 기존과 같이 질병 인덱스를 추출하는 경우, 질병 인덱스가 부정확하게 계산될 수 있으며, 이에 따라 질병 인덱스에 기초한 진단보조정보 역시도 부정확한 정보일 확률이 높아진다. 따라서, 기준 바운더리가 회백질 영역 등에 오버랩 된 경우, 기준 바운더리를 수정하여 수정된 기준 바운더리에 의해 질병 인덱스를 계산할 필요가 있다.In general, WMH mainly occurs in the white matter, and WMH is not found in the gray matter region. For this reason, when the disease index is extracted as before when the reference boundary invades the gray matter region, the disease index may be calculated inaccurately. rises Therefore, when the reference boundary overlaps the gray matter region, it is necessary to correct the reference boundary and calculate the disease index by the modified reference boundary.

본 명세서의 이하의 설명에서는, 백질 영역과 같이 대상 영역(예를 들어 WMH)이 관측될 수 있는 영역에 대하여 '관심 영역' 이라고 지칭하기로 하며, 회백질 영역과 같이 대상 영역(WMH)가 관측되지 않는 영역에 대해서는 '비관심 영역' 이라는 용어를 사용하도록 한다.In the following description of the present specification, a region in which a target region (eg, WMH) can be observed, such as a white matter region, will be referred to as a 'region of interest', and the target region (WMH) is not observed like a gray matter region. The term 'non-interested area' should be used for non-interested areas.

따라서, 제2 콘트롤러(2002)는 메디컬 이미지를 세그멘테이션 하고 기준 바운더리를 설정한 이후, 기준 바운더리가 회백질로 레이블링 된 영역의 적어도 일부와 오버랩 되는 경우 기준 바운더리를 수정할 수 있다.(S2208)Accordingly, after segmenting the medical image and setting the reference boundary, the second controller 2002 may correct the reference boundary when the reference boundary overlaps with at least a portion of the gray matter-labeled area (S2208).

다시 도 15를 참조하면, 기준 바운더리가 수정되면, 영상분석장치(2000)는 수정된 기준 바운더리에 기초하여 질병 인덱스를 획득할 수 있다.(S2210) 질병 인덱스를 획득하는 방법에 대해서는 도 10 내지 도 14를 참조하여 설명한 실시예와 유사하므로, 자세한 설명은 생략하도록 하겠다.Referring back to FIG. 15 , when the reference boundary is corrected, the image analysis apparatus 2000 may acquire a disease index based on the corrected reference boundary ( S2210 ). A method of acquiring the disease index is described in FIGS. 10 to 10 . Since it is similar to the embodiment described with reference to 14, a detailed description will be omitted.

이하에서는, 기준 바운더리를 수정의 예시에 대하여 도면을 참조하여 설명하도록 한다.Hereinafter, an example of modifying the reference boundary will be described with reference to the drawings.

도 17a 및 도 17b는 일 실시예에 따라 수정된 기준 바운더리를 계산하는 방법의 여러 예시이다.17A and 17B are various examples of a method of calculating a modified reference boundary according to an embodiment.

도 17a 및 도 17b를 참조하면, 영상분석장치(2000)는 기준 바운더리를 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 바운더리를 수정하여, 수정된 기준 바운더리가 비관심 영역으로 레이블링 된 영역과 기준 영역으로 레이블링 된 영역 사이에 위치하도록 변경할 수 있다. 여기서, 기준 바운더리는 기준 영역과 비관심 영역사이의 간격을 미리 정해진 비율로 내분하도록 위치할 수 있다. 여기서, 미리 정해진 비율은 다양한 요인을 고려하여 설정될 수 있다. 일 예로는 미리 정해진 비율은 비관심 영역과 기준 영역 사이의 거리를 고려하여 결정될 수 있다. 즉, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 간의 거리, 비관심 영역과 오버랩 되는 기준 바운더리의 위치 및/또는 기준 영역의 형상 등을 포함하는 메디컬 이미지 내에서 고려될 수 있는 다양한 요소들을 반영하여 기준 바운더리를 수정할 수 있다.17A and 17B , the image analysis apparatus 2000 may correct a reference boundary. Specifically, the second controller 2002 may modify the reference boundary so that the modified reference boundary is located between the area labeled as the uninterested area and the area labeled as the reference area. Here, the reference boundary may be positioned to internally divide the interval between the reference region and the non-interested region at a predetermined ratio. Here, the predetermined ratio may be set in consideration of various factors. For example, the predetermined ratio may be determined in consideration of the distance between the non-interested region and the reference region. That is, the second controller 2002 controls various factors that can be considered in the medical image, including the distance between the reference region and the non-interest region, the position of the reference boundary overlapping the non-interest region, and/or the shape of the reference region. The reference boundary can be modified by reflecting it.

도면을 참조하여 구체적인 예시를 들자면, 도 17a의 경우에는 비관심 영역(회백질)과 기준 영역(뇌실) 사이의 거리가 상대적으로 가까워, 기준 바운더리가 비관심 영역과 상대적으로 많은 부분에 오버랩 되어있는 것이 도시되어 있다. 이 경우, 제2 콘트롤러는 비관심 영역과 기준 영역 사이의 거리를 고려하여, 수정된 기준 바운더리가 회백질 영역과 뇌실 영역 중간(뇌실과 회백질간의 거리를 5:5로 내분하도록)에 위치하도록 기준 바운더리를 수정할 수 있다. To give a specific example with reference to the drawings, in the case of FIG. 17A , the distance between the non-interest region (gray matter) and the reference region (ventricle) is relatively close, so that the reference boundary overlaps the non-interest region in a relatively large portion. is shown. In this case, in consideration of the distance between the non-interested region and the reference region, the second controller sets the reference boundary so that the modified reference boundary is located in the middle of the gray matter region and the ventricular region (to internalize the distance between the ventricle and the gray matter by 5:5). can be modified.

또한 도 17b의 경우, 비관심 영역(회백질)과 기준 영역(뇌실) 사이의 거리가 상대적으로 멀고, 기준 바운더리가 상대적으로 비관심 영역에 적은 부분에만 오버랩 된 것이 도시되어 있다. 이 경우, 제2 콘트롤러(2002)는 수정된 기준 바운더리가 비관심 영역에 보다 더 가까워 지도록 기준 바운더리를 수정할 수 있다. In addition, in the case of Figure 17b, the distance between the non-interest region (gray matter) and the reference region (ventricle) is relatively long, it is shown that the reference boundary overlaps only a relatively small portion of the non-interest region. In this case, the second controller 2002 may modify the reference boundary so that the modified reference boundary is closer to the non-interested region.

또한, 일 실시예에 따르면 하나의 메디컬 이미지에서 결정된 기준 바운더리가, 복수의 비관심 영역과 오버랩 되는 경우가 있다. 즉 예시적으로, 도 17(a)와 도 17(b)와 같은 상황이 하나의 메디컬 이미지 내에서 발생할 수도 있다.Also, according to an embodiment, a reference boundary determined in one medical image may overlap a plurality of non-interested regions. That is, for example, situations such as FIGS. 17(a) and 17(b) may occur within one medical image.

이런 경우, 제2 콘트롤러(2002)는 기준 바운더리 내에서 비관심 영역과 오버랩되는 제1 구간과 제2 구간이 다른 비율을 가지도록 기준 바운더리를 수정할 수 있다. 예시적으로, 제2 콘트롤러(2002)는 제1 구간에서는 도 17a에서 상술한 바와 같이 기준 바운더리를 수정할 수 있고, 제2 구간에서는 도 17b에서 상술한 바와 같이 기준 바운더리를 수정할 수 있을 것이다.In this case, the second controller 2002 may correct the reference boundary so that the first interval and the second interval overlapping the non-interested area within the reference boundary have different ratios. Exemplarily, the second controller 2002 may modify the reference boundary as described above with reference to FIG. 17A in the first interval, and may modify the reference boundary as described above with reference to FIG. 17B in the second interval.

이를 달리 표현하자면, 제2 콘트롤러(2002)는 비관심 영역과 기준 영역 간의 거리가 제1 거리인 위치에서, 기준 영역으로부터 기준 바운더리까지의 거리와 기준 바운더리로부터 비관심 영역까지의 거리에 대한 비율은 제1 값이 되도록 설정하고, 비관심 영역과 기준 영역간의 거리가 제2 거리인 위치에서, 기준 영역으로부터 기준 바운더리까지의 거리와 기준 바운더리로부터 비관심 영역까지의 거리에 대한 비율은 제2 값이 되도록 기준 바운더리를 수정할 수 있다. 여기서, 제2 거리가 제1 거리보다 클 때, 제2 값은 제1 값보다 작도록 기준 바운더리를 수정할 수 있다. 예컨대, 기준 영역과 비관심 영역 사이의 거리가 상대적으로 멀어질수록 수정된 기준 바운더리는 비관심 영역 쪽에 더 치우쳐서 위치할 수 있다. In other words, in the second controller 2002, at a position where the distance between the non-interest region and the reference region is the first distance, the ratio of the distance from the reference region to the reference boundary to the distance from the reference boundary to the non-interest region is set to be the first value, and at a position where the distance between the non-interest region and the reference region is the second distance, the ratio of the distance from the reference region to the reference boundary to the distance from the reference boundary to the non-interest region is the second value The reference boundary can be modified as much as possible. Here, when the second distance is greater than the first distance, the reference boundary may be modified such that the second value is smaller than the first value. For example, as the distance between the reference region and the non-interest region is relatively increased, the corrected reference boundary may be more biased toward the non-interest region.

구체적인 예시로, 제2 콘트롤러(2002)는 회백질과 뇌실간의 거리가 상대적으로 가까운 제1 구역의 경우에는 기준 바운더리가 회백질과 뇌실 사이의 거리를 5:5로 내분하도록 기준 바운더리를 수정하고, 회백질과 뇌실간의 거리가 상대적으로 먼 제2 구역의 경우에는 회백질과 뇌실 사이의 거리를 3:7로 내분하도록 기준 바운더리를 수정할 수 있다. 여기서, 회백질과 뇌실 사이의 거리를 내분하는 비율은 미리 설정될 수 있다.As a specific example, the second controller 2002 corrects the reference boundary so that the distance between the gray matter and the ventricle is internally divided by 5:5 in the case of the first region where the distance between the gray matter and the ventricle is relatively close, and the gray matter and the In the case of the second region where the distance between the ventricles is relatively long, the reference boundary can be modified to internally divide the distance between the gray matter and the ventricles by 3:7. Here, the ratio of internalizing the distance between the gray matter and the ventricle may be preset.

또한, 제2 콘트롤러(2002)는, 기준 바운더리와 비관심 영역이 오버랩 되는 영역에 대해서만 기준 바운더리를 수정할 수도 있고, 기준 바운더리 전체를 수정할 수도 있다. 뿐만 아니라, 제2 콘트롤러(2002)는 기준 바운더리와 회백질 영역이 오버랩 되는 영역에 더하여 추가적인 버퍼영역에 대해서 기준 바운더리를 수정하는 것도 가능하다. 이에 관해서는 도 18을 참조하여 이하에서 구체적으로 설명하도록 하겠다.Also, the second controller 2002 may correct the reference boundary only for an area where the reference boundary and the non-interested area overlap, or may correct the entire reference boundary. In addition, the second controller 2002 may correct the reference boundary for an additional buffer region in addition to the region where the reference boundary and the gray matter region overlap. This will be described in detail below with reference to FIG. 18 .

도 18은 일 실시예에 따라 일부가 수정된 기준 바운더리 및 전체적으로 수정된 기준 바운더리의 예시를 나타낸 것이다. 18 illustrates an example of a partially modified reference boundary and a fully modified reference boundary according to an embodiment.

도 18을 참조하면, 영상분석장치(2000)는 기준 바운더리의 전부 또는 일부를 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 사이의 관계를 고려하여, 기준 바운더리의 전부를 수정하거나 또는 일부를 수정할 수 있다. Referring to FIG. 18 , the image analysis apparatus 2000 may correct all or part of a reference boundary. Specifically, the second controller 2002 may correct all or part of the reference boundary in consideration of the relationship between the reference region and the non-interested region.

예를 들어, 기준 영역과 비관심 영역 사이의 거리가, 특정 일부분에서만 가깝다면, 해당 특정 일부분에 대응되는 기준 바운더리의 일부 구간에서만 기준 바운더리가 수정될 수 있으며, 전체적으로 비관심 영역과 기준 영역 간의 거리가 비슷하게 측정된다면 기준 바운더리를 전반적으로 수정할 수 있을 것이다. 다만 이는 예시일 뿐이며, 기준 바운더리를 전체적으로 또는 부분적으로 수정할 상황에 대해서는 다양할 수 있다.For example, if the distance between the reference region and the non-interest region is close only in a specific portion, the reference boundary may be modified only in a partial section of the reference boundary corresponding to the specific portion, and the distance between the non-interest region and the reference region as a whole If is measured similarly, it would be possible to modify the reference boundary as a whole. However, this is only an example, and the situation in which the reference boundary is fully or partially modified may vary.

도면을 참조하여 예시적으로 설명한다. 도면에는 전체적으로 수정된 기준 바운더리와 일부만이 수정된 기준 바운더리가 도시되어 있다.It will be described by way of example with reference to the drawings. In the drawing, the reference boundary modified entirely and the reference boundary partially modified are shown.

기준 바운더리가 전반적으로 수정된 예시에 대해 먼저 살펴본다.First, let's look at an example in which the reference boundary has been modified in general.

영상분석장치(2000)는 기준 바운더리를 전체적으로 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는, 기준 영역과 비관심 영역 사이의 거리를 고려하여 기준 바운더리를 전체적으로 수정할 수 있다. The image analysis apparatus 2000 may correct the reference boundary as a whole. Specifically, the second controller 2002 may entirely modify the reference boundary in consideration of the distance between the reference region and the non-interested region.

제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역이 오버랩 된 구간에서 기준 바운더리를 수정한 것에 상응하도록, 기준 바운더리의 전부를 수정할 수 있다.The second controller 2002 may modify all of the reference boundaries so as to correspond to the correction of the reference boundary in a section in which the reference boundary and the non-interest region overlap.

또는 제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역이 오버랩 된 구간 뿐 아니라, 기준 바운더리의 모든 구간에서 기준 영역과 비관심 영역 사이의 거리를 고려하여 기준 바운더리를 수정할 수 있다. Alternatively, the second controller 2002 may correct the reference boundary in consideration of the distance between the reference region and the non-interest region in all sections of the reference boundary as well as the section in which the reference boundary and the non-interest region overlap.

예컨대, 제2 콘트롤러(2002)는 제1 영역에서의 비관심 영역과 기준 영역 사이의 거리를 고려하여, 제1 영역에서 비관심 영역과 기준 영역 사이의 거리를 내분한 위치에 대응하도록, 기준 바운더리를 전반적으로 수정할 수 있다고도 표현할 수 있을 것이다. For example, the second controller 2002 considers the distance between the non-interest region and the reference region in the first region, and sets the reference boundary to correspond to a position obtained by internally dividing the distance between the non-interest region and the reference region in the first region. It can also be expressed that it can be modified in general.

또한, 제2 콘트롤러(2002)는 기준 바운더리의 모든 구간에 대해 기준 영역의 전반적인 영역과 비관심 영역 사이의 거리를 고려하여, 기준 바운더리를 전반적으로 수정할 수도 있다.Also, for all sections of the reference boundary, the second controller 2002 may generally modify the reference boundary by considering the distance between the overall area of the reference area and the non-interested area.

또한, 영상분석장치(2000)는 기준 바운더리의 일부만을 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역이 오버랩 된 구간에 대응되는 일부 구간에 대해서만 기준 바운더리를 수정할 수 있다. 여기서, 제2 콘트롤러(2002)는, 기준 바운더리와 비관심 영역이 오버랩 되는 구간에 버퍼 구간을 추가한 부분에 대해서도 기준 바운더리를 수정할 수도 있고, 일부 구간을 제거한 구간에 대해서만 기준 바운더리를 수정할 수도 있다. Also, the image analysis apparatus 2000 may correct only a part of the reference boundary. Specifically, the second controller 2002 may correct the reference boundary only for a partial section corresponding to a section in which the reference boundary and the non-interested region overlap. Here, the second controller 2002 may correct the reference boundary even for a portion in which a buffer section is added to a section in which the reference boundary and the non-interested region overlap, or the reference boundary only for a section in which some sections are removed.

이를 달리 표현하자면, 제2 콘트롤러(2002)는 기준 바운더리와 비관심 영역 사이의 거리가 미리 정해진 거리보다 가까운 구간에 대해서는 기준 바운더리와 기준 영역이 제1 거리를 가지도록 기준 바운더리를 결정하고, 기준 바운더리와 비관심 영역이 미리 정해진 거리보다 먼 구간에 대해서는 기준 바운더리와 기준 영역이 제2 거리를 가지도록 기준 바운더리를 결정할 수 있다. 여기서, 미리 정해진 거리는 도 10 내지 도 14에서 상술한 기준 바운더리와 기준 영역간의 거리에 대응될 수 있을 것이다. In other words, the second controller 2002 determines the reference boundary so that the reference boundary and the reference region have a first distance for a section in which the distance between the reference boundary and the non-interest area is closer than a predetermined distance, and the reference boundary For a section in which the and non-interested regions are farther than a predetermined distance, the reference boundary may be determined such that the reference boundary and the reference region have a second distance. Here, the predetermined distance may correspond to the distance between the reference boundary and the reference region described above with reference to FIGS. 10 to 14 .

도면을 참조하면, 일부가 수정된 기준 바운더리와 전체적으로 수정된 기준 바운더리 1, 전체적으로 수정된 기준바운더리 2 모두, 비관심 영역(회백질)과 기준 영역이 가깝게 위치한 구간에서는 비슷한 형태를 띄는 것이 도시되어 있다. 다만, 전체적으로 수정된 기준 바운더리 1은, 비관심 영역과 기준 영역 사이의 거리가 멀어진 구간에서도, 동일한 거리만큼 기준 영역과 떨어져 있는 것이 잘 나타나 있다. 이에 비해, 전체적으로 수정된 기준 바운더리 2는, 기준 바운더리의 모든 구간에서 비관심 영역과 기준 영역을 미리 정해진 비율로 내분하는 위치에 기준 바운더리가 위치하도록 결정되었다. Referring to the drawings, the partially modified reference boundary, the fully modified reference boundary 1, and the fully modified reference boundary 2 all have similar shapes in the section where the non-interested area (gray matter) and the reference area are located close to each other. However, it is well shown that the overall corrected reference boundary 1 is separated from the reference region by the same distance even in a section in which the distance between the non-interest region and the reference region is increased. On the other hand, in the reference boundary 2 that has been modified as a whole, it was determined that the reference boundary is located at a position where the non-interested area and the reference area are internally divided by a predetermined ratio in all sections of the reference boundary.

다만, 일부만을 수정한 기준 바운더리의 경우라도 수정된 기준 바운더리가 부드러운 형상을 유지하도록, 기준 바운더리가 수정된 영역과 기존의 기준 바운더리를 부드럽게 연결할 필요가 있다. However, even in the case of a partially modified reference boundary, it is necessary to smoothly connect an area in which the reference boundary is modified and the existing reference boundary so that the modified reference boundary maintains a smooth shape.

이하에서는, 기준 바운더리의 일부를 수정하는 경우에, 기존의 기준 바운더리와 수정된 기준 바운더리 사이의 연결관계에 대해 도면을 참조하여 설명하도록 한다. Hereinafter, when a part of the reference boundary is corrected, a connection relationship between the existing reference boundary and the modified reference boundary will be described with reference to the drawings.

도 19는 일 실시예에 따라, 일부가 수정된 기준 바운더리의 구체적인 수정 과정의예시를 나타낸 것이다.19 illustrates an example of a specific modification process of a partially modified reference boundary, according to an embodiment.

도 19를 참조하면, 영상분석장치(2000)는 수정된 기준 바운더리와 기존의 기준 바운더리를 연결할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 사이의 거리를 고려하여, 기준 바운더리가 수정될 범위를 결정하고, 수정된 기준 바운더리의 일부 영역으로부터 기존의 기준 바운더리를 연결할 수 있다. Referring to FIG. 19 , the image analysis apparatus 2000 may connect the modified reference boundary with the existing reference boundary. Specifically, the second controller 2002 may determine a range in which the reference boundary is to be corrected in consideration of the distance between the reference region and the non-interested region, and connect the existing reference boundary from some regions of the modified reference boundary.

먼저, 제2 콘트롤러(2002)는 기준 영역과 비관심 영역 사이의 거리가 임계거리 이하가 되는 제1 지점부터, 기준 영역과 비관심 영역 사이의 거리가 임계거리 이하가 되는 제2 지점까지 기준 바운더리를 수정할 수 있다. 다만, 이는 예시적인 것으로서, 제1 지점은 기준 바운더리와 비관심 영역이 오버랩 되는 임의의 지점이나, 비관심 영역과 기준 영역 사이의 거리가 미리 정해진 거리 이하가 되는 임의의 지점으로 선택될 수도 있다. 또한, 기준 바운더리를 수정하는 방법에 대해서는 전술한 실시예들 혹은 기타 본 발명의 사상에 통합되는 방법이 이용될 수 있다.First, the second controller 2002 controls the reference boundary from the first point at which the distance between the reference area and the non-interest area is equal to or less than the threshold distance to the second point at which the distance between the reference area and the non-interest area is equal to or less than the threshold distance. can be modified. However, this is an example, and the first point may be selected as an arbitrary point where the reference boundary and the non-interest region overlap, or an arbitrary point where the distance between the non-interest region and the reference region is less than or equal to a predetermined distance. In addition, as for the method of correcting the reference boundary, the above-described embodiments or other methods integrated with the spirit of the present invention may be used.

이후, 제2 콘트롤러(2002)는 기준 바운더리가 수정된 영역의 끝지점인 제1 지점 또는 제2 지점과 기존의 기준 바운더리가 다시 시작되는 구간인 제3 지점을 연결할 수 있다. 여기서, 기존의 기준 바운더리에 따른 제3 지점과 기준 영역 사이의 거리는 도 10 내지 도 14에서 전술한 바와 같이 미리 정해질 수 있다. Thereafter, the second controller 2002 may connect the first point or the second point, which is the end point of the region in which the reference boundary is modified, and the third point, which is a section in which the existing reference boundary starts again. Here, the distance between the third point and the reference region according to the existing reference boundary may be predetermined as described above with reference to FIGS. 10 to 14 .

제2 콘트롤러(2002)는, 제1 지점 또는 2 지점의 위치값과 제3 지점의 위치값 사이를 보간하여 제1 지점 또는 2 지점과 제3 지점을 연결할 수 있다. 여기서, 제2 지점과 제3 지점의 사이인 보간구간의 길이는 다양하게 설정될 수 있다. 일 예로, 보간구간은 비관심 영역과 관심 영역 사이의 거리를 고려하여 설정될 수 있다.The second controller 2002 may connect the first point or the second point and the third point by interpolating between the position value of the first point or the second point and the position value of the third point. Here, the length of the interpolation section between the second point and the third point may be variously set. As an example, the interpolation period may be set in consideration of the distance between the non-ROI and the ROI.

도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.

제2 콘트롤러(2002)는 회백질과 뇌실 사이의 거리가 가깝거나 기존의 기준 바운더리가 회백질 영역과 오버랩 되는 구간에 대해서 기준 바운더리를 일부 수정할 수 있다. 제2 콘트롤러(2002)는 수정된 기준 바운더리의 일측에 위치한 제1 지점과 기존의 기준 바운더리 상에 위치한 제3 지점 사이를 보간하여 서로 연결할 수 있다. 여기서, 제2 지점은 회백질과 뇌실 사이의 거리가 임계거리 이상이 되는 지점으로 선택 될 수 있다. 또는 제2 지점은 수정된 기준 바운더리와 비관심 영역이 임계거리 이상이 되는 지점으로 선택될 수 있다.. The second controller 2002 may partially modify the reference boundary for a section in which the distance between the gray matter and the ventricle is close or the existing reference boundary overlaps the gray matter region. The second controller 2002 may interpolate between a first point located on one side of the modified reference boundary and a third point located on the existing reference boundary to connect them to each other. Here, the second point may be selected as a point at which the distance between the gray matter and the ventricle becomes more than a critical distance. Alternatively, the second point may be selected as a point at which the corrected reference boundary and the uninterested region are equal to or greater than a threshold distance.

이처럼, 일 실시예에 따른 영상분석장치(2000)는 기존의 기준 바운더리와 수정된 기준 바운더리를 부드럽게 연결함으로써, 질병 인덱스를 계산하기 위한 기준 바운더리를 보다 명확하게 설정할 수 있고, 명확하게 설정된 기준 바운더리로 인해 영상분석장치(2000)가 획득하는 질병 인덱스의 정확성 역시 향상될 수 있다.As such, the image analysis apparatus 2000 according to an embodiment can more clearly set the reference boundary for calculating the disease index by smoothly connecting the existing reference boundary and the modified reference boundary, and use the clearly set reference boundary. Accordingly, the accuracy of the disease index obtained by the image analysis apparatus 2000 may also be improved.

수정된 기준 바운더리에 의해 질병 인덱스가 계산되면, 영상분석장치(2000)는 수정된 기준 바운더리를 이용하여 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 수정된 기준 바운더리를 이용한 메디컬 이미지의 분석 결과로 질병 인덱스를 획득할 수 있고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다. 제공되는 질병 인덱스 또는 질병 정보에 관한 내용은 도 14에서 전술한 바와 유사하므로 자세한 설명은 생략하도록 하겠다.When the disease index is calculated by the modified reference boundary, the image analysis apparatus 2000 may provide diagnosis auxiliary information based on the disease index obtained using the modified reference boundary. Specifically, the second controller 2002 may obtain a disease index as a result of analysis of the medical image using the modified reference boundary, and may provide diagnostic assistance information based on the acquired disease index. Since the provided disease index or disease information is similar to that described above with reference to FIG. 14 , a detailed description thereof will be omitted.

이상에서 설명한 바와 같이, 수정된 기준 바운더리를 이용함으로써, 일률 적인 기준 바운더리를 이용하는 경우에 비해서 더 다양한 이미지로부터 정확한 질병 인덱스를 획득할 수 있게 된다. As described above, by using the modified reference boundary, it is possible to obtain an accurate disease index from more diverse images than in the case of using a uniform reference boundary.

또한, 이상의 설명에서는 기준 바운더리가 회백질 영역과 오버랩 되는 경우에만 기준 바운더리를 수정하는 것으로 설명하였으나, 처음부터 기준 바운더리를 도 15 내지 도 19에서 설명한 바와 같이 설정하는 것도 가능함은 물론이며, 필드에서 요구되는 바에 따라 적절한 기준 바운더리 설정 방법을 채택하여 이용할 수 있을 것이다.In addition, in the above description, it has been described that the reference boundary is corrected only when the reference boundary overlaps the gray matter region, but it is also possible to set the reference boundary as described in FIGS. 15 to 19 from the beginning. Depending on the bar, an appropriate reference boundary setting method may be adopted and used.

본 명세서의 이상의 설명에서는 하나의 메디컬 이미지를 분석하는 방법에 대해서 주로 설명하였다. In the above description of the present specification, a method of analyzing one medical image has been mainly described.

이하에서는, 영상분석장치(2000) 복수의 메디컬 이미지를 분석하는 경우에, 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법에 대해서 설명하기로 한다.Hereinafter, when the image analysis apparatus 2000 analyzes a plurality of medical images, a method of providing diagnosis auxiliary information from the plurality of medical images will be described.

도 20은 일 실시예에 따라 영상분석장치(2000)가 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법에 관한 개략적인 순서도이다.20 is a schematic flowchart of a method for the image analysis apparatus 2000 to provide diagnostic assistance information from a plurality of medical images, according to an exemplary embodiment.

도 20을 참조하면, 복수의 메디컬 이미지로부터 진단보조정보를 제공하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S3200), 복수의 메디컬 이미지로부터 질병 인덱스를 획득하는 단계(S3400) 및 복수의 질병 인덱스에 기초하여 진단보조정보를 제공하는 단계(S3600)를 포함할 수 있다.Referring to FIG. 20 , a method of providing diagnostic auxiliary information from a plurality of medical images includes obtaining a plurality of medical images ( S3200 ), obtaining a disease index from the plurality of medical images ( S3400 ), and a plurality of disease indexes It may include a step (S3600) of providing diagnostic auxiliary information based on the .

먼저, 영상분석장치(2000)는 복수의 메디컬 이미지를 획득할 수 있다(S3200). 구체적으로, 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해, 영상획득장치(1000)로부터 복수의 메디컬 이미지를 획득할 수 있다. 여기서, 복수의 메디컬 이미지는 피촬영 객체를 촬영한 단층 이미지의 집합일 수 있다. 일 예로, 복수의 메디컬 이미지는 피촬영 객체에 대한 MRI 슬라이스 이미지의 집합일 수 있다. First, the image analysis apparatus 2000 may acquire a plurality of medical images ( S3200 ). Specifically, the second controller 2002 may acquire a plurality of medical images from the image acquisition apparatus 1000 through the second communication module 2800 . Here, the plurality of medical images may be a set of tomographic images obtained by photographing the object to be photographed. For example, the plurality of medical images may be a set of MRI slice images of an object to be photographed.

이후, 영상분석장치(2000)는 복수의 메디컬 이미지로부터 질병 인덱스를 획득할 수 있다.(S3400). 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 질병 인덱스 획득을 위한 프로그램을 이용하여, 복수의 메디컬 이미지에 대한 질병 인덱스를 획득할 수 있다. 여기서, 제2 콘트롤러(2002)는 복수의 메디컬 이미지 각각에 대한 질병 인덱스를 획득할 수도 있고, 복수의 메디컬 이미지중 일부에 대한 질병 인덱스를 획득할 수도 있다. 질병 인덱스를 획득하는 방법에 대해서는 전술한 바와 유사하므로, 자세한 설명은 생략하도록 하겠다.Thereafter, the image analysis apparatus 2000 may obtain a disease index from a plurality of medical images (S3400). Specifically, the second controller 2002 may acquire disease indices for a plurality of medical images by using a program for acquiring disease indices stored in the second memory 2400 . Here, the second controller 2002 may obtain a disease index for each of a plurality of medical images, or may acquire a disease index for some of the plurality of medical images. Since the method of acquiring the disease index is similar to that described above, a detailed description thereof will be omitted.

복수의 질병 인덱스가 획득되면, 영상분석장치(2000)는 복수의 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다(S3600). 구체적으로, 제2 콘트롤러(2002)는 획득한 복수의 메디컬 이미지에 관한 질병 인덱스를 종합적으로 고려하여, 진단보조정보를 획득하고 이를 제공할 수 있다. 여기서, 제2 콘트롤러(2002)는 질병 인덱스가 계산된 복수의 메디컬 이미지 전부에 대한 진단보조정보를 제공할 수도 있고, 질병 인덱스가 계산된 복수의 메디컬 이미지 중 일부에 대해서만 진단보조정보를 제공할 수도 있다. 영상분석장치(2000)가 복수의 메디컬 이미지에 대한 진단보조정보를 제공하는 방식에 대해서는 후술하여 자세히 설명하도록 하겠다.When a plurality of disease indices are obtained, the image analysis apparatus 2000 may provide diagnosis auxiliary information based on the plurality of disease indices ( S3600 ). In detail, the second controller 2002 may comprehensively consider disease indexes related to a plurality of acquired medical images to acquire and provide diagnostic auxiliary information. Here, the second controller 2002 may provide diagnostic auxiliary information for all of the plurality of medical images for which the disease index is calculated, or may provide diagnostic auxiliary information for only some of the plurality of medical images for which the disease index is calculated. have. A method in which the image analysis apparatus 2000 provides diagnostic auxiliary information for a plurality of medical images will be described later in detail.

이하에서는, 일 실시예에 따른 복수의 메디컬 이미지의 예시와, 복수의 메디컬 이미지에 기초하여 진단보조정보를 제공하는 방법에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, an example of a plurality of medical images and a method of providing diagnostic assistance information based on the plurality of medical images according to an embodiment will be described with reference to the drawings.

도 21은 일 실시예에 따른 복수의 메디컬 이미지의 일 예를 나타낸 것이다.21 illustrates an example of a plurality of medical images according to an embodiment.

도 21을 참조하면, 영상분석장치(2000)는 피촬영 객체와 관련된 복수의 단층 이미지를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 통신모듈(2800)을 통해 피촬영 객체의 복수의 단면의 이미지를 포함하는 복수의 메디컬 이미지를 획득할 수 있다. 여기서, 복수의 단층 이미지는, 슬라이스 이미지의 집합으로 구성될 수 있음은 전술한 바와 같다.Referring to FIG. 21 , the image analysis apparatus 2000 may acquire a plurality of tomographic images related to an object to be photographed. Specifically, the second controller 2002 may acquire a plurality of medical images including images of a plurality of cross-sections of the object to be photographed through the second communication module 2800 . Here, as described above, the plurality of tomographic images may be composed of a set of slice images.

도 21에는, MRI 이미지 장치에서 획득한 복수의 메디컬 이미지에 관한 예시가 도시되어 있다.21 shows an example of a plurality of medical images acquired by the MRI imaging apparatus.

도 21을 참조하면, 복수의 메디컬 이미지는 피촬영 객체의 제1 축에 대해 평행한 복수의 평면에 관한 슬라이스 이미지들을 포함한다. 또한 각 슬라이스 이미지들은 서로 소정의 거리만큼 이격된 위치에서의 피촬영 객체에 대한 정보를 포함할 수 있다. 즉, 각각의 슬라이스 이미지는 피촬영 객체에 관하여 각기 다른 정보를 포함할 수 있다. 이처럼, 복수의 메디컬 이미지는 피촬영 객체의 여러 단면에 관한 정보를 포괄적으로 포함하고 있어, 영상분석장치(2000)는 복수의 메디컬 이미지를 분석함으로써 피촬영 객체 전반에 관한 진단보조정보를 획득할 수 있다.Referring to FIG. 21 , the plurality of medical images includes slice images of a plurality of planes parallel to a first axis of an object to be photographed. In addition, each slice image may include information about the object to be photographed at positions spaced apart from each other by a predetermined distance. That is, each slice image may include different information about the object to be photographed. As such, since the plurality of medical images comprehensively include information on various cross-sections of the object to be photographed, the image analysis apparatus 2000 can obtain diagnostic auxiliary information about the object to be photographed overall by analyzing the plurality of medical images. have.

도 22는 각각 다른 정보를 포함하고 있는 슬라이스 이미지의들의 예시 및 이를 통한 진단보조정보의 제공에 관한 일 예이다.22 is an example of slice images each including different information and an example of providing diagnostic auxiliary information through this example.

도 22를 참조하면, 하나의 피촬영 객체에 대해 다른 단면을 촬영한 복수의 메디컬 이미지의 예시가 도시되어 있다. 구체적으로, 도 22는 사람의 뇌를 촬영한 MRI 이미지의 여러 슬라이스 이미지들의 집합을 나타낸 것이다.Referring to FIG. 22 , an example of a plurality of medical images obtained by photographing different cross-sections for one object to be photographed is illustrated. Specifically, FIG. 22 shows a set of several slice images of an MRI image of a human brain.

(a)의 경우 뇌의 상부측의 단면에 관한 MRI 슬라이스 이미지이고, (b)의 경우 뇌의 가운데 측 단면에 관한 MRI 슬라이스 이미지를 나타낸 것이다.In case of (a), an MRI slice image of a cross-section of the upper side of the brain is shown, and in case of (b), an MRI slice image of a cross-section of the middle side of the brain is shown.

(a)는 (b)에 비하여 뇌의 상부에 위치하는 영역의 단면을 촬영한 이미지로, 뇌실의 크기가 (b) 보다 작게 촬영되었다. 또한, (a)와 (b)에 포함된 백질영역과 회백질 영역 또한 다르게 도시되고 있으며, 가장 중요하게는, WMH로 구별된 영역정보를 다르게 포함하고 있음을 알 수 있다.(a) is an image of a cross-section of a region located in the upper part of the brain compared to (b), and the size of the ventricle was taken smaller than (b). In addition, the white matter region and the gray matter region included in (a) and (b) are also shown differently, and most importantly, it can be seen that the region information differentiated by WMH is included differently.

전술한 바와 같이, 일 실시예에 따른 질병 인덱스는 기준 영역과 대상 영역의 영역정보의 관계에 기초하여 획득될 수 있다. 따라서, 피촬영 객체의 여러 위치에서의 단면을 포함하는 복수의 메디컬 이미지 각각에서 서로 다른 질병 인덱스가 계산될 수 있다. 구체적인 예시로, 뇌의 상부측의 단면을 촬영한 (a)의 경우 3등급의 질병 인덱스가 계산되었고, 뇌의 가운데 측 단면을 촬영한 (b)의 경우 2등급의 질병 인덱스가 계산되었다.As described above, the disease index according to an embodiment may be obtained based on the relation between the reference region and the region information of the target region. Accordingly, different disease indices may be calculated in each of a plurality of medical images including cross-sections at various positions of the object to be photographed. As a specific example, in the case of (a), a cross-section of the upper side of the brain was taken, a disease index of grade 3 was calculated, and in the case of (b) of a cross-section of the middle side of the brain, a disease index of grade 2 was calculated.

이런 경우, (a)에 관한 진단보조정보 및 (b)에 관한 진단보조정보가 모두 획득될 수 있으며, 영상분석장치(2000)는 모든 이미지에 대한 진단보조정보나, 일부 이미지에 대한 진단보조정보를 획득하여 제공할 수 있다.In this case, both the auxiliary diagnosis information regarding (a) and the auxiliary diagnosis information regarding (b) can be obtained, and the image analysis apparatus 2000 provides diagnostic auxiliary information for all images or auxiliary diagnosis information for some images. can be obtained and provided.

즉, 일 실시예에 따른 영상분석장치(2000)는, 피촬영 객체의 여러 단면을 촬영한 복수의 메디컬 이미지에 대한 질병 인덱스를 계산할 수 있고, 계산된 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다.That is, the image analysis apparatus 2000 according to an embodiment may calculate a disease index for a plurality of medical images obtained by photographing multiple cross-sections of an object to be photographed, and may provide diagnostic assistance information based on the calculated disease index. can

또한, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 모두에 관하여 진단보조정보를 제공할 수도 있고, 일부에 대하여만 진단보조정보를 제공할 수도 있다. Also, the image analysis apparatus 2000 may provide the diagnosis auxiliary information with respect to all the medical images for which the disease index is calculated, or may provide the diagnosis auxiliary information with respect to only some of the medical images.

영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중 일부 이미지를 선택하고, 선택된 메디컬 이미지에 대하여 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 진단 인덱스가 계산된 메디컬 이미지 중, 소정의 정보를 포함하고 있는 이미지를 선택하고, 소정의 정보를 포함하고 있는 이미지에 대하여 질병 인덱스를 계산하여 진단보조정보를 제공할 수 있다.The image analysis apparatus 2000 may select some images from among the medical images for which the disease index is calculated, and may provide diagnostic assistance information for the selected medical images. Specifically, the second controller 2002 selects an image including predetermined information from among the medical images for which the diagnostic index is calculated, calculates a disease index for the image including the predetermined information, and provides diagnostic auxiliary information. can provide

여기서, 진단보조정보가 제공될 메디컬 이미지를 선택하는 기준은 다양할 수 있다. 즉, 영상분석장치(2000)는, 질병 인덱스의 종류나 등급에 기초하여 진단보조정보를 제공할 메디컬 이미지를 선택할 수도 있다. Here, the criteria for selecting a medical image to which the diagnosis auxiliary information is to be provided may vary. That is, the image analysis apparatus 2000 may select a medical image to provide diagnostic assistance information based on the type or grade of the disease index.

예를 들어, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중, 질병의 진행 정도가 가장 심각함을 나타내는 질병 인덱스의 등급 계산의 기초가 된 메디컬 이미지에 대한 진단보조정보를 제공할 수 있다. 다른 예로, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중, 질병의 상태가 가장 호전되었음을 나타내는 질병 인덱스의 등급의 계산 기초가 된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있다. 또 다른 예로, 영상분석장치(2000)는 질병 인덱스가 계산된 메디컬 이미지 중, 복수의 메디컬 이미지로부터 계산된 질병 인덱스의 평균값(또는 중간값)을 나타내는 질병 인덱스의 등급의 계산 기초가 된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있다.For example, the image analysis apparatus 2000 may provide diagnostic assistance information on a medical image that is a basis for calculating a grade of a disease index indicating the most severe disease progression among medical images for which the disease index is calculated. . As another example, the image analysis apparatus 2000 may provide diagnostic assistance information on the medical image that is the basis for calculating the grade of the disease index indicating that the state of the disease is the most improved among the medical images for which the disease index is calculated. As another example, the image analysis apparatus 2000 is a medical image based on the calculation of the grade of the disease index representing the average value (or the median value) of the disease index calculated from a plurality of medical images among the medical images for which the disease index is calculated. It is also possible to provide diagnostic auxiliary information for

다른 예로, 영상분석장치(2000)는, 질병 인덱스의 종류를 고려하여, 제1 질병 인덱스가 높게 측정된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있고, 제2 질병 인덱스가 높게 측정된 메디컬 이미지에 대한 진단보조정보를 제공할 수도 있으며, 이들을 조합하여 진단보조정보를 제공할 수도 있다. 또한, 영상분석장치(2000)는 질병 인덱스의 종류와 등급 모두를 고려하여 진단보조정보를 제공할 메디컬 이미지를 선택할 수 있음은 물론이다.As another example, the image analysis apparatus 2000 may provide diagnostic auxiliary information for a medical image having a high first disease index in consideration of the type of the disease index, and a medical image having a high second disease index. It is also possible to provide diagnostic auxiliary information for the , or a combination thereof to provide diagnostic auxiliary information. Also, it goes without saying that the image analysis apparatus 2000 may select a medical image to provide diagnostic assistance information in consideration of both the type and grade of the disease index.

이처럼, 질병 인덱스의 종류나 등급에 따라 다른 진단보조정보가 계산될 수 있으므로, 영상분석장치(2000)는 피촬영 객체(예를 들어 주로 환자의 경우)의 특성을 고려하여 질병 인덱스의 종류나 등급을 고려하여 진단보조정보를 제공할 메디컬 이미지를 선택함으로써, 환자에 적합한 진단보조정보를 제공할 수 있게 된다.As such, since different diagnostic auxiliary information may be calculated according to the type or grade of the disease index, the image analysis apparatus 2000 considers the characteristics of the object to be photographed (for example, mainly in the case of a patient), and the type or grade of the disease index By selecting a medical image to provide diagnostic auxiliary information in consideration of

다른 실시예로써, 영상분석장치(2000)는 복수의 메디컬 이미지로부터 질병 인덱스를 계산하기 위한 후보 이미지를 선택하고, 선택된 후보 이미지들로부터 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수도 있다.As another embodiment, the image analysis apparatus 2000 may select a candidate image for calculating a disease index from a plurality of medical images, and provide diagnosis auxiliary information based on the disease index obtained from the selected candidate images.

이하에서는, 영상분석장치(2000)가 후보 이미지들로부터 획득한 질병 인덱스에 기초하여 진단보조정보를 제공하는 방법에 대해 도면을 참조하여 설명하도록 한다.Hereinafter, a method in which the image analysis apparatus 2000 provides diagnostic auxiliary information based on a disease index obtained from candidate images will be described with reference to the drawings.

도 23은 실시예에 따라 후보 이미지로부터 진단보조정보를 획득하는 방법을 개략적으로 나타낸 순서도이다.23 is a flowchart schematically illustrating a method of obtaining diagnostic assistance information from a candidate image according to an exemplary embodiment.

도 23을 참조하면, 영상분석장치(2000)가 후보 이미지로부터 진단보조정보를 획득하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S1202), 복수의 메디컬 이미지를 세그멘테이션하는 단계(S1212), 세그멘테이션 된 복수의 이미지에서 후보 이미지를 판단하는 단계(S1222), 선택된 후보 이미지에 대한 질병 인덱스를 획득하는 단계(S1402) 및 획득된 질병 인덱스에 기초하여 진단보조정보를 제공하는 단계(S1602)를 포함할 수 있다.Referring to FIG. 23 , the method for the image analysis apparatus 2000 to obtain diagnostic auxiliary information from a candidate image includes the steps of acquiring a plurality of medical images (S1202), segmenting the plurality of medical images (S1212), and the segmented Determining a candidate image from a plurality of images (S1222), obtaining a disease index for the selected candidate image (S1402), and providing diagnostic auxiliary information based on the obtained disease index (S1602). have.

먼저, 영상분석장치(2000)는 영상획득장치(1000)로부터 복수의 메디컬 이미지를 획득할 수 있다(S1202). 복수의 메디컬 이미지를 획득하는 단계(S1202)는 도 20에서 설명한 바와 유사하므로, 자세한 설명은 생략하도록 한다.First, the image analysis apparatus 2000 may acquire a plurality of medical images from the image acquisition apparatus 1000 ( S1202 ). Since the step of acquiring a plurality of medical images ( S1202 ) is similar to that described with reference to FIG. 20 , a detailed description thereof will be omitted.

이후, 영상분석장치(2000)는 복수의 메디컬 이미지를 세그멘테이션 할 수 있다(S1212). 메디컬 이미지에 대한 세그멘테이션 역시, 전술한 바와 유사하게 수행될 수 있어 자세한 설명은 생략하도록 하겠다. Thereafter, the image analysis apparatus 2000 may segment a plurality of medical images (S1212). Segmentation of the medical image may also be performed similarly to the above, so a detailed description thereof will be omitted.

세그멘테이션이 수행되면, 영상분석장치(2000)는 세그멘테이션 된 복수의 메디컬 이미지로부터 후보 이미지를 결정할 수 있다(S1222). 구체적으로, 제2 콘트롤러(2002)는 미리 정해진 기준에 따라, 세그멘테이션 된 복수의 메디컬 이미지 중에서 미리 정해진 기준을 만족하는 후보 이미지들을 결정할 수 있다. 후보 이미지에 관한 상세한 설명은 도면을 참조하여 후술하도록 하겠다. When segmentation is performed, the image analysis apparatus 2000 may determine a candidate image from a plurality of segmented medical images (S1222). Specifically, the second controller 2002 may determine candidate images satisfying the predetermined criterion from among a plurality of segmented medical images according to a predetermined criterion. A detailed description of the candidate image will be described later with reference to the drawings.

후보 이미지를 결정하면, 영상분석장치(2000)는 후보 이미지로부터 질병 인덱스를 획득할 수 있다(S1402). 구체적으로, 제2 콘트롤러(2002)는 후보 이미지들 전부 또는 일부에 대하여 제2 메모리(2002)에 저장된 질병 인덱스 계산을 위한 프로그램을 이용하여 질병 인덱스를 획득할 수 있다. 질병 인덱스를 획득하는 방법은, 전술한 바와 유사하게 수행될 수 있으므로 구체적인 설명은 생략하도록 한다.When the candidate image is determined, the image analysis apparatus 2000 may obtain a disease index from the candidate image (S1402). Specifically, the second controller 2002 may obtain the disease index for all or some of the candidate images by using a program for calculating the disease index stored in the second memory 2002 . Since the method of obtaining the disease index may be performed similarly to the above, a detailed description thereof will be omitted.

질병 인덱스가 획득되면, 영상분석장치(2000)는 획득된 질병 인덱스에 기초하여 진단보조정보를 획득하고, 제공할 수 있다(S1602). 구체적으로, 제2 콘트롤러(2002)는 하나 이상의 후보 이미지들로부터 획득된 질병 지표에 기초하여 진단보조정보를 제공할 수 있다. 여기서, 제2 콘트롤러(2002)가 복수의 후보 이미지들로부터 진단보조정보를 제공하는 방법은, 도 20 내지 22에서 언급한 바와 같이, 복수의 메디컬 이미지들로부터 진단보조정보를 제공하는 방법이 적용될 수 있다.When the disease index is obtained, the image analysis apparatus 2000 may obtain and provide diagnostic auxiliary information based on the acquired disease index (S1602). Specifically, the second controller 2002 may provide diagnostic assistance information based on a disease index obtained from one or more candidate images. Here, as for the method for the second controller 2002 to provide the auxiliary diagnosis information from the plurality of candidate images, as described with reference to FIGS. 20 to 22 , the method of providing the auxiliary diagnosis information from the plurality of medical images may be applied. have.

이하에서는, 복수의 메디컬 이미지로부터 후보 이미지가 추출된 예시 및 추출된 후보 이미지들로부터 질병 인덱스를 계산하고, 진단보조정보를 제공하는 예시에 대해 도면을 참조하여 설명하도록 하겠다.Hereinafter, an example in which a candidate image is extracted from a plurality of medical images, an example in which a disease index is calculated from the extracted candidate images, and an example in which the diagnosis auxiliary information is provided will be described with reference to the drawings.

도 24은 일 실시예에 따른 후보 이미지의 예시이다.24 is an example of a candidate image according to an embodiment.

도 24를 참조하면, 영상분석장치(2000)는 후보 이미지를 선택할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 영상획득장치(1000)로부터 획득한 복수의 메디컬 이미지 중에서, 하나 이상의 후보 이미지를 선택할 수 있다. 여기서, 후보 이미지는 복수의 메디컬 이미지 중에서 미리 정해진 기준을 만족하는 이미지일 수 있다. Referring to FIG. 24 , the image analysis apparatus 2000 may select a candidate image. Specifically, the second controller 2002 may select one or more candidate images from among a plurality of medical images acquired from the image acquisition apparatus 1000 . Here, the candidate image may be an image satisfying a predetermined criterion among a plurality of medical images.

여기서, 미리 정해진 기준은 계산하고자 하는 질병 인덱스에 대응되도록 결정될 수 있다. 일 예로, 미리 정해진 기준은 기준 영역의 포함 여부일 수 있다. 즉, 제2 콘트롤러(2002)는 복수의 메디컬 이미지 중에서 기준 영역에 관한 정보를 포함하고 있는 이미지를 후보 이미지로 선택할 수 있다. 다른 예로, 미리 정해진 기준은 대상 영역의 포함 여부일 수 있다. 즉, 제2 콘트롤러(2002)는 복수의 메디컬 이미지 중에서 대상 영역에 관한 정보를 포함하고 있는 이미지를 후보 이미지로 선택할 수 있다. 또한, 제2 콘트롤러(2002)는 대상 영역과 기준 영역 모두를 포함하는 메디컬 이미지를 후보 이미지로 선택할 수 있다. Here, the predetermined criterion may be determined to correspond to a disease index to be calculated. For example, the predetermined criterion may be whether the reference region is included. That is, the second controller 2002 may select an image including information about the reference region from among a plurality of medical images as a candidate image. As another example, the predetermined criterion may be whether the target area is included. That is, the second controller 2002 may select an image including information on the target region from among a plurality of medical images as a candidate image. Also, the second controller 2002 may select a medical image including both the target region and the reference region as a candidate image.

또한 여기서, 후보 이미지는 도면에 도시된 바와 같이 후보 이미지 범위 내에 포함되는 하나 이상의 이미지로 결정될 수도 있다. 여기서, 후보 이미지 범위는, 동일한 피촬영 객체를 하나의 축에 대한 여러 평면으로 촬영한 연속적인 순서를 가지는 단층 메디컬 이미지 중에서, 미리 정해진 조건을 만족하는 제1 메디컬 이미지부터 미리 정해진 조건을 만족하는 제2 메디컬 사이까지의 범위를 의미할 수 있다. 여기서, 제1 메디컬 이미지부터 제2 메디컬 이미지 사이의 범위는 제1 메디컬 이미지와 제2 메디컬 이미지 사이의 순차적으로 위치하는 복수의 메디컬 이미지를 포함할 수 있다.Also, here, the candidate image may be determined as one or more images included in the candidate image range as shown in the drawing. Here, the candidate image range includes a first medical image that satisfies a predetermined condition among tomographic medical images having a continuous sequence obtained by photographing the same object to be photographed in multiple planes about one axis, and a first medical image that satisfies the predetermined condition. It may mean a range between 2 medical. Here, the range between the first medical image and the second medical image may include a plurality of medical images sequentially positioned between the first medical image and the second medical image.

즉, 도면을 참조하여 구체적인 예시를 들자면, 기준 영역이 뇌실 영역인 경우, saggital 축에 대한 transverse 평면을 연속적인 단면으로 촬영한 복수의 메디컬 이미지 중에서, 뇌실이 포함된 메디컬 이미지 중 가장 하부에 위치한 제1 메디컬 이미지부터 뇌실이 포함된 메디컬 이미지 중 가장 상부에 위치한 제2 메디컬 이미지 사이가 후보 이미지 범위로 설정될 수 있는 것이다.That is, to give a specific example with reference to the drawings, if the reference region is the ventricle region, among a plurality of medical images obtained by taking a transverse plane with respect to the saggital axis as a continuous cross-section, the lowermost medical image including the ventricle A range between the first medical image and the second medical image located at the top of the medical images including the ventricle may be set as the candidate image range.

이를 달리 표현하면, 제2 콘트롤러(2002)는 메디컬 이미지에 포함된 미리 설정된 조건에 대응되는 픽셀의 수가 임계값 이하 또는 이상인지 여부에 기초하여 후보 이미지 또는 후보 이미지의 범위를 선택할 수 있다.In other words, the second controller 2002 may select the candidate image or the range of the candidate image based on whether the number of pixels corresponding to a preset condition included in the medical image is less than or equal to a threshold value.

구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지의 세그멘테이션 결과를 분석하여, 뇌실로 레이블링 된 픽셀의 수가 임계값 이하인지 여부를 판단할 수 있다. 제2 콘트롤러(2002)는 메디컬 이미지에 포함된 뇌실로 레이블링 된 픽셀의 수가 임계값 이상 또는 초과일 경우에, 상기 메디컬 이미지를 후보 이미지로 결정할 수 있다.Specifically, the second controller 2002 may analyze the segmentation result of the medical image to determine whether the number of pixels labeled with the ventricle is less than or equal to a threshold value. The second controller 2002 may determine the medical image as a candidate image when the number of pixels labeled with the ventricle included in the medical image is equal to or greater than a threshold value.

또한 제2 콘트롤러(2002)가 후보 이미지의 범위를 설정하는 경우, 인접한 2개의 메디컬 이미지 분석 결과 하나의 이미지에 포함된 뇌실로 레이블링 된 픽셀의 수가 임계값 미만 또는 이하이고 다른 하나의 이미지에 포함된 뇌실로 레이블링 된 픽셀의 수가 임계값 이상 또는 초과라면, 상기 다른 하나의 이미지가 후보 이미지의 범위의 일 경계로 설정될 수 있다. In addition, when the second controller 2002 sets the range of the candidate image, as a result of analyzing two adjacent medical images, the number of pixels labeled with the ventricle included in one image is less than or equal to the threshold value, and the number of pixels included in the other image is less than or equal to the threshold. If the number of pixels labeled with the ventricle is greater than or greater than the threshold, the other image may be set as one boundary of the range of candidate images.

도 25는 일 실시예에 따른 후보 이미지로부터 진단보조정보를 제공하는 예시를 나타낸 것이다.25 is a diagram illustrating an example of providing diagnostic auxiliary information from a candidate image according to an exemplary embodiment.

도 25를 참조하면, 영상분석장치(2000)는 후보 이미지로부터 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 후보 이미지로부터 질병 인덱스를 획득하고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공할 수 있다.Referring to FIG. 25 , the image analysis apparatus 2000 may provide diagnosis auxiliary information from a candidate image. Specifically, the second controller 2002 may obtain a disease index from the candidate image, and provide diagnostic auxiliary information based on the acquired disease index.

질병 인덱스를 산출하는 방식에 대해서는 전술한 바와 같아 구체적인 설명은 생략하도록 한다.Since the method of calculating the disease index has been described above, a detailed description thereof will be omitted.

도 25에 도시된 바에 따르면, (a)의 경우 후보 이미지가 아닌 메디컬 이미지이고, (b)의 경우 후보 이미지로 결정된 메디컬 이미지이다. As shown in FIG. 25 , in case of (a), it is a medical image that is not a candidate image, and in case of (b), it is a medical image determined as a candidate image.

일 실시예에 따라 질병 인덱스를 계산함에 있어서, 피촬영 객체의 특정 영역이 메디컬 이미지 내에 포함되는 것이 중요할 수 있다. 예를 들어, 일 실시예에 따른 질병 인덱스획득 방법은 뇌실과 WMH의 상관관계에 의해 도출될 수 있는데, 이런 경우 메디컬 이미지 내에 뇌실이 포함되어 있지 않다면 질병 인덱스를 산출하기 어려워질 수 있고, 이로 인해 정확한 진단보조정보가 제공되지 못할 수도 있다. 즉, 도 25의 (a)의 경우, 뇌의 상단부를 촬영한 메디컬 이미지로, 메디컬 이미지 내에 뇌실 영역이 포함되어 있지 않기 때문에, 일 실시예에 따른 질병 인덱스계산 방법이 이용되기 어려울 수 있다.In calculating the disease index according to an embodiment, it may be important that a specific region of the object to be photographed is included in the medical image. For example, the disease index acquisition method according to an embodiment may be derived by the correlation between the ventricle and WMH. In this case, if the ventricle is not included in the medical image, it may be difficult to calculate the disease index, which Accurate diagnostic assistance information may not be provided. That is, in the case of (a) of FIG. 25 , it is a medical image obtained by photographing the upper part of the brain, and since the ventricular region is not included in the medical image, it may be difficult to use the disease index calculation method according to an embodiment.

(b)의 경우, 뇌실영역이 메디컬 이미지 내에 포함되어 있어, 제2 콘트롤러(2002)는 (b)와 같은 메디컬 이미지를 분석하여 질병 인덱스를 계산할 수 있고, 계산된 질병 인덱스에 기초하여 진단보조정보를 획득할 수 있는 것이다.In the case of (b), since the ventricular region is included in the medical image, the second controller 2002 can calculate the disease index by analyzing the medical image as in (b), and diagnosis auxiliary information based on the calculated disease index can be obtained.

또한, 피촬영 객체와 관련된 모든 메디컬 이미지를 분석하는 경우, 영상분석장치(2000)의 연산량이 과도해져 연산속도가 느려질 수 있고 이에 따라 연산과정에서 오류가 발생할 수도 있다.In addition, when all medical images related to the object to be photographed are analyzed, the amount of computation of the image analysis apparatus 2000 may be excessive and the computation speed may be slowed, and thus an error may occur in the computation process.

그러나, 일 실시예에 따른 후보 이미지를 이용한 진단보조정보 제공 방법에 의하면, 복수의 이미지를 세그멘테이션 한 이후 질병 인덱스를 계산할 후보 이미지를 먼저 결정하고, 결정된 후보 이미지들에 대해서만 질병 인덱스를 계산하므로, 연산량을 감소시킴으로써 연산속도가 빨라지고 연산의 정확도가 향상될 수 있게 되는 것이다.However, according to the method for providing diagnostic assistance information using candidate images according to an embodiment, after segmenting a plurality of images, a candidate image for which a disease index is to be calculated is first determined, and a disease index is calculated only for the determined candidate images, so the amount of computation is By reducing

도 26은 일 실시예에 따른 진단보조정보 제공의 다른 구현예이다.26 is another example of providing diagnostic auxiliary information according to an exemplary embodiment.

도 26을 참조하면, 일 실시예에 따른 영상분석장치(2000)는 후보 이미지들 중 적어도 하나 이상의 이미지에 관한 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 후보 이미지로 선택된 메디컬 이미지들 중에서, 미리 정해진 조건을 만족하는 적어도 하나 이상의 이미지에 관한 진단보조정보를 제공할 수 있다.Referring to FIG. 26 , the image analysis apparatus 2000 according to an embodiment may provide diagnostic auxiliary information on at least one image among candidate images. Specifically, the second controller 2002 may provide diagnostic auxiliary information on at least one image satisfying a predetermined condition among medical images selected as the candidate image.

여기서, 미리 정해진 조건은 질병 인덱스를 고려하여 결정될 수 있다. 일 예로, 미리 정해진 조건은 가장 심한 질병 진행도를 지시하는 질병 인덱스 값일 수 있다. 즉, 제2 콘트롤러(2002)는 후보 이미지들의 질병 인덱스 중에서 질병 인덱스가 가장 심한 질병의 진행도를 나타내고 있는 특정 메디컬 이미지를 진단보조정보 제공을 위한 메디컬 이미지로 선택할 수 있다. Here, the predetermined condition may be determined in consideration of the disease index. For example, the predetermined condition may be a disease index value indicating the most severe disease progression. That is, the second controller 2002 may select, as a medical image for providing diagnosis auxiliary information, a specific medical image indicating the progress of a disease having the most severe disease index among the disease indexes of the candidate images.

또한, 메디컬 이미지로부터 복수의 질병 인덱스가 계산될 수 있는 경우, 미리 정해진 조건은 각각의 질병 인덱스를 모두 고려하여 결정될 수도 있다. 즉 제2 콘트롤러(2002)는 복수의 질병 인덱스 각각에 대한 특정 후보 이미지를 진단 보조정보 제공을 위한 메디컬 이미지로 모두 선택할 수도 있고, 복수의 질병 인덱스 중 일부에 대한 특정 후보 이미지만을 진단 보조정보 제공을 위한 메디컬 이미지로 선택할 수 있는 것이다.In addition, when a plurality of disease indices can be calculated from the medical image, the predetermined condition may be determined in consideration of all disease indices. That is, the second controller 2002 may select all of the specific candidate images for each of the plurality of disease indices as medical images for providing the diagnostic auxiliary information, or provide only the specific candidate images for some of the plurality of disease indices as the diagnostic auxiliary information. It can be selected as a medical image for

도면을 참조한 구체적인 예시를 들자면, 제2 콘트롤러(2002)는, 복수의 메디컬 이미지 중 제1 질병 인덱스에 관한 미리 정해진 조건을 만족하는 메디컬 이미지에 관한 진단보조정보를 디스플레이모듈(2600)를 통해 제공할 수 있다. 여기서, 미리 정해진 조건은, 복수의 후보 이미지 중 제1 질병 인덱스의 등급이 가장 높게 계산 되었는지 여부일 수 있다. 또한, 제2 콘트롤러(2002)는, 복수의 메디컬 이미지 중 제2 질병 인덱스에 관한 미리 정해진 조건을 만족하는 메디컬 이미지에 관한 진단보조정보를 디스플레이모듈(2600)을 통해 제공할 수도 있고, 제1 질병 인덱스 및 제2 질병 인덱스에 관한 미리 정해진 조건을 만족하는 메디컬 이미지 모두에 대한 진단보조정보를 제공할 수도 있다.As a specific example with reference to the drawings, the second controller 2002 may provide, through the display module 2600, diagnostic auxiliary information on a medical image that satisfies a predetermined condition regarding the first disease index among a plurality of medical images. can Here, the predetermined condition may be whether the grade of the first disease index among the plurality of candidate images is calculated to be the highest. In addition, the second controller 2002 may provide, through the display module 2600 , diagnostic auxiliary information on a medical image that satisfies a predetermined condition regarding a second disease index among a plurality of medical images through the display module 2600 , It is also possible to provide diagnostic auxiliary information for both medical images that satisfy a predetermined condition regarding the index and the second disease index.

이상에서는, 복수의 메디컬 이미지로부터 질병 인덱스를 계산하기 위한 후보 이미지를 결정하는 방법이나, 하나의 메디컬 이미지에 관한 질병 인덱스를 산출하는 방법 위주로 설명하였다. In the above, a method for determining a candidate image for calculating a disease index from a plurality of medical images and a method for calculating a disease index for one medical image have been mainly described.

그러나, 일 실시예에 따르면, 보다 정확한 질병 인덱스를 계산하기 위하여 복수의 메디컬 이미지를 이용하여 질병 인덱스를 계산할 수도 있는데, 이와 관련하여 도 27 내지 도 29을 참조하여 설명하도록 한다.However, according to an embodiment, the disease index may be calculated using a plurality of medical images in order to more accurately calculate the disease index, which will be described with reference to FIGS. 27 to 29 .

도 27은 일 실시예에 따른 복수의 이미지에 기초하여 질병 인덱스를 획득하는 방법을 나타낸 순서도이다. 27 is a flowchart illustrating a method of obtaining a disease index based on a plurality of images according to an embodiment.

도 27을 참조하면, 일 실시예에 따른 복수의 이미지에 기초하여 질병 인덱스를 획득하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S4200), 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S4400), 제1 이미지의 타겟영역정보를 획득하는 단계(S4600) 및 제1 이미지의 타겟영역정보에 기초하여 제2 이미지의 질병 인덱스를 획득하는 단계(S4800)를 포함할 수 있다.Referring to FIG. 27 , a method for obtaining a disease index based on a plurality of images according to an embodiment includes obtaining a plurality of medical images (S4200), and performing segmentation on the plurality of medical images (S4400). , obtaining the target area information of the first image (S4600) and obtaining the disease index of the second image based on the target area information of the first image (S4800).

먼저, 복수의 메디컬 이미지를 획득하고(S4200), 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S4400)는 전술한 동작과 유사하게 수행될 수 있으므로, 구체적인 설명은 생략하도록 하겠다.First, acquiring a plurality of medical images (S4200) and performing segmentation on the plurality of medical images (S4400) may be performed similarly to the above-described operation, and thus a detailed description thereof will be omitted.

메디컬 이미지에 대한 세그멘테이션 수행 이후, 영상분석장치(2000)는 제1 이미지에 대한 타겟영역에 관한 정보를 획득할 수 있다(S4600). 구체적으로, 제2 콘트롤러(2002)는, 계산하고자 하는 질병 인덱스에 대응되는 타겟영역에 대한 정보를 획득할 수 있다. 여기서, 타겟영역은 특정 질병 인덱스를 계산함에 있어 필수적으로 필요한 영역을 의미할 수 있다. 구체적인 내용에 대해서는 후술하도록 한다.After the segmentation is performed on the medical image, the image analysis apparatus 2000 may acquire information on the target region of the first image ( S4600 ). Specifically, the second controller 2002 may acquire information on the target region corresponding to the disease index to be calculated. Here, the target region may mean a region essential for calculating a specific disease index. Specific details will be described later.

타겟영역에 관한 정보를 획득하면, 영상분석장치(2000)는 제1 이미지의 타겟영역정보에 기초하여 제2 이미지의 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지로부터 획득한 타겟영역정보와 제2 이미지에 포함되어 있는 피촬영 객체와 관련된 영역정보에 기초하여, 제2 이미지에 관련된 질병 인덱스를 계산할 수 있다. 이와 관련된 예시는 후술하여 설명하도록 한다.When information on the target region is obtained, the image analysis apparatus 2000 may calculate a disease index of the second image based on the target region information of the first image. Specifically, the second controller 2002 may calculate the disease index related to the second image based on the target area information obtained from the first image and the area information related to the object to be photographed included in the second image. Examples related thereto will be described later.

이하에서는, 도면을 참조하여 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 방법에 대해 구체적인 예시를 들어 설명하도록 한다.Hereinafter, a method of calculating the disease index of the second image in consideration of the information of the first image with reference to the drawings will be described with reference to a specific example.

도 28은 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 일 예이다.28 is an example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an embodiment.

일 실시예에 따르면, 영상분석장치(2000)는 제1 이미지로부터 직접 제2 이미지의 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지에 포함된 제1 영역 정보와 제2 이미지에 포함된 제2 영역정보의 관계에 기초하여, 제2 이미지의 질병 인덱스를 계산할 수 있다. 여기서, 제1 영역 정보는 제1 이미지에 포함된 기준 영역에 관한 정보일 수 있다. 또한, 제2 영역 정보는 제2 이미지에 포함된 대상 영역에 관한 정보일 수 있다.According to an embodiment, the image analysis apparatus 2000 may calculate the disease index of the second image directly from the first image. Specifically, the second controller 2002 may calculate the disease index of the second image based on the relationship between the first region information included in the first image and the second region information included in the second image. Here, the first area information may be information about the reference area included in the first image. Also, the second area information may be information about the target area included in the second image.

질병 인덱스를 계산함에 있어서, 기준 영역에 관한 정보는 메디컬 이미지 내에 포함되어 있지 않으면서, 대상 영역에 관한 정보는 포함되어 있는 경우가 있다. 이런 경우, 질병 인덱스를 계산하기 위한 요건이 충족되지 않았기 때문에 질병 인덱스를 계산하기가 난해할 수 있으나, 경우에 따라 이러한 메디컬 이미지에 대해서도 질병 인덱스를 계산할 필요가 있다.In calculating the disease index, information on the reference region may not be included in the medical image, but information on the target region may be included. In this case, it may be difficult to calculate the disease index because the requirements for calculating the disease index are not met, but in some cases, it is necessary to calculate the disease index even for these medical images.

즉, 예시적으로 도 28을 참조하면, 제1 슬라이스 이미지의 경우 WMH에 관한 정보가 포함되어 있으나, 뇌실에 관한 정보가 포함되어 있지 않다. 이런 경우, 뇌실과 WMH의 관계로부터 도출되는 질병 인덱스는 제1 슬라이스 이미지로부터 도출되기가 난해할 수 있다. 그러나, WMH는 질병에 관한 중요한 정보를 내포하고 있을 가능성이 높아, 보다 정확한 진단보조정보를 제공하기 위해서는 WMH가 발견된 이미지에 대해서는 질병 인덱스를 계산하는 것이 바람직하다. That is, illustratively referring to FIG. 28 , in the case of the first slice image, information about WMH is included, but information about the ventricle is not included. In this case, the disease index derived from the relationship between the ventricle and WMH may be difficult to derive from the first slice image. However, since WMH is likely to contain important information on disease, it is desirable to calculate a disease index for the image in which WMH was found in order to provide more accurate diagnostic auxiliary information.

이런 경우, 제2 콘트롤러(2002)는 제1 이미지와 제2 이미지의 관계에 기초하여, 제1 이미지에 관한 정보를 고려하여 제2 이미지의 질병 인덱스를 계산할 수 있다. 여기서, 제1 이미지와 제2 이미지의 관계는 미리 획득될 수 있다. 일 예로, 제1 이미지와 제2 이미지의 관계는, 슬라이스 이미지 사이의 거리일 수 있다.In this case, the second controller 2002 may calculate the disease index of the second image in consideration of information on the first image based on the relationship between the first image and the second image. Here, the relationship between the first image and the second image may be obtained in advance. For example, the relationship between the first image and the second image may be a distance between slice images.

다시 도면을 참조하여 구체적인 예시들 들어 설명한다.With reference to the drawings again, specific examples will be described.

제2 콘트롤러(2002)는 먼저 복수의 메디컬 이미지에 대한 세그멘테이션의 결과로, 메디컬 이미지 내에 질병 인덱스를 계산하기 위한 대상 영역은 포함되어 있으나, 기준 영역은 포함되어 있지 않은 제1 이미지를 결정할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 일 실시예에 따른 질병 인덱스를 계산하기 위하여는 뇌실 및 WMH에 관한 정보가 필요함에도, 메디컬 이미지 내에 WMH에 관한 정보만이 포함되어 있고 뇌실에 관한 정보가 포함되어 있지 않은 제1 이미지를 선택할 수 있다.The second controller 2002 may first determine, as a result of segmentation of a plurality of medical images, a first image in which a target region for calculating a disease index is included in the medical image, but a reference region is not included. For example, the second controller 2002 includes only information about WMH in the medical image, even though information about the ventricle and WMH is required to calculate the disease index according to an embodiment, and information about the ventricle is A first image that is not included may be selected.

이후, 제2 콘트롤러(2002)는 제1 이미지근처의 다른 메디컬 이미지 중에서, 제1 이미지에 포함되어 있지 않은 기준 영역을 포함하고 있는 제2 이미지를 선택할 수 있다. 여기서, 제2 이미지는 제1 이미지와 바로 인접한 이미지 일 수도 있으나, 이에 국한되는 것은 아니다. 예를 들어, 제2 콘트롤러(2002)는 제1 이미지 주변에 위치된(예컨대, 시상면(saggital)축에서의 제1 이미지로부터의 거리가 소정 거리 이하인) 메디컬 이미지 중에서, 질병 인덱스를 계산하기 위한 뇌실 영역을 포함하고 있는 제2 이미지를 선택할 수 있다.Thereafter, the second controller 2002 may select a second image including a reference region not included in the first image from among other medical images near the first image. Here, the second image may be an image immediately adjacent to the first image, but is not limited thereto. For example, the second controller 2002 may be configured to calculate a disease index among medical images located around the first image (eg, a distance from the first image in the sagittal axis is less than or equal to a predetermined distance). A second image containing the ventricular region may be selected.

제2 이미지가 선택되면, 제2 콘트롤러(2002)는 제2 이미지에 포함된 기준 영역과 제1 이미지에 포함된 대상 영역의 관계에 기초하여, 질병 인덱스를 계산할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실영역으로부터 제1 이미지에 포함된 WMH 까지의 거리정보 및 제2 이미지에 포함된 WMH의 영역정보에 기초하여 제2 이미지 내의 질병 인덱스를 계산할 수 있다. 여기서, 제1 이미지와 제2 이미지 사이의 거리는 미리 획득되어 저장될 수 있다. When the second image is selected, the second controller 2002 may calculate a disease index based on the relationship between the reference region included in the second image and the target region included in the first image. For example, the second controller 2002 determines the disease in the second image based on distance information from the ventricular region included in the second image to the WMH included in the first image and area information of the WMH included in the second image. index can be calculated. Here, the distance between the first image and the second image may be obtained and stored in advance.

또한 여기서, 제2 이미지에 포함된 기준 영역과 제1 이미지에 포함된 대상 영역 사이의 관계를 도출하기 위한 기준은 다양하게 결정될 수 있다. 일 예로, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실 영역의 중심으로부터 제1 이미지에 포함된 WMH 영역 까지의 거리에 기초하여 질병 인덱스를 계산할 수 있다. 다른 예로, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실 영역 중 제1 이미지에 포함된 WMH 영역과 가장 가까운 뇌실영역으로부터, 제1 이미지에 포함된 WMH 영역까지의 거리에 기초하여 질병 인덱스를 계산할 수도 있다. 예시적으로 언급한 방법 외에도 제2 이미지에 포함된 뇌실영역으로부터 제1 이미지에 포함된 WMH 영역까지의 거리를 계산할 수 있는 기준이라면, 다양한 방법이 본 발명의 사상에 통합될 수 있음이 통상의 기술자라면 이해될 것이다.Also, here, a criterion for deriving a relationship between the reference region included in the second image and the target region included in the first image may be variously determined. As an example, the second controller 2002 may calculate the disease index based on the distance from the center of the ventricular region included in the second image to the WMH region included in the first image. As another example, the second controller 2002 is a disease index based on the distance from the ventricular region closest to the WMH region included in the first image among the ventricular regions included in the second image to the WMH region included in the first image. can also be calculated. In addition to the methods mentioned by way of example, if it is a criterion for calculating the distance from the ventricular region included in the second image to the WMH region included in the first image, it is understood by those skilled in the art that various methods can be incorporated into the spirit of the present invention. it will be understood

이하에서는 도면을 참조하여, 제1 이미지로부터 간접적으로 제2 이미지의 질병 인덱스를 계산하는 방법에 대해 도면을 참조하여 설명한다.Hereinafter, a method of calculating the disease index of the second image indirectly from the first image will be described with reference to the drawings.

도 29는 일 실시예에 따라 제1 이미지의 정보를 고려하여 제2 이미지의 질병 인덱스를 산출하는 과정을 나타낸 다른 예이다.29 is another example illustrating a process of calculating a disease index of a second image in consideration of information on a first image according to an embodiment.

일 실시예에 따르면, 영상분석장치(2000)는 제1 이미지로부터 간접적으로 제2 이미지의 질병 인덱스를 계산할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지에 포함된 기준 영역에 관한 정보로부터 간접적으로 획득된 제2 이미지 내의 기준 셀과 제2 이미지내에 포함된 대상 영역의 관계에 기초하여, 제2 이미지의 질병 인덱스를 계산할 수 있다.According to an embodiment, the image analysis apparatus 2000 may indirectly calculate the disease index of the second image from the first image. Specifically, the second controller 2002 determines the second image based on the relationship between the reference cell in the second image and the target region included in the second image, which is indirectly obtained from information about the reference region included in the first image. can calculate the disease index of

도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.

제2 콘트롤러(2002)는, 도 27에서 설명한 바와 마찬가지로, 먼저 복수의 메디컬 이미지에 대한 세그멘테이션의 결과로, 메디컬 이미지 내에 질병 인덱스를 계산하기 위한 대상 영역은 포함되어 있으나, 기준 영역은 포함되어 있지 않은 제1 이미지를 결정할 수 있다. As described with reference to FIG. 27 , first, as a result of segmentation on a plurality of medical images, the second controller 2002 includes a target region for calculating a disease index in the medical image, but does not include a reference region. A first image may be determined.

예를 들어, 제2 콘트롤러(2002)는 일 실시예에 따른 질병 인덱스를 계산하기 위하여는 뇌실 및 WMH에 관한 정보가 필요함에도, 메디컬 이미지 내에 WMH에 관한 정보만이 포함되어 있고 뇌실에 관한 정보가 포함되어 있지 않은 제1 이미지를 선택할 수 있다.For example, the second controller 2002 includes only information about WMH in the medical image, even though information about the ventricle and WMH is required to calculate the disease index according to an embodiment, and information about the ventricle is A first image that is not included may be selected.

이후, 제2 콘트롤러(2002)는 제1 이미지와 인접한 다른 메디컬 이미지 중에서, 제1 이미지에 포함되어 있지 않은 기준 영역을 포함하고 있는 제2 이미지를 선택할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제1 이미지 근처에 위치한 메디컬 이미지 중에서, 질병 인덱스를 계산하기 위한 뇌실 영역을 포함하고 있는 제2 이미지를 선택할 수 있다.Thereafter, the second controller 2002 may select a second image including a reference region not included in the first image from among other medical images adjacent to the first image. For example, the second controller 2002 may select a second image including a ventricular region for calculating a disease index from among medical images located near the first image.

제2 이미지가 선택되면, 제2 콘트롤러(2002)는 제2 이미지에 포함된 기준 영역에 관한 정보에 기초하여, 제1 이미지 상에서 제2 이미지에 포함된 기준 영역에 대응되는 기준 셀을 결정할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 제2 이미지에 포함된 뇌실영역에 관한 정보에 기초하여, 제1 이미지 상에 제2 이미지에 포함된 뇌실영역에 대응되는 기준 셀(cell)을 결정할 수 있다.When the second image is selected, the second controller 2002 may determine a reference cell corresponding to the reference region included in the second image on the first image based on information on the reference region included in the second image. . For example, the second controller 2002 may determine a reference cell corresponding to the ventricular region included in the second image on the first image, based on information about the ventricular region included in the second image. have.

기준 셀이 결정되면, 제2 콘트롤러(2002)는 제1 이미지에 포함된 기준 셀과대상 영역에 관한 정보에 기초하여 질병 인덱스를 계산할 수 있다. 즉, 예를 들어 제2 콘트롤러(2002)는 제1 이미지에 포함된 뇌실영역에 대응되는 제2 영역의 기준 셀을 뇌실로 간주하고, 제1 이미지에 포함된 WMH와의 관계를 도출하여 질병 인덱스를 계산할 수 있는 것이다. 기준 셀과 WMH의 관계에 기초하여 질병 인덱스를 계산하는 방식에 대해서는, 전술한 바와 유사한 질병 인덱스계산 방법이 이용될 수 있음은 물론이다.When the reference cell is determined, the second controller 2002 may calculate a disease index based on information about the reference cell and the target region included in the first image. That is, for example, the second controller 2002 considers the reference cell of the second region corresponding to the ventricular region included in the first image as the ventricle, and derives the relationship with the WMH included in the first image to determine the disease index. it can be calculated As for the method of calculating the disease index based on the relationship between the reference cell and the WMH, it goes without saying that a method of calculating the disease index similar to that described above may be used.

이상에서와 같이, 일 실시예에 따르면 영상분석장치(2000)는 정확한 질병 인덱스를 획득하기 위하여 복수의 메디컬 이미지를 이용하여 질병 인덱스를 계산할 수 있고, 이에 기초하여 진단보조정보를 제공할 수 있다. As described above, according to an exemplary embodiment, the image analysis apparatus 2000 may calculate a disease index by using a plurality of medical images to obtain an accurate disease index, and may provide diagnosis auxiliary information based on this.

이에 더하여, 일 실시예에 따른 진단보조정보 제공 시스템(10000)은 메디컬 이미지를 3D 모델링한 3D 메디컬 모델에서도 질병 인덱스를 계산하고, 진단보조정보를 제공할 수 있다.In addition, the diagnostic assistance information providing system 10000 according to an exemplary embodiment may calculate a disease index in a 3D medical model obtained by 3D modeling a medical image, and provide diagnostic assistance information.

이하에서는 도 30 내지 도 32를 참조하여, 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법에 대하여 설명한다.Hereinafter, a method of providing diagnostic assistance information based on a 3D medical model will be described with reference to FIGS. 30 to 32 .

도 30은 일 실시예에 따른 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법의 일 예를 나타낸 순서도이다.30 is a flowchart illustrating an example of a method of providing diagnostic assistance information based on a 3D medical model according to an embodiment.

일 실시예에 따라 영상분석장치(2000)가 수행하는 3D 메디컬 모델에 기초하여 진단보조정보를 제공하는 방법은 복수의 메디컬 이미지를 획득하는 단계(S5200), 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S5400), 세그멘테이션 된 메디컬 이미지에 기초하여 3차원 모델링을 수행하는 단계(S5600) 및 3차원 모델링에 기초하여 질병 인덱스를 획득하는 단계(S5800)를 포함할 수 있다.According to an embodiment, a method of providing diagnostic auxiliary information based on a 3D medical model performed by the image analysis apparatus 2000 includes acquiring a plurality of medical images (S5200), and performing segmentation on the plurality of medical images. It may include a step (S5400), a step of performing 3D modeling based on the segmented medical image (S5600), and a step of obtaining a disease index based on the 3D modeling (S5800).

복수의 메디컬 이미지를 획득하는 단계(S5200) 및 복수의 메디컬 이미지에 대한 세그멘테이션을 수행하는 단계(S5400)에 대해서는 전술한 바와 유사하게 수행될 수 있어 자세한 설명은 생략하도록 한다.The steps of obtaining a plurality of medical images ( S5200 ) and performing segmentation on the plurality of medical images ( S5400 ) may be performed similarly to those described above, and thus a detailed description thereof will be omitted.

복수의 메디컬 이미지에 대한 세그멘테이션을 수행하면, 영상분석장치(2000)는 세그멘테이션 된 복수의 메디컬 이미지에 기초하여, 3D 메디컬 모델을 획득할 수 있다(S5600). 구체적으로, 제2 콘트롤러(2002)는, 피촬영 객체를 연속적인 단면으로 촬영한 복수의 메디컬 이미지를 가공하여, 3D 메디컬 모델을 생성할 수 있다. 여기서, 3D 메디컬 모델은 복수의 세그멘테이션 된 메디컬 이미지를 기초로 생성되어, 복수의 뇌 영역 정보를 반영하는 3D 픽셀 정보를 포함할 수 있다. 즉, 3차원 상에서 복수의 뇌 영역별로 세그멘테이션 되어 있을 수 있다. 또한, 전술한 기준 바운더리가 3차원 상에서 형성될 수 있다. (설명 적당히 : 복수의 뇌 영역 별로 대응되는 3D 픽셀 정보, 바운더리 등등 포함)을 생성할 수 있다.When segmentation is performed on a plurality of medical images, the image analysis apparatus 2000 may acquire a 3D medical model based on the plurality of segmented medical images (S5600). Specifically, the second controller 2002 may generate a 3D medical model by processing a plurality of medical images obtained by photographing an object to be photographed as a continuous cross-section. Here, the 3D medical model may include 3D pixel information that is generated based on a plurality of segmented medical images and reflects information on a plurality of brain regions. That is, it may be segmented by a plurality of brain regions in 3D. In addition, the aforementioned reference boundary may be formed in three dimensions. (Explain appropriately: 3D pixel information corresponding to each of a plurality of brain regions, including boundaries, etc.) can be generated.

3D 메디컬 모델을 획득하면, 영상분석장치(2000)는 획득된 3D 메디컬 모델에 기초하여 질병 인덱스를 획득하고 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 질병 인덱스획득을 위한 프로그램을 이용하여 3D 메디컬 모델로부터 질병 인덱스를 산출하고, 산출된 질병 인덱스로부터 진단보조정보를 획득할 수 있다.When the 3D medical model is obtained, the image analysis apparatus 2000 may obtain a disease index based on the obtained 3D medical model and provide diagnosis auxiliary information. Specifically, the second controller 2002 may calculate the disease index from the 3D medical model using the program for acquiring the disease index stored in the second memory 2400 , and obtain diagnostic auxiliary information from the calculated disease index. .

3D 메디컬 모델로부터 질병 인덱스를 산출하고 진단보조정보를 제공하는 예시에 대해서 이하부터 도면을 참조하여 설명하도록 한다.An example of calculating a disease index from a 3D medical model and providing diagnostic auxiliary information will be described below with reference to the drawings.

도 31은 일 실시예에 따른 3D 메디컬 모델로부터 질병 인덱스를 산출하는 과정의 일 예를 나타낸 것이고, 도 32는 일 실시예에 따라 질병 인덱스를 산출하는 과정의 다른 예를 나타낸 것이다..31 shows an example of a process of calculating a disease index from a 3D medical model according to an embodiment, and FIG. 32 shows another example of a process of calculating a disease index according to an embodiment.

도 31을 참조하면, 영상분석장치(2000)는 3D 메디컬 모델에 포함된 영역정보에 기초하여 질병 인덱스를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 3D 메디컬 모델에 포함되어 있는 피촬영 객체의 하나 이상의 특정 영역정보에 기초하여, 질병 인덱스를 계산할 수 있다. 여기서, 하나 이상의 특정 영역은 전술한 바와 같이 대상 영역 및 기준 영역을 포함할 수 있다. 구체적으로, 3차원 상에서 표현된 대상 영역 또는 기준 영역으로 레이블링 된 셀(예를 들어 복셀(voxel))일 수 있다. 또한 여기서, 제2 콘트롤러(2002)는 하나 이상의 피촬영 객체에 포함된 영역 간의 관계를 도출하기 위한 기준을 설정할 수 있다.Referring to FIG. 31 , the image analysis apparatus 2000 may acquire a disease index based on region information included in the 3D medical model. Specifically, the second controller 2002 may calculate the disease index based on information on one or more specific regions of the object to be photographed included in the 3D medical model. Here, the one or more specific regions may include the target region and the reference region as described above. Specifically, it may be a cell (eg, a voxel) labeled with a target region or a reference region expressed in 3D. Also, here, the second controller 2002 may set a criterion for deriving a relationship between regions included in one or more to-be-photographed objects.

일 예로, 제2 콘트롤러(2002)는 3D 메디컬 모델에 포함되어 있는 뇌실영역과 WMH 영역에 기초하여, 질병 인덱스를 계산할 수 있다. 여기서, 제2 콘트롤러(2002)는, 전술한 예시와 유사하게, 뇌실영역과 WMH 영역간의 관계를 도출하기 위하여 기준 바운더리를 설정할 수 있다. 즉, 제2 콘트롤러(2002)는 3차원 상의 뇌실 영역으로부터 미리 설정된 거리만큼 떨어진 셀(cell)들의 집합을 기준 바운더리로 설정할 수 있다. 또한, 전술한 메디컬 이미지에서 설정된 기준 바운더리 유사하게, 제2 콘트롤러(2002)는 다양한 방식으로 기준 바운더리를 설정하거나 수정할 수 있다. As an example, the second controller 2002 may calculate the disease index based on the ventricular region and the WMH region included in the 3D medical model. Here, the second controller 2002 may set a reference boundary in order to derive a relationship between the ventricular region and the WMH region, similarly to the above-described example. That is, the second controller 2002 may set a set of cells (cells) separated by a preset distance from the ventricular region in three dimensions as a reference boundary. Also, similarly to the reference boundary set in the medical image described above, the second controller 2002 may set or modify the reference boundary in various ways.

제2 콘트롤러(2002)는 3차원에서 형성된 기준 바운더리에 기초하여 WMH 영역과의 관계를 고려하여 질병 인덱스를 계산할 수 있다. 여기서, 기준 바운더리와 WMH의 관계는 전술한 바와 유사하다. 또한, 2차원의 메디컬 이미지에서 3차원의 3D 모델링이 수행됨에 따라서, 피촬영 객체의 영역에 관한 정보, 일 예로 대상 영역에 관한 영역 정보는 3차원적인 물리량이 될 수 있다. 즉, 제2 콘트롤러(2002)는, 2차원의 메디컬 이미지에서는 획득할 수 없었던 피촬영 객체에 포함된 특정 영역의 두께와 같은 3차원 정보까지도 3D 모델링을 통해 획득할 수 있다. 다른 예로, WMH에 관한 정보는, WMH로 태깅된 셀(cell)들에 대응되는 부피(또는 수)가 될 수도 있다.The second controller 2002 may calculate the disease index in consideration of the relationship with the WMH region based on the reference boundary formed in 3D. Here, the relationship between the reference boundary and the WMH is similar to that described above. In addition, as three-dimensional 3D modeling is performed on a two-dimensional medical image, information on the area of the object to be photographed, for example, area information on the target area, may be a three-dimensional physical quantity. That is, the second controller 2002 may acquire even three-dimensional information such as the thickness of a specific region included in the object to be photographed, which could not be obtained in the two-dimensional medical image, through 3D modeling. As another example, information on WMH may be a volume (or number) corresponding to cells tagged with WMH.

도 32를 참조하면, 영상분석장치(2000)는 3D 메디컬 모델에 포함된 복수의 평면에 기초하여 질병 인덱스를 산출하고 진단보조정보를 제공할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 3D 메디컬 모델에 포함된 피촬영 객체와 관련된 적어도 하나 이상의 특정 영역에 관한 정보를 포함하고 있는 1 이상의 평면에 기초하여 질병 인덱스를 계산하고, 진단보조정보를 제공할 수 있다.Referring to FIG. 32 , the image analysis apparatus 2000 may calculate a disease index based on a plurality of planes included in the 3D medical model and provide diagnosis auxiliary information. Specifically, the second controller 2002 calculates a disease index based on one or more planes including information on at least one specific region related to an object to be photographed included in the 3D medical model, and provides diagnostic auxiliary information. can do.

3D 모델링을 수행함에 따라, 질병 인덱스를 산출하기 위한 특정 영역간의 관계를 도출하기가 용이해지는 장점이 있다. 즉, 전술한 바와 같이 슬라이스 이미지를 분석하여 질병 인덱스를 계산하는 경우, 슬라이스 이미지 내에 질병 인덱스를 산출하기 위한 피촬영 객체에 포함된 필수 영역에 관한 정보가 포함되어 있지 않다면 질병 인덱스를 용이하게 획득할 수 없을 뿐 아니라, 획득한 질병 인덱스의 정확도가 낮아질 수 있다. As 3D modeling is performed, there is an advantage in that it becomes easy to derive a relationship between specific regions for calculating a disease index. That is, when calculating the disease index by analyzing the slice image as described above, if the slice image does not contain information on the essential region included in the object to be photographed for calculating the disease index, the disease index can be easily obtained. Not only that, but the accuracy of the acquired disease index may be lowered.

그러나, 3D 모델링을 수행하여 질병 인덱스를 계산하는 경우, 질병 인덱스의 계산에 필수적인 영역이 모두 포함되도록 평면을 결정하여, 해당 평면에 대하여 질병 인덱스를 계산함으로써 질병 인덱스의 정확도가 향상될 수 있다.However, when calculating the disease index by performing 3D modeling, the accuracy of the disease index may be improved by determining a plane to include all regions essential for calculating the disease index and calculating the disease index with respect to the corresponding plane.

도면을 참조하여 구체적인 예시로써 설명한다.It will be described as a specific example with reference to the drawings.

도 32를 다시 참조하면, 제2 콘트롤러(2002)는 뇌실영역과 제1 WMH 영역이 모두 포함되되도록 미리 설정된 기준에 대응되도록 제1 평면을 설정하고, 설정된 제1 평면에 대한 질병 인덱스를 계산할 수 있다. 여기서, 제1 평면을 설정하는 기준은 다양할 수 있다. 일 예로, 제1 평면은, 대상 영역과기준 영역 사이의 거리를 고려하여 설정된 평면일 수 있다. 보다 더 구체적인 예로, 제1 평면은 WMH 영역과 뇌실 영역 사이의 거리가 최소가 되는 직선을 포함하도록 설정된 평면일 수 있다.Referring back to FIG. 32 , the second controller 2002 sets the first plane to correspond to a preset criterion to include both the ventricular region and the first WMH region, and calculates the disease index for the set first plane. have. Here, the criteria for setting the first plane may be various. For example, the first plane may be a plane set in consideration of the distance between the target region and the reference region. As a more specific example, the first plane may be a plane set to include a straight line in which the distance between the WMH region and the ventricular region is the minimum.

다른 예로, 제2 콘트롤러(2002)는 평면 내에 포함되는 대상 영역의 수를 고려하여 제2 평면을 설정하고, 설정된 제2 평면에 대한 질병 인덱스를 계산할 수 있다. 예컨대, 제2 콘트롤러(2002)는 기준 영역에 관한 정보를 포함함에 더하여, 가장 많은 수의 대상 영역을 포함하도록 제2 평면을 설정할 수 있다. 또한, 제2 콘트롤러(2002)는 대상 영역으로 레이블링 된 픽셀의 수가 최대가 되도록 제2 평면을 설정할 수도 있다.As another example, the second controller 2002 may set the second plane in consideration of the number of target regions included in the plane, and calculate a disease index for the set second plane. For example, the second controller 2002 may set the second plane to include the largest number of target areas in addition to including information about the reference area. Also, the second controller 2002 may set the second plane so that the number of pixels labeled as the target area is maximum.

즉, 제2 콘트롤러(2002)는 다양한 기준에 따라 제1 대상 영역 및 기준 영역이 포함되도록 제1 평면을 설정할 수도 있고, 제2 대상 영역 및 기준 영역이 포함되도록 제2 평면을 설정할 수도 있다. 이때, 제1 평면과 제2 평면은 소정의 각도를 형성할 수 있다. 이처럼, 영상분석장치(2000)는 3D 메디컬 모델의 베이스가 된 메디컬 이미지가 포함된 평면과 소정의 각도를 이루는 평면에 대해서도, 기준 영역과 대상 영역에 대한 관계를 도출할 수 있고, 질병 인덱스를 계산하거나 진단보조정보를 제공할 수도 있다.That is, the second controller 2002 may set the first plane to include the first target region and the reference region, or set the second plane to include the second target region and the reference region, according to various criteria. In this case, the first plane and the second plane may form a predetermined angle. As such, the image analysis apparatus 2000 may derive a relationship between the reference region and the target region even for a plane that forms a predetermined angle with the plane including the medical image serving as the base of the 3D medical model, and calculates the disease index or provide diagnostic assistance information.

이상에서는, 다양한 실시예에 따라, 진단보조정보 제공 시스템(10000)이 수행하는 하나 또는 복수의 메디컬 이미지로부터 질병 인덱스를 획득하고, 획득한 질병 인덱스에 기초하여 진단보조정보를 제공하는 방법의 예시에 대해 설명하였다.In the above, according to various embodiments, an example of a method of obtaining a disease index from one or a plurality of medical images performed by the diagnostic assistance information providing system 10000 and providing diagnostic assistance information based on the acquired disease index was explained about.

이상에서 설명한 바와 같이, 일 실시예에 다른 진단보조정보 제공 시스템(10000)에서 수행되는 진단보조정보 제공 방법에 따르면, 메디컬 이미지로부터 명확하고 일률적인 기준을 가지고 자동화된 알고리즘 또는 프로그램에 기초하여 질병 인덱스를 계산함으로써, 인간의 주관적인 판단이 배제되어 보다 객관적인 질병 인덱스가 계산될 수 있으며, 이로 인해 더 정확한 진단보조정보가 제공될 수 있게 될 수 있다.As described above, according to the diagnostic auxiliary information providing method performed by the diagnostic auxiliary information providing system 10000 according to an embodiment, a disease index based on an automated algorithm or program with a clear and uniform standard from a medical image By calculating , a more objective disease index can be calculated by excluding human subjective judgment, and thus more accurate diagnostic auxiliary information can be provided.

이하에서는, 일 실시예에 따라 진단보조정보 제공 시스템(10000)이 메디컬 이미지로부터 메디컬 이미지 내에 포함된 특정 영역들에 대해 세그멘테이션을 수행하는 방법에 대해 설명하도록 한다.Hereinafter, a method in which the diagnostic assistance information providing system 10000 performs segmentation on specific regions included in the medical image from the medical image according to an exemplary embodiment will be described.

일 실시예에 따르면, 진단보조정보 제공 시스템(10000)은 메디컬 이미지를 세그멘테이션 할 수 있다. 구체적으로, 영상분석장치(2000)는 영상획득장치(1000)로부터 메디컬 이미지를 획득하고, 획득된 메디컬 이미지를 세그멘테이션 할 수 있다. 보다 더 구체적으로, 제2 콘트롤러(2002)는 제2 메모리(2400)에 저장된 이미지 세그멘테이션을 위한 알고리즘을 이용하여, 메디컬 이미지를 세그멘테이션 할 수 있다. According to an embodiment, the diagnostic assistance information providing system 10000 may segment the medical image. Specifically, the image analysis apparatus 2000 may obtain a medical image from the image acquisition apparatus 1000 and segment the obtained medical image. More specifically, the second controller 2002 may segment the medical image using an image segmentation algorithm stored in the second memory 2400 .

이하에서는, 도면을 참조하여 설명하도록 한다.Hereinafter, it will be described with reference to the drawings.

도 33은 일 실시예에 따라 영상분석장치가 수행하는 메디컬 이미지의 세그멘테이션 동작을 개괄적으로 나타낸 것이다.33 schematically illustrates a segmentation operation of a medical image performed by an image analysis apparatus according to an exemplary embodiment.

일 실시예에 따르면, 영상분석장치(2000)는 인풋데이터를 입력받아 아웃풋 데이터를 출력할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 영상획득장치(1000)로부터 획득한 메디컬 이미지를 인풋데이터로 이미지 세그멘테이션을 위한 알고리즘에 입력하여, 메디컬 이미지가 세그멘테이션 된 아웃풋데이터를 획득할 수 있다. According to an embodiment, the image analysis apparatus 2000 may receive input data and output output data. Specifically, the second controller 2002 may input the medical image acquired from the image acquisition apparatus 1000 as input data to an algorithm for image segmentation, and may acquire output data in which the medical image is segmented.

일 실시예에 따른 영상분석장치(2000)는 이미지 세그멘테이션을 위한 다양한 알고리즘을 이용할 수 있다.The image analysis apparatus 2000 according to an embodiment may use various algorithms for image segmentation.

일 예로, 이미지 세그멘테이션을 위한 알고리즘은 머신러닝 모델로 제공될 수 있다. 머신러닝 모델의 대표적인 예로는, 인공 신경망(Artificial Neural Network)이 있을 수 있다. 구체적으로 인공 신경망의 대표적인 예로는 데이터를 입력받는 입력 레이어, 결과를 출력하는 출력 레이어 및 입력 레이어와 출력 레이어 사이에서 데이터를 처리하는 히든 레이어(hidden layer)를 포함하는 딥 러닝 계열의 인공 신경망이 있다. As an example, an algorithm for image segmentation may be provided as a machine learning model. A representative example of a machine learning model may include an artificial neural network. Specifically, a representative example of an artificial neural network is a deep learning-based artificial neural network that includes an input layer that receives data, an output layer that outputs a result, and a hidden layer that processes data between the input and output layers. .

인공 신경망의 세부적인 예시들로는 회귀분석 인공 신경망(Convolution Neural Network), 순환신경망(Recurrent Neural Network), 심층신경망(Deep Neural Network) 등이 있으며, 본 명세서에서 인공 신경망은 상술된 인공 신경망, 그 외의 다양한 형태의 인공 신경망 및 이들이 조합된 형태의 인공 신경망을 모두 포함하는 포괄적인 의미로 해석되어야 하며, 반드시 딥 러닝 계열이어야만 하는 것도 아니다. Detailed examples of the artificial neural network include a regression analysis artificial neural network, a recurrent neural network, a deep neural network, and the like. It should be interpreted as a comprehensive meaning that includes both artificial neural networks in the form of artificial neural networks and artificial neural networks in the form of a combination thereof, and does not necessarily have to be a deep learning series.

뿐만 아니라, 머신러닝 모델이 반드시 인공 신경망 모델 형태이어야만 하는 것은 아니며, 이외에도 최근접 이웃 알고리즘(KNN), 랜덤 포레스트(Random Forest), 서포트 벡터 머신(SVM), 주성분분석법(PCA) 등이 포함될 수 있으며, 이상에서 언급된 기법들이 앙상블된 형태나 그 외에 다양한 방식으로 조합된 형태까지도 전부 포함할 수 있다. 한편, 인공 신경망을 중심으로 언급되는 실시예들에서 특별한 언급이 없는 한 인공 신경망이 다른 머신러닝 모델로 대체될 수 있음을 미리 밝혀둔다. In addition, the machine learning model does not necessarily have to be in the form of an artificial neural network model, and may include nearest neighbor algorithm (KNN), random forest, support vector machine (SVM), principal component analysis (PCA), etc. , may include all of the above-mentioned techniques in an ensemble form or in a form in which other methods are combined in various ways. On the other hand, it is stated in advance that the artificial neural network can be replaced with another machine learning model unless otherwise specified in the embodiments mentioned mainly with the artificial neural network.

나아가, 본 명세서에서 이미지 세그멘테이션을 위한 알고리즘이 반드시 머신러닝 모델로 한정되는 것은 아니다. 즉, 이미지 세그멘테이션을 위한 알고리즘은 머신러닝 모델이 아닌 다양한 판단/결정 알고리즘이 포함될 수도 있다. Furthermore, in the present specification, an algorithm for image segmentation is not necessarily limited to a machine learning model. That is, the algorithm for image segmentation may include various judgment/decision algorithms rather than a machine learning model.

따라서, 본 명세서에서 이미지 세그멘테이션을 위한 알고리즘은 메디컬 이미지를 분석하여 메디컬 이미지 내에 포함된 영역을 구별하는 모든 형태의 알고리즘을 모두 포함하는 포괄적인 의미로 이해되어야 함을 미리 밝혀 둔다.Therefore, it is clarified in advance that the algorithm for image segmentation in the present specification should be understood as a comprehensive meaning including all types of algorithms that analyze a medical image and distinguish a region included in the medical image.

도 34 및 도 35을 참조하여, 인공신경망 모델의 구현 예를 설명하도록 한다.. An example of implementation of an artificial neural network model will be described with reference to FIGS. 34 and 35 .

도 34는 일 실시예에 따른 인공신경망 모델의 일 구현예를 나타낸 것이다.34 shows an embodiment of an artificial neural network model according to an embodiment.

도 34를 참조하면, 본 출원의 일 실시예에 따른 영상분석장치(2000)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net을 활용할 수 있다.Referring to FIG. 34 , the image analysis apparatus 2000 according to an embodiment of the present application may utilize U-net as an artificial neural network for image segmentation.

이미지 세그멘테이션에 많이 활용되는 U-net은 수축 경로(Contraction path) 및 확장 경로(Expansion Path)를 포함하는 아키텍처로 구성될 수 있다. U-net, which is widely used for image segmentation, may have an architecture including a contraction path and an expansion path.

구체적으로 U-net의 수축 경로는 2번의 컨볼루전(convolution) 및 맥스 풀링(max pooling)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 수축 경로에서는 이미지와 관련된 특성들이 추출될 수 있다. Specifically, the contraction path of the U-net may be configured such that two convolutions and max pooling are successively performed. In this case, image-related characteristics may be extracted from the contraction path of the U-net.

하지만, 수축 경로에서는 특성 맵의 크기 또한 줄어들기 때문에 U-net은 확장 경로를 추가적으로 포함하여 특성 맵의 크기를 복구하도록 구성될 수 있다. However, since the size of the characteristic map is also reduced in the constricted path, the U-net may be configured to recover the size of the characteristic map by additionally including the expansion path.

U-net의 확장 경로는 업-컨볼루전(Up-convolution) 및 2번의 컨볼루전(convolution)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 확장 경로에서는 이미지와 특성 맵의 크기가 추출될 수 있다. The extension path of the U-net may be configured such that up-convolution and two convolutions are successively performed. In this case, the size of the image and the characteristic map may be extracted from the extension path of U-net.

추가적으로 U-net은 동일한 레벨의 특성 맵을 콘카테네이션(concatenation) 하도록 아키텍처가 구성되어 수축 경로에서 확장 경로로 특성과 관련된 위치 정보를 제공할 수 있다. Additionally, the U-net architecture is configured to concatenate the characteristic map of the same level, so that it is possible to provide positional information related to the characteristic from the contraction path to the expansion path.

이때, 입력 이미지(Input Image)의 라벨과 출력 세그멘테이션 맵의 라벨 차이에 기초하여, 입력 이미지의 라벨과 출력 세그멘테이션 맵의 라벨 차이가 최소가 되도록 U-net의 포함된 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치를 조절하게 되는 것이다.At this time, based on the difference between the label of the input image and the label of the output segmentation map, the parameter of at least one node of the included layer of U-net so that the difference between the label of the input image and the label of the output segmentation map is minimized Or you can adjust the weight.

도 35는 일 실시예에 따른 인공신경망 모델의 다른 구현예를 나타낸 것이다. 35 shows another implementation of an artificial neural network model according to an embodiment.

도 35를 참조하면, 일 실시예에 따른 영상분석장치(2000)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net++을 활용할 수 있다. U-net++은 U-net의 성능을 향상시키기 위하여 DenseNet의 고밀도 블록 아이디어를 사용한 인공 신경망 모델로서, 스킵 경로에 컨볼루션 레이어가 존재하여 인코더 및 디코더 특성 맵 사이의 시맨틱 갭을 연결하며, 스킵 경로에 덴스 스킵 연결이 존재하여 그래디언트 흐름을 향상시키는 점에서 U-net과의 차이점이 존재한다. Referring to FIG. 35 , the image analysis apparatus 2000 according to an embodiment may utilize U-net++ as an artificial neural network for image segmentation. U-net++ is an artificial neural network model using the high-density block idea of DenseNet to improve the performance of U-net. A convolutional layer exists in the skip path to bridge the semantic gap between the encoder and decoder characteristic maps, and to the skip path. It differs from U-net in that dense skip connections exist to improve gradient flow.

구체적으로, 영상분석장치(2000)는 U-net++ 신경망 모델의 입력 레이어에 대하여 입력 이미지를 입력하고 출력 레이어를 통하여 출력된 라벨 정보를 획득하도록 구현될 수 있다. 이때, 영상분석장치(2000)는 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이에 기초하여 Unet++의 포함된 히든 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치를 조절할 수 있다. Specifically, the image analysis apparatus 2000 may be implemented to input an input image to the input layer of the U-net++ neural network model and obtain label information output through the output layer. In this case, the image analysis apparatus 2000 may adjust the parameter or weight of at least one node of the hidden layer included in Unet++ based on the difference between the label information included in the input image and the label information output from the neural network model.

좀 더 구체적으로 제2 콘트롤러(2002)는 상술한 적어도 하나의 노드의 파라미터 혹은 가중치를 조절하는 동작을 반복적으로 수행하도록 구현되어, 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이가 최소화되는 노드의 파라미터 혹은 가중치를 획득할 수 있다.More specifically, the second controller 2002 is implemented to repeatedly perform the above-described operation of adjusting the parameters or weights of at least one node, so that the difference between the label information included in the input image and the label information output from the neural network model It is possible to obtain the parameter or weight of the node in which n is minimized.

도 36은 일 실시예에 따른 인공신경망 모델을 이용한 세그멘테이션 결과를 예시적으로 나타낸 것이다.36 exemplarily shows a segmentation result using an artificial neural network model according to an embodiment.

일 실시예에 따르면, 영상분석장치(2000)는 메디컬 이미지의 특성에 기초하여, 메디컬 이미지를 세그멘테이션 할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 메디컬 이미지가 획득된 조건에 대응하도록, 메디컬 이미지를 세그멘테이션 할 수 있다. According to an embodiment, the image analysis apparatus 2000 may segment the medical image based on characteristics of the medical image. Specifically, the second controller 2002 may segment the medical image so as to correspond to a condition in which the medical image is obtained.

여기서, 메디컬 이미지가 획득된 조건은 영상획득장치(1000)의 설정 파라미터에 따라 달라질 수 있다. 일 예로, 메디컬 이미지가 획득된 조건은, 영상획득장치(1000)의 미리 설정된 마그네틱 컨디션 파라미터 값 일 수 있다. 구체적으로, 영상획득장치(1000)가 MRI 장치로 구현된 경우, TR/TE 값의 설정에 따라 T1-weighted 이미지 또는 T2-weighted 이미지가 획득될 수 있고, 제2 콘트롤러(2002)는 획득된 이미지에 대응되도록 이미지를 세그멘테이션 할 수 있다. 여기서, 메디컬 이미지의 획득 조건에 따른 특성은 전술한 바와 같다.Here, the condition under which the medical image is obtained may vary according to a setting parameter of the image acquisition apparatus 1000 . For example, the condition under which the medical image is obtained may be a preset magnetic condition parameter value of the image acquisition apparatus 1000 . Specifically, when the image acquisition apparatus 1000 is implemented as an MRI apparatus, a T1-weighted image or a T2-weighted image may be acquired according to the setting of the TR/TE value, and the second controller 2002 may display the acquired image. The image can be segmented to correspond to . Here, the characteristics according to the acquisition conditions of the medical image are the same as described above.

도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.

도 36을 참조하면, 동일한 피촬영 객체에서 각각 획득된 T1-weighted 이미지와 T2 - FLAIR 이미지의 세그멘테이션 결과가 도시되어 있다.Referring to FIG. 36 , a segmentation result of a T1-weighted image and a T2- FLAIR image obtained from the same object to be photographed is shown.

일 실시예에 따르면, 제2 콘트롤러(2002)는 T1-weighted 이미지를 세그멘테이션 할 수 있다. 여기서, T1-weighted 이미지는 해부학적 특성을 판단하기 위해 세그멘테이션 될 수 있다. 도면에 도시된 바와 같이, T1-weighted 이미지를 세그멘테이션 한 결과는, T2-FLAIR 이미지를 세그멘테이션 한 결과에 비해, 회백질 외각 영역의 주름 부분이 더 선명하게 세그멘테이션 된 것을 확인할 수 있다. According to an embodiment, the second controller 2002 may segment the T1-weighted image. Here, the T1-weighted image may be segmented to determine anatomical characteristics. As shown in the figure, it can be seen that the segmentation result of the T1-weighted image shows that the wrinkle part of the outer gray matter region is segmented more clearly than the result of segmenting the T2-FLAIR image.

또한, 일 실시예에 따르면, 제2 콘트롤러(2002)는 T2-FLAIR 이미지를 세그멘테이션 할 수 있다. 여기서, T2-FLAIR 이미지는 병변적 특성을 판단하기 위해 세그멘테이션 될 수 있다. 도면에 도시된 바와 같이, T2-FLAIR 이미지를 세그멘테이션 한 결과는, T1-weighted 이미지를 세그멘테이션 한 결과와 비교하여 WMH 영역에 대한 정보를 더 포함하고 있음이 도시되어 있다. Also, according to an embodiment, the second controller 2002 may segment the T2-FLAIR image. Here, the T2-FLAIR image may be segmented to determine the lesion characteristics. As shown in the figure, it is shown that the segmentation result of the T2-FLAIR image further includes information on the WMH region compared to the segmentation result of the T1-weighted image.

이처럼, 동일한 피촬영 객체로부터 획득한 메디컬 이미지라도, 영상획득장치(1000)의 획득 조건에 따라 메디컬 이미지에 포함된 특성(예를 들어 해부학적 특성, 병변적 특성)이 달라지고, 메디컬 이미지의 특성에 따라 메디컬 이미지에서 관측될 수 있는 정보 또한 달라질 수 있다.As such, even in the case of a medical image acquired from the same object to be photographed, the characteristics (eg, anatomical characteristics, lesion characteristics) included in the medical image vary according to the acquisition conditions of the image acquisition apparatus 1000 , and the characteristics of the medical image Accordingly, information that can be observed in the medical image may also vary.

그러나, 필요에 따라, 여러 메디컬 이미지의 특성이 종합적으로 고려되는 경우, 보다 정확한 진단보조정보를 제공할 수 있게 된다. 따라서, 본 명세서의 이하의 설명에서는 복수의 특성을 포함하도록 메디컬 이미지를 세그멘테이션하는 과정에 대해 설명하도록 하겠다.However, if the characteristics of several medical images are comprehensively considered as necessary, more accurate diagnostic auxiliary information can be provided. Accordingly, in the following description of the present specification, a process of segmenting a medical image to include a plurality of characteristics will be described.

도 37은 일 실시예에 따라 복수의 특성을 포함하도록 세그멘테이션 된 메디컬 이미지의 예시를 나타낸 것이다.37 illustrates an example of a medical image segmented to include a plurality of characteristics according to an embodiment.

도 37을 참조하면, 일 실시예에 따른 영상분석장치(2000)는 획득 조건에 따라 달라지는 적어도 2 이상의 특성이 하나의 메디컬 이미지에 포함되도록 메디컬 이미지를 세그멘테이션 할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지를 베이스로 하여, 제2 이미지의 특성이 포함되도록 제1 이미지를 세그멘테이션 할 수 있다. Referring to FIG. 37 , the image analysis apparatus 2000 according to an embodiment may segment the medical image so that at least two or more characteristics that vary according to acquisition conditions are included in one medical image. Specifically, the second controller 2002 may segment the first image to include characteristics of the second image based on the first image.

도면을 참조하여 구체적인 예시를 들어 설명한다.With reference to the drawings, a specific example will be described.

제2 콘트롤러(2002)는 제1 특성을 포함하는 제1 메디컬 이미지를 인풋데이터로 인공신경망에 입력하여, 제1 특성 및 제2 메디컬 이미지와 관련된 제2 특성이 레이블링 된 아웃풋 데이터를 획득할 수 있다. 여기서, 인공신경망은 제2 특성을 가지는 제2 이미지와 관련된 러닝셋을 기초로 하여 학습될 수 있다. 예를 들어, 여기서 제1 특성은 해부학적 특성 또는 구조적 특성일 수 있으며, 이에 따라 제1 이미지는 T1-weighted 이미지 일 수 있다. 또한, 제2 특성은 병변적 특성일 수 있으며, 이에 따라 제2 이미지는 T2-FLAIR 이미지 일 수 있다.The second controller 2002 may input the first medical image including the first characteristic as input data to the artificial neural network, and obtain output data in which the first characteristic and the second characteristic related to the second medical image are labeled. . Here, the artificial neural network may be trained based on a learning set related to the second image having the second characteristic. For example, here the first characteristic may be an anatomical characteristic or a structural characteristic, and thus the first image may be a T1-weighted image. In addition, the second characteristic may be a lesion characteristic, and accordingly, the second image may be a T2-FLAIR image.

보다 더 구체적인 예시로, (a)와 같이, 제2 콘트롤러(2002)는 병변적 특성을 포함하는 제1 이미지(예시에서는, T2-FLAIR 이미지)를 인풋 데이터로 일 실시예에 따른 인공신경망에 입력할 수 있다. As a more specific example, as shown in (a), the second controller 2002 inputs the first image (in the example, the T2-FLAIR image) including the lesion characteristic as input data to the artificial neural network according to an embodiment. can do.

여기서, 제1 이미지와 관련된 러닝셋으로만 학습된 인공신경망을 이용하는 경우, 제2 콘트롤러(2002)는 (b)와 같이, 제1 특성(즉, 병변적 특성) 만을 포함하는 세그멘테이션 결과만을 출력하게 된다.Here, when using an artificial neural network trained only with a running set related to the first image, the second controller 2002 outputs only the segmentation result including only the first characteristic (ie, lesion characteristic) as shown in (b). do.

다만, 본 명세서에서의 일 실시예에 따른 인공신경망은 제1 특성에 관한 제1 이미지 및 제2 특성에 관한 제2 이미지 모두에 기초한 러닝셋을 이용하여 학습할 수 있다. 이로 인하여, 제2 콘트롤러(2002)는 제1 이미지를 상기 인공신경망에 입력하여 (c)와 같이 제1 특성 및 제2 특성이 모두 반영된 제1 이미지에 대한 세그멘테이션 결과를 획득할 수 있게 되는 것이다.However, the artificial neural network according to an embodiment in the present specification may learn using a learning set based on both the first image regarding the first characteristic and the second image regarding the second characteristic. For this reason, the second controller 2002 can input the first image into the artificial neural network and obtain a segmentation result for the first image in which both the first characteristic and the second characteristic are reflected as shown in (c).

이처럼, 하나의 특성을 포함하는 메디컬 이미지를 세그멘테이션 하는 경우에도 복수의 특성에 관한 정보를 함께 획득함으로써, 하나의 메디컬 이미지로부터 다양한 질병에 관한 정보를 획득할 수 있게 되어, 일 실시예에 따른 영상분석장치(2000)는 메디컬 이미지로부터 보다 정확하고 다양한 진단보조정보를 제공할 수 있게 되는 것이다.As such, even when a medical image including one characteristic is segmented, information on a plurality of characteristics is acquired together, so that information on various diseases can be acquired from one medical image, and image analysis according to an embodiment The apparatus 2000 can provide more accurate and various diagnostic auxiliary information from the medical image.

이하에서는, 일 실시예에 따른 인공신경망의 학습 과정에 대해 도면을 참조하여 설명하도록 하겠다.Hereinafter, a learning process of an artificial neural network according to an embodiment will be described with reference to the drawings.

도 38은 일 실시예에 따른 인공신경망의 학습 과정을 나타낸 순서도이다.38 is a flowchart illustrating a learning process of an artificial neural network according to an embodiment.

일 실시예에 따른 인공신경망은, 학습 데이터를 이용하여 학습할 수 있다. 여기서, 일 실시예에 따른 인공신경망은, 인공신경망 알고리즘을 구동할 수 있는 다양한 장치를 통해 학습될 수 있다. 일 예로, 인공신경망은 영상분석장치(2000)를 통해 학습될 수 있다. 본 명세서에서는 설명의 편의를 위하여 일 실시예에 따른 인공신경망이 영상분석장치(2000)를 통해 학습되는 것으로 설명할 것이나, 이에 국한되는 것은 아니며, 다른 인공신경망의 구동을 위한 장치를 통해 학습될 수도 있음이 이해될 것이다.The artificial neural network according to an embodiment may learn by using learning data. Here, the artificial neural network according to an embodiment may be learned through various devices capable of driving an artificial neural network algorithm. As an example, the artificial neural network may be learned through the image analysis apparatus 2000 . In the present specification, for convenience of explanation, it will be described that the artificial neural network according to an embodiment is learned through the image analysis apparatus 2000, but is not limited thereto, and may be learned through an apparatus for driving other artificial neural networks. It will be understood that there is

도 39를 참조하면, 일 실시예에 따른 인공신경망의 학습 과정은 제1 특성을 포함하는 제1 이미지를 세그멘테이션 하는 단계(S6000), 제2 특성을 포함하는 제2 이미지를 기초로 제1 이미지의 세그멘테이션 정보를 정합하는 단계(S6200), 정합된 이미지와 제2 이미지를 이용하여 1차 학습을 수행하는 단계(S6400), 1차 학습의 출력 결과를 포함하는 제2 이미지에 대하여 형태학적으로 수정하는 단계(S6600) 및 형태학적 수정된 세그멘테이션 결과를 포함하는 제2 이미지를 이용하여 2차 학습을 수행하는단계(S6800)를 포함할 수 있다.Referring to FIG. 39 , in the learning process of the artificial neural network according to an embodiment, the step of segmenting the first image including the first characteristic ( S6000 ), and the second image including the second characteristic Matching the segmentation information (S6200), performing the primary learning using the matched image and the second image (S6400), morphologically modifying the second image including the output result of the primary learning It may include the step (S6600) and the step of performing secondary learning using the second image including the morphologically corrected segmentation result (S6800).

먼저, 영상분석장치(2000)는 제1 특성을 포함하는 제1 이미지를 세그멘테이션 할 수 있다(S6000). 구체적으로, 제2 콘트롤러(2002)는 제1 획득 조건에서 획득 되는 제1 특성에 관한 정보가 포함되도록, 제1 이미지를 세그멘테이션 할 수 있다. 이를 달리 표현하자면, 영상획득장치(1000)가 제1 파라미터로 설정되었을 때 획득되는 제1 특성을 포함하는 제1 이미지를 세그멘테이션 할 수 있다. First, the image analysis apparatus 2000 may segment the first image including the first characteristic (S6000). Specifically, the second controller 2002 may segment the first image to include information about the first characteristic acquired under the first acquisition condition. In other words, the first image including the first characteristic obtained when the image acquisition apparatus 1000 is set as the first parameter may be segmented.

제1 이미지를 세그멘테이션 한 이후, 영상분석장치(2000)는 제2 이미지를 기초로 하여 세그멘테이션 된 제1 이미지와 제2 이미지를 정합할 수 있다(S6200). 구체적으로, 제2 콘트롤러(2002)는 제2 특성을 포함하는 제2 이미지 상에, 제1 특성을 포함하도록 세그멘테이션 된 제1 이미지를 정합하여, 제1 특성에 관한 세그멘테이션 된 정보를 포함하는 제2 이미지를 획득할 수 있다. 이를 달리 표현하자면, 영상획득장치(1000)의 제2 파라미터로 설정되었을 때 획득되는 제2 특성을 포함하는 제2 이미지 상에, 전술한 제1 특성을 포함하도록 세그멘테이션 된 제1 이미지를 정합할 수 있다. 이에 관하여는 후술하여 자세히 설명하도록 하겠다.After segmenting the first image, the image analysis apparatus 2000 may match the segmented first image and the second image based on the second image ( S6200 ). Specifically, the second controller 2002 matches the first image segmented to include the first characteristic on the second image including the second characteristic, and the second controller 2002 includes the segmented information regarding the first characteristic. image can be obtained. In other words, the first image segmented to include the above-described first characteristic may be matched with the second image including the second characteristic obtained when the image acquisition apparatus 1000 is set as the second parameter. have. This will be described later in detail.

제1 이미지와 제2 이미지가 정합된 이후, 영상분석장치(2000)는 정합된 제2 이미지와 정합되지 않은 제2 이미지를 이용하여 1차 학습을 수행할 수 있다(S6400). 구체적으로, 제2 콘트롤러(2002)는, 일 실시예에 따른 인공신경망이 제2 이미지로부터 제1 특성을 포함한 세그멘테이션 결과를 출력하도록, 제2 이미지와 제1 특성이 반영되도록 정합된 제2 이미지를 이용하여 인공신경망을 학습시킬 수 있다. After the first image and the second image are matched, the image analysis apparatus 2000 may perform primary learning using the matched second image and the second image not matched ( S6400 ). Specifically, the second controller 2002 outputs a second image matched to reflect the second image and the first characteristic so that the artificial neural network according to an embodiment outputs a segmentation result including the first characteristic from the second image. It can be used to train artificial neural networks.

즉, 일 실시예에 따른 인공신경망은, 제1 특성이 레이블링 된 제2 이미지와 원본 제2 이미지를 포함하는 러닝셋을 이용하여 학습할 수 있다. 이로 인해, 인공신경망은 제2 이미지를 입력 데이터로 입력 받고, 제1 특성이 레이블링 된 제2 이미지를 출력할 수 있다. 여기서, 러닝셋이 원본 제2 이미지를 포함하는 것으로 설명하였으나, 원본 제2 이미지 외에도 가공된 제2 이미지가 이용될 수 있다. 일 예로, 제2 이미지는 제2 특성을 포함하도록 세그멘테이션 된 제2 이미지일 수 있다. 또한, 그 외 다른 전처리 과정이 수행된 제2 이미지일 수도 있다. 다만, 본 명세서의 이하의 설명에서는 설명의 편의를 위해 인공신경망이 원본 제2 이미지에 기초한 러닝셋을 이용하여 학습하는 것을 위주로 설명한다.That is, the artificial neural network according to an embodiment may learn by using a learning set including the second image labeled with the first characteristic and the original second image. Accordingly, the artificial neural network may receive the second image as input data and output the second image labeled with the first characteristic. Here, although the running set has been described as including the original second image, a processed second image may be used in addition to the original second image. As an example, the second image may be a second image segmented to include the second characteristic. Also, it may be the second image on which other pre-processing processes have been performed. However, in the following description of the present specification, for convenience of explanation, the artificial neural network will be mainly described using a learning set based on the original second image.

인공신경망이 1차적으로 학습된 이후, 영상분석장치(2000)는 1차학습된 인공신경망의 아웃풋 이미지에 대해 형태학적(morphological) 수정을 수행할 수 있다(S6600). 구체적으로, 제2 콘트롤러(2002)는 원본 제2 이미지 데이터를 상기 인공신경망에 입력하여 출력된 제2 특성을 포함하도록 세그멘테이션 된 제2 이미지에 대하여, 세그멘테이션 결과의 정확도를 높이기 위하여 형태학적 수정을 수행할 수 있다. After the artificial neural network is primarily learned, the image analysis apparatus 2000 may perform morphological correction on the output image of the primary learned artificial neural network ( S6600 ). Specifically, the second controller 2002 inputs the original second image data to the artificial neural network and performs morphological correction on the segmented second image to include the output second characteristic in order to increase the accuracy of the segmentation result. can do.

1차적으로 학습한 인공신경망은, 제1 특성에 관한 정보를 정확하게 포함하고 있지 않을 수 있다. 따라서, 일 실시예에 따른 영상분석장치(2000)는 제1 특성을 포함하는 제1 이미지에 기초하여 인공신경망의 1차 아웃풋 데이터를 형태학적으로 수정함으로써, 인공신경망이 제1 특성에 관한 정보를 제2 이미지 상에 보다 더 정확하게 구별할 수 있도록 인공신경망의 연산 정확도를 향상시킬 수 있다.The artificial neural network learned primarily may not accurately include information about the first characteristic. Accordingly, the image analysis apparatus 2000 according to an embodiment morphologically modifies the primary output data of the artificial neural network based on the first image including the first characteristic, so that the artificial neural network collects information about the first characteristic. The computational accuracy of the artificial neural network can be improved so that it can be more accurately distinguished on the second image.

인공신경망의 1차 아웃풋 데이터에 대한 형태학적 수정이 완료되면, 영상분석장치(2000)는 형태학적으로 수정된 제2 이미지에 기초하여 인공신경망을 2차적으로 학습시킬 수 있다(S6800). 구체적으로, 제2 콘트롤러(2002)는 형태학적으로 수정되어 제1 특성이 레이블링 된 제2 이미지를 포함하는 러닝셋에 기초하여 일 실시예에 따른 인공신경망을 학습시킬 수 있다. 즉, 일 실시예에 따른 인공신경망은 형태학적으로 수정된 제1 특성이 반영되도록 레이블링 된 제2 이미지를 포함하는 러닝셋을 이용하여 학습함으로써, 제2 이미지로부터 보다 정확하게 제1 특성에 관한 정보가 반영되도록 세그멘테이션을 수행할 수 있게 되는 것이다.When the morphological correction of the first output data of the artificial neural network is completed, the image analysis apparatus 2000 may secondaryly train the artificial neural network based on the morphologically corrected second image ( S6800 ). Specifically, the second controller 2002 may train the artificial neural network according to an embodiment based on a running set including a second image that is morphologically modified and labeled with the first characteristic. That is, the artificial neural network according to an embodiment learns by using a learning set including a second image labeled to reflect the morphologically modified first characteristic, so that information about the first characteristic is more accurately obtained from the second image. Segmentation can be performed to be reflected.

이하에서는, 도면을 참조하여 일 실시예에 따른 인공신경망의 학습과정에 대한 예시를 살펴보도록 하겠다.Hereinafter, an example of a learning process of an artificial neural network according to an embodiment will be described with reference to the drawings.

도 39는 일 실시예에 따른 제1 이미지와 제2 이미지의 정합 과정을 나타낸 예시이다.39 is an example illustrating a process of matching a first image and a second image according to an exemplary embodiment.

도 39를 참조하면, 일 실시예에 따른 영상분석장치(2000)는 제1 이미지와 제2 이미지를 정합할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 이미지와 제2 이미지 사이의 정합 매트릭스를 획득할 수 있다. 여기서, 정합 매트릭스는 제1 이미지와 제2 이미지 사이의 변환함수를 의미할 수 있다. 즉, 일 실시예에 따른 정합 매트릭스는 동일한 피촬영 객체에 대한 제1 이미지와 제2 이미지 상호간에 대하여, 제1 이미지에 포함된 제1 포인트와 제2 이미지에 포함된 제2 포인트 간의 상관관계를 나타낸 함수라고 표현할 수도 있겠다. 여기서, 제1 포인트 및 제2 포인트는 픽셀을 의미할 수도 있을 것이고, 픽셀들의 집합을 의미할 수도 있을 것이다.Referring to FIG. 39 , the image analysis apparatus 2000 according to an embodiment may match a first image and a second image. Specifically, the second controller 2002 may obtain a registration matrix between the first image and the second image. Here, the matching matrix may mean a conversion function between the first image and the second image. That is, in the registration matrix according to an embodiment, the correlation between the first point included in the first image and the second point included in the second image is correlated between the first image and the second image of the same object to be photographed. It can also be expressed as an indicated function. Here, the first point and the second point may mean a pixel or a set of pixels.

일 실시예에 따른 영상분석장치(2000)는 정합 매트릭스를 이용하여 제1 특성에 대해 세그멘테이션 된 제1 이미지에 기초하여, 제2 이미지를 제1 이미지의 세그멘테이션 결과와 대응되도록 가공할 수 있다. 즉, 제2 콘트롤러(2002)는 제1 특성에 관한 제1 이미지의 세그멘테이션 결과가 제2 이미지에 반영되도록, 제2 이미지를 세그멘테이션 할 수 있다. 여기서, 전술한 바와 같이, 제2 이미지는 제2 특성을 포함하도록 미리 세그멘테이션 될 수도 있을 것이다. 즉, 제2 콘트롤러(2002)는 제1 특성 및 제2 특성이 모두 반영되도록 제2 이미지를 세그멘테이션 할 수도 있다.The image analysis apparatus 2000 according to an embodiment may process the second image to correspond to the segmentation result of the first image based on the first image segmented with respect to the first characteristic using the matching matrix. That is, the second controller 2002 may segment the second image so that the segmentation result of the first image related to the first characteristic is reflected in the second image. Here, as described above, the second image may be segmented in advance to include the second characteristic. That is, the second controller 2002 may segment the second image so that both the first characteristic and the second characteristic are reflected.

보다 구체적인 예시로, 제1 이미지는 T1-weighted 이미지일 수 있고, 제2 이미지는 T2-FLAIR 이미지 일 수 있다. 즉, 영상분석장치(2000)는 먼저 T1-weighted 이미지와 T2-FLAIR 이미지를 정합하여 정합 매트릭스를 획득할 수 있다.As a more specific example, the first image may be a T1-weighted image, and the second image may be a T2-FLAIR image. That is, the image analysis apparatus 2000 may acquire a registration matrix by first matching the T1-weighted image and the T2-FLAIR image.

또한, 영상분석장치(2000)는 T1-weighted 이미지의 해부학적 특성이나 구조적 특성이 반영되도록 T1-weighted 이미지를 세그멘테이션 할 수 있다. 예를 들어, 제2 콘트롤러(2002)는 뇌의 특정 영역이 구별되도록 T1-weighted 이미지를 가공할 수 있다. 보다 구체적으로, 제2 콘트롤러(2002)는 대뇌, 소뇌, 간뇌, 해마 등 뇌에 포함된 기관이 구별되도록 T1-weighted 이미지를 세그멘테이션 할 수도 있고 측두엽, 전두엽, 후두엽 등 뇌의 부위별 위치에 따라 구별되도록 T1-weighted 이미지를 세그멘테이션 할 수도 있으며, 이들을 조합하여 세그멘테이션 하는 것도 가능하다. Also, the image analysis apparatus 2000 may segment the T1-weighted image to reflect the anatomical or structural characteristics of the T1-weighted image. For example, the second controller 2002 may process the T1-weighted image so that a specific region of the brain is distinguished. More specifically, the second controller 2002 may segment the T1-weighted image so that organs included in the brain, such as the cerebrum, cerebellum, diencephalon, and hippocampus, are distinguished, and differentiated according to the location of each part of the brain such as the temporal lobe, frontal lobe, occipital lobe, etc. It is possible to segment the T1-weighted image as much as possible, and it is also possible to segment them by combining them.

이후, 영상분석장치(2000)는 정합 매트릭스를 이용하여, T1-weighted 이미지의 세그멘테이션 결과가 T2-FLAIR 이미지에 반영되도록, 세그멘테이션 된 T1-weighted 이미지를 T2-FLAIR 이미지에 정합할 수 있다. Thereafter, the image analysis apparatus 2000 may use the matching matrix to register the segmented T1-weighted image to the T2-FLAIR image so that the segmentation result of the T1-weighted image is reflected in the T2-FLAIR image.

이로써, 영상분석장치(2000)는 해부학적 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지를 획득할 수 있다. 구체적으로 제2 콘트롤러(2002)는 메디컬 이미지에서 관측되는 WMH 또는 뇌를 구성하는 물질들인 백질(white matter), 회백질(gray matter) 등이 구별되는 T2-FLAIR 영상에, 전술한 해부학적 특성이 반영되도록 T2-FLAIR 이미지를 세그멘테이션 할 수 있다. 상기 해부학적 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지는, 전술한 바와 같이 인공신경망의 1차 학습에 이용될 수 있다.Accordingly, the image analysis apparatus 2000 may acquire the segmented T2-FLAIR image to reflect the anatomical characteristics. Specifically, the second controller 2002 reflects the above-described anatomical characteristics in the T2-FLAIR image in which the WMH observed in the medical image or the substances constituting the brain, such as white matter and gray matter, are distinguished. The T2-FLAIR image can be segmented as much as possible. The segmented T2-FLAIR image to reflect the anatomical characteristics may be used for primary learning of the artificial neural network as described above.

도 40은 일 실시예에 따른 형태학적(morphological) 수정의 예시를 나타낸 것이다.40 illustrates an example of morphological modification according to an embodiment.

도 40을 참조하면, 일 실시예에 따른 영상분석장치(2000)는 메디컬 이미지에 대한 세그멘테이션 결과를 형태학적으로 수정할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제2 이미지에 포함된 제1 특성을 반영하는 세그멘테이션 결과를 형태학적으로 수정할 수 있다. 형태학적으로 수정된 세그멘테이션 결과를 포함하는 제2 이미지는, 제1 특성을 보다 정확히 반영할 수 있다. Referring to FIG. 40 , the image analysis apparatus 2000 according to an exemplary embodiment may morphologically correct a segmentation result of a medical image. Specifically, the second controller 2002 may morphologically modify the segmentation result reflecting the first characteristic included in the second image. The second image including the morphologically corrected segmentation result may more accurately reflect the first characteristic.

도면을 참조하여 구체적인 예시로써 설명한다.It will be described as a specific example with reference to the drawings.

상술한 바와 같이, 인공신경망은 해부학적 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지와 원본 T2-FLAIR 이미지를 이용하여 1차 학습할 수 있다. 1차 학습의 결과물로, 인공신경망은 T2-FLAIR 이미지를 입력받아 T1-weighted 이미지의 특성(해부학적 또는 구조적 특성)이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지를 출력할 수 있다. 인공신경망의 출력 결과인 T2-FLAIR 이미지는, T1-weighted 이미지의 특성을 반영하도록 세그멘테이션 되었으나, 일부 영역에서 불완전 하여 수정이 필요할 수 있다. As described above, the artificial neural network can perform primary learning using the segmented T2-FLAIR image and the original T2-FLAIR image to reflect anatomical characteristics. As a result of the primary learning, the artificial neural network may receive a T2-FLAIR image and output a segmented T2-FLAIR image to reflect the characteristics (anatomical or structural characteristics) of the T1-weighted image. The T2-FLAIR image, which is the output result of the artificial neural network, is segmented to reflect the characteristics of the T1-weighted image, but it is incomplete in some areas and may require correction.

(a)의 경우는 일 실시예에 따른 인공신경망의 1차 학습 결과로써, 세그멘테이션 된 구역의 외곽 부분이 해부학적 특성을 불완전하게 반영하여 세그멘테이션 된 것이 도시되어 있다. 이에 비해, (b)는 형태학적으로 수정된 인공신경망의 1차 출력으로써, 세그멘테이션 된 외곽부분이 해부학적 특성을 잘 반영하도록 수정되어 있는 것이 도시되어 있다.In the case of (a), as the primary learning result of the artificial neural network according to an embodiment, it is shown that the outer part of the segmented region is segmented by incompletely reflecting anatomical characteristics. In contrast, (b) is the primary output of the morphologically modified artificial neural network, and it is shown that the segmented outer part is modified to reflect the anatomical characteristics well.

보다 구체적으로, (a)의 경우 일부 회백질 영역이 구별되어 있지 않으며, 각 영역의 경계선이 부분적으로 끊어져 있는 것이 도시되어 있다. 또한 불완전한 학습으로 인해 영역이 잘못 레이블링 된 노이즈들도 포함되어 있다.More specifically, in the case of (a), some gray matter regions are not distinguished, and the boundary line of each region is partially broken. Also included are noises with regions mislabeled due to incomplete learning.

그러나, 형태학적으로 수정된 메디컬 이미지는 회백질 영역이 잘 구별되어 있으며, 각 영역의 경계선이 명확하게 특정 영역들을 구별하고 있는 것이 도시되어 있다. However, in the morphologically corrected medical image, gray matter regions are well distinguished, and the boundaries of each region clearly distinguish specific regions.

여기서, 일 실시예에 따르면, 제2 콘트롤러(2002)는 뇌 구조의 특성을 기반으로 형태학적 수정을 수행할 수 있다. 일반적으로, 뇌실을 포함한 뇌의 영역들은 3차원 상에서 26가지 방식으로 연결되어야 한다. 따라서, 제2 콘트롤러(2002)는 뇌의 각 영역 사이의 연결관계를 기초로 하여 세그멘테이션 된 메디컬 이미지 내에 포함된 노이즈를 감소시킬 수 있다. Here, according to an embodiment, the second controller 2002 may perform morphological correction based on the characteristics of the brain structure. In general, regions of the brain, including the ventricles, must be connected in 26 ways in three dimensions. Accordingly, the second controller 2002 may reduce noise included in the segmented medical image based on the connection relationship between each region of the brain.

또한 여기서, 뇌실은 기타 다른 비조직(none-tissue)와 잘못 구별되어, 비조직으로 잘못 레이블링 될 수 있다. 이 경우, 뇌실 영역의 잘못된 레이블링을 보상하기 위하여 ,제2 콘트롤러(2002)는 필-홀(fill-hole) 방법을 이용하여 뇌실 영역을 레이블링 할 수 있다.Also here, the ventricle may be mislabeled as non-tissue because it is misidentified from other non-tissues. In this case, in order to compensate for incorrect labeling of the ventricular region, the second controller 2002 may label the ventricular region using a fill-hole method.

이처럼 일 실시예에 따른 인공신경망은, 형태학적으로 세그멘테이션 결과가 수정된 결과물을 입력으로 재 학습하여, 포함하고자 하는 특성이 보다 정확하게 반영되도록 결과를 출력할 수 있다.As described above, the artificial neural network according to an embodiment may re-learn as an input the morphologically modified result of the segmentation result, and output the result so that the characteristics to be included are more accurately reflected.

도 41은 일 실시예에 따른 영상분석장치의 인공신경망을 이용한 디플로잉(deploying) 과정을 나타낸 순서도이다.41 is a flowchart illustrating a deployment process using an artificial neural network of an image analysis apparatus according to an embodiment.

도 41을 참조하면, 일 실시예에 따른 영상분석장치(2000)의 인공신경망을 이용한 디플로잉(deploying) 과정은, 제1 특성을 포함하는 제1 이미지를 입력하는 단계(S7000) 및 제1 특성 및 제2 특성이 포함된 세그멘테이션 결과를 포함하도록 가공된 제1 이미지를 출력하는 단계(S7200)를 포함할 수 있다.Referring to FIG. 41 , the deploying process using an artificial neural network of the image analysis apparatus 2000 according to an embodiment includes the steps of inputting a first image including a first characteristic ( S7000 ) and a first The method may include outputting the processed first image to include the segmentation result including the characteristic and the second characteristic ( S7200 ).

먼저, 영상분석장치(2000)는 제1 특성을 포함하는 제1 이미지를 인공신경망에 입력할 수 있다(S7000). 구체적으로, 제2 콘트롤러(2002)는, 충분히 학습되어 제2 메모리(2400)에 저장된 인공신경망에 제1 특성을 포함하는 제1 이미지를 입력할 수 있다. 여기서, 인공신경망은 상술된 학습과정을 거쳐 충분히 학습되어 있을 것이다. First, the image analysis apparatus 2000 may input a first image including the first characteristic to the artificial neural network (S7000). Specifically, the second controller 2002 may input the first image including the first characteristic to the artificial neural network that has been sufficiently learned and stored in the second memory 2400 . Here, the artificial neural network will be sufficiently trained through the above-described learning process.

제1 이미지를 입력하면, 영상분석장치(2000)는 인공신경망의 출력 결과로써 제1 이미지에 관련된 제1 특성 및 제1 이미지와 다른 형식의 제2 이미지와 관련된 제2 특성을 포함하도록 가공된 제1 이미지를 획득할 수 있다(S7200). 구체적으로, 제2 콘트롤러(2002)는, 제1 이미지와 관련된 제1 특성 및 제1 이미지와 다른 제2 이미지와 관련된 제2 특성이 종합적으로 구별되도록 세그멘테이션 된 제1 이미지를 획득할 수 있다.When the first image is input, the image analysis apparatus 2000 is processed to include a first characteristic related to the first image and a second characteristic related to a second image of a different format from the first image as an output result of the artificial neural network. 1 image may be acquired (S7200). Specifically, the second controller 2002 may acquire the segmented first image so that the first characteristic related to the first image and the second characteristic related to the second image different from the first image are comprehensively distinguished.

이처럼, 일 실시예에 따른 인공신경망의 학습과정에 따라 충분히 학습된 인공신경망을 이용함으로써, 영상분석장치(2000)는 제1 특성만을 포함한 메디컬 이미지를 인공신경망에 입력함에도, 제1 특성 및 제1 특성과 다른 제2 특성을 모두 포함하도록 세그멘테이션 된 메디컬 이미지를 획득할 수 있다. 이로 인해, 관련된 정보를 획득하고자 하는 질병을 분석하기 위한 다양한 정보를 획득할 수 있으며, 다양한 정보를 분석함으로써 질병에 관련하여도 보다 다양한 정보를 유저에게 제공할 수 있다.As such, by using the artificial neural network sufficiently learned according to the learning process of the artificial neural network according to the embodiment, the image analysis apparatus 2000 inputs the medical image including only the first characteristic to the artificial neural network, but the first characteristic and the first characteristic A medical image segmented to include both the characteristic and the other second characteristic may be acquired. Accordingly, various information for analyzing a disease for which the related information is to be acquired can be acquired, and more diverse information can be provided to the user even in relation to the disease by analyzing the various information.

도 42은 일 실시예에 따른 인공신경망의 최종 출력 결과물의 일 예이다.42 is an example of a final output result of an artificial neural network according to an embodiment.

도 42를 참조하면, 영상분석장치(2000)는 제1 이미지를 인공신경망에 입력하여, 다양한 특성이 포함되도록 가공된 제1 이미지를 획득할 수 있다. 구체적으로, 제2 콘트롤러(2002)는 제1 특성이 반영된 제1 이미지를 인공신경망에 입력하여, 제1 특성과 다른 특성이 더 반영되도록 세그멘테이션 된 제1 이미지를 획득할 수 있다.Referring to FIG. 42 , the image analysis apparatus 2000 may obtain a first image processed to include various characteristics by inputting the first image to the artificial neural network. Specifically, the second controller 2002 may input the first image to which the first characteristic is reflected to the artificial neural network, and obtain a segmented first image to further reflect the first characteristic and other characteristics.

도면을 참조하여 구체적인 예시로써 설명하자면, 영상분석장치(2000)는 T2-FLAIR 이미지를 인공신경망에 입력하여, T1-weighted 이미지의 특성이 반영되도록 가공된 이미지를 획득할 수 있다. To describe as a specific example with reference to the drawings, the image analysis apparatus 2000 may input a T2-FLAIR image to an artificial neural network, and obtain an image processed to reflect the characteristics of the T1-weighted image.

구체적으로, 제2 콘트롤러(2002)는 T1-weighted 이미지의 특성 및 T2-FlAIR 이미지의 특성이 반영된 러닝셋에 기초하여 충분히 학습된 인공신경망에 T2-FLAIR 이미지를 입력하여, T1-weighted 이미지의 특성이 반영되도록 세그멘테이션 된 T2-FLAIR 이미지를 획득할 수 있다. 여기서, 인공신경망은 T2-FLAIR 이미지의 기존의 특성을 반영하여 세그멘테이션 하도록 학습될 수 있음은 물론이다. 즉, 일 실시예에 따른 인공신경망은 T2-FLAIR 이미지를 입력 데이터로 하여, T1-weighted 이미지에서 관측되기 용이한 해부학적 또는 구조적 특성이 반영될 뿐만 아니라, T2-FLAIR 이미지에서 관측되기 용이한 병변적 특성 모두를 포함하도록 세그멘테이션 된 이미지를 획득할 수 있는 것이다.Specifically, the second controller 2002 inputs the T2-FLAIR image to an artificial neural network that has been sufficiently trained based on the running set in which the characteristics of the T1-weighted image and the characteristics of the T2-FlAIR image are reflected, and the characteristics of the T1-weighted image A segmented T2-FLAIR image can be acquired to reflect this. Here, of course, the artificial neural network can be learned to segment by reflecting the existing characteristics of the T2-FLAIR image. That is, the artificial neural network according to an embodiment uses the T2-FLAIR image as input data to reflect the anatomical or structural characteristics that are easy to observe in the T1-weighted image, as well as the lesion that is easily observed in the T2-FLAIR image. It is possible to obtain an image segmented to include all of the enemy characteristics.

보다 더 구체적인 예시를 들자면, 일 실시예에 따른 인공신경망의 최종 출력은, WMH와 같은 병변적 특성 및 백질, 회백질 등의 뇌를 구성하는 물질이 잘 구별되는 T2-FLAIR 이미지를 기반으로 하여, 뇌에 포함된 기관 및 뇌의 부위별 위치와 같이 T1-weighted 이미지의 특성이 모두 포함되도록 세그멘테이션 될 수 있다.To give a more specific example, the final output of the artificial neural network according to an embodiment is based on a T2-FLAIR image in which lesion characteristics such as WMH and materials constituting the brain such as white matter and gray matter are well distinguished. It can be segmented to include all characteristics of the T1-weighted image, such as the location of organs and brain regions included in the .

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (18)

진단보조장치에 의해 수행되는 메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법에 있어서,
제1 조건에서 획득되고 뇌와 관련된 제1 영역 과 관련된 정보를 포함하는 제1 이미지 데이터 및 제2 조건에서 획득된 제2 이미지 데이터를 획득하는 단계;
제1 입력 데이터를 획득하기 위하여 제2 이미지 데이터 내에서 제2 영역 정보 - 상기 제2 영역 정보는 상기 제1 영역 정보에 기초하여, 상기 제2 이미지 데이터에 대응되도록 생성됨 - 를 결정하는 단계;
인공신경망이 제1 타겟 영역에 관한 정보를 포함하는 제1 출력 데이터를 출력하도록, 상기 제1 입력 데이터 및 상기 제2 이미지 데이터를 상기 인공신경망에 입력하여 상기 인공신경망을 학습시키는 단계;
상기 제1 출력 데이터 내의 상기 제1 타겟 영역의 적어도 일부를 형태학적으로 수정하여, 상기 제1 출력 데이터를 제2 입력 데이터로 변환하는 단계; 및
상기 인공신경망이 상기 제2 이미지 데이터에서 관측되는 제2 특성과 다른 제1 특성을 반영하는 제2 타겟 영역을 출력하도록, 상기 제2 입력 데이터 및 상기 제2 이미지 데이터를 입력하여 상기 인공신경망을 학습 시키는 단계;를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
A learning method of an artificial neural network for segmentation of a medical image performed by a diagnostic auxiliary device, the method comprising:
acquiring first image data obtained under the first condition and including information related to a first region related to the brain and second image data obtained under the second condition;
determining second region information in second image data to obtain first input data, wherein the second region information is generated to correspond to the second image data based on the first region information;
learning the artificial neural network by inputting the first input data and the second image data to the artificial neural network so that the artificial neural network outputs first output data including information about a first target region;
transforming the first output data into second input data by morphologically modifying at least a portion of the first target region in the first output data; and
The artificial neural network is learned by inputting the second input data and the second image data so that the artificial neural network outputs a second target region reflecting a first characteristic different from the second characteristic observed in the second image data. making; including
Learning method of artificial neural network for segmentation of medical images.
제1 항에 있어서,
상기 제1 이미지 데이터는 T1-weighted MRI 이미지인,
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The first image data is a T1-weighted MRI image,
Learning method of artificial neural network for segmentation of medical images.
제1 항에 있어서,
상기 제2 이미지 데이터는 T2-FLAIR MRI 이미지인,
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The second image data is a T2-FLAIR MRI image,
Learning method of artificial neural network for segmentation of medical images.
제1 항에 있어서,
제1 특성은 해부학적 특성이고,
제1 영역은 해부학적 특성이 반영된 뇌의 기관, 위치 또는 부위 중 적어도 어느 하나의 영역에 관한 정보를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The first characteristic is an anatomical characteristic,
The first region includes information on at least one region of an organ, location, or region of the brain to which anatomical characteristics are reflected.
Learning method of artificial neural network for segmentation of medical images.
제1 항에 있어서,
상기 인공신경망은 U-net ++ 구조를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The artificial neural network includes a U-net ++ structure
Learning method of artificial neural network for segmentation of medical images.
제1 항에 있어서,
상기 인공신경망은,
제2 조건에 대응하는 제2 특성을 반영하는 제2 영역에 관한 정보를 출력하도록 학습되는,
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
According to claim 1,
The artificial neural network is
learned to output information about a second region that reflects a second characteristic corresponding to a second condition;
Learning method of artificial neural network for segmentation of medical images.
제6 항에 있어서,
상기 제2 특성은 병변적 특성이고,
상기 제2 영역 정보는 백질고강도신호와 관련된 정보를 포함하는
메디컬 이미지의 세그멘테이션을 위한 인공신경망의 학습 방법.
7. The method of claim 6,
The second characteristic is a lesion characteristic,
The second region information includes information related to a white matter high intensity signal.
Learning method of artificial neural network for segmentation of medical images.
제1 조건에서 획득된 입력 이미지 데이터 - 상기 입력 이미지 데이터는 상기 제1 조건과 대응되는 제1 특성을 반영함 - 를 획득하는 단계; 및
상기 입력 이미지 데이터를 입력하여 인공신경망 - 상기 인공신경망은 제2 조건과 대응되는 제2 특성을 반영한 제2 이미지 데이터에 기초한 러닝셋을 이용하여 학습됨 - 의 출력 결과로서, 결과 이미지 데이터를 획득하는 단계; 를 포함하되,
상기 결과 이미지 데이터는 적어도 제1 특성과 관련된 병변 정보를 지시하는 제1 영역 및 제2 특성과 관련된 구조적 정보를 지시하는 제2 영역을 포함하는
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
obtaining input image data obtained under a first condition, wherein the input image data reflects a first characteristic corresponding to the first condition; and
Obtaining the resulting image data as an output result of the artificial neural network by inputting the input image data - the artificial neural network is learned using a learning set based on the second image data reflecting the second characteristic corresponding to the second condition step; including,
The resultant image data includes at least a first region indicating lesion information related to the first characteristic and a second region indicating structural information related to the second characteristic.
A method of segmenting a medical image using an artificial neural network.
제8 항에 있어서,
상기 입력 이미지 데이터는 T2-FLAIR MRI 이미지인
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
9. The method of claim 8,
The input image data is a T2-FLAIR MRI image.
A method of segmenting a medical image using an artificial neural network.
제8 항에 있어서,
상기 제2 이미지 데이터는 T1-weighted MRI 이미지인,
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
9. The method of claim 8,
The second image data is a T1-weighted MRI image,
A method of segmenting a medical image using an artificial neural network.
제8 항에 있어서,
상기 병변 정보는 백질고강도신호(WMH)를 포함하는
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
9. The method of claim 8,
The lesion information includes white matter high intensity signal (WMH)
A method of segmenting a medical image using an artificial neural network.
제11 항에 있어서,
상기 결과 이미지 데이터는,
백질고강도신호가 발생한 해부학적 위치 정보를 제공하는
인공신경망을 이용하여 메디컬 이미지를 세그멘테이션 하는 방법.
12. The method of claim 11,
The resulting image data is
Provides anatomical location information where white matter high-intensity signals are generated.
A method of segmenting a medical image using an artificial neural network.
제1 항 내지 제12 항 중 어느 한 항의 방법을 구동하기 위한 프로그램이 기록된 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium in which a program for driving the method of any one of claims 1 to 12 is recorded.
진단보조정보 제공 장치에 있어서,
입력 이미지 데이터를 획득하는 통신모듈;
상기 입력 이미지 데이터를 분석하는 콘트롤러; 를 포함하고,
상기 콘트롤러는, 제1 조건에 대응하는 제1 특성을 반영하는 상기 입력 이미지 데이터를, 제2 조건과 대응되는 제2 특성을 반영한 제2 이미지 데이터에 기초한 러닝셋을 이용하여 학습된 인공신경망에 입력하여 결과 이미지 데이터를 획득하되,
상기 결과 이미지 데이터는 적어도 제1 특성과 관련된 병변 정보를 지시하는 제1 영역 및 제2 특성과 관련된 구조적 정보를 지시하는 제2 영역을 포함하는
진단보조정보 제공 장치.
In the diagnostic auxiliary information providing device,
a communication module for acquiring input image data;
a controller for analyzing the input image data; including,
The controller inputs the input image data reflecting the first characteristic corresponding to the first condition to the artificial neural network learned by using a learning set based on the second image data reflecting the second characteristic corresponding to the second condition. to obtain the resulting image data,
The resultant image data includes at least a first region indicating lesion information related to the first characteristic and a second region indicating structural information related to the second characteristic.
A device for providing diagnostic auxiliary information.
제14 항에 있어서,
상기 입력 이미지 데이터는 T2-FLAIR MRI 이미지인
진단보조정보 제공 장치.
15. The method of claim 14,
The input image data is a T2-FLAIR MRI image.
A device for providing diagnostic auxiliary information.
제14 항에 있어서,
상기 제2 이미지 데이터는 T1-weighted MRI 이미지인,
진단보조정보 제공 장치.
15. The method of claim 14,
The second image data is a T1-weighted MRI image,
A device for providing diagnostic auxiliary information.
제14 항에 있어서,
상기 병변 정보는 백질고강도신호(WMH)를 포함하는
진단보조정보 제공 장치.
15. The method of claim 14,
The lesion information includes white matter high intensity signal (WMH)
A device for providing diagnostic auxiliary information.
제17 항에 있어서,
상기 결과 이미지 데이터는,
백질고강도신호가 발생한 해부학적 위치 정보를 제공하는
진단보조정보 제공 장치.
18. The method of claim 17,
The resulting image data is
Provides anatomical location information where white matter high-intensity signals are generated.
A device for providing diagnostic auxiliary information.
KR1020200187939A 2020-12-30 2020-12-30 A method for providing disease information and device performing the same KR102300234B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200187939A KR102300234B1 (en) 2020-12-30 2020-12-30 A method for providing disease information and device performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200187939A KR102300234B1 (en) 2020-12-30 2020-12-30 A method for providing disease information and device performing the same

Publications (2)

Publication Number Publication Date
KR102300234B1 true KR102300234B1 (en) 2021-09-10
KR102300234B9 KR102300234B9 (en) 2022-04-11

Family

ID=77777102

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200187939A KR102300234B1 (en) 2020-12-30 2020-12-30 A method for providing disease information and device performing the same

Country Status (1)

Country Link
KR (1) KR102300234B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121005A1 (en) * 2021-12-21 2023-06-29 주식회사 뷰노 Method for outputting classification information on basis of artificial nerual network and apparatus therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130109838A (en) * 2012-03-28 2013-10-08 삼성전자주식회사 Apparatus and method for supporting lesion diagnosis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130109838A (en) * 2012-03-28 2013-10-08 삼성전자주식회사 Apparatus and method for supporting lesion diagnosis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121005A1 (en) * 2021-12-21 2023-06-29 주식회사 뷰노 Method for outputting classification information on basis of artificial nerual network and apparatus therefor

Also Published As

Publication number Publication date
KR102300234B9 (en) 2022-04-11

Similar Documents

Publication Publication Date Title
KR102410955B1 (en) Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
US8218845B2 (en) Dynamic pulmonary trunk modeling in computed tomography and magnetic resonance imaging based on the detection of bounding boxes, anatomical landmarks, and ribs of a pulmonary artery
EP2375378A1 (en) Medical image diagnosis assisting apparatus and method, and computer readable recording medium on which is recorded program for the same
US20150141818A1 (en) Vascular imaging method and device
WO2014016268A1 (en) Method, apparatus and system for automated spine labeling
JP6739422B2 (en) Device, system and method for segmenting an image of a subject
US20120078102A1 (en) 3-dimensional (3d) ultrasound system using image filtering and method for operating 3d ultrasound system
US20130303900A1 (en) Method and apparatus for processing of stroke ct scans
KR102300234B1 (en) A method for providing disease information and device performing the same
KR20210020629A (en) Tumor automatic segmentation based on deep learning in a medical image
KR102300226B1 (en) A method for providing disease information and device performing the same
KR102300228B1 (en) A method for providing disease information and device performing the same
JP3234668U (en) Image recognition system for scoliosis by X-ray
KR102313658B1 (en) Method for, device for, and system for analazing brain image
KR102313662B1 (en) Device and method for determining quality of image
KR102300236B1 (en) A method for providing disease information and device performing the same
KR102300235B1 (en) A method for providing disease information and device performing the same
KR102300231B1 (en) A method for providing disease information and device performing the same
JP2023134655A (en) Medical image analysis method, medical image analysis device and medical image analysis system
CN113348485A (en) Abnormality detection method, abnormality detection program, abnormality detection device, server device, and information processing method
EP4272635A1 (en) Method for providing diagnosis assistance information, and device performing same
KR102313656B1 (en) Method for, device for, and system for analazing brain image
KR102349360B1 (en) Diagnosis Method and System of Idiopathic Normal Pressure Hydrocephalus Using Imaging Diagnostic Equipment
US20200315569A1 (en) System and method for determining condition of fetal nervous system
KR20210069250A (en) Tumor automatic segmentation using deep learning based on dual window setting in a medical image

Legal Events

Date Code Title Description
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]