KR20230127762A - Device and method for detecting lesions of disease related to body component that conveyes fluid from medical image - Google Patents

Device and method for detecting lesions of disease related to body component that conveyes fluid from medical image Download PDF

Info

Publication number
KR20230127762A
KR20230127762A KR1020220025449A KR20220025449A KR20230127762A KR 20230127762 A KR20230127762 A KR 20230127762A KR 1020220025449 A KR1020220025449 A KR 1020220025449A KR 20220025449 A KR20220025449 A KR 20220025449A KR 20230127762 A KR20230127762 A KR 20230127762A
Authority
KR
South Korea
Prior art keywords
feature
score
image
features
lesion
Prior art date
Application number
KR1020220025449A
Other languages
Korean (ko)
Inventor
이경준
최동준
선우준
김택균
Original Assignee
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원 filed Critical 서울대학교병원
Priority to KR1020220025449A priority Critical patent/KR20230127762A/en
Publication of KR20230127762A publication Critical patent/KR20230127762A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/5635Angiography, e.g. contrast-enhanced angiography [CE-MRA] or time-of-flight angiography [TOF-MRA]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

실시예들은, 미리 학습된 질환 검출 모델을 사용하여 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는, 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치 및 방법에 관련된다. Embodiments extract spatial features and connectivity between segments from a medical image of a detection target using a pre-learned disease detection model, and calculate features for predicting body components based on the connectivity between the spatial features and segments, It relates to an apparatus and method for detecting a lesion of a disease related to a body component that delivers blood from a medical image.

Description

의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치 및 방법 {DEVICE AND METHOD FOR DETECTING LESIONS OF DISEASE RELATED TO BODY COMPONENT THAT CONVEYES FLUID FROM MEDICAL IMAGE }DEVICE AND METHOD FOR DETECTING LESIONS OF DISEASE RELATED TO BODY COMPONENT THAT CONVEYES FLUID FROM MEDICAL IMAGE }

본 출원의 실시예들은 2차원 대상 절편 영상 간의 절편 사이 연결성에 기초하여 의료영상으로부터 혈관과 같이 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치 및 방법에 관련된다.Embodiments of the present application relate to an apparatus and method for detecting disease lesions related to body components that deliver blood, such as blood vessels, from a medical image based on inter-slice connectivity between 2D object-slice images.

아시아인의 허혈성 뇌경색의 가장 큰 원인으로 알려져 있는 두개내 동맥의 폐쇄 및 협착을 진단할 때 조영제를 사용하지 않는 비침습적 진단 방법인 Time-of-flight Magnetic resonance angiography (TOF-MRA)가 많이 이용된다. 그러나, 두개내 동맥은 그 수가 많고 복잡한 형태를 이루고 있기 때문에, 수많은 폐쇄 혹은 협착 병변이 있는 경우 이를 모두 정확하게 검출하는데 어려움이 있다.Time-of-flight Magnetic resonance angiography (TOF-MRA), a non-invasive diagnostic method that does not use a contrast agent, is widely used to diagnose intracranial artery occlusion and stenosis, which is known to be the biggest cause of ischemic cerebral infarction in Asians. . However, since intracranial arteries are numerous and have complex shapes, it is difficult to accurately detect all of them when there are numerous obstructive or stenotic lesions.

또한 최근 건강보험 급여의 확대로 자기공명 영상검사 건수가 급격하게 증가하여 영상의학과 의사들이 업무과중에 시달리고 있다. In addition, with the recent expansion of health insurance benefits, the number of magnetic resonance imaging examinations has increased rapidly, and radiologists are suffering from work overload.

최근 딥러닝 알고리즘 및 하드웨어의 발전으로 기계학습의 성능이 급격히 향상되어, 의료영상에 이를 적용하려는 시도가 활발히 이루어지고 있다. 특히 혈관 영역을 의료영상에서 추출하기 위한 다양한 알고리즘이 개발되고 있다. Recently, with the development of deep learning algorithms and hardware, the performance of machine learning has rapidly improved, and attempts to apply it to medical images are actively being made. In particular, various algorithms for extracting blood vessel regions from medical images are being developed.

그러나, 이러한 알고리즘 대부분은 기본적으로 단일 영상에 대해서는 높은 검출 성능을 갖지만, 일련의 영상으로 이루어진 시퀀스 또는 3차원 영상에 대해서는 낮은 검출 성능을 가진다. 따라서, 다른 신체 기반 대비 복잡하고 길게 연장되는 구조를 가지는 혈관에 대해 적용될 경우 혈관 영역 및 혈관관련 병변 영역을 정확하게 검출할 수 없는 한계를 가진다. However, most of these algorithms basically have high detection performance for a single image, but low detection performance for a sequence composed of a series of images or a 3D image. Therefore, when applied to a blood vessel having a complex and elongated structure compared to other body-based structures, there is a limitation in that the blood vessel area and the vessel-related lesion area cannot be accurately detected.

특히, 두개내 동맥과 같이 복잡한 모양과 작은 구경을 갖는 혈관과 관련된 질환의 징후(예컨대, 협착성 병변)는 정확하게 감지하기 어렵다. 더욱이, 이러한 질환의 징후의 위치를 정확하게 포착하는 것은 더욱 어렵다.In particular, it is difficult to accurately detect signs of diseases (eg, stenotic lesions) associated with blood vessels having complex shapes and small apertures, such as intracranial arteries. Moreover, it is more difficult to accurately locate the symptoms of these diseases.

특허등록공보 제10-2250688호 (2021.05.12.)Patent Registration Publication No. 10-2250688 (2021.05.12.)

학회논문 “U-Net: Convolutional Networks for Biomedical Image Segmentation, Olaf Ronneberger, Philipp Fischer, and Thomas Brox” (2015.05.18.) Conference paper “U-Net: Convolutional Networks for Biomedical Image Segmentation, Olaf Ronneberger, Philipp Fischer, and Thomas Brox” (2015.05.18.)

본 출원의 실시예들에 따르면, 2차원 대상 절편 영상 간의 절편 사이 연결성에 기초하여 의료영상으로부터 혈관과 같이 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치 및 방법에 관련된다. According to embodiments of the present application, an apparatus and method for detecting disease lesions related to body components that deliver blood, such as blood vessels, from a medical image based on inter-slice connectivity between 2D object-slice images.

이 외에, 상기 방법을 수행하기 위한 명령어를 포함한 프로그램을 기록하는 컴퓨터 판독가능 기록매체를 제공하고자 한다.In addition, it is intended to provide a computer readable recording medium recording a program including instructions for performing the method.

본 출원의 일 측면에 따른 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법은 프로세서를 포함한 컴퓨팅 장치에 의해 수행된다. 상기 방법은, 미리 학습된 질환 검출 모델을 사용하여 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계를 포함할 수도 있다. 상기 의료영상은 3차원 체적의 상기 신체 구성요소를 이루는 복수의 2차원 절편 영상이고, 상기 복수의 2차원 절편 영상은 절편 영상의 순번에 따라 순차적으로 상기 질환 검출 모델에 입력되어 상기 공간 특징, 절편 사이 연결성 및 신체 구성요소를 예측하기 위한 특징이 각 2차원 절편 영상별로 획득되는 것이다. A method of detecting a disease lesion related to a body component that delivers blood from a medical image according to an aspect of the present application is performed by a computing device including a processor. The method includes extracting spatial features and connectivity between segments from a medical image of a detection target using a pre-learned disease detection model, and calculating features for predicting body components based on the connectivity between the spatial features and segments. may also include The medical image is a plurality of 2-dimensional slice images constituting the body components of a 3-dimensional volume, and the plurality of 2-dimensional slice images are sequentially input to the disease detection model according to the order of the slice images, and the spatial features and slice images are sequentially input to the disease detection model. Features for predicting connectivity and body components are obtained for each 2D slice image.

일 실시예에서, 상기 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계는, 복수의 2차원 절편 영상 각각에 대해서 순차적으로, 공간 특징을 추출하는 단계; 인접한 2차원 절편 영상들의 공간 특징에 기초하여 상기 인접한 2차원 절편 영상들의 절편 사이 연결성을 추출하는 단계; 및 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계를 포함할 수도 있다. In one embodiment, the step of extracting spatial features and connectivity between slices from the medical image of the detection target and calculating features for predicting body components based on the spatial features and connectivity between slices includes a plurality of 2D slices. sequentially extracting spatial features for each image; extracting connectivity between slices of adjacent 2D slice images based on spatial features of the adjacent 2D slice images; and calculating a feature for predicting a body component based on the connectivity between the spatial feature and the slice.

일 실시예에서, 이전에 먼저 추출된 적어도 일부의 2차원 절편 영상의 공간 특징 중 기억된 공간 특징을 갖는 적어도 하나의 2차원 절편 영상과 현재 공간 특징이 추출된 2차원 절편 영상 사이의 연관성을 산출하여 상기 절편 사이 연결성을 추출할 수도 있다. In an embodiment, a correlation between at least one 2D slice image having a stored spatial feature among spatial features of at least some previously extracted 2D slice images and a 2D slice image from which a current spatial feature is extracted is calculated. By doing so, connectivity between the segments may be extracted.

일 실시예에서, 상기 공간 특징은 계층 레벨별로 상기 2차원 절편 영상에서 공간 특징을 추출하고 추출된 공간 특징을 풀링 연산 처리하여 추출된 것일 수도 있따. 상기 절편 사이 연결성은 가장 깊은 계층 레벨에서 풀링 연산 처리된 결과에 기초하여 추출된다. In an embodiment, the spatial features may be extracted by extracting spatial features from the 2D slice image for each hierarchical level and performing a pooling operation on the extracted spatial features. Connectivity between the segments is extracted based on the result of the pooling operation at the deepest hierarchical level.

일 실시예에서, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계는, 계층 레벨별로 이전 계층 레벨의 연산 결과를 디컨볼루션 연산 처리하고, 디컨볼루션 연산된 결과 및 동일한 계층 레벨의 공간 특징을 결합하며, 결합된 결과의 채널을 감소시킴으로써 입력된 2차원 절편 영상을 복원하는 단계; 및 복원된 입력영상으로부터 신체 구성요소를 예측하기 위한 특징을 추출하는 단계를 포함할 수도 있다. In one embodiment, the step of calculating a feature for predicting a body component based on the connectivity between the spatial feature and the intercept may include performing deconvolution on an operation result of a previous hierarchical level for each hierarchical level, and performing deconvolution on the result of the deconvolution operation. restoring an input 2D slice image by combining the result and spatial features of the same hierarchical level, and reducing a channel of the combined result; and extracting features for predicting body components from the reconstructed input image.

일 실시예에서, 복원된 입력영상은 가장 높은 계층 레벨에서 디컨볼루션 연산, 결합 연산 및 컨볼루션 연산된 결과에 대응하는 것이고, 복원된 영상에서 추출되는 신체 구성요소를 예측하기 위한 특징은 개별 절편 영상의 공간 특징 및 절편 사이 연결성에 반영된 영상 특징일 수도 있다. In one embodiment, the reconstructed input image corresponds to the results of the deconvolution operation, the combination operation, and the convolution operation at the highest hierarchical level, and the features for predicting body components extracted from the reconstructed image are individual segments. It may be an image feature reflected in the spatial feature of the image and the connectivity between the slices.

일 실시예에서, 상기 방법은 추출된 신체 구성요소를 예측하기 위한 특징에 기초하여 입력된 의료영상에서 신체 구성요소 영역을 분할하는 단계, 및 상기 공간 특징, 절편사이 연결성 및 신체 구성요소를 예측하기 위한 특징 중 하나 이상에 기초하여 상기 질환의 병변영역을 검출하는 단계 중 하나 이상의 단계를 더 포함할 수도 있다. In one embodiment, the method includes the steps of segmenting a body component region in an input medical image based on the extracted feature for predicting the body component, and predicting the spatial feature, the connectivity between segments, and the body component. One or more of the steps of detecting the lesion area of the disease based on one or more of the characteristics for the disease may be further included.

일 실시예에서, 상기 신체 구성요소 영역을 분할하는 단계는: 상기 신체 구성요소를 예측하기 위한 특징에 기초하여 입력영상에서의 신체 구성요소 확률 값을 산출하는 단계; 산출된 신체 구성요소 확률 값에 기초하여 분할 마스크를 생성하는 단계; 및 상기 분할 마스크를 사용하여 신체 구성요소 영역을 분할하는 단계를 포함할 수도 있다. In an embodiment, the dividing of the body component region may include: calculating a body component probability value in an input image based on a feature for predicting the body component region; generating a segmentation mask based on the calculated body component probability values; and dividing the body component region using the segmentation mask.

일 실시예에서, 상기 질환의 병변영역을 검출하는 단계는, 절편 사이 연결성에 기초하여 컨벌루션 연산 및 전역적 풀링 연산을 통해 전역적 특징을 산출하는 단계; 상기 전역적 특징에 기초하여 전역적 점수를 산출하는 단계; 상기 신체 구성요소를 예측하기 위한 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 단계; 상기 지역적 특징에 기초하여 지역적 점수를 산출하는 단계; 및 상기 지역적 점수 및 전역적 점수에 기초하여 병변 점수를 산출하여 병변영역을 결정하는 단계를 포함할 수도 있다. 여기서 상기 전역적 특징은 전역적 측면에서 입력영상 내 병변영역을 검출하기 위한 특징이고, 상기 지역적 특징은 지역적 측면에서 입력영상 내 병변영역을 검출하기 위한 특징이다. 상기 전역적 점수는 전역적 측면에서 입력영상 내 병변영역이 검출될 가능성을 수치화한 것이다. 상기 지역적 점수는 지역적 측면에서 입력영상 내 병변영역이 검출될 가능성을 수치화한 것이다. In an embodiment, the detecting of the lesion area of the disease may include calculating a global feature through a convolution operation and a global pooling operation based on connectivity between segments; calculating a global score based on the global feature; calculating a regional feature through a convolution operation and a regional pooling operation based on the feature for predicting the body component; calculating a regional score based on the regional characteristics; and determining a lesion area by calculating a lesion score based on the regional score and the global score. Here, the global feature is a feature for detecting a lesion area in the input image in a global aspect, and the regional feature is a feature for detecting a lesion area in the input image in a regional aspect. The global score quantifies the possibility of detecting a lesion area in an input image in a global aspect. The regional score quantifies the possibility of detecting a lesion area in an input image in a regional aspect.

일 실시예에서, 상기 신체 구성요소를 예측하기 위한 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 단계는, 신체 구성요소를 예측하기 위한 특징이 산출된 영상을 복수의 지역으로 구획하는 단계; 및 각 지역별 신체 구성요소를 예측하기 위한 특징을 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 추출하는 단계;를 포함할 수도 있다. In one embodiment, the step of calculating regional features through a convolution operation and a regional pooling operation based on the features for predicting the body components includes the image in which the features for predicting the body components are calculated is converted into a plurality of regions. partitioning into; and extracting regional features through a convolution operation and a regional pooling operation of features for predicting body components for each region.

일 실시예에서, 상기 전역적 점수는 확률 함수를 사용하여 전역적 특징으로부터 산출된 것이다. 상기 지역적 점수는 확률 함수를 사용하여 지역적 특징으로부터 산출된 것이다. In one embodiment, the global score is calculated from global features using a probability function. The regional score is calculated from regional features using a probability function.

일 실시예에서, 상기 지역적 점수 및 전역적 점수에 기초하여 병변 점수를 산출하여 병변영역을 결정하는 단계는, 지역적 점수와 전역적 점수를 증폭 연산자를 통해 연산하여 병변 점수를 산출하는 단계; 및 상기 병변 점수에 기초하여 병변영역을 결정하는 단계를 포함할 수도 있다. In an embodiment, the determining of a lesion area by calculating a lesion score based on the regional score and the global score may include calculating a lesion score by calculating the local score and the global score through an amplification operator; and determining a lesion area based on the lesion score.

일 실시예에서, 상기 병변 점수는 지역적 점수와 전역적 점수를 곱셈 연산자를 통해 곱셈 연산하여 산출될 수도 있다. In one embodiment, the lesion score may be calculated by multiplying a regional score and a global score through a multiplication operator.

일 실시예에서, 상기 방법은: 분할된 신체 구성요소 영역의 위치 및 검출된 병변영역의 위치 중 하나 이상의 위치를 해당 2차원 절편 영상에서 산출하는 단계, 및 분할된 신체 구성요소 영역 및 검출되 병변영역 중 하나 이상의 영역의 3차원 모델을 생성하는 단계 중 하나 이상의 단계를 더 포함할 수도 있다. In one embodiment, the method includes: calculating positions of at least one of a position of a segmented body component region and a position of a detected lesion area in a corresponding 2D slice image, and calculating the position of the segmented body component region and the detected lesion area. One or more steps of generating a 3D model of one or more of the regions may be further included.

본 출원의 다른 일 측면에 따른 컴퓨터 판독가능 기록매체는 상술한 실시예들에 따른 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법을 수행하기 위한 프로그램이 기록될 수도 있다. A computer readable recording medium according to another aspect of the present application may have a program recorded thereon to perform a method of detecting a lesion of a disease related to a body component that delivers blood from a medical image according to the above-described embodiments. .

본 출원의 또 다른 일 측면에 따른 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치는, 3차원 체적의 신체 구성요소를 이루는 복수의 2차원 절편 영상을 포함한 의료영상을 수신하는 영상 획득부; 및 미리 학습된 질환 검출 모델을 사용하여 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 분석부;를 포함할 수도 있다. 상기 질환 검출 모델은, 복수의 계층 레벨로 이루어진 깊이 구조를 갖는 백본 데이터 처리 경로를 형성하는 분할부; 상기 백본 데이터 처리 경로의 서브 네트워크에서 분기된 제1 보조 데이터 처리 경로를 형성하는 제1 검출부; 및 상기 백본 데이터 처리 경로의 분할특징 블록에서 분기된 제2 보조 데이터 처리 경로를 형성하는 제2 검출부를 포함할 수도 있다. According to another aspect of the present application, an apparatus for detecting a lesion of a disease related to a body component that delivers blood from a medical image includes a medical image including a plurality of 2-dimensional slice images constituting a body component of a 3-dimensional volume. a receiving image acquisition unit; and an analyzer configured to extract spatial features and connectivity between segments from a medical image of a detection target using a pre-learned disease detection model, and to calculate features for predicting body components based on the spatial features and connectivity between segments. may also include The disease detection model includes a division unit forming a backbone data processing path having a depth structure composed of a plurality of hierarchical levels; a first detector forming a first auxiliary data processing path branched from the subnetwork of the backbone data processing path; and a second detection unit forming a second auxiliary data processing path branched from the division feature block of the backbone data processing path.

일 실시예에서, 상기 분할부는 계층 레벨별로 위치한 복수의 인코딩 블록 및 복수의 디코딩 블록; 가장 깊은 계층 레벨에서 이전 계층 레벨의 인코딩 블록과 디코딩 블록 사이를 연결하여 절편 사이 연결성을 추출하는 서브 네트워크; 가장 높은 계층 레벨의 디코딩 블록의 연산 결과에서 상기 신체 구성요소를 예측하기 위한 특징을 산출하는 분할특징 블록; 및 상기 신체 구성요소를 예측하기 위한 특징에 기초하여 입력영상에서 신체 구성요소 영역을 분할하는 분할 블록을 포함할 수도 있다. 계층 레벨별 인코딩 블록은 연산 결과를 제1 연결 경로를 통해 다음 계층 레벨의 인코딩 블록으로 전파하고 그리고 제2 연결 경로를 통해 동일한 계층 레벨의 디코딩 블록으로 전파하며, 계층 레벨별 디코딩 블록은 상기 제1 연결 경로를 통해 이전 계층 레벨의 디코딩 블록 또는 서브 네트워크의 연산 결과 및 상기 제2 연결 경로를 통해 동일한 계층 레벨의 인코딩 블록의 연산 결과를 수신하여 입력영상을 점차적으로 복원한다. In one embodiment, the division unit may include a plurality of encoding blocks and a plurality of decoding blocks located for each hierarchical level; a sub-network for extracting connectivity between segments by connecting encoding blocks and decoding blocks of a previous hierarchical level at the deepest hierarchical level; a division feature block that calculates a feature for predicting the body component from an operation result of a decoding block of the highest hierarchical level; and a segmentation block dividing a body component region in an input image based on a feature for predicting the body component. The encoding block for each hierarchical level propagates an operation result to an encoding block of the next hierarchical level through a first connection path and to a decoding block of the same hierarchical level through a second connection path, and the decoding block for each hierarchical level An input image is gradually restored by receiving an operation result of a decoding block or sub-network of a previous hierarchical level through a connection path and an operation result of an encoding block of the same hierarchical level through the second connection path.

일 실시예에서, 상기 제1 검출부는, 절편 사이 연결성에 기초하여 컨벌루션 연산 및 전역적 풀링 연산을 통해 전역적 특징을 산출하는 제1 추출 블록; 및 상기 전역적 특징에 기초하여 전역적 점수를 산출하는 제1 스코어 블록을 포함할 수도 있다. In an embodiment, the first detection unit may include a first extraction block calculating a global feature through a convolution operation and a global pooling operation based on connectivity between segments; and a first score block that calculates a global score based on the global feature.

일 실시예에서, 상기 제2 검출부는, 상기 신체 구성요소를 예측하기 위한 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 제2 추출 블록; 및 상기 지역적 특징에 기초하여 지역적 점수를 산출하는 제2 추출 블록을 포함할 수도 있다. In one embodiment, the second detection unit may include a second extraction block calculating a regional feature through a convolution operation and a regional pooling operation based on the feature for predicting the body component; and a second extraction block for calculating a regional score based on the regional feature.

일 실시예에서, 상기 질환 검출 모델은, 상기 지역적 점수 및 전역적 점수를 곱셈 연산자를 통해 연산하여 병변 점수를 산출하고, 그리고 산출된 병변 점수에 기초하여 병변영역을 검출하도록 구성될 수도 있다. In one embodiment, the disease detection model may be configured to calculate a lesion score by calculating the regional score and the global score through a multiplication operator, and to detect a lesion area based on the calculated lesion score.

일 실시예에서, 상기 질환 검출 모델은 분할부의 예측 값과 실제 값 간의 차이, 제1 검출부의 예측 값과 실제 값 간의 차이, 및 제2 검출부의 예측 값과 실제 값 간의 차이가 최소화되도록 학습된다. In one embodiment, the disease detection model is trained to minimize the difference between the predicted value and the actual value of the dividing unit, the difference between the predicted value and the actual value of the first detection unit, and the difference between the predicted value and the actual value of the second detection unit. .

본 출원의 실시예들에 따르면, 딥러닝 기술을 활용해 혈관 및 병변 부위를 추출하고 협착 정도를 정량적으로 제시할 수 있어, 영상의학과 의사가 TOF-MRA 검사를 보다 정확하고 효율적으로 판독하는데 큰 도움을 줄 수 있다According to the embodiments of the present application, deep learning technology can be used to extract blood vessels and lesions and quantitatively present the degree of stenosis, which is a great help for radiologists to more accurately and efficiently read TOF-MRA examinations. can give

특히, 폐색으로 인해 중심선이 잘 보이지 않거나 너비가 매우 좁은 병변이 나타난 혈관을 정확하게 추출할 수 있어, 허혈성 뇌졸중 환자의 진단에 중요하며 치료 결정을 위한 전략을 결정하는 데 필수적인 협착성 병변의 부위를 정확하게 측정할 수 있다. In particular, it is possible to accurately extract blood vessels in which the central line is difficult to see due to occlusion or lesions with a very narrow width can be accurately extracted, which is important in the diagnosis of ischemic stroke patients and is essential for determining the treatment strategy. can be measured

본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 위한 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 본 출원의 일 측면에 따른, 의료영상으로부터 혈관과 같이 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치의 개략적인 블록도이다.
도 2는, 본 출원의 일 실시예에 따른, 질환 검출 모델에 입력되는 의료영상을 도시한다.
도 3은, 본 출원의 일 실시예에 따른, 혈관관련 질환 검출 모델의 개략적인 네트워크 아키텍처를 도시한다.
도 4는, 본 출원의 일 실시예에 따른, 질환 검출 모델의 학습 과정을 설명하는 도면이다.
도 5a 및 도 5b는, 본 출원의 일 실시예에 따른, 혈관영역 및 병변영역을 예측 결과를 도시한 도면이다.
도 6은, 본 출원의 다른 일 측면에 따른, 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법의 흐름도이다.
도 7은, 본 출원의 일 실시예에 따른, 분할된 혈관영역의 위치, 검출된 병변영역의 위치를 2차원 절편 영상 상에 표시한 결과를 도시한다.
도 8은, 본 출원의 일 실시예에 따른, 분할된 혈관영역의 위치, 검출된 병변영역의 위치를 렌더링한 3차원 모델을 도시한다.
도 9a 내지 도 9c는, 본 출원의 일 실험예에 따른, 국소화 사이즈에 따른 모델 성능을 도시한다.
도 10은, 본 출원의 일 실험예에 따른, 도 3의 모델 및 이를 변형한 다른 모델 각각의 분할 성능 및 검출 성능을 도시한다.
BRIEF DESCRIPTION OF THE DRAWINGS To describe the technical solutions of the embodiments of the present invention or the prior art more clearly, drawings required in the description of the embodiments are briefly introduced below. It should be understood that the drawings below are for the purpose of explaining the embodiments of the present specification and not for the purpose of limitation. In addition, for clarity of explanation, some elements applied with various modifications, such as exaggeration and omission, may be shown in the drawings below.
1 is a schematic block diagram of an apparatus for detecting a lesion of a disease related to a body component that delivers blood, such as a blood vessel, from a medical image according to an aspect of the present application.
2 illustrates a medical image input to a disease detection model according to an embodiment of the present application.
3 shows a schematic network architecture of a vascular-related disease detection model, according to an embodiment of the present application.
4 is a diagram illustrating a learning process of a disease detection model according to an embodiment of the present application.
5A and 5B are diagrams illustrating prediction results of a blood vessel area and a lesion area according to an embodiment of the present application.
6 is a flowchart of a method of detecting a disease lesion related to a body component that delivers blood from a medical image according to another aspect of the present application.
7 illustrates a result of displaying the location of a divided blood vessel region and the location of a detected lesion region on a 2D slice image according to an embodiment of the present application.
8 illustrates a 3D model in which positions of divided blood vessel regions and positions of detected lesion regions are rendered according to an embodiment of the present application.
9A to 9C show model performance according to localization size according to an experimental example of the present application.
FIG. 10 illustrates segmentation performance and detection performance of the model of FIG. 3 and other modified models according to an experimental example of the present application.

이하에서, 도면을 참조하여 본 출원의 실시예들에 대하여 상세히 살펴본다.Hereinafter, the embodiments of the present application will be described in detail with reference to the drawings.

그러나, 이는 본 개시(disclosure)를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.However, it should be understood that this disclosure is not intended to limit the disclosure to the specific embodiments, and includes various modifications, equivalents, and/or alternatives of the embodiments of the disclosure. . In connection with the description of the drawings, like reference numerals may be used for like elements.

본 명세서에서, "가진다," "가질 수 있다,""포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 단계, 부품, 요소 및/또는 성분 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재나 부가를 제외시키는 것이 아니다. In this specification, expressions such as “has,” “may have,” “includes,” or “may include” refer to corresponding characteristics (eg, numerical values, functions, operations, steps, parts, elements, and/or components). elements), and does not preclude the presence or addition of additional features.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

다양한 실시예에서 사용된 "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성요소들을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들면, 제1 구성요소와 제2 구성요소는, 순서 또는 중요도와 무관하게, 서로 다른 구성요소를 나타낼 수 있다. Expressions such as "first", "second", "first" or "second" used in various embodiments may modify various elements regardless of order and/or importance, and define the elements. I never do that. The above expressions may be used to distinguish one component from another. For example, the first element and the second element may represent different elements regardless of order or importance.

본 명세서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to),"또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used herein, the expression “configured (or configured) to” means, depending on the circumstances, for example, “suitable for,” “having the capacity to” ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or set) to perform A, B, and C" may include a dedicated processor (eg, an embedded processor) to perform those operations, or one or more software programs stored in a memory device that executes By doing so, it may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 명세서에서 사용자가 분할을 원하는 대상 객체는 3차원 체적의 축 절편들(axial slices) 사이로 혈액을 운반하는 신체 구성요소이다. 특정 실시예들에서, 분할 대상 객체는 혈관 및/또는 혈액 공급 장기를 포함한다. In this specification, a target object that a user wants to segment is a body component that carries blood between axial slices of a three-dimensional volume. In certain embodiments, the object to be segmented includes blood vessels and/or blood supply organs.

혈관은 혈액을 운반하는 대표적인 신체 구성요소로서, 관 형태를 가진다. 상기 혈액 공급 장기는 혈관은 아니지만 혈액의 순환 경로를 형성하는 장기로서, 예를 들어 심실 및/또는 심방을 포함한다. 이하, 설명의 명료성을 위해서, 분할 대상이 혈관인 실시예들로 본 발명을 서술하나, 본 명세서에서 분할 대상은 해부학적 혈관에 제한되지 않는 것으로 이해되는 것이 통상의 기술자에게 명백할 것이다. A blood vessel is a typical body component that transports blood and has a tubular shape. The blood-supplying organ is an organ that is not a blood vessel but forms a circulation path of blood, and includes, for example, a ventricle and/or an atrium. Hereinafter, for clarity of explanation, the present invention will be described in embodiments in which a division target is a blood vessel, but it will be clear to those skilled in the art that the division target in this specification is not limited to an anatomical blood vessel.

도 1은, 본 출원의 일 측면에 따른, 의료영상으로부터 혈관과 같이 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치의 개략적인 블록도이다. 1 is a schematic block diagram of an apparatus for detecting a lesion of a disease related to a body component that delivers blood, such as a blood vessel, from a medical image according to an aspect of the present application.

도 1을 참조하면, 의료영상으로부터 혈관과 같이 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치(1, 이하 "질환 검출 장치")는 질환 검출 모델(20)을 사용하여 질환에 대응한 병변영역을 검출하는 분석부(10); 영상 획득부(30)를 포함한다. 또한, 상기 장치(1)는 출력부50를 더 포함할 수도 있다. Referring to FIG. 1 , a device (1, hereinafter referred to as “disease detection device”) for detecting disease lesions related to body components that deliver blood, such as blood vessels, from medical images is used to detect diseases using a disease detection model 20. an analysis unit 10 that detects a corresponding lesion area; It includes an image acquisition unit 30. In addition, the device 1 may further include an output unit 50 .

실시예들에 따른 질환 검출 장치(1)는 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 장치는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치", 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 가능한 컴퓨팅 장치일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The disease detection device 1 according to embodiments may be entirely hardware, entirely software, or partially hardware and partially software. For example, the device may collectively refer to hardware equipped with data processing capability and operating software for driving the hardware. In this specification, terms such as “unit”, “module”, “apparatus”, or “system” are intended to refer to a combination of hardware and software driven by the hardware. For example, the hardware may be a data processing computing device including a Central Processing Unit (CPU), a Graphic Processing Unit (GPU), or another processor. Also, software may refer to a running process, an object, an executable file, a thread of execution, a program, and the like.

상기 분석부(10)는 프로세서 및 메모리를 포함한다. 상기 분석부(10)의 메모리는 미리 학습된 질환 검출 모델(20) 및, 프로세서에 의해 실행될 경우 의료영상으로부터 혈관과 같이 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법을 실행하기 위한 명령어들로 이루어진 프로그램을 저장할 수도 있다. The analysis unit 10 includes a processor and memory. The memory of the analyzer 10 executes the previously learned disease detection model 20 and a method of detecting disease lesions related to body components that deliver blood, such as blood vessels, from medical images when executed by the processor. It can also store a program consisting of instructions for

이러한 분석부(10)의 동작에 대해서는 아래의 도 3 내지 도 5를 참조해 보다 상세히 서술한다. The operation of the analyzer 10 will be described in more detail with reference to FIGS. 3 to 5 below.

도 2는, 본 출원의 일 실시예에 따른, 질환 검출 모델에 입력되는 의료영상을 도시한다. 2 illustrates a medical image input to a disease detection model according to an embodiment of the present application.

도 2를 참조하면, 상기 영상 획득부(30)는 의료기기로부터 의료영상을 직/간접적으로 획득한다. 상기 의료영상은 질환 검출 모델(20)에 입력된다. 그러면, 분석부(10)는 혈관영역을 분할하거나 및/또는 혈관관련 질환의 병변영역을 검출할 수도 있다. Referring to FIG. 2 , the image acquisition unit 30 directly/indirectly obtains a medical image from a medical device. The medical image is input to the disease detection model 20 . Then, the analysis unit 10 may divide the blood vessel area and/or detect a lesion area of a blood vessel-related disease.

상기 의료기기는, 자기공명 혈관 조영술 영상과 같은 혈관 등의 검출 대상의 신체 내부를 촬영하여 신체 구성요소를 포함한 의료영상을 생성하는 장치이다. 예를 들어, 상기 의료기기는 유체속도강조 자기공명 혈관조영술 (TOF-MRA) 영상을 생성하는 의료기기일 수도 있다. The medical device is a device that generates a medical image including body components by photographing the inside of the body of a target to be detected, such as a blood vessel, such as a magnetic resonance angiography image. For example, the medical device may be a medical device that generates a fluid velocity-weighted magnetic resonance angiography (TOF-MRA) image.

상기 영상 획득부(30)는 상기 의료기기로부터 정보를 수신하도록 연결될 수도 있다. 상기 영상 획득부(30)는 연결 인터페이스로 구현될 수도 있다. 그러면, 상기 장치(1)는 상기 영상 획득부(20)에 의해 상기 의료영상을 직접 획득할 수도 있다. The image acquisition unit 30 may be connected to receive information from the medical device. The image acquisition unit 30 may be implemented as a connection interface. Then, the device 1 may directly acquire the medical image by the image acquiring unit 20 .

또는, 상기 영상 획득부(30)는 외부기기와 유/무선 전기 통신하도록 연결될 수도 있다. 이를 위해, 상기 영상 획득부(30)는 통신 모듈로 구현될 수도 있다. Alternatively, the image acquisition unit 30 may be connected to an external device for wired/wireless electrical communication. To this end, the image acquisition unit 30 may be implemented as a communication module.

외부기기는 상기 통신 모듈과 전기 통신 가능한 의료기기 자체, 또는 의료기기와 연결된 기기, 또는 의료기기와 직접 연결된 기기와 전기 통신하는 또 다른 기기일 수도 있다. 그러면, 상기 장치(1)가 상기 영상 획득부(30)에 의해 외부기기로부터 의료영상을 획득하는 것은 의료기기로부터 상기 의료영상을 간접적으로 획득하는 것으로 취급될 수도 있다. The external device may be a medical device capable of electrical communication with the communication module itself, a device connected to the medical device, or another device that communicates electrically with a device directly connected to the medical device. Then, when the device 1 acquires a medical image from an external device by the image acquiring unit 30, it may be treated as indirectly acquiring the medical image from the medical device.

상기 표시부(50)는 분석부(10)의 분석 결과 또는 장치(1)의 저장 정보를 수신하여 정보를 표시한다. 상기 표시부(50)는 예를 들어, LCD, OLED, 플렉서블 스크린 등을 포함할 수 있으나, 이에 제한되진 않는다.The display unit 50 receives the analysis result of the analyzer 10 or stored information of the device 1 and displays the information. The display unit 50 may include, for example, an LCD, OLED, flexible screen, etc., but is not limited thereto.

상기 장치(1)는 상기 표시부(50)에 의해 혈관영역의 분할 결과, 병변영역의 검출 결과를 표시할 수도 있다. The apparatus 1 may display a result of dividing a blood vessel area and a result of detecting a lesion area through the display unit 50 .

질환 검출 모델의 네트워크 아키텍처Network architecture of disease detection model

도 3은, 본 출원의 일 실시예에 따른, 혈관관련 질환 검출 모델의 개략적인 네트워크 아키텍처를 도시한다. 3 shows a schematic network architecture of a vascular-related disease detection model, according to an embodiment of the present application.

도 3을 참조하면, 상기 질환 검출 모델(20)은 입력영상에서 혈관 영역을 추출하기 위한 백본(backbone) 데이터 처리 경로; 백본 데이터 처리 경로에서 산출된 데이터(예컨대, 특징)에 기초하여 병변을 검출하기 위한 하나 이상의 보조(auxiliary) 데이터 처리 경로로 이루어진다. Referring to FIG. 3 , the disease detection model 20 includes a backbone data processing path for extracting a blood vessel region from an input image; It consists of one or more auxiliary data processing paths for detecting lesions based on data (eg, features) calculated in the backbone data processing path.

특정 실시예들에서, 상기 질환 검출 모델(20)은 상기 백본 데이터 처리 경로; 전역적 측면에서 병변영역을 검출하기 위한 제1 보조 데이터 처리 경로; 및 지역적 측면에서 병변영역을 검출하기 위한 제2 보조 데이터 처리 경로로 이루어질 수도 있다. In certain embodiments, the disease detection model 20 includes the backbone data processing path; a first auxiliary data processing path for detecting a lesion area in a global aspect; and a second auxiliary data processing path for detecting a lesion area in a regional aspect.

상기 질환 검출 모델(20)은 분할부(100); 제1 검출부(310); 및 제2 검출부(330);를 포함한다. The disease detection model 20 includes a division unit 100; a first detection unit 310; and a second detection unit 330.

상기 분할부(100)는 상기 백본 데이터 처리 경로를 이루는 네트워크이다. 상기 분할부(100)는, 모델(20)의 입력영상(예컨대, 3차원 체적을 이루는 복수의 2차원 절편 영상들)에서 혈관영역을 예측하기 위한 특징(이하, 혈관 특징)을 추출하도록 구성될 수도 있다. 이를 통해, 상기 분석부(10)는 모델(20)의 입력영상에서 분할 대상으로서 질환과 관련된 객체인 신체 구성요소(즉, 혈관) 영역을 예측한다. The division unit 100 is a network constituting the backbone data processing path. The segmentation unit 100 may be configured to extract features (hereinafter referred to as blood vessel features) for predicting a blood vessel area from an input image of the model 20 (eg, a plurality of 2-dimensional slice images constituting a 3-dimensional volume). may be Through this, the analysis unit 10 predicts a region of a body component (ie, a blood vessel), which is an object related to a disease, as a segmentation target in the input image of the model 20 .

상기 혈관을 예측하기 위한 특징은 개별 절편 영상 내 혈관의 공간 특징; 및 연속적인 절편 영상 간의 혈관에 대한 맥락(context)을 포함한다. 상기 분할부(100)는 포착된 맥락 및 추출된 특징에 기초하여 혈관 영역을 보다 정확하게 예측할 수 있다. The features for predicting blood vessels include spatial features of blood vessels in individual slice images; and a context for blood vessels between consecutive slice images. The segmentation unit 100 may more accurately predict a blood vessel region based on the captured context and extracted features.

상기 절편 영상 내 혈관의 공간 특징(spatial features)은 2차원 영상에 표현되는 혈관과 관련된 특징이다. 상기 공간 특징은 영상에 표현된, 혈관의 해부학적 구조로 이루어진 혈관영역과 비-혈관영역을 식별하기 위한 영상 특징(features)이다. 상기 공간 특징은 인코딩 블록(110)에 입력된 단일 입력 영상으로부터 추출 가능한 기하학적 특징으로서, 예를 들어 엣지, 포인트, 및/또는 굴곡(curvates) 등을 포함한다. 상기 공간 특징은, CNN과 같은 일반적인 딥러닝 모델에서 입력 영상으로부터 추출되는 특징에 대응한다. Spatial features of blood vessels in the slice image are features related to blood vessels represented in the 2D image. The spatial features are image features for identifying a blood vessel region and a non-vascular region composed of an anatomical structure of a blood vessel expressed in an image. The spatial features are geometric features extractable from a single input image input to the encoding block 110, and include, for example, edges, points, and/or curves. The spatial feature corresponds to a feature extracted from an input image in a general deep learning model such as CNN.

상기 절편 사이 연결성은 입력된 2차원 절편 영상과, 인접한 순서의 다른 절편 영상 중 적어도 하나의 절편 영상 사이의 연속 데이터의 맥락이다. 인접한 순서는 이전에 입력된 적어도 하나의 절편 영상일 수도 있다. 혈관의 주된 해부학적 역할은 누출 없이 혈액을 전달하는 것이다. 때문에, 혈관은 강력한 절편 사이 연결성(inter-slice connectivity)을 가진다. 질환 검출 모델(20)에 입력되는 영상 시퀀스는 어느 하나의 촬영 신체 지점으로부터 인접한 다음 촬영 신체 지점까지의 혈관의 연속 정보를 포함한다.The connectivity between slices is a context of continuous data between an input 2D slice image and at least one slice image among other slice images in an adjacent order. The adjacent sequence may be at least one slice image previously input. The primary anatomical role of blood vessels is to transport blood without leakage. Because of this, blood vessels have strong inter-slice connectivity. An image sequence input to the disease detection model 20 includes continuous information of blood vessels from one body point to be photographed to the next adjacent body point to be photographed.

상기 분할부(100)는 복수의 인코딩 블록(110); 서브 네트워크(120); 복수의 디코딩 블록(130); 및 분할특징 블록(140)을 포함한다. 특정 실시예들에서, 상기 분할부(100)는 분할 블록(150)을 더 포함할 수도 있다. The division unit 100 includes a plurality of encoding blocks 110; subnetwork 120; a plurality of decoding blocks 130; and a segmentation feature block 140 . In certain embodiments, the division unit 100 may further include a division block 150.

디코딩 블록(130)의 수는 인코딩 블록(110)의 수와 매칭할 수도 있다. 예를 들어, 상기 분할부(100)는 3개의 인코딩 블록(110a 내지 110c); 및 3개의 디코딩 블록(130a 내지 130c)을 포함할 수도 있다. The number of decoding blocks 130 may match the number of encoding blocks 110 . For example, the division unit 100 includes three encoding blocks 110a to 110c; and three decoding blocks 130a to 130c.

상기 분할부(100)의 백본 데이터 처리 경로는 복수의 계층 레벨 구조로 형성된, 깊이 구조를 가진다. 복수의 계층 레벨은 복수의 인코딩 블록(110), 디코딩 블록(130) 각각에 의해 형성된다. 하나의 계층 레벨에 하나의 인코딩 블록(110) 및 디코딩 블록(130)이 위치한다. 상기 계층 레벨의 값은 하이퍼파라미터로 설정된다. The backbone data processing path of the division unit 100 has a depth structure formed of a plurality of hierarchical level structures. A plurality of hierarchical levels are formed by a plurality of encoding blocks 110 and decoding blocks 130, respectively. One encoding block 110 and one decoding block 130 are located at one hierarchical level. The value of the hierarchical level is set as a hyperparameter.

계층 레벨에서 처리된 연산 결과는 다음 계층 레벨로 전파된다. 상기 복수의 인코딩 블록(110)의 출력 데이터는 가장 높은 계층에서 가장 낮은 계층으로 전파될 수도 있다. 상기 복수의 디코딩 블록(130)의 출력 데이터는 가장 낮은 계층에서 가장 높은 계층으로 전파될 수도 있다. Operation results processed at the hierarchical level are propagated to the next hierarchical level. Output data of the plurality of encoding blocks 110 may be propagated from the highest layer to the lowest layer. Output data of the plurality of decoding blocks 130 may be propagated from the lowest layer to the highest layer.

인코딩 블록(110)은 컨볼루션 연산 및 풀링 연산을 수행하도록 구성될 수도 있다. Encoding block 110 may be configured to perform convolution and pooling operations.

상기 인코딩 블록(110)은 컨볼루션 연산을 통해 특징을 추출한다. 상기 특징은 혈관의 공간 특징; 및 연속적인 절편 영상 간의 혈관에 대한 맥락(context)을 산출하는데 사용된다. The encoding block 110 extracts features through a convolution operation. The features include spatial features of blood vessels; and to calculate a context for blood vessels between successive slice images.

상기 인코딩 블록(110)은 입력 데이터에 대해 컨볼루션 연산하는, 복수의 컨볼루션 필터(또는 커널 필터로 지칭됨)를 포함할 수도 있다. 그러면, 상기 인코딩 블록(110)은 입력 데이터의 채널을 증가시킬 수도 있다. 컨볼루션 연산에 따른 결과 데이터는 컨볼루션 필터의 수에 따른 채널 수를 가진다.The encoding block 110 may include a plurality of convolution filters (or referred to as kernel filters) that perform a convolution operation on input data. Then, the encoding block 110 may increase the channel of input data. Data resulting from the convolution operation has the number of channels according to the number of convolution filters.

상기 복수의 컨볼루션 필터는 3*3 컨볼루션 필터를 포함할 수도 있으나, 이에 제한되진 않는다. The plurality of convolution filters may include a 3*3 convolution filter, but is not limited thereto.

일 실시예에서, 인코딩 블록(110)은 복수의 컨볼루션 레이어를 포함할 수도 있다. 그러면, 인코딩 블록(110)은 입력 데이터를 순차적으로 복수 회 컨볼루션 연산 처리할 수도 있다. In one embodiment, the encoding block 110 may include a plurality of convolutional layers. Then, the encoding block 110 may sequentially perform a convolution operation on the input data multiple times.

일 예시에서, 상기 인코딩 블록(110)은 2개의 컨볼루션 레이어를 포함할 수도 있다. 상기 컨볼루션 레이어는 각각의 2차원 시퀀스 영상을 컨볼루션 연산, ReLU(Rectified Linear Unit) 활성화 및 배치 정규화를 처리하도록 구성될 수도 있다. In one example, the encoding block 110 may include two convolutional layers. The convolution layer may be configured to process each 2D sequence image with a convolution operation, Rectified Linear Unit (ReLU) activation, and batch normalization.

상기 인코딩 블록(110)은 풀링 연산을 통해 입력 데이터(예컨대, 컨볼루션 연산 결과)의 사이즈를 축소시킬 수도 있다. 그러면, 상기 인코딩 블록(110)은 입력 영상의 해상도를 풀링 처리 이전 대비 감소시킬 수도 있다. The encoding block 110 may reduce the size of input data (eg, convolution operation result) through a pooling operation. Then, the encoding block 110 may reduce the resolution of the input image compared to before the pooling process.

특정 실시예들에서, 상기 인코딩 블록(110)은 맥스 풀링(max-pooling) 연산을 수행하도록 구성될 수도 있다. In certain embodiments, the encoding block 110 may be configured to perform a max-pooling operation.

상기 인코딩 블록(110)의 맥스 풀링의 윈도우 사이즈는, 예를 들어 2 Х 2일 수도 있으나, 이에 제한되진 않는다. The window size of max pooling of the encoding block 110 may be, for example, 2 Х 2, but is not limited thereto.

상기 분할부(100)에서 각 계층 레벨별 인코딩 블록(110)은 계층 레벨이 깊어질수록 더 많은 채널을 갖는 데이터를 생성하도록 구성된다. In the division unit 100, the encoding block 110 for each hierarchical level is configured to generate data having more channels as the hierarchical level becomes deeper.

예를 들어, 각 계층 레벨별로 인코딩 블록(110)은 64, 128, 256개의 필터를 갖질 수도 있다. 그러나, 이러한 계층 레벨별 인코딩 블록(110)의 필터의 개수는 단지 예시적으로서, 입력 영상의 픽셀 사이즈 및/또는 계층 레벨의 깊이에 기초하여 다양한 값으로 설정될 수도 있다. For example, the encoding block 110 may have 64, 128, or 256 filters for each hierarchical level. However, the number of filters of the encoding block 110 for each hierarchical level is merely illustrative and may be set to various values based on the pixel size of the input image and/or the depth of the hierarchical level.

상기 분할부(100)는 제1 연결 경로를 통해 복수의 인코딩 블록(110)의 연산 결과가 복수의 디코딩 블록(130)으로 전파된다. In the division unit 100 , operation results of the plurality of encoding blocks 110 are propagated to the plurality of decoding blocks 130 through the first connection path.

상기 제1 연결 경로는 가장 높은 계층 레벨의 인코딩 블록(110)의 입력 단 및 가장 높은 계층 레벨의 디코딩 블록(130)의 출력 단으로 형성된 데이터 처리 경로로서, 가장 높은 계층 레벨의 인코딩 블록(110)의 입력 단으로부터 나머지 인코딩 블록(110) 및 복수의 디코딩 블록(130)으로 순차적으로 연결된다. 상기 제1 연결 경로는 일반적인 딥러닝 분야에서 활용되는 단일 인코더-디코더 구조 하에서의 데이터 처리 경로이다. The first connection path is a data processing path formed by an input terminal of the encoding block 110 of the highest hierarchical level and an output terminal of the decoding block 130 of the highest hierarchical level, and the encoding block 110 of the highest hierarchical level It is sequentially connected to the remaining encoding blocks 110 and a plurality of decoding blocks 130 from the input end of . The first connection path is a data processing path under a single encoder-decoder structure utilized in a general deep learning field.

상기 분할부(100)에서 인코딩 블록(110)은 컨볼루션 연산 결과 데이터를 풀링 연산 처리한 뒤 다음 레벨의 인코딩 블록(110)으로 공급한다. 다음 레벨의 인코딩 블록(110)으로 공급되기 이전에 컨볼루션 연산 결과 데이터는 풀링 연산 처리됨으로써, 해상도가 감소된다. 결국, 인코딩 블록(110)은 블록에 입력되는 영상의 해상도를 감소시켜 출력한다. In the division unit 100, the encoding block 110 performs a pooling operation on the convolution operation result data and supplies it to the encoding block 110 of the next level. Before being supplied to the encoding block 110 of the next level, the convolution operation result data is subjected to a pooling operation, so that the resolution is reduced. As a result, the encoding block 110 reduces the resolution of the image input to the block and outputs it.

해상도의 감소는 영상 확대에 대응하므로, 보다 깊은 계층 레벨의 인코딩 블록(110)은 입력영상 보다 확대된 영상을 컨볼루션 연산 처리하여 특징을 추출한다. 결국, 분할부(100)에서 데이터가 복수의 인코딩 블록(110) 사이로 전파될수록 점차 다운-샘플링된다. Since the decrease in resolution corresponds to the enlargement of the image, the encoding block 110 at a deeper hierarchical level extracts features by performing a convolutional operation on the enlarged image from the input image. As a result, as data is propagated between the plurality of encoding blocks 110 in the divider 100, it is gradually down-sampled.

상기 제1 연결 경로 상에서 적어도 하나의 인코딩 블록(110)과 적어도 하나의 디코딩 블록(130)은 서브 네트워크(120)를 통해 연결된다. On the first connection path, at least one encoding block 110 and at least one decoding block 130 are connected through a subnetwork 120 .

상기 서브 네트워크(120)는 연결된 인코딩 블록(110)에서 추출된 공간 특징에 기초하여 상기 일련의 2차원 대상 절편 영상 중 적어도 일부 간의 절편 사이 연결성을 추출한다. The sub-network 120 extracts connectivity between at least some segments of the series of 2D target segment images based on spatial features extracted from the connected encoding block 110 .

특정 실시예들에서, 상기 서브 네트워크(120)는 가장 깊은 계층 레벨에서 이전 계층 레벨의 인코딩 블록(110)과 가장 깊은 계층 레벨의 디코딩 블록(130)을 연결할 수도 있다. 도 3에 도시된 것처럼, 이전 계층 레벨의 인코딩 블록(110C)의 출력 데이터는 가장 깊은 서브 네트워크(120)를 통해 이전 계층 레벨의 디코딩 블록(130C)으로 입력된다. In certain embodiments, the subnetwork 120 may connect the encoding block 110 of the previous hierarchical level and the decoding block 130 of the deepest hierarchical level at the deepest hierarchical level. As shown in FIG. 3 , output data of the encoding block 110C of the previous hierarchical level is input to the decoding block 130C of the previous hierarchical level through the deepest sub-network 120 .

상기 서브 네트워크(120)는 일련의 시퀀스 영상이 분할부(100)에 입력될 경우, 연결된 인코딩 블록(110)의 연산 결과에 기초하여 상기 일련의 시퀀스 영상 중 적어도 일부 간의 절편 사이 연결성을 산출한다. When a series of sequence images are input to the segmentation unit 100, the subnetwork 120 calculates connectivity between at least some of the segments based on the result of operation of the connected encoding block 110.

상기 서브 네트워크(120)는 시변적 동적 특징을 모델링하기 위해 시퀀스 형태의 입력을 처리하도록 구성된다. 이를 위해 상기 서브 네트워크(120)는 일정 시간 동안의 정보를 기억할 수도 있다. 상기 질환 검출 모델(20)은 상기 서브 네트워크(120)를 사용하여 인접 절편 영상 간의 연결성을 보다 강조하여 혈관을 분할하거나 병변을 검출한다. The sub-network 120 is configured to process input in the form of a sequence to model time-varying dynamic characteristics. To this end, the subnetwork 120 may store information for a certain period of time. The disease detection model 20 uses the sub-network 120 to further emphasize connectivity between adjacent slice images to segment blood vessels or detect lesions.

일 실시예에서, 상기 서브 네트워크(120)는 양방향 컨볼루션 LSTM(bi-directional convolutional long short-term memory) 네트워크일 수도 있다.In one embodiment, the subnetwork 120 may be a bi-directional convolutional long short-term memory (LSTM) network.

또는 다른 실시예들에서, 상기 서브 네트워크(120)는 예를 들어 RNN(Recurrent Neural Network), LSTM(long short-term memory) 또는 GRU일 수도 있다. Alternatively, in other embodiments, the subnetwork 120 may be, for example, a recurrent neural network (RNN), long short-term memory (LSTM), or GRU.

상기 서브 네트워크(120)는 이전에 먼저 추출된, 다수의 시퀀스 영상의 특징 중 적어도 하나의 시퀀스 영상의 특징을 기억하고 기억된 특징을 갖는 상기 적어도 하나의 시퀀스 영상과 현재 특징이 추출된 시퀀스 영상 사이의 연관성을 산출하여 이들의 절편 사이 연결성을 추출한다. The sub-network 120 stores the feature of at least one sequence image among the features of a plurality of sequence images extracted previously, and connects the at least one sequence image having the stored feature with the sequence image from which the current feature is extracted. By calculating the association of , the connectivity between these segments is extracted.

분할부(100)에 일련의 시퀀스 영상이 순차적으로 입력되면, 상기 절편 사이 연결성은 일련의 시퀀스 영상 각각에 대해서 제1 연결 경로에 따른 복수의 인코딩 블록(110)의 연산 결과에 기초하여 산출된다. When a series of sequence images are sequentially input to the segmentation unit 100, the connectivity between the segments is calculated based on an operation result of the plurality of encoding blocks 110 along the first connection path for each of the sequence images.

상기 서브 네트워크(120)는, 분할부(100)에 입력되는 시퀀스 영상 각각을 제1 연결 경로에 따라 처리하여 산출되는, 정보의 흐름 중에서 복수의 인코딩 블록(110)에 의해 처리되는 정보의 부분 흐름 및 디코딩 블록(130)에 의해 처리되는 정보의 부분 흐름을 가로지르는 데이터 처리 경로를 형성한다. 복수의 인코딩 블록(110)을 따라 형성되는 처리 정보의 부분 흐름(도 3의 110A, 110B, 110C, 120 순서) 및 복수의 디코딩 블록(130)을 따라 형성되는 처리 정보의 부분 흐름(도 3의 120, 130C, 130B, 130A 순서)은 세로의 날실 경로 부분(warp path part)으로 지칭될 수도 있고, 상기 서브 네트워크(120) 내부에서 처리되는 정보의 부분 흐름(도 3의 120의 입력단에서 출력단 순서)은 날실 경로 부분을 가로로 연결하는 씨실 경로 부분(weft path part)으로 지칭될 수도 있다. 이 때, 서브 네트워크(120)는 복수의 인코딩 블록(110), 디코딩 블록(130) 중에서 가장 깊은 레벨 계층의 인코딩 블록(110), 디코딩 블록(130) 보다 깊은 계층에 위치하므로, 분할부(100)의 가장 깊은 레벨 계층에 위치하는 것으로 취급될 수도 있다. The subnetwork 120 is a partial flow of information processed by a plurality of encoding blocks 110 among the flow of information calculated by processing each sequence image input to the segmentation unit 100 according to the first connection path. and a data processing path that traverses the partial flow of information processed by decoding block 130 . A partial flow of processing information formed along the plurality of encoding blocks 110 (order of 110A, 110B, 110C, and 120 in FIG. 3) and a partial flow of processing information formed along the plurality of decoding blocks 130 (shown in FIG. 3) 120, 130C, 130B, 130A sequence) may be referred to as a vertical warp path part, and the partial flow of information processed inside the subnetwork 120 (input to output sequence of 120 in FIG. 3 ) may be referred to as a weft path part that transversely connects the warp path part. At this time, since the sub-network 120 is located in a layer deeper than the encoding block 110 and decoding block 130 of the deepest level among the plurality of encoding blocks 110 and decoding blocks 130, the division unit 100 ) may be treated as being located at the deepest level of the hierarchy.

또한, 상기 분할부(100)는 제1 연결 경로 및 제2 연결 경로를 통해 복수의 인코딩 블록(110)의 연산 결과가 복수의 디코딩 블록(130)으로 전파하도록 구성될 수도 있다. In addition, the divider 100 may be configured to propagate calculation results of the plurality of encoding blocks 110 to the plurality of decoding blocks 130 through the first connection path and the second connection path.

상기 제2 연결 경로는 동일한 계층 레벨 상의 인코딩 블록(110)과 디코딩 블록(130)사이에 형성된 스킵 연결(skip connections)이다. 상기 제2 연결 경로는 복수의 인코딩 블록(110)과 복수의 디코딩 블록(130) 각각을 연결한다. 스킵 연결은 각 계층 레벨의 인코딩 블록(110)의 연산 결과를 디코딩 블록(130)으로 전파한다. 이 과정에서 개별 인코딩 블록(110)에서 추출된 입력 데이터의 영상 특징이 대응하는 디코딩 블록(130)으로 통과된다. The second connection path is a skip connection formed between the encoding block 110 and the decoding block 130 on the same hierarchical level. The second connection path connects each of the plurality of encoding blocks 110 and the plurality of decoding blocks 130 . The skip connection propagates the operation result of the encoding block 110 at each hierarchical level to the decoding block 130 . In this process, the video features of the input data extracted from each encoding block 110 are passed to the corresponding decoding block 130 .

상기 분할부(100)는 이러한 제1 연결 경로, 또는 상기 제1 연결 경로 및 제2 연결 경로를 통해 인코딩 블록(110)의 출력 데이터를 대응한 디코딩 블록(130)의 입력 단으로 전파할 수도 있다. 예를 들어, 공간 특징은 상기 제1 연결 경로 및 제2 연결 경로를 통해 전파될 수도 있다. 상기 절편 사이 연결성은 제1 연결 경로를 통해 전파될 수도 있다. The division unit 100 may propagate the output data of the encoding block 110 to the corresponding input terminal of the decoding block 130 through the first connection path or the first connection path and the second connection path. . For example, a spatial feature may propagate through the first connection path and the second connection path. Connectivity between segments may be propagated through a first connection path.

상기 디코딩 블록(130)은 디컨볼루션 연산을 수행하도록 구성된다. The decoding block 130 is configured to perform a deconvolution operation.

상기 디코딩 블록(130)은 입력 데이터를 디컨볼루션 연산을 통해 업-샘플링하도록 구성된다. 상기 디코딩 블록(130)은 대상 픽셀 주위에 (예컨대, 제로-패딩과 같은) 패딩 픽셀을 추가하여 컨볼루션 연산함으로써 디컨볼루션 연산을 수행할 수도 있다. The decoding block 130 is configured to up-sample input data through a deconvolution operation. The decoding block 130 may perform a deconvolution operation by performing a convolution operation by adding a padding pixel (eg, zero-padding) around the target pixel.

디코딩 블록(130)은 제1 데이터 처리 경로를 따라 서브 네트워크(120)을 통해 입력된 데이터를 디컨볼루션 처리한다. The decoding block 130 performs deconvolution on data input through the subnetwork 120 along the first data processing path.

일 실시예에서, 상기 디코딩 블록(130)은 디컨볼루션 레이어를 포함할 수도 있다. 상기 디컨볼루션 레이어는 디컨볼루션 처리 및 활성화 처리를 수행하도로 구성된다. 상기 디컨볼루션 레이어는 각각의 2차원 시퀀스 영상에 대해서, 예를 들어 디컨볼루션 처리 및 ReLU 활성화 동작을 수행하도록 구성될 수도 있다. In one embodiment, the decoding block 130 may include a deconvolution layer. The deconvolution layer is configured to perform deconvolution processing and activation processing. The deconvolution layer may be configured to perform, for example, deconvolution and ReLU activation operations on each 2D sequence image.

일 실시예에서, 상기 디코딩 블록(130)은 디컨볼루션 연산과 더불어 결합(concatenate) 연산, 및 컨볼루션 연산을 수행하도록 더 구성될 수도 있다. In one embodiment, the decoding block 130 may be further configured to perform a convolution operation and a convolution operation in addition to a deconvolution operation.

상기 디코딩 블록(130)은 자신의 디컨볼루션 연산 결과 및 해당 인코딩 블록(110)의 컨볼루션 연산 결과를 결합할 수도 있다. 해당 인코딩 블록(110)의 컨볼루션 연산 결과는 제2 연결 경로를 통해 획득된다. The decoding block 130 may combine its own deconvolution operation result and the corresponding encoding block 110's convolution operation result. The result of the convolution operation of the corresponding encoding block 110 is obtained through the second connection path.

상기 디코딩 블록(130)은 컨볼루션 연산을 수행하여 입력 데이터의 채널을 감소시키도록 구성된다. 예를 들어, 디코딩 블록(130)은 컨볼루션 연산을 통해 입력 데이터의 채널을 128로부터 64로 감소시킬 수도 있다. The decoding block 130 is configured to reduce a channel of input data by performing a convolution operation. For example, the decoding block 130 may reduce the number of channels of input data from 128 to 64 through a convolution operation.

일부 실시예들에서, 상기 디코딩 블록(130)은 대응하는 인코딩 블록(110)의 컨볼루션 레이어와 동일한 사이즈의 필터를 가질 수도 있다. 감소된 채널은 동일한 계층 레벨에서 풀링 연산을 통해 증가된 채널 수에 대응한다. 도 3에서 인코딩 블록(110C)에서 증가한 채널의 수(예컨대, 128->256)만큼 디코딩 블록(130C)에서 채널의 수(예컨대, 256->128)가 감소할 수도 있다. In some embodiments, the decoding block 130 may have a filter having the same size as that of the convolution layer of the corresponding encoding block 110 . The reduced channel corresponds to the increased number of channels through a pooling operation at the same hierarchical level. In FIG. 3 , the number of channels (eg, 256 -> 128) in the decoding block 130C may decrease by the increased number of channels (eg, 128 -> 256) in the encoding block 110C.

상기 디코딩 블록(130)은 자신의 디컨볼루션 연산 결과와 해당 인코딩 블록(110)의 컨볼루션 연산 결과의 결합 결과를 컨볼루션 연산 처리할 수도 있다. 그러면, 상기 디코딩 블록(130)은 결합된 결과(즉, 이전 계층 레벨의 디컨볼루션 결과 및 동일한 계층 레벨의 인코딩 블록11의 연산 결과의 결합 데이터)의 채널을 감소시킬 수도 있다. The decoding block 130 may perform a convolution operation on a combination result of its own deconvolution operation result and the corresponding encoding block 110's convolution operation result. Then, the decoding block 130 may reduce the channel of the combined result (ie, combined data of the deconvolution result of the previous hierarchical level and the operation result of the encoding block 11 of the same hierarchical level).

계층 레벨별로 디코딩 블록(130)에서 이러한 디컨볼루션 연산, 결합 연산 및 컨볼루션 연산이 계속 수행되면, 복수의 디코딩 블록(130)은 복수의 인코딩 블록130에서 추출된 공간 특징, 그리고 서브 네트워크(120)에서 산출된 절편 사이 연결성에 기초하여 혈관 영역을 점차적으로 복원한다. 최종적으로, 복수의 디코딩 블록(130)은 복수의 인코딩 블록(110)에서 다운-샘플링된 영상의 해상도를 복원한다. 가장 높은 계층 레벨의 디코딩 블록(130)에서 복원된 영상은 대응한 인코딩 블록(110)에 입력되는, 초기 입력 영상의 해상도(또는 사이즈)를 가진다. If the deconvolution operation, the combination operation, and the convolution operation are continuously performed in the decoding block 130 for each layer level, the plurality of decoding blocks 130 obtains the spatial features extracted from the plurality of encoding blocks 130 and the subnetwork 120. ), the blood vessel area is gradually restored based on the connectivity between the slices calculated in . Finally, the plurality of decoding blocks 130 restores the resolution of the image down-sampled by the plurality of encoding blocks 110 . The image reconstructed in the decoding block 130 of the highest hierarchical level has the resolution (or size) of the initial input image input to the corresponding encoding block 110.

복수의 2차원 절편 영상이 분할부(100)에 순차적으로 입력될 경우, 분할특징 블록(140)은 각각의 2차원 절편 영상의 공긴 특징 및 절편 사이 연결성에 기초한 혈관 특징을 추출한다. When a plurality of 2D slice images are sequentially input to the segmentation unit 100, the segmentation feature block 140 extracts a common feature of each 2D slice image and a blood vessel feature based on connectivity between slices.

일 실시예에서, 분할특징 블록(140)은 복수의 디코딩 블록(130)을 모두 거쳐 획득되는, 가장 높은 계층의 디코딩 블록(130)의 연산 결과에서 혈관영역을 예측하기 위한 특징(즉, 혈관 특징)을 추출한다. 상기 가장 높은 계층의 디코딩 블록(130)의 연산 결과는 복원된 영상에 대응한다. 상기 분할특징 블록(140) 에 입력되는 가장 높은 계층의 디코딩 블록(130)의 연산 결과에 따라 복원된 영상은 각각의 2차원 절편 영상의 공간 특징 및 2차원 절편 영상 간의 맥락으로 포착된, 절편 사이 연결성이 반영된 영상이다. 이로 인해(hence), 분할특징 블록(140)이 상기 가장 높은 계층의 디코딩 블록(130)에서 혈관 특징을 추출하는 것은 복원된 영상에서 혈관 특징을 추출하는 것으로 취급될 수도 있다. 상기 분할특징 블록(140)이 혈관영역을 예측하기 위한 영상 특징을 추출하면, 추출된 영상 특징에는 이러한 개별 절편 영상의 공간 특징 및 절편 사이 연결성이 추출된다. In one embodiment, the segmentation feature block 140 is a feature for predicting a blood vessel area (ie, a blood vessel feature) from an operation result of the decoding block 130 of the highest layer obtained through all of the plurality of decoding blocks 130. ) is extracted. An operation result of the decoding block 130 of the highest layer corresponds to a reconstructed image. The image reconstructed according to the operation result of the decoding block 130 of the highest layer input to the segmentation feature block 140 is inter-segment captured as a spatial feature of each 2D segment image and a context between the 2D segment image. It is a video that reflects connectivity. For this reason, extraction of blood vessel features from the decoding block 130 of the highest layer by the split feature block 140 may be treated as extraction of blood vessel features from the reconstructed image. When the segmentation feature block 140 extracts image features for predicting blood vessel regions, spatial features of individual slice images and connectivity between slices are extracted from the extracted image features.

일 실시예에서, 상기 분할특징 블록(140)은 컨볼루션 레이어를 포함할 수도 있다. 분할특징 블록(140)은 컨볼루션 레이어에 의해 복원된 영상에서 혈관 특징을 추출할 수도 있다. 상기 분할특징 블록(140)의 컨볼루션 레이어는 인코딩 블록(110)의 컨볼루션 레이어와 원리가 유사하므로, 자세한 설명은 생략한다. In one embodiment, the segmentation feature block 140 may include a convolutional layer. The segmented feature block 140 may extract blood vessel features from an image reconstructed by the convolution layer. Since the principle of the convolution layer of the segmentation feature block 140 is similar to that of the encoding block 110, a detailed description thereof will be omitted.

상기 분할 블록(150)은 분할특징 블록(140)에서 산출되는 혈관 특징을 최종 특징으로 사용하여 혈관영역을 분할할 수도 있다. The division block 150 may divide the blood vessel region by using the blood vessel characteristics calculated in the division feature block 140 as final features.

일 실시예에서, 상기 분할 블록(150)은 확률 레이어를 포함할 수도 있다. 상기 분할 블록(150)은 확률 레이어에 의해 혈관 특징에 기초하여 상기 복원된 영상에 대응한 입력영상에서 혈관영역일 가능성을 나타낸 혈관확률 값을 산출하며, 그리고 산출된 혈관확률 값에 기초하여 상기 복원된 영상에 대응한 입력영상에서 혈관영역을 검출할 수도 있다. In one embodiment, the partitioning block 150 may include a stochastic layer. The segmentation block 150 calculates a blood vessel probability value representing a possibility of being a blood vessel region in the input image corresponding to the reconstructed image based on the blood vessel feature by a probability layer, and the restoration is performed based on the calculated blood vessel probability value. A blood vessel region may be detected from an input image corresponding to the processed image.

상기 확률 레이어는 혈관확률 맵을 생성할 수도 있다. 상기 혈관확률 맵은 각 픽셀에서 산출된 혈관확률 값에 기초하여 각 픽셀이 혈관영역일 확률 값으로 이루어진다. 상기 확률 값에 기초하여 혈관영역이 결정될 수도 있다. The probability layer may generate a blood vessel probability map. The blood vessel probability map includes a probability value that each pixel is a blood vessel region based on the blood vessel probability value calculated for each pixel. A blood vessel area may be determined based on the probability value.

상기 확률 레이어는 시그모이어 함수를 사용할 수도 있으나, 이에 제한되지 않으며 다른 확률 함수를 사용할 수도 있다. 이러한 혈관확률 맵에 기초하여 입력영상별 혈관영역의 위치가 결정된다. The probability layer may use a sigmoier function, but is not limited thereto and may use other probability functions. Based on the blood vessel probability map, the location of the blood vessel region for each input image is determined.

또한, 상기 혈관확률 맵에 분할 마스크를 생성할 수도 있다. 상기 분할 마스크의 영상은 입력영상에서 혈관 영역을 필터링한 구조에 대응한다. In addition, a segmentation mask may be generated in the blood vessel probability map. The segmentation mask image corresponds to a structure obtained by filtering a blood vessel region in an input image.

혈관확률 맵의 확률 값이 미리 설정된 임계 확률 보다 큰 픽셀로 이루어진 분할 마스크를 생성할 수도 있다. 예를 들어, 임계 확률이 0.5일 경우, 확률 맵 중에서 0.5 보다 큰 확률 값을 가진 픽셀로 이루이진 분할 마스크가 생성될 수도 있다. 상기 분할 마스크는 각 픽셀별로 산출된 혈관확률 값을 통해 혈관영역의 위치와 연관될 수도 있다. A segmentation mask composed of pixels having a probability value of the blood vessel probability map greater than a preset threshold probability may be generated. For example, when the threshold probability is 0.5, a segmentation mask composed of pixels having a probability value greater than 0.5 may be generated from the probability map. The segmentation mask may be associated with the position of the blood vessel region through the blood vessel probability value calculated for each pixel.

상기 분할부(100)로 이루어진 백본 데이터 처리 경로 상에서 중간에 또는 최종적으로 산출되In the middle or finally calculated on the backbone data processing path made of the division unit 100

특정 실시예들에서, 상기 분할부(100)의 서브 네트워크(120)의 연산 결과는 상기 제1 검출부(310)로 전파된다. 상기 제1 보조 데이터 처리 경로는 백본 데이터 처리 경로의 중간, 서브 네트워크(120)의 씨실 경로로부터 분기된다(branches). In certain embodiments, an operation result of the subnetwork 120 of the division unit 100 is propagated to the first detection unit 310 . The first auxiliary data processing path branches from the middle of the backbone data processing path, the weft path of the subnetwork 120 .

상기 분할부(100)의 분할특징 블록(140)의 연산 결과는 제2 검출부(330)로 전파된다. 예를 들어, 상기 분할 블록140의 컨볼루션 레이어의 연산 결과가 제2 검출부(330)로 전파된다. 상기 제2 보조 데이터 처리 경로는 백본 데이터 처리 경로의 최종 블록으로부터 분기된다(branches). The calculation result of the division feature block 140 of the division unit 100 is propagated to the second detection unit 330 . For example, the operation result of the convolution layer of the division block 140 is propagated to the second detector 330 . The second auxiliary data processing path branches from the final block of the backbone data processing path.

질환 검출 모델(20)은 동일한 입력영상에 대해서, 전역적 측면에서 병변영역을 검출하고 지역적 측면에서 병변영역을 검출할 수도 있다. The disease detection model 20 may detect a lesion area in a global aspect and a lesion area in a regional aspect for the same input image.

제1 검출부(310)은 입력영상을 전역적 측면에서 병변영역을 예측하기 위한 특징(이하, 전역적 특징)을 추출하여 상기 병변영역을 검출한다. The first detection unit 310 detects the lesion area by extracting features for predicting the lesion area (hereinafter referred to as global features) from the global aspect of the input image.

상기 제1 검출부(310)는 제1 추출 블록(311); 제1 스코어 블록(315)을 포함한다. The first detection unit 310 includes a first extraction block 311; A first score block 315 is included.

상기 제1 추출 블록(311)은 전역적 특징을 산출하도록 구성된다. 상기 제1 추출 블록(311)은 서브 네트워크(120)의 연산 결과로부터 컨볼루션 연산을 통해 전역적 특징을 산출할 수도 있다. 상기 전역적 특징은 모델(20)의 입력영상에서 병변을 전역적 측면에서 예측하기 위한 영상 특징에 대응한다. The first extraction block 311 is configured to calculate global features. The first extraction block 311 may calculate a global feature through a convolution operation from an operation result of the subnetwork 120 . The global feature corresponds to an image feature for predicting a lesion in the input image of the model 20 in a global aspect.

일 실시예에서, 상기 제1 추출 블록(311)은 2개의 컨볼루션 레이어를 포함할 수도 있다. 상기 제1 추출 블록(311)은 입력 데이터를 상기 2개의 컨볼루션 레이어를 통해 연산할 수도 있다. In one embodiment, the first extraction block 311 may include two convolutional layers. The first extraction block 311 may operate input data through the two convolution layers.

또한, 상기 제1 추출 블록(311)은, 상기 제1 검출부(310)가 전역적 측면에서 병변을 검출하기 위해 전역적 풀링 연산을 수행하도록 구성될 수도 있다. 예를 들어, 상기 제1 추출 블록(311)은 전역적 평균 풀링 연산을 수행하도록 구성될 수도 있다. Also, the first extraction block 311 may be configured to perform a global pooling operation so that the first detection unit 310 detects a lesion in a global aspect. For example, the first extraction block 311 may be configured to perform a global average pooling operation.

상기 제1 추출 블록(311)에서 컨볼루션 연산을 통해 산출된 영상 특징이 전역 평균 풀링 연산 처리됨으로써, 최종적인 전역적 특징이 산출될 수도 있다. Final global features may be calculated by performing a global average pooling operation on the image features calculated through the convolution operation in the first extraction block 311 .

상기 제1 스코어 블록(315)은 제1 추출 블록(311)의 연산 결과를 입력 받아 입력영상에서 병변영역이 전역적 측면에서 예측한 가능성을 나타낸 전역적 점수를 산출하도록 구성된다. 상기 전역적 점수는 전역적 측면에서 입력영상 내 병변영역이 검출될 가능성을 수치화한 것이다. The first score block 315 receives the operation result of the first extraction block 311 and calculates a global score representing the predicted probability of the lesion area in the global aspect in the input image. The global score quantifies the possibility of detecting a lesion area in an input image in a global aspect.

일 실시예에서, 상기 제1 스코어 블록(315)은 완전 연결 레이어 및 확률 레이어를 포함할 수도 있다. In one embodiment, the first score block 315 may include a fully connected layer and a probability layer.

완전 연결 레이어는 복수의 노드가 서로 완전 연결된 것으로서, 완전 연결 레이어는 상기 제1 추출 블록(311)의 산출 데이터를 입력 데이터로서 입력 받아 각 노드별로 할당된 파라미터에 기초한 연산을 수행할 수도 있다. 상기 파라미터들은 예를 들어 가중치 및/또는 바이어스(bias)를 포함한다. In the fully connected layer, a plurality of nodes are completely connected to each other, and the fully connected layer may receive the calculation data of the first extraction block 311 as input data and perform an operation based on a parameter assigned to each node. Said parameters include, for example, weights and/or biases.

일 예에서, 상기 완전 연결 레이어는 샘플을 통해 학습된 혈관관련 질환(예컨대, 협착 및 폐쇄성 병변)을 예측하기 위해 상기 제1 추출 블록(311)의 연산 결과에 대해 행렬 곱셈 연산을 수행할 수도 있다.In one example, the fully connected layer may perform a matrix multiplication operation on the operation result of the first extraction block 311 in order to predict vascular-related diseases (eg, stenotic and occlusive lesions) learned through samples. .

그러면, 완전 연결 레이어에 의해 상기 전역적 특징에 기초하여 입력영상이 병변영역을 갖는지 분류하기 위한 분석 값을 산출한다. Then, an analysis value for classifying whether the input image has a lesion area is calculated based on the global feature by the fully connected layer.

상기 확률 레이어는 확률 함수를 사용하여 완전 연결 레이어의 연산 결과에 기초하여 상기 입력영상에서 병변영역이 예측되는 제1 병변 확률 값을 산출할 수도 있다. 상기 제1 병변 확률 값은 전역적 특징에 기초한 병변 예측 확률 값이다. 상기 확률 함수는 시그모이어 함수일 수도 있으나, 이에 제한되진 않는다. The probability layer may calculate a first lesion probability value by which a lesion area is predicted in the input image based on an operation result of the fully connected layer using a probability function. The first lesion probability value is a lesion prediction probability value based on global features. The probability function may be a sigmoir function, but is not limited thereto.

그러면, 상기 제1 스코어 블록(315)은 제1 병변 확률 값 자체 또는 이를 지정된 스케일 범위로 변환한 값을 전역적 점수의 값으로 산출할 수도 있다. Then, the first score block 315 may calculate the first lesion probability value itself or a value obtained by converting it into a designated scale range as a global score value.

일 예시에서, 시그모이드 함수를 사용하여 제1 병변 확률 값이 전역적 점수의 값으로 산출될 경우, 상기 전역적 점수는 다음의 수학식으로 표현될 수도 있다.In one example, when the first lesion probability value is calculated as a value of a global score using a sigmoid function, the global score may be expressed by the following equation.

Xt 는 2차원 절편 영상이고, t는 시퀀스 영상 순번이고, T는 시퀀스 영상의 총 수이다. H, W, C는 시퀀스 영상의 높이, 너비 및 채널을 각각 나타낸다. F는 전역적으로 병변영역을 예측하기 위해 Xt 를 변환하는 함수로서, 백본 데이터 처리 경로의 씨실 경로 상의 연산, 그리고 제1 추출 블록(311) 및 제1 스코어 블록의 완전 연결 레이어를 통한 연산에 따른 결과일 수도 있다. 상기 제1 스코어 블록(315)은 시그모이드 함수 σ 를 통해 0 내지 1의 전역적 점수를 산출할 수도 있다. 병변 예측 가능성이 높아질수록 상기 전역적 점수는 1에 가까워진다. X t is a 2D slice image, t is the sequence number of sequence images, and T is the total number of sequence images. H, W, and C represent the height, width, and channel of the sequence image, respectively. F is a function that transforms X t to globally predict the lesion area, and is applied to operations on the weft path of the backbone data processing path and through fully connected layers of the first extraction block 311 and the first score block. It may be the result of The first score block 315 may calculate a global score of 0 to 1 through a sigmoid function σ. The higher the predictability of the lesion, the closer the global score is to 1.

제2 검출부(330)는 지역적 측면에서 입력영상으로부터 병변을 검출하도록 구성된다. 상기 제2 검출부(330)는 국소화 맵을 산출하여 지역적으로 협착성 병변과 같은 혈관관련 질환의 병변영역을 검출할 수도 있다. The second detection unit 330 is configured to detect a lesion from an input image in a local aspect. The second detection unit 330 may calculate a localization map and locally detect a lesion area of a vascular-related disease such as a stenotic lesion.

상기 제2 검출부(330)는 제2 추출 블록(331) 및 제2 스코어 블록(335)을 포함한다. The second detection unit 330 includes a second extraction block 331 and a second score block 335 .

상기 제2 추출 블록(331)은 입력영상에서 지역적 병변을 예측하기 위한 지역적 특징을 산출하도록 구성된다. The second extraction block 331 is configured to calculate regional features for predicting regional lesions in the input image.

상기 제2 추출 블록(331)은 컨볼루션 연산을 수행할 수도 있다. 예를 들어, 상기 제2 추출 블록(331)은 컨볼루션 연산, 배치 정규화, ReLU 활성화, 및 컨볼루션 연산을 순차적으로 수행하도록 구성될 수도 있다. The second extraction block 331 may perform a convolution operation. For example, the second extraction block 331 may be configured to sequentially perform a convolution operation, batch normalization, ReLU activation, and a convolution operation.

상기 제2 추출 블록(331)의 연산 결과가 지역적 특징으로 추출된다. The operation result of the second extraction block 331 is extracted as a regional feature.

상기 제2 보조 데이터 처리 경로에서 풀링 연산이 처리된다. 상기 제2 검출부(330)는 제2 추출 블록(331)의 연산 결과를 풀링 연산 처리할 수도 있다. A pooling operation is processed in the second auxiliary data processing path. The second detection unit 330 may perform a pooling operation on the operation result of the second extraction block 331 .

상기 제2 검출부(330)는 풀링 연산 처리하기 이전에, 복원된 영상을 복수의 지역으로 국소화할 수도 있다. 상기 지역은 입력영상의 사이즈를 축소한 면적으로 이루어진다. 각 지역 단위로 지역적 측면에서의 병변 검출 동작이 수행된다. The second detector 330 may localize the reconstructed image to a plurality of regions before processing the pooling operation. The area is formed by reducing the size of the input image. A lesion detection operation in the regional aspect is performed on a regional basis.

일 실시예에서, 제2 검출부(330)는 256*256 픽셀을 갖는 입력영상에 대해서, 사이즈를 16배 축소하여 국소화하도록 구성될 수도 있다. 그러면, 256*256 픽셀로 복원된 영상의 전체 사이즈가 16*16인 256개의 지역으로 구획할 수도 있다. 이러한 지역 사이즈에 대해서는 아래의 도 9를 참조해 보다 상세히 서술한다. In one embodiment, the second detection unit 330 may be configured to localize an input image having 256*256 pixels by reducing the size by 16 times. Then, an image reconstructed with 256*256 pixels may be partitioned into 256 regions having a total size of 16*16. This area size will be described in more detail with reference to FIG. 9 below.

상기 제2 검출부(330)는 구획된 지역 각각에 대해서, 지역적 풀링 연산 처리를 수행하도록 구성된다. 예를 들어, 상기 제2 검출부(330)는 지역적 평균 풀링(region average pooling) 연산을 256개의 지역에 대해 수행하도록 구성될 수도 있다. 제2 검출부(330)에서는 제1 검출부(310)의 전역적 평균 풀링과 달리 2차원 절편 영상을 지역별로 나누어 풀링 연산을 수행한다. The second detection unit 330 is configured to perform a regional pooling operation process on each of the partitioned regions. For example, the second detector 330 may be configured to perform a region average pooling operation on 256 regions. Unlike the global average pooling performed by the first detector 310, the second detector 330 divides the 2D slice image by region and performs a pooling operation.

상기 제2 추출 블록(331)에서 컨볼루션 연산을 통해 산출된 영상 특징이 전역 평균 풀링 연산 처리됨으로써, 최종적인 지역적 특징이 산출될 수도 있다. 이러한 풀링 연산 결과(즉, 최종적인 지역적 특징)가 제2 스코어 블록(335)으로 공급된다. The image feature calculated through the convolution operation in the second extraction block 331 is subjected to a global average pooling operation, so that a final regional feature may be calculated. The result of this pooling operation (i.e., the final regional feature) is fed into the second score block 335.

상기 제2 스코어 블록(335)은 상기 풀링 연산에 따른 지역적 특징을 입력 받아 입력영상에서 병변영역이 지역적 측면에서 예측한 가능성을 나타낸 지역적 점수를 산출하도록 구성된다. 지역적 점수는 지역적 측면에서 입력영상 내 병변영역이 검출될 가능성을 수치화한 점수이다. The second score block 335 receives the regional features according to the pooling operation and calculates a regional score representing a predicted probability of a lesion region in the input image in terms of the region. The regional score is a score that quantifies the possibility of detecting a lesion area in an input image in a regional aspect.

일 실시예에서, 상기 제2 스코어 블록(335)은 확률 레이어를 포함할 수도 있다. In one embodiment, the second score block 335 may include a probability layer.

상기 확률 레이어는 확률 함수를 사용하여 상기 풀링 연산에 따른 지역적 특징에 기초하여 상기 입력영상에서 병변영역이 예측되는 제2 병변 확률 값을 산출할 수도 있다. 상기 제2 병변 확률 값은 지역적 특징에 기초한 병변 예측 확률 값이다. 상기 확률 함수는 시그모이어 함수일 수도 있으나, 이에 제한되진 않는다. The probability layer may calculate a second lesion probability value by which a lesion area is predicted in the input image based on a regional feature according to the pooling operation using a probability function. The second lesion probability value is a lesion prediction probability value based on regional characteristics. The probability function may be a sigmoir function, but is not limited thereto.

그러면, 상기 제2 스코어 블록(335)은 제2 병변 확률 값 자체 또는 이를 지정된 스케일 범위로 변환한 값을 지역적 점수의 값으로 산출할 수도 있다. Then, the second score block 335 may calculate the second lesion probability value itself or a value obtained by converting it into a designated scale range as a regional score value.

일 실시예에서, 상기 제2 스코어 블록(335)은 확률 함수를 사용하여 모델(20)의 입력영상에서 국소적으로 병변영역을 예측하는 국소적 맵(localization map)을 산출할 수도 있다. 상기 국소적 맵은 지역의 픽셀별 병변영역일 확률 값으로 이루어진다. In one embodiment, the second score block 335 may calculate a localization map that locally predicts a lesion area in an input image of the model 20 using a probability function. The local map is composed of probability values of lesion areas for each pixel of the region.

일 예시에서, 상기 국소적 맵Zt은 다음의 수학식으로 표현될 수도 있다. In one example, the local map Zt may be expressed by the following equation.

여기서, H', W'는 입력영상Xt(예컨대, 2차원 절편 영상)에서 부분적으로 병변영역(예컨대, 협착성 병변)을 예측하기 위한 단위 높이와 단위 너비를 나타낸다. H'와 W'는 H와 W 보다 작거나 같은 값으로 설정되는 하이퍼 파라미터이다. 상기 일 실시예에 따라 H'와 W'는 각각 16으로 설정될 수도 있다. Here, H' and W' denote unit height and unit width for partially predicting a lesion area (eg, stenotic lesion) in the input image Xt (eg, 2D slice image). H' and W' are hyperparameters set to values less than or equal to H and W. According to the above embodiment, H' and W' may be set to 16, respectively.

전역적 평균 풀링으로 나눈 지역의 크기에 따라 H', W'의 값이 결정된다. G는 입력영상(예컨대, 2차원 절편 영상)에서 부분적으로 병변을 예측하기 위해 H', W'의 사이즈를 변환하는 함수로서, 지역적 풀링 연산에 대응한다. The values of H' and W' are determined according to the size of the region divided by global average pooling. G is a function of converting the sizes of H' and W' to partially predict a lesion in an input image (eg, a 2D slice image), and corresponds to a local pooling operation.

상기 일 실시예에서, Zt는 256(=16Х16) 개의 그리드 셀로 구성되며, 정사각형 모양의 국소화 점수로 표현된다. In the above embodiment, Z t consists of 256 (=16Х16) grid cells and is expressed as a square-shaped localization score.

Zt에서 (i, j) 번째 그리드 셀을 Ztij 로 지칭할 경우, Ztij는 그리드 셀별 국소화 점수이다. Ztij는 입력영상Xt의 256개의 지역 [iХ16 : (i+1)Х16, jХ16 : (j+1)Х16]에 대한, 지역별 병변의 예측 가능성을 나타낸다. When an (i, j) th grid cell in Z t is referred to as Z tij , Z tij is a localization score for each grid cell. Z tij represents the predictability of regional lesions for 256 regions of the input image X t [iХ16: (i+1)Х16, jХ16: (j+1)Х16].

상기 질환 검출 모델(20)은 제1 검출부(310)에서 산출된 전역적 점수 및 제2 검출부(330)에서 산출된 지역적 점수에 기초하여 상기 입력영상에서 검출 대상의 병변영역을 검출할 수도 있다. The disease detection model 20 may detect the lesion area of the detection target in the input image based on the global score calculated by the first detection unit 310 and the regional score calculated by the second detection unit 330.

일 실시예에서, 상기 질환 검출 모델(20)은 증폭 연산자(350)를 사용하여 지역적 점수 및 전역적 점수에 기초한 병변 점수를 산출할 수도 있다. In one embodiment, the disease detection model 20 may use the amplification operator 350 to calculate a lesion score based on a regional score and a global score.

상기 증폭 연산자(350)는 제1 검출부(310)의 검출 결과와 제2 검출부(330)의 검출 결과가 일치할 경우(예컨대, 모두 병변 검출 또는 모두 병변 부검출) 기존의 전역적 점수 또는 지역적 점수 보다 더 증폭된 값이 병변 점수로 산출되게 하는 연산자이다. The amplification operator 350 determines whether the detection result of the first detection unit 310 and the detection result of the second detection unit 330 match (eg, detection of all lesions or non-detection of all lesions). It is an operator that allows a more amplified value to be calculated as a lesion score.

일 실시예에서, 상기 증폭 연산자(350)는 곱셈 연산자일 수도 있다. 그러면, 입력영상의 지역적 점수와 전역적 점수를 곱하여 병변 점수를 산출함으로써, 병변영역을 최종적으로 결정할 수도 있다. 결정된 병변영역이 검출 대상의 병변영역으로 검출된다.In one embodiment, the amplification operator 350 may be a multiplication operator. Then, the lesion area may be finally determined by calculating the lesion score by multiplying the regional score and the global score of the input image. The determined lesion area is detected as a lesion area of a detection target.

그러나, 상기 증폭 연산자는 이에 제한되지 않으며, 가중치 곱셈 연산자 또는 기타 증폭 연산자를 포함할 수도 있다. However, the amplification operator is not limited thereto, and may include a weight multiplication operator or other amplification operators.

일 예시에서, 곱셈 연산자(350)를 사용하면 질환 검출 모델(20)은 다음의 병변 맵 Dt 를 산출할 수도 있다.In one example, using multiplicative operator 350, disease detection model 20 may calculate the following lesion map D t .

*는 Zt의 모든 요소를 Yt와 픽셀별로 곱하는 연산을 나타낸다. 국소화 맵과 유사하게, Dt는 256개의 병변 점수로 이루어진다. Dtij는 다음의 수학식으로 표현된다. * indicates an operation that multiplies all elements of Z t by Y t pixel by pixel. Similar to the localization map, D t consists of 256 lesion scores. D tij is expressed by the following equation.

상기 Dt 하에서, Xt로부터 예측된 Ztij의 지역은 Yt로부터 예측된 지역의 서브 세트이다. 병변 맵은 전역적 점수를 반영하면서 지역적으로 병변을 예측하는 것을 나타낸다. Under D t above, the area of Z tij predicted from X t is a subset of the area predicted from Y t . The lesion map represents predictive lesions locally while reflecting the global score.

상기 분석부(10)는 상기 병변 점수에 기초하여 병변영역을 결정한다. 예를 들어, 상기 분석부(10)는 미리 지정된 임계치와 병변 점수를 비교하여 상기 병변영역을 결정할 수도 있다. 상기 임계치는 통계적 또는 경험적으로 설정될 수도 있다. The analysis unit 10 determines a lesion area based on the lesion score. For example, the analysis unit 10 may determine the lesion area by comparing a predetermined threshold with a lesion score. The threshold may be set statistically or empirically.

도 5a 및 도 5b는, 본 출원의 일 실시예에 따른, 혈관영역 및 병변영역을 예측 결과를 도시한 도면이다.5A and 5B are diagrams illustrating prediction results of a blood vessel area and a lesion area according to an embodiment of the present application.

도 5a 및 도 5b를 참조하면, 검출 대상별로 혈관 영역 및 병변 영역이 실제 값에 매칭하는 높은 정확도로 예측될 수도 있다. Referring to FIGS. 5A and 5B , a blood vessel area and a lesion area for each detection target may be predicted with high accuracy matching actual values.

모델 파라미터의 학습Learning model parameters

상기 도 1의 질환 검출 모델(20)은 입력영상에서 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 혈관 특징을 산출하며; 상기 공간 특징, 절편 사이 연결성 및 혈관 특징 중 하나 이상에 기초하여 혈관관련 질환의 병변영역을 검출하도록 학습된다. 혈관관련 질환은 혈관이 정상혈관 대비 좁아지거나 막히는 것과 같이, 비-정상적인 혈관 형태를 가짐으로써 발현되는 질환이다. 상기 질환 검출 모델(20)은 이러한 혈관관련 질환의 병변영역을 검출함으로써, 상기 장치(1)는 검출 대상의 질환정보를 생성한다. 질환의 병변 영역이 검출되면 입력영상은 해당 질환을 가지는 것으로 취급된다. The disease detection model 20 of FIG. 1 extracts spatial features and connectivity between slices from an input image, and calculates blood vessel features based on the spatial features and connectivity between slices; It is learned to detect a lesion area of a vascular-related disease based on at least one of the spatial features, connectivity between slices, and blood vessel features. Vascular-related diseases are diseases that are expressed by having non-normal blood vessel shapes, such as blood vessels being narrowed or blocked compared to normal blood vessels. The disease detection model 20 detects the lesion area of such a vascular-related disease, so that the device 1 generates disease information of a detection target. If the lesion area of the disease is detected, the input image is treated as having the disease.

특정 실시예들에서, 상기 질환 검출 모델(20)은 다중-작업 학습(multi task learning)을 통해 특정 혈관 구조를 분할하기 위해 공간 특징, 절편 사이 연결성 및/또는 혈관 특징을 추출하는 동시에, 상기 특정 혈관 구조를 분할하기 위한 특징들(공간 특징, 절편 사이 연결성 및/또는 혈관 특징)에 기초하여 병변영역을 검출하는, 다중-작업을 수행하도록 트래이닝된다. 일부 실시예들에서, 상기 특정 혈관 구조는 두개내 동맥일 수도 있다. 상기 특정 혈관 구조와 관련된 병변은 두개내 동맥의 협착 또는 폐쇄성 병변일 수도 있다. In certain embodiments, the disease detection model 20 extracts spatial features, connectivity between segments and/or vascular features to segment a specific vascular structure through multi-task learning, while simultaneously extracting the specific vascular structure. It is trained to perform multi-tasking, detecting lesion areas based on features for segmenting vascular structures (spatial features, inter-segment connectivity and/or vascular features). In some embodiments, the particular vascular structure may be an intracranial artery. The lesion associated with the specific vascular structure may be a stenotic or occlusive lesion of the intracranial artery.

도 4는, 본 출원의 일 실시예에 따른, 질환 검출 모델의 학습 과정을 설명하는 도면이다. 4 is a diagram illustrating a learning process of a disease detection model according to an embodiment of the present application.

도 4를 참조하면, 상기 도 3의 질환 검출 모델(20)은 복수의 트래이닝 샘플로 이루어진 트래이닝 데이터 세트를 사용하여 학습된다. 질환 검출 모델(20)의 분할 가능한 혈관 구조의 범위, 검출 가능한 질환정보의 범위는 트래이닝 데이터 세트에 의존한다. 상기 복수의 트래이닝 샘플 각각은 트래이닝 영상, 제1 레이블 데이터, 및 제2 레이블 데이터를 포함한다. Referring to FIG. 4 , the disease detection model 20 of FIG. 3 is learned using a training data set composed of a plurality of training samples. The range of divisible vascular structures and the range of detectable disease information of the disease detection model 20 depend on the training data set. Each of the plurality of training samples includes a training image, first label data, and second label data.

상기 트래이닝 영상은 혈관을 촬영한 의료영상으로서, 검출 대상의 의료영상에 대응하는, 샘플 대상의 의료영상일 수도 있다. 상기 의료영상은 자기공명 혈관 조영술 영상일 수도 있으나, 이에 제한되진 않는다. 혈관과 비-혈관 영역이 구별되는 다양한 의료영상이 트래이닝 영상 및 입력영상으로 사용할 수도 있다. The training image is a medical image of a blood vessel, and may be a medical image of a sample target corresponding to a medical image of a detection target. The medical image may be a magnetic resonance angiography image, but is not limited thereto. Various medical images in which blood vessels and non-vascular regions are distinguished may be used as training images and input images.

특정 실시예들에서, 질환 검출 모델(20)은 3차원 체적을 표현한 복수의 2차원 절편 영상을 입력영상의 세트로 입력 받도록 학습될 수도 있다. 상기 3차원 체적이 3차원 혈관을 포함할 경우, 각 2차원 절편 영상은 3차원 혈관의 평면을 포함할 수도 있다. In certain embodiments, the disease detection model 20 may be trained to receive a plurality of 2D slice images representing a 3D volume as a set of input images. When the 3D volume includes a 3D blood vessel, each 2D slice image may include a plane of the 3D blood vessel.

이 경우, 각 트래이닝 샘플의 트래이닝 영상은 복수의 2차원 절편 영상일 수도 있다. 그러면, 트래이닝 데이터 세트의 트래이닝 영상 전체는 트래이닝 샘플별 복수의 2차원 절편 영상으로 서브 세트화될 수도 있다. 상기 일부 실시예들에서, 상기 복수의 2차원 절편 영상은 두개내 동맥을 촬영산 신체 부분의 절편 영상일 수도 있다. In this case, the training image of each training sample may be a plurality of 2D segment images. Then, all training images of the training data set may be subsetted into a plurality of 2D segment images for each training sample. In some of the above embodiments, the plurality of 2D slice images may be slice images of a body part obtained by imaging an intracranial artery.

상기 제1 레이블 데이터는 트래이닝 영상에서 혈관 영역을 나타낸 데이터이다. 도 4에 도시된 것처럼, 상기 제1 레이블 데이터는 트래이닝 영상의 픽셀이 혈관인지 아닌지를 나타낼 수도 있다. 상기 일부 실시예들에서, 상기 제1 레이블 데이터는 트래이닝 영상에서 두개내 동맥을 나타낸 데이터일 수도 있다. The first label data is data representing a blood vessel region in a training image. As shown in FIG. 4 , the first label data may indicate whether a pixel of a training image is a blood vessel or not. In some of the above embodiments, the first label data may be data representing an intracranial artery in a training image.

상기 제2 레이블 데이터는 트래이닝 영상에서 병변 영역을 나타낸 데이터이다. 도 4에 도시된 것처럼, 상기 제2 레이블 데이터는 트래이닝 영상의 픽셀이 관련된 병변인지 아닌지를 나타낼 수도 있다. 상기 일부 실시예들에서, 상기 제2 레이블 데이터는 상기 특정 혈관 구조와 관련된 병변으로서 두개내 동맥의 협착 또는 폐쇄성 병변을 나타낼 수도 있다. The second label data is data representing a lesion area in a training image. As shown in FIG. 4 , the second label data may indicate whether a pixel of a training image is a related lesion or not. In some of the above embodiments, the second label data may indicate a stenotic or occlusive lesion of an intracranial artery as a lesion related to the specific vascular structure.

상기 질환 검출 모델(20)은 샘플 내 복수의 2차원 절편 영상을 순차적으로 입력 받아 학습을 진행한다. 이러한 학습은 트래이닝 데이터 세트의 전체 훈련 샘플의 복수의 2차원 절편 영상의 서브 세트가 입력될 때까지 계속된다. 이 과정에서 상기 분할부(100)의 파라미터가 학습된다. 또한, 상기 제1 병변 네트워크310 및 제2 병변 네트워크330의 파라미터도 상기 분할부(100)의 파라미터가 학습되는 과정에 동시에 학습된다. The disease detection model 20 sequentially receives a plurality of 2D slice images within a sample and proceeds with learning. This learning continues until subsets of a plurality of 2D slice images of all training samples of the training data set are input. In this process, parameters of the dividing unit 100 are learned. In addition, the parameters of the first lesion network 310 and the second lesion network 330 are learned at the same time as the parameters of the dividing unit 100 are learned.

일 실시예에서, 상기 질환 검출 모델(20)은, 분할부(100)에 의한 연산에 따른 혈관 예측 값과 혈관 실제 값 간의 제1 오차; 제1 검출부(310)에 의한 연산 결과 및 제2 검출부(330)에 의한 연산 결과에 기초한 질환 검출 모델(20)의 병변 예측 값과 병변 실제 값 간의 제2 오차;가 최소화되도록 학습된다. 상기 혈관 예측 값은 학습 과정에서 분할부(100)에 의해 추출된 혈관 영역일 수도 있다. 상기 혈관 실제 값은 제1 레이블 데이터일 수도 있다. 상기 병변 예측 값은 학습 과정에서 제1 검출부(310)의 연산 결과(즉, 전역적 측면에서 예측된 병변영역) 및 제2 검출부(330)의 연산 결과(즉, 예측된 병변영역)에 기초한 최종 예측된 병변영역일 수도 있다. 상기 병변 실제 값은 제2 레이블 데이터일 수도 있다. In one embodiment, the disease detection model 20 may include a first error between a blood vessel prediction value and an actual blood vessel value according to calculation by the dividing unit 100; The second error between the predicted value of the lesion and the actual value of the lesion of the disease detection model 20 based on the calculation result by the first detection unit 310 and the calculation result by the second detection unit 330 is learned to be minimized. The blood vessel prediction value may be a blood vessel region extracted by the division unit 100 in a learning process. The blood vessel actual value may be first label data. The lesion prediction value is final based on the calculation result of the first detection unit 310 (ie, the predicted lesion area in the global aspect) and the calculation result of the second detection unit 330 (ie, the predicted lesion area) in the learning process. It may also be a predicted lesion area. The actual value of the lesion may be second label data.

다른 일 실시예에서, 상기 질환 검출 모델(20)은 분할부(100)의 예측 값과 실제 값 간의 차이, 제1 검출부(310)의 예측 값과 실제 값 간의 차이, 및 제2 검출부(330)의 예측 값과 실제 값 간의 차이가 최소화되도록 학습될 수도 있다. 상기 제1 검출부(310), 제2 검출부(330)의 실제 값은 동일한 제2 레이블 데이터일 수도 있다. In another embodiment, the disease detection model 20 is a difference between the predicted value and the actual value of the division unit 100, the difference between the predicted value and the actual value of the first detection unit 310, and the second detection unit 330 It may be learned to minimize the difference between the predicted value and the actual value of . Actual values of the first detection unit 310 and the second detection unit 330 may be the same second label data.

일 예시에서, 상기 질환 검출 모델(20)은 복수의 2차원 절편 영상의 길이 T, 절편 영상 간의 간격 S (T<S)이 설정될 경우, 상기 질환 검출 모델(20)은 다음의 손실 함수를 최소화하도록 학습될 수도 있다.In one example, when the length T of a plurality of 2D slice images and the interval S between slice images (T<S) are set, the disease detection model 20 calculates the following loss function It can also be learned to minimize.

여기서, Lseg, Lcls, Lloc는 분할부(100)의 예측, 제1 검출부(310)의 예측 동작 및 제2 검출부(330)의 예측에 대한 손실 함수이다. Wseg, Wcls, Wloc는 각 동작의 손실에 해당하는 가중치이다. Here, L seg , L cls , and L loc are loss functions for the prediction of the divider 100 , the prediction operation of the first detector 310 , and the prediction of the second detector 330 . W seg , W cls , and W loc are weights corresponding to the loss of each operation.

수학식 5의 손실 함수가 최소화되는 파라미터를 갖도록 질환 검출 모델10이 학습된다. The disease detection model 10 is trained to have parameters that minimize the loss function of Equation 5.

이와 같이 학습된 질환 검출 모델(20)을 사용하면 혈관을 보다 정확하게 분할 가능하다. 상기 질환 검출 모델(20)은 혈관을 분할할 때 혈관의 포괄적인 해부학적 구조를 보존 가능하기 때문이다. If the disease detection model 20 learned in this way is used, blood vessels can be more accurately segmented. This is because the disease detection model 20 can preserve the comprehensive anatomical structure of blood vessels when blood vessels are divided.

동시에, 상기 질환 검출 모델(20)은 협착성 병변 또는 폐쇄성 병변과 같은 혈관관련 질환의 병변 위치를 정확히 포착할 수 있다. 자기공명 혈관 조영술 영상과 같은 의료영상에서 절제된 부분으로 표현되는, 혈관의 좁아진 부분이나 완전히 가려진 부분(즉, 병변 위치)을 분할된 혈관 구조를 기반으로 정확하게 유추할 수 있기 때문이다. At the same time, the disease detection model 20 can accurately capture the location of a lesion of a vascular-related disease such as a stenotic lesion or an occlusive lesion. This is because the narrowed or completely obscured portion of a blood vessel (i.e., the location of a lesion) represented as an ablated portion in a medical image such as a magnetic resonance angiography image can be accurately inferred based on the divided blood vessel structure.

질환 정보 검출disease information detection

본 출원의 다른 일 측면에 따른 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법은 프로세서를 포함한 컴퓨팅 장치에 의해 수행될 수도 있다. 특정 실시예들에서, 상기 방법은 도 1의 장치(1)에 의해 수행될 수도 있다. A method of detecting a lesion of a disease related to a body component that delivers blood from a medical image according to another aspect of the present application may be performed by a computing device including a processor. In certain embodiments, the method may be performed by device 1 of FIG. 1 .

도 6은, 본 출원의 다른 일 측면에 따른, 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법의 흐름도이다. 6 is a flowchart of a method of detecting a disease lesion related to a body component that delivers blood from a medical image according to another aspect of the present application.

도 6을 참조하면, 상기 방법은: 미리 학습된 질환 검출 모델(20)을 사용하여 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 혈관 특징을 산출하는 단계(S100)를 포함한다. Referring to FIG. 6 , the method: extracts spatial features and connectivity between segments from a medical image of a target to be detected using a pre-learned disease detection model 20, and obtains blood vessel characteristics based on the connectivity between the spatial features and segments. A step of calculating (S100) is included.

또한, 상기 방법은: 상기 단계(S100)에서 추출된 혈관 특징에 기초하여 입력된 의료영상에서 혈관영역을 분할하는 단계(S150), 및/또는 상기 공간 특징, 절편사이 연결성 및 혈관 특징 중 하나 이상에 기초하여 혈관관련 질환의 병변영역을 검출하는 단계(S300)를 포함할 수도 있다. In addition, the method includes: segmenting a blood vessel region in the input medical image based on the blood vessel feature extracted in the step (S100) (S150), and/or at least one of the spatial feature, the connectivity between slices, and the blood vessel feature. It may also include a step of detecting a lesion area of a blood vessel-related disease based on (S300).

전술한 바와 같이, 상기 의료영상은 3차원 체적을 이루는 복수의 2차원 절편 영상일 수도 있다. 상기 3차원 체적은 검출 대상의 신체 구성요소를 촬영한 3차원 체적이다. 일부 실시예들에서, 상기 의료영상은 두개내 동맥을 촬영한 복수의 2차원 절편 영상일 수도 있다. 상기 의료영상은 자기공명 혈관 조영술에 의해 촬영된 영상일 수도 있다. As described above, the medical image may be a plurality of 2D slice images forming a 3D volume. The 3-dimensional volume is a 3-dimensional volume in which a body component of a detection target is photographed. In some embodiments, the medical image may be a plurality of 2D slice images of intracranial arteries. The medical image may be an image captured by magnetic resonance angiography.

전술한 바와 같이, 상기 질환 검출 모델(20)은 검출 대상의 의료영상에 대응한 트래이닝 영상을 포함한 트래이닝 데이터 세트를 사용하여 특정 혈관 구조를 분할하고, 분할된 혈관과 관련된 질환의 병변을 검출하도록 미리 학습된 기계학습 모델로서, 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 혈관 특징을 산출하도록 학습된 상태이다. As described above, the disease detection model 20 uses a training data set including a training image corresponding to a medical image of a detection target to segment a specific vascular structure and to detect disease lesions related to the divided blood vessels in advance. As a learned machine learning model, it is in a state learned to extract spatial features and connectivity between segments from a medical image of a detection target, and to calculate blood vessel characteristics based on the connectivity between the spatial features and segments.

단계(S100)에서, 상기 복수의 2차원 절편 영상은 절편 영상의 순번에 따라 순차적으로 상기 질환 검출 모델(20)에 입력된다. 모델(20)의 분할부(100)에 의해 공간 특징, 절편 사이 연결성을 추출하고 혈관 특징을 산출한다(S100). In step S100, the plurality of 2D slice images are sequentially input to the disease detection model 20 according to the order of the slice images. Spatial features and connectivity between slices are extracted by the division unit 100 of the model 20, and blood vessel features are calculated (S100).

일 실시예에서, 상기 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 혈관 특징을 산출하는 단계(S100)는, 복수의 2차원 절편 영상 각각에 대해서 순차적으로, 공간 특징을 추출하는 단계(S110); 인접한 2차원 절편 영상들의 공간 특징에 기초하여 상기 인접한 2차원 절편 영상들의 절편 사이 연결성을 추출하는 단계(S120); 및 상기 공간 특징 및 절편 사이 연결성에 기초한 혈관 특징을 산출하는 단계(S130)를 포함할 수도 있다. In an embodiment, the step of extracting spatial features and connectivity between slices from the medical image of the detection target and calculating blood vessel features based on the spatial features and connectivity between slices (S100) is performed on each of a plurality of 2D slice images. sequentially extracting spatial features (S110); extracting connectivity between slices of the adjacent 2D slice images based on spatial features of the adjacent 2D slice images (S120); and calculating blood vessel features based on the spatial features and connectivity between slices ( S130 ).

상기 복수의 2차원 절편 영상 각각에 대해서 순차적으로, 공간 특징을 추출하는 단계(S110)는, 계층 레벨별로 상기 2차원 절편 영상에서 공간 특징을 추출하고, 추출된 공간 특징을 풀링 연산 처리하는 것일 수도 있다. The step of sequentially extracting spatial features from each of the plurality of 2D slice images (S110) may include extracting spatial features from the 2D slice images for each hierarchical level, and performing a pooling operation on the extracted spatial features. there is.

상기 계층 레벨은 분할부(100)의 계층 레벨이다. 공간 특징의 추출 및 풀링 연산 처리는 n회 수행된다. 도 3의 분할부(100)의 경우, n은 3으로 설정된다. The hierarchical level is the hierarchical level of the dividing unit 100 . Spatial feature extraction and pooling operation processing is performed n times. In the case of the division unit 100 of FIG. 3 , n is set to 3.

상기 단계(S110)에서 추출되는 공간 특징은 계층 레벨별 공간 특징들을 포함한다. 상기 계층 레벨별 공간 특징은 해당 계층 레벨에서 추출되어 풀링 연산된 공간 특징일 수도 있다. 예를 들어, 상기 단계(S110)에서 추출되는 공간 특징은 도 3의 분할부(100)에서 각 계층 레벨별 인코딩 블록(110)으로부터 출력되는 연산 결과일 수도 있다. The spatial features extracted in step S110 include spatial features for each hierarchical level. The spatial feature for each hierarchical level may be a spatial feature extracted from the corresponding hierarchical level and subjected to a pooling operation. For example, the spatial feature extracted in step S110 may be an operation result output from the encoding block 110 for each hierarchical level in the segmentation unit 100 of FIG. 3 .

일 실시예에서, 상기 절편 사이 연결성은 2차원 절편 영상으로부터 n회 추출되어 풀링 연산된, 인접한 2차원 절편 영상의 공간 특징에 기초하여 생성될 수도 있다(S120). 상기 n회 추출되어 풀링 연산된, 인접한 2차원 절편 영상의 공간 특징은 도 3의 가장 깊은 계층 레벨의 인코딩 블록(110)의 연산 결과일 수도 있다. In an embodiment, the connectivity between the slices may be generated based on spatial features of adjacent 2D slice images extracted n times from the 2D slice images and subjected to a pooling operation (S120). The spatial features of the adjacent 2D segment images extracted n times and subjected to the pooling operation may be an operation result of the encoding block 110 of the deepest hierarchical level of FIG. 3 .

일 실시예에서, 상기 공간 특징 및 절편 사이 연결성에 기초한 혈관 특징을 산출하는 단계(S130)는, 계층 레벨별로 이전 계층 레벨의 연산 결과를 디컨볼루션 연산 처리하고, 디컨볼루션 연산된 결과 및 동일한 계층 레벨의 공간 특징을 결합하며, 결합된 결과의 채널을 감소시킴으로써 입력된 2차원 절편 영상을 복원하는 단계(S133); 및 복원된 입력영상으로부터 혈관 특징을 추출하는 단계(S134)를 포함할 수도 있다. In one embodiment, the step of calculating the blood vessel feature based on the connectivity between the spatial features and the slices (S130), deconvolution is performed on the calculation result of the previous hierarchical level for each hierarchical level, and the result of the deconvolution operation and the same Restoring an input 2D slice image by combining spatial features of a hierarchical level and reducing a channel of the combined result (S133); and extracting blood vessel features from the reconstructed input image (S134).

이전 계층 레벨의 연산 결과는 제1 연결 경로에 따른 연산 결과이다. 예를 들어, 도 3에서 디코딩 블록(130C)의 이전 계층 레벨의 연산 결과는 서브 네트워크(120)의 연산 결과이고, 디코딩 블록(130)B의 이전 계층 레벨의 연산 결과는 디코딩 블록(130C)의 연산 결과일 수도 있다. An operation result of the previous hierarchical level is an operation result along the first connection path. For example, in FIG. 3, the calculation result of the previous hierarchical level of the decoding block 130C is the calculation result of the sub-network 120, and the calculation result of the previous hierarchical level of the decoding block 130B is the result of the decoding block 130C. It may be the result of an operation.

동일한 계층 레벨의 공간 특징은 제2 연결 경로를 통해 획득된, 대응한 인코딩 블록(110)의 연산 결과이다. The spatial feature of the same hierarchical level is the result of operation of the corresponding encoding block 110 obtained through the second connection path.

일 실시예에서, 감소된 채널의 수는 동일한 계층 레벨에서 풀링 연산을 통해 증가한 채널의 수에 대응할 수도 있다(S131). In one embodiment, the reduced number of channels may correspond to the increased number of channels through a pooling operation at the same hierarchical level (S131).

이러한 디컨볼루션 연산, 결합 연산 및 컨볼루션 연산은 계층 레벨별로 계속 수행된다(S131). These deconvolution operations, combination operations, and convolution operations are continuously performed for each hierarchical level (S131).

디컨볼루션 연산, 결합 연산 및 컨볼루션 연산이 수행되면, 공간 특징을 추출하면서 다운-샘플링된 입력영상이 복원된다(S131). 이 복원된 영상은 도 3의 분할부(100)에서 가장 높은 계층 레벨의 디코딩 블록(130A)에서 디컨볼루션 연산, 결합 연산 및 컨볼루션 연산된 결과에 대응하는 것일 수도 있다(S133). When the deconvolution operation, the combination operation, and the convolution operation are performed, the down-sampled input image is reconstructed while extracting spatial features (S131). The reconstructed image may correspond to results of deconvolution, combination, and convolution operations in the decoding block 130A of the highest hierarchical level in the division unit 100 of FIG. 3 (S133).

복원된 영상에서 추출되는 혈관 특징은 개별 절편 영상의 공간 특징은 물론 절편 사이 연결성도 반영된 영상 특징이다(S134). The blood vessel features extracted from the reconstructed image are image features that reflect connectivity between slices as well as spatial features of individual slice images (S134).

일 실시예에서, 상기 혈관영역을 분할하는 단계(S150)는: 상기 혈관 특징에 기초하여 혈관확률 값을 산출하는 단계; 산출된 혈관확률 값에 기초하여 분할 마스크를 생성하는 단계; 및 상기 분할 마스크를 사용하여 혈관영역을 분할하는 단계를 포함할 수도 있다. In an embodiment, the dividing of the blood vessel region (S150) includes: calculating a blood vessel probability value based on the blood vessel characteristics; generating a segmentation mask based on the calculated blood vessel probability value; and dividing the blood vessel region using the segmentation mask.

전술한 바와 같이, 혈관확률 값은 각 픽셀별 혈관확률 값으로 이루어진 혈관확률 맵을 생성함으로써 산출될 수도 있다. 상기 단계(S130, S150)의 동작에 대해서는 디코딩 블록(130), 분할특징 블록(140) 및 분할 블록(150)을 참조하여 위에서 서술하였는 바, 자세한 설명은 생략한다. As described above, the blood vessel probability value may be calculated by generating a blood vessel probability map composed of blood vessel probability values for each pixel. The operation of the steps S130 and S150 has been described above with reference to the decoding block 130, the division feature block 140, and the division block 150, and detailed descriptions thereof are omitted.

특정 실시예들에서, 상기 혈관관련 질환의 병변영역을 검출하는 단계(S300)는: 절편 사이 연결성에 기초하여 컨벌루션 연산 및 전역적 풀링 연산을 통해 전역적 특징을 산출하는 단계(S311); 상기 전역적 특징에 기초하여 전역적 점수를 산출하는 단계(S315); 상기 단계(S100)의 혈관 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 단계(S331); 상기 지역적 특징에 기초하여 지역적 점수를 산출하는 단계(S335); 및 상기 지역적 점수 및 전역적 점수에 기초하여 병변 점수를 산출하여 병변영역을 결정하는 단계(S350)를 포함할 수도 있다. In certain embodiments, the detecting of the lesion area of the vascular-related disease (S300) includes: calculating a global feature through a convolution operation and a global pooling operation based on connectivity between segments (S311); Calculating a global score based on the global feature (S315); Calculating a regional feature through a convolution operation and a regional pooling operation based on the blood vessel characteristics of the step S100 (S331); Calculating a regional score based on the regional characteristics (S335); and determining a lesion area by calculating a lesion score based on the regional and global scores (S350).

상기 절편 사이 연결성에 기초하여 컨벌루션 연산 및 전역적 풀링 연산을 통해 전역적 특징을 산출하는 단계(S311)에서, 서브 네트워크(120)의 연산 결과가 컨벌루션 연산 및 전역적 풀링 연산 처리될 수도 있다. In step S311 of calculating a global feature through a convolution operation and a global pooling operation based on the connectivity between the segments, the operation result of the subnetwork 120 may be subjected to a convolution operation and a global pooling operation.

일 실시예에서, 상기 전역적 특징에 기초하여 전역적 점수를 산출하는 단계(S315)는 확률 함수를 사용하여 전역적 특징으로부터 전역적 점수를 산출할 수도 있다. In one embodiment, calculating a global score based on the global feature (S315) may calculate a global score from the global feature using a probability function.

상기 단계(S311, 315)의 동작은 상기 제1 검출부(310)를 참조하여 위에서 서술하였는 바, 자세한 설명은 생략한다. Since the operation of the steps S311 and 315 has been described above with reference to the first detection unit 310, a detailed description thereof will be omitted.

일 실시예에서, 상기 단계(S100)의 혈관 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 단계(S331)는 혈관 특징이 산출된 복원된 영상을 복수의 지역으로 구획하는 단계; 및 각 지역별 혈관 특징을 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 추출하는 단계를 포함할 수도 있다. In one embodiment, calculating regional features through a convolution operation and regional pooling operation based on the blood vessel characteristics of step S100 (S331) divides the reconstructed image from which the blood vessel features are calculated into a plurality of regions. step; and extracting regional features through a convolution operation and a regional pooling operation of blood vessel characteristics for each region.

일 실시예에서, 상기 지역적 특징에 기초하여 지역적 점수를 산출하는 단계(S331)는, 확률 함수를 사용하여 지역적 특징으로부터 지역적 점수를 산출할 수도 있다. 상기 지역적 점수는 국소화 맵으로 산출될 수도 있다. In an embodiment, in step S331 of calculating a regional score based on the regional feature, a regional score may be calculated from the regional feature using a probability function. The regional score may be calculated as a localization map.

상기 단계(S331, 335)의 동작은 상기 제2 검출부(330)를 참조하여 위에서 서술하였는 바, 자세한 설명은 생략한다. Since the operation of the steps S331 and 335 has been described above with reference to the second detection unit 330, a detailed description thereof will be omitted.

일 실시예에서, 상기 지역적 점수 및 전역적 점수에 기초하여 병변 점수를 산출하여 병변영역을 결정하는 단계(S350)는 지역적 점수와 전역적 점수를 증폭 연산자를 통해 연산하여 병변 점수를 산출하는 단계; 및 상기 병변 점수에 기초하여 병변영역을 결정하는 단계를 포함한다. In an embodiment, determining a lesion area by calculating a lesion score based on the regional score and the global score (S350) includes calculating a lesion score by calculating the local score and the global score through an amplification operator; and determining a lesion area based on the lesion score.

일 실시예에서, 상기 병변 점수는 지역적 점수와 전역적 점수를 곱셈 연산자를 통해 곱셈 연산하여 산출될 수도 있다. In one embodiment, the lesion score may be calculated by multiplying a regional score and a global score through a multiplication operator.

또한, 상기 방법은: 분할된 혈관영역의 위치 및/또는 검출된 병변영역의 위치를 해당2차원 절편 영상에서 산출하는 단계(S510)를 더 포함할 수도 있다. 위치는 2차원 절편 영상의 평면 상의 좌표 값으로 산출될 수도 있다. 산출된 위치는 표시부(50)를 통해 표시된다. In addition, the method may further include: calculating the location of the divided blood vessel region and/or the location of the detected lesion region from the corresponding 2D slice image (S510). The position may be calculated as a coordinate value on a plane of the 2D slice image. The calculated position is displayed through the display unit 50 .

도 7은, 본 출원의 일 실시예에 따른, 분할된 혈관영역의 위치, 검출된 병변영역의 위치를 2차원 절편 영상 상에 표시한 결과를 도시한다. 7 illustrates a result of displaying the location of a divided blood vessel region and the location of a detected lesion region on a 2D slice image according to an embodiment of the present application.

도 7에서 가운데 영상, 우측 영상은 혈관 영역, 병변 영역 각각이 보다 식별되도록 밝기를 편집한 부분 도면이다. In FIG. 7 , the middle image and the right image are partial views in which the brightness is edited so that the blood vessel area and the lesion area can be more identified.

도 7을 참조하면, 상기 분할된 혈관영역의 위치 및/또는 검출된 병변영역의 위치는 2차원 절편 영상 상에 표시될 수도 있다(S510). Referring to FIG. 7 , the location of the divided blood vessel area and/or the location of the detected lesion area may be displayed on a 2D slice image (S510).

또한, 상기 방법은: 분할된 혈관영역 및/또는 검출된 병변영역의 3차원 모델을 생성하는 단계(S550)를 더 포함할 수도 있다. In addition, the method may further include: generating a 3D model of the divided blood vessel region and/or the detected lesion region (S550).

도 8은, 본 출원의 일 실시예에 따른, 분할된 혈관영역의 위치, 검출된 병변영역의 위치를 렌더링한 3차원 모델을 도시한다. 8 illustrates a 3D model in which positions of divided blood vessel regions and positions of detected lesion regions are rendered according to an embodiment of the present application.

도 8을 참조하면, 상기 분할된 혈관영역 및/또는 병변영역은 3차원으로 렌더링된 모델로 생성될 수도 있다. 생성된 모델은 표시부(50)를 통해 표시될 수도 있다(S550). Referring to FIG. 8 , the divided blood vessel area and/or lesion area may be created as a 3D rendered model. The generated model may be displayed through the display unit 50 (S550).

일 실시예에서, 상기 장치(1)는 (예컨대, 분석부(10)에 의해) 2차원 절편 영상 상의 분할된 혈관영역의 위치 및/또는 검출된 병변영역의 위치를 산출하고, 산출된 위치에 기초하여 3차원 혈관 모델 및 병변 모델을 생성할 수도 있다. 이 경우, 3차원 혈관 모델 및 병변 모델은 단계(S510)에서 산출된 각각의 영역의 위치에 연관된다. 예를 들어 도 5에 도시된 것처럼 혈관 모델 및 병변 모델 상에 단계(S510)에서 산출된 혈관, 병변의 위치가 좌표화될 수도 있다. In one embodiment, the device 1 calculates the location of the segmented blood vessel region and/or the detected lesion region on the 2D slice image (eg, by the analysis unit 10), and places the location at the calculated location. Based on this, a 3D blood vessel model and a lesion model may be created. In this case, the 3D blood vessel model and the lesion model are related to the position of each region calculated in step S510. For example, as shown in FIG. 5 , the positions of blood vessels and lesions calculated in step S510 may be coordinated on the blood vessel model and the lesion model.

단계(S510, S550)에서 분할된 혈관영역, 병변영역은 의료영상 내 다른 영역과 구별되도록 지정된 마커로 표시될 수도 있다. 혈관영역 및 병변영역도 서로 다른 마커로 표시되어 서로 구별될 수도 있다. The blood vessel area and lesion area divided in steps S510 and S550 may be marked with a designated marker to distinguish them from other areas in the medical image. The blood vessel area and the lesion area may also be marked with different markers and distinguished from each other.

상기 마커는 색상일 수도 있으나, 이에 제한되진 않는다. The marker may be a color, but is not limited thereto.

실험예Experimental Example

도 9a 내지 도 9c는, 본 출원의 일 실험예에 따른, 국소화 사이즈에 따른 모델 성능을 도시하고, 도 10은, 본 출원의 일 실험예에 따른, 도 3의 모델 및 이를 변형한 다른 모델 각각의 분할 성능 및 검출 성능을 도시한다. 9A to 9C show model performance according to localization size according to an experimental example of the present application, and FIG. 10 shows the model of FIG. 3 and other models modified therefrom, respectively, according to an experimental example of the present application. Shows the segmentation performance and detection performance of

상기 실험예는 대뇌혈관조영술에서 두개내 협착성 병변이 확인된 180명의 환자에 대해서, 120명을 트래이닝 대상으로, 30명을 검증 대상으로, 30명을 본 출원인인 분당서울대학교병원의 내부 테스트 대상으로 30명을 다른 외부병원의 외부 테스트 대상으로 사용하여 진행되었다. In the above experimental example, for 180 patients with intracranial constrictive lesions confirmed by cerebral angiography, 120 were used for training, 30 were tested, and 30 were tested internally at Seoul National University Bundang Hospital, the present applicant. As a result, 30 people were used as external test subjects in other external hospitals.

도 9a 내지 도 9c에 도시된 것처럼, 256*256의 절편 영상에 대해서 지역의 국소화 사이즈는 16x16일 경우 가장 높은 성능을 보인다. As shown in FIGS. 9A to 9C , the highest performance is shown when the localization size of a region is 16x16 for a 256*256 slice image.

도 10은 백본 데이터 처리 경로 및 제1, 제2 보조 데이터 처리 경로를 가지고 증폭 연산자를 사용한 도 3의 질환 검출 모델(20)(도 9의 Full model)의 예측 결과, 제1 내지 제3 변형 모델(도 9의 without SP, without DP, without MO)의 예측 결과를 도시한다. 10 is a prediction result of the disease detection model 20 (full model in FIG. 9) of FIG. 3 using an amplification operator with a backbone data processing path and first and second auxiliary data processing paths, first to third modified models. The prediction result of (without SP, without DP, without MO in FIG. 9) is shown.

여기서, 제1 변형모델(도 10의 without SP)은 도 3의 모델 전체에서 백본 데이터 처리 경로가 제거된 것이다. 제2 변형모델(도 10의 without DP)은 전역적 측면의 병변 검출 경로가 제거됨으로써 곱셈 연산되는 대신에 협착성 병변은 국소화 맵에서 지역적으로만 예측된 모델이다. 제3 변형모델(도 10의 without MO)은 곱셈 연산자를 사용하지 않음으로써 협착성 병변은 (제2 변형모델과 유사하게) 국소화 맵에서 지역적으로만 예측된 모델이다. here, The first modified model (without SP in FIG. 10 ) is one in which the backbone data processing path is removed from the entire model of FIG. 3 . The second modified model (without DP in FIG. 10) is a model in which the lesion detection path of the global aspect is removed, and instead of multiplicative operation, the stenotic lesion is predicted only locally in the localization map. The third modified model (without MO in FIG. 10) is a model in which the constrictive lesion is predicted only locally in the localization map (similar to the second modified model) by not using the multiplicative operator.

도 10에 도시된 것처럼, 본 출원의 질환 검출 모델(20)의 예측 성능이 다른 변형 모델들 대비 가장 정확한 것이 확인된다. As shown in FIG. 10, it is confirmed that the predictive performance of the disease detection model 20 of the present application is the most accurate compared to other modified models.

상기 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치(1) 및 방법이 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 데이터 입력 장치, 디스플레이 및/또는 인쇄와 같은 출력 장치, 네트워크, 네트워크 인터페이스 및 프로토콜 등을 더 포함할 수 있다.It will be clear to those skilled in the art that the device 1 and method for detecting disease lesions related to body components that deliver blood from the medical images may include other components not described herein. For example, it may further include data input devices, output devices such as display and/or printing, networks, network interfaces and protocols, and the like.

이상에서 설명한 실시예들에 따른 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치(1) 및 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. The operation by the device 1 and method for detecting disease lesions related to body components that deliver blood from medical images according to the embodiments described above are at least partially implemented as a computer program and can be read by a computer. It can be recorded on a recording medium. For example, implemented together with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor to perform any or all steps, operations, or processes described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 테블릿pc, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be any device that may be integrated with or may be a computing device such as a desktop computer, laptop computer, notebook, tablet pc, smart phone, or the like. A computer is a device that has one or more alternative and special purpose processors, memory, storage, and networking components (whether wireless or wired). The computer may run, for example, an operating system compatible with Microsoft's Windows, Apple's OS X or iOS, a Linux distribution, or an operating system such as Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of recording devices in which data readable by a computer is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, computer-readable recording media may be distributed in computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.The present invention reviewed above has been described with reference to the embodiments shown in the drawings, but this is only exemplary, and those skilled in the art will understand that various modifications and variations of the embodiments are possible therefrom. However, such modifications should be considered within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

Claims (21)

프로세서를 포함한 컴퓨팅 장치에 의해 수행되는 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법에 있어서,
미리 학습된 질환 검출 모델을 사용하여 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계를 포함하고,
상기 의료영상은 3차원 체적의 상기 신체 구성요소를 이루는 복수의 2차원 절편 영상이고,
상기 복수의 2차원 절편 영상은 절편 영상의 순번에 따라 순차적으로 상기 질환 검출 모델에 입력되어 상기 공간 특징, 절편 사이 연결성 및 신체 구성요소를 예측하기 위한 특징이 각 2차원 절편 영상별로 획득되는 것을 특징으로 하는 방법.
A method for detecting a disease lesion related to a body component that delivers blood from a medical image performed by a computing device including a processor, the method comprising:
Extracting spatial features and connectivity between segments from a medical image of a detection target using a pre-learned disease detection model, and calculating features for predicting body components based on the connectivity between the spatial features and segments,
The medical image is a plurality of 2-dimensional slice images constituting the body components of a 3-dimensional volume,
The plurality of 2D slice images are sequentially input to the disease detection model according to the order of the slice images, and the spatial features, connectivity between slices, and features for predicting body components are obtained for each 2D slice image. How to.
청구항 제1항에 있어서, 상기 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계는,
복수의 2차원 절편 영상 각각에 대해서 순차적으로, 공간 특징을 추출하는 단계;
인접한 2차원 절편 영상들의 공간 특징에 기초하여 상기 인접한 2차원 절편 영상들의 절편 사이 연결성을 추출하는 단계; 및
상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the step of extracting spatial features and connectivity between slices from the medical image of the detection target and calculating features for predicting body components based on the spatial features and connectivity between slices comprises:
sequentially extracting spatial features from each of the plurality of 2D slice images;
extracting connectivity between slices of adjacent 2D slice images based on spatial features of the adjacent 2D slice images; and
and calculating a feature for predicting a body component based on the connectivity between the spatial feature and the slice.
청구항 제2항에 있어서,
이전에 먼저 추출된 적어도 일부의 2차원 절편 영상의 공간 특징 중 기억된 공간 특징을 갖는 적어도 하나의 2차원 절편 영상과 현재 공간 특징이 추출된 2차원 절편 영상 사이의 연관성을 산출하여 상기 절편 사이 연결성을 추출하는 것을 특징으로 하는 방법.
According to claim 2,
Connectivity between the slices by calculating the correlation between at least one 2D slice image having a stored spatial feature among the spatial features of at least some 2D slice images previously extracted and the 2D slice image from which the current spatial feature is extracted. A method characterized in that for extracting.
청구항 제2항에 있어서,
상기 공간 특징은 계층 레벨별로 상기 2차원 절편 영상에서 공간 특징을 추출하고 추출된 공간 특징을 풀링 연산 처리하여 추출된 것이고,
상기 절편 사이 연결성은 가장 깊은 계층 레벨에서 풀링 연산 처리된 결과에 기초하여 추출되는 것을 특징으로 하는 방법.
According to claim 2,
The spatial features are extracted by extracting spatial features from the 2D slice image for each hierarchical level and performing a pooling operation on the extracted spatial features;
Wherein the connectivity between the segments is extracted based on a result of a pooling operation at the deepest hierarchical level.
청구항 제2항에 있어서, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 단계는,
계층 레벨별로 이전 계층 레벨의 연산 결과를 디컨볼루션 연산 처리하고, 디컨볼루션 연산된 결과 및 동일한 계층 레벨의 공간 특징을 결합하며, 결합된 결과의 채널을 감소시킴으로써 입력된 2차원 절편 영상을 복원하는 단계; 및
복원된 입력영상으로부터 신체 구성요소를 예측하기 위한 특징을 추출하는 단계를 포함하는 방법.
The method of claim 2, wherein calculating a feature for predicting a body component based on the connectivity between the spatial feature and the slice comprises:
The input 2D slice image is restored by performing deconvolution on the operation result of the previous hierarchical level for each hierarchical level, combining the result of the deconvolution operation with spatial features of the same hierarchical level, and reducing the channel of the combined result. doing; and
A method comprising extracting features for predicting body components from a reconstructed input image.
청구항 제5항에 있어서,
복원된 입력영상은 가장 높은 계층 레벨에서 디컨볼루션 연산, 결합 연산 및 컨볼루션 연산된 결과에 대응하는 것이고,
복원된 영상에서 추출되는 신체 구성요소를 예측하기 위한 특징은 개별 절편 영상의 공간 특징 및 절편 사이 연결성에 반영된 영상 특징인 것을 특징으로 하는 방법.
The method of claim 5,
The reconstructed input image corresponds to the result of the deconvolution operation, combination operation, and convolution operation at the highest hierarchical level,
A method characterized in that the features for predicting body components extracted from the reconstructed image are image features reflected in spatial features of individual slice images and connectivity between slices.
청구항 제1항에 있어서,
추출된 신체 구성요소를 예측하기 위한 특징에 기초하여 입력된 의료영상에서 신체 구성요소 영역을 분할하는 단계, 및 상기 공간 특징, 절편사이 연결성 및 신체 구성요소를 예측하기 위한 특징 중 하나 이상에 기초하여 상기 질환의 병변영역을 검출하는 단계 중 하나 이상의 단계를 더 포함하는 방법.
According to claim 1,
Segmenting the body component region in the input medical image based on the extracted feature for predicting the body component, and based on one or more of the spatial features, connectivity between segments, and features for predicting the body component A method further comprising at least one step of detecting a lesion area of the disease.
청구항 제7항에 있어서, 상기 신체 구성요소 영역을 분할하는 단계는:
상기 신체 구성요소를 예측하기 위한 특징에 기초하여 입력영상에서의 신체 구성요소 확률 값을 산출하는 단계;
산출된 신체 구성요소 확률 값에 기초하여 분할 마스크를 생성하는 단계; 및
상기 분할 마스크를 사용하여 신체 구성요소 영역을 분할하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 7, wherein the dividing of the body component region comprises:
calculating a body component probability value in an input image based on a feature for predicting the body component;
generating a segmentation mask based on the calculated body component probability values; and
and segmenting body component regions using the segmentation mask.
청구항 제7항에 있어서, 상기 질환의 병변영역을 검출하는 단계는,
절편 사이 연결성에 기초하여 컨벌루션 연산 및 전역적 풀링 연산을 통해 전역적 특징을 산출하는 단계;
상기 전역적 특징에 기초하여 전역적 점수를 산출하는 단계;
상기 신체 구성요소를 예측하기 위한 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 단계;
상기 지역적 특징에 기초하여 지역적 점수를 산출하는 단계; 및
상기 지역적 점수 및 전역적 점수에 기초하여 병변 점수를 산출하여 병변영역을 결정하는 단계를 포함하고,
상기 전역적 특징은 전역적 측면에서 입력영상 내 병변영역을 검출하기 위한 특징이고, 상기 지역적 특징은 지역적 측면에서 입력영상 내 병변영역을 검출하기 위한 특징이며, 상기 전역적 점수는 전역적 측면에서 입력영상 내 병변영역이 검출될 가능성을 수치화한 것이고, 상기 지역적 점수는 지역적 측면에서 입력영상 내 병변영역이 검출될 가능성을 수치화한 것을 특징으로 하는 방법.
The method of claim 7, wherein the step of detecting the lesion area of the disease,
calculating a global feature through a convolution operation and a global pooling operation based on connectivity between segments;
calculating a global score based on the global feature;
calculating a regional feature through a convolution operation and a regional pooling operation based on the feature for predicting the body component;
calculating a regional score based on the regional characteristics; and
determining a lesion area by calculating a lesion score based on the regional score and the global score;
The global feature is a feature for detecting a lesion area in an input image in a global aspect, the regional feature is a feature for detecting a lesion area in an input image in a regional aspect, and the global score is an input in a global aspect. A method characterized in that the probability of detecting a lesion area in an image is quantified, and the regional score digitizes the probability of detecting a lesion area in an input image in a regional aspect.
청구항 제9항에 있어서, 상기 신체 구성요소를 예측하기 위한 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 단계는,
신체 구성요소를 예측하기 위한 특징이 산출된 영상을 복수의 지역으로 구획하는 단계; 및
각 지역별 신체 구성요소를 예측하기 위한 특징을 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 추출하는 단계;를 포함하는 것을 특징으로 하는 방법.
The method of claim 9, wherein calculating a regional feature through a convolution operation and a regional pooling operation based on the feature for predicting the body component comprises:
dividing an image from which features for predicting body components are calculated into a plurality of regions; and
and extracting regional features through a convolution operation and a regional pooling operation of features for predicting body components for each region.
청구항 제9항에 있어서,
상기 전역적 점수는 확률 함수를 사용하여 전역적 특징으로부터 산출된 것이고,
상기 지역적 점수는 확률 함수를 사용하여 지역적 특징으로부터 산출된 것을 특징으로 하는 방법.
The method of claim 9,
The global score is calculated from global features using a probability function;
Wherein the regional score is calculated from regional features using a probability function.
청구항 제9항에 있어서, 상기 지역적 점수 및 전역적 점수에 기초하여 병변 점수를 산출하여 병변영역을 결정하는 단계는,
지역적 점수와 전역적 점수를 증폭 연산자를 통해 연산하여 병변 점수를 산출하는 단계; 및
상기 병변 점수에 기초하여 병변영역을 결정하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 9 , wherein determining a lesion area by calculating a lesion score based on the regional score and the global score comprises:
Calculating a regional score and a global score through an amplification operator to calculate a lesion score; and
and determining a lesion area based on the lesion score.
청구항 제12항에 있어서,
상기 병변 점수는 지역적 점수와 전역적 점수를 곱셈 연산자를 통해 곱셈 연산하여 산출되는 것을 특징으로 하는 방법.
The method of claim 12,
Wherein the lesion score is calculated by multiplying the local score and the global score through a multiplication operator.
청구항 제1항에 있어서, 상기 방법은:
분할된 신체 구성요소 영역의 위치 및 검출된 병변영역의 위치 중 하나 이상의 위치를 해당 2차원 절편 영상에서 산출하는 단계, 및 분할된 신체 구성요소 영역 및 검출되 병변영역 중 하나 이상의 영역의 3차원 모델을 생성하는 단계 중 하나 이상의 단계를 더 포함하는 방법.
The method of claim 1 , wherein the method:
calculating positions of at least one of the positions of the segmented body component regions and the positions of the detected lesion areas from the corresponding 2D slice image, and a 3D model of at least one of the segmented body component regions and the detected lesion regions. A method further comprising one or more of the steps of generating.
청구항 제1항 내지 제14항 중 어느 하나의 항에 따른 의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.
A computer readable recording medium having a program recorded thereon for performing the method of detecting a disease lesion on a body component that delivers blood from a medical image according to any one of claims 1 to 14.
의료영상으로부터 혈액을 전달하는 신체 구성요소에 관한 질환의 병변을 검출하는 장치에 있어서,
3차원 체적의 신체 구성요소를 이루는 복수의 2차원 절편 영상을 포함한 의료영상을 수신하는 영상 획득부; 및
미리 학습된 질환 검출 모델을 사용하여 검출 대상의 의료영상으로부터 공간 특징 및 절편 사이 연결성을 추출하고, 상기 공간 특징 및 절편 사이 연결성에 기초한 신체 구성요소를 예측하기 위한 특징을 산출하는 분석부;를 포함하고,
상기 질환 검출 모델은,
복수의 계층 레벨로 이루어진 깊이 구조를 갖는 백본 데이터 처리 경로를 형성하는 분할부;
상기 백본 데이터 처리 경로의 서브 네트워크에서 분기된 제1 보조 데이터 처리 경로를 형성하는 제1 검출부; 및
상기 백본 데이터 처리 경로의 분할특징 블록에서 분기된 제2 보조 데이터 처리 경로를 형성하는 제2 검출부를 포함하는 것을 특징으로 하는 장치.
An apparatus for detecting a lesion of a disease related to a body component that delivers blood from a medical image,
an image acquisition unit receiving medical images including a plurality of 2-dimensional slice images constituting body components of a 3-dimensional volume; and
An analysis unit that extracts spatial features and connectivity between segments from a medical image of a detection target using a pre-learned disease detection model, and calculates features for predicting body components based on the spatial features and connectivity between segments. do,
The disease detection model,
a division unit forming a backbone data processing path having a depth structure composed of a plurality of hierarchical levels;
a first detector forming a first auxiliary data processing path branched from the subnetwork of the backbone data processing path; and
and a second detection unit forming a second auxiliary data processing path branched from the division feature block of the backbone data processing path.
청구항 제16항에 있어서, 상기 분할부는
계층 레벨별로 위치한 복수의 인코딩 블록 및 복수의 디코딩 블록;
가장 깊은 계층 레벨에서 이전 계층 레벨의 인코딩 블록과 디코딩 블록 사이를 연결하여 절편 사이 연결성을 추출하는 서브 네트워크;
가장 높은 계층 레벨의 디코딩 블록의 연산 결과에서 상기 신체 구성요소를 예측하기 위한 특징을 산출하는 분할특징 블록; 및
상기 신체 구성요소를 예측하기 위한 특징에 기초하여 입력영상에서 신체 구성요소 영역을 분할하는 분할 블록을 포함하고,
계층 레벨별 인코딩 블록은 연산 결과를 제1 연결 경로를 통해 다음 계층 레벨의 인코딩 블록으로 전파하고 그리고 제2 연결 경로를 통해 동일한 계층 레벨의 디코딩 블록으로 전파하며,
계층 레벨별 디코딩 블록은 상기 제1 연결 경로를 통해 이전 계층 레벨의 디코딩 블록 또는 서브 네트워크의 연산 결과 및 상기 제2 연결 경로를 통해 동일한 계층 레벨의 인코딩 블록의 연산 결과를 수신하여 입력영상을 점차적으로 복원하는 것을 특징으로 하는 장치.
The method of claim 16, wherein the dividing unit
a plurality of encoding blocks and a plurality of decoding blocks located for each hierarchical level;
a sub-network for extracting connectivity between segments by connecting encoding blocks and decoding blocks of a previous hierarchical level at the deepest hierarchical level;
a division feature block that calculates a feature for predicting the body component from an operation result of a decoding block of the highest hierarchical level; and
A segmentation block for segmenting a body component region in an input image based on a feature for predicting the body component;
The encoding block for each hierarchical level propagates the operation result to the encoding block of the next hierarchical level through a first connection path and to the decoding block of the same hierarchical level through a second connection path;
The decoding block for each hierarchical level gradually converts an input image by receiving an operation result of a decoding block or subnetwork of a previous hierarchical level through the first connection path and an operation result of an encoding block of the same hierarchical level through the second connection path. A device characterized by restoring.
청구항 제16항에 있어서, 상기 제1 검출부는,
절편 사이 연결성에 기초하여 컨벌루션 연산 및 전역적 풀링 연산을 통해 전역적 특징을 산출하는 제1 추출 블록; 및
상기 전역적 특징에 기초하여 전역적 점수를 산출하는 제1 스코어 블록을 포함하는 것을 특징으로 하는 장치.
The method of claim 16, wherein the first detection unit,
a first extraction block that calculates a global feature through a convolution operation and a global pooling operation based on connectivity between segments; and
and a first score block for calculating a global score based on the global characteristic.
청구항 제18항에 있어서, 상기 제2 검출부는,
상기 신체 구성요소를 예측하기 위한 특징에 기초하여 컨볼루션 연산 및 지역적 풀링 연산을 통해 지역적 특징을 산출하는 제2 추출 블록; 및
상기 지역적 특징에 기초하여 지역적 점수를 산출하는 제2 추출 블록을 포함하는 것을 특징으로 하는 장치.
The method of claim 18, wherein the second detection unit,
a second extraction block calculating a regional feature through a convolution operation and a regional pooling operation based on the feature for predicting the body component; and
and a second extraction block for calculating a regional score based on the regional feature.
청구항 제19항에 있어서, 상기 질환 검출 모델은,
상기 지역적 점수 및 전역적 점수를 곱셈 연산자를 통해 연산하여 병변 점수를 산출하고, 그리고
산출된 병변 점수에 기초하여 병변영역을 검출하도록 구성되는 것을 특징으로 하는 장치.
The method of claim 19, wherein the disease detection model,
calculating a lesion score by calculating the regional score and the global score through a multiplication operator; and
An apparatus characterized in that configured to detect a lesion area based on the calculated lesion score.
청구항 제16항에 있어서,
상기 질환 검출 모델은 분할부의 예측 값과 실제 값 간의 차이, 제1 검출부의 예측 값과 실제 값 간의 차이, 및 제2 검출부의 예측 값과 실제 값 간의 차이가 최소화되도록 학습된 것을 특징으로 하는 장치.
The method of claim 16,
The disease detection model is an apparatus characterized in that the difference between the predicted value and the actual value of the dividing unit, the difference between the predicted value and the actual value of the first detection unit, and the difference between the predicted value and the actual value of the second detection unit are minimized. .
KR1020220025449A 2022-02-25 2022-02-25 Device and method for detecting lesions of disease related to body component that conveyes fluid from medical image KR20230127762A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220025449A KR20230127762A (en) 2022-02-25 2022-02-25 Device and method for detecting lesions of disease related to body component that conveyes fluid from medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220025449A KR20230127762A (en) 2022-02-25 2022-02-25 Device and method for detecting lesions of disease related to body component that conveyes fluid from medical image

Publications (1)

Publication Number Publication Date
KR20230127762A true KR20230127762A (en) 2023-09-01

Family

ID=87975100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220025449A KR20230127762A (en) 2022-02-25 2022-02-25 Device and method for detecting lesions of disease related to body component that conveyes fluid from medical image

Country Status (1)

Country Link
KR (1) KR20230127762A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102250688B1 (en) 2018-12-13 2021-05-12 서울대학교병원 Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102250688B1 (en) 2018-12-13 2021-05-12 서울대학교병원 Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
학회논문 "U-Net: Convolutional Networks for Biomedical Image Segmentation, Olaf Ronneberger, Philipp Fischer, and Thomas Brox" (2015.05.18.)

Similar Documents

Publication Publication Date Title
US11816836B2 (en) Method and system for assessing vessel obstruction based on machine learning
US10664968B2 (en) Computer aided diagnosis apparatus and method based on size model of region of interest
JP6703082B2 (en) Medical image processing apparatus for segmenting structures in medical image, method for segmenting medical image, and storage medium storing computer program for segmenting medical image
KR101992057B1 (en) Method and system for diagnosing brain diseases using vascular projection images
US9235887B2 (en) Classification of biological tissue by multi-mode data registration, segmentation and characterization
CN107613874B (en) Method and device for assessing vascular stenosis
Katouzian et al. A state-of-the-art review on segmentation algorithms in intravascular ultrasound (IVUS) images
CN105701331B (en) Computer-aided diagnosis apparatus and computer-aided diagnosis method
Shahzad et al. Vessel specific coronary artery calcium scoring: an automatic system
US9125622B2 (en) Diagnosis assisting apparatus, coronary artery analyzing method and recording medium having a coronary artery analyzing program stored therein
Mouton et al. Materials-based 3D segmentation of unknown objects from dual-energy computed tomography imagery in baggage security screening
WO2009105530A2 (en) System and method for automated segmentation, characterization, and classification of possibly malignant lesions and stratification of malignant tumors
US20220284583A1 (en) Computerised tomography image processing
US11182901B2 (en) Change detection in medical images
US20060211940A1 (en) Blood vessel structure segmentation system and method
CN110858399A (en) Method and apparatus for providing virtual tomographic stroke follow-up detection images
EP3939003B1 (en) Systems and methods for assessing a likelihood of cteph and identifying characteristics indicative thereof
US20230113721A1 (en) Functional measurements of vessels using a temporal feature
CN109313803B (en) Method and apparatus for mapping at least part of a structure in an image of at least part of a body of a subject
Rava et al. Use of a convolutional neural network to identify infarct core using computed tomography perfusion parameters
WO2021117043A1 (en) Automatic stenosis detection
KR20230127762A (en) Device and method for detecting lesions of disease related to body component that conveyes fluid from medical image
US20220028067A1 (en) Systems and Methods for Quantifying Vessel Features in Ultrasound Doppler Images
CN112862786A (en) CTA image data processing method, device and storage medium
CN112862785A (en) CTA image data identification method, device and storage medium