KR20230062208A - Method and apparatus for sorting medical image for labeling - Google Patents

Method and apparatus for sorting medical image for labeling Download PDF

Info

Publication number
KR20230062208A
KR20230062208A KR1020210147228A KR20210147228A KR20230062208A KR 20230062208 A KR20230062208 A KR 20230062208A KR 1020210147228 A KR1020210147228 A KR 1020210147228A KR 20210147228 A KR20210147228 A KR 20210147228A KR 20230062208 A KR20230062208 A KR 20230062208A
Authority
KR
South Korea
Prior art keywords
labeling
medical image
uncertainty
selecting
medical
Prior art date
Application number
KR1020210147228A
Other languages
Korean (ko)
Inventor
심학준
전재익
김세근
최안네스
하성민
Original Assignee
주식회사 온택트헬스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 온택트헬스 filed Critical 주식회사 온택트헬스
Priority to KR1020210147228A priority Critical patent/KR20230062208A/en
Priority to PCT/KR2022/016629 priority patent/WO2023075480A1/en
Priority to EP22887675.1A priority patent/EP4407629A1/en
Publication of KR20230062208A publication Critical patent/KR20230062208A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Provided are a method and a device for selecting medical images for labeling according to an embodiment of the present invention. The above method comprises: a step of obtaining a plurality of medical images of a target area of a subject from an imaging device; a step of obtaining prediction result data representing the result of predicting the at least one region from the plurality of medical images using a prediction model learned to predict at least one region corresponding to the target region based on the plurality of medical images; a step of calculating uncertainty data regarding the obtained prediction result data; and a step of selecting a medical image for labeling from the plurality of medical images based on the calculated uncertainty data. Accordingly, the present invention can provide improved prediction results of an active learning-based model.

Description

레이블링을 위한 의료 영상을 선별하기 위한 방법 및 장치{METHOD AND APPARATUS FOR SORTING MEDICAL IMAGE FOR LABELING}Method and apparatus for sorting medical images for labeling {METHOD AND APPARATUS FOR SORTING MEDICAL IMAGE FOR LABELING}

본 발명은 레이블링을 위한 의료 영상을 선별하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for selecting medical images for labeling.

일반적으로 피검자의 목적 부위에 대한 질환 여부를 결정하기 위해 영상 의학 검사(예: 엑스레이(X-ray), 초음파, CT(Computer Tomography), 혈관조영 촬영검사(Angiography), 양전자 방출 단층 촬영 검사(PET-CT) 또는 MRI(Magnetic Resonance Imaging) 검사 등)를 통해 피검자의 목적 부위를 촬영한 의료 영상이 이용된다. In general, imaging medicine tests (e.g., X-ray, ultrasound, CT (Computer Tomography), Angiography, Positron Emission Tomography (PET)) are performed to determine whether or not there is a disease in the target area of the subject. -CT) or MRI (Magnetic Resonance Imaging) examination, etc.) is used to obtain medical images of the target part of the subject.

전문의는 획득된 의료 영상을 육안으로 확인하여 목적 부위 영역을 식별함으로써, 목적 부위를 확인하고, 이에 대한 질환 여부를 결정할 수 있다. A specialist can visually check the obtained medical image to identify a target region, thereby confirming the target region and determining whether the target region is a disease or not.

육안을 통한 목적 부의 영역의 식별은 촬영 장치의 성능 및/또는 피검자의 움직임 등에 의해 의료 영상 자체에 노이즈가 존재하므로, 전문의의 실력 또는 경험에 따라 의견의 차이가 발생될 수 있어 신뢰도 및 정확도가 높은 진단 결과를 제공하기 어려울 수 있다. Identification of the target area through the naked eye is highly reliable and accurate because noise exists in the medical image itself due to the performance of the imaging device and/or the motion of the subject, so differences in opinion may occur depending on the skill or experience of specialists. Diagnostic results can be difficult to provide.

이에, 의료 영상을 기반으로 목적 부위 영역을 예측하도록 학습된 인공신경망을 이용하여 입력 의료 영상으로부터 목적 부위 영역을 예측하는 방식이 널리 이용되고 있다.Accordingly, a method of predicting a target region from an input medical image using an artificial neural network trained to predict a target region based on a medical image is widely used.

다만, 의료 영상 자체가 노이즈를 갖거나, 적은 훈련 데이터의 수로 인해 예측 모델의 예측 결과에 대한 불확실성이 존재하여 예측 결과의 정확도 및 신뢰도가 낮아진다는 문제점이 있다.However, there is a problem that the accuracy and reliability of the prediction result are lowered because the medical image itself has noise or there is uncertainty about the prediction result of the predictive model due to the small number of training data.

이에, 상술한 불확실성을 고려하여 예측 결과의 정확도 및 신뢰도를 향상시키기 위한 방법이 요구된다.Accordingly, a method for improving the accuracy and reliability of prediction results in consideration of the above uncertainty is required.

본 발명의 발명자들은 전문의가 육안으로 의료 영상을 확인하여 목적 부위 영역을 결정할 경우 결정된 영역에 대한 불확실성이 존재한다는 사실을 인식하였다.The inventors of the present invention have recognized the fact that, when a specialist visually checks a medical image to determine a target region region, there is uncertainty about the determined region.

또한, 본 발명의 발명자들은 기존의 예측 모델을 이용할 경우 예측 모델이 적은 수의 훈련 데이터를 이용하여 훈련한 모델이라면 예측 결과에 대한 불확실성이 존재한다는 사실을 인식하였다.In addition, the inventors of the present invention recognized that when using an existing predictive model, if the predictive model is a model trained using a small number of training data, uncertainty about the prediction result exists.

이에, 본 발명이 해결하고자 하는 과제는 레이블링을 위한 의료 영상을 선별하기 위한 액티브 러닝 기반 방법 및 장치를 제공하는 것이다. Accordingly, an object to be solved by the present invention is to provide an active learning-based method and apparatus for selecting medical images for labeling.

구체적으로, 본 발명이 해결하고자 하는 과제는 예측 결과에 대한 불확실성을 고려하여 인공신경망 모델의 성능을 향상시키기 위해 모델 학습을 위해 사용되는 레이블링을 위한 의료 영상을 선별하기 위한 방법 및 장치를 제공하는 것이다.Specifically, an object to be solved by the present invention is to provide a method and apparatus for selecting medical images for labeling used for model learning in order to improve the performance of an artificial neural network model in consideration of uncertainty in prediction results. .

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위하여 레이블링을 위한 의료 영상을 선별하기 위한 방법 및 장치가 제공된다.In order to solve the above problems, a method and apparatus for selecting a medical image for labeling are provided.

본 발명의 실시예에 따른 레이블링을 위한 의료 영상을 선별하기 위한 방법은, 촬영 장치로부터 피검자의 목적 부위를 촬영한 복수의 의료 영상을 획득하는 단계; 복수의 의료 영상을 기초로 목적 부위에 해당하는 적어도 하나의 영역을 예측하도록 학습된 예측 모델을 이용하여 복수의 의료 영상으로부터 상기 적어도 하나의 영역을 예측한 결과를 나타내는 예측 결과 데이터를 획득하는 단계; 획득된 예측 결과 데이터에 관한 불확실성 데이터를 산출하는 단계; 및 산출된 불확실성 데이터를 기초로 복수의 의료 영상으로부터 레이블링을 위한 의료 영상을 선별하는 단계를 포함한다.A method for selecting medical images for labeling according to an embodiment of the present invention includes acquiring a plurality of medical images of a target part of an examinee from a photographing device; obtaining prediction result data indicating a result of predicting at least one region from a plurality of medical images by using a prediction model learned to predict at least one region corresponding to a target region based on a plurality of medical images; Calculating uncertainty data about the obtained prediction result data; and selecting a medical image for labeling from a plurality of medical images based on the calculated uncertainty data.

본 발명의 실시예에 따른 불확실성 데이터는, 내재적 불확실성(Aleatoric uncertainty) 데이터를 포함하거나, 및 상기 내재적 불확실성 데이터 및 인식론적 불확실성(Epistemic uncertainty) 데이터 둘 다를 포함한다.Uncertainty data according to an embodiment of the present invention includes Aleatoric uncertainty data, and includes both the inherent uncertainty data and epistemic uncertainty data.

본 발명의 실시예에 따른 레이블링을 위한 의료 영상을 선별하는 단계는, 인식론적 불확실성 데이터에 관련된 의료 영상을 레이블링을 위한 의료 영상으로 결정하는 단계를 의미할 수 있다.The step of selecting a medical image for labeling according to an embodiment of the present invention may mean a step of determining a medical image related to epistemological uncertainty data as a medical image for labeling.

본 발명의 실시예에 따른 목적 부위는, 심장을 포함하고, 적어도 하나의 영역은, 좌심방, 좌심실, 우심방 및 우심실을 포함한다.The target site according to an embodiment of the present invention includes the heart, and at least one region includes a left atrium, a left ventricle, a right atrium, and a right ventricle.

본 발명의 실시예에 따른 예측 모델은, 복수의 대상자 각각의 적어도 하나의 의료 영상을 기초로 적어도 하나의 영역을 예측하도록 학습된 확률 모델의 모델 파라미터에 대한 예측 분포를 이용하여 구성된다.A prediction model according to an embodiment of the present invention is configured using a prediction distribution for model parameters of a probability model learned to predict at least one region based on at least one medical image of each of a plurality of subjects.

본 발명의 실시예에 따른 확률 모델은, 베이지안 신경 네트워크(Bayesian neural network)를 기반으로 할 수 있다.A probabilistic model according to an embodiment of the present invention may be based on a Bayesian neural network.

본 발명의 실시예에 따른 예측 모델은, 확률 모델에 의해서 계산된 모델 파라미터의 예측 분포가 적어도 하나의 영역의 클래스(class)를 추정하기 위한 계층(layer)에 반영되도록 구성된다.A predictive model according to an embodiment of the present invention is configured such that a predictive distribution of model parameters calculated by a probability model is reflected in a layer for estimating a class of at least one region.

본 발명의 실시예에 따른 예측 모델은, u-net으로 구성되고, 모델 파라미터의 예측 분포는 상기 예측 모델의 마지막 계층에 적용될 수 있다.A predictive model according to an embodiment of the present invention is composed of u-net, and a predictive distribution of model parameters may be applied to the last layer of the predictive model.

본 발명의 실시예에 따른 불확실성 데이터를 산출하는 단계는, 예측 결과 데이터의 불확실성에 대한 예측 분포의 분산값을 추정하는 단계를 의미할 수 있다. The step of calculating uncertainty data according to an embodiment of the present invention may refer to a step of estimating a variance value of a prediction distribution for uncertainty of prediction result data.

본 발명의 실시예에 따른 추정된 분산값은, 내재적 불확실성에 관한 제1 값 및 인식론적 불확실성에 관한 제2 값을 포함한다. The estimated variance value according to an embodiment of the present invention includes a first value for intrinsic uncertainty and a second value for epistemological uncertainty.

본 발명의 실시예에 따른 레이블링을 위한 의료 영상을 선별하는 단계는, 제2 값이 기 설정된 제1 임계값 이상에 해당하는 적어도 하나의 의료 영상을 레이블링을 위한 의료 영상으로 결정하는 단계를 의미할 수 있다. The step of selecting a medical image for labeling according to an embodiment of the present invention may refer to a step of determining at least one medical image having a second value equal to or greater than a preset first threshold as a medical image for labeling. can

본 발명의 실시예에 따른 레이블링을 위한 의료 영상을 선별하는 단계는, 제1 임계값 이상에 해당하는 적어도 하나의 의료 영상 중 최대값을 가지는 영상에서 최소값을 가지는 영상 순으로 정렬했을 때 최대값과의 차이가 기 설정된 제2 임계값보다 작은 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하는 단계를 의미할 수 있다. In the step of selecting medical images for labeling according to an embodiment of the present invention, when arranging in order from the image having the largest value to the image having the smallest value among at least one medical image corresponding to a first threshold or higher, the maximum value and the image This may refer to a step of determining a medical image in which a difference of is smaller than a preset second threshold as the medical image for the labeling.

본 발명의 실시예에 따른 레이블링을 위한 의료 영상을 선별하기 위한 장치는, 데이터를 송수신하도록 구성된 통신부; 및 통신부와 연결하도록 구성된 제어부를 포함하고, 제어부는, 통신부를 통해 촬영 장치로부터 피검자의 목적 부위를 촬영한 복수의 의료 영상을 획득하고, 복수의 의료 영상을 기초로 목적 부위에 해당하는 적어도 하나의 영역을 예측하도록 학습된 예측 모델을 이용하여 복수의 의료 영상으로부터 적어도 하나의 영역을 예측한 결과를 나타내는 예측 결과 데이터를 획득하고, 획득된 예측 결과 데이터에 관한 불확실성 데이터를 산출하고, 산출된 불확실성 데이터를 기초로 복수의 의료 영상으로부터 레이블링을 위한 의료 영상을 선별하도록 구성된다. An apparatus for selecting medical images for labeling according to an embodiment of the present invention includes a communication unit configured to transmit and receive data; and a control unit configured to be connected to the communication unit, wherein the control unit acquires a plurality of medical images obtained by capturing a target part of the subject from the photographing device through the communication unit, and obtains at least one medical image corresponding to the target part based on the plurality of medical images. Obtaining prediction result data representing a result of predicting at least one area from a plurality of medical images by using a prediction model learned to predict the area, calculating uncertainty data about the obtained prediction result data, and calculating the uncertainty data It is configured to select a medical image for labeling from a plurality of medical images based on.

본 발명의 실시예에 따른 제어부는, 상기 인식론적 불확실성 데이터를 포함하는 의료 영상을 레이블링을 위한 의료 영상으로 결정하도록 구성된다.The controller according to an embodiment of the present invention is configured to determine a medical image including the epistemological uncertainty data as a medical image for labeling.

본 발명의 실시예에 따른 제어부는, 예측 결과 데이터의 불확실성에 대한 예측 분포의 분산값을 추정하도록 구성된다. The control unit according to an embodiment of the present invention is configured to estimate a variance value of a prediction distribution for uncertainty of prediction result data.

본 발명의 실시예에 따른 제어부는, 제2 값이 기 설정된 임계값 이상에 해당하는 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하도록 구성된다.The control unit according to an embodiment of the present invention is configured to determine, as the medical image for labeling, a medical image having a second value equal to or greater than a preset threshold.

본 발명의 실시예에 따른 제어부는, 제1 임계값 이상에 해당하는 적어도 하나의 의료 영상 중 최대값을 가지는 영상에서 최소값을 가지는 영상 순으로 정렬했을 때 최대값과의 차이가 기 설정된 제2 임계값보다 작은 의료 영상을 레이블링을 위한 의료 영상으로 결정하도록 구성된다. The control unit according to an embodiment of the present invention may set a difference from the maximum value when the image having the maximum value to the image having the minimum value among at least one medical image corresponding to the first threshold value or higher is arranged in order. and determine a medical image smaller than the value as a medical image for labeling.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other embodiment specifics are included in the detailed description and drawings.

본 발명은 불확실성 데이터에 기반하여 모델 학습을 위한 입력 영상에서 레이블링을 위한 입력 영상을 선별함으로써, 액티브 러닝 기반 모델의 개선된 예측 결과를 제공할 수 있다.The present invention can provide an improved prediction result of an active learning-based model by selecting an input image for labeling from an input image for model learning based on uncertainty data.

또한, 본 발명은 액티브 러닝을 위한 입력 영상 중 인식론적 불확실성이 큰 의료 영상을 레이블링을 위한 의료 영상으로 선별하여 선별된 의료 영상을 레이블링하고, 이를 입력으로 예측 모델을 학습함으로써, 모델 성능을 향상시키고, 정확성 및 신뢰성이 개선된 예측 결과를 제공할 수 있다.In addition, the present invention selects a medical image with large epistemic uncertainty among input images for active learning as a medical image for labeling, labels the selected medical image, and learns a predictive model using the selected medical image as an input, thereby improving model performance. , can provide prediction results with improved accuracy and reliability.

또한, 본 발명은 예측 모델을 이용하여 목적 부위의 각 영역을 예측하는데 소요되는 인적 자원 및 시간을 최소화할 수 있다.In addition, the present invention can minimize human resources and time required to predict each region of the target site using a predictive model.

본 발명에 따른 효과는 이상에서 예시한 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 실시예에 따른 시스템을 설명하기 위한 개략도이다.
도 2는 본 발명의 실시예에 따른 전자 장치의 개략적인 블록도이다.
도 3은 본 발명의 실시예에 따른 인공신경망 모델을 이용하여 레이블링을 위한 의료 영상을 선별하는 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 실시예에 따른 예측 모델을 나타내는 예시도이다.
도 5는 본 발명의 실시예에 따른 레이블링을 위한 의료 영상을 선별하기 위한 방법을 설명하기 위한 흐름도이다.
도 6 및 도 7은 본 발명의 실시예에 따라 입력 영상의 불확실성을 정량화한 결과를 나타내는 예시도들이다.
1 is a schematic diagram for explaining a system according to an embodiment of the present invention.
2 is a schematic block diagram of an electronic device according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a method of selecting a medical image for labeling using an artificial neural network model according to an embodiment of the present invention.
4 is an exemplary diagram illustrating a predictive model according to an embodiment of the present invention.
5 is a flowchart illustrating a method for selecting medical images for labeling according to an embodiment of the present invention.
6 and 7 are exemplary diagrams illustrating results of quantifying uncertainty of an input image according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various forms different from each other, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, like reference numerals may be used for like elements.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has," "may have," "includes," or "may include" indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document may modify various elements, regardless of order and/or importance, and refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first element may be named a second element, and similarly, the second element may also be renamed to the first element.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, third components) do not exist between the other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression "configured to" means "suitable for," "having the capacity to," depending on the circumstances. ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (e.g., embedded processor) to perform those operations, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, an ideal or excessively formal meaning. not be interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or entirely combined or combined with each other, and as those skilled in the art can fully understand, various interlocking and driving operations are possible, and each embodiment can be implemented independently of each other. It may be possible to implement together in an association relationship.

본 명세서에서 영상(image)은 정지 화상(still image) 및/또는 동영상(video)일 수 있으나, 이에 한정되지 않으며, 2차원 영상 또는 3차원 영상(즉, 3차원 볼륨(volume) 영상)일 수도 있다.In this specification, an image may be a still image and/or a video, but is not limited thereto, and may be a 2D image or a 3D image (ie, a 3D volume image). there is.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 시스템을 설명하기 위한 개략도이다.1 is a schematic diagram for explaining a system according to an embodiment of the present invention.

도 1을 참조하면, 시스템(100)은 피검자의 목적 부위를 촬영한 의료 영상을 기반으로 목적 부위에 해당하는 적어도 하나의 영역을 예측한 결과를 제공하기 위한 시스템이다. 여기서, 의료 영상은 피검자의 목적 부위를 촬영한 영상으로, 엑스레이(x-ray) 영상, 초음파(ultrasonography) 영상 CT(Computer Tomography) 영상, 혈관조영 촬영(Angiography) 영상, 양전자 방출 단층 촬영(PET-CT) 영상, MRI(Magnetic Resonance Imaging) 영상 등일 수 있으나, 이에 한정되지 않는다. 목적 부위는 피검자의 특정 신체 부위로서, 심장, 폐, 기관지, 간, 피부, 요관, 요도, 고환, 질, 항문, 후두선, 난소, 갑상선, 식도, 비인두선, 뇌하수체, 타액선, 전립선, 췌장, 부신, 림프절, 비장, 뇌, 정맥류, 근골격계, 부비동, 척수, 신장, 입, 입술, 인후, 구강, 비강, 소장, 결장, 부갑상선, 담낭, 두경부, 유방, 골, 담관, 자궁경부, 심장, 및/또는 하인두선 등일 수 있으나, 이에 한정되지 않는다. Referring to FIG. 1 , a system 100 is a system for providing a result of predicting at least one region corresponding to a target region based on a medical image of a target region of a subject. Here, the medical image is an image taken of the target area of the subject, such as an x-ray image, an ultrasound image, a CT (Computer Tomography) image, an angiography image, and a positron emission tomography (PET- It may be a CT) image, a Magnetic Resonance Imaging (MRI) image, etc., but is not limited thereto. The target site is a specific body part of the subject, such as the heart, lungs, bronchus, liver, skin, ureter, urethra, testicles, vagina, anus, laryngeal gland, ovary, thyroid gland, esophagus, nasopharyngeal gland, pituitary gland, salivary gland, prostate, pancreas, adrenals, lymph nodes, spleen, brain, varicose veins, musculoskeletal system, paranasal sinuses, spinal cord, kidneys, mouth, lips, throat, oral cavity, nasal cavity, small intestine, colon, parathyroid gland, gallbladder, head and neck, breast, bone, bile duct, cervix, heart, and / or may be the hypopharyngeal gland, etc., but is not limited thereto.

먼저, 촬영 장치(110)는 피검자의 목적 부위를 촬영한 복수의 의료 영상을 제공하기 위한 엑스레이 촬영 장치, 초음파 촬영 장치, CT 촬영 장치, 혈관조영 촬영 장치, 양전자 방출 단층 촬영 장치, 및/또는 MRI 장치 등일 수 있다. First, the imaging device 110 includes an X-ray imaging device, an ultrasound imaging device, a CT imaging device, an angiography imaging device, a positron emission tomography device, and/or an MRI device for providing a plurality of medical images of a target area of a subject. device or the like.

다음으로, 전자 장치(120)는 촬영 장치(110)로부터 제공된 복수의 의료 영상으로부터 레이블링(labeling)을 위한 영상을 선별하기 위한 태블릿 PC, 노트북 및/또는 PC 등 중 적어도 하나일 수 있다. Next, the electronic device 120 may be at least one of a tablet PC, a laptop computer, and/or a PC for selecting an image for labeling from a plurality of medical images provided from the photographing device 110 .

구체적으로, 전자 장치(120)는 복수의 의료 영상으로부터 대상자의 목적 부위의 적어도 하나의 영역을 예측한 예측 결과에 기반하여 불확실성을 추정하고, 추정된 불확실성을 기초로 복수의 의료 영상으로부터 레이블링을 위한 의료 영상을 선별할 수 있다. In detail, the electronic device 120 estimates uncertainty based on a prediction result of predicting at least one region of the subject's target region from a plurality of medical images, and uses the plurality of medical images for labeling based on the estimated uncertainty. Medical images can be selected.

목적 부위의 적어도 하나의 영역을 예측하고, 예측 결과에 대한 불확실성 데이터를 획득하기 위해 전자 장치(120)는 적어도 하나의 인공신경망 모델 또는 알고리즘을 이용할 수 있으나, 이에 한정되지 않는다.The electronic device 120 may use at least one artificial neural network model or algorithm to predict at least one region of the target region and obtain uncertainty data for the prediction result, but is not limited thereto.

나아가, 전자 장치(120)는 목적 부위의 적어도 하나의 영역에 대한 병변을 예측하고, 예측된 병변에 대한 불확실성 데이터를 획득할 수도 있으나, 이에 한정되지 않는다.Furthermore, the electronic device 120 may predict a lesion for at least one region of the target site and acquire uncertainty data for the predicted lesion, but is not limited thereto.

제시된 실시예에서는 촬영 장치(110) 및 전자 장치(120)가 각각의 장치로서 구현된 경우를 설명하였으나, 이에 한정되지 않으며, 촬영 장치(110) 및 전자 장치(120)는 하나의 장치로서 구현될 수도 있다.In the presented embodiment, the case where the photographing device 110 and the electronic device 120 are implemented as separate devices has been described, but is not limited thereto, and the photographing device 110 and the electronic device 120 may be implemented as one device. may be

하기에서는 도 2를 참조하여 전자 장치(120)에 대해서 보다 구체적으로 설명하도록 한다.In the following, the electronic device 120 will be described in more detail with reference to FIG. 2 .

도 2는 본 발명의 실시예에 따른 전자 장치의 개략적인 블록도이다.2 is a schematic block diagram of an electronic device according to an embodiment of the present invention.

도 2를 참조하면, 전자 장치(200)는 통신부(210), 저장부(220), 표시부(230), 및 제어부(240)를 포함한다. 다양한 실시예에서 표시부(230)는 선택적으로 구비될 수 있다. 제시된 실시예에서 전자 장치(200)는 도 1의 전자 장치(120)를 의미할 수 있다.Referring to FIG. 2 , the electronic device 200 includes a communication unit 210, a storage unit 220, a display unit 230, and a control unit 240. In various embodiments, the display unit 230 may be selectively provided. In the presented embodiment, the electronic device 200 may mean the electronic device 120 of FIG. 1 .

통신부(210)는 전자 장치(200)가 외부 장치와 통신이 가능하도록 연결한다. 통신부(210)는 유/무선 통신을 이용하여 촬영 장치(110)와 연결되어 피검자에 대한 적어도 하나의 의료 영상을 수신할 수 있다. The communication unit 210 connects the electronic device 200 to enable communication with an external device. The communication unit 210 may be connected to the photographing device 110 using wired/wireless communication to receive at least one medical image of the subject.

저장부(220)는 복수의 의료 영상을 기초로 피검자의 목적 부위의 적어도 하나의 영역을 예측한 결과에 대한 불확실성을 추정하고, 추정된 불확실성을 기초로 레이블링을 위한 의료 영상을 선별하기 위해 다양한 데이터를 저장할 수 있다. The storage unit 220 estimates uncertainty of a result of predicting at least one region of the subject's target region based on a plurality of medical images, and selects various data for labeling based on the estimated uncertainty. can be saved.

다양한 실시예에서 저장부(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 장치(200)는 인터넷(internet)상에서 상기 저장부(220)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.In various embodiments, the storage unit 220 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg SD or XD). memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. The electronic device 200 may operate in relation to a web storage that performs the storage function of the storage unit 220 on the Internet.

표시부(230)는 사용자에게 각종 콘텐츠를 표시할 수 있다. 예를 들어, 표시부(230)는 적어도 하나의 의료 영상을 표시하고, 또는, 예측 결과 데이터를 표시할 수 있다. The display unit 230 may display various contents to the user. For example, the display unit 230 may display at least one medical image or prediction result data.

다양한 실시예에서 표시부(230)는 터치스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치(touch), 제스처(gesture), 근접, 드래그(drag), 스와이프(swipe) 또는 호버링(hovering) 입력 등을 수신할 수 있다.In various embodiments, the display unit 230 may include a touch screen, and for example, a touch using an electronic pen or a part of the user's body, a gesture, a proximity, a drag, or a swipe A swipe or hovering input may be received.

제어부(240)는 통신부(210), 저장부(220), 및 표시부(230)와 동작 가능하게 연결되며, 피검자의 복수의 의료 영상에 기초로 피검자의 목적 부위의 적어도 하나의 영역을 예측한 결과에 대한 불확실성을 추정하고, 추정된 불확실성을 기초로 레이블링을 위한 의료 영상을 선별하기 위한 다양한 명령들을 수행할 수 있다. The control unit 240 is operatively connected to the communication unit 210, the storage unit 220, and the display unit 230, and results of predicting at least one region of the subject's target area based on a plurality of medical images of the subject. It is possible to estimate an uncertainty for , and perform various commands for selecting a medical image for labeling based on the estimated uncertainty.

제어부(240)는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 어플리케이션 프로세서(AP), 디지털 신호 처리 장치(DSP), 산술 논리 연산 장치(ALU) 및 인공신경망 프로세서(NPU) 중 적어도 하나를 포함하도록 구성될 수 있다. The control unit 240 includes at least one of a central processing unit (CPU), a graphics processing unit (GPU), an application processor (AP), a digital signal processing unit (DSP), an arithmetic logic unit (ALU), and an artificial neural network processor (NPU). It can be configured to include.

구체적으로, 제어부(240)는 통신부(210)를 통해 촬영 장치(110)로부터 피검자의 목적 부위를 촬영한 적어도 하나의 의료 영상을 획득하고, 적어도 하나의 의료 영상을 기초로 상기 목적 부위에 해당하는 적어도 하나의 영역을 예측하도록 학습된 예측 모델을 이용하여 적어도 하나의 의료 영상으로부터 목적 부위에 대한 적어도 하나의 영역을 예측한 예측 결과 데이터를 획득한다. 나아가, 제어부(240)는 획득된 예측 결과 데이터에 관한 불확실성 데이터를 산출하고, 산출된 불확실성 데이터를 기초로 복수의 의료 영상으로부터 레이블링을 위한 의료 영상을 선별할 수 있다. 여기서, 예측 결과 데이터는 예측 모델에 의해서 예측된 적어도 하나의 영역을 분할화(segmentation)한 마스크 영역을 포함하는 분할 영상을 포함할 수 있으며, 나아가, 예측된 각 영역의 클래스(class) 및 예측된 각 영역에 대한 정확도 중 적어도 하나를 더 포함할 수 있다.Specifically, the control unit 240 obtains at least one medical image of a target part of the subject from the photographing device 110 through the communication unit 210, and obtains at least one medical image corresponding to the target part based on the at least one medical image. Prediction result data obtained by predicting at least one region of a target region from at least one medical image by using a prediction model learned to predict at least one region is acquired. Furthermore, the controller 240 may calculate uncertainty data related to the obtained prediction result data, and select a medical image for labeling from a plurality of medical images based on the calculated uncertainty data. Here, the prediction result data may include a segmented image including a mask region obtained by segmenting at least one region predicted by the prediction model, and furthermore, the class of each predicted region and the predicted segmented image. At least one of accuracies for each region may be further included.

일반적으로, 영상은 촬영 장치 자체 또는 움직임 등에 의해서 발생되는 노이즈를 포함할 수 있다. 예측 모델에 이러한 노이즈가 포함된 영상이 입력될 경우 예측 결과가 부정확할 수 있으며, 이에 따라 해당 예측 모델의 신뢰성이 떨어질 수 있다. 이를 예측에 대한 내재적 불확실성(Aleatoric uncertainty)이라고 할 수 있다.In general, an image may include noise generated by a photographing device itself or motion. When an image including such noise is input to a predictive model, a predictive result may be inaccurate, and thus the reliability of the predictive model may decrease. This can be called Aleatoric uncertainty about prediction.

뿐만 아니라, 예측 모델의 훈련을 위한 참조 영상의 수가 적거나, 모델의 파라미터에 의해서 예측 모델의 예측 결과가 부정확할 수 있으며, 이에 따라 해당 예측 모델의 신뢰성이 떨어질 수 있다. 이를 예측에 대한 인식론적 불확실성(Epistemic uncertainty)이라고 할 수 있다. In addition, the prediction result of the predictive model may be inaccurate due to the small number of reference images for training the predictive model or the parameters of the model, and thus the reliability of the predictive model may decrease. This can be called epistemic uncertainty about prediction.

상기에서 언급한 영상의 노이즈는 영상 고유한 무작위성에 의한 것이므로, 데이터 전처리(pre-processing)에 의해서 일부 줄일 수 있으나, 초음파 촬영 장치, CT 촬영 장치 및 MRI 촬영 장치 등을 통해 촬영된 의료 영상의 경우 노이즈를 완전히 제거하는데 한계가 있다. 특히, 심장은 4개의 방(좌심방, 우심방, 좌심실 및 우심실)으로 이루어지고, 방과 방 사이에는 혈액 소통을 위해 적절한 개폐 기능을 하는 판막(valve)으로 이루어진다. 이러한 심장 판박은 두께가 매우 얇기 때문에, 판박을 촬영할 경우 의료 영상은 높은 노이즈를 가지거나 판박 부분이 흐리게 촬영될 수 있다. The noise of the image mentioned above is due to the inherent randomness of the image, so it can be partially reduced by data pre-processing, but in the case of medical images taken through ultrasound imaging devices, CT imaging devices, MRI imaging devices There is a limit to completely removing noise. In particular, the heart is composed of four chambers (left atrium, right atrium, left ventricle, and right ventricle), and between the chambers there are valves that open and close appropriately for blood communication. Since the thickness of such a heart plate is very thin, a medical image may have high noise or a blurred part of the plate may be captured when taking a picture of the plate.

다만, 예측 모델의 파라미터에 대한 인식론적 불확실성은 추가적인 훈련 데이터의 수집 및 학습을 통해 줄일 수 있으므로, 예측 모델의 예측 결과의 정확성 및 신뢰성을 보다 향상시키기 위해 인식론적 불확실성을 최소화하기 위한 방법이 요구되었다. However, since the epistemological uncertainty of the parameters of the predictive model can be reduced through the collection and learning of additional training data, a method for minimizing the epistemological uncertainty has been required to further improve the accuracy and reliability of the prediction results of the predictive model. .

이를 위해 모든 훈련 데이터가 레이블링되고, 레이블링된 데이터를 기반으로 예측 모델이 학습된다면 예측 모델의 성능은 크게 향상될 수 있을 것이다. 그러나, 사용되는 훈련 데이터의 수가 굉장히 많기 때문에, 이를 모두 레이블링할 경우 레이블링을 위한 많은 수의 전문 인력이 필요할 뿐만 아니라, 소요되는 시간 및 비용이 커지게 된다.To this end, if all training data is labeled and a predictive model is learned based on the labeled data, the performance of the predictive model can be greatly improved. However, since the number of training data used is very large, labeling all of them not only requires a large number of experts for labeling, but also increases the time and cost required.

이에, 훈련 데이터 중 일부분만 레이블링을 수행하고, 레이블링된 일부분의 훈련 데이터를 기반으로 예측 모델을 학습시킴으로써, 예측 모델의 성능을 향상시키기 위한 방법이 요구된다.Accordingly, there is a need for a method for improving performance of a prediction model by performing labeling on only a portion of training data and learning a prediction model based on the labeled portion of training data.

이를 위해 제어부(240)는 액티브 러닝(active learning) 방식을 이용하여 예측 모델의 예측 결과 데이터에 대한 불확실성 데이터를 추정하고, 추정된 불확실성 데이터 중 인식론적 불확실성 데이터를 이용하여 복수의 의료 영상에서 레이블링하기 위한 의료 영상을 선별할 수 있다. To this end, the control unit 240 estimates uncertainty data for prediction result data of the predictive model using an active learning method, and labels a plurality of medical images using epistemological uncertainty data among the estimated uncertainty data. medical images can be selected for

하기에서는 상술한 제어부(240)의 동작에 대해서 도 3 내지 도 4를 참조하여 구체적으로 설명하도록 한다.In the following, the operation of the controller 240 described above will be described in detail with reference to FIGS. 3 and 4 .

도 3은 본 발명의 실시예에 따른 인공신경망 모델을 이용하여 레이블링을 위한 의료 영상을 선별하는 방법을 설명하기 위한 예시도이다. 제시된 실시예에서는 목적 부위를 심장으로 설명하도록 한다.3 is an exemplary diagram for explaining a method of selecting a medical image for labeling using an artificial neural network model according to an embodiment of the present invention. In the presented embodiment, the target site is described as the heart.

도 3을 참조하면, 제어부(240)는 복수의 의료 영상(300)을 입력으로 심장에 해당하는 복수의 영역을 예측하도록 학습된 예측 모델(310)을 이용하여 복수의 영역을 예측한 예측 결과 데이터(320)를 획득할 수 있다. 여기서, 심장에 해당하는 복수의 영역은 좌심방, 좌심실, 우심방 및 우심실일 수 있다. Referring to FIG. 3 , the controller 240 predicts a plurality of regions by using a prediction model 310 trained to predict a plurality of regions corresponding to the heart by inputting a plurality of medical images 300, and predicts result data. (320) can be obtained. Here, the plurality of regions corresponding to the heart may be left atrium, left ventricle, right atrium, and right ventricle.

예측 모델(310)은 복수의 의료 영상(300)을 기초로 심장에 해당하는 복수의 영역을 예측하도록 학습된 인공신경망 모델로서, 복수의 참조 영상으로 미리 학습하고, 새롭게 입력되는 복수의 의료 영상(300)으로부터 복수의 영역을 예측하도록 구성될 수 있다. 여기서, 복수의 참조 영상은 복수의 대상자 각각의 심장을 촬영한 복수의 의료 영상일 수 있다. 나아가, 예측 모델(310)은 영상 분할화(image segmentation)를 위한 인공신경망 모델일 수도 있다.The predictive model 310 is an artificial neural network model trained to predict a plurality of regions corresponding to the heart based on a plurality of medical images 300, which is pre-learned from a plurality of reference images and a plurality of newly input medical images ( 300) to predict a plurality of regions. Here, the plurality of reference images may be a plurality of medical images obtained by photographing the heart of each of a plurality of subjects. Furthermore, the prediction model 310 may be an artificial neural network model for image segmentation.

앞서 언급한 바와 같이 제어부(240)가 인식론적 불확실성 데이터를 이용하여 레이블링하기 위한 의료 영상을 결정하기 위해서는 불확실성 데이터를 내재적 불확실성 데이터와 인식론적 불확실성 데이터로 구분할 필요가 있다. As mentioned above, in order for the control unit 240 to determine a medical image to be labeled using epistemological uncertainty data, it is necessary to divide the uncertainty data into intrinsic uncertainty data and epistemological uncertainty data.

이를 위해 예측 모델(310)은 복수의 참조 영상을 기초로 목적 부위의 적어도 하나의 영역을 예측하도록 학습된 확률 모델의 모델 파라미터에 대한 예측 분포가 적어도 일부에 반영될 수 있다. To this end, in the predictive model 310 , a prediction distribution for model parameters of a probability model learned to predict at least one region of the target region based on a plurality of reference images may be reflected in at least a part.

모델 파라미터의 예측 분포를 계산하기 위해 확률 모델은 베이지안 신경망을 기반으로 구성될 수 있으나, 이에 한정되지 않는다.A probabilistic model may be constructed based on a Bayesian neural network to calculate the predicted distribution of model parameters, but is not limited thereto.

구체적으로, 베이지안 신경망은 훈련을 위해 사용되는 복수의 참조 영상을 기초로 목적 부위에 대한 적어도 하나의 영역을 예측한 예측 결과를 출력했을 때 이에 이용된 모델 파라미터에 대한 예측 분포를 나타내는 모델 파라미터의 사후 예측 분포(posterior predictive distribution)를 계산한다. 사후 예측 분포를 계산하기 위해서는 모델 파라미터의 예측 분포를 나타내는 사전 예측 분포(prior predictive distribution) 및 입력 영상과 모델 파라미터를 이용하여 출력된 예측 결과의 예측 분포를 나타내는 우도 예측 분포(likelihood predictive distribution)가 이용된다.Specifically, when the Bayesian neural network outputs a prediction result of predicting at least one region for a target region based on a plurality of reference images used for training, the posterior of the model parameters representing the prediction distribution for the model parameters used therein. Compute the posterior predictive distribution. To calculate the posterior predictive distribution, a prior predictive distribution representing the predicted distribution of model parameters and a likelihood predictive distribution representing the predicted distribution of prediction results output using the input image and model parameters are used. do.

다만, 일반적으로 사후 분포를 계산하는데 어려움이 있으므로, 변분 추론(variational inference)을 통해 근사값을 구할 수 있다. 다시 말해서, 변분 분포(variational distribution)에 의해 사후 예측 분포가 근사화될 수 있다.However, since it is generally difficult to calculate the posterior distribution, an approximate value can be obtained through variational inference. In other words, the posterior predictive distribution can be approximated by a variational distribution.

모델 파라미터에 대한 사후 예측 분포의 근사값을 구하기 위해 베이지안 신경망은 변분 분포와 사후 예측 분포 사이의 차이를 산출하고, 이를 최소화함으로써, 변분 분포를 사후 예측 분포로 근사화할 수 있다. 여기서, 차이는 '쿨백-라이블러 발산(Kullback-Leibler divergence)라고 한다.To obtain an approximation of the posterior prediction distribution for model parameters, the Bayesian neural network calculates the difference between the variance distribution and the posterior prediction distribution, and minimizes the difference, thereby approximating the variance distribution to the posterior prediction distribution. Here, the difference is called the 'Kullback-Leibler divergence'.

이와 같이 변분 분포와 사후 예측 분포 사이의 차이를 최소화하기 위해 베이지안 신경망은 변분 하한을 이용한다. 베이지안 신경망은 변분 하한을 최대화함으로써, 변분 분포와 사후 예측 분포 사이의 차이를 최소화할 수 있다. 여기서, 변분 하한은 ELBO(Evidence Lower Bound)를 의미한다. In this way, to minimize the difference between the variance distribution and the posterior prediction distribution, the Bayesian neural network uses a variance lower bound. Bayesian neural networks can minimize the difference between the variance distribution and the posterior prediction distribution by maximizing the lower variance limit. Here, the variation lower bound means ELBO (Evidence Lower Bound).

이와 같이 변분 하한이 최대화되어 변분 분포와 사후 예측 분포 사이의 차이가 최소화하되고, 이를 통해 사후 예측 분포에 대한 근사값이 구해짐으로써, 모델 파라미터의 사후 예측 분포가 계산될 수 있다.In this way, the lower limit of the variance is maximized to minimize the difference between the variance distribution and the posterior prediction distribution, and through this, an approximate value for the posterior prediction distribution is obtained, so that the posterior prediction distribution of the model parameters can be calculated.

이와 같이 계산된 사후 예측 분포가 적용된 예측 모델(310)이 생성될 수 있다.A predictive model 310 to which the calculated posterior predictive distribution is applied may be generated.

이에 대해서 구체적으로 도 4를 참조하여 설명하도록 한다. This will be described in detail with reference to FIG. 4 .

도 4는 본 발명의 실시예에 따른 예측 모델을 나타내는 예시도이다.4 is an exemplary diagram illustrating a predictive model according to an embodiment of the present invention.

도 4를 참조하면, 예측 모델(400)은 u-net을 기반으로 구성된다. 이러한 예측 모델(400)은 수축 경로(405) 및 확장 경로(410)를 포함한다. Referring to FIG. 4 , a predictive model 400 is configured based on u-net. This predictive model 400 includes a contraction path 405 and an expansion path 410 .

수축 경로(405)는 일반적인 합성곱 신경망(convolution networks)을 기반으로 하는데, 입력 값에 대해 합성곱 연산, 선형 함수 및 다운샘플링(down-sampling)을 위한 하나 이상의 계층들을 포함한다. The contraction path 405 is based on general convolution networks, and includes one or more layers for convolution operations, linear functions, and down-sampling on input values.

확장 경로(410)는 특징맵의 크기를 확장시키기 위해 업샘플링(up-sampling)을 위한 합성곱 연산 및 선형 함수를 위한 하나 이상의 계층들을 포함한다. The extension path 410 includes one or more layers for a linear function and a convolution operation for up-sampling to increase the size of a feature map.

수축 경로(405)에서는 특징맵 수축을 위해 각 수축 단계마다 3x3 합성곱 연산이 기 설정된 횟수만큼 수행되고(415), 다운샘플링 연산이 수행된다(420). 이를 통해 특징맵(425)의 크기가 줄어들면서 채널 수가 증가된다.In the contraction path 405, a 3x3 convolution operation is performed a preset number of times for each contraction step (415), and a downsampling operation is performed (420) for feature map contraction. Through this, the size of the feature map 425 is reduced and the number of channels is increased.

확장 경로(410)에서는 특징맵 확장을 위해 각 확장 단계마다 3x3 합성곱 연산이 기 설정된 횟수만큼 수행되고(430), 업샘플링을 위한 업-컨볼루션 연산이 수행된다(435). 이를 통해 특징맵(440)의 크기가 늘어나면서 채널 수가 줄어든다.In the extension path 410, a 3x3 convolution operation is performed a predetermined number of times in each extension step to extend the feature map (430), and an up-convolution operation for upsampling is performed (435). Through this, the size of the feature map 440 increases and the number of channels decreases.

더욱이, 확장 경로(410)의 각 확장 단계에서의 특징맵은 각 확장 단계마다 수축 경로(405)의 각 수축 단계에서 합성곱 연산으로 줄어든 크기만큼 크롭(crop)된 특징맵과 병합된다(445).Moreover, the feature map at each expansion step of the expansion path 410 is merged with the feature map cropped by the size reduced by the convolution operation at each contraction stage of the contraction path 405 at each expansion step (445). .

확장 경로(410)의 마지막 계층은 각 채널의 정보를 클래스 점수로 추정하기 위한 계층으로, 이 계층에는 의료 영상의 모든 화소 내에 포함된 불확실성을 획득하기 위한 필터(450)가 배치된다. 이러한 필터(450)는 예측된 각 영역에 대한 불확실성을 계산하기 위해 모델 파라미터에 대한 계산된 예측 분포(즉, 사후 예측 분포)가 반영된다. 이러한 마지막 계층은 예측 결과에 대한 불확실성을 획득하기 위해 1x1 합성곱 연산 및 활성 함수(sigmoid)를 위한 하나 이상의 계층들을 포함할 수 있다.The last layer of the extension path 410 is a layer for estimating information of each channel as a class score, and a filter 450 for obtaining uncertainty included in all pixels of a medical image is disposed in this layer. This filter 450 reflects the computed prediction distribution for the model parameters (i.e., posterior prediction distribution) to calculate the uncertainty for each predicted region. This last layer may include one or more layers for the 1x1 convolution operation and activation function (sigmoid) to obtain uncertainty about the prediction result.

다시 도 3을 참조하면, 제어부(240)는 확률 모델의 모델 파라미터에 대한 예측 분포가 반영된 예측 모델(310)을 이용하여 목적 부위의 적어도 하나의 영역을 예측한 예측 결과 데이터를 획득하고(320), 획득된 예측 결과 데이터에 대한 불확실성 데이터를 추정할 수 있다(330).Referring back to FIG. 3 , the control unit 240 obtains prediction result data obtained by predicting at least one region of the target region using the prediction model 310 in which the prediction distribution of the model parameters of the probability model is reflected (320). , it is possible to estimate uncertainty data for the obtained prediction result data (330).

불확실성 데이터를 추정하기 위해 제어부(240)는 앞서 언급한 베이지안 방식을 이용하여 예측 결과 데이터가 정답일 확률을 추정한다. 구체적으로, 제어부(240)는 예측 결과 데이터가 정답일 확률에 대한 예측 분포의 분산을 다음과 같은 <수학식 1>로 추정할 수 있다.In order to estimate the uncertainty data, the control unit 240 estimates the probability that the prediction result data is correct using the Bayesian method mentioned above. Specifically, the control unit 240 may estimate the variance of the prediction distribution for the probability that the prediction result data is correct using Equation 1 below.

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
는 내재적 불확실성에 관한 제1 값이고,
Figure pat00003
는 인식론적 불확실성에 관한 제2 값을 의미한다. 이어서, x는 입력 영상이고, y*는 원-핫 인코딩된 카테고리형 출력(one-hot encoded categorical output)이며,
Figure pat00004
는 변분 분포(variational distribution)를 의미한다. 또한,
Figure pat00005
는 베이지안 신경망의 출력이고, T는 MC 샘플의 개수를 의미한다.here,
Figure pat00002
is the first value for the inherent uncertainty,
Figure pat00003
denotes a second value for epistemological uncertainty. Then, x is the input image, y* is the one-hot encoded categorical output,
Figure pat00004
means a variational distribution. also,
Figure pat00005
is the output of the Bayesian neural network, and T is the number of MC samples.

이처럼 추정된 예측 분포의 분산을 통해서 예측 결과 데이터에 대한 내재적 불확실성 데이터 및 인식론적 불확실성 데이터가 구분될 수 있다.In this way, through the variance of the estimated prediction distribution, the inherent uncertainty data and epistemological uncertainty data of the prediction result data can be distinguished.

제어부(240)는 이러한 <수학식 1>에 의해서 추정된 예측 분포의 분산을 기반으로 복수의 영상 중 레이블링을 위한 의료 영상을 선별한다(340). The controller 240 selects a medical image for labeling from among a plurality of images based on the variance of the predicted distribution estimated by Equation 1 (340).

구체적으로, 제어부(240)는 이러한 <수학식 1>에 의해서 추정된 예측 분포의 분산값 중 제2 값이 기 설정된 제1 임계값 이상에 해당하는 적어도 하나의 의료 영상을 레이블링을 위한 의료 영상으로 결정할 수 있다. 다시 말해서, 제어부(240)는 복수의 의료 영상을 기반으로 예측 모델(310)에 의해 예측된 결과에 대한 불확실성 데이터 중 기 설정된 크기 이상의 인식론적 불확실성 데이터를 가지는 예측 결과에 관련된 의료 영상을 레이블링을 위한 의료 영상으로 선별할 수 있다. Specifically, the controller 240 sets at least one medical image for which the second value of the variance of the predicted distribution estimated by Equation 1 is greater than or equal to a preset first threshold value as a medical image for labeling. can decide In other words, the control unit 240 may label a medical image related to a prediction result having epistemological uncertainty data of a predetermined size or more among uncertainty data for a result predicted by the predictive model 310 based on a plurality of medical images. It can be screened with medical imaging.

나아가, 제어부(240)는 제2 값이 임계값 이상에 해당하는 의료 영상들 중 최대값을 가지는 영상에서 최소값을 가지는 영상 순으로 정렬했을 때 최대값과의 차이가 기 설정된 제2 임계값보다 작은 의료 영상을 레이블링을 위한 의료 영상으로 결정할 수도 있다.Furthermore, the controller 240 determines that the difference from the maximum value is less than a preset second threshold value when the second value is arranged in the order from the image having the maximum value to the image having the minimum value among medical images corresponding to a threshold value or higher. A medical image may be determined as a medical image for labeling.

이처럼, 액티브 러닝을 위한 입력 영상 중 인식론적 불확실성이 큰 의료 영상을 레이블링을 위한 의료 영상으로 선별하여 선별된 의료 영상을 레이블링하고, 이를 입력으로 예측 모델을 학습함으로써, 모델 성능을 향상시키고, 정확성 및 신뢰성이 개선된 예측 결과를 제공할 수 있다.In this way, among the input images for active learning, medical images with large epistemic uncertainty are selected as medical images for labeling, the selected medical images are labeled, and the predictive model is trained with the selected medical images as inputs, thereby improving model performance, accuracy and It can provide prediction results with improved reliability.

하기에서는 도 5를 참조하여 예측 모델의 예측 결과에 기반하여 레이블링을 위한 의료 영상을 선별하기 위한 방법을 설명하도록 한다.In the following, a method for selecting a medical image for labeling based on a prediction result of a predictive model will be described with reference to FIG. 5 .

도 5는 본 발명의 실시예에 따른 레이블링을 위한 의료 영상을 선별하기 위한 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method for selecting medical images for labeling according to an embodiment of the present invention.

도 5를 참조하면, 제어부(240)는 촬영 장치(110)로부터 피검자의 목적 부위를 촬영한 복수의 의료 영상을 획득한다(S500).Referring to FIG. 5 , the controller 240 acquires a plurality of medical images of a target part of the examinee from the photographing device 110 (S500).

제어부(240)는 복수의 의료 영상을 기초로 목적 부위에 해당하는 적어도 하나의 영역을 예측하도록 학습된 예측 모델을 이용하여 복수의 의료 영상으로부터 적어도 하나의 영역을 예측한 결과를 나타내는 예측 결과 데이터를 획득한다(S510). 예측 모델은 u-net으로 구성되고, 복수의 대상자 각각의 적어도 하나의 의료 영상을 기초로 적어도 하나의 영역을 예측하도록 학습된 확률 모델의 모델 파라미터에 대한 예측 분포를 이용하여 구성된다. 예를 들어, 예측 모델은 확률 모델의 모델 파라미터의 예측 분포가 예측 모델을 구성하는 복수의 계층들 중 클래스를 추정하기 위한 계층에 반영되도록 구성될 수 있다. 확률 모델은, 베이지안 신경 네트워크를 기반으로 한다. The controller 240 generates prediction result data indicating a result of predicting at least one region from a plurality of medical images using a prediction model learned to predict at least one region corresponding to a target region based on a plurality of medical images. Obtain (S510). The predictive model is composed of u-net and is constructed using a predictive distribution for model parameters of a probability model learned to predict at least one region based on at least one medical image of each of a plurality of subjects. For example, the predictive model may be configured such that a predictive distribution of model parameters of the probability model is reflected in a layer for estimating a class among a plurality of layers constituting the predictive model. The probabilistic model is based on a Bayesian neural network.

구체적으로, 제어부(240)는 학습된 확률 모델의 모델 파라미터의 예측 분포가 반영된 예측 모델을 이용하여 복수의 의료 영상으로부터 예측된 각 영역을 분할화한 마스크 영역을 포함하는 분할 영상을 예측 결과 데이터로서 획득한다.Specifically, the control unit 240 uses a predictive model in which the predicted distribution of model parameters of the learned probability model is reflected, and uses a segmented image including a mask region obtained by segmenting each region predicted from a plurality of medical images as prediction result data. Acquire

제어부(240)는 획득된 예측 결과 데이터에 관한 불확실성 데이터를 산출하고(S520), 산출된 불확실성 데이터를 기초로 복수의 의료 영상으로부터 레이블링을 위한 의료 영상을 선별한다(S530). 구체적으로, 제어부(240)는 예측 결과 데이터의 불확실성에 대한 예측 분포의 분산값을 추정하고, 추정된 분산값 중 인식론적 불확실성에 관련된 값을 이용하여 레이블링을 위한 의료 영상을 선별할 수 있다. 예를 들어, 제어부(240)는 베이지안 방식을 이용하여 불확실성에 대한 예측 분포의 분산값을 추정할 수 있으며, 상술한 바와 같이 <수학식 1>이 이용될 수 있다. The controller 240 calculates uncertainty data about the obtained prediction result data (S520), and selects a medical image for labeling from a plurality of medical images based on the calculated uncertainty data (S530). Specifically, the controller 240 may estimate a variance value of the prediction distribution for uncertainty of prediction result data, and select a medical image for labeling using a value related to epistemological uncertainty among the estimated variance values. For example, the control unit 240 may estimate the variance of the prediction distribution for uncertainty using a Bayesian method, and as described above, <Equation 1> may be used.

이와 같이 제어부(240)는 인식론적 불확실성이 존재하는 의료 영상을 레이블링을 위한 의료 영상으로 선별하고, 선별된 의료 영상을 레이블링하여 액티브 러닝을 학습할 수 있다.In this way, the controller 240 selects a medical image with epistemic uncertainty as a medical image for labeling, and labels the selected medical image to learn active learning.

이하에서는 불확실성의 크기를 고려하여 레이블링을 위한 데이터를 선별하기 위한 방법에 대해서 도 6 및 도 7을 참조하여 설명하도록 한다.Hereinafter, a method for selecting data for labeling in consideration of the size of uncertainty will be described with reference to FIGS. 6 and 7 .

도 6 및 도 7은 본 발명의 실시예에 따라 입력 영상의 불확실성을 정량화한 결과를 나타내는 예시도들이다. 6 and 7 are exemplary diagrams illustrating results of quantifying uncertainty of an input image according to an embodiment of the present invention.

도 6을 참조하면, (a)는 심장 영역을 촬영한 의료 영상이다. (a)는 많은 양의 노이즈를 포함하여 심장 영역의 경계가 불명확하다. Referring to FIG. 6 , (a) is a medical image of a heart region. In (a), the border of the heart region is unclear due to the large amount of noise.

(b)는 상술한 <수학식 1>을 이용하여 획득된 (a)가 갖는 내재적 불확실성 정보를 나타낸 영상이다. (b)에서 보여지는 심장 영역의 경계 부분(600)이 영상 자체의 노이즈에 의해 번지듯이 표현된다. 이러한 노이즈를 완전하게 제거하는 것은 어려울 수 있다. (b) is an image showing the inherent uncertainty information of (a) obtained using the above-described Equation 1. The boundary portion 600 of the heart region shown in (b) is expressed as if it were smeared by the noise of the image itself. It can be difficult to completely remove this noise.

(c)는 상술한 <수학식 1>을 이용하여 획득된 (a)가 갖는 인식론적 불확실성 정보 나타낸 영상이다. (c)에서 보여지는 부분(610)은 훈련 데이터의 수가 적거나 모델 파라미터에 의해 발생될 수 있는 불확실성에 의한 노이즈가 표현된다. 이러한 예측 모델의 불확실성은 액티브 러닝 알고리즘의 중요한 기반이 될 수 있다.(c) is an image representing the epistemological uncertainty information of (a) obtained using the above-described Equation 1. In part 610 shown in (c), noise due to uncertainty that may be generated by a small number of training data or model parameters is expressed. Uncertainty of these predictive models can be an important basis for active learning algorithms.

(d)는 예측 모델에 의해서 예측된 심장 영역의 마스킹 영역을 포함하는 분할 영상이다.(d) is a segmented image including a masking region of the heart region predicted by the predictive model.

구체적으로, (d)는 내재적 불확실성에 의해 예측된 영역의 경계 부분에서 정확도가 떨어지며, 인식론적 불확실성에 의해 도면부호 620의 부분에서 정확도가 떨어진다.Specifically, (d) is less accurate at the boundary of the predicted region due to inherent uncertainty, and less accurate at the part 620 due to epistemological uncertainty.

이어서, 도 7을 참조하면, (a)는 심장 영역을 촬영한 의료 영상이다. (a)는 많은 양의 노이즈를 포함하여 심장 영역의 경계가 모호하고, 불명확하다. Next, referring to FIG. 7 , (a) is a medical image of a heart region. In (a), the boundary of the heart region is ambiguous and unclear, including a large amount of noise.

(b)는 상술한 <수학식 1>을 이용하여 획득된 (a)가 갖는 내재적 불확실성 정보를 나타낸 영상이다. (b)에서 보여지는 심장 영역의 경계 부분(700) 또한 영상 자체의 노이즈에 의해 번지듯이 표현된다. (b) is an image showing the inherent uncertainty information of (a) obtained using the above-described Equation 1. The boundary portion 700 of the heart region shown in (b) is also expressed like a blur by the noise of the image itself.

(c)는 상술한 <수학식 1>을 이용하여 획득된 (a)가 갖는 인식론적 불확실성 정보를 나타낸 영상이다. (c)는 도 6의 (c)보다 더 적은 인식론적 불확실성에 의한 노이즈를 갖는다. 다시 말해서, 도면부호 710의 부분은 도 6의 도면부호 610에 비해 작은 크기(또는 양)의 인식론적 불확실성을 갖는다. (c) is an image showing the epistemological uncertainty information of (a) obtained using the above-described <Equation 1>. (c) has less noise due to epistemological uncertainty than Fig. 6(c). In other words, the portion 710 has a smaller magnitude (or amount) of epistemological uncertainty compared to 610 in FIG. 6 .

(d)는 예측 모델에 의해서 예측된 심장 영역의 마스킹 영역을 포함하는 분할 영상이다. (d) is a segmented image including a masking region of the heart region predicted by the predictive model.

구체적으로, (d)는 내재적 불확실성에 의해 예측된 영역의 경계 부분에서 여전히 정확도가 떨어지지만, 도 6의 (d)에 비해 인식론적 불확실성에 의한 정확도가 좀 더 높은 것을 보여준다.Specifically, (d) shows that the accuracy due to the epistemological uncertainty is higher than that of FIG.

이와 같이, 레이블링을 위해 불확실성이 낮은 의료 영상을 선별하는 것보다 불확실성이 가장 높은 의료 영상 순으로 선별하여 레이블링을 하는 것이 예측 모델의 모델 성능을 향상시키기 위해 보다 바람직할 것이다.In this way, for labeling, it is more preferable to select and label medical images having the highest uncertainty rather than selecting medical images having low uncertainty for labeling in order to improve the model performance of the predictive model.

따라서, 본 발명은 인식론적 불확실성 데이터의 크기가 기 설정된 임계값 이상에 해당하는 의료 영상을 레이블링을 위한 의료 영상으로 선별하여 이를 레이블링하고, 레이블링된 의료 영상을 입력으로 예측 모델을 학습시킴으로써, 모델 성능을 향상시켜 정확성 및 신뢰성이 개선된 예측 결과를 제공할 수 있다.Therefore, the present invention selects a medical image corresponding to a predetermined threshold value or more of epistemological uncertainty data as a medical image for labeling, labels the medical image, and trains a predictive model using the labeled medical image as an input, thereby improving model performance. It is possible to provide prediction results with improved accuracy and reliability by improving.

본 발명의 실시예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Devices and methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in computer readable media. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination.

컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - Includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, etc. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be variously modified and implemented without departing from the technical spirit of the present invention. . Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

100: 시스템 110: 촬영 장치
120, 200: 전자 장치 210: 통신부
220: 저장부 230: 표시부
240: 제어부 300: 의료 영상
310: 예측 모델 320: 예측 결과 데이터
330: 예측 결과 데이터에 대한 불확실성 데이터 추정
340: 레이블링을 위한 의료 영상 선별
100: system 110: shooting device
120, 200: electronic device 210: communication unit
220: storage unit 230: display unit
240: control unit 300: medical image
310: prediction model 320: prediction result data
330: Uncertainty data estimation for prediction result data
340: Selecting medical images for labeling

Claims (18)

제어부에 의해서 수행되는 방법에 있어서,
촬영 장치로부터 피검자의 목적 부위를 촬영한 복수의 의료 영상을 획득하는 단계;
상기 복수의 의료 영상을 기초로 상기 목적 부위에 해당하는 적어도 하나의 영역을 예측하도록 학습된 예측 모델을 이용하여 상기 복수의 의료 영상으로부터 상기 적어도 하나의 영역을 예측한 결과를 나타내는 예측 결과 데이터를 획득하는 단계;
상기 획득된 예측 결과 데이터에 관한 불확실성 데이터를 산출하는 단계; 및
상기 산출된 불확실성 데이터를 기초로 상기 복수의 의료 영상으로부터 레이블링(labeling)을 위한 의료 영상을 선별하는 단계를 포함하는, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
In the method performed by the control unit,
acquiring a plurality of medical images of a target part of the subject from a photographing device;
Obtaining prediction result data indicating a result of predicting the at least one region from the plurality of medical images by using a prediction model learned to predict at least one region corresponding to the target region based on the plurality of medical images. doing;
Calculating uncertainty data about the obtained prediction result data; and
and selecting a medical image for labeling from the plurality of medical images based on the calculated uncertainty data.
제1항에 있어서, 상기 불확실성 데이터는,
내재적 불확실성(Aleatoric uncertainty) 데이터를 포함하거나, 및 상기 내재적 불확실성 데이터 및 인식론적 불확실성(Epistemic uncertainty) 데이터 둘 다를 포함하는, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 1, wherein the uncertainty data,
A method for selecting medical images for labeling that contain Aleatoric uncertainty data, and which contain both the Aleatoric uncertainty data and Epistemic uncertainty data.
제2항에 있어서, 상기 레이블링을 위한 의료 영상을 선별하는 단계는,
상기 인식론적 불확실성 데이터에 관련된 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하는 단계인, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 2, wherein selecting the medical image for labeling comprises:
The method of selecting a medical image for labeling, the step of determining a medical image related to the epistemological uncertainty data as the medical image for labeling.
제1항에 있어서, 상기 예측 모델은,
복수의 대상자 각각의 적어도 하나의 의료 영상을 기초로 상기 적어도 하나의 영역을 예측하도록 학습된 확률 모델의 모델 파라미터에 대한 예측 분포를 이용하여 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 1, wherein the predictive model,
A method for selecting medical images for labeling, the method comprising using a prediction distribution for model parameters of a probabilistic model learned to predict the at least one region based on at least one medical image of each of a plurality of subjects.
제4항에 있어서, 상기 확률 모델은,
베이지안 신경 네트워크(Bayesian neural network)를 기반으로 하는, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 4, wherein the probability model,
A method for screening medical images for labeling based on a Bayesian neural network.
제5항에 있어서, 상기 예측 모델은,
상기 확률 모델에 의해서 계산된 모델 파라미터의 예측 분포가 상기 적어도 하나의 영역의 클래스(class)를 추정하기 위한 계층(layer)에 반영되도록 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 5, wherein the predictive model,
The method for selecting a medical image for labeling, configured to reflect a predictive distribution of model parameters calculated by the probabilistic model to a layer for estimating a class of the at least one region.
제5항에 있어서, 상기 예측 모델은,
u-net으로 구성되고,
상기 모델 파라미터의 예측 분포는 상기 예측 모델의 마지막 계층에 적용되는, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 5, wherein the predictive model,
It consists of u-net,
The method of selecting a medical image for labeling, wherein the predictive distribution of the model parameters is applied to the last layer of the predictive model.
제5항에 있어서, 상기 불확실성 데이터를 산출하는 단계는,
상기 예측 결과 데이터의 불확실성에 대한 예측 분포의 분산값을 추정하는 단계이고,
상기 추정된 분산값은, 내재적 불확실성에 관한 제1 값 및 인식론적 불확실성에 관한 제2 값을 포함하고,
상기 레이블링을 위한 의료 영상을 선별하는 단계는,
상기 제2 값이 기 설정된 제1 임계값 이상에 해당하는 적어도 하나의 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하는 단계인, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 5, wherein calculating the uncertainty data comprises:
A step of estimating a variance value of a prediction distribution for uncertainty of the prediction result data;
The estimated variance value includes a first value for intrinsic uncertainty and a second value for epistemological uncertainty,
In the step of selecting the medical image for labeling,
and determining, as the medical image for labeling, at least one medical image having the second value equal to or greater than a preset first threshold.
제8항에 있어서, 상기 레이블링을 위한 의료 영상을 선별하는 단계는,
상기 제1 임계값 이상에 해당하는 적어도 하나의 의료 영상 중 최대값을 가지는 영상에서 최소값을 가지는 영상 순으로 정렬했을 때 상기 최대값과의 차이가 기 설정된 제2 임계값보다 작은 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하는 단계인, 레이블링을 위한 의료 영상을 선별하기 위한 방법.
The method of claim 8, wherein selecting the medical image for labeling comprises:
The labeling of a medical image having a difference from the maximum value smaller than a preset second threshold when the image having the maximum value and the image having the minimum value are arranged in the order of at least one medical image corresponding to the first threshold or higher. A method for selecting a medical image for labeling, which is a step of determining as a medical image for .
데이터를 송수신하도록 구성된 통신부; 및
상기 통신부와 연결하도록 구성된 제어부를 포함하고,
상기 제어부는,
상기 통신부를 통해 촬영 장치로부터 피검자의 목적 부위를 촬영한 복수의 의료 영상을 획득하고,
상기 복수의 의료 영상을 기초로 상기 목적 부위에 해당하는 적어도 하나의 영역을 예측하도록 학습된 예측 모델을 이용하여 상기 복수의 의료 영상으로부터 상기 적어도 하나의 영역을 예측한 결과를 나타내는 예측 결과 데이터를 획득하고,
상기 획득된 예측 결과 데이터에 관한 불확실성 데이터를 산출하고,
상기 산출된 불확실성 데이터를 기초로 상기 복수의 의료 영상으로부터 레이블링(labeling)을 위한 의료 영상을 선별하도록 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
a communication unit configured to transmit and receive data; and
Including a control unit configured to connect with the communication unit,
The control unit,
Obtaining a plurality of medical images of a target part of the subject from a photographing device through the communication unit;
Obtaining prediction result data indicating a result of predicting the at least one region from the plurality of medical images by using a prediction model learned to predict at least one region corresponding to the target region based on the plurality of medical images. do,
Calculate uncertainty data regarding the obtained prediction result data;
An apparatus for selecting a medical image for labeling, configured to select a medical image for labeling from the plurality of medical images based on the calculated uncertainty data.
제10항에 있어서, 상기 불확실성 데이터는,
내재적 불확실성(Aleatoric uncertainty) 데이터를 포함하거나, 및 상기 내재적 불확실성 데이터 및 인식론적 불확실성(Epistemic uncertainty) 데이터 둘 다를 포함하는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
11. The method of claim 10, wherein the uncertainty data,
An apparatus for selecting a medical image for labeling, comprising Aleatoric uncertainty data, or comprising both the inherent uncertainty data and Epistemic uncertainty data.
제11항에 있어서, 상기 제어부는,
상기 인식론적 불확실성 데이터를 포함하는 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하도록 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
The method of claim 11, wherein the control unit,
An apparatus for selecting a medical image for labeling, configured to determine a medical image including the epistemological uncertainty data as the medical image for labeling.
제10항에 있어서, 상기 예측 모델은,
복수의 대상자 각각의 적어도 하나의 의료 영상을 기초로 상기 적어도 하나의 영역을 예측하도록 학습된 확률 모델의 모델 파라미터에 대한 예측 분포를 이용하여 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
The method of claim 10, wherein the predictive model,
An apparatus for selecting medical images for labeling, configured using a prediction distribution for model parameters of a probabilistic model learned to predict the at least one region based on at least one medical image of each of a plurality of subjects.
제13항에 있어서, 상기 확률 모델은,
베이지안 신경 네트워크(Bayesian neural network)를 기반으로 하는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
The method of claim 13, wherein the probabilistic model,
An apparatus for screening medical images for labeling, based on a Bayesian neural network.
제14항에 있어서, 상기 예측 모델은,
상기 확률 모델에 의해서 계산된 모델 파라미터의 예측 분포가 상기 적어도 하나의 영역의 클래스(class)를 추정하기 위한 계층(layer)에 반영되도록 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
The method of claim 14, wherein the predictive model,
The apparatus for selecting medical images for labeling, configured to reflect a predictive distribution of model parameters calculated by the probabilistic model to a layer for estimating a class of the at least one region.
제14항에 있어서, 상기 예측 모델은,
u-net으로 구성되고,
상기 모델 파라미터의 예측 분포는 상기 예측 모델의 마지막 계층에 적용되는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
The method of claim 14, wherein the predictive model,
It consists of u-net,
Apparatus for selecting a medical image for labeling, wherein the predictive distribution of the model parameters is applied to the last layer of the predictive model.
제14항에 있어서, 상기 제어부는,
상기 예측 결과 데이터의 불확실성에 대한 예측 분포의 분산값을 추정하도록 구성되고,
상기 추정된 분산값은, 내재적 불확실성에 관한 제1 값 및 인식론적 불확실성에 관한 제2 값을 포함하고,
상기 제어부는,
상기 제2 값이 기 설정된 제1 임계값 이상에 해당하는 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하도록 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
The method of claim 14, wherein the control unit,
configured to estimate a variance value of a prediction distribution for uncertainty of the prediction result data;
The estimated variance value includes a first value for intrinsic uncertainty and a second value for epistemological uncertainty,
The control unit,
The apparatus for selecting a medical image for labeling, configured to determine a medical image for which the second value is greater than or equal to a preset first threshold value as the medical image for labeling.
제14항에 있어서, 상기 제어부는,
상기 제1 임계값 이상에 해당하는 적어도 하나의 의료 영상 중 최대값을 가지는 영상에서 최소값을 가지는 영상 순으로 정렬했을 때 상기 최대값과의 차이가 기 설정된 제2 임계값보다 작은 의료 영상을 상기 레이블링을 위한 의료 영상으로 결정하도록 구성되는, 레이블링을 위한 의료 영상을 선별하기 위한 장치.
The method of claim 14, wherein the control unit,
The labeling of a medical image having a difference from the maximum value smaller than a preset second threshold when the image having the maximum value and the image having the minimum value are arranged in the order of at least one medical image corresponding to the first threshold or higher. An apparatus for selecting a medical image for labeling, configured to determine a medical image for
KR1020210147228A 2021-10-28 2021-10-29 Method and apparatus for sorting medical image for labeling KR20230062208A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210147228A KR20230062208A (en) 2021-10-29 2021-10-29 Method and apparatus for sorting medical image for labeling
PCT/KR2022/016629 WO2023075480A1 (en) 2021-10-28 2022-10-28 Method and apparatus for providing clinical parameter for predicted target region in medical image, and method and apparatus for screening medical image for labeling
EP22887675.1A EP4407629A1 (en) 2021-10-28 2022-10-28 Method and apparatus for providing clinical parameter for predicted target region in medical image, and method and apparatus for screening medical image for labeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210147228A KR20230062208A (en) 2021-10-29 2021-10-29 Method and apparatus for sorting medical image for labeling

Publications (1)

Publication Number Publication Date
KR20230062208A true KR20230062208A (en) 2023-05-09

Family

ID=86408867

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210147228A KR20230062208A (en) 2021-10-28 2021-10-29 Method and apparatus for sorting medical image for labeling

Country Status (1)

Country Link
KR (1) KR20230062208A (en)

Similar Documents

Publication Publication Date Title
US11443428B2 (en) Systems and methods for probablistic segmentation in anatomical image processing
US10664979B2 (en) Method and system for deep motion model learning in medical images
US11464491B2 (en) Shape-based generative adversarial network for segmentation in medical imaging
JP2019055230A (en) Medical image processor for segmenting structure in medical image, method for segmenting medical image, and storage medium for storing computer program for segmenting medical image
CN111325714B (en) Method for processing region of interest, computer device and readable storage medium
CN113362272A (en) Medical image segmentation with uncertainty estimation
JP2023540910A (en) Connected Machine Learning Model with Collaborative Training for Lesion Detection
CN113436166A (en) Intracranial aneurysm detection method and system based on magnetic resonance angiography data
EP3722996A2 (en) Systems and methods for processing 3d anatomical volumes based on localization of 2d slices thereof
KR102530010B1 (en) Apparatus and method for determining disease severity based on medical image
US20210142480A1 (en) Data processing method and apparatus
JP7456928B2 (en) Abnormal display control method of chest X-ray image, abnormal display control program, abnormal display control device, and server device
WO2022096867A1 (en) Image processing of intravascular ultrasound images
CN114266896A (en) Image labeling method, model training method and device, electronic equipment and medium
JP7457011B2 (en) Anomaly detection method, anomaly detection program, anomaly detection device, server device, and information processing method
CN111145141B (en) Infarct detection using trained networks
CN113192031A (en) Blood vessel analysis method, blood vessel analysis device, computer equipment and storage medium
CN113160199A (en) Image recognition method and device, computer equipment and storage medium
KR102569573B1 (en) Lung volume diagnosis method and apparatus
WO2023032436A1 (en) Medical image processing device, medical image processing method, and program
KR20230062208A (en) Method and apparatus for sorting medical image for labeling
CN112862787B (en) CTA image data processing method, device and storage medium
CN112862786B (en) CTA image data processing method, device and storage medium
EP4407629A1 (en) Method and apparatus for providing clinical parameter for predicted target region in medical image, and method and apparatus for screening medical image for labeling
KR20230061670A (en) Method and apparatus for providing clinical parameter of target object of medical image