KR20220105723A - Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof - Google Patents
Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof Download PDFInfo
- Publication number
- KR20220105723A KR20220105723A KR1020210008378A KR20210008378A KR20220105723A KR 20220105723 A KR20220105723 A KR 20220105723A KR 1020210008378 A KR1020210008378 A KR 1020210008378A KR 20210008378 A KR20210008378 A KR 20210008378A KR 20220105723 A KR20220105723 A KR 20220105723A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- medical image
- read
- network
- parameter
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 31
- 238000010191 image analysis Methods 0.000 claims abstract description 59
- 201000010099 disease Diseases 0.000 claims description 48
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 48
- 239000013598 vector Substances 0.000 claims description 21
- 238000003745 diagnosis Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 9
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000003703 image analysis method Methods 0.000 claims 3
- 230000036544 posture Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000011976 chest X-ray Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 1
- 206010035664 Pneumonia Diseases 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 201000005202 lung cancer Diseases 0.000 description 1
- 208000020816 lung neoplasm Diseases 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 201000003144 pneumothorax Diseases 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 208000008128 pulmonary tuberculosis Diseases 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5288—Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G06N3/0427—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physiology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
본 발명은 의료 영상 분석 장치, 방법 및 이의 학습 방법에 관한 것이다.The present invention relates to a medical image analysis apparatus, a method, and a learning method thereof.
X선 촬영은 영상의학 분야에서 인체 내부의 영상을 얻을 수 있는 기법으로 다양한 질병의 진단 및 치료 분야에서 사용되어 왔으며, 단순 흉부 촬영, 단순 복부 촬영, 단순 골격 촬영, 단순 부비동 촬영, 단순 경부 연조직(neck soft tissue) 촬영, 유방 촬영 등 진단 목적에 따라 전후 사진, 측면 또는 대각선 촬영 등으로 얻을 수 있다.X-ray imaging is a technique that can obtain images of the inside of the human body in the field of radiology and has been used in the diagnosis and treatment of various diseases. Depending on the purpose of diagnosis, such as neck soft tissue), mammography, etc., it can be obtained by taking before-and-after photos, lateral or diagonal photos.
이러한 X선 촬영은 컴퓨터 단층촬영(CT), 자기공명영상(MRI) 등의 검사에 비하여 가격이 매우 저렴하고, 검사법이 간단하면서도 이를 통해 진단되는 질환의 수는 많다.Such X-ray imaging is very inexpensive compared to examinations such as computed tomography (CT) and magnetic resonance imaging (MRI), and although the examination method is simple, the number of diseases diagnosed through it is large.
하지만, X선 영상을 통해 변화를 구분하는 일은, 환자의 호흡, 자세, 나이 등의 변화는 무시하면서 영상의학과 의사가 판단하는 기준에서 질환에 따른 변화만을 구분해야 하므로 기존 CNN 네트워크를 사용하여 해결하기에는 어려움이 있다.However, in classifying changes through X-ray images, it is difficult to solve using the existing CNN network because it is necessary to distinguish only the changes according to the disease from the criteria judged by the radiologist while ignoring the changes in the patient's breathing, posture, and age. There are difficulties.
본 발명의 일 실시예에 따른 해결하고자 하는 과제는, 임의의 피검자의 판독 영상들을 이용하여 학습된 모델을 이용하여 동일 진단 대상자에 대해 획득된 의료 영상 간의 변화를 판별하도록 하는 것을 포함한다.An object to be solved according to an embodiment of the present invention includes determining a change between medical images acquired for the same diagnosis subject by using a model learned using read images of an arbitrary subject.
또한, 판독 영상 각각의 특징 맵이 서로 유사해지도록 하는 것을 포함한다.It also includes making the feature maps of each read image similar to each other.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.
상기 과제를 해결하기 위해, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치는, 미리 학습된 의료 영상 분석 모델이 저장된 메모리 및 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 상기 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 프로세서를 포함하며, 상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.In order to solve the above problems, an artificial neural network-based medical image analysis apparatus according to an embodiment of the present invention includes a memory in which a pre-learned medical image analysis model is stored and a first image obtained by capturing the same diagnosis subject at different points in time. and a processor that receives a medical image and a second medical image, and determines a change between the first medical image and the second medical image by using the medical image analysis model, wherein the medical image analysis model includes: It is learned by using the first reading image and the second reading image of an arbitrary subject as a learning input image, and using information obtained by reading a change between the first reading image and the second reading image as a reading label.
여기서, 상기 프로세서는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별할 수 있다.Here, the processor may determine a change region according to a disease among changes between the first medical image and the second medical image.
여기서, 상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있을 수 있다.Here, in the determined change region, the influence of the change in breathing, posture, and age of the subject to be diagnosed may be minimized.
본 발명의 또 다른 실시예에 따른 인공 신경망 기반의 의료 영상 분석 모델 학습 방법은, 프로세서가, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함한다.In a method for training a medical image analysis model based on an artificial neural network according to another embodiment of the present invention, the processor uses a pre-read first read image and a second read image of an arbitrary subject as a learning input image, and inputting information for reading a change between the readout image and the second readout image as a readout label to the first network, and based on an output result of a similarity value between the first readout image and the second readout image, the
본 발명의 또 다른 실시예에 따른 인공 신경망 기반의 의료 영상 분석 모델 학습 방법은, 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는 단계 및 미리 학습된 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 단계를 포함하며, 상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.A method for learning a medical image analysis model based on an artificial neural network according to another embodiment of the present invention includes the steps of: receiving a first medical image and a second medical image obtained by capturing the same diagnosis subject at different points in time; and determining a change between the first medical image and the second medical image by using a medical image analysis model, wherein the medical image analysis model includes a first read image and a second read image of an arbitrary subject. It is learned by using a read image as a learning input image, and information obtained by reading a change between the first read image and the second read image as a read label.
또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체를 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a recording medium in which a computer program including instructions to be stored is stored.
또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a computer program stored in a computer-readable storage medium containing instructions.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 기 학습된 모델을 이용하여 동일 진단 대상자에 대해 획득된 의료 영상에서 질환에 따른 변화를 판별할 수 있다.As described above, according to embodiments of the present invention, it is possible to determine a change according to a disease in a medical image acquired for the same diagnosis subject using a pre-trained model.
또한, 판독 영상 각각의 특징 맵이 서로 유사해지도록 하므로 판독의 오차를 줄일 수 있다.In addition, since the feature maps of each read image are made to be similar to each other, it is possible to reduce a read error.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if effects not explicitly mentioned herein, the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as described in the specification of the present invention.
도 1은 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상을 예로 들어 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 예시적인 구조를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제1 네트워크와 제2 네트워크를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제2 네트워크에 따른 효과를 설명하기 위한 도면이다.1 is a block diagram illustrating an artificial neural network-based medical image analysis apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention.
3 is a flowchart illustrating a method for learning a medical image analysis model according to an embodiment of the present invention.
4 illustrates an example of a learning input image used for learning a medical image analysis model according to an embodiment of the present invention.
5 is a diagram for explaining an exemplary structure of a medical image analysis model according to an embodiment of the present invention.
6 is a diagram illustrating a first network and a second network of a medical image analysis model according to an embodiment of the present invention.
7 is a diagram for explaining an effect of a second network of a medical image analysis model according to an embodiment of the present invention.
이하, 본 발명에 관련된 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, an artificial neural network-based medical image analysis apparatus and method and a learning method thereof according to the present invention will be described in more detail with reference to the drawings. However, the present invention may be embodied in several different forms, and is not limited to the described embodiments. In addition, in order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.
본 발명은 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법에 관한 것이다.The present invention relates to an artificial neural network-based medical image analysis apparatus, method, and learning method thereof.
도 1은 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치를 나타낸 블록도이다.1 is a block diagram illustrating an artificial neural network-based medical image analysis apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)는 프로세서(11) 및 메모리(12)를 포함한다.Referring to FIG. 1 , an artificial neural network-based medical
본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)는 피검자의 X선 영상으로부터 질환에 의한 변화를 판독하기 위한 장치이다.The artificial neural network-based medical
구체적으로, 피검자의 natural variation(호흡, 나이, 촬영 자세) 등의 변화에 강인하게 학습할 수 있도록 하는 모듈을 이용하여 실제 영상의학과 의사들이 판독하는 절차처럼 동작한다.Specifically, it operates like a procedure read by actual radiologists by using a module that enables strong learning from changes in the subject's natural variation (respiration, age, photographing posture), etc.
이를 위해, 변화를 구분하기 위한 CNN 구조로 설계되며, 다중 레이블을 활용한다. 인공 신경망 기반의 의료 영상 분석 장치(10)의 의료 영상 분석 모델은 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 포함하며, 다중 레이블은 X선 영상의 변화를 판독한 정보인 판독 레이블, X선 영상의 타겟 픽셀값인 조정 레이블 및 질환에 따른 변화를 판독한 정보인 질환 레이블을 포함할 수 있다.To this end, it is designed as a CNN structure to distinguish changes and utilizes multiple labels. The medical image analysis model of the artificial neural network-based medical
메모리(12)는 프로세서(11)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있고, 미리 학습된 의료 영상 분석 모델이 저장되며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어, SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 컴퓨터 판독 가능한 저장매체를 포함할 수 있다.The
메모리(12)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있으며, 후술할 미리 학습된 의료 영상 분석 모델이 소프트웨어 모듈로 구성될 수 있다.Programs stored in the
프로세서(11)는 메모리(12)에 저장된 하나 이상의 인스트럭션을 실행하며, 구체적으로, 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 의료 영상 분석 모델을 이용하여, 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별한다.The
구체적으로, 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하며, 판별된 변화 영역은, 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있다.Specifically, a change region according to a disease is determined among changes between the first medical image and the second medical image, and in the determined change region, the influence of changes in respiration, posture, and age of a subject to be diagnosed is minimized.
여기서, 프로세서(11)는 기능에 따라 복수 개의 모듈들로 구분될 수도 있고, 하나의 프로세서에서 기능들을 수행할 수도 있다. 프로세서는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 마이크로 컨트롤러 유닛(micro controller unit(MCU)) 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.Here, the
본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)의 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.The medical image analysis model of the artificial neural network-based medical
의료 영상 분석 모델은 하기 도 5에서 상세히 설명한다.The medical image analysis model will be described in detail with reference to FIG. 5 below.
도 2는 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법은 의료 영상 분석 장치에 의해 수행되며, 단계 S10에서 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는다.Referring to FIG. 2 , the method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention is performed by a medical image analyzing apparatus, and the first medical image obtained by capturing the same diagnosis subject at a different time in step S10 An image and a second medical image are input.
단계 S20에서 미리 학습된 의료 영상 분석 모델을 이용하여, 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별한다.In step S20, a change between the first medical image and the second medical image is determined using the pre-trained medical image analysis model.
구체적으로, 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하며, 판별된 변화 영역은, 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있다.Specifically, a change region according to a disease is determined among changes between the first medical image and the second medical image, and in the determined change region, the influence of changes in respiration, posture, and age of a subject to be diagnosed is minimized.
여기서, 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.Here, the medical image analysis model uses the first read image and the second read image of a pre-read arbitrary subject as a learning input image, and reads information obtained by reading a change between the first read image and the second read image as a read label has been learned by
도 3은 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method for learning a medical image analysis model according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법은 프로세서에 의해 수행되며, 단계 S110에서 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시킨다.Referring to FIG. 3 , the method for training a medical image analysis model according to an embodiment of the present invention is performed by a processor, and a first read image and a second read image of an arbitrary subject read in step S110 are used as a learning input image. , and information that reads a change between the first read image and the second read image is input to the first network as a read label.
단계 S120에서 제1 판독 영상과 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 제1 네트워크의 제1 파라미터를 조정한다.In step S120 , the first parameter of the first network is adjusted based on the output result of the similarity value between the first read image and the second read image.
여기서, 제1 네트워크의 제1 파라미터를 조정하는 단계(S120)는, 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 제1 특징 벡터와 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과한 유사도 값의 출력 결과에 기초하여 제1 파라미터를 조정한다.Here, in the step of adjusting the first parameter of the first network ( S120 ), the first feature vector is extracted from the first readout image and the second feature vector is extracted from the second readout image, so that the first feature vector and the second feature vector are extracted. After the first feature map and the second feature map, which are generated as the two feature vectors pass through at least one layer, are integrated using the integrated layer, the first feature map is first based on the output result of the similarity values that have passed through the plurality of layer structures. Adjust the parameters.
단계 S130에서 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 타겟 픽셀값을 조정 레이블로 하여 제2 네트워크에 입력시킨다.In step S130, the first read image and the second read image that have passed through at least one layer of the first network and the target pixel value are input to the second network as adjustment labels.
단계 S140에서 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상 각각의 특징 맵(feature map) 유사도 값이 최대값이 되도록 제2 네트워크의 제2 파라미터를 조정한다.In step S140 , the second parameter of the second network is adjusted such that a feature map similarity value of each of the first read image and the second read image that has passed through at least one layer of the first network becomes a maximum value.
단계 S150에서 제1 네트워크와 제2 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여, 질환 정보 제공 신경망에 입력시킨다.In step S150, the first read image and the second read image that have passed through at least one layer of the first network and the second network, and information obtained by reading the change according to the disease are input to the disease information providing neural network as a disease label.
단계 S160에서 질환의 유무에 따른 출력 결과에 기초하여, 질환 정보 제공 신경망의 제3 파라미터를 조정한다.In step S160, based on the output result according to the presence or absence of the disease, the third parameter of the disease information providing neural network is adjusted.
여기서, 제1 파라미터, 제2 파라미터 및 제3 파라미터는, 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신된다.Here, the first parameter, the second parameter, and the third parameter are updated based on the output finally returned through the first network, the second network, and the disease information providing neural network.
도 4는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상을 예로 들어 나타낸 것이다.4 illustrates an example of a learning input image used for learning a medical image analysis model according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상은 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 이용한다.A training input image used for learning a medical image analysis model according to an embodiment of the present invention uses a pre-read first readout image and a second readout image of an arbitrary subject.
도 4에 나타난 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습은 약 40만 쌍의 Chest X-ray follow-up 데이터를 활용하여 전체 학습을 진행한다.As shown in FIG. 4 , in the training of the medical image analysis model according to an embodiment of the present invention, the entire learning is performed using about 400,000 pairs of chest X-ray follow-up data.
학습 입력 영상은, 환자가 서로 다른 시간에 찍은 영상으로 구성되어 있으며, 이전에 찍은 영상(a)인 제1 판독 영상을 baseline, 이 후에 찍은 영상(b)인 제2 판독 영상을 follow-up 이라 지칭한다.The learning input image consists of images taken at different times by the patient, and the first readout image, which is the image taken before (a), is called the baseline, and the second readout image, which is the image taken after (b), is called follow-up. refers to
x-ray 데이터인 학습 입력 영상은 8bit의 png 형태로 변형되어 네트워크 입력에 사용되며, 학습 과정에서 랜덤 크롭, 랜덤 밝기변환, 랜덤 회전의 데이터 증강 기법을 사용하여 학습된다. 입력 데이터는 0부터 1사이 값으로 정규화 되어서 의료 영상 분석 모델을 학습시키기 위해 입력된다.The learning input image, which is x-ray data, is transformed into an 8-bit png format and used for network input. The input data is normalized to a value between 0 and 1 and is input to train a medical image analysis model.
도 5는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 예시적인 구조를 설명하기 위한 도면이다.5 is a diagram for explaining an exemplary structure of a medical image analysis model according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 일 실시예에 따른 의료 영상 분석 모델은 제1 네트워크(110, 120, 130, 140), 제2 네트워크(200) 및 질환 정보 제공 신경망(310, 320)을 포함한다.Referring to FIG. 5 , a medical image analysis model according to an embodiment of the present invention includes
구체적으로, 제1 네트워크(110, 120, 130, 140)는 제1 파라미터를 기초로 제1 판독 영상(영상 A)과 제2 판독 영상(영상 B) 사이의 유사도 값을 반환하는 적어도 하나의 레이어를 포함한다.Specifically, the
구체적으로, 제1 네트워크는, 제1 모듈(110)을 이용하여 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 제2 모듈(120)을 이용하여 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 제1 특징 벡터와 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어(130)를 이용하여 통합한 후, 다수의 레이어 구조(140)를 통과하여 특징맵 유사도 값을 반환하도록 학습된다.Specifically, the first network extracts a first feature vector from the first read image by using the
여기서, 제1 판독 영상(영상 A)은 baseline(영상 A)이고, 제2 판독 영상(영상 B)은 follow-up(영상 B)이며, 제1 모듈(110)과 제2 모듈(120)은 ResNet으로 구현된다.Here, the first reading image (image A) is the baseline (image A), the second reading image (image B) is the follow-up (image B), and the
예를 들어, 제1 네트워크의 제1 모듈(110)과 제2 모듈(120)은 샴 네트워크를 구성한다. 샴 네트워크는 두 개의 입력에 대해 독립적으로 두 개의 합성곱 신경망을 실행한 뒤 비교하는 네트워크 구성이다.For example, the
샴 네트워크의 학습은 두 네트워크에 두 사진을 입력으로 넣고 합성곱 신경망으로 인코딩을 시킨 후, 만일 두 사진이 비슷하다면 인코딩 사이의 거리 값은 작아야 하며, 두 사진이 다르다면 인코딩 사이의 거리 값은 커지는 조건을 만족시키도록 학습된다.The learning of the Siamese network is to put two pictures into two networks as input and encode them with a convolutional neural network. If the two pictures are similar, the distance between encodings should be small. learned to satisfy the condition.
이를 통해, 제1 판독 영상과 제2 판독 영상 간의 유사도 값을 이용하여 변화 여부를 판별할 수 있게 되는 것이다.Through this, it is possible to determine whether there is a change by using the similarity value between the first read image and the second read image.
구체적으로, baseline(영상 A)과 follow-up(영상 B)을 입력 받아 각각 ResNet(110, 120)을 통과하고 여기에서 나온 latent vector를 normal/abnormal, change/no-change 구분에 활용하게 된다.Specifically, the baseline (image A) and follow-up (image B) are received and passed through ResNet (110, 120), respectively, and the latent vector obtained therefrom is used to classify normal/abnormal and change/no-change.
또한, 통합 레이어(130)는 concat 레이어로 구현되며, 다수의 레이어 구조(140)는 MLP를 통과하는 구조를 사용한다.In addition, the
즉, change/no-change를 구분하기 위해서, baseline에서 나온 latent vector와 follow-up에서 나온 latent vector를 concat하고, MLP를 통과하는 구조를 사용한다.That is, in order to distinguish change/no-change, the latent vector from the baseline and the latent vector from the follow-up are concatenated, and a structure that passes through the MLP is used.
그러나, 제1 네트워크의 구성만으로는 환자의 호흡, 나이, 촬영 자세에 따른 변화를 제외할 수 없으므로, 제2 네트워크와 질환 정보 제공 신경망을 추가하여 상호 보완적으로 설계한다.However, since changes according to the patient's respiration, age, and photographing posture cannot be excluded only by the configuration of the first network, the second network and the disease information providing neural network are added to complement each other.
제2 네트워크(200)는 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 특징 맵 유사도 값이 최대값이 되도록, 타겟 픽셀값을 조정 레이블로 하여 제2 파라미터가 조정되도록 학습된다.The
여기서, 타겟 픽셀값은 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 한 픽셀값을 의미한다.Here, the target pixel value refers to a pixel value based on the first read image in order to correct a difference that occurs when the first read image and the second read image partially deviate from the X-ray direction according to the subject's posture.
제2 네트워크(200)는 Attention Module로 구현되며, baseline과 follow-up 사진에서 나온 각각의 특징 맵(feature map)이 서로 같은 형태를 가지도록 만드는 효과가 있다.The
여기서, 서로 같은 형태를 가지도록 만드는 것은, 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 하고, X선의 방향이 동일한 상태에서 피검자가 촬영된 것처럼 제2 판독 영상의 형태를 보정하는 것이다.Here, to have the same shape as each other, in order to correct a difference that occurs when the first read image and the second read image partially deviate from the direction of the X-ray according to the posture of the subject, the first read image is the reference, The shape of the second read image is corrected as if the subject was photographed in a state in which the X-ray directions are the same.
이를 위해, 두 영상의 픽셀 값을 기반으로 픽셀 값이 유사하도록 보정을 수행하게 된다.To this end, correction is performed so that the pixel values of the two images are similar to each other based on the pixel values.
질환 정보 제공 신경망(310, 320)은 질환의 유무를 출력하도록, 제1 판독 영상과 제2 판독 영상의 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여 제3 파라미터가 조정되도록 학습된다.The disease information providing
여기서, 질환 정보 제공 신경망(310, 320)은 Cross-Entropy Softmax 알고리즘을 이용한다.Here, the disease information providing
질환에 따른 변화를 판독한 정보는, 실제 기록지에서 판독문을 분석한 결과를 이용하여 질환의 종류를 기록한 정보이다.The information that reads the change according to the disease is information that records the type of disease using the result of analyzing the reading on the actual recording sheet.
예를 들어, 질환의 종류는 흉부 X선 영상을 통해 판독 가능한 폐암, 폐결핵, 폐렴, 기흉을 포함할 수 있다.For example, the type of disease may include lung cancer, pulmonary tuberculosis, pneumonia, and pneumothorax that can be read through a chest X-ray image.
이를 이용하여, 영상의 변화를 판별하더라도, 호흡에 의한 변화는 제외하고, 질환에 따른 변화만을 판별할 수 있게 된다.Using this, even if the change in the image is determined, it is possible to determine only the change according to the disease, excluding the change due to respiration.
여기서, 제1 파라미터, 제2 파라미터 및 제3 파라미터는, 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신된다.Here, the first parameter, the second parameter, and the third parameter are updated based on the output finally returned through the first network, the second network, and the disease information providing neural network.
전체 학습의 Loss는 수학식 1과 같이 설계될 수 있다.Loss of overall learning may be designed as in Equation (1).
여기서, Ldisease, Lchange는 Cross-Entropy 또는 Pairwise Loss (Triplet, Contrastive 등)이 사용될 수 있다. λ는 각 Loss의 가중치를 나타내는 요소로 사용한다.Here, L disease and L change may be Cross-Entropy or Pairwise Loss (Triplet, Contrastive, etc.). λ is used as an element representing the weight of each loss.
Ldisease는 본 발명의 일 실시예에서 각각의 X-ray가 병이 있는지 없는지에 대한 판단을 수행함으로써 normal, abnormal를 구분하기 위한 정보를 마련하는 기능을 하며, 질환 정보 제공 신경망에서 사용된다.L disease serves to prepare information for classifying normal and abnormal by determining whether each X-ray has a disease in an embodiment of the present invention, and is used in a disease information providing neural network.
Lchange는 본 발명의 일 실시예에서 두 장의 follow-up x-ray를 입력으로 받아, change 인지 Change, no-change인지 구분할 수 있도록 하며, 제1 네트워크에서 사용된다.L change receives two follow-up x-rays as an input in an embodiment of the present invention to distinguish change, change, and no-change, and is used in the first network.
Lmatching은 baseline과 follow-up 사진에서 서로 같은 곳을 바라볼 수 있도록 하며, 제2 네트워크에서 사용된다.L matching allows to look at the same place in the baseline and follow-up photos, and is used in the second network.
Ldisease와 Lmatching을 사용함으로써, 한 장의 x-ray 사진에서 병변이 있는 곳에 대하여 집중을 한 이후에, 다른 한장의 x-ray 사진에서 같은 곳에 병이 있는지 확인할 수 있다.By using L disease and L matching , after focusing on the lesion in one x-ray picture, it is possible to check whether there is a disease in the same x-ray picture in another x-ray picture.
도 6은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제1 네트워크와 제2 네트워크를 설명하기 위한 도면이다.6 is a diagram illustrating a first network and a second network of a medical image analysis model according to an embodiment of the present invention.
상기 도 5에서는 제1 네트워크의 하나의 ResNet과 제2 네트워크의 Attention Module이 연결되는 것으로 도시하였지만, 발명의 다양한 실시예에 따르면, 제1 네트워크의 다수의 모듈(111, 112, 113, 114, 115) 각각에 제2 네트워크의 Attention Module(210, 220, 230, 240)이 각각 연결되어, 제1 네트워크의 각각의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 특징 맵 유사도 값이 최대값이 되도록 순차적으로 Attention Module의 파라미터를 조정할 수 있다.Although one ResNet of the first network and the Attention Module of the second network are illustrated in FIG. 5 as being connected, according to various embodiments of the present invention, a plurality of
이에 따라, 제1 네트워크에서 차원이 다른 각각의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 서로 다른 픽셀 값이 제2 네트워크의 Attention Module를 통과하면서 각각의 픽셀 값이 유사해질 수 있다.Accordingly, different pixel values of the first read image and the second read image that have passed through respective layers having different dimensions in the first network pass through the attention module of the second network, and the respective pixel values may be similar. .
구체적으로, Attention Module을 통과한 두 특징 맵(feature map)이 같은 곳을 바라보도록 만드는 Region Matching Loss를 설계한다.Specifically, we design Region Matching Loss to make two feature maps that have passed the Attention Module look at the same place.
여기서, 같은 곳을 바라보도록 만드는 것은 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 하고, X선의 방향이 동일한 상태에서 피검자가 촬영된 것처럼 제2 판독 영상의 형태를 보정하는 것으로, 코사인 유사도가 최대가 되도록 두 영상의 attention을 일치시키는 Region Matching Loss를 설계한다.Here, to make them look at the same place, the first read image and the second read image are based on the first read image to correct a difference that occurs when the direction of the X-ray is partially shifted depending on the posture of the subject, and the X-ray By correcting the shape of the second read image as if the subject was photographed in the same direction, the Region Matching Loss is designed to match the attention of the two images so that the cosine similarity is maximized.
Region Matching Loss는 하기 수학식 2로 정의된다.Region Matching Loss is defined by
여기서, Fb와 Ff는 각각 baseline과 follow-up에서 나온 특징 맵(feature map)을 의미한다.Here, F b and F f denote feature maps from baseline and follow-up, respectively.
Region Matching Loss는 서로 다른 두 장의 특징맵 유사도 값을 계산하여, feature map을 서로 유사하게 만들도록 하는 효과가 있다.Region Matching Loss has the effect of making the feature maps similar to each other by calculating the similarity values of two different feature maps.
두 장의 feature map이 서로 유사해야 Loss가 최소화 되는 구조를 가지고 있어서, 이 손실함수를 추가하여 학습하면 baseline과 follow-up의 feature map이 서로 유사해지는 효과를 가질 수 있다.Since the two pieces of feature maps have a structure that minimizes loss when they are similar to each other, learning by adding this loss function can have the effect that the baseline and follow-up feature maps are similar to each other.
도 7은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제2 네트워크에 따른 효과를 설명하기 위한 도면이다.7 is a diagram for explaining an effect of a second network of a medical image analysis model according to an embodiment of the present invention.
도 7의 (a)는 baseline과 basline의 feature map을 나타낸 것이고, 도 7의 (b)는 follow-up 과 follow-up의 feature map을 나타낸 것이다.Fig. 7 (a) shows the baseline and basline feature maps, and Fig. 7 (b) shows the follow-up and follow-up feature maps.
본 발명의 일 실시예에 따른 제2 네트워크의 Region matching module을 사용하여 나온 feature map은, 촬영 자세가 다름에도 불구하고, feature map 에서 서로 같은 곳이 activation 됨을 확인할 수 있다.In the feature map generated using the region matching module of the second network according to an embodiment of the present invention, it can be confirmed that the same places are activated in the feature map despite the different photographing postures.
또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체를 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a recording medium in which a computer program including instructions to do so is stored.
또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a computer program stored in a computer-readable storage medium containing instructions.
이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Such computer-readable media may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.The above description is only one embodiment of the present invention, those skilled in the art to which the present invention pertains will be able to implement in a modified form within a range that does not depart from the essential characteristics of the present invention. Therefore, the scope of the present invention is not limited to the above-described embodiments, but should be construed to include various embodiments within the scope equivalent to the content described in the claims.
Claims (18)
미리 학습된 의료 영상 분석 모델이 저장된 메모리; 및
동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 상기 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 프로세서;를 포함하며,
상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것인 의료 영상 분석 장치.A medical image analysis apparatus comprising:
a memory storing a pre-trained medical image analysis model; and
receiving a first medical image and a second medical image captured at different points in time for the same diagnosis subject, and determining a change between the first medical image and the second medical image by using the medical image analysis model processor; including;
The medical image analysis model uses a pre-read first read image and a second read image of an arbitrary subject as a learning input image, and reads information obtained by reading a change between the first read image and the second read image as a read label A medical image analysis device that is learned by
상기 프로세서는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하는 의료 영상 분석 장치.According to claim 1,
The processor is configured to determine a change region according to a disease among changes between the first medical image and the second medical image.
상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있는 의료 영상 분석 장치.3. The method of claim 2,
The determined change region is a medical image analysis apparatus in which the influence of the change in breathing, posture, and age of the subject to be diagnosed is minimized.
상기 의료 영상 분석 모델은, 제1 파라미터를 기초로 상기 제1 판독 영상과 상기 제2 판독 영상 사이의 유사도 값을 반환하는 적어도 하나의 레이어를 포함하는 제1 네트워크를 포함하는 의료 영상 분석 장치.According to claim 1,
The medical image analysis model may include a first network including at least one layer that returns a similarity value between the first read image and the second read image based on a first parameter.
상기 제1 네트워크는, 상기 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 상기 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 상기 제1 특징 벡터와 상기 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과함에 기초해 상기 제1 특징 맵과 상기 제2 특징 맵의 특징맵 유사도 값을 반환하도록 학습되는 의료 영상 분석 장치.5. The method of claim 4,
The first network extracts a first feature vector from the first readout image and extracts a second feature vector from the second readout image, so that the first feature vector and the second feature vector are at least one layer After integrating the first feature map and the second feature map generated by passing through , the feature map similarity value between the first feature map and the second feature map based on passing through a plurality of layer structures A medical image analysis device that is trained to return .
상기 의료 영상 분석 모델은, 상기 특징맵 유사도 값이 최대값이 되도록, 타겟 픽셀값을 조정 레이블로 하여 제2 파라미터가 조정되도록 학습되어 있는 제2 네트워크를 포함하는 의료 영상 분석 장치.6. The method of claim 5,
and the medical image analysis model includes a second network trained to adjust a second parameter using a target pixel value as an adjustment label so that the feature map similarity value becomes a maximum value.
상기 의료 영상 분석 모델은, 질환의 유무를 출력하도록, 상기 제1 판독 영상과 상기 제2 판독 영상의 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여 제3 파라미터가 조정되도록 학습되어 있는 질환 정보 제공 신경망을 포함하는 의료 영상 분석 장치.7. The method of claim 6,
The medical image analysis model may include information on diseases that have been learned to adjust a third parameter by using, as a disease label, information obtained by reading changes according to diseases of the first read image and the second read image so as to output the presence or absence of a disease. A medical image analysis device comprising a providing neural network.
상기 제1 파라미터, 상기 제2 파라미터 및 상기 제3 파라미터는, 상기 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신되는 의료 영상 분석 장치.8. The method of claim 7,
The first parameter, the second parameter, and the third parameter are updated based on outputs finally returned through the first network, the second network, and the disease information providing neural network.
프로세서가, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화 영역을 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계; 및
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.In the medical image analysis model training method,
The processor uses the pre-read first reading image and the second reading image of an arbitrary subject as a learning input image, and using information obtained by reading a change region between the first reading image and the second reading image as a reading label, 1 entering the network; and
and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image.
상기 제1 네트워크의 제1 파라미터를 조정하는 단계는,
상기 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 상기 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 상기 제1 특징 벡터와 상기 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과함에 기초해 상기 제1 특징 맵과 상기 제2 특징 맵의 특징맵 유사도 값의 출력 결과에 기초하여 상기 제1 파라미터를 조정하는 의료 영상 분석 모델 학습 방법.10. The method of claim 9,
Adjusting the first parameter of the first network comprises:
A first feature vector is extracted from the first readout image and a second feature vector is extracted from the second readout image, and the first feature vector and the second feature vector are generated as the first and second feature vectors pass through at least one layer. After integrating the first feature map and the second feature map using an integrated layer, based on the output result of the feature map similarity value of the first feature map and the second feature map based on passing through a plurality of layer structures A method of training a medical image analysis model for adjusting the first parameter.
상기 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 타겟 픽셀값을 조정 레이블로 하여 제2 네트워크에 입력시키는 단계; 및
상기 특징맵 유사도 값이 최대값이 되도록 상기 제2 네트워크의 제2 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.11. The method of claim 10,
inputting the first readout image and the second readout image passing through at least one layer of the first network and target pixel values as adjustment labels into a second network; and
and adjusting a second parameter of the second network so that the feature map similarity value becomes a maximum value.
상기 제1 네트워크와 상기 제2 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여, 질환 정보 제공 신경망에 입력시키는 단계; 및
상기 질환의 유무에 따른 출력 결과에 기초하여, 상기 질환 정보 제공 신경망의 제3 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.12. The method of claim 11,
inputting the first read image and the second read image that have passed through at least one layer of the first network and the second network and information obtained by reading a change according to a disease as a disease label to a disease information providing neural network; and
and adjusting a third parameter of the disease information providing neural network based on an output result according to the presence or absence of the disease.
상기 제1 파라미터, 상기 제2 파라미터 및 상기 제3 파라미터는, 상기 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신되는 의료 영상 분석 모델 학습 방법.13. The method of claim 12,
The first parameter, the second parameter, and the third parameter are updated based on outputs finally returned through the first network, the second network, and the disease information providing neural network.
동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는 단계; 및
미리 학습된 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 영역을 판별하는 단계;를 포함하며,
상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것인 의료 영상 분석 방법.A medical image analysis method performed by a medical image analysis apparatus, comprising:
receiving a first medical image and a second medical image obtained by capturing the same diagnosis subject at different times; and
determining a change region between the first medical image and the second medical image by using a pre-learned medical image analysis model;
The medical image analysis model uses a pre-read first read image and a second read image of an arbitrary subject as a learning input image, and reads information obtained by reading a change between the first read image and the second read image as a read label A medical image analysis method that was learned by
상기 제1 의료 영상과 제2 의료 영상 사이의 변화 영역을 판별하는 단계는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하는 의료 영상 분석 방법.15. The method of claim 14,
The determining of the change region between the first medical image and the second medical image may include determining a change region according to a disease among the changes between the first medical image and the second medical image.
상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화 중 적어도 하나에 따른 영향은 최소화 되어 있는 의료 영상 분석 방법.16. The method of claim 15,
The determined change region is a medical image analysis method in which an effect of at least one of a change in breathing, posture, and age of the subject to be diagnosed is minimized.
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체.The first read image and the second read image of a pre-read arbitrary subject are used as a learning input image, and information obtained by reading a change between the first read image and the second read image is input to the first network as a read label making; and
Based on an output result of a similarity value between the first read image and the second read image, adjusting a first parameter of the first network includes instructions to perform a medical image analysis model learning method comprising: A recording medium on which a computer program is stored.
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램.The first read image and the second read image of a pre-read arbitrary subject are used as a learning input image, and information obtained by reading a change between the first read image and the second read image is input to the first network as a read label making; and
Based on an output result of a similarity value between the first read image and the second read image, adjusting a first parameter of the first network includes instructions to perform a medical image analysis model learning method comprising: A computer program stored in a computer readable storage medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210008378A KR102548203B1 (en) | 2021-01-20 | 2021-01-20 | Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210008378A KR102548203B1 (en) | 2021-01-20 | 2021-01-20 | Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220105723A true KR20220105723A (en) | 2022-07-28 |
KR102548203B1 KR102548203B1 (en) | 2023-06-29 |
Family
ID=82607613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210008378A KR102548203B1 (en) | 2021-01-20 | 2021-01-20 | Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102548203B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240064989A (en) | 2022-11-04 | 2024-05-14 | 경희대학교 산학협력단 | Apparatus and methods for supporting medical decisions |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140052524A (en) * | 2012-10-24 | 2014-05-07 | 삼성전자주식회사 | Method, apparatus and system for correcting medical image by patient's pose variation |
JP2020025786A (en) * | 2018-08-14 | 2020-02-20 | 富士フイルム株式会社 | Image processing apparatus, method and program |
JP2020064476A (en) * | 2018-10-18 | 2020-04-23 | コニカミノルタ株式会社 | Information processing device and program |
JP2020516427A (en) * | 2017-04-11 | 2020-06-11 | ケイロン メディカル テクノロジーズ リミテッド | RECIST assessment of tumor progression |
-
2021
- 2021-01-20 KR KR1020210008378A patent/KR102548203B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140052524A (en) * | 2012-10-24 | 2014-05-07 | 삼성전자주식회사 | Method, apparatus and system for correcting medical image by patient's pose variation |
JP2020516427A (en) * | 2017-04-11 | 2020-06-11 | ケイロン メディカル テクノロジーズ リミテッド | RECIST assessment of tumor progression |
JP2020025786A (en) * | 2018-08-14 | 2020-02-20 | 富士フイルム株式会社 | Image processing apparatus, method and program |
JP2020064476A (en) * | 2018-10-18 | 2020-04-23 | コニカミノルタ株式会社 | Information processing device and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240064989A (en) | 2022-11-04 | 2024-05-14 | 경희대학교 산학협력단 | Apparatus and methods for supporting medical decisions |
Also Published As
Publication number | Publication date |
---|---|
KR102548203B1 (en) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240119719A1 (en) | Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure | |
US11900647B2 (en) | Image classification method, apparatus, and device, storage medium, and medical electronic device | |
Chen et al. | Multiview two-task recursive attention model for left atrium and atrial scars segmentation | |
CN107133946B (en) | Medical image processing method, device and equipment | |
US20220012890A1 (en) | Model-Based Deep Learning for Globally Optimal Surface Segmentation | |
CN111597946B (en) | Processing method of image generator, image generation method and device | |
US20120170823A1 (en) | System and method for image based multiple-modality cardiac image alignment | |
US12056890B2 (en) | Method for measuring volume of organ by using artificial neural network, and apparatus therefor | |
KR102097743B1 (en) | Apparatus and Method for analyzing disease based on artificial intelligence | |
CN111524109A (en) | Head medical image scoring method and device, electronic equipment and storage medium | |
US11200671B2 (en) | Reference image guided object detection in medical image processing | |
CN115249228A (en) | Chest X-ray image identification method, chest X-ray image identification device, computer equipment and storage medium | |
Suinesiaputra et al. | Deep learning analysis of cardiac MRI in legacy datasets: multi-ethnic study of atherosclerosis | |
Arega et al. | Leveraging uncertainty estimates to improve segmentation performance in cardiac MR | |
KR102548203B1 (en) | Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof | |
Morishita et al. | Potential usefulness of biological fingerprints in chest radiographs for automated patient recognition and identification1 | |
CN118247284A (en) | Training method of image processing model and image processing method | |
JP2021052999A (en) | Evaluation system, evaluation method, learning method, learned model and program | |
Almeida et al. | cOOpD: reformulating COPD classification on chest CT scans as anomaly detection using contrastive representations | |
JP7457011B2 (en) | Anomaly detection method, anomaly detection program, anomaly detection device, server device, and information processing method | |
CN112767403A (en) | Medical image segmentation model training method, medical image segmentation method and device | |
Zheng et al. | D-net: Siamese based network for arbitrarily oriented volume alignment | |
Rijal et al. | Application of phase congruency for discriminating some lung diseases using chest radiograph | |
KR102136107B1 (en) | Apparatus and method for alignment of bone suppressed chest x-ray image | |
Zhang et al. | Localizing landmark sets in head CTs using random forests and a heuristic search algorithm for registration initialization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |