KR102548203B1 - Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof - Google Patents

Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof Download PDF

Info

Publication number
KR102548203B1
KR102548203B1 KR1020210008378A KR20210008378A KR102548203B1 KR 102548203 B1 KR102548203 B1 KR 102548203B1 KR 1020210008378 A KR1020210008378 A KR 1020210008378A KR 20210008378 A KR20210008378 A KR 20210008378A KR 102548203 B1 KR102548203 B1 KR 102548203B1
Authority
KR
South Korea
Prior art keywords
medical image
read
network
read image
image
Prior art date
Application number
KR1020210008378A
Other languages
Korean (ko)
Other versions
KR20220105723A (en
Inventor
김남국
조성만
서준범
오상영
윤지혜
Original Assignee
프로메디우스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프로메디우스 주식회사 filed Critical 프로메디우스 주식회사
Priority to KR1020210008378A priority Critical patent/KR102548203B1/en
Publication of KR20220105723A publication Critical patent/KR20220105723A/en
Application granted granted Critical
Publication of KR102548203B1 publication Critical patent/KR102548203B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5288Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명에 따르면, 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 미리 학습된 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법이 개시된다.According to the present invention, a first medical image and a second medical image obtained by capturing images of the same subject at different times are received as inputs, and the first medical image and the second medical image are obtained by using a pre-learned medical image analysis model. Disclosed are an artificial neural network-based medical image analysis device and method for discriminating changes between images, and a learning method thereof.

Figure R1020210008378
Figure R1020210008378

Description

인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법 {APPARATUS AND METHOD FOR ANALYZING MEDICAL IMAGE BASED ON ARTIFICIAL NEURAL NETWORK AND LEARNING METHOD THEREOF}Artificial neural network-based medical image analysis device, method, and learning method thereof

본 발명은 의료 영상 분석 장치, 방법 및 이의 학습 방법에 관한 것이다.The present invention relates to a medical image analysis apparatus, method, and learning method thereof.

X선 촬영은 영상의학 분야에서 인체 내부의 영상을 얻을 수 있는 기법으로 다양한 질병의 진단 및 치료 분야에서 사용되어 왔으며, 단순 흉부 촬영, 단순 복부 촬영, 단순 골격 촬영, 단순 부비동 촬영, 단순 경부 연조직(neck soft tissue) 촬영, 유방 촬영 등 진단 목적에 따라 전후 사진, 측면 또는 대각선 촬영 등으로 얻을 수 있다.X-ray imaging is a technique that can obtain images of the inside of the human body in the field of radiology and has been used in the field of diagnosis and treatment of various diseases. Depending on the purpose of diagnosis, such as a neck soft tissue scan or mammogram, it can be obtained with anteroposterior, lateral, or diagonal scans.

이러한 X선 촬영은 컴퓨터 단층촬영(CT), 자기공명영상(MRI) 등의 검사에 비하여 가격이 매우 저렴하고, 검사법이 간단하면서도 이를 통해 진단되는 질환의 수는 많다.X-ray imaging is very inexpensive compared to tests such as computed tomography (CT) and magnetic resonance imaging (MRI), and the number of diseases diagnosed through it is very simple and simple.

하지만, X선 영상을 통해 변화를 구분하는 일은, 환자의 호흡, 자세, 나이 등의 변화는 무시하면서 영상의학과 의사가 판단하는 기준에서 질환에 따른 변화만을 구분해야 하므로 기존 CNN 네트워크를 사용하여 해결하기에는 어려움이 있다.However, in distinguishing changes through X-ray images, it is difficult to solve using existing CNN networks because it is necessary to distinguish only changes according to diseases from the criteria determined by radiologists while ignoring changes in the patient's breathing, posture, age, etc. There are difficulties.

본 발명의 일 실시예에 따른 해결하고자 하는 과제는, 임의의 피검자의 판독 영상들을 이용하여 학습된 모델을 이용하여 동일 진단 대상자에 대해 획득된 의료 영상 간의 변화를 판별하도록 하는 것을 포함한다.An object to be solved according to an embodiment of the present invention includes discriminating a change between medical images obtained for the same diagnosis subject using a model trained using read images of a subject.

또한, 판독 영상 각각의 특징 맵이 서로 유사해지도록 하는 것을 포함한다.In addition, it includes making the feature maps of each read image similar to each other.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other non-specified objects of the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

상기 과제를 해결하기 위해, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치는, 미리 학습된 의료 영상 분석 모델이 저장된 메모리 및 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 상기 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 프로세서를 포함하며, 상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.In order to solve the above problems, an artificial neural network-based medical image analysis apparatus according to an embodiment of the present invention includes a memory in which a pre-learned medical image analysis model is stored and a first image obtained by capturing images of the same diagnosis subject at different times. and a processor that receives a medical image and a second medical image and determines a change between the first medical image and the second medical image using the medical image analysis model, wherein the medical image analysis model is pre-read. The first readout image and the second readout image of an arbitrary subject are used as learning input images, and information obtained by reading the change between the first readout image and the second readout image is used as a readout label for learning.

여기서, 상기 프로세서는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별할 수 있다.Here, the processor may determine a change region according to a disease among changes between the first medical image and the second medical image.

여기서, 상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있을 수 있다.Here, the determined change area may have a minimized effect due to changes in respiration, posture, and age of the subject to be diagnosed.

본 발명의 또 다른 실시예에 따른 인공 신경망 기반의 의료 영상 분석 모델 학습 방법은, 프로세서가, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함한다.A method for learning a medical image analysis model based on an artificial neural network according to another embodiment of the present invention, wherein a processor sets a pre-read first read image and a second read image of a subject as learning input images, and the first read image Based on the step of inputting the information obtained by reading the change between the read image and the second read image as a read label to the first network and the output result of the similarity value between the first read image and the second read image, the first read image 1 adjusting a first parameter of the network.

본 발명의 또 다른 실시예에 따른 인공 신경망 기반의 의료 영상 분석 모델 학습 방법은, 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는 단계 및 미리 학습된 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 단계를 포함하며, 상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.A method for learning a medical image analysis model based on an artificial neural network according to another embodiment of the present invention includes the steps of receiving a first medical image and a second medical image obtained by imaging the same diagnosis subject at different times and learning in advance and determining a change between the first medical image and the second medical image by using a medical image analysis model, wherein the medical image analysis model includes a first read image of a subject that has been previously read and a second read image of a subject. The readout image is used as a learning input image, and information obtained by reading the change between the first readout image and the second readout image is used as a readout label for learning.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체를 제공할 수 있다.In addition, a first read image and a second read image of an arbitrary subject that have been previously read are used as learning input images, and information obtained by reading a change between the first read image and the second read image is used as a read label, and the first network To perform a medical image analysis model learning method comprising the step of inputting input to and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a recording medium in which a computer program including a command to do is stored.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.In addition, a first read image and a second read image of an arbitrary subject that have been previously read are used as learning input images, and information obtained by reading a change between the first read image and the second read image is used as a read label, and the first network To perform a medical image analysis model learning method comprising the step of inputting input to and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a computer program stored in a computer readable storage medium containing instructions to do.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 기 학습된 모델을 이용하여 동일 진단 대상자에 대해 획득된 의료 영상에서 질환에 따른 변화를 판별할 수 있다.As described above, according to the embodiments of the present invention, it is possible to determine a change according to a disease in a medical image obtained for the same diagnosis subject using a pre-learned model.

또한, 판독 영상 각각의 특징 맵이 서로 유사해지도록 하므로 판독의 오차를 줄일 수 있다.In addition, since the feature maps of each read image are similar to each other, a read error can be reduced.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if the effects are not explicitly mentioned here, the effects described in the following specification expected by the technical features of the present invention and their provisional effects are treated as described in the specification of the present invention.

도 1은 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상을 예로 들어 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 예시적인 구조를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제1 네트워크와 제2 네트워크를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제2 네트워크에 따른 효과를 설명하기 위한 도면이다.
1 is a block diagram illustrating a medical image analysis apparatus based on an artificial neural network according to an embodiment of the present invention.
2 is a flowchart illustrating a method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention.
3 is a flowchart illustrating a method for learning a medical image analysis model according to an embodiment of the present invention.
4 illustrates an example of a learning input image used for learning of a medical image analysis model according to an embodiment of the present invention.
5 is a diagram for explaining an exemplary structure of a medical image analysis model according to an embodiment of the present invention.
6 is a diagram for explaining a first network and a second network of a medical image analysis model according to an embodiment of the present invention.
7 is a diagram for explaining an effect according to a second network of a medical image analysis model according to an embodiment of the present invention.

이하, 본 발명에 관련된 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, an artificial neural network-based medical image analysis apparatus and method, and a learning method thereof according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the described embodiments. And, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves.

본 발명은 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법에 관한 것이다.The present invention relates to an artificial neural network-based medical image analysis apparatus, method, and learning method thereof.

도 1은 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치를 나타낸 블록도이다.1 is a block diagram illustrating a medical image analysis apparatus based on an artificial neural network according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)는 프로세서(11) 및 메모리(12)를 포함한다.Referring to FIG. 1 , an artificial neural network-based medical image analysis apparatus 10 according to an embodiment of the present invention includes a processor 11 and a memory 12 .

본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)는 피검자의 X선 영상으로부터 질환에 의한 변화를 판독하기 위한 장치이다.An artificial neural network-based medical image analysis apparatus 10 according to an embodiment of the present invention is a device for reading changes due to a disease from an X-ray image of a subject.

구체적으로, 피검자의 natural variation(호흡, 나이, 촬영 자세) 등의 변화에 강인하게 학습할 수 있도록 하는 모듈을 이용하여 실제 영상의학과 의사들이 판독하는 절차처럼 동작한다.Specifically, it operates like a procedure read by actual radiologists by using a module that allows robust learning to changes in subjects' natural variation (breathing, age, shooting posture), etc.

이를 위해, 변화를 구분하기 위한 CNN 구조로 설계되며, 다중 레이블을 활용한다. 인공 신경망 기반의 의료 영상 분석 장치(10)의 의료 영상 분석 모델은 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 포함하며, 다중 레이블은 X선 영상의 변화를 판독한 정보인 판독 레이블, X선 영상의 타겟 픽셀값인 조정 레이블 및 질환에 따른 변화를 판독한 정보인 질환 레이블을 포함할 수 있다.To this end, it is designed as a CNN structure for distinguishing changes and utilizes multiple labels. The medical image analysis model of the artificial neural network-based medical image analysis apparatus 10 includes a first network, a second network, and a disease information providing neural network. It may include an adjustment label, which is a target pixel value of the line image, and a disease label, which is information obtained by reading a change according to a disease.

메모리(12)는 프로세서(11)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있고, 미리 학습된 의료 영상 분석 모델이 저장되며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어, SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 컴퓨터 판독 가능한 저장매체를 포함할 수 있다.The memory 12 may store programs (one or more instructions) for processing and control of the processor 11, store a pre-learned medical image analysis model, flash memory type, hard disk Hard disk type, multimedia card micro type, card type memory (eg SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory) , ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, at least one type of computer-readable storage medium can include

메모리(12)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있으며, 후술할 미리 학습된 의료 영상 분석 모델이 소프트웨어 모듈로 구성될 수 있다.Programs stored in the memory 12 may be divided into a plurality of modules according to functions, and a pre-trained medical image analysis model to be described later may be composed of software modules.

프로세서(11)는 메모리(12)에 저장된 하나 이상의 인스트럭션을 실행하며, 구체적으로, 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 의료 영상 분석 모델을 이용하여, 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별한다.The processor 11 executes one or more instructions stored in the memory 12. Specifically, the processor 11 receives a first medical image and a second medical image obtained by imaging the same diagnosis subject at different times as input, and generates a medical image analysis model. A change between the first medical image and the second medical image is determined using .

구체적으로, 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하며, 판별된 변화 영역은, 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있다.Specifically, among the changes between the first medical image and the second medical image, a change region according to a disease is discriminated, and the determined change region has a minimized effect due to changes in breathing, posture, and age of the subject to be diagnosed.

여기서, 프로세서(11)는 기능에 따라 복수 개의 모듈들로 구분될 수도 있고, 하나의 프로세서에서 기능들을 수행할 수도 있다. 프로세서는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 마이크로 컨트롤러 유닛(micro controller unit(MCU)) 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.Here, the processor 11 may be divided into a plurality of modules according to functions, or functions may be performed by one processor. A processor is one or more of a central processing unit (CPU), an application processor (AP), a micro controller unit (MCU), or a communication processor (CP). can include

본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)의 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.In the medical image analysis model of the artificial neural network-based medical image analysis apparatus 10 according to an embodiment of the present invention, a first read image and a second read image of an arbitrary subject are read as learning input images, and Information obtained by reading the change between the first read image and the second read image is learned as a read label.

의료 영상 분석 모델은 하기 도 5에서 상세히 설명한다.The medical image analysis model is described in detail in FIG. 5 below.

도 2는 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법은 의료 영상 분석 장치에 의해 수행되며, 단계 S10에서 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는다.Referring to FIG. 2 , the method of analyzing a medical image based on an artificial neural network according to an embodiment of the present invention is performed by a medical image analysis device, and in step S10, a first medical image obtained by imaging the same diagnosis subject at different time points An image and a second medical image are input.

단계 S20에서 미리 학습된 의료 영상 분석 모델을 이용하여, 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별한다.In step S20, a change between the first medical image and the second medical image is determined using the pre-learned medical image analysis model.

구체적으로, 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하며, 판별된 변화 영역은, 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있다.Specifically, among the changes between the first medical image and the second medical image, a change region according to a disease is discriminated, and the determined change region has a minimized effect due to changes in breathing, posture, and age of the subject to be diagnosed.

여기서, 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.Here, the medical image analysis model sets a first read image and a second read image of an arbitrary subject as learning input images, and reads information about changes between the first read image and the second read image as a read label. It is learned by

도 3은 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method for learning a medical image analysis model according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법은 프로세서에 의해 수행되며, 단계 S110에서 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시킨다.Referring to FIG. 3 , the method for learning a medical image analysis model according to an embodiment of the present invention is performed by a processor, and a first read image and a second read image of an arbitrary subject pre-read in step S110 are used as learning input images. , and information obtained by reading the change between the first read image and the second read image is input to the first network as a read label.

단계 S120에서 제1 판독 영상과 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 제1 네트워크의 제1 파라미터를 조정한다.In step S120, a first parameter of the first network is adjusted based on an output result of similarity values between the first readout image and the second readout image.

여기서, 제1 네트워크의 제1 파라미터를 조정하는 단계(S120)는, 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 제1 특징 벡터와 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과한 유사도 값의 출력 결과에 기초하여 제1 파라미터를 조정한다.Here, in the step of adjusting the first parameter of the first network (S120), a first feature vector is extracted from the first read image, and a second feature vector is extracted from the second read image, and the first feature vector and the second feature vector are extracted. 2 After integrating the first feature map and the second feature map generated as the feature vector passes through at least one layer using an integrated layer, the first feature map is generated based on the output result of the similarity value passed through a plurality of layer structures. Adjust the parameters.

단계 S130에서 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 타겟 픽셀값을 조정 레이블로 하여 제2 네트워크에 입력시킨다.In step S130, the first read image and the second read image passing through at least one layer of the first network and the target pixel value are input to the second network as an adjustment label.

단계 S140에서 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상 각각의 특징 맵(feature map) 유사도 값이 최대값이 되도록 제2 네트워크의 제2 파라미터를 조정한다.In step S140, a second parameter of the second network is adjusted so that a feature map similarity value of each of the first readout image and the second readout image passing through at least one layer of the first network becomes a maximum value.

단계 S150에서 제1 네트워크와 제2 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여, 질환 정보 제공 신경망에 입력시킨다.In step S150, the first read image and the second read image passing through at least one layer of the first network and the second network and information obtained by reading the change according to the disease are set as disease labels and input to the disease information providing neural network.

단계 S160에서 질환의 유무에 따른 출력 결과에 기초하여, 질환 정보 제공 신경망의 제3 파라미터를 조정한다.In step S160, the third parameter of the disease information providing neural network is adjusted based on the output result according to the presence or absence of the disease.

여기서, 제1 파라미터, 제2 파라미터 및 제3 파라미터는, 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신된다.Here, the first parameter, the second parameter, and the third parameter are updated based on output finally returned through the first network, the second network, and the disease information providing neural network.

도 4는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상을 예로 들어 나타낸 것이다.4 illustrates an example of a learning input image used for learning of a medical image analysis model according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상은 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 이용한다.As the learning input image used for learning of the medical image analysis model according to an embodiment of the present invention, a first read image and a second read image of an arbitrary subject that have been previously read are used.

도 4에 나타난 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습은 약 40만 쌍의 Chest X-ray follow-up 데이터를 활용하여 전체 학습을 진행한다.As shown in FIG. 4 , the learning of the medical image analysis model according to an embodiment of the present invention proceeds with overall learning by utilizing chest X-ray follow-up data of about 400,000 pairs.

학습 입력 영상은, 환자가 서로 다른 시간에 찍은 영상으로 구성되어 있으며, 이전에 찍은 영상(a)인 제1 판독 영상을 baseline, 이 후에 찍은 영상(b)인 제2 판독 영상을 follow-up 이라 지칭한다.The learning input image consists of images taken by the patient at different times. refers to

x-ray 데이터인 학습 입력 영상은 8bit의 png 형태로 변형되어 네트워크 입력에 사용되며, 학습 과정에서 랜덤 크롭, 랜덤 밝기변환, 랜덤 회전의 데이터 증강 기법을 사용하여 학습된다. 입력 데이터는 0부터 1사이 값으로 정규화 되어서 의료 영상 분석 모델을 학습시키기 위해 입력된다.The training input image, which is x-ray data, is transformed into an 8-bit png format and used for network input, and is learned using data augmentation techniques of random cropping, random brightness conversion, and random rotation in the learning process. Input data is normalized to a value between 0 and 1, and is input to train the medical image analysis model.

도 5는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 예시적인 구조를 설명하기 위한 도면이다.5 is a diagram for explaining an exemplary structure of a medical image analysis model according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 의료 영상 분석 모델은 제1 네트워크(110, 120, 130, 140), 제2 네트워크(200) 및 질환 정보 제공 신경망(310, 320)을 포함한다.Referring to FIG. 5 , the medical image analysis model according to an embodiment of the present invention includes a first network 110, 120, 130, 140, a second network 200, and a disease information providing neural network 310, 320. do.

구체적으로, 제1 네트워크(110, 120, 130, 140)는 제1 파라미터를 기초로 제1 판독 영상(영상 A)과 제2 판독 영상(영상 B) 사이의 유사도 값을 반환하는 적어도 하나의 레이어를 포함한다.Specifically, the first network (110, 120, 130, 140) is at least one layer that returns a similarity value between the first read image (Image A) and the second read image (Image B) based on the first parameter. includes

구체적으로, 제1 네트워크는, 제1 모듈(110)을 이용하여 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 제2 모듈(120)을 이용하여 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 제1 특징 벡터와 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어(130)를 이용하여 통합한 후, 다수의 레이어 구조(140)를 통과하여 특징맵 유사도 값을 반환하도록 학습된다.Specifically, the first network extracts a first feature vector from the first readout image using the first module 110 and extracts the second feature vector from the second readout image using the second module 120. Thus, after integrating the first feature map and the second feature map generated by passing the first feature vector and the second feature vector through at least one layer using the integration layer 130, the multiple layer structure 140 ) to return the feature map similarity value.

여기서, 제1 판독 영상(영상 A)은 baseline(영상 A)이고, 제2 판독 영상(영상 B)은 follow-up(영상 B)이며, 제1 모듈(110)과 제2 모듈(120)은 ResNet으로 구현된다.Here, the first read image (image A) is the baseline (image A), the second read image (image B) is the follow-up (image B), and the first module 110 and the second module 120 are It is implemented with ResNet.

예를 들어, 제1 네트워크의 제1 모듈(110)과 제2 모듈(120)은 샴 네트워크를 구성한다. 샴 네트워크는 두 개의 입력에 대해 독립적으로 두 개의 합성곱 신경망을 실행한 뒤 비교하는 네트워크 구성이다.For example, the first module 110 and the second module 120 of the first network constitute a Siamese network. A Siamese network is a network configuration that runs two convolutional neural networks independently on two inputs and then compares them.

샴 네트워크의 학습은 두 네트워크에 두 사진을 입력으로 넣고 합성곱 신경망으로 인코딩을 시킨 후, 만일 두 사진이 비슷하다면 인코딩 사이의 거리 값은 작아야 하며, 두 사진이 다르다면 인코딩 사이의 거리 값은 커지는 조건을 만족시키도록 학습된다.The learning of the Siamese network puts two pictures into the two networks as input and encodes them with a convolutional neural network. It is learned to satisfy the condition.

이를 통해, 제1 판독 영상과 제2 판독 영상 간의 유사도 값을 이용하여 변화 여부를 판별할 수 있게 되는 것이다.Through this, it is possible to determine whether there is a change using the similarity value between the first read image and the second read image.

구체적으로, baseline(영상 A)과 follow-up(영상 B)을 입력 받아 각각 ResNet(110, 120)을 통과하고 여기에서 나온 latent vector를 normal/abnormal, change/no-change 구분에 활용하게 된다.Specifically, baseline (image A) and follow-up (image B) are input and passed through ResNet (110, 120), respectively, and the latent vector generated here is used for normal/abnormal and change/no-change classification.

또한, 통합 레이어(130)는 concat 레이어로 구현되며, 다수의 레이어 구조(140)는 MLP를 통과하는 구조를 사용한다.In addition, the integration layer 130 is implemented as a concat layer, and the multiple layer structure 140 uses a structure passing through the MLP.

즉, change/no-change를 구분하기 위해서, baseline에서 나온 latent vector와 follow-up에서 나온 latent vector를 concat하고, MLP를 통과하는 구조를 사용한다.That is, in order to distinguish change/no-change, the latent vector from the baseline and the latent vector from the follow-up are concated and a structure passing through the MLP is used.

그러나, 제1 네트워크의 구성만으로는 환자의 호흡, 나이, 촬영 자세에 따른 변화를 제외할 수 없으므로, 제2 네트워크와 질환 정보 제공 신경망을 추가하여 상호 보완적으로 설계한다.However, since the configuration of the first network alone cannot exclude changes according to the patient's respiration, age, and photographing posture, the second network and the disease information providing neural network are added to complement each other.

제2 네트워크(200)는 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 특징 맵 유사도 값이 최대값이 되도록, 타겟 픽셀값을 조정 레이블로 하여 제2 파라미터가 조정되도록 학습된다.The second network 200 uses the target pixel value as an adjustment label to set the second parameter so that the feature map similarity value of each of the first readout image and the second readout image that has passed through at least one layer of the first network becomes a maximum value. is learned to adjust.

여기서, 타겟 픽셀값은 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 한 픽셀값을 의미한다.Here, the target pixel value means a pixel value based on the first read image to compensate for a difference that occurs when the first read image and the second read image are partially displaced from the direction of the X-ray according to the subject's posture.

제2 네트워크(200)는 Attention Module로 구현되며, baseline과 follow-up 사진에서 나온 각각의 특징 맵(feature map)이 서로 같은 형태를 가지도록 만드는 효과가 있다.The second network 200 is implemented as an attention module, and has an effect of making each feature map from the baseline and follow-up photos have the same shape as each other.

여기서, 서로 같은 형태를 가지도록 만드는 것은, 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 하고, X선의 방향이 동일한 상태에서 피검자가 촬영된 것처럼 제2 판독 영상의 형태를 보정하는 것이다.Here, the reason why the first read image and the second read image are made to have the same shape is to correct the difference that occurs when the first read image and the second read image are partially displaced from the direction of the X-ray according to the subject's posture. The first read image is used as a reference, The shape of the second read image is corrected as if the subject was photographed in a state in which the direction of the X-rays is the same.

이를 위해, 두 영상의 픽셀 값을 기반으로 픽셀 값이 유사하도록 보정을 수행하게 된다.To this end, correction is performed so that the pixel values of the two images are similar based on the pixel values of the two images.

질환 정보 제공 신경망(310, 320)은 질환의 유무를 출력하도록, 제1 판독 영상과 제2 판독 영상의 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여 제3 파라미터가 조정되도록 학습된다.The disease information providing neural networks 310 and 320 learn to adjust the third parameter by using information obtained by reading the change according to the disease in the first read image and the second read image as a disease label so as to output the presence or absence of the disease.

여기서, 질환 정보 제공 신경망(310, 320)은 Cross-Entropy Softmax 알고리즘을 이용한다.Here, the disease information providing neural networks 310 and 320 use the Cross-Entropy Softmax algorithm.

질환에 따른 변화를 판독한 정보는, 실제 기록지에서 판독문을 분석한 결과를 이용하여 질환의 종류를 기록한 정보이다.The information obtained by reading the change according to the disease is information on which the type of disease is recorded using the result of analyzing the reading statement on the actual recording sheet.

예를 들어, 질환의 종류는 흉부 X선 영상을 통해 판독 가능한 폐암, 폐결핵, 폐렴, 기흉을 포함할 수 있다.For example, the type of disease may include lung cancer, pulmonary tuberculosis, pneumonia, and pneumothorax that can be read through a chest X-ray image.

이를 이용하여, 영상의 변화를 판별하더라도, 호흡에 의한 변화는 제외하고, 질환에 따른 변화만을 판별할 수 있게 된다.Even if changes in the image are discriminated using this, it is possible to discriminate only changes due to disease, excluding changes due to respiration.

여기서, 제1 파라미터, 제2 파라미터 및 제3 파라미터는, 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신된다.Here, the first parameter, the second parameter, and the third parameter are updated based on output finally returned through the first network, the second network, and the disease information providing neural network.

전체 학습의 Loss는 수학식 1과 같이 설계될 수 있다.Loss of total learning can be designed as in Equation 1.

Figure 112021007894061-pat00001
Figure 112021007894061-pat00001

여기서, Ldisease, Lchange는 Cross-Entropy 또는 Pairwise Loss (Triplet, Contrastive 등)이 사용될 수 있다. λ는 각 Loss의 가중치를 나타내는 요소로 사용한다.Here, for L disease and L change , Cross-Entropy or Pairwise Loss (Triplet, Contrastive, etc.) can be used. λ is used as an element representing the weight of each loss.

Ldisease는 본 발명의 일 실시예에서 각각의 X-ray가 병이 있는지 없는지에 대한 판단을 수행함으로써 normal, abnormal를 구분하기 위한 정보를 마련하는 기능을 하며, 질환 정보 제공 신경망에서 사용된다.In one embodiment of the present invention, L disease serves to prepare information for distinguishing between normal and abnormal by determining whether each X-ray has a disease, and is used in a disease information providing neural network.

Lchange는 본 발명의 일 실시예에서 두 장의 follow-up x-ray를 입력으로 받아, change 인지 Change, no-change인지 구분할 수 있도록 하며, 제1 네트워크에서 사용된다.In one embodiment of the present invention, L change receives two follow-up x-rays as input, enables discrimination between change, change, and no-change, and is used in the first network.

Lmatching은 baseline과 follow-up 사진에서 서로 같은 곳을 바라볼 수 있도록 하며, 제2 네트워크에서 사용된다.L matching makes it possible to look at the same place in the baseline and follow-up pictures, and is used in the second network.

Ldisease와 Lmatching을 사용함으로써, 한 장의 x-ray 사진에서 병변이 있는 곳에 대하여 집중을 한 이후에, 다른 한장의 x-ray 사진에서 같은 곳에 병이 있는지 확인할 수 있다.By using L disease and L matching , after concentrating on the lesion area in one x-ray picture, it is possible to confirm whether the disease is present in the same area in another x-ray picture.

도 6은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제1 네트워크와 제2 네트워크를 설명하기 위한 도면이다.6 is a diagram for explaining a first network and a second network of a medical image analysis model according to an embodiment of the present invention.

상기 도 5에서는 제1 네트워크의 하나의 ResNet과 제2 네트워크의 Attention Module이 연결되는 것으로 도시하였지만, 발명의 다양한 실시예에 따르면, 제1 네트워크의 다수의 모듈(111, 112, 113, 114, 115) 각각에 제2 네트워크의 Attention Module(210, 220, 230, 240)이 각각 연결되어, 제1 네트워크의 각각의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 특징 맵 유사도 값이 최대값이 되도록 순차적으로 Attention Module의 파라미터를 조정할 수 있다.5 shows that one ResNet of the first network and the Attention Module of the second network are connected, but according to various embodiments of the present invention, a plurality of modules (111, 112, 113, 114, 115) of the first network ) are connected to the Attention Modules 210, 220, 230, and 240 of the second network, respectively, so that the feature map similarity value of each of the first readout image and the second readout image that has passed through each layer of the first network is the maximum You can sequentially adjust the parameters of the Attention Module so that they become values.

이에 따라, 제1 네트워크에서 차원이 다른 각각의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 서로 다른 픽셀 값이 제2 네트워크의 Attention Module를 통과하면서 각각의 픽셀 값이 유사해질 수 있다.Accordingly, the different pixel values of the first and second read images passing through each layer having a different dimension in the first network may become similar while passing through the attention module of the second network. .

구체적으로, Attention Module을 통과한 두 특징 맵(feature map)이 같은 곳을 바라보도록 만드는 Region Matching Loss를 설계한다.Specifically, we design a Region Matching Loss that makes the two feature maps that passed through the Attention Module look at the same place.

여기서, 같은 곳을 바라보도록 만드는 것은 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 하고, X선의 방향이 동일한 상태에서 피검자가 촬영된 것처럼 제2 판독 영상의 형태를 보정하는 것으로, 코사인 유사도가 최대가 되도록 두 영상의 attention을 일치시키는 Region Matching Loss를 설계한다.Here, the reason why the first read image and the second read image are made to look at the same place is to correct the difference that occurs when the first read image and the second read image are partially displaced from the direction of the X-ray according to the subject's posture. By correcting the shape of the second read-out image as if the subject was taken in the same direction, design Region Matching Loss to match the attention of the two images so that the cosine similarity is maximized.

Region Matching Loss는 하기 수학식 2로 정의된다.Region Matching Loss is defined by Equation 2 below.

Figure 112021007894061-pat00002
Figure 112021007894061-pat00002

여기서, Fb와 Ff는 각각 baseline과 follow-up에서 나온 특징 맵(feature map)을 의미한다.Here, F b and F f denote feature maps from baseline and follow-up, respectively.

Region Matching Loss는 서로 다른 두 장의 특징맵 유사도 값을 계산하여, feature map을 서로 유사하게 만들도록 하는 효과가 있다.Region Matching Loss has the effect of making the feature maps similar to each other by calculating the similarity values of two different feature maps.

두 장의 feature map이 서로 유사해야 Loss가 최소화 되는 구조를 가지고 있어서, 이 손실함수를 추가하여 학습하면 baseline과 follow-up의 feature map이 서로 유사해지는 효과를 가질 수 있다.It has a structure in which loss is minimized when the feature maps of the two sheets are similar to each other, so adding this loss function and learning can have the effect of making the feature maps of baseline and follow-up similar to each other.

도 7은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제2 네트워크에 따른 효과를 설명하기 위한 도면이다.7 is a diagram for explaining an effect according to a second network of a medical image analysis model according to an embodiment of the present invention.

도 7의 (a)는 baseline과 basline의 feature map을 나타낸 것이고, 도 7의 (b)는 follow-up 과 follow-up의 feature map을 나타낸 것이다.Figure 7(a) shows the feature maps of baseline and baseline, and Figure 7(b) shows the feature maps of follow-up and follow-up.

본 발명의 일 실시예에 따른 제2 네트워크의 Region matching module을 사용하여 나온 feature map은, 촬영 자세가 다름에도 불구하고, feature map 에서 서로 같은 곳이 activation 됨을 확인할 수 있다.In the feature maps obtained using the Region matching module of the second network according to an embodiment of the present invention, it can be confirmed that the same regions are activated in the feature maps, despite the different shooting postures.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체를 제공할 수 있다.In addition, a first read image and a second read image of an arbitrary subject that have been previously read are used as learning input images, and information obtained by reading a change between the first read image and the second read image is used as a read label, and the first network and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image; performing a medical image analysis model learning method comprising: It is possible to provide a recording medium in which a computer program including instructions to do so is stored.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.In addition, a first read image and a second read image of an arbitrary subject that have been previously read are used as learning input images, and information obtained by reading a change between the first read image and the second read image is used as a read label, and the first network To perform a medical image analysis model learning method comprising the step of inputting input to and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a computer program stored in a computer readable storage medium containing instructions to do.

이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Such computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the recording medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, etc. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.The above description is just one embodiment of the present invention, and those skilled in the art can implement it in a modified form without departing from the essential characteristics of the present invention. Therefore, the scope of the present invention should be construed to include various embodiments within the scope equivalent to those described in the claims without being limited to the above-described embodiments.

Claims (18)

의료 영상 분석 장치에 있어서,
미리 학습된 의료 영상 분석 모델이 저장된 메모리; 및
동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 상기 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 프로세서;를 포함하며,
상기 의료 영상 분석 모델은,
기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습되고,
제1 파라미터를 기초로 상기 제1 판독 영상과 상기 제2 판독 영상 사이의 유사도 값을 반환하는 적어도 하나의 레이어를 포함하는 제1 네트워크를 포함하는 것인 의료 영상 분석 장치.
In the medical image analysis device,
a memory in which a pre-learned medical image analysis model is stored; and
Receiving a first medical image and a second medical image obtained by capturing images of the same patient at different times, and discriminating a change between the first medical image and the second medical image using the medical image analysis model Including a processor;
The medical image analysis model,
A first read image and a second read image of a pre-read arbitrary subject are used as learning input images, and information obtained by reading a change between the first read image and the second read image is learned as a read label;
and a first network including at least one layer that returns a similarity value between the first read image and the second read image based on a first parameter.
제1항에 있어서,
상기 프로세서는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하는 의료 영상 분석 장치.
According to claim 1,
The processor determines a region of change according to a disease among changes between the first medical image and the second medical image.
제2항에 있어서,
상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있는 의료 영상 분석 장치.
According to claim 2,
The medical image analysis apparatus of claim 1 , wherein the determined change region has minimal effects due to changes in respiration, posture, and age of the subject to be diagnosed.
삭제delete 제1항에 있어서,
상기 제1 네트워크는, 상기 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 상기 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 상기 제1 특징 벡터와 상기 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과함에 기초해 상기 제1 특징 맵과 상기 제2 특징 맵의 특징맵 유사도 값을 반환하도록 학습되는 의료 영상 분석 장치.
According to claim 1,
The first network extracts a first feature vector from the first read image, and extracts a second feature vector from the second read image, so that the first feature vector and the second feature vector are at least one layer. After integrating the first feature map and the second feature map generated by passing through the integrated layer, the feature map similarity value of the first feature map and the second feature map is based on passing through a plurality of layer structures. A medical image analysis device that is trained to return
제5항에 있어서,
상기 의료 영상 분석 모델은, 상기 특징맵 유사도 값이 최대값이 되도록, 타겟 픽셀값을 조정 레이블로 하여 제2 파라미터가 조정되도록 학습되어 있는 제2 네트워크를 포함하는 의료 영상 분석 장치.
According to claim 5,
The medical image analysis model includes a second network that is learned to adjust a second parameter using a target pixel value as an adjustment label so that the feature map similarity value has a maximum value.
제6항에 있어서,
상기 의료 영상 분석 모델은, 질환의 유무를 출력하도록, 상기 제1 판독 영상과 상기 제2 판독 영상의 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여 제3 파라미터가 조정되도록 학습되어 있는 질환 정보 제공 신경망을 포함하는 의료 영상 분석 장치.
According to claim 6,
The medical image analysis model is trained to adjust a third parameter by using information obtained by reading changes according to diseases in the first read image and the second read image as a disease label so as to output the presence or absence of a disease. Disease information A medical image analysis device including a providing neural network.
제7항에 있어서,
상기 제1 파라미터, 상기 제2 파라미터 및 상기 제3 파라미터는, 상기 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신되는 의료 영상 분석 장치.
According to claim 7,
The first parameter, the second parameter, and the third parameter are updated based on an output finally returned through the first network, the second network, and the disease information providing neural network.
의료 영상 분석 모델 학습 방법에 있어서,
프로세서가, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화 영역을 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계; 및
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.
In the medical image analysis model learning method,
A processor takes a first read image and a second read image of an arbitrary subject as training input images, and reads information obtained by reading a change region between the first read image and a second read image as a read label. Step 1 input to the network; and
and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image.
제9항에 있어서,
상기 제1 네트워크의 제1 파라미터를 조정하는 단계는,
상기 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 상기 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 상기 제1 특징 벡터와 상기 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과함에 기초해 상기 제1 특징 맵과 상기 제2 특징 맵의 특징맵 유사도 값의 출력 결과에 기초하여 상기 제1 파라미터를 조정하는 의료 영상 분석 모델 학습 방법.
According to claim 9,
Adjusting the first parameter of the first network,
A first feature vector is extracted from the first read image, a second feature vector is extracted from the second read image, and the first feature vector and the second feature vector are generated by passing at least one layer. After integrating the first feature map and the second feature map using the integration layer, based on the output result of the feature map similarity value of the first feature map and the second feature map based on passing through a plurality of layer structures A method for learning a medical image analysis model for adjusting the first parameter.
제10항에 있어서,
상기 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 타겟 픽셀값을 조정 레이블로 하여 제2 네트워크에 입력시키는 단계; 및
상기 특징맵 유사도 값이 최대값이 되도록 상기 제2 네트워크의 제2 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.
According to claim 10,
inputting the first and second read images and target pixel values that have passed through at least one layer of the first network into a second network as adjustment labels; and
and adjusting a second parameter of the second network so that the feature map similarity value has a maximum value.
제11항에 있어서,
상기 제1 네트워크와 상기 제2 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여, 질환 정보 제공 신경망에 입력시키는 단계; 및
상기 질환의 유무에 따른 출력 결과에 기초하여, 상기 질환 정보 제공 신경망의 제3 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.
According to claim 11,
inputting the first read image and the second read image passing through at least one layer of the first network and the second network and information obtained by reading the change according to the disease as a disease label into a disease information providing neural network; and
and adjusting a third parameter of the disease information providing neural network based on an output result according to the presence or absence of the disease.
제12항에 있어서,
상기 제1 파라미터, 상기 제2 파라미터 및 상기 제3 파라미터는, 상기 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신되는 의료 영상 분석 모델 학습 방법.
According to claim 12,
The first parameter, the second parameter, and the third parameter are updated based on an output finally returned through the first network, the second network, and the disease information providing neural network.
의료 영상 분석 장치에 의해 수행되는 의료 영상 분석 방법에 있어서,
동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는 단계; 및
미리 학습된 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 영역을 판별하는 단계;를 포함하며,
상기 의료 영상 분석 모델은,
기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습되고,
제1 파라미터를 기초로 상기 제1 판독 영상과 상기 제2 판독 영상 사이의 유사도 값을 반환하는 적어도 하나의 레이어를 포함하는 제1 네트워크를 포함하는 것인 의료 영상 분석 방법.
In the medical image analysis method performed by the medical image analysis device,
receiving a first medical image and a second medical image obtained by capturing images of the same diagnosis subject at different times; and
Determining a change region between the first medical image and the second medical image by using a pre-learned medical image analysis model;
The medical image analysis model,
A first read image and a second read image of a pre-read arbitrary subject are used as learning input images, and information obtained by reading a change between the first read image and a second read image is learned as a read label;
and a first network including at least one layer that returns a similarity value between the first read image and the second read image based on a first parameter.
제14항에 있어서,
상기 제1 의료 영상과 제2 의료 영상 사이의 변화 영역을 판별하는 단계는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하는 의료 영상 분석 방법.
According to claim 14,
In the step of determining a change region between the first medical image and the second medical image, among the changes between the first medical image and the second medical image, a change region according to a disease is discriminated.
제15항에 있어서,
상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화 중 적어도 하나에 따른 영향은 최소화 되어 있는 의료 영상 분석 방법.
According to claim 15,
The medical image analysis method of claim 1 , wherein the determined change region has a minimized effect of at least one of changes in respiration, posture, and age of the subject to be diagnosed.
기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계; 및
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체.
A first read image and a second read image of a subject that have been previously read are set as learning input images, and information obtained by reading a change between the first read image and the second read image is input to the first network as a read label. step of doing; and
Adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image; Includes instructions for performing a medical image analysis model learning method including; A recording medium on which a computer program is stored.
기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계; 및
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램.
A first read image and a second read image of a subject that have been previously read are set as learning input images, and information obtained by reading a change between the first read image and the second read image is input to the first network as a read label. step of doing; and
Adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image; Includes instructions for performing a medical image analysis model learning method including; A computer program stored on a computer-readable storage medium that
KR1020210008378A 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof KR102548203B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210008378A KR102548203B1 (en) 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210008378A KR102548203B1 (en) 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof

Publications (2)

Publication Number Publication Date
KR20220105723A KR20220105723A (en) 2022-07-28
KR102548203B1 true KR102548203B1 (en) 2023-06-29

Family

ID=82607613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008378A KR102548203B1 (en) 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof

Country Status (1)

Country Link
KR (1) KR102548203B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240064989A (en) 2022-11-04 2024-05-14 경희대학교 산학협력단 Apparatus and methods for supporting medical decisions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020025786A (en) 2018-08-14 2020-02-20 富士フイルム株式会社 Image processing apparatus, method and program
JP2020064476A (en) * 2018-10-18 2020-04-23 コニカミノルタ株式会社 Information processing device and program
JP2020516427A (en) * 2017-04-11 2020-06-11 ケイロン メディカル テクノロジーズ リミテッド RECIST assessment of tumor progression

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101993384B1 (en) * 2012-10-24 2019-06-26 삼성전자주식회사 Method, Apparatus and system for correcting medical image by patient's pose variation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020516427A (en) * 2017-04-11 2020-06-11 ケイロン メディカル テクノロジーズ リミテッド RECIST assessment of tumor progression
JP2020025786A (en) 2018-08-14 2020-02-20 富士フイルム株式会社 Image processing apparatus, method and program
JP2020064476A (en) * 2018-10-18 2020-04-23 コニカミノルタ株式会社 Information processing device and program

Also Published As

Publication number Publication date
KR20220105723A (en) 2022-07-28

Similar Documents

Publication Publication Date Title
US8369593B2 (en) Systems and methods for robust learning based annotation of medical radiographs
US9014423B2 (en) Method and system for catheter tracking in fluoroscopic images using adaptive discriminant learning and measurement fusion
CN111597946B (en) Processing method of image generator, image generation method and device
CN112215858A (en) Method and system for image segmentation and recognition
JP2008508028A (en) Projection view and orientation of chest radiographs
Li et al. Automatic lumbar vertebrae detection based on feature fusion deep learning for partial occluded C-arm X-ray images
CN111754453A (en) Pulmonary tuberculosis detection method and system based on chest radiography image and storage medium
KR102548203B1 (en) Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof
Huang et al. Bone feature segmentation in ultrasound spine image with robustness to speckle and regular occlusion noise
Kubecka et al. Registration of bimodal retinal images-improving modifications
CN111524109A (en) Head medical image scoring method and device, electronic equipment and storage medium
US7251353B2 (en) Automated method of patient recognition using chest radiographs
Maffei et al. Radiomics classifier to quantify automatic segmentation quality of cardiac sub-structures for radiotherapy treatment planning
WO2022017238A1 (en) Automatic detection of vertebral dislocations
CN112767403A (en) Medical image segmentation model training method, medical image segmentation method and device
CN115602320B (en) Difficult airway assessment method and system
JP7129058B2 (en) Medical image diagnosis support device, program, and medical image diagnosis support method
Almeida et al. cOOpD: reformulating COPD classification on chest CT scans as anomaly detection using contrastive representations
Luo et al. Automatic image hanging protocol for chest radiographs in PACS
Al Arif et al. Cervical vertebral corner detection using Haar-like features and modified Hough forest
KR102136107B1 (en) Apparatus and method for alignment of bone suppressed chest x-ray image
Zhang et al. Localizing landmark sets in head CTs using random forests and a heuristic search algorithm for registration initialization
Paul et al. Computer-Aided Diagnosis Using Hybrid Technique for Fastened and Accurate Analysis of Tuberculosis Detection with Adaboost and Learning Vector Quantization
KR102672531B1 (en) Method and apparatus for automatically estimating spine position in medical images using deep learning-based pose estimation
KR102477632B1 (en) Method and apparatus for training image using generative adversarial network

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right