KR20220105723A - Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof - Google Patents

Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof Download PDF

Info

Publication number
KR20220105723A
KR20220105723A KR1020210008378A KR20210008378A KR20220105723A KR 20220105723 A KR20220105723 A KR 20220105723A KR 1020210008378 A KR1020210008378 A KR 1020210008378A KR 20210008378 A KR20210008378 A KR 20210008378A KR 20220105723 A KR20220105723 A KR 20220105723A
Authority
KR
South Korea
Prior art keywords
image
medical image
read
network
parameter
Prior art date
Application number
KR1020210008378A
Other languages
Korean (ko)
Other versions
KR102548203B1 (en
Inventor
김남국
조성만
서준범
오상영
윤지혜
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020210008378A priority Critical patent/KR102548203B1/en
Publication of KR20220105723A publication Critical patent/KR20220105723A/en
Application granted granted Critical
Publication of KR102548203B1 publication Critical patent/KR102548203B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5288Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

According to the present invention, disclosed are an apparatus and method for analyzing a medical image based on an artificial neural network and a learning method thereof. The apparatus receives a first medical image and a second medical image imaged at different viewpoints for the same subject to be diagnosed and determines a change between the first medical image and the second medical image by using a pre-learned medical image analysis model.

Description

인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법 {APPARATUS AND METHOD FOR ANALYZING MEDICAL IMAGE BASED ON ARTIFICIAL NEURAL NETWORK AND LEARNING METHOD THEREOF}Artificial neural network-based medical image analysis device, method, and learning method {APPARATUS AND METHOD FOR ANALYZING MEDICAL IMAGE BASED ON ARTIFICIAL NEURAL NETWORK AND LEARNING METHOD THEREOF}

본 발명은 의료 영상 분석 장치, 방법 및 이의 학습 방법에 관한 것이다.The present invention relates to a medical image analysis apparatus, a method, and a learning method thereof.

X선 촬영은 영상의학 분야에서 인체 내부의 영상을 얻을 수 있는 기법으로 다양한 질병의 진단 및 치료 분야에서 사용되어 왔으며, 단순 흉부 촬영, 단순 복부 촬영, 단순 골격 촬영, 단순 부비동 촬영, 단순 경부 연조직(neck soft tissue) 촬영, 유방 촬영 등 진단 목적에 따라 전후 사진, 측면 또는 대각선 촬영 등으로 얻을 수 있다.X-ray imaging is a technique that can obtain images of the inside of the human body in the field of radiology and has been used in the diagnosis and treatment of various diseases. Depending on the purpose of diagnosis, such as neck soft tissue), mammography, etc., it can be obtained by taking before-and-after photos, lateral or diagonal photos.

이러한 X선 촬영은 컴퓨터 단층촬영(CT), 자기공명영상(MRI) 등의 검사에 비하여 가격이 매우 저렴하고, 검사법이 간단하면서도 이를 통해 진단되는 질환의 수는 많다.Such X-ray imaging is very inexpensive compared to examinations such as computed tomography (CT) and magnetic resonance imaging (MRI), and although the examination method is simple, the number of diseases diagnosed through it is large.

하지만, X선 영상을 통해 변화를 구분하는 일은, 환자의 호흡, 자세, 나이 등의 변화는 무시하면서 영상의학과 의사가 판단하는 기준에서 질환에 따른 변화만을 구분해야 하므로 기존 CNN 네트워크를 사용하여 해결하기에는 어려움이 있다.However, in classifying changes through X-ray images, it is difficult to solve using the existing CNN network because it is necessary to distinguish only the changes according to the disease from the criteria judged by the radiologist while ignoring the changes in the patient's breathing, posture, and age. There are difficulties.

본 발명의 일 실시예에 따른 해결하고자 하는 과제는, 임의의 피검자의 판독 영상들을 이용하여 학습된 모델을 이용하여 동일 진단 대상자에 대해 획득된 의료 영상 간의 변화를 판별하도록 하는 것을 포함한다.An object to be solved according to an embodiment of the present invention includes determining a change between medical images acquired for the same diagnosis subject by using a model learned using read images of an arbitrary subject.

또한, 판독 영상 각각의 특징 맵이 서로 유사해지도록 하는 것을 포함한다.It also includes making the feature maps of each read image similar to each other.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

상기 과제를 해결하기 위해, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치는, 미리 학습된 의료 영상 분석 모델이 저장된 메모리 및 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 상기 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 프로세서를 포함하며, 상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.In order to solve the above problems, an artificial neural network-based medical image analysis apparatus according to an embodiment of the present invention includes a memory in which a pre-learned medical image analysis model is stored and a first image obtained by capturing the same diagnosis subject at different points in time. and a processor that receives a medical image and a second medical image, and determines a change between the first medical image and the second medical image by using the medical image analysis model, wherein the medical image analysis model includes: It is learned by using the first reading image and the second reading image of an arbitrary subject as a learning input image, and using information obtained by reading a change between the first reading image and the second reading image as a reading label.

여기서, 상기 프로세서는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별할 수 있다.Here, the processor may determine a change region according to a disease among changes between the first medical image and the second medical image.

여기서, 상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있을 수 있다.Here, in the determined change region, the influence of the change in breathing, posture, and age of the subject to be diagnosed may be minimized.

본 발명의 또 다른 실시예에 따른 인공 신경망 기반의 의료 영상 분석 모델 학습 방법은, 프로세서가, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함한다.In a method for training a medical image analysis model based on an artificial neural network according to another embodiment of the present invention, the processor uses a pre-read first read image and a second read image of an arbitrary subject as a learning input image, and inputting information for reading a change between the readout image and the second readout image as a readout label to the first network, and based on an output result of a similarity value between the first readout image and the second readout image, the second readout image 1 adjusting a first parameter of the network.

본 발명의 또 다른 실시예에 따른 인공 신경망 기반의 의료 영상 분석 모델 학습 방법은, 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는 단계 및 미리 학습된 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 단계를 포함하며, 상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.A method for learning a medical image analysis model based on an artificial neural network according to another embodiment of the present invention includes the steps of: receiving a first medical image and a second medical image obtained by capturing the same diagnosis subject at different points in time; and determining a change between the first medical image and the second medical image by using a medical image analysis model, wherein the medical image analysis model includes a first read image and a second read image of an arbitrary subject. It is learned by using a read image as a learning input image, and information obtained by reading a change between the first read image and the second read image as a read label.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체를 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a recording medium in which a computer program including instructions to be stored is stored.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a computer program stored in a computer-readable storage medium containing instructions.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 기 학습된 모델을 이용하여 동일 진단 대상자에 대해 획득된 의료 영상에서 질환에 따른 변화를 판별할 수 있다.As described above, according to embodiments of the present invention, it is possible to determine a change according to a disease in a medical image acquired for the same diagnosis subject using a pre-trained model.

또한, 판독 영상 각각의 특징 맵이 서로 유사해지도록 하므로 판독의 오차를 줄일 수 있다.In addition, since the feature maps of each read image are made to be similar to each other, it is possible to reduce a read error.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if effects not explicitly mentioned herein, the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as described in the specification of the present invention.

도 1은 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상을 예로 들어 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 예시적인 구조를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제1 네트워크와 제2 네트워크를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제2 네트워크에 따른 효과를 설명하기 위한 도면이다.
1 is a block diagram illustrating an artificial neural network-based medical image analysis apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention.
3 is a flowchart illustrating a method for learning a medical image analysis model according to an embodiment of the present invention.
4 illustrates an example of a learning input image used for learning a medical image analysis model according to an embodiment of the present invention.
5 is a diagram for explaining an exemplary structure of a medical image analysis model according to an embodiment of the present invention.
6 is a diagram illustrating a first network and a second network of a medical image analysis model according to an embodiment of the present invention.
7 is a diagram for explaining an effect of a second network of a medical image analysis model according to an embodiment of the present invention.

이하, 본 발명에 관련된 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, an artificial neural network-based medical image analysis apparatus and method and a learning method thereof according to the present invention will be described in more detail with reference to the drawings. However, the present invention may be embodied in several different forms, and is not limited to the described embodiments. In addition, in order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.

본 발명은 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법에 관한 것이다.The present invention relates to an artificial neural network-based medical image analysis apparatus, method, and learning method thereof.

도 1은 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치를 나타낸 블록도이다.1 is a block diagram illustrating an artificial neural network-based medical image analysis apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)는 프로세서(11) 및 메모리(12)를 포함한다.Referring to FIG. 1 , an artificial neural network-based medical image analysis apparatus 10 according to an embodiment of the present invention includes a processor 11 and a memory 12 .

본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)는 피검자의 X선 영상으로부터 질환에 의한 변화를 판독하기 위한 장치이다.The artificial neural network-based medical image analysis apparatus 10 according to an embodiment of the present invention is an apparatus for reading a change due to a disease from an X-ray image of a subject.

구체적으로, 피검자의 natural variation(호흡, 나이, 촬영 자세) 등의 변화에 강인하게 학습할 수 있도록 하는 모듈을 이용하여 실제 영상의학과 의사들이 판독하는 절차처럼 동작한다.Specifically, it operates like a procedure read by actual radiologists by using a module that enables strong learning from changes in the subject's natural variation (respiration, age, photographing posture), etc.

이를 위해, 변화를 구분하기 위한 CNN 구조로 설계되며, 다중 레이블을 활용한다. 인공 신경망 기반의 의료 영상 분석 장치(10)의 의료 영상 분석 모델은 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 포함하며, 다중 레이블은 X선 영상의 변화를 판독한 정보인 판독 레이블, X선 영상의 타겟 픽셀값인 조정 레이블 및 질환에 따른 변화를 판독한 정보인 질환 레이블을 포함할 수 있다.To this end, it is designed as a CNN structure to distinguish changes and utilizes multiple labels. The medical image analysis model of the artificial neural network-based medical image analysis apparatus 10 includes a first network, a second network, and a neural network for providing disease information, and the multi-label is information obtained by reading changes in an X-ray image, a read label, X It may include an adjustment label, which is a target pixel value of the line image, and a disease label, which is information obtained by reading a change according to a disease.

메모리(12)는 프로세서(11)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있고, 미리 학습된 의료 영상 분석 모델이 저장되며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어, SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 컴퓨터 판독 가능한 저장매체를 포함할 수 있다.The memory 12 may store programs (one or more instructions) for processing and controlling the processor 11 , a pre-trained medical image analysis model is stored, and a flash memory type, hard disk hard disk type, multimedia card micro type, card type memory (eg, SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory) , ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, and at least one type of computer-readable storage medium may include

메모리(12)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있으며, 후술할 미리 학습된 의료 영상 분석 모델이 소프트웨어 모듈로 구성될 수 있다.Programs stored in the memory 12 may be divided into a plurality of modules according to functions, and a pre-trained medical image analysis model to be described later may be configured as a software module.

프로세서(11)는 메모리(12)에 저장된 하나 이상의 인스트럭션을 실행하며, 구체적으로, 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 의료 영상 분석 모델을 이용하여, 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별한다.The processor 11 executes one or more instructions stored in the memory 12 , and specifically, receives a first medical image and a second medical image obtained by imaging the same diagnosis subject at different times, and a medical image analysis model is used to determine a change between the first medical image and the second medical image.

구체적으로, 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하며, 판별된 변화 영역은, 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있다.Specifically, a change region according to a disease is determined among changes between the first medical image and the second medical image, and in the determined change region, the influence of changes in respiration, posture, and age of a subject to be diagnosed is minimized.

여기서, 프로세서(11)는 기능에 따라 복수 개의 모듈들로 구분될 수도 있고, 하나의 프로세서에서 기능들을 수행할 수도 있다. 프로세서는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 마이크로 컨트롤러 유닛(micro controller unit(MCU)) 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.Here, the processor 11 may be divided into a plurality of modules according to functions, and functions may be performed by one processor. The processor is one or more of a central processing unit (CPU), an application processor (AP), a micro controller unit (MCU), or a communication processor (CP). may include

본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 장치(10)의 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.The medical image analysis model of the artificial neural network-based medical image analysis apparatus 10 according to an embodiment of the present invention uses a pre-read first read image and a second read image of an arbitrary subject as learning input images, The information obtained by reading the change between the first read image and the second read image was learned as a read label.

의료 영상 분석 모델은 하기 도 5에서 상세히 설명한다.The medical image analysis model will be described in detail with reference to FIG. 5 below.

도 2는 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 인공 신경망 기반의 의료 영상 분석 방법은 의료 영상 분석 장치에 의해 수행되며, 단계 S10에서 동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는다.Referring to FIG. 2 , the method for analyzing a medical image based on an artificial neural network according to an embodiment of the present invention is performed by a medical image analyzing apparatus, and the first medical image obtained by capturing the same diagnosis subject at a different time in step S10 An image and a second medical image are input.

단계 S20에서 미리 학습된 의료 영상 분석 모델을 이용하여, 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별한다.In step S20, a change between the first medical image and the second medical image is determined using the pre-trained medical image analysis model.

구체적으로, 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하며, 판별된 변화 영역은, 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있다.Specifically, a change region according to a disease is determined among changes between the first medical image and the second medical image, and in the determined change region, the influence of changes in respiration, posture, and age of a subject to be diagnosed is minimized.

여기서, 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것이다.Here, the medical image analysis model uses the first read image and the second read image of a pre-read arbitrary subject as a learning input image, and reads information obtained by reading a change between the first read image and the second read image as a read label has been learned by

도 3은 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method for learning a medical image analysis model according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 의료 영상 분석 모델 학습 방법은 프로세서에 의해 수행되며, 단계 S110에서 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시킨다.Referring to FIG. 3 , the method for training a medical image analysis model according to an embodiment of the present invention is performed by a processor, and a first read image and a second read image of an arbitrary subject read in step S110 are used as a learning input image. , and information that reads a change between the first read image and the second read image is input to the first network as a read label.

단계 S120에서 제1 판독 영상과 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 제1 네트워크의 제1 파라미터를 조정한다.In step S120 , the first parameter of the first network is adjusted based on the output result of the similarity value between the first read image and the second read image.

여기서, 제1 네트워크의 제1 파라미터를 조정하는 단계(S120)는, 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 제1 특징 벡터와 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과한 유사도 값의 출력 결과에 기초하여 제1 파라미터를 조정한다.Here, in the step of adjusting the first parameter of the first network ( S120 ), the first feature vector is extracted from the first readout image and the second feature vector is extracted from the second readout image, so that the first feature vector and the second feature vector are extracted. After the first feature map and the second feature map, which are generated as the two feature vectors pass through at least one layer, are integrated using the integrated layer, the first feature map is first based on the output result of the similarity values that have passed through the plurality of layer structures. Adjust the parameters.

단계 S130에서 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 타겟 픽셀값을 조정 레이블로 하여 제2 네트워크에 입력시킨다.In step S130, the first read image and the second read image that have passed through at least one layer of the first network and the target pixel value are input to the second network as adjustment labels.

단계 S140에서 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상 각각의 특징 맵(feature map) 유사도 값이 최대값이 되도록 제2 네트워크의 제2 파라미터를 조정한다.In step S140 , the second parameter of the second network is adjusted such that a feature map similarity value of each of the first read image and the second read image that has passed through at least one layer of the first network becomes a maximum value.

단계 S150에서 제1 네트워크와 제2 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여, 질환 정보 제공 신경망에 입력시킨다.In step S150, the first read image and the second read image that have passed through at least one layer of the first network and the second network, and information obtained by reading the change according to the disease are input to the disease information providing neural network as a disease label.

단계 S160에서 질환의 유무에 따른 출력 결과에 기초하여, 질환 정보 제공 신경망의 제3 파라미터를 조정한다.In step S160, based on the output result according to the presence or absence of the disease, the third parameter of the disease information providing neural network is adjusted.

여기서, 제1 파라미터, 제2 파라미터 및 제3 파라미터는, 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신된다.Here, the first parameter, the second parameter, and the third parameter are updated based on the output finally returned through the first network, the second network, and the disease information providing neural network.

도 4는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상을 예로 들어 나타낸 것이다.4 illustrates an example of a learning input image used for learning a medical image analysis model according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습에 이용되는 학습 입력 영상은 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 이용한다.A training input image used for learning a medical image analysis model according to an embodiment of the present invention uses a pre-read first readout image and a second readout image of an arbitrary subject.

도 4에 나타난 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 학습은 약 40만 쌍의 Chest X-ray follow-up 데이터를 활용하여 전체 학습을 진행한다.As shown in FIG. 4 , in the training of the medical image analysis model according to an embodiment of the present invention, the entire learning is performed using about 400,000 pairs of chest X-ray follow-up data.

학습 입력 영상은, 환자가 서로 다른 시간에 찍은 영상으로 구성되어 있으며, 이전에 찍은 영상(a)인 제1 판독 영상을 baseline, 이 후에 찍은 영상(b)인 제2 판독 영상을 follow-up 이라 지칭한다.The learning input image consists of images taken at different times by the patient, and the first readout image, which is the image taken before (a), is called the baseline, and the second readout image, which is the image taken after (b), is called follow-up. refers to

x-ray 데이터인 학습 입력 영상은 8bit의 png 형태로 변형되어 네트워크 입력에 사용되며, 학습 과정에서 랜덤 크롭, 랜덤 밝기변환, 랜덤 회전의 데이터 증강 기법을 사용하여 학습된다. 입력 데이터는 0부터 1사이 값으로 정규화 되어서 의료 영상 분석 모델을 학습시키기 위해 입력된다.The learning input image, which is x-ray data, is transformed into an 8-bit png format and used for network input. The input data is normalized to a value between 0 and 1 and is input to train a medical image analysis model.

도 5는 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 예시적인 구조를 설명하기 위한 도면이다.5 is a diagram for explaining an exemplary structure of a medical image analysis model according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 의료 영상 분석 모델은 제1 네트워크(110, 120, 130, 140), 제2 네트워크(200) 및 질환 정보 제공 신경망(310, 320)을 포함한다.Referring to FIG. 5 , a medical image analysis model according to an embodiment of the present invention includes first networks 110 , 120 , 130 , 140 , a second network 200 , and disease information providing neural networks 310 and 320 . do.

구체적으로, 제1 네트워크(110, 120, 130, 140)는 제1 파라미터를 기초로 제1 판독 영상(영상 A)과 제2 판독 영상(영상 B) 사이의 유사도 값을 반환하는 적어도 하나의 레이어를 포함한다.Specifically, the first networks 110 , 120 , 130 , and 140 at least one layer that returns a similarity value between the first readout image (image A) and the second readout image (image B) based on the first parameter includes

구체적으로, 제1 네트워크는, 제1 모듈(110)을 이용하여 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 제2 모듈(120)을 이용하여 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 제1 특징 벡터와 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어(130)를 이용하여 통합한 후, 다수의 레이어 구조(140)를 통과하여 특징맵 유사도 값을 반환하도록 학습된다.Specifically, the first network extracts a first feature vector from the first read image by using the first module 110 , and extracts a second feature vector from the second read image by using the second module 120 . Thus, after integrating the first feature map and the second feature map generated as the first feature vector and the second feature vector pass through at least one layer using the integration layer 130 , the plurality of layer structures 140 ) to pass and learn to return the feature map similarity value.

여기서, 제1 판독 영상(영상 A)은 baseline(영상 A)이고, 제2 판독 영상(영상 B)은 follow-up(영상 B)이며, 제1 모듈(110)과 제2 모듈(120)은 ResNet으로 구현된다.Here, the first reading image (image A) is the baseline (image A), the second reading image (image B) is the follow-up (image B), and the first module 110 and the second module 120 are It is implemented with ResNet.

예를 들어, 제1 네트워크의 제1 모듈(110)과 제2 모듈(120)은 샴 네트워크를 구성한다. 샴 네트워크는 두 개의 입력에 대해 독립적으로 두 개의 합성곱 신경망을 실행한 뒤 비교하는 네트워크 구성이다.For example, the first module 110 and the second module 120 of the first network constitute a Siamese network. A Siamese network is a network configuration that runs two convolutional neural networks independently for two inputs and then compares them.

샴 네트워크의 학습은 두 네트워크에 두 사진을 입력으로 넣고 합성곱 신경망으로 인코딩을 시킨 후, 만일 두 사진이 비슷하다면 인코딩 사이의 거리 값은 작아야 하며, 두 사진이 다르다면 인코딩 사이의 거리 값은 커지는 조건을 만족시키도록 학습된다.The learning of the Siamese network is to put two pictures into two networks as input and encode them with a convolutional neural network. If the two pictures are similar, the distance between encodings should be small. learned to satisfy the condition.

이를 통해, 제1 판독 영상과 제2 판독 영상 간의 유사도 값을 이용하여 변화 여부를 판별할 수 있게 되는 것이다.Through this, it is possible to determine whether there is a change by using the similarity value between the first read image and the second read image.

구체적으로, baseline(영상 A)과 follow-up(영상 B)을 입력 받아 각각 ResNet(110, 120)을 통과하고 여기에서 나온 latent vector를 normal/abnormal, change/no-change 구분에 활용하게 된다.Specifically, the baseline (image A) and follow-up (image B) are received and passed through ResNet (110, 120), respectively, and the latent vector obtained therefrom is used to classify normal/abnormal and change/no-change.

또한, 통합 레이어(130)는 concat 레이어로 구현되며, 다수의 레이어 구조(140)는 MLP를 통과하는 구조를 사용한다.In addition, the integration layer 130 is implemented as a concat layer, and the multiple layer structure 140 uses a structure passing through the MLP.

즉, change/no-change를 구분하기 위해서, baseline에서 나온 latent vector와 follow-up에서 나온 latent vector를 concat하고, MLP를 통과하는 구조를 사용한다.That is, in order to distinguish change/no-change, the latent vector from the baseline and the latent vector from the follow-up are concatenated, and a structure that passes through the MLP is used.

그러나, 제1 네트워크의 구성만으로는 환자의 호흡, 나이, 촬영 자세에 따른 변화를 제외할 수 없으므로, 제2 네트워크와 질환 정보 제공 신경망을 추가하여 상호 보완적으로 설계한다.However, since changes according to the patient's respiration, age, and photographing posture cannot be excluded only by the configuration of the first network, the second network and the disease information providing neural network are added to complement each other.

제2 네트워크(200)는 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 특징 맵 유사도 값이 최대값이 되도록, 타겟 픽셀값을 조정 레이블로 하여 제2 파라미터가 조정되도록 학습된다.The second network 200 sets the second parameter using the target pixel value as the adjustment label so that the feature map similarity value of each of the first read image and the second read image that has passed through at least one layer of the first network becomes the maximum value. is learned to adjust.

여기서, 타겟 픽셀값은 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 한 픽셀값을 의미한다.Here, the target pixel value refers to a pixel value based on the first read image in order to correct a difference that occurs when the first read image and the second read image partially deviate from the X-ray direction according to the subject's posture.

제2 네트워크(200)는 Attention Module로 구현되며, baseline과 follow-up 사진에서 나온 각각의 특징 맵(feature map)이 서로 같은 형태를 가지도록 만드는 효과가 있다.The second network 200 is implemented as an attention module, and has the effect of making each feature map from the baseline and the follow-up photo have the same shape.

여기서, 서로 같은 형태를 가지도록 만드는 것은, 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 하고, X선의 방향이 동일한 상태에서 피검자가 촬영된 것처럼 제2 판독 영상의 형태를 보정하는 것이다.Here, to have the same shape as each other, in order to correct a difference that occurs when the first read image and the second read image partially deviate from the direction of the X-ray according to the posture of the subject, the first read image is the reference, The shape of the second read image is corrected as if the subject was photographed in a state in which the X-ray directions are the same.

이를 위해, 두 영상의 픽셀 값을 기반으로 픽셀 값이 유사하도록 보정을 수행하게 된다.To this end, correction is performed so that the pixel values of the two images are similar to each other based on the pixel values.

질환 정보 제공 신경망(310, 320)은 질환의 유무를 출력하도록, 제1 판독 영상과 제2 판독 영상의 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여 제3 파라미터가 조정되도록 학습된다.The disease information providing neural networks 310 and 320 are trained to output the presence or absence of a disease, and to adjust the third parameter using information obtained by reading changes according to diseases of the first and second reading images as a disease label.

여기서, 질환 정보 제공 신경망(310, 320)은 Cross-Entropy Softmax 알고리즘을 이용한다.Here, the disease information providing neural networks 310 and 320 use the Cross-Entropy Softmax algorithm.

질환에 따른 변화를 판독한 정보는, 실제 기록지에서 판독문을 분석한 결과를 이용하여 질환의 종류를 기록한 정보이다.The information that reads the change according to the disease is information that records the type of disease using the result of analyzing the reading on the actual recording sheet.

예를 들어, 질환의 종류는 흉부 X선 영상을 통해 판독 가능한 폐암, 폐결핵, 폐렴, 기흉을 포함할 수 있다.For example, the type of disease may include lung cancer, pulmonary tuberculosis, pneumonia, and pneumothorax that can be read through a chest X-ray image.

이를 이용하여, 영상의 변화를 판별하더라도, 호흡에 의한 변화는 제외하고, 질환에 따른 변화만을 판별할 수 있게 된다.Using this, even if the change in the image is determined, it is possible to determine only the change according to the disease, excluding the change due to respiration.

여기서, 제1 파라미터, 제2 파라미터 및 제3 파라미터는, 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신된다.Here, the first parameter, the second parameter, and the third parameter are updated based on the output finally returned through the first network, the second network, and the disease information providing neural network.

전체 학습의 Loss는 수학식 1과 같이 설계될 수 있다.Loss of overall learning may be designed as in Equation (1).

Figure pat00001
Figure pat00001

여기서, Ldisease, Lchange는 Cross-Entropy 또는 Pairwise Loss (Triplet, Contrastive 등)이 사용될 수 있다. λ는 각 Loss의 가중치를 나타내는 요소로 사용한다.Here, L disease and L change may be Cross-Entropy or Pairwise Loss (Triplet, Contrastive, etc.). λ is used as an element representing the weight of each loss.

Ldisease는 본 발명의 일 실시예에서 각각의 X-ray가 병이 있는지 없는지에 대한 판단을 수행함으로써 normal, abnormal를 구분하기 위한 정보를 마련하는 기능을 하며, 질환 정보 제공 신경망에서 사용된다.L disease serves to prepare information for classifying normal and abnormal by determining whether each X-ray has a disease in an embodiment of the present invention, and is used in a disease information providing neural network.

Lchange는 본 발명의 일 실시예에서 두 장의 follow-up x-ray를 입력으로 받아, change 인지 Change, no-change인지 구분할 수 있도록 하며, 제1 네트워크에서 사용된다.L change receives two follow-up x-rays as an input in an embodiment of the present invention to distinguish change, change, and no-change, and is used in the first network.

Lmatching은 baseline과 follow-up 사진에서 서로 같은 곳을 바라볼 수 있도록 하며, 제2 네트워크에서 사용된다.L matching allows to look at the same place in the baseline and follow-up photos, and is used in the second network.

Ldisease와 Lmatching을 사용함으로써, 한 장의 x-ray 사진에서 병변이 있는 곳에 대하여 집중을 한 이후에, 다른 한장의 x-ray 사진에서 같은 곳에 병이 있는지 확인할 수 있다.By using L disease and L matching , after focusing on the lesion in one x-ray picture, it is possible to check whether there is a disease in the same x-ray picture in another x-ray picture.

도 6은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제1 네트워크와 제2 네트워크를 설명하기 위한 도면이다.6 is a diagram illustrating a first network and a second network of a medical image analysis model according to an embodiment of the present invention.

상기 도 5에서는 제1 네트워크의 하나의 ResNet과 제2 네트워크의 Attention Module이 연결되는 것으로 도시하였지만, 발명의 다양한 실시예에 따르면, 제1 네트워크의 다수의 모듈(111, 112, 113, 114, 115) 각각에 제2 네트워크의 Attention Module(210, 220, 230, 240)이 각각 연결되어, 제1 네트워크의 각각의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 특징 맵 유사도 값이 최대값이 되도록 순차적으로 Attention Module의 파라미터를 조정할 수 있다.Although one ResNet of the first network and the Attention Module of the second network are illustrated in FIG. 5 as being connected, according to various embodiments of the present invention, a plurality of modules 111, 112, 113, 114, 115 of the first network ) each of the attention modules 210 , 220 , 230 , 240 of the second network are connected to each other, so that the feature map similarity value of each of the first read image and the second read image that has passed through each layer of the first network is maximized. You can adjust the parameters of the Attention Module sequentially so that it becomes a value.

이에 따라, 제1 네트워크에서 차원이 다른 각각의 레이어를 통과한 제1 판독 영상과 제2 판독 영상 각각의 서로 다른 픽셀 값이 제2 네트워크의 Attention Module를 통과하면서 각각의 픽셀 값이 유사해질 수 있다.Accordingly, different pixel values of the first read image and the second read image that have passed through respective layers having different dimensions in the first network pass through the attention module of the second network, and the respective pixel values may be similar. .

구체적으로, Attention Module을 통과한 두 특징 맵(feature map)이 같은 곳을 바라보도록 만드는 Region Matching Loss를 설계한다.Specifically, we design Region Matching Loss to make two feature maps that have passed the Attention Module look at the same place.

여기서, 같은 곳을 바라보도록 만드는 것은 제1 판독 영상과 제2 판독 영상이 피검자의 자세에 따라 X선의 방향과 일부 어긋난 경우에 발생하는 차이를 보정하기 위해 제1 판독 영상을 기준으로 하고, X선의 방향이 동일한 상태에서 피검자가 촬영된 것처럼 제2 판독 영상의 형태를 보정하는 것으로, 코사인 유사도가 최대가 되도록 두 영상의 attention을 일치시키는 Region Matching Loss를 설계한다.Here, to make them look at the same place, the first read image and the second read image are based on the first read image to correct a difference that occurs when the direction of the X-ray is partially shifted depending on the posture of the subject, and the X-ray By correcting the shape of the second read image as if the subject was photographed in the same direction, the Region Matching Loss is designed to match the attention of the two images so that the cosine similarity is maximized.

Region Matching Loss는 하기 수학식 2로 정의된다.Region Matching Loss is defined by Equation 2 below.

Figure pat00002
Figure pat00002

여기서, Fb와 Ff는 각각 baseline과 follow-up에서 나온 특징 맵(feature map)을 의미한다.Here, F b and F f denote feature maps from baseline and follow-up, respectively.

Region Matching Loss는 서로 다른 두 장의 특징맵 유사도 값을 계산하여, feature map을 서로 유사하게 만들도록 하는 효과가 있다.Region Matching Loss has the effect of making the feature maps similar to each other by calculating the similarity values of two different feature maps.

두 장의 feature map이 서로 유사해야 Loss가 최소화 되는 구조를 가지고 있어서, 이 손실함수를 추가하여 학습하면 baseline과 follow-up의 feature map이 서로 유사해지는 효과를 가질 수 있다.Since the two pieces of feature maps have a structure that minimizes loss when they are similar to each other, learning by adding this loss function can have the effect that the baseline and follow-up feature maps are similar to each other.

도 7은 본 발명의 일 실시예에 따른 의료 영상 분석 모델의 제2 네트워크에 따른 효과를 설명하기 위한 도면이다.7 is a diagram for explaining an effect of a second network of a medical image analysis model according to an embodiment of the present invention.

도 7의 (a)는 baseline과 basline의 feature map을 나타낸 것이고, 도 7의 (b)는 follow-up 과 follow-up의 feature map을 나타낸 것이다.Fig. 7 (a) shows the baseline and basline feature maps, and Fig. 7 (b) shows the follow-up and follow-up feature maps.

본 발명의 일 실시예에 따른 제2 네트워크의 Region matching module을 사용하여 나온 feature map은, 촬영 자세가 다름에도 불구하고, feature map 에서 서로 같은 곳이 activation 됨을 확인할 수 있다.In the feature map generated using the region matching module of the second network according to an embodiment of the present invention, it can be confirmed that the same places are activated in the feature map despite the different photographing postures.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체를 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a recording medium in which a computer program including instructions to do so is stored.

또한, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계 및 상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.In addition, the first network using the first read image and the second read image of a pre-read arbitrary subject as the learning input image, and the information obtained by reading the change between the first read image and the second read image as the read label and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image. It is possible to provide a computer program stored in a computer-readable storage medium containing instructions.

이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Such computer-readable media may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.The above description is only one embodiment of the present invention, those skilled in the art to which the present invention pertains will be able to implement in a modified form within a range that does not depart from the essential characteristics of the present invention. Therefore, the scope of the present invention is not limited to the above-described embodiments, but should be construed to include various embodiments within the scope equivalent to the content described in the claims.

Claims (18)

의료 영상 분석 장치에 있어서,
미리 학습된 의료 영상 분석 모델이 저장된 메모리; 및
동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받고, 상기 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화를 판별하는 프로세서;를 포함하며,
상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것인 의료 영상 분석 장치.
A medical image analysis apparatus comprising:
a memory storing a pre-trained medical image analysis model; and
receiving a first medical image and a second medical image captured at different points in time for the same diagnosis subject, and determining a change between the first medical image and the second medical image by using the medical image analysis model processor; including;
The medical image analysis model uses a pre-read first read image and a second read image of an arbitrary subject as a learning input image, and reads information obtained by reading a change between the first read image and the second read image as a read label A medical image analysis device that is learned by
제1항에 있어서,
상기 프로세서는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하는 의료 영상 분석 장치.
According to claim 1,
The processor is configured to determine a change region according to a disease among changes between the first medical image and the second medical image.
제2항에 있어서,
상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화에 따른 영향은 최소화 되어 있는 의료 영상 분석 장치.
3. The method of claim 2,
The determined change region is a medical image analysis apparatus in which the influence of the change in breathing, posture, and age of the subject to be diagnosed is minimized.
제1항에 있어서,
상기 의료 영상 분석 모델은, 제1 파라미터를 기초로 상기 제1 판독 영상과 상기 제2 판독 영상 사이의 유사도 값을 반환하는 적어도 하나의 레이어를 포함하는 제1 네트워크를 포함하는 의료 영상 분석 장치.
According to claim 1,
The medical image analysis model may include a first network including at least one layer that returns a similarity value between the first read image and the second read image based on a first parameter.
제4항에 있어서,
상기 제1 네트워크는, 상기 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 상기 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 상기 제1 특징 벡터와 상기 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과함에 기초해 상기 제1 특징 맵과 상기 제2 특징 맵의 특징맵 유사도 값을 반환하도록 학습되는 의료 영상 분석 장치.
5. The method of claim 4,
The first network extracts a first feature vector from the first readout image and extracts a second feature vector from the second readout image, so that the first feature vector and the second feature vector are at least one layer After integrating the first feature map and the second feature map generated by passing through , the feature map similarity value between the first feature map and the second feature map based on passing through a plurality of layer structures A medical image analysis device that is trained to return .
제5항에 있어서,
상기 의료 영상 분석 모델은, 상기 특징맵 유사도 값이 최대값이 되도록, 타겟 픽셀값을 조정 레이블로 하여 제2 파라미터가 조정되도록 학습되어 있는 제2 네트워크를 포함하는 의료 영상 분석 장치.
6. The method of claim 5,
and the medical image analysis model includes a second network trained to adjust a second parameter using a target pixel value as an adjustment label so that the feature map similarity value becomes a maximum value.
제6항에 있어서,
상기 의료 영상 분석 모델은, 질환의 유무를 출력하도록, 상기 제1 판독 영상과 상기 제2 판독 영상의 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여 제3 파라미터가 조정되도록 학습되어 있는 질환 정보 제공 신경망을 포함하는 의료 영상 분석 장치.
7. The method of claim 6,
The medical image analysis model may include information on diseases that have been learned to adjust a third parameter by using, as a disease label, information obtained by reading changes according to diseases of the first read image and the second read image so as to output the presence or absence of a disease. A medical image analysis device comprising a providing neural network.
제7항에 있어서,
상기 제1 파라미터, 상기 제2 파라미터 및 상기 제3 파라미터는, 상기 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신되는 의료 영상 분석 장치.
8. The method of claim 7,
The first parameter, the second parameter, and the third parameter are updated based on outputs finally returned through the first network, the second network, and the disease information providing neural network.
의료 영상 분석 모델 학습 방법에 있어서,
프로세서가, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화 영역을 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계; 및
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.
In the medical image analysis model training method,
The processor uses the pre-read first reading image and the second reading image of an arbitrary subject as a learning input image, and using information obtained by reading a change region between the first reading image and the second reading image as a reading label, 1 entering the network; and
and adjusting a first parameter of the first network based on an output result of a similarity value between the first read image and the second read image.
제9항에 있어서,
상기 제1 네트워크의 제1 파라미터를 조정하는 단계는,
상기 제1 판독 영상으로부터 제1 특징 벡터를 추출하고, 상기 제2 판독 영상으로부터 제2 특징 벡터를 추출하여, 상기 제1 특징 벡터와 상기 제2 특징 벡터가 적어도 하나의 레이어를 통과함에 따라 생성된 제1 특징 맵과 제2 특징 맵을 통합 레이어를 이용하여 통합한 후, 다수의 레이어 구조를 통과함에 기초해 상기 제1 특징 맵과 상기 제2 특징 맵의 특징맵 유사도 값의 출력 결과에 기초하여 상기 제1 파라미터를 조정하는 의료 영상 분석 모델 학습 방법.
10. The method of claim 9,
Adjusting the first parameter of the first network comprises:
A first feature vector is extracted from the first readout image and a second feature vector is extracted from the second readout image, and the first feature vector and the second feature vector are generated as the first and second feature vectors pass through at least one layer. After integrating the first feature map and the second feature map using an integrated layer, based on the output result of the feature map similarity value of the first feature map and the second feature map based on passing through a plurality of layer structures A method of training a medical image analysis model for adjusting the first parameter.
제10항에 있어서,
상기 제1 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 타겟 픽셀값을 조정 레이블로 하여 제2 네트워크에 입력시키는 단계; 및
상기 특징맵 유사도 값이 최대값이 되도록 상기 제2 네트워크의 제2 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.
11. The method of claim 10,
inputting the first readout image and the second readout image passing through at least one layer of the first network and target pixel values as adjustment labels into a second network; and
and adjusting a second parameter of the second network so that the feature map similarity value becomes a maximum value.
제11항에 있어서,
상기 제1 네트워크와 상기 제2 네트워크의 적어도 하나의 레이어를 통과한 제1 판독 영상 및 제2 판독 영상과 질환에 따른 변화를 판독한 정보를 질환 레이블로 하여, 질환 정보 제공 신경망에 입력시키는 단계; 및
상기 질환의 유무에 따른 출력 결과에 기초하여, 상기 질환 정보 제공 신경망의 제3 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법.
12. The method of claim 11,
inputting the first read image and the second read image that have passed through at least one layer of the first network and the second network and information obtained by reading a change according to a disease as a disease label to a disease information providing neural network; and
and adjusting a third parameter of the disease information providing neural network based on an output result according to the presence or absence of the disease.
제12항에 있어서,
상기 제1 파라미터, 상기 제2 파라미터 및 상기 제3 파라미터는, 상기 제1 네트워크, 제2 네트워크 및 질환 정보 제공 신경망을 통해 최종적으로 반환된 출력에 기초하여, 갱신되는 의료 영상 분석 모델 학습 방법.
13. The method of claim 12,
The first parameter, the second parameter, and the third parameter are updated based on outputs finally returned through the first network, the second network, and the disease information providing neural network.
의료 영상 분석 장치에 의해 수행되는 의료 영상 분석 방법에 있어서,
동일 진단 대상자에 대해 다른 시점에 촬상되어 획득된 제1 의료 영상과 제2 의료 영상을 입력 받는 단계; 및
미리 학습된 의료 영상 분석 모델을 이용하여, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 영역을 판별하는 단계;를 포함하며,
상기 의료 영상 분석 모델은, 기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 학습된 것인 의료 영상 분석 방법.
A medical image analysis method performed by a medical image analysis apparatus, comprising:
receiving a first medical image and a second medical image obtained by capturing the same diagnosis subject at different times; and
determining a change region between the first medical image and the second medical image by using a pre-learned medical image analysis model;
The medical image analysis model uses a pre-read first read image and a second read image of an arbitrary subject as a learning input image, and reads information obtained by reading a change between the first read image and the second read image as a read label A medical image analysis method that was learned by
제14항에 있어서,
상기 제1 의료 영상과 제2 의료 영상 사이의 변화 영역을 판별하는 단계는, 상기 제1 의료 영상과 제2 의료 영상 사이의 변화 중 질환에 따른 변화 영역을 판별하는 의료 영상 분석 방법.
15. The method of claim 14,
The determining of the change region between the first medical image and the second medical image may include determining a change region according to a disease among the changes between the first medical image and the second medical image.
제15항에 있어서,
상기 판별된 변화 영역은, 상기 진단 대상자의 호흡, 자세 및 나이 변화 중 적어도 하나에 따른 영향은 최소화 되어 있는 의료 영상 분석 방법.
16. The method of claim 15,
The determined change region is a medical image analysis method in which an effect of at least one of a change in breathing, posture, and age of the subject to be diagnosed is minimized.
기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계; 및
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 프로그램이 저장된 기록매체.
The first read image and the second read image of a pre-read arbitrary subject are used as a learning input image, and information obtained by reading a change between the first read image and the second read image is input to the first network as a read label making; and
Based on an output result of a similarity value between the first read image and the second read image, adjusting a first parameter of the first network includes instructions to perform a medical image analysis model learning method comprising: A recording medium on which a computer program is stored.
기 판독된 임의의 피검자의 제1 판독 영상과 제2 판독 영상을 학습 입력 영상으로 하고, 상기 제1 판독 영상과 제2 판독 영상 사이의 변화를 판독한 정보를 판독 레이블로 하여 제1 네트워크에 입력시키는 단계; 및
상기 제1 판독 영상과 상기 제2 판독 영상의 유사도 값의 출력 결과에 기초하여, 상기 제1 네트워크의 제1 파라미터를 조정하는 단계;를 포함하는 의료 영상 분석 모델 학습 방법을 수행하도록 하는 명령어를 포함하는 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램.
The first read image and the second read image of a pre-read arbitrary subject are used as a learning input image, and information obtained by reading a change between the first read image and the second read image is input to the first network as a read label making; and
Based on an output result of a similarity value between the first read image and the second read image, adjusting a first parameter of the first network includes instructions to perform a medical image analysis model learning method comprising: A computer program stored in a computer readable storage medium.
KR1020210008378A 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof KR102548203B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210008378A KR102548203B1 (en) 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210008378A KR102548203B1 (en) 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof

Publications (2)

Publication Number Publication Date
KR20220105723A true KR20220105723A (en) 2022-07-28
KR102548203B1 KR102548203B1 (en) 2023-06-29

Family

ID=82607613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008378A KR102548203B1 (en) 2021-01-20 2021-01-20 Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof

Country Status (1)

Country Link
KR (1) KR102548203B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240064989A (en) 2022-11-04 2024-05-14 경희대학교 산학협력단 Apparatus and methods for supporting medical decisions

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140052524A (en) * 2012-10-24 2014-05-07 삼성전자주식회사 Method, apparatus and system for correcting medical image by patient's pose variation
JP2020025786A (en) * 2018-08-14 2020-02-20 富士フイルム株式会社 Image processing apparatus, method and program
JP2020064476A (en) * 2018-10-18 2020-04-23 コニカミノルタ株式会社 Information processing device and program
JP2020516427A (en) * 2017-04-11 2020-06-11 ケイロン メディカル テクノロジーズ リミテッド RECIST assessment of tumor progression

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140052524A (en) * 2012-10-24 2014-05-07 삼성전자주식회사 Method, apparatus and system for correcting medical image by patient's pose variation
JP2020516427A (en) * 2017-04-11 2020-06-11 ケイロン メディカル テクノロジーズ リミテッド RECIST assessment of tumor progression
JP2020025786A (en) * 2018-08-14 2020-02-20 富士フイルム株式会社 Image processing apparatus, method and program
JP2020064476A (en) * 2018-10-18 2020-04-23 コニカミノルタ株式会社 Information processing device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240064989A (en) 2022-11-04 2024-05-14 경희대학교 산학협력단 Apparatus and methods for supporting medical decisions

Also Published As

Publication number Publication date
KR102548203B1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
US20240119719A1 (en) Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure
US11900647B2 (en) Image classification method, apparatus, and device, storage medium, and medical electronic device
Chen et al. Multiview two-task recursive attention model for left atrium and atrial scars segmentation
CN107133946B (en) Medical image processing method, device and equipment
US20220012890A1 (en) Model-Based Deep Learning for Globally Optimal Surface Segmentation
CN111597946B (en) Processing method of image generator, image generation method and device
US20120170823A1 (en) System and method for image based multiple-modality cardiac image alignment
US12056890B2 (en) Method for measuring volume of organ by using artificial neural network, and apparatus therefor
KR102097743B1 (en) Apparatus and Method for analyzing disease based on artificial intelligence
CN111524109A (en) Head medical image scoring method and device, electronic equipment and storage medium
US11200671B2 (en) Reference image guided object detection in medical image processing
CN115249228A (en) Chest X-ray image identification method, chest X-ray image identification device, computer equipment and storage medium
Suinesiaputra et al. Deep learning analysis of cardiac MRI in legacy datasets: multi-ethnic study of atherosclerosis
Arega et al. Leveraging uncertainty estimates to improve segmentation performance in cardiac MR
KR102548203B1 (en) Apparatus and method for analyzing medical image based on artificial neural network and learning method thereof
Morishita et al. Potential usefulness of biological fingerprints in chest radiographs for automated patient recognition and identification1
CN118247284A (en) Training method of image processing model and image processing method
JP2021052999A (en) Evaluation system, evaluation method, learning method, learned model and program
Almeida et al. cOOpD: reformulating COPD classification on chest CT scans as anomaly detection using contrastive representations
JP7457011B2 (en) Anomaly detection method, anomaly detection program, anomaly detection device, server device, and information processing method
CN112767403A (en) Medical image segmentation model training method, medical image segmentation method and device
Zheng et al. D-net: Siamese based network for arbitrarily oriented volume alignment
Rijal et al. Application of phase congruency for discriminating some lung diseases using chest radiograph
KR102136107B1 (en) Apparatus and method for alignment of bone suppressed chest x-ray image
Zhang et al. Localizing landmark sets in head CTs using random forests and a heuristic search algorithm for registration initialization

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right