WO2024123057A1 - Method and analysis device for visualizing bone tumor in humerus using chest x-ray image - Google Patents

Method and analysis device for visualizing bone tumor in humerus using chest x-ray image Download PDF

Info

Publication number
WO2024123057A1
WO2024123057A1 PCT/KR2023/019940 KR2023019940W WO2024123057A1 WO 2024123057 A1 WO2024123057 A1 WO 2024123057A1 KR 2023019940 W KR2023019940 W KR 2023019940W WO 2024123057 A1 WO2024123057 A1 WO 2024123057A1
Authority
WO
WIPO (PCT)
Prior art keywords
humerus
chest
patch
cam
bone tumor
Prior art date
Application number
PCT/KR2023/019940
Other languages
French (fr)
Korean (ko)
Inventor
김경수
정명진
오성제
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Publication of WO2024123057A1 publication Critical patent/WO2024123057A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the technology described below relates to a technique for classifying lesions of the humerus in thoracic medical images.
  • the technology described below relates to a technique for diagnosing a bone tumor of the humerus.
  • a chest X-ray contains information about various diseases or lesions.
  • chest x-rays also include the humerus area. Lesions in the humerus area can also be determined through chest X-ray.
  • various learning models for interpreting medical images have recently been studied.
  • Supervised learning models require large amounts of learning data to learn the model.
  • medical institutions do not have a large number of chest X-rays for diagnosing lesions of the humerus. Accordingly, it is difficult with conventional techniques to create a model that accurately classifies humeral lesions in chest X-rays.
  • the technology described below seeks to provide a technique for accurately classifying humeral lesions in chest X-rays using a learning model.
  • the method of visualizing a bone tumor of the humerus using a chest It includes generating a patch and the analysis device inputting the humerus patch into a previously learned deep learning model and outputting a CAM (Class Activation Map) for the humerus patch and whether or not it is a bone tumor.
  • a CAM Class Activation Map
  • the analysis device that classifies bone tumors of the humerus is an interface device that receives the subject's chest X-ray image, a segmentation model that distinguishes the humerus region in the chest ) and a storage device for storing a deep learning model that generates the input chest It includes a calculation device that inputs the deep learning model and calculates CAM and bone tumor for the humerus patch.
  • the technology described below can classify bone tumors of the humerus by focusing only on the humerus region in chest X-rays. Additionally, the technique described below can accurately visualize the area of the bone tumor on a chest x-ray.
  • Figure 1 is an example of a system for classifying humeral bone tumors using chest X-rays.
  • Figure 2 is a schematic example of the learning process of a learning model for classifying humeral bone tumors.
  • Figure 3 is an example of a learning data construction process or data preprocessing process.
  • Figure 4 is an example of a specific learning process of a learning model for classifying humeral bone tumors.
  • Figure 5 shows the results of evaluating the performance of a learning model for classifying humeral bone tumors.
  • Figure 6 is an example of an analysis device for classifying humeral bone tumors.
  • first, second, A, B, etc. may be used to describe various components, but the components are not limited by the terms, and are only used for the purpose of distinguishing one component from other components. It is used only as For example, a first component may be named a second component without departing from the scope of the technology described below, and similarly, the second component may also be named a first component.
  • the term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.
  • each component is responsible for. That is, two or more components, which will be described below, may be combined into one component, or one component may be divided into two or more components for more detailed functions.
  • each component to be described below may additionally perform some or all of the functions that other components are responsible for, and some of the main functions that each component is responsible for may be performed by other components. Of course, it can also be carried out exclusively by .
  • each process that makes up the method may occur in a different order from the specified order unless a specific order is clearly stated in the context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.
  • Medical images can be diverse, such as X-ray images, ultrasound images, CT (Computer Tomography) images, and MRI (Magnetic Resonance Imaging) images.
  • CT Computer Tomography
  • MRI Magnetic Resonance Imaging
  • the technology described below is a technique to classify lesions of the humerus using chest X-ray images.
  • the technology described below can classify bone tumors of the humerus in chest X-ray images.
  • Bone tumors include primary tumors such as osteosarcoma and bone metastases.
  • the analysis device uses a learning model to classify or diagnose lesions in chest X-rays.
  • the analysis device can be implemented as a variety of devices capable of processing data.
  • an analysis device can be implemented as a PC, a server on a network, a smart device, or a chipset with a dedicated program embedded therein.
  • Machine learning models include decision trees, random forest, KNN (K-nearest neighbor), Naive Bayes, SVM (support vector machine), and ANN (artificial neural network).
  • KNN K-nearest neighbor
  • SVM support vector machine
  • ANN artificial neural network
  • Figure 1 is an example of a system 100 for classifying humeral bone tumors using chest X-rays.
  • Figure 1 shows an example in which the analysis device is a computer terminal 130 and a server 140.
  • the x-ray equipment 110 generates a chest x-ray image for the subject (patient).
  • the x-ray equipment 110 may store the generated chest x-ray image in an electronic medical record (EMR) 120 or a separate database (DB).
  • EMR electronic medical record
  • DB separate database
  • user A can analyze a chest X-ray image using the computer terminal 130.
  • the computer terminal 130 may receive a chest X-ray image from the x-ray equipment 110 or the EMR 120 through a wired or wireless network. In some cases, the computer terminal 130 may be a device physically connected to the x-ray equipment 110.
  • the computer terminal 130 can constantly preprocess chest X-ray images.
  • the computer terminal 130 can extract the humerus region from the chest X-ray and input it into a previously learned learning model.
  • the computer terminal 130 can classify whether there is a bone tumor in the input humerus based on the value output by the learning model. User A can check the analysis results on the computer terminal 130.
  • the server 140 may receive a chest X-ray image from the x-ray equipment 110 or the EMR 120.
  • the server 140 can consistently preprocess chest X-ray images.
  • the server 140 may extract the humerus region from the chest X-ray and input it into a pre-trained learning model.
  • the server 140 can classify whether there is a bone tumor in the input humerus based on the value output by the learning model.
  • the server 140 may transmit the analysis results to user A's terminal.
  • the computer terminal 130 and/or server 140 may store the analysis results in the EMR 120.
  • Figure 2 is an example of a schematic learning process 200 of a learning model for classifying humeral bone tumors.
  • the learning model building process can be divided into a learning data building process (210) and a model learning process using the learning data (220).
  • the learning data construction process and model learning process can be performed on separate devices.
  • the learning device performs the learning model construction process.
  • Learning device refers to a computer device capable of preprocessing medical images and learning models.
  • the learning device constructs learning data by regularly preprocessing the collected chest X-ray images (210).
  • the learning device acquires chest X-ray images from an image database (DB).
  • the image DB stores images of normal people and images of patients with bone tumors.
  • the learning device extracts a region of interest by inputting the entire chest X-ray of a subject from the population into a previously learned segmentation model.
  • the segmentation model is a model trained in advance to distinguish the humerus region in chest X-rays.
  • the segmentation model may be a U-net-based model.
  • the learning device can generate a humerus mask based on the humerus region. Additionally, the learning device can generate a bone tumor mask that indicates the location of the bone tumor in the humerus from the image of the bone tumor patient.
  • the learning DB can store the humerus region and mask (humerus mask and bone tumor mask) extracted from the population's chest X-ray images.
  • the learning device can prepare learning data by processing images of normal people and images of tumor patients through the same process.
  • the learning device performs a process of building (learning) a learning model using the humerus region and mask (220).
  • the learning device repeatedly performs the learning process using population learning data.
  • the learning model extracts features from the input image and outputs an image that visualizes the humerus area or bone tumor area. Additionally, the learning model can calculate a probability value for the presence or absence of a bone tumor.
  • the learning device updates the parameters of the learning model by comparing the probability value output by the learning model with the label value of the corresponding image that is known in advance.
  • the learning model can binary classify subjects as normal or tumor.
  • Figure 3 is an example of a learning data construction process or data preprocessing process.
  • Figure 3(A) is an example of a process 300 for extracting the humerus region from a chest X-ray.
  • Figure 3(A) shows the process of constructing learning data.
  • Figure 3(A) also corresponds to the data preprocessing process for chest X-rays.
  • the data preprocessing process can be performed in the same way in the bone tumor inference process using a learning model. For convenience of explanation, it is explained that the data preprocessing process is performed in the learning device.
  • the learning device receives a chest X-ray image (310).
  • the chest X-ray image may be an image of a normal person or a patient with a bone tumor.
  • the learning device can classify the humerus region by inputting the input chest X-ray image into the learned segmentation model (320).
  • Chest x-ray image includes left humerus and right humerus.
  • the learning device sets a square area of a certain size for each of the left humerus and the right humerus based on the center point of the humerus (330).
  • the learning device crops a rectangular area (left humerus patch) of a certain size based on the midpoint of the left humerus and a rectangular area (right humerus patch) of a constant size based on the midpoint of the right humerus (340).
  • the image created by cutting is called a patch.
  • the learning device can extract the region of interest (superior bone region) from the chest X-ray image.
  • the superior bone region includes the humerus.
  • the learning device extracts the left humerus region and the right humerus region from the chest X-ray image.
  • the learning device can prepare data for one direction in order to build a learning model based on one humerus region.
  • the learning device can construct learning data based on the left humerus.
  • Figure 3(B) is an example of constructing learning data based on the humerus region extracted from Figure 3(A).
  • the learning device uses the left humerus area in the chest X-ray image.
  • the learning device reverses the right humerus area left and right to unify the image to the left humerus.
  • the learning device creates a mask (humerus segmentation mask) that can extract the humerus region from the left humerus region and the left humerus region created by inversion. Additionally, the learning device creates a mask (bone tumor mask) that can extract the location of the bone tumor of the humerus based on the left humerus.
  • Figure 4 is an example of a specific learning process 400 of a learning model for classifying humeral bone tumors.
  • Figure 4 shows a CNN (Convolutional Neural Network) based model as an example.
  • the learning device receives an image of the humerus region among the learning data (410).
  • the learning device inputs the humerus region image into the deep learning model (420).
  • the CNN may be composed of multiple layers.
  • the convolution layer extracts features from the input image (creating a feature map).
  • CNN does not use a typical fully connected layer (FC) at the end, but has a layer that performs global average pooling.
  • This model corresponds to a model that generates the so-called CAM (Class Activation Map).
  • the learning device multiplies the extracted activation map by the weight of the class through matrix multiplication to perform CAM can be created.
  • the learning device inputs the humerus region image into a deep learning model and generates a CAM for the image (420).
  • the learning device receives the humerus mask for the corresponding image (430).
  • the learning device receives a bone tumor mask for the image (430).
  • the learning device multiplies the mask corresponding to the CAM and creates the masked image. creates .
  • the process of applying a mask to CAM is as shown in Equation 1 below.
  • the mask is a humerus mask, and if the humerus image has a bone tumor, the mask is a bone tumor mask. means element wise product.
  • the learning device performs learning using the L2 loss (least square error) function to treat all pixel values of the CAM as 0 for areas excluding the masked area (humerus area or tumor area) in the CAM (440).
  • lossy L FPAR processes the image so that all colors are removed from the area excluding the mask in the CAM.
  • the last layer of CNN can further use loss L CLS for classifying bone tumor in addition to the loss function for CAM.
  • L CLS corresponds to the loss function that guides the model to infer the correct answer.
  • the deep learning model processes pixel values excluding the humerus area or tumor area as 0 according to the characteristics of the input humerus image, thereby creating a CAM in which only the humerus area or tumor area stands out.
  • the deep learning model also outputs values that classify the input humerus image as normal or bone tumor.
  • the performance of the segmentation model showed high performance with an average of IOU (Intersection over Union) and Dice of 0.98, as shown in Table 2 below.
  • the researcher used 1,493 chest X-ray images with osteosarcoma and 1,500 chest X-ray images of normal people to learn the deep learning model described above.
  • the 1,493 images were images showing the location of osteosarcoma in 89 people diagnosed with osteosarcoma.
  • the researcher used 100 images of osteosarcoma patients and 119 images of normal subjects for model validation (holdout validation).
  • Comparison Model 1 is a model that classifies osteosarcoma by receiving only half of the image including the humerus from the chest X-ray.
  • Comparison Model 2 is a model that classifies osteosarcoma by receiving only the image (patch) of the humerus area from the chest X-ray.
  • the proposed model is a model that classifies osteosarcoma by applying an image and a mask cut from only the humerus region (the proposed model described in Figure 4).
  • the performance of the deep learning model is shown in Table 3 below.
  • the proposed model all showed better performance compared to the comparative models.
  • Figure 5 shows the results of evaluating the performance of a learning model for classifying humeral osteosarcoma.
  • Figure 5 shows the results of generating CAM from the comparative model and the proposed model.
  • the annotated image is a chest X-ray image and an image with the tumor area annotated in the image.
  • Figure 5(A) is the result of using EfficientNet
  • Figure 5(B) is the result of using ShuffleNetV2. Looking at Figure 5, it can be seen that only the proposed model accurately captured the location of osteosarcoma and generated CAM.
  • FIG. 6 is an example of an analysis device for classifying humeral bone tumors.
  • the analysis device 500 corresponds to the above-described analysis devices (130 and 140 in FIG. 1).
  • the analysis device 500 may be physically implemented in various forms.
  • the analysis device 500 may take the form of a computer device such as a PC, a network server, or a chipset dedicated to data processing.
  • the analysis device 500 may include a storage device 510, a memory 520, an arithmetic device 530, an interface device 540, a communication device 550, and an output device 560.
  • the storage device 510 can store chest X-ray images generated by x-ray equipment.
  • the storage device 510 may store a code or program for classifying bone tumors by analyzing chest X-ray images.
  • the storage device 510 may store a segmentation model that distinguishes a bone tumor area, which is a region of interest, in a chest X-ray.
  • the storage device 510 can receive a cut humerus image and store a deep learning model that classifies whether a bone tumor exists.
  • the memory 520 can store data and information generated while the analysis device analyzes the chest X-ray image.
  • the interface device 540 is a device that receives certain commands and data from the outside.
  • the interface device 540 can receive a chest X-ray image from a physically connected input device or an external storage device.
  • the interface device 540 may analyze the chest X-ray image and transmit the results of classifying the bone tumor to an external object.
  • the interface device 540 may receive data or information transmitted via the communication device 550 below.
  • the communication device 550 refers to a configuration that receives and transmits certain information through a wired or wireless network.
  • the communication device 550 can receive a chest X-ray image from an external object.
  • the communication device 550 may analyze the chest X-ray image and transmit the results of classifying the bone tumor to an external object such as a user terminal.
  • the output device 560 is a device that outputs certain information.
  • the output device 560 can output an interface required for the data processing process, an input chest X-ray image, a classification result, and an image in which the bone tumor location is visualized.
  • the calculation device 530 may classify the humerus region by inputting the input chest X-ray image into a segmentation model.
  • the calculation device 530 may generate a humerus patch by cutting only an area of a certain size based on the midpoint of the humerus. For convenience of explanation, we assume that the deep learning model was learned based on the left humerus image. At this time, the calculation device 530 can create a humerus patch by leaving the left humerus intact and flipping the right humerus left and right in the chest X-ray.
  • the calculation device 530 can input the left humerus patch or the left and right inverted right humerus patch into a deep learning model.
  • the deep learning model generates CAM as described above.
  • the deep learning model extracts features from the input humerus patch and creates a CAM so that the pixels of the CAM excluding the humerus or bone tumor area are 0.
  • the deep learning model can also output the results of classifying bone tumors based on the humerus patch.
  • the computing device 530 can control the CAM output from the deep learning model to be output to the output device 560. Additionally, the calculation device 530 may output information on whether the subject is normal or has a bone tumor to the output device 560 based on the probability value for the presence or absence of a bone tumor.
  • the computing device 530 may be a device such as a processor that processes data and performs certain operations, an AP, or a chip with an embedded program.
  • the medical image analysis method or bone tumor classification method as described above may be implemented as a program (or application) including an executable algorithm that can be executed on a computer.
  • the program may be stored and provided in a temporary or non-transitory computer readable medium.
  • a non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories.
  • the various applications or programs described above include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), and EPROM (Erasable PROM, EPROM).
  • EEPROM Electrically EPROM
  • Temporarily readable media include Static RAM (SRAM), Dynamic RAM (DRAM), Synchronous DRAM (SDRAM), Double Data Rate SDRAM (DDR SDRAM), and Enhanced SDRAM (Enhanced RAM). It refers to various types of RAM, such as SDRAM (ESDRAM), synchronous DRAM (Synclink DRAM, SLDRAM), and Direct Rambus RAM (DRRAM).
  • SRAM Static RAM
  • DRAM Dynamic RAM
  • SDRAM Synchronous DRAM
  • DDR SDRAM Double Data Rate SDRAM
  • Enhanced SDRAM Enhanced SDRAM
  • ESDRAM synchronous DRAM
  • SLDRAM synchronous DRAM
  • DRRAM Direct Rambus RAM

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)

Abstract

A method for visualizing a bone tumor in the humerus using a chest X-ray image comprises the steps in which: an analysis device receives a chest X-ray image of a subject; the analysis device inputs the chest X-ray image to a trained segmentation model to distinguish a humerus region and generates a humerus patch of a certain size; and the analysis device inputs the humerus patch to a pre-trained deep learning model and outputs a class activation map (CAM) for the humerus patch and whether or not a bone tumor is present.

Description

흉부 엑스레이 영상을 이용한 상완골의 골종양 시각화 방법 및 분석장치Bone tumor visualization method and analysis device of the humerus using chest X-ray images
이하 설명하는 기술은 흉부 의료 영상에서 상완골의 병변을 분류하는 기법에 관한 것이다. 특히, 이하 설명하는 기술은 상완골의 골종양(bone tumor)을 진단하는 기법에 관한 것이다.The technology described below relates to a technique for classifying lesions of the humerus in thoracic medical images. In particular, the technology described below relates to a technique for diagnosing a bone tumor of the humerus.
흉부 엑스레이(X-ray)는 다양한 질환이나 병변에 대한 정보를 포함한다. 다만, 흉부 엑스레이는 상완골(humerus) 부위도 포함한다. 상완골 부위의 병변도 흉부 엑스레이를 통해 판단할 수 있다. 한편, 최근 의료 영상을 해석하기 위한 다양한 학습모델이 연구되고 있다. A chest X-ray contains information about various diseases or lesions. However, chest x-rays also include the humerus area. Lesions in the humerus area can also be determined through chest X-ray. Meanwhile, various learning models for interpreting medical images have recently been studied.
지도학습모델은 모델 학습을 위하여 대량의 학습데이터가 필요하다. 그러나, 의료 기관은 상완골의 병변 진단을 위한 흉부 엑스레이를 다수 보유하고 있지 않다. 이에 종래 기법은 흉부 엑스레이에서 상완골의 병변을 정확하게 분류하는 모델을 만들기 어렵다.Supervised learning models require large amounts of learning data to learn the model. However, medical institutions do not have a large number of chest X-rays for diagnosing lesions of the humerus. Accordingly, it is difficult with conventional techniques to create a model that accurately classifies humeral lesions in chest X-rays.
이하 설명하는 기술은 학습모델을 이용하여 흉부 엑스레이에서 상완골의 병변을 정확하게 분류하는 기법을 제공하고자 한다.The technology described below seeks to provide a technique for accurately classifying humeral lesions in chest X-rays using a learning model.
흉부 엑스레이 영상을 이용한 상완골의 골종양 시각화 방법은 분석장치가 대상자의 흉부 엑스레이 영상을 입력받는 단계, 상기 분석장치가 상기 흉부 엑스레이 영상을 학습된 세그멘테이션 모델에 입력하여 상완골 영역을 구분하고, 일정한 크기의 상완골 패치를 생성하는 단계 및 상기 분석장치가 상기 상완골 패치를 사전에 학습된 딥러닝 모델에 입력하여, 상기 상완골 패치에 대한 CAM(Class Activation Map) 및 골종양 여부를 출력하는 단계를 포함한다.The method of visualizing a bone tumor of the humerus using a chest It includes generating a patch and the analysis device inputting the humerus patch into a previously learned deep learning model and outputting a CAM (Class Activation Map) for the humerus patch and whether or not it is a bone tumor.
상완골의 골종양을 분류하는 분석 장치는 대상자의 흉부 엑스레이 영상을 입력받는 인터페이스 장치, 흉부 엑스레이 영상에서 상완골 영역을 구분하는 세그멘테이션 모델 및 상완골 패치를 입력받아 상완골 영역 또는 골종양 영역을 시각화하는 CAM(Class Activation Map)을 생성하는 딥러닝 모델을 저장하는 저장장치 및 상기 입력된 흉부 엑스레이 영상을 상기 학습된 세그멘테이션 모델에 입력하여 상완골 영역을 구분하고, 일정한 크기의 상기 상완골 패치를 생성하고, 상기 생성한 상완골 패치를 상기 딥러닝 모델에 입력하여, 상기 상완골 패치에 대한 CAM 및 골종양 여부를 산출하는 연산 장치를 포함한다.The analysis device that classifies bone tumors of the humerus is an interface device that receives the subject's chest X-ray image, a segmentation model that distinguishes the humerus region in the chest ) and a storage device for storing a deep learning model that generates the input chest It includes a calculation device that inputs the deep learning model and calculates CAM and bone tumor for the humerus patch.
이하 설명하는 기술은 흉부 엑스레이에서 상완골 영역만을 중점적으로 학습하여 상완골의 골종양을 분류할 수 있다. 또한, 이하 설명하는 기술은 흉부 엑스레이에서 골종양의 영역을 정확히 시각화할 수 있다.The technology described below can classify bone tumors of the humerus by focusing only on the humerus region in chest X-rays. Additionally, the technique described below can accurately visualize the area of the bone tumor on a chest x-ray.
도 1은 흉부 엑스레이를 이용하여 상완골 골종양을 분류하는 시스템에 대한 예이다. Figure 1 is an example of a system for classifying humeral bone tumors using chest X-rays.
도 2는 상완골 골종양을 분류하는 학습모델의 개략적인 학습 과정에 대한 예이다.Figure 2 is a schematic example of the learning process of a learning model for classifying humeral bone tumors.
도 3은 학습 데이터 구축 과정 내지 데이터 전처리 과정에 대한 예이다.Figure 3 is an example of a learning data construction process or data preprocessing process.
도 4는 상완골 골종양을 분류하는 학습모델의 구체적인 학습 과정에 대한 예이다.Figure 4 is an example of a specific learning process of a learning model for classifying humeral bone tumors.
도 5는 상완골 골종양을 분류하는 학습모델의 성능을 평가한 결과이다.Figure 5 shows the results of evaluating the performance of a learning model for classifying humeral bone tumors.
도 6은 상완골 골종양을 분류하는 분석장치에 대한 예이다.Figure 6 is an example of an analysis device for classifying humeral bone tumors.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The technology described below may be subject to various changes and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the technology described below.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. may be used to describe various components, but the components are not limited by the terms, and are only used for the purpose of distinguishing one component from other components. It is used only as For example, a first component may be named a second component without departing from the scope of the technology described below, and similarly, the second component may also be named a first component. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms used in this specification, singular expressions should be understood to include plural expressions, unless clearly interpreted differently from the context, and terms such as “including” refer to the described features, numbers, steps, operations, and components. , it means the existence of parts or a combination thereof, but should be understood as not excluding the possibility of the presence or addition of one or more other features, numbers, step operation components, parts, or combinations thereof.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Before providing a detailed description of the drawings, it would be clarified that the division of components in this specification is merely a division according to the main function each component is responsible for. That is, two or more components, which will be described below, may be combined into one component, or one component may be divided into two or more components for more detailed functions. In addition to the main functions that each component is responsible for, each component to be described below may additionally perform some or all of the functions that other components are responsible for, and some of the main functions that each component is responsible for may be performed by other components. Of course, it can also be carried out exclusively by .
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, when performing a method or operation method, each process that makes up the method may occur in a different order from the specified order unless a specific order is clearly stated in the context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.
이하 설명하는 기술은 의료 영상을 이용하여 대상자의 질환 여부를 판별하는 기법이다. 의료 영상은 X-ray 영상, 초음파 영상, CT(Computer Tomography) 영상, MRI(Magnetic Resonance Imaging) 영상 등 다양할 수 있다. 이하 설명의 편의를 위하여 X-ray 영상을 기준으로 설명한다.The technology described below is a technique for determining whether a subject has a disease using medical images. Medical images can be diverse, such as X-ray images, ultrasound images, CT (Computer Tomography) images, and MRI (Magnetic Resonance Imaging) images. For convenience of explanation, the explanation below will be based on X-ray images.
이하 설명하는 기술은 흉부 엑스레이 영상을 이용하여 상완골의 병변을 분류하는 기법이다. 예컨대, 이하 설명하는 기술은 흉부 엑스레이 영상에서 상완골의 골종양을 분류할 수 있다. The technology described below is a technique to classify lesions of the humerus using chest X-ray images. For example, the technology described below can classify bone tumors of the humerus in chest X-ray images.
골종양은 원발성 종양인 골육종(osteosarcoma) 및 골전이암을 포함한다.Bone tumors include primary tumors such as osteosarcoma and bone metastases.
이하 분석장치가 학습모델을 이용하여 흉부 엑스레이에서 병변을 분류 내지 진단한다고 설명한다. 분석 장치는 데이터 처리가 가능한 다양한 장치로 구현될 수 있다. 예컨대, 분석 장치는 PC, 네트워크상의 서버, 스마트 기기, 전용 프로그램이 임베딩된 칩셋 등으로 구현될 수 있다.The following explains that the analysis device uses a learning model to classify or diagnose lesions in chest X-rays. The analysis device can be implemented as a variety of devices capable of processing data. For example, an analysis device can be implemented as a PC, a server on a network, a smart device, or a chipset with a dedicated program embedded therein.
기계 학습 모델은 결정 트리, 랜덤 포레스트(random forest), KNN(K-nearest neighbor), 나이브 베이즈(Naive Bayes), SVM(support vector machine), ANN(artificial neural network) 등이 있다. 특히 이하 설명하는 기술은 ANN 중 딥러닝 모델을 이용하여 흉부 엑스레이에서 상완골의 병변을 분석한다.Machine learning models include decision trees, random forest, KNN (K-nearest neighbor), Naive Bayes, SVM (support vector machine), and ANN (artificial neural network). In particular, the technology described below uses a deep learning model among ANNs to analyze lesions in the humerus in chest X-rays.
도 1은 흉부 엑스레이를 이용하여 상완골 골종양을 분류하는 시스템(100)에 대한 예이다. 도 1에서 분석장치는 컴퓨터 단말(130) 및 서버(140)인 예를 도시하였다.Figure 1 is an example of a system 100 for classifying humeral bone tumors using chest X-rays. Figure 1 shows an example in which the analysis device is a computer terminal 130 and a server 140.
x-레이 장비(110)는 대상자(환자)에 대한 흉부 엑스레이 영상을 생성한다. x-레이 장비(110)는 생성한 흉부 엑스레이 영상을 EMR(Electronic Medical Record, 120) 또는 별도의 데이터베이스(DB)에 저장할 수 있다.The x-ray equipment 110 generates a chest x-ray image for the subject (patient). The x-ray equipment 110 may store the generated chest x-ray image in an electronic medical record (EMR) 120 or a separate database (DB).
도 1에서 사용자(A)는 컴퓨터 단말(130)을 이용하여 흉부 엑스레이 영상을 분석할 수 있다. 컴퓨터 단말(130)은 유선 또는 무선 네트워크를 통해 x-레이 장비(110) 또는 EMR(120)로부터 흉부 엑스레이 영상을 입력받을 수 있다. 경우에 따라 컴퓨터 단말(130)은 x-레이 장비(110)와 물리적으로 연결된 장치일 수도 있다. 컴퓨터 단말(130)은 흉부 엑스레이 영상을 일정하게 전처리할 수 있다. 컴퓨터 단말(130)은 흉부 엑스레이에서 상완골 영역을 추출하여 사전에 학습된 학습모델에 입력할 수 있다. 컴퓨터 단말(130)은 학습모델이 출력하는 값을 기준으로 입력된 상완골에 골종양이 있는지 분류할 수 있다. 사용자 A는 컴퓨터 단말(130)에서 분석 결과를 확인할 수 있다.In FIG. 1, user A can analyze a chest X-ray image using the computer terminal 130. The computer terminal 130 may receive a chest X-ray image from the x-ray equipment 110 or the EMR 120 through a wired or wireless network. In some cases, the computer terminal 130 may be a device physically connected to the x-ray equipment 110. The computer terminal 130 can constantly preprocess chest X-ray images. The computer terminal 130 can extract the humerus region from the chest X-ray and input it into a previously learned learning model. The computer terminal 130 can classify whether there is a bone tumor in the input humerus based on the value output by the learning model. User A can check the analysis results on the computer terminal 130.
서버(140)는 x-레이 장비(110) 또는 EMR(120)로부터 흉부 엑스레이 영상을 수신할 수 있다. 서버(140)는 흉부 엑스레이 영상을 일정하게 전처리할 수 있다. 서버(140)는 흉부 엑스레이에서 상완골 영역을 추출하여 사전에 학습된 학습모델에 입력할 수 있다. 서버(140)는 학습모델이 출력하는 값을 기준으로 입력된 상완골에 골종양이 있는지 분류할 수 있다. 서버(140)는 분석결과를 사용자 A의 단말에 전송할 수 있다. The server 140 may receive a chest X-ray image from the x-ray equipment 110 or the EMR 120. The server 140 can consistently preprocess chest X-ray images. The server 140 may extract the humerus region from the chest X-ray and input it into a pre-trained learning model. The server 140 can classify whether there is a bone tumor in the input humerus based on the value output by the learning model. The server 140 may transmit the analysis results to user A's terminal.
컴퓨터 단말(130) 및/또는 서버(140)는 분석 결과를 EMR(120)에 저장할 수도 있다.The computer terminal 130 and/or server 140 may store the analysis results in the EMR 120.
도 2는 상완골 골종양을 분류하는 학습모델의 개략적인 학습 과정(200)에 대한 예이다. 학습모델 구축 과정은 학습 데이터를 구축 과정(210)과 학습 데이터를 이용한 모델 학습 과정(220)으로 구분될 수 있다. 학습 데이터 구축 과정과 모델 학습 과정은 별도의 장치에서 수행될 수 있다. 설명의 편의를 위하여 학습장치가 학습모델 구축 과정을 수행한다고 설명한다. 학습장치는 의료 영상 전처리 및 학습모델 학습이 가능한 컴퓨터 장치를 의미한다. Figure 2 is an example of a schematic learning process 200 of a learning model for classifying humeral bone tumors. The learning model building process can be divided into a learning data building process (210) and a model learning process using the learning data (220). The learning data construction process and model learning process can be performed on separate devices. For convenience of explanation, it is explained that the learning device performs the learning model construction process. Learning device refers to a computer device capable of preprocessing medical images and learning models.
학습장치는 수집한 흉부 엑스레이 영상들을 일정하게 전처리하여 학습데이터를 구축한다(210). The learning device constructs learning data by regularly preprocessing the collected chest X-ray images (210).
학습장치는 영상 데이터베이스(database, DB)에서 흉부 엑스레이 영상들을 획득한다. 영상 DB는 정상인들의 영상과 골종양을 갖는 환자들의 영상을 저장한다. The learning device acquires chest X-ray images from an image database (DB). The image DB stores images of normal people and images of patients with bone tumors.
학습장치는 모집단 중 어느 하나의 대상자에 대한 전체 흉부 엑스레이를 사전에 학습된 세그멘테이션 모델에 입력하여 관심 영역을 추출한다. 세그멘테이션 모델은 흉부 엑스레이에서 상완골 영역을 구분하도록 사전에 학습된 모델이다. 예컨대, 세그멘테이션 모델은 U-net 기반의 모델일 수 있다. 학습장치는 상완골 영역을 기준으로 상완골 마스크(mask)를 생성할 수 있다. 또한 학습장치는 골종양 환자의 영상에서 상완골의 골종양 위치를 나타내는 골종양 마스크를 생성할 수 있다. 학습 DB는 모집단의 흉부 엑스레이 영상에서 추출한 상완골 영역 및 마스크(상완골 마스크 및 골종양 마스크)를 저장할 수 있다. 학습장치는 정상인의 영상들과 종양 환자의 영상들 각각을 동일한 과정으로 처리하여 학습데이터를 마련할 수 있다.The learning device extracts a region of interest by inputting the entire chest X-ray of a subject from the population into a previously learned segmentation model. The segmentation model is a model trained in advance to distinguish the humerus region in chest X-rays. For example, the segmentation model may be a U-net-based model. The learning device can generate a humerus mask based on the humerus region. Additionally, the learning device can generate a bone tumor mask that indicates the location of the bone tumor in the humerus from the image of the bone tumor patient. The learning DB can store the humerus region and mask (humerus mask and bone tumor mask) extracted from the population's chest X-ray images. The learning device can prepare learning data by processing images of normal people and images of tumor patients through the same process.
학습장치는 상완골 영역 및 마스크를 이용하여 학습모델을 구축(학습)하는 과정을 수행한다(220). 학습장치는 모집단의 학습데이터를 이용하여 학습과정을 반복적으로 수행한다. 학습모델은 입력된 영상에서 특징을 추출하여 상완골 영역 또는 골종양 영역을 시각화하는 영상을 출력한다. 또한 학습 모델은 골종양 여부에 대한 확률값을 산출할 수 있다. 학습장치는 학습모델이 출력하는 확률값과 사전에 알고 있는 해당 영상의 라벨값을 비교하여 학습모델의 파라미터를 갱신한다. 학습모델은 대상자를 정상 또는 종양의 이진분류를 할 수 있다. The learning device performs a process of building (learning) a learning model using the humerus region and mask (220). The learning device repeatedly performs the learning process using population learning data. The learning model extracts features from the input image and outputs an image that visualizes the humerus area or bone tumor area. Additionally, the learning model can calculate a probability value for the presence or absence of a bone tumor. The learning device updates the parameters of the learning model by comparing the probability value output by the learning model with the label value of the corresponding image that is known in advance. The learning model can binary classify subjects as normal or tumor.
도 3은 학습 데이터 구축 과정 내지 데이터 전처리 과정에 대한 예이다.Figure 3 is an example of a learning data construction process or data preprocessing process.
도 3(A)는 흉부 엑스레이에서 상완골 영역을 추출하는 과정(300)에 대한 예이다. 도 3(A)는 학습 데이터를 구축하는 과정이다. 도 3(A)는 흉부 엑스레이에 대한 데이터 전처리 과정에 해당하기도 한다. 데이터 전처리 과정은 학습모델을 이용한 골종양 추론 과정에서도 동일하게 수행될 수 있다. 설명의 편의를 위하여 데이터 전처리 과정은 학습 장치에서 수행한다고 설명한다.Figure 3(A) is an example of a process 300 for extracting the humerus region from a chest X-ray. Figure 3(A) shows the process of constructing learning data. Figure 3(A) also corresponds to the data preprocessing process for chest X-rays. The data preprocessing process can be performed in the same way in the bone tumor inference process using a learning model. For convenience of explanation, it is explained that the data preprocessing process is performed in the learning device.
학습장치는 흉부 엑스레이 영상을 입력받는다(310). 이때 흉부 엑스레이 영상은 정상인 또는 골종양 환자에 대한 영상일 수 있다. 학습장치는 입력된 흉부 엑스레이 영상을 학습된 세그멘테이션 모델에 입력하여 상완골 영역을 구분할 수 있다(320). 흉부 엑스레이 영상은 좌측 상완골과 우측 상완골을 포함한다. 학습장치는 좌측 상완골과 우측 상완골 각각에 대하여 상완골의 중점(center point)을 기준으로 일정한 크기의 정사각형 영역을 설정한다(330). 학습장치는 좌측 상완골의 중점을 기준으로 일정한 크기의 사각형 영역(좌상완골 패치) 및 우측 상완골의 중점을 기준으로 일정한 크기의 사각형 영역(우상완골 패치)을 절단(crop)한다(340). 절단하여 생성된 영상을 패치라고 명명한다. 이를 통해 학습장치는 흉부 엑스레이 영상에서 관심 영역(상관골 영역)을 추출할 수 있다. 상관골 영역은 상완골을 포함한다. The learning device receives a chest X-ray image (310). At this time, the chest X-ray image may be an image of a normal person or a patient with a bone tumor. The learning device can classify the humerus region by inputting the input chest X-ray image into the learned segmentation model (320). Chest x-ray image includes left humerus and right humerus. The learning device sets a square area of a certain size for each of the left humerus and the right humerus based on the center point of the humerus (330). The learning device crops a rectangular area (left humerus patch) of a certain size based on the midpoint of the left humerus and a rectangular area (right humerus patch) of a constant size based on the midpoint of the right humerus (340). The image created by cutting is called a patch. Through this, the learning device can extract the region of interest (superior bone region) from the chest X-ray image. The superior bone region includes the humerus.
전술한 바와 같이 학습장치는 흉부 엑스레이 영상에서 좌측 상완골 영역과 우측 상완골 영역을 추출한다. 학습장치는 하나의 상완골 영역을 기준으로 학습모델을 구축하기 위하여 하나의 방향에 대한 데이터를 마련할 수 있다. 예컨대, 학습장치는 좌측 상완골을 기준으로 학습 데이터를 구축할 수 있다. 도 3(B)는 도 3(A)에서 추출한 상완골 영역을 기준으로 학습 데이터를 구축하는 예이다. 학습장치는 흉부 엑스레이 영상에서 좌측 상완골 영역은 그대로 이용한다. 학습장치는 우측 상완골 영역은 좌우 반전하여 좌측 상완골로 이미지를 통일한다. 학습장치는 좌측 상완골 영역 및 반전하여 생성된 좌측 상완골 영역에서 상완골 부위를 추출할 수 있는 마스크(상완골 세그멘테이션 마스크)를 생성한다. 또한 학습장치는 좌측 상완골을 기준으로 상완골의 골종양 위치를 추출할 수 있는 마스크(골종양 마스크)를 생성한다.As described above, the learning device extracts the left humerus region and the right humerus region from the chest X-ray image. The learning device can prepare data for one direction in order to build a learning model based on one humerus region. For example, the learning device can construct learning data based on the left humerus. Figure 3(B) is an example of constructing learning data based on the humerus region extracted from Figure 3(A). The learning device uses the left humerus area in the chest X-ray image. The learning device reverses the right humerus area left and right to unify the image to the left humerus. The learning device creates a mask (humerus segmentation mask) that can extract the humerus region from the left humerus region and the left humerus region created by inversion. Additionally, the learning device creates a mask (bone tumor mask) that can extract the location of the bone tumor of the humerus based on the left humerus.
도 4는 상완골 골종양을 분류하는 학습모델의 구체적인 학습 과정(400)에 대한 예이다. 도 4는 CNN(Convolutional Neural Network) 기반 모델을 예로 도시한다. 학습장치는 학습 데이터 중 상완골 영역 이미지를 입력받는다(410). 학습장치는 상완골 영역 이미지를 딥러닝 모델에 입력한다(420). 이때 CNN은 다수의 계층들로 구성될 수 있다. 컨본루션 계층은 입력 영상에서 특징을 추출한다(특징맵 생성). CNN은 마지막에 일반적인 FC(fully connected layer)를 사용하지 않고, 전역 평균 풀링(global average pooling)을 수행하는 계층을 둔다. 해당 모델은 소위 CAM(Class Activation Map)을 생성하는 모델에 해당한다. 학습장치는 추출된 활성화 맵에 클래스의 가중치를 행렬 곱셈으로 곱하여 CAM
Figure PCTKR2023019940-appb-img-000001
을 생성할 수 있다. 학습장치는 상완골 영역 이미지를 딥러닝 모델에 입력하여 해당 영상에 대한 CAM을 생성한다(420).
Figure 4 is an example of a specific learning process 400 of a learning model for classifying humeral bone tumors. Figure 4 shows a CNN (Convolutional Neural Network) based model as an example. The learning device receives an image of the humerus region among the learning data (410). The learning device inputs the humerus region image into the deep learning model (420). At this time, the CNN may be composed of multiple layers. The convolution layer extracts features from the input image (creating a feature map). CNN does not use a typical fully connected layer (FC) at the end, but has a layer that performs global average pooling. This model corresponds to a model that generates the so-called CAM (Class Activation Map). The learning device multiplies the extracted activation map by the weight of the class through matrix multiplication to perform CAM
Figure PCTKR2023019940-appb-img-000001
can be created. The learning device inputs the humerus region image into a deep learning model and generates a CAM for the image (420).
학습장치는 입력되는 상완골 이미지가 정상인 경우 해당 이미지에 대한 상완골 마스크를 입력받는다(430). 또는, 학습장치는 입력되는 상완골 이미지가 골종양을 갖는 경우 해당 이미지에 대한 골종양 마스크를 입력받는다(430). If the input humerus image is normal, the learning device receives the humerus mask for the corresponding image (430). Alternatively, if the input humerus image has a bone tumor, the learning device receives a bone tumor mask for the image (430).
학습장치는 학습장치는 CAM에 해당하는 마스크를 곱하여 마스크가 적용된 영상
Figure PCTKR2023019940-appb-img-000002
을 생성한다. CAM에 마스크를 적용한 과정은 아래 수학식 1과 같다.
The learning device multiplies the mask corresponding to the CAM and creates the masked image.
Figure PCTKR2023019940-appb-img-000002
creates . The process of applying a mask to CAM is as shown in Equation 1 below.
Figure PCTKR2023019940-appb-img-000003
Figure PCTKR2023019940-appb-img-000003
Figure PCTKR2023019940-appb-img-000004
는 마스크를 의미한다. 해당 상완골 이미지가 정상인 경우 마스크는 상완골 마스크이고, 해당 상완골 이미지가 골종양을 갖는 경우 마스크는 골종양 마스크이다.
Figure PCTKR2023019940-appb-img-000005
는 성분별 곱(element wise product)을 의미한다.
Figure PCTKR2023019940-appb-img-000004
means mask. If the humerus image is normal, the mask is a humerus mask, and if the humerus image has a bone tumor, the mask is a bone tumor mask.
Figure PCTKR2023019940-appb-img-000005
means element wise product.
학습장치는 CAM에서 마스크가 적용된 영역(상완골 영역 혹은 종양 영역)을 제외한 영역에 대하여 CAM의 픽셀값을 모두 0으로 처리하도록 L2 손실(Least square error) 함수를 이용하여 학습을 진행한다(440). 즉 손실 L FPAR은 CAM에서 마스크를 제외한 영역에서 색상이 모두 제거되도록 영상을 처리한다.The learning device performs learning using the L2 loss (least square error) function to treat all pixel values of the CAM as 0 for areas excluding the masked area (humerus area or tumor area) in the CAM (440). In other words, lossy L FPAR processes the image so that all colors are removed from the area excluding the mask in the CAM.
한편, CNN의 마지막 계층은 CAM을 위한 손실 함수 외에 골종양 여부를 분류하기 위한 손실 L CLS을 더 사용할 수 있다. L CLS는 해당 모델이 정답을 추론하도록 유도하는 손실함수에 해당한다. Meanwhile, the last layer of CNN can further use loss L CLS for classifying bone tumor in addition to the loss function for CAM. L CLS corresponds to the loss function that guides the model to infer the correct answer.
결국 딥러닝 모델의 학습이 완료되면, 딥러닝 모델은 입력되는 상완골 이미지의 특징에 따라 상완골 영역 또는 종양 영역을 제외한 픽셀값을 0으로 처리하여 상완골 영역 또는 종양 영역만 두드러지게 CAM이 생성되게 한다. 또한 딥러닝 모델은 입력되는 상완골 이미지에 대하여 정상인지 골종양인지 분류하는 값도 출력하게 된다.Ultimately, when learning of the deep learning model is completed, the deep learning model processes pixel values excluding the humerus area or tumor area as 0 according to the characteristics of the input humerus image, thereby creating a CAM in which only the humerus area or tumor area stands out. In addition, the deep learning model also outputs values that classify the input humerus image as normal or bone tumor.
연구자는 전술한 방법으로 학습한 딥러닝 모델(CNN)을 검증하는 실험을 하였다. 제안한 방법을 실험하기 위해 연구자는 아래 표 1과 같이 데이터를 이용하여 학습 및 검증을 수행하였다.The researcher conducted an experiment to verify the deep learning model (CNN) learned using the above-described method. To test the proposed method, the researcher performed learning and verification using data as shown in Table 1 below.
DatasetDataset 비정상(골육종)Abnormal (osteosarcoma) 정상normal
For classification (Abnormal/Normal)For classification (Abnormal/Normal) 1493(89명)1493 (89 people) 1500명1500 people
For segmentation
(Humerus mask)
For segmentation
(Humerus mask)
-- 1000명1000 people
For holdout validation (Abnormal/Normal)For holdout validation (Abnormal/Normal) 100명100 people 119명119 people
TotalTotal 15931593 26192619
연구자는 정상 1000건의 흉부 엑스레이 영상에 상완골의 분할 마스크가 표시되어 있어 세그멘테이션 모델의 학습에 활용하였다. 연구자는 세그멘테이션 모델로 Attention UNet을 이용하였고, 1000장 중 800장은 학습에 사용하였고, 나머지 200장은 검증에 사용하였다. 세그멘테이션 모델의 성능은 아래 표 2와 같이 IOU(Intersection over Union)와 Dice 평균이 0.98 정도로 높은 성능을 보였다.The researcher used the segmentation mask of the humerus displayed on 1,000 normal chest X-ray images to learn a segmentation model. The researcher used Attention UNet as a segmentation model, and 800 of the 1,000 sheets were used for learning, and the remaining 200 sheets were used for verification. The performance of the segmentation model showed high performance with an average of IOU (Intersection over Union) and Dice of 0.98, as shown in Table 2 below.
IOUIOU DiceDice
점수score 0.9780.978 0.9890.989
또한, 연구자는 전술한 딥러닝 모델의 학습을 위하여 골육종을 갖는 1493장의 흉부 엑스레이 영상 및 정상인의 1500장의 흉부 엑스레이 영상을 이용하였다. 1493장의 영상은 골육종이 진단된 89명의 골육종의 위치가 표시된 영상이었다. 연구자는 모델 검증(holdout validation)을 위하여 골육종 환자의 영상 100장과 정상인 영상 119장의 사용하였다. In addition, the researcher used 1,493 chest X-ray images with osteosarcoma and 1,500 chest X-ray images of normal people to learn the deep learning model described above. The 1,493 images were images showing the location of osteosarcoma in 89 people diagnosed with osteosarcoma. The researcher used 100 images of osteosarcoma patients and 119 images of normal subjects for model validation (holdout validation).
연구자는 다양한 구조의 CNN 기반의 모델을 구축하여 성능을 검증하였다. 연구자는 EfficientNet, ResNet, DenseNet 및 ShuffleNetV2를 사용하였다. 연구자는 제안 모델과 성능을 비교하기 위한 비교 모델도 구축하였다. 비교 모델 1은 흉부 엑스레이에서 상완골을 포함하는 절반의 이미지만을 입력받아 골육종을 분류하는 모델이다. 비교 모델 2는 흉부 엑스레이에서 상완골 영역만을 전달한 이미지(패치)만을 입력받아 골육종을 분류하는 모델이다. 제안 모델이 상완골 영역만을 절단한 이미지와 마스크를 적용하여 골육종을 분류한 모델(도 4에서 설명한 제안 모델)이다.The researcher built a CNN-based model with various structures and verified its performance. The researchers used EfficientNet, ResNet, DenseNet, and ShuffleNetV2. The researcher also built a comparison model to compare the performance of the proposed model. Comparison Model 1 is a model that classifies osteosarcoma by receiving only half of the image including the humerus from the chest X-ray. Comparison Model 2 is a model that classifies osteosarcoma by receiving only the image (patch) of the humerus area from the chest X-ray. The proposed model is a model that classifies osteosarcoma by applying an image and a mask cut from only the humerus region (the proposed model described in Figure 4).
딥러닝 모델의 성능은 아래 표 3과 같이 나타났다. 제안 모델인 비교 모델들에 비하여 모두 나은 성능을 보였다.The performance of the deep learning model is shown in Table 3 below. The proposed model all showed better performance compared to the comparative models.
EfficientNetEfficientNet DenseNetDenseNet ResnetResnet ShuffleNetV2ShuffleNetV2
비교모델 1Comparison model 1 0.820.82 0.7930.793 0.8040.804 0.7850.785
비교모델 2Comparison model 2 0.8430.843 0.8190.819 0.8340.834 0.8330.833
제안 모델proposed model 0.8730.873 0.8380.838 0.8440.844 0.8350.835
도 5는 상완골 골육종을 분류하는 학습모델의 성능을 평가한 결과이다. 도 5는 비교모델과 제안 모델에서 CAM을 생성한 결과이다. 도 5에서 주석 이미지는 흉부 엑스레이 영상과 해당 영상에서 종양 영역이 주석된 영상이다. 도 5(A)는 EfficientNet을 사용한 결과이고, 도 5(B)는 ShuffleNetV2를 사용한 결과이다. 도 5를 살펴보면, 제안 모델만이 골육종의 위치만을 정확하게 포착하여 CAM을 생성한 것을 알 수 있다.Figure 5 shows the results of evaluating the performance of a learning model for classifying humeral osteosarcoma. Figure 5 shows the results of generating CAM from the comparative model and the proposed model. In Figure 5, the annotated image is a chest X-ray image and an image with the tumor area annotated in the image. Figure 5(A) is the result of using EfficientNet, and Figure 5(B) is the result of using ShuffleNetV2. Looking at Figure 5, it can be seen that only the proposed model accurately captured the location of osteosarcoma and generated CAM.
도 6은 상완골 골종양을 분류하는 분석장치에 대한 예이다. 분석장치(500)는 전술한 분석장치(도 1의 130 및 140)에 해당한다. 분석장치(500)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 분석장치(500)는 PC와 같은 컴퓨터 장치, 네트워크의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다.Figure 6 is an example of an analysis device for classifying humeral bone tumors. The analysis device 500 corresponds to the above-described analysis devices (130 and 140 in FIG. 1). The analysis device 500 may be physically implemented in various forms. For example, the analysis device 500 may take the form of a computer device such as a PC, a network server, or a chipset dedicated to data processing.
분석장치(500)는 저장장치(510), 메모리(520), 연산장치(530), 인터페이스 장치(540), 통신장치(550) 및 출력장치(560)를 포함할 수 있다.The analysis device 500 may include a storage device 510, a memory 520, an arithmetic device 530, an interface device 540, a communication device 550, and an output device 560.
저장장치(510)는 x-레이 장비에서 생성된 흉부 엑스레이 영상을 저장할 수 있다. The storage device 510 can store chest X-ray images generated by x-ray equipment.
저장장치(510)는 흉부 엑스레이 영상을 분석하여 골종양을 분류하는 코드 내지 프로그램을 저장할 수 있다. The storage device 510 may store a code or program for classifying bone tumors by analyzing chest X-ray images.
저장장치(510)는 흉부 엑스레이에서 관심 영역인 골종양 영역을 구분하는 세그멘테이션 모델을 저장할 수 있다.The storage device 510 may store a segmentation model that distinguishes a bone tumor area, which is a region of interest, in a chest X-ray.
저장장치(510)는 절단된 상완골 영상을 입력받아 골종양 여부를 분류하는 딥러닝 모델을 저장할 수 있다.The storage device 510 can receive a cut humerus image and store a deep learning model that classifies whether a bone tumor exists.
메모리(520)는 분석장치가 흉부 엑스레이 영상을 분석하는 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.The memory 520 can store data and information generated while the analysis device analyzes the chest X-ray image.
인터페이스 장치(540)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(540)는 물리적으로 연결된 입력 장치 또는 외부 저장장치로부터 흉부 엑스레이 영상을 입력받을 수 있다. 인터페이스 장치(540)는 흉부 엑스레이 영상을 분석하여 골종양을 분류한 결과를 외부 객체에 전달할 수도 있다. The interface device 540 is a device that receives certain commands and data from the outside. The interface device 540 can receive a chest X-ray image from a physically connected input device or an external storage device. The interface device 540 may analyze the chest X-ray image and transmit the results of classifying the bone tumor to an external object.
한편, 인터페이스 장치(540)는 아래 통신장치(550)를 경유하여 전달된 데이터 내지 정보를 입력받을 수도 있다.Meanwhile, the interface device 540 may receive data or information transmitted via the communication device 550 below.
통신장치(550)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신장치(550)는 외부 객체로부터 흉부 엑스레이 영상을 수신할 수 있다. 또는 통신장치(550)는 흉부 엑스레이 영상을 분석하여 골종양을 분류한 결과를 사용자 단말과 같은 외부 객체에 송신할 수도 있다.The communication device 550 refers to a configuration that receives and transmits certain information through a wired or wireless network. The communication device 550 can receive a chest X-ray image from an external object. Alternatively, the communication device 550 may analyze the chest X-ray image and transmit the results of classifying the bone tumor to an external object such as a user terminal.
출력장치(560)는 일정한 정보를 출력하는 장치이다. 출력장치(560)는 데이터 처리 과정에 필요한 인터페이스, 입력된 흉부 엑스레이 영상, 분류 결과, 골종양 위치가 시각화된 영상 등을 출력할 수 있다. The output device 560 is a device that outputs certain information. The output device 560 can output an interface required for the data processing process, an input chest X-ray image, a classification result, and an image in which the bone tumor location is visualized.
연산 장치(530)는 입력된 흉부 엑스레이 영상을 세그멘테이션 모델에 입력하여 상완골 영역을 구분할 수 있다. 연산 장치(530)는 상완골의 중점을 기준으로 일정한 크기의 영역만을 절단하여 상완골 패치를 생성할 수 있다. 설명의 편의를 위하여 딥러닝 모델이 좌측 상완골 이미지를 기준으로 학습된 경우라고 가정한다. 이때, 연산 장치(530)는 흉부 엑스레이에서 좌측 상완골은 그대로 두고, 우측 상완골은 좌우 반전하여 상완골 패치를 생성할 수 있다.The calculation device 530 may classify the humerus region by inputting the input chest X-ray image into a segmentation model. The calculation device 530 may generate a humerus patch by cutting only an area of a certain size based on the midpoint of the humerus. For convenience of explanation, we assume that the deep learning model was learned based on the left humerus image. At this time, the calculation device 530 can create a humerus patch by leaving the left humerus intact and flipping the right humerus left and right in the chest X-ray.
연산 장치(530)는 좌측 상완골 패치 또는 좌우 반전한 우측 상완골 패치를 딥러닝 모델이 입력할 수 있다. 딥러닝 모델은 전술한 바와 같이 CAM을 생성한다. 딥러닝 모델은 입력되는 상완골 패치에서 특징을 추출하여 상완골 또는 골종양 영역을 제외한 CAM의 픽셀이 0이 되도록 CAM을 생성한다. 또한, 딥러닝 모델은 상완골 패치를 기준으로 골종양 여부를 분류한 결과도 출력할 수 있다.The calculation device 530 can input the left humerus patch or the left and right inverted right humerus patch into a deep learning model. The deep learning model generates CAM as described above. The deep learning model extracts features from the input humerus patch and creates a CAM so that the pixels of the CAM excluding the humerus or bone tumor area are 0. In addition, the deep learning model can also output the results of classifying bone tumors based on the humerus patch.
연산 장치(530)는 딥러닝 모델이 출력하는 CAM을 출력장치(560)에 출력되도록 제어할 수 있다. 또한 연산 장치(530)는 골종양 여부에 대한 확률값을 기준으로 대상자가 정상인지 또는 골종양을 갖는지 정보를 출력장치(560)에 출력할 수 있다.The computing device 530 can control the CAM output from the deep learning model to be output to the output device 560. Additionally, the calculation device 530 may output information on whether the subject is normal or has a bone tumor to the output device 560 based on the probability value for the presence or absence of a bone tumor.
연산 장치(530)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.The computing device 530 may be a device such as a processor that processes data and performs certain operations, an AP, or a chip with an embedded program.
또한, 상술한 바와 같은 의료 영상 분석 방법 내지 골종양 분류 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.Additionally, the medical image analysis method or bone tumor classification method as described above may be implemented as a program (or application) including an executable algorithm that can be executed on a computer. The program may be stored and provided in a temporary or non-transitory computer readable medium.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), and EPROM (Erasable PROM, EPROM). Alternatively, it may be stored and provided in a non-transitory readable medium such as EEPROM (Electrically EPROM) or flash memory.
일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.Temporarily readable media include Static RAM (SRAM), Dynamic RAM (DRAM), Synchronous DRAM (SDRAM), Double Data Rate SDRAM (DDR SDRAM), and Enhanced SDRAM (Enhanced RAM). It refers to various types of RAM, such as SDRAM (ESDRAM), synchronous DRAM (Synclink DRAM, SLDRAM), and Direct Rambus RAM (DRRAM).
본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.This embodiment and the drawings attached to this specification only clearly show some of the technical ideas included in the above-described technology, and those skilled in the art can easily understand them within the scope of the technical ideas included in the specification and drawings of the above-described technology. It is self-evident that all inferable modifications and specific embodiments are included in the scope of rights of the above-described technology.

Claims (6)

  1. 분석장치가 대상자의 흉부 엑스레이 영상을 입력받는 단계;A step in which an analysis device receives a chest X-ray image of a subject;
    상기 분석장치가 상기 흉부 엑스레이 영상을 학습된 세그멘테이션 모델에 입력하여 상완골 영역을 구분하고, 일정한 크기의 상완골 패치를 생성하는 단계; 및A step where the analysis device inputs the chest and
    상기 분석장치가 상기 상완골 패치를 사전에 학습된 딥러닝 모델에 입력하여, 상기 상완골 패치에 대한 CAM(Class Activation Map) 및 골종양 여부를 출력하는 단계를 포함하되,The analysis device inputs the humerus patch into a previously learned deep learning model, and outputs a CAM (Class Activation Map) for the humerus patch and whether or not it is a bone tumor,
    상기 딥러닝 모델은 상기 대상자가 정상인 경우 상기 상완골 패치에서 상완골 영역을 제외한 영역에서 상기 CAM의 픽셀이 0이 되도록 학습되고, 상기 대상자가 골종양을 갖는 경우 상기 상완골 패치에서 골종양 영역을 제외한 영역에서 상기 CAM의 픽셀이 0이 되도록 학습되는 흉부 엑스레이 영상을 이용한 상완골의 골종양 시각화 방법.The deep learning model is learned so that the pixel of the CAM is 0 in the area excluding the humerus area in the humerus patch when the subject is normal, and when the subject has a bone tumor, the pixel of the CAM is set to 0 in the area excluding the bone tumor area in the humerus patch. A method for visualizing bone tumors in the humerus using chest X-ray images that are learned so that the pixels of are set to 0.
  2. 제1항에 있어서,According to paragraph 1,
    상기 분석장치는 상기 세그멘테이션 모델이 구분한 상기 상완골 영역의 중심을 기준으로 일정 사각형 크기의 영역을 잘라 상기 상완골 패치를 생성하고, 상기 흉부 엑스레이에서 일측의 상완골 영상은 좌우 반전한 후 상기 상완골 패치를 생성하는 흉부 엑스레이 영상을 이용한 상완골의 골종양 시각화 방법.The analysis device creates the humerus patch by cutting an area of a certain square size based on the center of the humerus region divided by the segmentation model, and generates the humerus patch after flipping the humerus image on one side from the chest X-ray left and right. A method of visualizing bone tumors in the humerus using chest X-ray images.
  3. 제1항에 있어서,According to paragraph 1,
    상기 딥러닝 모델은 (i) 학습 데이터에서 정상인의 상완골 패치와 상완골 위치를 나타내는 마스크를 이용하여 CAM에서 상완골 영역을 제외한 영역에서 CAM의 픽셀이 0이 되도록 학습되고, (ii) 상기 학습 데이터에서 골종양을 갖는 대상자의 상완골 패치와 골종양 위치를 나타내는 마스크를 이용하여 CAM에서 골종양 영역을 제외한 영역에서 CAM의 픽셀이 0이 되도록 학습되는 흉부 엑스레이 영상을 이용한 상완골의 골종양 시각화 방법.The deep learning model is (i) trained so that the pixel of the CAM is 0 in the area excluding the humerus region in the CAM using the humerus patch of a normal person and a mask representing the humerus position in the learning data, and (ii) the bone tumor in the learning data A method of visualizing a bone tumor of the humerus using a chest
  4. 대상자의 흉부 엑스레이 영상을 입력받는 인터페이스 장치;An interface device that receives the subject's chest X-ray image;
    흉부 엑스레이 영상에서 상완골 영역을 구분하는 세그멘테이션 모델 및 상완골 패치를 입력받아 상완골 영역 또는 골종양 영역을 시각화하는 CAM(Class Activation Map)을 생성하는 딥러닝 모델을 저장하는 저장장치; 및A storage device that stores a segmentation model that distinguishes the humerus region in a chest X-ray image and a deep learning model that receives the humerus patch and generates a CAM (Class Activation Map) that visualizes the humerus region or bone tumor region; and
    상기 입력된 흉부 엑스레이 영상을 상기 학습된 세그멘테이션 모델에 입력하여 상완골 영역을 구분하고, 일정한 크기의 상기 상완골 패치를 생성하고, 상기 생성한 상완골 패치를 상기 딥러닝 모델에 입력하여, 상기 상완골 패치에 대한 CAM 및 골종양 여부를 산출하는 연산 장치를 포함하되,The input chest Includes a calculation device that calculates CAM and bone tumor,
    상기 딥러닝 모델은 상기 대상자가 정상인 경우 상기 상완골 패치에서 상완골 영역을 제외한 영역에서 상기 CAM의 픽셀이 0이 되도록 학습되고, 상기 대상자가 골종양을 갖는 경우 상기 상완골 패치에서 골종양 영역을 제외한 영역에서 상기 CAM의 픽셀이 0이 되도록 학습되는 상완골의 골종양을 분류하는 분석 장치.The deep learning model is learned so that the pixel of the CAM is 0 in the area excluding the humerus area in the humerus patch when the subject is normal, and when the subject has a bone tumor, the pixel of the CAM is set to 0 in the area excluding the bone tumor area in the humerus patch. An analysis device that classifies bone tumors of the humerus that learns so that the pixel of is 0.
  5. 제4항에 있어서,According to clause 4,
    상기 연산 장치는 상기 세그멘테이션 모델이 구분한 상기 상완골 영역의 중심을 기준으로 일정 사각형 크기의 영역을 잘라 상기 상완골 패치를 생성하고, 상기 흉부 엑스레이에서 일측의 상완골 영상은 좌우 반전한 후 상기 상완골 패치를 생성하는 상완골의 골종양을 분류하는 분석 장치.The calculation device generates the humerus patch by cutting an area of a certain square size based on the center of the humerus region divided by the segmentation model, and generates the humerus patch after flipping the humerus image on one side from the chest X-ray left and right. An analysis device that classifies bone tumors of the humerus.
  6. 제4항에 있어서,According to clause 4,
    상기 딥러닝 모델은 (i) 학습 데이터에서 정상인의 상완골 패치와 상완골 위치를 나타내는 마스크를 이용하여 CAM에서 상완골 영역을 제외한 영역에서 CAM의 픽셀이 0이 되도록 학습되고, (ii) 상기 학습 데이터에서 골종양을 갖는 대상자의 상완골 패치와 골종양 위치를 나타내는 마스크를 이용하여 CAM에서 골종양 영역을 제외한 영역에서 CAM의 픽셀이 0이 되도록 학습되는 상완골의 골종양을 분류하는 분석 장치.The deep learning model is (i) trained so that the pixel of the CAM is 0 in the area excluding the humerus region in the CAM using the humerus patch of a normal person and a mask representing the humerus position in the learning data, and (ii) the bone tumor in the learning data An analysis device for classifying bone tumors of the humerus that is learned so that the pixels of the CAM are 0 in the area excluding the bone tumor area in the CAM using the subject's humerus patch and a mask representing the bone tumor location.
PCT/KR2023/019940 2022-12-06 2023-12-06 Method and analysis device for visualizing bone tumor in humerus using chest x-ray image WO2024123057A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220168582A KR20240084113A (en) 2022-12-06 2022-12-06 Visualization method for osteosarcoma within humerus in chest x-ray and analysis apparatus
KR10-2022-0168582 2022-12-06

Publications (1)

Publication Number Publication Date
WO2024123057A1 true WO2024123057A1 (en) 2024-06-13

Family

ID=91379716

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/019940 WO2024123057A1 (en) 2022-12-06 2023-12-06 Method and analysis device for visualizing bone tumor in humerus using chest x-ray image

Country Status (2)

Country Link
KR (1) KR20240084113A (en)
WO (1) WO2024123057A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101889725B1 (en) * 2018-07-04 2018-08-20 주식회사 루닛 Method and Apparatus for Diagnosing Malignant Tumor
JP2019154943A (en) * 2018-03-15 2019-09-19 ライフサイエンスコンピューティング株式会社 Lesion detection method using artificial intelligence, and system therefor
KR20200092803A (en) * 2019-01-25 2020-08-04 주식회사 딥바이오 Method for annotating pathogenic area using semi-supervised learning and medical diagnosis system performing the same
US20200337658A1 (en) * 2019-04-24 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
KR102218900B1 (en) * 2020-04-17 2021-02-23 주식회사 딥노이드 Apparatus and method for diagnosing disease

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019154943A (en) * 2018-03-15 2019-09-19 ライフサイエンスコンピューティング株式会社 Lesion detection method using artificial intelligence, and system therefor
KR101889725B1 (en) * 2018-07-04 2018-08-20 주식회사 루닛 Method and Apparatus for Diagnosing Malignant Tumor
KR20200092803A (en) * 2019-01-25 2020-08-04 주식회사 딥바이오 Method for annotating pathogenic area using semi-supervised learning and medical diagnosis system performing the same
US20200337658A1 (en) * 2019-04-24 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
KR102218900B1 (en) * 2020-04-17 2021-02-23 주식회사 딥노이드 Apparatus and method for diagnosing disease

Also Published As

Publication number Publication date
KR20240084113A (en) 2024-06-13

Similar Documents

Publication Publication Date Title
Min et al. Overview of deep learning in gastrointestinal endoscopy
Esteva et al. Dermatologist-level classification of skin cancer with deep neural networks
WO2020207377A1 (en) Method, device, and system for image recognition model training and image recognition
Hauser et al. Explainable artificial intelligence in skin cancer recognition: A systematic review
Naeem et al. A CNN-LSTM network with multi-level feature extraction-based approach for automated detection of coronavirus from CT scan and X-ray images
CN111292839B (en) Image processing method, image processing device, computer equipment and storage medium
CN110390674B (en) Image processing method, device, storage medium, equipment and system
US20230052133A1 (en) Medical image processing method and apparatus, device, storage medium, and product
Nahiduzzaman et al. ChestX-Ray6: Prediction of multiple diseases including COVID-19 from chest X-ray images using convolutional neural network
CN110427994A (en) Digestive endoscope image processing method, device, storage medium, equipment and system
Causey et al. Spatial pyramid pooling with 3D convolution improves lung cancer detection
Araújo et al. Machine learning concepts applied to oral pathology and oral medicine: a convolutional neural networks' approach
Elayaraja et al. An efficient approach for detection and classification of cancer regions in cervical images using optimization based CNN classification approach
Asswin et al. Transfer learning approach for pediatric pneumonia diagnosis using channel attention deep CNN architectures
Kumar et al. Medical image classification and manifold disease identification through convolutional neural networks: a research perspective
WO2024123057A1 (en) Method and analysis device for visualizing bone tumor in humerus using chest x-ray image
Aljawarneh et al. Pneumonia detection using enhanced convolutional neural network model on chest x-ray images
CN116805522A (en) Diagnostic report output method, device, terminal and storage medium
WO2023108418A1 (en) Brain atlas construction and neural circuit detection method and related product
Nurtiyasari et al. Covid-19 chest x-ray classification using convolutional neural network architectures
Panda et al. Application of artificial intelligence in medical imaging
Athina et al. Multi-classification Network for Detecting Skin Diseases using Deep Learning and XAI
Fariza et al. Mobile application for early screening of skin cancer using dermoscopy image data based on convolutional neural network
KR20220063052A (en) Method and system for predicting responsiveness to theraphy for cancer patent
Sheethal et al. Diagnosis of Pneumonia utilizing X-rays and other Image Processing techniques based on Containers and Deep Learning