KR20210028053A - Method and system for detecting pneumothorax - Google Patents

Method and system for detecting pneumothorax Download PDF

Info

Publication number
KR20210028053A
KR20210028053A KR1020200017255A KR20200017255A KR20210028053A KR 20210028053 A KR20210028053 A KR 20210028053A KR 1020200017255 A KR1020200017255 A KR 1020200017255A KR 20200017255 A KR20200017255 A KR 20200017255A KR 20210028053 A KR20210028053 A KR 20210028053A
Authority
KR
South Korea
Prior art keywords
pneumothorax
predicted
tube
spine
information
Prior art date
Application number
KR1020200017255A
Other languages
Korean (ko)
Inventor
김민철
박창민
황의진
Original Assignee
주식회사 루닛
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 루닛, 서울대학교병원 filed Critical 주식회사 루닛
Priority to KR1020200017255A priority Critical patent/KR20210028053A/en
Publication of KR20210028053A publication Critical patent/KR20210028053A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • A61B5/747Arrangements for interactive communication between patient and care services, e.g. by using a telephone network in case of emergency, i.e. alerting emergency services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/01Emergency care

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Critical Care (AREA)
  • Emergency Management (AREA)
  • Emergency Medicine (AREA)
  • Nursing (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)

Abstract

A method for a computing device to detect a pneumothorax comprises the steps of: obtaining predicted pneumothorax information, predicted tube information, and predicted spine baseline for an input image from a learned pneumothorax prediction model; determining at least one representative pneumothorax position for the predicted pneumothorax information and at least one tube representative position for the predicted tube information from the predicted image in which the predicted pneumothorax information and the predicted tube information are displayed; dividing the predicted image into a first region and a second region by the predicted spine baseline; and determining a region in which the at least one representative pneumothorax representative position and the at least one tube representative position exist among the first region and the second region.

Description

기흉 검출 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING PNEUMOTHORAX}Pneumothorax detection method and system {METHOD AND SYSTEM FOR DETECTING PNEUMOTHORAX}

본 발명은 인공지능 기반 의료 영상 판독 기술에 관한 것이다.The present invention relates to an artificial intelligence-based medical image reading technology.

기흉(pneumothorax)은 폐를 둘러싸고 있는 흉막강 내에 공기가 차게 되면 폐가 눌려 정상적인 호흡을 할 수 없는 질환으로서, 호흡 곤란과 가슴 통증의 증상이 나타난다. 기흉의 발생 원인은 아직까지 정확히 밝혀지지 않았고, 근본적인 예방법이 없으며, 폐질환이 없는 젊은 연령층에서도 다양한 원인으로 발병할 수 있다.Pneumothorax (pneumothorax) is a disease in which the lungs cannot be breathed normally when the air is filled in the pleural cavity surrounding the lungs, and symptoms of shortness of breath and chest pain appear. The cause of pneumothorax has not yet been accurately identified, there are no fundamental preventive measures, and even younger age groups without lung disease can develop a variety of causes.

의료진은 엑스레이(X-Ray) 영상을 통해 기흉을 진단할 수 있고, 기흉의 크기가 크거나 증상이 심한 경우에는 가슴에 가는 튜브(tube)를 삽입하여 공기를 배출시키는 시술을 할 수 있다. 응급 질환인 기흉은 빠른 시술을 통해 환자의 호흡 곤란과 가슴 통증을 완화하고 추가적인 피해를 줄일 수 있다.Medical staff can diagnose a pneumothorax through X-ray images, and if the pneumothorax is large in size or symptoms are severe, a procedure to discharge air by inserting a thin tube into the chest can be performed. Pneumothorax, an emergency disease, can relieve the patient's breathing difficulties and chest pain and reduce additional damage through rapid procedures.

최근 인공지능 기술이 의료 영상 판독 분야에 적용되어, 영상 판독의 정확도 및 속도를 높이고 있다. 특히, 엑스레이 영상 분석을 통해 폐 결절 등의 이상 소견이 있는 부위를 표시하고, 그 가능성을 지표로 제시하는 인공지능 판독 시스템이 개발되었다. 따라서 기흉도 인공지능 영상 판독을 통해 어느 정도 발견할 수 있다. Recently, artificial intelligence technology has been applied to the field of medical image reading, increasing the accuracy and speed of image reading. In particular, an artificial intelligence reading system has been developed that marks areas with abnormal findings such as lung nodules through X-ray image analysis and presents the possibility as an index. Therefore, pneumothorax can also be detected to some extent through artificial intelligence image reading.

다만, 기흉은 환자의 양쪽 폐 모두에서 발견되거나, 한 쪽 폐에서만 발견될 수 있다. 특히, 기흉이 존재하는 폐쪽으로 튜브 삽입을 응급으로 진행해야 하는 특성 상, 기흉 유무와 함께 기흉의 좌우 위치까지 예측해야 할 필요가 있다. 하지만, 영상 전체에서 이상 부위를 예측하는 지금까지의 영상 판독 시스템은 발견된 기흉이 환자의 왼쪽 폐쪽에 위치하는지 오른쪽 폐쪽에 위치하는지 정확히 예측하는 데 한계가 있다. 따라서, 기흉에 최적화된 인공지능 영상 판독 기술이 필요하다.However, pneumothorax can be found in both lungs of a patient or in only one lung. In particular, it is necessary to predict the presence or absence of a pneumothorax as well as the left and right positions of the pneumothorax due to the nature of urgently proceeding with the tube insertion into the lung where the pneumothorax exists. However, there is a limit to accurately predicting whether the detected pneumothorax is located on the left or right lung side of the patient. Therefore, there is a need for an artificial intelligence image reading technology optimized for pneumothorax.

(특허문헌 1) KR10-1879207 B (Patent Document 1) KR10-1879207 B

(특허문헌 2) US2018-0047158 A (Patent Document 2) US2018-0047158 A

(특허문헌 3) US2019-0156484 A (Patent Document 3) US2019-0156484 A

결하고자 하는 과제는 영상에서 기흉을 예측하고 환자의 좌우 영역 중에서 기흉이 위치하는 영역을 판별하는 기흉 예측 모델을 생성하고, 학습된 기흉 예측 모델을 이용한 기흉 검출 방법 및 시스템을 제공하는 것이다.The task to be concluded is to generate a pneumothorax prediction model that predicts a pneumothorax from an image and determines the area where the pneumothorax is located among the left and right regions of the patient, and provides a method and system for detecting pneumothorax using the learned pneumothorax prediction model.

해결하고자 하는 과제는 영상에서 기흉 유무 및 기흉이 위치하는 영역, 그리고 시술된 튜브(tube)의 유무 및 튜브가 위치하는 영역을 동시에 판별하는 기흉 예측 모델을 생성하고, 학습된 기흉 예측 모델을 이용한 응급 기흉 검출 방법 및 시스템을 제공하는 것이다.The task to be solved is to create a pneumothorax prediction model that simultaneously discriminates the presence or absence of pneumothorax in the image, the area where the pneumothorax is located, the presence or absence of the treated tube, and the area where the tube is located, and emergency using the learned pneumothorax prediction model. It is to provide a method and system for detecting pneumothorax.

해결하고자 하는 과제는 영상에서 환자의 좌우 영역 판별의 기준이 되는 척추(spine) 기준선을 생성하고, 척추 기준선을 기준으로 좌측 영역과 우측 영역이 레이블된 영상을 학습 데이터로 생성하는 방법 및 시스템을 제공하는 것이다.The task to be solved is to provide a method and system for generating a spine reference line, which is a criterion for discriminating the left and right regions of a patient from an image, and generating an image labeled with the left and right regions as learning data based on the spine reference line. It is to do.

한 실시예에 따라, 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치가 기흉을 검출하는 방법으로서, 학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계, 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계, 상기 예측 영상을 상기 예측된 척추 기준선으로 제1 영역과 제2 영역으로 나누는 단계, 그리고 상기 제1 영역과 상기 제2 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계를 포함한다.According to an embodiment, a method for detecting a pneumothorax by a computing device operated by at least one processor, comprising: from a learned pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for an input image. Obtaining, in a prediction image displaying the predicted pneumothorax information and the predicted tube information, at least one representative pneumothorax location for the predicted pneumothorax information, and at least one representative tube location for the predicted tube information Determining, dividing the predicted image into a first region and a second region by the predicted spine reference line, and among the first region and the second region, the at least one representative pneumothorax location and the at least one And determining an area in which the representative tube location exists.

상기 기흉 검출 방법은 상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계를 더 포함할 수 있다.The method for detecting pneumothorax may further include classifying the input image as an emergency pneumothorax when the tube representative location does not exist in the first region where the at least one representative pneumothorax location exists.

상기 기흉 검출 방법은 상기 응급 기흉을 나타내는 알람과 함께, 튜브 시술이 요구되는 상기 제1 영역의 정보를 출력하는 단계를 더 포함할 수 있다.The pneumothorax detection method may further include outputting information on the first area requiring tube treatment together with an alarm indicating the emergency pneumothorax.

상기 기흉 검출 방법은 상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하는 경우, 상기 입력 영상을 일반 기흉으로 분류하는 단계를 더 포함할 수 있다.The method for detecting pneumothorax may further include classifying the input image as a general pneumothorax when the tube representative location is present in the first region where the at least one representative pneumothorax location exists.

상기 기흉 대표 위치와 튜브 대표 위치 각각은 상기 예측된 기흉 정보 또는 상기 예측된 튜브 정보가 예측값으로 표시된 예측 영상에서, 예측값이 최댓값인 위치, 예측값이 임계값 이상인 영역에서 최댓값의 위치, 또는 예측값이 임계값 이상인 영역에서의 중앙값의 위치 중 적어도 하나로 결정될 수 있다.Each of the representative pneumothorax location and the representative tube location is a location in which the predicted pneumothorax information or the predicted tube information is displayed as a predicted value, the location where the predicted value is the maximum value, the location of the maximum value in the region where the predicted value is greater than or equal to the threshold value, or the predicted value is critical. It may be determined as at least one of the positions of the median value in the region greater than or equal to the value.

상기 기흉 검출 방법은 상기 기흉 예측 모델을 적어도 하나의 태스크에 대해 학습시키는 단계를 더 포함할 수 있다. 상기 적어도 하나의 태스크는 척추 기준선으로 구분된 제1 영역과 제2 영역이 좌우 판별 레이블로 태깅된 학습 영상들을 기초로, 상기 학습 영상들에서 기흉을 예측하는 태스크, 상기 학습 영상들에서 튜브를 예측하는 태스크, 그리고 상기 학습 영상들에서 상기 척추 기준선을 예측하는 태스크를 포함할 수 있다.The pneumothorax detection method may further include learning the pneumothorax prediction model for at least one task. The at least one task is a task of predicting a pneumothorax in the training images, and predicting a tube in the training images based on training images in which a first area and a second area divided by a spine reference line are tagged with left and right discrimination labels. And a task of predicting the spine baseline from the training images.

다른 실시예에 따라, 컴퓨팅 장치가 기흉을 검출하는 방법으로서, 좌우 판별 레이블이 태깅된 학습 영상들을 이용하여 기흉을 예측하도록 학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보와 예측된 척추 기준선을 획득하는 단계, 그리고 상기 예측된 기흉 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 기흉 존재 영역을 결정하는 단계를 포함한다. 상기 좌우 판별 레이블은 각 학습 영상의 척추 기준선을 기준으로 구분된 영역 정보를 포함한다.According to another embodiment, a method of detecting a pneumothorax by a computing device, from a pneumothorax prediction model learned to predict a pneumothorax using learning images tagged with left and right discrimination labels, and predicted pneumothorax information and predicted spine for an input image. Obtaining a baseline, and determining a pneumothorax presence region among left and right regions of the patient using the predicted pneumothorax information and the predicted spinal baseline. The left and right discrimination labels include area information divided based on a spine reference line of each training image.

상기 기흉 검출 방법은 상기 기흉 예측 모델이 상기 학습 영상들에서 튜브를 더 예측하도록 학습된 경우, 상기 기흉 예측 모델로부터 상기 입력 영상에 대해 예측된 튜브 정보를 획득하는 단계, 상기 예측된 튜브 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 튜브 존재 영역을 결정하는 단계, 그리고 상기 환자의 좌우 영역 중에서 상기 기흉 존재 영역이 제1 영역이고, 상기 튜브 존재 영역이 제2 영역이거나 상기 튜브 존재 영역이 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계를 더 포함할 수 있다.The pneumothorax detection method includes obtaining predicted tube information for the input image from the pneumothorax prediction model when the pneumothorax prediction model is trained to further predict a tube from the training images, the predicted tube information and the Determining a tube presence region among left and right regions of the patient using the predicted spine baseline, and the pneumothorax presence region is a first region among the left and right regions of the patient, and the tube presence region is a second region or the tube is present. If the region does not exist, the step of classifying the input image as an emergency pneumothorax may be further included.

또 다른 실시예에 따라, 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치가 기흉을 검출하는 방법으로서, 학습 영상들을 입력받는 단계, 각 학습 영상에서 척추 영역을 분리하고, 상기 척추 영역을 대표하는 척추 기준선을 생성하는 단계, 상기 각 학습 영상에서 상기 척추 기준선을 기준으로, 좌우 판별 레이블을 태깅하는 단계, 상기 좌우 판별 레이블이 태깅된 상기 각 학습 영상을 학습 데이터로 생성하는 단계, 그리고 상기 학습 데이터를 이용하여 기흉 예측 모델을 학습시키는 단계를 포함한다. 상기 기흉 예측 모델을 학습시키는 단계는 상기 학습 데이터에 대응하는 적어도 하나의 학습 영상에 대하여, 기흉을 예측하는 태스크, 튜브를 예측하는 태스크, 그리고 상기 척추 기준선을 예측하는 태스크 각각에 대해 상기 기흉 예측 모델을 학습시키는 단계를 포함한다.According to another embodiment, a method for detecting a pneumothorax by a computing device operated by at least one processor, receiving training images, separating a spine region from each learning image, and a spine reference line representing the spine region Generating, tagging the left and right discrimination labels on the basis of the spine reference line in each of the training images, generating each training image tagged with the left and right discrimination labels as training data, and using the training data And training a pneumothorax prediction model. The training of the pneumothorax prediction model includes the pneumothorax prediction model for each of at least one training image corresponding to the training data, a task for predicting a pneumothorax, a task for predicting a tube, and a task for predicting the spine baseline. It includes the step of learning.

상기 척추 기준선을 생성하는 단계는 척추 영역 정보가 어노테이션된 각 학습 영상에서 척추 영역을 분리하거나, 척추 영역 검출 태스크로 학습된 기계 학습 모델을 통해 각 학습 영상에서 척추 영역을 분리할 수 있다.In the generating of the spine reference line, the spine region may be separated from each learning image to which the spine region information is annotated, or the spine region may be separated from each learning image through a machine learning model learned by a spine region detection task.

상기 척추 기준선을 생성하는 단계는 상기 척추 영역으로 분리된 픽셀들을 다중 회귀 알고리즘으로 후처리하여 기준선을 생성할 수 있다.In the generating of the spine baseline, a baseline may be generated by post-processing the pixels separated into the spine region using a multiple regression algorithm.

상기 기흉 검출 방법은 의뢰 영상을 학습된 상기 기흉 예측 모델로 입력하는 단계, 상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계, 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고 상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계를 더 포함할 수 있다.The pneumothorax detection method includes inputting a request image into the learned pneumothorax prediction model, obtaining from the pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image, Separating the predicted pneumothorax information and the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and the predicted pneumothorax information and the predicted tube information exist among the two regions. It may further include the step of determining whether the request image is emergency by comparing the regions.

상기 의뢰 영상의 응급 여부를 판단하는 단계는 상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하고, 상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하는 경우, 상기 의뢰 영상을 일반 기흉으로 분류할 수 있다.The step of determining whether the request image is emergency or not is, when the predicted tube information does not exist in the region where the predicted pneumothorax information exists, classifies the request image as an emergency pneumothorax, and the predicted pneumothorax information exists. When the predicted tube information exists in the region, the request image may be classified as a general pneumothorax.

또 다른 실시예에 따른 컴퓨팅 장치로서, 메모리, 그리고 상기 메모리에 로드된 프로그램의 명령들(instructions)을 실행하는 적어도 하나의 프로세서를 포함한다. 상기 프로그램은 의뢰 영상을 기흉 예측 모델로 입력하는 단계, 상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계, 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고 상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계를 실행하도록 기술된 명령들을 포함한다.A computing device according to another exemplary embodiment includes a memory and at least one processor that executes instructions of a program loaded in the memory. In the program, inputting a request image as a pneumothorax prediction model, acquiring predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image from the pneumothorax prediction model, the predicted pneumothorax information And dividing the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and comparing the predicted pneumothorax information and the region in which the predicted tube information exists among the two regions, And instructions described to execute the step of determining whether the request image is emergency.

상기 프로그램은 입력 영상에서 기흉을 예측하는 태스크, 상기 입력 영상에서 튜브를 예측하는 태스크, 그리고 상기 입력 영상에서 상기 척추 기준선을 예측하는 태스크에 대해 학습된 상기 기흉 예측 모델을 포함할 수 있다.The program may include the pneumothorax prediction model learned about a task of predicting a pneumothorax from an input image, a task of predicting a tube from the input image, and a task of predicting the spine baseline from the input image.

상기 의뢰 영상의 응급 여부를 판단하는 단계는 상기 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계, 상기 예측된 척추 기준선을 이용하여 분리된 상기 예측 영상의 두 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계, 그리고 상기 적어도 하나의 기흉 대표 위치가 존재하는 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하는 단계를 실행하도록 기술된 명령들을 포함할 수 있다.Determining whether the request image is emergency, in the prediction image, determining at least one representative pneumothorax location for the predicted pneumothorax information and at least one representative tube location for the predicted tube information, the Determining an area in which the at least one representative pneumothorax location and the at least one tube representative location exist among the two areas of the predicted image separated using the predicted spine baseline, and the at least one representative pneumothorax location is In the case where the representative tube position does not exist in the present region, instructions described to execute the step of classifying the request image as an emergency pneumothorax may be included.

실시예에 따르면 기흉 예측 모델을 통해 영상으로부터 기흉을 예측할 뿐만 아니라, 시술된 튜브의 유무, 그리고 좌우 영역 판별의 기준이 되는 환자의 척추 기준선을 예측할 수 있고, 이를 통해 응급 시술이 요구되는 응급 기흉인지를 빠르고 정확하게 판단할 수 있다.According to the embodiment, not only the pneumothorax is predicted from the image through the pneumothorax prediction model, but also the presence or absence of the treated tube and the baseline of the patient's spine, which is the criterion for discrimination of the left and right regions, can be predicted, through which emergency pneumothorax is required. Can be quickly and accurately judged.

실시예에 따르면 영상에서 예측된 환자의 척추 기준선을 이용하여 환자마다의 좌우 영역을 오류 없이 판별할 수 있으므로, 환자의 촬영 자세, 신체 특성에 영향받지 않고 기흉 예측을 할 수 있다.According to the embodiment, since the left and right regions for each patient can be determined without error using the patient's spine baseline predicted from the image, pneumothorax can be predicted without being affected by the patient's photographing posture and body characteristics.

도 1은 좌우 비대칭 환자 영상의 예시 도면이다.
도 2와 도 3 각각은 한 실시예에 따른 기흉 검출 시스템의 구조도이다.
도 4는 한 실시예에 따라 좌우 판별 레이블이 태깅된 학습 영상을 생성하는 방법을 설명하는 도면이다.
도 5는 한 실시예에 따른 응급 기흉 분류 방법을 예시적으로 설명하는 도면이다.
도 6은 한 실시예에 따른 기흉 검출 모델의 학습 데이터 생성 방법의 흐름도이다.
도 7은 한 실시예에 따른 기흉 검출 모델을 이용한 기흉 검출 방법의 흐름도이다.
도 8은 한 실시예에 따른 컴퓨팅 장치의 하드웨어 구성도이다.
1 is an exemplary diagram of a left and right asymmetric patient image.
2 and 3 are each a structural diagram of a pneumothorax detection system according to an embodiment.
4 is a diagram illustrating a method of generating a learning image tagged with left and right discrimination labels according to an exemplary embodiment.
5 is a diagram exemplarily illustrating an emergency pneumothorax classification method according to an embodiment.
6 is a flowchart of a method of generating training data for a pneumothorax detection model according to an embodiment.
7 is a flowchart of a pneumothorax detection method using a pneumothorax detection model according to an embodiment.
8 is a hardware configuration diagram of a computing device according to an embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.

명세서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, terms such as "... unit", "... group", and "module" described in the specification mean a unit that processes at least one function or operation, which can be implemented by hardware or software or a combination of hardware and software. have.

명세서에서, 태스크(task)란, 기계 학습을 통해 해결하고자 하는 과제 또는 기계 학습을 통해 수행하고자 하는 작업을 지칭한다. 예를 들어, 의료 영상(medical image)으로부터 이상(anomaly)에 대한 인식, 분류, 예측 등을 수행한다고 할 때, 이상 인식, 이상 분류, 이상 예측 각각이 개별 태스크에 대응될 수 있다. 본 발명의 기흉 검출 모델은 적어도 하나의 태스크를 학습하는 기계 학습 모델로서, 컴퓨팅 장치에서 실행되는 소프트웨어로 구현될 수 있다. 본 발명의 동작을 실행하도록 기술된 명령들(instructions)이 포함된 프로그램은 네트워크를 통해 다운로드되거나, 제품 형태로 판매될 수 있다.In the specification, a task refers to a task to be solved through machine learning or a task to be performed through machine learning. For example, when recognizing, classifying, and predicting anomaly from a medical image, each of anomaly recognition, anomaly classification, and anomaly prediction may correspond to individual tasks. The pneumothorax detection model of the present invention is a machine learning model for learning at least one task, and may be implemented as software executed on a computing device. A program including instructions described to perform the operation of the present invention may be downloaded through a network or sold as a product.

본 발명에 따라 최종적으로 의료진에게 제공되는 좌우 영역은 환자의 척추를 기준으로 나뉘는 환자의 좌측 영역, 우측 영역으로 제공되는 것이 바람직하다. 이때 컴퓨팅 장치는 영상의 좌측을 환자의 우측으로 매핑하고, 영상의 우측을 환자의 좌측으로 매핑한 후, 기흉 등이 환자 기준 좌측 영역에 존재하는지 우측 영역에 존재하는지 판단할 수 있다. 또는 컴퓨팅 장치는 중간 단계에서는 기흉 등이 영상 기준 좌측 영역에 존재하는지 우측 영역에 존재하는지 판단한 후, 출력 단계에서 환자에 맞춰 좌우를 변경하도록 구현될 수 있다. 또는 컴퓨팅 장치는 중간 단계에서는 좌우 방향에 대한 구분 없이 기흉 등이 영상의 제1 영역에 존재하는지 제2 영역에 존재하는지 판단한 후, 출력 단계에서 환자에 맞춰 좌측 영역, 우측 영역으로 변경하도록 구현될 수 있다. It is preferable that the left and right regions finally provided to the medical staff according to the present invention are provided as a left region and a right region of the patient divided based on the patient's spine. In this case, the computing device may map the left side of the image to the right side of the patient and map the right side of the image to the left side of the patient, and then determine whether a pneumothorax exists in the left area of the patient reference or the right area. Alternatively, the computing device may be implemented to determine whether a pneumothorax exists in the left or right area of the image reference in the intermediate step, and then change the left and right according to the patient in the output step. Alternatively, the computing device may be implemented to determine whether a pneumothorax exists in the first area or the second area of the image without distinction between the left and right directions in the intermediate stage, and then change the left area and the right area according to the patient in the output stage. have.

도 1은 좌우 비대칭 영상의 예시 도면이다.1 is an exemplary diagram of a left and right asymmetric image.

도 1을 참고하면, 기흉은 폐를 둘러싸고 있는 흉막강 내에 공기가 차게 되면 폐가 눌려 정상적인 호흡을 할 수 없는 질환이므로, 의료진은 신속하게 기흉이 생긴 흉막강 내에 튜브(tube)를 삽입하여 공기를 배출시키는 시술을 해야 한다. 기흉 환자는 응급 시술이 필요하므로, 영상 판독 시스템이 영상으로부터 정확하고 빠르게 기흉 예측을 한다면 응급 환자의 피해를 줄일 수 있다. Referring to FIG. 1, pneumothorax is a disease in which the lungs cannot be breathed normally when the air is filled in the pleural cavity surrounding the lungs, so the medical staff quickly inserts a tube into the pleural cavity where the pneumothorax is formed to expel air. You have to do the procedure that tells you. Since pneumothorax patients need emergency procedures, damage to emergency patients can be reduced if the image reading system accurately and quickly predicts pneumothorax from images.

하지만, 지금까지의 영상 판독 시스템은 대부분 영상 전체에서 이상 징후를 예측하기 때문에, 기흉을 예측하고, 예측된 기흉 위치를 영상에 표시할 수 있더라도, 예측된 기흉 위치가 환자의 좌측 영역(왼쪽 폐가 위치하는 영역)에 위치하는지 우측 영역(오른쪽 폐가 위치하는 영역)에 위치하는지를 판별하기 어렵다. 항상 촬영 시 요구되는 기준 자세로 영상이 촬영된다면, 영상 판독 시스템이 영상의 가운데를 기준으로 좌우 영역을 분할함으로써 기흉이 위치하는 영역을 판별하도록 설계할 수 있다. 하지만, 이러한 단순 분할 방법은 호흡 곤란과 가슴 통증으로 인해 환자가 자세를 바르게 가누지 못하는 특수 상황이나 신체적 특성으로 기준 자세로 촬영되기 어려운 환자의 경우, 오류가 발생하는 문제가 있다. 예를 들어, 도 1과 같이 환자의 자세가 좌우 대칭으로 촬영되지 않은 영상이 입력되면, 기흉이 위치하는 좌우 영역이 잘못 판별될 수 있는 큰 문제가 있다. However, since most of the image reading systems up to now predict abnormal signs in the entire image, the predicted pneumothorax location is the patient's left area (left lung location), even though it is possible to predict the pneumothorax and display the predicted pneumothorax location on the image. It is difficult to determine whether it is located in the right area (the area where the right lung is located). If an image is always captured in a reference posture required for photographing, the image reading system can be designed to determine the region where the pneumothorax is located by dividing the left and right regions based on the center of the image. However, such a simple segmentation method has a problem in that an error occurs in the case of a patient who is difficult to photograph in a reference posture due to physical characteristics or a special situation in which the patient cannot properly control the posture due to shortness of breath and chest pain. For example, as shown in FIG. 1, when an image in which the patient's posture is not photographed symmetrically is input, there is a big problem that the left and right regions in which the pneumothorax is located may be erroneously identified.

한편, 의료진이라면, 엑스레이(X-Ray) 영상에서 기흉을 발견하고, 이와 동시에 기흉이 환자의 왼쪽 폐쪽에 위치하는지 오른쪽 폐쪽에 위치하는지 판별할 수 있다. 따라서, 의료진은 도 1과 같이 환자의 자세가 좌우 대칭으로 촬영되지 않은 영상을 보더라도 튜브를 삽입할 영역이 어디인지 바로 알 수 있는 것이다.On the other hand, a medical staff can detect a pneumothorax on an X-ray image and at the same time determine whether the pneumothorax is located in the patient's left lung or the right lung. Therefore, the medical staff can immediately know where the tube is to be inserted even when viewing an image in which the patient's posture is not symmetrically photographed as shown in FIG. 1.

다음에서, 의료진의 기흉 판단 매커니즘과 유사하게, 환자의 촬영 자세나 신체적 특성까지 고려하여 영상으로부터 기흉을 예측하고, 환자의 좌우 영역 중에서 기흉이 위치하는 영역을 판별하는 기흉 검출 방법에 대해 설명한다. 나아가 시술된 튜브까지 동시에 예측함으로써 응급 기흉을 검출하는 방법에 대해 설명한다.In the following, similar to the pneumothorax determination mechanism of a medical staff, a pneumothorax detection method of predicting a pneumothorax from an image by considering a patient's photographic posture and physical characteristics, and determining an area where the pneumothorax is located among the left and right regions of the patient will be described. Furthermore, a method of detecting emergency pneumothorax by simultaneously predicting the treated tube will be described.

도 2와 도 3 각각은 한 실시예에 따른 기흉 검출 시스템의 구조도이고, 도 4는 한 실시예에 따라 좌우 판별 레이블이 태깅된 학습 영상을 생성하는 방법을 설명하는 도면이며, 도 5는 한 실시예에 따른 응급 기흉 분류 방법을 예시적으로 설명하는 도면이다.Each of FIGS. 2 and 3 is a structural diagram of a pneumothorax detection system according to an embodiment, and FIG. 4 is a diagram illustrating a method of generating a learning image tagged with left and right discrimination labels according to an embodiment, and FIG. 5 is an embodiment. It is a diagram exemplarily illustrating an emergency pneumothorax classification method according to an example.

도 2를 참고하면, 기흉 검출 시스템(1)은 영상(10)으로부터 학습 데이터를 생성하는 학습 데이터 생성기(100), 기흉 예측 모델(20)을 학습시키는 학습기(200) 그리고 학습된 기흉 예측 모델(20)을 이용하여 기흉 응급 환자를 분류하는 응급 분류기(300)를 포함한다. 설명을 위해, 학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300)로 명명하여 부르나, 이들은 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치이다. 여기서, 학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300)는 하나의 컴퓨팅 장치에 구현되거나, 별도의 컴퓨팅 장치에 분산 구현될 수 있다. 별도의 컴퓨팅 장치에 분산 구현된 경우, 학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300)는 통신 인터페이스를 통해 서로 통신할 수 있다. 컴퓨팅 장치는 본 발명을 수행하도록 작성된 소프트웨어 프로그램을 실행할 수 있는 장치이면 충분하고, 예를 들면, 서버, 랩탑 컴퓨터 등일 수 있다. Referring to FIG. 2, the pneumothorax detection system 1 includes a training data generator 100 for generating training data from an image 10, a learner 200 for training a pneumothorax prediction model 20, and a learned pneumothorax prediction model ( It includes an emergency classifier 300 for classifying emergency patients with pneumothorax using 20). For the sake of explanation, the training data generator 100, the learner 200, and the emergency classifier 300 are referred to as being called, but these are computing devices operated by at least one processor. Here, the training data generator 100, the learner 200, and the emergency classifier 300 may be implemented in one computing device or distributedly implemented in a separate computing device. When distributed in separate computing devices, the training data generator 100, the learner 200, and the emergency classifier 300 may communicate with each other through a communication interface. The computing device may be a device capable of executing a software program written to perform the present invention, and may be, for example, a server, a laptop computer, or the like.

학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300) 각각은 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 그리고 기흉 예측 모델(20)도 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 기흉 검출 시스템(1)은 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 이에 따라, 상술한 구성들에 대응하는 하나 또는 복수의 인공지능 모델은 하나 또는 복수의 컴퓨팅 장치에 의해 구현될 수 있다.Each of the training data generator 100, the learner 200, and the emergency classifier 300 may be an artificial intelligence model, or may be implemented as a plurality of artificial intelligence models. In addition, the pneumothorax prediction model 20 may also be a single artificial intelligence model, or may be implemented as a plurality of artificial intelligence models. The pneumothorax detection system 1 may be a single artificial intelligence model, or may be implemented as a plurality of artificial intelligence models. Accordingly, one or a plurality of artificial intelligence models corresponding to the above-described configurations may be implemented by one or a plurality of computing devices.

도 3을 참고하면, 학습기(200)에서 학습이 완료된 기흉 예측 모델과 응급 분류기(300)에 구현된 소프트웨어는 하나의 컴퓨팅 장치(400)에서 동작할 수 있다. 컴퓨팅 장치(400)는 복수일 수 있고, 예를 들면, 다양한 사이트들(예를 들면, 병원들, 하나 또는 복수의 병원 내 서로 다른 장소들)에서 개별적으로 동작할 수 있다. 또는 학습기(200)에서 학습이 완료된 기흉 예측 모델은 서버측에 위치하고, 응급 분류기(300)를 탑재한 컴퓨팅 장치(400)들이 네트워크를 통해 서버에 접속할 수 있다.Referring to FIG. 3, a pneumothorax prediction model that has been trained in the learner 200 and software implemented in the emergency classifier 300 may operate on one computing device 400. The computing device 400 may be plural, and may operate individually at various sites (eg, hospitals, different places within one or more hospitals). Alternatively, the pneumothorax prediction model that has been trained in the learner 200 is located on the server side, and the computing devices 400 equipped with the emergency classifier 300 may access the server through a network.

이외에도, 본 발명에서 설명하는 기능들은 서비스 형태에 따라 다양하게 분리되거나 통합될 수 있다. 예를 들면, 다양한 사이트들(예를 들면, 병원들, 하나 또는 복수의 병원 내 서로 다른 장소들)의 클라이언트 장치가 네트워크를 통해 서버로 영상 분석을 의뢰할 수 있다. 영상촬영 장치에서 촬영된 영상이 네트워크를 통해 서버로 의뢰될 수 있다. 그러면, 서버가 의뢰 영상에 대한 기흉 예측 결과, 응급 여부, 응급 시술 부위(예를 들면, 환자의 좌측 영역) 등에 대한 리포트를 클라이언트 장치로 전송할 수 있다. In addition, functions described in the present invention may be variously separated or integrated according to service types. For example, client devices of various sites (eg, hospitals, different places in one or a plurality of hospitals) may request an image analysis to a server through a network. An image captured by the imaging device may be requested to a server through a network. Then, the server may transmit a report on the pneumothorax prediction result for the requested image, whether it is an emergency, and an emergency treatment area (eg, the left area of the patient) to the client device.

다시 도 2를 참고하면, 학습 데이터 생성기(100)는 기흉 예측 모델의 학습에 사용되는 영상들(10)을 입력받는다. 학습 데이터 생성기(100)는 각 영상에서 척추 영역을 예측하고, 환자의 좌우 영역 판별의 기준이 되는 척추(spine) 기준선을 생성한다. 학습 데이터 생성기(100)는 척추 기준선을 기준으로 생성한 좌우 판별 레이블을 기흉 예측 모델의 학습 데이터로 생성한다. 영상은 흉부 엑스레이 영상일 수 있으나, 의료 기술에 따라 다른 종류의 장치로 촬영된 영상일 수 있다. 기흉 예측 모델의 종류 및 구조, 그리고 학습 방법에 맞춰 학습 데이터가 생성될 수 있다. 예를 들면, 영상들 중 적어도 일부는 기흉 정보 및/또는 튜브 정보가 레이블로 태깅된 데이터일 수 있고, 또는 레이블이 없는 데이터일 수 있다.Referring back to FIG. 2, the training data generator 100 receives images 10 used for training a pneumothorax prediction model. The training data generator 100 predicts a spine region from each image and generates a spine reference line that is a criterion for determining the left and right regions of the patient. The training data generator 100 generates the left and right discrimination labels generated based on the spine baseline as training data of the pneumothorax prediction model. The image may be a chest X-ray image, but may be an image captured by a different type of device according to medical technology. Training data may be generated according to the type and structure of the pneumothorax prediction model, and a learning method. For example, at least some of the images may be data tagged with pneumothorax information and/or tube information with a label, or may be data without a label.

척추 영역에 대한 정보가 어노테이션(annotation)된 영상들이 많지 않기 때문에, 기흉 예측 모델이 영상으로부터 좌우 판별하는 태스크를 학습하기 어렵다. 따라서, 학습 데이터 생성기(100)가 척추 영역이 어노테이션된 학습 영상들을 이용하여, 척추 영역이 어노테이션되어 있지 않은 영상의 척추 영역을 예측하는 태스크에 대해 학습할 수 있다. 학습된 학습 데이터 생성기(100)는 기흉 예측 모델의 학습에 사용되는 영상들(10)에서, 척추 영역을 예측하고, 각 영상에서 환자의 좌우 영역 판별의 기준이 되는 척추(spine) 기준선을 생성할 수 있다.Since there are not many images annotated with information on the spine region, it is difficult for the pneumothorax prediction model to learn the task of determining left and right from the images. Accordingly, the learning data generator 100 may learn a task of predicting a spine region of an image in which the spine region is not annotated by using the learning images in which the spine region is annotated. The learned training data generator 100 predicts the spine region from the images 10 used for the training of the pneumothorax prediction model, and generates a spine baseline, which is a criterion for discriminating the left and right regions of the patient from each image. I can.

한편, 기흉 예측 모델의 학습에 사용되는 영상들(10) 중 일부 영상들에 척추 영역에 대한 정보가 어노테이션되어 있다면, 학습 데이터 생성기(100)는 해당 영상에서 어노테이션된 척추 영역을 분리하고, 척추 기준선을 생성할 수 있다.On the other hand, if information on the spine region is annotated in some of the images 10 used for training of the pneumothorax prediction model, the training data generator 100 separates the annotated spine region from the image and Can be created.

도 4를 참고하면, 학습 데이터 생성기(100)는 영상(10)을 입력받는다. 영상(10)에 척추 영역이 어노테이션되어 있지 않은 경우, 척추 영역을 예측하도록 학습된 학습 데이터 생성기(100)는 영상(10)에서 척추 영역을 예측하고, 예측한 척추 영역(12)을 분리(segmentation)한다. 학습 데이터 생성기(100)는 척추 영역(12)으로 분리된 픽셀들을 후처리(post processing)하여 척추 영역을 대표하는 척추 기준선(14)을 생성한다. 학습 데이터 생성기(100)는 척추 영역(12)으로 분리된 픽셀들을 다중 회귀(polynomial regression) 등의 알고리즘으로 후처리하여 척추 기준선(14)을 생성할 수 있다.Referring to FIG. 4, the training data generator 100 receives an image 10. When the spine region is not annotated in the image 10, the training data generator 100 trained to predict the spine region predicts the spine region from the image 10 and separates the predicted spine region 12. )do. The training data generator 100 post-processes the pixels separated into the spine region 12 to generate a spine reference line 14 representing the spine region. The training data generator 100 may generate the spine reference line 14 by post-processing the pixels separated into the spine region 12 using an algorithm such as polynomial regression.

학습 데이터 생성기(100)는 척추 기준선(14)을 기준으로 좌우 판별 레이블을 생성할 수 있다. 학습 데이터 생성기(100)는 척추 기준선(14)을 기준으로 좌우 영역을 구분하고, 구분된 좌우 영역에 대한 레이블을 생성할 수 있다. 좌우 판별 레이블은 좌우가 정확할 필요가 없으므로, 의사 레이블(pseudo label)을 좌측 영역과 우측 영역에 태깅(어노테이션)할 수 있다. 좌우 영역은 예를 들면, 심장의 위치를 기준으로 구분할 수 있다. 즉, 척추 기준선(14)으로 구분되는 두 영역 중에서, 심장이 존재하는 영역에 환자의 좌측 영역이라는 레이블을 태깅하고, 심장이 존재하지 않는 영역을 환자의 우측 영역이라는 레이블을 태깅할 수 있다. 또는, 좌우 판별 레이블은 좌우를 구분하지 않고 척추 기준선으로 나뉘는 제1영역이라는 레이블, 제2영역이라는 레이블을 태깅할 수 있다. The training data generator 100 may generate left and right discrimination labels based on the spine reference line 14. The training data generator 100 may divide left and right regions based on the spine reference line 14 and generate labels for the divided left and right regions. Since the left and right discrimination labels do not need to be accurate, a pseudo label can be tagged (annotated) on the left and right areas. The left and right regions can be divided based on, for example, the position of the heart. That is, of the two regions divided by the spine reference line 14, a label indicating the left region of the patient may be tagged on the region where the heart exists, and the label indicating the region where the heart does not exist may be tagged as the right region of the patient. Alternatively, the left and right discrimination label may tag a label of a first area and a label of a second area divided by a spine reference line without dividing the left and right.

이렇게 척추 기준선(14)을 기준으로 좌측 영역과 우측 영역을 나눈 이미지 레이블인 좌우 판별 레이블은, 영상(10)과 함께 기흉 예측 모델로 입력된다. 좌우 판별 레이블은 기흉 예측 모델이 기흉 예측과 동시에 좌우 영역 예측하도록 학습시키는 데이터로 사용된다. In this way, the left and right discrimination label, which is an image label obtained by dividing the left area and the right area based on the spine reference line 14, is input together with the image 10 as a pneumothorax prediction model. The left and right discrimination labels are used as data to train the pneumothorax prediction model to predict the left and right regions simultaneously with the prediction of the pneumothorax.

학습 데이터 생성기(100)는 좌우 판별 레이블이 태깅된 영상을 학습 데이터로 생성한다. 학습 데이터는 지정된 저장소에 저장된다. 상술한 좌우 판별 레이블은 영상을 촬영한 환자의 실제 좌우 위치와 일치할 수도 있고, 일치하지 않을 수도 있다. 후술하는 것과 같이, 본 개시는 기흉의 응급 여부를 판단하기 위해, 기흉이 발생한 영역과 기흉에 대한 응급 조치, 예를 들면 튜브 삽입이 된 영역이 동일한 영역인지를 판단하기 위한 구성이므로, 실제 환자의 좌우와, 응급 기흉 여부를 판단하기 위해 태깅된 좌우 판별 레이블은 동일하지 않을 수 있다.The training data generator 100 generates an image tagged with left and right discrimination labels as training data. The training data is stored in the designated storage. The above-described left and right discrimination labels may or may not coincide with the actual left and right positions of the patient who captured the image. As described later, in order to determine whether a pneumothorax is in an emergency, the present disclosure is a configuration for determining whether the area where the pneumothorax has occurred and the emergency measure for the pneumothorax, for example, the area where the tube is inserted, is the same area. The left and right and left and right discrimination labels tagged to determine whether there is an emergency pneumothorax may not be the same.

영상(10)에서 척추 영역(12)을 분리하는 방법은 다양할 수 있다. A method of separating the spine region 12 from the image 10 may be various.

한 실시예에 따르면, 영상(10)에 척추 영역에 대한 정보가 어노테이션된 경우, 학습 데이터 생성기(100)는 영상(10)에서 어노테이션된 척추 영역(12)을 분리할 수 있다. According to an embodiment, when information about the spine region is annotated in the image 10, the training data generator 100 may separate the annotated spine region 12 from the image 10.

다른 실시예에 따르면, 학습 데이터 생성기(100)는 기계 학습 기반 세그먼테이션을 통해 영상(10)에서 척추 영역(12)을 예측 및 분리할 수 있다. According to another embodiment, the training data generator 100 may predict and separate the spine region 12 from the image 10 through machine learning-based segmentation.

학습 데이터 생성기(100)는, 영상에서 척추 영역을 검출하는 태스크에 대해 기계 학습 모델을 학습시킬 수 있다. 기계 학습 모델은 예를 들면, 컨볼류션 뉴럴 네트워크(Convolutional Neural Network) 모델일 수 있다. 학습 데이터 생성기(100)는 의료 영상 및 해당 의료 영상에 포함된 척추 영역에 대한 정보가 어노테이션된 데이터로 기계 학습 모델을 학습시키고, 학습된 기계 학습 모델을 통해 입력 영상(10)의 척추 영역(12)을 예측 및 분리할 수 있다. 그리고 학습 데이터 생성기(100)는 다중 회귀 알고리즘으로 척추 영역의 픽셀들로부터 척추 영역을 대표하는 중앙 선을 찾고, 중앙 선을 척추 기준선(14)으로 결정할 수 있다. The training data generator 100 may train a machine learning model for a task of detecting a spine region in an image. The machine learning model may be, for example, a convolutional neural network model. The learning data generator 100 trains a machine learning model using data annotated with a medical image and information about a spine region included in the medical image, and the spine region 12 of the input image 10 through the learned machine learning model. ) Can be predicted and separated. Further, the training data generator 100 may find a center line representing the spine region from pixels of the spine region using a multiple regression algorithm, and determine the center line as the spine reference line 14.

또 다른 실시예에 따르면, 학습 데이터 생성기(100)는, 어노테이션된 척추 영역을 가장 잘 따르는 중앙 선을 찾는 태스크에 대해 기계 학습 모델을 학습시킬 수 있다. 학습 데이터 생성기(100)는 학습된 기계 학습 모델을 통해 입력 영상(10)의 척추 영역(12)을 가장 잘 따르는 중앙 선을 찾고, 중앙 선을 척추 기준선(14)으로 결정할 수 있다.According to another embodiment, the training data generator 100 may train a machine learning model for a task of finding a center line that best follows an annotated spine region. The training data generator 100 may find a center line that best follows the spine region 12 of the input image 10 through the learned machine learning model and determine the center line as the spine reference line 14.

척추 기준선(14)은 분리된 척추 영역의 픽셀들에 다중 회귀 알고리즘을 적용하여 생성될 수 있다. 이때, 학습 데이터 생성기(100)는 척추 영역을 복수의 영역들로 분리한 후, 영역별로 추출된 중앙 선을 연결하여 척추 기준선을 생성할 수 있다. 또는 학습 데이터 생성기(100)는 척추 영역을 복수의 영역들로 분리한 후, 영역별로 영역의 중심 점을 찾고, 영역별 중심 점을 연결하여 척추 기준선을 생성할 수 있다.The spine reference line 14 may be generated by applying a multiple regression algorithm to pixels of the separated spine region. In this case, the training data generator 100 may divide the spine region into a plurality of regions, and then generate a spine reference line by connecting the center line extracted for each region. Alternatively, the training data generator 100 may generate a spine reference line by dividing the spine region into a plurality of regions, searching for a center point of the region for each region, and connecting the center points for each region.

다시 도 2를 참고하면, 학습기(200)는 좌우 판별 레이블이 태깅된(어노테이션된) 영상들을 학습 데이터로 입력받고, 학습 데이터를 이용하여 기흉 예측 모델(20)을 학습시킨다. 기흉 예측 모델(20)은 입력 영상에서 기흉을 예측하는 태스크, 그리고 입력 영상에서 환자의 좌우 영역을 판별하는 척추 기준선을 예측하는 태스크를 학습한다. 이때, 기흉 예측 모델(20)은 입력 영상에서 튜브를 예측하는 태스크를 동시에 학습할 수 있다. 입력 영상에서 기흉을 예측하는 태스크는 영상의 픽셀들이 기흉으로 예측되는 값을 출력하는 태스크일 수 있다. 입력 영상에서 튜브를 예측하는 태스크는 영상의 픽셀들이 튜브로 예측되는 값을 출력하는 태스크일 수 있다. 입력 영상에서 환자의 좌우 영역을 판별하는 태스크는 영상의 픽셀들이 척추 기준선으로 예측되는 값을 출력하는 태스크이거나, 예측되는 척추 기준선을 기준으로 좌우 영역(또는 제1영역과 제2영역)을 예측하는 태스크일 수 있다. 설명에서는 척추 기준선을 예측하는 것으로 설명한다.Referring back to FIG. 2, the learner 200 receives images tagged (annotated) with left and right discrimination labels as training data, and trains the pneumothorax prediction model 20 using the training data. The pneumothorax prediction model 20 learns a task of predicting a pneumothorax from an input image and a task of predicting a spine baseline for discriminating left and right regions of a patient from the input image. In this case, the pneumothorax prediction model 20 may simultaneously learn a task of predicting a tube from an input image. The task of predicting a pneumothorax in an input image may be a task of outputting a value predicted that pixels of the image are pneumothorax. The task of predicting a tube from the input image may be a task of outputting a value predicted by which pixels of the image are predicted as tubes. The task of determining the left and right regions of the patient in the input image is the task of outputting a value predicted by the pixels of the image as a spine baseline, or predicting the left and right regions (or the first region and the second region) based on the predicted spine baseline. It can be a task. In the description, it is described as predicting the spine baseline.

기흉 예측 모델은 기흉, 척추 및 튜브 각각에 대해 어노테이션된 영상을 기초로 학습될 수 있다. 이 경우, 상술한 학습기(200) 구성 없이, 기흉 예측 모델을 학습시킬 수 있고, 기흉, 척추 및 튜브 각각에 대한 태스크를 한번에 학습시킬 수도 있다.The pneumothorax prediction model may be trained based on images annotated for each of the pneumothorax, spine, and tube. In this case, without the above-described configuration of the learner 200, a pneumothorax prediction model can be trained, and tasks for each of the pneumothorax, the spine, and the tube can be learned at once.

기흉 예측 모델(20)은 입력 영상에서 예측된 기흉 정보, 튜브 정보, 그리고 예측된 척추 기준선을 출력할 수 있다. 기흉 정보와 튜브 정보는 픽셀별로 계산된 예측값을 포함할 수 있다. 기흉 예측값과 튜브 예측값이 입력 영상에 시각적으로 표시될 수 있다. 예를 들면, 예측값이 표시된 예측 영상에는 예측값에 따른 히트맵(heat map)이 표시될 수 있다. 응급 분류기(300)는 학습된 기흉 예측 모델(20)에서 출력된 기흉 정보, 튜브 정보, 그리고 척추 기준선을 기초로, 기흉 환자를 분류한다. 응급 분류기(300)는 예를 들면, 응급 시술이 요구되는 응급 기흉과 응급 시술이 요구되지 않는 일반 기흉으로 분류할 수 있다. 응급 기흉에 대한 응급 시술은 튜브 시술을 포함할 수 있다. 응급 분류기(300)는 기흉으로 예측되지 않은 경우도 분류할 수 있다. 예를 들면, 응급 분류기(300)는 기흉이 없는 정상 또는 다른 병변을 분류할 수도 있다.The pneumothorax prediction model 20 may output pneumothorax information, tube information, and a predicted spine reference line predicted from an input image. The pneumothorax information and tube information may include a predicted value calculated for each pixel. The predicted pneumothorax value and the predicted tube value may be visually displayed on the input image. For example, a heat map according to the predicted value may be displayed on the predicted image in which the predicted value is displayed. The emergency classifier 300 classifies a pneumothorax patient based on the pneumothorax information, tube information, and spine baseline output from the learned pneumothorax prediction model 20. The emergency classifier 300 may be classified into, for example, an emergency pneumothorax requiring an emergency procedure and a general pneumothorax that does not require an emergency procedure. Emergency procedures for emergency pneumothorax may include tube procedures. The emergency classifier 300 may classify cases that are not predicted as pneumothorax. For example, the emergency classifier 300 may classify normal or other lesions without pneumothorax.

기흉 환자 분류 시, 튜브를 통한 시술 후의 기흉 환자는 응급으로 분류되지 않으므로, 응급 분류기(300)는 척추 기준선을 기준으로 분리된 영역 중에서, 동일 영역에 기흉과 튜브가 존재한다고 예측되면 응급으로 분류하지 않고, 기흉이 존재한다고 예측된 영역에 튜브가 없으면 응급으로 분류할 수 있다. 응급 분류기(300)는 기흉이 존재한다고 예측된 영역을 먼저 찾고, 기흉 예측 영역에 튜브가 없으면 입력 영상을 응급으로 분류할 수 있다. 응급 분류기(300)는 기흉이 존재한다고 예측된 영역에 튜브가 없으면 입력 영상을 응급으로 분류하되, 튜브 시술이 요구되는 환자 영역 정보(예를 들면, 환자의 좌측 폐 영역)를 응급 기흉에 대한 정보와 함께 출력할 수 있다.When classifying a pneumothorax patient, a pneumothorax patient after a tube procedure is not classified as an emergency, so the emergency classifier 300 does not classify it as an emergency if it is predicted that pneumothorax and a tube exist in the same area among the areas separated based on the spinal baseline. If there is no tube in the area predicted to have a pneumothorax, it can be classified as an emergency. The emergency classifier 300 may first find a region predicted that a pneumothorax exists, and classify the input image as an emergency if there is no tube in the pneumothorax prediction region. The emergency classifier 300 classifies the input image as emergency if there is no tube in the area predicted that a pneumothorax exists, but uses the patient area information (for example, the patient's left lung area) requiring tube treatment to be information on the emergency pneumothorax. Can be printed with

도 5를 참고하면, 응급 분류기(300)는 입력 영상(40)에 대해 기흉 예측 모델(20)에서 출력된 척추 기준선 예측값을 기초로, 좌우 영역을 판별할 수 있다. 척추 기준선 예측값은 상술한 척추 기준선에 대한 예측값을 의미할 수 있다. 그리고 응급 분류기(300)는 기흉 예측 영상(42)에서, 기흉 예측 히트맵이 포함된 영역을 판별할 수 있다. 예를 들면, 응급 분류기(300)는 기흉 예측 영상(42)의 좌우 영역(또는 제1 영역과 제2 영역) 중 예측 히트맵이 포함된 영역을 판별할 수 있고, 기흉 예측값을 기초로 기흉이 존재하는 영역을 판단할 수 있다. 구체적으로 응급 분류기(300)는 척추 기준선을 기초로 구분된, 좌측 영역과 우측 영역에서, 기흉 예측값을 기초로 기흉이 존재하는 영역을 판단할 수 있다. 마찬가지로, 응급 분류기(300)는 척추 기준선 예측값을 기초로, 튜브 예측 히트맵이 위치하는 영역을 판별할 수 있다. 예를 들면, 응급 분류기(300)는 척추 기준선을 기초로, 튜브 예측 히트맵이 위치하는 영역이 좌우 영역(또는 제1 영역과 제2 영역) 중 어느 영역인지를 판별할 수 있고, 튜브 예측값을 기초로 튜브가 존재하는 영역을 판단할 수 있다. 응급 분류기(300)는 척추 기준선으로 좌우 분리된 영역 중에서 동일한 영역에 기흉과 튜브가 존재하면, 일반 기흉으로 분류할 수 있다.Referring to FIG. 5, the emergency classifier 300 may determine left and right regions based on a spine baseline predicted value output from the pneumothorax prediction model 20 for the input image 40. The predicted value for the spine baseline may mean a predicted value for the above-described spine baseline. In addition, the emergency classifier 300 may determine a region including the pneumothorax prediction heat map from the pneumothorax prediction image 42. For example, the emergency classifier 300 may determine a region including the predicted heat map among left and right regions (or the first region and the second region) of the pneumothorax prediction image 42, and the pneumothorax is detected based on the predicted pneumothorax value. The existing area can be determined. In more detail, the emergency classifier 300 may determine a region in which a pneumothorax exists in the left region and the right region divided based on the spine baseline, based on the predicted pneumothorax value. Likewise, the emergency classifier 300 may determine an area in which the tube prediction heat map is located based on the spine baseline prediction value. For example, the emergency classifier 300 may determine which of the left and right regions (or the first region and the second region) the region where the tube prediction heat map is located based on the spine reference line, and calculate the tube prediction value. It is possible to determine the area in which the tube exists on the basis. The emergency classifier 300 may classify a pneumothorax as a general pneumothorax if a pneumothorax and a tube exist in the same region among regions separated from the left and right by the spine reference line.

예를 들어, 응급 분류기(300)는 환자 기준으로 우측 영역에서 기흉을 예측(R_ptx=1, L_ptx=0)하고, 환자 기준으로 우측 영역에서 튜브를 예측(R_tube=1, L_ptx=0)하면, 환자 기준 우측 영역과 좌측 영역 모두를 응급이 아닌 일반으로 분류(R_emergency=0, L_emergency=0)할 수 있다.For example, if the emergency classifier 300 predicts a pneumothorax in the right area on a patient basis (R_ptx=1, L_ptx=0), and predicts a tube in the right area on a patient basis (R_tube=1, L_ptx=0), Both the right area and the left area based on the patient can be classified as general, not emergency (R_emergency=0, L_emergency=0).

만약, 응급 분류기(300)는 환자 기준으로 우측 영역에서 기흉을 예측(R_ptx=1, L_ptx=0)하고, 환자 기준으로 좌측 영역에서 튜브를 예측(R_tube=0, L_ptx=1)하거나 튜브가 예측되지 않으면(R_tube=0, L_ptx=0), 환자 기준 우측 영역을 응급으로 분류(R_emergency=1, L_emergency=0)할 수 있다.If the emergency classifier 300 predicts a pneumothorax in the right area on a patient basis (R_ptx=1, L_ptx=0), and predicts a tube in the left area on a patient basis (R_tube=0, L_ptx=1) or a tube is predicted If not (R_tube=0, L_ptx=0), the right area based on the patient may be classified as an emergency (R_emergency=1, L_emergency=0).

응급 분류기(300)가 기흉 예측값, 튜브 예측값, 그리고 예측된 척추 기준선을 기초로, 동일 영역에 기흉과 튜브가 존재하는지 판단하는 방법은 다양할 수 있다. The emergency classifier 300 may determine whether a pneumothorax and a tube exist in the same region based on the predicted pneumothorax value, the predicted tube value, and the predicted spine baseline.

한 실시예에 따르면, 응급 분류기(300)는 입력 영상에 대한 기흉 예측값과 튜브 예측값이 표시된 예측 히트맵 각각에서, 기흉 예측값의 최댓값과 튜브 예측값의 최댓값을 추출한다. 응급 분류기(300)는 예측된 척추 기준선을 기준으로 나뉜 두 영역(제1 영역, 제2 영역) 중에서 기흉 예측값의 최댓값과 튜브 예측값의 최댓값의 위치가 포함된 영역을 확인하고, 최댓값의 위치를 기초로 동일 영역에 기흉과 튜브가 존재하는지 판단할 수 있다. 기흉 예측값의 최댓값과 튜브 예측값의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다. According to an embodiment, the emergency classifier 300 extracts a maximum value of a predicted pneumothorax value and a maximum value of a predicted tube value from each of the predicted heat maps in which the predicted pneumothorax value and the predicted tube value for the input image are displayed. The emergency classifier 300 checks the area including the location of the maximum value of the predicted pneumothorax value and the maximum value of the tube predicted value among the two areas (the first area and the second area) divided based on the predicted spine baseline, and based on the location of the maximum value. It can be determined whether pneumothorax and tube are present in the same area. If the maximum value of the pneumothorax predicted value and the maximum value of the tube predicted value exceed the POSITIVE determination threshold, it can be determined as POSITIVE.

다른 실시예에 따르면, 응급 분류기(300)는 기흉 및 튜브 각각에 대한 예측 히트맵이 포함된 예측 영상에서, 기흉 예측값이 임계값 이상인 지점들을 연결하는 영역(contour)과 튜브 예측값이 임계값 이상인 지점들을 연결하는 영역을 그린 후, 각 영역의 최댓값의 위치가 포함된 영역을 확인하고, 최댓값의 위치를 기초로 동일 영역에 기흉과 튜브가 존재하는지 판단할 수 있다. 각 영역의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다. According to another embodiment, the emergency classifier 300 includes a contour connecting points having a pneumothorax predicted value equal to or greater than a threshold value and a point in which the predicted tube value is greater than or equal to a threshold value in a predicted image including a predicted heat map for each of the pneumothorax and the tube. After drawing an area connecting them, an area including the location of the maximum value of each area can be checked, and based on the location of the maximum value, it is possible to determine whether a pneumothorax and a tube exist in the same area. If the maximum value of each area exceeds the POSITIVE determination threshold, it can be determined as POSITIVE.

또 다른 실시예에 따르면, 응급 분류기(300)는 기흉 및 튜브 각각에 대한 예측 히트맵이 포함된 예측 영상에서, 기흉 예측값이 임계값 이상인 지점들을 연결하는 영역과 튜브 예측값이 임계값 이상인 지점들을 연결하는 영역을 그린 후, 각 영역의 중앙값의 위치가 포함된 영역을 확인하고, 중앙값의 위치를 기초로 동일 영역에 기흉과 튜브가 존재하는지 판단할 수 있다. 각 영역의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다.According to another embodiment, the emergency classifier 300 connects the areas where the pneumothorax predicted value is greater than or equal to the threshold value and the area where the tube predicted value is greater than the threshold value in the predicted image including the predicted heat map for each of the pneumothorax and the tube. After drawing the area, the area including the location of the median value of each area can be checked, and based on the location of the median value, it is possible to determine whether a pneumothorax and a tube exist in the same area. If the maximum value of each area exceeds the POSITIVE determination threshold, it can be determined as POSITIVE.

또 다른 실시예에 따르면, 응급 분류기(300)는 기흉 및 튜브 각각에 대한 예측 히트맵이 포함된 예측 영상에서, 기흉 예측값이 임계값 이상인 지점들을 연결하는 영역과 튜브 예측값이 임계값 이상인 지점들을 연결하는 영역을 그린 후, 각 영역에 포함된 픽셀 수가 더 많이 분포한 영역을 확인하고, 픽셀수가 더 많이 분포한 영역의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다. According to another embodiment, the emergency classifier 300 connects the areas where the pneumothorax predicted value is greater than or equal to the threshold value and the area where the tube predicted value is greater than the threshold value in the predicted image including the predicted heat map for each of the pneumothorax and the tube. After drawing the desired area, an area in which the number of pixels included in each area is distributed is checked, and when the maximum value of the area in which the number of pixels is distributed exceeds the POSITIVE determination threshold, it can be determined as POSITIVE.

도 6은 한 실시예에 따른 기흉 검출 모델의 학습 데이터 생성 방법의 흐름도이다.6 is a flowchart of a method of generating training data for a pneumothorax detection model according to an embodiment.

도 6을 참고하면, 학습 데이터 생성기(100)는 기흉 예측 모델의 학습에 사용되는 영상들을 입력받는다(S110).Referring to FIG. 6, the training data generator 100 receives images used for training a pneumothorax prediction model (S110).

학습 데이터 생성기(100)는 척추 영역에 대한 정보가 어노테이션된 각 영상에서 척추 영역을 분리하거나, 척추 영역을 검출하도록 학습된 기계 학습 모델을 통해 각 영상에서 척추 영역을 분리한다(S120).The training data generator 100 separates the spine region from each image to which information about the spine region is annotated, or separates the spine region from each image through a machine learning model learned to detect the spine region (S120).

학습 데이터 생성기(100)는 각 영상의 척추 영역으로부터 환자의 좌우 영역 판별의 기준이 되는 척추 기준선을 생성한다(S130). 척추 영역으로 분리된 픽셀들을 다중 회귀 알고리즘으로 후처리하여 기준선을 생성할 수 있다.The training data generator 100 generates a spine reference line, which is a criterion for determining the left and right regions of the patient, from the spine regions of each image (S130). A baseline may be generated by post-processing the pixels separated into the spine region with a multiple regression algorithm.

학습 데이터 생성기(100)는 척추 기준선을 기초로 생성한 좌우 판별 레이블을 해당 영상에 태깅한다(S140). 좌우 판별 레이블은 좌측 영역(또는 제1영역)과 우측 영역(제2영역)을 구분하는 레이블로서, 의사 레이블(pseudo label)일 수 있다.The training data generator 100 tags the left and right discrimination labels generated based on the spine reference line on the corresponding image (S140). The left and right discrimination label is a label that separates the left area (or the first area) and the right area (the second area), and may be a pseudo label.

학습 데이터 생성기(100)는 좌우 판별 레이블이 태깅된 영상들을 학습 데이터로 저장한다(S150).The training data generator 100 stores images tagged with left and right discrimination labels as training data (S150).

좌우 판별 레이블이 태깅된 영상들은 기흉 예측 모델(20)의 학습에 사용된다. 학습기(200)는 좌우 판별 레이블이 태깅된 영상들을 입력받고, 입력 영상에서 기흉을 예측하는 태스크, 입력 영상에서 튜브를 예측하는 태스크, 그리고 입력 영상에서 환자의 좌우 영역을 판별하는 척추 기준선을 예측하는 태스크로 기흉 예측 모델(20)을 학습시킨다. 기흉 예측 모델(20)의 종류, 구조, 그리고 학습 방법은 다양하게 설계될 수 있다.Images tagged with left and right discrimination labels are used for learning of the pneumothorax prediction model 20. The learner 200 receives images tagged with left and right discrimination labels, predicts a pneumothorax from the input image, predicts a tube from the input image, and predicts a spine baseline that determines the left and right regions of the patient from the input image. The pneumothorax prediction model 20 is trained as a task. The types, structures, and learning methods of the pneumothorax prediction model 20 may be designed in various ways.

도 7은 한 실시예에 따른 기흉 검출 모델을 이용한 기흉 검출 방법의 흐름도이다.7 is a flowchart of a pneumothorax detection method using a pneumothorax detection model according to an embodiment.

도 7을 참고하면, 응급 분류기(300)는 학습된 기흉 예측 모델(20)로 의뢰 영상을 입력한다(S210).Referring to FIG. 7, the emergency classifier 300 inputs a request image to the learned pneumothorax prediction model 20 (S210).

응급 분류기(300)는 입력 영상에 대해 기흉 예측 모델(20)로부터 예측된 기흉 정보(기흉 예측값), 튜브 정보(튜브 예측값), 그리고 예측된 척추 기준선을 획득한다(S220). 기흉 정보와 튜브 정보 각각은 입력 영상에 기흉 예측값과 튜브 예측값이 표시된 예측 히트맵으로 출력될 수 있다. 예측 히트맵이 포함된 영상을 예측 영상이라고 부를 수 있다.The emergency classifier 300 acquires pneumothorax information (pneumothorax predicted value), tube information (tube predicted value), and predicted spine baseline from the pneumothorax prediction model 20 for the input image (S220). Each of the pneumothorax information and the tube information may be output as a predicted heat map in which the predicted pneumothorax value and the predicted tube value are displayed in the input image. An image including the predicted heat map may be referred to as a predicted image.

응급 분류기(300)는 척추 기준선을 기준으로 영역이 나누어진 영상에서, 기흉 정보(기흉 예측값)의 대표 위치와 튜브 정보(튜브 예측값)의 대표 위치가 동일 영역에 존재하는 지 판단한다(S230). 응급 분류기(300)는 기흉 예측값과 튜브 예측값이 최댓값인 픽셀 위치를 대표 위치로 결정할 수 있다. 응급 분류기(300)는 기흉과 튜브의 예측값을 기초로 영역들을 결정하고, 영역 내 최댓값 또는 중앙값의 픽셀 위치를 기흉 예측값 또는 튜브 예측값의 대표 위치로 결정할 수 있다.The emergency classifier 300 determines whether the representative position of the pneumothorax information (pneumothorax predicted value) and the representative position of the tube information (tube predicted value) exist in the same region in the image in which the region is divided based on the spine reference line (S230). The emergency classifier 300 may determine a pixel location in which the predicted pneumothorax value and the predicted tube value are the maximum values as the representative location. The emergency classifier 300 may determine regions based on the predicted values of the pneumothorax and the tube, and determine a maximum or median pixel position within the region as a representative position of the predicted pneumothorax value or the predicted tube value.

응급 분류기(300)는 기흉 예측값의 대표 위치와 튜브 예측값의 대표 위치가 동일 영역에 존재하는 경우, 일반 기흉으로 분류한다(S240). 즉, 응급 분류기(300)는 기흉이 발견된 영역에 시술된 튜브가 존재하므로, 일반 기흉으로 분류한다.When the representative position of the predicted pneumothorax value and the representative position of the predicted tube value exist in the same area, the emergency classifier 300 classifies it as a general pneumothorax (S240). That is, the emergency classifier 300 classifies the treated tube as a general pneumothorax because the treated tube exists in the area where the pneumothorax is found.

응급 분류기(300)는 기흉 예측값의 대표 위치가 존재하는 영역에 튜브 예측값의 대표 위치가 존재하지 않는 경우, 응급 기흉으로 분류한다(S250). 즉, 응급 분류기(300)는 기흉이 발견된 영역에 튜브가 발견되지 않으므로, 해당 영역(예를 들면, 환자의 좌측 폐 영역)에 응급 시술, 예를 들면 튜브 시술이 요구되는 응급 기흉으로 분류한다.The emergency classifier 300 classifies as an emergency pneumothorax when the representative location of the tube prediction value does not exist in the region where the representative location of the predicted pneumothorax value exists (S250). That is, since the emergency classifier 300 does not find a tube in the area where the pneumothorax is found, it classifies the area (eg, the left lung area of the patient) as an emergency pneumothorax requiring an emergency procedure, for example, a tube procedure. .

응급 분류기(300)는 입력 영상에 대한 응급 기흉 여부를 포함하는 결과를 출력한다(S260). 응급 분류기(300)는 응급 기흉인 경우, 응급 기흉을 나타내는 알람을 출력한다. 이때, 응급 분류기(300)는 입력 영상에 대한 응급 기흉 여부와 함께, 기흉과 관련된 정보를 출력할 수 있다. 예를 들면, 응급 분류기(300)는 입력 영상에 포함된 응급 기흉과 관련된 정보로, 기흉 예측 결과, 튜브 예측 결과, 응급 튜브 시술 부위(예를 들면, 환자의 좌측 폐 영역) 등의 각종 결과를 출력할 수 있다.The emergency classifier 300 outputs a result including whether the input image has an emergency pneumothorax (S260). In the case of an emergency pneumothorax, the emergency classifier 300 outputs an alarm indicating an emergency pneumothorax. In this case, the emergency classifier 300 may output information related to pneumothorax as well as whether the input image has an emergency pneumothorax. For example, the emergency classifier 300 is information related to emergency pneumothorax included in the input image, and provides various results such as a pneumothorax prediction result, a tube prediction result, and an emergency tube treatment site (for example, a patient's left lung area). Can be printed.

이와 같이 기흉 검출 시스템(1)은 기흉 예측 모델을 통해 영상으로부터 기흉을 예측할 뿐만 아니라, 시술된 튜브의 유무, 그리고 좌우 영역 판별의 기준이 되는 환자의 척추 기준선을 예측할 수 있고, 이를 통해 응급 시술이 요구되는 응급 기흉인지를 빠르고 정확하게 판단할 수 있다. 특히, 기흉 검출 시스템(1)은 영상에서 예측된 환자의 척추 기준선을 이용하여 환자마다의 좌우 영역을 오류 없이 판별할 수 있으므로, 환자의 촬영 자세, 신체 특성 등에 영향받지 않고 기흉 예측을 할 수 있다.In this way, the pneumothorax detection system 1 not only predicts the pneumothorax from the image through the pneumothorax prediction model, but also predicts the presence or absence of the treated tube, and the baseline of the patient's spine, which is the criterion for discriminating the left and right regions, through which emergency surgery is performed. It can quickly and accurately determine if it is a required emergency pneumothorax. In particular, since the pneumothorax detection system 1 can determine the left and right regions for each patient without error using the patient's spine baseline predicted from the image, the pneumothorax can be predicted without being affected by the patient's photographic posture and physical characteristics. .

도 8은 한 실시예에 따른 컴퓨팅 장치의 하드웨어 구성도이다.8 is a hardware configuration diagram of a computing device according to an embodiment.

도 8을 참고하면, 학습 데이터 생성기(100), 학습기(200), 응급 분류기(300)는 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치(500)에서, 본 발명의 동작을 실행하도록 기술된 명령들(instructions)이 포함된 프로그램을 실행한다. Referring to FIG. 8, the training data generator 100, the learner 200, and the emergency classifier 300 are instructions described to execute the operation of the present invention in the computing device 500 operated by at least one processor. Run the program containing (instructions).

컴퓨팅 장치(500)의 하드웨어는 적어도 하나의 프로세서(510), 메모리(530), 스토리지(550), 통신 인터페이스(570)을 포함할 수 있고, 버스를 통해 연결될 수 있다. 이외에도 입력 장치 및 출력 장치 등의 하드웨어가 포함될 수 있다. 컴퓨팅 장치(500)는 프로그램을 구동할 수 있는 운영 체제를 비롯한 각종 소프트웨어가 탑재될 수 있다.The hardware of the computing device 500 may include at least one processor 510, a memory 530, a storage 550, and a communication interface 570, and may be connected through a bus. In addition, hardware such as an input device and an output device may be included. The computing device 500 may be equipped with various software including an operating system capable of driving a program.

프로세서(510)는 컴퓨팅 장치(500)의 동작을 제어하는 장치로서, 프로그램에 포함된 명령들을 처리하는 다양한 형태의 프로세서일 수 있고, 예를 들면, CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 등 일 수 있다. 메모리(530)는 본 발명의 동작을 실행하도록 기술된 명령들이 프로세서(510)에 의해 처리되도록 해당 프로그램을 로드한다. 메모리(530)는 예를 들면, ROM(read only memory), RAM(random access memory) 등 일 수 있다. 스토리지(550)는 본 발명의 동작을 실행하는데 요구되는 각종 데이터, 프로그램 등을 저장한다. 통신 인터페이스(570)는 유/무선 통신 모듈일 수 있다.The processor 510 is a device that controls the operation of the computing device 500 and may be various types of processors that process instructions included in a program. For example, a CPU (Central Processing Unit) or a MPU (Micro Processor Unit) may be used. ), microcontroller unit (MCU), graphic processing unit (GPU), and the like. The memory 530 loads a corresponding program so that instructions described to perform the operation of the present invention are processed by the processor 510. The memory 530 may be, for example, read only memory (ROM), random access memory (RAM), or the like. The storage 550 stores various types of data, programs, etc. required to perform the operation of the present invention. The communication interface 570 may be a wired/wireless communication module.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only through an apparatus and a method, but may be implemented through a program that realizes a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (16)

적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치가 기흉을 검출하는 방법으로서,
학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계,
상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계,
상기 예측 영상을 상기 예측된 척추 기준선으로 제1 영역과 제2 영역으로 나누는 단계, 그리고
상기 제1 영역과 상기 제2 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계
를 포함하는 기흉 검출 방법.
A method for detecting a pneumothorax by a computing device operated by at least one processor,
From the learned pneumothorax prediction model, obtaining predicted pneumothorax information, predicted tube information, and predicted spine baseline for the input image,
In the prediction image displaying the predicted pneumothorax information and the predicted tube information, determining at least one representative pneumothorax location for the predicted pneumothorax information and at least one representative tube location for the predicted tube information,
Dividing the predicted image into a first region and a second region by the predicted spine reference line, and
Determining an area in which the at least one representative pneumothorax location and the at least one tube representative location exist among the first area and the second area
Pneumothorax detection method comprising a.
제1항에서,
상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계
를 더 포함하는, 기흉 검출 방법.
In claim 1,
Classifying the input image as an emergency pneumothorax when the tube representative location does not exist in the first region where the at least one representative pneumothorax location exists.
Further comprising a pneumothorax detection method.
제2항에서,
상기 응급 기흉을 나타내는 알람과 함께, 튜브 시술이 요구되는 상기 제1 영역의 정보를 출력하는 단계
를 더 포함하는, 기흉 검출 방법.
In paragraph 2,
Outputting information on the first area requiring tube treatment with an alarm indicating the emergency pneumothorax
Further comprising a pneumothorax detection method.
제1항에서,
상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하는 경우, 상기 입력 영상을 일반 기흉으로 분류하는 단계
를 더 포함하는, 기흉 검출 방법.
In claim 1,
Classifying the input image as a general pneumothorax when the tube representative location is present in the first region where the at least one representative pneumothorax location exists
Further comprising a pneumothorax detection method.
제1항에서,
상기 기흉 대표 위치와 튜브 대표 위치 각각은
상기 예측된 기흉 정보 또는 상기 예측된 튜브 정보가 예측값으로 표시된 예측 영상에서, 예측값이 최댓값인 위치, 예측값이 임계값 이상인 영역에서 최댓값의 위치, 또는 예측값이 임계값 이상인 영역에서의 중앙값의 위치 중 적어도 하나로 결정되는, 기흉 검출 방법.
In claim 1,
Each of the representative pneumothorax positions and the representative tube positions
In a prediction image in which the predicted pneumothorax information or the predicted tube information is displayed as a predicted value, at least one of a position where the predicted value is the maximum value, the position of the maximum value in the region where the predicted value is greater than or equal to the threshold value, or the position of the median value in the region where the predicted value is greater than or equal to the threshold value. Determined by one, pneumothorax detection method.
제1항에서,
상기 기흉 예측 모델을 적어도 하나의 태스크에 대해 학습시키는 단계를 더 포함하고,
상기 적어도 하나의 태스크는
척추 기준선으로 구분된 제1 영역과 제2 영역이 좌우 판별 레이블로 태깅된 학습 영상들을 기초로, 상기 학습 영상들에서 기흉을 예측하는 태스크, 상기 학습 영상들에서 튜브를 예측하는 태스크, 그리고 상기 학습 영상들에서 상기 척추 기준선을 예측하는 태스크를 포함하는, 기흉 검출 방법.
In claim 1,
Further comprising the step of learning the pneumothorax prediction model for at least one task,
The at least one task is
A task of predicting a pneumothorax from the training images, a task of predicting a tube from the training images, and the learning based on the learning images tagged with the left and right discrimination labels in the first region and the second region divided by the spine baseline. Comprising the task of predicting the spine baseline from images, pneumothorax detection method.
컴퓨팅 장치가 기흉을 검출하는 방법으로서,
좌우 판별 레이블이 태깅된 학습 영상들을 이용하여 기흉을 예측하도록 학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보와 예측된 척추 기준선을 획득하는 단계, 그리고
상기 예측된 기흉 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 기흉 존재 영역을 결정하는 단계
를 포함하며,
상기 좌우 판별 레이블은 각 학습 영상의 척추 기준선을 기준으로 구분된 영역 정보를 포함하는, 기흉 검출 방법.
A method for a computing device to detect a pneumothorax, comprising:
Obtaining the predicted pneumothorax information and the predicted spine baseline for the input image from the pneumothorax prediction model learned to predict the pneumothorax using the learning images tagged with the left and right discrimination labels, and
Determining a pneumothorax presence region among left and right regions of the patient using the predicted pneumothorax information and the predicted spine baseline
Including,
The left and right discrimination labels include area information divided based on a spine reference line of each training image.
제7항에서,
상기 기흉 예측 모델이 상기 학습 영상들에서 튜브를 더 예측하도록 학습된 경우, 상기 기흉 예측 모델로부터 상기 입력 영상에 대해 예측된 튜브 정보를 획득하는 단계,
상기 예측된 튜브 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 튜브 존재 영역을 결정하는 단계, 그리고
상기 환자의 좌우 영역 중에서 상기 기흉 존재 영역이 제1 영역이고, 상기 튜브 존재 영역이 제2 영역이거나 상기 튜브 존재 영역이 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계
를 더 포함하는, 기흉 검출 방법.
In clause 7,
When the pneumothorax prediction model is trained to further predict a tube from the training images, obtaining predicted tube information for the input image from the pneumothorax prediction model,
Determining a tube presence area among left and right areas of the patient using the predicted tube information and the predicted spine baseline, and
Classifying the input image as an emergency pneumothorax when the area where the pneumothorax exists is the first area, the area where the tube exists is the second area, or the area where the tube does not exist among the left and right areas of the patient
Further comprising a pneumothorax detection method.
적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치가 기흉을 검출하는 방법으로서,
학습 영상들을 입력받는 단계,
각 학습 영상에서 척추 영역을 분리하고, 상기 척추 영역을 대표하는 척추 기준선을 생성하는 단계,
상기 각 학습 영상에서 상기 척추 기준선을 기준으로, 좌우 판별 레이블을 태깅하는 단계,
상기 좌우 판별 레이블이 태깅된 상기 각 학습 영상을 학습 데이터로 생성하는 단계, 그리고
상기 학습 데이터를 이용하여 기흉 예측 모델을 학습시키는 단계를 포함하고,
상기 기흉 예측 모델을 학습시키는 단계는
상기 학습 데이터에 대응하는 적어도 하나의 학습 영상에 대하여, 기흉을 예측하는 태스크, 튜브를 예측하는 태스크, 그리고 상기 척추 기준선을 예측하는 태스크 각각에 대해 상기 기흉 예측 모델을 학습시키는 단계를 포함하는, 기흉 검출 방법.
A method for detecting a pneumothorax by a computing device operated by at least one processor,
Receiving the learning images,
Separating a spine region from each learning image and generating a spine reference line representing the spine region,
Tagging left and right discrimination labels based on the spine reference line in each of the training images,
Generating the training images tagged with the left and right discrimination labels as training data, and
Including the step of training a pneumothorax prediction model using the training data,
The step of training the pneumothorax prediction model
For at least one training image corresponding to the training data, comprising the step of learning the pneumothorax prediction model for each of a task for predicting a pneumothorax, a task for predicting a tube, and a task for predicting the spine baseline Detection method.
제9항에서,
상기 척추 기준선을 생성하는 단계는
척추 영역 정보가 어노테이션된 각 학습 영상에서 척추 영역을 분리하거나, 척추 영역 검출 태스크로 학습된 기계 학습 모델을 통해 각 학습 영상에서 척추 영역을 분리하는, 기흉 검출 방법.
In claim 9,
Generating the spine baseline comprises:
A pneumothorax detection method in which the spine region is separated from each learning image to which the spine region information is annotated, or the spine region is separated from each learning image through a machine learning model learned with a spine region detection task.
제9항에서,
상기 척추 기준선을 생성하는 단계는
상기 척추 영역으로 분리된 픽셀들을 다중 회귀 알고리즘으로 후처리하여 기준선을 생성하는, 기흉 검출 방법.
In claim 9,
Generating the spine baseline comprises:
A method of detecting a pneumothorax by post-processing the pixels separated into the spine region with a multiple regression algorithm to generate a baseline.
제9항에서,
의뢰 영상을 학습된 상기 기흉 예측 모델로 입력하는 단계,
상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계,
상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고
상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계
를 더 포함하는, 기흉 검출 방법.
In claim 9,
Inputting the request image into the learned pneumothorax prediction model,
Obtaining, from the pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image,
Dividing the predicted pneumothorax information and the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and
Comparing an area in which the predicted pneumothorax information and the predicted tube information exist among the two areas, and determining whether the request image is emergency
Further comprising a pneumothorax detection method.
제12항에서,
상기 의뢰 영상의 응급 여부를 판단하는 단계는
상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하고,
상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하는 경우, 상기 의뢰 영상을 일반 기흉으로 분류하는, 기흉 검출 방법.
In claim 12,
The step of determining whether the request image is emergency
If the predicted tube information does not exist in the region where the predicted pneumothorax information exists, the request image is classified as an emergency pneumothorax,
When the predicted tube information is present in the region where the predicted pneumothorax information exists, the request image is classified as a general pneumothorax.
컴퓨팅 장치로서,
메모리, 그리고
상기 메모리에 로드된 프로그램의 명령들(instructions)을 실행하는 적어도 하나의 프로세서를 포함하고,
상기 프로그램은
의뢰 영상을 기흉 예측 모델로 입력하는 단계,
상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계,
상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고
상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계를 실행하도록 기술된 명령들을 포함하는, 컴퓨팅 장치.
As a computing device,
Memory, and
Including at least one processor to execute instructions (instructions) of the program loaded in the memory,
The above program is
Inputting the request image as a pneumothorax prediction model,
Obtaining, from the pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image,
Dividing the predicted pneumothorax information and the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and
Computing device comprising instructions to execute the step of determining whether or not the request image is emergency by comparing an area in which the predicted pneumothorax information and the predicted tube information exist among the two areas.
제14항에서,
상기 프로그램은
입력 영상에서 기흉을 예측하는 태스크, 상기 입력 영상에서 튜브를 예측하는 태스크, 그리고 상기 입력 영상에서 상기 척추 기준선을 예측하는 태스크에 대해 학습된 상기 기흉 예측 모델을 포함하는, 컴퓨팅 장치.
In clause 14,
The above program is
The computing device comprising the pneumothorax prediction model learned about a task of predicting a pneumothorax from an input image, a task of predicting a tube from the input image, and a task of predicting the spine baseline from the input image.
제14항에서,
상기 의뢰 영상의 응급 여부를 판단하는 단계는
상기 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계,
상기 예측된 척추 기준선을 이용하여 분리된 상기 예측 영상의 두 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계, 그리고
상기 적어도 하나의 기흉 대표 위치가 존재하는 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하는 단계
를 실행하도록 기술된 명령들을 포함하는, 컴퓨팅 장치.
In clause 14,
The step of determining whether the request image is emergency
In the predicted image, determining at least one representative pneumothorax location for the predicted pneumothorax information and at least one representative tube location for the predicted tube information,
Determining an area in which the at least one representative pneumothorax location and the at least one tube representative location exist among two areas of the prediction image separated by using the predicted spine baseline, and
Classifying the request image as an emergency pneumothorax if the tube representative location does not exist in the region where the at least one representative pneumothorax location exists.
A computing device comprising instructions described to execute a.
KR1020200017255A 2020-02-12 2020-02-12 Method and system for detecting pneumothorax KR20210028053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200017255A KR20210028053A (en) 2020-02-12 2020-02-12 Method and system for detecting pneumothorax

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200017255A KR20210028053A (en) 2020-02-12 2020-02-12 Method and system for detecting pneumothorax

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190109151A Division KR102078876B1 (en) 2019-09-03 2019-09-03 Method and system for detecting pneumothorax

Publications (1)

Publication Number Publication Date
KR20210028053A true KR20210028053A (en) 2021-03-11

Family

ID=75143362

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200017255A KR20210028053A (en) 2020-02-12 2020-02-12 Method and system for detecting pneumothorax

Country Status (1)

Country Link
KR (1) KR20210028053A (en)

Similar Documents

Publication Publication Date Title
KR102078876B1 (en) Method and system for detecting pneumothorax
ES2967682T3 (en) Computer-aided diagnosis using deep neural networks
CN111986784B (en) Metadata prediction device and method for medical image
US11935237B2 (en) Method for discriminating suspicious lesion in medical image, method for interpreting medical image, and computing device implementing the methods
KR102531400B1 (en) Artificial intelligence-based colonoscopy diagnosis supporting system and method
CN111311536A (en) Medical image data
KR102530010B1 (en) Apparatus and method for determining disease severity based on medical image
CN115063425B (en) Reading knowledge graph-based structured inspection finding generation method and system
CN116848588A (en) Automatic labeling of health features in medical images
US20230377149A1 (en) Learning apparatus, learning method, trained model, and program
KR102245219B1 (en) Method for discriminating suspicious lesion in medical image, method for interpreting medical image, and computing device implementing the methods
CN111226287A (en) Method for analyzing a medical imaging dataset, system for analyzing a medical imaging dataset, computer program product and computer readable medium
CN110197722B (en) AI-CPU system platform
JP7035569B2 (en) Medical image processing equipment
Giv et al. Lung segmentation using active shape model to detect the disease from chest radiography
KR20210028053A (en) Method and system for detecting pneumothorax
US11996184B2 (en) Method and system for detecting pneumothorax
US20230035575A1 (en) Analysis device, analysis method, and recording medium
KR102360615B1 (en) Medical image diagnosis assistance apparatus and method using a plurality of medical image diagnosis algorithm for endoscope images
US20240029258A1 (en) Method and system for measuring size change of target lesion in x-ray image
KR102132564B1 (en) Apparatus and method for diagnosing lesion
US11928817B2 (en) Method for filtering normal medical image, method for interpreting medical image, and computing device implementing the methods
CN115187805B (en) Sign recognition method and device, electronic equipment and storage medium
US10832409B2 (en) Diagnosis support method, diagnosis support apparatus, and non-transitory computer-readable storage medium
Saparkhojayev et al. Abnormality Detection in Chest X-ray Images Using Uncertainty Prediction Algorithms

Legal Events

Date Code Title Description
A201 Request for examination