KR20210028053A - Method and system for detecting pneumothorax - Google Patents
Method and system for detecting pneumothorax Download PDFInfo
- Publication number
- KR20210028053A KR20210028053A KR1020200017255A KR20200017255A KR20210028053A KR 20210028053 A KR20210028053 A KR 20210028053A KR 1020200017255 A KR1020200017255 A KR 1020200017255A KR 20200017255 A KR20200017255 A KR 20200017255A KR 20210028053 A KR20210028053 A KR 20210028053A
- Authority
- KR
- South Korea
- Prior art keywords
- pneumothorax
- predicted
- tube
- spine
- information
- Prior art date
Links
- 201000003144 pneumothorax Diseases 0.000 title claims abstract description 303
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims description 73
- 238000001514 detection method Methods 0.000 claims description 30
- 238000010801 machine learning Methods 0.000 claims description 13
- 238000012805 post-processing Methods 0.000 claims description 4
- 210000004072 lung Anatomy 0.000 description 15
- 238000013473 artificial intelligence Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 206010008479 Chest Pain Diseases 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003281 pleural cavity Anatomy 0.000 description 3
- 208000000059 Dyspnea Diseases 0.000 description 2
- 206010013975 Dyspnoeas Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 208000013220 shortness of breath Diseases 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 208000019693 Lung disease Diseases 0.000 description 1
- 206010056342 Pulmonary mass Diseases 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000002297 emergency surgery Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
- A61B5/747—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network in case of emergency, i.e. alerting emergency services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/01—Emergency care
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Epidemiology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Data Mining & Analysis (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Critical Care (AREA)
- Emergency Management (AREA)
- Emergency Medicine (AREA)
- Nursing (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
Abstract
Description
본 발명은 인공지능 기반 의료 영상 판독 기술에 관한 것이다.The present invention relates to an artificial intelligence-based medical image reading technology.
기흉(pneumothorax)은 폐를 둘러싸고 있는 흉막강 내에 공기가 차게 되면 폐가 눌려 정상적인 호흡을 할 수 없는 질환으로서, 호흡 곤란과 가슴 통증의 증상이 나타난다. 기흉의 발생 원인은 아직까지 정확히 밝혀지지 않았고, 근본적인 예방법이 없으며, 폐질환이 없는 젊은 연령층에서도 다양한 원인으로 발병할 수 있다.Pneumothorax (pneumothorax) is a disease in which the lungs cannot be breathed normally when the air is filled in the pleural cavity surrounding the lungs, and symptoms of shortness of breath and chest pain appear. The cause of pneumothorax has not yet been accurately identified, there are no fundamental preventive measures, and even younger age groups without lung disease can develop a variety of causes.
의료진은 엑스레이(X-Ray) 영상을 통해 기흉을 진단할 수 있고, 기흉의 크기가 크거나 증상이 심한 경우에는 가슴에 가는 튜브(tube)를 삽입하여 공기를 배출시키는 시술을 할 수 있다. 응급 질환인 기흉은 빠른 시술을 통해 환자의 호흡 곤란과 가슴 통증을 완화하고 추가적인 피해를 줄일 수 있다.Medical staff can diagnose a pneumothorax through X-ray images, and if the pneumothorax is large in size or symptoms are severe, a procedure to discharge air by inserting a thin tube into the chest can be performed. Pneumothorax, an emergency disease, can relieve the patient's breathing difficulties and chest pain and reduce additional damage through rapid procedures.
최근 인공지능 기술이 의료 영상 판독 분야에 적용되어, 영상 판독의 정확도 및 속도를 높이고 있다. 특히, 엑스레이 영상 분석을 통해 폐 결절 등의 이상 소견이 있는 부위를 표시하고, 그 가능성을 지표로 제시하는 인공지능 판독 시스템이 개발되었다. 따라서 기흉도 인공지능 영상 판독을 통해 어느 정도 발견할 수 있다. Recently, artificial intelligence technology has been applied to the field of medical image reading, increasing the accuracy and speed of image reading. In particular, an artificial intelligence reading system has been developed that marks areas with abnormal findings such as lung nodules through X-ray image analysis and presents the possibility as an index. Therefore, pneumothorax can also be detected to some extent through artificial intelligence image reading.
다만, 기흉은 환자의 양쪽 폐 모두에서 발견되거나, 한 쪽 폐에서만 발견될 수 있다. 특히, 기흉이 존재하는 폐쪽으로 튜브 삽입을 응급으로 진행해야 하는 특성 상, 기흉 유무와 함께 기흉의 좌우 위치까지 예측해야 할 필요가 있다. 하지만, 영상 전체에서 이상 부위를 예측하는 지금까지의 영상 판독 시스템은 발견된 기흉이 환자의 왼쪽 폐쪽에 위치하는지 오른쪽 폐쪽에 위치하는지 정확히 예측하는 데 한계가 있다. 따라서, 기흉에 최적화된 인공지능 영상 판독 기술이 필요하다.However, pneumothorax can be found in both lungs of a patient or in only one lung. In particular, it is necessary to predict the presence or absence of a pneumothorax as well as the left and right positions of the pneumothorax due to the nature of urgently proceeding with the tube insertion into the lung where the pneumothorax exists. However, there is a limit to accurately predicting whether the detected pneumothorax is located on the left or right lung side of the patient. Therefore, there is a need for an artificial intelligence image reading technology optimized for pneumothorax.
(특허문헌 1) KR10-1879207 B (Patent Document 1) KR10-1879207 B
(특허문헌 2) US2018-0047158 A (Patent Document 2) US2018-0047158 A
(특허문헌 3) US2019-0156484 A (Patent Document 3) US2019-0156484 A
결하고자 하는 과제는 영상에서 기흉을 예측하고 환자의 좌우 영역 중에서 기흉이 위치하는 영역을 판별하는 기흉 예측 모델을 생성하고, 학습된 기흉 예측 모델을 이용한 기흉 검출 방법 및 시스템을 제공하는 것이다.The task to be concluded is to generate a pneumothorax prediction model that predicts a pneumothorax from an image and determines the area where the pneumothorax is located among the left and right regions of the patient, and provides a method and system for detecting pneumothorax using the learned pneumothorax prediction model.
해결하고자 하는 과제는 영상에서 기흉 유무 및 기흉이 위치하는 영역, 그리고 시술된 튜브(tube)의 유무 및 튜브가 위치하는 영역을 동시에 판별하는 기흉 예측 모델을 생성하고, 학습된 기흉 예측 모델을 이용한 응급 기흉 검출 방법 및 시스템을 제공하는 것이다.The task to be solved is to create a pneumothorax prediction model that simultaneously discriminates the presence or absence of pneumothorax in the image, the area where the pneumothorax is located, the presence or absence of the treated tube, and the area where the tube is located, and emergency using the learned pneumothorax prediction model. It is to provide a method and system for detecting pneumothorax.
해결하고자 하는 과제는 영상에서 환자의 좌우 영역 판별의 기준이 되는 척추(spine) 기준선을 생성하고, 척추 기준선을 기준으로 좌측 영역과 우측 영역이 레이블된 영상을 학습 데이터로 생성하는 방법 및 시스템을 제공하는 것이다.The task to be solved is to provide a method and system for generating a spine reference line, which is a criterion for discriminating the left and right regions of a patient from an image, and generating an image labeled with the left and right regions as learning data based on the spine reference line. It is to do.
한 실시예에 따라, 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치가 기흉을 검출하는 방법으로서, 학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계, 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계, 상기 예측 영상을 상기 예측된 척추 기준선으로 제1 영역과 제2 영역으로 나누는 단계, 그리고 상기 제1 영역과 상기 제2 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계를 포함한다.According to an embodiment, a method for detecting a pneumothorax by a computing device operated by at least one processor, comprising: from a learned pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for an input image. Obtaining, in a prediction image displaying the predicted pneumothorax information and the predicted tube information, at least one representative pneumothorax location for the predicted pneumothorax information, and at least one representative tube location for the predicted tube information Determining, dividing the predicted image into a first region and a second region by the predicted spine reference line, and among the first region and the second region, the at least one representative pneumothorax location and the at least one And determining an area in which the representative tube location exists.
상기 기흉 검출 방법은 상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계를 더 포함할 수 있다.The method for detecting pneumothorax may further include classifying the input image as an emergency pneumothorax when the tube representative location does not exist in the first region where the at least one representative pneumothorax location exists.
상기 기흉 검출 방법은 상기 응급 기흉을 나타내는 알람과 함께, 튜브 시술이 요구되는 상기 제1 영역의 정보를 출력하는 단계를 더 포함할 수 있다.The pneumothorax detection method may further include outputting information on the first area requiring tube treatment together with an alarm indicating the emergency pneumothorax.
상기 기흉 검출 방법은 상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하는 경우, 상기 입력 영상을 일반 기흉으로 분류하는 단계를 더 포함할 수 있다.The method for detecting pneumothorax may further include classifying the input image as a general pneumothorax when the tube representative location is present in the first region where the at least one representative pneumothorax location exists.
상기 기흉 대표 위치와 튜브 대표 위치 각각은 상기 예측된 기흉 정보 또는 상기 예측된 튜브 정보가 예측값으로 표시된 예측 영상에서, 예측값이 최댓값인 위치, 예측값이 임계값 이상인 영역에서 최댓값의 위치, 또는 예측값이 임계값 이상인 영역에서의 중앙값의 위치 중 적어도 하나로 결정될 수 있다.Each of the representative pneumothorax location and the representative tube location is a location in which the predicted pneumothorax information or the predicted tube information is displayed as a predicted value, the location where the predicted value is the maximum value, the location of the maximum value in the region where the predicted value is greater than or equal to the threshold value, or the predicted value is critical. It may be determined as at least one of the positions of the median value in the region greater than or equal to the value.
상기 기흉 검출 방법은 상기 기흉 예측 모델을 적어도 하나의 태스크에 대해 학습시키는 단계를 더 포함할 수 있다. 상기 적어도 하나의 태스크는 척추 기준선으로 구분된 제1 영역과 제2 영역이 좌우 판별 레이블로 태깅된 학습 영상들을 기초로, 상기 학습 영상들에서 기흉을 예측하는 태스크, 상기 학습 영상들에서 튜브를 예측하는 태스크, 그리고 상기 학습 영상들에서 상기 척추 기준선을 예측하는 태스크를 포함할 수 있다.The pneumothorax detection method may further include learning the pneumothorax prediction model for at least one task. The at least one task is a task of predicting a pneumothorax in the training images, and predicting a tube in the training images based on training images in which a first area and a second area divided by a spine reference line are tagged with left and right discrimination labels. And a task of predicting the spine baseline from the training images.
다른 실시예에 따라, 컴퓨팅 장치가 기흉을 검출하는 방법으로서, 좌우 판별 레이블이 태깅된 학습 영상들을 이용하여 기흉을 예측하도록 학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보와 예측된 척추 기준선을 획득하는 단계, 그리고 상기 예측된 기흉 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 기흉 존재 영역을 결정하는 단계를 포함한다. 상기 좌우 판별 레이블은 각 학습 영상의 척추 기준선을 기준으로 구분된 영역 정보를 포함한다.According to another embodiment, a method of detecting a pneumothorax by a computing device, from a pneumothorax prediction model learned to predict a pneumothorax using learning images tagged with left and right discrimination labels, and predicted pneumothorax information and predicted spine for an input image. Obtaining a baseline, and determining a pneumothorax presence region among left and right regions of the patient using the predicted pneumothorax information and the predicted spinal baseline. The left and right discrimination labels include area information divided based on a spine reference line of each training image.
상기 기흉 검출 방법은 상기 기흉 예측 모델이 상기 학습 영상들에서 튜브를 더 예측하도록 학습된 경우, 상기 기흉 예측 모델로부터 상기 입력 영상에 대해 예측된 튜브 정보를 획득하는 단계, 상기 예측된 튜브 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 튜브 존재 영역을 결정하는 단계, 그리고 상기 환자의 좌우 영역 중에서 상기 기흉 존재 영역이 제1 영역이고, 상기 튜브 존재 영역이 제2 영역이거나 상기 튜브 존재 영역이 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계를 더 포함할 수 있다.The pneumothorax detection method includes obtaining predicted tube information for the input image from the pneumothorax prediction model when the pneumothorax prediction model is trained to further predict a tube from the training images, the predicted tube information and the Determining a tube presence region among left and right regions of the patient using the predicted spine baseline, and the pneumothorax presence region is a first region among the left and right regions of the patient, and the tube presence region is a second region or the tube is present. If the region does not exist, the step of classifying the input image as an emergency pneumothorax may be further included.
또 다른 실시예에 따라, 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치가 기흉을 검출하는 방법으로서, 학습 영상들을 입력받는 단계, 각 학습 영상에서 척추 영역을 분리하고, 상기 척추 영역을 대표하는 척추 기준선을 생성하는 단계, 상기 각 학습 영상에서 상기 척추 기준선을 기준으로, 좌우 판별 레이블을 태깅하는 단계, 상기 좌우 판별 레이블이 태깅된 상기 각 학습 영상을 학습 데이터로 생성하는 단계, 그리고 상기 학습 데이터를 이용하여 기흉 예측 모델을 학습시키는 단계를 포함한다. 상기 기흉 예측 모델을 학습시키는 단계는 상기 학습 데이터에 대응하는 적어도 하나의 학습 영상에 대하여, 기흉을 예측하는 태스크, 튜브를 예측하는 태스크, 그리고 상기 척추 기준선을 예측하는 태스크 각각에 대해 상기 기흉 예측 모델을 학습시키는 단계를 포함한다.According to another embodiment, a method for detecting a pneumothorax by a computing device operated by at least one processor, receiving training images, separating a spine region from each learning image, and a spine reference line representing the spine region Generating, tagging the left and right discrimination labels on the basis of the spine reference line in each of the training images, generating each training image tagged with the left and right discrimination labels as training data, and using the training data And training a pneumothorax prediction model. The training of the pneumothorax prediction model includes the pneumothorax prediction model for each of at least one training image corresponding to the training data, a task for predicting a pneumothorax, a task for predicting a tube, and a task for predicting the spine baseline. It includes the step of learning.
상기 척추 기준선을 생성하는 단계는 척추 영역 정보가 어노테이션된 각 학습 영상에서 척추 영역을 분리하거나, 척추 영역 검출 태스크로 학습된 기계 학습 모델을 통해 각 학습 영상에서 척추 영역을 분리할 수 있다.In the generating of the spine reference line, the spine region may be separated from each learning image to which the spine region information is annotated, or the spine region may be separated from each learning image through a machine learning model learned by a spine region detection task.
상기 척추 기준선을 생성하는 단계는 상기 척추 영역으로 분리된 픽셀들을 다중 회귀 알고리즘으로 후처리하여 기준선을 생성할 수 있다.In the generating of the spine baseline, a baseline may be generated by post-processing the pixels separated into the spine region using a multiple regression algorithm.
상기 기흉 검출 방법은 의뢰 영상을 학습된 상기 기흉 예측 모델로 입력하는 단계, 상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계, 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고 상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계를 더 포함할 수 있다.The pneumothorax detection method includes inputting a request image into the learned pneumothorax prediction model, obtaining from the pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image, Separating the predicted pneumothorax information and the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and the predicted pneumothorax information and the predicted tube information exist among the two regions. It may further include the step of determining whether the request image is emergency by comparing the regions.
상기 의뢰 영상의 응급 여부를 판단하는 단계는 상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하고, 상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하는 경우, 상기 의뢰 영상을 일반 기흉으로 분류할 수 있다.The step of determining whether the request image is emergency or not is, when the predicted tube information does not exist in the region where the predicted pneumothorax information exists, classifies the request image as an emergency pneumothorax, and the predicted pneumothorax information exists. When the predicted tube information exists in the region, the request image may be classified as a general pneumothorax.
또 다른 실시예에 따른 컴퓨팅 장치로서, 메모리, 그리고 상기 메모리에 로드된 프로그램의 명령들(instructions)을 실행하는 적어도 하나의 프로세서를 포함한다. 상기 프로그램은 의뢰 영상을 기흉 예측 모델로 입력하는 단계, 상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계, 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고 상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계를 실행하도록 기술된 명령들을 포함한다.A computing device according to another exemplary embodiment includes a memory and at least one processor that executes instructions of a program loaded in the memory. In the program, inputting a request image as a pneumothorax prediction model, acquiring predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image from the pneumothorax prediction model, the predicted pneumothorax information And dividing the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and comparing the predicted pneumothorax information and the region in which the predicted tube information exists among the two regions, And instructions described to execute the step of determining whether the request image is emergency.
상기 프로그램은 입력 영상에서 기흉을 예측하는 태스크, 상기 입력 영상에서 튜브를 예측하는 태스크, 그리고 상기 입력 영상에서 상기 척추 기준선을 예측하는 태스크에 대해 학습된 상기 기흉 예측 모델을 포함할 수 있다.The program may include the pneumothorax prediction model learned about a task of predicting a pneumothorax from an input image, a task of predicting a tube from the input image, and a task of predicting the spine baseline from the input image.
상기 의뢰 영상의 응급 여부를 판단하는 단계는 상기 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계, 상기 예측된 척추 기준선을 이용하여 분리된 상기 예측 영상의 두 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계, 그리고 상기 적어도 하나의 기흉 대표 위치가 존재하는 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하는 단계를 실행하도록 기술된 명령들을 포함할 수 있다.Determining whether the request image is emergency, in the prediction image, determining at least one representative pneumothorax location for the predicted pneumothorax information and at least one representative tube location for the predicted tube information, the Determining an area in which the at least one representative pneumothorax location and the at least one tube representative location exist among the two areas of the predicted image separated using the predicted spine baseline, and the at least one representative pneumothorax location is In the case where the representative tube position does not exist in the present region, instructions described to execute the step of classifying the request image as an emergency pneumothorax may be included.
실시예에 따르면 기흉 예측 모델을 통해 영상으로부터 기흉을 예측할 뿐만 아니라, 시술된 튜브의 유무, 그리고 좌우 영역 판별의 기준이 되는 환자의 척추 기준선을 예측할 수 있고, 이를 통해 응급 시술이 요구되는 응급 기흉인지를 빠르고 정확하게 판단할 수 있다.According to the embodiment, not only the pneumothorax is predicted from the image through the pneumothorax prediction model, but also the presence or absence of the treated tube and the baseline of the patient's spine, which is the criterion for discrimination of the left and right regions, can be predicted, through which emergency pneumothorax is required. Can be quickly and accurately judged.
실시예에 따르면 영상에서 예측된 환자의 척추 기준선을 이용하여 환자마다의 좌우 영역을 오류 없이 판별할 수 있으므로, 환자의 촬영 자세, 신체 특성에 영향받지 않고 기흉 예측을 할 수 있다.According to the embodiment, since the left and right regions for each patient can be determined without error using the patient's spine baseline predicted from the image, pneumothorax can be predicted without being affected by the patient's photographing posture and body characteristics.
도 1은 좌우 비대칭 환자 영상의 예시 도면이다.
도 2와 도 3 각각은 한 실시예에 따른 기흉 검출 시스템의 구조도이다.
도 4는 한 실시예에 따라 좌우 판별 레이블이 태깅된 학습 영상을 생성하는 방법을 설명하는 도면이다.
도 5는 한 실시예에 따른 응급 기흉 분류 방법을 예시적으로 설명하는 도면이다.
도 6은 한 실시예에 따른 기흉 검출 모델의 학습 데이터 생성 방법의 흐름도이다.
도 7은 한 실시예에 따른 기흉 검출 모델을 이용한 기흉 검출 방법의 흐름도이다.
도 8은 한 실시예에 따른 컴퓨팅 장치의 하드웨어 구성도이다.1 is an exemplary diagram of a left and right asymmetric patient image.
2 and 3 are each a structural diagram of a pneumothorax detection system according to an embodiment.
4 is a diagram illustrating a method of generating a learning image tagged with left and right discrimination labels according to an exemplary embodiment.
5 is a diagram exemplarily illustrating an emergency pneumothorax classification method according to an embodiment.
6 is a flowchart of a method of generating training data for a pneumothorax detection model according to an embodiment.
7 is a flowchart of a pneumothorax detection method using a pneumothorax detection model according to an embodiment.
8 is a hardware configuration diagram of a computing device according to an embodiment.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.
명세서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, terms such as "... unit", "... group", and "module" described in the specification mean a unit that processes at least one function or operation, which can be implemented by hardware or software or a combination of hardware and software. have.
명세서에서, 태스크(task)란, 기계 학습을 통해 해결하고자 하는 과제 또는 기계 학습을 통해 수행하고자 하는 작업을 지칭한다. 예를 들어, 의료 영상(medical image)으로부터 이상(anomaly)에 대한 인식, 분류, 예측 등을 수행한다고 할 때, 이상 인식, 이상 분류, 이상 예측 각각이 개별 태스크에 대응될 수 있다. 본 발명의 기흉 검출 모델은 적어도 하나의 태스크를 학습하는 기계 학습 모델로서, 컴퓨팅 장치에서 실행되는 소프트웨어로 구현될 수 있다. 본 발명의 동작을 실행하도록 기술된 명령들(instructions)이 포함된 프로그램은 네트워크를 통해 다운로드되거나, 제품 형태로 판매될 수 있다.In the specification, a task refers to a task to be solved through machine learning or a task to be performed through machine learning. For example, when recognizing, classifying, and predicting anomaly from a medical image, each of anomaly recognition, anomaly classification, and anomaly prediction may correspond to individual tasks. The pneumothorax detection model of the present invention is a machine learning model for learning at least one task, and may be implemented as software executed on a computing device. A program including instructions described to perform the operation of the present invention may be downloaded through a network or sold as a product.
본 발명에 따라 최종적으로 의료진에게 제공되는 좌우 영역은 환자의 척추를 기준으로 나뉘는 환자의 좌측 영역, 우측 영역으로 제공되는 것이 바람직하다. 이때 컴퓨팅 장치는 영상의 좌측을 환자의 우측으로 매핑하고, 영상의 우측을 환자의 좌측으로 매핑한 후, 기흉 등이 환자 기준 좌측 영역에 존재하는지 우측 영역에 존재하는지 판단할 수 있다. 또는 컴퓨팅 장치는 중간 단계에서는 기흉 등이 영상 기준 좌측 영역에 존재하는지 우측 영역에 존재하는지 판단한 후, 출력 단계에서 환자에 맞춰 좌우를 변경하도록 구현될 수 있다. 또는 컴퓨팅 장치는 중간 단계에서는 좌우 방향에 대한 구분 없이 기흉 등이 영상의 제1 영역에 존재하는지 제2 영역에 존재하는지 판단한 후, 출력 단계에서 환자에 맞춰 좌측 영역, 우측 영역으로 변경하도록 구현될 수 있다. It is preferable that the left and right regions finally provided to the medical staff according to the present invention are provided as a left region and a right region of the patient divided based on the patient's spine. In this case, the computing device may map the left side of the image to the right side of the patient and map the right side of the image to the left side of the patient, and then determine whether a pneumothorax exists in the left area of the patient reference or the right area. Alternatively, the computing device may be implemented to determine whether a pneumothorax exists in the left or right area of the image reference in the intermediate step, and then change the left and right according to the patient in the output step. Alternatively, the computing device may be implemented to determine whether a pneumothorax exists in the first area or the second area of the image without distinction between the left and right directions in the intermediate stage, and then change the left area and the right area according to the patient in the output stage. have.
도 1은 좌우 비대칭 영상의 예시 도면이다.1 is an exemplary diagram of a left and right asymmetric image.
도 1을 참고하면, 기흉은 폐를 둘러싸고 있는 흉막강 내에 공기가 차게 되면 폐가 눌려 정상적인 호흡을 할 수 없는 질환이므로, 의료진은 신속하게 기흉이 생긴 흉막강 내에 튜브(tube)를 삽입하여 공기를 배출시키는 시술을 해야 한다. 기흉 환자는 응급 시술이 필요하므로, 영상 판독 시스템이 영상으로부터 정확하고 빠르게 기흉 예측을 한다면 응급 환자의 피해를 줄일 수 있다. Referring to FIG. 1, pneumothorax is a disease in which the lungs cannot be breathed normally when the air is filled in the pleural cavity surrounding the lungs, so the medical staff quickly inserts a tube into the pleural cavity where the pneumothorax is formed to expel air. You have to do the procedure that tells you. Since pneumothorax patients need emergency procedures, damage to emergency patients can be reduced if the image reading system accurately and quickly predicts pneumothorax from images.
하지만, 지금까지의 영상 판독 시스템은 대부분 영상 전체에서 이상 징후를 예측하기 때문에, 기흉을 예측하고, 예측된 기흉 위치를 영상에 표시할 수 있더라도, 예측된 기흉 위치가 환자의 좌측 영역(왼쪽 폐가 위치하는 영역)에 위치하는지 우측 영역(오른쪽 폐가 위치하는 영역)에 위치하는지를 판별하기 어렵다. 항상 촬영 시 요구되는 기준 자세로 영상이 촬영된다면, 영상 판독 시스템이 영상의 가운데를 기준으로 좌우 영역을 분할함으로써 기흉이 위치하는 영역을 판별하도록 설계할 수 있다. 하지만, 이러한 단순 분할 방법은 호흡 곤란과 가슴 통증으로 인해 환자가 자세를 바르게 가누지 못하는 특수 상황이나 신체적 특성으로 기준 자세로 촬영되기 어려운 환자의 경우, 오류가 발생하는 문제가 있다. 예를 들어, 도 1과 같이 환자의 자세가 좌우 대칭으로 촬영되지 않은 영상이 입력되면, 기흉이 위치하는 좌우 영역이 잘못 판별될 수 있는 큰 문제가 있다. However, since most of the image reading systems up to now predict abnormal signs in the entire image, the predicted pneumothorax location is the patient's left area (left lung location), even though it is possible to predict the pneumothorax and display the predicted pneumothorax location on the image. It is difficult to determine whether it is located in the right area (the area where the right lung is located). If an image is always captured in a reference posture required for photographing, the image reading system can be designed to determine the region where the pneumothorax is located by dividing the left and right regions based on the center of the image. However, such a simple segmentation method has a problem in that an error occurs in the case of a patient who is difficult to photograph in a reference posture due to physical characteristics or a special situation in which the patient cannot properly control the posture due to shortness of breath and chest pain. For example, as shown in FIG. 1, when an image in which the patient's posture is not photographed symmetrically is input, there is a big problem that the left and right regions in which the pneumothorax is located may be erroneously identified.
한편, 의료진이라면, 엑스레이(X-Ray) 영상에서 기흉을 발견하고, 이와 동시에 기흉이 환자의 왼쪽 폐쪽에 위치하는지 오른쪽 폐쪽에 위치하는지 판별할 수 있다. 따라서, 의료진은 도 1과 같이 환자의 자세가 좌우 대칭으로 촬영되지 않은 영상을 보더라도 튜브를 삽입할 영역이 어디인지 바로 알 수 있는 것이다.On the other hand, a medical staff can detect a pneumothorax on an X-ray image and at the same time determine whether the pneumothorax is located in the patient's left lung or the right lung. Therefore, the medical staff can immediately know where the tube is to be inserted even when viewing an image in which the patient's posture is not symmetrically photographed as shown in FIG. 1.
다음에서, 의료진의 기흉 판단 매커니즘과 유사하게, 환자의 촬영 자세나 신체적 특성까지 고려하여 영상으로부터 기흉을 예측하고, 환자의 좌우 영역 중에서 기흉이 위치하는 영역을 판별하는 기흉 검출 방법에 대해 설명한다. 나아가 시술된 튜브까지 동시에 예측함으로써 응급 기흉을 검출하는 방법에 대해 설명한다.In the following, similar to the pneumothorax determination mechanism of a medical staff, a pneumothorax detection method of predicting a pneumothorax from an image by considering a patient's photographic posture and physical characteristics, and determining an area where the pneumothorax is located among the left and right regions of the patient will be described. Furthermore, a method of detecting emergency pneumothorax by simultaneously predicting the treated tube will be described.
도 2와 도 3 각각은 한 실시예에 따른 기흉 검출 시스템의 구조도이고, 도 4는 한 실시예에 따라 좌우 판별 레이블이 태깅된 학습 영상을 생성하는 방법을 설명하는 도면이며, 도 5는 한 실시예에 따른 응급 기흉 분류 방법을 예시적으로 설명하는 도면이다.Each of FIGS. 2 and 3 is a structural diagram of a pneumothorax detection system according to an embodiment, and FIG. 4 is a diagram illustrating a method of generating a learning image tagged with left and right discrimination labels according to an embodiment, and FIG. 5 is an embodiment. It is a diagram exemplarily illustrating an emergency pneumothorax classification method according to an example.
도 2를 참고하면, 기흉 검출 시스템(1)은 영상(10)으로부터 학습 데이터를 생성하는 학습 데이터 생성기(100), 기흉 예측 모델(20)을 학습시키는 학습기(200) 그리고 학습된 기흉 예측 모델(20)을 이용하여 기흉 응급 환자를 분류하는 응급 분류기(300)를 포함한다. 설명을 위해, 학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300)로 명명하여 부르나, 이들은 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치이다. 여기서, 학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300)는 하나의 컴퓨팅 장치에 구현되거나, 별도의 컴퓨팅 장치에 분산 구현될 수 있다. 별도의 컴퓨팅 장치에 분산 구현된 경우, 학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300)는 통신 인터페이스를 통해 서로 통신할 수 있다. 컴퓨팅 장치는 본 발명을 수행하도록 작성된 소프트웨어 프로그램을 실행할 수 있는 장치이면 충분하고, 예를 들면, 서버, 랩탑 컴퓨터 등일 수 있다. Referring to FIG. 2, the
학습 데이터 생성기(100), 학습기(200) 그리고 응급 분류기(300) 각각은 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 그리고 기흉 예측 모델(20)도 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 기흉 검출 시스템(1)은 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 이에 따라, 상술한 구성들에 대응하는 하나 또는 복수의 인공지능 모델은 하나 또는 복수의 컴퓨팅 장치에 의해 구현될 수 있다.Each of the
도 3을 참고하면, 학습기(200)에서 학습이 완료된 기흉 예측 모델과 응급 분류기(300)에 구현된 소프트웨어는 하나의 컴퓨팅 장치(400)에서 동작할 수 있다. 컴퓨팅 장치(400)는 복수일 수 있고, 예를 들면, 다양한 사이트들(예를 들면, 병원들, 하나 또는 복수의 병원 내 서로 다른 장소들)에서 개별적으로 동작할 수 있다. 또는 학습기(200)에서 학습이 완료된 기흉 예측 모델은 서버측에 위치하고, 응급 분류기(300)를 탑재한 컴퓨팅 장치(400)들이 네트워크를 통해 서버에 접속할 수 있다.Referring to FIG. 3, a pneumothorax prediction model that has been trained in the
이외에도, 본 발명에서 설명하는 기능들은 서비스 형태에 따라 다양하게 분리되거나 통합될 수 있다. 예를 들면, 다양한 사이트들(예를 들면, 병원들, 하나 또는 복수의 병원 내 서로 다른 장소들)의 클라이언트 장치가 네트워크를 통해 서버로 영상 분석을 의뢰할 수 있다. 영상촬영 장치에서 촬영된 영상이 네트워크를 통해 서버로 의뢰될 수 있다. 그러면, 서버가 의뢰 영상에 대한 기흉 예측 결과, 응급 여부, 응급 시술 부위(예를 들면, 환자의 좌측 영역) 등에 대한 리포트를 클라이언트 장치로 전송할 수 있다. In addition, functions described in the present invention may be variously separated or integrated according to service types. For example, client devices of various sites (eg, hospitals, different places in one or a plurality of hospitals) may request an image analysis to a server through a network. An image captured by the imaging device may be requested to a server through a network. Then, the server may transmit a report on the pneumothorax prediction result for the requested image, whether it is an emergency, and an emergency treatment area (eg, the left area of the patient) to the client device.
다시 도 2를 참고하면, 학습 데이터 생성기(100)는 기흉 예측 모델의 학습에 사용되는 영상들(10)을 입력받는다. 학습 데이터 생성기(100)는 각 영상에서 척추 영역을 예측하고, 환자의 좌우 영역 판별의 기준이 되는 척추(spine) 기준선을 생성한다. 학습 데이터 생성기(100)는 척추 기준선을 기준으로 생성한 좌우 판별 레이블을 기흉 예측 모델의 학습 데이터로 생성한다. 영상은 흉부 엑스레이 영상일 수 있으나, 의료 기술에 따라 다른 종류의 장치로 촬영된 영상일 수 있다. 기흉 예측 모델의 종류 및 구조, 그리고 학습 방법에 맞춰 학습 데이터가 생성될 수 있다. 예를 들면, 영상들 중 적어도 일부는 기흉 정보 및/또는 튜브 정보가 레이블로 태깅된 데이터일 수 있고, 또는 레이블이 없는 데이터일 수 있다.Referring back to FIG. 2, the
척추 영역에 대한 정보가 어노테이션(annotation)된 영상들이 많지 않기 때문에, 기흉 예측 모델이 영상으로부터 좌우 판별하는 태스크를 학습하기 어렵다. 따라서, 학습 데이터 생성기(100)가 척추 영역이 어노테이션된 학습 영상들을 이용하여, 척추 영역이 어노테이션되어 있지 않은 영상의 척추 영역을 예측하는 태스크에 대해 학습할 수 있다. 학습된 학습 데이터 생성기(100)는 기흉 예측 모델의 학습에 사용되는 영상들(10)에서, 척추 영역을 예측하고, 각 영상에서 환자의 좌우 영역 판별의 기준이 되는 척추(spine) 기준선을 생성할 수 있다.Since there are not many images annotated with information on the spine region, it is difficult for the pneumothorax prediction model to learn the task of determining left and right from the images. Accordingly, the learning
한편, 기흉 예측 모델의 학습에 사용되는 영상들(10) 중 일부 영상들에 척추 영역에 대한 정보가 어노테이션되어 있다면, 학습 데이터 생성기(100)는 해당 영상에서 어노테이션된 척추 영역을 분리하고, 척추 기준선을 생성할 수 있다.On the other hand, if information on the spine region is annotated in some of the
도 4를 참고하면, 학습 데이터 생성기(100)는 영상(10)을 입력받는다. 영상(10)에 척추 영역이 어노테이션되어 있지 않은 경우, 척추 영역을 예측하도록 학습된 학습 데이터 생성기(100)는 영상(10)에서 척추 영역을 예측하고, 예측한 척추 영역(12)을 분리(segmentation)한다. 학습 데이터 생성기(100)는 척추 영역(12)으로 분리된 픽셀들을 후처리(post processing)하여 척추 영역을 대표하는 척추 기준선(14)을 생성한다. 학습 데이터 생성기(100)는 척추 영역(12)으로 분리된 픽셀들을 다중 회귀(polynomial regression) 등의 알고리즘으로 후처리하여 척추 기준선(14)을 생성할 수 있다.Referring to FIG. 4, the
학습 데이터 생성기(100)는 척추 기준선(14)을 기준으로 좌우 판별 레이블을 생성할 수 있다. 학습 데이터 생성기(100)는 척추 기준선(14)을 기준으로 좌우 영역을 구분하고, 구분된 좌우 영역에 대한 레이블을 생성할 수 있다. 좌우 판별 레이블은 좌우가 정확할 필요가 없으므로, 의사 레이블(pseudo label)을 좌측 영역과 우측 영역에 태깅(어노테이션)할 수 있다. 좌우 영역은 예를 들면, 심장의 위치를 기준으로 구분할 수 있다. 즉, 척추 기준선(14)으로 구분되는 두 영역 중에서, 심장이 존재하는 영역에 환자의 좌측 영역이라는 레이블을 태깅하고, 심장이 존재하지 않는 영역을 환자의 우측 영역이라는 레이블을 태깅할 수 있다. 또는, 좌우 판별 레이블은 좌우를 구분하지 않고 척추 기준선으로 나뉘는 제1영역이라는 레이블, 제2영역이라는 레이블을 태깅할 수 있다. The
이렇게 척추 기준선(14)을 기준으로 좌측 영역과 우측 영역을 나눈 이미지 레이블인 좌우 판별 레이블은, 영상(10)과 함께 기흉 예측 모델로 입력된다. 좌우 판별 레이블은 기흉 예측 모델이 기흉 예측과 동시에 좌우 영역 예측하도록 학습시키는 데이터로 사용된다. In this way, the left and right discrimination label, which is an image label obtained by dividing the left area and the right area based on the
학습 데이터 생성기(100)는 좌우 판별 레이블이 태깅된 영상을 학습 데이터로 생성한다. 학습 데이터는 지정된 저장소에 저장된다. 상술한 좌우 판별 레이블은 영상을 촬영한 환자의 실제 좌우 위치와 일치할 수도 있고, 일치하지 않을 수도 있다. 후술하는 것과 같이, 본 개시는 기흉의 응급 여부를 판단하기 위해, 기흉이 발생한 영역과 기흉에 대한 응급 조치, 예를 들면 튜브 삽입이 된 영역이 동일한 영역인지를 판단하기 위한 구성이므로, 실제 환자의 좌우와, 응급 기흉 여부를 판단하기 위해 태깅된 좌우 판별 레이블은 동일하지 않을 수 있다.The
영상(10)에서 척추 영역(12)을 분리하는 방법은 다양할 수 있다. A method of separating the
한 실시예에 따르면, 영상(10)에 척추 영역에 대한 정보가 어노테이션된 경우, 학습 데이터 생성기(100)는 영상(10)에서 어노테이션된 척추 영역(12)을 분리할 수 있다. According to an embodiment, when information about the spine region is annotated in the
다른 실시예에 따르면, 학습 데이터 생성기(100)는 기계 학습 기반 세그먼테이션을 통해 영상(10)에서 척추 영역(12)을 예측 및 분리할 수 있다. According to another embodiment, the
학습 데이터 생성기(100)는, 영상에서 척추 영역을 검출하는 태스크에 대해 기계 학습 모델을 학습시킬 수 있다. 기계 학습 모델은 예를 들면, 컨볼류션 뉴럴 네트워크(Convolutional Neural Network) 모델일 수 있다. 학습 데이터 생성기(100)는 의료 영상 및 해당 의료 영상에 포함된 척추 영역에 대한 정보가 어노테이션된 데이터로 기계 학습 모델을 학습시키고, 학습된 기계 학습 모델을 통해 입력 영상(10)의 척추 영역(12)을 예측 및 분리할 수 있다. 그리고 학습 데이터 생성기(100)는 다중 회귀 알고리즘으로 척추 영역의 픽셀들로부터 척추 영역을 대표하는 중앙 선을 찾고, 중앙 선을 척추 기준선(14)으로 결정할 수 있다. The
또 다른 실시예에 따르면, 학습 데이터 생성기(100)는, 어노테이션된 척추 영역을 가장 잘 따르는 중앙 선을 찾는 태스크에 대해 기계 학습 모델을 학습시킬 수 있다. 학습 데이터 생성기(100)는 학습된 기계 학습 모델을 통해 입력 영상(10)의 척추 영역(12)을 가장 잘 따르는 중앙 선을 찾고, 중앙 선을 척추 기준선(14)으로 결정할 수 있다.According to another embodiment, the
척추 기준선(14)은 분리된 척추 영역의 픽셀들에 다중 회귀 알고리즘을 적용하여 생성될 수 있다. 이때, 학습 데이터 생성기(100)는 척추 영역을 복수의 영역들로 분리한 후, 영역별로 추출된 중앙 선을 연결하여 척추 기준선을 생성할 수 있다. 또는 학습 데이터 생성기(100)는 척추 영역을 복수의 영역들로 분리한 후, 영역별로 영역의 중심 점을 찾고, 영역별 중심 점을 연결하여 척추 기준선을 생성할 수 있다.The
다시 도 2를 참고하면, 학습기(200)는 좌우 판별 레이블이 태깅된(어노테이션된) 영상들을 학습 데이터로 입력받고, 학습 데이터를 이용하여 기흉 예측 모델(20)을 학습시킨다. 기흉 예측 모델(20)은 입력 영상에서 기흉을 예측하는 태스크, 그리고 입력 영상에서 환자의 좌우 영역을 판별하는 척추 기준선을 예측하는 태스크를 학습한다. 이때, 기흉 예측 모델(20)은 입력 영상에서 튜브를 예측하는 태스크를 동시에 학습할 수 있다. 입력 영상에서 기흉을 예측하는 태스크는 영상의 픽셀들이 기흉으로 예측되는 값을 출력하는 태스크일 수 있다. 입력 영상에서 튜브를 예측하는 태스크는 영상의 픽셀들이 튜브로 예측되는 값을 출력하는 태스크일 수 있다. 입력 영상에서 환자의 좌우 영역을 판별하는 태스크는 영상의 픽셀들이 척추 기준선으로 예측되는 값을 출력하는 태스크이거나, 예측되는 척추 기준선을 기준으로 좌우 영역(또는 제1영역과 제2영역)을 예측하는 태스크일 수 있다. 설명에서는 척추 기준선을 예측하는 것으로 설명한다.Referring back to FIG. 2, the
기흉 예측 모델은 기흉, 척추 및 튜브 각각에 대해 어노테이션된 영상을 기초로 학습될 수 있다. 이 경우, 상술한 학습기(200) 구성 없이, 기흉 예측 모델을 학습시킬 수 있고, 기흉, 척추 및 튜브 각각에 대한 태스크를 한번에 학습시킬 수도 있다.The pneumothorax prediction model may be trained based on images annotated for each of the pneumothorax, spine, and tube. In this case, without the above-described configuration of the
기흉 예측 모델(20)은 입력 영상에서 예측된 기흉 정보, 튜브 정보, 그리고 예측된 척추 기준선을 출력할 수 있다. 기흉 정보와 튜브 정보는 픽셀별로 계산된 예측값을 포함할 수 있다. 기흉 예측값과 튜브 예측값이 입력 영상에 시각적으로 표시될 수 있다. 예를 들면, 예측값이 표시된 예측 영상에는 예측값에 따른 히트맵(heat map)이 표시될 수 있다. 응급 분류기(300)는 학습된 기흉 예측 모델(20)에서 출력된 기흉 정보, 튜브 정보, 그리고 척추 기준선을 기초로, 기흉 환자를 분류한다. 응급 분류기(300)는 예를 들면, 응급 시술이 요구되는 응급 기흉과 응급 시술이 요구되지 않는 일반 기흉으로 분류할 수 있다. 응급 기흉에 대한 응급 시술은 튜브 시술을 포함할 수 있다. 응급 분류기(300)는 기흉으로 예측되지 않은 경우도 분류할 수 있다. 예를 들면, 응급 분류기(300)는 기흉이 없는 정상 또는 다른 병변을 분류할 수도 있다.The
기흉 환자 분류 시, 튜브를 통한 시술 후의 기흉 환자는 응급으로 분류되지 않으므로, 응급 분류기(300)는 척추 기준선을 기준으로 분리된 영역 중에서, 동일 영역에 기흉과 튜브가 존재한다고 예측되면 응급으로 분류하지 않고, 기흉이 존재한다고 예측된 영역에 튜브가 없으면 응급으로 분류할 수 있다. 응급 분류기(300)는 기흉이 존재한다고 예측된 영역을 먼저 찾고, 기흉 예측 영역에 튜브가 없으면 입력 영상을 응급으로 분류할 수 있다. 응급 분류기(300)는 기흉이 존재한다고 예측된 영역에 튜브가 없으면 입력 영상을 응급으로 분류하되, 튜브 시술이 요구되는 환자 영역 정보(예를 들면, 환자의 좌측 폐 영역)를 응급 기흉에 대한 정보와 함께 출력할 수 있다.When classifying a pneumothorax patient, a pneumothorax patient after a tube procedure is not classified as an emergency, so the
도 5를 참고하면, 응급 분류기(300)는 입력 영상(40)에 대해 기흉 예측 모델(20)에서 출력된 척추 기준선 예측값을 기초로, 좌우 영역을 판별할 수 있다. 척추 기준선 예측값은 상술한 척추 기준선에 대한 예측값을 의미할 수 있다. 그리고 응급 분류기(300)는 기흉 예측 영상(42)에서, 기흉 예측 히트맵이 포함된 영역을 판별할 수 있다. 예를 들면, 응급 분류기(300)는 기흉 예측 영상(42)의 좌우 영역(또는 제1 영역과 제2 영역) 중 예측 히트맵이 포함된 영역을 판별할 수 있고, 기흉 예측값을 기초로 기흉이 존재하는 영역을 판단할 수 있다. 구체적으로 응급 분류기(300)는 척추 기준선을 기초로 구분된, 좌측 영역과 우측 영역에서, 기흉 예측값을 기초로 기흉이 존재하는 영역을 판단할 수 있다. 마찬가지로, 응급 분류기(300)는 척추 기준선 예측값을 기초로, 튜브 예측 히트맵이 위치하는 영역을 판별할 수 있다. 예를 들면, 응급 분류기(300)는 척추 기준선을 기초로, 튜브 예측 히트맵이 위치하는 영역이 좌우 영역(또는 제1 영역과 제2 영역) 중 어느 영역인지를 판별할 수 있고, 튜브 예측값을 기초로 튜브가 존재하는 영역을 판단할 수 있다. 응급 분류기(300)는 척추 기준선으로 좌우 분리된 영역 중에서 동일한 영역에 기흉과 튜브가 존재하면, 일반 기흉으로 분류할 수 있다.Referring to FIG. 5, the
예를 들어, 응급 분류기(300)는 환자 기준으로 우측 영역에서 기흉을 예측(R_ptx=1, L_ptx=0)하고, 환자 기준으로 우측 영역에서 튜브를 예측(R_tube=1, L_ptx=0)하면, 환자 기준 우측 영역과 좌측 영역 모두를 응급이 아닌 일반으로 분류(R_emergency=0, L_emergency=0)할 수 있다.For example, if the
만약, 응급 분류기(300)는 환자 기준으로 우측 영역에서 기흉을 예측(R_ptx=1, L_ptx=0)하고, 환자 기준으로 좌측 영역에서 튜브를 예측(R_tube=0, L_ptx=1)하거나 튜브가 예측되지 않으면(R_tube=0, L_ptx=0), 환자 기준 우측 영역을 응급으로 분류(R_emergency=1, L_emergency=0)할 수 있다.If the
응급 분류기(300)가 기흉 예측값, 튜브 예측값, 그리고 예측된 척추 기준선을 기초로, 동일 영역에 기흉과 튜브가 존재하는지 판단하는 방법은 다양할 수 있다. The
한 실시예에 따르면, 응급 분류기(300)는 입력 영상에 대한 기흉 예측값과 튜브 예측값이 표시된 예측 히트맵 각각에서, 기흉 예측값의 최댓값과 튜브 예측값의 최댓값을 추출한다. 응급 분류기(300)는 예측된 척추 기준선을 기준으로 나뉜 두 영역(제1 영역, 제2 영역) 중에서 기흉 예측값의 최댓값과 튜브 예측값의 최댓값의 위치가 포함된 영역을 확인하고, 최댓값의 위치를 기초로 동일 영역에 기흉과 튜브가 존재하는지 판단할 수 있다. 기흉 예측값의 최댓값과 튜브 예측값의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다. According to an embodiment, the
다른 실시예에 따르면, 응급 분류기(300)는 기흉 및 튜브 각각에 대한 예측 히트맵이 포함된 예측 영상에서, 기흉 예측값이 임계값 이상인 지점들을 연결하는 영역(contour)과 튜브 예측값이 임계값 이상인 지점들을 연결하는 영역을 그린 후, 각 영역의 최댓값의 위치가 포함된 영역을 확인하고, 최댓값의 위치를 기초로 동일 영역에 기흉과 튜브가 존재하는지 판단할 수 있다. 각 영역의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다. According to another embodiment, the
또 다른 실시예에 따르면, 응급 분류기(300)는 기흉 및 튜브 각각에 대한 예측 히트맵이 포함된 예측 영상에서, 기흉 예측값이 임계값 이상인 지점들을 연결하는 영역과 튜브 예측값이 임계값 이상인 지점들을 연결하는 영역을 그린 후, 각 영역의 중앙값의 위치가 포함된 영역을 확인하고, 중앙값의 위치를 기초로 동일 영역에 기흉과 튜브가 존재하는지 판단할 수 있다. 각 영역의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다.According to another embodiment, the
또 다른 실시예에 따르면, 응급 분류기(300)는 기흉 및 튜브 각각에 대한 예측 히트맵이 포함된 예측 영상에서, 기흉 예측값이 임계값 이상인 지점들을 연결하는 영역과 튜브 예측값이 임계값 이상인 지점들을 연결하는 영역을 그린 후, 각 영역에 포함된 픽셀 수가 더 많이 분포한 영역을 확인하고, 픽셀수가 더 많이 분포한 영역의 최댓값이 POSITIVE 판별 임계값을 넘으면 POSITIVE로 판별할 수 있다. According to another embodiment, the
도 6은 한 실시예에 따른 기흉 검출 모델의 학습 데이터 생성 방법의 흐름도이다.6 is a flowchart of a method of generating training data for a pneumothorax detection model according to an embodiment.
도 6을 참고하면, 학습 데이터 생성기(100)는 기흉 예측 모델의 학습에 사용되는 영상들을 입력받는다(S110).Referring to FIG. 6, the
학습 데이터 생성기(100)는 척추 영역에 대한 정보가 어노테이션된 각 영상에서 척추 영역을 분리하거나, 척추 영역을 검출하도록 학습된 기계 학습 모델을 통해 각 영상에서 척추 영역을 분리한다(S120).The
학습 데이터 생성기(100)는 각 영상의 척추 영역으로부터 환자의 좌우 영역 판별의 기준이 되는 척추 기준선을 생성한다(S130). 척추 영역으로 분리된 픽셀들을 다중 회귀 알고리즘으로 후처리하여 기준선을 생성할 수 있다.The
학습 데이터 생성기(100)는 척추 기준선을 기초로 생성한 좌우 판별 레이블을 해당 영상에 태깅한다(S140). 좌우 판별 레이블은 좌측 영역(또는 제1영역)과 우측 영역(제2영역)을 구분하는 레이블로서, 의사 레이블(pseudo label)일 수 있다.The
학습 데이터 생성기(100)는 좌우 판별 레이블이 태깅된 영상들을 학습 데이터로 저장한다(S150).The
좌우 판별 레이블이 태깅된 영상들은 기흉 예측 모델(20)의 학습에 사용된다. 학습기(200)는 좌우 판별 레이블이 태깅된 영상들을 입력받고, 입력 영상에서 기흉을 예측하는 태스크, 입력 영상에서 튜브를 예측하는 태스크, 그리고 입력 영상에서 환자의 좌우 영역을 판별하는 척추 기준선을 예측하는 태스크로 기흉 예측 모델(20)을 학습시킨다. 기흉 예측 모델(20)의 종류, 구조, 그리고 학습 방법은 다양하게 설계될 수 있다.Images tagged with left and right discrimination labels are used for learning of the
도 7은 한 실시예에 따른 기흉 검출 모델을 이용한 기흉 검출 방법의 흐름도이다.7 is a flowchart of a pneumothorax detection method using a pneumothorax detection model according to an embodiment.
도 7을 참고하면, 응급 분류기(300)는 학습된 기흉 예측 모델(20)로 의뢰 영상을 입력한다(S210).Referring to FIG. 7, the
응급 분류기(300)는 입력 영상에 대해 기흉 예측 모델(20)로부터 예측된 기흉 정보(기흉 예측값), 튜브 정보(튜브 예측값), 그리고 예측된 척추 기준선을 획득한다(S220). 기흉 정보와 튜브 정보 각각은 입력 영상에 기흉 예측값과 튜브 예측값이 표시된 예측 히트맵으로 출력될 수 있다. 예측 히트맵이 포함된 영상을 예측 영상이라고 부를 수 있다.The
응급 분류기(300)는 척추 기준선을 기준으로 영역이 나누어진 영상에서, 기흉 정보(기흉 예측값)의 대표 위치와 튜브 정보(튜브 예측값)의 대표 위치가 동일 영역에 존재하는 지 판단한다(S230). 응급 분류기(300)는 기흉 예측값과 튜브 예측값이 최댓값인 픽셀 위치를 대표 위치로 결정할 수 있다. 응급 분류기(300)는 기흉과 튜브의 예측값을 기초로 영역들을 결정하고, 영역 내 최댓값 또는 중앙값의 픽셀 위치를 기흉 예측값 또는 튜브 예측값의 대표 위치로 결정할 수 있다.The
응급 분류기(300)는 기흉 예측값의 대표 위치와 튜브 예측값의 대표 위치가 동일 영역에 존재하는 경우, 일반 기흉으로 분류한다(S240). 즉, 응급 분류기(300)는 기흉이 발견된 영역에 시술된 튜브가 존재하므로, 일반 기흉으로 분류한다.When the representative position of the predicted pneumothorax value and the representative position of the predicted tube value exist in the same area, the
응급 분류기(300)는 기흉 예측값의 대표 위치가 존재하는 영역에 튜브 예측값의 대표 위치가 존재하지 않는 경우, 응급 기흉으로 분류한다(S250). 즉, 응급 분류기(300)는 기흉이 발견된 영역에 튜브가 발견되지 않으므로, 해당 영역(예를 들면, 환자의 좌측 폐 영역)에 응급 시술, 예를 들면 튜브 시술이 요구되는 응급 기흉으로 분류한다.The
응급 분류기(300)는 입력 영상에 대한 응급 기흉 여부를 포함하는 결과를 출력한다(S260). 응급 분류기(300)는 응급 기흉인 경우, 응급 기흉을 나타내는 알람을 출력한다. 이때, 응급 분류기(300)는 입력 영상에 대한 응급 기흉 여부와 함께, 기흉과 관련된 정보를 출력할 수 있다. 예를 들면, 응급 분류기(300)는 입력 영상에 포함된 응급 기흉과 관련된 정보로, 기흉 예측 결과, 튜브 예측 결과, 응급 튜브 시술 부위(예를 들면, 환자의 좌측 폐 영역) 등의 각종 결과를 출력할 수 있다.The
이와 같이 기흉 검출 시스템(1)은 기흉 예측 모델을 통해 영상으로부터 기흉을 예측할 뿐만 아니라, 시술된 튜브의 유무, 그리고 좌우 영역 판별의 기준이 되는 환자의 척추 기준선을 예측할 수 있고, 이를 통해 응급 시술이 요구되는 응급 기흉인지를 빠르고 정확하게 판단할 수 있다. 특히, 기흉 검출 시스템(1)은 영상에서 예측된 환자의 척추 기준선을 이용하여 환자마다의 좌우 영역을 오류 없이 판별할 수 있으므로, 환자의 촬영 자세, 신체 특성 등에 영향받지 않고 기흉 예측을 할 수 있다.In this way, the
도 8은 한 실시예에 따른 컴퓨팅 장치의 하드웨어 구성도이다.8 is a hardware configuration diagram of a computing device according to an embodiment.
도 8을 참고하면, 학습 데이터 생성기(100), 학습기(200), 응급 분류기(300)는 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치(500)에서, 본 발명의 동작을 실행하도록 기술된 명령들(instructions)이 포함된 프로그램을 실행한다. Referring to FIG. 8, the
컴퓨팅 장치(500)의 하드웨어는 적어도 하나의 프로세서(510), 메모리(530), 스토리지(550), 통신 인터페이스(570)을 포함할 수 있고, 버스를 통해 연결될 수 있다. 이외에도 입력 장치 및 출력 장치 등의 하드웨어가 포함될 수 있다. 컴퓨팅 장치(500)는 프로그램을 구동할 수 있는 운영 체제를 비롯한 각종 소프트웨어가 탑재될 수 있다.The hardware of the
프로세서(510)는 컴퓨팅 장치(500)의 동작을 제어하는 장치로서, 프로그램에 포함된 명령들을 처리하는 다양한 형태의 프로세서일 수 있고, 예를 들면, CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 등 일 수 있다. 메모리(530)는 본 발명의 동작을 실행하도록 기술된 명령들이 프로세서(510)에 의해 처리되도록 해당 프로그램을 로드한다. 메모리(530)는 예를 들면, ROM(read only memory), RAM(random access memory) 등 일 수 있다. 스토리지(550)는 본 발명의 동작을 실행하는데 요구되는 각종 데이터, 프로그램 등을 저장한다. 통신 인터페이스(570)는 유/무선 통신 모듈일 수 있다.The
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only through an apparatus and a method, but may be implemented through a program that realizes a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
Claims (16)
학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계,
상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계,
상기 예측 영상을 상기 예측된 척추 기준선으로 제1 영역과 제2 영역으로 나누는 단계, 그리고
상기 제1 영역과 상기 제2 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계
를 포함하는 기흉 검출 방법.A method for detecting a pneumothorax by a computing device operated by at least one processor,
From the learned pneumothorax prediction model, obtaining predicted pneumothorax information, predicted tube information, and predicted spine baseline for the input image,
In the prediction image displaying the predicted pneumothorax information and the predicted tube information, determining at least one representative pneumothorax location for the predicted pneumothorax information and at least one representative tube location for the predicted tube information,
Dividing the predicted image into a first region and a second region by the predicted spine reference line, and
Determining an area in which the at least one representative pneumothorax location and the at least one tube representative location exist among the first area and the second area
Pneumothorax detection method comprising a.
상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계
를 더 포함하는, 기흉 검출 방법.In claim 1,
Classifying the input image as an emergency pneumothorax when the tube representative location does not exist in the first region where the at least one representative pneumothorax location exists.
Further comprising a pneumothorax detection method.
상기 응급 기흉을 나타내는 알람과 함께, 튜브 시술이 요구되는 상기 제1 영역의 정보를 출력하는 단계
를 더 포함하는, 기흉 검출 방법.In paragraph 2,
Outputting information on the first area requiring tube treatment with an alarm indicating the emergency pneumothorax
Further comprising a pneumothorax detection method.
상기 적어도 하나의 기흉 대표 위치가 존재하는 제1 영역에, 상기 튜브 대표 위치가 존재하는 경우, 상기 입력 영상을 일반 기흉으로 분류하는 단계
를 더 포함하는, 기흉 검출 방법.In claim 1,
Classifying the input image as a general pneumothorax when the tube representative location is present in the first region where the at least one representative pneumothorax location exists
Further comprising a pneumothorax detection method.
상기 기흉 대표 위치와 튜브 대표 위치 각각은
상기 예측된 기흉 정보 또는 상기 예측된 튜브 정보가 예측값으로 표시된 예측 영상에서, 예측값이 최댓값인 위치, 예측값이 임계값 이상인 영역에서 최댓값의 위치, 또는 예측값이 임계값 이상인 영역에서의 중앙값의 위치 중 적어도 하나로 결정되는, 기흉 검출 방법.In claim 1,
Each of the representative pneumothorax positions and the representative tube positions
In a prediction image in which the predicted pneumothorax information or the predicted tube information is displayed as a predicted value, at least one of a position where the predicted value is the maximum value, the position of the maximum value in the region where the predicted value is greater than or equal to the threshold value, or the position of the median value in the region where the predicted value is greater than or equal to the threshold value. Determined by one, pneumothorax detection method.
상기 기흉 예측 모델을 적어도 하나의 태스크에 대해 학습시키는 단계를 더 포함하고,
상기 적어도 하나의 태스크는
척추 기준선으로 구분된 제1 영역과 제2 영역이 좌우 판별 레이블로 태깅된 학습 영상들을 기초로, 상기 학습 영상들에서 기흉을 예측하는 태스크, 상기 학습 영상들에서 튜브를 예측하는 태스크, 그리고 상기 학습 영상들에서 상기 척추 기준선을 예측하는 태스크를 포함하는, 기흉 검출 방법.In claim 1,
Further comprising the step of learning the pneumothorax prediction model for at least one task,
The at least one task is
A task of predicting a pneumothorax from the training images, a task of predicting a tube from the training images, and the learning based on the learning images tagged with the left and right discrimination labels in the first region and the second region divided by the spine baseline. Comprising the task of predicting the spine baseline from images, pneumothorax detection method.
좌우 판별 레이블이 태깅된 학습 영상들을 이용하여 기흉을 예측하도록 학습된 기흉 예측 모델로부터, 입력 영상에 대해 예측된 기흉 정보와 예측된 척추 기준선을 획득하는 단계, 그리고
상기 예측된 기흉 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 기흉 존재 영역을 결정하는 단계
를 포함하며,
상기 좌우 판별 레이블은 각 학습 영상의 척추 기준선을 기준으로 구분된 영역 정보를 포함하는, 기흉 검출 방법.A method for a computing device to detect a pneumothorax, comprising:
Obtaining the predicted pneumothorax information and the predicted spine baseline for the input image from the pneumothorax prediction model learned to predict the pneumothorax using the learning images tagged with the left and right discrimination labels, and
Determining a pneumothorax presence region among left and right regions of the patient using the predicted pneumothorax information and the predicted spine baseline
Including,
The left and right discrimination labels include area information divided based on a spine reference line of each training image.
상기 기흉 예측 모델이 상기 학습 영상들에서 튜브를 더 예측하도록 학습된 경우, 상기 기흉 예측 모델로부터 상기 입력 영상에 대해 예측된 튜브 정보를 획득하는 단계,
상기 예측된 튜브 정보와 상기 예측된 척추 기준선을 이용하여 환자의 좌우 영역 중에서, 튜브 존재 영역을 결정하는 단계, 그리고
상기 환자의 좌우 영역 중에서 상기 기흉 존재 영역이 제1 영역이고, 상기 튜브 존재 영역이 제2 영역이거나 상기 튜브 존재 영역이 존재하지 않는 경우, 상기 입력 영상을 응급 기흉으로 분류하는 단계
를 더 포함하는, 기흉 검출 방법.In clause 7,
When the pneumothorax prediction model is trained to further predict a tube from the training images, obtaining predicted tube information for the input image from the pneumothorax prediction model,
Determining a tube presence area among left and right areas of the patient using the predicted tube information and the predicted spine baseline, and
Classifying the input image as an emergency pneumothorax when the area where the pneumothorax exists is the first area, the area where the tube exists is the second area, or the area where the tube does not exist among the left and right areas of the patient
Further comprising a pneumothorax detection method.
학습 영상들을 입력받는 단계,
각 학습 영상에서 척추 영역을 분리하고, 상기 척추 영역을 대표하는 척추 기준선을 생성하는 단계,
상기 각 학습 영상에서 상기 척추 기준선을 기준으로, 좌우 판별 레이블을 태깅하는 단계,
상기 좌우 판별 레이블이 태깅된 상기 각 학습 영상을 학습 데이터로 생성하는 단계, 그리고
상기 학습 데이터를 이용하여 기흉 예측 모델을 학습시키는 단계를 포함하고,
상기 기흉 예측 모델을 학습시키는 단계는
상기 학습 데이터에 대응하는 적어도 하나의 학습 영상에 대하여, 기흉을 예측하는 태스크, 튜브를 예측하는 태스크, 그리고 상기 척추 기준선을 예측하는 태스크 각각에 대해 상기 기흉 예측 모델을 학습시키는 단계를 포함하는, 기흉 검출 방법.A method for detecting a pneumothorax by a computing device operated by at least one processor,
Receiving the learning images,
Separating a spine region from each learning image and generating a spine reference line representing the spine region,
Tagging left and right discrimination labels based on the spine reference line in each of the training images,
Generating the training images tagged with the left and right discrimination labels as training data, and
Including the step of training a pneumothorax prediction model using the training data,
The step of training the pneumothorax prediction model
For at least one training image corresponding to the training data, comprising the step of learning the pneumothorax prediction model for each of a task for predicting a pneumothorax, a task for predicting a tube, and a task for predicting the spine baseline Detection method.
상기 척추 기준선을 생성하는 단계는
척추 영역 정보가 어노테이션된 각 학습 영상에서 척추 영역을 분리하거나, 척추 영역 검출 태스크로 학습된 기계 학습 모델을 통해 각 학습 영상에서 척추 영역을 분리하는, 기흉 검출 방법.In claim 9,
Generating the spine baseline comprises:
A pneumothorax detection method in which the spine region is separated from each learning image to which the spine region information is annotated, or the spine region is separated from each learning image through a machine learning model learned with a spine region detection task.
상기 척추 기준선을 생성하는 단계는
상기 척추 영역으로 분리된 픽셀들을 다중 회귀 알고리즘으로 후처리하여 기준선을 생성하는, 기흉 검출 방법.In claim 9,
Generating the spine baseline comprises:
A method of detecting a pneumothorax by post-processing the pixels separated into the spine region with a multiple regression algorithm to generate a baseline.
의뢰 영상을 학습된 상기 기흉 예측 모델로 입력하는 단계,
상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계,
상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고
상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계
를 더 포함하는, 기흉 검출 방법.In claim 9,
Inputting the request image into the learned pneumothorax prediction model,
Obtaining, from the pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image,
Dividing the predicted pneumothorax information and the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and
Comparing an area in which the predicted pneumothorax information and the predicted tube information exist among the two areas, and determining whether the request image is emergency
Further comprising a pneumothorax detection method.
상기 의뢰 영상의 응급 여부를 판단하는 단계는
상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하고,
상기 예측된 기흉 정보가 존재하는 영역에 상기 예측된 튜브 정보가 존재하는 경우, 상기 의뢰 영상을 일반 기흉으로 분류하는, 기흉 검출 방법.In claim 12,
The step of determining whether the request image is emergency
If the predicted tube information does not exist in the region where the predicted pneumothorax information exists, the request image is classified as an emergency pneumothorax,
When the predicted tube information is present in the region where the predicted pneumothorax information exists, the request image is classified as a general pneumothorax.
메모리, 그리고
상기 메모리에 로드된 프로그램의 명령들(instructions)을 실행하는 적어도 하나의 프로세서를 포함하고,
상기 프로그램은
의뢰 영상을 기흉 예측 모델로 입력하는 단계,
상기 기흉 예측 모델로부터, 상기 의뢰 영상에 대해 예측된 기흉 정보, 예측된 튜브 정보, 그리고 예측된 척추 기준선을 획득하는 단계,
상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 표시된 예측 영상을 상기 예측된 척추 기준선을 이용하여 두 영역으로 분리하는 단계, 그리고
상기 두 영역 중에서 상기 예측된 기흉 정보와 상기 예측된 튜브 정보가 존재하는 영역을 비교하여, 상기 의뢰 영상의 응급 여부를 판단하는 단계를 실행하도록 기술된 명령들을 포함하는, 컴퓨팅 장치.As a computing device,
Memory, and
Including at least one processor to execute instructions (instructions) of the program loaded in the memory,
The above program is
Inputting the request image as a pneumothorax prediction model,
Obtaining, from the pneumothorax prediction model, predicted pneumothorax information, predicted tube information, and predicted spine baseline for the request image,
Dividing the predicted pneumothorax information and the predicted image on which the predicted tube information is displayed into two regions using the predicted spine baseline, and
Computing device comprising instructions to execute the step of determining whether or not the request image is emergency by comparing an area in which the predicted pneumothorax information and the predicted tube information exist among the two areas.
상기 프로그램은
입력 영상에서 기흉을 예측하는 태스크, 상기 입력 영상에서 튜브를 예측하는 태스크, 그리고 상기 입력 영상에서 상기 척추 기준선을 예측하는 태스크에 대해 학습된 상기 기흉 예측 모델을 포함하는, 컴퓨팅 장치.In clause 14,
The above program is
The computing device comprising the pneumothorax prediction model learned about a task of predicting a pneumothorax from an input image, a task of predicting a tube from the input image, and a task of predicting the spine baseline from the input image.
상기 의뢰 영상의 응급 여부를 판단하는 단계는
상기 예측 영상에서, 상기 예측된 기흉 정보에 대한 적어도 하나의 기흉 대표 위치, 그리고 상기 예측된 튜브 정보에 대한 적어도 하나의 튜브 대표 위치를 결정하는 단계,
상기 예측된 척추 기준선을 이용하여 분리된 상기 예측 영상의 두 영역 중에서, 상기 적어도 하나의 기흉 대표 위치와 상기 적어도 하나의 튜브 대표 위치가 존재하는 영역을 판단하는 단계, 그리고
상기 적어도 하나의 기흉 대표 위치가 존재하는 영역에, 상기 튜브 대표 위치가 존재하지 않는 경우, 상기 의뢰 영상을 응급 기흉으로 분류하는 단계
를 실행하도록 기술된 명령들을 포함하는, 컴퓨팅 장치.In clause 14,
The step of determining whether the request image is emergency
In the predicted image, determining at least one representative pneumothorax location for the predicted pneumothorax information and at least one representative tube location for the predicted tube information,
Determining an area in which the at least one representative pneumothorax location and the at least one tube representative location exist among two areas of the prediction image separated by using the predicted spine baseline, and
Classifying the request image as an emergency pneumothorax if the tube representative location does not exist in the region where the at least one representative pneumothorax location exists.
A computing device comprising instructions described to execute a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200017255A KR20210028053A (en) | 2020-02-12 | 2020-02-12 | Method and system for detecting pneumothorax |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200017255A KR20210028053A (en) | 2020-02-12 | 2020-02-12 | Method and system for detecting pneumothorax |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190109151A Division KR102078876B1 (en) | 2019-09-03 | 2019-09-03 | Method and system for detecting pneumothorax |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210028053A true KR20210028053A (en) | 2021-03-11 |
Family
ID=75143362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200017255A KR20210028053A (en) | 2020-02-12 | 2020-02-12 | Method and system for detecting pneumothorax |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210028053A (en) |
-
2020
- 2020-02-12 KR KR1020200017255A patent/KR20210028053A/en active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102078876B1 (en) | Method and system for detecting pneumothorax | |
ES2967682T3 (en) | Computer-aided diagnosis using deep neural networks | |
CN111986784B (en) | Metadata prediction device and method for medical image | |
US11935237B2 (en) | Method for discriminating suspicious lesion in medical image, method for interpreting medical image, and computing device implementing the methods | |
KR102531400B1 (en) | Artificial intelligence-based colonoscopy diagnosis supporting system and method | |
CN111311536A (en) | Medical image data | |
KR102530010B1 (en) | Apparatus and method for determining disease severity based on medical image | |
CN115063425B (en) | Reading knowledge graph-based structured inspection finding generation method and system | |
CN116848588A (en) | Automatic labeling of health features in medical images | |
US20230377149A1 (en) | Learning apparatus, learning method, trained model, and program | |
KR102245219B1 (en) | Method for discriminating suspicious lesion in medical image, method for interpreting medical image, and computing device implementing the methods | |
CN111226287A (en) | Method for analyzing a medical imaging dataset, system for analyzing a medical imaging dataset, computer program product and computer readable medium | |
CN110197722B (en) | AI-CPU system platform | |
JP7035569B2 (en) | Medical image processing equipment | |
Giv et al. | Lung segmentation using active shape model to detect the disease from chest radiography | |
KR20210028053A (en) | Method and system for detecting pneumothorax | |
US11996184B2 (en) | Method and system for detecting pneumothorax | |
US20230035575A1 (en) | Analysis device, analysis method, and recording medium | |
KR102360615B1 (en) | Medical image diagnosis assistance apparatus and method using a plurality of medical image diagnosis algorithm for endoscope images | |
US20240029258A1 (en) | Method and system for measuring size change of target lesion in x-ray image | |
KR102132564B1 (en) | Apparatus and method for diagnosing lesion | |
US11928817B2 (en) | Method for filtering normal medical image, method for interpreting medical image, and computing device implementing the methods | |
CN115187805B (en) | Sign recognition method and device, electronic equipment and storage medium | |
US10832409B2 (en) | Diagnosis support method, diagnosis support apparatus, and non-transitory computer-readable storage medium | |
Saparkhojayev et al. | Abnormality Detection in Chest X-ray Images Using Uncertainty Prediction Algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |