KR102530010B1 - Apparatus and method for determining disease severity based on medical image - Google Patents

Apparatus and method for determining disease severity based on medical image Download PDF

Info

Publication number
KR102530010B1
KR102530010B1 KR1020200176280A KR20200176280A KR102530010B1 KR 102530010 B1 KR102530010 B1 KR 102530010B1 KR 1020200176280 A KR1020200176280 A KR 1020200176280A KR 20200176280 A KR20200176280 A KR 20200176280A KR 102530010 B1 KR102530010 B1 KR 102530010B1
Authority
KR
South Korea
Prior art keywords
disease
severity
sinus
medical images
region
Prior art date
Application number
KR1020200176280A
Other languages
Korean (ko)
Other versions
KR20220086128A (en
Inventor
김광기
김선태
김영재
Original Assignee
가천대학교 산학협력단
(의료)길의료재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단, (의료)길의료재단 filed Critical 가천대학교 산학협력단
Priority to KR1020200176280A priority Critical patent/KR102530010B1/en
Priority to PCT/KR2021/018250 priority patent/WO2022131642A1/en
Publication of KR20220086128A publication Critical patent/KR20220086128A/en
Application granted granted Critical
Publication of KR102530010B1 publication Critical patent/KR102530010B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명의 실시예에 따른 의료 영상 기반 질환 중증도 결정 장치 및 방법이 제공된다. 본 발명의 실시예에 의료 영상 기반 질환 중증도 결정 장치는, 데이터를 송수신하도록 구성된 통신부; 및 상기 통신부와 연결하도록 구성된 제어부를 포함하고, 상기 제어부는, 상기 통신부를 통해 촬영 장치로부터 피검자의 목적 부위를 서로 다른 방향에서 촬영한 복수의 의료 영상을 획득하고, 상기 복수의 의료 영상을 기초로 상기 목적 부위에 해당하는 영역을 예측하도록 학습된 예측 모델을 이용하여 각 의료 영상으로부터 목적 부위 영역을 예측한 결과 데이터를 획득하고, 상기 결과 데이터를 기초로 상기 목적 부위 영역의 질환 중증도를 분류하도록 학습된 분류 모델을 이용하여 상기 질환 중증도를 결정하도록 구성된다.An apparatus and method for determining disease severity based on medical images according to an embodiment of the present invention are provided. An apparatus for determining severity of a disease based on medical images according to an embodiment of the present invention includes a communication unit configured to transmit and receive data; and a control unit configured to be connected to the communication unit, wherein the control unit obtains a plurality of medical images obtained by photographing a target part of the subject in different directions from a photographing device through the communication unit, and obtains a plurality of medical images obtained from the plurality of medical images Obtain result data obtained by predicting the target region from each medical image using a prediction model trained to predict the region corresponding to the target region, and learn to classify disease severity of the target region based on the result data. and determine the severity of the disease using a classified model.

Description

의료 영상 기반 질환 중증도 결정 장치 및 방법{APPARATUS AND METHOD FOR DETERMINING DISEASE SEVERITY BASED ON MEDICAL IMAGE}Medical image-based disease severity determination apparatus and method {APPARATUS AND METHOD FOR DETERMINING DISEASE SEVERITY BASED ON MEDICAL IMAGE}

본 발명은 의료 영상 기반 질환 중증도 결정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for determining the severity of a disease based on medical images.

일반적으로 병원 진료는 환자가 내원하여 전문의를 만나 진료를 받거나, 질병 진단을 위한 검사를 받고, 전문의로부터 이에 대한 결과를 전달받는 방식으로 이루어진다. In general, hospital treatment is performed in a manner in which a patient visits a specialist to receive medical treatment, receives a test for diagnosing a disease, and receives a result thereof from a specialist.

예를 들어, 부비동에 발생되는 부비동염을 진단하기 위해 환자에 대한 엑스레이(x-ray) 검사가 이루어지고, 전문의는 엑스레이 영상을 이용하여 부비동의 혼탁, 공기, 및/또는 액체의 수준 등을 기준으로 부비동염을 진단할 수 있다.For example, in order to diagnose sinusitis occurring in the sinuses, an x-ray examination is performed on the patient, and a specialist uses the x-ray image to determine the level of opacity, air, and/or liquid in the sinuses. Sinusitis can be diagnosed.

그러나, 엑스레이 영상을 이용하는 경우 전문의가 부비동염을 육안으로 구분하기 어려우므로, 전문의에 따라 영상 판독의 편차가 존재할 수 있으며, 이에 따라 전문의의 신속하고 정확한 질환 진단이 어려울 수 있다.However, since it is difficult for specialists to distinguish sinusitis with the naked eye when using X-ray images, there may be deviations in image interpretation depending on specialists, and accordingly, it may be difficult for specialists to quickly and accurately diagnose diseases.

따라서, 전문의가 환자의 목적 부위에 대한 질환 진단을 신속하고, 정확하게 하기 위한 의료 영상 기반 질환 중증도 결정 장치 및 방법이 요구된다.Therefore, there is a need for an apparatus and method for determining the severity of a disease based on medical images for a specialist to promptly and accurately diagnose a disease in a target region of a patient.

이에, 본 발명이 해결하고자 하는 과제는 의료 영상 기반 질환 중증도 결정 장치 및 방법을 제공하는 것이다. Accordingly, an object to be solved by the present invention is to provide an apparatus and method for determining the severity of a disease based on medical images.

구체적으로, 본 발명이 해결하고자 하는 과제는 목적 부위에 대한 질환 진단을 신속하고 정확하게 하기 위한 의료 영상 기반 질환 중증도 결정 장치 및 방법을 제공하는 것이다.Specifically, an object to be solved by the present invention is to provide an apparatus and method for determining the severity of a disease based on medical images for promptly and accurately diagnosing a disease in a target region.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위하여 의료 영상 기반 질환 중증도 결정 장치 및 방법이 제공된다.In order to solve the above problems, an apparatus and method for determining disease severity based on medical images are provided.

본 발명의 실시예에 의료 영상 기반 질환 중증도 결정 장치는, 데이터를 송수신하도록 구성된 통신부; 및 상기 통신부와 연결하도록 구성된 제어부를 포함하고, 상기 제어부는, 상기 통신부를 통해 촬영 장치로부터 피검자의 목적 부위를 서로 다른 방향에서 촬영한 복수의 의료 영상을 획득하고, 상기 복수의 의료 영상을 기초로 상기 목적 부위에 해당하는 영역을 예측하도록 학습된 예측 모델을 이용하여 각 의료 영상으로부터 목적 부위 영역을 예측한 결과 데이터를 획득하고, 상기 결과 데이터를 기초로 상기 목적 부위 영역의 질환 중증도를 분류하도록 학습된 분류 모델을 이용하여 상기 질환 중증도를 결정하도록 구성된다.An apparatus for determining severity of a disease based on medical images according to an embodiment of the present invention includes a communication unit configured to transmit and receive data; and a control unit configured to be connected to the communication unit, wherein the control unit obtains a plurality of medical images obtained by photographing a target part of the subject in different directions from a photographing device through the communication unit, and obtains a plurality of medical images obtained from the plurality of medical images Obtain result data obtained by predicting the target region from each medical image using a prediction model trained to predict the region corresponding to the target region, and learn to classify disease severity of the target region based on the result data. and determine the severity of the disease using a classified model.

본 발명의 실시예에 따른 의료 영상 기반 질환 중증도 결정 장치의 제어부에 의해서 수행되는 의료 영상 기반 질환 중증도 결정 방법은, 촬영 장치로부터 피검자의 목적 부위를 서로 다른 방향에서 촬영한 복수의 의료 영상을 획득하는 단계; 상기 복수의 의료 영상을 기초로 상기 목적 부위에 해당하는 영역을 예측하도록 학습된 예측 모델을 이용하여 각 의료 영상으로부터 목적 부위 영역을 예측한 결과 데이터를 획득하는 단계; 및 상기 결과 데이터를 기초로 상기 목적 부위 영역의 질환 중증도를 분류하도록 학습된 분류 모델을 이용하여 상기 질환 중증도를 결정하는 단계를 포함한다.A method for determining the severity of a disease based on medical images performed by a control unit of an apparatus for determining severity of a disease based on medical images according to an embodiment of the present invention includes obtaining a plurality of medical images of a target part of an examinee from different directions from a photographing device. step; obtaining data as a result of predicting a region corresponding to the target region from each medical image using a prediction model learned to predict a region corresponding to the target region based on the plurality of medical images; and determining the severity of the disease by using a classification model learned to classify the severity of the disease in the target region based on the resulting data.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other embodiment specifics are included in the detailed description and drawings.

본 발명은 피검자의 목적 부위를 다시점으로 촬영한 복수의 의료 영상을 기초로 인공신경망을 이용하여 질환 중증도를 결정함으로써, 전문의 등과 같은 의료 전문가가 피검자의 질환을 보다 빠르고 정확하게 진단할 수 있고, 피검자의 질환 진단을 위해 소요되는 시간 및 자원을 최소화할 수 있다.The present invention determines the severity of a disease using an artificial neural network based on a plurality of medical images taken from multiple viewpoints of a subject's target area, so that a medical expert such as a specialist can more quickly and accurately diagnose a subject's disease, Time and resources required for diagnosing a subject's disease can be minimized.

또한 본 발명은 질환 진단을 위해 인공신경망을 이용함으로써, 질환에 대한 오진단을 최소화하여 진단 결과의 정확성 및 신뢰성을 향상시킬 수 있다.In addition, the present invention can improve the accuracy and reliability of diagnosis results by minimizing misdiagnosis of diseases by using an artificial neural network for disease diagnosis.

또한 본 발명은 피검자의 목적 부위에 대한 질환을 조기 진단할 수 있어 질환에 대한 신속하고 적절한 대응이 가능하다. In addition, the present invention can diagnose a disease of a subject's target site at an early stage, enabling rapid and appropriate response to the disease.

본 발명에 따른 효과는 이상에서 예시한 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 실시예에 따른 질환 중증도 결정 시스템을 설명하기 위한 개략도들이다.
도 2는 본 발명의 실시예에 따른 전자 장치의 개략적인 블록도이다.
도 3은 본 발명의 실시예에 따라 복수의 인공신경망 모델을 이용하여 목적 부위 영역을 검출하고, 목적 부위 영역의 질환 중증도를 결정하는 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 실시예에 따라 복수의 의료 영상에서 목적 부위를 검출하기 위해 사용되는 예측 모델의 동작을 설명하기 위한 예시도이다.
도 5는 본 발명의 실시예에 따라 목적 부위의 질환 중증도를 분류하기 위해 사용되는 분류 모델의 동작을 설명하기 위한 예시도이다.
도 6은 본 발명의 실시예에 따른 전자 장치에서 의료 영상 기반 질환 중증도를 결정하기 위한 방법을 설명하는 흐름도이다.
도 7은 본 발명의 실시예에서 이용된 복수의 인공신경망 모델에 대한 평가 결과를 나타내는 도면들이다.
1 is schematic diagrams for explaining a disease severity determination system according to an embodiment of the present invention.
2 is a schematic block diagram of an electronic device according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a method of detecting a target region using a plurality of artificial neural network models and determining the severity of a disease of the target region according to an embodiment of the present invention.
4 is an exemplary diagram for explaining the operation of a predictive model used to detect a target region in a plurality of medical images according to an embodiment of the present invention.
5 is an exemplary diagram for explaining the operation of a classification model used to classify the severity of a disease of a target site according to an embodiment of the present invention.
6 is a flowchart illustrating a method for determining severity of disease based on medical images in an electronic device according to an embodiment of the present invention.
7 are diagrams showing evaluation results for a plurality of artificial neural network models used in an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various forms different from each other, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, like reference numerals may be used for like elements.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has," "may have," "includes," or "may include" indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document may modify various elements, regardless of order and/or importance, and refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first element may be named a second element, and similarly, a second element may also be renamed to a first element.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, third components) do not exist between the other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression "configured to" means "suitable for," "having the capacity to," depending on the circumstances. ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (e.g., embedded processor) to perform those operations, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, an ideal or excessively formal meaning. not be interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or entirely combined or combined with each other, and as those skilled in the art can fully understand, various interlocking and driving operations are possible, and each embodiment can be implemented independently of each other. It may be possible to implement together in an association relationship.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 질환 중증도 결정 시스템을 설명하기 위한 개략도들이다.1 is schematic diagrams for explaining a disease severity determination system according to an embodiment of the present invention.

도 1을 참조하면, 질환 중증도 결정 시스템(100)은 피검자의 목적 부위를 서로 다른 방향에서 촬영한 복수의 의료 영상을 이용하여 질환 중증도를 결정하기 위한 시스템으로서, 피검자의 복수의 의료 영상을 촬영하는 촬영 장치(110) 및 촬영 장치(110)로부터 제공된 복수의 의료 영상을 이용하여 질환 중증도를 결정하는 전자 장치(120)를 포함한다.Referring to FIG. 1 , a disease severity determination system 100 is a system for determining disease severity by using a plurality of medical images taken from different directions of a target part of a subject. It includes a photographing device 110 and an electronic device 120 that determines the severity of a disease by using a plurality of medical images provided from the photographing device 110 .

여기서, 의료 영상은 피검자의 목적 부위를 촬영한 영상으로, 엑스레이(x-ray) 영상 등일 수 있으나, 이에 한정되지 않는다. 목적 부위는 질환의 유무, 및/또는 중증도 등을 예측하고자 하는 피검자의 특정 신체 부위로서, 부비동, 척수, 신장, 입, 입술, 인후, 구강, 비강, 소장, 결장, 부갑상선, 담낭, 두경부, 유방, 골, 담관, 자궁경부, 심장, 하인두선, 폐, 기관지, 간, 피부, 요관, 요도, 고환, 질, 항문, 후두선, 난소, 갑상선, 식도, 비인두선, 뇌하수체, 타액선, 전립선, 췌장, 부신, 림프절, 비장, 뇌, 정맥류, 및/또는 근골격계 등일 수 있으나, 이에 한정되지 않으며, 엑스레이 촬영 장치 등에 의해서 영상으로 획득될 수 있는 다양한 부위일 수 있다. 제시된 실시예에서는 목적 부위를 부비동으로 설명하도록 한다. Here, the medical image is an image of a target part of the subject, and may be an X-ray image, but is not limited thereto. The target site is a specific body part of the subject for which the presence and/or severity of the disease is to be predicted, such as the paranasal sinus, spinal cord, kidney, mouth, lips, throat, oral cavity, nasal cavity, small intestine, colon, parathyroid gland, gallbladder, head and neck, and breast. , bone, bile duct, cervix, heart, hypopharyngeal gland, lung, bronchus, liver, skin, ureter, urethra, testicles, vagina, anus, laryngeal gland, ovary, thyroid, esophagus, nasopharyngeal gland, pituitary gland, salivary gland, prostate, pancreas , adrenal glands, lymph nodes, spleen, brain, varicose veins, and/or musculoskeletal system, but is not limited thereto, and may be various parts that can be obtained as images by an X-ray imaging device or the like. In the presented embodiment, the target site is described as a paranasal sinus.

먼저, 촬영 장치(110)는 피검자의 목적 부위를 서로 다른 방향으로 촬영한 복수의 의료 영상을 제공하기 위한 엑스레이 장치일 수 있다. 예를 들어, 서로 다른 방향은 목적 부위의 전면, 측면, 및/또는 후면 등을 촬영하기 위한 다시점 방향일 수 있으나, 이에 한정되지 않는다.First, the photographing apparatus 110 may be an X-ray apparatus for providing a plurality of medical images obtained by photographing a target part of an examinee in different directions. For example, the different directions may be multi-view directions for capturing the front, side, and/or back of the target part, but are not limited thereto.

다음으로, 전자 장치(120)는 촬영 장치(110)로부터 복수의 의료 영상을 획득하고, 복수의 의료 영상을 기반하여 목적 부위의 질환 중증도를 결정하기 위한 태블릿 PC, 노트북 및/또는 PC 등 중 적어도 하나일 수 있다. Next, the electronic device 120 obtains a plurality of medical images from the photographing device 110, and based on the plurality of medical images, the electronic device 120 uses at least one of a tablet PC, a laptop computer, and/or a PC for determining the severity of a disease of a target part. can be one

구체적으로, 전자 장치(120)는 복수의 의료 영상을 기초로 목적 부위에 해당하는 영역(이하, '목적 부위 영역'이라 함)을 검출하고, 검출된 목적 부위 영역을 기초로 질환 중증도를 결정할 수 있다. Specifically, the electronic device 120 may detect a region corresponding to the target region (hereinafter, referred to as 'target region') based on a plurality of medical images, and determine the severity of the disease based on the detected target region. there is.

이와 같이 복수의 의료 영상을 기초로 목적 부위 영역을 검출하고, 검출된 목적 부위 영역을 기초로 질환 중증도를 결정하기 위해 전자 장치(120)는 인공신경망 모델을 이용할 수 있다. 구체적으로, 전자 장치(120)는 복수의 의료 영상을 기반하여 목적 부위 영역을 검출하도록 학습된 제1 인공신경망 모델, 및 제1 인공신경망 모델을 통해서 검출된 목적 부위 영역에 기반하여 질환 중증도를 결정하도록 학습된 제2 인공신경망 모델을 이용할 수 있다.In this way, the electronic device 120 may use an artificial neural network model to detect the target region based on the plurality of medical images and determine the severity of the disease based on the detected target region. Specifically, the electronic device 120 determines the disease severity based on a first artificial neural network model learned to detect a target region based on a plurality of medical images and the target region detected through the first artificial neural network model. A second artificial neural network model learned to do so may be used.

제시된 실시예에서는 촬영 장치(110) 및 전자 장치(120)가 각각의 장치로서 구현된 경우를 설명하였으나, 이에 한정되지 않으며, 촬영 장치(110) 및 전자 장치(120)는 하나의 장치로서 구현될 수도 있다.In the presented embodiment, the case where the photographing device 110 and the electronic device 120 are implemented as separate devices has been described, but is not limited thereto, and the photographing device 110 and the electronic device 120 may be implemented as one device. may be

하기에서는 도 2를 참조하여 전자 장치(120)에 대해서 보다 구체적으로 설명하도록 한다.In the following, the electronic device 120 will be described in more detail with reference to FIG. 2 .

도 2는 본 발명의 실시예에 따른 전자 장치의 개략적인 블록도이다.2 is a schematic block diagram of an electronic device according to an embodiment of the present invention.

도 2를 참조하면, 전자 장치(200)는 통신부(210), 저장부(220), 표시부(230), 및 제어부(240)를 포함한다. 다양한 실시예에서 표시부(230)는 선택적으로 구비될 수 있다. 제시된 실시예에서 전자 장치(200)는 도 1의 전자 장치(120)를 의미할 수 있다.Referring to FIG. 2 , the electronic device 200 includes a communication unit 210, a storage unit 220, a display unit 230, and a control unit 240. In various embodiments, the display unit 230 may be selectively provided. In the presented embodiment, the electronic device 200 may mean the electronic device 120 of FIG. 1 .

통신부(210)는 전자 장치(200)가 외부 장치와 통신이 가능하도록 연결한다. 통신부(210)는 유/무선 통신을 이용하여 촬영 장치(110)와 연결되어 질환 중증도를 결정하기 위한 다양한 데이터를 송수신할 수 있다. 구체적으로, 통신부(210)는 촬영 장치(110)로부터 복수의 의료 영상을 수신할 수 있다. The communication unit 210 connects the electronic device 200 to enable communication with an external device. The communication unit 210 may be connected to the photographing device 110 using wired/wireless communication to transmit/receive various data for determining the severity of a disease. Specifically, the communication unit 210 may receive a plurality of medical images from the photographing device 110 .

저장부(220)는 복수의 의료 영상에 기반하여 질환 중증도를 결정하기 위해 사용되는 다양한 데이터를 저장할 수 있다. The storage unit 220 may store various data used to determine the severity of a disease based on a plurality of medical images.

다양한 실시예에서 저장부(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 장치(200)는 인터넷(internet)상에서 상기 저장부(220)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.In various embodiments, the storage unit 220 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg SD or XD). memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. The electronic device 200 may operate in relation to a web storage that performs the storage function of the storage unit 220 on the Internet.

표시부(230)는 사용자에게 각종 콘텐츠를 표시할 수 있다. 예를 들어, 표시부(230)는 복수의 의료 영상을 표시하거나, 결정된 질환 중증도에 대한 정보를 표시할 수 있다. The display unit 230 may display various contents to the user. For example, the display unit 230 may display a plurality of medical images or information about the determined severity of a disease.

다양한 실시예에서 표시부(230)는 터치스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치(touch), 제스처(gesture), 근접, 드래그(drag), 스와이프(swipe) 또는 호버링(hovering) 입력 등을 수신할 수 있다.In various embodiments, the display unit 230 may include a touch screen, and for example, a touch using an electronic pen or a part of the user's body, a gesture, a proximity, a drag, or a swipe A swipe or hovering input may be received.

제어부(240)는 통신부(210), 저장부(220), 및 표시부(230)와 동작 가능하게 연결되며, 의료 영상 기반 질환 중증도를 결정하기 위한 다양한 명령들을 수행할 수 있다. The control unit 240 is operatively connected to the communication unit 210, the storage unit 220, and the display unit 230, and may execute various commands for determining the severity of a medical image-based disease.

제어부(240)는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 어플리케이션 프로세서(AP), 디지털 신호 처리 장치(DSP), 산술 논리 연산 장치(ALU) 및 인공신경망 프로세서(NPU) 중 적어도 하나를 포함하도록 구성될 수 있다. The control unit 240 includes at least one of a central processing unit (CPU), a graphics processing unit (GPU), an application processor (AP), a digital signal processing unit (DSP), an arithmetic logic unit (ALU), and an artificial neural network processor (NPU). It can be configured to include.

구체적으로, 제어부(240)는 통신부(210)를 통해 촬영 장치(110)로부터 복수의 의료 영상을 획득하고, 복수의 의료 영상을 기초로 피험자의 목적 부위 영역을 예측(또는 인식)하도록 학습된 예측 모델을 이용하여 각 의료 영상으로부터 목적 부위 영역을 예측한 결과 데이터를 획득할 수 있다. 제어부(240)는 획득된 결과 데이터를 기초로 목적 부위의 질환 중증도를 분류하도록 학습된 분류 모델을 이용하여 질환 중증도를 분류한 결과 데이터를 획득할 수 있다. In detail, the controller 240 acquires a plurality of medical images from the photographing device 110 through the communication unit 210, and based on the plurality of medical images, the controller 240 is trained to predict (or recognize) a target region of the subject. Data obtained as a result of predicting a target region from each medical image using a model may be obtained. The controller 240 may obtain result data obtained by classifying the disease severity by using a classification model learned to classify the disease severity of the target site based on the acquired result data.

하기에서는 상술한 제어부(240)의 동작에 대해서 도 3 내지 도 5를 참조하여 구체적으로 설명하도록 한다.In the following, the operation of the controller 240 described above will be described in detail with reference to FIGS. 3 to 5 .

도 3은 본 발명의 실시예에 따라 복수의 인공신경망 모델을 이용하여 목적 부위 영역을 검출하고, 목적 부위 영역의 질환 중증도를 결정하는 방법을 설명하기 위한 예시도이다. 제시된 실시예에서 후술하는 동작들은 도 2의 제어부(240)에 의해서 수행될 수 있다.3 is an exemplary diagram for explaining a method of detecting a target region using a plurality of artificial neural network models and determining the severity of a disease of the target region according to an embodiment of the present invention. Operations described below in the presented embodiment may be performed by the controller 240 of FIG. 2 .

도 3은 참조하면, 제어부(240)는 복수의 의료 영상(300)을 입력으로 목적 부위 영역을 예측하도록 학습된 예측 모델(305)을 이용하여 복수의 의료 영상(300)으로부터 목적 부위 영역을 예측한 결과 데이터인 예측 결과 데이터(320)를 획득할 수 있다. 여기서, 복수의 의료 영상(300)은 피검자 얼굴의 전면을 촬영한 제1 의료 영상(302), 피검자 얼굴의 후면을 촬영한 제2 의료 영상(304) 및 피검자 얼굴의 측면을 촬영한 제3 의료 영상(306)을 포함할 수 있다.Referring to FIG. 3 , the controller 240 predicts the target region from the plurality of medical images 300 by using the prediction model 305 trained to predict the target region by inputting the plurality of medical images 300 . Prediction result data 320, which is one result data, may be obtained. Here, the plurality of medical images 300 include a first medical image 302 capturing the front of the examinee's face, a second medical image 304 capturing the back side of the examinee's face, and a third medical image 304 capturing the side of the examinee's face. An image 306 may be included.

예측 모델(310)은 복수의 의료 영상(300)을 기초로 목적 부위 영역을 예측하도록 학습된 인공신경망 모델일 수 있다. The prediction model 310 may be an artificial neural network model trained to predict a target region based on the plurality of medical images 300 .

구체적으로, 예측 모델(310)은 복수의 참조 영상을 미리 학습하고, 새롭게 입력되는 복수의 의료 영상(300)으로부터 목적 부위 영역을 예측하도록 구성된 인공신경망 모델일 수 있다. 여기서, 복수의 참조 영상은 다양한 피검자의 목적 부위를 서로 다른 복수의 시점으로 촬영한 의료 영상일 수 있으나, 이에 한정되지 않는다. 예를 들어, 참조 영상은 질환이 발생하지 않은 목적 부위 및 질환이 발생된 목적 부위 등을 촬영한 의료 영상일 수 있다. Specifically, the prediction model 310 may be an artificial neural network model configured to learn a plurality of reference images in advance and predict a target region from a plurality of newly input medical images 300 . Here, the plurality of reference images may be medical images obtained by capturing target parts of various subjects from a plurality of different viewpoints, but are not limited thereto. For example, the reference image may be a medical image obtained by capturing a target region without disease and a target region with disease.

이러한 예측 모델(310)은 미리 학습된 합성곱 신경망(CNN: Convolutional Neural Network)일 수 있으나, 이에 한정되지 않는다. 미리 학습된 합성곱 신경망은 입력된 입력 값에 대해 합성곱(convolution) 연산들을 수행하는 하나 이상의 계층들로 구성될 수 있으며, 입력값으로부터 합성곱 연산을 수행하여 출력값을 추론할 수 있다. 예를 들어, 미리 학습된 합성곱 신경망은 백본 네트워크(backbone network) 및 2개의 서브 네트워크(subnetwork)를 포함하는 레티나 신경망(RetinaNet)일 수 있으나, 이에 한정되지 않는다. This predictive model 310 may be a pretrained Convolutional Neural Network (CNN), but is not limited thereto. The pretrained convolutional neural network may include one or more layers that perform convolution operations on input values, and may infer an output value by performing a convolution operation from the input values. For example, the pretrained convolutional neural network may be a RetinaNet including a backbone network and two subnetworks, but is not limited thereto.

다양한 실시예에서 예측 모델(310)을 학습하기 위해 전체 참조 영상 중 85%의 참조 영상이 학습을 위해 사용되고, 15%의 참조 영상이 검증을 위해 사용될 수 있다. 예측 모델을 학습하기 위해 설정되는 하이퍼 파라미터(Hyper-Parameter)는 한번에 학습할 데이터의 수를 나타내는 배치 크기(batch size), 전체 데이터를 반복적으로 학습하는 횟수를 나타내는 에포크(Epoch), 학습율(Learning rate) 및 입력 영상의 크기를 나타내는 입력 크기(input size) 등을 포함하며, 예를 들어, 최적의 배치 크기는 128개, 최적의 에포크는 200 횟수, 최적의 학습율은 0.0001이며, 최적의 입력 크기는 256 (pixel) x 256 (pixel) 일 수 있으나, 이에 한정되지 않으며, 이러한 하이퍼 파라미터 값들은 학습 성능을 향상시키기 위한 값으로 설정될 수 있다.In various embodiments, in order to learn the predictive model 310, 85% of reference images among all reference images may be used for learning and 15% of reference images may be used for verification. The hyper-parameters set to learn the predictive model include the batch size, which indicates the number of data to be trained at once, the epoch, which indicates the number of times the entire data is repeatedly learned, and the learning rate. ) and an input size indicating the size of the input image. For example, the optimal batch size is 128, the optimal epoch is 200 times, the optimal learning rate is 0.0001, and the optimal input size is It may be 256 (pixel) x 256 (pixel), but is not limited thereto, and these hyperparameter values may be set to values to improve learning performance.

하기에서는 도 4를 참조하여 예측 모델(310)의 동작에 대해서 구체적으로 설명하도록 한다.In the following, the operation of the predictive model 310 will be described in detail with reference to FIG. 4 .

도 4는 본 발명의 실시예에 따라 복수의 의료 영상에서 목적 부위를 검출하기 위해 사용되는 예측 모델의 동작을 설명하기 위한 예시도이다. 제시된 실시예에서는 의료 영상을 피검자 얼굴의 전면, 측면 및 후면을 촬영한 엑스레이 영상인 것으로 한정하고, 목적 부위를 부비동(2개의 상악동, 2개의 전두동, 2개의 사골동 및 2개의 접형동)으로 한정하여 설명하도록 한다. 4 is an exemplary diagram for explaining the operation of a predictive model used to detect a target region in a plurality of medical images according to an embodiment of the present invention. In the presented embodiment, the medical image is limited to an X-ray image of the front, side, and back of the subject's face, and the target site is limited to the paranasal sinuses (two maxillary sinuses, two frontal sinuses, two ethmoid sinuses, and two sphenoid sinuses). let it do

도 4를 참조하면, 예측 모델(400)은 의료 영상(410)을 입력으로 하여 목적 부위 영역을 예측하도록 학습된 복수의 인공신경망으로 이루어질 수 있다. 복수의 인공신경망은 제1 인공신경망(420), 제2 인공신경망(430) 및 제3 인공신경망(440)을 포함할 수 있다.Referring to FIG. 4 , the predictive model 400 may include a plurality of artificial neural networks trained to predict a target region by using a medical image 410 as an input. The plurality of artificial neural networks may include a first artificial neural network 420 , a second artificial neural network 430 and a third artificial neural network 440 .

제1 인공신경망(420)은 의료 영상(410)을 입력으로 각 레이어(layer)에 대한 중간 특징 데이터(intermediate feature map)를 생성하는 레스넷(Residual Network, ResNet)일 수 있으나, 이에 한정되지 않는다. The first artificial neural network 420 may be a Residual Network (ResNet) that generates intermediate feature maps for each layer by taking the medical image 410 as an input, but is not limited thereto. .

제2 인공신경망(430)은 상위 레이어에서 하위 레이어 순으로 특정 레이어의 중간 특징 데이터와, 다음 레이어의 중간 특징 데이터를 합(merging)하여 각 레이어에 대응하는 특징 데이터를 생성하는 피쳐 피라미드 네트워크(Feature Pyramid Network, FPN)일 수 있으나, 이에 한정되지 않는다. 여기서, 특징 데이터에 대응하는 레이어는 레스넷의 각 레이어를 의미할 수 있다.The second artificial neural network 430 is a feature pyramid network (Feature Pyramid Network) that generates feature data corresponding to each layer by merging intermediate feature data of a specific layer and intermediate feature data of the next layer in order from the upper layer to the lower layer. Pyramid Network, FPN), but is not limited thereto. Here, the layer corresponding to the feature data may mean each layer of RESNET.

제3 인공신경망(440)은 목적 부위를 포함하도록 바운딩 박스(bounding box)를 조정하는 바운딩 박스 회귀(Regression) 서브넷 및 바운딩 박스에 포함된 목적 부위의 종류를 예측(또는 분류)하는 분류 서브넷(classification subnet)을 포함할 수 있다. 이러한 서브넷들은 병렬적으로 구성될 수 있다. The third artificial neural network 440 includes a bounding box regression subnet for adjusting a bounding box to include a target site and a classification subnet for predicting (or classifying) the type of target site included in the bounding box. subnet) may be included. These subnets can be configured in parallel.

바운딩 박스를 조정하는 동작은 실제 의료 영상에서 목적 부위를 나타내는 그라운드-트루스(ground-truth) 바운딩 박스(즉, 정답)와 예측된(predicated) 바운딩 박스 간의 오프셋(offset)을 이용하여 수행될 수 있다. 여기서, 오프셋은 예측된 바운딩 박스 및 정답에 해당하는 그라운드-트루스 바운딩 박스가 서로 중첩(또는 일치)되는 정도를 의미할 수 있다. 이를 통해서 예측 모델의 성능이 평가될 수 있다.The operation of adjusting the bounding box may be performed using an offset between a ground-truth bounding box (i.e., correct answer) representing a target region in an actual medical image and a predicted bounding box. . Here, the offset may mean the degree to which the predicted bounding box and the ground-truth bounding box corresponding to the correct answer overlap (or coincide) with each other. Through this, the performance of the predictive model can be evaluated.

이러한 예측 모델(400)를 통해서 출력된 예측 결과 데이터(450)는 목적 부위의 예측된 종류(예: 좌/우 상악동, 좌/우 전두동, 좌/우 사골동 및/또는 좌/우 접형동) 및 목적 부위에 대응하는 바운딩 박스를 포함할 수 있다. 다양한 실시예에서 예측 결과 데이터(450)는 예측된 종류에 대한 점수를 더 포함할 수 있다. 예를 들어, 예측 결과 데이터(450)는 제1 의료 영상(412)에서 예측된 목적 부위의 종류 및 바운딩 박스를 포함하는 제1 예측 결과 영상(452), 제2 의료 영상(414)에서 예측된 목적 부위의 종류 및 바운딩 박스를 포함하는 제2 예측 결과 영상(454) 및 제3 의료 영상(416)에서 예측된 목적 부위의 종류 및 바운딩 박스를 포함하는 제3 예측 결과 영상(456)을 포함할 수 있다. 여기서, 예측 결과 데이터(450)는 도 3에서 설명한 예측 결과 데이터(320)를 의미할 수 있다.The predicted result data 450 output through the predictive model 400 includes the predicted type of target region (eg, left/right maxillary sinus, left/right frontal sinus, left/right ethmoid sinus, and/or left/right sphenoid sinus) and purpose A bounding box corresponding to the region may be included. In various embodiments, the prediction result data 450 may further include scores for predicted types. For example, the prediction result data 450 includes the first prediction result image 452 including the type and bounding box of the target region predicted in the first medical image 412 and the predicted result data 452 in the second medical image 414. The second prediction result image 454 including the target region type and the bounding box and the third prediction result image 456 including the target region type and the bounding box predicted in the third medical image 416 may be included. can Here, the prediction result data 450 may mean the prediction result data 320 described in FIG. 3 .

제어부(240)는 출력된 예측 결과 데이터(450)에 기반하여 의료 영상(410)에서 목적 부위 영역을 크롭(crop)한 크롭 데이터(460)를 생성할 수 있다. 예를 들어, 크롭 데이터(460)는 제1 예측 결과 영상(452)에서 부비동 영역을 크롭한 제1 크롭 영상(462), 제2 예측 결과 영상(454)에서 부비동 영역을 크롭한 제2 크롭 영상(464) 및 제3 예측 결과 영상(456)에서 부비동 영역을 크롭한 제3 크롭 영상(466)을 포함할 수 있다. 다양한 실시예에서 제어부(240)는 크롭 영상의 행(column) x 열(row) 중 더 큰 값을 기준으로 제로 패딩(zero padding)을 수행하여 크롭 영상을 정사각형으로 변환하고, 정사각형의 크롭 영상을 특정 크기의 리사이징(resizing)할 수 있다. 이를 통해서 크롭 영상의 해상도가 개선될 수 있다.The control unit 240 may generate crop data 460 obtained by cropping a target region in the medical image 410 based on the output prediction result data 450 . For example, the cropped data 460 is a first cropped image 462 obtained by cropping the sinus area from the first prediction result image 452 and a second cropped image obtained by cropping the sinus area from the second prediction result image 454. 464 and a third cropped image 466 obtained by cropping the sinus area in the third prediction result image 456. In various embodiments, the controller 240 converts the cropped image into a square by performing zero padding based on a larger value among rows x rows of the cropped image, and transforms the cropped image into a square. It can be resized to a specific size. Through this, the resolution of the cropped image may be improved.

다시 도 3을 참조하면, 제어부(240)는 획득된 예측 결과 데이터(320)를 입력으로 목적 부위 영역의 질환 중증도를 분류하도록 학습된 분류 모델(330)을 이용하여 목적 부위 영역에서 질환 중증도를 분류한 결과 데이터인 분류 결과 데이터(340)를 획득할 수 있다.Referring back to FIG. 3 , the control unit 240 classifies the disease severity in the target region by using the classification model 330 learned to classify the disease severity in the target region by inputting the obtained prediction result data 320. Classification result data 340, which is one result data, may be obtained.

분류 모델(330)은 예측 결과 데이터(320)를 기초로 목적 부위 영역의 질환 중증도를 분류하도록 학습된 인공신경망 모델일 수 있다. The classification model 330 may be an artificial neural network model trained to classify the severity of a disease in a target region based on the prediction result data 320 .

구체적으로, 분류 모델(330)은 복수의 참조 영상을 미리 학습하고, 새롭게 입력되는 예측 결과 데이터(320)로부터 질환 중증도를 분류하도록 구성된 인공신경망 모델일 수 있다. 여기서, 복수의 참조 영상은 다양한 의료 영상에서 목적 부위가 크롭된 크롭 영상일 수 있으나, 예를 들어, 참조 영상은 질환을 포함하는 크롭 영상 및 질환을 포함하지 않은 다양한 크롭 영상일 수 있다. 다양한 실시예에서 질환을 포함하는 크롭 영상은 서로 다른 질환 중증도(예: 무증상, 경증, 중증, 및/또는 최중증 등)에 대응하는 크롭 영상일 수 있다. 이러한 중증도는 염증도를 포함하며, 해당 염증도는 의료 영상에 나타난 염증의 크기, 색상, 및/또는 형태 등에 따라 구분될 수 있다. 다양한 실시예서 분류 모델(330)은 참조 영상 뿐만 아니라 분류 정답 데이터(예: 해당 참조 영상의 실제 질환 중증도)를 더 학습할 수 있다.Specifically, the classification model 330 may be an artificial neural network model configured to learn a plurality of reference images in advance and classify disease severity from newly input prediction result data 320 . Here, the plurality of reference images may be cropped images obtained by cropping a target region from various medical images, but, for example, the reference images may include a cropped image including a disease and various cropped images not including a disease. In various embodiments, cropped images including diseases may be cropped images corresponding to different severities of diseases (eg, asymptomatic, mild, severe, and/or severe). This severity includes the degree of inflammation, and the degree of inflammation may be classified according to the size, color, and/or shape of the inflammation shown in the medical image. In various embodiments, the classification model 330 may further learn not only the reference image but also classification answer data (eg, the actual disease severity of the corresponding reference image).

이러한 분류 모델(330)은 미리 학습된 합성곱 신경망일 수 있으나, 이에 한정되지 않는다. 예를 들어, 미리 학습된 합성곱 신경망은 MVCNN(Multi-view Convolutional Neural Network) 또는 MPCNN(Multi-Planar CNN)일 수 있으나, 이에 한정되지 않는다.This classification model 330 may be a pretrained convolutional neural network, but is not limited thereto. For example, the pretrained convolutional neural network may be a Multi-view Convolutional Neural Network (MVCNN) or a Multi-Planar CNN (MPCNN), but is not limited thereto.

하기에서는 도 5를 참조하여 분류 모델(330)의 동작에 대해서 구체적으로 설명하도록 한다.In the following, the operation of the classification model 330 will be described in detail with reference to FIG. 5 .

도 5는 본 발명의 실시예에 따라 목적 부위의 질환 중증도를 분류하기 위해 사용되는 분류 모델의 동작을 설명하기 위한 예시도이다. 5 is an exemplary diagram for explaining the operation of a classification model used to classify the severity of a disease of a target site according to an embodiment of the present invention.

도 5를 참조하면, 분류 모델(500)은 예측 모델(310)을 통해서 출력된 예측 결과 데이터인 크롭 데이터(510)를 입력으로 목적 부위 영역의 질환 중증도를 분류하도록 학습된 복수의 인공신경망으로 이루어질 수 있다. 여기서, 크롭 데이터(510)는 제1 크롭 영상(512), 제2 크롭 영상(514) 및 제3 크롭 영상(516)을 포함할 수 있다.Referring to FIG. 5 , the classification model 500 is composed of a plurality of artificial neural networks trained to classify the disease severity of the target region by inputting crop data 510, which is prediction result data output through the prediction model 310. can Here, the cropped data 510 may include a first cropped image 512 , a second cropped image 514 , and a third cropped image 516 .

이러한 복수의 인공신경망은 복수의 합성곱 신경망(예: 제1 합성곱 신경망, 제2 합성곱 신경망, 및 제3 합성곱 신경망)(520), 풀링 계층(pooling layer)(540) 및 제4 합성곱 신경망(560)을 포함할 수 있다.The plurality of artificial neural networks include a plurality of convolutional neural networks (eg, a first convolutional neural network, a second convolutional neural network, and a third convolutional neural network) 520, a pooling layer 540, and a fourth synthesis. A product neural network 560 may be included.

복수의 합성곱 신경망(520)은 크롭 데이터(510)를 입력으로 하여 특징 데이터(530)를 출력할 수 있다.The plurality of convolutional neural networks 520 may output feature data 530 by taking the crop data 510 as an input.

구체적으로, 복수의 합성곱 신경망(520)은 제1 크롭 영상(512)을 입력으로 제1 특징 데이터(532)를 출력하는 제1 합성곱 신경망(522), 제2 크롭 영상(514)를 입력으로 제2 특징 데이터(534)를 출력하는 제2 합성곱 신경망(524), 및 제3 크롭 영상(516)를 입력으로 제3 특징 데이터(536)를 출력하는 제3 합성곱 신경망(526)을 포함할 수 있다. 여기서, 합성곱 신경망의 수는 입력되는 입력 영상의 수와 일치할 수 있다. Specifically, the plurality of convolutional neural networks 520 take the first cropped image 512 as an input, the first convolutional neural network 522 outputting the first feature data 532, and the second cropped image 514 as inputs. The second convolutional neural network 524 outputs the second feature data 534 and the third convolutional neural network 526 outputs the third feature data 536 with the third cropped image 516 as an input. can include Here, the number of convolutional neural networks may match the number of input images.

풀링 계층(540)은 제1 특징 데이터(532), 제2 특징 데이터(534) 및 제3 특징 데이터(536)를 통합(aggregation)하여 하나의 통합 특징 데이터를 생성하는 뷰 풀링 레이어(view-pooling layer)일 수 있으나, 이에 한정되지 않는다.The pooling layer 540 is a view-pooling layer that generates one integrated feature data by aggregating the first feature data 532, the second feature data 534, and the third feature data 536. layer), but is not limited thereto.

제4 합성곱 신경망(560)은 통합 특징 데이터를 입력으로 하여 목적 부위 영역의 질환 중증도를 분류하도록 학습된 인공신경망일 수 있다. 목적 부위 영역이 부비동인 경우 목적 부위 영역은 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동에 해당하는 영역 중 적어도 하나를 포함할 수 있다.The fourth convolutional neural network 560 may be an artificial neural network that has been trained to classify the severity of a disease in a target region using integrated feature data as an input. When the target site region is a paranasal sinus, the target site region may include at least one of regions corresponding to a left maxillary sinus, a right maxillary sinus, a left anterior sinus, a right anterior sinus, a left ethmoid sinus, a right ethmoid sinus, a left sphenoid sinus, and a right sphenoid sinus.

이러한 제4 합성곱 신경망(560)은 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동 중 적어도 하나를 질환 중증도에 해당하는 n개의 레이블(label)로 분류할 수 있다(n>0). 예를 들어, 부비동의 질환이 부비동염인 경우 질환 중증도는 부비동염의 염증도에 해당할 수 있다.The fourth convolutional neural network 560 assigns at least one of the left maxillary sinus, the right maxillary sinus, the left anterior sinus, the right anterior sinus, the left ethmoid sinus, the right ethmoid sinus, the left sphenoid sinus, and the right sphenoid sinus to n labels corresponding to disease severity. can be classified as (n>0). For example, if the disease of the sinuses is sinusitis, the severity of the disease may correspond to the degree of inflammation of the sinusitis.

제4 합성곱 신경망(560)을 통해서 출력된 분류 결과 데이터(570)는 목적 부위 영역이 분류된 레이블의 종류를 포함할 수 있다. 예를 들어, n개의 레이블이 염증도 0(예: 무증상), 염증도 1(예: 경증), 염증도 2(예: 중증) 및 염증도 3(예: 최중증)를 포함하는 경우 분류 결과 데이터(570)는 입력된 크롭 데이터(510)에 대응하는 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동 중 적어도 하나 각각을 염증도 0, 염증도 1, 염증도 2 및 염증도 3 중 어느 하나로 분류한 결과 데이터일 수 있다. 여기서, 분류 결과 데이터(570)는 도 3에서 설명한 분류 결과 데이터(340)를 의미할 수 있다.The classification result data 570 output through the fourth convolutional neural network 560 may include the type of label in which the target region is classified. For example, a classification result if n labels contain Inflammation Degree 0 (eg asymptomatic), Inflammation Degree 1 (eg Mild), Inflammation Degree 2 (eg Severe), and Inflammation Degree 3 (eg Severe Severe). In the data 570, at least one of the left maxillary sinus, the right maxillary sinus, the left anterior sinus, the right anterior sinus, the left ethmoid sinus, the right ethmoid sinus, the left sphenoid sinus, and the right sphenoid sinus corresponding to the input crop data 510 has an inflammation degree of 0 and inflammation It may be data as a result of classification as one of FIG. 1, degree of inflammation 2, and degree of inflammation 3. Here, the classification result data 570 may mean the classification result data 340 described in FIG. 3 .

이를 통해서 본 발명은 인공신경망을 이용하여 목적 부위에 대한 진단 중증도를 결정함으로써, 전문의 등과 같은 의료 전문가가 피검자의 질환에 대한 더욱 빠르고 정확한 진단을 할 수 있다.Through this, the present invention determines the diagnosis severity of the target site using an artificial neural network, so that medical experts such as specialists can diagnose the subject's disease more quickly and accurately.

하기에서는 도 6을 참조하여 전자 장치에서 의료 영상 기반 질환 중증도를 결정하기 위한 방법을 설명하도록 한다.In the following, a method for determining the severity of a medical image-based disease in an electronic device will be described with reference to FIG. 6 .

도 6은 본 발명의 실시예에 따른 전자 장치에서 의료 영상 기반 질환 중증도를 결정하기 위한 방법을 설명하는 흐름도이다. 하기에서 서술하는 동작들은 도 2의 제어부(240)에 의해서 수행될 수 있다.6 is a flowchart illustrating a method for determining severity of disease based on medical images in an electronic device according to an embodiment of the present invention. Operations described below may be performed by the controller 240 of FIG. 2 .

도 6을 참조하면, 제어부(240)는 피검자의 목적 부위를 서로 다른 시점으로 촬영한 복수의 의료 영상을 획득한다(S600). 여기서, 복수의 의료 영상은 피검자의 목적 부위를 다시점으로 촬영한 엑스레이 영상일 수 있다.Referring to FIG. 6 , the controller 240 acquires a plurality of medical images taken at different viewpoints of the subject's target part (S600). Here, the plurality of medical images may be X-ray images obtained by multi-viewing a target part of the subject.

제어부(240)는 복수의 의료 영상을 기초로 목적 부위 영역을 예측하도록 학습된 예측 모델을 이용하여 각 의료 영상으로부터 목적 부위 영역을 예측한 결과 데이터를 획득한다(S610). 목적 부위 영역은 적어도 하나의 서브 영역을 포함할 수 있으며, 예를 들어, 목적 부위 영역이 부비동인 경우 적어도 하나의 서브 영역은 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동 중 적어도 하나에 해당하는 영역을 포함할 수 있다.The controller 240 obtains data as a result of predicting the target region from each medical image using a prediction model learned to predict the target region based on a plurality of medical images (S610). The target site region may include at least one sub-region. For example, when the target region region is a paranasal sinus, the at least one sub-region includes a left maxillary sinus, a right maxillary sinus, a left anterior sinus, a right anterior sinus, a left ethmoid sinus, and a right An area corresponding to at least one of the ethmoid sinus, the left sphenoid sinus, and the right sphenoid sinus may be included.

구체적으로, 제어부(240)는 복수의 의료 영상을 입력으로 하여 예측 모델을 통해 목적 부위 영역의 종류 및 목적 부위 영역에 대응하는 바운딩 박스를 예측하고, 복수의 의료 영상 각각에 대하여 예측된 목적 부위 영역의 종류 및 목적 부위 영역의 바운딩 박스를 나타낸 예측 결과 데이터를 출력할 수 있다. 이때, 목적 부위 영역의 바운딩 박스는 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동 중 적어도 하나를 포함하는 바운딩 박스를 포함할 수 있다.Specifically, the controller 240 predicts the type of target region and a bounding box corresponding to the target region through a predictive model by taking a plurality of medical images as inputs, and predicts the predicted target region for each of the plurality of medical images. Prediction result data indicating the type of and the bounding box of the target region may be output. In this case, the bounding box of the target region may include a bounding box including at least one of a left maxillary sinus, a right maxillary sinus, a left anterior sinus, a right anterior sinus, a left ethmoid sinus, a right ethmoid sinus, a left sphenoid sinus, and a right sphenoid sinus.

제어부(240)는 획득된 결과 데이터를 기초로 목적 부위 영역의 질환 중증도를 분류하도록 학습된 분류 모델을 이용하여 질환 중증도를 결정한다(S620). The controller 240 determines the severity of the disease by using a classification model learned to classify the severity of the disease in the target region based on the obtained result data (S620).

구체적으로, 제어부(240)는 결과 데이터에서 바운딩 박스에 해당하는 목적 부위 영역을 크롭한 복수의 크롭 영상을 생성하고, 생성된 복수의 크롭 영상을 입력으로 하여 분류 모델을 통해 적어도 하나의 서브 영역에 대한 중증도를 분류하고, 분류 결과 데이터를 출력할 수 있다. 예를 들어, 분류 결과 데이터는 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동 중 적어도 하나 각각을 염증도 0, 염증도 1, 염증도 2, 염증도 3 중 어느 하나로 분류한 결과 데이터일 수 있다.Specifically, the control unit 240 generates a plurality of cropped images obtained by cropping a target region corresponding to a bounding box in the resulting data, and uses the generated plurality of cropped images as inputs to generate at least one sub-region through a classification model. It is possible to classify severity and output classification result data. For example, the classification result data indicates that each of at least one of the left maxillary sinus, right maxillary sinus, left anterior sinus, right anterior sinus, left ethmoid sinus, right ethmoid sinus, left sphenoid sinus, and right sphenoid sinus has an inflammation degree of 0, an inflammation degree of 1, an inflammation degree of 2, It may be the result data classified as one of inflammation degree 3.

제어부(240)는 결정된 질환 중증도에 대한 데이터를 제공한다(S630). 예를 들어, 제어부(240)는 분류 결과 데이터를 나타내는 인터페이스 화면을 표시부(230)를 통해 표시할 수 있다. 이러한 인터페이스 화면은 의료 영상, 의료 영상에서 검출된 목적 부위 영역, 및/또는 해당 목적 부위 영역의 질환 중증도 등을 나타내는 적어도 하나의 그래픽 객체를 포함할 수 있다.The controller 240 provides data on the determined disease severity (S630). For example, the controller 240 may display an interface screen showing classification result data through the display unit 230 . The interface screen may include at least one graphic object representing a medical image, a target region detected in the medical image, and/or a disease severity of the target region.

하기에서는 도 7을 참조하여 상술한 '의료 영상 기반 질환 중증도를 결정하기 위해 이용된 복수의 인공신경망 모델'에 대한 평가 결과를 설명하도록 한다.In the following, evaluation results for 'a plurality of artificial neural network models used to determine the severity of diseases based on medical images' will be described with reference to FIG. 7 .

도 7은 본 발명의 실시예에서 이용된 복수의 인공신경망 모델에 대한 평가 결과를 나타내는 도면들이다.7 are diagrams showing evaluation results for a plurality of artificial neural network models used in an embodiment of the present invention.

도 7의 (a)를 참조하면, 질환 중증도 결정을 위해 이용된 예측 모델 및 분류 모델의 정답(true), 및 오답(false)을 정확하게 예측한 비율인 정확도, 모델이 정답이라고 분류한 것 중 실제 정답인 것의 비율인 정밀도 및 실제 정답 중 모델이 정답이라고 예측한 비율인 재현율에 대한 점수를 나타낸 표가 도시된다.Referring to (a) of FIG. 7 , accuracy, which is the ratio of accurately predicting true and false answers of the prediction model and classification model used to determine disease severity, among those classified as correct by the model, the actual A table showing scores for precision, which is the ratio of correct answers, and recall, which is the ratio of actual correct answers predicted by the model to be correct, is shown.

질환 중증도 결정에 대한 정확도 점수는 0.908 ± 0.105로서, 질환 중증도 결정을 위해 사용된 예측 모델 및 분류 모델은 정확도가 매우 높은 것으로 판단될 수 있다. The accuracy score for determining disease severity was 0.908 ± 0.105, and the predictive model and classification model used for determining disease severity can be judged to have very high accuracy.

또한, 질환 중증도 결정에 대한 정밀도 점수는 0.845 ± 0.228로서, 질환 중증도 결정을 위해 사용된 예측 모델 및 분류 모델은 정밀도가 매우 높은 것으로 판단될 수 있다. In addition, the precision score for disease severity determination was 0.845 ± 0.228, and the prediction model and classification model used for disease severity determination can be judged to have very high precision.

한편, 질환 중증도 결정에 대한 재현율 점수는 0.774 ± 0.213으로서, 중증도 결정을 위해 사용된 예측 모델 및 분류 모델은 재현율이 매우 높은 것으로 판단될 수 있다. On the other hand, the recall score for disease severity determination is 0.774 ± 0.213, and the prediction model and classification model used for severity determination can be judged to have very high recall rates.

도 7의 (b)를 참조하면, 예측 모델 및 분류 모델이 실제 오답 중 정답으로 분류한 비율(False positive rate, FPR) 및 실제 정답 중 정답으로 분류한 비율(True positive rate, TPR)을 나타낸 ROC(Receiver Operating Characteristic) 그래프(700)가 도시된다. 예를 들어, x축은 FRP, y축은 TRP로 나타낼 수 있다.Referring to (b) of FIG. 7 , ROC showing the rate of classification as correct among actual incorrect answers (False Positive Rate, FPR) and the rate of classification as correct among actual correct answers (True Positive Rate, TPR) by the predictive model and classification model (Receiver Operating Characteristic) graph 700 is shown. For example, the x-axis can be represented by FRP and the y-axis can be represented by TRP.

ROC 그래프(700)는 TPR이 크고, FPR이 작은 커브(curve) 형태를 가지며, y=x 그래프(710)보다 y축 방향으로 상단에 위치한다. 또한, ROC 그래프(700) 아래의 면적값을 나타내는 AUC(Area Under Curve)는 0.885이다. AUC 값이 1에 가까울수록 질환 중증도 분류 능력이 높은 모델일 수 있다. 이에, 예측 모델 및 분류 모델은 질환 중증도 결정에 대한 성능이 우수하다고 평가될 수 있다.The ROC graph 700 has a curve shape with a large TPR and a small FPR, and is located higher than the y=x graph 710 in the y-axis direction. In addition, AUC (Area Under Curve) representing an area value under the ROC graph 700 is 0.885. As the AUC value is closer to 1, the model may have a higher ability to classify disease severity. Thus, the predictive model and the classification model can be evaluated as having excellent performance for determining disease severity.

이를 통해서 본 발명은 피험자의 목적 부위를 다시점으로 촬영한 복수의 영상을 기초로 인공신경망을 이용하여 목적 부위의 질환 중증도를 결정함으로써, 질환의 초기 진단이 가능하여 질환에 신속하게 대처할 수 있다.Through this, the present invention determines the severity of the disease of the target area using an artificial neural network based on a plurality of images taken from multi-viewpoints of the target area of the subject, thereby enabling early diagnosis of the disease and promptly coping with the disease.

또한 본 발명은 엑스레이 영상 등과 같이 의료 영상을 이용하여 육안으로 구분하기 어려운 질환에 대한 진단 및 중증도 확인이 가능하다.In addition, according to the present invention, it is possible to diagnose and confirm the severity of diseases that are difficult to distinguish with the naked eye using medical images such as X-ray images.

또한 본 발명은 진단에 대한 비용을 절감할 수 있고, 진단 및 중증도 확인에 대한 편의성을 높일 수 있다. In addition, the present invention can reduce the cost of diagnosis and increase the convenience of diagnosis and severity confirmation.

본 발명의 실시예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Devices and methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in computer readable media. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination.

컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - Includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, etc. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be variously modified and implemented without departing from the technical spirit of the present invention. . Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

100: 질환 중증도 결정 시스템
110: 촬영 장치
120, 200: 전자 장치
210: 통신부
220: 저장부
230: 표시부
240: 제어부
100: disease severity determination system
110: shooting device
120, 200: electronic device
210: communication department
220: storage unit
230: display unit
240: control unit

Claims (14)

데이터를 송수신하도록 구성된 통신부; 및
상기 통신부와 연결하도록 구성된 제어부를 포함하고,
상기 제어부는,
상기 통신부를 통해 촬영 장치로부터 피검자의 목적 부위인 부비동을 포함하는 얼굴 전면, 측면 및 후면을 촬영한 복수의 의료 영상-상기 의료 영상은 엑스레이(x-ray) 영상임-을 획득하고,
상기 복수의 의료 영상을 기초로 상기 목적 부위인 부비동의 전면, 측면 및 후면에서 관찰 가능한 복수의 서브 목적 부위인 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동에 해당하는 영역을 예측하도록 학습된 예측 모델을 이용하여 각 의료 영상으로부터 목적 부위의 영역을 예측한 결과 데이터를 획득하고,
상기 결과 데이터를 기초로 상기 복수의 서브 목적 부위 각각의 영역에 대한 질환 중증도를 분류하도록 학습된 분류 모델을 이용하여 상기 질환 중증도를 결정하도록 구성되고,
상기 예측 모델은,
상기 복수의 의료 영상 각각을 입력으로 하여 상기 복수의 서브 목적 부위의 종류 (class) 및 상기 복수의 서브 목적 부위의 영역에 대응하는 바운딩 박스(bounding box)를 예측하고, 상기 복수의 의료 영상 각각에 상기 예측된 종류 및 바운딩 박스를 나타낸 예측 결과 데이터를 출력하도록 구성되는, 의료 영상 기반 질환 중증도 결정 장치.
a communication unit configured to transmit and receive data; and
Including a control unit configured to connect with the communication unit,
The control unit,
Obtaining a plurality of medical images (the medical images are x-ray images) in which the front, side, and back surfaces of the face including the paranasal sinuses, which are the target part of the subject, are photographed from the photographing device through the communication unit;
Based on the plurality of medical images, a plurality of sub-target parts, left maxillary sinus, right maxillary sinus, left anterior sinus, right anterior right sinus, left ethmoid sinus, right ethmoid sinus, left sphenoid sinus, observable from the front, side, and rear surfaces of the paranasal sinus, which is the target part, and obtaining data as a result of predicting a region of a target region from each medical image using a prediction model learned to predict a region corresponding to the right sphenoid sinus;
configured to determine the severity of the disease by using a classification model learned to classify the severity of the disease for each region of the plurality of sub-target regions based on the result data;
The predictive model,
Using each of the plurality of medical images as an input, a class of the plurality of sub-target regions and a bounding box corresponding to the region of the plurality of sub-target regions are predicted, and each of the plurality of medical images Medical image-based disease severity determination apparatus configured to output prediction result data representing the predicted type and bounding box.
삭제delete 삭제delete 삭제delete 제1항에 있어서, 상기 제어부는,
상기 예측 결과 데이터에서 상기 바운딩 박스를 크롭(crop)한 크롭 영상을 생성하고,
상기 생성된 크롭 영상은, 상기 분류 모델의 입력값으로 입력되는, 의료 영상 기반 질환 중증도 결정 장치.
The method of claim 1, wherein the control unit,
generating a cropped image obtained by cropping the bounding box from the prediction result data;
The generated cropped image is input as an input value of the classification model, a medical image-based disease severity determination device.
제5항에 있어서, 상기 분류 모델은,
복수의 크롭 영상을 입력으로 하여 특징 데이터를 출력하는 복수의 인공신경망, 상기 복수의 인공신경망을 통해서 출력된 특징 데이터를 통합하여 통합 특징 데이터를 출력하는 풀링(pooling) 계층, 및 상기 통합 특징 데이터를 입력으로 하여 상기 질환 중증도를 분류한 분류 결과 데이터를 출력하는 인공신경망을 포함하는, 의료 영상 기반 질환 중증도 결정 장치.
The method of claim 5, wherein the classification model,
A plurality of artificial neural networks that output feature data by taking a plurality of cropped images as inputs, a pooling layer that outputs integrated feature data by integrating feature data output through the plurality of artificial neural networks, and the integrated feature data A medical image-based disease severity determination apparatus comprising an artificial neural network for outputting classification result data obtained by classifying the disease severity as an input.
제6항에 있어서, 상기 분류 결과 데이터는,
적어도 하나의 서브 목적 부위의 영역에 대한 질환 중증도를 분류한 결과 데이터인, 의료 영상 기반 질환 중증도 결정 장치.
The method of claim 6, wherein the classification result data,
An apparatus for determining disease severity based on medical images, which is data obtained by classifying disease severity for at least one region of a sub-target region.
의료 영상 기반 질환 중증도 결정 장치의 제어부에 의해서 수행되는 의료 영상 기반 질환 중증도 결정 방법에 있어서,
촬영 장치로부터 피검자의 목적 부위인 부비동을 포함하는 얼굴 전면, 측면 및 후면을 촬영한 복수의 의료 영상-상기 의료 영상은 엑스레이(x-ray) 영상임-을 획득하는 단계;
상기 복수의 의료 영상을 기초로 상기 목적 부위인 부비동의 전면, 측면 및 후면에서 관찰 가능한 복수의 서브 목적 부위인 좌측 상악동, 우측 상악동, 좌측 전우동, 우측 전우동, 좌측 사골동, 우측 사골동, 좌측 접형동 및 우측 접형동에 해당하는 영역을 예측하도록 학습된 예측 모델을 이용하여 각 의료 영상으로부터 목적 부위의 영역을 예측한 결과 데이터를 획득하는 단계; 및
상기 결과 데이터를 기초로 상기 복수의 서브 목적 부위 각각의 영역에 대한 질환 중증도를 분류하도록 학습된 분류 모델을 이용하여 상기 질환 중증도를 결정하는 단계를 포함하고,
상기 예측 모델은,
상기 복수의 의료 영상 각각을 입력으로 하여 상기 복수의 서브 목적 부위의 종류 (class) 및 상기 복수의 서브 목적 부위의 영역에 대응하는 바운딩 박스(bounding box)를 예측하고, 상기 복수의 의료 영상 각각에 상기 예측된 종류 및 바운딩 박스를 나타낸 예측 결과 데이터를 출력하도록 구성되는, 의료 영상 기반 질환 중증도 결정 방법.
In the method for determining the severity of a disease based on a medical image performed by a control unit of an apparatus for determining the severity of a disease based on a medical image,
acquiring a plurality of medical images of the front, side, and back surfaces of the subject's face including the paranasal sinuses, the medical images being X-ray images, from a photographing device;
Based on the plurality of medical images, a plurality of sub-target parts, left maxillary sinus, right maxillary sinus, left anterior sinus, right anterior right sinus, left ethmoid sinus, right ethmoid sinus, left sphenoid sinus, observable from the front, side, and rear surfaces of the paranasal sinus, which is the target part, and obtaining data as a result of predicting a region of a target region from each medical image using a prediction model learned to predict a region corresponding to the right sphenoid sinus; and
determining the severity of the disease by using a classification model learned to classify the severity of the disease for each of the plurality of sub-target regions based on the result data;
The predictive model,
Using each of the plurality of medical images as an input, a class of the plurality of sub-target regions and a bounding box corresponding to the region of the plurality of sub-target regions are predicted, and each of the plurality of medical images The medical image-based disease severity determination method configured to output prediction result data representing the predicted type and bounding box.
삭제delete 삭제delete 삭제delete 제8항에 있어서,
상기 예측 결과 데이터에서 상기 바운딩 박스를 크롭(crop)한 크롭 영상을 생성하는 단계를 더 포함하고,
상기 생성된 크롭 영상은, 상기 분류 모델의 입력값으로 입력되는, 의료 영상 기반 질환 중증도 결정 방법.
According to claim 8,
Further comprising generating a cropped image obtained by cropping the bounding box from the prediction result data;
The generated cropped image is input as an input value of the classification model, the medical image-based disease severity determination method.
제12항에 있어서, 상기 분류 모델은,
복수의 크롭 영상을 입력으로 하여 특징 데이터를 출력하는 복수의 인공신경망, 상기 복수의 인공신경망을 통해서 출력된 특징 데이터를 통합하여 통합 특징 데이터를 출력하는 풀링(pooling) 계층, 및 상기 통합 특징 데이터를 입력으로 하여 상기 질환 중증도를 분류한 분류 결과 데이터를 출력하는 인공신경망을 포함하는, 의료 영상 기반 질환 중증도 결정 방법.
The method of claim 12, wherein the classification model,
A plurality of artificial neural networks that take a plurality of cropped images as input and output feature data, a pooling layer that outputs integrated feature data by integrating feature data output through the plurality of artificial neural networks, and the integrated feature data A method for determining disease severity based on medical images, comprising an artificial neural network outputting classification result data obtained by classifying the severity of the disease as an input.
제13항에 있어서, 상기 분류 결과 데이터는,
적어도 하나의 서브 목적 부위의 영역에 대한 질환 중증도를 분류한 결과 데이터인, 의료 영상 기반 질환 중증도 결정 방법.
The method of claim 13, wherein the classification result data,
A method for determining disease severity based on medical images, which is data obtained by classifying disease severity for at least one region of a sub-target region.
KR1020200176280A 2020-12-16 2020-12-16 Apparatus and method for determining disease severity based on medical image KR102530010B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200176280A KR102530010B1 (en) 2020-12-16 2020-12-16 Apparatus and method for determining disease severity based on medical image
PCT/KR2021/018250 WO2022131642A1 (en) 2020-12-16 2021-12-03 Apparatus and method for determining disease severity on basis of medical images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200176280A KR102530010B1 (en) 2020-12-16 2020-12-16 Apparatus and method for determining disease severity based on medical image

Publications (2)

Publication Number Publication Date
KR20220086128A KR20220086128A (en) 2022-06-23
KR102530010B1 true KR102530010B1 (en) 2023-05-08

Family

ID=82059661

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200176280A KR102530010B1 (en) 2020-12-16 2020-12-16 Apparatus and method for determining disease severity based on medical image

Country Status (2)

Country Link
KR (1) KR102530010B1 (en)
WO (1) WO2022131642A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102525371B1 (en) * 2022-10-04 2023-04-25 에이트스튜디오 주식회사 Diagnostic methods and devices
KR102612527B1 (en) * 2023-04-17 2023-12-11 제이피아이헬스케어 주식회사 Medical imaging apparatus for obtaining imaging information of radiographic image of equine and operating method thereof
CN117351432B (en) * 2023-12-04 2024-02-23 环球数科集团有限公司 Training system for multi-target recognition model of scenic spot tourist

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101825459B1 (en) 2016-08-05 2018-03-22 재단법인대구경북과학기술원 Multi-class objects detection apparatus and method thereof
JP2020010804A (en) 2018-07-17 2020-01-23 大日本印刷株式会社 Medical image diagnosis support apparatus, program, and medical image diagnosis support method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100998630B1 (en) * 2008-07-24 2010-12-07 울산대학교 산학협력단 Method for automatic classifier of lung diseases
KR101740464B1 (en) * 2016-10-20 2017-06-08 (주)제이엘케이인스펙션 Method and system for diagnosis and prognosis of stroke and systme therefor
KR102046240B1 (en) * 2018-01-08 2019-11-18 고려대학교 산학협력단 Apparatus and method for lesion screening
KR101957811B1 (en) * 2018-08-07 2019-03-13 주식회사 뷰노 Method for computing severity with respect to dementia of subject based on medical image and apparatus using the same
KR102198884B1 (en) * 2018-10-26 2021-01-05 재단법인 아산사회복지재단 Method and program for the early detection of delirium and the severityd of delirium
US10811135B2 (en) * 2018-12-27 2020-10-20 General Electric Company Systems and methods to determine disease progression from artificial intelligence detection output
KR20190134586A (en) * 2019-11-28 2019-12-04 연세대학교 산학협력단 Method for predicting diseases and device for predicting diseases using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101825459B1 (en) 2016-08-05 2018-03-22 재단법인대구경북과학기술원 Multi-class objects detection apparatus and method thereof
JP2020010804A (en) 2018-07-17 2020-01-23 大日本印刷株式会社 Medical image diagnosis support apparatus, program, and medical image diagnosis support method

Also Published As

Publication number Publication date
KR20220086128A (en) 2022-06-23
WO2022131642A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
KR102530010B1 (en) Apparatus and method for determining disease severity based on medical image
TWI793337B (en) Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
Wang et al. Automatically discriminating and localizing COVID-19 from community-acquired pneumonia on chest X-rays
TWI813696B (en) Systems and methods for processing real-time video from a medical image device and detecting objects in the video
WO2020215984A1 (en) Medical image detection method based on deep learning, and related device
JP6657132B2 (en) Image classification device, method and program
US20220051405A1 (en) Image processing method and apparatus, server, medical image processing device and storage medium
KR101874348B1 (en) Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same
US11715198B2 (en) Medical use artificial neural network-based medical image analysis apparatus and method for evaluating analysis results of medical use artificial neural network
US9990710B2 (en) Apparatus and method for supporting computer aided diagnosis
CN111325714B (en) Method for processing region of interest, computer device and readable storage medium
KR102078876B1 (en) Method and system for detecting pneumothorax
CN114830107A (en) Image processing system, image processing apparatus, endoscope system, interface, and image processing method
JP2021069793A (en) Image processing device, image processing method and program
Galdran et al. Real-time informative laryngoscopic frame classification with pre-trained convolutional neural networks
JP6988926B2 (en) Image processing equipment, image processing method and image processing program
JP7409134B2 (en) Image processing method, image processing program, and image processing device
KR20220083477A (en) Apparatus and method for providing hologram based on medical image
US20220319707A1 (en) System, Method and Computer Readable Medium for Video-Based Facial Weakness Analysis for Detecting Neurological Deficits
Ankireddy Assistive diagnostic tool for brain tumor detection using computer vision
Rao et al. OCTAI: Smartphone-based Optical Coherence Tomography Image Analysis System
Chan et al. Identifying Pediatric Vascular Anomalies With Deep Learning
KR102517565B1 (en) Method and device for constructing deep learning model for detecting abdominal cold sensation area
KR102433054B1 (en) Apparatus for predicting metadata of medical image and method thereof
US20230122280A1 (en) Systems and methods for providing visual indicators during colonoscopy

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant