KR20230050253A - Method for detecting pleurl effusion and the apparatus for therof - Google Patents

Method for detecting pleurl effusion and the apparatus for therof Download PDF

Info

Publication number
KR20230050253A
KR20230050253A KR1020220127462A KR20220127462A KR20230050253A KR 20230050253 A KR20230050253 A KR 20230050253A KR 1020220127462 A KR1020220127462 A KR 1020220127462A KR 20220127462 A KR20220127462 A KR 20220127462A KR 20230050253 A KR20230050253 A KR 20230050253A
Authority
KR
South Korea
Prior art keywords
image information
image
chest
pleural effusion
heart
Prior art date
Application number
KR1020220127462A
Other languages
Korean (ko)
Inventor
김한석
유영성
스리니바산 기리시
피재우
Original Assignee
주식회사 피맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피맥스 filed Critical 주식회사 피맥스
Priority to KR1020220127462A priority Critical patent/KR20230050253A/en
Publication of KR20230050253A publication Critical patent/KR20230050253A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/467Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Abstract

The present disclosure relates to a method for detecting pleural effusion and an apparatus therefor. The method for detecting pleural effusion according to an embodiment of the present disclosure may include the steps of: obtaining a chest image generated corresponding to a continuous volume of the chest of a user; generating first image information by removing the heart and blood vessels surrounding the heart from the chest image; generating second image information by extracting a lung region including a lung and a pleura from the first image information; and detecting a site of pleural effusion between the lung and the pleura from the second image information.

Description

흉막 삼출의 검출 방법 및 이를 위한 장치{METHOD FOR DETECTING PLEURL EFFUSION AND THE APPARATUS FOR THEROF}Method for detecting pleural effusion and device therefor

본 개시(disclosure)의 기술적 사상은 흉막 삼출의 검출 방법 및 이를 위한 장치에 관한 것이다.The technical idea of the present disclosure relates to a method for detecting pleural effusion and an apparatus therefor.

흉막 삼출은 폐의 흉막에서 체액 성분이 스며 나오는 삼출 증상이 나타나는 질환이다. 통상적으로 흉막 안쪽으로 소량의 체액이 일정하게 생성되어 들어가는데, 체액의 생성이 많아지는 질환이나 체액의 흡수가 감소되면, 과도한 흉수가 흉막 내에 고여 있음으로써, 흉막 삼출이 발생하게 된다. Pleural effusion is a disease in which fluid is exuded from the pleura of the lungs. Normally, a small amount of bodily fluid is constantly produced and entered into the pleura, but when a disease in which bodily fluid production increases or absorption of bodily fluid is reduced, excessive pleural fluid accumulates in the pleura, resulting in pleural effusion.

흉막 삼출을 해소하기 위해, 흉수를 신체 외부로 배출하기 위해 흉막 공간 내로 바늘을 넣어 주사기로 흉수 일부를 뽑아내는 흉수 천자가 수행되는데, 이때 천자할 부분의 정확한 위치를 파악하는 것이 필수적이다.In order to relieve pleural effusion, pleural puncture is performed in which a needle is inserted into the pleural space to drain the pleural fluid to the outside of the body and a portion of the pleural fluid is drawn out with a syringe.

이를 위해 종래에는 2차원인 흉부 X선 영상이나 초음파 영상에 나타난 흉막 삼출의 부위의 크기를 수동으로 계측한 뒤, 이를 토대로 총량을 추측하였는데, 이는 정확한 위치 파악이 어렵다는 문제가 있었다.To this end, conventionally, after manually measuring the size of the pleural effusion site shown in the two-dimensional chest X-ray image or ultrasound image, the total amount was estimated based on this, but there was a problem in that it was difficult to accurately locate it.

또한, 이를 해결하기 위해 반자동 혹은 자동으로 방사선 영상으로부터 흉막 삼출을 검출하려는 시도가 있었지만, 흉수는 폐 주변의 다른 연조직과 밝기 값이 유사하기 때문에 정확한 경계를 파악하기 어려운 문제가 있었다.In addition, attempts have been made to semi-automatically or automatically detect pleural effusion from radiographic images to solve this problem, but since the pleural fluid has a similar brightness value to other soft tissues around the lungs, it is difficult to determine the exact boundary.

본 개시의 기술적 사상에 따른 흉막 삼출의 검출 방법 및 이를 위한 장치가 이루고자 하는 기술적 과제는, 흉부 영상으로부터 정확하고 신속하게 폐 영역을 검출하고, 이로부터 흉막 삼출을 검출할 수 있는 흉막 삼출의 검출 방법 및 그 장치를 제공하는 데에 있다. A technical problem to be achieved by a method for detecting pleural effusion and an apparatus therefor according to the technical idea of the present disclosure is a method for detecting pleural effusion capable of accurately and quickly detecting a lung region from a chest image and detecting pleural effusion therefrom. and to provide the device.

본 개시의 기술적 사상에 따른 흉막 삼출의 검출 방법 및 이를 위한 장치가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제는 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical tasks to be achieved by a method for detecting pleural effusion and an apparatus therefor according to the technical idea of the present disclosure are not limited to the tasks mentioned above, and other tasks not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

본 개시의 기술적 사상에 의한 일 양태에 따르면, 흉막 삼출의 검출 방법은, 사용자의 흉부의 연속적인 부피에 대응하여 생성된 흉부 영상을 획득하는 단계; 상기 흉부 영상에서 심장 및 심장 주변 혈관을 제거함으로써 제 1 영상 정보를 생성하는 단계; 상기 제 1 영상 정보에서 폐 및 흉막을 포함하는 폐 영역을 추출하여 제 2 영상 정보를 생성하는 단계; 및 상기 제 2 영상 정보에서 상기 폐와 상기 흉막 사이의 흉막 삼출 부위를 검출하는 단계를 포함할 수 있다. According to one aspect of the technical concept of the present disclosure, a method for detecting pleural effusion includes obtaining a chest image generated corresponding to a continuous volume of a user's chest; generating first image information by removing the heart and blood vessels surrounding the heart from the chest image; generating second image information by extracting a lung region including a lung and a pleura from the first image information; and detecting a site of pleural effusion between the lung and the pleura from the second image information.

예시적인 실시예에 따르면, 상기 심장 주변 혈관은 상기 심장에 연결되는 대동맥, 대정맥, 폐동맥 및 폐정맥을 포함할 수 있다.According to an exemplary embodiment, the blood vessels around the heart may include an aorta, a vena cava, a pulmonary artery, and a pulmonary vein connected to the heart.

예시적인 실시예에 따르면, 상기 제 2 영상 정보를 생성하는 단계는, 상기 제 1 영상 정보에서 흉곽 및 횡격막을 인식하는 단계; 및 상기 제 1 영상 정보에서 상기 흉곽 및 상기 횡격막 내측에 위치하는 상기 폐 영역을 추출하는 단계를 포함할 수 있다.According to an exemplary embodiment, the generating of the second image information may include recognizing a chest and a diaphragm from the first image information; and extracting the lung region located inside the chest and the diaphragm from the first image information.

예시적인 실시예에 따르면, 상기 제 2 영상 정보를 생성하는 단계는, 상기 제 1 영상 정보에서 흉곽 및 횡격막을 인식하는 단계; 및 상기 제 1 영상 정보에서 상기 흉곽 및 상기 횡격막을 제거하는 단계를 포함할 수 있다.According to an exemplary embodiment, the generating of the second image information may include recognizing a chest and a diaphragm from the first image information; and removing the ribcage and the diaphragm from the first image information.

예시적인 실시예에 따르면, 상기 흉막 삼출 부위의 부피를 산출하는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the method may further include calculating a volume of the pleural effusion site.

예시적인 실시예에 따르면, 상기 흉막 삼출 부위를 소정의 식별 표지로 라벨링한 제 3 영상 정보를 생성하는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the method may further include generating third image information in which the pleural effusion site is labeled with a predetermined identification mark.

예시적인 실시예에 따르면, 상기 흉부 영상은 3차원 영상 또는 복수의 2차원 영상을 포함하는 영상군일 수 있다.According to an exemplary embodiment, the chest image may be a 3D image or an image group including a plurality of 2D images.

본 개시의 기술적 사상에 의한 일 양태에 따르면, 흉막 삼출의 검출 장치는, 흉막 삼출의 검출을 위한 프로그램을 저장하는 메모리; 및 상기 프로그램을 실행함으로써, 사용자의 흉부의 연속적인 부피에 대응하여 생성된 흉부 영상을 획득하고, 상기 흉부 영상에서 심장 및 심장 주변 혈관을 제거함으로써 제 1 영상 정보를 생성하고, 상기 제 1 영상 정보에서 폐 및 흉막을 포함하는 폐 영역을 추출하여 제 2 영상 정보를 생성하며, 상기 제 2 영상 정보에서 상기 폐와 상기 흉막 사이의 흉막 삼출 부위를 검출하는 적어도 하나의 프로세서를 포함할 수 있다.According to one aspect of the technical concept of the present disclosure, an apparatus for detecting pleural effusion includes a memory for storing a program for detecting pleural effusion; and by executing the program, a chest image generated corresponding to the continuous volume of the user's chest is acquired, and first image information is generated by removing the heart and blood vessels around the heart from the chest image, and the first image information It may include at least one processor for generating second image information by extracting a lung region including a lung and a pleura, and detecting a region of pleural effusion between the lung and the pleura from the second image information.

본 개시의 기술적 사상에 의한 일 양태에 따르면, 흉막 삼출의 검출 방법을 실행하기 위해 기록 매체에 저장되는 컴퓨터 프로그램이 제공될 수 있다.According to one aspect of the technical idea of the present disclosure, a computer program stored in a recording medium may be provided to execute a method for detecting pleural effusion.

본 개시의 기술적 사상에 의한 실시예들에 따른 흉막 삼출의 검출 장치 및 이를 위한 장치에 따르면, 흉부 영상 폐 영역을 빠르고 정확하게 검출하고, 흉막 삼출을 검출할 수 있다.According to the apparatus for detecting pleural effusion and the apparatus for detecting pleural effusion according to embodiments according to the technical concept of the present disclosure, a lung region in a chest image can be quickly and accurately detected, and pleural effusion can be detected.

또한, 흉막 삼출의 위치 및/또는 양을 파악함으로써, 흉막 천자(튜브를 통한 흉수 배출)가 정확하게 안전하게 이루어지도록 할 수 있다. 특히, 배출해야 하는 흉수의 양은 치료 경과를 정확하게 파악하는 지표가 될 수 있다. In addition, by determining the location and/or amount of pleural effusion, pleural puncture (discharge of pleural fluid through a tube) can be performed accurately and safely. In particular, the amount of pleural fluid to be discharged can be an indicator for accurately understanding the progress of treatment.

또한, 폐렴, 외상, 결핵, 암 등을 영상으로 진단하고 이를 치료하는 과정에 있어, 흉막 삼출이 동반된 경우 적극적으로 이를 알림으로서 오진 확률을 줄일 수 있다. also, In the process of diagnosing and treating pneumonia, trauma, tuberculosis, cancer, etc. with images, the probability of misdiagnosis can be reduced by actively notifying when pleural effusion is accompanied.

또한, 경도의 흉막 삼출이 일어난 경우, 통증을 비롯한 자각 증상이 적거나 없을 수 있지만, 환자가 건강검진 등을 통해 주기적 영상 진단을 하는 과정에서 흉막 삼출을 자동으로 인식하고 경고하여 조기에 검사와 치료가 이루어지도록 할 수 있다.In addition, when mild pleural effusion occurs, there may be little or no subjective symptoms, including pain, but the patient automatically recognizes and warns of pleural effusion during periodic imaging through health checkups, etc. for early examination and treatment. can be made possible.

또한, 흉막 삼출의 위치를 3차원 영상으로 표현하여 제공함으로써, 효과적인 흉수 배출을 위한 천자 위치를 결정하는데 도움을 주며, 잔여 흉수 파악을 위한 방사선 촬영의 횟수를 감소시킴으로써 환자의 방사선 피폭에 대한 우려 및 검사 비용에 따른 부담을 줄일 수 있다.In addition, by providing the location of pleural effusion expressed as a 3D image, it helps to determine the location of the puncture for effective drainage of pleural fluid, and reduces the number of radiographs to identify residual pleural fluid, thereby reducing concerns about radiation exposure of patients and It can reduce the burden of inspection cost.

본 개시의 기술적 사상에 따른 흉막 삼출의 검출 장치 및 이를 위한 장치가 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable by the device for detecting pleural effusion and the device therefor according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are in the technical field to which the present disclosure belongs from the description below. It will be clearly understood by those skilled in the art.

본 개시에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 개시의 실시예에 따른 흉막 삼출의 검출 방법을 설명하기 위한 흐름도이다.
도 2 내지 도 4는 본 개시의 실시예에 따라 흉막 삼출이 검출되는 과정을 설명하기 위한 예시 도면이다.
도 5는 본 개시의 실시예에 따른 흉막 삼출의 검출 방법에 있어서, 대상 신체 부위의 평균 형상을 생성하는 과정을 설명하기 위한 흐름도이다.
도 6은 본 개시의 실시예에 따른 흉막 삼출의 검출 방법에 있어서, 영상 정보로부터 대상 신체 부위의 형상을 생성하여 신체 부위를 인식하는 과정을 설명하기 위한 흐름도이다.
도 7은 본 개시의 실시예에 따른 흉막 삼출의 검출 장치의 구성을 간략히 도시한 블록도이다.
A brief description of each figure is provided in order to more fully understand the figures cited in this disclosure.
1 is a flowchart illustrating a method for detecting pleural effusion according to an embodiment of the present disclosure.
2 to 4 are exemplary views for explaining a process of detecting pleural effusion according to an embodiment of the present disclosure.
5 is a flowchart illustrating a process of generating an average shape of a target body part in a method for detecting pleural effusion according to an embodiment of the present disclosure.
6 is a flowchart illustrating a process of recognizing a body part by generating a shape of a target body part from image information in a method for detecting pleural effusion according to an embodiment of the present disclosure.
7 is a block diagram briefly illustrating the configuration of an apparatus for detecting pleural effusion according to an embodiment of the present disclosure.

본 개시의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 그러나, 이는 본 개시의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technical spirit of the present disclosure may be subject to various changes and may have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the technical spirit of the present disclosure to specific embodiments, and should be understood to include all changes, equivalents, or substitutes included in the scope of the technical spirit of the present disclosure.

본 개시의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 개시의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the technical idea of the present disclosure, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present disclosure, the detailed description will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present disclosure are only identifiers for distinguishing one component from another component.

또한, 본 개시에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present disclosure, when one component is referred to as "connected" or "connected" to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.

또한, 본 개시에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processer), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "~ unit", "~ group", "~ character", and "~ module" described in the present disclosure mean a unit that processes at least one function or operation, which includes a processor, a micro Processor (Micro Processor), Micro Controller, CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array) may be implemented by hardware or software or a combination of hardware and software.

그리고 본 개시에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.In addition, it is intended to make it clear that the classification of components in the present disclosure is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .

본 개시의 실시예에 따른 흉막 삼출의 검출 방법은 연산 능력을 구비한 개인용 컴퓨터(Personal Computer), 워크스테이션(work station), 서버용 컴퓨터 장치 등에서 수행되거나 이를 위한 별도의 장치에서 수행될 수 있다. The method for detecting pleural effusion according to an embodiment of the present disclosure may be performed in a personal computer, a workstation, a computer device for a server, or the like, or a separate device for this purpose.

또한, 방법은 하나 이상의 연산 장치들에서 수행될 수도 있다. 예를 들어, 본 개시의 실시예에 따른 방법 중 적어도 하나 이상의 단계들은 클라이언트 디바이스에서, 다른 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우, 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 방법은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.Also, the method may be performed on one or more computing devices. For example, at least one or more steps of a method according to an embodiment of the present disclosure may be performed by a client device and other steps may be performed by a server device. In this case, the client device and the server device may be connected through a network to transmit and receive calculation results. Alternatively, the method may be performed by distributed computing technology.

본 명세서에 걸쳐, 네트워크 함수는 신경망 네트워크 및/또는 뉴럴 네트워크(neural network)와 동일한 의미로 사용될 수 있다. 여기서, 뉴럴 네트워크(신경망)는 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있고, 이러한 노드들은 뉴런으로 지칭될 수 있다. 뉴럴 네트워크는 일반적으로 복수의 노드들을 포함하여 구성된다. 뉴럴 네트워크를 구성하는 노드들은 하나 이상의 링크에 의해 상호 연결될 수 있다.Throughout this specification, network function may be used interchangeably with neural network and/or neural network. Here, a neural network (neural network) may be composed of a set of interconnected computational units, which may be generally referred to as nodes, and these nodes may be referred to as neurons. A neural network is generally composed of a plurality of nodes. Nodes constituting a neural network may be interconnected by one or more links.

뉴럴 네트워크를 구성하는 노드들 중 일부는 최초 입력 노드로부터의 거리들에 기초하여 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은 n 레이어를 구성할 수 있다.Some of the nodes constituting the neural network may form one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers.

본 명세서에서 설명하는 뉴럴 네트워크는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 딥 뉴럴 네트워크(Deep Neural Network, DNN)를 포함할 수 있다.The neural network described in this specification may include a deep neural network (DNN) including a plurality of hidden layers in addition to an input layer and an output layer.

이하, 본 개시의 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail in turn.

도 1은 본 개시의 실시예에 따른 흉막 삼출의 검출 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a method for detecting pleural effusion according to an embodiment of the present disclosure.

S110 단계에서, 흉막 삼출의 검출 장치는, 흉부의 연속적인 부피에 대응하여 생성된 흉부 영상을 획득할 수 있다. 흉부 영상은 사용자의 흉부를 촬영하여 생성되는, 예를 들어, MR 촬영 영상, CT 촬영 영상, X-RAY 촬영 영상 등일 수 있다. 예를 들어, 흉부 영상은 3차원 영상으로서, 복수의 2차원 영상으로 분리될 수 있다. 또한, 예를 들어, 흉부 영상은 복수의 2차원 영상을 포함하는 영상군으로서, 각각의 2차원 영상은 흉부의 단면을 일 방향으로 연속하여 촬영한 복수의 슬라이스일 수 있다. 이러한 2차원 영상을 적층함으로써, 흉부에 대한 3차원 영상 정보를 획득할 수 있게 된다. 흉부는 적어도 횡격막에서 흉곽(가슴우리)을 포함하는 신체 영역을 포함할 수 있다. In step S110 , the pleural effusion detection device may acquire a chest image generated corresponding to the continuous volume of the chest. The chest image may be, for example, an MR scan image, a CT scan image, an X-RAY scan image, or the like, generated by capturing the user's chest. For example, a chest image is a 3D image and may be divided into a plurality of 2D images. Also, for example, the chest image is an image group including a plurality of 2D images, and each 2D image may be a plurality of slices obtained by continuously photographing a cross section of the chest in one direction. By stacking these 2D images, it is possible to obtain 3D image information on the chest. The chest can include the area of the body that includes at least the diaphragm to the ribcage (chest cage).

S120 단계에서, 흉막 삼출의 검출 장치는, 흉부 영상에서 폐 영역에 인접한 생체 기관을 제거하여 제 1 영상 정보를 생성할 수 있다. 이때 폐 영역에 인접한 생체 기관은 심장 및 심장 주변 혈관을 포함할 수 있으며, 또한 심장 주변 혈관은 심장과 연결된 대동맥, 대정맥, 폐동맥 및 폐정맥을 포함할 수 있다. 즉, S120 단계를 통해, 폐 영역에 인접한 심장 및 심장 주변 혈관을 제거하여, 흉부 영상 내에서 폐 영역을 주변 조직, 기관 등으로부터 분리시킬 수 있다. 이는 흉막 삼출이 발생할 경우, 흉수가 폐 영역에 인접한 다른 생체 기관(예를 들어, 심장 등)과 비슷한 음영, 밝기를 가지므로, 그 경계를 명확하게 파악하기 어렵다는 점을 고려한 것으로서, 정상적인 생체 기관을 먼저 인식하고, 이를 흉부 영상에서 제거함으로써, 결과적으로 제 1 영상 정보에서 폐 영역이 남도록 하기 위한 것이다.In operation S120 , the apparatus for detecting pleural effusion may generate first image information by removing living organs adjacent to the lung region from the chest image. In this case, the living organ adjacent to the lung region may include the heart and blood vessels around the heart, and the blood vessels around the heart may include the aorta, vena cava, pulmonary artery, and pulmonary vein connected to the heart. That is, in operation S120 , the lung region may be separated from surrounding tissues, organs, and the like in the chest image by removing the heart adjacent to the lung region and blood vessels surrounding the heart. This is in consideration of the fact that when pleural effusion occurs, the pleural fluid has a similar shade and brightness to other living organs (eg, heart) adjacent to the lung area, so it is difficult to clearly determine the boundary. This is to first recognize and remove it from the chest image, so that the lung region remains in the first image information as a result.

실시예에서, S120 단계는, 흉부 영상으로부터 심장 및 심장 주변 혈관을 식별하는 단계; 및 흉부 영상으로부터 심장 및 심장 주변 혈관을 제거하는 단계를 포함할 수 있다. In an embodiment, step S120 may include identifying a heart and blood vessels surrounding the heart from the chest image; and removing the heart and peripheral blood vessels from the chest image.

실시예에 따라, S120 단계는, 흉부 영상을 학습된 제 1 네트워크 함수에 입력하여 수행될 수 있다. 이때 제 1 네트워크 함수는 학습 데이터(예를 들어, 전문가 등에 의해 라벨링된 심장, 심장 주변 혈관 등이 포함된 영상 등)를 통해 사전에 흉부 내의 심장 및/또는 심장 주변 혈관의 추출에 대한 학습이 수행된 것일 수 있다.Depending on the embodiment, step S120 may be performed by inputting the chest image to the learned first network function. At this time, the first network function learns to extract the heart and/or blood vessels surrounding the heart in advance through learning data (eg, an image including a heart labeled by an expert, a blood vessel around the heart, etc.) may have been

S130 단계에서, 흉막 삼출의 검출 장치는, 제 1 영상 정보에서 폐 영역을 추출하여 제 2 영상 정보를 생성할 수 있다. 여기서 폐 영역은 폐 및 폐를 둘러싸는 흉막(즉, 내장쪽가슴막(Visceral pleura) 및 벽쪽가슴막(Parietal pleura))을 포함할 수 있다. In operation S130 , the apparatus for detecting pleural effusion may generate second image information by extracting a lung region from the first image information. Here, the lung region may include lungs and pleura surrounding the lungs (ie, visceral pleura and parietal pleura).

실시예에 따라, 제 2 영상 정보는 제 1 영상 정보에서 폐 영역 외의 영역을 제거하여 수행되거나, 제 1 영상 정보에서 폐 영역을 분리하여 수행될 수 있다. 이때 제 2 영상 정보는, 예를 들어, 폐 영역만을 표시하여 생성되거나, 흉부 영상, 제 1 영상 정보, 또는 이로부터 가공된 영상 정보 등에서 폐 영역을 소정의 식별 표지로 라벨링하여 생성될 수 있다. 또한, 제 2 영상 정보는 예를 들어, 폐 영역에 대한 좌표 정보를 포함하는 데이터일 수 있다. Depending on embodiments, the second image information may be performed by removing regions other than the lung region from the first image information or by separating the lung region from the first image information. In this case, the second image information may be generated by displaying only the lung region or by labeling the lung region with a predetermined identification mark in the chest image, the first image information, or image information processed therefrom. Also, the second image information may be, for example, data including coordinate information about the lung region.

실시예에서, S130 단계는, 제 1 영상 정보에서 흉곽 및 횡격막을 인식하는 단계; 및 제 1 영상 정보에서 흉곽 및 횡격막 내측에 위치하는 폐 영역을 추출하는 단계를 포함할 수 있다. 즉, 제 1 영상 정보에서 흉곽 및 횡격막의 내측 영역을 먼저 인식하도록 하고, 해당 영역 내에는 S120 단계에 의해 폐 주변 생체 조직(즉, 심장 및 심장 주변 혈관)이 제거되어, 폐 영역만이 주변과 구분되도록 남아 있으므로, 용이하게 폐 영역을 추출하여 제 2 영상 정보를 생성할 수 있다.In an embodiment, step S130 may include recognizing a chest and a diaphragm from the first image information; and extracting a lung region located inside the thorax and diaphragm from the first image information. That is, in the first image information, the inner regions of the thorax and diaphragm are first recognized, and in the corresponding region, biological tissues around the lungs (ie, the heart and blood vessels around the heart) are removed in step S120, so that only the lung regions are separated from the surroundings. Since it remains to be distinguished, it is possible to easily extract the lung region to generate second image information.

실시예에서, S130 단계는, 제 1 영상 정보에서 흉곽 및 횡격막을 인식하는 단계; 및 제 1 영상 정보에서 흉곽 및 횡격막을 제거하는 단계를 포함할 수 있다. 제 1 영상 정보에서 흉곽 및 횡격막을 제거함으로써, 폐 영역만이 남아 있는 제 2 영상 정보를 생성할 수 있다. 부가적으로, S130 단계는, 흉막 삼출을 검출하는데 불필요한 생체 조직을 제거하는 단계를 더 포함할 수 있다. 이때 불필요한 생체 조직은 근육, 막 등을 포함할 수 있다.In an embodiment, step S130 may include recognizing a chest and a diaphragm from the first image information; and removing the chest and diaphragm from the first image information. By removing the chest and the diaphragm from the first image information, the second image information in which only the lung region remains may be generated. Additionally, step S130 may further include removing biological tissue unnecessary for detecting pleural effusion. In this case, the unnecessary living tissue may include muscle, membrane, and the like.

실시예에 따라, S130 단계는 제 1 영상 정보를 학습된 제 2 네트워크 함수에 입력하여 수행될 수 있다. 이때 제 2 네트워크 함수는 학습 데이터(예를 들어, 전문가 등에 의해 라벨링된 흉곽, 횡격막, 폐 영역 등이 포함된 영상 등)를 통해 사전에 흉곽, 횡격막, 폐 영역 등의 추출에 대한 학습이 수행된 것일 수 있다.Depending on the embodiment, step S130 may be performed by inputting the first image information to the learned second network function. At this time, the second network function is trained on extraction of the chest, diaphragm, lung region, etc. in advance through learning data (eg, images including the chest, diaphragm, lung region, etc. labeled by experts, etc.) it could be

S140 단계에서, 흉막 삼출의 검출 장치는, 제 2 영상 정보로부터 흉막 삼출 부위를 검출할 수 있다. 흉막 삼출은 흉막에서 스며 나온 흉수가 흉막강(폐와 흉막 사이의 공간)에 정상 이상으로 고여 있는 것으로서, 제 2 영상 정보에서 폐 영역(특히, 흉막강) 내의 음영 변화, 형태 변화 등에 기초하여 흉막 삼출 부위를 검출할 수 있다.In step S140 , the pleural effusion detecting apparatus may detect a site of pleural effusion from the second image information. Pleural effusion is the abnormal accumulation of pleural fluid exuded from the pleura in the pleural cavity (the space between the lungs and the pleural cavity), and the pleural cavity is detected based on changes in the shading and shape in the lung area (particularly, the pleural cavity) in the second image information. The site of exudation can be detected.

실시예에 따라, S140 단계는 제 2 영상 정보를 학습된 제 3 네트워크 함수에 입력하여 수행될 수 있다. 이때 제 3 네트워크 함수는 학습 데이터(예를 들어, 전문가 등에 의해 라벨링된 폐 영역 내의 흉수가 포함된 영상 등)를 통해 사전에 흉막 삼출 부위의 추출에 대한 학습이 수행된 것일 수 있다. 이는 예시적인 것으로서, 실시예에 따라, S140 단계에는 다양한 이미지 프로세싱 기술(예를 들어, active contour 등)이 적용될 수도 있다.Depending on the embodiment, step S140 may be performed by inputting the second image information to the learned third network function. In this case, the third network function may be one in which extraction of the pleural effusion site has been previously learned through learning data (eg, an image including pleural fluid in the lung area labeled by an expert, etc.). This is an example, and various image processing techniques (eg, active contour, etc.) may be applied to step S140 according to embodiments.

실시예에서, 방법(100)은 흉막 삼출의 검출 장치가 흉막 삼출 부위의 부피를 산출하는 단계를 더 포함할 수 있다. 부피의 산출은 영상 정보를 이용하여 다양한 방식으로 수행될 수 있다. 예를 들어, 상기 단계는 제 2 영상 정보 내의 각각의 2차원 영상 내의 흉막 삼출 부위의 넓이를 계산하고, 이를 합산하여 흉막 삼출 부위의 부피를 산출할 수 있다. 또한, 예를 들어, 상기 단계는 (예를 들어, 3차원 영상인) 제 2 영상 정보에서 흉막 삼출 부위에 대응하는 픽셀 수와 픽셀 당 부피에 기초하여 부피를 산출함으로써 수행될 수 있다. 다만 이에 한정되는 것은 아니다.In embodiments, method 100 may further include calculating, by the device for detecting pleural effusion, a volume of a site of pleural effusion. Calculation of the volume can be performed in various ways using image information. For example, in the above step, the volume of the pleural effusion site may be calculated by calculating the area of the pleural effusion site in each 2D image of the second image information and summing the area. Also, for example, the above step may be performed by calculating a volume based on the number of pixels corresponding to the pleural effusion region and the volume per pixel in the second image information (eg, a 3D image). However, it is not limited thereto.

실시예에서, 방법(100)은 흉막 삼출의 검출 장치가 흉막 삼출 부위를 소정의 식별 표지로 라벨링한 제 3 영상 정보를 생성하는 단계를 더 포함할 수 있다. 제 3 영상 정보는 흉막 삼출 부위를 소정의 식별 표지로 라벨링한 것일 수 있다. 이때 제 3 영상 정보는 복수의 2차원 영상 및/또는 이들을 조합하여 생성되는 3차원 영상을 포함할 수 있다.In an embodiment, the method 100 may further include generating third image information in which the pleural effusion detection apparatus labels the pleural effusion site with a predetermined identification mark. The third image information may be a labeling of a pleural effusion site with a predetermined identification mark. In this case, the third image information may include a plurality of 2D images and/or a 3D image generated by combining them.

실시예에서, 제 3 영상 정보는 제 2 영상 정보를 기초로 생성된 폐 영역의 영상에, 흉막 삼출 부위를 중첩하여 표시한 것일 수 있다. 흉막 삼출 부위와 그 외의 영역은 서로 상이한 색, 서로 상이한 투명도, 서로 상이한 표시자 등을 통해 구분될 수 있다. 다만 이는 예시적인 것으로서, 실시예에 따라 제 3 영상 정보는 흉부 영상, 제 1 영상 정보 등에서 흉막 삼출 부위를 중첩하여 표시한 것일 수도 있다.In an embodiment, the third image information may be displayed by overlaying a pleural effusion region on an image of a lung region generated based on the second image information. The pleural effusion site and other areas can be distinguished by different colors, different transparencies, different indicators, and the like. However, this is illustrative, and according to embodiments, the third image information may be displayed by overlapping the pleural effusion region in the chest image and the first image information.

실시예에서, 방법(100)에서 제 1 네트워크 함수 내지 제 3 네트워크 함수는 서로 동일하거나 적어도 일부가 상이한 학습 모델에 의해 생성될 수 있다.In an embodiment, the first to third network functions in the method 100 may be generated by the same or at least partially different learning models.

도 2 내지 도 4는 본 개시의 실시예에 따라 흉막 삼출이 검출되는 과정을 설명하기 위한 예시 도면이다.2 to 4 are exemplary views for explaining a process of detecting pleural effusion according to an embodiment of the present disclosure.

도 2를 참조하면, 흉부 영상이 도시된다. 흉부 영상에서는 흉곽, 횡격막(노란색으로 표지), 심장(붉은색으로 표지) 및 주변 혈관(붉은색으로 표지)이 각각 인식되어, 분리 표지 될 수 있다. 도 2의 흉부 영상에서, 흉강에서 붉은 색의 심장 및 주변 혈관이 제거되어 제 1 영상 정보가 생성될 수 있다.Referring to Figure 2, a chest image is shown. In the chest image, the thorax, diaphragm (labeled in yellow), heart (labeled in red), and peripheral blood vessels (labeled in red) may be recognized and separately labeled. In the chest image of FIG. 2 , first image information may be generated by removing red heart and peripheral blood vessels from the chest cavity.

도 3을 참조하면, 제 2 영상 정보가 도시된다. 제 2 영상 정보는 제 1 영상 정보에서 폐 영역을 추출하여 생성될 수 있다. 이때 폐 영역은 폐와 폐를 둘러싸는 흉막을 포함할 수 있다.Referring to FIG. 3 , second image information is shown. The second image information may be generated by extracting the lung region from the first image information. In this case, the lung region may include a lung and a pleura surrounding the lung.

도 4를 참조하면, 제 3 영상 정보가 도시된다. 제 3 영상 정보는 제 2 영상 정보에서 흉막 삼출 부위를 검출하고, 이를 붉은색으로 표지하여 중첩함으로써 생성될 수 있다. 제 3 영상 정보를 통해 흉막 삼출 부위 및 그 양을 보다 직관적으로 파악할 수 있다.Referring to FIG. 4 , third image information is shown. The third image information may be generated by detecting a pleural effusion site from the second image information and labeling it with a red color to overlap it. The location and amount of pleural effusion can be grasped more intuitively through the third image information.

도 2 내지 도 4에서 도시되는 도면은 예시적인 것으로서, 본 개시의 실시예에 따라 다양한 영상 정보가 이용될 수 있다.The drawings shown in FIGS. 2 to 4 are exemplary, and various image information may be used according to an embodiment of the present disclosure.

본 개시의 실시예에 따른 흉막 삼출의 검출 방법에서는, 영상 정보(예를 들어, 흉부 영상, 제 1 영상 정보, 제 2 영상 정보, 이들로부터 가공된 영상 정보 등)로부터 신체 부위, 예를 들어, 흉곽, 횡격막, 심장 및 심장 주변 혈관 중 적어도 하나를 추출할 것이 요구된다. 이를 위해 흉막 삼출의 검출 방법은 학습 데이터로부터 대상 신체 부위의 평균 형상을 생성하고, 사용자의 영상 정보로부터 대상 신체 부위의 형상을 생성하여, 해당 신체 부위를 인식하는 과정이 수행될 수 있다.In the method for detecting pleural effusion according to an embodiment of the present disclosure, from image information (eg, chest image, first image information, second image information, image information processed therefrom, etc.) to a body part, for example, It is required to extract at least one of the thorax, diaphragm, heart and blood vessels surrounding the heart. To this end, the method of detecting pleural effusion may perform a process of generating an average shape of a target body part from learning data, generating a shape of a target body part from user image information, and recognizing the corresponding body part.

이와 관련하여 도 5는 본 개시의 실시예에 따른 흉막 삼출의 검출 방법에 있어서, 대상 신체 부위의 평균 형상을 생성하는 과정을 설명하기 위한 흐름도이다. In this regard, FIG. 5 is a flowchart illustrating a process of generating an average shape of a target body part in a method for detecting pleural effusion according to an embodiment of the present disclosure.

S510 단계에서, 흉막 삼출의 검출 장치는 사용자의 흉부의 연속적인 부피에 대응하여 생성된 복수의 제 1 의료 영상을 획득할 수 있다. 예를 들어, 제 1 의료 영상은 외부의 데이터베이스 서버로부터 수신되거나, 장치와 유, 무선 통신을 통해 연결된 촬영 장치(예를 들어, X선 촬영 장치, CT 촬영 장치 등)로부터 촬영을 통해 획득될 수 있다.In operation S510 , the apparatus for detecting pleural effusion may acquire a plurality of first medical images generated corresponding to the continuous volume of the user's chest. For example, the first medical image may be received from an external database server or acquired through imaging from an imaging device (eg, X-ray imaging device, CT imaging device, etc.) connected to the device through wired or wireless communication. there is.

실시예에서, 제 1 의료 영상은 복수의 대상자에 대하여 흉부를 포함하는 신체 부위를 단층 촬영함으로써 생성된 CT(Computed Tomography) 영상일 수 있다. 즉, 제 1 의료 영상은 컴퓨터 단층 촬영 방법을 통해 복수의 대상자에 대하여 흉부를 포함하는 신체 부위를 일 방향으로 연속하여 촬영함으로써, 생성되는 복수의 2차원 슬라이스 영상(즉, 영상군)으로 구성되거나, 이를 기초로 생성되는 3차원 영상일 수 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, the first medical image may be a computed tomography (CT) image generated by performing tomography scans of body parts including the chest of a plurality of subjects. That is, the first medical image is composed of a plurality of 2D slice images (i.e., image group) generated by continuously photographing body parts including the chest of a plurality of subjects in one direction through a computed tomography method, or , it may be a 3D image generated based on this. However, it is not limited thereto.

S520 단계에서, 흉막 삼출의 검출 장치는 복수의 제 1 의료 영상을 대상 신체 부위의 평균 형상을 추출하기에 적합한 소정의 형식으로 정규화(standardization)할 수 있다. 예를 들어, 장치는 제 1 의료 영상 중 적어도 일부 영역을 추출하거나, 이를 확대, 축소 및/또는 회전함으로써, 정규화를 수행할 수 있다. 여기서 대상 신체 부위는 흉곽, 횡격막, 심장 및 심장 주변 혈관 중 적어도 하나를 포함할 수 있다. In operation S520, the apparatus for detecting pleural effusion may standardize the plurality of first medical images into a predetermined format suitable for extracting an average shape of a target body part. For example, the device may perform normalization by extracting at least a partial area of the first medical image or by enlarging, reducing, and/or rotating the same. Here, the target body part may include at least one of a thorax, a diaphragm, a heart, and blood vessels surrounding the heart.

실시예에서, S520 단계는 대상 신체 부위의 주변 생체 기관 및 적어도 하나의 뼈 부위 중 적어도 하나를 기준으로 수행될 수 있다. 예를 들어, 대상 신체 부위가 횡격막인 경우, 흉막 삼출의 검출 장치는 제 1 의료 영상 각각에 대하여 횡격막의 주변 장기인 심장, 간, 위장만이 포함되도록 영상의 일부 영역을 추출(절개)하거나, 각각의 제 1 의료 영상으로부터 추출된 영역들을 확대, 축소 및/또는 회전함으로, 제 1 의료 영상들을 서로 대응하는 형식으로 정규화할 수 있다. 또한, 예를 들어, 흉막 삼출의 검출 장치는, 뼈 부위(예를 들어, 척추 및 갈비뼈 등)를 기준으로 제 1 의료 영상을 각각 확대, 축소 및/또는 회전함으로, 제 1 의료 영상들을 서로 대응하는 형식으로 정규화할 수 있다. 다만, 이는 예시적인 것으로서 실시예에 따라, 장치는 다양한 기준점에 기초하여 정규화를 수행할 수 있다.In an embodiment, step S520 may be performed based on at least one of a living organ and at least one bone part surrounding the target body part. For example, when the target body part is the diaphragm, the apparatus for detecting pleural effusion extracts (cuts) a partial region of the image so that only the heart, liver, and stomach, which are peripheral organs of the diaphragm, are included in each of the first medical images; The first medical images may be normalized in a form corresponding to each other by enlarging, reducing, and/or rotating the regions extracted from each first medical image. In addition, for example, the apparatus for detecting pleural effusion may enlarge, reduce, and/or rotate the first medical images based on bone regions (eg, the spine and ribs, etc.), so that the first medical images correspond to each other. can be normalized in the form However, this is exemplary, and according to embodiments, the device may perform normalization based on various reference points.

S520 단계를 통해, 복수의 제 1 의료 영상에 포함된 생체 기관, 뼈 부위 등이 서로 대응하는 크기, 각도 등으로 변형되어 서로 인접한 3차원 공간 좌표 상에 배치될 수 있다.Through step S520, living organs and bone parts included in the plurality of first medical images may be transformed into sizes and angles corresponding to each other and disposed on adjacent 3D spatial coordinates.

S530 단계에서, 흉막 삼출의 검출 장치는 정규화된 복수의 제 1 의료 영상으로부터 대상 신체 부위에 대응하는 평균 형상 및 평균 형상 주변의 픽셀 경사도를 추출할 수 있다.In operation S530 , the apparatus for detecting pleural effusion may extract an average shape corresponding to the target body part and pixel gradients around the average shape from the plurality of normalized first medical images.

실시예에서, 대상 신체 부위의 평균 형상의 추출은 미리 학습된 제 4 네트워크 함수를 통해 수행될 수 있다. 이때, 제 4 네트워크 함수는 학습 데이터(예를 들어, 전문가, 검사 등을 통해 라벨링된 대상 신체 부위가 포함된 CT 영상 등)를 통해 사전에 대상 신체 부위의 추출에 대한 학습이 수행된 것일 수 있다. In an embodiment, the extraction of the average shape of the target body part may be performed through a previously learned fourth network function. In this case, the fourth network function may be learning about extraction of the target body part in advance through learning data (eg, CT images including target body parts labeled through experts, examinations, etc.) .

또한, 실시예에 따라, 대상 신체 부위의 평균 형상의 추출은 픽셀값의 변화에 기초하는 이미지 프로세싱을 통해 수행될 수 있다. 다만, 이는 예시적인 것으로서, 이에 한정되지는 않는다. Also, according to embodiments, the extraction of the average shape of the target body part may be performed through image processing based on changes in pixel values. However, this is an example, and is not limited thereto.

한편, 도시되어 있지는 않지만, 흉막 삼출의 검출 장치는 추출된 대상 신체 부위의 평균 형상에 관한 정보를 저장할 수 있다. 대상 신체 부위의 평균 형상은 3차원 공간에서 굴곡이 존재하는 면으로 표현될 수 있으며, 대상 신체 부위의 평균 형상에 관한 정보에는 상기 면을 구성하는 3차원 공간 상의 좌표에 관한 정보와 대상 신체 부위의 평균 형상 주변의 픽셀 경사도에 관한 정보를 포함할 수 있다.Meanwhile, although not shown, the apparatus for detecting pleural effusion may store information about the average shape of the extracted target body part. The average shape of the target body part can be expressed as a surface with curvature in a 3-dimensional space, and the information on the average shape of the target body part includes information on coordinates in the 3-dimensional space constituting the surface and the It may contain information about the gradient of pixels around the average shape.

또한, S520 단계와 S530 단계가, 3차원의 제 1 의료 영상을 기준으로 3차원 좌표 공간 상에서 수행되는 것으로 기술되어 있으나, 이는 예시적인 것이며, 실시예에 따라, S520 단계와 S530 단계는 제 1 의료 영상을 구성하는 복수의 2차원 영상(즉, 슬라이스 영상)에 대하여 각각 수행될 수 있다. 이 경우, S530 단계에서, 각각의 2차원 영상으로부터 대상 신체 부위의 평균 형상을 추출하고 이들을 적층함으로써, 3차원의 대상 신체 부위의 평균 형상을 생성할 수 있다.In addition, although steps S520 and S530 are described as being performed in a 3D coordinate space based on the first 3D medical image, this is exemplary, and according to an embodiment, steps S520 and S530 may be performed on the first medical image. Each of the plurality of 2D images (ie, slice images) constituting the image may be performed. In this case, in step S530, a 3D average shape of the target body part may be generated by extracting the average shape of the target body part from each 2D image and stacking them.

상술한 방법(500)은 다양한 대상 신체 부위에 대해 동시에 또는 각각 수행될 수 있다. 이때 대상 신체 부위는 흉곽, 횡격막, 심장 및 심장 주변 혈관 중 적어도 하나를 포함할 수 있다. 예를 들어, 적어도 S530 단계 및 S540 단계는 흉곽, 횡격막, 심장 및 심장 주변 혈관에 대해 각각 수행될 수 있으며, 대상 신체 부위의 평균 형상에 대한 정보 또한 흉곽, 횡격막, 심장 및 심장 주변 혈관에 대해 각각 저장될 수 있다. 다만 이에 한정되는 것은 아니다.The method 500 described above may be performed simultaneously or separately for various target body parts. In this case, the target body part may include at least one of a thorax, a diaphragm, a heart, and blood vessels surrounding the heart. For example, at least steps S530 and S540 may be performed for the thorax, diaphragm, heart, and blood vessels around the heart, respectively, and information on the average shape of the target body part is also provided for the ribcage, diaphragm, heart, and blood vessels around the heart, respectively. can be stored However, it is not limited thereto.

도 6은 본 개시의 실시예에 따른 흉막 삼출의 검출 방법에 있어서, 영상 정보로부터 대상 신체 부위의 형상을 생성하여 신체 부위를 인식하는 과정을 설명하기 위한 흐름도이다. 6 is a flowchart illustrating a process of recognizing a body part by generating a shape of a target body part from image information in a method for detecting pleural effusion according to an embodiment of the present disclosure.

방법(600)은 방법(500)에서 저장되는 대상 신체 부위의 평균 형상에 대한 정보를 이용하여, 방법(100)의 S120 단계 및/또는 S130 단계에서 수행될 수 있다. 예를 들어, 방법(600)은 방법(100)의 S120 단계에서 폐 영역에 인접한 생체 기관, 즉 심장 및 심장 주변 혈관 중 적어도 하나를 추출하기 위해 이용될 수 있다. 또한, 예를 들어, 방법(600)은 방법(100)의 S130 단계에서 폐 영역을 추출하기 위해 이용될 수 있다. 다만, 이에 한정되는 것은 아니며, 본 개시의 실시예에 따라 다양한 신체 부위를 추출하기 위해 방법(600)이 적용될 수 있다.The method 600 may be performed in steps S120 and/or S130 of the method 100 using the information about the average shape of the target body part stored in the method 500 . For example, the method 600 may be used to extract at least one of a living organ adjacent to the lung region, ie, a heart and blood vessels surrounding the heart, in step S120 of the method 100 . Also, for example, method 600 may be used to extract lung regions in step S130 of method 100 . However, it is not limited thereto, and the method 600 may be applied to extract various body parts according to an embodiment of the present disclosure.

구체적으로, S610 단계에서, 흉막 삼출의 검출 장치는 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 제 2 의료 영상을 획득할 수 있다. 여기서, 제 2 의료 영상은 대상 신체 부위에 대한 검출이 요청된 입력 영상으로서, 예를 들어, 외부의 데이터베이스 서버로부터 수신되거나, 장치와 유, 무선 통신을 통해 연결된 촬영 장치로부터 촬영을 통해 입력될 수 있다.Specifically, in step S610 , the apparatus for detecting pleural effusion may obtain a second medical image generated corresponding to the continuous volume of the body part including the chest. Here, the second medical image is an input image for which detection of the target body part is requested, and may be received from an external database server or captured and input from a photographing device connected to the device through wired or wireless communication. there is.

실시예에서, 제 2 의료 영상은 제 1 의료 영상과 동일하게 CT(Computed Tomography) 영상일 수 있으며, 복수의 2차원 슬라이스 영상(즉, 영상군)으로 구성되거나, 이를 기초로 생성되는 3차원 영상일수 있다. In an embodiment, the second medical image may be a computed tomography (CT) image similar to the first medical image, and may be composed of a plurality of 2D slice images (ie, image group) or a 3D image generated based on the 2D slice images. can be

실시예에서, 제 2 의료 영상은 방법(100)의 S110 단계에서 획득된 흉부 영상, S120 단계에서 생성된 제 1 영상 정보 및/또는 이들로부터 가공된 영상일 수 있다. 방법(600)이 방법(100)에 수반하는 경우, S610 단계가 별도로 수행되지 않고, 바로 S620 단계가 수행될 수도 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, the second medical image may be a chest image acquired in step S110 of the method 100, first image information generated in step S120, and/or an image processed therefrom. If the method 600 follows the method 100, step S620 may be performed directly without separately performing step S610. However, it is not limited thereto.

S620 단계에서, 흉막 삼출의 검출 장치는 제 2 의료 영상을 제 1 의료 영상에 대응하도록 변형할 수 있다. 즉, 흉막 삼출의 검출 장치는 대상 신체 부위의 평균 형상의 추출에 이용되었던 제 1 의료 영상(즉, 정규화된 제 1 의료 영상)에 대응하도록 제 2 의료 영상의 적어도 일부 영역을 추출하거나, 확대, 축소 및/또는 회전시킬 수 있으며, 이에 따라, 제 2 의료 영상은 대상 신체 부위의 추출에 적합하게 변형될 수 있다. 이때, 변형된 제 2 의료 영상은 대상 신체 부위의 평균 형상의 추출에 이용된 제 1 의료 영상에 대응하도록 동일한 3차원 좌표 공간 상에 매핑될 수 있다. 다만 이에 한정되는 것은 아니다.In step S620, the pleural effusion detection apparatus may transform the second medical image to correspond to the first medical image. That is, the apparatus for detecting pleural effusion extracts, enlarges, or extracts at least a partial region of the second medical image to correspond to the first medical image (ie, the normalized first medical image) used to extract the average shape of the target body part. It may be reduced and/or rotated, and accordingly, the second medical image may be deformed suitable for extraction of the target body part. In this case, the deformed second medical image may be mapped on the same 3D coordinate space to correspond to the first medical image used to extract the average shape of the target body part. However, it is not limited thereto.

방법(500)의 S520 단계와 마찬가지로, S620 단계는, 대상 신체 부위의 주변 생체 기관(심장, 간, 위장 등) 및 적어도 하나의 뼈 부위(흉곽 등) 중 적어도 하나를 기준으로 수행될 수 있다.Similar to step S520 of the method 500, step S620 may be performed based on at least one of a living organ (heart, liver, stomach, etc.) and at least one bone part (chest, etc.) surrounding the target body part.

S630 단계에서, 흉막 삼출의 검출 장치는 대상 신체 부위의 평균 형상에 관한 정보를 기초로 대상 신체 부위의 평균 형상을 제 2 의료 영상에 정합하여 배치할 수 있다. 즉, 대상 신체 부위의 평균 형상의 좌표에 기초하여, 변형된 제 2 의료 영상의 소정의 위치에 대상 신체 부위의 평균 형상을 배치할 수 있다. 이때, 대상 신체 부위의 평균 형상은 도 5의 방법(500)에 의해 복수의 제 1 의료 영상으로부터 추출(또는, 생성)된 것일 수 있다.In operation S630 , the apparatus for detecting pleural effusion may match and arrange the average shape of the target body part to the second medical image based on the information about the average shape of the target body part. That is, based on the coordinates of the average shape of the target body part, the average shape of the target body part may be arranged at a predetermined position of the deformed second medical image. In this case, the average shape of the target body part may be extracted (or generated) from a plurality of first medical images by the method 500 of FIG. 5 .

실시예에 따라, 흉막 삼출의 검출 장치는 대상 신체 부위의 평균 형상을 제 2 의료 영상을 구성하는 복수의 2차원 영상(즉, 슬라이스 영상)에 각각 배치시킬 수 있다. 이 경우, 이하 상술되는 S640 단계는 각각의 2차원 영상에 대하여 수행될 수 있다.Depending on the embodiment, the apparatus for detecting pleural effusion may arrange the average shape of the target body part on a plurality of 2D images (ie, slice images) constituting the second medical image. In this case, step S640 described in detail below may be performed for each 2D image.

S640 단계에서, 흉막 삼출의 검출 장치는 제 2 의료 영상에 배치된 대상 신체 부위의 평균 형상의 적어도 일부에 대한 좌표를 변환함으로써, 대상 신체 부위의 평균 형상으로부터 제 2 의료 영상에 포함된 대상 신체 부위의 형상을 생성할 수 있다.In step S640, the apparatus for detecting pleural effusion converts the coordinates of at least a portion of the average shape of the target body part disposed in the second medical image, thereby converting the target body part included in the second medical image from the average shape of the target body part. shape can be created.

실시예에서, S640 단계에서, 흉막 삼출의 검출 장치는 대상 신체 부위의 평균 형상의 적어도 일부의 좌표를 3차원 좌표 공간 상에서 수직 또는 수평 방향으로 변환하면서, 이에 대응하여 대상 신체 부위의 평균 형상 주변의 픽셀 경사도에 대한 손실함수의 출력값을 측정할 수 있다. 이어서, 흉막 삼출의 검출 장치는 손실함수의 출력값에 기초하여, 대상 신체 부위의 평균 형상의 좌표를 최적화함으로써, 제 2 의료 영상에 포함된 대상 신체 부위의 형상을 생성할 수 있다.In an embodiment, in step S640, the apparatus for detecting pleural effusion converts the coordinates of at least a portion of the average shape of the target body part in a vertical or horizontal direction on a three-dimensional coordinate space, and correspondingly converts the coordinates around the average shape of the target body part. The output value of the loss function for the pixel gradient can be measured. Subsequently, the apparatus for detecting pleural effusion may generate the shape of the target body part included in the second medical image by optimizing the coordinates of the average shape of the target body part based on the output value of the loss function.

즉, 손실함수는 제 2 의료 영상에 포함된 대상 신체 부위와 대상 신체 부위의 평균 형상이 상호 위치와 모양이 유사해질수록 낮은 값을 출력하게 되며, 이러한 손실함수의 출력값을 감소시키는 반복적인 과정(좌표 변환 -> 손실함수의 출력값 측정)을 통해 대상 신체 부위의 평균 형상의 좌표를 최적화함으로써, 대상 신체 부위의 형상을 생성할 수 있다. 이를 위해, 확률적 경사 하강법(stochastic gradient descent) 등이 적용될 수 있으나, 이에 한정되는 것은 아니다.That is, the loss function outputs a lower value as the position and shape of the target body part included in the second medical image and the average shape of the target body part become similar to each other, and a repetitive process of reducing the output value of the loss function ( The shape of the target body part may be generated by optimizing the coordinates of the average shape of the target body part through coordinate transformation -> measuring the output value of the loss function). To this end, stochastic gradient descent or the like may be applied, but is not limited thereto.

상기 단계들을 통해 생성되는 대상 신체 부위의 형상이, 방법(100)에서 식별, 인식되는 대상 신체 부위가 될 수 있다. 실시예에 따라 대상 신체 부위의 형상의 좌표 정보가 데이터로 저장되거나, 제 2 의료 영상, 이로부터 가공된 영상 정보 등에 소정의 식별 표지로 라벨링되어 표시될 수 있다. The shape of the target body part generated through the above steps may be a target body part identified and recognized in the method 100 . Depending on the embodiment, coordinate information of the shape of the target body part may be stored as data or may be labeled with a predetermined identification mark and displayed on the second medical image and image information processed therefrom.

예를 들어, 흉막 삼출의 검출 장치가 대상 신체 부위의 형상을 원본 제 2 의료 영상에 대응하도록 역변환하고, 제 2 의료 영상과 함께 (예를 들어, 렌더링하여) 표시할 수 있다. 즉, 흉막 삼출의 검출 장치는 대상 신체 부위의 형상을 S620 단계 수행 전의 제 2 의료 영상과 동일한 형식으로 역변환을 수행하고, 이후 변환된 대상 신체 부의의 형상의 좌표에 기초하여, 제 2 의료 영상의 적어도 일부와 함께 3차원 공간 상에 표시할 수 있다. 다만 이에 한정되는 것은 아니다.For example, the apparatus for detecting pleural effusion may inversely transform the shape of the target body part to correspond to the original second medical image, and display (eg, render) together with the second medical image. That is, the apparatus for detecting pleural effusion performs an inverse transformation on the shape of the target body part in the same format as the second medical image before performing step S620, and then converts the shape of the target body part based on the transformed coordinates of the second medical image. It can be displayed on a three-dimensional space together with at least some of them. However, it is not limited thereto.

실시예에서, 대상 신체 부위의 형상의 생성은 미리 학습된 제 5 네트워크 함수를 통해 수행될 수 있다. 이때, 제 5 네트워크 함수는 학습 데이터(예를 들어, 전문가, 검사 등을 통해 라벨링된 대상 신체 부위가 포함된 CT 영상 등)를 통해 사전에 대상 신체 부위의 추출에 대한 학습이 수행된 것일 수 있다. In an embodiment, generation of the shape of the target body part may be performed through a previously learned fifth network function. In this case, the fifth network function may be learning about extraction of the target body part in advance through learning data (eg, CT images including target body parts labeled through experts, examinations, etc.) .

도 7은 본 개시의 실시예에 따른 흉막 삼출의 검출 장치의 구성을 간략히 도시한 블록도이다.7 is a block diagram briefly illustrating the configuration of an apparatus for detecting pleural effusion according to an embodiment of the present disclosure.

통신부(710)는 흉막 삼출의 검출을 위한 입력 데이터(흉부 CT 영상 등)를 수신할 수 있다. 통신부(710)는 유무선 통신부를 포함할 수 있다. 통신부(710)가 유선 통신부를 포함하는 경우, 통신부(710)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(710)가 무선 통신부를 포함하는 경우, 통신부(710)는 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다. 일 실시예에서, 통신부(710)는 프로세서(740)의 제어에 의해 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. The communication unit 710 may receive input data (such as a chest CT image) for detecting pleural effusion. The communication unit 710 may include a wired/wireless communication unit. When the communication unit 710 includes a wired communication unit, the communication unit 710 may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network ( mobile radio communication network), a satellite communication network, and one or more components that enable communication through a mutual combination thereof. In addition, when the communication unit 710 includes a wireless communication unit, the communication unit 710 transmits and receives data or signals wirelessly using cellular communication, a wireless LAN (eg, Wi-Fi), and the like. can In one embodiment, the communication unit 710 may transmit/receive data or signals with an external device or an external server under the control of the processor 740 .

입력부(720)는 외부의 조작을 통해 다양한 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 하나 이상의 입력 장치를 포함하거나 연결할 수 있다. 예를 들어, 입력부(720)는 키패드, 마우스 등 다양한 입력을 위한 인터페이스와 연결되어 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 USB 포트 뿐만 아니라 선더볼트 등의 인터페이스를 포함할 수도 있다. 또한, 입력부(720)는 터치스크린, 버튼 등의 다양한 입력 장치를 포함하거나 이들과 결합하여 외부의 사용자 명령을 수신할 수 있다.The input unit 720 may receive various user commands through external manipulation. To this end, the input unit 720 may include or connect one or more input devices. For example, the input unit 720 may be connected to an interface for various inputs such as a keypad and a mouse to receive user commands. To this end, the input unit 720 may include an interface such as a thunderbolt as well as a USB port. In addition, the input unit 720 may receive an external user command by including or combining various input devices such as a touch screen and buttons.

메모리(730)는 프로세서(740)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 임시 또는 영구 저장할 수 있다. 메모리(730)는 플래시 메모리(730)(flash memory) 타입, 하드디스크(hard disk) 타입, 멀티미디어 카드 마이크로(multimedia card micro) 타입, 카드 타입의 메모리(730)(예를 들어 SD 또는 XD 메모리(730) 등), 램(RAM), SRAM, 롬(ROM), EEPROM, PROM, 자기 메모리(730), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 730 may store programs for operation of the processor 740 and may temporarily or permanently store input/output data. The memory 730 may include a flash memory 730 type, a hard disk type, a multimedia card micro type, or a card type memory 730 (for example, SD or XD memory ( 730), etc.), RAM, SRAM, ROM, EEPROM, PROM, magnetic memory 730, magnetic disk, and optical disk.

또한, 메모리(730)는 다양한 네트워크 함수 및 알고리즘을 저장할 수 있으며, 장치를 구동하고 제어하기 위한 다양한 데이터, 프로그램(하나 이상이 인스트럭션들), 어플리케이션, 소프트웨어, 명령, 코드 등을 저장할 수 있다.In addition, the memory 730 may store various network functions and algorithms, and may store various data, programs (one or more instructions), applications, software, commands, codes, etc. for driving and controlling the device.

프로세서(740)는 장치의 전반적인 동작을 제어할 수 있다. 프로세서(740)는 메모리(730)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(740)는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU) 또는 본 개시의 기술적 사상에 따른 방법들이 수행되는 전용의 프로세서(740)를 의미할 수 있다.The processor 740 may control the overall operation of the device. Processor 740 may execute one or more programs stored in memory 730 . The processor 740 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor 740 on which methods according to the technical idea of the present disclosure are performed.

실시예에서, 프로세서(740)는, 사용자의 흉부의 연속적인 부피에 대응하여 생성된 흉부 영상을 획득하고, 흉부 영상에서 폐 영역에 인접한 심장 및 심장 주변 혈관을 제거함으로써 제 1 영상 정보를 생성하고, 제 1 영상 정보에서 폐 및 흉막을 포함하는 폐 영역을 추출하여 제 2 영상 정보를 생성하며, 제 2 영상 정보에서 폐와 흉막 사이의 흉막 삼출 부위를 검출할 수 있다. 여기서 흉부 영상은 3차원 영상 또는 복수의 2차원 영상을 포함할 수 있다. 또한, 심장 주변 혈관은 대동맥, 대정맥, 폐동맥 및 폐정맥을 포함할 수 있다.In an embodiment, the processor 740 generates first image information by acquiring a chest image generated corresponding to the continuous volume of the user's chest and removing a heart adjacent to the lung region and blood vessels around the heart from the chest image; , The lung region including the lung and the pleura is extracted from the first image information to generate the second image information, and the pleural effusion site between the lung and the pleura can be detected from the second image information. Here, the chest image may include a 3D image or a plurality of 2D images. Blood vessels around the heart may also include the aorta, vena cava, pulmonary artery, and pulmonary vein.

실시예에서, 프로세서(740)는, 제 1 영상 정보에서 흉곽 및 횡격막을 인식하고, 제 1 영상 정보에서 흉곽 및 횡격막 내측에 위치하는 폐 영역을 추출하여 제 2 영상 정보를 생성할 수 있다.In an embodiment, the processor 740 may generate second image information by recognizing the chest and the diaphragm from the first image information and extracting lung regions located inside the chest and the diaphragm from the first image information.

실시예에서, 프로세서(740)는, 제 1 영상 정보에서 흉곽 및 횡격막을 인식하고, 제 1 영상 정보에서 흉곽 및 횡격막을 제거하여 제 2 영상 정보를 생성할 수 있다.In an embodiment, the processor 740 may recognize the chest and the diaphragm from the first image information, and may generate the second image information by removing the chest and the diaphragm from the first image information.

실시예에서, 프로세서(740)는, 흉막 삼출 부위의 부피를 산출할 수 있다.In an embodiment, the processor 740 may calculate the volume of the pleural effusion site.

실시예에서, 프로세서(740)는, 흉막 삼출 부위를 소정의 식별 표지로 라벨링한 제 3 영상 정보를 생성할 수 있다.In an embodiment, the processor 740 may generate third image information in which the pleural effusion site is labeled with a predetermined identification mark.

실시예에서, 프로세서(740)는 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 복수의 제 1 의료 영상을 획득하고, 복수의 상기 제 1 의료 영상으로부터 대상 신체 부위의 평균 형상을 추출하며, 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 제 2 의료 영상을 입력받고, 상기 대상 신체 부위의 평균 형상에 관한 정보를 기초로, 상기 제 2 의료 영상에 상기 대상 신체 부위의 평균 형상을 정합하여 배치하며, 상기 대상 신체 부위의 평균 형상의 적어도 일부의 좌표를 변환함으로써, 상기 제 2 의료 영상에 대상 신체 부위의 형상을 생성할 수 있다. 여기서, 대상 신체 부위의 평균 형상에 관한 정보는 상기 대상 신체 부위의 평균 형상의 좌표 및 상기 대상 신체 부위의 평균 형상 주변의 픽셀 경사도에 관한 정보를 포함할 수 있다.In an embodiment, the processor 740 acquires a plurality of first medical images generated corresponding to the continuous volume of the body part including the chest, and extracts an average shape of the target body part from the plurality of first medical images. and receiving a second medical image generated corresponding to the continuous volume of the body part including the chest, and displaying the target body part in the second medical image based on the information about the average shape of the target body part. The shape of the target body part may be created in the second medical image by matching and arranging the average shape and converting coordinates of at least a part of the average shape of the target body part. Here, the information about the average shape of the target body part may include coordinates of the average shape of the target body part and information about a pixel gradient around the average shape of the target body part.

실시예에서, 프로세서(740)는 대상 신체 부위의 평균 형상의 좌표 변환에 대응하여, 대상 신체 부위의 평균 형상 주변의 픽셀 경사도에 관한 손실함수의 출력값을 측정하고, 손실함수의 출력값에 기초하여 대상 신체 부위의 평균 형상의 좌표를 최적화함으로써, 대상 신체 부위의 형상을 생성할 수 있다. 여기서 대상 신체 부위는 흉곽, 횡격막, 심장 및 심장 주변 혈관 중 적어도 하나를 포함할 수 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, the processor 740 measures an output value of a loss function related to a pixel gradient around the average shape of the target body part in response to the coordinate transformation of the average shape of the target body part, and based on the output value of the loss function, the processor 740 measures the target body part. By optimizing the coordinates of the average shape of the body part, the shape of the target body part can be generated. Here, the target body part may include at least one of a thorax, a diaphragm, a heart, and blood vessels surrounding the heart. However, it is not limited thereto.

실시예에서, 프로세서(740)는 손실함수의 출력값이 최소화되도록 대상 신체 부위의 평균 형상의 좌표를 최적화함으로써 대상 신체 부위의 형상을 생성할 수 있다.In an embodiment, the processor 740 may generate the shape of the target body part by optimizing the coordinates of the average shape of the target body part so that the output value of the loss function is minimized.

실시예에서, 프로세서(740)는 적어도 하나의 대상 신체 부위의 주변 장기 및 적어도 하나의 뼈 부위 중 적어도 하나 기준으로 복수의 제 1 의료 영상을 정규화할 수 있다.In an embodiment, the processor 740 may normalize the plurality of first medical images based on at least one of a peripheral organ of the at least one target body part and at least one bone part.

실시예에서, 프로세서(740)는 대상 신체 부위의 주변 장기 및 뼈 부위 중 적어도 하나를 기준으로 제 1 의료 영상의 적어도 일부 영역을 추출, 확대, 축소 또는 회전함으로써 정규화를 수행할 수 있다.In an embodiment, the processor 740 may perform normalization by extracting, enlarging, reducing, or rotating at least a partial region of the first medical image based on at least one of a surrounding organ and a bone region of the target body part.

실시예에서, 프로세서(740)는 대상 신체 부위의 형상을 제 2 의료 영상과 함께 렌더링하여 표시할 수 있다.In an embodiment, the processor 740 may render and display the shape of the target body part together with the second medical image.

일 실시예에 따른 흉막 삼출의 검출 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.A method for detecting pleural effusion according to an embodiment may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the present disclosure, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

또한, 개시된 실시예들에 따른 흉막 삼출의 검출 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, the method for detecting pleural effusion according to the disclosed embodiments may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities.

컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.A computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored. For example, a computer program product may include a product in the form of a S/W program (eg, a downloadable app) that is distributed electronically through a manufacturer of an electronic device or an electronic marketplace (eg, Google Play Store, App Store). there is. For electronic distribution, at least a part of the S/W program may be stored in a storage medium or temporarily generated. In this case, the storage medium may be a storage medium of a manufacturer's server, an electronic market server, or a relay server temporarily storing SW programs.

컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제 3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제 3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제 3 장치로 전송되거나, 제 3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.A computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device. Alternatively, if there is a third device (eg, a smart phone) that is communicatively connected to the server or the client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include a S/W program itself transmitted from the server to the client device or the third device or from the third device to the client device.

이 경우, 서버, 클라이언트 장치 및 제 3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제 3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of the server, the client device, and the third device may execute the computer program product to implement the method according to the disclosed embodiments in a distributed manner.

예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicatively connected to the server to perform a method according to the disclosed embodiments.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present disclosure defined in the following claims are also within the scope of the present disclosure. belongs to

Claims (9)

흉막 삼출의 검출 방법으로서,
사용자의 흉부의 연속적인 부피에 대응하여 생성된 흉부 영상을 획득하는 단계;
상기 흉부 영상에서 심장 및 심장 주변 혈관을 제거함으로써 제 1 영상 정보를 생성하는 단계;
상기 제 1 영상 정보에서 폐 및 흉막을 포함하는 폐 영역을 추출하여 제 2 영상 정보를 생성하는 단계; 및
상기 제 2 영상 정보에서 상기 폐와 상기 흉막 사이의 흉막 삼출 부위를 검출하는 단계
를 포함하는, 방법.
As a method for detecting pleural effusion,
obtaining a chest image generated corresponding to the continuous volume of the user's chest;
generating first image information by removing the heart and blood vessels surrounding the heart from the chest image;
generating second image information by extracting a lung region including a lung and a pleura from the first image information; and
Detecting a site of pleural effusion between the lung and the pleura from the second image information
Including, method.
제 1 항에 있어서,
상기 심장 주변 혈관은 상기 심장과 연결되는 대동맥, 대정맥, 폐동맥 및 폐정맥을 포함하는, 방법.
According to claim 1,
The blood vessels around the heart include an aorta, a vena cava, a pulmonary artery, and a pulmonary vein connected to the heart.
제 1 항에 있어서,
상기 제 2 영상 정보를 생성하는 단계는, 상기 제 1 영상 정보에서 흉곽 및 횡격막을 인식하는 단계; 및 상기 제 1 영상 정보에서 상기 흉곽 및 상기 횡격막 내측에 위치하는 상기 폐 영역을 추출하는 단계를 포함하는, 방법.
According to claim 1,
The generating of the second image information may include recognizing a chest and a diaphragm from the first image information; and extracting the lung region located inside the thorax and the diaphragm from the first image information.
제 1 항에 있어서,
상기 제 2 영상 정보를 생성하는 단계는, 상기 제 1 영상 정보에서 흉곽 및 횡격막을 인식하는 단계; 및 상기 제 1 영상 정보에서 상기 흉곽 및 상기 횡격막을 제거하는 단계를 포함하는, 방법.
According to claim 1,
The generating of the second image information may include recognizing a chest and a diaphragm from the first image information; and removing the ribcage and the diaphragm from the first image information.
제 1 항에 있어서,
상기 흉막 삼출 부위의 부피를 산출하는 단계를 더 포함하는, 방법.
According to claim 1,
The method further comprising calculating the volume of the pleural effusion site.
제 1 항에 있어서,
상기 흉막 삼출 부위를 소정의 식별 표지로 라벨링한 제 3 영상 정보를 생성하는 단계를 더 포함하는, 방법.
According to claim 1,
The method further comprising generating third image information in which the pleural effusion site is labeled with a predetermined identification mark.
제 1 항에 있어서,
상기 흉부 영상은 3차원 영상 또는 복수의 2차원 영상을 포함하는 영상군인, 방법.
According to claim 1,
The chest image is an image group including a 3D image or a plurality of 2D images.
흉막 삼출의 산출 장치에 있어서,
흉막 삼출의 검출을 위한 프로그램을 저장하는 메모리; 및
상기 프로그램을 실행함으로써, 사용자의 흉부의 연속적인 부피에 대응하여 생성된 흉부 영상을 획득하고, 상기 흉부 영상에서 심장 및 심장 주변 혈관을 제거함으로써 제 1 영상 정보를 생성하고, 상기 제 1 영상 정보에서 폐 및 흉막을 포함하는 폐 영역을 추출하여 제 2 영상 정보를 생성하며, 상기 제 2 영상 정보에서 상기 폐와 상기 흉막 사이의 흉막 삼출 부위를 검출하는 적어도 하나의 프로세서를 포함하는, 장치.
In the device for calculating pleural effusion,
a memory storing a program for detection of pleural effusion; and
By executing the program, a chest image generated corresponding to the continuous volume of the user's chest is acquired, and first image information is generated by removing the heart and blood vessels around the heart from the chest image, and from the first image information An apparatus comprising: at least one processor for generating second image information by extracting a lung region including a lung and a pleura, and detecting a region of pleural effusion between the lung and the pleura from the second image information.
제 1 항 내지 제 7 항 중 어느 한 항의 방법을 실행하기 위하여 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium to execute the method of any one of claims 1 to 7.
KR1020220127462A 2021-10-07 2022-10-06 Method for detecting pleurl effusion and the apparatus for therof KR20230050253A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220127462A KR20230050253A (en) 2021-10-07 2022-10-06 Method for detecting pleurl effusion and the apparatus for therof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210133062A KR102454374B1 (en) 2021-10-07 2021-10-07 Method for detecting pleurl effusion and apparatus therof
KR1020220127462A KR20230050253A (en) 2021-10-07 2022-10-06 Method for detecting pleurl effusion and the apparatus for therof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210133062A Division KR102454374B1 (en) 2021-10-07 2021-10-07 Method for detecting pleurl effusion and apparatus therof

Publications (1)

Publication Number Publication Date
KR20230050253A true KR20230050253A (en) 2023-04-14

Family

ID=83600041

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210133062A KR102454374B1 (en) 2021-10-07 2021-10-07 Method for detecting pleurl effusion and apparatus therof
KR1020220127462A KR20230050253A (en) 2021-10-07 2022-10-06 Method for detecting pleurl effusion and the apparatus for therof

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210133062A KR102454374B1 (en) 2021-10-07 2021-10-07 Method for detecting pleurl effusion and apparatus therof

Country Status (1)

Country Link
KR (2) KR102454374B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102655197B1 (en) * 2022-02-24 2024-04-05 주식회사 딥노이드 X-ray image based assistance diagnosis system for diagnosing pleural effusion

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020009215A1 (en) * 2000-01-18 2002-01-24 Arch Development Corporation Automated method and system for the segmentation of lung regions in computed tomography scans
KR101472558B1 (en) * 2013-10-04 2014-12-16 원광대학교산학협력단 The system and method for automatic segmentation of lung, bronchus, pulmonary vessels images from thorax ct images
CN110400299A (en) * 2019-07-23 2019-11-01 杭州依图医疗技术有限公司 A kind of method and device of lung's pleural effusion detection
CN111932563B (en) * 2020-09-23 2021-07-06 平安科技(深圳)有限公司 Picture region segmentation method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR102454374B1 (en) 2022-10-14

Similar Documents

Publication Publication Date Title
AU2017292642B2 (en) System and method for automatic detection, localization, and semantic segmentation of anatomical objects
US20170296032A1 (en) Branching structure determination apparatus, method, and program
US10362941B2 (en) Method and apparatus for performing registration of medical images
JP2015154918A (en) Apparatus and method for lesion detection
EP3174467B1 (en) Ultrasound imaging apparatus
EP2189942A2 (en) Method and system for registering a medical image
JP2016531709A (en) Image analysis technology for diagnosing disease
US20130303900A1 (en) Method and apparatus for processing of stroke ct scans
US20180263527A1 (en) Endoscope position specifying device, method, and program
JP6301277B2 (en) Diagnostic auxiliary image generation apparatus, diagnostic auxiliary image generation method, and diagnostic auxiliary image generation program
KR20230050253A (en) Method for detecting pleurl effusion and the apparatus for therof
US11475568B2 (en) Method for controlling display of abnormality in chest x-ray image, storage medium, abnormality display control apparatus, and server apparatus
US10896501B2 (en) Rib developed image generation apparatus using a core line, method, and program
CN109410170B (en) Image data processing method, device and equipment
JP6927020B2 (en) Dynamic image processing method, dynamic image processing device and program
WO2015111308A1 (en) Three-dimensional medical image display control device, operation method thereof, and three-dimensional medical image display control program
KR102639803B1 (en) Method for detecting pleurl effusion and the apparatus for therof
JP5491237B2 (en) Medical image display device and medical image display method
CN114708283A (en) Image object segmentation method and device, electronic equipment and storage medium
JP7404857B2 (en) Image judgment device, image judgment method and program
KR20230049938A (en) Method and apparatus for quantitative analysis of emphysema
KR20220143187A (en) Method and apparatus for automatically extracting emphysema using deep learning
US20160019694A1 (en) Region extraction apparatus, method, and program
KR102444581B1 (en) Method and apparatus for detecting diaphragm from chest image
WO2023032954A1 (en) Information processing method, program and image diagnosis device