KR102330340B1 - Medical image processing apparatus - Google Patents
Medical image processing apparatus Download PDFInfo
- Publication number
- KR102330340B1 KR102330340B1 KR1020190159616A KR20190159616A KR102330340B1 KR 102330340 B1 KR102330340 B1 KR 102330340B1 KR 1020190159616 A KR1020190159616 A KR 1020190159616A KR 20190159616 A KR20190159616 A KR 20190159616A KR 102330340 B1 KR102330340 B1 KR 102330340B1
- Authority
- KR
- South Korea
- Prior art keywords
- medical image
- catheter
- region
- image processing
- processing apparatus
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 95
- 210000000056 organ Anatomy 0.000 claims abstract description 45
- 238000013135 deep learning Methods 0.000 claims abstract description 18
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims 2
- 210000004072 lung Anatomy 0.000 description 32
- 238000004891 communication Methods 0.000 description 24
- 238000010801 machine learning Methods 0.000 description 17
- 210000000038 chest Anatomy 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 210000000988 bone and bone Anatomy 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 208000006029 Cardiomegaly Diseases 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- QTCANKDTWWSCMR-UHFFFAOYSA-N costic aldehyde Natural products C1CCC(=C)C2CC(C(=C)C=O)CCC21C QTCANKDTWWSCMR-UHFFFAOYSA-N 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- ISTFUJWTQAMRGA-UHFFFAOYSA-N iso-beta-costal Natural products C1C(C(=C)C=O)CCC2(C)CCCC(C)=C21 ISTFUJWTQAMRGA-UHFFFAOYSA-N 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- 206010007572 Cardiac hypertrophy Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 206010044287 Tracheal deviation Diseases 0.000 description 1
- 206010003246 arthritis Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000003281 pleural cavity Anatomy 0.000 description 1
- 210000004910 pleural fluid Anatomy 0.000 description 1
- 201000003144 pneumothorax Diseases 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 206010039722 scoliosis Diseases 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5252—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Epidemiology (AREA)
- Optics & Photonics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- High Energy & Nuclear Physics (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Primary Health Care (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Physiology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
본 발명은, 의료 영상 처리 장치에 관한 것이다. 본 발명의 일 실시예에 따른 의료 영상 처리 장치는, X선을 이용한 의료 영상을 획득하는 영상 획득부, 디스플레이 및 제어부를 포함하고, 제어부는, 미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출하고, 검출된 적어도 하나의 해부학적 구성에 대한 정보를 결정하고, 디스플레이를 통해, 결정된 정보를 검출된 적어도 하나의 해부학적 구성과 함께 표시하며, 해부학적 구성은 기관(organ) 및 카테터(catheter) 중 적어도 하나를 포함할 수 있다. 그 외에 다양한 실시예들이 가능하다.The present invention relates to a medical image processing apparatus. A medical image processing apparatus according to an embodiment of the present invention includes an image acquisition unit that acquires a medical image using X-rays, a display, and a control unit, wherein the control unit uses an artificial intelligence algorithm based on deep learning learned in advance. , detects at least one of a plurality of anatomical configurations included in the medical image, determines information on the detected at least one anatomical configuration, and displays the determined information together with the detected at least one anatomical configuration Indicated, the anatomical configuration may include at least one of an organ and a catheter. In addition, various embodiments are possible.
Description
본 발명은, 의료 영상 처리 장치에 관한 것으로, 보다 상세하게는, 의료 영상을 처리하는 의료 영상 처리 장치에 관한 것이다.The present invention relates to a medical image processing apparatus, and more particularly, to a medical image processing apparatus for processing a medical image.
의료 영상 처리 장치는, 신체의 내부에 대한 영상을 획득 및 처리하는 장치이다. 의료 영상 처리 장치는, 신체의 내부 기관, 혈액과 같은 유체, 신체의 내부에 삽입된 의료용 기구 등에 대한 영상을 촬영 및 처리하여 제공하는 비침습적 검사 장치이며, 의사 등의 의료인은 의료 영상 처리 장치로부터 출력되는 의료 영상에 기초하여, 환자의 상태를 확인하고, 질병의 유무에 대한 판단을 보다 정확하게 수행할 수 있다. A medical image processing apparatus is an apparatus for acquiring and processing an image of an inside of a body. A medical image processing apparatus is a non-invasive examination apparatus that provides images of internal organs of the body, fluids such as blood, medical instruments inserted into the body, etc. Based on the output medical image, it is possible to check the patient's condition and more accurately determine the presence or absence of a disease.
최근, 의료 영상에 포함된 객체들을 분석하고, 분석 결과를 사용자에게 제공하여, 사용자가 의료 영상을 보다 정확하게 판독할 수 있도록 보조하는, 컴퓨터 보조 진단(Computer Aided Detection; CAD) 시스템이 널리 활용되고 있다. Recently, a Computer Aided Detection (CAD) system that analyzes objects included in a medical image and provides the analysis result to the user so that the user can more accurately read the medical image has been widely used. .
또한, 영상 처리 분야에서도 인공지능(Artificial Intelligence; AI)의 이용이 활발하게 이루어지고 있다. 특히, 머신 러닝(Machine learning) 및 딥 러닝(Deep learning)을 통해 기계가 수 많은 영상을 스스로 학습하고, 기계가 학습된 알고리즘 모델을 통해 영상을 보다 정확하고 빠르게 분석할 수 있게 됨에 따라, 이러한 인공지능(AI)을 이용한 의료 영상 처리와 관련된 연구가 CAD 시스템 분야에서 활발하게 이루어지고 있다.In addition, artificial intelligence (AI) is actively used in the image processing field. In particular, as the machine learns many images by itself through machine learning and deep learning, and the machine can analyze the images more accurately and quickly through the learned algorithm model, these artificial Research related to medical image processing using intelligence (AI) is being actively conducted in the CAD system field.
한편, X선(X-ray)을 대상체에 조사하고, 대상체를 통과한 X선을 감지하여 획득한 의료 영상(이하, X선을 이용한 의료 영상)과 같이, 신체의 내부 기관들과 의료용 기구들이 서로 겹쳐져 표시되는 경우, 머신 러닝 및 딥 러닝을 이용하는 경우에도 겹쳐진 부분에 대한 정확한 학습이 어려워, 종래의 CAD 시스템을 이용하더라도 의료 영상을 정확하게 처리하여 분석하기 어려운 문제점이 있다.On the other hand, as in a medical image (hereinafter referred to as a medical image using X-rays) obtained by irradiating X-rays to an object and detecting X-rays passing through the object, internal organs of the body and medical instruments When displayed overlapping each other, even when using machine learning and deep learning, it is difficult to accurately learn the overlapping portion, so even if a conventional CAD system is used, it is difficult to accurately process and analyze the medical image.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention aims to solve the above and other problems.
또 다른 목적은, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성을 정확하게 검출할 수 있는 의료 영상 처리 장치를 제공함에 있다.Another object of the present invention is to provide a medical image processing apparatus capable of accurately detecting a plurality of anatomical components included in a medical image using X-rays.
상기 목적을 달성하기 위한, 본 발명의 일 실시예에 따른 의료 영상 처리 장치는, X선을 이용한 의료 영상을 획득하는 영상 획득부, 디스플레이 및 제어부를 포함하고, 제어부는, 미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출하고, 검출된 적어도 하나의 해부학적 구성에 대한 정보를 결정하고, 디스플레이를 통해, 결정된 정보를 검출된 적어도 하나의 해부학적 구성과 함께 표시하며, 해부학적 구성은 기관(organ) 및 카테터(catheter) 중 적어도 하나를 포함할 수 있다.In order to achieve the above object, a medical image processing apparatus according to an embodiment of the present invention includes an image acquisition unit for acquiring a medical image using X-rays, a display, and a control unit, wherein the control unit is based on pre-learned deep learning Detects at least one of a plurality of anatomical components included in the medical image using an artificial intelligence algorithm of It is displayed together with one anatomical component, and the anatomical component may include at least one of an organ and a catheter.
본 발명에 따른 영상처리장치의 효과에 대해 설명하면 다음과 같다.The effect of the image processing apparatus according to the present invention will be described as follows.
본 발명의 적어도 하나의 실시예에 따르면, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성에 각각 대응하는 영역들이 서로 겹쳐지는 경우에도, 복수의 해부학적 구성을 정확하게 검출할 수 있어, 의료 영상에 대한 처리 성능을 보다 향상시킬 수 있다. According to at least one embodiment of the present invention, even when regions corresponding to a plurality of anatomical configurations included in a medical image using X-rays overlap each other, it is possible to accurately detect a plurality of anatomical configurations. Image processing performance can be further improved.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the following detailed description. However, it should be understood that the detailed description and specific embodiments such as preferred embodiments of the present invention are given by way of illustration only, since various changes and modifications within the spirit and scope of the present invention may be clearly understood by those skilled in the art.
도 1은, X선을 이용하는 의료 영상 처리 시스템을 도시한 도면이다.
도 2는, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 내부 블록도이다.
도 3a 내지 3c는, 의료 영상에 대한 학습 동작의 설명에 참조되는 도면이다.
도 4 내지 6은, 의료 영상 처리 장치의 동작에 대한 설명에 참조되는 도면이다.
도 7a 내지 8은, 의료 영상을 처리한 결과에 대한 설명에 참조되는 도면이다.
도 9 내지 11은, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 동작방법에 관한 순서도이다. 1 is a diagram illustrating a medical image processing system using X-rays.
2 is an internal block diagram of a medical image processing apparatus according to an embodiment of the present invention.
3A to 3C are diagrams referenced for explanation of a learning operation for a medical image.
4 to 6 are diagrams referenced for the description of the operation of the medical image processing apparatus.
7A to 8 are diagrams referenced for explanation of a result of processing a medical image.
9 to 11 are flowcharts of a method of operating a medical image processing apparatus according to an embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다. 도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다. Hereinafter, the present invention will be described in detail with reference to the drawings. In the drawings, in order to clearly and briefly describe the present invention, the illustration of parts irrelevant to the description is omitted, and the same reference numerals are used for the same or extremely similar parts throughout the specification.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "module" and "part" for the components used in the following description are given simply in consideration of the ease of writing the present specification, and do not give a particularly important meaning or role by themselves. Accordingly, the terms “module” and “unit” may be used interchangeably.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것들의 존재, 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that it does not preclude the existence of, or addition of, elements, numbers, steps, operations, components, parts, or combinations thereof.
또한, 본 명세서에서, 다양한 요소들을 설명하기 위해 제1, 제2 등의 용어가 이용될 수 있으나, 이러한 요소들은 이러한 용어들에 의해 제한되지 아니한다. 이러한 용어들은 한 요소를 다른 요소로부터 구별하기 위해서만 이용된다. Also, in this specification, terms such as first and second may be used to describe various elements, but these elements are not limited by these terms. These terms are only used to distinguish one element from another.
도 1은, X선을 이용하는 의료 영상 처리 시스템을 도시한 도면이다.1 is a diagram illustrating a medical image processing system using X-rays.
도 1을 참조하면, 의료 영상 처리 시스템(100)은, X선 조사부(10), X선 검출부(20, 30), 연결 프레임부(40), 이동 프레임부(50), 및/또는 가이드 레일(60)을 포함할 수 있다.Referring to FIG. 1 , the medical
X선 조사부(10)는, X선을 발생시켜 조사할 수 있다. 예를 들면, X선 조사부(10)는, X선을 발생시키는 X선 발생부(미도시) 및 X선의 조사 범위를 조절하는 콜리메이터(collimator)(미도시)를 포함할 수 있다.The
X선 검출부(20, 30)는, X선 조사부(10)로부터 조사된 X선을 검출할 수 있다. X선 검출부(20, 30)는, X선을 감지하는 디텍터 패널(미도시), 디텍터 패널의 구동을 제어하고, 디텍터 패널로부터 이미지 데이터를 수신하는 디텍터 구동모듈(미도시) 등을 포함할 수 있다. 이때, 디텍터 구동모듈은, 디텍터 패널로부터 수신된 이미지 데이터에 기초하여, 의료 영상을 생성할 수 있다. The
X선 검출부(20, 30)는, 스탠드형의 제1 X선 검출부(20) 및/또는 테이블형의 제2 X선 검출부(30)를 포함할 수 있다. The
예를 들면, 도 1에 도시된 바와 같이, X선 조사부(10)는 환자의 배면에서 정면으로 향하는 방향으로 X선을 조사할 수 있고, 제1 X선 검출부(20)는, 환자의 배면에서 정면으로 투과되는 X선을 검출할 수 있다.For example, as shown in FIG. 1 , the
예를 들면, 도 1과 달리 환자가 제2 X선 검출부(30)에 누워있는 경우, X선 조사부(10)는 환자의 정면에서 배면으로 향하는 방향으로 X선을 조사할 수 있고, 제2 X선 검출부(30)는, 환자의 정면에서 배면으로 투과되는 X선을 검출할 수 있다.For example, unlike FIG. 1, when the patient is lying on the second
X선 조사부(10)는, 연결 프레임부(40)에 연결될 수 있다. 연결 프레임부(40)는, 길이가 조절 가능한 형상으로 형성될 수 있다. 이때, 연결 프레임부(40)의 길이가 조절되는 경우, X선 조사부(10)가 위치하는 높이도 조절될 수 있다. The
연결 프레임부(40)는, 가이드 레일(60)에 설치되어, 가이드 레일(60)에 따라 이동 가능한 이동 프레임부(50)에 연결될 수 있다. 이때, 가이드 레일(60)에 따라 이동 프레임부(50)의 위치가 변경되는 경우, X선 조사부(10)의 위치도 변경될 수 있다.The
의료 영상 처리 시스템(100)은, 입력부(미도시)를 더 포함할 수 있다. The medical
입력부는, 의료 영상 처리 시스템(100)에 포함된 구성들의 동작에 대한 다양한 입력을 수신할 수 있다. 예를 들면, 입력부는, X선의 조사 시점, X선 조사부(10)의 위치 등과 관련된 제어를 위한 사용자 입력을 수신할 수 있다. The input unit may receive various inputs for operations of components included in the medical
의료 영상 처리 시스템(100)은, 디스플레이부(미도시)를 더 포함할 수 있다. The medical
디스플레이부는, 의료 영상 처리 시스템(100)의 제어와 관련된 다양한 화면을 출력할 수 있다. 예를 들면, 출력부는, 의료 영상 처리 시스템(100)의 제어를 위한 제어 화면, 사용자 입력을 가이드(guide)하는 화면, X선 검출부(20, 30)를 통해 획득한 의료 영상이 표시되는 화면 등을 출력할 수 있다. The display unit may output various screens related to the control of the medical
의료 영상 처리 시스템(100)은, 통신부(미도시)를 더 포함할 수 있다. 통신부는, 유/무선 통신 연결을 위한 적어도 하나의 통신 모듈(미도시)를 포함할 수 있다.The medical
통신부는, 외부 장치(예: 이동 단말기, 노트북 등)에 연결될 수 있고, 외부 장치와 상호 간에 데이터를 송수신할 수 있다. The communication unit may be connected to an external device (eg, a mobile terminal, a notebook computer, etc.), and may transmit/receive data to/from the external device.
통신부는, 네트워크를 통해 외부 서버(미도시)에 접속할 수 있고, 외부 서버와 상호 간에 데이터를 송수신할 수 있다. The communication unit may connect to an external server (not shown) through a network, and may transmit/receive data to and from the external server.
도 2는, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 내부 블록도이다.2 is an internal block diagram of a medical image processing apparatus according to an embodiment of the present invention.
의료 영상 처리 장치(200)는, 도 1의 의료 영상 처리 시스템(100)에 포함된 구성 중 적어도 일부를 포함할 수 있다.The medical
의료 영상 처리 장치(200)는, 영상 획득부(210), 통신부(220), 저장부(230), 입력부(240), 출력부(250) 및/또는 제어부(260)를 포함할 수 있다.The medical
영상 획득부(210)는, 도 1의 X선 조사부(10) 및 X선 검출부(20, 30)를 포함할 수 있다. 예를 들면, 영상 획득부(210)는, X선 조사부(10)로부터 조사되어 X선 검출부(20, 30)를 통해 검출된 X선에 기초하여, 의료 영상을 획득할 수 있고, 획득한 의료 영상을 제어부(260)로 전달할 수 있다.The
의료 영상은, 복수의 해부학적 구성을 포함할 수 있다. 여기서, 해부학적 구성은, 뼈나 내장과 같은 기관(organ) 및/또는 인체에 삽입하는 의료용 기구인 카테터(catheter)를 포함할 수 있다. The medical image may include a plurality of anatomical components. Here, the anatomical configuration may include an organ such as bone or intestine and/or a catheter, which is a medical instrument inserted into the human body.
통신부(220)는, 데이터가 포함된 신호를 유/무선으로 송수신할 수 있다. 이를 위해, 통신부(220)는, 유/무선 통신 연결을 위한 적어도 하나의 통신 모듈(미도시)를 포함할 수 있다.The
이때, 통신부(220)는, 도 1의 의료 영상 처리 시스템(100)의 통신부 중 적어도 일부를 포함할 수 있다.In this case, the
예를 들면, 통신부(220)는, 와이파이(Wi-fi), 블루투스(bluetooth), 비콘(beacon), 지그비(zigbee), RFID(radio frequency identification) 등의 무선 통신 방식으로 신호를 송수신할 수 있다.For example, the
예를 들면, 통신부(220)는, USB(universal serial bus)와 같은 유선 통신 방식으로 연결된 외부 장치(예: 이동 단말기, 노트북, 외부 저장매체 등)과 신호를 송수신할 수 있다. For example, the
한편, 의료 영상 처리 장치(100)는, 통신부(220)를 통해 외부로부터 의료 영상을 수신할 수 있고, 수신된 의료 영상을 제어부(260)로 전달할 수 있다. Meanwhile, the medical
예를 들면, 통신부(220)는, 네트워크를 통해 서버(미도시)와 통신을 수행할 수 있고, 서버로부터 의료 영상을 수신할 수 있다.For example, the
예를 들면, 통신부(220)는, 유선으로 연결된 외부 장치로부터 의료 영상을 수신할 수 있다.For example, the
저장부(230)에는, 제어부(260) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The
예를 들면, 저장부(230)는 제어부(260)에 의해 처리 가능한 다양한 작업들을 수행하기 위한 목적으로 설계된 응용 프로그램들을 저장하고, 제어부(260)의 요청 시, 저장된 응용 프로그램들 중 일부를 선택적으로 제공할 수 있다. For example, the
저장부(230)에 저장되는 프로그램 등은, 제어부(260)에 의해 실행될 수 있는 것이라면 특별히 한정하지 않는다.The program stored in the
도 2의 저장부(230)가 제어부(260)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않으며, 제어부(260) 내에 저장부(230)가 포함될 수도 있다.Although the embodiment in which the
저장부(230)는, 휘발성 메모리(예: DRAM, SRAM, SDRAM 등)나, 비휘발성 메모리(예: 플래시 메모리(Flash memory), 하드 디스크 드라이브(Hard disk drive; HDD), 솔리드 스테이트 드라이브(Solid-state drive; SSD) 등) 중 적어도 하나를 포함할 수 있다.The
저장부(230)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 획득한 의료 영상을 저장할 수 있다. The
저장부(230)는, 딥 러닝 등 머신 러닝을 통해 기 학습된 데이터, 모델, 알고리즘 등을 저장할 수 있다. 예를 들면, 저장부(230)는, X선을 이용한 의료 영상의 데이터베이스를 머신 러닝을 통해 기 학습한 결과에 대한 데이터를 저장할 수 있다.The
머신 러닝은, 컴퓨터에게 사람이 직접 로직(logic)을 지시하지 않아도 데이터를 통해 컴퓨터가 학습을 하고, 이를 통해 컴퓨터가 문제를 해결하게 하는 것을 의미한다.Machine learning means that a computer learns from data without a human instructing the computer directly to logic, and allows the computer to solve a problem through this.
딥 러닝은, 인공신경망(Artificial Neural Networks; ANN)을 기반으로 컴퓨터에게 사람의 사고방식을 가르치는 방법으로, 컴퓨터가 스스로 사람처럼 학습할 수 있는 인공지능 기술을 의미한다. 인공신경망(ANN)은 소프트웨어 형태로 구현되거나 칩(chip) 등 하드웨어 형태로 구현될 수 있다.Deep learning is a method of teaching a human way of thinking to a computer based on Artificial Neural Networks (ANN). The artificial neural network (ANN) may be implemented in the form of software or in the form of hardware such as a chip.
예를 들면, 인공신경망(ANN)은, 심층신경망(Deep Neural Network; DNN), 합성곱신경망(Convolutional Neural Network; CNN), 순환신경망(Recurrent Neural Network; RNN), 심층신뢰신경망(Deep Belief Network; DBN) 등 다양한 종류의 알고리즘을 포함할 수 있다. For example, an artificial neural network (ANN), a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a deep belief network; DBN), etc., may include various types of algorithms.
한편, 딥 러닝 기반의 기 학습된 인공지능 알고리즘 모델은, 세그먼테이션 모델(segmentation model)일 수 있다. Meanwhile, the deep learning-based pre-learned artificial intelligence algorithm model may be a segmentation model.
도 3a에서는, 세그먼테이션 모델이, 획득한 의료 영상(310)을 복수의 컨볼루션(convolution) 레이어를 갖는 인코더 네트워크(encoder network) 및 디코더 네트워크(decoder network)를 통해 처리하여, 영상 처리된 의료 영상(320)으로 출력하는 SegNet으로 구현되는 것을 도시하였으나, 본 발명이 이에 한정되는 것은 아니며, FCN(Fully Convolutional Network), U-net, DeepLab 등의 모델로 구현될 수 있다.In FIG. 3A, the segmentation model processes the obtained
한편, X선을 이용한 의료 영상의 경우, 대상을 투과하는 X선의 특성으로 인해, 의료 영상에 포함된 복수의 해부학적 구성이 서로 겹쳐져 표시될 수 있다. 예를 들면, 신체 부위 중 흉부를 X선을 이용하여 촬영하는 경우, 심장, 폐, 늑골 등의 기관들이 서로 겹쳐져 표시될 수 있다.Meanwhile, in the case of a medical image using X-rays, a plurality of anatomical components included in the medical image may be displayed overlapping each other due to characteristics of X-rays passing through an object. For example, when the chest among body parts is photographed using X-rays, organs such as the heart, lungs, and ribs may be displayed overlapping each other.
이때, X선을 이용한 의료 영상을 세그먼테이션 모델을 통해 단순히 학습할 경우, 기관들이 겹쳐지는 부분에 대한 학습이 정확하게 수행되기 어려워, 의료 영상에 포함된 복수의 해부학적 구성을 정확하게 검출하기 어려운 문제점이 있다.At this time, when a medical image using X-rays is simply learned through a segmentation model, it is difficult to accurately perform learning of overlapping organs, so there is a problem in that it is difficult to accurately detect a plurality of anatomical configurations included in the medical image. .
이를 고려하여, 본 발명의 다양한 실시예에 따르면, 의료 영상 처리 장치(200)에 저장된 머신 러닝을 통해 기 학습된 모델은, 복수의 클래스(class) 중 어느 하나에 대하여 각각 매핑(mapping)된 세부 영역(예: 픽셀)을 포함하는 의료 영상을, 머신 러닝을 통해 학습한 결과에 기초한 모델일 수 있다. In consideration of this, according to various embodiments of the present disclosure, a model pre-trained through machine learning stored in the medical
여기서, 복수의 클래스는, 복수의 해부학적 구성 중 적어도 하나를 포함하는 집합을 가리킬 수 있다. 이때, 복수의 클래스는, 복수의 해부학적 구성 중 어느 하나를 포함하는 집합부터, 복수의 해부학적 구성을 모두 포함하는 집합까지 나타낼 수 있다. Here, the plurality of classes may refer to a set including at least one of a plurality of anatomical configurations. In this case, the plurality of classes may represent a set including any one of the plurality of anatomical configurations to a set including all of the plurality of anatomical configurations.
예를 들면, 흉부에 대한 복수의 클래스는, 이하 표 1과 같이 결정될 수 있다.For example, a plurality of classes for the chest may be determined as shown in Table 1 below.
이때, 도 3b에 도시된 흉부에 대한 의료 영상을 구성하는 세부 영역 각각이, 흉부에 대한 복수의 클래스 중 어느 하나와 매핑되는 경우, 도 3b에 도시된 의료 영상은 도 3c에 도시된 의료 영상과 같이 재구성될 수 있다. In this case, when each of the detailed regions constituting the medical image of the chest shown in FIG. 3B is mapped to any one of a plurality of classes for the chest, the medical image shown in FIG. 3B is the same as the medical image shown in FIG. 3C . can be reconstructed together.
도 3c를 참조하면, 폐 및 늑골에 대응하는 세부 영역(330)은 클래스 12, 폐, 심장 및 늑골에 대응하는 세부 영역(335)은 클래스 14, 폐에 대응하는 세부 영역(340)은 클래스 10, 폐 및 심장에 대응하는 세부 영역(350)은 클래스 11, 늑골에 대응하는 세부 영역(360)은 클래스 30과 각각 매핑될 수 있다. Referring to FIG. 3C , the
즉, 의료 영상 처리 장치(200)의 저장부(230)에 저장된, 머신 러닝을 통해 기 학습된 모델은, 도 3c와 같이 복수의 클래스에 따라 재구성된 의료 영상을 머신 러닝을 통해 학습한 결과에 기초한 모델일 수 있다.That is, the model previously learned through machine learning stored in the
한편, 저장부(230)는, 의료 영상에 포함된 복수의 해부학적 구성에 대한 이미지를 저장할 수 있다.Meanwhile, the
예를 들면, 저장부(230)는, 다양한 카테터의 일 부분에 해당하는 이미지에 대한 데이터베이스를 저장할 수 있다. 이때, 데이터베이스에 포함된 이미지는, 도 4에 도시된 것과 같이, 중심에 카테터가 배치된 다양한 이미지일 수 있다. For example, the
예를 들면, 저장부(230)는, 다양한 뼈나 관절의 일 부분에 해당하는 이미지에 대한 데이터베이스를 저장할 수 있다.For example, the
입력부(240)는, 의료 영상 처리 장치(200)의 동작과 관련된 각종 사용자 명령을 수신할 수 있고, 입력된 명령에 대응하는 제어 신호를 제어부(260)에 전달할 수 있다. The
입력부(240)는, 터치 스크린, 키보드, 마우스, 마이크 등을 포함할 수 있다.The
입력부(240)는, 의료 영상 처리 시스템(100)의 입력부의 적어도 일부를 포함할 수 있다. The
출력부(250)는, 디스플레이(미도시), 발광 다이오드(Light Emitting Diode: LED) 등의 표시 장치를 구비할 수 있고, 의료 영상 처리 장치(200)의 동작과 관련된 화면을 표시할 수 있다.The
예를 들면, 출력부(250)는, 디스플레이를 통해, 영상 처리된 의료 영상을 출력할 수 있다.For example, the
출력부(250)는, 스피커, 버저 등의 오디오 장치를 구비할 수도 있다. 예를 들면, 출력부(250)는, 의료 영상 처리 장치(200)의 상태에 대한 효과음을 출력할 수 있고, 에러 발생시 소정의 경고음을 출력할 수 있다.The
제어부(260)는, 적어도 하나의 프로세서를 포함할 수 있고, 이에 포함된 프로세서를 이용하여, 의료 영상 처리 장치(200)의 동작 전반을 제어할 수 있다. 여기서, 프로세서는 CPU(central processing unit)과 같은 일반적인 프로세서일 수 있다. 물론, 프로세서는 ASIC과 같은 전용 장치(dedicated device)이거나 다른 하드웨어 기반의 프로세서일 수 있다.The
제어부(260)가 복수의 프로세서를 포함하는 경우, 복수의 프로세서는 하나의 칩 상에 집적될 수도 있고, 물리적으로 분리되어 배치될 수도 있다. When the
제어부(260)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 획득한 의료 영상을 처리할 수 있다. The
제어부(260)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 획득한, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출할 수 있다.The
이때, 제어부(260)는, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출할 수 있다. 여기서, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘은, 저장부(230)에 저장된 모델일 수 있다. In this case, the
제어부(260)는, 딥 러닝 등 머신 러닝을 통해 의료 영상을 학습하는 데이터 학습부(261) 및 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여 의료 영상을 처리하는 데이터 처리부(262)를 포함할 수 있다. The
제어부(260)는, 의료 영상에 포함된 복수의 해부학적 구성 중 기관을 검출하는 경우, 해당 의료 영상에 포함된 복수의 기관 중 적어도 하나에 대응하는 복수의 클래스를 결정할 수 있다.When detecting an organ from among a plurality of anatomical components included in a medical image, the
이때, 제어부(260)는, 의료 영상에 대응하는 신체 부위를 판단할 수 있고, 판단된 신체 부위에 따라, 해당 의료 영상에 포함된 복수의 기관을 결정할 수 있다.In this case, the
예를 들면, 의료 영상이 도 5a에 도시된 흉부에 대한 의료 영상인 경우, 제어부(260)는 의료 영상에 대응하는 신체 부위를 흉부로 판단할 수 있고, 의료 영상에 포함된 복수의 기관을 폐(lung), 심장(heart), 늑골(lib) 및 용골(carina)로 판단할 수 있다. For example, when the medical image is a medical image of the chest shown in FIG. 5A , the
이때, 제어부(260)는, 저장부(230)에 저장된 신체 부위에 대한 데이터에 기초하여, 의료 영상에 대응하는 신체 부위를 흉부로 판단할 수 있다. In this case, the
제어부(260)는, 흉부에 대한 의료 영상과 관련하여, 상기 표 1과 같이 복수의 클래스를 결정할 수 있다. The
한편, 제어부(260)는, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상의 세부 영역을, 복수의 클래스 중 어느 하나와 매핑할 수 있다.Meanwhile, the
도 5b를 참조하면, 제어부(260)는, 흉부에 대하여 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 통해 도 5a의 흉부에 대한 의료 영상을 처리하여, 늑골에 대응하는 세부 영역(510), 폐에 대응하는 세부 영역(520), 및 폐 및 늑골에 대응하는 세부 영역(530)을, 서로 다른 클래스에 매핑할 수 있다. Referring to FIG. 5B , the
제어부(260)는, 특정 기관을 검출하는 경우, 복수의 클래스 중 검출 대상인 특정 기관에 대응하는 클래스를 결정할 수 있다. When detecting a specific organ, the
예를 들어, 상기 표 1에 기초할 때, 제어부(260)가 폐를 검출하는 경우, 복수의 클래스 중 클래스 10 내지 17이, 폐에 대응하는 클래스로 결정될 수 있다.For example, based on Table 1, when the
이때, 제어부(260)는, 의료 영상을 구성하는 복수의 세부 영역 중, 폐에 대응하는 클래스 10 내지 17에 각각 매핑된 세부 영역을 결정할 수 있고, 결정된 세부 영역에 기초하여 폐를 검출할 수 있다. In this case, the
즉, 의료 영상을 구성하는 복수의 픽셀 중, 폐에 대응하는 클래스 10 내지 17에 각각 매핑된 픽셀들을 모두 결합하는 경우, 의료 영상으로부터 폐가 검출될 수 있다. That is, when all pixels mapped to
한편, 제어부(260)는, 의료 영상에 포함된 복수의 해부학적 구성 중 카테터를 검출하는 경우, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에서 카테터에 대응하는 객체가 포함된 관심 영역(region of interest; ROI)을 결정할 수 있고, 결정된 관심 영역에 기초하여 카테터를 검출할 수 있다. On the other hand, when detecting a catheter among a plurality of anatomical components included in the medical image, the
예를 들면, 제어부(260)는, 의료 영상 중, 저장부(230)에 저장된 카테터의 일 부분에 해당하는 이미지에 대응하는 부분을 관심 영역으로 결정할 수 있다.For example, the
제어부(260)는, 관심 영역에 포함된 카테터에 대응하는 객체의 방향을 확인할 수 있다. The
예를 들면, 의료 영상의 일 부분 중, 도 4의 제1 이미지(401)에 대응하는 부분이 관심 영역으로 결정된 경우, 제어부(260)는 관심 영역에 포함된 카테터에 대응하는 객체의 방향을 좌측 상단과, 우측 하단으로 결정할 수 있다.For example, when a portion of the medical image corresponding to the
예를 들면, 의료 영상의 일 부분 중, 도 4의 제5 이미지(405)에 대응하는 부분이 관심 영역으로 결정된 경우, 제어부(260)는 관심 영역에 포함된 카테터에 대응하는 객체의 방향을 좌측 하단과, 우측 상단으로 결정할 수 있다.For example, when the portion corresponding to the
제어부(260)는, 관심 영역에 포함된 카테터에 대응하는 객체의 방향에 기초하여, 해당 카테터에 대응하는 객체를 포함하는 다른 관심 영역을 결정할 수 있다.The
예를 들면, 도 6과 같이, 의료 영상의 제1 부분(601)이 제1 카테터에 대응하는 관심 영역으로 결정된 경우, 제어부(260)는 관심 영역으로 결정된 제1 부분(601)에 포함된, 카테터에 대응하는 객체의 방향을 좌측 하단으로 결정할 수 있다. For example, as shown in FIG. 6 , when the
이때, 제어부(260)는, 관심 영역에 포함된 카테터에 대응하는 객체의 방향에 따라, 의료 영상 중, 저장부(230)에 저장된 카테터의 일 부분에 해당하는 이미지에 대응하는 부분이 있는지 여부를 반복적으로 확인할 수 있다. At this time, the
예를 들면, 도 6과 같이, 의료 영상의 제1 부분(601)이 제1 카테터에 대응하는 관심 영역으로 결정된 경우, 제1 카테터에 대응하는 객체의 방향에 따라, 의료 영상 중 제2 부분(602)부터 제3 부분(603)까지 이어지는 각 부분을 제1 카테터에 대응하는 관심 영역으로 결정할 수 있다. For example, as shown in FIG. 6 , when the
한편, 카테터에 대응하는 객체를 포함하는 것으로 결정된 복수의 관심 영역 각각은, 중심에 카테터에 대응하는 객체를 포함할 수 있다.Meanwhile, each of the plurality of ROIs determined to include the object corresponding to the catheter may include the object corresponding to the catheter in the center.
또한, 카테터에 대응하는 객체를 포함하는 것으로 결정된 복수의 관심 영역 각각은, 카테터에 대응하는 객체에 기초하여, 서로 적어도 일부가 중첩될 수 있다. In addition, each of the plurality of regions of interest determined to include the object corresponding to the catheter may at least partially overlap each other based on the object corresponding to the catheter.
예를 들면, 도 6과 같이, 의료 영상의 제1 부분(601)과 제2 부분(602)은, 제1 카테터에 대응하는 영역이 서로 중첩될 수 있다.For example, as shown in FIG. 6 , in the
한편, 제어부(260)는, 관심 영역이 카테터의 가장자리에 대응하는 객체를 포함하거나, 카테터에 대응하는 객체의 방향에 따라 다른 관심 영역이 더 이상 확인되지 않는 경우, 해당 관심 영역을 말단 영역으로 결정할 수 있다.Meanwhile, when the region of interest includes an object corresponding to the edge of the catheter or another region of interest is no longer identified according to the direction of the object corresponding to the catheter, the
예를 들면, 도 6의 제1 부분(601)과 같이, 카테터의 가장자리에 해당하는 이미지에 대응하는 관심 영역의 경우, 말단 영역으로 결정될 수 있다.For example, as in the
한편, 제어부(260)는, 복수의 관심 영역에 기초하여, 카테터를 검출할 수 있다. 이때, 제어부(260)는, 복수의 관심 영역 간의 중첩 여부를 고려하여, 카테터를 검출할 수 있다.Meanwhile, the
예를 들면, 제어부(260)는, 도 6과 같이, 의료 영상 중 제1 부분(601)부터 제3 부분(603)까지 서로 적어도 일부가 중첩되는 복수의 관심 영역에 기초하여, 제1 카테터를 검출할 수 있다. 이때, 제어부(260)는, 제1 카테터에 대응하는 복수의 관심 영역의 중심을 서로 연결하여, 제1 카테터를 검출할 수 있다. For example, as shown in FIG. 6 , the
한편, 제어부(260)는, 복수의 관심 영역 중에서 말단 영역이 존재하는 경우, 해당 말단 영역으로부터 소정 거리 이내에 동일 카테터에 대한 다른 말단 영역이 존재하는지 여부를 판단할 수 있다.Meanwhile, when a distal region exists among the plurality of regions of interest, the
이때, 해당 말단 영역으로부터 소정 거리 이내에 다른 말단 영역이 존재하지 않는 경우, 제어부(260)는, 해당 말단 영역을 카테터의 가장자리로 결정할 수 있다.In this case, if there is no other end region within a predetermined distance from the corresponding end region, the
예를 들면, 도 6과 같이, 제1 카테터에 대응하는 복수의 관심 영역 중, 말단 영역인 제1 부분(601)의 경우, 소정 거리 이내에 제1 카테터에 대한 다른 말단 영역이 존재하지 않으므로, 제1 부분(601)은 제1 카테터의 가장자리로 결정될 수 있다.For example, as shown in FIG. 6 , among the plurality of regions of interest corresponding to the first catheter, in the case of the
한편, 도 6의 610 영역을 참조하면, 제1 카테터에 대응하는 복수의 관심 영역 중, 말단 영역인 제3 부분(603)의 경우, 소정 거리 이내에 제1 카테터에 대한 다른 말단 영역인 제4 부분(604)이 존재하므로, 제어부(260)는 두 말단 영역(603, 604)의 연결 여부를 결정할 수 있다.Meanwhile, referring to
이때, 제어부(260)는, 두 말단 영역에 포함된 카테터에 대응하는 객체의 방향에 기초하여, 두 말단 영역의 연결 여부를 결정할 수 있다.In this case, the
도 6의 610 영역과 같이, 제3 부분(603)에 포함된 제1 카테터에 대응하는 객체의 방향인 좌측 하단과, 제4 부분(604)에 포함된 제1 카테터에 대응하는 객체의 방향인 우측 상단이 서로 대응되고, 각 방향에 따라 연장된 제1 카테터가 서로 연결되는 경우, 제어부(260)는 두 말단 영역(603, 604)을 서로 연결할 수 있다. 이때, 서로 연결된 두 말단 영역(603, 604)은, 제1 카테터의 가장자리가 아닌 것으로 결정될 수 있다.As in the
또한, 제어부(260)는, 두 말단 영역(603, 604)의 연결 관계에 기초하여, 제1 카테터를 보다 정확하게 검출할 수 있다. 예를 들면, 제어부(260)는, 제1 카테터를 검출한 결과를 출력부(250)를 통해 출력하는 경우, 두 말단 영역(603, 604)의 중심을 서로 연결하여 표시할 수 있다.Also, the
이와 유사하게, 제어부(260)는, 의료 영상의 제5 부분(605)을 제2 카테터에 대한 관심 영역으로 결정할 수 있고, 의료 영상의 제6 부분(606)을 제3 카테터에 대한 관심 영역으로 결정할 수 있다. 또한, 제어부(260)는, 제2 카테터에 대한 복수의 관심 영역에 기초하여 제2 카테터를 검출할 수 있고, 제3 카테터에 대한 복수의 관심 영역에 기초하여 제3 카테터를 검출할 수 있다.Similarly, the
한편, 제어부(260)는, 의료 영상에 포함된 복수의 해부학적 구성 중 뼈나 관절을 검출하는 경우, 의료 영상에서 해당 뼈나 관절에 대응하는 객체가 포함된 관심 영역(region of interest; ROI)을 결정할 수 있고, 결정된 관심 영역에 기초하여 뼈나 관절을 검출할 수도 있다. Meanwhile, when detecting a bone or joint among a plurality of anatomical components included in the medical image, the
예를 들면, 제어부(260)는, 의료 영상 중, 저장부(230)에 저장된 뼈나 관절의 일 부분에 해당하는 이미지에 대응하는 부분을 관심 영역으로 결정할 수 있다.For example, the
제어부(260)는, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성 중, 검출된 해부학적 구성에 대한 정보를 결정할 수 있다. The
제어부(260)는, 복수의 해부학적 구성 중 기관을 검출한 경우, 검출된 기관의 형상에 기초하여, 해당 기관에 대한 정보를 결정할 수 있다. When an organ is detected from among a plurality of anatomical components, the
예를 들면, 제어부(260)는, 폐와 심장의 형상에 기초하여, 폐의 가로 길이와 심장의 가로 길이 간의 비율을, 심장에 대한 정보로 산출할 수 있다.For example, the
예를 들면, 제어부(260)는, 폐의 형상에 기초하여, 양쪽 횡경막(diaphragm)의 위치 간의 차이를, 횡경막에 대한 정보로 산출할 수 있다. For example, the
예를 들면, 제어부(260)는, 척추뼈의 형상에 기초하여, 척추뼈 각각의 모서리 및 중심을 결정할 수 있고, 척추뼈 각각의 모서리 및 중심에 기초하여. 척추뼈에 대한 정보를 결정할 수 있다.For example, the
제어부(260)는, 복수의 해부학적 구성 중 카테터를 검출한 경우, 검출된 카테터의 형상에 기초하여, 해당 카테터에 대한 정보를 결정할 수 있다.When a catheter is detected among a plurality of anatomical components, the
예를 들면, 제어부(260)는, 카테터의 형상에 기초하여, 카테터의 가장자리의 위치를, 카테터에 대한 정보로 결정할 수 있다.For example, the
제어부(260)는, 출력부(250)의 디스플레이를 통해, 의료 영상을 표시할 수 있다. The
이때, 출력부(250)를 통해 표시된 의료 영상에 포함된 해부학적 구성 중 어느 하나를 선택하는 사용자 입력이 입력부(240)를 통해 수신되는 경우, 제어부(260)는 선택된 해부학적 구성에 대한 정보를, 출력부(250)를 통해 출력할 수 있다. 이와 관련하여, 도 7a 내지 7f, 및 8를 참조하여 설명하도록 한다. At this time, when a user input for selecting any one of the anatomical components included in the medical image displayed through the
도 7a를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 폐에 위치할 수 있다.Referring to FIG. 7A , according to a user input received through the
이때, 제어부(260)는, 복수의 해부학적 구성 중 폐를, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 폐가 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the
예를 들면, 도 7a와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 폐의 형상에 따라 별도의 점선(701)이 표시될 수 있다.For example, as shown in FIG. 7A , a separate dotted
또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 폐에 대한 정보로서, 늑골횡격막각(costophrenic angle; CPA)을 나타내는 인디케이터(702)를 표시할 수 있다. Also, the
이때, 늑골횡격막각(CPA)이 기 설정된 정상 범위에 해당하지 않는 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다. At this time, when the costal diaphragm angle (CPA) does not fall within the preset normal range, the
예를 들면, 제어부(260)는, 늑골횡격막각(CPA)이 기 설정된 정상 범위에 해당하지 않는 경우, 흉막강 사이에 흉수가 소정 수준 이상 찼을 가능성이 있음을 경고하는 경고 메시지를 출력할 수 있다. For example, when the costal diaphragm angle (CPA) does not fall within a preset normal range, the
도 7b를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 용골에 위치할 수 있다.Referring to FIG. 7B , according to a user input received through the
이때, 제어부(260)는, 복수의 해부학적 구성 중 용골을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 용골이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the
또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 용골에 대한 정보로서, 기도의 치우침 정도(tracheal deviation)를 나타내는 인디케이터(703, 704)를 표시할 수 있다. 이때, 기도의 치우침 정도가 기 설정된 정상 범위에 해당하지 않는 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.Also, the
예를 들면, 제어부(260)는, 기도의 치우침 정도가 기 설정된 정상 범위에 해당하지 않는 경우, 긴장성 기흉(tension pneumothorax)이나 종양(tumor)에 의한 압박 가능성을 경고하는 경고 메시지를 출력할 수 있다. For example, when the degree of airway bias does not fall within a preset normal range, the
도 7c를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 횡격막에 위치할 수 있다.Referring to FIG. 7C , according to a user input received through the
이때, 제어부(260)는, 복수의 해부학적 구성 중 횡격막을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 횡격막이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the
예를 들면, 도 7c와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 횡격막의 형상에 따라 별도의 점선(705, 706)이 표시될 수 있다.For example, as shown in FIG. 7C , separate
또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 횡격막에 대한 정보로서, 양측 횡격막의 위치 간의 차이를 나타내는 인디케이터(미도시)를 표시할 수 있다. 이때, 좌측 횡격막이 우측 횡격막보다 상측에 위치하는 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.Also, the
예를 들면, 제어부(260)는, 좌측 횡격막이 우측 횡격막보다 상측에 위치하는 경우, 위(stomach)에 가스(gas)가 찼거나, 늑막신경의 마비에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the left diaphragm is located above the right diaphragm, the
도 7d를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 심장에 위치할 수 있다.Referring to FIG. 7D , according to a user input received through the
이때, 제어부(260)는, 복수의 해부학적 구성 중 심장을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 심장이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the
예를 들면, 도 7d와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 심장을 색을 다른 해부학적 구성의 색과 상이하게 표시될 수 있다.For example, as shown in FIG. 7D , the color of the heart, which is an anatomical component selected according to a user input, may be displayed differently from the colors of other anatomical components.
또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 심장에 대한 정보로서, 폐의 가로 길이와 심장의 가로 길이 간의 차이를 나타내는 인디케이터(707, 708)를 표시할 수 있다. 이때, 심장의 가로 길이가 폐의 가로 길이의 절반 이상인 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.Also, the
예를 들면, 제어부(260)는, 심장의 가로 길이가 폐의 가로 길이의 절반 이상인 경우, 심장 비대(cardiomegaly)에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the horizontal length of the heart is more than half the horizontal length of the lungs, the
도 7e를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 척추뼈에 위치할 수 있다.Referring to FIG. 7E , according to a user input received through the
이때, 제어부(260)는, 복수의 해부학적 구성 중 척추뼈를, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 척추뼈가 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the
예를 들면, 도 7e와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 척추뼈의 형상에 따라 별도의 실선(709)이 표시될 수 있다.For example, as shown in FIG. 7E , a separate
또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 척추뼈에 대한 정보로서, 척추뼈 각각의 중심, 기울기 등을 나타내는 인디케이터(710)를 표시할 수 있다. 제어부(260)는, 척추뼈 사이의 디스크를 나타내는 인디케이터(미도시)를 표시할 수도 있다. Also, the
이때, 제어부(260)는, 척추뼈의 중심 간의 위치 차이가 소정 기준 이상인 경우, 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.In this case, the
예를 들면, 제어부(260)는, 척추뼈의 중심 간의 위치 차이가 소정 기준 이상인 경우, 척추측만증(Scoliosis)에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the position difference between the centers of the vertebrae is greater than or equal to a predetermined criterion, the
도 7f를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 관절에 위치할 수 있다.Referring to FIG. 7F , according to a user input received through the
이때, 제어부(260)는, 복수의 해부학적 구성 중 관절을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 관절이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the
또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 관절에 대한 정보로서, 관절의 특징점(keypoint)을 나타내는 인디케이터(711)를 표시할 수 있다. 제어부(260)는, 관절의 특징점 간의 거리, 거리의 평균, 편차 등에 대한 정보를 표시할 수도 있다. Also, the
이때, 제어부(260)는, 관절의 특징점 간의 거리의 평균이 소정 기준 미만인 경우, 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.In this case, the
예를 들면, 제어부(260)는, 관절의 특징점 간의 거리의 평균이 소정 기준 미만인 경우, 관절염(arthritis)에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the average of the distances between feature points of the joints is less than a predetermined criterion, the
한편, 도 8을 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 카테터 중 어느 하나에 위치할 수 있다.Meanwhile, referring to FIG. 8 , according to a user input received through the
이때, 제어부(260)는, 복수의 해부학적 구성 중 카테터를, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 카테터가 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the
또한, 제어부(260)는, 사용자 입력에 따라 선택된 특정 카테터에 대한 정보로서, 특정 카테터의 가장자리를 강조하여 나타내는 인디케이터를 표시할 수 있다. In addition, the
예를 들면, 도 8과 같이, 의료 영상에 복수의 카테터(810, 820, 830)가 포함된 경우, 복수의 카테터(810, 820, 830) 각각의 색이 서로 상이하게 표시될 수 있다. 또한, 포인터(700)의 위치가 말초 삽입형 중심정맥관(Peripherally Inserted Central Catheter; PICC)(820)에 위치하는 경우, PICC(820)의 가장자리를 나타내는 인디케이터(825)가 표시될 수 있다.For example, as shown in FIG. 8 , when a plurality of
상기와 같이, 본 발명의 다양한 실시예에 따르면, 의료 영상에 포함된 복수의 해부학적 구성에 각각 대응하는 영역들이 서로 겹쳐지는 경우에도, 복수의 해부학적 구성을 정확하게 검출할 수 있어, 의료 영상에 대한 처리 성능을 향상시킬 수 있다. As described above, according to various embodiments of the present disclosure, even when regions corresponding to a plurality of anatomical configurations included in a medical image overlap each other, it is possible to accurately detect a plurality of anatomical configurations, processing performance can be improved.
도 9 내지 11은, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 동작방법에 관한 순서도이다. 9 to 11 are flowcharts of a method of operating a medical image processing apparatus according to an embodiment of the present invention.
도 9를 참조하면, 의료 영상 처리 장치(200)는, S901 동작에서, 의료 영상을 획득할 수 있고, 획득한 의료 영상을 확인할 수 있다.Referring to FIG. 9 , in operation S901 , the medical
예를 들면, 의료 영상 처리 장치(200)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 X선을 이용한 의료 영상을 획득할 수 있다.For example, the medical
예를 들면, 의료 영상 처리 장치(200)는, 획득한 의료 영상에 대응하는 신체 분위를 판단할 수 있고, 판단된 신체 부위에 따라, 해당 의료 영상에 포함되는 복수의 기관이나 카테터를 결정할 수 있다.For example, the medical
의료 영상 처리 장치(200)는, S902 동작에서, 의료 영상에 포함된 복수의 해부학적 구성 중, 기관의 검출 여부를 결정할 수 있다.The medical
예를 들면, 의료 영상 처리 장치(200)는, 출력부(250)를 통해, 기관의 검출 여부 및 검출 대상인 기관을 적어도 하나 결정하도록 가이드(guide)하는 제1 가이드 화면을 출력할 수 있고, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 검출 대상인 기관을 결정할 수 있다.For example, the medical
의료 영상 처리 장치(200)는, S903 동작에서, 기관을 검출하지 않는 것으로 결정된 경우, 카테터의 검출 여부를 결정할 수 있다.When it is determined not to detect an organ in operation S903 , the medical
예를 들면, 의료 영상 처리 장치(200)는, 출력부(250)를 통해, 카테터의 검출 여부 및 검출 대상인 카테터를 적어도 하나 결정하도록 가이드하는 제2 가이드 화면을 출력할 수 있고, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 검출 대상인 카테터를 결정할 수 있다.For example, the medical
이때, 의료 영상 처리 장치(200)는, 제1 가이드 화면 및 제2 가이드 화면을 동시에 표시할 수도 있고, 순차적으로 표시할 수도 있다. In this case, the medical
의료 영상 처리 장치(200)는, S904 동작에서, 기관 및 카테터를 모두 검출하지 않는 것으로 결정된 경우, 획득한 의료 영상을 출력부(250)을 통해 그대로 출력할 수 있다.When it is determined that neither the organ nor the catheter are detected in operation S904 , the medical
한편, 의료 영상 처리 장치(200)는, S905 동작에서, 의료 영상에 포함된 복수의 해부학적 구성 중, 기관을 적어도 하나 검출하는 것으로 결정된 경우, 의료 영상에 포함된 복수의 기관 중 검출 대상인 적어도 하나의 기관을 검출할 수 있고, 검출된 기관에 대한 정보를 결정할 수 있다. 이와 관련하여, 도 10을 참조하여 설명하도록 한다.Meanwhile, in operation S905 , when it is determined to detect at least one organ among a plurality of anatomical components included in the medical image, the medical
도 10을 참조하면, 의료 영상 처리 장치(200)는, S1010 동작에서, 의료 영상에 포함된 기관 중 적어도 하나에 대응하는 복수의 클래스를 결정할 수 있다. Referring to FIG. 10 , in operation S1010 , the medical
예를 들면, 복수의 클래스 중, 제1 클래스는 제1 기관에 대응하고, 제2 클래스는 제2 기관에 대응하고, 제3 클래스는 제1 기관 및 제2 기관 모두에 대응할 수 있다. For example, among the plurality of classes, a first class may correspond to a first institution, a second class may correspond to a second institution, and a third class may correspond to both the first institution and the second institution.
의료 영상 처리 장치(200)는, S1020 동작에서, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상의 세부 영역 각각을, 복수의 클래스 중 어느 하나와 매핑할 수 있다.In operation S1020 , the medical
예를 들면, 의료 영상 처리 장치(200)는, 의료 영상의 복수의 세부 영역 중, 제1 기관에만 해당하는 세부 영역은 제1 클래스와 매핑하고, 제2 기관에만 해당하는 세부 영역은 제2 클래스와 매핑하고, 제1 기관 및 제2 기관 모두에 해당하는 세부 영역은 제3 클래스에 매핑할 수 있다.For example, the medical
의료 영상 처리 장치(200)는, S1030 동작에서, 복수의 클래스 중 검출 대상인 특정 기관에 대응하는 클래스를 적어도 하나 결정할 수 있다.In operation S1030 , the medical
의료 영상 처리 장치(200)는, S1040 동작에서, 의료 영상을 구성하는 복수의 세부 영역 중, S1030 동작에서 결정된 적어도 하나의 클래스에 매핑된 세부 영역을 결정할 수 있다. In operation S1040 , the medical
의료 영상 처리 장치(200)는, S1050 동작에서, S1040 동작에서 결정된 세부 영역에 따라, 검출 대상인 기관을 검출할 수 있다. The medical
예를 들면, 의료 영상 처리 장치(200)는, 의료 영상을 구성하는 복수의 픽셀 중, 검출 대상인 기관에 대응하는 클래스에 각각 매핑된 픽셀들을 모두 결합하여, 의료 영상으로부터 검출 대상인 기관을 검출할 수 있다.For example, the medical
의료 영상 처리 장치(200)는, S1060 동작에서, 검출된 기관에 대한 정보를 결정할 수 있다. The medical
예를 들면, 의료 영상 처리 장치(200)는, 검출된 기관의 형상에 기초하여, 해당 기관에 대한 정보를 결정할 수 있다. For example, the medical
다시 도 9를 참조하면, 의료 영상 처리 장치(200)는, S906 동작에서, 카테터의 검출 여부를 결정할 수 있다.Referring back to FIG. 9 , the medical
의료 영상 처리 장치(200)는, S907 동작에서, S903 동작 또는 S906 동작에서 카테터를 검출하는 것으로 결정된 경우, 의료 영상에 포함된 카테터를 검출할 수 있고, 검출된 카테터에 대한 정보를 결정할 수 있다. 이와 관련하여, 도 11을 참조하여 설명하도록 한다.When it is determined in operation S907 to detect the catheter in operation S903 or S906, the medical
도 11을 참조하면, 의료 영상 처리 장치(200)는, S1110 동작에서, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에서 카테터에 대응하는 객체가 포함된 관심 영역이 존재하는지 여부를 판단할 수 있다.Referring to FIG. 11 , in operation S1110 , the medical
예를 들면, 의료 영상 처리 장치(200)는, 저장부(230)에 저장된 다양한 카테터의 일 부분에 해당하는 이미지에 대한 데이터베이스에 기초하여, 의료 영상에서 카테터에 대응하는 객체가 포함된 관심 영역이 존재하는지 여부를 판단할 수 있다.For example, the medical
의료 영상 처리 장치(200)는, S1120 동작에서, 관심 영역이 존재하는 경우, 해당 관심 영역이 말단 영역에 해당하는지 여부를 판단할 수 있다. In operation S1120 , the medical
예를 들면, 의료 영상 처리 장치(200)는, 관심 영역이 카테터의 가장자리에 대응하는 객체를 포함하거나, 카테터에 대응하는 객체의 방향에 따라 다른 관심 영역이 더 이상 확인되지 않는 경우, 해당 관심 영역을 말단 영역으로 결정할 수 있다.For example, when the ROI includes an object corresponding to the edge of the catheter or another ROI is no longer identified according to the direction of the object corresponding to the catheter, the medical
의료 영상 처리 장치(200)는, S1130 동작에서, 관심 영역이 말단 영역에 해당하지 않는 경우, 관심 영역에 포함된 카테터에 대응하는 객체의 방향에 기초하여, 해당 카테터에 대응하는 객체를 포함하는 다른 관심 영역을 결정할 수 있다.In operation S1130 , when the ROI does not correspond to the distal region, the medical
한편, 의료 영상 처리 장치(200)는, S1140 동작에서, 관심 영역이 말단 영역에 해당하는 경우, 해당 관심 영역으로부터 소정 거리 이내에 동일 카테터에 대한 다른 말단 영역이 존재하는지 여부를 판단할 수 있다.Meanwhile, in operation S1140 , when the ROI corresponds to the distal region, the medical
의료 영상 처리 장치(200)는, S1150 동작에서, 해당 관심 영역으로부터 소정 거리 이내에 다른 말단 영역이 존재하지 않는 경우, 해당 관심 영역을 카테터의 가장자리로 결정할 수 있다.In operation S1150 , when another distal region does not exist within a predetermined distance from the ROI, the medical
한편, 의료 영상 처리 장치(200)는, S1160 동작에서, 해당 관심 영역으로부터 소정 거리 이내에 다른 말단 영역이 존재하는 경우, 다른 말단 영역이 해당 관심 영역과 연결 가능한 대상인지 여부를 판단할 수 있다. Meanwhile, in operation S1160 , when another end region exists within a predetermined distance from the corresponding region of interest, the medical
예를 들면, 의료 영상 처리 장치(200)는, 두 말단 영역에 포함된 카테터에 대응하는 객체의 방향 등에 기초하여, 두 말단 영역의 연결 여부를 결정할 수 있다.For example, the medical
의료 영상 처리 장치(200)는, S1150 동작에서, 다른 말단 영역이 해당 관심 영역과 연결 가능한 대상이 아닌 경우, 해당 관심 영역을 카테터의 가장자리로 결정할 수 있고, S1110 동작으로 분기하여, 관심 영역의 존재 여부에 대한 확인을 반복할 수 있다. In operation S1150 , if the other end region is not an object connectable to the region of interest, the medical
한편, 의료 영상 처리 장치(200)는, S1160 동작에서, 다른 말단 영역이 해당 관심 영역과 연결 가능한 대상인 경우, 해당 관심 영역과 다른 말단 영역을 서로 연결할 수 있고, S1110 동작으로 분기하여, 관심 영역의 존재 여부에 대한 확인을 반복할 수 있다.Meanwhile, in operation S1160 , if the other end region is a connectable target with the corresponding region of interest, the medical
이때, 서로 연결된 두 말단 영역인 관심 영역은, 카테터의 가장자리가 아닌 것으로 결정될 수 있다. In this case, the region of interest, which is the two distal regions connected to each other, may be determined not to be the edge of the catheter.
한편, 의료 영상 처리 장치(200)는, S1110 동작 내지 1160 동작에 기초하여 검출된 카테터의 형상에 기초하여, 카테터의 가장자리의 위치를, 카테터에 대한 정보로 결정할 수 있다.Meanwhile, the medical
다시 도 9를 참조하면, 의료 영상 처리 장치(200)는, S908 동작에서, 의료 영상을 출력부(250)을 통해 출력할 수 있다.Referring again to FIG. 9 , the medical
이때, 의료 영상 처리 장치(200)는, S905 동작 및/또는 S907 동작에서 검출된 해부학적 구성에 대한 정보(예: 검출된 기관에 대한 리스트(list), 카테터에 대한 리스트 등)을 함께 출력할 수도 있다.In this case, the medical
의료 영상 처리 장치(200)는, S909 동작에서, 출력부(250)을 통해 출력된 표시된 의료 영상에 포함된 기관 및/또는 카테터 중 어느 하나를 선택하는 사용자 입력이 수신되는지 여부를 확인할 수 있다.In operation S909 , the medical
의료 영상 처리 장치(200)는, S910 동작에서, 사용자 입력에 따라 선택된 해부학적 구성에 대한 정보를, 출력부(250)를 통해 출력할 수 있다.In operation S910 , the medical
의료 영상 처리 장치(200)는, S911 동작에서, 의료 영상의 표시가 종료되는지 여부를 확인할 수 있다.In operation S911 , the medical
예를 들면, 입력부(240)를 통해 의료 영상의 표시를 종료하는 사용자 입력이 수신되는 경우, 의료 영상 처리 장치(200)는 의료 영상의 표시를 종료할 수 있다.For example, when a user input terminating the display of the medical image is received through the
첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes and equivalents included in the spirit and scope of the present invention It should be understood to include water or substitutes.
한편, 본 발명의 영상처리장치의 동작방법은 영상처리장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the method of operating an image processing apparatus of the present invention can be implemented as processor-readable codes on a processor-readable recording medium provided in the image processing apparatus. The processor-readable recording medium includes all types of recording devices in which data readable by the processor is stored. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., and also includes those implemented in the form of carrier waves such as transmission over the Internet . In addition, the processor-readable recording medium is distributed in a computer system connected through a network, so that the processor-readable code can be stored and executed in a distributed manner.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims In addition, various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
Claims (10)
X선을 이용한 의료 영상을 획득하는 영상 획득부;
디스플레이; 및
제어부를 포함하고,
상기 제어부는,
미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 상기 의료 영상을 구성하는 복수의 세부 영역 각각을, 복수의 기관(organ) 중 적어도 하나에 대응하는 복수의 클래스(class) 중 어느 하나와 매핑(mapping)하고,
상기 매핑 결과에 기초하여, 상기 의료 영상에 포함되는 복수의 기관 중 검출 대상인 기관을 검출하고,
상기 디스플레이를 통해, 상기 검출 대상인 기관을 표시하고,
상기 복수의 클래스 중, 제1 클래스는 제1 기관에 대응하고, 제2 클래스는 제2 기관에 대응하고, 제3 클래스는 상기 제1 기관 및 상기 제2 기관 모두에 대응하는 것을 특징으로 하는 의료 영상 처리 장치.A medical image processing apparatus comprising:
an image acquisition unit for acquiring a medical image using X-rays;
display; and
including a control unit;
The control unit is
Each of a plurality of detailed regions constituting the medical image is mapped to any one of a plurality of classes corresponding to at least one of a plurality of organs by using a pre-trained deep learning-based artificial intelligence algorithm (mapping),
detecting an organ to be detected from among a plurality of organs included in the medical image based on the mapping result;
Through the display, the detection target organ is displayed,
Among the plurality of classes, a first class corresponds to a first institution, a second class corresponds to a second institution, and a third class corresponds to both the first institution and the second institution. image processing device.
입력부를 더 포함하고,
상기 제어부는,
상기 복수의 기관 중 어느 하나를 상기 검출 대상으로 선택하는 사용자 입력이 상기 입력부를 통해 수신되는 경우, 상기 사용자 입력에 따라 상기 검출 대상으로 선택된 기관을 다른 기관과 구분하여 표시하고,
상기 사용자 입력에 따라 상기 검출 대상으로 선택된 기관에 대한 정보를 상기 디스플레이를 통해 표시하는 것을 특징으로 하는 의료 영상 처리 장치.According to claim 1,
further comprising an input unit,
The control unit is
When a user input for selecting any one of the plurality of organs as the detection target is received through the input unit, the organ selected as the detection target according to the user input is displayed separately from other organs,
The medical image processing apparatus of claim 1, wherein information on the organ selected as the detection target according to the user input is displayed on the display.
상기 제어부는,
상기 의료 영상에 대응하는 신체 부위를 판단하고,
상기 판단된 신체 부위에 따라, 상기 의료 영상에 포함되는 복수의 기관을 결정하는 것을 특징으로 하는 의료 영상 처리 장치.According to claim 1,
The control unit is
determining a body part corresponding to the medical image,
and determining a plurality of organs included in the medical image according to the determined body part.
상기 제어부는,
상기 복수의 세부 영역 중, 제1 기관에만 해당하는 세부 영역은 상기 제1 클래스와 매핑하고, 제2 기관에만 해당하는 세부 영역은 상기 제2 클래스와 매핑하고, 상기 제1 기관 및 상기 제2 기관 모두에 해당하는 세부 영역은 상기 제3 클래스에 매핑하는 것을 특징으로 하는 의료 영상 처리 장치.According to claim 1,
The control unit is
Among the plurality of sub-regions, a sub-region corresponding only to a first institution is mapped to the first class, a sub-region corresponding only to a second institution is mapped to the second class, and the first institution and the second institution The medical image processing apparatus according to claim 1, wherein the sub-regions corresponding to all are mapped to the third class.
상기 제어부는,
상기 복수의 클래스 중, 상기 검출 대상인 기관에 대응하는 클래스를 적어도 하나 결정하고,
상기 복수의 세부 영역 중, 상기 결정된 클래스에 매핑된 세부 영역을 적어도 하나 결정하고,
상기 결정된 세부 영역에 기초하여, 상기 검출 대상인 기관을 검출하는 것을 특징으로 하는 의료 영상 처리 장치.According to claim 1,
The control unit is
Determining at least one class corresponding to the organ to be detected from among the plurality of classes,
determining at least one subregion mapped to the determined class from among the plurality of subregions;
The medical image processing apparatus of claim 1, wherein the organ to be detected is detected based on the determined detailed area.
X선을 이용한 의료 영상을 획득하는 영상 획득부;
디스플레이; 및
제어부를 포함하고,
상기 제어부는,
미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 상기 의료 영상에서 카테터(catheter)에 대응하는 객체를 포함하는 관심 영역(region of interest; ROI)을 결정하고,
상기 결정된 관심 영역에 포함된 상기 카테터에 대응하는 객체의 방향에 기초하여, 상기 카테터에 대응하는 객체를 포함하는 다른 관심 영역을 결정하고,
복수의 관심 영역 중, 상기 카테터의 가장자리에 대응하는 객체를 포함하는 제1 말단 영역이 존재하는 경우, 상기 제1 말단 영역으로부터 소정 거리 이내에 상기 카테터의 가장자리에 대응하는 객체를 포함하는 제2 말단 영역이 존재하는지 여부를 판단하고,
상기 판단 결과에 기초하여, 상기 복수의 관심 영역 중 상기 카테터의 가장자리에 해당하는 관심 영역을 결정하고,
상기 카테터에 대응하는 객체를 포함하는 것으로 결정된 복수의 관심 영역에 기초하여, 상기 카테터를 검출하는 것을 특징으로 하는 의료 영상 처리 장치.A medical image processing apparatus comprising:
an image acquisition unit for acquiring a medical image using X-rays;
display; and
including a control unit,
The control unit is
Determining a region of interest (ROI) including an object corresponding to a catheter in the medical image by using a pre-trained deep learning-based artificial intelligence algorithm,
Based on the direction of the object corresponding to the catheter included in the determined region of interest, determining another region of interest including the object corresponding to the catheter,
If there is a first distal region including an object corresponding to the edge of the catheter among the plurality of regions of interest, a second distal region including the object corresponding to the edge of the catheter within a predetermined distance from the first distal region to determine whether it exists,
determining a region of interest corresponding to an edge of the catheter among the plurality of regions of interest based on the determination result;
and detecting the catheter based on a plurality of ROIs determined to include an object corresponding to the catheter.
상기 복수의 관심 영역 각각은,
중심에 상기 카테터에 대응하는 객체를 포함하고,
상기 카테터에 대응하는 객체에 기초하여, 서로 적어도 일부가 중첩되고,
상기 제어부는,
상기 복수의 관심 영역 간의 중첩 여부를 고려하여, 상기 카테터를 검출하는 것을 특징으로 하는 의료 영상 처리 장치.8. The method of claim 7,
Each of the plurality of regions of interest,
Containing an object corresponding to the catheter in the center,
Based on the object corresponding to the catheter, at least partially overlapping each other,
The control unit is
The medical image processing apparatus of claim 1, wherein the catheter is detected in consideration of whether the plurality of regions of interest overlap each other.
상기 제어부는,
상기 제1 말단 영역으로부터 상기 소정 거리 이내에 상기 제2 말단 영역이 존재하지 않는 경우, 상기 제1 말단 영역을 상기 카테터의 가장자리에 해당하는 관심 영역으로 결정하는 것을 특징으로 하는 의료 영상 처리 장치.8. The method of claim 7,
The control unit is
and when the second end region does not exist within the predetermined distance from the first end region, the first end region is determined as a region of interest corresponding to an edge of the catheter.
상기 제어부는,
상기 제1 말단 영역으로부터 상기 소정 거리 이내에 상기 제2 말단 영역이 존재하는 경우, 상기 제1 말단 영역과 상기 제2 말단 영역에 각각 포함된 상기 카테터의 가장자리에 대응하는 객체의 방향에 기초하여, 상기 제1 말단 영역과 상기 제2 말단 영역의 연결 여부를 결정하는 것을 특징으로 하는 의료 영상 처리 장치. 8. The method of claim 7,
The control unit is
When the second end region is within the predetermined distance from the first end region, based on the orientation of the object corresponding to the edge of the catheter included in the first end region and the second end region, respectively, the and determining whether the first end region and the second end region are connected.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862775385P | 2018-12-04 | 2018-12-04 | |
US62/775,385 | 2018-12-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200067769A KR20200067769A (en) | 2020-06-12 |
KR102330340B1 true KR102330340B1 (en) | 2021-11-22 |
Family
ID=71088366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190159616A KR102330340B1 (en) | 2018-12-04 | 2019-12-04 | Medical image processing apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102330340B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102559654B1 (en) * | 2021-08-03 | 2023-07-24 | 가톨릭대학교 산학협력단 | Pressure calculation method and apparatus for ventricular-abdominal shunt |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110228992A1 (en) | 2010-03-16 | 2011-09-22 | Siemens Corporation | Method and System for Guiding Catheter Detection in Fluoroscopic Images |
JP2017202315A (en) * | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical image diagnostic device |
JP2018078923A (en) * | 2016-11-14 | 2018-05-24 | 株式会社根本杏林堂 | Medical image display device, medical image display method and medical image display program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150108701A (en) * | 2014-03-18 | 2015-09-30 | 삼성전자주식회사 | System and method for visualizing anatomic elements in a medical image |
US10409235B2 (en) * | 2014-11-12 | 2019-09-10 | Siemens Healthcare Gmbh | Semantic medical image to 3D print of anatomic structure |
-
2019
- 2019-12-04 KR KR1020190159616A patent/KR102330340B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110228992A1 (en) | 2010-03-16 | 2011-09-22 | Siemens Corporation | Method and System for Guiding Catheter Detection in Fluoroscopic Images |
JP2017202315A (en) * | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical image diagnostic device |
JP2018078923A (en) * | 2016-11-14 | 2018-05-24 | 株式会社根本杏林堂 | Medical image display device, medical image display method and medical image display program |
Also Published As
Publication number | Publication date |
---|---|
KR20200067769A (en) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102094737B1 (en) | Medical image processing apparatus, medical image processing method, computer-readable medical-image processing program, moving-object tracking apparatus, and radiation therapy system | |
US20190057505A1 (en) | Automatic change detection in medical images | |
US10702713B2 (en) | X-ray fluoroscopic apparatus | |
US11141126B2 (en) | Medical apparatus and method | |
US20180247154A1 (en) | Image classification apparatus, method, and program | |
CN107809955B (en) | Real-time collimation and ROI-filter localization in X-ray imaging via automatic detection of landmarks of interest | |
CN106232011B (en) | Trachea marker | |
CN105027163A (en) | Scan region determining apparatus | |
KR20200089146A (en) | Apparatus and method for processing medical image | |
KR102579039B1 (en) | Medical image processing devices, treatment systems, and medical image processing programs | |
US20230105799A1 (en) | Program, information processing method, and information processing device | |
CN112641457A (en) | Synthetic parametric computed tomography from surface data in medical imaging | |
US20220351407A1 (en) | Program, information processing method, and information processing device | |
US11847730B2 (en) | Orientation detection in fluoroscopic images | |
WO2023186133A1 (en) | System and method for puncture path planning | |
CN109419521A (en) | For the system and method to subject imaging | |
KR102330340B1 (en) | Medical image processing apparatus | |
US11544848B2 (en) | Deep learning based methods and systems for automated subject anatomy and orientation identification | |
US11337669B2 (en) | Automatic positioning of an X-ray source by way of segmentation | |
US20110221754A1 (en) | Method and System for Graph Based Interactive Detection of Curve Structures in 2D Fluoroscopy | |
US9983848B2 (en) | Context-sensitive identification of regions of interest in a medical image | |
US11688294B2 (en) | Simplified, interactive, real-time ultrasound biofeedback system for speech remediation | |
JP7303144B2 (en) | Radiation imaging apparatus, object detection program for radiographic image, and object detection method for radiographic image | |
US20050281373A1 (en) | Method for the automatic scaling verification of an image, in particular a patient image | |
US20200229783A1 (en) | X-ray imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |