KR102330340B1 - Medical image processing apparatus - Google Patents

Medical image processing apparatus Download PDF

Info

Publication number
KR102330340B1
KR102330340B1 KR1020190159616A KR20190159616A KR102330340B1 KR 102330340 B1 KR102330340 B1 KR 102330340B1 KR 1020190159616 A KR1020190159616 A KR 1020190159616A KR 20190159616 A KR20190159616 A KR 20190159616A KR 102330340 B1 KR102330340 B1 KR 102330340B1
Authority
KR
South Korea
Prior art keywords
medical image
catheter
region
image processing
processing apparatus
Prior art date
Application number
KR1020190159616A
Other languages
Korean (ko)
Other versions
KR20200067769A (en
Inventor
김성현
오재현
홍윤표
임혜원
김동원
오유진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20200067769A publication Critical patent/KR20200067769A/en
Application granted granted Critical
Publication of KR102330340B1 publication Critical patent/KR102330340B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5252Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Epidemiology (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은, 의료 영상 처리 장치에 관한 것이다. 본 발명의 일 실시예에 따른 의료 영상 처리 장치는, X선을 이용한 의료 영상을 획득하는 영상 획득부, 디스플레이 및 제어부를 포함하고, 제어부는, 미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출하고, 검출된 적어도 하나의 해부학적 구성에 대한 정보를 결정하고, 디스플레이를 통해, 결정된 정보를 검출된 적어도 하나의 해부학적 구성과 함께 표시하며, 해부학적 구성은 기관(organ) 및 카테터(catheter) 중 적어도 하나를 포함할 수 있다. 그 외에 다양한 실시예들이 가능하다.The present invention relates to a medical image processing apparatus. A medical image processing apparatus according to an embodiment of the present invention includes an image acquisition unit that acquires a medical image using X-rays, a display, and a control unit, wherein the control unit uses an artificial intelligence algorithm based on deep learning learned in advance. , detects at least one of a plurality of anatomical configurations included in the medical image, determines information on the detected at least one anatomical configuration, and displays the determined information together with the detected at least one anatomical configuration Indicated, the anatomical configuration may include at least one of an organ and a catheter. In addition, various embodiments are possible.

Description

의료 영상 처리 장치{MEDICAL IMAGE PROCESSING APPARATUS}Medical image processing apparatus {MEDICAL IMAGE PROCESSING APPARATUS}

본 발명은, 의료 영상 처리 장치에 관한 것으로, 보다 상세하게는, 의료 영상을 처리하는 의료 영상 처리 장치에 관한 것이다.The present invention relates to a medical image processing apparatus, and more particularly, to a medical image processing apparatus for processing a medical image.

의료 영상 처리 장치는, 신체의 내부에 대한 영상을 획득 및 처리하는 장치이다. 의료 영상 처리 장치는, 신체의 내부 기관, 혈액과 같은 유체, 신체의 내부에 삽입된 의료용 기구 등에 대한 영상을 촬영 및 처리하여 제공하는 비침습적 검사 장치이며, 의사 등의 의료인은 의료 영상 처리 장치로부터 출력되는 의료 영상에 기초하여, 환자의 상태를 확인하고, 질병의 유무에 대한 판단을 보다 정확하게 수행할 수 있다. A medical image processing apparatus is an apparatus for acquiring and processing an image of an inside of a body. A medical image processing apparatus is a non-invasive examination apparatus that provides images of internal organs of the body, fluids such as blood, medical instruments inserted into the body, etc. Based on the output medical image, it is possible to check the patient's condition and more accurately determine the presence or absence of a disease.

최근, 의료 영상에 포함된 객체들을 분석하고, 분석 결과를 사용자에게 제공하여, 사용자가 의료 영상을 보다 정확하게 판독할 수 있도록 보조하는, 컴퓨터 보조 진단(Computer Aided Detection; CAD) 시스템이 널리 활용되고 있다. Recently, a Computer Aided Detection (CAD) system that analyzes objects included in a medical image and provides the analysis result to the user so that the user can more accurately read the medical image has been widely used. .

또한, 영상 처리 분야에서도 인공지능(Artificial Intelligence; AI)의 이용이 활발하게 이루어지고 있다. 특히, 머신 러닝(Machine learning) 및 딥 러닝(Deep learning)을 통해 기계가 수 많은 영상을 스스로 학습하고, 기계가 학습된 알고리즘 모델을 통해 영상을 보다 정확하고 빠르게 분석할 수 있게 됨에 따라, 이러한 인공지능(AI)을 이용한 의료 영상 처리와 관련된 연구가 CAD 시스템 분야에서 활발하게 이루어지고 있다.In addition, artificial intelligence (AI) is actively used in the image processing field. In particular, as the machine learns many images by itself through machine learning and deep learning, and the machine can analyze the images more accurately and quickly through the learned algorithm model, these artificial Research related to medical image processing using intelligence (AI) is being actively conducted in the CAD system field.

한편, X선(X-ray)을 대상체에 조사하고, 대상체를 통과한 X선을 감지하여 획득한 의료 영상(이하, X선을 이용한 의료 영상)과 같이, 신체의 내부 기관들과 의료용 기구들이 서로 겹쳐져 표시되는 경우, 머신 러닝 및 딥 러닝을 이용하는 경우에도 겹쳐진 부분에 대한 정확한 학습이 어려워, 종래의 CAD 시스템을 이용하더라도 의료 영상을 정확하게 처리하여 분석하기 어려운 문제점이 있다.On the other hand, as in a medical image (hereinafter referred to as a medical image using X-rays) obtained by irradiating X-rays to an object and detecting X-rays passing through the object, internal organs of the body and medical instruments When displayed overlapping each other, even when using machine learning and deep learning, it is difficult to accurately learn the overlapping portion, so even if a conventional CAD system is used, it is difficult to accurately process and analyze the medical image.

본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention aims to solve the above and other problems.

또 다른 목적은, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성을 정확하게 검출할 수 있는 의료 영상 처리 장치를 제공함에 있다.Another object of the present invention is to provide a medical image processing apparatus capable of accurately detecting a plurality of anatomical components included in a medical image using X-rays.

상기 목적을 달성하기 위한, 본 발명의 일 실시예에 따른 의료 영상 처리 장치는, X선을 이용한 의료 영상을 획득하는 영상 획득부, 디스플레이 및 제어부를 포함하고, 제어부는, 미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출하고, 검출된 적어도 하나의 해부학적 구성에 대한 정보를 결정하고, 디스플레이를 통해, 결정된 정보를 검출된 적어도 하나의 해부학적 구성과 함께 표시하며, 해부학적 구성은 기관(organ) 및 카테터(catheter) 중 적어도 하나를 포함할 수 있다.In order to achieve the above object, a medical image processing apparatus according to an embodiment of the present invention includes an image acquisition unit for acquiring a medical image using X-rays, a display, and a control unit, wherein the control unit is based on pre-learned deep learning Detects at least one of a plurality of anatomical components included in the medical image using an artificial intelligence algorithm of It is displayed together with one anatomical component, and the anatomical component may include at least one of an organ and a catheter.

본 발명에 따른 영상처리장치의 효과에 대해 설명하면 다음과 같다.The effect of the image processing apparatus according to the present invention will be described as follows.

본 발명의 적어도 하나의 실시예에 따르면, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성에 각각 대응하는 영역들이 서로 겹쳐지는 경우에도, 복수의 해부학적 구성을 정확하게 검출할 수 있어, 의료 영상에 대한 처리 성능을 보다 향상시킬 수 있다. According to at least one embodiment of the present invention, even when regions corresponding to a plurality of anatomical configurations included in a medical image using X-rays overlap each other, it is possible to accurately detect a plurality of anatomical configurations. Image processing performance can be further improved.

본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the following detailed description. However, it should be understood that the detailed description and specific embodiments such as preferred embodiments of the present invention are given by way of illustration only, since various changes and modifications within the spirit and scope of the present invention may be clearly understood by those skilled in the art.

도 1은, X선을 이용하는 의료 영상 처리 시스템을 도시한 도면이다.
도 2는, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 내부 블록도이다.
도 3a 내지 3c는, 의료 영상에 대한 학습 동작의 설명에 참조되는 도면이다.
도 4 내지 6은, 의료 영상 처리 장치의 동작에 대한 설명에 참조되는 도면이다.
도 7a 내지 8은, 의료 영상을 처리한 결과에 대한 설명에 참조되는 도면이다.
도 9 내지 11은, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 동작방법에 관한 순서도이다.
1 is a diagram illustrating a medical image processing system using X-rays.
2 is an internal block diagram of a medical image processing apparatus according to an embodiment of the present invention.
3A to 3C are diagrams referenced for explanation of a learning operation for a medical image.
4 to 6 are diagrams referenced for the description of the operation of the medical image processing apparatus.
7A to 8 are diagrams referenced for explanation of a result of processing a medical image.
9 to 11 are flowcharts of a method of operating a medical image processing apparatus according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다. 도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다. Hereinafter, the present invention will be described in detail with reference to the drawings. In the drawings, in order to clearly and briefly describe the present invention, the illustration of parts irrelevant to the description is omitted, and the same reference numerals are used for the same or extremely similar parts throughout the specification.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "module" and "part" for the components used in the following description are given simply in consideration of the ease of writing the present specification, and do not give a particularly important meaning or role by themselves. Accordingly, the terms “module” and “unit” may be used interchangeably.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것들의 존재, 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that it does not preclude the existence of, or addition of, elements, numbers, steps, operations, components, parts, or combinations thereof.

또한, 본 명세서에서, 다양한 요소들을 설명하기 위해 제1, 제2 등의 용어가 이용될 수 있으나, 이러한 요소들은 이러한 용어들에 의해 제한되지 아니한다. 이러한 용어들은 한 요소를 다른 요소로부터 구별하기 위해서만 이용된다. Also, in this specification, terms such as first and second may be used to describe various elements, but these elements are not limited by these terms. These terms are only used to distinguish one element from another.

도 1은, X선을 이용하는 의료 영상 처리 시스템을 도시한 도면이다.1 is a diagram illustrating a medical image processing system using X-rays.

도 1을 참조하면, 의료 영상 처리 시스템(100)은, X선 조사부(10), X선 검출부(20, 30), 연결 프레임부(40), 이동 프레임부(50), 및/또는 가이드 레일(60)을 포함할 수 있다.Referring to FIG. 1 , the medical image processing system 100 includes an X-ray irradiation unit 10 , X-ray detection units 20 and 30 , a connection frame unit 40 , a moving frame unit 50 , and/or a guide rail. (60) may be included.

X선 조사부(10)는, X선을 발생시켜 조사할 수 있다. 예를 들면, X선 조사부(10)는, X선을 발생시키는 X선 발생부(미도시) 및 X선의 조사 범위를 조절하는 콜리메이터(collimator)(미도시)를 포함할 수 있다.The X-ray irradiation unit 10 can generate and irradiate X-rays. For example, the X-ray irradiator 10 may include an X-ray generator (not shown) that generates X-rays and a collimator (not shown) that adjusts the irradiation range of X-rays.

X선 검출부(20, 30)는, X선 조사부(10)로부터 조사된 X선을 검출할 수 있다. X선 검출부(20, 30)는, X선을 감지하는 디텍터 패널(미도시), 디텍터 패널의 구동을 제어하고, 디텍터 패널로부터 이미지 데이터를 수신하는 디텍터 구동모듈(미도시) 등을 포함할 수 있다. 이때, 디텍터 구동모듈은, 디텍터 패널로부터 수신된 이미지 데이터에 기초하여, 의료 영상을 생성할 수 있다. The X-ray detection units 20 and 30 may detect X-rays irradiated from the X-ray irradiation unit 10 . The X-ray detectors 20 and 30 may include a detector panel (not shown) that detects X-rays, a detector driving module (not shown) that controls driving of the detector panel and receives image data from the detector panel. have. In this case, the detector driving module may generate a medical image based on the image data received from the detector panel.

X선 검출부(20, 30)는, 스탠드형의 제1 X선 검출부(20) 및/또는 테이블형의 제2 X선 검출부(30)를 포함할 수 있다. The X-ray detectors 20 and 30 may include a stand-type first X-ray detector 20 and/or a table-type second X-ray detector 30 .

예를 들면, 도 1에 도시된 바와 같이, X선 조사부(10)는 환자의 배면에서 정면으로 향하는 방향으로 X선을 조사할 수 있고, 제1 X선 검출부(20)는, 환자의 배면에서 정면으로 투과되는 X선을 검출할 수 있다.For example, as shown in FIG. 1 , the X-ray irradiation unit 10 may irradiate X-rays in a direction from the back of the patient to the front, and the first X-ray detector 20 is from the back of the patient. X-rays transmitted through the front can be detected.

예를 들면, 도 1과 달리 환자가 제2 X선 검출부(30)에 누워있는 경우, X선 조사부(10)는 환자의 정면에서 배면으로 향하는 방향으로 X선을 조사할 수 있고, 제2 X선 검출부(30)는, 환자의 정면에서 배면으로 투과되는 X선을 검출할 수 있다.For example, unlike FIG. 1, when the patient is lying on the second X-ray detection unit 30, the X-ray irradiation unit 10 may irradiate X-rays in a direction from the front to the back of the patient, and the second X-ray The ray detector 30 may detect X-rays transmitted from the front to the back of the patient.

X선 조사부(10)는, 연결 프레임부(40)에 연결될 수 있다. 연결 프레임부(40)는, 길이가 조절 가능한 형상으로 형성될 수 있다. 이때, 연결 프레임부(40)의 길이가 조절되는 경우, X선 조사부(10)가 위치하는 높이도 조절될 수 있다. The X-ray irradiation unit 10 may be connected to the connection frame unit 40 . The connection frame part 40 may be formed in a shape whose length is adjustable. At this time, when the length of the connection frame unit 40 is adjusted, the height at which the X-ray irradiation unit 10 is located may also be adjusted.

연결 프레임부(40)는, 가이드 레일(60)에 설치되어, 가이드 레일(60)에 따라 이동 가능한 이동 프레임부(50)에 연결될 수 있다. 이때, 가이드 레일(60)에 따라 이동 프레임부(50)의 위치가 변경되는 경우, X선 조사부(10)의 위치도 변경될 수 있다.The connection frame unit 40 may be installed on the guide rail 60 , and may be connected to the movable frame unit 50 movable along the guide rail 60 . At this time, when the position of the moving frame unit 50 is changed according to the guide rail 60 , the position of the X-ray irradiation unit 10 may also be changed.

의료 영상 처리 시스템(100)은, 입력부(미도시)를 더 포함할 수 있다. The medical image processing system 100 may further include an input unit (not shown).

입력부는, 의료 영상 처리 시스템(100)에 포함된 구성들의 동작에 대한 다양한 입력을 수신할 수 있다. 예를 들면, 입력부는, X선의 조사 시점, X선 조사부(10)의 위치 등과 관련된 제어를 위한 사용자 입력을 수신할 수 있다. The input unit may receive various inputs for operations of components included in the medical image processing system 100 . For example, the input unit may receive a user input for controlling an X-ray irradiation time point, a position of the X-ray irradiation unit 10 , and the like.

의료 영상 처리 시스템(100)은, 디스플레이부(미도시)를 더 포함할 수 있다. The medical image processing system 100 may further include a display unit (not shown).

디스플레이부는, 의료 영상 처리 시스템(100)의 제어와 관련된 다양한 화면을 출력할 수 있다. 예를 들면, 출력부는, 의료 영상 처리 시스템(100)의 제어를 위한 제어 화면, 사용자 입력을 가이드(guide)하는 화면, X선 검출부(20, 30)를 통해 획득한 의료 영상이 표시되는 화면 등을 출력할 수 있다. The display unit may output various screens related to the control of the medical image processing system 100 . For example, the output unit may include a control screen for controlling the medical image processing system 100 , a screen for guiding a user input, a screen on which medical images acquired through the X-ray detectors 20 and 30 are displayed, etc. can be printed out.

의료 영상 처리 시스템(100)은, 통신부(미도시)를 더 포함할 수 있다. 통신부는, 유/무선 통신 연결을 위한 적어도 하나의 통신 모듈(미도시)를 포함할 수 있다.The medical image processing system 100 may further include a communication unit (not shown). The communication unit may include at least one communication module (not shown) for a wired/wireless communication connection.

통신부는, 외부 장치(예: 이동 단말기, 노트북 등)에 연결될 수 있고, 외부 장치와 상호 간에 데이터를 송수신할 수 있다. The communication unit may be connected to an external device (eg, a mobile terminal, a notebook computer, etc.), and may transmit/receive data to/from the external device.

통신부는, 네트워크를 통해 외부 서버(미도시)에 접속할 수 있고, 외부 서버와 상호 간에 데이터를 송수신할 수 있다. The communication unit may connect to an external server (not shown) through a network, and may transmit/receive data to and from the external server.

도 2는, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 내부 블록도이다.2 is an internal block diagram of a medical image processing apparatus according to an embodiment of the present invention.

의료 영상 처리 장치(200)는, 도 1의 의료 영상 처리 시스템(100)에 포함된 구성 중 적어도 일부를 포함할 수 있다.The medical image processing apparatus 200 may include at least some of the components included in the medical image processing system 100 of FIG. 1 .

의료 영상 처리 장치(200)는, 영상 획득부(210), 통신부(220), 저장부(230), 입력부(240), 출력부(250) 및/또는 제어부(260)를 포함할 수 있다.The medical image processing apparatus 200 may include an image acquisition unit 210 , a communication unit 220 , a storage unit 230 , an input unit 240 , an output unit 250 , and/or a control unit 260 .

영상 획득부(210)는, 도 1의 X선 조사부(10) 및 X선 검출부(20, 30)를 포함할 수 있다. 예를 들면, 영상 획득부(210)는, X선 조사부(10)로부터 조사되어 X선 검출부(20, 30)를 통해 검출된 X선에 기초하여, 의료 영상을 획득할 수 있고, 획득한 의료 영상을 제어부(260)로 전달할 수 있다.The image acquisition unit 210 may include the X-ray irradiation unit 10 and the X-ray detection units 20 and 30 of FIG. 1 . For example, the image acquisition unit 210 may acquire a medical image based on X-rays irradiated from the X-ray irradiator 10 and detected through the X-ray detectors 20 and 30 , and the obtained medical The image may be transmitted to the controller 260 .

의료 영상은, 복수의 해부학적 구성을 포함할 수 있다. 여기서, 해부학적 구성은, 뼈나 내장과 같은 기관(organ) 및/또는 인체에 삽입하는 의료용 기구인 카테터(catheter)를 포함할 수 있다. The medical image may include a plurality of anatomical components. Here, the anatomical configuration may include an organ such as bone or intestine and/or a catheter, which is a medical instrument inserted into the human body.

통신부(220)는, 데이터가 포함된 신호를 유/무선으로 송수신할 수 있다. 이를 위해, 통신부(220)는, 유/무선 통신 연결을 위한 적어도 하나의 통신 모듈(미도시)를 포함할 수 있다.The communication unit 220 may transmit/receive a signal including data by wire/wireless. To this end, the communication unit 220 may include at least one communication module (not shown) for a wired/wireless communication connection.

이때, 통신부(220)는, 도 1의 의료 영상 처리 시스템(100)의 통신부 중 적어도 일부를 포함할 수 있다.In this case, the communication unit 220 may include at least a part of the communication unit of the medical image processing system 100 of FIG. 1 .

예를 들면, 통신부(220)는, 와이파이(Wi-fi), 블루투스(bluetooth), 비콘(beacon), 지그비(zigbee), RFID(radio frequency identification) 등의 무선 통신 방식으로 신호를 송수신할 수 있다.For example, the communication unit 220 may transmit/receive a signal using a wireless communication method such as Wi-Fi, Bluetooth, beacon, zigbee, and RFID (radio frequency identification). .

예를 들면, 통신부(220)는, USB(universal serial bus)와 같은 유선 통신 방식으로 연결된 외부 장치(예: 이동 단말기, 노트북, 외부 저장매체 등)과 신호를 송수신할 수 있다. For example, the communication unit 220 may transmit/receive a signal to/from an external device (eg, a mobile terminal, a notebook computer, an external storage medium, etc.) connected through a wired communication method such as a universal serial bus (USB).

한편, 의료 영상 처리 장치(100)는, 통신부(220)를 통해 외부로부터 의료 영상을 수신할 수 있고, 수신된 의료 영상을 제어부(260)로 전달할 수 있다. Meanwhile, the medical image processing apparatus 100 may receive a medical image from the outside through the communication unit 220 , and may transmit the received medical image to the controller 260 .

예를 들면, 통신부(220)는, 네트워크를 통해 서버(미도시)와 통신을 수행할 수 있고, 서버로부터 의료 영상을 수신할 수 있다.For example, the communication unit 220 may communicate with a server (not shown) through a network, and may receive a medical image from the server.

예를 들면, 통신부(220)는, 유선으로 연결된 외부 장치로부터 의료 영상을 수신할 수 있다.For example, the communication unit 220 may receive a medical image from an external device connected by wire.

저장부(230)에는, 제어부(260) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage unit 230 may store a program for processing and controlling each signal in the control unit 260 , or may store a signal-processed image, audio, or data signal.

예를 들면, 저장부(230)는 제어부(260)에 의해 처리 가능한 다양한 작업들을 수행하기 위한 목적으로 설계된 응용 프로그램들을 저장하고, 제어부(260)의 요청 시, 저장된 응용 프로그램들 중 일부를 선택적으로 제공할 수 있다. For example, the storage unit 230 stores application programs designed for the purpose of performing various tasks that can be processed by the control unit 260 , and upon request of the control unit 260 , selectively selects some of the stored application programs. can provide

저장부(230)에 저장되는 프로그램 등은, 제어부(260)에 의해 실행될 수 있는 것이라면 특별히 한정하지 않는다.The program stored in the storage unit 230 is not particularly limited as long as it can be executed by the control unit 260 .

도 2의 저장부(230)가 제어부(260)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않으며, 제어부(260) 내에 저장부(230)가 포함될 수도 있다.Although the embodiment in which the storage unit 230 of FIG. 2 is provided separately from the control unit 260 is illustrated, the scope of the present invention is not limited thereto, and the storage unit 230 may be included in the control unit 260 .

저장부(230)는, 휘발성 메모리(예: DRAM, SRAM, SDRAM 등)나, 비휘발성 메모리(예: 플래시 메모리(Flash memory), 하드 디스크 드라이브(Hard disk drive; HDD), 솔리드 스테이트 드라이브(Solid-state drive; SSD) 등) 중 적어도 하나를 포함할 수 있다.The storage unit 230 may include a volatile memory (eg, DRAM, SRAM, SDRAM, etc.), a non-volatile memory (eg, a flash memory), a hard disk drive (HDD), or a solid state drive (Solid). -state drive (SSD), etc.) may be included.

저장부(230)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 획득한 의료 영상을 저장할 수 있다. The storage unit 230 may store a medical image acquired through the image acquisition unit 210 and/or the communication unit 220 .

저장부(230)는, 딥 러닝 등 머신 러닝을 통해 기 학습된 데이터, 모델, 알고리즘 등을 저장할 수 있다. 예를 들면, 저장부(230)는, X선을 이용한 의료 영상의 데이터베이스를 머신 러닝을 통해 기 학습한 결과에 대한 데이터를 저장할 수 있다.The storage unit 230 may store pre-learned data, models, algorithms, etc. through machine learning such as deep learning. For example, the storage 230 may store data on a result of pre-learning a database of medical images using X-rays through machine learning.

머신 러닝은, 컴퓨터에게 사람이 직접 로직(logic)을 지시하지 않아도 데이터를 통해 컴퓨터가 학습을 하고, 이를 통해 컴퓨터가 문제를 해결하게 하는 것을 의미한다.Machine learning means that a computer learns from data without a human instructing the computer directly to logic, and allows the computer to solve a problem through this.

딥 러닝은, 인공신경망(Artificial Neural Networks; ANN)을 기반으로 컴퓨터에게 사람의 사고방식을 가르치는 방법으로, 컴퓨터가 스스로 사람처럼 학습할 수 있는 인공지능 기술을 의미한다. 인공신경망(ANN)은 소프트웨어 형태로 구현되거나 칩(chip) 등 하드웨어 형태로 구현될 수 있다.Deep learning is a method of teaching a human way of thinking to a computer based on Artificial Neural Networks (ANN). The artificial neural network (ANN) may be implemented in the form of software or in the form of hardware such as a chip.

예를 들면, 인공신경망(ANN)은, 심층신경망(Deep Neural Network; DNN), 합성곱신경망(Convolutional Neural Network; CNN), 순환신경망(Recurrent Neural Network; RNN), 심층신뢰신경망(Deep Belief Network; DBN) 등 다양한 종류의 알고리즘을 포함할 수 있다. For example, an artificial neural network (ANN), a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a deep belief network; DBN), etc., may include various types of algorithms.

한편, 딥 러닝 기반의 기 학습된 인공지능 알고리즘 모델은, 세그먼테이션 모델(segmentation model)일 수 있다. Meanwhile, the deep learning-based pre-learned artificial intelligence algorithm model may be a segmentation model.

도 3a에서는, 세그먼테이션 모델이, 획득한 의료 영상(310)을 복수의 컨볼루션(convolution) 레이어를 갖는 인코더 네트워크(encoder network) 및 디코더 네트워크(decoder network)를 통해 처리하여, 영상 처리된 의료 영상(320)으로 출력하는 SegNet으로 구현되는 것을 도시하였으나, 본 발명이 이에 한정되는 것은 아니며, FCN(Fully Convolutional Network), U-net, DeepLab 등의 모델로 구현될 수 있다.In FIG. 3A, the segmentation model processes the obtained medical image 310 through an encoder network and a decoder network having a plurality of convolution layers, and an image-processed medical image ( 320), but the present invention is not limited thereto, and may be implemented with models such as FCN (Fully Convolutional Network), U-net, DeepLab, and the like.

한편, X선을 이용한 의료 영상의 경우, 대상을 투과하는 X선의 특성으로 인해, 의료 영상에 포함된 복수의 해부학적 구성이 서로 겹쳐져 표시될 수 있다. 예를 들면, 신체 부위 중 흉부를 X선을 이용하여 촬영하는 경우, 심장, 폐, 늑골 등의 기관들이 서로 겹쳐져 표시될 수 있다.Meanwhile, in the case of a medical image using X-rays, a plurality of anatomical components included in the medical image may be displayed overlapping each other due to characteristics of X-rays passing through an object. For example, when the chest among body parts is photographed using X-rays, organs such as the heart, lungs, and ribs may be displayed overlapping each other.

이때, X선을 이용한 의료 영상을 세그먼테이션 모델을 통해 단순히 학습할 경우, 기관들이 겹쳐지는 부분에 대한 학습이 정확하게 수행되기 어려워, 의료 영상에 포함된 복수의 해부학적 구성을 정확하게 검출하기 어려운 문제점이 있다.At this time, when a medical image using X-rays is simply learned through a segmentation model, it is difficult to accurately perform learning of overlapping organs, so there is a problem in that it is difficult to accurately detect a plurality of anatomical configurations included in the medical image. .

이를 고려하여, 본 발명의 다양한 실시예에 따르면, 의료 영상 처리 장치(200)에 저장된 머신 러닝을 통해 기 학습된 모델은, 복수의 클래스(class) 중 어느 하나에 대하여 각각 매핑(mapping)된 세부 영역(예: 픽셀)을 포함하는 의료 영상을, 머신 러닝을 통해 학습한 결과에 기초한 모델일 수 있다. In consideration of this, according to various embodiments of the present disclosure, a model pre-trained through machine learning stored in the medical image processing apparatus 200 is mapped to any one of a plurality of classes. A medical image including a region (eg, a pixel) may be a model based on a result of learning through machine learning.

여기서, 복수의 클래스는, 복수의 해부학적 구성 중 적어도 하나를 포함하는 집합을 가리킬 수 있다. 이때, 복수의 클래스는, 복수의 해부학적 구성 중 어느 하나를 포함하는 집합부터, 복수의 해부학적 구성을 모두 포함하는 집합까지 나타낼 수 있다. Here, the plurality of classes may refer to a set including at least one of a plurality of anatomical configurations. In this case, the plurality of classes may represent a set including any one of the plurality of anatomical configurations to a set including all of the plurality of anatomical configurations.

예를 들면, 흉부에 대한 복수의 클래스는, 이하 표 1과 같이 결정될 수 있다.For example, a plurality of classes for the chest may be determined as shown in Table 1 below.

클래스class 흉부(Chest)Chest 1010 lung 1111 폐+심장lung + heart 1212 폐+늑골lungs + ribs 1313 폐+용골lung + keel 1414 폐+심장+늑골lungs + heart + ribs 1515 폐+심장+용골lung + heart + keel 1616 폐+심장+늑골+용골lungs + heart + ribs + keel 2020 심장heart 2121 심장+늑골heart + ribs 2222 심장+용골heart + keel 2323 심장+늑골+용골heart + ribs + keel 3030 늑골rib 3131 늑골+용골rib + keel 4040 용골keel

이때, 도 3b에 도시된 흉부에 대한 의료 영상을 구성하는 세부 영역 각각이, 흉부에 대한 복수의 클래스 중 어느 하나와 매핑되는 경우, 도 3b에 도시된 의료 영상은 도 3c에 도시된 의료 영상과 같이 재구성될 수 있다. In this case, when each of the detailed regions constituting the medical image of the chest shown in FIG. 3B is mapped to any one of a plurality of classes for the chest, the medical image shown in FIG. 3B is the same as the medical image shown in FIG. 3C . can be reconstructed together.

도 3c를 참조하면, 폐 및 늑골에 대응하는 세부 영역(330)은 클래스 12, 폐, 심장 및 늑골에 대응하는 세부 영역(335)은 클래스 14, 폐에 대응하는 세부 영역(340)은 클래스 10, 폐 및 심장에 대응하는 세부 영역(350)은 클래스 11, 늑골에 대응하는 세부 영역(360)은 클래스 30과 각각 매핑될 수 있다. Referring to FIG. 3C , the detailed region 330 corresponding to the lungs and ribs is class 12, the detailed region 335 corresponding to the lungs, heart, and ribs is class 14, and the detailed region 340 corresponding to the lungs is class 10 , the detailed region 350 corresponding to the lungs and the heart may be mapped to class 11, and the detailed region 360 corresponding to the rib may be mapped to class 30, respectively.

즉, 의료 영상 처리 장치(200)의 저장부(230)에 저장된, 머신 러닝을 통해 기 학습된 모델은, 도 3c와 같이 복수의 클래스에 따라 재구성된 의료 영상을 머신 러닝을 통해 학습한 결과에 기초한 모델일 수 있다.That is, the model previously learned through machine learning stored in the storage unit 230 of the medical image processing apparatus 200 is based on the result of learning the medical image reconstructed according to a plurality of classes through machine learning as shown in FIG. 3C . It may be a model based

한편, 저장부(230)는, 의료 영상에 포함된 복수의 해부학적 구성에 대한 이미지를 저장할 수 있다.Meanwhile, the storage 230 may store images of a plurality of anatomical components included in the medical image.

예를 들면, 저장부(230)는, 다양한 카테터의 일 부분에 해당하는 이미지에 대한 데이터베이스를 저장할 수 있다. 이때, 데이터베이스에 포함된 이미지는, 도 4에 도시된 것과 같이, 중심에 카테터가 배치된 다양한 이미지일 수 있다. For example, the storage unit 230 may store a database for images corresponding to a portion of various catheters. In this case, the images included in the database may be various images in which the catheter is disposed in the center, as shown in FIG. 4 .

예를 들면, 저장부(230)는, 다양한 뼈나 관절의 일 부분에 해당하는 이미지에 대한 데이터베이스를 저장할 수 있다.For example, the storage unit 230 may store a database for images corresponding to a portion of various bones or joints.

입력부(240)는, 의료 영상 처리 장치(200)의 동작과 관련된 각종 사용자 명령을 수신할 수 있고, 입력된 명령에 대응하는 제어 신호를 제어부(260)에 전달할 수 있다. The input unit 240 may receive various user commands related to the operation of the medical image processing apparatus 200 , and may transmit a control signal corresponding to the input command to the control unit 260 .

입력부(240)는, 터치 스크린, 키보드, 마우스, 마이크 등을 포함할 수 있다.The input unit 240 may include a touch screen, a keyboard, a mouse, a microphone, and the like.

입력부(240)는, 의료 영상 처리 시스템(100)의 입력부의 적어도 일부를 포함할 수 있다. The input unit 240 may include at least a portion of the input unit of the medical image processing system 100 .

출력부(250)는, 디스플레이(미도시), 발광 다이오드(Light Emitting Diode: LED) 등의 표시 장치를 구비할 수 있고, 의료 영상 처리 장치(200)의 동작과 관련된 화면을 표시할 수 있다.The output unit 250 may include a display device such as a display (not shown) and a light emitting diode (LED), and may display a screen related to an operation of the medical image processing apparatus 200 .

예를 들면, 출력부(250)는, 디스플레이를 통해, 영상 처리된 의료 영상을 출력할 수 있다.For example, the output unit 250 may output an image-processed medical image through a display.

출력부(250)는, 스피커, 버저 등의 오디오 장치를 구비할 수도 있다. 예를 들면, 출력부(250)는, 의료 영상 처리 장치(200)의 상태에 대한 효과음을 출력할 수 있고, 에러 발생시 소정의 경고음을 출력할 수 있다.The output unit 250 may include an audio device such as a speaker or a buzzer. For example, the output unit 250 may output a sound effect for the state of the medical image processing apparatus 200 , and may output a predetermined warning sound when an error occurs.

제어부(260)는, 적어도 하나의 프로세서를 포함할 수 있고, 이에 포함된 프로세서를 이용하여, 의료 영상 처리 장치(200)의 동작 전반을 제어할 수 있다. 여기서, 프로세서는 CPU(central processing unit)과 같은 일반적인 프로세서일 수 있다. 물론, 프로세서는 ASIC과 같은 전용 장치(dedicated device)이거나 다른 하드웨어 기반의 프로세서일 수 있다.The controller 260 may include at least one processor, and may control overall operations of the medical image processing apparatus 200 using the processor included therein. Here, the processor may be a general processor such as a central processing unit (CPU). Of course, the processor may be a dedicated device such as an ASIC or other hardware-based processor.

제어부(260)가 복수의 프로세서를 포함하는 경우, 복수의 프로세서는 하나의 칩 상에 집적될 수도 있고, 물리적으로 분리되어 배치될 수도 있다. When the controller 260 includes a plurality of processors, the plurality of processors may be integrated on one chip or may be physically separated from each other.

제어부(260)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 획득한 의료 영상을 처리할 수 있다. The controller 260 may process a medical image acquired through the image acquisition unit 210 and/or the communication unit 220 .

제어부(260)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 획득한, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출할 수 있다.The controller 260 may detect at least one of a plurality of anatomical components included in a medical image using X-rays acquired through the image acquisition unit 210 and/or the communication unit 220 .

이때, 제어부(260)는, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에 포함된 복수의 해부학적 구성 중 적어도 하나를 검출할 수 있다. 여기서, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘은, 저장부(230)에 저장된 모델일 수 있다. In this case, the controller 260 may detect at least one of a plurality of anatomical components included in the medical image by using a deep learning-based artificial intelligence algorithm previously learned through machine learning. Here, the deep learning-based artificial intelligence algorithm previously learned through machine learning may be a model stored in the storage unit 230 .

제어부(260)는, 딥 러닝 등 머신 러닝을 통해 의료 영상을 학습하는 데이터 학습부(261) 및 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여 의료 영상을 처리하는 데이터 처리부(262)를 포함할 수 있다. The control unit 260 includes a data learning unit 261 for learning a medical image through machine learning such as deep learning and a data processing unit for processing a medical image using an artificial intelligence algorithm based on deep learning previously learned through machine learning ( 262) may be included.

제어부(260)는, 의료 영상에 포함된 복수의 해부학적 구성 중 기관을 검출하는 경우, 해당 의료 영상에 포함된 복수의 기관 중 적어도 하나에 대응하는 복수의 클래스를 결정할 수 있다.When detecting an organ from among a plurality of anatomical components included in a medical image, the controller 260 may determine a plurality of classes corresponding to at least one of a plurality of organs included in the corresponding medical image.

이때, 제어부(260)는, 의료 영상에 대응하는 신체 부위를 판단할 수 있고, 판단된 신체 부위에 따라, 해당 의료 영상에 포함된 복수의 기관을 결정할 수 있다.In this case, the controller 260 may determine a body part corresponding to the medical image, and may determine a plurality of organs included in the corresponding medical image according to the determined body part.

예를 들면, 의료 영상이 도 5a에 도시된 흉부에 대한 의료 영상인 경우, 제어부(260)는 의료 영상에 대응하는 신체 부위를 흉부로 판단할 수 있고, 의료 영상에 포함된 복수의 기관을 폐(lung), 심장(heart), 늑골(lib) 및 용골(carina)로 판단할 수 있다. For example, when the medical image is a medical image of the chest shown in FIG. 5A , the controller 260 may determine a body part corresponding to the medical image as the chest, and remove a plurality of organs included in the medical image. (lung), heart (heart), rib (lib) and keel (carina) can be judged.

이때, 제어부(260)는, 저장부(230)에 저장된 신체 부위에 대한 데이터에 기초하여, 의료 영상에 대응하는 신체 부위를 흉부로 판단할 수 있다. In this case, the controller 260 may determine the body part corresponding to the medical image as the chest, based on the data on the body part stored in the storage 230 .

제어부(260)는, 흉부에 대한 의료 영상과 관련하여, 상기 표 1과 같이 복수의 클래스를 결정할 수 있다. The controller 260 may determine a plurality of classes as shown in Table 1 in relation to a medical image of the chest.

한편, 제어부(260)는, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상의 세부 영역을, 복수의 클래스 중 어느 하나와 매핑할 수 있다.Meanwhile, the controller 260 may map the detailed region of the medical image to any one of a plurality of classes by using a deep learning-based AI algorithm previously learned through machine learning.

도 5b를 참조하면, 제어부(260)는, 흉부에 대하여 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 통해 도 5a의 흉부에 대한 의료 영상을 처리하여, 늑골에 대응하는 세부 영역(510), 폐에 대응하는 세부 영역(520), 및 폐 및 늑골에 대응하는 세부 영역(530)을, 서로 다른 클래스에 매핑할 수 있다. Referring to FIG. 5B , the controller 260 processes the medical image of the chest of FIG. 5A through an artificial intelligence algorithm based on deep learning previously learned for the chest, a detailed region 510 corresponding to the rib, the lung The detailed region 520 corresponding to , and the detailed region 530 corresponding to the lungs and ribs may be mapped to different classes.

제어부(260)는, 특정 기관을 검출하는 경우, 복수의 클래스 중 검출 대상인 특정 기관에 대응하는 클래스를 결정할 수 있다. When detecting a specific organ, the controller 260 may determine a class corresponding to a specific organ to be detected from among a plurality of classes.

예를 들어, 상기 표 1에 기초할 때, 제어부(260)가 폐를 검출하는 경우, 복수의 클래스 중 클래스 10 내지 17이, 폐에 대응하는 클래스로 결정될 수 있다.For example, based on Table 1, when the controller 260 detects a lung, classes 10 to 17 among a plurality of classes may be determined as a class corresponding to the lung.

이때, 제어부(260)는, 의료 영상을 구성하는 복수의 세부 영역 중, 폐에 대응하는 클래스 10 내지 17에 각각 매핑된 세부 영역을 결정할 수 있고, 결정된 세부 영역에 기초하여 폐를 검출할 수 있다. In this case, the controller 260 may determine a detailed region mapped to classes 10 to 17 corresponding to the lung, respectively, from among the plurality of detailed regions constituting the medical image, and detect the lung based on the determined detailed region .

즉, 의료 영상을 구성하는 복수의 픽셀 중, 폐에 대응하는 클래스 10 내지 17에 각각 매핑된 픽셀들을 모두 결합하는 경우, 의료 영상으로부터 폐가 검출될 수 있다. That is, when all pixels mapped to classes 10 to 17 corresponding to the lung are combined among a plurality of pixels constituting the medical image, the lung may be detected from the medical image.

한편, 제어부(260)는, 의료 영상에 포함된 복수의 해부학적 구성 중 카테터를 검출하는 경우, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에서 카테터에 대응하는 객체가 포함된 관심 영역(region of interest; ROI)을 결정할 수 있고, 결정된 관심 영역에 기초하여 카테터를 검출할 수 있다. On the other hand, when detecting a catheter among a plurality of anatomical components included in the medical image, the controller 260 uses an artificial intelligence algorithm based on deep learning previously learned through machine learning to correspond to the catheter in the medical image. A region of interest (ROI) including the object may be determined, and the catheter may be detected based on the determined region of interest.

예를 들면, 제어부(260)는, 의료 영상 중, 저장부(230)에 저장된 카테터의 일 부분에 해당하는 이미지에 대응하는 부분을 관심 영역으로 결정할 수 있다.For example, the controller 260 may determine a portion of the medical image corresponding to an image corresponding to a portion of the catheter stored in the storage 230 as the region of interest.

제어부(260)는, 관심 영역에 포함된 카테터에 대응하는 객체의 방향을 확인할 수 있다. The controller 260 may check the direction of the object corresponding to the catheter included in the ROI.

예를 들면, 의료 영상의 일 부분 중, 도 4의 제1 이미지(401)에 대응하는 부분이 관심 영역으로 결정된 경우, 제어부(260)는 관심 영역에 포함된 카테터에 대응하는 객체의 방향을 좌측 상단과, 우측 하단으로 결정할 수 있다.For example, when a portion of the medical image corresponding to the first image 401 of FIG. 4 is determined as the region of interest, the controller 260 may change the direction of the object corresponding to the catheter included in the region of interest to the left. You can decide between the top and the bottom right.

예를 들면, 의료 영상의 일 부분 중, 도 4의 제5 이미지(405)에 대응하는 부분이 관심 영역으로 결정된 경우, 제어부(260)는 관심 영역에 포함된 카테터에 대응하는 객체의 방향을 좌측 하단과, 우측 상단으로 결정할 수 있다.For example, when the portion corresponding to the fifth image 405 of FIG. 4 among a portion of the medical image is determined as the region of interest, the controller 260 may change the direction of the object corresponding to the catheter included in the region of interest to the left. You can decide between the bottom and the top right.

제어부(260)는, 관심 영역에 포함된 카테터에 대응하는 객체의 방향에 기초하여, 해당 카테터에 대응하는 객체를 포함하는 다른 관심 영역을 결정할 수 있다.The controller 260 may determine another ROI including the object corresponding to the catheter based on the direction of the object corresponding to the catheter included in the ROI.

예를 들면, 도 6과 같이, 의료 영상의 제1 부분(601)이 제1 카테터에 대응하는 관심 영역으로 결정된 경우, 제어부(260)는 관심 영역으로 결정된 제1 부분(601)에 포함된, 카테터에 대응하는 객체의 방향을 좌측 하단으로 결정할 수 있다. For example, as shown in FIG. 6 , when the first portion 601 of the medical image is determined as the region of interest corresponding to the first catheter, the controller 260 is included in the first portion 601 determined as the region of interest, The direction of the object corresponding to the catheter may be determined to the lower left.

이때, 제어부(260)는, 관심 영역에 포함된 카테터에 대응하는 객체의 방향에 따라, 의료 영상 중, 저장부(230)에 저장된 카테터의 일 부분에 해당하는 이미지에 대응하는 부분이 있는지 여부를 반복적으로 확인할 수 있다. At this time, the controller 260 determines whether there is a portion corresponding to the image corresponding to a portion of the catheter stored in the storage 230 among the medical images according to the direction of the object corresponding to the catheter included in the region of interest. can be checked repeatedly.

예를 들면, 도 6과 같이, 의료 영상의 제1 부분(601)이 제1 카테터에 대응하는 관심 영역으로 결정된 경우, 제1 카테터에 대응하는 객체의 방향에 따라, 의료 영상 중 제2 부분(602)부터 제3 부분(603)까지 이어지는 각 부분을 제1 카테터에 대응하는 관심 영역으로 결정할 수 있다. For example, as shown in FIG. 6 , when the first portion 601 of the medical image is determined as the region of interest corresponding to the first catheter, the second portion ( ) of the medical image according to the direction of the object corresponding to the first catheter Each portion extending from 602 to the third portion 603 may be determined as a region of interest corresponding to the first catheter.

한편, 카테터에 대응하는 객체를 포함하는 것으로 결정된 복수의 관심 영역 각각은, 중심에 카테터에 대응하는 객체를 포함할 수 있다.Meanwhile, each of the plurality of ROIs determined to include the object corresponding to the catheter may include the object corresponding to the catheter in the center.

또한, 카테터에 대응하는 객체를 포함하는 것으로 결정된 복수의 관심 영역 각각은, 카테터에 대응하는 객체에 기초하여, 서로 적어도 일부가 중첩될 수 있다. In addition, each of the plurality of regions of interest determined to include the object corresponding to the catheter may at least partially overlap each other based on the object corresponding to the catheter.

예를 들면, 도 6과 같이, 의료 영상의 제1 부분(601)과 제2 부분(602)은, 제1 카테터에 대응하는 영역이 서로 중첩될 수 있다.For example, as shown in FIG. 6 , in the first portion 601 and the second portion 602 of the medical image, regions corresponding to the first catheter may overlap each other.

한편, 제어부(260)는, 관심 영역이 카테터의 가장자리에 대응하는 객체를 포함하거나, 카테터에 대응하는 객체의 방향에 따라 다른 관심 영역이 더 이상 확인되지 않는 경우, 해당 관심 영역을 말단 영역으로 결정할 수 있다.Meanwhile, when the region of interest includes an object corresponding to the edge of the catheter or another region of interest is no longer identified according to the direction of the object corresponding to the catheter, the controller 260 determines the region of interest as the distal region. can

예를 들면, 도 6의 제1 부분(601)과 같이, 카테터의 가장자리에 해당하는 이미지에 대응하는 관심 영역의 경우, 말단 영역으로 결정될 수 있다.For example, as in the first portion 601 of FIG. 6 , the region of interest corresponding to the image corresponding to the edge of the catheter may be determined as the distal region.

한편, 제어부(260)는, 복수의 관심 영역에 기초하여, 카테터를 검출할 수 있다. 이때, 제어부(260)는, 복수의 관심 영역 간의 중첩 여부를 고려하여, 카테터를 검출할 수 있다.Meanwhile, the controller 260 may detect the catheter based on the plurality of regions of interest. In this case, the controller 260 may detect the catheter in consideration of whether the plurality of regions of interest overlap each other.

예를 들면, 제어부(260)는, 도 6과 같이, 의료 영상 중 제1 부분(601)부터 제3 부분(603)까지 서로 적어도 일부가 중첩되는 복수의 관심 영역에 기초하여, 제1 카테터를 검출할 수 있다. 이때, 제어부(260)는, 제1 카테터에 대응하는 복수의 관심 영역의 중심을 서로 연결하여, 제1 카테터를 검출할 수 있다. For example, as shown in FIG. 6 , the controller 260 controls the first catheter based on a plurality of regions of interest that at least partially overlap each other from the first portion 601 to the third portion 603 of the medical image. can be detected. In this case, the controller 260 may connect the centers of a plurality of regions of interest corresponding to the first catheter to each other to detect the first catheter.

한편, 제어부(260)는, 복수의 관심 영역 중에서 말단 영역이 존재하는 경우, 해당 말단 영역으로부터 소정 거리 이내에 동일 카테터에 대한 다른 말단 영역이 존재하는지 여부를 판단할 수 있다.Meanwhile, when a distal region exists among the plurality of regions of interest, the controller 260 may determine whether another distal region for the same catheter exists within a predetermined distance from the corresponding distal region.

이때, 해당 말단 영역으로부터 소정 거리 이내에 다른 말단 영역이 존재하지 않는 경우, 제어부(260)는, 해당 말단 영역을 카테터의 가장자리로 결정할 수 있다.In this case, if there is no other end region within a predetermined distance from the corresponding end region, the controller 260 may determine the corresponding end region as the edge of the catheter.

예를 들면, 도 6과 같이, 제1 카테터에 대응하는 복수의 관심 영역 중, 말단 영역인 제1 부분(601)의 경우, 소정 거리 이내에 제1 카테터에 대한 다른 말단 영역이 존재하지 않으므로, 제1 부분(601)은 제1 카테터의 가장자리로 결정될 수 있다.For example, as shown in FIG. 6 , among the plurality of regions of interest corresponding to the first catheter, in the case of the first portion 601 that is the distal region, there is no other distal region for the first catheter within a predetermined distance. The first portion 601 may be determined as the edge of the first catheter.

한편, 도 6의 610 영역을 참조하면, 제1 카테터에 대응하는 복수의 관심 영역 중, 말단 영역인 제3 부분(603)의 경우, 소정 거리 이내에 제1 카테터에 대한 다른 말단 영역인 제4 부분(604)이 존재하므로, 제어부(260)는 두 말단 영역(603, 604)의 연결 여부를 결정할 수 있다.Meanwhile, referring to region 610 of FIG. 6 , among a plurality of regions of interest corresponding to the first catheter, in the case of a third part 603 that is an end region, a fourth part that is another end region with respect to the first catheter within a predetermined distance. Since 604 is present, the controller 260 can determine whether the two end regions 603 and 604 are connected.

이때, 제어부(260)는, 두 말단 영역에 포함된 카테터에 대응하는 객체의 방향에 기초하여, 두 말단 영역의 연결 여부를 결정할 수 있다.In this case, the controller 260 may determine whether to connect the two end regions based on the direction of the object corresponding to the catheter included in the two end regions.

도 6의 610 영역과 같이, 제3 부분(603)에 포함된 제1 카테터에 대응하는 객체의 방향인 좌측 하단과, 제4 부분(604)에 포함된 제1 카테터에 대응하는 객체의 방향인 우측 상단이 서로 대응되고, 각 방향에 따라 연장된 제1 카테터가 서로 연결되는 경우, 제어부(260)는 두 말단 영역(603, 604)을 서로 연결할 수 있다. 이때, 서로 연결된 두 말단 영역(603, 604)은, 제1 카테터의 가장자리가 아닌 것으로 결정될 수 있다.As in the area 610 of FIG. 6 , the lower left corner, which is the direction of the object corresponding to the first catheter included in the third part 603 , and the direction of the object corresponding to the first catheter included in the fourth part 604 . When the right upper ends correspond to each other and the first catheters extending in each direction are connected to each other, the controller 260 may connect the two end regions 603 and 604 to each other. In this case, it may be determined that the two distal regions 603 and 604 connected to each other are not edges of the first catheter.

또한, 제어부(260)는, 두 말단 영역(603, 604)의 연결 관계에 기초하여, 제1 카테터를 보다 정확하게 검출할 수 있다. 예를 들면, 제어부(260)는, 제1 카테터를 검출한 결과를 출력부(250)를 통해 출력하는 경우, 두 말단 영역(603, 604)의 중심을 서로 연결하여 표시할 수 있다.Also, the controller 260 may more accurately detect the first catheter based on the connection relationship between the two distal regions 603 and 604 . For example, when outputting the result of detecting the first catheter through the output unit 250 , the controller 260 may display the centers of the two end regions 603 and 604 by connecting them to each other.

이와 유사하게, 제어부(260)는, 의료 영상의 제5 부분(605)을 제2 카테터에 대한 관심 영역으로 결정할 수 있고, 의료 영상의 제6 부분(606)을 제3 카테터에 대한 관심 영역으로 결정할 수 있다. 또한, 제어부(260)는, 제2 카테터에 대한 복수의 관심 영역에 기초하여 제2 카테터를 검출할 수 있고, 제3 카테터에 대한 복수의 관심 영역에 기초하여 제3 카테터를 검출할 수 있다.Similarly, the controller 260 may determine the fifth portion 605 of the medical image as the region of interest for the second catheter and the sixth portion 606 of the medical image as the region of interest for the third catheter. can decide Also, the controller 260 may detect the second catheter based on the plurality of regions of interest for the second catheter, and may detect the third catheter based on the plurality of regions of interest for the third catheter.

한편, 제어부(260)는, 의료 영상에 포함된 복수의 해부학적 구성 중 뼈나 관절을 검출하는 경우, 의료 영상에서 해당 뼈나 관절에 대응하는 객체가 포함된 관심 영역(region of interest; ROI)을 결정할 수 있고, 결정된 관심 영역에 기초하여 뼈나 관절을 검출할 수도 있다. Meanwhile, when detecting a bone or joint among a plurality of anatomical components included in the medical image, the controller 260 determines a region of interest (ROI) including an object corresponding to the bone or joint in the medical image. Also, a bone or a joint may be detected based on the determined region of interest.

예를 들면, 제어부(260)는, 의료 영상 중, 저장부(230)에 저장된 뼈나 관절의 일 부분에 해당하는 이미지에 대응하는 부분을 관심 영역으로 결정할 수 있다.For example, the controller 260 may determine a portion of the medical image corresponding to an image corresponding to a portion of a bone or joint stored in the storage 230 as the region of interest.

제어부(260)는, X선을 이용한 의료 영상에 포함된 복수의 해부학적 구성 중, 검출된 해부학적 구성에 대한 정보를 결정할 수 있다. The controller 260 may determine information on the detected anatomical configuration from among a plurality of anatomical configurations included in the medical image using X-rays.

제어부(260)는, 복수의 해부학적 구성 중 기관을 검출한 경우, 검출된 기관의 형상에 기초하여, 해당 기관에 대한 정보를 결정할 수 있다. When an organ is detected from among a plurality of anatomical components, the controller 260 may determine information on the organ based on the detected shape of the organ.

예를 들면, 제어부(260)는, 폐와 심장의 형상에 기초하여, 폐의 가로 길이와 심장의 가로 길이 간의 비율을, 심장에 대한 정보로 산출할 수 있다.For example, the controller 260 may calculate a ratio between the horizontal length of the lung and the horizontal length of the heart as information about the heart, based on the shape of the lung and the heart.

예를 들면, 제어부(260)는, 폐의 형상에 기초하여, 양쪽 횡경막(diaphragm)의 위치 간의 차이를, 횡경막에 대한 정보로 산출할 수 있다. For example, the controller 260 may calculate a difference between positions of both diaphragms as information about the diaphragm, based on the shape of the lungs.

예를 들면, 제어부(260)는, 척추뼈의 형상에 기초하여, 척추뼈 각각의 모서리 및 중심을 결정할 수 있고, 척추뼈 각각의 모서리 및 중심에 기초하여. 척추뼈에 대한 정보를 결정할 수 있다.For example, the controller 260 may determine the corners and centers of each vertebra based on the shape of the vertebrae, and based on the corners and centers of each vertebra. It is possible to determine information about the vertebrae.

제어부(260)는, 복수의 해부학적 구성 중 카테터를 검출한 경우, 검출된 카테터의 형상에 기초하여, 해당 카테터에 대한 정보를 결정할 수 있다.When a catheter is detected among a plurality of anatomical components, the controller 260 may determine information about the catheter based on the detected shape of the catheter.

예를 들면, 제어부(260)는, 카테터의 형상에 기초하여, 카테터의 가장자리의 위치를, 카테터에 대한 정보로 결정할 수 있다.For example, the controller 260 may determine the position of the edge of the catheter based on the shape of the catheter as information about the catheter.

제어부(260)는, 출력부(250)의 디스플레이를 통해, 의료 영상을 표시할 수 있다. The controller 260 may display a medical image through the display of the output unit 250 .

이때, 출력부(250)를 통해 표시된 의료 영상에 포함된 해부학적 구성 중 어느 하나를 선택하는 사용자 입력이 입력부(240)를 통해 수신되는 경우, 제어부(260)는 선택된 해부학적 구성에 대한 정보를, 출력부(250)를 통해 출력할 수 있다. 이와 관련하여, 도 7a 내지 7f, 및 8를 참조하여 설명하도록 한다. At this time, when a user input for selecting any one of the anatomical components included in the medical image displayed through the output unit 250 is received through the input unit 240 , the controller 260 receives information on the selected anatomical component. , may be output through the output unit 250 . In this regard, it will be described with reference to FIGS. 7A to 7F and 8 .

도 7a를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 폐에 위치할 수 있다.Referring to FIG. 7A , according to a user input received through the input unit 240 , the position of the pointer 700 displayed on the display may be located in the lung.

이때, 제어부(260)는, 복수의 해부학적 구성 중 폐를, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 폐가 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the controller 260 may determine the lung as an anatomical configuration selected according to a user input from among the plurality of anatomical configurations, and display the lungs to be distinguished from other anatomical configurations.

예를 들면, 도 7a와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 폐의 형상에 따라 별도의 점선(701)이 표시될 수 있다.For example, as shown in FIG. 7A , a separate dotted line 701 may be displayed according to the shape of the lung, which is an anatomical configuration selected according to a user input.

또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 폐에 대한 정보로서, 늑골횡격막각(costophrenic angle; CPA)을 나타내는 인디케이터(702)를 표시할 수 있다. Also, the controller 260 may display an indicator 702 indicating a costophrenic angle (CPA) as information about the lung, which is an anatomical configuration selected according to a user input.

이때, 늑골횡격막각(CPA)이 기 설정된 정상 범위에 해당하지 않는 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다. At this time, when the costal diaphragm angle (CPA) does not fall within the preset normal range, the control unit 260 may output a warning message through the output unit 250 .

예를 들면, 제어부(260)는, 늑골횡격막각(CPA)이 기 설정된 정상 범위에 해당하지 않는 경우, 흉막강 사이에 흉수가 소정 수준 이상 찼을 가능성이 있음을 경고하는 경고 메시지를 출력할 수 있다. For example, when the costal diaphragm angle (CPA) does not fall within a preset normal range, the controller 260 may output a warning message warning that there is a possibility that the pleural fluid may be filled with more than a predetermined level between the pleural spaces. .

도 7b를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 용골에 위치할 수 있다.Referring to FIG. 7B , according to a user input received through the input unit 240 , the position of the pointer 700 displayed on the display may be located on the keel.

이때, 제어부(260)는, 복수의 해부학적 구성 중 용골을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 용골이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the controller 260 may determine the keel as an anatomical configuration selected according to a user input, among a plurality of anatomical configurations, and display the keel to be distinguished from other anatomical configurations.

또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 용골에 대한 정보로서, 기도의 치우침 정도(tracheal deviation)를 나타내는 인디케이터(703, 704)를 표시할 수 있다. 이때, 기도의 치우침 정도가 기 설정된 정상 범위에 해당하지 않는 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.Also, the controller 260 may display indicators 703 and 704 indicating a tracheal deviation of the airway as information about the keel, which is an anatomical configuration selected according to a user input. In this case, when the degree of airway bias does not fall within the preset normal range, the controller 260 may output a warning message through the output unit 250 .

예를 들면, 제어부(260)는, 기도의 치우침 정도가 기 설정된 정상 범위에 해당하지 않는 경우, 긴장성 기흉(tension pneumothorax)이나 종양(tumor)에 의한 압박 가능성을 경고하는 경고 메시지를 출력할 수 있다. For example, when the degree of airway bias does not fall within a preset normal range, the controller 260 may output a warning message warning of the possibility of compression by a tension pneumothorax or a tumor. .

도 7c를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 횡격막에 위치할 수 있다.Referring to FIG. 7C , according to a user input received through the input unit 240 , the position of the pointer 700 displayed on the display may be located on the diaphragm.

이때, 제어부(260)는, 복수의 해부학적 구성 중 횡격막을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 횡격막이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the controller 260 may determine the diaphragm as an anatomical configuration selected according to a user input among a plurality of anatomical configurations, and display the diaphragm to be distinguished from other anatomical configurations.

예를 들면, 도 7c와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 횡격막의 형상에 따라 별도의 점선(705, 706)이 표시될 수 있다.For example, as shown in FIG. 7C , separate dotted lines 705 and 706 may be displayed according to the shape of the diaphragm, which is an anatomical configuration selected according to a user input.

또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 횡격막에 대한 정보로서, 양측 횡격막의 위치 간의 차이를 나타내는 인디케이터(미도시)를 표시할 수 있다. 이때, 좌측 횡격막이 우측 횡격막보다 상측에 위치하는 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.Also, the controller 260 may display an indicator (not shown) indicating a difference between positions of the diaphragms on both sides as information on the diaphragm, which is an anatomical configuration selected according to a user input. In this case, when the left diaphragm is located above the right diaphragm, the controller 260 may output a warning message through the output unit 250 .

예를 들면, 제어부(260)는, 좌측 횡격막이 우측 횡격막보다 상측에 위치하는 경우, 위(stomach)에 가스(gas)가 찼거나, 늑막신경의 마비에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the left diaphragm is located above the right diaphragm, the control unit 260 may output a warning message warning the possibility of gas (gas) filling the stomach or paralysis of the pleural nerve. can

도 7d를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 심장에 위치할 수 있다.Referring to FIG. 7D , according to a user input received through the input unit 240 , the position of the pointer 700 displayed on the display may be located in the heart.

이때, 제어부(260)는, 복수의 해부학적 구성 중 심장을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 심장이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the controller 260 may determine the heart from among the plurality of anatomical components as an anatomical component selected according to a user input, and display the heart to be distinguished from other anatomical components.

예를 들면, 도 7d와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 심장을 색을 다른 해부학적 구성의 색과 상이하게 표시될 수 있다.For example, as shown in FIG. 7D , the color of the heart, which is an anatomical component selected according to a user input, may be displayed differently from the colors of other anatomical components.

또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 심장에 대한 정보로서, 폐의 가로 길이와 심장의 가로 길이 간의 차이를 나타내는 인디케이터(707, 708)를 표시할 수 있다. 이때, 심장의 가로 길이가 폐의 가로 길이의 절반 이상인 경우, 제어부(260)는 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.Also, the controller 260 may display indicators 707 and 708 indicating a difference between the horizontal length of the lung and the horizontal length of the heart as information about the heart, which is an anatomical configuration selected according to a user input. In this case, when the horizontal length of the heart is more than half the horizontal length of the lungs, the controller 260 may output a warning message through the output unit 250 .

예를 들면, 제어부(260)는, 심장의 가로 길이가 폐의 가로 길이의 절반 이상인 경우, 심장 비대(cardiomegaly)에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the horizontal length of the heart is more than half the horizontal length of the lungs, the controller 260 may output a warning message warning of the possibility of cardiac hypertrophy (cardiomegaly).

도 7e를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 척추뼈에 위치할 수 있다.Referring to FIG. 7E , according to a user input received through the input unit 240 , the position of the pointer 700 displayed on the display may be located in the vertebrae.

이때, 제어부(260)는, 복수의 해부학적 구성 중 척추뼈를, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 척추뼈가 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the control unit 260 may determine a vertebra among a plurality of anatomical components as an anatomical component selected according to a user input, and display the vertebrae to be distinguished from other anatomical components.

예를 들면, 도 7e와 같이, 사용자 입력에 따라 선택된 해부학적 구성인 척추뼈의 형상에 따라 별도의 실선(709)이 표시될 수 있다.For example, as shown in FIG. 7E , a separate solid line 709 may be displayed according to the shape of the vertebra, which is an anatomical configuration selected according to a user input.

또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 척추뼈에 대한 정보로서, 척추뼈 각각의 중심, 기울기 등을 나타내는 인디케이터(710)를 표시할 수 있다. 제어부(260)는, 척추뼈 사이의 디스크를 나타내는 인디케이터(미도시)를 표시할 수도 있다. Also, the controller 260 may display an indicator 710 indicating the center, inclination, etc. of each of the vertebrae as information about the vertebra, which is an anatomical configuration selected according to a user input. The controller 260 may display an indicator (not shown) indicating a disc between vertebrae.

이때, 제어부(260)는, 척추뼈의 중심 간의 위치 차이가 소정 기준 이상인 경우, 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.In this case, the controller 260 may output a warning message through the output unit 250 when the position difference between the centers of the vertebrae is equal to or greater than a predetermined criterion.

예를 들면, 제어부(260)는, 척추뼈의 중심 간의 위치 차이가 소정 기준 이상인 경우, 척추측만증(Scoliosis)에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the position difference between the centers of the vertebrae is greater than or equal to a predetermined criterion, the controller 260 may output a warning message warning of the possibility of scoliosis.

도 7f를 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 관절에 위치할 수 있다.Referring to FIG. 7F , according to a user input received through the input unit 240 , the position of the pointer 700 displayed on the display may be located in the joint.

이때, 제어부(260)는, 복수의 해부학적 구성 중 관절을, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 관절이 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the controller 260 may determine a joint from among the plurality of anatomical configurations as an anatomical configuration selected according to a user input, and display the joint to be distinguished from other anatomical configurations.

또한, 제어부(260)는, 사용자 입력에 따라 선택된 해부학적 구성인 관절에 대한 정보로서, 관절의 특징점(keypoint)을 나타내는 인디케이터(711)를 표시할 수 있다. 제어부(260)는, 관절의 특징점 간의 거리, 거리의 평균, 편차 등에 대한 정보를 표시할 수도 있다. Also, the controller 260 may display an indicator 711 indicating a keypoint of the joint as information about a joint, which is an anatomical configuration, selected according to a user input. The control unit 260 may display information about a distance between feature points of a joint, an average of distances, a deviation, and the like.

이때, 제어부(260)는, 관절의 특징점 간의 거리의 평균이 소정 기준 미만인 경우, 출력부(250)를 통해 경고 메시지를 출력할 수도 있다.In this case, the controller 260 may output a warning message through the output unit 250 when the average of the distances between feature points of the joint is less than a predetermined standard.

예를 들면, 제어부(260)는, 관절의 특징점 간의 거리의 평균이 소정 기준 미만인 경우, 관절염(arthritis)에 대한 가능성을 경고하는 경고 메시지를 출력할 수 있다.For example, when the average of the distances between feature points of the joints is less than a predetermined criterion, the controller 260 may output a warning message warning the possibility of arthritis.

한편, 도 8을 참조하면, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 디스플레이에 표시된 포인터(700)의 위치가 카테터 중 어느 하나에 위치할 수 있다.Meanwhile, referring to FIG. 8 , according to a user input received through the input unit 240 , the position of the pointer 700 displayed on the display may be located in any one of the catheters.

이때, 제어부(260)는, 복수의 해부학적 구성 중 카테터를, 사용자 입력에 따라 선택된 해부학적 구성으로 결정할 수 있고, 카테터가 다른 해부학적 구성과 구분되도록 표시할 수 있다. In this case, the controller 260 may determine the catheter as an anatomical configuration selected according to a user input, among a plurality of anatomical configurations, and display the catheter to be distinguished from other anatomical configurations.

또한, 제어부(260)는, 사용자 입력에 따라 선택된 특정 카테터에 대한 정보로서, 특정 카테터의 가장자리를 강조하여 나타내는 인디케이터를 표시할 수 있다. In addition, the control unit 260 may display an indicator that emphasizes the edge of the specific catheter as information about the specific catheter selected according to the user input.

예를 들면, 도 8과 같이, 의료 영상에 복수의 카테터(810, 820, 830)가 포함된 경우, 복수의 카테터(810, 820, 830) 각각의 색이 서로 상이하게 표시될 수 있다. 또한, 포인터(700)의 위치가 말초 삽입형 중심정맥관(Peripherally Inserted Central Catheter; PICC)(820)에 위치하는 경우, PICC(820)의 가장자리를 나타내는 인디케이터(825)가 표시될 수 있다.For example, as shown in FIG. 8 , when a plurality of catheters 810 , 820 , and 830 are included in a medical image, colors of the plurality of catheters 810 , 820 , and 830 may be displayed differently from each other. Also, when the pointer 700 is positioned at a peripherally inserted central catheter (PICC) 820 , an indicator 825 indicating an edge of the PICC 820 may be displayed.

상기와 같이, 본 발명의 다양한 실시예에 따르면, 의료 영상에 포함된 복수의 해부학적 구성에 각각 대응하는 영역들이 서로 겹쳐지는 경우에도, 복수의 해부학적 구성을 정확하게 검출할 수 있어, 의료 영상에 대한 처리 성능을 향상시킬 수 있다. As described above, according to various embodiments of the present disclosure, even when regions corresponding to a plurality of anatomical configurations included in a medical image overlap each other, it is possible to accurately detect a plurality of anatomical configurations, processing performance can be improved.

도 9 내지 11은, 본 발명의 일 실시예에 따른, 의료 영상 처리 장치의 동작방법에 관한 순서도이다. 9 to 11 are flowcharts of a method of operating a medical image processing apparatus according to an embodiment of the present invention.

도 9를 참조하면, 의료 영상 처리 장치(200)는, S901 동작에서, 의료 영상을 획득할 수 있고, 획득한 의료 영상을 확인할 수 있다.Referring to FIG. 9 , in operation S901 , the medical image processing apparatus 200 may acquire a medical image and check the acquired medical image.

예를 들면, 의료 영상 처리 장치(200)는, 영상 획득부(210) 및/또는 통신부(220)를 통해 X선을 이용한 의료 영상을 획득할 수 있다.For example, the medical image processing apparatus 200 may acquire a medical image using X-rays through the image acquisition unit 210 and/or the communication unit 220 .

예를 들면, 의료 영상 처리 장치(200)는, 획득한 의료 영상에 대응하는 신체 분위를 판단할 수 있고, 판단된 신체 부위에 따라, 해당 의료 영상에 포함되는 복수의 기관이나 카테터를 결정할 수 있다.For example, the medical image processing apparatus 200 may determine a body position corresponding to the acquired medical image, and may determine a plurality of organs or catheters included in the corresponding medical image according to the determined body part. .

의료 영상 처리 장치(200)는, S902 동작에서, 의료 영상에 포함된 복수의 해부학적 구성 중, 기관의 검출 여부를 결정할 수 있다.The medical image processing apparatus 200 may determine whether to detect an organ among a plurality of anatomical components included in the medical image in operation S902 .

예를 들면, 의료 영상 처리 장치(200)는, 출력부(250)를 통해, 기관의 검출 여부 및 검출 대상인 기관을 적어도 하나 결정하도록 가이드(guide)하는 제1 가이드 화면을 출력할 수 있고, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 검출 대상인 기관을 결정할 수 있다.For example, the medical image processing apparatus 200 may output, through the output unit 250 , a first guide screen guiding to determine whether an organ is detected and at least one organ to be detected, and the input unit According to a user input received through 240 , an institution to be detected may be determined.

의료 영상 처리 장치(200)는, S903 동작에서, 기관을 검출하지 않는 것으로 결정된 경우, 카테터의 검출 여부를 결정할 수 있다.When it is determined not to detect an organ in operation S903 , the medical image processing apparatus 200 may determine whether to detect a catheter.

예를 들면, 의료 영상 처리 장치(200)는, 출력부(250)를 통해, 카테터의 검출 여부 및 검출 대상인 카테터를 적어도 하나 결정하도록 가이드하는 제2 가이드 화면을 출력할 수 있고, 입력부(240)를 통해 수신되는 사용자 입력에 따라, 검출 대상인 카테터를 결정할 수 있다.For example, the medical image processing apparatus 200 may output, through the output unit 250 , a second guide screen guiding whether a catheter is detected and at least one catheter to be detected, and the input unit 240 . A catheter to be detected may be determined according to a user input received through the .

이때, 의료 영상 처리 장치(200)는, 제1 가이드 화면 및 제2 가이드 화면을 동시에 표시할 수도 있고, 순차적으로 표시할 수도 있다. In this case, the medical image processing apparatus 200 may display the first guide screen and the second guide screen simultaneously or sequentially.

의료 영상 처리 장치(200)는, S904 동작에서, 기관 및 카테터를 모두 검출하지 않는 것으로 결정된 경우, 획득한 의료 영상을 출력부(250)을 통해 그대로 출력할 수 있다.When it is determined that neither the organ nor the catheter are detected in operation S904 , the medical image processing apparatus 200 may output the acquired medical image as it is through the output unit 250 .

한편, 의료 영상 처리 장치(200)는, S905 동작에서, 의료 영상에 포함된 복수의 해부학적 구성 중, 기관을 적어도 하나 검출하는 것으로 결정된 경우, 의료 영상에 포함된 복수의 기관 중 검출 대상인 적어도 하나의 기관을 검출할 수 있고, 검출된 기관에 대한 정보를 결정할 수 있다. 이와 관련하여, 도 10을 참조하여 설명하도록 한다.Meanwhile, in operation S905 , when it is determined to detect at least one organ among a plurality of anatomical components included in the medical image, the medical image processing apparatus 200 may detect at least one of the plurality of organs included in the medical image to be detected. of organs can be detected, and information about the detected organs can be determined. In this regard, it will be described with reference to FIG. 10 .

도 10을 참조하면, 의료 영상 처리 장치(200)는, S1010 동작에서, 의료 영상에 포함된 기관 중 적어도 하나에 대응하는 복수의 클래스를 결정할 수 있다. Referring to FIG. 10 , in operation S1010 , the medical image processing apparatus 200 may determine a plurality of classes corresponding to at least one of organs included in the medical image.

예를 들면, 복수의 클래스 중, 제1 클래스는 제1 기관에 대응하고, 제2 클래스는 제2 기관에 대응하고, 제3 클래스는 제1 기관 및 제2 기관 모두에 대응할 수 있다. For example, among the plurality of classes, a first class may correspond to a first institution, a second class may correspond to a second institution, and a third class may correspond to both the first institution and the second institution.

의료 영상 처리 장치(200)는, S1020 동작에서, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상의 세부 영역 각각을, 복수의 클래스 중 어느 하나와 매핑할 수 있다.In operation S1020 , the medical image processing apparatus 200 may map each detailed region of the medical image to any one of a plurality of classes by using a deep learning-based artificial intelligence algorithm previously learned through machine learning. .

예를 들면, 의료 영상 처리 장치(200)는, 의료 영상의 복수의 세부 영역 중, 제1 기관에만 해당하는 세부 영역은 제1 클래스와 매핑하고, 제2 기관에만 해당하는 세부 영역은 제2 클래스와 매핑하고, 제1 기관 및 제2 기관 모두에 해당하는 세부 영역은 제3 클래스에 매핑할 수 있다.For example, the medical image processing apparatus 200 maps a detailed region corresponding only to a first institution among a plurality of detailed regions of a medical image to a first class, and a detailed region corresponding only to a second institution is a second class , and a subregion corresponding to both the first organization and the second organization may be mapped to the third class.

의료 영상 처리 장치(200)는, S1030 동작에서, 복수의 클래스 중 검출 대상인 특정 기관에 대응하는 클래스를 적어도 하나 결정할 수 있다.In operation S1030 , the medical image processing apparatus 200 may determine at least one class corresponding to a specific organ to be detected from among a plurality of classes.

의료 영상 처리 장치(200)는, S1040 동작에서, 의료 영상을 구성하는 복수의 세부 영역 중, S1030 동작에서 결정된 적어도 하나의 클래스에 매핑된 세부 영역을 결정할 수 있다. In operation S1040 , the medical image processing apparatus 200 may determine a detailed region mapped to at least one class determined in operation S1030 from among a plurality of detailed regions constituting a medical image.

의료 영상 처리 장치(200)는, S1050 동작에서, S1040 동작에서 결정된 세부 영역에 따라, 검출 대상인 기관을 검출할 수 있다. The medical image processing apparatus 200 may detect an organ to be detected according to the detailed area determined in operation S1040 in operation S1050.

예를 들면, 의료 영상 처리 장치(200)는, 의료 영상을 구성하는 복수의 픽셀 중, 검출 대상인 기관에 대응하는 클래스에 각각 매핑된 픽셀들을 모두 결합하여, 의료 영상으로부터 검출 대상인 기관을 검출할 수 있다.For example, the medical image processing apparatus 200 may detect an organ to be detected from the medical image by combining all pixels mapped to a class corresponding to an organ to be detected among a plurality of pixels constituting a medical image. have.

의료 영상 처리 장치(200)는, S1060 동작에서, 검출된 기관에 대한 정보를 결정할 수 있다. The medical image processing apparatus 200 may determine information on the detected organ in operation S1060 .

예를 들면, 의료 영상 처리 장치(200)는, 검출된 기관의 형상에 기초하여, 해당 기관에 대한 정보를 결정할 수 있다. For example, the medical image processing apparatus 200 may determine information about a corresponding organ based on the detected shape of the organ.

다시 도 9를 참조하면, 의료 영상 처리 장치(200)는, S906 동작에서, 카테터의 검출 여부를 결정할 수 있다.Referring back to FIG. 9 , the medical image processing apparatus 200 may determine whether to detect a catheter in operation S906 .

의료 영상 처리 장치(200)는, S907 동작에서, S903 동작 또는 S906 동작에서 카테터를 검출하는 것으로 결정된 경우, 의료 영상에 포함된 카테터를 검출할 수 있고, 검출된 카테터에 대한 정보를 결정할 수 있다. 이와 관련하여, 도 11을 참조하여 설명하도록 한다.When it is determined in operation S907 to detect the catheter in operation S903 or S906, the medical image processing apparatus 200 may detect a catheter included in the medical image and determine information on the detected catheter. In this regard, it will be described with reference to FIG.

도 11을 참조하면, 의료 영상 처리 장치(200)는, S1110 동작에서, 머신 러닝을 통해 기 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 의료 영상에서 카테터에 대응하는 객체가 포함된 관심 영역이 존재하는지 여부를 판단할 수 있다.Referring to FIG. 11 , in operation S1110 , the medical image processing apparatus 200 uses an artificial intelligence algorithm based on deep learning previously learned through machine learning, the region of interest including the object corresponding to the catheter in the medical image. It can be determined whether this exists or not.

예를 들면, 의료 영상 처리 장치(200)는, 저장부(230)에 저장된 다양한 카테터의 일 부분에 해당하는 이미지에 대한 데이터베이스에 기초하여, 의료 영상에서 카테터에 대응하는 객체가 포함된 관심 영역이 존재하는지 여부를 판단할 수 있다.For example, the medical image processing apparatus 200 may detect a region of interest including an object corresponding to a catheter in a medical image based on a database of images corresponding to a portion of various catheters stored in the storage 230 . It can be determined whether it exists or not.

의료 영상 처리 장치(200)는, S1120 동작에서, 관심 영역이 존재하는 경우, 해당 관심 영역이 말단 영역에 해당하는지 여부를 판단할 수 있다. In operation S1120 , the medical image processing apparatus 200 may determine whether the ROI corresponds to the distal region when the ROI exists.

예를 들면, 의료 영상 처리 장치(200)는, 관심 영역이 카테터의 가장자리에 대응하는 객체를 포함하거나, 카테터에 대응하는 객체의 방향에 따라 다른 관심 영역이 더 이상 확인되지 않는 경우, 해당 관심 영역을 말단 영역으로 결정할 수 있다.For example, when the ROI includes an object corresponding to the edge of the catheter or another ROI is no longer identified according to the direction of the object corresponding to the catheter, the medical image processing apparatus 200 may detect the ROI. can be determined as the terminal region.

의료 영상 처리 장치(200)는, S1130 동작에서, 관심 영역이 말단 영역에 해당하지 않는 경우, 관심 영역에 포함된 카테터에 대응하는 객체의 방향에 기초하여, 해당 카테터에 대응하는 객체를 포함하는 다른 관심 영역을 결정할 수 있다.In operation S1130 , when the ROI does not correspond to the distal region, the medical image processing apparatus 200 performs another operation including the object corresponding to the catheter based on the direction of the object corresponding to the catheter included in the ROI. A region of interest can be determined.

한편, 의료 영상 처리 장치(200)는, S1140 동작에서, 관심 영역이 말단 영역에 해당하는 경우, 해당 관심 영역으로부터 소정 거리 이내에 동일 카테터에 대한 다른 말단 영역이 존재하는지 여부를 판단할 수 있다.Meanwhile, in operation S1140 , when the ROI corresponds to the distal region, the medical image processing apparatus 200 may determine whether another distal region for the same catheter exists within a predetermined distance from the ROI.

의료 영상 처리 장치(200)는, S1150 동작에서, 해당 관심 영역으로부터 소정 거리 이내에 다른 말단 영역이 존재하지 않는 경우, 해당 관심 영역을 카테터의 가장자리로 결정할 수 있다.In operation S1150 , when another distal region does not exist within a predetermined distance from the ROI, the medical image processing apparatus 200 may determine the ROI as the edge of the catheter.

한편, 의료 영상 처리 장치(200)는, S1160 동작에서, 해당 관심 영역으로부터 소정 거리 이내에 다른 말단 영역이 존재하는 경우, 다른 말단 영역이 해당 관심 영역과 연결 가능한 대상인지 여부를 판단할 수 있다. Meanwhile, in operation S1160 , when another end region exists within a predetermined distance from the corresponding region of interest, the medical image processing apparatus 200 may determine whether the other end region is a connectable target with the corresponding region of interest.

예를 들면, 의료 영상 처리 장치(200)는, 두 말단 영역에 포함된 카테터에 대응하는 객체의 방향 등에 기초하여, 두 말단 영역의 연결 여부를 결정할 수 있다.For example, the medical image processing apparatus 200 may determine whether to connect the two distal regions based on a direction of an object corresponding to a catheter included in the two distal regions.

의료 영상 처리 장치(200)는, S1150 동작에서, 다른 말단 영역이 해당 관심 영역과 연결 가능한 대상이 아닌 경우, 해당 관심 영역을 카테터의 가장자리로 결정할 수 있고, S1110 동작으로 분기하여, 관심 영역의 존재 여부에 대한 확인을 반복할 수 있다. In operation S1150 , if the other end region is not an object connectable to the region of interest, the medical image processing apparatus 200 may determine the region of interest as the edge of the catheter and branch to operation S1110 to determine the presence of the region of interest. It can be repeated to check whether or not

한편, 의료 영상 처리 장치(200)는, S1160 동작에서, 다른 말단 영역이 해당 관심 영역과 연결 가능한 대상인 경우, 해당 관심 영역과 다른 말단 영역을 서로 연결할 수 있고, S1110 동작으로 분기하여, 관심 영역의 존재 여부에 대한 확인을 반복할 수 있다.Meanwhile, in operation S1160 , if the other end region is a connectable target with the corresponding region of interest, the medical image processing apparatus 200 may connect the corresponding region of interest and the other end region to each other, and branch in operation S1110 to The check for existence can be repeated.

이때, 서로 연결된 두 말단 영역인 관심 영역은, 카테터의 가장자리가 아닌 것으로 결정될 수 있다. In this case, the region of interest, which is the two distal regions connected to each other, may be determined not to be the edge of the catheter.

한편, 의료 영상 처리 장치(200)는, S1110 동작 내지 1160 동작에 기초하여 검출된 카테터의 형상에 기초하여, 카테터의 가장자리의 위치를, 카테터에 대한 정보로 결정할 수 있다.Meanwhile, the medical image processing apparatus 200 may determine the position of the edge of the catheter as information about the catheter based on the shape of the catheter detected in operations S1110 to 1160 .

다시 도 9를 참조하면, 의료 영상 처리 장치(200)는, S908 동작에서, 의료 영상을 출력부(250)을 통해 출력할 수 있다.Referring again to FIG. 9 , the medical image processing apparatus 200 may output a medical image through the output unit 250 in operation S908 .

이때, 의료 영상 처리 장치(200)는, S905 동작 및/또는 S907 동작에서 검출된 해부학적 구성에 대한 정보(예: 검출된 기관에 대한 리스트(list), 카테터에 대한 리스트 등)을 함께 출력할 수도 있다.In this case, the medical image processing apparatus 200 may output information on the anatomical configuration detected in operation S905 and/or operation S907 (eg, a list of detected organs, a list of catheters, etc.). may be

의료 영상 처리 장치(200)는, S909 동작에서, 출력부(250)을 통해 출력된 표시된 의료 영상에 포함된 기관 및/또는 카테터 중 어느 하나를 선택하는 사용자 입력이 수신되는지 여부를 확인할 수 있다.In operation S909 , the medical image processing apparatus 200 may determine whether a user input for selecting one of organs and/or catheters included in the displayed medical image output through the output unit 250 is received.

의료 영상 처리 장치(200)는, S910 동작에서, 사용자 입력에 따라 선택된 해부학적 구성에 대한 정보를, 출력부(250)를 통해 출력할 수 있다.In operation S910 , the medical image processing apparatus 200 may output information on an anatomical configuration selected according to a user input through the output unit 250 .

의료 영상 처리 장치(200)는, S911 동작에서, 의료 영상의 표시가 종료되는지 여부를 확인할 수 있다.In operation S911 , the medical image processing apparatus 200 may determine whether the display of the medical image is terminated.

예를 들면, 입력부(240)를 통해 의료 영상의 표시를 종료하는 사용자 입력이 수신되는 경우, 의료 영상 처리 장치(200)는 의료 영상의 표시를 종료할 수 있다.For example, when a user input terminating the display of the medical image is received through the input unit 240 , the medical image processing apparatus 200 may end the display of the medical image.

첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes and equivalents included in the spirit and scope of the present invention It should be understood to include water or substitutes.

한편, 본 발명의 영상처리장치의 동작방법은 영상처리장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the method of operating an image processing apparatus of the present invention can be implemented as processor-readable codes on a processor-readable recording medium provided in the image processing apparatus. The processor-readable recording medium includes all types of recording devices in which data readable by the processor is stored. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., and also includes those implemented in the form of carrier waves such as transmission over the Internet . In addition, the processor-readable recording medium is distributed in a computer system connected through a network, so that the processor-readable code can be stored and executed in a distributed manner.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims In addition, various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

Claims (10)

의료 영상 처리 장치에 있어서,
X선을 이용한 의료 영상을 획득하는 영상 획득부;
디스플레이; 및
제어부를 포함하고,
상기 제어부는,
미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 상기 의료 영상을 구성하는 복수의 세부 영역 각각을, 복수의 기관(organ) 중 적어도 하나에 대응하는 복수의 클래스(class) 중 어느 하나와 매핑(mapping)하고,
상기 매핑 결과에 기초하여, 상기 의료 영상에 포함되는 복수의 기관 중 검출 대상인 기관을 검출하고,
상기 디스플레이를 통해, 상기 검출 대상인 기관을 표시하고,
상기 복수의 클래스 중, 제1 클래스는 제1 기관에 대응하고, 제2 클래스는 제2 기관에 대응하고, 제3 클래스는 상기 제1 기관 및 상기 제2 기관 모두에 대응하는 것을 특징으로 하는 의료 영상 처리 장치.
A medical image processing apparatus comprising:
an image acquisition unit for acquiring a medical image using X-rays;
display; and
including a control unit;
The control unit is
Each of a plurality of detailed regions constituting the medical image is mapped to any one of a plurality of classes corresponding to at least one of a plurality of organs by using a pre-trained deep learning-based artificial intelligence algorithm (mapping),
detecting an organ to be detected from among a plurality of organs included in the medical image based on the mapping result;
Through the display, the detection target organ is displayed,
Among the plurality of classes, a first class corresponds to a first institution, a second class corresponds to a second institution, and a third class corresponds to both the first institution and the second institution. image processing device.
제1항에 있어서,
입력부를 더 포함하고,
상기 제어부는,
상기 복수의 기관 중 어느 하나를 상기 검출 대상으로 선택하는 사용자 입력이 상기 입력부를 통해 수신되는 경우, 상기 사용자 입력에 따라 상기 검출 대상으로 선택된 기관을 다른 기관과 구분하여 표시하고,
상기 사용자 입력에 따라 상기 검출 대상으로 선택된 기관에 대한 정보를 상기 디스플레이를 통해 표시하는 것을 특징으로 하는 의료 영상 처리 장치.
According to claim 1,
further comprising an input unit,
The control unit is
When a user input for selecting any one of the plurality of organs as the detection target is received through the input unit, the organ selected as the detection target according to the user input is displayed separately from other organs,
The medical image processing apparatus of claim 1, wherein information on the organ selected as the detection target according to the user input is displayed on the display.
삭제delete 제1항에 있어서,
상기 제어부는,
상기 의료 영상에 대응하는 신체 부위를 판단하고,
상기 판단된 신체 부위에 따라, 상기 의료 영상에 포함되는 복수의 기관을 결정하는 것을 특징으로 하는 의료 영상 처리 장치.
According to claim 1,
The control unit is
determining a body part corresponding to the medical image,
and determining a plurality of organs included in the medical image according to the determined body part.
제1항에 있어서,
상기 제어부는,
상기 복수의 세부 영역 중, 제1 기관에만 해당하는 세부 영역은 상기 제1 클래스와 매핑하고, 제2 기관에만 해당하는 세부 영역은 상기 제2 클래스와 매핑하고, 상기 제1 기관 및 상기 제2 기관 모두에 해당하는 세부 영역은 상기 제3 클래스에 매핑하는 것을 특징으로 하는 의료 영상 처리 장치.
According to claim 1,
The control unit is
Among the plurality of sub-regions, a sub-region corresponding only to a first institution is mapped to the first class, a sub-region corresponding only to a second institution is mapped to the second class, and the first institution and the second institution The medical image processing apparatus according to claim 1, wherein the sub-regions corresponding to all are mapped to the third class.
제1항에 있어서,
상기 제어부는,
상기 복수의 클래스 중, 상기 검출 대상인 기관에 대응하는 클래스를 적어도 하나 결정하고,
상기 복수의 세부 영역 중, 상기 결정된 클래스에 매핑된 세부 영역을 적어도 하나 결정하고,
상기 결정된 세부 영역에 기초하여, 상기 검출 대상인 기관을 검출하는 것을 특징으로 하는 의료 영상 처리 장치.
According to claim 1,
The control unit is
Determining at least one class corresponding to the organ to be detected from among the plurality of classes,
determining at least one subregion mapped to the determined class from among the plurality of subregions;
The medical image processing apparatus of claim 1, wherein the organ to be detected is detected based on the determined detailed area.
의료 영상 처리 장치에 있어서,
X선을 이용한 의료 영상을 획득하는 영상 획득부;
디스플레이; 및
제어부를 포함하고,
상기 제어부는,
미리 학습된 딥 러닝 기반의 인공지능 알고리즘을 이용하여, 상기 의료 영상에서 카테터(catheter)에 대응하는 객체를 포함하는 관심 영역(region of interest; ROI)을 결정하고,
상기 결정된 관심 영역에 포함된 상기 카테터에 대응하는 객체의 방향에 기초하여, 상기 카테터에 대응하는 객체를 포함하는 다른 관심 영역을 결정하고,
복수의 관심 영역 중, 상기 카테터의 가장자리에 대응하는 객체를 포함하는 제1 말단 영역이 존재하는 경우, 상기 제1 말단 영역으로부터 소정 거리 이내에 상기 카테터의 가장자리에 대응하는 객체를 포함하는 제2 말단 영역이 존재하는지 여부를 판단하고,
상기 판단 결과에 기초하여, 상기 복수의 관심 영역 중 상기 카테터의 가장자리에 해당하는 관심 영역을 결정하고,
상기 카테터에 대응하는 객체를 포함하는 것으로 결정된 복수의 관심 영역에 기초하여, 상기 카테터를 검출하는 것을 특징으로 하는 의료 영상 처리 장치.
A medical image processing apparatus comprising:
an image acquisition unit for acquiring a medical image using X-rays;
display; and
including a control unit,
The control unit is
Determining a region of interest (ROI) including an object corresponding to a catheter in the medical image by using a pre-trained deep learning-based artificial intelligence algorithm,
Based on the direction of the object corresponding to the catheter included in the determined region of interest, determining another region of interest including the object corresponding to the catheter,
If there is a first distal region including an object corresponding to the edge of the catheter among the plurality of regions of interest, a second distal region including the object corresponding to the edge of the catheter within a predetermined distance from the first distal region to determine whether it exists,
determining a region of interest corresponding to an edge of the catheter among the plurality of regions of interest based on the determination result;
and detecting the catheter based on a plurality of ROIs determined to include an object corresponding to the catheter.
제7항에 있어서,
상기 복수의 관심 영역 각각은,
중심에 상기 카테터에 대응하는 객체를 포함하고,
상기 카테터에 대응하는 객체에 기초하여, 서로 적어도 일부가 중첩되고,
상기 제어부는,
상기 복수의 관심 영역 간의 중첩 여부를 고려하여, 상기 카테터를 검출하는 것을 특징으로 하는 의료 영상 처리 장치.
8. The method of claim 7,
Each of the plurality of regions of interest,
Containing an object corresponding to the catheter in the center,
Based on the object corresponding to the catheter, at least partially overlapping each other,
The control unit is
The medical image processing apparatus of claim 1, wherein the catheter is detected in consideration of whether the plurality of regions of interest overlap each other.
제7항에 있어서,
상기 제어부는,
상기 제1 말단 영역으로부터 상기 소정 거리 이내에 상기 제2 말단 영역이 존재하지 않는 경우, 상기 제1 말단 영역을 상기 카테터의 가장자리에 해당하는 관심 영역으로 결정하는 것을 특징으로 하는 의료 영상 처리 장치.
8. The method of claim 7,
The control unit is
and when the second end region does not exist within the predetermined distance from the first end region, the first end region is determined as a region of interest corresponding to an edge of the catheter.
제7항에 있어서,
상기 제어부는,
상기 제1 말단 영역으로부터 상기 소정 거리 이내에 상기 제2 말단 영역이 존재하는 경우, 상기 제1 말단 영역과 상기 제2 말단 영역에 각각 포함된 상기 카테터의 가장자리에 대응하는 객체의 방향에 기초하여, 상기 제1 말단 영역과 상기 제2 말단 영역의 연결 여부를 결정하는 것을 특징으로 하는 의료 영상 처리 장치.
8. The method of claim 7,
The control unit is
When the second end region is within the predetermined distance from the first end region, based on the orientation of the object corresponding to the edge of the catheter included in the first end region and the second end region, respectively, the and determining whether the first end region and the second end region are connected.
KR1020190159616A 2018-12-04 2019-12-04 Medical image processing apparatus KR102330340B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862775385P 2018-12-04 2018-12-04
US62/775,385 2018-12-04

Publications (2)

Publication Number Publication Date
KR20200067769A KR20200067769A (en) 2020-06-12
KR102330340B1 true KR102330340B1 (en) 2021-11-22

Family

ID=71088366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190159616A KR102330340B1 (en) 2018-12-04 2019-12-04 Medical image processing apparatus

Country Status (1)

Country Link
KR (1) KR102330340B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102559654B1 (en) * 2021-08-03 2023-07-24 가톨릭대학교 산학협력단 Pressure calculation method and apparatus for ventricular-abdominal shunt

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110228992A1 (en) 2010-03-16 2011-09-22 Siemens Corporation Method and System for Guiding Catheter Detection in Fluoroscopic Images
JP2017202315A (en) * 2016-05-09 2017-11-16 東芝メディカルシステムズ株式会社 Medical image diagnostic device
JP2018078923A (en) * 2016-11-14 2018-05-24 株式会社根本杏林堂 Medical image display device, medical image display method and medical image display program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150108701A (en) * 2014-03-18 2015-09-30 삼성전자주식회사 System and method for visualizing anatomic elements in a medical image
US10409235B2 (en) * 2014-11-12 2019-09-10 Siemens Healthcare Gmbh Semantic medical image to 3D print of anatomic structure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110228992A1 (en) 2010-03-16 2011-09-22 Siemens Corporation Method and System for Guiding Catheter Detection in Fluoroscopic Images
JP2017202315A (en) * 2016-05-09 2017-11-16 東芝メディカルシステムズ株式会社 Medical image diagnostic device
JP2018078923A (en) * 2016-11-14 2018-05-24 株式会社根本杏林堂 Medical image display device, medical image display method and medical image display program

Also Published As

Publication number Publication date
KR20200067769A (en) 2020-06-12

Similar Documents

Publication Publication Date Title
KR102094737B1 (en) Medical image processing apparatus, medical image processing method, computer-readable medical-image processing program, moving-object tracking apparatus, and radiation therapy system
US20190057505A1 (en) Automatic change detection in medical images
US10702713B2 (en) X-ray fluoroscopic apparatus
US11141126B2 (en) Medical apparatus and method
US20180247154A1 (en) Image classification apparatus, method, and program
CN107809955B (en) Real-time collimation and ROI-filter localization in X-ray imaging via automatic detection of landmarks of interest
CN106232011B (en) Trachea marker
CN105027163A (en) Scan region determining apparatus
KR20200089146A (en) Apparatus and method for processing medical image
KR102579039B1 (en) Medical image processing devices, treatment systems, and medical image processing programs
US20230105799A1 (en) Program, information processing method, and information processing device
CN112641457A (en) Synthetic parametric computed tomography from surface data in medical imaging
US20220351407A1 (en) Program, information processing method, and information processing device
US11847730B2 (en) Orientation detection in fluoroscopic images
WO2023186133A1 (en) System and method for puncture path planning
CN109419521A (en) For the system and method to subject imaging
KR102330340B1 (en) Medical image processing apparatus
US11544848B2 (en) Deep learning based methods and systems for automated subject anatomy and orientation identification
US11337669B2 (en) Automatic positioning of an X-ray source by way of segmentation
US20110221754A1 (en) Method and System for Graph Based Interactive Detection of Curve Structures in 2D Fluoroscopy
US9983848B2 (en) Context-sensitive identification of regions of interest in a medical image
US11688294B2 (en) Simplified, interactive, real-time ultrasound biofeedback system for speech remediation
JP7303144B2 (en) Radiation imaging apparatus, object detection program for radiographic image, and object detection method for radiographic image
US20050281373A1 (en) Method for the automatic scaling verification of an image, in particular a patient image
US20200229783A1 (en) X-ray imaging apparatus and control method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant