KR20240025489A - Method and appratus for determining vascular structure using artificial intelligence - Google Patents

Method and appratus for determining vascular structure using artificial intelligence Download PDF

Info

Publication number
KR20240025489A
KR20240025489A KR1020230108162A KR20230108162A KR20240025489A KR 20240025489 A KR20240025489 A KR 20240025489A KR 1020230108162 A KR1020230108162 A KR 1020230108162A KR 20230108162 A KR20230108162 A KR 20230108162A KR 20240025489 A KR20240025489 A KR 20240025489A
Authority
KR
South Korea
Prior art keywords
blood vessel
image
loss
generator
medical image
Prior art date
Application number
KR1020230108162A
Other languages
Korean (ko)
Inventor
심학준
한경훈
전병환
맹신희
Original Assignee
주식회사 온택트헬스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 온택트헬스 filed Critical 주식회사 온택트헬스
Publication of KR20240025489A publication Critical patent/KR20240025489A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Abstract

본 발명은, 혈관 구조 결정 장치의 프로세서에 의해 수행되는 혈관 구조 결정 방법으로서, 개체의 혈관에 대한 의료 영상을 획득하는 단계, 상기 의료 영상에서 상기 혈관의 손실 영역을 검출하는 단계, 손실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델에 검출된 손실 영역을 입력하여 혈관에 대한 복원 이미지를 생성하는 단계, 생성된 복원 이미지를 기초로 상기 손실 영역에 대한 혈관 형태를 결정하는 단계를 포함하도록 구성된다. The present invention provides a vascular structure determination method performed by a processor of a vascular structure determination device, comprising the steps of acquiring a medical image of a blood vessel of an object, detecting a loss area of the blood vessel in the medical image, and inputting the loss image. Generating a restored image for a blood vessel by inputting the detected loss area into a blood vessel prediction model learned to output a restored image, and determining the shape of the blood vessel for the loss area based on the generated restored image. It is composed.

Description

인공지능을 이용한 혈관 구조 결정 방법 및 장치{METHOD AND APPRATUS FOR DETERMINING VASCULAR STRUCTURE USING ARTIFICIAL INTELLIGENCE}Method and device for determining blood vessel structure using artificial intelligence {METHOD AND APPRATUS FOR DETERMINING VASCULAR STRUCTURE USING ARTIFICIAL INTELLIGENCE}

본 발명은 인공지능을 이용한 혈관 구조 결정 방법 및 장치에 관한 것이다. The present invention relates to a method and device for determining blood vessel structure using artificial intelligence.

최근 협심증과 심근경색 등 관상동맥 질환(Coronary Artery Diseases, CAD)이 급격히 증가함에 따라 타 수술 및 시술보다 시술의 위험도가 낮고, 빠르게 치료 가능한 경피적 관상동맥 중재술(Percutaneous Coronary Intervention, PCI)이 시행되고 있다. Recently, as Coronary Artery Diseases (CAD), such as angina pectoris and myocardial infarction, have rapidly increased, Percutaneous Coronary Intervention (PCI), which has a lower risk than other surgeries and procedures and can be treated quickly, is being performed. .

경피적 관상동맥 중재술(PCI)을 위해서는 환자의 혈관에 조영제를 투여한 뒤, 시술 영역에 대한 X-Ray를 촬영하여, 환자 별로 상이한 혈관 구조를 식별해야 한다. 그러나, 환자에 따라 조영제에 대한 부작용이 나타날 수 있으며, 방사선에 장시간 노출되는 것은 환자와 시술의 모두에게 유해하기 때문에, 관상동맥 중재술을 조영 영상에서 혈관 인식을 빠르고 정확하게 하는 것이 중요하다. Percutaneous coronary intervention (PCI) requires administering a contrast agent to the patient's blood vessels and then taking an X-ray of the treatment area to identify different vascular structures for each patient. However, side effects from the contrast agent may occur depending on the patient, and long-term exposure to radiation is harmful to both the patient and the procedure, so it is important to quickly and accurately recognize blood vessels in contrast images for coronary intervention.

그러나 실제 X-ray 심혈관에 대한 의료 영상은 장기, 뼈, 중재 기구와 같은 배경의 혼란(Background Clutter)으로 인해 많은 노이즈가 존재하고, 심장의 박동에 따라 계속 움직이고 있기 때문에 신속한 혈관 구조 파악이 어렵다. 뿐만 아니라, 관상동맥의 일부가 완전히 막히거나, 만성적으로 폐색되는 경우(chronic total occlusion, CTO), 의료 영상에서 혈관 구조의 확인이 불가능하다. However, in actual X-ray cardiovascular medical images, there is a lot of noise due to background clutter such as organs, bones, and interventional devices, and it is difficult to quickly identify the vascular structure because it continues to move according to the heartbeat. In addition, if part of the coronary artery is completely blocked or chronically occluded (chronic total occlusion, CTO), it is impossible to confirm the vascular structure in medical images.

그에 따라, 1.5mm 내지 2mm 이하의 혈관에 대한 섬세한 시술이 몇 장의 X-ray 영상과 시술의의 경험에 의존하고 있는 것이 현실이다. Accordingly, the reality is that delicate procedures for blood vessels of 1.5 mm to 2 mm or less depend on several X-ray images and the experience of the surgeon.

발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The technology behind the invention has been written to facilitate easier understanding of the invention. It should not be understood as an admission that matters described in the technology underlying the invention exist as prior art.

한편, 의료 영상과 관련된 다양한 분야에서 딥러닝 기술이 적용되고 있으며, 일 예로, CNN 모델을 이용하여 2차원 의료 영상에서 관상동맥의 중심 혈관을 추출하는 방법이 종래 개시된 바 있다. Meanwhile, deep learning technology is being applied in various fields related to medical imaging. For example, a method of extracting the central blood vessel of a coronary artery from a two-dimensional medical image using a CNN model has been previously disclosed.

그러나, 종래 방법은 실시간 정합을 위해 3차원 의료 영상을 필요로 할 뿐만 아니라, 2차원 의료 영상만을 이용한다 하더라도 중심 혈관 외에 복잡하고 얇은 구조의 혈관들을 하나의 모델만으로 정확하고 빠르게 검출 또는 예측하기에 한계가 있다. However, the conventional method not only requires 3D medical images for real-time registration, but even if only 2D medical images are used, it is limited in accurately and quickly detecting or predicting blood vessels with complex and thin structures other than the central blood vessel with only one model. There is.

이에, 의료 영상에서 혈관의 손실된 영역에 대한 명확한 구조를 결정하기 위한 방법이 요구된다. Accordingly, a method for clearly determining the structure of the missing area of blood vessels in medical images is required.

그 결과, 본 발명의 발명자들은 의료 영상에 존재하는 다양한 변수에 대응 가능한 적대적생성신경망(Generative Adversarial Network, GAN) 기반의 혈관 예측 모델을 이용하여, 혈관의 손실된 영역을 복원하기 위한 방법 및 서버를 구성하였다. As a result, the inventors of the present invention developed a method and server for restoring lost areas of blood vessels using a vascular prediction model based on a generative adversarial network (GAN) that can respond to various variables present in medical images. It was composed.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 혈관 구조 결정 방법이 제공된다. 상기 방법은, 개체의 혈관에 대한 의료 영상을 획득하는 단계, 상기 의료 영상에서 상기 혈관의 손실 영역을 검출하는 단계, 손실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델에 검출된 손실 영역을 입력하여 혈관에 대한 복원 이미지를 생성하는 단계, 생성된 복원 이미지를 기초로 상기 손실 영역에 대한 혈관 형태를 결정하는 단계를 포함하도록 구성된다. In order to solve the problems described above, a method for determining blood vessel structure according to an embodiment of the present invention is provided. The method includes obtaining a medical image of a blood vessel of an object, detecting a loss area of the blood vessel in the medical image, and detecting a loss area in a blood vessel prediction model learned to input the loss image and output a restored image. It is configured to include generating a restored image for a blood vessel by inputting , and determining a blood vessel shape for the loss area based on the generated restored image.

본 발명의 특징에 따르면, 상기 혈관 예측 모델은, GAN(generative adversarial networks) 구조를 기초로 학습되며, 혈관에 대한 손실 이미지를 입력으로 하여 복원 이미지를 생성하도록 구성된 생성기 (generator) 에 대응될 수 있다. According to a feature of the present invention, the blood vessel prediction model is learned based on a GAN (generative adversarial networks) structure, and may correspond to a generator configured to generate a restored image by inputting a loss image of a blood vessel. .

본 발명의 다른 특징에 따르면, 상기 혈관 예측 모델은, 상기 생성기 및 상기 생성기에서 생성된 복원 이미지를 검증하는 검증기(discriminator)가 상호 경쟁하여 상기 복원 이미지의 정확도를 향상시키기 위한 가중치를 업데이트하도록 구성될 수 있다. According to another feature of the present invention, the blood vessel prediction model may be configured so that the generator and a discriminator that verifies the restored image generated by the generator compete with each other to update weights to improve the accuracy of the restored image. You can.

본 발명의 또 다른 특징에 따르면, Hessian matrix 특성에 기반한 손실 함수를 이용하여 상기 혈관 예측 모델의 상기 생성기 또는 상기 검증기를 학습하도록 구성될 수 있다. 구체적으로, 얇고 긴 혈관의 특성을 고려하여 복원된 의료 영상을 획득하기 위해, Hinge loss, contextual loss, SSIM loss, Perceptual loss 외에 Hessian 기반의 Vesselness-loss가 이용될 수 있다. According to another feature of the present invention, the generator or the verifier of the blood vessel prediction model may be configured to learn using a loss function based on Hessian matrix characteristics. Specifically, to obtain reconstructed medical images considering the characteristics of thin and long blood vessels, Hessian-based Vesselness-loss can be used in addition to Hinge loss, contextual loss, SSIM loss, and Perceptual loss.

본 발명의 또 다른 특징에 따르면, 상기 생성기는, 상기 손실 영역과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대해 컨볼루션 연산을 수행하여 근거리 컨텍스트 데이터에 대응되는 제1 특징맵들을 생성하도록 구성된 제1 분할 레이어들 및 상기 손실 영역과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대해 컨볼루션 연산을 수행하여 원거리 컨텍스트 데이터에 대응되는 제2 특징맵들을 추출하도록 구성된 제2 분할 레이어들를 포함하며, 상기 제1 및 제2 분할 레이어들은 병렬 배치될 수 있다. According to another feature of the present invention, the generator is configured to generate first feature maps corresponding to local context data by performing a convolution operation on each of the loss area and at least two different-sized kernels. Second division layers configured to extract second feature maps corresponding to far context data by performing a convolution operation on each of the division layers and the loss region and at least two different-sized kernels, wherein the first division layer includes: and second split layers may be arranged in parallel.

본 발명의 또 다른 특징에 따르면, 상기 생성기는, 상기 제1 특징맵들 및 상기 제2 특징맵들 각각을 하나로 연결하여 근거리 특징맵 및 원거리 특징맵을 추출하도록 구성된 연결(concatenate) 레이어들을 더 포함할 수 있다.According to another feature of the present invention, the generator further includes concatenate layers configured to extract a near feature map and a far feature map by connecting each of the first feature maps and the second feature maps into one. can do.

본 발명의 또 다른 특징에 따르면, 상기 생성기는, 상기 제1 특징맵들 및 상기 제2 특징맵들 각각을 하나로 연결하여 근거리 특징맵 및 원거리 특징맵을 추출하도록 구성된 연결(concatenate) 레이어들을 더 포함할 수 있다.According to another feature of the present invention, the generator further includes concatenate layers configured to extract a near feature map and a far feature map by connecting each of the first feature maps and the second feature maps into one. can do.

본 발명의 또 다른 특징에 따르면, 상기 생성기는, 상기 근거리 특징맵 및 원거리 특징맵에 잔차 값(residual value)을 적용하여 상기 손실 영역에 대한 상기 복원 이미지를 생성하도록 구성될 수 있다. According to another feature of the present invention, the generator may be configured to generate the restored image for the loss area by applying a residual value to the near feature map and the far feature map.

본 발명의 또 다른 특징에 따르면, 상기 손실 영역을 검출하는 단계는, 의료 영상을 입력으로 하여 목적 부위인 혈관을 예측하도록 학습된 혈관 분할 모델에 상기 의료 영상을 입력하여 상기 의료 영상 내 혈관을 분할하는 단계 및 분할된 혈관에서 적어도 일부 영역이 손실된 손실 영역을 검출하는 단계를 더 포함할 수 있다. According to another feature of the present invention, the step of detecting the loss area includes dividing the blood vessels in the medical image by inputting the medical image into a blood vessel segmentation model that has been learned to predict blood vessels in the target area using the medical image as input. The method may further include detecting a lost region in which at least a portion of the region is lost in the divided blood vessel.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 다른 실시예에 따른 혈관 구조 결정 장치가 제공된다. 상기 장치는, 통신 인터페이스, 메모리 및 상기 통신 인터페이스 및 상기 메모리와 동작 가능하게 연결된 프로세서를 포함하고, 상기 프로세서는, 개체의 혈관에 대한 의료 영상을 획득하고, 상기 의료 영상에서 상기 혈관의 손실 영역을 검출하고, 손실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델에 검출된 손실 영역을 입력하여 혈관에 대한 복원 이미지를 생성하고, 생성된 복원 이미지를 기초로 상기 손실 영역에 대한 혈관 형태를 결정하도록 구성된다.In order to solve the problems described above, a device for determining blood vessel structure according to another embodiment of the present invention is provided. The device includes a communication interface, a memory, and a processor operably connected to the communication interface and the memory, wherein the processor acquires a medical image of a blood vessel of an object, and identifies a loss area of the blood vessel in the medical image. Generate a restored image for a blood vessel by inputting the detected loss area into a blood vessel prediction model that is trained to detect and output a restored image by inputting the loss image, and determine the shape of the blood vessel for the loss area based on the generated restored image. It is structured to make decisions.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

본 발명은 의료 영상에서 혈관의 손실된 영역을 정확하게 복원하여 제공할 수 있다. 특히, 본 발명은 GAN 기반의 혈관 예측 모델을 이용함으로써, 학습 데이터에 의존하지 않고, 다양한 혈관 구조에 대응되는 복원 이미지를 생성할 수 있다. The present invention can accurately restore and provide lost areas of blood vessels in medical images. In particular, by using a GAN-based blood vessel prediction model, the present invention can generate restored images corresponding to various blood vessel structures without relying on learning data.

본 발명은 병변으로 인하여 끊어지거나, 잡음 등으로 인하여 화질이 저하된 관상동맥 영역을 GAN 기반의 생성 모델을 활용하여 복원함으로써, 시술 시 참조할 수 있을 만한 수준의 혈관 중심선을 복원할 수 있다.The present invention uses a GAN-based generation model to restore coronary artery areas that are cut off due to lesions or have reduced image quality due to noise, etc., thereby restoring the blood vessel center line to a level that can be used as a reference during the procedure.

본 발명은 복원 이미지를 빠르게 생성하여 제공함으로써, 실제 임상 환경 또는 실세 시술 현장에서 복원 이미지를 이용하여 혈관과 관련된 각종 시술 또는 수술을 효율적으로 진행할 수 있다. By quickly generating and providing restored images, the present invention can efficiently perform various procedures or surgeries related to blood vessels using the restored images in an actual clinical environment or at a real-life surgical procedure site.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.The effects according to the present invention are not limited to the details exemplified above, and further various effects are included within the present invention.

도 1은 본 발명의 일 실시예에 따른 혈관 구조 결정 시스템의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 의료진 장치의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 혈관 구조 결정 장치의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 혈관 구조 결정 방법에 대한 개략적인 순서도이다.
도 5a 및 도 5b는 본 발명의 일 실시예에 따른 혈관 예측 모델 학습 방법을 설명하기 위한 개략도이다.
도 6은 본 발명의 일 실시예에 따른 혈관 예측 모델에 포함된 생성기의 구조를 설명하기 위한 개략도이다.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 혈관 예측 모델의 예측 방법을 설명하기 위한 개략도이다.
도 8a은 본 발명의 일 실시예에 따른 혈관 구조 결정 방법을 의료 영상을 기준으로 설명하기 위한 개략도이다.
도 8b는 본 발명의 일 실시예에 따른 혈관 구조 결정 방법에서 손실 함수를 적용에 따른 성능 향상을 설명하기 위한 개략도이다.
도 9a 및 도 9b는 본 발명의 일 실시예에 따른 혈관 구조 결정 방법의 평가 결과를 설명하기 위한 개략도이다.
Figure 1 is a block diagram showing the configuration of a blood vessel structure determination system according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of a medical staff device according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of a blood vessel structure determination device according to an embodiment of the present invention.
Figure 4 is a schematic flowchart of a method for determining blood vessel structure according to an embodiment of the present invention.
5A and 5B are schematic diagrams for explaining a method for learning a blood vessel prediction model according to an embodiment of the present invention.
Figure 6 is a schematic diagram illustrating the structure of a generator included in a blood vessel prediction model according to an embodiment of the present invention.
7A and 7B are schematic diagrams for explaining a prediction method of a blood vessel prediction model according to an embodiment of the present invention.
Figure 8a is a schematic diagram for explaining a method for determining blood vessel structure according to an embodiment of the present invention based on medical images.
Figure 8b is a schematic diagram illustrating performance improvement by applying a loss function in the method for determining blood vessel structure according to an embodiment of the present invention.
9A and 9B are schematic diagrams for explaining evaluation results of a method for determining blood vessel structure according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms, but the present embodiments only serve to ensure that the disclosure of the present invention is complete and are within the scope of common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, similar reference numbers may be used for similar components.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, the first component may be renamed as the second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed as the first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression “configured to” depends on the situation, for example, “suitable for,” “having the capacity to.” ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware. Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as generally understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and as can be fully understood by those skilled in the art, various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other. It may be possible to conduct them together due to a related relationship.

본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of this specification, terms used in this specification will be defined below.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. Hereinafter, the present invention will be described in detail by explaining preferred embodiments of the present invention with reference to the accompanying drawings.

본 명세서에서 사용되는 용어, "개체"는 X-Ray 촬영을 통해 혈관 구조에 대한 정보를 제공받고자 하는 모든 대상을 의미할 수 있다. 예를 들어, 개체는 관상동맥과 관련한 질환을 겪고 있는 환자일 수 있으며, 진단 부위 또는 목적 부위가 심장일 수 있다. 한편, 본 명세서 내에 개시된 개체는 인간을 포함한 모든 포유 동물을 포함할 수 있다. As used herein, the term “subject” may refer to any subject who wishes to receive information about the vascular structure through X-ray imaging. For example, the subject may be a patient suffering from a disease related to the coronary artery, and the diagnosis site or target site may be the heart. Meanwhile, the entities disclosed herein may include all mammals, including humans.

본 명세서에서 사용되는 용어, "의료 영상"은 복수 개의 컷(프레임)으로 구성된 의료 영상일 수 있다. 구체적으로, 의료 영상은 엑스레이(X-Ray)를 개체를 향하여 조사함으로써, 얻어진 횡단면 의료 영상일 수 있다. 다만, 이 외에도 의료 영상은 3차원 볼륨 영상, 한 컷의 스틸 영상, 복수 개의 컷으로 구성된 동영상, 다양한 단면상을 가지는 복수 개의 영상일 수 있다. The term “medical image” used in this specification may be a medical image composed of a plurality of cuts (frames). Specifically, the medical image may be a cross-sectional medical image obtained by irradiating X-rays toward an object. However, in addition to this, the medical image may be a 3D volume image, a single still image, a video composed of multiple cuts, or multiple images with various cross-sectional views.

본 명세서에서 사용되는 용어, "손실 영역"은 의료 영상에서 혈관의 일부, 또는 전부가 손상 또는 누락된 영역일 수 있다. 의료 영상에서 손실 영역은 영상 촬영 품질, 영상 촬영 환경 및 개체의 질환 여부 등 다양한 요인에 의해 존재할 수 있다. As used herein, the term “loss area” may be an area in a medical image where some or all of the blood vessels are damaged or missing. In medical images, loss areas may exist due to various factors such as image quality, image shooting environment, and whether the subject is diseased.

본 명세서에서 사용되는 용어, "혈관 예측 모델"은 손실 이미지를 입력으로 하여 복원 이미지를 출력하도록 학습된 모델일 수 있다. 구체적으로, 혈관 예측 모델은 GAN(generative adversarial networks) 구조를 기초로 학습되며, 혈관에 대한 손실 이미지를 입력으로 하여 복원 이미지를 생성하도록 구성된 생성기(generator)에 대응될 수 있다. 또한, 혈관 예측 모델은 생성기 및 생성기에서 생성된 복원 이미지를 검증하는 검증기(discriminator)가 상호 경쟁하여 복원 이미지의 정확도를 향상시키기 위한 가중치를 업데이트하도록 구성될 수 있다. The term “blood vessel prediction model” used in this specification may be a model learned to output a restored image using a loss image as input. Specifically, the blood vessel prediction model is learned based on the GAN (generative adversarial networks) structure, and may correspond to a generator configured to generate a restored image by inputting a loss image of a blood vessel. Additionally, the blood vessel prediction model may be configured so that a generator and a discriminator that verifies the restored image generated by the generator compete with each other to update weights to improve the accuracy of the restored image.

본 명세서에서 사용되는 용어, "혈관 분할 모델"은 의료 영상을 입력하여 목적 부위인 혈관을 예측하도록 학습된 모델일 수 있다. 구체적으로, "혈관 분할 모델"은 의료 영상에서 혈관이 존재할 것으로 예측되는 영역을 분할하여 표시하도록 학습된 모델일 수 있다. The term “blood vessel segmentation model” used in this specification may be a model learned to predict blood vessels that are target areas by inputting medical images. Specifically, the “blood vessel segmentation model” may be a model learned to segment and display an area where blood vessels are predicted to exist in a medical image.

다양한 실시예에서, 혈관 분할 모델은 CNN (Convolutional Neural Network) 기반의 VGG net, R, DenseNet 및, encoder-decoder structure를 갖는 FCN (Fully Convolutional Network), SegNet, DeconvNet, DeepLAB V3+, U-net와 같은 DNN (deep neural network), SqueezeNet, Alexnet, ResNet18, MobileNet-v2, GoogLeNet, Resnet50, Resnet101, Inception-v3 중 적어도 하나의 모델 혹은 두 개 이상의 앙상블 모델로 구성될 수 있다. In various embodiments, the blood vessel segmentation model is a VGG net based on a CNN (Convolutional Neural Network), R, DenseNet, and an FCN (Fully Convolutional Network) with an encoder-decoder structure, SegNet, DeconvNet, DeepLAB V3+, U-net, etc. It may consist of at least one model or two or more ensemble models among DNN (deep neural network), SqueezeNet, Alexnet, ResNet18, MobileNet-v2, GoogLeNet, Resnet50, Resnet101, and Inception-v3.

도 1은 본 발명의 일 실시예에 따른 혈관 구조 결정 시스템의 구성을 나타낸 블록도이다. Figure 1 is a block diagram showing the configuration of a blood vessel structure determination system according to an embodiment of the present invention.

도 1을 참조하면, 혈관 구조 결정 시스템(1000)은 인공신경망 모델을 이용하여 혈관 구조를 예측하도록 구성된 시스템일 수 있다. 이를 위해, 혈관 구조 결정 시스템(1000)은 개체의 혈관을 촬영하는 영상 촬영 장치(100), 혈관에 대한 의료 영상을 확인하고, 개체의 진단을 수행하는 의료진 장치(200) 및 혈관에서 손실된 영역을 복원하는 혈관 구조 결정 장치(300)를 포함할 수 있다. Referring to FIG. 1, the vascular structure determination system 1000 may be a system configured to predict vascular structure using an artificial neural network model. For this purpose, the vascular structure determination system 1000 includes an imaging device 100 for imaging blood vessels of an object, a medical staff device 200 for checking medical images of blood vessels and performing a diagnosis of the object, and an area lost from a blood vessel. It may include a blood vessel structure determination device 300 that restores .

영상 촬영 장치(100)는 사람, 동물 등 개체의 혈관에 대한 의료 영상을 획득할 수 있는 장치일 수 있다. 영상 촬영 장치(100)는 예를 들어, 영상 촬영 장치(100)는 개체를 투영할 수 있는 엑스레이(X-ray)를 개체를 향하여 조사함으로써, 개체에 대한 의료 영상을 획득할 수 있다. The imaging device 100 may be a device that can acquire medical images of blood vessels of an object, such as a person or animal. For example, the imaging device 100 may acquire a medical image of an object by irradiating an X-ray capable of projecting the object toward the object.

다양한 실시예에서, 영상 촬영 장치(100)는 손실된 혈관의 구조를 결정하기 위한 의료 영상으로 gray scale 또는 RGB의 2차원 영상, 한 컷의 스틸 영상, 복수 개의 컷으로 구성된 동영상 등을 획득할 수 있다. 예를 들어, 영상 촬영 장치(100)은 엑스레이, 초음파, CT(computerized tomography), MRI(magnetic resonance imaging), PET(positron emission tomography), SPET(single photon emission computed tomography) 등 다양한 형태의 촬영 장치로부터 의료 영상을 획득할 수 있다. In various embodiments, the imaging device 100 may acquire gray scale or RGB two-dimensional images, a single still image, a video composed of multiple cuts, etc. as medical images for determining the structure of a lost blood vessel. there is. For example, the imaging device 100 uses various types of imaging devices such as X-ray, ultrasound, computerized tomography (CT), magnetic resonance imaging (MRI), positron emission tomography (PET), and single photon emission computed tomography (SPET). Medical images can be obtained.

의료진 장치(200)는 영상 촬영 장치(100)에서 촬영된 혈관 영상(11)에서 손실된 부분이 존재하는 경우, 혈관 구조 결정 장치(300)로 영상을 복원 요청하여, 복원된 이미지(12)를 표시할 수 있는 장치일 수 있다. 예를 들어, 의료진 장치(200)는 스마트폰, 태블릿 PC (Personal Computer), 노트북 및 PC 등을 포함할 수 있다.If there is a lost part in the vascular image 11 captured by the imaging device 100, the medical staff device 200 requests the vascular structure determination device 300 to restore the image and provides the restored image 12. It may be a device that can display. For example, the medical staff device 200 may include a smartphone, tablet PC (personal computer), laptop, and PC.

다양한 실시예에서, 의료진 장치(200)는 혈관 구조 결정 장치(300)가 제공하는 웹 (Web) 또는 모바일 (Mobile) 어플리케이션 (Application) 또는 프로그램을 설치 또는 실행 가능하도록 구성되어, 후술하게 될 혈관 구조 결정 장치(300)가 수행하는 일련의 혈관 구조 결정 방법을 수행할 수 있다. In various embodiments, the medical staff device 200 is configured to install or execute a web or mobile application or program provided by the vascular structure determination device 300, and the vascular structure to be described later. A series of blood vessel structure determination methods performed by the determination device 300 may be performed.

혈관 구조 결정 장치(300)는 개체의 혈관에 대한 의료 영상을 획득하고, 손실 영역에 삽입될 복원 이미지를 결정할 수 있는 장치일 수 있다. 예를 들어, 혈관 구조 결정 장치(300)는 범용 컴퓨터, 랩탑 및 데이터 서버 등을 포함할 수 있다.The blood vessel structure determination device 300 may be a device that can acquire a medical image of a blood vessel of an object and determine a restored image to be inserted into the loss area. For example, the vascular structure determination device 300 may include a general-purpose computer, laptop, and data server.

영상 촬영 장치(100)가 촬영한 의료 영상은 심장 움직임 (cardiac motion artifact), 영상 잡음, 관상 동맥 질병과 같은 다양한 원인들에 의해, 출력 영상은 손실된 부분들을 포함할 수 있다. 개체의 혈관은 동일한 종이라 하더라도 서로 다른 구조로 이루어지고 있기 때문에, 기 저장된 혈관에 대한 의료 영상을 기반으로 혈관의 구조를 예측하기에 한계가 있다. Medical images captured by the imaging device 100 may include lost parts due to various causes such as cardiac motion artifact, image noise, and coronary artery disease. Because individual blood vessels have different structures even if they are of the same species, there are limitations in predicting the structure of blood vessels based on previously stored medical images of blood vessels.

이에, 본 발명의 혈관 구조 결정 장치(300)는 입력 데이터의 특징을 스스로 학습하여 새로운 데이터를 생성해내는 GAN(generative adversarial networks) 구조의 혈관 예측 모델을 이용하여 환자 별로 상이한 구조를 가지는 혈관에 대한 모양을 예측 및 결정할 수 있다. 여기서, 혈관 예측 모델은 혈관에 대한 손실 이미지를 입력으로 하여 복원 이미지를 생성하도록 구성된 생성기(generator)에 대응될 수 있다. 생성기에서 생성된 복원 이미지는 혈관 예측 모델이 포함하고 있는 검증기(discriminator)를 통해 검증될 수 있다. 구체적으로, 혈관 예측 모델은 생성기 및 검증기가 상호 경쟁하여 복원 이미지의 정확도를 향상시키기 위한 가중치를 업데이트하도록 구성될 수 있다. Accordingly, the vascular structure determination device 300 of the present invention uses a vascular prediction model of a GAN (generative adversarial networks) structure that automatically learns the characteristics of input data and generates new data to predict blood vessels with different structures for each patient. The shape can be predicted and determined. Here, the blood vessel prediction model may correspond to a generator configured to generate a restored image using a loss image of a blood vessel as an input. The restored image generated by the generator can be verified through the discriminator included in the blood vessel prediction model. Specifically, the blood vessel prediction model may be configured so that the generator and verifier compete with each other to update weights to improve the accuracy of the reconstructed image.

아울러, 본 발명의 혈관 구조 결정 장치(300)는 혈관 예측 모델의 생성기가 혈관과 배경을 정확하게 분리시키고, 혈관의 미세한 구조를 정확하게 결정할 수 있도록 모델의 구조를 새롭게 구성할 수 있다. 구체적으로, 혈관 구조 결정 장치(300)는 혈관 예측 모델의 생성기가 상이한 사이즈의 커널을 가지는 합성곱 연산 레이어를 복수 개 포함시키도록 구성할 수 있으며, 보다 구체적인 설명은 후술하도록 한다. In addition, the blood vessel structure determination device 300 of the present invention can newly configure the structure of the model so that the generator of the blood vessel prediction model can accurately separate the blood vessel and the background and accurately determine the fine structure of the blood vessel. Specifically, the blood vessel structure determination device 300 may be configured so that the generator of the blood vessel prediction model includes a plurality of convolution operation layers having kernels of different sizes, and a more detailed description will be provided later.

이와 같이, GAN 구조의 혈관 예측 모델을 통해 복원 이미지는 생성될 수 있으며, 본 발명에서는 복수의 손실 함수를 추가로 적용함으로써, 혈관 예측 모델이 혈관의 미세한 구조까지 예측할 수 있도록 그 정확도를 향상시킬 수 있다. In this way, a restored image can be generated through the blood vessel prediction model of the GAN structure, and in the present invention, by additionally applying a plurality of loss functions, the accuracy of the blood vessel prediction model can be improved so that it can predict even the fine structure of blood vessels. there is.

다양한 실시예에서, 혈관 구조 결정 장치(300)는 혈관 예측 모델의 생성기 및 검증기 각각의 가중치를 Hinge Loss, contextual loss, SSIM loss, Perceptual loss 및 Hessian-based loss 중 어느 하나의 손실 함수를 이용하여 보정할 수 있다. In various embodiments, the vascular structure determination device 300 corrects the weights of each generator and verifier of the vascular prediction model using any one of the loss functions of Hinge Loss, contextual loss, SSIM loss, Perceptual loss, and Hessian-based loss. can do.

다양한 실시예에서, 혈관 구조 결정 장치(300)는 혈관 예측 모델의 예측 효율을 높이기 위해, 혈관 예측 모델을 이용하기 이전에 혈관이 존재하는 영역만을 분할할 수 있다. 구체적으로, 혈관 구조 결정 장치(300)는 의료 영상을 입력으로 하여 목적 부위인 혈관을 예측하도록 학습된 혈관 분할 모델에 영상 촬영 장치(100)에서 촬영한 의료 영상을 입력하여 의료 영상 내 혈관을 분할할 수 있다. 이를 통해, 혈관 구조 결정 장치(300)는 각종 노이즈가 존재하는 배경과 혈관을 1차적으로 구분할 수 있다. 혈관 구조 결정 장치(300)는 분할된 혈관에서 적어도 일부 영역이 손실된 손실 영역을 검출할 수 있다. 예를 들어, 혈관 구조 결정 장치(300)는 혈관 중 일부가 연결된 영역 또는 전부가 분리된 영역을 검출할 수 있다. In various embodiments, the blood vessel structure determination device 300 may segment only the area where blood vessels exist before using the blood vessel prediction model to increase the prediction efficiency of the blood vessel prediction model. Specifically, the vascular structure determination device 300 inputs the medical image captured by the imaging device 100 into a blood vessel segmentation model learned to predict the target blood vessel by using the medical image as input to segment the blood vessels in the medical image. can do. Through this, the blood vessel structure determination device 300 can primarily distinguish the blood vessel from the background in which various noises exist. The blood vessel structure determination device 300 may detect a loss area in which at least a portion of the area is lost in the divided blood vessel. For example, the blood vessel structure determination device 300 may detect an area where some of the blood vessels are connected or an area where all of the blood vessels are separated.

상기와 같이, 혈관 구조 결정 장치(300)는 혈관 예측 모델 및 혈관 분할 모델을 통해 혈관에 대한 이미지를 복원할 수 있음에 따라, 동맥경화성 질환, 관상동맥질환 (coronary artery disease), 뇌혈관질환, 신혈관질환, 또는 말초혈관질환 (peripheral vascular disease, PVD) 등의 동맥 관련 질환, 거대세포 동맥염, 다카야수씨 동맥염, 가와사키병, 결절다발성 혈관염 동맥류 또는 동맥박리 등의 혈관염, 정맥류, 혈전정맥염 또는 정맥혈전증 등의 정맥 관련 질환의 검출, 검사 및 시술에 활용할 수 있다. 다른 예를 들어, 혈관 구조 결정 장치(300)는 혈관 형성술(angioplasty), 동맥류, 협심증(가슴 조임증), 대동맥 협착, 대동맥염, 부정맥, 동맥경화증, 동맥염, 죽상동 맥경화증, 경동맥 질환, 대동맥의 축착, 관상 동맥 질환, 아이젠멩거 증후군 (Eisenmenger's Syndrome), 색전증, 고혈압, 저혈압, 특발성 영아 동맥 석회화, 가와사키병 (점막피부성 림프절 증후군, 점막피부성 림프절 질환, 영아 다발성동맥염), 대사 증후군, 미세혈관 협심증, 결절성 동맥주위염(다발성동맥염, 결절성 다발성동맥염), 말초 혈관 질환, 중증 사지 허혈, 당뇨병성 혈관병증, 정맥염, 폐동맥판 협착(폐 협착), 신동맥 협착, 신혈관성 고혈압, 무증상성 허혈, 타까야수동맥염 (Takayasu's Arteritis), 팔로 사징후(Tetralogy of Fallot), 대혈 관 전위증, 동맥 줄기, 정맥류성 궤양, 정맥류, 혈관염, 태아 좌심실 동맥류 (Fetal left ventricular aneurysm), 신생아 뇌출혈, 쌍태아간 수혈 증후군 (Twin.twin transfusion syndrome), 태반 혈류 장애, 거미막하 출혈, 뇌내출혈, 기타 비외상성 두개내 출혈, 뇌경색증, 뇌전동맥의 폐쇄와 협착 또는 대뇌동맥의 폐쇄와 협착 중 하나의 검출, 검사 및 시술에 활용할 수 있다. 또 다른 예를 들어, 혈관 구조 결정 장치(300)는 새로운 혈관의 증식을 포함하는 생리 과정인 혈관형성(Angiogenesis)에 대한 검출, 검사 또는 시술에 활용할 수 있다. As described above, the vascular structure determination device 300 can restore images of blood vessels through a blood vessel prediction model and a blood vessel segmentation model, thereby preventing atherosclerotic disease, coronary artery disease, cerebrovascular disease, Artery-related diseases such as renal vascular disease or peripheral vascular disease (PVD), giant cell arteritis, Takayasu's arteritis, Kawasaki disease, polyangiitis nodosa, vasculitis such as aneurysm or arterial dissection, varicose veins, thrombophlebitis or veins It can be used for detection, examination, and procedures of vein-related diseases such as thrombosis. For another example, the vascular structure determination device 300 may be used to treat angioplasty, aneurysm, angina (stiffness of the chest), aortic stenosis, aortitis, arrhythmia, arteriosclerosis, arteritis, atherosclerosis, carotid artery disease, aorta Coarctation, coronary artery disease, Eisenmenger's Syndrome, embolism, hypertension, hypotension, idiopathic infantile arterial calcification, Kawasaki disease (mucocutaneous lymph node syndrome, mucocutaneous lymph node disease, infantile polyarteritis), metabolic syndrome, microscopic Vascular angina, periarteritis nodosa (polyarteritis, polyarteritis nodosa), peripheral vascular disease, critical limb ischemia, diabetic angiopathy, phlebitis, pulmonary valve stenosis (pulmonary stenosis), renal artery stenosis, renovascular hypertension, asymptomatic ischemia, Takayasu Takayasu's Arteritis, Tetralogy of Fallot, transposition of the great vessels, arterial stem, varicose ulcer, varicose veins, vasculitis, fetal left ventricular aneurysm, neonatal cerebral hemorrhage, twin-to-twin transfusion syndrome (Twin. Twin transfusion syndrome), placental blood flow disorder, subarachnoid hemorrhage, intracerebral hemorrhage, other non-traumatic intracranial hemorrhage, cerebral infarction, occlusion and stenosis of the precranial artery, or occlusion and stenosis of the cerebral artery. . As another example, the vascular structure determination device 300 can be used to detect, test, or perform procedures on angiogenesis, a physiological process involving the proliferation of new blood vessels.

지금까지 본 발명의 일 실시예에 따른 혈관 구조 결정 시스템(1000)에 대하여 설명하였다. 본 발명에 따르면, 혈관 구조 결정 시스템(1000)은 혈관 구조 결정 장치(300)가 의료진 장치(200)로 혈관의 변형, 손실된 부분에 대한 복원 이미지를 즉각 제공함으로써, 실제 임상 환경 또는 실세 시술 현장에서 복원 이미지를 이용하여 혈관과 관련된 각종 시술 또는 수술을 효율적으로 진행할 수 있도록 도움을 줄 수 있다. So far, the blood vessel structure determination system 1000 according to an embodiment of the present invention has been described. According to the present invention, the vascular structure determination system 1000 allows the vascular structure determination device 300 to immediately provide a restored image of the deformed or lost part of the blood vessel to the medical staff device 200, thereby enabling It can help to efficiently perform various procedures or surgeries related to blood vessels using restored images.

이하에서는 도 2를 참조하여, 혈관 구조 결정 결과를 활용하는 의료진 장치(200)에 대하여 설명하도록 한다. Hereinafter, with reference to FIG. 2, the medical staff device 200 that utilizes the result of determining the vascular structure will be described.

도 2는 본 발명의 일 실시예에 따른 의료진 장치의 구성을 나타낸 블록도이다. Figure 2 is a block diagram showing the configuration of a medical staff device according to an embodiment of the present invention.

도 2를 참조하면, 의료진 장치(200)는 메모리 인터페이스(210), 하나 이상의 프로세서(220) 및 주변 인터페이스(230)를 포함할 수 있다. 의료진 장치(200) 내의 다양한 컴포넌트들은 하나 이상의 통신 버스 또는 신호 라인에 의해 연결될 수 있다.Referring to FIG. 2 , the medical staff device 200 may include a memory interface 210, one or more processors 220, and a peripheral interface 230. The various components within the medical staff device 200 may be connected by one or more communication buses or signal lines.

메모리 인터페이스(210)는 메모리(250)에 연결되어 프로세서(220)로 다양한 데이터를 전할 수 있다. 여기서, 메모리(250)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory interface 210 is connected to the memory 250 and can transmit various data to the processor 220. Here, the memory 250 is a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage, and cloud. , It may include at least one type of storage medium among the blockchain database.

다양한 실시예에서, 메모리(250)는 혈관에 대한 의료 영상에서, 손실 영역에 대한 복원 이미지를 표시하기 위한 웹/앱 어플리케이션 또는 프로그램을 저장할 수 있다. 또한, 메모리(250)는 개체의 식별 정보(예. 나이, 성별, 질병, 질환 유무), 개체의 의료 영상, 의료 영상 내 손상 영역 등을 저장할 수 있다. In various embodiments, the memory 250 may store a web/app application or program for displaying a restored image for a lost area in a medical image for a blood vessel. Additionally, the memory 250 may store identification information of the entity (e.g., age, gender, disease, presence or absence of a disease), a medical image of the entity, a damaged area within the medical image, etc.

다양한 실시예에서, 메모리(250)는 운영 체제(251), 통신 모듈(252), 그래픽 사용자 인터페이스 모듈(GUI)(253), 센서 처리 모듈(254), 전화 모듈(255) 및 애플리케이션 모듈(256) 중 적어도 하나 이상을 저장할 수 있다. 구체적으로, 운영 체제(251)는 기본 시스템 서비스를 처리하기 위한 명령어 및 하드웨어 작업들을 수행하기 위한 명령어를 포함할 수 있다. 통신 모듈(252)은 다른 하나 이상의 디바이스, 컴퓨터 및 서버 중 적어도 하나와 통신할 수 있다. 그래픽 사용자 인터페이스 모듈(GUI)(253)은 그래픽 사용자 인터페이스를 처리할 수 있다. 센서 처리 모듈(254)은 센서 관련 기능(예를 들어, 하나 이상의 마이크(292)를 통해 수신된 음성 입력을 처리함)을 처리할 수 있다. 전화 모듈(255)은 전화 관련 기능을 처리할 수 있다. 애플리케이션 모듈(256)은 사용자 애플리케이션의 다양한 기능들, 예컨대 전자 메시징, 웹 브라우징, 미디어 처리, 탐색, 이미징, 기타 프로세스 기능을 수행할 수 있다. 아울러, 식별자 디바이스(100)는 메모리(250)에 어느 한 종류의 서비스와 연관된 하나 이상의 소프트웨어 애플리케이션(256-1, 256-2)(예. 혈관 구조 결정 어플리케이션)을 저장할 수 있다.In various embodiments, memory 250 includes operating system 251, communications module 252, graphical user interface module (GUI) 253, sensor processing module 254, telephony module 255, and application module 256. ) can be stored. Specifically, the operating system 251 may include instructions for processing basic system services and instructions for performing hardware tasks. The communication module 252 may communicate with at least one of one or more other devices, computers, and servers. The graphical user interface module (GUI) 253 can process a graphical user interface. Sensor processing module 254 may process sensor-related functions (e.g., processing voice input received through one or more microphones 292). The phone module 255 can process phone-related functions. Application module 256 may perform various functions of a user application, such as electronic messaging, web browsing, media processing, navigation, imaging, and other processing functions. In addition, the identifier device 100 may store one or more software applications 256-1 and 256-2 (eg, blood vessel structure determination application) associated with one type of service in the memory 250.

다양한 실시예에서, 메모리(250)는 디지털 어시스턴트 클라이언트 모듈(257)(이하, DA 클라이언트 모듈)을 저장할 수 있으며, 그에 따라 디지털 어시스턴트의 클라이언트 측의 기능을 수행하기 위한 명령어 및 다양한 사용자 데이터(258)(예. 사용자 맞춤형 어휘 데이터, 선호도 데이터, 사용자의 전자 주소록 등과 같은 기타 데이터)를 저장할 수 있다. In various embodiments, memory 250 may store a digital assistant client module 257 (hereinafter referred to as the DA client module), thereby storing various user data 258 and instructions for performing client-side functions of the digital assistant. (e.g. user-customized vocabulary data, preference data, other data such as the user's electronic address book, etc.) may be stored.

한편, DA 클라이언트 모듈(257)은 의료진 장치(200)에 구비된 다양한 사용자 인터페이스(예. I/O 서브시스템(240))를 통해 사용자의 음성 입력, 텍스트 입력, 터치 입력 및/또는 제스처 입력을 획득할 수 있다. Meanwhile, the DA client module 257 uses the user's voice input, text input, touch input, and/or gesture input through various user interfaces (e.g., I/O subsystem 240) provided in the medical staff device 200. It can be obtained.

또한, DA 클라이언트 모듈(257)은 시청각적, 촉각적 형태의 데이터를 출력할 수 있다. 예를 들어, DA 클라이언트 모듈(257)은 음성, 소리, 알림, 텍스트 메시지, 메뉴, 그래픽, 비디오, 애니메이션 및 진동 중 적어도 둘 하나 이상의 조합으로 이루어진 데이터를 출력할 수 있다. 아울러, DA 클라이언트 모듈(257)은 통신 서브시스템(280)을 이용하여 디지털 어시스턴트 서버(미도시)와 통신할 수 있다.Additionally, the DA client module 257 can output data in audiovisual and tactile forms. For example, the DA client module 257 may output data consisting of a combination of at least two or more of voice, sound, notification, text message, menu, graphics, video, animation, and vibration. In addition, the DA client module 257 can communicate with a digital assistant server (not shown) using the communication subsystem 280.

다양한 실시예에서, DA 클라이언트 모듈(257)은 사용자 입력과 연관된 상황(context)을 구성하기 위하여 다양한 센서, 서브시스템 및 주변 디바이스로부터 의료진 장치(200)의 주변 환경에 대한 추가 정보를 수집할 수 있다. 예를 들어, DA 클라이언트 모듈(257)은 사용자 입력과 함께 상황 정보를 디지털 어시스턴트 서버에 제공하여 사용자의 의도를 추론할 수 있다. 여기서, 사용자 입력에 동반될 수 있는 상황 정보는 센서 정보, 예를 들어, 광(lighting), 주변 소음, 주변 온도, 주변 환경의 이미지, 비디오 등을 포함할 수 있다. 다른 예를 들어, 상황 정보는 의료진 장치(200)의 물리적 상태(예. 디바이스 배향, 디바이스 위치, 디바이스 온도, 전력 레벨, 속도, 가속도, 모션 패턴, 셀룰러 신호 강도 등)을 포함할 수 있다. 또 다른 예를 들어, 상황 정보는 의료진 장치(200)의 소프트웨어 상태에 관련된 정보(예. 의료진 장치(200)에서 실행 중인 프로세스, 설치된 프로그램, 과거 및 현재 네트워크 활동성, 백그라운드 서비스, 오류 로그, 리소스 사용 등)를 포함할 수 있다. In various embodiments, the DA client module 257 may collect additional information about the surrounding environment of the medical staff device 200 from various sensors, subsystems, and peripheral devices to construct a context associated with user input. . For example, the DA client module 257 may infer the user's intention by providing context information along with user input to the digital assistant server. Here, context information that may accompany the user input may include sensor information, for example, lighting, ambient noise, ambient temperature, images of the surrounding environment, video, etc. As another example, the context information may include the physical state of the medical staff device 200 (e.g., device orientation, device location, device temperature, power level, speed, acceleration, motion pattern, cellular signal strength, etc.). As another example, context information may include information related to the software status of the medical staff device 200 (e.g., processes running on the medical staff device 200, installed programs, past and current network activity, background services, error logs, resource usage). etc.) may be included.

다양한 실시예에서, 메모리(250)는 추가 또는 삭제된 명령어를 포함할 수 있다. 나아가 의료진 장치(200)도 도 2에 도시된 구성 외에 추가 구성을 포함하거나, 일부 구성을 제외할 수도 있다. In various embodiments, memory 250 may include added or deleted instructions. Furthermore, the medical staff device 200 may also include additional components other than those shown in FIG. 2 or may exclude some components.

프로세서(220)는 의료진 장치(200)의 전반적인 동작을 제어할 수 있으며, 메모리(250)에 저장된 어플리케이션 또는 프로그램을 구동하여 의료 영상에서 손상되거나 왜곡된 영역에 대한 복원 이미지를 표시할 수 있는 사용자 인터페이스를 구현하기 위한 다양한 명령들을 수행할 수 있다. The processor 220 can control the overall operation of the medical staff device 200 and runs an application or program stored in the memory 250 to create a user interface that can display a restored image for a damaged or distorted area in a medical image. You can execute various commands to implement.

프로세서(220)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(220)는 NPU(Neural Processing Unit)과 같이 기계 학습을 수행하는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. The processor 220 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). In addition, the processor 220 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) that integrates various computing devices that perform machine learning, such as a neural processing unit (NPU). .

다양한 실시예에서, 프로세서(220)는 개체의 혈관에 대한 의료 영상을 획득하고, 의료 영상에서 상기 혈관의 손실 영역을 검출하고, 손실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델에 검출된 손실 영역을 입력하여 혈관에 대한 복원 이미지를 생성하고, 생성된 복원 이미지를 기초로 상기 손실 영역에 대한 혈관 형태를 결정할 수 있다. In various embodiments, the processor 220 acquires a medical image of a blood vessel of an object, detects a loss area of the blood vessel in the medical image, inputs the loss image, and detects it in a blood vessel prediction model learned to output a restored image. By inputting the lost area, a restored image of the blood vessel can be generated, and the shape of the blood vessel for the lost area can be determined based on the generated restored image.

주변 인터페이스(230)는 다양한 센서, 서브 시스템 및 주변 디바이스와 연결되어, 의료진 장치(200)가 다양한 기능을 수행할 수 있도록 데이터를 제공해 줄 수 있다. 여기서, 의료진 장치(200)가 어떠한 기능을 수행한다는 것은 프로세서(220)에 의해 수행되는 것으로 이해될 수 있다. The peripheral interface 230 can be connected to various sensors, subsystems, and peripheral devices to provide data so that the medical staff device 200 can perform various functions. Here, any function performed by the medical staff device 200 may be understood as being performed by the processor 220.

주변 인터페이스(230)는 모션 센서(260), 조명 센서(광 센서)(261) 및 근접 센서(262)로부터 데이터를 제공받을 수 있으며, 이를 통해, 의료진 장치(200)는 배향, 광, 및 근접 감지 기능 등을 수행할 수 있다. 다른 예를 들어, 주변 인터페이스(230)는 기타 센서들(263)(포지셔닝 시스템-GPS 수신기, 온도 센서, 생체인식 센서)로부터 데이터를 제공받을 수 있으며, 이를 통해 의료진 장치(200)가 기타 센서들(263)과 관련된 기능들을 수행할 수 있다.The peripheral interface 230 may receive data from the motion sensor 260, the light sensor (light sensor) 261, and the proximity sensor 262, through which the medical staff device 200 can determine orientation, light, and proximity. It can perform detection functions, etc. For another example, the peripheral interface 230 may receive data from other sensors 263 (positioning system-GPS receiver, temperature sensor, biometric sensor), through which the medical staff device 200 may use other sensors. Functions related to (263) can be performed.

다양한 실시예에서, 의료진 장치(200)는 주변 인터페이스(230)와 연결된 카메라 서브시스템(270) 및 이와 연결된 광학 센서(271)를 포함할 수 있으며, 이를 통해 의료진 장치(200)는 사진 촬영 및 비디오 클립 녹화 등의 다양한 촬영 기능을 수행할 수 있다. In various embodiments, the medical staff device 200 may include a camera subsystem 270 connected to the peripheral interface 230 and an optical sensor 271 connected thereto, through which the medical staff device 200 can take pictures and video. You can perform various shooting functions such as clip recording.

다양한 실시예에서, 의료진 장치(200)는 주변 인터페이스(230)와 연결된 통신 서브 시스템(280)을 포함할 수 있다. 통신 서브 시스템(280)은 하나 이상의 유/무선 네트워크로 구성되며, 다양한 통신 포트, 무선 주파수 송수신기, 광학 송수신기를 포함할 수 있다.In various embodiments, medical staff device 200 may include a communication subsystem 280 coupled to a peripheral interface 230 . The communication subsystem 280 consists of one or more wired/wireless networks and may include various communication ports, radio frequency transceivers, and optical transceivers.

다양한 실시예에서, 의료진 장치(200)는 주변 인터페이스(230)와 연결된 오디오 서브 시스템(290)을 포함하며, 이러한 오디오 서브 시스템(290)은 하나 이상의 스피커(291) 및 하나 이상의 마이크(292)를 포함함으로써, 의료진 장치(200)는 음성 작동형 기능, 예컨대 음성 인식, 음성 복제, 디지털 녹음, 및 전화 기능 등을 수행할 수 있다.In various embodiments, medical staff device 200 includes an audio subsystem 290 coupled to a peripheral interface 230, which includes one or more speakers 291 and one or more microphones 292. By including this, medical staff device 200 can perform voice-activated functions, such as voice recognition, voice duplication, digital recording, and telephone functions.

다양한 실시예에서, 의료진 장치(200)는 주변 인터페이스(230)와 연결된 I/O 서브시스템(240)을 포함할 수 있다. 예를 들어, I/O 서브시스템(240)은 터치 스크린 제어기(241)를 통해 의료진 장치(200)에 포함된 터치 스크린(243)을 제어할 수 있다. In various embodiments, medical staff device 200 may include an I/O subsystem 240 coupled with a peripheral interface 230 . For example, the I/O subsystem 240 may control the touch screen 243 included in the medical staff device 200 through the touch screen controller 241.

예를 들어, 터치 스크린 제어기(241)는 정전용량형, 저항형, 적외형, 표면 탄성파 기술, 근접 센서 어레이 등과 같은 복수의 터치 감지 기술 중 어느 하나의 기술을 사용하여 사용자의 접촉 및 움직임 또는 접촉 및 움직임의 중단을 검출할 수 있다. 다른 예를 들어, I/O 서브시스템(240)은 기타 입력 제어기(들)(242)를 통해 의료진 장치(200)에 포함된 기타 입력/제어 디바이스(244)를 제어할 수 있다. 일 예로서, 기타 입력 제어기(들)(242)은 하나 이상의 버튼, 로커 스위치(rocker switches), 썸 휠(thumb-wheel), 적외선 포트, USB 포트 및 스타일러스 등과 같은 포인터 디바이스를 제어할 수 있다.For example, the touch screen controller 241 uses any one of a plurality of touch sensing technologies such as capacitive, resistive, infrared, surface acoustic wave technology, proximity sensor array, etc. to detect the user's touch and movement or touch. and cessation of movement can be detected. As another example, the I/O subsystem 240 may control other input/control devices 244 included in the medical staff device 200 through other input controller(s) 242. As an example, other input controller(s) 242 may control one or more buttons, rocker switches, thumb-wheels, infrared ports, USB ports, and pointer devices such as a stylus.

지금까지 본 발명의 일 실시예에 따른 의료진 장치(200)에 대하여 설명하였다. 본 발명에 따르면, 의료진은 의료진 장치(200)를 이용하여 영상 촬영 장치(100)에서 촬영된 의료 영상 내 손실 영역에 대한 복원 이미지를 확인할 수 있으며, 이를 통해 개체의 진단, 시술, 또는 수술에 필요한 정보를 획득할 수 있다. So far, the medical staff device 200 according to an embodiment of the present invention has been described. According to the present invention, the medical staff can use the medical staff device 200 to check the restored image of the loss area in the medical image captured by the imaging device 100, which is necessary for diagnosis, treatment, or surgery of the subject. Information can be obtained.

이하에서는, 도 3을 참조하여 의료 영상에서 손실된 혈관의 구조를 결정하는 혈관 구조 결정 장치(300)에 대하여 설명하도록 한다. Hereinafter, the blood vessel structure determination device 300, which determines the structure of a blood vessel lost in a medical image, will be described with reference to FIG. 3 .

도 3은 본 발명의 일 실시예에 따른 혈관 구조 결정 장치의 구성을 나타낸 블록도이다. Figure 3 is a block diagram showing the configuration of a blood vessel structure determination device according to an embodiment of the present invention.

도 3을 참조하면, 혈관 구조 결정 장치(300)는 통신 인터페이스(310), 메모리(320), I/O 인터페이스(330) 및 프로세서(340)를 포함할 수 있으며, 각 구성은 하나 이상의 통신 버스 또는 신호 라인을 통해 서로 통신할 수 있다.Referring to FIG. 3, the vascular structure determination device 300 may include a communication interface 310, a memory 320, an I/O interface 330, and a processor 340, and each component may include one or more communication buses. Alternatively, they can communicate with each other through signal lines.

통신 인터페이스(310)는 유/무선 통신 네트워크를 통해 영상 촬영 장치(100) 및 의료진 장치(200)와 연결되어 데이터를 주고받을 수 있다. 예를 들어, 통신 인터페이스(310)는 영상 촬영 장치(100) 또는 의료진 장치(200)로부터 피검자의 의료 영상을 수신할 수 있다. 다른 예를 들어, 통신 인터페이스(310)는 의료진 장치(200)로 의료 영상에서 손실 영역을 기초로 하는 혈관에 대한 복원 이미지를 송신할 수 있으며, 이를 시각적으로 표시하기 위한 사용자 인터페이스 화면을 제공할 수 있다. The communication interface 310 can be connected to the imaging device 100 and the medical staff device 200 through a wired/wireless communication network to exchange data. For example, the communication interface 310 may receive a medical image of a subject from the imaging device 100 or the medical staff device 200. For another example, the communication interface 310 may transmit a restored image of a blood vessel based on a loss area in a medical image to the medical staff device 200 and may provide a user interface screen for visually displaying the image. there is.

한편, 이러한 데이터의 송수신을 가능하게 하는 통신 인터페이스(310)는 유선 통신 포트(311) 및 무선 회로(312)를 포함하며, 여기서 유선 통신 포트(311)는 하나 이상의 유선 인터페이스, 예를 들어, 이더넷, 범용 직렬 버스(USB), 파이어와이어 등을 포함할 수 있다. 또한, 무선 회로(312)는 RF 신호 또는 광학 신호를 통해 외부 디바이스와 데이터를 송수신할 수 있다. 아울러, 무선 통신은 복수의 통신 표준, 프로토콜 및 기술, 예컨대 GSM, EDGE, CDMA, TDMA, 블루투스, Wi-Fi, VoIP, Wi-MAX, 또는 임의의 기타 적합한 통신 프로토콜 중 적어도 하나를 사용할 수 있다. Meanwhile, the communication interface 310 that enables transmission and reception of such data includes a wired communication port 311 and a wireless circuit 312, where the wired communication port 311 is one or more wired interfaces, for example, Ethernet. , Universal Serial Bus (USB), Firewire, etc. Additionally, the wireless circuit 312 can transmit and receive data with an external device through RF signals or optical signals. Additionally, wireless communications may use at least one of a plurality of communication standards, protocols and technologies, such as GSM, EDGE, CDMA, TDMA, Bluetooth, Wi-Fi, VoIP, Wi-MAX, or any other suitable communication protocol.

메모리(320)는 혈관 구조 결정 장치(300)에서 사용되는 다양한 데이터를 저장할 수 있다. 예를 들어, 메모리(320)는 영상 촬영 장치(100), 의료진 장치(200)의 식별 정보, 실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델, 의료 영상을 입력으로 하여 목적 부위인 혈관을 예측하도록 학습된 혈관 분할 모델의 구성 및 학습 데이터를 저장할 수 있다. The memory 320 may store various data used in the vascular structure determination device 300. For example, the memory 320 inputs the imaging device 100, identification information of the medical staff device 200, a blood vessel prediction model learned to output a restored image by inputting a real image, and a medical image as input to determine the target area. The configuration and learning data of a blood vessel segmentation model learned to predict blood vessels can be saved.

다양한 실시예에서, 메모리(320)는 각종 데이터, 명령 및 정보를 저장할 수 있는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 예를 들어, 메모리(320)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.In various embodiments, memory 320 may include volatile or non-volatile recording media capable of storing various data, instructions, and information. For example, the memory 320 may be a flash memory type, hard disk type, multimedia card micro type, card type memory (e.g. SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage storage. , cloud, or blockchain database may include at least one type of storage medium.

다양한 실시예에서, 메모리(320)는 운영 체제(321), 통신 모듈(322), 사용자 인터페이스 모듈(323) 및 하나 이상의 애플리케이션(324) 중 적어도 하나의 구성을 저장할 수 있다. In various embodiments, memory 320 may store configuration of at least one of operating system 321, communication module 322, user interface module 323, and one or more applications 324.

운영 체제(321)(예. LINUX, UNIX, MAC OS, WINDOWS, VxWorks 등의 내장형 운영 체제)는 일반적인 시스템 작업(예. 메모리 관리, 저장 디바이스 제어, 전력 관리 등)를 제어하고 관리하기 위한 다양한 소프트웨어 컴포넌트 및 드라이버를 포함할 수 있으며, 다양한 하드웨어, 펌웨어, 및 소프트웨어 컴포넌트 간의 통신을 지원할 수 있다.Operating system 321 (e.g., embedded operating system such as LINUX, UNIX, MAC OS, WINDOWS, VxWorks, etc.) is a variety of software to control and manage common system tasks (e.g., memory management, storage device control, power management, etc.) It may contain components and drivers and may support communication between various hardware, firmware, and software components.

통신 모듈(323)은 통신 인터페이스(310)를 통해 다른 디바이스와 통신을 지원할 수 있다. 통신 모듈(320)은 통신 인터페이스(310)의 유선 통신 포트(311) 또는 무선 회로(312)에 의해 수신되는 데이터를 처리하기 위한 다양한 소프트웨어 구성 요소들을 포함할 수 있다.The communication module 323 may support communication with other devices through the communication interface 310. The communication module 320 may include various software components for processing data received by the wired communication port 311 or the wireless circuit 312 of the communication interface 310.

사용자 인터페이스 모듈(323)은 I/O 인터페이스(330)를 통해 키보드, 터치 스크린, 키보드, 마우스, 마이크 등으로부터 사용자의 요청 또는 입력을 수신하고, 디스플레이 상에 사용자 인터페이스를 제공할 수 있다.The user interface module 323 may receive a user's request or input from a keyboard, touch screen, keyboard, mouse, microphone, etc. through the I/O interface 330 and provide a user interface on the display.

애플리케이션(324)은 하나 이상의 프로세서(340)에 의해 실행되도록 구성되는 프로그램 또는 모듈을 포함할 수 있다. 여기서, 혈관 구조 결정을 위한 애플리케이션은 서버 팜(server farm) 상에서 구현될 수 있다.Applications 324 may include programs or modules configured to be executed by one or more processors 340 . Here, an application for determining blood vessel structure may be implemented on a server farm.

I/O 인터페이스(330)는 혈관 구조 결정 장치(300)의 입출력 디바이스(미도시), 예컨대 디스플레이, 키보드, 터치 스크린 및 마이크 중 적어도 하나를 사용자 인터페이스 모듈(323)과 연결할 수 있다. I/O 인터페이스(330)는 사용자 인터페이스 모듈(323)과 함께 사용자 입력(예. 음성 입력, 키보드 입력, 터치 입력 등)을 수신하고, 수신된 입력에 따른 명령을 처리할 수 있다. The I/O interface 330 may connect at least one of input/output devices (not shown) of the vascular structure determination device 300, such as a display, keyboard, touch screen, and microphone, to the user interface module 323. The I/O interface 330 may receive user input (eg, voice input, keyboard input, touch input, etc.) together with the user interface module 323 and process commands according to the received input.

프로세서(340)는 통신 인터페이스(310), 메모리(320) 및 I/O 인터페이스(330)와 연결되어 혈관 구조 결정 장치(300)의 전반적인 동작을 제어할 수 있으며, 메모리(320)에 저장된 애플리케이션 또는 프로그램을 통해 혈관 분할 모델, 혈관 예측 모델을 학습하고, 새로운 의료 영상 입력 시, 의료 영상에서 목적 부위를 분할하기 위한 다양한 명령들을 수행할 수 있다. The processor 340 is connected to the communication interface 310, the memory 320, and the I/O interface 330 to control the overall operation of the vascular structure determination device 300, and the application or Through the program, you can learn a blood vessel segmentation model and a blood vessel prediction model, and when inputting a new medical image, you can execute various commands to segment the target area in the medical image.

프로세서(340)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(340)는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. 또는 프로세서(340)는 NPU(Neural Processing Unit)과 같이 인공 신경망 모델을 계산하기 위한 모듈을 포함할 수 있다.The processor 340 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). Additionally, the processor 340 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) in which various computing devices are integrated. Alternatively, the processor 340 may include a module for calculating an artificial neural network model, such as a Neural Processing Unit (NPU).

이하에서는, 도 4 내지 도 7b를 참조하여, 혈관 구조 결정 장치(300)의 프로세서(340)가 의료 영상에 도시된 혈관 구조를 결정하는 방법에 대하여 설명하도록 한다. Hereinafter, with reference to FIGS. 4 to 7B, a method by which the processor 340 of the vascular structure determination device 300 determines the vascular structure shown in a medical image will be described.

도 4는 본 발명의 일 실시예에 따른 혈관 구조 결정 방법에 대한 개략적인 순서도이다. Figure 4 is a schematic flowchart of a method for determining blood vessel structure according to an embodiment of the present invention.

도 4를 참조하면, 프로세서(340)는 개체의 혈관에 대한 의료 영상을 획득할 수 있다(S110). 구체적으로, 의료 영상은 엑스레이(X-Ray)를 개체를 향하여 조사함으로써, 얻어진 횡단면 의료 영상일 수 있다. 예를 들어, 의료 영상은 관상동맥을 검출하기 위한 심장에 대한 횡단면 의료 영상일 수 있다. 영상 촬영 장치(100)를 통해 촬영된 의료 영상은 조영제를 투여하여 촬영한다 하더라도 다양한 요인에 의해 혈관이 뚜렷하게 표시되지 않거나, 혈관 외에 다른 장비, 물체와 섞여 하나의 객체로 보여질 수 있다. 그에 따라, 프로세서(340)는 혈관의 구조를 효율적으로 예측할 수 있도록 의료 영상에서 혈관만을 분할할 수 있다. Referring to FIG. 4, the processor 340 may acquire a medical image of the blood vessels of an object (S110). Specifically, the medical image may be a cross-sectional medical image obtained by irradiating X-rays toward an object. For example, the medical image may be a cross-sectional medical image of the heart to detect coronary arteries. Even if a medical image captured through the imaging device 100 is captured by administering a contrast agent, blood vessels may not be clearly displayed due to various factors, or may be mixed with other equipment or objects other than blood vessels and may be viewed as a single object. Accordingly, the processor 340 can segment only the blood vessels in the medical image so that the structure of the blood vessel can be efficiently predicted.

S110 단계 이후, 프로세서(340)는 의료 영상에서 혈관의 손실 영역을 검출할 수 있다(S120). 구체적으로, 프로세서(340)는 의료 영상을 입력으로 하여 목적 부위인 혈관을 예측하도록 학습된 혈관 분할 모델에 의료 영상을 입력하여 의료 영상 내 혈관을 분할할 수 있다. 이를 통해, 프로세서(340)는 각종 노이즈가 존재하는 배경과 혈관을 구분할 수 있다. 프로세서(340)는 분할된 혈관에서 적어도 일부 영역이 손실된 손실 영역을 검출할 수 있다. 예를 들어, 프로세서(340)는 혈관 중 일부가 연결된 영역 또는 전부가 분리된 영역을 검출할 수 있다. After step S110, the processor 340 may detect a blood vessel loss area in the medical image (S120). Specifically, the processor 340 may segment blood vessels in the medical image by inputting the medical image into a blood vessel segmentation model that has been learned to predict blood vessels that are target areas using the medical image as input. Through this, the processor 340 can distinguish blood vessels from backgrounds containing various types of noise. The processor 340 may detect a loss area in which at least a portion of the area is lost in the divided blood vessel. For example, the processor 340 may detect an area where some of the blood vessels are connected or an area where all of the blood vessels are separated.

S120 단계 이후, 프로세서(340)는 손실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델에 검출된 손실 영역을 입력하여 혈관에 대한 복원 이미지를 생성할 수 있으며(S130), 생성된 복원 이미지를 기초로 손실 영역에 대한 혈관 형태를 결정할 수 있다(S140). 구체적으로, 혈관 예측 모델은 입력 데이터의 특징을 스스로 학습하여 새로운 데이터를 생성해내는 GAN(generative adversarial networks) 구조 기반의 모델일 수 있으며, 혈관에 대한 손실 이미지를 입력으로 하여 복원 이미지를 생성하도록 구성된 생성기(generator)에 대응될 수 있다.After step S120, the processor 340 may generate a restored image for a blood vessel by inputting the detected loss area into a blood vessel prediction model learned to output a restored image by inputting the lost image (S130), and the generated restored image. Based on this, the blood vessel shape for the loss area can be determined (S140). Specifically, the blood vessel prediction model may be a model based on the GAN (generative adversarial networks) structure that generates new data by learning the characteristics of the input data on its own, and is configured to generate a restored image by taking the loss image of the blood vessel as input. It may correspond to a generator.

본 명세서에서 복원 이미지를 생성하기 위한 혈관 예측 모델은 다음과 같이 학습될 수 있으며, 혈관 예측 모델을 통해 미세한 혈관 구조를 예측할 수 있는 새로운 구조를 가질 수 있다. In this specification, the blood vessel prediction model for generating a restored image can be learned as follows, and can have a new structure that can predict fine blood vessel structures through the blood vessel prediction model.

도 5a 및 도 5b는 본 발명의 일 실시예에 따른 혈관 예측 모델 학습 방법을 설명하기 위한 개략도이다.5A and 5B are schematic diagrams for explaining a method for learning a blood vessel prediction model according to an embodiment of the present invention.

도 5a를 참조하면, 프로세서(340)는 손실된 영역이 없이 온전한 관상동맥(Cvessel)에 대한 의료 영상(501)에서 학습에 사용될 관상동맥에 대한 이미지 데이터(Ground Truth, GT)(502)만을 추출할 수 있다. 프로세서(340)는 관상동맥에 대한 이미지 데이터(GT)에서 학습시킬 영역을 무작위로 추출할 수 있으며(Random Sampling), 해당 영역을 표시한 이미지 데이터(503)를 생성할 수 있다. 프로세서(340)는 학습에 필요한 영역만을 확대하여 학습 데이터(504)를 생성하고, 최종적으로 혈관 예측 모델에 입력할, 온전한 관상 동맥(Cvessel)을 포함하는 X-Ray 패치(Xi patch)(510), 즉 관심 영역을 결정할 수 있다. 다만, 여기서 프로세서(340)는 관상동맥의 근거리 영역(Local)과 원거리 영역(Global) 모두를 한 번에 학습할 수 있도록 충분하게 큰 사이즈로 관심 영역을 결정할 수 있다. Referring to FIG. 5A, the processor 340 selects only the image data (ground truth, GT) 502 for the coronary artery to be used for learning in the medical image 501 for the intact coronary artery (C vessel ) without any lost areas. It can be extracted. The processor 340 can randomly extract an area to be learned from image data (GT) for the coronary artery (Random Sampling) and generate image data 503 indicating the area. The processor 340 generates learning data 504 by enlarging only the area required for learning, and finally creates an X- ray patch ( 510), that is, the area of interest can be determined. However, here, the processor 340 may determine the region of interest with a sufficiently large size so that both the local and global regions of the coronary artery can be learned at once.

도 5b를 참조하면, 프로세서(340)는 X-Ray 패치(Xi patch)(510)에서 학습시킬 영역에 마스크(Mask, M)(511)를 적용하여 마스킹된 이미지 데이터(Xi blocked)(512)를 생성할 수 있다. 프로세서(340)는 마스킹된 이미지 데이터(512)를 혈관 예측 모델의 생성기(Generator)에 입력하여, 손상 영역을 복원시킨 이미지 데이터(~Xi blocked)(520)를 획득할 수 있다. 프로세서(340)는 혈관 예측 모델의 검증기(Discriminator)를 통해 복원시킨 이미지 데이터(~Xi blocked)(520)의 진위를 검증할 수 있다. 프로세서(340)는 검증기를 통해 검증된 이미지 데이터(520)를 기초로 복원된 의료 영상(501')을 생성할 수 있다. Referring to FIG. 5B, the processor 340 applies a mask (M) 511 to the area to be learned in the X-Ray patch (X i patch ) 510 to generate masked image data (X i blocked ) ( 512) can be created. The processor 340 may input the masked image data 512 to a generator of a blood vessel prediction model to obtain image data (˜X i blocked ) 520 in which the damaged area is restored. The processor 340 can verify the authenticity of the restored image data (˜X i blocked ) 520 through a discriminator of the blood vessel prediction model. The processor 340 may generate a restored medical image 501' based on image data 520 verified through a verifier.

한편, 이 과정에서, 얇은 혈관에 대해서도 보다 정확한 복원 결과를 얻기 위해, 프로세서(340)는 X-Ray 패치(Xi patch)(510)에 대응되는 확률 맵(5101)과 복원시킨 이미지 데이터(~Xi blocked)(520)에 대응되는 확률 맵(5201) 간의 차이가 최소화되도록 손실 함수(Loss function)를 이용하여 생성기(G) 및 검증기(D)의 가중치를 조정할 수 있다. Meanwhile, in this process, in order to obtain more accurate restoration results even for thin blood vessels, the processor 340 creates a probability map 5101 corresponding to the X-Ray patch 510 and the restored image data (~ The weights of the generator (G) and the verifier (D) can be adjusted using a loss function so that the difference between the probability maps 5201 corresponding to the X i blocked ) 520 is minimized.

다양한 실시예에서, 프로세서(340)는 복수의 손실 함수를 이용하여 생성기(G) 및 검증기(D)의 가중치를 조정할 수 있다. 구체적으로, 프로세서(340)는 Hinge Loss, contextual loss, SSIM loss, Perceptual loss및 Hessian-based loss 중 적어도 하나의 손실 함수를 이용하여 가중치를 조정할 수 있다. 일 예로, Hinge Loss를 이용하는 경우, 아래 [수학식 1], [수학식 2]를 통해 가중치가 조정될 수 있다. 프로세서(340)는 Hinge Loss를 이용함으로써, 혈관과 배경 사이의 경계를 명확하게 할 수 있는 가중치를 결정할 수 있다. In various embodiments, the processor 340 may adjust the weights of the generator (G) and the verifier (D) using a plurality of loss functions. Specifically, the processor 340 may adjust the weights using at least one loss function among Hinge Loss, contextual loss, SSIM loss, Perceptual loss, and Hessian-based loss. For example, when using Hinge Loss, the weight can be adjusted through [Equation 1] and [Equation 2] below. By using Hinge Loss, the processor 340 can determine a weight that can clarify the boundary between blood vessels and the background.

다른 예로, contextual loss를 이용하는 경우, 아래 [수학식 3]을 통해 가중치가 조정될 수 있다. 프로세서(340)는 contextual loss를 이용함으로써, 흐릿하지 않고, 복원 이미지에 대한 선명도를 높일 수 있는 가중치를 결정할 수 있다. As another example, when using contextual loss, the weights can be adjusted through [Equation 3] below. By using contextual loss, the processor 340 can determine a weight that prevents blurring and increases the clarity of the restored image.

또 다른 예로, SSIM loss를 이용하는 경우, 아래 [수학식 4]을 통해 가중치가 조정될 수 있다. 프로세서(340)는 SSIM loss를 이용함으로써, 복원 이미지에 대한 휘도와 대비를 높일 수 있는 가중치를 결정할 수 있다.As another example, when using SSIM loss, the weights can be adjusted through [Equation 4] below. The processor 340 can determine a weight that can increase the luminance and contrast of the restored image by using SSIM loss.

또 다른 예로, Perceptual loss를 이용하는 경우, 아래 [수학식 5]을 통해 가중치가 조정될 수 있다. 여기서, φi vgg(·)는 VGGNet 기반의 혈관 예측 모델에서 relu5_1 layer of VGG19의 i 번째 레이어에 대한 피처맵을 나타내고, Ci , Hi and Wi는 각각 채널, 높이 및 너비를 나타낸다. 프로세서(340)는 Perceptual loss를 이용함으로써, 손상 영역과 복원 이미지 간의 유사성을 높일 수 있는 가중치를 결정할 수 있다.As another example, when using perceptual loss, the weights can be adjusted through [Equation 5] below. Here, ϕ i vgg (·) represents the feature map for the ith layer of the relu5_1 layer of VGG19 in the VGGNet-based blood vessel prediction model, and C i , H i and W i represent the channel, height and width, respectively. The processor 340 can determine a weight that can increase the similarity between the damaged area and the restored image by using perceptual loss.

이와 같이, 프로세서(340)는 손실 함수를 이용하여 혈관 예측 모델의 생성기와 검증기를 학습할 수 있으며, 특히, 본 발명에서는 Hessian matrix 특성에 기반한 Vesselness-loss를 이용하여 얇고 긴 혈관 특성에 최적화된 학습 과정을 선행할 수 있다. 구체적으로, Hessian-based loss 를 이용하는 경우, 아래 [수학식 6] 을 통해 의료 영상의 픽셀 별로 혈관에 대응될 확률을 나타내는 값 p = (x, y)을 먼저 구한 뒤, [수학식 7]을 통해 가중치가 조정될 수 있다. 여기서, Vesselness probability(V(·))는 특정 픽셀이 혈관에 대응되는 확률을 나타내며, Hessian 행렬을 통해 구할 수 있는 두 고유 벡터(Eigenvevtor)의 크기와 고유 값(λ1)(λ2) 사이의 비율(R)을 통해 구할 수 있다. 또한, Rb 2 = |λσ)| / |λσ)| and S = root(λ1 2 + λ2 2)로 정의될 수 있다. 프로세서(340)는 Hessian-based loss 를 이용함으로써, 배경 영역으로부터 혈관 영역을 분할할 수 있는 가중치를 결정할 수 있다.In this way, the processor 340 can learn the generator and verifier of the blood vessel prediction model using a loss function. In particular, in the present invention, learning optimized for thin and long blood vessel characteristics using Vesselness-loss based on Hessian matrix characteristics. The process can be preceded. Specifically, when using Hessian-based loss, first obtain the value p = (x, y), which represents the probability that each pixel of the medical image corresponds to a blood vessel, using [Equation 6] below, and then use [Equation 7] Weights can be adjusted through Here, Vesselness probability (V(·)) represents the probability that a specific pixel corresponds to a vessel, and is the ratio between the sizes of the two eigenvectors (Eigenvevtor) and the eigenvalues (λ1) (λ2), which can be obtained through the Hessian matrix ( It can be obtained through R). Also, R b 2 = |λσ)| / |λσ)| and S = root(λ 1 2 + λ 2 2 ). The processor 340 can determine a weight for dividing the blood vessel area from the background area by using Hessian-based loss.

다양한 실시예에서, 프로세서(340)는 상기의 손실 함수를 하나 또는 둘 이상 적용하여 혈관 예측 모델의 생성기와 검증기의 가중치를 조정할 수 있다. 예를 들어, 프로세서(340)는 아래 [수학식 8] 및 [수학식 9]와 같이 가중 상수를 이용하여 손실 함수를 적용할 수 있다.In various embodiments, the processor 340 may adjust the weights of the generator and verifier of the blood vessel prediction model by applying one or more of the above loss functions. For example, the processor 340 may apply a loss function using a weighting constant as shown in [Equation 8] and [Equation 9] below.

도 6은 본 발명의 일 실시예에 따른 혈관 예측 모델에 포함된 생성기의 구조를 설명하기 위한 개략도이다. Figure 6 is a schematic diagram illustrating the structure of a generator included in a blood vessel prediction model according to an embodiment of the present invention.

도 6을 참조하면, 혈관 예측 모델의 생성기는 MAB(Multi-scale aggregation block) 구조를 가지며, 혈관의 손실 영역에 대한 복원 이미지를 정확하게 생성하기 위해 손실 영역 주변의 근거리 영역과 원거리 영역을 모두 고려하는 두 갈래의 구조를 가질 수 있다. 두 갈래에서 혈관 예측 모델의 생성기는 마스킹된 이미지 데이터(Xi blocked)(512)를 병렬 배치된 상이한 사이즈의 커널들을 이용하여 컨볼루션 연산을 수행할 수 있다. 구체적으로, 혈관 예측 모델의 생성기는, 손실 영역(마스킹된 이미지 데이터(Xi blocked)(512))과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대한 컨볼루션 연산을 수행하여 근거리 컨텍스트 데이터에 대응되는 제1 특징맵을 생성하도록 구성된 제1 분할 레이어들(601)(603)과 손실 영역(마스킹된 이미지 데이터(Xi blocked))과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대한 컨볼루션 연산을 수행하여 원거리 컨텍스트 데이터에 대응되는 제2 특징맵을 생성하도록 구성된 제2 분할 레이어들(605)(607)을 포함할 수 있다. 제1 및 제2 분할 레이어들은 병렬 배치되며, 제1 분할 레이어들을 통해서는 혈관과 혈관 외의 배경을 구분하기 위한 제1 특징맵, 제2 분할 레이어들을 통해서는 미세한 혈관을 구분하기 위한 제2 특징맵을 획득할 수 있다. 생성기는, 제1 특징맵 및 제2 특징맵들 각각을 하나로 연결하여 근거리 특징맵 및 원거리 특징맵을 추출하도록 구성된 연결(Concatenate) 레이어들(611)(613)을 포함할 수 있으며, 각각의 특징맵을 통합하기 위한 추가 연결 레이어(621)를 포함할 수 있다. 아울러, 생성기는 근거리 특징맵 및 원거리 특징맵을 통합한 결과 데이터의 크기를 유지하기 위해 패딩(예. reflect padding)을 수행하고, 복원 이미지의 정밀도를 향상시키 위해 잔차 값(Residual Value)을 적용할 수 있는 두 개의 합성곱 연산 레이어(631)(633)를 더 포함할 수 있다. 프로세서(340)는 이러한 새로운 MAB 구조를 통해 손실 영역에 대한 복원 이미지를 생성할 수 있다. Referring to FIG. 6, the generator of the blood vessel prediction model has a multi-scale aggregation block (MAB) structure and considers both the near and far areas around the loss area to accurately generate a restored image for the blood vessel loss area. It can have a two-pronged structure. In the two branches, the generator of the blood vessel prediction model may perform a convolution operation on the masked image data (X i blocked ) 512 using kernels of different sizes arranged in parallel. Specifically, the generator of the blood vessel prediction model performs a convolution operation on each of the loss area (masked image data (X i blocked ) 512) and at least two kernels of different sizes to generate near-field context data Perform a convolution operation on each of the first division layers 601 and 603 configured to generate the first feature map, the loss area (masked image data (X i blocked )), and at least two kernels of different sizes. It may include second segmentation layers 605 and 607 configured to generate a second feature map corresponding to the remote context data. The first and second division layers are arranged in parallel, a first feature map for distinguishing blood vessels from backgrounds other than blood vessels through the first division layers, and a second feature map for distinguishing fine blood vessels through the second division layers. can be obtained. The generator may include concatenate layers 611 and 613 configured to extract a near feature map and a far feature map by connecting each of the first feature maps and the second feature maps into one, and each feature An additional connection layer 621 may be included to integrate the map. In addition, the generator performs padding (e.g. reflect padding) to maintain the size of the data resulting from integrating the near and far feature maps, and applies residual values to improve the precision of the restored image. It may further include two convolution operation layers 631 and 633. The processor 340 can generate a restored image for the loss area through this new MAB structure.

프로세서(340)는 상기와 같이 학습된 혈관 예측 모델을 이용하여 손상 영역에 대한 복원 이미지를 결정할 수 있다. The processor 340 may determine a restored image for the damaged area using the blood vessel prediction model learned as described above.

도 7a 및 도 7b는 본 발명의 일 실시예에 따른 혈관 예측 모델의 예측 방법을 설명하기 위한 개략도이다. 7A and 7B are schematic diagrams for explaining a prediction method of a blood vessel prediction model according to an embodiment of the present invention.

도 7a를 참조하면, 프로세서(340)는 손상 영역을 포함한 관상동맥 (Cbroken∪Cvessel) 에 대한 의료 영상(701)에서 손상된 영역을 추출할 수 있다. 다시 말해서, 프로세서(340)는 S120 단계에서 언급한 혈관 분할 모델을 이용하여 손상 영역을 표시한 이미지 데이터(702)를 생성할 수 있다. 예를 들어, 혈관 분할 모델은 의료 영상의 픽셀들에서 혈관이 존재할 것으로 예상되는 영역을 검출하고, 혈관의 끝 단 검출을 통해 손실 영역을 결정할 수 있다. 프로세서(340)는 혈관 예측 모델에 입력할 영역만을 확대하여 입력 데이터(703)를 생성하고, 최종적으로 혈관 예측 모델에 입력할 X-Ray 패치(Xi patch)(710), 즉 관심 영역을 결정할 수 있다. 여기서도, 프로세서(340)는 관상동맥의 근거리 영역(Local)과 원거리 영역(Global) 모두를 복원 이미지 결정에 이용할 수 있도록 충분하게 큰 사이즈로 관심 영역을 결정할 수 있다. Referring to FIG. 7A , the processor 340 may extract a damaged area from a medical image 701 of a coronary artery (C broken ∪C vessel ) including the damaged area. In other words, the processor 340 may generate image data 702 indicating the damaged area using the blood vessel segmentation model mentioned in step S120. For example, a blood vessel segmentation model can detect an area where a blood vessel is expected to exist in pixels of a medical image and determine the loss area by detecting the end of the blood vessel. The processor 340 generates input data 703 by enlarging only the area to be input to the blood vessel prediction model, and finally determines an You can. Here, too, the processor 340 can determine the region of interest with a sufficiently large size so that both the local and global regions of the coronary artery can be used to determine the restored image.

도 7b를 참조하면, 프로세서(340) 는 X-Ray 패치(Xi patch)(710)에서 복원시킬 영역에 마스크(Mask, M)(711)를 적용하여 마스킹된 이미지 데이터(Xi blocked)(712)를 생성할 수 있다. 프로세서(340)는 마스킹된 이미지 데이터(512)를 혈관 예측 모델의 생성기(G)에 입력하여, 손상 영역을 복원시킨 이미지 데이터(~Xi blocked)(720)를 획득할 수 있다. 이와 같이, 혈관 예측 모델을 통해 얻어진 이미지 데이터(~Xi blocked)(720)의 확률 맵(7201)과 X-Ray 패치(Xi patch)(710)에 대응되는 확률 맵(7101)은 차이 값이 없이 동일할 수 있으며, 프로세서(340)는 최종적으로 해당 의료 영상(701)에 가장 적합한 복원 이미지(701')를 생성할 수 있다. Referring to FIG. 7B, the processor 340 applies a mask (M) 711 to the area to be restored in the X-Ray patch (X i patch ) 710 to generate masked image data ( 712) can be generated. The processor 340 may input the masked image data 512 to the generator (G) of the blood vessel prediction model to obtain image data (˜X i blocked ) 720 in which the damaged area is restored. In this way, the probability map 7201 of the image data (~X i blocked ) 720 obtained through the blood vessel prediction model and the probability map 7101 corresponding to the Without this, they may be identical, and the processor 340 may ultimately generate a restored image 701' most suitable for the corresponding medical image 701.

지금까지 본 발명의 일 실시예에 따른 혈관 구조 결정 장치(300)의 프로세서(340)에 의해 수행되는 의료 영상 분할 방법에 대하여 설명하였다. 본 발명에 따르면, 혈관 구조 결정 장치(300)는 GAN 기반의 혈관 예측 모델을 이용함으로써, 학습 데이터에 의존하지 않고, 다양한 혈관 구조에 대응되는 복원 이미지를 생성할 수 있다. So far, a medical image segmentation method performed by the processor 340 of the vascular structure determination device 300 according to an embodiment of the present invention has been described. According to the present invention, the vascular structure determination device 300 can generate reconstructed images corresponding to various vascular structures without relying on learning data by using a GAN-based blood vessel prediction model.

이하에서는, 도 8a 및 도 8b를 참조하여, 본 발명의 일 실시예에 따른 혈관 구조 결정 방법을 적용한 일련의 의료 영상을 설명한다. Below, with reference to FIGS. 8A and 8B, a series of medical images to which the method for determining blood vessel structure according to an embodiment of the present invention is applied will be described.

도 8a은 본 발명의 일 실시예에 따른 혈관 구조 결정 방법을 의료 영상을 기준으로 설명하기 위한 개략도이다. Figure 8a is a schematic diagram for explaining a method for determining blood vessel structure according to an embodiment of the present invention based on medical images.

도 8a를 참조하면, 본 발명의 혈관 구조 결정 방법은 (a) 끊어진 관상 동맥을 포함하는 X-Ray 이미지(Cbroken ∪Cvessel)에서 (b) 끝 단에 대응되는 tip이 빨간점으로 표시되어 이를 기준으로 관심 영역을 검출할 수 있다. 또한, (c) 관심 영역에 대한 X-Ray 패치를 결정하고, (d) 복원 이미지가 필요한 영역이 지정되면, (e) 혈관 예측 모델을 통해 복원 이미지를 생성하고, (f) 이를 최종적으로 재구성하여 복원된 혈관에 대한 이미지를 결정할 수 있다. Referring to FIG. 8A, the method for determining the vascular structure of the present invention is that in ( a) an Based on this, the area of interest can be detected. In addition, (c) determine the Thus, the image of the restored blood vessel can be determined.

도 8b는 본 발명의 일 실시예에 따른 혈관 구조 결정 방법에서 손실 함수를 적용에 따른 성능 향상을 설명하기 위한 개략도이다. Figure 8b is a schematic diagram illustrating performance improvement by applying a loss function in the method for determining blood vessel structure according to an embodiment of the present invention.

도 8b를 참조하면, 학습 영역이 결정된 의료 영상(a)과 해당 영역이 완전히 삭제된 의료 영상(b)가 존재할 때, (c)는 생성기와 검증기의 가중치를 보정하지 않은 혈관 예측 방법을 통해 생성된 복원 이미지를 나타낸다. 또한, (d)는 SSIM loss를 적용하여 생성기와 검증기의 가중치를 보정했을 때 혈관 예측 방법을 통해 생성된 복원 이미지를 나타내고, (e)는 Hessian-based loss를 적용하여 생성기와 검증기의 가중치를 보정했을 때 혈관 예측 방법을 통해 생성된 복원 이미지를 나타내고, (f)는 두 가지 손실 함수 모두로 생성기와 검증기의 가중치를 보정했을 때 혈관 예측 방법을 통해 생성된 복원 이미지를 나타낸다. 구체적으로, SSIM loss를 적용한 (d)는 가중치의 보정이 존재하지 않는 (c)에 비하여 휘도가 조절되고 노이즈가 감소하여 시각적으로 개선된 결과를 얻음을 확인할 수 있으며, Hessian-based loss를 적용한 (e)는 선명도(sharpness)가 개선되어 혈관의 가장자리가 깨짐없이 선명함을 확인할 수 있다. 그에 따라, SSIM loss와 Hessian-based loss를 동시에 적용한 (f)는 보다 선명하고 정확한 혈관 구조를 결정해냄을 확인할 수 있다. Referring to Figure 8b, when there is a medical image (a) with a determined learning area and a medical image (b) with the corresponding area completely deleted, (c) is generated through a blood vessel prediction method without correcting the weights of the generator and verifier. Indicates the restored image. In addition, (d) shows the restored image generated through the blood vessel prediction method when the weights of the generator and verifier were corrected by applying SSIM loss, and (e) shows the restored image generated by applying Hessian-based loss to correct the weights of the generator and verifier. represents the restored image generated through the blood vessel prediction method, and (f) represents the restored image created through the blood vessel prediction method when the weights of the generator and verifier are corrected with both loss functions. Specifically, it can be seen that in (d), where SSIM loss is applied, the luminance is adjusted and noise is reduced, resulting in visually improved results compared to (c), where no weight correction exists, and where Hessian-based loss is applied ( In e), the sharpness has been improved, so you can see that the edges of the blood vessels are clear without breaking. Accordingly, it can be confirmed that (f), which simultaneously applies SSIM loss and Hessian-based loss, determines a clearer and more accurate vascular structure.

이하에서는, 도 9a 및 도 9b를 참조하여, 본 발명의 일 실시예에 따른 혈관 구조 결정 장치(300)의 평가 결과를 설명한다. Hereinafter, the evaluation results of the vascular structure determination device 300 according to an embodiment of the present invention will be described with reference to FIGS. 9A and 9B.

도 9a 및 도 9b는 본 발명의 일 실시예에 따른 혈관 구조 결정 방법의 평가 결과를 설명하기 위한 개략도이다. 9A and 9B are schematic diagrams for explaining evaluation results of a method for determining blood vessel structure according to an embodiment of the present invention.

도 9a를 참조하면, 손상 영역이 존재하지 않는 혈관 영역에 대한 의료 영상(a)과 손상 정도를 단계별로 조정한 의료 영상(b)에 대해서, (c) 내지 (f)는 각각 종래 방법들을 사용한 복원 이미지를 나타내고, (g)는 본 발명의 혈관 구조 결정 방법을 이용하여 결정한 복원 이미지를 나타낸다. 구체적으로, 손상 영역 내 굵은 혈관 또는 구조가 복잡하지 않은 의료 영상에 대해서는 일부 종래 방법들이 혈관의 구조를 올바르게 결정한 것으로 보여지나, 미세 혈관에 대해서는 본래의 의료 영상과 동일한 복원 이미지를 도출해내지 못함을 확인할 수 있다. 뿐만 아니라, 손상 영역에 대한 이미지가 주어지지 않는 경우, 본 발명과 달리 종래 방법들은 올바른 복원 이미지를 도출해내지 못함을 확인할 수 있다.Referring to FIG. 9A, for a medical image (a) of a blood vessel area in which no damage area exists and a medical image (b) in which the degree of damage is adjusted step by step, (c) to (f) are images using conventional methods, respectively. shows a restored image, and (g) shows a restored image determined using the vascular structure determination method of the present invention. Specifically, it was confirmed that some conventional methods appear to correctly determine the structure of blood vessels for medical images with large blood vessels or structures in the damaged area that are not complex, but do not produce the same restored image as the original medical image for small blood vessels. You can. In addition, it can be confirmed that, unlike the present invention, conventional methods do not produce the correct restored image when an image of the damaged area is not given.

도 9b를 참조하면, 손상 영역이 존재하지 않는 혈관 영역에 대한 의료 영상(a)과 혈관의 일부 영역이 완전히 삭제된 의료 영상(b)에 대해서, (c) 내지 (f)는 각각 종래 방법들을 사용한 복원 이미지를 나타내고, (g)는 본 발명의 혈관 구조 결정 방법을 이용하여 결정한 복원 이미지를 나타낸다. 구체적으로, 본래의 의료 영상과 동일한 복원 이미지를 도출해낸 본 발명과 다르게, 종래 방법들은 굵은 혈관에 대해서도 올바른 복원 이미지를 도출해내지 못함을 확인할 수 있다. Referring to FIG. 9B, for a medical image (a) of a blood vessel area in which no damaged area exists and a medical image (b) in which a part of the blood vessel area is completely deleted, (c) to (f) show conventional methods, respectively. Shows the restored image used, and (g) shows the restored image determined using the vascular structure determination method of the present invention. Specifically, it can be seen that, unlike the present invention, which produces a restored image identical to the original medical image, conventional methods do not produce a correct restored image even for thick blood vessels.

이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be modified and implemented in various ways without departing from the technical spirit of the present invention. there is. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

1000: 혈관 구조 결정 시스템
100: 영상 촬영 장치
200: 의료진 디바이스
210: 메모리 인터페이스 220: 프로세서
230: 주변 인터페이스 240: I/O 서브 시스템
241: 터치 스크린 제어기 242: 기타 입력 제어기
243: 터치 스크린
244: 기타 입력 제어 디바이스
250: 메모리 251: 운영 체제
252: 통신 모듈 253: GUI 모듈
254: 센서 처리 모듈 255: 전화 모듈
256: 애플리케이션들
256-1, 256-2: 애플리케이션
257: 디지털 어시스턴트 클라이언트 모듈
258: 사용자 데이터
260: 모션 센서 261: 조명 센서
262: 근접 센서 263: 기타 센서
270: 카메라 서브 시스템 271: 광학 센서
280: 통신 서브 시스템
290: 오디오 서브 시스템
291: 스피커 292: 마이크
300: 혈관 구조 결정 장치
310: 통신 인터페이스
311: 유선 통신 포트 312: 무선 회로
320: 메모리
321: 운영 체제 322: 통신 모듈
323: 사용자 인터페이스 모듈 324: 애플리케이션
330: I/O 인터페이스 340: 프로세서
1000: Vascular structure determination system
100: video recording device
200: Medical staff device
210: memory interface 220: processor
230: peripheral interface 240: I/O subsystem
241: Touch screen controller 242: Other input controller
243: touch screen
244: Other input control devices
250: Memory 251: Operating System
252: Communication module 253: GUI module
254: sensor processing module 255: phone module
256: Applications
256-1, 256-2: Application
257: Digital assistant client module
258: User data
260: motion sensor 261: light sensor
262: Proximity sensor 263: Other sensors
270: Camera subsystem 271: Optical sensor
280: Communication subsystem
290: Audio subsystem
291: Speaker 292: Microphone
300: Vascular structure determination device
310: communication interface
311: wired communication port 312: wireless circuit
320: memory
321: operating system 322: communication module
323: user interface module 324: application
330: I/O interface 340: Processor

Claims (16)

프로세서에 의해 수행되는 혈관 구조 결정 방법으로서,
개체의 혈관에 대한 의료 영상을 획득하는 단계;
상기 의료 영상에서 상기 혈관의 손실 영역을 검출하는 단계;
손실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델에 검출된 손실 영역을 입력하여 혈관에 대한 복원 이미지를 생성하는 단계;
생성된 복원 이미지를 기초로 상기 손실 영역에 대한 혈관 형태를 결정하는 단계; 를 포함하는 혈관 구조 결정 방법.
1. A method of determining blood vessel structure performed by a processor, comprising:
Obtaining a medical image of a blood vessel of an object;
detecting a loss area of the blood vessel in the medical image;
Generating a restored image for a blood vessel by inputting the detected loss area into a blood vessel prediction model learned to output a restored image by inputting the lost image;
determining a blood vessel shape for the loss area based on the generated restored image; A method for determining vascular structure comprising a.
제1항에 있어서,
상기 혈관 예측 모델은,
GAN(generative adversarial networks) 구조를 기초로 학습되며,
혈관에 대한 손실 이미지를 입력으로 하여 복원 이미지를 생성하도록 구성된 생성기 (generator) 에 대응되는, 혈관 구조 결정 방법.
According to paragraph 1,
The blood vessel prediction model is,
It is learned based on the GAN (generative adversarial networks) structure,
A method for determining blood vessel structure, corresponding to a generator configured to generate a restored image by taking a loss image of the blood vessel as an input.
제2항에 있어서,
상기 혈관 예측 모델은,
상기 생성기 및 상기 생성기에서 생성된 복원 이미지를 검증하는 검증기(discriminator)가 상호 경쟁하여 상기 복원 이미지의 정확도를 향상시키기 위한 가중치를 업데이트하도록 구성되는, 혈관 구조 결정 방법.
According to paragraph 2,
The blood vessel prediction model is,
A method for determining blood vessel structure, wherein the generator and a discriminator that verifies the reconstructed image generated by the generator compete with each other to update weights to improve the accuracy of the reconstructed image.
제3항에 있어서,
상기 의료 영상을 획득하는 단계 이전에,
Hessian matrix 특성에 기반한 손실 함수를 이용하여 상기 혈관 예측 모델의 상기 생성기 또는 상기 검증기를 학습하는 단계, 를 더 포함하는, 혈관 구조 결정 방법.
According to paragraph 3,
Before acquiring the medical image,
Method for determining blood vessel structure, further comprising: learning the generator or the verifier of the blood vessel prediction model using a loss function based on Hessian matrix characteristics.
제2항에 있어서,
상기 생성기는,
상기 손실 영역과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대해 컨볼루션 연산을 수행하여 근거리 컨텍스트 데이터에 대응되는 제1 특징맵들을 생성하도록 구성된 제1 분할 레이어들; 및
상기 손실 영역과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대해 컨볼루션 연산을 수행하여 원거리 컨텍스트 데이터에 대응되는 제2 특징맵들을 추출하도록 구성된 제2 분할 레이어들; 를 포함하며,
상기 제1 및 제2 분할 레이어들은 병렬 배치되는, 혈관 구조 결정 방법.
According to paragraph 2,
The generator is,
first division layers configured to generate first feature maps corresponding to short-range context data by performing a convolution operation on the loss region and each of at least two different-sized kernels; and
second segmentation layers configured to extract second feature maps corresponding to distant context data by performing a convolution operation on the loss region and each of at least two different-sized kernels; Includes,
The first and second split layers are arranged in parallel.
제5항에 있어서,
상기 생성기는,
상기 제1 특징맵들 및 상기 제2 특징맵들 각각을 하나로 연결하여 근거리 특징맵 및 원거리 특징맵을 추출하도록 구성된 연결(concatenate) 레이어들; 을 포함하는, 혈관 구조 결정 방법.
According to clause 5,
The generator is,
Concatenate layers configured to extract a near feature map and a far feature map by connecting each of the first feature maps and the second feature maps into one; Including, a method for determining blood vessel structure.
제6항에 있어서,
상기 생성기는,
상기 근거리 특징맵 및 원거리 특징맵에 잔차 값(residual value)을 적용하여 상기 손실 영역에 대한 상기 복원 이미지를 생성하도록 구성되는, 혈관 구조 결정 방법.
According to clause 6,
The generator is,
Configured to generate the restored image for the loss area by applying a residual value to the near feature map and the far feature map.
제1항에 있어서,
상기 손실 영역을 검출하는 단계는,
의료 영상을 입력으로 하여 목적 부위인 혈관을 예측하도록 학습된 혈관 분할 모델에 상기 의료 영상을 입력하여 상기 의료 영상 내 혈관을 분할하는 단계; 및
분할된 혈관에서 적어도 일부 영역이 손실된 손실 영역을 검출하는 단계; 를 더 포함하는, 혈관 구조 결정 방법.
According to paragraph 1,
The step of detecting the loss area is,
Segmenting blood vessels in the medical image by inputting the medical image into a blood vessel segmentation model learned to predict blood vessels of a target region using the medical image as input; and
Detecting a loss area in which at least some area is lost in the divided blood vessel; A method for determining blood vessel structure, further comprising:
통신 인터페이스;
메모리; 및
상기 통신 인터페이스 및 상기 메모리와 동작 가능하게 연결된 프로세서; 를 포함하고,
상기 프로세서는,
개체의 혈관에 대한 의료 영상을 획득하고, 상기 의료 영상에서 상기 혈관의 손실 영역을 검출하고, 손실 이미지를 입력하여 복원 이미지를 출력하도록 학습된 혈관 예측 모델에 검출된 손실 영역을 입력하여 혈관에 대한 복원 이미지를 생성하고, 생성된 복원 이미지를 기초로 상기 손실 영역에 대한 혈관 형태를 결정하도록 구성되는, 혈관 구조 결정 장치.
communication interface;
Memory; and
a processor operably connected to the communication interface and the memory; Including,
The processor,
Obtain a medical image of a blood vessel of an object, detect a loss area of the blood vessel in the medical image, input the loss image, and input the detected loss area into a trained blood vessel prediction model to output a restored image. An apparatus for determining blood vessel structure, configured to generate a restored image and determine a blood vessel shape for the loss area based on the generated restored image.
제9항에 있어서,
상기 혈관 예측 모델은,
GAN(generative adversarial networks) 구조를 기초로 학습되며,
혈관에 대한 손실 이미지를 입력으로 하여 복원 이미지를 생성하도록 구성된 생성기 (generator) 에 대응되는, 혈관 구조 결정 장치.
According to clause 9,
The blood vessel prediction model is,
It is learned based on the GAN (generative adversarial networks) structure,
A blood vessel structure determination device corresponding to a generator configured to generate a restored image by taking a loss image of the blood vessel as an input.
제10항에 있어서,
상기 혈관 예측 모델은,
상기 생성기 및 상기 생성기에서 생성된 복원 이미지를 검증하는 검증기(discriminator)가 상호 경쟁하여 상기 복원 이미지의 정확도를 향상시키기 위한 가중치를 업데이트하도록 구성되는, 혈관 구조 결정 장치.
According to clause 10,
The blood vessel prediction model is,
An apparatus for determining blood vessel structure, wherein the generator and a discriminator that verifies the reconstructed image generated by the generator compete with each other to update weights to improve the accuracy of the reconstructed image.
제11항에 있어서,
상기 프로세서는,
Hessian matrix 특성에 기반한 손실 함수를 이용하여 상기 혈관 예측 모델의 상기 생성기 또는 상기 검증기를 학습하도록 구성되는, 혈관 구조 결정 장치.
According to clause 11,
The processor,
A blood vessel structure determination device configured to learn the generator or the verifier of the blood vessel prediction model using a loss function based on Hessian matrix characteristics.
제10항에 있어서,
상기 생성기는,
상기 손실 영역과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대해 컨볼루션 연산을 수행하여 근거리 컨텍스트 데이터에 대응되는 제1 특징맵들을 생성하도록 구성된 제1 분할 레이어들; 및
상기 손실 영역과 적어도 두 개의 상이한 사이즈의 커널들 각각에 대해 컨볼루션 연산을 수행하여 원거리 컨텍스트 데이터에 대응되는 제2 특징맵들을 추출하도록 구성된 제2 분할 레이어들; 를 포함하며,
상기 제1 및 제2 분할 레이어들은 병렬 배치되는, 혈관 구조 결정 장치.
According to clause 10,
The generator is,
first division layers configured to generate first feature maps corresponding to short-range context data by performing a convolution operation on the loss region and each of at least two different-sized kernels; and
second segmentation layers configured to extract second feature maps corresponding to distant context data by performing a convolution operation on the loss region and each of at least two different-sized kernels; Includes,
The first and second split layers are arranged in parallel.
제13항에 있어서,
상기 생성기는,
상기 제1 특징맵들 및 상기 제2 특징맵들 각각을 하나로 연결하여 근거리 특징맵 및 원거리 특징맵을 추출하도록 구성된 연결(concatenate) 레이어들; 을 포함하는, 혈관 구조 결정 장치.
According to clause 13,
The generator is,
Concatenate layers configured to extract a near feature map and a far feature map by connecting each of the first feature maps and the second feature maps into one; Including, a vascular structure determination device.
제14항에 있어서,
상기 생성기는,
상기 근거리 특징맵 및 원거리 특징맵에 잔차 값(residual value)을 적용하여 상기 손실 영역에 대한 상기 복원 이미지를 생성하도록 구성되는, 혈관 구조 결정 장치.
According to clause 14,
The generator is,
Configured to generate the restored image for the loss area by applying a residual value to the near feature map and the far feature map.
제9항에 있어서,
상기 프로세서는,
의료 영상을 입력으로 하여 목적 부위인 혈관을 예측하도록 학습된 혈관 분할 모델에 상기 의료 영상을 입력하여 상기 의료 영상 내 혈관을 분할하고, 분할된 혈관에서 적어도 일부 영역이 손실된 손실 영역을 검출하도록 더 구성되는, 혈관 구조 결정 장치.
According to clause 9,
The processor,
The medical image is input to a blood vessel segmentation model learned to predict the target blood vessel using the medical image as input, the blood vessels in the medical image are segmented, and a loss area in which at least some area is lost in the segmented blood vessel is further detected. Consisting of a vascular structure determination device.
KR1020230108162A 2022-08-18 2023-08-18 Method and appratus for determining vascular structure using artificial intelligence KR20240025489A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220103592 2022-08-18
KR20220103592 2022-08-18

Publications (1)

Publication Number Publication Date
KR20240025489A true KR20240025489A (en) 2024-02-27

Family

ID=90058956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230108162A KR20240025489A (en) 2022-08-18 2023-08-18 Method and appratus for determining vascular structure using artificial intelligence

Country Status (1)

Country Link
KR (1) KR20240025489A (en)

Similar Documents

Publication Publication Date Title
JP6525912B2 (en) Image classification device, method and program
JP6700622B2 (en) System and method for processing multimodal images
CN107886508B (en) Differential subtraction method and medical image processing method and system
JP2014534822A5 (en) Coronary calcium scoring method, system and computer program product
CN112561908B (en) Mammary gland image focus matching method, device and storage medium
CN111145160B (en) Method, device, server and medium for determining coronary artery branches where calcified regions are located
JP6824845B2 (en) Image processing systems, equipment, methods and programs
WO2021259391A2 (en) Image processing method and apparatus, and electronic device and storage medium
CN112861961B (en) Pulmonary blood vessel classification method and device, storage medium and electronic equipment
WO2020252256A1 (en) Deep-learning models for image processing
CN114332120A (en) Image segmentation method, device, equipment and storage medium
US11861838B1 (en) Systems and methods for system agnostic automated detection of cardiovascular anomalies and/or other features
US20230334698A1 (en) Methods and systems for positioning in an medical procedure
US20230222668A1 (en) Image processing apparatus, image processing method, and recording medium
JP7456928B2 (en) Abnormal display control method of chest X-ray image, abnormal display control program, abnormal display control device, and server device
KR20240025489A (en) Method and appratus for determining vascular structure using artificial intelligence
JP6703315B2 (en) System and method for assisting surgery in the presence of tissue deformation
JP2022179433A (en) Image processing device and image processing method
CN114037830A (en) Training method for enhanced image generation model, image processing method and device
US10299864B1 (en) Co-localization of multiple internal organs based on images obtained during surgery
JP5992853B2 (en) Surgery support apparatus, method and program
US11875507B1 (en) Systems and methods for detecting cardiovascular anomalies using spatiotemporal neural networks
KR102657225B1 (en) Method and apparatus for segmentating vessel region in medical image
CN117059263B (en) Method and system for determining occurrence probability of pulmonary artery high pressure based on double-view chest radiography
US20230206477A1 (en) Image processing method, image processing device, program, and trained model