KR20180099039A - Image database-based real-time registration method of 2d x-ray image and 3d ct image, and an apparatus thereof - Google Patents

Image database-based real-time registration method of 2d x-ray image and 3d ct image, and an apparatus thereof Download PDF

Info

Publication number
KR20180099039A
KR20180099039A KR1020170025971A KR20170025971A KR20180099039A KR 20180099039 A KR20180099039 A KR 20180099039A KR 1020170025971 A KR1020170025971 A KR 1020170025971A KR 20170025971 A KR20170025971 A KR 20170025971A KR 20180099039 A KR20180099039 A KR 20180099039A
Authority
KR
South Korea
Prior art keywords
image
dimensional
matching
ray
database
Prior art date
Application number
KR1020170025971A
Other languages
Korean (ko)
Other versions
KR101929412B1 (en
Inventor
장혁재
하성민
홍윤미
홍영택
정성희
전병환
장영걸
김세근
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020170025971A priority Critical patent/KR101929412B1/en
Publication of KR20180099039A publication Critical patent/KR20180099039A/en
Application granted granted Critical
Publication of KR101929412B1 publication Critical patent/KR101929412B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Vascular Medicine (AREA)
  • Pulmonology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Cardiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

A medical image database-based real-time registration method of a 2D X-ray image and a 3D CT image is suggested. The method includes: a step of constructing a database (DB) of a 2D X-ray image and a 3D CT image; a step of dividing the 2D X-ray image and the 3D CT image of the constructed database into various regions; a step of generating a registration prediction model using the divided 2D X-ray image and the 3D CT image; and a step of matching the 2D X-ray image and the 3D CT image in real time using the generated matching prediction model. It is possible to match the 2D X-ray and 3D CT images in real time without delay.

Description

영상 데이터베이스 기반 2차원 X-선 영상 및 3차원 CT 영상의 실시간 정합 방법 및 그 장치{IMAGE DATABASE-BASED REAL-TIME REGISTRATION METHOD OF 2D X-RAY IMAGE AND 3D CT IMAGE, AND AN APPARATUS THEREOF}TECHNICAL FIELD [0001] The present invention relates to a real-time matching method and apparatus for a two-dimensional X-ray image and a three-dimensional CT image based on an image database,

본 발명은 2차원 X-선 영상과 3차원 CT 영상의 실시간 정합 방법 및 그 장치에 관한 발명으로서, 보다 구체적으로는 2차원 X-선 영상과 3차원 CT 영상의 데이터베이스를 구축하고, 이 데이터베이스를 기반으로 하여 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하여 기계 학습(machine training) 시킴으로써 정합 예측 모델을 생성하는 이종 영상 간의 실시간 영상 정합 방법, 및 그 장치에 관한 발명이다.The present invention relates to a real-time matching method of a two-dimensional X-ray image and a three-dimensional CT image, and more particularly to a database of a two-dimensional X-ray image and a three-dimensional CT image, Dimensional image and three-dimensional (3D) CT images are divided into regions and machine training is performed to generate a matching prediction model, and a method for real-time image matching between heterogeneous images.

심·혈관질환에 대한 중재 치료 기술 및 그 관련 기구가 빠른 속도로 개발됨에 따라, 종래에는 치료가 불가능하다고 판단되었던 심·혈관질환에 대한 시술적 치료가 적극적으로 시도되고 있다. 예컨대, 만성폐색병변이나 복합성 관상동맥 질환 또는 구조적 심장질환의 영역까지 중재 시술 치료의 영역은 지속적으로 확대되고 있다.With the rapid development of interventional treatment techniques for coronary artery and vascular diseases and its related apparatuses, there has been actively attempted treatment of coronary artery or vascular diseases, which has been considered impossible in the past. For example, the area of interventions for chronic obstructive pulmonary disease, complex coronary artery disease, or structural heart disease is continuously expanding.

하지만, 이처럼 중재 시술의 적용 영역이 확대되고 시술의 난이도가 증가함에 따라 불가피하게 관련 합병증 역시 급격하게 증가하고 있다. 이와 같은 이유는 시술 부위를 실시간으로 관찰할 수 없는 상태에서 과거 영상을 참조하여 시술을 시행하기 때문에 부적절한 위치에 시술을 시행하거나, 혈관 내로 인공 삽입물을 이동시키는 도중에 정상 혈관에 상처를 유발하기도 한다.However, as the scope of the intervention is expanded and the difficulty of the procedure is increased, the related complications are inevitably increasing rapidly. The reason for this is that the procedure is performed with reference to the past image in a state in which the operation site can not be observed in real time. Therefore, the operation may be performed at an inappropriate position or the wound may be injured in the normal blood vessel while the prosthetic implant is moved into the blood vessel.

이와 같은 기술적 한계로 인한 불가피한 합병증을 최소화하기 위해 시술 현장에서 정확한 시술의 유도를 위한 이종 영상 간 정합 기술이 개발되고 있지만, 현재의 기술은 시술 전에 촬영된 CT 관상동맥 조영 영상을 이용하여 별도로 정지 영상 간의 정합을 시행하는 수준에 머물러 있는 실정이다. 이러한 정지 영상 간의 정합은 실제 호흡운동 및 심박으로 인한 혈관의 움직임을 반영하지 못하는 단순한 영상 간의 정합에 불과하기 때문에, 실제 의료 현장에서의 시술 유도는 여전히 매우 어렵다는 문제점이 있다. In order to minimize the unavoidable complications caused by these technical limitations, a technique of inter-x-ray matching has been developed to induce accurate procedures at the operation site. However, the present technology uses a CT coronary angiogram And it is still in the level of conducting the matching. Such matching between still images is merely a match between simple images that do not reflect movement of blood vessels due to actual breathing exercise and heartbeat, so that it is still very difficult to induce an operation in a medical field.

부언하면, 2차원(2D) X-선 영상과 3차원(3D) CT 영상의 정합 영상은 심혈관 치료 및 중재 시술 유도에 큰 도움을 줄 수 있다. 단일 2D X-선 영상은 시술 시에 실시간으로 혈관을 조영하여 병변의 확인이나 카테터(catheter)의 위치를 정확하게 파악할 수 있다는 장점이 있지만, 2D 영상의 한계로 인해 막힌 혈관이 존재하거나 영상의 뷰 각도에 따라 혈관이 중첩되는 등의 제약들로 시술을 어렵게 만든다. In other words, matching images of two-dimensional (2D) x-ray images and three-dimensional (3D) CT images can be very helpful in inducing cardiovascular treatment and intervention procedures. A single 2D X-ray image has the advantage of being able to accurately visualize the lesion and the position of the catheter by imaging the vessel in real time during the procedure. However, because of the limitation of the 2D image, And it is difficult to perform the procedure because of constraints such as overlapping of blood vessels.

게다가, 단일 2D X-선 영상의 경우 혈관의 특성이나 혈관에 발생한 병변의 특성 등을 확인할 수 없기 때문에 3차원 구조를 가지며 혈관 내부의 특성을 고려할 수 있는 CT 영상이 필요로 한다. 최근 CT의 3차원 구조적 특징과 혈관 조직의 특성을 구분할 수 있는 장점과 X-선의 실시간 시술 촬영이 가능한 장점을 두 영상의 정합 기술을 통해서 시술에 도움을 주고자 하는 연구가 활발하게 진행되고 있다. In addition, in the case of a single 2D X-ray image, it is not possible to confirm the characteristics of the blood vessel or the lesion developed in the blood vessel. Therefore, a CT image having a three-dimensional structure and considering the characteristics of the inside of the blood vessel is required. Recently, research has been actively carried out to help the procedure through the matching technique of two images, which has advantages of distinguishing the three-dimensional structural feature of CT and the characteristic of blood vessel tissue and the advantage of real-time operation of X-ray imaging.

현재 세계 최고 수준의 영상 정합 성능은 지멘스사(Siemens)가 초당 0.3회의 영상 프레임을 보유하고, 에라스무스 메디컬 센터(Erasmus Medical Center)가 초당 0.8회의 영상 프레임을 보유하고 있지만, 이들 기업/단체에 의한 기술 성능은 실시간 시술 유도를 시행함에 있어 높은 지연(delay)으로 인해 시술 유도에 큰 도움을 주기가 어렵다는 제한이 있다. Currently, the best image matching performance in the world is realized by Siemens with 0.3 image frames per second and Erasmus Medical Center with 0.8 image frames per second. However, There is a limitation in that the performance is difficult to induce the procedure due to high delay in performing the real-time procedure induction.

참고로, 이러한 높은 지연은 영상 모달리티(modality) 간 정합 시에 사용되는 알고리즘의 연산량의 부하가 높기 때문에 발생하며, 또한 심장 박동 주기 내의 영상이 최소한 10 페이즈(phase) 이상 되기 때문에 연산량은 더욱 증가한다. 이러한 이유로 기존 업체들은 정합의 정확도와 연산 속도 간의 트레이드 오프(trade off)를 적정 수준으로 유지하도록 설계된 영상 정합 장치를 개발하여 출시하고는 있지만, 실제 임상에서 사용할 수 있는 정도에는 미치지 못하는 수준에 불과하다.For reference, this high delay occurs because of the high load of the computational complexity of the algorithms used for matching the image modality, and also because the image within the heartbeat period is at least 10 phases long, . For this reason, existing companies have developed and released a video-matching device designed to maintain the trade-off between the accuracy of matching and the speed of computation at an appropriate level, but the level is far below the level that can be used in clinical practice .

[특허 문헌 1] 대한민국특허등록번호 제10-1485900호(발명의 명칭: "방사선 불투과성 반구형 입체 표지를 기반으로 하는 CT 혈관 조영 영상과 X-선 혈관 조영 영상 간의 정합 방법")[Patent Literature 1] Korean Patent Registration No. 10-1485900 (entitled " Method of Matching CT Angiographic Image and X-ray Angiographic Image Based on Radiopaque Hemispherical Stereo Tag) "

본 발명은 상기한 문제점들을 해결하고자 안출된 것으로서, 본 발명은 지연 없이 실시간으로 2D X-선 영상과 3D CT 영상을 정합할 수 있는 방법 및 그 장치를 제공하는 것을 목적으로 한다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for aligning a 2D X-ray image and a 3D CT image in real time without delay.

상기한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법은, 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스(DB; database)를 구축하는 단계; 상기 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하는 단계; 상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델(registration prediction model)을 생성하는 단계; 및 상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database, Constructing a database (DB) of the 3D CT image; Dividing the two-dimensional X-ray image and the three-dimensional CT image of the constructed database into regions; Generating a registration prediction model using the segmented two-dimensional X-ray image and the three-dimensional CT image; And matching the two-dimensional X-ray image and the three-dimensional CT image in real time using the generated matching prediction model.

여기서, 상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하는 단계는, 비강체(non-rigid) 정합을 이용하는 단계를 포함할 수 있다.Here, the real-time matching of the two-dimensional X-ray image and the three-dimensional CT image using the generated matching prediction model may include using non-rigid matching.

또한, 상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델(registration prediction model)을 생성하는 단계는, 2차원 X-선 영상 및 3차원 CT 영상으로부터 합성곱 신경망(CNN)을 이용하여 혈관 영상을 각각 추출하는 단계; 상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습(machine training)시키는 단계; 및 상기 기계 학습된 혈관 영상들에 기초하여 정합 예측 모델을 구축하는 단계를 포함할 수 있다.The step of generating a registration prediction model using the segmented two-dimensional X-ray image and the three-dimensional CT image may include extracting a registration prediction model from the two-dimensional X-ray image and the three- Extracting the blood vessel images using the CNNs; Machine training each of the extracted blood vessel images using a circular neural network (RNN); And constructing a matching prediction model based on the machine-learned blood vessel images.

또한, 상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습시키는 단계는, 상기 추출된 혈관 영상 각각에 대해 LSTM(Long Short Term Memory)을 적용하는 단계; 및 상기 LSTM이 적용된 혈관 영상 각각에 예측 가중치(predicted weight)를 부여하는 단계를 포함할 수 있다.In addition, the step of mechanically learning each of the extracted blood vessel images using a circular neural network (RNN) includes: applying a long short term memory (LSTM) to each of the extracted blood vessel images; And applying a predicted weight to each of the blood vessel images to which the LSTM is applied.

추가하여, 본 발명의 다른 실시예에 따른 영상 처리 장치는, 심장의 2D X-선 영상 및 3D CT 영상을 수신하도록 구성되는 영상 수신부와, 상기 영상 수신부에서 수신된 심장 영상을 처리하도록 구성되는 영상 처리부와, 상기 영상 처리부에서 정합 처리된 2D X-선 영상 및 3D CT 영상을 디스플레이하도록 구성되는 디스플레이부와, 그리고 상기 영상 수신부, 상기 영상 처리부 및 상기 디스플레이부를 제어하도록 구성되는 제어부를 포함하고, 상기 영상 처리부는, 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스를 구축하도록 구성되는 데이터베이스 구축유닛; 상기 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하도록 구성되는 영역분할유닛; 상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델을 생성하도록 구성되는 정합예측모델 생성유닛; 및 상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하도록 구성되는 영상정합유닛을 포함할 수 있다.According to another aspect of the present invention, there is provided an image processing apparatus comprising: an image receiving unit configured to receive a 2D X-ray image and a 3D CT image of a heart; and an image processing unit configured to process a heart image received by the image receiving unit A display unit configured to display a 2D X-ray image and a 3D CT image matched in the image processing unit, and a control unit configured to control the image receiving unit, the image processing unit, and the display unit, The image processing unit includes a database building unit configured to construct a database of the two-dimensional X-ray image and the three-dimensional CT image; An area dividing unit configured to divide the two-dimensional X-ray image and the three-dimensional CT image of the constructed database into regions; A matching prediction model generation unit configured to generate a matching prediction model using the region-divided two-dimensional X-ray image and the three-dimensional CT image; And an image matching unit configured to match the two-dimensional X-ray image and the three-dimensional CT image in real time using the generated matching prediction model.

여기서, 상기 영상정합유닛은, 비강체 정합을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하도록 구성될 수 있다.Here, the image matching unit may be configured to match two-dimensional X-ray images and three-dimensional CT images in real time using non-rigid body matching.

또한, 상기 정합예측모델 생성유닛은, 2차원 X-선 영상 및 3차원 CT 영상으로부터 합성곱 신경망(CNN)을 이용하여 혈관 영상을 각각 추출하도록 구성되는 혈관영상 추출유닛; 상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습시키도록 구성되는 기계학습유닛; 및 상기 기계 학습된 혈관 영상들에 기초하여 정합 예측 모델을 구축하도록 구성되는 정합예측모델 구축유닛을 포함할 수 있다.The matching prediction model generation unit may include a blood vessel image extraction unit configured to extract blood vessel images from the two-dimensional X-ray image and the three-dimensional CT image using the composite neural network (CNN), respectively; A machine learning unit configured to machine-learn each of the extracted blood vessel images using a circular neural network (RNN); And a matching prediction model building unit configured to build a matching prediction model based on the machine-learned blood vessel images.

또한, 상기 기계학습유닛은, 상기 추출된 혈관 영상 각각에 대해 LSTM(Long Short Term Memory)을 적용하고, 그리고 상기 LSTM이 적용된 혈관 영상 각각에 예측 가중치(predicted weight)를 부여하도록 구성될 수 있다.In addition, the machine learning unit may be configured to apply LSTM (Long Short Term Memory) to each of the extracted blood vessel images and to give a predicted weight to each of the blood vessel images to which the LSTM is applied.

본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법 및 그 영상 처리 장치에 의하면, 2차원 X-선 영상과 3차원 CT 영상을 지연 없이 실시간으로 정합하는 것이 가능하게 된다. According to a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention and an image processing apparatus thereof, It becomes possible to match images in real time without delay.

또한, 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법 및 그 영상 처리 장치에 의하면, 2차원 X-선 영상과 3차원 CT 영상의 실시간 정합을 구현함으로써 환자의 상태에 따른 정밀 치료를 가능하게 한다. According to a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention and an image processing apparatus thereof, Real-time matching of 2D CT images enables precise treatment according to the patient's condition.

또한, 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법 및 그 영상 처리 장치에 의하면, 빅데이터 의료 영상을 기반으로 하므로 강인성을 확보할 수 있고 순환 신경망(RNN) 기반의 합성곱 신경망(CNN)을 통해 정확한 정합 예측 모델을 확보함으로써 기술의 정확도를 향상시킬 수 있다. In addition, according to a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention and an image processing apparatus thereof, It is possible to secure robustness and improve the accuracy of the technology by securing an accurate matching prediction model through the CNN based on the RNN.

도 1은 종래 기술에 따른 2D X-선 영상 및 3D CT 영상의 정합을 설명하기 위한 예시도이다.
도 2a는 본 발명의 일 실시예에 따른 영상 데이터베이스 기반 2차원 X-선 영상 및 3차원 CT 영상의 실시간 정합 방법을 설명하기 위한 흐름도이고, 도 2b는 도 2a의 S230의 세부 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 정합 메커니즘을 설명하기 위한 개략도이다.
도 4는 본 발명의 일 실시예에 따라 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 영역 분할하는 방법을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따라 순환 신경망(RNN) 기반의 합성곱 신경망(CNN)을 통해 정합 예측 모델을 생성하는 플로우를 설명하기 위한 예시도이다.
도 6a는 본 발명의 일 실시예에 따른 영상 데이터베이스 기반 2차원 X-선 영상 및 3차원 CT 영상의 실시간 정합 방법을 구현하도록 구성되는 영상 처리 장치(600)의 블록도이고, 도 6b는 도 6a의 정합예측모델 생성유닛(633)의 세부 블록도이다.
1 is an exemplary view for explaining registration of a 2D X-ray image and a 3D CT image according to the prior art.
FIG. 2A is a flowchart illustrating a real-time matching method of a two-dimensional X-ray image and a three-dimensional CT image based on an image database according to an embodiment of the present invention, and FIG. 2B is a detailed flowchart of S230 of FIG. 2A.
3 is a schematic diagram illustrating a matching mechanism according to an embodiment of the present invention.
FIG. 4 is an exemplary view for explaining a method of segmenting a two-dimensional X-ray image and a three-dimensional CT image of a database constructed according to an embodiment of the present invention.
FIG. 5 is an exemplary diagram for illustrating a flow of generating a matching prediction model through a CNN based on a circular neural network (RNN) according to an embodiment of the present invention.
6A is a block diagram of an image processing apparatus 600 configured to implement a real-time matching method of a two-dimensional X-ray image based on an image database and a three-dimensional CT image according to an embodiment of the present invention. The matching prediction model generation unit 633 of FIG.

이하 본 발명의 바람직한 실시예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다. 이하의 설명에서 구체적인 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위해 제공된 것이다. 그리고 본 발명을 설명함에 있어, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. It should be noted that the same configurations of the drawings denote the same reference numerals as possible whenever possible. In the following description, specific details are set forth to provide a better understanding of the present invention. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 본 발명이 속하는 기술 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 본 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, have. In addition, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the present invention. Therefore, the terms used in the present specification should be defined based on the meaning of the terms, not on the names of simple terms, and on the contents throughout the specification.

본 명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

도 1은 종래 기술에 따른 2D X-선 영상 및 3D CT 영상의 정합을 설명하기 위한 예시도이다. 참고로, 기존에는 2D X-선 영상 및 3D CT 영상을 정합하는 다양한 방식들이 존재하고, 도 1에서는 입체표지(10)를 이용한 영상 정합 방식을 예시적으로 도시한다.1 is an exemplary view for explaining registration of a 2D X-ray image and a 3D CT image according to the prior art. Conventionally, various methods for matching a 2D X-ray image and a 3D CT image exist. In FIG. 1, an image matching method using the stereoscopic sign 10 is illustrated as an example.

도 1의 (a)는 2D X-선 영상을 도시하고, 도 1의 (b)는 3D CT 영상을 도시하며, 도 1의 (c)는 입체표지(10)에 의한 두 영상의 정합 화면을 예시적으로 도시한다.1 (a) shows a 2D X-ray image, FIG. 1 (b) shows a 3D CT image, and FIG. 1 (c) shows a matching screen of two images by the three- Are illustrated by way of example.

도시된 바와 같이, 도 1의 (a)에 도시된 입체표지(10)와 도 1의 (b)에 도시된 입체표지(10) 간의 영상 정합이 실시되고, 그에 따라 도 1의 (c)에 도시된 바와 같이 두 영상의 입체표지(10)의 정합의 결과로서 두 영상에서 심장 관상동맥의 정합이 수행되었음을 알 수 있다.As shown in the figure, the image matching between the stereoscopic sign 10 shown in Fig. 1A and the stereoscopic sign 10 shown in Fig. 1B is performed, As shown in the figure, the matching of the coronary arteries in the two images is performed as a result of the matching of the stereoscopic signs 10 of the two images.

이러한 방사선 불투과성 입체표지(10)를 이용한 종래의 정합 방식은 호흡 또는 환자의 움직임 등 모든 외부 환경에 빠르게 반응할 수 있다는 장점이 있으나, 상기 언급한 지연(delay) 문제가 여전히 해소되지 않는다.The conventional matching method using the radiopaque stereoscopic sign 10 has an advantage that it can respond quickly to all external environments such as breathing or patient's movement, but the above-mentioned delay problem is still not solved.

이러한 종래 영상 정합 방식의 문제점들을 해결하고자, 이하에서 본 출원의 발명자들은 지연 없이 실시간으로 2D X-선 영상과 3D CT 영상을 정합할 수 있는 방법 및 그 장치를 제공하고자 하며, 그러한 방법 및 장치에 대한 구체적인 설명을 이하에서 기술하기로 한다.In order to solve the problems of the conventional image matching method, the inventors of the present application intend to provide a method and apparatus for matching a 2D X-ray image and a 3D CT image in real time without delay, A detailed description will be given below.

도 2a는 본 발명의 일 실시예에 따른 영상 데이터베이스 기반 2차원 X-선 영상 및 3차원 CT 영상의 실시간 정합 방법을 설명하기 위한 흐름도이고, 도 2b는 도 2a의 S230의 세부 흐름도이다. 참고로, 이하의 설명에서는 본 발명의 용이한 이해를 위해 심장 영상(특히, 심장의 관상동맥 영상)을 예시로 설명하지만, 심장 이외의 다른 영상들에도 본 발명의 실시예들이 동일한 방식으로 적용될 수 있음은 명백할 것이다.FIG. 2A is a flowchart illustrating a real-time matching method of a two-dimensional X-ray image and a three-dimensional CT image based on an image database according to an exemplary embodiment of the present invention, and FIG. 2B is a detailed flowchart of S230 of FIG. 2A. For reference, in the following description, a heart image (in particular, a coronary artery image of a heart) is illustrated by way of example for ease of understanding of the present invention, but embodiments of the present invention may be applied to images other than the heart in the same manner It will be apparent.

도 2a에 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법은, 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스(DB; database)를 구축하는 단계(S210)와; 상기 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하는 단계(S220)와; 상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델(registration prediction model)을 생성하는 단계(S230)와; 그리고 상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하는 단계(S240)를 포함할 수 있다. As shown in FIG. 2A, a method for real-time matching two-dimensional X-ray images and three-dimensional CT images based on a medical image database according to an embodiment of the present invention includes two-dimensional X- Constructing a database (DB) of the 2D CT image (S210); A step (S220) of segmenting the two-dimensional X-ray image and the three-dimensional CT image of the constructed database, respectively; (S230) generating a registration prediction model using the region-partitioned two-dimensional X-ray image and the three-dimensional CT image; And matching the two-dimensional X-ray image and the three-dimensional CT image in real time using the generated matching prediction model (S240).

참고로, 도 2a에 도시되는 일련의 단계들(S210 내지 S240)은 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법을 설명하기 위한 예들에 해당하고, 그러므로 도 2a에 도시되지 않은 추가의 단계들이 부가적으로 수행될 수도 있음은 명백할 것이다. For reference, a series of steps S210 to S240 shown in FIG. 2A is a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention , And therefore it will be apparent that additional steps not shown in Figure 2a may additionally be performed.

S210은 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스(DB; database)를 구축하는 단계에 해당한다. 예컨대, 사람의 심장에 대한 2차원 영상은 X-선 영상 장치를 이용하여 획득될 수 있고, 마찬가지로 사람의 심장에 대한 3차원 영상은 CT 영상 장치를 이용하여 획득될 수 있다. S210 corresponds to a step of constructing a database (DB) of the two-dimensional X-ray image and the three-dimensional CT image. For example, a two-dimensional image of a human heart can be obtained using an X-ray imaging apparatus, and a three-dimensional image of a human heart can be acquired using a CT imaging apparatus.

참고로, 본 명세서 전체에서 2차원 영상에 대해 X-선 영상을 그리고 3차원 영상에 대해 CT 영상을 기술하지만, 이는 본 발명의 용이한 이해를 위한 일 예에 불과할 뿐, 따라서 2차원 및 3차원 영상의 획득이 가능한 임의의 장비/장치에 의해 확보 가능한 임의의 2차원 및 2차원 영상 또한 본 발명에 마찬가지로 적용될 수 있음은 명백할 것이다. For reference, throughout this specification, an X-ray image is described for a two-dimensional image and a CT image is described for a three-dimensional image. However, this is merely an example for easy understanding of the present invention, It will be apparent that any two-dimensional and two-dimensional images obtainable by any device / apparatus capable of acquiring images may be similarly applied to the present invention.

본 발명의 일 실시예에 따른 데이터베이스(DB)는 계층형 데이터베이스, 네트워크형 데이터베이스, 관계형 데이터베이스, NoSQL 데이터베이스 등 임의의 타입의 데이터베이스를 포함할 수 있다.A database (DB) according to an embodiment of the present invention may include any type of database such as a hierarchical database, a networked database, a relational database, and a NoSQL database.

이러한 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스 구축은 후술할 빅데이터(Big Data) 기반의 정합 예측 모델 생성의 기초가 되며, 따라서 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스 구축은 본 발명의 일 실시예에 따른 정합 방법을 구현함에 있어 중요한 토대가 된다.The database construction of the two-dimensional X-ray image and the three-dimensional CT image serves as a basis for generation of a large-data-based matching prediction model, which will be described later. Serve as an important foundation for implementing the matching method according to an embodiment of the present invention.

참고로, 이러한 데이터베이스의 구축은 개인별로, 연령별로, 성별로, 등 다양한 실시예들에 따라 다양한 방식으로 수행될 수 있다.For reference, the construction of such a database may be performed in various ways according to various embodiments, such as by individual, by age, by gender, and the like.

S210에서 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스가 구축되면, 상기 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하는 단계(S220)가 수행될 수 있다. 예컨대, S220은 심장의 한 주기 영상을 소정의 개수로(예컨대, 10개) 영역 분할하는 단계를 포함할 수 있다. When a database of the two-dimensional X-ray image and the three-dimensional CT image is constructed in step S210, the step S220 of dividing the two-dimensional X-ray image and the three-dimensional CT image of the constructed database may be performed. For example, S220 may include dividing a periodic image of the heart into a predetermined number (e.g., 10) of regions.

참고로, 이러한 영상의 영역 분할은 소위 '샘플링(sampling)'으로 지칭될 수도 있으며, 영상 영역 분할의 개수는 본 발명의 다양한 실시예들에 따라 가변될 수 있음은 명백할 것이다.For reference, it is apparent that the region segmentation of such an image may be referred to as so-called " sampling ", and that the number of image region segmentations may vary according to various embodiments of the present invention.

2차원 X-선 영상 및 3차원 CT 영상의 영역 분할 단계(S220)는 후술할 정합 예측 모델 생성 단계(S230)의 기반이 되는 분할 영상을 생성한다는 점에서 중요한 단계에 해당하며, 2차원 X-선 영상 및 3차원 CT 영상의 영역 분할에 대한 구체적인 설명은 이하의 도 4에서 보다 상세하게 기술하기로 한다.The segmentation step S220 of the two-dimensional X-ray image and the three-dimensional CT image corresponds to an important step in that a divided image serving as a basis of the matching prediction model generation step S230, which will be described later, A detailed description of the segmentation of the line image and the three-dimensional CT image will be described later in detail with reference to FIG.

S220에서 2차원 X-선 영상 및 3차원 CT 영상이 영역 분할되면, 상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델(registration prediction model)을 생성하는 단계(S230)가 수행될 수 있다.When the two-dimensional X-ray image and the three-dimensional CT image are region-divided in S220, a registration prediction model is generated using the region-divided two-dimensional X-ray image and the three-dimensional CT image (S230 ) Can be performed.

S230은 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여, 빅데이터 기반으로 기계 학습(machine training) 시킴으로써 정합 예측 모델을 구축하는 것을 특징으로 한다. 보다 구체적으로, 도 2b에 도시된 바와 같이, 본 발명의 일 실시예에 따른 정합 예측 모델 생성 단계(S230)는, 2차원 X-선 영상 및 3차원 CT 영상으로부터 합성곱 신경망(CNN)을 이용하여 혈관 영상을 각각 추출하는 단계(S231); 상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습시키는 단계(S232); 및 상기 기계 학습된 혈관 영상들에 기초하여 정합 예측 모델을 구축하는 단계(S233)를 포함할 수 있다.S230 is characterized by constructing a matching prediction model by machine training on a big data basis using a region-divided two-dimensional X-ray image and a three-dimensional CT image. More specifically, as shown in FIG. 2B, a matching prediction model generation step S230 according to an embodiment of the present invention uses a composite neural network (CNN) from a two-dimensional X-ray image and a three-dimensional CT image A step (S231) of extracting a blood vessel image, respectively; A step (S232) of mechanically learning each of the extracted blood vessel images using a circular neural network (RNN); And constructing a matching prediction model based on the machine-learned blood vessel images (S233).

이와 같이, 순환 신경망(RNN) 기반의 합성곱 신경망(CNN)을 이용한 기계 학습을 통해 정합 예측 모델을 구축함으로써 정확한 예측 모델의 확보 및 시술 정확도의 향상이 가능하게 되며, 정합 예측 모델 생성에 관한 보다 구체적인 설명은 이하의 도 5에서 보다 상술하기로 한다.Thus, by constructing the matching prediction model through machine learning using the CNN based on the circular neural network (RNN), accurate prediction model can be secured and the accuracy of the procedure can be improved. A detailed description will be described later in more detail with reference to FIG.

S230에서 기계 학습에 의한 정합 예측 모델이 생성되면, 상기 생성된 정합 예측 모델에 기초하여 2차원 X-선 영상 및 3차원 CT 영상의 실시간 정합 단계(S240)가 수행될 수 있다.If a matching prediction model by machine learning is generated in step S230, a real-time matching step (S240) of the two-dimensional X-ray image and the three-dimensional CT image may be performed based on the generated matching prediction model.

여기서, 도 2a 및 도 2b에 도시된 본원 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법을 구성하는 일련의 단계들(S210 내지 S240)은 컴퓨터에서 실행될 수 있는 프로그램으로서 작성가능하고, 예컨대 컴퓨터는 영상 처리 장치(image processing apparatus/device)로서 구현될 수 있으며, 컴퓨터 판독가능한 기록매체를 이용하여 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Here, a series of steps (steps (a) and (b), which constitute a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention shown in Figs. S210 to S240 can be created as a program that can be executed by a computer. For example, the computer can be implemented as an image processing apparatus / device, and can be a general-purpose digital computer Lt; / RTI >

일반적으로, 의료 영상 처리의 분야에서, CT 영상, MRI 영상, X-선 영상 등을 처리하는 것은 영상을 조작하고, 영상을 분석하며, 영상을 인식하고, 연상을 통신하는 등의 동작을 수반하여, 이러한 일련의 영상 처리의 동작들은 영상 처리 장치에 의해서 수행될 수 있다. 또한, 이러한 일련의 과정들(단계들)은 저장 매체 또는 기록 매체 등에 미리 프로그래밍되어, 소정의 장치(예컨대, 영상 처리 장치)에 의해서 구현될 경우 소정의 목적을 달성하도록 실행된다.Generally, in the field of medical image processing, the processing of CT images, MRI images, X-ray images, etc. is accompanied by operations such as manipulating images, analyzing images, recognizing images, , This series of image processing operations can be performed by the image processing apparatus. In addition, the series of steps (steps) may be pre-programmed into a storage medium or a recording medium and executed to achieve a predetermined purpose when implemented by a predetermined apparatus (e.g., an image processing apparatus).

도 2a 및 도 2b에 도시된 본원 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법을 구성하는 일련의 단계들(S210 내지 S240)은 또한 영상 처리 장치를 구성하는 하드웨어와 소프트웨어의 결합을 이용한 구체적인 수단에 의해서 수행되고, 본원 발명의 방법 단계들을 수행하도록 구성되는 영상 처리 장치의 구체적인 구성 및 설명은 이하의 도 6a 및 도 6b에서 보다 상술하기로 한다.A series of steps S210 to S210 constituting a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention shown in Figs. S240) is also performed by a specific means using a combination of hardware and software constituting the image processing apparatus, and the specific configuration and description of the image processing apparatus configured to perform the method steps of the present invention will be described with reference to FIGS. 6A and 6B Will be described later in detail.

도 3은 본 발명의 일 실시예에 따른 정합 메커니즘을 설명하기 위한 개략도이다.3 is a schematic diagram illustrating a matching mechanism according to an embodiment of the present invention.

도 3의 (a)는 2차원 X-선 영상(31)에 3차원 CT 영상(32)의 예측 모델을 생성하는 개념도를 도시하고, 도 3의 (b)는 확보된 예측 모델을 기반으로 하여 비강체정합을 실시하는 개념도를 도시한다.3 (a) shows a conceptual diagram for generating a prediction model of a three-dimensional CT image 32 on a two-dimensional X-ray image 31. FIG. 3 (b) Non-rigid body matching is performed.

또한, 도 3의 (c)는 실시간 예측 데이터에 기초하여 비강체 정합된 영상을 예시적으로 도시한다. 도 3의 (c)에 도시된 바와 같이, 2차원 X-선 영상(31)에 3차원 CT 영상(32)의 비강체 정합이 수행된다.3 (c) exemplarily shows a non-rigid-body-matched image based on the real-time prediction data. 3D, the non-rigid body registration of the three-dimensional CT image 32 is performed on the two-dimensional X-ray image 31 as shown in FIG. 3 (c).

이와 관련하여, 본 발명의 추가의 실시예에 따르면, 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하는 단계(S240)는, 비강체 정합(non-rigid registration)을 이용하는 단계를 포함할 수 있다. 참고로, 비강체 정합의 구체적인 설명은 당업계에 공지된 바와 실질상 동일하므로 본 단락에서는 이를 생략하기로 한다. In this regard, according to a further embodiment of the present invention, matching the two-dimensional X-ray image and the three-dimensional CT image in real time (S240) using the generated matching prediction model, rigid registration. < / RTI > For reference, the specific description of the non-rigid body matching is substantially the same as known in the art and will be omitted in this paragraph.

도 4는 본 발명의 일 실시예에 따라 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 영역 분할하는 방법을 설명하기 위한 예시도이다. FIG. 4 is an exemplary view for explaining a method of segmenting a two-dimensional X-ray image and a three-dimensional CT image of a database constructed according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 정합 방법은 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하는 단계(S220)를 포함하는데, 이러한 영상 영역 분할 단계(S220)의 개념도가 도 4에 도시된다.The image matching method according to an embodiment of the present invention includes a step S220 of segmenting the two-dimensional X-ray image and the three-dimensional CT image of the constructed database, respectively. The concept of the image region dividing step S220 Is shown in Fig.

도 4에서는 심장의 한 주기를 10 페이즈/프레임(phase/frame)으로 영역 분할하는 예를 도시하였지만, 영상 영역 분할의 개수가 다양한 실시예들에 따라 가변될 수 있음은 명백할 것이다.Although FIG. 4 illustrates an example of dividing one period of the heart into 10 phases / frames, it will be apparent that the number of image region divisions may vary according to various embodiments.

도 4의 상부 측에는 2차원 X-선 영상을 도시하고, 도 4의 하부 측에는 3차원 CT 영상을 도시하며, 도 4의 중간부에는 심장의 한 주기를 10 분할하여 도시하였다. 또한, 본 발명에 따른 실시예들의 용이한 이해를 위해, 10 분할된 영상 영역에 각각 0%, 10%, 20%, 30%, 40%, 50%, 60%, 70%, 80%, 90%를 각각 표시하였다. FIG. 4 shows a two-dimensional X-ray image. FIG. 4 shows a three-dimensional CT image on the lower side. FIG. For easy understanding of the embodiments of the present invention, it is assumed that 0%, 10%, 20%, 30%, 40%, 50%, 60%, 70%, 80% Respectively.

이와 같이 영역 분할된 2차원 X-선 영상과 3차원 CT 영상은 정합 예측 모델을 생성하기 위한 소스(source)가 되며, 그에 대한 구체적인 설명은 다음과 같다. The region-divided two-dimensional X-ray image and the three-dimensional CT image are sources for generating a matching prediction model, and a detailed description thereof will be given below.

도 5는 본 발명의 일 실시예에 따라 순환 신경망(RNN) 기반의 합성곱 신경망(CNN)을 통해 정합 예측 모델을 생성하는 플로우를 설명하기 위한 예시도이다. FIG. 5 is an exemplary diagram for illustrating a flow of generating a matching prediction model through a CNN based on a circular neural network (RNN) according to an embodiment of the present invention.

참고로, 도 4에서 각각의 영상(2차원 X-선 영상 및 3차원 CT 영상)을 10 분할하는 것으로 예시하였으며, 그러므로 도 5에서도 동일한 예를 적용하면서 기술하기로 한다. For reference, FIG. 4 exemplifies that each image (two-dimensional X-ray image and three-dimensional CT image) is divided into 10 parts, and therefore, the same example is applied to FIG. 5 as well.

도 5에 도시된 바와 같이, 2차원 X-선 영상과 3차원 CT 영상의 분할 영상 0% 내지 90%로부터 합성곱 신경망(CNN; 51)을 이용하여 심장 혈관 영상만이 추출될 수 있다.As shown in FIG. 5, only the cardiovascular image can be extracted from 0% to 90% of the divided images of the 2-dimensional X-ray image and the 3-dimensional CT image using the composite neural network (CNN) 51.

합성곱 신경망(CNN; Convolutional Neural Network)은 하나 또는 여러 개의 합성곱 레이어와 그 위에 올려진 일반적인 인공 신경망 레이어들로 이루어져 합성곱 레이어에서 전처리를 수행하는 구조를 갖는 신경망에 해당하며, 적용 예에 따라 컨볼루션 신경망, 회선 신경망, 뇌회로망 등으로 지칭될 수도 있다. Convolutional Neural Network (CNN) is a neural network that consists of one or more synthetic product layers and general artificial neural network layers placed on them, and performs preprocessing on the composite product layer. Convolutional neural network, circuit neural network, neural network, and the like.

도 4에서 영역 분할된 각각의 2차원 X-선 영상 및 3차원 CT 영상에 합성곱 신경망(CNN)의 딥러닝 기술을 이용하여 기계 학습을 수행하면, 2차원 X-선 영상으로부터 그리고 3차원 CT 영상으로부터 각각 심장의 혈관 영상만이 추출될 수 있다.4, when the machine learning is performed using the deep learning technique of the CNN on each of the two-dimensional X-ray image and the three-dimensional CT image segmented in the region, Only the blood vessel images of the heart can be extracted from the images.

참고로, 본 발명의 실시예들에는 합성곱 신경망(CNN)의 특징이 실질상 그대로 적용되므로, 본 단락에서는 합성곱 신경망(CNN)의 보다 상세한 설명은 생략하기로 한다. For reference, in the embodiments of the present invention, since the features of the CNN are substantially applied as they are, detailed description of the CNN will be omitted in this section.

2차원 X-선 영상 및 3차원 CT 영상으로부터 합성곱 신경망(CNN)을 이용하여 혈관 영상이 추출되면, 상기 추출된 혈관 영상 각각을 순환 신경망(RNN; 52)을 이용하여 기계 학습(machine training) 시킬 수 있다. 예컨대, 도 5에 도시된 바와 같이, 순환 신경망(RNN)을 이용한 기계 학습은, 추출된 혈관 영상 각각에 대해 LSTM(Long Short Term Memory)(53)을 적용하는 단계와, 상기 LSTM이 적용된 혈관 영상 각각에 예측 가중치(predicted weight)(54)를 부여하는 단계를 포함할 수 있다. When the blood vessel image is extracted from the two-dimensional X-ray image and the three-dimensional CT image using the composite neural network (CNN), each of the extracted blood vessel images is subjected to machine training using a circular neural network (RNN) . For example, as shown in FIG. 5, machine learning using a circular neural network (RNN) includes applying LSTM (Long Short Term Memory) 53 to each extracted blood vessel image, And assigning a predicted weight 54 to each of them.

참고로, 순환 신경망(RNN; Recurrent Neural Network)은 현재의 데이터와 과거의 데이터를 동시에 고려하는 딥 러닝 기법으로서, 순환 신경망(RNN)은 인공 신경망을 구성하는 유닛 사이의 연결이 방향성 사이클(directed cycle)을 구성하는 신경망을 나타낸다. Recurrent Neural Network (RNN) is a deep learning method that considers current data and past data at the same time. Circular neural network (RNN) ).

참고로, 순환 신경망(RNN)은 임의의 입력을 처리하기 위해서 신경망 내부의 메모리를 활용할 수 있고, 이러한 특징에 의해 순환 신경망(RNN)은 필기체 인식 등의 분야에서 활용되며 높은 인식률을 갖는 장점이 있다. For reference, a circular neural network (RNN) can utilize a memory inside a neural network to process an arbitrary input, and the circular neural network (RNN) is utilized in fields such as handwriting recognition and has a high recognition rate .

순환 신경망(RNN)을 구성할 수 있는 구조에는 다양한 방식이 사용될 수 있는데, 예컨대 완전순환망(Fully Recurrent Network), 홉필드망(Hopfield Network), 엘만망(Elman Network), ESN(Echo state network), LSTM(Long short term memory network), 양방향(Bi-directional) RNN, CTRNN(Continuous-time RNN), 계층적 RNN, 2차 RNN 등이 대표적인 예이다. 또한, 순환 신경망(RNN)을 학습시키기 위한 방법으로서, 경사 하강법, Hessian Free Optimization, Global Optimization Method 등의 방식이 사용될 수 있다.For example, a full recurrent network, a Hopfield network, an Elman network, an echo state network (ESN) network, and the like may be used in the RNN. , A long short term memory network (LSTM), a bi-directional RNN, a continuous-time RNN (CTRNN), a hierarchical RNN, and a secondary RNN. As a method for learning the RNN, a method such as a descending method, Hessian Free Optimization, or Global Optimization Method can be used.

도 5에 도시된 바와 같이, 본 발명의 실시예에 따른 기계 학습은 여러 순환 신경망(RNN) 방식들 중에서 LSTM(장단기 기억)에 의해 구현됨을 예시한다. LSTM의 경우 장기 의존성(long-term dependencies)을 학습할 수 있는 특별한 종류의 순환 신경망(RNN)에 해당하며, LSTM(53)이 적용된 각각의 혈관 영상에 예측 가중치(54)가 부여될 수 있다.As shown in FIG. 5, the machine learning according to the embodiment of the present invention is implemented by LSTM (short and long term memory) among various types of circular neural network (RNN) schemes. The LSTM corresponds to a special kind of circular neural network (RNN) capable of learning long-term dependencies, and each of the blood vessel images to which the LSTM 53 is applied can be given a predictive weight 54.

그러므로, 특정 시간(예컨대, t)의 영상은 순환 신경망(RNN) 기반의 합성곱 신경망(CNN)을 이용하여 기계 학습됨으로써, 상기 특정 시간 전(예컨대, t-1)/후(예컨대, t+1) 시간의 영상에 대한 정보를 예측 가중치의 비율만큼 또한 포함할 수 있으며, 이는 종래 방식의 영상 정합 방식이 특정 시간에 대한 영상 정보만을 포함하는 것과는 명백하게 대비된다.Therefore, the image of a specific time (e.g., t) is machine-learned using a CNN based CNN, thereby generating an image of a specific time (e.g., t-1) 1) temporal image as much as the ratio of the prediction weights, which is clearly contrasted with that the conventional image matching method only includes image information for a specific time.

도 6a는 본 발명의 일 실시예에 따른 영상 데이터베이스 기반 2차원 X-선 영상 및 3차원 CT 영상의 실시간 정합 방법을 구현하도록 구성되는 영상 처리 장치(600)의 블록도이고, 도 6b는 도 6a의 정합예측모델 생성유닛(633)의 세부 블록도이다.6A is a block diagram of an image processing apparatus 600 configured to implement a real-time matching method of a two-dimensional X-ray image based on an image database and a three-dimensional CT image according to an embodiment of the present invention. The matching prediction model generation unit 633 of FIG.

참고로, 도 2a 및 도 2b에 도시된 본원 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법을 구성하는 일련의 단계들(S210 내지 S240)은 컴퓨터에서 실행될 수 있는 프로그램으로서 작성가능하고, 예컨대 컴퓨터는 영상 처리 장치로서 구현될 수 있으며, 컴퓨터 판독가능한 기록매체를 이용해 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있으며, 도 6a는 본 발명의 일 실시예에 따른 영상 데이터베이스 기반 2차원 X-선 영상 및 3차원 CT 영상의 실시간 정합 방법을 구현하도록 구성되는 영상 처리 장치(600)의 블록도를 도시한다.For reference, a series of steps constituting a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention shown in Figs. (S210 to S240) can be created as a program that can be executed in a computer. For example, the computer can be implemented as an image processing apparatus, can be implemented in a general-purpose digital computer that operates a program using a computer- 6A is a block diagram of an image processing apparatus 600 configured to implement a real-time matching method of a two-dimensional X-ray image and a three-dimensional CT image based on an image database according to an exemplary embodiment of the present invention.

도 6a에 도시된 바와 같이, 본원 발명의 일 실시예에 따른 영상 처리 장치(600)는 제어부(610)와, 영상수신부(620)와, 영상처리부(630)와, 그리고 디스플레이부(640)를 포함할 수 있다.6A, an image processing apparatus 600 according to an embodiment of the present invention includes a control unit 610, an image receiving unit 620, an image processing unit 630, and a display unit 640 .

참고로, 도 6a에 도시된 블록도의 영상 처리 장치(600)의 각 엘리먼트들은 본원 발명의 용이한 이해를 위한 일 예에 불과할 뿐, 도 6a에 도시된 엘리먼트 이외의 엘리먼트가 영상 처리 장치(600)에 추가적으로 포함될 수 있음은 명백할 것이다.6A are merely examples for easy understanding of the present invention, and elements other than the elements shown in FIG. 6A are not shown in the image processing apparatus 600 As will be apparent to those skilled in the art.

영상수신부(620)는 2차원 X-선 영상 및 3차원 CT 영상을 수신하도록 구성될 수 있다. 예컨대, S210에서 2차원 X-선 영상과 3차원 CT 영상의 데이터베이스를 구축하기 위해서는 이들 영상을 수신해야 하는데, 상기 영상수신부(620)를 통해 해당 영상들을 수신하는 것이 가능하다.The image receiving unit 620 may be configured to receive the two-dimensional X-ray image and the three-dimensional CT image. For example, in order to construct a database of the two-dimensional X-ray image and the three-dimensional CT image in S210, it is necessary to receive these images, and it is possible to receive the images through the image receiving unit 620. [

영상처리부(630)는 영상수신부(620)를 통해 수신된 심장 영상을 처리하도록 구성될 수 있다. 보다 구체적으로, 도 6a에 도시된 바와 같이, 본원 발명의 일 실시예에 따른 영상처리부(630)는 데이터베이스 구축유닛(631), 영역분할유닛(632), 정합예측모델 생성유닛(633) 및 영상정합유닛(634)을 포함할 수 있다.The image processing unit 630 may be configured to process the heart image received through the image receiving unit 620. 6A, the image processing unit 630 according to an embodiment of the present invention includes a database building unit 631, a region dividing unit 632, a matching prediction model generating unit 633, And a matching unit 634.

상기 데이터베이스 구축유닛(631)은 2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스를 구축하도록 구성될 수 있다. 또한, 상기 영역분할유닛(632)은 상기 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하도록 구성될 수 있다. 또한, 상기 정합예측모델 생성유닛(633)은 상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델을 생성하도록 구성될 수 있다. 또한, 상기 영상정합유닛(634)은 상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하도록 구성될 수 있다.The database building unit 631 may be configured to construct a database of two-dimensional X-ray images and three-dimensional CT images. In addition, the region dividing unit 632 may be configured to divide the two-dimensional X-ray image and the three-dimensional CT image of the constructed database into regions. The matching prediction model generating unit 633 may be configured to generate a matching prediction model using the region-divided two-dimensional X-ray image and the three-dimensional CT image. In addition, the image matching unit 634 may be configured to match the two-dimensional X-ray image and the three-dimensional CT image in real time using the generated matching prediction model.

이와 관련하여, 상기 정합예측모델 생성유닛(633)은, 도 6b에 도시된 바와 같이, 2차원 X-선 영상 및 3차원 CT 영상으로부터 합성곱 신경망(CNN)을 이용하여 혈관 영상을 각각 추출하도록 구성되는 혈관영상 추출유닛(633a); 상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습시키도록 구성되는 기계학습유닛(633b); 및 상기 기계 학습된 혈관 영상들에 기초하여 정합 예측 모델을 구축하도록 구성되는 정합예측모델 구축유닛(633c)으로 구성될 수 있다.In this regard, the matching prediction model generation unit 633 extracts the blood vessel images from the two-dimensional X-ray image and the three-dimensional CT image using the composite neural network (CNN) as shown in FIG. 6B A blood vessel image extracting unit 633a configured; A machine learning unit 633b configured to machine-learn each of the extracted blood vessel images using a circular neural network (RNN); And a matching prediction model building unit 633c configured to build a matching prediction model based on the machine-learned blood vessel images.

영상처리부(630)의 각각의 유닛들(631, 632, 633, 634)의 구체적인 동작 및 설명은 도 2 내지 도 5와 관련하여 설명한 바와 실질상 동일하므로 본 단락에서는 중복적인 설명은 생략하도록 한다.Specific operations and descriptions of the units 631, 632, 633, and 634 of the image processing unit 630 are substantially the same as those described with reference to FIGS. 2 to 5, so that redundant explanations are omitted in this paragraph.

여기서, 상기 영상정합유닛(634)에 의해 X-선 영상과 CT 영상이 정합되면, 정합된 영상이 디스플레이부(640)로 전달되어 상기 디스플레이부(640)에 의해서 정합 영상이 디스플레이될 수 있다. 즉, 상기 디스플레이부(640)는 정합된 2D X-선 영상 및 3D CT 영상을 출력하도록 구성될 수 있다.When the X-ray image and the CT image are matched by the image matching unit 634, the matched image is transmitted to the display unit 640, and the matched image can be displayed by the display unit 640. That is, the display unit 640 may be configured to output the matched 2D X-ray image and the 3D CT image.

또한, 상기 제어부(610)는 영상수신부(620), 영상처리부(630) 및 디스플레이부(640)를 총괄적으로 제어하도록 구성될 수 있다. 예컨대, 상기 제어부(610)는 단일의 제어기(controller)로서 구현될 수 있거나, 또는 복수의 마이크로제어기(micro-controller)로서 구현될 수도 있다.The control unit 610 may be configured to control the image receiving unit 620, the image processing unit 630, and the display unit 640 as a whole. For example, the controller 610 may be implemented as a single controller, or may be implemented as a plurality of micro-controllers.

그러므로, 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법 및 그 영상 처리 장치에 의하면, 2차원 X-선 영상과 3차원 CT 영상을 지연 없이 실시간으로 정합하는 것이 가능하게 된다.Therefore, according to the method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention, Dimensional CT images can be matched in real time without delay.

또한, 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법 및 그 영상 처리 장치에 의하면, 2차원 X-선 영상과 3차원 CT 영상의 실시간 정합을 구현함으로써 환자의 상태에 따른 정밀 치료를 가능하게 한다.According to a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention and an image processing apparatus thereof, Real-time matching of 2D CT images enables precise treatment according to the patient's condition.

또한, 본 발명의 일 실시예에 따른 의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법 및 그 영상 처리 장치에 의하면, 빅데이터 의료 영상을 기반으로 하므로 강인성을 확보할 수 있고 순환 신경망(RNN) 기반의 합성곱 신경망(CNN)을 통해 정확한 정합 예측 모델을 확보함으로써 기술의 정확도를 향상시킬 수 있다.In addition, according to a method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database according to an embodiment of the present invention and an image processing apparatus thereof, It is possible to secure robustness and improve the accuracy of the technology by securing an accurate matching prediction model through the CNN based on the RNN.

상술한 본 발명의 일 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 판독 가능한 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.The above-described embodiments of the present invention can be embodied in a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a computer-readable recording medium.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention something to do.

31: 2차원 X-선 영상 32: 3차원 CT 영상
51: 합성곱 신경망 52:순환 신경망
53: LSTM 54: 예측 가중치
600: 영상 처리 장치 610: 제어부
620: 영상 수신부 630: 영상 처리부
631: 데이터베이스 구축유닛 632: 영역분할유닛
633: 정합예측모델 생성유닛 633a: 혈관영상 추출유닛
633b: 기계학습유닛 633c: 정합예측모델 구축유닛
634: 영상정합유닛 640: 디스플레이부
31: 2D X-ray image 32: 3D CT image
51: Composite Neural Network 52: Circular Neural Network
53: LSTM 54: predicted weight
600: image processing apparatus 610:
620: image receiving unit 630: image processing unit
631: Database building unit 632: Region dividing unit
633: matching prediction model generation unit 633a: blood vessel image extraction unit
633b: Machine learning unit 633c: Match prediction model building unit
634: Image matching unit 640:

Claims (8)

의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법으로서,
2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스(DB; database)를 구축하는 단계;
상기 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하는 단계;
상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델(registration prediction model)을 생성하는 단계; 및
상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하는 단계
를 포함하는,
의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법.
A method for real-time matching of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database,
Constructing a database (DB) of the two-dimensional X-ray image and the three-dimensional CT image;
Dividing the two-dimensional X-ray image and the three-dimensional CT image of the constructed database into regions;
Generating a registration prediction model using the segmented two-dimensional X-ray image and the three-dimensional CT image; And
And matching the two-dimensional X-ray image and the three-dimensional CT image in real time using the generated matching prediction model
/ RTI >
A method for real-time registration of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database.
제 1 항에 있어서,
상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하는 단계는, 비강체(non-rigid) 정합을 이용하는 단계를 포함하는,
의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법.
The method according to claim 1,
Wherein real-time matching of the two-dimensional X-ray image and the three-dimensional CT image using the generated matching prediction model comprises using non-rigid matching,
A method for real-time registration of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database.
제 2 항에 있어서,
상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델(registration prediction model)을 생성하는 단계는,
2차원 X-선 영상 및 3차원 CT 영상으로부터 합성곱 신경망(CNN)을 이용하여 혈관 영상을 각각 추출하는 단계;
상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습(machine training)시키는 단계; 및
상기 기계 학습된 혈관 영상들에 기초하여 정합 예측 모델을 구축하는 단계
를 포함하는,
의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법.
3. The method of claim 2,
The step of generating a registration prediction model using the segmented two-dimensional X-ray image and the three-dimensional CT image may include:
Extracting a blood vessel image from a two-dimensional X-ray image and a three-dimensional CT image using a composite neural network (CNN);
Machine training each of the extracted blood vessel images using a circular neural network (RNN); And
Constructing a matching prediction model based on the machine-learned blood vessel images
/ RTI >
A method for real-time registration of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database.
제 3 항에 있어서,
상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습시키는 단계는,
상기 추출된 혈관 영상 각각에 대해 LSTM(Long Short Term Memory)을 적용하는 단계; 및
상기 LSTM이 적용된 혈관 영상 각각에 예측 가중치(predicted weight)를 부여하는 단계
를 포함하는,
의료영상 데이터베이스에 기초하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하기 위한 방법.
The method of claim 3,
The step of mechanically learning each of the extracted blood vessel images using a circular neural network (RNN)
Applying an LSTM (Long Short Term Memory) to each of the extracted blood vessel images; And
A step of assigning a predicted weight to each of the blood vessel images to which the LSTM is applied
/ RTI >
A method for real-time registration of a two-dimensional X-ray image and a three-dimensional CT image based on a medical image database.
제 1 항 내지 제 4 항 중 어느 한 항에 따른 방법을 수행하도록 구성되는 영상 처리 장치로서,
심장의 2D X-선 영상 및 3D CT 영상을 수신하도록 구성되는 영상 수신부와,
상기 영상 수신부에서 수신된 심장 영상을 처리하도록 구성되는 영상 처리부와,
상기 영상 처리부에서 정합 처리된 2D X-선 영상 및 3D CT 영상을 디스플레이하도록 구성되는 디스플레이부와, 그리고
상기 영상 수신부, 상기 영상 처리부 및 상기 디스플레이부를 제어하도록 구성되는 제어부
를 포함하고,
상기 영상 처리부는,
2차원 X-선 영상 및 3차원 CT 영상의 데이터베이스를 구축하도록 구성되는 데이터베이스 구축유닛;
상기 구축된 데이터베이스의 2차원 X-선 영상 및 3차원 CT 영상을 각각 영역 분할하도록 구성되는 영역분할유닛;
상기 영역 분할된 2차원 X-선 영상 및 3차원 CT 영상을 이용하여 정합 예측 모델을 생성하도록 구성되는 정합예측모델 생성유닛; 및
상기 생성된 정합 예측 모델을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하도록 구성되는 영상정합유닛
을 포함하는,
영상 처리 장치.
An image processing apparatus configured to perform the method according to any one of claims 1 to 4,
An image receiving unit configured to receive a 2D X-ray image and a 3D CT image of the heart;
An image processor configured to process a heart image received by the image receiver;
A display unit configured to display a 2D X-ray image and a 3D CT image matched in the image processing unit, and
A control unit configured to control the image receiving unit, the image processing unit,
Lt; / RTI >
Wherein the image processing unit comprises:
A database building unit configured to construct a database of a two-dimensional X-ray image and a three-dimensional CT image;
An area dividing unit configured to divide the two-dimensional X-ray image and the three-dimensional CT image of the constructed database into regions;
A matching prediction model generation unit configured to generate a matching prediction model using the region-divided two-dimensional X-ray image and the three-dimensional CT image; And
An image matching unit configured to match the two-dimensional X-ray image and the three-dimensional CT image in real time using the generated matching prediction model,
/ RTI >
Image processing apparatus.
제 5 항에 있어서,
상기 영상정합유닛은, 비강체 정합을 이용하여 2차원 X-선 영상 및 3차원 CT 영상을 실시간으로 정합하도록 구성되는,
영상 처리 장치.
6. The method of claim 5,
Wherein the image matching unit is configured to match two-dimensional X-ray images and three-dimensional CT images in real time using non-rigid body matching,
Image processing apparatus.
제 6 항에 있어서,
상기 정합예측모델 생성유닛은,
2차원 X-선 영상 및 3차원 CT 영상으로부터 합성곱 신경망(CNN)을 이용하여 혈관 영상을 각각 추출하도록 구성되는 혈관영상 추출유닛;
상기 추출된 혈관 영상 각각을 순환 신경망(RNN)을 이용하여 기계 학습시키도록 구성되는 기계학습유닛; 및
상기 기계 학습된 혈관 영상들에 기초하여 정합 예측 모델을 구축하도록 구성되는 정합예측모델 구축유닛
을 포함하는,
영상 처리 장치.
The method according to claim 6,
Wherein the matching prediction model generation unit comprises:
A blood vessel image extraction unit configured to extract blood vessel images from a two-dimensional X-ray image and a three-dimensional CT image using a composite neural network (CNN);
A machine learning unit configured to machine-learn each of the extracted blood vessel images using a circular neural network (RNN); And
A matching prediction model building unit configured to build a matching prediction model based on the machine-
/ RTI >
Image processing apparatus.
제 7 항에 있어서,
상기 기계학습유닛은,
상기 추출된 혈관 영상 각각에 대해 LSTM(Long Short Term Memory)을 적용하고, 그리고 상기 LSTM이 적용된 혈관 영상 각각에 예측 가중치(predicted weight)를 부여하도록 구성되는,
영상 처리 장치.
8. The method of claim 7,
The machine learning unit comprises:
Applying a LSTM (Long Short Term Memory) to each of the extracted blood vessel images, and applying a predicted weight to each of the blood vessel images to which the LSTM is applied,
Image processing apparatus.
KR1020170025971A 2017-02-28 2017-02-28 Image database-based real-time registration method of 2d x-ray image and 3d ct image, and an apparatus thereof KR101929412B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170025971A KR101929412B1 (en) 2017-02-28 2017-02-28 Image database-based real-time registration method of 2d x-ray image and 3d ct image, and an apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170025971A KR101929412B1 (en) 2017-02-28 2017-02-28 Image database-based real-time registration method of 2d x-ray image and 3d ct image, and an apparatus thereof

Publications (2)

Publication Number Publication Date
KR20180099039A true KR20180099039A (en) 2018-09-05
KR101929412B1 KR101929412B1 (en) 2018-12-14

Family

ID=63594352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170025971A KR101929412B1 (en) 2017-02-28 2017-02-28 Image database-based real-time registration method of 2d x-ray image and 3d ct image, and an apparatus thereof

Country Status (1)

Country Link
KR (1) KR101929412B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039146B1 (en) * 2019-03-21 2019-10-31 주식회사 루닛 Method for performing multi-domain ensemble learning and apparatus thereof
KR20210115223A (en) * 2020-03-12 2021-09-27 숭실대학교산학협력단 Method of vessel structures extraction using artificial intelligence technique, recording medium and device for performing the method
KR102383753B1 (en) * 2021-06-10 2022-04-08 메디컬아이피 주식회사 Medical image registration method and apparatus
KR20220056892A (en) * 2020-10-28 2022-05-09 주식회사 뷰노 Method for segmentation based on medical image
KR20220121141A (en) * 2021-02-24 2022-08-31 서울대학교병원 Method and device for semgneting body component for conveying fluid
US11557038B2 (en) 2019-10-17 2023-01-17 Electronics And Telecommunications Research Institute Apparatus and method for x-ray data generation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101485900B1 (en) 2013-04-02 2015-01-26 연세대학교 산학협력단 Image matching method between computed tomography angiography image and X-Ray angiography image based on hemisphere shaped radiopaque 3D Marker

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8270695B2 (en) 2008-10-07 2012-09-18 Carestream Health, Inc. Diagnostic image processing with automatic self image quality validation
KR102233427B1 (en) 2014-04-14 2021-03-29 삼성전자주식회사 Method and Apparatus for medical image registration
KR101652641B1 (en) 2015-06-05 2016-09-12 숭실대학교산학협력단 Method for Image registration Using ECG signal and Apparatus Thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101485900B1 (en) 2013-04-02 2015-01-26 연세대학교 산학협력단 Image matching method between computed tomography angiography image and X-Ray angiography image based on hemisphere shaped radiopaque 3D Marker

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039146B1 (en) * 2019-03-21 2019-10-31 주식회사 루닛 Method for performing multi-domain ensemble learning and apparatus thereof
US11557038B2 (en) 2019-10-17 2023-01-17 Electronics And Telecommunications Research Institute Apparatus and method for x-ray data generation
KR20210115223A (en) * 2020-03-12 2021-09-27 숭실대학교산학협력단 Method of vessel structures extraction using artificial intelligence technique, recording medium and device for performing the method
KR20220056892A (en) * 2020-10-28 2022-05-09 주식회사 뷰노 Method for segmentation based on medical image
KR20220121141A (en) * 2021-02-24 2022-08-31 서울대학교병원 Method and device for semgneting body component for conveying fluid
KR102383753B1 (en) * 2021-06-10 2022-04-08 메디컬아이피 주식회사 Medical image registration method and apparatus

Also Published As

Publication number Publication date
KR101929412B1 (en) 2018-12-14

Similar Documents

Publication Publication Date Title
KR101929412B1 (en) Image database-based real-time registration method of 2d x-ray image and 3d ct image, and an apparatus thereof
US11847781B2 (en) Systems and methods for medical acquisition processing and machine learning for anatomical assessment
CN111724904B (en) Multi-task progressive network for patient modeling for medical scanning
Khan et al. Deep neural architectures for medical image semantic segmentation
JP6657132B2 (en) Image classification device, method and program
Liang et al. United snakes
US10997466B2 (en) Method and system for image segmentation and identification
US10803354B2 (en) Cross-modality image synthesis
EP3611699A1 (en) Image segmentation using deep learning techniques
US10685438B2 (en) Automated measurement based on deep learning
US20200242744A1 (en) Forecasting Images for Image Processing
CN107787203B (en) Image registration
KR102352841B1 (en) Vascular map bulding apparatus, method and computer program for carrying out the method
US10390888B2 (en) Intravascular catheter for modeling blood vessels
Kim et al. Automatic segmentation of the left ventricle in echocardiographic images using convolutional neural networks
US20180310830A1 (en) Intravascular catheter including markers
US11200671B2 (en) Reference image guided object detection in medical image processing
US8781188B2 (en) Method and device for displaying changes in medical image data
AU2019204365B1 (en) Method and System for Image Segmentation and Identification
Cui et al. Multi-perspectives 2D Spine CT images segmentation of 3D fuse algorithm
EP3896658A1 (en) Creating a synthetic medical image
Rodríguez Prado Automatic cardiac segmentation by fusing deep learning models
Amor Bone segmentation and extrapolation in Cone-Beam Computed Tomography
Ta Multi-Task Learning for Cardiac Motion Analysis and Segmentation in Echocardiography
CN114359207A (en) Intracranial blood vessel segmentation method, device, storage medium and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant