KR101876643B1 - Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image - Google Patents

Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image Download PDF

Info

Publication number
KR101876643B1
KR101876643B1 KR1020160156725A KR20160156725A KR101876643B1 KR 101876643 B1 KR101876643 B1 KR 101876643B1 KR 1020160156725 A KR1020160156725 A KR 1020160156725A KR 20160156725 A KR20160156725 A KR 20160156725A KR 101876643 B1 KR101876643 B1 KR 101876643B1
Authority
KR
South Korea
Prior art keywords
image
dimensional
matching
images
fluoroscopic
Prior art date
Application number
KR1020160156725A
Other languages
Korean (ko)
Other versions
KR20180058071A (en
Inventor
나종범
원치준
김민아
박창민
Original Assignee
한국과학기술원
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원, 서울대학교병원 filed Critical 한국과학기술원
Priority to KR1020160156725A priority Critical patent/KR101876643B1/en
Publication of KR20180058071A publication Critical patent/KR20180058071A/en
Application granted granted Critical
Publication of KR101876643B1 publication Critical patent/KR101876643B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/503Clinical applications involving diagnosis of heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5288Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal

Abstract

2D 형광 투시 영상과 3D CT 영상 정합 기반의 치료 가이딩 시스템 및 방법이 개시된다. 본 발명의 일 실시예에 따른 영상 정합 기반의 치료 가이딩 방법은 환자의 미리 설정된 관심 영역(ROI)에 대한 2차원 형광 투시 영상과 복수의 호흡들 각각에 대한 3차원 CT 영상을 획득하는 단계; 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 단계; 상기 추출된 특징점을 이용한 상기 3차원 CT 영상들 간의 정합을 통해 4차원 CT 영상을 형성하는 단계; 상기 형성된 4차원 CT 영상에 대한 2차원 투영(projection) 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 2차원 형광 투시 영상과 가장 유사한 2차원 투영 영상을 선택하는 단계; 및 상기 선택된 2차원 투영 영상에 기초하여 상기 관심 영역의 가이딩 대상에 대한 정보를 제공하는 단계를 포함한다.A medical guiding system and method based on 2D fluoroscopic image and 3D CT image registration is disclosed. According to an embodiment of the present invention, there is provided a method of guiding the image matching-based therapy, comprising: obtaining a two-dimensional fluoroscopic image and a three-dimensional CT image for each of a plurality of breaths for a predetermined ROI of a patient; Extracting feature points for each of the obtained three-dimensional CT images; Forming a 4-dimensional CT image by matching the 3-dimensional CT images using the extracted feature points; Selecting a two-dimensional projection image most similar to the two-dimensional fluoroscopic image through matching of two-dimensional projection images of the formed four-dimensional CT image with the two-dimensional fluoroscopic image; And providing information about a guiding target of the ROI based on the selected two-dimensional projection image.

Description

2D 형광 투시 영상과 3D CT 영상 정합 기반의 치료 가이딩 시스템 및 방법 {Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fluoroscopic guiding system and method based on 2D fluoroscopic image and 3D CT image matching,

본 발명은 2D 형광 투시 영상과 3D CT 영상 정합 기반의 치료 가이딩 기술에 관한 것으로서, 보다 상세하게는 2D 형광 투시 영상의 호흡 상태와 일치하는 3D CT 영상을 자동으로 찾아 가이드 영상으로 사용할 수 있는 시스템 및 방법에 관한 것이다.The present invention relates to a therapeutic guiding technique based on a 2D fluoroscopic image and a 3D CT image matching, more particularly, to a system capable of automatically finding a 3D CT image matching a respiratory state of a 2D fluoroscopic image and using the same as a guide image And methods.

세침 흡입 생검술, RFA(Radiofrequency ablation), HIFU(high intensity focused ultrasound) 등 영상 유도 시술 분야에서는 현재 종양의 위치를 실시간으로 확인하며 시술 하기 위하여 2D 형광 투시(fluoroscopy) 영상과 같은 실시간 의료 영상을 많이 이용한다. 하지만 2D 형광 투시 영상은 프로젝션(projection) 영상이므로 깊이 정보를 알 수가 없으며, 상황에 따라 작은 종양은 보이지 않기도 하여 실시간으로 종양의 위치를 정확하게 파악하기 힘든 경우가 많다.In the field of image guidance procedures such as fine needle aspiration biopsy, radiofrequency ablation (RFA), and high intensity focused ultrasound (HIFU), real-time medical images, such as 2D fluoroscopy images, . However, since the 2D fluoroscopic image is a projection image, the depth information can not be known, and in some cases, a small tumor is not visible, so that it is often difficult to accurately grasp the position of the tumor in real time.

현재 많이 사용되고 있는 C-arm 기반의 형광 투시 촬영 시스템은 깊이 정보를 포함한 정확한 종양의 위치정보를 알고 있는 3D 콘 빔(cone beam) CT영상을 동일 시스템에서 획득 후 2D 형광 투시 영상에 오버랩하여 가이드영상으로 이용함으로써 위와 같은 문제를 해결하려 하였다.The C-arm-based fluoroscopy system, which is currently in use, acquires a 3D cone-beam CT image, which has accurate information on the location of the tumor including depth information, on the same system and overlaps the 2D fluoroscopy image, To solve the above problems.

그러나, 3D 콘 빔 CT 획득 시 환자의 호흡과 실시간 2D 형광 투시 영상을 획득 시 환자의 호흡이 다른 경우에는 3D 콘 빔 CT가 정확한 종양의 위치를 가이드 할 수 없다는 문제를 가지고 있다. However, 3D cone beam CT can not guide the accurate location of the tumor when patient breathing and real - time 2D fluoroscopic image acquisition of the patient 's respiration are different when the 3D cone beam CT is acquired.

2D 형광 투시 영상과 3D CT 영상 간의 정합을 다루는 연구는 기존에도 많이 진행되어 왔으며, 다수의 연구에서 심장 움직임에 상관 없이 정확한 심혈관의 위치 정보를 획득하기 위하여 심장 움직임을 고려한 형광 투시 영상과 CT 영상 간의 정합 연구를 진행하였다.In order to acquire the accurate cardiovascular position information regardless of the cardiac movements, many researches have been conducted to deal with the matching between the 2D fluoroscopic image and the 3D CT image. Matching study.

많은 경우 강체 정합(rigid registration)을 적용하거나, 혹은 심장의 비강체(non-rigid) 움직임을 표현하기 위하여 심장 게이트(cardiac gated) CT 영상을 획득하여 이용하는데, 일반적으로 심장 움직임과 호흡 움직임이 동시에 존재하는 폐 영역 같은 경우에는 두 움직임을 모두 고려한 정합을 진행 해야 하기에, 현재까지의 연구들에선 단순 강체 정합을 하는 경우가 아니라면 심장 게이트 CT 뿐만 아니라 호흡기 게이트(respiratory gated) CT등을 이용해야 하기 때문에 복잡도 높고 피폭량이 많은 문제가 있다.In many cases, cardiac gated CT images are acquired and used to apply rigid registration or to represent non-rigid movements of the heart. In general, cardiac and respiratory movements are performed simultaneously In the case of an existing lung area, both of the movements must be considered. In the present study, respiratory gated CT as well as cardiac CT should be used, unless a simple rigid body alignment is used. Therefore, there is a problem of high complexity and large amount of exposure.

따라서, 심장 게이트 CT 및 호흡기 게이트 CT 영상을 획득하지 않고도 정합이 가능하며 환자의 피폭량을 줄이고 복잡도를 감소시킬 수 있는 시스템 또는 방법의 필요성이 대두된다.Therefore, there is a need for a system or method capable of matching without reducing the heart gate CT and respiratory gate CT images, reducing the amount of patient exposure and reducing the complexity.

본 발명의 실시예들은, 2D 형광 투시 영상과 3D CT 영상 정합 기반으로 2D 형광 투시 영상의 호흡 상태와 일치하는 3D CT 영상을 자동으로 찾아 가이드 영상으로 사용할 수 있는 치료 가이딩 시스템 및 방법을 제공하는 것을 목적으로 한다.Embodiments of the present invention provide a therapeutic guiding system and method that can automatically find and use a 3D CT image matching a breathing state of a 2D fluoroscopic image based on a 2D fluoroscopic image and a 3D CT image matching as a guide image .

구체적으로, 본 발명의 실시예들은 2D 형광 투시 영상과 3D CT영상 간의 정합을 통해 시술 중 실시간으로 정확한 종양의 위치를 모니터링 할 수 있는 치료 가이딩 시스템 및 방법을 제공하는 것을 목적으로 한다.In particular, embodiments of the present invention provide a therapeutic guiding system and method that can monitor the position of an accurate tumor in real time during a procedure through matching between a 2D fluoroscopic image and a 3D CT image.

본 발명의 일 실시예에 따른 영상 정합 기반 치료 가이딩 방법은 환자의 미리 설정된 관심 영역(ROI)에 대한 2차원 형광 투시 영상과 복수의 호흡들 각각에 대한 3차원 CT 영상을 획득하는 단계; 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 단계; 상기 추출된 특징점을 이용한 상기 3차원 CT 영상들 간의 정합을 통해 4차원 CT 영상을 형성하는 단계; 상기 형성된 4차원 CT 영상에 대한 2차원 투영(projection) 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 2차원 형광 투시 영상과 가장 유사한 2차원 투영 영상을 선택하는 단계; 및 상기 선택된 2차원 투영 영상에 기초하여 상기 관심 영역의 가이딩 대상에 대한 정보를 제공하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method of guiding image matching-based therapy, comprising: acquiring a two-dimensional fluoroscopic image and a three-dimensional CT image for each of a plurality of breaths with respect to a predetermined ROI of a patient; Extracting feature points for each of the obtained three-dimensional CT images; Forming a 4-dimensional CT image by matching the 3-dimensional CT images using the extracted feature points; Selecting a two-dimensional projection image most similar to the two-dimensional fluoroscopic image through matching of two-dimensional projection images of the formed four-dimensional CT image with the two-dimensional fluoroscopic image; And providing information about a guiding target of the ROI based on the selected two-dimensional projection image.

상기 가장 유사한 2차원 투영 영상을 선택하는 단계는 상기 가이딩 대상의 위치가 호흡의 움직임과 심장의 움직임이 동시에 있는 영역인 경우 상기 심장의 움직임에 의한 정합의 제1 가중치와 상기 호흡의 움직임에 의한 정합의 제2 가중치를 반영하고, 상기 반영된 제1 가중치와 제2 가중치를 제어함으로써, 상기 가장 유사한 2차원 투영 영상을 선택할 수 있다.Wherein the step of selecting the most similar two-dimensional projection image comprises: if the position of the guiding object is a region where breathing movement and heart movement are simultaneously performed, the first weighting of the matching by the movement of the heart and the movement of the breathing The most similar two-dimensional projection image can be selected by reflecting the second weight of the matching and controlling the reflected first weight and the second weight.

상기 4차원 CT 영상을 형성하는 단계는 상기 3차원 CT 영상들을 상기 환자의 호흡 순서로 나열한 후 인접한 3차원 CT 영상들 간 정합을 통해 상기 가이딩 대상에 대한 움직임 패턴을 도출하는 단계; 및 상기 도출된 움직임 패턴에 기초하여 상기 4차원 CT 영상을 형성하는 단계를 포함할 수 있다.Wherein the forming of the 4-dimensional CT image comprises: arranging the 3-dimensional CT images in the respiration order of the patient and deriving a movement pattern for the guiding object through matching between adjacent 3-dimensional CT images; And forming the 4-dimensional CT image based on the derived motion pattern.

상기 가장 유사한 2차원 투영 영상을 선택하는 단계는 상기 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도와 이동 좌표에 기초하여 변환하고, 상기 변환된 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도로 투영하여 2차원 투영 영상 후보군을 형성하며, 상기 형성된 2차원 투영 영상 후보군의 2차원 투영 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 가장 유사한 2차원 투영 영상을 선택할 수 있다.Wherein the step of selecting the most similar two-dimensional projection image comprises the steps of: transforming the four-dimensional CT image based on a viewing angle and a moving coordinate of the two-dimensional fluoroscopic image; Dimensional projection image candidates, and the most similar two-dimensional projection image can be selected through the matching of the two-dimensional projection images of the formed two-dimensional projection image candidate group and the two-dimensional fluoroscopic vision image .

상기 특징점을 추출하는 단계는 상기 가이딩 대상의 관련 영역과 움직임의 반복 패턴이 동일한 장기들과 상이한 장기들을 분리하는 단계; 및 상기 움직임의 반복 패턴이 동일한 장기들로부터 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 단계를 포함할 수 있다.Wherein the extracting of the feature points comprises: separating organs different from organs having the same repetitive pattern of movement as the related region of the guiding object; And extracting feature points for each of the obtained three-dimensional CT images from the same organs of repeated patterns of motion.

본 발명의 일 실시예에 따른 영상 정합 기반 치료 가이딩 시스템은 환자의 미리 설정된 관심 영역(ROI)에 대한 2차원 형광 투시 영상과 복수의 호흡들 각각에 대한 3차원 CT 영상을 획득하는 획득부; 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 추출부; 상기 추출된 특징점을 이용한 상기 3차원 CT 영상들 간의 정합을 통해 4차원 CT 영상을 형성하는 형성부; 상기 형성된 4차원 CT 영상에 대한 2차원 투영(projection) 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 2차원 형광 투시 영상과 가장 유사한 2차원 투영 영상을 선택하는 선택부; 및 상기 선택된 2차원 투영 영상에 기초하여 상기 관심 영역의 가이딩 대상에 대한 정보를 제공하는 제공부를 포함한다.The image matching-based therapy guiding system according to an embodiment of the present invention includes an acquiring unit for acquiring a two-dimensional fluoroscopic image for a ROI of a patient and a three-dimensional CT image for each of a plurality of breaths; An extraction unit for extracting feature points for each of the obtained three-dimensional CT images; A forming unit for forming a four-dimensional CT image by matching the three-dimensional CT images using the extracted feature points; A selection unit for selecting a two-dimensional projection image most similar to the two-dimensional fluoroscopic image through matching of two-dimensional projection images of the formed four-dimensional CT image with the two-dimensional fluoroscopic image; And a providing unit for providing information about a guiding target of the ROI based on the selected two-dimensional projection image.

상기 선택부는 상기 가이딩 대상의 위치가 호흡의 움직임과 심장의 움직임이 동시에 있는 영역인 경우 상기 심장의 움직임에 의한 정합의 제1 가중치와 상기 호흡의 움직임에 의한 정합의 제2 가중치를 반영하고, 상기 반영된 제1 가중치와 제2 가중치를 제어함으로써, 상기 가장 유사한 2차원 투영 영상을 선택할 수 있다.Wherein the selecting unit reflects the first weight of the matching due to the motion of the heart and the second weight of the matching due to the motion of the respiration when the position of the guiding object is a region in which breathing movement and heart movement are simultaneously present, By controlling the reflected first weight and the second weight, the most similar two-dimensional projection image can be selected.

상기 형성부는 상기 3차원 CT 영상들을 상기 환자의 호흡 순서로 나열한 후 인접한 3차원 CT 영상들 간 정합을 통해 상기 가이딩 대상에 대한 움직임 패턴을 도출하고, 상기 도출된 움직임 패턴에 기초하여 상기 4차원 CT 영상을 형성할 수 있다.Wherein the forming unit arranges the three-dimensional CT images in the respiration order of the patient, derives a motion pattern for the guiding object through matching between adjacent three-dimensional CT images, CT images can be formed.

상기 선택부는 상기 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도와 이동 좌표에 기초하여 변환하고, 상기 변환된 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도로 투영하여 2차원 투영 영상 후보군을 형성하며, 상기 형성된 2차원 투영 영상 후보군의 2차원 투영 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 가장 유사한 2차원 투영 영상을 선택할 수 있다.Wherein the selecting unit converts the four-dimensional CT image based on a viewing angle and a moving coordinate of the two-dimensional fluoroscopic image, and projects the converted four-dimensional CT image at a viewing angle of the two-dimensional fluoroscopic image, Dimensional projected image, and the most similar two-dimensional projection image can be selected through the matching of the two-dimensional projection images of the formed two-dimensional projection image candidate group and the two-dimensional fluoroscopic vision image.

상기 추출부는 상기 가이딩 대상의 관련 영역과 움직임의 반복 패턴이 동일한 장기들과 상이한 장기들을 분리하고, 상기 움직임의 반복 패턴이 동일한 장기들로부터 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출할 수 있다.Wherein the extracting unit separates the organs different from the organs having the same repetitive pattern of motion with the related region of the guiding object and extracts the feature points for each of the obtained three- can do.

본 발명의 실시예들에 따르면, 2D 형광 투시 영상과 3D CT 영상 정합 기반으로 2D 형광 투시 영상의 호흡 상태와 일치하는 3D 영상을 자동으로 찾아 가이드 영상으로 사용함으로써, 시술 중 실시간으로 정확한 종양의 위치를 모니터링 할 수 있다.According to embodiments of the present invention, a 3D image matching a breathing state of a 2D fluoroscopic image based on a 2D fluoroscopic image and a 3D CT image matching is automatically found and used as a guide image, Can be monitored.

본 발명의 실시예들에 따르면, 심장 움직임과 호흡 움직임이 동시에 있는 영역에서 두 움직임을 모두 제어하지 않은 상황에서도 정합이 가능하도록 하여 알고리즘의 복잡도를 낮추는 것은 물론 피 시술자의 피폭량도 줄일 수 있다.According to the embodiments of the present invention, it is possible to perform matching even in a situation where both movement of both heart and breath are not controlled, thereby reducing the complexity of the algorithm and reducing the dose of the operator.

도 1은 본 발명의 일 실시예에 따른 영상 정합 기반의 치료 가이딩 방법에 대한 동작 흐름도를 나타낸 것이다.
도 2는 도 1에 도시된 단계 S130에 대한 일 실시예 동작 흐름도를 나타낸 것이다.
도 3은 도 1에 도시된 단계 S140에 대한 일 실시예 동작 흐름도를 나타낸 것이다.
도 4는 실시간 2D 형광 투시 영상과 3D CT 영상 간 정합을 설명하기 위한 예시도를 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 영상 정합 기반의 치료 가이딩 시스템에 대한 구성을 나타낸 것이다.
FIG. 1 is a flowchart illustrating an operation of the image matching-based treatment guiding method according to an exemplary embodiment of the present invention.
FIG. 2 shows an operational flow chart of an embodiment of step S130 shown in FIG.
FIG. 3 shows an operational flow diagram of an embodiment of step S140 shown in FIG.
FIG. 4 is a diagram illustrating an example of matching between a real-time 2D fluoroscopic image and a 3D CT image.
FIG. 5 illustrates a configuration of a therapeutic matching guiding system based on an image matching according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

본 발명의 실시예들은, 2D 형광 투시 영상과 3D CT 영상 정합 기반으로 2D 형광 투시 영상의 호흡 상태와 일치하는 3D 영상을 자동으로 찾아 가이드 영상으로 사용함으로써, 시술 중 실시간으로 정확한 종양의 위치를 모니터링 할 수 있으며, 심장 움직임과 호흡 움직임이 동시에 있는 영역에서 두 움직임을 모두 제어하지 않은 상황에서도 정합이 가능하도록 하여 알고리즘의 복잡도를 낮추고, 피 시술자의 피폭량도 줄이는 것을 그 요지로 한다.Embodiments of the present invention can automatically detect and monitor the position of a tumor in real time during a procedure by automatically searching for a 3D image matching a breathing state of a 2D fluoroscopic image based on the 2D fluoroscopic image and the 3D CT image matching, In addition, it is possible to reduce the complexity of the algorithm and reduce the dose of the operator by making it possible to perform matching even when both movements are not controlled in the area where heart movement and respiration movement are simultaneously present.

도 1은 본 발명의 일 실시예에 따른 영상 정합 기반의 치료 가이딩 방법에 대한 동작 흐름도를 나타낸 것이다.FIG. 1 is a flowchart illustrating an operation of the image matching-based treatment guiding method according to an exemplary embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 정합 기반의 치료 가이딩 방법은 환자의 미리 설정된 관심 영역(ROI; region of interest) 즉, 종양 치료를 위한 가이딩 대상을 포함하는 영역에 대한 2D 형광 투시(fluoroscopy) 영상과 복수의 호흡들 각각에 대한 3D CT 영상들을 획득한다(S110).As shown in FIG. 1, the image matching-based therapy guiding method according to the embodiment of the present invention includes a predetermined region of interest (ROI) of a patient, that is, a region including a guiding object for tumor treatment A 3D fluoroscopic image and a plurality of 3D CT images are acquired for each of the plurality of breaths (S110).

여기서, 2D 형광 투시 영상은 가이딩 대상이 되는 관심 영역을 형광 투시 장치에 의해 실시간으로 촬영되어 획득될 수 있으며, 3D CT 영상을 CT 장치에 의해 촬영되어 획득될 수 있다.Here, the 2D fluoroscopic image can be obtained by photographing in real time the fluoroscopy apparatus with the region of interest to be guided, and the 3D CT image can be obtained by being photographed by the CT apparatus.

단계 S110에 의해 관심 영역에 대한 2D 형광 투시 영상과 호흡들에 대한 3D CT 영상들이 획득되면 획득된 3D CT 영상들 각각에 대한 특징점을 추출하고, 추출된 특징점을 이용한 3D CT 영상들 간 정합(matching)을 통해 4D CT 영상을 형성한다(S120, S130).When the 2D fluoroscopic image for the region of interest and the 3D CT images for the breaths are obtained in Step S110, the feature points for the obtained 3D CT images are extracted, and the matching between the 3D CT images using the extracted feature points To form a 4D CT image (S120, S130).

단계 S120의 특징점을 추출하는 과정에 대해 설명하면 다음과 같다.A process of extracting the minutiae point of step S120 will be described below.

3D CT 영상의 특징점은 개별 비강체 정합을 위해 분리해야 하는 특정 장기나, 정합을 위하여 사용될 특정 장기를 일컫는 것으로, 개별 비강체 정합을 위해 분리해야 하는 특정 장기는 가이딩 대상의 인근 영역(또는 관련 영역)과 움직임의 반복 패턴이 동일하지 않은 장기를 의미하며, 일반적으로 가이딩 대상은 신체 내부 장기 인근에 존재하므로, 이와는 움직임 패턴이 다를 수 있는 갈비뼈 (rib)나 척추 (spine) 등이 이에 포함될 수 있다. The feature points of 3D CT images refer to specific organs to be separated for individual non-rigid body matching, or specific organs to be used for matching, and specific organs to be separated for individual non-rigid body matching are the adjacent regions (or related And the repeated pattern of movement is not the same. Generally, the guiding object is located near the internal organs of the body. Therefore, the rib and the spine, which may have different movement patterns, .

정합(또는 매칭)을 위하여 사용될 특정 장기는 가이딩 대상과 움직임의 반복 패턴이 동일한 장기 중에 선택될 수 있으며, 2D 형광 투시 영상과 3D CT 영상의 두 영상에서 뚜렷이 확인 가능하여 정합에 사용되기 용이한 장기를 의미할 수 있는데, 일반적으로 혈관(vessel) 등을 이용할 수 있다.The specific organs to be used for matching (or matching) can be selected among organs with the same repetitive patterns of motion and motion, and can be clearly identified in two images of 2D fluoroscopy and 3D CT images, It can mean a organ, usually a vessel or the like can be used.

상술한 여러 특징점들은 영상의 강도(intensity)나 그래디언트(gradient) 정보 등을 이용하여 사전에 추출(segmentation)될 수 있다.The above-described various feature points can be segmented in advance using intensity or gradient information of the image.

단계 S130의 4D 영상을 형성하는 과정에 대해 도 2를 참조하여 설명하면 다음과 같다.The process of forming the 4D image in step S130 will be described with reference to FIG.

4D 영상을 형성하는 단계 S130은 상기 3D CT 영상들을 환자의 호흡 순서로 나열한 후 인접한 3D CT 영상들 간 정합을 통해 가이딩 대상에 대한 움직임 패턴을 도출하고, 도출된 움직임 패턴에 기초하여 4D CT 영상을 형성한다(S210 내지 S230).In step S130 of forming the 4D image, the 3D CT images are arranged in the respiration order of the patient, and the movement pattern for the guiding object is derived through matching between the adjacent 3D CT images. Based on the derived motion pattern, (S210 to S230).

가이딩 대상 인근 영역은 호흡에 따라 특정 반복 패턴으로 운동하므로, 서로 다른 운동상태를 가지도록 여러 개의 3D CT 영상을 획득한다. 예컨대, 호흡 상태 별로 여러 장의 3D CT영상들을 순서대로 획득하거나, 최대 날숨 상태에서 1회, 최대 들숨 상태에서 1회 획득할 수도 있으며, 획득되는 각 영상은 저선량 촬영에 의해 획득될 수도 있다.Since the area around the guiding target moves with a specific pattern according to the respiration, several 3D CT images are acquired so as to have different motion states. For example, a plurality of 3D CT images may be sequentially acquired for each respiratory state, one at a maximum expiratory state, or one at a maximum inhalation state, and each acquired image may be acquired by a low dose photographing.

그리고, 단계 S220에 의해 인접한 3D CT 영상간 비강체 정합을 통해 움직임 패턴이 도출되면 도출된 움직임 패턴을 이용한 영상 보간을 수행하여 호흡과 호흡 사이의 추가적인 영상을 생성할 수도 있다.If a motion pattern is derived through non-rigid body matching between adjacent 3D CT images in step S220, an additional image between breathing and breathing may be generated by performing image interpolation using the derived motion pattern.

여기서, 단계 S130의 4D 영상을 형성하는 과정은 3D CT 영상의 특징점을 추출할 때 정합을 위하여 사용될 특정 장기가 있는 경우 해당 특정 장기도 각 3D CT 영상에서 추출을 수행하거나, 단계 S220에서 도출된 움직임 패턴으로 영상 보간을 수행하여 여러 개의 3D 특징점을 형성할 수 있다.Here, in the process of forming the 4D image in step S130, when extracting the feature points of the 3D CT image, if there is a specific organ to be used for matching, the specific organ is extracted from each 3D CT image, Pattern interpolation can be performed to form a plurality of 3D feature points.

4D CT 영상은 상술한 여러 개의 3D CT 영상을 의미할 수 있다.The 4D CT image may refer to the above-described 3D CT images.

다시 도 1을 참조하면, 단계 S130에 의해 4D CT 영상이 형성되면, 형성된 4D CT 영상에 대한 2D 투영(projection) 영상들을 생성하고, 생성된 2D 투영 영상들 중 2D 투영 형광 투시 영상과 가장 유사한 2D 투영 영상을 선택한다(S140, S150).Referring again to FIG. 1, when a 4D CT image is formed in step S130, 2D projection images of the formed 4D CT image are generated, and the 2D projection image, which is most similar to the 2D projection fluoroscopic image, A projection image is selected (S140, S150).

여기서, 단계 S140은 도 3에 도시된 바와 같이 2D 형광 투시 영상의 뷰잉 각도(viewing angle)와 이동 좌표를 장비 예를 들어, 2D 형광 투시 장치로부터 획득하고, 획득된 뷰잉 각도와 이동 좌표에 기초하여 4D CT 영상을 변환하고, 변환된 4D CT 영상을 2D 형광 투시 영상의 뷰잉 각도로 투영하여 2D 투영 영상 후보군을 형성할 수 있으며(S310, S320), 단계 S150은 형성된 2D 투영 영상 후보군의 2D 투영 영상들과 2D 형광 투시 영상의 정합을 통해 2D 형광 투시 영상과 가장 유사한 2D 투영 영상을 선택할 수 있다.Here, step S140 is a step of acquiring a viewing angle and a moving coordinate of the 2D fluoroscopic image from the equipment, for example, a 2D fluoroscopic apparatus as shown in FIG. 3, and based on the obtained viewing angle and moving coordinates 4D CT image, and the converted 4D CT image is projected at a viewing angle of the 2D fluoroscopic image to form a 2D projection image candidate group (S310, S320). In step S150, a 2D projection image of the formed 2D projection image candidate group And a 2D projection image can be selected by matching the 2D fluoroscopic image with the 2D fluoroscopic image.

상기 단계 S140과 S150은 2D 형광 투시 영상과의 정합 단계에 해당하며, 이러한 2D 형광 투시 영상과의 정합 단계에서, 단계 S140은 변환된 4D CT 영상을 디지털 투영(digital projection)을 통해 2D 형광 투시 영상과 동일한 뷰잉 각도를 가지는 2D 투영 영상 후보군을 형성할 수 있는데, 형성된 2D 투영 영상 후보군은 서로 다른 호흡 위상(phase)에 따른 장기의 형태 정보를 각각 반영하고 있을 수 있다.Step S140 and step S150 correspond to the step of matching the 2D fluoroscopic image. In step S140, the transformed 4D CT image is digitally projected through a 2D fluoroscopic image The 2D projection image candidate group having the same viewing angle as that of the 2D projection image candidate group may be formed, and the formed 2D projection image candidate group may reflect the morphological information of the organ according to different breathing phases.

단계 S150은 2D 투영 영상 후보군 중에서 현재 실시간으로 획득된 2D 형광 투영 영상과 비교하여 2D 형광 투영 영상과 가장 일치하는 하나의 2D 투영 영상을 선택한다.Step S150 is to compare a 2D fluorescence projection image obtained in the current real-time from the 2D projection image candidate group to select one 2D projection image that best matches the 2D fluorescence projection image.

여기서, 3D CT 영상으로부터 특징점을 추출할 때 정합을 위하여 사용될 특정 장기가 있는 경우 해당 특정 장기를 이용하여 2D 형광 투시 영상과 2D 투영 영상 후보군의 2D 투영 영상들의 정합을 수행함으로써, 가장 유사한 2D 투영 영상을 선택할 수 있다.Here, when extracting feature points from the 3D CT image, if there are specific organs to be used for matching, matching of the 2D projection images of the 2D fluoroscopic image and the 2D projection image candidates using the specific organs is performed, Can be selected.

그리고, 가이딩 대상의 위치가 호흡의 움직임과 심장의 움직임이 동시에 있는 영역인 경우에는 매칭이 어려운 경우가 있으며, 단계 S130에서 형성된 4D CT영상은 호흡에 따른 움직임은 반영하고 있지만 심장의 움직임에 의한 변형은 반영하고 있지 않기 때문에, 심장이 움직이는 순간에 촬영하여 획득한 2D 형광 투시 영상에서의 정합 대상 장기의 형태와 정확히 일치하는 장기의 형태가 2D 투영 영상 후보군 중에 존재 하지 않을 수도 있다.In the case where the position of the guiding object is the area where the motion of the respiration and the movement of the heart are simultaneously present, matching is difficult. In the 4D CT image formed in step S130, The shape of the organs that exactly match the shape of the object to be matched in the 2D fluoroscopic image captured and acquired at the moment of movement of the heart may not be present in the 2D projection image candidates.

본 발명에서는 상술한 문제를 심장의 움직임에 대한 정합 척도(matching measure)의 가중치는 줄이고 호흡 움직임에 대한 정합 척도의 가중치를 높이는 방법을 사용함으로써, 해결할 수 있으며, 이에 대한 내용을 아래 <수학식 1>과 같이 나타낼 수 있다.In the present invention, the above-mentioned problem can be solved by using a method of reducing the weight of the matching measure for the motion of the heart and increasing the weight of the matching scale for the breathing motion. &Gt;

[수학식 1][Equation 1]

Figure 112016114785018-pat00001
Figure 112016114785018-pat00001

Figure 112016114785018-pat00002
Figure 112016114785018-pat00002

Figure 112016114785018-pat00003
Figure 112016114785018-pat00003

Figure 112016114785018-pat00004
Figure 112016114785018-pat00004

Figure 112016114785018-pat00005
Figure 112016114785018-pat00005

Figure 112016114785018-pat00006
Figure 112016114785018-pat00006

Figure 112016114785018-pat00007
Figure 112016114785018-pat00007

여기서, IF,k 는 도 4에 도시된 바와 같이 타겟 영상인 2D 형광 투시 영상의 k번째 프레임을 의미하며, Pv ,n 은 도 4에 도시된 바와 같이 2D 투영 영상 후보군 중 n 번째 후보 영상을 의미하고, ∇σ 는 가우시안 블러드 영상(Gaussian blurred image)의 그래디언트를 의미하며, N(IF,k, Pv ,n) 는 일반적인 NMI 측정을 의미할 수 있다.As shown in FIG. 4, I F, k denotes a k-th frame of a 2D fluoroscopic image, which is a target image, as shown in FIG. 4. P v , n denotes an n-th candidate image , ∇σ means a gradient of a Gaussian blurred image, and N (I F, k , P v , n ) can mean a general NMI measurement.

상술한 수학식 1은 정합 척도로 널리 이용되는 GNMI의 수학식을 변형한 것으로, G(I F,k, P v ,n)는 정합 척도의 가중치 항목이며, 기존의 GNMI의 가중치인

Figure 112016114785018-pat00008
에 호흡에 의한 움직임과 타겟 오브젝트의 그래디언트의 일치 여부에 따른 가중치 항목
Figure 112016114785018-pat00009
을 추가한 형태로서, 폐 영역에서 호흡의 움직임 방향과 심장의 움직임 방향이 다름을 이용하여 호흡의 움직임의 방향 따라 민감하게 반응 할 수 있는 영역의 가중치만 남기고 나머지 가중치를 낮추는 형태로 구성될 수 있다.
Figure 112016114785018-pat00010
에서, v resp는 2D 도메인에서 호흡의 방향 벡터를 의미할 수 있다. 이와 같은 형태의 가중치는 GNMI가 아니라 다른 정합 척도에도 적용하여 사용할 수 있다.G ( I F, k , P v , n ) is a weighted item of the matching scale, and is a weight of the existing GNMI
Figure 112016114785018-pat00008
A weight item according to whether the movement by the respiration and the gradient of the target object coincide with each other
Figure 112016114785018-pat00009
, It can be composed of a form in which only the weight of the region that can react sensitively to the direction of the respiratory movement is left and the remaining weight is lowered by using the difference between the direction of movement of the respiration and the direction of movement of the heart in the lung region .
Figure 112016114785018-pat00010
, V resp can be the direction vector of respiration in the 2D domain. This type of weighting can be applied to other matching scales, not GNMI.

상술한 바와 같이, 2D 형광 투시 영상과 가장 유사한 2D 투영 영상을 선택하는 단계 S150은 가이딩 대상의 위치가 호흡의 움직임과 심장의 움직임이 동시에 있는 영역인 경우 심장의 움직임에 의한 정합의 가중치와 호흡의 움직임에 의한 정합의 제2 가중치를 반영하고, 반영된 제1 가중치와 제2 가중치를 제어 예를 들어, 제1 가중치를 낮게 하고 제2 가중치를 높게 함으로써, 2D 형광 투시 영상과 가장 유사한 2D 투영 영상을 선택할 수 있다.As described above, the step S150 for selecting the 2D projection image most similar to the 2D fluoroscopic image is performed when the position of the guiding object is the area where the movement of the breath and the movement of the heart are simultaneously present. For example, by controlling the reflected first weight and the second weight so that the first weight is made lower and the second weight is made higher, a 2D projection image which is most similar to the 2D fluoroscopic image can be obtained by controlling the reflected first weight and the second weight, Can be selected.

단계 S150에서 2D 형광 투시 영상과 가장 유사한 2D 투영 영상이 선택되면 선택된 2D 투영 영상에 기초하여 정합 결과 기반의 가이딩 정보를 제공한다(S160).If the 2D projection image most similar to the 2D fluoroscopic image is selected in step S150, matching information-based guiding information is provided based on the selected 2D projection image (S160).

여기서, 단계 S160는 적용되는 어플리케이션 마다 가이딩 정보 예를 들어, 가이딩 위치를 출력하는 것이 다르게 적용될 수 있다. 예를 들어, 3D CT 영상으로부터 사전에 확인된 가이딩 대상의 3D 위치 정보가 존재 한다면, 이를 4D 좌표로 변형 한 후, 정합된 영상의 3D 위치 정보를 현재 대표 위치 정보로 사용 할 수 있다. 또한 3D CT 영상으로부터 해당 위치의 단면을 실시간으로 입력되는 2D 형광 투시 영상에 오버랩(overlap)하여 이용하는 방법을 사용할 수도 있다.Here, in step S160, guiding information for each application to be applied, for example, outputting the guiding position may be applied differently. For example, if the 3D position information of the guiding object, which is previously confirmed from the 3D CT image, exists, the 3D position information of the matched image can be used as the current representative position information after transforming it to the 4D coordinate. Alternatively, a method may be used in which a cross section of a corresponding position is overlapped with a 2D fluoroscopic image input in real time from a 3D CT image.

이와 같이, 본 발명의 실시예에 따른 방법은 2D 형광 투시 영상과 3D CT 영상 정합 기반으로 2D 형광 투시 영상의 호흡 상태와 일치하는 3D 영상을 자동으로 찾아 가이드 영상으로 사용함으로써, 시술 중 실시간으로 정확한 종양의 위치를 모니터링 할 수 있다.As described above, according to the embodiment of the present invention, the 3D image matching the breathing state of the 2D fluoroscopic image based on the 2D fluoroscopic image and the 3D CT image matching is automatically found and used as the guide image, The location of the tumor can be monitored.

또한, 본 발명에 실시예에 따른 방법은 심장 움직임과 호흡 움직임이 동시에 있는 영역에서 두 움직임을 모두 제어하지 않은 상황에서도 정합이 가능하도록 하여 알고리즘의 복잡도를 낮추는 것은 물론 피 시술자의 피폭량도 낮출 수 있다.In addition, the method according to the embodiment of the present invention enables matching even in a case where both movement of both heart and breath are not controlled, thereby lowering the complexity of the algorithm and lowering the dose of the subject .

또한, 본 발명의 실시예들에 따른 방법은 2D 형광 투시 영상과 3D CT영상 간의 정합을 통해 시술 중 실시간으로 정확한 종양의 위치를 모니터링 할 수 있다.In addition, the method according to embodiments of the present invention can accurately monitor the position of the tumor in real time during the procedure through matching between the 2D fluoroscopic image and the 3D CT image.

도 5는 본 발명의 일 실시예에 따른 영상 정합 기반의 치료 가이딩 시스템에 대한 구성을 나타낸 것으로, 상술한 도 1 내지 도 4의 방법을 수행하는 시스템에 대한 구성을 나타낸 것이다.FIG. 5 illustrates a configuration of a video matching-based therapeutic guiding system according to an embodiment of the present invention, and shows a configuration of a system for performing the methods of FIGS. 1 to 4 described above.

도 5를 참조하면, 본 발명의 실시예에 따른 시스템(500)은 획득부(510), 추출부(520), 형성부(530), 선택부(540) 및 제공부(550)를 포함한다.5, a system 500 according to an embodiment of the present invention includes an acquiring unit 510, an extracting unit 520, a forming unit 530, a selecting unit 540, and a providing unit 550 .

획득부(510)는 환자의 미리 설정된 관심 영역(ROI)에 대한 2D 형광 투시 영상과 복수의 호흡들 각각에 대한 3D CT 영상을 획득한다.The acquisition unit 510 acquires a 2D fluoroscopic image for a predetermined ROI of the patient and a 3D CT image for each of a plurality of breaths.

추출부(520)는 획득된 3D CT 영상들 각각에 대한 특징점을 추출한다.The extraction unit 520 extracts feature points for each of the obtained 3D CT images.

이 때, 추출부(520)는 가이딩 대상의 관련 영역(또는 인근 영역)과 움직임의 반복 패턴이 동일한 장기들과 상이한 장기들을 분리하고, 움직임의 반복 패턴이 동일한 장기들로부터 획득된 3D CT 영상들 각각에 대한 특징점을 추출할 수 있다.At this time, the extracting unit 520 separates the organs and the organs having the same repetitive pattern of motion with the related region (or the neighboring region) of the guiding object, extracts 3D CT images The minutiae points for each of them can be extracted.

형성부(530)는 추출된 특징점을 이용한 3D CT 영상들 간의 정합을 통해 4D CT 영상을 형성한다.The forming unit 530 forms a 4D CT image through matching between 3D CT images using the extracted feature points.

이 때, 형성부(530)는 3D CT 영상들을 환자의 호흡 순서로 나열한 후 인접한 3D CT 영상들 간 정합을 통해 가이딩 대상에 대한 움직임 패턴을 도출하고, 도출된 움직임 패턴에 기초하여 4D CT 영상을 형성할 수 있다.At this time, the forming unit 530 arranges the 3D CT images in the respiration order of the patient, and then derives the movement pattern for the guiding object through the matching between the adjacent 3D CT images. Based on the derived motion pattern, Can be formed.

선택부(540)는 형성된 4D CT 영상에 대한 2D 투영 영상들과 2D 형광 투시 영상의 정합을 통해 2D 형광 투시 영상과 가장 유사한 2D 투영 영상을 선택한다.The selection unit 540 selects the 2D projection image most similar to the 2D fluoroscopic image through matching of the 2D projection images with the 2D projection images of the formed 4D CT image.

이 때, 선택부(540)는 가이딩 대상의 위치가 호흡의 움직임과 심장의 움직임이 동시에 있는 영역인 경우 심장의 움직임에 의한 정합 척도의 가중치와 호흡의 움직임에 의한 정합 척도의 가중치를 반영하고, 반영된 가중치들을 상이하게 제어함으로써, 2D 형광 투시 영상과 가장 유사한 2D 투영 영상을 선택할 수 있다 예컨대, 선택부는 심장 움직임에 대한 정합 척도의 가중치를 줄이고, 호흡 움직임에 의한 정합 척도의 가중치를 높임으로써, 심장 움직임에 의한 영향을 최소화하여 타겟 영상인 2D 형광 투시 영상과 가장 유사한 2D 투시 영상을 선택할 수 있다.At this time, the selector 540 reflects the weight of the matching scale due to the motion of the heart and the weight of the matching scale due to the movement of the respiration when the position of the guiding object is the area where the movement of the breath and the movement of the heart are simultaneously present For example, the selector may reduce the weight of the matching scale for cardiac movements and increase the weight of the matching scale by breathing movements, By minimizing the effect of cardiac movements, the 2D fluoroscopic image, which is the target image, can be selected most similar to the 2D fluoroscopic image.

나아가, 선택부(540)는 4D CT 영상을 2D 형광 투시 영상의 뷰잉 각도와 이동 좌표에 기초하여 변환하고, 변환된 4D CT 영상을 2D 형광 투시 영상의 뷰잉 각도로 투영하여 2D 투영 영상 후보군을 형성하며, 2D 투영 영상 후보군의 2D 투영 영상들과 2D 형광 투시 영상의 정합을 통해 2D 형광 투시 영상과 가장 유사한 2D 투영 영상을 선택할 수 있다.Further, the selecting unit 540 converts the 4D CT image based on the viewing angle and the moving coordinate of the 2D fluoroscopic image, and projects the converted 4D CT image to the viewing angle of the 2D fluoroscopic image to form a 2D projection image candidate group And a 2D projection image, which is most similar to the 2D fluoroscopic image, can be selected through the matching of the 2D projection images of the 2D projection image candidate group and the 2D fluoroscopic image.

제공부(550)는 선택부(540)에 의해 선택된 2D 투영 영상에 기초하여 정합 결과 기반의 가이딩 대상에 대한 정보를 제공한다.The providing unit 550 provides information on the guiding object based on the matching result based on the 2D projection image selected by the selecting unit 540. [

본 발명의 실시예에 따른 장치는 도 5 에 기재된 내용 뿐만 아니라 상술한 도 1 내지 도4의 내용을 모두 포함할 수 있다.The apparatus according to the embodiment of the present invention may include not only the contents described in FIG. 5 but also the contents of FIGS. 1 to 4 described above.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the systems, devices, and components described in the embodiments may be implemented in various forms such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array ), A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to embodiments may be implemented in the form of a program instruction that may be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI &gt; or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (10)

획득부에서 환자의 미리 설정된 관심 영역(ROI)에 대한 2차원 형광 투시 영상과 복수의 호흡들 각각에 대한 3차원 CT 영상을 획득하는 단계;
추출부에서 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 단계;
형성부에서 상기 추출된 특징점을 이용한 상기 3차원 CT 영상들 간의 정합을 통해 4차원 CT 영상을 형성하는 단계;
선택부에서 상기 형성된 4차원 CT 영상에 대한 2차원 투영(projection) 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 2차원 형광 투시 영상과 가장 유사한 2차원 투영 영상을 선택하는 단계; 및
제공부에서 상기 선택된 2차원 투영 영상에 기초하여 상기 관심 영역의 가이딩 대상에 대한 정보를 제공하는 단계
를 포함하고,
상기 가장 유사한 2차원 투영 영상을 선택하는 단계는
상기 가이딩 대상의 위치가 호흡의 움직임과 심장의 움직임이 동시에 있는 영역인 경우 상기 심장의 움직임에 의한 정합의 제1 가중치와 상기 호흡의 움직임에 의한 정합의 제2 가중치를 반영하고, 상기 반영된 제1 가중치와 제2 가중치를 제어함으로써, 상기 가장 유사한 2차원 투영 영상을 선택하는 영상 정합 기반 치료 가이딩 방법.
Acquiring a two-dimensional fluoroscopic image and a three-dimensional CT image for each of a plurality of breaths with respect to a predetermined ROI of a patient in an acquiring unit;
Extracting feature points for each of the obtained three-dimensional CT images in an extraction unit;
Forming a four-dimensional CT image by matching the three-dimensional CT images using the extracted feature points in a forming unit;
Selecting a two-dimensional projection image most similar to the two-dimensional fluoroscopic image through matching of two-dimensional projection images of the formed four-dimensional CT image with the two-dimensional fluoroscopic image; And
Providing information on an object to be guided in the ROI based on the selected two-dimensional projection image in the provisioning step
Lt; / RTI &gt;
The step of selecting the most similar two-dimensional projection image
The first weight of the matching due to the motion of the heart and the second weight of the matching due to the motion of the respiration when the position of the guiding object is a region in which breathing movement and heart movement are simultaneously present, 1 &lt; / RTI &gt; weighted image and the second weighted value, thereby selecting the most similar two-dimensional projection image.
삭제delete 제1항에 있어서,
상기 4차원 CT 영상을 형성하는 단계는
상기 3차원 CT 영상들을 상기 환자의 호흡 순서로 나열한 후 인접한 3차원 CT 영상들 간 정합을 통해 상기 가이딩 대상에 대한 움직임 패턴을 도출하는 단계; 및
상기 도출된 움직임 패턴에 기초하여 상기 4차원 CT 영상을 형성하는 단계
를 포함하는 것을 특징으로 하는 영상 정합 기반 치료 가이딩 방법.
The method according to claim 1,
The step of forming the 4-dimensional CT image
Arranging the three-dimensional CT images in a breathing order of the patient, and deriving a movement pattern for the guiding object through matching between adjacent three-dimensional CT images; And
Forming the 4-dimensional CT image based on the derived motion pattern
Wherein the image matching based therapy guiding method comprises:
제1항에 있어서,
상기 가장 유사한 2차원 투영 영상을 선택하는 단계는
상기 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도와 이동 좌표에 기초하여 변환하고, 상기 변환된 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도로 투영하여 2차원 투영 영상 후보군을 형성하며, 상기 형성된 2차원 투영 영상 후보군의 2차원 투영 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 가장 유사한 2차원 투영 영상을 선택하는 것을 특징으로 하는 영상 정합 기반 치료 가이딩 방법.
The method according to claim 1,
The step of selecting the most similar two-dimensional projection image
Dimensional fluoroscopic image based on a viewing angle and a moving coordinate of the two-dimensional fluoroscopic image, and projecting the converted four-dimensional CT image to a viewing angle of the two-dimensional fluoroscopic image to obtain a two- Dimensional projection images, and selecting the most similar two-dimensional projection image through matching of the two-dimensional projection images of the formed two-dimensional projection image candidate group and the two-dimensional fluoroscopic vision image.
제1항에 있어서,
상기 특징점을 추출하는 단계는
상기 가이딩 대상의 관련 영역과 움직임의 반복 패턴이 동일한 장기들과 상이한 장기들을 분리하는 단계; 및
상기 움직임의 반복 패턴이 동일한 장기들로부터 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 단계
를 포함하는 것을 특징으로 하는 영상 정합 기반 치료 가이딩 방법.
The method according to claim 1,
The step of extracting the feature points
Separating organs different from organs having the same repetitive pattern of motion as the related region of the guiding object; And
Extracting feature points for each of the obtained three-dimensional CT images from the same organs having the repeated patterns of motion
Wherein the image matching based therapy guiding method comprises:
환자의 미리 설정된 관심 영역(ROI)에 대한 2차원 형광 투시 영상과 복수의 호흡들 각각에 대한 3차원 CT 영상을 획득하는 획득부;
상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 추출부;
상기 추출된 특징점을 이용한 상기 3차원 CT 영상들 간의 정합을 통해 4차원 CT 영상을 형성하는 형성부;
상기 형성된 4차원 CT 영상에 대한 2차원 투영(projection) 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 2차원 형광 투시 영상과 가장 유사한 2차원 투영 영상을 선택하는 선택부; 및
상기 선택된 2차원 투영 영상에 기초하여 상기 관심 영역의 가이딩 대상에 대한 정보를 제공하는 제공부
를 포함하고,
상기 선택부는
상기 가이딩 대상의 위치가 호흡의 움직임과 심장의 움직임이 동시에 있는 영역인 경우 상기 심장의 움직임에 의한 정합의 제1 가중치와 상기 호흡의 움직임에 의한 정합의 제2 가중치를 반영하고, 상기 반영된 제1 가중치와 제2 가중치를 제어함으로써, 상기 가장 유사한 2차원 투영 영상을 선택하는 영상 정합 기반 치료 가이딩 시스템.
An acquiring unit acquiring a two-dimensional fluoroscopic image for a predetermined ROI of a patient and a three-dimensional CT image for each of a plurality of breaths;
An extraction unit for extracting feature points for each of the obtained three-dimensional CT images;
A forming unit for forming a four-dimensional CT image by matching the three-dimensional CT images using the extracted feature points;
A selection unit for selecting a two-dimensional projection image most similar to the two-dimensional fluoroscopic image through matching of two-dimensional projection images of the formed four-dimensional CT image with the two-dimensional fluoroscopic image; And
And providing information on an object to be guided in the ROI based on the selected two-
Lt; / RTI &gt;
The selection unit
The first weight of the matching due to the motion of the heart and the second weight of the matching due to the motion of the respiration when the position of the guiding object is a region in which breathing movement and heart movement are simultaneously present, 1 &lt; / RTI &gt; weighting and second weighting, thereby selecting the most similar two-dimensional projection image.
삭제delete 제6항에 있어서,
상기 형성부는
상기 3차원 CT 영상들을 상기 환자의 호흡 순서로 나열한 후 인접한 3차원 CT 영상들 간 정합을 통해 상기 가이딩 대상에 대한 움직임 패턴을 도출하고, 상기 도출된 움직임 패턴에 기초하여 상기 4차원 CT 영상을 형성하는 것을 특징으로 하는 영상 정합 기반 치료 가이딩 시스템.
The method according to claim 6,
The forming portion
Dimensional CT images are arranged in the respiration order of the patient, and a movement pattern for the guiding object is derived through matching between adjacent three-dimensional CT images, and the 4-dimensional CT image is generated based on the derived movement pattern Wherein the image-matching-based therapy guiding system comprises:
제6항에 있어서,
상기 선택부는
상기 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도와 이동 좌표에 기초하여 변환하고, 상기 변환된 4차원 CT 영상을 상기 2차원 형광 투시 영상의 뷰잉 각도로 투영하여 2차원 투영 영상 후보군을 형성하며, 상기 형성된 2차원 투영 영상 후보군의 2차원 투영 영상들과 상기 2차원 형광 투시 영상의 정합을 통해 상기 가장 유사한 2차원 투영 영상을 선택하는 것을 특징으로 하는 영상 정합 기반 치료 가이딩 시스템.
The method according to claim 6,
The selection unit
Dimensional fluoroscopic image based on a viewing angle and a moving coordinate of the two-dimensional fluoroscopic image, and projecting the converted four-dimensional CT image to a viewing angle of the two-dimensional fluoroscopic image to obtain a two- Dimensional projected image, and selects the most similar two-dimensional projection image through matching of the two-dimensional projection images of the formed two-dimensional projection image candidate group and the two-dimensional fluoroscopic vision image.
제6항에 있어서,
상기 추출부는
상기 가이딩 대상의 관련 영역과 움직임의 반복 패턴이 동일한 장기들과 상이한 장기들을 분리하고, 상기 움직임의 반복 패턴이 동일한 장기들로부터 상기 획득된 3차원 CT 영상들 각각에 대한 특징점을 추출하는 것을 특징으로 하는 영상 정합 기반 치료 가이딩 시스템.
The method according to claim 6,
The extracting unit
Dimensional CT images are extracted from the same organs in which the repetitive patterns of motion are separated from the organs having the same repetition pattern of movement as the related region of the guiding object and different organs different from each other, Based matching guiding system.
KR1020160156725A 2016-11-23 2016-11-23 Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image KR101876643B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160156725A KR101876643B1 (en) 2016-11-23 2016-11-23 Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160156725A KR101876643B1 (en) 2016-11-23 2016-11-23 Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image

Publications (2)

Publication Number Publication Date
KR20180058071A KR20180058071A (en) 2018-05-31
KR101876643B1 true KR101876643B1 (en) 2018-07-13

Family

ID=62454685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160156725A KR101876643B1 (en) 2016-11-23 2016-11-23 Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image

Country Status (1)

Country Link
KR (1) KR101876643B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11419574B2 (en) 2019-03-08 2022-08-23 Samsung Medison Co., Ltd. Ultrasound imaging apparatus, method of controlling the same, and computer program product

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102383753B1 (en) * 2021-06-10 2022-04-08 메디컬아이피 주식회사 Medical image registration method and apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090127100A (en) * 2008-06-05 2009-12-09 주식회사 메디슨 System and method for extracting anatomical feature
JP2012505009A (en) * 2008-10-10 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Angiographic image acquisition system and method with automatic shutter adaptation to provide a reduced field of view covering segmented target structures or lesions to reduce x-ray dose in minimally invasive x-ray guided interventions
KR20150045885A (en) * 2013-10-21 2015-04-29 삼성전자주식회사 Systems and methods for registration of ultrasound and ct images
KR20150118484A (en) * 2014-04-14 2015-10-22 삼성전자주식회사 Method and Apparatus for medical image registration
KR101613159B1 (en) * 2014-12-31 2016-04-20 오스템임플란트 주식회사 Automatic dental image registration method, apparatus, and recording medium thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090127100A (en) * 2008-06-05 2009-12-09 주식회사 메디슨 System and method for extracting anatomical feature
JP2012505009A (en) * 2008-10-10 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Angiographic image acquisition system and method with automatic shutter adaptation to provide a reduced field of view covering segmented target structures or lesions to reduce x-ray dose in minimally invasive x-ray guided interventions
KR20150045885A (en) * 2013-10-21 2015-04-29 삼성전자주식회사 Systems and methods for registration of ultrasound and ct images
KR20150118484A (en) * 2014-04-14 2015-10-22 삼성전자주식회사 Method and Apparatus for medical image registration
KR101613159B1 (en) * 2014-12-31 2016-04-20 오스템임플란트 주식회사 Automatic dental image registration method, apparatus, and recording medium thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
일본 공표특허공보 특표2012-505009호(2012.03.01.) 1부. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11419574B2 (en) 2019-03-08 2022-08-23 Samsung Medison Co., Ltd. Ultrasound imaging apparatus, method of controlling the same, and computer program product

Also Published As

Publication number Publication date
KR20180058071A (en) 2018-05-31

Similar Documents

Publication Publication Date Title
CN108403135B (en) The method and system of the computer tomography scanning of the injectivity optimizing of target organ
KR102114415B1 (en) Method and Apparatus for medical image registration
KR101932721B1 (en) Method and Appartus of maching medical images
KR102094502B1 (en) Method and Apparatus for performing registraton of medical images
US10716457B2 (en) Method and system for calculating resected tissue volume from 2D/2.5D intraoperative image data
RU2711140C2 (en) Editing medical images
US20180150929A1 (en) Method and system for registration of 2d/2.5d laparoscopic and endoscopic image data to 3d volumetric image data
US9504852B2 (en) Medical image processing apparatus and radiation treatment apparatus
KR101028365B1 (en) Multistage matching method and apparatus of pulmonary nodules in serial computed tomography scan
JP6656910B2 (en) Medical image processing device, medical image diagnostic device, and medical image processing program
KR20140067526A (en) Method and apparatus of matching medical images
JP6644795B2 (en) Ultrasound imaging apparatus and method for segmenting anatomical objects
JP2012530553A (en) Computer-aided lung nodule detection system for chest tomosynthesis imaging
US10743943B2 (en) Medical image processing apparatus and method
JP2021520236A (en) Frameless 2D / 3D image registration based on anatomy
JP6342128B2 (en) Image processing apparatus, method, program, and stereoscopic image display apparatus
KR101876643B1 (en) Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image
CN108430376B (en) Providing a projection data set
KR20180116090A (en) Medical navigation system and the method thereof
JP5491237B2 (en) Medical image display device and medical image display method
KR20200048746A (en) Cerebrovascular image displaying apparatus and method for comparison and diagnosis
EP3931799B1 (en) Interventional device tracking
Chen et al. A GPU-Based Automatic Approach for Guide Wire Tracking in Fluoroscopic Sequences
KR102396620B1 (en) Method and apparatus for tracking catheter location using radiographic imaging
Samei et al. Detection and registration of ribs in MRI using geometric and appearance models

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant