KR20180115122A - Image processing apparatus and method for generating virtual x-ray image - Google Patents

Image processing apparatus and method for generating virtual x-ray image Download PDF

Info

Publication number
KR20180115122A
KR20180115122A KR1020170047382A KR20170047382A KR20180115122A KR 20180115122 A KR20180115122 A KR 20180115122A KR 1020170047382 A KR1020170047382 A KR 1020170047382A KR 20170047382 A KR20170047382 A KR 20170047382A KR 20180115122 A KR20180115122 A KR 20180115122A
Authority
KR
South Korea
Prior art keywords
image
brightness value
feature point
virtual
dimensional
Prior art date
Application number
KR1020170047382A
Other languages
Korean (ko)
Other versions
KR102354701B1 (en
Inventor
강원진
홍재성
전상서
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020170047382A priority Critical patent/KR102354701B1/en
Publication of KR20180115122A publication Critical patent/KR20180115122A/en
Application granted granted Critical
Publication of KR102354701B1 publication Critical patent/KR102354701B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • G06T3/0031
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

According to an embodiment of the present invention, disclosed is a virtual X-ray image generating method for quickly generating a virtual X-ray image from a three-dimensional image which comprises the steps of: extracting a radius size and feature points of a blood vessel in a three-dimensional image on an object; projecting the extracted feature points onto a two-dimensional plane; determining a brightness value of pixels positioned within a predetermined distance range for each of the feature points projected onto the two-dimensional plane; and generating a virtual X-ray image by coloring each pixel with the determined brightness value.

Description

이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법{IMAGE PROCESSING APPARATUS AND METHOD FOR GENERATING VIRTUAL X-RAY IMAGE}[0001] IMAGE PROCESSING APPARATUS AND METHOD FOR GENERATING VIRTUAL X-RAY IMAGE [0002]

본 발명은 이미지 처리 분야에 관한 것이다. 보다 구체적으로, 본 발명은 대상체의 3차원 이미지로부터 가상의 엑스선 이미지를 생성하는 방법 및 장치에 관한 것이다.The present invention relates to the field of image processing. More particularly, the present invention relates to a method and apparatus for generating a virtual x-ray image from a three-dimensional image of a subject.

일반적으로, 혈관 중재 시술은 별도의 외과적 절개 없이 엑스선(X-ray) 영상 장치를 이용하여 획득된 투시 영상을 기반으로 혈관 내 병변에 바늘이나 카테터를 경피적으로 삽입하여 약물 치료를 하고 아울러 스텐트 삽입을 시행하는 시술 방법을 가리킨다. 부연하면, 엑스선 이미지 장치는 대상체 내부 구조를 용이하게 파악할 수 있기 때문에 의료 분야 등에서 인체 내부의 병변과 같은 이상을 검출하거나 물체나 부품의 내부 구조를 파악하기 위해서 사용된다.In general, vascular intervention is performed by inserting a needle or a catheter percutaneously into an intravascular lesion based on a fluoroscopic image obtained using an X-ray imaging apparatus without a separate surgical incision, And the like. In addition, since the x-ray image device can easily grasp the internal structure of the object, it is used in the medical field to detect an abnormality such as a lesion inside the human body or to grasp the internal structure of an object or a part.

종래의 혈관 중재 시술의 경우, 깊이 정보가 결여된 2차원의 엑스선 영상만 참고하기 때문에 혈관의 3차원 형상 구조 및 수술 도구의 위치 파악이 쉽지 않으며, 가령 카테터가 잘못된 경로로 전진할 경우 혈관 천공이 발생될 위험성도 존재한다. 또한, 혈관 폐색으로 인해 조영제가 도달하지 못하여 엑스선 영상에 가시화되지 못하는 영역의 경우 카테터의 진행 방향을 결정하기가 매우 어려워지며 이로 인해 시술의 정확성 및 안정성이 시술자의 경험 또는 숙련도에 크게 의존하는 경향이 있게 된다.In the case of conventional vascular intervention, it is not easy to locate the three-dimensional shape of the blood vessel and the position of the surgical tool because it refers only to the two-dimensional x-ray image lacking depth information. If the catheter advances to the wrong path, There is also a risk of occurrence. In addition, it is very difficult to determine the direction of the catheter in areas where the contrast can not be reached due to vascular occlusion and can not be visualized on the x-ray image. As a result, the accuracy and stability of the procedure tends to be highly dependent on the experience or proficiency of the operator .

본 발명의 일 실시예에 따른 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법은 3차원 이미지로부터 가상의 엑스선 이미지를 신속하게 생성하는 것을 목적으로 한다.An image processing apparatus and a virtual x-ray image generating method according to an embodiment of the present invention aim to quickly generate a virtual x-ray image from a three-dimensional image.

또한, 본 발명의 일 실시예에 따른 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법은 3차원 이미지와 실제의 엑스선 이미지의 정합 속도를 향상시킴으로써, 시술의 정확도를 증가시키고 의료진에게 가해지는 부하를 감소시키는 것을 목적으로 한다.Further, the image processing apparatus and the virtual x-ray image generating method according to an embodiment of the present invention improve the matching speed of the three-dimensional image and the actual x-ray image, thereby increasing the accuracy of the procedure, .

본 발명의 일 실시예에 따른 가상의 엑스선 이미지 생성 방법은,A method of generating a virtual x-ray image according to an exemplary embodiment of the present invention includes:

대상체에 대한 3차원 이미지 내 혈관의 특징점들 및 반지름 크기를 추출하는 단계; 상기 추출된 특징점들을 2차원 평면에 투영하는 단계; 상기 2차원 평면에 투영된 각 특징점에 대해 소정 거리 범위 내에 위치하는 픽셀들의 밝기 값을 결정하는 단계; 및 상기 결정된 밝기 값으로 각 픽셀을 채색하여 가상의 엑스선 이미지를 생성하는 단계를 포함할 수 있다.Extracting characteristic points and radius magnitudes of the blood vessel in the three-dimensional image with respect to the object; Projecting the extracted feature points onto a two-dimensional plane; Determining a brightness value of pixels located within a predetermined distance range for each feature point projected on the two-dimensional plane; And generating a virtual x-ray image by coloring each pixel with the determined brightness value.

상기 추출된 특징점들을 2차원 평면에 투영하는 단계는, 상기 3차원 이미지의 기준 좌표와 상기 2차원 평면의 기준 좌표 사이의 변환 관계를 고려하여 상기 추출된 특징점들을 상기 2차원 평면에 투영하는 단계를 포함할 수 있다.The step of projecting the extracted feature points onto a two-dimensional plane may include projecting the extracted feature points on the two-dimensional plane in consideration of a conversion relationship between the reference coordinates of the three-dimensional image and the reference coordinates of the two- .

상기 3차원 이미지의 기준 좌표와 상기 2차원 평면의 기준 좌표 사이의 변환 관계는, 엑스선 장치의 엑스선 소스의 기준 좌표와 디텍터의 기준 좌표 사이의 변환 관계를 나타내는 내적 파라미터 및, 상기 엑스선 소스의 기준 좌표와 환자 또는 팬텀의 기준 좌표 사이의 변환 관계를 나타내는 외적 파라미터를 이용하여 산출될 수 있다.Wherein the conversion relationship between the reference coordinates of the three-dimensional image and the reference coordinates of the two-dimensional plane is determined by an internal parameter indicating a conversion relation between the reference coordinates of the x- And an external parameter indicating a conversion relation between the reference coordinates of the patient or the phantom.

상기 가상의 엑스선 이미지 생성 방법은, 상기 생성된 가상의 엑스선 이미지를 상기 엑스선 장치에 의해 촬영된 대상체의 실제 엑스선 이미지에 매칭하는 단계; 및 상기 매칭 결과, 상기 가상의 엑스선 이미지와 상기 실제 엑스선 이미지의 유사도가 일정 기준 미만인 경우, 상기 외적 파라미터를 갱신하여 가상의 엑스선 이미지를 재생성하는 단계를 더 포함할 수 있다.The virtual x-ray image generating method includes: matching the generated virtual x-ray image with an actual x-ray image of a target object photographed by the x-ray apparatus; And if the similarity of the virtual x-ray image and the actual x-ray image is less than a predetermined standard as a result of the matching, updating the external parameter to reproduce the virtual x-ray image.

상기 픽셀들의 밝기 값을 결정하는 단계는, 상기 2차원 평면에 투영된 각 특징점을 중심으로 하여, 각 특징점에 대해 상기 추출된 반지름 크기에 대응하는 소정 거리 범위 내의 픽셀들을 선택하는 단계를 포함할 수 있다.The step of determining the brightness value of the pixels may include selecting pixels within a predetermined distance range corresponding to the extracted radius size for each feature point centered at each feature point projected on the two dimensional plane have.

상기 픽셀들의 밝기 값을 결정하는 단계는, 각 특징점에 대응하는 반지름 크기가 클수록 각 특징점에 대응하여 선택된 픽셀들의 밝기 값을 더 낮게 결정하는 단계를 포함할 수 있다.The step of determining the brightness value of the pixels may include determining the brightness value of the selected pixels corresponding to each feature point to be lower as the radius corresponding to each feature point is larger.

상기 픽셀들의 밝기 값을 결정하는 단계는, 어느 하나의 픽셀이 제 1 특징점의 소정 거리 범위 내와 제 2 특징점의 소정 거리 범위 내에 동시에 위치하는 경우, 상기 제 1 특징점에 대응하여 상기 어느 하나의 픽셀에 대해 결정되는 제 1 밝기 값과 상기 제 2 특징점에 대응하여 상기 어느 하나의 픽셀에 대해 결정되는 제 2 밝기 값을 중첩하여 상기 어느 하나의 픽셀의 최종 밝기 값을 결정하는 단계를 포함할 수 있다.Wherein the step of determining the brightness value of the pixels comprises the step of determining if any one of the pixels is located within a predetermined distance range of the first feature point and within a predetermined distance range of the second feature point, And determining a final brightness value of any one of the pixels by superposing a first brightness value determined for the first feature point and a second brightness value determined for the one of the pixels corresponding to the second feature point .

상기 밝기 값을 결정하는 단계는, 하기의 수학식 1에 따라 밝기 값을 결정하는 단계를 포함하되,The step of determining the brightness value may include the step of determining a brightness value according to Equation 1,

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

상기 수학식 1에서, j는 각 특징점의 인덱스, x는 2차원 평면에 포함된 각 픽셀의 좌표, Ij(x)는 특징점 j에 대하여 픽셀 x에 설정되는 밝기 값, α는 기 설정되는 가중치, rj는 특징점 j에 대응하는 반지름 크기, Cj 2D는 특징점 j의 2차원 평면에서의 좌표를 나타낼 수 있다.In the above Equation 1, j is an index of each feature point, x is a coordinate of each pixel included in the two-dimensional plane, I j (x) is a brightness value set for the pixel x with respect to the feature point j, , r j is the radius size corresponding to the feature point j, and C j 2D is the coordinate in the two-dimensional plane of the feature point j.

상기 2차원 평면에 포함된 각 픽셀의 최종 밝기 값은 아래의 수학식 2에 따라 결정되되, The final brightness value of each pixel included in the two-dimensional plane is determined according to Equation (2) below,

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

상기 수학식 2에서 I(x)는 픽셀 x의 최종 밝기 값, N은 2차원 평면에 투영된 특징점들의 개수, Ij(x)는 특징점 j에 대해 픽셀 x에 설정되는 밝기 값을 나타낼 수 있다.In Equation 2, I (x) is the final brightness value of the pixel x, N is the number of the feature points projected onto the two-dimensional plane, and I j (x) .

상기 혈관의 반지름 크기 및 특징점들을 추출하는 단계는, 소정 임계값을 기준으로 상기 3차원 이미지를 이진화하는 단계; 세선화(skeletonization) 알고리즘을 통해 상기 3차원 이미지 내 혈관의 중심점들을 상기 특징점들로서 추출하는 단계; 및 헤시안 분석(Hessian analysis) 알고리즘을 통해 상기 3차원 이미지 내 혈관의 중심점 각각에 대응하는 반지름 크기를 추출하는 단계를 포함할 수 있다.The step of extracting the radius size and feature points of the blood vessel may include: binarizing the three-dimensional image based on a predetermined threshold value; Extracting center points of the blood vessel in the three-dimensional image as the minutiae points through a skeletonization algorithm; And extracting a radius size corresponding to each of the center points of the blood vessels in the three-dimensional image through a Hessian analysis algorithm.

본 발명의 다른 실시예에 따른 이미지 처리 장치는,An image processing apparatus according to another embodiment of the present invention includes:

대상체에 대한 3차원 이미지 내 혈관의 특징점들 및 반지름 크기를 추출하는 이미지 분석부; 및 상기 추출된 특징점들을 2차원 평면에 투영하고, 상기 2차원 평면에 투영된 각 특징점에 대해 소정 범위 내에 위치하는 픽셀들의 밝기 값을 결정하고, 상기 결정된 밝기 값으로 각 픽셀을 채색하여 가상의 엑스선 이미지를 생성하는 이미지 생성부를 포함할 수 있다.An image analyzer for extracting characteristic points and a radius size of a blood vessel in a three-dimensional image of the object; And projecting the extracted feature points on a two-dimensional plane, determining brightness values of pixels located within a predetermined range for each feature point projected on the two-dimensional plane, coloring each pixel with the determined brightness value, And an image generating unit for generating an image.

본 발명의 일 실시예에 따른 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법은 3차원 이미지로부터 가상의 엑스선 이미지를 신속하게 생성할 수 있다.The image processing apparatus and the virtual x-ray image generating method according to an embodiment of the present invention can quickly generate a virtual x-ray image from a three-dimensional image.

또한, 본 발명의 일 실시예에 따른 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법은 3차원 이미지와 실제의 엑스선 이미지의 정합 속도 및 정합 정확도를 향상시킬 수 있다.In addition, the image processing apparatus and the virtual x-ray image generating method according to the embodiment of the present invention can improve the matching speed and the matching accuracy of the three-dimensional image and the actual x-ray image.

또한, 본 발명의 일 실시예에 따른 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법은 혈관 중재 시술 등의 시술의 정확도를 증가시키고 장시간 시술에 따라 의료진에게 가해지는 부하를 감소시킬 수 있다.In addition, the image processing apparatus and the virtual x-ray image generating method according to the embodiment of the present invention can increase the accuracy of the procedure such as the blood vessel intervention and reduce the load applied to the medical staff according to the long time procedure.

다만, 본 발명의 일 실시예에 따른 본 발명의 일 실시예에 따른 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects of the image processing apparatus and the virtual x-ray image generating method according to an embodiment of the present invention are not limited to those described above, Other advantages will become apparent to those skilled in the art from the following description.

도 1은 3차원 이미지로부터 생성되는 가상의 엑스선 이미지와 실제의 엑스선 이미지를 매칭하는 일반적인 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 이미지 처리 장치가 적용되는 환경을 도시하는 예시적인 도면이다.
도 3은 본 발명의 일 실시예에 따른 가상의 엑스선 이미지를 생성하는 과정을 개략적으로 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 가상의 엑스선 이미지를 생성하는 방법을 설명하기 위한 순서도이다.
도 5는 3차원 이미지 내 혈관으로부터 추출되는 특징점과 반지름 크기를 설명하기 위한 도면이다.
도 6은 혈관에서 추출된 특징점들이 2차원 평면에 투영된 모습을 도시하는 예시적인 도면이다.
도 7은 엑스선 장치의 내적 파라미터와 외적 파라미터를 설명하기 위한 도면이다.
도 8은 2차원 평면의 픽셀들의 밝기 값을 결정하는 방법을 설명하기 위한 도면이다.
도 9는 2차원 평면에 투영된 특징점들 주변의 픽셀들이 채색된 모습을 도시하는 도면이다.
도 10은 본 발명의 일 실시예에 따른 이미지 처리 장치의 구성을 도시하는 볼록도이다.
FIG. 1 is a diagram for explaining a general method of matching a virtual x-ray image generated from a three-dimensional image and an actual x-ray image.
2 is an exemplary diagram showing an environment in which an image processing apparatus according to an embodiment of the present invention is applied.
FIG. 3 is a schematic view for explaining a process of generating a virtual X-ray image according to an embodiment of the present invention.
4 is a flowchart illustrating a method of generating a virtual x-ray image according to an embodiment of the present invention.
5 is a view for explaining feature points and radius sizes extracted from a blood vessel in a three-dimensional image.
6 is an exemplary diagram showing a feature point extracted from a blood vessel and projected on a two-dimensional plane.
7 is a diagram for explaining an intrinsic parameter and an extrinsic parameter of the X-ray apparatus.
FIG. 8 is a diagram for explaining a method of determining brightness values of pixels in a two-dimensional plane.
9 is a diagram showing a state in which pixels around the minutiae projected on a two-dimensional plane are colored.
10 is a convex diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명은 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is to be understood, however, that the intention is not to limit the invention to the specific embodiments, but on the contrary, the intention is to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.In the present specification, a component represented by 'unit', 'module', or the like refers to a case where two or more components are combined into one component, or one component is divided into two or more ≪ / RTI > In addition, each of the components to be described below may additionally perform some or all of the functions of the other components in addition to the main functions of the component itself, and some of the main functions And may be performed entirely by components.

또한, 본 명세서에서 '대상체(object)'는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다.Also, in this specification, an 'object' may include a person or an animal, or a part of a person or an animal. For example, the subject may include a liver, a heart, a uterus, a brain, a breast, an organ such as the abdomen, or a blood vessel.

또한, 본 명세서에서 3차원 이미지로부터 생성되는 2차원의 엑스선 이미지를 '가상의 엑스선 이미지'라 참조하고, 엑스선 소스의 엑스선 방사에 따라 디텍터로부터 생성되는 2차원의 엑스선 이미지를 '실제의 엑스선 이미지'라 참조한다.In this specification, a two-dimensional x-ray image generated from a three-dimensional image is referred to as a 'virtual x-ray image', and a two-dimensional x-ray image generated from a detector according to an x- .

이하에서는, 도면을 참조하여 본 발명의 기술적 사상에 따른 예시적인 실시예들에 대해 설명한다.Hereinafter, exemplary embodiments according to the technical idea of the present invention will be described with reference to the drawings.

종래 혈관 중재 시술을 위하여 3차원 이미지를 엑스선 이미지에 정합시키기 위한 다양한 방안들이 제안되었다. 예를 들어, 침습 마커(marker) 기반 방법, 트래커(tracker) 기반 방법, 영상 기반 방법 등이 존재하는데, 대표적으로 영상 기반 방법은 특징점 기반 방법과 명암 기반 방법으로 분류할 수 있다.Various methods have been proposed for matching three-dimensional images to x-ray images for conventional vascular intervention procedures. For example, there are a marker-based method, a tracker-based method, and an image-based method. Typically, an image-based method can be classified into a feature-based method and a contrast-based method.

특징점 기반 방법은 3차원 이미지와 실제 엑스선 이미지 각각으로부터 특징점을 추출하고, 특징점 매칭을 통해 3차원 이미지를 실제 엑스선 이미지에 정합하는 방법이다. 특징점 기반 방법은 그 정합 속도가 빠르다는 장점이 있지만, 정확성이 상대적으로 낮다는 단점이 존재한다.The feature point-based method extracts feature points from each of three-dimensional images and actual x-ray images, and matches the three-dimensional images to the actual x-ray images through feature point matching. Although the feature point based method has an advantage that the matching speed is fast, there is a disadvantage that the accuracy is relatively low.

명암 기반 방법은 도 1에 도시된 바와 같이, 가상의 엑스선 소스(1)가 가상의 엑스선(2)을 3차원 이미지인 CT 영상(3)으로 방사한 경우를 가정하여 가상의 엑스선 이미지(4)를 생성하고, 이를 실제의 엑스선 이미지(5)와 매칭한 후, 3차원 이미지(3)를 실제의 엑스선 이미지(5)에 정합하는 방법이다.As shown in FIG. 1, the contrast-based method is a method in which a virtual X-ray source 4 assumes a case where a virtual X-ray source 2 radiates a virtual X-ray 2 into a CT image 3 as a 3D image, Dimensional image 3 is matched with the actual x-ray image 5, and then the three-dimensional image 3 is matched to the actual x-ray image 5.

명암 기반 방법의 경우, 특징점 기반 방법에 비해 정확도가 높다는 장점이 있지만, 가상의 엑스선 이미지(4)를 생성하는데 매우 오랜 시간이 소요된다는 단점이 있다. 구체적으로, 가상의 엑스선 소스(1)가 방사한 가상의 엑스선(2)이 3차원 이미지(3)의 각 복셀에 의해 감쇠되는 정도를 고려하여 가상의 엑스선 이미지(4)를 생성하였는데, 그 계산이 복잡하여 가상의 엑스선 이미지(4)를 생성하는데 오랜 시간이 걸리게 된다. 이미지 정합에 오랜 시간이 걸리게 되면, 혈관의 실시간 정보의 확인이 중요한 시술 과정에서 시술의 정확도를 저감시킬 수 있다는 문제점이 있다.The contrast-based method has a merit that it has higher accuracy than the feature point-based method, but it takes a long time to generate a virtual x-ray image (4). Specifically, a virtual x-ray image 4 is generated in consideration of the extent to which the virtual x-ray 2 emitted by the virtual x-ray source 1 is attenuated by each voxel of the three-dimensional image 3, It takes a long time to generate the virtual x-ray image 4. If the image registration takes a long time, confirmation of real-time information of the blood vessel can reduce the accuracy of the procedure in an important procedure.

본 발명의 일 실시예에 따른 가상의 엑스선 이미지 생성 방법에서는 종래의 특징점 기반 방법과 명암 기반 방법을 모두 이용하여 빠르고 정확한 정합 결과를 제공할 수 있다.The virtual x-ray image generation method according to an embodiment of the present invention can provide quick and accurate matching results using both the conventional feature point based method and the contrast based method.

도 2는 본 발명의 일 실시예에 따른 이미지 처리 장치(100)가 적용되는 환경을 도시하는 예시적인 도면이다.2 is an exemplary diagram showing an environment in which an image processing apparatus 100 according to an embodiment of the present invention is applied.

본 발명의 일 실시예에 따른 이미지 처리 장치(100)은 일 예로서, 범용의 컴퓨터로 구현될 수 있다. 이미지 처리 장치(100)은 3차원 이미징 장치(200)에 의해 촬영되는 대상체(10)의 3차원 이미지를 3차원 이미징 장치(200)로부터 수신하거나, 기타, 별도의 서버로부터 수신할 수 있다. The image processing apparatus 100 according to an embodiment of the present invention may be implemented as a general-purpose computer as an example. The image processing apparatus 100 can receive a three-dimensional image of the object 10 photographed by the three-dimensional imaging apparatus 200 from the three-dimensional imaging apparatus 200 or receive it from another server.

상기 3차원 이미징 장치(200)는 컴퓨터 단층 촬영(CTA, computed tomographic angiography) 장치를 포함할 수 있으나, 이에 한정되는 것은 아니며, 대상체(10)의 3차원의 단층 영상을 얻을 수 있다면 다른 장치가 적용될 수도 있다.The three-dimensional imaging apparatus 200 may include a computed tomographic angiography (CTA) apparatus. However, the present invention is not limited thereto. If a three-dimensional tomographic image of the object 10 can be obtained, It is possible.

대상체(10)는 엑스선 장치(300)의 이미징 영역, 즉, 엑스선 소스(310)와 디텍터(350) 사이 영역에서 혈관 중재 시술을 받을 수 있는데, 이 때, 이미지 처리 장치(100)는 대상체(10)에 대해 촬영되는 실제의 엑스선 이미지에 매칭하기 위한 가상의 엑스선 이미지를 3차원 이미지로부터 생성할 수 있다.The object 10 can be subjected to a blood vessel intervention in the imaging region of the X-ray apparatus 300, that is, in the region between the X-ray source 310 and the detector 350. At this time, A virtual x-ray image for matching an actual x-ray image to be photographed against a three-dimensional image can be generated.

또한, 본 발명의 일 실시예에 따르면, 실제의 엑스선 이미지에 3차원 이미지 또는 3차원 이미지 내의 국소 모델(예를 들어, 시술의 대상이 되는 3차원 혈관 모델)을 정합시킴으로써, 대상체(10)의 혈관의 3차원 구조를 의료진에게 보다 명확히 알려줄 수 있다.According to an embodiment of the present invention, by matching a local model (for example, a three-dimensional blood vessel model to be treated) in a three-dimensional image or a three-dimensional image to an actual x- The three-dimensional structure of blood vessels can be more clearly shown to the medical staff.

한편, 도 2에 도시된 엑스선 장치(300)는 이동 가능한 C암 타입 엑스선 장치로서, 엑스선 소스(310)가 대상체(10)로 엑스선을 방사하고, 디텍터(350)는 대상체(10)를 투과하여 수용되는 엑스선을 검출하여 대상체(10)에 대한 2차원 이미지를 획득한다. 도 2의 C암 타입의 엑스선 장치는 하나의 예시일 뿐이며, 본 발명의 일 실시예에서는 C암 타입의 엑스선 장치 이외에 고정식 엑스선 장치가 이용될 수도 있다.The X-ray apparatus 300 shown in FIG. 2 is a movable C-arm type X-ray apparatus in which an X-ray source 310 emits an X-ray to a target body 10 and a detector 350 transmits the object 10 And acquires a two-dimensional image of the object 10 by detecting the received X-rays. The C-arm type X-ray apparatus of FIG. 2 is only one example, and in one embodiment of the present invention, a fixed X-ray apparatus other than the C-arm type X-ray apparatus may be used.

도 3은 본 발명의 일 실시예에 따른 가상의 엑스선 이미지를 생성하는 과정을 개략적으로 설명하기 위한 도면이다.FIG. 3 is a schematic view for explaining a process of generating a virtual X-ray image according to an embodiment of the present invention.

앞서 설명한 바와 같이, 본 발명의 일 실시예에서는 특징점 기반 방법과 명암 기반 방법을 모두 이용한다. 도 3을 참조하면, 본 발명의 일 실시예에서는 3차원 이미지(410)에서 특징점(411)들을 추출하고, 추출된 특징점(411)들을 2차원 평면(430)에 투영한 후, 가상의 엑스선 이미지(DRR: digitally reconstructed radiography)(450)를 생성한다. 그리고, 가상의 엑스선 이미지(450)와 실제의 엑스선 이미지(470)를 명암 기반 방식으로 매칭한다.As described above, an embodiment of the present invention uses both a feature-based method and a contrast-based method. 3, in one embodiment of the present invention, the feature points 411 are extracted from the three-dimensional image 410, the extracted feature points 411 are projected onto the two-dimensional plane 430, Digitally reconstructed radiography (DRR) 450. Then, the virtual x-ray image 450 and the actual x-ray image 470 are matched in a contrast-based manner.

즉, 가상의 엑스선 이미지(450)를 생성하는 경우에는 특징점 기반 방법을 이용하며, 이미지 매칭을 하는 경우에는 명암 기반 방법을 이용하므로, 종래의 방법들에 비해 빠르고 정확한 이미지 정합이 가능해질 수 있다.That is, in the case of generating the virtual x-ray image 450, the feature point based method is used, and in the case of image matching, the contrast based method is used, so that quick and accurate image matching can be achieved as compared with the conventional methods.

이하에서는, 도 4 이하를 참조하여, 본 발명의 일 실시예에 대해 상세히 설명한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 4 and the following figures.

도 4는 본 발명의 일 실시예에 따른 가상의 엑스선 이미지를 생성하는 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method of generating a virtual x-ray image according to an embodiment of the present invention.

S410 단계에서, 이미지 처리 장치(100)는 3차원 이미징 장치(200)에 의해 생성된 3차원 이미지 내 혈관에서 특징점들과 혈관의 반지름 크기를 추출한다. 혈관의 반지름 크기는 각 특징점들에 대하여 추출될 수 있는데, 예를 들어, 혈관으로부터 a 특징점과 b 특징점이 추출되는 경우, a 특징점에 대응하는 a 반지름 크기와 b 특징점에 대응하는 b 반지름 크기가 각각 추출될 수 있다.In step S410, the image processing apparatus 100 extracts the feature points and the radius size of the blood vessel from the blood vessels in the three-dimensional image generated by the three-dimensional imaging apparatus 200. [ For example, when the a feature point and the b feature point are extracted from the blood vessel, the radius of the a corresponding to the a feature point and the radius of the b corresponding to the b feature point are respectively Can be extracted.

도 5는 3차원 이미지(410) 내 혈관(415)으로부터 추출되는 특징점과 반지름 크기를 설명하기 위한 도면으로서, 도시된 바와 같이, 이미지 처리 장치(100)는 3차원 이미지에서 식별되는 혈관 내 특징점과 반지름 크기를 추출할 수 있다. 도 5의 Cj 3D는 3차원 이미지의 기준 좌표를 기준으로 한 특징점 j의 좌표를 나타내고, Rj는 특징점 j의 반지름 벡터를 나타낸다.5 is a diagram for explaining feature points and radius magnitudes extracted from the blood vessel 415 in the three-dimensional image 410. As shown in FIG. 5, the image processing apparatus 100 includes feature points in blood vessels identified in a three- Radius size can be extracted. C j 3D in Fig. 5 represents the coordinates of the feature point j based on the reference coordinates of the three-dimensional image, and R j represents the radius vector of the feature point j.

이미지 처리 장치(100)는 다양한 이미지 처리 알고리즘을 적용하여 혈관으로부터 특징점과 반지름 크기를 추출할 수 있다. 예를 들어, 이미지 처리 장치(100)는 소정 밝기 임계값을 기준으로 3차원 이미지를 이진화, 즉, 각 복셀의 원래의 밝기 값을 최대 밝기 값 또는 최소 밝기 값으로 변경하고, 세선화(skeletonization) 알고리즘을 통해 3차원 이미지 내 혈관의 중심점들을 각 특징점으로서 추출할 수 있다. 또한, 이미지 처리 장치(100)는 헤시안 분석(Hessian analysis) 알고리즘을 적용하여 3차원 이미지 내 혈관의 중심점 각각에 대응하는 반지름 크기를 추출할 수 있다.The image processing apparatus 100 can extract a feature point and a radius size from a blood vessel by applying various image processing algorithms. For example, the image processing apparatus 100 binarizes a three-dimensional image based on a predetermined brightness threshold, that is, changes the original brightness value of each voxel to a maximum brightness value or a minimum brightness value, and performs skeletonization, Through the algorithm, the center points of the blood vessels in the three-dimensional image can be extracted as respective feature points. Also, the image processing apparatus 100 may extract a radius size corresponding to each of the center points of the blood vessels in the three-dimensional image by applying a Hessian analysis algorithm.

세선화 알고리즘은 이진화된 영상을 입력으로 특정한 조건을 만족하는 픽셀을 반복적으로 제거한다. 특정한 조건은 제거 대상의 픽셀을 기준으로 주변 픽셀의 개수, 주변 픽셀의 값, 0 혹은 1을 가진 주변 픽셀의 상대적인 위치 등이 고려되며 각각의 경우에 대해 제거대상이 된 픽셀의 제거여부를 결정한다. 세선화 알고리즘을 반복적으로 수행하게 되면 결과적으로 굵기가 1 픽셀인 혈관의 중심선을 얻을 수 있다. The thinning algorithm recursively removes pixels that satisfy certain conditions by inputting the binarized image. For a specific condition, the number of neighboring pixels, the value of surrounding pixels, the relative position of neighboring pixels having 0 or 1, and the like are taken into consideration based on the pixels to be removed, and in each case, whether to remove the pixels to be removed is determined . When the thinning algorithm is repeatedly performed, the center line of the blood vessel having a thickness of 1 pixel can be obtained.

헤시안 분석은 혈관 중심점에 대응하는 혈관의 반지름을 얻기 위한 작업으로 2차 미분된 가우시안 정규분포를 커널(kernel)로 이용하여 합성곱(convolution)을 여러 분산 값에서 계산하여 가장 큰 응답 값을 얻는 방법이다. 2차 미분된 가우시안 정규분포를 커널로 이용하여 합성곱을 실시하면 정규분포의 분산 값에 따라 선의 굵기를 가늠할 수 있는데, 여러 분산 값에 대해 합성곱을 실시하고 가장 큰 응답 값을 가진 분산을 선택함으로써 혈관의 굵기, 즉 반지름 크기를 알 수 있다.The Hessian analysis is to obtain the radius of the blood vessel corresponding to the center of the blood vessel. The second derivative Gaussian normal distribution is used as a kernel to obtain the largest response value by calculating the convolution from various variance values. Method. When the second derivative Gaussian normal distribution is used as the kernel, the composite product is performed, and the thickness of the line can be determined according to the variance value of the normal distribution. By performing the composite product for the plurality of variance values and selecting the variance having the largest response value, The size of the radius, that is, the radius.

다시 도 4를 보면, S420 단계에서, 이미지 처리 장치(100)는 혈관에서 추출된 특징점들을 2차원 평면에 투영한다. 여기서 특징점들을 투영한다는 것은, 3차원 이미지의 특징점들 각각이 2차원 평면의 어느 지점에 매핑되는 것인지를 확인하는 과정을 의미할 수 있다.Referring again to FIG. 4, in step S420, the image processing apparatus 100 projects the feature points extracted from the blood vessel on a two-dimensional plane. Here, projecting the feature points may refer to a process of checking where each of the feature points of the three-dimensional image is mapped to the two-dimensional plane.

예를 들어, 도 6에 도시된 바와 같이, 각 특징점의 3차원 좌표 값들(C3D)은 2차원 평면(430)에서의 좌표 값들(C2D)로 변환되어 2차원 평면(430)에 투영될 수 있는데, 이미지 처리 장치(100)는 3차원 이미지(415)의 기준 좌표와 2차원 평면(430)의 기준 좌표 사이의 변환 관계를 고려하여 혈관 내 특징점들을 2차원 평면(430)에 투영할 수 있다.For example, as shown in FIG. 6, the three-dimensional coordinate values C 3D of each feature point are converted into coordinate values C 2D in the two-dimensional plane 430 and projected onto the two-dimensional plane 430 The image processing apparatus 100 can project the intravascular feature points onto the two-dimensional plane 430 in consideration of the conversion relationship between the reference coordinates of the three-dimensional image 415 and the reference coordinates of the two-dimensional plane 430 have.

특징점을 투영하는 방법에 대해서는 도 7을 참조하여 상세히 설명한다. The method of projecting the minutiae points will be described in detail with reference to Fig.

대상체(10)는 엑스선 장치(300)의 이미징 영역, 즉, 엑스선 소스(310)와 디텍터(350) 사이의 영역에 위치하고 있다. 이 경우, 엑스선 소스(310)에 의해 엑스선이 방사되어 디텍터(350)에 의해 생성되는 실제의 엑스선 영상과 유사한 가상의 엑스선 영상을 생성하기 위해, 이미지 처리 장치(100)는 엑스선 장치(300)의 내적 파라미터(I)와 외적 파라미터(E)를 획득하고, 이를 이용하여 3차원 이미지의 기준 좌표와 2차원 평면의 기준 좌표 사이의 변환 관계를 산출한다.The object 10 is located in the imaging area of the x-ray apparatus 300, that is, in the area between the x-ray source 310 and the detector 350. In this case, in order to generate a virtual x-ray image similar to an actual x-ray image generated by the detector 350 by radiating the x-ray by the x-ray source 310, The internal parameter I and the external parameter E are acquired and used to calculate the conversion relationship between the reference coordinates of the three-dimensional image and the reference coordinates of the two-dimensional plane.

도 7을 참조하면, 내적 파라미터(I)는 엑스선 소스(310)의 기준 좌표(a)와 디텍터(350)의 기준 좌표(c) 사이의 변환 관계에 해당한다. 도 7에서 내적 파라미터(I)에 대응하는 화살표는 내적 파라미터(I)가 디텍터(350)를 기준으로 한 엑스선 소스(310)의 상대적인 이동 정보를 포함한다는 것을 의미한다. 내적 파라미터(I)는 아래의 행렬로서 표현될 수 있다.7, the inner product parameter I corresponds to a transformation relationship between the reference coordinate (a) of the x-ray source 310 and the reference coordinate (c) of the detector 350. The arrow corresponding to the inner product parameter I in FIG. 7 means that the inner product parameter I contains the relative movement information of the x-ray source 310 with respect to the detector 350. The inner product parameter (I) can be expressed as the following matrix.

[내적 파라미터][Internal parameter]

Figure pat00003
Figure pat00003

상기 내적 파라미터(I)에서 αx, αy는 엑스선 소스(310)와 디텍터(350) 간의 수직 거리에 대응하는 초점거리를 의미하는데, αx는 초점거리를 디텍터(350)의 픽셀의 세로 변 및 가로 변 중 어느 하나의 변의 길이로 나눈 값을 의미하고, αy는 초점거리를 디텍터(350)의 픽셀의 세로 변 및 가로 변 중 다른 하나의 변의 길이로 나눈 값을 의미한다. 또한, x0, y0는 엑스선 소스(310)의 중심점을 디텍터(350)에 수직 투영한 지점과 디텍터(350)의 중심점 간의 오프셋 거리를 나타내는 영상 주점을 의미하며, s는 디텍터(350)의 픽셀의 가로 변과 세로 변 사이의 기울기인 왜도를 나타낸다.In the inner product parameter I,? X and? Y mean focal lengths corresponding to the vertical distance between the x-ray source 310 and the detector 350,? X being the focal length of the pixels of the detector 350, And? Y denotes a value obtained by dividing the focal distance by the length of the other side of the lengthwise side of the pixel of the detector 350 and the length of the other side of the lateral side. X0 and y0 are the image main points representing the offset distance between the center point of the x-ray source 310 and the center point of the detector 350 and s is the distance between the central point of the detector 350 and the central point of the detector 350, Which is the slope between horizontal and vertical sides.

또한, 도 7을 참조하면, 외적 파라미터(E)는 엑스선 소스(310)의 기준 좌표(a)와 엑스선 장치(300)의 이미징 영역에 위치하는 대상체(10)의 기준 좌표(b) 사이의 변환 관계에 해당한다. 도 7에서 외적 파라미터(E)에 대응하는 화살표는 외적 파라미터(E)가 엑스선 소스(310)를 기준으로 한 대상체(10)의 상대적인 이동 및 회전 정보를 포함한다는 것을 의미한다. 외적 파라미터(E)는 아래의 행렬로 표현될 수 있다.7, the external parameter E is a transformation between the reference coordinate (a) of the x-ray source 310 and the reference coordinate (b) of the object 10 located in the imaging area of the x- Relationship. The arrow corresponding to the external parameter E in Fig. 7 means that the external parameter E includes the relative movement and rotation information of the object 10 with respect to the x-ray source 310. [ The external parameter E can be expressed by the following matrix.

[외적 파라미터][External parameter]

Figure pat00004
Figure pat00004

상기 외적 파라미터(E)의 행렬에서 r은 회전 각도와 관련된 요소들, t는 이동 거리와 관련된 요소들을 나타낸다.In the matrix of the external parameter (E), r represents the elements related to the rotation angle, and t represents elements related to the movement distance.

대상체(10)는 시술 중에 계속 이동할 수 있으므로, 내적 파라미터(I)와 외적 파라미터(E)를 계산하기 위해, 팬텀(미도시)을 이미징 영역에 위치시키고, 팬텀을 촬영하여 생성되는 엑스선 이미지에 기초하여 내적 파라미터(I)와 외적 파라미터(E)를 계산할 수 있다.Since the subject 10 can continue to move during the procedure, a phantom (not shown) is placed in the imaging area to calculate the inner and outer parameters I and E, (I) and the external parameter (E).

예를 들어, 팬텀의 기준 좌표를 기준으로 한 팬텀의 특징점의 좌표를 (X, Y, X)라 하고, 디텍터(350)의 기준 좌표(c)를 기준으로 한 2차원 팬텀 영상 내 동일 특징점의 좌표를 (u, v)라 하였을 때, 이 두 좌표 사이의 관계는 아래의 수학식 1에 해당할 수 있다.For example, when the coordinates of the minutiae points of the phantom based on the phantom reference coordinates are (X, Y, X) and the coordinates of the same minutiae in the two-dimensional phantom image based on the reference coordinates (c) When the coordinate is (u, v), the relationship between these two coordinates may correspond to the following equation (1).

[수학식 1][Equation 1]

Figure pat00005
Figure pat00005

상기 수학식 1에서 w는 거리 가중치이고, P는 3×4의 투영 행렬이다. 미리 알고 있는 특징점들의 좌표 값들에 따라 SVD(single value decomposition) 알고리즘을 통해 P가 획득되면, 투영 행렬 P를 QR 분해(QR decomposition)하여 내적 파라미터(I)와 외적 파라미터(E)가 획득될 수 있다.In Equation (1), w is a distance weight, and P is a 3x4 projection matrix. If P is obtained through a single value decomposition (SVD) algorithm according to coordinate values of previously known feature points, an inner parameter I and an outer parameter E can be obtained by QR decomposition of the projection matrix P .

본 발명의 일 실시예에서는 팬텀을 이미징 영역에 위치시킨 상태에서 팬텀을 엑스선 촬영하여 획득되는 엑스선 이미지에 기초하여 이미지 처리 장치(100)가 내적 파라미터(I)와 외적 파라미터(E)를 획득할 수도 있고, 또는, 내적 파라미터(I)와 외적 파라미터(E)가 미리 계산되어 이미지 처리 장치(100)에 저장될 수도 있다.In an embodiment of the present invention, the image processing apparatus 100 may acquire the internal parameter (I) and the external parameter (E) based on the x-ray image obtained by radiographing the phantom with the phantom placed in the imaging area Or the inner product parameter I and the outer product parameter E may be calculated in advance and stored in the image processing apparatus 100. [

이미지 처리 장치(100)는 3차원 이미지의 기준 좌표와 2차원 평면의 기준 좌표 사이의 변환 관계(T)를 아래의 수학식 2로 계산할 수 있다.The image processing apparatus 100 can calculate the transformation relation (T) between the reference coordinates of the three-dimensional image and the reference coordinates of the two-dimensional plane by the following equation (2).

[수학식 2]&Quot; (2) "

T = I·ET = I · E

상기 변환 관계(T)는 대상체(10)의 기준 좌표(b)와 디텍터(350)의 기준 좌표(c) 사이의 변환 관계를 의미하는데, 이미지 처리 장치(100)는 이 변환 관계(T)를 3차원 이미지의 기준 좌표와 2차원 평면의 기준 좌표 사이의 변환 관계로 이용할 수 있는 것이다.The transformation relation T means a transformation relation between the reference coordinate b of the object 10 and the reference coordinate c of the detector 350. The image processing apparatus 100 determines the transformation relation T as It can be used as a conversion relation between the reference coordinates of the three-dimensional image and the reference coordinates of the two-dimensional plane.

이미지 처리 장치(100)는 3차원 혈관의 특징점들의 좌표를 상기 수학식 2의 변환 관계(T)에 적용하여 각 특징점들의 2차원 평면에서의 좌표를 산출할 수 있다.The image processing apparatus 100 can calculate the coordinates in the two-dimensional plane of each of the minutiae points by applying the coordinates of the minutiae points of the three-dimensional blood vessel to the conversion relation (T) of Equation (2).

다시 도 4를 보면, S430 단계에서, 이미지 처리 장치(100)는 2차원 평면에 투영된 각 특징점에 대해 소정 범위 내에 위치하는 픽셀들의 밝기 값을 결정한다.Referring again to FIG. 4, in step S430, the image processing apparatus 100 determines a brightness value of pixels positioned within a predetermined range for each feature point projected on a two-dimensional plane.

2차원 평면는 일종의 가상의 디텍터 역할을 하기 때문에, 디텍터(350)와 마찬가지로 복수의 픽셀들로 이루어질 수 있다(도 6의 픽셀(431) 참조). 이미지 처리 장치(100)는 2차원 평면에 투영된 특징점들 각각에 대응하는 반지름 크기에 기초하여 각 특징점 주변의 픽셀들의 밝기 값을 결정할 수 있다.Since the two-dimensional plane acts as a kind of virtual detector, it can be composed of a plurality of pixels like the detector 350 (see pixel 431 in FIG. 6). The image processing apparatus 100 can determine the brightness value of pixels around each feature point based on the radius size corresponding to each of the feature points projected on the two-dimensional plane.

간단하게는, 이미지 처리 장치(100)는 2차원 평면에 투영된 특징점들 각각에 대응하는 반지름 크기에 따라 각 특징점들 주변에 위치하는 픽셀들을 선택하고, 선택된 픽셀들의 밝기 값을 반지름 크기에 반비례하게 결정할 수 있다. 이는, 실제 엑스선 이미지에서 굵은 혈관의 밝기 값이 얇은 혈관의 밝기 값보다 어둡기 때문이다.In brief, the image processing apparatus 100 selects pixels positioned around each of the minutiae according to the radius magnitude corresponding to each of the minutiae projected on the two-dimensional plane, and sets the brightness value of the selected pixels in inverse proportion to the radius magnitude You can decide. This is because, in the actual x-ray image, the brightness value of the thick blood vessel is darker than the brightness value of the thin blood vessel.

이에 대해 도 8을 참조하여 상세히 설명한다.This will be described in detail with reference to FIG.

도 8은 2차원 평면(430)의 픽셀들의 밝기 값을 결정하는 방법을 설명하기 위한 도면이다.FIG. 8 is a diagram for explaining a method of determining brightness values of pixels of the two-dimensional plane 430. FIG.

도 8에 도시된 바와 같이, 2차원 평면(430) 내 제 1 특징점(810a), 제 2 특징점(810b) 및 제 3 특징점(810c)이 투영된 경우를 가정하면, 먼저, 이미지 처리 장치(100)는 제 1 특징점(810a)을 중심으로 제 1 특징점(810a)에 대응하는 반지름 크기 내에 위치하는 픽셀들을 제 1 그룹(820a)으로 선택하고, 제 2 특징점(810b)을 중심으로 제 2 특징점(810b)에 대응하는 반지름 크기 내에 위치하는 픽셀들을 제 2 그룹(820b)으로 선택하고, 제 3 특징점(810c)을 중심으로 제 3 특징점(810c)에 대응하는 반지름 크기 내에 위치하는 픽셀들을 제 3 그룹(820c)으로 선택할 수 있다.Assuming that the first feature point 810a, the second feature point 810b and the third feature point 810c are projected in the two-dimensional plane 430 as shown in FIG. 8, first, the image processing apparatus 100 Selects the first group 820a as the center of the first feature 810a and the second feature 810b as the center of the second feature 810b, 810b as the second group 820b and the pixels located within the radial dimension corresponding to the third feature point 810c around the third feature point 810c as the third group 810c, (820c).

도시된 바와 같이, 제 1 그룹(820a)과 제 2 그룹(820b)에는, 제 1 그룹(820a)과 제 2 그룹(820b)에 모두 속한 픽셀들(830a)이 존재할 수 있고, 제 2 그룹(820b)과 제 3 그룹(820c)에도, 제 2 그룹(820b)과 제 3 그룹(820c)에 모두 속한 픽셀들(830b)이 존재할 수 있다.As shown, in the first group 820a and the second group 820b, there may be pixels 830a belonging to both the first group 820a and the second group 820b, 820b and the third group 820c may have pixels 830b belonging to both the second group 820b and the third group 820c.

다음으로, 이미지 처리 장치(100)는 제 1 특징점(810a)에 대응하는 반지름 크기에 반비례하는 밝기 값을 제 1 그룹(820a)에 대한 밝기 값으로 설정하고, 제 2 특징점(810b)에 대응하는 반지름 크기에 반비례하는 밝기 값을 제 2 그룹(820b)에 대한 밝기 값으로 설정하고, 제 3 특징점(810c)에 대응하는 반지름 크기에 반비례하는 밝기 값을 제 3 그룹(820c)에 대한 밝기 값으로 설정한다.Next, the image processing apparatus 100 sets the brightness value in inverse proportion to the radius size corresponding to the first feature point 810a to the brightness value for the first group 820a, and sets the brightness value corresponding to the second feature point 810b The brightness value inversely proportional to the radius size is set as the brightness value for the second group 820b and the brightness value in inverse proportion to the radius size corresponding to the third feature point 810c is set as the brightness value for the third group 820c Setting.

제 1 그룹(820a)과 제 2 그룹(820b)에 모두 속한 픽셀들(830a)의 최종 밝기 값은, 제 1 특징점(810a)에 대응하여 설정된 밝기 값과 제 2 특징점(810b)에 대응하여 설정된 밝기 값이 중첩된 값을 갖는다. 이에 따라, 제 1 그룹(820a)과 제 2 그룹(820b)에 모두 속한 픽셀들(830a)의 최종 밝기는 제 1 그룹(820a)에만 속한 픽셀들의 밝기나 제 2 그룹(820b)에만 속한 픽셀들의 밝기보다 더 어둡게 된다.The final brightness value of the pixels 830a belonging to both the first group 820a and the second group 820b is set to correspond to the brightness value set corresponding to the first feature point 810a and the brightness value set corresponding to the second feature point 810b Brightness values have overlapping values. Accordingly, the final brightness of the pixels 830a belonging to both the first group 820a and the second group 820b is determined by the brightness of the pixels belonging only to the first group 820a or the brightness of the pixels belonging only to the second group 820b It becomes darker than brightness.

마찬가지로, 제 2 그룹(820b)과 제 3 그룹(820c)에 모두 속한 픽셀들(830b)의 최종 밝기 값은, 제 2 특징점(810b)에 대응하여 설정된 밝기 값과 제 3 특징점(810c)에 대응하여 설정된 밝기 값이 중첩된 값을 갖는다.Similarly, the final brightness value of the pixels 830b belonging to both the second group 820b and the third group 820c corresponds to the brightness value set corresponding to the second feature point 810b and the brightness value corresponding to the third feature point 810c And the set brightness values have overlapping values.

2차원 평면(430)에 투영된 특징점들 사이의 거리가 가까울수록 주변 픽셀들은 여러 그룹에 속할 수 있는데, 여기서 특징점들 사이의 거리가 가깝다는 것은 3차원 이미지의 투영 방향에서 바라보았을 때, 3차원 이미지 내 혈관이 투영 방향과 평행 또는 거의 평행하게 위치하고 있다는 것을 의미할 수 있다. 즉, 투영 방향과 평행하게 위치하는 혈관은 3차원상에서 그 길이가 매우 길더라도 2차원 평면에는 매우 짧은 길이로 투영될 것이기 때문이다. As the distance between the minutiae projected on the two-dimensional plane 430 is closer, the neighboring pixels can belong to several groups. Here, the distance between the minutiae points is close to the three-dimensional image when viewed from the projection direction of the three- It may mean that the blood vessel in the image is positioned parallel or almost parallel to the projection direction. That is, a blood vessel positioned parallel to the projection direction will be projected in a very short length on a two-dimensional plane even if its length is very long on a three-dimensional plane.

실제 엑스선 이미지의 경우, 엑스선의 방사 방향과 평행하게 위치하는 혈관은 엑스선 이미지에 어둡게 나타나기 때문에, 본 발명의 일 실시예에서도 이를 고려하여, 3차원 이미지의 투영 방향과 평행하게 위치하는 혈관, 즉, 2차원 평면에서 서로 간에 매우 가까운 거리의 특징점들 주변의 픽셀들의 밝기 값을 다른 픽셀들보다 어둡게 설정하는 것이다. 도 9를 참조하면, 투영 방향에 평행하게 위치하는 혈관에 대해서는 2차원 평면에 어둡게 채색되는 것을 알 수 있다.In the case of an actual x-ray image, a blood vessel positioned parallel to the radiating direction of the x-ray appears dark in the x-ray image. Therefore, in an embodiment of the present invention, a blood vessel positioned parallel to the projection direction of the three- It is necessary to set the brightness values of the pixels around the minutiae points which are very close to each other in the two-dimensional plane to be darker than other pixels. Referring to FIG. 9, it can be seen that blood vessels located parallel to the projection direction are darkened in a two-dimensional plane.

이미지 처리 장치(100)는 아래의 수학식 3에 기초하여 2차원 평면에 투영된 각 특징점의 주변 픽셀들을 선택할 수 있다.The image processing apparatus 100 can select surrounding pixels of each feature point projected on a two-dimensional plane based on Equation (3) below.

[수학식 3]&Quot; (3) "

Figure pat00006
Figure pat00006

상기 수학식 3에서, j는 각 특징점의 인덱스, x는 2차원 평면에 포함된 각 픽셀의 좌표, Ij(x)는 특징점 j에 대하여 픽셀 x에 설정되는 밝기 값, α는 기 설정되는 가중치, rj는 특징점 j에 대응하는 반지름 크기, Cj 2D는 특징점 j의 2차원 평면에서의 좌표를 나타낸다.In Equation (3), j is an index of each feature point, x is a coordinate of each pixel included in the two-dimensional plane, I j (x) is a brightness value set for the pixel x with respect to the feature point j, , r j is the radius size corresponding to the feature point j, and C j 2D is the coordinate in the two-dimensional plane of the feature point j.

상기 수학식 3을 보면, 각 특징점을 중심으로 하여 반지름 크기에 대응하는 소정 거리 범위 내에 포함되는 픽셀들이 각 특징점에 대응하는 픽셀로 선택되는 것을 알 수 있다.In Equation (3), it can be seen that the pixels included in the predetermined distance range corresponding to the radius size are selected as the pixels corresponding to the respective feature points, with each feature point as a center.

또한, 이미지 처리 장치(100)는 2차원 평면 내 픽셀들의 최종 밝기 값을 아래의 수학식 4로 설정할 수 있다.Further, the image processing apparatus 100 can set the final brightness value of the pixels in the two-dimensional plane to the following equation (4).

[수학식 4]&Quot; (4) "

Figure pat00007
Figure pat00007

상기 수학식 4에서 I(x)는 픽셀 x의 최종 밝기 값, N은 2차원 평면에 투영된 특징점들의 개수, Ij(x)는 특징점 j에 대해 픽셀 x에 설정되는 밝기 값을 나타낸다.In Equation (4), I (x) represents the final brightness value of the pixel x, N represents the number of the feature points projected on the two-dimensional plane, and I j (x) represents the brightness value set for the pixel x with respect to the feature point j.

수학식 4를 보면, 어느 하나의 픽셀이 여러 특징점에 대응되어 선택된 경우, 해당 픽셀의 밝기 값은 중첩적으로 어두워진다는 것을 알 수 있다.Referring to Equation (4), it can be seen that, when any one of the pixels is selected corresponding to a plurality of feature points, the brightness value of the corresponding pixel is superimposedly darkened.

다시 도 4를 보면, 이미지 처리 장치(100)는 S440 단계에서, 2차원 평면에 포함된 픽셀들을 최종 밝기 값으로 채색하여 가상의 엑스선 이미지를 생성한다.Referring again to FIG. 4, in step S440, the image processing apparatus 100 generates a virtual x-ray image by coloring the pixels included in the two-dimensional plane to a final brightness value.

이미지 처리 장치(100)는 상기 생성된 가상의 엑스선 이미지와 대상체(10)에 대해 실제 촬영된 엑스선 이미지를 매칭시킨 후, 가상의 엑스선 이미지와 실제의 엑스선 이미지의 유사도가 일정 기준(예를 들어, 정규화된 교차 상관 알고리즘 등을 통해 측정되는 기준 유사도 값) 미만인 경우, 외적 파라미터(E)를 변경하고, 그에 따라 3차원 이미지의 기준 좌표와 2차원 평면의 기준 좌표 사이의 변환 관계도 변환하여 가상의 엑스선 이미지를 재생성할 수 있다.The image processing apparatus 100 matches the generated virtual x-ray image with the actual x-ray image taken with respect to the object 10, and then determines whether the similarity of the virtual x-ray image and the actual x- Dimensional image and the reference coordinates of the two-dimensional plane are transformed as well, so as to transform the virtual coordinate of the reference coordinate of the three-dimensional image and the reference coordinate of the two- X-ray image can be regenerated.

즉, 이미지 처리 장치(100)는 가상의 엑스선 영상이 실제의 엑스선 영상에 동일해지거나 매우 근접하게 유사해질 때까지 외적 파라미터(E)를 계속적으로 갱신하여 가상의 엑스선 이미지의 생성 및 매칭 과정을 반복할 수 있다.That is, the image processing apparatus 100 continuously updates the external parameter E until the virtual x-ray image becomes identical to the actual x-ray image or becomes very close to each other, and repeats the generation and matching process of the virtual x-ray image can do.

가상의 엑스선 이미지와 실제의 엑스선 이미지의 유사도가 일정 기준 이상인 경우에는, 이미지 처리 장치(100)는 이미 3차원 이미지의 투영 방향을 알고 있으므로, 3차원 이미지의 투영 방향에 따라 3차원 이미지 또는 3차원 이미지의 국소 모델(예를 들어, 일부 혈관)을 실제 엑스선 이미지에 정합시켜 화면에 표시할 수 있다.When the degree of similarity between the virtual x-ray image and the actual x-ray image is equal to or greater than a certain standard, the image processing apparatus 100 knows the projection direction of the three-dimensional image, A local model of the image (e.g., some blood vessels) can be matched to the actual x-ray image and displayed on the screen.

도 10은 본 발명의 일 실시예에 따른 이미지 처리 장치(100)의 구성을 도시하는 볼록도이다.Fig. 10 is a convex diagram showing a configuration of an image processing apparatus 100 according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 일 실시예에 따른 이미지 처리 장치(100)는 메모리(110), 통신부(130), 이미지 분석부(150) 및 이미지 생성부(170)를 포함할 수 있다. 메모리(110), 통신부(130), 이미지 분석부(150) 및 이미지 생성부(170)는 적어도 하나의 프로세서로 구현될 수 있으며, 메모리(110)에 저장된 프로그램에 따라 동작할 수 있다.Referring to FIG. 10, an image processing apparatus 100 according to an exemplary embodiment of the present invention may include a memory 110, a communication unit 130, an image analysis unit 150, and an image generation unit 170. The memory 110, the communication unit 130, the image analysis unit 150, and the image generation unit 170 may be implemented by at least one processor and may operate according to programs stored in the memory 110. [

메모리(110)에는 이미지 처리 및 생성을 위한 어플리케이션이 저장될 수 있으며, 또한, 대상체(10)의 3차원 이미지 및 실제 엑스선 이미지가 저장될 수도 있다.The memory 110 may store an application for image processing and creation, and may also store a three-dimensional image and an actual x-ray image of the object 10.

통신부(130)는 3차원 이미징 장치(200), 엑스선 장치(300) 또는 기타 서버와 통신을 하며 대상체(10)의 3차원 이미지 및 실제 엑스선 이미지를 수신할 수 있다.The communication unit 130 may receive the three-dimensional image and the actual x-ray image of the object 10 by communicating with the three-dimensional imaging apparatus 200, the x-ray apparatus 300, or other servers.

이미지 분석부(150)는 대상체(10)에 대한 3차원 이미지 내에 포함된 혈관의 반지름 크기와 특징점들을 추출한다.The image analysis unit 150 extracts the radius magnitude and the characteristic points of the blood vessel included in the three-dimensional image with respect to the object 10.

이미지 생성부(170)는 상기 추출된 특징점들을 2차원 평면에 투영하고, 2차원 평면에 투영된 각 특징점에 대해 소정 범위 내에 위치하는 픽셀들의 밝기 값을 결정하고, 상기 결정된 밝기 값으로 각 픽셀을 채색하여 가상의 엑스선 이미지를 생성할 수 있다.The image generating unit 170 projects the extracted feature points on a two-dimensional plane, determines brightness values of pixels located within a predetermined range for each of the feature points projected on the two-dimensional plane, You can create a virtual x-ray image by coloring.

도 10에는 도시되어 있지 않지만, 이미지 처리 장치(100)는 가상의 엑스선 이미지를 화면에 표시하는 디스플레이를 더 포함할 수 있다.Although not shown in FIG. 10, the image processing apparatus 100 may further include a display for displaying a virtual X-ray image on the screen.

또한, 이미지 처리 장치(100)는 가상의 엑스선 이미지와 실제의 엑스선 이미지가 어느 정도 유사한 것으로 판단되면, 3차원 이미지의 투영 방향을 알고 있으므로, 3차원 이미지의 투영 방향에 따라 3차원 이미지 또는 3차원 이미지의 국소 모델(예를 들어, 일부 혈관)을 실제 엑스선 이미지에 정합시켜 화면에 표시할 수도 있다.Further, if it is determined that the virtual x-ray image and the actual x-ray image are similar to each other, the image processing apparatus 100 knows the projection direction of the three-dimensional image, A local model of the image (e.g., some blood vessels) may be matched to the actual x-ray image and displayed on the screen.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.Meanwhile, the embodiments of the present invention described above can be written in a program that can be executed in a computer, and the created program can be stored in a medium.

상기 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함할 수 있으나, 이에 한정되는 것은 아니다.The medium may include, but is not limited to, storage media such as magnetic storage media (e.g., ROM, floppy disks, hard disks, etc.), optical reading media (e.g., CD ROMs,

첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims. You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 이미지 처리 장치
110: 메모리
130: 통신부
150: 이미지 분석부
170: 이미지 생성부
200: 3차원 이미징 장치
300: 엑스선 장치
310: 엑스선 소스
350: 디텍터
100: Image processing device
110: Memory
130:
150: Image analysis section
170:
200: 3D imaging device
300: X-ray device
310: X-ray source
350: Detector

Claims (12)

대상체에 대한 3차원 이미지 내 혈관의 특징점들 및 반지름 크기를 추출하는 단계;
상기 추출된 특징점들을 2차원 평면에 투영하는 단계;
상기 2차원 평면에 투영된 각 특징점에 대해 소정 거리 범위 내에 위치하는 픽셀들의 밝기 값을 결정하는 단계; 및
상기 결정된 밝기 값으로 각 픽셀을 채색하여 가상의 엑스선 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는, 이미지 처리 장치에 의한 가상의 엑스선 이미지 생성 방법.
Extracting characteristic points and radius magnitudes of the blood vessel in the three-dimensional image with respect to the object;
Projecting the extracted feature points onto a two-dimensional plane;
Determining a brightness value of pixels located within a predetermined distance range for each feature point projected on the two-dimensional plane; And
And generating a virtual x-ray image by coloring each pixel with the determined brightness value. ≪ RTI ID = 0.0 > 11. < / RTI >
제1항에 있어서,
상기 추출된 특징점들을 2차원 평면에 투영하는 단계는,
상기 3차원 이미지의 기준 좌표와 상기 2차원 평면의 기준 좌표 사이의 변환 관계를 고려하여 상기 추출된 특징점들을 상기 2차원 평면에 투영하는 단계를 포함하는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
The method according to claim 1,
The step of projecting the extracted feature points onto a two-
And projecting the extracted feature points on the two-dimensional plane in consideration of a conversion relation between the reference coordinates of the three-dimensional image and the reference coordinates of the two-dimensional plane.
제2항에 있어서,
상기 3차원 이미지의 기준 좌표와 상기 2차원 평면의 기준 좌표 사이의 변환 관계는,
엑스선 장치의 엑스선 소스의 기준 좌표와 디텍터의 기준 좌표 사이의 변환 관계를 나타내는 내적 파라미터 및, 상기 엑스선 소스의 기준 좌표와 환자 또는 팬텀의 기준 좌표 사이의 변환 관계를 나타내는 외적 파라미터를 이용하여 산출되는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
3. The method of claim 2,
Wherein the conversion relationship between the reference coordinates of the three-dimensional image and the reference coordinates of the two-
An internal parameter indicating a conversion relation between the reference coordinates of the x-ray source of the x-ray source and the detector and the external parameter indicating the conversion relationship between the reference coordinates of the x-ray source and the reference coordinates of the patient or phantom A method of generating a virtual x-ray image.
제3항에 있어서,
상기 가상의 엑스선 이미지 생성 방법은,
상기 생성된 가상의 엑스선 이미지를 상기 엑스선 장치에 의해 촬영된 대상체의 실제 엑스선 이미지에 매칭하는 단계; 및
상기 매칭 결과, 상기 가상의 엑스선 이미지와 상기 실제 엑스선 이미지의 유사도가 일정 기준 미만인 경우, 상기 외적 파라미터를 갱신하여 가상의 엑스선 이미지를 재생성하는 단계를 더 포함하는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
The method of claim 3,
The virtual X-ray image generation method includes:
Matching the generated virtual x-ray image with an actual x-ray image of the object photographed by the x-ray apparatus; And
Further comprising the step of renewing the virtual parameter x-ray image by updating the parameter if the similarity between the virtual x-ray image and the actual x-ray image is less than a predetermined standard as a result of the matching, .
제1항에 있어서,
상기 픽셀들의 밝기 값을 결정하는 단계는,
상기 2차원 평면에 투영된 각 특징점을 중심으로 하여, 각 특징점에 대해 상기 추출된 반지름 크기에 대응하는 소정 거리 범위 내의 픽셀들을 선택하는 단계를 포함하는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
The method according to claim 1,
Wherein determining the brightness value of the pixels comprises:
And selecting pixels within a predetermined distance range corresponding to the extracted radius size for each feature point centering on each feature point projected on the two-dimensional plane.
제5항에 있어서,
상기 픽셀들의 밝기 값을 결정하는 단계는,
각 특징점에 대응하는 반지름 크기가 클수록 각 특징점에 대응하여 선택된 픽셀들의 밝기 값을 더 낮게 결정하는 단계를 포함하는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
6. The method of claim 5,
Wherein determining the brightness value of the pixels comprises:
And determining a lower brightness value of the selected pixels corresponding to each feature point as the radius corresponding to each feature point is larger.
제6항에 있어서,
상기 픽셀들의 밝기 값을 결정하는 단계는,
어느 하나의 픽셀이 제 1 특징점의 소정 거리 범위 내와 제 2 특징점의 소정 거리 범위 내에 동시에 위치하는 경우, 상기 제 1 특징점에 대응하여 상기 어느 하나의 픽셀에 대해 결정되는 제 1 밝기 값과 상기 제 2 특징점에 대응하여 상기 어느 하나의 픽셀에 대해 결정되는 제 2 밝기 값을 중첩하여 상기 어느 하나의 픽셀의 최종 밝기 값을 결정하는 단계를 포함하는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
The method according to claim 6,
Wherein determining the brightness value of the pixels comprises:
When a pixel is located within a predetermined distance range of the first feature point and within a predetermined distance range of the second feature point, a first brightness value determined for any one of the pixels corresponding to the first feature point, And determining a final brightness value of any one of the pixels by superposing a second brightness value determined for any one of the pixels corresponding to the two feature points.
제1항에 있어서,
상기 밝기 값을 결정하는 단계는,
하기의 수학식 1에 따라 밝기 값을 결정하는 단계를 포함하되,
[수학식 1]
Figure pat00008

상기 수학식 1에서, j는 각 특징점의 인덱스, x는 2차원 평면에 포함된 각 픽셀의 좌표, Ij(x)는 특징점 j에 대하여 픽셀 x에 설정되는 밝기 값, α는 기 설정되는 가중치, rj는 특징점 j에 대응하는 반지름 크기, Cj 2D는 특징점 j의 2차원 평면에서의 좌표를 나타내는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
The method according to claim 1,
The step of determining the brightness value comprises:
Determining a brightness value according to Equation (1) below,
[Equation 1]
Figure pat00008

In the above Equation 1, j is an index of each feature point, x is a coordinate of each pixel included in the two-dimensional plane, I j (x) is a brightness value set for the pixel x with respect to the feature point j, , r j denotes a radius size corresponding to the feature point j, and C j 2D denotes a coordinate in the two-dimensional plane of the feature point j.
제8항에 있어서,
상기 2차원 평면에 포함된 각 픽셀의 최종 밝기 값은 아래의 수학식 2에 따라 결정되되,
[수학식 2]
Figure pat00009

상기 수학식 2에서 I(x)는 픽셀 x의 최종 밝기 값, N은 2차원 평면에 투영된 특징점들의 개수, Ij(x)는 특징점 j에 대해 픽셀 x에 설정되는 밝기 값을 나타내는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
9. The method of claim 8,
The final brightness value of each pixel included in the two-dimensional plane is determined according to Equation (2) below,
&Quot; (2) "
Figure pat00009

In Equation (2), I (x) represents the final brightness value of the pixel x, N represents the number of the feature points projected onto the two-dimensional plane, and I j (x) represents the brightness value set for the pixel x with respect to the feature point j A virtual x-ray image generation method.
제1항에 있어서,
상기 혈관의 반지름 크기 및 특징점들을 추출하는 단계는,
소정 임계값을 기준으로 상기 3차원 이미지를 이진화하는 단계;
세선화(skeletonization) 알고리즘을 통해 상기 3차원 이미지 내 혈관의 중심점들을 상기 특징점들로서 추출하는 단계; 및
헤시안 분석(Hessian analysis) 알고리즘을 통해 상기 3차원 이미지 내 혈관의 중심점 각각에 대응하는 반지름 크기를 추출하는 단계를 포함하는 것을 특징으로 하는 가상의 엑스선 이미지 생성 방법.
The method according to claim 1,
Wherein the step of extracting the radius size and the feature points of the blood vessel comprises:
Binarizing the three-dimensional image based on a predetermined threshold value;
Extracting center points of the blood vessel in the three-dimensional image as the minutiae points through a skeletonization algorithm; And
And extracting a radius size corresponding to each of the center points of the blood vessels in the three-dimensional image through a Hessian analysis algorithm.
하드웨어와 결합하여 제1항의 가상의 엑스선 이미지 생성 방법을 실행시키기 위하여 매체에 저장된 프로그램.
A program stored in a medium for executing the virtual x-ray image generation method of claim 1 in combination with hardware.
대상체에 대한 3차원 이미지 내 혈관의 특징점들 및 반지름 크기를 추출하는 이미지 분석부; 및
상기 추출된 특징점들을 2차원 평면에 투영하고, 상기 2차원 평면에 투영된 각 특징점에 대해 소정 범위 내에 위치하는 픽셀들의 밝기 값을 결정하고, 상기 결정된 밝기 값으로 각 픽셀을 채색하여 가상의 엑스선 이미지를 생성하는 이미지 생성부를 포함하는 것을 특징으로 하는 이미지 처리 장치.
An image analyzer for extracting characteristic points and a radius size of a blood vessel in a three-dimensional image of the object; And
Dimensional plane, determining brightness values of pixels located within a predetermined range for each feature point projected on the two-dimensional plane, and coloring each pixel with the determined brightness value to generate a virtual x-ray image And an image generating unit for generating the image data.
KR1020170047382A 2017-04-12 2017-04-12 Image processing apparatus and method for generating virtual x-ray image KR102354701B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170047382A KR102354701B1 (en) 2017-04-12 2017-04-12 Image processing apparatus and method for generating virtual x-ray image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170047382A KR102354701B1 (en) 2017-04-12 2017-04-12 Image processing apparatus and method for generating virtual x-ray image

Publications (2)

Publication Number Publication Date
KR20180115122A true KR20180115122A (en) 2018-10-22
KR102354701B1 KR102354701B1 (en) 2022-01-24

Family

ID=64102312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170047382A KR102354701B1 (en) 2017-04-12 2017-04-12 Image processing apparatus and method for generating virtual x-ray image

Country Status (1)

Country Link
KR (1) KR102354701B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116433476A (en) * 2023-06-09 2023-07-14 有方(合肥)医疗科技有限公司 CT image processing method and device
WO2023219370A1 (en) * 2022-05-10 2023-11-16 주식회사 고영테크놀러지 Method and system for determining location of subject or surgical tool

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013124946A1 (en) * 2012-02-20 2013-08-29 株式会社デンソー Device for continuously measuring diameter of blood vessel in living body
JP2014526334A (en) * 2011-09-13 2014-10-06 コーニンクレッカ フィリップス エヌ ヴェ Contour drawing of blood vessels with visualization of small holes
KR20150012894A (en) * 2013-07-26 2015-02-04 서울여자대학교 산학협력단 Adaptive vessel segmentation system and the method for CTA
JP2016101358A (en) * 2014-11-28 2016-06-02 株式会社東芝 Apparatus, method and program for generating medical image
JP2017012341A (en) * 2015-06-30 2017-01-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing method and apparatus, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014526334A (en) * 2011-09-13 2014-10-06 コーニンクレッカ フィリップス エヌ ヴェ Contour drawing of blood vessels with visualization of small holes
WO2013124946A1 (en) * 2012-02-20 2013-08-29 株式会社デンソー Device for continuously measuring diameter of blood vessel in living body
KR20150012894A (en) * 2013-07-26 2015-02-04 서울여자대학교 산학협력단 Adaptive vessel segmentation system and the method for CTA
JP2016101358A (en) * 2014-11-28 2016-06-02 株式会社東芝 Apparatus, method and program for generating medical image
JP2017012341A (en) * 2015-06-30 2017-01-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing method and apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219370A1 (en) * 2022-05-10 2023-11-16 주식회사 고영테크놀러지 Method and system for determining location of subject or surgical tool
CN116433476A (en) * 2023-06-09 2023-07-14 有方(合肥)医疗科技有限公司 CT image processing method and device
CN116433476B (en) * 2023-06-09 2023-09-08 有方(合肥)医疗科技有限公司 CT image processing method and device

Also Published As

Publication number Publication date
KR102354701B1 (en) 2022-01-24

Similar Documents

Publication Publication Date Title
US9098935B2 (en) Image displaying apparatus, image displaying method, and computer readable medium for displaying an image of a mammary gland structure without overlaps thereof
US9495794B2 (en) Three-dimensional image display apparatus, method, and program
US10542955B2 (en) Method and apparatus for medical image registration
US10347033B2 (en) Three-dimensional image display apparatus, method, and program
JP5129480B2 (en) System for performing three-dimensional reconstruction of tubular organ and method for operating blood vessel imaging device
US10354410B2 (en) Apparatus for determining a position of a first object within a second object
JP2019530490A (en) Computer-aided detection using multiple images from different views of the region of interest to improve detection accuracy
KR101954868B1 (en) Navigation system for vascular intervention and method for generaing virtual x-ray image
CN104545969A (en) Determining value of recording parameter by use of anatomic landmark
US9443161B2 (en) Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
EP3788596B1 (en) Lower to higher resolution image fusion
JP2004141612A (en) Method and apparatus for image processing
CN112862833A (en) Blood vessel segmentation method, electronic device and storage medium
CA3102807A1 (en) Orientation detection in fluoroscopic images
CN111295665A (en) Determining regions of high density lung tissue in lung images
US20150023471A1 (en) Stereo x-ray tube based suppression of outside body high contrast objects
EP4026102B1 (en) Confidence map for neural network based limited angle artifact reduction in cone beam ct
KR20180115122A (en) Image processing apparatus and method for generating virtual x-ray image
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
JP2023526909A (en) How to determine the ablation area based on deep learning
Chen et al. Virtual blood vessels in complex background using stereo x-ray images
KR20230013042A (en) Method for predicting recurrence of lesions through image analysis
US11138736B2 (en) Information processing apparatus and information processing method
CN117095137B (en) Three-dimensional imaging method and system of medical image based on two-way image acquisition
US11430203B2 (en) Computer-implemented method for registering low dimensional images with a high dimensional image, a method for training an aritificial neural network useful in finding landmarks in low dimensional images, a computer program and a system for registering low dimensional images with a high dimensional image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant