KR20190069751A - Point based registration apparatus and method using multiple candidate points - Google Patents
Point based registration apparatus and method using multiple candidate points Download PDFInfo
- Publication number
- KR20190069751A KR20190069751A KR1020170169979A KR20170169979A KR20190069751A KR 20190069751 A KR20190069751 A KR 20190069751A KR 1020170169979 A KR1020170169979 A KR 1020170169979A KR 20170169979 A KR20170169979 A KR 20170169979A KR 20190069751 A KR20190069751 A KR 20190069751A
- Authority
- KR
- South Korea
- Prior art keywords
- medical image
- image data
- present
- medical
- endoscope
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
본 발명은 특징점 기반 정합 장치 및 방법에 관한 것으로, 보다 상세하게는 하나의 특징점에 대한 복수의 후보군을 사용함으로써 정합 점 지정 시 발생하는 오차를 감소시키는 장치 및 방법에 관한 것이다.The present invention relates to a feature point-based matching apparatus and method, and more particularly, to an apparatus and method for reducing an error occurring when a matching point is specified by using a plurality of candidate groups for one feature point.
수술 시 환자의 절개 부위를 최소화하는 최소 침습 수술이 널리 사용되고 있다. 최소 침습 수술은 절개 부위를 최소화하고 그에 따른 실혈(blood loss)과 회복기간을 최소화할 수 있는 장점이 있으나, 의사의 시야가 제한되어 일부 수술들의 경우 뇌수막 손상, 안구 손상 등의 위험 요인을 갖고 있다. 의사의 시야가 제한되는 최소 침습 수술의 단점을 극복하기 위한 도구의 하나로써, 의료용 항법 장치(또는, 수술 항법 장치)가 사용되고 있다. 의료용 항법 장치는 사전에 확보된 환자의 의료 영상을 기준으로 환자의 환부에 삽입된 기구의 위치 정보를 실시간으로 추적하여 제공한다. 또한, 이러한 의료용 항법 장치는 내시경과 결합하여 사용될 수도 있다.Minimally invasive surgery that minimizes the incision site of the patient during surgery is widely used. Minimally invasive surgery has the advantage of minimizing the incision site and minimizing the blood loss and recovery period. However, because of limited physician's vision, some surgeries have risk factors such as meningitis and eye damage . Medical navigation devices (or surgical navigation devices) are being used as a tool to overcome the disadvantages of minimally invasive surgery where the physician's view is limited. The medical navigation system provides real - time tracking of the location information of the instruments inserted into the affected part based on the previously acquired medical images of the patient. Further, such a medical navigation apparatus may be used in combination with an endoscope.
의료용 항법 장치에서 삽입된 시술 기구의 실시간 위치 추적을 위해 광학식 또는 전자기식 위치 추적 장치가 사용될 수 있다. 시술 기구의 위치 추적을 위한 일 예로, 적외선 방출 장치와 패시브 형태의 이미지 센서를 포함하는 광학식 위치 추적 장치가 사용될 수 있다. 광학식 위치 추적 장치는 적외선 방출 장치를 통해 기준 광을 방사하고, 복수의 마커들에 의해 반사되는 이미지를 이미지 센서를 통해 수집한다. 해당 위치 추적 장치는 복수의 마커들의 위치를 기초로 시술 기구의 위치 정보를 획득할 수 있다. 한편, 시술 기구의 위치 추적을 위한 다른 예로, 자기장 생성기 및 전도성 금속 물체를 포함하는 전자기식 위치 추적 장치가 사용될 수 있다. 전자기식 위치 추적 장치는 자기장 생성기에 의해 생성된 자기장 내에서 전도성 금속 물체에 발생하는 맴돌이 전류를 측정하여 시술 기구의 위치 정보를 획득할 수 있다. 위치 추적 장치에서 시술 기구와 신체 부위의 위치 관계를 정확하게 표시하기 위해, 환자의 신체 부위에 대한 의료 데이터와 시술 기구간의 최초 위치 관계를 정의하는 정합 과정이 필요할 수 있다.An optical or electromagnetic positioning device may be used for real-time positioning of an inserted surgical instrument in a medical navigation system. As an example for tracking the position of a surgical instrument, an optical position tracking device including an infrared ray emitting device and a passive image sensor may be used. The optical position tracking device emits reference light through an infrared ray emitting device and collects an image reflected by a plurality of markers through an image sensor. The position tracking apparatus can acquire the position information of the treatment instrument based on the positions of the plurality of markers. On the other hand, as another example for tracking the position of a surgical instrument, an electromagnetic position tracking device including a magnetic field generator and a conductive metal object may be used. The electromagnetic position tracking apparatus can acquire the position information of the treatment instrument by measuring the eddy current generated in the conductive metal object in the magnetic field generated by the magnetic field generator. To accurately indicate the positional relationship between the surgical instrument and the body part in the locator, a registration process may be required to define the initial positional relationship between the medical data and the surgical instrument for the patient's body part.
도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다. 의료용 항법 장치는 신체 부위에 대한 수평면(horizontal), 시상면(sagittal) 및 관상면(coronal)의 영상들 중 적어도 하나를 디스플레이 할 수 있다. 시술자(또는, 의사)는 각 영상들을 해석하여 시술 기구의 3차원적 위치를 판단하고, 인접한 위험 요소 등을 파악한다. 그러나 이러한 단면 영상들은 신체 부위 내에서의 시술 기구의 위치를 직관적으로 표현할 수 없다. 따라서, 복수의 단면 영상들을 대조하여 시술 기구의 정확한 위치를 판단하기 위해서 시술자의 숙련도가 필요할 뿐만 아니라 많은 시간이 소요될 수 있다. 또한, 시술 기구의 위치 파악을 위해 의료용 항법 장치의 모니터를 주시하는 시간이 길어질 경우, 전체적인 시술 기간이 길어져 시술자와 환자 모두의 피로를 증가시킬 수 있다.1 shows an embodiment of an output image of a medical navigation system. The medical navigation system may display at least one of images of horizontal, sagittal, and coronal images of the body part. The practitioner (or the doctor) interprets each image to determine the three-dimensional position of the surgical apparatus, and grasps the adjacent risk factors. However, these cross-sectional images can not intuitively describe the position of a surgical instrument within a body part. Therefore, in order to determine the exact position of the surgical instrument by collating a plurality of sectional images, it is not only necessary for the operator's skill but also it may take a lot of time. In addition, when the time required to monitor the medical navigation device for the positioning of the surgical instrument is prolonged, the entire operation period is prolonged, thereby increasing the fatigue of both the operator and the patient.
본 발명은 하나의 특징점에 대한 정합 점 지정시 발생하는 오차를 감소시키기 위한 목적을 가지고 있다.The present invention has an object to reduce an error occurring when designating a matching point for one feature point.
또한, 본 발명은 환자의 해부학적 구조를 파악하기 용이한 의료용 항법 장치를 제공하기 위한 목적을 가지고 있다.In addition, the present invention has an object to provide a medical navigation apparatus which can easily grasp an anatomical structure of a patient.
상기와 같은 과제를 해결하기 위한 본 발명의 실시예에 따르면, 본 발명은 하나의 특징점에 대한 복수의 후보군을 사용함으로써 정합 점 지정 시 발생하는 오차를 감소시키는 장치를 제공할 수 있다.According to an embodiment of the present invention to solve the above problems, the present invention can provide an apparatus for reducing an error occurring when a matching point is specified by using a plurality of candidate groups for one characteristic point.
또한 일 실시예에 따른 방법은, 하나의 특징점에 대한 복수의 후보군을 사용함으로써 정합 점 지정 시 발생하는 오차를 감소시키는 방법을 제공할 수 있다.In addition, the method according to an embodiment can provide a method of reducing an error that occurs when a matching point is specified by using a plurality of candidate groups for one feature point.
또 다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함할 수 있다.According to another aspect, a computer-readable recording medium may include a recording medium on which a program for causing a computer to execute the above-described method is recorded.
본 발명의 일 실시예에 따른 방법에 의하면, 하나의 Patient Land Mark에 대한 Image Land Mark의 복수의 후보군을 사용함으로써 정합 점 지정 시 발생하는 오차를 감소시킬 수 있다.According to the method of the present invention, by using a plurality of candidate groups of the Image Land Mark for one Patient Land Mark, it is possible to reduce an error occurring when designating a matching point.
또한, 본 발명의 실시예에 따르면, 시술자가 환자의 해부학적 구조를 용이하게 파악할 수 있도록 하여 시술의 편의성 및 집중도를 향상시킬 수 있다.In addition, according to the embodiment of the present invention, the operator can easily grasp the anatomy of the patient, thereby improving convenience and concentration of the operation.
도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다.
도 2는 본 발명의 일 실시예에 따른 의료 영상 처리 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 의료 영상 처리 장치의 프로세서의 더욱 상세한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 내시경 추적부의 블록도이다.
도 5는 내시경 영상 및 이를 이용하여 생성된 노멀맵을 예시한다.
도 6은 의료 영상 데이터가 내시경 영상에 대한 증강 현실 영상으로 제공되는 것을 예시한다.
도 7 및 도 8은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다.
도 9는 본 발명의 일 실시예에 따른 의료 영상 데이터 생성부의 블록도이다.
도 10은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치의 블록도이다.
도 11은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치의 프로세서의 더욱 상세한 블록도이다.
도 12는 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다.
도 13은 도 12에 의해 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 14는 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다.
도 15 및 도 16은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 17은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다.
도 18는 본 발명의 일 실시예에 따른 이미지 랜드 마크의 예시를 나타내는 도면이다.
도 19은 본 발명의 일 실시예에 따른 점 정합 수행 방법을 나타내는 도면이다.
도 20은 본 발명의 일 실시예에 따른 점 정합 수행의 활용 방법을 나타내는 도면이다.1 shows an embodiment of an output image of a medical navigation system.
2 is a block diagram of a medical image processing apparatus according to an embodiment of the present invention.
3 is a more detailed block diagram of a processor of a medical image processing apparatus according to an embodiment of the present invention.
4 is a block diagram of an endoscope tracking unit according to an embodiment of the present invention.
5 illustrates an endoscopic image and a normal map generated using the endoscopic image.
6 illustrates that medical image data is provided as an augmented reality image for an endoscopic image.
Figures 7 and 8 illustrate a volume rendering technique in accordance with an embodiment of the present invention.
9 is a block diagram of a medical image data generation unit according to an embodiment of the present invention.
10 is a block diagram of a medical image processing apparatus according to another embodiment of the present invention.
11 is a more detailed block diagram of a processor of a medical image processing apparatus according to another embodiment of the present invention.
Figure 12 shows an embodiment for setting a region of interest for a subject.
FIG. 13 shows partial medical image data corresponding to the region of interest set by FIG.
14 shows an embodiment of a user interface for setting a region of interest of an object.
15 and 16 illustrate partial medical image data corresponding to variously set interest areas.
17 shows a method of generating partial medical image data according to a further embodiment of the present invention.
18 is a diagram showing an example of an image landmark according to an embodiment of the present invention.
19 is a view showing a method of performing a point matching according to an embodiment of the present invention.
20 is a diagram illustrating a method of utilizing point matching according to an exemplary embodiment of the present invention.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.As used herein, terms used in the present invention are selected from general terms that are widely used in the present invention while taking into account the functions of the present invention. However, these terms may vary depending on the intention of a person skilled in the art, custom or the emergence of new technology. Also, in certain cases, there may be a term arbitrarily selected by the applicant, and in this case, the meaning thereof will be described in the description of the corresponding invention. Therefore, it is intended that the terminology used herein should be interpreted relative to the actual meaning of the term, rather than the nomenclature, and its content throughout the specification.
명세서 전체에서, 어떤 구성이 다른 구성과 “연결”되어 있다고 할 때, 이는 “직접적으로 연결”되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 “전기적으로 연결”되어 있는 경우도 포함한다. 또한 어떤 구성이 특정 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 이에 더하여, 특정 임계값을 기준으로 “이상” 또는 “이하”라는 한정 사항은 실시예에 따라 각각 “초과” 또는 “미만”으로 적절하게 대체될 수 있다.Throughout the specification, when a configuration is referred to as being "connected" to another configuration, it is not limited to the case where it is "directly connected," but also includes "electrically connected" do. Also, when an element is referred to as " including " a specific element, it is meant to include other elements, rather than excluding other elements, unless the context clearly dictates otherwise. In addition, the limitations of " above " or " below ", respectively, based on a specific threshold value may be appropriately replaced with "
이하, 각 도면을 참조로 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법을 설명하도록 한다. 본 발명의 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 인체 및 동물체를 포함하는 대상체에 대한 의료 영상에 적용될 수 있다. 의료 영상은 X-ray 영상, 컴퓨터 단층 촬영(Computed Tomography, CT) 영상, 양전자 방출 단층 촬영(Positron Emission Tomography, PET) 영상, 초음파 영상 및 자기 공명 영상(Magnetic Resonance Imaging, MRI)을 포함하며, 본 발명은 이에 한정되지 않는다. 또한, 본 명세서에서 의료 영상 데이터는 의료 영상 자체뿐만 아니라 의료 영상을 렌더링하여 생성된 다양한 형태의 데이터를 포함하는 넓은 의미의 용어로 사용된다. 일 실시예에 따르면, 의료 영상 데이터는 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수 있다. 또한, 의료 영상 데이터는 2차원의 의료 영상들의 그룹으로 구성된 3차원 데이터 세트를 가리킬 수도 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다. 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법은 내시경 및/또는 의료용 항법 장치에 의해 제공되는 영상을 생성하거나 처리할 수 있다.Hereinafter, a medical image processing apparatus and a medical image processing method according to an embodiment of the present invention will be described with reference to the drawings. The image processing apparatus and the image processing method according to an embodiment of the present invention can be applied to a medical image for a target object including a human body and an animal. The medical image includes an X-ray image, a computed tomography (CT) image, a Positron Emission Tomography (PET) image, an ultrasound image, and a magnetic resonance imaging (MRI) The invention is not limited thereto. In this specification, the medical image data is used as a broad term including not only a medical image but also various types of data generated by rendering a medical image. According to one embodiment, the medical image data may indicate data that is volume rendered of the medical image. Further, the medical image data may indicate a three-dimensional data set composed of a group of two-dimensional medical images. The value of the regular grid unit of the thus constructed three-dimensional data set is called a voxel. The medical image processing apparatus and the medical image processing method according to the embodiment of the present invention can generate or process the image provided by the endoscope and / or the medical navigation apparatus.
도 2는 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)의 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)는 프로세서(11), 통신부(12), 입력부(13), 메모리(14), 내시경 영상 취득부(15) 및 디스플레이 출력부(16)를 포함할 수 있다.2 is a block diagram of a medical
먼저, 통신부(12)는 외부 장치와 통신을 수행하기 위한 다양한 프로토콜의 유/무선 통신 모듈을 포함한다. 입력부(13)는 의료 영상 처리 장치(10)에 대한 사용자 입력을 수신하기 위한 다양한 형태의 인터페이스를 포함한다. 일 실시예에 따르면, 입력부(13)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트 등을 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 의료 영상 처리 장치는 통신부(12) 및/또는 입력부(13)를 통해 대상체의 의료 영상을 미리 획득할 수 있다. 메모리(14)는 의료 영상 처리 장치(10)에서 사용되는 제어 프로그램 및 이와 관련된 각종 데이터를 저장한다. 예를 들어, 메모리(14)는 사전에 획득된 대상체의 의료 영상을 저장할 수 있다. 또한, 메모리(14)는 대상체의 의료 영상을 렌더링하여 생성된 의료 영상 데이터를 저장할 수 있다.First, the
내시경 영상 취득부(15)는 내시경(50)이 촬영한 대상체의 탐색 영역에 대한 내시경 영상을 취득한다. 내시경 영상 취득부(15)는 내시경(50)과 유선 또는 무선으로 연결되어 내시경(50)으로부터 영상을 수신할 수 있다.The endoscopic
디스플레이 출력부(16)는 본 발명의 실시예에 따라 생성된 영상을 출력한다. 즉, 디스플레이 출력부(16)는 후술하는 바와 같이 대상체의 내시경 영상과 함께 증강 현실 영상을 출력할 수 있다. 이때, 증강 현실 영상은 내시경 영상에 대응하는 부분 의료 영상 데이터를 포함한다. 디스플레이 출력부(16)에 의해 출력된 영상은 의료 영상 처리 장치(10)와 연결된 모니터(60)에 의해 디스플레이 될 수 있다.The
본 발명의 프로세서(11)는 다양한 명령 또는 프로그램을 실행하고, 의료 영상 처리 장치(10) 내부의 데이터를 처리할 수 있다. 또한, 프로세서(11)는 전술한 의료 영상 처리 장치(10)의 각 유닛을 제어하며, 유닛들 간의 데이터 송수신을 제어할 수 있다.The
도 2에 도시된 의료 영상 장치(10)는 본 발명의 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 해당 장치의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 의료 영상 장치(10)의 엘리먼트들은 해당 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 또한, 도 2에 도시된 의료 영상 장치(10)의 구성들 중 일부 구성이 생략될 수 있으며, 추가적인 구성이 의료 영상 장치(10)에 포함될 수도 있다.The
도 3은 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)의 프로세서(11)의 더욱 상세한 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)의 프로세서(11)는 내시경 추적부(110), 의료 영상 데이터 생성부(120), 부분 의료 영상 데이터 추출부(130) 및 증강 현실 데이터 생성부(140)를 포함할 수 있다.3 is a more detailed block diagram of the
내시경 추적부(110)는 의료 영상 처리(10)에 내시경 영상을 제공하는 내시경(50)의 위치 및 방향 정보를 획득한다. 더욱 구체적으로, 내시경 추적부(110)는 대상체의 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보를 획득한다. 본 발명의 일 실시예에 따르면, 내시경 추적부(110)는 내시경 영상 취득부(15)를 통해 획득된 내시경 영상을 분석하여 내시경(50)의 위치 및 방향을 추적할 수 있다. 이에 대한 구체적인 실시예는 후술하도록 한다. 한편, 본 발명의 다른 실시예에 따르면, 내시경 추적부(110)는 별도의 내시경 추적 장치를 구비하여, 내시경(50)의 위치 및 방향을 추적할 수 있다. 6DOF(Degree of Freedom)를 갖는 추적 장치가 내시경(50)에 결합된 경우, 내시경 추적부(110)는 추적 장치로부터 내시경(50)의 위치 및 방향 정보를 획득할 수 있다. 추적 장치로부터 획득된 위치 및 방향 정보에 대해 정합(registration) 과정을 수행하면, 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득될 수 있다.The
다음으로, 의료 영상 데이터 생성부(120)는 대상체의 의료 영상을 렌더링하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함한다. 일 실시예에 따르면, 의료 영상 데이터 생성부(120)는 대상체의 의료 영상에 볼륨 렌더링을 수행하여 의료 영상 데이터를 생성할 수 있다. 뿐만 아니라, 의료 영상 데이터 생성부(120)는 대상체에 대한 의료 영상과 사용자에 의해 임의로 설정된 보조 데이터를 합성하고, 합성된 데이터에 볼륨 렌더링을 수행하여 의료 영상 데이터를 생성할 수도 있다. 이에 대한 구체적인 실시예는 후술하도록 한다.Next, the medical image
다음으로, 부분 의료 영상 추출부(130)는 획득된 내시경(50)의 위치 및 방향 정보에 기초하여, 의료 영상 데이터 중 증강 현실로 디스플레이 될 부분 의료 영상 데이터를 추출한다. 더욱 구체적으로, 부분 의료 영상 추출부(130)는 내시경(50)의 위치 및 방향 정보에 기초하여, 의료 영상 데이터 중 증강 현실로 디스플레이 될 타겟 영역을 결정한다. 본 발명의 일 실시예에 따르면, 타겟 영역은 내시경(50)의 특정 초점 거리, 시야각, 심도에 기초한 절두체(view frustum)의 영역으로 결정될 수 있다. 따라서, 내시경 추적부(110)에 의해 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득되면, 의료 영상 데이터 내에서 증강 현실로 표현되어야 할 타겟 영역이 결정될 수 있다. 부분 의료 영상 추출부(130)는 이와 같이 결정된 타겟 영역에 대응하는 부분 의료 영상 데이터를 추출한다.Next, the partial medical
다음으로, 증강 현실 데이터 생성부(140)는 추출된 부분 의료 영상 데이터를 증강 현실 영상으로 렌더링 한다. 즉, 증강 현실 데이터 생성부(140)는 부분 의료 영상 데이터와 내시경 영상을 정합하여, 부분 의료 영상 데이터를 내시경 영상에 대한 증강 현실 영상으로 제공한다.Next, the augmented reality
도 4는 본 발명의 일 실시예에 따른 내시경 추적부(110)의 블록도이다. 내시경 영상과 증강 현실 영상을 의미 있는 형태로 정합하기 위해서는 다음과 같은 정보들이 필요하다.4 is a block diagram of an
- 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 Pf(Xf, Yf, Zf)The position P f (X f , Y f , Z f ) of the
- 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 방향 벡터 Vview(Xv, Yv, Zv), Vup(Xu, Yu, Zu), Vright(Xr, Yr, Zr)- orientation of the
- 내시경(50)의 시야각(Field of View, FOV)The field of view (FOV) of the
- 내시경(50)의 초점 거리The focal length of the
- 내시경(50)의 심도(Depth of Field, DOF)Depth of Field (DOF) of the
이들 중에서 시야각, 초점 거리, 심도는 내시경 렌즈의 고정된 사양을 따르게 된다. 따라서, 의료 영상 데이터 내에서 증강 현실로 표현되어야 할 타겟 영역을 결정하기 위해서는 내시경(50)의 위치 정보 및 방향 정보가 실시간으로 획득되어야 한다.Among them, the viewing angle, the focal length, and the depth satisfy the fixed specification of the endoscope lens. Therefore, in order to determine a target area to be represented as an augmented reality in the medical image data, the position information and direction information of the
본 발명의 일 실시예에 따르면, 내시경 추적부(110)는 별도의 내시경 추적 장치로부터 내시경(50)의 위치 및 방향을 추적할 수 있다. 그러나 본 발명의 다른 실시예에 따르면, 내시경 추적부(110)는 내시경 영상과 의료 영상 데이터를 비교하여 내시경(50)의 위치 및 방향을 추적할 수 있다. 더욱 구체적으로, 내시경 추적부(110)는 내시경 영상을 이용하여 생성된 노멀맵(normal map)과 의료 영상 데이터를 이용하여 생성된 복수의 노멀맵들을 비교하여, 내시경(50)의 위치 및 방향을 추적한다. 노멀맵은 탐색 영역에 대한 표면 정보를 2차원 형태로 프로젝션한 데이터를 나타낼 수 있다.According to an embodiment of the present invention, the
도 4를 참조하면, 내시경 추적부(110)는 제1 노멀맵 생성부(112), 제2 노멀맵 생성부(114) 및 노멀맵 비교부(116)를 포함할 수 있다. 먼저, 제1 노멀맵 생성부(112)는 내시경 영상을 획득하고, 획득된 내시경 영상을 이용하여 제1 노멀맵(Mreal)을 생성한다. 일반적으로 내시경 영상에는 빛의 방향 파악이 용이한 스포트라이트(spotlight) 형태의 광원이 내재되어 있다. 또한, 내시경으로 관찰하는 탐색 영역인 인체의 내부는 별도의 광원이 없고, 반사가 잘되는 타액이 표면에 많이 포함되어 있다. 이로 인해, 내시경 영상은 하이라이트(highlight) 및 셰이드(shade) 등의 효과가 극대화 될 수 있다. 따라서, 본 발명의 실시예에 따르면, 제1 노멀맵 생성부(112)는 획득된 내시경 영상에서 빛의 세기를 분석하여 3차원 탐색 영역의 표면 정보를 2차원 형태로 프로젝션한 제1 노멀맵(Mreal)을 생성할 수 있다. 제1 노멀맵 생성부(112)에서 생성된 제1 노멀맵(Mreal)은 노멀맵 비교부(116)로 전달된다.4, the
도 5는 내시경 영상 및 이를 이용하여 생성된 노멀맵을 예시한다. 도 5(a)는 내시경(50)으로부터 획득된 내시경 영상을 나타내며, 도 5(b)는 내시경 영상을 이용하여 생성된 노멀맵을 나타낸다. 도 5(a)에서 나타난 바와 같이, 내시경 영상은 표면의 굴곡에 따라 하이라이트와 셰이드가 명확하게 나타날 수 있다. 따라서, 본 발명의 의료 영상 처리 장치(10)는 내시경 영상을 분석하여 도 5(b)에 나타난 바와 같은 노멀맵을 생성할 수 있다.5 illustrates an endoscopic image and a normal map generated using the endoscopic image. 5 (a) shows the endoscopic image acquired from the
본 발명의 추가적인 실시예에 따르면, 보다 정확한 제1 노멀맵(Mreal)을 생성하기 위해 구조광 또는 패턴광이 적용된 내시경 영상이 사용될 수 있다. 이때, 제1 노멀맵(Mreal)은 대상체의 탐색 영역에 대한 구조광 또는 패턴광의 반사 정보에 기초하여 획득된다.According to a further embodiment of the present invention, an endoscopic image in which structured light or pattern light is applied to produce a more accurate first normal map M real may be used. At this time, the first normal map M real is obtained based on the reflection information of the structured light or the pattern light for the search area of the object.
다시 도 4로 돌아가면, 제2 노멀맵 생성부(114)는 의료 영상 데이터로부터 복수의 제2 노멀맵(Mvirtual)들을 획득한다. 사용자는 사전에 의료 영상 데이터에 대한 내시경의 진행 방향을 결정하고 그 정보를 저장할 수 있다. 본 발명의 실시예에 따르면, 제2 노멀맵 생성부(114)는 사전에 결정된 내시경 진행 경로를 소정의 간격으로 나누고, 나누어진 각 지점에 대응하는 가상 내시경 영상을 생성할 수 있다. 이와 같이 생성된 가상 내시경 영상을 이용하여 제2 노멀맵(Mvirtual)이 획득된다. 제2 노멀맵(Mvirtual)은 대상체에 대한 가상 내시경의 위치 및 방향 정보에 기초하여 의료 영상 데이터로부터 획득될 수 있다. 이때, 가상 내시경의 방향 정보는 가상 내시경의 경로의 시작점과 현재 가상 내시경의 위치를 잇는 직선에 기초하여 결정될 수 있다. 그러나 가상 내시경이 동일 위치 및 방향 벡터 Vview를 갖더라도, 방향 벡터 Vview를 중심으로 한 가상 내시경의 회전에 따라 서로 다른 제2 노멀맵(Mvirtual)들이 필요할 수 있다. 따라서, 본 발명의 일 실시예에 따르면, 하나의 지점에 대해 소정의 각도로 분할된 복수의 제2 노멀맵(Mvirtual)들이 획득될 수 있다. 제2 노멀맵 생성부(114)에서 생성된 제2 노멀맵(Mvirtual)은 노멀맵 비교부(116)로 전달된다.4, the second normal
노멀맵 비교부(116)는 내시경 영상으로부터 획득된 제1 노멀맵(Mreal)을 의료 영상 데이터로부터 획득된 복수의 제2 노멀맵(Mvirtual)들과 비교하여 유사도를 판단한다. 유사도 판단 결과 가장 유사도가 높은 제2 노멀맵(Mvirtual)에 기초하여, 의료 영상 데이터를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득될 수 있다. 본 발명의 추가적인 실시예에 따르면, 노멀맵 비교부(116)는 노멀맵의 유사도 판단에 소요되는 복잡도를 줄이기 위해, 제1 노멀맵(Mreal)을 이전 시점의 내시경(50)의 위치 및 방향으로부터 기 설정된 범위 내의 제2 노멀맵(Mvirtual)들과 우선적으로 비교할 수 있다.The normal
내시경(50)의 위치 및 방향 정보가 획득되면, 의료 영상 처리 장치(10)는 전술한 바와 같이 증강 현실로 디스플레이 될 부분 의료 영상 데이터를 추출하고, 추출된 부분 의료 영상 데이터를 증강 현실 영상으로 렌더링한다.When the position and orientation information of the
도 6은 의료 영상 데이터가 내시경 영상에 대한 증강 현실 영상으로 제공되는 것을 예시한다. 더욱 구체적으로, 도 6(a)는 내시경 영상을, 도 6(b)는 부분 의료 영상 데이터를 나타내며, 도 6(c)는 부분 의료 영상 데이터가 내시경 영상에 대한 증강 현실 영상으로 제공된 것을 나타낸다. 전술한 본 발명의 실시예에 따라 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득되면, 부분 의료 영상 데이터와 내시경 영상이 효율적으로 정합될 수 있다. 이에 따라, 대상체의 시술 부위 및 인접한 요소들에 대한 정보가 시술자에게 직관적으로 파악될 수 있다.6 illustrates that medical image data is provided as an augmented reality image for an endoscopic image. More specifically, FIG. 6A shows the endoscopic image, FIG. 6B shows the partial medical image data, and FIG. 6C shows that the partial medical image data is provided as an augmented reality image for the endoscopic image. When the position and orientation information of the
한편, 증강 현실로 표현될 의료 영상 데이터는 다양한 종류의 데이터를 포함할 수 있다. 전술한 바와 같이, 의료 영상 데이터는 X-ray 영상, CT 영상, PET 영상, 초음파 영상, MRI 등의 의료 영상에 볼륨 렌더링을 수행하여 획득된 데이터일 수 있다. 본 발명의 추가적인 실시예에 따르면, 의료 영상 데이터는 대상체의 의료 영상에서 분할(segmentation) 후 메쉬 형태로 표현된 표적 장기(예를 들어, 뇌, 안구, 폐, 심장 등)의 영상을 포함할 수 있다. 뿐만 아니라, 의료 영상 데이터는 사용자에 의해 임의로 설정된 보조 데이터를 더 포함할 수 있다. 보조 데이터는 시술자가 시술 전에 의료 영상에 삽입한 마커, 경로 등 메쉬 형태로 표현되는 계획(planning) 정보를 포함한다. 본 발명의 실시예에 따르면, 의료 영상 처리 장치(10)는 메쉬 형태로 표현되는 상기 보조 데이터들에 대해 표면 렌더링을 수행하지 않고, 의료 영상과 함께 볼륨 렌더링을 수행할 수 있다. 더욱 구체적으로, 의료 영상 처리 장치(10)는 보조 데이터를 의료 영상과 합성하고, 합성된 데이터에 일괄적으로 볼륨 렌더링을 수행하여 증강 현실을 위한 의료 영상 데이터를 생성할 수 있다.On the other hand, the medical image data to be represented as the augmented reality may include various types of data. As described above, the medical image data may be data obtained by performing volume rendering on a medical image such as an X-ray image, a CT image, a PET image, an ultrasound image, or an MRI. According to a further embodiment of the present invention, the medical image data may include images of a target organ (e. G., Brain, eyeball, lung, heart, etc.) expressed in mesh form after segmentation in the medical image of the subject have. In addition, the medical image data may further include auxiliary data arbitrarily set by the user. The ancillary data includes planning information expressed in the form of a mesh such as a marker and a route inserted by the practitioner in the medical image before the operation. According to the embodiment of the present invention, the medical
도 7 및 도 8은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다. 볼륨 렌더링은 3차원 샘플 데이터 세트에 대한 2차원 투영을 표시하는 기술이다. 일반적인 3차원 데이터 세트는 전술한 의료 영상들로부터 수집된 2차원의 단층 촬영 이미지들의 그룹으로 구성될 수 있다. 상기 그룹의 이미지들은 규칙적인 패턴 및 개수의 픽셀들을 가질 수 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다.Figures 7 and 8 illustrate a volume rendering technique in accordance with an embodiment of the present invention. Volume rendering is a technique for displaying a two-dimensional projection for a set of three-dimensional sample data. A typical three-dimensional data set may consist of a group of two-dimensional tomographic images collected from the medical images described above. The images of the group may have a regular pattern and a number of pixels. The value of the regular grid unit of the thus constructed three-dimensional data set is called a voxel.
도 7은 볼륨 렌더링에서 사용될 수 있는 광선 투사(ray-casting) 기법을 도시한다. 광선 투사 방식은 볼륨을 구성하는 복셀들이 반투명하여 스스로 빛을 내는 성질을 갖는 것으로 정의한다. 광선 투사 방식은 사용자의 시선(또는, 카메라의 위치 및 방향)에 따라 결정된 각 광선(r0, r1, … , r4)을 따라 샘플링된 복셀 값들을 누적하여 렌더링 값을 획득 한다. 이때, 생성해야 할 광선의 개수는 결과 영상의 해상도에 따라 결정된다. 사용자의 시선에 따라 3차원 볼륨 데이터를 적절하게 렌더링하기 위해 컬러 큐브 기법이 사용될 수 있다.Figure 7 illustrates a ray-casting technique that may be used in volume rendering. The ray projection method defines that the voxels constituting the volume are translucent and have a property of emitting light by themselves. Light projection method is to obtain a rendering value by accumulating the sampled voxel value along each ray (r 0, r 1, ... , r 4) determined according to the user's eye (or the position and orientation of the camera). At this time, the number of rays to be generated depends on the resolution of the resultant image. A color cube technique may be used to render three-dimensional volume data appropriately according to the user's gaze.
도 8은 볼륨 렌더링에서 사용되는 컬러 큐브를 도시한다. 볼륨 렌더링을 위해서는 모든 복셀의 투명도와 색상이 정의되어야 한다. 이를 위해, 모든 복셀 값에 대한 RGBA(red, green, blue, alpha) 값을 정의하는 RGBA 변환 함수가 정의될 수 있다. RGBA 변환 함수의 일 실시예에로, 컬러 큐브가 사용될 수 있다. 도 8에 도시된 바와 같이, 컬러 큐브는 원점(0, 0, 0)에 검정색을 지정하고, 대각선 맞은편 꼭지점(1, 1, 1)에 흰색을 지정하며, 큐브 내에서 각 좌표 값이 증가할수록 해당 RGB 값의 강도가 증가하게 된다. 각 좌표에 따른 RGB 값은 정규화된 텍스쳐 샘플링 좌표 값으로 사용된다.Figure 8 shows a color cube used in volume rendering. For volume rendering, the transparency and color of all voxels must be defined. To do this, an RGBA conversion function may be defined that defines RGBA (red, green, blue, alpha) values for all voxel values. For one embodiment of the RGBA transform function, a color cube may be used. As shown in Fig. 8, the color cube specifies black at the origin (0, 0, 0), white at the vertex (1, 1, 1) opposite the diagonal, The intensity of the corresponding RGB value increases. The RGB values according to each coordinate are used as normalized texture sampling coordinate values.
볼륨 렌더링에서 각 광선의 시작점과 끝점을 정의하기 위해, 동일한 크기(즉, 픽셀 사이즈)를 갖는 전면 영상과 후면 영상의 두 장의 영상이 생성될 수 있다. 생성된 두 장의 영상 각각의 동일한 위치에서 획득되는 값이 그 위치에 대응하는 광선의 시작점과 끝점이 된다. 이와 같이 결정된 시작점부터 끝점까지 광선을 따라 일정 간격으로 의료 영상의 3차원 텍스쳐 샘플링을 진행하며 획득되는 값을 누적하면, 의도한 볼륨 렌더링 결과가 획득될 수 있다. 본 발명의 실시예에 따른 의료 영상 처리 장치(10)의 의료 영상 데이터 생성부(120)는 전술한 방법을 이용하여 볼륨 렌더링을 수행하고 의료 영상 데이터를 생성할 수 있다.To define the starting and ending points of each ray in the volume rendering, two images of the front and rear images having the same size (i.e., pixel size) may be generated. The value obtained at the same position of each of the generated two images becomes the start point and the end point of the light ray corresponding to the position. The 3D texture sampling of the medical image is performed at predetermined intervals along the light rays from the start point to the end point determined as described above, and an accumulated volume rendering result can be obtained by accumulating the obtained values. The medical image
도 9는 본 발명의 일 실시예에 따른 의료 영상 데이터 생성부(120)의 블록도이다. 도 9를 참조하면, 본 발명의 일 실시예에 따른 의료 영상 데이터 생성부(120)는 HU 생성부(122) 및 볼륨 렌더러(124)를 포함할 수 있다.9 is a block diagram of a medical image
볼륨 렌더러(124)는 대상체의 의료 영상을 수신하고, 수신된 의료 영상에 볼륨 렌더링을 수행하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 본 발명의 추가적인 실시예에 따르면, 볼륨 렌더러(124)는 대상체에 대한 의료 영상뿐만 아니라 사용자에 의해 임의로 설정된 보조 데이터를 함께 볼륨 렌더링할 수 있다. 보조 데이터는 사용자가 사전에 작성한 경로, 위험 영역 등 의료 영상 좌표계를 기준으로 그 크기와 위치가 정의된 임의의 정보를 나타낼 수 있다.The
일반적으로 보조 데이터는 삼각형 메쉬 형태로 정의되어 의료 영상과 별도로 그려진 후 합성될 수 있다. 그러나 본 발명의 실시예에 따르면, 사전에 작성된 보조 데이터를 의료 영상과 함께 합성한 후 볼륨 렌더링을 수행할 수 있다. 보조 데이터를 의료 영상과 함께 볼륨 렌더링을 수행하기 위해, 보조 데이터를 기 설정된 범위의 값을 갖는 복셀들로 표현할 수 있다.In general, ancillary data is defined as a triangle mesh shape and can be synthesized after being drawn separately from the medical image. However, according to the embodiment of the present invention, it is possible to perform volume rendering after synthesizing the auxiliary data created in advance with the medical image. In order to perform the volume rendering of the auxiliary data together with the medical image, the auxiliary data can be represented by the voxels having the values of the predetermined range.
가장 널리 사용되는 의료 영상인 CT의 경우, 인체의 각 구성 요소가 갖는 CT 수치는 아래 표 1과 같다. 이때, 각 수치의 단위는 HU(Hounsfield Unit)이다.In the case of CT, the most widely used medical image, the CT values of each component of the human body are shown in Table 1 below. In this case, the unit of each numerical value is HU (Hounsfield Unit).
의료 영상 표준인 DICOM(Digital Imaging and Communications in Medicine)에 따르는 데이터는 픽셀당 2byte를 사용한다. 따라서, 각 픽셀이 가질 수 있는 값의 범위는 216으로 -32768부터 32767까지이다. 임플란트 등의 이물질이 인체에 삽입될 수도 있으나, 재구성 과정에서 적정 수준의 값으로 치환되어 +/-1000HU 범위 밖의 값은 CT에서 사용되지 않는다.Data according to the medical imaging standard DICOM (Digital Imaging and Communications in Medicine) uses 2 bytes per pixel. Therefore, the range of values that each pixel can have is 2 16 , ranging from -32768 to 32767. Foreign bodies such as implants may be inserted into the human body, but they are replaced with appropriate levels during reconstitution and values outside the range of +/- 1000HU are not used in CT.
따라서, 본 발명의 실시예에 따르면, 보조 데이터는 기 설정된 HU 범위 밖의 값을 갖는 복셀로 표현될 수 있다. 이때, 기 설정된 HU 범위는 -1000HU부터 +1000HU까지일 수 있으나, 본 발명은 이에 한정되지 않는다. HU 설정부(122)는 의료 영상 데이터 내에서 보조 데이터가 차지하는 위치에 대응하는 복셀의 값을 +/-1000HU 범위 밖의 값으로 치환할 수 있다. 볼륨 렌더러(124)는 기 설정된 HU 범위 밖의 값으로 치환된 복셀 데이터를 HU 설정부(122)로부터 획득하고, 이를 의료 영상과 함께 볼륨 렌더링 한다. 이와 같이 보조 데이터를 의료 영상과 함께 볼륨 렌더링 하면 의료 영상에 포함된 부가적인 데이터의 렌더링에 필요한 연산량을 최소화할 수 있다.Therefore, according to the embodiment of the present invention, the auxiliary data can be represented by a voxel having a value outside the preset HU range. In this case, the predetermined HU range may be from -1000 HU to + 1000 HU, but the present invention is not limited thereto. The
본 발명의 추가적인 실시예에 따르면, 기 설정된 HU 범위 밖의 범위는 제1 임계값을 초과하는 제1 HU 범위와 제2 임계값 미만의 제2 HU 범위를 포함할 수 있다. 이때, 제1 임계값은 +1000HU이고, 제2 임계값은 -1000HU일 수 있다. HU 설정부(122)는 제1 HU 범위의 값과 제2 HU 범위의 값이 서로 다른 종류의 보조 데이터를 나타내도록 설정할 수 있다. 예를 들어, 제1 HU 범위의 값은 사용자가 설정한 마커 정보를 나타내고, 제2 HU 범위의 값은 경로 정보를 나타낼 수 있다. 다른 실시예에 따르면, 제1 HU 범위의 값은 경로 정보를 나타내고, 제2 HU 범위의 값은 위험 영역 정보를 나타낼 수 있다. 보조 데이터를 서로 다른 범위의 값을 갖는 복셀로 표현함으로 서로 다른 종류의 보조 데이터를 사용자가 쉽게 식별할 수 있다. 상기 언급된 보조 데이터 종류의 구분 기준 및 HU 범위 할당 방법은 본 발명의 예시를 나타낸 것이며, 본 발명은 이에 한정되지 않는다.According to a further embodiment of the present invention, the range outside the predetermined HU range may include a first HU range exceeding the first threshold and a second HU range below the second threshold. Here, the first threshold value may be + 1000 HU, and the second threshold value may be -1000 HU. The
도 10은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치(20)의 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(20)는 프로세서(21), 통신부(22), 입력부(23), 메모리(24), 위치 추적부(25) 및 디스플레이 출력부(26)를 포함할 수 있다.10 is a block diagram of a medical
먼저, 통신부(22)는 외부 장치와 통신을 수행하기 위한 다양한 프로토콜의 유/무선 통신 모듈을 포함한다. 입력부(23)는 의료 영상 처리 장치(20)에 대한 사용자 입력을 수신하기 위한 다양한 형태의 인터페이스를 포함한다. 일 실시예에 따르면, 입력부(23)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트 등을 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 의료 영상 처리 장치는 통신부(22) 및/또는 입력부(23)를 통해 대상체의 의료 영상을 미리 획득할 수 있다. 메모리(24)는 의료 영상 처리 장치(10)에서 사용되는 제어 프로그램 및 이와 관련된 각종 데이터를 저장한다. 예를 들어, 메모리(24)는 사전에 획득된 대상체의 의료 영상을 저장할 수 있다. 또한, 메모리(24)는 대상체의 의료 영상을 렌더링하여 생성된 의료 영상 데이터를 저장할 수 있다.First, the
위치 추적부(25)는 대상체 내에서의 의료용 항법 장치(55)의 위치 정보를 취득한다. 본 발명의 실시예에서 의료용 항법 장치(55)는 다양한 종류의 수술 항법 장치를 포함할 수 있다. 의료용 항법 장치의 위치 추적을 위해 광학식 위치 추적 방법 또는 전자기식 위치 추적 방법이 사용될 수 있으나, 본 발명은 이에 한정되지 않는다. 의료용 항법 장치(55)로부터 획득된 위치 정보가 대상체의 의료 영상 데이터와 정합되지 않은 경우, 위치 추적부(25)는 정합 과정을 수행하여 의료 영상 데이터를 기준으로 한 의료용 항법 장치(55)의 위치 정보를 생성할 수 있다. 위치 추적부(25)는 의료용 항법 장치(55)와 유선 또는 무선으로 연결되어 의료용 항법 장치(55)로부터 위치 정보를 수신할 수 있다.The
디스플레이 출력부(26)는 본 발명의 실시예에 따라 생성된 영상을 출력한다. 즉, 디스플레이 출력부(26)는 후술하는 바와 같이 대상체의 관심 영역에 대응하는 의료 영상 데이터를 출력할 수 있다. 디스플레이 출력부(26)에 의해 출력된 영상은 의료 영상 처리 장치(20)와 연결된 모니터(65)에 의해 디스플레이 될 수 있다.The
본 발명의 프로세서(21)는 다양한 명령 또는 프로그램을 실행하고, 의료 영상 처리 장치(20) 내부의 데이터를 처리할 수 있다. 또한, 프로세서(21)는 전술한 의료 영상 처리 장치(20)의 각 유닛을 제어하며, 유닛들 간의 데이터 송수신을 제어할 수 있다.The
도 10에 도시된 의료 영상 장치(20)는 본 발명의 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 해당 장치의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 의료 영상 장치(20)의 엘리먼트들은 해당 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 또한, 도 10에 도시된 의료 영상 장치(20)의 구성들 중 일부 구성이 생략될 수 있으며, 추가적인 구성이 의료 영상 장치(20)에 포함될 수도 있다.The
도 11은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)의 더욱 상세한 블록도이다. 도시된 바와 같이, 본 발명의 다른 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)는 관심 영역 설정부(210), 의료 영상 데이터 생성부(220) 및 부분 의료 영상 데이터 생성부(230)를 포함할 수 있다.11 is a more detailed block diagram of the
관심 영역 설정부(210)는 대상체에 대한 사용자의 관심 영역을 설정한다. 더욱 구체적으로, 관심 영역 설정부(210)는 위치 추적부(25)로부터 의료용 항법 장치(55)의 위치 정보를 수신하고, 상기 위치 정보에 기초하여 관심 영역을 설정한다. 본 발명의 실시예에 따르면, 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 이를 위해, 관심 영역 설정부(210)는 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자 입력으로 사전에 수신할 수 있다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다. 만약 사용자가 수평면, 시상면 및 관상면 중 적어도 하나의 기준면에 대한 영역 설정 정보를 입력하지 않은 경우, 관심 영역 설정부(210)는 해당 면을 기준으로 한 크롭핑(cropping)을 수행하지 않을 수 있다. 관심 영역 설정부(210)에서 획득된 관심 영역 정보는 부분 의료 영상 데이터 생성부(230)로 전달된다.The
다음으로, 의료 영상 데이터 생성부(220)는 대상체의 의료 영상을 렌더링하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함한다. 의료 영상 데이터는 대상체에 대한 의료 영상을 이용하여 생성된 복셀들을 가리킬 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 의료 영상 데이터는 대상체에 대한 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수도 있다.Next, the medical image
다음으로, 부분 의료 영상 데이터 생성부(230)는 대상체에 대한 의료 영상 데이터 중 관심 영역에 대응하는 부분의 의료 영상 데이터를 추출하여 렌더링한다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 관심 영역의 복셀들을 선별적으로 광선 투사하여 볼륨 렌더링을 수행할 수 있다. 이에 따라, 대상체 내에서 관심 영역 이외의 개체들이 관심 영역의 개체들과 중첩되는 것을 방지하여, 시술자가 대상체의 해부학적 구조를 용이하게 파악할 수 있게 된다.Next, the partial medical image
본 발명의 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 다양한 방법으로 볼륨 렌더링 데이터를 생성할 수 있다. 일 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에 포함된 복셀들 전체에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.According to an embodiment of the present invention, the partial medical image
본 발명의 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀들에 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이때, 기 설정된 HU 범위는 대상체의 특정 조직(tissue)의 CT 수치에 기초하여 결정될 수 있다. 또한, 볼륨 렌더링을 수행하기 위한 특정 조직은 사용자에 의해 선택될 수 있다. 이를 통해, 관심 영역 내에서 사용자의 설정에 의해 선택된 특정 조직에 대응하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.According to another embodiment of the present invention, the partial medical image
표 1을 통해 설명된 바와 같이, 인체의 각 구성 요소가 갖는 CT 수치의 범위는 미리 결정되어 있다. 만약 사용자가 대상체의 관심 영역 중에서 회백질만을 선별적으로 확인하고 싶다면, 사용자는 -37 내지 -45의 CT 수치 범위에 포함된 임의의 값 또는 해당 범위를 포함하는 CT 수치 범위를 입력부(23)를 통해 입력할 수 있다. 뿐만 아니라, 사용자는 기 설정된 대상체의 조직들 중 회백질에 대한 선택을 입력부(23)를 통해 입력할 수도 있다. 부분 의료 영상 데이터 생성부(230)는 사용자의 입력에 기초하여 대상체의 관심 영역 중에서 회백질에 해당하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.As described in Table 1, the range of CT values of each component of the human body is predetermined. If the user desires to selectively check only the gray matter from the region of interest of the object, the user can input any value contained in the CT value range of -37 to -45 or a CT value range including the range to the
본 발명의 또 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점에 가상의 광원이 존재한다고 가정하여, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 설정할 수 있다. 부분 의료 영상 데이터 생성부(230)는 이와 같이 설정된 복셀들에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이에 대한 구체적인 실시예는 후술하도록 한다.According to another embodiment of the present invention, the partial medical image
부분 의료 영상 데이터 생성부(230)에서 생성된 부분 의료 영상 데이터는 디스플레이 출력부(26)의 출력 영상으로 제공될 수 있다.The partial medical image data generated by the partial medical image
도 12는 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다. 도 12를 참조하면, 볼륨 렌더링을 수행하기 위한 컬러 큐브 내에서 시상면을 기준으로 특정 거리 이내에 포함된 영역이 관심 영역으로 설정되어 있다. 도 13은 이와 같이 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 더욱 구체적으로, 도 13(a)는 큐브 내에 포함된 대상체의 볼륨 렌더링 데이터를 나타내며, 도 13(b)는 도 12에 의해 설정된 관심 영역에 대응하는 볼륨 렌더링 데이터를 나타낸다. 도 13(b)에 나타난 바와 같이, 사용자의 관심 영역 설정에 따라, 대상체의 시상면을 기준으로 특정 거리 이내에 포함된 영역만이 볼륨 렌더링되어 디스플레이 될 수 있다.Figure 12 shows an embodiment for setting a region of interest for a subject. Referring to FIG. 12, a region included within a specific distance with respect to the sagittal plane in the color cube for performing volume rendering is set as a region of interest. FIG. 13 shows the partial medical image data corresponding to the set region of interest. More specifically, Fig. 13 (a) shows volume rendering data of the object included in the cube, and Fig. 13 (b) shows volume rendering data corresponding to the region of interest set by Fig. As shown in FIG. 13 (b), only an area included within a specific distance based on the sagittal plane of the object can be volume-rendered and displayed according to the user's area of interest setting.
도 14는 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다. 도 14를 참조하면, 유저 인터페이스는 대상체의 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자로부터 수신할 수 있다. 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 본 발명의 일 실시예에 따르면, 위치 추적부(25)로부터 획득된 의료용 항법 장치(55)의 위치 정보가 유저 인터페이스의 각 기준면에 대한 슬라이드 바 상에서 특정 좌표로 표시될 수 있다. 사용자는 각 슬라이드 바에 표시된 좌표를 기준으로 관심 영역에 포함될 기준 거리를 설정할 수 있다. 관심 영역 설정부(210)는 수평면을 기준으로 한 제1 거리 정보, 시상면을 기준으로 한 제2 거리 정보 및 관상면을 기준으로 한 제3 거리 정보 중 적어도 하나를 유저 인터페이스를 통해 수신한다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다.14 shows an embodiment of a user interface for setting a region of interest of an object. Referring to FIG. 14, the user interface can receive information (i.e., area setting information) about a predetermined distance based on each of the horizontal plane, sagittal plane and coronal plane of the object from the user. The region of interest is set based on at least one of a horizontal plane, a sagittal plane and a coronal plane of the medical image data based on an area within a predetermined distance from the position of the
도 15 및 도 16은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 도 15(a)는 대상체의 시상면을 기준으로 관심 영역이 설정된 경우를, 도 15(b)는 대상체의 수평면을 기준으로 관심 영역이 설정된 경우를, 도 15(c)는 대상체의 관상면을 기준으로 관심 영역이 설정된 경우를 각각 나타낸다. 또한, 도 16은 대상체의 시상면, 수평면 및 관상면 모두를 기준으로 관심 영역이 설정된 경우를 나타낸다. 이와 같이, 본 발명의 실시예에 따르면 사용자의 설정에 따라 다양한 형태로 관심 영역이 설정될 수 있으며, 관심 영역에 대응하는 의료 영상만을 선별적으로 렌더링하여 사용자에게 제공할 수 있다.15 and 16 illustrate partial medical image data corresponding to variously set interest areas. FIG. 15 (a) shows a case where a region of interest is set based on a sagittal plane of the object, FIG. 15 (b) shows a case where a region of interest is set with reference to a horizontal plane of the object, And the region of interest is set as a reference. Fig. 16 shows a case where a region of interest is set on the basis of both the sagittal plane, the horizontal plane and the coronal plane of the object. As described above, according to the embodiment of the present invention, the ROI can be set in various forms according to the setting of the user, and only the medical images corresponding to the ROI can be selectively rendered and provided to the user.
한편, 상기 실시예들에서는 관심 영역이 의료 영상 데이터의 수평면, 시상면 및 관상면을 기준으로 설정되는 것으로 설명되었으나, 본 발명은 이에 한정되지 않는다. 본 발명에서 관심 영역은 의료 영상 데이터의 임의의 기준 축 또는 기준 면에 대하여 설정될 수 있다.In the above embodiments, the region of interest is set based on the horizontal plane, the sagittal plane, and the coronal plane of the medical image data, but the present invention is not limited thereto. In the present invention, the region of interest may be set for any reference axis or reference plane of the medical image data.
도 17은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다. 전술한 바와 같이, 부분 의료 영상 데이터 생성부(230)는 관심 영역(30)에 대한 특수 효과를 위해, 기 설정된 지점의 가상의 광원으로부터 빛이 방출된다는 가정 하에 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다.17 shows a method of generating partial medical image data according to a further embodiment of the present invention. As described above, the partial medical image
먼저, 일반적인 광선 투사 방법을 이용한 볼륨 렌더링 데이터의 각 픽셀 값 은 아래 수학식 1과 같이 표현될 수 있다.First, each pixel value of the volume rendering data using a general ray projection method Can be expressed by Equation (1) below.
여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀을 가리킨다. 또한, 는 복셀 x의 값(또는, 복셀 x의 강도) 이고, 는 최초 복셀 S0부터 현재 복셀 x까지 누적된 투명도를 나타낸다. τ(t)는 복셀 t의 감쇄 계수를 나타낸다.Where S 0 is the initial voxel sampled by light projection and S n is the final voxel sampled by light projection. Also, Is the value of the voxel x (or the intensity of the voxel x) Represents the transparency accumulated from the initial voxel S 0 to the current voxel x. τ (t) represents the attenuation coefficient of the voxel t.
본 발명의 실시예에 따르면, 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점 P0에 가상의 광원이 존재한다고 가정하고, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역(30)의 복셀 값들을 설정할 수 있다. 이때, 복셀 x의 값 는 아래 수학식 2와 같이 표현될 수 있다.According to the embodiment of the present invention, it is assumed that a virtual light source exists at a predetermined point P 0 based on the position of the
여기서, R(x)는 가상의 광원에서 방출된 빛에 의해 조정되는 복셀 값이며 아래 수학식 3과 같이 정의될 수 있다.Here, R (x) is a voxel value adjusted by light emitted from a virtual light source and can be defined as Equation (3) below.
여기서, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값을 각각 나타낸다. 본 발명의 실시예에 따르면, 반사 계수 Kref는 아래 수학식 4와 같이 결정될 수 있다.Where K ref is the reflection coefficient, P 0 is the position of the virtual light source, and L is the brightness value at P 0 of the virtual light source. According to the embodiment of the present invention, the reflection coefficient K ref can be determined according to Equation (4) below.
여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터를 각각 나타낸다. 일 실시예에 따르면, 기울기 벡터 G(x)는 복셀 x를 기준으로 주변 복셀 값들이 가장 크게 변화하는 참조면의 법선으로 정의될 수 있다.Where G (x) is the slope vector at the x-axis, and V p0-> x is the direction vector from the virtual position of the light source P 0 to the voxel x. According to one embodiment, the slope vector G (x) can be defined as the normal of the reference plane in which the peripheral voxel values vary most greatly based on the voxel x.
따라서, 본 발명의 실시예에 따르면, 부분 의료 영상 데이터의 각 픽셀 값 는 아래 수학식 5에 기초하여 결정될 수 있다.Therefore, according to the embodiment of the present invention, each pixel value of partial medical image data Can be determined based on Equation (5) below.
부분 의료 영상 데이터 생성부(230)는 이와 같이 생성된 볼륨 렌더링 데이터를 부분 의료 영상 데이터로 생성한다. 이와 같은 본 발명의 추가적인 실시예에 따르면, 관심 영역 내부 또는 관심 영역 주변에 조명이 삽입된 것과 같은 효과를 나타낼 수 있다. 관심 영역 내부 또는 주변에 조명이 삽입되면 관심 영역에 대한 그림자 효과로 인해 관심 영역의 입체감이 극대화 될 수 있으며, 관심 영역에 대한 사용자의 식별도가 증가될 수 있다.The partial medical image
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아는 것으로 해석해야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. Therefore, the above-described embodiments are to be interpreted in all aspects as illustrative and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
도 18은 일 실시예에 따른 이미지 랜드 마크(image landmark)의 예시를 나타내는 도면이다.18 is a diagram illustrating an example of an image landmark according to an embodiment.
이미지 랜드마크는 CT 등의 3D 영상에서 가시화(Visualization) 소프트웨어를 사용하여 지정한 3차원 좌표를 의미할 수 있다. 이미지 랜드마크으로 Model Point Set 이 사용될 수 있다.The image landmark may refer to the three-dimensional coordinates specified using visualization software in 3D images such as CT. Model Point Set can be used as image landmark.
환자 랜드마크(patient landmark)는 위치추적 장치를 사용하여 지정한 3차원 좌표일 수 있다. 환자 랜드마크로 Scene Point Set이 사용될 수 있다. 예를 들어, 전자기식 위치 추적 장치를 사용하여 도 9의 첫 번째 이미지 랜드마크에 대응하는 환자 랜드마크를 지정할 수 있다.The patient landmark may be the three-dimensional coordinates specified using the location tracking device. Scene Point Set can be used as patient landmark. For example, an electronic location tracking device may be used to designate a patient landmark corresponding to the first image landmark in FIG.
도 19는 일 실시예에 따른 점 정합(point-based registration) 수행 방법을 나타내는 도면이다.19 is a diagram illustrating a method of performing point-based registration according to an embodiment.
본 발명의 일 실시예에 따른 장치는 주어진 두 개의 Point Set(Image Land Marks, Patient Land Marks)의 위치 관계(correspondence)를 가장 잘 묘사하는 변환(rotation/translation)을 탐색할 수 있다. 또한, 장치는 점 정합에 대응되는 개념으로 표면 정합(Surface-Based Registration)을 수행할 수 있다. 장치는 점 정합 결과(변환 행렬)를 적용하여 서로 다른 좌표계에서 정의된 점들로 변환할 수 있다. 예를 들어 장치는 위치 추적 장치에서 출력한 좌표를 3D 영상 좌표계의 점으로 변환 후 표시할 수 있다.The apparatus according to an embodiment of the present invention can search for a rotation / translation that best describes the correspondence of two given Point Sets (Image Land Marks). Further, the apparatus can perform surface-based registration in a concept corresponding to the point matching. The device can apply the point matching result (transformation matrix) and convert it into points defined in different coordinate systems. For example, the apparatus can convert the coordinate output from the position tracking device into a point in the 3D image coordinate system and display it.
또한, 장치는 도 20에서와 같이 Image Guided Surgery(또는 Surgical Navigation)등에서 현재 수술 위치를 사전 획득한 환자 영상(CT 등)에 표시 하기 위하여 사용할 수 있다. 예를 들어, 장치는 정합 결과를 적용하여 현재 삽입된 수술 기구의 위치를 빨간색 점으로 표시할 수 있다.In addition, the apparatus can be used to display a current operation position on a patient image (CT or the like) acquired in advance, for example, Image Guided Surgery (or Surgical Navigation) as shown in FIG. For example, the device can display the position of the currently inserted surgical instrument as a red dot by applying the matching result.
특징점 기반 정합 방법은 정합 점 지정시 발생하는 오차 (Localization Error)로 인해 정합 오류가 발생하게 된다. 기존의 특징점 기반 정합 방법은 Patient Land Mark와 동일한 개수의 Image Land Mark를 지정한다.In the feature point based matching method, a matching error occurs due to a localization error occurring when a matching point is specified. Conventional feature point based matching method specifies the same number of Image Land Mark as Patient Land Mark.
본 발명의 일 실시예에 따른 장치는 Localization Error를 고려하여 사용자가 지정한 Image Land Mark 한 점 뿐 아니라, 복수개의 인근 3D 좌표들을 후보군으로 사용할 수 있다. 여기에서, 후보 기준은 모델의 표면(surface)을 정의하는 점들 중, 준 좌표로부터 일정 거리 안쪽이 될 수 있다. 예를 들어, 후보군은 환자 영상의 우측 눈꼬리에 위치한 첫 번째 Image Land Mark 지정 시, 이 주변의 3차원 좌표 K개를 동시에 후보로 등록될 수 있다.The apparatus according to an embodiment of the present invention may use not only one image landmark point designated by the user in consideration of localization error but also a plurality of nearby 3D coordinates as candidates. Here, the candidate criterion can be a certain distance from the quasi-coordinates of the points defining the surface of the model. For example, when designating the first Image Land Mark located on the right eye's right tail of the patient image, K can be registered as a candidate for the three-dimensional coordinates around the patient's image simultaneously.
예를 들어, 장치는 N개의 Patient Land Mark가 있는 경우, 이에 대응하는 각 Image Land Mark에 대해서 K개의 후보 사용할 수 있다. 즉, 장치는 총 KxN개의 Image Land Mark를 사용할 수 있다.For example, if the device has N Patient Land Marks, then K candidates can be used for each corresponding Image Land Mark. That is, the device can use a total of KxN Image Land Marks.
본 발명의 일 실시예에 따르면, 하나의 Patient Land Mark에 대한 Image Land Mark의 복수의 후보군을 사용함으로써 정합 점 지정시 발생하는 오차를 감소시킬 수 있다.According to an embodiment of the present invention, by using a plurality of candidate groups of Image Land Marks for one Patient Land Mark, it is possible to reduce an error occurring when designating a matching point.
이상에서 본 발명을 구체적인 실시예를 통하여 설명하였으나, 당업자라면 본 발명의 취지를 벗어나지 않는 범위 내에서 수정, 변경을 할 수 있을 것이다. 따라서 본 발명이 속하는 기술분야에 속한 사람이 본 발명의 상세한 설명 및 실시예로부터 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석되어야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention. Accordingly, it is to be understood that within the scope of the appended claims, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims.
Claims (1)
Apparatus and method for reducing an error occurring when designating a matching point using a plurality of candidate groups for one feature point
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170169979A KR20190069751A (en) | 2017-12-12 | 2017-12-12 | Point based registration apparatus and method using multiple candidate points |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170169979A KR20190069751A (en) | 2017-12-12 | 2017-12-12 | Point based registration apparatus and method using multiple candidate points |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190069751A true KR20190069751A (en) | 2019-06-20 |
Family
ID=67103708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170169979A KR20190069751A (en) | 2017-12-12 | 2017-12-12 | Point based registration apparatus and method using multiple candidate points |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190069751A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210052270A (en) * | 2019-10-30 | 2021-05-10 | 주식회사 스키아 | Method, apparatus and computer program for providing augmented reality based medical information of patient |
KR20210104466A (en) | 2020-02-17 | 2021-08-25 | 숭실대학교산학협력단 | Method for fine face registration for 3d surgical navigation system, recording medium and device for performing the method |
-
2017
- 2017-12-12 KR KR1020170169979A patent/KR20190069751A/en unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210052270A (en) * | 2019-10-30 | 2021-05-10 | 주식회사 스키아 | Method, apparatus and computer program for providing augmented reality based medical information of patient |
KR20210104466A (en) | 2020-02-17 | 2021-08-25 | 숭실대학교산학협력단 | Method for fine face registration for 3d surgical navigation system, recording medium and device for performing the method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11652971B2 (en) | Image-guided surgery with surface reconstruction and augmented reality visualization | |
US11576645B2 (en) | Systems and methods for scanning a patient in an imaging system | |
US11676706B2 (en) | Medical image processing apparatus and medical image processing method which are for medical navigation device | |
US11443431B2 (en) | Augmented reality patient positioning using an atlas | |
US20170366773A1 (en) | Projection in endoscopic medical imaging | |
US10055848B2 (en) | Three-dimensional image segmentation based on a two-dimensional image information | |
CN108140242A (en) | Video camera is registrated with medical imaging | |
JP5934070B2 (en) | Virtual endoscopic image generating apparatus, operating method thereof, and program | |
US20230039532A1 (en) | 2d pathfinder visualization | |
US11596481B2 (en) | 3D pathfinder visualization | |
JP2016536089A (en) | How to calculate a surgical intervention plan | |
CN113906479A (en) | Generating synthetic three-dimensional imagery from local depth maps | |
KR101993384B1 (en) | Method, Apparatus and system for correcting medical image by patient's pose variation | |
CN115054367A (en) | Focus positioning method and device based on mixed reality and electronic equipment | |
KR20190069751A (en) | Point based registration apparatus and method using multiple candidate points | |
KR101977650B1 (en) | Medical Image Processing Apparatus Using Augmented Reality and Medical Image Processing Method Using The Same | |
US11941765B2 (en) | Representation apparatus for displaying a graphical representation of an augmented reality | |
KR102084251B1 (en) | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator | |
US20210052146A1 (en) | Systems and methods for selectively varying resolutions | |
CN114496197A (en) | Endoscope image registration system and method | |
KR102208577B1 (en) | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator | |
Vogt | Augmented light field visualization and real-time image enhancement for computer assisted endoscopic surgery | |
US20220409283A1 (en) | Presentation device for displaying a graphical presentation of an augmented reality | |
KR20140128136A (en) | Method of comparing preoperative respiratory level with intraoperative respiratory level |