KR102208577B1 - Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator - Google Patents
Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator Download PDFInfo
- Publication number
- KR102208577B1 KR102208577B1 KR1020200023717A KR20200023717A KR102208577B1 KR 102208577 B1 KR102208577 B1 KR 102208577B1 KR 1020200023717 A KR1020200023717 A KR 1020200023717A KR 20200023717 A KR20200023717 A KR 20200023717A KR 102208577 B1 KR102208577 B1 KR 102208577B1
- Authority
- KR
- South Korea
- Prior art keywords
- medical image
- image data
- medical
- image processing
- voxel
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G06K9/3233—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Computer Graphics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Multimedia (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
본 발명은 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법에 관한 것으로서, 더욱 상세하게는 수술용 네비게이터의 사용시 제공되는 영상을 처리하기 위한 장치 및 방법에 관한 것이다.
이를 위해 본 발명은, 의료용 항법 장치를 위한 의료 영상 처리 장치로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서; 를 포함하는 의료 영상 처리 장치 및 이를 이용한 의료 영상 처리 방법을 제공한다.The present invention relates to a medical image processing apparatus and a medical image processing method for a surgical navigator, and more particularly, to an apparatus and method for processing an image provided when the surgical navigator is used.
To this end, the present invention provides a medical image processing apparatus for a medical navigation apparatus, comprising: a location tracking unit that acquires location information of a medical navigation apparatus within an object; A memory for storing medical image data generated based on a medical image of the object; And a processor configured to set an ROI based on location information of the medical navigation device based on the medical image data and generate partial medical image data corresponding to the ROI. It provides a medical image processing apparatus including a and a medical image processing method using the same.
Description
본 발명은 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법에 관한 것으로서, 더욱 상세하게는 수술용 네비게이터의 사용시 제공되는 영상을 처리하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a medical image processing apparatus and a medical image processing method for a surgical navigator, and more particularly, to an apparatus and method for processing an image provided when the surgical navigator is used.
수술 시 환자의 절개 부위를 최소화하는 최소 침습 수술이 널리 사용되고 있다. 최소 침습 수술은 절개 부위를 최소화하고 그에 따른 실혈(blood loss)과 회복기간을 최소화할 수 있는 장점이 있으나, 의사의 시야가 제한되어 일부 수술들의 경우 뇌수막 손상, 안구 손상 등의 위험 요인을 갖고 있다. 의사의 시야가 제한되는 최소 침습 수술의 단점을 극복하기 위한 도구의 하나로써, 의료용 항법 장치(또는, 수술 항법 장치)가 사용되고 있다. 의료용 항법 장치는 사전에 확보된 환자의 의료 영상을 기준으로 환자의 환부에 삽입된 기구의 위치 정보를 실시간으로 추적하여 제공한다. 또한, 이러한 의료용 항법 장치는 내시경과 결합하여 사용될 수도 있다.Minimally invasive surgery, which minimizes the patient's incision during surgery, is widely used. Minimally invasive surgery has the advantage of minimizing the incision site and minimizing the resulting blood loss and recovery period, but some surgeries have risk factors such as meningeal damage and eye damage due to the limited vision of the doctor. . As one of the tools for overcoming the shortcomings of minimally invasive surgery in which the doctor's field of view is limited, a medical navigation device (or surgical navigation device) is used. A medical navigation device provides real-time tracking of location information of an instrument inserted in a patient's affected area based on a previously secured medical image of a patient. In addition, such a medical navigation device may be used in combination with an endoscope.
의료용 항법 장치에서 삽입된 시술 기구의 실시간 위치 추적을 위해 광학식 또는 전자기식 위치 추적 장치가 사용될 수 있다. 시술 기구의 위치 추적을 위한 일 예로, 적외선 방출 장치와 패시브 형태의 이미지 센서를 포함하는 광학식 위치 추적 장치가 사용될 수 있다. 광학식 위치 추적 장치는 적외선 방출 장치를 통해 기준 광을 방사하고, 복수의 마커들에 의해 반사되는 이미지를 이미지 센서를 통해 수집한다. 해당 위치 추적 장치는 복수의 마커들의 위치를 기초로 시술 기구의 위치 정보를 획득할 수 있다. 한편, 시술 기구의 위치 추적을 위한 다른 예로, 자기장 생성기 및 전도성 금속 물체를 포함하는 전자기식 위치 추적 장치가 사용될 수 있다. 전자기식 위치 추적 장치는 자기장 생성기에 의해 생성된 자기장 내에서 전도성 금속 물체에 발생하는 맴돌이 전류를 측정하여 시술 기구의 위치 정보를 획득할 수 있다. 위치 추적 장치에서 시술 기구와 신체 부위의 위치 관계를 정확하게 표시하기 위해, 환자의 신체 부위에 대한 의료 데이터와 시술 기구간의 최초 위치 관계를 정의하는 정합 과정이 필요할 수 있다.An optical or electromagnetic positioning device may be used for real-time positioning of a surgical instrument inserted in a medical navigation device. As an example for tracking the location of the surgical instrument, an optical location tracking device including an infrared emission device and a passive image sensor may be used. The optical position tracking device emits reference light through an infrared emission device, and collects images reflected by a plurality of markers through an image sensor. The corresponding location tracking device may obtain location information of a procedure device based on locations of a plurality of markers. Meanwhile, as another example for tracking the location of the surgical instrument, an electromagnetic location tracking device including a magnetic field generator and a conductive metal object may be used. The electromagnetic position tracking device may obtain positional information of a surgical instrument by measuring an eddy current generated in a conductive metal object in a magnetic field generated by the magnetic field generator. In order to accurately display the positional relationship between the procedure device and the body part in the position tracking device, a registration process may be required to define the initial positional relationship between the medical data on the patient's body part and the procedure device.
도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다. 의료용 항법 장치는 신체 부위에 대한 수평면(horizontal), 시상면(sagittal) 및 관상면(coronal)의 영상들 중 적어도 하나를 디스플레이 할 수 있다. 시술자(또는, 의사)는 각 영상들을 해석하여 시술 기구의 3차원적 위치를 판단하고, 인접한 위험 요소 등을 파악한다. 그러나 이러한 단면 영상들은 신체 부위 내에서의 시술 기구의 위치를 직관적으로 표현할 수 없다. 따라서, 복수의 단면 영상들을 대조하여 시술 기구의 정확한 위치를 판단하기 위해서 시술자의 숙련도가 필요할 뿐만 아니라 많은 시간이 소요될 수 있다. 또한, 시술 기구의 위치 파악을 위해 의료용 항법 장치의 모니터를 주시하는 시간이 길어질 경우, 전체적인 시술 기간이 길어져 시술자와 환자 모두의 피로를 증가시킬 수 있다.1 shows an embodiment of an output image of a medical navigation device. The medical navigation apparatus may display at least one of images of a horizontal plane, a sagittal plane, and a coronal plane for a body part. The operator (or doctor) interprets each image to determine the three-dimensional position of the surgical instrument, and identifies adjacent risk factors. However, these cross-sectional images cannot intuitively express the position of the surgical instrument within the body part. Therefore, in order to determine the exact position of the surgical instrument by comparing a plurality of cross-sectional images, not only the operator's skill is required, but it may take a lot of time. In addition, if the time to watch the monitor of the medical navigation device is prolonged to determine the location of the procedure device, the overall treatment period may be prolonged, thereby increasing the fatigue of both the operator and the patient.
본 발명은 환자의 신체 내의 시술 부위 및 인접한 요소들에 대한 정보를 시술자가 직관적으로 파악할 수 있도록 하는 의료 영상 처리 방법을 제공하기 위한 목적을 가지고 있다.An object of the present invention is to provide a medical image processing method that enables a practitioner to intuitively grasp information on an operation site and adjacent elements in a patient's body.
또한, 본 발명은 사전에 수집된 환자의 의료 영상과 실시간으로 수집되는 시술 부위 영상을 효과적으로 렌더링 하기 위한 목적을 가지고 있다.In addition, the present invention has an object to effectively render a medical image of a patient collected in advance and an image of a treatment site collected in real time.
또한, 본 발명은 환자의 해부학적 구조를 파악하기 용이한 의료용 항법 장치를 제공하기 위한 목적을 가지고 있다.In addition, the present invention has an object to provide a medical navigation device that is easy to grasp the anatomical structure of a patient.
상기와 같은 과제를 해결하기 위해, 본 발명은 다음과 같은 의료 영상 처리 장치 및 의료 영상 처리 방법을 제공한다.In order to solve the above problems, the present invention provides a medical image processing apparatus and a medical image processing method as follows.
먼저, 본 발명의 실시예에 따르면, 의료용 항법 장치를 위한 의료 영상 처리 장치로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서; 를 포함하는 의료 영상 처리 장치가 제공된다.First, according to an embodiment of the present invention, there is provided a medical image processing apparatus for a medical navigation apparatus, comprising: a location tracking unit that acquires location information of a medical navigation apparatus within an object; A memory for storing medical image data generated based on a medical image of the object; And a processor configured to set an ROI based on location information of the medical navigation device based on the medical image data and generate partial medical image data corresponding to the ROI. A medical image processing apparatus including a is provided.
또한, 본 발명의 실시예에 따르면, 의료용 항법 장치를 위한 의료 영상 처리 방법으로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 단계; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 단계; 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하는 단계; 및 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 단계; 를 포함하는 의료 영상 처리 방법이 제공된다.In addition, according to an embodiment of the present invention, there is provided a medical image processing method for a medical navigation device, the method comprising: acquiring location information of a medical navigation device in an object; Storing medical image data generated based on the medical image of the object; Setting an ROI based on the location information of the medical navigation device based on the medical image data; And generating partial medical image data corresponding to the region of interest. A medical image processing method including a is provided.
이때, 상기 관심 영역은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 상기 의료용 항법 장치의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다.In this case, the region of interest is set based on at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data, based on an area within a preset distance from the position of the medical navigation device.
또한, 상기 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리는 사용자의 입력에 의해 결정된다.In addition, a preset distance based on each of the horizontal plane, sagittal plane, and coronal plane is determined by user input.
일 실시예에 따르면, 상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성된다.According to an embodiment, the partial medical image data is generated by rendering voxels having values within a preset HU range within the ROI.
또한, 상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정된다.In addition, the preset HU range is determined based on the CT value of the specific tissue of the subject.
또한, 상기 특정 조직은 사용자의 선택에 의해 결정된다.In addition, the specific organization is determined by the user's selection.
본 발명의 추가적인 실시예에 따르면, 상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성된다.According to a further embodiment of the present invention, the partial medical image data is generated by rendering voxels of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation device.
이때, 상기 부분 의료 영상 데이터의 각 픽셀 값 는 다음 수학식에 기초하여 결정된다.At this time, each pixel value of the partial medical image data Is determined based on the following equation.
여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀, 는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.Here, S 0 is the first voxel sampled by ray projection, S n is the final voxel sampled by ray projection, Is the value of voxel x, τ(t) is the attenuation coefficient of voxel t, K ref is the reflection coefficient, P 0 is the position of the virtual light source, L is the brightness value at P 0 of the virtual light source.
이때, 상기 Kref는 다음 수학식에 기초하여 결정된다.In this case, K ref is determined based on the following equation.
여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.Here, G(x) is the gradient vector at the voxel x, and V p0 ->x is the direction vector from the position P 0 of the virtual light source to the voxel x.
또한, 상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터이다.In addition, the medical image data is voxels generated using a medical image of the object, and the partial medical image data is volume rendering data obtained by projecting light rays of voxels corresponding to the ROI.
본 발명의 실시예에 따르면, 환자의 의료 영상과 시술 부위 영상을 효과적으로 렌더링 함으로 수술 및 의료 진단의 편의성을 제공할 수 있다.According to an embodiment of the present invention, convenience of surgery and medical diagnosis may be provided by effectively rendering a patient's medical image and an operation site image.
또한, 본 발명의 실시예에 따르면, 시술자가 환자의 해부학적 구조를 용이하게 파악할 수 있도록 하여 시술의 편의성 및 집중도를 향상시킬 수 있다.In addition, according to an embodiment of the present invention, convenience and concentration of the procedure may be improved by allowing the operator to easily grasp the anatomical structure of the patient.
도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다.
도 2 및 도 3은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다.
도 4는 본 발명의 실시예에 따른 의료 영상 처리 장치의 블록도이다.
도 5는 본 발명의 실시예에 따른 의료 영상 처리 장치의 프로세서의 더욱 상세한 블록도이다.
도 6은 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다.
도 7은 도 6에 의해 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 8은 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다.
도 9 및 도 10은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 11은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다.1 shows an embodiment of an output image of a medical navigation device.
2 and 3 illustrate a volume rendering technique according to an embodiment of the present invention.
4 is a block diagram of a medical image processing apparatus according to an embodiment of the present invention.
5 is a more detailed block diagram of a processor of a medical image processing apparatus according to an embodiment of the present invention.
6 shows an embodiment of setting an ROI for an object.
7 shows partial medical image data corresponding to an ROI set by FIG. 6.
8 illustrates an embodiment of a user interface for setting an ROI of an object.
9 and 10 illustrate partial medical image data corresponding to variously set regions of interest.
11 illustrates a method of generating partial medical image data according to an additional embodiment of the present invention.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.The terms used in the present specification have been selected as currently widely used general terms as possible while considering the functions of the present invention, but this may vary according to the intention, custom, or the emergence of new technologies of the skilled person in the art. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding invention. Therefore, it should be noted that the terms used in the present specification should be interpreted based on the actual meaning of the term and the entire contents of the present specification, not a simple name of the term.
명세서 전체에서, 어떤 구성이 다른 구성과 “연결”되어 있다고 할 때, 이는 “직접적으로 연결”되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 “전기적으로 연결”되어 있는 경우도 포함한다. 또한 어떤 구성이 특정 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 이에 더하여, 특정 임계값을 기준으로 “이상” 또는 “이하”라는 한정 사항은 실시예에 따라 각각 “초과” 또는 “미만”으로 적절하게 대체될 수 있다.Throughout the specification, when a component is said to be “connected” with another component, this includes not only the case that it is “directly connected”, but also the case that it is “electrically connected” with another component in the middle. do. In addition, when a certain component "includes" a specific component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, the limitations of “above” or “less than” based on a specific threshold value may be appropriately replaced with “exceeding” or “less than”, respectively, according to embodiments.
이하, 각 도면을 참조로 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법을 설명하도록 한다. 본 발명의 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 인체 및 동물체를 포함하는 대상체에 대한 의료 영상에 적용될 수 있다. 의료 영상은 X-ray 영상, 컴퓨터 단층 촬영(Computed Tomography, CT) 영상, 양전자 방출 단층 촬영(Positron Emission Tomography, PET) 영상, 초음파 영상 및 자기 공명 영상(Magnetic Resonance Imaging, MRI)을 포함하며, 본 발명은 이에 한정되지 않는다. 또한, 본 명세서에서 의료 영상 데이터는 의료 영상 자체뿐만 아니라 의료 영상을 렌더링하여 생성된 다양한 형태의 데이터를 포함하는 넓은 의미의 용어로 사용된다. 일 실시예에 따르면, 의료 영상 데이터는 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수 있다. 또한, 의료 영상 데이터는 2차원의 의료 영상들의 그룹으로 구성된 3차원 데이터 세트를 가리킬 수도 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다. 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법은 내시경 및/또는 의료용 항법 장치에 의해 제공되는 영상을 생성하거나 처리할 수 있다.Hereinafter, a medical image processing apparatus and a medical image processing method according to an embodiment of the present invention will be described with reference to each drawing. The image processing apparatus and image processing method according to an exemplary embodiment of the present invention may be applied to medical images of an object including a human body and an animal body. Medical images include X-ray images, computed tomography (CT) images, positron emission tomography (PET) images, ultrasound images, and magnetic resonance imaging (MRI). The invention is not limited thereto. In addition, in the present specification, medical image data is used as a term in a broad sense including not only the medical image itself, but also various types of data generated by rendering the medical image. According to an embodiment, the medical image data may refer to data obtained by volume-rendering a medical image. Further, the medical image data may refer to a 3D data set composed of a group of 2D medical images. The value of the regular grid unit of the 3D data set constructed as described above is called a voxel. The medical image processing apparatus and the medical image processing method according to an embodiment of the present invention may generate or process an image provided by an endoscope and/or a medical navigation apparatus.
도 2 및 도 3은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다. 볼륨 렌더링은 3차원 샘플 데이터 세트에 대한 2차원 투영을 표시하는 기술이다. 일반적인 3차원 데이터 세트는 전술한 의료 영상들로부터 수집된 2차원의 단층 촬영 이미지들의 그룹으로 구성될 수 있다. 상기 그룹의 이미지들은 규칙적인 패턴 및 개수의 픽셀들을 가질 수 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다.2 and 3 illustrate a volume rendering technique according to an embodiment of the present invention. Volume rendering is a technique that displays a two-dimensional projection on a three-dimensional sample data set. A general 3D data set may be composed of a group of 2D tomographic images collected from the medical images described above. Images of the group may have a regular pattern and number of pixels. The value of the regular grid unit of the 3D data set constructed as described above is called a voxel.
도 2는 볼륨 렌더링에서 사용될 수 있는 광선 투사(ray-casting) 기법을 도시한다. 광선 투사 방식은 볼륨을 구성하는 복셀들이 반투명하여 스스로 빛을 내는 성질을 갖는 것으로 정의한다. 광선 투사 방식은 사용자의 시선(또는, 카메라의 위치 및 방향)에 따라 결정된 각 광선(r0, r1, … , r4)을 따라 샘플링된 복셀 값들을 누적하여 렌더링 값을 획득 한다. 이때, 생성해야 할 광선의 개수는 결과 영상의 해상도에 따라 결정된다. 사용자의 시선에 따라 3차원 볼륨 데이터를 적절하게 렌더링하기 위해 컬러 큐브 기법이 사용될 수 있다.2 shows a ray-casting technique that can be used in volume rendering. The ray projection method is defined as the voxels constituting the volume are translucent and emit light by themselves. The ray projection method acquires a rendering value by accumulating sampled voxel values along each ray (r 0 , r 1 ,…, r 4 ) determined according to the user's gaze (or the position and direction of the camera). At this time, the number of rays to be generated is determined according to the resolution of the resulting image. A color cube technique can be used to properly render 3D volume data according to the user's gaze.
도 3은 볼륨 렌더링에서 사용되는 컬러 큐브를 도시한다. 볼륨 렌더링을 위해서는 모든 복셀의 투명도와 색상이 정의되어야 한다. 이를 위해, 모든 복셀 값에 대한 RGBA(red, green, blue, alpha) 값을 정의하는 RGBA 변환 함수가 정의될 수 있다. RGBA 변환 함수의 일 실시예에로, 컬러 큐브가 사용될 수 있다. 도 3에 도시된 바와 같이, 컬러 큐브는 원점(0, 0, 0)에 검정색을 지정하고, 대각선 맞은편 꼭지점(1, 1, 1)에 흰색을 지정하며, 큐브 내에서 각 좌표 값이 증가할수록 해당 RGB 값의 강도가 증가하게 된다. 각 좌표에 따른 RGB 값은 정규화된 텍스쳐 샘플링 좌표 값으로 사용된다.3 shows a color cube used in volume rendering. For volume rendering, the transparency and color of all voxels must be defined. To this end, an RGBA conversion function that defines red, green, blue, and alpha (RGBA) values for all voxel values may be defined. As an embodiment of the RGBA conversion function, a color cube may be used. As shown in Fig. 3, the color cube designates black at the origin (0, 0, 0) and white at the vertices (1, 1, 1) opposite the diagonal, and each coordinate value increases within the cube. As the value increases, the intensity of the corresponding RGB value increases. The RGB values according to each coordinate are used as normalized texture sampling coordinate values.
볼륨 렌더링에서 각 광선의 시작점과 끝점을 정의하기 위해, 동일한 크기(즉, 픽셀 사이즈)를 갖는 전면 영상과 후면 영상의 두 장의 영상이 생성될 수 있다. 생성된 두 장의 영상 각각의 동일한 위치에서 획득되는 값이 그 위치에 대응하는 광선의 시작점과 끝점이 된다. 이와 같이 결정된 시작점부터 끝점까지 광선을 따라 일정 간격으로 의료 영상의 3차원 텍스쳐 샘플링을 진행하며 획득되는 값을 누적하면, 의도한 볼륨 렌더링 결과가 획득될 수 있다.In order to define a start point and an end point of each ray in volume rendering, two images of a front image and a back image having the same size (ie, pixel size) may be generated. The values obtained at the same position of each of the two generated images become the starting and ending points of the rays corresponding to the positions. When the 3D texture sampling of the medical image is performed at predetermined intervals along the ray from the determined start point to the end point and the acquired values are accumulated, an intended volume rendering result may be obtained.
도 4는 본 발명의 일 실시예에 따른 의료 영상 처리 장치(20)의 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(20)는 프로세서(21), 통신부(22), 입력부(23), 메모리(24), 위치 추적부(25) 및 디스플레이 출력부(26)를 포함할 수 있다.4 is a block diagram of a medical
먼저, 통신부(22)는 외부 장치와 통신을 수행하기 위한 다양한 프로토콜의 유/무선 통신 모듈을 포함한다. 입력부(23)는 의료 영상 처리 장치(20)에 대한 사용자 입력을 수신하기 위한 다양한 형태의 인터페이스를 포함한다. 일 실시예에 따르면, 입력부(23)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트 등을 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 의료 영상 처리 장치는 통신부(22) 및/또는 입력부(23)를 통해 대상체의 의료 영상을 미리 획득할 수 있다. 메모리(24)는 의료 영상 처리 장치(10)에서 사용되는 제어 프로그램 및 이와 관련된 각종 데이터를 저장한다. 예를 들어, 메모리(24)는 사전에 획득된 대상체의 의료 영상을 저장할 수 있다. 또한, 메모리(24)는 대상체의 의료 영상을 렌더링하여 생성된 의료 영상 데이터를 저장할 수 있다.First, the
위치 추적부(25)는 대상체 내에서의 의료용 항법 장치(55)의 위치 정보를 취득한다. 본 발명의 실시예에서 의료용 항법 장치(55)는 다양한 종류의 수술 항법 장치를 포함할 수 있다. 의료용 항법 장치의 위치 추적을 위해 광학식 위치 추적 방법 또는 전자기식 위치 추적 방법이 사용될 수 있으나, 본 발명은 이에 한정되지 않는다. 의료용 항법 장치(55)로부터 획득된 위치 정보가 대상체의 의료 영상 데이터와 정합되지 않은 경우, 위치 추적부(25)는 정합 과정을 수행하여 의료 영상 데이터를 기준으로 한 의료용 항법 장치(55)의 위치 정보를 생성할 수 있다. 위치 추적부(25)는 의료용 항법 장치(55)와 유선 또는 무선으로 연결되어 의료용 항법 장치(55)로부터 위치 정보를 수신할 수 있다.The
디스플레이 출력부(26)는 본 발명의 실시예에 따라 생성된 영상을 출력한다. 즉, 디스플레이 출력부(26)는 후술하는 바와 같이 대상체의 관심 영역에 대응하는 의료 영상 데이터를 출력할 수 있다. 디스플레이 출력부(26)에 의해 출력된 영상은 의료 영상 처리 장치(20)와 연결된 모니터(65)에 의해 디스플레이 될 수 있다.The
본 발명의 프로세서(21)는 다양한 명령 또는 프로그램을 실행하고, 의료 영상 처리 장치(20) 내부의 데이터를 처리할 수 있다. 또한, 프로세서(21)는 전술한 의료 영상 처리 장치(20)의 각 유닛을 제어하며, 유닛들 간의 데이터 송수신을 제어할 수 있다.The
도 4에 도시된 의료 영상 장치(20)는 본 발명의 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 해당 장치의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 의료 영상 장치(20)의 엘리먼트들은 해당 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 또한, 도 4에 도시된 의료 영상 장치(20)의 구성들 중 일부 구성이 생략될 수 있으며, 추가적인 구성이 의료 영상 장치(20)에 포함될 수도 있다.The
도 5는 본 발명의 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)의 더욱 상세한 블록도이다. 도시된 바와 같이, 본 발명의 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)는 관심 영역 설정부(210), 의료 영상 데이터 생성부(220) 및 부분 의료 영상 데이터 생성부(230)를 포함할 수 있다.5 is a more detailed block diagram of the
관심 영역 설정부(210)는 대상체에 대한 사용자의 관심 영역을 설정한다. 더욱 구체적으로, 관심 영역 설정부(210)는 위치 추적부(25)로부터 의료용 항법 장치(55)의 위치 정보를 수신하고, 상기 위치 정보에 기초하여 관심 영역을 설정한다. 본 발명의 실시예에 따르면, 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 이를 위해, 관심 영역 설정부(210)는 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자 입력으로 사전에 수신할 수 있다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다. 만약 사용자가 수평면, 시상면 및 관상면 중 적어도 하나의 기준면에 대한 영역 설정 정보를 입력하지 않은 경우, 관심 영역 설정부(210)는 해당 면을 기준으로 한 크롭핑(cropping)을 수행하지 않을 수 있다. 관심 영역 설정부(210)에서 획득된 관심 영역 정보는 부분 의료 영상 데이터 생성부(230)로 전달된다.The region of
다음으로, 의료 영상 데이터 생성부(220)는 대상체의 의료 영상을 렌더링하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함한다. 의료 영상 데이터는 대상체에 대한 의료 영상을 이용하여 생성된 복셀들을 가리킬 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 의료 영상 데이터는 대상체에 대한 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수도 있다.Next, the medical
다음으로, 부분 의료 영상 데이터 생성부(230)는 대상체에 대한 의료 영상 데이터 중 관심 영역에 대응하는 부분의 의료 영상 데이터를 추출하여 렌더링한다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 관심 영역의 복셀들을 선별적으로 광선 투사하여 볼륨 렌더링을 수행할 수 있다. 이에 따라, 대상체 내에서 관심 영역 이외의 개체들이 관심 영역의 개체들과 중첩되는 것을 방지하여, 시술자가 대상체의 해부학적 구조를 용이하게 파악할 수 있게 된다.Next, the partial medical image
본 발명의 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 다양한 방법으로 볼륨 렌더링 데이터를 생성할 수 있다. 일 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에 포함된 복셀들 전체에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.According to an embodiment of the present invention, the partial medical image
본 발명의 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀들에 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이때, 기 설정된 HU 범위는 대상체의 특정 조직(tissue)의 CT 수치에 기초하여 결정될 수 있다. 또한, 볼륨 렌더링을 수행하기 위한 특정 조직은 사용자에 의해 선택될 수 있다. 이를 통해, 관심 영역 내에서 사용자의 설정에 의해 선택된 특정 조직에 대응하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.According to another embodiment of the present invention, the partial medical image
가장 널리 사용되는 의료 영상인 CT의 경우, 인체의 각 구성 요소가 갖는 CT 수치는 아래 표 1과 같다. 이때, 각 수치의 단위는 HU(Hounsfield Unit)이다.In the case of CT, which is the most widely used medical image, the CT values of each component of the human body are shown in Table 1 below. At this time, the unit of each numerical value is HU (Hounsfield Unit).
의료 영상 표준인 DICOM(Digital Imaging and Communications in Medicine)에 따르는 데이터는 픽셀당 2byte를 사용한다. 따라서, 각 픽셀이 가질 수 있는 값의 범위는 216으로 -32768부터 32767까지이다. 임플란트 등의 이물질이 인체에 삽입될 수도 있으나, 재구성 과정에서 적정 수준의 값으로 치환되어 +/-1000HU 범위 밖의 값은 CT에서 사용되지 않는다.Data according to the medical imaging standard DICOM (Digital Imaging and Communications in Medicine) uses 2 bytes per pixel. Therefore, the range of values that each pixel can have is 2 16 , ranging from -32768 to 32767. Foreign substances such as implants may be inserted into the human body, but values outside the +/-1000HU range are not used in CT because they are replaced with appropriate levels during the reconstruction process.
상기 표 1을 통해 나타난 바와 같이, 인체의 각 구성 요소가 갖는 CT 수치의 범위는 미리 결정되어 있다. 만약 사용자가 대상체의 관심 영역 중에서 회백질만을 선별적으로 확인하고 싶다면, 사용자는 -37 내지 -45의 CT 수치 범위에 포함된 임의의 값 또는 해당 범위를 포함하는 CT 수치 범위를 입력부(23)를 통해 입력할 수 있다. 뿐만 아니라, 사용자는 기 설정된 대상체의 조직들 중 회백질에 대한 선택을 입력부(23)를 통해 입력할 수도 있다. 부분 의료 영상 데이터 생성부(230)는 사용자의 입력에 기초하여 대상체의 관심 영역 중에서 회백질에 해당하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.As shown in Table 1, the range of CT values of each component of the human body is predetermined. If the user wants to selectively check only the gray matter in the region of interest of the object, the user can input an arbitrary value included in the CT value range of -37 to -45 or a CT value range including the range through the
본 발명의 또 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점에 가상의 광원이 존재한다고 가정하여, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 설정할 수 있다. 부분 의료 영상 데이터 생성부(230)는 이와 같이 설정된 복셀들에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이에 대한 구체적인 실시예는 후술하도록 한다.According to another embodiment of the present invention, the partial medical image
부분 의료 영상 데이터 생성부(230)에서 생성된 부분 의료 영상 데이터는 디스플레이 출력부(26)의 출력 영상으로 제공될 수 있다.The partial medical image data generated by the partial medical image
도 6은 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다. 도 6을 참조하면, 볼륨 렌더링을 수행하기 위한 컬러 큐브 내에서 시상면을 기준으로 특정 거리 이내에 포함된 영역이 관심 영역으로 설정되어 있다. 도 7은 이와 같이 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 더욱 구체적으로, 도 7(a)는 큐브 내에 포함된 대상체의 볼륨 렌더링 데이터를 나타내며, 도 7(b)는 도 6에 의해 설정된 관심 영역에 대응하는 볼륨 렌더링 데이터를 나타낸다. 도 7(b)에 나타난 바와 같이, 사용자의 관심 영역 설정에 따라, 대상체의 시상면을 기준으로 특정 거리 이내에 포함된 영역만이 볼륨 렌더링되어 디스플레이 될 수 있다.6 shows an embodiment of setting an ROI for an object. Referring to FIG. 6, a region included within a specific distance based on a sagittal plane in a color cube for performing volume rendering is set as a region of interest. 7 shows partial medical image data corresponding to the region of interest set as described above. More specifically, FIG. 7(a) shows volume rendering data of an object included in a cube, and FIG. 7(b) shows volume rendering data corresponding to an ROI set by FIG. 6. As shown in FIG. 7B, according to the user's setting of the region of interest, only an area included within a specific distance from the sagittal plane of the object may be volume rendered and displayed.
도 8은 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다. 도 8을 참조하면, 유저 인터페이스는 대상체의 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자로부터 수신할 수 있다. 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 본 발명의 일 실시예에 따르면, 위치 추적부(25)로부터 획득된 의료용 항법 장치(55)의 위치 정보가 유저 인터페이스의 각 기준면에 대한 슬라이드 바 상에서 특정 좌표로 표시될 수 있다. 사용자는 각 슬라이드 바에 표시된 좌표를 기준으로 관심 영역에 포함될 기준 거리를 설정할 수 있다. 관심 영역 설정부(210)는 수평면을 기준으로 한 제1 거리 정보, 시상면을 기준으로 한 제2 거리 정보 및 관상면을 기준으로 한 제3 거리 정보 중 적어도 하나를 유저 인터페이스를 통해 수신한다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다.8 illustrates an embodiment of a user interface for setting an ROI of an object. Referring to FIG. 8, the user interface may receive information (ie, region setting information) about a preset distance based on each of a horizontal plane, a sagittal plane, and a coronal plane of an object from a user. The region of interest is set based on at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data, based on an area within a preset distance from the position of the
도 9 및 도 10은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 도 9(a)는 대상체의 시상면을 기준으로 관심 영역이 설정된 경우를, 도 9(b)는 대상체의 수평면을 기준으로 관심 영역이 설정된 경우를, 도 9(c)는 대상체의 관상면을 기준으로 관심 영역이 설정된 경우를 각각 나타낸다. 또한, 도 10은 대상체의 시상면, 수평면 및 관상면 모두를 기준으로 관심 영역이 설정된 경우를 나타낸다. 이와 같이, 본 발명의 실시예에 따르면 사용자의 설정에 따라 다양한 형태로 관심 영역이 설정될 수 있으며, 관심 영역에 대응하는 의료 영상만을 선별적으로 렌더링하여 사용자에게 제공할 수 있다.9 and 10 illustrate partial medical image data corresponding to variously set regions of interest. 9(a) shows a case where an ROI is set based on the sagittal plane of an object, FIG. 9(b) shows a case where an ROI is set based on the horizontal plane of the object, and FIG. 9(c) shows the coronal surface of the object. Each represents a case in which an ROI is set as a reference. Further, FIG. 10 shows a case in which an ROI is set based on all of the sagittal plane, the horizontal plane, and the coronal plane of the object. As described above, according to an exemplary embodiment of the present invention, an ROI may be set in various forms according to a user's setting, and only medical images corresponding to the ROI may be selectively rendered and provided to the user.
한편, 상기 실시예들에서는 관심 영역이 의료 영상 데이터의 수평면, 시상면 및 관상면을 기준으로 설정되는 것으로 설명되었으나, 본 발명은 이에 한정되지 않는다. 본 발명에서 관심 영역은 의료 영상 데이터의 임의의 기준 축 또는 기준 면에 대하여 설정될 수 있다.Meanwhile, in the above embodiments, it has been described that the region of interest is set based on the horizontal plane, the sagittal plane, and the coronal plane of the medical image data, but the present invention is not limited thereto. In the present invention, the region of interest may be set with respect to an arbitrary reference axis or reference plane of medical image data.
도 11은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다. 전술한 바와 같이, 부분 의료 영상 데이터 생성부(230)는 관심 영역(30)에 대한 특수 효과를 위해, 기 설정된 지점의 가상의 광원으로부터 빛이 방출된다는 가정 하에 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다.11 illustrates a method of generating partial medical image data according to an additional embodiment of the present invention. As described above, the partial medical image
먼저, 일반적인 광선 투사 방법을 이용한 볼륨 렌더링 데이터의 각 픽셀 값 은 아래 수학식 1과 같이 표현될 수 있다.First, each pixel value of the volume rendering data using a general ray projection method Can be expressed as in Equation 1 below.
여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀을 가리킨다. 또한, 는 복셀 x의 값(또는, 복셀 x의 강도) 이고, 는 최초 복셀 S0부터 현재 복셀 x까지 누적된 투명도를 나타낸다. τ(t)는 복셀 t의 감쇄 계수를 나타낸다.Here, S 0 denotes the first voxel sampled by ray projection, and S n denotes the final voxel sampled by ray projection. Also, Is the value of voxel x (or the intensity of voxel x), Denotes the accumulated transparency from the first voxel S 0 to the current voxel x. τ(t) represents the attenuation coefficient of voxel t.
본 발명의 실시예에 따르면, 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점 P0에 가상의 광원이 존재한다고 가정하고, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역(30)의 복셀 값들을 설정할 수 있다. 이때, 복셀 x의 값 는 아래 수학식 2와 같이 표현될 수 있다.According to an embodiment of the present invention, assuming that a virtual light source exists at a predetermined point P 0 based on the position of the
여기서, R(x)는 가상의 광원에서 방출된 빛에 의해 조정되는 복셀 값이며 아래 수학식 3과 같이 정의될 수 있다.Here, R(x) is a voxel value adjusted by light emitted from a virtual light source, and may be defined as in Equation 3 below.
여기서, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값을 각각 나타낸다. 본 발명의 실시예에 따르면, 반사 계수 Kref는 아래 수학식 4와 같이 결정될 수 있다.Here, K ref is the reflection coefficient, P 0 is the position of the virtual light source, and L is the brightness value at P 0 of the virtual light source. According to an embodiment of the present invention, the reflection coefficient K ref may be determined as in Equation 4 below.
여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터를 각각 나타낸다. 일 실시예에 따르면, 기울기 벡터 G(x)는 복셀 x를 기준으로 주변 복셀 값들이 가장 크게 변화하는 참조면의 법선으로 정의될 수 있다.Here, G(x) denotes a gradient vector at voxel x, and V p0 ->x denotes a direction vector from the position P 0 of the virtual light source to the voxel x. According to an embodiment, the gradient vector G(x) may be defined as a normal of a reference plane in which peripheral voxel values change the most based on the voxel x.
따라서, 본 발명의 실시예에 따르면, 부분 의료 영상 데이터의 각 픽셀 값 는 아래 수학식 5에 기초하여 결정될 수 있다.Therefore, according to an embodiment of the present invention, each pixel value of partial medical image data May be determined based on
부분 의료 영상 데이터 생성부(230)는 이와 같이 생성된 볼륨 렌더링 데이터를 부분 의료 영상 데이터로 생성한다. 이와 같은 본 발명의 추가적인 실시예에 따르면, 관심 영역 내부 또는 관심 영역 주변에 조명이 삽입된 것과 같은 효과를 나타낼 수 있다. 관심 영역 내부 또는 주변에 조명이 삽입되면 관심 영역에 대한 그림자 효과로 인해 관심 영역의 입체감이 극대화 될 수 있으며, 관심 영역에 대한 사용자의 식별도가 증가될 수 있다.The partial medical image
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아는 것으로 해석해야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be construed that the embodiments described above are illustrative in all respects and are not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention do.
20: 의료 영상 처리 장치
55: 의료용 항법 장치
65: 모니터20: medical image processing device
55: medical navigation device
65: monitor
Claims (20)
대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부;
상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및
상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서를 포함하되,
상기 프로세서는,
적어도 하나의 평면을 기준으로 한 사용자의 설정 거리 정보를 수신하고,
상기 의료용 항법 장치의 위치에 기초한 상기 평면으로부터 상기 설정 거리 이내의 영역을 포함하는 3차원의 관심 영역 이내의 복셀들을 볼륨 렌더링하여 상기 부분 의료 영상 데이터를 생성하는 의료 영상 처리 장치.As a medical image processing device for a medical navigation device,
A location tracking unit that acquires location information of a medical navigation device within an object;
A memory for storing medical image data generated based on a medical image of the object; And
A processor configured to set an ROI based on location information of the medical navigation device based on the medical image data and generate partial medical image data corresponding to the ROI,
The processor,
Receive the user's set distance information based on at least one plane,
A medical image processing apparatus for generating the partial medical image data by volume-rendering voxels within a 3D ROI including an area within the set distance from the plane based on the position of the medical navigation device.
상기 적어도 하나의 평면은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 포함하는 의료 영상 처리 장치.The method of claim 1,
The at least one plane includes at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data.
상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성되는 의료 영상 처리 장치.The method of claim 1,
The partial medical image data is generated by rendering voxels having a value within a preset HU range within the ROI.
상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정되는 의료 영상 처리 장치.The method of claim 3,
The predetermined HU range is determined based on a CT value of a specific tissue of the object.
상기 특정 조직은 사용자의 선택에 의해 결정되는 의료 영상 처리 장치.The method of claim 4,
The specific tissue is a medical image processing apparatus that is determined by a user's selection.
상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성되는 의료 영상 처리 장치.The method of claim 1,
The partial medical image data is generated by rendering voxels of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation device.
상기 부분 의료 영상 데이터의 각 픽셀 값 는 다음 수학식에 기초하여 결정되는 의료 영상 처리 장치.
여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀, 는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.The method of claim 6,
Each pixel value of the partial medical image data A medical image processing apparatus determined based on the following equation.
Here, S 0 is the first voxel sampled by ray projection, S n is the final voxel sampled by ray projection, Is the value of voxel x, τ(t) is the attenuation coefficient of voxel t, K ref is the reflection coefficient, P 0 is the position of the virtual light source, L is the brightness value at P 0 of the virtual light source.
상기 Kref는 다음 수학식에 기초하여 결정되는 의료 영상 처리 장치.
여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.The method of claim 7,
The K ref is determined based on the following equation.
Here, G(x) is the gradient vector at the voxel x, and V p0->x is the direction vector from the position P 0 of the virtual light source to the voxel x.
상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터인 의료 영상 처리 장치.The method of claim 1,
The medical image data is voxels generated using a medical image of the object, and the partial medical image data is volume rendering data obtained by projecting light rays of voxels corresponding to the region of interest.
대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 단계;
상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 단계;
적어도 하나의 평면을 기준으로 한 사용자의 설정 거리 정보를 수신하는 단계;
상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하는 단계, 상기 관심 영역은 상기 의료용 항법 장치의 위치에 기초한 상기 평면으로부터 상기 설정 거리 이내의 영역을 포함하는 3차원의 영역으로 설정됨; 및
상기 관심 영역 이내의 복셀들을 볼륨 렌더링하여 부분 의료 영상 데이터를 생성하는 단계;
를 포함하는 의료 영상 처리 방법.A medical image processing method of a medical image processing device for a medical navigation device,
Acquiring location information of a medical navigation device within an object;
Storing medical image data generated based on the medical image of the object;
Receiving information about a user's set distance based on at least one plane;
Setting an ROI based on location information of the medical navigation device based on the medical image data, wherein the ROI includes an area within the set distance from the plane based on the position of the medical navigation device. Set as a dimensional area; And
Generating partial medical image data by volume-rendering voxels within the ROI;
Medical image processing method comprising a.
상기 적어도 하나의 평면은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 포함하는 의료 영상 처리 방법.The method of claim 10,
The at least one plane includes at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data.
상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성되는 의료 영상 처리 방법.The method of claim 10,
The partial medical image data is generated by rendering voxels having a value within a predetermined HU range within the ROI.
상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정되는 의료 영상 처리 방법.The method of claim 12,
The predetermined HU range is determined based on a CT value of a specific tissue of the object.
상기 특정 조직은 사용자의 선택에 의해 결정되는 의료 영상 처리 방법.The method of claim 13,
The specific tissue is a medical image processing method that is determined by a user's selection.
상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성되는 의료 영상 처리 방법.The method of claim 10,
The partial medical image data is generated by rendering voxels of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation device.
상기 부분 의료 영상 데이터의 각 픽셀 값 는 다음 수학식에 기초하여 결정되는 의료 영상 처리 방법.
여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀, 는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.The method of claim 15,
Each pixel value of the partial medical image data Is a medical image processing method determined based on the following equation.
Here, S 0 is the first voxel sampled by ray projection, S n is the final voxel sampled by ray projection, Is the value of voxel x, τ(t) is the attenuation coefficient of voxel t, K ref is the reflection coefficient, P 0 is the position of the virtual light source, L is the brightness value at P 0 of the virtual light source.
상기 Kref는 다음 수학식에 기초하여 결정되는 의료 영상 처리 방법.
여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.The method of claim 16,
The K ref is a medical image processing method determined based on the following equation.
Here, G(x) is the gradient vector at the voxel x, and V p0->x is the direction vector from the position P 0 of the virtual light source to the voxel x.
상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터인 의료 영상 처리 방법.The method of claim 10,
The medical image data is voxels generated using a medical image of the object, and the partial medical image data is volume rendering data obtained by projecting light rays of voxels corresponding to the ROI.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200023717A KR102208577B1 (en) | 2020-02-26 | 2020-02-26 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200023717A KR102208577B1 (en) | 2020-02-26 | 2020-02-26 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170110943A Division KR102084251B1 (en) | 2017-08-31 | 2017-08-31 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200026850A KR20200026850A (en) | 2020-03-11 |
KR102208577B1 true KR102208577B1 (en) | 2021-01-27 |
Family
ID=69810057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200023717A KR102208577B1 (en) | 2020-02-26 | 2020-02-26 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102208577B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002510230A (en) | 1997-06-27 | 2002-04-02 | ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ | Stereoscopic image navigation method and apparatus |
JP2005520590A (en) | 2002-03-14 | 2005-07-14 | ネットケイアイエスアール インコーポレイテッド | Computer-linked tomography data analysis and display system and method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101524085B1 (en) * | 2013-01-04 | 2015-05-29 | 삼성메디슨 주식회사 | Apparatus and method for providing medical image |
KR101769331B1 (en) * | 2015-11-30 | 2017-08-18 | 오스템임플란트 주식회사 | Method for reconstructing ct image, apparatus and recording medium thereof |
-
2020
- 2020-02-26 KR KR1020200023717A patent/KR102208577B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002510230A (en) | 1997-06-27 | 2002-04-02 | ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ | Stereoscopic image navigation method and apparatus |
JP2005520590A (en) | 2002-03-14 | 2005-07-14 | ネットケイアイエスアール インコーポレイテッド | Computer-linked tomography data analysis and display system and method |
Also Published As
Publication number | Publication date |
---|---|
KR20200026850A (en) | 2020-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9361726B2 (en) | Medical image diagnostic apparatus, medical image processing apparatus, and methods therefor | |
JP4316876B2 (en) | 3D planning target volume | |
US8891847B2 (en) | Automatic implant detection from image artifacts | |
US11676706B2 (en) | Medical image processing apparatus and medical image processing method which are for medical navigation device | |
EP3164075B1 (en) | Unified coordinate system for multiple ct scans of patient lungs | |
US20070167762A1 (en) | Ultrasound system for interventional treatment | |
CN109464194A (en) | Display methods, device, medical supply and the computer storage medium of medical image | |
US20090087046A1 (en) | Digital blink comparator apparatus and software and methods for operation | |
US10342633B2 (en) | Medical image data processing system and method | |
CN111275825B (en) | Positioning result visualization method and device based on virtual intelligent medical platform | |
KR20170016128A (en) | Pen-type medical fluorescence image device and system which registers multiple fluorescent images using the same | |
CN101065062B (en) | Image processing system and method for displaying images during interventional procedures | |
US20110313479A1 (en) | System and method for human anatomic mapping and positioning and therapy targeting | |
JP2019141578A (en) | Image processing method and apparatus using elastic mapping of vascular plexus structures | |
CN110720985A (en) | Multi-mode guided surgical navigation method and system | |
KR101977650B1 (en) | Medical Image Processing Apparatus Using Augmented Reality and Medical Image Processing Method Using The Same | |
KR102084251B1 (en) | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator | |
CN100583161C (en) | Method for depicting an object displayed in a volume data set | |
KR102208577B1 (en) | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator | |
KR20190069751A (en) | Point based registration apparatus and method using multiple candidate points | |
US10398395B2 (en) | Medical image diagnostic apparatus | |
US11941765B2 (en) | Representation apparatus for displaying a graphical representation of an augmented reality | |
US20190236776A1 (en) | Rib developed image generation apparatus, method, and program | |
US20150320507A1 (en) | Path creation using medical imaging for planning device insertion | |
EP3968859B1 (en) | Protocol-dependent 2-d pre-scan projection image based on 3-d pre-scan volumetric image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |