KR102208577B1 - Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator - Google Patents

Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator Download PDF

Info

Publication number
KR102208577B1
KR102208577B1 KR1020200023717A KR20200023717A KR102208577B1 KR 102208577 B1 KR102208577 B1 KR 102208577B1 KR 1020200023717 A KR1020200023717 A KR 1020200023717A KR 20200023717 A KR20200023717 A KR 20200023717A KR 102208577 B1 KR102208577 B1 KR 102208577B1
Authority
KR
South Korea
Prior art keywords
medical image
image data
medical
image processing
voxel
Prior art date
Application number
KR1020200023717A
Other languages
Korean (ko)
Other versions
KR20200026850A (en
Inventor
박종현
Original Assignee
(주)레벨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)레벨소프트 filed Critical (주)레벨소프트
Priority to KR1020200023717A priority Critical patent/KR102208577B1/en
Publication of KR20200026850A publication Critical patent/KR20200026850A/en
Application granted granted Critical
Publication of KR102208577B1 publication Critical patent/KR102208577B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Computer Graphics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법에 관한 것으로서, 더욱 상세하게는 수술용 네비게이터의 사용시 제공되는 영상을 처리하기 위한 장치 및 방법에 관한 것이다.
이를 위해 본 발명은, 의료용 항법 장치를 위한 의료 영상 처리 장치로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서; 를 포함하는 의료 영상 처리 장치 및 이를 이용한 의료 영상 처리 방법을 제공한다.
The present invention relates to a medical image processing apparatus and a medical image processing method for a surgical navigator, and more particularly, to an apparatus and method for processing an image provided when the surgical navigator is used.
To this end, the present invention provides a medical image processing apparatus for a medical navigation apparatus, comprising: a location tracking unit that acquires location information of a medical navigation apparatus within an object; A memory for storing medical image data generated based on a medical image of the object; And a processor configured to set an ROI based on location information of the medical navigation device based on the medical image data and generate partial medical image data corresponding to the ROI. It provides a medical image processing apparatus including a and a medical image processing method using the same.

Figure 112020020407717-pat00033
Figure 112020020407717-pat00033

Description

수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법{Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator}Medical image processing apparatus and medical image processing method for surgical navigator {Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator}

본 발명은 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법에 관한 것으로서, 더욱 상세하게는 수술용 네비게이터의 사용시 제공되는 영상을 처리하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a medical image processing apparatus and a medical image processing method for a surgical navigator, and more particularly, to an apparatus and method for processing an image provided when the surgical navigator is used.

수술 시 환자의 절개 부위를 최소화하는 최소 침습 수술이 널리 사용되고 있다. 최소 침습 수술은 절개 부위를 최소화하고 그에 따른 실혈(blood loss)과 회복기간을 최소화할 수 있는 장점이 있으나, 의사의 시야가 제한되어 일부 수술들의 경우 뇌수막 손상, 안구 손상 등의 위험 요인을 갖고 있다. 의사의 시야가 제한되는 최소 침습 수술의 단점을 극복하기 위한 도구의 하나로써, 의료용 항법 장치(또는, 수술 항법 장치)가 사용되고 있다. 의료용 항법 장치는 사전에 확보된 환자의 의료 영상을 기준으로 환자의 환부에 삽입된 기구의 위치 정보를 실시간으로 추적하여 제공한다. 또한, 이러한 의료용 항법 장치는 내시경과 결합하여 사용될 수도 있다.Minimally invasive surgery, which minimizes the patient's incision during surgery, is widely used. Minimally invasive surgery has the advantage of minimizing the incision site and minimizing the resulting blood loss and recovery period, but some surgeries have risk factors such as meningeal damage and eye damage due to the limited vision of the doctor. . As one of the tools for overcoming the shortcomings of minimally invasive surgery in which the doctor's field of view is limited, a medical navigation device (or surgical navigation device) is used. A medical navigation device provides real-time tracking of location information of an instrument inserted in a patient's affected area based on a previously secured medical image of a patient. In addition, such a medical navigation device may be used in combination with an endoscope.

의료용 항법 장치에서 삽입된 시술 기구의 실시간 위치 추적을 위해 광학식 또는 전자기식 위치 추적 장치가 사용될 수 있다. 시술 기구의 위치 추적을 위한 일 예로, 적외선 방출 장치와 패시브 형태의 이미지 센서를 포함하는 광학식 위치 추적 장치가 사용될 수 있다. 광학식 위치 추적 장치는 적외선 방출 장치를 통해 기준 광을 방사하고, 복수의 마커들에 의해 반사되는 이미지를 이미지 센서를 통해 수집한다. 해당 위치 추적 장치는 복수의 마커들의 위치를 기초로 시술 기구의 위치 정보를 획득할 수 있다. 한편, 시술 기구의 위치 추적을 위한 다른 예로, 자기장 생성기 및 전도성 금속 물체를 포함하는 전자기식 위치 추적 장치가 사용될 수 있다. 전자기식 위치 추적 장치는 자기장 생성기에 의해 생성된 자기장 내에서 전도성 금속 물체에 발생하는 맴돌이 전류를 측정하여 시술 기구의 위치 정보를 획득할 수 있다. 위치 추적 장치에서 시술 기구와 신체 부위의 위치 관계를 정확하게 표시하기 위해, 환자의 신체 부위에 대한 의료 데이터와 시술 기구간의 최초 위치 관계를 정의하는 정합 과정이 필요할 수 있다.An optical or electromagnetic positioning device may be used for real-time positioning of a surgical instrument inserted in a medical navigation device. As an example for tracking the location of the surgical instrument, an optical location tracking device including an infrared emission device and a passive image sensor may be used. The optical position tracking device emits reference light through an infrared emission device, and collects images reflected by a plurality of markers through an image sensor. The corresponding location tracking device may obtain location information of a procedure device based on locations of a plurality of markers. Meanwhile, as another example for tracking the location of the surgical instrument, an electromagnetic location tracking device including a magnetic field generator and a conductive metal object may be used. The electromagnetic position tracking device may obtain positional information of a surgical instrument by measuring an eddy current generated in a conductive metal object in a magnetic field generated by the magnetic field generator. In order to accurately display the positional relationship between the procedure device and the body part in the position tracking device, a registration process may be required to define the initial positional relationship between the medical data on the patient's body part and the procedure device.

도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다. 의료용 항법 장치는 신체 부위에 대한 수평면(horizontal), 시상면(sagittal) 및 관상면(coronal)의 영상들 중 적어도 하나를 디스플레이 할 수 있다. 시술자(또는, 의사)는 각 영상들을 해석하여 시술 기구의 3차원적 위치를 판단하고, 인접한 위험 요소 등을 파악한다. 그러나 이러한 단면 영상들은 신체 부위 내에서의 시술 기구의 위치를 직관적으로 표현할 수 없다. 따라서, 복수의 단면 영상들을 대조하여 시술 기구의 정확한 위치를 판단하기 위해서 시술자의 숙련도가 필요할 뿐만 아니라 많은 시간이 소요될 수 있다. 또한, 시술 기구의 위치 파악을 위해 의료용 항법 장치의 모니터를 주시하는 시간이 길어질 경우, 전체적인 시술 기간이 길어져 시술자와 환자 모두의 피로를 증가시킬 수 있다.1 shows an embodiment of an output image of a medical navigation device. The medical navigation apparatus may display at least one of images of a horizontal plane, a sagittal plane, and a coronal plane for a body part. The operator (or doctor) interprets each image to determine the three-dimensional position of the surgical instrument, and identifies adjacent risk factors. However, these cross-sectional images cannot intuitively express the position of the surgical instrument within the body part. Therefore, in order to determine the exact position of the surgical instrument by comparing a plurality of cross-sectional images, not only the operator's skill is required, but it may take a lot of time. In addition, if the time to watch the monitor of the medical navigation device is prolonged to determine the location of the procedure device, the overall treatment period may be prolonged, thereby increasing the fatigue of both the operator and the patient.

본 발명은 환자의 신체 내의 시술 부위 및 인접한 요소들에 대한 정보를 시술자가 직관적으로 파악할 수 있도록 하는 의료 영상 처리 방법을 제공하기 위한 목적을 가지고 있다.An object of the present invention is to provide a medical image processing method that enables a practitioner to intuitively grasp information on an operation site and adjacent elements in a patient's body.

또한, 본 발명은 사전에 수집된 환자의 의료 영상과 실시간으로 수집되는 시술 부위 영상을 효과적으로 렌더링 하기 위한 목적을 가지고 있다.In addition, the present invention has an object to effectively render a medical image of a patient collected in advance and an image of a treatment site collected in real time.

또한, 본 발명은 환자의 해부학적 구조를 파악하기 용이한 의료용 항법 장치를 제공하기 위한 목적을 가지고 있다.In addition, the present invention has an object to provide a medical navigation device that is easy to grasp the anatomical structure of a patient.

상기와 같은 과제를 해결하기 위해, 본 발명은 다음과 같은 의료 영상 처리 장치 및 의료 영상 처리 방법을 제공한다.In order to solve the above problems, the present invention provides a medical image processing apparatus and a medical image processing method as follows.

먼저, 본 발명의 실시예에 따르면, 의료용 항법 장치를 위한 의료 영상 처리 장치로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서; 를 포함하는 의료 영상 처리 장치가 제공된다.First, according to an embodiment of the present invention, there is provided a medical image processing apparatus for a medical navigation apparatus, comprising: a location tracking unit that acquires location information of a medical navigation apparatus within an object; A memory for storing medical image data generated based on a medical image of the object; And a processor configured to set an ROI based on location information of the medical navigation device based on the medical image data and generate partial medical image data corresponding to the ROI. A medical image processing apparatus including a is provided.

또한, 본 발명의 실시예에 따르면, 의료용 항법 장치를 위한 의료 영상 처리 방법으로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 단계; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 단계; 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하는 단계; 및 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 단계; 를 포함하는 의료 영상 처리 방법이 제공된다.In addition, according to an embodiment of the present invention, there is provided a medical image processing method for a medical navigation device, the method comprising: acquiring location information of a medical navigation device in an object; Storing medical image data generated based on the medical image of the object; Setting an ROI based on the location information of the medical navigation device based on the medical image data; And generating partial medical image data corresponding to the region of interest. A medical image processing method including a is provided.

이때, 상기 관심 영역은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 상기 의료용 항법 장치의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다.In this case, the region of interest is set based on at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data, based on an area within a preset distance from the position of the medical navigation device.

또한, 상기 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리는 사용자의 입력에 의해 결정된다.In addition, a preset distance based on each of the horizontal plane, sagittal plane, and coronal plane is determined by user input.

일 실시예에 따르면, 상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성된다.According to an embodiment, the partial medical image data is generated by rendering voxels having values within a preset HU range within the ROI.

또한, 상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정된다.In addition, the preset HU range is determined based on the CT value of the specific tissue of the subject.

또한, 상기 특정 조직은 사용자의 선택에 의해 결정된다.In addition, the specific organization is determined by the user's selection.

본 발명의 추가적인 실시예에 따르면, 상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성된다.According to a further embodiment of the present invention, the partial medical image data is generated by rendering voxels of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation device.

이때, 상기 부분 의료 영상 데이터의 각 픽셀 값

Figure 112020020407717-pat00001
는 다음 수학식에 기초하여 결정된다.At this time, each pixel value of the partial medical image data
Figure 112020020407717-pat00001
Is determined based on the following equation.

Figure 112020020407717-pat00002
Figure 112020020407717-pat00002

여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀,

Figure 112020020407717-pat00003
는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.Here, S 0 is the first voxel sampled by ray projection, S n is the final voxel sampled by ray projection,
Figure 112020020407717-pat00003
Is the value of voxel x, τ(t) is the attenuation coefficient of voxel t, K ref is the reflection coefficient, P 0 is the position of the virtual light source, L is the brightness value at P 0 of the virtual light source.

이때, 상기 Kref는 다음 수학식에 기초하여 결정된다.In this case, K ref is determined based on the following equation.

Figure 112020020407717-pat00004
Figure 112020020407717-pat00004

여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.Here, G(x) is the gradient vector at the voxel x, and V p0 ->x is the direction vector from the position P 0 of the virtual light source to the voxel x.

또한, 상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터이다.In addition, the medical image data is voxels generated using a medical image of the object, and the partial medical image data is volume rendering data obtained by projecting light rays of voxels corresponding to the ROI.

본 발명의 실시예에 따르면, 환자의 의료 영상과 시술 부위 영상을 효과적으로 렌더링 함으로 수술 및 의료 진단의 편의성을 제공할 수 있다.According to an embodiment of the present invention, convenience of surgery and medical diagnosis may be provided by effectively rendering a patient's medical image and an operation site image.

또한, 본 발명의 실시예에 따르면, 시술자가 환자의 해부학적 구조를 용이하게 파악할 수 있도록 하여 시술의 편의성 및 집중도를 향상시킬 수 있다.In addition, according to an embodiment of the present invention, convenience and concentration of the procedure may be improved by allowing the operator to easily grasp the anatomical structure of the patient.

도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다.
도 2 및 도 3은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다.
도 4는 본 발명의 실시예에 따른 의료 영상 처리 장치의 블록도이다.
도 5는 본 발명의 실시예에 따른 의료 영상 처리 장치의 프로세서의 더욱 상세한 블록도이다.
도 6은 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다.
도 7은 도 6에 의해 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 8은 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다.
도 9 및 도 10은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 11은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다.
1 shows an embodiment of an output image of a medical navigation device.
2 and 3 illustrate a volume rendering technique according to an embodiment of the present invention.
4 is a block diagram of a medical image processing apparatus according to an embodiment of the present invention.
5 is a more detailed block diagram of a processor of a medical image processing apparatus according to an embodiment of the present invention.
6 shows an embodiment of setting an ROI for an object.
7 shows partial medical image data corresponding to an ROI set by FIG. 6.
8 illustrates an embodiment of a user interface for setting an ROI of an object.
9 and 10 illustrate partial medical image data corresponding to variously set regions of interest.
11 illustrates a method of generating partial medical image data according to an additional embodiment of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.The terms used in the present specification have been selected as currently widely used general terms as possible while considering the functions of the present invention, but this may vary according to the intention, custom, or the emergence of new technologies of the skilled person in the art. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding invention. Therefore, it should be noted that the terms used in the present specification should be interpreted based on the actual meaning of the term and the entire contents of the present specification, not a simple name of the term.

명세서 전체에서, 어떤 구성이 다른 구성과 “연결”되어 있다고 할 때, 이는 “직접적으로 연결”되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 “전기적으로 연결”되어 있는 경우도 포함한다. 또한 어떤 구성이 특정 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 이에 더하여, 특정 임계값을 기준으로 “이상” 또는 “이하”라는 한정 사항은 실시예에 따라 각각 “초과” 또는 “미만”으로 적절하게 대체될 수 있다.Throughout the specification, when a component is said to be “connected” with another component, this includes not only the case that it is “directly connected”, but also the case that it is “electrically connected” with another component in the middle. do. In addition, when a certain component "includes" a specific component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, the limitations of “above” or “less than” based on a specific threshold value may be appropriately replaced with “exceeding” or “less than”, respectively, according to embodiments.

이하, 각 도면을 참조로 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법을 설명하도록 한다. 본 발명의 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 인체 및 동물체를 포함하는 대상체에 대한 의료 영상에 적용될 수 있다. 의료 영상은 X-ray 영상, 컴퓨터 단층 촬영(Computed Tomography, CT) 영상, 양전자 방출 단층 촬영(Positron Emission Tomography, PET) 영상, 초음파 영상 및 자기 공명 영상(Magnetic Resonance Imaging, MRI)을 포함하며, 본 발명은 이에 한정되지 않는다. 또한, 본 명세서에서 의료 영상 데이터는 의료 영상 자체뿐만 아니라 의료 영상을 렌더링하여 생성된 다양한 형태의 데이터를 포함하는 넓은 의미의 용어로 사용된다. 일 실시예에 따르면, 의료 영상 데이터는 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수 있다. 또한, 의료 영상 데이터는 2차원의 의료 영상들의 그룹으로 구성된 3차원 데이터 세트를 가리킬 수도 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다. 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법은 내시경 및/또는 의료용 항법 장치에 의해 제공되는 영상을 생성하거나 처리할 수 있다.Hereinafter, a medical image processing apparatus and a medical image processing method according to an embodiment of the present invention will be described with reference to each drawing. The image processing apparatus and image processing method according to an exemplary embodiment of the present invention may be applied to medical images of an object including a human body and an animal body. Medical images include X-ray images, computed tomography (CT) images, positron emission tomography (PET) images, ultrasound images, and magnetic resonance imaging (MRI). The invention is not limited thereto. In addition, in the present specification, medical image data is used as a term in a broad sense including not only the medical image itself, but also various types of data generated by rendering the medical image. According to an embodiment, the medical image data may refer to data obtained by volume-rendering a medical image. Further, the medical image data may refer to a 3D data set composed of a group of 2D medical images. The value of the regular grid unit of the 3D data set constructed as described above is called a voxel. The medical image processing apparatus and the medical image processing method according to an embodiment of the present invention may generate or process an image provided by an endoscope and/or a medical navigation apparatus.

도 2 및 도 3은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다. 볼륨 렌더링은 3차원 샘플 데이터 세트에 대한 2차원 투영을 표시하는 기술이다. 일반적인 3차원 데이터 세트는 전술한 의료 영상들로부터 수집된 2차원의 단층 촬영 이미지들의 그룹으로 구성될 수 있다. 상기 그룹의 이미지들은 규칙적인 패턴 및 개수의 픽셀들을 가질 수 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다.2 and 3 illustrate a volume rendering technique according to an embodiment of the present invention. Volume rendering is a technique that displays a two-dimensional projection on a three-dimensional sample data set. A general 3D data set may be composed of a group of 2D tomographic images collected from the medical images described above. Images of the group may have a regular pattern and number of pixels. The value of the regular grid unit of the 3D data set constructed as described above is called a voxel.

도 2는 볼륨 렌더링에서 사용될 수 있는 광선 투사(ray-casting) 기법을 도시한다. 광선 투사 방식은 볼륨을 구성하는 복셀들이 반투명하여 스스로 빛을 내는 성질을 갖는 것으로 정의한다. 광선 투사 방식은 사용자의 시선(또는, 카메라의 위치 및 방향)에 따라 결정된 각 광선(r0, r1, … , r4)을 따라 샘플링된 복셀 값들을 누적하여 렌더링 값을 획득 한다. 이때, 생성해야 할 광선의 개수는 결과 영상의 해상도에 따라 결정된다. 사용자의 시선에 따라 3차원 볼륨 데이터를 적절하게 렌더링하기 위해 컬러 큐브 기법이 사용될 수 있다.2 shows a ray-casting technique that can be used in volume rendering. The ray projection method is defined as the voxels constituting the volume are translucent and emit light by themselves. The ray projection method acquires a rendering value by accumulating sampled voxel values along each ray (r 0 , r 1 ,…, r 4 ) determined according to the user's gaze (or the position and direction of the camera). At this time, the number of rays to be generated is determined according to the resolution of the resulting image. A color cube technique can be used to properly render 3D volume data according to the user's gaze.

도 3은 볼륨 렌더링에서 사용되는 컬러 큐브를 도시한다. 볼륨 렌더링을 위해서는 모든 복셀의 투명도와 색상이 정의되어야 한다. 이를 위해, 모든 복셀 값에 대한 RGBA(red, green, blue, alpha) 값을 정의하는 RGBA 변환 함수가 정의될 수 있다. RGBA 변환 함수의 일 실시예에로, 컬러 큐브가 사용될 수 있다. 도 3에 도시된 바와 같이, 컬러 큐브는 원점(0, 0, 0)에 검정색을 지정하고, 대각선 맞은편 꼭지점(1, 1, 1)에 흰색을 지정하며, 큐브 내에서 각 좌표 값이 증가할수록 해당 RGB 값의 강도가 증가하게 된다. 각 좌표에 따른 RGB 값은 정규화된 텍스쳐 샘플링 좌표 값으로 사용된다.3 shows a color cube used in volume rendering. For volume rendering, the transparency and color of all voxels must be defined. To this end, an RGBA conversion function that defines red, green, blue, and alpha (RGBA) values for all voxel values may be defined. As an embodiment of the RGBA conversion function, a color cube may be used. As shown in Fig. 3, the color cube designates black at the origin (0, 0, 0) and white at the vertices (1, 1, 1) opposite the diagonal, and each coordinate value increases within the cube. As the value increases, the intensity of the corresponding RGB value increases. The RGB values according to each coordinate are used as normalized texture sampling coordinate values.

볼륨 렌더링에서 각 광선의 시작점과 끝점을 정의하기 위해, 동일한 크기(즉, 픽셀 사이즈)를 갖는 전면 영상과 후면 영상의 두 장의 영상이 생성될 수 있다. 생성된 두 장의 영상 각각의 동일한 위치에서 획득되는 값이 그 위치에 대응하는 광선의 시작점과 끝점이 된다. 이와 같이 결정된 시작점부터 끝점까지 광선을 따라 일정 간격으로 의료 영상의 3차원 텍스쳐 샘플링을 진행하며 획득되는 값을 누적하면, 의도한 볼륨 렌더링 결과가 획득될 수 있다.In order to define a start point and an end point of each ray in volume rendering, two images of a front image and a back image having the same size (ie, pixel size) may be generated. The values obtained at the same position of each of the two generated images become the starting and ending points of the rays corresponding to the positions. When the 3D texture sampling of the medical image is performed at predetermined intervals along the ray from the determined start point to the end point and the acquired values are accumulated, an intended volume rendering result may be obtained.

도 4는 본 발명의 일 실시예에 따른 의료 영상 처리 장치(20)의 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(20)는 프로세서(21), 통신부(22), 입력부(23), 메모리(24), 위치 추적부(25) 및 디스플레이 출력부(26)를 포함할 수 있다.4 is a block diagram of a medical image processing apparatus 20 according to an embodiment of the present invention. As shown, the medical image processing apparatus 20 according to an embodiment of the present invention includes a processor 21, a communication unit 22, an input unit 23, a memory 24, a location tracking unit 25, and a display output. It may include a part 26.

먼저, 통신부(22)는 외부 장치와 통신을 수행하기 위한 다양한 프로토콜의 유/무선 통신 모듈을 포함한다. 입력부(23)는 의료 영상 처리 장치(20)에 대한 사용자 입력을 수신하기 위한 다양한 형태의 인터페이스를 포함한다. 일 실시예에 따르면, 입력부(23)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트 등을 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 의료 영상 처리 장치는 통신부(22) 및/또는 입력부(23)를 통해 대상체의 의료 영상을 미리 획득할 수 있다. 메모리(24)는 의료 영상 처리 장치(10)에서 사용되는 제어 프로그램 및 이와 관련된 각종 데이터를 저장한다. 예를 들어, 메모리(24)는 사전에 획득된 대상체의 의료 영상을 저장할 수 있다. 또한, 메모리(24)는 대상체의 의료 영상을 렌더링하여 생성된 의료 영상 데이터를 저장할 수 있다.First, the communication unit 22 includes wired/wireless communication modules of various protocols for performing communication with an external device. The input unit 23 includes various types of interfaces for receiving a user input for the medical image processing apparatus 20. According to an embodiment, the input unit 23 may include a keyboard, a mouse, a camera, a microphone, a pointer, a USB, a connection port with an external device, and the like, and the present invention is not limited thereto. The medical image processing apparatus may acquire a medical image of the object in advance through the communication unit 22 and/or the input unit 23. The memory 24 stores a control program used in the medical image processing apparatus 10 and various data related thereto. For example, the memory 24 may store a previously acquired medical image of an object. Also, the memory 24 may store medical image data generated by rendering a medical image of an object.

위치 추적부(25)는 대상체 내에서의 의료용 항법 장치(55)의 위치 정보를 취득한다. 본 발명의 실시예에서 의료용 항법 장치(55)는 다양한 종류의 수술 항법 장치를 포함할 수 있다. 의료용 항법 장치의 위치 추적을 위해 광학식 위치 추적 방법 또는 전자기식 위치 추적 방법이 사용될 수 있으나, 본 발명은 이에 한정되지 않는다. 의료용 항법 장치(55)로부터 획득된 위치 정보가 대상체의 의료 영상 데이터와 정합되지 않은 경우, 위치 추적부(25)는 정합 과정을 수행하여 의료 영상 데이터를 기준으로 한 의료용 항법 장치(55)의 위치 정보를 생성할 수 있다. 위치 추적부(25)는 의료용 항법 장치(55)와 유선 또는 무선으로 연결되어 의료용 항법 장치(55)로부터 위치 정보를 수신할 수 있다.The position tracking unit 25 acquires position information of the medical navigation device 55 in the object. In an embodiment of the present invention, the medical navigation device 55 may include various types of surgical navigation devices. An optical location tracking method or an electromagnetic location tracking method may be used for location tracking of a medical navigation device, but the present invention is not limited thereto. When the location information obtained from the medical navigation device 55 is not matched with the medical image data of the object, the location tracking unit 25 performs a matching process to determine the location of the medical navigation device 55 based on the medical image data. Can generate information. The location tracking unit 25 may be connected to the medical navigation device 55 by wire or wirelessly to receive location information from the medical navigation device 55.

디스플레이 출력부(26)는 본 발명의 실시예에 따라 생성된 영상을 출력한다. 즉, 디스플레이 출력부(26)는 후술하는 바와 같이 대상체의 관심 영역에 대응하는 의료 영상 데이터를 출력할 수 있다. 디스플레이 출력부(26)에 의해 출력된 영상은 의료 영상 처리 장치(20)와 연결된 모니터(65)에 의해 디스플레이 될 수 있다.The display output unit 26 outputs an image generated according to an embodiment of the present invention. That is, the display output unit 26 may output medical image data corresponding to an ROI of the object, as described later. The image output by the display output unit 26 may be displayed by the monitor 65 connected to the medical image processing apparatus 20.

본 발명의 프로세서(21)는 다양한 명령 또는 프로그램을 실행하고, 의료 영상 처리 장치(20) 내부의 데이터를 처리할 수 있다. 또한, 프로세서(21)는 전술한 의료 영상 처리 장치(20)의 각 유닛을 제어하며, 유닛들 간의 데이터 송수신을 제어할 수 있다.The processor 21 of the present invention may execute various commands or programs and may process data inside the medical image processing apparatus 20. In addition, the processor 21 controls each unit of the medical image processing apparatus 20 described above, and may control data transmission/reception between the units.

도 4에 도시된 의료 영상 장치(20)는 본 발명의 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 해당 장치의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 의료 영상 장치(20)의 엘리먼트들은 해당 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 또한, 도 4에 도시된 의료 영상 장치(20)의 구성들 중 일부 구성이 생략될 수 있으며, 추가적인 구성이 의료 영상 장치(20)에 포함될 수도 있다.The medical imaging apparatus 20 shown in FIG. 4 is a block diagram according to an exemplary embodiment of the present invention, and the separated and displayed blocks are shown by logically distinguishing elements of the corresponding apparatus. Accordingly, the elements of the medical imaging apparatus 20 described above may be mounted as one chip or as a plurality of chips according to the design of the corresponding device. In addition, some of the components of the medical imaging apparatus 20 illustrated in FIG. 4 may be omitted, and additional components may be included in the medical imaging apparatus 20.

도 5는 본 발명의 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)의 더욱 상세한 블록도이다. 도시된 바와 같이, 본 발명의 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)는 관심 영역 설정부(210), 의료 영상 데이터 생성부(220) 및 부분 의료 영상 데이터 생성부(230)를 포함할 수 있다.5 is a more detailed block diagram of the processor 21 of the medical image processing apparatus 20 according to an embodiment of the present invention. As shown, the processor 21 of the medical image processing apparatus 20 according to an embodiment of the present invention includes an ROI setting unit 210, a medical image data generation unit 220, and a partial medical image data generation unit 230. ) Can be included.

관심 영역 설정부(210)는 대상체에 대한 사용자의 관심 영역을 설정한다. 더욱 구체적으로, 관심 영역 설정부(210)는 위치 추적부(25)로부터 의료용 항법 장치(55)의 위치 정보를 수신하고, 상기 위치 정보에 기초하여 관심 영역을 설정한다. 본 발명의 실시예에 따르면, 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 이를 위해, 관심 영역 설정부(210)는 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자 입력으로 사전에 수신할 수 있다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다. 만약 사용자가 수평면, 시상면 및 관상면 중 적어도 하나의 기준면에 대한 영역 설정 정보를 입력하지 않은 경우, 관심 영역 설정부(210)는 해당 면을 기준으로 한 크롭핑(cropping)을 수행하지 않을 수 있다. 관심 영역 설정부(210)에서 획득된 관심 영역 정보는 부분 의료 영상 데이터 생성부(230)로 전달된다.The region of interest setting unit 210 sets a region of interest of a user for an object. More specifically, the ROI setting unit 210 receives location information of the medical navigation device 55 from the location tracking unit 25, and sets the ROI based on the location information. According to an embodiment of the present invention, the region of interest is set based on at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data, based on an area within a preset distance from the position of the medical navigation device 55. To this end, the region of interest setting unit 210 may receive information on a preset distance based on each of the horizontal plane, the sagittal plane, and the coronal plane (ie, region setting information) as a user input in advance. The region of interest setting unit 210 is an area included within a first distance based on the horizontal plane from the position of the medical navigation device 55, within a second distance based on the sagittal plane, and/or within a third distance based on the coronal plane. Crop (crop) to set as the region of interest. If the user does not input region setting information for at least one of the horizontal plane, the sagittal plane, and the coronal plane, the region of interest setting unit 210 may not perform cropping based on the corresponding plane. have. The ROI information acquired by the ROI setting unit 210 is transmitted to the partial medical image data generation unit 230.

다음으로, 의료 영상 데이터 생성부(220)는 대상체의 의료 영상을 렌더링하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함한다. 의료 영상 데이터는 대상체에 대한 의료 영상을 이용하여 생성된 복셀들을 가리킬 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 의료 영상 데이터는 대상체에 대한 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수도 있다.Next, the medical image data generator 220 generates medical image data by rendering a medical image of an object. As described above, the medical image includes at least one of an X-ray image, a CT image, a PET image, an ultrasound image, and an MRI. The medical image data may refer to voxels generated using a medical image of an object. However, the present invention is not limited thereto, and the medical image data may refer to data obtained by volume rendering a medical image of an object.

다음으로, 부분 의료 영상 데이터 생성부(230)는 대상체에 대한 의료 영상 데이터 중 관심 영역에 대응하는 부분의 의료 영상 데이터를 추출하여 렌더링한다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 관심 영역의 복셀들을 선별적으로 광선 투사하여 볼륨 렌더링을 수행할 수 있다. 이에 따라, 대상체 내에서 관심 영역 이외의 개체들이 관심 영역의 개체들과 중첩되는 것을 방지하여, 시술자가 대상체의 해부학적 구조를 용이하게 파악할 수 있게 된다.Next, the partial medical image data generation unit 230 extracts and renders medical image data of a portion corresponding to an ROI among medical image data of an object. More specifically, the partial medical image data generator 230 may perform volume rendering by selectively projecting light rays of voxels in the ROI. Accordingly, objects other than the region of interest are prevented from overlapping with the objects of the region of interest in the object, so that the operator can easily grasp the anatomy of the object.

본 발명의 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 다양한 방법으로 볼륨 렌더링 데이터를 생성할 수 있다. 일 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에 포함된 복셀들 전체에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.According to an embodiment of the present invention, the partial medical image data generation unit 230 may generate volume rendering data in various ways. According to an embodiment, the partial medical image data generator 230 may generate volume rendering data by projecting light rays on all voxels included in the ROI.

본 발명의 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀들에 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이때, 기 설정된 HU 범위는 대상체의 특정 조직(tissue)의 CT 수치에 기초하여 결정될 수 있다. 또한, 볼륨 렌더링을 수행하기 위한 특정 조직은 사용자에 의해 선택될 수 있다. 이를 통해, 관심 영역 내에서 사용자의 설정에 의해 선택된 특정 조직에 대응하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.According to another embodiment of the present invention, the partial medical image data generation unit 230 may generate volume rendering data by selectively projecting light rays on voxels having a value within a preset HU range within a region of interest. have. In this case, the preset HU range may be determined based on the CT value of a specific tissue of the subject. Also, a specific organization for performing volume rendering may be selected by the user. Through this, it is possible to generate volume rendering data by selectively projecting light rays only on voxels corresponding to a specific tissue selected by the user in the region of interest.

가장 널리 사용되는 의료 영상인 CT의 경우, 인체의 각 구성 요소가 갖는 CT 수치는 아래 표 1과 같다. 이때, 각 수치의 단위는 HU(Hounsfield Unit)이다.In the case of CT, which is the most widely used medical image, the CT values of each component of the human body are shown in Table 1 below. At this time, the unit of each numerical value is HU (Hounsfield Unit).

조직(tissue)Tissue CT Number (HU)CT Number (HU) bone +1000+1000 liver 40 ~ 6040 to 60 백색질White matter -20 ~ -30-20 ~ -30 회백질Gray matter -37 ~ -45-37 to -45 혈액blood 4040 근육muscle 10 ~ 4010 to 40 콩팥kidneys 3030 뇌척수액 (CSF)Cerebrospinal fluid (CSF) 1515 water 00 지방Fat -50 ~ -100-50 ~ -100 공기air -1000-1000

의료 영상 표준인 DICOM(Digital Imaging and Communications in Medicine)에 따르는 데이터는 픽셀당 2byte를 사용한다. 따라서, 각 픽셀이 가질 수 있는 값의 범위는 216으로 -32768부터 32767까지이다. 임플란트 등의 이물질이 인체에 삽입될 수도 있으나, 재구성 과정에서 적정 수준의 값으로 치환되어 +/-1000HU 범위 밖의 값은 CT에서 사용되지 않는다.Data according to the medical imaging standard DICOM (Digital Imaging and Communications in Medicine) uses 2 bytes per pixel. Therefore, the range of values that each pixel can have is 2 16 , ranging from -32768 to 32767. Foreign substances such as implants may be inserted into the human body, but values outside the +/-1000HU range are not used in CT because they are replaced with appropriate levels during the reconstruction process.

상기 표 1을 통해 나타난 바와 같이, 인체의 각 구성 요소가 갖는 CT 수치의 범위는 미리 결정되어 있다. 만약 사용자가 대상체의 관심 영역 중에서 회백질만을 선별적으로 확인하고 싶다면, 사용자는 -37 내지 -45의 CT 수치 범위에 포함된 임의의 값 또는 해당 범위를 포함하는 CT 수치 범위를 입력부(23)를 통해 입력할 수 있다. 뿐만 아니라, 사용자는 기 설정된 대상체의 조직들 중 회백질에 대한 선택을 입력부(23)를 통해 입력할 수도 있다. 부분 의료 영상 데이터 생성부(230)는 사용자의 입력에 기초하여 대상체의 관심 영역 중에서 회백질에 해당하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.As shown in Table 1, the range of CT values of each component of the human body is predetermined. If the user wants to selectively check only the gray matter in the region of interest of the object, the user can input an arbitrary value included in the CT value range of -37 to -45 or a CT value range including the range through the input unit 23. You can enter. In addition, the user may input a selection of gray matter among predetermined tissues of the object through the input unit 23. The partial medical image data generator 230 may generate volume rendering data by selectively projecting light rays only on voxels corresponding to gray matter among the ROI of the object based on a user input.

본 발명의 또 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점에 가상의 광원이 존재한다고 가정하여, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 설정할 수 있다. 부분 의료 영상 데이터 생성부(230)는 이와 같이 설정된 복셀들에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이에 대한 구체적인 실시예는 후술하도록 한다.According to another embodiment of the present invention, the partial medical image data generation unit 230 may calculate voxel values of a region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation device 55 By rendering, partial medical image data may be generated. More specifically, the partial medical image data generation unit 230 assumes that a virtual light source exists at a predetermined point based on the position of the medical navigation device 55, and the region of interest when light is emitted from the virtual light source. Voxel values can be set. The partial medical image data generator 230 may generate volume rendering data by projecting light rays on voxels set as described above. A specific embodiment of this will be described later.

부분 의료 영상 데이터 생성부(230)에서 생성된 부분 의료 영상 데이터는 디스플레이 출력부(26)의 출력 영상으로 제공될 수 있다.The partial medical image data generated by the partial medical image data generation unit 230 may be provided as an output image of the display output unit 26.

도 6은 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다. 도 6을 참조하면, 볼륨 렌더링을 수행하기 위한 컬러 큐브 내에서 시상면을 기준으로 특정 거리 이내에 포함된 영역이 관심 영역으로 설정되어 있다. 도 7은 이와 같이 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 더욱 구체적으로, 도 7(a)는 큐브 내에 포함된 대상체의 볼륨 렌더링 데이터를 나타내며, 도 7(b)는 도 6에 의해 설정된 관심 영역에 대응하는 볼륨 렌더링 데이터를 나타낸다. 도 7(b)에 나타난 바와 같이, 사용자의 관심 영역 설정에 따라, 대상체의 시상면을 기준으로 특정 거리 이내에 포함된 영역만이 볼륨 렌더링되어 디스플레이 될 수 있다.6 shows an embodiment of setting an ROI for an object. Referring to FIG. 6, a region included within a specific distance based on a sagittal plane in a color cube for performing volume rendering is set as a region of interest. 7 shows partial medical image data corresponding to the region of interest set as described above. More specifically, FIG. 7(a) shows volume rendering data of an object included in a cube, and FIG. 7(b) shows volume rendering data corresponding to an ROI set by FIG. 6. As shown in FIG. 7B, according to the user's setting of the region of interest, only an area included within a specific distance from the sagittal plane of the object may be volume rendered and displayed.

도 8은 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다. 도 8을 참조하면, 유저 인터페이스는 대상체의 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자로부터 수신할 수 있다. 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 본 발명의 일 실시예에 따르면, 위치 추적부(25)로부터 획득된 의료용 항법 장치(55)의 위치 정보가 유저 인터페이스의 각 기준면에 대한 슬라이드 바 상에서 특정 좌표로 표시될 수 있다. 사용자는 각 슬라이드 바에 표시된 좌표를 기준으로 관심 영역에 포함될 기준 거리를 설정할 수 있다. 관심 영역 설정부(210)는 수평면을 기준으로 한 제1 거리 정보, 시상면을 기준으로 한 제2 거리 정보 및 관상면을 기준으로 한 제3 거리 정보 중 적어도 하나를 유저 인터페이스를 통해 수신한다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다.8 illustrates an embodiment of a user interface for setting an ROI of an object. Referring to FIG. 8, the user interface may receive information (ie, region setting information) about a preset distance based on each of a horizontal plane, a sagittal plane, and a coronal plane of an object from a user. The region of interest is set based on at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data, based on an area within a preset distance from the position of the medical navigation device 55. According to an embodiment of the present invention, location information of the medical navigation device 55 obtained from the location tracking unit 25 may be displayed as specific coordinates on a slide bar for each reference plane of the user interface. The user may set a reference distance to be included in the ROI based on the coordinates displayed on each slide bar. The ROI setting unit 210 receives at least one of first distance information based on a horizontal plane, second distance information based on a sagittal plane, and third distance information based on a coronal plane through a user interface. The region of interest setting unit 210 is an area included within a first distance based on the horizontal plane from the position of the medical navigation device 55, within a second distance based on the sagittal plane, and/or within a third distance based on the coronal plane. Crop (crop) to set as the region of interest.

도 9 및 도 10은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 도 9(a)는 대상체의 시상면을 기준으로 관심 영역이 설정된 경우를, 도 9(b)는 대상체의 수평면을 기준으로 관심 영역이 설정된 경우를, 도 9(c)는 대상체의 관상면을 기준으로 관심 영역이 설정된 경우를 각각 나타낸다. 또한, 도 10은 대상체의 시상면, 수평면 및 관상면 모두를 기준으로 관심 영역이 설정된 경우를 나타낸다. 이와 같이, 본 발명의 실시예에 따르면 사용자의 설정에 따라 다양한 형태로 관심 영역이 설정될 수 있으며, 관심 영역에 대응하는 의료 영상만을 선별적으로 렌더링하여 사용자에게 제공할 수 있다.9 and 10 illustrate partial medical image data corresponding to variously set regions of interest. 9(a) shows a case where an ROI is set based on the sagittal plane of an object, FIG. 9(b) shows a case where an ROI is set based on the horizontal plane of the object, and FIG. 9(c) shows the coronal surface of the object. Each represents a case in which an ROI is set as a reference. Further, FIG. 10 shows a case in which an ROI is set based on all of the sagittal plane, the horizontal plane, and the coronal plane of the object. As described above, according to an exemplary embodiment of the present invention, an ROI may be set in various forms according to a user's setting, and only medical images corresponding to the ROI may be selectively rendered and provided to the user.

한편, 상기 실시예들에서는 관심 영역이 의료 영상 데이터의 수평면, 시상면 및 관상면을 기준으로 설정되는 것으로 설명되었으나, 본 발명은 이에 한정되지 않는다. 본 발명에서 관심 영역은 의료 영상 데이터의 임의의 기준 축 또는 기준 면에 대하여 설정될 수 있다.Meanwhile, in the above embodiments, it has been described that the region of interest is set based on the horizontal plane, the sagittal plane, and the coronal plane of the medical image data, but the present invention is not limited thereto. In the present invention, the region of interest may be set with respect to an arbitrary reference axis or reference plane of medical image data.

도 11은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다. 전술한 바와 같이, 부분 의료 영상 데이터 생성부(230)는 관심 영역(30)에 대한 특수 효과를 위해, 기 설정된 지점의 가상의 광원으로부터 빛이 방출된다는 가정 하에 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다.11 illustrates a method of generating partial medical image data according to an additional embodiment of the present invention. As described above, the partial medical image data generating unit 230 renders voxel values of the region of interest by rendering the voxel values of the region of interest under the assumption that light is emitted from a virtual light source at a preset point for a special effect on the region of interest 30. Medical image data can be generated.

먼저, 일반적인 광선 투사 방법을 이용한 볼륨 렌더링 데이터의 각 픽셀 값

Figure 112020020407717-pat00005
은 아래 수학식 1과 같이 표현될 수 있다.First, each pixel value of the volume rendering data using a general ray projection method
Figure 112020020407717-pat00005
Can be expressed as in Equation 1 below.

Figure 112020020407717-pat00006
Figure 112020020407717-pat00006

여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀을 가리킨다. 또한,

Figure 112020020407717-pat00007
는 복셀 x의 값(또는, 복셀 x의 강도) 이고,
Figure 112020020407717-pat00008
는 최초 복셀 S0부터 현재 복셀 x까지 누적된 투명도를 나타낸다. τ(t)는 복셀 t의 감쇄 계수를 나타낸다.Here, S 0 denotes the first voxel sampled by ray projection, and S n denotes the final voxel sampled by ray projection. Also,
Figure 112020020407717-pat00007
Is the value of voxel x (or the intensity of voxel x),
Figure 112020020407717-pat00008
Denotes the accumulated transparency from the first voxel S 0 to the current voxel x. τ(t) represents the attenuation coefficient of voxel t.

본 발명의 실시예에 따르면, 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점 P0에 가상의 광원이 존재한다고 가정하고, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역(30)의 복셀 값들을 설정할 수 있다. 이때, 복셀 x의 값

Figure 112020020407717-pat00009
는 아래 수학식 2와 같이 표현될 수 있다.According to an embodiment of the present invention, assuming that a virtual light source exists at a predetermined point P 0 based on the position of the medical navigation device 55, the voxels of the region of interest 30 when light is emitted from the virtual light source You can set values. At this time, the value of voxel x
Figure 112020020407717-pat00009
Can be expressed as Equation 2 below.

Figure 112020020407717-pat00010
Figure 112020020407717-pat00010

여기서, R(x)는 가상의 광원에서 방출된 빛에 의해 조정되는 복셀 값이며 아래 수학식 3과 같이 정의될 수 있다.Here, R(x) is a voxel value adjusted by light emitted from a virtual light source, and may be defined as in Equation 3 below.

Figure 112020020407717-pat00011
Figure 112020020407717-pat00011

여기서, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값을 각각 나타낸다. 본 발명의 실시예에 따르면, 반사 계수 Kref는 아래 수학식 4와 같이 결정될 수 있다.Here, K ref is the reflection coefficient, P 0 is the position of the virtual light source, and L is the brightness value at P 0 of the virtual light source. According to an embodiment of the present invention, the reflection coefficient K ref may be determined as in Equation 4 below.

Figure 112020020407717-pat00012
Figure 112020020407717-pat00012

여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터를 각각 나타낸다. 일 실시예에 따르면, 기울기 벡터 G(x)는 복셀 x를 기준으로 주변 복셀 값들이 가장 크게 변화하는 참조면의 법선으로 정의될 수 있다.Here, G(x) denotes a gradient vector at voxel x, and V p0 ->x denotes a direction vector from the position P 0 of the virtual light source to the voxel x. According to an embodiment, the gradient vector G(x) may be defined as a normal of a reference plane in which peripheral voxel values change the most based on the voxel x.

따라서, 본 발명의 실시예에 따르면, 부분 의료 영상 데이터의 각 픽셀 값

Figure 112020020407717-pat00013
는 아래 수학식 5에 기초하여 결정될 수 있다.Therefore, according to an embodiment of the present invention, each pixel value of partial medical image data
Figure 112020020407717-pat00013
May be determined based on Equation 5 below.

Figure 112020020407717-pat00014
Figure 112020020407717-pat00014

부분 의료 영상 데이터 생성부(230)는 이와 같이 생성된 볼륨 렌더링 데이터를 부분 의료 영상 데이터로 생성한다. 이와 같은 본 발명의 추가적인 실시예에 따르면, 관심 영역 내부 또는 관심 영역 주변에 조명이 삽입된 것과 같은 효과를 나타낼 수 있다. 관심 영역 내부 또는 주변에 조명이 삽입되면 관심 영역에 대한 그림자 효과로 인해 관심 영역의 입체감이 극대화 될 수 있으며, 관심 영역에 대한 사용자의 식별도가 증가될 수 있다.The partial medical image data generation unit 230 generates the volume rendering data generated as described above as partial medical image data. According to such an additional embodiment of the present invention, it is possible to achieve the same effect as inserting a light inside or around an ROI. When lighting is inserted inside or around the region of interest, the three-dimensional effect of the region of interest may be maximized due to the shadow effect on the region of interest, and the user's identification of the region of interest may be increased.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아는 것으로 해석해야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be construed that the embodiments described above are illustrative in all respects and are not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention do.

20: 의료 영상 처리 장치
55: 의료용 항법 장치
65: 모니터
20: medical image processing device
55: medical navigation device
65: monitor

Claims (20)

의료용 항법 장치를 위한 의료 영상 처리 장치로서,
대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부;
상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및
상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서를 포함하되,
상기 프로세서는,
적어도 하나의 평면을 기준으로 한 사용자의 설정 거리 정보를 수신하고,
상기 의료용 항법 장치의 위치에 기초한 상기 평면으로부터 상기 설정 거리 이내의 영역을 포함하는 3차원의 관심 영역 이내의 복셀들을 볼륨 렌더링하여 상기 부분 의료 영상 데이터를 생성하는 의료 영상 처리 장치.
As a medical image processing device for a medical navigation device,
A location tracking unit that acquires location information of a medical navigation device within an object;
A memory for storing medical image data generated based on a medical image of the object; And
A processor configured to set an ROI based on location information of the medical navigation device based on the medical image data and generate partial medical image data corresponding to the ROI,
The processor,
Receive the user's set distance information based on at least one plane,
A medical image processing apparatus for generating the partial medical image data by volume-rendering voxels within a 3D ROI including an area within the set distance from the plane based on the position of the medical navigation device.
제1 항에 있어서,
상기 적어도 하나의 평면은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 포함하는 의료 영상 처리 장치.
The method of claim 1,
The at least one plane includes at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data.
제1 항에 있어서,
상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성되는 의료 영상 처리 장치.
The method of claim 1,
The partial medical image data is generated by rendering voxels having a value within a preset HU range within the ROI.
제3 항에 있어서,
상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정되는 의료 영상 처리 장치.
The method of claim 3,
The predetermined HU range is determined based on a CT value of a specific tissue of the object.
제4 항에 있어서,
상기 특정 조직은 사용자의 선택에 의해 결정되는 의료 영상 처리 장치.
The method of claim 4,
The specific tissue is a medical image processing apparatus that is determined by a user's selection.
제1 항에 있어서,
상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성되는 의료 영상 처리 장치.
The method of claim 1,
The partial medical image data is generated by rendering voxels of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation device.
제6 항에 있어서,
상기 부분 의료 영상 데이터의 각 픽셀 값
Figure 112020063817786-pat00015
는 다음 수학식에 기초하여 결정되는 의료 영상 처리 장치.
Figure 112020063817786-pat00016

여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀,
Figure 112020063817786-pat00017
는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.
The method of claim 6,
Each pixel value of the partial medical image data
Figure 112020063817786-pat00015
A medical image processing apparatus determined based on the following equation.
Figure 112020063817786-pat00016

Here, S 0 is the first voxel sampled by ray projection, S n is the final voxel sampled by ray projection,
Figure 112020063817786-pat00017
Is the value of voxel x, τ(t) is the attenuation coefficient of voxel t, K ref is the reflection coefficient, P 0 is the position of the virtual light source, L is the brightness value at P 0 of the virtual light source.
제7 항에 있어서,
상기 Kref는 다음 수학식에 기초하여 결정되는 의료 영상 처리 장치.
Figure 112020063817786-pat00018

여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.
The method of claim 7,
The K ref is determined based on the following equation.
Figure 112020063817786-pat00018

Here, G(x) is the gradient vector at the voxel x, and V p0->x is the direction vector from the position P 0 of the virtual light source to the voxel x.
제1 항에 있어서,
상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터인 의료 영상 처리 장치.
The method of claim 1,
The medical image data is voxels generated using a medical image of the object, and the partial medical image data is volume rendering data obtained by projecting light rays of voxels corresponding to the region of interest.
의료용 항법 장치를 위한 의료 영상 처리 장치의 의료 영상 처리 방법으로서,
대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 단계;
상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 단계;
적어도 하나의 평면을 기준으로 한 사용자의 설정 거리 정보를 수신하는 단계;
상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하는 단계, 상기 관심 영역은 상기 의료용 항법 장치의 위치에 기초한 상기 평면으로부터 상기 설정 거리 이내의 영역을 포함하는 3차원의 영역으로 설정됨; 및
상기 관심 영역 이내의 복셀들을 볼륨 렌더링하여 부분 의료 영상 데이터를 생성하는 단계;
를 포함하는 의료 영상 처리 방법.
A medical image processing method of a medical image processing device for a medical navigation device,
Acquiring location information of a medical navigation device within an object;
Storing medical image data generated based on the medical image of the object;
Receiving information about a user's set distance based on at least one plane;
Setting an ROI based on location information of the medical navigation device based on the medical image data, wherein the ROI includes an area within the set distance from the plane based on the position of the medical navigation device. Set as a dimensional area; And
Generating partial medical image data by volume-rendering voxels within the ROI;
Medical image processing method comprising a.
제10 항에 있어서,
상기 적어도 하나의 평면은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 포함하는 의료 영상 처리 방법.
The method of claim 10,
The at least one plane includes at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data.
제10 항에 있어서,
상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성되는 의료 영상 처리 방법.
The method of claim 10,
The partial medical image data is generated by rendering voxels having a value within a predetermined HU range within the ROI.
제12 항에 있어서,
상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정되는 의료 영상 처리 방법.
The method of claim 12,
The predetermined HU range is determined based on a CT value of a specific tissue of the object.
제13 항에 있어서,
상기 특정 조직은 사용자의 선택에 의해 결정되는 의료 영상 처리 방법.
The method of claim 13,
The specific tissue is a medical image processing method that is determined by a user's selection.
제10 항에 있어서,
상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성되는 의료 영상 처리 방법.
The method of claim 10,
The partial medical image data is generated by rendering voxels of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation device.
제15 항에 있어서,
상기 부분 의료 영상 데이터의 각 픽셀 값
Figure 112020063817786-pat00019
는 다음 수학식에 기초하여 결정되는 의료 영상 처리 방법.
Figure 112020063817786-pat00020

여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀,
Figure 112020063817786-pat00021
는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.
The method of claim 15,
Each pixel value of the partial medical image data
Figure 112020063817786-pat00019
Is a medical image processing method determined based on the following equation.
Figure 112020063817786-pat00020

Here, S 0 is the first voxel sampled by ray projection, S n is the final voxel sampled by ray projection,
Figure 112020063817786-pat00021
Is the value of voxel x, τ(t) is the attenuation coefficient of voxel t, K ref is the reflection coefficient, P 0 is the position of the virtual light source, L is the brightness value at P 0 of the virtual light source.
제16 항에 있어서,
상기 Kref는 다음 수학식에 기초하여 결정되는 의료 영상 처리 방법.
Figure 112020063817786-pat00022

여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.
The method of claim 16,
The K ref is a medical image processing method determined based on the following equation.
Figure 112020063817786-pat00022

Here, G(x) is the gradient vector at the voxel x, and V p0->x is the direction vector from the position P 0 of the virtual light source to the voxel x.
제10 항에 있어서,
상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터인 의료 영상 처리 방법.
The method of claim 10,
The medical image data is voxels generated using a medical image of the object, and the partial medical image data is volume rendering data obtained by projecting light rays of voxels corresponding to the ROI.
삭제delete 삭제delete
KR1020200023717A 2020-02-26 2020-02-26 Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator KR102208577B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200023717A KR102208577B1 (en) 2020-02-26 2020-02-26 Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200023717A KR102208577B1 (en) 2020-02-26 2020-02-26 Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170110943A Division KR102084251B1 (en) 2017-08-31 2017-08-31 Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator

Publications (2)

Publication Number Publication Date
KR20200026850A KR20200026850A (en) 2020-03-11
KR102208577B1 true KR102208577B1 (en) 2021-01-27

Family

ID=69810057

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200023717A KR102208577B1 (en) 2020-02-26 2020-02-26 Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator

Country Status (1)

Country Link
KR (1) KR102208577B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002510230A (en) 1997-06-27 2002-04-02 ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ Stereoscopic image navigation method and apparatus
JP2005520590A (en) 2002-03-14 2005-07-14 ネットケイアイエスアール インコーポレイテッド Computer-linked tomography data analysis and display system and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524085B1 (en) * 2013-01-04 2015-05-29 삼성메디슨 주식회사 Apparatus and method for providing medical image
KR101769331B1 (en) * 2015-11-30 2017-08-18 오스템임플란트 주식회사 Method for reconstructing ct image, apparatus and recording medium thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002510230A (en) 1997-06-27 2002-04-02 ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ Stereoscopic image navigation method and apparatus
JP2005520590A (en) 2002-03-14 2005-07-14 ネットケイアイエスアール インコーポレイテッド Computer-linked tomography data analysis and display system and method

Also Published As

Publication number Publication date
KR20200026850A (en) 2020-03-11

Similar Documents

Publication Publication Date Title
US9361726B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and methods therefor
JP4316876B2 (en) 3D planning target volume
US8891847B2 (en) Automatic implant detection from image artifacts
US11676706B2 (en) Medical image processing apparatus and medical image processing method which are for medical navigation device
EP3164075B1 (en) Unified coordinate system for multiple ct scans of patient lungs
US20070167762A1 (en) Ultrasound system for interventional treatment
CN109464194A (en) Display methods, device, medical supply and the computer storage medium of medical image
US20090087046A1 (en) Digital blink comparator apparatus and software and methods for operation
US10342633B2 (en) Medical image data processing system and method
CN111275825B (en) Positioning result visualization method and device based on virtual intelligent medical platform
KR20170016128A (en) Pen-type medical fluorescence image device and system which registers multiple fluorescent images using the same
CN101065062B (en) Image processing system and method for displaying images during interventional procedures
US20110313479A1 (en) System and method for human anatomic mapping and positioning and therapy targeting
JP2019141578A (en) Image processing method and apparatus using elastic mapping of vascular plexus structures
CN110720985A (en) Multi-mode guided surgical navigation method and system
KR101977650B1 (en) Medical Image Processing Apparatus Using Augmented Reality and Medical Image Processing Method Using The Same
KR102084251B1 (en) Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator
CN100583161C (en) Method for depicting an object displayed in a volume data set
KR102208577B1 (en) Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator
KR20190069751A (en) Point based registration apparatus and method using multiple candidate points
US10398395B2 (en) Medical image diagnostic apparatus
US11941765B2 (en) Representation apparatus for displaying a graphical representation of an augmented reality
US20190236776A1 (en) Rib developed image generation apparatus, method, and program
US20150320507A1 (en) Path creation using medical imaging for planning device insertion
EP3968859B1 (en) Protocol-dependent 2-d pre-scan projection image based on 3-d pre-scan volumetric image data

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant