KR20130112130A - Registration accuracy improvement method using stereo endoscope - Google Patents

Registration accuracy improvement method using stereo endoscope Download PDF

Info

Publication number
KR20130112130A
KR20130112130A KR1020120034285A KR20120034285A KR20130112130A KR 20130112130 A KR20130112130 A KR 20130112130A KR 1020120034285 A KR1020120034285 A KR 1020120034285A KR 20120034285 A KR20120034285 A KR 20120034285A KR 20130112130 A KR20130112130 A KR 20130112130A
Authority
KR
South Korea
Prior art keywords
image
endoscope
stereo
virtual
navigation
Prior art date
Application number
KR1020120034285A
Other languages
Korean (ko)
Inventor
김철영
양우석
Original Assignee
주식회사 사이버메드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 사이버메드 filed Critical 주식회사 사이버메드
Priority to KR1020120034285A priority Critical patent/KR20130112130A/en
Publication of KR20130112130A publication Critical patent/KR20130112130A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Graphics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PURPOSE: A method for improving matching accuracy by using a stereo-endoscope is provided to improve sailing speed through interaction with a virtual reality (VR) device. CONSTITUTION: A stereo-endoscope image is combined with optical information. A reconstructed 3D image is formed by combining the stereo-endoscope image with the optical information. A computed tomography (CT) image is passed through a virtual endoscope. The CT image is passed through a depth map. Matching accuracy is improved by passing the CT image through the depth map.

Description

스테레오 엔도스코프를 이용한 정합 정확도 향상 방법{REGISTRATION ACCURACY IMPROVEMENT METHOD USING STEREO ENDOSCOPE}How to Improve Matching Accuracy Using a Stereo Endoscope {REGISTRATION ACCURACY IMPROVEMENT METHOD USING STEREO ENDOSCOPE}

본 개시(Disclosure)는 전체적으로 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법에 관한 것이다.The present disclosure relates to a method of improving matching accuracy using a stereo endoscope as a whole.

여기서는, 본 개시에 관한 배경기술이 제공되며, 이들이 반드시 공지기술을 의미하는 것은 아니다(This section provides background information related to the present disclosure which is not necessarily prior art).Herein, the background art relating to the present disclosure is provided, and these are not necessarily meant to be known arts.

종래의 기계적 내시경 사용시 삽입에 따른 고통, 고가의 비용, 직경이 작은 부위의 관찰의 어려움 등의 문제점이 있었다. 따라서, 종래의 기계적 내시경 대체 또는 보완할 수 있도록 실제 영상의 3차원 재구성을 통한 내부항해가 가능하며, VR장치와 상호작용을 통한 연동이 이루어지는 가상 내시경 장치가 등장하였다. 하지만 종래의 가상 내시경 장치는 항해시 속도에 문제점이 있었으며, 또한 표면 렌더링에 의한 화질이 훼손되는 문제점이 있었다.When using a conventional mechanical endoscope, there are problems such as pain due to insertion, expensive cost, and difficulty in observing a small diameter part. Therefore, in order to replace or supplement the conventional mechanical endoscope, internal navigation is possible through three-dimensional reconstruction of an actual image, and a virtual endoscope device that interacts with a VR device has emerged. However, the conventional virtual endoscope has a problem in speed during navigation, and also has a problem that the image quality is impaired by surface rendering.

이에 대하여 '발명의 실시를 위한 구체적인 내용'의 후단에 기술한다.This will be described later in the Specification for Implementation of the Invention.

여기서는, 본 개시의 전체적인 요약(Summary)이 제공되며, 이것이 본 개시의 외연을 제한하는 것으로 이해되어서는 아니된다(This section provides a general summary of the disclosure and is not a comprehensive disclosure of its full scope or all of its features).SUMMARY OF THE INVENTION Herein, a general summary of the present disclosure is provided, which should not be construed as limiting the scope of the present disclosure. of its features).

본 개시에 따른 일 태양에 의하면(According to one aspect of the present disclosure), 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법에 있어서, 스테레오-엔도스코프 영상과 스테레오-엔도스코프 영상을 광학 정보를 결합하고, Depth-Map을 거쳐, 리컨스트럭티드 3D 영상을 만드는 단계; 그리고, CT 이미지(MPR), 가상 엔도스코프, Depth-Map를 거쳐, 정합 정확도를 향상시키는 단계;를 포함하는 것을 특징으로 하는 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법이 제공된다.According to one aspect of the present disclosure, in a method of improving matching accuracy using a stereo endoscope, a stereo-endoscope image and a stereo-endoscope image are combined with optical information, and Depth Creating a reconstructed 3D image via a map; And, through the CT image (MPR), virtual endoscope, Depth-Map, improving the matching accuracy; there is provided a matching accuracy improvement method using a stereo endoscope.

이에 대하여 '발명의 실시를 위한 구체적인 내용'의 후단에 기술한다.This will be described later in the Specification for Implementation of the Invention.

도 1은 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 일실시예를 나타내는 도면,
도 2는 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 다른 일실시예를 나타내는 도면,
도 3은 공간 분할의 예를 나타내는 도면,
도 4는 가상 내시경 항해의 실시예를 나타내는 도면,
도 5는 본 발명에서 적용한 충돌검출 방법의 실시예를 나타내는 도면,
도 6은 본 개시에 따른 가상 엔도스코프를 이용하여 3D 모델을 생성하는 방법의 일 예를 나타내는 도면,
도 7 및 도 8은 본 개시에 따른 가상 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면,
도 9는 본 개시에 따른 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면.
1 is a view showing an embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention,
2 is a view showing another embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention,
3 is a diagram illustrating an example of spatial division;
4 illustrates an embodiment of a virtual endoscope navigation;
5 is a view showing an embodiment of a collision detection method applied in the present invention,
6 is a diagram illustrating an example of a method of generating a 3D model using a virtual endoscope according to the present disclosure;
7 and 8 are views illustrating an example of a matching accuracy improvement method using a virtual endoscope according to the present disclosure;
9 is a view showing an example of a matching accuracy improvement method using a stereo endoscope according to the present disclosure.

이하, 본 개시를 첨부된 도면을 참고로 하여 자세하게 설명한다(The present disclosure will now be described in detail with reference to the accompanying drawing(s)). The present disclosure will now be described in detail with reference to the accompanying drawing (s).

도 1은 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 일실시예를 도시한 것이다. MRI, CT, 초음파 등과 같이 단면 영상을 출력하는 장비로부터 출력되는 단면영상들을 취득(acqisition)한다(S110). 상기 취득된 단면영상을 보간(interpolation)과정과 분할(segmentation)과정을 통해 3D 볼륨 데이터를 만들기 전에 필요한 영상의 보간 등의 전처리과정을 거친다(S120). 여기서, 보간(interpolation)이란 영상의 해상도를 높이기 위해 연속되는 영상사이에 현재 시퀀스 영상의 이전과 이후의 차를 구하는 과정으로, 그 차분 영상을 보간한다. 분할(segmentation)은 3차원 볼륨을 생성하기 위해 관심부위 영상의 강도(intensity)에 해당되는 문턱치를 설정하고 문턱치 이상이 되는 값만을 필터링 하는 과정이다. 본 발명에서는 얻어진 3D 볼륨 데이터(S130)로부터 웹 인터페이스(Web interface:10)를 통한 관찰과 영상항해를 위해 VRML 포멧(20)으로 변환이 가능하도록 3D 볼륨 포맷변환이 가능하다. 그리고, 상기 3D 볼륨 데이터를 공간 분할한다(S140). 이러한 과정을 BPS(binary space partitioning)이라 한다. 이 과정이 필요한 이유는 3D 볼륨데이터를 실시간 상호작용 하기에는 너무 크기 때문이며(trachea의 경우 20만 폴리곤 이상의 폴리곤이 존재함), BPS과정은 3차원 polygonal mesh 데이터를 계층적으로 작게 나눈 후, 공간적으로 상관성이 있는 것끼리 계층적인 트리구조를 만드는 과정이다. BPS(binary space partitioning)과정은 다음과 같이 상세히 설명된다. 기본적인 trachea의 3차원 볼륨은 20여만개의 삼각형 매쉬로 구성되는데 각 꼭지점들을 3차원 공간상에서 vertex라 한다. 이러한 vertex들의 공간적인 좌표를 알 수 있으므로 계층적인 sub-tree로 그룹핑할 수 있다. 이때에 트리형태로 구조화가 잘되어 있어야 interaction부여시 각 부분들이 상호 연동되어 하나의 통일된 동작으로 연출하도록 한다. 공간분할 후 2차원 또는 3차원으로 그 내부의 항해가 가능하며(S150) 이때 실시간 항해를 위해 현재의 view point에 나타난 부분만을 렌더링이 된다(S160). 출력장치모듈(output device module:40)은 HMD 또는 모니터이고, 사용자가 영상항해를 위해 사용하는 입력장치(30)는 2D 마우스 또는 가상현실에서 사용하는 스페이스 볼 또는 3차원 마우스 등이 있다.1 illustrates an embodiment of a virtual endoscope diagnosis method using a 3D image processing method according to the present invention. Acquisition of the cross-sectional images output from the device for outputting the cross-sectional image, such as MRI, CT, ultrasound (S110). Before the 3D volume data is generated through interpolation and segmentation of the obtained cross-sectional image, a preprocessing process such as interpolation of necessary images is performed (S120). Here, interpolation is a process of obtaining a difference before and after the current sequence image between successive images in order to increase the resolution of the image, and interpolating the difference image. Segmentation is a process of setting a threshold corresponding to an intensity of an image of a region of interest and filtering only a value that is equal to or larger than a threshold to generate a 3D volume. In the present invention, it is possible to convert the 3D volume format so that the 3D volume data S130 can be converted into the VRML format 20 for observation and image navigation through a web interface: 10. The 3D volume data is spatially partitioned (S140). This process is called binary space partitioning (BPS). This process is necessary because the 3D volume data is too large for real time interaction (more than 200,000 polygons exist in Trachea), and the BPS process involves spatially correlating spatially small three-dimensional polygonal mesh data. This is the process of creating a hierarchical tree structure. The binary space partitioning process is described in detail as follows. The basic three-dimensional volume of trachea consists of about 200,000 triangular meshes. Each vertex is called a vertex in three-dimensional space. Since the spatial coordinates of these vertices are known, they can be grouped into a hierarchical sub-tree. At this time, the structure of tree should be well structured so that each part can be interworked to produce one unified motion. It is possible to navigate in the interior in two or three dimensions after the spatial partitioning (S150) at this time only the portion shown in the current view point for real-time navigation is rendered (S160). The output device module 40 is an HMD or a monitor, and the input device 30 used by the user for image navigation includes a 2D mouse or a space ball or a 3D mouse used in virtual reality.

도 2는 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 다른 일실시예를 도시한 것이다. MRI, CT, 초음파 등과 같이 단면 영상을 출력하는 장비로부터 출력되는 단면영상들을 취득(acqisition)한다(S210). 상기 취득된 단면영상을 보간(interpolation)과정과 분할(segmentation)과정을 통해 3D 볼륨 데이터를 만들기 전에 필요한 영상의 보간 등의 전처리과정을 거친다(S220). 여기서, 보간(interpolation)이란 영상의 해상도를 높이기 위해 연속되는 영상사이에 현재 시퀀스 영상의 이전과 이후의 차를 구하는 과정으로, 그 차분 영상을 보간한다. 분할(segmentation)은 3차원 볼륨을 생성하기 위해 관심부위 영상의 강도(intensity)에 해당되는 문턱치를 설정하고 문턱치 이상이 되는 값만을 필터링하는 과정이다. 본 발명에서는 얻어진 3D 볼륨 데이터로부터 웹 인터페이스(Web interface:10)를 통한 관찰과 영상항해를 위해 VRML 포멧(20)으로 변환이 가능하도록 3D 볼륨 포맷변환이 가능하다. 상기 전처리 과정을 통해 출력된 영상을 볼륨렌더링을 통해 3차원 볼륨데이터를 생성한다(S230). 3차원 볼륨렌더링(3D volume rendering)은 MIP(maximum intensity projection) 또는 일반적 레이캐스팅 방법으로 3차원 볼륨 데이터를 만드는 방법을 의미한다. 그런데 상기 3차원 볼륨렌더링에 의한 볼륨데이터를 영상항해하려면 상호작용을 위한 공간좌표 데이터가 필요하므로 3차원 표면렌더링(3D surface rendering)을 하게 된다(S240). 상기 3차원 표면렌더링에 의한 3차원 볼륨데이터를 이용하여 항해할 경로를 생성하게 된다(S250). 영상항해 경로 발생(navigation path generation projection)를 위해 3차원표면렌더링으로부터 얻어진 폴리곤 볼륨데이터로부터 항해할 관(tube)의 모든 중심 직경을 수학적으로 계산할 수 있다. 수학적으로 계산된 항해 좌표를 3차원 볼륨 데이터에 적용하여 항해 경로의 중심을 따라서 항해하는 방법을 본 발명에서 적용하였다. 2차원 또는 3차원으로 그 내부의 항해가 가능하며(S260) 이때 실시간 항해를 위해 현재의 view point에 나타난 부분만을 렌더링이 된다(S270). 출력장치모듈(output device module:40)은 HMD 또는 모니터이고, 사용자가 영상항해를 위해 사용하는 입력장치(30)는 2D 마우스 또는 가상현실에서 사용하는 스페이스 볼 또는 3차원 마우스 등이 있다.Figure 2 shows another embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention. Acquisition of the cross-sectional images output from the device for outputting the cross-sectional image, such as MRI, CT, ultrasound (S210). The obtained cross-sectional image is subjected to a preprocessing process such as interpolation of the necessary image before generating 3D volume data through an interpolation process and a segmentation process (S220). Here, interpolation is a process of obtaining a difference before and after the current sequence image between successive images in order to increase the resolution of the image, and interpolating the difference image. Segmentation is a process of setting a threshold corresponding to an intensity of an image of a region of interest and filtering only a value that is equal to or larger than a threshold to generate a 3D volume. In the present invention, it is possible to convert the 3D volume format so that the 3D volume data can be converted into the VRML format 20 for observation and image navigation through a web interface (10). The 3D volume data is generated through volume rendering of the image output through the preprocessing process (S230). 3D volume rendering refers to a method of generating 3D volume data by MIP (maximum intensity projection) or general raycasting. However, in order to visualize the volume data by the 3D volume rendering, spatial coordinate data for interaction is required, thereby performing 3D surface rendering (S240). A route to be navigated is generated using the 3D volume data by the 3D surface rendering (S250). For the navigation path generation projection, all the center diameters of the tubes to be navigated can be mathematically calculated from the polygon volume data obtained from 3D surface rendering. The method of sailing along the center of the navigation route by applying mathematically calculated navigation coordinates to the three-dimensional volume data was applied in the present invention. Navigation in the interior is possible in two or three dimensions (S260). At this time, only the portion shown in the current view point is rendered for real-time navigation (S270). The output device module 40 is an HMD or a monitor, and the input device 30 used by the user for image navigation includes a 2D mouse or a space ball or a 3D mouse used in virtual reality.

도 3은 공간 분할의 예를 도시한 것이다.3 shows an example of spatial division.

도 4는 가상 내시경 항해의 실시예를 도시한 것으로, 인체 기관지 적용의 예이다. 2D/3D 항해(navigation)시에 충돌검출 방법을 적용하였는데 이 방법은 가상내시경 영상항해를 할 때 관찰시점(viewing point)이 인체기관(organ) 내부를 빠져나가지 못하도록 하기 위한 방법이다. 4 illustrates an embodiment of a virtual endoscope navigation, which is an example of a human bronchial application. In 2D / 3D navigation, a collision detection method is applied. This method prevents the viewing point from escaping the organs during virtual endoscopic navigation.

도 5는 본 발명에서 적용한 충돌검출 방법의 실시예를 나타내고 있다. 가상 기관지 내시경의 가상카메라에서 반복적으로 광선을 발사(ray casting)시켜 기관의 내부표면 경계를 탐지하는 기법이다. 만약 탐지가 되면 벽으로 인지하여 탐지된 벽면 방향으로는 관찰시점이 통과될 수 없도록 처리한다. 이와 같은 충돌검출 방법에 의해 인체의 빈 장기(hollow organ)의 영상항해시에 기관의 외부로 이탈하지 않으면서 실제의 내시경처럼 진단이 가능하게 된다.5 shows an embodiment of a collision detection method applied in the present invention. It is a technique of detecting the inner surface boundary of the trachea by repeatedly casting a ray from a virtual camera of a virtual bronchoscope. If detected, it is recognized as a wall and the observation point cannot be passed in the direction of the detected wall. By such a collision detection method, it is possible to diagnose like an actual endoscope without escaping to the outside of the organ at the time of image navigation of the hollow organ of the human body.

도 6은 본 개시에 따른 가상 엔도스코프를 이용하여 3D 모델을 생성하는 방법의 일 예를 나타내는 도면으로서, Pituiary Gland, Sella Turcica, Sphenoid Sinus가 도시되어 있고, 3차원 영상 상에서, 이동을 통해, 가상 엔도스코핑을 행하고, 이들로부터 3D 모델을 형성하는 방법이 제시되어 있다.FIG. 6 is a diagram illustrating an example of a method for generating a 3D model using a virtual endoscope according to the present disclosure. FIG. 6 illustrates Pituiary Gland, Sella Turcica, and Sphenoid Sinus. A method of performing endoscoping and forming a 3D model from them is presented.

도 7 및 도 8은 본 개시에 따른 가상 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면으로서, 등록을 행한 후, 엔도스코프 영상을 캡쳐하고, 그레이 스케일 영상 에지 디텍트를 행하고, 에지 포인트를 추출하는 과정과, CT 영상 리컨스트럭션하고, 그레이 스케일 영상 2D 프로젝션을 행하고, 그레이 스케일 영상 에지 디특트를 행하고, 에지 포인트를 추출하는 과정을 통해, ICP Algorithm에 의한 포인트 매칭을 한다.7 and 8 are diagrams showing an example of a matching accuracy improvement method using a virtual endoscope according to the present disclosure. After registration, an endoscope image is captured, a gray scale image edge detection is performed, and an edge point is performed. The point matching by the ICP Algorithm is performed through the process of extracting the image, reconstructing the CT image, performing the gray scale image 2D projection, performing the gray scale image edge defeature, and extracting the edge point.

도 9는 본 개시에 따른 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면으로서, 스테레오-엔도스코프 영상과 스테레오-엔도스코프 영상을 광학 정보를 결합하고, Depth-Map을 거쳐, 리컨스트럭티드 3D 영상을 만든다. 한편에서, CT 이미지(MPR), 가상 엔도스코프, Depth-Map를 거쳐, 정합 정확도를 향상시킨다.9 is a diagram illustrating an example of a method of improving matching accuracy using a stereo endoscope according to the present disclosure, and combining optical information between a stereo-endoscope image and a stereo-endoscope image, and performing a depth-map to reconceive the image. Create a trucked 3D image. On the other hand, matching accuracy is improved through a CT image (MPR), a virtual endoscope, and a depth map.

S270: 렌더링S270: Render

Claims (1)

스테레오 엔도스코프를 이용한 정합 정확도 향상 방법에 있어서,
스테레오-엔도스코프 영상과 스테레오-엔도스코프 영상을 광학 정보를 결합하고, Depth-Map을 거쳐, 리컨스트럭티드 3D 영상을 만드는 단계; 그리고,
CT 이미지(MPR), 가상 엔도스코프, Depth-Map를 거쳐, 정합 정확도를 향상시키는 단계;를 포함하는 것을 특징으로 하는 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법.
In the matching accuracy improvement method using a stereo endoscope,
Combining optical information into a stereo-endoscope image and a stereo-endoscope image, and passing a Depth-Map to create a reconstructed 3D image; And,
Improving matching accuracy through a CT image (MPR), a virtual endoscope, and a Depth-Map.
KR1020120034285A 2012-04-03 2012-04-03 Registration accuracy improvement method using stereo endoscope KR20130112130A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120034285A KR20130112130A (en) 2012-04-03 2012-04-03 Registration accuracy improvement method using stereo endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120034285A KR20130112130A (en) 2012-04-03 2012-04-03 Registration accuracy improvement method using stereo endoscope

Publications (1)

Publication Number Publication Date
KR20130112130A true KR20130112130A (en) 2013-10-14

Family

ID=49633181

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120034285A KR20130112130A (en) 2012-04-03 2012-04-03 Registration accuracy improvement method using stereo endoscope

Country Status (1)

Country Link
KR (1) KR20130112130A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210019816A (en) * 2019-08-13 2021-02-23 주식회사 디오 Method and apparatus for matching oral scan image and oral scan image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210019816A (en) * 2019-08-13 2021-02-23 주식회사 디오 Method and apparatus for matching oral scan image and oral scan image

Similar Documents

Publication Publication Date Title
KR100426396B1 (en) Virtual reality endoscopy method using 3D image processing method
KR101199475B1 (en) Method and apparatus for reconstruction 3 dimension model
JP6348078B2 (en) Branch structure determination apparatus, operation method of branch structure determination apparatus, and branch structure determination program
JP4335817B2 (en) Region of interest designation method, region of interest designation program, region of interest designation device
JP4299189B2 (en) Ultrasonic diagnostic apparatus and image processing method
CN103356155B (en) Virtual endoscope assisted cavity lesion examination system
JP4709177B2 (en) Three-dimensional image processing apparatus and method, and program
US9563978B2 (en) Image generation apparatus, method, and medium with image generation program recorded thereon
JP4588736B2 (en) Image processing method, apparatus, and program
JP5415068B2 (en) Visualization of cut surfaces of curved and elongated structures
JP2006055213A (en) Image processor and program
JP4885042B2 (en) Image processing method, apparatus, and program
JP4188900B2 (en) Medical image processing program
CN103839285A (en) Method and apparatus for displaying medical image
JP2009022343A (en) Ultrasonic diagnostic system and image processing program
JP7071240B2 (en) Inspection support equipment, methods and programs
JP6145870B2 (en) Image display apparatus and method, and program
JP2020010735A (en) Inspection support device, method, and program
JP5065740B2 (en) Image processing method, apparatus, and program
CN108492299B (en) Cutting method of three-dimensional image
KR20130112130A (en) Registration accuracy improvement method using stereo endoscope
KR20130112127A (en) 3d model generation method using virtual endoscope
KR20120110801A (en) Registration speed improvement with virtual endoscope using stereo endoscope
KR20120110811A (en) Accuracy improving method for neurosurgery navigation using virtual endoscope
KR20110100340A (en) Method of registering a virtual endoscope with a real endoscope

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination