KR20130112130A - Registration accuracy improvement method using stereo endoscope - Google Patents
Registration accuracy improvement method using stereo endoscope Download PDFInfo
- Publication number
- KR20130112130A KR20130112130A KR1020120034285A KR20120034285A KR20130112130A KR 20130112130 A KR20130112130 A KR 20130112130A KR 1020120034285 A KR1020120034285 A KR 1020120034285A KR 20120034285 A KR20120034285 A KR 20120034285A KR 20130112130 A KR20130112130 A KR 20130112130A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- endoscope
- stereo
- virtual
- navigation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000003287 optical effect Effects 0.000 claims abstract description 5
- 230000003993 interaction Effects 0.000 abstract description 3
- 238000002591 computed tomography Methods 0.000 abstract 4
- 238000009877 rendering Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000002405 diagnostic procedure Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 210000003437 trachea Anatomy 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000005266 casting Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 210000002483 sella turcica Anatomy 0.000 description 1
- 210000003718 sphenoid sinus Anatomy 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computer Graphics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- High Energy & Nuclear Physics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Biophysics (AREA)
- Pulmonology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Endoscopes (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
본 개시(Disclosure)는 전체적으로 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법에 관한 것이다.The present disclosure relates to a method of improving matching accuracy using a stereo endoscope as a whole.
여기서는, 본 개시에 관한 배경기술이 제공되며, 이들이 반드시 공지기술을 의미하는 것은 아니다(This section provides background information related to the present disclosure which is not necessarily prior art).Herein, the background art relating to the present disclosure is provided, and these are not necessarily meant to be known arts.
종래의 기계적 내시경 사용시 삽입에 따른 고통, 고가의 비용, 직경이 작은 부위의 관찰의 어려움 등의 문제점이 있었다. 따라서, 종래의 기계적 내시경 대체 또는 보완할 수 있도록 실제 영상의 3차원 재구성을 통한 내부항해가 가능하며, VR장치와 상호작용을 통한 연동이 이루어지는 가상 내시경 장치가 등장하였다. 하지만 종래의 가상 내시경 장치는 항해시 속도에 문제점이 있었으며, 또한 표면 렌더링에 의한 화질이 훼손되는 문제점이 있었다.When using a conventional mechanical endoscope, there are problems such as pain due to insertion, expensive cost, and difficulty in observing a small diameter part. Therefore, in order to replace or supplement the conventional mechanical endoscope, internal navigation is possible through three-dimensional reconstruction of an actual image, and a virtual endoscope device that interacts with a VR device has emerged. However, the conventional virtual endoscope has a problem in speed during navigation, and also has a problem that the image quality is impaired by surface rendering.
이에 대하여 '발명의 실시를 위한 구체적인 내용'의 후단에 기술한다.This will be described later in the Specification for Implementation of the Invention.
여기서는, 본 개시의 전체적인 요약(Summary)이 제공되며, 이것이 본 개시의 외연을 제한하는 것으로 이해되어서는 아니된다(This section provides a general summary of the disclosure and is not a comprehensive disclosure of its full scope or all of its features).SUMMARY OF THE INVENTION Herein, a general summary of the present disclosure is provided, which should not be construed as limiting the scope of the present disclosure. of its features).
본 개시에 따른 일 태양에 의하면(According to one aspect of the present disclosure), 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법에 있어서, 스테레오-엔도스코프 영상과 스테레오-엔도스코프 영상을 광학 정보를 결합하고, Depth-Map을 거쳐, 리컨스트럭티드 3D 영상을 만드는 단계; 그리고, CT 이미지(MPR), 가상 엔도스코프, Depth-Map를 거쳐, 정합 정확도를 향상시키는 단계;를 포함하는 것을 특징으로 하는 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법이 제공된다.According to one aspect of the present disclosure, in a method of improving matching accuracy using a stereo endoscope, a stereo-endoscope image and a stereo-endoscope image are combined with optical information, and Depth Creating a reconstructed 3D image via a map; And, through the CT image (MPR), virtual endoscope, Depth-Map, improving the matching accuracy; there is provided a matching accuracy improvement method using a stereo endoscope.
이에 대하여 '발명의 실시를 위한 구체적인 내용'의 후단에 기술한다.This will be described later in the Specification for Implementation of the Invention.
도 1은 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 일실시예를 나타내는 도면,
도 2는 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 다른 일실시예를 나타내는 도면,
도 3은 공간 분할의 예를 나타내는 도면,
도 4는 가상 내시경 항해의 실시예를 나타내는 도면,
도 5는 본 발명에서 적용한 충돌검출 방법의 실시예를 나타내는 도면,
도 6은 본 개시에 따른 가상 엔도스코프를 이용하여 3D 모델을 생성하는 방법의 일 예를 나타내는 도면,
도 7 및 도 8은 본 개시에 따른 가상 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면,
도 9는 본 개시에 따른 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면.1 is a view showing an embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention,
2 is a view showing another embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention,
3 is a diagram illustrating an example of spatial division;
4 illustrates an embodiment of a virtual endoscope navigation;
5 is a view showing an embodiment of a collision detection method applied in the present invention,
6 is a diagram illustrating an example of a method of generating a 3D model using a virtual endoscope according to the present disclosure;
7 and 8 are views illustrating an example of a matching accuracy improvement method using a virtual endoscope according to the present disclosure;
9 is a view showing an example of a matching accuracy improvement method using a stereo endoscope according to the present disclosure.
이하, 본 개시를 첨부된 도면을 참고로 하여 자세하게 설명한다(The present disclosure will now be described in detail with reference to the accompanying drawing(s)). The present disclosure will now be described in detail with reference to the accompanying drawing (s).
도 1은 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 일실시예를 도시한 것이다. MRI, CT, 초음파 등과 같이 단면 영상을 출력하는 장비로부터 출력되는 단면영상들을 취득(acqisition)한다(S110). 상기 취득된 단면영상을 보간(interpolation)과정과 분할(segmentation)과정을 통해 3D 볼륨 데이터를 만들기 전에 필요한 영상의 보간 등의 전처리과정을 거친다(S120). 여기서, 보간(interpolation)이란 영상의 해상도를 높이기 위해 연속되는 영상사이에 현재 시퀀스 영상의 이전과 이후의 차를 구하는 과정으로, 그 차분 영상을 보간한다. 분할(segmentation)은 3차원 볼륨을 생성하기 위해 관심부위 영상의 강도(intensity)에 해당되는 문턱치를 설정하고 문턱치 이상이 되는 값만을 필터링 하는 과정이다. 본 발명에서는 얻어진 3D 볼륨 데이터(S130)로부터 웹 인터페이스(Web interface:10)를 통한 관찰과 영상항해를 위해 VRML 포멧(20)으로 변환이 가능하도록 3D 볼륨 포맷변환이 가능하다. 그리고, 상기 3D 볼륨 데이터를 공간 분할한다(S140). 이러한 과정을 BPS(binary space partitioning)이라 한다. 이 과정이 필요한 이유는 3D 볼륨데이터를 실시간 상호작용 하기에는 너무 크기 때문이며(trachea의 경우 20만 폴리곤 이상의 폴리곤이 존재함), BPS과정은 3차원 polygonal mesh 데이터를 계층적으로 작게 나눈 후, 공간적으로 상관성이 있는 것끼리 계층적인 트리구조를 만드는 과정이다. BPS(binary space partitioning)과정은 다음과 같이 상세히 설명된다. 기본적인 trachea의 3차원 볼륨은 20여만개의 삼각형 매쉬로 구성되는데 각 꼭지점들을 3차원 공간상에서 vertex라 한다. 이러한 vertex들의 공간적인 좌표를 알 수 있으므로 계층적인 sub-tree로 그룹핑할 수 있다. 이때에 트리형태로 구조화가 잘되어 있어야 interaction부여시 각 부분들이 상호 연동되어 하나의 통일된 동작으로 연출하도록 한다. 공간분할 후 2차원 또는 3차원으로 그 내부의 항해가 가능하며(S150) 이때 실시간 항해를 위해 현재의 view point에 나타난 부분만을 렌더링이 된다(S160). 출력장치모듈(output device module:40)은 HMD 또는 모니터이고, 사용자가 영상항해를 위해 사용하는 입력장치(30)는 2D 마우스 또는 가상현실에서 사용하는 스페이스 볼 또는 3차원 마우스 등이 있다.1 illustrates an embodiment of a virtual endoscope diagnosis method using a 3D image processing method according to the present invention. Acquisition of the cross-sectional images output from the device for outputting the cross-sectional image, such as MRI, CT, ultrasound (S110). Before the 3D volume data is generated through interpolation and segmentation of the obtained cross-sectional image, a preprocessing process such as interpolation of necessary images is performed (S120). Here, interpolation is a process of obtaining a difference before and after the current sequence image between successive images in order to increase the resolution of the image, and interpolating the difference image. Segmentation is a process of setting a threshold corresponding to an intensity of an image of a region of interest and filtering only a value that is equal to or larger than a threshold to generate a 3D volume. In the present invention, it is possible to convert the 3D volume format so that the 3D volume data S130 can be converted into the
도 2는 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 다른 일실시예를 도시한 것이다. MRI, CT, 초음파 등과 같이 단면 영상을 출력하는 장비로부터 출력되는 단면영상들을 취득(acqisition)한다(S210). 상기 취득된 단면영상을 보간(interpolation)과정과 분할(segmentation)과정을 통해 3D 볼륨 데이터를 만들기 전에 필요한 영상의 보간 등의 전처리과정을 거친다(S220). 여기서, 보간(interpolation)이란 영상의 해상도를 높이기 위해 연속되는 영상사이에 현재 시퀀스 영상의 이전과 이후의 차를 구하는 과정으로, 그 차분 영상을 보간한다. 분할(segmentation)은 3차원 볼륨을 생성하기 위해 관심부위 영상의 강도(intensity)에 해당되는 문턱치를 설정하고 문턱치 이상이 되는 값만을 필터링하는 과정이다. 본 발명에서는 얻어진 3D 볼륨 데이터로부터 웹 인터페이스(Web interface:10)를 통한 관찰과 영상항해를 위해 VRML 포멧(20)으로 변환이 가능하도록 3D 볼륨 포맷변환이 가능하다. 상기 전처리 과정을 통해 출력된 영상을 볼륨렌더링을 통해 3차원 볼륨데이터를 생성한다(S230). 3차원 볼륨렌더링(3D volume rendering)은 MIP(maximum intensity projection) 또는 일반적 레이캐스팅 방법으로 3차원 볼륨 데이터를 만드는 방법을 의미한다. 그런데 상기 3차원 볼륨렌더링에 의한 볼륨데이터를 영상항해하려면 상호작용을 위한 공간좌표 데이터가 필요하므로 3차원 표면렌더링(3D surface rendering)을 하게 된다(S240). 상기 3차원 표면렌더링에 의한 3차원 볼륨데이터를 이용하여 항해할 경로를 생성하게 된다(S250). 영상항해 경로 발생(navigation path generation projection)를 위해 3차원표면렌더링으로부터 얻어진 폴리곤 볼륨데이터로부터 항해할 관(tube)의 모든 중심 직경을 수학적으로 계산할 수 있다. 수학적으로 계산된 항해 좌표를 3차원 볼륨 데이터에 적용하여 항해 경로의 중심을 따라서 항해하는 방법을 본 발명에서 적용하였다. 2차원 또는 3차원으로 그 내부의 항해가 가능하며(S260) 이때 실시간 항해를 위해 현재의 view point에 나타난 부분만을 렌더링이 된다(S270). 출력장치모듈(output device module:40)은 HMD 또는 모니터이고, 사용자가 영상항해를 위해 사용하는 입력장치(30)는 2D 마우스 또는 가상현실에서 사용하는 스페이스 볼 또는 3차원 마우스 등이 있다.Figure 2 shows another embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention. Acquisition of the cross-sectional images output from the device for outputting the cross-sectional image, such as MRI, CT, ultrasound (S210). The obtained cross-sectional image is subjected to a preprocessing process such as interpolation of the necessary image before generating 3D volume data through an interpolation process and a segmentation process (S220). Here, interpolation is a process of obtaining a difference before and after the current sequence image between successive images in order to increase the resolution of the image, and interpolating the difference image. Segmentation is a process of setting a threshold corresponding to an intensity of an image of a region of interest and filtering only a value that is equal to or larger than a threshold to generate a 3D volume. In the present invention, it is possible to convert the 3D volume format so that the 3D volume data can be converted into the
도 3은 공간 분할의 예를 도시한 것이다.3 shows an example of spatial division.
도 4는 가상 내시경 항해의 실시예를 도시한 것으로, 인체 기관지 적용의 예이다. 2D/3D 항해(navigation)시에 충돌검출 방법을 적용하였는데 이 방법은 가상내시경 영상항해를 할 때 관찰시점(viewing point)이 인체기관(organ) 내부를 빠져나가지 못하도록 하기 위한 방법이다. 4 illustrates an embodiment of a virtual endoscope navigation, which is an example of a human bronchial application. In 2D / 3D navigation, a collision detection method is applied. This method prevents the viewing point from escaping the organs during virtual endoscopic navigation.
도 5는 본 발명에서 적용한 충돌검출 방법의 실시예를 나타내고 있다. 가상 기관지 내시경의 가상카메라에서 반복적으로 광선을 발사(ray casting)시켜 기관의 내부표면 경계를 탐지하는 기법이다. 만약 탐지가 되면 벽으로 인지하여 탐지된 벽면 방향으로는 관찰시점이 통과될 수 없도록 처리한다. 이와 같은 충돌검출 방법에 의해 인체의 빈 장기(hollow organ)의 영상항해시에 기관의 외부로 이탈하지 않으면서 실제의 내시경처럼 진단이 가능하게 된다.5 shows an embodiment of a collision detection method applied in the present invention. It is a technique of detecting the inner surface boundary of the trachea by repeatedly casting a ray from a virtual camera of a virtual bronchoscope. If detected, it is recognized as a wall and the observation point cannot be passed in the direction of the detected wall. By such a collision detection method, it is possible to diagnose like an actual endoscope without escaping to the outside of the organ at the time of image navigation of the hollow organ of the human body.
도 6은 본 개시에 따른 가상 엔도스코프를 이용하여 3D 모델을 생성하는 방법의 일 예를 나타내는 도면으로서, Pituiary Gland, Sella Turcica, Sphenoid Sinus가 도시되어 있고, 3차원 영상 상에서, 이동을 통해, 가상 엔도스코핑을 행하고, 이들로부터 3D 모델을 형성하는 방법이 제시되어 있다.FIG. 6 is a diagram illustrating an example of a method for generating a 3D model using a virtual endoscope according to the present disclosure. FIG. 6 illustrates Pituiary Gland, Sella Turcica, and Sphenoid Sinus. A method of performing endoscoping and forming a 3D model from them is presented.
도 7 및 도 8은 본 개시에 따른 가상 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면으로서, 등록을 행한 후, 엔도스코프 영상을 캡쳐하고, 그레이 스케일 영상 에지 디텍트를 행하고, 에지 포인트를 추출하는 과정과, CT 영상 리컨스트럭션하고, 그레이 스케일 영상 2D 프로젝션을 행하고, 그레이 스케일 영상 에지 디특트를 행하고, 에지 포인트를 추출하는 과정을 통해, ICP Algorithm에 의한 포인트 매칭을 한다.7 and 8 are diagrams showing an example of a matching accuracy improvement method using a virtual endoscope according to the present disclosure. After registration, an endoscope image is captured, a gray scale image edge detection is performed, and an edge point is performed. The point matching by the ICP Algorithm is performed through the process of extracting the image, reconstructing the CT image, performing the gray scale image 2D projection, performing the gray scale image edge defeature, and extracting the edge point.
도 9는 본 개시에 따른 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법의 일 예를 나타내는 도면으로서, 스테레오-엔도스코프 영상과 스테레오-엔도스코프 영상을 광학 정보를 결합하고, Depth-Map을 거쳐, 리컨스트럭티드 3D 영상을 만든다. 한편에서, CT 이미지(MPR), 가상 엔도스코프, Depth-Map를 거쳐, 정합 정확도를 향상시킨다.9 is a diagram illustrating an example of a method of improving matching accuracy using a stereo endoscope according to the present disclosure, and combining optical information between a stereo-endoscope image and a stereo-endoscope image, and performing a depth-map to reconceive the image. Create a trucked 3D image. On the other hand, matching accuracy is improved through a CT image (MPR), a virtual endoscope, and a depth map.
S270: 렌더링S270: Render
Claims (1)
스테레오-엔도스코프 영상과 스테레오-엔도스코프 영상을 광학 정보를 결합하고, Depth-Map을 거쳐, 리컨스트럭티드 3D 영상을 만드는 단계; 그리고,
CT 이미지(MPR), 가상 엔도스코프, Depth-Map를 거쳐, 정합 정확도를 향상시키는 단계;를 포함하는 것을 특징으로 하는 스테레오 엔도스코프를 이용한 정합 정확도 향상 방법.
In the matching accuracy improvement method using a stereo endoscope,
Combining optical information into a stereo-endoscope image and a stereo-endoscope image, and passing a Depth-Map to create a reconstructed 3D image; And,
Improving matching accuracy through a CT image (MPR), a virtual endoscope, and a Depth-Map.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120034285A KR20130112130A (en) | 2012-04-03 | 2012-04-03 | Registration accuracy improvement method using stereo endoscope |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120034285A KR20130112130A (en) | 2012-04-03 | 2012-04-03 | Registration accuracy improvement method using stereo endoscope |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130112130A true KR20130112130A (en) | 2013-10-14 |
Family
ID=49633181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120034285A KR20130112130A (en) | 2012-04-03 | 2012-04-03 | Registration accuracy improvement method using stereo endoscope |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130112130A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210019816A (en) * | 2019-08-13 | 2021-02-23 | 주식회사 디오 | Method and apparatus for matching oral scan image and oral scan image |
-
2012
- 2012-04-03 KR KR1020120034285A patent/KR20130112130A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210019816A (en) * | 2019-08-13 | 2021-02-23 | 주식회사 디오 | Method and apparatus for matching oral scan image and oral scan image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100426396B1 (en) | Virtual reality endoscopy method using 3D image processing method | |
KR101199475B1 (en) | Method and apparatus for reconstruction 3 dimension model | |
JP6348078B2 (en) | Branch structure determination apparatus, operation method of branch structure determination apparatus, and branch structure determination program | |
JP4335817B2 (en) | Region of interest designation method, region of interest designation program, region of interest designation device | |
JP4299189B2 (en) | Ultrasonic diagnostic apparatus and image processing method | |
CN103356155B (en) | Virtual endoscope assisted cavity lesion examination system | |
JP4709177B2 (en) | Three-dimensional image processing apparatus and method, and program | |
US9563978B2 (en) | Image generation apparatus, method, and medium with image generation program recorded thereon | |
JP4588736B2 (en) | Image processing method, apparatus, and program | |
JP5415068B2 (en) | Visualization of cut surfaces of curved and elongated structures | |
JP2006055213A (en) | Image processor and program | |
JP4885042B2 (en) | Image processing method, apparatus, and program | |
JP4188900B2 (en) | Medical image processing program | |
CN103839285A (en) | Method and apparatus for displaying medical image | |
JP2009022343A (en) | Ultrasonic diagnostic system and image processing program | |
JP7071240B2 (en) | Inspection support equipment, methods and programs | |
JP6145870B2 (en) | Image display apparatus and method, and program | |
JP2020010735A (en) | Inspection support device, method, and program | |
JP5065740B2 (en) | Image processing method, apparatus, and program | |
CN108492299B (en) | Cutting method of three-dimensional image | |
KR20130112130A (en) | Registration accuracy improvement method using stereo endoscope | |
KR20130112127A (en) | 3d model generation method using virtual endoscope | |
KR20120110801A (en) | Registration speed improvement with virtual endoscope using stereo endoscope | |
KR20120110811A (en) | Accuracy improving method for neurosurgery navigation using virtual endoscope | |
KR20110100340A (en) | Method of registering a virtual endoscope with a real endoscope |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |