KR20110100340A - Method of registering a virtual endoscope with a real endoscope - Google Patents

Method of registering a virtual endoscope with a real endoscope Download PDF

Info

Publication number
KR20110100340A
KR20110100340A KR1020100019245A KR20100019245A KR20110100340A KR 20110100340 A KR20110100340 A KR 20110100340A KR 1020100019245 A KR1020100019245 A KR 1020100019245A KR 20100019245 A KR20100019245 A KR 20100019245A KR 20110100340 A KR20110100340 A KR 20110100340A
Authority
KR
South Korea
Prior art keywords
endoscope
image
gray scale
virtual
matching
Prior art date
Application number
KR1020100019245A
Other languages
Korean (ko)
Inventor
김철영
곽효승
Original Assignee
주식회사 사이버메드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 사이버메드 filed Critical 주식회사 사이버메드
Priority to KR1020100019245A priority Critical patent/KR20110100340A/en
Publication of KR20110100340A publication Critical patent/KR20110100340A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

본 발명은 가상 엔도스코프와 엔도스코프를 정합하는 방법에 있어서, 엔도스코프를 영상을 캡쳐하는 과정, 영상 그레이 스케일 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 일련의 프로세스와 CT 영상을 재구성하는 과정, 가상 엔도스코프 생성과 그레이 스케일 영상 2차원 프로젝션 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 다른 하나의 일련의 프로세스를 수행하는 단계; 그리고 ICP 알고리즘에 의한 포인트 매칭 단계;를 포함하는 것을 특징으로 하는 가상 엔도스코프와 엔도스코프를 정합하는 방법에 관한 것이다.According to the present invention, in a method of matching a virtual endoscope and an endoscope, a series of processes and CT including a process of capturing an image of an endoscope, an image gray scale process, a gray scale image edge detection process, and an edge point extraction process Performing another series of processes including reconstructing an image, generating a virtual endoscope and a gray scale image two-dimensional projection process, a gray scale image edge detecting process, and an edge point extraction process; And a point matching step by an ICP algorithm. The present invention relates to a method for matching a virtual endoscope and an endoscope.

Description

가상 엔도스코프와 엔도스코프를 정합하는 방법{Method of Registering a Virtual Endoscope with a Real Endoscope}Method of Registering a Virtual Endoscope with a Real Endoscope

본 발명은 가상 엔도스코프와 엔도스코프를 정합하는 방법에 관한 것이다.The present invention relates to a method of matching a virtual endoscope and an endoscope.

종래의 기계적 내시경 사용시 삽입에 따른 고통, 고가의 비용, 직경이 작은 부위의 관찰의 어려움 등의 문제점이 있었다.When using a conventional mechanical endoscope, there are problems such as pain due to insertion, expensive cost, and difficulty in observing a small diameter part.

따라서, 종래의 기계적 내시경 대체 또는 보완할 수 있도록 실제 영상의 3차원 재구성을 통한 내부항해가 가능하며, VR장치와 상호작용을 통한 연동이 이루어지는 가상 내시경 장치가 등장하였다.Therefore, in order to replace or supplement the conventional mechanical endoscope, internal navigation is possible through three-dimensional reconstruction of an actual image, and a virtual endoscope device that interacts with a VR device has emerged.

하지만 종래의 가상 내시경 장치는 항해시 속도에 문제점이 있었으며, 또한 표면 렌더링에 의한 화질이 훼손되는 문제점이 있었다.However, the conventional virtual endoscope has a problem in speed during navigation, and also has a problem that the image quality is impaired by surface rendering.

본 발명이 이루고자하는 기술적 과제는 항해속도의 개선을 위한 공간분할방법과 입체적 진단기술, 볼륨 렌더링과 표면 렌더링을 복합화하는 가상 엔도스코프와 엔도스코프를 정합하는 방법을 제공하는 것을 목적으로 한다.It is an object of the present invention to provide a method of matching a virtual endoscope and an endoscope that combines a spatial partitioning method for improving navigation speed, three-dimensional diagnostic technology, volume rendering, and surface rendering.

본 발명은 가상 엔도스코프와 엔도스코프를 정합하는 방법에 있어서, 엔도스코프를 영상을 캡쳐하는 과정, 영상 그레이 스케일 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 일련의 프로세스와 CT 영상을 재구성하는 과정, 가상 엔도스코프 생성과 그레이 스케일 영상 2차원 프로젝션 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 다른 하나의 일련의 프로세스를 수행하는 단계; 그리고 ICP 알고리즘에 의한 포인트 매칭 단계;를 포함하는 것을 특징으로 하는 가상 엔도스코프와 엔도스코프를 정합하는 방법을 제공한다.According to the present invention, in a method of matching a virtual endoscope and an endoscope, a series of processes and CT including a process of capturing an image of an endoscope, an image gray scale process, a gray scale image edge detection process, and an edge point extraction process Performing another series of processes including reconstructing an image, generating a virtual endoscope and a gray scale image two-dimensional projection process, a gray scale image edge detecting process, and an edge point extraction process; And it provides a method for matching the virtual endoscope and the endoscope comprising a; point matching step by the ICP algorithm.

본 발명에 의하면, 종래의 가상 내시경에서의 표면렌더링에 의한 화질의 훼손문제를 보완 할 수 있으며, 인체 장기의 내부를 항해속도를 향상시켰다.According to the present invention, it is possible to compensate for the problem of deterioration of image quality due to the surface rendering in the conventional virtual endoscope, and to improve the navigation speed inside the human organs.

도 1 및 도 2는 본 발명에 의한 가상 엔도스코프와 엔도스코프를 정합하는 방법의 일 예를 설명하는 도면이다.
도 3은 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 일실시예를 도시한 것이다.
도 4는 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 다른 일실시예를 도시한 것이다.
도 5는 공간 분할의 예를 도시한 것이다.
도 6은 가상 내시경 항해의 실시예를 도시한 것으로, 인체 기관지 적용의 예이다.
도 7은 본 발명에서 적용한 충돌검출 방법의 실시예를 나타내고 있다.
1 and 2 are diagrams illustrating an example of a method of matching a virtual endoscope and an endoscope according to the present invention.
Figure 3 shows an embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention.
Figure 4 shows another embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention.
5 shows an example of spatial division.
6 illustrates an embodiment of a virtual endoscope navigation, which is an example of a human bronchial application.
7 shows an embodiment of a collision detection method applied in the present invention.

이하 도면을 참조하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1 및 도 2는 본 발명에 의한 가상 엔도스코프와 엔도스코프를 정합하는 방법의 일 예를 설명하는 도면이다. 여기에, 가상 엔도스코프와 엔도스코프를 정합하는 방법에 있어서, 엔도스코프를 영상을 캡쳐하는 과정, 영상 그레이 스케일 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 일련의 프로세스와 CT 영상을 재구성하는 과정, 가상 엔도스코프 생성과 그레이 스케일 영상 2차원 프로젝션 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 다른 하나의 일련의 프로세스를 수행하는 단계; 그리고 ICP 알고리즘에 의한 포인트 매칭 단계;를 포함하는 것을 특징으로 하는 가상 엔도스코프와 엔도스코프를 정합하는 방법이 제시되어 있다.1 and 2 are diagrams illustrating an example of a method of matching a virtual endoscope and an endoscope according to the present invention. Here, in the method of matching the virtual endoscope and the endoscope, a series of processes and CT including a process of capturing an image of the endoscope, an image gray scale process, a gray scale image edge detection process, and an edge point extraction process Performing another series of processes including reconstructing an image, generating a virtual endoscope and a gray scale image two-dimensional projection process, a gray scale image edge detecting process, and an edge point extraction process; And a point matching step using an ICP algorithm.

도 3은 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 일실시예를 도시한 것이다.Figure 3 shows an embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention.

MRI, CT, 초음파 등과 같이 단면 영상을 출력하는 장비로부터 출력되는 단면영상들을 취득(acqisition)한다(S110). Acquisition of the cross-sectional images output from the device for outputting the cross-sectional image, such as MRI, CT, ultrasound (S110).

상기 취득된 단면영상을 보간(interpolation)과정과 분할(segmentation)과정을 통해 3D 볼륨 데이터를 만들기 전에 필요한 영상의 보간 등의 전처리과정을 거친다(S120).Before the 3D volume data is generated through interpolation and segmentation of the obtained cross-sectional image, a preprocessing process such as interpolation of necessary images is performed (S120).

여기서, 보간(interpolation)이란 영상의 해상도를 높이기 위해 연속되는 영상사이에 현재 시퀀스 영상의 이전과 이후의 차를 구하는 과정으로, 그 차분 영상을 보간한다.Here, interpolation is a process of obtaining a difference before and after the current sequence image between successive images in order to increase the resolution of the image, and interpolating the difference image.

분할(segmentation)은 3차원 볼륨을 생성하기 위해 관심부위 영상의 강도(intensity)에 해당되는 문턱치를 설정하고 문턱치 이상이 되는 값만을 필터링하는 과정이다.Segmentation is a process of setting a threshold corresponding to an intensity of an image of a region of interest and filtering only a value that is equal to or larger than a threshold to generate a 3D volume.

본 발명에서는 얻어진 3D 볼륨 데이터(S130)로부터 웹 인터페이스(Web interface:10)를 통한 관찰과 영상항해를 위해 VRML 포멧(20)으로 변환이 가능하도록 3D 볼륨 포맷변환이 가능하다.In the present invention, it is possible to convert the 3D volume format so that the 3D volume data S130 can be converted into the VRML format 20 for observation and image navigation through a web interface: 10.

그리고, 상기 3D 볼륨 데이터를 공간 분할한다(S140). 이러한 과정을 BPS(binary space partitioning)이라 한다. The 3D volume data is spatially partitioned (S140). This process is called binary space partitioning (BPS).

이 과정이 필요한 이유는 3D 볼륨데이터를 실시간 상호작용 하기에는 너무 크기 때문이며(trachea의 경우 20만 폴리곤 이상의 폴리곤이 존재함), BPS과정은 3차원 polygonal mesh 데이터를 계층적으로 작게 나눈 후, 공간적으로 상관성이 있는 것끼리 계층적인 트리구조를 만드는 과정이다.This is necessary because the 3D volume data is too large for real-time interaction (trachea has more than 200,000 polygons), and BPS process spatially correlates spatially small three-dimensional polygonal mesh data. This is the process of creating a hierarchical tree structure.

BPS(binary space partitioning)과정은 다음과 같이 상세히 설명된다.The binary space partitioning process is described in detail as follows.

기본적인 trachea의 3차원 볼륨은 20여만개의 삼각형 매쉬로 구성되는데 각 꼭지점들을 3차원 공간상에서 vertex라 한다. 이러한 vertex들의 공간적인 좌표를 알 수 있으므로 계층적인 sub-tree로 그룹핑할 수 있다. 이때에 트리형태로 구조화가 잘되어 있어야 interaction부여시 각 부분들이 상호 연동되어 하나의 통일된 동작으로 연출하도록 한다.The basic three-dimensional volume of trachea consists of about 200,000 triangular meshes. Each vertex is called a vertex in three-dimensional space. Since the spatial coordinates of these vertices are known, they can be grouped into a hierarchical sub-tree. At this time, the structure of tree should be well structured so that each part can be interworked to produce one unified motion.

공간분할 후 2차원 또는 3차원으로 그 내부의 항해가 가능하며(S150) 이때 실시간 항해를 위해 현재의 view point에 나타난 부분만을 렌더링이 된다(S160).It is possible to navigate in the interior in two or three dimensions after the spatial partitioning (S150) at this time only the portion shown in the current view point for real-time navigation is rendered (S160).

출력장치모듈(output device module:40)은 HMD 또는 모니터이고, 사용자가 영상항해를 위해 사용하는 입력장치(30)는 2D 마우스 또는 가상현실에서 사용하는 스페이스 볼 또는 3차원 마우스 등이 있다.The output device module 40 is an HMD or a monitor, and the input device 30 used by the user for image navigation includes a 2D mouse or a space ball or a 3D mouse used in virtual reality.

도 4는 본 발명에 의한 3차원 영상처리방법을 이용한 가상 내시경 진단 방법의 다른 일실시예를 도시한 것이다.Figure 4 shows another embodiment of a virtual endoscope diagnostic method using a three-dimensional image processing method according to the present invention.

MRI, CT, 초음파 등과 같이 단면 영상을 출력하는 장비로부터 출력되는 단면영상들을 취득(acqisition)한다(S210). Acquisition of the cross-sectional images output from the device for outputting the cross-sectional image, such as MRI, CT, ultrasound (S210).

상기 취득된 단면영상을 보간(interpolation)과정과 분할(segmentation)과정을 통해 3D 볼륨 데이터를 만들기 전에 필요한 영상의 보간 등의 전처리과정을 거친다(S220).The obtained cross-sectional image is subjected to a preprocessing process such as interpolation of the necessary image before generating 3D volume data through an interpolation process and a segmentation process (S220).

여기서, 보간(interpolation)이란 영상의 해상도를 높이기 위해 연속되는 영상사이에 현재 시퀀스 영상의 이전과 이후의 차를 구하는 과정으로, 그 차분 영상을 보간한다.Here, interpolation is a process of obtaining a difference before and after the current sequence image between successive images in order to increase the resolution of the image, and interpolating the difference image.

분할(segmentation)은 3차원 볼륨을 생성하기 위해 관심부위 영상의 강도(intensity)에 해당되는 문턱치를 설정하고 문턱치 이상이 되는 값만을 필터링하는 과정이다.Segmentation is a process of setting a threshold corresponding to an intensity of an image of a region of interest and filtering only a value that is equal to or larger than a threshold to generate a 3D volume.

본 발명에서는 얻어진 3D 볼륨 데이터로부터 웹 인터페이스(Web interface:10)를 통한 관찰과 영상항해를 위해 VRML 포멧(20)으로 변환이 가능하도록 3D 볼륨 포맷변환이 가능하다.In the present invention, it is possible to convert the 3D volume format so that the 3D volume data can be converted into the VRML format 20 for observation and image navigation through a web interface (10).

상기 전처리 과정을 통해 출력된 영상을 볼륨렌더링을 통해 3차원 볼륨데이터를 생성한다(S230).The 3D volume data is generated through volume rendering of the image output through the preprocessing process (S230).

3차원 볼륨렌더링(3D volume rendering)은 MIP(maximum intensity projection) 또는 일반적 레이캐스팅 방법으로 3차원 볼륨 데이터를 만드는 방법을 의미한다. 3D volume rendering refers to a method of generating 3D volume data by MIP (maximum intensity projection) or general raycasting.

그런데 상기 3차원 볼륨렌더링에 의한 볼륨데이터를 영상항해하려면 상호작용을 위한 공간좌표 데이터가 필요하므로 3차원 표면렌더링(3D surface rendering)을 하게 된다(S240).However, in order to visualize the volume data by the 3D volume rendering, spatial coordinate data for interaction is required, thereby performing 3D surface rendering (S240).

상기 3차원 표면렌더링에 의한 3차원 볼륨데이터를 이용하여 항해할 경로를 생성하게 된다(S250).A route to be navigated is generated using the 3D volume data by the 3D surface rendering (S250).

영상항해 경로 발생(navigation path generation projection)를 위해 3차원표면렌더링으로부터 얻어진 폴리곤 볼륨데이터로부터 항해할 관(tube)의 모든 중심 직경을 수학적으로 계산할 수 있다. 수학적으로 계산된 항해 좌표를 3차원 볼륨 데이터에 적용하여 항해 경로의 중심을 따라서 항해하는 방법을 본 발명에서 적용하였다.For the navigation path generation projection, all the center diameters of the tubes to be navigated can be mathematically calculated from the polygon volume data obtained from 3D surface rendering. The method of sailing along the center of the navigation route by applying mathematically calculated navigation coordinates to the three-dimensional volume data was applied in the present invention.

2차원 또는 3차원으로 그 내부의 항해가 가능하며(S260) 이때 실시간 항해를 위해 현재의 view point에 나타난 부분만을 렌더링이 된다(S270).Navigation in the interior is possible in two or three dimensions (S260). At this time, only the portion shown in the current view point is rendered for real-time navigation (S270).

출력장치모듈(output device module:40)은 HMD 또는 모니터이고, 사용자가 영상항해를 위해 사용하는 입력장치(30)는 2D 마우스 또는 가상현실에서 사용하는 스페이스 볼 또는 3차원 마우스 등이 있다.The output device module 40 is an HMD or a monitor, and the input device 30 used by the user for image navigation includes a 2D mouse or a space ball or a 3D mouse used in virtual reality.

도 5는 공간 분할의 예를 도시한 것이다.5 shows an example of spatial division.

도 6은 가상 내시경 항해의 실시예를 도시한 것으로, 인체 기관지 적용의 예이다. 6 illustrates an embodiment of a virtual endoscope navigation, which is an example of a human bronchial application.

2D/3D 항해(navigation)시에 충돌검출 방법을 적용하였는데 이 방법은 가상내시경 영상항해를 할 때 관찰시점(viewing point)이 인체기관(organ) 내부를 빠져나가지 못하도록 하기 위한 방법이다.In 2D / 3D navigation, a collision detection method is applied. This method prevents the viewing point from escaping the organs during virtual endoscopic navigation.

도 7은 본 발명에서 적용한 충돌검출 방법의 실시예를 나타내고 있다.7 shows an embodiment of a collision detection method applied in the present invention.

가상 기관지 내시경의 가상카메라에서 반복적으로 광선을 발사(ray casting)시켜 기관의 내부표면 경계를 탐지하는 기법이다. 만약 탐지가 되면 벽으로 인지하여 탐지된 벽면 방향으로는 관찰시점이 통과될 수 없도록 처리한다. 이와 같은 충돌검출 방법에 의해 인체의 빈 장기(hollow organ)의 영상항해시에 기관의 외부로 이탈하지 않으면서 실제의 내시경처럼 진단이 가능하게 된다. It is a technique of detecting the inner surface boundary of the trachea by repeatedly casting a ray from a virtual camera of a virtual bronchoscope. If detected, it is recognized as a wall and the observation point cannot be passed in the direction of the detected wall. By such a collision detection method, it is possible to diagnose like an actual endoscope without escaping to the outside of the organ at the time of image navigation of the hollow organ of the human body.

도면과 명세서는 단지 본 발명의 예시적인 것으로서, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.The drawings and specification are merely exemplary of the invention, which are used for the purpose of illustrating the invention only and are not intended to limit the scope of the invention as defined in the appended claims or claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

입력장치(30); 출력장치모듈(output device module:40)An input device 30; Output device module (40)

Claims (1)

가상 엔도스코프와 엔도스코프를 정합하는 방법에 있어서,
엔도스코프를 영상을 캡쳐하는 과정, 영상 그레이 스케일 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 일련의 프로세스와 CT 영상을 재구성하는 과정, 가상 엔도스코프 생성과 그레이 스케일 영상 2차원 프로젝션 과정, 그레이 스케일 영상 엣지 디텍딩 과정 및 엣지 포인트 추출 과정을 포함하는 다른 하나의 일련의 프로세스를 수행하는 단계; 그리고
ICP 알고리즘에 의한 포인트 매칭 단계;를 포함하는 것을 특징으로 하는 가상 엔도스코프와 엔도스코프를 정합하는 방법.
In the method of matching a virtual endoscope and an endoscope,
A series of processes including the process of capturing an image of an endoscope, image gray scale process, gray scale image edge detection process, and edge point extraction process, reconstructing CT image, virtual endoscope generation, and gray scale image 2D Performing another series of processes including a projection process, a gray scale image edge detection process, and an edge point extraction process; And
Point matching step according to the ICP algorithm; and a method for matching the virtual endoscope and the endoscope.
KR1020100019245A 2010-03-04 2010-03-04 Method of registering a virtual endoscope with a real endoscope KR20110100340A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100019245A KR20110100340A (en) 2010-03-04 2010-03-04 Method of registering a virtual endoscope with a real endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100019245A KR20110100340A (en) 2010-03-04 2010-03-04 Method of registering a virtual endoscope with a real endoscope

Publications (1)

Publication Number Publication Date
KR20110100340A true KR20110100340A (en) 2011-09-14

Family

ID=44952781

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100019245A KR20110100340A (en) 2010-03-04 2010-03-04 Method of registering a virtual endoscope with a real endoscope

Country Status (1)

Country Link
KR (1) KR20110100340A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019085760A1 (en) * 2017-11-01 2019-05-09 欧阳聪星 Image processing method and apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019085760A1 (en) * 2017-11-01 2019-05-09 欧阳聪星 Image processing method and apparatus
US11107188B2 (en) 2017-11-01 2021-08-31 Beijing Keeyoo Technologies Co., Ltd Image processing method and device

Similar Documents

Publication Publication Date Title
KR100426396B1 (en) Virtual reality endoscopy method using 3D image processing method
KR101199475B1 (en) Method and apparatus for reconstruction 3 dimension model
JP5651909B2 (en) Multi-view ray tracing with edge detection and shader reuse
CN104331918B (en) Based on earth's surface occlusion culling and accelerated method outside depth map real-time rendering room
JP5814838B2 (en) Image generating apparatus, method and program
JP2005334317A (en) Ultrasonic diagnostic equipment and image processing method
KR101271460B1 (en) Video restoration apparatus and its method
JP5160825B2 (en) Ultrasonic diagnostic apparatus and image processing program
JP4188900B2 (en) Medical image processing program
JP2008259697A (en) Image processing method and apparatus, and program
JP2013192741A (en) Medical image diagnosis support device and method and program
WO2018014324A1 (en) Method and device for synthesizing virtual viewpoints in real time
Kustra et al. Probabilistic view-based 3D curve skeleton computation on the GPU
KR20110100340A (en) Method of registering a virtual endoscope with a real endoscope
JP5065740B2 (en) Image processing method, apparatus, and program
KR20130112127A (en) 3d model generation method using virtual endoscope
KR20130112130A (en) Registration accuracy improvement method using stereo endoscope
KR20120110801A (en) Registration speed improvement with virtual endoscope using stereo endoscope
KR20120110811A (en) Accuracy improving method for neurosurgery navigation using virtual endoscope
KR20110100338A (en) Brain surgery navigation method using a virtual endoscope
KR20130112129A (en) Registration accuracy improvement method using virtual endoscope
JP3747388B2 (en) 3D image display method
JP4909137B2 (en) Volume data processing apparatus and method
CN111358492A (en) Four-dimensional contrast image generation method, device, equipment and storage medium
CN115035121B (en) VR-based X-ray lung image simulation generation system

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination