KR100743391B1 - An improved method for selecting level-of-details using viewpoint adjustment in stereoscopic terrain visualization - Google Patents

An improved method for selecting level-of-details using viewpoint adjustment in stereoscopic terrain visualization Download PDF

Info

Publication number
KR100743391B1
KR100743391B1 KR1020060116679A KR20060116679A KR100743391B1 KR 100743391 B1 KR100743391 B1 KR 100743391B1 KR 1020060116679 A KR1020060116679 A KR 1020060116679A KR 20060116679 A KR20060116679 A KR 20060116679A KR 100743391 B1 KR100743391 B1 KR 100743391B1
Authority
KR
South Korea
Prior art keywords
error
eyes
node
detail
calculating
Prior art date
Application number
KR1020060116679A
Other languages
Korean (ko)
Other versions
KR20060128803A (en
Inventor
신병석
장현덕
강동수
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020060116679A priority Critical patent/KR100743391B1/en
Publication of KR20060128803A publication Critical patent/KR20060128803A/en
Application granted granted Critical
Publication of KR100743391B1 publication Critical patent/KR100743391B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 사진트리를 이용한 입체 지형 시각화에서의 개선된 상세 레벨 선택 방법으로서, 보다 구체적으로는 양쪽 눈 각각에 대하여 시각-의존 오차를 2번 계산하던 기존의 방법 대신에 양쪽 눈의 중간점에서 시각-의존 오차를 한 번만 계산하고 계산된 오차를 이용하여 상세 레벨 선택을 수행함으로써 입체 지형 시각화의 렌더링 속도를 크게 증가시키는 개선된 상세 레벨 선택 방법에 관한 것이다. 본 발명은, 입체 지형 시각화에 있어서의 상세 레벨 선택 방법으로서, 고도 필드 데이터를 따라가면서 모든 리프 노드들에 대하여 양쪽 눈의 중간점에 대하여 시각-의존 기하 오차(view dependent geometric errors)를 계산하는 단계와, 모든 리프 노드들에 대하여 계산된 상기 오차를 자신의 부모 노드들로 전송하는 단계와, 전송된 상기 오차를 이용하여 각각의 노드에 정확도 레벨 결정 함수를 적용함으로써 현재 노드가 자식 노드를 가질 수 있는지 여부를 결정하고, 이에 의해 각각의 노드의 가시성을 결정하는 단계와, 결정된 정보를 이용하여 삼각형 메시를 생성하는 단계를 포함하는 것을 그 특징으로 한다.The present invention is an improved detail level selection method in three-dimensional terrain visualization using a photo tree, and more specifically, instead of the conventional method of calculating the time-dependent error twice for each of the two eyes, the eyes are viewed at the midpoint of both eyes. An improved detail level selection method which greatly increases the rendering speed of stereoscopic terrain visualization by calculating the dependency error only once and performing the detail level selection using the calculated error. The present invention is a method of detail level selection in three-dimensional terrain visualization, comprising: calculating view dependent geometric errors for midpoints of both eyes for all leaf nodes along altitude field data And transmitting the error calculated for all leaf nodes to its parent nodes, and applying an accuracy level determination function to each node using the transmitted error so that the current node can have child nodes. Determining whether there is, thereby determining the visibility of each node, and generating a triangle mesh using the determined information.

본 발명에 따르면, 양쪽 눈의 중간점에서 단일 뷰잉 사양을 이용하여 시각-의존 오차를 한 번만 계산하고 계산된 오차를 이용하여 상세 레벨 선택을 수행함으로써 하나의 폴리곤 메시만을 생성하기 때문에, 입체 지형 시각화의 렌더링 속도를 크게 향상시킬 수 있으며, 또한 기존의 상세 레벨 선택 방법에서 발생하였던 양쪽 눈에 대해 사용되는 폴리곤 메시의 불일치를 제거할 수 있다.According to the present invention, three-dimensional terrain visualization is generated because only one polygon mesh is generated by calculating the visual-dependent error only once using a single viewing specification at the midpoint of both eyes and performing the detail level selection using the calculated error. It can greatly improve the rendering speed of, and also eliminate the inconsistency of the polygon mesh used for both eyes, which occurred in the existing level of detail selection method.

사진트리, 입체 지형 시각화, 상세 레벨 선택(LOD), 시각-의존 오차, 양쪽 눈의 중간점, 렌더링 속도, 메시, 메시의 불일치, 시각 절두체 선별 Photo Tree, Stereoscopic Terrain Visualization, Level of Detail Selection (LOD), Visual-Dependent Error, Midpoint of Both Eyes, Render Speed, Mesh, Mesh Mismatch, Visual Frustum Screening

Description

입체 지형 시각화에 있어서 뷰포인트 조정을 이용한 개선된 상세 레벨 선택 방법{AN IMPROVED METHOD FOR SELECTING LEVEL-OF-DETAILS USING VIEWPOINT ADJUSTMENT IN STEREOSCOPIC TERRAIN VISUALIZATION}Improved Level of Detail Selection Using Viewpoint Adjustment in Stereo Terrain Visualization

도 1은 노드의 크기와 시청자와의 거리 사이의 관계를 설명하기 위한 도면.1 is a diagram for explaining a relationship between a size of a node and a distance from a viewer.

도 2는 근사 오차에 대한 상한(upper bound)을 계산하는 방법을 설명하기 위한 도면.2 is a diagram for explaining a method of calculating an upper bound for an approximation error.

도 3은 시각-의존 기하 오차를 계산하는 방법에 있어서, 기존의 방법과 본 발명에서 제안하는 방법을 비교하여 도시하는 도면.3 is a diagram illustrating a comparison between a conventional method and a method proposed by the present invention in a method of calculating a time-dependent geometric error.

도 4는 기존의 상세 레벨 선택 방법을 이용할 경우에 발생할 수 있는, 동일한 화면에 대하여 서로 다른 메시를 생성한 일례를 도시하는 도면.4 is a diagram illustrating an example in which different meshes are generated for the same screen, which may occur when using an existing detail level selection method.

도 5는 기존의 방법과 본 발명에서 제안하는 방법의 렌더링 시간을 비교하여 도시하는 도면.FIG. 5 is a diagram illustrating a comparison of rendering time between an existing method and a method proposed by the present invention. FIG.

도 6은 기존의 렌더링 방법 및 본 발명에서 제안하는 렌더링 방법에 의한 결과 영상을 비교하여 도시하는 도면.FIG. 6 is a diagram illustrating a comparison of a resultant image by a conventional rendering method and a rendering method proposed by the present invention. FIG.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

d : 노드의 크기d: the size of the node

l : 시청자와의 거리l: distance from viewer

dh1, dh2, dh3. dh4 : 노드의 4개의 에지에서 계산된 고도 차이dh 1 , dh 2 , dh 3 . dh 4 : Altitude difference computed at the four edges of the node

dh5, dh6 : 노드의 2개의 대각선을 따라 계산된 고도 차이dh 5 , dh 6 : computed altitude difference along two diagonals of the node

Pl : 왼쪽 눈의 위치P l : position of left eye

Pr : 오른쪽 눈의 위치P r : Right eye position

Pm : 양쪽 눈의 중간점의 위치P m : the position of the midpoint of both eyes

deyes : 양쪽 눈 사이의 거리d eyes : the distance between both eyes

ll : 왼쪽 눈으로부터 타깃 영역까지의 거리l l : distance from left eye to target area

lr : 오른쪽 눈으로부터 타깃 영역까지의 거리 r r : distance from the right eye to the target area

lm : 양쪽 눈의 중간점으로부터 타깃 영역까지의 거리l m : the distance from the midpoint of both eyes to the target area

본 발명은 사진트리(quadtree)를 이용한 입체 지형 시각화에서 개선된 상세 레벨 선택 방법으로서, 보다 구체적으로는 양쪽 눈 각각에 대하여 시각-의존 오차를 2번 계산하던 기존의 방법 대신에 양쪽 눈의 중간점에서 시각-의존 오차를 한 번만 계산하고 계산된 오차를 이용하여 상세 레벨 선택을 수행함으로써 입체 지형 시각화의 렌더링 속도를 크게 향상시키는 개선된 상세 레벨 선택 방법에 관한 것이 다.The present invention is an improved detail level selection method in three-dimensional terrain visualization using a quadtree, and more specifically, the midpoint of both eyes instead of the conventional method of calculating the time-dependent error twice for each eye. The present invention relates to an improved detail level selection method that greatly improves the rendering speed of stereoscopic terrain visualization by calculating the visual-dependent error only once and performing the detail level selection using the calculated error.

지형 시각화는 지리 정보 시스템(Geographic Information System; GIS), 컴퓨터 게임 및 비행 시뮬레이션과 같은 응용 프로그램에서 널리 사용되고 있다. 사진트리 기반의 연속 상세 단계(CLOD: Continuous Level-Of-Detail) 기법은 지형 데이터를 시각화하는 기법 중의 하나이다. 사진트리 자료 구조는 상세 단계 결정과 시각 절두체 선별을 하는데 있어서 빠른 처리가 가능하여, 고화질의 영상을 비교적 빠르게 생성할 수 있다. 이러한 지형 렌더링 시스템에 대한 입력 데이터인 고도 필드(height field)는 막대한 양의 샘플점을 가지기 때문에, 엄청나게 많은 양의 폴리곤(polygons)이 렌더링 동안 생성될 수 있다. 따라서 뷰잉 조건을 고려하여 폴리곤의 수를 줄이기 위한 다양한 방법들이 계층적 데이터 구조를 이용하여 제안되어 왔다.Terrain visualization is widely used in applications such as Geographic Information System (GIS), computer games and flight simulation. Photo-level continuous level-of-detail (CLOD) is one of the techniques for visualizing terrain data. The photo tree data structure enables fast processing in detail step determination and visual frustum screening, so that high quality images can be generated relatively quickly. Since the height field, the input data for this terrain rendering system, has a huge amount of sample points, an enormous amount of polygons can be generated during rendering. Therefore, various methods for reducing the number of polygons in consideration of viewing conditions have been proposed using hierarchical data structures.

한편, 스테레오스코피(stereoscopy)는 가상의 또는 실제 화면에 대한 몰입형 디스플레이를 위한 잘 알려진 시각화 방법이다. 입체감을 일으키는 여러 요인 중, 우리들의 눈이 가로 방향으로 약 65mm 떨어져서 존재하기 때문에 나타나게 되는 양안시차(binocular disparity)는 입체감의 가장 중요한 요인이라 할 수 있다. 즉, 양쪽의 눈은 각각 서로 다른 2차원 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면, 뇌는 이를 정확히 서로 융합하여 본래의 3차원 영상의 깊이감과 실제감을 재생하게 되는데, 이러한 능력을 스테레오스코피라 한다. 대부분의 가상현실 애플리케이션은 자신의 최종 출력으로서 입체 영상들을 생성한다. 이들은 우리가, 화면 내의 두 물체 간의 공간적 관계를 이해하고, 또한 비디오 또는 컴퓨터 생 성 애니메이션으로부터 뎁쓰 큐(depth cue)를 경험하는 것을 돕는다. 2차원상의 렌더링 기법을 3차원으로 적용할 수 있는 가장 쉬운 접근법인 무차별 대입 접근법(brute force approach)은 서로 다른 뷰잉 조건 하에서 화면을 2번 렌더링하는데, 이것은 적어도 2배의 렌더링 시간과 추가적인 저장 공간을 필요로 한다. 입체 시각화의 렌더링 시간을 줄이기 위해 몇 가지 최적화 방법들이 제안되어 왔다.Stereoscopy, on the other hand, is a well-known visualization method for immersive display of virtual or real screens. Among the factors that cause the three-dimensional effect, the binocular disparity that appears because our eyes are about 65mm apart in the horizontal direction is the most important factor of the three-dimensional effect. In other words, both eyes see different two-dimensional images, and when these two images are transmitted to the brain through the retina, the brain accurately fuses each other to reproduce the depth and reality of the original three-dimensional image. Is called stereoscopic. Most virtual reality applications generate stereoscopic images as their final output. They help us understand the spatial relationship between two objects in the scene and also experience a depth cue from video or computer generated animation. The brute force approach, the easiest approach to apply two-dimensional rendering techniques in three dimensions, renders the scene twice under different viewing conditions, which results in at least twice the rendering time and additional storage space. in need. Several optimization methods have been proposed to reduce the rendering time of stereoscopic visualization.

그러나, 기존에 제안되어 왔던 방법들은 그래픽스 하드웨어로 전송되어야 할 폴리곤들의 수를 줄이기는 하지만, 입체 애플리케이션에서 폴리곤의 집합을 2번 생성해야만 한다는 점에서는 모두 동일하였다. 즉, 한 번은 왼쪽 눈에 대하여 생성하고 나머지 한 번은 오른쪽 눈에 대하여 생성한다. 상세 레벨 선택 단계에서, 왼쪽 눈에 대한 폴리곤 메시는 오른쪽 눈에 대한 폴리곤 메시와 서로 다르기 때문에, 메시 데이터는 2번 전송되어야 했다. 따라서 입체 지형 렌더링을 위해서는 2차원의 지형 렌더링에 비해 훨씬 많은 시간이 필요하였다.However, while the proposed methods reduce the number of polygons to be transferred to the graphics hardware, they are all the same in that they have to create two sets of polygons in a stereoscopic application. One for the left eye and one for the right eye. In the level of detail selection, the mesh data had to be transmitted twice since the polygon mesh for the left eye was different from the polygon mesh for the right eye. Therefore, much more time was required to render three-dimensional terrain.

본 발명은 입체 지형 시각화에 있어서 상세 레벨 선택 단계를 근본적으로 개선할 수 있는 방법을 제안한 것으로서, 양쪽 눈 각각에 대하여 시각-의존 오차를 2번 계산하던 기존의 방법 대신에 양쪽 눈의 중간점에서 시각-의존 오차를 한 번만 계산하고 계산된 오차를 이용하여 상세 레벨 선택을 수행함으로써 입체 지형 시각화의 렌더링 속도를 크게 증가시키는 개선된 상세 레벨 선택 방법을 제공하는 것을 그 목적으로 한다.The present invention proposes a method that can fundamentally improve the level of detail selection in stereoscopic visualization, and instead of the conventional method of calculating the time-dependent error twice for each of the eyes, it is possible to visualize at the midpoint of both eyes. It is an object of the present invention to provide an improved detail level selection method that greatly increases the rendering speed of stereoscopic terrain visualization by calculating the dependency error only once and performing the detail level selection using the calculated error.

또한, 본 발명은, 상세 레벨 선택을 위해 수행되는 시각-의존 오차(view dependent error) 계산 단계에서 양쪽 눈의 중심점에서 단일 뷰잉 사양을 이용하여 하나의 폴리곤 메시만을 생성시킴으로써, 기존의 상세 레벨 선택 방법에서 발생하였던 양쪽 눈에 대해 사용되는 폴리곤 메시의 불일치를 제거할 수 있는 개선된 상세 레벨 선택 방법을 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention, by generating a single polygon mesh using a single viewing specification at the center of both eyes in the view dependent error calculation step performed for detail level selection, the existing detail level selection method It is a further object to provide an improved level of detail selection method that can eliminate inconsistencies in the polygon mesh used for both eyes which occurred in.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른, 입체 지형 시각화에 있어서의 상세 레벨 선택 방법은,According to a feature of the present invention for achieving the above object, a detailed level selection method in three-dimensional terrain visualization,

고도 필드데이터를 따라가면서 모든 리프 노드들에 대하여 양쪽 눈의 중간점에 대하여 시각-의존 기하 오차(view dependent geometric errors)를 계산하는 단계;Calculating view dependent geometric errors for the midpoints of both eyes for all leaf nodes following altitude field data;

모든 리프 노드들에 대하여 계산된 상기 오차를 자신의 부모 노드들로 전송하는 단계;Transmitting the error calculated for all leaf nodes to its parent nodes;

전송된 상기 오차를 이용하여 각각의 노드에 정확도 레벨 결정 함수를 적용함으로써 현재 노드가 자식 노드를 가질 수 있는지 여부를 결정하고, 이에 의해 각각의 노드의 가시성을 결정하는 단계; 및Determining whether the current node can have child nodes by applying an accuracy level determination function to each node using the error transmitted, thereby determining the visibility of each node; And

결정된 정보를 이용하여 삼각형 메시를 생성하는 단계Generating a triangular mesh using the determined information

를 포함하는 것을 그 특징으로 한다.It characterized by including the.

이하에서는 첨부된 도면들을 참조하여, 본 발명의 실시예에 대해 상세하게 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail an embodiment of the present invention.

먼저, 지형 렌더링을 위한 사진트리에 기초한 연속 상세 레벨 기법 및 그 기 법을 입체 지형 렌더링에 적용하는 방법을 간단하게 설명한다.First, the continuous detail level technique based on a photo tree for terrain rendering and a method of applying the technique to stereoscopic terrain rendering will be briefly described.

사진트리에 기초한 연속 상세 레벨 기법에서 렌더링 처리는 다음과 같은 단계들에 의해 수행된다. (1) 제1 단계에서는, 고도 필드 데이터를 따라가면서 모든 리프 노드들에 대하여 오차 메트릭을 반복적으로 계산한 후, 계산된 오차 메트릭을 리프 노드들의 부모 노드들에게 전달한다. (2) 제2 단계에서는, 제1 단계에서 계산된 오차 메트릭의 집합을 이용하여 각각의 노드에 정확도 레벨 결정 함수를 적용함으로써 현재 노드가 자식 노드를 가질 수 있는지 여부를 결정한다. (3) 제3 단계에서는, 고도 필드 데이터로부터 생성된 사진트리를 반복적으로 따라가면서 삼각형 메시를 생성한 후, 생성된 삼각형의 수를 줄이기 위해 시각 절두체 선별을 수행한다. (4) 마지막 제4 단계에서는, 삼각형 메시를 렌더링한다.In the continuous detail level technique based on the photo tree, the rendering process is performed by the following steps. (1) In the first step, the error metric is repeatedly calculated for all leaf nodes while following the altitude field data, and then the calculated error metric is transmitted to the parent nodes of the leaf nodes. (2) In the second step, it is determined whether the current node can have child nodes by applying an accuracy level determination function to each node using the set of error metrics calculated in the first step. (3) In the third step, after generating the triangle mesh while repeatedly following the photo tree generated from the altitude field data, visual frustum screening is performed to reduce the number of generated triangles. (4) In the final fourth step, render the triangle mesh.

세분(subdivision)이 리프 노드들에서 요구되는지 여부를 결정하는 제2 단계의 과정에서, 시청자와 지형상의 특정 지점 간의 거리가 고려되어야 한다. 즉, 사진트리에서 노드의 크기는 시청자와 지형상의 특정 지점 간의 거리가 증가함에 따라 증가되어야 한다. 도 1은 노드의 크기와 시청자와의 거리 사이의 관계를 설명하기 위한 도면이다. 도 1에서 사진트리의 각각의 노드의 크기는 d로서 표시되어 있고, 시청자와의 거리는 l로서 표시되어 있다. C를 영상에 대한 최소 희망 해상도(minimal desired resolution)라고 하면, l/d < C를 만족하는 거리에 관하여 노드의 크기를 제어할 수 있다. 삼각형의 수는 C의 값에 의해 결정되는데, 예컨대 C에 큰 값이 설정될 경우에는 각각의 노드가 보다 작은 노드들로 다시 분할될 수 있기 때문에 보다 많은 수의 삼각형이 생성될 것이다.In the course of the second step of determining whether subdivision is required at the leaf nodes, the distance between the viewer and a particular point on the terrain should be taken into account. That is, the size of the node in the photo tree should increase as the distance between the viewer and a specific point on the terrain increases. 1 is a view for explaining the relationship between the size of a node and the distance to the viewer. In FIG. 1, the size of each node of the picture tree is indicated by d, and the distance to the viewer is indicated by l. If C is the minimum desired resolution for the image, then the size of the node can be controlled with respect to the distance satisfying l / d < The number of triangles is determined by the value of C. For example, if a large value is set for C, a larger number of triangles will be generated since each node can be subdivided into smaller nodes.

다른 기준으로, 높은 표면 거칠기를 갖는 영역에 대해 해상도의 증가가 요구된다. 계층을 한 레벨 떨어뜨릴 경우, 정확히 5개의 지점에서 새로운 오차가 생성된다. 여기서, 5개의 지점은, 사진트리 노드의 1개의 중심점 및 각각의 에지들 사이의 4개의 중점들이다. 노드들의 4개의 에지와 2개의 대각선을 따라 계산된 고도 차이에 대한 절대값의 최대치를 채택함으로써, 근사 오차에 대한 상한(upper bound)이 주어질 수 있다. 도 2는 이를 설명하기 위한 도면이다. 도 2에서 4개의 에지에서 계산된 고도 차이는 각각 dh1, dh2, dh3. dh4로 표시되며, 2개의 대각선을 따라 계산된 고도 차이는 dh5, dh6로 표시되는데, 이들 6개의 값에 대하여 절대값의 최대치를 계산함으로써 해당 노드의 근사 오차에 대한 상한을 구할 수 있다. 고도 차이들에 대한 절대값의 최대치를 d2라고 정의하면, d2는 다음 수학식 1과 같이 계산될 수 있다.As another criterion, an increase in resolution is required for areas with high surface roughness. If you drop the hierarchy one level, new errors are created at exactly five points. Here, five points are one center point of the picture tree node and four midpoints between respective edges. By adopting the maximum of the absolute value for the altitude difference computed along the four edges and the two diagonals of the nodes, an upper bound to the approximation error can be given. 2 is a diagram for explaining this. The altitude differences calculated at the four edges in FIG. 2 are dh 1 , dh 2 , dh 3 , respectively. The difference in altitude calculated along the two diagonal lines is represented by dh 4 and dh 5 , dh 6. The upper limit of the approximate error of the node can be obtained by calculating the maximum of the absolute values for these six values. . If the maximum value of absolute values for altitude differences is defined as d 2 , d 2 may be calculated as in Equation 1 below.

Figure 112006086300300-pat00001
Figure 112006086300300-pat00001

세분을 할지 여부를 결정하는 세분 기준이, 앞서 계산된 표면 거칠기를 처리하기 위한 d2 값을 포함하는 형태로서, 선택 변수 f의 식으로 다음 수학식 2와 같이 수정되어 주어질 수 있다.The subdivision criterion for determining whether to subdivide is a form including a d 2 value for processing the surface roughness calculated above, and may be modified by Equation 2 as an expression of the selection variable f.

Figure 112006086300300-pat00002
Figure 112006086300300-pat00002

여기서, 새롭게 도입된 상수 c는 희망 전역 해상도를 특정하는 것으로서, 프레임마다 렌더링 되어야 할 폴리곤의 수에 직접 영향을 미친다.Here, the newly introduced constant c specifies the desired global resolution, which directly affects the number of polygons to be rendered per frame.

다음으로, 상술한 연속 상세 레벨 기법을 입체 렌더링에 적용하는 방법에 대하여 살펴보기로 한다. 가장 손쉽게 생각할 수 있는 무차별 대입 접근법(brute force approach)에 의해 연속 상세 레벨 기법을 입체 렌더링에 적용해 보면, 상세 레벨 선택 단계가 2번 수행되게 된다. 즉, 왼쪽(오른쪽) 눈의 뷰잉 사양에 대해 첫 번째 상세 레벨 선택이 수행되며, 반대쪽 눈에 대해 두 번째 상세 레벨 선택이 수행된다. 상세 레벨 선택은, 각각의 노드에 대해 기하 오차 값을 계산하고 이를 자신의 부모 노드들로 반복적으로 전달하여야 하기 때문에 전체 지형 시각화 프로시저에서 가장 많은 시간을 소비하는 단계로 알려져 있다.Next, a method of applying the aforementioned continuous detail level technique to stereoscopic rendering will be described. When applying the continuous detail level technique to stereoscopic rendering by the brute force approach that is the easiest to think of, the detail level selection step is performed twice. That is, the first detail level selection is performed for the viewing specification of the left (right) eye, and the second detail level selection is performed for the opposite eye. Level of detail selection is known to be the most time consuming step in the overall terrain visualization procedure because it has to calculate the geometric error value for each node and pass it over to its parent nodes repeatedly.

본 발명에서 제안하는 방법에서는, 양쪽 눈 각각에 대해 한 번씩 상세 레벨 선택을 2번 수행하던 기존의 방법과 달리, 상세 레벨 선택을 한 번만 수행하게 된다. 이하에서, 도 3을 참조하여 본 발명에서 제안하는 상세 레벨 선택 방법에 대해 상세하게 설명하기로 한다.In the method proposed by the present invention, unlike the conventional method of performing the detail level selection twice for each eye once, the detail level selection is performed only once. Hereinafter, a detailed level selection method proposed by the present invention will be described in detail with reference to FIG. 3.

도 3은 시각-의존 기하 오차를 계산하는 방법에 있어서, 기존의 방법과 본 발명에서 제안하는 방법을 비교하여 도시하고 있다. 도 3(a)은 시각-의존 기하 오차를 계산하는 기존의 방법으로서, 왼쪽 눈의 위치(Pl)와 오른쪽 눈의 위치(Pr)라는 서로 다른 2가지 뷰잉 조건 하에서 각각 시각-의존 기하 오차를 계산하고 있다. 이에 반하여, 도 3(b)은 본 발명에서 제안하는 방법으로서, 양쪽 눈의 중간점(Pm)에서 한 번만 시각-의존 기하 오차를 계산하고 있다. 도 3에서 도시하고 있는 바와 같이, 왼쪽 눈으로부터 타깃 영역까지의 거리를 ll, 오른쪽 눈으로부터 타깃 영역까지의 거리를 lr이라고 할 때, 2개의 거리 ll과 lr이 정확히 동일하지 않더라도, 양쪽 눈 사이의 거리 deyes가 작기 때문에 2개의 값 사이의 차이 또한 작다. 따라서 시각-의존 기하 오차를 양쪽 눈 위치 Pl과 Pr의 중간점인 Pm에서 한 번만 계산하는 본 발명에서 제안하는 방법이 타당성이 있게 된다. 도 3에 도시된 벡터 V l, V r을 사용하여 벡터 V m을 나타내면 다음 수학식 3과 같다.FIG. 3 illustrates a comparison of a conventional method and a method proposed by the present invention in a method of calculating a time-dependent geometric error. 3 (a) is a conventional method of calculating the time-dependent geometric error, each of which is visual-dependent geometric error under two different viewing conditions of the position of the left eye (P l ) and the position of the right eye (P r ). Is being calculated. In contrast, FIG. 3 (b) is a method proposed by the present invention and calculates the time-dependent geometric error only once at the midpoint P m of both eyes. As shown in FIG. 3, when the distance from the left eye to the target area is l l , and the distance from the right eye to the target area is l r , even if the two distances l l and l r are not exactly the same, Since the distance d eyes between both eyes is small, the difference between the two values is also small. Therefore, time-The method proposed by the present invention for calculating a one-time-dependent geometrical errors in both eyes position P l to an intermediate point P m P a r becomes feasible. When the vector V m is represented using the vectors V l and V r shown in FIG. 3, Equation 3 is obtained.

Figure 112007047127798-pat00003

여기서, V l, V r, V m은 각각 왼쪽 눈으로부터 타깃 영역까지의 벡터, 오른쪽 눈으로부터 타깃 영역까지의 벡터, 양쪽 눈의 중간점으로부터 타깃 영역까지의 벡터를 나타낸다.
Figure 112007047127798-pat00003

Here, V l , V r , V m represent a vector from the left eye to the target area, a vector from the right eye to the target area, and a vector from the midpoint to the target area of both eyes.

사진트리에 기초한 방법은, 상술한 바와 같이, 시각-의존 기하 오차를 계산하고, 각각의 노드의 가시성을 결정한 후, 결정된 정보를 이용하여 삼각형 메시를 생성한다. 양쪽 눈은 서로 다른 뷰잉 조건을 가지고 있기 때문에, 결과 폴리곤 메시는 동일하지 않을 수 있다. 도 4는 기존의 상세 레벨 선택 방법을 이용할 경우에 발생할 수 있는, 동일한 화면에 대하여 서로 다른 메시를 생성한 일례를 도시한 다. 도 4(a)와 도 4(b)는 각각 동일한 화면에 대하여 왼쪽 눈에 대한 결과 메시 및 오른쪽 눈에 대한 결과 메시로서, 붉게 표시된 사각형 영역이 양쪽 눈에 대하여 서로 다른 기하 해상도로서 표시된 부분이다. 도 4에서 알 수 있는 바와 같이, 기존의 상세 레벨 선택 방법에 의하면 동일한 물체가 각각의 눈에 대하여 서로 다른 기하 해상도로서 표현될 수 있는데, 이것은 입체 영상에 대해 시각적인 결함(visual artifacts)을 발생시키며, 그 결과 시청자는 몰입형의 화면을 경험하기 어렵게 된다.The picture tree based method calculates the time-dependent geometric error, determines the visibility of each node, and then generates a triangular mesh using the determined information. Since both eyes have different viewing conditions, the resulting polygon mesh may not be the same. 4 illustrates an example in which different meshes are generated for the same screen, which may occur when using an existing detail level selection method. 4 (a) and 4 (b) show a result mesh for the left eye and a result mesh for the right eye, respectively, for the same screen, in which a rectangular area shown in red is displayed as different geometric resolutions for both eyes. As can be seen in FIG. 4, according to the existing level of detail selection method, the same object can be represented with different geometric resolutions for each eye, which generates visual artifacts for stereoscopic images. As a result, it becomes difficult for the viewer to experience an immersive screen.

본 발명에서 제안하는 방법은 이 문제에 대해 해결책을 제공한다. 즉, 시각-의존 오차 계산 단계에서 양쪽 눈의 중심점에서 단일 뷰잉 사양을 이용하여 하나의 폴리곤 메시만을 생성하기 때문에, 양쪽 눈에 대해 생성되는 폴리곤 메시의 불일치를 제거할 수 있다. 또한, 메시 데이터가 단지 한 번만 GPU로 전달되기 때문에 전체 렌더링 시간도 크게 줄일 수 있다.The method proposed in the present invention provides a solution to this problem. In other words, since only one polygon mesh is generated using a single viewing specification at the center point of both eyes in the visual-dependent error calculation step, the inconsistency of the polygon mesh generated for both eyes can be eliminated. In addition, the mesh data is only sent once to the GPU, which greatly reduces the overall rendering time.

이렇게 결과 메시가 생성되고 나면, 생성된 삼각형의 수를 줄이기 위해 시각 절두체 선별 단계가 수행되며, 마지막으로, 삼각형 메시를 렌더링하게 된다. 시각 절두체 선별 단계에서도 상세 레벨 선택 단계에서처럼 기존의 방법과 달리 시각 절두체 선별 작업을 한 번만 수행하는 개선된 시각 절두체 선별 방법이 본 발명에서 제안하는 개선된 상세 레벨 선택 방법과 함께 사용될 수 있다. 이에 대해서는 본 출원과 동일자로 제출되는 별도의 출원을 참조하면 된다.After the resulting mesh is generated, the visual frustum screening step is performed to reduce the number of triangles generated, and finally, the triangle mesh is rendered. In the visual frustum screening step, as in the detail level selection step, an improved visual frustum screening method that performs the visual frustum screening operation only once, unlike the conventional method, can be used with the improved detail level selection method proposed by the present invention. For this, reference may be made to a separate application filed on the same date as the present application.

[실험 결과][Experiment result]

기존의 방법과 본 발명에서 제안하는 방법이 듀얼 인텔 펜티엄 XeonTM 3.0 GHz CPU와 2GB 메인 메모리를 사용하여 구현되었다. 그래픽스 가속기는 128MB 비디오 메모리를 가진 NVIDIA GeForceTM 6600GT였으며, PCI Express*4 BUS 상에 설치되었다. 실험에 사용한 샘플 데이터는, 해상도가 256 x 256인 Puget 고도 필드 데이터와, Grand Canyon 고도 필드 데이터이다. 뷰포트 크기는 512 x 512이다.The existing method and the method proposed in the present invention are implemented using a dual Intel Pentium Xeon 3.0 GHz CPU and 2GB main memory. The graphics accelerator was an NVIDIA GeForce TM 6600GT with 128MB video memory and was installed on a PCI Express * 4 BUS. The sample data used for the experiment is Puget altitude field data with a resolution of 256 x 256 and Grand Canyon altitude field data. The viewport size is 512 x 512.

도 5는 기존의 방법과 본 발명에서 제안하는 방법의 렌더링 시간을 비교하여 도시하고 있다. 도 5(a)는 Puget 고도 필드 데이터에 대하여 서로 다른 3가지 뷰잉 조건 view 1, view 2 및 view 3에 대하여 실험한 결과이고, 도 5(b)는 Grand Canyon 고도 필드 데이터에 대하여 서로 다른 3가지 뷰잉 조건 view 1, view 2 및 view 3에 대하여 실험한 결과이다. 도 5에서 알 수 있는 바와 같이, 본 발명에서 제안하는 방법이 기존의 방법보다 약 2배 더 빠르다. 이것은 본 발명에서 제안하는 방법이 상세 레벨 선택 및 시각 절두체 선별을 단지 한 번만 수행하며 이들 2가지 단계가 렌더링에 대한 대부분의 시간을 소모하기 때문에 발생하는 결과로 해석할 수 있다.5 shows a comparison of the rendering time between the conventional method and the method proposed by the present invention. FIG. 5 (a) shows the results of experiments on three different viewing conditions view 1, view 2, and view 3 for the Puget altitude field data, and FIG. 5 (b) shows three different types for the Grand Canyon altitude field data. Results of experiments on viewing conditions view 1, view 2, and view 3. As can be seen in Figure 5, the method proposed in the present invention is about 2 times faster than the conventional method. This can be interpreted as the result of the method proposed in the present invention because it performs the detail level selection and the visual frustum screening only once and these two steps consume most of the time for rendering.

도 6은 기존의 렌더링 방법과 본 발명에서 제안하는 렌더링 방법에 의한 결과 영상을 비교하여 도시하고 있다. 도 6에서 위쪽의 도면들은 기존의 렌더링 방법에 의해 생성된 결과 영상이며, 아래쪽의 도면들은 본 발명에서 제안하는 렌더링 방법에 의해 생성된 결과 영상으로서, 위쪽 및 아래쪽 각각에서 좌측의 영상들은 왼쪽 눈에 대한 결과 영상이고, 우측의 영상들은 오른쪽 눈에 대한 결과 영상이다. 도 6을 통하여, 기존의 방법에 따라 양쪽 눈 위치에서 평가된 기하 오차를 이용하여 상세 레벨 선택 작업을 수행하는 경우와, 본 발명에서 제안하는 방법에 따라 양쪽 눈의 중간점 위치에서 계산된 기하 오차를 이용하여 상세 레벨 선택 작업을 수행하는 경우에 있어서 그 결과 영상은 거의 차이가 없음을 확인할 수 있다.FIG. 6 shows a comparison of the resultant image by the conventional rendering method and the rendering method proposed by the present invention. In FIG. 6, the upper drawings are the resultant images generated by the conventional rendering method, and the lower drawings are the resultant images generated by the rendering method proposed by the present invention. Result images, and the images on the right are the result images of the right eye. 6, the detailed level selection operation is performed using the geometric error evaluated at both eye positions according to the conventional method, and the geometric error calculated at the midpoint position of both eyes according to the method proposed by the present invention. In the case of performing the detailed level selection by using the result, it can be seen that there is almost no difference in the image.

도 5 및 도 6을 참조할 경우, 본 발명에서 제안하는 방법이 기존의 방법과 비교할 때 영상 품질의 저하 없이 전체 렌더링 시간을 현저하게 감소시킴을 분명하게 확인할 수 있다.Referring to FIGS. 5 and 6, it can be clearly seen that the method proposed in the present invention significantly reduces the total rendering time without degrading the image quality compared to the conventional method.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above may be variously modified or applied by those skilled in the art, and the scope of the technical idea according to the present invention should be defined by the following claims.

본 발명에 따르면, 양쪽 눈 각각에 대하여 시각-의존 오차를 2번 계산하던 기존의 방법 대신에 양쪽 눈의 중간점에서 시각-의존 오차를 한 번만 계산하고 계산된 오차를 이용하여 상세 레벨 선택을 수행함으로써, 입체 지형 시각화의 렌더링 속도를 크게 향상시킬 수 있다. 또한, 본 발명은, 상세 레벨 선택을 위해 수행되는 시각-의존 오차 계산 단계에서 양쪽 눈의 중심점에서 단일 뷰잉 사양을 이용하여 하나의 폴리곤 메시만을 생성시킴으로써, 기존의 상세 레벨 선택 방법에서 발생하였던 양쪽 눈에 대해 사용되는 폴리곤 메시의 불일치를 제거할 수 있다. 본 발명에서 제안하고 있는 개선된 상세 레벨 선택 방법은 임의의 종류의 입체 애플리케이션에 적용될 수 있다.According to the present invention, instead of the conventional method of calculating the time-dependent error twice for each of the two eyes, the time-dependent error is calculated only once at the midpoint of both eyes and the detailed level selection is performed using the calculated error. By doing so, the rendering speed of the stereoscopic terrain visualization can be greatly improved. In addition, the present invention, by generating a single polygon mesh using a single viewing specification at the center point of both eyes in the step of calculating the time-dependent error performed for detail level selection, both eyes that occurred in the conventional level of detail selection method This can eliminate inconsistencies in the polygon mesh used for. The improved level of detail selection method proposed in the present invention can be applied to any kind of stereoscopic applications.

Claims (2)

입체 지형 시각화에 있어서의 상세 레벨 선택 방법으로서,As a detail level selection method in three-dimensional terrain visualization, 고도 필드데이터를 따라가면서 모든 리프 노드들에 대하여 양쪽 눈의 중간점에 대하여 시각-의존 기하 오차(view dependent geometric errors)를 계산하는 단계 - 여기서, 시각-의존 기하 오차는, 시각에 의존하여 발생하는, 실물과 실물을 모델링한 모델과의 오차를 의미함 - ;Computing view dependent geometric errors with respect to the midpoints of both eyes for all leaf nodes following altitude field data, where the view-dependent geometric errors occur in dependence on time of day. -Means error between real and real modeled model; 모든 리프 노드들에 대하여 계산된 상기 오차를 자신의 부모 노드들로 전송하는 단계;Transmitting the error calculated for all leaf nodes to its parent nodes; 전송된 상기 오차를 이용하여 각각의 노드에 정확도 레벨 결정 함수를 적용함으로써 현재 노드가 자식 노드를 가질 수 있는지 여부를 결정하고, 이에 의해 각각의 노드의 가시성을 결정하는 단계; 및Determining whether the current node can have child nodes by applying an accuracy level determination function to each node using the error transmitted, thereby determining the visibility of each node; And 결정된 정보를 이용하여 삼각형 메시를 생성하는 단계Generating a triangular mesh using the determined information 를 포함하는 방법.How to include. 제1항에 있어서,The method of claim 1, 왼쪽 눈으로부터 타깃 영역으로의 벡터를 V l, 오른쪽 눈으로부터 타깃 영역으로의 벡터를 V r, 양쪽 눈의 중간점으로부터 타깃 영역으로의 벡터를 V m이라고 할 때,When the vector from the left eye to the target area is V l , the vector from the right eye to the target area is V r , and the vector from the midpoint of the both eyes to the target area is V m , 양쪽 눈의 중간점에 대하여 시각-의존 기하 오차를 계산하는 상기 단계는,The step of calculating the time-dependent geometric error with respect to the midpoint of both eyes,
Figure 112006086300300-pat00004
Figure 112006086300300-pat00004
에 의해 벡터 V m을 구한 후, 이를 이용하여 시각-의존 기하 오차를 계산하는 방법.A vector V m is obtained and then the time-dependent geometric error is calculated using the vector V m .
KR1020060116679A 2006-11-24 2006-11-24 An improved method for selecting level-of-details using viewpoint adjustment in stereoscopic terrain visualization KR100743391B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060116679A KR100743391B1 (en) 2006-11-24 2006-11-24 An improved method for selecting level-of-details using viewpoint adjustment in stereoscopic terrain visualization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060116679A KR100743391B1 (en) 2006-11-24 2006-11-24 An improved method for selecting level-of-details using viewpoint adjustment in stereoscopic terrain visualization

Publications (2)

Publication Number Publication Date
KR20060128803A KR20060128803A (en) 2006-12-14
KR100743391B1 true KR100743391B1 (en) 2007-07-27

Family

ID=37731298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060116679A KR100743391B1 (en) 2006-11-24 2006-11-24 An improved method for selecting level-of-details using viewpoint adjustment in stereoscopic terrain visualization

Country Status (1)

Country Link
KR (1) KR100743391B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100726031B1 (en) * 2007-05-02 2007-06-08 인하대학교 산학협력단 A terrain rendering method using a cube mesh structure
KR100956416B1 (en) * 2008-07-30 2010-05-06 (주) 우대칼스 3 dimensional geographical information client apparatus, server apparatus and 3 dimensional geographical information system having the same
KR100935886B1 (en) * 2009-06-19 2010-01-07 인하대학교 산학협력단 A method for terrain rendering based on a quadtree using graphics processing unit
KR100959349B1 (en) * 2009-06-19 2010-05-20 인하대학교 산학협력단 A method for accelerating terrain rendering based on quadtree using graphics processing unit

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Fast view-dependent level-of-detail rendering using cached geometry", Proceedings of the conference on Visualization 2002, Pages:259-266

Also Published As

Publication number Publication date
KR20060128803A (en) 2006-12-14

Similar Documents

Publication Publication Date Title
KR101697184B1 (en) Apparatus and Method for generating mesh, and apparatus and method for processing image
JP4214976B2 (en) Pseudo-stereoscopic image creation apparatus, pseudo-stereoscopic image creation method, and pseudo-stereoscopic image display system
JP5421264B2 (en) Improvement of rendering method of 3D display
KR101334187B1 (en) Apparatus and method for rendering
US10924727B2 (en) High-performance light field display simulator
JP2004502249A (en) System and method for depth map median value fusion
JP2008090617A (en) Device, method and program for creating three-dimensional image
CN112560137A (en) Multi-model fusion method and system based on smart city
KR20110090958A (en) Generation of occlusion data for image properties
JPH06130881A (en) Formation of hologram information
US10726614B2 (en) Methods and systems for changing virtual models with elevation information from real world image processing
CN109920043B (en) Stereoscopic rendering of virtual 3D objects
KR100743391B1 (en) An improved method for selecting level-of-details using viewpoint adjustment in stereoscopic terrain visualization
JP2007249965A (en) Rendering device and method for point base
JP5413263B2 (en) Image generation method
KR100743232B1 (en) An improved method for culling view frustum in stereoscopic terrain visualization
KR20170046434A (en) Image processing method and image processing apparatus
KR102091860B1 (en) Method and apparatus for image encoding
KR101208767B1 (en) Stereoscopic image generation method, device and system using circular projection and recording medium for the same
JP4688316B2 (en) Simulation apparatus and simulation method, and video generation apparatus and video generation method
Li et al. A fast fusion method for multi-videos with three-dimensional GIS scenes
KR101228118B1 (en) Method for constructing a Kd-tree based on polygon importance
Mora et al. Visualization and computer graphics on isotropically emissive volumetric displays
CN117197319B (en) Image generation method, device, electronic equipment and storage medium
Argudo et al. Interactive inspection of complex multi-object industrial assemblies

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130527

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140612

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee