KR20050047322A - Method for selecting characteristic view point of the 3d model - Google Patents

Method for selecting characteristic view point of the 3d model Download PDF

Info

Publication number
KR20050047322A
KR20050047322A KR1020030081134A KR20030081134A KR20050047322A KR 20050047322 A KR20050047322 A KR 20050047322A KR 1020030081134 A KR1020030081134 A KR 1020030081134A KR 20030081134 A KR20030081134 A KR 20030081134A KR 20050047322 A KR20050047322 A KR 20050047322A
Authority
KR
South Korea
Prior art keywords
visibility
viewpoint
dimensional object
dimensional
viewpoints
Prior art date
Application number
KR1020030081134A
Other languages
Korean (ko)
Other versions
KR100572256B1 (en
Inventor
윤세혁
윤일동
이상욱
Original Assignee
대한민국(서울대학교 총장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(서울대학교 총장) filed Critical 대한민국(서울대학교 총장)
Priority to KR1020030081134A priority Critical patent/KR100572256B1/en
Publication of KR20050047322A publication Critical patent/KR20050047322A/en
Application granted granted Critical
Publication of KR100572256B1 publication Critical patent/KR100572256B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 물체의 저장, 인식 또는 검색을 보다 효율적이고 빠르게 실행할 수 있는 다중의 특징 시점을 선택하는 방법에 관한 것으로서, 특히 본 발명의 방법은 2차원 영상으로부터 3차원 물체의 모델에 대한 특징 시점을 구하는 방법에 있어서, 3차원 물체의 정보를 입력받는 단계와, 3차원 물체의 정보로부터 여러 시점에서 2차원으로 투사한 2차원 영상의 시점을 샘플링하는 단계와, 샘플링된 시점들에서 각 시점에 대한 가시성을 구하는 단계와, 샘플링된 각 시점들에 대한 3차원 물체의 각 부분들의 가시성 공간값을 구하는 단계와, 가시성 공간의 두 점 사이의 거리로 상이성을 구하는 단계와, 모든 가시성중에서 최대값을 가진 시점을 최적의 시점으로 선택하는 단계와, 최적의 시점에서 n(n>1)개까지 가장 상이성이 큰 시점을 차례로 선택해서 다중 시점을 선택하는 단계를 포함한다.The present invention relates to a method for selecting multiple feature viewpoints that can more efficiently and quickly perform storage, recognition or retrieval of a three-dimensional object. In particular, the method of the present invention is characterized by a model of a three-dimensional object from a two-dimensional image. A method of obtaining a viewpoint, comprising: receiving information of a three-dimensional object, sampling a viewpoint of a two-dimensional image projected in two dimensions from several viewpoints from the information of the three-dimensional object, and each viewpoint from the sampled viewpoints Obtaining the visibility for, obtaining the visibility space of each part of the three-dimensional object for each sampled point of view, obtaining the difference by the distance between two points in the visibility space, and the maximum of all visibility Selecting a viewpoint having a value as an optimal viewpoint, and then selecting n (n> 1) most significant viewpoints in that order. And a step for selecting a point in time.

Description

3차원 물체의 특징 시점 선택 방법{METHOD FOR SELECTING CHARACTERISTIC VIEW POINT OF THE 3D MODEL}How to select a feature point of a three-dimensional object {METHOD FOR SELECTING CHARACTERISTIC VIEW POINT OF THE 3D MODEL}

본 발명은 3차원 물체의 특징 시점을 선택하는 방법에 관한 것으로서, 특히 3차원 물체를 여러 개의 2차원 영상으로 나타낼 때 3차원 물체의 특징을 가장 잘 나타낼 수 있는 3차원 물체의 특징 시점 선택 방법에 관한 것이다.The present invention relates to a method of selecting a feature viewpoint of a three-dimensional object, and more particularly, to a method of selecting a feature viewpoint of a three-dimensional object that can best represent the characteristics of the three-dimensional object when the three-dimensional object is represented by a plurality of two-dimensional images. It is about.

3차원 입체영상 기술은 첨단의 고도화 기술로서 정보통신, 방송, 의료, 교육 훈련, 군사, 게임, 애니메이션, 가상현실, CAD, 산업기술 등 그 응용 분야가 매우 다양하며 여러 분야에 공통적으로 요구되는 차세대 3차원 입체 멀티미디어 정보통신의 핵심 기반기술이라 할 수 있다.3D stereoscopic image technology is a high-tech advanced technology, and its application fields such as information and communication, broadcasting, medical, education and training, military, game, animation, virtual reality, CAD, industrial technology are very diverse and are commonly required in various fields. It is the core technology of 3D stereoscopic multimedia communication.

이러한 3차원 입체영상을 구현하기 위하여 3차원 물체의 특징을 2차원 영상에서 얼마나 잘 나타낼 수 있느냐가 중요하다. 3차원 물체의 특징을 가장 잘 나타내기 위해서는 3차원 물체를 어느 시점에서 보는가와 3차원 물체를 대표할 수 있는 특징 시점을 선택하는 것이 중요한 문제로 떠오르고 있다. 하지만 아직까지 3차원 물체의 특징 시점을 2차원 영상에서 선택하는 표준 방법이 없는 실정이다. 다만 기존에는 3차원 물체의 영상과 2차원 영상의 유사성을 이용하여 국소적인 최소 점을 대표적인 특징 시점으로 선택하여 그룹화하거나, 계산 기하학의 측면에서 수직투상(orthographic projection)과 투시투상(perspective projection)에서 정규성, 단순성, 최소 교차성, 단조성을 기준으로 최적의 특징 시점을 계산하는 연구가 있었을 뿐이다.In order to realize such a 3D stereoscopic image, it is important how well a feature of a 3D object can be represented in a 2D image. In order to best represent the characteristics of a three-dimensional object, it is emerging as an important problem to select at which point in time the three-dimensional object is viewed and to select a characteristic viewpoint that can represent the three-dimensional object. However, there is no standard method for selecting a feature viewpoint of a 3D object in a 2D image. However, conventionally, the local minimum points are selected as representative feature viewpoints and grouped by using the similarity between the 3D image and the 2D image, or in the perspective of computational geometry in orthographic projection and perspective projection. There has been only a study that calculates optimal feature points based on normality, simplicity, minimum crossness, and monotonicity.

본 발명의 목적은 3차원 모델의 여러 개로 분할하여 시점 샘플링을 구하고 각 시점 샘플에 대한 가시성(visibility)을 구하고 여러 개의 시점에서 본 영상이 주어졌을 때 각 영상이 다른 영상과 얼마나 다른지에 대한 상이성(dissimilarity)을 구한 후에 최적의 다중 시점을 선택함으로써 3차원 물체에 대한 최적의 특징 시점을 구할 수 있는 3차원 물체의 특징 시점 선택 방법을 제공하는데 있다.An object of the present invention is to obtain a viewpoint sampling by dividing into three parts of a three-dimensional model, to obtain the visibility of each viewpoint sample, and the difference of how different each image is from other images when given images from several viewpoints The present invention provides a method of selecting a feature viewpoint of a 3D object that can obtain an optimal feature view of a 3D object by selecting an optimal multiple viewpoint after obtaining (dissimilarity).

상기 목적을 달성하기 위하여 본 발명은 2차원 영상으로부터 3차원 물체의 모델에 대한 특징 시점을 구하는 방법에 있어서, 3차원 물체의 정보를 입력받는 단계와, 3차원 물체의 정보로부터 여러 시점에서 2차원으로 투사한 2차원 영상의 시점을 샘플링하는 단계와, 샘플링된 시점들에서 각 시점에 대한 가시성을 구하는 단계와, 샘플링된 각 시점들에 대한 3차원 물체의 각 부분들의 가시성 공간값을 구하는 단계와, 가시성 공간의 두 점 사이의 거리로 상이성을 구하는 단계와, 모든 가시성중에서 최대값을 가진 시점을 최적의 시점으로 선택하는 단계와, 최적의 시점에서 n(n>1)개까지 가장 상이성이 큰 시점을 차례로 선택해서 다중 시점을 선택하는 단계를 포함한다.In order to achieve the above object, the present invention provides a method for obtaining a feature viewpoint for a model of a three-dimensional object from a two-dimensional image, the method comprising receiving information of the three-dimensional object, and two-dimensional at various views from the information of the three-dimensional object. Sampling the viewpoint of the projected two-dimensional image, obtaining visibility of each viewpoint from the sampled viewpoints, and obtaining the visibility spatial values of each part of the three-dimensional object for each of the sampled viewpoints; Determining the difference between the two points in the visibility space, selecting the point of view with the highest value among all the visibility, and the most dissimilarity up to n (n> 1) points Selecting multiple viewpoints by sequentially selecting the large viewpoints.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대해 설명하고자 한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 3차원 물체의 특징 시점 선택 방법을 나타낸 도면으로서, 이를 참조하면 본 발명의 방법은 다음과 같다.1 is a view showing a feature viewpoint selection method of a three-dimensional object according to the present invention, with reference to this method is as follows.

우선 3차원 모델의 정보를 입력받는다.(S10) 이를 위하여 3차원 모델인 물체를 2차원 영상 평면을 변환하고자 삼각 메쉬(Trianlgular meshes) 기법을 이용한다. 이에 3차원 모델 정보로서 n(n>1)개의 꼭지점 위치 정보와 꼭지점 연결 정보 및 소속 정보가 입력된다. 이러한 3차원 모델의 입력 정보를 통해서 여러 개의 시점들에서 2차원으로 투사한 2차원 영상 평면을 얻을 수 있다.First, information of a 3D model is input. (S10) For this, a triangular meshes method is used to convert a 2D image plane of an object that is a 3D model. As the three-dimensional model information, n (n> 1) vertex position information, vertex connection information, and belonging information are input. Through the input information of the 3D model, a 2D image plane projected in 2D from several viewpoints may be obtained.

3차원 물체를 바라보는 여러 개의 시점들에 의해 2차원으로 투사된 각 2차원 영상 평면을 균일하게 시점 샘플링한다.(S20) 만약 시점 샘플링 기법중에서 다면체의 꼭지점에서 3차원 물체를 바라보는 시점을 선택하는 다면체 샘플링 기법을 이용할 경우 먼저 시점 샘플링 개수에 따라 그에 알맞은 다면체 모델을 선택하여 샘플링한다. 정 8면체의 경우 기본적으로 8개의 시점이 선택되며 정 20면체의 경우 20개의 시점이 선택이 된다. 또한 정 8면체와 정 20면체의 면의 중심에서 샘플링을 하면 그 다면체와 쌍대 관계인 정 6면체와 정 12면체의 꼭지점에서 샘플링한 경우와 동일하게 된다. 또한 기본적인 도형의 면을 분할하는 방법으로 샘플링하는 시점의 개수를 4배씩 증가시키게 된다. 따라서 정 6면체, 8면체, 12면체 20면체 등의 다면체 모델에서 시점을 샘플링할 수 있는 개수는 표 1과 같다.Viewing a two-dimensional image plane projected in two dimensions by a plurality of viewpoints looking at a three-dimensional object uniformly sampled (S20) If the viewpoint sampling technique, selecting the viewpoint looking at the three-dimensional object from the vertex of the polyhedron. In the case of using the polyhedral sampling technique, first, a polyhedral model is selected according to the number of viewpoint samplings. In the case of an octahedron, eight viewpoints are selected by default. In the case of an octahedron, 20 viewpoints are selected. In addition, sampling at the center of the face of the octahedron and the octahedron is identical to the case of sampling at the vertices of the tetrahedron and the dodecahedron which are dual with the polyhedron. In addition, the number of sampling points is increased by four times by dividing the plane of the basic figure. Therefore, the number of samples that can be sampled in a polyhedron model such as a tetrahedron, an octahedron, or a dodecahedron, and a tetrahedron is shown in Table 1.

6면체 Hexahedron 8면체Octahedron 12면체Dodecahedron 20면체Icosahedron 꼭지점vertex 88 66 2020 1212 if 66 88 1212 2020 꼭지점+면Vertex + face 1414 1414 3232 3232 1분할1 split 2424 3232 4848 8080 2분할2 split 9696 128128 192192 320320

한편 2차원 영상 평면을 가지고 3차원 물체를 가장 잘 나타낼 수 있다고 판단하는 기준은 바로 그 시점(즉 최적의 시점)에서 3차원 물체의 모든 부분들이 얼마나 잘 나타나 있는 가이다. 그러므로 본 발명은 3차원 물체를 바라보는 시점의 중요성을 판단하기 위하여 3차원 모델이 여러 개의 시점 샘플로 분할된 각 2차원 영상 평면을 바라보는 시점의 가시성을 계산한다.(S30)On the other hand, the criterion that the 3D object can be best represented by the 2D image plane is how well all the parts of the 3D object appear at the right time (that is, the optimal view). Therefore, the present invention calculates the visibility of the viewpoint when the three-dimensional model looks at each two-dimensional image plane divided into a plurality of viewpoint samples in order to determine the importance of the viewpoint to the three-dimensional object.

예를 들어 k개의 부분을 가지고 있는 3차원 물체를 시점 j에서 바라보았을 때 부분 k가 다른 부분들에 가려져 실제로 보이게 되는 넓이를 라고 하고, 부분 k가 다른 부분들에 의해 가려지지 않고 실제 보이는 넓이를 라고 하면 부분 k의 가시성()에 대한 다음 수학식 1과 같이 정의할 수 있다.For example, when viewing a three-dimensional object with k parts from view j, the area where part k is covered by other parts and is actually visible Where area k is not covered by other parts, Speaking of the visibility of part k ( ) Can be defined as in Equation 1 below.

수학식 1에서 시점 j에서 부분 k의 가시성()은 의 최대값(max)으로 나눈 값이다. 이에 따라 3차원 물체의 부분 k가 실제보일 때 즉 가려지지 않고 많이 보일수록 시점 j에서의 가시성()은 1에 가까워진다. 가려짐이 많거나 모서리 등이 보여 3차원 물체의 부분 k 크기가 작게 보일 경우 시점 j에서의 가시성()은 0에 가까워진다.The visibility of the portion k at time point j in equation (1) )silver To This is divided by the maximum value of max. Thus, when part k of the three-dimensional object is actually visible, that is, more visible without being obscured, the visibility at view point j ( ) Approaches 1 Visibility at view j when there are many occlusions or edges, etc. ) Approaches zero.

한편 전체적인 가시성()은 모든 부분 k의 가시성의 가중치(ωk) 평균으로 생각할 수 있다. 여기서 가중치(ωk)는 부분 k의 부피 Vk에 따라 수학식 2와 같이 비선형 값으로 구하고 수학식 3과 같이 정규화(normalization)시키게 된다.On the other hand, overall visibility ( ) Can be thought of as the weight (ω k ) mean of all parts k. Here, the weight ω k is obtained as a nonlinear value as shown in Equation 2 according to the volume V k of the portion k and normalized as shown in Equation 3.

수학식 2와 3을 이용하면 시점 j에서의 3차원 물체에 대한 전체적인 가시성()은 다음의 수학식 4와 같다.Using Equations 2 and 3, the overall visibility of the three-dimensional object at ) Is as shown in Equation 4 below.

이와 같이 3차원 물체의 가시성을 구한 다음, 물체를 바라보는 각각의 시점 j들에 대한 각 부분들의 가시성 공간값(Xi)을 정의한다.(S40)In this way, the visibility of the three-dimensional object is obtained, and then the visibility space values X i of the respective parts for the respective view points j looking at the object are defined.

이때 Rn은 시점 j에서 바라본 3차원 물체의 각 부분들의 가시성 값을 나타낸다. 여기서 Rn은 0<Rn<1의 범위를 갖기 때문에 각 부분의 가시성 Rn을 m(m>1) 차원 다중 입방체(hyper cube)의 점 좌표로 나타낸다. 그러므로 3차원 물체를 바라보는 시점들 j에 대한 각 부분의 가시성 공간값인 Xi는 m차원의 다중 입방체의 한 점이 되는 Rn을 집합 좌표로 매핑하여 구한다.In this case, R n represents a visibility value of each part of the 3D object viewed from the viewpoint j. Since R n has a range of 0 <R n <1, the visibility R n of each part is expressed as point coordinates of a m (m> 1) dimensional hyper cube. Therefore, X i , the visibility space value of each part of the viewpoints j looking at the 3D object, is obtained by mapping R n , which is a point of the multicubic m-dimensional cube, to the set coordinates.

그리고 3차원 물체의 가시성과 함께 각 시점에서 바라본 2차원 영상 평면이 서로 중복되지 않도록 3차원 물체의 각 부분에 대한 상이성을 계산한다.(S50) 상이성은 두 개의 시점이 얼마나 다른지에 관하여 정의한 기준이다. 예를 들어, 첫 번째 시점에서 3차원 물체의 어떠한 부분이 많이 보이는 반면에, 두 번째 시점에서는 그 부분이 거의 보이지 않는다면 이는 매우 상이성이 높다고 할 수 있다. 즉 한 시점에서 확실히 보이는 부분은 다른 시점에서는 보일 필요가 없기 때문에 다른 부분에서는 보이지 않을수록 상이성이 높게 된다. 또한 첫 번째 시점에서 3차원 물체의 잘 보이는 부분이 두 번째 시점에서도 잘 보이거나 첫 번째 시점에서 잘 보이지 않는 부분이 두 번째 시점에서 역시 잘 안 보이는 경우는 상이성이 매우 낮으므로 두 시점을 같이 선택하지 않는 것이 바람직하다.In addition, the difference between each part of the 3D object is calculated so that the 2D image planes viewed from each viewpoint do not overlap with the visibility of the 3D object (S50). to be. For example, if a certain part of the three-dimensional object is seen at the first point of view, while the part is hardly visible at the second point of view, it is very different. In other words, the part that is clearly visible at one point does not need to be visible at another point, so that the difference is higher as it is not visible at another point. In addition, if the visible part of the 3D object is easily seen at the second time point or the invisible part at the first time point is also difficult to see at the second time point, the two points of view are selected together. It is desirable not to.

그러므로 본 발명은 각 시점에서 바라본 3차원 물체의 각 부분에 대한 가시성 공간(Xi, Xj)을 이용하여 다음 수학식 6과 같이 상이성(di,j)을 구한다.Therefore, the present invention obtains the difference (d i, j ) as shown in Equation 6 by using the visibility space (X i , X j ) for each part of the three-dimensional object viewed from each viewpoint.

즉 두 시점 i, j 사이의 상이성(di,j)은 가시성 공간의 두 점 사이의 거리로 계산할 수 있다.That is the reason (d i, j) between two points in time i, j can be calculated as a distance between two points of the visibility area.

이에 따라 di,j의 크기가 작을수록 두 시점에서 바라본 3차원 물체의 부분의 가시성이 비슷하므로 두 시점 i, j가 유사하다고 할 수 있다. 이에 반하여 di,j의 크기가 클수록 두 시점에서 바라본 3차원 물체의 부분 가시성이 차이가 있으므로 두 시점 i, j가 서로 상이하다고 할 수 있다.Accordingly , as the size of d i, j is smaller, the visibility of the portion of the three-dimensional object viewed from the two viewpoints is similar, so the two viewpoints i and j are similar. On the contrary , since the larger the size of d i, j is , the partial visibility of the three-dimensional object viewed from the two viewpoints is different, the two viewpoints i and j are different from each other.

한편 3차원 물체에 대한 간단한 소개나 아이콘을 만들 경우 주어진 3차원 물체의 모델을 1개의 최적 시점에서 보는 것이 이상적이다. 그러므로 3차원 물체를 가장 잘 나타내는 기준은 바로 그 시점에서 볼 수 있는 영상에서 3차원 물체의 부분들이 얼마나 많이 보이게 할 수 있는 최적의 시점을 찾아내는 것이다.On the other hand, when creating a brief introduction or icon for a three-dimensional object, it is ideal to see a model of a given three-dimensional object from one optimal point of view. Therefore, the best criterion for representing a three-dimensional object is to find an optimal time point to show how many parts of the three-dimensional object are visible in the image that can be seen at that point in time.

이에 본 발명에서는 수학식 4의 시점 j에 대한 가시성()으로부터 최적의 시점()을 구한다.(S60) 이를 위하여 수학식 7과 같이 모든 가시성값들 중에서 최대값()을 가진 시점(Vj)을 최적의 시점()으로 선택한다.(S60)Accordingly, in the present invention, visibility (time j of the equation 4) From the best point in time ( (S60) To this end, the maximum value of all visibility values ( ) With the optimal time (V j ) (S60).

최적의 시점을 선택한 다음, 본 발명은 다중 시점()들을 선택한다.(S70) 이때 다중 시점 선택이란 3차원 물체의 특징을 정해진 여러 개의 2차원 영상을 통하여 나타내는 것으로서 3차원 물체의 자료들을 검색 또는 인식하는데 있어서 보다 적은 용량으로도 빠르게 검색할 수 있다.After selecting the optimal time point, the present invention provides multiple time In this case, multi-view selection refers to a feature of a 3D object through a plurality of 2D images, which can be quickly searched with a smaller capacity in searching or recognizing data of the 3D object. .

이에 본 발명은 다중 시점의 개수 n(n>1)을 정하고 최적의 시점()에서 시작하여 가장 상이성이 큰 시점을 차례로 선택해서 다음 수학식 8과 같이 n개의 다중 시점()들 ()을 구한다.(S70) 본 발명에서는 이러한 다중 시점의 선택시 3차원 물체의 가시성과 함께 각 시점에서 바라본 2차원 영상 평면이 서로 중복되지 않도록 상이성도 고려하고 있다.Accordingly, the present invention determines the number n (n> 1) of the multiple views and the optimal view ( ), Then select the most disparate viewpoints in turn, and then select n multiple viewpoints ( ) (S70) The present invention also considers the difference between the two-dimensional image plane viewed from each viewpoint with the visibility of the three-dimensional object when selecting the multiple viewpoints.

여기서 i는 범위이며 으로 초기값을 가지게 된다. 는 전 단계에 찾은 시점들()로부터 새로운 시점까지의 거리의 합으로서 이 값이 가장 큰 시점을 이번 단계의 다중 시점 로 정의한다.Where i is Range Will have an initial value. Is the time points found in the previous step ( Is the sum of the distances from the It is defined as

따라서 본 발명은 최적의 시점에서 가장 상이성이 큰 시점들을 선택하기 때문에 3차원 물체의 모델의 특징이 가장 잘 나타나는 n개의 다중 시점()들 ()을 구한다.Therefore, since the present invention selects the viewpoints having the most dissimilarity at the optimum viewpoint, n multiple viewpoints (where the characteristics of the model of the three-dimensional object are best represented ) )

도 2는 다양한 3차원 물체의 모델들에서 최적의 시점을 나타낸 도면이다. 도 2를 참조하면, 본 발명에 따른 3차원 물체의 특징 시점 선택 방법에 의해 다양한 3차원 물체의 모델(예컨대 곤충, 비행기, 사람 등)을 최적의 시점에서 2차원 영상 평면으로 나타냈을 때 3차원 물체의 특징이 가장 잘 표시된다.2 is a diagram illustrating an optimal viewpoint in models of various three-dimensional objects. Referring to FIG. 2, when a model of various three-dimensional objects (eg, an insect, an airplane, a person, etc.) is represented as a two-dimensional image plane at an optimal point of view by the method of selecting a feature viewpoint of a three-dimensional object according to the present invention, The characteristics of the object are best displayed.

도 3은 본 발명에 따른 다양한 3차원 물체의 모델들의 다중 시점을 나타낸 도면이다. 도 3을 참조하면, 본 발명에 따른 3차원 물체의 특징 시점 선택 방법에 의해 사람, 비행기 등 3차원 물체의 다중 시점에서의 바라본 2차원 영상 평면도 달라짐을 알 수 있다. 3 is a diagram illustrating multiple views of models of various three-dimensional objects according to the present invention. Referring to FIG. 3, it can be seen that the plan view of a two-dimensional image viewed from multiple viewpoints of a three-dimensional object such as a person or an airplane is changed by the method of selecting a feature viewpoint of the three-dimensional object according to the present invention.

이상 설명한 바와 같이, 본 발명은 3차원 모델을 여러 개로 분할하여 시점 샘플링을 구하고 각 시점 샘플에 대한 가시성을 구하고 여러 개의 시점에서 본 영상이 주어졌을 때 각 영상이 다른 영상과 얼마나 다른지에 대한 상이성을 구하고 가시성이 제일 큰 값을 최적의 특징 시점으로 구하고 그 최적의 시점에서부터 상이성의 합이 큰 값을 가진 시점을 순차적으로 선택한 것을 최적의 다중 시점으로 구할 수 있다.As described above, the present invention obtains viewpoint sampling by dividing a three-dimensional model into several, obtains visibility for each viewpoint sample, and differs in how each image differs from other images when given images from several viewpoints. We can find the best value as the best feature time point, and sequentially select the time point with the largest sum of differences from the best time point as the optimal multi-view point.

따라서 본 발명은 3차원 물체의 다중 시점을 통해서 3차원 물체의 저장, 인식 또는 검색을 보다 효율적이고 빠르게 실행할 수 있다. Therefore, the present invention can perform the storage, recognition or retrieval of the three-dimensional object more efficiently and quickly through the multiple views of the three-dimensional object.

한편, 본 발명은 상술한 실시예에 국한되는 것이 아니라 후술되는 청구범위에 기재된 본 발명의 기술적 사상과 범주내에서 당업자에 의해 여러 가지 변형이 가능하다.On the other hand, the present invention is not limited to the above-described embodiment, various modifications are possible by those skilled in the art within the spirit and scope of the present invention described in the claims to be described later.

도 1은 본 발명에 따른 3차원 물체의 특징 시점 선택 방법을 나타낸 흐름도,1 is a flowchart illustrating a method of selecting a feature viewpoint of a 3D object according to the present invention;

도 2는 다양한 3차원 물체의 모델들에서 최적의 시점을 나타낸 도면, 2 is a view showing an optimal viewpoint in models of various three-dimensional objects;

도 3은 본 발명에 따른 다양한 3차원 물체의 모델들의 다중 시점을 나타낸 도면. 3 illustrates multiple views of models of various three-dimensional objects in accordance with the present invention.

Claims (5)

2차원 영상으로부터 3차원 물체의 모델에 대한 특징 시점을 구하는 방법에 있어서,In the method for obtaining a feature viewpoint for a model of a three-dimensional object from a two-dimensional image, 상기 3차원 물체의 정보를 입력받는 단계와,Receiving information of the 3D object; 상기 3차원 물체의 정보로부터 여러 시점에서 2차원으로 투사한 2차원 영상의 시점을 샘플링하는 단계와,Sampling a viewpoint of the 2D image projected in 2D from various viewpoints from the information of the 3D object; 상기 샘플링된 시점들에서 각 시점에 대한 가시성()을 구하는 단계와,Visibility for each view in the sampled views ), 상기 샘플링된 각 시점들에 대한 3차원 물체의 각 부분들의 가시성 공간값(Xi)을 구하는 단계와,Obtaining a visibility space value X i of each part of the 3D object for each of the sampled viewpoints; 상기 가시성 공간의 두 점 사이의 거리로 상이성(di,j)을 구하는 단계와,Obtaining the difference (d i, j ) as a distance between two points of the visibility space, 상기 모든 가시성중에서 최대값을 가진 시점을 최적의 시점()으로 선택하는 단계와,Of all the visibility, the view having the maximum value is the optimal view ( ), 상기 최적의 시점에서 n(n>1)개까지 가장 상이성이 큰 시점을 차례로 선택해서 다중 시점()을 선택하는 단계From the optimal time point, up to n (n> 1) time points having the most disparity are sequentially selected, Steps to select) 를 포함하는 3차원 물체의 특징 시점 선택 방법.Characteristic viewpoint selection method of the three-dimensional object comprising a. 제 1항에 있어서,The method of claim 1, 상기 가시성()은 다음 수학식에 의하여 구하는 것을 특징으로 하는 3차원 물체의 특징 시점 선택 방법.The visibility ( ) Is a feature viewpoint selection method of a three-dimensional object, characterized in that obtained by the following equation. 여기서 는 시점 j에서 3차원 물체의 k 부분에 대한 가시성 이며 부분 k가 다른 부분들에 가려져 실제로 보이게 되는 넓이 를 부분 k가 다른 부분들에 의해 가려지지 않고 실제 보이는 넓이 의 최대값(max)로 나눈 값임.here Is the visibility of the k part of the three-dimensional object at time point j Is the area where part k is actually hidden by other parts The area where part k is actually hidden without being obscured by other parts The maximum value divided by max. 이며 임. Is And Is being. 제 1항에 있어서,The method of claim 1, 상기 가시성 공간값(Xi)은 다음 수학식에 의하여 구하는 것을 특징으로 하는 3차원 물체의 특징 시점 선택 방법.The visibility space value (X i ) is obtained by the following equation. 여기서 Rn은 시점 j에서 바라본 3차원 물체의 각 부분들의 가시성 값을 나타내고 Rn은 0<Rn<1임.Where R n represents the visibility value of each part of the three-dimensional object viewed from the viewpoint j and R n is 0 <R n <1. 제 1항에 있어서,The method of claim 1, 상기 상이성(di,j)은 다음 수학식에 의하여 구하는 것을 특징으로 하는 3차원 물체의 특징 시점 선택 방법.The difference (d i, j ) is obtained by the following equation. 여기서 는 가시성 공간의 두 점 사이의 거리임.here Is the distance between two points in the visibility space. 제 1항에 있어서,The method of claim 1, 상기 다중 시점()은 다음 수학식에 의하여 구하는 것을 특징으로 하는 3차원 물체의 특징 시점 선택 방법.The multi-viewpoint ( ) Is a feature viewpoint selection method of a three-dimensional object, characterized in that obtained by the following equation. 여기서 i는 의 범위이며 으로 초기값을 가지게 되고, 는 전 단계에 찾은 시점들()로부터 새로운 시점까지의 거리의 합임.Where i is Is the range of Will have an initial value, Is the time points found in the previous step ( The sum of the distances from the
KR1020030081134A 2003-11-17 2003-11-17 Method for selecting characteristic view point of the 3d model KR100572256B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030081134A KR100572256B1 (en) 2003-11-17 2003-11-17 Method for selecting characteristic view point of the 3d model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030081134A KR100572256B1 (en) 2003-11-17 2003-11-17 Method for selecting characteristic view point of the 3d model

Publications (2)

Publication Number Publication Date
KR20050047322A true KR20050047322A (en) 2005-05-20
KR100572256B1 KR100572256B1 (en) 2006-04-24

Family

ID=37246344

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030081134A KR100572256B1 (en) 2003-11-17 2003-11-17 Method for selecting characteristic view point of the 3d model

Country Status (1)

Country Link
KR (1) KR100572256B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150002157A (en) * 2013-06-28 2015-01-07 네이버 주식회사 Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof
KR102332920B1 (en) * 2021-06-24 2021-12-01 주식회사 맥스트 System and method for rendering of 6 degree of freedom virtual reality

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150002157A (en) * 2013-06-28 2015-01-07 네이버 주식회사 Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof
KR102332920B1 (en) * 2021-06-24 2021-12-01 주식회사 맥스트 System and method for rendering of 6 degree of freedom virtual reality
US11615574B2 (en) 2021-06-24 2023-03-28 Maxst Co., Ltd. System and method for rendering 6 degree-of-freedom virtual reality

Also Published As

Publication number Publication date
KR100572256B1 (en) 2006-04-24

Similar Documents

Publication Publication Date Title
CN110809750B (en) Virtually representing spaces and objects while preserving physical properties
US11748934B2 (en) Three-dimensional expression base generation method and apparatus, speech interaction method and apparatus, and medium
CN110889890B (en) Image processing method and device, processor, electronic equipment and storage medium
US8462198B2 (en) Animation generation systems and methods
EP3040944B1 (en) Method and device for rebuilding three-dimensional object and terminal
US8970586B2 (en) Building controllable clairvoyance device in virtual world
KR20230127313A (en) 3D reconstruction and related interactions, measurement methods and related devices and devices
CN109308734B (en) 3D character generation method and device, equipment and storage medium thereof
Wu et al. Efficient VR and AR navigation through multiperspective occlusion management
Tong et al. Glyphlens: View-dependent occlusion management in the interactive glyph visualization
TWI502546B (en) System, method, and computer program product for extruding a model through a two-dimensional scene
CN112370784A (en) Virtual scene display method, device, equipment and storage medium
Sandri et al. Compression of plenoptic point clouds using the region-adaptive hierarchical transform
CN116057577A (en) Map for augmented reality
JP6934957B2 (en) Image generator, reference image data generator, image generation method, and reference image data generation method
CN111145338B (en) Chair model reconstruction method and system based on single-view RGB image
US11893705B2 (en) Reference image generation apparatus, display image generation apparatus, reference image generation method, and display image generation method
JPWO2019123548A1 (en) Image generator and image generation method
CN104796624A (en) Method for editing and propagating light fields
KR100572256B1 (en) Method for selecting characteristic view point of the 3d model
EP3832606A1 (en) Image generation system and method
CN109375866B (en) Screen touch click response method and system for realizing same
CN113822994B (en) Three-dimensional model construction method and device and storage medium
US20190130633A1 (en) Systems and methods for using a cutting volume to determine how to display portions of a virtual object to a user
de Dinechin et al. Presenting COLIBRI VR, an Open-Source Toolkit to Render Real-World Scenes in Virtual Reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
N231 Notification of change of applicant
FPAY Annual fee payment

Payment date: 20130513

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140402

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee