KR20150002157A - Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof - Google Patents

Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof Download PDF

Info

Publication number
KR20150002157A
KR20150002157A KR1020130075640A KR20130075640A KR20150002157A KR 20150002157 A KR20150002157 A KR 20150002157A KR 1020130075640 A KR1020130075640 A KR 1020130075640A KR 20130075640 A KR20130075640 A KR 20130075640A KR 20150002157 A KR20150002157 A KR 20150002157A
Authority
KR
South Korea
Prior art keywords
dimensional model
model
importance
camera
image
Prior art date
Application number
KR1020130075640A
Other languages
Korean (ko)
Other versions
KR102129060B1 (en
Inventor
배민수
박인규
Original Assignee
네이버 주식회사
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 인하대학교 산학협력단 filed Critical 네이버 주식회사
Priority to KR1020130075640A priority Critical patent/KR102129060B1/en
Publication of KR20150002157A publication Critical patent/KR20150002157A/en
Application granted granted Critical
Publication of KR102129060B1 publication Critical patent/KR102129060B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to an efficient content-based 3D model retrieval method using a single depth image. The present invention provides a database construction method which can represent a 3D model in a plurality of depth images by adaptively sampling camera viewpoints for obtaining a depth image of one 3D model based on importance and acquiring the depth image from each sampled camera viewpoint, thereby performing 3D model retrieval using only one depth image as a query image. Also, the present invention provides a 3D model retrieval method which can retrieve a 3D model matched with a query image by comparing similarity between the input query image and the depth images stored in a database by using the database constructed as described above.

Description

단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법, 이를 수행하는 3차원 모델 검색 서버 및 컴퓨터로 판독 가능한 기록매체{CONTENT-BASED 3D MODEL RETRIEVAL METHOD USING A SINGLE DEPTH IMAGE, 3D MODEL RETRIEVAL SERVER FOR PERFORMING THE METHODS AND COMPUTER READABLE RECORDING MEDIUM THEREOF}TECHNICAL FIELD [0001] The present invention relates to a content-based three-dimensional model retrieval method using a single depth image, a three-dimensional model retrieval server for performing the retrieval, and a computer readable recording medium. AND COMPUTER READABLE RECORDING MEDIUM THEREOF}

본 발명은 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법, 이를 수행하는 3차원 모델 검색 서버 및 컴퓨터로 판독 가능한 기록매체에 관한 것이다. 더욱 상세하게, 본 발명은 3차원 모델에서 중요도가 높은 시점들을 결정하기 위하여 카메라 시점을 적응적으로 샘플링하고, 적응적으로 샘플링된 각각의 시점의 깊이 영상에 대하여 회전불변 기술자를 생성 및 저장함으로써 해당 3차원 모델을 깊이 영상의 집합으로써 표현할 수 있는 3차원 모델 검색 데이터베이스 구축 방법 및 이를 수행하는 3차원 모델 검색 서버에 관한 것이다. 또한, 본 발명은 전술한 바와 같이 구성되는 3차원 모델 검색 데이터베이스를 이용하여 사용자 단말기로부터 전송되는 단일 깊이 영상을 질의 영상으로 수신하고, 질의 영상과 3차원 모델 검색 데이터베이스 내에 저장된 3차원 모델들 각각의 회전불변 기술자를 비교하여, 질의 영상과 유사한 회전불변 기술자를 갖는 3차원 모델들을 검색결과로써 제공할 수 있는 3차원 모델 검색 방법 및 이를 수행하기 위한 3차원 검색 서버에 관한 것이다.
The present invention relates to a content-based three-dimensional model retrieval method using a single depth image, a three-dimensional model retrieval server for performing the retrieval, and a computer-readable recording medium. More particularly, the present invention relates to a method and apparatus for adaptively sampling a camera viewpoint in order to determine views having a high degree of importance in a three-dimensional model, generating and storing a rotation invariant descriptor for a depth image at each viewpoint adaptively sampled, Dimensional model search database that can represent a three-dimensional model as a set of depth images, and a three-dimensional model search server for performing the three-dimensional model search database. Also, the present invention is a method for receiving a single depth image transmitted from a user terminal using a three-dimensional model search database constructed as described above as a query image, Dimensional model search method that can provide three-dimensional models having a rotation invariant descriptor similar to a query image as a search result by comparing the rotation invariant descriptors and a three-dimensional search server for performing the three-dimensional model search method.

최근 애니메이션, 영화, 게임, 웹 서비스 등의 발전으로 3차원 모델 데이터의 수요가 급격히 증가하고 있다. 따라서 멀티미디어 및 엔터테인먼트 시장을 비롯한 각종 어플리케이션에서 3차원 모델의 필요성이 점차 증대되고 있다. 또한 현재 2차원 영상 검색을 위한 다양한 형태의 질의(query) 입력 기반 서비스는 이미 각종 포털 사이트를 통해 제공되고 있으나 Google 3D Warehouse와 같은 텍스트 기반의 3차원 모델 검색 엔진 외에 보편화된 3차원 모델 검색(3D model retrieval) 시스템은 온라인상에 거의 존재하지 않는다. 따라서 사용자와 상호 대화형의(user-interactive) 3차원 모델 검색을 위하여, 텍스트 외에도 영상의 입력을 통한 내용 기반(content-based) 3차원 모델 검색 시스템의 알고리즘 개발이 필요하다.Recently, demand for 3D model data is rapidly increasing due to development of animations, movies, games, and web services. Therefore, the need for three-dimensional models is increasingly increasing in various applications including the multimedia and entertainment markets. In addition, various types of query input based services for 2D image retrieval are already provided through various portal sites. However, in addition to a text based 3D model search engine such as Google 3D Warehouse, a generalized 3D model search (3D model retrieval system is rarely online. Therefore, it is necessary to develop an algorithm for a content-based 3D model retrieval system by inputting images in addition to text for user-interactive 3D model retrieval.

이러한 필요성에 의해 내용 기반 3차원 모델 검색 기법에 대한 다양한 연구들이 진행되었다. 3차원 모델 검색이란 입력 질의(query)에 대해 그와 유사하거나 같은 분류에 속하는 3차원 모델을 데이터베이스에서 검색하는 것을 의미하며, 특히 내용기반 검색은 텍스트 키워드 대신 2차원 영상 또는 3차원 모델 자체를 입력으로 하여 유사한 형상의 3차원 모델을 검색하는 것을 말한다. 종래의 내용 기반 3차원 모델 검색 기법들을 살펴보면, 종래의 내용 기반 3차원 모델 검색 기법들은 유사 3차원 모델 검색을 위한 기술자의 특징에 따라 크게 특징(feature) 기반 방식, 그래프(graph) 기반 방식, 시점(view) 기반 방식으로 분류될 수 있다.Based on this necessity, various studies on content - based 3D model retrieval technique have been carried out. The 3D model search refers to searching the database for a three-dimensional model belonging to the same or similar class of an input query. Particularly, the content-based search is performed by inputting a 2D image or a three- Dimensional model of a similar shape. Conventional content-based three-dimensional model retrieval techniques can be roughly classified into feature-based, graph-based, and time- based view-based approach.

종래기술에 따른 특징 기반 방식의 3차원 모델 검색은 3차원 모델 자체의 기하학적, 위상학적 특징 기술자를 추출하여 유사도를 측정하는 방법이다. 3차원 모델 표면의 법선 벡터를 이용하여 그 각도를 기술자로 추출하거나 가우시안 구면체로 매핑시키는 기법이 연구되었으며, 이러한 방법은 쉽게 기술자를 생성할 수 있지만 3차원 모델 구성의 정밀도가 검색 성능에 큰 영향을 끼칠 수 있다. 또한 3차원 모델의 형태를 하나의 함수로 표현하고 그에 따른 확률 분포를 생성하여 유사도를 측정하는 히스토그램 방식이 특징 기반 방식의 검색 기법에 포함된다. 히스토그램을 이용한 기법들은 작은 왜곡에 강건하고 3차원 모델의 변형에 강인하다는 장점이 있으나 전역적 방법이기 때문에 유사한 3차원 모델의 세부적인 구분이 어려우며 유사도를 파악하기 위한 히스토그램의 분석과 계산이 복잡한 단점이 있다.The feature-based three-dimensional model search according to the related art is a method of extracting the geometric and topological feature descriptors of the three-dimensional model itself and measuring the similarity. The technique of extracting the angle by the descriptor or mapping it to the Gaussian sphere using the normal vector of the 3D model surface has been studied. Although this method can easily generate the descriptor, the accuracy of the 3D model construction greatly affects the search performance . In addition, the histogram method that expresses the shape of the three - dimensional model as one function and generates the probability distribution according to it and measures the degree of similarity is included in the feature - based retrieval method. Histogram techniques are robust to small distortion and robust to deformation of 3D model. However, because it is a global method, it is difficult to classify similar 3D models in detail, and it is complicated to analyze and calculate histogram to find similarity. have.

종래기술에 따른 그래프 기반의 방식은 3차원 모델 자체를 검색에 용이하게 가공하거나 새로운 데이터를 생성하여 검색에 사용한다는 점에서 벡터 기반 기술자 방식(vector-based descriptor method)인 특징 기반 방식이나 시점 기반 방식과 구분된다. 그래프 기반 방식은 3차원 모델의 골격 구조를 파악하여 리브(Reeb) 그래프를 구성하며 노드와 노드 사이의 관계를 비교하여 유사도를 계산하거나, 뼈대 형태 그래프(skeletal graph)를 형태 기술자로 생성하여 3차원 모델의 위상정합을 통해 기하학적인 변형에 강건한 검색을 할 수 있는 기법이 연구되었다. 그래프 기반 검색 방식들은 비강체(non-rigid)의 검색이 가능하고 비교적 뛰어난 검색 성능을 기대할 수 있는 장점이 있지만 3차원 모델을 그래프 형식으로 변환하는 과정에서의 연산이 어렵고, 다양한 3차원 모델의 표현 방법에 적용하기 어려운 큰 문제를 가지고 있다.In the graph-based method according to the related art, a three-dimensional model itself is easily processed for search or new data is generated and used for searching. Therefore, a feature-based method or a view-based method, which is a vector-based descriptor method . The graph-based method constructs a Reeb graph by grasping the skeletal structure of a three-dimensional model, calculating the similarity by comparing the relationship between nodes and nodes, or generating a skeletal graph as a shape descriptor, A technique for robust search for geometric transformations through phase matching of models has been studied. The graph-based search methods have advantages of non-rigid search and relatively high search performance. However, it is difficult to perform operations in the process of converting a three-dimensional model into a graph format, and a variety of three- There is a big problem that is difficult to apply to the method.

종래기술에 따른 시점 기반의 검색 방식이란 3차원 모델은 수 개의 2.5차원 깊이 영상으로 표현될 수 있다는 깊이 영상 기반 표현(depth image-based representation)기법을 바탕으로 하며, 3차원 모델에 대한 특정 시점을 샘플링(sampling)하여 양상-관계 그래프(aspect-relation graph)로 표현하고 입력 영상과의 정합으로 유사도를 측정하는 기법이다. 3차원 모델의 실루엣 영상을 생성하여 푸리에 변환하고, 그 계수를 기술자로 나타내어 3차원 모델의 유사도 계산에 사용하거나 3차원 모델을 둘러싼 구면체 상에 균일하게 생성된 시점에서 깊이 영상을 생성하고 이에 대한 기술자를 통해 유사도를 측정하는 기법이 연구되었다. 이와 유사하게 SIFT (Scale Invariant Feature Transform) 알고리즘을 통해 3차원 모델로부터 생성한 깊이 영상의 지역적 특징(local feature)를 파악하여 유사3차원 모델을 검색하는 기법이나 3차원 모델을 복셀 형태로 표현하여 간략화시킨 기술자를 사용하는 기법이 제안되었다. 추가적으로 컬러 및 깊이 영상, 3차원 모델을 모두 질의로 사용 가능한 포괄적인 시점 기반 검색 기법이나 사용자의 이진 스케치(binary sketch)를 입력으로 하는 간편한 검색 기법도 존재한다. 이러한 종래기술에 따른 시점 기반 방식의 검색 기법은 3차원 모델을 2차원 영상으로 투영시키는 과정에서, 3차원 모델의 미세한 다각형의 누락, 구멍 등에 의한 영향을 크게 줄일 수 있으므로 3차원 모델의 완성도에 구애받지 않는 강건한 검색을 할 수 있다는 장점이 있다. 그러나 적은 수의 영상 샘플을 사용할 경우 자기 폐색(self-occlusion)으로 인한 3차원 정보의 손실을 막기 힘들다는 단점이 존재한다. 또한 3차원 모델에 대한 깊이 영상 취득에 있어서 사용자가 촬영할 확률이 높은 부분, 3차원 모델의 많은 정보를 포함하고 있는 부분에서 시점이 샘플링되지 않는다면 검색에 실패할 확률이 높다는 문제점이 있다. The time-based search method according to the related art is based on a depth image-based representation technique in which a three-dimensional model can be represented by several 2.5-dimensional depth images, It is a technique for sampling similarity, expressing it as an aspect-relation graph, and measuring similarity by matching with input image. A 3D image of a three-dimensional model is generated and Fourier transformed, and the coefficient is expressed by a descriptor to be used for calculating the similarity of the three-dimensional model, or a depth image is generated at a point of uniformly generated on a spherical body surrounding the three- A method for measuring the degree of similarity has been studied. Likewise, by using the Scale Invariant Feature Transform (SIFT) algorithm, the local feature of the depth image generated from the 3D model can be grasped and a similar 3D model can be retrieved or a 3D model can be expressed in the form of a voxel A technique using a descriptor was proposed. In addition, there is a comprehensive view-based search method that can use both color and depth images and three-dimensional models as a query, or a simple search method that uses a binary sketch of a user as input. Such a viewpoint-based retrieval technique according to the related art can significantly reduce the influence of missing polygons and holes in a three-dimensional model in the process of projecting the three-dimensional model into a two-dimensional image, The advantage is that you can do robust searches that you do not receive. However, there is a disadvantage that it is difficult to prevent loss of three-dimensional information due to self-occlusion when a small number of image samples are used. In addition, there is a problem in that, if the viewpoint is not sampled at a portion where a user has a high probability of taking a 3D image and a 3D portion contains a large amount of information, the probability of a search failure is high.

따라서 전술한 바와 같은 종래기술에 따른 내용 기반 3차원 모델 검색 기법들의 문제점을 해결할 수 있는 새로운 3차원 모델 검색 기법의 개발이 필요하다.Accordingly, there is a need to develop a new three-dimensional model retrieval technique that can solve the problems of the content-based three-dimensional model retrieval techniques according to the related art as described above.

한편 Microsoft Kinect와 같은 보급형 3차원 카메라가 급속히 보급되고 있다. 이는 가격 대비 양질의 깊이 영상 취득환경 구축을 가능하게 하였으며, 이러한 시스템을 이용하여 검색에 필요한 입력 데이터를 실시간 컬러 영상 및 깊이 영상으로 확장하는 것이 용이해졌다. 그러나 현재로서는 이러한 보급형 3차원 카메라를 3차원 모델 검색에 사용하고 있는 기술이 존재하지 않는다. 따라서, 보급형 3차원 카메라를 3차원 모델 검색에 사용할 수 있는 새로운 3차원 모델 검색 기법의 개발이 필요하다.
On the other hand, popular 3D cameras such as Microsoft Kinect are rapidly spreading. This makes it possible to construct a quality image acquisition environment for the price, and it is easy to expand the input data required for the search into real time color image and depth image by using such a system. However, at present, there is no technology that uses these low-cost 3D cameras for three-dimensional model search. Therefore, it is necessary to develop a new three - dimensional model retrieval technique that can be used for three - dimensional model retrieval of low cost 3D camera.

본 발명의 목적은 위에서 언급한 종래기술의 문제점을 해결하는 것이다. An object of the present invention is to solve the above-mentioned problems of the prior art.

본 발명의 일 목적은, 3차원 모델에 대하여 사용자가 질의 영상으로서 촬영할 확률이 높은 부분과 3차원 모델을 대표할 수 있는 부분에 대한 카메라 시점들을 적응적으로 샘플링하고, 샘플링된 카메라 시점들을 해당 3차원 모델에 대한 깊이 영상을 획득하기 위한 카메라 시점들로 설정할 수 있는 3차원 모델 검색 데이터베이스 구축 방법, 이를 수행하는 검색 서버 및 컴퓨터로 판독 가능한 기록매체를 제공하는 것이다. One object of the present invention is to adaptively sample the camera viewpoints of a portion where a user is likely to take a query image as a query image and a portion that can represent a 3D model with respect to the 3D model, Dimensional model search database that can be set as camera viewpoints for acquiring a depth image for a 3D model, a search server for performing the 3D model search database, and a computer readable recording medium.

본 발명의 다른 일 목적은, 적응적으로 샘플링된 복수의 카메라 시점들 각각에서 획득한 복수의 깊이 영상들의 집합으로서 3차원 모델을 표현하고, 3차원 모델의 기하학적 특징이 검색에 활용되도록 3차원 모델 검색 데이터베이스를 구성할 수 있는 3차원 모델 검색 데이터베이스 구축 방법, 이를 수행하는 검색 서버 및 컴퓨터로 판독 가능한 기록매체를 제공하는 것이다.It is another object of the present invention to provide a three-dimensional model that represents a three-dimensional model as a set of a plurality of depth images acquired at each of a plurality of adaptively sampled camera views, A three-dimensional model search database construction method capable of configuring a search database, a search server performing the three-dimensional model search database, and a computer readable recording medium.

본 발명의 또 다른 일 목적은, 보급형 3차원 카메라를 통해 획득된 단일 깊이 영상을 질의 영상으로 활용하여 이에 매칭되는 3차원 모델을 검색 및 제공할 수 있는 내용기반 3차원 모델 검색 방법, 이를 수행하는 검색 서버 및 컴퓨터로 판독 가능한 기록매체를 제공하는 것이다.It is still another object of the present invention to provide a content-based three-dimensional model search method capable of searching and providing a three-dimensional model that matches a single depth image obtained through an entry-level three-dimensional camera as a query image, A search server and a computer-readable recording medium.

본 발명의 또 다른 일 목적은, 질의 영상과 3차원 모델 검색 데이터베이스 내에 저장되어 있는 모든 3차원 모델의 깊이 영상들 각각에 대한 유사도를 병렬로 동시에 측정할 수 있는 내용기반 3차원 모델 검색 방법, 이를 수행하는 검색 서버 및 컴퓨터로 판독 가능한 기록매체를 제공하는 것이다.
Another object of the present invention is to provide a content-based three-dimensional model retrieval method capable of simultaneously measuring the degree of similarity of a query image and depth images of all three-dimensional models stored in a three-dimensional model retrieval database in parallel And a computer-readable recording medium.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특유의 효과를 달성하기 위한, 본 발명의 특징적인 구성은 하기와 같다. In order to achieve the above-described object of the present invention and to achieve the specific effects of the present invention described below, the characteristic structure of the present invention is as follows.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특유의 효과를 달성하기 위한, 본 발명의 특징적인 구성은 하기와 같다. In order to achieve the above-described object of the present invention and to achieve the specific effects of the present invention described below, the characteristic structure of the present invention is as follows.

본 발명의 일 태양에 따르면, 3차원 모델 검색 서버에 의해 수행되는 3차원 모델 검색 방법에 있어서, (A) 사용자 단말기로부터 전송되는 단일 깊이 영상을 질의 영상으로서 수신하는 단계; (B) 수신된 질의 영상으로부터 회전불변 기술자를 생성하는 단계; (C) 상기 질의 영상의 회전불변 기술자와 미리 저장된 회전불변 기술자들의 유사도를 계산하는 단계; 및 (D) 상기 계산된 유사도를 기초로 적어도 하나 이상의 3차원 모델을 선택하고, 선택된 3차원 모델에 대한 정보를 포함하는 검색 결과를 상기 사용자 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법이 제안된다.According to an aspect of the present invention, there is provided a three-dimensional model search method performed by a three-dimensional model search server, comprising: (A) receiving a single depth image transmitted from a user terminal as a query image; (B) generating a rotation invariant descriptor from the received query image; (C) calculating a similarity between the rotation invariant descriptor of the query image and the previously stored rotational invariant descriptors; And (D) selecting at least one three-dimensional model based on the calculated similarity, and transmitting a search result including information about the selected three-dimensional model to the user terminal. A content - based 3D model retrieval method using depth images is proposed.

또한, 본 발명의 다른 일 태양에 따르면, 3차원 모델 검색 서버에 있어서, 사용자 단말기로부터 전송되는 단일 깊이 영상을 질의 영상으로서 수신하고, 상기 수신된 질의 영상으로부터 회전불변 기술자를 생성하는 질의 영상 처리부; 및 상기 질의 영상의 회전불변 기술자와 미리 저장된 회전불변 기술자들의 유사도를 계산하고, 상기 계산된 유사도를 기초로 적어도 하나 이상의 3차원 모델을 선택하고, 선택된 3차원 모델에 대한 정보를 포함하는 검색 결과를 상기 사용자 단말기로 전송하는 검색 처리부를 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버가 제안된다.
According to another aspect of the present invention, there is provided a three-dimensional model search server, comprising: a query image processor receiving a single depth image transmitted from a user terminal as a query image and generating a rotation invariant descriptor from the received query image; Calculating a similarity between the rotation invariant descriptor of the query image and the previously stored rotational invariant descriptors, selecting at least one or more three-dimensional models based on the calculated similarity, and outputting a search result including information about the selected three- And a search processor for transmitting the search result to the user terminal.

본 발명의 바람직한 일 실시예에 따르면, 3차원 모델에 대한 복수의 카메라 시점들 각각에 대한 중요도를 판단하고, 판단된 중요도에 기초하여 3차원 모델에 대한 카메라 시점들을 적응적으로 샘플링함으로써, 사용자가 질의 영상으로서 촬영할 확률이 높은 부분과 3차원 모델을 대표할 수 있는 부분에 대한 카메라 시점들을 설정할 수 있는 효과를 기대할 수 있다.According to a preferred embodiment of the present invention, the importance of each of a plurality of camera views with respect to a three-dimensional model is determined, and the camera views of the three-dimensional model are adaptively sampled based on the determined importance, It is expected that the camera viewpoints can be set for a portion having a high probability of being photographed as a query image and a portion representing a three-dimensional model.

또한, 본 발명에 따르면, 중요도가 높은 카메라 시점들을 3차원 모델에 대한 깊이 영상을 획득하기 위한 카메라 시점들로 설정함으로써 3차원 모델 검색의 정확도와 속도를 향상시키는 효과를 기대할 수 있다.In addition, according to the present invention, it is possible to expect the effect of improving the accuracy and speed of the 3D model search by setting the camera views having high importance to the camera views for acquiring the depth image for the 3D model.

또한, 본 발명에 따르면, 적응적으로 샘플링된 복수의 카메라 시점들 각각에서 획득한 복수의 깊이 영상들의 집합으로서 3차원 모델을 표현함으로써, 3차원 모델의 기하학적 특징을 3차원 모델 검색에 효율적으로 이용할 수 있는 효과를 기대할 수 있다.Further, according to the present invention, by expressing a three-dimensional model as a set of a plurality of depth images acquired at each of a plurality of camera views adaptively sampled, it is possible to efficiently use the geometric features of the three- The effect can be expected.

또한, 본 발명에 따르면, 보급형 3차원 카메라를 통해 획득된 단일 깊이 영상을 질의 영상으로 활용하여 이에 매칭되는 3차원 모델을 검색 및 제공할 수 있는 효과를 기대할 수 있다.In addition, according to the present invention, it is expected that a single depth image obtained through an entry-level three-dimensional camera can be used as a query image to search and provide a matching three-dimensional model.

또한, 본 발명에 따르면, 3차원 모델 검색 데이터베이스 내에 저장되어 있는 모든 3차원 모델의 깊이 영상들 각각에 대하여 질의 영상과의 유사도를 병렬로 측정함으로써, 3차원 모델 검색 속도를 향상시키는 효과를 기대할 수 있다.
Also, according to the present invention, it is possible to expect an effect of improving the 3D model retrieval speed by measuring the degree of similarity with the query image for each depth image of all the 3D models stored in the 3D model retrieval database in parallel have.

도 1은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버를 포함하는 전체 시스템의 구성 블록도.
도 2는 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버의 구성 블록도.
도 3은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버에서 수행되는 3차원 모델 검색 데이터베이스 구축과정을 도시한 순서도.
도 4는 종래기술에 따른 20면체의 메쉬 분할 결과를 나타낸 예시도.
도 5a 및 도 5b는 카메라 시점에 따른 중요도 변화결과를 나타낸 예시도.
도 6a 내지 도 6d는 중요도를 계산하기 위한 가중치들의 변화에 따른 카메라 시점 샘플링 결과를 비교한 예시도.
도 7은 본 발명에 따라 소정의 가중치를 사용하여 카메라 시점을 샘플링한 결과를 나타내는 예시도.
도 8은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버에서 수행되는 3차원 모델 검색과정을 도시한 순서도.
도 9는 본 발명의 바람직한 일 실시예에 따른 단일 깊이 영상을 질의 영상으로서 이용한 3차원 모델 검색 방법을 사용한 검색 결과를 나타낸 예시도.
도 10은 본 발명의 바람직한 일 실시예에 따른 단일 깊이 영상을 질의 영상으로서 이용한 3차원 모델 검색 방법을 사용한 검색 결과와 종래기술에 따른 3차원 모델을 질의 영상으로서 이용한 3차원 모델 검색 방법을 사용한 검색 결과를 나타내는 예시도.
도 11은 본 발명의 바람직한 일 실시예에 따른 적응적 시점 샘플링을 적용한 검색결과와 렌더링한 시점을 적용한 검색결과의 성능을 비교한 검색성능 비교 그래프.
도 12는 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 방법과 다른 검색 방법의 성능을 비교한 검색성능 비교 그래프.
1 is a block diagram of an entire system including a three-dimensional model search server according to a preferred embodiment of the present invention;
2 is a block diagram of a configuration of a three-dimensional model search server according to a preferred embodiment of the present invention.
3 is a flowchart illustrating a process of constructing a three-dimensional model search database performed by the three-dimensional model search server according to an exemplary embodiment of the present invention.
4 is a view showing an example of mesh division result of icosahedron according to the related art.
FIGS. 5A and 5B are diagrams showing an example of a result of importance change according to a camera viewpoint; FIG.
6A to 6D are diagrams for comparing sampling results of camera viewpoints according to changes in weights for calculating importance.
FIG. 7 is an exemplary diagram showing a result of sampling a camera viewpoint using a predetermined weight according to the present invention; FIG.
FIG. 8 is a flowchart illustrating a three-dimensional model search process performed by the three-dimensional model search server according to an exemplary embodiment of the present invention. FIG.
9 is a diagram illustrating a search result using a three-dimensional model search method using a single depth image as a query image according to a preferred embodiment of the present invention.
10 is a diagram illustrating a search result using a three-dimensional model search method using a single depth image as a query image and a search using a three-dimensional model search method using a three-dimensional model according to the related art as a query image, according to a preferred embodiment of the present invention. Fig.
FIG. 11 is a graph illustrating a comparison of search performance comparing search results applying adaptive point-in-time sampling and search results applying a render point according to a preferred embodiment of the present invention.
FIG. 12 is a graph of comparison of search performance comparing the performance of a three-dimensional model search method and another search method according to a preferred embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which the claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

[본 발명의 바람직한 실시예][Preferred Embodiment of the Present Invention]

본 발명의 실시예에서, 용어 '3차원 모델의 다중 깊이 영상 기반 표현'이란 3차원 형상이 복수의 깊이 영상으로부터 생성될 수 있다는 개념에 기초하여, 3차원 모델을 각각의 다른 시점에서 획득한 복수의 깊이 영상들의 집합으로서 표현하는 방법을 의미한다.In the embodiment of the present invention, the term " multi-depth image-based representation of a three-dimensional model " refers to a multi-depth image-based representation of a three-dimensional model based on the concept that three- As a set of depth images.

또한, 본 발명의 실시예에 있어, 용어 '카메라 시점의 중요도'란 해당 카메라 시점에서 획득한 깊이 영상이 해당 3차원 모델을 대표할 수 있는 정도를 소정의 알고리즘에 따라 수치화한 정보를 의미한다. 즉, 중요도가 높은 시점이란 다른 시점에 비하여 해당 시점에서 획득된 깊이 영상이 질의 영상으로서 입력될 가능성이 높거나 및/또는 해당 3차원 모델을 대표할 수 있는 부분을 많이 포함하고 있다는 것을 의미할 수 있다. 카메라 시점의 중요도는 면적 중요도, 곡률 중요도, 카메라 자세 중요도 중 하나 이상의 중요도에 기초하여 산출될 수 있으나, 본 발명이 이에 한정되는 것은 아니다.Also, in the embodiment of the present invention, the term 'importance of camera viewpoint' means information obtained by digitizing the depth image obtained at the camera viewpoint according to a predetermined algorithm to represent the 3D model. That is, the point of high importance may mean that the depth image acquired at the point in time is likely to be input as a query image and / or contains many portions that can represent the corresponding three-dimensional model have. The importance of the camera viewpoint may be calculated based on at least one of the importance of the area, the importance of the curvature, and the importance of the camera orientation, but the present invention is not limited thereto.

또한, 본 발명의 실시예에 있어, 초기 카메라 시점이란, 3차원 모델 검색 데이터베이스 구축의 대상이 되는 3차원 모델에 대하여 카메라 시점을 적응적으로 샘플링하기 위하여 최초로 설정되는 카메라 시점을 의미한다. 예를 들어, 본 발명의 실시예에 있어, 해당 3차원 모델의 단위 반지름 크기의 구에 내접하는 20면체가 설정되고, 해당 20면체의 각 정점들이 초기 카메라 시점으로 설정될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며 다양한 방식으로 초기 카메라 시점이 설정될 수 있다.Also, in the embodiment of the present invention, the initial camera viewpoint refers to a camera view point initially set for adaptively sampling a camera viewpoint with respect to a three-dimensional model that is an object of building a 3D model search database. For example, in the embodiment of the present invention, an icosahedron which is in contact with a sphere having a unit radius size of the corresponding three-dimensional model is set, and each vertex of the icosahedron can be set as an initial camera viewpoint. However, the present invention is not limited thereto and an initial camera viewpoint may be set in various ways.

또한, 본 발명의 실시예에 있어, 용어 '카메라 시점의 적응적 샘플링'이란, 초기 카메라 시점들의 중요도에 기초하여 카메라 시점을 샘플링하는 것을 의미한다. 즉, 본 발명에 있어 '카메라 시점의 적응적 샘플링'이란 상대적으로 높은 중요도를 갖는 부분에서 더 많은 카메라 시점을 샘플링하기 위하여 안출된 개념으로서, 예를 들어, 전술한 바와 같은 20면체의 각 정점의 중요도에 기초하여 20면체에 대한 메쉬 분할을 수행함으로써, 카메라 시점의 적응적 샘플링이 수행될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 본 발명의 실시예들에 대한 다양한 변형 및/또는 변용이 이루어질 수 있고, 이러한 변형 및/또는 변용에 불구하고 카메라 시점의 중요도에 따라 적응적 샘플링이 수행된다는 본 발명의 기술적 사상을 그대로 포함하고 있는 한 본 발명의 권리범위에 속함은 당업자에게 자명할 것이다.
Further, in the embodiment of the present invention, the term " adaptive sampling at the camera viewpoint " means sampling the camera viewpoint based on the importance of the initial camera viewpoints. That is, in the present invention, 'adaptive sampling of camera viewpoint' is a concept that is devised for sampling more camera viewpoints in a portion having a relatively high importance, for example, as described above, By performing mesh division on the icosahedron based on the importance, adaptive sampling of the camera viewpoint can be performed. However, the present invention is not limited thereto, and various modifications and / or changes may be made to the embodiments of the present invention, and adaptive sampling is performed according to the importance of camera viewpoint, It will be apparent to those skilled in the art that the invention is not limited to the disclosed embodiments.

I. 3차원 모델 검색 서버를 포함하는 3차원 모델 검색 시스템의 구성과 기능I. Configuration and Function of 3D Model Search System Including 3D Model Search Server

도 1은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버(300)를 포함하는 전체 시스템의 구성 블록도이다. 이하에서, 도 1을 참조하여 본 발명에 따른 3차원 모델 검색 서버(300)를 포함하는 전체 시스템의 구성과 기능에 대하여 개략적으로 설명하도록 한다.FIG. 1 is a block diagram of an entire system including a three-dimensional model search server 300 according to a preferred embodiment of the present invention. Hereinafter, the configuration and functions of the entire system including the three-dimensional model search server 300 according to the present invention will be schematically described with reference to FIG.

도 1에 도시된 바와 같이, 본 발명에 따른 3차원 모델 검색 시스템은 3차원 카메라(110)를 구비한 사용자 단말기(100), 네트워크(200) 및 3차원 모델 검색 서버(300)를 포함할 수 있다.1, a three-dimensional model search system according to the present invention may include a user terminal 100 having a three-dimensional camera 110, a network 200, and a three-dimensional model search server 300 have.

본 발명의 일 실시예에 따른 사용자 단말기(100)는 사용자의 조작에 따라 연결된 3차원 카메라(110)를 통해 검색하고자 하는 객체에 대해 한 장의 깊이 영상을 획득하고, 획득된 단일 깊이 영상을 질의 영상으로서 3차원 모델 검색 서버(300)로 전송하는 기능을 수행하도록 구성된다. 또한, 사용자 단말기(100)는 전송된 질의 영상에 대응하여 검색된 3차원 모델 검색 결과를 3차원 모델 검색 서버(300)로부터 수신하고, 수신된 검색 결과를 디스플레이부(미도시)를 통해 출력하게 된다. 이러한 사용자 단말기(100)는 데스크톱 컴퓨터뿐만 아니라 노트북 컴퓨터, 워크스테이션, 팜톱(palmtop) 컴퓨터, 개인 휴대 정보 단말기(personal digital assistant: PDA), 웹 패드, 네비게이션 장치, 스마트 폰을 포함하는 이동 통신 단말기 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 사용자 단말기(100)로서 채택될 수 있다. 다만, 본 발명에 따른 사용자 단말기(100)가 3차원 모델 검색을 수행하기 위한 구성요소이므로, 사용자 단말기(100)는 사용자의 조작에 의해 특정 객체의 깊이 영상을 획득할 수 있는 3차원 카메라(110)를 포함하거나 또는 3차원 카메라(110)에 연결된 디지털 기기로 제한될 수 있다.The user terminal 100 according to an exemplary embodiment of the present invention acquires a depth image for an object to be searched through a connected three-dimensional camera 110 according to a user's operation, Dimensional model search server 300 as shown in FIG. Also, the user terminal 100 receives the retrieved three-dimensional model retrieval result corresponding to the transmitted query image from the three-dimensional model retrieval server 300, and outputs the retrieved retrieval result through a display unit (not shown) . The user terminal 100 may be a desktop computer, a mobile communication terminal including a notebook computer, a workstation, a palmtop computer, a personal digital assistant (PDA), a web pad, a navigation device, Any number of digital devices having memory means and equipped with a microprocessor and capable of computing can be adopted as the user terminal 100 according to the present invention. However, since the user terminal 100 according to the present invention is a component for performing a three-dimensional model search, the user terminal 100 may include a three-dimensional camera 110 Or may be limited to a digital device connected to the three-dimensional camera 110.

또한, 본 발명의 일 실시예에 따른 사용자 단말기(100)에 연결된 3차원 카메라(110)는 사용자의 조작에 따라 특정 객체의 컬러 영상과 이에 대하여 등록된 깊이 영상을 촬영하여 사용자 단말기(100)로 출력하도록 구성된다. 이러한 3차원 카메라(110)로서 다양한 보급형 3차원 카메라들 중 하나가 채택될 수 있다. 예를 들어, 본 발명에 따른 사용자 단말기(100)에는 마이크로소프트사의 키넥트(kinect)가 3차원 카메라(110)로서 연결될 수 있으나, 본 발명이 이에 한정되는 것은 아니다.In addition, the 3D camera 110 connected to the user terminal 100 according to an exemplary embodiment of the present invention captures a color image of a specific object and a registered depth image according to a user's operation and transmits the captured color image to the user terminal 100 . As such a three-dimensional camera 110, one of various types of commercially available three-dimensional cameras can be adopted. For example, the user terminal 100 according to the present invention may be connected to a 3D camera 110 as a kinect of Microsoft, but the present invention is not limited thereto.

질의 영상의 획득과정을 보다 구체적으로 살펴보면, 먼저 사용자 단말기(100)는 특정 객체의 3차원 모델 검색에 필요한 실제 객체의 정확한 분할을 위해, 3차원 카메라(110)를 제어하여 획득된 컬러 영상에 대하여 깊이 영상을 등록한다. 즉. 사용자 단말기(100)는 3차원 카메라(110)를 통해 획득된 물체의 컬러 영상과 깊이 영상이 연관되도록 한다. 이러한 방식으로 검색 대상 객체에 대한 컬러 영상과 등록된 깊이 영상이 함께 획득되면, 사용자 단말기(100)는 디스플레이부를 통해 획득된 컬러 영상을 출력한다. 사용자는 디스플레이부를 통해 출력되는 컬러 영상을 확인하고, 마우스(미도시) 등의 입력수단을 조작하여 3차원 모델 검색에 필요한 객체를 선택한다. 이러한 과정에 있어, 본 발명에 따른 사용자 단말기(100)는 그랩컷(GrabCut) 기법을 사용하여 컬러 영상에 대한 객체 분할을 수행하도록 구성될 수 있다. 사용자 단말기(100)는 사용자의 선택에 따라 컬러 영상 상에서 객체 분할을 위한 마스크를 생성하며, 이렇게 생성된 마스크에 기초해 대응되는 깊이 영상의 특정 영역을 질의 영상으로서 결정하도록 구성된다. 깊이 영상의 특정 영역이 질의 영상으로서 결정되면, 사용자 단말기(100)는 결정된 깊이 영상을 질의 영상으로서 3차원 모델 검색 서버(300)로 전송하게 된다.The user terminal 100 controls the three-dimensional camera 110 in order to accurately divide an actual object required for searching a three-dimensional model of a specific object, Register the depth image. In other words. The user terminal 100 allows the color image of the object obtained through the 3D camera 110 to be associated with the depth image. When the color image and the registered depth image of the object to be retrieved are obtained together in this way, the user terminal 100 outputs the color image obtained through the display unit. The user confirms the color image output through the display unit and operates the input means such as a mouse (not shown) to select an object necessary for the three-dimensional model search. In this process, the user terminal 100 according to the present invention can be configured to perform object division on a color image using a GrabCut technique. The user terminal 100 is configured to generate a mask for dividing an object on a color image according to a user's selection and determine a specific region of a corresponding depth image based on the generated mask as a query image. When a specific region of the depth image is determined as a query image, the user terminal 100 transmits the determined depth image to the three-dimensional model search server 300 as a query image.

본 발명의 일 실시예에 따르면, 네트워크(200)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다.According to one embodiment of the present invention, the network 200 may be configured without regard to its communication modes such as wired and wireless, and may be a personal area network (PAN), a local area network (LAN) A metropolitan area network (MAN), a wide area network (WAN), and the like.

본 발명의 일 실시예에 따른 3차원 모델 검색 서버(300)는 크게 2가지 기능을 수행하도록 구성될 수 있다. 첫째, 본 발명에 따른 3차원 모델 검색 서버(300)는 단일 깊이 영상을 질의 영상으로 사용하여 3차원 모델의 검색을 수행할 수 있도록, 복수의 3차원 모델들에 대한 3차원 모델 검색 데이터베이스(350)를 구축하는 기능을 수행하도록 구성될 수 있다. The three-dimensional model search server 300 according to an exemplary embodiment of the present invention may be configured to perform two functions. First, the three-dimensional model search server 300 according to the present invention searches the three-dimensional model search database 350 for a plurality of three-dimensional models so that a three-dimensional model search can be performed using a single depth image as a query image ). ≪ / RTI >

즉, 전술한 바와 같이, 본 발명에 따른 3차원 모델 검색 서버(300)는 사용자 단말기(100)에 연결된 보급형 3차원 카메라(110)로부터 취득된 한 장의 깊이 영상을 이용하여 내용기반 3차원 모델 검색을 수행하도록 구성된다. 따라서, 본 발명에 따르면 3차원 모델 데이터 자체를 질의로 사용하는 종래기술들에 비해 매우 간편히 질의 데이터를 얻을 수 있다는 장점이 있다. 그러나 본 발명에 따른 3차원 모델 검색 시스템이 한 장의 깊이 영상만을 검색에 사용하므로, 3차원 모델 자체를 질의로 사용하는 종래기술들에 비해 유사도 비교에 필요한 정보가 현저히 부족해질 수 있다는 문제점이 있을 수 있다. 따라서, 이러한 문제점을 해결하기 위하여, 질의 영상인 한 장의 깊이 영상과 데이터베이스(350)에 저장된 3차원 모델의 깊이 영상들 간의 효율적인 매칭이 이루어지도록 해야할 필요성이 있다. 3차원 모델을 렌더링하여 z-버퍼를 통해 얻을 수 있는 깊이 영상은 카메라의 위치에 따라 다양하게 변할 수 있기 때문에, 사용자가 촬영할 확률이 높은 부분과 3차원 모델을 대표할 수 있는 부분에서 카메라 시점이 샘플링되어야 한다. 따라서 본 발명에 따른 3차원 모델 검색 서버(300)는 3차원 모델의 곡률, 투영된 면적, 카메라 자세 등의 요소들을 고려하여 특정 카메라 시점이 가지는 해당 3차원 모델에 대한 중요도를 판단하고, 판단된 중요도에 따라 3차원 모델에 대한 깊이 영상을 획득하기 위한 카메라 시점들을 적응적으로 샘플링하도록 구성될 수 있다. 중요도에 기초하여 카메라 시점들이 적응적으로 샘플링되기 때문에, 사용자가 촬영할 확률이 높은 카메라 시점들 및/또는 3차원 모델의 많은 정보를 포함하고 있는 카메라 시점들이 적응적으로 결정될 수 있다. 따라서, 본 발명에 따른 3차원 모델 검색 서버(300)는 3차원 모델에 대하여 상대적으로 중요한 카메라 시점들을 적응적으로 결정하고, 결정된 카메라 시점들 각각에서 해당 3차원 모델에 대한 깊이 영상을 획득하며, 획득된 복수의 깊이 영상들로서 해당 3차원 모델을 표현함으로써 3차원 모델 데이터베이스(350)를 구축할 수 있다. 예를 들어, 본 발명에 따른 3차원 모델 검색 서버(300)는 1개의 3차원 모델을 적응적으로 샘플링된 카메라 시점들에서 획득된 100개의 깊이 영상들로써 표현하고, 이를 데이터베이스(350)에 구조화하여 저장하도록 구성될 수 있다. 한편, 실시예를 구성하기에 따라, 본 발명에 따른 3차원 모델 검색 서버(300)는 획득된 깊이 영상들 자체를 데이터베이스(350)에 저장하는 대신, 소정의 알고리즘에 따라 획득된 깊이 영상으로부터 유사도 비교에 필요한 정보(예를 들어, 회전불변 기술자)를 생성하고, 생성된 정보를 데이터베이스(350)에 저장하도록 구성될 수도 있다. 전술한 바와 같은 본 발명에 따른 3차원 모델 검색 서버(300)의 데이터베이스(350) 구축 기능에 대해서는 도 2 내지 도 7을 참조하여 더 구체적으로 설명하도록 한다.That is, as described above, the three-dimensional model search server 300 according to the present invention uses the one depth image acquired from the entry-level three-dimensional camera 110 connected to the user terminal 100, . Therefore, according to the present invention, there is an advantage that query data can be obtained very easily compared with the conventional techniques using the three-dimensional model data itself as a query. However, since the three-dimensional model search system according to the present invention uses only one depth image for search, there is a problem that information required for the similarity comparison may be significantly lacked compared to the conventional techniques using the three-dimensional model itself as a query have. Therefore, in order to solve such a problem, it is necessary to efficiently match one depth image, which is a query image, with depth images of a three-dimensional model stored in the database 350. Since the depth image that can be obtained through the z-buffer by rendering a three-dimensional model can vary in various ways depending on the position of the camera, the camera viewpoint can be represented in a portion where the user is likely to shoot, It should be sampled. Accordingly, the three-dimensional model search server 300 according to the present invention determines the importance of a corresponding three-dimensional model of a specific camera view considering factors such as a curvature of a three-dimensional model, a projected area, and a camera posture, And may be configured to adaptively sample camera views for acquiring a depth image for a three-dimensional model according to importance. Since the camera views are adaptively sampled based on the importance, the camera views having a high probability of being photographed by the user and / or the camera views containing a lot of information of the three-dimensional model can be adaptively determined. Accordingly, the three-dimensional model search server 300 according to the present invention adaptively determines camera points relatively important for the three-dimensional model, acquires depth images for the corresponding three-dimensional model at each determined camera point, Dimensional model database 350 can be constructed by expressing the corresponding three-dimensional model as a plurality of acquired depth images. For example, the three-dimensional model search server 300 according to the present invention expresses one three-dimensional model as 100 depth images obtained from adaptively sampled camera views, and structures the three-dimensional model in the database 350 Or < / RTI > According to the embodiment, instead of storing the obtained depth images themselves in the database 350, the three-dimensional model search server 300 according to the present invention extracts similarities from the depth images obtained according to a predetermined algorithm (E.g., a rotation invariant descriptor) necessary for the comparison, and store the generated information in the database 350. [ The database 350 construction function of the three-dimensional model search server 300 according to the present invention will be described in more detail with reference to FIG. 2 to FIG.

따라서, 전술한 바와 같은 본 발명에 따른 3차원 모델 검색 서버(300)에 의해 구축되는 3차원 모델 검색 데이터베이스(350)에는 복수의 3차원 모델들 각각이 복수의 깊이 영상들(또는 유사도 비교에 필요한 깊이 영상으로부터 획득될 수 있는 정보들)로서 구조화되어 저장된다. 실시예를 구성하기에 따라, 본 발명에 따른 3차원 모델 검색 데이터베이스(350)는 3차원 모델 자체를 저장하도록 구성될 수도 있으며, 또는 3차원 모델에 해당되는 깊이 영상들의 집합만을 저장하도록 구성될 수도 있다. Therefore, in the three-dimensional model search database 350 constructed by the three-dimensional model search server 300 according to the present invention as described above, each of the plurality of three-dimensional models is divided into a plurality of depth images Information that can be obtained from the depth image). According to the embodiment, the three-dimensional model search database 350 according to the present invention may be configured to store a three-dimensional model itself, or may be configured to store only a set of depth images corresponding to a three-dimensional model have.

또한, 본 발명에 따른 3차원 모델 검색 서버(300)는 사용자 단말기(100)로부터 전송되는 단일 깊이 영상을 질의 영상으로서 수신하고, 수신된 질의 영상과 3차원 모델 검색 데이터베이스(350)에 저장되어 있는 깊이 영상들의 유사도를 비교하며, 유사도 비교결과에 따라 질의 영상에 매칭되는 3차원 모델(들)의 정보를 추출하여 사용자 단말기(100)로 전송하도록 구성될 수 있다. 실시예를 구성하기에 따라, 본 발명에 따른 3차원 모델 검색 서버(300)는 질의 영상과 데이터베이스(350)에 저장되어 있는 깊이 영상들 자체를 비교하도록 구성될 수도 있다. 또는, 전술한 바와 같이, 깊이 영상들로부터 생성된 회전불변 기술자가 데이터베이스(350)에 저장되어 있는 경우, 본 발명에 따른 3차원 모델 검색 서버(300)는 데이터베이스 구축시 사용된 회전불변 기술자를 생성 알고리즘을 질의 영상에 적용하여 질의 영상에 대응되는 회전불변 기술자를 생성하고, 이를 데이터베이스(350)에 저장되어 있는 회전불변 기술자들과 비교함으로써 유사도를 판단하도록 구성될 수도 있다. 전술한 바와 같은 본 발명에 따른 3차원 모델 검색 서버(300)의 3차원 모델 검색 기능에 대해서는 도 2, 도 8을 참조하여 더 구체적으로 설명하도록 한다.In addition, the 3D model search server 300 according to the present invention receives a single depth image transmitted from the user terminal 100 as a query image, and stores the received query image and the 3D model search database 350, which are stored in the 3D model search database 350 Dimensional model (s) matched to the query image according to the result of the similarity comparison, and transmits the extracted information to the user terminal 100. The 3D model search server 300 according to the present invention may be configured to compare the query image with the depth images stored in the database 350 itself. Alternatively, as described above, when the rotation invariant descriptor generated from the depth images is stored in the database 350, the 3D model search server 300 according to the present invention generates the rotation invariant descriptor used in the database construction The similarity degree may be determined by applying the algorithm to the query image to generate a rotation invariant descriptor corresponding to the query image and comparing it with the rotation invariant descriptors stored in the database 350. [ The three-dimensional model search function of the three-dimensional model search server 300 according to the present invention as described above will be described in more detail with reference to FIG. 2 and FIG.

한편, 도 1에서 본 발명에 따른 3차원 모델 검색 서버(300)가 3차원 모델 데이터베이스 구축 및 3차원 모델 검색 기능을 모두 수행하는 것으로 도시되어 있으나, 실시예를 구성하기에 따라 물리적으로 및/또는 논리적으로 분리된 별개의 서버들이 각각의 기능을 수행하도록 구성될 수 있음은 당업자에게 자명할 것이다. 또한, 전술한 바와 같은 3차원 모델 검색 서버(300)의 3차원 모델 데이터베이스 구축 기능을 초기에 데이터베이스 구축시 오프라인 상에서 1회 수행될 수 있으며, 추후 3차원 모델이 추가되는 경우 그때마다 추가되는 3차원 모델에 대하여 수행될 수 있다. 한편, 전술한 바와 같은 3차원 모델 검색 서버(300)의 3차원 모델 검색 기능을 온라인 상에서 실시간으로 수행된다.
Although FIG. 1 illustrates that the three-dimensional model search server 300 according to the present invention performs both a three-dimensional model database construction and a three-dimensional model search function, the three-dimensional model search server 300 may physically and / It will be apparent to those skilled in the art that separate, logically separate servers can be configured to perform their respective functions. In addition, the three-dimensional model database construction function of the three-dimensional model search server 300 as described above can be performed once on the off-line at the time of database construction at the beginning, and when the three-dimensional model is added later, Model. ≪ / RTI > Meanwhile, the three-dimensional model search function of the three-dimensional model search server 300 as described above is performed on-line in real time.

IIII . 3차원 모델 검색 서버의 구성과 기능. Configuration and function of 3D model search server

도 2는 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버(300)의 구성 블록도이다. 도 2에 도시된 바와 같이, 본 발명에 따른 3차원 모델 검색 서버(300)는 전술한 바와 같은 3차원 모델 데이터베이스(350)를 구축하기 위한 데이터베이스 생성부(310)와, 3차원 모델 검색 기능을 수행하기 위한 질의영상 처리부(320) 및 검색 처리부(330)를 포함할 수 있다.
2 is a block diagram of a configuration of a three-dimensional model search server 300 according to an exemplary embodiment of the present invention. 2, the three-dimensional model search server 300 according to the present invention includes a database generation unit 310 for building the three-dimensional model database 350 as described above, a three- A query image processing unit 320 and a search processing unit 330 for performing the search.

1. 3차원 모델 검색 데이터베이스의 구축 - 3차원 모델의 다중 깊이 영상 기반 표현1. Construction of 3D model search database - Multi-depth image based representation of 3D model

이하에서, 3차원 모델의 다중 깊이 영상 표현(multple depth image-based representation)을 위한 적응적 시점 샘플링 기법을 설명한다. 다중 깊이 영상 기반 표현이란 3차원 형상이 복수의 깊이 영상으로부터 생성될 수 있다는 개념에 기초하여, 3차원 모델을 각각의 다른 시점에서 취득한 수개의 깊이 영상 집합으로 표현하는 방법이다. 본 발명에서는 3차원 카메라를 통해 취득한 질의 깊이 영상과 3차원 모델 간의 비교를 위하여 데이터베이스(350)에 저장되는 각각의 3차원 모델을 다중 깊이 영상 기반으로 표현하였다. 하지만 기존의 깊이 영상 기반 검색 알고리즘이 3차원 모델을 둘러싼 구면체상에 균일하게 샘플링된 시점에서 3차원 모델을 렌더링한 것과 달리 본 발명에서는 3차원 모델의 기하학적 형태를 고려한 적응적 시점 샘플링을 통해 단 한 장의 질의 깊이 영상을 이용한 3차원 모델 검색이 보다 효과적으로 이루어질 수 있도록 하였다.Hereinafter, an adaptive point-in-time sampling technique for a multple depth image-based representation of a three-dimensional model will be described. The multi-depth image-based representation is a method of expressing a three-dimensional model as a set of several depth images acquired at different points of view, based on the concept that a three-dimensional shape can be generated from a plurality of depth images. In the present invention, each three-dimensional model stored in the database 350 is represented by a multi-depth image for comparison between the query depth image acquired through the three-dimensional camera and the three-dimensional model. However, unlike the conventional depth image-based retrieval algorithm that renders a three-dimensional model at a point when it is uniformly sampled on a spherical body surrounding the three-dimensional model, in the present invention, an adaptive point- The 3D model search using the query depth image of the field can be performed more effectively.

도 2에 도시된 바와 같이, 본 발명에 따른 데이터베이스 생성부(310)는 정규화 모듈(312), 카메라 시점 결정모듈(314), 및 회전불변 기술자 생성모듈(316)을 포함할 수 있다. 또한, 도 3은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버에서 수행되는 3차원 모델 검색 데이터베이스 구축과정을 도시한 순서도이다. 이하에서, 도 2의 데이터베이스 생성부(310)의 구성 블록도 및 도 3의 순서도를 참조하여, 본 발명에 따른 3차원 모델 검색 서버(300)에서 수행되는 3차원 모델 검색 데이터베이스(350)의 구축과정에 대하여 상세하게 살펴보도록 한다.2, the database generation unit 310 according to the present invention may include a normalization module 312, a camera viewpoint determination module 314, and a rotation invariant descriptor generation module 316. 3 is a flowchart illustrating a 3D model search database building process performed by the 3D model search server according to an exemplary embodiment of the present invention. Hereinafter, the construction of the three-dimensional model search database 350 performed by the three-dimensional model search server 300 according to the present invention will be described with reference to the block diagram of the database generation unit 310 of FIG. 2 and the flowchart of FIG. Let's take a closer look at the process.

먼저, 도 3에 도시되어 있는 바와 같이, 본 발명에 따른 데이터베이스 생성부(310)는 3차원 모델 검색 데이터베이스를 구축하기 위하여, 복수의 3차원 모델들 중 하나를 선택한다(S300). 데이터베이스 생성부(310)는 선택된 3차원 모델에 대하여, 3차원 모델 정규화 단계(S302), 초기 카메라 시점 설정 단계(S304), 중요도 계산 단계(S306), 카메라 시점의 적응적 샘플링 단계(S308), 및 회전불변 기술자 생성 및 저장 단계(S310)를 수행하여, 선택된 3차원 모델을 복수의 회전불변 기술자들의 집합으로써 표현 및 저장하도록 구성된다. 전술한 바와 같은 S302 단계 내지 S310 단계는 3차원 모델 검색 데이터베이스 구축의 대상이 되는 모든 3차원 모델들에 대하여 반복적으로 수행된다. 이하에서 각각의 단계를 보다 구체적으로 설명하도록 한다.3, the database generating unit 310 according to the present invention selects one of a plurality of three-dimensional models to construct a three-dimensional model search database (S300). The database generating unit 310 generates a three-dimensional model using the three-dimensional model normalization step S302, the initial camera viewpoint setting step S304, the importance calculating step S306, the camera viewpoint adaptive sampling step S308, And a rotation invariant descriptor creation and storage step (S310), so as to represent and store the selected three-dimensional model as a plurality of sets of rotation invariant descriptors. Steps S302 to S310 as described above are repeatedly performed on all three-dimensional models that are objects of building a three-dimensional model search database. Each step will be described in more detail below.

1-1. 3차원 모델의 정규화 단계(1-1. The normalization step of the three-dimensional model S302S302 ))

데이터베이스(350)의 3차원 모델들은 지역 좌표계에서의 크기, 원점, 방향이 모두 다르다. 따라서 3차원 모델의 다중 깊이 영상 표현에 앞서 데이터베이스(350)의 모든 3차원 모델에 대해 정규화 과정이 필요하다. 따라서, 본 발명에 따른 정규화 모듈(312)은 선택된 3차원 모델에 대하여 적어도 하나 이상의 정규화를 수행하도록 구성된다. 실시예를 구성하기에 따라 이러한 3차원 모델의 정규화 단계(S302)는 선택된 3차원 모델에 대하여 개별적으로 수행될 수도 있으며, 또는 데이터베이스(350) 내의 모든 3차원 모델들에 대하여 정규화 단계를 미리 수행하도록 구성될 수도 있다. 보다 구체적으로, 본 발명에 따른 정규화 모듈(312)은 먼저 3차원 모델의 중심이 좌표의 중심에 오도록 3차원 모델을 이동시킴으로써 이동 정규화를 수행한다. 한편, 본 발명에서 제안하는 회전불변 기술자는 회전의 변화에는 강인하지만 크기 변화에 민감하다. 따라서 본 발명에 따른 정규화 모듈(312)은 3차원 모델이 단위 구면체에 내접하도록 3차원 모델의 크기 정규화를 수행한다.The three-dimensional models of the database 350 are different in size, origin, and direction in the local coordinate system. Therefore, a normalization process is required for all three-dimensional models of the database 350 prior to multi-depth image representation of the three-dimensional model. Thus, the normalization module 312 according to the present invention is configured to perform at least one normalization on a selected three-dimensional model. This embodiment of the three-dimensional model normalization step S302 may be performed separately for the selected three-dimensional model, or may be performed for all three-dimensional models in the database 350 in advance . More specifically, the normalization module 312 according to the present invention performs the motion normalization by first moving the three-dimensional model such that the center of the three-dimensional model is at the center of the coordinates. On the other hand, the rotation invariant descriptor proposed in the present invention is robust to changes in rotation but is sensitive to size variations. Accordingly, the normalization module 312 according to the present invention performs size normalization of the three-dimensional model so that the three-dimensional model is inscribed in the unit spherical body.

1-2. l면체를 통한 초기 카메라 시점 설정 단계(1-2. Initial camera viewpoint setting step through l-bevel ( S304S304 ))

시점 기반 방식 유사도 측정을 위한 회전불변 기술자 생성에 앞서, 데이터베이스 내의 3차원 모델을 특정 카메라 시점에서 렌더링하고 깊이 영상을 취득해야 한다. 따라서, S302 단계에서 3차원 모델에 대한 정규화가 완료되면, 본 발명에 따른 카메라 시점 결정모듈(314)은 초기 카메라 시점을 설정하기 위하여, 크기 정규화 과정에서 사용된 단위 구면체에 내접하는 l면체(l은 4 이상의 양의 정수)를 설정하고, l면체를 구성하는 각각의 정점을 초기 카메라 시점으로 설정하도록 구성될 수 있다. 이때, l면체는 바람직하게 20면체로 설정될 수 있으며, 또한 20면체를 구성하는 각각의 면은 삼각면으로 구성될 수 있다. 이하에서, 이해 및 설명의 편의를 위하여, 20면체를 설정하여 초기 카메라 시점을 결정하고, 이를 중요도에 따라 적응적으로 샘플링하도록 구성된 실시예를 기준으로 설명하나, 본 발명이 이에 한정되는 것은 아니다.Before generating the rotation invariant descriptor for the viewpoint-based similarity measurement, the 3D model in the database must be rendered at a specific camera viewpoint and the depth image must be acquired. Accordingly, when normalization of the three-dimensional model is completed in step S302, the camera viewpoint determination module 314 according to the present invention sets the initial camera viewpoint by using the lobes l Is a positive integer of 4 or more), and sets each vertex constituting the lobed body to the initial camera point of view. At this time, the lobe may be preferably set to an icosahedron, and each of the faces constituting the icosahedron may be triangular. Hereinafter, for the sake of convenience of understanding and explanation, an icosahedron is set to determine an initial camera viewpoint, and it is configured to adaptively sample it according to importance, but the present invention is not limited thereto.

본 발명에 따른 카메라 시점 결정모듈(314)은 단위 반지름 크기의 구에 내접하는 20면체(icosahedron)에 대해 메쉬 분할 기법(mesh subdivision)을 적용하여 카메라 시점을 샘플링하도록 구성될 수 있다. 도 4는 종래기술에 따른 20면체의 메쉬 분할 결과를 나타낸 예시도로서, 좌측에는 설정된 20면체가 도시되어 있으며, 우측에는 종래기술에 따라 20면체를 메쉬 분할한 결과가 도시되어 있다. 20면체의 모든 정점에 대해 메쉬 분할을 적용하는 경우, 도 4의 우측에 도시된 바와 같이 표면에 균일한 정점을 가진 단위 구면체를 만들어낼 수 있으며 각 정점은 구의 중심을 바라보는 카메라의 시점을 의미한다. 하지만 이와 같은 방법, 모든 정점에 대하여 균일하게 메쉬 분할을 수행하는 경우, 3차원 형상의 특징을 고려하지 않았으므로 단 한 장의 부분 깊이 영상을 질의 데이터로 사용하는 알고리즘으로의 적용에 비효율적이다. 균일한 시점의 샘플링으로 인하여 유사도 비교에 불필요한 시점들이 샘플링 될 수 있으며, 이는 검색 정확도의 저하와 함께 데이터의 낭비를 또한 가져올 수 있기 때문이다. 따라서 전술한 바와 같은 문제점을 해결하기 위하여, 본 발명에 따른 카메라 시점 결정모듈(314)은 3차원 모델 각각의 기하학적 형태를 고려하여 유사도 검색에 적절한 시점들을 적응적으로 샘플링하도록 구성될 수 있다. 이하에서, 이러한 본 발명에 따른 카메라 시점 결정모듈(314)에 의해 수행되는 카메라 시점의 적응적 샘플링에 대해 구체적으로 살펴본다.The camera viewpoint determination module 314 according to the present invention may be configured to sample a camera viewpoint by applying a mesh subdivision to an icosahedron which is in contact with a sphere having a unit radius. FIG. 4 is a diagram showing a mesh division result of an icosahedron according to the related art. In FIG. 4, a set icosahedron is shown on the left side, and a result of mesh division of an icosahedron is shown on the right side. When meshing is applied to all the vertexes of the icosahedron, a unit sphere having a uniform vertex on the surface can be created as shown in the right side of FIG. 4. Each vertex represents the viewpoint of the camera that looks at the center of the sphere do. However, this method, when uniformly dividing the mesh into all vertices, does not take into consideration the feature of the 3D shape, so it is ineffective in application to an algorithm that uses only one partial depth image as the query data. Since unnecessary points in the similarity comparison can be sampled due to sampling at a uniform point in time, this can lead to waste of data as well as deterioration in search accuracy. Therefore, in order to solve the above-described problems, the camera viewpoint determination module 314 according to the present invention may be configured to adaptively sample points suitable for similarity search considering the geometry of each of the three-dimensional models. Hereinafter, the adaptive sampling of the camera viewpoint performed by the camera viewpoint determination module 314 according to the present invention will be described in detail.

1-3. 서로 다른 카메라 시점에 대한 깊이 영상의 중요도 계산 단계(1-3. A step of calculating importance of depth images for different camera viewpoints S306S306 ))

초기 카메라 시점이 설정되면, 본 발명에 따른 카메라 시점 결정모듈(314)은 설정된 초기 카메라 시점들 각각에서 3차원 모델에 대한 깊이 영상을 획득하고, 획득된 깊이 영상들 각각에 대한 중요도를 산출하도록 구성될 수 있다. 깊이 영상의 중요도란, 특정 카메라 시점에서 획득된 깊이 영상이 해당 3차원 모델을 얼마나 잘 표현하고 있는지, 및/또는 사용자가 질의 영상으로서 촬영할 깊이 영상과 유사할 가능성이 얼마나 높은지를 정규화하여 수치적으로 나타낸 것이다. 따라서, 중요도가 높은 깊이 영상은 중요도가 낮은 깊이 영상에 비하여 해당 3차원 모델의 특징적인 부분을 상대적으로 더 많이 포함하고 있거나, 및/또는 사용자가 질의 영상으로서 촬영할 확률이 상대적으로 높다는 것을 의미한다. 또한, 깊이 영상의 중요도는 해당 깊이 영상이 획득된 카메라 시점의 중요도와도 혼용될 수 있다. 본 발명에 따른 카메라 시점 결정모듈(314)은 카메라 위치에 따라 달라지는 3차원 모델의 중요도(saliency)를 계산하여 카메라 시점의 적응적 샘플링을 수행하도록 구성될 수 있다. 중요도는 카메라 시점에 따라 달라지는 3차원 모델의 투영된 면적(area), 곡률(curvature) 그리고 카메라의 자세(pose) 중 적어도 하나 이상에 기초하여 결정될 수 있다. 각각의 중요도 요소는 0.0 ~ 1.0 사이의 정규화 된 값을 갖게 되며, 카메라 시점 v에 따른 전체 중요도 S(v)는 다음의 수학식 1과 같이 각각의 가중치가 적용된 세 가지 중요도 요소의 합으로 계산될 수 있다.When the initial camera viewpoint is set, the camera viewpoint determination module 314 according to the present invention acquires a depth image for the 3D model at each of the set initial camera viewpoints, and calculates a degree of importance for each of the obtained depth images . The importance of the depth image is obtained by normalizing how well the depth image obtained at a specific camera view expresses the corresponding three-dimensional model and / or the likelihood that the user is likely to be similar to the depth image to be captured as a query image, . Therefore, the depth image having a high degree of importance includes relatively more characteristic parts of the 3D model than the depth image having low importance, and / or the user has a relatively high probability of shooting as a query image. Also, the importance of the depth image can be mixed with the importance of the camera viewpoint at which the depth image is acquired. The camera viewpoint determination module 314 according to the present invention can be configured to perform adaptive sampling of the camera viewpoint by calculating the saliency of the 3D model depending on the camera position. The importance can be determined based on at least one of a projected area, a curvature, and a camera pose of a three-dimensional model that varies depending on a camera viewpoint. Each importance factor has a normalized value between 0.0 and 1.0, and the total importance S (v) according to the camera viewpoint v is calculated as the sum of the three importance factors to which each weight is applied, as shown in the following Equation 1 .

Figure pat00001
Figure pat00001

중요도를 계산하기 위한 가중치들은 필요에 따라 다양하게 설정될 수 있다. 예를 들어, 3차원 모델에 따라 면적이 중요한 경우 면적에 부여되는 가중치가 다른 가중치들에 비하여 상대적으로 높게 설정될 수 있다. 보다 바람직하게, 본 발명의 일 실시예에 있어 각각의 가중치는 α=1.0, β=1.5, γ=0.8로 설정될 수 있으며, 이러한 경우 최적의 검색 성능을 보일 수 있다.The weights for calculating the importance can be variously set as needed. For example, if the area is important according to the three-dimensional model, the weight given to the area may be set relatively higher than the other weights. More preferably, in one embodiment of the present invention, each weight can be set to alpha = 1.0, beta = 1.5, gamma = 0.8, and in this case, optimal search performance can be shown.

1-3-1. 면적(1-3-1. area( areaarea ) 중요도) importance

본 발명에 따른 카메라 시점 결정모듈(314)은 특정 카메라 시점에서 투영된 3차원 모델의 면적이 클수록 면적 중요도를 높게 계산하도록 구성될 수 있다. 일반적으로 투영된 물체의 면적이 클수록 물체의 특징을 잘 표현할 수 있는 시점이라고 할 수 있다. 그러나, 각각의 3차원 모델이 나타낼 수 있는 최대 면적은 모두 다르기 때문에, 투영된 면적을 절대적인 수치로 표현하여 중요도로 사용할 수는 없다. 따라서 면적 중요도를 정규화시키는데 사용하기 위해 단위 구면체 상의 균일한 시점을 샘플링하고, 해당 시점에서 투영된 객체의 면적을 비교하여 각각의 3차원 모델이 투영되어 나타날 수 있는 최대 면적을 추정하도록 구성될 수 있다. 따라서 본 발명에 따른 카메라 시점 결정모듈(314)에서, 최종적인 면적 중요도 Area(v)는 다음의 수학식 2와 같이, 카메라 시점 v에서 투영되는 물체의 전경 영역을 F(x)라 했을 때, 이에 포함되는 화소의 총 개수와 해당 3차원 모델이 나타낼 수 있는 최대 화소수의 비로 계산될 수 있다.The camera viewpoint determination module 314 according to the present invention can be configured to calculate the area importance degree as the area of the three-dimensional model projected at a specific camera view is larger. Generally, the larger the area of the projected object, the more time it can express the characteristics of the object. However, since the maximum area that each three-dimensional model can represent is different, the projected area can not be expressed as an absolute value and can not be used as the importance. Therefore, it is possible to sample a uniform viewpoint on the unit spherical surface for use in normalizing the area importance, and to compare the area of the projected object at that point of time to estimate the maximum area that each three-dimensional model can project and appear . Accordingly, in the camera viewpoint determination module 314 according to the present invention, the final area importance area (v) is defined as F (x) when the foreground area of the object projected at the camera viewpoint v is represented by the following equation (2) And can be calculated as a ratio of the total number of pixels included in the three-dimensional model to the maximum number of pixels that the three-dimensional model can represent.

Figure pat00002
Figure pat00002

수학식 2에서, Areamax는 투영된 3차원 모델이 나타날 수 있는 최대 면적을 의미한다.In Equation 2, Area max means the maximum area that the projected three-dimensional model can appear.

1-3-2. 곡률(1-3-2. curvature( curvaturecurvature ) 중요도) importance

또한, 본 발명에 따른 카메라 시점 결정모듈(314)은 특정 카메라 시점에서 투영된 3차원 모델의 표면이 큰 곡률을 많이 포함하고 있을수록 곡률 중요도를 높게 계산하도록 구성될 수 있다. 면적 중요도와 함께 투영된 물체 영역의 표면에서 큰 곡률을 많이 포함하고 있을수록, 이는 3차원 모델의 특징을 잘 나타내는 시점이라고 할 수 있다. 면적 중요도와 마찬가지로 절대적인 수치를 그대로 사용할 수 없으므로, 균일하게 샘플링된 시점에서 투영된 3차원 모델의 평균 곡률 합을 비교하여 최대 평균 곡률 합을 추정하고, 이를 정규화시키는데 사용하였다. 따라서 본 발명에 따른 카메라 시점 결정모듈(314)에서, 곡률 중요도 Curvature(v)는 다음의 수학식 3과 같이 카메라 시점 v에서 투영되는 물체의 표면 F(x)에 속하는 모든 화소 x에서의 평균 곡률 C(x)의 절대값의 총 합과 앞서 구한 최대 평균 곡률 합의 비로 계산될 수 있다.In addition, the camera viewpoint determination module 314 according to the present invention can be configured to calculate the curvature importance as the surface of the three-dimensional model projected at a specific camera view contains a large amount of curvature. The larger the curvature is contained in the surface of the projected object area together with the area importance, the better the characteristic point of the 3D model. Since the absolute value can not be used as the area importance, the maximum average curvature sum is estimated by comparing the average curvature sum of the projected three-dimensional model at the time of uniformly sampled, and is used for normalizing it. Therefore, in the camera viewpoint determination module 314 according to the present invention, the curvature importance Curvature (v) is calculated from the curvature importance curvature (v) of all the pixels x belonging to the surface F (x) Can be calculated as the ratio of the sum of the absolute values of C (x) to the sum of the maximum average curvatures obtained previously.

Figure pat00003
Figure pat00003

수학식 3에서, Curvaturemax는 투영된 3차원 모델이 나타날 수 있는 최대 곡률 합이며, 평균 곡률 C(x)는 다음의 수학식 4와 같이 인접 정점 과와의 주 곡률(principal curvature)인 최소 곡률 kmin과 최대 곡률 kmax의 평균으로 계산될 수 있다.In Equation (3), Curvature max is the maximum curvature sum at which the projected three-dimensional model can be represented, and the average curvature C (x) is the minimum curvature, which is the principal curvature k min and the maximum curvature k max .

Figure pat00004
Figure pat00004

1-3-3. 카메라 자세(1-3-3. Camera posture posepose ) 중요도) importance

또한, 본 발명에 따른 카메라 시점 결정모듈(314)은 특정 카메라 시점에서 상기 3차원 모델을 바라보는 방향과 상기 3차원 모델의 상부가 가리키는 방향(수직 방향 : upright direction)과의 사이 각도가 작을수록 상기 카메라 자세 중요도를 높게 계산하도록 구성될 수 있다. 보다 구체적으로, 실세계에 존재하는 물체에 대한 영상을 취득한다고 가정할 때, 물체의 상부가 가리키는 방향을 수직 방향(upright direction)이라고 한다. 카메라가 바라보는 방향과 수직 방향의 사이 각도가 작을수록 영상이 취득될 확률이 높음과 동시에 물체의 특징을 많이 보유하고 있을 확률이 높다. 이는 대체로 평탄한 면에 놓여져 있는 일반적인 물체는 상부에 많은 특징을 갖고 있기 때문이다. 따라서 다음의 수학식 5에 나타낸 바와 같이, 본 발명에 따른 카메라 시점 결정모듈(314)은 카메라의 방향과 수직 방향 사이의 각 θv에 따라, 물체의 가장 아래 부분에서 최소, 수직 방향과 카메라 방향이 동일할 때 최대의 값을 갖도록, 카메라 자세 중요도를 계산하도록 구성될 수 있다.In addition, the camera viewpoint determination module 314 according to the present invention determines that the angle between the direction in which the three-dimensional model is viewed at a specific camera viewpoint and the direction (vertical direction) The camera posture importance degree can be calculated to be high. More specifically, assuming that an image of an object existing in the real world is acquired, the direction indicated by the upper portion of the object is referred to as an upright direction. The smaller the angle between the camera's direction and the vertical direction, the higher the probability that the image will be acquired and the more likely it is that it possesses many features of the object. This is because a general object, which is usually placed on a flat surface, has many features at the top. Therefore, as shown in the following Equation (5), the camera viewpoint determination module 314 according to the present invention determines the camera viewpoint according to the angle &thetas; v between the direction of the camera and the vertical direction, The camera posture importance can be calculated so as to have the maximum value at the same time.

Figure pat00005
Figure pat00005

도 5a 및 도 5b는 카메라 시점에 따른 중요도 변화결과를 나타낸 예시도이다. 도 5a 및 도 5b에는 이상에서 설명한 세가지 중요도의 카메라 시점에 따른 변화를 종합한 두 가지 3차원 모델이 도시되어 있다. 도 5a 및 도 5b에 있어, 3차원 모델의 색상은 표면에서의 평균 곡률을 나타내며, 붉은색 영역은 큰 곡률을, 초록색 영역은 낮은 곡률을 갖는 것을 의미한다.5A and 5B are exemplary diagrams showing the result of importance change according to the camera viewpoint. FIGS. 5A and 5B show two three-dimensional models synthesizing the above-described three-degree-of-view camera-dependent changes. 5A and 5B, the hue of the three-dimensional model indicates the average curvature at the surface, the red region has a large curvature, and the green region has a low curvature.

1-4. 카메라 시점의 1-4. Camera viewpoint 적응적Adaptive 샘플링 단계( Sampling step ( S308S308 ))

각 카메라 시점에서의 중요도를 구한 후, 본 발명에 따른 카메라 시점 결정모듈(314)은 20면체를 이루는 각각의 면에 대하여 해당 면을 구성하는 각 카메라 시점들의 중요도에 기초하여 해당 면의 중요도를 계산하도록 구성될 수 있다. 즉, 본 발명에 따른 카메라 시점 결정모듈(314)은 가장 높은 중요도를 갖는 부분에서 보다 많은 카메라 시점을 샘플링하기 위해 다음의 수학식 6을 사용하여 삼각형(즉, 20면체의 각 면)을 이루는 모든 정점 집합의 중요도 S(i,j,k)를 계산한다. 이러한 방식으로 계산된 면의 중요도는 20면체를 적응적으로 메쉬 분할하기 위하여 사용될 수 있다.The camera viewpoint determination module 314 according to the present invention calculates the importance of each surface of the icosahedron based on the importance of each camera viewpoints constituting the surface, . That is, the camera viewpoint determination module 314 according to the present invention uses the following equation (6) to sample more camera viewpoints in the portion having the highest importance, The importance S (i, j, k) of the vertex set is calculated. The importance of the surface calculated in this way can be used to adaptively mesh the icosahedron.

Figure pat00006
Figure pat00006

즉, 각 시점의 중요도만을 이용해 메쉬 분할을 수행하게 되면, 분할된 시점에서의 중요도 역시 매우 높은 값을 갖게 되기 때문에 어느 한 부분에서만 집중적으로 정점 분할이 이루어질 수 있다. 따라서 본 발명에 따른 카메라 시점 결정모듈(314)은 이를 방지하기 위해 분할된 깊이만큼의 가중치를 추가적으로 적용하도록 구성될 수 있다. n은 정점들이 분할된 최대 깊이를 나타내며, 초기값은 0으로 설정된다. 예시적인 일 실시예에 있어, 가중치는 λ=0.8로 설정될 수 있으며, 이를 통해 20면체의 메쉬 분할이 어느 한쪽으로만 집중되지 않게 된다. 따라서, 본 발명에 따른 카메라 시점 결정모듈(314)은 전술한 바와 같은 수학식 6을 이용하여 각 면의 중요도를 계산하고, 계산된 면의 중요도에 기초하여 미리 설정된 조건이 충족될 때까지 20면체의 메쉬 분할을 수행하도록 구성된다. 예를 들어, 본 발명에 따른 카메라 시점 결정모듈(314)은 100개의 카메라 시점이 획득될 때까지 메쉬 분할을 수행하여 카메라 시점을 적응적으로 샘플링하도록 구성될 수 있다. That is, if mesh division is performed using only the importance of each viewpoint, the importance degree at the divided viewpoint also becomes a very high value, so that vertex segmentation can be intensively concentrated in only one part. Accordingly, the camera viewpoint determination module 314 according to the present invention can be configured to additionally apply a weight corresponding to the divided depth to prevent this. n represents the maximum depth at which the vertices are divided, and the initial value is set to zero. In an exemplary embodiment, the weights can be set to [lambda] = 0.8 so that the mesh segmentation of the icosahedron is not concentrated on either side. Accordingly, the camera viewpoint determining module 314 calculates the importance of each face using Equation (6) as described above, and calculates the camera viewpoint determination module 314 based on the degree of importance of the calculated face, To perform mesh division of the mesh. For example, the camera viewpoint determination module 314 according to the present invention may be configured to perform mesh segmentation until 100 cameraviews are obtained to adaptively sample the camera viewpoint.

도 6a 내지 도 6d는 중요도를 계산하기 위한 가중치들의 변화에 따른 카메라 시점 샘플링 결과를 비교한 예시도이다. 도 6a 내지 도 6d에 지금까지 설명한 가중치 α, β, γ, λ의 변화에 따른 적응적 샘플링 결과가 도시되어 있다. 도 6a는 다른 가중치들을 β=0.1, γ=0.1, λ=0.8로 설정한 상태에서, α를 0.1, 0.3, 1.0, 2.0으로 변화시킨 카메라 시점 샘플링 결과를 나타낸다. 도 6a에서 확인될 수 있는 바와 같이, 면적 중요도의 가중치 α가 커질수록 보다 큰 면적이 투영될 수 있는 카메라 위치(3차원 모델 좌

Figure pat00007
우측)에 많은 시점들이 샘플링된다. 또한, 도 6b는 다른 가중치들을 α=0.1, γ=0.1, λ=0.8로 설정한 상태에서, β를 0.1, 0.3, 1.0, 2.0으로 변화시킨 카메라 시점 샘플링 결과를 나타낸다. 도 6b에서 확인될 수 있는 바와 같이, 곡률 중요도의 가중치 β가 커질수록 곡률 변화가 많은 부분(3차원 모델 좌
Figure pat00008
우측)에 보다 많은 시점이 샘플링되는 것을 확인할 수 있다. FIGS. 6A to 6D are diagrams for comparing sampling results of camera point-of-view according to changes in weights for calculating importance. 6A to 6D show adaptive sampling results according to the changes of the weights a, beta, gamma and lambda described so far. Fig. 6A shows the result of sampling the camera at a point in time at which α is changed to 0.1, 0.3, 1.0, and 2.0 with different weights set to β = 0.1, γ = 0.1 and λ = 0.8. As can be seen from FIG. 6A, the camera position (the height of the three-dimensional model, which can be projected with a larger area)
Figure pat00007
Right side) are sampled. FIG. 6B shows the result of sampling the camera at a point in time that β is changed to 0.1, 0.3, 1.0, 2.0 in a state where other weights are set to α = 0.1, γ = 0.1 and λ = 0.8. As can be seen from Fig. 6 (b), as the weight value beta of the curvature importance increases,
Figure pat00008
It is possible to confirm that more time points are sampled on the right side.

또한, 도 6c는 다른 가중치들을 α=0.1, β=0.1, λ=0.8로 설정한 상태에서, γ를 0.1, 0.3, 1.0, 2.0으로 변화시킨 카메라 시점 샘플링 결과를 나타낸다. 도 6c에서 확인될 수 있는 바와 같이, 카메라 자세 중요도의 가중치 γ가 커질수록 수직 방향 근처에서 많은 시점이 샘플링되는 것을 확인할 수 있다. 마지막으로, 도 6d는 다른 가중치들을 α=0.1, β=1.5, γ=0.8로 설정한 상태에서, λ를 0.7, 0.8, 0.9, 1.0으로 변화시킨 카메라 시점 샘플링 결과를 나타낸다. 도 6d에서 확인될 수 있는 바와 같이, 순활 분할 깊이에 따른 가중치 λ가 작아질수록 균일한 시점 샘플링에 가까워지고, 반대로 λ가 커질수록 특정 부분으로 수렴하여 20면체의 메쉬 분할이 이루어지는 것을 확인할 수 있다. 도 7은 본 발명에 따라 소정의 가중치를 사용하여 카메라 시점을 샘플링한 결과를 나타내는 예시도이다. 도 7에는 최종적으로 본 발명의 일 실시예에서 사용한 가중치(α=1.0, β=1.5, γ=0.8, λ=0.8)를 적용한 카메라 시점 샘플링 결과를 도시하였다.FIG. 6C shows a result of sampling the camera at a point in time at which γ is changed to 0.1, 0.3, 1.0 and 2.0 while other weights are set to α = 0.1, β = 0.1 and λ = 0.8. As can be seen from FIG. 6C, it can be seen that as the weight value gamma of the camera posture importance becomes larger, many points are sampled in the vicinity of the vertical direction. Finally, FIG. 6D shows the result of sampling the camera at a point where λ is changed to 0.7, 0.8, 0.9, 1.0 with different weights set at α = 0.1, β = 1.5, and γ = 0.8. As can be seen from FIG. 6 (d), as the weighting factor λ according to the depth of the depletion layer is decreased, it becomes closer to uniform sampling at the sampling point. Conversely, as λ becomes larger, . FIG. 7 is an exemplary diagram showing a result of sampling a camera viewpoint using a predetermined weight according to the present invention. FIG. FIG. 7 shows a result of sampling the camera at the final stage using the weights (α = 1.0, β = 1.5, γ = 0.8, λ = 0.8) used in the embodiment of the present invention.

1-5. 깊이 영상들에 대한 회전불변 기술자 생성 단계(1-5. A step of generating a rotation invariant descriptor for the depth images S310S310 ))

본 발명에 따른 카메라 시점 결정모듈(314)이 전술한 단계들(S304 내지 S308)을 수행하여 카메라 시점들을 적응적으로 샘플링하고 샘플링된 카메라 시점들을 해당 3차원 모델에 대한 깊이 영상을 획득하기 위한 카메라 시점들로 결정하면, 본 발명에 따른 회전불변 기술자 생성모듈(316)은 샘플링된 카메라 시점들 각각에서 깊이 영상을 획득하고, 획득된 깊이 영상에 대한 회전불변 기술자를 생성하도록 구성된다. The camera viewpoint determination module 314 according to the present invention performs the above-described steps S304 to S308 to adaptively sample camera viewpoints and to sample the camera viewpoints to obtain a depth image for the corresponding three- The rotation invariant descriptor generation module 316 according to the present invention is configured to acquire a depth image at each of the sampled camera views and to generate a rotation invariant descriptor for the acquired depth image.

사용자 단말기(100)의 3차원 카메라(110)로부터 입력받은 질의 깊이 영상과 다중 깊이 영상으로 표현된 영상은 카메라의 회전에 대한 정보를 포함하지 않는다. 따라서 렌더링된 모든 깊이 영상에 대해 회전불변 기술자를 생성하여 유사도 측정이 이루어져야 한다. 이를 위해 본 발명에 따른 회전불변 기술자 생성모듈(316)은 저니크(Zernike) 모멘트를 사용하여 깊이 영상에 대한 회전불변 기술자를 생성하도록 구성될 수 있다. 다만, 본 발명이 저니크 모멘트를 사용하는 것에 한정되는 것은 아니며, 회전불변 특성을 갖는 소정의 정보를 생성할 수 있는 다양한 공지된 기법들이 필요에 따라 채택되어 사용될 수 있으며, 이러한 경우에도 본 발명의 기술적 요지를 포함하고 있는 한 본 발명의 권리범위에 속함은 당업자에게 자명할 것이다. 저니크 모멘트는 단위 원 안에서 직교하는 복소 다항식(complex polynomials)들의 집합이므로 회전불변 특성을 갖고 있으며, 다음의 수학식 7에 제시한 바와 같이 영상 f(x,y)를 직교 기저함수로 투영함으로써 얻을 수 있다. N은 영상의 해상도를 나타내며 k와 m은 저니크 모멘트의 차수를 나타낸다. 차수 k는 k∈N+를 만족하는 자연수이며, m은

Figure pat00009
이고,
Figure pat00010
가 짝수임을 만족시키는 모든 자연수이다. 본 발명의 예시적인 일 실시예에 따른 회전불변 기술자 생성모듈(316)은 차수 k를 13까지 계산하여 하나의 깊이 영상당 56개의 저니크 모멘트를 생성하도록 구성될 수 있다.The query depth image input from the 3D camera 110 of the user terminal 100 and the image represented by the multi-depth image do not include information about the rotation of the camera. Therefore, similarity measurement should be performed by generating a rotation invariant descriptor for all rendered depth images. For this, the rotation invariant descriptor generation module 316 according to the present invention may be configured to generate a rotation invariant descriptor for the depth image using a Zernike moment. However, the present invention is not limited to the use of the low-nike moment, and various known techniques capable of generating predetermined information having rotation-invariant characteristics may be employed as needed, and in such a case, It will be apparent to those skilled in the art that various modifications and changes may be made without departing from the scope of the invention. Since the low nike moment is a set of complex polynomials orthogonal to each other in the unit circle, it has a rotation invariant characteristic and can be obtained by projecting the image f (x, y) as an orthogonal basis function as shown in Equation (7) . N represents the resolution of the image, and k and m represent the degree of the low-nike moment. The order k is a natural number satisfying k ∈ N + , and m is
Figure pat00009
ego,
Figure pat00010
Is an even number. The rotation invariant descriptor generation module 316 according to an exemplary embodiment of the present invention may be configured to calculate the order k up to 13 to generate 56 low nike moments per depth image.

Figure pat00011
Figure pat00011

수학식 7에서, 차수 k와 m에 따른 방사 다항식(radial polynomial) Rkm은 다음의 수학식 8과 같이 정의된다.In Equation (7), a radial polynomial R km according to the orders k and m is defined by the following equation (8).

Figure pat00012
Figure pat00012

이는 차수 k에 대해 O(K3)의 복잡도를 가지므로 모든 깊이 영상의 기술자를 생성하는 데에 있어, 매번 연산하는 것은 매우 비효율적이다. 한편 동일한 해상도의 영상에서의 다항식 Rkm은 모두 동일한 크기를 가지므로, 본 발명에 따른 회전불변 기술자 생성모듈(316)은 단 한번의 연산 후 스펙트럼을 저장해 두고 이를 다른 영상의 기술자 생성에 재활용하여 연산을 최소화하도록 구성될 수 있다.Since it has a complexity of O (K 3 ) with respect to the degree k, it is very inefficient to calculate every depth image descriptor every time. Meanwhile, since the polynomials R km in the image of the same resolution all have the same size, the rotation invariant descriptor generation module 316 according to the present invention stores the spectrum after a single operation and reuses it to generate descriptors of other images, . ≪ / RTI >

전술한 바와 같은 과정을 통해, 하나의 3차원 모델이 중요도에 기초하여 적응적으로 샘플링된 복수의 카메라 시점들에서 획득된 복수의 깊이 영상들로서 표현되어 3차원 모델 검색 데이터베이스(350)에 구조화되어 저장될 수 있으며, 보다 바람직하게 복수의 깊이 영상들 각각으로부터 생성되는 복수의 회전불변 기술자로서 3차원 모델이 표현되어 3차원 모델 검색 데이터베이스(350)에 구조화되어 저장될 수 있다. 예를 들어, 본 발명에 따른 데이터베이스 생성부(310)는 하나의 3차원 모델에 대하여 적응적으로 샘플링된 100개 카메라 시점들 각각에서 깊이 영상들을 획득하고, 각각의 깊이 영상마다 56개의 저니크 모멘트들을 생성하여 3차원 모델을 표현하도록 구성될 수 있다. 이러한 경우, 하나의 3차원 모델은 5600개의 저니크 모멘트들로 표현될 수 있다.
Through the procedure described above, one three-dimensional model is expressed as a plurality of depth images obtained at a plurality of camera views adaptively sampled based on the importance, structured in a three-dimensional model search database 350 and stored Dimensional model as a plurality of rotation invariant descriptors generated from each of the plurality of depth images, and may be structured and stored in the three-dimensional model search database 350. For example, the database generation unit 310 according to the present invention acquires depth images at each of the 100 camera views adaptively sampled for one 3D model, and obtains 56 low-nike moments Dimensional model to represent the three-dimensional model. In this case, one three-dimensional model can be represented by 5600 low-nick moments.

2. 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색2. Content-based 3D model search using single depth image

다시 도 2를 참조하면, 도 2에 도시된 바와 같이, 본 발명에 따른 3차원 모델 검색 서버(300)는 사용자 단말기(100)로부터 전송된 단일 깊이 영상을 질의 영상으로서 수신하고, 수신된 질의 영상에 매칭되는 3차원 모델 검색을 수행하기 위한 질의영상 처리부(320) 및 검색 처리부(330)를 포함할 수 있다. 본 발명에 따른 질의영상 처리부(320)는 수신된 질의 영상을 3차원 모델 검색에 적합하도록 처리하는 기능을 수행하도록 구성되며, 검색 처리부(330)는 질의영상 처리부(320)로부터 출력되는 처리된 질의 영상과 3차원 모델 검색 데이터베이스(350)에 저장된 깊이 영상 간의 유사도를 비교하여 검색을 수행하도록 구성될 수 있다. 또한, 전술한 바와 같은 기능을 수행하기 위하여, 본 발명에 따른 질의영상 처리부(320)는 필터 모듈(322), 원근보정 모듈(324), 및 회전불변 기술자 생성모듈(316)을 포함할 수 있다. 한편, 도 8은 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 서버에서 수행되는 3차원 모델 검색과정을 도시한 순서도이다. 이하에서, 도 2 및 도 8을 참조하여, 본 발명에 따른 3차원 모델 검색 서버(300)에서 수행되는 내용기반 3차원 모델 검색과정에 대하여 상세하게 살펴보도록 한다. 2, the 3D model search server 300 according to the present invention receives a single depth image transmitted from the user terminal 100 as a query image and transmits the received query image And a search processor 330 for performing a three-dimensional model search matching with the search image. The query processing unit 320 according to the present invention is configured to process the received query image to be suitable for three-dimensional model search, and the search processing unit 330 searches the query image output from the query image processing unit 320 And compare the similarity between the image and the depth images stored in the three-dimensional model search database 350 to perform a search. In order to perform the functions as described above, the query image processing unit 320 according to the present invention may include a filter module 322, a perspective correction module 324, and a rotation invariant descriptor generation module 316 . FIG. 8 is a flowchart illustrating a three-dimensional model search process performed by the three-dimensional model search server according to an exemplary embodiment of the present invention. Hereinafter, a content-based three-dimensional model search process performed by the three-dimensional model search server 300 according to the present invention will be described in detail with reference to FIG. 2 and FIG.

2-1. 질의 영상의 2-1. Of the query image 필터링Filtering 단계( step( S802S802 ))

본 발명에 따른 질의영상 처리부(320)는 사용자 단말기(100)로부터 전송되는 단일 깊이 영상을 질의 영상으로서 수신하고(S800), 수신된 질의 영상을 3차원 모델 검색에 적합하도록 처리하는 기능(S802, S804)을 수행하도록 구성될 수 있다. 이러한 기능을 수행하기 위하여, 본 발명에 따른 질의영상 처리부(320)는 수신된 질의 영상에 대해 3차원 카메라의 잡음을 제거하는 필터 모듈(322) 및 질의 영상의 원근성분을 제거하는 원근보정 모듈(324)을 포함할 수 있다.The query image processor 320 according to the present invention receives a single depth image transmitted from the user terminal 100 as a query image (S800) and processes the received query image to be suitable for three-dimensional model search (S802, S804). ≪ / RTI > In order to perform such a function, the query image processor 320 according to the present invention includes a filter module 322 for removing noise of the 3D camera from the received query image, and a perspective correction module 322 for removing the perspective component of the query image 324).

먼저 질의 영상의 필터링에 대하여 구체적으로 살펴보도록 한다. 본 발명에서 제안하는 3차원 모델 검색 알고리즘은 질의 데이터로서 잡음을 포함한 한 장의 깊이 영상만을 사용하므로 정제된 깊이 영상이 반드시 필요하다. 따라서 본 발명에 따른 필터 모듈(322)은 외곽선이 보존되는 평활화 필터인 양방향-필터링(bilateral-filtering) 기법을 통해 수신된 질의 영상의 3차원 카메라의 잡음을 제거하도록 구성될 수 있다. 즉, 화소의 위치 p에서의 필터링 결과 Ibilateral(p)는, 마스크 S에 포함되는 주변 화소 q에 대해 화소간의 공간적 거리(

Figure pat00013
)와 화소의 밝기(intensity) 차이(
Figure pat00014
)에 따라 변화하는 가우시안 가중치(Gaussian weight)
Figure pat00015
Figure pat00016
를 화소 p의 Iq에 곱하고, S 내부 화소의 수
Figure pat00017
에 의해 정규화 함으로서 얻을 수 있다. 이를 수식으로 표현하면 다음의 수학식 9와 같다.First, the filtering of the query image will be described in detail. Since the 3D model search algorithm proposed in the present invention uses only one depth image including noise as query data, a refined depth image is necessarily required. Therefore, the filter module 322 according to the present invention can be configured to remove the noise of the 3D camera of the query image received through the bilateral-filtering technique, which is a smoothing filter that preserves the outline. That is, the filtering result I bilateral (p) at the pixel position p is the spatial distance between pixels
Figure pat00013
) And the intensity difference of the pixel (
Figure pat00014
Gaussian weight < RTI ID = 0.0 > (Gaussian weight) <
Figure pat00015
Wow
Figure pat00016
Multiplies the I q of the pixel p, the number of pixels inside S
Figure pat00017
By normalization. This can be expressed by the following equation (9).

Figure pat00018
Figure pat00018

이러한 방식으로, 본 발명에 따른 필터 모듈(322)은 화소간의 공간적 거리와 화소의 밝기 차이를 함께 고려하여 영상을 필터링함으로써 깊이 영상의 잡음을 효과적으로 제거함과 동시에 객체의 윤곽을 유지할 수 있다.In this way, the filter module 322 according to the present invention can effectively remove the noise of the depth image and maintain the outline of the object by filtering the image by considering the spatial distance between the pixels and the brightness difference of the pixels.

2-2. 질의 영상의 원근보정 단계(2-2. The perspective correction step of the query image ( S804S804 ))

본 발명에 따른 원근보정 모듈(324)은 필터링된 질의 영상에 대하여 원근성분을 제거하도록 구성될 수 있다. 시점기반의 3차원 모델 검색을 위해서는 모든 깊이 영상에서 동일한 투영이 이루어져야 한다. 이를 위해 데이터베이스(350)의 3차원 모델의 깊이 영상을 질의 영상과 동일한 원근(perspective) 성분을 가진 환경에서 취득하거나, 또는 질의 영상의 원근성분을 제거하고 데이터베이스(350)의 3차원 모델의 깊이 영상을 직교투영(orthogonal projection)하여 취득하는 두 가지의 방법을 사용할 수 있다. 본 발명에서는 데이터베이스(350)의 3차원 모델의 깊이 영상이 직교 투영되도록 하고, 3차원 카메라(110)로부터의 질의 깊이 영상은 원근 성분을 제거하여 두 영상에서 동일하게 직교투영이 이루어지도록 하였다. 따라서, 본 발명에 따른 원근보정 모듈(324)은, 질의 깊이 영상의 모든 화소를 3차원 공간의 점군(point cloud)로 나타내고, 이를 다시 직교투영(orthogonal projection)하여 깊이 영상을 다시 취득함으로써, 질의 깊이 영상의 원근 성분 제거를 수행하도록 구성된다. 여기서 깊이 영상의 화소를 점군으로 나타내기 위해서는 2차원 영상에서가 아니라 실제 3차원 공간에서 화소의 좌표를 구해야 하며 이는 다음의 수학식 10을 통해 수행된다.Perspective correction module 324 according to the present invention may be configured to remove perspective components for the filtered query image. In order to search the 3D model based on the viewpoint, the same projection must be performed on all depth images. To this end, the depth image of the three-dimensional model of the database 350 is acquired in an environment having the same perspective component as the query image, or the perspective component of the query image is removed, Two orthogonal projection methods can be used. In the present invention, the depth image of the three-dimensional model of the database 350 is orthogonally projected, and the query depth image from the three-dimensional camera 110 is orthogonalized in both images by removing the perspective components. Accordingly, the perspective correction module 324 according to the present invention displays all the pixels of the query depth image in a point cloud of a three-dimensional space, and orthogonally projects the pixels again to acquire the depth image again, To remove the perspective component of the depth image. In order to represent the pixels of the depth image by the point cloud, the coordinates of the pixel in the actual three-dimensional space should be obtained not by the two-dimensional image but by the following Equation (10).

Figure pat00019
Figure pat00019

수학식 10에 있어, (u,v)는 취득된 깊이 영상에서 화소의 좌표이며, x, y, z는 각각 실제 3차원 공간의 세 주축에 대한 점군의 좌표를 의미한다. 그리고 Cx, Cy는 카메라의 주점(principal point)을 뜻하며, F는 카메라의 초점 거리, d(u,v)는 깊이 영상 화소의 좌표 (u,v)에서의 깊이값이다.In Equation (10), (u, v) is the coordinates of the pixel in the acquired depth image, and x, y, and z are the coordinates of the point group with respect to the three principal axes of the actual three-dimensional space. And C x, C y will mean liquor (principal point) of the camera, F is the depth value at the camera's focal length, d (u, v) is the depth coordinates of the image pixels (u, v).

2-3. 질의 영상의 회전불변 기술자 생성 단계(2-3. The rotation invariant descriptor generation step of the query image ( S806S806 ))

한편, 본 발명에 따른 질의영상 처리부(320) 내에 포함되는 회전불변 기술자 생성모듈(326)은 데이터베이스(350) 내에 저장된 3차원 모델들에 대한 회전불변 기술자들과의 질의 영상을 비교하기 위하여, 필터링되고 원근성분이 제거된 질의 영상에 대하여 회전불변 기술자를 생성하도록 구성된다. 질의영상 처리부(320) 내에 포함되는 회전불변 기술자 생성모듈(326)은 전술한 바와 같은 데이터베이스 생성부(310) 내의 회전불변 기술자 생성모듈(316)과 실질적으로 동일한 알고리즘을 이용하여 질의 영상에 대한 회전불변 기술자를 생성하므로, 중복되는 설명은 생략하기로 한다. 또한, 질의영상 처리부(320) 내에 포함되는 회전불변 기술자 생성모듈(326)과 데이터베이스 생성부(310) 내의 회전불변 기술자 생성모듈(316)과 실질적으로 동일하므로, 3차원 모델 검색 서버(300)가 데이터베이스 구축 기능과 3차원 모델 검색 기능을 모두 수행하도록 구성되는 경우, 2개의 회전불변 기술자 모듈들(316, 326) 중 하나가 생략될 수 있다. 본 발명에 따른 질의영상 처리부(320) 내에 포함되는 회전불변 기술자 생성모듈(326)은 질의 영상에 대한 회전불변 기술자, 즉, 저니크 모멘트들을 생성하여 검색 처리부(330)로 출력하게 된다.Meanwhile, the rotation invariant descriptor generation module 326 included in the query image processing unit 320 according to the present invention performs filtering on the query invariant descriptors to compare the query images with the rotation invariant descriptors for the three-dimensional models stored in the database 350, And generates a rotation invariant descriptor for the query image from which the perspective component has been removed. The rotation invariant descriptor generation module 326 included in the query image processing unit 320 performs a rotation on the query image using the substantially same algorithm as the rotation invariant descriptor generation module 316 in the database generation unit 310, Since the invariant descriptor is generated, a duplicate description will be omitted. Since the rotation invariant descriptor generating module 326 included in the query image processing unit 320 and the rotation invariant descriptor generating module 316 included in the database generating unit 310 are substantially identical to each other, When configured to perform both the database building function and the three-dimensional model search function, one of the two rotation invariant descriptor modules 316 and 326 can be omitted. The rotation invariant descriptor generation module 326 included in the query image processor 320 according to the present invention generates a rotation invariant descriptor for the query image, that is, low nike moments, and outputs the rotation invariant descriptor to the search processor 330.

2-4. 유사도 비교 및 검색결과 생성단계(2-4. Similarity comparison and search result generation step ( S808S808 내지  To S812S812 ))

본 발명에 따른 검색 처리부(330)는 질의영상 처리부(320)로부터 출력되는 질의 영상에 대한 회전불변 기술자들을 입력받고, 질의 영상의 회전불변 기술자와 데이터베이스(350) 내에 저장되어 있는 3차원 모델들에 대한 회전불변 기술자를 비교함으로써 유사도를 비교하도록 구성된다. The search processor 330 receives the rotation invariant descriptors for the query image output from the query image processor 320 and receives the rotation invariant descriptors of the query image and the 3D models stored in the database 350 And comparing the similarity by comparing the rotation invariant descriptors.

2-4-1. 기술자를 통한 유사도 계산2-4-1. Calculating similarity through technicians

본 발명에 따른 검색 처리부(330)에 의해 최종적으로 질의 영상의 기술자와 데이터베이스(350) 내의 모든 3차원 모델에 대한 기술자가 각각 비교된다. 다음의 수학식 11에 나타낸 바와 같이 각 모델의 차이(dissimilarity) D는 n개의 카메라 시점들에 대해 질의 데이터와의 저니크 모멘트 차이를 최소화하는 시점과의 차이 값이 되며, D가 작을수록 질의 영상에 대한 해당 3차원 모델의 유사도가 높은 것으로 판단된다.The descriptor of the query image is finally compared with the descriptors of all the three-dimensional models in the database 350 by the search processor 330 according to the present invention. As shown in the following Equation (11), the dissimilarity D of each model is a difference value from the point at which the difference of the low nike moments with the query data is minimized for the n camera views, and as D becomes smaller, It is determined that the degree of similarity of the corresponding three-dimensional model is high.

Figure pat00020
Figure pat00020

최종적으로 본 발명에 따른 검색 처리부(330)는 D가 작은 순서대로 3차원 모델들을 선택하고, 선택된 3차원 모델들에 대한 정보를 포함하는 검색결과를 생성하여 사용자 단말기(100)로 전송함으로써 3차원 모델 검색 방법을 종료하게 된다.Finally, the search processing unit 330 according to the present invention selects three-dimensional models in descending order of D, generates search results including information on the selected three-dimensional models, and transmits the search results to the user terminal 100, The model search method ends.

2-4-2. 유사도 측정의 병렬화2-4-2. Parallelization of similarity measure

한편 보다 바람직하게, 본 발명에 따른 검색 처리부(330)는 유사도 측정을 위한 이상의 수학식 11에 대해 NVIDIA CUDA(compute unified device architecture)를 적용하여 GPGPU(general purpose GPU)를 통한 병렬화 연산을 수행하도록 구성될 수 있다. 본 발명에 따른 3차원 모델 검색 알고리즘을 데이터가 매우 방대한 웹 서비스로 확장할 경우 실시간으로 유사모델 검색이 가능해야 하며, 이를 위해서는 병렬화를 통한 연산의 고속화가 반드시 필요하기 때문이다. 또한 수학식 11은 동일한 입력 데이터(즉, 질의 영상으로부터 생성된 동일한 회전불변 기술자)

Figure pat00021
에 대해 모든 스레드(thread)에서 독립적으로 연산이 수행될 수 있기 때문에 병렬화에 적합하다. The search processor 330 according to the present invention is configured to perform a parallelization operation using a general purpose GPU (GPGPU) by applying NVIDIA compute unified device architecture (CUDA) to Equation (11) . When the three-dimensional model search algorithm according to the present invention is extended to a very large amount of web service, it is necessary to search similar models in real time. For this, it is necessary to speed up the calculation through parallelization. Equation 11 also shows that the same input data (i.e., the same rotation invariant descriptor generated from the query image)
Figure pat00021
Is suitable for parallelism since operations can be performed independently on all threads.

유사도 측정의 병렬처리 과정을 보다 구체적으로 살펴보도록 한다. 우선 데이터베이스(350) 내에 저장된 모든 3차원 모델들 및 시점들에 대한 기술자

Figure pat00022
와 질의 영상에 대한 기술자
Figure pat00023
를 GPU 메모리로 복사한다. 데이터 복사가 완료되면, pqn개의 스레드를 생성하고, 각각의 스레드 내부에서 수학식 11의 질의 데이터의 기술자와 각 모델과 시점에 대한 기술자 간 차이
Figure pat00024
를 계산한다. 이 과정의 결과로서 각각의 스레드에서는 질의 데이터의 km차 기술자와 데이터베이스(350)의 동일 차수 기술자간의 차가 구해진다. 그리고 스래드의 총 개수가 i라고 하였을 때 ni번째 해당하는 스레드에서 ni+pq 스레드까지 결과값의 합을 구하면 이것이 최종적인 n-view에서의 유사도가 된다.
The parallel processing of similarity measurement will be described in more detail. First, a descriptor for all three-dimensional models and views stored in the database 350
Figure pat00022
And descriptors for query images
Figure pat00023
To the GPU memory. When data copying is completed, pqn threads are created, and in each thread, the descriptor of the query data of Equation (11) and the difference between descriptors for each model and the time
Figure pat00024
. As a result of this process, the difference between the km-order descriptor of the query data and the same-order descriptor in the database 350 is found in each thread. And when the total number of threads is i, the sum of the results from the ni-th thread to the ni + pq thread is obtained, which is the similarity in the final n-view.

IIIIII . 본 발명에 따른 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법의 성능 평가. Performance evaluation of content-based 3D model retrieval method using single depth image according to the present invention

이하에서 본 발명의 일 실시예에 따른 3차원 모델 검색 방법을 이용한 3차원 모델의 검색 결과 및 성능 분석을 제시한다. 2.5GHz Intel Core2 Quad CPU, NVIDIA GeForce GTX570 GPU, 2GB 메모리의 Windows 7 환경에서 Visual Studio 및 C언어를 사용하여 3차원 모델 검색 인터페이스를 구현하였다. 실험에 사용된 3차원 모델로는 PSB (Princeton Shape Benchmark) 검색 엔진 테스트용 3차원 모델 데이터베이스를 사용하였다. PSB는 907개의 3차원 모델과 131개의 클래스(class)로 구성되어 있다. 또한 OpenGL 환경에서 64*64 해상도로 데이터베이스의 3차원 모델을 렌더링하여 다중 시점 깊이 영상을 취득하였으며, 다중 깊이 영상 기반 표현을 위한 3차원 모델의 중요도 파악 과정은 512*512 해상도에서 3차원 모델을 렌더링하여 이루어졌다.Hereinafter, a search result and performance analysis of a three-dimensional model using a three-dimensional model search method according to an embodiment of the present invention will be presented. We implemented a 3D model search interface using Visual Studio and C language in Windows 7 environment with 2.5GHz Intel Core2 Quad CPU, NVIDIA GeForce GTX570 GPU and 2GB memory. The three-dimensional model used for the experiment was a three-dimensional model database for PSB (Princeton Shape Benchmark) search engine test. The PSB consists of 907 three-dimensional models and 131 classes. In addition, the 3D depth model of the database is rendered by rendering the 3D model of the database at 64 * 64 resolution in the OpenGL environment, and the process of determining the importance of the 3D model for multi depth image based representation is performed by rendering the 3D model at the resolution of 512 * .

먼저, 3차원 모델 검색 데이터베이스(350)를 구축해 놓은 상태에서, 질의 영상이 3차원 모델 검색 서버(300)에 입력되었을 때 3차원 모델 검색에 소요되는 시간을 표 1에 나타내었다. Table 1 shows the time required for three-dimensional model search when a query image is input to the three-dimensional model search server 300 in a state where the three-dimensional model search database 350 is constructed.

수행 단계Steps to Perform 수행 시간(msec)Execution time (msec) 입력 질의 영상의 전처리 과정Preprocessing process of input query image 14.314.3 기술자 생성 과정Technician creation process 109.8109.8 유사도 비교 과정
Similarity comparison process
GPUGPU 400.4400.4
CPUCPU 1381.61381.6 전체 수행시간
Total run time
GPUGPU 524.5524.5
CPUCPU 1505.71505.7

표 1에 나타난 바와 같이, GPU를 통한 병렬처리를 이용함으로써 CPU 사용대비 약 30%로 검색 시간을 단축할 수 있음을 확인할 수 있다. 이는 데이터베이스(350)의 규모가 커질수록 더욱 큰 효율을 주게 될 것이다.As shown in Table 1, it can be seen that the search time can be shortened to about 30% of the CPU usage by using the parallel processing through the GPU. The larger the size of the database 350, the greater the efficiency.

본 발명의 일 실시예에 따른 3차원 모델 검색 방법의 성능 분석을 위하여 정밀도-재현률(precision-recall) 측정을 수행하였다. 정밀도-재현률 측정법은 검색 성능 비교에서 가장 일반적인 척도로 사용되는 방법이며, 재현률(recall)이란 검색 모델에 대응하는 클래스에 속한 전체 모델 중 실제 검색에 사용된 모델의 비율로서 클래스의 전체 모델 중 검색을 통해 찾고자 하는 모델의 개수의 비율에 해당하는 수치이다. 또한 정밀도(precision)는 검색된 모델들이 질의에 사용된 모델에 대응하는 클래스에 속하는 비율을 나타내며, 다시 말하여 모델을 검색한 결과가 사용자의 원하는 클래스에 속한 비율이 된다. 즉 정밀도-재현률 그래프는 일반적으로 재현률 수치가 증가할수록 수치가 감소하게 되는데, 곡선이 위쪽에 위치하며 재현률 증가에 따른 정밀도 수치의 감소량이 적을수록 우수한 성능의 검색 알고리즘이라고 할 수 있다.In order to analyze the performance of the three-dimensional model search method according to an embodiment of the present invention, a precision-recall measurement was performed. The precision-recall measure is the most commonly used measure in the search performance comparison. The recall is the ratio of the model used in the actual search among all the models belonging to the class corresponding to the search model. This is a figure corresponding to the ratio of the number of models to be searched. Also, the precision indicates the ratio of the retrieved models to the class corresponding to the model used in the query. In other words, the result of retrieving the model is a rate belonging to the user's desired class. In other words, the precision-recall graph generally decreases as the recall value increases. When the recall rate increases, the curve decreases.

1. 실제 물체의 영상을 통한 성능 분석1. Performance analysis of real object images

보급형 3차원 카메라(110)로서 Kinect를 이용하여 실제 물체를 통한 유사 3차원 모델 검색 성능을 실험하였다. 도 9는 본 발명의 바람직한 일 실시예에 따른 단일 깊이 영상을 질의 영상으로서 이용한 3차원 모델 검색 방법을 사용한 검색 결과를 나타낸 예시도이다. 도 9를 통해 나타난 바와 같이, 본 발명의 일 실시예에 따른 3차원 모델 검색 방법을 통해 보급형 3차원 카메라(110)로부터 한 장의 깊이 영상을 취득하고, 이를 입력 질의로 사용하여 기하학적으로 유사한 모델들을 쉽고 정확하게 검색할 수 있음을 확인할 수 있다.Dimensional 3D model search performance through real objects using Kinect as an entry level three-dimensional camera (110). 9 is a diagram illustrating search results using a three-dimensional model search method using a single depth image as a query image according to a preferred embodiment of the present invention. As shown in FIG. 9, a depth image is acquired from the entry type three-dimensional camera 110 through a three-dimensional model search method according to an embodiment of the present invention, and is used as an input query to generate geometrically similar models It can be easily and accurately detected.

2. 데이터베이스 모델의 깊이 영상을 이용한 성능 분석2. Performance analysis using depth image of database model

3차원 모델 검색 방법의 정확한 성능 분석은 데이터베이스(350)에 속하는 3차원 모델에 대한 깊이 영상을 질의로 하여 이루어져야 한다. 하지만 모든 3차원 모델과 유사하거나 같은 클래스에 속하는 모든 실제 물체의 영상을 취득하는 것은 현실적으로 불가능하다. 따라서 본 발명에서는 PSB 검색 엔진 테스트용 3차원 모델 데이터베이스의 3차원 모델 중 25개 클래스의 총 211개의 3차원 모델에 대해 사용자 분석을 거쳐 중요하다고 판단되는 시점에서의 깊이 영상을 취득하고 이를 입력 질의로 사용하여 제안하는 알고리즘의 정성적인 분석과 정량적인 분석을 각각 수행하였다.The accurate performance analysis of the 3D model retrieval method should be performed by querying the depth image of the 3D model belonging to the database 350. However, it is practically impossible to acquire images of all real objects belonging to classes similar to or the same as all three-dimensional models. Therefore, in the present invention, a depth image at a time determined to be important through a user analysis of a total of 211 three-dimensional models of 25 classes among the three-dimensional models of the three-dimensional model database for PSB search engine test is acquired, The proposed algorithm is analyzed qualitatively and quantitatively.

2-1. 알고리즘의 정성적 성능 분석2-1. Qualitative performance analysis of algorithm

도 10은 본 발명의 바람직한 일 실시예에 따른 단일 깊이 영상을 질의 영상으로서 이용한 3차원 모델 검색 방법을 사용한 검색 결과와 종래기술에 따른 3차원 모델을 질의 영상으로서 이용한 3차원 모델 검색 방법을 사용한 검색 결과를 나타내는 예시도이다. 도 10에 본 발명의 일 실시예에 따른 3차원 모델 검색 방법을 통해 3차원 모델을 검색한 결과와 Princeton University에서 제공하는 3차원 모델 검색 엔진(3D model search engine)을 사용해 검색한 결과를 비교하여 도시하였다. 종래기술에 따른 3차원 모델 검색 엔진에서는 PSB 3차원 모델을 입력 질의로 사용하였으며, 본 발명의 일 실시예에 따른 3차원 모델 검색 방법에서는 동일한 3차원 모델을 통해 취득된 한 장의 깊이 영상을 질의로 사용하였다. 검색 결과 비교에 있어 3차원 모델 검색 엔진은 PSB 뿐만 아니라 36000여개의 방대한 3차원 모델을 데이터베이스로 사용하고 있기 때문에 제안하는 알고리즘을 통한 결과와는 정확히 일치하지 않지만, 단 한장의 깊이 영상을 질의로 사용함에도 비슷한 수준의 결과를 보여주는 것을 정성적으로 파악할 수 있다.10 is a diagram illustrating a search result using a three-dimensional model search method using a single depth image as a query image and a search using a three-dimensional model search method using a three-dimensional model according to the related art as a query image, according to a preferred embodiment of the present invention. Fig. FIG. 10 is a graph illustrating a result of a search using a 3D model search engine according to an embodiment of the present invention and a search using a 3D model search engine provided by Princeton University Respectively. In the 3D model search engine according to the related art, a PSB three-dimensional model is used as an input query. In the three-dimensional model search method according to an embodiment of the present invention, a depth image obtained through the same three- Respectively. Since the 3D model search engine uses not only PSB but also 36,000 vast 3-D models as a database, it does not exactly match the results of the proposed algorithm, but only one depth image is used as the query The results of this study are similar to those of the previous study.

2-2. 알고리즘의 정량적 성능 분석2-2. Quantitative performance analysis of algorithms

도 11은 본 발명의 바람직한 일 실시예에 따른 적응적 시점 샘플링을 적용한 검색결과와 렌더링한 시점을 적용한 검색결과의 성능을 비교한 검색성능 비교 그래프이다. 도 11에 렌더링한 시점을 통한 검색 결과와 적응적 시점 샘플링을 적용한 검색 결과를 정밀도-재현률 수치를 통해 정량적으로 비교하였다. 이상에서 설명된 수학식 1의 면적, 곡률, 카메라 자세의 가중치는 α=1.0, β=1.5, γ=0.8로 설정하였으며, 수학식 6의 메쉬 분할 깊이에 따른 가중치는 λ=0.8로 설정하였다. 결과적으로 적응적 시점 샘플링의 통해 전체적으로 더욱 우수하고 안정적인 검색성능을 보이는 것을 확인할 수 있다. 이는 적응적 시점 샘플링을 통해 검색에 불필요하거나 중요하지 않은 부분에서의 시점 샘플링을 줄이고, 중요한 부분에서는 조밀한 시점을 샘플링함으로써 나타나는 결과라 할 수 있다.FIG. 11 is a graph of comparison of search performance comparing the performance of search results applying adaptive point-in-time sampling and search results applying a render point according to a preferred embodiment of the present invention. FIG. 11 shows a quantitative comparison between the retrieval result through the rendering point and the retrieval result using the adaptive point sampling using the precision-recall rate. The weights of the area, the curvature and the camera attitude of the above-described Equation 1 are set to? = 1.0,? = 1.5 and? = 0.8, and the weight according to the mesh division depth in Equation 6 is set to? = 0.8. As a result, it can be seen that the adaptive point-in-time sampling shows better overall and stable search performance. This is the result of adaptive point-in-time sampling, which reduces the point-in-time sampling in unnecessary or insignificant parts of the search, and sampling the dense point in the critical part.

도 12는 본 발명의 바람직한 일 실시예에 따른 3차원 모델 검색 방법과 다른 검색 방법의 성능을 비교한 검색성능 비교 그래프이다. 마지막으로 도 12에 다른 3차원 모델 검색 알고리즘과의 성능 비교를 도시하였다. 성능 비교는 질의 데이터를 손쉽게 취득한다는 점에서 본 발명과 유사하다고 할 수 있는 사용자의 스케치 영상을 질의로 사용한 시점 기반 방식의 알고리즘과, 3차원 모델 자체를 질의 데이터로 사용하며 시점기반 방식, 히스토그램 기반 방식의 검색 기법을 적용한 알고리즘들과의 정밀도-재현률 평가로 이루어졌다. 도 12을 통해, 부분 깊이 영상만을 입력 질의로 사용함에도 불구하고 3차원 모델 자체를 입력 질의로 사용하는 종래기술에 따른 다른 알고리즘들에 근접한 성능을 보이고 있음을 확인할 수 있다. 특히 본 발명에 따른 3차원 모델 검색 알고리즘은 낮은 재현률에서 매우 높은 수준의 정밀도를 나타내고 있는데, 이는 유사도 비교에 있어 최상위에 속하는 3차원 모델들의 출력이 주요 기능이라 할 수 있는 각종 어플리케이션으로의 적용에 본 발명에서 제안하는 알고리즘이 충분한 경쟁력을 가지고 있음을 뒷받침한다. 또한 스케치 기반 방식보다 다량의 정보를 포함한 깊이 영상을 입력 질의로 사용함으로써 그에 비해 월등한 검색 성능을 나타내고 있는 것에 주목할 필요가 있다. 결과적으로 본 발명에 따른 3차원 모델 검색 알고리즘은 3차원 카메라(110)를 통해 매우 간편한 질의 데이터를 취득할 수 있을 뿐만 아니라, 높은 정확도의 3차원 모델 검색 성능을 제공하고 있음을 파악할 수 있다.
FIG. 12 is a comparative graph of search performance comparing the performance of a three-dimensional model search method and another search method according to a preferred embodiment of the present invention. Finally, FIG. 12 shows performance comparison with other three-dimensional model search algorithms. The performance comparison is based on a viewpoint-based algorithm that uses a sketch image of a user as a query, which is similar to the present invention in that the query data can be obtained easily, and the three-dimensional model itself is used as query data, And the precision - recall rate of the algorithm with the applied search algorithm. 12, it can be seen that although the partial depth image is used as the input query, the performance close to other algorithms according to the prior art using the three-dimensional model itself as the input query is shown. In particular, the three-dimensional model search algorithm according to the present invention exhibits a very high level of accuracy at a low recall rate. This is because the output of the three-dimensional models belonging to the highest level in the similarity comparison is applied to various applications The algorithm proposed by the invention has sufficient competitiveness. In addition, it should be noted that a depth search image containing a larger amount of information than the sketch-based search method is used as an input query. As a result, the three-dimensional model search algorithm according to the present invention not only obtains very simple query data through the three-dimensional camera 110 but also provides high-accuracy three-dimensional model search performance.

IVIV . 결론. conclusion

본 발명에서는 3차원 카메라로부터의 깊이 영상을 이용한 3차원 모델 검색 기법을 제안하였다. 입력 질의 영상의 전처리 과정으로 양방향-필터링을 통해 질의 영상으로서 입력된 깊이 영상의 잡음을 제거하였으며 깊이 영상의 원근 성분을 제거하였다. 또한 3차원 모델의 다중 깊이 영상 기반 표현 과정에서 3차원 모델의 곡률, 투영된 면적, 카메라의 자세를 고려한 모델의 중요도에 따라 적응적으로 카메라 시점을 샘플링하였다. 이렇게 샘플링된 카메라 시점에서의 깊이 영상에 대해 회전불변 기술자를 적용 및 비교함으로써 부분 깊이 영상만으로 정확한 유사 모델 검색 성능을 얻을 수 있었으며 추가적으로 GPU를 통한 병렬화를 통해 검색시간까지 단축시켜, 향후 온라인 서비스 또는 대량의 데이터 서비스로의 적용에 큰 효율을 가져올 수 있도록 하였다.In the present invention, a three-dimensional model retrieval technique using a depth image from a three-dimensional camera is proposed. Through the preprocessing process of the input query image, the noise of the depth image input as the query image was removed through bi - directional filtering and the perspective component of the depth image was removed. Also, in the process of multi - depth image - based representation of the 3D model, the camera viewpoint is adaptively sampled according to the importance of the model considering the curvature, projected area and camera posture of the 3D model. By applying and comparing the rotation invariant descriptor to the depth image at the sampled camera viewpoint, accurate similar model retrieval performance can be obtained only by the partial depth image. In addition, parallelization through GPU can shorten the search time, To be applied to the data service.

본 발명에서 제안한 내용기반 3차원 모델 검색 기법은 단일 깊이 영상만을 질의 입력으로 사용하므로 3차원 카메라뿐만 아니라 스테레오 영상 기기, 모바일 기기 등 다양한 환경으로 확장 및 적용이 가능하다는 것에 주목해야 한다. 따라서, 본 발명은 3차원 카메라를 사용하는 예시적인 실시예에 한정되지 않으며, 이를 적용할 수 있는 다양한 디바이스 및/또는 분야들에 광범위하게 적용될 수 있다.
It should be noted that the content-based 3D model retrieval technique proposed in the present invention can be extended and applied to various environments such as a stereo image device and a mobile device as well as a 3D camera because only a single depth image is used as a query input. Therefore, the present invention is not limited to the exemplary embodiment using a three-dimensional camera, and can be widely applied to various devices and / or fields to which the present invention can be applied.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동되도록 구성될 수 있으며, 그 역도 마찬가지다. Embodiments according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk, and a magnetic tape; optical media such as CD-ROM and DVD; magnetic recording media such as a floppy disk; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

100 : 사용자 단말기 110 : 보급형 3차원 카메라
200 : 네트워크 300 : 3차원 모델 검색 서버
350 : 3차원 모델 검색 데이터베이스
310 : 데이터베이스 생성부 312 : 정규화 모듈
314 : 카메라 시점 결정모듈 316 : 회전불변 기술자 생성모듈
320 : 질의 영상 처리부 322 : 필터 모듈
324 : 원근보정 모듈 324 : 회전불변 기술자 생성모듈
330 : 검색 처리부
100: User terminal 110: Entry-level three-dimensional camera
200: Network 300: 3D model search server
350: 3D model search database
310: Database generation unit 312: Normalization module
314: camera viewpoint determination module 316: rotation invariant descriptor creation module
320: query image processing unit 322: filter module
324: perspective correction module 324: rotation invariant descriptor generation module
330: Search processor

Claims (40)

3차원 모델 검색 서버에 의해 수행되는 3차원 모델 검색 방법에 있어서,
(A) 사용자 단말기로부터 전송되는 단일 깊이 영상을 질의 영상으로서 수신하는 단계;
(B) 수신된 질의 영상으로부터 회전불변 기술자를 생성하는 단계;
(C) 상기 질의 영상의 회전불변 기술자와 미리 저장된 회전불변 기술자들의 유사도를 계산하는 단계; 및
(D) 상기 계산된 유사도를 기초로 적어도 하나 이상의 3차원 모델을 선택하고, 선택된 3차원 모델에 대한 정보를 포함하는 검색 결과를 상기 사용자 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
A three-dimensional model search method performed by a three-dimensional model search server,
(A) receiving a single depth image transmitted from a user terminal as a query image;
(B) generating a rotation invariant descriptor from the received query image;
(C) calculating a similarity between the rotation invariant descriptor of the query image and the previously stored rotational invariant descriptors; And
(D) selecting at least one three-dimensional model based on the calculated similarity, and transmitting a search result including information about the selected three-dimensional model to the user terminal. Content - based 3D model retrieval using image.
청구항 1에 있어서,
상기 (A) 단계는,
(A-1) 사용자 단말기로부터 전송되는 단일 깊이 영상을 질의 영상으로서 수신하는 단계; 및
(A-2) 수신된 질의 영상을 전처리하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method according to claim 1,
The step (A)
(A-1) receiving a single depth image transmitted from a user terminal as a query image; And
(A-2) pre-processing the received query image, wherein the content-based three-dimensional model retrieval method using the single depth image is performed.
청구항 2에 있어서,
상기 (A-2) 단계는,
(A-2-1) 상기 질의 영상의 3차원 카메라 잡음을 필터링하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 2,
The step (A-2)
(A-2-1) filtering the three-dimensional camera noise of the query image, wherein the content-based three-dimensional model search method using the single depth image.
청구항 3에 있어서,
상기 (A-2-1) 단계는 양방향-필터링(bilateral-filtering) 기법을 통해 상기 질의 영상을 필터링하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 3,
Wherein the step (A-2-1) comprises filtering the query image through a bilateral-filtering technique.
청구항 2에 있어서,
상기 (A-2) 단계는,
(A-2-2) 상기 질의 영상의 원근 성분을 제거하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 2,
The step (A-2)
(A-2-2) removing the perspective component of the query image, wherein the content-based three-dimensional model retrieval method using the single depth image.
청구항 5에 있어서,
상기 (A-2-2) 단계는 상기 질의 영상의 모든 화소를 3차원 공간의 점군(point cloud)로 표현하고, 상기 3차원 공간의 점군을 직교투영(orthogonal projection)하여 깊이 영상을 다시 획득함으로써 원근 성분을 제거하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 5,
In the step (A-2-2), all the pixels of the query image are represented by a point cloud of a three-dimensional space, and a point cloud of the three-dimensional space is subjected to orthogonal projection to obtain a depth image again And extracting the perspective component from the extracted depth image.
청구항 1에 있어서,
상기 미리 저장된 회전불변 기술자들은 3차원 모델의 깊이 영상들 각각에 대하여 저니크 모멘트를 이용해 생성되어 저장되며,
상기 (B) 단계는 상기 질의 영상에 대해 저니크 모멘트를 이용해 상기 질의 영상의 회전불변 기술자를 생성하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method according to claim 1,
The previously stored rotational invariant descriptors are generated and stored using a low-nick moment for each depth image of the three-dimensional model,
Wherein the step (B) generates a rotation invariant descriptor of the query image using a low nike moment with respect to the query image.
청구항 1에 있어서,
상기 (C) 단계에서 상기 질의 영상과 3차원 모델 간의 유사도는, 상기 3차원 모델의 깊이 영상들 각각에 대한 저니크 모멘트들과 상기 질의 영상에 대한 저니크 모멘트와의 차이들 중 최소 값으로 결정되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method according to claim 1,
In the step (C), the similarity between the query image and the three-dimensional model is determined as a minimum value among differences between the low-nike moments for the depth images of the three-dimensional model and the low- Dimensional 3D model retrieval method using a single depth image.
청구항 1에 있어서,
상기 (C) 단계에서 3차원 모델들 각각의 깊이 영상들 각각에 대한 저니크 모멘트들과 상기 질의 영상에 대한 저니크 모멘트와의 차이는 독립적으로 병렬로 계산되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method according to claim 1,
Wherein the difference between the low nike moments for each of the depth images of each of the three-dimensional models and the low nike moment for the query image in the step (C) is independently calculated in parallel. Content - based 3D model retrieval method.
청구항 1에 있어서,
상기 미리 저장된 회전불변 기술자들을 저장하는 3차원 모델 검색 데이터베이스는 상기 3차원 모델 검색 서버에 의해 수행되는 3차원 모델 검색 데이터베이스 구축 방법에 의해 구축되며,
상기 3차원 모델 검색 데이터베이스 구축 방법은,
(a) 3차원 모델을 정규화하는 단계; 및
(b) 정규화된 상기 3차원 모델에 대하여 초기 카메라 시점에 대한 중요도를 계산하고, 계산된 중요도에 기초하여 상기 3차원 모델에 대한 카메라 시점을 적응적으로 샘플링하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method according to claim 1,
Dimensional model search database for storing the previously stored rotational invariant descriptors is constructed by a three-dimensional model search database construction method performed by the three-dimensional model search server,
The 3D model search database construction method includes:
(a) normalizing a three-dimensional model; And
(b) calculating a degree of importance for the initial camera viewpoint for the normalized 3D model, and adaptively sampling the camera viewpoint for the 3D model based on the calculated importance. Content - based 3D Model Retrieval Using Single Depth Image.
청구항 10에 있어서,
상기 (a) 단계는,
(a-1) 상기 3차원 모델의 중심이 좌표계의 중심에 오도록 상기 3차원 모델을 이동시키는 이동 정규화 단계; 및
(a-2) 상기 이동된 3차원 모델이 단위 구면체에 내접하도록 상기 3차원 모델의 크기를 조정하는 크기 정규화 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 10,
The step (a)
(a-1) a moving normalization step of moving the three-dimensional model so that the center of the three-dimensional model is at the center of the coordinate system; And
(a-2) a size normalizing step of adjusting the size of the three-dimensional model so that the moved three-dimensional model is inscribed in the unit spherical body.
청구항 11에 있어서,
상기 (b) 단계는,
(b-1) 상기 단위 구면체에 내접하는 l면체(l은 4 이상의 양의 정수)를 설정하고, 상기 l면체를 구성하는 각각의 정점을 상기 정규화된 3차원 모델에 대한 초기 카메라 시점으로 설정하는 단계;
(b-2) 상기 초기 카메라 시점들 각각에 대한 중요도를 계산하는 단계; 및
(b-3) 상기 계산된 초기 카메라 시점들의 중요도들에 기초하여 상기 3차원 모델에 대한 카메라 시점을 적응적으로 샘플링하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 11,
The step (b)
(b-1) setting a lash line (1 is a positive integer of 4 or more) in contact with the unit spherical body, and setting each vertex constituting the lash line to an initial camera point of time for the normalized three-dimensional model step;
(b-2) calculating an importance of each of the initial camera viewpoints; And
(b-3) adaptively sampling the camera viewpoint for the three-dimensional model based on the calculated importance of the initial camera viewpoints. How to search.
청구항 12에 있어서,
상기 (b-2) 단계에서, 상기 초기 카메라 시점의 중요도는 면적 중요도, 곡률 중요도 및 카메라 자세 중요도 중 적어도 하나 이상에 기초하여 계산되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 12,
Wherein the importance of the initial camera viewpoint is calculated based on at least one of an area importance, a curvature importance, and a camera orientation importance in the step (b-2). Way.
청구항 13에 있어서,
상기 면적 중요도는 특정 카메라 시점에서 투영된 3차원 모델의 면적이 클수록 높게 계산되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
14. The method of claim 13,
Wherein the area importance is calculated to be higher as the area of the projected three-dimensional model at a specific camera view is larger.
청구항 13에 있어서,
상기 곡률 중요도는 특정 카메라 시점에서 투영된 상기 3차원 모델 영역의 표면이 상대적으로 큰 곡률을 많이 포함할수록 더 높게 계산되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
14. The method of claim 13,
Wherein the curvature importance is calculated to be higher as the surface of the three-dimensional model region projected at a specific camera view contains a relatively large curvature.
청구항 13에 있어서,
상기 카메라 자세 중요도는 특정 카메라 시점에서 상기 3차원 모델을 바라보는 시선의 위치를 향하는 방향과 상기 3차원 모델의 상부를 가리키는 방향(수직 방향 : upright direction)과의 사이 각도가 작을수록 높게 계산되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
14. The method of claim 13,
The camera posture importance degree is calculated to be higher as the angle between the direction toward the position of the line of sight looking at the 3D model at a specific camera viewpoint and the direction (vertical direction) indicating the upper portion of the 3D model is smaller A 3D 3D model retrieval method using a single depth image.
청구항 12에 있어서,
상기 (b-2) 단계는,
(b-2-1) 상기 l면체를 구성하는 각각의 면에 대하여 해당 면을 구성하는 각 카메라 시점들의 중요도에 기초하여 해당 면의 중요도를 계산하는 단계;
(b-2-2) 상기 계산된 면들 각각의 중요도에 기초하여 미리 설정된 조건이 충족될 때까지 상기 l면체에 대한 메시 분할(mesh division)을 수행하는 단계; 및
(b-2-3) 상기 (b-2-2) 단계에서 최종적으로 메시 분할된 각각의 정점을 상기 3차원 모델에 대한 깊이 영상을 획득하기 위한 적응적 카메라 시점으로 결정하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 12,
The step (b-2)
(b-2-1) calculating a degree of importance of each face constituting the lobed body based on the importance of each camera viewpoints constituting the face;
(b-2-2) performing mesh division on the lobed body until a preset condition is satisfied based on the importance of each of the calculated faces; And
(b-2-3) determining a final mesh-divided vertex in the step (b-2-2) as an adaptive camera viewpoint for acquiring a depth image for the 3D model A 3D 3D model retrieval method using a single depth image.
청구항 10에 있어서,
상기 3차원 모델 검색 데이터베이스 구축 방법은,
(c) 상기 적응적으로 샘플링된 카메라 시점들 각각에서 상기 3차원 모델의 깊이 영상을 획득하는 단계;
(d) 상기 획득된 깊이 영상들 각각에 대한 회전불변 기술자를 생성하는 단계; 및
(e) 상기 생성된 회전불변 기술자들의 집합으로써 상기 3차원 모델을 표현 및 저장하는 단계를 포함하는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 10,
The 3D model search database construction method includes:
(c) obtaining a depth image of the 3D model at each of the adaptively sampled camera views;
(d) generating a rotation invariant descriptor for each of the obtained depth images; And
and (e) expressing and storing the 3D model as a set of the generated rotation invariant descriptors.
청구항 18에 있어서,
상기 (d) 단계에서, 상기 회전불변 기술자는 저니크(Zernike) 모멘트를 사용하여 생성되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
19. The method of claim 18,
Wherein the rotation invariant descriptor is generated using a Zernike moment in the step (d).
청구항 19에 있어서,
상기 Rkm은 저니크 모멘트의 차수 k 및 m에 따른 방사 다항식이며,
상기 방사 다항식은 동일한 해상도의 깊이 영상에서 대해서 한번만 계산되어 스펙트럼으로서 저장되는 것을 특징으로 하는, 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법.
The method of claim 19,
Wherein R km is emitted according to the polynomial order k and m of the low sneak moment,
Wherein the radial polynomial is calculated only once for a depth image of the same resolution and is stored as a spectrum.
청구항 1 내지 청구항 20 중 어느 한 항에 따른 방법을 수행하기 위한 컴퓨터로 판독이 가능한 기록매체.
A computer-readable recording medium for performing the method according to any one of claims 1 to 20.
3차원 모델 검색 서버에 있어서,
사용자 단말기로부터 전송되는 단일 깊이 영상을 질의 영상으로서 수신하고, 상기 수신된 질의 영상으로부터 회전불변 기술자를 생성하는 질의 영상 처리부; 및
상기 질의 영상의 회전불변 기술자와 미리 저장된 회전불변 기술자들의 유사도를 계산하고, 상기 계산된 유사도를 기초로 적어도 하나 이상의 3차원 모델을 선택하고, 선택된 3차원 모델에 대한 정보를 포함하는 검색 결과를 상기 사용자 단말기로 전송하는 검색 처리부를 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버.
A three-dimensional model search server comprising:
A query image processor receiving a single depth image transmitted from a user terminal as a query image and generating a rotation invariant descriptor from the received query image; And
Calculating a degree of similarity between the rotation invariant descriptor of the query image and a previously stored rotational invariant descriptor, selecting at least one or more three-dimensional models based on the calculated similarity, and outputting a search result including information about the selected three- And a search processor for transmitting the search result to the user terminal.
청구항 22에 있어서,
상기 질의 영상 처리부는,
상기 질의 영상의 3차원 카메라 잡음을 필터링하는 필터 모듈;
상기 질의 영상의 원근 성분을 제거하는 원근 보정 모듈; 및
상기 수신된 질의 영상으로부터 회전불변 기술자를 생성하는 회전불변 기술자 생성모듈을 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버.
23. The method of claim 22,
The query image processing unit,
A filter module for filtering three-dimensional camera noise of the query image;
A perspective correction module for removing a perspective component of the query image; And
And a rotation invariant descriptor generation module for generating a rotation invariant descriptor from the received query image.
청구항 23에 있어서,
상기 필터 모듈은 양방향-필터링 기법을 통해 상기 질의 영상을 필터링하는 것을 특징으로 하는, 3차원 모델 검색 서버.
24. The method of claim 23,
Wherein the filter module filters the query image through a bi-directional filtering technique.
청구항 23에 있어서,
상기 원근 보정 모듈은 상기 질의 영상의 모든 화소를 3차원 공간의 점군로 표현하고, 상기 3차원 공간의 점군을 직교투영하여 깊이 영상을 다시 획득함으로써 원근 성분을 제거하는 것을 특징으로 하는, 3차원 모델 검색 서버.
24. The method of claim 23,
Wherein the perspective correction module removes a perspective component by expressing all the pixels of the query image in a point group of a three dimensional space and orthogonally projecting a point group of the three dimensional space to obtain a depth image again. Search server.
청구항 23에 있어서,
상기 미리 저장된 회전불변 기술자들은 3차원 모델의 깊이 영상들 각각에 대하여 저니크 모멘트를 이용해 생성되어 저장되며,
상기 회전불변 기술자 생성모듈은 상기 질의 영상에 대해 저니크 모멘트를 이용해 상기 질의 영상의 회전불변 기술자를 생성하는 것을 특징으로 하는, 3차원 모델 검색 서버.
24. The method of claim 23,
The previously stored rotational invariant descriptors are generated and stored using a low-nick moment for each depth image of the three-dimensional model,
Wherein the rotation invariant descriptor generating module generates a revolving invariant descriptor of the query image by using a low nike moment with respect to the query image.
청구항 23에 있어서,
상기 검색 처리부는, 3차원 모델의 깊이 영상들 각각에 대한 저니크 모멘트들과 상기 질의 영상에 대한 저니크 모멘트와의 차이들 중 최소 값으로서 상기 질의 영상과 3차원 모델 간의 유사도를 계산하는 것을 특징으로 하는, 3차원 모델 검색 서버.
24. The method of claim 23,
The search processing unit calculates the similarity between the query image and the three-dimensional model as a minimum value among differences between the low-nike moments for the depth images of the three-dimensional model and the low- As a three-dimensional model search server.
청구항 27에 있어서,
상기 검색 처리부는, 3차원 모델들 각각의 깊이 영상들 각각에 대한 저니크 모멘트들과 상기 질의 영상에 대한 저니크 모멘트와의 차이를 독립적으로 병렬로 계산하는 것을 특징으로 하는, 3차원 모델 검색 서버.
28. The method of claim 27,
Wherein the search processing unit independently calculates in parallel the difference between the low nike moments for each of the depth images of each of the three-dimensional models and the low nike moment for the query image, .
청구항 22에 있서,
상기 3차원 모델 검색 서버는,
하나 이상의 3차원 모델을 적응적 시점 샘플링 기법을 통해 생성된 깊이 영상들 각각에 대한 회전불변 기술자들의 집합으로써 구조화하여 저장하고 있는 3차원 모델 검색 데이터베이스를 더 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버.
In claim 22,
The three-dimensional model search server includes:
Dimensional model search database for structuring and storing one or more three-dimensional models as a set of rotation invariant descriptors for each of the depth images generated through the adaptive point-in-time sampling technique, server.
청구항 29에 있어서,
상기 3차원 모델 검색 서버는,
3차원 모델을 정규화하고, 정규화된 상기 3차원 모델에 대하여 초기 카메라 시점에 대한 중요도를 계산하며, 계산된 중요도에 기초하여 상기 3차원 모델에 대한 카메라 시점을 적응적으로 샘플링하는 데이터베이스 생성부를 더 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버.
29. The method of claim 29,
The three-dimensional model search server includes:
And a database generating unit for normalizing the three-dimensional model, calculating the importance of the normalized three-dimensional model with respect to the initial camera viewpoint, and adaptively sampling the camera viewpoints of the three-dimensional model based on the calculated importance Dimensional model search server.
청구항 30에 있어서,
상기 데이터베이스 생성부는,
상기 3차원 모델의 중심이 좌표계의 중심에 오도록 상기 3차원 모델을 이동시키고, 상기 이동된 3차원 모델이 단위 구면체에 내접하도록 상기 3차원 모델의 크기를 조정하는 정규화 모듈을 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버.
32. The method of claim 30,
Wherein the database generation unit comprises:
And a normalization module for moving the three-dimensional model so that the center of the three-dimensional model is at the center of the coordinate system and adjusting the size of the three-dimensional model so that the moved three- , 3D model search server.
청구항 31에 있어서,
상기 데이터베이스 생성부는,
상기 단위 구면체에 내접하는 l면체(l은 4 이상의 양의 정수)를 설정하고, 상기 l면체를 구성하는 각각의 정점을 상기 정규화된 3차원 모델에 대한 초기 카메라 시점으로 설정하며, 상기 초기 카메라 시점들 각각에 대한 중요도를 계산하고, 상기 계산된 초기 카메라 시점들의 중요도들에 기초하여 상기 3차원 모델에 대한 카메라 시점을 적응적으로 샘플링하는 카메라 시점 결정모듈을 더 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버.
32. The method of claim 31,
Wherein the database generation unit comprises:
(1 is a positive integer of 4 or more) that is in contact with the unit spherical body, sets each vertex constituting the lobed body to an initial camera viewpoint for the normalized three-dimensional model, And a camera viewpoint determination module for adaptively sampling the camera viewpoint for the three-dimensional model based on the calculated importance of the initial camera viewpoints, Model Search Server.
청구항 32에 있어서,
상기 카메라 시점 결정모듈은, 면적 중요도, 곡률 중요도 및 카메라 자세 중요도 중 적어도 하나 이상에 기초하여 상기 초기 카메라 시점들 각각에 대한 중요도를 계산하는 것을 특징으로 하는, 3차원 모델 검색 서버.
33. The method of claim 32,
Wherein the camera viewpoint determination module calculates an importance of each of the initial camera viewpoints based on at least one of area importance, curvature importance, and camera orientation importance.
청구항 33에 있어서,
상기 면적 중요도는 특정 카메라 시점에서 투영된 3차원 모델의 면적이 클수록 높게 계산되는 것을 특징으로 하는, 3차원 모델 검색 서버.
34. The method of claim 33,
Wherein the area importance is calculated to be higher as the area of the projected three-dimensional model at a specific camera view is larger.
청구항 33에 있어서,
상기 곡률 중요도는 특정 카메라 시점에서 투영된 상기 3차원 모델 영역의 표면이 상대적으로 큰 곡률을 많이 포함할수록 더 높게 계산되는 것을 특징으로 하는, 3차원 모델 검색 서버.
34. The method of claim 33,
Wherein the curvature importance is calculated to be higher as the surface of the three-dimensional model region projected at a specific camera view includes a relatively large curvature.
청구항 33에 있어서,
상기 카메라 자세 중요도는 특정 카메라 시점에서 상기 3차원 모델을 바라보는 시선의 위치를 향하는 방향과 상기 3차원 모델의 상부를 가리키는 방향(수직 방향 : upright direction)과의 사이 각도가 작을수록 높게 계산되는 것을 특징으로 하는, 3차원 모델 검색 서버.
34. The method of claim 33,
The camera posture importance degree is calculated to be higher as the angle between the direction toward the position of the line of sight looking at the 3D model at a specific camera viewpoint and the direction (vertical direction) indicating the upper portion of the 3D model is smaller Features, three-dimensional model search server.
청구항 32에 있어서,
상기 카메라 시점 결정모듈은,
상기 l면체를 구성하는 각각의 면에 대하여 해당 면을 구성하는 각 카메라 시점들의 중요도에 기초하여 해당 면의 중요도를 계산하고,
상기 계산된 면들 각각의 중요도에 기초하여 미리 설정된 조건이 충족될 때까지 상기 l면체에 대한 메시 분할을 수행하며, 및
최종적으로 메시 분할된 각각의 정점을 상기 3차원 모델에 대한 깊이 영상을 획득하기 위한 적응적 카메라 시점으로 결정하는 것을 특징으로 하는, 3차원 모델 검색 서버.
33. The method of claim 32,
Wherein the camera viewpoint determination module comprises:
Calculating a degree of importance of each face constituting the lobed body based on the importance of each camera viewpoint constituting the face,
Performing mesh division on the lobed body until a predetermined condition is satisfied based on the importance of each of the calculated faces, and
Dimensional model, and finally determines each vertex of the mesh segment as an adaptive camera viewpoint for acquiring a depth image of the 3D model.
청구항 32에 있어서,
상기 데이터베이스 생성부는,
상기 적응적으로 샘플링된 카메라 시점들 각각에서 상기 3차원 모델의 깊이 영상을 획득하고, 상기 획득된 깊이 영상들 각각에 대한 회전불변 기술자를 생성하며, 상기 생성된 회전불변 기술자들의 집합으로써 상기 3차원 모델을 표현 및 저장함으로써 상기 3차원 모델 데이터베이스를 구성하는 회전불변 기술자 생성모듈을 더 포함하는 것을 특징으로 하는, 3차원 모델 검색 서버.
33. The method of claim 32,
Wherein the database generation unit comprises:
Acquiring a depth image of the 3D model at each of the adaptively sampled camera viewpoints, generating a rotation invariant descriptor for each of the obtained depth images, Further comprising a rotation invariant descriptor generation module for constructing the three-dimensional model database by expressing and storing the model.
청구항 38에 있어서,
상기 회전불변 기술자 생성모듈은, 상기 획득된 깊이 영상들 각각에 대하여 저니크(Zernike) 모멘트를 사용하여 상기 회전불변 기술자를 생성하는 것을 특징으로 하는, 3차원 모델 검색 서버.
42. The method of claim 38,
Wherein the rotation invariant descriptor generation module generates the rotation invariant descriptor using a Zernike moment for each of the obtained depth images.
청구항 39에 있어서,
상기 Rkm은 저니크 모멘트의 차수 k 및 m에 따른 방사 다항식이며,
상기 방사 다항식은 동일한 해상도의 깊이 영상에서 대해서 한번만 계산되어 스펙트럼으로서 저장되는 것을 특징으로 하는, 3차원 모델 검색 서버.
42. The method of claim 39,
Wherein R km is emitted according to the polynomial order k and m of the low sneak moment,
Wherein the radial polynomial is calculated only once for a depth image of the same resolution and is stored as a spectrum.
KR1020130075640A 2013-06-28 2013-06-28 Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof KR102129060B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130075640A KR102129060B1 (en) 2013-06-28 2013-06-28 Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130075640A KR102129060B1 (en) 2013-06-28 2013-06-28 Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof

Publications (2)

Publication Number Publication Date
KR20150002157A true KR20150002157A (en) 2015-01-07
KR102129060B1 KR102129060B1 (en) 2020-07-02

Family

ID=52475649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130075640A KR102129060B1 (en) 2013-06-28 2013-06-28 Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof

Country Status (1)

Country Link
KR (1) KR102129060B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686884A (en) * 2021-01-12 2021-04-20 李成龙 Automatic modeling system and method for imaging marking characteristics
US11295532B2 (en) 2018-11-15 2022-04-05 Samsung Electronics Co., Ltd. Method and apparatus for aligning 3D model
CN116434220A (en) * 2023-04-24 2023-07-14 济南大学 Three-dimensional object classification method and system based on descriptor and AdaBoost algorithm

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030043637A (en) * 2001-11-27 2003-06-02 삼성전자주식회사 Apparatus and method for depth image-based representation of 3-dimensional object
KR20050047322A (en) * 2003-11-17 2005-05-20 대한민국(서울대학교 총장) Method for selecting characteristic view point of the 3d model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030043637A (en) * 2001-11-27 2003-06-02 삼성전자주식회사 Apparatus and method for depth image-based representation of 3-dimensional object
KR20050047322A (en) * 2003-11-17 2005-05-20 대한민국(서울대학교 총장) Method for selecting characteristic view point of the 3d model

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295532B2 (en) 2018-11-15 2022-04-05 Samsung Electronics Co., Ltd. Method and apparatus for aligning 3D model
CN112686884A (en) * 2021-01-12 2021-04-20 李成龙 Automatic modeling system and method for imaging marking characteristics
CN116434220A (en) * 2023-04-24 2023-07-14 济南大学 Three-dimensional object classification method and system based on descriptor and AdaBoost algorithm
CN116434220B (en) * 2023-04-24 2024-02-27 济南大学 Three-dimensional object classification method and system based on descriptor and AdaBoost algorithm

Also Published As

Publication number Publication date
KR102129060B1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP6216508B2 (en) Method for recognition and pose determination of 3D objects in 3D scenes
KR101007276B1 (en) Three dimensional face recognition
Ikeuchi et al. The great buddha project: Digitally archiving, restoring, and analyzing cultural heritage objects
CN111316293A (en) Method for object recognition
US20100328311A1 (en) system and method for establishing correspondence, matching and repairing three dimensional surfaces of arbitrary genus and arbitrary topology in two dimensions using global parameterization
CN104637090B (en) A kind of indoor scene modeling method based on single picture
JP2016161569A (en) Method and system for obtaining 3d pose of object and 3d location of landmark point of object
US20200057778A1 (en) Depth image pose search with a bootstrapped-created database
JP2002288687A (en) Device and method for calculating feature amount
Chen et al. Autosweep: Recovering 3d editable objects from a single photograph
Boulanger et al. ATIP: A Tool for 3D Navigation inside a Single Image with Automatic Camera Calibration.
Yuan et al. 3D point cloud recognition of substation equipment based on plane detection
Verykokou et al. A Comparative analysis of different software packages for 3D Modelling of complex geometries
JP2017168081A (en) 3d object localization with descriptor
KR20150002157A (en) Content-based 3d model retrieval method using a single depth image, 3d model retrieval server for performing the methods and computer readable recording medium thereof
Tang et al. Image dataset creation and networks improvement method based on CAD model and edge operator for object detection in the manufacturing industry
Palossi et al. Gpu-shot: Parallel optimization for real-time 3d local description
Ivson et al. Instanced rendering of massive cad models using shape matching
Budianti et al. Background blurring and removal for 3d modelling of cultural heritage objects
JP2017162447A (en) Localization of 3d object with quantization
CN111597367A (en) Three-dimensional model retrieval method based on view and Hash algorithm
Schmitt et al. A 3D shape descriptor based on depth complexity and thickness histograms
Yang et al. Pairwise Matching of Stone Tools Based on Flake-Surface Contour Points and Normals.
Hagelskjær et al. Bridging the reality gap for pose estimation networks using sensor-based domain randomization
CN109658489B (en) Three-dimensional grid data processing method and system based on neural network

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right