KR101817753B1 - PTM making system with improved shape of 3D model and method using the same - Google Patents
PTM making system with improved shape of 3D model and method using the same Download PDFInfo
- Publication number
- KR101817753B1 KR101817753B1 KR1020160180792A KR20160180792A KR101817753B1 KR 101817753 B1 KR101817753 B1 KR 101817753B1 KR 1020160180792 A KR1020160180792 A KR 1020160180792A KR 20160180792 A KR20160180792 A KR 20160180792A KR 101817753 B1 KR101817753 B1 KR 101817753B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- dimensional model
- ptm
- light
- virtual
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Architecture (AREA)
- Image Generation (AREA)
Abstract
Description
본 발명은 3차원 모델의 형상이 개선된 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법에 관한 것으로, 보다 상세하게는 문화유산의 디지털 작업을 수행하기 위해, 문화유산의 3차원 스캐닝을 통해 생성한 3차원 모델로부터 표면의 선명도 및 형상이 개선되도록 PTM(Polynomial Texture Mapping)을 생성하는 3차원 모델의 형상이 개선된 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법에 관한 것이다.The present invention relates to a PTM generation system with improved shape of a three-dimensional model and a PTM generation method using the same. More particularly, the present invention relates to a three-dimensional And more particularly, to a PTM generation system having improved shape of a three-dimensional model for generating PTM (Polynomial Texture Mapping) so that sharpness and shape of a surface are improved from a model and a PTM generation method using the same.
최근, 우리나라의 민족문화 유산으로 전해져 오는 각종 유형 문화유산의 보존에 대한 관심이 높아지면서 국가 정책으로 유형 문화유산을 보호하고 복원하기 위한 노력이 활발히 이루어지고 있는 상태이며, 이러한, 유형 문화유산의 원형 복원을 위한 노력의 일환으로서, 문화유산과 관련한 인문학, 사회학, 역사학, 민속학, 미학적 지식을 총동원하여 관련 분야의 전문가들 간에 이루어지는 협력 작업에 의한 문화유산의 물리적인 복원이 수행되고 있다.In recent years, interest in the preservation of various tangible cultural heritages, which are regarded as national heritage of our country, has increased, and efforts to protect and restore the tangible cultural heritage have been actively carried out by the national policy. As part of efforts for restoration, the physical restoration of cultural heritage is being carried out by collaborative work among experts in relevant fields, with all humanities, sociology, history, folklore and aesthetic knowledge related to cultural heritage.
한편, 이러한 각종 전문 지식을 총동원하여 이루어지는 전문가 집단에 의한 문화유산의 원형 복원 방식은, 전문가들의 분석 결과에 의한 여러 단계의 복원 프로젝트를 진행시켜야 하기 때문에, 많은 인력을 동원하여 장시간 동안 작업을 진행하여야 하며, 문화유산의 물리적인 복원을 위해 고비용을 지출해야만 하는 불리함이 있다.On the other hand, the circular restoration method of the cultural heritage by the expert group which is made up of various kinds of expert knowledge is required to carry out various restoration projects based on the analysis result of the experts, so it is necessary to carry out work for a long time And there is a disadvantage that they must spend high costs for the physical restoration of cultural heritage.
이에, 최근에는 분석의 정확도와 함께 저비용으로 문화유산을 복원시키기 위한 일환으로서, 3차원 광학 스캐너 장비를 이용하여 유형 문화유산의 3차원 형상을 스캐닝하고, 스캐닝된 3차원 데이터를 근거로 파손되거나 마모된 부재를 컴퓨터 시스템을 이용하여 작업자가 수작업에 의해 복원하는 방식이 개발되어 적용되는 실정이다.Recently, as a part of restoring cultural heritage at low cost along with accuracy of analysis, a three-dimensional shape of a tangible cultural heritage is scanned using a three-dimensional optical scanner device, and based on the scanned three-dimensional data, A method of manually restoring a member using a computer system has been developed and applied.
3차원 광학 스캐너를 이용한 데이터의 추출 작업은 대상 물체를 스캐닝하게 되면 스캐닝 방향에서 보이는 면들에 대한 3차원 점(Point) 데이터가 구름 형태로 수없이 많이 획득되며, 이렇게 스캐닝한 형상 정보 데이터를 활용하여 문화유산 유물의 디지털화 작업을 위한 기반 데이터로서, 활용 가능하도록 개발되었으나, 이러한 종래의 3차원 스캐닝을 통한 문화유산 유물의 디지털화 작업은 스캐닝 공정에서 획득한 형상 정보를 효과적으로 후처리하여 파손되거나 마모된 문화유산의 부재 부분을 원형 복원해야 하지만, 보다 효과적인 원형복원을 위한 후처리 솔루션이 개발되어 있지 않기 때문에, 작업자가 일일이 수작업으로 복원할 데이터를 비교 분석해 가면서 원형 복원을 진행해야 한다는 문제점이 있다.In the extraction of data using a three-dimensional optical scanner, when a target object is scanned, a large number of three-dimensional point data on the surfaces in the scanning direction are acquired in a cloud form, and using the scanned shape information data The digitalization work of cultural heritage through the conventional three-dimensional scanning is effective in post-processing the shape information acquired in the scanning process, and thus, However, since a post-processing solution for more effective circular restoration has not been developed, there is a problem that the circular restoration should be performed while the operator manually compares and analyzes the data to be restored manually.
한편, 일반적으로 특정 객체를 스캐닝하여 획득된 데이터를 이용하여 컴퓨터 그래픽 데이터로 표현하는 과정에는 특정 객체의 형상을 제작하는 모델링(Modelling) 과정, 형상이 제작된 모델의 질감, 그림, 무늬 등을 부가하는 텍스처링(Texturing) 과정, 질감, 그림, 무늬 등이 부가된 모델을 컴퓨터 그래픽의 이미지로 구현하는 렌더링(Rendering)과정이 존재한다.Generally, in the process of representing a computer graphic data by using data obtained by scanning a specific object, a modeling process for creating a shape of a specific object, a process of adding a texture, a picture, There is a rendering process in which a model having a texturing process, a texture, a picture, and a pattern is imaged as an image of a computer graphic.
이 중 텍스처링 과정을 하기 위하여, 텍스처 맵을 이용하는데, 이러한 텍스처 맵을 생성하여 텍스처링 하는 과정을 텍스처 매핑이라고 한다.To perform the texturing process, a texture map is used. The process of generating and texturing the texture map is called texture mapping.
PTM(Polynomial Texture Mapping)은 텍스처 매핑 중 하나의 방법으로, 함수로 이미지를 표현하는 기법으로서, 상세하게 설명하면, 각 픽셀이 빛의 방향 인자인 lu 와 lv로 R, G, B를 나타내는 함수를 포함하도록 하여, 객체를 촬영하는 카메라의 시점을 일정한 시점으로 고정하고, 복수의 조명을 제어하며, 객체의 표면의 밝기를 변경하며, 복수의 이미지를 획득하고, 획득된 복수의 이미지들을 매핑하는 기법이다.PTM (Polynomial Texture Mapping) is a method of representing images by function as one of texture mapping. In detail, each pixel represents R, G, B with l u and l v , Function to fix a viewpoint of a camera that captures an object at a fixed point in time, to control a plurality of lights, to change brightness of an object surface, to acquire a plurality of images, to map a plurality of acquired images .
이러한 PTM은 문화유산과 같은 객체를 스캐닝하여 형상 정보 데이터를 획득하는 경우, 객체의 형상을 사실적으로 표현할 수 있어, 문화유산 복원 분야에서 주목받고 있으나, 실제로 카메라 및 복수의 조명을 설치하고 제어해야 한다는 점에서 공간적, 물리적 제약이 존재한다.This PTM is attracting attention in the cultural heritage restoration field because it is possible to express the shape of the object realistically when acquiring shape information data by scanning objects such as cultural heritage, but in reality, cameras and plural lights should be installed and controlled There are spatial and physical constraints on the point.
이에, 기존의 PTM을 수행하는 과정에서 존재하는 공간적, 물리적 제약을 극복하여, 실제 카메라 및 조명을 이용하지 않고, PTM을 수행할 수 있는 방안의 모색이 요구된다. Therefore, it is required to find a way to overcome the spatial and physical constraints existing in the course of performing the PTM and to perform the PTM without using the actual camera and the illumination.
본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로 본 발명의 목적은 객체를 스캐닝하여 획득되는 3차원 모델의 형상 정보에 적용 가능하도록 컴퓨터 그래픽 데이터 상에서 3차원 모델의 형상이 개선되도록 하는 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a method and apparatus for generating a PTM for improving the shape of a 3D model on computer graphics data so as to be applicable to shape information of a 3D model obtained by scanning an object System and a PTM generation method using the same.
또한, 본 발명의 다른 목적은 3차원 모델의 세부 형상을 더욱 명확하게 표현하도록, 해당 객체의 텍스처 정보와 깊이 정보를 추출하고, 추출된 텍스처 정보와 깊이 정보를 기반으로 PTM을 생성하는 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법을 제공함에 있다.Another object of the present invention is to provide a PTM generation system for extracting texture information and depth information of a corresponding object and generating a PTM based on the extracted texture information and depth information so as to more clearly express the detailed shape of the three- And a method of generating a PTM using the same.
상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템은 특정 객체에 대한 3차원 모델이 획득되도록 하는 3차원 모델 획득부; 상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들을 세팅하여, 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여 상기 획득된 3차원 모델에서 상기 객체의 텍스처(Texture) 정보와 깊이(Depth) 정보가 추출되도록 하는 정보 추출부; 및 상기 텍스처 정보와 상기 깊이 정보를 조합하여 PTM(Polynomial Texture Mapping) 정보가 생성되도록 하는 PTM 정보 생성부;를 포함한다.According to another aspect of the present invention, there is provided a PTM generation system having an improved shape of a three-dimensional model, including: a three-dimensional model acquisition unit for acquiring a three-dimensional model of a specific object; Setting a virtual camera and virtual illuminations based on the obtained three-dimensional model, calculating texture information and depth of the object in the obtained three-dimensional model using the set virtual camera and virtual illuminations, An information extracting unit for extracting depth information from the extracted information; And a PTM information generator for generating PTM information by combining the texture information and the depth information.
이때, 상기 3차원 모델 획득부는, 상기 객체의 음영이 제거되도록 상기 객체에 복수의 방향으로 빛을 투사하며, 상기 객체를 스캐닝하여 복수의 폴리곤(Polygon)으로 구성된 3차원 모델을 획득할 수 있다.At this time, the three-dimensional model obtaining unit may project light in a plurality of directions to the object so that the shade of the object is removed, and scan the object to obtain a three-dimensional model composed of a plurality of polygons.
그리고 상기 정보 추출부는, 상기 획득된 3차원 모델을 기반으로 가상의 카메라 및 가상의 조명들을 세팅하되, 상기 가상의 카메라의 시점(Point of View)이 상기 획득된 3차원 모델을 상측에서 바라보는 시점으로 세팅하고, 상기 가상의 조명들이 반구(hemisphere)형으로 배치되도록 세팅하며, 상기 반구형으로 배치된 가상의 조명들 중 적어도 하나의 조명이 빛을 투사하도록 할 수 있다. The information extraction unit may set virtual cameras and virtual lights based on the obtained three-dimensional model, and the point-of-view of the virtual camera may include a point of time when the virtual camera looks at the obtained three- , Setting the virtual lights to be arranged in a hemisphere shape, and allowing at least one of the hemispherically arranged virtual lights to project light.
또한, 상기 정보 추출부는, 상기 3차원 모델에 투사되는 가상의 조명들의 조명 값의 연산이 용이하도록, 상기 가상의 조명들이 서로 균일한 간격으로 이격되도록 세팅할 수 있다.In addition, the information extracting unit may set the virtual illuminations to be spaced apart from each other at a uniform interval so that calculation of illumination values of virtual illuminations projected on the three-dimensional model is easy.
그리고 상기 정보 추출부는, 상기 획득된 3차원 모델에 상기 빛이 투사되면, 상기 빛이 투사된 3차원 모델 중 상기 복수의 폴리곤에 대한 정보를 기반으로 상기 깊이 정보가 추출되도록 하고, 상기 3차원 모델의 폴리곤별 표면 색상에 대한 정보를 기반으로 상기 텍스처 정보가 추출되도록 할 수 있다.And the information extracting unit extracts the depth information based on the information of the plurality of polygons among the three-dimensional models projected from the light when the light is projected onto the obtained three-dimensional model, The texture information may be extracted based on information on the surface color of each polygon.
또한, 상기 정보 추출부는, 상기 빛이 투사되면, 상기 투사된 빛 중 상기 객체에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 상기 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 상기 객체의 음영 정보가 추출되도록 할 수 있다.The information extracting unit extracts the extracted depth information from the ambient occlusion so that the light blocked by the object among the projected light is generated when the light is projected, And may be applied to a map so that shading information of the object is extracted.
그리고 상기 정보 추출부는, 상기 빛이 개별적으로 투사되면, 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되도록 하고, 상기 PTM 정보 생성부는, 각각의 텍스처 정보 및 깊이 정보를 모두 조합하여 하나의 PTM 정보가 생성되도록 할 수 있다.The information extracting unit extracts texture information and depth information corresponding to the individually projected light individually when the light is individually projected, and the PTM information generating unit extracts texture information and depth information It is possible to combine all of them to generate one PTM information.
또한, 상기 정보 추출부는, 상기 3차원 모델을 이루는 픽셀(Pixel)을 향하여 상기 빛이 개별적으로 투사되면, 상기 개별적으로 투사된 각각의 빛을 기준으로 상기 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 할 수 있다. The information extracting unit extracts the depth of the pixel including the vector factor of the normal direction of the pixel based on the individually projected light when the light is individually projected toward a pixel forming the three- Information can be extracted individually.
그리고 상기 3차원 모델 획득부는, 상기 객체를 스캐닝하는 경우, 상기 스캐닝하여 획득된 3차원 모델을 텍스처링(Texturing) 할 수 있다.When the object is scanned, the 3D model acquisition unit may texture the 3D model obtained by the scanning.
한편, 상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 방법은, 3차원 모델 획득부에 의해 특정 객체에 대한 3차원 모델이 획득되는 단계; 정보 추출부에 의해 상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들이 세팅되는 단계; 상기 정보 추출부가 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여, 상기 획득된 3차원 모델에서 상기 객체의 텍스처 정보와 깊이 정보가 추출되도록 하는 단계; 및 PTM 정보 생성부에 의해 상기 추출된 텍스트 정보와 깊이 정보가 조합되어, PTM 정보가 생성되는 단계;를 포함한다. According to another aspect of the present invention, there is provided a method of generating a three-dimensional model having improved PTM, comprising: obtaining a three-dimensional model of a specific object by a three-dimensional model obtaining unit; Setting virtual camera and virtual lights based on the obtained three-dimensional model by an information extracting unit; Causing the information extracting unit to extract texture information and depth information of the object from the obtained three-dimensional model using the set virtual camera and virtual illumination; And generating the PTM information by combining the extracted text information and the depth information by the PTM information generation unit.
이에 의해, 실제 카메라 및 조명을 설치해야 하는 공간적 제약 및 물리적 제약을 극복하고, 3차원 모델의 형상 정보에 적용 가능하도록 하여, 컴퓨터 그래픽 데이터 상에서 3차원 모델의 형상이 개선되도록 할 수 있다. Thus, it is possible to overcome spatial constraints and physical constraints on the installation of the actual camera and illumination, and to apply it to the shape information of the three-dimensional model, thereby improving the shape of the three-dimensional model on the computer graphics data.
또한, 컴퓨터 그래픽 데이터 상에서 렌더링된 3차원 모델의 세부 형상을 더욱 명확하게 표현할 수 있어, 디지털화된 문화유산의 분석 및 복원 작업에 적용할 수 있다.In addition, the detailed shape of the three-dimensional model rendered on the computer graphic data can be more clearly expressed, so that it can be applied to the analysis and restoration of digitized cultural heritage.
도 1은 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템의 구성을 설명하기 위해 도시된 도면이다.
도 2는 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템의 정보 추출부의 구성을 설명하기 위해 도시된 도면이다.
도 3은 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템의 정보 추출부의 동작 특성을 설명하기 위해 도시된 도면이다.
도 4는 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 방법의 동작 특성을 설명하기 위해 도시된 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 방법의 동작 특성을 더욱 상세히 설명하기 위해 도시된 흐름도이다.1 is a diagram illustrating a configuration of a PTM generation system in which a shape of a three-dimensional model is improved according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a configuration of an information extracting unit of a PTM generation system in which a shape of a three-dimensional model is improved according to an embodiment of the present invention.
3 is a diagram for explaining operation characteristics of an information extracting unit of a PTM generation system in which a shape of a three-dimensional model is improved according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating an operation characteristic of a method of generating an improved PTM shape of a three-dimensional model according to an exemplary embodiment of the present invention.
FIG. 5 is a flowchart illustrating the operation characteristics of the improved PTM generation method of the three-dimensional model according to an exemplary embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명에 대해 보다 상세히 설명하기로 한다. 이하에 소개되는 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 본 발명은 이하 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다.Hereinafter, the present invention will be described in detail with reference to the drawings. The embodiments described below are provided by way of example so that those skilled in the art will be able to fully understand the spirit of the present invention. The present invention is not limited to the embodiments described below and may be embodied in other forms.
도 1은 본 발명의 일 실시예에 따른 3차원 모델(10)의 형상이 개선된 PTM 생성 시스템(이하에서는 'PTM 생성 시스템'으로 총칭함)의 구성을 설명하기 위해 도시된 도면이다. FIG. 1 is a diagram illustrating a configuration of a PTM generation system (hereinafter, referred to as a PTM generation system) having an improved shape of a three-
본 실시예에 따른 PTM 생성 시스템은 객체를 스캐닝하여 획득되는 3차원 모델(10)의 형상 정보에 적용 가능하도록 컴퓨터 그래픽 데이터 상에서 3차원 모델(10)의 형상이 개선되도록 하고, 3차원 모델(10)의 세부 형상을 더욱 명확하게 표현하도록, 해당 객체의 텍스처 정보와 깊이 정보를 추출하고, 추출된 텍스처 정보와 깊이 정보를 기반으로 PTM을 생성하기 위해 마련된다.The PTM generation system according to the present embodiment improves the shape of the
이를 위하여, PTM 생성 시스템은, 3차원 모델 획득부(100), 정보 추출부(200) 및 PTM 정보 생성부(300)를 포함한다.To this end, the PTM generation system includes a three-dimensional
3차원 모델 획득부(100)는 특정 객체에 대한 3차원 모델(10)을 획득하기 위해 마련된다.The three-dimensional
구체적으로 3차원 모델 획득부(100)는, 객체에 대하여 3차원 스캐닝함으로써, 복수의 폴리곤(Polygon)으로 구성된 3차원 모델(10)을 획득하거나, 외부로부터 3차원 모델(10)을 수신하여 획득할 수 있다.Specifically, the three-dimensional
여기서 3차원 모델(10)은, Maya, 3Ds Max와 같은 컴퓨터 그래픽스용 소프트웨어를 이용하여 3차원 메쉬(mesh) 모델과 같이 컴퓨터 그래픽스의 분야에서 가상의 3차원 공간 속에 재현될 수 있는 수학적 모델을 의미하며, 컴퓨터가 기록하거나 이해할 수 있는 형태의 데이터로 처리 또는 저장될 수 있다.Here, the three-
그리고 3차원 모델 획득부(100)는, 객체를 3차원 스캐닝하는 경우, 3차원 모델(10)을 텍스처링(Texturing)할 수 있다.The three-dimensional
여기서, 텍스처링(Texturing)은 3차원 모델(10)에 질감이나 그림, 모양, 무늬 등을 부가하는 그래픽 처리 과정을 의미합니다.Here, texturing refers to a graphic processing process that adds textures, pictures, shapes, and patterns to a three-dimensional model (10).
또한, 폴리곤은 3D 그래픽에서 물체를 표현할 때 쓰이는 기본 단위인 다각형을 의미하며, 특정 객체를 표면상의 실제 색상과는 별개로 하는 다각형으로 이루어진 면으로 표현하는 방법을 폴리곤 메쉬라고 하며, 본 실시예에 따른 3차원 모델(10) 역시, 다각형으로 구성된 메쉬 모델을 의미할 수 있다.In addition, a polygon means a polygon, which is a basic unit used to represent an object in 3D graphics. A polygon mesh is a method of expressing a specific object by a polygonal surface that is different from the actual color on the surface.
정보 추출부(200)는 3차원 모델(10)에서 객체의 텍스처 정보와 깊이 정보를 추출하기 위해 마련된다.The
구체적으로 정보 추출부(200)는, 3차원 모델 획득부(100)를 통해 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅하고, 세팅된 가상의 조명들(221)이 3차원 모델(10)을 향해 빛을 투사하는 상태에서 가상의 카메라(211)를 통해 3차원 모델(10)을 촬영하여, 객체의 텍스트 정보 및 깊이 정보를 추출할 수 있다.Specifically, the
예를 들면, 정보 추출부(200)는, PTM 정보 생성부(300)에 객체의 텍스처 정보를 전달하기 위해 객체를 스캐닝하여 획득된 3차원 모델(10)의 폴리곤 각각의 표면 색상에 대한 정보를 기반으로 텍스처 정보를 추출할 수 있다.For example, the
여기서, 텍스처 정보는, 3차원 모델(10)의 표면상의 색상을 표현하는 2D 이미지 정보를 의미하며, 3차원 모델(10)을 구성하는 폴리곤마다 각각의 표면상의 색상을 입히는 과정을 텍스처 매핑이라고 한다.Here, the texture information means 2D image information representing the color on the surface of the three-
또한, 깊이 정보(Depth Information)는, 3차원 객체의 거리 정보를 의미하며, 3차원 모델(10)의 형상을 정의하는 3차원 다각형 메시(Polygonal mesh)를 갖는 심도 맵 또는 포인트 클라우드(Point cloud)를 생성하는데 이용될 수 있으며, 심도 정보라고도 한다.Depth information refers to distance information of a three-dimensional object. It is a depth map having a three-dimensional polygonal mesh defining a shape of the three-
이러한 깊이 정보는 CCD(Charged Coupled Device)가 적용된 삼각측량 방식의 3차원 레이저 스캐너, 구조 광선패턴을 이용한 깊이 카메라, 적외선(IR : Infra-Red)의 반사 시간 차이를 이용한 TOF(Time-Of-flight) 방식의 깊이 카메라 등을 이용하여 획득할 수 있으며, 3차원 모델(10)을 획득하는 과정에서 텍스처 정보 및 깊이 정보 역시 획득되어 3차원 모델(10)에 적용된다.The depth information includes a three-dimensional laser scanner with a CCD (Charged Coupled Device), a depth camera using a structural ray pattern, and a time-of-flight (TOF) ) Depth camera, and in the process of acquiring the
구체적으로, 본 실시예에 따른 3차원 모델 획득부(100)는, 3차원 모델(10)의 형상을 보다 명확하고 선명하게 인지하고, 표현할 수 있도록, 3차원 레이저 스캐너를 이용하여 측정하려는 객체를 여러 방향에서 스캐닝하여 3차원 모델(10)을 획득할 수 있다.More specifically, the three-dimensional
또한, 이러한 방식으로 획득된 3차원 모델(10)이 정보 추출부(200)에 수신되면, 정보 추출부(200)는, 3차원 모델(10)을 기준으로 가상의 카메라(211)와 가상의 조명들(221)을 세팅하고, 여러 방향에서 빛을 투사하되, 빛의 투사 방향을 다양하게 조정하며, 복수의 깊이 정보를 추출할 수 있다. When the
PTM 정보 생성부(300)는 추출된 텍스터 정보와 깊이 정보를 조합하여 PTM 정보를 생성하기 위해 마련된다.The PTM
구체적으로 PTM 정보 생성부(300)는 정보 추출부(200)가 3차원 모델(10)을 기준으로 가상의 카메라(211)와 가상의 조명들(221)을 세팅하고, 빛의 투사 방향을 다양하게 조정하며, 복수의 텍스처 정보와 깊이 정보를 추출하면, 복수의 텍스처 정보와 깊이 정보를 조합하여 하나의 PTM 정보가 생성되도록 할 수 있다. Specifically, the PTM
예를 들면, PTM 정보 생성부(300)는 3차원 모델(10)의 폴리곤마다 각각의 표면상의 색상을 더욱 사실적인 색상으로 텍스처 매핑시켜 PTM을 생성하도록 할 수 있다. For example, the PTM
여기서 PTM 정보는 PTM 방식으로 텍스처 매핑시켜 생성된 영상 정보이며, 본 PTM 생성 시스템은 이러한 PTM 정보를 생성하여, 3차원 모델(10)의 형상 정보에 적용 가능하도록 하여, 컴퓨터 그래픽 데이터 상에서 3차원 모델(10)의 형상이 개선되도록 할 수 있다.Here, the PTM information is image information generated by texture mapping by the PTM method. The present PTM generation system generates the PTM information and is applicable to the shape information of the three-
또한, 이러한 PTM 정보는 컴퓨터 그래픽 데이터 상에서 렌더링된 3차원 모델(10)의 세부 형상을 더욱 명확하게 표현할 수 있어, 디지털화된 문화유산의 분석 및 복원 작업에 적용할 수 있다.In addition, the PTM information can more clearly express the detailed shape of the
한편, 도 2는 본 발명의 일 실시예에 따른 PTM 생성 시스템의 정보 추출부(200)의 구성을 설명하기 위해 도시된 도면이며, 도 3은 본 발명의 일 실시예에 따른 PTM 생성 시스템의 정보 추출부(200)의 동작 특성을 설명하기 위해 도시된 도면이다.FIG. 2 is a diagram for explaining the configuration of the
이하에서는 도 2 내지 도 3을 참조하여 PTM 생성 시스템의 정보 추출부(200)에 대하여 더욱 상세히 설명하기로 한다.Hereinafter, the
본 실시예에 따른 정보 추출부(200)는, 3차원 모델 획득부(100)를 통해 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅하고, 세팅된 가상의 조명들(221)이 3차원 모델(10)을 향해 빛을 투사하는 상태에서 가상의 카메라(211)를 통해 3차원 모델(10)을 촬영하여, 객체의 텍스트 정보 및 깊이 정보를 추출하기 위해 마련된다.The
이를 위해, 정보 추출부(200)는, 가상의 카메라 세팅부(210), 가상의 조명 세팅부(220), 텍스처 정보 추출부(230) 및 깊이 정보 추출부(240)를 포함한다. The
가상의 카메라 세팅부(210)는 3차원 모델(10)을 기준으로 가상의 카메라(211)를 세팅하기 위해 마련되며, 가상의 조명 세팅부(220)는 마찬가지로 3차원 모델(10)을 기준으로 가상의 조명들(221)을 세팅하기 위해 마련된다.The virtual camera setting unit 210 is provided for setting the
이러한 가상의 카메라 세팅부(210)와 가상의 조명 세팅부(220)는 컴퓨터 그래픽스용 소프트웨어를 이용하여 가상의 카메라(211) 및 가상의 조명들(221)의 수, 위치 등을 조정하고, 조정된 수, 위치에 따라 가상의 카메라(211) 및 조명들이 세팅되도록 할 수 있다.The virtual camera setting unit 210 and the virtual lighting setting unit 220 adjust the number and position of the
예를 들면, 본 실시예에 따른 가상의 카메라 세팅부(210)는, 도 3에 도시된 바와 같이 가상의 카메라(211)의 시점(Point of View)이 획득된 3차원 모델(10)을 상측에서 바라보는 시점으로 세팅하고, 이때, 가상의 조명 세팅부(220)가, 가상의 조명들(221)이 반구(hemisphere)형으로 배치되도록 세팅할 수 있으며, 가상의 조명들(221)의 세팅이 완료되면, 반구형으로 배치된 가상의 조명들(221) 중 적어도 하나의 조명이 빛을 투사하도록 할 수 있다.For example, the virtual camera setting unit 210 according to the present embodiment may be configured such that a three-
여기서, 가상의 조명 세팅부(220)는 가상의 조명들(221)을 단순히 반구형으로 배치되도록 세팅할 수도 있지만, 반구형으로 배치되도록 하되, 각각의 가상의 조명들(221)이 균일한 간격으로 이격되도록 세팅하여, 깊이 정보 추출부(240) 또는 후술할 음여 정보 추출부(250)에서 가상의 조명들(221)의 조명 값에 대한 연산이 용이하도록 할 수 있다.Herein, the virtual illumination setting unit 220 may be set so that the
도 3에서는 설명의 편의를 위하여 3차원 모델(10)을 단순한 형상으로 도시하였지만, 서로 다른 각도에서 빛을 투사하는 경우, 3차원 모델(10)의 형상이 도시된 3차원 모델(10)의 형상보다 복잡하다면, 투사된 빛 중 3차원 모델(10)에 의해 차단되어 음영이 발생하거나, 투사된 빛이 균일하게 도달하지 못할 가능성이 있다.3, the three-
또한, 다양한 각도에서 투사되는 빛을 기준으로 3차원 모델(10)을 촬영하여 획득된 데이터에는 다양한 깊이 정보와 텍스처 정보가 포함될 수 있다. In addition, various depth information and texture information may be included in the data obtained by photographing the three-
텍스처 정보 추출부(230)는 적어도 하나의 조명이 3차원 모델(10)을 향해 빛을 투사하고, 3차원 모델(10)을 향해 세팅된 가상의 카메라(211)로부터 촬영된 데이터에서 텍스처 정보를 추출하기 위해 마련되며, 깊이 정보 추출부(240)는 3차원 모델(10)을 향해 세팅된 가상의 카메라(211)로부터 촬영된 데이터에서 깊이 정보를 추출하기 위해 마련된다.The texture information extracting unit 230 extracts texture information from the photographed data from the
예를 들면, 텍스처 정보 추출부(230)는, 획득된 3차원 모델(10)에 빛이 투사되면, 3차원 모델(10)의 폴리곤별 표면 색상에 대한 정보를 기반으로 텍스처 정보가 추출되도록 하고, 깊이 정보 추출부(240)는 빛이 투사된 3차원 모델(10) 중 복수의 폴리곤에 대한 정보를 기반으로 깊이 정보가 추출되도록 할 수 있다.For example, when light is projected onto the obtained three-
이때, 텍스처 정보 추출부(230)는 서로 다른 방향에서 교차적 또는 개별적으로 빛이 투사되면, 교차적 또는 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보가 개별적으로 추출되도록 하고, 깊이 정보 추출부(240)는 교차적 또는 개별적으로 투사된 각각의 빛에 대응되는 깊이 정보가 추출되도록 할 수 있다.At this time, the texture information extracting unit 230 extracts the texture information corresponding to each of the lights projected alternately or individually when the light is projected crosswise or individually from different directions, The controller 240 can extract the depth information corresponding to each of the lights projected alternately or individually.
다른 예를 들면, 깊이 정보 추출부(240)는 3차원 모델(10)을 이루는 픽셀(Pixel)을 향하여 빛이 개별적 또는 교차적으로 투사되면, 개별적 또는 교차적으로 투사된 각각의 빛을 기준으로 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 할 수 있다.Alternatively, the depth information extracting unit 240 extracts the depth information of the three-
한편, 정보 추출부(200)는, 전술한 가상의 카메라 세팅부(210), 가상의 조명 세팅부(220), 텍스처 정보 추출부(230), 깊이 정보 추출부(240) 이외에, 추가적으로 음여 정보 추출부(250) 및 저장부(260)를 더 포함할 수 있다. The
음여 정보 추출부(250)는, 서로 다른 각도에서 빛을 투사하는 경우, 투사된 빛 중 3차원 모델(10)에 의해 차단되어 음영이 발생하면, 음영 정보를 추출하기 위해 마련된다.The light information extracting unit 250 is provided for extracting the shadow information when the light is projected at different angles and the shadow is blocked by the three-
구체적으로 음여 정보 추출부(250)는, 서로 다른 각도에서 교차적 또는 개별적으로 빛이 투사되면, 투사된 빛 중 3차원 모델(10)(객체)에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 객체의 음영 정보가 추출되도록 할 수 있다.Specifically, the light extraction information extracting unit 250 extracts light that is blocked by the three-dimensional model 10 (object) of the projected light when light is projected crosswise or individually at different angles, The extracted depth information is applied to an ambient occlusion map so that the shading information of the object can be extracted.
저장부(260)는 획득된 특정 객체를 저장하거나, 특정 객체에 대하여 가상의 카메라(211)의 세팅 값 및 가상의 조명들(221)의 세팅 값 또는 특정 객체(3차원 모델(10))의 텍스처 정보, 깊이 정보 및 음영 정보를 저장할 수 있다.The storage unit 260 may store the acquired specific object or may store the setting value of the
도 4는 본 발명의 일 실시예에 따른 3차원 모델(10)의 형상이 개선된 PTM 생성 방법(이하에서는 'PTM 생성 방법'이라고 총칭함)의 동작 특성을 설명하기 위해 도시된 흐름도이다.FIG. 4 is a flowchart illustrating the operation characteristics of the improved PTM generation method (hereinafter, referred to as 'PTM generation method') of the three-
본 실시예에 따른 PTM 생성 방법은, 우선, 3차원 모델 획득부(100)가 특정 객체에 대한 3차원 모델(10)을 획득하면(S110), 정보 추출부(200)가 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅할 수 있다(S120).The PTM generation method according to the present embodiment firstly acquires the
구체적으로 정보 추출부(200)는, 가상의 카메라(211)의 시점(Point of View)이 획득된 3차원 모델(10)을 상측에서 바라보는 시점으로 세팅하고, 가상의 조명들(221)이 반구(hemisphere)형으로 배치되도록 세팅할 수 있다. Specifically, the
가상의 조명들(221)의 세팅이 완료되면, 정보 추출부(200)는 세팅된 가상의 카메라(211) 및 가상의 조명들(221)을 이용하여 3차원 모델(10)에서 객체의 텍스처 정보 및 깊이 정보를 추출할 수 있다(S130).When the setting of the
구체적으로 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221) 중 적어도 하나의 조명이 빛을 투사하도록 하고, 빛이 투사되는 상태에서 세팅된 가상의 카메라(211)로 3차원 모델(10)을 촬영하도록 하여 텍스처 정보 및 깊이 정보를 추출할 수 있다.Specifically, the
이때, 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221)을 조정하여 여러 방향에서 빛이 투사되도록 하되, 교차적 또는 개별적으로 빛이 투사되도록 하여 각각의 빛에 따라 개별적으로 텍스처 정보 및 깊이 정보를 추출할 수 있다.At this time, the
예를 들면, 정보 추출부(200)는, 조명이 N개 마련된 경우, N개의 조명이 3차원 모델(10)을 향하여 개별적으로 빛을 투사하면, 가상의 카메라(211)를 이용하여 각각의 빛에 따라 N개의 텍스처 정보와 N개의 깊이 정보를 추출할 수 있는 것이다.For example, when N lights are provided and the N lights project light toward the three-
복수의 텍스처 정보와 깊이 정보가 추출되면, PTM 정보 생성부(300)는, 복수의 텍스처 정보와 깊이 정보를 조합하여 하나의 PTM 정보가 생성되도록 할 수 있다(S140). When a plurality of pieces of texture information and depth information are extracted, the PTM
구체적으로 PTM 정보 생성부(300)는, 깊이 정보를 반영하여 3차원 모델(10)을 구성하는 복수의 폴리곤들의 형상을 더욱 사실적으로 개선하고, 텍스처 정보를 반영하여 3차원 모델(10)을 구성하는 복수의 폴리곤들 각각의 표면상의 색상을 더욱 사실적인 색상으로 텍스처 매핑시켜 PTM을 생성하도록 할 수 있다.Specifically, the PTM
이때, 특정 픽셀에 대한 PTM은 아래와 같은 수식으로 산출될 수 있다. At this time, the PTM for a specific pixel can be calculated by the following equation.
L = L =
여기서 내지 는 복수의 텍스처 정보와 깊이 정보를 통해 산출될 수 있으며, 및 는 해당 픽셀의 빛의 방향 인자를 의미한다. here To Can be calculated through a plurality of texture information and depth information, And Represents a direction factor of light of the corresponding pixel.
도 5는 본 발명의 일 실시예에 따른 PTM 생성 방법의 동작 특성을 더욱 상세히 설명하기 위해 도시된 흐름도이다.FIG. 5 is a flowchart illustrating a method of generating a PTM according to an exemplary embodiment of the present invention. Referring to FIG.
이하에서는 도 5를 참조하여 본 실시예에 따른 PTM 생성 방법을 더욱 상세히 설명하기로 한다.Hereinafter, a PTM generation method according to the present embodiment will be described in more detail with reference to FIG.
본 실시예에 따른 PTM 생성 방법은, 우선, 3차원 모델 획득부(100)가 특정 객체에 대한 3차원 모델(10)을 획득하면(S210), 정보 추출부(200)가 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅할 수 있다(S220).The PTM generation method according to the present embodiment is a method for generating a PTM by first acquiring a
구체적으로 정보 추출부(200)는, 가상의 카메라(211)의 시점이 획득된 3차원 모델(10)을 상측에서 바라보는 시점으로 세팅하고, 가상의 조명들(221)이 반구형으로 배치되도록 세팅할 수 있다. Specifically, the
가상의 조명들(221)의 세팅이 완료되면, 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221) 중 적어도 하나의 조명이 빛을 투사하도록 하고(S230), 빛이 투사되는 상태에서 세팅된 가상의 카메라(211)로 3차원 모델(10)을 촬영하도록 하여 텍스처 정보 및 깊이 정보를 추출할 수 있다(S240).When the setting of the
이때, 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221)을 조정하여 여러 방향에서 빛이 투사되도록 하되, 교차적 또는 개별적으로 빛이 투사되도록 하여 각각의 빛에 따라 개별적으로 텍스처 정보 및 깊이 정보를 추출할 수 있다.At this time, the
복수의 텍스처 정보와 깊이 정보가 추출되면, PTM 정보 생성부(300)는, 3차원 모델(10)에 깊이 정보가 포함되도록 렌더링하고(S250), 3차원 모델(10)에 텍스처 정보가 포함되도록 렌더링하며(S260), 렌더링된 텍스처 정보 및 깊이 정보를 조합하여 PTM 정보를 생성할 수 있다(S270).When a plurality of pieces of texture information and depth information are extracted, the PTM
예를 들면, PTM 정보 생성부(300)는, 추출된 깊이 정보를 기반으로 3차원 모델(10)의 노말 맵(Normal Map)을 강화하거나 3차원 모델(10)의 표면의 요철을 강조하기 위해 해당 픽셀의 선명도가 향상되도록 렌더링할 수 있다.For example, the PTM
그리고 PTM 정보 생성부(300)는, 추출된 텍스처 정보를 기반으로 3차원 모델(10)의 노말 맵(Normal Map)을 제어하여 3차원 모델(10)의 형상 중 세부적인 형상 자체를 강조하도록 렌더링할 수 있다.The PTM
추출된 깊이 정보 및 텍스처 정보를 기반으로 하는 렌더링 과정이 완료되면, PTM 정보 생성부(300)는, 추출된 깊이 정보를 기반으로 렌더링한 이미지와 추출된 텍스처 정보를 기반으로 렌더링한 이미지를 조합하여 PTM 정보를 생성할 수 있다.When the rendering process based on the extracted depth information and texture information is completed, the PTM
전술한 바와 같이 이러한 방법으로 생성된 PTM 정보는 PTM 방식으로 텍스처 매핑시켜 생성된 영상 정보이며, 본 PTM 생성 시스템은 이러한 PTM 정보를 생성하여, 3차원 모델(10)의 형상 정보에 적용 가능하도록 하여, 컴퓨터 그래픽 데이터 상에서 3차원 모델(10)의 형상이 개선되도록 할 수 있다.As described above, the PTM information generated by this method is image information generated by texture mapping using the PTM method. The present PTM generation system generates the PTM information and is applicable to the shape information of the three-
또한, PTM 정보는 컴퓨터 그래픽 데이터 상에서 렌더링된 3차원 모델(10)의 세부 형상을 더욱 명확하게 표현할 수 있어, 디지털화된 문화유산의 분석 및 복원 작업에 적용할 수 있다.Further, the PTM information can more clearly express the detailed shape of the
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.
10 : 3차원 모델 100 : 3차원 모델 획득부
200 : 정보 추출부 210 : 가상의 카메라 세팅부
211 : 가상의 카메라 220 : 가상의 조명 세팅부
221 : 가상의 조명 230 : 텍스처 정보 추출부
240 : 깊이 정보 추출부 250 : 음영 정보 추출부
260 : 저장부 300 : PTM 정보 생성부10: 3D model 100: 3D model acquisition unit
200: information extracting unit 210: virtual camera setting unit
211: virtual camera 220: virtual lighting setting unit
221: virtual illumination 230: texture information extraction unit
240: Depth information extracting unit 250: Shadow information extracting unit
260: Storage unit 300: PTM information generation unit
Claims (10)
상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들을 세팅하여, 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여 상기 획득된 3차원 모델에서 상기 객체의 텍스처(Texture) 정보와 깊이(Depth) 정보가 추출되도록 하는 정보 추출부; 및
상기 텍스처 정보와 상기 깊이 정보를 조합하여 PTM(Polynomial Texture Mapping) 정보가 생성되도록 하는 PTM 정보 생성부;를 포함하고,
상기 3차원 모델 획득부는,
상기 객체의 음영이 제거되도록 상기 객체에 복수의 방향으로 빛을 투사하며, 상기 객체를 스캐닝하여 복수의 폴리곤(Polygon)으로 구성된 3차원 모델이 획득되도록 하며,
상기 정보 추출부는,
상기 획득된 3차원 모델을 기반으로 가상의 카메라 및 가상의 조명들을 세팅하되, 상기 가상의 카메라의 시점(Point of View)이 상기 획득된 3차원 모델을 상측에서 바라보는 시점으로 세팅하고, 상기 가상의 조명들이 반구(hemisphere)형으로 배치되도록 세팅하며, 상기 반구형으로 배치된 가상의 조명들 중 적어도 하나의 조명이 빛을 투사하도록 하고,
상기 정보 추출부는,
상기 3차원 모델에 투사되는 가상의 조명들의 조명 값의 연산이 용이하도록, 상기 가상의 조명들이 서로 균일한 간격으로 이격되도록 세팅하고,
상기 정보 추출부는,
상기 획득된 3차원 모델에 상기 빛이 투사되면, 상기 빛이 투사된 3차원 모델 중 상기 복수의 폴리곤에 대한 정보를 기반으로 상기 깊이 정보가 추출되도록 하고, 상기 3차원 모델의 폴리곤별 표면 색상에 대한 정보를 기반으로 상기 텍스처 정보가 추출되도록 하며,
상기 정보 추출부는,
상기 빛이 투사되면, 상기 투사된 빛 중 상기 객체에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 상기 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 상기 객체의 음영 정보가 추출되도록 하고,
상기 정보 추출부는,
상기 빛이 개별적으로 투사되면, 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되도록 하되, 상기 3차원 모델을 이루는 픽셀(Pixel)을 향하여 상기 빛이 개별적으로 투사되면, 상기 개별적으로 투사된 각각의 빛을 기준으로 상기 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 하고,
상기 PTM 정보 생성부는,
각각의 텍스처 정보 및 깊이 정보를 모두 조합하여 하나의 PTM 정보가 생성되도록 하되,
상기 3차원 모델을 이루는 각각의 픽셀 중 특정 픽셀에 대한 텍스처 정보와 깊이 정보를 통해 산출되는 상수를 내지 라고 하고, 상기 특정 픽셀을 항하여 상기 빛이 개별적으로 투사되어 획득되는 상기 특정 픽셀의 빛의 인자를 및 라고 하면, 상기 특정 픽셀에 대한 PTM 값이,
로 산출되는 것을 특징으로 하는 3차원 모델의 형상이 개선된 PTM 생성 시스템.A three-dimensional model acquiring unit for acquiring a three-dimensional model for a specific object;
Setting a virtual camera and virtual illuminations based on the obtained three-dimensional model, calculating texture information and depth of the object in the obtained three-dimensional model using the set virtual camera and virtual illuminations, An information extracting unit for extracting depth information from the extracted information; And
And a PTM information generator for generating PTM information by combining the texture information and the depth information,
Wherein the three-dimensional model obtaining unit comprises:
Projecting light in a plurality of directions to the object so that shading of the object is removed, scanning the object to obtain a three-dimensional model composed of a plurality of polygons,
The information extracting unit extracts,
Setting a virtual camera and virtual lights based on the obtained three-dimensional model, setting a point of view of the virtual camera to a time when the obtained three-dimensional model is viewed from above, Wherein at least one of the hemispherically arranged virtual lights is configured to project light,
The information extracting unit extracts,
The virtual illumination is set so as to be spaced apart from each other at a uniform interval so as to facilitate calculation of illumination values of virtual lights projected on the three-dimensional model,
The information extracting unit extracts,
The depth information is extracted on the basis of the information of the plurality of polygons among the three-dimensional models projected from the light, and when the light is projected on the obtained three-dimensional model, Extracting the texture information based on the information on the texture information,
The information extracting unit extracts,
Applying the extracted depth information to an Ambient Occlusion map so that light blocked by the object of the projected light is generated so that the generated shadow is expressed, To extract the shade information of the image,
The information extracting unit extracts,
When the light is individually projected, texture information and depth information corresponding to the individually projected light are individually extracted. When the light is individually projected toward a pixel constituting the three-dimensional model, The depth information including the vector factor of the normal direction of the pixel is extracted based on the individually projected light,
Wherein the PTM information generation unit comprises:
Each of the texture information and the depth information is combined to generate one PTM information,
The texture information for a specific pixel among the pixels constituting the three-dimensional model and the constant calculated through the depth information To And a light parameter of the specific pixel obtained by separately projecting the light by referring to the specific pixel And , The PTM value for the specific pixel is "
Wherein the three-dimensional model has a shape that is improved.
상기 3차원 모델 획득부는,
상기 객체를 스캐닝하는 경우, 상기 스캐닝하여 획득된 3차원 모델을 텍스처링(Texturing) 하는 것을 특징으로 하는 3차원 모델의 형상이 개선된 PTM 생성 시스템.The method according to claim 1,
Wherein the three-dimensional model obtaining unit comprises:
Wherein the 3D model obtained by scanning is textured when the object is scanned. 2. The system of claim 1, wherein the 3D model is scanned.
정보 추출부에 의해 상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들이 세팅되는 단계;
상기 정보 추출부가 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여, 상기 획득된 3차원 모델에서 상기 객체의 텍스처 정보와 깊이 정보가 추출되도록 하는 단계; 및
PTM 정보 생성부에 의해 상기 추출된 텍스트 정보와 깊이 정보가 조합되어, PTM 정보가 생성되는 단계;를 포함하고,
상기 획득 단계는,
상기 3차원 모델 획득부에 의해, 상기 객체의 음영이 제거되도록 상기 객체에 복수의 방향으로 빛이 투사되어, 상기 객체가 스캐닝되고 복수의 폴리곤(Polygon)으로 구성된 3차원 모델이 획득되도록 하며,
상기 추출 단계는,
상기 정보 추출부에 의해, 상기 획득된 3차원 모델을 기반으로 가상의 카메라 및 가상의 조명들이 세팅되되, 상기 가상의 카메라의 시점(Point of View)이 상기 획득된 3차원 모델을 상측에서 바라보는 시점으로 세팅되고, 상기 가상의 조명들이 반구(hemisphere)형으로 배치되도록 세팅되되, 상기 3차원 모델에 투사되는 가상의 조명들의 조명 값의 연산이 용이하도록, 상기 가상의 조명들이 서로 균일한 간격으로 이격되도록 세팅되고,
상기 반구형으로 배치된 가상의 조명들 중 적어도 하나의 조명이 빛이 투사되도록 하고, 상기 획득된 3차원 모델에 상기 빛이 투사되면, 상기 빛이 투사된 3차원 모델 중 상기 복수의 폴리곤에 대한 정보를 기반으로 상기 깊이 정보가 추출되도록 하고, 상기 3차원 모델의 폴리곤별 표면 색상에 대한 정보를 기반으로 상기 텍스처 정보가 추출되도록 하되, 상기 빛이 투사되면, 상기 투사된 빛 중 상기 객체에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 상기 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 상기 객체의 음영 정보가 추출되도록 하고,
상기 추출 단계는,
상기 정보 추출부에 의해, 상기 빛이 개별적으로 투사되면, 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되도록 하되,
상기 3차원 모델을 이루는 픽셀(Pixel)을 향하여 상기 빛이 개별적으로 투사되면, 상기 개별적으로 투사된 각각의 빛을 기준으로 상기 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 하고,
상기 생성 단계는,
상기 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되면, 상기 PTM 정보 생성부에 의해, 각각의 텍스처 정보 및 깊이 정보가 모두 조합되어 하나의 PTM 정보가 생성되도록 하되,
상기 3차원 모델을 이루는 각각의 픽셀 중 특정 픽셀에 대한 텍스처 정보와 깊이 정보를 통해 산출되는 상수를 내지 라고 하고, 상기 특정 픽셀을 항하여 상기 빛이 개별적으로 투사되어 획득되는 상기 특정 픽셀의 빛의 인자를 및 라고 하면, 상기 특정 픽셀에 대한 PTM 값이,
로 산출되는 것을 특징으로 하는 3차원 모델의 형상이 개선된 PTM 생성 방법.Obtaining a three-dimensional model of a specific object by the three-dimensional model acquisition unit;
Setting virtual camera and virtual lights based on the obtained three-dimensional model by an information extracting unit;
Causing the information extracting unit to extract texture information and depth information of the object from the obtained three-dimensional model using the set virtual camera and virtual illumination; And
And generating the PTM information by combining the extracted text information and the depth information by the PTM information generation unit,
The acquiring step includes:
The three-dimensional model obtaining unit causes light to be projected in a plurality of directions to the object so that the object is shaded, so that the object is scanned and a three-dimensional model composed of a plurality of polygons is acquired,
Wherein the extracting step comprises:
Wherein the virtual camera and the virtual illumination are set based on the obtained three-dimensional model by the information extracting unit, and the point of view of the virtual camera displays the three-dimensional model obtained from above The virtual lights are set at a uniform interval so as to facilitate setting of the virtual lights to be arranged in a hemisphere shape and to easily calculate illumination values of virtual lights projected on the three- Is set to be spaced apart,
Wherein at least one illumination of the hemispherical virtual lights causes light to be projected, and when the light is projected onto the obtained three-dimensional model, information on the plurality of polygons among the projected three- And extracting the texture information based on the information on the surface color of the polygon of the 3D model, wherein when the light is projected, the object of the projected light is blocked by the object And extracting shadow information of the object by applying the extracted depth information to an ambient occlusion map so that the generated shadow is represented by the generated light,
Wherein the extracting step comprises:
Wherein the information extraction unit extracts texture information and depth information corresponding to the individually projected light individually when the light is individually projected,
When the light is individually projected toward a pixel forming the three-dimensional model, depth information including a vector factor of the normal direction of the pixel is extracted individually based on the individually projected light ,
Wherein the generating comprises:
When the texture information and the depth information corresponding to the respective lights are individually extracted, the PTM information generation unit combines all the texture information and the depth information to generate one PTM information,
The texture information for a specific pixel among the pixels constituting the three-dimensional model and the constant calculated through the depth information To And a light parameter of the specific pixel obtained by separately projecting the light by referring to the specific pixel And , The PTM value for the specific pixel is "
The method of claim 1, wherein the three-dimensional model has a shape that is improved.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160180792A KR101817753B1 (en) | 2016-12-28 | 2016-12-28 | PTM making system with improved shape of 3D model and method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160180792A KR101817753B1 (en) | 2016-12-28 | 2016-12-28 | PTM making system with improved shape of 3D model and method using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101817753B1 true KR101817753B1 (en) | 2018-01-11 |
Family
ID=61004134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160180792A KR101817753B1 (en) | 2016-12-28 | 2016-12-28 | PTM making system with improved shape of 3D model and method using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101817753B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210243371A1 (en) * | 2018-11-02 | 2021-08-05 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and apparatus of depth detection, and computer-readable storage medium |
EP4068216A1 (en) * | 2021-03-31 | 2022-10-05 | Disney Enterprises, Inc. | 3d digital model surface rendering and conversion |
KR102674699B1 (en) * | 2021-12-15 | 2024-06-14 | 주식회사 와플랩 | Deep learning-based 3D modeling object visualization apparatus and method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008282302A (en) * | 2007-05-14 | 2008-11-20 | Dainippon Printing Co Ltd | Medium, medium manufacturing device, medium manufacturing method and program thereof |
JP2011138490A (en) * | 2009-12-28 | 2011-07-14 | Mitsubishi Electric Research Laboratories Inc | Method for determining pose of object in scene |
-
2016
- 2016-12-28 KR KR1020160180792A patent/KR101817753B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008282302A (en) * | 2007-05-14 | 2008-11-20 | Dainippon Printing Co Ltd | Medium, medium manufacturing device, medium manufacturing method and program thereof |
JP2011138490A (en) * | 2009-12-28 | 2011-07-14 | Mitsubishi Electric Research Laboratories Inc | Method for determining pose of object in scene |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210243371A1 (en) * | 2018-11-02 | 2021-08-05 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and apparatus of depth detection, and computer-readable storage medium |
US11611698B2 (en) * | 2018-11-02 | 2023-03-21 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and apparatus of depth detection, and computer-readable storage medium |
EP4068216A1 (en) * | 2021-03-31 | 2022-10-05 | Disney Enterprises, Inc. | 3d digital model surface rendering and conversion |
US11804007B2 (en) | 2021-03-31 | 2023-10-31 | Disney Enterprises, Inc. | 3D digital model surface rendering and conversion |
KR102674699B1 (en) * | 2021-12-15 | 2024-06-14 | 주식회사 와플랩 | Deep learning-based 3D modeling object visualization apparatus and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11115633B2 (en) | Method and system for projector calibration | |
US11551418B2 (en) | Image rendering of laser scan data | |
CN106454291B (en) | System and method for automatic registration and projection mapping | |
CN106548516B (en) | Three-dimensional roaming method and device | |
EP2869266B1 (en) | Method and apparatus for generating depth map of a scene | |
KR100914845B1 (en) | Method and apparatus for 3d reconstructing of object by using multi-view image information | |
WO2019075268A1 (en) | Image processing method, apparatus, and storage medium | |
CN107018392B (en) | Projector optimization method and system | |
KR102222290B1 (en) | Method for gaining 3D model video sequence | |
KR102546358B1 (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
KR101817753B1 (en) | PTM making system with improved shape of 3D model and method using the same | |
US20210125305A1 (en) | Video generation device, video generation method, program, and data structure | |
US20210217225A1 (en) | Arbitrary view generation | |
KR102291162B1 (en) | Apparatus and method for generating virtual data for artificial intelligence learning | |
JPWO2020075252A1 (en) | Information processing equipment, programs and information processing methods | |
KR101817756B1 (en) | PTM making system based on 3D model with interactive viewpoint control and method using the same | |
JP2004280776A (en) | Method for determining shape of object in image | |
KR20200042781A (en) | 3d model producing method and apparatus | |
JP2008204318A (en) | Image processor, image processing method and image processing program | |
JP2018032112A (en) | Data processor, data processing method and computer program | |
JP2020173726A (en) | Virtual viewpoint conversion device and program | |
KR20140003880A (en) | Apparatus and method for generating 3 dimension face | |
KR101855370B1 (en) | Real object-based integral imaging system using polygon object model | |
KR20230105902A (en) | Viewer apparatus and method for outputting three-dimensional data thereof | |
TWI521470B (en) | Three - dimensional Laser Scanning System and Its Color Point Cloud Image Establishment Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |