KR101817753B1 - PTM making system with improved shape of 3D model and method using the same - Google Patents

PTM making system with improved shape of 3D model and method using the same Download PDF

Info

Publication number
KR101817753B1
KR101817753B1 KR1020160180792A KR20160180792A KR101817753B1 KR 101817753 B1 KR101817753 B1 KR 101817753B1 KR 1020160180792 A KR1020160180792 A KR 1020160180792A KR 20160180792 A KR20160180792 A KR 20160180792A KR 101817753 B1 KR101817753 B1 KR 101817753B1
Authority
KR
South Korea
Prior art keywords
information
dimensional model
ptm
light
virtual
Prior art date
Application number
KR1020160180792A
Other languages
Korean (ko)
Inventor
최양현
안재홍
Original Assignee
(주)앤미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)앤미디어 filed Critical (주)앤미디어
Priority to KR1020160180792A priority Critical patent/KR101817753B1/en
Application granted granted Critical
Publication of KR101817753B1 publication Critical patent/KR101817753B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Architecture (AREA)
  • Image Generation (AREA)

Abstract

Disclosed are a polynomial texture mapping (PTM) generating system for improving a shape of a 3D model and a PTM generating method using the same capable of generating PTM to improve definition and a shape of a surface from the 3D model generated through 3D scanning of a cultural heritage. The PTM generating system for improving the shape of the 3D model comprises: a 3D model obtaining unit; an information extracting unit; and a PTM information generating unit. The 3D model obtaining unit obtains the 3D model for a specific object. The information extracting unit sets a virtual camera and virtual lamps based on the obtained 3D model and extracts texture information and depth information of the object from the obtained 3D model by using the set virtual camera and the virtual lamps. The PTM information generating unit generates PTM information by combining the texture information and the depth information. Therefore, the present invention improves the shape of the 3D model on computer graphic data by overcoming spatial and physical constraints for installing a real camera and a real lamp; and being applied to shape information of the 3D model. In addition, the present invention can clearly express a detailed shape of the 3D model rendered on the computer graphic data; and can be applied to analysis and restoration work of a digitalized cultural heritage.

Description

3차원 모델의 형상이 개선된 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법{PTM making system with improved shape of 3D model and method using the same}TECHNICAL FIELD [0001] The present invention relates to a PTM generation system having improved shape of a three-dimensional model and a PTM generation system using the same,

본 발명은 3차원 모델의 형상이 개선된 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법에 관한 것으로, 보다 상세하게는 문화유산의 디지털 작업을 수행하기 위해, 문화유산의 3차원 스캐닝을 통해 생성한 3차원 모델로부터 표면의 선명도 및 형상이 개선되도록 PTM(Polynomial Texture Mapping)을 생성하는 3차원 모델의 형상이 개선된 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법에 관한 것이다.The present invention relates to a PTM generation system with improved shape of a three-dimensional model and a PTM generation method using the same. More particularly, the present invention relates to a three-dimensional And more particularly, to a PTM generation system having improved shape of a three-dimensional model for generating PTM (Polynomial Texture Mapping) so that sharpness and shape of a surface are improved from a model and a PTM generation method using the same.

최근, 우리나라의 민족문화 유산으로 전해져 오는 각종 유형 문화유산의 보존에 대한 관심이 높아지면서 국가 정책으로 유형 문화유산을 보호하고 복원하기 위한 노력이 활발히 이루어지고 있는 상태이며, 이러한, 유형 문화유산의 원형 복원을 위한 노력의 일환으로서, 문화유산과 관련한 인문학, 사회학, 역사학, 민속학, 미학적 지식을 총동원하여 관련 분야의 전문가들 간에 이루어지는 협력 작업에 의한 문화유산의 물리적인 복원이 수행되고 있다.In recent years, interest in the preservation of various tangible cultural heritages, which are regarded as national heritage of our country, has increased, and efforts to protect and restore the tangible cultural heritage have been actively carried out by the national policy. As part of efforts for restoration, the physical restoration of cultural heritage is being carried out by collaborative work among experts in relevant fields, with all humanities, sociology, history, folklore and aesthetic knowledge related to cultural heritage.

한편, 이러한 각종 전문 지식을 총동원하여 이루어지는 전문가 집단에 의한 문화유산의 원형 복원 방식은, 전문가들의 분석 결과에 의한 여러 단계의 복원 프로젝트를 진행시켜야 하기 때문에, 많은 인력을 동원하여 장시간 동안 작업을 진행하여야 하며, 문화유산의 물리적인 복원을 위해 고비용을 지출해야만 하는 불리함이 있다.On the other hand, the circular restoration method of the cultural heritage by the expert group which is made up of various kinds of expert knowledge is required to carry out various restoration projects based on the analysis result of the experts, so it is necessary to carry out work for a long time And there is a disadvantage that they must spend high costs for the physical restoration of cultural heritage.

이에, 최근에는 분석의 정확도와 함께 저비용으로 문화유산을 복원시키기 위한 일환으로서, 3차원 광학 스캐너 장비를 이용하여 유형 문화유산의 3차원 형상을 스캐닝하고, 스캐닝된 3차원 데이터를 근거로 파손되거나 마모된 부재를 컴퓨터 시스템을 이용하여 작업자가 수작업에 의해 복원하는 방식이 개발되어 적용되는 실정이다.Recently, as a part of restoring cultural heritage at low cost along with accuracy of analysis, a three-dimensional shape of a tangible cultural heritage is scanned using a three-dimensional optical scanner device, and based on the scanned three-dimensional data, A method of manually restoring a member using a computer system has been developed and applied.

3차원 광학 스캐너를 이용한 데이터의 추출 작업은 대상 물체를 스캐닝하게 되면 스캐닝 방향에서 보이는 면들에 대한 3차원 점(Point) 데이터가 구름 형태로 수없이 많이 획득되며, 이렇게 스캐닝한 형상 정보 데이터를 활용하여 문화유산 유물의 디지털화 작업을 위한 기반 데이터로서, 활용 가능하도록 개발되었으나, 이러한 종래의 3차원 스캐닝을 통한 문화유산 유물의 디지털화 작업은 스캐닝 공정에서 획득한 형상 정보를 효과적으로 후처리하여 파손되거나 마모된 문화유산의 부재 부분을 원형 복원해야 하지만, 보다 효과적인 원형복원을 위한 후처리 솔루션이 개발되어 있지 않기 때문에, 작업자가 일일이 수작업으로 복원할 데이터를 비교 분석해 가면서 원형 복원을 진행해야 한다는 문제점이 있다.In the extraction of data using a three-dimensional optical scanner, when a target object is scanned, a large number of three-dimensional point data on the surfaces in the scanning direction are acquired in a cloud form, and using the scanned shape information data The digitalization work of cultural heritage through the conventional three-dimensional scanning is effective in post-processing the shape information acquired in the scanning process, and thus, However, since a post-processing solution for more effective circular restoration has not been developed, there is a problem that the circular restoration should be performed while the operator manually compares and analyzes the data to be restored manually.

한편, 일반적으로 특정 객체를 스캐닝하여 획득된 데이터를 이용하여 컴퓨터 그래픽 데이터로 표현하는 과정에는 특정 객체의 형상을 제작하는 모델링(Modelling) 과정, 형상이 제작된 모델의 질감, 그림, 무늬 등을 부가하는 텍스처링(Texturing) 과정, 질감, 그림, 무늬 등이 부가된 모델을 컴퓨터 그래픽의 이미지로 구현하는 렌더링(Rendering)과정이 존재한다.Generally, in the process of representing a computer graphic data by using data obtained by scanning a specific object, a modeling process for creating a shape of a specific object, a process of adding a texture, a picture, There is a rendering process in which a model having a texturing process, a texture, a picture, and a pattern is imaged as an image of a computer graphic.

이 중 텍스처링 과정을 하기 위하여, 텍스처 맵을 이용하는데, 이러한 텍스처 맵을 생성하여 텍스처링 하는 과정을 텍스처 매핑이라고 한다.To perform the texturing process, a texture map is used. The process of generating and texturing the texture map is called texture mapping.

PTM(Polynomial Texture Mapping)은 텍스처 매핑 중 하나의 방법으로, 함수로 이미지를 표현하는 기법으로서, 상세하게 설명하면, 각 픽셀이 빛의 방향 인자인 lu 와 lv로 R, G, B를 나타내는 함수를 포함하도록 하여, 객체를 촬영하는 카메라의 시점을 일정한 시점으로 고정하고, 복수의 조명을 제어하며, 객체의 표면의 밝기를 변경하며, 복수의 이미지를 획득하고, 획득된 복수의 이미지들을 매핑하는 기법이다.PTM (Polynomial Texture Mapping) is a method of representing images by function as one of texture mapping. In detail, each pixel represents R, G, B with l u and l v , Function to fix a viewpoint of a camera that captures an object at a fixed point in time, to control a plurality of lights, to change brightness of an object surface, to acquire a plurality of images, to map a plurality of acquired images .

이러한 PTM은 문화유산과 같은 객체를 스캐닝하여 형상 정보 데이터를 획득하는 경우, 객체의 형상을 사실적으로 표현할 수 있어, 문화유산 복원 분야에서 주목받고 있으나, 실제로 카메라 및 복수의 조명을 설치하고 제어해야 한다는 점에서 공간적, 물리적 제약이 존재한다.This PTM is attracting attention in the cultural heritage restoration field because it is possible to express the shape of the object realistically when acquiring shape information data by scanning objects such as cultural heritage, but in reality, cameras and plural lights should be installed and controlled There are spatial and physical constraints on the point.

이에, 기존의 PTM을 수행하는 과정에서 존재하는 공간적, 물리적 제약을 극복하여, 실제 카메라 및 조명을 이용하지 않고, PTM을 수행할 수 있는 방안의 모색이 요구된다. Therefore, it is required to find a way to overcome the spatial and physical constraints existing in the course of performing the PTM and to perform the PTM without using the actual camera and the illumination.

한국등록특허 제10-1509143호 : 문화유산 발굴조사 및 유구 분석을 위한 3차원 스캐닝 데이터 처리 방법Korean Patent No. 10-1509143: Three-dimensional scanning data processing method for cultural heritage excavation investigation and erosion analysis 미국공개특허 제2016-0116825호 : POLYNOMIAL TEXTURE MAPPING AND REFLECTANCE TRANSFORMATION IMAGING APPARATUS AND TECHNIQUESUS Patent Publication No. 2016-0116825: POLYNOMIAL TEXTURE MAPPING AND REFLECTANCE TRANSFORMATION IMAGING APPARATUS AND TECHNIQUES

본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로 본 발명의 목적은 객체를 스캐닝하여 획득되는 3차원 모델의 형상 정보에 적용 가능하도록 컴퓨터 그래픽 데이터 상에서 3차원 모델의 형상이 개선되도록 하는 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a method and apparatus for generating a PTM for improving the shape of a 3D model on computer graphics data so as to be applicable to shape information of a 3D model obtained by scanning an object System and a PTM generation method using the same.

또한, 본 발명의 다른 목적은 3차원 모델의 세부 형상을 더욱 명확하게 표현하도록, 해당 객체의 텍스처 정보와 깊이 정보를 추출하고, 추출된 텍스처 정보와 깊이 정보를 기반으로 PTM을 생성하는 PTM 생성 시스템 및 이를 이용한 PTM 생성 방법을 제공함에 있다.Another object of the present invention is to provide a PTM generation system for extracting texture information and depth information of a corresponding object and generating a PTM based on the extracted texture information and depth information so as to more clearly express the detailed shape of the three- And a method of generating a PTM using the same.

상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템은 특정 객체에 대한 3차원 모델이 획득되도록 하는 3차원 모델 획득부; 상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들을 세팅하여, 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여 상기 획득된 3차원 모델에서 상기 객체의 텍스처(Texture) 정보와 깊이(Depth) 정보가 추출되도록 하는 정보 추출부; 및 상기 텍스처 정보와 상기 깊이 정보를 조합하여 PTM(Polynomial Texture Mapping) 정보가 생성되도록 하는 PTM 정보 생성부;를 포함한다.According to another aspect of the present invention, there is provided a PTM generation system having an improved shape of a three-dimensional model, including: a three-dimensional model acquisition unit for acquiring a three-dimensional model of a specific object; Setting a virtual camera and virtual illuminations based on the obtained three-dimensional model, calculating texture information and depth of the object in the obtained three-dimensional model using the set virtual camera and virtual illuminations, An information extracting unit for extracting depth information from the extracted information; And a PTM information generator for generating PTM information by combining the texture information and the depth information.

이때, 상기 3차원 모델 획득부는, 상기 객체의 음영이 제거되도록 상기 객체에 복수의 방향으로 빛을 투사하며, 상기 객체를 스캐닝하여 복수의 폴리곤(Polygon)으로 구성된 3차원 모델을 획득할 수 있다.At this time, the three-dimensional model obtaining unit may project light in a plurality of directions to the object so that the shade of the object is removed, and scan the object to obtain a three-dimensional model composed of a plurality of polygons.

그리고 상기 정보 추출부는, 상기 획득된 3차원 모델을 기반으로 가상의 카메라 및 가상의 조명들을 세팅하되, 상기 가상의 카메라의 시점(Point of View)이 상기 획득된 3차원 모델을 상측에서 바라보는 시점으로 세팅하고, 상기 가상의 조명들이 반구(hemisphere)형으로 배치되도록 세팅하며, 상기 반구형으로 배치된 가상의 조명들 중 적어도 하나의 조명이 빛을 투사하도록 할 수 있다. The information extraction unit may set virtual cameras and virtual lights based on the obtained three-dimensional model, and the point-of-view of the virtual camera may include a point of time when the virtual camera looks at the obtained three- , Setting the virtual lights to be arranged in a hemisphere shape, and allowing at least one of the hemispherically arranged virtual lights to project light.

또한, 상기 정보 추출부는, 상기 3차원 모델에 투사되는 가상의 조명들의 조명 값의 연산이 용이하도록, 상기 가상의 조명들이 서로 균일한 간격으로 이격되도록 세팅할 수 있다.In addition, the information extracting unit may set the virtual illuminations to be spaced apart from each other at a uniform interval so that calculation of illumination values of virtual illuminations projected on the three-dimensional model is easy.

그리고 상기 정보 추출부는, 상기 획득된 3차원 모델에 상기 빛이 투사되면, 상기 빛이 투사된 3차원 모델 중 상기 복수의 폴리곤에 대한 정보를 기반으로 상기 깊이 정보가 추출되도록 하고, 상기 3차원 모델의 폴리곤별 표면 색상에 대한 정보를 기반으로 상기 텍스처 정보가 추출되도록 할 수 있다.And the information extracting unit extracts the depth information based on the information of the plurality of polygons among the three-dimensional models projected from the light when the light is projected onto the obtained three-dimensional model, The texture information may be extracted based on information on the surface color of each polygon.

또한, 상기 정보 추출부는, 상기 빛이 투사되면, 상기 투사된 빛 중 상기 객체에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 상기 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 상기 객체의 음영 정보가 추출되도록 할 수 있다.The information extracting unit extracts the extracted depth information from the ambient occlusion so that the light blocked by the object among the projected light is generated when the light is projected, And may be applied to a map so that shading information of the object is extracted.

그리고 상기 정보 추출부는, 상기 빛이 개별적으로 투사되면, 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되도록 하고, 상기 PTM 정보 생성부는, 각각의 텍스처 정보 및 깊이 정보를 모두 조합하여 하나의 PTM 정보가 생성되도록 할 수 있다.The information extracting unit extracts texture information and depth information corresponding to the individually projected light individually when the light is individually projected, and the PTM information generating unit extracts texture information and depth information It is possible to combine all of them to generate one PTM information.

또한, 상기 정보 추출부는, 상기 3차원 모델을 이루는 픽셀(Pixel)을 향하여 상기 빛이 개별적으로 투사되면, 상기 개별적으로 투사된 각각의 빛을 기준으로 상기 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 할 수 있다. The information extracting unit extracts the depth of the pixel including the vector factor of the normal direction of the pixel based on the individually projected light when the light is individually projected toward a pixel forming the three- Information can be extracted individually.

그리고 상기 3차원 모델 획득부는, 상기 객체를 스캐닝하는 경우, 상기 스캐닝하여 획득된 3차원 모델을 텍스처링(Texturing) 할 수 있다.When the object is scanned, the 3D model acquisition unit may texture the 3D model obtained by the scanning.

한편, 상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 방법은, 3차원 모델 획득부에 의해 특정 객체에 대한 3차원 모델이 획득되는 단계; 정보 추출부에 의해 상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들이 세팅되는 단계; 상기 정보 추출부가 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여, 상기 획득된 3차원 모델에서 상기 객체의 텍스처 정보와 깊이 정보가 추출되도록 하는 단계; 및 PTM 정보 생성부에 의해 상기 추출된 텍스트 정보와 깊이 정보가 조합되어, PTM 정보가 생성되는 단계;를 포함한다. According to another aspect of the present invention, there is provided a method of generating a three-dimensional model having improved PTM, comprising: obtaining a three-dimensional model of a specific object by a three-dimensional model obtaining unit; Setting virtual camera and virtual lights based on the obtained three-dimensional model by an information extracting unit; Causing the information extracting unit to extract texture information and depth information of the object from the obtained three-dimensional model using the set virtual camera and virtual illumination; And generating the PTM information by combining the extracted text information and the depth information by the PTM information generation unit.

이에 의해, 실제 카메라 및 조명을 설치해야 하는 공간적 제약 및 물리적 제약을 극복하고, 3차원 모델의 형상 정보에 적용 가능하도록 하여, 컴퓨터 그래픽 데이터 상에서 3차원 모델의 형상이 개선되도록 할 수 있다. Thus, it is possible to overcome spatial constraints and physical constraints on the installation of the actual camera and illumination, and to apply it to the shape information of the three-dimensional model, thereby improving the shape of the three-dimensional model on the computer graphics data.

또한, 컴퓨터 그래픽 데이터 상에서 렌더링된 3차원 모델의 세부 형상을 더욱 명확하게 표현할 수 있어, 디지털화된 문화유산의 분석 및 복원 작업에 적용할 수 있다.In addition, the detailed shape of the three-dimensional model rendered on the computer graphic data can be more clearly expressed, so that it can be applied to the analysis and restoration of digitized cultural heritage.

도 1은 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템의 구성을 설명하기 위해 도시된 도면이다.
도 2는 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템의 정보 추출부의 구성을 설명하기 위해 도시된 도면이다.
도 3은 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 시스템의 정보 추출부의 동작 특성을 설명하기 위해 도시된 도면이다.
도 4는 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 방법의 동작 특성을 설명하기 위해 도시된 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 3차원 모델의 형상이 개선된 PTM 생성 방법의 동작 특성을 더욱 상세히 설명하기 위해 도시된 흐름도이다.
1 is a diagram illustrating a configuration of a PTM generation system in which a shape of a three-dimensional model is improved according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a configuration of an information extracting unit of a PTM generation system in which a shape of a three-dimensional model is improved according to an embodiment of the present invention.
3 is a diagram for explaining operation characteristics of an information extracting unit of a PTM generation system in which a shape of a three-dimensional model is improved according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating an operation characteristic of a method of generating an improved PTM shape of a three-dimensional model according to an exemplary embodiment of the present invention.
FIG. 5 is a flowchart illustrating the operation characteristics of the improved PTM generation method of the three-dimensional model according to an exemplary embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명에 대해 보다 상세히 설명하기로 한다. 이하에 소개되는 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 본 발명은 이하 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다.Hereinafter, the present invention will be described in detail with reference to the drawings. The embodiments described below are provided by way of example so that those skilled in the art will be able to fully understand the spirit of the present invention. The present invention is not limited to the embodiments described below and may be embodied in other forms.

도 1은 본 발명의 일 실시예에 따른 3차원 모델(10)의 형상이 개선된 PTM 생성 시스템(이하에서는 'PTM 생성 시스템'으로 총칭함)의 구성을 설명하기 위해 도시된 도면이다. FIG. 1 is a diagram illustrating a configuration of a PTM generation system (hereinafter, referred to as a PTM generation system) having an improved shape of a three-dimensional model 10 according to an embodiment of the present invention.

본 실시예에 따른 PTM 생성 시스템은 객체를 스캐닝하여 획득되는 3차원 모델(10)의 형상 정보에 적용 가능하도록 컴퓨터 그래픽 데이터 상에서 3차원 모델(10)의 형상이 개선되도록 하고, 3차원 모델(10)의 세부 형상을 더욱 명확하게 표현하도록, 해당 객체의 텍스처 정보와 깊이 정보를 추출하고, 추출된 텍스처 정보와 깊이 정보를 기반으로 PTM을 생성하기 위해 마련된다.The PTM generation system according to the present embodiment improves the shape of the 3D model 10 on the computer graphic data so as to be applicable to the shape information of the 3D model 10 obtained by scanning the object, Is extracted to extract the texture information and the depth information of the object and the PTM is generated based on the extracted texture information and the depth information.

이를 위하여, PTM 생성 시스템은, 3차원 모델 획득부(100), 정보 추출부(200) 및 PTM 정보 생성부(300)를 포함한다.To this end, the PTM generation system includes a three-dimensional model acquisition unit 100, an information extraction unit 200, and a PTM information generation unit 300.

3차원 모델 획득부(100)는 특정 객체에 대한 3차원 모델(10)을 획득하기 위해 마련된다.The three-dimensional model acquisition unit 100 is provided for acquiring a three-dimensional model 10 for a specific object.

구체적으로 3차원 모델 획득부(100)는, 객체에 대하여 3차원 스캐닝함으로써, 복수의 폴리곤(Polygon)으로 구성된 3차원 모델(10)을 획득하거나, 외부로부터 3차원 모델(10)을 수신하여 획득할 수 있다.Specifically, the three-dimensional model acquisition unit 100 acquires a three-dimensional model 10 composed of a plurality of polygons by scanning the object three-dimensionally, receives the three-dimensional model 10 from the outside, can do.

여기서 3차원 모델(10)은, Maya, 3Ds Max와 같은 컴퓨터 그래픽스용 소프트웨어를 이용하여 3차원 메쉬(mesh) 모델과 같이 컴퓨터 그래픽스의 분야에서 가상의 3차원 공간 속에 재현될 수 있는 수학적 모델을 의미하며, 컴퓨터가 기록하거나 이해할 수 있는 형태의 데이터로 처리 또는 저장될 수 있다.Here, the three-dimensional model 10 is a mathematical model that can be reproduced in a virtual three-dimensional space in the field of computer graphics, such as a three-dimensional mesh model, by using computer graphics software such as Maya and 3Ds Max And may be processed or stored in a form that can be recorded or understood by a computer.

그리고 3차원 모델 획득부(100)는, 객체를 3차원 스캐닝하는 경우, 3차원 모델(10)을 텍스처링(Texturing)할 수 있다.The three-dimensional model acquisition unit 100 may texture the three-dimensional model 10 when the object is three-dimensionally scanned.

여기서, 텍스처링(Texturing)은 3차원 모델(10)에 질감이나 그림, 모양, 무늬 등을 부가하는 그래픽 처리 과정을 의미합니다.Here, texturing refers to a graphic processing process that adds textures, pictures, shapes, and patterns to a three-dimensional model (10).

또한, 폴리곤은 3D 그래픽에서 물체를 표현할 때 쓰이는 기본 단위인 다각형을 의미하며, 특정 객체를 표면상의 실제 색상과는 별개로 하는 다각형으로 이루어진 면으로 표현하는 방법을 폴리곤 메쉬라고 하며, 본 실시예에 따른 3차원 모델(10) 역시, 다각형으로 구성된 메쉬 모델을 의미할 수 있다.In addition, a polygon means a polygon, which is a basic unit used to represent an object in 3D graphics. A polygon mesh is a method of expressing a specific object by a polygonal surface that is different from the actual color on the surface. Dimensional model 10 according to the present invention can also mean a mesh model composed of polygons.

정보 추출부(200)는 3차원 모델(10)에서 객체의 텍스처 정보와 깊이 정보를 추출하기 위해 마련된다.The information extraction unit 200 is provided for extracting texture information and depth information of an object from the three-dimensional model 10.

구체적으로 정보 추출부(200)는, 3차원 모델 획득부(100)를 통해 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅하고, 세팅된 가상의 조명들(221)이 3차원 모델(10)을 향해 빛을 투사하는 상태에서 가상의 카메라(211)를 통해 3차원 모델(10)을 촬영하여, 객체의 텍스트 정보 및 깊이 정보를 추출할 수 있다.Specifically, the information extracting unit 200 sets the virtual camera 211 and the virtual lights 221 on the basis of the three-dimensional model 10 obtained through the three-dimensional model obtaining unit 100, Dimensional model 10 is photographed through the virtual camera 211 in a state in which the virtual illuminations 221 projecting the light toward the three-dimensional model 10 extract the text information and the depth information of the object can do.

예를 들면, 정보 추출부(200)는, PTM 정보 생성부(300)에 객체의 텍스처 정보를 전달하기 위해 객체를 스캐닝하여 획득된 3차원 모델(10)의 폴리곤 각각의 표면 색상에 대한 정보를 기반으로 텍스처 정보를 추출할 수 있다.For example, the information extraction unit 200 scans an object to transmit texture information of the object to the PTM information generation unit 300, and obtains information on the surface color of each of the polygons of the 3D model 10 The texture information can be extracted based on the texture information.

여기서, 텍스처 정보는, 3차원 모델(10)의 표면상의 색상을 표현하는 2D 이미지 정보를 의미하며, 3차원 모델(10)을 구성하는 폴리곤마다 각각의 표면상의 색상을 입히는 과정을 텍스처 매핑이라고 한다.Here, the texture information means 2D image information representing the color on the surface of the three-dimensional model 10, and the process of applying the color on each surface of each polygon constituting the three-dimensional model 10 is called texture mapping .

또한, 깊이 정보(Depth Information)는, 3차원 객체의 거리 정보를 의미하며, 3차원 모델(10)의 형상을 정의하는 3차원 다각형 메시(Polygonal mesh)를 갖는 심도 맵 또는 포인트 클라우드(Point cloud)를 생성하는데 이용될 수 있으며, 심도 정보라고도 한다.Depth information refers to distance information of a three-dimensional object. It is a depth map having a three-dimensional polygonal mesh defining a shape of the three-dimensional model 10 or a point cloud, And may be referred to as depth information.

이러한 깊이 정보는 CCD(Charged Coupled Device)가 적용된 삼각측량 방식의 3차원 레이저 스캐너, 구조 광선패턴을 이용한 깊이 카메라, 적외선(IR : Infra-Red)의 반사 시간 차이를 이용한 TOF(Time-Of-flight) 방식의 깊이 카메라 등을 이용하여 획득할 수 있으며, 3차원 모델(10)을 획득하는 과정에서 텍스처 정보 및 깊이 정보 역시 획득되어 3차원 모델(10)에 적용된다.The depth information includes a three-dimensional laser scanner with a CCD (Charged Coupled Device), a depth camera using a structural ray pattern, and a time-of-flight (TOF) ) Depth camera, and in the process of acquiring the 3D model 10, texture information and depth information are also acquired and applied to the 3D model 10.

구체적으로, 본 실시예에 따른 3차원 모델 획득부(100)는, 3차원 모델(10)의 형상을 보다 명확하고 선명하게 인지하고, 표현할 수 있도록, 3차원 레이저 스캐너를 이용하여 측정하려는 객체를 여러 방향에서 스캐닝하여 3차원 모델(10)을 획득할 수 있다.More specifically, the three-dimensional model obtaining unit 100 according to the present embodiment detects an object to be measured using a three-dimensional laser scanner so that the shape of the three-dimensional model 10 can be recognized more clearly and clearly It is possible to acquire the three-dimensional model 10 by scanning in various directions.

또한, 이러한 방식으로 획득된 3차원 모델(10)이 정보 추출부(200)에 수신되면, 정보 추출부(200)는, 3차원 모델(10)을 기준으로 가상의 카메라(211)와 가상의 조명들(221)을 세팅하고, 여러 방향에서 빛을 투사하되, 빛의 투사 방향을 다양하게 조정하며, 복수의 깊이 정보를 추출할 수 있다. When the 3D model 10 obtained in this manner is received by the information extraction unit 200, the information extraction unit 200 extracts the virtual camera 211 and the virtual camera 211 based on the three- It is possible to set the lights 221 and project light in various directions, variously adjust the projection direction of light, and extract a plurality of depth information.

PTM 정보 생성부(300)는 추출된 텍스터 정보와 깊이 정보를 조합하여 PTM 정보를 생성하기 위해 마련된다.The PTM information generation unit 300 is provided to generate PTM information by combining extracted texture information and depth information.

구체적으로 PTM 정보 생성부(300)는 정보 추출부(200)가 3차원 모델(10)을 기준으로 가상의 카메라(211)와 가상의 조명들(221)을 세팅하고, 빛의 투사 방향을 다양하게 조정하며, 복수의 텍스처 정보와 깊이 정보를 추출하면, 복수의 텍스처 정보와 깊이 정보를 조합하여 하나의 PTM 정보가 생성되도록 할 수 있다. Specifically, the PTM information generation unit 300 sets the virtual camera 211 and the virtual lights 221 on the basis of the three-dimensional model 10 by the information extraction unit 200, If a plurality of texture information and depth information are extracted, a plurality of texture information and depth information may be combined to generate one PTM information.

예를 들면, PTM 정보 생성부(300)는 3차원 모델(10)의 폴리곤마다 각각의 표면상의 색상을 더욱 사실적인 색상으로 텍스처 매핑시켜 PTM을 생성하도록 할 수 있다. For example, the PTM information generation unit 300 may texture map the color on each surface of each of the three-dimensional models 10 to a more realistic color to generate a PTM.

여기서 PTM 정보는 PTM 방식으로 텍스처 매핑시켜 생성된 영상 정보이며, 본 PTM 생성 시스템은 이러한 PTM 정보를 생성하여, 3차원 모델(10)의 형상 정보에 적용 가능하도록 하여, 컴퓨터 그래픽 데이터 상에서 3차원 모델(10)의 형상이 개선되도록 할 수 있다.Here, the PTM information is image information generated by texture mapping by the PTM method. The present PTM generation system generates the PTM information and is applicable to the shape information of the three-dimensional model 10, The shape of the base 10 can be improved.

또한, 이러한 PTM 정보는 컴퓨터 그래픽 데이터 상에서 렌더링된 3차원 모델(10)의 세부 형상을 더욱 명확하게 표현할 수 있어, 디지털화된 문화유산의 분석 및 복원 작업에 적용할 수 있다.In addition, the PTM information can more clearly express the detailed shape of the 3D model 10 rendered on the computer graphic data, and can be applied to the analysis and restoration of digitized cultural heritage.

한편, 도 2는 본 발명의 일 실시예에 따른 PTM 생성 시스템의 정보 추출부(200)의 구성을 설명하기 위해 도시된 도면이며, 도 3은 본 발명의 일 실시예에 따른 PTM 생성 시스템의 정보 추출부(200)의 동작 특성을 설명하기 위해 도시된 도면이다.FIG. 2 is a diagram for explaining the configuration of the information extracting unit 200 of the PTM generating system according to an embodiment of the present invention. FIG. 3 is a view for explaining the configuration of the information extracting unit 200 of the PTM generating system according to an embodiment of the present invention. The operation of the extraction unit 200 will be described.

이하에서는 도 2 내지 도 3을 참조하여 PTM 생성 시스템의 정보 추출부(200)에 대하여 더욱 상세히 설명하기로 한다.Hereinafter, the information extraction unit 200 of the PTM generation system will be described in more detail with reference to FIG. 2 to FIG.

본 실시예에 따른 정보 추출부(200)는, 3차원 모델 획득부(100)를 통해 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅하고, 세팅된 가상의 조명들(221)이 3차원 모델(10)을 향해 빛을 투사하는 상태에서 가상의 카메라(211)를 통해 3차원 모델(10)을 촬영하여, 객체의 텍스트 정보 및 깊이 정보를 추출하기 위해 마련된다.The information extracting unit 200 according to the present embodiment sets the virtual camera 211 and the virtual lights 221 on the basis of the three-dimensional model 10 obtained through the three-dimensional model obtaining unit 100 Dimensional model 10 is photographed through the virtual camera 211 in a state in which the set virtual lights 221 project light toward the three-dimensional model 10, and the text information and the depth of the object Information is extracted.

이를 위해, 정보 추출부(200)는, 가상의 카메라 세팅부(210), 가상의 조명 세팅부(220), 텍스처 정보 추출부(230) 및 깊이 정보 추출부(240)를 포함한다. The information extracting unit 200 includes a virtual camera setting unit 210, a virtual lighting setting unit 220, a texture information extracting unit 230, and a depth information extracting unit 240.

가상의 카메라 세팅부(210)는 3차원 모델(10)을 기준으로 가상의 카메라(211)를 세팅하기 위해 마련되며, 가상의 조명 세팅부(220)는 마찬가지로 3차원 모델(10)을 기준으로 가상의 조명들(221)을 세팅하기 위해 마련된다.The virtual camera setting unit 210 is provided for setting the virtual camera 211 on the basis of the three-dimensional model 10 and the virtual lighting setting unit 220 similarly sets the virtual camera setting unit 220 on the basis of the three- And is provided for setting virtual lights 221.

이러한 가상의 카메라 세팅부(210)와 가상의 조명 세팅부(220)는 컴퓨터 그래픽스용 소프트웨어를 이용하여 가상의 카메라(211) 및 가상의 조명들(221)의 수, 위치 등을 조정하고, 조정된 수, 위치에 따라 가상의 카메라(211) 및 조명들이 세팅되도록 할 수 있다.The virtual camera setting unit 210 and the virtual lighting setting unit 220 adjust the number and position of the virtual camera 211 and the virtual lights 221 by using computer graphics software, The virtual camera 211 and the illuminations may be set according to the number, position, and position of the camera.

예를 들면, 본 실시예에 따른 가상의 카메라 세팅부(210)는, 도 3에 도시된 바와 같이 가상의 카메라(211)의 시점(Point of View)이 획득된 3차원 모델(10)을 상측에서 바라보는 시점으로 세팅하고, 이때, 가상의 조명 세팅부(220)가, 가상의 조명들(221)이 반구(hemisphere)형으로 배치되도록 세팅할 수 있으며, 가상의 조명들(221)의 세팅이 완료되면, 반구형으로 배치된 가상의 조명들(221) 중 적어도 하나의 조명이 빛을 투사하도록 할 수 있다.For example, the virtual camera setting unit 210 according to the present embodiment may be configured such that a three-dimensional model 10 obtained by acquiring a point of view of a virtual camera 211 as shown in Fig. 3 is referred to as an upper side The virtual illumination setting unit 220 can set the virtual illumination lights 221 to be arranged in a hemisphere shape and the setting of the virtual lights 221 The illumination of at least one of the hemispherical virtual lights 221 may project light.

여기서, 가상의 조명 세팅부(220)는 가상의 조명들(221)을 단순히 반구형으로 배치되도록 세팅할 수도 있지만, 반구형으로 배치되도록 하되, 각각의 가상의 조명들(221)이 균일한 간격으로 이격되도록 세팅하여, 깊이 정보 추출부(240) 또는 후술할 음여 정보 추출부(250)에서 가상의 조명들(221)의 조명 값에 대한 연산이 용이하도록 할 수 있다.Herein, the virtual illumination setting unit 220 may be set so that the virtual lights 221 are arranged to be simply hemispherical, but it is arranged to be hemispherical so that each of the virtual lights 221 is spaced apart at uniform intervals So that the calculation of the illumination values of the virtual lights 221 can be facilitated by the depth information extracting unit 240 or the sound information extracting unit 250 to be described later.

도 3에서는 설명의 편의를 위하여 3차원 모델(10)을 단순한 형상으로 도시하였지만, 서로 다른 각도에서 빛을 투사하는 경우, 3차원 모델(10)의 형상이 도시된 3차원 모델(10)의 형상보다 복잡하다면, 투사된 빛 중 3차원 모델(10)에 의해 차단되어 음영이 발생하거나, 투사된 빛이 균일하게 도달하지 못할 가능성이 있다.3, the three-dimensional model 10 is shown as a simple shape for convenience of explanation. However, in the case where light is projected at different angles, the shape of the three-dimensional model 10 is not limited to the shape of the three- If it is more complicated, there is a possibility that the projected light is intercepted by the three-dimensional model 10 to generate shading or the projected light can not reach uniformly.

또한, 다양한 각도에서 투사되는 빛을 기준으로 3차원 모델(10)을 촬영하여 획득된 데이터에는 다양한 깊이 정보와 텍스처 정보가 포함될 수 있다. In addition, various depth information and texture information may be included in the data obtained by photographing the three-dimensional model 10 based on light projected from various angles.

텍스처 정보 추출부(230)는 적어도 하나의 조명이 3차원 모델(10)을 향해 빛을 투사하고, 3차원 모델(10)을 향해 세팅된 가상의 카메라(211)로부터 촬영된 데이터에서 텍스처 정보를 추출하기 위해 마련되며, 깊이 정보 추출부(240)는 3차원 모델(10)을 향해 세팅된 가상의 카메라(211)로부터 촬영된 데이터에서 깊이 정보를 추출하기 위해 마련된다.The texture information extracting unit 230 extracts texture information from the photographed data from the virtual camera 211 set by the at least one light toward the three-dimensional model 10 And the depth information extracting unit 240 is provided for extracting depth information from the photographed data from the virtual camera 211 set toward the three-dimensional model 10.

예를 들면, 텍스처 정보 추출부(230)는, 획득된 3차원 모델(10)에 빛이 투사되면, 3차원 모델(10)의 폴리곤별 표면 색상에 대한 정보를 기반으로 텍스처 정보가 추출되도록 하고, 깊이 정보 추출부(240)는 빛이 투사된 3차원 모델(10) 중 복수의 폴리곤에 대한 정보를 기반으로 깊이 정보가 추출되도록 할 수 있다.For example, when light is projected onto the obtained three-dimensional model 10, the texture information extraction unit 230 extracts the texture information based on the information about the surface color of the polygon of the three-dimensional model 10 , The depth information extracting unit 240 may extract the depth information based on the information of the plurality of polygons among the three-dimensional model 10 on which the light is projected.

이때, 텍스처 정보 추출부(230)는 서로 다른 방향에서 교차적 또는 개별적으로 빛이 투사되면, 교차적 또는 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보가 개별적으로 추출되도록 하고, 깊이 정보 추출부(240)는 교차적 또는 개별적으로 투사된 각각의 빛에 대응되는 깊이 정보가 추출되도록 할 수 있다.At this time, the texture information extracting unit 230 extracts the texture information corresponding to each of the lights projected alternately or individually when the light is projected crosswise or individually from different directions, The controller 240 can extract the depth information corresponding to each of the lights projected alternately or individually.

다른 예를 들면, 깊이 정보 추출부(240)는 3차원 모델(10)을 이루는 픽셀(Pixel)을 향하여 빛이 개별적 또는 교차적으로 투사되면, 개별적 또는 교차적으로 투사된 각각의 빛을 기준으로 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 할 수 있다.Alternatively, the depth information extracting unit 240 extracts the depth information of the three-dimensional model 10 based on the individually or alternately projected light when the light is individually or alternately projected toward the pixel (pixel) The depth information including the vector factor of the normal direction of the pixel can be extracted individually.

한편, 정보 추출부(200)는, 전술한 가상의 카메라 세팅부(210), 가상의 조명 세팅부(220), 텍스처 정보 추출부(230), 깊이 정보 추출부(240) 이외에, 추가적으로 음여 정보 추출부(250) 및 저장부(260)를 더 포함할 수 있다. The information extracting unit 200 may further include a virtual camera setting unit 210, a virtual lighting setting unit 220, a texture information extracting unit 230, a depth information extracting unit 240, An extraction unit 250, and a storage unit 260. [

음여 정보 추출부(250)는, 서로 다른 각도에서 빛을 투사하는 경우, 투사된 빛 중 3차원 모델(10)에 의해 차단되어 음영이 발생하면, 음영 정보를 추출하기 위해 마련된다.The light information extracting unit 250 is provided for extracting the shadow information when the light is projected at different angles and the shadow is blocked by the three-dimensional model 10 among the projected lights.

구체적으로 음여 정보 추출부(250)는, 서로 다른 각도에서 교차적 또는 개별적으로 빛이 투사되면, 투사된 빛 중 3차원 모델(10)(객체)에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 객체의 음영 정보가 추출되도록 할 수 있다.Specifically, the light extraction information extracting unit 250 extracts light that is blocked by the three-dimensional model 10 (object) of the projected light when light is projected crosswise or individually at different angles, The extracted depth information is applied to an ambient occlusion map so that the shading information of the object can be extracted.

저장부(260)는 획득된 특정 객체를 저장하거나, 특정 객체에 대하여 가상의 카메라(211)의 세팅 값 및 가상의 조명들(221)의 세팅 값 또는 특정 객체(3차원 모델(10))의 텍스처 정보, 깊이 정보 및 음영 정보를 저장할 수 있다.The storage unit 260 may store the acquired specific object or may store the setting value of the virtual camera 211 and the setting value of the virtual lighting 221 or the setting value of the virtual camera 211 Texture information, depth information, and shading information.

도 4는 본 발명의 일 실시예에 따른 3차원 모델(10)의 형상이 개선된 PTM 생성 방법(이하에서는 'PTM 생성 방법'이라고 총칭함)의 동작 특성을 설명하기 위해 도시된 흐름도이다.FIG. 4 is a flowchart illustrating the operation characteristics of the improved PTM generation method (hereinafter, referred to as 'PTM generation method') of the three-dimensional model 10 according to an embodiment of the present invention.

본 실시예에 따른 PTM 생성 방법은, 우선, 3차원 모델 획득부(100)가 특정 객체에 대한 3차원 모델(10)을 획득하면(S110), 정보 추출부(200)가 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅할 수 있다(S120).The PTM generation method according to the present embodiment firstly acquires the 3D model 10 for a specific object (S110), and the information extraction unit 200 acquires the acquired 3D model 10 The virtual camera 211 and the virtual lights 221 may be set on the basis of the virtual camera 10 (S120).

구체적으로 정보 추출부(200)는, 가상의 카메라(211)의 시점(Point of View)이 획득된 3차원 모델(10)을 상측에서 바라보는 시점으로 세팅하고, 가상의 조명들(221)이 반구(hemisphere)형으로 배치되도록 세팅할 수 있다. Specifically, the information extracting unit 200 sets the point of view of the virtual camera 211 to the viewpoint of the obtained three-dimensional model 10 from above, and the virtual lights 221 It can be set to be arranged in a hemisphere shape.

가상의 조명들(221)의 세팅이 완료되면, 정보 추출부(200)는 세팅된 가상의 카메라(211) 및 가상의 조명들(221)을 이용하여 3차원 모델(10)에서 객체의 텍스처 정보 및 깊이 정보를 추출할 수 있다(S130).When the setting of the virtual lights 221 is completed, the information extracting unit 200 extracts the texture information of the object in the three-dimensional model 10 using the set virtual camera 211 and the virtual lights 221 And depth information can be extracted (S130).

구체적으로 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221) 중 적어도 하나의 조명이 빛을 투사하도록 하고, 빛이 투사되는 상태에서 세팅된 가상의 카메라(211)로 3차원 모델(10)을 촬영하도록 하여 텍스처 정보 및 깊이 정보를 추출할 수 있다.Specifically, the information extracting unit 200 allows at least one of the virtual lights 221 arranged in a hemispherical shape to project light, and the virtual camera 211 set in a state in which light is projected, The model 10 can be photographed to extract texture information and depth information.

이때, 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221)을 조정하여 여러 방향에서 빛이 투사되도록 하되, 교차적 또는 개별적으로 빛이 투사되도록 하여 각각의 빛에 따라 개별적으로 텍스처 정보 및 깊이 정보를 추출할 수 있다.At this time, the information extracting unit 200 adjusts the virtual lights 221 arranged in hemispherical shape so that light is projected in various directions, and the light is projected alternately or individually, Texture information and depth information can be extracted.

예를 들면, 정보 추출부(200)는, 조명이 N개 마련된 경우, N개의 조명이 3차원 모델(10)을 향하여 개별적으로 빛을 투사하면, 가상의 카메라(211)를 이용하여 각각의 빛에 따라 N개의 텍스처 정보와 N개의 깊이 정보를 추출할 수 있는 것이다.For example, when N lights are provided and the N lights project light toward the three-dimensional model 10 individually, the information extracting unit 200 extracts each light The N texture information and the N depth information can be extracted.

복수의 텍스처 정보와 깊이 정보가 추출되면, PTM 정보 생성부(300)는, 복수의 텍스처 정보와 깊이 정보를 조합하여 하나의 PTM 정보가 생성되도록 할 수 있다(S140). When a plurality of pieces of texture information and depth information are extracted, the PTM information generation unit 300 may combine a plurality of texture information and depth information to generate one PTM information (S140).

구체적으로 PTM 정보 생성부(300)는, 깊이 정보를 반영하여 3차원 모델(10)을 구성하는 복수의 폴리곤들의 형상을 더욱 사실적으로 개선하고, 텍스처 정보를 반영하여 3차원 모델(10)을 구성하는 복수의 폴리곤들 각각의 표면상의 색상을 더욱 사실적인 색상으로 텍스처 매핑시켜 PTM을 생성하도록 할 수 있다.Specifically, the PTM information generation unit 300 further realistically improves the shape of the plurality of polygons constituting the three-dimensional model 10 by reflecting the depth information, and constructs the three-dimensional model 10 by reflecting the texture information The color on the surface of each of the plurality of polygons to be generated may be texture-mapped to a more realistic color so as to generate the PTM.

이때, 특정 픽셀에 대한 PTM은 아래와 같은 수식으로 산출될 수 있다. At this time, the PTM for a specific pixel can be calculated by the following equation.

L =

Figure 112016128405944-pat00001
L =
Figure 112016128405944-pat00001

여기서

Figure 112016128405944-pat00002
내지
Figure 112016128405944-pat00003
는 복수의 텍스처 정보와 깊이 정보를 통해 산출될 수 있으며,
Figure 112016128405944-pat00004
Figure 112016128405944-pat00005
는 해당 픽셀의 빛의 방향 인자를 의미한다. here
Figure 112016128405944-pat00002
To
Figure 112016128405944-pat00003
Can be calculated through a plurality of texture information and depth information,
Figure 112016128405944-pat00004
And
Figure 112016128405944-pat00005
Represents a direction factor of light of the corresponding pixel.

도 5는 본 발명의 일 실시예에 따른 PTM 생성 방법의 동작 특성을 더욱 상세히 설명하기 위해 도시된 흐름도이다.FIG. 5 is a flowchart illustrating a method of generating a PTM according to an exemplary embodiment of the present invention. Referring to FIG.

이하에서는 도 5를 참조하여 본 실시예에 따른 PTM 생성 방법을 더욱 상세히 설명하기로 한다.Hereinafter, a PTM generation method according to the present embodiment will be described in more detail with reference to FIG.

본 실시예에 따른 PTM 생성 방법은, 우선, 3차원 모델 획득부(100)가 특정 객체에 대한 3차원 모델(10)을 획득하면(S210), 정보 추출부(200)가 획득된 3차원 모델(10)을 기준으로 가상의 카메라(211) 및 가상의 조명들(221)을 세팅할 수 있다(S220).The PTM generation method according to the present embodiment is a method for generating a PTM by first acquiring a 3D model 10 for a specific object at step S210, The virtual camera 211 and the virtual lights 221 may be set on the basis of the virtual camera 10 (S220).

구체적으로 정보 추출부(200)는, 가상의 카메라(211)의 시점이 획득된 3차원 모델(10)을 상측에서 바라보는 시점으로 세팅하고, 가상의 조명들(221)이 반구형으로 배치되도록 세팅할 수 있다. Specifically, the information extracting unit 200 sets the viewpoint of the virtual camera 211 to the viewpoint of the obtained three-dimensional model 10 from above and sets the virtual lights 221 to be hemispherical can do.

가상의 조명들(221)의 세팅이 완료되면, 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221) 중 적어도 하나의 조명이 빛을 투사하도록 하고(S230), 빛이 투사되는 상태에서 세팅된 가상의 카메라(211)로 3차원 모델(10)을 촬영하도록 하여 텍스처 정보 및 깊이 정보를 추출할 수 있다(S240).When the setting of the virtual lights 221 is completed, the information extracting unit 200 causes at least one of the virtual lights 221 arranged in hemispherical shape to project light (S230) The 3D model 10 is photographed by the virtual camera 211 set in a state in which the 3D model 10 is set to extract texture information and depth information at step S240.

이때, 정보 추출부(200)는, 반구형으로 배치된 가상의 조명들(221)을 조정하여 여러 방향에서 빛이 투사되도록 하되, 교차적 또는 개별적으로 빛이 투사되도록 하여 각각의 빛에 따라 개별적으로 텍스처 정보 및 깊이 정보를 추출할 수 있다.At this time, the information extracting unit 200 adjusts the virtual lights 221 arranged in hemispherical shape so that light is projected in various directions, and the light is projected alternately or individually, Texture information and depth information can be extracted.

복수의 텍스처 정보와 깊이 정보가 추출되면, PTM 정보 생성부(300)는, 3차원 모델(10)에 깊이 정보가 포함되도록 렌더링하고(S250), 3차원 모델(10)에 텍스처 정보가 포함되도록 렌더링하며(S260), 렌더링된 텍스처 정보 및 깊이 정보를 조합하여 PTM 정보를 생성할 수 있다(S270).When a plurality of pieces of texture information and depth information are extracted, the PTM information generation unit 300 renders the 3D model 10 to include depth information (S250), and the texture information is included in the 3D model 10 (S260), and the PTM information may be generated by combining the rendered texture information and the depth information (S270).

예를 들면, PTM 정보 생성부(300)는, 추출된 깊이 정보를 기반으로 3차원 모델(10)의 노말 맵(Normal Map)을 강화하거나 3차원 모델(10)의 표면의 요철을 강조하기 위해 해당 픽셀의 선명도가 향상되도록 렌더링할 수 있다.For example, the PTM information generation unit 300 may enhance the normal map of the three-dimensional model 10 or emphasize the unevenness of the surface of the three-dimensional model 10 based on the extracted depth information It can be rendered to improve the sharpness of the pixel.

그리고 PTM 정보 생성부(300)는, 추출된 텍스처 정보를 기반으로 3차원 모델(10)의 노말 맵(Normal Map)을 제어하여 3차원 모델(10)의 형상 중 세부적인 형상 자체를 강조하도록 렌더링할 수 있다.The PTM information generation unit 300 controls the normal map of the three-dimensional model 10 based on the extracted texture information to render the detailed shape of the three- can do.

추출된 깊이 정보 및 텍스처 정보를 기반으로 하는 렌더링 과정이 완료되면, PTM 정보 생성부(300)는, 추출된 깊이 정보를 기반으로 렌더링한 이미지와 추출된 텍스처 정보를 기반으로 렌더링한 이미지를 조합하여 PTM 정보를 생성할 수 있다.When the rendering process based on the extracted depth information and texture information is completed, the PTM information generation unit 300 combines the rendered image based on the extracted depth information and the rendered image based on the extracted texture information PTM information can be generated.

전술한 바와 같이 이러한 방법으로 생성된 PTM 정보는 PTM 방식으로 텍스처 매핑시켜 생성된 영상 정보이며, 본 PTM 생성 시스템은 이러한 PTM 정보를 생성하여, 3차원 모델(10)의 형상 정보에 적용 가능하도록 하여, 컴퓨터 그래픽 데이터 상에서 3차원 모델(10)의 형상이 개선되도록 할 수 있다.As described above, the PTM information generated by this method is image information generated by texture mapping using the PTM method. The present PTM generation system generates the PTM information and is applicable to the shape information of the three-dimensional model 10 , So that the shape of the three-dimensional model 10 can be improved on the computer graphics data.

또한, PTM 정보는 컴퓨터 그래픽 데이터 상에서 렌더링된 3차원 모델(10)의 세부 형상을 더욱 명확하게 표현할 수 있어, 디지털화된 문화유산의 분석 및 복원 작업에 적용할 수 있다.Further, the PTM information can more clearly express the detailed shape of the 3D model 10 rendered on the computer graphic data, and can be applied to the analysis and restoration of digitalized cultural heritage.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

10 : 3차원 모델 100 : 3차원 모델 획득부
200 : 정보 추출부 210 : 가상의 카메라 세팅부
211 : 가상의 카메라 220 : 가상의 조명 세팅부
221 : 가상의 조명 230 : 텍스처 정보 추출부
240 : 깊이 정보 추출부 250 : 음영 정보 추출부
260 : 저장부 300 : PTM 정보 생성부
10: 3D model 100: 3D model acquisition unit
200: information extracting unit 210: virtual camera setting unit
211: virtual camera 220: virtual lighting setting unit
221: virtual illumination 230: texture information extraction unit
240: Depth information extracting unit 250: Shadow information extracting unit
260: Storage unit 300: PTM information generation unit

Claims (10)

특정 객체에 대한 3차원 모델이 획득되도록 하는 3차원 모델 획득부;
상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들을 세팅하여, 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여 상기 획득된 3차원 모델에서 상기 객체의 텍스처(Texture) 정보와 깊이(Depth) 정보가 추출되도록 하는 정보 추출부; 및
상기 텍스처 정보와 상기 깊이 정보를 조합하여 PTM(Polynomial Texture Mapping) 정보가 생성되도록 하는 PTM 정보 생성부;를 포함하고,
상기 3차원 모델 획득부는,
상기 객체의 음영이 제거되도록 상기 객체에 복수의 방향으로 빛을 투사하며, 상기 객체를 스캐닝하여 복수의 폴리곤(Polygon)으로 구성된 3차원 모델이 획득되도록 하며,
상기 정보 추출부는,
상기 획득된 3차원 모델을 기반으로 가상의 카메라 및 가상의 조명들을 세팅하되, 상기 가상의 카메라의 시점(Point of View)이 상기 획득된 3차원 모델을 상측에서 바라보는 시점으로 세팅하고, 상기 가상의 조명들이 반구(hemisphere)형으로 배치되도록 세팅하며, 상기 반구형으로 배치된 가상의 조명들 중 적어도 하나의 조명이 빛을 투사하도록 하고,
상기 정보 추출부는,
상기 3차원 모델에 투사되는 가상의 조명들의 조명 값의 연산이 용이하도록, 상기 가상의 조명들이 서로 균일한 간격으로 이격되도록 세팅하고,
상기 정보 추출부는,
상기 획득된 3차원 모델에 상기 빛이 투사되면, 상기 빛이 투사된 3차원 모델 중 상기 복수의 폴리곤에 대한 정보를 기반으로 상기 깊이 정보가 추출되도록 하고, 상기 3차원 모델의 폴리곤별 표면 색상에 대한 정보를 기반으로 상기 텍스처 정보가 추출되도록 하며,
상기 정보 추출부는,
상기 빛이 투사되면, 상기 투사된 빛 중 상기 객체에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 상기 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 상기 객체의 음영 정보가 추출되도록 하고,
상기 정보 추출부는,
상기 빛이 개별적으로 투사되면, 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되도록 하되, 상기 3차원 모델을 이루는 픽셀(Pixel)을 향하여 상기 빛이 개별적으로 투사되면, 상기 개별적으로 투사된 각각의 빛을 기준으로 상기 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 하고,
상기 PTM 정보 생성부는,
각각의 텍스처 정보 및 깊이 정보를 모두 조합하여 하나의 PTM 정보가 생성되도록 하되,
상기 3차원 모델을 이루는 각각의 픽셀 중 특정 픽셀에 대한 텍스처 정보와 깊이 정보를 통해 산출되는 상수를
Figure 112017100639225-pat00011
내지
Figure 112017100639225-pat00012
라고 하고, 상기 특정 픽셀을 항하여 상기 빛이 개별적으로 투사되어 획득되는 상기 특정 픽셀의 빛의 인자를
Figure 112017100639225-pat00013
Figure 112017100639225-pat00014
라고 하면, 상기 특정 픽셀에 대한 PTM 값이,
Figure 112017100639225-pat00015

로 산출되는 것을 특징으로 하는 3차원 모델의 형상이 개선된 PTM 생성 시스템.
A three-dimensional model acquiring unit for acquiring a three-dimensional model for a specific object;
Setting a virtual camera and virtual illuminations based on the obtained three-dimensional model, calculating texture information and depth of the object in the obtained three-dimensional model using the set virtual camera and virtual illuminations, An information extracting unit for extracting depth information from the extracted information; And
And a PTM information generator for generating PTM information by combining the texture information and the depth information,
Wherein the three-dimensional model obtaining unit comprises:
Projecting light in a plurality of directions to the object so that shading of the object is removed, scanning the object to obtain a three-dimensional model composed of a plurality of polygons,
The information extracting unit extracts,
Setting a virtual camera and virtual lights based on the obtained three-dimensional model, setting a point of view of the virtual camera to a time when the obtained three-dimensional model is viewed from above, Wherein at least one of the hemispherically arranged virtual lights is configured to project light,
The information extracting unit extracts,
The virtual illumination is set so as to be spaced apart from each other at a uniform interval so as to facilitate calculation of illumination values of virtual lights projected on the three-dimensional model,
The information extracting unit extracts,
The depth information is extracted on the basis of the information of the plurality of polygons among the three-dimensional models projected from the light, and when the light is projected on the obtained three-dimensional model, Extracting the texture information based on the information on the texture information,
The information extracting unit extracts,
Applying the extracted depth information to an Ambient Occlusion map so that light blocked by the object of the projected light is generated so that the generated shadow is expressed, To extract the shade information of the image,
The information extracting unit extracts,
When the light is individually projected, texture information and depth information corresponding to the individually projected light are individually extracted. When the light is individually projected toward a pixel constituting the three-dimensional model, The depth information including the vector factor of the normal direction of the pixel is extracted based on the individually projected light,
Wherein the PTM information generation unit comprises:
Each of the texture information and the depth information is combined to generate one PTM information,
The texture information for a specific pixel among the pixels constituting the three-dimensional model and the constant calculated through the depth information
Figure 112017100639225-pat00011
To
Figure 112017100639225-pat00012
And a light parameter of the specific pixel obtained by separately projecting the light by referring to the specific pixel
Figure 112017100639225-pat00013
And
Figure 112017100639225-pat00014
, The PTM value for the specific pixel is "
Figure 112017100639225-pat00015

Wherein the three-dimensional model has a shape that is improved.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 3차원 모델 획득부는,
상기 객체를 스캐닝하는 경우, 상기 스캐닝하여 획득된 3차원 모델을 텍스처링(Texturing) 하는 것을 특징으로 하는 3차원 모델의 형상이 개선된 PTM 생성 시스템.
The method according to claim 1,
Wherein the three-dimensional model obtaining unit comprises:
Wherein the 3D model obtained by scanning is textured when the object is scanned. 2. The system of claim 1, wherein the 3D model is scanned.
3차원 모델 획득부에 의해 특정 객체에 대한 3차원 모델이 획득되는 단계;
정보 추출부에 의해 상기 획득된 3차원 모델을 기준으로 가상의 카메라 및 가상의 조명들이 세팅되는 단계;
상기 정보 추출부가 상기 세팅된 가상의 카메라 및 가상의 조명들을 이용하여, 상기 획득된 3차원 모델에서 상기 객체의 텍스처 정보와 깊이 정보가 추출되도록 하는 단계; 및
PTM 정보 생성부에 의해 상기 추출된 텍스트 정보와 깊이 정보가 조합되어, PTM 정보가 생성되는 단계;를 포함하고,
상기 획득 단계는,
상기 3차원 모델 획득부에 의해, 상기 객체의 음영이 제거되도록 상기 객체에 복수의 방향으로 빛이 투사되어, 상기 객체가 스캐닝되고 복수의 폴리곤(Polygon)으로 구성된 3차원 모델이 획득되도록 하며,
상기 추출 단계는,
상기 정보 추출부에 의해, 상기 획득된 3차원 모델을 기반으로 가상의 카메라 및 가상의 조명들이 세팅되되, 상기 가상의 카메라의 시점(Point of View)이 상기 획득된 3차원 모델을 상측에서 바라보는 시점으로 세팅되고, 상기 가상의 조명들이 반구(hemisphere)형으로 배치되도록 세팅되되, 상기 3차원 모델에 투사되는 가상의 조명들의 조명 값의 연산이 용이하도록, 상기 가상의 조명들이 서로 균일한 간격으로 이격되도록 세팅되고,
상기 반구형으로 배치된 가상의 조명들 중 적어도 하나의 조명이 빛이 투사되도록 하고, 상기 획득된 3차원 모델에 상기 빛이 투사되면, 상기 빛이 투사된 3차원 모델 중 상기 복수의 폴리곤에 대한 정보를 기반으로 상기 깊이 정보가 추출되도록 하고, 상기 3차원 모델의 폴리곤별 표면 색상에 대한 정보를 기반으로 상기 텍스처 정보가 추출되도록 하되, 상기 빛이 투사되면, 상기 투사된 빛 중 상기 객체에 의해 차단된 빛이 발생하여, 생성된 음영이 표현되도록, 상기 추출된 깊이 정보를 앰비언트 오클루젼(Ambient Occlusion) 맵에 적용하여, 상기 객체의 음영 정보가 추출되도록 하고,
상기 추출 단계는,
상기 정보 추출부에 의해, 상기 빛이 개별적으로 투사되면, 개별적으로 투사된 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되도록 하되,
상기 3차원 모델을 이루는 픽셀(Pixel)을 향하여 상기 빛이 개별적으로 투사되면, 상기 개별적으로 투사된 각각의 빛을 기준으로 상기 픽셀의 법선 방향의 벡터 인자가 포함된 깊이 정보가 개별적으로 추출되도록 하고,
상기 생성 단계는,
상기 각각의 빛에 대응되는 텍스처 정보 및 깊이 정보가 개별적으로 추출되면, 상기 PTM 정보 생성부에 의해, 각각의 텍스처 정보 및 깊이 정보가 모두 조합되어 하나의 PTM 정보가 생성되도록 하되,
상기 3차원 모델을 이루는 각각의 픽셀 중 특정 픽셀에 대한 텍스처 정보와 깊이 정보를 통해 산출되는 상수를
Figure 112017100639225-pat00016
내지
Figure 112017100639225-pat00017
라고 하고, 상기 특정 픽셀을 항하여 상기 빛이 개별적으로 투사되어 획득되는 상기 특정 픽셀의 빛의 인자를
Figure 112017100639225-pat00018
Figure 112017100639225-pat00019
라고 하면, 상기 특정 픽셀에 대한 PTM 값이,
Figure 112017100639225-pat00020

로 산출되는 것을 특징으로 하는 3차원 모델의 형상이 개선된 PTM 생성 방법.
Obtaining a three-dimensional model of a specific object by the three-dimensional model acquisition unit;
Setting virtual camera and virtual lights based on the obtained three-dimensional model by an information extracting unit;
Causing the information extracting unit to extract texture information and depth information of the object from the obtained three-dimensional model using the set virtual camera and virtual illumination; And
And generating the PTM information by combining the extracted text information and the depth information by the PTM information generation unit,
The acquiring step includes:
The three-dimensional model obtaining unit causes light to be projected in a plurality of directions to the object so that the object is shaded, so that the object is scanned and a three-dimensional model composed of a plurality of polygons is acquired,
Wherein the extracting step comprises:
Wherein the virtual camera and the virtual illumination are set based on the obtained three-dimensional model by the information extracting unit, and the point of view of the virtual camera displays the three-dimensional model obtained from above The virtual lights are set at a uniform interval so as to facilitate setting of the virtual lights to be arranged in a hemisphere shape and to easily calculate illumination values of virtual lights projected on the three- Is set to be spaced apart,
Wherein at least one illumination of the hemispherical virtual lights causes light to be projected, and when the light is projected onto the obtained three-dimensional model, information on the plurality of polygons among the projected three- And extracting the texture information based on the information on the surface color of the polygon of the 3D model, wherein when the light is projected, the object of the projected light is blocked by the object And extracting shadow information of the object by applying the extracted depth information to an ambient occlusion map so that the generated shadow is represented by the generated light,
Wherein the extracting step comprises:
Wherein the information extraction unit extracts texture information and depth information corresponding to the individually projected light individually when the light is individually projected,
When the light is individually projected toward a pixel forming the three-dimensional model, depth information including a vector factor of the normal direction of the pixel is extracted individually based on the individually projected light ,
Wherein the generating comprises:
When the texture information and the depth information corresponding to the respective lights are individually extracted, the PTM information generation unit combines all the texture information and the depth information to generate one PTM information,
The texture information for a specific pixel among the pixels constituting the three-dimensional model and the constant calculated through the depth information
Figure 112017100639225-pat00016
To
Figure 112017100639225-pat00017
And a light parameter of the specific pixel obtained by separately projecting the light by referring to the specific pixel
Figure 112017100639225-pat00018
And
Figure 112017100639225-pat00019
, The PTM value for the specific pixel is "
Figure 112017100639225-pat00020

The method of claim 1, wherein the three-dimensional model has a shape that is improved.
KR1020160180792A 2016-12-28 2016-12-28 PTM making system with improved shape of 3D model and method using the same KR101817753B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160180792A KR101817753B1 (en) 2016-12-28 2016-12-28 PTM making system with improved shape of 3D model and method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160180792A KR101817753B1 (en) 2016-12-28 2016-12-28 PTM making system with improved shape of 3D model and method using the same

Publications (1)

Publication Number Publication Date
KR101817753B1 true KR101817753B1 (en) 2018-01-11

Family

ID=61004134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160180792A KR101817753B1 (en) 2016-12-28 2016-12-28 PTM making system with improved shape of 3D model and method using the same

Country Status (1)

Country Link
KR (1) KR101817753B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210243371A1 (en) * 2018-11-02 2021-08-05 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus of depth detection, and computer-readable storage medium
EP4068216A1 (en) * 2021-03-31 2022-10-05 Disney Enterprises, Inc. 3d digital model surface rendering and conversion
KR102674699B1 (en) * 2021-12-15 2024-06-14 주식회사 와플랩 Deep learning-based 3D modeling object visualization apparatus and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008282302A (en) * 2007-05-14 2008-11-20 Dainippon Printing Co Ltd Medium, medium manufacturing device, medium manufacturing method and program thereof
JP2011138490A (en) * 2009-12-28 2011-07-14 Mitsubishi Electric Research Laboratories Inc Method for determining pose of object in scene

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008282302A (en) * 2007-05-14 2008-11-20 Dainippon Printing Co Ltd Medium, medium manufacturing device, medium manufacturing method and program thereof
JP2011138490A (en) * 2009-12-28 2011-07-14 Mitsubishi Electric Research Laboratories Inc Method for determining pose of object in scene

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210243371A1 (en) * 2018-11-02 2021-08-05 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus of depth detection, and computer-readable storage medium
US11611698B2 (en) * 2018-11-02 2023-03-21 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus of depth detection, and computer-readable storage medium
EP4068216A1 (en) * 2021-03-31 2022-10-05 Disney Enterprises, Inc. 3d digital model surface rendering and conversion
US11804007B2 (en) 2021-03-31 2023-10-31 Disney Enterprises, Inc. 3D digital model surface rendering and conversion
KR102674699B1 (en) * 2021-12-15 2024-06-14 주식회사 와플랩 Deep learning-based 3D modeling object visualization apparatus and method

Similar Documents

Publication Publication Date Title
US11115633B2 (en) Method and system for projector calibration
US11551418B2 (en) Image rendering of laser scan data
CN106454291B (en) System and method for automatic registration and projection mapping
CN106548516B (en) Three-dimensional roaming method and device
EP2869266B1 (en) Method and apparatus for generating depth map of a scene
KR100914845B1 (en) Method and apparatus for 3d reconstructing of object by using multi-view image information
WO2019075268A1 (en) Image processing method, apparatus, and storage medium
CN107018392B (en) Projector optimization method and system
KR102222290B1 (en) Method for gaining 3D model video sequence
KR102546358B1 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
KR101817753B1 (en) PTM making system with improved shape of 3D model and method using the same
US20210125305A1 (en) Video generation device, video generation method, program, and data structure
US20210217225A1 (en) Arbitrary view generation
KR102291162B1 (en) Apparatus and method for generating virtual data for artificial intelligence learning
JPWO2020075252A1 (en) Information processing equipment, programs and information processing methods
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
JP2004280776A (en) Method for determining shape of object in image
KR20200042781A (en) 3d model producing method and apparatus
JP2008204318A (en) Image processor, image processing method and image processing program
JP2018032112A (en) Data processor, data processing method and computer program
JP2020173726A (en) Virtual viewpoint conversion device and program
KR20140003880A (en) Apparatus and method for generating 3 dimension face
KR101855370B1 (en) Real object-based integral imaging system using polygon object model
KR20230105902A (en) Viewer apparatus and method for outputting three-dimensional data thereof
TWI521470B (en) Three - dimensional Laser Scanning System and Its Color Point Cloud Image Establishment Method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant