KR20170142089A - Texture mapping calibration method for multi sided screen projection and apparatus thereof - Google Patents

Texture mapping calibration method for multi sided screen projection and apparatus thereof Download PDF

Info

Publication number
KR20170142089A
KR20170142089A KR1020160125718A KR20160125718A KR20170142089A KR 20170142089 A KR20170142089 A KR 20170142089A KR 1020160125718 A KR1020160125718 A KR 1020160125718A KR 20160125718 A KR20160125718 A KR 20160125718A KR 20170142089 A KR20170142089 A KR 20170142089A
Authority
KR
South Korea
Prior art keywords
texture
polyhedron
area
mapped
polygons
Prior art date
Application number
KR1020160125718A
Other languages
Korean (ko)
Inventor
신호
엄혜윤
장태수
Original Assignee
주식회사 에이치투앤컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치투앤컴퍼니 filed Critical 주식회사 에이치투앤컴퍼니
Publication of KR20170142089A publication Critical patent/KR20170142089A/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/64Means for mounting individual pictures to be projected, e.g. frame for transparency
    • G02B27/22
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2053Intensity control of illuminating light

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Generation (AREA)

Abstract

Embodiments of the present invention relate to a texture mapping method for three-sided image projection. According to an embodiment of the present invention, a method for correcting texture mapping for multi-sided image projection comprises the steps of: mapping a texture onto a first polyhedron; converting the first polyhedron onto which the texture is mapped into a second polyhedron composed of the number of polygons smaller than that of the first polyhedron; extracting a texture mapped onto a first region of the first polyhedron; and substituting a texture mapped onto a second region of the second polyhedron corresponding to the first region with the extracted texture. According to embodiments of the present invention, the image distortion occurring in texture mapping for multi-sided image projection can be reduced.

Description

다면 영상 프로젝션을 위한 텍스처 맵핑 보정 방법 및 장치{Texture mapping calibration method for multi sided screen projection and apparatus thereof}TECHNICAL FIELD The present invention relates to a texture mapping correction method and apparatus for multi-view image projection,

본 발명의 실시 예들은, 다면 영상 프로젝션을 위한 텍스처 맵핑 방안에 관한 것이다. Embodiments of the present invention are directed to a texture mapping scheme for multi-view image projection.

컴퓨터 그래픽 모델링에서 3차원 모델을 보다 사실적으로 보이기 위해서 맵핑(mapping)이란 방법을 사용한다. 모델 맵핑하는 방법 중에서 텍스처 맵핑이 많이 사용된다. 또한 텍스처 맵핑 방법 중에서 비트맵(bitmap) 이미지를 텍스처 맵(texture map) 또는 맵핑 소스(mapping source)로 하여 모델의 표면을 입히는 방법이 많이 사용되고 있다. 텍스처 맵을 사용하여 모델의 표면을 입힐 때 표면의 어느 부분에 대응될 것인지를 결정해 주는 과정이 필요하다. 이러한 과정은 모델의 표면에 텍스처 맵에 대응하는 좌표계를 설정하는 것이다. 비트맵 이미지는 2차원의 직교 평면을 이루고 있으므로 모델 표면에도 이에 대응하는 좌표를 설정해야 한다. 이렇게 모델 표면에 설정되는 좌표계를 맵핑 좌표계(mapping coordinate system)라고 부르는데, 모델 표면에 맵핑 좌표계가 설정되면 대응되는 좌표의 텍스처 맵의 픽셀(Pixel) 값을 갖는다. In computer graphics modeling, mapping is used to make the three-dimensional model more realistic. Among the methods of model mapping, texture mapping is often used. Also, a method of applying a bitmap image to a texture map or a mapping source in a texture mapping method is widely used. When you use the texture map to apply the surface of the model, you need to determine what part of the surface it will correspond to. This process sets the coordinate system corresponding to the texture map on the surface of the model. Since the bitmap image is a two-dimensional orthogonal plane, the corresponding surface must also be set on the model surface. The coordinate system set on the surface of the model is called a mapping coordinate system. If a mapping coordinate system is set on the model surface, it has a pixel value of the texture map of the corresponding coordinates.

일반적으로 3차원 모델은 XYZ의 직교 좌표계를 사용하여 표현된다. 텍스처 맵은 3차원 모델에 맵핑되는 관계에 놓여서 다른 좌표계를 가져야 하므로 UVW의 직교 좌표계를 사용하여 표현한다. 개념적으로 UVW 좌표계는 XYZ 좌표계와 대응되므로, 텍스처 맵은 가로방향을 U축으로 세로 방향을 V축으로 하는 이미지로 표현되며, 이미지는 깊이 정보를 갖지 않으므로 일반적으로 텍스처 맵을 줄여서 UV 맵이라고 부른다. 모델의 표면에 맵핑 좌표를 설정하는 대표적인 것들로 평면(plane), 원통, 구 형태로 UVW 좌표계를 모델에 투영(projection)하는 방법들이 있다. 평면형(planar) 투영방법은 평면으로 펴있는 이미지를 그대로 한 방향에서 모델에 투영하는 것이다. 원통형(cylindrical) 투영방법은 모델을 중심으로 이미지를 원통형으로 구부려 투영하는 것이다. 구형(spherical) 투영방법은 모델을 중심으로 이미지를 구 형태로 둘러싸서 투영하는 것이다. 많은 텍스처 맵핑 작업에서 UV 전개 방법이 선호되고 있지만, UV 전개 방법은 매우 어려운 문제를 갖고 있다. 그것은 3차원 상에서 존재하는 면들을 2차원 평면 위에 전개하는 작업에서 발생한다. 간단한 전개 방법이 존재한다면 문제는 없지만, 3차원의 면들을 2차원 상에서 아무런 정보의 손실 없이 전개한다는 것은 애초에 불가능한 문제이기 때문이다. 결국 3차원의 면을 2차원으로 억지로 전개하기 위해 2가지 정보의 손실을 감수해야 한다. 첫째, 3차원에서 이웃하는 면들이 2차원에서도 서로 이웃하게 만들기 위해서 면을 구기는 작업이 필요한데 면을 구기는 과정에서 각 면의 면적이 줄거나 늘어나게 된다. 둘째, 주머니와 같이 구멍이 있는 모델이 아닌 구멍이 없이 면들로 닫혀있는 모델의 경우 2차원에서 완전히 펼 수 없기 때문에 모델을 찢어서 펼쳐야 하는 과정에서 몇몇 면들은 서로 이웃하는 면들과 더 이상 이웃하지 않고 떨어지게 된다. Generally, a three-dimensional model is expressed using an orthogonal coordinate system of XYZ. Since the texture map must have a different coordinate system in relation to the mapping of the 3D model, it is expressed using the rectangular coordinate system of UVW. Conceptually, the UVW coordinate system corresponds to the XYZ coordinate system. Therefore, the texture map is expressed as an image with the horizontal direction as the U axis and the vertical direction as the V axis. Since the image has no depth information, the texture map is generally abbreviated as a UV map. Representative examples of mapping coordinates on the surface of the model include projection of the UVW coordinate system to the model in plane, cylinder, or sphere form. A planar projection method is to project a flattened image onto a model in the same direction. A cylindrical projection method is to project a cylindrical image of an image centered on a model. A spherical projection method is to project an image around a model in a spherical shape. Although many UV mapping methods are preferred for many texture mapping tasks, the UV rendering method has a very difficult problem. It occurs in the work of developing surfaces existing on three dimensions onto a two-dimensional plane. There is no problem if there is a simple development method, but it is impossible in the beginning to develop three-dimensional faces without any loss of information in two dimensions. As a result, we have to bear the loss of two pieces of information in order to forcefully spread the three-dimensional surface in two dimensions. First, in order to make the neighboring faces in three dimensions to be adjacent to each other in two dimensions, it is necessary to work to make faces. In the process of making faces, the area of each face decreases or increases. Second, in the case of a model with a hole like a pocket and a model with a hole closed without a hole, it can not be fully extended in 2D, so in the process of tearing and spreading the model, some faces are no longer neighbors with neighboring faces do.

국내 공개 특허 제 2011-0060261호 (3차원 사물의 텍스처 맵핑 시스템 및 그 방법)Korean Patent Publication No. 2011-0060261 (Texture mapping system and method for three-dimensional objects)

본 발명의 실시 예들은, 다면 영상 프로젝션을 위한 텍스처 맵핑 시에 발생하는 이미지의 왜곡을 감소시키는 방안을 제공한다. Embodiments of the present invention provide a method for reducing distortion of an image that occurs in texture mapping for a multi-faceted image projection.

본 발명의 일 실시 예에 따른 다면 영상 프로젝션을 위한 텍스처 맵핑 보정 방법은, 제 1 다면체에 텍스처를 맵핑시키는 단계; 상기 텍스처가 맵핑된 제 1 다면체를 상기 제 1 다면체보다 적은 개수의 폴리곤으로 이루어진 제 2 다면체로 변환하는 단계; 상기 제 1 다면체의 제 1 영역에 맵핑된 텍스처를 추출하는 단계; 및 상기 제 1 영역에 대응하는 상기 제 2 다면체의 제 2 영역에 맵핑된 텍스처를 상기 추출된 텍스처로 치환하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method of correcting texture mappings for multi-view image projection, comprising: mapping a texture to a first polyhedron; Converting the texture-mapped first polyhedron into a second polyhedron having a smaller number of polygons than the first polyhedron; Extracting a texture mapped to a first area of the first polyhedron; And replacing a texture mapped to a second area of the second polyhedron corresponding to the first area with the extracted texture.

일 실시 예에서, 상기 제 1 영역 및 상기 제 2 영역은 다면체의 극점 부분의 영역일 수 있다. In one embodiment, the first region and the second region may be regions of the poles of the polyhedron.

일 실시 예에서, 상기 텍스처를 추출하는 단계는, 상기 제 2 다면체의 극점을 꼭지점으로 갖는 폴리곤들을 상기 제 2 영역으로 선택하는 단계; 선택된 제 2 영역에 대응하는 상기 제 1 다면체의 영역을 상기 제 1 영역으로 선택하는 단계; 및 선택된 제 1 영역에 맵핑된 텍스처를 추출하는 단계를 포함할 수 있다. In one embodiment, the extracting of the texture may include: selecting polygons having vertexes of the second polyhedron as vertexes as the second region; Selecting an area of the first polyhedron corresponding to the selected second area as the first area; And extracting a texture mapped to the selected first area.

일 실시 예에서, 상기 제 1 다면체는, 구 형태일 수 있다. In one embodiment, the first polyhedron may be in the form of a sphere.

본 발명의 일 실시 예에 따른 다면 영상 프로젝션을 위한 텍스처 맵핑 보정 장치는, 프로세서 및 메모리를 포함할 수 있다. 상기 메모리에 텍스처 맵핑을 위한 명령어들이 저장되며, 상기 명령어들은, 상기 프로세서에 의하여 실행될 때, 상기 프로세서로 하여금, 제 1 다면체에 텍스처를 맵핑시키고, 상기 텍스처가 맵핑된 제 1 다면체를 상기 제 1 다면체보다 적은 개수의 폴리곤으로 이루어진 제 2 다면체로 변환하며, 상기 제 1 다면체의 제 1 영역에 맵핑된 텍스처를 추출하고, 상기 제 1 영역에 대응하는 상기 제 2 다면체의 제 2 영역에 맵핑된 텍스처를 상기 추출된 텍스처로 치환하도록 하는 명령어들을 포함한다. A texture mapping correction apparatus for multi-sided image projection according to an exemplary embodiment of the present invention may include a processor and a memory. Wherein instructions for texture mapping are stored in the memory, wherein the instructions, when executed by the processor, cause the processor to map a texture to a first polyhedron and to map the first polyhedron to which the texture is mapped to the first polyhedron A polyhedron having a smaller number of polygons, extracting a texture mapped to a first area of the first polyhedron, and extracting a texture mapped to a second area of the second polyhedron corresponding to the first area, And substituting the extracted texture with the extracted texture.

본 발명의 실시 예들에 따르면, 다면 영상 프로젝션을 위한 텍스처 맵핑 시에 발생하는 이미지의 왜곡을 감소시킬 수 있다. According to embodiments of the present invention, it is possible to reduce distortion of an image occurring in texture mapping for a multi-image projection.

도 1은 본 발명의 실시 예들이 적용되는 가상 현실 체험 공간을 설명하기 위한 예시도,
도 2의 (a) 내지 도 2의 (e)는 360도 VR 영상을 이용한 텍스처 맵핑 방법을 설명하기 위한 예시도,
도 3의 (a) 내지 도 3의 (e)는 다면체 구조의 변환 시에 발생하는 영상의 왜곡을 설명하기 위한 예시도,
도 4의 (a) 내지 도 4의 (c)는 본 발명의 일 실시 예에 따른 텍스처 맵핑 보정 방법을 설명하기 위한 개념도,
도 5 및 도 6은 본 발명의 일 실시 예에 따른 텍스처 맵핑 보정 방법을 설명하기 위한 예시도,
도 7은 본 발명의 일 실시 예에 따른 텍스처 맵핑 보정 방법을 설명하기 위한 흐름도,
도 8은 본 발명의 일 실시 예에 따른 텍스처 맵핑 보정 장치를 설명하기 위한 블록도.
1 is an exemplary view for explaining a virtual reality experience space to which embodiments of the present invention are applied;
2 (a) to 2 (e) are views for explaining a texture mapping method using a 360-degree VR image,
3 (a) to 3 (e) are diagrams for explaining distortion of an image occurring at the time of conversion of a polyhedral structure,
FIGS. 4A through 4C are conceptual diagrams for explaining a texture mapping correction method according to an embodiment of the present invention; FIGS.
5 and 6 are diagrams for explaining a texture mapping correction method according to an embodiment of the present invention,
FIG. 7 is a flowchart illustrating a texture mapping correction method according to an embodiment of the present invention. FIG.
FIG. 8 is a block diagram for explaining a texture mapping correction apparatus according to an embodiment of the present invention; FIG.

이하에서, 본 발명의 실시 예들을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하, 첨부되는 도면을 참조하여 본 발명의 실시 예들을 설명한다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시 예들이 적용되는 가상 현실 체험 공간을 설명하기 위한 예시도이다. 1 is an exemplary diagram illustrating a virtual reality experience space to which embodiments of the present invention are applied.

가상 현실 체험 공간은 다면 영상 프로젝션 공간으로서, 복수의 폴리곤으로 이루어진 다면체 구조로 형성될 수 있다. 가상 현실 체험 공간 내에 위치하는 사용자는, 복수의 폴리곤에 투영되는 VR(virtual reality) 영상을 통하여 VR 서비스를 제공받을 수 있다. 각각의 폴리곤을 이루는 재질은, 불투명하거나 투명 또는 반투명할 수 있다.The virtual reality experience space can be formed as a polyhedral image projection space and a polyhedral structure composed of a plurality of polygons. A user located in the virtual reality experience space can receive a VR service through a virtual reality (VR) image projected on a plurality of polygons. The material of each polygon may be opaque, transparent or translucent.

가상 현실 체험 공간은, 복수의 프로젝터(110)를 포함할 수 있다. 복수의 프로젝터(100)는, 가상 현실 체험 공간을 이루는 폴리곤에 대응하여 하나씩 배치될 수 있다. 프로젝터(110)의 개수는, 다면체 구조를 이루는 폴리곤의 개수와 동일하거나 더 적을 수 있다. 예를 들어, 가상 현실 체험 공간을 이루는 폴리곤들 중 바닥면에 해당하는 폴리곤을 제외한 나머지 폴리곤들에 대응하는 프로젝터(100)만이 배치될 수 있다. The virtual reality experience space may include a plurality of projectors 110. [ The plurality of projectors 100 may be arranged one by one corresponding to the polygons constituting the virtual reality experience space. The number of the projectors 110 may be equal to or less than the number of polygons constituting the polyhedral structure. For example, only the projector 100 corresponding to the remaining polygons excluding the polygons corresponding to the bottom surface among the polygons forming the virtual reality experience space may be disposed.

복수의 프로젝터(110)는, 360도 VR 영상을 가상 현실 체험 공간에 투영할 수 있다. 복수의 프로젝터(110)는, 360도 VR 영상이 분할된 분할 VR 영상을 수신하고, 수신된 분할 VR 영상을 가상 현실 체험 공간에 투영할 수 있다. 예를 들어, 어느 하나의 프로젝터(110)는, 가상 현실 체험 공간을 이루는 어느 하나의 폴리곤에 대응하는 분할 VR 영상을 수신하고, 수신된 분할 VR 영상을 해당 폴리곤에 투영할 수 있다. 복수의 분할 VR 영상이 가상 현실 체험 공간을 이루는 복수의 폴리곤에 투영됨으로써 가상 현실 체험 공간 내에서 끊김 없는(seamless) 360도 VR 영상이 제공될 수 있다. 분할 VR 영상은, 가상 현실 체험 공간을 관리하는 서버로부터 수신될 수 있다. 실시 예에 따라, 각각의 프로젝터(100)는, 자신에 대응하는 분할 VR 영상을 저장하고 있을 수 있다. 복수의 프로젝터(110)는, 가상 현실 체험 공간 내에 존재할 수도 있고, 가상 현실 체험 공간 외부에 존재할 수도 있다. The plurality of projectors 110 can project the 360 degree VR image into the virtual reality experience space. The plurality of projectors 110 can receive the divided VR images in which the 360 degree VR images are divided and project the received divided VR images in the virtual reality experience space. For example, one of the projectors 110 may receive a divided VR image corresponding to a polygon constituting a virtual reality experience space, and project the received divided VR image to the corresponding polygon. A plurality of divided VR images are projected on a plurality of polygons constituting a virtual reality experience space, so that a seamless 360 degree VR image can be provided in the virtual reality experience space. The divided VR images can be received from the server managing the virtual reality experience space. According to the embodiment, each of the projectors 100 may be storing a divided VR image corresponding thereto. The plurality of projectors 110 may exist in the virtual reality experience space or may exist outside the virtual reality experience space.

한편, 360도 VR 영상을 다면체 구조의 가상 현실 체험 공간에 프로젝션하기 위하여는, 2차원 텍스처를 다면체 구조에 맵핑하고, 2차원 텍스처가 맵핑된 다면체 구조를 가상 현실 체험 공간에 대응하는 다면체 구조로 변환하여야 한다. On the other hand, in order to project a 360-degree VR image to a virtual reality experience space having a polyhedral structure, a two-dimensional texture is mapped to a polyhedron structure, a polyhedral structure mapped with a two-dimensional texture is converted into a polyhedron structure corresponding to a virtual reality experience space shall.

도 2의 (a) 내지 도 2의 (e)는 360도 VR 영상을 이용한 텍스처 맵핑 방법을 설명하기 위한 예시도이다. 2 (a) to 2 (e) are diagrams for explaining a texture mapping method using a 360-degree VR image.

텍스처 맵핑은, 메쉬 해체, 텍스처 제작 및 텍스처 적용의 3단계로 이루어진다. Texture mapping consists of three steps: mesh dismantling, texturing, and texture application.

예를 들어, 도 2의 (a)에 도시된 바와 같이, 복수의 폴리곤으로 이루어진 다면체 구조의 구(sphere)에 텍스처 맵핑을 수행하는 경우를 가정하자. For example, suppose that texture mapping is performed on a sphere having a polyhedral structure composed of a plurality of polygons, as shown in Fig. 2 (a).

이러한 구에 메쉬 해체를 수행하면 도 2의 (b)에 도시된 바와 같은 UV 맵이 생성될 수 있다. If the mesh is disassembled into such a sphere, a UV map as shown in Fig. 2 (b) can be generated.

한편, 도 2의 (c)에 도시된 바와 같은 텍스처가 제작되었다고 가정하자. 이러한 텍스처를 도 2의 (b)를 참조하여 설명한 UV 맵에 적용시키면 도 2의 (d)에 도시된 바와 같이 UV 맵에 적용되는 텍스처 맵이 생성될 수 있다. 이러한 텍스처 맵을 도 2의 (a)에 도시된 바와 같은 구에 입히면, 도 2의 (e)에 도시된 바와 같은 3차원 360도 VR 영상이 생성될 수 있다. On the other hand, it is assumed that a texture as shown in FIG. 2 (c) is produced. When such a texture is applied to the UV map described with reference to FIG. 2 (b), a texture map applied to the UV map as shown in FIG. 2 (d) can be generated. When such a texture map is applied to a sphere as shown in FIG. 2A, a three-dimensional 360-degree VR image as shown in FIG. 2E can be generated.

이렇게 생성된 3차원 360도 VR 영상을 도 1에 도시된 바와 같은 다면체 구조에서 상영하기 위하여는, 360도 VR 영상이 입혀진 구를 가상 현실 체험 공간에 대응하는 다면체 구조로 변환하여야 한다. In order to display the generated three-dimensional 360-degree VR image in the polyhedron structure as shown in FIG. 1, it is necessary to convert the spheres having the 360-degree VR image into a polyhedral structure corresponding to the virtual reality experience space.

이러한 변환 과정에서 좌표가 손상될 수 있으며, 변환된 다면체가 적은 수의 폴리곤으로 이루어질수록 영상의 왜곡이 많이 발생하게 된다. 이러한 왜곡은 특히 양 극점에서 많이 발생한다. In this conversion process, the coordinates may be damaged. As the converted polyhedron is composed of a small number of polygons, image distortion occurs more frequently. This distortion occurs especially at both poles.

도 3의 (a) 내지 도 3의 (e)는 다면체 구조의 변환 시에 발생하는 영상의 왜곡을 설명하기 위한 예시도이다. Figs. 3 (a) to 3 (e) are diagrams for explaining distortion of an image that occurs during conversion of a polyhedral structure. Fig.

도 3의 (a)에 도시된 바와 같이, 40x40개(총 1600개)의 폴리곤으로 이루어진 구에 텍스처가 맵핑된 상황을 가정하자. 텍스처가 맵핑된 구에 폴리곤 감소(polygon reduction) 알고리즘을 적용하면, 해당 구보다 더 적은 수의 폴리곤으로 이루어진 다면체 구조가 생성될 수 있다. 예를 들어, 40x40개의 폴리곤으로 이루어진 구로부터 도 3의 (b)에 도시된 바와 같이 20x20개의 폴리곤으로 이루어진 다면체 구조가 생성될 수 있다. 이후, 20x20개의 폴리곤으로 이루어진 다면체 구조로부터 도 3의 (c)에 도시된 바와 같이 10x10개의 폴리곤으로 이루어진 다면체 구조가 생성될 수 있다. 이후, 10x10개의 폴리곤으로 이루어진 다면체 구조로부터 도 3의 (d)에 도시된 바와 같이 5x5개의 폴리곤으로 이루어진 다면체 구조가 생성될 수 있다. 이후, 5x5개의 폴리곤으로 이루어진 다면체 구조로부터 도 3의 (e)에 도시된 바와 같이 4x4개의 폴리곤으로 이루어진 다면체 구조로 생성될 수 있다. As shown in Fig. 3 (a), let us suppose that a texture is mapped to a sphere consisting of 40x40 polygons (1600 in total). Applying a polygon reduction algorithm to a texture-mapped sphere can produce a polyhedral structure with fewer polygons than the corresponding sphere. For example, a polyhedral structure composed of 20x20 polygons can be generated from a sphere composed of 40x40 polygons as shown in Fig. 3 (b). Thereafter, a polyhedral structure composed of 10 x 10 polygons can be generated from the polyhedral structure composed of 20 x 20 polygons as shown in Fig. 3 (c). Thereafter, a polyhedron structure consisting of 5x5 polygons can be generated from the polyhedron structure composed of 10x10 polygons as shown in Fig. 3 (d). Thereafter, the polyhedral structure of 5 x 5 polygons can be generated from the polyhedral structure of 4 x 4 polygons as shown in FIG. 3 (e).

도 3의 (a) 내지 도 3의 (e)를 참조하면, 다면체가 적은 수의 폴리곤으로 이루어질수록 영상의 왜곡, 특히 양 극점에서 영상의 왜곡이 많이 발생하고 있음을 알 수 있다. 3 (a) to 3 (e), it can be seen that the more the polyhedron is made of a small number of polygons, the more the image distortion, particularly the distortion of the image at the both poles, is generated.

도 4의 (a) 내지 도 4의 (c)는 본 발명의 일 실시 예에 따른 텍스처 맵핑 보정 방법을 설명하기 위한 개념도이다. 4A to 4C are conceptual diagrams for explaining a texture mapping correction method according to an embodiment of the present invention.

전술한 바와 같이, 텍스처가 맵핑된 다면체를 해당 다면체보다 더 적은 수의 폴리곤으로 이루어진 다면체로 변환하는 경우 양 극점에서 많은 왜곡이 발생한다. 따라서, 도 4의 (a)에 도시된 바와 같은 다면체의 극점 영역(410)에 맵핑된 텍스처를 추출하여, 도 4의 (b)에 도시된 바와 같은 다면체의 극점 영역(420)에 투영함으로써 텍스처 맵핑을 보정하는 경우 왜곡된 영상을 제거할 수 있다. 극점 영역(420)의 텍스처가 극점 영역(410)의 텍스처로 보정된 후의 예를 도 4의 (c)에 도시하였다. 도 4의 (c)를 참조하면, 도 4의 (b)에 비하여 영상의 왜곡이 감소하였음을 알 수 있다. As described above, when a texture-mapped polyhedron is converted into a polyhedron having fewer polygons than the polyhedron, many distortions occur at both the poles. Accordingly, by extracting the texture mapped to the polyhedral region 410 of the polyhedron as shown in FIG. 4 (a) and projecting it to the polyhedral region 420 of the polyhedron as shown in FIG. 4 (b) If the mapping is corrected, the distorted image can be removed. An example after the texture of the pole region 420 is corrected to the texture of the pole region 410 is shown in Fig. 4 (c). Referring to FIG. 4 (c), it can be seen that image distortion is reduced compared to FIG. 4 (b).

도 5 및 도 6은 본 발명의 일 실시 예에 따른 텍스처 맵핑 보정 방법을 설명하기 위한 예시도이다. 5 and 6 are diagrams for explaining a texture mapping correction method according to an embodiment of the present invention.

도 5 및 도 6을 참조하여 설명하는 예에서, 40x40개의 폴리곤으로 이루어진 다면체(510)에 맵핑된 텍스처를 이용하여 4x4개의 폴리곤으로 이루어진 다면체(520)에 맵핑된 텍스처를 보정하는 예를 설명한다. In the example described with reference to FIGS. 5 and 6, an example of correcting a texture mapped to a polygon 520 of 4 × 4 polygons using a texture mapped to a polygon 510 of 40 × 40 polygons will be described.

도 5는 다면체들(510, 520)을 측면에서 바라본 도면이며, 도 6은 다면체들(510, 520)을 극점 방향에서 바라본 도면이다. 5 is a side view of the polyhedrons 510 and 520, and FIG. 6 is a view of the polyhedrons 510 and 520 in the direction of the pole.

먼저, 다면체(510)가 다면체(520)로 변환된 이후에, 다면체(520)의 텍스처 치환의 대상이 되는 영역인 극점 영역(522)이 선택될 수 있다. 극점 영역(522)은 사용자에 의하여 선택되거나, 설정된 알고리즘에 의하여 선택될 수 있다. 예를 들어, 다면체(520)의 극점을 꼭지점으로 갖는 폴리곤들이 위치하는 영역이 극점 영역(522)으로 선택될 수 있다. First, after the polyhedron 510 is transformed into the polyhedron 520, the pole region 522, which is an area to be subjected to texture replacement of the polyhedron 520, can be selected. The pole region 522 may be selected by the user or by a set algorithm. For example, an area where polygons having apexes of apexes of the polyhedron 520 are located can be selected as the pole region 522.

이후, 다면체(520)의 극점 영역(522)에 대응하는 UV 좌표를 갖는 극점 영역(512)이 다면체(510)에서 선택될 수 있다. 다면체(510)의 극점 영역(512)이 선택되면, 극점 영역(512)에 매핑된 텍스처가 추출될 수 있다. 여기서, 극점 영역(512)에 매핑된 텍스트는 원근감 없이 랜더링된 평면화된 이미지일 수 있다. Thereafter, a polynomial region 512 having UV coordinates corresponding to the pole region 522 of the polyhedron 520 may be selected in the polyhedron 510. When the pole region 512 of the polyhedron 510 is selected, the texture mapped to the pole region 512 can be extracted. Here, the text mapped to the pole region 512 may be a flattened image rendered without a perspective.

이후, 다면체(510)의 극점 영역(512)에서 추출된 텍스처가 다면체(520)의 극점 영역(522)에 매핑될 수 있다. 이러한 매핑은, 극점 영역(512)과 극점 영역(522)의 UV 좌표 정보를 이용하여 수행될 수 있다. The texture extracted from the pole region 512 of the polyhedron 510 may then be mapped to the pole region 522 of the polyhedron 520. This mapping can be performed using the UV coordinate information of the pole region 512 and the pole region 522. [

도 7은 본 발명의 일 실시 예에 따른 텍스처 맵핑 보정 방법을 설명하기 위한 흐름도이다. 실시 예에 따라, 도 7에 도시된 단계들 중 적어도 하나는 생략될 수 있다. 7 is a flowchart illustrating a texture mapping correction method according to an embodiment of the present invention. Depending on the embodiment, at least one of the steps shown in Fig. 7 may be omitted.

단계(701)에서, 제 1 다면체가 준비된다. 제 1 다면체는, 소정 개수의 폴리곤으로 이루어질 수 있다. 제 1 다면체는, 소정 개수의 폴리곤으로 이루어진 구일 수 있다. In step 701, a first polyhedron is prepared. The first polyhedron may be formed of a predetermined number of polygons. The first polyhedron may be a group consisting of a predetermined number of polygons.

단계(703)에서, 제 1 다면체에 텍스처가 맵핑된다. 텍스처 맵핑을 위하여, 제 1 다면체의 메쉬 해체, 텍스처 제작 및 텍스처 적용이 이루어질 수 있다. 실시 예에 따라, 기 제작된 텍스처가 이용될 수 있다. In step 703, a texture is mapped to the first polyhedron. For texture mapping, mesh disassembly of the first polyhedron, texture fabrication, and texture application may be performed. Depending on the embodiment, prefabricated textures may be used.

단계(705)에서, 제 1 다면체로부터 제 2 다면체가 생성될 수 있다. 제 2 다면체는, 제 1 다면체보다 적은 개수의 폴리곤으로 이루어질 수 있다. 제 2 다면체는, 도 3을 참조하여 설명한 바와 같이, 폴리곤 감소 알고리즘을 이용하여 생성될 수 있다. In step 705, a second polyhedron can be generated from the first polyhedron. The second polyhedron may be composed of a smaller number of polygons than the first polyhedron. The second polyhedron can be generated using a polygon reduction algorithm, as described with reference to Fig.

단계(707)에서, 제 2 다면체의 제 2 영역의 이미지가 제 1 다면체의 제 1 영역의 이미지로 치환될 수 있다. 예를 들어, 도 5 및 도 6을 참조하여 설명한 바와 같이, 다면체(520)의 극점 영역(522)의 이미지가 다면체(510)의 극점 영역(512)의 이미지로 치환될 수 있다. In step 707, the image of the second area of the second polyhedron may be replaced with the image of the first area of the first polyhedron. For example, as described with reference to FIGS. 5 and 6, the image of the pole region 522 of the polyhedron 520 may be replaced with the image of the pole region 512 of the polyhedron 510.

본 발명의 실시 예들은, 컴퓨터 시스템 내에, 예를 들어, 컴퓨터 판독가능 기록 매체로 구현될 수 있다. 도 8에 도시된 바와 같이, 컴퓨터 시스템(800)은 하나 이상의 프로세서(810), 메모리(820), 저장부(830), 사용자 인터페이스 입력부(840) 및 사용자 인터페이스 출력부(850) 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스(860)를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템(800)은 네트워크에 접속하기 위한 네트워크 인터페이스(870)를 또한 포함할 수 있다. 프로세서(810)는 메모리(820) 및/또는 저장소(830)에 저장된 처리 명령어를 실행시키는 CPU, GPU 또는 반도체 소자일 수 있다. 메모리(820) 및 저장부(830)는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(824) 및 RAM(825)을 포함할 수 있다. Embodiments of the invention may be embodied in a computer system, for example, a computer-readable recording medium. 8, the computer system 800 includes at least one of a processor 810, a memory 820, a storage 830, a user interface input 840, and a user interface output 850 Elements, which may communicate with each other via bus 860. [ In addition, the computer system 800 may also include a network interface 870 for connecting to a network. The processor 810 may be a CPU, a GPU, or a semiconductor device that executes processing instructions stored in the memory 820 and / or the storage 830. Memory 820 and storage 830 may include various types of volatile / non-volatile storage media. For example, the memory may include ROM 824 and RAM 825. [

이에 따라, 본 발명의 실시 예들은 컴퓨터로 구현되는 방법 또는 컴퓨터 실행 가능 명령어들이 저장된 비휘발성 컴퓨터 기록 매체로 구현될 수 있다. 상기 명령어들은 프로세서에 의해 실행될 때 본 발명의 적어도 일 실시 예에 따른 방법을 수행할 수 있다. Accordingly, embodiments of the invention may be embodied in a computer-implemented method or in a non-volatile computer storage medium having stored thereon computer-executable instructions. The instructions, when executed by a processor, may perform the method according to at least one embodiment of the present invention.

Claims (8)

제 1 다면체에 텍스처를 맵핑시키는 단계;
상기 텍스처가 맵핑된 제 1 다면체를 상기 제 1 다면체보다 적은 개수의 폴리곤으로 이루어진 제 2 다면체로 변환하는 단계;
상기 제 1 다면체의 제 1 영역에 맵핑된 텍스처를 추출하는 단계; 및
상기 제 1 영역에 대응하는 상기 제 2 다면체의 제 2 영역에 맵핑된 텍스처를 상기 추출된 텍스처로 치환하는 단계
를 포함하는 다면 영상 프로젝션을 위한 텍스처 맵핑 보정 방법.
Mapping a texture to a first polyhedron;
Converting the texture-mapped first polyhedron into a second polyhedron having a smaller number of polygons than the first polyhedron;
Extracting a texture mapped to a first area of the first polyhedron; And
Replacing a texture mapped to a second area of the second polyhedron corresponding to the first area with the extracted texture;
Wherein the texture mapping correction method comprises:
제 1 항에 있어서,
상기 제 1 영역 및 상기 제 2 영역은 다면체의 극점 부분의 영역인
다면 영상 프로젝션을 위한 텍스처 맵핑 보정 방법.
The method according to claim 1,
The first region and the second region are regions of the pole portion of the polyhedron
A Texture Mapping Correction Method for Multi - sided Image Projection.
제 1 항에 있어서, 상기 텍스처를 추출하는 단계는,
상기 제 2 다면체의 극점을 꼭지점으로 갖는 폴리곤들을 상기 제 2 영역으로 선택하는 단계;
선택된 제 2 영역에 대응하는 상기 제 1 다면체의 영역을 상기 제 1 영역으로 선택하는 단계; 및
선택된 제 1 영역에 맵핑된 텍스처를 추출하는 단계
를 포함하는 다면 영상 프로젝션을 위한 텍스처 맵핑 보정 방법.
The method of claim 1, wherein extracting the texture comprises:
Selecting polygons having apexes of the second polyhedron as the second regions;
Selecting an area of the first polyhedron corresponding to the selected second area as the first area; And
Extracting a texture mapped to the selected first area
Wherein the texture mapping correction method comprises:
제 1 항에 있어서, 상기 제 1 다면체는,
구 형태인
다면 영상 프로젝션을 위한 텍스처 맵핑 보정 방법.
The display device according to claim 1, wherein the first polyhedron comprises:
Sphere
A Texture Mapping Correction Method for Multi - sided Image Projection.
프로세서 및 메모리를 포함하는 텍스처 맵핑 보정 장치로서,
상기 메모리에 텍스처 맵핑을 위한 명령어들이 저장되며,
상기 명령어들은, 상기 프로세서에 의하여 실행될 때, 상기 프로세서로 하여금,
제 1 다면체에 텍스처를 맵핑시키고,
상기 텍스처가 맵핑된 제 1 다면체를 상기 제 1 다면체보다 적은 개수의 폴리곤으로 이루어진 제 2 다면체로 변환하며,
상기 제 1 다면체의 제 1 영역에 맵핑된 텍스처를 추출하고,
상기 제 1 영역에 대응하는 상기 제 2 다면체의 제 2 영역에 맵핑된 텍스처를 상기 추출된 텍스처로 치환하도록 하는 명령어들을 포함하는
다면 영상 프로젝션을 위한 텍스처 맵핑 보정 장치.
A texture mapping correction device comprising a processor and a memory,
Instructions for texture mapping are stored in the memory,
Wherein the instructions, when executed by the processor, cause the processor to:
Mapping a texture to the first polyhedron,
Converting the texture-mapped first polyhedron into a second polyhedron having a smaller number of polygons than the first polyhedron,
Extracting a texture mapped to a first area of the first polyhedron,
And replacing the texture mapped to the second area of the second polyhedron corresponding to the first area with the extracted texture
A texture mapping correction device for multi - sided image projection.
제 5 항에 있어서,
상기 제 1 영역 및 상기 제 2 영역은 다면체의 극점 부분의 영역인
다면 영상 프로젝션을 위한 텍스처 맵핑 보정 장치.
6. The method of claim 5,
The first region and the second region are regions of the pole portion of the polyhedron
A texture mapping correction device for multi - sided image projection.
제 5 항에 있어서, 상기 명령어들은,
상기 제 2 다면체의 극점을 꼭지점으로 갖는 폴리곤들을 상기 제 2 영역으로 선택하고,
선택된 제 2 영역에 대응하는 상기 제 1 다면체의 영역을 상기 제 1 영역으로 선택하며,
선택된 제 1 영역에 맵핑된 텍스처를 추출하도록 하는 명령어들을 포함하는
다면 영상 프로젝션을 위한 텍스처 맵핑 보정 장치.
6. The method of claim 5,
Selecting polygons having apexes of the second polyhedron as the apexes as the second regions,
Selecting an area of the first polyhedron corresponding to the selected second area as the first area,
And extracting a texture mapped to the selected first area
A texture mapping correction device for multi - sided image projection.
제 5 항에 있어서, 상기 제 1 다면체는,
구 형태인
다면 영상 프로젝션을 위한 텍스처 맵핑 보정 장치.
The method of claim 5, wherein the first polyhedron comprises:
Sphere
A texture mapping correction device for multi - sided image projection.
KR1020160125718A 2016-06-16 2016-09-29 Texture mapping calibration method for multi sided screen projection and apparatus thereof KR20170142089A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160075325 2016-06-16
KR1020160075325 2016-06-16

Publications (1)

Publication Number Publication Date
KR20170142089A true KR20170142089A (en) 2017-12-27

Family

ID=60938580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160125718A KR20170142089A (en) 2016-06-16 2016-09-29 Texture mapping calibration method for multi sided screen projection and apparatus thereof

Country Status (1)

Country Link
KR (1) KR20170142089A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173295B1 (en) 2020-01-20 2020-11-03 주식회사 바인더에이 System for synchronizing between laser and projection
KR102297915B1 (en) * 2020-03-03 2021-09-06 주식회사 코탁스 reflecting system based on six sided cube screens
KR20220109223A (en) 2021-01-28 2022-08-04 주식회사 에스씨크리에이티브 System and method for constructing media facade using projection mapping technology
KR20240076565A (en) 2022-11-22 2024-05-30 한국과학기술원 Apparatus and method for generating 3d object texture map

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173295B1 (en) 2020-01-20 2020-11-03 주식회사 바인더에이 System for synchronizing between laser and projection
KR102297915B1 (en) * 2020-03-03 2021-09-06 주식회사 코탁스 reflecting system based on six sided cube screens
KR20220109223A (en) 2021-01-28 2022-08-04 주식회사 에스씨크리에이티브 System and method for constructing media facade using projection mapping technology
KR20240076565A (en) 2022-11-22 2024-05-30 한국과학기술원 Apparatus and method for generating 3d object texture map

Similar Documents

Publication Publication Date Title
CN109685891B (en) Building three-dimensional modeling and virtual scene generation method and system based on depth image
KR100914846B1 (en) Method and system for texturing of 3d model in 2d environment
US7616228B2 (en) Hardware based interdigitation
US9013482B2 (en) Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
CN111243071A (en) Texture rendering method, system, chip, device and medium for real-time three-dimensional human body reconstruction
CN102289845B (en) Three-dimensional model drawing method and device
US10140750B2 (en) Method, display adapter and computer program product for improved graphics performance by using a replaceable culling program
CN108230435B (en) Graphics processing using cube map textures
KR20170142089A (en) Texture mapping calibration method for multi sided screen projection and apparatus thereof
JP2008257752A (en) Perspective editing tool to two-dimensional image
CN103761397A (en) Three-dimensional model slice for surface exposure additive forming and projection plane generating method
CA2370752A1 (en) Fast rendering of pyramid lens distorted raster images
Widmer et al. An adaptive acceleration structure for screen-space ray tracing
CN109979013B (en) Three-dimensional face mapping method and terminal equipment
US20230230311A1 (en) Rendering Method and Apparatus, and Device
KR101552827B1 (en) Method Of Dividing Three-dimensional Object Model
CN114387386A (en) Rapid modeling method and system based on three-dimensional lattice rendering
US20180213215A1 (en) Method and device for displaying a three-dimensional scene on display surface having an arbitrary non-planar shape
JP2006235839A (en) Image processor and image processing method
CN115984506A (en) Method and related device for establishing model
US20050017969A1 (en) Computer graphics rendering using boundary information
CN115103134A (en) LED virtual shooting cutting synthesis method
KR20160068204A (en) Data processing method for mesh geometry and computer readable storage medium of recording the same
US10062191B2 (en) System and method for rendering points without gaps
US20210308936A1 (en) Three-dimensional printing of texture images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application