KR20050080334A - Method of synthesizing a multitexture and recording medium thereof - Google Patents

Method of synthesizing a multitexture and recording medium thereof Download PDF

Info

Publication number
KR20050080334A
KR20050080334A KR1020040008409A KR20040008409A KR20050080334A KR 20050080334 A KR20050080334 A KR 20050080334A KR 1020040008409 A KR1020040008409 A KR 1020040008409A KR 20040008409 A KR20040008409 A KR 20040008409A KR 20050080334 A KR20050080334 A KR 20050080334A
Authority
KR
South Korea
Prior art keywords
map
color
texture
integrated
coordinates
Prior art date
Application number
KR1020040008409A
Other languages
Korean (ko)
Inventor
양경모
이래경
이상찬
한훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040008409A priority Critical patent/KR20050080334A/en
Publication of KR20050080334A publication Critical patent/KR20050080334A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing

Abstract

본 발명은 멀티 텍스쳐링 방법 및 이를 기록한 기록매체에 관한 것으로서, 더욱 상세하게는 그래픽 하드웨어 리소스 제한이 있는 환경에서 재질 텍스쳐로 사용하는 이미지를 하나로 합성하여 리소스를 효율적으로 사용하게 하는 멀티 텍스쳐링 방법 및 이를 기록한 기록매체에 관한 것이다. 본 발명의 일 실시예에 따른 멀티 텍스쳐링 방법은 합성할 텍스쳐맵들의 프로젝터들로부터 통합맵 프로젝터를 결정하는 단계; 상기 합성할 텍스쳐맵들을 토대로 상기 통합맵의 이미지크기와 텍셀 재질을 결정하는 단계; 및 상기 통합맵이 상기 통합맵의 프로젝터를 통해 오브젝트에 맵핑하는 단계를 포함한다The present invention relates to a multi-texturing method and a recording medium recording the same, and more particularly, to a multi-texturing method for synthesizing an image used as a material texture in an environment in which graphic hardware resource limitations are used, and to efficiently use a resource. It relates to a recording medium. Multi-texturing method according to an embodiment of the present invention comprises the steps of determining the integrated map projector from the projectors of the texture maps to be synthesized; Determining an image size and a texel material of the integrated map based on the texture maps to be synthesized; And mapping the integrated map to an object through the projector of the integrated map.

Description

멀티 텍스쳐링 방법 및 이를 기록한 기록매체{Method of synthesizing a multitexture and recording medium thereof} Method of synthesizing a multitexture and recording medium

본 발명은 멀티 텍스쳐링 방법 및 이를 기록한 기록매체에 관한 것으로서, 더욱 상세하게는 그래픽 하드웨어 리소스 제한이 있는 환경에서 재질 텍스쳐로 사용하는 이미지를 하나로 합성하여 리소스를 효율적으로 사용하게 하는 멀티 텍스쳐링 방법 및 이를 기록한 기록매체에 관한 것이다. The present invention relates to a multi-texturing method and a recording medium recording the same, and more particularly, to a multi-texturing method for synthesizing an image used as a material texture in an environment in which graphic hardware resource limitations are used, and to efficiently use a resource. It relates to a recording medium.

텍스쳐 맵핑(Texture mapping)은 모델링 된 3차원 물체 표면의 사실감을 위해 색상이나 반사도 등의 재질을 표현하는 2차원의 텍스쳐맵(대표적으로 색상맵)을 입체 모델 표면에 맵핑하는 방법이다. Texture mapping is a method of mapping a two-dimensional texture map (typically a color map) representing a material such as color or reflectivity to a three-dimensional model surface for realism of a modeled three-dimensional object surface.

실제와 같은 느낌이 나도록 쉐이딩(Shading)하기 위해서는 계산이 상당히 복잡해지고 처리시간도 오래 걸린다. 그러나 텍스쳐 맵핑 기법을 적용하면 보다 짧은 처리 시간으로 물질의 재질감을 훨씬 사실적으로 표현할 수 있게 된다. 반사나 복잡한 조명효과 같이 실제 계산하기에 복잡한 장면도 반사나 조명이 미리 적용된 이미지를 사용하여 비교적 간단하게 묘사할 수 있다.Shading to make it feel like it's a lot of computation and a lot of processing time. However, by applying the texture mapping technique, the material texture of the material can be expressed more realistically with shorter processing time. Even scenes that are complex to calculate, such as reflections or complex lighting effects, can be described relatively simply using pre-applied images of reflections or lighting.

또한 하나의 텍스쳐맵만을 사용하던 기존의 방식에서 벗어나 표면에 기본적인 텍스쳐를 적용한 뒤 다른 텍스쳐를 그 위에 덮어 씌워 합성함으로써 훨씬 다양한 질감을 표현하는 멀티 텍스쳐링(MultiTexturing) 방식이 하드웨어로 지원되기 시작하였다. 이는 프로그래밍이 가능한 쉐이딩을 위해 리소스(Resource)를 할당함으로써 하드웨어 가속을 이용한 다양한 쉐이딩 방식이 가능하게 된 것을 의미한다. In addition, the multitexturing method, which expresses a much wider variety of textures, is now supported by hardware by applying a basic texture to a surface and then composing another texture on top of it. This means that various shading methods using hardware acceleration are enabled by allocating resources for programmable shading.

도 1은 3개의 텍스쳐 유닛으로 구성된 그래픽 하드웨어에서 멀티텍스쳐링이 어떻게 구현되는 지를 보여주는데 stage0에서부터 stage2로 표시된 각각의 텍스쳐 유닛들은 재질(Texture) 이미지, 필터링 파라미터 등의 정보를 가지고 있고, 각 단계에서 텍스쳐 맵에 의해 재질을 표현할 수 있는 재질 값(texture value)를 입력받아 싱글 텍스쳐링 결과를 출력한다. FIG. 1 shows how multitexturing is implemented in the graphics hardware consisting of three texture units. Each texture unit represented by stage0 through stage2 has information such as a texture image, filtering parameters, and the like. Inputs the texture value to express the material by and outputs the single texturing result.

이때, stage0에서부터 stage2로 연속적으로 구성된 텍스쳐 유닛들은 전단계의 텍스쳐 유닛들의 싱글 텍스쳐링 결과를 입력 받는 방식으로 구현되므로 이전 텍스쳐 유닛에서 수행한 결과가 현재 텍스쳐 유닛에서 수행하는 연산에 반영된다. At this time, since texture units composed of stage0 to stage2 are implemented in such a manner as to receive a single texturing result of texture units of the previous stage, the result of the previous texture unit is reflected in the calculation performed by the current texture unit.

한편, 실시간 멀티 텍스쳐링은 그래픽 하드웨어가 지원을 하여야만 사용을 할 수가 있는데 실시간 환경에서 현재 가장 최신의 그래픽 하드웨어를 이용하면 이론상으로 최대 16개의 텍스쳐 맵을 합성 할 수 있다고 한다. On the other hand, real-time multi-texturing can be used only if graphics hardware supports it. In theory, up to 16 texture maps can be synthesized using the latest graphics hardware in real-time environment.

그러나 색상맵만을 사용하는 것이 아니라 많은 사실적인 효과 표현을 위해 Light맵, 반사맵, 환경맵, 범프맵, 그림자 등을 동시에 사용하게 되고 쉐이딩 효과를 위해 텍스쳐 리소스를 할당할 경우 재질 이미지는 한, 두개만을 적용할 수 밖에 없는 문제가 있다.However, instead of using color maps alone, you can use light maps, reflection maps, environment maps, bump maps, and shadows simultaneously to express a lot of realistic effects.If you assign texture resources for shading effects, you can use one or two material images. There is a problem that can only be applied.

또한, 실시간 환경에서는 One-Pass(Single-pass) 멀티 텍스쳐링으로 처리하는 경우 텍스쳐 리소스의 제한이 있어 많은 텍스쳐 맵을 사용할 수가 없어 원하는 재질 표현을 할 수 없는 문제가 있다. In addition, in a real-time environment, when processing with one-pass (single-pass) multitexturing, there is a problem in that a desired material cannot be represented because many texture maps cannot be used because of limitation of texture resources.

본 발명은 제한된 그래픽 리소스 내에서 3차원 오브젝트 하나의 면에 적용할 재질(Texture)이미지를 하나의 이미지로 통합하여 사용함으로써 다른 효과에 의한 다양한 실시간 렌더링 효과를 제공하는데 그 목적이 있다. An object of the present invention is to provide a variety of real-time rendering effects by different effects by integrating and using a texture image to be applied to one surface of a three-dimensional object in a limited graphics resource.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다. The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 멀티 텍스쳐링 방법은 합성할 텍스쳐맵들의 프로젝터들로부터 통합맵 프로젝터를 결정하는 단계; 상기 합성할 텍스쳐맵들을 토대로 상기 통합맵의 이미지크기와 텍셀 재질을 결정하는 단계; 및 상기 통합맵이 상기 통합맵의 프로젝터를 통해 오브젝트에 맵핑하는 단계를 포함한다In order to achieve the above object, a multi-texturing method according to an embodiment of the present invention comprises the steps of determining an integrated map projector from the projectors of texture maps to be synthesized; Determining an image size and a texel material of the integrated map based on the texture maps to be synthesized; And mapping the integrated map to an object through the projector of the integrated map.

또한 본 발명의 실시예에 따른 멀티 텍스쳐링 방법을 기록한 기록매체는 상기 방법을 실행하기 위한 프로그램을 기록한 매체이다.In addition, the recording medium recording the multi-texturing method according to an embodiment of the present invention is a medium on which a program for executing the method is recorded.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Specific details of other embodiments are included in the detailed description and the drawings.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다 Like reference numerals refer to like elements throughout.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본발명의 일실시예에 따른 멀티텍스쳐링 방법을 보여주는 도면이다. 2 is a diagram illustrating a multitexturing method according to an embodiment of the present invention.

본 발명의 일실시예에 따른 멀티텍스쳐링 방법은 합성할 텍스쳐맵들의 프로젝터들로부터 통합맵 프로젝터를 결정하는 단계(S20)와상기 합성할 텍스쳐맵들을 토대로 상기 통합맵의 이미지크기와 텍셀 재질을 결정하는 단계(S22)와 상기 통합맵이 상기 통합맵의 프로젝터를 통해 오브젝트에 맵핑하는 단계(S24)를 포함한다.The multi-texturing method according to an embodiment of the present invention is to determine the integrated map projector from the projectors of the texture maps to be synthesized (S20) and to determine the image size and texel material of the integrated map based on the texture map to be synthesized. Step S22 and mapping the integrated map to the object through the projector of the integrated map S24.

상기 통합맵 프로젝터를 결정하는 단계(S20)는 통합맵 프로젝터의 법선벡터와 중심좌표를 결정하는 단계(S200)와 통합맵 프로젝터의 크기를 결정하는 단계(S202)로 이루어진다.The determining of the integrated map projector (S20) includes determining a normal vector and a center coordinate of the integrated map projector (S200) and determining a size of the integrated map projector (S202).

상기 통합맵 프로젝터의 법선벡터와 중심좌표를 결정하는 단계(S200)에서는 합성될 텍스쳐들의 프로젝터(projector) 정보를 통해 통합맵의 프로젝터를 생성한다. 상기 프로젝터(projector)는 3차원 오브젝트의 특정 위치에 텍스쳐 맵 내의 특정 재질을 적용하기 위해서 사용하는 중간 매개물을 말한다. In the determining of the normal vector and the center coordinate of the integrated map projector (S200), the projector of the integrated map is generated through the projector information of the textures to be synthesized. The projector refers to an intermediate medium used to apply a specific material in a texture map to a specific position of a 3D object.

일례로, 오브젝트(object)가 가지는 n개의 색상맵을 합성하여 통합맵을 생성하는 과정에서 통합맵의 프로젝터를 생성하는 방법을 설명한다. As an example, a method of generating a projector of an integrated map in a process of generating an integrated map by synthesizing n color maps of an object will be described.

만약, n개의 색상맵에 설정된 프로젝터로부터 통합맵을 합성하는 경우, 각각의 색상맵 프로젝터의 법선벡터와 중심좌표를 추출하여 평균값을 구한다. 상기 평균값은 각각의 프로젝터의 법선벡터와 중심좌표를 구해 이를 n으로 나누면 된다.If an integrated map is synthesized from the projectors set for n color maps, the average value is obtained by extracting the normal vector and the center coordinate of each color map projector. The average value is obtained by dividing the normal vector and the center coordinate of each projector by n.

도 3에서 개략적으로 도시한 바와 같이, 3개의 개별 텍스쳐맵을 합성하여 통합맵을 합성하는 경우, 전술한 바와 같이 개별 텍스쳐맵 프로젝터의 법선벡터와 중심좌표의 평균을 구해 통합맵의 프로젝터를 생성한다.As schematically illustrated in FIG. 3, when synthesizing an integrated map by synthesizing three individual texture maps, as described above, the average of the normal vectors and the center coordinates of the individual texture map projectors is calculated to generate the integrated map projector. .

상기 통합맵 프로젝터의 크기를 결정하는 단계(S202)에서는 색상맵에 설정된 프로젝터들의 크기를 비교하여 통합맵의 프로젝터 크기를 결정한다. 이 경우 통합맵 프로젝터의 크기는 색상맵에 설정된 프로젝터들을 모두 포함할 수 있는 크기이여야 하므로 상기 프로젝터들 중 가장 큰 프로젝터의 크기로 결정하는 것이 바람직하다. In the step of determining the size of the integrated map projector (S202), the projector sizes of the integrated map are determined by comparing the sizes of the projectors set in the color map. In this case, since the size of the integrated map projector should be a size that can include all the projectors set in the color map, it is preferable to determine the size of the largest projector among the projectors.

상기 통합맵의 이미지크기와 텍셀 재질을 결정하는 단계(S22)는 통합맵의 이미지크기를 결정하는 단계(S220)와 통합맵 텍셀의 재질을 결정하는 단계(S222)로 이루어진다.Determining the image size and the texel material of the integrated map (S22) consists of determining the image size of the integrated map (S220) and determining the material of the integrated map texel (S222).

상기 통합맵의 이미지 크기를 결정하는 단계(S220)에서는 상기 결정된 통합맵의 프로젝터 크기를 고려하여 통합맵의 이미지 크기를 결정한다.In determining the image size of the integrated map (S220), the image size of the integrated map is determined in consideration of the projector size of the determined integrated map.

상기 통합맵의 이미지의 크기 결정에는 첫째, 사용된 개별 텍스쳐 맵을 모두 포함할 수 있는 통합 맵의 프로젝터의 크기를 통합 맵 이미지 크기로 결정하는 방법과 둘째, 사용된 개별 텍스쳐 맵들의 소스 이미지를 비교하여 가장 큰 소스이미지의크기를 통합 맵의 이미지 크기로 결정하는 방법과 셋째, 통합 맵의 프로젝터와 개별 텍스쳐 맵의 프로젝터의 크기 비율을 계산하여 가장 큰 비율값과 개별 텍스쳐맵의 소스이미지 중 가장 큰 소스 이미지의 크기 값을 곱하여 그 값을 통합 맵의 이미지 크기로 결정하는 방법이 사용될 수 있다. In determining the size of the image of the integrated map, first, a method of determining the size of the projector of the integrated map as the integrated map image size, which may include all the used individual texture maps, and second, comparing the source images of the used individual texture maps. To determine the size of the largest source image as the size of the integrated map. Third, calculate the size ratio of the projectors of the integrated map and the projectors of the individual texture maps to calculate the largest ratio value and the largest of the source images of the individual texture maps. A method of multiplying the size value of the source image and determining that value as the image size of the unified map can be used.

상기 세 번째 방법은 첫번째와 두번째 방법에 비해 통합 맵 이미지 크기가 커지므로 통합 맵 이미지 생성시 연산 수행 시간이 오래 걸리지만 이미지의 화질을 향상시킬 수 있는 장점이 있다.Since the third method has a larger integrated map image size than the first and second methods, it takes a long time to perform an integrated map image, but has an advantage of improving image quality.

도 4는 본발명의 일실시예에 따른 통합맵 이미지의 크기를 결정 방식을 설명하기 위한 도면이다.4 is a view for explaining a method of determining the size of the integrated map image according to an embodiment of the present invention.

도 4에서 도시한 바와 같이, 통합 맵의 프로젝터 크기는 100이고, 각 개별 텍스쳐맵의 프로젝터 크기는 30, 50, 40이며, 각 개별 텍스쳐맵의 원본 이미지 크기는 300, 160, 150 이다. 이때, 통합맵의 이미지 크기를 결정하는 방법으로 전술한 세번째 방법을 사용하면 통합맵의 이미지 크기는 원본 소스 이미지의 최대 크기 x 최대 비율값으로 결정된다. As shown in FIG. 4, the projector size of the integrated map is 100, the projector sizes of each individual texture map are 30, 50, and 40, and the original image size of each individual texture map is 300, 160, 150. In this case, when the third method described above is used as a method of determining the image size of the integrated map, the image size of the integrated map is determined as the maximum size x maximum ratio value of the original source image.

원본 이미지의 최대 크기는 300이고, 최대 비율은 각 개별 텍스쳐의 소스 이미지 크기를 통합맵 프로젝터의 크기인 100으로 나누어 결정된 괄호내의 값에 의해 3.3으로 결정한다. 따라서 통합맵의 이미지 크기는 3.3 x 300, 즉 990이 된다.The maximum size of the original image is 300, and the maximum ratio is set to 3.3 by the value in parentheses determined by dividing the source image size of each individual texture by 100, which is the size of the integrated map projector. Therefore, the size of the integrated map is 3.3 x 300, or 990.

상기 통합맵 텍셀(texel)의 재질 결정(S222)은 통합맵의 텍셀에 대응하는 개별 텍스쳐맵내의 좌표들을 구해 그 좌표에 구현된 재질들을 합성하는 방식으로 이루어진다. Determination of the material of the integrated map texel (Texel) (S222) is made by obtaining the coordinates in the individual texture map corresponding to the texel of the integrated map by synthesizing the material implemented in the coordinates.

상기 방식은 개별 텍스쳐맵들과 이를 합성한 통합맵 좌표간의 상관관계를 통해 설명한다.This method is described through the correlation between the individual texture maps and the coordinates of the integrated map synthesized therefrom.

상기 개별 텍스쳐맵들과 통합맵은 오브젝트의 질감을 표현하기 위해 프로젝터를 사용하여 오브젝트에 맵핑된다. 이때, 질감이 표현될 오브젝트의 좌표와 질감이 추출될 개별 텍스쳐맵 또는 통합맵의 좌표 사이에는 각각의 맵핑함수가 존재한다. The individual texture maps and the unified map are mapped to the object using a projector to express the texture of the object. At this time, each mapping function exists between the coordinates of the object where the texture is to be expressed and the coordinates of the individual texture map or integration map from which the texture is to be extracted.

도5에 도시한 바와 같이, 오브젝트내의 좌표 P(x,y,z)는 오브젝트의 질감을 표현하기 위해 질감을 추출할 개별 텍스쳐맵들(T1, T2, T3)내의 좌표인 T(u1i,v1i), T(u2i,v2i), T(u3i,v3i)와 각각의 맵핑함수인 F1, F2, F3 으로 연관되고, 통합맵내의 질감을 추출할 좌표 T(uxi,vxi) 또한 맵핑함수 Fx 으로 연관된다.As shown in Fig. 5, the coordinate P (x, y, z) in the object is T (coordinate) in coordinates of the individual texture maps T 1 , T 2 , T 3 from which the texture is extracted to express the texture of the object. u 1i , v 1i ), T (u 2i , v 2i ) and T (u 3i , v 3i ) and their mapping functions F 1 , F 2 , and F 3 , and coordinates to extract textures from the integrated map. T (u xi , v xi ) is also associated with the mapping function F x .

따라서, 상기 오브젝트 좌표에 대응하는 통합맵 텍셀의 재질을 결정하기 위해 개별 텍스쳐맵들에서 재질 정보를 가지고와 합성하는 경우에 있어서, 재질정보를 가져올 해당 텍스쳐맵의 좌표는 상기 F1, F2, F3, Fx 와 같은 맵핑함수를 통해 결정된다.Therefore, in the case of synthesizing the material information from the individual texture maps to determine the material of the integrated map texel corresponding to the object coordinates, the coordinates of the corresponding texture map to obtain material information are F 1 , F 2 , It is determined by mapping functions such as F 3 and F x .

다만 맵핑함수만을 통해 상기 통합맵의 재질을 표현할 개별 텍스쳐맵의 좌표를 결정하는 방식에는 오류가 발생할 수 있다. However, an error may occur in a method of determining the coordinates of the individual texture maps representing the material of the integrated map through only the mapping function.

이는 개별 텍스쳐맵들과 통합맵을 오브젝터에 맵핑하기 위해 사용하는 프로젝터들의 법선벡터는 다른 방향을 갖는 것이 일반적이므로, 오브젝트내의 폴리곤을 개별 텍스쳐맵들과 통합맵에 각각 투영하게 되면 투영된 폴리곤 모양이 상이하다. This is because the normal vectors of the projectors used to map the individual texture maps and the integrated map to the object generally have different directions, so projecting polygons in the object onto the individual texture maps and the integrated map, respectively, projected polygon shapes. This is different.

그 결과 오브젝트내 폴리곤 단위로 내부를 스캔하며 통합맵의 해당 텍셀의 재질을 결정하는 경우에 있어 재질을 추출할 텍스쳐맵의 해당위치 결정에 왜곡이 발생할 수 있다. As a result, when scanning the inside in the unit of polygon in the object and determining the material of the corresponding texel of the integrated map, distortion may occur in the corresponding positioning of the texture map to extract the material.

따라서, 통합맵 해당 텍셀의 질감을 구현하기 위해 대응되는 개별 텍스쳐맵의 좌표를 결정할 때 각각에 투영된 폴리곤의 모양 차이를 고려하여 결정될 개별 텍스쳐맵의 좌표를 보정할 필요가 있다.  Therefore, when determining coordinates of individual texture maps corresponding to the integrated texel texture, it is necessary to correct the coordinates of the individual texture maps to be determined in consideration of the shape difference of the polygons projected on each.

도 6은 본발명이 바람직한 실시예에 따른 질감을 추출할 텍스쳐맵 내의 좌표의 보정하는 방법을 보여주는 도면이다. 6 is a view showing a method of correcting coordinates in a texture map from which a texture is extracted according to an exemplary embodiment of the present invention.

도 6에서 도시한바와 같이, 통합맵내의 질감을 결정할 좌표는 3개의 버텍스와 일정한 거리비율을 갖는다. 즉 통합맵내의 질감을 결정할 좌표는 T(k,l), 버텍스 vk 와 1-s 대 s의 비율을 갖고, 상기 T(k,l)은 폴리곤의 버텍스인 vi 와 vj 와 각각 t 대 1-t 의 거리비율 갖게된다.As shown in FIG. 6, the coordinates for determining the texture in the unified map have three vertices and a constant distance ratio. That is, the coordinates to determine the texture in the integrated map have a ratio of T (k, l), vertices v k and 1-s to s, where T (k, l) is a vertex of the polygons v i and v j and t respectively. You will have a distance ratio of 1-t.

상기 거리비율은 재질이 추출될 개별 텍스쳐맵내의 좌표 결정에 이용되는데, 통합맵내의 폴리곤과 프로젝터의 법선벡터 차이로 투영된 모습이 다른 개별 텍스쳐맵 내의 폴리곤이 갖는 버텍스와 동일한 거리비율을 갖는 좌표를 선택하여 재질을 추출하게 된다. The distance ratio is used to determine the coordinates in the individual texture map from which the material is to be extracted. Select to extract the material.

즉, 재질이 추출될 개별 텍스쳐맵내의 좌표는 두개의 버텍스와 t대 1-t의 거리비율을 갖는 좌표를 결정하고, 상기 결정된 좌표와 나머지 버텍스와의 거리비율이 s대 1-s가 되는 좌표를 계산하여 결정한다. That is, the coordinates in the individual texture map from which the material is to be extracted determine two coordinates and a coordinate having a distance ratio of t to 1-t, and a coordinate ratio at which the distance ratio between the determined coordinates and the remaining vertices is s to 1-s. Determine by calculating

상기 과정은, 우선 두개의 버텍스와의 관계에서 T(k,l)_u = (1-t)ui + tuj , T(k,l)_v = (1-t)vi + tvj 을 계산하고, 상기 계산한 값과 나머지 버텍스값을 통해 T(i,j)_u = (1-s)uk +s* T(k,l)_u , T(i,j)_v = (1-s)vk + s* T(k,l)_v 와 같이 연산식을 이용하여 표현할수 있다. 상기 수식에서 재질이 결정될 개별 텍스쳐맵내의 좌표는 (T(i,j)_u, T(i,j)_v) 과 같이 결정된다.The process first calculates T (k, l) _u = (1-t) ui + tuj, T (k, l) _v = (1-t) vi + tvj in relation to two vertices, and T (i, j) _u = (1-s) uk + s * T (k, l) _u, T (i, j) _v = (1-s) vk + s * Can be expressed by using an expression such as T (k, l) _v. The coordinates in the individual texture maps for which the material is determined in the above equation are determined as (T (i, j) _u, T (i, j) _v).

상기 보정에 의해 결정된 개별 텍스쳐맵내의 좌표에서 추출된 재질들(색상, 투명도 등)과 추출된 좌표는 도7에서 도시한 바와 같이, 통합맵내 폴리곤의 버텍스별로 기록되도록 구현하는 것이 바람직하다. 상기 T1, T2, T3 는 개별 텍스쳐맵에서 추출된 재질들이고, u, v와 아래첨자로 표현된 변수는 재질들이 표현된 텍스쳐맵내의 좌표를 나타낸다.The extracted materials (color, transparency, etc.) and the extracted coordinates from the coordinates in the individual texture maps determined by the correction are preferably implemented to be recorded for each vertex of the polygons in the integrated map, as shown in FIG. The T 1 , T 2 , and T 3 are materials extracted from individual texture maps, and variables represented by u, v, and subscript indicate coordinates in the texture map in which the materials are expressed.

각 버텍스의 최하단의 Tx 는 상기 개별 텍스쳐맵의 재질 T1, T2, T3 로부터 결정된 재질값이고, uxk, vxk 는 재질이 추출되는 개별 텍스쳐맵의 좌표 (u1k, v1k ), (u2k, v2k ), (u3k, v3k ) 에 대응되는 통합맵내의 좌표이다.T x in the bottom of each vertex is the material for the individual texture map T 1, T 2, and the material determined value from T 3, u xk, v xk is the coordinate of each texture map that is the material is extracted (u 1k, v 1k) Coordinates in the unified map corresponding to, (u 2k , v 2k ), (u 3k , v 3k ).

상기 오브젝트에 맵핑하는 단계(S24)에서는 상기 질감이 결정(S22)된 통합맵을 오브젝트에 맵핑하게 되는데 상기 결정(S20)된 통합맵의 프로젝터를 통해 상기 맵핑 작업이 수행된다.In the step of mapping to the object (S24), the integrated map of which the texture is determined (S22) is mapped to the object, and the mapping operation is performed through the projector of the determined integrated map (S20).

상기 맵핑 작업은 오브젝트의 재질에 통합맵의 재질을 맵핑하는 과정으로, 이하 본 발명의 일 실시예로 오브젝트의 바탕색에 통합맵의 재질을 맵핑하는 과정을 일반 멀티 텍스쳐링 방법과 비교하여 설명한다. The mapping operation is a process of mapping the material of the unified map to the material of the object. Hereinafter, the process of mapping the material of the unified map to the background color of the object will be described by comparing the general multi-texturing method.

여러 개의 색상맵을 하나의 통합 맵 이미지로 생성할 때 각 색상맵 자체가 가지고 있는 합성 함수를 고려하여야 하는데, 이전 색상을 무시하고 현재 입히려는 색상으로 대체하는 리플레이스(Replace) 합성함수와 이전 색상과 현재 입히려는 색상을 곱하는 모듈레이트(Modulate) 합성함수와 이전 색상과 현재 입히려는 색상의 투명도(Blending Ratio)를 고려한 브렌딩(Blending) 합성함수가 있다.When creating multiple colormaps into a single unified map image, you must consider the compositing function of each colormap itself.Replace compositing function and previous color that ignore the previous color and replace it with the color you want to apply. There is a modulate synthesis function that multiplies the current color to be applied, and a blending function that takes into account the transparency ratio of the previous color and the current color to be applied.

상기 합성함수들을 포함한 색상맵으로부터 통합 맵을 생성할 때, 바탕색인 Cin 다음에 재질을 적용한 색상맵이 포함하고 있는 합성함수가 리플레이스(Replace) 합성함수이면 이전의 색상은 무시하면 되므로 통합 맵 생성 시 고려할 필요가 없다. When creating an integrated map from the color maps including the composition functions, if the composition function included in the color map to which the material is applied after the background color Cin is a replace composition function, the previous color may be ignored, thus creating an integrated map. There is no need to consider.

그러나 Cin 다음에 합성할 색상맵이 포함하고 있는 합성함수가 이전 색상의 영향을 받는 모듈레이트(Modulate) 합성함수와 브렌딩(Blending) 합성함수인 경우에 는 차이를 보정할 수 있는 새로운 알고리즘이 필요하다.However, if the synthesis function included in the color map to be synthesized after Cin is a modulated synthesis function and a blending synthesis function that are affected by the previous color, a new algorithm to correct the difference is needed. Do.

왜냐하면, 일반적인 멀티 텍스쳐링 구현 시에는 오브젝트 표면색과 입혀질 색상맵을 합성함수에 의해 연산을 하고 그 결과값을 다음 적용 색상맵에 넘겨주는 방식으로 처리하는데 통합 맵 적용 시에는 색상맵들에 대한 합성을 적용한 통합 맵 이미지를 나중에 표면색과의 합성을 해주는 방식으로 처리되기 때문에 그 결과에 차이가 발생하기 때문이다. This is because in general multitexturing implementation, the object surface color and the color map to be coated are calculated by the composition function and the result is passed to the next applied color map. This is because the integrated map image that is applied is processed in a way that is later synthesized with the surface color, and the result is different.

이하, 리플레이스 합성함수, 모듈레이트 합성함수와 브렌딩 합성함수 순으로 일반적인 멀티 텍스쳐링 방식에 의한 연산식과 본 발명에 따른 통합맵 방식에 의한 연산식의 차이를 설명한다. Hereinafter, the difference between the calculation formula using the general multitexturing scheme and the integrated map scheme according to the present invention will be described in the order of the replace synthesis function, the modulate synthesis function, and the blending synthesis function.

다만, 이하에서 설명할 연산식에서 사용하는 기호는 Cin 은 오브젝트의 표면색을 나타내고, Arep는 리플레이스 합성함수를 가지고 있는 색상맵을 나타내며, Aa 또는 Ab 은 투명도 a 또는 b 를 갖는 브렌딩 합성함수를 가지고 있는 색상맵을 나타내고, Am 은 모듈레이트 합성함수를 가지고 있는 색상맵을 나타낸다.However, the symbols used in the following expressions indicate that Cin represents the surface color of the object, Arep represents the color map with the replace composition function, and Aa or Ab has the blending synthesis function with transparency a or b. Represents a color map with Am, and Am represents a color map with a modulated synthesis function.

첫째, Cin으로 표시된 바탕색에 Arep, Bm, Ca, 로 구성된 색상맵을 적용하는 경우 일반적인 멀티 텍스쳐링 방식에 의한 연산식은 A * B * (1-a) + Ca이고, 통합 맵을 적용하는 방식에 의한 연산식은 A * B * (1-a) + Ca 이므로 아무런 차이가 없음을 알 수 있다. 이는 바탕색 다음에 나오는 색상맵의 리플레이스 합성함수는 이전색상을 무시하고 합성된 색상을 표현하기 때문이다.First, when applying the color map consisting of Arep, Bm, Ca, to the background color indicated by Cin, the general multitexturing method is A * B * (1-a) + Ca, and by applying the integrated map The equation is A * B * (1-a) + Ca, so there is no difference. This is because the replace composition function of the color map following the background color ignores the previous color and represents the synthesized color.

둘째, Cin에 Aa Bm Cb 로 구성된 색상맵을 적용하는 경우 일반적인 멀티 텍스쳐링 방식에 의한 연산식은 우선, Cin에 Aa가 갖는 브렌딩 합성함수에 의해 합성하므로 Cin (1- a) + A a가 되고, 다음으로 모듈레이트 합성함수를 가지는 Bm과의 합성에 의해 {Cin (1- a) + A a} * B이 되며, 끝으로 Cb 와의 합성을 통해 {Cin (1- a) + A a} * B } * (1-b) + Cb 의 연산식을 가짐을 알 수 있다.Second, in the case of applying a color map composed of Aa Bm Cb to Cin, a general multi-texturing formula is first synthesized by the blending synthesis function of Aa in Cin, and thus Cin (1- a) + A a, Next, {Cin (1-a) + A a} * B is synthesized by Bm having a modulated synthesis function, and finally {Cin (1- a) + A a} * B through synthesis with Cb. } You can see that it has an expression of * (1-b) + Cb.

한편, 통합 맵을 적용하는 방식에 의한 연산식은 Aa Bm Cb이 먼저 통합되고, 바탕색에 적용되므로 우선, Aa Bm 의 합성 결과는 A * B 이고, 다음으로 브렌딩 합성함수를 가지는 Cb 까지 합성하면 {A * B} * (1-b) + Cb 의 연산식을 구할 수 있다. 상기의 합성된 연산식을 바탕색에 적용할 때 Aa에 의해 상기 합성된 식을 투명도 a 에 의해 합성하게 되므로 Cin (1- a) + {{A * B} * (1-b) + Cb}* a의 연산식이 구해진다. On the other hand, in the formula using the unified map, since Aa Bm Cb is first integrated and applied to the background color, first, the result of Aa Bm is A * B, and then synthesized up to Cb having a blending function { You can find the expression A * B} * (1-b) + Cb. When the synthesized formula is applied to the background color, the synthesized formula is synthesized by Aa by transparency a, so Cin (1-a) + {{A * B} * (1-b) + Cb} * The arithmetic expression of a is obtained.

셋째, Cin에 Am Ba Cm로 구성된 색상맵을 적용하는 경우 일반적인 멀티 텍스쳐링 방식에 의한 연산식은 우선, Cin에 Am 가 갖는 모듈레이트 합성함수에 의해 합성하므로 Cin * A 가 되고, 다음으로 브렌딩 합성함수를 가지는 Ba 과의 합성에 의해 {Cin * A } * (1-a) +Ba이 되고, 끝으로 Cm 와의 합성을 통해 {{Cin * A } * (1-a) +Ba}} * C 의 연산식을 가짐을 알 수 있다.Third, in the case of applying a color map composed of Am Ba Cm to Cin, the general multitexturing formula is first synthesized by the modulated synthesis function of Am in Cin, and then Cin * A, and then the blending synthesis function. {Cin * A} * (1-a) + Ba by synthesis with Ba, and finally {{Cin * A} * (1-a) + Ba}} * with Cm It can be seen that it has an expression.

한편, 통합 맵을 적용하는 방식에 의한 연산식은 Am Ba Cm이 먼저 통합되고, 바탕색에 적용되므로 우선, Am Ba 의 합성 결과는 A * (1-a) + Ba이고, 다음으로 모듈레이트 합성함수를 가지는 Cm 까지 합성하면 {{A * (1-a) + Ba} * C의 연산식을 구할 수 있다. 상기의 합성된 연산식을 바탕색에 적용할 때 Am 에 의해 상기 합성된 식을 바탕색에 모듈레이트 합성하게 되므로 Cin * {{A * (1-a) + Ba} * C의 연산식이 구해진다. On the other hand, in the formula by applying the integrated map, since Am Ba Cm is integrated first and applied to the background color, first, the synthesis result of Am Ba is A * (1-a) + Ba, and then the modulated synthesis function is Branches can be synthesized up to Cm to obtain {{A * (1-a) + Ba} * C. When the synthesized formula is applied to the background color, the synthesized formula is modulated by Am based on the background color. Therefore, the formula of Cin * {{A * (1-a) + Ba} * C is obtained.

전술한 바와 같이, 브렌딩 합성함수와 모듈레이트 합성함수에 의한 경우에 있어 본 발명에 따른 통합맵 방식의 연산식과 일반 멀티텍스쳐링 방식의 연산식에 차이가 발생하는데, 브렌딩 합성함수에 의한 경우 차이를 보정하는 새로운 알고리즘에 대해 설명한다. As described above, in the case of the blending synthesis function and the modulated synthesis function, there is a difference between the equation of the integrated map method and the equation of the general multi-texturing method, which are different from the blending synthesis function. It describes a new algorithm to correct.

다만, 브렌딩 합성함수에 의한 경우란 바탕색에 적용되는 합성함수의 종류에 의해 결정되며, 이는 바탕색 다음에 나오는 색상맵에 의해 결정된다. 즉, 상기 예에서 Cin에 Aa Bm Cb 의 색상맵을 합성하는 경우처럼 Aa과 같은 브렌딩 합성함수를 갖는 색상맵이 Cin 다음에 나오는 경우이다. Aa 다음에 어떠한 합성함수를 갖는 색상맵이 나오더라도 Cin에는 Aa에 의해 브렌딩 합성함수가 적용되기 때문이다.However, the case of the blending synthesis function is determined by the type of the synthesis function applied to the background color, which is determined by the color map following the background color. That is, in the above example, as in the case of synthesizing a color map of Aa Bm Cb to Cin, a color map having a blending synthesis function such as Aa follows Cin. This is because a blending synthesis function is applied to Cin by Aa even if a color map having any synthesis function follows Aa.

다음과 같은 일반화된 알고리즘을 사용하면 상기 브렌딩 합성함수의 경우 통합맵 방식에 의해 발생하는 연산식의 차이를 해결할 수 있다.Using the generalized algorithm as follows, the blending synthesis function can solve the difference in expression generated by the integrated map method.

일례로, Cin Ag Bm Ca Db 의 순서로 색상맵을 합성하는 경우 우선적으로 두 개의 개별적인 연산을 수행하여 그 결과를 두 개의 버퍼값들을 사용하여 저장한다. For example, when synthesizing the color map in the order of Cin Ag Bm Ca Db, two separate operations are performed first and the result is stored using two buffer values.

제1버퍼값에는 Ag 를 제외하고 이후의 브렌딩 합성함수에 대한 연산을 해주어야 할 때마다 해당 투명도 l에 대해 (1- l)를 곱하여 얻은 결과를 저장한다. 이 때 Modulate는 그대로 연산한다. 즉, Ag 다음에 Ca, Db로 표시된 두개의 브렌딩 합성함수를 가지는 색상맵이 나오므로 제1 버퍼값은 B * (1-a) * (1-b)와 같은 연산식을 가진다.The first buffer value stores the result obtained by multiplying the transparency l by (1-l) whenever it is necessary to perform an operation on a subsequent blending synthesis function except for Ag. At this time, Modulate operates as it is. That is, since a color map having two blending synthesis functions represented by Ca and Db follows Ag, the first buffer value has an expression such as B * (1-a) * (1-b).

그리고 제2버퍼값에는 Ag 를 제외하고 이후의 브렌딩 연산이 나올 때마다 해당 투명도 l에 대해 *l를 해주어야 하는 곳에 Ag의 투명도를 적용한 1/g를 곱한다. The second buffer value is multiplied by 1 / g applying Ag transparency to the place where * l is applied to the transparency l for each subsequent blending operation except for Ag.

여기서도 Modulate는 그대로 연산한다. 즉, 제2버퍼값은 A*B* (1-a)(1-b) + Ca*(1-b)*(1/g) + Db*(1/g) 와 같은 연산식을 갖는다.Here again, Modulate operates as is. That is, the second buffer value has an expression such as A * B * (1-a) (1-b) + Ca * (1-b) * (1 / g) + Db * (1 / g).

이 결과를 Cin * 제1버퍼값 * (1- g) + 제2버퍼값 * g 으로 계산하면 일반적인 멀티 텍스쳐링의 연산과 동일한 결과를 얻을 수 있다. 상기 연산식은 Cin 의 바탕색이 바뀌어도 재연산을 수행할 수 있다.Computing this result with Cin * first buffer value * (1- g) + second buffer value * g can give the same result as the operation of general multitexturing. The above equation may be recalculated even if the background color of Cin is changed.

도8은 본 발명의 일실시예에 따른 통합맵이 구현되는 모습을 보여주는 도면이다.8 is a view showing a state in which an integrated map according to an embodiment of the present invention is implemented.

좌측 하단에서 T1,T2,T3로 표시된 개별 텍스쳐맵은 각각의 재질을 텍스쳐 좌표상에서 표현한 것으로, 맵핑함수를 통해 우측 중앙에 도시한 통합맵의 해당 좌표 질감으로 추출하여 통합맵을 합성한다. 그리고 합성된 통합맵은 개별 텍스쳐 맵의 프로젝터를 통해 합성된 통합맵의 프로젝터를 통해 오브젝트에 맵핑되고, 상기 맵핑 결과는 좌측 상단의 이미지로 확인할 수 있다. The individual texture maps represented by T1, T2, and T3 at the bottom left represent each material on the texture coordinates. The mapping function extracts the corresponding coordinate texture of the integrated map shown at the right center through the mapping function to synthesize the integrated map. The synthesized integrated map is mapped to an object through the projector of the integrated map synthesized through the projector of the individual texture map, and the mapping result can be confirmed by the image on the upper left.

도9는 본 발명의 일실시예에 따른 통합맵을 합성하여 멀티텍스쳐링을 적용하지 않은 결과와 적용한 결과와의 차이를 보여주는 도면이다.FIG. 9 is a diagram illustrating a difference between a result of not applying multitexturing and a result of applying an integrated map according to an embodiment of the present invention.

4개의 텍스쳐 유닛으로 구성된 그래픽 하드웨어에서 5개의 재질 텍스쳐맵을 적용 하는 경우에는 1개의 재질을 나타낼 수 없게 된다. If you apply five material texture maps to graphics hardware consisting of four texture units, you cannot represent one material.

예를들어, 도9(a)에서 도시한 바와 같이, 김치냉장고의 재질을 표현하기 위해 색상맵 4개와 반사맵 1개를 적용하는 경우 허용되는 리소스의 개수를 넘는 1개의 재질 효과는 표현할 수 없게 된다. 즉, 도 9(b)에서 도시한 바와 같이, 허용되는 4개의 색상맵만이 적용되고 반사맵의 효과는 적용되지 않는 김치냉장고의 모습을 볼 수 있다.For example, as shown in FIG. 9 (a), when four color maps and one reflection map are applied to express the material of the Kimchi refrigerator, one material effect beyond the number of resources allowed cannot be expressed. do. That is, as shown in Figure 9 (b), it is possible to see the appearance of the kimchi refrigerator only four color maps are allowed and the effect of the reflection map is not applied.

그러나 본 발명에 따른 통합맵을 사용하여 멀티텍스쳐링 방법을 사용하면 도9(a)에서 표시한 4개의 색상맵을 1개의 통합맵으로 합성할 수 있으므로 도9(c)에 도시한 바와 같이, 반사맵의 효과가 적용된 김치냉장고의 재질을 구현할 수 있게 되는 것이다.However, when the multitexturing method using the integrated map according to the present invention is used, four color maps shown in FIG. 9 (a) can be synthesized into one integrated map, as shown in FIG. 9 (c). Kimchi refrigerator material applied to the effect of the map will be able to be implemented.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

상기한 바와 같은 본 발명의 멀티 텍스쳐링 방법 및 이를 기록한 기록매체에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다. According to the multi-texturing method of the present invention as described above and the recording medium recording the same, there are one or more of the following effects.

제한된 그래픽 리소스 내에서 3차원 오브젝트 하나의 면에 적용할 재질(Texture)이미지를 하나의 이미지로 통합하여 사용함으로써 다른 효과에 의한 다양한 실시간 렌더링 효과를 제공할 수 있는 장점이 있다. By using a texture image to be applied to one side of a 3D object in one image within a limited graphic resource, it is possible to provide various real-time rendering effects by different effects.

또한 통합맵에 의한 멀티텍스쳐링 방법에 있어서 색상 차이를 보정할 수 있는 알고리즘을 제공할 수 있는 장점이 있다.In addition, there is an advantage to provide an algorithm that can correct the color difference in the multi-texturing method by the integrated map.

도 1은 3개의 텍스쳐 유닛으로 구성된 그래픽 하드웨어에서 멀티텍스쳐링이 어떻게 구현되는 지를 보여주는 도면이다.1 is a diagram showing how multitexturing is implemented in graphics hardware consisting of three texture units.

도 2는 본발명의 일실시예에 따른 멀티텍스쳐링 방법을 보여주는 도면이다. 2 is a diagram illustrating a multitexturing method according to an embodiment of the present invention.

도3는 다른 법선벡터나 중심점을 갖는 개별 텍스쳐맵의 프로젝터들에서 합성된 통합맵의 프로젝터의 모습을 개략적으로 보여주는 도면이다.FIG. 3 is a diagram schematically illustrating a projector of an integrated map synthesized by projectors of individual texture maps having different normal vectors or center points.

도 4는 본발명의 일실시예에 따른 통합맵 이미지의 크기를 결정 방식을 설명하기 위한 도면이다.4 is a view for explaining a method of determining the size of the integrated map image according to an embodiment of the present invention.

도 5는 오브젝트 내의 좌표에 맵핑함수를 적용하여 통합맵과 개별 텍스쳐맵내의 좌표를 결정하는 모습을 보여주는 도면이다.FIG. 5 is a diagram illustrating a method of determining coordinates in an integrated map and an individual texture map by applying a mapping function to coordinates in an object.

도 6은 본발명이 일실시예에 따른 질감을 추출할 텍스쳐맵 내의 좌표를 보정하는 방법을 보여주는 도면이다. 6 is a diagram illustrating a method of correcting coordinates in a texture map from which a texture is extracted according to an embodiment of the present invention.

도 7는 본발명이 일 일실시예에 따른 통합맵내의 버텍스에 저장된 좌표 정보와 질감 정보를 표시하는 도면이다.7 is a diagram illustrating coordinate information and texture information stored in vertices in an integrated map according to an embodiment of the present invention.

도8은 본 발명의 일실시예에 따른 통합맵이 구현되는 모습을 보여주는 도면이다. 8 is a view showing a state in which an integrated map according to an embodiment of the present invention is implemented.

도9는 본 발명의 일실시예에 따른 통합맵을 합성하여 멀티텍스쳐링을 적용하지 않은 결과와 적용한 결과와의 차이를 보여주는 도면이다.FIG. 9 is a diagram illustrating a difference between a result of not applying multitexturing and a result of applying an integrated map according to an embodiment of the present invention.

Claims (7)

합성할 텍스쳐맵들의 프로젝터들로부터 통합맵의 프로젝터를 결정하는 단계;Determining a projector of the unified map from the projectors of the texture maps to be synthesized; 상기 합성할 텍스쳐맵들을 토대로 상기 통합맵의 이미지크기와 텍셀 재질을 결정하여 통합맵을 생성하는 단계; 및Generating an integrated map by determining an image size and a texel material of the integrated map based on the texture maps to be synthesized; And 상기 통합맵이 상기 통합맵의 프로젝터를 통해 오브젝트에 맵핑하는 단계를 포함하는 멀티 텍스쳐링 방법.Mapping the integrated map to an object through the projector of the integrated map. 제 1항에 있어서, The method of claim 1, 상기 통합맵의 프로젝터는 합성할 텍스쳐맵의 프로젝터들을 토대로 프로젝터의 법선벡터, 중심좌표 및 크기가 결정되는 것을 특징으로 하는 멀티 텍스쳐링 방법.The projector of the integrated map is a multi-texturing method characterized in that the normal vector, the center coordinates and the size of the projector is determined based on the projectors of the texture map to be synthesized. 제 1항에 있어서, The method of claim 1, 상기 재질 결정은 상기 텍셀의 좌표에 대응하는 개별 텍스쳐맵내의 좌표에 기록된 재질들로부터 결정되는 것을 특징으로 하는 멀티 텍스쳐링 방법.And the material determination is determined from materials recorded in coordinates in an individual texture map corresponding to the coordinates of the texel. 상기 텍스쳐맵내의 좌표들은 상기 텍스쳐맵에 투영된 폴리곤의 버텍스 좌표들로부터, The coordinates in the texture map are derived from the vertex coordinates of the polygons projected onto the texture map. 상기 재질이 결정될 통합맵내의 좌표와 이를 포함하는 폴리곤의 버텍스 좌표들 사이의 거리 비율과 동일한 비율을 가지도록 결정하는 것을 특징으로 하는 멀티 텍스쳐링 방법.And determining that the material has a ratio equal to a distance ratio between coordinates in the integrated map to be determined and vertex coordinates of the polygon including the same. 제 1항에 있어서,The method of claim 1, 상기 텍스쳐맵의 재질은 색상으로 이루어진 색상맵인 것을 특징으로 하는 멀티 텍스쳐링 방법.The material of the texture map is a multi-texturing method, characterized in that the color map consisting of colors. 제 5항에 있어서,The method of claim 5, Cin에 우선적으로 합성되는 브렌딩 합성함수를 가지는 색상맵 Ag을 포함한 복수개의 색상맵으로부터 상기 통합맵을 결정하여 오브젝트에 맵핑하는 경우에 있어서,In the case where the integrated map is determined from a plurality of color maps including a color map Ag having a blending synthesis function that is first synthesized in Cin and is mapped to an object, 상기 오브젝트의 재질값은 Cin * 제1버퍼값 * (1- g) + 제2 버퍼값 * g 의 연산식에 의해 결정되며,The material value of the object is determined by a formula of Cin * first buffer value * (1- g) + second buffer value * g, 상기 Cin는 오브젝트의 바탕색이고, 상기 Ag 에서 A는 색상맵의 색상이며, 아래첨자 g는 투명도를 나타내고, Cin is the background color of the object, A in Ag is the color of the color map, subscript g represents transparency, 상기 제 1버퍼값은 Ag를 제외하고 브렌딩 합성함수를 가지는 색상맵이 나올 때마다 (1-상기 색상맵의 투명도)의 값을 상기 Ag 다음에 합성되는 색상맵의 색상에 곱해주는 값이며,The first buffer value is a value that is multiplied by the value of (1- transparency of the color map) to the color of the color map synthesized after Ag whenever a color map having a blending function except for Ag is obtained. 상기 제2버퍼값은 Ag를 제외하고 브렌딩 합성함수를 가지는 색상맵이 나올 때마다 상기 색상맵의 브렌딩 함수의 연산식에서 상기 투명도가 곱해져야 하는 부분에 1/g를 곱해주면서 상기 색상맵들의 함수의 연산식 수행한 결과값으로 나타내는 것을 특징으로 하는 멀티 텍스쳐링 방법.The second buffer value is multiplied by 1 / g to the part to be multiplied by the transparency in the formula of the blending function of the color map each time a color map having a blending function except for Ag is obtained. Multi-texturing method, characterized in that the result of the expression expression performed. 제 1항 내지 제 6항 중 어느 한 항의 방법을 컴퓨터로 판독가능한 프로그램으로 기록한 기록매체.A recording medium on which the method of any one of claims 1 to 6 is recorded by a computer readable program.
KR1020040008409A 2004-02-09 2004-02-09 Method of synthesizing a multitexture and recording medium thereof KR20050080334A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040008409A KR20050080334A (en) 2004-02-09 2004-02-09 Method of synthesizing a multitexture and recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040008409A KR20050080334A (en) 2004-02-09 2004-02-09 Method of synthesizing a multitexture and recording medium thereof

Publications (1)

Publication Number Publication Date
KR20050080334A true KR20050080334A (en) 2005-08-12

Family

ID=37267147

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040008409A KR20050080334A (en) 2004-02-09 2004-02-09 Method of synthesizing a multitexture and recording medium thereof

Country Status (1)

Country Link
KR (1) KR20050080334A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100914844B1 (en) * 2007-12-12 2009-09-02 한국전자통신연구원 System for providing surface texture mapping with sample texture synthesis
KR101030204B1 (en) * 2006-09-21 2011-04-22 가부시키가이샤 코나미 데지타루 엔타테인멘토 Image processing device, control method for image processing device and information recording medium
CN102855604A (en) * 2012-08-08 2013-01-02 Tcl集团股份有限公司 Nine-grid frame drawing method and device and nine-grid frame rotating method and device
CN113223171A (en) * 2021-04-28 2021-08-06 广东三维家信息科技有限公司 Texture mapping method and device, electronic equipment and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101030204B1 (en) * 2006-09-21 2011-04-22 가부시키가이샤 코나미 데지타루 엔타테인멘토 Image processing device, control method for image processing device and information recording medium
KR100914844B1 (en) * 2007-12-12 2009-09-02 한국전자통신연구원 System for providing surface texture mapping with sample texture synthesis
CN102855604A (en) * 2012-08-08 2013-01-02 Tcl集团股份有限公司 Nine-grid frame drawing method and device and nine-grid frame rotating method and device
CN113223171A (en) * 2021-04-28 2021-08-06 广东三维家信息科技有限公司 Texture mapping method and device, electronic equipment and storage medium
CN113223171B (en) * 2021-04-28 2024-01-26 广东三维家信息科技有限公司 Texture mapping method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
CN109427088B (en) Rendering method for simulating illumination and terminal
CN109448089B (en) Rendering method and device
CN111508052B (en) Rendering method and device of three-dimensional grid body
AU2003295586B2 (en) Method for digitally rendering skin or like materials
CA2282637C (en) Method for rendering shadows on a graphical display
US20160155261A1 (en) Rendering and Lightmap Calculation Methods
US8223149B2 (en) Cone-culled soft shadows
RU2427918C2 (en) Metaphor of 2d editing for 3d graphics
JP3626144B2 (en) Method and program for generating 2D image of cartoon expression from 3D object data
JPH0683979A (en) Method and system for displaying computer graphic accompaned by formation of shadow
KR100606653B1 (en) System and method for creating real-time shadows of transparent objects
US6922193B2 (en) Method for efficiently calculating texture coordinate gradient vectors
CN107610225B (en) Method for unitizing three-dimensional oblique photography live-action model
US6791544B1 (en) Shadow rendering system and method
CN108765530A (en) A method of making caricature and/or 2 D animation
US20090080803A1 (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
US7133052B1 (en) Morph map based simulated real-time rendering
US6744440B1 (en) Image processing apparatus, recording medium, and program
JP2001291116A (en) Device and method for generating three-dimensional image and program providing medium
KR20050080334A (en) Method of synthesizing a multitexture and recording medium thereof
JP3261832B2 (en) Image generation device
JP2001307125A (en) Method and device for processing image of three- dimensional model
US20180005432A1 (en) Shading Using Multiple Texture Maps
JP2002056405A (en) Texture mapping processor
KR100900076B1 (en) Texturing System and Method for Border Lins is Natural

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination