KR20210052004A - Method for Real-time Fur Rendering - Google Patents

Method for Real-time Fur Rendering Download PDF

Info

Publication number
KR20210052004A
KR20210052004A KR1020190138005A KR20190138005A KR20210052004A KR 20210052004 A KR20210052004 A KR 20210052004A KR 1020190138005 A KR1020190138005 A KR 1020190138005A KR 20190138005 A KR20190138005 A KR 20190138005A KR 20210052004 A KR20210052004 A KR 20210052004A
Authority
KR
South Korea
Prior art keywords
region
fur
hair
rendering
real
Prior art date
Application number
KR1020190138005A
Other languages
Korean (ko)
Inventor
신승호
김시균
송형주
임국찬
장병준
조익환
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020190138005A priority Critical patent/KR20210052004A/en
Publication of KR20210052004A publication Critical patent/KR20210052004A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A real-time fur rendering method performed by a real-time fur rendering apparatus according to an embodiment includes the steps of: extracting a fur region from an image, selecting first and second regions from the fur region, and rendering the first region and the second region differently by using a fur length map. It is possible to realistically depict a fur expression while reducing a load.

Description

실시간 털 렌더링 방법{Method for Real-time Fur Rendering}Method for Real-time Fur Rendering

본 발명은 실시간으로 털을 렌더링하는 방법에 관한 것이다.The present invention relates to a method of rendering fur in real time.

최근 컴퓨터 성능이 향상됨에 따라, 3차원 컴퓨터 그래픽스(CG) 기술은 영화, 광고, 게임, 애니메이션 등에서 널리 사용되고 있다. 특히, 그래픽 기술이 발전함에 따라 실제 촬영 영상에 근접 또는 동일한 수준의 영상 생성이 가능하게 되었고, 그에 따라 더욱 극사실적 영상 표현 기술을 요구하고 있다.With the recent improvement in computer performance,  3D  computer graphics (CG) technology is widely used in movies, advertisements, games, animations, and the like. In particular, with the development of graphic technology, it has become possible to generate an image that is close to or at the same level as an actual photographed image, and accordingly, a more highly realistic image expression technology is required.

털 렌더링 기법은 동물의 잔털을 표현하는 기법으로, 영화나 게임, 애니메이션에서 3차원 상의 옷의 질감이나 동물의 특징을 표현하는데 사용되었다. 사실적인 털의 표현을 위하여 영화나 애니메이션 분야에서는 고성능 컴퓨터를 사용하여 오랜 시간에 걸친 렌더링 과정을 통하여 표현해 왔다. 하지만, 게임분야나 모바일 분야와 같은 사용자와의 실시간 상호작용이 강조되는 분야에서는 이런 털의 느낌을 정적인 털의 이미지만을 사용하여 표현할 수 밖에 없는 문제점이 있었다. 털의 표현은 많은 메모리 소모를 야기시키기 때문이다. 따라서, 실시간으로 부하량을 줄이면서 털의 표현을 사실적으로 묘사하기 위한 연구가 진행되고 있다.The fur rendering technique is a technique for expressing the fine hair of an animal, and has been used in movies, games, and animations to express the texture of three-dimensional clothes and the characteristics of animals. In order to express realistic hair, in the field of movies and animations, high-performance computers have been used to express them through a long rendering process. However, in the field where real-time interaction with the user is emphasized, such as in the game field or the mobile field, there is a problem in that the feeling of this hair must be expressed using only static hair images. This is because the expression of fur causes a lot of memory consumption. Therefore, research is being conducted to realistically describe the expression of hair while reducing the load in real time.

한국공개특허공보, 10-2010-0062781호 (2010.06.10. 공개)Korean Patent Application Publication No. 10-2010-0062781 (published on June 10, 2010)

본 발명이 해결하고자 하는 과제는 부하량을 줄이면서도 사용자가 보기에 부자연스럽지 않게 털 표현을 사실적으로 묘사하기 위한 실시간 털 렌더링 방법이다.The problem to be solved by the present invention is a real-time fur rendering method for realistically depicting the fur expression without being unnatural to the user's view while reducing the load.

다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved of the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

일 실시예에 따른 실시간 털 렌더링 장치가 수행하는 실시간 털 렌더링하는 방법은 영상에서 털 영역을 추출하는 단계와, 상기 털 영역에서 제1 및 제2 영역을 선택하는 단계와, 털 길이 맵을 이용하여 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 단계를 포함하여 수행된다.The real-time fur rendering method performed by the real-time fur rendering apparatus according to an embodiment includes extracting a fur region from an image, selecting first and second regions from the fur region, and using a fur length map. And rendering the first region and the second region differently.

일 실시예에 따른 실시간 털 렌더링 장치는 영상에서 털 영역을 추출하는 추출부; 상기 털 영역의 털 길이 맵을 구하는 털길이맵부; 및 상기 털 영역에서 제1 및 제2 영역을 선택하고, 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 렌더링부를 포함한다.A real-time hair rendering apparatus according to an embodiment includes: an extraction unit for extracting a hair region from an image; A hair length map unit for obtaining a hair length map of the hair region; And a rendering unit that selects first and second regions from the fur region and renders the first region and the second region differently.

본 발명의 실시예에 따르면 실시간으로 털을 렌더링할 때, 부하량이 낮으면서도 사실적으로 털 길이를 표현할 수 있고 사용자가 볼 때도 자연스럽고 어색하지 않을 수 있다.According to an embodiment of the present invention, when the fur is rendered in real time, the length of the fur can be realistically expressed while the load is low, and it may be natural and not awkward when viewed by the user.

도 1은 본 발명의 일 실시예에 따른 실시간 털 렌더링 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법에 대한 순서도이다.
도 3 내지 도 7은 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법을 설명하기 위한 예시도이다.
1 is a block diagram of a real-time fur rendering apparatus according to an embodiment of the present invention.
2 is a flowchart of a real-time fur rendering method according to an embodiment of the present invention.
3 to 7 are exemplary views for explaining a real-time fur rendering method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification.

도 1을 참조하여 본 발명의 일 실시예에 따른 실시간 털 렌더링 장치(1)에 대해서 설명하기로 한다. 도 1은 본 발명의 일 실시예에 따른 실시간 털 렌더링 장치(1)의 구성도이다.A real-time fur rendering apparatus 1 according to an embodiment of the present invention will be described with reference to FIG. 1. 1 is a block diagram of a real-time fur rendering apparatus 1 according to an embodiment of the present invention.

도 1을 참조하면, 실시간 털 렌더링 장치(1)는 추출부(10), 털길이맵부(20), 렌더링부(30)를 포함한다.Referring to FIG. 1, the real-time hair rendering apparatus 1 includes an extraction unit 10, a hair length map unit 20, and a rendering unit 30.

추출부(10)는 영상에서 털 영역을 추출한다. 그리고 털길이맵부(20)는 추출된 털 영역의 털 길이 맵을 구한다. 렌더링부(30)는 털 영역에서 제1 및 제2 영역을 선택하고, 제1 영역과 제2 영역을 렌더링하는데, 제1 영역과 제2 영역을 서로 다르게 렌더링한다. 장치의 구체적인 동작 과정, 방법 및 내용은 하기에서 자세하게 설명하기로 한다. The extraction unit 10 extracts a hair region from the image. And the hair length map unit 20 obtains a hair length map of the extracted hair region. The rendering unit 30 selects the first and second regions from the fur region and renders the first region and the second region, and renders the first region and the second region differently from each other. The detailed operation process, method, and content of the device will be described in detail below.

도 2 내지 도 7을 참조하여 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법에 대해서 설명하기로 한다. 도 2는 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법에 대한 순서도이고, 도 3 내지 도 7은 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법을 설명하기 위한 예시도이다.A real-time fur rendering method according to an embodiment of the present invention will be described with reference to FIGS. 2 to 7. 2 is a flowchart illustrating a real-time fur rendering method according to an exemplary embodiment of the present invention, and FIGS. 3 to 7 are exemplary diagrams for explaining a real-time fur rendering method according to an exemplary embodiment of the present invention.

먼저, 영상(100)에서 털 영역(105)을 추출한다(S100). 영상(100)의 모든 부분에 대해서 실시간으로 털 렌더링을 수행할 필요는 없으므로, 실시간으로 털을 렌더링해야하는 털 영역(105)을 영상에서 선택한다. 도 3을 참조하면, 영상(100)에서 실시간으로 털 렌더링을 해야하는 털 영역(105)은 너구리 부분이므로 너구리 부분을 추출한다. 털 영역(105)은 하나의 객체 내에서 선택될 수 있으며, 선택된 털 영역(105) 내에서 털 렌더링이 선택적으로 수행될 수 있다.First, the hair region 105 is extracted from the image 100 (S100). Since it is not necessary to perform fur rendering on all parts of the image 100 in real time, a fur region 105 to be rendered in real time is selected from the image. Referring to FIG. 3, since the fur area 105 in the image 100 for which fur is to be rendered in real time is a raccoon portion, a raccoon portion is extracted. The fur region 105 may be selected within one object, and fur rendering may be selectively performed within the selected fur region 105.

참고로, 3차원 모델은 일반적으로 폴리곤(메쉬)과 색상 텍스처로 구성되는데 하나하나의 털을 메쉬로 제작하면 실시간으로 수행해야할 렌더링의 수가 너무 많아 과부하가 걸리기 때문에 털 영역(105)의 메쉬는 털의 형상을 갖고 있지 않으며 후술할 털 렌더링 과정을 통해 털의 위치로 예상되는 지점에 털을 그려주는 연산을 수행한다.For reference, a 3D model is generally composed of polygons (mesh) and color textures. If each fur is made into a mesh, the number of renderings to be performed in real time is too high, so the mesh in the fur region 105 is It does not have the shape of and performs an operation that draws the fur at the point expected as the position of the fur through the fur rendering process to be described later.

한편, 털 영역(105)의 털 길이 맵(200)을 별도로 구한다. 털 길이 맵(200)은 직접 구해서 저장해두거나 외부로부터 수신받을 수 있다. 도 4에서 털 영역(105)에 대한 털 길이 맵(200)이 어떻게 생성되는지 확인할 수 있다. 털 길이 맵(200)은 털 영역(105)의 노말(normal) 값을 통해 생성할 수 있다. 또한, 털 길이 맵(200)을 통해 털 영역(105)의 부분마다 어떤 특징이 있는지 확인할 수 있다. 예를 들어, 털 길이 맵(200)을 통해 각 부분 마다 털 길이가 긴지 짧은지, 털이 빽빽하게 있는지 듬성듬성 있는지 등을 확인할 수 있다.이어서, 도 5를 참조하면 털 영역(105)에서 털 렌더링을 수행할 제1 영역(110)과 제2 영역(120)을 선택한다(S200). 제1 및 제2 영역(110, 120)은 털 영역(105) 내에서 선택되며 각각의 털 렌더링 하는 방법이 달라야 하므로 제1 영역(110)과 제2 영역(120)은 서로 다르다. On the other hand, the hair length map 200 of the hair region 105 is separately obtained. The hair length map 200 may be directly obtained and stored or received from the outside. It can be seen how the hair length map 200 for the hair region 105 is generated in FIG. 4. The hair length map 200 may be generated through a normal value of the hair region 105. In addition, it is possible to check what characteristics are present for each portion of the hair region 105 through the hair length map 200. For example, through the hair length map 200, it is possible to check whether the hair length is long or short for each part, whether the hair is dense or sparse. Next, referring to FIG. 5, hair rendering is performed in the hair region 105. The first area 110 and the second area 120 to be performed are selected (S200). The first and second regions 110 and 120 are selected within the fur region 105 and the first region 110 and the second region 120 are different from each other because each fur rendering method must be different.

구체적으로 제1 영역(110)과 제2 영역(120)을 선택(S200)하는 과정은 다음과 같다. 털 길이 맵(200)을 통해 털 영역(105)을 유형별로 구분할 수 있다. 상술한 바와 같이 털 길이 맵(200)을 통해 털의 길이, 털의 밀도에 대한 정보를 구할 수 있으며 이들 정보를 활용하여 털 영역(105)을 유형 별로 구분할 수 있다. 구체적으로 털의 길이와 털의 밀도가 동일한 부분들을 그룹화하여 유형별로 나누어 구분할 수 있다.Specifically, the process of selecting the first region 110 and the second region 120 (S200) is as follows. The fur region 105 may be classified by type through the fur length map 200. As described above, information on the length of the hair and the density of the hair can be obtained through the hair length map 200, and the hair region 105 can be classified by type using these information. Specifically, parts with the same hair length and hair density can be grouped and classified by type.

그리고, 유형별로 구분된 영역 중에서 실시간 털 렌더링을 수행할 영역을 선택할 수 있다. 도 5에서는 예시적으로 제1 영역(110)으로 너구리의 수염을 선택하였고, 제2 영역(120)으로 너구리의 발을 선택하였다. In addition, an area to perform real-time fur rendering may be selected from areas classified by type. In FIG. 5, for example, a raccoon's beard is selected as the first region 110, and the raccoon's foot is selected as the second region 120.

본 발명에서는 설명의 편의를 위해 제1 영역(110)과 제2 영역(120), 즉 2개의 영역을 선택하는 것으로 설명하였지만 이에 제한되는 것은 아니다. 예를 들어, 털 길이 맵(200)을 통해 유형별로 구분된 영역이 3개 이상일 수도 있다. 도 5에서도 섬세한 렌더링을 위해 털 영역(105)을 너구리의 눈, 수염, 발, 귀, 머리, 몸체, 다리, 꼬리, 발 등으로 유형별로 구분할 수 있다. 또한, 유형별로 구분된 영역 중 3개 이상의 영역을 선택할 수 있다. 도 5에서는 제1 영역(110)으로 수염을, 제2 영역(120)으로 발을 선택하였지만, 제3 영역으로 몸통, 제4 영역으로 꼬리 등을 선택하여 3개 이상의 영역에 대해서 실시간으로 털 렌더링을 수행할 수 있다.In the present invention, for convenience of description, it has been described that the first region 110 and the second region 120, that is, two regions are selected, but the present invention is not limited thereto. For example, there may be three or more areas divided by type through the hair length map 200. In FIG. 5, for detailed rendering, the fur area 105 may be classified by type into the eyes, beard, feet, ears, head, body, legs, tail, and feet of a raccoon. In addition, three or more areas may be selected among areas classified by type. In FIG. 5, whiskers are selected as the first area 110 and feet are selected as the second area 120, but the body is selected as the third area, and the tail is selected as the fourth area, and the hair is rendered in real time for three or more areas. You can do it.

이어서, 제1 영역(110)과 제2 영역(120)을 렌더링한다(S300). 털 길이 맵(200)을 통해 제1 영역(110)과 제2 영역(120)의 유형별로 구분하였으므로 제1 영역(110)의 털 렌더링 수행 과정과 제2 영역(120)의 렌더링 수행 과정은 서로 다르다.Subsequently, the first area 110 and the second area 120 are rendered (S300). Since the first area 110 and the second area 120 are classified by type through the hair length map 200, the process of performing the hair rendering of the first area 110 and the process of performing the rendering of the second area 120 different.

먼저, 제1 영역(110)에 대한 렌더링 과정은 다음과 같다. 제1 영역(110)의 제1 털 모델(210)을 생성한다. 제1 털 모델(210)은 털의 밀도, 제1 영역(110)의 알파(alpha) 값, 노말(normal) 값 등을 통해 구할 수 있다. 이어서, 제1 영역(110)의 제1 밀도 노이즈 텍스처(220)를 구한다. 제1 밀도 노이즈 텍스처(220)는 다수의 덴시티 레이어(Density Layers) 중에서 선택된다. 제1 털 모델(210)에서는 제1 털 오프셋을 정한다. 제1 털 오프셋 값과 선택된 제1 밀도 노이즈 텍스처(220)의 값을 비교하여 제1 털 오프셋 값이 제1 밀도 노이즈 텍스처 값보다 작으면 제1 영역(110)의 해당 픽셀에 털을 그린다. 제1 털 오프셋 값이 제1 밀도 노이즈 텍스처 값보다 크면 해당 픽셀에 털을 그리지 않는다. 이미 구한 털 길이 맵(200)을 통해 제1 영역(110)의 특성을 파악하였으므로, 제1 영역(110)에 맞는 제1 털 모델의 오프셋 값, 제1 밀도 노이즈 텍스처 값을 선택할 수 있고, 제1 털 모델(210)의 모델링 개수를 조절하여 털 렌더링을 조절할 수 있다.First, the rendering process for the first area 110 is as follows. The first hair model 210 of the first region 110 is generated. The first hair model 210 may be obtained through a hair density, an alpha value of the first region 110, a normal value, and the like. Subsequently, the first density noise texture 220 of the first region 110 is obtained. The first density noise texture 220 is selected from among a plurality of density layers. In the first hair model 210, a first hair offset is determined. If the first fur offset value is smaller than the first density noise texture value by comparing the first fur offset value with the selected value of the first density noise texture 220, fur is drawn on the corresponding pixel of the first region 110. If the first fur offset value is greater than the first density noise texture value, fur is not drawn on the corresponding pixel. Since the characteristics of the first region 110 have been identified through the previously obtained hair length map 200, the offset value of the first hair model and the first density noise texture value suitable for the first region 110 can be selected. 1 Hair rendering can be controlled by adjusting the number of modeling of the hair model 210.

제2 영역(120)에 대한 렌더링 과정도 제1 영역(110)과 동일하다. 제2 영역(120)의 제2 털 모델(210)을 생성한다. 제2 털 모델(210)은 털의 밀도, 제2 영역(120)의 알파(alpha) 값, 노말(normal) 값 등을 통해 구할 수 있다. 이어서, 제2 영역(120)의 제2 밀도 노이즈 텍스처(220)를 구한다. 제2 밀도 노이즈 텍스처(220)는 다수의 덴시티 레이어(Density Layers) 중에서 선택된다. 제2 털 모델(210)에서는 제2 털 오프셋을 정한다. 제2 털 오프셋 값과 선택된 제2 밀도 노이즈 텍스처(220)의 값을 비교하여 제2 털 오프셋 값이 제2 밀도 노이즈 텍스처 값보다 작으면 제2 영역(120)의 해당 픽셀에 털을 그린다. 제2 털 오프셋 값이 제2 밀도 노이즈 텍스처 값보다 크면 해당 픽셀에 털을 그리지 않는다. 이미 구한 털 길이 맵(200)을 통해 제2 영역(120)의 특성을 파악하였으므로, 제2 영역(120)에 맞는 제2 털 모델의 오프셋 값, 제2 밀도 노이즈 텍스처 값을 선택할 수 있고, 제2 털 모델(210)의 모델링 개수를 조절하여 털 렌더링을 조절할 수 있다.The rendering process for the second area 120 is also the same as for the first area 110. A second hair model 210 of the second region 120 is generated. The second hair model 210 may be obtained through a hair density, an alpha value of the second region 120, a normal value, and the like. Next, a second density noise texture 220 of the second region 120 is obtained. The second density noise texture 220 is selected from among a plurality of density layers. In the second hair model 210, a second hair offset is determined. When the second fur offset value is smaller than the second density noise texture value by comparing the second fur offset value with the selected value of the second density noise texture 220, fur is drawn on the corresponding pixel of the second region 120. If the second fur offset value is greater than the second density noise texture value, fur is not drawn on the corresponding pixel. Since the characteristics of the second region 120 were identified through the previously obtained hair length map 200, the offset value of the second hair model and the second density noise texture value suitable for the second region 120 can be selected. 2 Hair rendering can be controlled by adjusting the number of modeling of the hair model 210.

이와 같이 털 렌더링 과정은 털 길이 맵(200)을 활용하여 각각의 영역에 어느 정도의 길이로 털을 그릴지, 어느 정도의 밀도로 털을 그릴지(몇 개의 털을 그릴지)를 정할 수 있다. 그리고, 털 길이 맵(200)을 통해 각각의 영역의 특성을 반영하여 실시간으로 털을 렌더링하였으므로, 털이 그려지는 형태가 각 영역마다 달라질 수 있다.In this way, in the hair rendering process, the hair length map 200 can be used to determine how long the hair is to be drawn in each area and how much density (how many hairs are to be drawn) in each area. . In addition, since the hair is rendered in real time by reflecting the characteristics of each region through the hair length map 200, the shape of the hair drawn may vary for each region.

결국, 털 길이 맵(200)을 통해 털 모델(210), 밀도 노이즈 텍스처 값, 오프셋 값이 바뀌기 때문에 각 영역의 특성에 맞는 털 렌더링이 가능하다.As a result, since the hair model 210, the density noise texture value, and the offset value are changed through the hair length map 200, it is possible to render the hair suitable for the characteristics of each region.

도 6은 실시간 털 렌더링을 통해 생성된 영상(130)이다. 제1 영역(110)과 제2 영역(120)의 렌더링을 서로 다르게 수행했기 때문에 제1 영역(110)과 제2 영역(120)의 털 그리는 과정이 달라 털 길이가 서로 다름을 확인할 수 있다. 만약 상술한 바와 같이 각 영역 별로 털 렌더링 수행하지 않으면 털 영역(105)의 모든 영역에 일률적으로 털 렌더링이 수행되기 때문에 도 7과 같이 제1 영역(110)과 제2 영역(120)이 동일하게 털이 그려진다. 따라서, 사용자 입장에서는 털 렌더링한 결과가 부자연스럽게 느껴질 수밖에 없다.6 is an image 130 generated through real-time fur rendering. Since the rendering of the first region 110 and the second region 120 is performed differently, it can be seen that the hair lengths of the first region 110 and the second region 120 are different from each other, so that the hair lengths are different from each other. If the hair rendering is not performed for each area as described above, since hair rendering is uniformly performed on all areas of the hair area 105, the first area 110 and the second area 120 are identical as shown in FIG. 7. Hair is drawn. Therefore, from the user's point of view, the hair rendering result is bound to feel unnatural.

털 모델을 구하는 방법과 밀도 노이즈 텍스처를 구하는 과정은 이미 공지된 기술이므로 자세한 설명은 생략하였다.Since the method of obtaining the fur model and the process of obtaining the density noise texture are known techniques, detailed descriptions are omitted.

한편, 도 3 내지 도 7에서는 영상(100)에 하나의 객체인 너구리만 있는 것으로 도시하였으나 이에 제한되는 것은 아니며 영상에 다수의 객체가 존재하면 다수의 객체에 대해서 털 렌더링을 수행할 수 있다. 다만, 실시간 털 렌더링을 수행할 털 영역을 추출하고 털 길이 맵을 구하고 제1 영역과 제2 영역을 선택하는 등의 실시간 털 렌더링 방법은 각각의 객체 별로 개별적으로 수행한다.Meanwhile, in FIGS. 3 to 7, it is shown that only one object, a raccoon, is present in the image 100, but the present invention is not limited thereto. If there are multiple objects in the image, hair rendering may be performed on a plurality of objects. However, a real-time fur rendering method such as extracting a fur region to perform real-time fur rendering, obtaining a fur length map, and selecting a first region and a second region is performed individually for each object.

한편, 상기 실시간 털 렌더링 방법은 이러한 방법의 각 단계를 수행하도록 프로그램된 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현 가능하다.Meanwhile, the real-time fur rendering method can be implemented in the form of a computer program stored in a computer-readable recording medium programmed to perform each step of this method.

또한, 상기 실시간 털 렌더링 방법은 이러한 방법의 각 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체의 형태로 구현 가능하다.In addition, the real-time fur rendering method can be implemented in the form of a computer-readable recording medium storing a computer program programmed to perform each step of the method.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

1: 실시간 털 렌더링 장치 10: 추출부
20: 털길이맵부 30: 렌더링부
100: 영상 105: 털 영역
110: 제1 영역 120: 제2 영역
130: 생성된 영상 200: 털 길이 맵
1: Real-time fur rendering device 10: Extraction unit
20: hair length map portion 30: rendering portion
100: image 105: fur area
110: first area 120: second area
130: generated image 200: hair length map

Claims (10)

실시간 털 렌더링 장치가 수행하는 실시간 털 렌더링하는 방법에 있어서,
영상에서 털 영역을 추출하는 단계와,
상기 털 영역에서 제1 및 제2 영역을 선택하는 단계와,
털 길이 맵을 이용하여 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 단계를 포함하는
실시간 털 렌더링 방법
In the real-time fur rendering method performed by the real-time fur rendering device,
Extracting a fur area from the image, and
Selecting first and second regions from the fur region,
Including the step of rendering the first region and the second region differently using a hair length map
Real-time fur rendering method
제 1 항에 있어서,
상기 제1 및 제2 영역을 선택하는 단계는,
상기 털 길이 맵을 통해 상기 털 영역을 유형별로 구분하고,
상기 구분된 유형 중 상기 제1 영역과 상기 제1 영역과 다른 상기 제2 영역을 선택하는 것을 포함하는 실시간 털 렌더링 방법
The method of claim 1,
Selecting the first and second regions,
Classifying the fur region by type through the fur length map,
Real-time fur rendering method comprising selecting the first region and the second region different from the first region among the divided types
제 2 항에 있어서,
상기 털 영역을 유형별로 구분하는 것은,
털의 길이와 털의 밀도 중 적어도 하나를 포함하여 구분하는 실시간 털 렌더링 방법
The method of claim 2,
Classifying the fur area by type,
Real-time fur rendering method for distinguishing by including at least one of fur length and fur density
제 1 항에 있어서,
상기 렌더링하는 단계는,
상기 제1 영역의 제1 털 모델과 상기 제2 영역의 제2 털 모델을 생성하고,
상기 제1 영역의 제1 밀도 노이즈 텍스처와 상기 제2 영역의 제2 밀도 노이즈 텍스처를 구하고,
상기 제1 털 모델의 오프셋과 상기 제1 밀도 노이즈 텍스처를 비교하여 상기 제1 영역을 렌더링하고, 상기 제2 털 모델의 오프셋과 상기 제2 밀도 노이즈 텍스처를 비교하여 상기 제2 영역을 렌더링하는 것을 포함하는 실시간 털 렌더링 방법
The method of claim 1,
The rendering step,
Generating a first hair model of the first region and a second hair model of the second region,
Obtaining a first density noise texture of the first region and a second density noise texture of the second region,
Comparing the offset of the first hair model and the first density noise texture to render the first region, and comparing the offset of the second hair model and the second density noise texture to render the second region Real-time fur rendering method including
제 4 항에 있어서,
상기 제1 털 모델, 상기 제2 털 모델, 상기 제1 털 모델의 오프셋 및 상기 제2 털 모델의 오프셋 중 적어도 하나는 상기 털 길이 맵을 통해 조절되는 실시간 털 렌더링 방법
The method of claim 4,
Real-time hair rendering method in which at least one of the first hair model, the second hair model, the offset of the first hair model, and the offset of the second hair model is adjusted through the hair length map
제 5 항에 있어서,
상기 렌더링하는 단계를 수행한 이후에,
상기 제1 영역의 털 길이와 상기 제2 영역의 털 길이는 서로 다른 실시간 털 렌더링 방법
The method of claim 5,
After performing the rendering step,
Real-time hair rendering method in which the hair length of the first region and the hair length of the second region are different from each other
제 1 항에 있어서,
상기 털 영역은 하나의 객체 내에서 선택되는 실시간 털 렌더링 방법
The method of claim 1,
Real-time fur rendering method in which the fur area is selected within one object
제 1 항 내지 제 7 항 중 어느 한 항에 포함된 각 단계를 포함하여 수행하도록 프로그램된 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램A computer program stored on a computer-readable recording medium programmed to perform, including each step included in any one of claims 1 to 7 제 1 항 내지 제 7 항 중 어느 한 항에 포함된 각 단계를 포함하여 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체A computer-readable recording medium storing a computer program programmed to perform, including each step included in any one of claims 1 to 7 영상에서 털 영역을 추출하는 추출부;
상기 털 영역의 털 길이 맵을 구하는 털길이맵부; 및
상기 털 영역에서 제1 및 제2 영역을 선택하고, 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 렌더링부를 포함하는
실시간 털 렌더링 장치.
An extraction unit for extracting a hair region from the image;
A hair length map unit for obtaining a hair length map of the hair region; And
Including a rendering unit that selects the first and second regions from the fur region and renders the first region and the second region differently
Real-time fur rendering device.
KR1020190138005A 2019-10-31 2019-10-31 Method for Real-time Fur Rendering KR20210052004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190138005A KR20210052004A (en) 2019-10-31 2019-10-31 Method for Real-time Fur Rendering

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190138005A KR20210052004A (en) 2019-10-31 2019-10-31 Method for Real-time Fur Rendering

Publications (1)

Publication Number Publication Date
KR20210052004A true KR20210052004A (en) 2021-05-10

Family

ID=75917863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190138005A KR20210052004A (en) 2019-10-31 2019-10-31 Method for Real-time Fur Rendering

Country Status (1)

Country Link
KR (1) KR20210052004A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983810B1 (en) * 2021-04-23 2024-05-14 Apple Inc. Projection based hair rendering

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100062781A (en) 2008-12-02 2010-06-10 한국전자통신연구원 Apparatus and method to generate ambient occlusion map to render fur

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100062781A (en) 2008-12-02 2010-06-10 한국전자통신연구원 Apparatus and method to generate ambient occlusion map to render fur

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983810B1 (en) * 2021-04-23 2024-05-14 Apple Inc. Projection based hair rendering

Similar Documents

Publication Publication Date Title
KR102616010B1 (en) System and method for photorealistic real-time human animation
CN112669447B (en) Model head portrait creation method and device, electronic equipment and storage medium
CN111369655B (en) Rendering method, rendering device and terminal equipment
CN106575445B (en) Fur avatar animation
US20220044490A1 (en) Virtual reality presentation of layers of clothing on avatars
Lu et al. Illustrative interactive stipple rendering
WO2022222810A1 (en) Avatar generation method, apparatus and device, and medium
US20100231590A1 (en) Creating and modifying 3d object textures
KR20080018404A (en) Computer readable recording medium having background making program for making game
US10891801B2 (en) Method and system for generating a user-customized computer-generated animation
CN111182350B (en) Image processing method, device, terminal equipment and storage medium
US20210375067A1 (en) Virtual reality presentation of clothing fitted on avatars
KR100809523B1 (en) System and method for constructing unified framework based on extensible styles for 3D non-photorealistic rendering
KR20230015430A (en) Method and apparatus for processing face information, electronic device and storage medium
KR20210052004A (en) Method for Real-time Fur Rendering
CN114299206A (en) Three-dimensional cartoon face generation method and device, electronic equipment and storage medium
CN108876921A (en) Three-dimensional is dressed up model treatment method, apparatus, computer equipment and storage medium
KR102108422B1 (en) System and Method for Optimizing Facial Expression of Virtual Characters through AI-based Facial Expression Classification and Retargeting, and Computer Readable Storage Medium
CN111489426A (en) Expression generation method, device, equipment and storage medium
KR20200019296A (en) Apparatus and method for generating recognition model of facial expression and computer recordable medium storing computer program thereof
KR20230134832A (en) A Method For Creating realistic shape Model
CN109155074A (en) System and method for seamless unoccupied place rendering point
Weiss et al. Graph‐Based Synthesis for Skin Micro Wrinkles
KR102652652B1 (en) Apparatus and method for generating avatar
KR20070096621A (en) The system and method for making a caricature using a shadow plate

Legal Events

Date Code Title Description
A201 Request for examination