KR20210052004A - Method for Real-time Fur Rendering - Google Patents
Method for Real-time Fur Rendering Download PDFInfo
- Publication number
- KR20210052004A KR20210052004A KR1020190138005A KR20190138005A KR20210052004A KR 20210052004 A KR20210052004 A KR 20210052004A KR 1020190138005 A KR1020190138005 A KR 1020190138005A KR 20190138005 A KR20190138005 A KR 20190138005A KR 20210052004 A KR20210052004 A KR 20210052004A
- Authority
- KR
- South Korea
- Prior art keywords
- region
- fur
- hair
- rendering
- real
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 실시간으로 털을 렌더링하는 방법에 관한 것이다.The present invention relates to a method of rendering fur in real time.
최근 컴퓨터 성능이 향상됨에 따라, 3차원 컴퓨터 그래픽스(CG) 기술은 영화, 광고, 게임, 애니메이션 등에서 널리 사용되고 있다. 특히, 그래픽 기술이 발전함에 따라 실제 촬영 영상에 근접 또는 동일한 수준의 영상 생성이 가능하게 되었고, 그에 따라 더욱 극사실적 영상 표현 기술을 요구하고 있다.With the recent improvement in computer performance, 3D computer graphics (CG) technology is widely used in movies, advertisements, games, animations, and the like. In particular, with the development of graphic technology, it has become possible to generate an image that is close to or at the same level as an actual photographed image, and accordingly, a more highly realistic image expression technology is required.
털 렌더링 기법은 동물의 잔털을 표현하는 기법으로, 영화나 게임, 애니메이션에서 3차원 상의 옷의 질감이나 동물의 특징을 표현하는데 사용되었다. 사실적인 털의 표현을 위하여 영화나 애니메이션 분야에서는 고성능 컴퓨터를 사용하여 오랜 시간에 걸친 렌더링 과정을 통하여 표현해 왔다. 하지만, 게임분야나 모바일 분야와 같은 사용자와의 실시간 상호작용이 강조되는 분야에서는 이런 털의 느낌을 정적인 털의 이미지만을 사용하여 표현할 수 밖에 없는 문제점이 있었다. 털의 표현은 많은 메모리 소모를 야기시키기 때문이다. 따라서, 실시간으로 부하량을 줄이면서 털의 표현을 사실적으로 묘사하기 위한 연구가 진행되고 있다.The fur rendering technique is a technique for expressing the fine hair of an animal, and has been used in movies, games, and animations to express the texture of three-dimensional clothes and the characteristics of animals. In order to express realistic hair, in the field of movies and animations, high-performance computers have been used to express them through a long rendering process. However, in the field where real-time interaction with the user is emphasized, such as in the game field or the mobile field, there is a problem in that the feeling of this hair must be expressed using only static hair images. This is because the expression of fur causes a lot of memory consumption. Therefore, research is being conducted to realistically describe the expression of hair while reducing the load in real time.
본 발명이 해결하고자 하는 과제는 부하량을 줄이면서도 사용자가 보기에 부자연스럽지 않게 털 표현을 사실적으로 묘사하기 위한 실시간 털 렌더링 방법이다.The problem to be solved by the present invention is a real-time fur rendering method for realistically depicting the fur expression without being unnatural to the user's view while reducing the load.
다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved of the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
일 실시예에 따른 실시간 털 렌더링 장치가 수행하는 실시간 털 렌더링하는 방법은 영상에서 털 영역을 추출하는 단계와, 상기 털 영역에서 제1 및 제2 영역을 선택하는 단계와, 털 길이 맵을 이용하여 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 단계를 포함하여 수행된다.The real-time fur rendering method performed by the real-time fur rendering apparatus according to an embodiment includes extracting a fur region from an image, selecting first and second regions from the fur region, and using a fur length map. And rendering the first region and the second region differently.
일 실시예에 따른 실시간 털 렌더링 장치는 영상에서 털 영역을 추출하는 추출부; 상기 털 영역의 털 길이 맵을 구하는 털길이맵부; 및 상기 털 영역에서 제1 및 제2 영역을 선택하고, 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 렌더링부를 포함한다.A real-time hair rendering apparatus according to an embodiment includes: an extraction unit for extracting a hair region from an image; A hair length map unit for obtaining a hair length map of the hair region; And a rendering unit that selects first and second regions from the fur region and renders the first region and the second region differently.
본 발명의 실시예에 따르면 실시간으로 털을 렌더링할 때, 부하량이 낮으면서도 사실적으로 털 길이를 표현할 수 있고 사용자가 볼 때도 자연스럽고 어색하지 않을 수 있다.According to an embodiment of the present invention, when the fur is rendered in real time, the length of the fur can be realistically expressed while the load is low, and it may be natural and not awkward when viewed by the user.
도 1은 본 발명의 일 실시예에 따른 실시간 털 렌더링 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법에 대한 순서도이다.
도 3 내지 도 7은 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법을 설명하기 위한 예시도이다.1 is a block diagram of a real-time fur rendering apparatus according to an embodiment of the present invention.
2 is a flowchart of a real-time fur rendering method according to an embodiment of the present invention.
3 to 7 are exemplary views for explaining a real-time fur rendering method according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification.
도 1을 참조하여 본 발명의 일 실시예에 따른 실시간 털 렌더링 장치(1)에 대해서 설명하기로 한다. 도 1은 본 발명의 일 실시예에 따른 실시간 털 렌더링 장치(1)의 구성도이다.A real-time fur rendering
도 1을 참조하면, 실시간 털 렌더링 장치(1)는 추출부(10), 털길이맵부(20), 렌더링부(30)를 포함한다.Referring to FIG. 1, the real-time
추출부(10)는 영상에서 털 영역을 추출한다. 그리고 털길이맵부(20)는 추출된 털 영역의 털 길이 맵을 구한다. 렌더링부(30)는 털 영역에서 제1 및 제2 영역을 선택하고, 제1 영역과 제2 영역을 렌더링하는데, 제1 영역과 제2 영역을 서로 다르게 렌더링한다. 장치의 구체적인 동작 과정, 방법 및 내용은 하기에서 자세하게 설명하기로 한다. The
도 2 내지 도 7을 참조하여 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법에 대해서 설명하기로 한다. 도 2는 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법에 대한 순서도이고, 도 3 내지 도 7은 본 발명의 일 실시예에 따른 실시간 털 렌더링 방법을 설명하기 위한 예시도이다.A real-time fur rendering method according to an embodiment of the present invention will be described with reference to FIGS. 2 to 7. 2 is a flowchart illustrating a real-time fur rendering method according to an exemplary embodiment of the present invention, and FIGS. 3 to 7 are exemplary diagrams for explaining a real-time fur rendering method according to an exemplary embodiment of the present invention.
먼저, 영상(100)에서 털 영역(105)을 추출한다(S100). 영상(100)의 모든 부분에 대해서 실시간으로 털 렌더링을 수행할 필요는 없으므로, 실시간으로 털을 렌더링해야하는 털 영역(105)을 영상에서 선택한다. 도 3을 참조하면, 영상(100)에서 실시간으로 털 렌더링을 해야하는 털 영역(105)은 너구리 부분이므로 너구리 부분을 추출한다. 털 영역(105)은 하나의 객체 내에서 선택될 수 있으며, 선택된 털 영역(105) 내에서 털 렌더링이 선택적으로 수행될 수 있다.First, the
참고로, 3차원 모델은 일반적으로 폴리곤(메쉬)과 색상 텍스처로 구성되는데 하나하나의 털을 메쉬로 제작하면 실시간으로 수행해야할 렌더링의 수가 너무 많아 과부하가 걸리기 때문에 털 영역(105)의 메쉬는 털의 형상을 갖고 있지 않으며 후술할 털 렌더링 과정을 통해 털의 위치로 예상되는 지점에 털을 그려주는 연산을 수행한다.For reference, a 3D model is generally composed of polygons (mesh) and color textures. If each fur is made into a mesh, the number of renderings to be performed in real time is too high, so the mesh in the
한편, 털 영역(105)의 털 길이 맵(200)을 별도로 구한다. 털 길이 맵(200)은 직접 구해서 저장해두거나 외부로부터 수신받을 수 있다. 도 4에서 털 영역(105)에 대한 털 길이 맵(200)이 어떻게 생성되는지 확인할 수 있다. 털 길이 맵(200)은 털 영역(105)의 노말(normal) 값을 통해 생성할 수 있다. 또한, 털 길이 맵(200)을 통해 털 영역(105)의 부분마다 어떤 특징이 있는지 확인할 수 있다. 예를 들어, 털 길이 맵(200)을 통해 각 부분 마다 털 길이가 긴지 짧은지, 털이 빽빽하게 있는지 듬성듬성 있는지 등을 확인할 수 있다.이어서, 도 5를 참조하면 털 영역(105)에서 털 렌더링을 수행할 제1 영역(110)과 제2 영역(120)을 선택한다(S200). 제1 및 제2 영역(110, 120)은 털 영역(105) 내에서 선택되며 각각의 털 렌더링 하는 방법이 달라야 하므로 제1 영역(110)과 제2 영역(120)은 서로 다르다. On the other hand, the
구체적으로 제1 영역(110)과 제2 영역(120)을 선택(S200)하는 과정은 다음과 같다. 털 길이 맵(200)을 통해 털 영역(105)을 유형별로 구분할 수 있다. 상술한 바와 같이 털 길이 맵(200)을 통해 털의 길이, 털의 밀도에 대한 정보를 구할 수 있으며 이들 정보를 활용하여 털 영역(105)을 유형 별로 구분할 수 있다. 구체적으로 털의 길이와 털의 밀도가 동일한 부분들을 그룹화하여 유형별로 나누어 구분할 수 있다.Specifically, the process of selecting the
그리고, 유형별로 구분된 영역 중에서 실시간 털 렌더링을 수행할 영역을 선택할 수 있다. 도 5에서는 예시적으로 제1 영역(110)으로 너구리의 수염을 선택하였고, 제2 영역(120)으로 너구리의 발을 선택하였다. In addition, an area to perform real-time fur rendering may be selected from areas classified by type. In FIG. 5, for example, a raccoon's beard is selected as the
본 발명에서는 설명의 편의를 위해 제1 영역(110)과 제2 영역(120), 즉 2개의 영역을 선택하는 것으로 설명하였지만 이에 제한되는 것은 아니다. 예를 들어, 털 길이 맵(200)을 통해 유형별로 구분된 영역이 3개 이상일 수도 있다. 도 5에서도 섬세한 렌더링을 위해 털 영역(105)을 너구리의 눈, 수염, 발, 귀, 머리, 몸체, 다리, 꼬리, 발 등으로 유형별로 구분할 수 있다. 또한, 유형별로 구분된 영역 중 3개 이상의 영역을 선택할 수 있다. 도 5에서는 제1 영역(110)으로 수염을, 제2 영역(120)으로 발을 선택하였지만, 제3 영역으로 몸통, 제4 영역으로 꼬리 등을 선택하여 3개 이상의 영역에 대해서 실시간으로 털 렌더링을 수행할 수 있다.In the present invention, for convenience of description, it has been described that the
이어서, 제1 영역(110)과 제2 영역(120)을 렌더링한다(S300). 털 길이 맵(200)을 통해 제1 영역(110)과 제2 영역(120)의 유형별로 구분하였으므로 제1 영역(110)의 털 렌더링 수행 과정과 제2 영역(120)의 렌더링 수행 과정은 서로 다르다.Subsequently, the
먼저, 제1 영역(110)에 대한 렌더링 과정은 다음과 같다. 제1 영역(110)의 제1 털 모델(210)을 생성한다. 제1 털 모델(210)은 털의 밀도, 제1 영역(110)의 알파(alpha) 값, 노말(normal) 값 등을 통해 구할 수 있다. 이어서, 제1 영역(110)의 제1 밀도 노이즈 텍스처(220)를 구한다. 제1 밀도 노이즈 텍스처(220)는 다수의 덴시티 레이어(Density Layers) 중에서 선택된다. 제1 털 모델(210)에서는 제1 털 오프셋을 정한다. 제1 털 오프셋 값과 선택된 제1 밀도 노이즈 텍스처(220)의 값을 비교하여 제1 털 오프셋 값이 제1 밀도 노이즈 텍스처 값보다 작으면 제1 영역(110)의 해당 픽셀에 털을 그린다. 제1 털 오프셋 값이 제1 밀도 노이즈 텍스처 값보다 크면 해당 픽셀에 털을 그리지 않는다. 이미 구한 털 길이 맵(200)을 통해 제1 영역(110)의 특성을 파악하였으므로, 제1 영역(110)에 맞는 제1 털 모델의 오프셋 값, 제1 밀도 노이즈 텍스처 값을 선택할 수 있고, 제1 털 모델(210)의 모델링 개수를 조절하여 털 렌더링을 조절할 수 있다.First, the rendering process for the
제2 영역(120)에 대한 렌더링 과정도 제1 영역(110)과 동일하다. 제2 영역(120)의 제2 털 모델(210)을 생성한다. 제2 털 모델(210)은 털의 밀도, 제2 영역(120)의 알파(alpha) 값, 노말(normal) 값 등을 통해 구할 수 있다. 이어서, 제2 영역(120)의 제2 밀도 노이즈 텍스처(220)를 구한다. 제2 밀도 노이즈 텍스처(220)는 다수의 덴시티 레이어(Density Layers) 중에서 선택된다. 제2 털 모델(210)에서는 제2 털 오프셋을 정한다. 제2 털 오프셋 값과 선택된 제2 밀도 노이즈 텍스처(220)의 값을 비교하여 제2 털 오프셋 값이 제2 밀도 노이즈 텍스처 값보다 작으면 제2 영역(120)의 해당 픽셀에 털을 그린다. 제2 털 오프셋 값이 제2 밀도 노이즈 텍스처 값보다 크면 해당 픽셀에 털을 그리지 않는다. 이미 구한 털 길이 맵(200)을 통해 제2 영역(120)의 특성을 파악하였으므로, 제2 영역(120)에 맞는 제2 털 모델의 오프셋 값, 제2 밀도 노이즈 텍스처 값을 선택할 수 있고, 제2 털 모델(210)의 모델링 개수를 조절하여 털 렌더링을 조절할 수 있다.The rendering process for the
이와 같이 털 렌더링 과정은 털 길이 맵(200)을 활용하여 각각의 영역에 어느 정도의 길이로 털을 그릴지, 어느 정도의 밀도로 털을 그릴지(몇 개의 털을 그릴지)를 정할 수 있다. 그리고, 털 길이 맵(200)을 통해 각각의 영역의 특성을 반영하여 실시간으로 털을 렌더링하였으므로, 털이 그려지는 형태가 각 영역마다 달라질 수 있다.In this way, in the hair rendering process, the
결국, 털 길이 맵(200)을 통해 털 모델(210), 밀도 노이즈 텍스처 값, 오프셋 값이 바뀌기 때문에 각 영역의 특성에 맞는 털 렌더링이 가능하다.As a result, since the
도 6은 실시간 털 렌더링을 통해 생성된 영상(130)이다. 제1 영역(110)과 제2 영역(120)의 렌더링을 서로 다르게 수행했기 때문에 제1 영역(110)과 제2 영역(120)의 털 그리는 과정이 달라 털 길이가 서로 다름을 확인할 수 있다. 만약 상술한 바와 같이 각 영역 별로 털 렌더링 수행하지 않으면 털 영역(105)의 모든 영역에 일률적으로 털 렌더링이 수행되기 때문에 도 7과 같이 제1 영역(110)과 제2 영역(120)이 동일하게 털이 그려진다. 따라서, 사용자 입장에서는 털 렌더링한 결과가 부자연스럽게 느껴질 수밖에 없다.6 is an
털 모델을 구하는 방법과 밀도 노이즈 텍스처를 구하는 과정은 이미 공지된 기술이므로 자세한 설명은 생략하였다.Since the method of obtaining the fur model and the process of obtaining the density noise texture are known techniques, detailed descriptions are omitted.
한편, 도 3 내지 도 7에서는 영상(100)에 하나의 객체인 너구리만 있는 것으로 도시하였으나 이에 제한되는 것은 아니며 영상에 다수의 객체가 존재하면 다수의 객체에 대해서 털 렌더링을 수행할 수 있다. 다만, 실시간 털 렌더링을 수행할 털 영역을 추출하고 털 길이 맵을 구하고 제1 영역과 제2 영역을 선택하는 등의 실시간 털 렌더링 방법은 각각의 객체 별로 개별적으로 수행한다.Meanwhile, in FIGS. 3 to 7, it is shown that only one object, a raccoon, is present in the
한편, 상기 실시간 털 렌더링 방법은 이러한 방법의 각 단계를 수행하도록 프로그램된 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현 가능하다.Meanwhile, the real-time fur rendering method can be implemented in the form of a computer program stored in a computer-readable recording medium programmed to perform each step of this method.
또한, 상기 실시간 털 렌더링 방법은 이러한 방법의 각 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체의 형태로 구현 가능하다.In addition, the real-time fur rendering method can be implemented in the form of a computer-readable recording medium storing a computer program programmed to perform each step of the method.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
1: 실시간 털 렌더링 장치 10: 추출부
20: 털길이맵부 30: 렌더링부
100: 영상 105: 털 영역
110: 제1 영역 120: 제2 영역
130: 생성된 영상 200: 털 길이 맵1: Real-time fur rendering device 10: Extraction unit
20: hair length map portion 30: rendering portion
100: image 105: fur area
110: first area 120: second area
130: generated image 200: hair length map
Claims (10)
영상에서 털 영역을 추출하는 단계와,
상기 털 영역에서 제1 및 제2 영역을 선택하는 단계와,
털 길이 맵을 이용하여 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 단계를 포함하는
실시간 털 렌더링 방법In the real-time fur rendering method performed by the real-time fur rendering device,
Extracting a fur area from the image, and
Selecting first and second regions from the fur region,
Including the step of rendering the first region and the second region differently using a hair length map
Real-time fur rendering method
상기 제1 및 제2 영역을 선택하는 단계는,
상기 털 길이 맵을 통해 상기 털 영역을 유형별로 구분하고,
상기 구분된 유형 중 상기 제1 영역과 상기 제1 영역과 다른 상기 제2 영역을 선택하는 것을 포함하는 실시간 털 렌더링 방법The method of claim 1,
Selecting the first and second regions,
Classifying the fur region by type through the fur length map,
Real-time fur rendering method comprising selecting the first region and the second region different from the first region among the divided types
상기 털 영역을 유형별로 구분하는 것은,
털의 길이와 털의 밀도 중 적어도 하나를 포함하여 구분하는 실시간 털 렌더링 방법The method of claim 2,
Classifying the fur area by type,
Real-time fur rendering method for distinguishing by including at least one of fur length and fur density
상기 렌더링하는 단계는,
상기 제1 영역의 제1 털 모델과 상기 제2 영역의 제2 털 모델을 생성하고,
상기 제1 영역의 제1 밀도 노이즈 텍스처와 상기 제2 영역의 제2 밀도 노이즈 텍스처를 구하고,
상기 제1 털 모델의 오프셋과 상기 제1 밀도 노이즈 텍스처를 비교하여 상기 제1 영역을 렌더링하고, 상기 제2 털 모델의 오프셋과 상기 제2 밀도 노이즈 텍스처를 비교하여 상기 제2 영역을 렌더링하는 것을 포함하는 실시간 털 렌더링 방법The method of claim 1,
The rendering step,
Generating a first hair model of the first region and a second hair model of the second region,
Obtaining a first density noise texture of the first region and a second density noise texture of the second region,
Comparing the offset of the first hair model and the first density noise texture to render the first region, and comparing the offset of the second hair model and the second density noise texture to render the second region Real-time fur rendering method including
상기 제1 털 모델, 상기 제2 털 모델, 상기 제1 털 모델의 오프셋 및 상기 제2 털 모델의 오프셋 중 적어도 하나는 상기 털 길이 맵을 통해 조절되는 실시간 털 렌더링 방법The method of claim 4,
Real-time hair rendering method in which at least one of the first hair model, the second hair model, the offset of the first hair model, and the offset of the second hair model is adjusted through the hair length map
상기 렌더링하는 단계를 수행한 이후에,
상기 제1 영역의 털 길이와 상기 제2 영역의 털 길이는 서로 다른 실시간 털 렌더링 방법The method of claim 5,
After performing the rendering step,
Real-time hair rendering method in which the hair length of the first region and the hair length of the second region are different from each other
상기 털 영역은 하나의 객체 내에서 선택되는 실시간 털 렌더링 방법The method of claim 1,
Real-time fur rendering method in which the fur area is selected within one object
상기 털 영역의 털 길이 맵을 구하는 털길이맵부; 및
상기 털 영역에서 제1 및 제2 영역을 선택하고, 상기 제1 영역과 상기 제2 영역을 다르게 렌더링하는 렌더링부를 포함하는
실시간 털 렌더링 장치.
An extraction unit for extracting a hair region from the image;
A hair length map unit for obtaining a hair length map of the hair region; And
Including a rendering unit that selects the first and second regions from the fur region and renders the first region and the second region differently
Real-time fur rendering device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190138005A KR20210052004A (en) | 2019-10-31 | 2019-10-31 | Method for Real-time Fur Rendering |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190138005A KR20210052004A (en) | 2019-10-31 | 2019-10-31 | Method for Real-time Fur Rendering |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210052004A true KR20210052004A (en) | 2021-05-10 |
Family
ID=75917863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190138005A KR20210052004A (en) | 2019-10-31 | 2019-10-31 | Method for Real-time Fur Rendering |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210052004A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11983810B1 (en) * | 2021-04-23 | 2024-05-14 | Apple Inc. | Projection based hair rendering |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100062781A (en) | 2008-12-02 | 2010-06-10 | 한국전자통신연구원 | Apparatus and method to generate ambient occlusion map to render fur |
-
2019
- 2019-10-31 KR KR1020190138005A patent/KR20210052004A/en active Search and Examination
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100062781A (en) | 2008-12-02 | 2010-06-10 | 한국전자통신연구원 | Apparatus and method to generate ambient occlusion map to render fur |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11983810B1 (en) * | 2021-04-23 | 2024-05-14 | Apple Inc. | Projection based hair rendering |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102616010B1 (en) | System and method for photorealistic real-time human animation | |
CN112669447B (en) | Model head portrait creation method and device, electronic equipment and storage medium | |
CN111369655B (en) | Rendering method, rendering device and terminal equipment | |
CN106575445B (en) | Fur avatar animation | |
US20220044490A1 (en) | Virtual reality presentation of layers of clothing on avatars | |
Lu et al. | Illustrative interactive stipple rendering | |
WO2022222810A1 (en) | Avatar generation method, apparatus and device, and medium | |
US20100231590A1 (en) | Creating and modifying 3d object textures | |
KR20080018404A (en) | Computer readable recording medium having background making program for making game | |
US10891801B2 (en) | Method and system for generating a user-customized computer-generated animation | |
CN111182350B (en) | Image processing method, device, terminal equipment and storage medium | |
US20210375067A1 (en) | Virtual reality presentation of clothing fitted on avatars | |
KR100809523B1 (en) | System and method for constructing unified framework based on extensible styles for 3D non-photorealistic rendering | |
KR20230015430A (en) | Method and apparatus for processing face information, electronic device and storage medium | |
KR20210052004A (en) | Method for Real-time Fur Rendering | |
CN114299206A (en) | Three-dimensional cartoon face generation method and device, electronic equipment and storage medium | |
CN108876921A (en) | Three-dimensional is dressed up model treatment method, apparatus, computer equipment and storage medium | |
KR102108422B1 (en) | System and Method for Optimizing Facial Expression of Virtual Characters through AI-based Facial Expression Classification and Retargeting, and Computer Readable Storage Medium | |
CN111489426A (en) | Expression generation method, device, equipment and storage medium | |
KR20200019296A (en) | Apparatus and method for generating recognition model of facial expression and computer recordable medium storing computer program thereof | |
KR20230134832A (en) | A Method For Creating realistic shape Model | |
CN109155074A (en) | System and method for seamless unoccupied place rendering point | |
Weiss et al. | Graph‐Based Synthesis for Skin Micro Wrinkles | |
KR102652652B1 (en) | Apparatus and method for generating avatar | |
KR20070096621A (en) | The system and method for making a caricature using a shadow plate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |