KR100512567B1 - Displaced Subdivision Mesh restoration method for face animation - Google Patents

Displaced Subdivision Mesh restoration method for face animation Download PDF

Info

Publication number
KR100512567B1
KR100512567B1 KR10-2003-0055709A KR20030055709A KR100512567B1 KR 100512567 B1 KR100512567 B1 KR 100512567B1 KR 20030055709 A KR20030055709 A KR 20030055709A KR 100512567 B1 KR100512567 B1 KR 100512567B1
Authority
KR
South Korea
Prior art keywords
model
mesh
dsm
subdivision
generated
Prior art date
Application number
KR10-2003-0055709A
Other languages
Korean (ko)
Other versions
KR20030070579A (en
Inventor
최종인
김창헌
Original Assignee
학교법인고려중앙학원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인고려중앙학원 filed Critical 학교법인고려중앙학원
Priority to KR10-2003-0055709A priority Critical patent/KR100512567B1/en
Publication of KR20030070579A publication Critical patent/KR20030070579A/en
Application granted granted Critical
Publication of KR100512567B1 publication Critical patent/KR100512567B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

본 발명은 비정형 3차원 점들의 집합으로부터 직접 얼굴 모델을 디에스엠(DSM : Displaced Subdivision Mesh)으로 복원할 수 있도록 함으로써 얼굴 애니메이션에 편리함을 제공해주도록 한 얼굴 애니메이션을 위한 디에스엠(DSM) 복원방법에 관한 것으로서, 이러한 본 발명은, 입술의 경계를 자동으로 생성하여 스캔 모델에 적용하고, 메쉬(mesh)의 양을 최대로 줄여서 모델의 전송에 효율성을 높인다. 즉, 송신할 때는 적은 양의 얼굴 모델을 전송하고, 수신측에서 웨이블릿(wavelet)을 이용하여 다시 원래대로 복원해낼 수 있도록 한다. 또한, DSM 단계의 조절이 가능하므로 시점 거리에 따라 단계를 조절하여 효과적으로 모델을 애니메이션시킬 수 있도록 하며, 근거리에서는 완전히 애니메이션을 시키고, 일정 거리 이상에서는 입이나 이마 등의 주요 부분만 애니메이션시킬 수도 있다.The present invention relates to a method for restoring a DSM for a face animation that provides convenience to a face animation by allowing a face model to be directly restored to a Displaced Subdivision Mesh (DSM) from a set of atypical three-dimensional points. As such, the present invention automatically generates a lip boundary and applies it to a scan model, and reduces the amount of mesh to the maximum to increase efficiency in model transmission. That is, when transmitting, a small amount of face model is transmitted, and the receiving side can restore the original state again using wavelets. In addition, the DSM step can be adjusted so that the model can be effectively animated by adjusting the step according to the viewpoint distance, fully animate at a short distance, and a main part such as the mouth or forehead at a certain distance or more.

Description

얼굴 애니메이션을 위한 디에스엠 복원 방법{Displaced Subdivision Mesh restoration method for face animation} Displaced Subdivision Mesh restoration method for face animation}

본 발명은 얼굴 애니메이션을 위한 디에스엠(DSM : Displaced Subdivision Mesh) 복원방법에 관한 것으로서, 특히 비정형 3차원 점들의 집합으로부터 직접 얼굴 모델을 디에스엠(DSM : Displaced Subdivision Mesh)으로 복원할 수 있도록 함으로써 얼굴 애니메이션에 편리함을 제공해주도록 한 얼굴 애니메이션을 위한 디에스엠(DSM) 복원방법에 관한 것이다.The present invention relates to a method for restoring a Displaced Subdivision Mesh (DSM) for face animation, and in particular, a face model can be directly restored to a Displaced Subdivision Mesh (DSM) from a set of atypical three-dimensional points. The present invention relates to a method for restoring a DSM for facial animation to provide convenience for animation.

상기에서 DSM이란, 서브디비전(subdivision)만으로 생성된 메쉬(mesh)에 특정 수치를 적용하여 물체의 외형이 점차 부드러운 곡선으로 변해 가는 것을 막고, 물체의 날카로운 특징 부분들을 유지한 채 서브디비젼된 메쉬를 말한다.In the above, the DSM is applied to a mesh generated only by subdivisions to prevent specific shapes from gradually changing to smooth curves and to maintain subdivision meshes while maintaining sharp features of the object. Say.

일반적으로 애니메이션(Animation)은, 컴퓨터 내부에서 생성된 일련의 화상을 디스플레이 화면상에 연속적으로 표시하여, 흡사 움직이고 있는 것과 같이 보이도록 하는 기법, 또는 이와 같은 영상을 말한다. 최근에는 컴퓨터 보조 학습(CAI)등에서도 학습자의 이해를 높이기 위해 이러한 애니메이션 기법을 사용하여 복잡하고 어려운 문제의 해설에 시각적 효과(視覺的效果)를 주고 있다.In general, animation refers to a technique for continuously displaying a series of images generated inside a computer on a display screen so that the image looks similar to moving, or such an image. Recently, in computer-aided learning (CAI), such animation techniques have been used to enhance the understanding of learners, giving visual effects to the explanation of complex and difficult problems.

인간의 얼굴 표정을 생성하는 과정은 고도의 전문성과 많은 시간 투자와 수작업이 요구된다. 더욱이 실시간 얼굴 애니메이션을 수행하기 위해서는 메쉬(mesh)의 양이 적정 수준 이하여야 한다. The process of creating human facial expressions requires a high degree of expertise, time-consuming investment and manual labor. In addition, in order to perform real-time face animation, the amount of mesh should be less than an appropriate level.

종래의 얼굴 애니메이션은 수동으로 숙련된 디자이너가 제작하였다. 이는 상당한 시간이 요구되어지며 모델이 바뀔 때마다 다시 같은 작업을 반복해야만 하는 제약이 따른다.Conventional facial animations were created manually by experienced designers. This requires a considerable amount of time and the constraint of having to repeat the same task each time the model changes.

이를 해결하기 위해서 여러 방법이 제안되었으며, 그 중 소스 모델을 타켓 모델의 형태로 변형시키는 방법과 소스 모델을 이용하여 타겟 모델의 애니메이션을 생성하는 방법이 주로 사용되었다. 여기서 소스 모델이란 애니메이션을 가진 모델이고 타겟 모델은 애니메이션을 시키고자하는 모델이다. To solve this problem, various methods have been proposed. Among them, a method of transforming a source model into a target model and generating an animation of a target model using the source model are mainly used. Here, the source model is an animation model and the target model is a model to be animated.

상기에서 소스 모델을 타겟 모델의 형태로 변형시키는 방법은, 소스 모델을 타겟 모델의 형태로 변형시켜서 소스 모델을 마치 타겟 모델인 양 애니메이션을 시키는 방법이다. The method of transforming a source model into a target model is a method of transforming the source model into a target model so as to animate the source model as if it were a target model.

그러나 이러한 방법은 수백개에 달하는 특징점을 사용자가 직접 수동으로 찍어주어야만 하고, 소스 모델의 애니메이션을 그대로 사용하므로 다소 어색하고 사용하기에 불편함이 따랐다.However, this method requires the user to manually photograph hundreds of feature points, and it is rather awkward and inconvenient to use because it uses the animation of the source model.

또한, 소스 모델을 이용하여 타겟 모델의 애니메이션을 생성하는 방법은, 타겟 모델을 직접 이용하여 애니메이션을 수행하는 방법이다.In addition, the method of generating an animation of the target model using the source model is a method of performing the animation using the target model directly.

그러나 이러한 방법은 특징 점의 개수를 30개 안쪽으로 줄여 사용할 수 있으므로 수작업의 양은 대폭 줄었지만, 모델에 입술의 경계가 있어야 한다든지 서구식 얼굴에만 적당하다는 등의 문제점을 발생하였다.However, since this method can reduce the number of feature points to 30 inwards, the amount of manual work is greatly reduced, but the problem is that the model needs to have a lip boundary or a western face.

즉, 종래 얼굴 애니메이션시 사용되는 방법들은, 부자연스러운 소스 모델의 애니메이션, 입술의 경계가 존재해야 한다는 모델의 제약, 거리에 상관없이 동일한 애니메이션, 모델의 전송시 많은 시간이 걸리는 등의 문제점을 갖고 있다.That is, the conventional methods used for facial animation have problems such as animation of an unnatural source model, constraints of a model that a lip boundary must exist, the same animation regardless of distance, and a long time for transferring a model. .

따라서 본 발명은 상기와 같은 종래 얼굴 애니메이션에서 발생하는 제반 문제점을 해결하기 위해서 제안된 것으로서,Therefore, the present invention has been proposed to solve various problems occurring in the conventional face animation as described above,

본 발명의 목적은, 비정형 3차원 점들의 집합으로부터 직접 얼굴 모델을 디에스엠(DSM : Displaced Subdivision Mesh)으로 복원할 수 있도록 함으로써 얼굴 애니메이션에 편리함을 제공해주도록 한 얼굴 애니메이션을 위한 디에스엠(DSM) 복원방법을 제공하는 데 있다.An object of the present invention is to restore a face model to a Displaced Subdivision Mesh (DSM) directly from a set of atypical three-dimensional points, thereby providing a convenience for facial animation. To provide a way.

상기와 같은 목적을 달성하기 위한 본 발명에 의한 "얼굴 애니메이션을 위한 디에스엠(DSM) 복원방법"은,"DSM restoration method for the face animation" according to the present invention for achieving the above object,

입술의 경계를 자동으로 생성하여 스캔 모델에 적용하고, 메쉬(mesh)의 양을 최대로 줄여서 모델의 전송에 효율성을 높인다. 즉, 송신할 때는 적은 양의 얼굴 모델을 전송하고, 수신측에서 웨이블릿(wavelet)을 이용하여 다시 원래대로 복원해낼 수 있도록 한다. It automatically generates the edges of the lips and applies them to the scan model, reducing the amount of mesh to the maximum to increase efficiency in model transmission. That is, when transmitting, a small amount of face model is transmitted, and the receiving side can restore the original state again using wavelets.

또한, DSM 단계의 조절이 가능하므로 시점 거리에 따라 단계를 조절하여 효과적으로 모델을 애니메이션시킬 수 있도록 한다. 메쉬 자체의 LOD뿐 아니라 애니메이션의 LOD도 가능하여 근거리에서는 완전히 애니메이션을 시키고, 일정 거리 이상에서는 입이나 이마 등의 주요 부분만 애니메이션시킬 수도 있다. In addition, since the DSM step can be adjusted, the model can be effectively animated by adjusting the step according to the viewpoint distance. Not only the LOD of the mesh itself, but also the LOD of the animation can be fully animated at a short distance, and only a certain part of the mouth or forehead can be animated at a certain distance or more.

이하 상기와 같은 기술적 사상에 따른 본 발명의 바람직한 실시 예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, a preferred embodiment of the present invention according to the technical spirit as described above will be described in detail with reference to the accompanying drawings.

본 발명은 비정형 3차원 점들의 집합으로부터 직접 얼굴 모델을 DSM으로 복원하여 애니메이션까지 수행하는 방법에 관한 것이다. 복원된 DSM은 웨이블릿 변환을 거치므로 점진적인 표현, 전송 및 다단계 편집이 가능하다. 얼굴 애니메이션을 위해서는 가장 간단한 컨트롤 메쉬에 expression retargeting시키고 다른 상세한 단계의 모션 벡터들은 displacement map과 subdivision mask를 이용하여 자동으로 생성한다. The present invention relates to a method for directly reconstructing a face model to a DSM and performing animation from a set of atypical three-dimensional points. The reconstructed DSM undergoes a wavelet transform, enabling progressive presentation, transfer and multilevel editing. For facial animation, expression retargeting is performed on the simplest control mesh, and motion vectors of different levels of detail are automatically generated using displacement maps and subdivision masks.

도 1은 본 발명에 의한 얼굴 애니메이션을 위한 디에스엠(DSM : Displaced Subdivision Mesh) 복원 방법을 보인 흐름도이다.1 is a flowchart illustrating a method for restoring a Displaced Subdivision Mesh (DSM) for facial animation according to the present invention.

이에 도시된 바와 같이, 3차원 스캔 얼굴 데이터를 입력받은 후, 포인트 클라우드 데이터로 컨트롤 메쉬를 생성하는 단계(S10 ~ S30)와; 복원된 서브디비전 마스크를 이용하여 변위 맵을 생성하는 단계(S40)와; 상기 생성한 컨트롤 메쉬의 애니메이션을 위한 Retargeted 컨트롤 메쉬를 생성하는 단계(S50)와; 상기 생성한 Retargeted 컨트롤 메쉬로부터 다단계 DSM으로의 표정을 부여하여 Retargeted 서브디비전 메쉬를 생성하는 단계(S60)와; 상기 생성한 컨트롤 메쉬와 변위 맵을 이용하여 모델의 상세화를 조절하기 위한 분석 필터 및 합성 필터를 생성하는 단계(S70)와; 상기 생성한 Retargeted 서브디비전 메쉬에 상기 분석 필터 및 합성 필터를 적용하여 Retargeted DSM을 생성하는 단계(S80)로 이루어진다.As shown therein, after receiving the 3D scan face data, generating the control mesh using the point cloud data (S10 to S30); Generating a displacement map using the reconstructed subdivision mask (S40); Generating a retargeted control mesh for animation of the generated control mesh (S50); Generating a retargeted subdivision mesh by giving an expression to the multi-level DSM from the generated retargeted control mesh (S60); Generating an analysis filter and a synthesis filter for adjusting the detail of the model using the generated control mesh and the displacement map (S70); Step S80 is performed by applying the analysis filter and the synthesis filter to the generated retargeted subdivision mesh to generate a retargeted DSM.

이와 같이 이루어지는 본 발명에 의한 얼굴 애니메이션을 위한 디에스엠(DSM : Displaced Subdivision Mesh) 복원 방법을 첨부한 도면 도 2내지 도 15를 참조하여 상세히 설명하면 다음과 같다.A method for restoring a Displaced Subdivision Mesh (DSM) for face animation according to the present invention as described above will be described in detail with reference to FIGS. 2 to 15.

먼저 단계 S10에서는 3차원 스캔 얼굴 데이터를 입력받고, 단계 S20에서는 그 입력받은 3차원 스캔 얼굴 데이터로부터 소스 메쉬와 포인트 클라우드(Point Cloud) 형태의 데이터 및 서브디비전 마스크를 복원하게 된다.First, in step S10, the 3D scan face data is input, and in step S20, data and subdivision masks in the form of a source mesh and a point cloud are restored from the received 3D scan face data.

그리고 단계 S30에서는 상기 복원한 포인트 클라우드 데이터로 컨트롤 메쉬를 생성하게 된다.In step S30, a control mesh is generated from the restored point cloud data.

즉, 도 7과 같이 포인트 클라우드(point cloud) 데이터에 조밀한 표면(dense surface)을 갖는 경계 박스(bounding box)를 씌워서 모델의 표면에 최대한 밀착시키는 쉬링크 래핑(shrink warping)을 적용한다. 조밀한 표면의 경계 박스(dense surface bounding box)가 최대한 밀착된 형태의 쉬링크-래핑된 메쉬(shrink-wrapped mesh)를 간략화 시켜 컨트롤 메쉬를 생성한다.That is, as shown in FIG. 7, a shrink warping is applied to cover the point cloud data with a bounding box having a dense surface and close to the surface of the model. A dense surface bounding box simplifies the shrink-wrapped mesh as closely as possible to create a control mesh.

도 2는 상기 컨트롤 메쉬를 생성과정의 일 실시 예를 보인 흐름도이다.2 is a flowchart illustrating an embodiment of a process of generating the control mesh.

이에 도시된 바와 같이, 포인트 클라우드를 감싸는 경계 박스를 형성한 후, 상기 형성한 경계 박스를 서브디비전하고 포인트 클라우드로 쉬링크 래핑을 하는 단계(S31)와; 상기 쉬링크 래핑된 경계 박스에 포인트를 기반으로 하는 간략화 알고리즘을 적용하여 컨트롤 메쉬를 생성하는 단계(S32)와; 상기 생성한 컨트롤 메쉬를 서브디비젼하여 표면 상세 샘플링을 위한 기본 메쉬가 되는 파라매트릭 도매인 표면을 생성하는 단계(S33)와; 상기 서브디비전시 shrinkage를 방지하고 전역 최적화로 인한 과도한 계산을 피하기 위해 지역 서브디비전 표면 피팅을 이용하여 샘플링하는 단계(S34)로 이루어진다.As shown therein, after forming the bounding box surrounding the point cloud, subdividing the formed bounding box and performing shrink wrapping with the point cloud (S31); Generating a control mesh by applying a point-based simplified algorithm to the shrink wrapped bounding box (S32); Subdividing the generated control mesh to generate a parametric wholesale surface serving as a basic mesh for surface detailed sampling (S33); Sampling using local subdivision surface fitting (S34) to prevent shrinkage during the subdivision and to avoid undue computation due to global optimization.

먼저 단계 S31에서와 같이 포인트 클라우드로부터 컨트롤 메쉬를 생성하기 위해서, 포인트 클라우드를 감싸는 경계 박스(bounding box)를 만든다. 그런 다음 경계 박스(bounding box)를 서브디비전하고, 포인트 클라우드로 쉬링크 래핑을 한다. 쉬링크 래핑은 프로잭션(projection)과 스무딩(smoothing) 과정을 반복하게 된다. 프로잭션(projection) 과정에서는 서브디비전된 경계 박스(bounding box)의 각 버텍스는 포인트 클라우드상의 가장 가까운 거리에 있는 점으로 끌어당겨진다. 스무딩(smoothing) 과정은 surface detail sampling시 고른 샘플링(sampling)을 위해 필요하다. 이를 위해 라플라시안 근사(laplacian approximation)를 이용한다. First, in order to generate a control mesh from the point cloud as in step S31, a bounding box surrounding the point cloud is created. Then subdivid the bounding box and shrink wrap to the point cloud. Shrinking wrapping repeats the process of projection and smoothing. In the projection process, each vertex of the subdivided bounding box is drawn to the point at the closest point in the point cloud. The smoothing process is required for even sampling during surface detail sampling. To do this, a laplacian approximation is used.

다음으로 단계 S32에서 상기 쉬링크 래핑된 경계 박스(bounding box)에 포인트(point)를 기반으로 하는 간략화 알고리즘을 적용하여 컨트롤 메쉬를 생성한다. 포인트 기반의 간략화 알고리즘은 기존의 QEM 알고리즘과는 달리 포인트 클라우드와 간략화 메쉬사이의 거리가 에러 메트릭(error metric)이 된다. Next, in step S32, a control mesh is generated by applying a point-based simplification algorithm to the shrink wrapped bounding box. In the point-based simplified algorithm, unlike the conventional QEM algorithm, the distance between the point cloud and the simplified mesh becomes an error metric.

다음으로 단계 S33에서 상기 생성한 컨트롤 메쉬를 서브디비전 함으로써 surface detail sampling을 위한 기본 메쉬가 되는 파라메트릭 도매인 표면(parametric domain surface)을 생성할 수 있다. 이를 위해 본 발명에서는 루프 서브디비전(loop subdivision)을 사용한다. Next, by subdividing the generated control mesh in step S33, a parametric domain surface serving as a basic mesh for surface detail sampling may be generated. To this end, the present invention uses a loop subdivision.

마지막으로 단계 S34에서 상기 서브디비전(subdivision)시 shrinkage를 방지하고 전역 최적화로 인한 과도한 계산을 피하기 위해 지역 subdivision surface fitting을 이용하여 샘플링을 한다. 그 후, 서브디비전에 의해서 shrinkage된 메쉬의 각 버텍스들을 가장 가까운 거리에 존재하는 포인트 클라우드들의 버텍스 근처로 이동시킨다. 즉 서브디비전에 의해 작아진 메쉬를 도 8과 같이 처음에 복원된 메쉬의 크기로 확대시키는 것이다.Finally, in step S34, sampling is performed using a regional subdivision surface fitting to prevent shrinkage during the subdivision and to avoid excessive calculation due to global optimization. Then, each vertex of the mesh shrinked by the subdivision is moved near the vertices of the point clouds that exist at the closest distance. That is, the mesh reduced in size by the subdivision is enlarged to the size of the mesh reconstructed initially.

다음으로 단계 S40에서는 변위 맵을 생성한다. 즉, 컨트롤 메쉬(control mesh)를 서브디비전(subdivision)한 후, 쉬링크 래핑된 메쉬(shrink-wrapped mesh)와 비교하여 그 오차만큼을 저장한 변위 맵(displacement map)을 생성한다. 여기서 서브디비전 메쉬(subdivision mesh)에 변위 맵(displacement map)을 더해주면 원본에 거의 근사한 메쉬가 나오는 것이다.Next, in step S40, a displacement map is generated. That is, after subdivisioning the control mesh, the displacement mesh is generated by comparing the shrink-wrapped mesh with the error mesh. If you add a displacement map to the subdivision mesh, you'll get a mesh that's pretty close to the original.

다음으로 단계 S50에서 Retargeted 컨트롤 메쉬를 생성하게 된다.Next, in step S50, a retargeted control mesh is generated.

컨트롤 메쉬의 애니메이션을 위해 expression retargeting을 사용한다. expression retargeting이란 하나의 애니메이션을 가지고 서로 다른 모델을 애니메이션 시키는 것을 말한다. expression retargeting을 사용하기 위해서는 애니메이션을 가진 원본 모델과 애니메이션을 시키고자 하는 목표 모델에서 같은 개수의 특징점을 찾고, 볼륨 모핑을 통해 원본 모델을 목표 모델과 유사하게 변형시킨 후, 원본 모델의 애니메이션 데이터를 목표 모델에 맞게끔 수정해 주어야 한다. 본 발명에서는 목표 모델로 컨트롤 메쉬를 사용하였다. 애니메이션은 모델의 각 점에 존재하는 모션 벡터를 매 프레임마다 바꿔주는 방식을 취한다. 도 9는 Expression Retargeting의 일 예를 보인 예시도이다.Use expression retargeting to animate the control mesh. Expression retargeting refers to animate different models with one animation. To use expression retargeting, find the same number of feature points in the original model with animation and the target model to be animated, transform the original model similar to the target model through volume morphing, and then target the animation data of the original model. You must modify it to fit your model. In the present invention, the control mesh is used as the target model. Animation takes the form of changing the motion vector of each point in the model every frame. 9 is an exemplary view showing an example of Expression Retargeting.

도 3은 상기 Retargeted 컨트롤 메쉬 생성 과정의 일 실시 예를 보인 흐름도이다.3 is a flowchart illustrating an embodiment of a process of generating the retargeted control mesh.

이에 도시된 바와 같이, 표준 모델을 목표 모델로 변형시키는 볼륨 모핑을 수행하는 단계(S51)와; 상기 단계후 표준 모델을 목표 모델에 완전히 밀착시켜주는 Cylindrical Projection을 수행하는 단계(S52)와; 상기 표준 모델에 존재하는 모션 벡터의 방향 및 길이를 상기 목표 모델의 모션 벡터로 변환하는 단계(S53 ~ S54)와; 상기 목표 모델을 변형 모델로 Cylindrical Projection하는 단계(S55)와; 컨트롤 메쉬(스캔 모델)의 모션 벡터를 계산하는 단계(S56)로 이루어진다.As shown therein, step S51 of performing volume morphing to transform the standard model into a target model; Performing a cylindrical projection that completely adheres the standard model to the target model after the step (S52); Converting directions and lengths of the motion vectors present in the standard model into motion vectors of the target model (S53 to S54); Cylindrical Projection of the target model as a deformation model (S55); Computing a motion vector of the control mesh (scan model) (S56).

먼저 단계 S51에서는 볼륨 모핑을 수행한다. 볼륨 모핑(volume morphing)이란 표준모델을 목표 모델로 변형시키는 작업이다. 이를 위해서 일치점이 필요하고 RBF(Radial Basis Function)를 사용한다. RBF는 얼굴 모델의 적합에 아주 유용하다고 알려져 있다. 이는 RBF가 강력한 피팅(Fitting)기능을 갖고 있기 때문이다. 볼륨 모핑(volume morphing)은 몇 가지 단계를 거치는데, 첫째로 표준 모델의 일치점을 목표모델의 일치점으로 옮기기 위한 행렬을 계산한다. 다음으로는 그 행렬을 이용하여 표준 모델의 모든 버텍스를 목표 모델로 근사 시키기 위한 가중치를 계산한다. 가중치를 계산하기 위해서는 표준 모델과 목표 모델간의 모양의 차이를 수치화 시켜주는 비용함수를 최소화시키는 값이 필요하다. 그 값을 구하기 위해서는 GCV(Generalized Cross-Validation)를 이용하는데, 이는 임의의 값을 초기값으로 받아서 재귀적으로 동작한다. 즉, 결과값을 다시 입력 값으로 쓰는 것이다. 계산결과 나온 값이 일정한 상수에 수렴한다면, 그 값이 바로 비용함수를 최소화시키는 값이 된다. 그 다음으로는 이로부터 가중치를 구하고 구해진 가중치를 RBF에 넣어 모핑 매트릭스(morphing matrix)를 만들어 표준 모델을 스캔 모델의 형태로 변형시킨다.First, in step S51, volume morphing is performed. Volume morphing is the process of transforming a standard model into a target model. To do this, we need a match point and use the Radial Basis Function (RBF). RBF is known to be very useful for fitting face models. This is because RBF has a strong fitting function. Volume morphing takes several steps. First, we compute a matrix for moving the match of the standard model to the match of the target model. Next, the matrix is used to calculate the weights for approximating all the vertices of the standard model to the target model. To calculate the weight, we need a value that minimizes the cost function that quantifies the difference in shape between the standard model and the target model. To obtain the value, Generalized Cross-Validation (GCV) is used, which takes an initial value and operates recursively. In other words, the result is written back as an input. If the result of the calculation converges to a constant, that is the value that minimizes the cost function. Next, the weights are derived from these, and the weights are put into RBF to form a morphing matrix to transform the standard model into a scan model.

다음으로 단계 S52에서 1차 Cylindrical Projection을 수행하게 된다. 볼륨 모핑(volume morphing)을 거쳤다고 해도 목표 모델로 완전히 변형되는 것은 아니다. 어느 정도 근사하면 변형을 멈추므로 두 모델간에는 약간의 틈이 생기게 된다. 그래서 이러한 틈을 없애고 표준 모델을 목표 모델에 완전히 밀착시켜주는 것이 cylindrical projection이다. 이 단계의 핵심은 표준 모델의 버텍스를 목표 모델의 면에 완전히 심어주는데 있다. 버텍스가 움직이는 방향은 모델의 중심 축에서 수직으로 출발하여 각 버텍스를 관통하는 방향이다. 이때 barycentric coordinates를 이용하여 표준 모델의 각 버텍스가 목표 모델의 면에 올바르게 도달했는지를 판단한다. 모든 버텍스에 대해 판정이 끝나면 표준 모델은 스캔 모델에 완전히 밀착하게 된다. 도 10은 변형 모델 생성 과정을 보인 것으로서, 도 10a는 볼륨 모핑 과정을 보인 것이고, 도 10b는 cylindrical projection 과정을 보인 것이다. 또한 도 11은 변형 모델의 생성을 보인 예시도이다.Next, in step S52, the first cylindrical projection is performed. Even volume morphing does not completely transform the target model. Some approximation stops the deformation, leaving some gaps between the two models. Therefore, it is the cylindrical projection that closes this gap and keeps the standard model in close contact with the target model. The key to this step is to fully embed the vertices of the standard model into the face of the target model. The direction in which the vertices move is starting from the center of the model and going through each vertex. Barycentric coordinates are then used to determine whether each vertex in the standard model has reached the plane of the target model correctly. After all vertices have been determined, the standard model is completely in close contact with the scan model. FIG. 10 illustrates a deformation model generation process, FIG. 10A illustrates a volume morphing process, and FIG. 10B illustrates a cylindrical projection process. 11 is an exemplary view showing generation of a deformation model.

다음으로 단계 S53에서 모션 벡터의 방향을 변환한다. 모델의 애니메이션은 각 버텍스에 존재하는 모션 벡터에 의해 수행되는데, 모션 벡터란 최초 프레임의 버텍스에서 현재 프레임의 버텍스의 위치로 이동하기 위한 방향과 거리를 의미한다. 각 얼굴은 생긴 모양이 다르므로 모션 벡터 역시 다를 수밖에 없다. 그래서 표준 모델에 존재하는 모션 벡터를 목표 모델의 모션 벡터로 바꿔주는 작업이 필요하다. 벡터는 일반적으로 크기와 방향을 갖는다. 따라서 모션벡터를 목표 모델에 맞게 바꿔주기 위해서는 크기와 방향을 달리해 주어야만 한다. Next, in step S53, the direction of the motion vector is changed. The animation of the model is performed by the motion vectors present in each vertex. The motion vector means a direction and a distance for moving from the vertex of the first frame to the position of the vertex of the current frame. Each face has a different shape, so the motion vector is inevitably different. Therefore, it is necessary to replace the motion vector existing in the standard model with the motion vector of the target model. Vectors generally have size and direction. Therefore, to change the motion vector to match the target model, the size and direction must be changed.

우선 표준 모델의 각 버텍스에 존재하는 좌표계를 구하고, 그것을 월드 좌표계의 X, Y, Z축과 맞추기 위한 행렬을 구한다. 버텍스에 존재하는 좌표계를 구하는 방법은 법선 벡터를 X축으로 삼고, 그 축에 수직인 평면을 구해 임의의 이웃 버텍스를 그 평면에 투영한다. 원래 버텍스와 투영된 버텍스를 이어서 Y축으로 지정한다. Z축은 X, Y축의 외적을 계산하여 구한다. 또, 월드 좌표계를 목표 모델로 변형된 표준 모델(이하, "변형 모델"이라 칭함)의 버텍스에 존재하는 좌표계에 맞추는 행렬을 구한 후, 이두 행렬을 곱하여 표준 모델의 버텍스 좌표계를 변형 모델의 버텍스 좌표계로 변화시키는 행렬을 얻는다. First, find the coordinate system that exists in each vertex of the standard model, and find the matrix to fit it to the X, Y, and Z axes of the world coordinate system. To find the coordinate system that exists in a vertex, we use the normal vector as the X axis, find a plane perpendicular to that axis, and project any neighboring vertices onto that plane. The original vertex and the projected vertex are then specified on the Y axis. The Z axis is obtained by calculating the cross products of the X and Y axes. In addition, after obtaining a matrix matching the world coordinate system to the coordinate system existing in the vertex of the standard model (hereinafter, referred to as "deformation model") transformed into the target model, multiplying the vertex coordinate system of the standard model by multiplying these two matrices. Get the matrix transformed by.

다음으로 단계 S54에서 모션 벡터의 길이를 변환한다. 각 버텍스와 그 이웃 버텍스들로 BB(Bounding Box)를 만들고 표준 모델과 변형 모델간의 대응하는 BB의 X, Y, Z길이를 비교하여 스케일링 값을 구한다. 이로써 표준 모델의 모션 벡터를 변형 모델의 모션 벡터로 변형시켰다. 즉 표준 모델의 애니메이션을 변형 모델에서도 쓸 수 있게 된 것이다. 도 12a는 모션 벡터의 방향 변환을 보인 예시도이고, 도 12b는 모션 벡터의 길이 변환을 보인 예시도이다.Next, in step S54, the length of the motion vector is converted. Create a bounding box (BB) with each vertex and its neighbors, and compare the X, Y, and Z lengths of the corresponding BBs between the standard and deformed models to obtain the scaling values. This transformed the motion vector of the standard model into the motion vector of the deformation model. That is, the animation of the standard model can be used in the deformation model. 12A is an exemplary diagram illustrating a direction transformation of a motion vector, and FIG. 12B is an exemplary diagram illustrating a length transformation of a motion vector.

다음으로 단계 S55에서 2차 Cylindrical Projection을 수행한다. 즉, 변형 모델의 모션 벡터를 목표 모델로 옮길 차례이다. 우선 도 13a와 같이 목표 모델을 변형 모델로 cylindrical projection시킨다. 그러면 목표 모델의 모든 버텍스가 변형 모델의 각 면 위에 존재하게 된다. Next, in step S55, the second cylindrical projection is performed. That is, it is time to move the motion vector of the deformation model to the target model. First, as shown in FIG. 13A, the target model is cylindrically projected to the deformation model. This ensures that all vertices in the target model are on each side of the deformation model.

다음으로 단계 S56에서 컨트롤 메쉬의 모션 벡터를 계산한다. 즉, 목표 모델의 버텍스를 포함하는 변형 모델의 삼각형을 찾아 그 삼각형의 세 버텍스가 갖는 모션 벡터를 도 13b와 같이 barycenrtic coofdinates를 이용하여 적절한 비율로 합하면 스캔 모델의 모션 벡터가 탄생하게 된다. Next, the motion vector of the control mesh is calculated in step S56. That is, if the triangle of the deformed model including the vertex of the target model is found and the motion vectors of the three vertices of the triangle are combined at an appropriate ratio using barycenrtic coofdinates as shown in FIG. 13B, the motion vector of the scan model is generated.

다음으로 단계 S60에서는 Retargeted Subdivision Mesh를 생성하게 된다.Next, in step S60, a retargeted subdivision mesh is generated.

컨트롤 메쉬로부터 다단계 DSM으로의 표정 적용은 단계순서대로 만들어지는데, 컨트롤 메쉬가 1차 DSM에, 1차 DSM이 2차 DSM에 적용하는 식이다. 서브디비전은 새로 생성되는 점의 위치가 마스크 값에 의해 결정된다. 이때 새로 생성되는 점의 모션 벡터는 점의 위치를 찾듯이 마스크 값을 이전 모델의 모션 벡터에 적용시켜 계산한다. 그 결과로 생성된 애니메이션은 각 단계의 DSM에 표정을 부여한다. The application of facial expressions from the control mesh to the multi-level DSM is made in the order of the steps: the control mesh is applied to the primary DSM and the primary DSM is applied to the secondary DSM. For subdivisions, the position of the newly created point is determined by the mask value. At this time, the motion vector of the newly created point is calculated by applying the mask value to the motion vector of the previous model, as if the location of the point is found. The resulting animation gives facial expressions to the DSM at each stage.

도 4는 상기 Retargeted Subdivision Mesh를 생성하는 과정의 일 실시 예를 보인 흐름도이다. 4 is a flowchart illustrating an embodiment of a process of generating the retargeted subdivision mesh.

이에 도시된 바와 같이, 상기 생성된 Retargeted 컨트롤 메쉬에 일반적인 루프 서브디비전을 수행하는 단계(S61)와; 상기 루프 서브디비전에 의해 새롭게 생성된 점과 그 점의 모센 벡터를 계산하는 단계(S62)로 이루어진다.As shown therein, performing a general loop subdivision on the generated Retargeted control mesh (S61); Computing a point newly generated by the loop subdivision and a Mossen vector of the point (S62).

먼저 단계 S61에서는 상기 생성된 Retargeted 컨트롤 메쉬에 일반적인 루프 서브디비전을 수행하게 되고, 단계 S62에서는 모션 벡터 프로퍼게이션을 수행한다.First, in step S61, a general loop subdivision is performed on the generated retargeted control mesh. In step S62, motion vector propagation is performed.

도 14a 및 도 14b는 서브디비전에 의해 새롭게 생성되는 점과 그 점의 모센 벡터를 나타낸 것이다. 두 경우로 나눈 것은 얼굴에 구멍인 입이 존재하기 때문이다. 일반적인 에지 위에 생긴 점의 경우는 도 14a를, 입의 경계처럼 경계 에지 위에 생긴 경우는 도 14b를 사용하여 새로운 점의 모션 벡터를 계산한다. 여기서 (i = 1, 2, ..., n)는 해당 점의 모션 벡터를, 는 새로 생긴 점의 모션 벡터를 의미한다.14A and 14B show a point newly generated by the subdivision and a mossen vector of the point. The dividing in two cases is due to the presence of a hole in the face. The motion vector of the new point is calculated using FIG. 14A for the point on the general edge and FIG. 14B for the point on the boundary edge like the boundary of the mouth. here (i = 1, 2, ..., n) gives the motion vector of that point, Is the motion vector of the new point.

다음으로 단계 S70에서는 분석 필터와 합성 필터를 생성하게 된다.Next, in step S70, an analysis filter and a synthesis filter are generated.

모델의 상세화 단계를 자동으로 조절하기 위해서는 분석 필터(analysis filter : P filter)와 합성 필터(synthesis filter : Q filter)가 필요하다. 이러한 분석 필터와 합성 필터는 블록 행렬로 편리하게 표현 할 수 있다. 매 서브디비전 단계를 위한 분석 필터와 합성 필터를 미리 구성해 놓으면 행렬 연산만으로 각 단계를 자유로이 오갈 수 있게 된다. 파라매트릭 도매인 표면(parametric domain surface)을 생성하기 위한 P행렬의 적용 과정은 기존의 웨이블릿(wavelet) 방식과 동일하다. Q 행렬은 생성된 파라매트릭 도매인(parametric domain)을 원본 포인트 클라우드에 근접하게 수정하기 위한 계수(coefficient)값을 저장한다. An analysis filter (P filter) and a synthesis filter (Q filter) are required to automatically adjust the detail level of the model. Such analysis filters and synthesis filters can be conveniently expressed as a block matrix. By pre-configuring an analysis filter and a synthesis filter for each subdivision step, each step can be freely moved by matrix operation alone. The process of applying the P matrix to create a parametric domain surface is the same as the conventional wavelet method. The Q matrix stores coefficients for modifying the generated parametric domain close to the original point cloud.

도 5는 상기 분석 필터 및 합성 필터를 생성하는 과정의 일 실시 예를 보인 흐름도이다.5 is a flowchart illustrating an embodiment of a process of generating the analysis filter and the synthesis filter.

이에 도시된 바와 같이, 상기 서브디비전 메쉬를 형성하고, 그로부터 포인트 클라우드를 근사하는 가상의 스무스 표면까지 버텍스 노말 방향으로 레이(ray)를 쏘아 웨이블릿 계수(P필터)를 구하는 단계(S71)와; 상기 웨이블릿 계수의 역행렬(Q필터)을 구하는 단계(S72)와; 상기 구한 웨이블릿을 분석하는 단계(S73)로 이루어진다.Forming a subdivision mesh and shooting a ray in a vertex normal direction from a virtual smooth surface approximating a point cloud to obtain a wavelet coefficient (P filter) from the subdivision mesh (S71); Obtaining an inverse matrix (Q filter) of the wavelet coefficients (S72); In step S73, the obtained wavelet is analyzed.

먼저 단계 S71에서는 기존의 wavelet coefficient 저장 방식과는 달리, Q 행렬의 내용을 구성하는데 DSM 복원 과정에서 얻은 displacement map을 활용한다. 본 발명에서는 일단 subdivision mesh를 형성한 다음 그로부터 point cloud를 approximating하는 가상의 smooth surface까지 버텍스 normal 방향으로 ray를 쏘아 wavelet coefficient값(P필터)을 구한다.First, in step S71, unlike the conventional wavelet coefficient storage method, the displacement map obtained during the DSM reconstruction process is used to construct the content of the Q matrix. In the present invention, once the subdivision mesh is formed, the ray is shot in the vertex normal direction to a virtual smooth surface approximating the point cloud to obtain a wavelet coefficient value (P filter).

다음으로 단계 S72에서는 상기 분석 필터(P필터)의 역 행렬을 구한다.Next, in step S72, an inverse matrix of the analysis filter (P filter) is obtained.

그리고 단계 S73에서는 상기 구한 웨이블릿을 분석하게 된다.In step S73, the obtained wavelet is analyzed.

다음으로 단계 S80에서는 Retargeted DSM을 생성하게 된다.Next, in step S80, a retargeted DSM is generated.

각 subdivision 단계의 DSM은 애니메이션 데이터를 가지고 있지 않지만, 본 발명의 제안 방법으로 컨트롤 메쉬(control mesh)에 expression retargeting시킨 후 변위 맵(displacement map)과 서브디비전 마스크(subdivision mask)를 이용하여 자동으로 모든 서브디비전(subdivision) 단계에 모션 벡터를 생성한다. 그러므로 모든 단계의 서브디비전 모델에 같은 표정을 생성시킬 수 있고, 임의의 모델에 대해 적용될 수 있다. 도 15a 내지 도 15d는 DSM의 애니메이션을 보인 것이다.The DSM of each subdivision stage does not have animation data, but after expression retargeting to the control mesh according to the proposed method, all of them are automatically generated by using a displacement map and a subdivision mask. A motion vector is generated in the subdivision step. Therefore, the same facial expression can be generated in all the subdivision models, and can be applied to any model. 15A-15D show an animation of the DSM.

도 6은 상기 Retargeted DSM 생성 과정의 일 실시 예를 보인 흐름도이다.6 is a flowchart illustrating an embodiment of a process for generating a retargeted DSM.

이에 도시된 바와 같이, 생성된 DSM의 레벨을 검색하는 단계(S81)와; 상기 검색 결과 원하는 레벨일 경우 생성된 DSM을 Retargeted DSM으로 결정하는 단계(S82)와; 상기 검색 결과 높은 레벨일 경우에는 합성 필터를 적용하여 모델의 상세화 단계를 낮추는 단계(S83, S84)와; 상기 검색 결과 낮은 레벨일 경우에는 분석 필터를 적용하여 모델의 상세화 단계를 높이는 단계(S85)로 이루어진다.As shown therein, retrieving the level of the generated DSM (S81); Determining the generated DSM as a retargeted DSM when the search result is a desired level (S82); If the search result is at a high level, applying the synthesis filter to lower the detail level of the model (S83 and S84); In the case where the search result is a low level, step S85 is performed to increase the detail level of the model by applying an analysis filter.

먼저 단계 S81에서는 생성된 DSM의 레벨을 검색하게 되고, 그 검색 결과 원하는 레벨일 경우에는 단계 S82에서 상기 생성된 DSM을 Retargeted DSM으로 결정하게 된다. 다음으로 상기 검색 결과 높은 레벨일 경우에는 단계 S84에서 합성 필터를 적용하여 DSM의 단계를 낮추어 보다 coarse mesh를 생성한다. 또한, 상기 검색 결과 낮은 레벨일 경우에는 단계 S85에서와 같이 분석 필터를 적용하여 DSM의 단계를 높여서 dense mesh를 생성하여 사용자가 원하는 상세화 단계의 모델을 만들게 된다.First, in step S81, the level of the generated DSM is searched. If the search result is a desired level, the generated DSM is determined as the retargeted DSM in step S82. Next, when the search result is a high level, a coarse mesh is generated by lowering the DSM level by applying the synthesis filter in step S84. In addition, when the search result is a low level, as in step S85, the analysis filter is applied to increase the level of the DSM to generate a dense mesh, thereby creating a model of a detailed level desired by the user.

이상에서 상술한 본 발명에 따르면, 종래 인간의 얼굴을 컴퓨터를 이용하여 애니메이션 시키는 과정은 디자이너의 숙련도와 장시간의 수작업을 요하였지만, 본 발명에서는 이러한 작업을 간단한 수작업과 짧은 시간으로 가능토록 하는 효과가 있다.According to the present invention described above, the process of animate a human face using a computer in the prior art required designer skill and a long time manual work, but in the present invention, the effect of enabling such a task in a simple manual operation and a short time have.

또한, 얼굴 모델로 스캔 모델을 사용하므로 초보자라도 용이하게 자신의 얼굴 모델을 컴퓨터상에서 애니메이션시킬 수 있으며, 모션 캡쳐 데이터를 사용하여 애니메이션을 수행토록 함으로써 다양한 표정의 적용이 가능토록 도모해주는 효과가 있다.In addition, since a scan model is used as a face model, even a beginner can easily animate his or her face model on a computer, and it is possible to apply various expressions by performing animation using motion capture data.

또한, 본 발명은 영화나 애니메이션 등에 등장하는 인물들의 표정 생성에 효과적이며, 특히 네트웍으로 전송을 하려고 할 경우 적은 양의 데이터만을 받아서 원래의 고품질 애니메이션을 구현할 수 있는 효과도 있다. In addition, the present invention is effective for generating facial expressions of people appearing in movies or animations, and in particular, when attempting to transmit to a network, it is possible to implement original high quality animations by receiving only a small amount of data.

도 1은 본 발명에 의한 얼굴 애니메이션을 위한 디에스엠(DSM : Displaced Subdivision Mesh) 복원 방법을 보인 흐름도이고,1 is a flowchart showing a method for restoring a Displaced Subdivision Mesh (DSM) for facial animation according to the present invention;

도 2는 도 1의 컨트롤 메쉬 생성 과정의 일 실시예를 보인 흐름도이고,2 is a flowchart illustrating an embodiment of a process of generating a control mesh of FIG. 1;

도 3은 도 1의 Retargeted 컨트롤 메쉬 생성 과정의 일 실시 예를 보인 흐름도이고,3 is a flowchart illustrating an embodiment of a process of generating a retargeted control mesh of FIG. 1;

도 4는 도 1의 Retargeted 서브디비전 메쉬 생성 과정의 일 실시 예를 보인 흐름도이고,4 is a flowchart illustrating an embodiment of a process of generating a retargeted subdivision mesh of FIG. 1;

도 5는 도 1의 P, Q 필터 생성 과정의 일 실시 예를 보인 흐름도이고,FIG. 5 is a flowchart illustrating an embodiment of a P and Q filter generation process of FIG. 1;

도 6은 도 1의 Retargeted DSM 생성 과정의 일 실시 예를 보인 흐름도이고,6 is a flowchart illustrating an embodiment of a process of generating a retargeted DSM of FIG. 1;

도 7은 본 발명에서 포인트 클라우드로부터 DSM을 복원하는 과정을 보인 예시도이고,7 is an exemplary view showing a process of restoring a DSM from a point cloud in the present invention,

도 8은 본 발명에서 DSM 생성을 위한 샘플링 과정을 보인 도면이고,8 is a view showing a sampling process for generating a DSM in the present invention,

도 9는 본 발명에서 Expression Retargeting 과정을 보인 예시도이고,9 is an exemplary view showing an expression retargeting process in the present invention,

도 10a 및 도 10b는 본 발명에서 변형 모델 생성 과정을 보인 도면이고,10a and 10b is a view showing a deformation model generation process in the present invention,

도 11은 본 발명에서 변형 모델의 생성 예시도이고,11 is an exemplary view for generating a deformation model in the present invention,

도 12a 및 도 12b는 본 발명에서 모션 벡터의 변환 예시도이고,12A and 12B are exemplary views of transforming a motion vector in the present invention.

도 13a 및 도 13b는 본 발명에서 모션 벡터의 변환 과정을 보인 도면이고,13A and 13B illustrate a process of converting a motion vector in the present invention.

도 14a 및 도 14b는 본 발명에서 모션 벡터 Propagation 과정을 보인 도면이고,14A and 14B illustrate a motion vector propagation process according to the present invention.

도 15a 내지 도 15d는 본 발명에서 복원된 DSM으로 애니메이션을 수행한 결과물을 보인 도면이다.15A to 15D illustrate the results of performing animation with the restored DSM in the present invention.

Claims (6)

얼굴 애니메이션을 위한 디에스엠(DSM : Displaced Subdivision Mesh) 복원 방법에 있어서,In the method of restoring Displaced Subdivision Mesh (DSM) for facial animation, 3차원 스캔 얼굴 데이터를 입력받은 후, 포인트 클라우드 데이터로 컨트롤 메쉬를 생성하는 제1단계와;A first step of generating a control mesh from the point cloud data after receiving the 3D scan face data; 복원된 서브디비전 마스크를 이용하여 변위 맵을 생성하는 제2단계와;Generating a displacement map using the reconstructed subdivision mask; 상기 생성한 컨트롤 메쉬의 애니메이션을 위한 Retargeted 컨트롤 메쉬를 생성하는 제3단계와;Generating a retargeted control mesh for animation of the generated control mesh; 상기 생성한 Retargeted 컨트롤 메쉬로부터 다단계 DSM으로의 표정을 부여하여 Retargeted 서브디비전 메쉬를 생성하는 제4단계와;Generating a retargeted subdivision mesh by giving an expression to the multi-level DSM from the generated retargeted control mesh; 상기 생성한 컨트롤 메쉬와 변위 맵을 이용하여 모델의 상세화를 조절하기 위한 분석 필터 및 합성 필터를 생성하는 제5단계와;Generating an analysis filter and a synthesis filter for adjusting the detail of the model using the generated control mesh and the displacement map; 상기 생성한 Retargeted 서브디비전 메쉬에 상기 분석 필터 및 합성 필터를 적용하여 Retargeted DSM을 생성하는 제6단계를 포함하여 이루어짐을 특징으로 하는 얼굴 애니메이션을 위한 디에스엠(DSM) 복원 방법.And a sixth step of generating a retargeted DSM by applying the analysis filter and the synthesis filter to the generated retargeted subdivision mesh. 제1항에 있어서, 상기 제1단계는,The method of claim 1, wherein the first step, 포인트 클라우드를 감싸는 경계 박스를 형성한 후, 상기 형성한 경계 박스를 서브디비전하고 포인트 클라우드로 쉬링크 래핑을 하는 단계와;After forming a bounding box surrounding the point cloud, subdividing the formed bounding box and performing shrink wrap to the point cloud; 상기 쉬링크 래핑된 경계 박스에 포인트를 기반으로 하는 간략화 알고리즘을 적용하여 컨트롤 메쉬를 생성하는 단계와;Generating a control mesh by applying a point-based simplified algorithm to the shrink wrapped bounding box; 상기 생성한 컨트롤 메쉬를 서브디비젼하여 표면 상세 샘플링을 위한 기본 메쉬가 되는 파라매트릭 도매인 표면을 생성하는 단계와;Subdividing the generated control mesh to generate a parametric wholesale surface that becomes a basic mesh for surface detailed sampling; 상기 서브디비전시 shrinkage를 방지하고 전역 최적화로 인한 과도한 계산을 피하기 위해 지역 서브디비전 표면 피팅을 이용하여 샘플링하는 단계로 이루어짐을 특징으로 하는 얼굴 애니메이션을 위한 디에스엠(DSM) 복원 방법.Sampling using local subdivision surface fitting to prevent shrinkage during subdivision and to avoid undue calculation due to global optimization. 제1항에 있어서, 상기 제3단계는,The method of claim 1, wherein the third step, 표준 모델을 목표 모델로 변형시키는 볼륨 모핑을 수행하는 단계와;Performing volume morphing to transform the standard model into a target model; 상기 단계후 표준 모델을 목표 모델에 완전히 밀착시켜주는 Cylindrical Projection을 수행하는 단계와;Performing a Cylindrical Projection that completely adheres the standard model to the target model after the step; 상기 표준 모델에 존재하는 모션 벡터의 방향 및 길이를 상기 목표 모델의 모션 벡터로 변환하는 단계와;Converting a direction and a length of a motion vector present in the standard model into a motion vector of the target model; 상기 목표 모델을 변형 모델로 Cylindrical Projection하는 단계와;Cylindrical Projection of the target model as a deformation model; 컨트롤 메쉬(스캔 모델)의 모션 벡터를 계산하는 단계로 이루어짐을 특징으로 하는 얼굴 애니메이션을 위한 디에스엠(DSM) 복원 방법.Comprising a step of calculating the motion vector of the control mesh (scan model). 제1항에 있어서, 상기 제4단계는,The method of claim 1, wherein the fourth step, 상기 생성된 Retargeted 컨트롤 메쉬에 일반적인 루프 서브디비전을 수행하는 단계와;Performing general loop subdivision on the generated Retargeted control mesh; 상기 루프 서브디비전에 의해 새롭게 생성된 점과 그 점의 모센 벡터를 계산하는 단계로 이루어짐을 특징으로 하는 얼굴 애니메이션을 위한 디에스엠(DSM) 복원 방법.Computing a point newly created by the loop subdivision and a Mossen vector of the point (DSM) for facial animation. 제1항에 있어서, 상기 제5단계는,The method of claim 1, wherein the fifth step, 상기 서브디비전 메쉬를 형성하고, 그로부터 포인트 클라우드를 근사하는 가상의 스무스 표면까지 버텍스 노말 방향으로 레이(ray)를 쏘아 웨이블릿 계수(분석 필터 : P필터)를 구하는 단계와;Forming the subdivision mesh and shooting a ray in the vertex normal direction from the virtual smooth surface approximating a point cloud to obtain a wavelet coefficient (analysis filter: P filter); 상기 웨이블릿 계수의 역행렬(합성 필터 : Q필터)을 구하는 단계와;Obtaining an inverse matrix (synthetic filter: Q filter) of the wavelet coefficients; 상기 구한 웨이블릿을 분석하는 단계로 이루어짐을 특징으로 하는 얼굴 애니메이션을 위한 디에스엠(DSM) 복원 방법.A method for restoring a DSM for facial animation, characterized in that the step of analyzing the obtained wavelet. 제1항에 있어서, 상기 제6단계는,The method of claim 1, wherein the sixth step is 생성된 DSM의 레벨을 검색하는 단계와;Retrieving the level of the generated DSM; 상기 검색 결과 원하는 레벨일 경우 생성된 DSM을 Retargeted DSM으로 결정하는 단계와;Determining the generated DSM as a retargeted DSM when the search result is a desired level; 상기 검색 결과 높은 레벨일 경우에는 합성 필터를 적용하여 모델의 상세화 단계를 낮추는 단계와;Lowering the detail level of the model by applying a synthesis filter when the search result is a high level; 상기 검색 결과 낮은 레벨일 경우에는 분석 필터를 적용하여 모델의 상세화 단계를 높이는 단계로 이루어짐을 특징으로 하는 얼굴 애니메이션을 위한 디에스엠(DSM) 복원 방법.And if the search result is a low level, applying the analysis filter to increase the detail level of the model.
KR10-2003-0055709A 2003-08-12 2003-08-12 Displaced Subdivision Mesh restoration method for face animation KR100512567B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0055709A KR100512567B1 (en) 2003-08-12 2003-08-12 Displaced Subdivision Mesh restoration method for face animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0055709A KR100512567B1 (en) 2003-08-12 2003-08-12 Displaced Subdivision Mesh restoration method for face animation

Publications (2)

Publication Number Publication Date
KR20030070579A KR20030070579A (en) 2003-08-30
KR100512567B1 true KR100512567B1 (en) 2005-09-06

Family

ID=32227599

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0055709A KR100512567B1 (en) 2003-08-12 2003-08-12 Displaced Subdivision Mesh restoration method for face animation

Country Status (1)

Country Link
KR (1) KR100512567B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070092006A (en) * 2006-03-08 2007-09-12 포스앤핏 주식회사 Method for processing three-dimensional image and computer readable medium thereon computer program for perferming the method
KR102004287B1 (en) * 2012-10-17 2019-07-26 에스케이플래닛 주식회사 Apparatus and methods of making user emoticon

Also Published As

Publication number Publication date
KR20030070579A (en) 2003-08-30

Similar Documents

Publication Publication Date Title
Kähler et al. Geometry-based muscle modeling for facial animation
US7379071B2 (en) Geometry-driven feature point-based image synthesis
Kobbelt et al. A shrink wrapping approach to remeshing polygonal surfaces
JP4097742B2 (en) Operation method of functional processor control machine
US7425954B2 (en) Systems and methods for providing signal-specialized parametrization
KR101145260B1 (en) Apparatus and method for mapping textures to object model
US7088367B2 (en) Methods and system for general skinning via hardware accelerators
KR100891885B1 (en) Form changing device, object action encoding device, and object action decoding device
Liao et al. A subdivision-based representation for vector image editing
JP2008513882A (en) Video image processing system and video image processing method
US20220375163A1 (en) Computationally-Efficient Generation of Simulations of Cloth-Like Materials Using Bilinear Element Models
US20210272345A1 (en) Method for Efficiently Computing and Specifying Level Sets for Use in Computer Simulations, Computer Graphics and Other Purposes
US20110012910A1 (en) Motion field texture synthesis
JP2001291116A (en) Device and method for generating three-dimensional image and program providing medium
KR100512567B1 (en) Displaced Subdivision Mesh restoration method for face animation
Koh et al. View-dependent adaptive cloth simulation with buckling compensation
JP2837584B2 (en) How to create terrain data
Lee et al. From real faces to virtual faces: problems and solutions
EP3980975B1 (en) Method of inferring microdetail on skin animation
US10636210B2 (en) Dynamic contour volume deformation
US11354878B2 (en) Method of computing simulated surfaces for animation generation and other purposes
US20230196702A1 (en) Object Deformation with Bindings and Deformers Interpolated from Key Poses
Van den Bergh et al. Interactively morphing irregularly shaped images employing subdivision techniques
Brooks et al. Integrating procedural textures with replicated image editing
WO2022240298A1 (en) Computationally-efficient generation of simulations of cloth-like materials using bilinear element models

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110615

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20120615

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee