KR20070061252A - A method of retargeting a facial animation based on wire curves and example expression models - Google Patents

A method of retargeting a facial animation based on wire curves and example expression models Download PDF

Info

Publication number
KR20070061252A
KR20070061252A KR1020060075333A KR20060075333A KR20070061252A KR 20070061252 A KR20070061252 A KR 20070061252A KR 1020060075333 A KR1020060075333 A KR 1020060075333A KR 20060075333 A KR20060075333 A KR 20060075333A KR 20070061252 A KR20070061252 A KR 20070061252A
Authority
KR
South Korea
Prior art keywords
facial expression
original
expression model
model
facial
Prior art date
Application number
KR1020060075333A
Other languages
Korean (ko)
Other versions
KR100792704B1 (en
Inventor
김예진
이기석
박재형
심광현
양광호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20070061252A publication Critical patent/KR20070061252A/en
Application granted granted Critical
Publication of KR100792704B1 publication Critical patent/KR100792704B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Abstract

A method for retargeting 3-dimensional face animation based on a wire curve and an example expression model is provided to effectively re-use facial expression animation of previously produced characters to produce realistic expression animation of 3-dimensional virtual characters, thereby reducing time required to produce 3-dimensional animation. A method for retargeting 3-dimensional face animation based on a wire curve and an example expression model includes a step of forming a correspondence relation between an original expression mode and an object expression model(S100), a step of respectively defining an original example expression model and an object example expression model for the original expression model and the object expression model(S200), and a step of blending object example expression models by using a weight extracted from the original example expression model to create a new expression(S300).

Description

와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법 {A Method of Retargeting A Facial Animation Based on Wire Curves And Example Expression Models}A method of retargeting a facial animation based on wire curves and example expression models

도 1은 본 발명에 따른 3차원 얼굴 애니메이션의 재적용 방법을 보여주는 흐름도,1 is a flowchart showing a method of reapplying a 3D face animation according to the present invention;

도 2는 와이어 곡선을 이용한 원본과 대상 표정 모델의 상호 대응 관계를 나타내는 도,2 is a diagram showing a mutual relationship between an original and a target facial expression model using a wire curve;

도 3은 다양한 감정을 2차원 공간에 간략하게 표시한 감정 공간 다이어그램을 나타낸 도,3 is a diagram showing an emotion space diagram in which various emotions are briefly displayed in a two-dimensional space;

도 4는 원본 예제 표정 모델들과 원본 표정 모델(베이스 모델)로부터 와이어 곡선의 변형 파라미터 값(?Vsi)을 추출하는 것을 나타낸 도,4 is a diagram illustrating extracting deformation parameter values (? Vsi) of a wire curve from original example facial expression models and an original facial expression model (base model);

도 5는 추출한 원본 와이어 곡선의 변형 파라미터 값(?Vsi)을 대상 표정 모델의 와이어 곡선의 콘트롤 포인터에 적용시켜 생성한 대상 예제 표정 모델들을 나타낸 도,FIG. 5 is a diagram illustrating target example facial expression models generated by applying a deformation parameter value (? Vsi) of an extracted original wire curve to a control pointer of a wire curve of a target facial expression model;

도 6은 미리 정의한 가중치 함수를 이용해서 원본 예제 표정 모델들의 가중치 값을 얻어 대상 예제 표정 모델에 적용하여 블랜딩 시켜 새로운 표정을 생성하 는 것을 나타낸 도이다.FIG. 6 is a diagram illustrating a method of generating a new facial expression by obtaining a weight value of original facial expression models using a predefined weighting function and applying the blending to a target facial expression model.

<도면의 중요한 부호의 설명><Description of Significant Symbols in Drawings>

10. 원본 애니메이션 20. 원본 표정 모델10. Original animation 20. Original facial expression model

21. 원본 예제 표정 모델 30. 대상 표정 모델21. Original example facial expression model 30. Target facial expression model

31. 대상 예제 표정 모델 40. 결과 애니메이션31. Target Example Facial Expression Model 40. Result Animation

50. 특징점 60. 와이어 곡선50. Feature Point 60. Wire Curve

본 발명은 3차원 얼굴 애니메이션 생성 방법에 관한 것으로, 기존의 3차원 가상캐릭터의 얼굴 표정 애니메이션 데이터를 새로운 얼굴 모델에 효과적으로 적용시키기 위해서 와이어 곡선(wire curve)과 예제 표정 모델(example expression model)을 사용한 표정 재적용(retargeting) 방법에 관한 것이다. The present invention relates to a method for generating a three-dimensional face animation, using a wire curve and an example expression model to effectively apply facial expression animation data of an existing three-dimensional virtual character to a new face model. A method of retargeting facial expressions.

지금까지 보다 현실감 있는 3차원 얼굴 애니메이션을 생성하기 위해서 많은 방법들이 제안되어 왔으며, 특히, 그 중에서도 실제 사람 얼굴피부와 근육의 물리적 특징을 흉내낸 물리적-기반-접근(Physically-based approach), 카메라 앞에서 실제 얼굴에 붙힌 마커(marker)의 움직임으로부터 추출한 데이터를 기반으로 하는 Performance-driven approach, 2차원 얼굴 사진의 윤곽선 및 텍스쳐(texture) 정보로부터 추출한 데이터를 기반으로 하는 이미지-기반 접근(Image-based approach) 등이 있다. 이러한 종래의 방법으로 애니메이션을 생성하기 위해선 새로운 모델마다 같은 작업을 계속 반복해야 하는 단점이 있다. Many methods have been proposed to produce more realistic three-dimensional face animations, especially in front of the camera, a physical-based approach that simulates the physical characteristics of real human skin and muscles. Performance-driven approach based on data extracted from the movement of a marker attached to a real face, image-based approach based on data extracted from contour and texture information of a two-dimensional face photograph ). In order to generate an animation by the conventional method, there is a disadvantage in that the same operation must be repeated for each new model.

최근에는 이러한 단점을 극복하기 위해서 기존 애니메이션 데이터를 새로운 모델에 재사용하는 Retargeting and Cloning approach가 제안되고 있다. 예를 들어, 특2003-0070578호(“3차원 스캔 얼굴 데이터의 자동 애니메이션 방법”)은 3차원 얼굴 모델의 레인지 스캔 데이터의 윤곽선 정보와 텍스쳐 정보를 통해 추출한 기하학 모델의 특징점으로 얼굴 모델을 간략화 시킨 후 모션 벡터를 통해 결과 애니메이션을 생성하는 방법을 제안하고 있으나, 스캐닝된 입력 얼굴 모델의 입술 윤곽선을 사용자가 지정해야 하는 문제점과, 모션 백터와 같은 기하학적인 계산에 의존해서 표정을 생성하기 때문에 결과 애니메이션에서 나타나는 표정들이 단조롭거나 실시간으로 생성하지 못하는 제약을 가지고 있다.Recently, a retargeting and cloning approach has been proposed to overcome these drawbacks by reusing existing animation data into new models. For example, Korean Patent No. 2003-0070578 (“Automatic Animation Method of 3D Scan Face Data”) simplifies the face model with the feature points of the geometric model extracted from the contour and texture information of the range scan data of the 3D face model. We propose a method of generating the resulting animation through post-motion vectors, but the animation of the resulting animation is generated because the user needs to specify the lip contour of the scanned input face model and relies on geometric calculations such as motion vectors. The facial expressions appearing in the constraints cannot be generated monotonically or in real time.

또한, 특2001-0091219호(표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법)는 페이스 추적수단으로 캡쳐되어진 3차원 얼굴 표정 데이터들로부터 행위 특성을 추출하고 추출되어진 행위 특성을 서로 다른 얼굴의 모델에 모션 백터를 통해 서로 다른 얼굴의 모델에 재적용하는 방법을 제안하고 있으나, 모션 백터와 같은 기하학적인 계산에 의존해서 표정을 생성하기 때문에 결과 애니메이션에서 나타나 는 표정들이 단조롭거나 실시간으로 생성하지 못하는 제약이 있다.In addition, Japanese Patent Application No. 2001-0091219 (a method of retargeting a sampled facial expression to a new face) extracts behavioral characteristics from three-dimensional facial expression data captured by a face tracking means, and extracts the extracted behavioral characteristics from different facial models. Although we propose a method of reapplying the models of different faces through motion vectors, but the expressions are generated based on geometric calculations such as motion vectors, the constraints that appear in the resulting animation cannot be monotonous or in real time. There is this.

따라서 본 발명의 목적은 상기한 종래 기술의 문제점들을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 기존의 애니메이션을 대상 모델에 재적용하기 위해 주어진 원본 애니메이션이 담고 있는 다양한 표정의 변화를 포착함과 동시에 대상 표정 모델이 지니는 특유의 표정까지도 잘 반영된 결과 애니메이션이 실시간으로 생성되는 방법을 제공하는데 있다. Accordingly, an object of the present invention is to solve the above-described problems of the prior art, and an object of the present invention is to capture various facial expression changes contained in a given original animation for reapplying an existing animation to a target model. It is to provide a method in which animations are generated in real time as a result of even the unique facial expressions of the target facial expression model.

한편, 본 발명의 다른 목적은 3차원 가상 캐릭터의 사실적인 표정 애니메이션을 제작함에 있어 기존에 이미 제작된 다른 캐릭터의 얼굴 표정 애니메이션을 효과적으로 재사용함으로써 3차원 애니메이션의 제작 시간을 단축할 수 있는 방법을 제공하는데 있다.On the other hand, another object of the present invention is to provide a method for reducing the production time of the three-dimensional animation by effectively reusing the facial expression animation of another character already produced in producing a realistic facial expression animation of the three-dimensional virtual character It is.

한편, 본 발명의 또 다른 목적은 표정 재적용시 대상 모델의 특성을 고려하기 힘든 모션 벡터의 수학적인 계산에 의존하지 않고, 사용자가 직관적으로 표정 연출에 사용할 수 있는 예제 표정 모델을 와이어 곡선으로 직접 조작하면서 블랜딩 기법을 통해 보다 만족스러운 결과 애니메이션을 생성할 수 있는 방법을 제공하는데 있다.Meanwhile, another object of the present invention is not to rely on mathematical calculation of a motion vector, which is difficult to consider the characteristics of the target model when reapplying facial expressions, and directly using a wire curve as an example facial expression model that the user can intuitively use for directing facial expressions. It provides a way to create more satisfactory result animation through blending technique while manipulating.

상기와 같은 목적을 달성하기 위한 본 발명의 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법은, 기존에 존재하는 얼굴 애니메이션을 새로운 모델에 재적용해서 새로운 애니메이션을 생성하는 방법에 있어서, 원본 표정 모델과 대상 표정 모델 사이에 대응 관계를 성립하는 제 1단계, 상기 원본 표정 모델과 대상 표정 모델에 대한 각각의 원본 예제 표정 모델과 대상 예제 표정 모델을 정의하는 제 2단계 및 상기 원본 예제 표정 모델로부터 추출한 가중치 값으로 대상 예제 표정 모델들을 블랜딩해서 새로운 표정을 만들어내는 제 3단계를 포함한다.Reapplying the three-dimensional face animation based on the wire curve and the example facial expression model of the present invention for achieving the above object, in the method for generating a new animation by reapplying existing facial animation to a new model A first step of establishing a corresponding relationship between the original facial expression model and the target facial expression model, a second step of defining each original sample facial expression model and a target sample facial expression model for the original facial expression model and the target facial expression model, and the original sample And a third step of blending the target example facial expression models with the weight values extracted from the facial expression model to create a new facial expression.

본 발명의 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법에 있어서, 제 1단계는 상기 원본 표정 모델에 특징점 지정하는 단계, 상기 원본 표정 모델의 특징점을 대상 표정 모델에 적용하여 대응되는 특정한 부분에 특징점을 지정하는 단계 및 상기 특징점들을 콘트롤 포인트로 사용하여 와이어 곡선들을 모델 표면에 지정하는 단계를 포함하고, 제 2 단계는 상기 원본 예제 표정 모델들을 생성하는 단계, 상기 원본 예제 표정 모델들과 원본 표정 모델 간에 변형 파라미터 값들을 추출하는 단계 및 상기 원본 표정 모델에 대응하는 상기 대상 표정 모델의 와이어 곡선에 상기 변형 파라미터 값들을 적용시켜서 대상 예제 표정 모델들을 생성하는 단계를 포함하며, 제 3 단계는 각 원본 예제 표정 모델들마다 가중치 함수를 미리 정의하는 단계, 원본 애니메이션에서 표정들이 매 프레임 마다 입력될 때 상기 가중치 함수를 통해서 가중치 값을 추출하는 단계 및 상기 가중치 값으로 대상 예제 표정 모델들을 블랜딩하여 새로운 표정을 생성하는 단계를 포함한다.In the method of reapplying the 3D facial animation based on the wire curve and the example facial expression model of the present invention, the first step includes assigning a feature point to the original facial expression model, and applying a feature point of the original facial expression model to a target facial expression model. Assigning a feature point to a specific portion of the object; and assigning wire curves to a model surface using the feature points as a control point, wherein the second step includes generating the original example facial expression models, and the original example facial expression model Extracting deformation parameter values between the first and second facial expression models, and applying the deformation parameter values to a wire curve of the target facial expression model corresponding to the original facial expression model to generate object example facial expression models. The step previews the weight function for each original example facial expression model. Defining, extracting a weight value through the weight function when expressions are input every frame in the original animation, and blending target example facial expression models with the weight value to generate a new facial expression.

특히, 본 발명에서는 표정 재적용시 대상 모델의 특성을 고려하기 힘든 모션 벡터의 수학적인 계산에 의존하지 않고, 사용자가 직관적으로 표정 연출에 사용할 수 있는 예제 표정 모델을 와이어 곡선으로 직접 조작하면서 블랜딩 기법을 통해 보다 만족스러운 결과 애니메이션을 생성한다. In particular, the present invention does not rely on the mathematical calculation of the motion vector difficult to consider the characteristics of the target model when reapplying facial expressions, while blending techniques while directly manipulating the example facial expression model that can be used for directing facial expressions by wire curves. Produces a more satisfactory result animation.

또한, 예제 표정 모델을 정의하는데 필요한 와이어 곡선의 변형 파라미터 값이나 예제 표정 모델들을 보간(interpolation)하는데 필요한 블랜딩 가중치 값들은 미리 계산되어 행렬 값으로 저장되어 있고, 이 가중치 값들을 새로운 표정을 만들 때 사용하여 실시간으로 결과 애니메이션을 생성한다.In addition, the wire curve deformation parameter values required to define the example facial expression model or blending weight values required to interpolate the sample facial expression models are precomputed and stored as matrix values, and these weight values are used to create a new facial expression. To generate the resulting animation in real time.

이하, 본 발명의 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, a method of reapplying 3D facial animation based on a wire curve and an example facial expression model of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 3차원 얼굴 애니메이션의 재적용 방법을 보여주는 흐름도를 나타낸 것으로, 원본 애니메이션(10)으로부터 대응관계 성립(S100), 예제 표정 모델 정의(S200), 표정 블랜딩(S300)의 세 단계의 과정을 거친 후 최종 결과 애니메이션(40)이 생성된다. 1 is a flowchart illustrating a method of reapplying a three-dimensional face animation according to the present invention, wherein the relationship between the original animation 10 is established (S100), the example expression model definition (S200), and the expression blending (S300). After the process of steps, the final result animation 40 is generated.

대응관계를 성립(S100)하는 제1단계에서는 원본과 대상 얼굴 모델 사이에 대응 관계를 주기 위해서 사용자가 와이어 곡선(Wire curve; 60)들을 모델 표면에 지정해주고, 예제 표정 모델을 정의(S200)하는 제2단계에서는 입력된 원본 애니메이션(10)을 샘플링(sampling) 작업을 통해서 원본 예제 표정 모델들(21)을 생성하고, 이 생성된 원본 예제 표정 모델들(21)과 원본 표정 모델(20) 간의 변형 파라미터(deformation parameter) 값들을 추출한 후, 이 변형 파라미터 값을 대상 표정 모델(30)의 와이어 곡선(60)에 적용시켜 대상 예제 표정 모델들(31)을 생성한다. 마지막으로 표정을 블랜딩(S300)하는 제3단계에서는 원본 애니메이션(10)에서 매 프레임(frame)마다 들어오는 표정들과 원본 예제 표정 모델들(21)로부터 블랜딩 가중치(blending weight) 값을 구한 뒤 이 가중치 값을 이용하여 대상 예제 표정 모델들(31)을 RBF(Radial Basis Function)으로 블랜딩해서 최종 결과 애니메이션(40)을 만들어낸다.In the first step of establishing a correspondence relationship (S100), a user designates wire curves 60 on the model surface and defines an example facial expression model (S200) in order to give a correspondence between the original and target face models. In the second step, original sample expression models 21 are generated by sampling the input original animation 10, and the original sample expression models 21 and the original expression model 20 are generated. After extracting the deformation parameter values, the deformation parameter values are applied to the wire curve 60 of the target facial expression model 30 to generate the target example facial expression models 31. Finally, in the third step of blending the facial expressions (S300), blending weights are obtained from the facial expressions coming from every frame in the original animation 10 and the original example facial expression models 21, and then the weights are obtained. Using the value, the target example facial expression models 31 are blended into a radial basis function (RBF) to produce the final result animation 40.

이에 본 발명의 각 단계에 대해 도 2 내지 도 6을 참조하여 보다 상세하게 설명하기로 한다.Therefore, each step of the present invention will be described in more detail with reference to FIGS. 2 to 6.

1. 대응 관계 성립 단계(S100)1. Establishment of the correspondence relationship (S100)

도 2는 원본 표정 모델(20)과 대상 표정 모델(30) 간의 대응 관계를 보여주 고 있다. 먼저 원본 모델 표면에 있는 정점(vertex)들 중에서 표정 변화에 중요한 역할을 하는 특징점(50)을 선택해 지정하고, 이에 대응되는 특징점(50)을 대상 표정 모델(30)에서도 선택한다. 특징점(50)은 주로 정점의 움직임이 많은 입술 주위나 눈썹, 턱, 이마, 볼등을 중심으로 선택하고, 모델의 지형적 복잡도에 따라 20~40개 정도 지정한다. 여기서 특징점(50)의 수는 나중에 얼굴 모델 변형(deformation)이나 블랜딩 기법의 정확도 및 시간에 영향을 미친다.2 illustrates a correspondence relationship between the original facial expression model 20 and the target facial expression model 30. First, among the vertices on the surface of the original model, a feature point 50 that plays an important role in facial expression change is selected and selected, and the corresponding feature point 50 is also selected in the target expression model 30. The feature point 50 is mainly selected around the lip, eyebrows, chin, forehead, cheeks, etc., where the movement of the vertices is large, and about 20 to 40 points are designated according to the geographical complexity of the model. The number of feature points 50 here will later affect the accuracy and time of face model deformation or blending techniques.

특정점(50)들 중에서 가까운 곳에서 비슷한 표정 변화를 적용받는 특징점(50)들은 와이어 곡선(60)의 콘트롤 포인터(control point)들이 될 수 있다. 예를 들어 도 2에서 두 표정 모델(20, 30)의 왼쪽 눈썹 표면에 지정된 3개의 특징점(50)들은 왼쪽 눈썹의 움직임을 제어하는 와이어 곡선을 이루는 콘트롤 포인터가 된다. The feature points 50 to which a similar facial expression change is applied in the vicinity of the specific points 50 may be control points of the wire curve 60. For example, in FIG. 2, the three feature points 50 designated on the left eyebrow surfaces of the two facial expression models 20 and 30 are control pointers forming a wire curve that controls the movement of the left eyebrow.

이렇게 콘트롤 포인터로 이루어진 와이어 곡선(60)을 얼굴 모델에 적용하기 위해서는 먼저 정점들이 표시된 표정 모델에 변형하고자 하는 부분에 참조 곡선(reference wire)을 설정한다. 이 설정된 참조 곡선을 움직이면 그 주변의 정점들에 변형이 일어나고, 참조 곡선 근처의 정점들은 그 거리에 따라서 곡선의 변형에 영향을 받는 정도가 달라진다. 즉, 참조 곡선에 가까운 정점들은 참조 곡선과 비슷한 정도로 변형하고, 먼 정점은 거의 변형하지 않는다. 이처럼 참조 곡선의 변형에 영향을 받는 정도가 비슷한 정점을 연결한 것이 와이어이다. 와이어에 관한 더 자세한 설명은 Karan Singh등이 1998년도 SIGGRAPH에서 발표한 “Wires: A Geometric Deformation Technique”라는 제목의 논문을 참조하면 자세히 알 수 있으므로 본 발명에서는 그 설명을 생략한다.In order to apply the wire curve 60 made of the control pointer to the face model, a reference wire is first set at a portion to be transformed in the facial expression model in which the vertices are displayed. Moving this set reference curve causes deformation at the vertices around it, and the vertices near the reference curve are affected by the deformation of the curve depending on the distance. That is, vertices close to the reference curve deform to a degree similar to the reference curve, and distant vertices hardly deform. Wires that connect vertices that are similarly affected by the deformation of the reference curve are similar. A more detailed description of the wire can be found in detail by referring to a paper entitled “Wires: A Geometric Deformation Technique” published by SIGGRAPH in 1998 by Karan Singh et al.

이와 같이 두 표정 모델(20, 30)의 얼굴 표면 위에 와이어 곡선(60)을 만들고, 두 표정 모델(20, 30) 간 대응하는 와이어 곡선(60)을 지정함으로써 원본 표정 모델(20)에 표정 변화가 있을 때마다 원본 와이어 곡선의 파라미터 값을 추출하고, 대응하는 대상 와이어 곡선의 콘트롤 포인터에 추출한 파라미터 값을 적용해서 대상 표정 모델(30)의 표정을 원본 표정 모델(20)과 같이 변화시킬 수 있게 된다.In this way, a wire curve 60 is formed on the face surfaces of the two facial expression models 20 and 30, and a facial expression change is made to the original facial expression model 20 by designating a corresponding wire curve 60 between the two facial expression models 20 and 30. Whenever there is a parameter value of the original wire curve is extracted, and the parameter value extracted from the control pointer of the corresponding target wire curve is applied so that the facial expression of the target facial expression model 30 can be changed like the original facial expression model 20. do.

2. 예제 표정 모델 정의 단계(S200)2. Example expression model definition step (S200)

최종 결과 애니메이션(40)의 표정은 대상 예제 표정 모델(31)들을 블랜딩함으로써 생성되기 때문에 그 전에 원본 표정 모델(20)과 대상 표정 모델(30)의 주요 표정을 나타내는 예제 표정(21, 31)들을 먼저 생성하여야 한다. 원본 표정 모델(20)에 대해 생성된 원본 예제 표정 모델(21)들은 나중에 대상 표정 모델(30)의 대상 예제 표정 모델(31)들을 생성하는데 필요한 와이어 곡선(60)의 파라미터 값과 블랜딩에 필요한 가중치 값을 계산하는데 쓰인다.Since the expression of the final result animation 40 is generated by blending the target example facial expression models 31, before the example facial expressions 21 and 31 representing the main facial expressions of the original facial expression model 20 and the target facial expression model 30 are generated. You must first create it. The original example facial expression models 21 generated for the original facial expression model 20 are weighted for blending and parameter values of the wire curve 60 required for later generation of the target facial expression models 31 of the target facial expression model 30. Used to calculate the value.

2-1. 원본 표정 모델(20)의 원본 예제 표정 모델(21) 생성 2-1. Create original example facial expression model (21) of original facial expression model (20)

주어진 원본 애니메이션(10)에서 표정 재적용에 필요한 중요 예제 표정(21) 들을 선택할 수 있다. 하지만 이럴 경우 사용자가 애니메이션의 모든 프레임을 보고 결정해야 하는 단점이 존재한다. 효율적으로 예제 표정들을 생성하기 위해서는 도 3에서와 같이 심리학에서 정의되어 있는 감정 공간 다이어그램(Emotion Space Diagram)을 참조하여 중요 표정들을 선택한 후, 그에 해당하는 예제 표정 모델(21)을 직접 생성하거나 대응관계 성립단계(S100)에서 사용자가 지정했던 특징점(50)의 움직임을 추적해서 변화가 큰 프레임을 원본 예제 표정 모델(21)로 선택할 수도 있다. In a given original animation 10, it is possible to select the important example facial expressions 21 necessary for reapplying facial expressions. However, in this case, there is a disadvantage in that the user needs to view and decide every frame of the animation. In order to efficiently generate example facial expressions, as shown in FIG. 3, important facial expressions are selected by referring to an emotion space diagram defined in psychology, and a corresponding example facial expression model 21 is directly generated or a corresponding relationship is generated. In the establishment step S100, a frame having a large change may be selected as the original example facial expression model 21 by tracking the movement of the feature point 50 designated by the user.

이렇게 선택된 원본 예제 표정 모델(21)들은 사용자가 지정한 베이스 모델(base model), 즉 원본 표정 모델(20)로부터 와이어 곡선(60)의 콘트롤 포인트를 조작하는데 필요한 변형 파라미터 값을 얻는데 사용된다. The selected original example facial expression models 21 are used to obtain deformation parameter values required for manipulating control points of the wire curve 60 from a user-specified base model, that is, the original facial expression model 20.

도 4는 원본 예제 표정 모델(21)들과 원본 표정 모델(베이스 모델; 20)로부터 추출한 와이어 곡선(60)의 변형 파라미터 값(ΔVsi: 원본 표정 모델과 i번째 원본 예제 표정 모델 간의 변형 파라미터 값)을 나타낸 것이다. 원본 표정 모델(베이스 모델; 20)과 예제 표정 모델(21) 간에 변형 파라미터 값(ΔVsi)을 추출하는 과정은 와이어 곡선(60)의 변형을 역으로 푸는 과정으로 M(M은 자연수)개의 와이어 곡선(60)과 예제 표정 모델(21)이 주어질 때 최소제곱최적화(least-squares minimization) 기법으로 베이스 모델(20)로부터 m(m은 자연수)개의 예제 표정 모델(21)로 변형시키는데 필요한 변형 파라미터 값들을 추출해 낼 수가 있다. 이러한 변형 파라미터 값을 추출하는 과정의 더 자세한 설명은 H. Pyun등이 2004년도 Computers and Graphics에서 발표한 “On Extracting Wire Curves from Multiple Face Models for Facial Animation”라는 제목의 논문을 참조하면 자세히 알 수 있으므로 본 발명에서는 그 설명을 생략한다.4 shows deformation parameter values (ΔVsi: deformation parameter values between the original facial expression model and the i-th original facial expression model) extracted from the original example facial expression models 21 and the original facial expression model (base model) 20. It is shown. The process of extracting the deformation parameter value ΔVsi between the original facial expression model (base model) 20 and the example facial expression model 21 is a process of inversely solving the deformation of the wire curve 60 and M (M is a natural number) wire curves. Given (60) and the example facial expression model (21), the deformation parameter values required to transform m (m is a natural number) from the base model (20) to the example facial expression model (21) by means of the least-squares minimization technique. You can extract them. A more detailed description of the process of extracting these deformation parameter values can be found in H. Pyun et al. In a paper entitled “On Extracting Wire Curves from Multiple Face Models for Facial Animation” published in 2004 by Computers and Graphics. In the present invention, the description is omitted.

2-2. 대상 표정 모델(30)의 대상 예제 표정 모델(31) 생성2-2. Generation of the target example facial expression model 31 of the target facial expression model 30

도 5는 추출한 원본 와이어 곡선(60)의 변형 파라미터 값(ΔVsi: 원본 표정 모델과 i번째 원본 예제 표정 모델 간의 변형 파라미터 값)을 대상 표정 모델(30)의 와이어 곡선(60)의 콘트롤 포인터에 적용시켜 생성한 대상 예제 표정 모델(31)들을 나타낸 것으로, 상기 원본 예제 표정 모델(21)들에서 추출된 변형 파라미터 값(ΔVsi)은 도 5와 같이 대상 표정 모델(베이스 모델; 30)에 있는 와이어 곡선(60)의 콘트롤 포인터에 적용되어 각 원본 예제 표정 모델(21)에 대응되는 대상 예제 표정 모델(31)을 생성한다. FIG. 5 applies the deformation parameter value (ΔVsi: deformation parameter value between the original facial expression model and the i-th original example facial expression model) of the extracted original wire curve 60 to the control pointer of the wire curve 60 of the target facial expression model 30. The example facial expression models 31 generated by using the above-described example are shown. The deformation parameter value ΔVsi extracted from the original example facial expression models 21 is a wire curve in the target facial expression model (base model) 30 as shown in FIG. 5. The target example facial expression model 31 corresponding to each original sample facial expression model 21 is generated by being applied to the control pointer of 60.

이렇게 생성된 대상 예제 표정 모델(31)들은 다음 단계인 표정 블랜딩 단계(S300)에서 결과 애니메이션(40)으로 블랜딩 되는데 사용된다. 특히, 표정 블랜딩 단계(S300)에서 사용자가 특정 표정을 결과 애니메이션(40)에서 강조하고 싶을 경우 해당하는 대상 예제 표정 모델(31)의 표면에 있는 와이어 곡선(60)의 콘트롤 포인터에 곱해지는 가중치 값을 임의로 조정해서 원하는 표정의 연출도 가능하다.The object example facial expression models 31 generated as described above are used for blending into the result animation 40 in the facial blending step S300 which is the next step. In particular, in the facial expression blending step (S300), when the user wants to emphasize a specific facial expression in the result animation 40, the weight value is multiplied by the control pointer of the wire curve 60 on the surface of the corresponding target example facial expression model 31. You can also adjust the look of your choice.

3. 표정 블랜딩 단계(S300)3. Expression blending step (S300)

본 발명의 표정 블랜딩 단계(S300)에서는 전 단계(S200)에서 생성된 대상 예제 표정 모델(31)들을 원본 예제 표정 모델(21)들에서 구한 가중치 값만큼 블랜딩 시켜서 새로운 얼굴 표정을 생성한다. In the facial expression blending step S300 of the present invention, a new facial expression is generated by blending the target example facial expression models 31 generated in the previous step S200 by the weight values obtained from the original facial expression models 21.

3-1. 가중치 값의 추출3-1. Extraction of Weighted Values

블랜딩 기법으로 새로운 표정을 생성하기 위해선 각 원본 예제 표정 모델(21)이 블랜딩 된 새로운 표정에 미치는 영향을 알아내야 한다. 따라서 본 발명에서는 이 영향을 대상 예제 표정 모델(31)에 곱해지는 가중치 값으로 정의하고, 이 가중치 값은 원본 예제 표정 모델(21)마다 미리 정의된 가중치 함수를 통해서 구해진다. In order to create a new facial expression by blending technique, it is necessary to find out the effect of each original example facial expression model 21 on the new blended facial expression. Therefore, in the present invention, the influence is defined as a weight value multiplied by the target example facial expression model 31, and the weight value is obtained through a weight function predefined for each original example facial expression model 21.

도 6은 미리 정의된 가중치 함수를 이용해서 원본 예제 대상 모델(21)들로부터 가중치 값을 구하여 대상 예제 표정 모델(31)들을 블랜딩 시킴으로써 새로운 표정(Voi: i번째 입력된 원본 예제 표정 모델에 대한 결과 애니메이션)을 생성하는 것을 나타낸 것으로, 도 6에서와 같이 원본 애니메이션(10)으로부터 매 프레임마다 새로운 표정(ΔVi)이 들어오면, 각 원본 예제 표정 모델(21)들에 미리 정의 되어 있는 가중치 함수를 통해서 새로운 표정(Voi = w1*Vt1 + w2*Vt2 + … + wi*Vti, 여기서 Vti는 i번째 대상 예제 표정 모델, wi는 i번째 예제 표정 모델의 가중치 값)을 생성하는데 필요한 가중치 값(w1, w2, . . ., wi)을 구할 수 있다. 그런 다음, 각 대상 예제 표정 모델(31)은 대응되는 원본 예제 표정 모델(21)로부터 가중치 값(w1, w2, . . ., wi)을 넘겨받은 후 표정 블랜딩을 통해서 새로운 표정(Voi)으로 생성된다.FIG. 6 illustrates a result of a new facial expression (Voi: i-th input original example facial expression model by blending the target facial expression models 31 by obtaining weight values from the original sample target models 21 using a predefined weighting function. Animation), and as shown in FIG. 6, when a new facial expression ΔVi comes in every frame from the original animation 10, a weight function predefined in each original example facial expression model 21 is used. Weight values (w1, w2) needed to create a new expression (Voi = w1 * Vt1 + w2 * Vt2 +… + wi * Vti, where Vti is the weight value of the i th target example facial expression model and wi is the weight value of the i th example facial expression model. , wi ... can be saved. Then, each target example facial expression model 31 receives a weight value (w1, w2,..., Wi) from the corresponding original example facial expression model 21 and generates a new facial expression (Voi) through facial blending. do.

여기서 표정 블랜딩에 쓰이는 가중치 값들은 새로운 표정이 들어올 때마다 재계산 되어야 하지만, 본 발명에서는 각 표정 모델마다 미리 정의된 가중치 함수를 사용하기 때문에 가중치 함수의 전처리 과정만 거친 후 새로운 표정의 실시간 처리가 가능하다. 본 발명에서 사용하는 가중치 함수는 P. P. Sloan 등이 2001년도 Syposium on Interactive 3D Graphics에서 발표한 “Shape by Example”라는 제목의 논문에서 정의한 기수 기반 함수(cardinal basis function)로 이루어진다. 이 기수 기반 함수(cardinal basis function)는 m차원의 공간에서 예제 표정들의 가중치 값을 대략적이지만 전체적인 선형(linear) 그래프 모양으로 정의하는 선형 기반 함수(linear-basis function)와 이 선형 그래프에 나머지(residue)를 더해 곡선 그래프 모양으로 정의하여 더 정확한 값을 측정해 내는 곡선 기반 함수(radial basis function)로 이루어져 있다. 즉, 선형 기반 함수(linear basis function)에서 얻은 전체적인 가중치 값을 이용하여 새로운 표정을 생성하고, 곡선 기반 함수(radial basis function)로 얻은 세밀한 가중치 값을 이용하여 상기 대상 예제 표정 모델의 표정 변화에 따른 특징점의 움직임을 생성하여 세밀한 표정 변화를 블랜딩할 수 있다. 이와 같이 상술한 2 종류의 가중치 함수를 이용한 블랜딩 기법을 통해서 원본 애니메이션(10)의 표정들을 좀 더 정확하게 결과 애니메이션(40)의 표정으로 생성 하는 것이 가능하다.Here, the weight values used for facial expression blending should be recalculated every time a new facial expression comes in. However, the present invention uses a predefined weighting function for each facial expression model. Do. The weight function used in the present invention consists of a cardinal basis function defined by P. P. Sloan et al. In a paper entitled “Shape by Example” published by Syposium on Interactive 3D Graphics in 2001. This cardinal basis function is a linear-basis function that defines the approximate but overall linear graph shape of the weights of the example expressions in the m-dimensional space and the rest of the linear graph. ), Which consists of a curve-based function that defines a curve graph shape to measure more accurate values. That is, a new facial expression is generated by using the overall weight value obtained from the linear basis function, and the detailed expression of the facial expression of the example facial expression model using the detailed weight value obtained by the radial basis function. The movement of the feature point can be generated to blend minute expression changes. As described above, it is possible to more accurately generate the expressions of the original animation 10 as the expressions of the result animation 40 through the blending technique using the above-described two kinds of weight functions.

3-2. 블랜딩3-2. Blending

원본 애니메이션(10)으로부터 입력된 표정의 결과 애니메이션(40)의 새로운 표정은 각 대상 예제 표정 모델(31)과 가중치 값을 곱한 뒤 하나의 표정으로 더해서 새로운 표정(Voi)이 생성된다(Voi = w1*Vt1 + w2*Vt2 + … + wi*Vti). 이 때 가중치 값의 오차로 인한 결과 애니메이션(40)의 표정에 나타나는 일그러짐을 방지하기 위해서 가중치 값에 곱해지는 각 대상 예제 표정 모델(31)은 대상 표정 모델(베이스 모델; 30)과의 특징점 차이 값만을 고려한다. As a result of the facial expression inputted from the original animation 10, the new facial expression of the animation 40 is multiplied by the weight values of each target example facial expression model 31, and added as one facial expression to generate a new facial expression Voi (Voi = w1). * Vt1 + w2 * Vt2 +… + wi * Vti). At this time, each target example facial expression model 31, which is multiplied by the weight value, has a feature point difference value with the target facial expression model (base model; 30) in order to prevent distortion in the facial expression of the resulting animation 40 due to the weight value error. Consider only.

따라서 원본 애니메이션(10)에서 들어온 표정이 대상 예제 표정 모델(31)들과 표정 차이가 심해서 단순 블랜딩만으로는 결과 애니메이션(40)의 표정을 생성하기 힘들 때, 본 발명에 따른 가중치 값을 이용한 표정 블랜딩 기법을 통해서 대상 예제 표정 모델(31)을 블랜딩함으로써 원본 애니메이션(10)에서 들어온 표정과 최대한 가까운 결과 애니메이션(40)의 표정을 생성해 낼 수가 있다. 또한, 사용자가 입력되는 표정을 보고 대응되는 대상 표정을 포함시켜 주면 원본 애니메이션(10)에 보다 가까운 정확한 결과 애니메이션(40)을 생성해 낼 수 있다.Therefore, when the facial expressions coming from the original animation 10 are severely different from the facial expression examples 31 with the target example facial expression models, it is difficult to generate the facial expressions of the resulting animation 40 only by simple blending. By blending the target example facial expression model 31 through, it is possible to generate the facial expression of the result animation 40 as close as possible to the facial expression coming from the original animation 10. In addition, when the user sees the input facial expression and includes the corresponding target facial expression, an accurate result animation 40 closer to the original animation 10 can be generated.

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어 나지 않는 범위 내에서 다양하게 변형실시될 수 있다.Although the present invention has been described in more detail with reference to some embodiments, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention.

상술한 바와 같이, 본 발명에 의한 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법은, 기존의 모션 벡터 기반의 얼굴 애니메이션 재적용 방법에서 고려하기 힘들었던 대상 표정 모델의 특성을 사용자의 의도대로 결과 애니메이션에 반영하면서 원본 애니메이션을 새로운 모델에 실시간으로 재적용시킴으로써, 3차원 가상 캐릭터의 사실적인 표정 애니메이션을 제작함에 있어 기존에 이미 제작된 다른 캐릭터의 얼굴 표정 애니메이션을 효과적으로 재사용할 수 있어 새로운 애니메이션의 제작 시간을 단축하는데 기여할 수 있으며, 또한, 얼굴 애니메이션 이외에 캐리턱의 동작 애니메이션에도 활용이 가능하다.As described above, the method of reapplying the 3D facial animation based on the wire curve and the example facial expression model according to the present invention includes the characteristics of the target facial expression model, which is difficult to consider in the conventional motion vector based reapplying method. By re-applying the original animation to the new model in real time, reflecting it in the resulting animation as intended, it is possible to effectively reuse facial expression animations of other characters that have already been produced in producing realistic facial expression animations of 3D virtual characters. It can contribute to shortening the production time of the animation, and can also be used for the motion animation of the carrytuck in addition to the facial animation.

Claims (10)

기존에 존재하는 얼굴 애니메이션을 새로운 모델에 재적용하여 새로운 애니메이션을 생성하는 방법에 있어서, In a method of generating a new animation by reapplying an existing face animation to a new model, 원본 표정 모델과 대상 표정 모델 사이에 대응 관계를 성립하는 제 1단계; A first step of establishing a corresponding relationship between the original facial expression model and the target facial expression model; 상기 원본 표정 모델과 대상 표정 모델에 대한 각각의 원본 예제 표정 모델과 대상 예제 표정 모델을 정의하는 제 2단계; 및 A second step of defining each original example facial expression model and a target example facial expression model for the original facial expression model and the target facial expression model; And 상기 원본 예제 표정 모델로부터 추출한 가중치 값으로 상기 대상 예제 표정 모델들을 블랜딩하여 새로운 표정을 만들어내는 제 3단계A third step of blending the target example facial expression models with a weight value extracted from the original sample facial expression model to create a new facial expression 를 포함하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법.Reapply method of 3D facial animation based on a wire curve and an example facial expression model comprising a. 제 1항에 있어서, 상기 제 1단계는,The method of claim 1, wherein the first step, 상기 원본 표정 모델의 표면에 특징점을 지정하는 단계;Designating a feature point on a surface of the original facial expression model; 상기 특징점을 대상 표정 모델에 적용하여 상기 원본 표정 모델과 대응되는 특정한 부분에 특징점을 지정하는 단계; 및 Assigning the feature point to a specific portion corresponding to the original expression model by applying the feature point to a target expression model; And 상기 두 표정 모델의 특징점을 콘트롤 포인트로 사용하여 상기 두 표정 모델의 표면에 와이어 곡선들을 지정하는 단계Designating wire curves to surfaces of the two facial expression models using the feature points of the two facial expression models as control points 를 포함하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3 차원 얼굴 애니메이션의 재적용 방법.Reapply method of 3D facial animation based on a wire curve and an example facial expression model comprising a. 제 1항에 있어서, 상기 제 2단계는, The method of claim 1, wherein the second step, 상기 원본 표정 모델에 대한 원본 예제 표정 모델들을 생성하는 단계; Generating original example facial expression models for the original facial expression model; 상기 원본 예제 표정 모델들과 상기 원본 표정 모델 간에 변형 파라미터 값들을 추출하는 단계; 및Extracting deformation parameter values between the original example facial expression models and the original facial expression model; And 상기 원본 표정 모델에 대응하는 상기 대상 표정 모델의 와이어 곡선에 상기 변형 파라미터 값들을 적용시켜서 상기 대상 예제 표정 모델들을 생성하는 단계Generating the target example facial expression models by applying the deformation parameter values to a wire curve of the target facial expression model corresponding to the original facial expression model 를 포함하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법. Reapply method of 3D facial animation based on a wire curve and an example facial expression model comprising a. 제 1항에 있어서, 상기 제 3단계는, The method of claim 1, wherein the third step, 각 원본 예제 표정 모델들마다 가중치 함수를 미리 정의하는 단계; Defining a weighting function in advance for each original example facial expression model; 상기 원본 애니메이션에서 표정들이 매 프레임마다 입력될 때 상기 가중치 함수를 통해서 가중치 값을 추출하는 단계; 및Extracting a weight value through the weight function when facial expressions are input every frame in the original animation; And 상기 가중치 값으로 상기 대상 예제 표정 모델들을 블랜딩하여 새로운 표정을 생성하는 단계Generating a new facial expression by blending the target example facial expression models with the weight value 를 포함하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3 차원 얼굴 애니메이션의 재적용 방법.Reapply method of 3D facial animation based on a wire curve and an example facial expression model comprising a. 제 3항에 있어서, 상기 원본 예제 표정 모델의 생성은,The method of claim 3, wherein the generation of the original example facial expression model, 감정 공간 다이어그램(Emotion Space Diagram)을 참조하여 표정들을 선택해서 직접 생성하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법.A method of reapplying three-dimensional face animation based on a wire curve and an example facial model, characterized by generating facial expressions by selecting facial expressions with reference to an emotion space diagram. 제 3항에 있어서, 상기 원본 예제 표정 모델의 생성은,The method of claim 3, wherein the generation of the original example facial expression model, 입력되는 원본 애니메이션을 샘플링하여 상기 제 1단계에서 지정된 특징점의 움직임을 추적하여 변화가 큰 프레임을 원본 예제 표정 모델로 지정하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법.Reapply the 3D face animation based on the wire curve and the example facial expression model, by sampling the input original animation and tracking the movement of the feature points specified in the first step to designate a large change frame as the original facial expression model. Way. 제 3항에 있어서, 상기 변형 파라미터 값의 추출은,The method of claim 3, wherein the extraction of the deformation parameter value, 상기 원본 표정 모델과 원본 예제 표정 모델 간에 와이어 곡선의 콘트롤 포인터의 모션 벡터를 통해서 변형 파라미터 값들을 추출하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법.Reapplying a three-dimensional face animation based on the wire curve and the example facial expression model, characterized in that the deformation parameter values are extracted through the motion vector of the control pointer of the wire curve between the original facial expression model and the original facial expression model. 제 4항에 있어서, 상기 원본 예제 표정 모델에 미리 정의된 가중치 함수는,The weight function defined in claim 4, wherein 전체적인 가중치 값을 얻을 수 있는 선형 기반 함수(linear basis function)와, 세밀한 가중치 값을 얻을 수 있는 곡선 기반 함수(radial basis function)로 이루어진 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법.3-D facial animation based on a wire curve and an example facial expression model comprising a linear basis function to obtain an overall weight value and a radial basis function to obtain a detailed weight value Reapply method. 제 4항에 있어서, 상기 블랜딩하여 새로운 표정을 생성하는 단계에 있어서,The method of claim 4, wherein the blending generates a new facial expression. 상기 새로운 표정은 각 대상 예제 표정 모델과 상기 원본 예제 표정 모델로부터 추출된 가중치 값을 곱한 뒤 하나의 표정으로 더해서 생성되는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법.The new facial expression is reapplied to a three-dimensional facial animation based on a wire curve and an example facial expression model, characterized in that the product is generated by multiplying each target example facial expression model by the weighted value extracted from the original facial expression model and adding them as one facial expression. . 제 9항에 있어서, The method of claim 9, 상기 가중치 값의 오차로 인해 생기는 상기 새로운 표정의 일그러짐은 상기 가중치 값에 곱해지는 상기 대상 예제 표정 모델과 상기 대상 표정 모델과의 특징점의 움직임 차이 값만을 고려하여 방지하는 것을 특징으로 하는 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴 애니메이션의 재적용 방법. The distortion of the new facial expression caused by the error of the weight value is prevented by considering only the movement difference value of the feature point between the target example facial expression model and the target facial expression model multiplied by the weight value. Reapplying 3D face animation based on facial expression model.
KR1020060075333A 2005-12-08 2006-08-09 A Method of Retargeting A Facial Animation Based on Wire Curves And Example Expression Models KR100792704B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050119836 2005-12-08
KR20050119836 2005-12-08

Publications (2)

Publication Number Publication Date
KR20070061252A true KR20070061252A (en) 2007-06-13
KR100792704B1 KR100792704B1 (en) 2008-01-08

Family

ID=38357189

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060075333A KR100792704B1 (en) 2005-12-08 2006-08-09 A Method of Retargeting A Facial Animation Based on Wire Curves And Example Expression Models

Country Status (1)

Country Link
KR (1) KR100792704B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101148101B1 (en) * 2009-01-30 2012-05-22 서강대학교산학협력단 Method for retargeting expression
KR20180078115A (en) * 2016-12-29 2018-07-09 삼성전자주식회사 Method and apparatus for processing image
US11688105B2 (en) 2016-12-29 2023-06-27 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100544684B1 (en) * 2004-05-12 2006-01-23 한국과학기술원 A feature-based approach to facial expression cloning method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101148101B1 (en) * 2009-01-30 2012-05-22 서강대학교산학협력단 Method for retargeting expression
KR20180078115A (en) * 2016-12-29 2018-07-09 삼성전자주식회사 Method and apparatus for processing image
US11688105B2 (en) 2016-12-29 2023-06-27 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus

Also Published As

Publication number Publication date
KR100792704B1 (en) 2008-01-08

Similar Documents

Publication Publication Date Title
KR101819535B1 (en) Method and apparatus for expressing rigid area based on expression control points
US6147692A (en) Method and apparatus for controlling transformation of two and three-dimensional images
Pyun et al. An example-based approach for facial expression cloning
Choe et al. Analysis and synthesis of facial expressions with hand-generated muscle actuation basis
CN113272870A (en) System and method for realistic real-time portrait animation
US7872654B2 (en) Animating hair using pose controllers
US9129434B2 (en) Method and system for 3D surface deformation fitting
KR100900823B1 (en) An efficient real-time skin wrinkle rendering method and apparatus in character animation
JP2009104570A (en) Data structure for image formation and method of forming image
JP4842242B2 (en) Method and apparatus for real-time expression of skin wrinkles during character animation
Zhang et al. Styleavatar3d: Leveraging image-text diffusion models for high-fidelity 3d avatar generation
JP3753625B2 (en) Expression animation generation apparatus and expression animation generation method
KR100792704B1 (en) A Method of Retargeting A Facial Animation Based on Wire Curves And Example Expression Models
Mattos et al. 3D linear facial animation based on real data
KR101780496B1 (en) Method for producing 3D digital actor image based on character modelling by computer graphic tool
US7477253B2 (en) Storage medium storing animation image generating program
US8228335B1 (en) Snapsheet animation visualization
JP2739447B2 (en) 3D image generator capable of expressing wrinkles
Li et al. Animating cartoon faces by multi‐view drawings
Tejera et al. Space-time editing of 3d video sequences
Park et al. A feature‐based approach to facial expression cloning
US8077183B1 (en) Stepmode animation visualization
Laishram et al. High-Quality Face Caricature via Style Translation
Wang et al. Uncouple generative adversarial networks for transferring stylized portraits to realistic faces
WO2009030636A1 (en) Method and system for synthesis of non-primary facial expressions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110104

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20111208

Year of fee payment: 20