KR20120137826A - Retargeting method for characteristic facial and recording medium for the same - Google Patents

Retargeting method for characteristic facial and recording medium for the same Download PDF

Info

Publication number
KR20120137826A
KR20120137826A KR1020110056907A KR20110056907A KR20120137826A KR 20120137826 A KR20120137826 A KR 20120137826A KR 1020110056907 A KR1020110056907 A KR 1020110056907A KR 20110056907 A KR20110056907 A KR 20110056907A KR 20120137826 A KR20120137826 A KR 20120137826A
Authority
KR
South Korea
Prior art keywords
animation
facial
rbf
kcca
retargeting
Prior art date
Application number
KR1020110056907A
Other languages
Korean (ko)
Other versions
KR101261737B1 (en
Inventor
노준용
송재원
최병국
설영호
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020110056907A priority Critical patent/KR101261737B1/en
Publication of KR20120137826A publication Critical patent/KR20120137826A/en
Application granted granted Critical
Publication of KR101261737B1 publication Critical patent/KR101261737B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Abstract

PURPOSE: A face animation retargeting method and recording medium for the same are provided to obtain natural expression corresponding to the expression of source animation by similar target model by combination of an RBF based recursive training result and a kCCA based recursive training result. CONSTITUTION: A system inputs a source animation. The system sets up an expression pair range between the source animation and a target animation(S210). The system performs RBF(Radial Basis Function)-based analysis training about predetermined expression pair range(S220). The system performs kCCA(kernel Canonical Correlation Analysis)-based regression training about the predetermined expression pair range(S230). The system combines an RBF-based analysis training result and a kCCA-based analysis training result by blending parameters. The system generates the target animation expression(S240). [Reference numerals] (S210) Expression pair range setup; (S220) RBF training; (S230) KCCA based return; (S240) Final retargeting

Description

얼굴 애니메이션 리타게팅 방법 및 이를 위한 기록 매체{Retargeting method for characteristic facial and recording medium for the same}Retargeting method for characteristic facial and recording medium for the same}

본 발명은 얼굴 애니메이션 리타게팅 방법, 장치 및 시스템, 이를 위한 기록 매체에 관한 것으로 특히, 대상 캐릭터의 얼굴이 기준 캐릭터와 매우 상이한 경우에도 자연스러운 얼굴이 되도록 할 수 있는 얼굴 애니메이션 리타게팅 방법, 장치 및 시스템, 이를 위한 기록 매체에 관한 것이다.The present invention relates to a method, apparatus and system for retargeting facial animation, and more particularly to a recording medium therefor. In particular, the present invention relates to a method, apparatus and system for facial animation retargeting that can be a natural face even when a face of a target character is very different from a reference character. The present invention relates to a recording medium for this purpose.

인간의 커뮤니케이션(communication) 방법에는 여러 가지 방법이 있으나 그중 중요한 한 가지 방법으로 얼굴 표정이 있다. 그리고 이러한 얼굴 표정을 이용한 커뮤니케이션 방법은 영화나 애니메이션에 등장하는 디지털 캐릭터에 대해서도 동일하게 적용된다. 즉 관람객은 캐릭터의 얼굴 표정으로부터 많은 정보를 전달받으므로, 자연스럽지 않은 표정의 캐릭터는 영화나 애니메이션의 품질을 크게 떨어뜨린다. 따라서 양질의 얼굴 표정을 갖는 애니메이션을 생성하여, 신뢰성이 있고, 매력적인 캐릭터를 창조하는 것이 가상의 캐릭터가 나오는 영화나 애니메이션을 만들 때 가장 중요한 요인으로 볼 수 있다.There are many ways of human communication, but one important way is facial expression. In addition, the communication method using the facial expression is similarly applied to the digital characters appearing in movies or animations. In other words, because the viewer receives a lot of information from the facial expression of the character, the character of the unnatural look greatly degrades the quality of the movie or animation. Therefore, creating an animation with a good facial expression and creating a reliable and attractive character is the most important factor when making a movie or animation in which a virtual character appears.

얼굴 모션 캡쳐 및 리타게팅(Facial Motion Capture & Retargeting) 기법은 얼굴 애니메이션을 효율적으로 생성하기 위한 기술로서, 얼굴 모션 캡쳐 기법은 실제 사람의 얼굴 표정이나 미세한 몸동작의 특징들을 컴퓨터를 이용해 수치화하여 가상 캐릭터로의 적용을 가능하게 하는 기법이다. 즉, 얼굴 모션 캡쳐 기법은 사람마다 지닌 제 각각의 스타일, 분위기, 감정 상태, 무게감, 물리적 특성 등 동작을 사실적으로 보이게 만드는 중요한 요소들이 캡쳐 된 동작 데이터에 포함되어, 애니메이션 작업의 효율성과 생산성을 높일 수 있는 기술이다.Facial Motion Capture & Retargeting is a technique for creating facial animation efficiently. Facial motion capture is a computerized feature that quantifies the features of real human facial expressions and fine gestures. It is a technique that enables the application of. In other words, the face motion capture technique includes important elements that make the motion look realistic such as each person's own style, mood, emotional state, weight, physical characteristics, etc., to increase the efficiency and productivity of animation work. It is a technology that can.

그리고 얼굴 모션 리타게팅 기법은 모션 캡쳐 된 얼굴 표정 모션 데이터를 또 다른 가상의 비인간 캐릭터에 이식하여 애니메이션을 생성하는 기법이다. 최근 영화나 애니메이션에 등장하는 캐릭터와 같이 가상의 생물체나 동물 등을 의인화하여 얼굴 표정을 연출하고자 할 때, 직접적으로 모션 캡쳐 데이터를 얻을 수 없기 때문에 얼굴 모션 리타게팅 기법을 적용하여 얼굴 애니메이션을 생성한다.The face motion retargeting technique is a technique for generating animation by transplanting motion captured facial expression motion data into another virtual non-human character. When a person wants to create a facial expression by anthropomorphizing a virtual creature or animal like a character in a recent movie or an animation, since motion capture data cannot be obtained directly, face motion retargeting technique is applied to create a face animation. .

그러나 기존의 얼굴 모션 리타게팅(facial motion retargeting) 기법은 높은 정밀도로 현실적인 얼굴의 움직임을 재현하는데 주력하였다. 즉 얼굴 모션 캡쳐에 의해 생성된 기준 얼굴 모션을 실제 사람의 얼굴과 유사한 캐릭터의 표정으로 재현하는데 목적을 두고 있다. 이러한 기존의 얼굴 모션 리타게팅 기법은 애니메이션으로 재현되어야할 대상 캐릭터가 실제 사람의 얼굴과 유사한 경우에는 효과적일 수 있으나, 만화 스타일의 과장된 캐릭터나 사람이 아닌 의인화된 캐릭터의 얼굴에는 적합하지 않다. 또한 기존의 얼굴 모션 리타게팅 기법은 모션의 타이밍이 만화 스타일의 과장된 캐릭터나 사람이 아닌 의인화된 캐릭터의 독특한 개성을 표현하기에는 너무 사실적(realistic)이라는 문제가 있다.However, conventional facial motion retargeting techniques focused on reproducing realistic facial movements with high precision. That is, the aim is to reproduce the reference face motion generated by the face motion capture with the expression of a character similar to the face of a real person. This conventional face motion retargeting technique may be effective when the target character to be reproduced with the animation is similar to the face of a real person, but is not suitable for the face of a cartoon-style exaggerated character or a person who is not a person. In addition, the conventional face motion retargeting technique has a problem that the timing of the motion is too realistic to express the unique personality of a cartoon-style exaggerated character or anthropomorphized character.

이에 과장된 캐릭터나 사람이 아닌 의인화된 캐릭터의 얼굴 표정을 높은 품질로 영화나 애니메이션에 적용하기 위해서는 여전히 수작업에 의존하고 있는 실정이다.Therefore, in order to apply the facial expressions of an exaggerated character or anthropomorphic character rather than a person to a movie or animation with high quality, it still depends on manual labor.

본 발명의 목적은 실제 사람 얼굴과 차이가 있는 캐릭터의 개성적인 얼굴 표정을 자동으로 생성할 수 있는 얼굴 애니메이션 리타게팅 방법을 제공하는데 있다.An object of the present invention is to provide a facial animation retargeting method that can automatically generate a personal facial expression of a character that is different from the actual human face.

상기 목적을 달성하기 위한 얼굴 애니메이션 리타게팅 방법은 입력 데이터인 소스 애니메이션이 입력되는 단계, 소스 애니메이션과 타겟 애니메이션 사이에 표정 쌍 범위가 설정되는 단계, 상기 설정된 표정 쌍 범위에 대해 RBF(Radial Basis Function) 기반 분석 트레이닝이 수행되는 단계, 상기 설정된 표정 쌍 범위에 대해 kCCA(Kernel Canonical Correlation Analysis) 기반 회귀 트레이닝이 수행되는 단계, 및 상기 RBF 기반 회귀 트레이닝 결과 및 kCCA 기반 회귀 트레이닝 결과가 사용자에 의해 지정된 블렌딩 파라미터에 의해 조합되어 상기 소스 애니메이션의 표정에 대응하는 상기 타겟 애니메이션의 표정을 생성하는 최종 리타게팅 단계를 구비한다.The facial animation retargeting method for achieving the above object includes inputting a source animation as input data, setting a range of facial expression pairs between the source animation and a target animation, and a radial basis function (RBF) for the set facial expression range. A step of performing based analysis training, a step of performing Kernel Canonical Correlation Analysis (kCCA) based regression training for the set facial expression pair range, and a blending parameter in which the RBF based regression training result and the kCCA based regression training result are designated by a user And a final retargeting step that is combined by to generate an expression of the target animation corresponding to the expression of the source animation.

상기 목적을 달성하기 위한 소스 애니메이션이 입력되는 단계는 미리 캡쳐되어 적절하게 리타게팅된 인체 모델의 블렌드쉐이프(blendshapes)가 상기 입력 데이터로서 인가되는 것을 특징으로 한다.The step of inputting a source animation for achieving the above object is characterized in that a blendshape of a pre-captured and properly retargeted human body model is applied as the input data.

상기 목적을 달성하기 위한 표정 쌍 범위가 설정되는 단계는 애니메이터에 의해 소스 애니메이션과 타겟 애니메이션이 의미적으로 동일한 얼굴 표정을 갖는 구간이 상기 표정 쌍 범위로 설정되는 단계, 및 상기 표정 쌍 범위가 행렬식으로 변환되는 단계를 구비하는 것을 특징으로 한다.The setting of the expression pair range for achieving the above object may include setting, by an animator, a section in which a source animation and a target animation have semantically identical facial expressions as the expression pair range, and the expression pair range as a determinant. Characterized in that the step of converting.

상기 목적을 달성하기 위한 RBF 기반 회귀 트레이닝이 수행되는 단계는 RBF 가중치가 계산되는 단계, 및 상기 RBF 가중치를 이용하여 RBF 출력 벡터가 계산되는 단계를 구비하는 것을 특징으로 한다.The step of performing RBF based regression training to achieve the above object is characterized in that it comprises the step of calculating the RBF weight, and the RBF output vector using the RBF weight.

상기 목적을 달성하기 위한 kCCA 기반 회귀 트레이닝 단계는 상기 소스 애니메이션의 표정 행렬(S)과 상기 타겟 애니메이션의 표정 행렬(T)을 이용하여 상관 계수(correlation coefficient)(ρ)가 계산되는 단계, 표준 선형 회귀를 이용하여 최소 자승 판별값에서 에러가 최소화되도록 리타게팅 모델이 생성되는 단계, 생성된 리타게팅 모델로부터 kCCA 선형 연산자(MkCCA)가 계산되는 단계, 및 상기 kCCA 선형 연산자(MkCCA)와 커널 함수를 이용하여 획득되는 커널화된 벡터(

Figure pat00001
)를 이용하여 kCCA 출력 벡터가 계산되는 단계를 구비하는 것을 특징으로 한다.KCCA-based regression training step to achieve the object is a step of calculating a correlation coefficient (ρ) by using the expression matrix (S) of the source animation and the expression matrix (T) of the target animation, standard linear Generating a retargeting model to minimize errors in the least squares determination using regression, calculating a kCCA linear operator (M kCCA ) from the generated retargeting model, and the kCCA linear operator (M kCCA ) and the kernel Kernelized vectors obtained using functions
Figure pat00001
Is calculated using the kCCA output vector.

상기 목적을 달성하기 위한 얼굴 애니메이션 리타게팅 방법은 상기 타겟 애니메이션에 대해 모션 와핑이 수행되는 단계를 더 구비하는 것을 특징으로 한다.The facial animation retargeting method for achieving the above object further comprises the step of performing motion warping on the target animation.

상기 목적을 달성하기 위한 모션 와핑이 수행되는 단계는 상기 소스 애니메이션의 특정 감성적 시퀀스를 위해 애니메이터에 의해 상기 타겟 애니메이션의 얼굴 형태와 표정 변화의 타이밍 양쪽이 모두 포함되는 감성적 시퀀스 쌍이 상기 애니메이터에 의해 설정되는 단계, 상기 감성적 시퀀스 쌍에서 모션 와핑이 수행되어야할 구간이 획득되도록 휴리스틱 탐색이 수행되는 단계, 및 상기 휴리스틱 탐색을 통해 획득된 구간에 대해 1차원 라플라시안 좌표(1D Laplacian coordinates)를 이용하여 상기 타겟 애니메이션의 움직임 구간들에 적합한 원본 리타게트된 움직임 곡선에 대해 모션 와핑이 수행되는 단계를 구비하는 것을 특징으로 한다.In the step of performing motion warping to achieve the object, the animator sets an emotional sequence pair including both a face shape and a timing of facial expression change of the target animation by an animator for a specific emotional sequence of the source animation. Performing a heuristic search to obtain a section to which motion warping should be performed in the emotional sequence pair, and using the 1D Laplacian coordinates for the section obtained through the heuristic search. And motion warping is performed on the original retargeted motion curve suitable for the motion sections of the < RTI ID = 0.0 >

따라서, 본 발명의 얼굴 애니메이션 리타게팅 방법 및 이를 위한 기록 매체는 하나의 타겟 모델에 대해 RBF 기반 회기 트레이닝 및 kCCA 기반 회기 트레이닝을 각각 1회씩 수행하고, 이후 RBF 기반 회기 트레이닝 결과 및 kCCA 기반 회기 트레이닝 결과를 조합함에 의해 형태학적으로 매우 상이한 타겟 모델에 대해서도 소스 애니메이션의 표정에 대응하는 매우 자연스러운 표정을 회득 할 수 있다. 또한 모션 와핑을 추가함에 의해 타겟 모델의 개성을 더욱 두드러지게 표현할 수 있다. 뿐만 아니라 RBF 기반 회기 트레이닝 및 kCCA 기반 회기 트레이닝이 각각 1회씩만 수행되고 이후에는 RBF 기반 회기 트레이닝 결과 및 kCCA 기반 회기 트레이닝 결과가 단순 행렬 벡터의 곱에 의해 계산되므로, 실시간으로 타겟 애니메이션을 생성할 수 있으며, 소스 애니메이션으로 직접 모션 캡쳐 마커를 이용하지 않고, 캡쳐되어 리타게팅된 모션 데이터와 인테 모델의 혼합된 형태를 사용하므로 작업자가 표정 쌍을 범위를 생성하기에 용이하다.Therefore, the facial animation retargeting method of the present invention and a recording medium therefor perform the RBF based session training and the kCCA based session training once for each target model, and then the RBF based session training result and the kCCA based session training result. By combining the two, a very natural expression corresponding to the expression of the source animation can be obtained even for a very different target model morphologically. The addition of motion warping also makes the individuality of the target model more prominent. In addition, RBF-based session training and kCCA-based session training are performed only once each, and then RBF-based session training results and kCCA-based session training results are calculated by the product of simple matrix vectors, thereby generating target animations in real time. Instead of using motion capture markers directly as a source animation, it uses a mixed form of captured and retargeted motion data and an inte model, making it easy for operators to create ranges of facial expression pairs.

도1 은 본 발명에 따른 얼굴 애니메이션 리타게팅 방법의 일예를 나타낸다.
도2 는 도1 의 하이브리드 리타게팅 단계를 상세하게 나타낸 도면이다.
도3 은 소스 애니메이션과 타겟 애니메이션 표정 쌍의 일예를 나타낸다.
도4 는 소스 애니메이션에 대한 kCCA와 RBF 트레이닝을 수행한 결과를 나타내는 도면이다.
도5 는 비선형 매핑이 표정 쌍의 범위가 추가되는 경우를 나타낸다.
도6 은 표정 쌍의 범위가 추가된 경우의 kCCA와 RBF 트레이닝을 수행한 결과를 나타내는 도면이다.
도7 은 kCCA 및 RBF 트레이닝에 의해 생성된 두 개의 타겟 애니메이션을 혼합하여 새로운 하이브리드 리타게팅된 타겟 애니메이션을 획득하는 방법을 나타내는 개념도이다.
도8 은 본 발명의 하이브리드 리타게팅을 수행한 결과를 kCCA 기반 회기와 RBF 기반 회기의 결과와 비교한 도면이다.
도9 는 도4 및 도8 의 에러율을 그래프로 나타낸 도면이다.
도10 은 본 발명에서 에러율을 측정하는 방법을 나타낸다.
도11 은 본 발명의 하이브리드 리타게팅에 의해 생성된 타겟 애니메이션을 소스 애니메이션과 비교한 도면이다.
도12 는 본 발명의 하이브리드 리타게팅에 의해 생성된 타겟 애니메이션을 기존의 NNLS 기법과 비교한 도면이다.
도13 은 도1 의 모션 와핑 단계를 상세하게 나타낸 도면이다.
도14 는 본 발명에 따른 감정 시퀀스 쌍의 일예를 나타낸다.
도15 는 구간 및 비구간 제약에 따른 라플라시안 모션 와핑의 차이를 나타낸다.
도16 은 본 발명에 따른 1차원 라플라시안 와핑을 적용한 타겟 애니메이션을 나타낸다.
도17 은 본 발명의 하이브리드 리타게팅 기법을 다양한 캐릭터에 적용한 사례를 나타낸다.
1 illustrates an example of a facial animation retargeting method according to the present invention.
FIG. 2 is a diagram illustrating the hybrid retargeting step of FIG. 1 in detail.
3 shows an example of a source animation and a target animation facial expression pair.
4 is a diagram illustrating a result of performing kCCA and RBF training on a source animation.
5 shows a case in which nonlinear mapping is added to a range of facial expression pairs.
6 is a diagram illustrating a result of performing kCCA and RBF training when a range of facial expression pairs is added.
7 is a conceptual diagram illustrating a method of mixing two target animations generated by kCCA and RBF training to obtain a new hybrid retargeted target animation.
8 is a view comparing the results of the hybrid retargeting of the present invention with the results of kCCA-based session and RBF-based session.
9 is a graph illustrating the error rates of FIGS. 4 and 8.
10 shows a method for measuring an error rate in the present invention.
11 is a diagram comparing a target animation generated by hybrid retargeting of the present invention with a source animation.
12 is a view comparing the target animation generated by the hybrid retargeting of the present invention with the existing NNLS technique.
FIG. 13 is a diagram illustrating the motion warping step of FIG. 1 in detail.
14 shows an example of an emotion sequence pair according to the present invention.
15 illustrates a difference in Laplacian motion warping due to interval and non-section constraints.
Figure 16 shows a target animation with one-dimensional Laplacian warping according to the present invention.
17 illustrates an example in which the hybrid retargeting technique of the present invention is applied to various characters.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로서, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention can be implemented in various different forms, and is not limited to the embodiments described. In order to clearly describe the present invention, parts that are not related to the description are omitted, and the same reference numerals in the drawings denote the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
Throughout the specification, when an element is referred to as " including " an element, it does not exclude other elements unless specifically stated to the contrary. The terms "part", "unit", "module", "block", and the like described in the specification mean units for processing at least one function or operation, And a combination of software.

도1 은 본 발명에 따른 얼굴 애니메이션 리타게팅 방법의 일예를 나타낸다.1 illustrates an example of a facial animation retargeting method according to the present invention.

본 발명에 따른 얼굴 애니메이션 리타게팅(retargeting) 방법은 소스 애니메이션 입력 단계(S100), 하이브리드 리타게팅 단계(S200) 및 모션 와핑 단계(S300)를 구비하여 소스 애니메이션(SA)의 얼굴 표정을 타겟 애니메이션의 얼굴에 구현한다.The facial animation retargeting method according to the present invention includes a source animation input step (S100), a hybrid retargeting step (S200), and a motion warping step (S300). Implement on the face.

소스 애니메이션 입력 단계(S100)는 사람 얼굴 형태의 애니메이션의 표정 데이터를 입력 데이터로서 인가받는 단계이다.The source animation input step S100 is a step of receiving facial expression data of a human face animation as input data.

일반적으로 얼굴 애니메이션 리타게팅 방법은 모션 캡쳐(motion capture) 장치를 이용하여 대상물(object)의 움직임(motion)을 추적하여 가상의 캐릭터의 움직임에 적용한다. 모션 캡쳐 장치는 영상 취득수단인 카메라를 이용하여 대상 물체에 대한 이미지를 취득하고, 이로부터 움직임을 추적하여 그 움직임을 가상의 캐릭터에 적용할 수 있도록 하는 화상을 이용하게 된다. 모션 캡쳐 기술은 실제 사람의 얼굴 표정이나 미세한 몸동작의 특징들을 컴퓨터를 이용해 수치화하여 가상 캐릭터로의 적용을 가능하게 한다. 사람마다 지닌 제 각각의 스타일, 분위기, 감정 상태, 무게감, 물리적 특성 등 동작을 사실적으로 보이게 만드는 중요한 요소들이 캡쳐 된 동작 데이터에 포함되어, 애니메이션 작업의 효율성과 생산성을 높인다.In general, the facial animation retargeting method uses a motion capture device to track the motion of an object and apply the motion to a virtual character. The motion capturing apparatus acquires an image of a target object by using a camera, which is an image capturing means, and uses an image that tracks a movement therefrom and applies the movement to a virtual character. Motion capture technology enables the use of computers to quantify the features of real human facial expressions and subtle gestures and apply them to virtual characters. Each of the individual's own styles, moods, emotional states, weights, physical characteristics, etc. are included in the captured motion data to increase the efficiency and productivity of the animation.

현재 상용화되고 있는 모션 캡쳐 시스템은 대부분 인체나 얼굴에 마커(marker) 또는 센서를 착용한 후 카메라로 잡은 마커 영상이나 센서로부터 나온 데이터를 분석해 인체의 각 관절들 또는 얼굴의 각 부분의 위치와 방향 등을 측정하는 모션 캡쳐 마커를 이용한다.Most of the current motion capture systems are equipped with markers or sensors on the human body or face, and then analyze the marker images captured by the camera or data from the sensors to determine the position and direction of each joint or part of the human body. Use a motion capture marker to measure.

그리고 리타겟팅 기술은 모션 캡쳐된 얼굴 표정 동작 데이터를 가상의 비인간 캐릭터에 이식하여 애니메이션을 생성하는 기술로서, 가상의 생물체나 동물 등을 의인화하여 얼굴 표정을 연출하고자 할 때, 직접적으로 모션 캡쳐 데이터를 얻을 수 없기 때문에, 이 경우 리타겟팅 기법을 적용하여 얼굴 표정 애니메이션을 획득한다.The retargeting technology is a technology for generating animation by implanting motion-captured facial expression motion data into a virtual non-human character. When retargeting a virtual creature or animal, a motion expression is directly applied. In this case, a facial expression animation is obtained by applying a retargeting technique.

그러나 본 발명의 소스 애니메이션 입력 단계(S100)는 일반적인 얼굴 애니메이션 리타게팅 방법과 달리 모션 캡쳐 마커(motion capture marker)를 입력 데이터로서 직접 이용하지 않는다. 대신 본 발명의 소스 애니메이션 입력 단계(S100)는 입력 데이터로서 인체 모델의 블렌드쉐이프(blendshapes)를 미리 캡쳐되어 적절하게 리타게팅된 모션 데이터와 함께 사용한다. 이는 애니매이터(animator)가 직관적으로 표정 쌍(expression pairs)의 범위를 생성하는데 도움을 주며, 또한 어떤 얼굴 모션 데이터라도 만일 그것이 블렌드쉐이프로 구성되어 있다면 본 발명에서 소스로 사용할 수 있도록 하는 장점을 제공한다.However, unlike the general face animation retargeting method, the source animation input step S100 of the present invention does not directly use a motion capture marker as input data. Instead, the source animation input step (S100) of the present invention uses a blend shape of the human body model as input data in advance and is used together with appropriately retargeted motion data. This helps the animator to intuitively generate a range of expression pairs and also has the advantage of allowing any facial motion data to be used as a source in the present invention if it is configured as a blendshape. to provide.

소스 애니메이션 입력 단계(S100)를 통해 입력 데이터인 소스 애니메이션이 입력되면, 하이브리드 리타게팅 단계(S200)를 수행한다. 하이브리드 리타게팅 단계(S200)는 소스 애니메이션의 표정을 타겟 애니메이션(target animation)에 리타게팅하는 단계로서, 본 발명에서는 RBF(Radial Basis Function)와 kCCA(Kernel Canonical Correlation Analysis) 기반 회기(regression) 기법을 조합하여 리타게팅 동작을 수행하는 하이브리드 리타게팅 기법을 제안하여 이용한다.When the source animation as input data is input through the source animation input step S100, the hybrid retargeting step S200 is performed. The hybrid retargeting step (S200) is a step of retargeting an expression of a source animation to a target animation. In the present invention, a radial basis function (RBF) and a kernel canonical correlation analysis (kCCA) based regression technique are used. We propose and use a hybrid retargeting technique that performs a combination of retargeting operations.

하이브리드 리타게팅 기법은 캐릭터적인(characteristic) 특성을 갖는 타겟 애니메이션의 얼굴 표정이 입력된 소스 애니메이션의 원래 얼굴 표정에 따른 매우 적합한 표정을 표현할 수 있도록 하는 기법으로 상세한 내용은 후술 하도록 한다.The hybrid retargeting technique is a technique that allows a facial expression of a target animation having a characteristic characteristic to express a very suitable expression according to the original facial expression of the input source animation. Details will be described later.

하이브리드 리타게팅 단계(S200)를 수행함에 의해, 소스 애니메이션의 얼굴 표정 변화가 타겟 애니메이션의 얼굴 표정에 적용되면, 스타일리스틱한 캐릭터를 창출하기 위하여 모션 와핑(motion warping) 단계(S300)를 수행한다. 모션 와핑 단계(S300)는 캐릭터의 표정 변화가 캐릭터의 특성을 반영할 수 있도록, 표정이 변화하는 타이밍을 조절한다.By performing the hybrid retargeting step S200, when the facial expression change of the source animation is applied to the facial expression of the target animation, a motion warping step S300 is performed to create a stylish character. The motion warping step S300 adjusts the timing at which the facial expression changes so that the facial expression change of the character may reflect the characteristics of the character.

즉 본 발명에 따른 얼굴 애니메이션 리타게팅 방법은 소스 애니메이션을 인가받아 하이브리드 리타게팅 기법을 이용하여 소스 애니메이션의 얼굴 표정 변화를 타겟 애니메이션에 적용하고, 이후 모션 와핑 기법을 이용하여 표정 변화의 타이밍을 조절함에 의해 캐릭터적인 특성을 갖는 타겟 애니메이션의 표정을 매우 자연스럽게 변화시킬 수 있다.
In other words, the facial animation retargeting method according to the present invention applies a source animation to the target animation using a hybrid retargeting technique, and then adjusts the timing of the facial expression change using a motion warping technique. As a result, the facial expression of the target animation having character characteristics can be changed very naturally.

도2 는 도1 의 하이브리드 리타게팅 단계를 상세하게 나타낸 도면이다.FIG. 2 is a diagram illustrating the hybrid retargeting step of FIG. 1 in detail.

얼굴 모션 리타게팅 기법은 상기한 바와 같이, 얼굴 모션 캡쳐 기법에 의해 모션 캡쳐 된 얼굴 표정 동작데이터를 또 다른 가상의 캐릭터에 이식하여 애니메이션을 생성하는 기법이다. 본 발명의 얼굴 모션 리타게팅 기법은 대상 캐릭터의 얼굴 움직임을 생성하기 위해 먼저 소스 입력 데이터(source input data)인 모션 캡쳐 된 얼굴 표정 동작 데이터의 원래 동작을 유지하면서, 대상 캐릭터의 특성을 보완할 수 있도록 한다.As described above, the face motion retargeting technique is a technique for generating animation by implanting facial expression motion data captured by the face motion capture technique into another virtual character. The facial motion retargeting technique of the present invention can supplement the characteristics of the target character while maintaining the original motion of the motion captured facial expression motion data, which is source input data, in order to generate the facial motion of the target character. Make sure

이에 도2 의 하이브리드 리타게팅 단계(S200)는 먼저 형태학적으로 다르더라도 의미적으로 유사한 얼굴 형태들 사이의 표정 쌍의 범위를 설정한다(S210).Accordingly, the hybrid retargeting step (S200) of FIG. 2 first sets a range of facial expression pairs between semantically similar face shapes even though they are morphologically different (S210).

여기서 형태학적으로 다르다는 것은 넓은 의미로는 개의 얼굴이나, 괴물의 얼굴 등과 같은 독특한 개성을 얼굴과 사람의 얼굴 사이의 차이와 같은 의미로 볼 수 있으며, 좁은 의미로는 노인이나 아이의 얼굴과 젊은 사람의 얼굴 사이의 차이와 같은 의미로 볼 수 있다. 그리고 의미적으로 유사한 얼굴 형태는 웃는 표정이나 놀라는 표정과 같이 표정을 나타내는 얼굴 모양은 비록 괴물의 얼굴 또는 개의 얼굴이 사람의 얼굴과 형태학적으로 차이가 있더라도 동일한 표정을 나타낸다는 것을 의미한다.Here, morphologically different means a unique personality, such as a dog's face or a monster's face, in a broad sense, such as the difference between a face and a person's face. The difference between the faces can be seen as synonymous. And semantically similar face shape means that a face shape that expresses an expression such as a smiley face or a surprised face represents the same face even if the face of a monster or the face of a dog is morphologically different from the face of a person.

도3 은 소스 애니메이션과 타겟 애니메이션 표정 쌍의 일예를 나타낸다.3 shows an example of a source animation and a target animation facial expression pair.

도3 에서 상단의 인체 모델은 인체 모델의 블렌드쉐이프(blendshapes)를 미리 캡쳐되어 적절하게 리타게팅된 모션 데이터인 소스 애니메이션이며, 하단이 소스 애니메이션의 각각의 표정에 대응하는 타겟 애니메이션이다. 도3 에 도시된 바와 같이, 소스 애니메이션과 타겟 애니메이션은 형태학적으로는 사람과 괴물의 얼굴로 서로 다르지만 의미적으로 동일한 감정을 나타내는 유사한 얼굴 형태들이 서로 표정 쌍으로 설정된다.In FIG. 3, the upper human body model is a source animation which is motion data properly captured and pretargeted with blend shapes of the human body model, and the lower human body is a target animation corresponding to each expression of the source animation. As shown in Fig. 3, the source animation and the target animation are morphologically similar to human and monster faces, but similar face shapes representing semantically identical emotions are set as facial expression pairs.

본 발명에서는 일예로 34개의 표정 쌍을 이용하였다. 그리고 본 발명에서는 모션 캡쳐 마커(motion capture marker)를 이용한 데이터를 직접 사용하지 않는다.In the present invention, 34 facial expression pairs are used as an example. In the present invention, data using a motion capture marker is not directly used.

리타게팅된 얼굴 애니메이션의 품질은 기본적으로 소스 애니메이션의 얼굴 표정 변화가 타겟 애니메이션에 어떻게 대응되는지에 의존한다. 따라서 소스 애니메이션과 타겟 애니메이션의 표정 쌍 범위가 설정되는 것이 중요하며, 표정 쌍은 소스 애니메이션과 타겟 애니메이션이 의미적으로 동일한 얼굴 표정을 갖는 구간을 나타낸다. 이 때, 소스 애니메이션은 충분한 개수의 블렌드쉐이프를 가지고 있으며, 애니메이터(animator)에 의해 요구될 수 있는 다양한 표정들이 묘사될 수 있는 것으로 가정한다.The quality of the retargeted face animation basically depends on how the facial expression change of the source animation corresponds to the target animation. Therefore, it is important that the range of the expression pairs of the source animation and the target animation is set, and the expression pair represents a section in which the source animation and the target animation have semantically identical facial expressions. At this time, it is assumed that the source animation has a sufficient number of blend shapes, and various expressions that may be required by the animator can be described.

표정 쌍의 범위는 수학식 1에 의해 설정될 수 있다.The range of the facial expression pair may be set by Equation 1.

Figure pat00002
Figure pat00002

여기서 bi는 대응하는 가중치 wi의 블렌드쉐이프이며, Sourceexp와 targetexp는 각각 소스 애니메이션과 타겟 애니메이션에서 의미적으로 동일한 얼굴 표정을 나타낸다. 그리고 ns 는 소스 애니메이션의 블랜드 쉐이프 개수이며, nt는 타겟 애니메이션의 원소인 제어 벡터(cv)의 차원(dimension)을 나타낸다.Where b i is a blend shape of the corresponding weights w i , and Source exp and target exp represent semantically identical facial expressions in the source animation and the target animation, respectively. Ns denotes the number of blend shapes of the source animation, and nt denotes the dimension of the control vector cv which is an element of the target animation.

타겟 애니메이션이 스켈톤-드리븐 방법(skeleton-driven method)과 같은 비-블렌드쉐이프(Non-blendshape) 기능들을 사용하면, 타겟 애니메이션의 표정은 타겟 애니메이션의 제어 벡터(cv)로 표현되는 더 많은 원소들과 함께 생성되어 기하학적으로 변형된다. 이 방법에 따라 모든 수치적 요인(numerical factors)들이 원소(cv)들로 인코딩 될 수 있다.If the target animation uses non-blendshape features, such as the skeleton-driven method, the expression of the target animation is more elements represented by the control vector (cv) of the target animation. It is created with and transformed geometrically. In this way all numerical factors can be encoded into elements (cvs).

애니메이터가 표정 쌍의 범위를 수동으로 설정하면, 소스 애니메이션과 타겟 애니메이션의 표정 쌍 범위는 각각 수학식 2와 수학식 3같이 행렬로 표현된다.If the animator manually sets the range of the facial expression pairs, the facial expression pair ranges of the source animation and the target animation are represented by matrices as shown in Equations 2 and 3, respectively.

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

수학식 2에서 S는 소스 애니메이션의 표정 행렬의 범위를 나타내고, 수학식 3에서 T는 소스 애니메이션의 표정 행렬의 범위(S)에 대응하는 타겟 애니메이션의 표정 행렬의 범위를 나타낸다. 그리고 np는 표정 쌍 범위의 개수를 나타낸다.In Equation 2, S represents a range of the facial expression matrix of the source animation, and T in Equation 3 represents a range of the facial expression matrix of the target animation corresponding to the range S of the facial expression matrix of the source animation. And np represents the number of expression pair ranges.

표정 쌍의 범위가 애니메이터에 의해 설정되면, 본격적으로 하이브리드 리타게팅 기법을 적용한다. 본 발명에서 하이브리드 리타게팅 기법은 먼저 RBF 트레이닝(RBF training) 단계(S220)를 수행한다. RBF 트레이닝은 소스 애니메이션의 데이터와 타겟 애니메이션의 데이터 쌍 사이에서 최선의 가중치(best weight value)를 습득하기 위한 강력한 보간(interpolation) 기법의 하나로서 수학식 4로 표현된다.When the range of facial expression pairs is set by the animator, hybrid retargeting techniques are applied in earnest. In the present invention, the hybrid retargeting technique first performs an RBF training step (S220). RBF training is represented by Equation 4 as one of powerful interpolation techniques for obtaining the best weight value between the data of the source animation and the data pair of the target animation.

Figure pat00005
Figure pat00005

수학식 4에서 변수 ri는 계산되어야 하는 RBF 가중치를 나타내고, np는 표정 쌍 범위의 개수를 나타내고, wi는 가중치 입력 벡터를 나타내며, F(wi)는 계산된 출력을 나타낸다. 그리고 수학식 4에서 함수 φj(wi)는 수학식 5와 같이 표현되는 다중 2차 함수이다.In Equation 4, the variable r i represents the RBF weight to be calculated, np represents the number of expression pair ranges, w i represents a weight input vector, and F (w i ) represents the calculated output. In Equation 4, the function φ j (w i ) is a multiple quadratic function expressed as Equation 5.

Figure pat00006
Figure pat00006

여기서 간격(sj)은 가중치 입력 벡터(wj)와 가장 인접한 가중치 입력 벡터(wi) 사이에서 측정되는 간격을 나타내며, 특징점(feature point)들이 광범위하게 산재되어 있으면 더 적게 변형되도록 하고, 특징점들이 밀접하게 위치하고 있으면, 더 크게 변형되도록 한다. 수학식 5와 더불어 특징점에 대한 세부적인 내용은 "Expression cloning. In Proceedings of the 28th annual conference on Computer graphics and interactive techniques(J. Noh and U. Neumann., ACM, 2001. 383290277-288.)"에 기술되어 있으므로 여기서는 상세한 설명을 생략한다. Here, the interval s j represents the interval measured between the weight input vector w j and the nearest weight input vector w i , so that the feature points are transformed less if they are widely scattered, If they are located closely, they will be more deformed. Details of the feature points, along with Equation 5, can be found in "Expression cloning. In Proceedings of the 28th annual conference on Computer graphics and interactive techniques (J. Noh and U. Neumann., ACM, 2001. 383290277-288.)". As described, detailed descriptions are omitted here.

RBF 트레이닝은 가중치 입력 벡터(wi(i= 1, 2, ... , ns), 여기서, ns 는 자연수)로 대응되는 소스 애니메이션과 제어 벡터(cvi(i= 1, 2, ... , nt), 여기서, nt 는 자연수)로 대응되는 타겟 애니메이션을 각각 np(여기서 np는 자연수)번 트레이닝 한다.RBF training consists of source animations and control vectors (cv i (i = 1, 2, ...) corresponding to weighted input vectors (w i (i = 1, 2, ..., ns), where ns is a natural number). nt), where nt is a natural number) and trains np (where np is a natural number) each.

RBF 트레이닝에 의해 선형 연산자(MRBF=[r1│r2│...│ri│...│rnt])를 획득할 수 있다. 여기서 ri는 i번째 np-차원의 가중 벡터이다.By the RBF training, a linear operator (M RBF = [r 1 │r 2 │ ... r i │ ... r nt ]) can be obtained. Where r i is the i-th np-dimensional weight vector.

그리고 선형 연산자(MRBF)를 활용하여 수학식 6과 같이 출력 벡터를 계산할 수 있다.The output vector may be calculated using the linear operator M RBF as shown in Equation 6.

Figure pat00007
Figure pat00007

그러나 RBF 기반 회귀(RBF-based regression)는 비선형적으로 데이터 샘플에 대응되는 경우에 뛰어난 성능을 발휘할 수 없다. 만일 애니메이터가 표정 쌍의 범위를 설정할 때, 거의 동일한 두 소스 애니메이션의 표정이 의미적으로 다른 타겟 표정에 매핑되면, 트레이닝 단계에서 충돌을 야기하게 된다.However, RBF-based regression does not perform well when nonlinearly corresponding to data samples. If an animator sets the range of facial expression pairs, if the facial expressions of two nearly identical source animations are semantically mapped to different target facial expressions, they will cause a crash in the training phase.

이에 본 발명에서는 RBF 트레이닝 이후에, kCCA 기반 회귀 단계(S230)를 수행한다. CCA는 두 세트의 다변수(multivariate) 데이터들 사이의 상관관계를 정의하기 위해 사용되는 통계적 분석 방법이다. 그리고 kCCA는 CCA에 커널 함수(kernel function)를 사용하는 비선형 통계 분석 방법으로, 비선형 데이터 쌍을 분석하기 위해 잘 알려진 기법이다. 특히 kCCA는 축소된 입력과 출력 데이터 사이의 상관관계를 극대화하면서 기초 쌍({bs, bt})을 찾을 수 있다.In the present invention, after the RBF training, kCCA based regression step (S230) is performed. CCA is a statistical analysis method used to define correlations between two sets of multivariate data. KCCA is a nonlinear statistical analysis method that uses a kernel function for CCA and is a well-known technique for analyzing nonlinear data pairs. In particular, kCCA can find the foundation pair {b s , b t } while maximizing the correlation between the reduced input and output data.

상기한 표정 쌍을 설정함에 의해 각각의 표정은 두 세트의 변수들에 의해 exp=(s, t)로 표현될 수 있다. 여기서

Figure pat00008
이고,
Figure pat00009
이다.By setting the facial expression pairs described above, each facial expression can be represented by exp = (s, t) by two sets of variables. here
Figure pat00008
ego,
Figure pat00009
to be.

kCCA는 소스 애니메이션의 표정 행렬(S)과 타겟 애니메이션의 표정 행렬(T)을 이용하여 상관 계수(correlation coefficient)(ρ)를 수학식 7과 같이 계산 할 수 있다.The kCCA may calculate a correlation coefficient ρ by using the expression matrix S of the source animation and the expression matrix T of the target animation, as shown in Equation 7 below.

Figure pat00010
Figure pat00010

여기서, hs, ht 는 기초 쌍({bs, bt})을 획득하기 위해 사용되는 계수 벡터(coefficient vector)이고, 각각

Figure pat00011
고,
Figure pat00012
계산된다. 그리고
Figure pat00013
Figure pat00014
는 각각 커널 함수(k)에 의해 특징 공간상에 샘플링되는 소스 및 타겟 행렬들이다. 커널 함수에 대한 상세한 설명과 kCCA 수식의 유도 과정은 Realtime data-driven deformation using kernel canonical correlation analysis(W.W. Feng, B.U. Kim, and Y. Yu., ACM Transactions on Graphics-TOG, 27(3):91??91, 2008.)에 설명되어 있으므로 여기서는 생략한다.Where h s and h t are coefficient vectors used to obtain the base pair {b s , b t }, respectively
Figure pat00011
However,
Figure pat00012
Is calculated. And
Figure pat00013
Wow
Figure pat00014
Are the source and target matrices sampled on the feature space by the kernel function k, respectively. A detailed description of kernel functions and derivation of kCCA equations is given in Realtime data-driven deformation using kernel canonical correlation analysis (WW Feng, BU Kim, and Y. Yu., ACM Transactions on Graphics-TOG, 27 (3): 91? 91, 2008.), so it is omitted here.

kCCA에 의해 축소된 데이터 쌍을 생성하면, 이후 표준 선형 회귀를 이용하여 리타게팅 모델을 생성한다. 리타게팅 모델은 수학식 8 및 수학식 9와 같이 최소 자승 판별값에서 에러를 최소화하도록 생성된다.Generating a reduced data pair by kCCA then generates a retargeting model using standard linear regression. The retargeting model is generated to minimize an error in the least squares determination value as shown in Equations 8 and 9.

Figure pat00015
Figure pat00015

Figure pat00016
Figure pat00016

여기서, sr 및 tr은 축소된 데이터 쌍이다.Where s r and t r are reduced data pairs.

상기한 수학식 8 및 9를 이용하여 선형 연산자 MkCCA=MtMsHs가 계산될 수 있다. 그리고 출력 벡터는 새로운 입력 벡터(snew)로부터 수학식 10과 같이 계산될 수 있다.The linear operators M kCCA = M t M s H s can be calculated using Equations 8 and 9 above. The output vector may be calculated from Equation 10 from the new input vector s new .

Figure pat00017
Figure pat00017

여기서 커널화(kernelized)된 벡터(

Figure pat00018
)는 커널 함수(k)를 이용하여 획득 될 수 있다.Where the kernelized vector (
Figure pat00018
) Can be obtained using a kernel function (k).

도4 는 소스 애니메이션에 대한 kCCA와 RBF 트레이닝을 수행한 결과를 나타내는 도면이다. 도4 에서 왼쪽은 소스 애니메이션이며, 가운데가 kCCA 트레이닝에 의해 생성된 타겟 애니메이션이며, 오른쪽이 RBF 트레이닝에 의해 생성된 타겟 애니메이션이다. 도4 에서 34개의 표정 쌍을 이용하여 kCCA 및 RBF 트레이닝을 수행한 타겟 애니메이션은 kCCA를 트레이닝을 수행한 타겟 애니매이션이 4.84의 에러율을 갖고, RBF 트레이닝을 수행한 타겟 애니메이션이 4.46의 에러율을 가지므로 기본적으로 RBF 트레이닝이 더 좋은 성능을 나타낸다. 그러나 도5 와 같이 애니메이터(또는 사용자)에 의해 비선형 매핑이 표정 쌍의 범위로서 추가(도5 에서는 6개의 표정 쌍)되면, 도6 에 도시된 바와 같이 kCCA 기반 회기는 에러율이 4.84에서 4.63으로 오히려 줄어들어 더 좋은 성능을 나타낼 수 있다. 반면, RBF 기반 회기는 에러율이 4.46에서 13.18로 급격하게 증가한다. 즉 RBF 기반 회기를 이용한 트레이닝이 기본적으로 더 낳은 성능을 보일 수 있으나, 표정 쌍 범위의 개수와 형태에 따라 RBF 트레이닝은 큰 오류를 발생할 수 있다.4 is a diagram illustrating a result of performing kCCA and RBF training on a source animation. In FIG. 4, the left side is a source animation, the center is a target animation generated by kCCA training, and the right side is a target animation generated by RBF training. In FIG. 4, the target animation that performed the kCCA and RBF training using 34 facial expression pairs has a default error rate of 4.84 for the target animation that trained the kCCA and an error rate of 4.46 for the RBF training. RBF training shows better performance. However, if the nonlinear mapping is added as a range of facial expression pairs by the animator (or user) as shown in FIG. 5 (six facial expression pairs in FIG. 5), as shown in FIG. 6, the kCCA-based session has an error rate of 4.84 to 4.63. It can be reduced, resulting in better performance. RBF-based sessions, on the other hand, dramatically increase the error rate from 4.46 to 13.18. In other words, training using RBF-based sessions may show better performance, but RBF training may generate a large error depending on the number and shape of facial expression pair ranges.

이에 kCCA 및 RBF 트레이닝에 의해 생성된 두 개의 타겟 애니메이션을 혼합하면 더욱 좋은 성능을 나타낼 수 있다.This can be achieved by mixing two target animations generated by kCCA and RBF training.

도2 에서 RBF 트레닝 단계(S220)와 kCCA 기반 회귀 단계(S230)가 완료되면, 두 단계의 결과를 결합하여 최종 리타게팅 단계(S240)를 수행한다.In FIG. 2, when the RBF training step S220 and the kCCA based regression step S230 are completed, the final retargeting step S240 is performed by combining the results of the two steps.

도7 은 kCCA 및 RBF 트레이닝에 의해 생성된 두 개의 타겟 애니메이션을 혼합하여 새로운 하이브리드 리타게팅된 타겟 애니메이션을 획득하는 방법을 나타내는 개념도이다.7 is a conceptual diagram illustrating a method of mixing two target animations generated by kCCA and RBF training to obtain a new hybrid retargeted target animation.

최종 리타게팅 단계(S240)는 RBF 트레닝 단계(S220)와 kCCA 기반 회귀 단계(S230)의 결과를 수학식 11과 같이 결합한다.The final retargeting step (S240) combines the results of the RBF training step (S220) and the kCCA based regression step (S230) as shown in Equation 11.

Figure pat00019
Figure pat00019

여기서 tfinal은 최종 리타게트된 출력 벡터이고, tRBF는 수학식 6에 따른 RBF 연산을 사용한 회귀 결과이며, tkCCA는 수학식 10에 따른 kCCA 연산을 사용한 회귀 결과이다. 그리고 RBF 연산에 따른 회귀 결과와 kCCA 연산에 따른 회귀 결과를 결합하기 위한 α는 블렌딩 파라미터(blending parameter)로서, 애니메이터 또는 사용자가 최선의 결과를 도출하기 위해 전체 리타게트된 시퀀스에 따라 블렌딩 파라미터(α)를 [0, 1]의 범위 내에서 조절할 수 있다. (여기서 α는 실수)Where t final is the final retargeted output vector, t RBF is the regression result using the RBF operation according to Equation 6, and t kCCA is the regression result using the kCCA operation according to Equation 10. And α for combining the regression result according to the RBF operation and the regression result according to the kCCA operation is a blending parameter. ) Can be adjusted within the range of [0, 1]. Where α is a real number

도8 은 본 발명의 하이브리드 리타게팅을 수행한 결과를 kCCA 기반 회기와 RBF 기반 회기의 결과와 비교한 도면이다. 도8 에서 확인할 수 있는 바와 같이, 34개의 표정 쌍에 6개의 표정쌍이 추가된 경우에도 본 발명에 따른 하이브리드 리타게팅 결과는 에러율이 4.03로 kCCA나 RBF 보다 낮은 에러율을 나타낸다. 즉 상대적으로 정확하게 리타게팅 된다.8 is a view comparing the results of the hybrid retargeting of the present invention with the results of kCCA-based session and RBF-based session. As can be seen in FIG. 8, even when six facial expression pairs are added to 34 facial expression pairs, the hybrid retargeting result according to the present invention shows an error rate of 4.03, which is lower than that of kCCA or RBF. That is, they are retargeted relatively accurately.

도9 는 도4 및 도8 의 에러율을 그래프로 나타낸 도면이다. 도9 는 하이브리드 모델은 7개의 블렌딩 파라미터(α)를 추가하여 생성된 결과를 나타낸다. 도9 에서 확인할 수 있듯이, 본 발명에 따른 하이브리드 리타게팅 방법은 kCCA와 RBF 기반 회기를 함께 사용함에 의해 에러율을 크게 줄일 수 있다.9 is a graph illustrating the error rates of FIGS. 4 and 8. 9 shows the result of the hybrid model generated by adding seven blending parameters α. As can be seen in Figure 9, the hybrid retargeting method according to the present invention can greatly reduce the error rate by using kCCA and RBF-based sessions.

도10 은 본 발명에서 에러율을 측정하는 방법을 나타낸다.10 shows a method for measuring an error rate in the present invention.

도10 에서 에러율을 측정하는 방법은 "J. Noh and U. Neumann. ExpressionThe method of measuring the error rate in Figure 10 is "J. Noh and U. Neumann. Expression

cloning. In Proceedings of the 28th annual conference on Computer graphics and interactive techniques. ACM, 2001. 383290277-288."에 공개된 평가 방법과 유사한 순환 처리 기법을 적용하였다. 즉 사람 얼굴의 소스 애니메이션을 타겟 애니메이션으로 리타게팅한 이후에 다시 사람 얼굴로 리타게팅을 수행하고, 소스 애니메이션의 사람 얼굴과 2번의 리타게팅으로 생성된 사람 얼굴 사이의 에러를 평균 정점 변위로 측정하여 에러율을 측정할 수 있다.cloning. In Proceedings of the 28th annual conference on Computer graphics and interactive techniques. ACM, 2001. 383290277-288. ", Employs a recursive processing technique similar to the evaluation method disclosed. That is, after retargeting the source animation of the human face to the target animation, retargeting to the human face again, and then source animation. The error rate can be measured by measuring the average vertex displacement between the human face and the human face generated by two retargeting.

도11 은 본 발명의 하이브리드 리타게팅에 의해 생성된 타겟 애니메이션을 소스 애니메이션과 비교한 도면이다. 도10 에서 본 발명의 하이브리드 리타게팅 기법이 적용된 괴물의 얼굴은 형태학적으로 소스 애니메이션인 사람의 얼굴과 매우 차이가 있음에도, 소스 애니메이션과 의미적으로 유사한 표정을 표현할 수 있음을 알 수 있다.11 is a diagram comparing a target animation generated by hybrid retargeting of the present invention with a source animation. In FIG. 10, it can be seen that the face of a monster to which the hybrid retargeting technique of the present invention is applied can express an expression semantically similar to the source animation, even though the face of the monster is morphologically very different from that of a human face.

도12 는 본 발명의 하이브리드 리타게팅에 의해 생성된 타겟 애니메이션을 기존의 NNLS(Non-Negative Least Square) 기법과 비교한 도면이다. 도11 은 왼쪽의 소스 애니메이션인 사람의 얼굴을 개(dog)의 표정에 적용한 것으로서, 가운데 도시된 기존의 NNSL 기법은 형태학적으로 매우 상이한 경우에 도시된 바와 같이 정확한 표정을 표현하지 못한다.(특히 입 주변) 반면, 본 발명에 따른 하이브리드 리타게팅 방법은 형태학적 차이에 무관하게 유사한 표정을 표현할 수 있음을 알 수 있다.12 is a view comparing the target animation generated by the hybrid retargeting of the present invention with the conventional Non-Negative Least Square (NNLS) technique. Fig. 11 shows a human face, which is a source animation on the left, applied to a dog's facial expression, and the existing NNSL technique shown in the middle does not express an accurate facial expression as shown in the case where morphologically very different. On the other hand, it can be seen that the hybrid retargeting method according to the present invention can express a similar expression regardless of morphological differences.

그리고 수학식 6 및 10에서 리타게트된 모델 행렬들(MRBF, MkCCA)은 각각 트레이닝 단계에서 한 번씩만 계산되므로, 실제 리타게팅 실행 단계에서는 두 행렬 벡터의 곱셈만을 수행하게 된다. 따라서 본 발명에 따른 하이브리드 리타게팅 기법은 실시간으로 블렌딩된 결과 모델을 획득할 수 있다. 또한 RBF 트레이닝과 kCCA 트레이닝은 낮은 밀도의 표정 행렬을 적용함에 의해 트레이닝 시간을 단축 할 수 있으며, 본 발명에 따른 하이브리드 리타게팅 방법은 낮은 밀도의 표정 행렬을 이용하여 전체 계산 시간 또한 크게 개선하였다. 테스트를 통해서 각각 20초 이내의 시간에 RBF 트레이닝과 kCCA 트레이닝에 의한 RBF 기반 회귀 모델과 kCCA 기반 회기 모델을 구축할 수 있음을 확인하였다.In addition, since the retargeted model matrices M RBF and M kCCA in Equations 6 and 10 are calculated only once in each training step, only the multiplication of two matrix vectors is performed in the actual retargeting execution step. Therefore, the hybrid retargeting technique according to the present invention can obtain a blended result model in real time. In addition, RBF training and kCCA training can reduce the training time by applying a low-density facial expression matrix, and the hybrid retargeting method according to the present invention significantly improves the overall calculation time by using a low-density facial expression matrix. The test confirms that RBF-based regression model and kCCA-based regression model by RBF training and kCCA training can be constructed within 20 seconds each.

상기에서 RBF 트레이닝과 kCCA 트레이닝은 일종의 기계 학습(Machine Learning) 기법으로 RBF 트레이닝과 kCCA 트레이닝이 수행된 타겟 모델에 대해서는 소스 애니메이션이 입력되면, 수학식 11에 의한 행렬 벡터의 곱셈만 수행하여 빠르게 리타게팅 결과를 획득할 수 있다.
In the above, RBF training and kCCA training are a kind of machine learning technique. When source animation is input to a target model on which RBF training and kCCA training are performed, only multiplication of the matrix vector by Equation 11 is performed to quickly retarget. The result can be obtained.

도13 은 도1 의 모션 와핑 단계를 상세하게 나타낸 도면이다.FIG. 13 is a diagram illustrating the motion warping step of FIG. 1 in detail.

하이브리드 리타게팅 단계(S200)가 완료되면, 타겟 애니메이션의 얼굴 모델이 캐릭터의 독득한 개성을 표현할 수 있도록 모션 와핑 단계(S300)를 수행하여 타겟 애니메이션의 표정 변화가 자연스럽도록 확장한다.When the hybrid retargeting step S200 is completed, a motion warping step S300 is performed so that the facial model of the target animation can express the character's unique personality, thereby extending the change in the facial expression of the target animation.

모션 와핑이 수행되지 않고 하이브리드 리타게팅만이 수행된 타겟 애니메이션의 얼굴 움직임은 소스의 얼굴 표정과 유사한 표정을 갖게 되지만, 타겟 얼굴의 개성을 나타내는 극적인 포즈와 타이밍을 표현하지는 못한다. 특히 만화 스타일의 타겟 얼굴은 일그러짐(squashe), 펼침(stretche) 및 과장과 같은 더 많은 캐릭터적인 특징을 포함한다. 따라서 모션 와핑 단계(S300)는 타겟 애니메이션이 캐릭터의 특성에 맞는 자연스러운 표정 변화를 생성하기 위하여 수행된다.The facial movements of the target animation, with no motion warping and only hybrid retargeting, have a facial expression similar to that of the source, but do not represent dramatic poses and timings that represent the personality of the target face. In particular, cartoon style target faces include more character features such as squashes, stretches and exaggerations. Therefore, the motion warping step S300 is performed to generate a natural facial expression change that matches the characteristics of the target animation.

모션 와핑 단계(S300)는 먼저 감성적 시퀀스 쌍(emotional sequence pairs)을 설정하는 단계(S310)를 수행한다. The motion warping step (S300) first performs a step (S310) of setting up emotional sequence pairs.

도14 는 본 발명에 따른 감정 시퀀스 쌍의 일예를 나타낸다.14 shows an example of an emotion sequence pair according to the present invention.

감성적 시퀀스 쌍 또한 하이브리드 리타게팅 단계(S200)의 표정 쌍과 마찬가지로 애니메이터에 의해 수동으로 설정되지만, 감성적 시퀀스 쌍은 표정 쌍 범위와는 대조적으로 특색있는 얼굴 형태(facial shape)와 타이밍 양쪽을 모두 포함한다. 애니메이터는 소스 애니메이션의 특정 감성적 시퀀스(예를 들어, '놀라는 표정', '울음', '웃음')를 위해 수동으로 모션 타겟 애니메이션의 얼굴 움직임을 만들 수 있다. 모션 타겟 애니메이션의 얼굴을 위해 감성적 시퀀스 쌍을 생성할 때, 새로운 시퀀스 쌍은 소스 시퀀스에 제한되지 않는다. 즉 감성적 시퀀스 쌍의 움직임에 대한 프레임들의 총 개수는 소스 시퀀스와 다를 수 있으며, 타이밍의 흐름은 시퀀스에 따라 각각의 경우에서 가변될 수 있다.Emotional sequence pairs are also set manually by the animator, like facial expression pairs in the hybrid retargeting step (S200), but emotional sequence pairs include both facial shape and timing, as opposed to facial expression pair ranges. . The animator can manually create facial movements of the motion target animations for specific emotional sequences of the source animation (eg, 'surprise', 'cry', 'laugh'). When generating an emotional sequence pair for the face of a motion target animation, the new sequence pair is not limited to the source sequence. That is, the total number of frames for the movement of the emotional sequence pair may be different from the source sequence, and the flow of timing may vary in each case according to the sequence.

감정 시퀀스 쌍을 감지하는 유일한 요인은 의미적으로 동일함이다. 이것은 타겟 얼굴 표정이 소스 얼굴 표정으로부터 크게 벗어날 때에, 주목할 만한 이득을 제공한다. 즉 소스의 얼굴 표정과 타겟의 얼굴 표정이 매우 상이하더라도, 의미적으로 동일한 표정으로 인식될 수 있으면, 소스의 얼굴 표정과 타겟의 얼굴 표정은 감성적 시퀀스 쌍으로 설정 될 수 있다.The only factor for detecting an emotion sequence pair is semantically identical. This provides a notable benefit when the target facial expression deviates significantly from the source facial expression. That is, even if the facial expressions of the source and the facial expressions of the target are very different, the facial expressions of the source and the facial expressions of the target may be set as emotional sequence pairs, if they can be recognized with semantically identical expressions.

감성적 시퀀스 쌍(emotional sequence pairs)을 설정하는 단계(S310)가 수행되면, 휴리스틱 탐색(heuristic search) 단계(S320)를 수행한다. 휴리스틱 탐색 단계(S320)는 소스 애니메이션의 움직임과 감성적 시퀀스 쌍의 소스 구간 사이에 절대적 에러를 표현하기 위한 관심있는 현재 구간(각 프레임에 대한)에 대한 내적(inner products)의 합을 사용한다. 전체 소스 움직임 중 연속적인 시작 프레임들(fk)이 주어지면, 수학식 12와 같이 변환을 위한 시작 프레임들(Fst)을 탐색한다.If step S310 of setting emotional sequence pairs is performed, a heuristic search step S320 is performed. The heuristic search step S320 uses the sum of inner products for the current interval of interest (for each frame) to represent an absolute error between the movement of the source animation and the source interval of the emotional sequence pair. Given successive starting frames f k of the entire source movement, the starting frames F st for transformation are searched as shown in Equation 12.

Figure pat00020
Figure pat00020

여기서

Figure pat00021
은 리타게트된 소스 움직임의 현재 시작 프레임이고,
Figure pat00022
는 소스 쌍 구간의 시작 프레임이고, δ는 애니메이터 또는 사용자에 의해 지정되는 문턱값(threshold)이다. 본 발명에서는 문턱값(δ)을 1.0으로 사용하였다. 이 문턱값은 실험적으로 소스 쌍에서의 유사한 움직임 구간을 잘 탐색하는 것으로 확인되었다. 그러나 문턱값(δ)은 다양하게 조절될 수 있다. 그리고 동일한 구간 프레임들 내에 두 개 이상의 시작 프레임들(fk)이 있으면, 간단하게 시작 프레임으로 그것들의 평균을 사용할 수 있다. 두 개 이상의 시작 프레임들(fk)은 소스 쌍의 움직임이 매우 자연스럽게 변화될 때, 구간의 시작점에서만 야기되므로, 두 개 이상의 시작 프레임들(fk)의 평균을 시작 프레임으로 사용하여도 무방하다.here
Figure pat00021
Is the current starting frame of the retargeted source movement,
Figure pat00022
Is the start frame of the source pair interval, and δ is the threshold specified by the animator or user. In the present invention, the threshold value δ is used as 1.0. This threshold has been experimentally confirmed to search for similar movement intervals in the source pair. However, the threshold δ can be adjusted in various ways. And if there are two or more start frames f k in the same interval frames, then we can simply use their average as the start frame. Since two or more start frames f k are caused only at the start of the interval when the source pair's movement changes very naturally, the average of two or more start frames f k may be used as the start frame. .

휴리스틱 탐색 단계(S320)를 통해 변환을 위한 가장 적절한 구간을 획득하면, 1차원 라플라시안 좌표(1D Laplacian coordinates)를 이용하여 타겟 움직임 구간들에 적합한 원본 리타게트된 움직임 곡선에 대해 모션 와핑을 수행한다. 최종 움직임은 감성적 타겟 구간이 이슈가 될 때에도 여전히 원본의 리타게트된 모션을 닮으면서 적절하게 매치된다. When the most suitable section for the transformation is obtained through the heuristic search step (S320), motion warping is performed on the original retargeted motion curve suitable for the target motion sections using 1D Laplacian coordinates. The final movement is matched appropriately, still resembling the original retargeted motion even when the emotional target interval is an issue.

본 발명에서는 원본 리타게트된 움직임을 보존하기 위하여 1차원 라플라시안 좌표상의 모든 타겟 제어 차원(nt)에 대해 전체 n개의 프레임들에서 키 값(key value)(f(t))을 변환한다. Fo는 매 제어 차원에 대한 모든 킷값을 저장하는 n X nt 행렬이다. 그러면 라플라시안 좌표(L)는 수학식 13과 같이 계산된다.In the present invention, in order to preserve the original retargeted motion, the key value f (t) is transformed in all n frames for all target control dimensions nt on the one-dimensional Laplacian coordinates. F o is an n X nt matrix that stores all kit values for each control dimension. The Laplacian coordinates L are then calculated as in Equation 13.

Figure pat00023
Figure pat00023

여기서, Δ는 (n-1) X n 인 1차원 라플라시안 행렬이고, 이 행렬의 원소는 수학식 14와 같이 구성된다.Here, Δ is a one-dimensional Laplacian matrix of (n-1) X n, and the elements of this matrix are constructed as shown in Equation (14).

Figure pat00024
Figure pat00024

본 발명은 라플라시안 좌표를 사용하여 원본 리타게트된 움직임으로부터 변화하는 키 값의 세부사항을 모두 인코딩한다. 추가로 이것은 나머지 키 값들이 적절하게 보간되도록 하여, 타겟 구간 및 원본 리타게트된 움직임에서 키 값의 부분 집합을 포함하는 것을 허용한다. 본 발명에서는 라플라시안 좌표로부터 키 값(F)들을 복원하고, 수학식 15의 선형 최소 자승식을 만족시키도록 키 값(F)들을 제약한다.The present invention uses Laplacian coordinates to encode all the details of the key values that change from the original retargeted movement. In addition this allows the remaining key values to be interpolated properly, allowing to include a subset of the key values in the target interval and the original retargeted movement. In the present invention, the key values F are restored from the Laplacian coordinates, and the key values F are constrained to satisfy the linear least-squares expression of Equation (15).

Figure pat00025
Figure pat00025

이 시스템에서 m X nt 행렬(T)은 대응하는 열에 1을 갖는 m X n 행렬(CT)의 행에 따라 프레임들이 제약되는 m개의 타겟 구간 키 값들을 포함한다. 유사하게 l X nt 매트릭스(P) 는 l X n 제약 매트릭스(CP)에 따라, l개의 제약된 프레임들의 원본 구간이 아닌(original non-interval) 키 값들을 포함한다. 본 발명에서는 타겟 구간 제약 매트릭스 CT 와 T를 위하여, 상기한 감성적 시퀀스에 대해 구간 프레임들에 따라 모든 키 값을 제약하였다. 그리고 원본 리타게트된 움직임이 타겟 구간 시퀀스를 초과하는 것을 방지하기 위하여, 본 발명에서는 도3 에 묘사된 바와 같이 추가적으로 l개(l은 자연수)의 제약을 추가하였다.In this system, the m X nt matrix T includes m target interval key values in which frames are constrained according to the rows of the m X n matrix C T having 1 in the corresponding column. Similarly, the l X nt matrix P contains the original non-interval key values of the l constrained frames, according to the l X n constraint matrix C P. In the present invention, for the target interval constraint matrices C T and T, all key values are constrained according to the interval frames for the emotional sequence. And in order to prevent the original retargeted motion from exceeding the target interval sequence, in the present invention, as shown in FIG. 3, an additional l constraint (l is a natural number) is added.

도15 는 구간 및 비구간 제약에 따른 라플라시안 모션 와핑의 차이를 나타낸다. 도15 에서 아래 도면은 원본 리타게트된 모션이 보존되는 반면 상단 도면은 타겟 구간에 매치되도록 와핑된 타겟 구간(interval) 및 타겟 비구간(non-interval) 제약에 따른 원본 리타게트된 모션을 나타낸다.15 illustrates a difference in Laplacian motion warping due to interval and non-section constraints. In FIG. 15, the lower figure shows the original retargeted motion according to the target interval and target non-interval constraints that are warped to match the target interval while the original retargeted motion is preserved.

제1 및 제3 항목은 원본 리타게트된 움직임의 세부가 보존되는 것을 보증한다. 제2 항목은 감성적 시간 구간들을 충족시킨다는 것을 보증한다. 애니메이터 또는 사용자가 최종 결과를 수정할 수 있도록, 본 발명에서는 1 이 아닌 다른 값을 포함하여 하드한 제약보다는 소프트 제약을 사용한다.The first and third items ensure that the details of the original retargeted movement are preserved. The second item ensures that the emotional time intervals are met. In order to allow the animator or the user to modify the final result, the present invention uses soft constraints rather than hard constraints, including values other than one.

도16 은 본 발명에 따른 1차원 라플라시안 와핑을 적용한 타겟 애니메이션을 나타낸다.Figure 16 shows a target animation with one-dimensional Laplacian warping according to the present invention.

도16 에 도시된 바와 같이 모션 와핑이 수행된 타겟 애니메이션은 소스 애니메이션과 표정 변화의 타이밍이 다르게 나타나며, 캐릭터의 특성을 더욱 두드러지게 할 수 있다.As shown in FIG. 16, in the target animation on which motion warping is performed, the timing of the source animation and the facial expression change are different from each other, and the character of the character may be more prominent.

도17 은 본 발명의 하이브리드 리타게팅 기법을 다양한 캐릭터에 적용한 사례를 나타낸다. 도17 에 도시된 바와 같이 본 발명의 하이브리드 리타게팅 기법을 적용하면 소스 애니메이션의 사람 얼굴 표정이 형태학적으로 매우 상이한 여러 캐릭터에 자연스럽게 적용될 수 있다.
17 illustrates an example in which the hybrid retargeting technique of the present invention is applied to various characters. As shown in FIG. 17, when the hybrid retargeting technique of the present invention is applied, the human facial expression of the source animation can be naturally applied to various characters having very different morphologically.

본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
The device according to the invention can be embodied as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and a carrier wave (for example, transmission via the Internet). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (22)

입력 데이터인 소스 애니메이션이 입력되는 단계;
소스 애니메이션과 타겟 애니메이션 사이에 표정 쌍 범위가 설정되는 단계;
상기 설정된 표정 쌍 범위에 대해 RBF(Radial Basis Function) 기반 분석 트레이닝이 수행되는 단계;
상기 설정된 표정 쌍 범위에 대해 kCCA(Kernel Canonical Correlation Analysis) 기반 회귀 트레이닝이 수행되는 단계; 및
상기 RBF 기반 회귀 트레이닝 결과 및 kCCA 기반 회귀 트레이닝 결과가 사용자에 의해 지정된 블렌딩 파라미터에 의해 조합되어 상기 소스 애니메이션의 표정에 대응하는 상기 타겟 애니메이션의 표정을 생성하는 최종 리타게팅 단계를 구비하는 얼굴 애니메이션 리타게팅 방법.
Inputting a source animation as input data;
Setting a facial expression pair range between the source animation and the target animation;
Performing RBF-based analysis training on the set facial expression range;
Performing a Kernel Canonical Correlation Analysis (kCCA) based regression training on the set facial expression range; And
And a final retargeting step of combining the RBF based regression training result and the kCCA based regression training result by a blending parameter designated by a user to generate a facial expression of the target animation corresponding to the facial expression of the source animation. Way.
제1 항에 있어서, 상기 소스 애니메이션이 입력되는 단계는
미리 캡쳐되어 적절하게 리타게팅된 인체 모델의 블렌드쉐이프(blendshapes)가 상기 입력 데이터로서 인가되는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 1, wherein the input of the source animation is performed.
A blendshape of a pre-captured and properly retargeted human body model is applied as the input data.
제2 항에 있어서, 상기 표정 쌍 범위가 설정되는 단계는
애니메이터에 의해 소스 애니메이션과 타겟 애니메이션이 의미적으로 동일한 얼굴 표정을 갖는 구간이 상기 표정 쌍 범위로 설정되는 단계; 및
상기 표정 쌍 범위가 행렬식으로 변환되는 단계를 구비하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 2, wherein the setting of the facial expression pair range is
Setting, by an animator, a section in which a source animation and a target animation have semantically identical facial expressions to the expression pair range; And
And converting the range of facial expression pairs into a determinant.
제3 항에 있어서, 상기 표정 쌍 범위로 설정되는 단계는
상기 소스 애니메이션과 상기 타겟 애니메이션 각각에서 수학식
Figure pat00026

(여기서 bi는 대응하는 가중치(wi)의 블렌드쉐이프이며, Sourceexp와 targetexp는 각각 소스 애니메이션과 타겟 애니메이션에서 의미적으로 동일한 얼굴 표정을 나타내고, ns 는 소스 애니메이션의 블랜드 쉐이프 개수로서 자연수이며, nt는 타겟 애니메이션의 원소인 제어 벡터(cv)의 차원(dimension)으로서 자연수이다.)
에 의해 설정되는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 3, wherein the setting of the facial expression pair range
Equation in each of the source animation and the target animation
Figure pat00026

Where b i is the blend shape of the corresponding weights (w i ), Source exp and target exp represent the semantically identical facial expressions in the source and target animations respectively, ns is the number of blend shapes in the source animation , nt is the dimension of the control vector (cv) that is the element of the target animation.
Facial animation retargeting method, characterized in that set by.
제4 항에 있어서, 상기 행렬식으로 변환되는 단계는
상기 소스 애니메이션과 상기 타겟 애니메이션 각각을 수학식
Figure pat00027

Figure pat00028

(여기서 S는 소스 애니메이션의 표정 행렬의 범위, T는 S에 대응하는 타겟 애니메이션의 표정 행렬의 범위, np는 표정 쌍 범위의 개수)
로 변환하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 4, wherein the step of converting into a determinant
Each of the source animation and the target animation is formula
Figure pat00027
And
Figure pat00028

Where S is the range of the expression matrix of the source animation, T is the range of the expression matrix of the target animation corresponding to S, and np is the number of ranges of the expression pairs.
Retargeting facial animation, characterized in that for converting.
제5 항에 있어서, 상기 RBF 기반 회귀 트레이닝이 수행되는 단계는
RBF 가중치가 계산되는 단계; 및
상기 RBF 가중치를 이용하여 RBF 출력 벡터가 계산되는 단계를 구비하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 5, wherein the RBF-based regression training is performed
Calculating an RBF weight; And
And calculating an RBF output vector by using the RBF weights.
제6 항에 있어서, 상기 RBF 가중치가 계산되는 단계는
상기 RBF 가중치가 수학식
Figure pat00029

(여기서 ri는 계산되어야 하는 상기 RBF 가중치를 나타내고, np는 표정 쌍 범위의 개수를 나타내고, wi는 가중치 입력 벡터를 나타내며, F(wi)는 계산된 출력을 나타낸다.)
에 의해 계산되고,
함수 φj(wi)는 수학식
Figure pat00030

(여기서 sj은 가중치 입력 벡터(wj)와 가장 인접한 가중치 입력 벡터(wi) 사이에서 측정되는 간격을 나타낸다.)
에 의해 계산되는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 6, wherein the step of calculating the RBF weight is
The RBF weight is equation
Figure pat00029

(Where ri represents the RBF weight to be calculated, np represents the number of facial expression pair ranges, wi represents the weight input vector, and F (wi) represents the calculated output.)
Lt; / RTI >
The function φ j (w i ) is
Figure pat00030

(Where sj represents the interval measured between the weight input vector wj and the nearest weight input vector wi).
Facial animation retargeting method, characterized in that is calculated by.
제7 항에 있어서, 상기 RBF 출력 벡터가 계산되는 단계는
상기 가중치 입력 벡터(wi(i= 1, 2, ... , ns)로 대응되는 상기 소스 애니메이션과 상기 제어 벡터(cvi(i= 1, 2, ... , nt)로 대응되는 상기 타겟 애니메이션이 각각 np(np는 자연수)번 트레이닝되어, RBF 선형 연산자(MRBF)가 수학식
(MRBF=[r1│r2│...│ri│...│rnt])
(여기서 ri는 i번째 np-차원의 가중 벡터)
에 의해 계산되고,
상기 RBF 출력 벡터(tRBF)가 수학식
Figure pat00031

에 의해 계산되는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
8. The method of claim 7, wherein calculating the RBF output vector
The target animation corresponding to the weight input vector wi (i = 1, 2, ..., ns) and the target animation corresponding to the control vector cvi (i = 1, 2, ..., nt) Each of these np (np is a natural number) times, RBF linear operator (M RBF )
(M RBF = [r 1 │r 2 │ ... │r i │ ... │r nt ])
Where r i is the i-th np-dimensional weight vector
Lt; / RTI >
The RBF output vector t RBF is expressed as
Figure pat00031

Facial animation retargeting method, characterized in that is calculated by.
제8 항에 있어서, 상기 kCCA 기반 회귀 트레이닝 단계는
상기 소스 애니메이션의 표정 행렬(S)과 상기 타겟 애니메이션의 표정 행렬(T)을 이용하여 상관 계수(correlation coefficient)(ρ)가 계산되는 단계;
표준 선형 회귀를 이용하여 최소 자승 판별값에서 에러가 최소화되도록 리타게팅 모델이 생성되는 단계;
생성된 리타게팅 모델로부터 kCCA 선형 연산자(MkCCA)가 계산되는 단계; 및
상기 kCCA 선형 연산자(MkCCA)와 커널 함수를 이용하여 획득되는 커널화된 벡터(
Figure pat00032
)를 이용하여 kCCA 출력 벡터가 계산되는 단계를 구비하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 8, wherein the kCCA-based regression training step is
Calculating a correlation coefficient p using the facial expression matrix S of the source animation and the facial expression matrix T of the target animation;
Generating a retargeting model such that an error is minimized in the least squares determination using standard linear regression;
Calculating a kCCA linear operator (M kCCA ) from the generated retargeting model; And
Kernelized vector obtained using the kCCA linear operator (M kCCA ) and a kernel function (
Figure pat00032
And calculating the kCCA output vector using the < RTI ID = 0.0 >
제9 항에 있어서, 상기 kCCA 기반 회귀 트레이닝 단계는
상관 계수가 수학식
Figure pat00033

(여기서, hs, ht 는 계수 벡터(coefficient vector)로서 각각
Figure pat00034
이고,
Figure pat00035
로 계산되며,
Figure pat00036
Figure pat00037
는 각각 커널 함수(k)에 의해 특징 공간상에 샘플링되는 소스 및 타겟 행렬을 나타낸다.)
에 의해 계산되고,
상기 리타게팅 모델은 수학식
Figure pat00038

Figure pat00039

(여기서, sr 및 tr은 축소된 데이터 쌍)
에 의해 생성되고,
상기 kCCA 선형 연산자(MkCCA)는 수학식
MkCCA=MtMsHs에 의해 계산되며,
상기 kCCA 출력 벡터(tkCCA)는
Figure pat00040

에 의해 계산되는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
10. The method of claim 9, wherein the kCCA based regression training step
The correlation coefficient is
Figure pat00033

Where h s and h t are coefficient vectors, respectively
Figure pat00034
ego,
Figure pat00035
Is calculated as
Figure pat00036
Wow
Figure pat00037
Denote the source and target matrices sampled on the feature space by the kernel function k, respectively.)
Lt; / RTI >
The retargeting model is equation
Figure pat00038
And
Figure pat00039

Where s r and t r are reduced data pairs
Generated by
The kCCA linear operator (M kCCA ) is a mathematical formula
Calculated by M kCCA = M t M s H s ,
The kCCA output vector t kCCA is
Figure pat00040

Facial animation retargeting method, characterized in that is calculated by.
제10 항에 있어서, 상기 최종 리타게팅 단계는
최종 리타게팅 출력 벡터(tfinal)가 상기 RBF 기반 회귀 트레이닝 결과인 RBF 출력 벡터(tRBF)와 상기 kCCA 기반 회귀 트레이닝 결과인 kCCA 출력 벡터(tkCCA)를 상기 애니메이터에 의해 설정되는 상기 블렌딩 파라미터(α)에 의해 수학식
Figure pat00041

(여기서, 블렌딩 파라미터(blending parameter)(α)는 [0, 1] 범위 내의 실수)
로서 계산되는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 10, wherein the final retargeting step
The final retargeting output vector tfinal is the RBF output vector tRBF, which is the RBF-based regression training result, and the kCCA output vector tkCCA, which is the kCCA-based regression training result, in the blending parameter α set by the animator. By equation
Figure pat00041

(Where blending parameter α is a real number within [0, 1] range)
Facial animation retargeting method characterized in that it is calculated as.
제11 항에 있어서, 상기 얼굴 애니메이션 리타게팅 방법은
상기 타겟 애니메이션에 대해 모션 와핑이 수행되는 단계를 더 구비하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 11, wherein the facial animation retargeting method is
And performing motion warping on the target animation.
제12 항에 있어서, 상기 모션 와핑이 수행되는 단계는
상기 소스 애니메이션의 특정 감성적 시퀀스를 위해 애니메이터에 의해 상기 타겟 애니메이션의 얼굴 형태와 표정 변화의 타이밍 양쪽이 모두 포함되는 감성적 시퀀스 쌍이 상기 애니메이터에 의해 설정되는 단계;
상기 감성적 시퀀스 쌍에서 모션 와핑이 수행되어야할 구간이 획득되도록 휴리스틱 탐색이 수행되는 단계; 및
상기 휴리스틱 탐색을 통해 획득된 구간에 대해 1차원 라플라시안 좌표(1D Laplacian coordinates)를 이용하여 상기 타겟 애니메이션의 움직임 구간들에 적합한 원본 리타게트된 움직임 곡선에 대해 모션 와핑이 수행되는 단계를 구비하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 12, wherein the motion warping is performed
Setting, by the animator, an emotional sequence pair that includes both the facial shape and the timing of facial expression change of the target animation by an animator for a specific emotional sequence of the source animation;
Performing a heuristic search to obtain a section in which the motion warping should be performed in the emotional sequence pair; And
Motion warping is performed on the original retargeted motion curve suitable for the motion sections of the target animation using 1D Laplacian coordinates for the section obtained through the heuristic search. How to retarget facial animations.
제13 항에 있어서, 상기 휴리스틱 탐색이 수행되는 단계는
상기 모션 와핑이 수행되어야 할 시작 프레임들(Fst)이 수학식
Figure pat00042

(여기서
Figure pat00043
은 리타게트된 소스 움직임의 현재 시작 프레임이고,
Figure pat00044
는 소스 쌍 구간의 시작 프레임이고, δ는 애니메이터 또는 사용자에 의해 지정되는 문턱값)
에 의해 탐색되는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 13, wherein the heuristic search is performed
Start frames F st to which the motion warping should be performed are
Figure pat00042

(here
Figure pat00043
Is the current starting frame of the retargeted source movement,
Figure pat00044
Is the start frame of the source pair interval, and δ is the threshold specified by the animator or user)
Facial animation retargeting method characterized in that the navigation by.
제14 항에 있어서, 상기 1차원 라플라시안 좌표를 이용하여 모션 와핑이 수행되는 단계는
상기 1차원 라플라시안 좌표상의 모든 타겟 제어 차원(nt)에 대해 전체 n개의 프레임들에서 키 값(key value)(f(t))이 변환되는 단계;
라플라시안 좌표(L)가 수학식
Figure pat00045

(여기서, Fo는 매 제어 차원에 대한 모든 키 값을 저장하는 n X nt 행렬이고, Δ는 (n-1)X n 인 1차원 라플라시안 행렬)
Δ의 원소는 수학식
Figure pat00046

에 의해 계산되는 단계를 구비하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 14, wherein the motion warping is performed using the one-dimensional Laplacian coordinates.
Converting a key value f (t) in all n frames for all target control dimensions nt on the one-dimensional Laplacian coordinates;
Laplacian coordinates (L) are equations
Figure pat00045

(Where Fo is an n X nt matrix that stores all key values for every control dimension, and Δ is a one-dimensional Laplacian matrix with (n-1) X n)
The element of Δ is
Figure pat00046

And a step calculated by the method for facial animation retargeting.
제15 항에 있어서, 상기 1차원 라플라시안 좌표를 이용하여 모션 와핑이 수행되는 단계는
상기 1차원 라플라시안 좌표로부터 상기 키 값(F)들이 복원되는 단계; 및
수학식
Figure pat00047

의 선형 최소 자승식을 만족시키도록 상기 키 값(F)들이 제약되는 단계를 더 구비하는 것을 특징으로 하는 얼굴 애니메이션 리타게팅 방법.
The method of claim 15, wherein the motion warping is performed using the one-dimensional Laplacian coordinates.
Restoring the key values (F) from the one-dimensional Laplacian coordinates; And
Equation
Figure pat00047

And constraining the key values (F) to satisfy the linear least squares of.
제1 항 내지 제16 항에 있어서, 상기 얼굴 애니메이션 리타게팅 방법을 실행하기 위한 프로그램 명령어가 기록된, 컴퓨터가 판독가능한 기록매체.
17. The computer program product of claim 1 to 16, wherein program instructions for executing the facial animation retargeting method are recorded.
상기 소스 애니메이션의 특정 감성적 시퀀스를 위해 애니메이터에 의해 상기 타겟 애니메이션의 얼굴 형태와 표정 변화의 타이밍 양쪽이 모두 포함되는 감성적 시퀀스 쌍이 상기 애니메이터에 의해 설정되는 단계;
상기 감성적 시퀀스 쌍에서 모션 와핑이 수행되어야할 구간이 획득되도록 휴리스틱 탐색이 수행되는 단계; 및
상기 휴리스틱 탐색을 통해 획득된 구간에 대해 1차원 라플라시안 좌표(1D Laplacian coordinates)를 이용하여 상기 타겟 애니메이션의 움직임 구간들에 적합한 원본 리타게트된 움직임 곡선에 대해 모션 와핑이 수행되는 단계를 구비하는 것을 특징으로 하는 얼굴 애니메이션 모션 와핑 방법.
Setting, by the animator, an emotional sequence pair that includes both the facial shape and the timing of facial expression change of the target animation by an animator for a specific emotional sequence of the source animation;
Performing a heuristic search to obtain a section in which the motion warping should be performed in the emotional sequence pair; And
And performing motion warping on the original retargeted motion curve suitable for the motion sections of the target animation using 1D Laplacian coordinates for the section obtained through the heuristic search. How to warp face animation motion.
제18 항에 있어서, 상기 휴리스틱 탐색이 수행되는 단계는
상기 모션 와핑이 수행되어야 할 시작 프레임들(Fst)이 수학식
Figure pat00048

(여기서
Figure pat00049
은 리타게트된 소스 움직임의 현재 시작 프레임이고,
Figure pat00050
는 소스 쌍 구간의 시작 프레임이고, δ는 애니메이터 또는 사용자에 의해 지정되는 문턱값)
에 의해 탐색되는 것을 특징으로 하는 얼굴 애니메이션 모션 와핑 방법.
19. The method of claim 18, wherein the heuristic search is performed
Start frames F st to which the motion warping should be performed are
Figure pat00048

(here
Figure pat00049
Is the current starting frame of the retargeted source movement,
Figure pat00050
Is the start frame of the source pair interval, and δ is the threshold specified by the animator or user)
Facial animation motion warping method characterized in that the navigation by.
제19 항에 있어서, 상기 1차원 라플라시안 좌표를 이용하여 모션 와핑이 수행되는 단계는
상기 1차원 라플라시안 좌표상의 모든 타겟 제어 차원(nt)에 대해 전체 n개의 프레임들에서 키 값(key value)(f(t))이 변환되는 단계;
라플라시안 좌표(L)가 수학식
Figure pat00051

(여기서, Fo는 매 제어 차원에 대한 모든 키 값을 저장하는 n X nt 행렬이고, Δ는 (n-1)X n 인 1차원 라플라시안 행렬)
Δ의 원소는 수학식
Figure pat00052

에 의해 계산되는 단계를 구비하는 것을 특징으로 하는 얼굴 애니메이션 모션 와핑 방법.
The method of claim 19, wherein the motion warping is performed using the one-dimensional Laplacian coordinates.
Converting a key value f (t) in all n frames for all target control dimensions nt on the one-dimensional Laplacian coordinates;
Laplacian coordinates (L) are equations
Figure pat00051

(Where Fo is an n X nt matrix that stores all key values for every control dimension, and Δ is a one-dimensional Laplacian matrix with (n-1) X n)
The element of Δ is
Figure pat00052

And a step computed by the facial animation motion warping method.
제20 항에 있어서, 상기 1차원 라플라시안 좌표를 이용하여 모션 와핑이 수행되는 단계는
상기 1차원 라플라시안 좌표로부터 상기 키 값(F)들이 복원되는 단계; 및
수학식
Figure pat00053

의 선형 최소 자승식을 만족시키도록 상기 키 값(F)들이 제약되는 단계를 더 구비하는 것을 특징으로 하는 얼굴 애니메이션 모션 와핑 방법.
The method of claim 20, wherein the motion warping is performed using the one-dimensional Laplacian coordinates.
Restoring the key values (F) from the one-dimensional Laplacian coordinates; And
Equation
Figure pat00053

And constraining the key values (F) to satisfy the linear least squares of.
제18 항 내지 제21 항에 있어서, 상기 얼굴 애니메이션 모션 와핑 방법을 실행하기 위한 프로그램 명령어가 기록된, 컴퓨터가 판독가능한 기록매체. 22. The computer program product of claim 18, wherein program instructions for executing the facial animation motion warping method are recorded.
KR1020110056907A 2011-06-13 2011-06-13 Retargeting method for characteristic facial and recording medium for the same KR101261737B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110056907A KR101261737B1 (en) 2011-06-13 2011-06-13 Retargeting method for characteristic facial and recording medium for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110056907A KR101261737B1 (en) 2011-06-13 2011-06-13 Retargeting method for characteristic facial and recording medium for the same

Publications (2)

Publication Number Publication Date
KR20120137826A true KR20120137826A (en) 2012-12-24
KR101261737B1 KR101261737B1 (en) 2013-05-09

Family

ID=47904753

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110056907A KR101261737B1 (en) 2011-06-13 2011-06-13 Retargeting method for characteristic facial and recording medium for the same

Country Status (1)

Country Link
KR (1) KR101261737B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104835190A (en) * 2015-04-29 2015-08-12 华东师范大学 3D instant messaging system and messaging method
CN107713984A (en) * 2017-02-07 2018-02-23 王俊 Facial paralysis objective evaluation method and its system
CN110310349A (en) * 2013-06-07 2019-10-08 费斯史福特有限公司 The line modeling of real-time face animation
KR20190137020A (en) * 2018-05-31 2019-12-10 이충훈 Device of generating animation character and Method thereof
KR20190137021A (en) * 2018-05-31 2019-12-10 이충훈 Device of generating animation character and Method thereof
KR102108422B1 (en) * 2019-08-07 2020-05-11 (주)자이언트스텝 System and Method for Optimizing Facial Expression of Virtual Characters through AI-based Facial Expression Classification and Retargeting, and Computer Readable Storage Medium
KR20210108529A (en) * 2020-02-25 2021-09-03 주식회사 하이퍼커넥트 Image Reenactment Apparatus, Method and Computer Readable Recording Medium Thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101746430B1 (en) 2016-05-19 2017-06-13 동국대학교 산학협력단 Morphing method and apparatus
KR102480960B1 (en) * 2020-12-17 2022-12-26 동국대학교 산학협력단 Device and method for transforming human face into animal face

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950104B1 (en) 2000-08-30 2005-09-27 Microsoft Corporation Methods and systems for animating facial features, and methods and systems for expression transformation

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110310349A (en) * 2013-06-07 2019-10-08 费斯史福特有限公司 The line modeling of real-time face animation
CN110310349B (en) * 2013-06-07 2023-11-28 费斯史福特有限公司 Online modeling of real-time facial animation
US11948238B2 (en) 2013-06-07 2024-04-02 Apple Inc. Online modeling for real-time facial animation
CN104835190A (en) * 2015-04-29 2015-08-12 华东师范大学 3D instant messaging system and messaging method
CN107713984A (en) * 2017-02-07 2018-02-23 王俊 Facial paralysis objective evaluation method and its system
CN107713984B (en) * 2017-02-07 2024-04-09 王俊 Objective assessment method for facial paralysis
KR20190137020A (en) * 2018-05-31 2019-12-10 이충훈 Device of generating animation character and Method thereof
KR20190137021A (en) * 2018-05-31 2019-12-10 이충훈 Device of generating animation character and Method thereof
KR102108422B1 (en) * 2019-08-07 2020-05-11 (주)자이언트스텝 System and Method for Optimizing Facial Expression of Virtual Characters through AI-based Facial Expression Classification and Retargeting, and Computer Readable Storage Medium
WO2021025279A1 (en) * 2019-08-07 2021-02-11 (주)자이언트스텝 System, method, and computer-readable storage medium for optimizing expression of virtual character through ai-based expression classification and retargeting
KR20210108529A (en) * 2020-02-25 2021-09-03 주식회사 하이퍼커넥트 Image Reenactment Apparatus, Method and Computer Readable Recording Medium Thereof

Also Published As

Publication number Publication date
KR101261737B1 (en) 2013-05-09

Similar Documents

Publication Publication Date Title
KR101261737B1 (en) Retargeting method for characteristic facial and recording medium for the same
US11908057B2 (en) Image regularization and retargeting system
Arikan et al. Interactive motion generation from examples
US7535472B2 (en) Method for generating intuitive quasi-eigen faces
Jörg et al. Data-driven finger motion synthesis for gesturing characters
Song et al. Characteristic facial retargeting
Ye et al. Audio-driven talking face video generation with dynamic convolution kernels
Wan et al. Data-driven facial expression synthesis via Laplacian deformation
KR20100088347A (en) Method for retargeting expression
Wu et al. F³A-GAN: Facial Flow for Face Animation With Generative Adversarial Networks
Hu et al. Simulation‐ready hair capture
Oreshkin et al. Motion In-Betweening via Deep $\Delta $-Interpolator
Naert et al. Motion synthesis and editing for the generation of new sign language content: Building new signs with phonological recombination
Kim et al. Collaborative score distillation for consistent visual editing
KR102108422B1 (en) System and Method for Optimizing Facial Expression of Virtual Characters through AI-based Facial Expression Classification and Retargeting, and Computer Readable Storage Medium
Liu et al. Exploring Non‐Linear Relationship of Blendshape Facial Animation
Liu et al. A framework for locally retargeting and rendering facial performance
US20230079478A1 (en) Face mesh deformation with detailed wrinkles
Seo et al. StylePortraitVideo: Editing Portrait Videos with Expression Optimization
Serra et al. Behavioural facial animation using motion graphs and mind maps
Sistla et al. A State-of-the-Art Review on Image Synthesis with Generative Adversarial Networks
Nazarieh et al. A Survey of Cross-Modal Visual Content Generation
Peruzzo et al. VASE: Object-Centric Appearance and Shape Manipulation of Real Videos
US20230316616A1 (en) Animation Generation and Interpolation with RNN-Based Variational Autoencoders
Shin et al. Expression synthesis and transfer in parameter spaces

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160328

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee