KR101116838B1 - Generating Method for exaggerated 3D facial expressions with personal styles - Google Patents

Generating Method for exaggerated 3D facial expressions with personal styles Download PDF

Info

Publication number
KR101116838B1
KR101116838B1 KR1020090131809A KR20090131809A KR101116838B1 KR 101116838 B1 KR101116838 B1 KR 101116838B1 KR 1020090131809 A KR1020090131809 A KR 1020090131809A KR 20090131809 A KR20090131809 A KR 20090131809A KR 101116838 B1 KR101116838 B1 KR 101116838B1
Authority
KR
South Korea
Prior art keywords
expression
exaggerated
individual
model
face model
Prior art date
Application number
KR1020090131809A
Other languages
Korean (ko)
Other versions
KR20110075372A (en
Inventor
진성아
Original Assignee
성결대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성결대학교 산학협력단 filed Critical 성결대학교 산학협력단
Priority to KR1020090131809A priority Critical patent/KR101116838B1/en
Publication of KR20110075372A publication Critical patent/KR20110075372A/en
Application granted granted Critical
Publication of KR101116838B1 publication Critical patent/KR101116838B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Abstract

본 발명은 개인성향을 반영한 과장표정 생성방법에 관한 것으로서, 상기 개인성향을 반영한 과장표정 생성방법은 가상근육의 움직임을 통해 표정을 생성할 수 있는 3차원 얼굴 모델을 이용한 과장표정 생성방법에 있어서, (a) 복수의 마커가 부착된 모델의 실사 이미지로부터 표정변화에 따른 모션데이터를 획득하고, 획득된 모션데이터로부터 표정변화에 따른 모션벡터와 과장모션벡터를 산출하는 단계; (b) 성격유형검사결과에 따라 나누어진 복수의 마커가 부착된 성격유형별 모델의 실사 이미지로부터 표정변화에 따른 마커간 거리값을 산출하고, 산출된 거리값을 이용하여 스타일 레이츠 매핑 테이블(Style rates mapping table)을 생성하는 단계; (c) 생성된 레이츠 매핑 테이블을 이용하여 성격유형별 과장지수 계산식을 산출하는 단계; (d) 개인의 2차원 이미지를 입력받고, 입력된 개인의 2차원 이미지와 상기 3차원 얼굴 모델을 이용하여 개인별 3차원 얼굴 모델을 생성하는 단계; (e) 개인의 성격유형과 과장률 정보를 입력받아 성격유형별 과장지수를 산출하는 단계; 및 (f) 산출된 성격유형별 과장지수를 상기 과장모션벡터에 적용하고, 그 결과를 상기 가상근육에 적용하여 상기 개인별 3차원 얼굴 모델에 개인성향을 반영한 과장표정을 생성하는 단계를 포함하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법이다.The present invention relates to a method for generating an exaggerated expression reflecting an individual tendency, the method for generating an exaggerated expression reflecting an individual tendency in a method for generating an exaggerated expression using a three-dimensional face model that can generate an expression through the movement of virtual muscle, (a) acquiring motion data according to facial expression change from a live image of a model to which a plurality of markers are attached, and calculating motion vector and exaggerated motion vector according to facial expression change from the obtained motion data; (b) Calculate the distance value between markers according to facial expression change from the live-action image of the model for each personality type with a plurality of markers divided according to the personality type test result, and use the calculated distance value generating a rate mapping table); (c) calculating an exaggeration index for each personality type using the generated rate mapping table; (d) receiving a two-dimensional image of an individual and generating a three-dimensional face model for each individual using the inputted two-dimensional image of the individual and the three-dimensional face model; (e) calculating the exaggeration index for each personality type by receiving the personality type and the exaggeration rate information of the individual; And (f) applying the calculated exaggeration index for each personality type to the exaggerated motion vector, and applying the result to the virtual muscle to generate an exaggerated expression reflecting individual inclination in the individual three-dimensional face model. It is a method of generating exaggerated expressions reflecting personal tendencies.

본 발명에 따르면, 다양한 피험자들의 성향분류결과와 각 성향별 표정에서의 특징을 분석/반영하여 과장표정을 생성하게 되므로, 보다 사실적이고 개인의 성향을 반영한 과장표정을 생성할 수 있으며, 과장률을 사용자가 임의로 조절할 수 있으므로 다양한 스케일의 과장표정을 생성할 수 있다는 장점이 있다.According to the present invention, since the exaggerated expression is generated by analyzing / reflecting the results of the disposition of various subjects and the characteristics of the facial expressions of each inclination, the exaggerated expression may be more realistic and reflect the individual's inclination. Since it can be arbitrarily adjusted by the user, there is an advantage that an exaggerated expression of various scales can be generated.

개인성향, 개인화 얼굴모델, 과장표정, 과장화, 모션벡터, 성격유형, 가상근육 Personal orientation, personalized face model, exaggeration, exaggeration, motion vector, personality type, virtual muscle

Description

개인성향을 반영한 과장표정 생성방법{Generating Method for exaggerated 3D facial expressions with personal styles}Generating Method for exaggerated 3D facial expressions with personal styles}

본 발명은 개인성향을 반영한 과장표정 생성방법에 관한 것으로서, 보다 상세하게는 개인의 성향을 반영하여 개인화된 과장표정을 생성할 수 있는 과장표정 생성방법에 관한 것이다.The present invention relates to a method for generating an exaggerated expression reflecting an individual tendency, and more particularly, to a method for generating an exaggerated expression that can generate a personalized exaggerated expression reflecting an individual's inclination.

근래에 들어 개인의 2차원 얼굴 이미지로부터 3차원 얼굴 이미지를 생성하는 기술이 많은 분야에서 이용되고 있다. 그러나 초창기의 3차원 개인화 얼굴생성 기법 자체는 2차원 이미지를 단순히 3차원 이미지로 변환하는 기능만을 제공한다는 문제점이 있었다.In recent years, a technique for generating a three-dimensional face image from an individual two-dimensional face image has been used in many fields. However, the early three-dimensional personalized face generation technique itself had a problem in that it merely provided a function of simply converting a two-dimensional image into a three-dimensional image.

이러한 문제점을 해결하기 위하여, 정적인 3차원 이미지가 아니라 다양한 표정의 생성이 가능한 3차원 이미지를 생성하는 기술에 대한 연구가 증대되고 있는 실정이다. In order to solve this problem, research into a technology for generating a three-dimensional image capable of generating a variety of expressions, rather than a static three-dimensional image is increasing.

그러나, 이러한 종래기술의 경우에도 단순히 사용자의 마우스 조작을 통하여 3차원 이미지의 표정을 변화시키거나 또는 사용자의 선택에 따라 미리 생성되어 저장된 표정의 3차원 이미지를 표시하는 것에 불과하다는 문제점이 있었다.However, even in the related art, there is a problem in that the expression of the three-dimensional image is simply changed by a user's mouse manipulation or the three-dimensional image of the expression generated and stored in advance according to the user's selection is displayed.

또한, 이러한 종래기술에 따른 감정이 표현되는 3차원 이미지의 경우 임의적으로 3차원 이미지의 얼굴모델을 변형시키는 것에 불과하여 사실적인 표정의 구현이 불가능하다는 문제점이 있었다. In addition, in the case of a three-dimensional image in which the emotion according to the prior art is expressed, there is a problem in that it is impossible to realize a realistic facial expression by merely modifying a face model of the three-dimensional image.

또한, 동일한 감정의 표현도 개인의 성향에 따라 다른게 표현될 수 있음에도 불구하고, 이러한 개인의 성향을 반영한 표정의 생성이 불가능하다는 문제점이 있었다. In addition, although the expression of the same emotion can be expressed differently according to the inclination of the individual, there was a problem that it is impossible to generate an expression reflecting the inclination of the individual.

본 발명은 상술한 바와 같은 종래기술의 문제점을 해결하기 위하여, 표정을 맵핑할 3차원 얼굴모델, 기본 얼굴모델에 사용할 텍스쳐, 각 표정의 모션캡쳐 데이터, 해부학적 분석과 모션 데이터 분성에 기반하여 도출된 표정별 근육 데이터를 기초로 다양한 피험자들의 성향분류결과와 각 성향별 표정에서의 특징을 이용하여 개인화된 과장표정을 생성할 수 있는 방법을 제공함을 목적으로 한다.The present invention is derived based on the three-dimensional face model to map the expression, the texture to be used for the basic face model, the motion capture data of each expression, anatomical analysis and motion data division to solve the problems of the prior art as described above. The purpose of the present invention is to provide a method for generating personalized exaggerated facial expressions using propensity classification results of various subjects and characteristics of facial expressions of each propensity based on the muscle data for each facial expression.

상기한 바와 같은 목적을 달성하기 위해, 본 발명의 바람직한 일 실시예에 따르면, 가상근육의 움직임을 통해 표정을 생성할 수 있는 3차원 얼굴 모델을 이용한 과장표정 생성방법에 있어서, (a) 복수의 마커가 부착된 모델의 실사 이미지로부터 표정변화에 따른 모션데이터를 획득하고, 획득된 모션데이터로부터 표정변화에 따른 모션벡터와 과장모션벡터를 산출하는 단계; (b) 성격유형검사결과에 따라 나누어진 복수의 마커가 부착된 성격유형별 모델의 실사 이미지로부터 표정변화에 따른 마커간 거리값을 산출하고, 산출된 거리값을 이용하여 스타일 레이츠 매핑 테이블(Style rates mapping table)을 생성하는 단계; (c) 생성된 레이츠 매핑 테이블을 이용하여 성격유형별 과장지수 계산식을 산출하는 단계를 포함하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법이 제공된다.In order to achieve the above object, according to a preferred embodiment of the present invention, in the exaggerated expression generating method using a three-dimensional face model that can generate an expression through the movement of the virtual muscle, (a) a plurality of Acquiring motion data according to facial expression change from the actual image of the model to which the marker is attached, and calculating motion vectors and exaggerated motion vectors according to facial expression change from the obtained motion data; (b) Calculate the distance value between markers according to facial expression change from the live-action image of the model for each personality type with a plurality of markers divided according to the personality type test result, and use the calculated distance value generating a rate mapping table); (c) A method of generating an exaggerated expression reflecting personality is provided, comprising calculating an exaggeration index for each personality type by using the generated lattice mapping table.

또한, 전술한 개인성향을 반영한 과장표정 생성방법은, (d) 개인의 2차원 이 미지를 입력받고, 입력된 개인의 2차원 이미지와 상기 3차원 얼굴 모델을 이용하여 개인별 3차원 얼굴 모델을 생성하는 단계; (e) 개인의 성격유형과 과장률 정보를 입력받아 성격유형별 과장지수를 산출하는 단계; 및 (f) 산출된 성격유형별 과장지수를 상기 과장모션벡터에 적용하고, 그 결과를 상기 가상근육에 적용하여 상기 개인별 3차원 얼굴 모델에 개인성향을 반영한 과장표정을 생성하는 단계를 더 포함할 수 있다. In addition, the method for generating an exaggerated expression reflecting the above-described individual tendencies, (d) receives a two-dimensional image of the individual, and generates a three-dimensional face model for each individual by using the input two-dimensional image and the three-dimensional face model Making; (e) calculating the exaggeration index for each personality type by receiving the personality type and the exaggeration rate information of the individual; And (f) applying the calculated exaggeration index for each personality type to the exaggerated motion vector, and applying the result to the virtual muscle to generate an exaggerated expression reflecting individual tendencies in the individual three-dimensional face model. have.

여기서, 전술한 (a) 단계는, (a1) 복수의 마커를 부착한 연기자의 6가지 기본 얼굴 표정을 연속으로 촬영하고, 촬영된 영상을 분석하여 각 프레임별로 표정변화에 따른 각 마커의 3차원 좌표를 이용해 표정별 모션데이터를 산출하는 단계; (a2) 표정별 모션데이터 행렬 M을 비음수 행렬로 만든 후, NMF(Non-negative Matrix Factorization)를 이용하여 특성 행렬 B과 가중치 행렬 E로 분해하여 최적화된 근사행렬 BE을 구하는 단계; 및 (a3) 가중치 행렬 E의 각 열을 평균과 편차로 분해하고, 근사행렬 BE에 잉여행렬 R을 더한 후, 이로부터 모션벡터와 과장모션벡터를 산출하는 단계를 포함할 수 있다. Here, in step (a), (a1) the six basic facial expressions of the actor with a plurality of markers are continuously photographed, and the captured images are analyzed to three-dimensional of each marker according to the expression change for each frame. Calculating motion data for each facial expression using coordinates; (a2) obtaining the optimized approximation matrix BE by decomposing the motion data matrix M for each facial expression into a non-negative matrix, and then decomposing the characteristic matrix B and the weight matrix E using non-negative matrix factorization (NMF); And (a3) decomposing each column of the weight matrix E into an average and a deviation, adding an ingot travel matrix R to the approximate matrix BE, and calculating a motion vector and an exaggerated motion vector therefrom.

또한, 전술한 (a3) 단계에서 산출되는 모션벡터는In addition, the motion vector calculated in step (a3) described above is

Figure 112009080722530-pat00001
이고,
Figure 112009080722530-pat00001
ego,

상기 (a3) 단계에서 산출되는 과장모션벡터는The exaggerated motion vector calculated in step (a3) is

Figure 112009080722530-pat00002
Figure 112009080722530-pat00002

Figure 112009080722530-pat00003
으로 도출될 수 있다.
Figure 112009080722530-pat00003
Can be derived.

한편, 전술한 (a1) 단계의 6가지 기본 얼굴 표정은 놀람, 두려움, 화남, 혐오, 행복, 슬픔일 수 있다. On the other hand, the six basic facial expressions of step (a1) described above may be surprise, fear, anger, disgust, happiness, sadness.

또한, 전술한 (b) 단계의 성격유형검사는 MBTI 검사이고, 성격유형검사결과는 IF성향, IT성향, EF성향, ET성향으로 분류될 수 있다.In addition, the personality type test of step (b) described above is an MBTI test, and the personality type test results may be classified into IF tendency, IT tendency, EF tendency, and ET tendency.

보다 바람직하게, 전술한 (b) 단계는, (b1) 성격유형검사결과에 따라 해당되는 성격유형을 가지는 모델의 얼굴에 특징점을 기반으로 복수의 마커를 부착하고, 모델의 무표정, 놀람, 두려움, 화남, 혐오, 행복, 슬픔의 7가지 얼굴표정을 촬영하는 단계; 및 (b2) 성격유형별로 촬영된 무표정 영상과 6가지 감정표정 영상의 마커 위치를 각각 비교하여 무표정 얼굴영상과 각 감정표정 얼굴영상 사이의 모든 마커의 평균 이동거리를 산출하고 이를 비율화하여 스타일 레이츠 매핑 테이블을 생성하는 단계를 포함할 수 있다. More preferably, the step (b) described above, (b1) a plurality of markers are attached to the face of the model having the corresponding personality type according to the personality type test result based on the feature points, and the expression, surprise, fear, Photographing seven facial expressions of anger, disgust, happiness, and sadness; And (b2) comparing the positions of the markers of the six expression images and the expressionless images photographed by the personality type, respectively, to calculate the average moving distances of all markers between the expressionless facial images and the emotion expression facial images, and proportionate them. Generating a mapping table.

여기서 전술한 (b2) 단계에서 마커의 평균 이동거리의 산출공식은 Here, in the above-described step (b2), the calculation formula of the average moving distance of the marker is

Figure 112009080722530-pat00004
(s: 마커 인덱스 , ms: 표정의 마커 벡터, mNs: 무표정의 마커 벡터)일 수 있다.
Figure 112009080722530-pat00004
(s: marker index, m s : marker vector of expression, m Ns : marker vector of expressionless).

또한, 전술한 (b2) 단계에서의 비율화는 In addition, the proportioning in the step (b2) described above

Figure 112009080722530-pat00005
Figure 112009080722530-pat00005

(

Figure 112009080722530-pat00006
,
Figure 112009080722530-pat00007
,
Figure 112009080722530-pat00008
scale parameter)식을 이용하여 수행될 수 있다. (
Figure 112009080722530-pat00006
,
Figure 112009080722530-pat00007
,
Figure 112009080722530-pat00008
scale parameter) expression.

한편, 전술한 (c) 단계에서의 산출되는 성격유형별 과장지수 계산식은On the other hand, the exaggerated index calculation formula for each personality type calculated in step (c) described above is

Figure 112009080722530-pat00009
Figure 112009080722530-pat00009

(si: style index, n: exponent parameter, k: scale parameter, w(0-1): exaggeration rate, C: convergent value)로 도출될 수 있다. (s i : style index, n: exponent parameter, k: scale parameter, w (0-1): exaggeration rate, C: convergent value).

다른 한편으로, 전술한 (d) 단계는, (d1) 개인의 2차원 이미지를 입력받는 단계; (d2) 입력된 2차원 이미지로부터 AAM(Active Appearance Model) 알고리즘을 이용하여 특징점을 자동으로 검출하여 출력하는 단계; (d3) 사용자의 조작에 따라 Rubber Band 방식으로 검출된 특징점의 위치를 변경하는 단계; (d4) 최종적으로 결정된 특징점의 위치값과 3D 워핑 기법을 사용하여 상기 3차원 얼굴 모델을 개인별 3차원 얼굴 모델로 변형하는 단계; 및 (d5) 개인별 3차원 얼굴 모델에 텍스쳐 매핑 을 수행하는 단계를 포함할 수 있다.On the other hand, step (d) described above, (d1) receiving a two-dimensional image of the individual; (d2) automatically detecting and outputting a feature point from an input two-dimensional image using an AAM (Active Appearance Model) algorithm; (d3) changing the position of the feature point detected by the rubber band method according to a user's manipulation; (d4) transforming the three-dimensional face model into a personal three-dimensional face model by using the finally determined position values and 3D warping techniques; And (d5) performing texture mapping on the individual three-dimensional face model.

여기서, 전술한 개인성향을 반영한 과장표정 생성방법은, 상기 (f) 단계에서 과장모션벡터를 상기 가상근육에 적용함에 있어 상기 3차원 얼굴 모델 또는 개인별 3차원 얼굴 모델의 각 부위를 마커의 위치에 맞추어 복수의 육면체 형태의 특징상자로 분할하고, 마커와 상기 3차원 얼굴 모델 또는 개인별 3차원 얼굴 모델의 각 분할된 특징상자에 대한 x, y, z출 거리의 비율을 산출한 후 이 비율을 해당 마커의 변화량에 곱하여 적용하도록 구성될 수 있다. Here, in the exaggerated expression generation method reflecting the above-described individual tendencies, in applying the exaggerated motion vector to the virtual muscle in the step (f), each part of the three-dimensional face model or the individual three-dimensional face model is positioned at the position of the marker. The feature box is divided into a plurality of hexahedral shape boxes, and the ratios of x, y, and z extraction distances for each segmented feature box of the marker and the three-dimensional face model or the individual three-dimensional face model are calculated. It can be configured to multiply and apply the amount of change of the marker.

이때, 전술한 3차원 얼굴 모델 또는 개인별 3차원 얼굴 모델은 표정에 따른 근육운동을 고려하여 12개의 특징상자로 분할될 수 있다. In this case, the above-described three-dimensional face model or individual three-dimensional face model may be divided into 12 feature boxes in consideration of the muscle movement according to the expression.

이상에서 살펴본 바와 같이, 본 발명에 따른 개인성향을 반영한 과장표정 생성방법에 따르면 사실적인 과장표정을 생성할 수 있다는 장점이 있다.As described above, the exaggerated expression generating method reflecting the personal tendency according to the present invention has an advantage of generating a realistic exaggerated expression.

또한, 본 발명에 따르면 다양한 피험자들의 성향분류결과와 각 성향별 표정에서의 특징을 분석/반영하여 과장표정을 생성하게 되므로, 보다 사실적이고 개인의 개인의 성향을 반영한 과장표정을 생성할 수 있다는 장점이 있다.In addition, according to the present invention, since the exaggerated expression is generated by analyzing / reflecting the characteristics of the inclination of each subject and the characteristics of the facial expressions of each inclination, an exaggerated expression that reflects the individual's personal tendency can be generated. There is this.

또한, 본 발명에 따르면 과장률을 사용자가 임의로 조절할 수 있으므로, 다양한 스케일의 과장표정을 생성할 수 있다는 장점이 있다. In addition, according to the present invention, since the exaggeration rate can be arbitrarily adjusted by the user, there is an advantage that an exaggeration expression of various scales can be generated.

이하에서, 첨부된 도면을 참조하여 본 발명에 따른 개인성향을 반영한 과장표정 생성방법에 대한 바람직한 실시예를 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the method for generating an exaggerated expression reflecting the personal tendency according to the present invention.

본 발명에서는 모션캡쳐를 통해 획득한 얼굴 표정의 모션 데이터를 사용자의 얼굴 형상과 개인 성향을 고려하여 과장시키는 표정 생성 시스템을 개발하였다.The present invention has developed a facial expression generation system that exaggerates the motion data of a facial expression obtained through motion capture in consideration of a user's face shape and personal tendency.

이를 위해 먼저 시스템에서 사용할 데이터베이스를 구축하였으며, 각 데이터는 표정을 맵핑(mapping)할 3차원 얼굴 모델, 기본 얼굴 모델에 사용할 텍스쳐, 각 표정의 모션캡쳐 데이터, 그리고 해부학적 분석과 모션 데이터 분석에 기반하여 도출해 낸 표정별 근육 데이터이다.To this end, we first constructed a database for the system, and each data was based on a three-dimensional face model to map facial expressions, a texture to be used for the basic face model, motion capture data for each facial expression, and anatomical and motion data analysis. Muscle data for each facial expression.

시스템은 기본적으로 텍스쳐를 맵핑한 3차원 얼굴 모델을 출력한다. 이후 사용자가 웹 카메라나 디지털 카메라를 이용하여 자신의 얼굴을 촬영하면 사용자의 사진으로부터 얼굴에서의 각 특징 정보를 자동으로 추출 및 분석하고, 이것을 기반으로 모델을 변형한다. 입력된 사진은 자동으로 편집되고, 이 사진을 텍스쳐로 맵핑하여 사용자의 얼굴 모델을 출력하게 된다.The system basically outputs a three-dimensional face model with texture mapping. After that, when the user photographs his or her face using a web camera or a digital camera, each feature information of the face is automatically extracted and analyzed from the user's photo, and the model is modified based on this. The input photo is automatically edited, and the photo is mapped to a texture to output the user's face model.

또한 과장된 표정 생성을 위해 각 표정별 모션캡쳐 데이터들로부터 마커들의 움직임에 대한 특징을 찾고 이를 과장시킨다. 이때 얼굴 모델에 표정을 생성할 근육의 위치에 대한 맵핑 방법과 얼굴의 특징을 고려한 과장 표정 변환 함수가 제시된다.Also, in order to generate an exaggerated expression, the motion capture data of each expression is used to find the feature of the marker movement and exaggerate it. At this time, a mapping method for the position of the muscle to generate the facial expression in the face model and an exaggerated facial expression conversion function considering the facial features are presented.

마지막으로 개인의 성향(personal style)을 표정에 반영할 수 있도록, 다양한 피험자들의 성향 분류 결과와 각 성향별 표정에서의 특징을 분석한 후, 개인화 된 과장표정 생성시스템을 개발하였다.Lastly, in order to reflect the personal style on the facial expressions, the results of the classification of the various subjects and the characteristics of the facial expressions of each inclination were analyzed.

1. 3차원 개인화 얼굴 생성1. Create 3D personalized face

가. 얼굴 특징 분석end. Facial feature analysis

얼굴 특징 추출의 기술들은 매우 다양한 방법과 접근에 의해 발명되어 왔으며 최근에는 웨이블릿 해석을 사용한 방법과 템플릿(template)과 같은 영상 필터를 사용한 기술들이 선보이고 있다. 본 발명에서는 AAM(Active Appearance Model) 알고리즘을 사용하여 얼굴의 특징점을 찾는다. AAM은 물체의 형상과 외형의 통계적 모델을 임의의 입력된 이미지에 정합(fitting)하는 알고리즘으로, 크게 모델링 단계와 정합 단계로 나뉜다. 이는 특징점 위치를 사용자가 직접 지정하는 기존의 방식에 비해 매우 편리하며, 신속한 장점이 있다.Techniques for facial feature extraction have been invented by a variety of methods and approaches. Recently, techniques using wavelet analysis and image filters such as templates have been introduced. In the present invention, the feature point of the face is found by using an AAM (Active Appearance Model) algorithm. AAM is an algorithm that fits a statistical model of the shape and appearance of an object to an input image, and is divided into a modeling step and a matching step. This is very convenient and quick compared to the existing method of specifying the feature point position directly by the user.

1) 특징점 입력 모듈의 수행과정 및 결과1) Execution Process and Result of Feature Point Input Module

사용자는 PC Cam 카메라로 촬영하거나, 사전에 준비된 정면사진을 이용하여 맞춤형 3D Face model을 모델링 할 수 있다. 입력된 사진은 정면 무표정의 사진을 기본으로 하며, AAM 통계적 모델 데이터베이스 구축에 따라 다양한 표정사진도 가능하다. 사용자는 입력된 사진을 로드하여 얼굴이 정확하게 나왔는지 확인하고, AAM 알고리즘을 실행시켜 특징점을 1차적으로 자동 생성한다. 여기서 AAM 알고리즘을 수행하기 위해서는 통계적 모델 데이터베이스를 구축하여야 하는데 본 시스템에서는 다음과 같은 과정을 수행하였다. Users can model with a personalized 3D face model by shooting with a PC Cam camera or using a ready-made front view. The input picture is based on the frontal expressionless picture, and various facial expressions are also available depending on the AAM statistical model database. The user loads the input photo to check that the face is correct and executes the AAM algorithm to automatically generate the feature points primarily. In order to execute AAM algorithm, statistical model database should be built. In this system, the following process was performed.

① 피사체(피촬영자)의 사진 촬영은 니콘 D80 사진기를 사용하였으며, 동일한 조건과 환경을 유지하기 위해서 사진의 해상도는 800×600Pixel, 카메라의 초점면으로부터 피사체(피촬영자)의 눈까지의 거리를 2.0m, 삼각대로 고정시켜 사진촬영을 한다. ① The Nikon D80 camera was used to take pictures of the subject (subject), and in order to maintain the same conditions and environment, the resolution of the photograph was 800 × 600 pixels, and the distance from the focal plane of the camera to the eyes of the subject (subject) was 2.0. m, take a picture with the tripod fixed.

② 촬영된 사진마다 약간의 기울어짐이 생겨 기울어짐을 보정하였고 미리 정의된 각각의 특징점 69개의 LandMark를 입력하여 좌표 값을 입력한다(도 2). ② A slight inclination is generated for each photograph taken to correct the inclination, and a coordinate value is input by inputting LandMark of 69 predefined feature points.

③ 지정한 각 모델의 LandMark의 Shape변화를 모델링하려면 이를 정규화 하는 것이 필요한데 Procrustes analysis 분석을 통해서 얼굴의 특징점들을 비슷한 위치로 정렬한다.③ In order to model the shape change of LandMark of each model, it is necessary to normalize it. Through the analysis of procrustes analysis, the feature points of the face are arranged in a similar position.

④ Procrustes analysis 분석을 통해 정규화된 특징점의 좌표값들을 사용하여 10개 이미지에 대해 PCA하여 평균 형상(Shape)모델을 생성한다.④ Procrustes analysis Analyze PCAs for 10 images using coordinates of normalized feature points to generate an average shape model.

⑤ 각각의 형상 모델의 특징점들이 평균 형상 모델에 정합되도록 들로니 삼각법 알고리즘을 이용하여 모델 이미지들을 워핑하고 외형(appearance) 모델을 생성한다(도 3).Warp model images and generate an appearance model using the Delaunay trigonometry algorithm so that the feature points of each shape model are matched to the average shape model (FIG. 3).

⑥ 형상과 외형의 결합(combine)모델을 구축하고 파일의 형태로 저장한다.⑥ Construct a combination model of shape and appearance and save it as a file.

위에 과정을 거친 통계적 모델(결합모델)을 이용하여 입력이미지간의 차를 구하고 이 차이 값이 최소가 되도록 모델을 적절히 변형시켜 입력이미지에서 결합모델이 검출하려고 하는 영역과 가장 유사하게 되도록 변형 과정을 반복하여 원하는 영역을 구하게 된다. Using the statistical model (combined model) processed above, calculate the difference between the input images and modify the model appropriately so that the difference is minimized, and repeat the transformation process so that the combined model is most similar to the area to be detected by the combined model in the input image. To obtain the desired area.

AAM을 이용하여 특징점 자동검출(도 4) 이 후, 정확한 특징점 제어를 위해서 Rubber band 방식을 이용하는데, 이는 특징점을 사용자가 마우스로 드래그 하게 되면 점과 선이 고무줄처럼 늘거나 줄어들면서 형태를 만들어 가는 방식을 말한다. 본 시스템에서는 얼굴의 특징점 입력에 있어, Active Appearance Model과 Rubber band 방식 모두 사용한다. 이는 AAM 알고리즘을 이용하여 미리 정의된 특징점 위치를 사용자가 직접 입력하지 않고 자동으로 찾아주기 때문에 사용자의 입력시간을 최소화시키고, Rubber band 방식은 1차적으로 찾은 특징점을 사용자가 임의적으로 이동하여 정확성을 더욱 높이는 역할을 한다.Automatic feature detection using AAM (Fig. 4) After that, the rubber band method is used for accurate feature point control, which is formed by increasing or decreasing the point and line like a rubber band when the user drags the feature point with the mouse. Say the way. In this system, both Active Appearance Model and Rubber band method are used to input facial feature points. This minimizes the user's input time because the user automatically finds the predefined feature location by using the AAM algorithm, and the rubber band method improves the accuracy by randomly moving the feature point found first. Height plays a role.

나. 개인화 3D얼굴 생성I. Create personalized 3D faces

정의된 69개 특징점의 위치값을 사용하여 3D 정규화 모델을 개인화 얼굴 모델로 변환하기 위해서는 정규화 모델을 입력된 사진 외형의 모습으로 변형시켜야 한다. 일반적으로 비율의 의한 변형방법이 사용되어 왔지만, 본 시스템에서는 3D 워핑(warping) 기법을 사용하여 정규화 모델을 변형하였다. 워핑 기법을 이용하면 기존의 얼굴에서 전체적인 형태와 눈, 코, 입 등을 변형시킬 수 있다. In order to convert the 3D normalized model into a personalized face model using the position values of the 69 feature points defined, the normalized model must be transformed into the shape of the input photo. In general, the proportional deformation method has been used, but in this system, the normalized model is modified using a 3D warping technique. Warping techniques can be used to transform the overall shape, eyes, nose and mouth of an existing face.

워핑 기법에 의해 정규화 모델의 외형은 사용자의 형태와 비슷하게 변형시킬 수 있다. 하지만 1차적인 모델 외형의 모습 변형이며 실사 이미지와 같이 피부, 입술, 눈썹 등을 사실적으로 표현하는 데에는 한계가 있다. 맞춤형 모델에서 텍스쳐 매핑은 입력 이미지와 거의 흡사하게 만드는데 중요한 역할을 한다. 도 5는 텍스쳐 매핑이 적용된 개인화 3D 얼굴의 결과를 보여주고 있다.By the warping technique, the appearance of the normalization model can be transformed to be similar to that of the user. However, there is a limit in expressing the skin, lips, and eyebrows realistically like the live-action image, as it is a deformation of the primary model appearance. In a custom model, texture mapping plays an important role in making the input image almost like that. 5 shows the result of a personalized 3D face to which texture mapping is applied.

2. 과장 표정 생성2. Create exaggerated facial expressions

보편적인 감정 표현이 과하게 표출된 상태를 '과장'되었다고 말한다. 이 장에서는 인간의 여섯 가지 기본 표정을 과장하고 이를 시뮬레이션 하는 방법을 소개한다.The state of overexpression of universal emotional expressions is said to be 'exaggerated'. This chapter introduces how to exaggerate and simulate six basic human expressions.

과장 표정 생성 과정은 크게 세 가지로 나누어 볼 수 있다. 첫째, 해부학적 분석에 근거한 가상의 근육을 이용하여, 근육 수축 및 이완 시 얼굴 표면에 변화를 나타낼 수 있도록 3차원 얼굴 모델을 제작한다. 둘째, 모델에 표정을 부여하기 위해 인간의 여섯 가지 기본 표정에 해당하는 모션 데이터를 광학 모션 캡처 장비를 이용하여 수집하고, 이를 데이터 분석 알고리즘을 이용하여 분석함으로써 표정을 구현할 때 얼굴 표면 움직임에서의 특징을 찾는다. 셋째, 위에서 구한 모션 데이터의 특징을 과장 알고리즘을 이용하여 과장시킨 후, 3차원 얼굴 모델의 근육에 적용하여 여섯 가지 기본 표정에 대한 과장 표정을 시뮬레이션 한다.The process of creating exaggerated facial expressions can be divided into three main categories. First, using a virtual muscle based on anatomical analysis, a three-dimensional face model is produced to show the change in the facial surface during muscle contraction and relaxation. Second, in order to give an expression to a model, motion data corresponding to six basic expressions of humans are collected using optical motion capture equipment, and analyzed using data analysis algorithms to characterize facial surface movements when realizing facial expressions. Find it. Third, the motion data obtained above is exaggerated using an exaggeration algorithm and then applied to the muscles of the three-dimensional face model to simulate the exaggeration of the six basic expressions.

가. 표정 생성 및 과장end. Create and exaggerate facial expressions

모션캡쳐 데이터로부터 추출된 얼굴 표정들에 대한 분석을 토대로 각 표정에서의 특정 근육에 대한 파라미터를 정의한다. 이 파라미터를 시스템의 근육 알고리즘에 적용하여 각각의 근육 운동에 반영함으로써 표정을 생성할 수 있게 된다.Based on the analysis of facial expressions extracted from motion capture data, parameters for specific muscles in each facial expression are defined. This parameter can be applied to the muscle algorithm of the system to reflect each muscle movement to generate an expression.

또한 표정별 모션 데이터의 특징을 추출하여 과장시키고, 이를 기준으로 파 라미터의 수치를 높임으로서 과장된 표정을 형성할 수 있다.In addition, it is possible to form an exaggerated expression by extracting the feature of motion data for each expression and exaggerating the value of the parameter.

3차원 표정 모델을 생성하기 위해서는 실제 사람 얼굴의 움직임에 대한 데이터가 필요하다. 본 발명에서는 이를 위해 모션 캡처를 통해 각 표정에 따른 얼굴 표면의 모션 데이터를 구하였다. 이때 마커의 위치 정의는 매우 중요한데, 마커의 움직임이 표정을 생성하는 가장 기본적인 소스가 되기 때문이다.In order to generate a three-dimensional facial expression model, data about the actual human face movement is required. In the present invention, the motion data of the face surface according to each expression was obtained through motion capture. At this time, the position definition of the marker is very important because the movement of the marker is the most basic source for generating an expression.

따라서 발명팀은 근육의 위치를 고려하여 마커의 위치를 정한 후, 6가지 기본 표정에 대하여 120frames/sec으로 700~1000프레임 동안의 얼굴 변화를 캡쳐하였다. 표정 변화에 영향을 많이 미치는 부위에 정적수의 마커를 부착하였으며, 얼굴의 전체 움직임을 얻기 위해 머리 윗부분에 5개의 마커를 추가로 부착하였다.Therefore, after determining the position of the marker in consideration of the position of the muscle, the inventors captured the facial changes for 700 to 1000 frames at 120 frames / sec for six basic expressions. A static number of markers were attached to the areas that greatly affected facial expression changes, and five markers were attached to the upper part of the head to obtain the overall movement of the face.

모션캡처에서 연기자(actor)가 구현한 표정에 따른 마커들의 움직임은 광학 센서를 통해 3차원 좌표 데이터로 저장되어서, 매 프레임마다 마커 전체의 절대적 위치를 기록하였으며, 이 내용을 통해 각 표정에서의 얼굴 변화와 특징을 분석할 수 있었다. The motions of the markers according to the actor's expression in the motion capture are stored as 3D coordinate data through the optical sensor, recording the absolute position of the entire marker every frame. Changes and features could be analyzed.

1) 표정에서의 특징 추출 및 과장1) Extraction and exaggeration of features in facial expression

얼굴 표정의 모션 데이터는 시간의 흐름에 따른 마커 집합의 3차원 이동 변화로 표현되며, 여기서 상대적으로 큰 이동값들을 찾아 입력된 과장상수로 스케일링함으로써 모션 데이터를 과장시킬 수 있다. 결과적으로는 얼굴 표정을 이루는 마커들의 움직임을 과장하는 것이 과장 표정 생성의 핵심이라 할 수 있다.The motion data of the facial expression is expressed as a three-dimensional movement change of the marker set over time, and the motion data can be exaggerated by finding relatively large movement values and scaling the input exaggeration constant. As a result, exaggerating the movement of the markers that make up the facial expression can be said to be the core of generating the exaggerated facial expression.

가) 모션 데이터 분해A) Decomposition of motion data

모션 데이터를 이동 패턴과 그 가중치로 나타내기 위해 NMF를 이용하여 분해하였다. NMF(Non-negative Matrix Factorization)는 문서, 이미지, 스펙트로그램 등의 데이터셋으로부터 의미 있는 표현을 추출하기 위해 사용하는 다변량 데이터 분석 알고리즘으로, 주어진 비음수 행렬 데이터를 데이터의 기저를 나타내는 특성 행렬과 그 기저들의 활성화 정도를 나타내는 가중치 행렬의 곱의 형태로 표현한다.Motion data was decomposed using NMF to represent the movement pattern and its weight. Non-negative matrix factorization (NMF) is a multivariate data analysis algorithm used to extract meaningful representations from datasets such as documents, images, spectrograms, and so on. Expressed in the form of a product of weight matrices indicating the degree of activation of the bases.

본 발명에서는 6가지 기본 얼굴 표정의 모션 데이터를 각각 분해한 후, 각 표정에서의 특성에 해당하는 활성화 값이 기준치 이상일 경우 차등의 과장 상수를 곱함으로써 과장 표정을 생성하였다.In the present invention, after decomposing the motion data of each of the six basic facial expressions, an exaggerated facial expression is generated by multiplying a differential exaggeration constant when an activation value corresponding to a characteristic of each facial expression is equal to or greater than a reference value.

측정된 모션 데이터에는 음수도 포함되어 있기 때문에, 행렬분해를 위해서 먼저 데이터의 최소값의 절대값을 더하여 모션 데이터를 비음수 상태로 만든다.Since the measured motion data also contains negative numbers, the motion data is made non-negative by first adding the absolute value of the minimum value of the data for matrix decomposition.

모션 데이터가 마커들의 프레임별 3차원 이동값을 가진 n×m의 크기를 갖는 비음수행렬 M(motion data)이라고 할 때, M은 수학식 1과 같이 r(n+m)<nm을 만족하는 임의의 r(rank)값을 기준으로 n×r의 크기를 갖는 특성 행렬 B(basis or feature vector)와 r×m의 크기를 갖는 가중치 행렬 E(encoding or weight value)로 분해된다.When the motion data is a non-negative matrix M (motion data) having a size of n × m having a three-dimensional moving value of each frame of the markers, M satisfies r (n + m) <nm as in Equation 1. It is decomposed into a feature matrix B (basis or feature vector) having a size of n × r and a weight matrix E (encoding or weight value) having a size of r × m based on an arbitrary r (rank) value.

Figure 112009080722530-pat00010
Figure 112009080722530-pat00010

M의 분해 과정은 먼저 특성 행렬 B와 가중치 행렬 E를 임의의 비음수값들로 초기화한 후, 수학식 2를 통해 업데이트를 반복하면서, M의 근사행렬 BE를 수학식 3과 같은 최적화 함수를 이용하여 구한다.The decomposition process of M first initializes the characteristic matrix B and the weight matrix E with arbitrary non-negative values, and then repeats the update through Equation 2, while applying the approximation matrix BE of M using an optimization function such as Equation 3. Obtain

Figure 112009080722530-pat00011
Figure 112009080722530-pat00012
,
Figure 112009080722530-pat00011
Figure 112009080722530-pat00012
,

Figure 112009080722530-pat00013
Figure 112009080722530-pat00013

나) 모션 데이터 과장B) Motion data exaggeration

최적화된 근사행렬이 구해지면서 업데이트가 종료되면, 과장할 이동 패턴을 찾기 위해 가중치행렬 E의 각 열을 다시 평균 mi와 편차 di로 분해한다. 또한 행렬분해 과정에서 생긴 노이즈(에러)를 제거하기 위해 모션 데이터 M과 근사행렬 BE의 차인 잉여행렬 R(residual)을 더해주며, 이때 모션 벡터

Figure 112009080722530-pat00014
를 수학식 4와 같이 기저 벡터
Figure 112009080722530-pat00015
와 잉여 벡터
Figure 112009080722530-pat00016
의 선형 조합 형태로 재정의 할 수 있다.When the update is finished with an optimized approximation matrix, we decompose each column of the weighting matrix E back into the mean m i and the deviation d i to find the movement pattern to exaggerate. In addition, in order to remove the noise (error) caused by the matrix decomposition process, the in-travel matrix R (residual), which is the difference between the motion data M and the approximate matrix BE, is added.
Figure 112009080722530-pat00014
The basis vector as
Figure 112009080722530-pat00015
Surplus vector
Figure 112009080722530-pat00016
Can be redefined as a linear combination of.

Figure 112009080722530-pat00017
Figure 112009080722530-pat00017

최종적으로 과장모션벡터

Figure 112009080722530-pat00018
는 수학식 5와 같이 편차 di를 과장상수
Figure 112009080722530-pat00019
로 곱해서 구하게 되는데, 이때 과장상수를 모든 편차에 곱하는 것이 아니라 먼저 과장시킬만한 이동 패턴을 찾는 것이 중요하다. 따라서 편차가 다음의 수학식 5와 같이 표준편차의 두 배 이상일 때만 과장상수를 곱해주도록 제약을 둔다. 또한 과장된 모션 데이터에 맞추어 잉여벡터
Figure 112009080722530-pat00020
을 과장함으로써 과장모션벡터에서의 노이즈를 제거하여 준다.Finally exaggerated motion vector
Figure 112009080722530-pat00018
Is an exaggerated constant for the deviation d i as in Equation 5
Figure 112009080722530-pat00019
It is important to find a shift pattern that can be exaggerated first, rather than multiplying all the deviations by an exaggeration constant. Therefore, it is limited to multiply the exaggerated constant only when the deviation is more than twice the standard deviation as shown in Equation 5 below. Also, surplus vectors to match exaggerated motion data
Figure 112009080722530-pat00020
Exaggerate to remove the noise from the exaggerated motion vector.

Figure 112009080722530-pat00021
Figure 112009080722530-pat00021

단,

Figure 112009080722530-pat00022
only,
Figure 112009080722530-pat00022

도 6은 모션캡쳐 데이터의 과장된 결과를 도시하고 있다. 화남과 놀람 표정에서 모션데이터의 과장지수에 따라 과장정도가 상이하게 나타남을 확인할 수 있다.6 shows an exaggerated result of motion capture data. It can be seen that the degree of exaggeration is different depending on the exaggeration index of the motion data in the angry and surprise expressions.

나. 개인 성향 적용I. Apply personality

얼굴 표정에 대한 과장의 정도는 개인의 성향에 따라 달라질 수 있다. 따라서 위에서 정의한 과장 알고리즘에 개인별로 스타일을 적용한다. 여기서 말하는 스타일이란 개인별로 가지고 있는 성향(성격, 성별, 인종)을 말하며, 본 발명에서는 스타일에 따라 파라미터의 적용 범위를 다르게 하여 보다 개성적인 표정을 생성 할 수 있게 한다. 이를 위해 스타일을 표현 가능한 추상자료형으로 정의해야 하고 개인 성향에 대한 데이터를 먼저 구축해야 한다.The degree of exaggeration in facial expressions can vary depending on the individual's disposition. Therefore, individual styles are applied to the exaggeration algorithm defined above. The style referred to herein refers to a propensity (personality, sex, race) that has an individual, and in the present invention, a more individual expression can be generated by varying the range of application of parameters according to the style. To do this, the style must be defined as a representable abstract data type, and the data on personal disposition must be constructed first.

1) 개인성향에 따른 표정에서의 특징 검출1) Detection of features in facial expressions according to personal preference

20대 초반에서 20대 중반까지의 수도권에 거주하는 30명의 대학생을 대상으로 MBTI-GS form을 이용하여 성격 유형 검사를 실시하고, 일반적으로 분류되는 대표적 인간의 얼굴 표정인 놀람, 두려움, 화남, 혐오, 행복, 슬픔과 무표정의 7가지 사진을 Nikon D80을 사용하여 촬영하였다. 사진의 해상도는 800×600 Pixel, 카메라의 초점면으로부터 피사체(피촬영자)의 눈까지의 거리는 2m로 고정했다. 이 때 무표정을 제외한 나머지 기본 표정들에 대해서는 같은 감정이라도 사람의 개인차에 따라서 상이하게 다를 수 있으므로 기본 모델을 제공하여 촬영했다.A personality type test was conducted using the MBTI-GS form for 30 college students living in the Seoul metropolitan area, in their early 20s to mid-20s.They are typical facial expressions of surprise, fear, anger, and disgust. Seven pictures were taken with the Nikon D80: happy, sad and expressionless. The resolution of the picture was 800 × 600 Pixel, and the distance from the camera's focal plane to the subject's eyes was fixed at 2m. At this time, the basic expressions other than the expressionless expressions were photographed by providing the basic model because the same emotions may be different according to individual differences of people.

도 7의 표정 샘플 사진과 같이 각 표정사진 얼굴근육 위치에 MPEG-4에서 정의된 얼굴 모델 특징점을 기반으로 30개의 마커를 위치시켰으며, 무표정과 6개의 표정 사이에 거리 값을 계산하여 표현하였다.As shown in the expression sample photograph of FIG. 7, 30 markers were positioned at each facial expression facial muscle position based on the facial model feature points defined in MPEG-4, and the distance value was calculated between the expressionless expression and the six facial expressions.

Figure 112009080722530-pat00023
Figure 112009080722530-pat00023

(

Figure 112009080722530-pat00024
: 마커 인덱스
Figure 112009080722530-pat00025
,
Figure 112009080722530-pat00026
: 표정의 마커 벡터,
Figure 112009080722530-pat00027
: 무표정의 마커 벡터)(
Figure 112009080722530-pat00024
Marker Index
Figure 112009080722530-pat00025
,
Figure 112009080722530-pat00026
: Marker vector of expression,
Figure 112009080722530-pat00027
: Marker vector without expression)

위의 수학식 6을 사용하여 MBTI 유형별(도 8) 6개 표정의 Pixel 평균이동거리를 [표 1]과 같이 나타낼 수 있다. 6개의 표정 중에서 Surprise에서의 변화가 가장 큰 것을 확인할 수 있다. 이것은 Surprise 표정 생성시 가장 많은 얼굴 변화가 있다는 것을 알 수 있다. 또한 Suprise 표정에서의 평균 거리값을 비교하여 가장 큰 변화인 EF형과 가장 작은 변화인 IF형의 성향을 구분할 수 있다.Using the above Equation 6, the pixel average moving distance of six expressions for each MBTI type (FIG. 8) can be expressed as shown in [Table 1]. Of the six expressions, the largest change in Surprise can be seen. It can be seen that there are the most facial changes when generating the Surprise expression. In addition, by comparing the average distance value in the suppression expression, the propensity of the largest change, the EF type and the smallest change, the IF type can be distinguished.

Expression/Style Expression / Style EFEF ETET IFIF ITIT HappinessHappiness 102.99 102.99 85.29 85.29 95.88 95.88 80.07 80.07 SurpriseSurprise 144.77 144.77 121.18121.18 108.50108.50 104.46104.46 SadnessSadness 90.15 90.15 71.25 71.25 88.89 88.89 69.15 69.15 FearFear 104.46104.46 95.66 95.66 118.63118.63 92.75 92.75 AngerAnger 127.13127.13 83.40 83.40 85.10 85.10 103.46103.46 DisgustDisgust 105.38105.38 81.41 81.41 85.92 85.92 63.78 63.78

Average distance

Figure 112009080722530-pat00028
of Styles Average distance
Figure 112009080722530-pat00028
of Styles

[표 1]과 같이 거리 값을 이용하여 표정별 성향으로 구분하였다. 본 발명에서는 각 성향별 수학식 7의 비율적 변화를 이용하여 Style rates의 매핑 테이블을 형성하였으며, [표 2]와 같은 매핑 테이블의 Style rates

Figure 112009080722530-pat00029
은 최종 SER(Styled Exaggeration rate)를 도출하는데 사용된다.As shown in [Table 1], it was divided into disposition by facial expression using distance value. In the present invention, the mapping table of the style rates is formed using the proportional change of Equation 7 for each propensity, and the style rates of the mapping table as shown in [Table 2].
Figure 112009080722530-pat00029
Is used to derive the final Styled Exaggeration Rate (SER).

Figure 112009080722530-pat00030
Figure 112009080722530-pat00030

(

Figure 112009080722530-pat00031
,
Figure 112009080722530-pat00032
,
Figure 112009080722530-pat00033
scale parameter)(
Figure 112009080722530-pat00031
,
Figure 112009080722530-pat00032
,
Figure 112009080722530-pat00033
scale parameter)

Expression/StyleExpression / Style EFEF ETET IFIF ITIT HappinessHappiness 1.00 1.00 0.87 0.87 0.95 0.95 0.83 0.83 SurpriseSurprise 1.00 1.00 0.90 0.90 0.85 0.85 0.83 0.83 SadnessSadness 1.00 1.00 0.830.83 0.99 0.99 0.83 0.83 FearFear 0.910.91 0.85 0.85 1.00 1.00 0.83 0.83 AngerAnger 1.00 1.00 0.830.83 0.84 0.84 0.91 0.91 DisgustDisgust 1.00 1.00 0.90 0.90 0.92 0.92 0.83 0.83

Style rates

Figure 112009080722530-pat00034
Style rates
Figure 112009080722530-pat00034

2) SER(Styled-Exaggeration Rate) 도출2) Derivation of SER (Styled-Exaggeration Rate)

SER은 과장표정 생성 알고리즘에 대입되는 과장 지수로, 스타일 지수

Figure 112009080722530-pat00035
의 맵핑 테이블을 이용하여 수학식 8과 같이 과장률에 따른 SER을 도출한다.SER is an exaggerated exponent assigned to the exaggerated expression generation algorithm.
Figure 112009080722530-pat00035
Using the mapping table of to derive the SER according to the exaggeration rate as shown in Equation (8).

Figure 112009080722530-pat00036
Figure 112009080722530-pat00036

(

Figure 112009080722530-pat00037
: style index,
Figure 112009080722530-pat00038
: exponent parameter,
Figure 112009080722530-pat00039
: scale parameter,
Figure 112009080722530-pat00040
: exaggeration rate,
Figure 112009080722530-pat00041
: convergent value)(
Figure 112009080722530-pat00037
style index,
Figure 112009080722530-pat00038
: exponent parameter,
Figure 112009080722530-pat00039
: scale parameter,
Figure 112009080722530-pat00040
exaggeration rate,
Figure 112009080722530-pat00041
: convergent value)

사용자가 MBTI 타입과 과장률(

Figure 112009080722530-pat00042
)을 입력하면 이 값들이 과장 표정 생성 알고리즘에 대입되는데, 여기서
Figure 112009080722530-pat00043
일 때
Figure 112009080722530-pat00044
Figure 112009080722530-pat00045
에 적용되고,
Figure 112009080722530-pat00046
이면 수렴값(최대값)
Figure 112009080722530-pat00047
로 정의된다.
Figure 112009080722530-pat00048
일 때는 과장이 없는 기본 표정생성이고,
Figure 112009080722530-pat00049
일 때에는 최대 과장 표정생성을 나타낸다. 이때 SER 값이
Figure 112009080722530-pat00050
를 만족하도록 스케일 상수
Figure 112009080722530-pat00051
값을 적용하였다. 도 10은 과장률에 따른 놀람표정에서의 MBTI 성향(EF, ET, IF, IT)들에 대한 SER 변화를 나타낸 것이다. 사용자는 0~1까지의 과장률를 선택하면 SER을 이용하여 최종적인 개인성향 과장지수(Styled Exaggeration Rate)가 결정된다.The user can select the MBTI type and exaggeration rate (
Figure 112009080722530-pat00042
), These values are assigned to the exaggerated facial expression generation algorithm, where
Figure 112009080722530-pat00043
when
Figure 112009080722530-pat00044
Is
Figure 112009080722530-pat00045
Applied to,
Figure 112009080722530-pat00046
If convergence (maximum value)
Figure 112009080722530-pat00047
Is defined as
Figure 112009080722530-pat00048
When is the default expression without exaggeration,
Figure 112009080722530-pat00049
, The maximum exaggerated facial expression. SER value is
Figure 112009080722530-pat00050
Scale constant to satisfy
Figure 112009080722530-pat00051
Value was applied. Figure 10 shows the SER change for MBTI propensity (EF, ET, IF, IT) in surprise expression according to the exaggeration rate. When the user selects an exaggeration rate from 0 to 1, the final styled exaggeration rate is determined by using the SER.

다. 모션 클로닝All. Motion cloning

모션 캡쳐를 통해 획득한 모션 데이터의 좌표값들은 연기자의 두상과 얼굴 부위를 기준으로 기록되었다. 따라서 시스템의 기본 모델과 개인 맞춤형 모델에서 사용하기 위해서는 모션 데이터를 모델에 맞추는 작업이 필요하다. 이 작업에서는 모든 마커의 위치가 모델의 얼굴 부위에 알맞게 위치해야 하며, 또한 각 표정의 모션 데이터가 가지는 강도(intensity)의 변화가 유지되어야 한다.Coordinates of the motion data acquired through motion capture were recorded based on the head and face of the performer. Therefore, it is necessary to fit motion data to the model in order to use it in the basic model of the system and personalized model. In this work, the positions of all markers should be properly positioned on the face of the model, and the change in intensity of the motion data of each facial expression must be maintained.

모션 데이터의 처음 시작 부분은 표정이 아직 생성되지 않은 무표정(neutral expression) 상태이므로 모델의 초기 상태와 같다. 따라서 모델이 무표정 상태일 때 시작점에서의 모션 데이터들을 맞출 수 있다. 하지만 표정을 만들어내는 얼굴의 각 부위들은 서로 다른 강도를 가지고 독립적인 운동을 하기 때문에, 이후 프레임들에서의 마커 움직임을 모델에 맞추기 위해서는 각 부위들의 움직임을 나누어 적용해야 한다. 이에 본 발명에서는 얼굴 모델의 각 부위를 마커의 위치에 맞추어 육면체 형태로 분할(segment)함으로써 마커와 얼굴 모델에서의 각 분할 부분에 대한 x, y, z축 거리의 비율을 구하고, 이 비율을 해당 마커의 변화량에 곱하여 얼굴 모델에 적용하였다. 각각의 분할 부위는 표정에 따른 근육 운동을 고려하여 도 11과 같이 12개로 분할된 특징 상자(feature box)로 정의하였으며, 모션 데이터를 마커에 맞출 수 있도록 모션 캡쳐에서 마커의 위치를 지정할 때 이것을 기준으로 하였다.The initial start of the motion data is the initial state of the model since the expression has not been generated yet (neutral expression) state. Thus, when the model is in the absence of expression, the motion data at the starting point can be fitted. However, since the parts of the face that make up the facial expressions have independent movements with different intensities, the motions of the parts must be divided and applied to fit the marker movements in the frames to the model. Accordingly, in the present invention, by dividing each part of the face model into cubes according to the positions of the markers, the ratio of the x, y, and z axis distances to the respective parts of the marker and the face model is calculated, and the ratio is calculated. The amount of change in the marker was multiplied and applied to the face model. Each segment was defined as a feature box divided into 12 as shown in FIG. 11 in consideration of the muscle movement according to the expression, which is based on the position of the marker in the motion capture to fit the motion data to the marker. It was made.

도 12와 같이 모션 데이터의 특징상자(

Figure 112009080722530-pat00052
)와 얼굴 모델의 특징상자(
Figure 112009080722530-pat00053
)는 각각 가로(
Figure 112009080722530-pat00054
,
Figure 112009080722530-pat00055
), 세로(
Figure 112009080722530-pat00056
,
Figure 112009080722530-pat00057
), 높이(
Figure 112009080722530-pat00058
,
Figure 112009080722530-pat00059
)의 세 가지 요소를 가진다.As shown in Fig. 12, the feature box of motion data (
Figure 112009080722530-pat00052
) And the feature box of the face model
Figure 112009080722530-pat00053
) Is horizontal (
Figure 112009080722530-pat00054
,
Figure 112009080722530-pat00055
), Vertical(
Figure 112009080722530-pat00056
,
Figure 112009080722530-pat00057
), Height(
Figure 112009080722530-pat00058
,
Figure 112009080722530-pat00059
) Has three elements:

특징상자들에서의 마커 위치를

Figure 112009080722530-pat00060
라고 할 때, 무표정에서의 마커 위치
Figure 112009080722530-pat00061
은 기본 얼굴 모델 또는 개인 맞춤형 얼굴의 특징상자 인덱스에 맞추어 이동하게 되며, 개인화 얼굴 모델에 맞춘 모션 데이터의 마커 위치는
Figure 112009080722530-pat00062
이며 최종적으로 모션클로닝 값은 수학식 9 내지 수학식 12에 의해 구해진다.The marker position in the feature box
Figure 112009080722530-pat00060
, The marker position in the expressionless
Figure 112009080722530-pat00061
Moves to the feature box index of the default face model or personalized face, and the marker position in the motion data for the personalized face model
Figure 112009080722530-pat00062
Finally, the motion cloning value is obtained by equations (9) through (12).

Figure 112009080722530-pat00063
Figure 112009080722530-pat00063

Figure 112009080722530-pat00064
Figure 112009080722530-pat00064

Figure 112009080722530-pat00065
Figure 112009080722530-pat00065

Figure 112009080722530-pat00066
Figure 112009080722530-pat00066

라. 근육 맵핑 la. Muscle mapping

해부학적으로 인간의 얼굴 표정은 피부와 근육의 움직임에 기반을 둔 물리적 작용이다. 따라서 3차원 얼굴의 표정 구현을 위해서는 피부 조직 및 근육에 대한 구조적인 분석을 통하여 실제 인간의 얼굴 구조와 유사한 얼굴 모델을 제작할 필요성이 있다. 또한 여러 얼굴 근육의 움직임이 다양하게 합성될 수 있도록 한다.Anatomically, a human facial expression is a physical action based on skin and muscle movements. Therefore, in order to realize a three-dimensional facial expression, it is necessary to produce a face model similar to the actual human face structure through structural analysis of skin tissue and muscles. It also allows various facial muscle movements to be synthesized.

Ekman은 FACS(Facial Action Coding System)를 이용하여 근육의 조합으로 모든 표정을 생성할 수 있음을 보였고, Parke는 근육의 종류를 분류하여 표정을 생성할 수 있는 방법을 제안하였다. 이에 본 발명에서는 근육 기반의 표정 생성을 목표로 하며, 해부학적 분석을 통한 가상 근육 맵핑을 정의할 것이다.Ekman showed that the FACS (Facial Action Coding System) can be used to generate all facial expressions by combining muscles, and Parke proposed a method to generate facial expressions by classifying muscle types. Accordingly, the present invention aims to generate muscle-based facial expressions, and will define virtual muscle mapping through anatomical analysis.

안면근의 해부학적 분석 결과를 토대로 본 발명 시스템에서는 3차원 얼굴 모 델을 생성하고, 여기에 실제 근육과 같은 역할을 하는 가상 근육을 맵핑함으로써, 사실적인 얼굴 표정을 구현하는데 사용하였다. 기본 얼굴 모델은 3D Studio Max를 이용하여 총 1876개을 정점과 3668개을 면으로 모델링하였으며, 도 13과 같이 한국인 성인 남자를 대상으로 사실적인 텍스쳐 이미지를 맵핑하여 완성하였다. 도 14는 본 발명에서 채택한 가상근육의 구조와 특성을 기술하고 있다.Based on the results of anatomical analysis of facial muscles, the present system was used to create a realistic facial expression by generating a three-dimensional face model and mapping virtual muscles that act like real muscles. The basic face model was modeled using 3D Studio Max with a total of 1876 vertices and 3668 faces, and as shown in FIG. 13, a realistic texture image was mapped to a Korean adult male. Figure 14 illustrates the structure and characteristics of the virtual muscle adopted in the present invention.

3. 시스템 인터페이스3. System interface

도 15는 본 발명에 따른 시스템 인터페이스의 구성도이다. 도 15에 도시된 바와 같이 본 발명에 따른 시스템은 크게 메뉴바 부분과 뷰(View) 부분으로 구성되며 모드(Mode) 값을 설정하여 버텍스의 색상정보를 이용한 매핑과 모델 텍스쳐 맵을 이용한 매핑 방법을 구분하여 개발자의 의도에 따라 다양하게 매핑을 할 수 있도록 하였다. 기본적으로 메뉴바 구성부분은 6개로 분류되며 각각의 메뉴 구분에 대해 다양한 명령을 수행하고, 뷰(View) 부분에서는 얼굴모델이 보이는 부분으로써 마우스와 휠의 움직임을 이용하여 360° 회전 및 모델의 확대, 축소가 가능하다.15 is a configuration diagram of a system interface according to the present invention. As shown in FIG. 15, the system according to the present invention is composed of a menu bar portion and a view portion, and uses a mapping method using a color texture of a vertex and a mapping method using a model texture map by setting a mode value. It is possible to map variously according to the developer's intention. Basically, the menu bar is divided into 6 parts and performs various commands for each menu division. In the view part, the face model is visible. It rotates 360 ° using the mouse and wheel movement and enlarges the model. , Can be reduced.

가. 과장표정 생성 결과end. Exaggerated Expression Generation Result

본 발명에서 정의한 근육 알고리즘과 과장 알고리즘에 개인성향을 반영한 과장 상수(SER)와 모션 데이터로부터 얻은 근육 수축값을 대입하여 다음의 여섯 가지 기본 표정에 대한 개인 성향별 과장 표정을 시뮬레이션하였다.The hyperbolic expression for each of the following six basic expressions was simulated by substituting the muscle contraction value (SER) reflecting the individual tendency and the muscle contraction value obtained from the motion data in the muscle algorithm and the exaggeration algorithm defined in the present invention.

도 16은 표정 생성에서 사용한 과장률(exaggeration rate)에 대한 모션 데이 터의 변화를 나타낸 것으로, 뚜렷한 움직임을 보인 마커의 위치와 그 변화 정도를 파악할 수 있다.FIG. 16 illustrates a change in motion data with respect to an exaggeration rate used in generating an expression, and it is possible to grasp the position of the marker showing a clear movement and the degree of change.

다음으로, 도 17 내지 도 22까지는 여섯 가지 기본 표정에 대한 과장 표정의 시뮬레이션 결과를 표정별, 개인성향별, 과장률별로 나타낸 것이다.Next, FIGS. 17 to 22 show simulation results of exaggerated facial expressions for six basic facial expressions by facial expression, individual inclination, and exaggerated percentage.

나. 개인화 얼굴 모델에서의 과장표정 생성 결과I. Exaggerated Expression Generation Results in Personalized Face Models

도 23 내지 26은 개인화 얼굴 모델에 적용된 과장 표정의 시뮬레이션 결과를 나타내고 있다. 23 to 26 show simulation results of an exaggerated facial expression applied to a personalized face model.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경 및 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.Preferred embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art will be able to make various modifications, changes and additions within the spirit and scope of the present invention. Additions should be considered to be within the scope of the following claims.

도 1은 본 발명에 따른 개인성향을 반영한 과장표정 생성시스템의 구조도.1 is a structural diagram of an exaggerated expression generating system reflecting personal tendencies according to the present invention.

도 2는 본 발명에 따른 69개의 특징점이 입력된 샘플 이미지를 도시한 예시도.2 is an exemplary view illustrating a sample image in which 69 feature points are input according to the present invention.

도 3은 본 발명에 따른 결합모델과 평균형상에 워핑한 얼굴을 도시한 예시도.Figure 3 is an exemplary view showing a face warped in the combined shape and the average shape according to the present invention.

도 4는 트레이닝 셋에 포함되지 않은 이미지 AAM 결과화면을 도시한 예시도.4 is an exemplary diagram illustrating an image AAM result screen not included in a training set.

도 5는 본 발명에 따른 개인화 3D 얼굴 생성결과를 도시한 예시도.5 is an exemplary view showing a personalized 3D face generation result according to the present invention.

도 6은 본 발명에 따른 모션 데이터 과장결과를 도시한 도면.6 is a diagram illustrating a motion data exaggeration result according to the present invention.

도 7은 본 발명에 따른 마커가 표시된 표정 샘플 사진을 도시한 예시도.7 is an exemplary view showing a facial expression sample picture in which a marker according to the present invention is displayed.

도 8은 MBTI의 4가지 유형분류를 도시한 도면.8 shows four types of classification of MBTIs.

도 9는 개인성향별 평균거리를 그래프로 도시한 도면.9 is a graph showing the average distance according to individual tendencies.

도 10은 과장률에 따른 놀람표정에서의 MBTI 성향들에 대한 SER 변화를 도시한 도면.FIG. 10 shows SER change for MBTI propensities in surprise expression according to exaggeration rate. FIG.

도 11은 모션데이터와 얼굴모델에서 정의한 특징상자를 도시한 도면.11 is a view showing a feature box defined in a motion data and a face model.

도 12는 모션데이터와 얼굴모델의 특징상자 인덱스를 도시한 도면.12 is a diagram showing a feature box index of a motion data and a face model.

도 13은 3D 얼굴 모델링과 사실적인 텍스쳐 맵핑결과를 도시한 도면.FIG. 13 illustrates 3D face modeling and realistic texture mapping results. FIG.

도 14는 얼굴모델에 맵핑한 가상근육의 위치 및 명칭을 도시한 도면.14 is a view showing the position and name of the virtual muscle mapped to the face model.

도 15는 본 발명에 따른 시스템의 인터페이스 구성도.15 is an interface diagram of a system according to the present invention.

도 16은 본 발명에 따른 과장률 변화에 따른 모션 데이터변화를 나타낸 도 면.16 is a view showing a change in motion data according to the change of the exaggeration rate in accordance with the present invention.

도 17 내지 도 22는 여섯가지 기본표정에 대한 과장표정의 시뮬레이션 결과를 표정별, 개인성향별, 과장률별로 도시한 도면. 17 to 22 are diagrams showing simulation results of exaggerated expressions for six basic expressions by facial expression, individual inclination, and exaggeration rate.

도 23 내지 도 26은 개인화 얼굴 모델에서의 과장표정 생성결과를 도시한 도면.23 to 26 illustrate results of generating an exaggerated expression in a personalized face model.

Claims (13)

가상근육의 움직임을 통해 표정을 생성할 수 있는 3차원 얼굴 모델을 이용한 과장표정 생성방법에 있어서,In the exaggerated expression generation method using a three-dimensional face model that can generate an expression through the movement of the virtual muscle, (a) 복수의 마커가 부착된 모델의 실사 이미지로부터 표정변화에 따른 모션데이터를 획득하고, 획득된 모션데이터로부터 표정변화에 따른 모션벡터와 과장모션벡터를 산출하는 단계;(a) acquiring motion data according to facial expression change from a live image of a model to which a plurality of markers are attached, and calculating motion vector and exaggerated motion vector according to facial expression change from the obtained motion data; (b) 성격유형검사결과에 따라 나누어진 복수의 마커가 부착된 성격유형별 모델의 실사 이미지로부터 표정변화에 따른 마커간 거리값을 산출하고, 산출된 거리값을 이용하여 스타일 레이츠 매핑 테이블(Style rates mapping table)을 생성하는 단계; 및(b) Calculate the distance value between markers according to facial expression change from the live-action image of the model for each personality type with a plurality of markers divided according to the personality type test result, and use the calculated distance value generating a rate mapping table); And (c) 생성된 레이츠 매핑 테이블을 이용하여 성격유형별 과장지수 계산식을 산출하는 단계를 포함하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.(c) calculating an exaggeration index for each personality type using the generated lattice mapping table; 제1항에 있어서,The method of claim 1, 상기 개인성향을 반영한 과장표정 생성방법은,Exaggerated expression generation method reflecting the personality tendency, (d) 개인의 2차원 이미지를 입력받고, 입력된 개인의 2차원 이미지와 상기 3차원 얼굴 모델을 이용하여 개인별 3차원 얼굴 모델을 생성하는 단계;(d) receiving a two-dimensional image of an individual and generating a three-dimensional face model for each individual using the inputted two-dimensional image of the individual and the three-dimensional face model; (e) 개인의 성격유형과 과장률 정보를 입력받아 성격유형별 과장지수를 산출하는 단계; 및(e) calculating the exaggeration index for each personality type by receiving the personality type and the exaggeration rate information of the individual; And (f) 산출된 성격유형별 과장지수를 상기 과장모션벡터에 적용하고, 그 결과를 상기 가상근육에 적용하여 상기 개인별 3차원 얼굴 모델에 개인성향을 반영한 과장표정을 생성하는 단계를 포함하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.(f) applying the calculated exaggeration index for each personality type to the exaggerated motion vector, and applying the result to the virtual muscle to generate an exaggerated expression reflecting individual tendencies in the individual three-dimensional face model. How to create an exaggerated expression reflecting personal tendencies. 제2항에 있어서,3. The method of claim 2, 상기 (a) 단계는,In step (a), (a1) 복수의 마커를 부착한 연기자의 6가지 기본 얼굴 표정을 연속으로 촬영하고, 촬영된 영상을 분석하여 각 프레임별로 표정변화에 따른 각 마커의 3차원 좌표를 이용해 표정별 모션데이터를 산출하는 단계; (a1) Photographing six basic facial expressions of an actor with a plurality of markers in succession, analyzing the photographed images, and calculating motion data for each facial expression using three-dimensional coordinates of each marker according to facial expression change for each frame. step; (a2) 표정별 모션데이터 행렬 M을 비음수 행렬로 만든 후, NMF(Non-negative Matrix Factorization)를 이용하여 특성 행렬 B과 가중치 행렬 E로 분해하여 최적화된 근사행렬 BE을 구하는 단계; 및(a2) obtaining the optimized approximation matrix BE by decomposing the motion data matrix M for each facial expression into a non-negative matrix, and then decomposing the characteristic matrix B and the weight matrix E using non-negative matrix factorization (NMF); And (a3) 가중치 행렬 E의 각 열을 평균과 편차로 분해하고, 근사행렬 BE에 잉여행렬 R을 더한 후, 이로부터 모션벡터와 과장모션벡터를 산출하는 단계를 포함하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.(a3) decomposing each column of the weighting matrix E into an average and a deviation, adding the in traveling matrix R to the approximate matrix BE, and calculating a motion vector and an exaggerated motion vector therefrom. How to create the exaggerated expression reflected. 제3항에 있어서,The method of claim 3, 상기 (a3) 단계에서 산출되는 모션벡터는 The motion vector calculated in the step (a3) is
Figure 112009080722530-pat00067
이고,
Figure 112009080722530-pat00067
ego,
상기 (a3) 단계에서 산출되는 과장모션벡터는The exaggerated motion vector calculated in step (a3) is
Figure 112009080722530-pat00068
Figure 112009080722530-pat00068
Figure 112009080722530-pat00069
인 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.
Figure 112009080722530-pat00069
Exaggerated expression generation method reflecting the personality, characterized in that the.
제3항에 있어서,The method of claim 3, 상기 (a1) 단계의 6가지 기본 얼굴 표정은 놀람, 두려움, 화남, 혐오, 행복, 슬픔인 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.The six basic facial expressions of step (a1) are surprise, fear, anger, disgust, happiness, sadness. 제1항에 있어서,The method of claim 1, 상기 (b) 단계의 성격유형검사는 MBTI 검사이고, 성격유형검사결과는 IF성향, IT성향, EF성향, ET성향으로 분류되는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.The personality type test of step (b) is an MBTI test, and the personality type test result is classified into IF tendency, IT tendency, EF tendency, and ET tendency. 제1항에 있어서,The method of claim 1, 상기 (b) 단계는,In step (b), (b1) 성격유형검사결과에 따라 해당되는 성격유형을 가지는 모델의 얼굴에 특징점을 기반으로 복수의 마커를 부착하고, 모델의 무표정, 놀람, 두려움, 화남, 혐오, 행복, 슬픔의 7가지 얼굴표정을 촬영하는 단계; 및(b1) According to the personality type test result, a plurality of markers are attached to the face of the model having the corresponding personality type based on the feature points, and the seven facial expressions of expressionlessness, surprise, fear, anger, disgust, happiness, and sadness of the model. Photographing; And (b2) 성격유형별로 촬영된 무표정 영상과 6가지 감정표정 영상의 마커 위치를 각각 비교하여 무표정 얼굴영상과 각 감정표정 얼굴영상 사이의 모든 마커의 평균 이동거리를 산출하고 이를 비율화하여 스타일 레이츠 매핑 테이블을 생성하는 단계를 포함하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.(b2) Comparing the positions of markers of the expressionless images and the six emotion-expression images taken by personality type, respectively, calculating the average moving distances of all markers between the expressionless face images and the emotion-expression face images, and scaling them. An exaggerated expression generating method reflecting personal tendencies, characterized in that it comprises the step of generating a mapping table. 제7항에 있어서,The method of claim 7, wherein 상기 (b2) 단계에서 마커의 평균 이동거리의 산출공식은 Calculation formula of the average moving distance of the marker in the step (b2)
Figure 112009080722530-pat00070
(s: 마커 인덱스 , ms: 표정의 마커 벡터, mNs: 무표정의 마커 벡터)인 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.
Figure 112009080722530-pat00070
(s: marker index, m s : marker vector of expression, m Ns : marker vector of expressionless expression).
제7항에 있어서,The method of claim 7, wherein 상기 (b2) 단계에서의 비율화는 The ratio in the step (b2) is
Figure 112009080722530-pat00071
Figure 112009080722530-pat00071
(
Figure 112009080722530-pat00072
,
Figure 112009080722530-pat00073
,
Figure 112009080722530-pat00074
scale parameter)식을 이용하여 수행되는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.
(
Figure 112009080722530-pat00072
,
Figure 112009080722530-pat00073
,
Figure 112009080722530-pat00074
Exaggerated expression generation method reflecting personality, characterized in that performed using the scale parameter) expression.
제9항에 있어서,10. The method of claim 9, 상기 (c) 단계에서의 산출되는 성격유형별 과장지수 계산식은Exaggeration index calculation formula for each personality type calculated in step (c) is
Figure 112009080722530-pat00075
Figure 112009080722530-pat00075
(si: style index, n: exponent parameter, k: scale parameter, w(0-1): exaggeration rate, C: convergent value) 인 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.(s i : style index, n: exponent parameter, k: scale parameter, w (0-1): exaggeration rate, C: convergent value)
제2항에 있어서,3. The method of claim 2, 상기 (d) 단계는,The step (d) (d1) 개인의 2차원 이미지를 입력받는 단계;(d1) receiving a two-dimensional image of an individual; (d2) 입력된 2차원 이미지로부터 AAM(Active Appearance Model) 알고리즘을 이용하여 특징점을 자동으로 검출하여 출력하는 단계;(d2) automatically detecting and outputting a feature point from an input two-dimensional image using an AAM (Active Appearance Model) algorithm; (d3) 사용자의 조작에 따라, 정확한 특징점 제어를 위해서 특징점을 사용자가 마우스로 드래그한 경우 점과 선이 고무줄처럼 늘거나 줄어들면서 형태를 만들어 가는 방식으로, 1차적으로 찾은 특징점을 사용자가 임의적으로 이동하여 정확성을 높이는 Rubber Band 방식으로 검출된 특징점의 위치를 변경하는 단계;(d3) According to the user's operation, when the user drags the feature point with the mouse for precise control of the feature point, the point and the line increase or decrease like a rubber band to form a shape. Changing the position of the detected feature point by moving the rubber band to increase accuracy; (d4) 최종적으로 결정된 특징점의 위치값과 3D 워핑 기법을 사용하여 상기 3차원 얼굴 모델을 개인별 3차원 얼굴 모델로 변형하는 단계; 및(d4) transforming the three-dimensional face model into a personal three-dimensional face model by using the finally determined position values and 3D warping techniques; And (d5) 개인별 3차원 얼굴 모델에 텍스쳐 매핑을 수행하는 단계를 포함하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.(d5) Exaggerated expression generation method reflecting personality, characterized in that it comprises the step of performing texture mapping on the individual three-dimensional face model. 제11항에 있어서,The method of claim 11, 상기 개인성향을 반영한 과장표정 생성방법은,Exaggerated expression generation method reflecting the personality tendency, 상기 (f) 단계에서 과장모션벡터를 상기 가상근육에 적용함에 있어 상기 3차원 얼굴 모델 또는 개인별 3차원 얼굴 모델의 각 부위를 마커의 위치에 맞추어 복수의 육면체 형태의 특징상자로 분할하고, 마커와 상기 3차원 얼굴 모델 또는 개인별 3차원 얼굴 모델의 각 분할된 특징상자에 대한 x, y, z출 거리의 비율을 산출한 후 이 비율을 해당 마커의 변화량에 곱하여 적용하는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.In the step (f), in applying the exaggerated motion vector to the virtual muscle, each part of the three-dimensional face model or the individual three-dimensional face model is divided into a plurality of cube-shaped feature boxes according to the position of the marker, and After calculating the ratio of x, y, z extraction distance for each divided feature box of the three-dimensional face model or the individual three-dimensional face model, this ratio is multiplied by the change amount of the corresponding marker to apply the personal tendency. How to create the exaggerated expression reflected. 제12항에 있어서,The method of claim 12, 상기 3차원 얼굴 모델 또는 개인별 3차원 얼굴 모델은 표정에 따른 근육운동을 고려하여 12개의 특징상자로 분할되는 것을 특징으로 하는 개인성향을 반영한 과장표정 생성방법.The three-dimensional face model or the individual three-dimensional face model is an exaggerated facial expression generation method that reflects personal tendencies, characterized in that divided into 12 feature boxes in consideration of muscle movement according to the expression.
KR1020090131809A 2009-12-28 2009-12-28 Generating Method for exaggerated 3D facial expressions with personal styles KR101116838B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090131809A KR101116838B1 (en) 2009-12-28 2009-12-28 Generating Method for exaggerated 3D facial expressions with personal styles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090131809A KR101116838B1 (en) 2009-12-28 2009-12-28 Generating Method for exaggerated 3D facial expressions with personal styles

Publications (2)

Publication Number Publication Date
KR20110075372A KR20110075372A (en) 2011-07-06
KR101116838B1 true KR101116838B1 (en) 2012-03-06

Family

ID=44915376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090131809A KR101116838B1 (en) 2009-12-28 2009-12-28 Generating Method for exaggerated 3D facial expressions with personal styles

Country Status (1)

Country Link
KR (1) KR101116838B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767144B1 (en) * 2015-08-13 2017-08-11 (주)에프엑스기어 Apparatus, method and computer program for generating 3-dimensional model of clothes

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9165404B2 (en) 2011-07-14 2015-10-20 Samsung Electronics Co., Ltd. Method, apparatus, and system for processing virtual world
KR102102685B1 (en) * 2018-04-18 2020-04-23 한국생산기술연구원 A method for robotic facial expressions by learning human facial demonstrations
CN109727303B (en) * 2018-12-29 2023-07-25 广州方硅信息技术有限公司 Video display method, system, computer equipment, storage medium and terminal
JP7273752B2 (en) * 2020-03-04 2023-05-15 株式会社スクウェア・エニックス Expression control program, recording medium, expression control device, expression control method
CN113379880B (en) * 2021-07-02 2023-08-11 福建天晴在线互动科技有限公司 Expression automatic production method and device
CN116228951B (en) * 2023-04-25 2023-07-14 安徽海马云科技股份有限公司 Expression data processing method and device for digital virtual object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 : 한국콘텐츠학회

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767144B1 (en) * 2015-08-13 2017-08-11 (주)에프엑스기어 Apparatus, method and computer program for generating 3-dimensional model of clothes

Also Published As

Publication number Publication date
KR20110075372A (en) 2011-07-06

Similar Documents

Publication Publication Date Title
CN108573527B (en) Expression picture generation method and equipment and storage medium thereof
Cao et al. Facewarehouse: A 3d facial expression database for visual computing
KR101116838B1 (en) Generating Method for exaggerated 3D facial expressions with personal styles
US8902232B2 (en) Facial performance synthesis using deformation driven polynomial displacement maps
Ersotelos et al. Building highly realistic facial modeling and animation: a survey
JP6207210B2 (en) Information processing apparatus and method
WO2022143645A1 (en) Three-dimensional face reconstruction method and apparatus, device, and storage medium
KR20160041570A (en) Apparatus and method for generating montage, recording medium for performing the method
JP2023545200A (en) Parameter estimation model training method, parameter estimation model training apparatus, device, and storage medium
CN111950430A (en) Color texture based multi-scale makeup style difference measurement and migration method and system
Malleson et al. Rapid one-shot acquisition of dynamic VR avatars
CN111127642A (en) Human face three-dimensional reconstruction method
US11443473B2 (en) Systems and methods for generating a skull surface for computer animation
Asthana et al. Facial performance transfer via deformable models and parametric correspondence
KR100974165B1 (en) System and method for synthesis of face expression using nonlinear regression analysis
Yu et al. A framework for automatic and perceptually valid facial expression generation
Zhang et al. Anatomy-based face reconstruction for animation using multi-layer deformation
CN114219920B (en) Method and device for constructing three-dimensional face model, storage medium and terminal
US20230079478A1 (en) Face mesh deformation with detailed wrinkles
JP4893968B2 (en) How to compose face images
Agarwal et al. Synthesis of emotional expressions specific to facial structure
Cho et al. Emotional avatars: appearance augmentation and animation based on facial expression analysis
Zhang et al. Synthesis of 3D faces using region‐based morphing under intuitive control
Kocon et al. Face emotional states mapping based on the rigid bone model
Abeysundera Semi-automatic customization for modeling human face

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160118

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170112

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171207

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200210

Year of fee payment: 9