KR20240053915A - Facial expression compensation method for generating character's own facial expression and facial expression production apparatus using the same - Google Patents
Facial expression compensation method for generating character's own facial expression and facial expression production apparatus using the same Download PDFInfo
- Publication number
- KR20240053915A KR20240053915A KR1020220134033A KR20220134033A KR20240053915A KR 20240053915 A KR20240053915 A KR 20240053915A KR 1020220134033 A KR1020220134033 A KR 1020220134033A KR 20220134033 A KR20220134033 A KR 20220134033A KR 20240053915 A KR20240053915 A KR 20240053915A
- Authority
- KR
- South Korea
- Prior art keywords
- facial expression
- facial
- expression data
- data
- generating
- Prior art date
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 160
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000004519 manufacturing process Methods 0.000 title description 2
- 239000000203 mixture Substances 0.000 claims abstract description 86
- 230000014509 gene expression Effects 0.000 claims abstract description 59
- 230000001815 facial effect Effects 0.000 claims abstract description 16
- 238000013135 deep learning Methods 0.000 claims description 8
- 238000012417 linear regression Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법 및 이를 이용한 표정 생성장치가 개시된다. 이를 위하여, 3차원 표정 데이터로부터 얼굴의 각 요소별 표정을 생성하는 복수의 제1블렌드쉐입을 생성하는 단계, 아무런 개별 특징을 갖지 않는 획일적인 얼굴 형태를 형성하는 템플릿 데이터에 복수의 제1블렌드쉐입을 적용하여 제1표정 데이터를 생성하는 단계, 각각의 프레임별로 3차원 표정 데이터와 제1표정 데이터를 비교하여 오차가 발생한 에러 프레임을 추출하는 단계, 및 에러 프레임의 제1표정 데이터에 보정용 블렌드쉐입을 추가하여 생성한 제2블렌드쉐입을 적용하여 제2표정 데이터를 생성하는 단계를 포함하는 얼굴 표정 보정방법을 제공한다. 본 발명에 의하면, 빠른시간 내에 캐릭터 고유의 표정이 표현되도록 얼굴 표정을 보정할 수 있다.A facial expression correction method for generating a character's unique expression and an expression generating device using the same are disclosed. For this purpose, generating a plurality of first blend shapes that generate expressions for each element of the face from 3D facial expression data, and generating a plurality of first blend shapes in template data that forms a uniform facial shape without any individual features. Generating first expression data by applying, extracting an error frame in which an error occurs by comparing the 3D expression data and the first expression data for each frame, and applying a blend shape for correction to the first expression data of the error frame Provides a facial expression correction method including the step of generating second expression data by applying the second blend shape created by adding . According to the present invention, facial expressions can be corrected to express a character's unique expression within a short period of time.
Description
본 발명은 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법 및 이를 이용한 표정 생성장치에 관한 것으로, 보다 상세하게는 블렌드쉐입을 이용하여 생성된 캐릭터의 얼굴 표정 오차를 캐릭터 고유의 표정이 더 잘 표현될 수 있도록 자동으로 블렌드쉐입을 추가하여 얼굴 표정을 보정하는 얼굴 표정 보정방법 및 이를 이용한 표정 생성장치에 관한 것이다.The present invention relates to a facial expression correction method for generating a character's unique expression and an expression generating device using the same. More specifically, the present invention relates to a character's unique expression that better expresses the facial expression error of a character created using blend shape. It relates to a facial expression correction method that corrects facial expressions by automatically adding blend shapes to enable facial expressions to be corrected, and an expression generating device using the same.
컴퓨터 그래픽 기술의 발전으로 영화나 게임 등의 제작에 가상의 3D 캐릭터가 많이 등장하고 있다. 캐릭터의 얼굴은 영화나 게임에 등장하는 캐릭터의 특징을 가장 잘 나타내는 수단이기 때문에 다양하고 섬세한 얼굴 표정을 만들기 위한 기술들이 개발되고 있으며, 블렌드쉐입(Blendshape)도 그 중 하나이다. 블렌드쉐입은 캐릭터의 얼굴 표정을 만들기 위해 가장 널리 이용되는 방법이며, 특히 영화 업계에서 현실적인 휴머노이드 캐릭터를 만들기 위해 주로 이용되고 있다.With the advancement of computer graphics technology, many virtual 3D characters are appearing in the production of movies and games. Because a character's face is the best way to express the characteristics of a character in a movie or game, technologies are being developed to create various and detailed facial expressions, and Blendshape is one of them. Blendshape is the most widely used method to create facial expressions of characters, and is especially used in the film industry to create realistic humanoid characters.
블렌드쉐입은 얼굴 표정에 있어서 핵심이 되는 주요 얼굴 포즈들의 집합을 의미하며, 사람의 감정을 표현하는 다양한 얼굴 표정을 만들기 위해서는 다양한 형태의 블렌드쉐입이 필요하다. 기존에는 사람이 직접 수작업을 통해 표정별로 블렌드쉐입을 만들었기 때문에 많은 시간이 소요되었다. 이러한 문제점을 해결하기 위해, 무표정한 얼굴의 기본 쉐입(Basic shape)과 다양한 얼굴 표정에 대응되는 블렌드쉐입을 선형 조합하여 새로운 얼굴 표정을 생성하는 기법이 주로 이용되었다.Blendshape refers to a set of major facial poses that are key to facial expressions, and various types of blendshapes are needed to create various facial expressions that express human emotions. Previously, people created blend shapes for each facial expression manually, which took a lot of time. To solve this problem, a technique was mainly used to create new facial expressions by linearly combining the basic shape of an expressionless face and blend shapes corresponding to various facial expressions.
최근에는 자동으로 블렌드쉐입을 만들어서 작업 시간을 줄이려고 하지만, 자동으로 산출된 결과를 바로 적용하는 경우에는 미세한 근육들을 제대로 표현할 수 없어 얼굴 표정의 완성도가 떨어진다. 또한, 캐릭터 마다 얼굴 특성이 다르므로 필요한 블렌드쉐입의 종류와 개수가 다양함에도 불구하고 동일한 블렌드쉐입을 일률적으로 적용하는 경우 캐릭터 고유의 얼굴 표정을 제대로 표현하기 어렵게 된다.Recently, attempts have been made to reduce work time by automatically creating blend shapes, but if the automatically calculated results are applied directly, fine muscles cannot be expressed properly, which reduces the completeness of facial expressions. In addition, since each character has different facial characteristics, it becomes difficult to properly express the character's unique facial expressions if the same blend shape is applied uniformly, even though the type and number of blend shapes required are diverse.
따라서, 본 발명의 목적은 캐릭터 마다 가지고 있는 고유의 얼굴 표정을 표현할 수 있는 블렌드쉐입을 자동으로 추가하여 얼굴 표정을 보정할 수 있는 얼굴 표정 보정방법 및 이를 이용한 표정 생성장치를 제공하는데 있다.Therefore, the purpose of the present invention is to provide a facial expression correction method that can correct facial expressions by automatically adding a blend shape that can express the unique facial expressions of each character, and an expression generating device using the same.
상술한 본 발명의 목적을 달성하기 위하여, 본 발명의 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법은 (a) 3차원 표정 데이터로부터 얼굴의 각 요소별 표정을 생성하는 복수의 제1블렌드쉐입을 생성하는 단계; (b) 아무런 개별 특징을 갖지 않는 획일적인 얼굴 형태를 형성하는 템플릿 데이터에 상기 복수의 제1블렌드쉐입을 적용하여 제1표정 데이터를 생성하는 단계; (c) 각각의 프레임별로 상기 3차원 표정 데이터와 상기 제1표정 데이터를 비교하여 오차가 발생한 에러 프레임을 추출하는 단계; 및 (d) 상기 에러 프레임의 제1표정 데이터에 보정용 블렌드쉐입을 추가하여 생성한 제2블렌드쉐입을 적용하여 제2표정 데이터를 생성하는 단계;를 포함한다.In order to achieve the purpose of the present invention described above, the facial expression correction method for generating a unique facial expression of a character of the present invention includes (a) a plurality of first blend shapes that generate facial expressions for each element of the face from 3D facial expression data; generating a; (b) generating first facial expression data by applying the plurality of first blend shapes to template data forming a uniform facial shape without any individual features; (c) extracting an error frame in which an error occurs by comparing the 3D facial expression data and the first facial expression data for each frame; and (d) generating second facial expression data by applying a second blend shape created by adding a blend shape for correction to the first facial expression data of the error frame.
여기서, 상기 단계 (d)는 상기 오차를 보정하기 위한 보정용 블렌드쉐입을 적어도 하나 이상 추가하는 단계; 상기 보정용 블렌드쉐입의 제1가중치를 추정하는 단계; 상기 제1가중치를 이용하여 딥러닝 기반의 제2블렌드쉐입을 생성하는 단계; 상기 제2블렌드쉐입의 제2가중치를 추정하는 단계; 및 상기 제2가중치를 적용하여 상기 제2표정 데이터를 생성하는 단계;를 포함하는 것을 특징으로 한다.Here, step (d) includes adding at least one correction blendshape to correct the error; estimating a first weight of the blend shape for correction; Generating a second blend shape based on deep learning using the first weight; estimating a second weight of the second blend shape; and generating the second facial expression data by applying the second weight.
한편, 상기 보정용 블렌드쉐입을 적어도 하나 이상 추가하는 단계는 상기 3차원 표정 데이터와 상기 제1표정 데이터 간의 오차에 따라 어떤 표정을 보정할 것이지 결정하여 해당 표정을 보정 하기 위한 블렌드쉐입을 추가하는 단계인 것을 특징으로 한다.Meanwhile, the step of adding at least one blendshape for correction is a step of determining which facial expression to correct according to the error between the 3D facial expression data and the first facial expression data and adding a blendshape for correcting the facial expression. It is characterized by
또한, 딥러닝 기반의 제2블렌드쉐입을 생성하는 단계는 선형 회귀(Linear Regression) 방식을 이용하는 것을 특징으로 한다.In addition, the step of generating the second blend shape based on deep learning is characterized by using a linear regression method.
상기 단계 (c)는 상기 3차원 표정 데이터와 상기 제1표정 데이터 간의 평균제곱오차(Mean Square Error;MSE)값이 가장 큰 프레임을 상기 에러 프레임으로 추출하는 것을 특징으로 한다.The step (c) is characterized by extracting the frame with the largest mean square error (MSE) value between the 3D facial expression data and the first facial expression data as the error frame.
그리고 상기 단계 (b)는 획일적인 얼굴 형태를 형성하는 템플릿 데이터를 생성하는 단계; 상기 템플릿 데이터에 상기 복수의 제1블렌드쉐입을 적용하여 임시 표정 데이터를 생성하는 단계; 상기 3차원 표정 데이터와 상기 임시 표정 데이터를 비교하여 오차 발생 여부를 판단하는 단계; 및 오차 발생 시, 상기 임시 표정 데이터를 수정하여 상기 3차원 표정 데이터와 비교하는 단계;를 포함하는 것을 특징으로 한다.And the step (b) includes generating template data that forms a uniform face shape; generating temporary facial expression data by applying the plurality of first blend shapes to the template data; Comparing the 3D facial expression data and the temporary facial expression data to determine whether an error has occurred; And when an error occurs, modifying the temporary facial expression data and comparing it with the three-dimensional facial expression data.
한편, 본 발명의 얼굴 표정 보정방법이 적용된 표정 생성장치는 외부에서 촬영된 배우의 얼굴에 대한 3차원 영상 데이터를 생성한 후 얼굴의 각 요소별 표정을 생성하는 복수의 제1블렌드쉐입을 생성하는 3차원 영상 입력부; 아무런 개별 특징을 갖지 않는 획일적인 얼굴 형태를 구성하는 템플릿 데이터에 상기 복수의 제1블렌드쉐입을 적용하여 프레임별로 제1표정 데이터를 생성하는 제1표정 생성부; 프레임별로 상기 제1표정 데이터와 상기 3차원 표정 데이터를 비교하여 오차가 가장 크게 발생한 에러 프레임을 추출하는 에러 프레임 추출부; 및 상기 에러 프레임의 제1표정 데이터에 보정용 블렌드쉐입을 추가하여 생성한 제2블렌드쉐입을 적용하여 제2표정 데이터를 생성하는 제2표정 생성부;를 포함한다.Meanwhile, the facial expression generation device to which the facial expression correction method of the present invention is applied generates 3D image data for the face of an actor photographed externally and then generates a plurality of first blend shapes that generate expressions for each element of the face. 3D image input unit; a first expression generator for generating first expression data for each frame by applying the plurality of first blend shapes to template data constituting a uniform facial shape without any individual features; an error frame extractor that compares the first facial expression data and the three-dimensional facial expression data for each frame to extract an error frame with the largest error; and a second facial expression generator that generates second facial expression data by applying a second blend shape generated by adding a blend shape for correction to the first facial expression data of the error frame.
본 발명의 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법을 이용하여 기존의 블렌드쉐입이 적용된 얼굴 표정에 보정용 블렌드쉐입을 자동으로 추가하여 빠른 시간내에 오차를 보정할 수 있어 작업 시간을 단축할 수 있다.Using the facial expression correction method for creating a character's unique expression of the present invention, errors can be corrected quickly by automatically adding a correction blend shape to the facial expression to which the existing blend shape has been applied, thereby reducing work time. there is.
또한, 오차가 가장 크게 발생한 에러 프레임에 보정용 블렌드쉐입을 자동으로 추가하여 동영상에서의 얼굴 표정 변화를 자연스럽게 만들 수 있다.Additionally, you can create natural changes in facial expressions in videos by automatically adding a blend shape for correction to the error frame with the largest error.
뿐만 아니라, 캐릭터의 고유 특성을 나타낼 수 있는 보정용 블렌드쉐입을 선택적으로 추가하여 표현하고자 하는 얼굴 표정의 완성도를 향상시킬 수 있다.In addition, you can improve the completeness of the facial expression you want to express by selectively adding a correction blend shape that can express the character's unique characteristics.
도 1은 본 발명의 일실시예에 따른 얼굴 표정 보정방법을 설명하기 위한 순서도,
도 2는 본 발명의 일실시예에 따른 얼굴 표정 보정방법에 따라 각 단계에서 생성되는 얼굴 형상을 나타낸 도면,
도 3은 도 1의 얼굴 표정 보정방법에서 제1표정 데이터를 생성하는 과정을 설명하기 위한 도면,
도 4는 도 1의 얼굴 표정 보정방법에서 제2표정 데이터를 생성하는 과정을 설명하기 위한 도면,
도 5는 본 발명의 일실시예에 따른 얼굴 표정 보정방법에서 추가되는 블렌드쉐입과 관련된 표정을 나타낸 도면,
도 6은 도 4의 제2표정 데이터 생성과정에서 수행되는 선형회귀 방법을 설명하기 위한 도면,
도 7은 본 발명의 일실시예에 따른 얼굴 표정 보정방법에서 생성된 데이터 간의 오차를 비교한 도면, 그리고
도 8은 본 발명의 일실시예에 따른 얼굴 표정 보정방법을 이용한 표정 생성장치의 개략적은 구성을 나타낸 블록도이다.1 is a flowchart illustrating a facial expression correction method according to an embodiment of the present invention;
Figure 2 is a diagram showing the facial shape generated at each stage according to the facial expression correction method according to an embodiment of the present invention;
Figure 3 is a diagram for explaining the process of generating first facial expression data in the facial expression correction method of Figure 1;
Figure 4 is a diagram for explaining the process of generating second facial expression data in the facial expression correction method of Figure 1;
Figure 5 is a diagram showing an expression related to the blend shape added in the facial expression correction method according to an embodiment of the present invention;
Figure 6 is a diagram for explaining the linear regression method performed in the second facial expression data generation process of Figure 4;
Figure 7 is a diagram comparing errors between data generated in the facial expression correction method according to an embodiment of the present invention, and
Figure 8 is a block diagram showing the schematic configuration of an expression generating device using a facial expression correction method according to an embodiment of the present invention.
상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The features and effects of the present invention described above will become more apparent through the following detailed description in conjunction with the accompanying drawings, and accordingly, those skilled in the art will be able to easily implement the technical idea of the present invention. You will be able to. Since the present invention can be subject to various changes and have various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.
이하, 첨부도면을 참조하여 본 발명의 바람직한 실시 예에 의한 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법 및 이를 이용한 표정 생성장치(이하, ‘얼굴 표정 보정방법 및 표정 생성장치’)를 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings, a facial expression correction method and an expression generating device using the same for generating a character's unique expression according to a preferred embodiment of the present invention (hereinafter referred to as 'facial expression correction method and expression generating device') will be described in detail. Explain.
도 1은 본 발명의 일실시예에 따른 얼굴 표정 보정방법을 설명하기 위한 순서도이다.1 is a flowchart for explaining a facial expression correction method according to an embodiment of the present invention.
도 1에 따르면, 먼저, 3차원 표정 데이터로부터 복수의 제1블렌드쉐입을 생성한다(S100). 3차원 표정 데이터는 촬영장치를 통해 캡쳐된 배우의 얼굴 기하학 구조(geometry)를 말하며, 복수의 제1블렌드쉐입은 배우 얼굴의 눈, 코, 입 등 각 요소별 표정을 표현하는 데이터이다.According to Figure 1, first, a plurality of first blend shapes are generated from 3D facial expression data (S100). 3D facial expression data refers to the geometry of the actor's face captured through a photography device, and the first plurality of blend shapes is data that expresses the expression of each element of the actor's face, such as the eyes, nose, and mouth.
3차원 표정 데이터는 촬영장치를 통해 인식된 배우의 얼굴에 메쉬필터를 오버레이하여 생성되고 초당 60프레임이 캡쳐된다. 본 발명의 일실시예에서는 배우가 다양한 표정을 짓는 동안 4500개의 프레임을 획득한다.3D facial expression data is created by overlaying a mesh filter on the actor's face recognized through a filming device, and 60 frames per second are captured. In one embodiment of the present invention, 4500 frames are acquired while the actor makes various facial expressions.
또한, 본 발명의 일실시예에서는 다양한 표정을 짓는 배우의 3차원 표정 데이터로부터 52개의 블렌드쉐입을 생성하는 것을 예로 든다. 52개의 블렌드쉐입에는 입을 표현하는 23개, 눈썹을 표현하는 5개, 턱을 표현하는 4개, 볼을 표현하는 3개, 코를 표현하는 2개, 혀를 표현하는 1개, 그리고 양쪽 눈을 표현하는 각 7개의 블렌드쉐입이 포함된다.Additionally, in one embodiment of the present invention, 52 blend shapes are generated from 3D facial expression data of an actor making various facial expressions. The 52 blend shapes include 23 representing the mouth, 5 representing the eyebrows, 4 representing the chin, 3 representing the cheeks, 2 representing the nose, 1 representing the tongue, and both eyes. Each of the 7 blend shapes represented are included.
얼굴 기하학 구조는 블렌드쉐입과 블렌드쉐입의 가중치를 선형결합하여 표현하며, 이러한 관계는 아래 [수학식 1]과 같이 나타낼 수 있다.The facial geometry structure is expressed by linearly combining the blend shape and the weight of the blend shape, and this relationship can be expressed as [Equation 1] below.
[수학식 1]에서 는 아이덴티티(Identity;ID), 는 얼굴 기하학 구조, 는 id 계수의 벡터, 는 행렬이며, 행렬에서 열벡터는 각각의 블렌드쉐입이다. 아래 [수학식 2] 및 [수학식 3]에는 표기법을 간단히 나타내었다.In [Equation 1] is identity (ID), is the face geometry, is a vector of id coefficients, Is It is a matrix, and the column vectors in the matrix are each blendshape. The notation is simply shown in [Equation 2] and [Equation 3] below.
복수의 제1블렌드쉐입을 생성한 후, 템플릿 데이터에 복수의 제1블렌드쉐입을 적용하여 제1표정 데이터를 생성한다(S200). 템플릿 데이터는 아무런 개별 특징을 갖지 않는 획일적인 얼굴 형태를 구성하는 데이터이다. 이러한 템플릿 데이터에 52개의 블렌드쉐입을 적용하여 4500개의 프레임에 대해 각각 제1표정 데이터를 생성한다. 제1표정 데이터를 생성하는 과정에 대해서는 도 3을 통해 상세하게 후술하기로 한다.After generating a plurality of first blend shapes, first facial expression data is generated by applying the plurality of first blend shapes to the template data (S200). Template data is data that constitutes a uniform facial shape without any individual features. 52 blend shapes are applied to these template data to generate first facial expression data for each of 4,500 frames. The process of generating the first facial expression data will be described in detail later with reference to FIG. 3.
제1표정 데이터가 생성되면, 각각의 프레임별로 3차원 표정 데이터와 제1표정 데이터를 비교하여(S300), 오차 발생 여부를 판단한다(S400). 즉, 4500개의 프레임에 대해 각각의 프레임별로 3차원 표정 데이터와 제1표정 데이터를 비교하여 오차 발생 여부를 판단한다. 오차 발생은 3차원 표정 데이터와 제1표정 데이터 간의 평균제곱오차(Mean Squared Error;MSE)를 이용하여 판단할 수 있다. MSE값은 입 모양의 오차 발생 여부를 판단하는데 용이하게 이용되며, MSE값이 클수록 입 모양의 오차가 크게 발생한다.When the first facial expression data is generated, the 3D facial expression data and the first facial expression data are compared for each frame (S300) to determine whether an error has occurred (S400). That is, for 4,500 frames, the 3D facial expression data and the first facial expression data are compared for each frame to determine whether an error has occurred. The occurrence of error can be determined using the mean squared error (MSE) between the 3D facial expression data and the first facial expression data. The MSE value is easily used to determine whether errors in mouth shape occur, and the larger the MSE value, the greater the error in mouth shape.
그리고 나서 오차가 가장 크게 발생한 에러 프레임을 추출한다(S500). 즉, 3차원 표정 데이터와 제1표정 데이터 간의 MSE값이 가장 큰 프레임을 에러 프레임으로 추출한다. 오차가 가장 큰 k번째 프레임 는 아래 [수학식 4]를 이용하여 추출할 수 있다.Then, the error frame with the largest error is extracted (S500). That is, the frame with the largest MSE value between the 3D facial expression data and the first facial expression data is extracted as the error frame. kth frame with largest error can be extracted using [Equation 4] below.
[수학식 4]에서 는 캡쳐된 3차원 표정 데이터, 은 52개의 블렌드쉐입이 적용된 제1표정 데이터이다.In [Equation 4] is the captured 3D facial expression data, is the first facial expression data with 52 blend shapes applied.
에러 프레임이 추출되면, 에러 프레임의 제1표정 데이터에 제2블렌드쉐입을 적용하여 제2표정 데이터를 생성한다(S600). 제2블렌드쉐입은 52개의 제1블렌드쉐입에 보정용 53번째 블렌드쉐입을 추가하여 생성하며, 제2표정 데이터를 생성하는 과정에 대해서는 도 4를 통해 상세하게 후술하기로 한다.When the error frame is extracted, the second blend shape is applied to the first expression data of the error frame to generate second expression data (S600). The second blend shape is created by adding the 53rd blend shape for correction to the 52 first blend shapes, and the process of generating the second facial expression data will be described in detail later with reference to FIG. 4.
도 2는 본 발명의 일실시예에 따른 얼굴 표정 보정방법에 따라 각 단계에서 생성되는 얼굴 형상을 나타낸 도면이다.Figure 2 is a diagram showing the facial shape created at each stage according to the facial expression correction method according to an embodiment of the present invention.
첫번째 형상 는 단계 S100에서 캡쳐된 3차원 표정을 나타내며 궁극적으로 재현하고자 하는 타겟 표정이다. 그리고 는 단계 S200에서 생성된 템플릿 표정, 은 단계 S300에서 생성된 제1표정, 은 단계 S600에서 생성된 제2표정에 해당한다.first shape represents the 3D facial expression captured in step S100 and is ultimately the target facial expression to be reproduced. and is the template expression generated in step S200, The first facial expression created in step S300, corresponds to the second facial expression generated in step S600.
무표정한 템플릿 표정 에 52개의 블렌드쉐입이 적용하면 제1표정 이 생성된다. 도 2에 나타낸 바와 같이 은 입 모양에 있어서 와 큰 차이를 보이며, 와 간의 오차를 보정하기 위해 53번째 블렌드쉐입을 추가하여 최종적으로 을 생성하게 된다.expressionless template expression The first look is when 52 blend shapes are applied to This is created. As shown in Figure 2 in the shape of the mouth There is a big difference with and In order to correct the error between the 53rd blend shape, the final is created.
도 3은 도 1의 얼굴 표정 보정방법에서 제1표정 데이터를 생성하는 과정을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining the process of generating first facial expression data in the facial expression correction method of FIG. 1.
도 3에 따르면, 우선 획일적인 얼굴 형태를 형성하는 템플릿 데이터를 생성한다(S210). 템플릿 데이터는 원래의 얼굴 모양을 반영하지 않은 표준 얼굴을 형성하는 데이터이며, 얼굴형이나 눈 표정 등 개별적인 고유의 특성을 무시하고 동일한 아이덴티티만 표현한다.According to Figure 3, first, template data forming a uniform face shape is generated (S210). Template data is data that forms a standard face that does not reflect the original facial shape, and only expresses the same identity, ignoring individual unique characteristics such as facial shape or eye expression.
템플릿 데이터에 복수의 제1블렌드쉐입을 적용하여 임시 표정 데이터를 생성한다(S230). 그리고 3차원 표정 데이터와 임시 표정 데이터를 비교하여(S250), 오차 발생 여부를 판단한다(S270). 오차가 발생하는 경우(S270-Y), 임시 표정 데이터를 수정하여(S280), 단계S250을 반복한다. 단계 S250, S270, 및 S280은 딥러닝(Deep Learning) 학습 과정을 통해 만족할 만한 결과를 얻을 때까지 반복된다.Temporary facial expression data is generated by applying a plurality of first blend shapes to the template data (S230). Then, the 3D facial expression data is compared with the temporary facial expression data (S250) to determine whether an error has occurred (S270). If an error occurs (S270-Y), the temporary facial expression data is corrected (S280) and step S250 is repeated. Steps S250, S270, and S280 are repeated until satisfactory results are obtained through a deep learning learning process.
오차가 발생하지 않는 경우(S270-N), 임시 표정 데이터는 그대로 제1표정 데이터로 출력된다. 단계 S230 내지 S290은 4500개의 프레임 마다 수행되어 각각의 프레임 마다 제1표정 데이터를 생성한다.If no error occurs (S270-N), the temporary facial expression data is output as the first facial expression data. Steps S230 to S290 are performed every 4500 frames to generate first facial expression data for each frame.
도 4는 도 1의 얼굴 표정 보정방법에서 제2표정 데이터를 생성하는 과정을 설명하기 위한 도면, 도 5는 본 발명의 일실시예에 따른 얼굴 표정 보정방법에서 추가되는 블렌드쉐입과 관련된 표정을 나타낸 도면, 도 6은 도 4의 제2표정 데이터 생성과정에서 수행되는 선형회귀 방법을 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating the process of generating second expression data in the facial expression correction method of FIG. 1, and FIG. 5 shows an expression related to the blend shape added in the facial expression correction method according to an embodiment of the present invention. Figure 6 is a diagram for explaining the linear regression method performed in the second facial expression data generation process of Figure 4.
도 4에 따르면, 먼저 오차를 보정하기 위한 보정용 블렌드쉐입을 추가한다(S620). 이때 추가되는 블렌드쉐입은 하나 혹은 그 이상이 될 수 있으며, 3차원 표정 데이터와 제1표정 데이터 간의 오차에 따라 어떤 표정을 보정할 것이지 결정하여 해당 표정을 보정 하기 위한 블렌드쉐입을 추가한다. 즉, 입 모양의 오차가 큰 경우 입 모양을 보정하기 위한 블렌드쉐입이 추가되고, 눈 모양의 오차가 큰 경우 눈 모양을 보정하기 위한 블렌드쉐입이 추가된다. 혹은, 입과 눈 모두를 보정하기 위한 블렌드쉐입이 모두 추가될 수도 있다. 본 발명의 일실시예에서는 입 모양을 보정하기 위해 도 5에 나타낸 표정과 관련된 53번째 블렌드쉐입이 추가된다.According to Figure 4, first, a correction blend shape is added to correct the error (S620). At this time, there can be one or more blend shapes added. Depending on the error between the 3D expression data and the first expression data, which expression to correct is determined and a blend shape to correct the expression is added. That is, if the error in the mouth shape is large, a blendshape is added to correct the mouth shape, and if the error in the eye shape is large, a blendshape is added to correct the eye shape. Alternatively, a blend shape can be added to correct both the mouth and eyes. In one embodiment of the present invention, a 53rd blend shape related to the facial expression shown in FIG. 5 is added to correct the mouth shape.
오차가 가장 큰 k번째 프레임에 추가되는 보정용 블렌드쉐입인 53번째 블렌드쉐입 은 3차원 표정 데이터 와 제1표정 데이터 간의 차이를 이용하여 구할 수 있으며, [수학식 5]와 같이 나타낸다.The 53rd blendshape is a correction blendshape added to the kth frame with the largest error. 3D facial expression data and first facial expression data It can be obtained using the difference between the values, and is expressed as [Equation 5].
그리고 추가된 보정용 블렌드쉐입의 가중치를 추정한다(S630). k번째 프레임에서의 가중치 는 1이고, 추가적인 가중치는 다른 프레임에서 [수학식 6]에 나타낸 간단한 선형 방정식을 풀어서 구할 수 있다.Then, the weight of the added correction blend shape is estimated (S630). Weight at kth frame is 1, and additional weights can be obtained by solving the simple linear equation shown in [Equation 6] in another frame.
이 후에는 딥러닝 기반의 제2블렌드쉐입을 생성하는데(S650), 도 6에 나타낸 바와 같은 선형회귀(Linear Regression) 방식을 이용한다.After this, a second blend shape based on deep learning is generated (S650), using the linear regression method as shown in FIG. 6.
도 6에서, 은 53번째 블렌드쉐입, 은 53번째 블렌드쉐입이 적용되어 선형회귀 방식으로 생성된 임시 표정 데이터이다. 계수 Wj+ 를 포함하는 캡쳐된 3차원 표정 데이터 가 입력 데이터로 사용된다. 53번째 블렌드 쉐입 과 중립 얼굴 를 정확히 얻기위해 [수학식 7]에 나타낸 입력 과 출력 간의 꼭지점(Vertice)의 RMSE(Root Mean Square Error)값이 손실함수로 적용된다.In Figure 6, is the 53rd blend shape, is temporary facial expression data generated using a linear regression method by applying the 53rd blend shape. Coefficient Wj+ Captured 3D facial expression data including is used as input data. 53rd blend shape and neutral face Input shown in [Equation 7] to accurately obtain and output The RMSE (Root Mean Square Error) value of the vertices is applied as the loss function.
선형회귀 방식이 자동인코더(Autoencoder)를 이용하는 것보다 학습하는데 짧은 시간이 소요된다. 따라서 본발명의 일실시예에서는 선형회귀 방식으로부터 획득된 블렌드쉐입이 적용된다.The linear regression method takes less time to learn than using an autoencoder. Therefore, in one embodiment of the present invention, the blend shape obtained from the linear regression method is applied.
그리고 나서 제2블렌드쉐입의 가중치를 추정한다(S670). 표정 데이터를 재구성하기 위해서는 가중치를 업데이트 해야하며, 본 발명의 일실시예에서는 아래 [수학식 8] 내지 [수학식 10]을 이용하여 가중치를 산출한다.Then, estimate the weight of the second blend shape (S670). In order to reconstruct facial expression data, the weights must be updated, and in one embodiment of the present invention, the weights are calculated using [Equation 8] to [Equation 10] below.
는 으로, 는 로 나타내면, 유사역원(pseudo-inverse)에 의해 가중치는 으로 산출된다. Is by, Is Expressed as , the weight by pseudo-inverse is It is calculated as
단계 S650 및 단계 S670은 3차원 표정 데이터 와 임시 표정 데이터 사이의 오차가 최적으로 최소화 될때까지 반복되고, 마지막으로 최종적으로 산출된 가중치가 적용된 제2표정 데이터를 생성한다(S690).Step S650 and step S670 are three-dimensional facial expression data and temporary facial expression data This is repeated until the error between the two is optimally minimized, and finally, the second facial expression data to which the finally calculated weight is applied is generated (S690).
도 7은 본 발명의 일실시예에 따른 얼굴 표정 보정방법에서 생성된 데이터 간의 오차를 비교한 도면이다.Figure 7 is a diagram comparing errors between data generated in the facial expression correction method according to an embodiment of the present invention.
본 발명의 일실시예에 따라 획득한 4500개의 프레임 중 아래 [표 1]에 10개의 가장 큰 MSE·108과 블렌드쉐입 수를 표시하였다. 4206번째 프레임의 경우 세번째로 큰 에러를 보이지만 53번째 블렌드쉐입을 추가한 결과 에러가 99% 감소한 것을 확인할 수 있다. 이러한 성능은 도 7에도 나타나 있다.Among the 4,500 frames obtained according to an embodiment of the present invention, the 10 largest MSE·10 8 and the number of blend shapes are shown in [Table 1] below. The 4206th frame shows the third largest error, but as a result of adding the 53rd blend shape, you can see that the error has been reduced by 99%. This performance is also shown in Figure 7.
53번째 블렌드쉐입을 추가한 결과 가장 큰 에러가 발생한 10개의 프레임의 오차가 모두 감소한 것을 도 7을 통해 확인할 수 있다.It can be seen in Figure 7 that as a result of adding the 53rd blend shape, the errors of all 10 frames with the largest errors were reduced.
도 8은 본 발명의 일실시예에 따른 얼굴 표정 보정방법을 이용한 표정 생성장치의 개략적은 구성을 나타낸 블록도이다.Figure 8 is a block diagram showing the schematic configuration of an expression generating device using a facial expression correction method according to an embodiment of the present invention.
도 8에 따르면, 본 발명의 표정 생성장치는 3차원 영상 입력부(700), 제1표정 생성부(720), 에러 프레임 추출부(740), 및 제2표정 생성부(760)를 포함한다.According to FIG. 8, the facial expression generating device of the present invention includes a 3D image input unit 700, a first facial expression generating unit 720, an error frame extracting unit 740, and a second facial expression generating unit 760.
3차원 영상 입력부(700)는 외부 촬영장치를 통해 촬영된 다양한 표정의 배우 얼굴이 입력되면, 입력된 배우 얼굴로부터 3차원 영상 데이터를 생성한 후 복수의 제1블렌드쉐입을 생성한다. 즉, 배우 얼굴에 메쉬필터를 오버레이하여 얼굴 기하학 구조를 생성한 후 배우 얼굴의 눈, 코, 입 등 각 요소별 표정을 표현하는 복수의 제1블렌드쉐입을 생성한다.When an actor's face with various expressions captured through an external imaging device is input, the 3D image input unit 700 generates 3D image data from the input actor's face and then generates a plurality of first blend shapes. In other words, a mesh filter is overlaid on the actor's face to create a facial geometric structure, and then a plurality of first blend shapes are created that express the expression of each element of the actor's face, such as the eyes, nose, and mouth.
제1표정 생성부(720)는 아무런 개별 특징을 갖지 않는 획일적인 얼굴 형태를 구성하는 템플릿 데이터에 복수의 제1블렌드쉐입을 적용하여 프레임별로 제1표정 데이터를 생성한다. 좀 더 상세히 설명하면, 제1표정 생성부(720)는 템플릿 데이터에 복수의 제1블렌드쉐입을 적용하여 임시 표정 데이터를 생성한 후, 3차원 표정 데이터와 임시 표정 데이터를 비교하여, 오차가 발생하는 경우 임시 표정 데이터를 수정한다. 이러한 과정은 오차가 기 설정된 값 이하가 될때까지 딥러닝을 통해 반복적으로 수행된다.The first expression generator 720 generates first expression data for each frame by applying a plurality of first blend shapes to template data constituting a uniform facial shape without any individual features. To explain in more detail, the first expression generator 720 generates temporary expression data by applying a plurality of first blend shapes to the template data, and then compares the 3D expression data and the temporary expression data to generate an error. In this case, modify the temporary facial expression data. This process is performed repeatedly through deep learning until the error falls below a preset value.
에러 프레임 추출부(740)는 프레임별로 제1표정 데이터와 3차원 표정 데이터를 비교하여 오차가 가장 크게 발생한 에러 프레임을 추출한다. 여기서, 에러 프레임 추출부(740)는 3차원 표정 데이터와 제1표정 데이터 간의 평균제곱오차(Mean Squared Error;MSE)를 이용하여 오차 발생 여부를 판단한다.The error frame extractor 740 compares the first facial expression data and the 3D facial expression data for each frame and extracts the error frame in which the largest error occurs. Here, the error frame extractor 740 determines whether an error has occurred using the mean squared error (MSE) between the 3D facial expression data and the first facial expression data.
제2표정 생성부(760)는 에러 프레임의 제1표정 데이터에 보정용 블렌드쉐입을 추가하여 생성한 제2블렌드쉐입을 적용하여 제2표정 데이터를 생성한다. 좀 더 상세히 설명하면, 제2표정 생성부(760)는 우선 에러 프레임에서 오차를 보정하기 위한 보정용 블렌드쉐입을 추가하여 가중치를 추정한다. 이때 추정된 가중치를 이용하여 딥러닝 기반의 제2블렌드쉐입을 생성한 후 최종 가중치를 추정하여 최종 가중치가 적용된 제2표정 데이터를 생성한다.The second facial expression generator 760 generates second facial expression data by applying a second blend shape created by adding a blend shape for correction to the first facial expression data of the error frame. To explain in more detail, the second facial expression generator 760 first estimates the weight by adding a correction blendshape to correct errors in the error frame. At this time, a deep learning-based second blend shape is created using the estimated weight, and then the final weight is estimated to generate second facial expression data to which the final weight is applied.
이상과 같은 구성을 포함하는 표정 생성장치는 블렌드쉐입을 자동으로 추가하여 얼굴 표정을 보정할 수 있어 캐릭터 고유의 표정을 빠른 시간안에 재현할 수 있게 된다.The facial expression generator with the above configuration can correct facial expressions by automatically adding blend shapes, allowing the character's unique facial expressions to be reproduced in a short period of time.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
700 : 3차원 영상 입력부
720 : 제1표정 생성부
740 : 에러 프레임 추출부
760 : 제2표정 생성부700: 3D image input unit 720: first facial expression generation unit
740: Error frame extraction unit 760: Second facial expression generation unit
Claims (7)
(b) 아무런 개별 특징을 갖지 않는 획일적인 얼굴 형태를 형성하는 템플릿 데이터에 상기 복수의 제1블렌드쉐입을 적용하여 제1표정 데이터를 생성하는 단계;
(c) 각각의 프레임별로 상기 3차원 표정 데이터와 상기 제1표정 데이터를 비교하여 오차가 발생한 에러 프레임을 추출하는 단계; 및
(d) 상기 에러 프레임의 제1표정 데이터에 보정용 블렌드쉐입을 추가하여 생성한 제2블렌드쉐입을 적용하여 제2표정 데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법.(a) generating a plurality of first blend shapes that generate expressions for each element of the face from 3D facial expression data;
(b) generating first facial expression data by applying the plurality of first blend shapes to template data forming a uniform facial shape without any individual features;
(c) extracting an error frame in which an error occurs by comparing the 3D facial expression data and the first facial expression data for each frame; and
(d) generating second facial expression data by applying a second blend shape created by adding a blend shape for correction to the first facial expression data of the error frame; generating a unique facial expression of the character, comprising: How to correct facial expressions.
상기 단계 (d)는,
상기 오차를 보정하기 위한 보정용 블렌드쉐입을 적어도 하나 이상 추가하는 단계;
상기 보정용 블렌드쉐입의 제1가중치를 추정하는 단계;
상기 제1가중치를 이용하여 딥러닝 기반의 제2블렌드쉐입을 생성하는 단계;
상기 제2블렌드쉐입의 제2가중치를 추정하는 단계; 및
상기 제2가중치를 적용하여 상기 제2표정 데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법.According to paragraph 1,
In step (d),
Adding at least one correction blendshape to correct the error;
estimating a first weight of the blend shape for correction;
Generating a second blend shape based on deep learning using the first weight;
estimating a second weight of the second blend shape; and
A facial expression correction method for generating a character's unique expression, comprising: applying the second weight to generate the second expression data.
상기 보정용 블렌드쉐입을 적어도 하나 이상 추가하는 단계는,
상기 3차원 표정 데이터와 상기 제1표정 데이터 간의 오차에 따라 어떤 표정을 보정할 것이지 결정하여 해당 표정을 보정 하기 위한 블렌드쉐입을 추가하는 단계인 것을 특징으로 하는 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법.According to paragraph 2,
The step of adding at least one blendshape for correction is,
Facial expression for generating a character's unique expression, characterized in that it is a step of determining which expression to correct according to the error between the 3D facial expression data and the first facial expression data and adding a blend shape for correcting the facial expression. Correction method.
딥러닝 기반의 제2블렌드쉐입을 생성하는 단계는,
선형 회귀(Linear Regression) 방식을 이용하는 것을 특징으로 하는 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법.According to paragraph 2,
The step of generating the second blend shape based on deep learning is,
A facial expression correction method for creating a character's unique expression, characterized by using a linear regression method.
상기 단계 (c)는,
상기 3차원 표정 데이터와 상기 제1표정 데이터 간의 평균제곱오차(Mean Square Error;MSE)값이 가장 큰 프레임을 상기 에러 프레임으로 추출하는 것을 특징으로 하는 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법.According to paragraph 1,
In step (c),
A facial expression correction method for generating a character's unique expression, characterized in that the frame with the largest Mean Square Error (MSE) value between the three-dimensional expression data and the first expression data is extracted as the error frame. .
상기 단계 (b)는,
획일적인 얼굴 형태를 형성하는 템플릿 데이터를 생성하는 단계;
상기 템플릿 데이터에 상기 복수의 제1블렌드쉐입을 적용하여 임시 표정 데이터를 생성하는 단계;
상기 3차원 표정 데이터와 상기 임시 표정 데이터를 비교하여 오차 발생 여부를 판단하는 단계; 및
오차 발생 시, 상기 임시 표정 데이터를 수정하여 상기 3차원 표정 데이터와 비교하는 단계;를 포함하는 것을 특징으로 하는 캐릭터 고유의 표정을 생성하기 위한 얼굴 표정 보정방법.According to paragraph 1,
In step (b),
Generating template data forming a uniform facial shape;
generating temporary facial expression data by applying the plurality of first blend shapes to the template data;
Comparing the 3D facial expression data and the temporary facial expression data to determine whether an error has occurred; and
When an error occurs, correcting the temporary expression data and comparing it with the 3D expression data. A facial expression correction method for generating a character's unique expression, comprising:
아무런 개별 특징을 갖지 않는 획일적인 얼굴 형태를 구성하는 템플릿 데이터에 상기 복수의 제1블렌드쉐입을 적용하여 프레임별로 제1표정 데이터를 생성하는 제1표정 생성부;
프레임별로 상기 제1표정 데이터와 상기 3차원 표정 데이터를 비교하여 오차가 가장 크게 발생한 에러 프레임을 추출하는 에러 프레임 추출부; 및
상기 에러 프레임의 제1표정 데이터에 보정용 블렌드쉐입을 추가하여 생성한 제2블렌드쉐입을 적용하여 제2표정 데이터를 생성하는 제2표정 생성부;를 포함하는 것을 특징으로 하는 표정 생성장치.A 3D image input unit that generates 3D image data for an externally photographed actor's face and then generates a plurality of first blend shapes that generate expressions for each element of the face;
a first expression generator for generating first expression data for each frame by applying the plurality of first blend shapes to template data constituting a uniform facial shape without any individual features;
an error frame extractor that compares the first facial expression data and the three-dimensional facial expression data for each frame to extract an error frame with the largest error; and
A second facial expression generator that generates second facial expression data by applying a second blend shape generated by adding a blend shape for correction to the first facial expression data of the error frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220134033A KR20240053915A (en) | 2022-10-18 | 2022-10-18 | Facial expression compensation method for generating character's own facial expression and facial expression production apparatus using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220134033A KR20240053915A (en) | 2022-10-18 | 2022-10-18 | Facial expression compensation method for generating character's own facial expression and facial expression production apparatus using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240053915A true KR20240053915A (en) | 2024-04-25 |
Family
ID=90885200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220134033A KR20240053915A (en) | 2022-10-18 | 2022-10-18 | Facial expression compensation method for generating character's own facial expression and facial expression production apparatus using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240053915A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100217044B1 (en) | 1995-10-10 | 1999-09-01 | 류정열 | Warning lamp |
-
2022
- 2022-10-18 KR KR1020220134033A patent/KR20240053915A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100217044B1 (en) | 1995-10-10 | 1999-09-01 | 류정열 | Warning lamp |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108932693B (en) | Face editing and completing method and device based on face geometric information | |
US12131436B2 (en) | Target image generation method and apparatus, server, and storage medium | |
Chen et al. | Puppeteergan: Arbitrary portrait animation with semantic-aware appearance transformation | |
Yang et al. | Facial expression editing in video using a temporally-smooth factorization | |
CN110633748B (en) | Robust automatic face fusion method | |
CN112257657B (en) | Face image fusion method and device, storage medium and electronic equipment | |
CN107657664B (en) | Image optimization method and device after face expression synthesis, storage medium and computer equipment | |
KR102252730B1 (en) | Apparatus and methdo for generating animation | |
CN113507627B (en) | Video generation method and device, electronic equipment and storage medium | |
US20180225882A1 (en) | Method and device for editing a facial image | |
CN112734890A (en) | Human face replacement method and device based on three-dimensional reconstruction | |
CN113689538A (en) | Video generation method and device, electronic equipment and storage medium | |
Li et al. | Ae-nerf: Audio enhanced neural radiance field for few shot talking head synthesis | |
CN113516604A (en) | Image restoration method | |
KR20240053915A (en) | Facial expression compensation method for generating character's own facial expression and facial expression production apparatus using the same | |
Sun et al. | SSAT $++ $: A Semantic-Aware and Versatile Makeup Transfer Network With Local Color Consistency Constraint | |
KR100422470B1 (en) | Method and apparatus for replacing a model face of moving image | |
CN111951408A (en) | Image fusion method and device based on three-dimensional face | |
CN116524087A (en) | Audio-driven speaker video synthesis method and system for fusing nerve radiation field | |
KR20200029968A (en) | Modeling method of automatic character facial expression using deep learning technology | |
Oshiba et al. | Face image generation of anime characters using an advanced first order motion model with facial landmarks | |
CN111611997B (en) | Cartoon customized image motion video generation method based on human body action migration | |
JP7521259B2 (en) | Trained machine learning model, image processing device, and method for training a machine learning model | |
Xu et al. | Your3dEmoji: Creating Personalized Emojis via One-shot 3D-aware Cartoon Avatar Synthesis | |
CN113256541A (en) | Method for removing water mist from drilling platform monitoring picture by machine learning |