KR20210040555A - Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model - Google Patents

Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model Download PDF

Info

Publication number
KR20210040555A
KR20210040555A KR1020190122905A KR20190122905A KR20210040555A KR 20210040555 A KR20210040555 A KR 20210040555A KR 1020190122905 A KR1020190122905 A KR 1020190122905A KR 20190122905 A KR20190122905 A KR 20190122905A KR 20210040555 A KR20210040555 A KR 20210040555A
Authority
KR
South Korea
Prior art keywords
virtual character
expression
basis model
facial expression
type
Prior art date
Application number
KR1020190122905A
Other languages
Korean (ko)
Inventor
최영주
천왕성
김우연
남윤지
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020190122905A priority Critical patent/KR20210040555A/en
Publication of KR20210040555A publication Critical patent/KR20210040555A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A device for simulating an expression of a virtual character based on a basis model comprises: a selection unit for selecting any one virtual character among a plurality of previously registered virtual characters; an extraction unit for extracting a feature point for a user's face from a face image; an expression generating unit for generating an expression of the selected virtual character so as to correspond to the extracted feature point based on the constructed basis model; and a rendering unit for rendering by applying the expression of the generated virtual character to the virtual character. Therefore, the present invention is capable of allowing the user's expression to be reflected as the virtual character's expression without awkwardness.

Description

베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 장치, 방법 및 컴퓨터 프로그램{APPARATUS, METHOD AND COMPUTER PROGRAM FOR PROVIDING FACIAL MOTION RETARGETING OF VIRTUAL CHARACTER BASED ON BASIS MODEL}A device, method, and computer program that simulates the expression of a virtual character based on the basis model {APPARATUS, METHOD AND COMPUTER PROGRAM FOR PROVIDING FACIAL MOTION RETARGETING OF VIRTUAL CHARACTER BASED ON BASIS MODEL}

본 발명은 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 장치, 방법 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to an apparatus, a method, and a computer program for simulating an expression of a virtual character based on a basis model.

스마트폰(Smart Phone)이란 컴퓨터로 할 수 있는 작업 중 일부를 휴대폰에서도 할 수 있도록 개발된 휴대 기기이다. 사람들은 스마트폰을 항상 들고 다니면서 인터넷을 검색하거나 메일을 송수신하고, 동영상 또는 사진을 촬영 및 편집할 수 있다. 또한, 스마트폰 이용자들은 서로 간에 동영상, 음악, 사진 등의 콘텐츠를 주고받을 수도 있다.A smart phone is a portable device developed so that some of the tasks that can be done with a computer can be performed on a mobile phone. People can always carry their smartphones with them to browse the Internet, send and receive mail, and shoot and edit videos or photos. In addition, smartphone users can exchange content such as videos, music, and photos with each other.

최근에는 스마트폰에 장착된 카메라를 이용하여 사용자의 얼굴을 촬영하고, 사용자 얼굴을 기반으로 하는 아바타의 생성이 가능해졌다. 이러한 스마트폰에서 아바타를 생성하는 기술과 관련하여, 선행기술인 한국공개특허 제 2013-0121003호는 분장 아바타 생성 장치 및 그 방법을 개시하고 있다. Recently, it has become possible to capture a user's face using a camera mounted on a smartphone and create an avatar based on the user's face. With regard to the technology of generating an avatar in such a smartphone, Korean Patent Publication No. 2013-0121003, which is a prior art, discloses an apparatus for generating a makeup avatar and a method thereof.

그러나 아바타를 제작하는 기술은 미리 정의된 단순한 표정 또는 동작으로 한정되어 있으며, 상대방에게 자신의 표정이나 동작을 전달하는데 한계가 있다는 단점이 존재한다. However, the technology for producing an avatar is limited to simple predefined facial expressions or movements, and there is a disadvantage in that there is a limitation in delivering his or her facial expressions or movements to the other party.

사용자의 얼굴에 대한 특징점을 추출하고, 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하는 표정 모사 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. It is intended to provide an expression simulation apparatus, method, and computer program that extracts feature points for the user's face and applies the generated virtual character's facial expression to the virtual character to correspond to the extracted feature points based on the constructed basis model. .

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 선택부, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 추출부, 기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 표정 생성부 및 상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 렌더링부를 포함하는 표정 모사 장치를 제공할 수 있다. As a means for achieving the above-described technical problem, an embodiment of the present invention includes a selection unit that is selected for any one virtual character among a plurality of pre-registered virtual characters, and extracts feature points for a user's face from a face image. An expression generating unit that generates an expression of the selected virtual character to correspond to the extracted feature point based on the extracted basis model, and a rendering that applies and renders the generated expression of the virtual character to the virtual character. It is possible to provide an expression replicating device including a part.

본 발명의 다른 실시예는, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 단계, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 단계, 기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 단계 및 상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 단계를 포함하는 표정 모사 방법을 제공할 수 있다. In another embodiment of the present invention, the step of receiving selection for any one of a plurality of pre-registered virtual characters, extracting feature points of the user's face from the face image, and based on the established basis model It is possible to provide an expression simulation method including generating an expression of the selected virtual character to correspond to the extracted feature point, and rendering the expression of the generated virtual character by applying it to the virtual character.

본 발명의 또 다른 실시예는, 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받고, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하고, 기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하고, 상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하도록 하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램을 제공할 수 있다. In another embodiment of the present invention, when the computer program is executed by the computing device, the computer program is selected for any one of a plurality of pre-registered virtual characters, and extracts feature points for the user's face from the face image, A medium comprising a sequence of instructions for generating an expression of the selected virtual character to correspond to the extracted feature point based on the constructed basis model, and rendering the generated expression of the virtual character to the virtual character Computer programs stored in can be provided.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 얼굴 기반으로 가상 캐릭터의 표정을 모사하는데 있어 베이시스 모델을 이용함으로써, 사용자의 얼굴 표정이 어색함 없이 가상 캐릭터의 표정으로 반영되도록 하는 표정 모사 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. According to any one of the above-described problem solving means of the present invention, by using a basis model in simulating the expression of a virtual character based on the user's face, an expression simulation device that allows the user's facial expression to be reflected as the expression of the virtual character without being awkward. , Method and computer program can be provided.

사용자가 다양한 파일 포맷으로 구성된 가상 캐릭터를 선택하고, 선택된 가상 캐릭터의 파일 포맷에 따라 사용자의 얼굴 기반으로 가상 캐릭터의 표정이 각각 상이한 방식으로 생성되어 렌더링되도록 하는 표정 모사 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. Provides an facial expression simulation device, method, and computer program that allow a user to select a virtual character composed of various file formats and to generate and render the virtual character's facial expressions in different ways based on the user's face according to the file format of the selected virtual character. can do.

도 1은 본 발명의 일 실시예에 따른 표정 모사 장치의 구성도이다.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 베이시스 모델을 등록하는 과정을 설명하기 위한 예시적인 도면이다.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 복수의 가상 캐릭터의 유형 및 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다.
도 4a 내지 도 4e는 본 발명의 일 실시예에 따른 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하는 과정을 설명하기 위한 예시적인 도면이다.
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 가상 캐릭터의 표정을 가상 캐릭터의 유형에 따라 렌더링하는 과정을 설명하기 위한 예시적인 도면이다.
도 6은 본 발명의 일 실시예에 따른 표정 모사 장치에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법의 순서도이다.
도 7은 본 발명의 일 실시예에 따른 표정 모사 장치에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법의 순서도이다.
1 is a configuration diagram of an facial expression replicating apparatus according to an embodiment of the present invention.
2A and 2B are exemplary diagrams for explaining a process of registering a basis model according to an embodiment of the present invention.
3A to 3C are exemplary diagrams illustrating types of a plurality of virtual characters and a plurality of facial expression sets for a virtual character according to an embodiment of the present invention.
4A to 4E are exemplary diagrams for explaining a process of rendering an expression of a virtual character generated based on a basis model according to an embodiment of the present invention applied to a virtual character.
5A to 5C are exemplary diagrams for explaining a process of rendering an expression of a virtual character according to a type of a virtual character according to an embodiment of the present invention.
6 is a flowchart of a method of simulating an expression of a virtual character generated based on a basis model in an expression simulation apparatus according to an embodiment of the present invention.
7 is a flowchart of a method of rendering an expression of a virtual character generated based on a basis model according to a type of a virtual character in the facial expression simulation apparatus according to an exemplary embodiment of the present invention to each virtual character.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" with another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included, and one or more other features, not excluding other components, unless specifically stated to the contrary. It is to be understood that it does not preclude the presence or addition of any number, step, action, component, part, or combination thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized by using two or more hardware, or two or more units may be realized by one piece of hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by the terminal or device may be performed instead in a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 표정 모사 장치의 구성도이다. 표정 모사 장치(100)는 사용자 단말로부터 얼굴이미지를 수신할 수 있으며, 수신한 얼굴 이미지에 나타난 얼굴 표정을 가상 캐릭터의 표정으로 모사할 수 있다. 여기서, 가상 캐릭터는 동물이나 영화 속 등장인물 등으로 미리 설정되어 있을 수 있으며, 표정 모사 장치(100)는 가상 캐릭터의 얼굴 표정이나 포즈 등을 변형하여, 가상 캐릭터가 사용자의 얼굴 표정 등을 따라하도록 할 수 있다. 이와 같이, 가상 캐릭터가 사용자의 얼굴 표정 등을 모사하도록 하는 것을 리타겟팅(retargeting)이라고 한다.1 is a configuration diagram of an facial expression replicating apparatus according to an embodiment of the present invention. The facial expression simulation apparatus 100 may receive a face image from a user terminal, and may simulate a facial expression displayed in the received face image as an expression of a virtual character. Here, the virtual character may be preset as an animal or a character in a movie, and the facial expression simulation device 100 transforms the facial expression or pose of the virtual character so that the virtual character imitates the user's facial expression, etc. can do. In this way, allowing the virtual character to simulate the user's facial expressions, etc. is referred to as retargeting.

도 1을 참조하면, 표정 모사 장치(100)는 베이시스 모델 관리부(110), 선택부(120), 추출부(130), 표정 생성부(140) 및 렌더링부(150)를 포함할 수 있다. Referring to FIG. 1, the facial expression simulation apparatus 100 may include a basis model management unit 110, a selection unit 120, an extraction unit 130, an expression generation unit 140, and a rendering unit 150.

베이시스 모델 관리부(110)는 실제 사람에 대한 형상으로 모델링된 기준 표정셋 및 각 부위별 표정셋을 포함하는 복수의 표정셋으로 구성된 베이시스 모델을 등록받을 수 있다. 베이시스 모델을 등록하는 과정에 대해서는 도 2a 및 도 2b를 통해 상세히 설명하도록 한다. The basis model management unit 110 may register a basis model composed of a plurality of facial expression sets including a reference facial expression set modeled in a shape of an actual person and an facial expression set for each part. The process of registering the basis model will be described in detail with reference to FIGS. 2A and 2B.

도 2a 및 도 2b는 본 발명의 일 실시예에 따른 베이시스 모델을 등록하는 과정을 설명하기 위한 예시적인 도면이다. 2A and 2B are exemplary diagrams for explaining a process of registering a basis model according to an embodiment of the present invention.

도 2a를 참조하면, 촬영부(미도시)가 설정 모드를 통해 베이시스 모델을 등록하기 위해 사용자의 얼굴을 촬영하고, 추출부(130)가 촬영된 사용자의 무표정 얼굴 이미지(200)로부터 특징점을 추출할 수 있다. 여기서, 베이시스 모델의 등록은, 기구축된 베이시스 기준 모델과 촬영된 사용자의 무표정한 얼굴 간의 대응점을 설정하고, 설정된 대응점에 기초하여 RBF 파라미터를 추출하는 과정까지 포함하는 것을 의미할 수 있다. 예를 들어, 촬영부(미도시)는 무표정을 지은 사용자의 얼굴을 촬영하고, 추출부(130)는 촬영된 사용자의 무표정 얼굴 이미지(200)로부터 특징점을 추출할 수 있다. 다른 예를 들어, 촬영부(미도시)는 다양한 표정(예를 들어, 윙크, 미소, 찡그림 등)을 지은 사용자의 얼굴을 촬영하고, 추출부(130)는 촬영된 사용자의 다양한 표정의 얼굴 이미지로부터 특징점을 추출할 수 있다. Referring to FIG. 2A, a photographing unit (not shown) photographs a user's face to register a basis model through a setting mode, and the extraction unit 130 extracts feature points from the photographed user's expressionless face image 200 can do. Here, the registration of the basis model may mean including a process of setting a correspondence point between the constructed basis reference model and the photographed user's expressionless face, and extracting the RBF parameter based on the set correspondence point. For example, a photographing unit (not shown) may photograph a face of a user with an expressionless expression, and the extraction unit 130 may extract feature points from the photographed user's expressionless face image 200. For another example, the photographing unit (not shown) photographs a user's face with various expressions (eg, winks, smiles, frowns, etc.), and the extraction unit 130 is a photographed face image of various expressions of the user. Feature points can be extracted from

베이시스 모델 관리부(110)는 사용자의 무표정 얼굴 이미지(200)로부터 추출된 특징점과 및 베이시스 모델(210)을 구성하는 복수의 표정셋의 특징점 간의 RBF 변환(Radial Basis Function Transform) 파라미터를 추출할 수 있다. RBF 변환 파라미터는 사용자의 얼굴을 나타내는 3차원의 얼굴의 특징점과 베이시스 모델을 통해 정의된 특징점들 사이에 비선형 변환 관계가 있으므로, 이들 사이의 비선형 변환 관계를 나타내기 위해 추출되는 것일 수 있다. The basis model management unit 110 may extract a Radial Basis Function Transform (RBF) parameter between the feature points extracted from the user's non-expression face image 200 and the feature points of a plurality of facial expression sets constituting the basis model 210. . Since the RBF transformation parameter has a nonlinear transformation relationship between the feature points of the three-dimensional face representing the user's face and the feature points defined through the basis model, it may be extracted to indicate the nonlinear transformation relationship therebetween.

도 2b를 참조하면, 베이시스 모델 관리부(110)는 실제 사람에 대한 형상으로 모델링된 기준 표정셋 및 각 부위별 표정셋을 포함하는 복수의 표정셋(230)으로 구성된 베이시스 모델을 등록받을 수 있다. 여기서, 기준 표정셋은 사용자의 무표정한 얼굴 이미지를 기초로 생성된 것일 수 있다. Referring to FIG. 2B, the basis model management unit 110 may register a basis model composed of a plurality of facial expression sets 230 including a reference facial expression set modeled in a shape of an actual person and an facial expression set for each part. Here, the reference facial expression set may be generated based on the user's non-expressive face image.

각 부위별 표정셋은 예를 들어, 눈(231), 눈썹(232), 입술(233), 얼굴(234) 등이 움직여진 표정일 수 있다. 예를 들어, 눈(231) 표정셋은 두 눈 뜨기, 오른쪽 눈 감기, 왼쪽 눈 감기, 양쪽 눈 감기, 게슴츠레 뜨기 등에 대한 표정셋을 포함하고, 눈썹(232) 표정셋은 한쪽 눈썹 올리기 또는 내리기, 양쪽 눈썹 올리기 또는 내리기 등에 대한 표정셋을 포함하고, 입술(233) 표정셋은 미소짓기, 입술 모으기 등에 대한 표정셋을 포함하고, 얼굴(234) 표정셋은 미간 찌푸리기, 하품하기 등에 대한 표정 셋을 포함할 수 있다. The facial expression set for each part may be, for example, an expression in which the eyes 231, the eyebrows 232, the lips 233, and the face 234 are moved. For example, the facial expression set of the eyes 231 includes an expression set for opening two eyes, closing the right eye, closing the left eye, closing both eyes, and opening the eyes, and the eyebrow 232 expression set is raising or lowering one eyebrow, Includes an expression set for raising or lowering both eyebrows, the lips 233 expression set includes an expression set for smiling, lip gathering, and the facial 234 expression set is an expression set for brow frowning, yawning, etc. It may include.

이와 같이, 복수의 표정셋(230)을 구성하기 위해 베이시스 모델 관리부(110)는 베이시스 모델의 기준 표정셋 및 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 추출할 수 있다. 여기서, 오프셋 특징 벡터는 무표정에 해당하는 베이시스 모델의 기준 표정셋과 베이시스 모델의 각 부위별 표정셋 간의 표정 변화량을 나타내는 것일 수 있다. In this way, in order to configure the plurality of facial expression sets 230, the basis model management unit 110 may extract an offset feature vector between the reference facial expression set of the basis model and the facial expression set for each part of the basis model. Here, the offset feature vector may indicate an amount of facial expression change between the reference facial expression set of the basis model corresponding to the non-expression and the facial expression set for each part of the basis model.

이와 같이, 베이시스 모델 관리부(110)는 RBF 변환 파라미터 및 베이시스 모델의 기준 표정셋 및 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 사전에 구축함으로써, 실시간 리타겟팅 수행시에 연산량을 최소화하여 빠른 처리가 가능하도록 할 수 있다.In this way, the basis model management unit 110 builds in advance an offset feature vector between the RBF conversion parameter and the reference facial expression set of the basis model and the facial expression set for each part of the basis model, thereby minimizing the amount of computation when performing real-time retargeting to perform fast processing. Can be made possible.

베이시스 모델 관리부(110)는 추출된 오프셋 특징 벡터에 대해 주성분 분석(PCA, Principal Component Analysis)을 수행하여 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출할 수 있다. 주성분 분석이란 서로 연관 가능성이 있는 고차원의 데이터에 대해 선형 조합에 의해 대표적인 주성분을 만들어 차원을 저차원 데이터로 만드는 기법을 의미하며, 주성분 분석을 통해 데이터의 전반적인 구조는 바꾸지 않으면서 중복적인 정보를 가지는 차원을 감소시킬 수 있는 효과를 제공한다. 즉, 베이시스 모델에서 추출된 오프셋 벡터를 그대로 이용하는 경우, 많은 연산량이 요구되는 문제 등이 발생될 수 있으므로, 얼굴 중에서 눈, 눈썹, 코, 입술 등의 영역이 표정을 특징적으로 나타내는 주요 부분에 해당하고, 이미, 볼 등의 영역이 상대적으로 중요도가 낮은 부분일 수 있으므로, 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출함으로써, 연산량을 줄일 수 있다.The basis model management unit 110 may extract a principal component feature vector from the extracted offset feature vector by performing a principal component analysis (PCA) on the extracted offset feature vector. Principal component analysis refers to a technique that makes a representative principal component into low-dimensional data by making a representative principal component by linear combination for high-dimensional data that are likely to be related to each other, and has redundant information without changing the overall structure of the data through principal component analysis. It provides an effect that can reduce the dimension. That is, if the offset vector extracted from the basis model is used as it is, a problem that requires a large amount of computation may occur, so the areas of the face, such as eyes, eyebrows, nose, and lips, correspond to the main parts that characterize the facial expression. , Already, since a region such as a ball may be a portion of relatively low importance, the amount of computation can be reduced by extracting the principal component feature vector from the extracted offset feature vector.

베이시스 모델 관리부(110)는 추출된 주성분 특징 벡터를 이용하여 베이시스 모델의 기준 표정셋과 베이시스 모델의 부위별 표정셋의 특징점들에 대해 차원 축소를 수행한 후 저장할 수 있다. The basis model management unit 110 may perform dimension reduction for the reference facial expression set of the basis model and the feature points of the facial expression set for each region of the basis model by using the extracted principal component feature vectors, and then store them.

다시 도 1로 돌아와서, 선택부(120)는 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받을 수 있다. Returning to FIG. 1 again, the selection unit 120 may receive a selection for any one virtual character from among a plurality of previously registered virtual characters.

기등록된 복수의 가상 캐릭터는 마스크 유형 및 분리 유형의 가상 캐릭터의 합성을 위한 캐릭터 오프셋 데이터의 구축과 직접 변형 기법(Direct deformation)의 적용을 위한 정보가 데이터베이스에 저장될 수 있다. 예를 들어, 사용자로부터 선택받은 가상 캐릭터가 후술할 제 1 유형 또는 제 2 유형인 경우, 가상 캐릭터의 무표정 기준 모델과 각 부위별 표정셋 간의 모든 얼굴의 버텍스에 대한 표정 변화량이 추출되고, 가상 캐릭터의 직접 변형 기법의 적용 유무에 대한 정보 및 가상 캐릭터의 전체 얼굴 영역 중 직접 변형을 적용할 영역이 설정될 수 있다. 캐릭터 오프셋 데이터는 3차원의 가상 캐릭터의 샘플표정들을 미리 정의하여 표정셋으로 미리 설정한 것을 의미한다. 직접 변형 적용을 위한 정보는 사용자의 3차원 모션 정보를 3차원의 가상 캐릭터에 직접 적용하여 3차원의 가상 캐릭터의 표정을 표현하는 기법을 의미한다. 여기서, 기등록된 복수의 가상 캐릭터의 파일 포맷은 각각 다르게 구성될 수 있다. For a plurality of pre-registered virtual characters, information for constructing character offset data for synthesizing a mask type and a separation type virtual character and applying a direct deformation technique may be stored in a database. For example, if the virtual character selected by the user is of the first type or the second type to be described later, the amount of expression change for the vertices of all faces between the non-expression reference model of the virtual character and the expression set for each part is extracted, and the virtual character A region to which the direct deformation is applied may be set among the information on whether or not the direct deformation technique of is applied and the entire face region of the virtual character. The character offset data means that sample expressions of a three-dimensional virtual character are defined in advance and set as an expression set in advance. The information for direct transformation application refers to a technique for expressing the expression of the 3D virtual character by directly applying the user's 3D motion information to the 3D virtual character. Here, the file formats of the plurality of pre-registered virtual characters may be configured differently.

가상 캐릭터의 파일 포맷은 3차원 모델에 대한 정보가 저장된 파일의 형태를 의미한다. 3차원 파일은 어떤 방식으로 압축하고 저장하는지에 따라 용량이 달라지며, 사용되는 애플리케이션에 따라 저장되는 방식도 각양각색이다. 또한, 그 구조가 달라 파일을 읽고 변경하고 저장하는데 각각의 규격에 맞게 다뤄져야 한다. The file format of a virtual character refers to a file format in which information on a 3D model is stored. The capacity of a 3D file varies depending on how it is compressed and stored, and the storage method varies depending on the application used. In addition, the structure is different, so the files must be handled according to each standard to read, change, and save.

이를 위해, 가상 캐릭터의 파일 포맷의 형태는 범용적으로 사용되는 OBJ 파일 포맷과 FBX 파일 포맷이 이용될 수 있다. To this end, the OBJ file format and the FBX file format, which are commonly used, may be used as the file format of the virtual character.

OBJ 파일 포맷은 일반적으로 3차원 모델의 형상 정보(Mesh Data)만을 담고 있으며, 별도의 머티리얼(Materials) 파일(*.mtl)과 이미지 파일을 연동함으로써, 전체 3차원 모델에 대한 정보를 표현할 수 있다. 이 때, OBJ 파일 포맷은 얼굴 표정을 컨트롤하기 위한 정보 또는 신체 애니메이션을 위한 정보를 포함하고 있지 않으며, 얼굴 표정 정보를 반영하기 위해서는 별도의 파일이 요구될 수 있다. 그러나 OBJ 파일 포맷은 3차원 메쉬 정보를 저장하는 가장 일반적이고 범용적인 파일 포맷으로 다양한 3D툴에서 읽기 및 쓰기가 지원된다. The OBJ file format generally contains only the shape information (Mesh Data) of the 3D model, and information on the entire 3D model can be expressed by linking an image file with a separate Materials file (*.mtl). . In this case, the OBJ file format does not include information for controlling facial expressions or information for body animation, and a separate file may be required to reflect facial expression information. However, the OBJ file format is the most common and general-purpose file format that stores 3D mesh information, and is supported for reading and writing in various 3D tools.

FBX 파일 포맷은 단일 파일 내에 3차원 캐릭터 형상 정보(Mesh Data), 머트리얼(Materials) 정보, 얼굴 표정셋 정보(blend-shape), 애니메이션 정보 등의 다양한 복합 정보가 저장된 파일 포맷이다. FBX 파일 포맷은 다양한 정보를 하나의 파일에 저장할 수 있다는 장점이 있으나, 해당 파일 포맷을 지원하는 3D툴이 한정적이라는 단점을 가지고 있다. 그러나 FBX 파일 포맷이 최근 점차 확대되고 있는 추세이다. The FBX file format is a file format in which various complex information such as 3D character shape information (Mesh Data), materials information, facial expression set information (blend-shape), and animation information is stored in a single file. The FBX file format has the advantage of being able to store a variety of information in one file, but it has the disadvantage that 3D tools that support the file format are limited. However, the FBX file format has recently been gradually expanding.

본 발명에서는 가상 캐릭터의 얼굴 구조가 사람과 유사한 형상뿐만 아니라, 완전히 다른 구조의 가상 캐릭터도 단일 라이브러리 처리를 통해 제공될 수 있다. In the present invention, not only the face structure of the virtual character is similar to that of a person, but also a virtual character having a completely different structure can be provided through a single library process.

기등록된 복수의 가상 캐릭터에 대해서는 도 3a 내지 도 3c를 통해 상세히 설명하도록 한다.A plurality of pre-registered virtual characters will be described in detail through FIGS. 3A to 3C.

도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 복수의 가상 캐릭터의 유형 및 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 3A to 3C are exemplary diagrams illustrating types of a plurality of virtual characters and a plurality of facial expression sets for a virtual character according to an embodiment of the present invention.

복수의 가상 캐릭터는 머리로 구성된 제 1 유형의 가상 캐릭터, 머리 및 몸통이 따로 구성된 제 2 유형의 가상 캐릭터 및 머리 및 몸통이 일체형 바디로 구성된 제 3 유형의 가상 캐릭터 등을 포함할 수 있다. 각각의 캐릭터에 대한 표정셋은 표정셋 내에 얼굴부위별로 구별된 복수개의 그룹이 포함될 수 있으며, 각각의 그룹에는 미리 설정된 가상 캐릭터의 무표정을 기준으로 일부 얼굴부위만이 변경된 샘플표정들이 포함될 수 있다. 구체적으로, 표정셋 내에는 눈, 눈썹, 코, 입술 등 각각의 얼굴부위에 대응하는 그룹들이 포함될 수 있으며, 예를 들어, 눈에 대응하는 그룹 내에는 가상 캐릭터의 무표정에서 눈만을 변형한 다양한 샘플표정이 포함될 수 있다. 즉, 무표정에서 양쪽 눈만을 크게 뜨거나, 무표정에서 눈웃음만을 추가한 표정 등 다양한 샘플표정들이 포함될 수 있다. 또한, 이와 동일한 방식으로 각각의 얼굴부위에 해당하는 그룹들에 대한 샘플표정들이 각각 저장될 수 있다. The plurality of virtual characters may include a first type of virtual character composed of a head, a second type of virtual character composed of a head and a body separately, and a third type of virtual character composed of an integral body with a head and a body. The facial expression set for each character may include a plurality of groups separated by facial parts in the facial expression set, and each group may include sample expressions in which only some of the facial parts are changed based on the non-expression of the virtual character set in advance. Specifically, the facial expression set may include groups corresponding to each face area, such as eyes, eyebrows, nose, and lips.For example, in the group corresponding to the eyes, various samples in which only the eyes are transformed from the expressionless expression of a virtual character Facial expressions may be included. That is, a variety of sample expressions, such as an expression with only both eyes wide open in an expressionless expression, or an expression in which only eye smiles are added in an expressionless expression, may be included. In addition, sample expressions for groups corresponding to each face area may be stored in the same manner.

이와 같이, 본 발명에서는 머리와 몸통의 연결 구조 형상이 다른 가상 캐릭터를 지원할 수 있다. 여기서, 연결 구조의 형상은 머리와 몸통이 서로 분리되어 모델링된 분리형과 머리와 몸통이 붙어있는 단일 형태의 일체형으로 구분될 수 있다. As described above, in the present invention, it is possible to support virtual characters having different shapes of the connection structure between the head and the body. Here, the shape of the connection structure may be divided into a separate type modeled by separating the head and the body from each other, and a single type integral type in which the head and the body are attached.

여기서, 3차원의 가상 캐릭터의 유형에 따라 리타겟팅을 적용하기 위해서는 각 유형별로 요구되는 데이터의 구조가 달라질 수 있다. Here, in order to apply retargeting according to the type of the 3D virtual character, the structure of the data required for each type may vary.

도 3a는 본 발명의 일 실시예에 따른 제 1 유형의 가상 캐릭터 및 제 1 유형의 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 도 3a를 참조하면, 제 1 유형(마스크형)의 가상 캐릭터(300)는 머리로만 구성되며, 무표정에 대한 기준 표정셋과 각 부위별 표정셋을 포함하는 복수의 표정셋(310)으로 구성될 수 있다. 3A is an exemplary diagram illustrating a first type of virtual character and a plurality of facial expression sets for a first type of virtual character according to an embodiment of the present invention. Referring to FIG. 3A, a virtual character 300 of a first type (mask type) consists of only a head, and a plurality of facial expression sets 310 including a reference facial expression set for non-expression and an facial expression set for each part. I can.

제 1 유형의 가상 캐릭터(300)는 화면에 표시될 3차원의 제 1 유형의 가상 캐릭터(300)의 모델에 대한 OBJ 파일과 3차원의 제 1 가상 캐릭터의 모델 영역 중 리타겟팅 대상이 되는 영역에 대한 복수의 표정셋(310)의 모델들이 별도의 OBJ 파일로 구성될 수 있다. The first type of virtual character 300 is an area to be retargeted among the OBJ file for the model of the first type of 3D virtual character 300 to be displayed on the screen and the model area of the first 3D virtual character The models of the plurality of facial expression sets 310 for may be configured as separate OBJ files.

도 3b는 본 발명의 일 실시예에 따른 제 2 유형의 가상 캐릭터 및 제 2 유형의 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 도 3b를 참조하면, 제 2 유형(분리형)의 가상 캐릭터(320)는 머리와 몸통이 따로 구성되며, 각각의 모델 영역이 개별 파일로 관리될 수 있다. 3B is an exemplary diagram showing a plurality of facial expression sets for a second type of virtual character and a second type of virtual character according to an embodiment of the present invention. Referring to FIG. 3B, the second type (separate type) of the virtual character 320 has a head and a body separately, and each model area may be managed as a separate file.

예를 들어, 제 2 유형의 가상 캐릭터(320)는 리타겟팅 대상인 머리(321)의 모델 영역에 대한 OBJ 파일과 복수의 표정셋(322)의 모델들이 별도의 OBJ 파일로 구성될 수 있다. 다른 예를 들어, 제 2 유형의 가상 캐릭터(320)는 몸통의 모델 영역이 형상을 정의하는 스킨(skin) 모델(323)과 애니메이션 적용을 위한 리그(rig) 데이터로 이루어진 FBX 파일(324)로 구성될 수 있다. For example, in the second type of virtual character 320, an OBJ file for a model area of the head 321 as a retargeting target and models of a plurality of expression sets 322 may be configured as separate OBJ files. For another example, the second type of virtual character 320 is an FBX file 324 consisting of a skin model 323 in which the model area of the body defines the shape and rig data for applying animation. Can be configured.

도 3c는 본 발명의 일 실시예에 따른 제 3 유형의 가상 캐릭터 및 제 3 유형의 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 도 3c를 참조하면, 제 3 유형의 가상 캐릭터(330)는 머리 및 몸통이 일체형 바디로 구성되며, 단일 파일로 관리될 수 있다. 3C is an exemplary diagram showing a plurality of facial expression sets for a third type of virtual character and a third type of virtual character according to an embodiment of the present invention. Referring to FIG. 3C, a third type of virtual character 330 has a head and a body as an integral body, and may be managed as a single file.

예를 들어, 제 3 유형의 가상 캐릭터(330)는 단일 파일 내에 3차원 캐릭터 형상 정보(Mesh Data), 머티리얼(Materials) 정보, 얼굴 표정셋 정보(332, blend-shape), 애니메이션 정보(331)를 모두 포함하는 FBX 파일로 구성될 수 있다. For example, the third type of virtual character 330 is 3D character shape information (Mesh Data), materials (Materials) information, facial expression set information (332, blend-shape), animation information 331 in a single file. It may be composed of an FBX file containing all of.

다시 도 1로 돌아와서, 추출부(130)는 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점(landmark)을 추출할 수 있다. 예를 들어, 추출부(130)는 얼굴 이미지 내에 포함된 얼굴영역과 나머지 배경영역을 구별하고, 얼굴영역에서 사용자의 얼굴을 다른 사용자의 얼굴들과 구별하기 위해 눈썹, 눈, 코, 입, 턱선 등으로부터 사용자의 얼굴에 대한 특징점을 추출할 수 있다. Returning to FIG. 1 again, the extraction unit 130 may extract a landmark of the user's face from the face image. For example, the extraction unit 130 distinguishes the face region included in the face image from the rest of the background region, and distinguishes the user's face from the faces of other users in the face region. Feature points for the user's face can be extracted from the back.

표정 생성부(140)는 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 선택받은 가상 캐릭터의 표정을 생성할 수 있다. 본 발명에서 기구축된 베이시스 모델을 이용하는 이유는 사용자의 얼굴과 유사한 구조를 갖는 사람형 캐릭터뿐만 아니라, 구조적으로 얼굴형과 많은 차이가 있는 동물형 캐릭터에도 동시에 리타겟팅이 가능하도록 하기 위함이다. The expression generation unit 140 may generate an expression of a virtual character selected to correspond to the extracted feature points based on the machine axis model. The reason for using the built-in basis model in the present invention is to enable retargeting at the same time not only for a human character having a structure similar to a user's face, but also an animal character structurally different from the face type.

일반적으로, 리타겟팅을 수행할 시에 리타겟팅 대상이 되는 캐릭터가 사람의 형상과 많은 차이를 보이는 경우, 사람의 표정 변화량에 따라 가상 캐릭터의 표정의 생성에 많은 오차가 발생할 수 있다. 이렇게 두 데이터 간의 구조적인(topology) 차이로 인해 리타겟팅 수행 중 오차를 발생시키는 경우는 다음과 같다. In general, when retargeting is performed, when a character to be retargeted shows a large difference from a person's shape, a lot of errors may occur in the generation of an expression of a virtual character according to the amount of change in the expression of the person. The following is a case in which an error occurs during retargeting due to the topology difference between the two data.

첫째로, 사용자의 얼굴이미지로부터 획득된 3차원 얼굴 랜드마크 좌표점들을 비선형 변환 기법들을 통해 가상 캐릭터의 대응 좌표로 직접 변환시키는 과정에서 가상캐릭터와 사용자의 얼굴 대응점간의 topology 차이가 클수록 큰 오차를 발생할 수 있다. 이를 방지하고자, 본 발명에서는 얼굴 랜드마크 좌표점에서 가상 캐릭터의 좌표점으로의 직접적인 변환을 수행하지 않고 사용자의 얼굴과 유사한 topology를 갖는 베이시스 모델을 도입하였으며 사용자의 얼굴과 베이시스 모델간의 변환 함수의 파라미터를 추정하기 위해 기준이 되는 대응 표정(무표정)을 기반으로 비선형 변환 관계를 나타내는 파라미터를 추출할 수 있다. First, in the process of directly converting the 3D facial landmark coordinate points acquired from the user's face image into the corresponding coordinates of the virtual character through nonlinear transformation techniques, a larger error occurs as the topology difference between the virtual character and the user's face correspondence point increases. I can. To prevent this, in the present invention, a basis model having a topology similar to the user's face is introduced without performing a direct conversion from the face landmark coordinate point to the coordinate point of the virtual character, and the parameter of the conversion function between the user's face and the basis model In order to estimate, a parameter representing a nonlinear transformation relationship may be extracted based on a corresponding expression (non-expression) as a reference.

둘째로, 비선형 변환을 통해 가상 캐릭터의 도메인으로 변환된 얼굴 특징점에 대해 기정의된 가상 캐릭터의 표정셋들의 선형 결합으로 변환된 얼굴 특징점과 최대한 유사한 값을 도출하는 과정이 있다. 이 과정에서 가상캐릭터가 사용자의 얼굴과 구조적으로 차이를 보일수록 유사한 값(표정)을 도출하기가 어려워 진다. 이 과정에서 가상 캐릭터의 표정셋들의 선형 조합으로 입력된 사용자의 얼굴 표정과 유사한 표정을 생성해야 되는데, 가상 캐릭터의 표정셋들이 사용자의 얼굴과 구조적으로 많은 차이를 가질 경우 오차가 크게 발생하게 된다. Second, there is a process of deriving a value that is as similar as possible to a facial feature point transformed into a domain of a virtual character through nonlinear transformation to a facial feature point transformed by a linear combination of expression sets of a predefined virtual character. In this process, the more the virtual character is structurally different from the user's face, the more difficult it is to derive a similar value (expression). In this process, an expression similar to the user's facial expression input by a linear combination of the virtual character's facial expression sets should be generated. If the facial expression sets of the virtual character have a large structural difference from the user's face, a large error occurs.

이러한 두 가지 이유로 인해, 본 발명에서는 사람의 표정과 가상 캐릭터의 표정간의 간극을 줄일 수 있는 방법으로 베이시스 모델 및 의미론적 대응 관계에 있는 표정셋을 이용한다. For these two reasons, the present invention uses a basis model and an expression set having a semantic correspondence as a method to reduce the gap between the human expression and the virtual character expression.

렌더링부(150)는 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링할 수 있다. 이러한 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하는 과정에 대해서는 도 4a 내지 도 4e를 통해 상세히 설명하도록 한다. The rendering unit 150 may render by applying the generated expression of the virtual character to the virtual character. A process of rendering the expression of the virtual character applied to the virtual character will be described in detail with reference to FIGS. 4A to 4E.

도 4a를 참조하면, 추출부(130)는 얼굴 이미지(400)로부터 사용자의 얼굴에 대한 특징점(401)을 추출할 수 있다. 또한, 추출부(130)는 얼굴 이미지로부터 사용자의 포즈 정보를 추출할 수 있다. Referring to FIG. 4A, the extraction unit 130 may extract feature points 401 for a user's face from the face image 400. In addition, the extraction unit 130 may extract the user's pose information from the face image.

도 4b를 참조하면, 표정 생성부(140)는 기추출된 변환 파라미터에 기초하여 추출된 특징점(401)을 베이시스 모델(420)에 대응하는 베이시스 모델 도메인으로 변환시킬 수 있다. 예를 들어, 표정 생성부(140)는 베이시스 모델 관리부(110)에서 기추출된 변환 파라미터를 통해 RBF 변환 적용을 수행하여 3차원의 사용자의 얼굴의 특징점(401)을 베이시스 모델의 표정셋 도메인에 대한 특징점(410)과 같이 변환할 수 있다. Referring to FIG. 4B, the expression generation unit 140 may convert the extracted feature point 401 based on the previously extracted transformation parameter into a basis model domain corresponding to the basis model 420. For example, the facial expression generation unit 140 applies the RBF transformation through the transformation parameter previously extracted from the basis model management unit 110 to transfer the feature points 401 of the face of the three-dimensional user to the facial expression set domain of the basis model. It can be converted like the feature point 410 for.

도 4c를 참조하면, 표정 생성부(140)는 베이시스 모델 도메인으로 변환된 특징점에 기초하여 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다(도면 부호 430 참조). 표정 생성부(140)는 다음의 수학식 1을 이용하여 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다. Referring to FIG. 4C, the facial expression generator 140 may estimate a weight for each of a plurality of facial expression sets constituting the basis model based on the feature points converted to the basis model domain (refer to reference numeral 430 ). The facial expression generator 140 may estimate a weight for each of a plurality of facial expression sets constituting the basis model using Equation 1 below.

Figure pat00001
Figure pat00001

수학식 1을 참조하면, 표정 생성부(140)는 추출된 오프셋 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 특징점을 분석하여 베이시스 모델을 구성하는 복수의 표정셋(blend-shape) 각각에 대한 가중치(w)를 추정할 수 있다. 표정 생성부(140)는 추출된 주성분 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 특징점에 대한 차원을 축소시키고, 차원이 축소된 특징점을 분석하여 베이시스 모델을 구성하는 복수의 표정셋(blend-shape) 각각에 대한 가중치(w)를 추정할 수 있다. Referring to Equation 1, the expression generation unit 140 analyzes the feature points converted to the basis model domain based on the extracted offset feature vectors, and weights for each of a plurality of blend-shapes constituting the basis model. (w) can be estimated. The expression generation unit 140 reduces the dimension of the feature point converted to the basis model domain based on the extracted principal component feature vector, analyzes the reduced dimension feature point, and configures the basis model. ) It is possible to estimate the weight (w) for each.

이를 위해, 표정 생성부(140)는 눈의 특징점의 변화 비율을 통해 눈의 변화량(EAR, Eye Aspect Ratio)을 추정할 수 있다. 표정 생성부(140)는 눈의 변화량을 이용하여 사용자의 블링크 모션(blink motion)의 변화량을 추정할 수 있다. 여기서, 블링크 모션은 양쪽 눈을 감은 경우, 오른쪽 또는 왼쪽 눈을 한쪽만 감아 윙크하는 경우, 양쪽 모두 눈을 뜬 경우 등으로 구별할 수 있다. 이외에도, 반쯤 뜬 경우나 치켜뜬 경우 등을 추가적으로 판별하는 것도 가능하다. To this end, the expression generation unit 140 may estimate an eye aspect ratio (EAR) through a change ratio of the eye feature points. The expression generation unit 140 may estimate the amount of change in the user's blink motion by using the amount of change in the eyes. Here, the blink motion can be classified into a case where both eyes are closed, a case where only one of the right or left eyes is closed to wink, and both eyes are opened. In addition to this, it is also possible to additionally determine if it is half-raised or raised.

표정 생성부(140)는 눈 부위의 가중치를 조정할 수 있다. 예를 들어, 표정 생성부(140)는 판별된 블링크 모션에 따라 표정셋 중에서 눈(eye)에 대한 샘플표정들의 가중치를 보정할 수 있다. 즉, 사용자의 블링크 모션을 감지한 후, 감지한 블링크 모션에 대응하도록 가중치를 조정할 수 있다. The expression generator 140 may adjust the weight of the eye area. For example, the facial expression generating unit 140 may correct weights of sample expressions for an eye from among the facial expression sets according to the determined blink motion. That is, after detecting the user's blink motion, the weight may be adjusted to correspond to the detected blink motion.

이 때, 연속된 영상 속의 얼굴 움직임에 대한 떨림을 보정하기 위해 칼만 필터(Kalman Filter) 기반의 복수의 오프셋(blend-shape)에 대해 가중치가 최적화가 되도록 하여, 자연스러운 표정이 생성되도록 할 수 있다. In this case, weights are optimized for a plurality of blend-shapes based on a Kalman filter in order to compensate for shaking of facial movements in a continuous image, so that a natural facial expression can be generated.

표정 생성부(140)는 선택받은 가상 캐릭터에 대한 캐릭터 유형을 확인할 수 있다. 예를 들어, 표정 생성부(140)는 선택부(120)에서 선택된 캐릭터의 ID에 기초하여 가상 캐릭터에 대한 캐릭터 유형을 확인할 수 있다. The expression generation unit 140 may check the character type of the selected virtual character. For example, the expression generation unit 140 may check the character type for the virtual character based on the ID of the character selected by the selection unit 120.

표정 생성부(140)는 확인된 캐릭터 유형에 따라 추정된 가중치를 가상 캐릭터에 대한 복수의 표정셋에 적용시키고, 가중치가 적용된 각 표정셋에 기초하여 가상 캐릭터의 표정을 생성하도록 할 수 있다. 이 때, 가상 캐릭터에 대한 복수의 표정셋은 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당할 수 있다. The expression generation unit 140 may apply a weight estimated according to the identified character type to a plurality of expression sets for the virtual character, and generate an expression of the virtual character based on each expression set to which the weight is applied. In this case, the plurality of facial expression sets for the virtual character may correspond to a semantic correspondence relationship with the plurality of facial expression sets constituting the basis model.

의미론적 대응 관계에 있는 표정셋이라는 의미는 3차원의 사용자 얼굴 모델의 형상이 물리적으로 서로 다른 형상 또는 구조의 메쉬로 이루어져있으나, 의미론적으로 동일하다고 정의한 표정셋들을 의미한다. 여기에, 베이시스 모델이라는 개념을 도입하여 베이시스 모델과 대상이 되는 가상 캐릭터의 모델의 표정셋의 관계가 미리 정의된 것으로, 베이시스 모델은 실제 사람과 유사한 형상으로 모델링된 3차원 모델을 일컬으며, 기본적으로 얼굴 랜드마크 트래커(facial landmark tracker)에서 출력하는 3차원 랜드마크 포즈(landmark pose)와 동일한 크기 및 위치값으로 이루어진 모델이다. 캐릭터 모델(Character model)은 최종 리타겟팅된 가상 캐릭터를 의미한다. The meaning of facial expression sets in a semantic correspondence refers to facial expression sets that are defined as having a three-dimensional user face model consisting of meshes of physically different shapes or structures, but semantically identical. Here, by introducing the concept of the basis model, the relationship between the basis model and the facial expression set of the target virtual character model is predefined, and the basis model refers to a three-dimensional model modeled in a shape similar to a real person. It is a model consisting of the same size and position value as the 3D landmark pose output from the facial landmark tracker. The character model refers to the final retargeted virtual character.

이와 같이, 의미론적 대응 관계에 있는 복수의 표정 셋을 정의함으로써, 대상이 되는 가상 케릭터의 표정셋에 대한 가중치값을 직접 구하지 않고, 베이시스 모델을 통해 사용자의 표정과 유사한 표정을 만드는 표정셋 가중치 값을 구한 후, 해당 가중치 값을 가상 캐릭터의 표정셋에 설정하여 표정을 생성할 수 있다. 예를 들어, 베이시스 모델의 '눈 감기(Eye_Closed)'라는 명칭의 표정은 가상 캐릭터 모델의 '눈감기'와 동일한 동작을 표현하는 것으로 정의하고, 사용자가 두 눈을 감는 표정을 지었을 때, 가상 캐릭터의 두 눈을 감는 표정을 표현하기 위해 실제 연산은 베이시스 모델을 통해 수행한 후, 베이시스 모델의 '눈감기'의 가중치 값을 가상 캐릭터의 '눈감기' 표정셋에 설정할 수 있다. In this way, by defining a plurality of expression sets in a semantic correspondence relationship, the weight value of the expression set that creates an expression similar to the user's expression through the basis model without directly obtaining the weight value for the expression set of the target virtual character. After obtaining, it is possible to create an expression by setting the corresponding weight value to the expression set of the virtual character. For example, the expression named'Eye_Closed' in the basis model is defined as expressing the same motion as'eye-closed' in the virtual character model, and when the user makes an expression with both eyes closed, the virtual character In order to express the expression of closing both eyes of the child, the actual calculation is performed through the basis model, and then the weight value of the'close eyes' of the basis model can be set in the'close eyes' expression set of the virtual character.

이러한 과정을 통해, 입력되는 사용자의 얼굴과 유사한 베이시스 모델을 기반으로 표정셋의 가중치를 먼저 도출하고, 도출된 가중치를 가상 캐릭터에 적용함으로써, 기존의 가상 캐릭터를 기반으로 직접 가중치를 도출할 때보다 좀더 정교하고 정확한 표정셋의 가중치(w)를 추정할 수 있다. Through this process, the weight of the facial expression set is first derived based on the basis model similar to the input user's face, and the derived weight is applied to the virtual character. It is possible to estimate the weight (w) of a more elaborate and accurate facial expression set.

도 4d를 참조하면, 가상 캐릭터에 대한 복수의 표정셋이 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응관계에 해당하는 예로서, 베이시스 모델이 양쪽 눈을 모두 감고 있는 표정셋(430)과 가상 캐릭터의 복수의 표정셋 중 가상 캐릭터가 양쪽 눈을 모두 감고 있는 표정셋이 이에 해당할 수 있다. 또한, 베이시스 모델이 왼쪽 눈을 감고 있는 표정셋(431)과 가상 캐릭터의 복수의 표정셋 중 가상 캐릭터가 왼쪽 눈을 감고 있는 표정셋이 이에 해당할 수 있다. 베이시스 모델이 오른쪽 눈을 감고 있는 표정셋(432)과 가상 캐릭터의 복수의 표정셋 중 가상 캐릭터가 오른쪽 눈을 감고 있는 표정셋이 이에 해당할 수 있다. Referring to FIG. 4D, as an example in which a plurality of facial expression sets for a virtual character correspond to a semantic correspondence relationship with a plurality of facial expression sets constituting the basis model, the facial expression set 430 in which both eyes are closed in the basis model, and Among the plurality of expression sets of the virtual character, an expression set in which both eyes of the virtual character are closed may correspond to this. In addition, the expression set 431 in which the basis model closes the left eye and the expression set in which the virtual character closes the left eye among a plurality of expression sets of the virtual character may correspond to this. The expression set 432 in which the basis model closes the right eye and the expression set in which the virtual character closes the right eye among a plurality of expression sets of the virtual character may correspond to this.

도 4e를 참조하면, 렌더링부(150)는 생성된 가상 캐릭터의 표정을 가상 캐릭터(440)에 적용하여 렌더링할 수 있다. 또한, 렌더링부(150)는 확인된 캐릭터 유형에 따라 추출된 사용자의 포즈 정보를 가상 캐릭터에 더 적용하여 렌더링할 수 있다. 여기서, 사용자의 포즈 정보는 사용자의 얼굴영역이 3차원 공간 상에서 회전한 회전량(rotation)과 이동량(translation) 등에 대한 정보를 포함하는 것일 수 있다. Referring to FIG. 4E, the rendering unit 150 may render an expression of the generated virtual character by applying it to the virtual character 440. In addition, the rendering unit 150 may further apply and render the user's pose information extracted according to the identified character type to the virtual character. Here, the user's pose information may include information on a rotation amount and a translation amount in which the user's face region is rotated in a 3D space.

렌더링부(150)는 리타겟팅 값(예를 들어, 베이시스 모델을 기반으로 도출된 각 표정셋의 가중치)이 저장된 공유 메모리로부터 데이터 값을 불러오고, 불러온 데이터 값을 가상 캐릭터의 유형에 따라 적용하여 가상 캐릭터의 표정을 렌더링할 수 있다. 예를 들어, 렌더링부(150)는 가상 캐릭터의 모델 유형에 따라 OBJ 파일과 FBX 파일을 파일 로더를 통해 불러올 수 있다. 로드된 파일은 사용자의 머리 포즈(예를 들어, 회전과 이동)에 따라 가상 캐릭터의 머리 포즈를 제어하기 위해 컨트롤러를 매핑하는 과정을 수행할 수 있다. 이 때, 각 가상 캐릭터의 유형별로 포즈 대상을 설정할 수 있다. 가상 캐릭터의 유형에 따라 가상 캐릭터의 표정을 렌더링하는 과정에 대해서는 도 5a 내지 도 5c를 통해 상세히 설명하도록 한다. The rendering unit 150 loads data values from the shared memory in which retargeting values (eg, the weight of each facial expression set derived based on the basis model) are stored, and applies the imported data values according to the type of the virtual character. Thus, the expression of the virtual character can be rendered. For example, the rendering unit 150 may load an OBJ file and an FBX file according to the model type of the virtual character through a file loader. The loaded file may perform a process of mapping the controller to control the head pose of the virtual character according to the user's head pose (eg, rotation and movement). In this case, a pose target may be set for each type of virtual character. A process of rendering the facial expression of the virtual character according to the type of the virtual character will be described in detail with reference to FIGS. 5A to 5C.

도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 가상 캐릭터의 표정을 가상 캐릭터의 유형에 따라 렌더링하는 과정을 설명하기 위한 예시적인 도면이다. 여기서, 각각의 가상 캐릭터의 표정은 도 4a의 사용자의 표정을 기반으로 생성된 것일 수 있다. 5A to 5C are exemplary diagrams for explaining a process of rendering an expression of a virtual character according to a type of a virtual character according to an embodiment of the present invention. Here, the facial expression of each virtual character may be generated based on the user's facial expression of FIG. 4A.

리타겟팅을 통해 가상 캐릭터를 렌더링하는 과정은 두 가지 프로세스로 병렬 처리될 수 있다. 실시간으로 카메라를 통해 획득된 사용자의 얼굴 이미지로부터 리타겟팅할 파라미터(예를 들어, 베이시스 모델을 기반으로 도출된 각 표정셋의 가중치)를 추출하고, 해당 결과 값을 큐(queue) 메모리에 저장하는 프로세스와 큐 메모리로부터 리타겟팅 결과값을 불러와 가상 캐릭터의 유형에 맞도록 3차원 모델의 표정을 업데이트하고, 업데이트된 내용을 화면에 렌더링하는 프로세스로 나눠질 수 있다. 여기서, 병렬 처리는 전체 리타겟팅 속도를 빠르게 처리하기 위한 것으로 하드웨어의 수행 능력에 큰 문제가 없을 경우, 리타겟팅 프로세스 이후, 화면의 업데이트 프로세스를 단일로 처리하여도 무방하다. 로드된 가상 캐릭터 유형은 화면의 렌더링을 담당하는 프로세스로 전달되고, 가상 캐릭터의 ID 및 유형 정보가 리타겟팅을 수행하는 프로세스로 전달될 수 있다. 이후, 리타겟팅 프로세스와 화면 업데이트 프로세스가 수행되면서, 리타겟팅 프로세스를 통해 업데이트된 캐릭터의 표정 데이터 값이 화면 업데이트 프로세스에 전달되어 캐릭터의 표정을 업데이트한 후, 렌더링하는 과정이 반복 수행될 수 있다. The process of rendering a virtual character through retargeting can be processed in parallel in two processes. Extracts parameters to be retargeted (for example, the weight of each facial expression set derived based on the basis model) from the user's face image acquired through the camera in real time, and stores the corresponding result value in the queue memory. It can be divided into the process of loading the retargeting result value from the process and the queue memory, updating the expression of the 3D model to match the type of the virtual character, and rendering the updated content on the screen. Here, parallel processing is to speed up the overall retargeting speed, and if there is no significant problem in the performance capability of the hardware, it is possible to perform a single process of updating the screen after the retargeting process. The loaded virtual character type may be transferred to a process in charge of rendering the screen, and ID and type information of the virtual character may be transferred to a process that performs retargeting. Thereafter, while the retargeting process and the screen update process are performed, the expression data value of the character updated through the retargeting process is transmitted to the screen update process to update the expression of the character, and then the rendering process may be repeatedly performed.

<제 1 실시예><First Example>

도 5a를 참조하면, 표정 생성부(140)는 확인된 캐릭터 유형이 제 1 유형인 경우, 가상 캐릭터(510)를 구성하는 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 추정된 가중치를 적용하여 가상 캐릭터(500)에 대한 표정을 합성할 수 있다. 예를 들어, 제 1 유형의 가상 캐릭터의 경우, OBJ 파일로 구성되어 표정 셋에 대한 정보를 자체적으로 포함하고 있지 않으므로, 표정 생성부(140)는 리타겟팅 엔진을 이용하여 복수의 표정셋을 기반으로 가상 캐릭터(500)에 대한 표정을 합성할 수 있다. Referring to FIG. 5A, when the identified character type is the first type, the expression generation unit 140 applies an estimated weight corresponding to the semantic correspondence to each of a plurality of expression sets constituting the virtual character 510. Thus, an expression for the virtual character 500 may be synthesized. For example, in the case of the first type of virtual character, since it is composed of an OBJ file and does not contain information on the expression set itself, the expression generation unit 140 uses a retargeting engine to base a plurality of expression sets. As a result, an expression for the virtual character 500 may be synthesized.

렌더링부(150)는 합성된 표정을 가상 캐릭터(500)의 메쉬 버텍스에 적용하여 렌더링할 수 있다. 이 때, 렌더링부(150)는 리타겟팅 엔진으로부터 최종적으로 합성된 제 1 유형의 가상 캐릭터(500)의 얼굴 메쉬 버텍스(mesh vetrex)를 전달받아 얼굴 메쉬 버텍스에 기초하여 얼굴 메쉬 자체를 업데이트하여 렌더링할 수 있다. The rendering unit 150 may render by applying the synthesized facial expression to the mesh vertices of the virtual character 500. At this time, the rendering unit 150 receives the face mesh vertices of the first type of virtual character 500 finally synthesized from the retargeting engine, and updates the face mesh itself based on the face mesh vertices to render. can do.

렌더링부(150)는 확인된 캐릭터 유형이 제 1 유형인 경우, 추출된 사용자의 포즈 정보를 가상 캐릭터(500)를 구성하는 모델 객체에 적용하여 렌더링할 수 있다. When the identified character type is the first type, the rendering unit 150 may apply the extracted user's pose information to a model object constituting the virtual character 500 to render.

이를 위해, 렌더링부(150)는 머리로만 이루어진 마스크형에 해당하는 제 1 유형의 가상 캐릭터의 경우, 포즈 값을 설정하는 대상으로 OBJ 모델 객체를 설정할 수 있다. 이 때, 해당 OBJ 모델의 중심(center) 좌표는 OBJ 모델의 중심점을 기준으로 하며, 포즈 또한 중심 좌표를 중심으로 설정할 수 있다. To this end, in the case of a first type of virtual character corresponding to a mask type consisting of only a head, the rendering unit 150 may set an OBJ model object as a target for setting a pose value. At this time, the center coordinate of the OBJ model is based on the center point of the OBJ model, and the pose can also be set based on the center coordinate.

<제 2 실시예><Second Example>

도 5b를 참조하면, 표정 생성부(140)는 확인된 캐릭터 유형이 제 2 유형인 경우, 가상 캐릭터(510)를 구성하는 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 추정된 가중치를 적용하여 가상 캐릭터(510)에 대한 표정을 합성할 수 있다. 예를 들어, 제 2 유형의 가상 캐릭터의 경우, 가상 캐릭터(510)의 머리 부분이 OBJ 파일로 구성되어 표정 셋에 대한 정보를 자체적으로 포함하고 있지 않으므로, 표정 생성부(140)는 리타겟팅 엔진을 이용하여 복수의 표정셋을 기반으로 가상 캐릭터(510)에 대한 표정을 합성할 수 있다. Referring to FIG. 5B, when the identified character type is the second type, the expression generating unit 140 applies an estimated weight corresponding to the semantic correspondence to each of a plurality of expression sets constituting the virtual character 510 Thus, the facial expression for the virtual character 510 can be synthesized. For example, in the case of a second type of virtual character, since the head of the virtual character 510 is composed of an OBJ file and does not contain information on the expression set itself, the expression generation unit 140 is a retargeting engine. By using, an expression for the virtual character 510 may be synthesized based on a plurality of expression sets.

렌더링부(150)는 합성된 표정을 가상 캐릭터(510)의 메쉬 버텍스에 적용하여 렌더링할 수 있다. 이 때, 렌더링부(150)는 리타겟팅 엔진으로부터 최종적으로 합성된 제 2 유형의 가상 캐릭터(510)의 얼굴 메쉬 버텍스(mesh verex)를 전달받아 얼굴 메쉬 버텍스에 기초하여 얼굴 메쉬 자체를 업데이트하여 렌더링할 수 있다.The rendering unit 150 may render the synthesized facial expression by applying it to the mesh vertices of the virtual character 510. At this time, the rendering unit 150 receives the face mesh verex of the second type of virtual character 510 finally synthesized from the retargeting engine, and updates the face mesh itself based on the face mesh vertices to render. can do.

렌더링부(150)는 확인된 캐릭터 유형이 제 2 유형인 경우, 추출된 사용자의 포즈 정보를 가상 캐릭터(510)의 몸통 및 몸통 중 머리와 연결된 부분에 적용하여 렌더링할 수 있다. When the identified character type is the second type, the rendering unit 150 may render by applying the extracted user's pose information to a portion of the body and the body of the virtual character 510 connected to the head.

이를 위해, 렌더링부(150)는 머리 및 몸통이 분리되어 서로 각각 다른 파일로 구성된 제 2 유형의 가상 캐릭터(510)의 경우, 머리에 해당하는 OBJ 파일을 불러오고, 몸통에 해당하는 FBX 파일을 각각 불러온 후, 몸통의 FBX 파일의 리그 중 머리로 설정된 리그(rig)의 하위에 머리의 파일(OBJ)을 연결할 수 있다. 사용자의 포즈 값 중 이동에 따른 위치값은 최상위 객체가 포즈 대상으로 설정하고, 가상 캐릭터의 전체(머리 및 몸통)가 위치값에 따라 움직이도록 설정하고, 사용자의 포즈 값 중 회전에 따른 머리의 방향값은 머리가 연결된 몸통의 리그(rig)를 포즈 대상으로 설정하여 머리의 회전을 조절할 수 있다. To this end, in the case of the second type of virtual character 510 composed of different files by separating the head and the body, the rendering unit 150 loads the OBJ file corresponding to the head, and the FBX file corresponding to the body. After loading each, the head file (OBJ) can be connected to the lower part of the rig set as the head among the rigs of the body's FBX file. The position value according to movement among the user's pose values is set by the top object as a pose target, the entire virtual character (head and body) is set to move according to the position value, and the direction of the head according to rotation among the user's pose values The value can control the rotation of the head by setting the rig of the body to which the head is connected as a pose target.

<제 3 실시예><Third Example>

렌더링부(150)는 확인된 캐릭터 유형이 제 3 유형인 경우, 가상 캐릭터(520)에 대한 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 추정된 가중치를 적용하여 가상 캐릭터(520)의 표정을 렌더링할 수 있다. 예를 들어, 제 3 유형의 가상 캐릭터(520)의 경우, 머리와 바디가 단일 FBX 파일로 이루어진 일체형으로 구성되며, FBX 파일 내에 표정셋(blend-shape)을 포함하고 있으므로, 렌더링부(150)가 제 1 유형 및 제 2 유형의 가상 캐릭터처럼 리타겟팅 엔진에서 표정 셋 기반으로 합성하여 메쉬 버텍스 값을 전달받을 필요가 없다. 따라서, 렌더링부(150)는 합성에 이용되는 표정셋 들의 가중치 값만을 리타겟팅 엔진으로부터 수신하고, 복수의 표정셋 각각에 가중치를 적용하여 가상 캐릭터(520)의 표정을 렌더링할 수 있다. When the identified character type is the third type, the rendering unit 150 applies the estimated weight corresponding to the semantic correspondence to each of the plurality of expression sets for the virtual character 520 to determine the expression of the virtual character 520. Can be rendered. For example, in the case of the third type of virtual character 520, the head and the body are configured as an integral type consisting of a single FBX file, and since a blend-shape is included in the FBX file, the rendering unit 150 Like the first type and the second type of virtual character, there is no need to receive the mesh vertex values by synthesizing based on the facial expression set in the retargeting engine. Accordingly, the rendering unit 150 may receive only the weight values of the expression sets used for synthesis from the retargeting engine, and apply the weight to each of the plurality of expression sets to render the expression of the virtual character 520.

렌더링부(150)는 확인된 캐릭터 유형이 제 3 유형인 경우, 추출된 사용자의 포즈 정보를 가상 캐릭터(520)의 일체형 바디 및 일체형 바디 중 목으로 설정된 부분에 적용하여 렌더링할 수 있다. When the identified character type is the third type, the rendering unit 150 may render the extracted user's pose information by applying the extracted user's pose information to a portion set as a neck among the integrated body and the integrated body of the virtual character 520.

이를 위해, 렌더링부(150)는 단일 모델의 일체형으로 구성된 제 3 유형의 가상 캐릭터(520)의 경우, 일체형에 해당하는 FBX 파일이 로드(load)되고, 일체형 바디의 리그(rig) 중 목으로 설정된 리그(rig)에 사용자의 포즈 값 중 회전에 따른 머리의 방향값을 설정하고, 사용자의 포즈 값 중 이동에 따른 위치값은 일체형 모델의 전체를 제어하는 최상위 객체에 설정하여 전체 이동이 가능해지도록 할 수 있다. To this end, in the case of the third type of virtual character 520 configured as an integral type of a single model, the rendering unit 150 loads the FBX file corresponding to the integral type, and is The head direction value according to rotation among the user's pose values is set in the set rig, and the position value according to movement among the user's pose values is set at the top object that controls the whole of the all-in-one model so that the entire movement is possible. can do.

표정 모사 장치(100)는 이러한 과정을 통해 생성된 가상 캐릭터를 다른 표정 모사 장치 또는 다른 사용자 단말로 전송하여, 사용자와 다른 사용자가 영상통화 등을 수행하면서 자신의 얼굴을 가상 캐릭터로 대체하여 출력하도록 할 수 있다. 이 때, 가상 캐릭터는 사용자의 얼굴 표정이나 포즈 등이 모사되어 출력될 수 있다. 여기서는, 다른 사용자 단말과 영상통화를 수행하는 경우를 예시하였으나, 실시예에 따라서는, 표정 모사 장치(100)가 자체 동영상을 제작하거나, 라이브 방송 등을 하는 경우에도 표정 모사 장치(100)를 이용하여 사용자의 얼굴표정 등을 모사하는 가상 캐릭터를 대신하여 제공하도록 할 수 있다. The facial expression replicating device 100 transmits the virtual character generated through this process to another facial expression replicating device or another user terminal, so that the user and other users replace their face with a virtual character while performing a video call, etc. can do. In this case, the virtual character may be output by replicating the user's facial expressions or poses. Here, a case of performing a video call with another user terminal is illustrated, but according to an embodiment, the facial expression replicating device 100 is used even when the facial expression replicating device 100 produces its own video or performs live broadcasting. Thus, it can be provided on behalf of a virtual character that simulates the user's facial expressions.

이러한 표정 모사 장치(100)는 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 의해 실행될 수 있다. 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받고, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하고, 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 선택받은 가상 캐릭터의 표정을 생성하고, 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하도록 하는 명령어들의 시퀀스를 포함할 수 있다. The facial expression replicating apparatus 100 may be executed by a computer program stored in a medium including a sequence of commands that simulate facial expressions of a virtual character based on a basis model. When the computer program is executed by a computing device, it is selected for any one of a plurality of pre-registered virtual characters, extracts feature points for the user's face from the face image, and extracts based on the established basis model. It may include a sequence of instructions for generating an expression of a virtual character selected to correspond to the selected feature point, and applying the generated expression of the virtual character to the virtual character for rendering.

도 6은 본 발명의 일 실시예에 따른 표정 모사 장치에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법의 순서도이다. 도 6에 도시된 표정 모사 장치(100)에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법은 도 1 내지 도 5c에 도시된 실시예에 따라 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 5c에 도시된 실시예에 따른 표정 모사 장치(100)에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법에도 적용된다. 6 is a flowchart of a method of simulating an expression of a virtual character generated based on a basis model in an expression simulation apparatus according to an embodiment of the present invention. A method of simulating the facial expression of a virtual character generated based on the basis model in the facial expression replicating apparatus 100 illustrated in FIG. 6 includes steps that are time-sequentially processed according to the embodiments illustrated in FIGS. 1 to 5C. Therefore, even if omitted below, it is also applied to a method of simulating the facial expression of a virtual character generated based on the basis model in the facial expression replicating apparatus 100 according to the exemplary embodiment illustrated in FIGS. 1 to 5C.

단계 S610에서 표정 모사 장치(100)는 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받을 수 있다. In step S610, the facial expression replicating apparatus 100 may receive a selection for any one virtual character from among a plurality of previously registered virtual characters.

단계 S620에서 표정 모사 장치(100)는 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출할 수 있다. In step S620, the facial expression simulation apparatus 100 may extract feature points for the user's face from the face image.

단계 S630에서 표정 모사 장치(100)는 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 선택받은 가상 캐릭터의 표정을 생성할 수 있다. In step S630, the facial expression simulation apparatus 100 may generate an facial expression of the selected virtual character to correspond to the extracted feature points based on the machine axis model.

단계 S640에서 표정 모사 장치(100)는 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링할 수 있다. In step S640, the facial expression replicating apparatus 100 may render the generated facial expression of the virtual character by applying it to the virtual character.

상술한 설명에서, 단계 S610 내지 S640은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S610 to S640 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be switched.

도 7은 본 발명의 일 실시예에 따른 표정 모사 장치에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법의 순서도이다. 도 7에 도시된 표정 모사 장치(100)에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법은 도 1 내지 도 6에 도시된 실시예에 따라 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 6에 도시된 실시예에 따른 표정 모사 장치(100)에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법에도 적용된다. 7 is a flowchart of a method of rendering an expression of a virtual character generated based on a basis model according to a type of a virtual character in the facial expression simulation apparatus according to an embodiment of the present invention by applying to each virtual character. A method of rendering the facial expression of a virtual character generated based on the basis model according to the type of the virtual character in the facial expression replicating apparatus 100 shown in FIG. 7 to each virtual character is implemented as shown in FIGS. 1 to 6. It includes steps that are processed in time series according to an example. Therefore, even if omitted below, the facial expression of the virtual character generated based on the basis model according to the type of the virtual character in the facial expression simulation apparatus 100 according to the embodiment shown in FIGS. 1 to 6 is applied to each virtual character. This also applies to the method of applying and rendering.

이하에서는, 미리 연산을 수행해 놓는 오프라인 과정(S700)과 실시간으로 리타겟팅을 수행하는 온라인 과정(S750)으로 구분하여 설명하도록 한다.Hereinafter, an offline process (S700) in which an operation is performed in advance and an online process (S750) in which retargeting is performed in real time will be described.

<오프라인 과정(S700)><Offline Course (S700)>

표정 모사 장치(100)는 초기 설정을 등록할 수 있다(S710). 표정 모사 장치(100)는 베이시스 모델의 등록에 필요한 사용자의 얼굴을 촬영하여 최초 등록하고, 등록된 얼굴 이미지로부터 사용자의 특징점을 추출할 수 있고(S711), 베이시스 모델의 특징점을 추출할 수 있다(S712). 표정 모사 장치(100)는 사용자의 특징점과 베이시스 모델의 특징점이 대응되도록 초기 설정을 수행할 수 있다. 이 때, 얼굴 이미지는 사용자의 무표정 얼굴이 촬영된 것일 수 있다. 표정 모사 장치(100)는 사용자의 얼굴 특징점과 이에 대응하는 베이시스 모델의 특징점 간에 RBF 변환을 위한 RBF 파라미터를 추출함으로써 초기 설정을 수행할 수 있다(S713). The facial expression replicating device 100 may register an initial setting (S710). The facial expression simulation apparatus 100 may first register the user's face required for registration of the basis model, and may extract the user's feature points from the registered face image (S711), and may extract the feature points of the basis model ( S712). The facial expression simulation apparatus 100 may perform initial setting so that the feature points of the user and the feature points of the basis model correspond. In this case, the face image may be a photograph of a user's expressionless face. The facial expression simulation apparatus 100 may perform initial setting by extracting an RBF parameter for RBF conversion between the user's facial feature point and the corresponding feature point of the basis model (S713).

표정 모사 장치(100)는 베이시스 모델에 대해 구축된 데이터베이스를 통해 실제 사람에 대한 형상으로 모델링된 기준 표정셋(무표정 기준 모델) 및 각 부위별 표정셋을 포함하는 복수의 표정셋으로 구성된 베이시스 모델을 관리할 수 있다(S720). 예를 들어, 표정 모사 장치(100)는 베이시스 모델의 기준 표정셋 및 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 추출하고(S721), 추출된 오프셋 특징 벡터에 대해 주성분 분석을 수행하여 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출하고(S722), 추출된 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 각각의 표정셋의 특징점에 대한 차원을 축소시킬 수 있다(S723). The facial expression simulation apparatus 100 provides a basis model composed of a plurality of facial expression sets including a reference facial expression set (non-expression reference model) modeled as a shape of a real person through a database built for the basis model and an facial expression set for each part. Can be managed (S720). For example, the facial expression simulation apparatus 100 extracts an offset feature vector between the reference facial expression set of the basis model and the facial expression set for each part of the basis model (S721), and performs principal component analysis on the extracted offset feature vector. The principal component feature vector may be extracted from the offset feature vector (S722), and the dimension of the feature point of each facial expression set converted to the basis model domain may be reduced based on the extracted feature vector (S723).

표정 모사 장치(100)는 가상 캐릭터의 표정셋에 대해 구축된 데이터베이스를 통해 가상 캐릭터의 표정셋을 관리할 수 있다(S730). 예를 들어, 표정 모사 장치(100)는 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당하는 가상 캐릭터에 대한 복수의 표정셋을 관리하여(S731), 표정셋과 관련된 오프셋 데이터를 추출할 수 있다(S732). 이 때, 표정 모사 장치(100)는 가상 캐릭터의 표정셋에서 합성 표정 내에서 직접 변형 기법을 적용할 대상 영역을 특정할 수 있다(S733). 즉, 해당 영역에 대해서는 직접 변형 기법을 적용하여 직접 수정할 수 있다. The facial expression simulation apparatus 100 may manage the facial expression set of the virtual character through a database built for the facial expression set of the virtual character (S730). For example, the facial expression replicating apparatus 100 manages a plurality of facial expression sets for a virtual character corresponding to a semantic correspondence relationship with a plurality of facial expression sets constituting the basis model (S731), and stores offset data related to the facial expression set. It can be extracted (S732). In this case, the facial expression replicating apparatus 100 may specify a target region to which the transformation technique is directly applied within the composite facial expression in the facial expression set of the virtual character (S733). That is, the area can be directly modified by applying a direct transformation technique.

<온라인 과정(S750)><Online Course (S750)>

표정 모사 장치(100)는 사용자의 얼굴을 촬영하고, 촬영된 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출할 수 있다(S751). The facial expression simulation apparatus 100 may photograph the user's face and extract feature points for the user's face from the photographed face image (S751).

표정 모사 장치(100)는 S713에서 추출된 RBF 변환 파라미터에 기초하여 사용자의 기준 얼굴에 대한 특징점을 베이시스 모델에 대응하는 베이시스 모델 도메인으로 RBF 변환시킬 수 있다(S752).The facial expression simulation apparatus 100 may RBF transform the feature points of the user's reference face into a basis model domain corresponding to the basis model based on the RBF conversion parameter extracted in S713 (S752).

표정 모사 장치(100)는 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다(S760). 예를 들어, 표정 모사 장치(100)는 추출된 RBF 변환 파라미터에 기초하여 추출된 특징점을 베이시스 모델에 대응하는 베이시스 모델 도메인으로 변환하여 베이시스 모델 도메인으로 변환된 특징점을 도출하고(S761), 오프라인 과정(700)에서 추출된 주성분 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 특징점에 대한 차원을 축소시키고(S762), 차원이 축소된 특징점을 분석하여 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다(S763). 이 때, 표정 모사 장치(100)는 추가적으로 베이시스 모델의 특징점의 ERA(Eye Aspect Ratio)을 계산하고(S764), EAR을 이용하여 베이시스 모델의 블링크 모션(blink motion) 정도(또는 비율)를 추정하고(S765), 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는데 반영할 수 있다. 이후, 표정 모사 장치(100)는 각각의 표정셋의 가중치에 칼만 필터(Kalman filter)를 적용하여 자연스러운 표정 변환이 수행되도록 할 수 있다(S766). The facial expression simulation apparatus 100 may estimate a weight for each of a plurality of facial expression sets constituting the basis model (S760). For example, the facial expression simulation apparatus 100 converts the extracted feature points to the basis model domain corresponding to the basis model based on the extracted RBF conversion parameters to derive the converted feature points into the basis model domain (S761), and performs an offline process. The dimension of the feature point converted to the basis model domain is reduced based on the principal component feature vector extracted in (700) (S762), and the weight for each of the plurality of expression sets constituting the basis model by analyzing the reduced dimension feature point Can be estimated (S763). At this time, the facial expression simulation apparatus 100 additionally calculates the ERA (Eye Aspect Ratio) of the feature points of the basis model (S764), and estimates the degree (or ratio) of the blink motion of the basis model using the EAR. (S765), it may be reflected in estimating a weight for each of a plurality of facial expression sets constituting the basis model. Thereafter, the facial expression replicating apparatus 100 may apply a Kalman filter to the weight of each facial expression set so that natural facial expression conversion is performed (S766).

표정 모사 장치(100)는 유형별로 가상 캐릭터의 표정을 생성할 수 있다(S770). 예를 들어, 표정 모사 장치(100)는 사용자에 의해 선택 받은 가상 캐릭터에 대한 캐릭터 유형을 확인할 수 있다(S771). 확인된 가상 캐릭터의 캐릭터 유형이 제 1 유형 또는 제 2 유형인 경우(S772), 표정 모사 장치(100)는 의미론적 대응 관계에 기초하여 가중치 기반 가상 캐릭터의 표정을 합성할 수 있다(S773). 이 때, 표정 모사 장치(100)는 추가적으로 S773에서 특정된 대상영역에 기초하여 사용자에 의해 직접 변형 기법을 적용받을 수 있다(S774). 이후, 표정 모사 장치(100)는 합성된 가상 캐릭터의 표정이 반영되도록 가상 캐릭터의 메쉬 버텍스 값을 갱신하고(S775), 갱신된 가상 캐릭터의 메쉬 버텍스 값을 렌더링하여 가상 캐릭터를 표시할 수 있다(S780). 다른 예를 들어, 확인된 가상 캐릭터의 캐릭터 유형이 제 3 유형인 경우(S776), 표정 모사 장치(100)는 가상 캐릭터의 표정셋 각각에 추정된 가중치를 갱신하여 가상 캐릭터의 표정을 합성하고(S777), 합성된 표정을 렌더링하여 가상 캐릭터를 표시할 수 있다(S780).The facial expression replicating apparatus 100 may generate an expression of a virtual character for each type (S770). For example, the facial expression replicating apparatus 100 may check the character type for the virtual character selected by the user (S771). When the character type of the identified virtual character is the first type or the second type (S772), the facial expression simulation apparatus 100 may synthesize the weight-based facial expression of the virtual character based on the semantic correspondence relationship (S773). In this case, the facial expression replicating apparatus 100 may additionally be directly applied by the user based on the target region specified in S773 (S774). Thereafter, the facial expression replicating apparatus 100 may update the mesh vertex value of the virtual character to reflect the synthesized virtual character's expression (S775), and render the mesh vertex value of the updated virtual character to display the virtual character ( S780). For another example, when the character type of the identified virtual character is the third type (S776), the facial expression simulation apparatus 100 updates the estimated weights to each of the facial expression sets of the virtual character to synthesize the expression of the virtual character ( S777), a virtual character may be displayed by rendering the synthesized facial expression (S780).

상술한 설명에서, 단계 S701 내지 S780은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S701 to S780 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be switched.

도 1 내지 도 7을 통해 표정 모사 장치에서 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 1 내지 도 7을 통해 표정 모사 장치에서 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다. A method of simulating an expression of a virtual character based on a basis model in an expression simulation apparatus through FIGS. 1 to 7 is in the form of a computer program stored in a medium executed by a computer or a recording medium including instructions executable by a computer. Can also be implemented. In addition, a method of simulating the facial expression of a virtual character based on a basis model in the facial expression replicating apparatus through FIGS. 1 to 7 may be implemented in the form of a computer program stored in a medium executed by a computer.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include a computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and are not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 표정 모사 장치
110: 베이시스 모델 관리부
120: 선택부
130: 추출부
140: 표정 생성부
150: 렌더링부
100: facial expression copying device
110: basis model management department
120: selection
130: extraction unit
140: expression generation unit
150: rendering unit

Claims (19)

베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 장치에 있어서,
기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 선택부;
얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 추출부;
기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 표정 생성부; 및
상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 렌더링부
를 포함하는 것인, 표정 모사 장치.
A device that simulates an expression of a virtual character based on a basis model,
A selection unit that is selected for any one of a plurality of pre-registered virtual characters;
An extraction unit for extracting feature points for the user's face from the face image;
An expression generation unit generating an expression of the selected virtual character to correspond to the extracted feature point based on the constructed basis model; And
Rendering unit for rendering by applying the generated expression of the virtual character to the virtual character
That includes, facial expression replicating device.
제 1 항에 있어서,
실제 사람에 대한 형상으로 모델링된 기준 표정셋 및 각 부위별 표정셋을 포함하는 복수의 표정셋으로 구성된 상기 베이시스 모델을 등록받는 베이시스 모델 관리부
를 더 포함하고,
상기 표정 생성부는 상기 베이시스 모델 및 상기 사용자의 기준 얼굴에 대한 특징점에 기초하여 변환 파라미터를 추출하는 것인, 표정 모사 장치.
The method of claim 1,
A basis model management unit that registers the basis model composed of a plurality of expression sets including a reference expression set modeled as a shape of a real person and an expression set for each part
Including more,
The facial expression generating unit extracts a transformation parameter based on the basis model and feature points of the user's reference face.
제 2 항에 있어서,
상기 표정 생성부는 상기 추출된 변환 파라미터에 기초하여 상기 추출된 특징점을 상기 베이시스 모델에 대응하는 베이시스 모델 도메인으로 변환시키는 것인, 표정 모사 장치.
The method of claim 2,
The facial expression generating unit transforms the extracted feature points into a basis model domain corresponding to the basis model based on the extracted transformation parameter.
제 3 항에 있어서,
상기 표정 생성부는 상기 베이시스 모델 도메인으로 변환된 특징점에 기초하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 것인, 표정 모사 장치.
The method of claim 3,
The facial expression generating unit estimates a weight for each of a plurality of facial expression sets constituting the basis model based on the feature points converted to the basis model domain.
제 4 항에 있어서,
상기 베이시스 모델 관리부는 상기 베이시스 모델의 기준 표정셋 및 상기 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 추출하고,
상기 표정 생성부는 상기 추출된 오프셋 특징 벡터에 기초하여 상기 베이시스 모델 도메인으로 변환된 특징점을 분석하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 것인, 표정 모사 장치.
The method of claim 4,
The basis model management unit extracts an offset feature vector between the reference facial expression set of the basis model and the facial expression set for each part of the basis model,
The facial expression generating unit is to estimate a weight for each of a plurality of facial expression sets constituting the basis model by analyzing the feature points converted to the basis model domain based on the extracted offset feature vector.
제 5 항에 있어서,
상기 베이시스 모델 관리부는 상기 추출된 오프셋 특징 벡터에 대해 주성분 분석을 수행하여 상기 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출하고,
상기 표정 생성부는 상기 추출된 주성분 특징 벡터에 기초하여 상기 베이시스 모델 도메인으로 변환된 특징점에 대한 차원을 축소시키고, 상기 차원이 축소된 특징점을 분석하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 것인, 표정 모사 장치.
The method of claim 5,
The basis model management unit extracts a principal component feature vector from the extracted offset feature vector by performing principal component analysis on the extracted offset feature vector,
The expression generation unit reduces the dimension of the feature point converted to the basis model domain based on the extracted principal component feature vector, analyzes the reduced dimension feature point, and provides each of a plurality of expression sets constituting the basis model. The facial expression simulation device that estimates the weight.
제 4 항에 있어서,
상기 표정 생성부는 상기 선택받은 가상 캐릭터에 대한 캐릭터 유형을 확인하고, 상기 확인된 캐릭터 유형에 따라 상기 추정된 가중치를 상기 가상 캐릭터에 대한 복수의 표정셋에 적용시키도록 하고,
상기 가상 캐릭터에 대한 복수의 표정셋은 상기 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당하는 것인, 표정 모사 장치.
The method of claim 4,
The expression generation unit checks a character type for the selected virtual character, and applies the estimated weight to a plurality of expression sets for the virtual character according to the identified character type,
The facial expression copying apparatus, wherein the plurality of facial expression sets for the virtual character correspond to a semantic correspondence relationship with the plurality of facial expression sets constituting the basis model.
제 7 항에 있어서,
상기 복수의 가상 캐릭터는 머리로 구성된 제 1 유형의 가상 캐릭터, 머리 및 몸통이 따로 구성된 제 2 유형의 가상 캐릭터 및 머리 및 몸통이 일체형 바디로 구성된 제 3 유형의 가상 캐릭터 중 적어도 하나를 포함하는 것인, 표정 모사 장치.
The method of claim 7,
The plurality of virtual characters includes at least one of a first type virtual character composed of a head, a second type virtual character composed of a head and a body separately, and a third type virtual character composed of an integral body with a head and a body. Phosphorus, facial expression copying device.
제 8 항에 있어서,
상기 표정 생성부는 상기 확인된 캐릭터 유형이 상기 제 1 유형 및 상기 제 2 유형인 경우 중 어느 하나인 경우, 상기 가상 캐릭터를 구성하는 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 상기 추정된 가중치를 적용하여 상기 가상 캐릭터에 대한 표정을 합성하고,
상기 렌더링부는 상기 합성된 표정을 상기 가상 캐릭터의 메쉬 버텍스에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 8,
When the identified character type is one of the first type and the second type, the estimated weight corresponding to a semantic correspondence relationship to each of a plurality of expression sets constituting the virtual character To synthesize the expression for the virtual character,
The rendering unit is to render by applying the synthesized facial expression to the mesh vertex of the virtual character.
제 8 항에 있어서,
상기 렌더링부는 상기 확인된 캐릭터 유형이 상기 제 3 유형인 경우, 상기 가상 캐릭터에 대한 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 상기 추정된 가중치를 적용하여 상기 가상 캐릭터의 표정을 렌더링하는 것인, 표정 모사 장치.
The method of claim 8,
When the identified character type is the third type, the rendering unit renders the expression of the virtual character by applying the estimated weight corresponding to a semantic correspondence relationship to each of a plurality of expression sets for the virtual character. Phosphorus, facial expression copying device.
제 8 항에 있어서,
상기 추출부는 상기 얼굴 이미지로부터 상기 사용자의 포즈 정보를 더 추출하고,
상기 렌더링부는 상기 확인된 캐릭터 유형에 따라 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 8,
The extraction unit further extracts the user's pose information from the face image,
The rendering unit is to render by applying the extracted user's pose information to the virtual character according to the identified character type.
제 11 항에 있어서,
상기 렌더링부는 상기 확인된 캐릭터 유형이 제 1 유형인 경우, 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터를 구성하는 모델 객체에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 11,
When the identified character type is the first type, the rendering unit applies the extracted user's pose information to a model object constituting the virtual character and renders the expression.
제 11 항에 있어서,
상기 렌더링부는 상기 확인된 캐릭터 유형이 제 2 유형인 경우, 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터의 몸통 및 상기 몸통 중 상기 머리와 연결된 부분에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 11,
When the identified character type is the second type, the rendering unit renders by applying the extracted user's pose information to a body of the virtual character and a portion connected to the head among the body of the virtual character.
제 11 항에 있어서,
상기 렌더링부는 상기 확인된 캐릭터 유형이 제 3 유형인 경우, 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터의 일체형 바디 및 상기 일체형 바디 중 목으로 설정된 부분에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 11,
When the identified character type is a third type, the rendering unit renders by applying the extracted user's pose information to a portion set as a neck among the integrated body of the virtual character and the integrated body.
베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 방법에 있어서,
기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 단계;
얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 단계;
기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 단계; 및
상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 단계
를 포함하는 것인, 표정 모사 방법.
In a method for simulating an expression of a virtual character based on a basis model,
Receiving a selection for any one of a plurality of previously registered virtual characters;
Extracting feature points for the user's face from the face image;
Generating an expression of the selected virtual character to correspond to the extracted feature point based on the constructed basis model; And
Rendering by applying the generated expression of the virtual character to the virtual character
That includes, facial expression simulation method.
제 15 항에 있어서,
상기 추출된 변환 파라미터에 기초하여 상기 추출된 특징점을 상기 베이시스 모델에 대응하는 베이시스 모델 도메인으로 변환시키는 단계
를 더 포함하는 것인, 표정 모사 방법.
The method of claim 15,
Converting the extracted feature points into a basis model domain corresponding to the basis model based on the extracted conversion parameter
That further comprises a method of simulating facial expressions.
제 16 항에 있어서,
상기 베이시스 모델 도메인으로 변환된 특징점에 기초하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 단계
를 더 포함하는 것인, 표정 모사 방법.
The method of claim 16,
Estimating a weight for each of a plurality of facial expression sets constituting the basis model based on the feature points converted to the basis model domain
That further comprises a method of simulating facial expressions.
제 17 항에 있어서,
상기 추정된 가중치를 상기 가상 캐릭터에 대한 복수의 표정셋에 적용시키는 단계; 및
상기 가중치가 적용된 상기 가상 캐릭터에 대한 복수의 표정셋에 기초하여 상기 가상 캐릭터의 표정을 렌더링하는 단계
를 더 포함하고,
상기 가상 캐릭터에 대한 복수의 표정셋은 상기 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당하는 것인, 표정 모사 방법.
The method of claim 17,
Applying the estimated weight to a plurality of facial expression sets for the virtual character; And
Rendering the facial expression of the virtual character based on a plurality of facial expression sets for the virtual character to which the weight is applied
Including more,
The plurality of facial expression sets for the virtual character corresponds to a semantic correspondence relationship with the plurality of facial expression sets constituting the basis model.
베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받고,
얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하고,
기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하고,
상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하도록 하는 명령어들의 시퀀스를 포함하는, 매체에 저장된 컴퓨터 프로그램.
In the computer program stored in a medium comprising a sequence of instructions for simulating an expression of a virtual character based on a basis model,
When the computer program is executed by a computing device,
Is selected for any one of a plurality of pre-registered virtual characters,
Extracting feature points for the user's face from the face image,
Generates an expression of the selected virtual character to correspond to the extracted feature point based on the established basis model,
A computer program stored in a medium including a sequence of instructions for rendering the generated facial expression of the virtual character applied to the virtual character.
KR1020190122905A 2019-10-04 2019-10-04 Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model KR20210040555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190122905A KR20210040555A (en) 2019-10-04 2019-10-04 Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190122905A KR20210040555A (en) 2019-10-04 2019-10-04 Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model

Publications (1)

Publication Number Publication Date
KR20210040555A true KR20210040555A (en) 2021-04-14

Family

ID=75477618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190122905A KR20210040555A (en) 2019-10-04 2019-10-04 Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model

Country Status (1)

Country Link
KR (1) KR20210040555A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223127A (en) * 2021-05-21 2021-08-06 广州虎牙科技有限公司 Expression generation method for virtual object, application program, device and storage medium
CN113332726A (en) * 2021-06-11 2021-09-03 网易(杭州)网络有限公司 Virtual character processing method and device, electronic equipment and storage medium
KR102318111B1 (en) * 2020-11-17 2021-10-27 주식회사 일루니 Method and apparatus for generating story book which provides sticker reflecting user's face to character
KR102353556B1 (en) * 2021-11-01 2022-01-20 강민호 Apparatus for Generating Facial expressions and Poses Reappearance Avatar based in User Face
KR102506506B1 (en) * 2021-11-10 2023-03-06 (주)이브이알스튜디오 Method for generating facial expression and three dimensional graphic interface device using the same
CN116129091A (en) * 2023-04-17 2023-05-16 海马云(天津)信息技术有限公司 Method and device for generating virtual image video, electronic equipment and storage medium
KR102550973B1 (en) * 2022-01-18 2023-07-05 (주)에스프레소미디어 Personalized metaverse character creation system using Artificial Intelligence deep learning
CN116437137A (en) * 2023-06-09 2023-07-14 北京达佳互联信息技术有限公司 Live broadcast processing method and device, electronic equipment and storage medium
KR102608863B1 (en) * 2022-10-31 2023-12-01 주식회사 스튜디오징스 Animating method for expressing cartoon characteristics

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102318111B1 (en) * 2020-11-17 2021-10-27 주식회사 일루니 Method and apparatus for generating story book which provides sticker reflecting user's face to character
CN113223127A (en) * 2021-05-21 2021-08-06 广州虎牙科技有限公司 Expression generation method for virtual object, application program, device and storage medium
CN113332726A (en) * 2021-06-11 2021-09-03 网易(杭州)网络有限公司 Virtual character processing method and device, electronic equipment and storage medium
KR102353556B1 (en) * 2021-11-01 2022-01-20 강민호 Apparatus for Generating Facial expressions and Poses Reappearance Avatar based in User Face
KR102506506B1 (en) * 2021-11-10 2023-03-06 (주)이브이알스튜디오 Method for generating facial expression and three dimensional graphic interface device using the same
KR102550973B1 (en) * 2022-01-18 2023-07-05 (주)에스프레소미디어 Personalized metaverse character creation system using Artificial Intelligence deep learning
KR102608863B1 (en) * 2022-10-31 2023-12-01 주식회사 스튜디오징스 Animating method for expressing cartoon characteristics
CN116129091A (en) * 2023-04-17 2023-05-16 海马云(天津)信息技术有限公司 Method and device for generating virtual image video, electronic equipment and storage medium
CN116129091B (en) * 2023-04-17 2023-06-13 海马云(天津)信息技术有限公司 Method and device for generating virtual image video, electronic equipment and storage medium
CN116437137A (en) * 2023-06-09 2023-07-14 北京达佳互联信息技术有限公司 Live broadcast processing method and device, electronic equipment and storage medium
CN116437137B (en) * 2023-06-09 2024-01-09 北京达佳互联信息技术有限公司 Live broadcast processing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
KR20210040555A (en) Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model
US10789453B2 (en) Face reenactment
KR102616010B1 (en) System and method for photorealistic real-time human animation
JP2022503647A (en) Cross-domain image conversion
JP5344358B2 (en) Face animation created from acting
KR101635730B1 (en) Apparatus and method for generating montage, recording medium for performing the method
CN107831902B (en) Motion control method and device, storage medium and terminal
JP6207210B2 (en) Information processing apparatus and method
KR102068993B1 (en) Method And Apparatus Creating for Avatar by using Multi-view Image Matching
Pighin et al. Facial motion retargeting
CN114359453A (en) Three-dimensional special effect rendering method and device, storage medium and equipment
Costigan et al. Facial retargeting using neural networks
KR20210019182A (en) Device and method for generating job image having face to which age transformation is applied
US20230079478A1 (en) Face mesh deformation with detailed wrinkles
KR20200134623A (en) Apparatus and Method for providing facial motion retargeting of 3 dimensional virtual character
KR20200071008A (en) 2d image processing method and device implementing the same
WO2015042867A1 (en) Method for editing facial expression based on single camera and motion capture data
US20230260184A1 (en) Facial expression identification and retargeting to an avatar
WO2024066549A1 (en) Data processing method and related device
US20240078773A1 (en) Electronic device generating 3d model of human and its operation method
US20240135616A1 (en) Automated system for generation of facial animation rigs
KR20230080285A (en) Apparatus and method for composing three-dimensional image
KR20060067242A (en) System and its method of generating face animation using anatomy data
Zeng et al. Research Status of Speech Driven Virtual Face Animation Methods
CN117011430A (en) Game resource processing method, apparatus, device, storage medium and program product