KR20210040555A - Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model - Google Patents
Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model Download PDFInfo
- Publication number
- KR20210040555A KR20210040555A KR1020190122905A KR20190122905A KR20210040555A KR 20210040555 A KR20210040555 A KR 20210040555A KR 1020190122905 A KR1020190122905 A KR 1020190122905A KR 20190122905 A KR20190122905 A KR 20190122905A KR 20210040555 A KR20210040555 A KR 20210040555A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual character
- expression
- basis model
- facial expression
- type
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 장치, 방법 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to an apparatus, a method, and a computer program for simulating an expression of a virtual character based on a basis model.
스마트폰(Smart Phone)이란 컴퓨터로 할 수 있는 작업 중 일부를 휴대폰에서도 할 수 있도록 개발된 휴대 기기이다. 사람들은 스마트폰을 항상 들고 다니면서 인터넷을 검색하거나 메일을 송수신하고, 동영상 또는 사진을 촬영 및 편집할 수 있다. 또한, 스마트폰 이용자들은 서로 간에 동영상, 음악, 사진 등의 콘텐츠를 주고받을 수도 있다.A smart phone is a portable device developed so that some of the tasks that can be done with a computer can be performed on a mobile phone. People can always carry their smartphones with them to browse the Internet, send and receive mail, and shoot and edit videos or photos. In addition, smartphone users can exchange content such as videos, music, and photos with each other.
최근에는 스마트폰에 장착된 카메라를 이용하여 사용자의 얼굴을 촬영하고, 사용자 얼굴을 기반으로 하는 아바타의 생성이 가능해졌다. 이러한 스마트폰에서 아바타를 생성하는 기술과 관련하여, 선행기술인 한국공개특허 제 2013-0121003호는 분장 아바타 생성 장치 및 그 방법을 개시하고 있다. Recently, it has become possible to capture a user's face using a camera mounted on a smartphone and create an avatar based on the user's face. With regard to the technology of generating an avatar in such a smartphone, Korean Patent Publication No. 2013-0121003, which is a prior art, discloses an apparatus for generating a makeup avatar and a method thereof.
그러나 아바타를 제작하는 기술은 미리 정의된 단순한 표정 또는 동작으로 한정되어 있으며, 상대방에게 자신의 표정이나 동작을 전달하는데 한계가 있다는 단점이 존재한다. However, the technology for producing an avatar is limited to simple predefined facial expressions or movements, and there is a disadvantage in that there is a limitation in delivering his or her facial expressions or movements to the other party.
사용자의 얼굴에 대한 특징점을 추출하고, 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하는 표정 모사 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. It is intended to provide an expression simulation apparatus, method, and computer program that extracts feature points for the user's face and applies the generated virtual character's facial expression to the virtual character to correspond to the extracted feature points based on the constructed basis model. .
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 선택부, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 추출부, 기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 표정 생성부 및 상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 렌더링부를 포함하는 표정 모사 장치를 제공할 수 있다. As a means for achieving the above-described technical problem, an embodiment of the present invention includes a selection unit that is selected for any one virtual character among a plurality of pre-registered virtual characters, and extracts feature points for a user's face from a face image. An expression generating unit that generates an expression of the selected virtual character to correspond to the extracted feature point based on the extracted basis model, and a rendering that applies and renders the generated expression of the virtual character to the virtual character. It is possible to provide an expression replicating device including a part.
본 발명의 다른 실시예는, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 단계, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 단계, 기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 단계 및 상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 단계를 포함하는 표정 모사 방법을 제공할 수 있다. In another embodiment of the present invention, the step of receiving selection for any one of a plurality of pre-registered virtual characters, extracting feature points of the user's face from the face image, and based on the established basis model It is possible to provide an expression simulation method including generating an expression of the selected virtual character to correspond to the extracted feature point, and rendering the expression of the generated virtual character by applying it to the virtual character.
본 발명의 또 다른 실시예는, 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받고, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하고, 기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하고, 상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하도록 하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램을 제공할 수 있다. In another embodiment of the present invention, when the computer program is executed by the computing device, the computer program is selected for any one of a plurality of pre-registered virtual characters, and extracts feature points for the user's face from the face image, A medium comprising a sequence of instructions for generating an expression of the selected virtual character to correspond to the extracted feature point based on the constructed basis model, and rendering the generated expression of the virtual character to the virtual character Computer programs stored in can be provided.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 얼굴 기반으로 가상 캐릭터의 표정을 모사하는데 있어 베이시스 모델을 이용함으로써, 사용자의 얼굴 표정이 어색함 없이 가상 캐릭터의 표정으로 반영되도록 하는 표정 모사 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. According to any one of the above-described problem solving means of the present invention, by using a basis model in simulating the expression of a virtual character based on the user's face, an expression simulation device that allows the user's facial expression to be reflected as the expression of the virtual character without being awkward. , Method and computer program can be provided.
사용자가 다양한 파일 포맷으로 구성된 가상 캐릭터를 선택하고, 선택된 가상 캐릭터의 파일 포맷에 따라 사용자의 얼굴 기반으로 가상 캐릭터의 표정이 각각 상이한 방식으로 생성되어 렌더링되도록 하는 표정 모사 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. Provides an facial expression simulation device, method, and computer program that allow a user to select a virtual character composed of various file formats and to generate and render the virtual character's facial expressions in different ways based on the user's face according to the file format of the selected virtual character. can do.
도 1은 본 발명의 일 실시예에 따른 표정 모사 장치의 구성도이다.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 베이시스 모델을 등록하는 과정을 설명하기 위한 예시적인 도면이다.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 복수의 가상 캐릭터의 유형 및 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다.
도 4a 내지 도 4e는 본 발명의 일 실시예에 따른 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하는 과정을 설명하기 위한 예시적인 도면이다.
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 가상 캐릭터의 표정을 가상 캐릭터의 유형에 따라 렌더링하는 과정을 설명하기 위한 예시적인 도면이다.
도 6은 본 발명의 일 실시예에 따른 표정 모사 장치에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법의 순서도이다.
도 7은 본 발명의 일 실시예에 따른 표정 모사 장치에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법의 순서도이다. 1 is a configuration diagram of an facial expression replicating apparatus according to an embodiment of the present invention.
2A and 2B are exemplary diagrams for explaining a process of registering a basis model according to an embodiment of the present invention.
3A to 3C are exemplary diagrams illustrating types of a plurality of virtual characters and a plurality of facial expression sets for a virtual character according to an embodiment of the present invention.
4A to 4E are exemplary diagrams for explaining a process of rendering an expression of a virtual character generated based on a basis model according to an embodiment of the present invention applied to a virtual character.
5A to 5C are exemplary diagrams for explaining a process of rendering an expression of a virtual character according to a type of a virtual character according to an embodiment of the present invention.
6 is a flowchart of a method of simulating an expression of a virtual character generated based on a basis model in an expression simulation apparatus according to an embodiment of the present invention.
7 is a flowchart of a method of rendering an expression of a virtual character generated based on a basis model according to a type of a virtual character in the facial expression simulation apparatus according to an exemplary embodiment of the present invention to each virtual character.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" with another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included, and one or more other features, not excluding other components, unless specifically stated to the contrary. It is to be understood that it does not preclude the presence or addition of any number, step, action, component, part, or combination thereof.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized by using two or more hardware, or two or more units may be realized by one piece of hardware.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by the terminal or device may be performed instead in a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.
이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 표정 모사 장치의 구성도이다. 표정 모사 장치(100)는 사용자 단말로부터 얼굴이미지를 수신할 수 있으며, 수신한 얼굴 이미지에 나타난 얼굴 표정을 가상 캐릭터의 표정으로 모사할 수 있다. 여기서, 가상 캐릭터는 동물이나 영화 속 등장인물 등으로 미리 설정되어 있을 수 있으며, 표정 모사 장치(100)는 가상 캐릭터의 얼굴 표정이나 포즈 등을 변형하여, 가상 캐릭터가 사용자의 얼굴 표정 등을 따라하도록 할 수 있다. 이와 같이, 가상 캐릭터가 사용자의 얼굴 표정 등을 모사하도록 하는 것을 리타겟팅(retargeting)이라고 한다.1 is a configuration diagram of an facial expression replicating apparatus according to an embodiment of the present invention. The facial
도 1을 참조하면, 표정 모사 장치(100)는 베이시스 모델 관리부(110), 선택부(120), 추출부(130), 표정 생성부(140) 및 렌더링부(150)를 포함할 수 있다. Referring to FIG. 1, the facial
베이시스 모델 관리부(110)는 실제 사람에 대한 형상으로 모델링된 기준 표정셋 및 각 부위별 표정셋을 포함하는 복수의 표정셋으로 구성된 베이시스 모델을 등록받을 수 있다. 베이시스 모델을 등록하는 과정에 대해서는 도 2a 및 도 2b를 통해 상세히 설명하도록 한다. The basis
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 베이시스 모델을 등록하는 과정을 설명하기 위한 예시적인 도면이다. 2A and 2B are exemplary diagrams for explaining a process of registering a basis model according to an embodiment of the present invention.
도 2a를 참조하면, 촬영부(미도시)가 설정 모드를 통해 베이시스 모델을 등록하기 위해 사용자의 얼굴을 촬영하고, 추출부(130)가 촬영된 사용자의 무표정 얼굴 이미지(200)로부터 특징점을 추출할 수 있다. 여기서, 베이시스 모델의 등록은, 기구축된 베이시스 기준 모델과 촬영된 사용자의 무표정한 얼굴 간의 대응점을 설정하고, 설정된 대응점에 기초하여 RBF 파라미터를 추출하는 과정까지 포함하는 것을 의미할 수 있다. 예를 들어, 촬영부(미도시)는 무표정을 지은 사용자의 얼굴을 촬영하고, 추출부(130)는 촬영된 사용자의 무표정 얼굴 이미지(200)로부터 특징점을 추출할 수 있다. 다른 예를 들어, 촬영부(미도시)는 다양한 표정(예를 들어, 윙크, 미소, 찡그림 등)을 지은 사용자의 얼굴을 촬영하고, 추출부(130)는 촬영된 사용자의 다양한 표정의 얼굴 이미지로부터 특징점을 추출할 수 있다. Referring to FIG. 2A, a photographing unit (not shown) photographs a user's face to register a basis model through a setting mode, and the
베이시스 모델 관리부(110)는 사용자의 무표정 얼굴 이미지(200)로부터 추출된 특징점과 및 베이시스 모델(210)을 구성하는 복수의 표정셋의 특징점 간의 RBF 변환(Radial Basis Function Transform) 파라미터를 추출할 수 있다. RBF 변환 파라미터는 사용자의 얼굴을 나타내는 3차원의 얼굴의 특징점과 베이시스 모델을 통해 정의된 특징점들 사이에 비선형 변환 관계가 있으므로, 이들 사이의 비선형 변환 관계를 나타내기 위해 추출되는 것일 수 있다. The basis
도 2b를 참조하면, 베이시스 모델 관리부(110)는 실제 사람에 대한 형상으로 모델링된 기준 표정셋 및 각 부위별 표정셋을 포함하는 복수의 표정셋(230)으로 구성된 베이시스 모델을 등록받을 수 있다. 여기서, 기준 표정셋은 사용자의 무표정한 얼굴 이미지를 기초로 생성된 것일 수 있다. Referring to FIG. 2B, the basis
각 부위별 표정셋은 예를 들어, 눈(231), 눈썹(232), 입술(233), 얼굴(234) 등이 움직여진 표정일 수 있다. 예를 들어, 눈(231) 표정셋은 두 눈 뜨기, 오른쪽 눈 감기, 왼쪽 눈 감기, 양쪽 눈 감기, 게슴츠레 뜨기 등에 대한 표정셋을 포함하고, 눈썹(232) 표정셋은 한쪽 눈썹 올리기 또는 내리기, 양쪽 눈썹 올리기 또는 내리기 등에 대한 표정셋을 포함하고, 입술(233) 표정셋은 미소짓기, 입술 모으기 등에 대한 표정셋을 포함하고, 얼굴(234) 표정셋은 미간 찌푸리기, 하품하기 등에 대한 표정 셋을 포함할 수 있다. The facial expression set for each part may be, for example, an expression in which the
이와 같이, 복수의 표정셋(230)을 구성하기 위해 베이시스 모델 관리부(110)는 베이시스 모델의 기준 표정셋 및 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 추출할 수 있다. 여기서, 오프셋 특징 벡터는 무표정에 해당하는 베이시스 모델의 기준 표정셋과 베이시스 모델의 각 부위별 표정셋 간의 표정 변화량을 나타내는 것일 수 있다. In this way, in order to configure the plurality of
이와 같이, 베이시스 모델 관리부(110)는 RBF 변환 파라미터 및 베이시스 모델의 기준 표정셋 및 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 사전에 구축함으로써, 실시간 리타겟팅 수행시에 연산량을 최소화하여 빠른 처리가 가능하도록 할 수 있다.In this way, the basis
베이시스 모델 관리부(110)는 추출된 오프셋 특징 벡터에 대해 주성분 분석(PCA, Principal Component Analysis)을 수행하여 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출할 수 있다. 주성분 분석이란 서로 연관 가능성이 있는 고차원의 데이터에 대해 선형 조합에 의해 대표적인 주성분을 만들어 차원을 저차원 데이터로 만드는 기법을 의미하며, 주성분 분석을 통해 데이터의 전반적인 구조는 바꾸지 않으면서 중복적인 정보를 가지는 차원을 감소시킬 수 있는 효과를 제공한다. 즉, 베이시스 모델에서 추출된 오프셋 벡터를 그대로 이용하는 경우, 많은 연산량이 요구되는 문제 등이 발생될 수 있으므로, 얼굴 중에서 눈, 눈썹, 코, 입술 등의 영역이 표정을 특징적으로 나타내는 주요 부분에 해당하고, 이미, 볼 등의 영역이 상대적으로 중요도가 낮은 부분일 수 있으므로, 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출함으로써, 연산량을 줄일 수 있다.The basis
베이시스 모델 관리부(110)는 추출된 주성분 특징 벡터를 이용하여 베이시스 모델의 기준 표정셋과 베이시스 모델의 부위별 표정셋의 특징점들에 대해 차원 축소를 수행한 후 저장할 수 있다. The basis
다시 도 1로 돌아와서, 선택부(120)는 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받을 수 있다. Returning to FIG. 1 again, the
기등록된 복수의 가상 캐릭터는 마스크 유형 및 분리 유형의 가상 캐릭터의 합성을 위한 캐릭터 오프셋 데이터의 구축과 직접 변형 기법(Direct deformation)의 적용을 위한 정보가 데이터베이스에 저장될 수 있다. 예를 들어, 사용자로부터 선택받은 가상 캐릭터가 후술할 제 1 유형 또는 제 2 유형인 경우, 가상 캐릭터의 무표정 기준 모델과 각 부위별 표정셋 간의 모든 얼굴의 버텍스에 대한 표정 변화량이 추출되고, 가상 캐릭터의 직접 변형 기법의 적용 유무에 대한 정보 및 가상 캐릭터의 전체 얼굴 영역 중 직접 변형을 적용할 영역이 설정될 수 있다. 캐릭터 오프셋 데이터는 3차원의 가상 캐릭터의 샘플표정들을 미리 정의하여 표정셋으로 미리 설정한 것을 의미한다. 직접 변형 적용을 위한 정보는 사용자의 3차원 모션 정보를 3차원의 가상 캐릭터에 직접 적용하여 3차원의 가상 캐릭터의 표정을 표현하는 기법을 의미한다. 여기서, 기등록된 복수의 가상 캐릭터의 파일 포맷은 각각 다르게 구성될 수 있다. For a plurality of pre-registered virtual characters, information for constructing character offset data for synthesizing a mask type and a separation type virtual character and applying a direct deformation technique may be stored in a database. For example, if the virtual character selected by the user is of the first type or the second type to be described later, the amount of expression change for the vertices of all faces between the non-expression reference model of the virtual character and the expression set for each part is extracted, and the virtual character A region to which the direct deformation is applied may be set among the information on whether or not the direct deformation technique of is applied and the entire face region of the virtual character. The character offset data means that sample expressions of a three-dimensional virtual character are defined in advance and set as an expression set in advance. The information for direct transformation application refers to a technique for expressing the expression of the 3D virtual character by directly applying the user's 3D motion information to the 3D virtual character. Here, the file formats of the plurality of pre-registered virtual characters may be configured differently.
가상 캐릭터의 파일 포맷은 3차원 모델에 대한 정보가 저장된 파일의 형태를 의미한다. 3차원 파일은 어떤 방식으로 압축하고 저장하는지에 따라 용량이 달라지며, 사용되는 애플리케이션에 따라 저장되는 방식도 각양각색이다. 또한, 그 구조가 달라 파일을 읽고 변경하고 저장하는데 각각의 규격에 맞게 다뤄져야 한다. The file format of a virtual character refers to a file format in which information on a 3D model is stored. The capacity of a 3D file varies depending on how it is compressed and stored, and the storage method varies depending on the application used. In addition, the structure is different, so the files must be handled according to each standard to read, change, and save.
이를 위해, 가상 캐릭터의 파일 포맷의 형태는 범용적으로 사용되는 OBJ 파일 포맷과 FBX 파일 포맷이 이용될 수 있다. To this end, the OBJ file format and the FBX file format, which are commonly used, may be used as the file format of the virtual character.
OBJ 파일 포맷은 일반적으로 3차원 모델의 형상 정보(Mesh Data)만을 담고 있으며, 별도의 머티리얼(Materials) 파일(*.mtl)과 이미지 파일을 연동함으로써, 전체 3차원 모델에 대한 정보를 표현할 수 있다. 이 때, OBJ 파일 포맷은 얼굴 표정을 컨트롤하기 위한 정보 또는 신체 애니메이션을 위한 정보를 포함하고 있지 않으며, 얼굴 표정 정보를 반영하기 위해서는 별도의 파일이 요구될 수 있다. 그러나 OBJ 파일 포맷은 3차원 메쉬 정보를 저장하는 가장 일반적이고 범용적인 파일 포맷으로 다양한 3D툴에서 읽기 및 쓰기가 지원된다. The OBJ file format generally contains only the shape information (Mesh Data) of the 3D model, and information on the entire 3D model can be expressed by linking an image file with a separate Materials file (*.mtl). . In this case, the OBJ file format does not include information for controlling facial expressions or information for body animation, and a separate file may be required to reflect facial expression information. However, the OBJ file format is the most common and general-purpose file format that stores 3D mesh information, and is supported for reading and writing in various 3D tools.
FBX 파일 포맷은 단일 파일 내에 3차원 캐릭터 형상 정보(Mesh Data), 머트리얼(Materials) 정보, 얼굴 표정셋 정보(blend-shape), 애니메이션 정보 등의 다양한 복합 정보가 저장된 파일 포맷이다. FBX 파일 포맷은 다양한 정보를 하나의 파일에 저장할 수 있다는 장점이 있으나, 해당 파일 포맷을 지원하는 3D툴이 한정적이라는 단점을 가지고 있다. 그러나 FBX 파일 포맷이 최근 점차 확대되고 있는 추세이다. The FBX file format is a file format in which various complex information such as 3D character shape information (Mesh Data), materials information, facial expression set information (blend-shape), and animation information is stored in a single file. The FBX file format has the advantage of being able to store a variety of information in one file, but it has the disadvantage that 3D tools that support the file format are limited. However, the FBX file format has recently been gradually expanding.
본 발명에서는 가상 캐릭터의 얼굴 구조가 사람과 유사한 형상뿐만 아니라, 완전히 다른 구조의 가상 캐릭터도 단일 라이브러리 처리를 통해 제공될 수 있다. In the present invention, not only the face structure of the virtual character is similar to that of a person, but also a virtual character having a completely different structure can be provided through a single library process.
기등록된 복수의 가상 캐릭터에 대해서는 도 3a 내지 도 3c를 통해 상세히 설명하도록 한다.A plurality of pre-registered virtual characters will be described in detail through FIGS. 3A to 3C.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 복수의 가상 캐릭터의 유형 및 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 3A to 3C are exemplary diagrams illustrating types of a plurality of virtual characters and a plurality of facial expression sets for a virtual character according to an embodiment of the present invention.
복수의 가상 캐릭터는 머리로 구성된 제 1 유형의 가상 캐릭터, 머리 및 몸통이 따로 구성된 제 2 유형의 가상 캐릭터 및 머리 및 몸통이 일체형 바디로 구성된 제 3 유형의 가상 캐릭터 등을 포함할 수 있다. 각각의 캐릭터에 대한 표정셋은 표정셋 내에 얼굴부위별로 구별된 복수개의 그룹이 포함될 수 있으며, 각각의 그룹에는 미리 설정된 가상 캐릭터의 무표정을 기준으로 일부 얼굴부위만이 변경된 샘플표정들이 포함될 수 있다. 구체적으로, 표정셋 내에는 눈, 눈썹, 코, 입술 등 각각의 얼굴부위에 대응하는 그룹들이 포함될 수 있으며, 예를 들어, 눈에 대응하는 그룹 내에는 가상 캐릭터의 무표정에서 눈만을 변형한 다양한 샘플표정이 포함될 수 있다. 즉, 무표정에서 양쪽 눈만을 크게 뜨거나, 무표정에서 눈웃음만을 추가한 표정 등 다양한 샘플표정들이 포함될 수 있다. 또한, 이와 동일한 방식으로 각각의 얼굴부위에 해당하는 그룹들에 대한 샘플표정들이 각각 저장될 수 있다. The plurality of virtual characters may include a first type of virtual character composed of a head, a second type of virtual character composed of a head and a body separately, and a third type of virtual character composed of an integral body with a head and a body. The facial expression set for each character may include a plurality of groups separated by facial parts in the facial expression set, and each group may include sample expressions in which only some of the facial parts are changed based on the non-expression of the virtual character set in advance. Specifically, the facial expression set may include groups corresponding to each face area, such as eyes, eyebrows, nose, and lips.For example, in the group corresponding to the eyes, various samples in which only the eyes are transformed from the expressionless expression of a virtual character Facial expressions may be included. That is, a variety of sample expressions, such as an expression with only both eyes wide open in an expressionless expression, or an expression in which only eye smiles are added in an expressionless expression, may be included. In addition, sample expressions for groups corresponding to each face area may be stored in the same manner.
이와 같이, 본 발명에서는 머리와 몸통의 연결 구조 형상이 다른 가상 캐릭터를 지원할 수 있다. 여기서, 연결 구조의 형상은 머리와 몸통이 서로 분리되어 모델링된 분리형과 머리와 몸통이 붙어있는 단일 형태의 일체형으로 구분될 수 있다. As described above, in the present invention, it is possible to support virtual characters having different shapes of the connection structure between the head and the body. Here, the shape of the connection structure may be divided into a separate type modeled by separating the head and the body from each other, and a single type integral type in which the head and the body are attached.
여기서, 3차원의 가상 캐릭터의 유형에 따라 리타겟팅을 적용하기 위해서는 각 유형별로 요구되는 데이터의 구조가 달라질 수 있다. Here, in order to apply retargeting according to the type of the 3D virtual character, the structure of the data required for each type may vary.
도 3a는 본 발명의 일 실시예에 따른 제 1 유형의 가상 캐릭터 및 제 1 유형의 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 도 3a를 참조하면, 제 1 유형(마스크형)의 가상 캐릭터(300)는 머리로만 구성되며, 무표정에 대한 기준 표정셋과 각 부위별 표정셋을 포함하는 복수의 표정셋(310)으로 구성될 수 있다. 3A is an exemplary diagram illustrating a first type of virtual character and a plurality of facial expression sets for a first type of virtual character according to an embodiment of the present invention. Referring to FIG. 3A, a
제 1 유형의 가상 캐릭터(300)는 화면에 표시될 3차원의 제 1 유형의 가상 캐릭터(300)의 모델에 대한 OBJ 파일과 3차원의 제 1 가상 캐릭터의 모델 영역 중 리타겟팅 대상이 되는 영역에 대한 복수의 표정셋(310)의 모델들이 별도의 OBJ 파일로 구성될 수 있다. The first type of
도 3b는 본 발명의 일 실시예에 따른 제 2 유형의 가상 캐릭터 및 제 2 유형의 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 도 3b를 참조하면, 제 2 유형(분리형)의 가상 캐릭터(320)는 머리와 몸통이 따로 구성되며, 각각의 모델 영역이 개별 파일로 관리될 수 있다. 3B is an exemplary diagram showing a plurality of facial expression sets for a second type of virtual character and a second type of virtual character according to an embodiment of the present invention. Referring to FIG. 3B, the second type (separate type) of the
예를 들어, 제 2 유형의 가상 캐릭터(320)는 리타겟팅 대상인 머리(321)의 모델 영역에 대한 OBJ 파일과 복수의 표정셋(322)의 모델들이 별도의 OBJ 파일로 구성될 수 있다. 다른 예를 들어, 제 2 유형의 가상 캐릭터(320)는 몸통의 모델 영역이 형상을 정의하는 스킨(skin) 모델(323)과 애니메이션 적용을 위한 리그(rig) 데이터로 이루어진 FBX 파일(324)로 구성될 수 있다. For example, in the second type of
도 3c는 본 발명의 일 실시예에 따른 제 3 유형의 가상 캐릭터 및 제 3 유형의 가상 캐릭터에 대한 복수의 표정셋을 도시한 예시적인 도면이다. 도 3c를 참조하면, 제 3 유형의 가상 캐릭터(330)는 머리 및 몸통이 일체형 바디로 구성되며, 단일 파일로 관리될 수 있다. 3C is an exemplary diagram showing a plurality of facial expression sets for a third type of virtual character and a third type of virtual character according to an embodiment of the present invention. Referring to FIG. 3C, a third type of
예를 들어, 제 3 유형의 가상 캐릭터(330)는 단일 파일 내에 3차원 캐릭터 형상 정보(Mesh Data), 머티리얼(Materials) 정보, 얼굴 표정셋 정보(332, blend-shape), 애니메이션 정보(331)를 모두 포함하는 FBX 파일로 구성될 수 있다. For example, the third type of
다시 도 1로 돌아와서, 추출부(130)는 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점(landmark)을 추출할 수 있다. 예를 들어, 추출부(130)는 얼굴 이미지 내에 포함된 얼굴영역과 나머지 배경영역을 구별하고, 얼굴영역에서 사용자의 얼굴을 다른 사용자의 얼굴들과 구별하기 위해 눈썹, 눈, 코, 입, 턱선 등으로부터 사용자의 얼굴에 대한 특징점을 추출할 수 있다. Returning to FIG. 1 again, the
표정 생성부(140)는 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 선택받은 가상 캐릭터의 표정을 생성할 수 있다. 본 발명에서 기구축된 베이시스 모델을 이용하는 이유는 사용자의 얼굴과 유사한 구조를 갖는 사람형 캐릭터뿐만 아니라, 구조적으로 얼굴형과 많은 차이가 있는 동물형 캐릭터에도 동시에 리타겟팅이 가능하도록 하기 위함이다. The
일반적으로, 리타겟팅을 수행할 시에 리타겟팅 대상이 되는 캐릭터가 사람의 형상과 많은 차이를 보이는 경우, 사람의 표정 변화량에 따라 가상 캐릭터의 표정의 생성에 많은 오차가 발생할 수 있다. 이렇게 두 데이터 간의 구조적인(topology) 차이로 인해 리타겟팅 수행 중 오차를 발생시키는 경우는 다음과 같다. In general, when retargeting is performed, when a character to be retargeted shows a large difference from a person's shape, a lot of errors may occur in the generation of an expression of a virtual character according to the amount of change in the expression of the person. The following is a case in which an error occurs during retargeting due to the topology difference between the two data.
첫째로, 사용자의 얼굴이미지로부터 획득된 3차원 얼굴 랜드마크 좌표점들을 비선형 변환 기법들을 통해 가상 캐릭터의 대응 좌표로 직접 변환시키는 과정에서 가상캐릭터와 사용자의 얼굴 대응점간의 topology 차이가 클수록 큰 오차를 발생할 수 있다. 이를 방지하고자, 본 발명에서는 얼굴 랜드마크 좌표점에서 가상 캐릭터의 좌표점으로의 직접적인 변환을 수행하지 않고 사용자의 얼굴과 유사한 topology를 갖는 베이시스 모델을 도입하였으며 사용자의 얼굴과 베이시스 모델간의 변환 함수의 파라미터를 추정하기 위해 기준이 되는 대응 표정(무표정)을 기반으로 비선형 변환 관계를 나타내는 파라미터를 추출할 수 있다. First, in the process of directly converting the 3D facial landmark coordinate points acquired from the user's face image into the corresponding coordinates of the virtual character through nonlinear transformation techniques, a larger error occurs as the topology difference between the virtual character and the user's face correspondence point increases. I can. To prevent this, in the present invention, a basis model having a topology similar to the user's face is introduced without performing a direct conversion from the face landmark coordinate point to the coordinate point of the virtual character, and the parameter of the conversion function between the user's face and the basis model In order to estimate, a parameter representing a nonlinear transformation relationship may be extracted based on a corresponding expression (non-expression) as a reference.
둘째로, 비선형 변환을 통해 가상 캐릭터의 도메인으로 변환된 얼굴 특징점에 대해 기정의된 가상 캐릭터의 표정셋들의 선형 결합으로 변환된 얼굴 특징점과 최대한 유사한 값을 도출하는 과정이 있다. 이 과정에서 가상캐릭터가 사용자의 얼굴과 구조적으로 차이를 보일수록 유사한 값(표정)을 도출하기가 어려워 진다. 이 과정에서 가상 캐릭터의 표정셋들의 선형 조합으로 입력된 사용자의 얼굴 표정과 유사한 표정을 생성해야 되는데, 가상 캐릭터의 표정셋들이 사용자의 얼굴과 구조적으로 많은 차이를 가질 경우 오차가 크게 발생하게 된다. Second, there is a process of deriving a value that is as similar as possible to a facial feature point transformed into a domain of a virtual character through nonlinear transformation to a facial feature point transformed by a linear combination of expression sets of a predefined virtual character. In this process, the more the virtual character is structurally different from the user's face, the more difficult it is to derive a similar value (expression). In this process, an expression similar to the user's facial expression input by a linear combination of the virtual character's facial expression sets should be generated. If the facial expression sets of the virtual character have a large structural difference from the user's face, a large error occurs.
이러한 두 가지 이유로 인해, 본 발명에서는 사람의 표정과 가상 캐릭터의 표정간의 간극을 줄일 수 있는 방법으로 베이시스 모델 및 의미론적 대응 관계에 있는 표정셋을 이용한다. For these two reasons, the present invention uses a basis model and an expression set having a semantic correspondence as a method to reduce the gap between the human expression and the virtual character expression.
렌더링부(150)는 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링할 수 있다. 이러한 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하는 과정에 대해서는 도 4a 내지 도 4e를 통해 상세히 설명하도록 한다. The
도 4a를 참조하면, 추출부(130)는 얼굴 이미지(400)로부터 사용자의 얼굴에 대한 특징점(401)을 추출할 수 있다. 또한, 추출부(130)는 얼굴 이미지로부터 사용자의 포즈 정보를 추출할 수 있다. Referring to FIG. 4A, the
도 4b를 참조하면, 표정 생성부(140)는 기추출된 변환 파라미터에 기초하여 추출된 특징점(401)을 베이시스 모델(420)에 대응하는 베이시스 모델 도메인으로 변환시킬 수 있다. 예를 들어, 표정 생성부(140)는 베이시스 모델 관리부(110)에서 기추출된 변환 파라미터를 통해 RBF 변환 적용을 수행하여 3차원의 사용자의 얼굴의 특징점(401)을 베이시스 모델의 표정셋 도메인에 대한 특징점(410)과 같이 변환할 수 있다. Referring to FIG. 4B, the
도 4c를 참조하면, 표정 생성부(140)는 베이시스 모델 도메인으로 변환된 특징점에 기초하여 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다(도면 부호 430 참조). 표정 생성부(140)는 다음의 수학식 1을 이용하여 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다. Referring to FIG. 4C, the
수학식 1을 참조하면, 표정 생성부(140)는 추출된 오프셋 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 특징점을 분석하여 베이시스 모델을 구성하는 복수의 표정셋(blend-shape) 각각에 대한 가중치(w)를 추정할 수 있다. 표정 생성부(140)는 추출된 주성분 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 특징점에 대한 차원을 축소시키고, 차원이 축소된 특징점을 분석하여 베이시스 모델을 구성하는 복수의 표정셋(blend-shape) 각각에 대한 가중치(w)를 추정할 수 있다. Referring to Equation 1, the
이를 위해, 표정 생성부(140)는 눈의 특징점의 변화 비율을 통해 눈의 변화량(EAR, Eye Aspect Ratio)을 추정할 수 있다. 표정 생성부(140)는 눈의 변화량을 이용하여 사용자의 블링크 모션(blink motion)의 변화량을 추정할 수 있다. 여기서, 블링크 모션은 양쪽 눈을 감은 경우, 오른쪽 또는 왼쪽 눈을 한쪽만 감아 윙크하는 경우, 양쪽 모두 눈을 뜬 경우 등으로 구별할 수 있다. 이외에도, 반쯤 뜬 경우나 치켜뜬 경우 등을 추가적으로 판별하는 것도 가능하다. To this end, the
표정 생성부(140)는 눈 부위의 가중치를 조정할 수 있다. 예를 들어, 표정 생성부(140)는 판별된 블링크 모션에 따라 표정셋 중에서 눈(eye)에 대한 샘플표정들의 가중치를 보정할 수 있다. 즉, 사용자의 블링크 모션을 감지한 후, 감지한 블링크 모션에 대응하도록 가중치를 조정할 수 있다. The
이 때, 연속된 영상 속의 얼굴 움직임에 대한 떨림을 보정하기 위해 칼만 필터(Kalman Filter) 기반의 복수의 오프셋(blend-shape)에 대해 가중치가 최적화가 되도록 하여, 자연스러운 표정이 생성되도록 할 수 있다. In this case, weights are optimized for a plurality of blend-shapes based on a Kalman filter in order to compensate for shaking of facial movements in a continuous image, so that a natural facial expression can be generated.
표정 생성부(140)는 선택받은 가상 캐릭터에 대한 캐릭터 유형을 확인할 수 있다. 예를 들어, 표정 생성부(140)는 선택부(120)에서 선택된 캐릭터의 ID에 기초하여 가상 캐릭터에 대한 캐릭터 유형을 확인할 수 있다. The
표정 생성부(140)는 확인된 캐릭터 유형에 따라 추정된 가중치를 가상 캐릭터에 대한 복수의 표정셋에 적용시키고, 가중치가 적용된 각 표정셋에 기초하여 가상 캐릭터의 표정을 생성하도록 할 수 있다. 이 때, 가상 캐릭터에 대한 복수의 표정셋은 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당할 수 있다. The
의미론적 대응 관계에 있는 표정셋이라는 의미는 3차원의 사용자 얼굴 모델의 형상이 물리적으로 서로 다른 형상 또는 구조의 메쉬로 이루어져있으나, 의미론적으로 동일하다고 정의한 표정셋들을 의미한다. 여기에, 베이시스 모델이라는 개념을 도입하여 베이시스 모델과 대상이 되는 가상 캐릭터의 모델의 표정셋의 관계가 미리 정의된 것으로, 베이시스 모델은 실제 사람과 유사한 형상으로 모델링된 3차원 모델을 일컬으며, 기본적으로 얼굴 랜드마크 트래커(facial landmark tracker)에서 출력하는 3차원 랜드마크 포즈(landmark pose)와 동일한 크기 및 위치값으로 이루어진 모델이다. 캐릭터 모델(Character model)은 최종 리타겟팅된 가상 캐릭터를 의미한다. The meaning of facial expression sets in a semantic correspondence refers to facial expression sets that are defined as having a three-dimensional user face model consisting of meshes of physically different shapes or structures, but semantically identical. Here, by introducing the concept of the basis model, the relationship between the basis model and the facial expression set of the target virtual character model is predefined, and the basis model refers to a three-dimensional model modeled in a shape similar to a real person. It is a model consisting of the same size and position value as the 3D landmark pose output from the facial landmark tracker. The character model refers to the final retargeted virtual character.
이와 같이, 의미론적 대응 관계에 있는 복수의 표정 셋을 정의함으로써, 대상이 되는 가상 케릭터의 표정셋에 대한 가중치값을 직접 구하지 않고, 베이시스 모델을 통해 사용자의 표정과 유사한 표정을 만드는 표정셋 가중치 값을 구한 후, 해당 가중치 값을 가상 캐릭터의 표정셋에 설정하여 표정을 생성할 수 있다. 예를 들어, 베이시스 모델의 '눈 감기(Eye_Closed)'라는 명칭의 표정은 가상 캐릭터 모델의 '눈감기'와 동일한 동작을 표현하는 것으로 정의하고, 사용자가 두 눈을 감는 표정을 지었을 때, 가상 캐릭터의 두 눈을 감는 표정을 표현하기 위해 실제 연산은 베이시스 모델을 통해 수행한 후, 베이시스 모델의 '눈감기'의 가중치 값을 가상 캐릭터의 '눈감기' 표정셋에 설정할 수 있다. In this way, by defining a plurality of expression sets in a semantic correspondence relationship, the weight value of the expression set that creates an expression similar to the user's expression through the basis model without directly obtaining the weight value for the expression set of the target virtual character. After obtaining, it is possible to create an expression by setting the corresponding weight value to the expression set of the virtual character. For example, the expression named'Eye_Closed' in the basis model is defined as expressing the same motion as'eye-closed' in the virtual character model, and when the user makes an expression with both eyes closed, the virtual character In order to express the expression of closing both eyes of the child, the actual calculation is performed through the basis model, and then the weight value of the'close eyes' of the basis model can be set in the'close eyes' expression set of the virtual character.
이러한 과정을 통해, 입력되는 사용자의 얼굴과 유사한 베이시스 모델을 기반으로 표정셋의 가중치를 먼저 도출하고, 도출된 가중치를 가상 캐릭터에 적용함으로써, 기존의 가상 캐릭터를 기반으로 직접 가중치를 도출할 때보다 좀더 정교하고 정확한 표정셋의 가중치(w)를 추정할 수 있다. Through this process, the weight of the facial expression set is first derived based on the basis model similar to the input user's face, and the derived weight is applied to the virtual character. It is possible to estimate the weight (w) of a more elaborate and accurate facial expression set.
도 4d를 참조하면, 가상 캐릭터에 대한 복수의 표정셋이 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응관계에 해당하는 예로서, 베이시스 모델이 양쪽 눈을 모두 감고 있는 표정셋(430)과 가상 캐릭터의 복수의 표정셋 중 가상 캐릭터가 양쪽 눈을 모두 감고 있는 표정셋이 이에 해당할 수 있다. 또한, 베이시스 모델이 왼쪽 눈을 감고 있는 표정셋(431)과 가상 캐릭터의 복수의 표정셋 중 가상 캐릭터가 왼쪽 눈을 감고 있는 표정셋이 이에 해당할 수 있다. 베이시스 모델이 오른쪽 눈을 감고 있는 표정셋(432)과 가상 캐릭터의 복수의 표정셋 중 가상 캐릭터가 오른쪽 눈을 감고 있는 표정셋이 이에 해당할 수 있다. Referring to FIG. 4D, as an example in which a plurality of facial expression sets for a virtual character correspond to a semantic correspondence relationship with a plurality of facial expression sets constituting the basis model, the facial expression set 430 in which both eyes are closed in the basis model, and Among the plurality of expression sets of the virtual character, an expression set in which both eyes of the virtual character are closed may correspond to this. In addition, the expression set 431 in which the basis model closes the left eye and the expression set in which the virtual character closes the left eye among a plurality of expression sets of the virtual character may correspond to this. The expression set 432 in which the basis model closes the right eye and the expression set in which the virtual character closes the right eye among a plurality of expression sets of the virtual character may correspond to this.
도 4e를 참조하면, 렌더링부(150)는 생성된 가상 캐릭터의 표정을 가상 캐릭터(440)에 적용하여 렌더링할 수 있다. 또한, 렌더링부(150)는 확인된 캐릭터 유형에 따라 추출된 사용자의 포즈 정보를 가상 캐릭터에 더 적용하여 렌더링할 수 있다. 여기서, 사용자의 포즈 정보는 사용자의 얼굴영역이 3차원 공간 상에서 회전한 회전량(rotation)과 이동량(translation) 등에 대한 정보를 포함하는 것일 수 있다. Referring to FIG. 4E, the
렌더링부(150)는 리타겟팅 값(예를 들어, 베이시스 모델을 기반으로 도출된 각 표정셋의 가중치)이 저장된 공유 메모리로부터 데이터 값을 불러오고, 불러온 데이터 값을 가상 캐릭터의 유형에 따라 적용하여 가상 캐릭터의 표정을 렌더링할 수 있다. 예를 들어, 렌더링부(150)는 가상 캐릭터의 모델 유형에 따라 OBJ 파일과 FBX 파일을 파일 로더를 통해 불러올 수 있다. 로드된 파일은 사용자의 머리 포즈(예를 들어, 회전과 이동)에 따라 가상 캐릭터의 머리 포즈를 제어하기 위해 컨트롤러를 매핑하는 과정을 수행할 수 있다. 이 때, 각 가상 캐릭터의 유형별로 포즈 대상을 설정할 수 있다. 가상 캐릭터의 유형에 따라 가상 캐릭터의 표정을 렌더링하는 과정에 대해서는 도 5a 내지 도 5c를 통해 상세히 설명하도록 한다. The
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 가상 캐릭터의 표정을 가상 캐릭터의 유형에 따라 렌더링하는 과정을 설명하기 위한 예시적인 도면이다. 여기서, 각각의 가상 캐릭터의 표정은 도 4a의 사용자의 표정을 기반으로 생성된 것일 수 있다. 5A to 5C are exemplary diagrams for explaining a process of rendering an expression of a virtual character according to a type of a virtual character according to an embodiment of the present invention. Here, the facial expression of each virtual character may be generated based on the user's facial expression of FIG. 4A.
리타겟팅을 통해 가상 캐릭터를 렌더링하는 과정은 두 가지 프로세스로 병렬 처리될 수 있다. 실시간으로 카메라를 통해 획득된 사용자의 얼굴 이미지로부터 리타겟팅할 파라미터(예를 들어, 베이시스 모델을 기반으로 도출된 각 표정셋의 가중치)를 추출하고, 해당 결과 값을 큐(queue) 메모리에 저장하는 프로세스와 큐 메모리로부터 리타겟팅 결과값을 불러와 가상 캐릭터의 유형에 맞도록 3차원 모델의 표정을 업데이트하고, 업데이트된 내용을 화면에 렌더링하는 프로세스로 나눠질 수 있다. 여기서, 병렬 처리는 전체 리타겟팅 속도를 빠르게 처리하기 위한 것으로 하드웨어의 수행 능력에 큰 문제가 없을 경우, 리타겟팅 프로세스 이후, 화면의 업데이트 프로세스를 단일로 처리하여도 무방하다. 로드된 가상 캐릭터 유형은 화면의 렌더링을 담당하는 프로세스로 전달되고, 가상 캐릭터의 ID 및 유형 정보가 리타겟팅을 수행하는 프로세스로 전달될 수 있다. 이후, 리타겟팅 프로세스와 화면 업데이트 프로세스가 수행되면서, 리타겟팅 프로세스를 통해 업데이트된 캐릭터의 표정 데이터 값이 화면 업데이트 프로세스에 전달되어 캐릭터의 표정을 업데이트한 후, 렌더링하는 과정이 반복 수행될 수 있다. The process of rendering a virtual character through retargeting can be processed in parallel in two processes. Extracts parameters to be retargeted (for example, the weight of each facial expression set derived based on the basis model) from the user's face image acquired through the camera in real time, and stores the corresponding result value in the queue memory. It can be divided into the process of loading the retargeting result value from the process and the queue memory, updating the expression of the 3D model to match the type of the virtual character, and rendering the updated content on the screen. Here, parallel processing is to speed up the overall retargeting speed, and if there is no significant problem in the performance capability of the hardware, it is possible to perform a single process of updating the screen after the retargeting process. The loaded virtual character type may be transferred to a process in charge of rendering the screen, and ID and type information of the virtual character may be transferred to a process that performs retargeting. Thereafter, while the retargeting process and the screen update process are performed, the expression data value of the character updated through the retargeting process is transmitted to the screen update process to update the expression of the character, and then the rendering process may be repeatedly performed.
<제 1 실시예><First Example>
도 5a를 참조하면, 표정 생성부(140)는 확인된 캐릭터 유형이 제 1 유형인 경우, 가상 캐릭터(510)를 구성하는 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 추정된 가중치를 적용하여 가상 캐릭터(500)에 대한 표정을 합성할 수 있다. 예를 들어, 제 1 유형의 가상 캐릭터의 경우, OBJ 파일로 구성되어 표정 셋에 대한 정보를 자체적으로 포함하고 있지 않으므로, 표정 생성부(140)는 리타겟팅 엔진을 이용하여 복수의 표정셋을 기반으로 가상 캐릭터(500)에 대한 표정을 합성할 수 있다. Referring to FIG. 5A, when the identified character type is the first type, the
렌더링부(150)는 합성된 표정을 가상 캐릭터(500)의 메쉬 버텍스에 적용하여 렌더링할 수 있다. 이 때, 렌더링부(150)는 리타겟팅 엔진으로부터 최종적으로 합성된 제 1 유형의 가상 캐릭터(500)의 얼굴 메쉬 버텍스(mesh vetrex)를 전달받아 얼굴 메쉬 버텍스에 기초하여 얼굴 메쉬 자체를 업데이트하여 렌더링할 수 있다. The
렌더링부(150)는 확인된 캐릭터 유형이 제 1 유형인 경우, 추출된 사용자의 포즈 정보를 가상 캐릭터(500)를 구성하는 모델 객체에 적용하여 렌더링할 수 있다. When the identified character type is the first type, the
이를 위해, 렌더링부(150)는 머리로만 이루어진 마스크형에 해당하는 제 1 유형의 가상 캐릭터의 경우, 포즈 값을 설정하는 대상으로 OBJ 모델 객체를 설정할 수 있다. 이 때, 해당 OBJ 모델의 중심(center) 좌표는 OBJ 모델의 중심점을 기준으로 하며, 포즈 또한 중심 좌표를 중심으로 설정할 수 있다. To this end, in the case of a first type of virtual character corresponding to a mask type consisting of only a head, the
<제 2 실시예><Second Example>
도 5b를 참조하면, 표정 생성부(140)는 확인된 캐릭터 유형이 제 2 유형인 경우, 가상 캐릭터(510)를 구성하는 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 추정된 가중치를 적용하여 가상 캐릭터(510)에 대한 표정을 합성할 수 있다. 예를 들어, 제 2 유형의 가상 캐릭터의 경우, 가상 캐릭터(510)의 머리 부분이 OBJ 파일로 구성되어 표정 셋에 대한 정보를 자체적으로 포함하고 있지 않으므로, 표정 생성부(140)는 리타겟팅 엔진을 이용하여 복수의 표정셋을 기반으로 가상 캐릭터(510)에 대한 표정을 합성할 수 있다. Referring to FIG. 5B, when the identified character type is the second type, the
렌더링부(150)는 합성된 표정을 가상 캐릭터(510)의 메쉬 버텍스에 적용하여 렌더링할 수 있다. 이 때, 렌더링부(150)는 리타겟팅 엔진으로부터 최종적으로 합성된 제 2 유형의 가상 캐릭터(510)의 얼굴 메쉬 버텍스(mesh verex)를 전달받아 얼굴 메쉬 버텍스에 기초하여 얼굴 메쉬 자체를 업데이트하여 렌더링할 수 있다.The
렌더링부(150)는 확인된 캐릭터 유형이 제 2 유형인 경우, 추출된 사용자의 포즈 정보를 가상 캐릭터(510)의 몸통 및 몸통 중 머리와 연결된 부분에 적용하여 렌더링할 수 있다. When the identified character type is the second type, the
이를 위해, 렌더링부(150)는 머리 및 몸통이 분리되어 서로 각각 다른 파일로 구성된 제 2 유형의 가상 캐릭터(510)의 경우, 머리에 해당하는 OBJ 파일을 불러오고, 몸통에 해당하는 FBX 파일을 각각 불러온 후, 몸통의 FBX 파일의 리그 중 머리로 설정된 리그(rig)의 하위에 머리의 파일(OBJ)을 연결할 수 있다. 사용자의 포즈 값 중 이동에 따른 위치값은 최상위 객체가 포즈 대상으로 설정하고, 가상 캐릭터의 전체(머리 및 몸통)가 위치값에 따라 움직이도록 설정하고, 사용자의 포즈 값 중 회전에 따른 머리의 방향값은 머리가 연결된 몸통의 리그(rig)를 포즈 대상으로 설정하여 머리의 회전을 조절할 수 있다. To this end, in the case of the second type of
<제 3 실시예><Third Example>
렌더링부(150)는 확인된 캐릭터 유형이 제 3 유형인 경우, 가상 캐릭터(520)에 대한 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 추정된 가중치를 적용하여 가상 캐릭터(520)의 표정을 렌더링할 수 있다. 예를 들어, 제 3 유형의 가상 캐릭터(520)의 경우, 머리와 바디가 단일 FBX 파일로 이루어진 일체형으로 구성되며, FBX 파일 내에 표정셋(blend-shape)을 포함하고 있으므로, 렌더링부(150)가 제 1 유형 및 제 2 유형의 가상 캐릭터처럼 리타겟팅 엔진에서 표정 셋 기반으로 합성하여 메쉬 버텍스 값을 전달받을 필요가 없다. 따라서, 렌더링부(150)는 합성에 이용되는 표정셋 들의 가중치 값만을 리타겟팅 엔진으로부터 수신하고, 복수의 표정셋 각각에 가중치를 적용하여 가상 캐릭터(520)의 표정을 렌더링할 수 있다. When the identified character type is the third type, the
렌더링부(150)는 확인된 캐릭터 유형이 제 3 유형인 경우, 추출된 사용자의 포즈 정보를 가상 캐릭터(520)의 일체형 바디 및 일체형 바디 중 목으로 설정된 부분에 적용하여 렌더링할 수 있다. When the identified character type is the third type, the
이를 위해, 렌더링부(150)는 단일 모델의 일체형으로 구성된 제 3 유형의 가상 캐릭터(520)의 경우, 일체형에 해당하는 FBX 파일이 로드(load)되고, 일체형 바디의 리그(rig) 중 목으로 설정된 리그(rig)에 사용자의 포즈 값 중 회전에 따른 머리의 방향값을 설정하고, 사용자의 포즈 값 중 이동에 따른 위치값은 일체형 모델의 전체를 제어하는 최상위 객체에 설정하여 전체 이동이 가능해지도록 할 수 있다. To this end, in the case of the third type of
표정 모사 장치(100)는 이러한 과정을 통해 생성된 가상 캐릭터를 다른 표정 모사 장치 또는 다른 사용자 단말로 전송하여, 사용자와 다른 사용자가 영상통화 등을 수행하면서 자신의 얼굴을 가상 캐릭터로 대체하여 출력하도록 할 수 있다. 이 때, 가상 캐릭터는 사용자의 얼굴 표정이나 포즈 등이 모사되어 출력될 수 있다. 여기서는, 다른 사용자 단말과 영상통화를 수행하는 경우를 예시하였으나, 실시예에 따라서는, 표정 모사 장치(100)가 자체 동영상을 제작하거나, 라이브 방송 등을 하는 경우에도 표정 모사 장치(100)를 이용하여 사용자의 얼굴표정 등을 모사하는 가상 캐릭터를 대신하여 제공하도록 할 수 있다. The facial
이러한 표정 모사 장치(100)는 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 의해 실행될 수 있다. 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받고, 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하고, 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 선택받은 가상 캐릭터의 표정을 생성하고, 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링하도록 하는 명령어들의 시퀀스를 포함할 수 있다. The facial
도 6은 본 발명의 일 실시예에 따른 표정 모사 장치에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법의 순서도이다. 도 6에 도시된 표정 모사 장치(100)에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법은 도 1 내지 도 5c에 도시된 실시예에 따라 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 5c에 도시된 실시예에 따른 표정 모사 장치(100)에서 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 모사하는 방법에도 적용된다. 6 is a flowchart of a method of simulating an expression of a virtual character generated based on a basis model in an expression simulation apparatus according to an embodiment of the present invention. A method of simulating the facial expression of a virtual character generated based on the basis model in the facial
단계 S610에서 표정 모사 장치(100)는 기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받을 수 있다. In step S610, the facial
단계 S620에서 표정 모사 장치(100)는 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출할 수 있다. In step S620, the facial
단계 S630에서 표정 모사 장치(100)는 기구축된 베이시스 모델에 기초하여 추출된 특징점에 대응하도록 선택받은 가상 캐릭터의 표정을 생성할 수 있다. In step S630, the facial
단계 S640에서 표정 모사 장치(100)는 생성된 가상 캐릭터의 표정을 가상 캐릭터에 적용하여 렌더링할 수 있다. In step S640, the facial
상술한 설명에서, 단계 S610 내지 S640은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S610 to S640 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be switched.
도 7은 본 발명의 일 실시예에 따른 표정 모사 장치에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법의 순서도이다. 도 7에 도시된 표정 모사 장치(100)에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법은 도 1 내지 도 6에 도시된 실시예에 따라 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 6에 도시된 실시예에 따른 표정 모사 장치(100)에서 가상 캐릭터의 유형에 따라 베이시스 모델에 기초하여 생성된 가상 캐릭터의 표정을 각각의 가상 캐릭터에 적용하여 렌더링하는 방법에도 적용된다. 7 is a flowchart of a method of rendering an expression of a virtual character generated based on a basis model according to a type of a virtual character in the facial expression simulation apparatus according to an embodiment of the present invention by applying to each virtual character. A method of rendering the facial expression of a virtual character generated based on the basis model according to the type of the virtual character in the facial
이하에서는, 미리 연산을 수행해 놓는 오프라인 과정(S700)과 실시간으로 리타겟팅을 수행하는 온라인 과정(S750)으로 구분하여 설명하도록 한다.Hereinafter, an offline process (S700) in which an operation is performed in advance and an online process (S750) in which retargeting is performed in real time will be described.
<오프라인 과정(S700)><Offline Course (S700)>
표정 모사 장치(100)는 초기 설정을 등록할 수 있다(S710). 표정 모사 장치(100)는 베이시스 모델의 등록에 필요한 사용자의 얼굴을 촬영하여 최초 등록하고, 등록된 얼굴 이미지로부터 사용자의 특징점을 추출할 수 있고(S711), 베이시스 모델의 특징점을 추출할 수 있다(S712). 표정 모사 장치(100)는 사용자의 특징점과 베이시스 모델의 특징점이 대응되도록 초기 설정을 수행할 수 있다. 이 때, 얼굴 이미지는 사용자의 무표정 얼굴이 촬영된 것일 수 있다. 표정 모사 장치(100)는 사용자의 얼굴 특징점과 이에 대응하는 베이시스 모델의 특징점 간에 RBF 변환을 위한 RBF 파라미터를 추출함으로써 초기 설정을 수행할 수 있다(S713). The facial
표정 모사 장치(100)는 베이시스 모델에 대해 구축된 데이터베이스를 통해 실제 사람에 대한 형상으로 모델링된 기준 표정셋(무표정 기준 모델) 및 각 부위별 표정셋을 포함하는 복수의 표정셋으로 구성된 베이시스 모델을 관리할 수 있다(S720). 예를 들어, 표정 모사 장치(100)는 베이시스 모델의 기준 표정셋 및 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 추출하고(S721), 추출된 오프셋 특징 벡터에 대해 주성분 분석을 수행하여 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출하고(S722), 추출된 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 각각의 표정셋의 특징점에 대한 차원을 축소시킬 수 있다(S723). The facial
표정 모사 장치(100)는 가상 캐릭터의 표정셋에 대해 구축된 데이터베이스를 통해 가상 캐릭터의 표정셋을 관리할 수 있다(S730). 예를 들어, 표정 모사 장치(100)는 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당하는 가상 캐릭터에 대한 복수의 표정셋을 관리하여(S731), 표정셋과 관련된 오프셋 데이터를 추출할 수 있다(S732). 이 때, 표정 모사 장치(100)는 가상 캐릭터의 표정셋에서 합성 표정 내에서 직접 변형 기법을 적용할 대상 영역을 특정할 수 있다(S733). 즉, 해당 영역에 대해서는 직접 변형 기법을 적용하여 직접 수정할 수 있다. The facial
<온라인 과정(S750)><Online Course (S750)>
표정 모사 장치(100)는 사용자의 얼굴을 촬영하고, 촬영된 얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출할 수 있다(S751). The facial
표정 모사 장치(100)는 S713에서 추출된 RBF 변환 파라미터에 기초하여 사용자의 기준 얼굴에 대한 특징점을 베이시스 모델에 대응하는 베이시스 모델 도메인으로 RBF 변환시킬 수 있다(S752).The facial
표정 모사 장치(100)는 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다(S760). 예를 들어, 표정 모사 장치(100)는 추출된 RBF 변환 파라미터에 기초하여 추출된 특징점을 베이시스 모델에 대응하는 베이시스 모델 도메인으로 변환하여 베이시스 모델 도메인으로 변환된 특징점을 도출하고(S761), 오프라인 과정(700)에서 추출된 주성분 특징 벡터에 기초하여 베이시스 모델 도메인으로 변환된 특징점에 대한 차원을 축소시키고(S762), 차원이 축소된 특징점을 분석하여 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정할 수 있다(S763). 이 때, 표정 모사 장치(100)는 추가적으로 베이시스 모델의 특징점의 ERA(Eye Aspect Ratio)을 계산하고(S764), EAR을 이용하여 베이시스 모델의 블링크 모션(blink motion) 정도(또는 비율)를 추정하고(S765), 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는데 반영할 수 있다. 이후, 표정 모사 장치(100)는 각각의 표정셋의 가중치에 칼만 필터(Kalman filter)를 적용하여 자연스러운 표정 변환이 수행되도록 할 수 있다(S766). The facial
표정 모사 장치(100)는 유형별로 가상 캐릭터의 표정을 생성할 수 있다(S770). 예를 들어, 표정 모사 장치(100)는 사용자에 의해 선택 받은 가상 캐릭터에 대한 캐릭터 유형을 확인할 수 있다(S771). 확인된 가상 캐릭터의 캐릭터 유형이 제 1 유형 또는 제 2 유형인 경우(S772), 표정 모사 장치(100)는 의미론적 대응 관계에 기초하여 가중치 기반 가상 캐릭터의 표정을 합성할 수 있다(S773). 이 때, 표정 모사 장치(100)는 추가적으로 S773에서 특정된 대상영역에 기초하여 사용자에 의해 직접 변형 기법을 적용받을 수 있다(S774). 이후, 표정 모사 장치(100)는 합성된 가상 캐릭터의 표정이 반영되도록 가상 캐릭터의 메쉬 버텍스 값을 갱신하고(S775), 갱신된 가상 캐릭터의 메쉬 버텍스 값을 렌더링하여 가상 캐릭터를 표시할 수 있다(S780). 다른 예를 들어, 확인된 가상 캐릭터의 캐릭터 유형이 제 3 유형인 경우(S776), 표정 모사 장치(100)는 가상 캐릭터의 표정셋 각각에 추정된 가중치를 갱신하여 가상 캐릭터의 표정을 합성하고(S777), 합성된 표정을 렌더링하여 가상 캐릭터를 표시할 수 있다(S780).The facial
상술한 설명에서, 단계 S701 내지 S780은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S701 to S780 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be switched.
도 1 내지 도 7을 통해 표정 모사 장치에서 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 1 내지 도 7을 통해 표정 모사 장치에서 베이시스 모델에 기초하여 가상 캐릭터의 표정을 모사하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다. A method of simulating an expression of a virtual character based on a basis model in an expression simulation apparatus through FIGS. 1 to 7 is in the form of a computer program stored in a medium executed by a computer or a recording medium including instructions executable by a computer. Can also be implemented. In addition, a method of simulating the facial expression of a virtual character based on a basis model in the facial expression replicating apparatus through FIGS. 1 to 7 may be implemented in the form of a computer program stored in a medium executed by a computer.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include a computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and are not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
100: 표정 모사 장치
110: 베이시스 모델 관리부
120: 선택부
130: 추출부
140: 표정 생성부
150: 렌더링부100: facial expression copying device
110: basis model management department
120: selection
130: extraction unit
140: expression generation unit
150: rendering unit
Claims (19)
기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 선택부;
얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 추출부;
기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 표정 생성부; 및
상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 렌더링부
를 포함하는 것인, 표정 모사 장치.
A device that simulates an expression of a virtual character based on a basis model,
A selection unit that is selected for any one of a plurality of pre-registered virtual characters;
An extraction unit for extracting feature points for the user's face from the face image;
An expression generation unit generating an expression of the selected virtual character to correspond to the extracted feature point based on the constructed basis model; And
Rendering unit for rendering by applying the generated expression of the virtual character to the virtual character
That includes, facial expression replicating device.
실제 사람에 대한 형상으로 모델링된 기준 표정셋 및 각 부위별 표정셋을 포함하는 복수의 표정셋으로 구성된 상기 베이시스 모델을 등록받는 베이시스 모델 관리부
를 더 포함하고,
상기 표정 생성부는 상기 베이시스 모델 및 상기 사용자의 기준 얼굴에 대한 특징점에 기초하여 변환 파라미터를 추출하는 것인, 표정 모사 장치.
The method of claim 1,
A basis model management unit that registers the basis model composed of a plurality of expression sets including a reference expression set modeled as a shape of a real person and an expression set for each part
Including more,
The facial expression generating unit extracts a transformation parameter based on the basis model and feature points of the user's reference face.
상기 표정 생성부는 상기 추출된 변환 파라미터에 기초하여 상기 추출된 특징점을 상기 베이시스 모델에 대응하는 베이시스 모델 도메인으로 변환시키는 것인, 표정 모사 장치.
The method of claim 2,
The facial expression generating unit transforms the extracted feature points into a basis model domain corresponding to the basis model based on the extracted transformation parameter.
상기 표정 생성부는 상기 베이시스 모델 도메인으로 변환된 특징점에 기초하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 것인, 표정 모사 장치.
The method of claim 3,
The facial expression generating unit estimates a weight for each of a plurality of facial expression sets constituting the basis model based on the feature points converted to the basis model domain.
상기 베이시스 모델 관리부는 상기 베이시스 모델의 기준 표정셋 및 상기 베이시스 모델의 부위별 표정셋 간의 오프셋 특징 벡터를 추출하고,
상기 표정 생성부는 상기 추출된 오프셋 특징 벡터에 기초하여 상기 베이시스 모델 도메인으로 변환된 특징점을 분석하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 것인, 표정 모사 장치.
The method of claim 4,
The basis model management unit extracts an offset feature vector between the reference facial expression set of the basis model and the facial expression set for each part of the basis model,
The facial expression generating unit is to estimate a weight for each of a plurality of facial expression sets constituting the basis model by analyzing the feature points converted to the basis model domain based on the extracted offset feature vector.
상기 베이시스 모델 관리부는 상기 추출된 오프셋 특징 벡터에 대해 주성분 분석을 수행하여 상기 추출된 오프셋 특징 벡터로부터 주성분 특징 벡터를 추출하고,
상기 표정 생성부는 상기 추출된 주성분 특징 벡터에 기초하여 상기 베이시스 모델 도메인으로 변환된 특징점에 대한 차원을 축소시키고, 상기 차원이 축소된 특징점을 분석하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 것인, 표정 모사 장치.
The method of claim 5,
The basis model management unit extracts a principal component feature vector from the extracted offset feature vector by performing principal component analysis on the extracted offset feature vector,
The expression generation unit reduces the dimension of the feature point converted to the basis model domain based on the extracted principal component feature vector, analyzes the reduced dimension feature point, and provides each of a plurality of expression sets constituting the basis model. The facial expression simulation device that estimates the weight.
상기 표정 생성부는 상기 선택받은 가상 캐릭터에 대한 캐릭터 유형을 확인하고, 상기 확인된 캐릭터 유형에 따라 상기 추정된 가중치를 상기 가상 캐릭터에 대한 복수의 표정셋에 적용시키도록 하고,
상기 가상 캐릭터에 대한 복수의 표정셋은 상기 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당하는 것인, 표정 모사 장치.
The method of claim 4,
The expression generation unit checks a character type for the selected virtual character, and applies the estimated weight to a plurality of expression sets for the virtual character according to the identified character type,
The facial expression copying apparatus, wherein the plurality of facial expression sets for the virtual character correspond to a semantic correspondence relationship with the plurality of facial expression sets constituting the basis model.
상기 복수의 가상 캐릭터는 머리로 구성된 제 1 유형의 가상 캐릭터, 머리 및 몸통이 따로 구성된 제 2 유형의 가상 캐릭터 및 머리 및 몸통이 일체형 바디로 구성된 제 3 유형의 가상 캐릭터 중 적어도 하나를 포함하는 것인, 표정 모사 장치.
The method of claim 7,
The plurality of virtual characters includes at least one of a first type virtual character composed of a head, a second type virtual character composed of a head and a body separately, and a third type virtual character composed of an integral body with a head and a body. Phosphorus, facial expression copying device.
상기 표정 생성부는 상기 확인된 캐릭터 유형이 상기 제 1 유형 및 상기 제 2 유형인 경우 중 어느 하나인 경우, 상기 가상 캐릭터를 구성하는 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 상기 추정된 가중치를 적용하여 상기 가상 캐릭터에 대한 표정을 합성하고,
상기 렌더링부는 상기 합성된 표정을 상기 가상 캐릭터의 메쉬 버텍스에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 8,
When the identified character type is one of the first type and the second type, the estimated weight corresponding to a semantic correspondence relationship to each of a plurality of expression sets constituting the virtual character To synthesize the expression for the virtual character,
The rendering unit is to render by applying the synthesized facial expression to the mesh vertex of the virtual character.
상기 렌더링부는 상기 확인된 캐릭터 유형이 상기 제 3 유형인 경우, 상기 가상 캐릭터에 대한 복수의 표정셋 각각에 의미론적 대응 관계에 해당하는 상기 추정된 가중치를 적용하여 상기 가상 캐릭터의 표정을 렌더링하는 것인, 표정 모사 장치.
The method of claim 8,
When the identified character type is the third type, the rendering unit renders the expression of the virtual character by applying the estimated weight corresponding to a semantic correspondence relationship to each of a plurality of expression sets for the virtual character. Phosphorus, facial expression copying device.
상기 추출부는 상기 얼굴 이미지로부터 상기 사용자의 포즈 정보를 더 추출하고,
상기 렌더링부는 상기 확인된 캐릭터 유형에 따라 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 8,
The extraction unit further extracts the user's pose information from the face image,
The rendering unit is to render by applying the extracted user's pose information to the virtual character according to the identified character type.
상기 렌더링부는 상기 확인된 캐릭터 유형이 제 1 유형인 경우, 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터를 구성하는 모델 객체에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 11,
When the identified character type is the first type, the rendering unit applies the extracted user's pose information to a model object constituting the virtual character and renders the expression.
상기 렌더링부는 상기 확인된 캐릭터 유형이 제 2 유형인 경우, 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터의 몸통 및 상기 몸통 중 상기 머리와 연결된 부분에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 11,
When the identified character type is the second type, the rendering unit renders by applying the extracted user's pose information to a body of the virtual character and a portion connected to the head among the body of the virtual character.
상기 렌더링부는 상기 확인된 캐릭터 유형이 제 3 유형인 경우, 상기 추출된 사용자의 포즈 정보를 상기 가상 캐릭터의 일체형 바디 및 상기 일체형 바디 중 목으로 설정된 부분에 적용하여 렌더링하는 것인, 표정 모사 장치.
The method of claim 11,
When the identified character type is a third type, the rendering unit renders by applying the extracted user's pose information to a portion set as a neck among the integrated body of the virtual character and the integrated body.
기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받는 단계;
얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하는 단계;
기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하는 단계; 및
상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하는 단계
를 포함하는 것인, 표정 모사 방법.
In a method for simulating an expression of a virtual character based on a basis model,
Receiving a selection for any one of a plurality of previously registered virtual characters;
Extracting feature points for the user's face from the face image;
Generating an expression of the selected virtual character to correspond to the extracted feature point based on the constructed basis model; And
Rendering by applying the generated expression of the virtual character to the virtual character
That includes, facial expression simulation method.
상기 추출된 변환 파라미터에 기초하여 상기 추출된 특징점을 상기 베이시스 모델에 대응하는 베이시스 모델 도메인으로 변환시키는 단계
를 더 포함하는 것인, 표정 모사 방법.
The method of claim 15,
Converting the extracted feature points into a basis model domain corresponding to the basis model based on the extracted conversion parameter
That further comprises a method of simulating facial expressions.
상기 베이시스 모델 도메인으로 변환된 특징점에 기초하여 상기 베이시스 모델을 구성하는 복수의 표정셋 각각에 대한 가중치를 추정하는 단계
를 더 포함하는 것인, 표정 모사 방법.
The method of claim 16,
Estimating a weight for each of a plurality of facial expression sets constituting the basis model based on the feature points converted to the basis model domain
That further comprises a method of simulating facial expressions.
상기 추정된 가중치를 상기 가상 캐릭터에 대한 복수의 표정셋에 적용시키는 단계; 및
상기 가중치가 적용된 상기 가상 캐릭터에 대한 복수의 표정셋에 기초하여 상기 가상 캐릭터의 표정을 렌더링하는 단계
를 더 포함하고,
상기 가상 캐릭터에 대한 복수의 표정셋은 상기 베이시스 모델을 구성하는 복수의 표정셋과 의미론적 대응 관계에 해당하는 것인, 표정 모사 방법.
The method of claim 17,
Applying the estimated weight to a plurality of facial expression sets for the virtual character; And
Rendering the facial expression of the virtual character based on a plurality of facial expression sets for the virtual character to which the weight is applied
Including more,
The plurality of facial expression sets for the virtual character corresponds to a semantic correspondence relationship with the plurality of facial expression sets constituting the basis model.
상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
기등록된 복수의 가상 캐릭터 중 어느 하나의 가상 캐릭터에 대해 선택받고,
얼굴 이미지로부터 사용자의 얼굴에 대한 특징점을 추출하고,
기구축된 베이시스 모델에 기초하여 상기 추출된 특징점에 대응하도록 상기 선택받은 가상 캐릭터의 표정을 생성하고,
상기 생성된 가상 캐릭터의 표정을 상기 가상 캐릭터에 적용하여 렌더링하도록 하는 명령어들의 시퀀스를 포함하는, 매체에 저장된 컴퓨터 프로그램.In the computer program stored in a medium comprising a sequence of instructions for simulating an expression of a virtual character based on a basis model,
When the computer program is executed by a computing device,
Is selected for any one of a plurality of pre-registered virtual characters,
Extracting feature points for the user's face from the face image,
Generates an expression of the selected virtual character to correspond to the extracted feature point based on the established basis model,
A computer program stored in a medium including a sequence of instructions for rendering the generated facial expression of the virtual character applied to the virtual character.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190122905A KR20210040555A (en) | 2019-10-04 | 2019-10-04 | Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190122905A KR20210040555A (en) | 2019-10-04 | 2019-10-04 | Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210040555A true KR20210040555A (en) | 2021-04-14 |
Family
ID=75477618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190122905A KR20210040555A (en) | 2019-10-04 | 2019-10-04 | Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210040555A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113223127A (en) * | 2021-05-21 | 2021-08-06 | 广州虎牙科技有限公司 | Expression generation method for virtual object, application program, device and storage medium |
CN113332726A (en) * | 2021-06-11 | 2021-09-03 | 网易(杭州)网络有限公司 | Virtual character processing method and device, electronic equipment and storage medium |
KR102318111B1 (en) * | 2020-11-17 | 2021-10-27 | 주식회사 일루니 | Method and apparatus for generating story book which provides sticker reflecting user's face to character |
KR102353556B1 (en) * | 2021-11-01 | 2022-01-20 | 강민호 | Apparatus for Generating Facial expressions and Poses Reappearance Avatar based in User Face |
KR102506506B1 (en) * | 2021-11-10 | 2023-03-06 | (주)이브이알스튜디오 | Method for generating facial expression and three dimensional graphic interface device using the same |
CN116129091A (en) * | 2023-04-17 | 2023-05-16 | 海马云(天津)信息技术有限公司 | Method and device for generating virtual image video, electronic equipment and storage medium |
KR102550973B1 (en) * | 2022-01-18 | 2023-07-05 | (주)에스프레소미디어 | Personalized metaverse character creation system using Artificial Intelligence deep learning |
CN116437137A (en) * | 2023-06-09 | 2023-07-14 | 北京达佳互联信息技术有限公司 | Live broadcast processing method and device, electronic equipment and storage medium |
KR102608863B1 (en) * | 2022-10-31 | 2023-12-01 | 주식회사 스튜디오징스 | Animating method for expressing cartoon characteristics |
-
2019
- 2019-10-04 KR KR1020190122905A patent/KR20210040555A/en unknown
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102318111B1 (en) * | 2020-11-17 | 2021-10-27 | 주식회사 일루니 | Method and apparatus for generating story book which provides sticker reflecting user's face to character |
CN113223127A (en) * | 2021-05-21 | 2021-08-06 | 广州虎牙科技有限公司 | Expression generation method for virtual object, application program, device and storage medium |
CN113332726A (en) * | 2021-06-11 | 2021-09-03 | 网易(杭州)网络有限公司 | Virtual character processing method and device, electronic equipment and storage medium |
KR102353556B1 (en) * | 2021-11-01 | 2022-01-20 | 강민호 | Apparatus for Generating Facial expressions and Poses Reappearance Avatar based in User Face |
KR102506506B1 (en) * | 2021-11-10 | 2023-03-06 | (주)이브이알스튜디오 | Method for generating facial expression and three dimensional graphic interface device using the same |
KR102550973B1 (en) * | 2022-01-18 | 2023-07-05 | (주)에스프레소미디어 | Personalized metaverse character creation system using Artificial Intelligence deep learning |
KR102608863B1 (en) * | 2022-10-31 | 2023-12-01 | 주식회사 스튜디오징스 | Animating method for expressing cartoon characteristics |
CN116129091A (en) * | 2023-04-17 | 2023-05-16 | 海马云(天津)信息技术有限公司 | Method and device for generating virtual image video, electronic equipment and storage medium |
CN116129091B (en) * | 2023-04-17 | 2023-06-13 | 海马云(天津)信息技术有限公司 | Method and device for generating virtual image video, electronic equipment and storage medium |
CN116437137A (en) * | 2023-06-09 | 2023-07-14 | 北京达佳互联信息技术有限公司 | Live broadcast processing method and device, electronic equipment and storage medium |
CN116437137B (en) * | 2023-06-09 | 2024-01-09 | 北京达佳互联信息技术有限公司 | Live broadcast processing method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210040555A (en) | Apparatus, method and computer program for providing facial motion retargeting of virtual character based on basis model | |
US10789453B2 (en) | Face reenactment | |
KR102616010B1 (en) | System and method for photorealistic real-time human animation | |
JP2022503647A (en) | Cross-domain image conversion | |
JP5344358B2 (en) | Face animation created from acting | |
KR101635730B1 (en) | Apparatus and method for generating montage, recording medium for performing the method | |
CN107831902B (en) | Motion control method and device, storage medium and terminal | |
JP6207210B2 (en) | Information processing apparatus and method | |
KR102068993B1 (en) | Method And Apparatus Creating for Avatar by using Multi-view Image Matching | |
Pighin et al. | Facial motion retargeting | |
CN114359453A (en) | Three-dimensional special effect rendering method and device, storage medium and equipment | |
Costigan et al. | Facial retargeting using neural networks | |
KR20210019182A (en) | Device and method for generating job image having face to which age transformation is applied | |
US20230079478A1 (en) | Face mesh deformation with detailed wrinkles | |
KR20200134623A (en) | Apparatus and Method for providing facial motion retargeting of 3 dimensional virtual character | |
KR20200071008A (en) | 2d image processing method and device implementing the same | |
WO2015042867A1 (en) | Method for editing facial expression based on single camera and motion capture data | |
US20230260184A1 (en) | Facial expression identification and retargeting to an avatar | |
WO2024066549A1 (en) | Data processing method and related device | |
US20240078773A1 (en) | Electronic device generating 3d model of human and its operation method | |
US20240135616A1 (en) | Automated system for generation of facial animation rigs | |
KR20230080285A (en) | Apparatus and method for composing three-dimensional image | |
KR20060067242A (en) | System and its method of generating face animation using anatomy data | |
Zeng et al. | Research Status of Speech Driven Virtual Face Animation Methods | |
CN117011430A (en) | Game resource processing method, apparatus, device, storage medium and program product |