KR20220075339A - Face reconstruction method, apparatus, computer device and storage medium - Google Patents

Face reconstruction method, apparatus, computer device and storage medium Download PDF

Info

Publication number
KR20220075339A
KR20220075339A KR1020227010819A KR20227010819A KR20220075339A KR 20220075339 A KR20220075339 A KR 20220075339A KR 1020227010819 A KR1020227010819 A KR 1020227010819A KR 20227010819 A KR20227010819 A KR 20227010819A KR 20220075339 A KR20220075339 A KR 20220075339A
Authority
KR
South Korea
Prior art keywords
target
face
data
real
virtual
Prior art date
Application number
KR1020227010819A
Other languages
Korean (ko)
Inventor
성웨이 쉬
취안 왕
천 첸
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20220075339A publication Critical patent/KR20220075339A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Electric Double-Layer Capacitors Or The Like (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 얼굴 재구성 방법, 장치, 컴퓨터 기기 및 저장매체를 제공하는 바, 여기서, 상기 방법은, 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하는 단계; 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계; 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성하는 단계; 및 타깃 골격 데이터 및 타깃 피부 변형 계수에 기반하여 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 단계를 포함한다.The present invention provides a face reconstruction method, apparatus, computer device and storage medium, wherein the method includes the steps of: generating a first real face model based on a target image; fitting a first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of a plurality of second real face models; generating target skeletal data and target skin deformation coefficients based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models; ; and generating a target virtual face model corresponding to the first real face model based on the target skeletal data and the target skin deformation coefficient.

Description

얼굴 재구성 방법, 장치, 컴퓨터 기기 및 저장매체Face reconstruction method, apparatus, computer device and storage medium

[관련 출원의 교차 인용][Cross Citation of Related Applications]

본 특허 출원은 2020년 11월 25일에 제출되고, 출원 번호가 202011337901.1이며, 발명의 명칭이 "얼굴 재구성 방법, 장치, 컴퓨터 기기 및 저장매체"인 중국 특허 출원의 우선권을 주장하고, 상기 출원의 전체 내용은 인용을 통해 본문에 통합된다.This patent application is filed on November 25, 2020, and the application number is 202011337901.1, claiming the priority of the Chinese patent application entitled "Face reconstruction method, apparatus, computer device and storage medium", The entire content is incorporated into the text by citation.

[기술분야][Technical field]

본 발명은 이미지 처리 기술분야에 관한 것으로, 구체적으로, 얼굴 재구성 방법, 장치, 컴퓨터 기기 및 저장매체에 관한 것이다.The present invention relates to the field of image processing technology, and more particularly, to a face reconstruction method, an apparatus, a computer device, and a storage medium.

일반적으로, 실제 얼굴 또는 자신의 선호도에 기반하여 가상 얼굴 3차원 모델을 구축하여 얼굴을 재구성할 수 있는 바, 이는 게임, 애니메이션, 가상 소셜과 같은 분야에 널리 적용되고 있다. 예를 들어, 게임에서, 플레이어는 게임 프로그램에서 제공하는 얼굴 재구성 시스템을 통해 플레이어가 제공한 이미지에 포함된 실제 얼굴에 따라 가상 얼굴 3차원 모델을 생성하고, 생성된 가상 얼굴 3차원 모델을 이용하여 보다 몰입감 있게 게임에 참여할 수 있다. In general, a face can be reconstructed by constructing a virtual face 3D model based on a real face or one's own preferences, which is widely applied to fields such as games, animations, and virtual social. For example, in a game, the player creates a virtual face 3D model according to the real face included in the image provided by the player through the face reconstruction system provided by the game program, and uses the generated virtual face 3D model to You can participate in the game more immersive.

현재, 인물 이미지에 포함된 실제 얼굴에 기초하여 얼굴을 재구성할 경우, 일반적으로 얼굴 이미지에 기초하여 얼굴 윤곽 특징을 추출한 후, 추출된 얼굴 윤곽 특징과 미리 생성된 가상 3차원 모델을 매칭시키고, 융합하여 실제 얼굴에 대응하는 가상 얼굴 3차원 모델을 생성하지만; 얼굴 윤곽 특징과 미리 생성된 가상 3차원 모델의 매칭도는 낮으므로 생성된 가상 얼굴 3차원 모델과 실제 얼굴 형상의 유사도가 낮게 된다.Currently, when a face is reconstructed based on a real face included in a person image, in general, after extracting facial contour features based on the face image, the extracted facial contour features are matched with a pre-generated virtual three-dimensional model, and fusion to generate a virtual face 3D model corresponding to the real face; Since the degree of matching between the facial contour features and the pre-generated virtual 3D model is low, the similarity between the generated virtual face 3D model and the actual face shape is low.

본 발명의 실시예는 적어도 얼굴 재구성 방법, 장치, 컴퓨터 기기 및 저장매체를 제공한다. Embodiments of the present invention provide at least a face reconstruction method, an apparatus, a computer device, and a storage medium.

제1양태에서, 본 발명의 실시예는 얼굴 재구성 방법을 제공하는 바, 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하는 단계; 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계; 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성하는 단계; 및 상기 타깃 골격 데이터 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 단계를 포함한다. In a first aspect, an embodiment of the present invention provides a face reconstruction method, comprising: generating a first real face model based on a target image; fitting the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models; generating target skeletal data and target skin deformation coefficients based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models; step; and generating a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient.

상기 실시형태에서, 피팅 계수를 매개로 이용하여 복수의 제2 실제 얼굴 모델과 제1 실제 얼굴 모델 사이의 관련 관계를 구축하고, 상기 관련 관계는 제2 실제 얼굴 모델에 기반으로 구축된 가상 얼굴 모델, 및 제1 실제 얼굴 모델에 기초하여 구축된 타깃 가상 얼굴 모델 사이의 관련을 특성화할 수 있으며; 이 외에, 타깃 피부 변형 계수는 타깃 이미지 내의 얼굴 피부가 변형되는 특징을 특성화할 수 있는바, 예를 들어 골격이 동일한 경우, 피부에 의해 특성화될 수 있는 살찌거나 마른 차이가 존재할 수 있으며; 피팅 계수 및 타깃 피부 변형 계수에 기초하여 결정된 타깃 가상 얼굴 모델은 기설정된 스타일, 및 제1 실제 얼굴 모델에 대응하는 원본 얼굴의 특징을 구비할 뿐만 아니라, 원본 얼굴의 살찌거나 마른 특징을 구현할 수 있고, 생성된 타깃 가상 얼굴 모델과 제1 실제 얼굴 모델에 대응하는 원본 얼굴은 더 높은 유사도를 구비한다. In the above embodiment, a relational relationship between the plurality of second real face models and the first real face model is established by using the fitting coefficient as a medium, and the relational relation is a virtual face model constructed based on the second real face model. , and a target virtual face model built based on the first real face model; In addition, the target skin deformation coefficient may characterize a feature in which the facial skin in the target image is deformed, for example, if the skeleton is the same, there may be a difference between fat and thinness that may be characterized by the skin; The target virtual face model determined on the basis of the fitting coefficient and the target skin deformation coefficient may not only have a preset style and an original facial feature corresponding to the first real face model, but may also implement the fat or thin feature of the original face, , the generated target virtual face model and the original face corresponding to the first real face model have a higher degree of similarity.

선택적인 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 피부 변형 계수를 생성하는 단계는, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성하는 단계를 포함한다. In an optional embodiment, a target skin deformation coefficient is calculated based on a fitting coefficient corresponding to each of the plurality of second real face models, and a virtual face model having a preset style corresponding to each of the plurality of second real face models. The generating may include generating the target skin deformation coefficient based on fitting coefficients corresponding to each of the plurality of second real face models and skin deformation coefficients included in each of the plurality of virtual face models.

상기 실시형태에서, 표준 가상 얼굴 모델의 표준 피부 데이터를 기준으로, 가상 얼굴 모델의 피부 변형 계수를 결정한 후, 가상 얼굴 모델과 타깃 가상 얼굴 모델 사이의 관련 관계를 특성화하는 피팅 계수에 기반하여 타깃 가상 얼굴의 타깃 피부 변형 계수를 결정할 수 있음으로써 타깃 피부 변형 계수에 기반하여 타깃 가상 얼굴의 피부 데이터를 보다 정확하게 결정할 수 있으며 생성된 타깃 가상 얼굴 모델과 제1 실제 얼굴 모델에 대응하는 원본 얼굴이 보다 높은 유사도를 갖도록 한다. In the above embodiment, after determining the skin deformation coefficient of the virtual face model based on the standard skin data of the standard virtual face model, the target virtual face model is based on the fitting coefficient characterizing the relation between the virtual face model and the target virtual face model. Since the target skin deformation coefficient of the face can be determined, the skin data of the target virtual face can be more accurately determined based on the target skin deformation coefficient, and the generated target virtual face model and the original face corresponding to the first real face model are higher. to have similarity.

선택적인 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성하는 단계는, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 정규화 처리하는 단계; 및 정규화 처리된 피팅 계수, 및 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 얻는 단계를 포함한다. In an optional embodiment, the generating the target skin deformation coefficient based on a fitting coefficient corresponding to each of the plurality of second real face models and a skin deformation coefficient included in each of the plurality of virtual face models comprises: normalizing fitting coefficients corresponding to each of a plurality of second real face models; and obtaining the target skin deformation coefficient based on the normalized fitting coefficient and the skin deformation coefficient included in each of the virtual face models.

상기 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 정규화 처리하여 정규화 처리된 피팅 계수, 및 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 타깃 피부 변형 계수를 얻을 경우, 데이터 표현이 보다 간단하고, 처리 과정을 간략화하여, 후속적으로 피팅 결과를 이용하여 얼굴을 재구성하는 처리 속도를 향상시킨다. In the above embodiment, the fitting coefficient corresponding to each of the plurality of second real face models is normalized to obtain a target skin deformation coefficient based on the normalized fitting coefficient and the skin deformation coefficient included in each of the virtual face models. In this case, the data representation is simpler, the processing process is simplified, and the processing speed of subsequently reconstructing a face using the fitting result is improved.

선택적인 실시형태에서, 상기 타깃 골격 데이터, 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 상기 단계는, 상기 타깃 골격 데이터, 및 표준 가상 얼굴 모델 중의 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계에 기반하여 상기 표준 피부 데이터를 위치 변환 처리하여 중간 피부 데이터를 생성하는 단계; 상기 타깃 피부 변형 계수에 기반하여 상기 중간 피부 데이터를 변형 처리하여 타깃 피부 데이터를 얻는 단계; 및 상기 타깃 골격 데이터, 및 상기 타깃 피부 데이터에 기반하여 상기 타깃 가상 얼굴 모델을 구성하는 단계를 포함한다. In an optional embodiment, the generating a target virtual face model corresponding to the first real face model based on the target skeletal data and the target skin deformation coefficient comprises: the target skeletal data, and a standard virtual face model generating intermediate skin data by performing position conversion processing on the standard skin data based on a relation between the standard skeletal data and the standard skin data; obtaining target skin data by transforming the intermediate skin data based on the target skin deformation coefficient; and constructing the target virtual face model based on the target skeleton data and the target skin data.

상기 실시형태에서, 중간 피부 데이터를 생성한 후, 타깃 피부 변형 계수를 이용하여 중간 피부 데이터를 변형시켜, 얻은 타깃 피부 데이터는 제1 실제 얼굴 모델의 외모 특징을 특성화할 수 있을 뿐만 아니라, 제1 실제 얼굴의 살찌거나 마른 정도를 나타낼 수 있으며, 생성된 타깃 가상 얼굴 모델은 외모 상의 차이뿐만 아니라, 살찌거나 마른 정도의 차이를 더 구비하게 되어 상이한 타깃 가상 얼굴을 생성할 때, 제1 실제 얼굴 모델에 대응하는 원본 얼굴이 더 높은 유사도를 갖도록 한다. In the above embodiment, after generating the intermediate skin data, modifying the intermediate skin data using the target skin deformation coefficient, the obtained target skin data can not only characterize the appearance features of the first real face model, but also It may indicate the degree of fatness or thinness of the real face, and the generated target virtual face model further includes a difference in fatness or thinness as well as differences in appearance, so that when a different target virtual face is generated, the first real face model Let the original face corresponding to , have a higher similarity.

선택적인 실시형태에서, 상기 타깃 골격 데이터는 타깃 골격 위치 데이터, 타깃 골격 스케일링 데이터, 및 타깃 골격 회전 데이터 중 적어도 하나를 포함하고; 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 데이터는 상기 가상 얼굴의 복수의 얼굴 골격 중 각각의 얼굴 골격에 대응하는 골격 회전 데이터, 골격 위치 데이터, 및 골격 스케일링 데이터 중 적어도 하나를 포함한다. In an optional embodiment, the target bone data comprises at least one of target bone position data, target bone scaling data, and target bone rotation data; The skeletal data corresponding to each of the plurality of virtual face models includes at least one of skeletal rotation data, skeletal position data, and skeletal scaling data corresponding to each facial skeleton among the plurality of facial skeletons of the virtual face.

상기 실시형태에서, 골격 데이터를 이용하여 복수의 얼굴 골격 중 각각의 골격에 대응하는 골격 데이터를 보다 정확하게 특성화할 수 있고, 타깃 골격 데이터를 이용하여 타깃 가상 얼굴 모델을 보다 정확하게 결정할 수 있다. In the above embodiment, the skeleton data corresponding to each skeleton among the plurality of facial skeletons can be more accurately characterized using the skeleton data, and the target virtual face model can be more accurately determined using the target skeleton data.

선택적인 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성하는 단계는, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 위치 데이터를 보간 처리하여 상기 타깃 골격 위치 데이터를 얻는 단계를 포함한다. In an optional embodiment, target skeleton data is generated based on a virtual face model having fitting coefficients corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. The performing may include obtaining the target bone position data by interpolating the bone position data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models.

선택적인 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성하는 단계는, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 스케일링 데이터를 보간 처리하여 상기 타깃 골격 스케일링 데이터를 얻는 단계를 포함한다. In an optional embodiment, target skeleton data is generated based on a virtual face model having fitting coefficients corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. The performing may include obtaining the target skeletal scaling data by interpolating skeletal scaling data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models.

선택적인 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성하는 단계는, 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 회전 데이터를 사원수로 변환하고, 상기 복수의 가상 얼굴 모델 각각에 대응하는 사원수를 정규화 처리하여 정규화된 사원수를 얻는 단계; 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 상기 정규화된 사원수를 보간 처리하여 상기 타깃 골격 회전 데이터를 얻는 단계를 포함한다. In an optional embodiment, target skeleton data is generated based on a virtual face model having fitting coefficients corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. The method may include: converting skeletal rotation data corresponding to each of the plurality of virtual face models into quaternions, and normalizing the quaternions corresponding to each of the plurality of virtual face models to obtain normalized quaternions; and obtaining the target skeleton rotation data by interpolating the normalized quaternions corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models.

선택적인 실시형태에서, 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하는 상기 단계는, 원본 얼굴을 포함한 타깃 이미지를 획득하는 단계; 및 상기 타깃 이미지에 포함된 상기 원본 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 제1 실제 얼굴 모델을 얻는 단계를 포함한다. In an optional embodiment, the step of generating a first real face model based on the target image includes: acquiring a target image including an original face; and performing 3D face reconstruction on the original face included in the target image to obtain the first real face model.

상기 실시형태에서, 원본 얼굴에 대해 3차원 얼굴 재구성을 수행하여 얻은 제1 실제 얼굴 모델을 이용하여 타깃 이미지 내의 원본 얼굴의 얼굴 특징을 보다 정확하고 전면적으로 특성화할 수 있다. In the above embodiment, it is possible to more accurately and comprehensively characterize the facial features of the original face in the target image by using the first real face model obtained by performing three-dimensional face reconstruction on the original face.

선택적인 실시형태에서, 참조 얼굴을 포함한 복수의 참조 이미지를 획득하는 방식; 및 상기 복수의 참조 이미지 중의 각각의 참조 이미지에 대하여, 상기 참조 이미지에 포함된 상기 참조 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 참조 이미지에 대응하는 상기 제2 실제 얼굴 모델을 얻는 방식에 따라 복수의 상기 제2 실제 얼굴 모델을 미리 생성한다. In an optional embodiment, there is provided a method comprising: obtaining a plurality of reference images including a reference face; and for each reference image of the plurality of reference images, performing three-dimensional face reconstruction on the reference face included in the reference image to obtain the second real face model corresponding to the reference image. The second real face model of

상기 실시형태에서, 복수의 참조 이미지를 이용하여 광범위한 얼굴 외형 특징을 최대한 커버할 수 있으므로, 복수의 참조 이미지 중의 각각의 참조 이미지에 기초하여 3차원 얼굴 재구성을 수행하여 얻은 제2 실제 얼굴 모델은 마찬가지로 광범위한 얼굴 외형 특징을 최대한 커버할 수 있다. In the above embodiment, since a wide range of facial appearance features can be covered as much as possible using a plurality of reference images, the second real face model obtained by performing three-dimensional face reconstruction on the basis of each reference image among the plurality of reference images is similarly A wide range of facial features can be covered as much as possible.

선택적인 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 중 각각의 제2 실제 얼굴 모델에 대하여, 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 중간 가상 얼굴 모델을 생성하는 단계; 표준 가상 얼굴 모델에 대한 복수 그룹의 기설정된 피부 변형 계수에 기반하여 상기 제2 실제 얼굴 모델에 대응하는 상기 표준 가상 얼굴 모델에 대한 가상 얼굴 모델의 피부 변형 계수를 생성하는 단계; 상기 피부 변형 계수를 이용하여 상기 중간 가상 얼굴 모델의 중간 피부 데이터를 조정하는 단계; 및 조정된 중간 피부 데이터, 및 상기 중간 가상 얼굴 모델의 중간 골격 데이터에 기반하여 상기 각각의 제2 실제 얼굴 모델의 가상 얼굴 모델을 생성하는 단계를 통해 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델을 획득하는 것을 더 포함한다. In an optional embodiment, for each second real face model among the plurality of second real face models, generating an intermediate virtual face model having a preset style corresponding to the second real face model; generating a skin deformation coefficient of the virtual face model for the standard virtual face model corresponding to the second real face model based on a plurality of groups of preset skin deformation coefficients for the standard virtual face model; adjusting the intermediate skin data of the intermediate virtual face model by using the skin deformation coefficient; and generating a virtual face model of each of the second real face models based on the adjusted intermediate skin data and the intermediate skeletal data of the intermediate virtual face model, and a preset style corresponding to the second real face model. The method further includes obtaining a virtual face model comprising

상기 실시형태에서, 피부 변형 계수를 통해, 제2 실제 얼굴 모델에 대응하는 중간 가상 얼굴 모델의 중간 피부 데이터를 조정하여, 생성된 가상 얼굴 모델로 하여금 기설정된 스타일, 및 제2 실제 얼굴 모델의 외모 특징을 갖도록 할 뿐만 아니라, 제2 실제 얼굴 모델에 대응하는 참조 얼굴의 살찌거나 마른 정도를 특성화할 수 있음으로써, 가상 얼굴 모델과 대응하는 참조 얼굴이 보다 높은 유사도를 갖도록 한다. In the above embodiment, by adjusting the intermediate skin data of the intermediate virtual face model corresponding to the second real face model through the skin deformation coefficient, the generated virtual face model has a preset style, and the appearance of the second real face model In addition to having features, it is possible to characterize the fatness or thinness of the reference face corresponding to the second real face model, so that the reference face corresponding to the virtual face model has a higher similarity.

선택적인 실시형태에서, 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 상기 단계는, 상기 복수의 제2 실제 얼굴 모델 및 상기 제1 실제 얼굴 모델을 최소 제곱 처리하여 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계를 포함한다. In an optional embodiment, the step of obtaining fitting coefficients corresponding to each of a plurality of second real face models by performing fitting processing on the first real face model using a plurality of second real face models generated in advance comprises: and performing least squares processing on the second real face model and the first real face model to obtain fitting coefficients corresponding to each of the plurality of second real face models.

상기 실시형태에서, 피팅 계수를 이용하여, 복수의 제2 실제 얼굴 모델을 이용하여 제1 실제 얼굴 모델을 피팅할 경우의 피팅 상황을 정확하게 특성화할 수 있다. In the above embodiment, by using the fitting coefficients, it is possible to accurately characterize the fitting situation in the case of fitting the first real face model using a plurality of second real face models.

제2양태에서, 본 발명의 실시예는 얼굴 재구성 장치를 더 제공하는 바, 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하기 위한 제1 생성 모듈; 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻기 위한 처리 모듈; 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성하기 위한 제2 생성 모듈; 및 상기 타깃 골격 데이터 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하기 위한 제3 생성 모듈을 포함한다. In a second aspect, an embodiment of the present invention further provides a face reconstruction apparatus, comprising: a first generating module for generating a first real face model based on a target image; a processing module for fitting the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models; Target skeletal data and target skin deformation coefficient are generated based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. a second generating module for and a third generation module configured to generate a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient.

선택적인 실시형태에서, 상기 제2 생성 모듈은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 피부 변형 계수를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성하기 위한 것이다. In an optional embodiment, the second generating module is based on a virtual face model having fitting coefficients corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. to generate the target skin deformation coefficient, generating the target skin deformation coefficient based on fitting coefficients corresponding to each of the plurality of second real face models and skin deformation coefficients included in each of the plurality of virtual face models; it is for

선택적인 실시형태에서, 상기 제2 생성 모듈은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 정규화 처리하기 위한 것이고; 정규화 처리된 피팅 계수, 및 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 얻기 위한 것이다.In an optional embodiment, the second generating module is configured to generate the target skin deformation coefficient based on a fitting coefficient corresponding to each of the plurality of second real face models, and a skin deformation coefficient included in each of the plurality of virtual face models. when generated, for normalizing fitting coefficients corresponding to each of the plurality of second real face models; The target skin deformation coefficient is obtained based on the normalized fitting coefficient and the skin deformation coefficient included in each of the virtual face models.

선택적인 실시형태에서, 상기 제3 생성 모듈은 상기 타깃 골격 데이터, 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성할 경우, 상기 타깃 골격 데이터, 및 표준 가상 얼굴 모델 중의 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계에 기반하여 상기 표준 피부 데이터를 위치 변환 처리하여 중간 피부 데이터를 생성하기 위한 것이고; 상기 타깃 피부 변형 계수에 기반하여 상기 중간 피부 데이터를 변형 처리하여 타깃 피부 데이터를 얻기 위한 것이며; 상기 타깃 골격 데이터, 및 상기 타깃 피부 데이터에 기반하여 상기 타깃 가상 얼굴 모델을 구성하기 위한 것이다. In an optional embodiment, the third generating module is configured to generate a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient, the target skeleton data; for generating intermediate skin data by performing position conversion processing on the standard skin data based on a relation between the standard skeletal data and the standard skin data in the standard virtual face model; transforming the intermediate skin data based on the target skin deformation coefficient to obtain target skin data; and constructing the target virtual face model based on the target skeleton data and the target skin data.

선택적인 실시형태에서, 상기 타깃 골격 데이터는 타깃 골격 위치 데이터, 타깃 골격 스케일링 데이터, 및 타깃 골격 회전 데이터 중 적어도 하나를 포함하고; 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 데이터는 상기 가상 얼굴의 복수의 얼굴 골격 중 각각의 얼굴 골격에 대응하는 골격 회전 데이터, 골격 위치 데이터, 및 골격 스케일링 데이터 중 적어도 하나를 포함한다. In an optional embodiment, the target bone data comprises at least one of target bone position data, target bone scaling data, and target bone rotation data; The skeletal data corresponding to each of the plurality of virtual face models includes at least one of skeletal rotation data, skeletal position data, and skeletal scaling data corresponding to each facial skeleton among the plurality of facial skeletons of the virtual face.

선택적인 실시형태에서, 상기 제2 생성 모듈은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 위치 데이터를 보간 처리하여 상기 타깃 골격 위치 데이터를 얻기 위한 것이다. In an optional embodiment, the second generating module is based on a virtual face model having fitting coefficients corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. to generate the target skeleton data, the target skeleton position data is obtained by interpolating the skeleton position data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models. it is for

선택적인 실시형태에서, 제2 생성 모듈은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 스케일링 데이터를 보간 처리하여 상기 타깃 골격 스케일링 데이터를 얻기 위한 것이다. In an optional embodiment, the second generating module is configured to: based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models; When generating target skeletal data, interpolating skeletal scaling data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models to obtain the target skeletal scaling data will be.

선택적인 실시형태에서, 상기 제2 생성 모듈은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성할 경우, 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 회전 데이터를 사원수로 변환하고, 상기 복수의 가상 얼굴 모델 각각에 대응하는 사원수를 정규화 처리하여 정규화된 사원수를 얻기 위한 것이며; 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 상기 정규화된 사원수를 보간 처리하여 상기 타깃 골격 회전 데이터를 얻기 위한 것이다. In an optional embodiment, the second generating module is based on a virtual face model having fitting coefficients corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. to generate the target skeleton data, the skeleton rotation data corresponding to each of the plurality of virtual face models is converted into quaternions, and the normalized quaternions are obtained by normalizing the quaternions corresponding to each of the plurality of virtual face models. to obtain; and to obtain the target skeleton rotation data by interpolating the normalized quaternions corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models.

선택적인 실시형태에서, 상기 제1 생성 모듈은 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성할 경우, 원본 얼굴을 포함한 타깃 이미지를 획득하기 위한 것이고; 상기 타깃 이미지에 포함된 상기 원본 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 제1 실제 얼굴 모델을 얻기 위한 것이다. In an optional embodiment, the first generating module is for, when generating a first real face model based on the target image, to obtain a target image including an original face; To obtain the first real face model by performing 3D face reconstruction on the original face included in the target image.

선택적인 실시형태에서, 상기 처리 모듈은, 참조 얼굴을 포함한 복수의 참조 이미지를 획득하는 방식; 및 상기 복수의 참조 이미지 중의 각각의 참조 이미지에 대하여, 상기 참조 이미지에 포함된 참조 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 참조 이미지에 대응하는 상기 제2 실제 얼굴 모델을 얻는 방식에 기반하여 상기 복수의 제2 실제 얼굴 모델을 미리 생성한다. In an optional embodiment, the processing module includes: a method for acquiring a plurality of reference images including a reference face; and for each reference image among the plurality of reference images, performing 3D face reconstruction on a reference face included in the reference image to obtain the second real face model corresponding to the reference image. A plurality of second real face models are generated in advance.

선택적인 실시형태에서, 상기 복수의 제2 실제 얼굴 모델 중 각각의 제2 실제 얼굴 모델에 대하여, 하기 방식을 이용하여 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델을 획득하기 위한 획득 모듈을 더 포함하는 바, 상기 방식은 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 중간 가상 얼굴 모델을 생성하는 단계; 표준 가상 얼굴 모델에 대한 복수 그룹의 기설정된 피부 변형 계수에 기반하여 상기 제2 실제 얼굴 모델에 대응하는 상기 표준 가상 얼굴 모델에 대한 가상 얼굴 모델의 피부 변형 계수를 생성하는 단계; 상기 피부 변형 계수를 이용하여 상기 중간 가상 얼굴 모델의 중간 피부 데이터를 조정하는 단계; 및 조정된 중간 피부 데이터, 및 상기 중간 가상 얼굴 모델의 중간 골격 데이터에 기반하여 상기 제2 실제 얼굴 모델의 가상 얼굴 모델을 생성하는 단계를 포함한다. In an optional embodiment, for each second real face model among the plurality of second real face models, a virtual face model having a preset style corresponding to the second real face model is obtained by using the following method The method further includes an acquiring module for: generating an intermediate virtual face model having a preset style corresponding to the second real face model; generating a skin deformation coefficient of the virtual face model for the standard virtual face model corresponding to the second real face model based on a plurality of groups of preset skin deformation coefficients for the standard virtual face model; adjusting the intermediate skin data of the intermediate virtual face model by using the skin deformation coefficient; and generating a virtual face model of the second real face model based on the adjusted intermediate skin data and intermediate skeletal data of the intermediate virtual face model.

선택적인 실시형태에서, 상기 처리 모듈은 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻을 경우, 상기 복수의 제2 실제 얼굴 모델 및 상기 제1 실제 얼굴 모델을 최소 제곱 처리하여 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻기 위한 것이다. In an optional embodiment, when the processing module performs fitting processing on the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models, The plurality of second real face models and the first real face model are subjected to least squares processing to obtain fitting coefficients corresponding to each of the plurality of second real face models.

제3양태에서, 본 발명의 선택적 구현 방식은 프로세서, 메모리를 포함하는 컴퓨터 기기를 더 제공하는 바, 상기 메모리에는 상기 프로세서에 의해 실행 가능한 기계 판독 가능 명령이 저장되고, 상기 프로세서는 상기 메모리에 저장된 기계 판독 가능 명령을 실행하며, 상기 기계 판독 가능 명령이 상기 프로세서에 의해 실행될 경우, 상기 제1양태, 또는 제1양태 중 임의의 한 가지 가능한 실시형태의 단계를 수행한다. In a third aspect, an optional implementation manner of the present invention further provides a computer device comprising a processor and a memory, wherein the memory stores machine-readable instructions executable by the processor, the processor stored in the memory Execute machine readable instructions, which when executed by the processor perform the steps of the first aspect, or any one possible embodiment of the first aspect.

제4양태에서, 본 발명의 선택적 구현 방식은 컴퓨터 판독 가능 저장매체를 더 제공하는 바, 상기 컴퓨터 판독 가능 저장매체에는 컴퓨터 프로그램이 저장되어 있으며, 상기 컴퓨터 프로그램이 실행될 경우 상기 제1양태, 또는 제1양태 중 임의의 한 가지 가능한 실시형태의 단계를 수행한다.In a fourth aspect, the optional implementation method of the present invention further provides a computer-readable storage medium, wherein a computer program is stored in the computer-readable storage medium, and when the computer program is executed, the first aspect or the first aspect The steps of any one possible embodiment of aspect 1 are carried out.

상기 얼굴 재구성 장치, 컴퓨터 기기, 및 컴퓨터 판독 가능 저장매체의 효과에 대한 설명은 상기 얼굴 재구성 방법의 설명을 참조하고, 여기서 더 이상 반복하지 않는다. 본 발명의 상기 목적, 특징 및 장점을 보다 명확하고 이해하기 쉽게 하기 위하여 이하 바람직한 실시예를 예로 들고, 첨부 도면을 결부하여 상세하게 설명하면 다음과 같다. For the description of the effects of the face reconstruction apparatus, the computer device, and the computer-readable storage medium, refer to the description of the face reconstruction method, which is not repeated herein any further. In order to make the above objects, features and advantages of the present invention clearer and easier to understand, it will be described in detail with reference to the following preferred embodiments and the accompanying drawings.

본 발명의 실시예의 기술적 해결수단을 보다 뚜렷이 설명하기 위하여 이하 실시예에서 이용하고자 하는 도면을 간단히 소개한다. 여기의 도면은 본 발명에 부합되는 실시예를 도시하고, 명세서와 함께 본 발명의 기술적 해결수단을 설명한다. 아래 도면은 단지 본 발명의 일부 실시예를 도시하므로 범위에 대한 한정으로 간주되지 말아야 하며, 본 기술분야에서 통상의 지식을 가진 자들은 진보성 창출에 힘쓸 필요없이 이러한 도면에 따라 다른 도면을 얻을 수 있음을 이해해야 한다.
도 1은 본 발명의 일 실시예에서 제공하는 얼굴 재구성 방법의 흐름도를 도시하고;
도 2는 본 발명의 다른 실시예에서 제공하는 얼굴 재구성 방법의 흐름도를 도시하며;
도 3은 본 발명의 실시예에서 제공하는 타깃 피부 변형 계수를 얻기 위한 구체적인 방법의 흐름도를 도시한다;
도 4는 본 발명의 실시예에서 제공하는 타깃 골격 데이터, 및 타깃 피부 변형 계수에 기반하여 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 구체적인 방법의 흐름도를 도시한다;
도 5는 본 발명의 실시예에서 제공하는 얼굴 재구성 방법에 관련된 복수의 얼굴 및 얼굴 모델의 예시를 도시한다;
도 6은 본 발명의 실시예에서 제공하는 얼굴 재구성 장치의 모식도를 도시한다;
도 7은 본 발명의 실시예에서 제공하는 컴퓨터 기기의 모식도를 도시한다.
In order to more clearly explain the technical solutions of the embodiments of the present invention, drawings to be used in the following embodiments are briefly introduced. The drawings herein show embodiments consistent with the present invention, and together with the specification explain the technical solutions of the present invention. The drawings below show only some embodiments of the present invention and should not be regarded as limiting in scope, and those skilled in the art may obtain other drawings according to these drawings without striving for inventive step. should understand
1 shows a flowchart of a face reconstruction method provided in an embodiment of the present invention;
2 shows a flowchart of a face reconstruction method provided in another embodiment of the present invention;
3 shows a flowchart of a specific method for obtaining a target skin deformation coefficient provided in an embodiment of the present invention;
4 is a flowchart of a specific method of generating a target virtual face model corresponding to a first real face model based on target skeletal data and a target skin deformation coefficient provided in an embodiment of the present invention;
5 shows an example of a plurality of faces and face models related to a face reconstruction method provided in an embodiment of the present invention;
6 shows a schematic diagram of a face reconstruction apparatus provided in an embodiment of the present invention;
7 is a schematic diagram of a computer device provided in an embodiment of the present invention.

본 발명의 실시예의 목적, 기술적 해결수단 및 장점을 보다 명확하게 하기 위하여, 이하 본 발명의 실시예의 첨부 도면과 결부하여 본 발명의 실시예의 기술적 해결수단을 명확하고 완전하게 설명하고자 하는 바, 설명된 실시예는 본 발명의 일부 실시예일 뿐 모든 실시예가 아님은 자명한 것이다. 일반적으로 여기에 설명되고 도시되는 본 발명의 실시예의 어셈블리는 다양한 상이한 구성으로 배치 및 설계될 수 있다. 따라서, 이하 본 발명의 실시예의 상세한 설명은 보호하고자 하는 본 발명의 범위를 제한하기 위한 것이 아니라 본 발명의 선택된 실시예만을 나타내는 것으로 의도된다. 본 발명의 실시예에 기반하여 본 기술분야의 통상의 기술자는 진보성 창출에 힘쓸 필요가 없는 전제 하에서 획득된 모든 다른 실시예는 모두 본 발명의 보호범위에 속한다. In order to make the objects, technical solutions and advantages of the embodiments of the present invention more clear, the technical solutions of the embodiments of the present invention will be clearly and completely described below in conjunction with the accompanying drawings of the embodiments of the present invention. It is apparent that the examples are only some examples of the present invention and not all examples. In general, the assemblies of the embodiments of the invention described and shown herein may be arranged and designed in a variety of different configurations. Accordingly, the following detailed description of the embodiments of the present invention is not intended to limit the scope of the present invention to be protected, but to represent only selected embodiments of the present invention. Based on the embodiments of the present invention, all other embodiments obtained under the premise that those skilled in the art do not need to strive for inventive step all fall within the protection scope of the present invention.

연구에 따르면, 얼굴 재구성 방법을 이용하여 실제 얼굴 또는 자신의 선호도에 기반하여 가상 얼굴 3차원 모델을 구축할 수 있다. 여기서, 인물 이미지 내의 실제 얼굴에 기초하여 얼굴을 재구성할 경우, 일반적으로 먼저 인물 이미지 내의 실제 얼굴에 대해 특징 추출을 수행하여 얼굴 윤곽 특징을 얻은 후, 얼굴 윤곽 특징을 미리 생성된 가상 3차원 모델 중의 특징과 매칭시키고, 매칭 결과에 기반하여 얼굴 윤곽 특징을 가상 3차원 모델과 융합하여 인물 이미지 내의 실제 얼굴에 대응하는 가상 얼굴 3차원 모델을 획득한다. 얼굴 윤곽 특징을 미리 생성된 가상 3차원 모델 중의 특징과 매칭시킬 경우, 매칭 정확도가 낮기에, 가상 3차원 모델과 얼굴 윤곽 특징 사이의 매칭 오차가 크며, 매칭 결과에 따라 얼굴 윤곽 특징을 얼굴 가상 3차원 모델과 융합하여 얻은 가상 얼굴 3차원 모델과 인물 이미지의 얼굴의 유사도가 낮은 문제를 쉽게 초래한다. According to research, the face reconstruction method can be used to build a virtual face 3D model based on a real face or one's own preferences. Here, when a face is reconstructed based on a real face in a person image, in general, first, feature extraction is performed on an actual face in the person image to obtain facial contour features, and then facial contour features are added to the pre-generated virtual 3D model. A virtual face 3D model corresponding to the real face in the person image is obtained by matching the features and fusing the facial contour features with the virtual 3D model based on the matching result. When matching facial contour features with features in the pre-generated virtual 3D model, the matching accuracy is low, so the matching error between the virtual 3D model and the facial contour features is large. The low similarity between the virtual face 3D model obtained by fusion with the 3D model and the face of the person image easily causes a problem.

이상 해결수단에 존재하는 결함을 감안하여, 본 발명의 실시예는 얼굴 재구성 방법을 제공하는 바, 기설정된 스타일을 갖고 또한 제1 실제 얼굴 모델에 대응하는 원본 얼굴의 특징을 구비하는 타깃 가상 얼굴 모델을 생성할 수 있으며, 상기 타깃 가상 얼굴 모델은, 원본 얼굴의 살찌거나 마른 특징을 나타낼 수 있고, 제1 실제 얼굴 모델에 대응하는 원본 얼굴과 높은 유사도를 구비한다.In view of the deficiencies present in the above-mentioned means, an embodiment of the present invention provides a face reconstruction method, a target virtual face model having a preset style and having features of an original face corresponding to the first real face model may be generated, and the target virtual face model may represent fat or thin features of the original face, and has a high degree of similarity to the original face corresponding to the first real face model.

본 실시예에 대한 이해를 용이하게 하기 위하여, 먼저 본 발명의 실시예에 개시되는 얼굴 재구성 방법을 상세하게 소개하는 바, 본 발명의 실시예에서 제공하는 얼굴 재구성 방법의 수행 주체는 일반적으로 일정한 계산 능력을 구비한 컴퓨터 기기로서, 상기 컴퓨터 기기는 단말 기기 또는 서버 또는 다른 처리 기기를 포함하고, 단말 기기는 이용자 장비(User Equipment, UE), 모바일 기기, 이용자 단말, 단말, 셀룰러 폰, 무선 전화, 개인용 정보 단말기(Personal Digital Assistant, PDA), 핸드헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다. 일부 가능한 구현 방식에서, 상기 얼굴 재구성 방법은 프로세서가 메모리에 저장된 컴퓨터 판독 가능 명령을 호출하는 방식으로 구현될 수 있다. In order to facilitate understanding of the present embodiment, the face reconstruction method disclosed in the embodiment of the present invention is first introduced in detail, and the subject performing the face reconstruction method provided in the embodiment of the present invention generally performs a certain calculation. A computer device with a capability, the computer device including a terminal device or a server or other processing device, the terminal device including a user equipment (UE), a mobile device, a user terminal, a terminal, a cellular phone, a wireless telephone, It may be a personal digital assistant (PDA), a handheld device, a computing device, an in-vehicle device, a wearable device, and the like. In some possible implementation manners, the face reconstruction method may be implemented in such a way that the processor invokes computer readable instructions stored in a memory.

이하 본 발명의 실시예에서 제공하는 얼굴 재구성 방법을 설명한다. Hereinafter, a face reconstruction method provided in an embodiment of the present invention will be described.

도 1은 본 발명의 실시예에서 제공하는 얼굴 재구성 방법의 흐름도로서, 도 1에 도시된 바와 같이, 상기 방법은 단계S101 내지 단계S104를 포함한다. 1 is a flowchart of a face reconstruction method provided in an embodiment of the present invention. As shown in FIG. 1 , the method includes steps S101 to S104.

S101: 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성한다. S101: Create a first real face model based on the target image.

S102: 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는다. S102: Fit the first real face model by using the plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models.

S103: 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성한다. 여기서, 타깃 피부 변형 계수는 미리 생성된 표준 가상 얼굴 모델의 표준 피부 데이터에 대한 생성할 타깃 얼굴 모델의 피부 데이터의 변형을 나타낼 수 있다. S103: Generate target skeleton data and target skin deformation coefficients based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models do. Here, the target skin deformation coefficient may indicate a deformation of the skin data of the target face model to be generated with respect to the standard skin data of the pre-generated standard virtual face model.

S104: 타깃 골격 데이터 및 타깃 피부 변형 계수에 기반하여 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성한다. S104: Generate a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient.

본 발명의 실시예는 얼굴 재구성 방법을 제공하는 바, 피팅 계수를 매개로 이용하여 복수의 제2 실제 얼굴 모델과 제1 실제 얼굴 모델 사이의 관련 관계를 구축하고, 상기 관련 관계는 제2 실제 얼굴 모델에 기초하여 구축된 가상 얼굴 모델, 및 제1 실제 얼굴 모델에 기초하여 구축된 타깃 가상 얼굴 모델 사이의 관련을 특성화할 수 있는 동시에, 타깃 피부 변형 계수를 통해 타깃 이미지 내의 얼굴 피부 변형의 특징, 예컨대 골격이 동일한 경우 존재하는 살찌거나 마른 차이를 특성화하여, 피팅 계수, 및 가상 얼굴 모델에 기초하여 타깃 가상 얼굴 모델을 생성하며, 상기 타깃 가상 얼굴 모델은 기설정된 스타일을 구비할 뿐만 아니라 제1 실제 얼굴 모델에 대응하는 원본 얼굴의 특징을 구비하고, 또한 원본 얼굴의 살찌거나 마른 특징을 더 나타낼 수 있으며, 생성된 타깃 가상 얼굴 모델과 제1 실제 얼굴 모델에 대응하는 원본 얼굴은 높은 유사도를 구비한다. An embodiment of the present invention provides a face reconstruction method, wherein a relation between a plurality of second real face models and a first real face model is established using a fitting coefficient as a medium, and the relation is a second real face model. Characterizing the relationship between the virtual face model built on the basis of the model, and the target virtual face model built on the basis of the first real face model, while at the same time being able to characterize the facial skin deformation in the target image through the target skin deformation coefficient; For example, when the skeleton is the same, the difference between fat and thin is characterized, and a target virtual face model is generated based on the fitting coefficient and the virtual face model, wherein the target virtual face model has a preset style as well as a first real face model. The original facial features corresponding to the face model may be provided, and the fat or thin features of the original face may be further represented, and the generated target virtual face model and the original face corresponding to the first real face model have a high degree of similarity. .

이하 상기 단계S101 내지 단계S104를 상세하게 설명한다. Hereinafter, the steps S101 to S104 will be described in detail.

상기 단계S101에서, 타깃 이미지는 예컨대 얼굴을 포함하는 획득된 이미지, 예를 들어, 카메라 등과 같은 촬영 기기를 이용하여 특정 객체를 촬영 시 획득된 얼굴을 포함하는 이미지이다. 이때, 예를 들어 이미지에 포함된 임의의 얼굴을 원본 얼굴로 결정할 수 있고, 또한 원본 얼굴을 얼굴 재구성 객체로 이용할 수 있다. In step S101, the target image is, for example, an acquired image including a face, for example, an image including a face acquired when photographing a specific object using a photographing device such as a camera. In this case, for example, an arbitrary face included in the image may be determined as the original face, and the original face may be used as a face reconstruction object.

본 발명의 실시예에서 제공하는 얼굴 재구성 방법을 상이한 장면에 적용할 경우, 타깃 이미지의 획득 방법도 상이하다. When the face reconstruction method provided in the embodiment of the present invention is applied to different scenes, the method of acquiring the target image is also different.

예를 들어, 상기 얼굴 재구성 방법을 게임에 적용할 경우, 게임 기기에 장착된 이미지 획득 기기를 통해 게임 플레이어의 얼굴을 포함하는 이미지를 획득할 수 있거나, 게임 기기의 사진첩에서 게임 플레이어의 얼굴을 포함하는 이미지를 선택할 수 있고, 획득된 게임 플레이어의 얼굴을 포함하는 이미지를 타깃 이미지로 이용한다. For example, when the face reconstruction method is applied to a game, an image including the game player's face may be acquired through an image acquisition device mounted on the game device, or the game player's face may be included in the game device's photo album. image can be selected, and the obtained image including the face of the game player is used as the target image.

또 예를 들어, 얼굴 재구성 방법을 휴대폰 등과 같은 단말 기기에 적용할 경우, 단말 기기의 카메라를 통해 이용자의 얼굴을 포함하는 이미지를 수집하거나, 또는 단말 기기의 사진첩에서 이용자의 얼굴을 포함하는 이미지를 선택하거나, 단말 기기에 설치된 다른 응용 프로그램에서 이용자의 얼굴을 포함하는 이미지를 수신할 수 있다. Also, for example, when the face reconstruction method is applied to a terminal device such as a mobile phone, an image including the user's face is collected through the camera of the terminal device, or an image including the user's face is collected from the photo album of the terminal device. Alternatively, an image including the user's face may be received from another application program installed on the terminal device.

또 예를 들어, 얼굴 재구성 방법을 라이브 장면에 적용할 경우, 라이브 기기에 의해 획득된 비디오 스트림에 포함된 멀티 프레임의 비디오 프레임 이미지로부터 얼굴을 포함하는 비디오 프레임 이미지를 획득할 수 있고; 얼굴을 포함하는 비디오 프레임 이미지를 타깃 이미지로 이용할 수 있다. 여기서, 타깃 이미지는 예를 들어 멀티프레임일 수 있고; 멀티 프레임 타깃 이미지는 예를 들어 비디오 스트림을 샘플링하여 획득될 수 있다. Also, for example, when the face reconstruction method is applied to a live scene, a video frame image including a face may be obtained from a multi-frame video frame image included in a video stream obtained by a live device; A video frame image including a face may be used as a target image. Here, the target image may be, for example, multi-frame; A multi-frame target image may be obtained, for example, by sampling a video stream.

타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성할 경우, 예를 들어 하기 방식을 이용할 수 있다. 원본 얼굴을 포함한 타깃 이미지를 획득하고; 타깃 이미지에 포함된 원본 얼굴에 대해 3차원 얼굴 재구성을 수행하여 제1 실제 얼굴 모델을 얻는다. When generating the first real face model based on the target image, for example, the following method may be used. acquire a target image including the original face; A first real face model is obtained by performing 3D face reconstruction on the original face included in the target image.

여기서, 타깃 이미지에 포함된 원본 얼굴에 대해 3차원 얼굴 재구성을 수행할 경우, 예를 들어 3차원 얼굴 변형 가능한 얼굴 모델(3 Dimensions Morphable Models, 3DMM)을 이용하여 원본 얼굴에 대응하는 제1 실제 얼굴 모델을 얻을 수 있다. 여기서, 제1 실제 얼굴 모델은 예를 들어 타깃 이미지의 원본 얼굴의 복수의 키 포인트 중 각각의 키 포인트의 기설정된 카메라 좌표계에서의 위치 정보를 포함한다. Here, when 3D face reconstruction is performed on the original face included in the target image, the first real face corresponding to the original face is performed using, for example, 3 Dimensions Morphable Models (3DMM). model can be obtained. Here, the first real face model includes, for example, location information of each key point among a plurality of key points of the original face of the target image in a preset camera coordinate system.

상기 단계S102에서, 제2 실제 얼굴 모델은 참조 얼굴을 포함하는 참조 이미지에 기반하여 생성된 것이다. 여기서, 상이한 참조 이미지 내의 참조 얼굴은 상이할 수 있고; 예시적으로, 성별, 연령, 피부색, 살찌거나 마른 정도 등 중 적어도 하나가 상이한 복수 사람을 선택할 수 있으며, 복수 사람 중 매 사람에 대해, 매 사람의 얼굴 이미지를 획득하고, 획득된 얼굴 이미지를 참조 이미지로 이용한다. 이와 같이, 복수의 참조 이미지에 기초하여 획득된 복수의 제2 실제 얼굴 모델은 광범위한 얼굴 외형 특징을 최대한 커버할 수 있다. In step S102, the second real face model is generated based on the reference image including the reference face. Here, reference faces in different reference images may be different; Illustratively, a plurality of people having different at least one of gender, age, skin color, fatness or thinness, etc. may be selected, for each person among the plurality of people, obtain a face image of each person, and refer to the obtained face image use as an image. In this way, the plurality of second real face models obtained based on the plurality of reference images may cover a wide range of facial appearance features as much as possible.

여기서, 참조 얼굴은 예를 들어 N개의 상이한 객체에 대응하는 얼굴을 포함한다(N은 1보다 큰 정수). 예시적으로, N개의 상이한 객체를 각각 촬영하여, N개의 상이한 객체에 각각 대응하는 N개의 픽처를 얻을 수 있고, 각각의 픽처는 모두 하나의 참조 얼굴에 대응된다. 이때, 이 N개의 픽처를 N개의 참조 이미지로 이용하거나; 또는, 상이한 얼굴을 포함하는 미리 촬영된 복수의 이미지 중에서 N개의 참조 이미지를 결정할 수 있다. Here, the reference face includes, for example, faces corresponding to N different objects (N being an integer greater than 1). Illustratively, by photographing each of N different objects, N pictures respectively corresponding to the N different objects may be obtained, and each picture corresponds to one reference face. In this case, the N pictures are used as N reference images; Alternatively, N reference images may be determined from among a plurality of pre-photographed images including different faces.

예시적으로, 복수의 제2 실제 얼굴 모델을 생성하는 방법은, 참조 얼굴을 포함한 복수의 참조 이미지를 획득하는 단계; 및 복수의 참조 이미지 중의 각각의 참조 이미지에 대해 상기 참조 이미지에 포함된 참조 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 참조 이미지에 대응하는 제2 실제 얼굴 모델을 얻는 단계를 포함한다. Illustratively, the method for generating a plurality of second real face models may include: acquiring a plurality of reference images including reference faces; and performing three-dimensional face reconstruction on a reference face included in the reference image for each reference image among the plurality of reference images to obtain a second real face model corresponding to the reference image.

여기서, 참조 얼굴에 대해 3차원 얼굴 재구성을 수행하는 방법은 원본 얼굴에 대해 3차원 얼굴 재구성을 수행하는 상기 방법과 유사하므로 여기서 더 이상 반복하지 않는다. 얻은 제2 실제 얼굴 모델은, 참조 이미지 내의 참조 얼굴의 복수의 키 포인트 중 각각의 키 포인트가 기설정된 카메라 좌표계에서의 위치 정보를 포함한다. 이때, 상기 제2 실제 얼굴 모델의 좌표계와 제1 실제 얼굴 모델의 좌표계는 동일한 좌표계일 수 있다. Here, since the method of performing 3D face reconstruction on the reference face is similar to the above method of performing 3D face reconstruction on the original face, it is not repeated here any longer. The obtained second real face model includes position information of each key point among a plurality of key points of the reference face in the reference image in a preset camera coordinate system. In this case, the coordinate system of the second real face model and the coordinate system of the first real face model may be the same coordinate system.

미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 복수의 피팅 계수를 얻는 단계는, 예컨대 하기 방식을 이용하여 구현될 수 있다: 복수의 제2 실제 얼굴 모델 및 제1 실제 얼굴 모델을 최소 제곱 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는다. The step of obtaining a plurality of fitting coefficients corresponding to each of the plurality of second real face models by fitting the first real face model using the plurality of second real face models generated in advance may be implemented using, for example, the following method. may: the plurality of second real face models and the first real face model are subjected to least squares processing to obtain fitting coefficients corresponding to each of the plurality of second real face models.

예시적으로, 제1 실제 얼굴 모델에 대응하는 모델 데이터를

Figure pct00001
로 표시할 수 있고, 제2 실제 얼굴 모델에 대응하는 모델 데이터를
Figure pct00002
로 표시할 수 있으며, 여기서,
Figure pct00003
로 N개의 제2 실제 얼굴 모델 중의 i번째 제2 실제 얼굴 모델을 표시한다. Illustratively, the model data corresponding to the first real face model
Figure pct00001
can be expressed as , and model data corresponding to the second real face model
Figure pct00002
can be expressed as, where
Figure pct00003
represents the i-th second real face model among the N second real face models.

Figure pct00004
를 이용하여
Figure pct00005
내지
Figure pct00006
중 각 항을 최소 제곱 처리하여 N개의 피팅값을 얻을 수 있고, 상기 피팅값을
Figure pct00007
로 나타낸다. 여기서,
Figure pct00008
는 i번째 제2 실제 얼굴 모델에 대응하는 피팅값을 특성화한다. N개의 피팅값을 이용하여 피팅 계수 Alpha를 결정할 수 있는 바, 예를 들어 계수 행렬을 이용하여 표시할 수 있다.
Figure pct00004
using
Figure pct00005
inside
Figure pct00006
N fitting values can be obtained by performing least squares processing on each term, and the fitting values are
Figure pct00007
is indicated by here,
Figure pct00008
characterizes a fitting value corresponding to the i-th second real face model. The fitting coefficient Alpha may be determined using N fitting values, and may be displayed using, for example, a coefficient matrix.

Figure pct00009
Figure pct00009

여기서, 복수의 제2 실제 얼굴 모델을 통해 제1 실제 얼굴 모델을 피팅하는 과정에서, 복수의 피팅 계수를 통해 복수의 제2 실제 얼굴 모델을 가중 합산한 후 얻은 데이터는 제1 실제 얼굴 모델의 데이터와 최대한 근접할 수 있다. Here, in the process of fitting the first real face model through the plurality of second real face models, data obtained after weighting and summing the plurality of second real face models through the plurality of fitting coefficients is the data of the first real face model can be as close as possible to

상기 피팅 계수는 또한 복수의 제2 실제 얼굴 모델을 이용하여 제1 실제 얼굴 모델을 표현할 경우 각각의 제2 실제 얼굴 모델의 표현 계수로 간주될 수도 있다. 즉 복수의 제2 실제 얼굴 모델 각각의 표현 계수에서의 대응하는 복수의 피팅값을 이용하여 제2 실제 얼굴 모델을 제1 실제 얼굴 모델로 변환하여 피팅할 수 있다. The fitting coefficient may also be regarded as an expression coefficient of each second real face model when the first real face model is expressed using a plurality of second real face models. That is, the second real face model may be converted into the first real face model and fitted using a plurality of fitting values corresponding to the respective expression coefficients of the plurality of second real face models.

상기 단계S103에서, 기설정된 스타일은 예를 들어 카툰 스타일, 고대 스타일 또는 추상 스타일 등일 수 있고, 실제 수요에 기반하여 구체적으로 설정할 수 있다. 예시적으로, 기설정된 스타일이 카툰 스타일인 경우, 기설정된 스타일을 구비하는 가상 얼굴 모델은 예를 들어 특정 만화 스타일을 구비하는 가상 얼굴 모델일 수 있다. In step S103, the preset style may be, for example, a cartoon style, an ancient style, or an abstract style, and may be specifically set based on actual demand. For example, when the preset style is a cartoon style, the virtual face model having the preset style may be, for example, a virtual face model having a specific cartoon style.

여기서, 가상 얼굴 모델은 골격 데이터, 및 피부 데이터 및/또는 피부 변형 계수를 포함할 수 있다. 피부 변형 계수는 미리 생성된 표준 가상 얼굴 모델의 표준 피부 데이터에 대한 가상 얼굴 모델의 피부 데이터의 변형일 수 있다. Here, the virtual face model may include skeletal data, and skin data and/or skin deformation coefficients. The skin deformation coefficient may be a transformation of skin data of the virtual face model with respect to the standard skin data of the standard virtual face model generated in advance.

도 2를 참조하면, 본 발명의 실시예는 상기 복수의 제2 실제 얼굴 모델 중 각각의 제2 실제 얼굴 모델에 대하여, 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델을 생성하는 구체적인 방법을 제공하는 바, 이는 다음과 같은 단계를 포함한다: Referring to FIG. 2 , an embodiment of the present invention provides a virtual face model having a preset style corresponding to the second real face model for each second real face model among the plurality of second real face models. A specific method for generating is provided, comprising the following steps:

S201: 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 중간 가상 얼굴 모델을 생성한다. S201: Create an intermediate virtual face model having a preset style corresponding to the second real face model.

여기서, 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 중간 가상 얼굴 모델을 생성하는 방법은 예를 들어 하기 (a1) 및 (a2) 중 적어도 하나를 포함한다. Here, the method of generating an intermediate virtual face model having a preset style corresponding to the second real face model includes, for example, at least one of the following (a1) and (a2).

(a1) 참조 이미지에 기초하여 참조 얼굴 특징, 및 기설정된 스타일을 구비하는 가상 얼굴 이미지를 제조하고, 가상 얼굴 이미지 내의 가상 얼굴을 3차원 모델링하여 가상 얼굴 이미지 내의 가상 얼굴의 골격 데이터 및 피부 데이터를 얻을 수 있다. (a1) Based on the reference image, a virtual face image having reference facial features and a preset style is manufactured, and the virtual face in the virtual face image is 3D modeled to obtain skeletal data and skin data of the virtual face in the virtual face image can be obtained

여기서, 골격 데이터는 가상 얼굴에 기설정된 복수의 골격의 기설정된 좌표계에서의 골격 회전 데이터, 골격 스케일링 데이터, 및 골격 위치 데이터를 포함한다. 여기서, 복수의 골격을 예를 들어 복수 계층으로 나눌 수 있는 바; 예를 들어 루트(root) 골격, 얼굴 골격 및 얼굴 세부 골격을 포함하고; 여기서 얼굴 골격은 눈썹 골격, 코 골격, 광대 골격, 하악 골격 및 입 골격 등을 포함할 수 있으며; 얼굴 세부 골격은 예를 들어 상이한 얼굴 골격을 추가로 상세하게 나눌 수 있다. 상이한 스타일의 가상 이미지 수요에 기반하여 구체적으로 설정할 수 있고, 이에 한정되지 않는다. Here, the skeleton data includes skeleton rotation data, skeleton scaling data, and skeleton position data in a preset coordinate system of a plurality of skeletons preset in the virtual face. Here, a plurality of skeletons can be divided into, for example, a plurality of layers; including, for example, a root skeleton, a facial skeleton, and a facial detail skeleton; Here, the facial skeleton may include an eyebrow skeleton, a nose skeleton, a cheek skeleton, a mandible skeleton, and a mouth skeleton; The facial sub-skeleton may further subdivide, for example, different facial skeletons. It may be specifically set based on different styles of virtual image demands, but is not limited thereto.

피부 데이터는 가상 얼굴의 표면 중 복수의 위치점의 기설정된 모델 좌표계에서의 위치 정보, 및 각각의 위치점과 복수의 골격 중 적어도 하나의 골격의 관련 관계 정보를 포함한다. 여기서, 상기 모델 좌표계는 가상 얼굴 모델에 대해 구축한 3차원 좌표계이다. The skin data includes position information of a plurality of position points on the surface of the virtual face in a preset model coordinate system, and related relationship information between each position point and at least one skeleton among the plurality of skeletons. Here, the model coordinate system is a three-dimensional coordinate system constructed for the virtual face model.

가상 얼굴 이미지 내의 가상 얼굴을 3차원 모델링하여 얻은 가상 모델을 제2 실제 얼굴 모델에 대응하는 중간 가상 얼굴 모델로 이용한다. A virtual model obtained by 3-D modeling a virtual face in the virtual face image is used as an intermediate virtual face model corresponding to the second real face model.

(a2) 기설정된 스타일을 구비하는 표준 가상 얼굴 모델을 미리 생성한다. 상기 표준 가상 얼굴 모델은 마찬가지로 표준 골격 데이터, 표준 피부 데이터, 및 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계를 포함한다. 복수의 참조 이미지 중의 각각의 참조 이미지에 대응하는 참조 얼굴의 얼굴 특징에 기반하여 표준 가상 얼굴 모델의 표준 골격 데이터를 조정하여, 조정된 표준 가상 얼굴 모델이 기설정된 스타일을 구비하는 동시에, 참조 이미지 내의 참조 얼굴의 특징을 더 포함하도록 하고; 다음, 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계에 기반하여 표준 피부 데이터를 조정하는 동시에, 표준 피부 데이터에 참조 얼굴이 구비하는 특징 정보를 추가할 수도 있으며, 수정된 표준 골격 데이터 및 수정된 표준 피부 데이터에 기반하여 제2 실제 얼굴 모델에 대응하는 중간 가상 얼굴 모델을 생성한다.(a2) A standard virtual face model having a preset style is generated in advance. The standard virtual face model likewise includes standard skeletal data, standard skin data, and related relationships between standard skeletal data and standard skin data. The standard skeletal data of the standard virtual face model is adjusted based on the facial features of the reference face corresponding to each reference image among the plurality of reference images, so that the adjusted standard virtual face model has a preset style, and at the same time, within the reference image. to further include features of the reference face; Next, the standard skin data may be adjusted based on the relation between the standard skeletal data and the standard skin data, and feature information of the reference face may be added to the standard skin data, and the modified standard skeletal data and the modified standard An intermediate virtual face model corresponding to the second real face model is generated based on the skin data.

여기서, 중간 가상 얼굴 모델의 구체적인 데이터 표시는 상기 (a1)의 설명을 참조할 수 있고, 여기서 더 이상 반복하지 않는다. Here, for the specific data display of the intermediate virtual face model, reference may be made to the description of (a1) above, which will not be repeated any longer.

S202: 표준 가상 얼굴 모델에 대한 복수 그룹의 기설정된 피부 변형 계수에 기반하여 표준 가상 얼굴 모델에 대한 상기 제2 실제 얼굴 모델에 대응하는 가상 얼굴 모델의 피부 변형 계수를 생성한다. S202: Generate skin deformation coefficients of the virtual face model corresponding to the second real face model for the standard virtual face model based on a plurality of groups of preset skin deformation coefficients for the standard virtual face model.

여기서, 표준 가상 얼굴 모델에 대해, 생성된 복수 그룹의 피부 변형 계수는, 표준 가상 얼굴 모델의 골격이 변경되지 않는 경우 단지 표준 가상 얼굴 모델의 표준 피부 데이터 중 광대뼈와 같은 표준 가상 얼굴 모델을 특성화하는 구체적인 위치에 대응하는 적어도 일부 위치점을 조정한 조정 계수이다. Here, for the standard virtual face model, the generated skin deformation coefficients of a plurality of groups are used only to characterize the standard virtual face model such as cheekbones among the standard skin data of the standard virtual face model when the skeleton of the standard virtual face model is not changed. It is an adjustment coefficient obtained by adjusting at least some position points corresponding to specific positions.

여기서, 매 그룹의 피부 변형 계수는 표준 피부 데이터 중 적어도 일부 위치점의 모델 좌표계에서의 위치를 조정한 결과를 특성화하여, 표준 가상 얼굴 모델 중 조정된 위치점에 대응하는 부위로 하여금 살찌거나 마른 효과를 나타내도록 한다. Here, the skin deformation coefficient of each group characterizes the result of adjusting the position of at least some position point in the standard skin data in the model coordinate system, and causes the part corresponding to the adjusted position point in the standard virtual face model to become fat or thin to indicate

복수 그룹의 기설정된 피부 데이터를 통해 참조 얼굴에 대응하는 피부 변형 계수를 조합할 경우, 예를 들어 복수 그룹의 기설정된 피부 데이터를 피팅하여, 피팅된 결과가 참조 얼굴의 얼굴 형상과 유사하도록 한다. When combining skin deformation coefficients corresponding to a reference face through a plurality of groups of preset skin data, for example, by fitting a plurality of groups of preset skin data, the fitted result is similar to the facial shape of the reference face.

S203: 피부 변형 계수를 이용하여 중간 가상 얼굴 모델 중의 중간 피부 데이터를 조정하고, 조정된 중간 피부 데이터, 및 중간 가상 얼굴 모델의 중간 골격 데이터에 기반하여 상기 제2 실제 얼굴 모델에 대응하는 가상 얼굴 모델을 생성한다. S203: Adjust the intermediate skin data in the intermediate virtual face model by using the skin deformation coefficient, and a virtual face model corresponding to the second real face model based on the adjusted intermediate skin data and the intermediate skeletal data of the intermediate virtual face model. create

예를 들어, 가능한 실시형태에서, R그룹의 기설정된 피부 변형 계수

Figure pct00010
를 획득할 수 있고; 여기서, 각각의 그룹의 기설정된 피부 변형 계수에는 피부 데이터 중 복수의 위치점에 각각 대응하는 변형 계수값이 포함된다. 예시적으로, 피부 데이터에 W개의 위치점이 있고, 각각의 위치점은 모두 하나의 변형 계수값에 대응하면, R그룹의 기설정된 피부 변형 계수의 각각의 피부 변형 계수의 차원은 W이다. For example, in a possible embodiment, the predetermined skin modification coefficient of the R group
Figure pct00010
can be obtained; Here, the predetermined skin deformation coefficient of each group includes deformation coefficient values respectively corresponding to a plurality of location points in the skin data. Exemplarily, if there are W location points in the skin data, and each location point all corresponds to one deformation coefficient value, the dimension of each skin deformation coefficient of the preset skin deformation coefficient of the R group is W.

여기서,

Figure pct00011
를 이용하여 i번째 그룹의 기설정된 피부 변형 계수를 나타낸다. R그룹의 기설정된 피부 변형 계수를 이용하여 표준 가상 얼굴 모델의 살찌거나 마른 정도를 수정하여 살찌거나 마른 특징을 조정한 R개의 표준 가상 얼굴 모델을 획득할 수 있다. here,
Figure pct00011
is used to represent the preset skin deformation coefficient of the i-th group. R standard virtual face models in which fatness or thin features are adjusted may be obtained by correcting the degree of fatness or thinness of the standard virtual face model using the preset skin deformation coefficient of the R group.

가상 얼굴 모델을 생성할 경우, R그룹의 기설정된 피부 변형 계수

Figure pct00012
를 조합하여 가상 얼굴 모델의 피부 변형 계수를 얻을 수 있다. 여기서, 예를 들어 상이한 기설정된 피부 변형 계수에 대응하는 가중치를 추가할 수 있고, 상기 가중치를 이용하여 R그룹의 기설정된 피부 변형 계수를 가중 합산하여 특정 가상 얼굴 모델의 피부 변형 계수를 얻는다. When creating a virtual face model, the pre-set skin deformation coefficient of the R group
Figure pct00012
can be combined to obtain the skin deformation coefficient of the virtual face model. Here, for example, weights corresponding to different preset skin deformation coefficients may be added, and the skin deformation coefficients of a specific virtual face model are obtained by weighted summing the preset skin deformation coefficients of the R group using the weights.

예시적으로, N개의 제2 실제 얼굴 모델을 미리 생성하고, 또한 R그룹의 기설정된 피부 변형 계수를 획득할 경우, i번째 실제 얼굴의 피부 변형 계수

Figure pct00013
의 차원은 R×W이다. N개의 제2 실제 얼굴 모델 각각에 대응하는 피부 변형 계수는, 차원이 N×R×W인 행렬을 구성할 수 있고; 상기 행렬에는 N개의 제2 실제 얼굴 모델 각각에 대응하는 가상 얼굴 모델의 피부 변형 계수를 포함한다. Exemplarily, when the N second real face models are generated in advance and a preset skin deformation coefficient of the R group is obtained, the skin deformation coefficient of the i-th real face is obtained.
Figure pct00013
The dimension of is R×W. The skin deformation coefficients corresponding to each of the N second real face models may constitute a matrix having a dimension of N×R×W; The matrix includes skin deformation coefficients of the virtual face model corresponding to each of the N second real face models.

이 외에, 피부 변형 계수를 이용하여 중간 가상 얼굴 모델 중의 피부 데이터를 조정할 경우, 또한 중간 가상 얼굴 모델의 골격 데이터를 미세 조정하고, 생성된 가상 얼굴 모델의 얼굴의 세부 특징을 최적화하여 생성된 가상 얼굴 모델로 하여금 참조 얼굴과 더 높은 유사도를 갖도록 한다. In addition, when the skin data in the intermediate virtual face model is adjusted using the skin deformation coefficient, the virtual face generated by fine-tuning the skeletal data of the intermediate virtual face model and optimizing the detailed facial features of the generated virtual face model Let the model have a higher degree of similarity to the reference face.

N개의 제2 실제 얼굴 모델 각각에 대응하는 가상 얼굴 모델을 얻은 후, N개의 가상 얼굴 모델 및 대응하는 피팅 계수를 이용하여 타깃 가상 얼굴 모델을 피팅하고, 타깃 골격 데이터 및 타깃 피부 변형 데이터를 생성할 수 있다. After obtaining a virtual face model corresponding to each of the N second real face models, the target virtual face model is fitted using the N virtual face models and corresponding fitting coefficients, and target skeleton data and target skin deformation data are generated. can

구체적으로, 타깃 가상 얼굴 모델은 타깃 골격 데이터, 및 타깃 피부 데이터를 포함하되; 여기서 타깃 피부 데이터는 타깃 골격 데이터, 및 타깃 가상 얼굴 모델의 타깃 피부 변형 데이터에 기반하여 결정된 것이다. Specifically, the target virtual face model includes target skeletal data and target skin data; Here, the target skin data is determined based on the target skeleton data and the target skin deformation data of the target virtual face model.

본 발명의 실시예에서 복수의 제2 실제 얼굴 모델에 대응하는 피팅 계수, 및 복수의 가상 얼굴 모델 각각에 대응하는 골격 데이터에 기반하여 타깃 골격 데이터를 얻을 경우, 예를 들어 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 복수의 가상 얼굴 모델 각각에 대응하는 골격 데이터를 보간 처리하여 타깃 골격 데이터를 얻는다. In an embodiment of the present invention, when target skeleton data is obtained based on fitting coefficients corresponding to a plurality of second real face models and skeleton data corresponding to each of a plurality of virtual face models, for example, a plurality of second real faces Target bone data is obtained by interpolating the bone data corresponding to each of the plurality of virtual face models based on the fitting coefficients corresponding to the respective models.

여기서, 가상 얼굴 모델에 대응하는 골격 데이터는 가상 얼굴의 복수의 얼굴 골격 중 각각의 얼굴 골격에 대응하는 골격 회전 데이터, 골격 위치 데이터 및 골격 스케일링 데이터 중 적어도 하나를 포함한다. 얻은 타깃 골격 데이터는 타깃 골격 위치 데이터, 타깃 골격 스케일링 데이터, 및 타깃 골격 회전 데이터 중 적어도 하나를 포함한다. Here, the skeletal data corresponding to the virtual face model includes at least one of skeletal rotation data, skeletal position data, and skeletal scaling data corresponding to each facial skeleton among a plurality of facial skeletons of the virtual face. The obtained target skeletal data includes at least one of target skeletal position data, target skeletal scaling data, and target skeletal rotation data.

예시적으로, 복수의 제2 실제 얼굴 모델에 대응하는 피팅 계수에 기반하여 복수의 가상 얼굴 모델 각각에 대응하는 골격 데이터를 보간 처리하여 타깃 골격 데이터를 얻을 경우, 예를 들어 하기 (b1) 내지 (b3) 중 적어도 하나를 포함한다.Exemplarily, when the target skeleton data is obtained by interpolating the skeleton data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to the plurality of second real face models, for example, the following (b1) to ( b3);

(b1) 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 복수의 가상 얼굴 모델 각각에 대응하는 골격 위치 데이터를 보간 처리하여 타깃 골격 위치 데이터를 얻는다. (b1) Based on the fitting coefficients corresponding to each of the plurality of second real face models, the target skeleton position data is obtained by interpolating the skeleton position data corresponding to each of the plurality of virtual face models.

(b2) 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 복수의 가상 얼굴 모델 각각에 대응하는 골격 스케일링 데이터를 보간 처리하여 타깃 골격 스케일링 데이터를 얻는다. (b2) Based on the fitting coefficients corresponding to each of the plurality of second real face models, the skeletal scaling data corresponding to each of the plurality of virtual face models is interpolated to obtain target skeletal scaling data.

(b3) 복수의 가상 얼굴 모델 각각에 대응하는 골격 회전 데이터를 사원수로 변환하고, 얻은 사원수를 정규화 처리하여 정규화된 사원수를 얻고; 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 복수의 가상 얼굴 모델 각각에 대응하는 정규화된 사원수를 보간 처리하여 타깃 골격 회전 데이터를 얻는다. (b3) converting skeletal rotation data corresponding to each of the plurality of virtual face models into quaternions, and normalizing the obtained quaternions to obtain normalized quaternions; Based on the fitting coefficients corresponding to each of the plurality of second real face models, normalized quaternions corresponding to each of the plurality of virtual face models are interpolated to obtain target skeleton rotation data.

구체적인 구현에서, 상기 방법(b1) 및 방법(b2)에서, 골격 위치 데이터, 및 골격 스케일링 데이터를 획득할 경우, 복수의 제2 실제 얼굴 모델에 기반하여 각 계층의 골격, 및 각 계층의 골격에 대응하는 국부 좌표계를 결정하는 단계를 더 포함한다. 여기서, 얼굴 모델에 대해 골격의 계층화를 수행하는 경우, 예를 들어 생물학적 골격 계층화 방법에 따라 골격 계층을 직접 결정할 수 있거나, 얼굴 재구성 요구에 기반하여 골격 계층을 결정할 수도 있는바, 구체적인 계층화 방법은 실제 상황에 기반하여 결정될 수 있으며, 여기서 더 이상 반복하지 않는다. In a specific implementation, in the methods (b1) and (b2), when the skeleton position data and the skeleton scaling data are obtained, the skeleton of each layer and the skeleton of each layer are based on the plurality of second real face models. The method further comprises determining a corresponding local coordinate system. Here, when the skeletal stratification is performed on the face model, for example, the skeletal layer may be directly determined according to a biological skeletal stratification method, or the skeletal layer may be determined based on a face reconstruction request. It may be decided on a case-by-case basis, which is not repeated here any further.

각 골격 계층을 결정한 후, 각 골격 계층에 기초하여 각각의 골격 계층에 대응하는 골격 좌표계를 구축할 수 있다. 예시적으로, 각 계층 골격을

Figure pct00014
로 표시할 수 있다. After determining each skeletal layer, a skeletal coordinate system corresponding to each skeletal layer may be constructed based on each skeletal layer. Illustratively, each hierarchical skeleton
Figure pct00014
can be displayed as

이때, 골격 위치 데이터는 가상 얼굴 모델 중의 각 계층 골격

Figure pct00015
가 대응하는 골격 좌표계에서의 3차원 좌표값을 포함할 수 있고; 골격 스케일링 데이터는 가상 얼굴 모델 중의 각 계층 골격
Figure pct00016
각각에 대응하는 골격 좌표계에서 골격 스케일링 정도를 특성화하는 백분율을 포함할 수 있으며, 예를 들어 80%, 90% 또는 100%이다. In this case, the skeletal position data is each hierarchical skeleton in the virtual face model.
Figure pct00015
may include three-dimensional coordinate values in the corresponding skeleton coordinate system; Skeletal scaling data is stored for each hierarchical skeleton in the virtual face model.
Figure pct00016
It may include percentages characterizing the degree of skeleton scaling in the corresponding skeleton coordinate system, for example 80%, 90% or 100%.

가능한 실시형태에서, i번째 가상 얼굴 모델에 대응하는 골격 위치 데이터를

Figure pct00017
로 표시하고, i번째 가상 얼굴 모델에 대응하는 골격 스케일링 데이터를
Figure pct00018
로 표시한다. 이때, 골격 위치 데이터
Figure pct00019
는 복수의 계층 골격 각각에 대응하는 골격 위치 데이터를 포함하고, 골격 스케일링 데이터
Figure pct00020
는 복수의 계층 골격 각각에 대응하는 골격 스케일링 데이터를 포함한다. In a possible embodiment, the skeletal position data corresponding to the i-th virtual face model is
Figure pct00017
, and the skeletal scaling data corresponding to the i-th virtual face model is
Figure pct00018
indicated as At this time, the skeletal position data
Figure pct00019
includes skeleton position data corresponding to each of the plurality of hierarchical skeletons, and skeleton scaling data
Figure pct00020
includes skeleton scaling data corresponding to each of the plurality of hierarchical skeletons.

이때 대응하는 피팅 계수는

Figure pct00021
이다. M개의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 M개의 가상 얼굴 모델 각각에 대응하는 골격 위치 데이터
Figure pct00022
를 보간 처리하여 타깃 골격 위치 데이터를 얻는다. In this case, the corresponding fitting coefficient is
Figure pct00021
to be. Skeletal position data corresponding to each of the M virtual face models based on fitting coefficients corresponding to each of the M second real face models
Figure pct00022
is interpolated to obtain target bone position data.

예시적으로, 예를 들어 피팅 계수를 각각의 가상 얼굴 모델에 대응하는 가중치로 이용하여, M개의 가상 얼굴 모델 각각에 대응하는 골격 위치 데이터

Figure pct00023
를 가중 합산 처리하여 보간 처리를 구현하는 과정일 수 있다. 이때, 타깃 골격 위치 데이터
Figure pct00024
는 하기 공식(1)을 만족한다. Illustratively, for example, by using a fitting coefficient as a weight corresponding to each virtual face model, skeletal position data corresponding to each of the M virtual face models
Figure pct00023
may be a process of implementing interpolation processing by weighted summing processing. At this time, the target bone position data
Figure pct00024
satisfies the following formula (1).

Figure pct00025
(1)
Figure pct00025
(One)

유사하게, M개의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 M개의 가상 얼굴 모델 각각에 대응하는 골격 스케일링 데이터를 보간 처리하여 타깃 골격 스케일링 데이터를 얻되, 여기서, i번째 가상 얼굴 모델에 대응하는 골격 스케일링 데이터를

Figure pct00026
로 표시하고, M개의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 가상 얼굴 모델에 대응하는 가중치로 이용하여, M개의 가상 얼굴 모델 각각에 대응하는 골격 스케일링 데이터를 가중 합산 처리하여 M개의 가상 얼굴 모델에 대한 보간 처리를 구현할 수 있고; 이 경우, 타깃 골격 스케일링 데이터
Figure pct00027
은 하기 공식(2)을 만족한다. Similarly, target skeletal scaling data is obtained by interpolating the skeletal scaling data corresponding to each of the M virtual face models based on the fitting coefficients corresponding to each of the M second real face models, wherein, in the i-th virtual face model, corresponding skeletal scaling data.
Figure pct00026
, and using fitting coefficients corresponding to each of the M second real face models as weights corresponding to the virtual face models, weighted summation of skeletal scaling data corresponding to each of the M virtual face models is performed to form the M virtual faces implement interpolation processing for the model; In this case, the target bone scaling data
Figure pct00027
satisfies the following formula (2).

Figure pct00028
(2)
Figure pct00028
(2)

상기 방법(b3)에서, 골격 회전 데이터는 가상 얼굴 모델 중의 각각의 골격 각각에 대응하는 골격 좌표계에서, 골격의 회전 좌표 변환 정도를 특성화하는 벡터값을 특성화할 수 있는바, 예를 들어, 회전축과 회전각을 포함한다. 가능한 실시형태에서, i번째 가상 얼굴 모델에 대응하는 골격 회전 데이터를

Figure pct00029
로 표시한다. 골격 회전 데이터에 포함된 회전각에 짐벌락의 문제점이 존재하므로, 골격 회전 데이터를 사원수로 변환하고, 사원수를 정규화 처리하며, 정규화된 사원수 데이터를 얻고,
Figure pct00030
로 표시하여, 사원수를 직접 가중 합산 처리할 경우 과적합 현상이 나타나는 것을 방지한다. In the method (b3), the bone rotation data can characterize a vector value characterizing the degree of rotational coordinate transformation of the skeleton in the skeleton coordinate system corresponding to each skeleton in the virtual face model, for example, the rotation axis and Includes rotation angle. In a possible embodiment, the skeletal rotation data corresponding to the i-th virtual face model is
Figure pct00029
indicated as Since there is a problem with the gimbal lock in the rotation angle included in the skeleton rotation data, convert the skeleton rotation data to quaternions, normalize the quaternions, obtain normalized quaternary data,
Figure pct00030
to prevent overfitting when quaternions are directly weighted and summed.

M개의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 M개의 가상 얼굴 모델 각각에 대응하는 정규화 사원수

Figure pct00031
를 보간 처리할 경우, 또한 M개의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 가중치로 이용하여 M개의 가상 얼굴 모델 각각에 대응하는 정규화 사원수를 가중 합산할 수 있고; 이 경우, 타깃 골격 회전 데이터
Figure pct00032
는 하기 공식(3)을 만족한다.A normalized quaternion corresponding to each of the M virtual face models based on the fitting coefficients corresponding to each of the M second real face models.
Figure pct00031
In the case of interpolating , the normalized quaternions corresponding to each of the M virtual face models may be weighted and summed using fitting coefficients corresponding to each of the M second real face models as weights; In this case, the target bone rotation data
Figure pct00032
satisfies the following formula (3).

Figure pct00033
(3)
Figure pct00033
(3)

이 외에, 또한 다른 보간 방법을 이용하여 타깃 골격 위치 데이터

Figure pct00034
, 타깃 골격 스케일링 데이터
Figure pct00035
, 및 타깃 골격 회전 데이터
Figure pct00036
를 얻을 수 있고, 구체적으로 실제 수요에 기반하여 결정할 수 있으며, 본 발명은 한정하지 않는다. In addition to this, also target bone position data using other interpolation methods
Figure pct00034
, target bone scaling data
Figure pct00035
, and target bone rotation data
Figure pct00036
can be obtained, and specifically can be determined based on actual demand, and the present invention is not limited.

상기 (b1), (b2), 및 (b3)에서 얻은 타깃 골격 위치 데이터

Figure pct00037
, 타깃 골격 스케일링 데이터
Figure pct00038
, 및 타깃 골격 회전 데이터
Figure pct00039
에 기반하여 타깃 골격 데이터를 결정할 수 있고,
Figure pct00040
로 표시한다. 예시적으로, 상기 타깃 골격 데이터를 벡터 형식으로 다음과 같이 표시할 수 있다:Target skeleton position data obtained in (b1), (b2), and (b3) above
Figure pct00037
, target bone scaling data
Figure pct00038
, and target bone rotation data
Figure pct00039
to determine target skeletal data based on
Figure pct00040
indicated as Illustratively, the target skeleton data may be displayed in a vector format as follows:

Figure pct00041
Figure pct00041

복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델이 결정된 경우, 타깃 피부 변형 계수를 생성할 경우, 예를 들어 하기 방법을 이용할 수 있다: 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성한다. 여기서, 가상 얼굴 모델의 피부 변형 계수는 미리 생성된 표준 가상 얼굴 모델의 표준 피부 데이터에 대한 가상 얼굴 모델의 피부 데이터의 변형을 표시한다. When a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models is determined, to generate a target skin deformation coefficient, for example For example, the following method may be used: generate the target skin deformation coefficient based on fitting coefficients corresponding to each of the plurality of second real face models and skin deformation coefficients included in each of the plurality of virtual face models. Here, the skin deformation coefficient of the virtual face model indicates a deformation of the skin data of the virtual face model with respect to the standard skin data of the standard virtual face model generated in advance.

도 3을 참조하면, 본 발명의 실시예는 타깃 피부 변형 계수를 얻기 위한 구체적인 방법을 제공하는 바, 다음과 같은 단계를 포함한다:Referring to FIG. 3 , an embodiment of the present invention provides a specific method for obtaining a target skin deformation coefficient, including the following steps:

단계S301: 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 정규화 처리한다. Step S301: Normalizing the fitting coefficients corresponding to each of the plurality of second real face models.

여기서, 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 정규화 처리할 경우, 예를 들어 정규화 함수(Softmax)를 이용하여 확률값을 구할 수 있고, 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수의 복수의 피팅 계수에서의 비율을 특성화하며, 정규화된 피팅 계수를

Figure pct00042
로 설정한다. Here, when the fitting coefficients corresponding to each of the plurality of second real face models are normalized, a probability value can be obtained using, for example, a regularization function (Softmax), and fitting corresponding to each of the plurality of second real face models is normalized. Characterizes the ratio of the coefficients in multiple fitting coefficients, and calculates the normalized fitting coefficients.
Figure pct00042
set to

예시적으로, N개의 제2 실제 얼굴 모델이 있는 경우, 정규화 처리하여 얻은 피팅 계수

Figure pct00043
의 차원은 N이다. Illustratively, if there are N second real face models, fitting coefficients obtained by normalization processing
Figure pct00043
The dimension of is N.

S302: 정규화된 피팅 계수에 기반하여 복수의 가상 얼굴 모델 각각에 포함된 피부 변형 계수를 보간 처리하여 타깃 피부 변형 계수를 얻는다. S302: A target skin deformation coefficient is obtained by interpolating the skin deformation coefficients included in each of the plurality of virtual face models based on the normalized fitting coefficients.

여기서, 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 이용하여 가상 얼굴 모델에 포함된 피부 변형 계수를 각각 피팅하고, 얻은 피팅 결과는 가상 얼굴 모델에 대한 복수의 제2 실제 얼굴 모델의 영향력을 특성화하여, 타깃 피부 변형 계수를 생성할 수 있다. 여기서, 타깃 피부 변형 계수는 예를 들어 얼굴의 살찌거나 마른 정도를 조정하여, 얻은 타깃 가상 얼굴 모델이 타깃 이미지의 얼굴의 살찌거나 마른 특징과 일치하도록 할 수 있다. Here, skin deformation coefficients included in the virtual face model are respectively fitted using fitting coefficients corresponding to each of the plurality of second real face models, and the obtained fitting result is the influence of the plurality of second real face models on the virtual face model. can be characterized to generate a target skin strain coefficient. Here, the target skin deformation coefficient may, for example, adjust the fatness or thinness of the face so that the obtained target virtual face model matches the fattening or thin face of the target image.

예시적으로, 정규화된 상기 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 상기 피부 변형 계수를 가중 합산하여, 복수의 가상 얼굴 모델 각각에 대응하는 피부 변형 계수를 보간 처리하여 상기 타깃 피부 변형 계수를 얻을 수 있다. Exemplarily, based on the normalized fitting coefficients, the skin deformation coefficients corresponding to the plurality of virtual face models are weighted and summed, and the skin deformation coefficients corresponding to each of the plurality of virtual face models are interpolated to the target skin. The strain coefficient can be obtained.

정규화 처리하여 얻은 피팅 계수

Figure pct00044
은 차원이 N인 제1 벡터를 표시할 수 있고, R개의 가상 얼굴 모델 각각에 대응하는 피부 변형 계수는 차원이 N×R인 제2 벡터를 형성할 수 있으며; 이때, 상기 복수의 가상 얼굴 모델 각각에 대응하는 상기 피부 변형 계수를 가중 합산, 예를 들어 제1 벡터와 제2 벡터를 직접 곱하여 타깃 피부 변형 계수를 얻을 수 있다. Fitting coefficients obtained by normalization
Figure pct00044
may indicate a first vector having a dimension of N, and skin deformation coefficients corresponding to each of the R virtual face models may form a second vector having a dimension of N×R; In this case, the target skin deformation coefficient may be obtained by weighted summing the skin deformation coefficients corresponding to each of the plurality of virtual face models, for example, directly multiplying the first vector and the second vector.

예시적으로, 예를 들어 하기 공식을 이용하여 타깃 피부 변형 계수를 얻을 수 있고,

Figure pct00045
로 표시하며,
Figure pct00046
은 하기 공식(4)을 만족한다.Illustratively, for example, the target skin strain coefficient can be obtained using the following formula,
Figure pct00045
indicated as,
Figure pct00046
satisfies the following formula (4).

Figure pct00047
(4)
Figure pct00047
(4)

상기 S104에서, 도 4를 참조하면, 본 발명의 실시예는 타깃 골격 데이터, 및 타깃 피부 변형 계수에 기반하여 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 구체적인 방법을 더 제공하는 바, 다음과 같은 단계를 포함한다.In step S104, referring to FIG. 4 , an embodiment of the present invention further provides a specific method for generating a target virtual face model corresponding to the first real face model based on target skeletal data and a target skin deformation coefficient. , including the following steps:

S401: 타깃 골격 데이터, 및 표준 가상 얼굴 모델의 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계에 기반하여 피부 데이터를 위치 변환 처리하여 중간 피부 데이터를 생성한다. S401: Based on the target skeletal data and the relation between the standard skeletal data of the standard virtual face model and the standard skin data, the skin data is subjected to position transformation to generate intermediate skin data.

여기서, 표준 가상 얼굴 모델 중 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계는, 예를 들어 각 계층 골격에 대응하는 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계일 수 있다. 이 관련 관계에 기반하여 피부를 가상 얼굴 모델의 골격에 바인딩할 수 있다. Here, the relation between the standard skeletal data and the standard skin data in the standard virtual face model may be, for example, a relation between the standard skeletal data corresponding to each layered skeleton and the standard skin data. Based on this relational relationship, the skin can be bound to the skeleton of the virtual face model.

타깃 골격 데이터, 및 표준 가상 얼굴 모델의 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계를 이용하여 복수의 계층 골격의 대응 위치의 피부 데이터를 위치 변환 처리하여 생성된 타깃 피부 데이터 중 계층 골격에 대응하는 위치는 대응하는 타깃 골격 데이터의 위치와 일치할 수 있도록 하고, 이때, 예를 들어 위치 변환 처리된 피부 데이터를 생성된 중간 피부 데이터로 이용할 수 있다. Using the target skeleton data and the relation between the standard skeleton data of the standard virtual face model and the standard skin data, the target skin data corresponding to the hierarchical skeleton among the target skin data generated by performing position conversion processing on skin data at corresponding positions of a plurality of hierarchical skeletons The position may match the position of the corresponding target skeleton data, and in this case, for example, the position-converted skin data may be used as the generated intermediate skin data.

S402: 타깃 피부 변형 계수에 기반하여 중간 피부 데이터를 변형 처리하여 타깃 피부 데이터를 얻는다. S402: Transform the intermediate skin data based on the target skin deformation coefficient to obtain target skin data.

S403: 타깃 골격 데이터, 및 타깃 피부 데이터에 기반하여 타깃 가상 얼굴 모델을 구성한다. S403: Construct a target virtual face model based on the target skeleton data and the target skin data.

여기서, 타깃 골격 데이터를 이용하여 타깃 가상 얼굴 모델을 구축하기 위한 각 계층 골격을 결정할 수 있고; 타깃 피부 데이터를 이용하여 모델을 골격에 바인딩하는 피부를 결정하여 타깃 가상 얼굴 모델을 구성할 수 있다. Here, each hierarchical skeleton for constructing a target virtual face model may be determined by using the target skeleton data; The target virtual face model can be constructed by determining the skin for binding the model to the skeleton using the target skin data.

여기서, 타깃 가상 얼굴 모델을 결정하는 방법은, 타깃 골격 데이터, 및 타깃 피부 데이터에 기반하여 타깃 가상 얼굴 모델을 직접 구축하는 단계; 각 계층 골격에 대응하는 타깃 골격 데이터를 이용하여 제1 실제 얼굴 모델 중 대응하는 각 계층 골격 데이터를 대체한 후, 다시 타깃 피부 데이터를 이용하여 타깃 가상 얼굴 모델을 구축하는 단계 중 적어도 하나를 포함한다. 타깃 가상 얼굴 모델을 구축하는 구체적인 방법은 실제 상황에 따라 결정될 수 있고, 여기서 더 이상 반복하지 않는다. Here, the method for determining the target virtual face model includes: directly constructing the target virtual face model based on target skeletal data and target skin data; and substituting the corresponding hierarchical skeletal data in the first real face model using target skeletal data corresponding to each hierarchical skeleton, and then constructing the target virtual face model again using the target skin data. . A specific method of building the target virtual face model may be determined according to an actual situation, and will not be repeated here any further.

본 발명의 실시예는 본 발명의 실시예에서 제공하는 얼굴 재구성 방법을 이용하여 타깃 이미지

Figure pct00048
내의 원본 얼굴 A에 대응하는 타깃 가상 얼굴 모델
Figure pct00049
을 획득하는 구체적인 과정의 설명을 더 제공한다. An embodiment of the present invention is a target image using the face reconstruction method provided in the embodiment of the present invention.
Figure pct00048
The target virtual face model corresponding to the original face A in
Figure pct00049
It further provides a description of the specific process for obtaining

타깃 가상 얼굴 모델

Figure pct00050
을 결정하는 단계는 하기 단계(c1) 내지 단계(c6)를 포함한다:target virtual face model
Figure pct00050
The determining step includes the following steps (c1) to (c6):

(c1) 소재를 준비하되; 여기서, 표준 가상 얼굴 모델의 소재를 준비하는 단계; 및 가상 픽처의 소재를 준비하는 단계를 포함한다. (c1) preparing the material; Here, preparing a material of a standard virtual face model; and preparing the material of the virtual picture.

표준 가상 얼굴 모델의 소재를 준비할 경우, 카툰 스타일을 선택하여 기설정된 스타일로 이용하는 것을 예로 들면, 먼저 하나의 카툰 스타일의 표준 가상 얼굴 모델

Figure pct00051
을 설정한다. When preparing the material of a standard virtual face model, for example, selecting a cartoon style and using it as a preset style, first, a standard virtual face model of a cartoon style
Figure pct00051
to set

9그룹의 기설정된 피부 변형 계수를 생성하되; 여기서, 9그룹의 피부 변형 계수를 이용하여 표준 가상 얼굴 모델의 표준 피부 데이터에 대해 각각 상이한 부위, 및/또는 상이한 정도의 변경을 수행하는 바 즉 표준 가상 얼굴의 살찌거나 마른 정도를 조정하여 대부분의 얼굴 특징을 커버하도록 한다. 9 groups of preset skin deformation coefficients are generated; Here, different parts and/or different degrees of change are performed on the standard skin data of the standard virtual face model using 9 groups of skin deformation coefficients, that is, by adjusting the fatness or thinness of the standard virtual face, most Make sure to cover your facial features.

가상 픽처의 소재를 준비할 경우, 24장의 가상 픽처

Figure pct00052
를 수집하고; 수집된 24장의 가상 픽처 내의 가상 얼굴
Figure pct00053
에 대응하는 남녀의 수는 균형되며, 광범위한 얼굴 특징 분포를 최대한 커버할 수 있다. When preparing the material for virtual pictures, 24 virtual pictures
Figure pct00052
to collect; Virtual faces within 24 virtual pictures collected
Figure pct00053
The number of males and females corresponding to is balanced, and can cover a wide range of facial features to the maximum.

(c2) 얼굴 모델을 재구성하되; 여기서, 타깃 이미지

Figure pct00054
내의 원본 얼굴 A를 이용하여 제1 실제 얼굴 모델
Figure pct00055
를 생성하는 단계; 및 가상 픽처의 가상 얼굴
Figure pct00056
를 이용하여 제2 실제 얼굴 모델
Figure pct00057
를 생성하는 단계를 포함한다. (c2) reconstructing the face model; Here, the target image
Figure pct00054
The first real face model using the original face A in
Figure pct00055
creating a; and virtual faces in virtual pictures
Figure pct00056
2nd real face model using
Figure pct00057
It includes the step of creating

원본 얼굴 A에 의해 생성된 제1 실제 얼굴 모델

Figure pct00058
를 결정할 경우, 먼저 타깃 이미지 내의 얼굴을 곧게 펴고 테일러링한 후, 미리 훈련된 RGB 재구성 신경망을 이용하여 원본 얼굴 A에 대응하는 제1 실제 얼굴 모델
Figure pct00059
을 생성한다. 마찬가지로, 미리 훈련된 RGB 재구성 신경망을 이용하여 가상 얼굴
Figure pct00060
에 각각 대응하는 제2 실제 얼굴 모델
Figure pct00061
를 결정할 수 있다. First real face model generated by original face A
Figure pct00058
to determine the first real face model corresponding to the original face A using a pre-trained RGB reconstruction neural network after straightening and tailoring the face in the target image first.
Figure pct00059
create Similarly, a virtual face using a pre-trained RGB reconstruction neural network
Figure pct00060
A second real face model corresponding to
Figure pct00061
can be decided

제2 실제 얼굴 모델

Figure pct00062
를 결정한 후, 기설정된 스타일을 이용하고, 수동 조정 방식을 이용하여 제2 실제 얼굴 모델
Figure pct00063
각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델
Figure pct00064
을 얻는 단계를 더 포함한다. 2nd real face model
Figure pct00062
After determining , using a preset style, and using a manual adjustment method, the second real face model
Figure pct00063
A virtual face model having a preset style corresponding to each
Figure pct00064
further comprising the step of obtaining

이 외에, 또한 9그룹의 기설정된 피부 변형 계수에 기반하여 24개의 가상 얼굴 모델의 피부 변형 계수를 생성할 수 있다. In addition, skin deformation coefficients of 24 virtual face models may be generated based on 9 groups of preset skin deformation coefficients.

(c3) 피팅 처리하되; 여기서, 복수의 제2 실제 얼굴 모델을 이용하여 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계를 포함한다.(c3) fitting; Here, the method includes fitting the first real face model using the plurality of second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models.

Figure pct00065
Figure pct00065

복수의 제2 실제 얼굴 모델을 이용하여 제1 실제 얼굴 모델을 피팅하는 경우, 최소 제곱법을 이용하여 피팅하여 24차원 계수

Figure pct00066
를 얻는다. When the first real face model is fitted using a plurality of second real face models, 24-dimensional coefficients are fitted using the least squares method.
Figure pct00066
to get

(c4)타깃 피부 변형 계수를 결정하되; 여기서, 타깃 피부 변형 계수를 결정할 경우, 하기 (c4-1), (c4-2), 및 (c4-3)을 더 포함한다. (c4) determining a target skin strain coefficient; Here, when the target skin deformation coefficient is determined, the following (c4-1), (c4-2), and (c4-3) are further included.

(c4-1) 기설정된 스타일을 구비하는 가상 얼굴 모델

Figure pct00067
각각에 대응하는 피부 변형 계수
Figure pct00068
를 판독한다; (c4-1) Virtual face model having a preset style
Figure pct00067
Skin deformation coefficient corresponding to each
Figure pct00068
reads;

(c4-2) 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수

Figure pct00069
를 정규화 처리한다; (c4-2) fitting coefficients corresponding to each of the plurality of second real face models
Figure pct00069
is normalized;

(c4-3) 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수

Figure pct00070
를 이용하여 복수의 가상 얼굴 모델 각각에 포함된 피부 변형 계수
Figure pct00071
를 보간 처리하여 타깃 피부 변형 계수
Figure pct00072
를 생성한다. (c4-3) fitting coefficients corresponding to each of the plurality of second real face models
Figure pct00070
skin deformation coefficient included in each of a plurality of virtual face models using
Figure pct00071
The target skin strain coefficient by interpolating
Figure pct00072
to create

(c5) 타깃 골격 데이터를 결정하되; 여기서, 타깃 골격 데이터를 결정할 경우, 하기 (c5-1) 및 (c5-2)를 더 포함한다. (c5) determining target skeletal data; Here, when determining the target skeleton data, the following (c5-1) and (c5-2) are further included.

(c5-1) 골격 데이터를 판독하되; 여기서, 골격 데이터는 각 계층 골격

Figure pct00073
에서 기설정된 스타일을 구비하는 가상 얼굴 모델
Figure pct00074
각각에 대응하는 골격 위치 데이터
Figure pct00075
, 골격 스케일링 데이터
Figure pct00076
, 및 골격 회전 데이터
Figure pct00077
를 포함한다. (c5-1) reading the skeleton data; Here, the skeleton data is each hierarchical skeleton
Figure pct00073
A virtual face model having a preset style in
Figure pct00074
Skeletal position data corresponding to each
Figure pct00075
, skeletal scaling data
Figure pct00076
, and skeletal rotation data
Figure pct00077
includes

(c5-2) 피팅 계수

Figure pct00078
를 이용하여 기설정된 스타일의 가상 얼굴 모델
Figure pct00079
각각에 대응하는 골격 데이터를 보간 처리하여 타깃 골격 데이터
Figure pct00080
를 생성하고, 상기 타깃 골격 데이터는 타깃 골격 위치 데이터
Figure pct00081
, 타깃 골격 스케일링 데이터
Figure pct00082
, 및 타깃 골격 회전 데이터
Figure pct00083
를 포함한다. (c5-2) fitting coefficient
Figure pct00078
A virtual face model of a preset style using
Figure pct00079
Target bone data by interpolating the bone data corresponding to each
Figure pct00080
generate a, wherein the target bone data is target bone position data
Figure pct00081
, target bone scaling data
Figure pct00082
, and target bone rotation data
Figure pct00083
includes

(c6) 타깃 가상 얼굴 모델을 생성한다. (c6) Create a target virtual face model.

타깃 골격 데이터 및 타깃 피부 변형 계수에 기반하여 타깃 골격 데이터를 표준 가상 얼굴 모델

Figure pct00084
로 대체하고, 타깃 피부 변형 계수
Figure pct00085
를 이용하여 피부와 골격을 피팅하며, 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성한다. Based on the target skeletal data and the target skin deformation coefficient, the target skeletal data is converted to a standard virtual face model.
Figure pct00084
, and the target skin strain coefficient
Figure pct00085
to fit the skin and the skeleton, and generate a target virtual face model corresponding to the first real face model.

도 5를 참조하면, 본 발명의 실시예에서 제공하는 상기 구체적인 예시에 포함된 복수의 과정에 사용되는 구체적인 데이터의 예시이다. 여기서, 도 5 중의 a는 타깃 이미지를 표시하고, 51은 원본 얼굴 A를 표시하며; 도 5 중의 b는 카툰 스타일을 구비하는 표준 가상 얼굴 모델의 모식도이고; 도 5 중의 c는 타깃 피부 변형 계수를 이용하여 표준 피부 데이터 중의 각 위치점을 조정한 후 얻은 타깃 피부 데이터 중 각 위치점의 상대적 위치 관계의 모식도를 표시하며; 도 5 중의 d는 얻은 원본 얼굴 A에 대응하여 생성된 타깃 가상 얼굴 모델의 모식도를 표시한다. Referring to FIG. 5 , it is an example of specific data used in a plurality of processes included in the specific example provided in an embodiment of the present invention. Here, in Fig. 5, a denotes a target image, and 51 denotes an original face A; 5B is a schematic diagram of a standard virtual face model having a cartoon style; 5C shows a schematic diagram of the relative positional relationship of each position in the target skin data obtained after each position in the standard skin data is adjusted using the target skin deformation coefficient; 5 d shows a schematic diagram of a target virtual face model generated corresponding to the obtained original face A. In FIG.

여기서, 상기 (c1) 내지 (c6)은 얼굴 재구성 방법의 하나의 구체적인 예시일 뿐, 본 발명의 실시예에서 제공하는 얼굴 재구성 방법을 한정하지 않음을 유의해야 한다. Here, it should be noted that (c1) to (c6) are only one specific example of a face reconstruction method, and do not limit the face reconstruction method provided in the embodiment of the present invention.

본 기술분야의 통상의 기술자는, 구체적인 실시형태의 상기 방법에서, 각 단계의 쓰기 순서는 수행 순서가 엄격함으로써 실시 과정에 대해 한정하는 것을 의미하는 것이 아니며, 각 단계의 구체적인 수행 순서는 그 기능 및 가능한 내부 논리에 따라 결정되어야 하는 것을 이해할 수 있다. A person skilled in the art will know that in the above method of specific embodiments, the writing order of each step is not meant to limit the implementation process because the execution order is strict, and the specific execution order of each step depends on its function and It is understandable that the decision should be made according to possible internal logic.

동일한 발명 구상에 기반하여 본 발명의 실시예는 얼굴 재구성 방법에 대응하는 얼굴 재구성 장치를 더 제공하는 바, 본 발명의 실시예의 장치가 문제점을 해결하는 원리는 본 발명의 실시예의 상기 얼굴 재구성 방법과 유사하므로 장치의 구현은 방법의 구현을 참조할 수 있고, 중복되는 부분은 반복하지 않는다. Based on the same inventive concept, an embodiment of the present invention further provides a face reconstruction apparatus corresponding to the face reconstruction method, and the principle that the apparatus of the embodiment of the present invention solves the problem is the same as the face reconstruction method of the embodiment of the present invention. Since they are similar, the implementation of the apparatus may refer to the implementation of the method, and overlapping parts are not repeated.

도 6을 참조하면, 본 발명의 실시예는 얼굴 재구성 장치를 제공하는 바, 상기 장치는 제1 생성 모듈(61), 처리 모듈(62), 제2 생성 모듈(63) 및 제3 생성 모듈(64)을 포함한다. Referring to FIG. 6 , an embodiment of the present invention provides an apparatus for reconstructing a face, wherein the apparatus includes a first generating module 61 , a processing module 62 , a second generating module 63 , and a third generating module ( 64).

제1 생성 모듈(61)은 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하기 위한 것이다. The first generating module 61 is configured to generate a first real face model based on the target image.

처리 모듈(62)은 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻기 위한 것이다. The processing module 62 is configured to perform fitting processing on the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models.

제2 생성 모듈(63)은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성하기 위한 것이다. The second generating module 63 is configured to configure a target skeleton based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. to generate data and target skin strain coefficients.

제3 생성 모듈(64)은 상기 타깃 골격 데이터 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하기 위한 것이다. A third generating module 64 is configured to generate a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient.

선택적인 실시형태에서, 상기 가상 얼굴 모델은 미리 생성된 표준 가상 얼굴 모델의 표준 피부 데이터에 대한 상기 가상 얼굴 모델의 피부 데이터의 변형을 나타내는 피부 변형 계수를 포함한다. In an optional embodiment, the virtual face model includes a skin deformation coefficient representing a deformation of the skin data of the virtual face model with respect to the standard skin data of the pre-generated standard virtual face model.

상기 제2 생성 모듈(63)은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 피부 변형 계수를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성하기 위한 것이다. The second generating module 63 is configured to select a target based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. When generating the skin deformation coefficient, the target skin deformation coefficient is generated based on fitting coefficients corresponding to each of the plurality of second real face models and skin deformation coefficients included in each of the plurality of virtual face models. .

선택적인 실시형태에서, 상기 제2 생성 모듈(63)은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 복수의 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 정규화 처리하기 위한 것이고; 정규화 처리된 피팅 계수, 및 상기 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 얻기 위한 것이다. In an optional embodiment, the second generating module 63 is configured to configure the target skin based on a fitting coefficient corresponding to each of the plurality of second real face models, and a skin deformation coefficient included in each of the plurality of virtual face models. when generating the deformation coefficient, normalizing the fitting coefficient corresponding to each of the plurality of second real face models; The target skin deformation coefficient is obtained based on the normalized fitting coefficient and the skin deformation coefficient included in each of the virtual face models.

선택적인 실시형태에서, 상기 제3 생성 모듈(64)은 상기 타깃 골격 데이터, 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성할 경우, 상기 타깃 골격 데이터, 및 표준 가상 얼굴 모델 중의 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계에 기반하여 상기 표준 피부 데이터를 위치 변환 처리하여 중간 피부 데이터를 생성하기 위한 것이고; 상기 타깃 피부 변형 계수에 기반하여 상기 중간 피부 데이터를 변형 처리하여 타깃 피부 데이터를 얻기 위한 것이며; 상기 타깃 골격 데이터, 및 상기 타깃 피부 데이터에 기반하여 상기 타깃 가상 얼굴 모델을 생성하기 위한 것이다. In an optional embodiment, when the third generating module 64 generates a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient, the target skeleton position conversion processing of the standard skin data based on the data and a relation between the standard skeletal data and the standard skin data in the standard virtual face model to generate intermediate skin data; transforming the intermediate skin data based on the target skin deformation coefficient to obtain target skin data; and generating the target virtual face model based on the target skeleton data and the target skin data.

선택적인 실시형태에서, 상기 타깃 골격 데이터는 타깃 골격 위치 데이터, 타깃 골격 스케일링 데이터, 및 타깃 골격 회전 데이터 중 적어도 하나를 포함한다. In an optional embodiment, the target bone data comprises at least one of target bone position data, target bone scaling data, and target bone rotation data.

상기 가상 얼굴 모델에 대응하는 골격 데이터는 상기 가상 얼굴의 복수의 얼굴 골격 중 각각의 얼굴 골격에 대응하는 골격 회전 데이터, 골격 위치 데이터, 및 골격 스케일링 데이터 중 적어도 하나를 포함한다. The skeletal data corresponding to the virtual face model includes at least one of skeletal rotation data, skeletal position data, and skeletal scaling data corresponding to each facial skeleton among a plurality of facial skeletons of the virtual face.

선택적인 실시형태에서, 상기 제2 생성 모듈(63)은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 위치 데이터를 보간 처리하여 상기 타깃 골격 위치 데이터를 얻기 위한 것이다. In an optional embodiment, the second generating module 63 is configured to configure a virtual device having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. When the target skeleton data is generated based on the face model, the target skeleton by interpolating the skeletal position data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models. To obtain location data.

선택적인 실시형태에서, 제2 생성 모듈(63)은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성할 경우, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 스케일링 데이터를 보간 처리하여 상기 타깃 골격 스케일링 데이터를 얻기 위한 것이다. In an optional embodiment, the second generating module 63 is configured to: a virtual face having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models When the target skeleton data is generated based on the model, the target skeleton is scaled by interpolating the skeleton scaling data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models. to get data.

선택적인 실시형태에서, 상기 제2 생성 모듈(63)은 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성할 경우, 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 회전 데이터를 사원수로 변환하고, 상기 복수의 가상 얼굴 모델 각각에 대응하는 사원수를 정규화 처리하여 정규화된 사원수를 얻기 위한 것이며; 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 상기 정규화된 사원수를 보간 처리하여 상기 타깃 골격 회전 데이터를 얻기 위한 것이다.In an optional embodiment, the second generating module 63 is configured to configure a virtual device having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. When the target skeleton data is generated based on the face model, the skeleton rotation data corresponding to each of the plurality of virtual face models is converted into quaternions, and the quaternions corresponding to each of the plurality of virtual face models are normalized by normalizing the process. to get the number of quaternions; and to obtain the target skeleton rotation data by interpolating the normalized quaternions corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models.

선택적인 실시형태에서, 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성할 경우, 상기 제1 생성 모듈(61)은 원본 얼굴을 포함한 타깃 이미지를 획득하기 위한 것이고; 상기 타깃 이미지에 포함된 상기 원본 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 제1 실제 얼굴 모델을 얻기 위한 것이다. In an optional embodiment, when generating the first real face model based on the target image, the first generating module 61 is configured to acquire the target image including the original face; To obtain the first real face model by performing 3D face reconstruction on the original face included in the target image.

선택적인 실시형태에서, 상기 처리 모듈(62)은, 참조 얼굴을 포함한 복수의 참조 이미지를 획득하는 방식; 및 상기 복수의 참조 이미지 중의 각각의 참조 이미지에 대하여, 상기 참조 이미지에 포함된 참조 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 참조 이미지에 대응하는 제2 실제 얼굴 모델을 얻는 방식에 기반하여 상기 복수의 제2 실제 얼굴 모델을 미리 생성한다. In an optional embodiment, the processing module 62 is configured to: acquire a plurality of reference images including a reference face; and for each reference image among the plurality of reference images, performing 3D face reconstruction on the reference face included in the reference image to obtain a second real face model corresponding to the reference image. A second real face model of

선택적인 실시형태에서, 상기 얼굴 재구성 장치는, 상기 복수의 제2 실제 얼굴 모델 중 각각의 제2 실제 얼굴 모델에 대하여, 하기 방식을 이용하여 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델을 획득하기 위한 획득 모듈(65)을 더 포함하고, 상기 방식은 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 중간 가상 얼굴 모델을 생성하는 단계; 표준 가상 얼굴 모델에 대한 복수 그룹의 기설정된 피부 변형 계수에 기반하여 상기 제2 실제 얼굴 모델에 대응하는 상기 표준 가상 얼굴 모델에 대한 가상 얼굴 모델의 피부 변형 계수를 생성하는 단계; 상기 피부 변형 계수를 이용하여 상기 중간 가상 얼굴 모델의 중간 피부 데이터를 조정하는 단계; 및 조정된 중간 피부 데이터, 및 상기 중간 가상 얼굴 모델의 중간 골격 데이터에 기반하여 상기 제2 실제 얼굴 모델의 가상 얼굴 모델을 생성하는 단계를 포함한다. In an optional embodiment, the face reconstruction apparatus includes, for each second real face model among the plurality of second real face models, a preset style corresponding to the second real face model by using the following method and an acquiring module (65) for acquiring a virtual face model, the method comprising: generating an intermediate virtual face model having a preset style corresponding to the second real face model; generating a skin deformation coefficient of the virtual face model for the standard virtual face model corresponding to the second real face model based on a plurality of groups of preset skin deformation coefficients for the standard virtual face model; adjusting the intermediate skin data of the intermediate virtual face model by using the skin deformation coefficient; and generating a virtual face model of the second real face model based on the adjusted intermediate skin data and intermediate skeletal data of the intermediate virtual face model.

선택적인 실시형태에서, 상기 처리 모듈(62)은 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻을 경우, 상기 복수의 제2 실제 얼굴 모델 및 상기 제1 실제 얼굴 모델을 최소 제곱 처리하여 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻기 위한 것이다. In an optional embodiment, the processing module 62 performs fitting processing on the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models. If obtained, the plurality of second real face models and the first real face model are subjected to least squares processing to obtain fitting coefficients corresponding to each of the plurality of second real face models.

장치의 각 모듈의 처리 흐름, 및 각 모듈 사이의 인터랙션 흐름에 대한 설명은 상기 방법 실시예의 관련 설명을 참조할 수 있고, 여기서 더 이상 반복하지 않는다. For the description of the processing flow of each module of the apparatus, and the interaction flow between each module, reference may be made to the related description of the above method embodiment, which will not be repeated here any further.

도 7에 도시된 바와 같이, 본 발명의 실시예는 프로세서(71) 및 메모리(72)를 포함하는 컴퓨터 기기를 더 제공한다. As shown in FIG. 7 , the embodiment of the present invention further provides a computer device including a processor 71 and a memory 72 .

메모리(72)에는 프로세서(71)에 의해 실행 가능한 기계 판독 가능 명령이 저장되고, 프로세서(71)는 메모리(72)에 저장된 기계 판독 가능 명령을 실행하며, 상기 기계 판독 가능 명령이 프로세서(71)에 의해 실행될 경우, 프로세서(71)는, 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하는 단계; 미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계; 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성하는 단계; 및 상기 타깃 골격 데이터 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 단계를 수행한다. The memory 72 stores machine readable instructions executable by the processor 71 , the processor 71 executes the machine readable instructions stored in the memory 72 , wherein the machine readable instructions are stored in the processor 71 . when executed by , the processor 71 may further include: generating a first real face model based on the target image; fitting the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models; generating target skeletal data and target skin deformation coefficients based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models; step; and generating a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient.

상기 메모리(72)는 내부 메모리(721) 및 외부 메모리(722)를 포함하는 바; 여기서 내부 메모리(721)는 또한 내부 기억장치라고 지칭되며, 프로세서(71) 내의 연산 데이터, 및 하드 디스크와 같은 외부 메모리(722)와 교환되는 데이터를 임시로 저장하기 위한 것이고, 프로세서(71)는 내부 메모리(721)를 통해 외부 메모리(722)와 데이터를 교환한다. the memory 72 includes an internal memory 721 and an external memory 722; Here, the internal memory 721 is also referred to as an internal storage device, and is for temporarily storing arithmetic data in the processor 71 and data exchanged with an external memory 722 such as a hard disk, and the processor 71 is Data is exchanged with the external memory 722 through the internal memory 721 .

상기 명령의 구체적인 실행 과정은 본 발명의 실시예에서 설명된 얼굴 재구성 방법을 참조할 수 있는 바, 여기서 더 이상 반복하지 않는다. For the specific execution process of the above command, reference may be made to the face reconstruction method described in the embodiment of the present invention, which will not be repeated any longer.

본 발명의 실시예는 컴퓨터 판독 가능 저장매체를 더 제공하는 바, 상기 컴퓨터 판독 가능 저장매체에는 컴퓨터 프로그램이 저장되고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 상기 방법 실시예에서 설명된 얼굴 재구성 방법을 수행할 수 있다. 여기서, 상기 저장매체는 휘발성 또는 비휘발성 컴퓨터 판독 가능 저장매체일 수 있다. An embodiment of the present invention further provides a computer-readable storage medium, wherein a computer program is stored in the computer-readable storage medium, and when the computer program is executed by a processor, the face reconstruction method described in the method embodiment can be done Here, the storage medium may be a volatile or non-volatile computer-readable storage medium.

본 발명의 실시예는 컴퓨터 프로그램 제품을 더 제공하는 바, 상기 컴퓨터 프로그램 제품은 프로그램 코드를 포함하고, 상기 프로그램 코드에 포함된 명령은 상기 방법 실시예에서 설명된 얼굴 재구성 방법을 수행하는 데에 이용될 수 있으며, 구체적으로 상기 방법 실시예를 참조할 수 있고, 여기서 더 이상 반복하지 않는다. An embodiment of the present invention further provides a computer program product, wherein the computer program product includes a program code, and the instructions included in the program code are used to perform the face reconstruction method described in the method embodiment , and specifically, reference may be made to the above method examples, which will not be repeated any longer.

여기서, 상기 컴퓨터 프로그램 제품은 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 선택적인 실시예에서, 상기 컴퓨터 프로그램 제품은 구체적으로 컴퓨터 저장매체로 구현되고, 다른 선택적인 실시예에서, 컴퓨터 프로그램 제품은 구체적으로 소프트웨어 개발 키트(Software Development Kit, SDK)와 같은 소프트웨어 제품으로 구현된다. Here, the computer program product may be implemented in hardware, software, or a combination thereof. In an optional embodiment, the computer program product is specifically embodied as a computer storage medium, and in another optional embodiment, the computer program product is specifically embodied as a software product such as a Software Development Kit (SDK). .

본 기술분야의 통상업자는 설명의 편의와 간결함을 위해 상기에서 설명된 시스템 및 장치의 구체적인 작동 과정은 전술된 방법 실시예 중 대응하는 과정을 참조할 수 있음을 명확하게 이해할 수 있는바, 여기서 더 이상 반복하지 않는다. 본 발명에 의해 제공되는 몇 개의 실시예에서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 상기에서 설명된 장치 실시예는 예시적인 것일 뿐, 예를 들어, 상기 유닛의 분할은 논리적 기능 분할일 뿐, 실제 구현에서는 다른 분할 방식이 있을 수 있고, 또 예를 들어, 복수의 유닛 또는 어셈블리는 다른 시스템에 결합되거나 집적될 수 있거나, 또는 일부 특징을 무시하거나 수행하지 않을 수 있다. 다른 한편으로, 표시되거나 논의되는 서로 사이의 결합 또는 직접 커플링 또는 통신 연결은 일부 통신 인터페이스, 장치 또는 유닛을 통한 간접 커플링 또는 통신 연결일 수 있고, 전기적, 기계적 또는 기타 형태일 수 있다. A person skilled in the art can clearly understand that for the convenience and conciseness of the description, the specific operation process of the system and apparatus described above may refer to the corresponding process among the above-described method embodiments, where more do not repeat any more In the several embodiments provided by the present invention, it should be understood that the disclosed systems, apparatus, and methods may be implemented in other ways. The device embodiments described above are merely exemplary, for example, the division of the unit is only logical function division, and in actual implementation, there may be other division methods, and for example, a plurality of units or assemblies may be It may be combined or integrated into other systems, or some features may be ignored or not performed. On the other hand, the coupling or direct coupling or communication connection between each other as shown or discussed may be an indirect coupling or communication connection through some communication interface, device or unit, and may be in an electrical, mechanical or other form.

이상에서 분리 부재로 설명된 유닛은 물리적으로 분리되거나 분리되지 않을 것일 수 있고, 유닛으로 디스플레이된 부재는 물리적 유닛일 수 있거나, 물리적 유닛이 아닐 수 있으며, 하나의 장소에 위치하거나, 다수의 네트워크 유닛에 분포될 수 있다. 실제 수요에 따라 그 중의 일부 또는 전부 유닛을 선택하여 본 실시예의 해결수단의 목적을 실현할 수 있다. A unit described as a separation member above may or may not be physically separated, and a member displayed as a unit may or may not be a physical unit, and may be located in one place, or a plurality of network units. can be distributed in According to the actual demand, some or all of the units may be selected to realize the purpose of the solution of the present embodiment.

이 외에, 본 발명의 각 실시예의 각 기능 유닛은 하나의 처리 유닛에 집적될 수도 있고, 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 두 개 또는 두 개 이상의 유닛이 하나의 유닛에 집적될 수도 있다. In addition, each functional unit of each embodiment of the present invention may be integrated into one processing unit, each unit may exist alone physically, and two or more than two units may be integrated into one unit. .

상기 기능이 소프트웨어 기능 유닛의 방식으로 실현됨과 아울러 독립적인 제품으로서 판매되거나 사용될 경우 하나의 프로세서가 실행 가능한 비휘발성 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여 본 발명의 기술적 해결수단은 본질적으로 또는 선행기술에 기여하는 부분 또는 상기 기술적 해결수단의 일부가 소프트웨어 제품의 방식으로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되고 약간의 명령을 포함하여 하나의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등)로 하여금 본 발명의 각 실시예에서 설명하는 방법의 전부 또는 일부 단계를 실행하도록 할 수 있다. 그러나 상술한 저장 매체는 USB, 이동식 하드디스크, 읽기 전용 메모리(Read-Only Memory, ROM), 램(Random Access Memory, RAM), 자기 디스크 또는 광 디스크 등 여러 가지 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다. When the above functions are realized in the manner of a software functional unit and sold or used as an independent product, one processor may be stored in an executable non-volatile computer readable storage medium. Based on this understanding, the technical solution of the present invention essentially or a part contributing to the prior art or a part of the technical solution may be implemented in the form of a software product, and the computer software product is stored in one storage medium and including some instructions to cause a single computer device (such as a personal computer, a server or a network device) to execute all or some steps of the method described in each embodiment of the present invention. However, the above-described storage medium includes a variety of media that can store various program codes, such as USB, removable hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk or optical disk. include

마지막으로 설명하여야 할 바로는, 상기 실시예는 본 출원의 기술적 방안을 설명하는 데에 사용되며, 이에 대해 한정하는 것이 아니며, 상기 각 실시예를 참조하여 본 출원에 대해 상세하게 설명하였지만, 본 기술분야의 통상의 지식을 가진 자라면 이하의 청구범위에 기재된 본 출원의 기술적 방안의 범위를 벗어나지 않는 전제하에, 상기 각 실시예에 기재된 기술적 방안을 수정하거나 또는 그 중 일부 또는 전부 기술적 특징에 대해 등가교체를 실시할 수 있지만; 이러한 수정, 변경 또는 대체는 상응한 기술적 해결수단의 본질이 본 발명의 실시예의 기술적 해결수단의 사상 및 범위를 벗어나지 않도록 하고, 모두 본 발명의 보호범위에 포함되어야 하는 것을 이해해야 한다. 따라서, 본 발명의 보호범위는 상기 특허청구범위의 보호범위를 기준으로 하여야 한다. Last but not least, the embodiment is used to describe the technical solution of the present application, and is not limited thereto. Although the present application has been described in detail with reference to each embodiment, the present technology Those of ordinary skill in the art may modify the technical solutions described in each embodiment or equivalent to some or all of the technical features, provided that they do not depart from the scope of the technical solutions of the present application described in the claims below. replacement may be carried out; It should be understood that such modifications, changes or substitutions should not deviate from the spirit and scope of the technical solutions of the embodiments of the present invention in the essence of the corresponding technical solutions, and should all be included in the protection scope of the present invention. Accordingly, the protection scope of the present invention should be based on the protection scope of the above claims.

Claims (15)

얼굴 재구성 방법으로서,
타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하는 단계;
미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계;
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성하는 단계; 및
상기 타깃 골격 데이터 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
A method for reconstructing a face, comprising:
generating a first real face model based on the target image;
fitting the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models;
Target skeletal data and target skin deformation coefficient are generated based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. to do; and
and generating a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient.
제1항에 있어서,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 피부 변형 계수를 생성하는 단계는,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성하는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
According to claim 1,
generating a target skin deformation coefficient based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models;
and generating the target skin deformation coefficient based on a fitting coefficient corresponding to each of the plurality of second real face models and a skin deformation coefficient included in each of the plurality of virtual face models. Way.
제2항에 있어서,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 생성하는 상기 단계는,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 정규화 처리하는 단계; 및
정규화 처리된 피팅 계수, 및 상기 복수의 가상 얼굴 모델 각각에 포함된 피부 변형 계수에 기반하여 상기 타깃 피부 변형 계수를 얻는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
3. The method of claim 2,
The step of generating the target skin deformation coefficient based on a fitting coefficient corresponding to each of the plurality of second real face models and a skin deformation coefficient included in each of the plurality of virtual face models may include:
normalizing fitting coefficients corresponding to each of the plurality of second real face models; and
and obtaining the target skin deformation coefficient based on a normalized fitting coefficient and a skin deformation coefficient included in each of the plurality of virtual face models.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 타깃 골격 데이터 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하는 상기 단계는,
상기 타깃 골격 데이터, 및 표준 가상 얼굴 모델 중의 표준 골격 데이터와 표준 피부 데이터 사이의 관련 관계에 기반하여 상기 표준 피부 데이터를 위치 변환 처리하여 중간 피부 데이터를 생성하는 단계;
상기 타깃 피부 변형 계수에 기반하여 상기 중간 피부 데이터를 변형 처리하여 타깃 피부 데이터를 얻는 단계; 및
상기 타깃 골격 데이터, 및 상기 타깃 피부 데이터에 기반하여 상기 타깃 가상 얼굴 모델을 구성하는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
4. The method according to any one of claims 1 to 3,
The step of generating a target virtual face model corresponding to the first real face model based on the target skeletal data and the target skin deformation coefficient may include:
generating intermediate skin data by performing position conversion processing on the standard skin data based on the target skeleton data and a relation between standard skeleton data and standard skin data in a standard virtual face model;
obtaining target skin data by transforming the intermediate skin data based on the target skin deformation coefficient; and
and constructing the target virtual face model based on the target skeleton data and the target skin data.
제1항 내지 제4항 중 어느 한 항에 있어서,
상기 타깃 골격 데이터는 타깃 골격 위치 데이터, 타깃 골격 스케일링 데이터, 및 타깃 골격 회전 데이터 중 적어도 하나를 포함하고;
상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 데이터는 상기 가상 얼굴의 복수의 얼굴 골격 중 각각의 얼굴 골격에 대응하는 골격 회전 데이터, 골격 위치 데이터, 및 골격 스케일링 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
5. The method according to any one of claims 1 to 4,
the target bone data includes at least one of target bone position data, target bone scaling data, and target bone rotation data;
The skeletal data corresponding to each of the plurality of virtual face models comprises at least one of skeletal rotation data, skeletal position data, and skeletal scaling data corresponding to each facial skeleton among the plurality of facial skeletons of the virtual face. How to reconstruct a face.
제5항에 있어서,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성하는 단계는,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 위치 데이터를 보간 처리하여 상기 타깃 골격 위치 데이터를 얻는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
6. The method of claim 5,
generating target skeleton data based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models;
and obtaining the target skeletal position data by interpolating the skeletal position data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models. Reconstruction method.
제5항 또는 제6항에 있어서,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성하는 단계는,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 스케일링 데이터를 보간 처리하여 상기 타깃 골격 스케일링 데이터를 얻는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
7. The method according to claim 5 or 6,
generating target skeleton data based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models;
and obtaining the target skeletal scaling data by interpolating skeletal scaling data corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models. Reconstruction method.
제5항 내지 제7항 중 어느 한 항에 있어서,
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터를 생성하는 단계는,
상기 복수의 가상 얼굴 모델 각각에 대응하는 골격 회전 데이터를 사원수로 변환하는 단계,
상기 복수의 가상 얼굴 모델 각각에 대응하는 사원수를 정규화 처리하여 정규화된 사원수를 얻는 단계; 및
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수에 기반하여 상기 복수의 가상 얼굴 모델 각각에 대응하는 상기 정규화된 사원수를 보간 처리하여 상기 타깃 골격 회전 데이터를 얻는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
8. The method according to any one of claims 5 to 7,
generating target skeleton data based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models and a preset style corresponding to each of the plurality of second real face models;
converting skeletal rotation data corresponding to each of the plurality of virtual face models into quaternions;
obtaining normalized quaternions by normalizing the quaternions corresponding to each of the plurality of virtual face models; and
and obtaining the target skeleton rotation data by interpolating the normalized quaternions corresponding to each of the plurality of virtual face models based on fitting coefficients corresponding to each of the plurality of second real face models. How to reconstruct a face.
제1항 내지 제8항 중 어느 한 항에 있어서,
상기 타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하는 단계는,
원본 얼굴을 포함한 타깃 이미지를 획득하는 단계; 및
상기 타깃 이미지에 포함된 상기 원본 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 제1 실제 얼굴 모델을 얻는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
9. The method according to any one of claims 1 to 8,
The step of generating a first real face model based on the target image includes:
acquiring a target image including the original face; and
and obtaining the first real face model by performing 3D face reconstruction on the original face included in the target image.
제1항 내지 제9항 중 어느 한 항에 있어서,
참조 얼굴을 포함한 복수의 참조 이미지를 획득하는 방식; 및
상기 복수의 참조 이미지 중의 각각의 참조 이미지에 대하여, 상기 참조 이미지에 포함된 참조 얼굴에 대해 3차원 얼굴 재구성을 수행하여 상기 참조 이미지에 대응하는 상기 제2 실제 얼굴 모델을 얻는 방식에 기반하여 상기 복수의 제2 실제 얼굴 모델을 미리 생성하는 것을 특징으로 하는 얼굴 재구성 방법.
10. The method according to any one of claims 1 to 9,
a method of acquiring a plurality of reference images including a reference face; and
For each reference image among the plurality of reference images, based on a method of obtaining the second real face model corresponding to the reference image by performing three-dimensional face reconstruction on the reference face included in the reference image, the plurality of A face reconstruction method characterized in that the second real face model is generated in advance.
제1항 내지 제10항 중 어느 한 항에 있어서,
상기 복수의 제2 실제 얼굴 모델 중 각각의 제2 실제 얼굴 모델에 대하여,
상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 중간 가상 얼굴 모델을 생성하는 단계;
표준 가상 얼굴 모델에 대한 복수 그룹의 기설정된 피부 변형 계수에 기반하여 상기 제2 실제 얼굴 모델에 대응하는 상기 표준 가상 얼굴 모델에 대한 가상 얼굴 모델의 피부 변형 계수를 생성하는 단계;
상기 피부 변형 계수를 이용하여 상기 중간 가상 얼굴 모델의 중간 피부 데이터를 조정하는 단계; 및
조정된 중간 피부 데이터, 및 상기 중간 가상 얼굴 모델의 중간 골격 데이터에 기반하여 상기 제2 실제 얼굴 모델의 가상 얼굴 모델을 생성하는 단계를 이용하여 상기 제2 실제 얼굴 모델에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델을 획득하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
11. The method according to any one of claims 1 to 10,
For each second real face model among the plurality of second real face models,
generating an intermediate virtual face model having a preset style corresponding to the second real face model;
generating a skin deformation coefficient of the virtual face model for the standard virtual face model corresponding to the second real face model based on a plurality of groups of preset skin deformation coefficients for the standard virtual face model;
adjusting the intermediate skin data of the intermediate virtual face model by using the skin deformation coefficient; and
A preset style corresponding to the second real face model is provided by using the step of generating a virtual face model of the second real face model based on the adjusted intermediate skin data and the intermediate skeleton data of the intermediate virtual face model Face reconstruction method, characterized in that it further comprises the step of obtaining a virtual face model.
제1항 내지 제11항 중 어느 한 항에 있어서,
미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계는,
상기 복수의 제2 실제 얼굴 모델 및 상기 제1 실제 얼굴 모델을 최소 제곱 처리하여 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻는 단계를 포함하는 것을 특징으로 하는 얼굴 재구성 방법.
12. The method according to any one of claims 1 to 11,
The step of fitting the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models includes:
and performing least squares processing on the plurality of second real face models and the first real face model to obtain fitting coefficients corresponding to each of the plurality of second real face models.
얼굴 재구성 장치로서,
타깃 이미지에 기반하여 제1 실제 얼굴 모델을 생성하기 위한 제1 생성 모듈;
미리 생성된 복수의 제2 실제 얼굴 모델을 이용하여 상기 제1 실제 얼굴 모델을 피팅 처리하여 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수를 얻기 위한 처리 모듈;
상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 피팅 계수, 및 상기 복수의 제2 실제 얼굴 모델 각각에 대응하는 기설정된 스타일을 구비하는 가상 얼굴 모델에 기반하여 타깃 골격 데이터 및 타깃 피부 변형 계수를 생성하기 위한 제2 생성 모듈; 및
상기 타깃 골격 데이터 및 상기 타깃 피부 변형 계수에 기반하여 상기 제1 실제 얼굴 모델에 대응하는 타깃 가상 얼굴 모델을 생성하기 위한 제3 생성 모듈을 포함하는 것을 특징으로 하는 얼굴 재구성 장치.
A face reconstruction device comprising:
a first generating module for generating a first real face model based on the target image;
a processing module for fitting the first real face model using a plurality of pre-generated second real face models to obtain fitting coefficients corresponding to each of the plurality of second real face models;
Target skeletal data and target skin deformation coefficient are generated based on a virtual face model having a fitting coefficient corresponding to each of the plurality of second real face models, and a preset style corresponding to each of the plurality of second real face models. a second generating module for and
and a third generation module for generating a target virtual face model corresponding to the first real face model based on the target skeleton data and the target skin deformation coefficient.
메모리 및 프로세서를 포함하는 컴퓨터 기기로서,
상기 메모리에는 상기 프로세서에 의해 실행 가능한 기계 판독 가능 명령이 저장되고, 상기 프로세서는 상기 메모리에 저장된 기계 판독 가능 명령을 실행하며, 상기 기계 판독 가능 명령이 상기 프로세서에 의해 실행될 경우, 상기 프로세서는 제1항 내지 제12항 중 어느 한 항에 따른 얼굴 재구성 방법을 수행하는 것을 특징으로 하는 컴퓨터 기기.
A computer device comprising a memory and a processor, comprising:
The memory stores machine readable instructions executable by the processor, the processor executes the machine readable instructions stored in the memory, and when the machine readable instructions are executed by the processor, the processor A computer device, characterized in that it performs the face reconstruction method according to claim 12 .
컴퓨터 프로그램이 저장되는 컴퓨터 판독 가능 저장매체로서,
상기 컴퓨터 프로그램이 컴퓨터 기기에 의해 실행될 경우, 제1항 내지 제12항 중 어느 한 항에 따른 얼굴 재구성 방법을 수행하는 것을 특징으로 하는 컴퓨터 판독 가능 저장매체.
A computer readable storage medium storing a computer program, comprising:
13. A computer-readable storage medium, characterized in that when the computer program is executed by a computer device, the face reconstruction method according to any one of claims 1 to 12 is performed.
KR1020227010819A 2020-11-25 2021-06-25 Face reconstruction method, apparatus, computer device and storage medium KR20220075339A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011337901.1A CN112419454B (en) 2020-11-25 2020-11-25 Face reconstruction method, device, computer equipment and storage medium
CN202011337901.1 2020-11-25
PCT/CN2021/102431 WO2022110791A1 (en) 2020-11-25 2021-06-25 Method and apparatus for face reconstruction, and computer device, and storage medium

Publications (1)

Publication Number Publication Date
KR20220075339A true KR20220075339A (en) 2022-06-08

Family

ID=74842193

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227010819A KR20220075339A (en) 2020-11-25 2021-06-25 Face reconstruction method, apparatus, computer device and storage medium

Country Status (5)

Country Link
JP (1) JP2023507863A (en)
KR (1) KR20220075339A (en)
CN (1) CN112419454B (en)
TW (1) TWI773458B (en)
WO (1) WO2022110791A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419454B (en) * 2020-11-25 2023-11-28 北京市商汤科技开发有限公司 Face reconstruction method, device, computer equipment and storage medium
CN113160418A (en) * 2021-05-10 2021-07-23 上海商汤智能科技有限公司 Three-dimensional reconstruction method, device and system, medium and computer equipment
CN113610992B (en) * 2021-08-04 2022-05-20 北京百度网讯科技有限公司 Bone driving coefficient determining method and device, electronic equipment and readable storage medium
CN113808249B (en) * 2021-08-04 2022-11-25 北京百度网讯科技有限公司 Image processing method, device, equipment and computer storage medium
CN113805532B (en) * 2021-08-26 2023-05-23 福建天泉教育科技有限公司 Method and terminal for manufacturing physical robot actions
CN114529640B (en) * 2022-02-17 2024-01-26 北京字跳网络技术有限公司 Moving picture generation method, moving picture generation device, computer equipment and storage medium

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5178662B2 (en) * 2009-07-31 2013-04-10 富士フイルム株式会社 Image processing apparatus and method, data processing apparatus and method, and program
US9314692B2 (en) * 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image
KR101696007B1 (en) * 2013-01-18 2017-01-13 한국전자통신연구원 Method and device for creating 3d montage
JP6207210B2 (en) * 2013-04-17 2017-10-04 キヤノン株式会社 Information processing apparatus and method
KR101757642B1 (en) * 2016-07-20 2017-07-13 (주)레벨소프트 Apparatus and method for 3d face modeling
CN109395390B (en) * 2018-10-26 2021-12-21 网易(杭州)网络有限公司 Method and device for processing face model of game character, processor and terminal
CN110111417B (en) * 2019-05-15 2021-04-27 浙江商汤科技开发有限公司 Method, device and equipment for generating three-dimensional local human body model
CN110111247B (en) * 2019-05-15 2022-06-24 浙江商汤科技开发有限公司 Face deformation processing method, device and equipment
CN110675475B (en) * 2019-08-19 2024-02-20 腾讯科技(深圳)有限公司 Face model generation method, device, equipment and storage medium
CN110599573B (en) * 2019-09-03 2023-04-11 电子科技大学 Method for realizing real-time human face interactive animation based on monocular camera
CN111724457A (en) * 2020-03-11 2020-09-29 长沙千博信息技术有限公司 Realistic virtual human multi-modal interaction implementation method based on UE4
CN111695471B (en) * 2020-06-02 2023-06-27 北京百度网讯科技有限公司 Avatar generation method, apparatus, device and storage medium
CN111714885A (en) * 2020-06-22 2020-09-29 网易(杭州)网络有限公司 Game role model generation method, game role model generation device, game role adjustment device and game role adjustment medium
CN111784821B (en) * 2020-06-30 2023-03-14 北京市商汤科技开发有限公司 Three-dimensional model generation method and device, computer equipment and storage medium
CN112419485B (en) * 2020-11-25 2023-11-24 北京市商汤科技开发有限公司 Face reconstruction method, device, computer equipment and storage medium
CN112419454B (en) * 2020-11-25 2023-11-28 北京市商汤科技开发有限公司 Face reconstruction method, device, computer equipment and storage medium

Also Published As

Publication number Publication date
TWI773458B (en) 2022-08-01
JP2023507863A (en) 2023-02-28
TW202221651A (en) 2022-06-01
WO2022110791A1 (en) 2022-06-02
CN112419454B (en) 2023-11-28
CN112419454A (en) 2021-02-26

Similar Documents

Publication Publication Date Title
KR20220075339A (en) Face reconstruction method, apparatus, computer device and storage medium
TWI778723B (en) Method, device, computer equipment and storage medium for reconstruction of human face
US11727617B2 (en) Single image-based real-time body animation
CN111784821B (en) Three-dimensional model generation method and device, computer equipment and storage medium
JP4950787B2 (en) Image processing apparatus and method
KR20110030869A (en) Apparatus and method for extracting user's third dimension facial expression
CN107657664B (en) Image optimization method and device after face expression synthesis, storage medium and computer equipment
WO2021253788A1 (en) Three-dimensional human body model construction method and apparatus
CN111028354A (en) Image sequence-based model deformation human face three-dimensional reconstruction scheme
CN111402394B (en) Three-dimensional exaggerated cartoon face generation method and device
CN115984447B (en) Image rendering method, device, equipment and medium
CN113095206A (en) Virtual anchor generation method and device and terminal equipment
CN114202615A (en) Facial expression reconstruction method, device, equipment and storage medium
CN112419144A (en) Face image processing method and device, electronic equipment and storage medium
CN115601484A (en) Virtual character face driving method and device, terminal equipment and readable storage medium
CN114429518A (en) Face model reconstruction method, device, equipment and storage medium
WO2022110855A1 (en) Face reconstruction method and apparatus, computer device, and storage medium
CN114359453A (en) Three-dimensional special effect rendering method and device, storage medium and equipment
CN108717730B (en) 3D character reconstruction method and terminal
CN114612614A (en) Human body model reconstruction method and device, computer equipment and storage medium
JP2024503596A (en) Volumetric video from image source
JP5642583B2 (en) Image generating apparatus and image generating program
JP4101734B2 (en) Facial expression estimation device, facial expression estimation method, and facial expression estimation program
WO2024055379A1 (en) Video processing method and system based on character avatar model, and related device
US20230245365A1 (en) Volumetric avatars from a phone scan

Legal Events

Date Code Title Description
E902 Notification of reason for refusal