KR20230098313A - Facial reconstruction methods, devices, computer devices and storage media - Google Patents

Facial reconstruction methods, devices, computer devices and storage media Download PDF

Info

Publication number
KR20230098313A
KR20230098313A KR1020237018454A KR20237018454A KR20230098313A KR 20230098313 A KR20230098313 A KR 20230098313A KR 1020237018454 A KR1020237018454 A KR 1020237018454A KR 20237018454 A KR20237018454 A KR 20237018454A KR 20230098313 A KR20230098313 A KR 20230098313A
Authority
KR
South Korea
Prior art keywords
point cloud
cloud data
dense point
face
sample
Prior art date
Application number
KR1020237018454A
Other languages
Korean (ko)
Inventor
춘쩌 린
쭈카이 천
취안 왕
성웨이 쉬
천 첸
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20230098313A publication Critical patent/KR20230098313A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 안면 재구성 방법, 장치, 컴퓨터 기기 및 저장 매체를 제공하는 바, 여기서, 상기 방법은 타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계; 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 단계; 기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하는 단계 - 복수 그룹의 제2 참조 안면은 복수 장의 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것임 -; 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 타깃 이미지의 원본 안면에 대응하는 타깃 안면 모델을 생성하는 단계를 포함한다.The present invention provides a face reconstruction method, apparatus, computer device, and storage medium, wherein the method comprises: obtaining dense point cloud data of an original face included in a target image; Fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images to obtain a fitting coefficient corresponding to each of the dense point cloud data of the first reference face of the plurality of groups step; Determining dense point cloud data of a target facial model based on fitting coefficients corresponding to each of the dense point cloud data of a plurality of groups of second reference faces and the dense point cloud data of a plurality of groups of first reference faces having a preset style step, the second reference faces of the plurality of groups are generated based on the first reference faces in the plurality of reference images; and generating a target face model corresponding to the original face of the target image based on the dense point cloud data of the target face model.

Description

안면 재구성 방법, 장치, 컴퓨터 기기 및 저장 매체Facial reconstruction methods, devices, computer devices and storage media

[관련 출원의 교차 인용][Cross-citation of related applications]

본 출원은 2020년 11월 25일에 제출되고, 출원 번호가 202011337942.0이고 발명의 명칭이 "안면 재구성 방법, 장치, 컴퓨터 기기 및 저장 매체”인 중국 특허출원의 우선권을 주장하며 이의 모든 내용은 인용을 통해 본 출원에 통합된다.This application claims priority of the Chinese patent application filed on November 25, 2020, application number 202011337942.0, titled "Facial reconstruction method, device, computer device and storage medium", all contents of which are hereby incorporated by reference. incorporated into this application through

[기술분야][Technical field]

본 발명은 이미지 처리 기술분야에 관한 것으로, 구체적으로는 안면 재구성 방법, 장치, 컴퓨터 기기 및 저장 매체에 관한 것이다.TECHNICAL FIELD The present invention relates to the field of image processing technology, and more particularly to facial reconstruction methods, apparatus, computer devices, and storage media.

통상적으로, 실제 안면 또는 자신의 기호에 따라 가상 안면 3차원 모델을 구축하여 안면의 재구성을 구현함으로써 게임, 애니메이션, 가상 소셜 등 분야에 광범위하게 응용할 수 있다. 예를 들면, 게임에서 게임 플레이어는 게임 프로그램이 제공하는 안면 재구성 시스템을 통해 게임 플레이어가 제공하는 이미지에 포함된 실제 안면에 따라 가상 안면 3차원 모델을 생성하고, 생성된 가상 안면 3차원 모델을 이용하여 몰입감 있게 게임에 참여할 수 있도록 한다.In general, by constructing a 3D model of a real face or a virtual face according to one's preference and realizing face reconstruction, it can be widely applied to fields such as games, animations, and virtual socials. For example, in a game, a game player generates a virtual face 3D model according to a real face included in an image provided by the game player through a face reconstruction system provided by a game program, and uses the generated virtual face 3D model. This allows you to be immersed in the game.

현재, 안면 재구성 방법에 기반하여 얻은 가상 안면 3차원 모델과 실제 안면 사이의 유사도는 비교적 낮다.Currently, the similarity between a virtual face 3D model obtained based on a face reconstruction method and a real face is relatively low.

본 발명의 실시예는 적어도 안면 재구성 방법, 장치, 컴퓨터 기기 및 저장 매체를 제공한다.Embodiments of the present invention provide at least a facial reconstruction method, apparatus, computer device, and storage medium.

제1 양태에서, 본 발명의 실시예는 안면 재구성 방법을 제공하는 바, 이는, 타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계; 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 단계; 기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하되; 상기 복수 그룹의 제2 참조 안면은 각각 상기 복수 장의 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것인 단계; 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 상기 타깃 이미지의 상기 원본 안면에 대응하는 타깃 안면 모델을 생성하는 단계를 포함한다.In a first aspect, an embodiment of the present invention provides a face reconstruction method, which includes: obtaining dense point cloud data of an original face included in a target image; Fitting coefficients corresponding to each of the dense point cloud data of the first reference face of a plurality of groups by fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images obtaining; Determining dense point cloud data of a target face model based on dense point cloud data of a plurality of groups of second reference faces having a preset style and fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face but; second reference faces of the plurality of groups are generated based on first reference faces in the plurality of reference images; and generating a target face model corresponding to the original face of the target image based on dense point cloud data of the target face model.

상기 실시형태에서는, 피팅 계수를 매개체로 이용하여 원본 안면의 덴스 포인트 클라우드 데이터와 복수의 제1 참조 안면의 덴스 포인트 클라우드 데이터 사이의 연관 관계를 구축하는 바, 이 연관 관계는 제1 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 결정된 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 원본 안면에 기반하여 구축된 타깃 안면 모델의 덴스 포인트 클라우드 데이터 사이의 연관을 특성화하여 생성된 타깃 안면 모델이 타깃 이미지 내의 원본 안면의 특징(예컨대 형상 특징 등)을 구비하도록 함으로써 원본 안면과 더 높은 유사도를 가질 수 있고 생성된 타깃 안면 모델이 기설정된 스타일을 구비하도록 할 수 있다.In the above embodiment, a correlation between the original face's dense point cloud data and the plurality of first reference face's dense point cloud data is established using the fitting coefficient as a medium. The target facial model generated by characterizing the association between the dense point cloud data of the second reference face determined based on the point cloud data and the dense point cloud data of the target facial model built based on the original face is the original face in the target image. By having features (eg, shape features, etc.), it is possible to have a higher degree of similarity with the original face, and it is possible to make the created target face model have a preset style.

한 가지 선택적인 실시형태에서, 기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하는 단계는, 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터를 생성하는 단계; 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 단계를 포함한다.In one optional embodiment, a target face based on a fitting coefficient corresponding to each of the dense point cloud data of a plurality of groups of second reference faces having a preset style and the plurality of groups of dense point cloud data of the first reference face. The determining of the dense point cloud data of the model may include generating average value data of a plurality of groups of the second reference face dense point cloud data based on the plurality of groups of the second reference face dense point cloud data; Based on the dense point cloud data of the second reference face of the plurality of groups, the average value data, and the fitting coefficient corresponding to each of the plurality of groups of the dense point cloud data of the first reference face of the plurality of groups, the dense point cloud data of the target face model It includes the steps of creating

한 가지 선택적인 실시형태에서, 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 단계는, 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 중 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 상기 평균값 데이터에 기반하여 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 차이값 데이터를 결정하는 단계; 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 보간 처리를 수행하는 단계; 상기 보간 처리의 결과 및 상기 평균값 데이터에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 단계를 포함한다.In one optional embodiment, the target based on a fitting coefficient corresponding to each of the plurality of groups of dense point cloud data of the second reference face, the average value data, and the plurality of groups of dense point cloud data of the first reference face The generating of the dense point cloud data of the facial model includes the dense point cloud data of the second reference face of each group among the dense point cloud data of the second reference face of a plurality of groups and the average value data of each group based on the average value data. determining difference value data of dense point cloud data of the second reference face; Performing interpolation on difference value data corresponding to each of the plurality of groups of dense point cloud data of the second reference face based on fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face. ; and generating dense point cloud data of the target facial model based on a result of the interpolation process and the average value data.

상기 실시형태에서, 평균값 데이터를 이용하여 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균 특징을 정확하게 나타낼 수 있고; 각 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 차이값 데이터를 이용하여 각 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터와 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 평균 특징의 각각의 차이를 정확하게 나타낼 수 있음으로써, 보다 정확한 차이도 데이터를 이용하여 평균값 데이터를 조정하여 보다 간단하게 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정할 수 있다.In the above embodiment, the average feature of the dense point cloud data of the plurality of groups of the second reference face can be accurately expressed using the average value data; Each difference between the dense point cloud data of the second reference face of each group and the average feature of the dense point cloud data of the second reference face of the plurality of groups using the difference value data of the dense point cloud data of the second reference face of each group , it is possible to more simply determine the dense point cloud data of the target facial model by adjusting the average value data using more accurate difference data.

한 가지 선택적인 실시형태에서, 타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계는, 상기 원본 안면을 포함하는 상기 타깃 이미지를 획득하는 단계; 미리 트레이닝된 신경망으로 상기 타깃 이미지를 처리하여 상기 타깃 이미지 내의 상기 원본 안면의 덴스 포인트 클라우드 데이터를 얻는 단계를 포함한다.In one optional embodiment, acquiring the dense point cloud data of the original face included in the target image includes acquiring the target image including the original face; and obtaining dense point cloud data of the original face in the target image by processing the target image with a pretrained neural network.

상기 실시형태에서, 원본 안면의 덴스 포인트 클라우드 데이터를 이용하여 보다 정확하게 타깃 이미지 내의 원본 안면의 안면 특징을 나타낼 수 있다.In the above embodiment, the facial features of the original face in the target image can be represented more accurately by using the dense point cloud data of the original face.

한 가지 선택적인 실시형태에서, 상기 방법은, 제1 참조 안면을 포함하는 복수 장의 참조 이미지를 획득하는 방식; 복수 장의 상기 참조 이미지 내의 각각의 상기 참조 이미지에 대하여, 미리 트레이닝된 신경망으로 각각의 상기 참조 이미지를 처리하여 각 참조 이미지 내의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식을 통해 상기 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 획득한다.In one optional embodiment, the method includes a method of obtaining a plurality of reference images including a first reference face; For each of the reference images in the plurality of reference images, a method of obtaining dense point cloud data of the first reference face in each reference image by processing each reference image with a pre-trained neural network Reference of the plurality of sheets Dense point cloud data of the first reference face corresponding to each image is acquired.

상기 실시형태에서, 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 참조 이미지 중 제1 참조 안면에 각각 대응하는 안면 특징을 보다 정확하기 나타낼 수 있다. 동시에, 제1 참조 안면을 포함하는 복수 장의 참조 이미지를 이용하여 가능한 광범위하게 안면 외형 특징을 커버할 수 있다.In the above embodiment, facial features respectively corresponding to the first reference face in the reference image may be more accurately represented using dense point cloud data of the first reference face. At the same time, it is possible to cover facial appearance features as broadly as possible by using a plurality of reference images including the first reference face.

한 가지 선택적인 실시형태에서, 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 단계는, 상기 원본 안면의 덴스 포인트 클라우드 데이터 및 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대해 최소 제곱 처리를 수행하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 중간 계수를 얻는 단계; 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정하는 단계를 포함한다.In one optional embodiment, the dense point cloud data of the original face is fitted using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images to obtain a plurality of groups of dense point cloud data of the first reference face The obtaining of fitting coefficients corresponding to each of the cloud data may include performing least square processing on the density point cloud data of the original face and the dense point cloud data of the first reference face to obtain a plurality of groups of dense point cloud data of the first reference face obtaining intermediate coefficients corresponding to each point cloud data; and determining fitting coefficients corresponding to the dense point cloud data of the first reference face of each group based on intermediate coefficients corresponding to the dense point cloud data of the first reference face of each group.

상기 실시형태에서, 피팅 계수를 이용하여 복수의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 원본 안면의 덴스 포인트 클라우드 데이터를 피팅할 경우의 피팅 상황을 정확하게 나타낼 수 있다.In the above embodiment, it is possible to accurately represent a fitting situation when fitting the dense point cloud data of the original face using the dense point cloud data of the plurality of first reference faces using the fitting coefficient.

한 가지 선택적인 실시형태에서, 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정하는 단계는, 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 참조 안면 중 타깃 안면 모델의 부위에 대응하는 제1 유형의 덴스 포인트 클라우드 데이터를 결정하는 단계; 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 상기 제1 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 조정하여 제1 피팅 계수를 얻는 단계; 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 제2 피팅 계수로 결정하되; 상기 제2 유형의 덴스 포인트 클라우드 데이터는 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 유형의 덴스 포인트 클라우드 데이터를 제외한 덴스 포인트 클라우드 데이터인 단계; 상기 제1 피팅 계수 및 상기 제2 피팅 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터의 피팅 계수를 얻는 단계를 포함한다.In one optional embodiment, determining a fitting coefficient corresponding to the dense point cloud data of the first reference face of each group based on an intermediate coefficient corresponding to the dense point cloud data of the first reference face of each group. Determining a first type of dense point cloud data corresponding to a part of a target facial model among the first reference faces from the dense point cloud data of the first reference faces of each group; obtaining first fitting coefficients by adjusting intermediate coefficients corresponding to the first type of dense point cloud data among the dense point cloud data of the first reference face; determining an intermediate coefficient corresponding to a second type of dense point cloud data among the dense point cloud data of the first reference face as a second fitting coefficient; the second type of dense point cloud data is dense point cloud data excluding the first type of dense point cloud data from the dense point cloud data of the first reference face; and obtaining a fitting coefficient of the dense point cloud data of the first reference face of each group based on the first fitting coefficient and the second fitting coefficient.

한 가지 선택적인 실시형태에서, 상기 방법은, 상기 참조 이미지 내의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 조정하여 상기 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식; 또는, 상기 참조 이미지 내의 제1 참조 안면에 기반하여 상기 기설정된 스타일을 구비한 제2 참조 안면을 포함하는 가상 안면 이미지를 생성하고; 미리 트레이닝된 신경망을 이용하여 상기 가상 안면 이미지 내의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성하는 방식을 통해 기설정된 스타일을 구비한 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터를 획득한다.In one optional embodiment, the method includes a method of obtaining dense point cloud data of a second reference face having the preset style by adjusting dense point cloud data of a first reference face in the reference image; or, generating a virtual face image including a second reference face having the preset style based on a first reference face in the reference image; Dense point cloud data of the second reference face having a preset style is acquired through a method of generating dense point cloud data of the second reference face in the virtual face image using a pre-trained neural network.

상기 실시형태에서는, 일부 안면 부위에 대응하는 피팅 계수를 조정함으로써 피팅 계수 및 복수의 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 피팅하여 얻은 덴스 포인트 클라우드 데이터가 타깃 이미지에 대응하는 원본 안면의 덴스 포인트 클라우드 데이터에 근접하도록 할 수 있는 바, 즉 얻은 피팅 계수는 제1 참조 안면 덴스 포인트 클라우드가 원본 안면 덴스 포인트 클라우드를 피팅할 경우의 계수를 보다 정확하게 나타낼 수 있다.In the above embodiment, by adjusting the fitting coefficients corresponding to some facial parts, the dense point cloud data obtained by fitting based on the fitting coefficients and the plurality of corresponding dense point cloud data of the first reference face correspond to the original face corresponding to the target image , that is, the obtained fitting coefficient can more accurately represent the coefficient when the first reference facial dense point cloud fits the original facial dense point cloud.

한 가지 선택적인 실시형태에서, 상기 신경망을 트레이닝하는 단계는, 샘플 이미지 집합을 획득하되; 상기 샘플 이미지 집합은 제1 샘플 안면이 포함된 복수 장의 제1 샘플 이미지를 포함하되; 상기 복수 장의 제1 샘플 이미지는 복수의 제1 샘플 이미지 서브셋으로 구획되며, 각각의 제1 샘플 이미지 서브셋에는 복수의 기설정된 수집 각도로부터 각각 수집하여 얻은 같은 종류의 표정을 구비한 제1 샘플 안면의 이미지가 포함된 단계; 상기 샘플 이미지 집합 중의 제1 샘플 이미지의 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계; 상기 신경망으로 상기 샘플 이미지 집합 중의 제1 샘플 이미지에 대해 특징 학습을 수행하여 상기 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계; 상기 제1 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 단계를 포함한다.In one optional embodiment, training the neural network comprises: obtaining a set of sample images; The sample image set includes a plurality of first sample images including a first sample face; The plurality of first sample images are partitioned into a plurality of subsets of first sample images, and in each subset of first sample images, first sample facial expressions having the same type of expression obtained by collecting each from a plurality of predetermined collection angles are included. Steps with images; obtaining dense point cloud data of a first sample face of a first sample image in the sample image set; obtaining predicted density point cloud data of a first sample face of the first sample image by performing feature learning on a first sample image in the sample image set with the neural network; and training the neural network using the dense point cloud data of the first sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 샘플 이미지 집합은 제2 샘플 안면과 백그라운드를 포함하는 복수 장의 제2 샘플 이미지를 더 포함하고, 상기 신경망을 트레이닝하는 단계는, 각각의 상기 제2 샘플 이미지의 안면 키포인트 데이터를 획득하는 단계; 제2 샘플 이미지의 안면 키포인트 데이터 및 상기 제2 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 피팅하여 생성하는 단계; 상기 신경망으로 상기 샘플 이미지 집합 중의 제2 샘플 이미지에 대해 특징 학습을 수행하여 상기 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계; 상기 제2 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 단계를 더 포함한다.In one optional embodiment, the sample image set further includes a plurality of second sample images including a second sample face and a background, and the step of training the neural network includes a face of each of the second sample images. obtaining keypoint data; fitting and generating dense point cloud data of a second sample face of the second sample image using facial keypoint data of a second sample image and the second sample image; obtaining predicted density point cloud data of a second sample face of the second sample image by performing feature learning on a second sample image in the sample image set with the neural network; The method may further include training the neural network using the dense point cloud data of the second sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 샘플 이미지 집합에는 제3 샘플 이미지가 더 포함되고; 상기 제3 샘플 이미지는 상기 제1 샘플 이미지에 대해 데이터 증강 처리를 수행하여 얻은 것이며; In one optional embodiment, the set of sample images further includes a third sample image; the third sample image is obtained by performing data augmentation processing on the first sample image;

상기 신경망을 트레이닝하는 단계는, Training the neural network,

상기 제3 샘플 이미지의 제3 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계; 상기 신경망으로 상기 제3 샘플 이미지에 대해 특징 학습을 수행하여 상기 제3 샘플 이미지의 제3 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계; obtaining dense point cloud data of a third sample face of the third sample image; obtaining predicted density point cloud data of a third sample face of the third sample image by performing feature learning on the third sample image with the neural network;

상기 제3 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 단계를 더 포함한다.The method may further include training the neural network using the dense point cloud data of the third sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 데이터 증강 처리는 랜덤 오클루전 처리, 가우스 노이즈 처리, 모션 블러 처리 및 색상 영역 채널 변경 처리 중 적어도 하나를 포함한다.In one optional embodiment, the data augmentation process includes at least one of random occlusion process, Gaussian noise process, motion blur process and color gamut channel change process.

상기 실시형태에서는, 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지의 수량을 조절하여 상이한 장점을 가지는 신경망을 얻음으로써 실제 수요에 따라 보다 우수한 신경망을 얻고; 동시에, 제3 샘플 이미지는 데이터 증강 처리를 통해 얻은 것이므로 샘플 이미지에 제3 샘플 이미지가 포함될 경우, 트레이닝하여 얻은 신경망이 데이터를 처리하는 능력이 보다 강해진다.In the above embodiments, a better neural network is obtained according to actual needs by adjusting the quantity of the first sample image, the second sample image, and the third sample image to obtain neural networks having different advantages; At the same time, since the third sample image is obtained through data augmentation processing, when the sample image includes the third sample image, the ability of the neural network obtained by training to process data becomes stronger.

동시에, 제2 샘플 이미지에 포함된 안면이 가능한 광범위하게 안면 외형 특징을 커버할 수 있으므로 획득된 신경망은 비교적 양호한 일반화 능력을 구비할 수 있다.At the same time, since the face included in the second sample image can cover facial appearance features as broadly as possible, the acquired neural network can have relatively good generalization ability.

제2 양태에서, 본 발명의 실시예는 안면 재구성 장치를 더 제공하는 바, 이는, In a second aspect, an embodiment of the present invention further provides a facial reconstruction device, which includes:

타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 제1 획득 모듈; a first acquiring module for obtaining dense point cloud data of an original face included in a target image;

복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 제1 처리 모듈; Fitting coefficients corresponding to each of the dense point cloud data of the first reference face of a plurality of groups by fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images A first processing module to obtain;

기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하되; 상기 복수 그룹의 제2 참조 안면은 각각 상기 복수 장의 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것인 결정 모듈; Determining dense point cloud data of a target face model based on dense point cloud data of a plurality of groups of second reference faces having a preset style and fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face but; a determination module, wherein each of the plurality of groups of second reference faces is generated based on a first reference face in the plurality of reference images;

상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 상기 타깃 이미지의 상기 원본 안면에 대응하는 타깃 안면 모델을 생성하는 생성 모듈을 포함한다.and a generation module for generating a target face model corresponding to the original face of the target image based on dense point cloud data of the target face model.

한 가지 선택적인 실시형태에서, 상기 결정 모듈은 기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정할 경우, 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터를 생성하고; 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성한다.In one optional embodiment, the determining module determines the fitting coefficient corresponding to each of the plurality of groups of dense point cloud data of the second reference face and the plurality of groups of the dense point cloud data of the first reference face having a preset style. when determining the dense point cloud data of the target facial model based on the above, generating average value data of the dense point cloud data of the second reference face of the plurality of groups based on the dense point cloud data of the second reference face of the plurality of groups; Based on the dense point cloud data of the second reference face of the plurality of groups, the average value data, and the fitting coefficient corresponding to each of the plurality of groups of the dense point cloud data of the first reference face of the plurality of groups, the dense point cloud data of the target face model generate

한 가지 선택적인 실시형태에서, 상기 결정 모듈은 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성할 경우, 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 중 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 상기 평균값 데이터에 기반하여 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 차이값 데이터를 결정하고; 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 보간 처리를 수행하며; 상기 보간 처리의 결과 및 상기 평균값 데이터에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성한다.In one optional embodiment, the determining module determines a plurality of groups of dense point cloud data of the second reference face, the average value data, and a plurality of groups of fitting coefficients corresponding to each of the dense point cloud data of the first reference face. Based on the dense point cloud data of the second reference face of each group among the dense point cloud data of the second reference face of a plurality of groups and the average value data determine difference value data of the dense point cloud data of the second reference face of each group; performing interpolation on difference value data corresponding to each of the plurality of groups of dense point cloud data of the second reference face based on fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face; Dense point cloud data of the target facial model is generated based on the result of the interpolation process and the average value data.

한 가지 선택적인 실시형태에서, 상기 제1 획득 모듈은 타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득할 경우, 상기 원본 안면을 포함하는 상기 타깃 이미지를 획득하고; 미리 트레이닝된 신경망으로 상기 타깃 이미지를 처리하여 상기 타깃 이미지 내의 상기 원본 안면의 덴스 포인트 클라우드 데이터를 얻는다.In one optional embodiment, the first acquiring module, when obtaining dense point cloud data of an original face included in the target image, acquires the target image including the original face; Dense point cloud data of the original face in the target image is obtained by processing the target image with a pre-trained neural network.

한 가지 선택적인 실시형태에서, 상기 장치는, 제1 참조 안면을 포함하는 복수 장의 참조 이미지를 획득하는 방식; 복수 장의 상기 참조 이미지 내의 각각의 상기 참조 이미지에 대하여, 미리 트레이닝된 신경망으로 각각의 상기 참조 이미지를 처리하여 각 참조 이미지 내의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식을 통해 상기 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 획득하는 제2 처리 모듈을 더 포함한다.In one optional embodiment, the device includes: a method of obtaining a plurality of reference images including a first reference face; For each of the reference images in the plurality of reference images, a method of obtaining dense point cloud data of the first reference face in each reference image by processing each reference image with a pre-trained neural network Reference of the plurality of sheets A second processing module for obtaining dense point cloud data of the first reference face corresponding to each image is further included.

한 가지 선택적인 실시형태에서, 상기 제1 처리 모듈은 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻을 경우, 상기 원본 안면의 덴스 포인트 클라우드 데이터 및 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대해 최소 제곱 처리를 수행하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 중간 계수를 얻고; 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정한다.In one optional embodiment, the first processing module uses dense point cloud data of a first reference face corresponding to each of a plurality of reference images to fit the original face to the dense point cloud data to obtain the first plurality of groups. 1 When obtaining fitting coefficients corresponding to each of the dense point cloud data of the reference face, least square processing is performed on the dense point cloud data of the original face and the dense point cloud data of the first reference face to obtain the first of the plurality of groups 1 obtain intermediate coefficients corresponding to each of the dense point cloud data of the reference face; A fitting coefficient corresponding to the dense point cloud data of the first reference face of each group is determined based on an intermediate coefficient corresponding to the dense point cloud data of the first reference face of each group.

한 가지 선택적인 실시형태에서, 상기 제1 처리 모듈은 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정할 경우, 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 참조 안면 중 타깃 안면 모델의 부위에 대응하는 제1 유형의 덴스 포인트 클라우드 데이터를 결정하고; 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 상기 제1 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 조정하여 제1 피팅 계수를 얻으며; 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 제2 피팅 계수로 결정하되; 상기 제2 유형의 덴스 포인트 클라우드 데이터는 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 유형의 덴스 포인트 클라우드 데이터를 제외한 덴스 포인트 클라우드 데이터이고; 상기 제1 피팅 계수 및 상기 제2 피팅 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터의 피팅 계수를 얻는다.In one optional embodiment, the first processing module is configured to: based on a median coefficient corresponding to the dense point cloud data of the first reference face of each group, the dense point cloud data corresponding to the first reference face of each group; determining a first type of dense point cloud data corresponding to a part of a target facial model among the first reference faces from the dense point cloud data of the first reference faces of each group when determining the fitting coefficient; obtaining first fitting coefficients by adjusting intermediate coefficients corresponding to the first type of dense point cloud data of the first reference face among the dense point cloud data; determining an intermediate coefficient corresponding to a second type of dense point cloud data among the dense point cloud data of the first reference face as a second fitting coefficient; the second type of dense point cloud data is dense point cloud data excluding the first type of dense point cloud data from the dense point cloud data of the first reference face; A fitting coefficient of the dense point cloud data of the first reference face of each group is obtained based on the first fitting coefficient and the second fitting coefficient.

한 가지 선택적인 실시형태에서, 상기 장치는, 상기 참조 이미지 내의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 조정하여 상기 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식; 또는, 상기 참조 이미지 내의 제1 참조 안면에 기반하여 상기 기설정된 스타일을 구비한 제2 참조 안면을 포함하는 가상 안면 이미지를 생성하고; 미리 트레이닝된 신경망을 이용하여 상기 가상 안면 이미지 내의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성하는 방식을 통해 기설정된 스타일을 구비한 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터를 획득하는 조정 모듈을 더 포함한다.In one optional embodiment, the device further comprises: adjusting dense point cloud data of a first reference face in the reference image to obtain dense point cloud data of a second reference face having the preset style; or, generating a virtual face image including a second reference face having the preset style based on a first reference face in the reference image; An adjustment module for obtaining dense point cloud data of the second reference face having a preset style through a method of generating dense point cloud data of the second reference face in the virtual face image using a pre-trained neural network. contains more

한 가지 선택적인 실시형태에서, 상기 장치는, 상기 신경망을 트레이닝 할 경우, 샘플 이미지 집합을 획득하되; 상기 샘플 이미지 집합은 제1 샘플 안면이 포함된 복수 장의 제1 샘플 이미지를 포함하고; 상기 복수 장의 제1 샘플 이미지는 복수의 제1 샘플 이미지 서브셋으로 구획되며, 각각의 제1 샘플 이미지 서브셋에는 복수의 기설정된 수집 각도로부터 각각 수집하여 얻은 같은 종류의 표정을 구비한 제1 샘플 안면의 이미지가 포함되고; 상기 샘플 이미지 집합 중의 제1 샘플 이미지의 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하며; 신경망으로 상기 샘플 이미지 집합 중의 제1 샘플 이미지에 대해 특징 학습을 수행하여 상기 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻고; 상기 제1 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 트레이닝 모듈을 더 포함한다.In one optional embodiment, when training the neural network, the device acquires a set of sample images; the sample image set includes a plurality of first sample images including a first sample face; The plurality of first sample images are partitioned into a plurality of subsets of first sample images, and in each subset of first sample images, first sample facial expressions having the same type of expression obtained by collecting each from a plurality of predetermined collection angles are included. images are included; acquire dense point cloud data of a first sample face of a first sample image in the sample image set; perform feature learning on a first sample image in the sample image set with a neural network to obtain predicted density point cloud data of a first sample face of the first sample image; and a training module configured to train the neural network using the dense point cloud data of the first sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 샘플 이미지 집합은 제2 샘플 안면과 백그라운드를 포함하는 복수 장의 제2 샘플 이미지를 더 포함하고, 상기 트레이닝 모듈은 또한, 각각의 상기 제2 샘플 이미지의 안면 키포인트 데이터를 획득하며; 제2 샘플 이미지의 안면 키포인트 데이터 및 상기 제2 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 피팅하여 생성하고; 상기 신경망으로 상기 샘플 이미지 집합 중의 제2 샘플 이미지에 대해 특징 학습을 수행하여 상기 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻으며; 상기 제2 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝한다.In one optional embodiment, the sample image set further includes a plurality of second sample images including a second sample face and a background, and the training module further includes facial keypoint data of each of the second sample images. obtain; generating by fitting dense point cloud data of a second sample face of the second sample image using facial keypoint data of the second sample image and the second sample image; perform feature learning on a second sample image in the sample image set with the neural network to obtain predicted density point cloud data of a second sample face of the second sample image; The neural network is trained using the dense point cloud data of the second sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 샘플 이미지 집합에는 제3 샘플 이미지가 더 포함되고; 상기 제3 샘플 이미지는 상기 제1 샘플 이미지에 대해 데이터 증강 처리를 수행하여 얻은 것이며; In one optional embodiment, the set of sample images further includes a third sample image; the third sample image is obtained by performing data augmentation processing on the first sample image;

상기 트레이닝 모듈은 또, 상기 제3 샘플 이미지의 제3 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하고; 상기 신경망으로 상기 제3 샘플 이미지에 대해 특징 학습을 수행하여 상기 제3 샘플 이미지의 제3 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻으며; The training module further acquires dense point cloud data of a third sample face of the third sample image; perform feature learning on the third sample image with the neural network to obtain predicted dense point cloud data of a third sample face of the third sample image;

상기 제3 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝한다.The neural network is trained using the dense point cloud data of the third sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 데이터 증강 처리는 랜덤 오클루전 처리, 가우스 노이즈 처리, 모션 블러 처리 및 색상 영역 채널 변경 처리 중 적어도 하나를 포함한다.In one optional embodiment, the data augmentation process includes at least one of random occlusion process, Gaussian noise process, motion blur process and color gamut channel change process.

제3 양태에서, 본 발명의 선택적인 실시형태는 프로세서와 메모리를 포함하는 컴퓨터 기기를 더 제공하는 바, 상기 프로세서는 상기 메모리에 저장된 기계 판독 가능 명령을 실행하고, 상기 기계 판독 가능 명령이 상기 프로세서에 의해 실행될 경우, 상기 제1 양태 또는 제1 양태 중 임의의 한 가지 가능한 실시형태에 따른 단계를 수행한다.In a third aspect, an alternative embodiment of the present invention further provides a computer device comprising a processor and a memory, wherein the processor executes machine-readable instructions stored in the memory, and the machine-readable instructions correspond to the processor When performed by, steps according to the first aspect or any one possible embodiment of the first aspect are performed.

제4 양태에서, 본 발명의 선택적인 실시형태는 컴퓨터 판독 가능 저장 매체를 더 제공하는 바, 이에 저장된 컴퓨터 프로그램이 실행될 경우, 상기 제1 양태 또는 제1 양태 중 임의의 한 가지 가능한 실시형태에 따른 단계를 수행한다.In a fourth aspect, an alternative embodiment of the present invention further provides a computer readable storage medium wherein, when a computer program stored therein is executed, according to the first aspect or any one possible embodiment of the first aspect. do the steps

상기 안면 재구성 장치, 컴퓨터 기기 및 컴퓨터 판독 가능 저장 매체의 효과 설명은 상기 안면 재구성 방법의 설명을 참조할 수 있는 바, 여기서 더 이상 설명하지 않는다.A description of the effects of the face reconstruction device, computer device, and computer readable storage medium may refer to the description of the face reconstruction method, which is not described herein any further.

본 발명의 상기 목적, 특징 및 장점이 보다 뚜렷하고 이해하기 쉽도록 하기 위하여 아래에서는 특별히 바람직한 실시예를 열거하고 첨부 도면과 결부하여 아래와 같이 상세하게 설명한다.In order to make the above objects, features and advantages of the present invention clearer and easier to understand, particularly preferred embodiments are enumerated below and described in detail below in conjunction with the accompanying drawings.

본 발명의 실시예의 기술적 해결수단을 보다 명확하게 설명하기 위하여 이하 실시예에서 사용하고자 하는 도면을 간단히 소개하는 바, 이러한 도면은 본 발명에 부합되는 실시예를 도시하며, 명세서와 함께 본 발명의 기술적 해결수단을 설명한다. 아래 도면은 단지 본 발명의 일부 실시예를 도시하므로 범위에 대한 한정으로 간주되지 말아야 하며, 본 기술분야의 통상의 기술자는, 창조적 노력 없이 이러한 도면에 따라 다른 도면을 얻을 수 있다는 것을 이해해야 한다.
도 1은 본 발명의 실시예에서 제공하는 안면 재구성 방법의 흐름도를 도시한다;
도 2는 본 발명의 실시예에서 제공하는 신경망을 트레이닝하는 구체적인 방법의 흐름도를 도시한다;
도 3은 본 발명의 실시예에서 제공하는 제1 샘플 이미지 및 제1 샘플 이미지를 이용하여 결정된 제3 샘플 이미지의 모식도를 도시한다;
도 4는 본 발명의 실시예에서 제공하는 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 구체적인 방법의 흐름도를 도시한다;
도 5는 본 발명의 실시예에서 제공하는 신경망 구조의 구체적인 예시도를 도시한다;
도 6은 복수 장의 참조 이미지 각각에 대응하는 피팅 계수를 결정하는 방법의 흐름도를 도시한다;
도 7은 본 발명의 실시예에서 제공하는 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정하는 구체적인 방법의 흐름도를 도시한다;
도 8은 본 발명의 실시예에서 제공하는 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하는 구체적인 방법의 흐름도를 도시한다;
도 9는 본 발명의 실시예에서 제공하는 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 구체적인 방법의 흐름도를 도시한다;
도 10은 본 발명의 실시예에서 제공하는 안면 재구성 장치의 모식도를 도시한다;
도 11은 본 발명의 실시예에서 제공하는 컴퓨터 기기의 모식도를 도시한다.
In order to more clearly explain the technical solutions of the embodiments of the present invention, the drawings to be used in the following embodiments are briefly introduced. These drawings show embodiments consistent with the present invention, and together with the specification, the technical Describe the solution. It should be understood that the drawings below only illustrate some embodiments of the present invention and should not be regarded as limiting in scope, and a person skilled in the art may obtain other drawings based on these drawings without creative efforts.
1 is a flowchart of a facial reconstruction method provided by an embodiment of the present invention;
2 is a flowchart of a specific method for training a neural network provided by an embodiment of the present invention;
3 is a schematic diagram of a first sample image provided by an embodiment of the present invention and a third sample image determined using the first sample image;
4 is a flowchart of a specific method for obtaining dense point cloud data of a second sample face of a second sample image provided by an embodiment of the present invention;
5 shows a specific illustration of the structure of a neural network provided by an embodiment of the present invention;
6 is a flowchart of a method for determining fitting coefficients corresponding to each of a plurality of reference images;
7 is a flowchart of a specific method for determining fitting coefficients corresponding to dense point cloud data of a first reference face of each group provided by an embodiment of the present invention;
8 is a flowchart of a specific method for determining dense point cloud data of a target facial model provided by an embodiment of the present invention;
9 is a flowchart of a specific method for generating dense point cloud data of a target facial model provided by an embodiment of the present invention;
10 is a schematic diagram of a facial reconstruction device provided by an embodiment of the present invention;
11 is a schematic diagram of a computer device provided in an embodiment of the present invention.

본 발명의 실시예의 목적, 기술적 해결수단 및 장점이 보다 뚜렷하도록 하기 위하여 이하 본 발명의 실시예의 도면과 결부하여 본 발명의 실시예의 기술적 해결수단을 뚜렷하고 완전하게 설명하고자 하는 바, 설명된 실시예는 단지 본 발명의 일부 실시예일 뿐 모든 실시예가 아님은 자명한 것이다. 통상적으로, 여기의 도면에서 설명하고 도시한 본 발명의 실시예의 컴포넌트는 여러 가지 상이한 구성으로 배치 및 설계될 수 있다. 따라서, 이하 도면에서 제공하는 본 발명의 실시예의 상세한 설명은 보호하고자 하는 본 발명의 범위를 한정하는 것이 아니라 단지 본 발명의 선정된 실시예를 나타낼 뿐이다. 본 발명의 실시예에 기반하면, 본 기술분야에서 통상의 지식을 가진 자들이 창조적 노력 없이 획득한 모든 기타 실시예는 모두 본 발명의 보호 범위에 속한다.In order to make the objects, technical solutions and advantages of the embodiments of the present invention clearer, the following is intended to clearly and completely explain the technical solutions of the embodiments of the present invention in conjunction with the drawings of the embodiments of the present invention. It is obvious that only some embodiments of the present invention, but not all embodiments. In general, the components of the embodiments of the invention described and illustrated in the figures herein may be arranged and designed in a number of different configurations. Accordingly, the detailed description of the embodiments of the present invention provided in the drawings below does not limit the scope of the present invention to be protected, but only indicates selected embodiments of the present invention. Based on the embodiments of the present invention, all other embodiments obtained by those skilled in the art without creative efforts fall within the protection scope of the present invention.

연구를 거쳐, 인물 이미지에 포함된 안면에 대해 안면 재구성을 수행하여 가상 안면 3차원 모델을 얻을 경우, 통상적으로 안면 이미지에 기반하여 안면에 대응하는 안면 덴스 포인트 클라우드를 획득하고, 다시 가상 안면 3차원 모델의 구체적인 스타일에 근거하여 안면 덴스 포인트 클라우드를 복수 차례 조정하여 가상 이미지를 생성한다는 것을 발견하였다. 상이한 안면에 대응하는 안면 덴스 포인트 클라우드가 상이하므로, 즉 재구성될 가상 안면의 스타일이 동일하더라도 결정된 스타일에 따라 상이한 안면에 대응하는 안면 덴스 포인트 클라우드에 대해 안면 재구성을 수행할 때 수행해야 하는 조정이 같지 않고, 조정에 큰 불확정성이 존재하므로 조정 과정에서 조정의 구체적인 방향을 제어하기 어렵고, 생성된 가상 안면 3차원 모델이 실제 안면과 큰 차이가 존재할 수 있으므로 가상 안면 3차원 모델과 실제 안면 사이의 유사도가 낮은 문제점을 초래하게 된다.After research, when face reconstruction is performed on a face included in a person image to obtain a virtual facial 3D model, a face dense point cloud corresponding to the face is usually acquired based on the face image, and then the virtual face 3D model is obtained. It was found that a virtual image was created by adjusting the facial dense point cloud multiple times based on the specific style of the model. Since the face density point clouds corresponding to different faces are different, that is, even if the styles of the virtual faces to be reconstructed are the same, the adjustments to be performed when performing face reconstruction are not the same for the face dense point clouds corresponding to different faces according to the determined style. It is difficult to control the specific direction of the adjustment during the adjustment process because there is a large uncertainty in the adjustment, and since the generated 3D model of the virtual face may have a large difference from the real face, the degree of similarity between the 3D virtual face model and the real face cause low problems.

이 밖에, 상이한 안면에 대해 안면 재구성을 수행할 경우, 상이한 안면에 대응하는 안면 덴스 포인트 클라우드 및 스타일의 안면 덴스 포인트 클라우드에 대한 요구에 따라 상이한 안면에 대한 조정 방안을 설정해야 하므로, 상이한 조정 방안에 기반하여 각 안면의 안면 덴스 포인트 클라우드를 조정할 경우, 모두 많은 시간을 소비하게 되어 안면 재구성의 효율이 낮게 된다.In addition, when face reconstruction is performed for different faces, adjustment schemes for different faces must be set according to the needs of the face dense point cloud corresponding to the different faces and the face dense point cloud of the style, so that different adjustment schemes If the facial density point cloud of each face is adjusted based on the above, a lot of time is consumed and the efficiency of face reconstruction is low.

상기 연구에 기반하여, 본 발명은 안면 재구성 방법, 장치, 컴퓨터 기기 및 저장 매체를 제공하는 바, 피팅 계수를 매개체로 이용하여 원본 안면의 덴스 포인트 클라우드 데이터와 복수의 제1 참조 안면의 덴스 포인트 클라우드 데이터 사이의 연관 관계를 구축하는 바, 이 연관 관계는 제1 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 결정된 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 원본 안면에 기반하여 구축된 타깃 안면 모델의 덴스 포인트 클라우드 데이터 사이의 연관을 특성화하여 생성된 타깃 안면 모델이 타깃 이미지 내의 원본 안면의 특징(예컨대 형상 특징 등)을 구비하도록 함으로써 원본 안면과 더 높은 유사도를 가질 수 있고 생성된 타깃 안면 모델이 기설정된 스타일을 구비하도록 할 수 있다.Based on the above research, the present invention provides a face reconstruction method, apparatus, computer device, and storage medium, which use fitting coefficients as a medium to obtain dense point cloud data of an original face and dense point clouds of a plurality of first reference faces. An association relationship between the data is established, wherein the association relationship is the dense point cloud data of the second reference face determined based on the dense point cloud data of the first reference face and the dense point of the target face model built based on the original face By characterizing the association between cloud data, the generated target facial model has features (eg shape features, etc.) of the original face in the target image, so that it can have a higher degree of similarity with the original face and the generated target facial model has a preset style. can be provided.

이 외에, 본 해결수단은 상이한 스타일에 대하여, 복수 장의 참조 이미지 각각에 대응하는 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성하고, 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 원본 안면을 위해 타깃 안면 모델을 생성하며, 상이한 원본 안면에 대해 겨냥성이 있게 조정 방안을 결정할 필요가 없이 동일한 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 상이한 원본 안면의 피팅된 계수를 이용하여 상이한 원본 안면의 타깃 안면 모델을 결정하므로 더 높은 처리 효율을 가진다.In addition, the present solution generates dense point cloud data of a second reference face corresponding to each of a plurality of reference images for different styles, and uses the dense point cloud data of the second reference face having a preset style to generate a target face model for the original face, and use the dense point cloud data of the same second reference face and the fitted coefficients of the different original face without the need to determine the adjustment method aimably for the different original face. Since the target face model of the original face is determined, processing efficiency is higher.

상기 수단에 존재하는 흠결은 모두 발명자가 실천 및 세심한 연구를 거쳐 얻은 결과이므로, 상기 문제점의 발견 과정 및 후술되는 본 발명에서 상기 문제점에 대해 제기된 해결수단은 모두 본 발명의 과정 중 본 발명에 대한 발명자의 공헌이어야 한다.Since all of the defects in the above means are the result obtained by the inventor through practice and meticulous research, the discovery process of the above problems and the solutions proposed for the above problems in the present invention to be described later are all related to the present invention during the process of the present invention. It must be the contribution of the inventor.

유사한 부호 및 문자는 아래의 도면에서 유사한 항목을 나타내므로, 하나의 도면에서 한 번 정의된 항목은 이후의 도면에서 더 이상 정의 및 해설될 필요가 없음에 유의해야 한다.It should be noted that similar symbols and letters indicate similar items in the drawings below, so that items defined once in one drawing do not need to be defined and commented on in subsequent drawings.

본 실시예를 이해하기 용이하도록 하기 위하여, 우선 본 발명의 실시예에서 개시한 안면 재구성 방법을 상세하게 소개하는 바, 본 발명의 실시예에서 제공하는 안면 재구성 방법의 실행 주체는 일반적으로 일정한 컴퓨팅 능력을 가지는 컴퓨터 기기이고, 상기 컴퓨터 기기는 예를 들어 단말 디바이스 또는 서버 또는 기타 처리 디바이스를 포함하고, 단말 디바이스는 유저 장비(User Equipment, UE), 모바일 디바이스, 사용자 단말, 셀룰러 폰, 무선 전화, 개인용 정보 단말기(Personal Digital Assistant, PDA), 핸드헬드 디바이스, 컴퓨팅 디바이스, 차량내 디바이스(in-vehicle device), 웨어러블 디바이스 등일 수 있다. 일부 가능한 구현방식에서, 상기 안면 재구성 방법은 프로세서를 통해 메모리에 저장된 컴퓨터 판독 가능 명령을 호출하는 방식으로 구현될 수 있다.In order to make the present embodiment easier to understand, the face reconstruction method disclosed in the embodiment of the present invention is first introduced in detail, and the execution subject of the face reconstruction method provided in the embodiment of the present invention generally has a certain computing power. A computer device having a computer device including, for example, a terminal device or a server or other processing device, wherein the terminal device includes a user equipment (UE), a mobile device, a user terminal, a cellular phone, a wireless phone, a personal use It may be a Personal Digital Assistant (PDA), a handheld device, a computing device, an in-vehicle device, a wearable device, and the like. In some possible implementations, the face reconstruction method may be implemented in a way of calling computer readable instructions stored in a memory through a processor.

이하 본 발명의 실시예에서 제공하는 안면 재구성 방법을 추가로 설명한다.Hereinafter, a facial reconstruction method provided by an embodiment of the present invention will be further described.

도 1에 도시된 내용을 참조하면, 본 발명의 실시예는 안면 재구성 방법을 제공하는 바, 상기 방법은 단계 S101 내지 단계 S104를 포함하고, 여기서: Referring to the content shown in FIG. 1 , an embodiment of the present invention provides a facial reconstruction method, which includes steps S101 to S104, wherein:

단계 S101: 타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득한다; Step S101: Acquiring dense point cloud data of an original face included in a target image;

단계 S102: 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는다; Step S102: Fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images, and fitting corresponding to each of the dense point cloud data of the plurality of groups of first reference faces get coefficients;

단계 S103: 기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하되; 복수 그룹의 제2 참조 안면은 각각 복수 장의 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것이다; Step S103: Dense point cloud data of the target facial model based on fitting coefficients corresponding to each of the dense point cloud data of the plurality of groups of second reference faces and the plurality of groups of dense point cloud data of the first reference face having a preset style. Determine; The plurality of groups of second reference faces are each generated based on the first reference faces in the plurality of reference images;

단계 S104: 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 타깃 이미지의 원본 안면에 대응하는 타깃 안면 모델을 생성한다.Step S104: A target face model corresponding to the original face of the target image is generated according to the dense point cloud data of the target face model.

본 발명의 실시예는 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 통해 타깃 이미지 내의 원본 안면의 덴스 포인트 클라우드 데이터를 피팅할 때 결정된 피팅 계수 및 참조 이미지 내의 제1 참조 안면에 의해 생성되고 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 얻고, 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 타깃 이미지에 대응하는 타깃 안면 모델을 생성하는 바, 당해 과정은 피팅 계수를 매개체로 이용하여 원본 안면의 덴스 포인트 클라우드 데이터와 복수의 제1 참조 안면의 덴스 포인트 클라우드 데이터 사이의 연관 관계를 구축하고, 당해 연관 관계는 제1 참조 안면의 덴스 포인트 클라우드에 기반하여 결정된 제2 참조 안면의 덴스 포인트 클라우드 및 원본 안면의 덴스 포인트 클라우드 데이터에 기반하여 구축된 타깃 안면 모델의 덴스 포인트 클라우드 데이터 사이의 연관을 나타냄으로써, 생성된 타깃 안면 모델의 덴스 포인트 클라우드 데이터가 타깃 이미지 내의 원본 안면의 특징(예컨대 형상 특징 등)을 가지도록 하며, 원본 안면과 더 높은 유사도를 가질 수 있고, 또한 생성된 타깃 안면 모델이 기설정된 스타일을 가질 수 있도록 한다.In an embodiment of the present invention, a fitting coefficient determined when fitting dense point cloud data of an original face in a target image through dense point cloud data of a first reference face corresponding to each of a plurality of reference images and a first reference face in the reference image Obtaining dense point cloud data of a target facial model using dense point cloud data of a second reference face generated by and having a preset style, and a target corresponding to the target image based on the dense point cloud data of the target facial model. A face model is generated, and in this process, an association relationship is established between the dense point cloud data of the original face and the dense point cloud data of a plurality of first reference faces using the fitting coefficient as a medium, and the association relationship is the first A target face generated by showing a correlation between the dense point cloud of the second reference face determined based on the dense point cloud of the reference face and the dense point cloud data of the target face model built based on the dense point cloud data of the original face Make the model's dense point cloud data have features (eg shape features, etc.) of the original face in the target image, have a higher degree of similarity with the original face, and also make the generated target face model have a preset style do.

이하 상기 단계 S101 내지 단계 S104를 추가로 상세하게 설명한다.Steps S101 to S104 will be described in further detail below.

상기 단계 S101에 대하여, Regarding the above step S101,

타깃 이미지는 예를 들면 미리 획득된, 안면을 포함하는 이미지로서, 예를 들면 카메라 등과 같은 촬영 기기를 이용하여 어느 한 오브젝트를 촬영할 때 획득한, 안면을 포함하는 이미지이다. 이때, 예를 들면 이미지에 포함된 임의의 한 안면을 원본 안면으로 결정할 수 있고 원본 안면 재구성 오브젝트로 사용할 수 있다.The target image is, for example, a pre-obtained image including a face, which is obtained when an object is photographed using a photographing device such as a camera, for example, and includes a face. In this case, for example, an arbitrary face included in the image may be determined as the original face and used as the original face reconstruction object.

본 발명의 실시예에서 제공하는 안면 재구성 방법을 상이한 시나리오에 응용할 경우, 타깃 이미지의 획득 방법은 다소 차이가 있다.When the face reconstruction method provided in the embodiment of the present invention is applied to different scenarios, the method of acquiring the target image is slightly different.

예를 들면, 이 안면 재구성 방법을 게임에 응용할 경우, 게임 기기에 장착된 이미지 획득 기기를 통해 게임 플레이어의 얼굴을 포함하는 이미지를 획득하거나, 또는 게임 기기의 앨범에서 게임 플레이어의 얼굴을 포함하는 이미지를 선택하고, 게임 플레이어의 얼굴을 포함하는 이미 획득된 이미지를 타깃 이미지로 사용할 수 있다.For example, when this facial reconstruction method is applied to a game, an image including the game player's face is acquired through an image acquisition device mounted on the game device, or an image including the game player's face is obtained from an album of the game device. is selected, and an already acquired image including the game player's face can be used as the target image.

또 예를 들면, 안면 재구성 방법을 휴대폰 등 단말 기기에 응용할 경우, 단말 기기의 카메라에 의해 사용자 얼굴을 포함하는 이미지를 수집하거나, 또는 단말 기기의 앨범에서 사용자 안면을 포함하는 이미지를 선택하거나, 또는 단말기기에 장착된 기타 애플리케이션 프로그램에서 사용자 얼굴을 포함하는 이미지를 수신할 수 있다.In addition, for example, when the facial reconstruction method is applied to a terminal device such as a mobile phone, an image containing a user's face is collected by a camera of the terminal device, or an image containing the user's face is selected from an album of the terminal device, or Other application programs installed in the terminal device may receive an image including the user's face.

또 예를 들면, 안면 재구성 방법을 생방송 시나리오에 응용할 경우, 생방송 기기에 의해 획득된 비디오 스트림에 포함된 멀티프레임의 비디오 프레임 이미지에서 안면을 포함하는 비디오 프레임 이미지를 획득할 수 있고; 안면을 포함하는 비디오 프레임 이미지를 타깃 이미지로 사용할 수 있다. 여기서, 타깃 이미지는 예를 들면 멀티프레임일 수 있고; 멀티프레임의 타깃 이미지는 예를 들면 비디오 스트림 중의 멀티프레임의 비디오 프레임 이미지에 대해 샘플링을 수행하여 얻은 것일 수 있다.Further, for example, when the face reconstruction method is applied to a live broadcast scenario, a video frame image including a face may be obtained from a multi-frame video frame image included in a video stream obtained by a live broadcast device; A video frame image including a face may be used as a target image. Here, the target image may be multi-frame, for example; For example, the multi-frame target image may be obtained by performing sampling on multi-frame video frame images in a video stream.

타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득할 경우, 예를 들면 원본 안면을 포함하는 타깃 이미지를 획득하는 방식; 미리 트레이닝된 신경망으로 타깃 이미지를 처리하여 타깃 이미지 내의 원본 안면의 덴스 포인트 클라우드 데이터를 얻는 방식을 사용할 수 있다.When obtaining dense point cloud data of an original face included in the target image, for example, a method of obtaining a target image including the original face; A method of obtaining dense point cloud data of an original face in the target image by processing the target image with a pre-trained neural network may be used.

여기서, 미리 트레이닝된 신경망으로 타깃 이미지를 처리하여 원본 안면의 덴스 포인트 클라우드 데이터를 얻을 경우, 미리 트레이닝된 신경망은 컨볼루션 신경망(Convolutional Neural Networks, CNN), 역전파 신경망(Back Propagation, BP), 백본 신경망(Backbone) 중 적어도 하나를 포함한다.Here, when the target image is processed with a pre-trained neural network to obtain dense point cloud data of the original face, the pre-trained neural network is a convolutional neural network (CNN), back propagation neural network (BP), backbone It includes at least one of neural networks (Backbone).

신경망 구조를 결정할 경우, 예를 들면 먼저 신경망의 백본 네트워크(Backbone network)를 신경망의 주체 아키텍처로 결정할 수 있는 바, 예시적으로, 백본 네트워크는 예를 들면, 시작 네트워크(Inception), 잔여 네트워크 변형 네트워크(the next dimension to RESNET, ResNeXt), 시작 네트워크 변형 네트워크(Xception), 압착 및 여기 네트워크(Squeeze-and-Excitation Networks, SENet), 경량화 네트워크(MobileNet) 및 경량급 네트워크(ShuffleNet) 중 적어도 하나를 포함할 수 있다.When determining the neural network structure, for example, the backbone network of the neural network may be determined as the subject architecture of the neural network. By way of example, the backbone network is, for example, an inception network and a residual network transformation network. (the next dimension to RESNET, ResNeXt), a starting network transformation network (Xception), a squeeze-and-excitation network (SENet), a lightweight network (MobileNet), and a lightweight network (ShuffleNet). can

예시적으로, 신경망이 컨볼루션 신경망을 포함하는 경우, 경량화 네트워크를 컨볼루션 신경망 기초 모델로 선택할 수도 있는 바, 경량화 네트워크의 기초 상에, 기타 네트워크 구조를 증가하여 컨볼루션 신경망을 구성할 수 있으며, 구성된 컨볼루션 신경망을 트레이닝 할 수 있다. 당해 과정은 경량화 네트워크를 컨볼루션 신경망의 일부로 사용하고, 또한 경량화 네트워크의 부피가 작고 데이터 처리 속도가 빨라 트레이닝 속도도 더 빠르며; 이 외에, 트레이닝하여 얻은 신경망은 부피가 작고 데이터 처리 속도가 빠른 장점을 가지므로 임베디드 기기에 배치하기에 적합하다.Exemplarily, when the neural network includes a convolutional neural network, a lightweight network may be selected as a convolutional neural network base model, and on the basis of the lightweight network, other network structures may be increased to construct a convolutional neural network, Convolutional neural networks can be trained. This process uses the lightweight network as a part of the convolutional neural network, and the lightweight network is small in volume and has high data processing speed, so the training speed is faster; In addition, the neural network obtained by training is suitable for deployment in an embedded device because it has a small volume and a fast data processing speed.

여기서, 상기 신경망의 네트워크 구조는 단지 예시이고; 네트워크 구조의 구체적인 구축 방식과 구조는 실제 상황에 따라 결정할 수 있는 바, 여기서 더 이상 설명하지 않으며, 상기 예시도 본 발명의 실시예를 한정하지 않는다.Here, the network structure of the neural network is just an example; The specific construction method and structure of the network structure may be determined according to actual circumstances, and are not described herein any further, and the above examples do not limit the embodiments of the present invention.

도 2에 도시된 내용을 참조하면, 본 발명의 실시예는 신경망을 트레이닝하는 구체적인 방법을 도시하는 바, 이 방법은 아래 단계를 포함한다:Referring to the content shown in FIG. 2 , an embodiment of the present invention shows a specific method for training a neural network, which includes the following steps:

단계 S201: 샘플 이미지 집합을 획득하되; 샘플 이미지 집합은 제1 샘플 안면이 포함된 복수 장의 제1 샘플 이미지를 포함하고; 복수 장의 제1 샘플 이미지는 복수의 제1 샘플 이미지 서브셋으로 구획되며, 각각의 제1 샘플 이미지 서브셋에는 복수의 기설정된 수집 각도로부터 각각 수집하여 얻은, 같은 종류의 표정을 구비한 제1 샘플 안면의 이미지가 포함된다.Step S201: Obtain a sample image set; The sample image set includes a plurality of first sample images including first sample faces; The plurality of first sample images are partitioned into a plurality of subsets of first sample images, and in each subset of first sample images, first sample facial images having the same type of facial expression obtained by collecting each from a plurality of predetermined collection angles are included. image is included.

여기서, 샘플 이미지 집합에 포함되는 제1 샘플 안면의 복수 장의 제1 샘플 이미지에 대하여, 대응하는 제1 샘플 안면은 예를 들면 미리 결정된, 안면 이미지를 획득하여 신경망을 트레이닝하기 위한 적어도 하나의 개체 오브젝트의 안면이다.Here, for the plurality of first sample images of the first sample face included in the sample image set, the corresponding first sample face is, for example, at least one entity object for acquiring a predetermined face image and training the neural network. is the face of

제1 샘플 안면을 촬영하여 제1 샘플 이미지 서브셋을 결정할 경우, 예를 들면 복수의 상이한 표정에 대하여 복수의 제1 샘플 이미지 서브셋을 결정한다. 여기서, 복수의 상이한 표정은 예를 들면 쾌락, 흥분, 실의, 슬픔 등이다. 제1 샘플 안면을 촬영하여 제1 샘플 이미지 서브셋을 획득할 경우, "쾌락" 표정에 대해 제1 샘플 안면을 촬영하는 것을 예로 들면, 상이한 각도로부터 "쾌락" 표정을 나타내는 제1 샘플 안면을 촬영하여 "쾌락" 표정에 대응하는 복수 장의 제1 샘플 이미지를 획득하여 제1 샘플 이미지 서브셋으로 이용할 수 있다. 여기서, 제1 샘플 이미지를 획득할 경우, 상이한 제1 샘플 이미지 내의 제1 샘플 안면의 백그라운드는 동일할 수 있다.When the first sample face is photographed and the first sample image subset is determined, for example, a plurality of first sample image subsets are determined for a plurality of different facial expressions. Here, the plurality of different facial expressions are, for example, pleasure, excitement, disappointment, sadness, and the like. If the first sample face is photographed to obtain the first sample image subset, for example, the first sample face is photographed for a "pleasure" expression, the first sample face exhibiting a "pleasure" expression is photographed from different angles, A plurality of first sample images corresponding to the “pleasure” expression may be acquired and used as a first sample image subset. Here, when the first sample images are obtained, the backgrounds of the first sample faces in different first sample images may be the same.

유사하게, 유사한 방법을 사용하여 제1 샘플 안면의 상이한 표정에서의 각각 대응하는 제1 샘플 이미지 서브셋을 획득할 수 있는 바, 여기서 더 이상 설명하지 않는다.Similarly, corresponding subsets of first sample images in different expressions of the first sample face may be obtained using a similar method, which is not further described herein.

복수의 상이한 표정 각각에 대응하는 제1 샘플 이미지 서브셋을 결정한 후, 제1 샘플 안면의 복수 장의 제1 샘플 이미지를 결정할 수 있다.After determining the subset of first sample images corresponding to each of a plurality of different facial expressions, a plurality of first sample images of the first sample face may be determined.

예시적으로, 제1 샘플 이미지를 획득할 경우, 이미지 수집 기기로 촬영하여 이미지를 획득할 수 있는 바, 여기서, 이미지 수집 기기는 예를 들면 심도 카메라와 컬러 카메라 중 적어도 하나를 포함한다.Exemplarily, when acquiring the first sample image, the image may be obtained by photographing with an image collection device, wherein the image collection device includes, for example, at least one of a depth camera and a color camera.

예를 들면, I개 개체 오브젝트의 안면을 E개의 표정에서 촬영하여 복수 장의 제1 샘플 이미지를 얻을 수 있다. 예를 들면, 먼저 어느 한 개체 오브젝트 A의 안면을 제1 샘플 안면으로 결정할 수 있다. 제1 샘플 안면이 "슬픔" 표정을 나타낼 경우, P(P는 1보다 큰 정수)개의 상이한 각도로부터 제1 샘플 안면을 촬영하여 "슬픔" 표정에서의 P개의 상이한 각도에 대응하는 복수 장의 이미지를 얻어 "슬픔" 표정에 대응하는 제1 샘플 이미지 서브셋으로 사용한다. 다음, 제1 샘플 안면이 기타 표정(예를 들면 E-1개 상이한 표정을 포함)에서 P개 각도에 대응하는 P장의 이미지를 획득하여 기타 표정에 대응하는 제1 샘플 이미지 서브셋으로 사용한다. 상응하게, 개체 오브젝트 A의 E개의 상이한 표정에 대하여 E개의 상이한 제1 샘플 이미지 서브셋을 결정할 수 있고, 상응하게, 개체 오브젝트 A의 PХE장의 이미지를 획득할 수 있다. 그 다음, 나머지 I-1개의 개체 오브젝트를 촬영하여 나머지 I-1개의 개체 오브젝트 각각에 대응하는 PХE장의 이미지를 획득할 수 있는 바, 즉 모두 M(M=IХEХP)장의 이미지를 획득하여 복수 장의 제1 샘플 이미지로 사용할 수 있다.For example, a plurality of first sample images may be obtained by photographing the faces of I objects with E facial expressions. For example, first, the face of any one entity object A may be determined as the first sample face. When the first sample face exhibits a “sadness” expression, the first sample face is photographed from P (P is an integer greater than 1) different angles to obtain a plurality of images corresponding to P different angles in the “sadness” expression. obtained and used as the first sample image subset corresponding to the “sad” expression. Next, P length images corresponding to P angles of the first sample face in other facial expressions (including, for example, E-1 different facial expressions) are obtained and used as the first sample image subset corresponding to the other facial expressions. Correspondingly, E different subsets of first sample images may be determined for E different facial expressions of the entity object A, and correspondingly, PХE field images of the entity object A may be obtained. Then, it is possible to acquire PХE images corresponding to each of the remaining I-1 objects by photographing the remaining I-1 objects, that is, by acquiring all M (M=IХEХP) images, 1 can be used as a sample image.

획득된 복수 장의 제1 샘플 이미지가 상이한 표정의 복수의 촬영 개체 오브젝트에 대응하는 안면을 나타내고, 백그라운드 등 기타 부분이 적으므로 제1 샘플 이미지를 이용하여 신경망이 이미지 내의 복수 각도에서의 안면에 대응하는 덴스 포인트 클라우드 데이터를 획득하는 능력을 트레이닝 할 수 있다.Since the obtained plurality of first sample images represent faces corresponding to a plurality of photographic object objects with different facial expressions, and there are few other parts such as backgrounds, the neural network uses the first sample images to detect faces corresponding to faces at a plurality of angles in the image. Ability to acquire dense point cloud data can be trained.

제2 샘플 이미지는 상이한 개체 오브젝트에 대해 랜덤으로 촬영하여 얻을 수도 있고, 기설정된 네트워크 플랫폼에서 안면을 포함하는 복수 장의 이미지를 랜덤으로 크롤링하여 크롤링된 이미지를 제2 샘플 안면 이미지로 사용할 수도 있다.The second sample image may be obtained by randomly photographing different objects, or may be obtained by randomly crawling a plurality of images including faces on a predetermined network platform and using the crawled images as the second sample face image.

예시적으로, 상이한 개체 오브젝트에 대해 랜덤으로 촬영하여 제2 샘플 이미지를 얻을 경우, 카메라 또는 기타 이미지 촬영 기기를 이용하여 복수의 제2 샘플 안면을 촬영함으로써 제2 샘플 이미지를 획득하거나; 또는 미리 촬영된 복수 장의 제2 샘플 이미지를 직접 획득할 수도 있다. 제2 샘플 이미지는 예를 들면 백그라운드를 포함하는 이미 획득된 H장의 안면 이미지를 포함하는 바; 여기서, 제2 샘플 이미지에 포함된 백그라운드 등은 안면 인식을 간섭하는 부분으로서, 덴스 포인트 클라우드 데이터를 획득하도록 신경망이 타깃 이미지에서 안면을 인식할 경우, 안면을 제외한 기타 부분의 간섭 방지 능력을 트레이닝한다.Exemplarily, when obtaining second sample images by randomly photographing different objects, obtaining second sample images by photographing a plurality of second sample faces using a camera or other image capturing device; Alternatively, a plurality of pre-captured second sample images may be directly obtained. The second sample image includes, for example, already acquired H face images including a background; Here, the background included in the second sample image is a part that interferes with face recognition, and when the neural network recognizes a face in the target image to obtain dense point cloud data, the interference prevention ability of other parts except the face is trained. .

본 발명의 다른 실시예에서, 샘플 이미지 집합에는 제3 샘플 이미지가 더 포함되고, 제3 샘플 이미지는 예를 들면 제1 샘플 이미지에 대해 데이터 증강 처리를 수행하여 얻을 수 있다. 여기서, 데이터 증강 처리는 랜덤 오클루전 처리, 가우스 노이즈 처리, 퍼지 처리 및 색상 영역 채널 변경 처리 중 적어도 하나를 포함한다. 데이터 증강 처리의 방법을 이용하여 데이터의 특징 집합에서 신경망의 관련 없는 특징에 대한 학습을 감소시킬 수 있음으로써, 신경망이 덴스 포인트 클라우드 데이터를 획득할 때의 성능을 향상시킬 수 있다.In another embodiment of the present invention, the sample image set further includes a third sample image, and the third sample image may be obtained by performing data augmentation processing on the first sample image, for example. Here, the data augmentation process includes at least one of random occlusion process, Gaussian noise process, fuzz process, and color gamut channel change process. It is possible to reduce the learning of irrelevant features of the neural network in the feature set of the data by using a method of data augmentation processing, thereby improving the performance of the neural network when obtaining dense point cloud data.

예시적으로, 랜덤 오클루전 처리를 선택할 경우, 제1 샘플 이미지 내의 일부 영역에 대해 오클루전 처리를 수행하여 제3 샘플 이미지를 얻을 수 있는 바; 여기서, 오클루전 부분의 크기는 제1 샘플 이미지의 크기 및 실제 수요에 따라 결정할 수 있고, 여기서 한정하지 않으며; 가우스 노이즈 처리를 선택할 경우, 예를 들면 변동 노이즈, 우주 노이즈, 열 노이즈 및 샷 노이즈 중 적어도 하나를 선택하여 제1 샘플 이미지에 추가시킴으로써 제3 샘플 이미지로 하여금 적어도 하나의 가우스 노이즈를 포함하도록 할 수 있으며; 퍼지 처리를 선택할 경우, 예를 들면 이미지 내의 적어도 일부 픽셀 포인트에 대해 모션 블러 처리를 수행하여 모션 블러 효과를 가지는 제3 샘플 이미지를 얻을 수 있고; 색상 영역 채널 변경 처리를 선택할 경우, 예를 들면 글로벌 색상 영역 채널 변경 처리 또는 랜덤 색상 영역 채널 변경 처리를 이용하여 제1 샘플 이미지를 처리하여 글로벌 또는 일부 영역의 색상 영역 채널이 변경된 제3 샘플 이미지를 얻을 수 있다.Exemplarily, when random occlusion processing is selected, a third sample image may be obtained by performing occlusion processing on a partial region in the first sample image; Here, the size of the occlusion portion may be determined according to the size of the first sample image and actual demand, but is not limited thereto; When Gaussian noise processing is selected, for example, at least one of fluctuation noise, cosmic noise, thermal noise, and shot noise is selected and added to the first sample image so that the third sample image includes at least one Gaussian noise. there is; When fuzzy processing is selected, for example, motion blur processing may be performed on at least some pixel points in the image to obtain a third sample image having a motion blur effect; When color gamut channel change processing is selected, for example, the first sample image is processed using global color gamut channel change processing or random color gamut channel change processing to obtain a third sample image in which the color gamut channels of the global or partial area are changed. You can get it.

도 3은 본 발명의 실시예에서 제공하는 제1 샘플 이미지 및 제1 샘플 이미지를 이용하여 결정된 제3 샘플 이미지의 모식도로서; 도 3에 도시된 바와 같이, 31은 제1 샘플 이미지를 나타내고; 32는 제1 샘플 이미지(31)에 대해 퍼지 처리를 수행하는 데이터 증강 처리를 수행하여 얻은 제3 샘플 이미지를 나타내며; 33은 제1 샘플 이미지(31)에 대해 부분 오클루전을 수행하는 데이터 증강 처리를 수행하여 얻은 제3 샘플 이미지를 나타내고, 여기서, 34는 부분 오클루전의 위치를 나타낸다.3 is a schematic diagram of a first sample image provided by an embodiment of the present invention and a third sample image determined using the first sample image; As shown in Fig. 3, 31 represents a first sample image; 32 denotes a third sample image obtained by performing data augmentation processing for performing fuzzy processing on the first sample image 31; 33 denotes a third sample image obtained by performing data augmentation processing for performing partial occlusion on the first sample image 31, where 34 denotes a position of partial occlusion.

이러한 경우, 제3 샘플 이미지에 대응하는 샘플 안면의 덴스 포인트 클라우드 데이터는, 제3 샘플 이미지를 생성하는 제1 샘플 이미지에 대응하는 샘플 안면의 덴스 포인트 클라우드 데이터와 동일하다.In this case, the dense point cloud data of the sample face corresponding to the third sample image is the same as the dense point cloud data of the sample face corresponding to the first sample image generating the third sample image.

상기 단계 S201에 이어, 신경망을 트레이닝하는 구체적인 방법은,Following step S201, a specific method for training a neural network is,

샘플 이미지 집합 중의 제1 샘플 이미지의 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계 S202를 더 포함한다.A step S202 of acquiring dense point cloud data of a first sample face of a first sample image in the sample image set is further included.

구체적으로, 샘플 이미지 집합 중의 제1 샘플 이미지의 제1 샘플 안면의 덴스 포인트 클라우드 데이터 및 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 획득할 경우, 예를 들면 샘플 이미지 집합 중의 제1 샘플 이미지의 제1 샘플 안면의 덴스 포인트 클라우드 데이터, 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터 및 제3 샘플 이미지의 제3 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 방법을 사용할 수 있다.Specifically, when obtaining the dense point cloud data of the first sample face of the first sample image in the sample image set and the dense point cloud data of the second sample face of the second sample image in the sample image set, for example, the first of the sample image set Dense point cloud data of a first sample face of a sample image, dense point cloud data of a second sample face of a second sample image, and dense point cloud data of a third sample face of a third sample image may be obtained. .

예시적으로, 샘플 이미지 집합 중의 제1 샘플 이미지에 대하여, 제1 샘플 안면을 촬영하여 대응하는 제1 샘플 이미지를 촬영한 후, 각 제1 샘플 이미지 내의 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 획득할 수 있다. 컬러 카메라를 이용하여 제1 샘플 이미지를 획득할 경우, 예를 들면 안면 3DMM(3D Morphable Model) 등 모델을 이용하여 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 얻을 수 있고; 심도 카메라를 이용하여 제1 샘플 이미지를 획득할 경우, 예를 들면 심도 카메라에 의해 획득된 심도 이미지에 기반하여 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 얻을 수 있다.Exemplarily, with respect to the first sample image in the sample image set, a first sample face is photographed and a corresponding first sample image is photographed, and then dense point cloud data of the first sample face in each first sample image is obtained. can do. When the first sample image is acquired using a color camera, dense point cloud data of the first sample face may be obtained using a model such as a facial 3D Morphable Model (3DMM); When the first sample image is acquired using the depth camera, for example, dense point cloud data of the first sample face may be obtained based on the depth image acquired by the depth camera.

샘플 이미지 집합 중의 제2 샘플 이미지에 대하여, 도 4에 도시된 내용을 참조하면, 본 발명의 실시예는 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 구체적인 방법을 제공하는 바, 이는,Regarding the second sample image in the sample image set, referring to the content shown in FIG. 4 , an embodiment of the present invention provides a specific method for obtaining dense point cloud data of a second sample face of the second sample image. , this is,

각각의 제2 샘플 이미지의 안면 키포인트 데이터를 획득하는 단계 S401; Step S401 of acquiring facial keypoint data of each second sample image;

제2 샘플 이미지의 안면 키포인트 데이터 및 제2 샘플 이미지를 이용하여 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 피팅하여 생성하는 단계 S402; Step S402 of fitting and generating dense point cloud data of a second sample face of a second sample image using the facial keypoint data of the second sample image and the second sample image;

신경망으로 샘플 이미지 집합 중의 제2 샘플 이미지에 대해 특징 학습을 수행하여 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계 S403;Step S403 of performing feature learning on a second sample image in the sample image set with a neural network to obtain predicted density point cloud data of a second sample face of the second sample image;

제2 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 신경망을 트레이닝하는 단계 S404를 포함한다.In step S404, the neural network is trained using the dense point cloud data of the second sample face and the predicted dense point cloud data.

여기서, 제2 샘플 이미지는 예를 들면 획득된 H장의 백그라운드를 포함하는 안면 이미지를 포함하고, 각 제2 샘플 이미지는 모두 결정된 안면 키포인트를 포함한다. 여기서, 제2 샘플 이미지에 포함된 안면 키포인트는 제2 샘플 이미지에 대응하는 샘플 안면의 덴스 포인트 클라우드 데이터, 예를 들면 제2 샘플 이미지 중 직접 라벨링한 오관, 광대뼈, 눈썹뼈를 나타내는 복수의 키포인트와 같은 안면 특징을 나타내는 키포인트를 결정하거나; 또는 키포인트 검출 방법을 이용하여 결정한 안면에 대응하는 키포인트를 포함한다. 여기서, 키포인트 검출 방법은ASM (Active Shape Model), AAM(Active Appearance Models), CPR(Cascaded Pose Regression) 중 적어도 하나를 포함한다.Here, the second sample image includes, for example, a face image including an acquired background of H sheets, and each second sample image includes the determined face keypoints. Here, the facial keypoints included in the second sample image include dense point cloud data of the sample face corresponding to the second sample image, for example, a plurality of keypoints indicating directly labeled five optic tracts, cheekbones, and browbones among the second sample images, and determine keypoints representing the same facial features; Alternatively, a keypoint corresponding to the face determined using the keypoint detection method is included. Here, the keypoint detection method includes at least one of Active Shape Model (ASM), Active Appearance Models (AAM), and Cascaded Pose Regression (CPR).

제2 샘플 이미지의 안면 키포인트 데이터를 획득하는 경우, 피팅 모델을 이용하여 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 생성할 수 있다. 여기서, 피팅 모델은 예를 들면 안면 3DMM을 포함한다.When facial keypoint data of the second sample image is acquired, dense point cloud data of the second sample face of the second sample image may be generated using the fitting model. Here, the fitting model includes a facial 3DMM, for example.

상기 단계 S202에 이어, 신경망을 트레이닝하는 방법은,Following step S202, the method for training a neural network,

신경망을 이용하여 샘플 이미지 집합 중의 제1 샘플 이미지에 대해 특징 학습을 수행하여 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계 S203을 더 포함한다.A step S203 of performing feature learning on a first sample image in the sample image set using a neural network to obtain predicted density point cloud data of a first sample face of the first sample image.

구체적으로, 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터 및 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 결정할 경우, 예를 들면 초기 신경망을 이용하여 샘플 이미지 집합 중의 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지에 대해 특징 학습을 수행하여 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터, 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터 및 제3 샘플 이미지의 제3 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 방법을 사용할 수 있다.Specifically, when determining the predicted dense point cloud data of the first sample face of the first sample image and the predicted dense point cloud data of the second sample face of the second sample image, for example, by using an initial neural network, among the sample image set By performing feature learning on the first sample image, the second sample image, and the third sample image, the predicted dense point cloud data of the first sample face of the first sample image and the predicted dense point of the second sample face of the second sample image are obtained. A method of obtaining cloud data and predicted dense point cloud data of the third sample face of the third sample image may be used.

이때, 유의해야 할 것은, 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지 내의 적어도 한 가지 샘플 이미지를 획득하는 단계는, 초기 신경망을 이용하여 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지 중 적어도 하나에 대해 특징 학습을 수행하는 단계와 동기적으로 수행될 수 있는 바, 즉 초기 신경망을 이용하여 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지 중 적어도 하나에 대해 특징 학습을 수행한 후 각각 대응하는 예측 덴스 포인트 클라우드 데이터를 직접 얻을 수 있다.At this time, it should be noted that the step of acquiring at least one sample image in the first sample image, the second sample image, and the third sample image includes the first sample image, the second sample image, and the third sample image by using the initial neural network. It may be performed synchronously with the step of performing feature learning on at least one of the sample images, that is, feature learning on at least one of the first sample image, the second sample image, and the third sample image using the initial neural network. After performing, the corresponding predicted dense point cloud data can be directly obtained.

이 외에, 초기 신경망으로 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지 중 적어도 하나에 대해 특징 학습을 수행할 경우, 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지 내의 적어도 하나에 대해 동기적으로 특징 학습을 수행할 수 있거나; 또는, 실제 수요에 따라 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지 중 적어도 하나에 대해 순서에 따라 특징 학습을 수행하여 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터, 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터 및 제3 샘플 이미지의 제3 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻을 수 있다.In addition, when feature learning is performed on at least one of the first sample image, the second sample image, and the third sample image with the initial neural network, at least one of the first sample image, the second sample image, and the third sample image may perform feature learning synchronously for; Alternatively, according to actual demand, feature learning is performed sequentially on at least one of the first sample image, the second sample image, and the third sample image to obtain predicted dense point cloud data of the first sample face of the first sample image, Predicted dense point cloud data of a second sample face of the 2 sample image and predicted dense point cloud data of a third sample face of the third sample image may be obtained.

본 발명의 실시예는 상기 샘플 처리 과정의 선후 수행 순서를 한정하지 않는 바, 구체적으로는 실제 수요에 따라 설정할 수 있다.Embodiments of the present invention do not limit the sequential order of performing the sample processing process, and may be specifically set according to actual demand.

예시적으로, 샘플 이미지 집합에 포함된 제1 샘플 이미지와 제2 샘플 이미지에 대하여, 기설정된 비율에 따라 상이한 수량의 제1 샘플 이미지와 제2 샘플 이미지를 선택하고, 선택된 제1 샘플 이미지와 제2 샘플 이미지를 초기 신경망에 입력할 수 있으며; 샘플 이미지 집합에 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지가 포함된 경우, 기설정된 비율에 따라 상이한 수량의 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지를 선택하고, 선택된 제1 샘플 이미지, 제2 샘플 이미지 및 제3 샘플 이미지를 초기 신경망에 입력할 수 있다. 비율 선택이 상이할 경우, 신경망을 트레이닝하는 포커스도 상이하다. 제1 샘플 이미지 및/또는 제3 샘플 이미지가 차지하는 비율이 클 경우, 트레이닝하여 얻은 신경망의 이미지 내의 상이한 각도의 안면에 대응하는 안면 덴스 포인트 클라우드에 대한 획득 능력이 강하고; 제2 샘플 이미지가 차지하는 비율이 클 경우, 트레이닝하여 얻은 신경망의 이미지 내의 안면을 제외한 기타 백그라운드 부분에 대한 간섭 방지 능력이 더 강함으로써 상이한 사용 수요를 만족시킨다.Exemplarily, with respect to the first sample image and the second sample image included in the sample image set, different quantities of the first sample image and the second sample image are selected according to a preset ratio, and the selected first sample image and the second sample image are selected. 2 sample images can be input to the initial neural network; When the sample image set includes the first sample image, the second sample image, and the third sample image, different numbers of the first sample image, the second sample image, and the third sample image are selected according to a predetermined ratio, and the selected The first sample image, the second sample image, and the third sample image may be input to the initial neural network. When the ratio selection is different, the focus of training the neural network is also different. When the ratio of the first sample image and/or the third sample image is large, the ability to acquire face dense point clouds corresponding to faces of different angles in the trained neural network image is strong; When the ratio occupied by the second sample image is large, the anti-interference capability for other background parts other than the face in the trained neural network image is stronger, thereby satisfying different usage needs.

샘플 이미지를 초기 신경망에 입력한 후, 초기 신경망은 샘플 이미지에 대해 특징 학습을 수행하고, 각 샘플 이미지의 안면 예측의 덴스 포인트 클라우드 데이터를 출력할 수 있으며; 안면 예측의 덴스 포인트 클라우드 데이터 및 각 샘플 이미지에 대응하는 샘플 안면의 덴스 포인트 클라우드 데이터를 이용하여 신경망의 손실을 결정할 수 있는 바, 당해 손실은 신경망의 안면의 덴스 포인트 클라우드 데이터를 생성할 때의 정확성을 가늠한다.After inputting the sample images to the initial neural network, the initial neural network may perform feature learning on the sample images, and output dense point cloud data of face prediction of each sample image; The loss of the neural network can be determined using the dense point cloud data of the face prediction and the dense point cloud data of the sample face corresponding to each sample image. The loss is the accuracy of generating the dense point cloud data of the face of the neural network to estimate

신경망을 이용하여 얻은 안면 예측의 덴스 포인트 클라우드 데이터는 예를 들면 기설정된 좌표계에서의 안면 덴스 포인트 클라우드의 위치를 나타내는 좌표값을 포함하거나, 또는 기설정된 좌표계에서의 안면 덴스 포인트 클라우드의 위치를 나타내는 x축, y축, z축 각각에 대응하는 좌표값을 포함할 수 있다. 여기서, 기설정된 좌표계는 예를 들면 기설정된 안면 좌표계 일 수 있다.The face prediction dense point cloud data obtained using the neural network includes, for example, a coordinate value representing the position of the face dense point cloud in a preset coordinate system, or x representing the position of the face dense point cloud in a preset coordinate system. It may include coordinate values corresponding to each of the axis, y-axis, and z-axis. Here, the preset coordinate system may be, for example, a preset facial coordinate system.

예시적으로, 임의의 안면 예측의 덴스 포인트 클라우드 데이터에 대하여, 안면 덴스 포인트 클라우드의 위치를 나타내는 좌표값을 포함하는 경우, 이 안면 예측의 덴스 포인트 클라우드 데이터는 좌표값

Figure pct00001
를 포함할 수 있거나, 또는 x축에서의 좌표값
Figure pct00002
,y축에서의 좌표값
Figure pct00003
및 z축에서의 좌표값
Figure pct00004
를 포함할 수 있고, 상이한 안면 예측의 덴스 포인트 클라우드 데이터에 포함된 x축, y축 및 z축에서의 좌표값은 출력된 안면 예측의 덴스 포인트 클라우드 데이터에서 기설정된 배열 순서를 가질 수 있다.Exemplarily, in the case of including coordinate values indicating the location of the facial dense point cloud for any face prediction dense point cloud data, the face prediction dense point cloud data is a coordinate value
Figure pct00001
Can include, or coordinate values on the x-axis
Figure pct00002
, the coordinate value on the y-axis
Figure pct00003
and coordinate values on the z-axis
Figure pct00004
, and coordinate values on the x-axis, y-axis, and z-axis included in the different dense point cloud data of face prediction may have a preset arrangement order in the output dense point cloud data of face prediction.

도 5에 도시된 내용을 참조하면, 본 발명의 실시예는 신경망 구조의 구체적인 예시적 도면을 더 제공하는 바, 여기서, 신경망 구조는 백본 네트워크(51), 제1 완전 연결층(52) 및 세 그룹의 제2 완전 연결층(53)을 포함한다.Referring to FIG. 5 , an embodiment of the present invention further provides a specific exemplary diagram of a neural network structure, wherein the neural network structure includes a backbone network 51, a first fully connected layer 52 and three and a second fully connected layer 53 of the group.

이 신경망으로 샘플 이미지를 처리하여 샘플 중 안면의 안면 예측의 덴스 포인트 클라우드 데이터를 결정할 경우, 예를 들면 샘플 이미지를 백본 네트워크에 입력하여 샘플 이미지의 특징 데이터를 얻을 수 있고, 특징 데이터는 제1 완전 연결층을 거친 후, 각각 세 그룹의 제2 완전 연결층에 입력되며; 세 그룹의 제2 완전 연결층은 샘플 이미지 내의 안면의 덴스 포인트 클라우드의 안면 좌표계에서의 좌표값을 예측할 수 있다. 예를 들면, 제1 그룹의 제2 완전 연결층은 덴스 포인트 클라우드의 안면 좌표계에서의 x축의 좌표값을 출력할 수 있고, 제2 그룹의 제2 완전 연결층은 덴스 포인트 클라우드의 안면 좌표계에서의 y축의 좌표값을 출력할 수 있으며, 제3 그룹의 제2 완전 연결층은 덴스 포인트 클라우드의 안면 좌표계에서의 z축의 좌표값을 출력할 수 있다. 덴스 포인트 클라우드의 안면 좌표계에서의 좌표값은 샘플 이미지 내의 안면의 안면 예측의 덴스 포인트 클라우드 데이터를 구성한다.When the sample image is processed by this neural network to determine the dense point cloud data of the face prediction of the face in the sample, for example, the sample image can be input to the backbone network to obtain feature data of the sample image, and the feature data is the first complete After passing through the connection layer, they are respectively input into three groups of second fully connected layers; The three groups of second fully connected layers may predict coordinate values in the face coordinate system of the dense point cloud of the face in the sample image. For example, the second fully connected layer of the first group may output the coordinate value of the x-axis in the face coordinate system of the dense point cloud, and the second fully connected layer of the second group may output the coordinate value of the x-axis in the face coordinate system of the dense point cloud. The y-axis coordinate value may be output, and the second fully connected layer of the third group may output the z-axis coordinate value in the facial coordinate system of the dense point cloud. Coordinate values in the face coordinate system of the dense point cloud constitute dense point cloud data of face prediction of faces in the sample image.

복수 장의 제1 샘플 이미지 및 복수 장의 제2 샘플 이미지를 결정할 경우, 제1 샘플 이미지의 선택 비율이 40%이고 제2 샘플 이미지의 선택 비율이 60%인 기설정된 비율에 따라 신경망을 트레이닝하는 복수 장의 샘플 이미지를 선택한다. 예를 들면, 100장의 샘플 이미지를 이용하여 신경망을 트레이닝 할 경우, 40장의 제1 샘플 이미지 및 60장의 제2 샘플 이미지를 복수 장의 샘플 이미지로 선택한다.When determining the plurality of first sample images and the plurality of second sample images, the selection rate of the first sample image is 40% and the selection rate of the second sample image is 60%. Choose a sample image. For example, when training a neural network using 100 sample images, 40 first sample images and 60 second sample images are selected as a plurality of sample images.

여기서, 컨볼루션 신경망을 선택하여 초기 신경망으로 이용하여 트레이닝하고, 경량화 네트워크(t)를 기초 모델로 이용하고, 분할 네트워크(split FC)를 출력층으로 이용하여 컨볼루션 신경망을 구축함으로써 복수 장의 샘플 이미지 각각에 대응하는 안면 예측의 덴스 포인트 클라우드 데이터를 얻을 수 있으며, 얻은 안면 예측의 덴스 포인트 클라우드 데이터는 덴스 포인트 클라우드 중의 포인트 각각의 x축, y축 및 z축에서의 복수의 좌표값을 포함한다.Here, a convolutional neural network is selected and trained using it as an initial neural network, a lightweight network (t) is used as a base model, and a convolutional neural network is built using a split FC as an output layer, thereby constructing each of a plurality of sample images. Dense point cloud data of face prediction corresponding to can be obtained, and the obtained dense point cloud data of face prediction includes a plurality of coordinate values on the x-axis, y-axis, and z-axis of each point in the dense point cloud.

이때, 임의의 샘플 이미지에 대응하는 안면 예측의 덴스 포인트 클라우드 데이터에 대하여, 안면 덴스 포인트 클라우드에 R개의 상이한 안면 부위가 포함될 경우, 출력된 안면 예측의 덴스 포인트 클라우드 데이터는 예를 들면 매트릭스의 형태로 출력될 수 있고,

Figure pct00005
,
Figure pct00006
Figure pct00007
로 나타낼 수 있는 바, 즉 R개의 상이한 안면 부위 중 임의의 부위에 대응하는 안면 예측의 덴스 포인트 클라우드 데이터에 포함된 좌표값
Figure pct00008
은 x축, y축 및 z축에서의 좌표값
Figure pct00009
,
Figure pct00010
Figure pct00011
로 분해되고, 세 개의 상이한 매트릭스 중 i번째 요소로서 출력될 수 있다.At this time, with respect to the dense point cloud data of facial prediction corresponding to an arbitrary sample image, if R different facial parts are included in the facial dense point cloud, the output dense point cloud data of face prediction is in the form of a matrix, for example can be output,
Figure pct00005
,
Figure pct00006
and
Figure pct00007
, that is, the coordinate values included in the dense point cloud data of face prediction corresponding to any part among the R different face parts
Figure pct00008
is the coordinate value on the x-axis, y-axis and z-axis
Figure pct00009
,
Figure pct00010
and
Figure pct00011
can be decomposed into , and output as the i-th element of three different matrices.

상기 단계 S203에 이어, 신경망을 트레이닝하는 방법은,Following step S203, the method for training a neural network,

제1 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 신경망을 트레이닝하는 단계 S204를 더 포함한다.A step S204 of training the neural network using the dense point cloud data of the first sample face and the predicted dense point cloud data is further included.

구체적으로, 초기 신경망을 트레이닝하여 이미 트레이닝된 신경망을 얻을 경우, 제1 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터, 제2 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터 및 제3 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 신경망을 트레이닝하고, 트레이닝이 완료된 후 이미 트레이닝된 신경망을 얻는 방법을 사용할 수 있다.Specifically, when an already trained neural network is obtained by training an initial neural network, dense point cloud data and predicted dense point cloud data of the first sample face, dense point cloud data and predicted dense point cloud data of the second sample face, and third A method of training a neural network using the dense point cloud data of the sample face and the predicted dense point cloud data, and obtaining an already trained neural network after the training is completed may be used.

예시적으로, 안면 예측의 덴스 포인트 클라우드 데이터 및 샘플 안면의 덴스 포인트 클라우드 데이터의 차이값에 기반하여 신경망의 손실을 결정하고, 손실을 이용하여 신경망을 트레이닝하는 바, 트레이닝의 방향은 손실이 감소되는 방향으로서, 신경망이 이미지를 처리할 때 얻은 안면 예측의 덴스 포인트 클라우드 데이터가 실제 안면의 덴스 포인트 클라우드 데이터에 충분히 근접할 수 있도록 한다.Exemplarily, the loss of the neural network is determined based on the difference between the dense point cloud data of the face prediction and the dense point cloud data of the sample face, and the neural network is trained using the loss, the direction of the training is to reduce the loss As a direction, it makes the dense point cloud data of the face prediction obtained when the neural network processes the image sufficiently close to the dense point cloud data of the real face.

이미 트레이닝된 신경망을 얻을 경우, 타깃 픽처를 신경망에 입력하여 타깃 픽처 중 원본 안면에 대응하는 덴스 포인트 클라우드 데이터를 얻을 수 있다.In the case of obtaining an already trained neural network, it is possible to obtain dense point cloud data corresponding to an original face among target pictures by inputting a target picture to the neural network.

상기 단계 S102에 대하여, Regarding the above step S102,

참조 이미지는 예를 들면 상이한 개체 오브젝트 각각에 대응하는 안면일 수 있고, 상이한 개체 오브젝트에 대응하는 안면은 상이한 바; 예시적으로, 성별, 나이, 피부색, 비만도 등 중 적어도 하나가 상이한 복수의 사람을 결정할 수 있고, 복수의 사람 중의 각 사람에 대해 각 사람의 안면 이미지를 획득하며, 획득된 안면 이미지를 제2 샘플 이미지로 사용할 수 있다. 이러한 방법으로, 제2 샘플 이미지에 기반하여 생성된 제2 샘플 안면의 덴스 포인트 클라우드 데이터에 기반하여 가능한 넓은 안면 외형 특징을 커버할 수 있다.The reference image may be, for example, a face corresponding to each of the different entity objects, and the faces corresponding to the different entity objects are different; Illustratively, a plurality of persons having different at least one of gender, age, skin color, obesity, etc. may be determined, a facial image of each person among the plurality of persons may be obtained, and the acquired facial image may be used as a second sample. Can be used as an image. In this way, it is possible to cover a wide range of facial appearance features based on the dense point cloud data of the second sample face generated based on the second sample image.

복수 장의 참조 이미지에 대응하는 복수의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 획득할 경우, 예를 들면 제1 참조 안면을 포함하는 복수 장의 참조 이미지를 획득하는 방식; 복수 장의 참조 이미지 내의 각 참조 이미지에 대하여, 미리 트레이닝된 신경망으로 각 참조 이미지 내의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 획득하는 방식을 사용할 수 있다. 여기서, 미리 트레이닝된 신경망으로 복수의 제1 참조 안면 덴스 포인트 클라우드를 획득하는 방식은 상기 미리 트레이닝된 신경망으로 원본 안면 덴스 포인트 클라우드를 획득하는 방식과 유사한 바, 여기서 더 이상 설명하지 않는다.When obtaining dense point cloud data of a plurality of first reference faces corresponding to the plurality of reference images, for example, a method of obtaining a plurality of reference images including the first reference face; For each reference image in the plurality of reference images, a method of obtaining dense point cloud data of the first reference face in each reference image with a pretrained neural network may be used. Here, a method of acquiring a plurality of first reference facial dense point clouds with a pre-trained neural network is similar to a method of acquiring an original facial dense point cloud with the pre-trained neural network, and thus is not further described herein.

원본 안면의 덴스 포인트 클라우드 데이터 및 제1 참조 안면의 덴스 포인트 클라우드 데이터를 결정하는 경우, 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터의 피팅 계수를 획득하도록 할 수 있다. 여기서, 피팅 계수는 매개체로서 타깃 이미지 내의 원본 안면의 덴스 포인트 클라우드 데이터와 복수 장의 참조 픽처 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터 사이의 연관 관계를 구축할 수 있다.When determining the dense point cloud data of the original face and the dense point cloud data of the first reference face, the dense point cloud data of the original face is fitted using the dense point cloud data of the first reference face to each of the plurality of reference images A fitting coefficient of the corresponding dense point cloud data of the first reference face may be acquired. Here, the fitting coefficient may establish an association between dense point cloud data of an original face in a target image and dense point cloud data of a first reference face corresponding to each of a plurality of reference pictures as a medium.

도 6에 도시된 내용을 참조하면, 본 발명의 실시예는 복수 장의 참조 이미지 각각에 대응하는 피팅 계수를 결정하는 방법을 제공하는 바, 이는 아래 단계 S601 내지 단계 S602를 포함한다.Referring to FIG. 6 , an embodiment of the present invention provides a method for determining fitting coefficients corresponding to each of a plurality of reference images, including steps S601 and S602 below.

단계 S601: 원본 안면의 덴스 포인트 클라우드 데이터 및 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대해 최소 제곱 처리를 수행하여 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 중간 계수를 얻는다.Step S601: Least square processing is performed on the dense point cloud data of the original face and the dense point cloud data of the first reference face to obtain intermediate coefficients respectively corresponding to the plurality of groups of dense point cloud data of the first reference face.

예시적으로, 원본 안면의 덴스 포인트 클라우드 데이터를

Figure pct00012
로 나타내고, 제1 참조 안면의 덴스 포인트 클라우드 데이터를
Figure pct00013
로 나타낸다. 여기서, 제1 참조 안면 덴스 포인트 클라우드가 복수의 참조 이미지에 의해 결정된 것이므로, N장의 참조 이미지가 존재하는 경우, 제1 참조 안면의 덴스 포인트 클라우드 데이터
Figure pct00014
중 대응하는 N 그룹의 안면을 포함하는 덴스 포인트 클라우드 데이터는
Figure pct00015
로 나타내고, 여기서,
Figure pct00016
는 i번째 장의 참조 이미지에 대응하는 안면의 덴스 포인트 클라우드 데이터를 나타낸다.Illustratively, the dense point cloud data of the original face
Figure pct00012
, and the dense point cloud data of the first reference face
Figure pct00013
represented by Here, since the first reference face dense point cloud is determined by a plurality of reference images, when N reference images exist, the dense point cloud data of the first reference face
Figure pct00014
Dense point cloud data including faces of corresponding N groups of
Figure pct00015
, where,
Figure pct00016
represents dense point cloud data of a face corresponding to the reference image of the i-th chapter.

Figure pct00017
Figure pct00018
내지
Figure pct00019
를 이용하여 최소 제곱 처리를 수행하여 N개의 피팅값을 얻을 수 있고,
Figure pct00020
으로 나타낸다. 여기서,
Figure pct00021
i번째 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅값을 나타낸다. N개의 피팅값을 통해 피팅 계수 Alpha를 결정할 수 있는 바, 예를 들면 계수 매트릭스, 즉
Figure pct00022
으로 나타낼 수 있다.
Figure pct00017
and
Figure pct00018
pay
Figure pct00019
It is possible to obtain N fitting values by performing least square processing using
Figure pct00020
represented by here,
Figure pct00021
Indicates a fitting value corresponding to the dense point cloud data of the first reference face of the i-th group. The fitting coefficient Alpha can be determined through N fitting values, for example, a coefficient matrix, that is,
Figure pct00022
can be expressed as

여기서, 제1 참조 안면의 덴스 포인트 클라우드 데이터를 통해 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하는 과정에서, 피팅 계수를 통해 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대해 가중 합계를 수행한 후의 데이터가 원본 안면의 덴스 포인트 클라우드 데이터의 데이터에 가능한 근접하도록 해야 한다.Here, in the process of fitting the dense point cloud data of the original face through the dense point cloud data of the first reference face, the data after performing a weighted sum on the dense point cloud data of the first reference face through the fitting coefficient is the original It should be as close as possible to the data of the facial dense point cloud data.

당해 피팅 계수는 또한, 복수의 참조 이미지에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터로 원본 안면의 덴스 포인트 클라우드 데이터를 나타낼 때, 각각의 제1 참조 안면의 덴스 포인트 클라우드 데이터의 표현 계수로 간주할 수 있다.The fitting coefficient is also considered as an expression coefficient of each of the dense point cloud data of the first reference face when the original face dense point cloud data is represented by the dense point cloud data of the first reference face corresponding to the plurality of reference images. can do.

단계 S602: 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정한다.Step S602: Corresponding to the dense point cloud data of the first reference face of each group based on intermediate coefficients corresponding to the dense point cloud data of the first reference face of each group in the dense point cloud data of the first reference face of the plurality of groups. Determine the fitting coefficient for

구체적으로, 도 7에 도시된 내용을 참조하면, 본 발명의 실시예는 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정하는 구체적인 방법을 더 제공하는 바, 이는 아래 단계 S701 내지 단계 S704를 포함한다.Specifically, referring to the content shown in FIG. 7 , an embodiment of the present invention further provides a specific method for determining fitting coefficients corresponding to dense point cloud data of a first reference face of each group, which includes the following steps It includes steps S701 to S704.

단계 S701: 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 제1 참조 안면 중 타깃 안면 모델의 부위에 대응하는 제1 유형의 덴스 포인트 클라우드 데이터를 결정한다.Step S701: In the dense point cloud data of the first reference face of each group, a first type of dense point cloud data corresponding to a part of the target face model among the first reference faces is determined.

복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 임의의 한 그룹의 덴스 포인트 클라우드 데이터

Figure pct00023
에 대하여,
Figure pct00024
는 i번째 장의 참조 이미지에 기반하여 얻은 것이므로,
Figure pct00025
에는 i번째 장의 참조 이미지 내의 안면 부위에 대응하는 덴스 포인트 클라우드 데이터가 포함된다. 여기서, 안면 부위는 예를 들면 눈썹, 코, 눈, 입, 광대뼈 부위, 아래턱 부위를 포함한다. 각 안면 부위에 대하여, 추가로 더 상세하게 구획할 수 있는 바, 예를 들면 눈썹은 눈썹 끝 부위, 눈썹 중앙 부위 및 눈썹 피크 부위로 더 구획될 수 있다.Dense point cloud data of any one group among the plurality of groups of dense point cloud data of the first reference face
Figure pct00023
about,
Figure pct00024
is obtained based on the reference image of the ith chapter,
Figure pct00025
includes dense point cloud data corresponding to a facial part in the reference image of the i-th chapter. Here, the facial parts include, for example, eyebrows, nose, eyes, mouth, cheekbones, and lower jaw. For each facial region, further detailed partitioning may be performed, for example, the eyebrows may be further divided into an eyebrow tip region, an eyebrow central region, and an eyebrow peak region.

한 가지 가능한 실시형태에서는, 피팅 계수가 보다 정확하게 제1 참조 안면의 덴스 포인트 클라우드 데이터가 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하는 경우를 나타내도록 하기 위하여, 일부 안면 부위에 대응하는 피팅 계수를 조절함으로써, 피팅 계수 및 복수의 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 얻은 덴스 포인트 클라우드 데이터가 타깃 이미지에 대응하는 원본 안면의 덴스 포인트 클라우드 데이터에 근접하도록 한다. 이때, 피팅 계수에 대응하는 일부 안면 부위, 즉 눈, 입과 같은 타깃 안면 모델 부위를 조정해야 한다. 구체적인 타깃 안면 모델 부위는 구체적인 경우 또는 경험에 따라 결정할 수 있는 바, 여기서 더 이상 설명하지 않는다.In one possible embodiment, by adjusting the fitting coefficients corresponding to some facial parts, so that the fitting coefficients more accurately represent the case where the dense point cloud data of the first reference face fits the dense point cloud data of the original face , the fitting coefficients, and the plurality of corresponding dense point cloud data of the first reference face to approximate the obtained dense point cloud data to the original face corresponding to the target image. At this time, some facial parts corresponding to the fitting coefficients, that is, target facial model parts such as eyes and mouth need to be adjusted. A specific target facial model part can be determined according to specific cases or experience, and is not described herein any further.

제1 참조 안면의 덴스 포인트 클라우드 데이터가 나타내는 제1 참조 안면에서 타깃 안면 모델 부위에 대응하는 제1 유형의 덴스 포인트 클라우드 데이터를 결정할 경우, 한 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터

Figure pct00026
를 예로 들면, 안면 부위는 예를 들어 R개로 구획될 수 있는 바, 이때 R개의 안면 부위에 대응하는 덴스 포인트 클라우드 데이터는 예를 들면
Figure pct00027
,
Figure pct00028
, ……,
Figure pct00029
로 나타낼 수 있다. R개의 안면 부위 중의 타깃 안면 부위가 눈, 입을 포함하는 경우, 타깃 안면 모델 부위에 대응하는 덴스 포인트 클라우드 데이터는 예를 들면
Figure pct00030
Figure pct00031
즉 제1 유형의 덴스 포인트 클라우드 데이터를 포함한다.When determining the first type of dense point cloud data corresponding to the target facial model part in the first reference face indicated by the dense point cloud data of the first reference face, the dense point cloud data of a group of first reference faces
Figure pct00026
For example, the facial parts can be divided into R pieces, for example, and the dense point cloud data corresponding to the R facial parts is, for example
Figure pct00027
,
Figure pct00028
, … … ,
Figure pct00029
can be expressed as When a target facial part among the R facial parts includes eyes and a mouth, the dense point cloud data corresponding to the target facial model part is, for example,
Figure pct00030
and
Figure pct00031
That is, it includes the first type of dense point cloud data.

단계 S702: 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제1 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 조정하여 제1 피팅 계수를 얻는다.Step S702: Among the dense point cloud data of the first reference face, intermediate coefficients corresponding to the first type of dense point cloud data are adjusted to obtain first fitting coefficients.

제1 유형의 덴스 포인트 클라우드 데이터를 결정한 경우, 타깃 안면 모델에 대응하는 일부 부위에 대응하는 제1 피팅 계수, 즉 조정하여 보다 나은 피팅 효과를 달성하는 중간 계수를 결정할 수 있다. 동시에, 중간 계수 중의 임의의 한 피팅값

Figure pct00032
에 대하여,
Figure pct00033
Figure pct00034
Figure pct00035
를 이용하여 최소 제곱 처리를 수행하여 얻은 것이므로,
Figure pct00036
에는 복수의 타깃 안면 모델 각각에 대응하는 복수의 일부 부위의 중간 계수가 포함된다.When the first type of dense point cloud data is determined, first fitting coefficients corresponding to some parts corresponding to the target facial model, that is, intermediate coefficients that achieve a better fitting effect by adjustment may be determined. At the same time, any one fitting value among the intermediate coefficients
Figure pct00032
about,
Figure pct00033
Is
Figure pct00034
and
Figure pct00035
Since it was obtained by performing least square processing using
Figure pct00036
includes intermediate coefficients of a plurality of partial parts corresponding to each of a plurality of target facial models.

예시적으로, 타깃 안면 모델 부위가 각각 눈, 입인 경우,

Figure pct00037
중 복수의 타깃 안면 모델 부위에 대응하는 중간 계수는 예를 들면
Figure pct00038
Figure pct00039
, 즉 제1 유형의 덴스 포인트 클라우드 데이터
Figure pct00040
Figure pct00041
에 대응하는 중간 계수로 나타낼 수 있다. 중간 계수
Figure pct00042
Figure pct00043
에 대해 수치 조정을 수행하여, 조정하여 얻은 제1 피팅 계수에 기반하여 원본 안면의 덴스 포인트 클라우드 데이터를 피팅한 후, 피팅 결과가 원본 안면의 덴스 포인트 클라우드 데이터에 보다 근접하도록 한다. 여기서, 수치 조정은 예를 들면 수치 증가 및/또는 수치 감소를 포함한다.Exemplarily, when the target facial model parts are eyes and mouth, respectively,
Figure pct00037
Among them, the intermediate coefficient corresponding to a plurality of target facial model parts is, for example,
Figure pct00038
and
Figure pct00039
, that is, the first type of dense point cloud data
Figure pct00040
and
Figure pct00041
It can be expressed as an intermediate coefficient corresponding to median coefficient
Figure pct00042
class
Figure pct00043
Numerical adjustment is performed on , and after fitting the dense point cloud data of the original face based on the first fitting coefficient obtained by the adjustment, the fitting result is brought closer to the dense point cloud data of the original face. Here, numerical adjustment includes, for example, numerical increase and/or numerical decrease.

단계 S703: 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 제2 피팅 계수로 결정하되; 제2 유형의 덴스 포인트 클라우드 데이터는 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제1 유형의 덴스 포인트 클라우드 데이터를 제외한 덴스 포인트 클라우드 데이터이다.Step S703: Determine an intermediate coefficient corresponding to a second type of dense point cloud data of the first reference face as a second fitting coefficient; The second type of dense point cloud data is dense point cloud data other than the first type of dense point cloud data of the first reference face.

이때, 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 제2 피팅 계수로 결정할 수 있다. 또한, 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제1 유형의 덴스 포인트 클라우드 데이터를 제외한 덴스 포인트 클라우드 데이터를 제2 유형의 덴스 포인트 클라우드 데이터로 사용할 수도 있다. 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수가 피팅 결과에 대한 영향이 작거나 또는 피팅할 때 피팅 결과가 비교적 양호하므로, 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 조정하지 않음으로써 피팅 효과를 확보하는 전제 하에 효율을 향상시킬 수 있다.In this case, an intermediate coefficient corresponding to the second type of dense point cloud data among the dense point cloud data of the first reference face may be determined as the second fitting coefficient. Also, among the dense point cloud data of the first reference face of each group, dense point cloud data other than the first type of dense point cloud data may be used as the second type of dense point cloud data. Since the fitting coefficient corresponding to the second type of dense point cloud data has a small effect on the fitting result or the fitting result is relatively good when fitting, the fitting coefficient corresponding to the second type of dense point cloud data is not adjusted. As a result, the efficiency can be improved under the premise of securing the fitting effect.

단계 S704: 제1 피팅 계수 및 제2 피팅 계수에 기반하여 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터의 피팅 계수를 얻는다.Step S704: Obtain fitting coefficients of the dense point cloud data of the first reference face of each group according to the first fitting coefficient and the second fitting coefficient.

제1 피팅 계수가 타깃 안면 모델 부위에 대응하고, 제2 피팅 계수가 복수의 안면 부위 중 타깃 안면 모델 부위를 제외한 기타 안면 부위에 대응하므로, 제1 피팅 계수 및 제2 피팅 계수를 조합하여 복수의 안면 부위에 대응하는 피팅 계수, 즉 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터의 피팅 계수를 결정할 수 있다.Since the first fitting coefficient corresponds to the target facial model part and the second fitting coefficient corresponds to other facial parts other than the target facial model part among the plurality of facial parts, the first fitting coefficient and the second fitting coefficient are combined to obtain a plurality of A fitting coefficient corresponding to a face region, that is, a fitting coefficient of dense point cloud data of a first reference face of each group may be determined.

상기 단계 S103에 대하여,Regarding the above step S103,

기설정된 스타일은 예를 들면 카툰 스타일, 고대 스타일 또는 추상 스타일 등 일 수 있고, 구체적으로는 실제 수요에 따라 설정될 수 있다. 예시적으로, 기설정된 스타일이 카툰 스타일인 경우, 기설정된 스타일을 가지는 제2 참조 안면은 카툰 안면 일 수 있다.The preset style may be, for example, a cartoon style, an ancient style, or an abstract style, and may be specifically set according to actual needs. For example, when the preset style is a cartoon style, the second reference face having the preset style may be a cartoon face.

제1 참조 안면을 이용하여 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성할 경우, 예를 들면, 참조 이미지 내의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 조정하여 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식; 또는, 참조 이미지 내의 제1 참조 안면에 기반하여 기설정된 스타일을 구비한 제2 참조 안면을 포함하는 가상 안면 이미지를 생성하고, 미리 트레이닝된 신경망을 이용하여 가상 안면 이미지 중 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성하는 방식을 사용할 수 있다.When generating the dense point cloud data of the second reference face having a preset style using the first reference face, for example, by adjusting the dense point cloud data of the first reference face in the reference image to obtain the preset style a method of obtaining dense point cloud data of a second reference face provided; Alternatively, a virtual face image including a second reference face having a preset style is generated based on the first reference face in the reference image, and a dense point of the second reference face among the virtual face images is generated using a pre-trained neural network. You can use a way to create cloud data.

제1 참조 안면 덴스 포인트 클라우드를 조정하여 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 얻을 경우, 예시적으로, 기설정된 스타일에 따라 제1 참조 안면의 덴스 포인트 클라우드 데이터 중의 모든 덴스 포인트 클라우드 데이터 또는 일부 덴스 포인트 클라우드 데이터를 조정함으로써, 얻은 제2 참조 안면의 덴스 포인트 클라우드 데이터가 반영한 안면이 기설정된 스타일을 가지도록 할 수 있다.In the case of obtaining the dense point cloud data of the second reference face having a preset style by adjusting the first reference face dense point cloud, illustratively, all the denses in the dense point cloud data of the first reference face according to the preset style By adjusting the point cloud data or some of the dense point cloud data, the face reflected by the acquired dense point cloud data of the second reference face may have a preset style.

기설정된 스타일이 카툰 스타일인 것을 예로 들면, 한 가지 가능한 실시형태에서, 카툰 스타일이 예를 들어 눈을 확대하는 것을 포함할 경우, 제1 참조 안면의 덴스 포인트 클라우드 데이터를 조정할 때, 눈에 대응하는 덴스 포인트 클라우드 데이터에 대해 눈 부위에 대응하는 덴스 포인트 클라우드의 위치 좌표를 위로 이동하거나 및/또는 아래 눈꺼풀 부위에 대응하는 덴스 포인트 클라우드의 위치 좌표를 아래로 이동하는 조정을 수행함으로써, 얻은 제2 참조 안면의 덴스 포인트 클라우드 데이터 중 눈에 대응하는 덴스 포인트 클라우드 데이터가 눈이 확대된 것을 나타내도록 한다.Taking for example that the preset style is a cartoon style, in one possible embodiment, when the cartoon style includes, for example, enlarging the eyes, when adjusting the dense point cloud data of the first reference face, corresponding to the eyes The second reference obtained by adjusting the dense point cloud data by moving the positional coordinates of the dense point cloud corresponding to the eye part upward and/or moving the positional coordinates of the dense point cloud corresponding to the lower eyelid part downward Among the dense point cloud data of the face, the dense point cloud data corresponding to the eye indicates that the eye is enlarged.

제1 참조 안면에 기반하여 가상 안면 이미지를 생성하고, 미리 트레이닝하여 얻은 신경망을 이용하여 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성할 경우, 예시적으로, 기설정된 스타일에 따라 참조 이미지 내의 제1 참조 안면에 대해 그래픽 이미지 처리를 수행함으로써 기설정된 스타일을 가지는 제2 참조 안면의 가상 안면 이미지를 생성할 수 있다. 여기서, 그래픽 이미지 처리는 예를 들면 픽처 편집, 픽처 제작, 픽처 설계를 포함할 수 있다.When a virtual face image is generated based on the first reference face and dense point cloud data of the second reference face is generated using a neural network obtained by pre-training, exemplarily, according to a preset style, the first in the reference image A virtual face image of a second reference face having a preset style may be generated by performing graphic image processing on the reference face. Here, graphic image processing may include, for example, picture editing, picture production, and picture design.

기설정된 스타일을 가지는 제2 참조 안면의 가상 안면 이미지를 획득하는 경우, 미리 트레이닝하여 얻은 신경망을 이용하여 대응하는 제2 참조 안면의 덴스 포인트 클라우드 데이터를 결정할 수 있다. 여기서, 미리 트레이닝하여 얻은 신경망을 이용하여 제2 참조 안면의 덴스 포인트 클라우드 데이터를 결정하는 방법은 상기 미리 트레이닝된 신경망을 이용하여 원본 안면의 덴스 포인트 클라우드 데이터 및 제1 참조 안면의 덴스 포인트 클라우드 데이터를 결정하는 방법과 유사한 바, 여기서 더 이상 설명하지 않는다.When a virtual face image of the second reference face having a preset style is acquired, dense point cloud data of the corresponding second reference face may be determined using a neural network obtained through pre-training. Here, the method for determining the dense point cloud data of the second reference face using the neural network obtained by pre-training includes the dense point cloud data of the original face and the dense point cloud data of the first reference face using the pre-trained neural network. Similar to the determining method, it is not further described here.

이때, 예를 들면 얻은 제2 참조 안면의 덴스 포인트 클라우드 데이터를

Figure pct00044
로 나타낼 수 있다.At this time, for example, the obtained second reference face's dense point cloud data
Figure pct00044
can be expressed as

기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 결정한 후, 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정할 수 있다.After determining a fitting coefficient corresponding to each of the dense point cloud data of the second reference face having a preset style and the dense point cloud data of the plurality of groups of the first reference face, the dense point cloud data of the target face model may be determined. .

도 8에 도시된 내용을 참조하면, 본 발명의 실시예는 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하는 구체적인 방법을 더 제공하는 바, 이는 아래 단계 S801 내지 단계 S802를 포함한다.Referring to FIG. 8 , an embodiment of the present invention further provides a specific method for determining dense point cloud data of a target facial model, which includes steps S801 to S802 below.

단계 S801: 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터를 생성한다.Step S801: Based on the dense point cloud data of the plurality of groups of second reference faces, average data of the dense point cloud data of the second reference faces of the plurality of groups is generated.

한 가지 가능한 실시형태에서는, 제2 참조 안면의 덴스 포인트 클라우드 데이터

Figure pct00045
중 대응하는 부위의 좌표값에 기반하여 평균값을 구하는 처리를 수행함으로써 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터를 생성할 수 있다. 여기서, 평균값 데이터는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균 특징을 나타낸다. 예시적으로, 제2 참조 안면의 덴스 포인트 클라우드 데이터에 N 그룹의 안면 덴스 포인트 클라우드가 포함된 경우, 제2 참조 안면에 대한 덴스 포인트 클라우드 데이터 중의 복수 그룹의 안면의 덴스 포인트 클라우드 데이터를
Figure pct00046
,
Figure pct00047
, ……,
Figure pct00048
으로 나타낼 수 있다.In one possible embodiment, the dense point cloud data of the second reference face
Figure pct00045
Average value data of the dense point cloud data of the second reference face may be generated by performing a process of obtaining an average value based on the coordinate values of the corresponding part. Here, the average value data represents an average feature of dense point cloud data of a plurality of groups of second reference faces. Exemplarily, when the dense point cloud data of the second reference face includes N groups of facial dense point clouds, the dense point cloud data of a plurality of groups of faces among the dense point cloud data for the second reference face
Figure pct00046
,
Figure pct00047
, … … ,
Figure pct00048
can be expressed as

여기서, 임의의 한 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터

Figure pct00049
에 대하여, 상이한 부위 위치에 대응하는 복수의 안면 덴스 포인트 클라우드를 결정할 수 있는 바, W개의 상이한 안면 덴스 포인트 클라우드를 포함하는 경우, 예를 들면 W개의 상이한 안면 덴스 포인트 클라우드를
Figure pct00050
로 나타낼 수 있고, 각각 대응하는 좌표값은
Figure pct00051
,
Figure pct00052
로 나타낼 수 있다. 각 그룹의
Figure pct00053
중 대응하는 부위 위치의 좌표값을 이용하여 평균값을 구하여 대응하는 부위 위치의 평균값 데이터를 얻을 수 있다. 이때, 상이한 부위 위치의 첫 번째 안면 덴스 포인트 클라우드
Figure pct00054
에 대하여, 예를 들면 아래 수학식(1)을 사용하여 평균값 데이터
Figure pct00055
을 얻을 수 있다.Here, the dense point cloud data of any one group of second reference faces
Figure pct00049
, it is possible to determine a plurality of facial dense point clouds corresponding to different body positions, where W different facial dense point clouds are included, for example, W different facial dense point clouds
Figure pct00050
, and the corresponding coordinate values are
Figure pct00051
,
Figure pct00052
can be expressed as of each group
Figure pct00053
Average value data of the corresponding part position can be obtained by obtaining an average value using the coordinate values of the corresponding part position. At this time, the first facial dense point cloud at the location of the different parts
Figure pct00054
For, for example, the average value data using Equation (1) below
Figure pct00055
can be obtained.

Figure pct00056
Figure pct00056

기타 상이한 부위 위치의 안면 덴스 포인트 클라우드에 대해 평균값 데이터를 결정하는 방식은 상기 첫 번째 안면 덴스 포인트 클라우드에 대해 평균값 데이터를 구하는 방식과 유사한 바, 여기서 더 이상 설명하지 않는다.A method of determining average value data for facial dense point clouds at other locations of different parts is similar to a method of obtaining average value data for the first facial dense point cloud, and is not further described herein.

이때, 상이한 부위 위치의 평균값 데이터

Figure pct00057
즉 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터를 얻을 수 있고,
Figure pct00058
로 나타낼 수 있다.At this time, the average value data of different site locations
Figure pct00057
That is, average value data of dense point cloud data of the second reference face can be obtained,
Figure pct00058
can be expressed as

단계 S802: 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터, 평균값 데이터 및 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성한다.Step S802: Dense point cloud data of the target face model is generated based on the dense point cloud data of the second reference face of the plurality of groups, the mean value data, and the fitting coefficient corresponding to each of the plurality of groups of the dense point cloud data of the first reference face of the plurality of groups. do.

구체적으로, 도 9에 도시된 내용을 참조하면, 본 발명의 실시예는 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 구체적인 방법을 더 제공하는 바, 이는 아래 단계를 포함한다:Specifically, referring to the content shown in FIG. 9 , an embodiment of the present invention further provides a specific method for generating dense point cloud data of a target facial model, which includes the following steps:

단계 S901: 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 중 각 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 평균값 데이터에 기반하여 각 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 차이값 데이터를 결정한다.Step S901: difference value data of the dense point cloud data of the second reference face of each group based on the average value data and the dense point cloud data of the second reference face of each group among the dense point cloud data of the second reference face of the plurality of groups decide

예시적으로, 각 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터와 평균값 데이터 중 상이한 부위 위치에 대응하는 좌표값의 차이값을 구하여 각 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 차이값 데이터를 결정하고,

Figure pct00059
, 즉
Figure pct00060
로 나타낼 수 있다. 여기서, 차이값 데이터는 각 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터와 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균 특징의 차이를 나타낼 수 있다.Exemplarily, the difference between the dense point cloud data of the second reference face of each group and the coordinate values corresponding to the positions of the different parts of the mean value data is obtained to obtain difference data between the dense point cloud data of the second reference face of each group. decide,
Figure pct00059
, in other words
Figure pct00060
can be expressed as Here, the difference value data may indicate a difference in average characteristics between the dense point cloud data of the second reference face of each group and the dense point cloud data of the second reference face of a plurality of groups.

여기서, 복수의 제2 참조 안면의 덴스 포인트 클라우드 데이터가 존재하므로, 차이값 데이터

Figure pct00061
에는 복수의 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 복수의 서브 차이값 데이터가 포함된다. 예시적으로, N 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터가 존재하는 경우, 대응하는 차이값 데이터
Figure pct00062
는 예를 들면 N 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터에 포함된
Figure pct00063
,
Figure pct00064
, ……,
Figure pct00065
각각에 대응하는 서브 차이값 데이터
Figure pct00066
,
Figure pct00067
, ……,
Figure pct00068
가 포함될 수 있는 바, 즉 차이값 데이터
Figure pct00069
에는 N개의 서브 차이값 데이터가 포함되고
Figure pct00070
로 나타낼 수 있다.Here, since there is a plurality of second reference face dense point cloud data, difference value data
Figure pct00061
includes a plurality of sub-difference value data corresponding to each of the plurality of second reference face dense point cloud data. Exemplarily, when there is dense point cloud data of N groups of second reference faces, the corresponding difference value data
Figure pct00062
is included in the dense point cloud data of the second reference face of the N group, for example.
Figure pct00063
,
Figure pct00064
, … … ,
Figure pct00065
Sub difference value data corresponding to each
Figure pct00066
,
Figure pct00067
, … … ,
Figure pct00068
Can be included, i.e. difference value data
Figure pct00069
contains N sub-difference data,
Figure pct00070
can be expressed as

단계 S902: 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 보간 처리를 수행한다.Step S902: Interpolation is performed on difference value data corresponding to each of the dense point cloud data of the second reference face of the plurality of groups based on fitting coefficients corresponding to each of the dense point cloud data of the plurality of groups of the first reference face. .

예시적으로, 피팅 계수를 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 가중치로 사용하여, 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 가중 합계 처리를 수행함으로써 보간 처리 과정을 구현할 수 있다.Exemplarily, a weighted sum of difference value data corresponding to each of the dense point cloud data of the second reference face of the plurality of groups by using the fitting coefficient as a weight corresponding to the dense point cloud data of the second reference face of the plurality of groups. Interpolation processing can be implemented by performing processing.

피팅 계수에

Figure pct00071
이 포함된 경우, 복수 장의 참조 이미지 각각에 대응하는 제2 참조 안면의 덴스 포인트 클라우드 데이터의 가중치는
Figure pct00072
이다. 피팅 계수를 이용하여 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 가중 합계를 수행하여 얻은 결과는
Figure pct00073
로 나타낼 수 있으며, 원본 안면의 덴스 포인트 클라우드와 제1 참조 안면의 덴스 포인트 클라우드 사이의 연관 관계를 원본 안면의 덴스 포인트 클라우드와 제2 참조 안면의 덴스 포인트 클라우드 사이로 전이시켜, 얻은 안면 덴스 포인트 클라우드가 원본 안면의 덴스 포인트 클라우드의 특징을 가질 뿐만 아니라 제2 참조 안면의 덴스 포인트 클라우드의 스타일을 가지도록 하고; 이러한 경우, 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 가중 합계를 수행하여 얻은 결과
Figure pct00074
는 아래 수학식(2)를 만족시킨다:to the fitting coefficient
Figure pct00071
When is included, the weight of the dense point cloud data of the second reference face corresponding to each of the plurality of reference images is
Figure pct00072
am. The result obtained by performing the weighted sum on the difference value data corresponding to each of the dense point cloud data of the second reference face of the plurality of groups using the fitting coefficient is
Figure pct00073
It can be expressed as, and the facial dense point cloud obtained by transferring the association between the dense point cloud of the original face and the dense point cloud of the first reference face between the dense point cloud of the original face and the dense point cloud of the second reference face have the style of the dense point cloud of the second reference face as well as the characteristics of the dense point cloud of the original face; In this case, a result obtained by performing a weighted sum on the difference value data corresponding to each of the dense point cloud data of the second reference face of the plurality of groups
Figure pct00074
satisfies equation (2) below:

Figure pct00075
Figure pct00075

여기서,

Figure pct00076
은 제2 참조 안면의 덴스 포인트 클라우드 데이터의 가중치
Figure pct00077
및/또는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터
Figure pct00078
,
Figure pct00079
, ……,
Figure pct00080
에 각각 대응하는 가중치를 나타내고, 이는 상이한 차이값 데이터가 가중 합계를 수행하여 얻은 결과의 기여도 및/또는 중요성을 나타내며, 미리 설정하거나 조정할 수 있는 바, 구체적인 설정 및 조정 방법은 여기서 더 이상 설명하지 않는다.here,
Figure pct00076
is the weight of the dense point cloud data of the second reference face
Figure pct00077
and/or difference value data corresponding to each of the plurality of groups of second reference face dense point cloud data.
Figure pct00078
,
Figure pct00079
, … … ,
Figure pct00080
Indicates a weight corresponding to each, which indicates the contribution and / or importance of the result obtained by performing a weighted sum of different difference value data, and can be set or adjusted in advance, and specific setting and adjustment methods are not further described herein. .

단계 S903: 보간 처리의 결과 및 평균값 데이터에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성한다.Step S903: Dense point cloud data of the target facial model is generated according to the result of the interpolation process and the mean value data.

한 가지 가능한 실시형태에서는, 가중 합계의 결과를 직접 평균값 데이터에 중첩시켜 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하고,

Figure pct00081
로 나타낼 수 있는 바, 즉 아래 수학식(3)을 이용하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터
Figure pct00082
를 얻을 수 있다:In one possible embodiment, the result of the weighted sum is directly superimposed on the average value data to generate dense point cloud data of the target facial model,
Figure pct00081
, that is, the dense point cloud data of the target facial model using Equation (3) below
Figure pct00082
can be obtained:

Figure pct00083
Figure pct00083

이때, 타깃 이미지 내의 안면 특징을 포함할 뿐만 아니라 제2 참조 안면의 덴스 포인트 클라우드 데이터가 반영한 기설정된 스타일도 포함하는 타깃 안면 모델의 덴스 포인트 클라우드 데이터

Figure pct00084
를 얻을 수 있다.At this time, the dense point cloud data of the target facial model including not only the facial features in the target image but also the preset style reflected by the dense point cloud data of the second reference face
Figure pct00084
can be obtained.

상기 단계 S104에 대하여, 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 이용하여 타깃 이미지에 대응하는 타깃 안면 모델을 생성할 수 있다.In step S104, a target face model corresponding to the target image may be generated using dense point cloud data of the target face model.

예시적으로, 타깃 안면 모델의 덴스 포인트 클라우드 데이터

Figure pct00085
에 기반하여, 렌더링의 방식으로 대응하는 타깃 안면 모델을 생성하거나 또는 타깃 안면 모델의 덴스 포인트 클라우드 데이터
Figure pct00086
와 연관 관계를 가지는 스킨을 결정하고, 타깃 안면 모델의 덴스 포인트 클라우드 데이터
Figure pct00087
를 이용하여 타깃 이미지에 대응하는 타깃 안면 모델을 생성할 수 있다. 구체적인 방법은 실제 상황에 따라 선택할 수 있는 바, 여기서 더 이상 설명하지 않는다.Exemplarily, dense point cloud data of a target facial model
Figure pct00085
Based on this, a corresponding target facial model is generated by way of rendering or dense point cloud data of the target facial model.
Figure pct00086
Determine the skin having a relationship with, and the dense point cloud data of the target facial model
Figure pct00087
A target face model corresponding to the target image may be generated using . The specific method can be selected according to the actual situation, and is not further described herein.

본 발명의 실시예는 본 발명의 실시예에서 제공하는 안면 재구성 방법을 이용하여 타깃 이미지

Figure pct00088
내의 원본 안면 A에 대응하는 타깃 가상 안면 모델
Figure pct00089
을 획득하는 구체적인 과정의 설명을 더 제공한다.An embodiment of the present invention uses a facial reconstruction method provided by an embodiment of the present invention to target image
Figure pct00088
Target virtual face model corresponding to original face A within
Figure pct00089
A detailed description of the process of obtaining is further provided.

타깃 가상 안면 모델

Figure pct00090
을 결정하는 단계는 아래 단계 (1) 내지 단계 (4)를 포함한다.Target virtual facial model
Figure pct00090
The step of determining includes steps (1) to (4) below.

단계 (1): 재료를 준비하고; 복수 장의 참조 이미지

Figure pct00091
를 획득한다.Step (1): preparing materials; Multiple reference images
Figure pct00091
Acquire

단계 (2): 덴스 포인트 클라우드 데이터를 준비하되; 여기에는 아래 단계 (2-1) 및 단계 (2-2)가 포함된다.Step (2): prepare dense point cloud data; This includes steps (2-1) and (2-2) below.

단계 (2-1): 신경망을 이용하여 타깃 이미지

Figure pct00092
중의 원본 안면 A에 대응하는 덴스 포인트 클라우드 데이터
Figure pct00093
를 결정한다.Step (2-1): target image using neural network
Figure pct00092
Dense point cloud data corresponding to original face A in
Figure pct00093
decide

단계 (2-2): 신경망을 이용하여 복수 장의 참조 이미지

Figure pct00094
각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터
Figure pct00095
를 결정한다.Step (2-2): Multiple reference images using neural networks
Figure pct00094
Dense point cloud data of the first reference face corresponding to each
Figure pct00095
decide

단계 (3): 피팅 계수 Alpha를 결정하되; 여기에는 아래 단계 (3-1) 내지 단계 (3-4)가 포함된다.Step (3): determine the fitting coefficient Alpha; This includes steps (3-1) to (3-4) below.

단계 (3-1): 타깃 안면 모델의 부위에 대응하는 제1 유형의 덴스 포인트 클라우드 데이터

Figure pct00096
Figure pct00097
를 결정한다.Step (3-1): Dense point cloud data of the first type corresponding to the part of the target facial model
Figure pct00096
and
Figure pct00097
decide

단계 (3-2): 타깃 안면 모델에 대응하는 덴스 포인트 클라우드 데이터를 이용하여 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 중간 계수를 결정한다; Step (3-2): use the dense point cloud data corresponding to the target face model to fit the original face's dense point cloud data to determine an intermediate coefficient;

단계 (3-3): 제1 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수 중의

Figure pct00098
Figure pct00099
를 조정하여 제1 피팅 계수를 얻는다; Step (3-3): Among the intermediate coefficients corresponding to the first type of dense point cloud data
Figure pct00098
and
Figure pct00099
to obtain a first fitting coefficient;

단계 (3-4): 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제1 유형의 덴스 포인트 클라우드 데이터를 제외한 제2 유형의 덴스 포인트 클라우드 에 대응하는 중간 계수를 제2 피팅 계수로 결정하고 제1 피팅 계수 및 제2 피팅 계수를 이용하여 피팅 계수 Alpha를 결정한다.Step (3-4): determining an intermediate coefficient corresponding to a second type of dense point cloud excluding the first type of dense point cloud data from among the dense point cloud data of the first reference face as a second fitting coefficient; A fitting coefficient Alpha is determined using the coefficient and the second fitting coefficient.

단계(4): 타깃 안면 모델

Figure pct00100
을 결정하되; 여기에는 아래 단계 (4-1) 내지 단계 (4-3)가 포함된다.Step (4): Target facial model
Figure pct00100
determine; This includes steps (4-1) to (4-3) below.

단계 (4-1): 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터

Figure pct00101
를 결정한다.Step (4-1): average value data of dense point cloud data of second reference faces of multiple groups
Figure pct00101
decide

단계 (4-2): 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하고; 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터

Figure pct00102
, 평균값 데이터
Figure pct00103
및 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수 Alpha에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터
Figure pct00104
를 생성한다.Step (4-2): determine dense point cloud data of the target facial model; Dense point cloud data of multiple groups of second reference faces
Figure pct00102
, mean data
Figure pct00103
and dense point cloud data of a target face model based on a fitting coefficient Alpha corresponding to each of the plurality of groups of first reference face dense point cloud data.
Figure pct00104
generate

단계 (4-3): 생성된 타깃 안면 모델의 덴스 포인트 클라우드 데이터

Figure pct00105
를 이용하여 타깃 안면 모델
Figure pct00106
을 결정한다.Step (4-3): Dense point cloud data of the generated target face model
Figure pct00105
Target facial model using
Figure pct00106
decide

여기서, 유의해야 할 것은, 상기 단계 (1) 내지 단계 (4)는 단지 안면 재구성 방법을 완성하는 하나의 구체적인 예시로서, 본 발명의 실시예에서 제공하는 안면 재구성 방법을 한정하지 않는다.Here, it should be noted that steps (1) to (4) are only one specific example of completing the facial reconstruction method, and the facial reconstruction method provided in the embodiment of the present invention is not limited.

본 기술분야의 통상의 기술자는, 특정 구현의 설명된 방법에서, 각각의 단계의 드래프팅 순서가 엄격하게 실행된 순서가 구현 프로세스에 대한 임의의 제한을 형성한다는 것을 암시하지 않으며, 각각의 단계의 특정 실행 순서는 그것의 기능 및 가능하게는 고유 로직에 의해 결정되어야 한다는 것을 이해할 수 있다.A person skilled in the art does not imply that, in the described method of a particular implementation, the order in which the drafting of each step is strictly executed forms any limitation to the implementation process, and the order of drafting each step It can be appreciated that the specific order of execution should be determined by its functionality and possibly its own logic.

동일한 발명의 구상에 기반하여, 본 발명의 실시예는 안면 재구성 방법에 대응하는 안면 재구성 장치를 더 제공하는 바, 본 발명의 실시예의 장치가 문제를 해결하는 원리는 본 발명의 실시예에 따른 안면 재구성 방법과 유사하므로 장치의 실시는 방법의 실시를 참조할 수 있으며, 중복되는 부분은 더 이상 설명하지 않는다.Based on the same idea of the present invention, the embodiment of the present invention further provides a face reconstruction device corresponding to the face reconstruction method. Similar to the reconstruction method, the implementation of the device may refer to the implementation of the method, and overlapping parts are not further described.

도 10에 도시된 내용을 참조하면, 이는 본 발명의 실시예에서 제공하는 안면 재구성 장치의 모식도이고, 상기 장치는 제1 획득 모듈(10), 제1 처리 모듈(20), 결정 모듈(30) 및 생성 모듈(40)을 포함하며; 여기서, Referring to FIG. 10 , which is a schematic diagram of a facial reconstruction device provided by an embodiment of the present invention, the device includes a first acquisition module 10, a first processing module 20, and a determination module 30 and a generating module 40; here,

제1 획득 모듈(10)은, 타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하고; The first acquisition module 10 acquires the original face dense point cloud data included in the target image;

제1 처리 모듈(20)은, 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻으며; The first processing module 20 uses the dense point cloud data of the first reference face corresponding to each of the plurality of reference images to fit the original face's dense point cloud data to obtain a plurality of groups of the first reference face's dense point cloud data. obtaining fitting coefficients corresponding to each point cloud data;

결정 모듈(30)은, 기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하되; 상기 복수 그룹의 제2 참조 안면은 각각 상기 복수 장의 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것이고; The determination module 30 determines a target face model based on a fitting coefficient corresponding to each of the dense point cloud data of a plurality of groups of second reference faces having a preset style and the plurality of groups of dense point cloud data of the first reference face. Determine the dense point cloud data of; the second reference faces of the plurality of groups are each generated based on the first reference faces in the plurality of reference images;

생성 모듈(40)은, 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 상기 타깃 이미지의 상기 원본 안면에 대응하는 타깃 안면 모델을 생성한다.The generation module 40 generates a target face model corresponding to the original face of the target image based on dense point cloud data of the target face model.

한 가지 선택적인 실시형태에서, 상기 결정 모듈(30)은 기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정할 경우, 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터를 생성하고; 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성한다.In one optional embodiment, the determining module 30 determines the plurality of groups of dense point cloud data of the second reference face and the plurality of groups of dense point cloud data of the first reference face having a preset style, respectively. When determining the dense point cloud data of the target facial model based on the fitting coefficient, average value data of the dense point cloud data of the second reference face of the plurality of groups based on the dense point cloud data of the second reference face of the plurality of groups create; Based on the dense point cloud data of the second reference face of the plurality of groups, the average value data, and the fitting coefficient corresponding to each of the plurality of groups of the dense point cloud data of the first reference face of the plurality of groups, the dense point cloud data of the target face model generate

한 가지 선택적인 실시형태에서, 상기 결정 모듈(30)은 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성할 경우, 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 중 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 상기 평균값 데이터에 기반하여 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 차이값 데이터를 결정하고; 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 보간 처리를 수행하며; 상기 보간 처리의 결과 및 상기 평균값 데이터에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성한다.In one optional embodiment, the determining module 30 includes a plurality of groups of dense point cloud data of the second reference face, the average value data, and a plurality of groups of dense point cloud data of the first reference face, respectively. When generating the dense point cloud data of the target face model based on the fitting coefficient, among the dense point cloud data of the second reference face of a plurality of groups, the dense point cloud data of the second reference face of each group and the average value data determining difference value data of dense point cloud data of the second reference face of each group based on; performing interpolation on difference value data corresponding to each of the plurality of groups of dense point cloud data of the second reference face based on fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face; Dense point cloud data of the target facial model is generated based on the result of the interpolation process and the average value data.

한 가지 선택적인 실시형태에서, 상기 제1 획득 모듈(10)은 타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득할 경우, 상기 원본 안면을 포함하는 상기 타깃 이미지를 획득하고; 미리 트레이닝된 신경망으로 상기 타깃 이미지를 처리하여 상기 타깃 이미지 내의 상기 원본 안면의 덴스 포인트 클라우드 데이터를 얻는다.In one optional embodiment, the first acquisition module 10, when acquiring dense point cloud data of an original face included in the target image, acquires the target image including the original face; Dense point cloud data of the original face in the target image is obtained by processing the target image with a pre-trained neural network.

한 가지 선택적인 실시형태에서, 상기 장치는, 제1 참조 안면을 포함하는 복수 장의 참조 이미지를 획득하는 방식; 복수 장의 상기 참조 이미지 내의 각각의 상기 참조 이미지에 대하여, 미리 트레이닝된 신경망으로 각각의 상기 참조 이미지를 처리하여 각 참조 이미지 내의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식을 통해 상기 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 획득하는 제2 처리 모듈(50)을 더 포함한다.In one optional embodiment, the device includes: a method of obtaining a plurality of reference images including a first reference face; For each of the reference images in the plurality of reference images, a method of obtaining dense point cloud data of the first reference face in each reference image by processing each reference image with a pre-trained neural network Reference of the plurality of sheets A second processing module 50 for obtaining dense point cloud data of the first reference face corresponding to each image is further included.

한 가지 선택적인 실시형태에서, 상기 제1 처리 모듈(20)은 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻을 경우, 상기 원본 안면의 덴스 포인트 클라우드 데이터 및 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대해 최소 제곱 처리를 수행하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 중간 계수를 얻고; 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정한다.In one optional embodiment, the first processing module 20 uses the dense point cloud data of the first reference face corresponding to each of the plurality of reference images to fit the dense point cloud data of the original face to form a plurality of groups When fitting coefficients corresponding to each of the dense point cloud data of the first reference face are obtained, least square processing is performed on the dense point cloud data of the original face and the dense point cloud data of the first reference face to obtain a plurality of groups obtaining intermediate coefficients corresponding to each of the dense point cloud data of the first reference face of ; A fitting coefficient corresponding to the dense point cloud data of the first reference face of each group is determined based on an intermediate coefficient corresponding to the dense point cloud data of the first reference face of each group.

한 가지 선택적인 실시형태에서, 상기 제1 처리 모듈(20)은 각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정할 경우, 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 참조 안면 중 타깃 안면 모델의 부위에 대응하는 제1 유형의 덴스 포인트 클라우드 데이터를 결정하고; 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 상기 제1 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 조정하여 제1 피팅 계수를 얻으며; 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 제2 피팅 계수로 결정하되; 상기 제2 유형의 덴스 포인트 클라우드 데이터는 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 유형의 덴스 포인트 클라우드 데이터를 제외한 덴스 포인트 클라우드 데이터이고; 상기 제1 피팅 계수 및 상기 제2 피팅 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터의 피팅 계수를 얻는다.In one optional embodiment, the first processing module 20 determines the dense point cloud data of the first reference face of each group based on the intermediate coefficient corresponding to the dense point cloud data of the first reference face of each group. determining a first type of dense point cloud data corresponding to a part of a target facial model among the first reference faces from among the dense point cloud data of the first reference faces of each group when fitting coefficients corresponding to are determined; obtaining first fitting coefficients by adjusting intermediate coefficients corresponding to the first type of dense point cloud data of the first reference face among the dense point cloud data; determining an intermediate coefficient corresponding to a second type of dense point cloud data among the dense point cloud data of the first reference face as a second fitting coefficient; the second type of dense point cloud data is dense point cloud data excluding the first type of dense point cloud data from the dense point cloud data of the first reference face; A fitting coefficient of the dense point cloud data of the first reference face of each group is obtained based on the first fitting coefficient and the second fitting coefficient.

한 가지 선택적인 실시형태에서, 상기 장치는, 상기 참조 이미지 내의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 조정하여 상기 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식; 또는, 상기 참조 이미지 내의 제1 참조 안면에 기반하여 상기 기설정된 스타일을 구비한 제2 참조 안면을 포함하는 가상 안면 이미지를 생성하고; 미리 트레이닝된 신경망을 이용하여 상기 가상 안면 이미지 내의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성하는 방식을 통해 기설정된 스타일을 구비한 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터를 획득하는 조정 모듈(60)을 더 포함한다.In one optional embodiment, the device further comprises: adjusting dense point cloud data of a first reference face in the reference image to obtain dense point cloud data of a second reference face having the preset style; or, generating a virtual face image including a second reference face having the preset style based on a first reference face in the reference image; An adjustment module for obtaining dense point cloud data of the second reference face having a preset style through a method of generating dense point cloud data of the second reference face in the virtual face image using a pre-trained neural network ( 60) is further included.

한 가지 선택적인 실시형태에서, 상기 장치는, 상기 신경망을 트레이닝 할 경우, 샘플 이미지 집합을 획득하되; 상기 샘플 이미지 집합은 제1 샘플 안면이 포함된 복수 장의 제1 샘플 이미지를 포함하고; 상기 복수 장의 제1 샘플 이미지는 복수의 제1 샘플 이미지 서브셋으로 구획되며, 각각의 제1 샘플 이미지 서브셋에는 복수의 기설정된 수집 각도로부터 각각 수집하여 얻은 같은 종류의 표정을 구비한 제1 샘플 안면의 이미지가 포함되고; 상기 샘플 이미지 집합 중의 제1 샘플 이미지의 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하며; 초기 신경망으로 상기 샘플 이미지 집합 중의 제1 샘플 이미지에 대해 특징 학습을 수행하여 상기 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻고; 상기 제1 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 트레이닝 모듈(70)을 더 포함한다.In one optional embodiment, when training the neural network, the device acquires a set of sample images; the sample image set includes a plurality of first sample images including a first sample face; The plurality of first sample images are partitioned into a plurality of subsets of first sample images, and in each subset of first sample images, first sample facial expressions having the same type of expression obtained by collecting each from a plurality of predetermined collection angles are included. images are included; acquire dense point cloud data of a first sample face of a first sample image in the sample image set; perform feature learning on a first sample image in the sample image set with an initial neural network to obtain predicted density point cloud data of a first sample face of the first sample image; The method further includes a training module 70 configured to train the neural network using the dense point cloud data of the first sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 샘플 이미지 집합은 제2 샘플 안면과 백그라운드를 포함하는 복수 장의 제2 샘플 이미지를 더 포함하고, 상기 트레이닝 모듈(70)은 또한, 각각의 상기 제2 샘플 이미지의 안면 키포인트 데이터를 획득하고; 제2 샘플 이미지의 안면 키포인트 데이터 및 상기 제2 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 피팅하여 생성하며; 상기 신경망으로 상기 샘플 이미지 집합 중의 제2 샘플 이미지에 대해 특징 학습을 수행하여 상기 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻고; 상기 제2 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝한다.In one optional embodiment, the sample image set further includes a plurality of second sample images including a second sample face and a background, and the training module 70 further includes each of the second sample images. acquire facial keypoint data; fitting and generating dense point cloud data of a second sample face of the second sample image using the facial keypoint data of the second sample image and the second sample image; perform feature learning on a second sample image in the sample image set with the neural network to obtain predicted density point cloud data of a second sample face of the second sample image; The neural network is trained using the dense point cloud data of the second sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 샘플 이미지 집합에는 제3 샘플 이미지가 더 포함되고; 상기 제3 샘플 이미지는 상기 제1 샘플 이미지에 대해 데이터 증강 처리를 수행하여 얻은 것이며; In one optional embodiment, the set of sample images further includes a third sample image; the third sample image is obtained by performing data augmentation processing on the first sample image;

상기 트레이닝 모듈(70)은 또한, 상기 제3 샘플 이미지의 제3 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하고; 상기 초기 신경망으로 제3 샘플 이미지에 대해 특징 학습을 수행하여 상기 제3 샘플 이미지의 제3 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻으며; The training module 70 also acquires dense point cloud data of a third sample face of the third sample image; perform feature learning on a third sample image with the initial neural network to obtain predicted dense point cloud data of a third sample face of the third sample image;

상기 제3 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝한다.The neural network is trained using the dense point cloud data of the third sample face and the predicted dense point cloud data.

한 가지 선택적인 실시형태에서, 상기 데이터 증강 처리는 랜덤 오클루전 처리, 가우스 노이즈 처리, 모션 블러 처리 및 색상 영역 채널 변경 처리 중 적어도 하나를 포함한다.In one optional embodiment, the data augmentation process includes at least one of random occlusion process, Gaussian noise process, motion blur process and color gamut channel change process.

장치 중의 각 모듈의 처리 과정 및 각 모듈 사이의 인터랙션 과정의 설명은 상기 방법 실시예의 관련 설명을 참조할 수 있는 바, 여기서 더 이상 설명하지 않는다.For the description of the processing process of each module in the device and the interaction process between each module, reference may be made to the relevant description in the foregoing method embodiment, which is not described further herein.

도 11에 도시된 바와 같이, 본 발명의 실시예는 프로세서(11) 및 메모리(12)를 포함하는 컴퓨터 기기를 더 제공하는 바; 프로세서(11)는 메모리(12)에 저장된 기계 판독 가능 명령을 실행하고, 상기 기계 판독 가능 명령이 프로세서(11)에 의해 실행될 경우, 프로세서(11)는,As shown in FIG. 11 , an embodiment of the present invention further provides a computer device including a processor 11 and a memory 12; The processor 11 executes machine-readable instructions stored in the memory 12, and when the machine-readable instructions are executed by the processor 11, the processor 11:

타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계; 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 단계; 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하되; 제2 참조 안면은 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것인 단계; 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 타깃 이미지의 원본 안면에 대응하는 타깃 안면 모델을 생성하는 단계를 수행한다.obtaining dense point cloud data of an original face included in a target image; Fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images to obtain a fitting coefficient corresponding to each of the dense point cloud data of the first reference face of the plurality of groups step; determining dense point cloud data of a target facial model based on dense point cloud data of a second reference face having a preset style and fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face; the second reference face is generated based on the first reference face in the reference image; A step of generating a target face model corresponding to the original face of the target image based on the dense point cloud data of the target face model is performed.

상기 메모리(12)는 내부 메모리(121)와 외부 메모리(122)를 포함하고; 여기의 내부 메모리(121)는 내부 기억 장치라고도 칭하는 바, 프로세서(11) 중의 연산 데이터 및 하드웨어 등 외부 메모리(122)와 교환하는 데이터를 임시로 저장하기 위한 것이며, 프로세서(11)는 내부 메모리(121)를 통해 외부 메모리(122)와 데이터를 교환한다.The memory 12 includes an internal memory 121 and an external memory 122; The internal memory 121 herein is also referred to as an internal storage device, and is for temporarily storing data exchanged with the external memory 122, such as operation data and hardware in the processor 11, and the processor 11 has an internal memory ( 121) to exchange data with the external memory 122.

상기 명령의 구체적인 실행 과정은 본 발명의 실시예에 따른 안면 재구성 방법의 단계를 참조할 수 있는 바, 여기서 더 이상 설명하지 않는다.A specific execution process of the command may refer to steps of a facial reconstruction method according to an embodiment of the present invention, and is not described herein any further.

본 발명의 실시예는 컴퓨터 판독 가능 저장 매체를 더 제공하는 바, 상기 컴퓨터 판독 가능 저장 매체에는 컴퓨터 프로그램이 저장되며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 상기 방법 실시예에 따른 안면 재구성 방법의 단계를 수행한다. 여기서, 상기 저장 매체는 휘발성 또는 비휘발성 컴퓨터 판독 가능 저장 매체 일 수 있다.An embodiment of the present invention further provides a computer-readable storage medium, wherein a computer program is stored in the computer-readable storage medium, and when the computer program is executed by a processor, the facial reconstruction method according to the method embodiment do the steps Here, the storage medium may be a volatile or non-volatile computer readable storage medium.

본 발명의 실시예는 컴퓨터 프로그램 제품을 더 제공하는 바, 상기 컴퓨터 프로그램 제품에는 프로그램 코드가 탑재되고, 상기 프로그램 코드에 포함된 명령은 상기 방법 실시예에 따른 안면 재구성 방법의 단계를 수행할 수 있으며, 구체적인 내용은 상기 방법 실시예를 참조할 수 있는 바, 여기서 더 이상 설명하지 않는다.Embodiments of the present invention further provide a computer program product, wherein the computer program product is loaded with program code, and instructions included in the program code can perform steps of the facial reconstruction method according to the method embodiment; , Specific details may refer to the foregoing method embodiments, which are not described herein any further.

여기서, 당해 컴퓨터 프로그램 제품은 구체적으로, 하드웨어, 소프트웨어 또는 이들의 결합 방식으로 실현될 수 있다. 가능한 일 실시예에서, 상기 컴퓨터 프로그램 제품은 구체적으로 컴퓨터 저장 매체로 구현될 수 있고, 다른 가능한 일 실시예에서, 컴퓨터 프로그램 제품은 구체적으로 소프트웨어 제품, 예를 들어, 소프트웨어 개발 키트(Software Development Kit, SDK) 등으로 구현될 수 있다.Here, the computer program product in question may be implemented in hardware, software, or a combination thereof. In one possible embodiment, the computer program product may be specifically embodied in a computer storage medium, and in another possible embodiment, the computer program product may be specifically a software product, for example, a software development kit (Software Development Kit, SDK) and the like.

본 기술분야의 기술자들은 설명의 편리와 간략화를 위해, 상기 시스템 및 장치의 구체적인 작업 과정은 상기 방법 실시예의 대응 과정을 참조할 수 있음을 명확하게 이해할 수 있으므로 여기서 더 이상 설명하지 않는다. 본 출원에서 제공하는 몇 개의 실시예에서, 상기 공개된 장치와 방법은 또한 기타 방식을 통하여 구현될 수 있음을 이해할 것이다. 예를 들면, 상기 장치 실시예는 단지 예시적인 것으로서, 예를 들면 상기 유닛의 분할은 단지 논리적인 분할이고, 실제 구현 시 다른 분할 방식이 있을 수 있는 바, 예를 들면 복수의 유닛 또는 모듈은 결합되거나 다른 시스템에 집적될 수 있거나, 일부 특징은 무시되거나 또는 실행되지 않을 수 있다. 그리고 상기 표시되거나 토론된 상호간의 커플링 또는 직접 커플링 또는 통신 연결은 일부 통신 인터페이스, 장치 또는 유닛을 통하여 직접적인 커플링, 간접적인 커플링 또는 통신 연결될 수 있는 바, 전기적, 기계적 또는 기타 형식일 수 있다.Those skilled in the art can clearly understand that for convenience and simplification of description, the specific working processes of the system and device may refer to the corresponding processes of the method embodiments, so they are not described herein. In some embodiments provided in this application, it will be understood that the disclosed devices and methods may also be implemented in other ways. For example, the device embodiment is merely illustrative, for example, the division of the unit is only a logical division, and there may be other division methods in actual implementation, for example, a plurality of units or modules may be combined. or may be integrated into other systems, or some features may be ignored or not implemented. and the mutual coupling or direct coupling or communication connection indicated or discussed above may be direct coupling, indirect coupling or communication connection through some communication interface, device or unit, which may be electrical, mechanical or otherwise. there is.

상기 분리된 부품으로 설명된 유닛은 물리적으로 분리되거나 분리되지 않은 것일 수 있고, 유닛으로 표시된 부품은 물리적인 유닛이거나 아닐 수 있으며, 한 곳에 위치하거나 또는 다수의 네트워크 유닛 상에 분포될 수 있다. 실제 수요에 따라 그 중의 일부 또는 전부 유닛을 선택하여 본 출원의 실시예 방안의 목적을 구현할 수 있다.A unit described as a separate component may or may not be physically separate, and a component referred to as a unit may or may not be a physical unit, and may be located in one place or distributed over multiple network units. According to actual needs, some or all units may be selected to realize the purpose of the solutions in the embodiments of the present application.

이 밖에, 본 발명의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 집적될 수도 있고 각 유닛이 단독으로 존재할 수도 있으며, 또 둘 또는 둘 이상의 유닛이 하나의 유닛에 집적될 수도 있다.In addition, each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit may exist alone, or two or more units may be integrated into one unit.

상기 집적된 유닛이 만약 소프트웨어 기능 유닛의 형식으로 구현되고 별도의 제품으로 판매되거나 사용될 경우, 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 발명의 기술적 해결수단은 본질적으로 또는 선행기술에 기여하는 부분 또는 상기 기술적 해결수단의 전체 또는 일부는 소프트웨어 제품의 형식으로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 약간의 명령을 포함하여 하나의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음)가 본 발명의 각 실시예에 따른 방법의 전체 또는 일부 단계를 수행하도록 할 수 있다. 전술한 저장 매체는 USB 메모리, 외장 하드, 판독 전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 디스켓 또는 CD 등 프로그램 코드를 저장할 수 있는 여러 가지 매체를 포함한다.If the integrated unit is implemented in the form of a software functional unit and sold or used as a separate product, it may be stored in a computer readable storage medium. Based on this understanding, the technical solution of the present invention is essentially or a part contributing to the prior art, or all or part of the technical solution may be implemented in the form of a software product, and the computer software product is a storage unit. It is stored in a medium, and includes some instructions so that one computer device (which may be a personal computer, server, network device, etc.) performs all or part of the steps of the method according to each embodiment of the present invention. The aforementioned storage medium includes various media capable of storing program codes such as USB memory, external hard drive, read-only memory (ROM), random access memory (RAM), diskette or CD. .

마지막으로 설명하여야 할 바로는, 상기 실시예는 본 출원의 기술적 방안을 설명하는 데에 사용되며, 이에 대해 한정하는 것이 아니며, 상기 각 실시예를 참조하여 본 출원에 대해 상세하게 설명하였지만, 본 기술분야의 통상의 지식을 가진 자라면 이하의 청구범위에 기재된 본 출원의 기술적 방안의 범위를 벗어나지 않는 전제하에, 상기 각 실시예에 기재된 기술적 방안을 수정하거나 또는 그 중 일부 또는 전부 기술적 특징에 대해 등가교체를 실시할 수 있지만; 이러한 수정, 변경 또는 대체는 상응한 기술적 해결수단의 본질이 본 발명의 실시예의 기술적 해결수단의 사상 및 범위를 벗어나지 않도록 하고, 모두 본 발명의 보호범위에 포함되어야 하는 것을 이해해야 한다. 따라서, 본 발명의 보호범위는 상기 특허청구범위의 보호범위를 기준으로 하여야 한다.Finally, as should be explained, the above embodiments are used to describe the technical solutions of the present application, but are not limited thereto, and the present application has been described in detail with reference to each of the above embodiments, but the present technology Those skilled in the art may modify the technical solutions described in each of the above embodiments, or make equivalents to some or all of the technical features thereof, on the premise that they do not depart from the scope of the technical solutions of the present application described in the claims below. Replacement may be carried out; It should be understood that such modifications, changes or replacements do not deviate from the spirit and scope of the technical solutions in the embodiments of the present invention, and should all be included in the protection scope of the present invention. Therefore, the protection scope of the present invention should be based on the protection scope of the claims.

Claims (15)

안면 재구성 방법으로서,
타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계;
복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 단계;
기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하는 단계 - 상기 복수 그룹의 제2 참조 안면은 각각 상기 복수 장의 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것임 -;
상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 상기 타깃 이미지의 상기 원본 안면에 대응하는 타깃 안면 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 안면 재구성 방법.
As a facial reconstruction method,
obtaining dense point cloud data of an original face included in a target image;
Fitting coefficients corresponding to each of the dense point cloud data of the first reference face of a plurality of groups by fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images obtaining;
Determining dense point cloud data of a target face model based on dense point cloud data of a plurality of groups of second reference faces having a preset style and fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face the step of: the second reference faces of the plurality of groups are each generated based on the first reference faces in the plurality of reference images;
and generating a target facial model corresponding to the original face of the target image based on dense point cloud data of the target facial model.
제1항에 있어서,
기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하는 단계는,
복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 평균값 데이터를 생성하는 단계;
복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 안면 재구성 방법.
According to claim 1,
Determining dense point cloud data of a target face model based on dense point cloud data of a plurality of groups of second reference faces having a preset style and fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face The steps are,
generating average value data of multiple groups of dense point cloud data of the second reference face based on multiple groups of dense point cloud data of the second reference face;
Based on the dense point cloud data of the second reference face of the plurality of groups, the average value data, and the fitting coefficient corresponding to each of the plurality of groups of the dense point cloud data of the first reference face of the plurality of groups, the dense point cloud data of the target face model A facial reconstruction method comprising the step of generating.
제2항에 있어서,
복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터, 상기 평균값 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 단계는,
복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 중 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 상기 평균값 데이터에 기반하여 각 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터의 차이값 데이터를 결정하는 단계;
복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 복수 그룹의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 차이값 데이터에 대해 보간 처리를 수행하는 단계;
상기 보간 처리의 결과 및 상기 평균값 데이터에 기반하여 상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 안면 재구성 방법.
According to claim 2,
Based on the dense point cloud data of the second reference face of the plurality of groups, the average value data, and the fitting coefficient corresponding to each of the plurality of groups of the dense point cloud data of the first reference face of the plurality of groups, the dense point cloud data of the target face model Steps to create are:
A difference value between the dense point cloud data of the second reference face of each group among the dense point cloud data of the second reference face of a plurality of groups and the dense point cloud data of the second reference face of each group based on the average value data determining data;
Performing interpolation on difference value data corresponding to each of the plurality of groups of dense point cloud data of the second reference face based on fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face. ;
and generating dense point cloud data of the target facial model based on a result of the interpolation process and the average value data.
제1항 내지 제3항 중 어느 한 항에 있어서,
타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계는,
상기 원본 안면을 포함하는 상기 타깃 이미지를 획득하는 단계;
미리 트레이닝된 신경망을 이용하여 상기 타깃 이미지를 처리하여 상기 타깃 이미지 내의 상기 원본 안면의 덴스 포인트 클라우드 데이터를 얻는 단계를 포함하는 것을 특징으로 하는 안면 재구성 방법.
According to any one of claims 1 to 3,
The step of obtaining dense point cloud data of the original face included in the target image,
obtaining the target image including the original face;
and processing the target image using a pre-trained neural network to obtain dense point cloud data of the original face in the target image.
제1항 내지 제4항 중 어느 한 항에 있어서,
상기 복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터는,
제1 참조 안면을 포함하는 복수 장의 참조 이미지를 획득하는 방식;
복수 장의 상기 참조 이미지 내의 각각의 상기 참조 이미지에 대하여, 미리 트레이닝된 신경망을 이용하여 각각의 상기 참조 이미지를 처리하여 각각의 상기 참조 이미지 내의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식을 통해 획득되는 것을 특징으로 하는 안면 재구성 방법.
According to any one of claims 1 to 4,
Dense point cloud data of a first reference face corresponding to each of the plurality of reference images,
a method of acquiring a plurality of reference images including a first reference face;
For each of the reference images in the plurality of reference images, a method of obtaining dense point cloud data of the first reference face in each of the reference images by processing each of the reference images using a pre-trained neural network. A facial reconstruction method, characterized in that obtained.
제1항 내지 제5항 중 어느 한 항에 있어서,
복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 단계는,
상기 원본 안면의 덴스 포인트 클라우드 데이터 및 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대해 최소 제곱 처리를 수행하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 중간 계수를 얻는 단계;
각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정하는 단계를 포함하는 것을 특징으로 하는 안면 재구성 방법.
According to any one of claims 1 to 5,
Fitting coefficients corresponding to each of the dense point cloud data of the first reference face of a plurality of groups by fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images The steps to get
obtaining an intermediate coefficient corresponding to each of a plurality of groups of dense point cloud data of the first reference face by performing least square processing on the dense point cloud data of the original face and the dense point cloud data of the first reference face;
Determining a fitting coefficient corresponding to the dense point cloud data of the first reference face of each group based on the intermediate coefficient corresponding to the dense point cloud data of the first reference face of each group. reconstruction method.
제6항에 있어서,
각 그룹의 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에 대응하는 피팅 계수를 결정하는 단계는,
각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 참조 안면 중 타깃 안면 모델의 부위에 대응하는 제1 유형의 덴스 포인트 클라우드 데이터를 결정하는 단계;
상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 상기 제1 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 조정하여 제1 피팅 계수를 얻는 단계;
상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 중 제2 유형의 덴스 포인트 클라우드 데이터에 대응하는 중간 계수를 제2 피팅 계수로 결정하는 단계 - 상기 제2 유형의 덴스 포인트 클라우드 데이터는 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터에서 상기 제1 유형의 덴스 포인트 클라우드 데이터를 제외한 덴스 포인트 클라우드 데이터임 -;
상기 제1 피팅 계수 및 상기 제2 피팅 계수에 기반하여 각 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터의 피팅 계수를 얻는 단계를 포함하는 것을 특징으로 하는 안면 재구성 방법.
According to claim 6,
Determining fitting coefficients corresponding to the dense point cloud data of the first reference face of each group based on the intermediate coefficients corresponding to the dense point cloud data of the first reference face of each group,
determining a first type of dense point cloud data corresponding to a part of a target facial model among the first reference faces from the dense point cloud data of the first reference faces of each group;
obtaining first fitting coefficients by adjusting intermediate coefficients corresponding to the first type of dense point cloud data among the dense point cloud data of the first reference face;
Determining an intermediate coefficient corresponding to a second type of dense point cloud data of the first reference face among the dense point cloud data of the first reference face as a second fitting coefficient - the second type of dense point cloud data of the first reference face Dense point cloud data excluding the first type of dense point cloud data from the dense point cloud data -;
and obtaining a fitting coefficient of dense point cloud data of the first reference face of each group based on the first fitting coefficient and the second fitting coefficient.
제1항 내지 제7항 중 어느 한 항에 있어서,
기설정된 스타일을 구비한 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터는,
상기 참조 이미지 내의 제1 참조 안면의 덴스 포인트 클라우드 데이터를 조정하여 상기 기설정된 스타일을 구비한 제2 참조 안면의 덴스 포인트 클라우드 데이터를 얻는 방식; 또는,
상기 참조 이미지 내의 제1 참조 안면에 기반하여 상기 기설정된 스타일을 구비한 제2 참조 안면을 포함하는 가상 안면 이미지를 생성하고; 미리 트레이닝된 신경망을 이용하여 상기 가상 안면 이미지 내의 상기 제2 참조 안면의 덴스 포인트 클라우드 데이터를 생성하는 방식을 통해 획득되는 것을 특징으로 하는 안면 재구성 방법.
According to any one of claims 1 to 7,
Dense point cloud data of the second reference face having a preset style,
a method of obtaining dense point cloud data of a second reference face having the preset style by adjusting dense point cloud data of a first reference face in the reference image; or,
generating a virtual face image including a second reference face having the preset style based on a first reference face in the reference image; The face reconstruction method, characterized in that obtained through a method of generating dense point cloud data of the second reference face in the virtual face image using a pre-trained neural network.
제4항, 제5항 및 제8항 중 어느 한 항에 있어서,
상기 신경망을 트레이닝하는 단계는,
샘플 이미지 집합을 획득하는 단계 - 상기 샘플 이미지 집합은 제1 샘플 안면이 포함된 복수 장의 제1 샘플 이미지를 포함하고; 상기 복수 장의 제1 샘플 이미지는 복수의 제1 샘플 이미지 서브셋으로 구획되며, 각각의 제1 샘플 이미지 서브셋에는 복수의 기설정된 수집 각도로부터 각각 수집하여 얻은 같은 종류의 표정을 구비한 제1 샘플 안면의 이미지가 포함됨 -;
상기 샘플 이미지 집합 중의 제1 샘플 이미지의 제1 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계;
상기 신경망으로 상기 샘플 이미지 집합 중의 제1 샘플 이미지에 대해 특징 학습을 수행하여 상기 제1 샘플 이미지의 제1 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계;
상기 제1 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 단계를 포함하는 것을 특징으로 하는 안면 재구성 방법.
The method of any one of claims 4, 5 and 8,
Training the neural network,
obtaining a sample image set, wherein the sample image set includes a plurality of first sample images including a first sample face; The plurality of first sample images are partitioned into a plurality of subsets of first sample images, and in each subset of first sample images, first sample facial expressions having the same type of expression obtained by collecting each from a plurality of predetermined collection angles are included. image included -;
obtaining dense point cloud data of a first sample face of a first sample image in the sample image set;
obtaining predicted density point cloud data of a first sample face of the first sample image by performing feature learning on a first sample image in the sample image set with the neural network;
and training the neural network using the dense point cloud data of the first sample face and the predicted dense point cloud data.
제9항에 있어서,
상기 샘플 이미지 집합은 제2 샘플 안면과 백그라운드를 포함하는 복수 장의 제2 샘플 이미지를 더 포함하고, 상기 신경망을 트레이닝하는 단계는,
각각의 상기 제2 샘플 이미지의 안면 키포인트 데이터를 획득하는 단계;
상기 제2 샘플 이미지의 안면 키포인트 데이터 및 상기 제2 샘플 이미지를 이용하여 상기 제2 샘플 이미지의 제2 샘플 안면의 덴스 포인트 클라우드 데이터를 피팅하여 생성하는 단계;
상기 신경망으로 상기 샘플 이미지 집합 중의 제2 샘플 이미지에 대해 특징 학습을 수행하여 상기 제2 샘플 이미지의 제2 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계;
상기 제2 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 단계를 더 포함하는 것을 특징으로 하는 안면 재구성 방법.
According to claim 9,
The sample image set further includes a plurality of second sample images including a second sample face and a background, and the training of the neural network comprises:
acquiring facial keypoint data of each of the second sample images;
fitting and generating dense point cloud data of a second sample face of the second sample image using facial keypoint data of the second sample image and the second sample image;
obtaining predicted density point cloud data of a second sample face of the second sample image by performing feature learning on a second sample image in the sample image set with the neural network;
The face reconstruction method of claim 1, further comprising training the neural network using the dense point cloud data of the second sample face and the predicted dense point cloud data.
제9항 또는 제10항에 있어서,
상기 샘플 이미지 집합에는 제3 샘플 이미지가 더 포함되고; 상기 제3 샘플 이미지는 상기 제1 샘플 이미지에 대해 데이터 증강 처리를 수행하여 얻은 것이며; 상기 신경망을 트레이닝하는 단계는,
상기 제3 샘플 이미지의 제3 샘플 안면의 덴스 포인트 클라우드 데이터를 획득하는 단계;
상기 신경망으로 상기 제3 샘플 이미지에 대해 특징 학습을 수행하여 상기 제3 샘플 이미지의 제3 샘플 안면의 예측 덴스 포인트 클라우드 데이터를 얻는 단계;
상기 제3 샘플 안면의 덴스 포인트 클라우드 데이터와 예측 덴스 포인트 클라우드 데이터를 이용하여 상기 신경망을 트레이닝하는 단계를 더 포함하는 것을 특징으로 하는 안면 재구성 방법.
The method of claim 9 or 10,
the sample image set further includes a third sample image; the third sample image is obtained by performing data augmentation processing on the first sample image; Training the neural network,
obtaining dense point cloud data of a third sample face of the third sample image;
obtaining predicted density point cloud data of a third sample face of the third sample image by performing feature learning on the third sample image with the neural network;
The facial reconstruction method of claim 1 , further comprising training the neural network using the dense point cloud data of the third sample face and the predicted dense point cloud data.
제11항에 있어서,
상기 데이터 증강 처리는 랜덤 오클루전 처리, 가우스 노이즈 처리, 모션 블러 처리 및 색상 영역 채널 변경 처리 중 적어도 하나를 포함하는 것을 특징으로 하는 안면 재구성 방법.
According to claim 11,
The face reconstruction method, characterized in that the data augmentation process includes at least one of random occlusion process, Gaussian noise process, motion blur process, and color gamut channel change process.
안면 재구성 장치로서,
타깃 이미지에 포함된 원본 안면의 덴스 포인트 클라우드 데이터를 획득하는 제1 획득 모듈;
복수 장의 참조 이미지 각각에 대응하는 제1 참조 안면의 덴스 포인트 클라우드 데이터를 이용하여 상기 원본 안면의 덴스 포인트 클라우드 데이터를 피팅하여 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수를 얻는 제1 처리 모듈;
기설정된 스타일을 가지는 복수 그룹의 제2 참조 안면의 덴스 포인트 클라우드 데이터 및 복수 그룹의 상기 제1 참조 안면의 덴스 포인트 클라우드 데이터 각각에 대응하는 피팅 계수에 기반하여 타깃 안면 모델의 덴스 포인트 클라우드 데이터를 결정하되; 상기 복수 그룹의 제2 참조 안면은 각각 상기 복수 장의 참조 이미지 내의 제1 참조 안면에 기반하여 생성된 것인 결정 모듈;
상기 타깃 안면 모델의 덴스 포인트 클라우드 데이터에 기반하여 상기 타깃 이미지의 상기 원본 안면에 대응하는 타깃 안면 모델을 생성하는 생성 모듈을 포함하는 것을 특징으로 하는 안면 재구성 장치.
As a facial reconstruction device,
a first acquiring module for obtaining dense point cloud data of an original face included in a target image;
Fitting coefficients corresponding to each of the dense point cloud data of the first reference face of a plurality of groups by fitting the dense point cloud data of the original face using the dense point cloud data of the first reference face corresponding to each of the plurality of reference images A first processing module to obtain;
Determining dense point cloud data of a target face model based on dense point cloud data of a plurality of groups of second reference faces having a preset style and fitting coefficients corresponding to each of the plurality of groups of dense point cloud data of the first reference face but; a determination module, wherein each of the plurality of groups of second reference faces is generated based on a first reference face in the plurality of reference images;
and a generation module for generating a target facial model corresponding to the original face of the target image based on dense point cloud data of the target facial model.
프로세서 및 메모리를 포함하는 컴퓨터 기기로서,
상기 메모리에는 상기 프로세서가 실행할 수 있는 기계 판독 가능 명령이 저장되고, 상기 프로세서는 상기 메모리에 저장된 기계 판독 가능 명령을 실행하며, 상기 기계 판독 가능 명령이 상기 프로세서에 의해 실행될 경우, 상기 프로세서는 제1항 내지 제12항 중 어느 한 항에 따른 안면 재구성 방법의 단계를 수행하는 것을 특징으로 하는 컴퓨터 기기.
A computer device comprising a processor and memory,
Machine-readable instructions executable by the processor are stored in the memory, the processor executes the machine-readable instructions stored in the memory, and when the machine-readable instructions are executed by the processor, the processor performs a first A computer device for performing the steps of the facial reconstruction method according to any one of claims 1 to 12.
컴퓨터 프로그램이 저장되는 컴퓨터 판독 가능 저장 매체로서,
상기 컴퓨터 프로그램이 컴퓨터 기기에 의해 실행될 경우, 상기 컴퓨터 기기는 제1항 내지 제12항 중 어느 한 항에 따른 안면 재구성 방법의 단계를 수행하는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
A computer-readable storage medium in which a computer program is stored,
When the computer program is executed by a computer device, the computer device performs the steps of the facial reconstruction method according to any one of claims 1 to 12. A computer-readable storage medium.
KR1020237018454A 2020-11-25 2021-07-27 Facial reconstruction methods, devices, computer devices and storage media KR20230098313A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011337942.0 2020-11-25
CN202011337942.0A CN112396692B (en) 2020-11-25 2020-11-25 Face reconstruction method, device, computer equipment and storage medium
PCT/CN2021/108629 WO2022110855A1 (en) 2020-11-25 2021-07-27 Face reconstruction method and apparatus, computer device, and storage medium

Publications (1)

Publication Number Publication Date
KR20230098313A true KR20230098313A (en) 2023-07-03

Family

ID=74607056

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237018454A KR20230098313A (en) 2020-11-25 2021-07-27 Facial reconstruction methods, devices, computer devices and storage media

Country Status (5)

Country Link
JP (1) JP2023551247A (en)
KR (1) KR20230098313A (en)
CN (1) CN112396692B (en)
TW (1) TW202221645A (en)
WO (1) WO2022110855A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112396692B (en) * 2020-11-25 2023-11-28 北京市商汤科技开发有限公司 Face reconstruction method, device, computer equipment and storage medium
CN113343773B (en) * 2021-05-12 2022-11-08 上海大学 Facial expression recognition system based on shallow convolutional neural network

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257324A (en) * 2006-03-23 2007-10-04 Space Vision:Kk Face model creating system
US9508197B2 (en) * 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
CN109087340A (en) * 2018-06-04 2018-12-25 成都通甲优博科技有限责任公司 A kind of face three-dimensional rebuilding method and system comprising dimensional information
CN109285112A (en) * 2018-09-25 2019-01-29 京东方科技集团股份有限公司 Image processing method neural network based, image processing apparatus
CN109376698B (en) * 2018-11-29 2022-02-01 北京市商汤科技开发有限公司 Face modeling method and device, electronic equipment, storage medium and product
CN109636886B (en) * 2018-12-19 2020-05-12 网易(杭州)网络有限公司 Image processing method and device, storage medium and electronic device
CN110706339B (en) * 2019-09-30 2022-12-06 北京市商汤科技开发有限公司 Three-dimensional face reconstruction method and device, electronic equipment and storage medium
CN110717977B (en) * 2019-10-23 2023-09-26 网易(杭州)网络有限公司 Method, device, computer equipment and storage medium for processing game character face
CN111402399B (en) * 2020-03-10 2024-03-05 广州虎牙科技有限公司 Face driving and live broadcasting method and device, electronic equipment and storage medium
CN111695471B (en) * 2020-06-02 2023-06-27 北京百度网讯科技有限公司 Avatar generation method, apparatus, device and storage medium
CN111784821B (en) * 2020-06-30 2023-03-14 北京市商汤科技开发有限公司 Three-dimensional model generation method and device, computer equipment and storage medium
CN112396692B (en) * 2020-11-25 2023-11-28 北京市商汤科技开发有限公司 Face reconstruction method, device, computer equipment and storage medium
CN112396693A (en) * 2020-11-25 2021-02-23 上海商汤智能科技有限公司 Face information processing method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
TW202221645A (en) 2022-06-01
CN112396692B (en) 2023-11-28
WO2022110855A1 (en) 2022-06-02
JP2023551247A (en) 2023-12-07
CN112396692A (en) 2021-02-23

Similar Documents

Publication Publication Date Title
CN109961507B (en) Face image generation method, device, equipment and storage medium
CN108960020A (en) Information processing method and information processing equipment
CN111464834B (en) Video frame processing method and device, computing equipment and storage medium
CN112419454B (en) Face reconstruction method, device, computer equipment and storage medium
KR20230098313A (en) Facial reconstruction methods, devices, computer devices and storage media
CN114339409B (en) Video processing method, device, computer equipment and storage medium
CN111127309B (en) Portrait style migration model training method, portrait style migration method and device
CN109859857A (en) Mask method, device and the computer readable storage medium of identity information
KR20220083830A (en) Image processing method and image synthesis method, image processing apparatus and image synthesis apparatus, and storage medium
CN111815768B (en) Three-dimensional face reconstruction method and device
JP2023507862A (en) Face reconstruction method, apparatus, computer device, and storage medium
CN113095206A (en) Virtual anchor generation method and device and terminal equipment
CN114202615A (en) Facial expression reconstruction method, device, equipment and storage medium
CN115984447A (en) Image rendering method, device, equipment and medium
CN117218246A (en) Training method and device for image generation model, electronic equipment and storage medium
CN115100707A (en) Model training method, video information generation method, device and storage medium
CN114266693A (en) Image processing method, model generation method and equipment
CN116363320B (en) Training of reconstruction model and three-dimensional model reconstruction method, device, equipment and medium
WO2024055379A1 (en) Video processing method and system based on character avatar model, and related device
CN111651623B (en) Method, device, equipment and storage medium for constructing high-precision facial expression library
CN115243025B (en) Three-dimensional rendering method and device, terminal equipment and storage medium
CN117788656B (en) Video generation method, device and equipment
RU2782543C1 (en) Method and device for sight line detection, method and device for video data processing, device and data carrier
US20240161376A1 (en) Avatar control
CN117808940A (en) Image generation method and device, storage medium and terminal

Legal Events

Date Code Title Description
A201 Request for examination