JP7500768B2 - 顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム - Google Patents
顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7500768B2 JP7500768B2 JP2022565902A JP2022565902A JP7500768B2 JP 7500768 B2 JP7500768 B2 JP 7500768B2 JP 2022565902 A JP2022565902 A JP 2022565902A JP 2022565902 A JP2022565902 A JP 2022565902A JP 7500768 B2 JP7500768 B2 JP 7500768B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- facial
- features
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 title claims description 517
- 238000012545 processing Methods 0.000 title claims description 179
- 238000000034 method Methods 0.000 title claims description 84
- 238000012549 training Methods 0.000 title claims description 80
- 238000003672 processing method Methods 0.000 title claims description 38
- 238000004590 computer program Methods 0.000 title claims description 8
- 230000004927 fusion Effects 0.000 claims description 67
- 238000000605 extraction Methods 0.000 claims description 53
- 238000001514 detection method Methods 0.000 claims description 29
- 230000008921 facial expression Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 10
- 230000001131 transforming effect Effects 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000006073 displacement reaction Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本願は、2021年08月20日に中国特許局に提出された、出願番号が202110963370.5である中国特許出願の優先権を主張し、その内容の全てが引用により本願に組み込まれる。
ソース顔の顔画像及びテンプレート顔の顔テンプレート画像を取得するステップと、
前記顔画像及び前記顔テンプレート画像に対して三次元顔モデリングを行い、前記顔画像の三次元顔画像特徴及び前記顔テンプレート画像の三次元顔テンプレート画像特徴を得るステップと、
前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るステップと、
前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るステップと、
前記三次元融合特徴に基づいて前記初期顔置換特徴を変換して、目標顔置換特徴を得るステップと、
前記目標顔置換特徴に基づいて、前記顔テンプレート画像内のテンプレート顔を前記ソース顔に置換して、置換された顔画像を得るステップと、を含む。
ソース顔の顔画像及びテンプレート顔の顔テンプレート画像を取得するように構成される第1取得ユニットと、
前記顔画像及び前記顔テンプレート画像に対して三次元顔モデリングを行い、前記顔画像の三次元顔画像特徴及び前記顔テンプレート画像の三次元顔テンプレート画像特徴を得るように構成される三次元顔モデリングユニットと、
前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るように構成される第1融合ユニットと、
前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るように構成される特徴抽出ユニットと、
前記三次元融合特徴に基づいて前記初期顔置換特徴を変換して、目標顔置換特徴を得るように構成される変換ユニットと、
前記目標顔置換特徴に基づいて、前記顔テンプレート画像内のテンプレート顔を前記ソース顔に置換して、置換された顔画像を得るように構成される第1置換ユニットと、を備える。
訓練画像サンプルグループを取得するステップであって、前記訓練画像サンプルグループは、顔画像サンプル、顔テンプレート画像サンプル、及び顔参照画像サンプルを含む、ステップと、
顔画像処理モデルを利用して、前記顔テンプレート画像サンプル内のテンプレート顔を、前記顔画像サンプル内のソース顔に置換して、予測顔画像を得るステップと、
前記予測顔画像に対して三次元顔輪郭点検出を行い、前記予測顔画像の三次元顔輪郭点を得、前記顔参照画像サンプルに対して三次元顔輪郭点検出を行い、前記顔参照画像サンプルの三次元顔輪郭点を得るステップと、
前記予測顔画像の三次元顔輪郭点と前記顔参照画像サンプルの三次元顔輪郭点との差異を取得して、前記予測顔画像と前記顔参照画像サンプルとの間の顔輪郭損失を得るステップと、
前記顔輪郭損失に基づいて、前記顔画像処理モデルのモデルパラメータを更新するステップと、を含む。
訓練画像サンプルグループを取得するように構成される第2取得ユニットであって、前記訓練画像サンプルグループは、顔画像サンプル、顔テンプレート画像サンプル、及び顔参照画像サンプルを含む、第2取得ユニットと、
顔画像処理モデルを利用して、前記顔テンプレート画像サンプル内のテンプレート顔を、前記顔画像サンプル内のソース顔に置換して、予測顔画像を得るように構成される第2置換ユニットと、
前記予測顔画像に対して三次元顔輪郭点検出を行い、前記予測顔画像の三次元顔輪郭点を得、前記顔参照画像サンプルに対して三次元顔輪郭点検出を行い、前記顔参照画像サンプルの三次元顔輪郭点を得るように構成される三次元顔輪郭点検出ユニットと、
前記予測顔画像の三次元顔輪郭点と前記顔参照画像サンプルの三次元顔輪郭点との差異を取得して、前記予測顔画像と前記顔参照画像サンプルとの間の顔輪郭損失を得るように構成される計算ユニットと、
前記顔輪郭損失に基づいて、前記顔画像処理モデルのモデルパラメータを更新するように構成される調整ユニットと、を備える。
プロセッサで実行可能な命令を記憶するメモリと、
前記メモリに記憶された実行可能な命令が実行されるときに、本願の実施例によって提供される上記方法を実行するプロセッサと、を備える。
三次元顔画像特徴から、顔画像のソース顔アイデンティティ特徴を抽出するステップと、
三次元顔テンプレート画像特徴から、顔テンプレート画像のテンプレート顔画像特徴を抽出するステップと、
ソース顔アイデンティティ特徴とテンプレート顔画像特徴を融合して、三次元融合特徴を得るステップと、を含む。
顔テンプレート画像を符号化して、顔テンプレート画像の第1符号化特徴を得るステップと、
顔画像を符号化して、顔画像の第2符号化特徴を得るステップと、
第2符号化特徴に基づいて、第1符号化特徴を調整して、初期顔置換特徴を得るステップと、を含む。
三次元融合特徴に対して第1論理演算を行い、演算された三次元顔画像特徴を得、及び初期顔置換特徴に対して第2論理演算を行い、演算された顔置換特徴を得るステップと、
初期顔置換特徴及び演算された顔置換特徴に対して、第3論理演算を行い、演算された顔置換特徴を得るステップと、
演算された顔置換特徴及び演算された三次元顔画像特徴に対して第4論理演算を行い、目標顔置換特徴を得るステップと、を含む。
顔画像処理モデルを利用して、顔画像サンプル及び顔テンプレート画像サンプルに対して三次元顔モデリングを行い、顔画像サンプルの三次元顔画像サンプル特徴及び顔テンプレート画像サンプルの三次元顔テンプレート画像サンプル特徴を得るステップと、
顔画像処理モデルを利用して、三次元顔画像サンプル特徴と三次元顔テンプレート画像サンプル特徴を融合して、融合された三次元顔画像サンプル特徴を得るステップと、
顔画像処理モデルを利用して、顔テンプレート画像サンプルに基づいて、顔画像サンプルに対して顔置換特徴抽出を行い、初期顔置換サンプル特徴を得るステップと、
顔画像処理モデルを利用して、融合された三次元顔画像サンプル特徴に基づいて、初期顔置換サンプル特徴を変換して、目標顔置換サンプル特徴を得るステップと、
顔画像処理モデルを利用して、目標顔置換サンプル特徴及び顔画像サンプルの顔特徴に基づいて、顔テンプレート画像サンプル内のテンプレート顔を、顔画像サンプルのソース顔に置換して、予測顔画像を得るステップと、を含む。
ここで、result_3d_pointsは、三次元顔キーポイントであり得、result_3d_featureは、三次元予測顔画像特徴であり得、reconstruction_without_tex()は、投影関数であり得る。
三次元予測顔画像特徴から、予測顔画像の予測顔アイデンティティ特徴及び予測顔表情特徴を抽出するステップと、
所定の伝達パラメータを利用して、予測顔アイデンティティ特徴及び予測顔表情特徴に対して三次元キーポイント投影を行い、予測顔画像の三次元顔キーポイントを得るステップと、を含む。
顔画像サンプルと予測顔画像との間の顔特徴損失を計算し、第1損失と顔特徴損失を融合して、第2損失を得ることにより、第2損失に基づいて、顔画像処理モデルのモデルパラメータを更新することができる。
顔参照画像サンプルと予測顔画像との間の画素差異を計算して、画素損失を得るステップと、
顔参照画像サンプルと予測顔画像との間の特徴差異を計算して、特徴損失を得るステップと、
顔参照画像サンプルと予測顔画像との間の判別差異を計算して、判別損失を得るステップと、を含む。
顔参照画像サンプルと予測顔画像との間の二次元特徴差異を計算して、二次元特徴損失を得るステップと、
顔参照画像サンプルと予測顔画像との間の三次元特徴差異を計算して、三次元特徴損失を得るステップと、
二次元特徴損失と三次元特徴損失を融合して、特徴損失を得るステップと、を含む。
顔輪郭損失と第2損失を融合して、第3損失を得、
第3損失を利用してモデルパラメータを調整して、訓練された顔画像処理モデルを得る。
前記第1取得ユニット501は、ソース顔の顔画像及びテンプレート顔の顔テンプレート画像を取得するように構成され、
前記三次元顔モデリングユニット502は、前記顔画像及び前記顔テンプレート画像に対して三次元顔モデリングを行い、前記顔画像の三次元顔画像特徴及び前記顔テンプレート画像の三次元顔テンプレート画像特徴を得るように構成され、
前記第1融合ユニット503は、前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るように構成され、
前記特徴抽出ユニット504は、前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るように構成され、
前記変換ユニット505は、前記三次元融合特徴に基づいて前記初期顔置換特徴を変換して、目標顔置換特徴を得るように構成され、
前記第1置換ユニット506は、前記目標顔置換特徴に基づいて、前記顔テンプレート画像内のテンプレート顔を前記ソース顔に置換して、置換された顔画像を得るように構成される。
前記三次元顔画像特徴から、前記顔画像に対応するソース顔アイデンティティ特徴を抽出するように構成される第1抽出サブユニットと、
前記三次元顔テンプレート画像特徴から、前記顔テンプレート画像に対応するテンプレート顔画像特徴を抽出するように構成される第2抽出サブユニットと、
前記ソース顔アイデンティティ特徴と前記テンプレート顔画像特徴を融合して、前記三次元融合特徴を得るように構成される第1融合サブユニットと、を備える。
前記顔テンプレート画像に対して符号化処理を行い、前記顔テンプレート画像の第1符号化特徴を得るように構成される第1符号化サブユニットと、
前記顔画像に対して符号化処理を行い、前記顔画像の第2符号化特徴を得るように構成される第2符号化サブユニットと、
前記第2符号化特徴に基づいて、前記第1符号化特徴を調整して、前記初期顔置換特徴を得るように構成される第1調整サブユニットと、を備える。
前記三次元融合特徴に対して第1論理演算を行い、演算された三次元顔画像特徴を得、前記初期顔置換特徴に対して第2論理演算を行い、演算された顔置換特徴を得るように構成される第1統計サブユニットと、
前記初期顔置換特徴及び前記演算された顔置換特徴に対して第3論理演算を行い、演算された顔置換特徴を得るように構成される第2統計サブユニットと、
前記演算された顔置換特徴及び前記演算された三次元顔画像特徴に対して論理演算を行い、前記目標顔置換特徴を得るように構成される論理演算処理サブユニットと、を備える。
前記第2取得ユニット601は、訓練画像サンプルグループを取得するように構成され、前記訓練画像サンプルグループは、顔画像サンプル、顔テンプレート画像サンプル、及び顔参照画像サンプルを含み、
前記第2置換ユニット602は、顔画像処理モデルを利用して前記顔テンプレート画像サンプル内のテンプレート顔を、前記顔画像サンプル内のソース顔に置換して、予測顔画像を得るように構成され、
前記三次元顔輪郭点検出ユニット603は、前記予測顔画像に対して三次元顔輪郭点検出を行い、前記予測顔画像の三次元顔輪郭点を得、前記顔参照画像サンプルに対して三次元顔輪郭点検出を行い、前記顔参照画像サンプルの三次元顔輪郭点を得るように構成され、
前記計算ユニット604は、前記予測顔画像の三次元顔輪郭点と前記顔参照画像サンプルの三次元顔輪郭点との差異を取得して、前記予測顔画像と前記顔参照画像サンプルとの間の顔輪郭損失を得るように構成され、
前記調整ユニット605は、前記顔輪郭損失に基づいて前記顔画像処理モデルを調整して、訓練された顔画像処理モデルを得るように構成される。
前記予測顔画像に対して三次元顔モデリングを行い、前記予測顔画像の三次元予測顔画像特徴を得るように構成される三次元顔モデリングサブユニットと、
前記三次元予測顔画像特徴に対して三次元キーポイント投影を行い、前記予測顔画像の三次元顔キーポイントを得るように構成される三次元キーポイント投影サブユニットと、
前記三次元顔キーポイントに基づいて、前記三次元顔キーポイントから前記三次元顔輪郭点を選別するように構成される選別サブユニットと、を備える。
前記三次元予測顔画像特徴から、前記予測顔画像の予測顔アイデンティティ特徴及び予測顔表情特徴を抽出するように構成される抽出モジュールと、
所定の伝達パラメータを利用して、前記予測顔アイデンティティ特徴及び予測顔表情特徴に対して三次元キーポイント投影を行い、前記予測顔画像の三次元顔キーポイントを得るように構成される三次元キーポイント投影モジュールと、を備える。
前記顔参照画像サンプルと前記予測顔画像との間の三次元顔輪郭点以外の差異を計算して、前記顔参照画像サンプルと前記予測顔画像の第1損失を得るように構成される第1計算ユニットであって、第1損失は、顔輪郭損失以外の損失を含む、第1計算ユニットと、
前記顔画像サンプルと前記予測顔画像との間の顔特徴損失を計算するように構成される第2計算ユニットと、
前記第1損失情報及び前記顔特徴損失情報に対して融合処理を行い、第2損失を得るように構成される第2融合ユニットと、を備える。
前記顔参照画像サンプルと前記予測顔画像との間の画素差異を計算して、画素損失を得るように構成される第1計算サブユニットと、
前記顔参照画像サンプルと前記予測顔画像との間の特徴差異を計算して、特徴損失を得るように構成される第2計算サブユニットと、
前記顔参照画像サンプルと前記予測顔画像との間の判別差異を計算して、判別損失を得るように構成される第3計算サブユニットと、を備える。
前記顔参照画像サンプルと前記予測顔画像との間の二次元特徴差異を計算して、二次元特徴損失を得るように構成される第1計算モジュールと、
前記顔参照画像サンプルと前記予測顔画像との間の三次元特徴差異を計算して、三次元特徴損失を得るように構成される第2計算モジュールと、
前記二次元特徴損失と前記三次元特徴損失を融合して、前記特徴損失を得るように構成される第1融合モジュールと、を備える。
前記顔参照画像サンプル及び前記予測顔画像に対してスケール変換処理をそれぞれ行い、少なくとも1つのスケール変換された顔参照画像サンプル、及び少なくとも1つのスケール変換された予測顔画像を得るように構成されるスケール変換モジュールと、
前記少なくとも1つのスケール変換された顔参照画像サンプル、及び前記少なくとも1つのスケール変換された予測顔画像に対して判別をそれぞれ行い、前記スケール変換された顔参照画像サンプルの第1判別特徴及び前記スケール変換された予測顔画像の第2判別特徴を得るように構成される判別モジュールと、
前記第1判別特徴及び前記第2判別特徴に基づいて、前記判別損失を計算するように構成される第3計算モジュールと、を備える。
前記訓練された顔画像処理モデルのモデルパラメータを取得するように構成される取得サブユニットと、
前記顔輪郭損失と前記第2損失に対して融合処理を行い、第3損失を得るように構成される第2融合サブユニットと、
前記第3損失を利用して前記モデルパラメータを調整して、前記訓練された顔画像処理モデルを得るように構成されるパラメータ調整ユニットと、を備える。
502 三次元顔モデリングユニット
503 第1融合ユニット
504 特徴抽出ユニット
505 変換ユニット
506 第1置換ユニット
601 第2取得ユニット
602 第2置換ユニット
603 三次元顔輪郭点検出ユニット
604 計算ユニット
605 調整ユニット
701 プロセッサ
702 メモリ
703 電源
704 入力ユニット
Claims (19)
- コンピュータ機器が実行する、顔画像処理方法であって、
ソース顔の顔画像及びテンプレート顔の顔テンプレート画像を取得するステップと、
前記顔画像及び前記顔テンプレート画像に対して三次元顔モデリングを行い、前記顔画像の三次元顔画像特徴及び前記顔テンプレート画像の三次元顔テンプレート画像特徴を得るステップと、
前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るステップと、
前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るステップと、
前記三次元融合特徴に基づいて、前記初期顔置換特徴を変換して、目標顔置換特徴を得るステップと、
前記目標顔置換特徴に基づいて、前記顔テンプレート画像内のテンプレート顔を前記ソース顔に置換して、置換された顔画像を得るステップと、を含む、顔画像処理方法。 - 前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るステップは、
前記三次元顔画像特徴から、前記顔画像のソース顔アイデンティティ特徴を抽出するステップと、
前記三次元顔テンプレート画像特徴から、前記顔テンプレート画像のテンプレート顔画像特徴を抽出するステップと、
前記ソース顔アイデンティティ特徴と前記テンプレート顔画像特徴を融合して、前記三次元融合特徴を得るステップと、を含む、
請求項1に記載の顔画像処理方法。 - 前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るステップは、
前記顔テンプレート画像を符号化して、前記顔テンプレート画像の第1符号化特徴を得るステップと、
前記顔画像を符号化して、前記顔画像の第2符号化特徴を得るステップと、
前記第2符号化特徴に基づいて、前記第1符号化特徴を調整して、前記初期顔置換特徴を得るステップと、を含む、
請求項1に記載の顔画像処理方法。 - 前記三次元融合特徴に基づいて、前記初期顔置換特徴を変換して、目標顔置換特徴を得るステップは、
前記三次元融合特徴に対して第1論理演算を行い、演算された三次元顔画像特徴を得、前記初期顔置換特徴に対して第2論理演算を行い、演算された顔置換特徴を得るステップと、
前記初期顔置換特徴及び前記演算された顔置換特徴に対して、第3論理演算を行い、演算された顔置換特徴を得るステップと、
前記演算された顔置換特徴及び前記演算された三次元顔画像特徴に対して、第4論理演算を行い、前記目標顔置換特徴を得るステップと、を含む、
請求項1に記載の顔画像処理方法。 - 前記三次元融合特徴は、少なくとも2つのサブ三次元融合特徴を含み、各前記サブ三次元融合特徴は、1つの特徴次元に対応し、
前記三次元融合特徴に対して第1論理演算を行い、演算された三次元顔画像特徴を得るステップは、
前記少なくとも2つのサブ三次元融合特徴の標準偏差を決定し、前記標準偏差を、前記演算された三次元顔画像特徴とするステップを含む、
請求項4に記載の顔画像処理方法。 - 前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るステップは、
顔画像処理モデルを利用して、前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るステップを含み、
前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るステップは、
前記顔画像処理モデルを利用して、前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るステップを含み、
前記三次元融合特徴に基づいて、前記初期顔置換特徴を変換して、目標顔置換特徴を得るステップは、
前記顔画像処理モデルを利用して、前記三次元融合特徴に基づいて、前記初期顔置換特徴を変換して、目標顔置換特徴を得るステップを含む、
請求項1に記載の顔画像処理方法。 - 前記目標顔置換特徴に基づいて、前記顔テンプレート画像内のテンプレート顔を前記ソース顔に置換して、置換された顔画像を得るステップは、
前記顔画像に対して特徴抽出を行い、顔画像の顔特徴を得るステップと、
前記目標顔置換特徴及び前記顔画像の顔特徴に基づいて、前記顔テンプレート画像内のテンプレート顔を前記ソース顔に置換して、置換された顔画像を得るステップと、を含む、
請求項1に記載の顔画像処理方法。 - コンピュータ機器が実行する、顔画像処理モデルの訓練方法であって、
訓練画像サンプルグループを取得するステップであって、前記訓練画像サンプルグループは、顔画像サンプル、顔テンプレート画像サンプル、及び顔参照画像サンプルを含む、ステップと、
顔画像処理モデルを利用して、前記顔テンプレート画像サンプル内のテンプレート顔を、前記顔画像サンプル内のソース顔に置換して、予測顔画像を得るステップと、
前記予測顔画像に対して三次元顔輪郭点検出を行い、前記予測顔画像の三次元顔輪郭点を得、前記顔参照画像サンプルに対して三次元顔輪郭点検出を行い、前記顔参照画像サンプルの三次元顔輪郭点を得るステップと、
前記予測顔画像の三次元顔輪郭点と前記顔参照画像サンプルの三次元顔輪郭点との差異を取得して、前記予測顔画像と前記顔参照画像サンプルとの間の顔輪郭損失を得るステップと、
前記顔輪郭損失に基づいて、前記顔画像処理モデルのモデルパラメータを更新するステップと、を含む、顔画像処理モデルの訓練方法。 - 前記予測顔画像に対して三次元顔輪郭点検出を行い、前記予測顔画像の三次元顔輪郭点を得るステップは、
前記予測顔画像に対して三次元顔モデリングを行い、前記予測顔画像の三次元予測顔画像特徴を得るステップと、
前記三次元予測顔画像特徴に対して三次元キーポイント投影を行い、前記予測顔画像の三次元顔キーポイントを得るステップと、
前記三次元顔キーポイントから前記三次元顔輪郭点を選別するステップと、を含む、
請求項8に記載の顔画像処理モデルの訓練方法。 - 前記三次元予測顔画像特徴に対して三次元キーポイント投影を行い、前記予測顔画像の三次元顔キーポイントを得るステップは、
前記三次元予測顔画像特徴から、前記予測顔画像の予測顔アイデンティティ特徴及び予測顔表情特徴を抽出するステップと、
所定の伝達パラメータを利用して、前記予測顔アイデンティティ特徴及び予測顔表情特徴に対して三次元キーポイント投影を行い、前記予測顔画像の三次元顔キーポイントを得るステップと、を含む、
請求項9に記載の顔画像処理モデルの訓練方法。 - 前記予測顔画像の三次元顔輪郭点と前記顔参照画像サンプルの三次元顔輪郭点との差異を取得した後、前記顔画像処理モデルの訓練方法は、
前記顔参照画像サンプルと前記予測顔画像との間の三次元顔輪郭点以外の差異を取得して、前記顔参照画像サンプルと前記予測顔画像との間の第1損失を得るステップであって、前記第1損失は、顔輪郭損失以外の損失を含む、ステップと、
前記顔画像サンプルと前記予測顔画像との間の顔特徴損失を得るステップと、
前記第1損失と前記顔特徴損失を融合して、第2損失を得るステップと、を更に含む、
請求項8に記載の顔画像処理モデルの訓練方法。 - 前記第1損失は、画素損失、特徴損失、及び判別損失を含み、
前記顔参照画像サンプルと前記予測顔画像との間の三次元顔輪郭点以外の差異を取得して、前記顔参照画像サンプルと前記予測顔画像との間の第1損失を得る前記ステップは、
前記顔参照画像サンプルと前記予測顔画像との間の画素差異を取得して、画素損失を得るステップと、
前記顔参照画像サンプルと前記予測顔画像との間の特徴差異を取得して、特徴損失を得るステップと、
前記顔参照画像サンプルと前記予測顔画像との間の判別差異を取得して、判別損失を得るステップと、を含む、
請求項11に記載の顔画像処理モデルの訓練方法。 - 前記特徴損失は、三次元特徴損失及び二次元特徴損失を含み、
前記顔参照画像サンプルと前記予測顔画像との間の特徴差異を取得して、特徴損失を得るステップは、
前記顔参照画像サンプルと前記予測顔画像との間の二次元特徴差異を取得して、二次元特徴損失を得るステップと、
前記顔参照画像サンプルと前記予測顔画像との間の三次元特徴差異を取得して、三次元特徴損失を得るステップと、
前記二次元特徴損失と前記三次元特徴損失を融合して、前記特徴損失を得るステップと、を含む、
請求項12に記載の顔画像処理モデルの訓練方法。 - 前記顔参照画像サンプルと前記予測顔画像との間の判別差異を取得して、判別損失を得るステップは、
前記顔参照画像サンプル及び前記予測顔画像に対してスケール変換をそれぞれ行い、スケール変換された顔参照画像サンプル及びスケール変換された予測顔画像を得るステップと、
前記スケール変換された顔参照画像サンプルを判別して、第1判別特徴を得、前記スケール変換された予測顔画像を判別して、第2判別特徴を得るステップと、
前記第1判別特徴及び前記第2判別特徴に基づいて、前記判別損失を決定するステップと、を含む、
請求項12に記載の顔画像処理モデルの訓練方法。 - 前記顔輪郭損失に基づいて、前記顔画像処理モデルのモデルパラメータを更新するステップは、
前記顔画像処理モデルのモデルパラメータを取得するステップと、
前記顔輪郭損失と前記第2損失を融合して、第3損失を得るステップと、
前記第3損失を利用して、前記顔画像処理モデルのモデルパラメータを更新するステップと、を含む、
請求項11に記載の顔画像処理モデルの訓練方法。 - 顔画像処理装置であって、
ソース顔の顔画像及びテンプレート顔の顔テンプレート画像を取得するように構成される第1取得ユニットと、
前記顔画像及び前記顔テンプレート画像に対して三次元顔モデリングを行い、前記顔画像の三次元顔画像特徴及び前記顔テンプレート画像の三次元顔テンプレート画像特徴を得るように構成される三次元顔モデリングユニットと、
前記三次元顔画像特徴と前記三次元顔テンプレート画像特徴を融合して、三次元融合特徴を得るように構成される融合ユニットと、
前記顔テンプレート画像に基づいて、前記顔画像に対して顔置換特徴抽出を行い、初期顔置換特徴を得るように構成される特徴抽出ユニットと、
前記三次元融合特徴に基づいて、前記初期顔置換特徴に対して変換処理を行い、目標顔置換特徴を得るように構成される変換ユニットと、
前記目標顔置換特徴に基づいて、前記顔テンプレート画像内のテンプレート顔を前記ソース顔に置換して、置換された顔画像を得るように構成される第1置換ユニットと、を備える、顔画像処理装置。 - 顔画像処理モデルの訓練装置であって、
訓練画像サンプルグループを取得するように構成される第2取得ユニットであって、前記訓練画像サンプルグループは、顔画像サンプル、顔テンプレート画像サンプル、及び顔参照画像サンプルを含む、第2取得ユニットと、
顔画像処理モデルを利用して、前記顔テンプレート画像サンプル内のテンプレート顔を、前記顔画像サンプル内のソース顔に置換して、予測顔画像を得るように構成される第1置換ユニットと、
前記予測顔画像に対して三次元顔輪郭点検出を行い、前記予測顔画像の三次元顔輪郭点を得、前記顔参照画像サンプルに対して三次元顔輪郭点検出を行い、前記顔参照画像サンプルの三次元顔輪郭点を得るように構成される三次元顔輪郭点検出ユニットと、
前記予測顔画像の三次元顔輪郭点と前記顔参照画像サンプルの三次元顔輪郭点との差異を取得して、前記予測顔画像と前記顔参照画像サンプルとの間の顔輪郭損失を得るように構成される計算ユニットと、
前記顔輪郭損失に基づいて、前記顔画像処理モデルのモデルパラメータを更新するように構成される調整ユニットと、を備える、顔画像処理モデルの訓練装置。 - プロセッサで実行可能な命令を記憶するメモリと、
前記メモリに記憶された実行可能な命令を実行するときに、請求項1ないし7のいずれか一項に記載の方法、又は請求項8ないし15のいずれか一項に記載の方法を実行するプロセッサと、を備える、コンピュータ機器。 - プロセッサによって実行されるときに、プロセッサに、請求項1ないし7のいずれか一項に記載の方法、又は請求項8ないし15のいずれか一項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110963370.5 | 2021-08-20 | ||
CN202110963370.5A CN114973349A (zh) | 2021-08-20 | 2021-08-20 | 面部图像处理方法和面部图像处理模型的训练方法 |
PCT/CN2022/111744 WO2023020358A1 (zh) | 2021-08-20 | 2022-08-11 | 面部图像处理方法、面部图像处理模型的训练方法、装置、设备、存储介质及程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023541745A JP2023541745A (ja) | 2023-10-04 |
JP7500768B2 true JP7500768B2 (ja) | 2024-06-17 |
Family
ID=82972978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022565902A Active JP7500768B2 (ja) | 2021-08-20 | 2022-08-11 | 顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230100427A1 (ja) |
JP (1) | JP7500768B2 (ja) |
KR (1) | KR20230028253A (ja) |
CN (1) | CN114973349A (ja) |
WO (1) | WO2023020358A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115171198B (zh) * | 2022-09-02 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 模型质量评估方法、装置、设备及存储介质 |
KR102693314B1 (ko) * | 2022-11-16 | 2024-08-07 | 전준혁 | 2d 얼굴 이미지로부터 3d 얼굴 모델을 생성하는 시스템 및 방법 |
CN116386121B (zh) * | 2023-05-30 | 2023-08-11 | 湖北华中电力科技开发有限责任公司 | 一种基于电网安全生产的人员识别方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014149677A (ja) | 2013-02-01 | 2014-08-21 | Panasonic Corp | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム |
WO2020173329A1 (zh) | 2019-02-26 | 2020-09-03 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
JP2020177605A (ja) | 2019-04-15 | 2020-10-29 | 桃子 廣田 | 画像処理装置 |
JP2021073619A (ja) | 2021-02-04 | 2021-05-13 | 日本電気株式会社 | 画像生成装置、画像生成方法、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256505A (zh) * | 2018-02-12 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
CN111860167B (zh) * | 2020-06-18 | 2024-01-26 | 北京百度网讯科技有限公司 | 人脸融合模型获取及人脸融合方法、装置及存储介质 |
CN111783603A (zh) * | 2020-06-24 | 2020-10-16 | 有半岛(北京)信息科技有限公司 | 生成对抗网络训练方法、图像换脸、视频换脸方法及装置 |
CN113240792B (zh) * | 2021-04-29 | 2022-08-16 | 浙江大学 | 一种基于人脸重建的图像融合生成式换脸方法 |
-
2021
- 2021-08-20 CN CN202110963370.5A patent/CN114973349A/zh active Pending
-
2022
- 2022-08-11 JP JP2022565902A patent/JP7500768B2/ja active Active
- 2022-08-11 WO PCT/CN2022/111744 patent/WO2023020358A1/zh active Application Filing
- 2022-08-11 KR KR1020227041706A patent/KR20230028253A/ko unknown
- 2022-11-28 US US18/070,301 patent/US20230100427A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014149677A (ja) | 2013-02-01 | 2014-08-21 | Panasonic Corp | 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム |
WO2020173329A1 (zh) | 2019-02-26 | 2020-09-03 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
JP2020177605A (ja) | 2019-04-15 | 2020-10-29 | 桃子 廣田 | 画像処理装置 |
JP2021073619A (ja) | 2021-02-04 | 2021-05-13 | 日本電気株式会社 | 画像生成装置、画像生成方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN114973349A (zh) | 2022-08-30 |
WO2023020358A1 (zh) | 2023-02-23 |
JP2023541745A (ja) | 2023-10-04 |
KR20230028253A (ko) | 2023-02-28 |
US20230100427A1 (en) | 2023-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7500768B2 (ja) | 顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム | |
US11983850B2 (en) | Image processing method and apparatus, device, and storage medium | |
CN111354079B (zh) | 三维人脸重建网络训练及虚拟人脸形象生成方法和装置 | |
CN111325851B (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
WO2022156640A1 (zh) | 一种图像的视线矫正方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN112037320B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
WO2023040679A1 (zh) | 人脸图片的融合方法、装置、设备及存储介质 | |
Yang et al. | MPED: Quantifying point cloud distortion based on multiscale potential energy discrepancy | |
CN114067041B (zh) | 三维模型的材质生成方法、装置、计算机设备和存储介质 | |
CN111815768B (zh) | 三维人脸重建方法和装置 | |
CN113658324A (zh) | 图像处理方法及相关设备、迁移网络训练方法及相关设备 | |
CN115861515A (zh) | 一种三维人脸重建方法、计算机程序产品及电子设备 | |
Tan et al. | Mbdf-net: Multi-branch deep fusion network for 3d object detection | |
JP7479507B2 (ja) | 画像処理方法及び装置、コンピューター機器、並びにコンピュータープログラム | |
CN111325252A (zh) | 图像处理方法、装置、设备、介质 | |
CN115393471A (zh) | 图像处理方法、装置及电子设备 | |
CN114943799A (zh) | 一种面部图像处理方法、装置和计算机可读存储介质 | |
CN116630138B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
US20240331349A1 (en) | Similarity analysis of three-dimensional (3d) objects | |
CN118397282B (zh) | 基于语义sam大模型的三维点云鲁棒性部件分割方法 | |
CN117953165B (zh) | 基于神经辐射场的人脸新视图合成方法和系统 | |
US20240331352A1 (en) | Classification of three-dimensional (3d) objects in a virtual environment | |
WO2024164596A1 (zh) | 面部建模模型的训练方法、建模方法、装置、电子设备、存储介质及程序产品 | |
CN116958404A (zh) | 面部图像生成方法、装置、计算机设备、存储介质及产品 | |
Baldacci et al. | Presentation of 3D scenes through video example |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221027 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7500768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |