TW202236174A - 追蹤臉部表情的動畫產生方法及其神經網路訓練方法 - Google Patents
追蹤臉部表情的動畫產生方法及其神經網路訓練方法 Download PDFInfo
- Publication number
- TW202236174A TW202236174A TW111101026A TW111101026A TW202236174A TW 202236174 A TW202236174 A TW 202236174A TW 111101026 A TW111101026 A TW 111101026A TW 111101026 A TW111101026 A TW 111101026A TW 202236174 A TW202236174 A TW 202236174A
- Authority
- TW
- Taiwan
- Prior art keywords
- expression
- facial
- image
- virtual
- neural network
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本發明提出一種追蹤臉部表情的動畫產生方法及其神經網路訓練方法。追蹤臉部表情的動畫產生方法包括:依據一表情參數集驅動一第一角色模型而獲得對應於該表情參數集的一虛擬表情影像;將複數真人臉部影像分別適用至對應於該臉部表情的該虛擬表情影像而產生複數真人表情影像;依據該表情參數集及該些真人表情影像,訓練一追蹤神經網路;輸入一目標臉部影像至經訓練的該追蹤神經網路而獲得一預測表情參數集;及以該預測表情參數集控制一第二角色模型。
Description
本發明是有關於一種動畫產生方法,尤指一種追蹤臉部表情的動畫產生方法及其神經網路訓練方法。
目前,如要製作出如同使用者表情的動畫,需由動畫師參照使用者臉部影像來調整角色模型的表情控制參數,再套用至角色模型上。此方法不但費時費力,且難以調整出想要的表情,導致製作出的動畫表情不如使用者表情般生動自然。
有鑑於此,本發明一實施例提出一種追蹤臉部表情的動畫產生方法,包括:依據一表情參數集驅動一第一角色模型而獲得對應於該表情參數集的一虛擬表情影像,該虛擬表情影像呈現一虛擬角色的一臉部表情;將複數真人臉部影像分別適用至對應於該臉部表情的該虛擬表情影像而產生複數真人表情影像;依據該表情參數集及該些真人表情影像,訓練一追蹤神經網路;輸入一目標臉部影像至經訓練的該追蹤神經網路而獲得一預測表情參數集;及以該預測表情參數集控制一第二角色模型。
本發明一實施例還提出一種神經網路訓練方法,包括:依據一表情參數集驅動一角色模型而獲得對應於該表情參數集的一虛擬表情影像,該虛擬表情影像呈現一虛擬角色的一臉部表情;將複數真人臉部影像分別適用至對應於該臉部表情的該虛擬表情影像而產生複數真人表情影像;及依據該表情參數集及該些真人表情影像,訓練一神經網路。
本發明一實施例還提出一種追蹤臉部表情的動畫產生方法,包括:依據複數表情參數集驅動一第一角色模型而獲得對應於該些表情參數集的複數第一虛擬表情影像,各該第一虛擬表情影像呈現一虛擬角色的不同的一臉部表情;依據該些表情參數集及該些第一虛擬表情影像,訓練一追蹤神經網路;將一虛擬臉部影像適用至一目標臉部影像而產生一第二虛擬表情影像;輸入該第二虛擬表情影像至經訓練的該追蹤神經網路而獲得一預測表情參數集;及以該預測表情參數集控制一第二角色模型。
依據本發明實施例之神經網路訓練方法,可便捷的製作出大量訓練樣本。依據本發明實施例之追蹤臉部表情的動畫產生方法,可以直接透過臉部影像來預測相應的表情參數集,可讓第二角色模型表現出的表情豐富且自然,進而無需對參數集中的各個參數進行設定與反覆調整。
本發明的一些實施例提出一種追蹤臉部表情的動畫產生方法、神經網路訓練方法及電腦設備與電腦可讀取記錄媒體。電腦設備包括一個或多個處理器及一個或多個非揮發記憶體。所述一個或多個非揮發記憶體儲存有至少一條指令。所述至少一條指令由所述一個或多個處理器載入並執行以實現所述追蹤臉部表情的動畫產生方法或神經網路訓練方法。所述處理器可以例如是中央處理器(CPU)、圖形處理器(GPU)、神經網路處理器(NPU)、數位訊號處理(DSP)晶片、微處理器(MCU)或可編輯邏輯器件(FPGA)等的處理單元。所述電腦可讀取記錄媒體為非暫態儲存媒體,例如快閃記憶體、硬碟、光碟等,以儲存前述至少一條指令。
在一些實施例中,電腦設備由單一計算裝置構成。在另一些實施例中,電腦設備由多台計算裝置構成,此些計算裝置經由網路彼此通訊。所述計算裝置可以是行動計算裝置(如手機、平板電腦)、電腦(如個人電腦、筆記型電腦)、伺服器等。可以理解的是,雖前述未特別提及,然而電腦設備還可能包含有其他硬體元件(如有需要),以提供其他功能,例如網路模組、音訊電路、顯示螢幕、攝影裝置、電源等。
合併參照圖1及圖2。圖1為本發明第一實施例之追蹤臉部表情的動畫產生方法的流程圖。圖2為本發明第一實施例之軟體架構示意圖。首先,依據一表情參數集20,利用遊戲引擎(或稱3D引擎)驅動一第一角色模型21,並經渲染而獲得對應於表情參數集20的一虛擬表情影像22(步驟S10)。第一角色模型21為三維模型。所述表情參數集20可例如但不限於形狀融合變形器(blendshapes)、人臉特徵(facial landmarks)、動作單元(action units)或網格主成分分析(mesh PCA)等。所述虛擬表情影像22呈現一虛擬角色的一臉部表情(例如張口、眨眼等)。
接著,將複數真人臉部影像23分別適用至對應於該臉部表情的虛擬表情影像22,而產生複數真人表情影像25(步驟S30)。真人表情影像25具有與虛擬表情影像22相同的臉部表情。所述適用(或稱為映射)是指給定兩個分別關於真人臉部影像23和虛擬表情影像22的參數空間(後稱第一空間及第二空間,該兩空間為二維空間),使得在第一空間的每個點能在第二空間中找到一個對應點。具體的,所述適用可利用換臉神經網路24實現,例如FSNet、FSGAN、FaceShifter、FaceController等。換臉神經網路24包括自編碼器(Autoencoder)及生成器(Generator)。自編碼器包括編碼器及解碼器。編碼器用以對輸入影像進行編碼壓縮,從而獲得一個隱藏層。解碼器再將隱藏層進行解碼,以還原輸入影像。在此,自編碼器包括:用以接收真人臉部影像23的一第一自編碼器,和用以接收虛擬表情影像22的一第二自編碼器。生成器用來合成影像,係利用第一自編碼器和第二自編碼器的隱藏層來產生具有與虛擬表情影像22相同臉部表情的真人臉部影像23。
透過步驟S10及步驟S30,可以獲得與表情參數集20相對應的臉部表情的真人臉部影像23。特別是,在步驟S30中,分別將對應於不同真人的該些真人臉部影像23進行適用,可以獲得大量相同表情、不同人臉的真人臉部影像23。藉此,可便捷的製作出用於訓練追蹤神經網路26的大量樣本。
在一些實施例中,重複執行步驟S10及步驟S30,每次執行均採用不同的表情參數集20,以獲得相應的不同臉部表情的真人臉部影像23。
在步驟S50中,依據表情參數集20及該些真人表情影像25,訓練一神經網路(於此為追蹤神經網路26)。所述追蹤神經網路26可以是卷積神經網路(Convolutional Neural Networks,CNN)。將真人表情影像25輸入至追蹤神經網路26,並以表情參數集20作為真人表情影像25的標記。藉此,透過步驟S50所訓練好的追蹤神經網路26可以根據真人表情影像25來預測相應的表情參數集(後稱預測表情參數集28)。前述步驟S10至步驟S50即為本發明一實施例之神經網路訓練方法。在一些實施例中,所訓練好的神經網路也可以做其他應用,非以前述預測表情參數集28為限。
在一些實施例中,在將真人表情影像25輸入至追蹤神經網路26之前,可對真人表情影像25進行預處理,例如裁切、縮放、濾波、強化等。
在步驟S70中,輸入一目標臉部影像27至經訓練的該追蹤神經網路26而獲得一預測表情參數集28。所述目標臉部影像27為一追縱對象之影像,例如透過攝影裝置拍攝使用者的影像。
在步驟S90中,以該預測表情參數集28控制一第二角色模型29(例如一卡通人物、名人),使得該第二角色模型29可呈現如同目標臉部影像27之表情。第二角色模型29為三維模型。
合併參照圖3及圖4。圖3為本發明第二實施例之追蹤臉部表情的動畫產生方法的流程圖。圖4為本發明第二實施例之部分軟體架構示意圖。與第一實施例之差異在於,在步驟S70之前還包括步驟S60:將一指定臉部影像41適用至一指定表情影像42而獲得供執行步驟S70的目標臉部影像27。具體來說,所述適用是利用前述步驟S10的換臉神經網路24來實現,而將指定臉部影像41及指定表情影像42輸入換臉神經網路24。指定臉部影像41及指定表情影像42為同一真人影像。舉例而言,指定表情影像42為透過攝影裝置拍攝使用者的當下影像,指定臉部影像41為該使用者的另一影像(例如為預存的照片或該攝影裝置先前拍攝到的使用者影像)。雖然,換臉神經網路24之輸出仍為同一使用者的臉部影像。然而,經過換臉神經網路24轉換之後的影像可更加貼近於訓練樣本類型,使得之後執行步驟S70所獲得的預測表情參數集28可更加精準。
合併參照圖5及圖6。圖5為本發明第三實施例之追蹤臉部表情的動畫產生方法的流程圖。圖6為本發明第三實施例之部分軟體架構示意圖。首先,如同前述第一實施例,依據複數表情參數集20,利用遊戲引擎(或稱3D引擎)驅動一第一角色模型21,並經渲染而獲得對應於該些表情參數集20的複數第一虛擬表情影像43(步驟S11)。其中,各第一虛擬表情影像43呈現同一虛擬角色的不同的臉部表情。
接著,依據該些表情參數集20及該些第一虛擬表情影像43,訓練一神經網路(於此為追蹤神經網路26)(步驟S31)。在此,追蹤神經網路26的構成如第一實施例所述,於此不重複贅述。於此要說明的是,本實施例的該追蹤神經網路26的輸入與第一實施例的步驟S50不同。在本實施例中,輸入至追蹤神經網路26的是第一虛擬表情影像43,並以表情參數集20作為第一虛擬表情影像43的標記。前述步驟S11至步驟S31即為本發明另一實施例之神經網路訓練方法。藉此,透過步驟S31所訓練好的追蹤神經網路26可以根據所輸入的虛擬表情影像來獲得相應的預測表情參數集28。在一些實施例中,所訓練好的神經網路也可以做其他應用,非以前述預測表情參數集28為限。
在步驟S51中,將一虛擬臉部影像44適用至一目標臉部影像27而產生一第二虛擬表情影像45。虛擬臉部影像44為前述第一角色模型21的臉部影像。目標臉部影像27如前述為一追縱對象之影像,例如透過攝影裝置拍攝使用者的影像。所述適用與前述相同,可利用換臉神經網路24實現,於此不重複贅述。與前述實施例的差異在於,在本實施例中,是將虛擬臉部影像44適用至目標臉部影像27。也就是說,透過步驟S51所產生的第二虛擬表情影像45是具有與目標臉部影像27相同臉部表情的第一角色模型21的臉部影像。
在步驟S71中,輸入該第二虛擬表情影像45至經訓練的該追蹤神經網路26而獲得一預測表情參數集28。
在步驟S91中,以該預測表情參數集28控制一第二角色模型29(例如一卡通人物、名人),使得該第二角色模型29可呈現如同目標臉部影像27之表情。第二角色模型29為三維模型。
由於,在第三實施例中,是將目標臉部影像27轉換為第一角色模型21的臉部影像。因此,不論目標臉部影像27的使用者是誰,追蹤神經網路26都是依據同一個第一角色模型21的臉部影像來輸出預測表情參數集28。如此,可以獲得穩定的預測結果。
在一些實施例中,第一角色模型21與第二角色模型29彼此相同。
在一些實施例中,第一角色模型21與第二角色模型29互為不同。
在一些實施例中,可使用多個第一角色模型21來獲得呈現不同虛擬角色的臉部表情的多個虛擬表情影像22,並以複數真人臉部影像23分別適用至該等虛擬表情影像22,藉以訓練追蹤神經網路26。
在一些實施例中,利用所訓練得的追蹤神經網路26獲得的預測表情參數集28,可用於控制多個第二角色模型29。
依據本發明實施例之神經網路訓練方法,可便捷的製作出大量訓練樣本。依據本發明實施例之追蹤臉部表情的動畫產生方法,可以直接透過臉部影像來預測相應的表情參數集,不受預設的表情參數集的限制,可讓第二角色模型表現出的表情豐富且自然。
20:表情參數集
21:第一角色模型
22:虛擬表情影像
23:真人臉部影像
24:換臉神經網路
25:真人表情影像
26:追蹤神經網路
27:目標臉部影像
28:預測表情參數集
29:第二角色模型
41:指定臉部影像
42:指定表情影像
43:第一虛擬表情影像
44:虛擬臉部影像
45:第二虛擬表情影像
S10,S30,S50,S60,S70,S90:步驟
S11,S31,S51,S71,S91:步驟
圖1為本發明第一實施例之追蹤臉部表情的動畫產生方法的流程圖。
圖2為本發明第一實施例之軟體架構示意圖。
圖3為本發明第二實施例之追蹤臉部表情的動畫產生方法的流程圖。
圖4為本發明第二實施例之部分軟體架構示意圖。
圖5為本發明第三實施例之追蹤臉部表情的動畫產生方法的流程圖。
圖6為本發明第三實施例之部分軟體架構示意圖。
S10,S30,S50,S70,S90:步驟
Claims (7)
- 一種追蹤臉部表情的動畫產生方法,包括: 依據一表情參數集驅動一第一角色模型而獲得對應於該表情參數集的一虛擬表情影像,該虛擬表情影像呈現一虛擬角色的一臉部表情; 將複數真人臉部影像分別適用至對應於該臉部表情的該虛擬表情影像而產生複數真人表情影像; 依據該表情參數集及該些真人表情影像,訓練一追蹤神經網路; 輸入一目標臉部影像至經訓練的該追蹤神經網路而獲得一預測表情參數集;及 以該預測表情參數集控制一第二角色模型。
- 如請求項1所述之追蹤臉部表情的動畫產生方法,其中所述將該些真人臉部影像分別適用至對應於該臉部表情的該虛擬表情影像是利用換臉神經網路實現。
- 如請求項1所述之追蹤臉部表情的動畫產生方法,其中在所述輸入該目標臉部影像至經訓練的該追蹤神經網路之前,更包括: 將一指定臉部影像適用至一指定表情影像而獲得該目標臉部影像,其中該指定臉部影像及該指定表情影像為同一真人影像。
- 一種神經網路訓練方法,包括: 依據一表情參數集驅動一角色模型而獲得對應於該表情參數集的一虛擬表情影像,該虛擬表情影像呈現一虛擬角色的一臉部表情; 將複數真人臉部影像分別適用至對應於該臉部表情的該虛擬表情影像而產生複數真人表情影像;及 依據該表情參數集及該些真人表情影像,訓練一神經網路。
- 如請求項4所述之神經網路訓練方法,其中所述將該些真人臉部影像分別適用至對應於該臉部表情的該虛擬表情影像是利用換臉神經網路實現。
- 一種追蹤臉部表情的動畫產生方法,包括: 依據複數表情參數集驅動一第一角色模型而獲得對應於該些表情參數集的複數第一虛擬表情影像,各該第一虛擬表情影像呈現一虛擬角色的不同的一臉部表情; 依據該些表情參數集及該些第一虛擬表情影像,訓練一追蹤神經網路; 將一虛擬臉部影像適用至一目標臉部影像而產生一第二虛擬表情影像; 輸入該第二虛擬表情影像至經訓練的該追蹤神經網路而獲得一預測表情參數集;及 以該預測表情參數集控制一第二角色模型。
- 如請求項6所述之追蹤臉部表情的動畫產生方法,其中所述將該虛擬臉部影像適用至該目標臉部影像是利用換臉演算法實現。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163158384P | 2021-03-09 | 2021-03-09 | |
US63/158,384 | 2021-03-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202236174A true TW202236174A (zh) | 2022-09-16 |
TWI792845B TWI792845B (zh) | 2023-02-11 |
Family
ID=83157008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111101026A TWI792845B (zh) | 2021-03-09 | 2022-01-10 | 追蹤臉部表情的動畫產生方法及其神經網路訓練方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11954779B2 (zh) |
CN (1) | CN115049762A (zh) |
TW (1) | TWI792845B (zh) |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013152455A1 (en) * | 2012-04-09 | 2013-10-17 | Intel Corporation | System and method for avatar generation, rendering and animation |
CN106447785A (zh) * | 2016-09-30 | 2017-02-22 | 北京奇虎科技有限公司 | 一种驱动虚拟角色的方法和装置 |
US10552977B1 (en) * | 2017-04-18 | 2020-02-04 | Twitter, Inc. | Fast face-morphing using neural networks |
US10719738B2 (en) * | 2017-07-12 | 2020-07-21 | Banuba Limited | Computer-implemented methods and computer systems configured for generating photorealistic-imitating synthetic representations of subjects |
CN109815785A (zh) * | 2018-12-05 | 2019-05-28 | 四川大学 | 一种基于双流卷积神经网络的人脸情绪识别方法 |
US11068746B2 (en) * | 2018-12-28 | 2021-07-20 | Palo Alto Research Center Incorporated | Image realism predictor |
US10552667B1 (en) * | 2019-08-19 | 2020-02-04 | Neon Evolution Inc. | Methods and systems for image processing |
US10803646B1 (en) * | 2019-08-19 | 2020-10-13 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10949715B1 (en) * | 2019-08-19 | 2021-03-16 | Neon Evolution Inc. | Methods and systems for image and voice processing |
CN110969572B (zh) * | 2019-11-29 | 2023-04-18 | 广州方硅信息技术有限公司 | 换脸模型训练方法、人脸互换方法、装置及电子设备 |
CN111583105B (zh) * | 2020-05-14 | 2023-08-29 | 厦门美图之家科技有限公司 | 人像生成方法、装置、设备及存储介质 |
CN111598977B (zh) * | 2020-05-21 | 2021-01-29 | 北京中科深智科技有限公司 | 一种表情迁移并动画化的方法及系统 |
CN111739155A (zh) * | 2020-06-24 | 2020-10-02 | 网易(杭州)网络有限公司 | 虚拟角色捏脸方法、装置和终端设备 |
CN113971715A (zh) * | 2020-07-22 | 2022-01-25 | 虹软科技股份有限公司 | 基于深度学习的三维脸部重建的系统 |
-
2022
- 2022-01-10 TW TW111101026A patent/TWI792845B/zh active
- 2022-01-20 CN CN202210064469.6A patent/CN115049762A/zh active Pending
- 2022-03-08 US US17/689,495 patent/US11954779B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN115049762A (zh) | 2022-09-13 |
TWI792845B (zh) | 2023-02-11 |
US11954779B2 (en) | 2024-04-09 |
US20220292753A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102338136B1 (ko) | 이모티콘 애니메이션 생성 방법 및 디바이스, 저장 매체 및 전자 디바이스 | |
CN111433757B (zh) | 用于实时复杂角色动画和交互性的系统和方法 | |
US11270488B2 (en) | Expression animation data processing method, computer device, and storage medium | |
US20240078838A1 (en) | Face reenactment | |
WO2017185622A1 (zh) | 一种显示方法及目标设备 | |
CN113272870A (zh) | 用于逼真的实时人像动画的系统和方法 | |
JP7483301B2 (ja) | 画像処理及び画像合成方法、装置及びコンピュータプログラム | |
KR20210113948A (ko) | 가상 아바타 생성 방법 및 장치 | |
US11514638B2 (en) | 3D asset generation from 2D images | |
JP2022550627A (ja) | 拡張現実に基づいた表示方法、装置、及び記憶媒体 | |
WO2020077913A1 (zh) | 图像处理方法、装置、硬件装置 | |
TWI792845B (zh) | 追蹤臉部表情的動畫產生方法及其神經網路訓練方法 | |
CN115908664B (zh) | 人机交互的动画生成方法、装置、计算机设备、存储介质 | |
US10832493B2 (en) | Programmatic hairstyle opacity compositing for 3D rendering | |
CN115222899B (zh) | 虚拟数字人生成方法、系统、计算机设备及存储介质 | |
Condegni et al. | A Digital Human System with Realistic Facial Expressions for Friendly Human-Machine Interaction | |
Ohkawara et al. | Illumination-aware group portrait compositor | |
WO2024000480A1 (zh) | 3d虚拟对象的动画生成方法、装置、终端设备及介质 | |
CN117097919A (zh) | 虚拟角色渲染方法、装置、设备、存储介质和程序产品 | |
CN115830239A (zh) | 一种基于三维重建的人脸照片生成动画的方法及装置 | |
Ersotelos | IMAGE BASED FACIAL EXPRESSION SYNTHESIS. | |
Hayashi | A Rapid Animation Tool Minako Hayashi, Makoto Maruya, Shigeo Nakagawa, Hirofumi Ishida, Yosuke Takashima NEC Corporation |