JP2020177620A - アバター用の3d顔モデルを生成する方法及び関連デバイス - Google Patents
アバター用の3d顔モデルを生成する方法及び関連デバイス Download PDFInfo
- Publication number
- JP2020177620A JP2020177620A JP2019096502A JP2019096502A JP2020177620A JP 2020177620 A JP2020177620 A JP 2020177620A JP 2019096502 A JP2019096502 A JP 2019096502A JP 2019096502 A JP2019096502 A JP 2019096502A JP 2020177620 A JP2020177620 A JP 2020177620A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- computing device
- classifications
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 17
- 210000004709 eyebrow Anatomy 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 238000004088 simulation Methods 0.000 claims description 9
- 210000001508 eye Anatomy 0.000 claims description 8
- 230000037308 hair color Effects 0.000 claims description 7
- 238000007665 sagging Methods 0.000 claims description 3
- 210000005069 ears Anatomy 0.000 claims description 2
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 claims description 2
- 239000010931 gold Substances 0.000 claims description 2
- 229910052737 gold Inorganic materials 0.000 claims description 2
- 210000001331 nose Anatomy 0.000 description 8
- 210000000887 face Anatomy 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000283707 Capra Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 235000016622 Filipendula ulmaria Nutrition 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 235000004478 Tragopogon dubius Nutrition 0.000 description 1
- 235000005699 Tragopogon pratensis Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003608 fece Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
【課題】コンピューティングデバイスにおいて、3D顔形状を生成する方法を提供すること。【解決手段】本方法は、2D画像を得るステップと、2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、2D画像の複数の顔特徴の各々を分類し、顔特徴がテクスチャ成分に属する確率を得るステップであって、テクスチャ成分は、3D顔メッシュにより表され、コンピューティングデバイスにおいて予め規定されている、ステップと、最も高い確率を有するテクスチャ成分とコンピューティングデバイスにおいて予め規定されている3D顔テンプレートとに基づいて、3D顔モデルを生成するステップと、を含む。【選択図】図2
Description
本開示は、3D顔復元に関し、より詳細には、ゲーム及びシミュレーションのために、単一2D画像から3D顔モデルを生成する方法に関する。
2D画像を用いた3D顔モデルの復元は、ゲームへの没入感及びシミュレーション設計のための継続中の課題である。例えば、ユーザは、スクリーン上で見ているアバターがあたかも自分自身であり、アバターの体験が自分自身の体験であるかのように感じることを望む。そのため、人の自身の外観をゲーム又はシミュレーションに挿入する目的で、3D顔復元の領域において、多くの研究がなされている。しかしながら、ほとんどの既存の方法は、3D顔モデルを生成するために、少なくとも2つの画像及び複雑な計算を必要とする。
過去において、単一画像を用いた顔復元のために、いくつかの方法が提案されている。それらの方法のうちで、例に基づく方法は、まず、例の集合から、3D顔モデルの低次元パラメトリック表現を構築し、次いで、パラメトリックモデルを入力2D画像に当てはめる。周知の例のうちの1つは、畳み込みニューラルネットワーク(CNN)とともに適用される3Dモーフィングモデル(3DMM)である。3DMMは、その単純さに起因して、普及しているパラメトリック顔モデルであり、他のより高度な顔復元方法の基礎となっている。しかしながら、そのような方法は、個々の特徴を含む顔を生成することができず、特定の条件下で顔認識のために使用され得るだけである。加えて、十分なトレーニングデータの欠如は、CNNにおける大きな問題であり、したがって、浅い残差ネットワークになる。
単一画像復元に対する別の手法は、これを、陰影の変化からの典型的なコンピュータビジョン問題の3D形状復元であるSFS(shape from shading)として解決することである。例えば、Kemelmacher-Shlizerman及びBasriは、基準顔形状を用いて、照明パラメータ及び反射率パラメータを推定することにより、顔入力画像から、奥行き情報を復元している。これらの既存の手法は、単一画像から、高い質の復元をもたらし得るが、制限も付随する。
3DMM方法は、単純で効率的であるが、対象とする顔が、例の集合における顔と大きく異なる場合には、満足のいかない結果をもたらし得る。さらに、低次元モデルの制限された自由度に起因して、この方法は、対象とする顔に固有の微細な形状詳細(しわ等)を再生成することができないことが多い。一方、SFSに基づく方法は、入力画像の外観から、微細スケールの顔詳細を捕捉することができる。しかしながら、これは、復元問題の曖昧さを解決するために、形状又は照明に関する前もっての知識を必要とし、入力画像が仮定を満たさない場合には不正確になり得る。
したがって、上記の問題を解決するための、3D顔モデルを生成する方法を提供することが目的である。
本開示は、コンピューティングデバイスにおいて、3D顔形状を生成する方法を開示する。当該方法は、2D画像を得るステップと、前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、前記2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、前記2D画像の複数の顔特徴の各々を分類し、前記顔特徴が前記テクスチャ成分に属する確率を得るステップであって、前記テクスチャ成分は、3D顔メッシュにより表され、前記コンピューティングデバイスにおいて予め規定されている、ステップと、前記顔特徴の前記複数の分類に対応する3Dパラメータ、対応する前記重み、及び、最も高い確率を有するテクスチャ成分とともに、前記コンピューティングデバイスにおいて予め規定されている3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、を含む。
本開示は、アバターシミュレーションシステムを開示する。当該アバターシミュレーションシステムは、2D画像を得るカメラと、3D顔モデルを生成するコンピューティングデバイス又はクラウドと、を有し、前記コンピューティングデバイス又は前記クラウドは、プログラムを実行する処理ユニットと、前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、2D画像を得るステップと、前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている、ステップと、前記2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、前記2D画像の複数の顔特徴の各々を分類し、前記顔特徴が前記テクスチャ成分に属する確率を得るステップであって、前記テクスチャ成分は、3D顔メッシュにより表され、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている、ステップと、前記顔特徴の前記複数の分類に対応する3Dパラメータ、対応する前記重み、及び、最も高い確率を有するテクスチャ成分とともに、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、を実行するように、前記処理ユニットに命令する、記憶ユニットと、を含む。
本開示は、アバター用の3D顔形状を生成するコンピューティングデバイスを開示する。当該コンピューティングデバイスは、プログラムを実行する処理ユニットと、前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、2D画像を得るステップと、前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、前記2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、前記2D画像の複数の顔特徴の各々を分類し、前記顔特徴が前記テクスチャ成分に属する確率を得るステップであって、前記テクスチャ成分は、3D顔メッシュにより表され、前記コンピューティングデバイスにおいて予め規定されている、ステップと、前記顔特徴の前記複数の分類に対応する3Dパラメータ、対応する前記重み、及び、最も高い確率を有するテクスチャ成分とともに、前記コンピューティングデバイスにおいて予め規定されている3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、を実行するように、前記処理ユニットに命令する、記憶ユニットと、を有する。
本発明のこのような目的及び他の目的は、様々な図に例示されている好ましい実施形態の以下の詳細な説明を読んだ後、当業者に疑いなく明らかになるであろう。
図1は、本開示の一実施形態に従った3D顔形状生成デバイス10の概略図である。3D顔形状生成デバイス10は、ローカルコンピューティングデバイス又はクラウドであってよく、マイクロプロセッサ又は特定用途向け集積回路(ASIC)等の処理ユニット100と、記憶ユニット110と、通信インタフェースユニット120と、を含む。記憶ユニット110は、処理ユニット100によりアクセスされる、プログラムコード114を記憶することができる任意のデータ記憶デバイスであってよい。記憶ユニット110の例は、加入者識別モジュール(SIM)、読み取り専用メモリ(ROM)、フラッシュメモリ、ランダムアクセスメモリ(RAM)、CD−ROM、磁気テープ、ハードディスク、及び光データ記憶デバイスを含むが、これらに限定されるものではない。通信インタフェースユニット120は、処理ユニット100の処理結果に従って、カメラ及び/又はディスプレイデバイス(図1には示されていない)と信号を交換するための有線通信又は無線通信に対して適用される。すなわち、3D顔形状生成デバイス10の通信インタフェースユニット120は、カメラから2D画像を受信するために使用され、生成された3D顔モデルをディスプレイデバイスに送信するために使用されてよい。したがって、ディスプレイデバイスは、VRへの没入感を増大させるために、生成された3D顔モデルを用いてアバターを表示することができる。一実施形態において、カメラ、ディスプレイデバイス、及び、ローカルコンピューティングデバイス又はクラウドである3D顔形状生成デバイス10は、アバターシミュレーションシステムを形成する。
図2を参照すると、本開示の一実施形態に従ったプロセス20のフローチャートが示されている。プロセス20は、ゲーム(例えばVRゲーム)及びシミュレーション(例えばアバター)のために単一2D画像に基づいて3D顔モデルを生成するために、図1の3D顔形状生成デバイス10において使用されてよい。プロセス20は、記憶ユニット110に記憶されるプログラムコード114にコンパイルされてよく、以下のステップを含んでよい。
ステップ200:2D画像を得る。
ステップ210:2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得る。
ステップ220:ランドマークの相対距離に基づいて、顔特徴の複数の分類についての重みを決定し、ここで、複数の分類は、3D顔形状生成デバイス10において予め規定されている。
ステップ230:2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、2D画像の顔特徴の各々を分類し、顔特徴がテクスチャ成分に属する確率を得、ここで、テクスチャ成分は、3D顔メッシュにより表され、3D顔形状生成デバイス10において予め規定されている。
ステップ240:顔特徴の複数の分類に対応する3Dパラメータ、対応する重み、及び、最も高い確率を有するテクスチャ成分とともに、3D顔形状生成デバイス10において予め規定されている3D顔テンプレートに基づいて、3D顔モデルを生成する。
プロセス20に従って、3D顔形状生成デバイス10は、通信インタフェースユニットにより、カメラから;複数の2D画像を予め記憶している記憶ユニット110から;又は、インターネット/ウェブサイト上のデータベースから;1つの2D画像を受信し、次いで、ランドマーク検出動作及びDNN動作により、1つの2D画像に基づいて、アバター用の3D顔モデルを生成する。
詳細には、3D顔形状生成デバイス10は、各顔面形状(例えば、顔形状、目形状、鼻形状、及び口形状)の分類を認識するために、2D画像上のランドマークによって、顔、目、鼻、及び口等の顔特徴を抽出する。一実施形態において、顔面形状の分類は、アプリケーション/ソフトウェアにおいて予め規定されている又は設計されている。例えば、顔形状は、丸い顔、角ばった顔、長い顔、ハート形の顔、菱形の顔、又は楕円形の顔に分類され得るが、このように限定されるものではない。各顔形状タイプ/分類について、設計者は、顔形状のジオメトリに関連付けられる3Dパラメータを設定することに留意されたい。すなわち、各顔形状タイプ/分類は、3Dパラメータにより表される。この項目における3Dパラメータは、あごの幅及び長さの湾曲に対応するパラメータの集合であり得るが、このように限定されるものではないことに留意されたい。同様に、目、鼻、及び口も、複数のタイプに分類される。
顔特徴の分類に基づいて、3D顔形状生成デバイス10は、人工知能(AI)/機械学習技術を用いて、顔特徴の各分類についての重みを決定する。例えば、丸い顔、角ばった顔、長い顔、ハート形の顔、菱形の顔、及び楕円形の顔等の6つのタイプの顔形状が存在し、これらの顔形状は、以下の式における3DパラメータT1〜T6として表される。AI/機械学習技術を適用することにより、3D顔形状生成デバイス10は、ランドマーク顔形状が、6つの顔タイプに属する確率を計算し、確率に基づいて、6つの顔タイプについての、以下の式におけるW1〜W6として表される重みを決定することができる。3D顔形状は、3D顔モデル=S0+T1W1+T2W2...+T6W6(S0は、3D顔形状テンプレートである)により表される。
上述したコンセプトは、顔面形状に基づいてアバター用の3D顔モデルを生成するために、目、鼻、及び口についても適用され得る。
一方で、3D顔形状生成デバイス10は、DNN動作により、顔特徴を抽出し、したがって、2D画像の顔特徴は、形状によって表されるだけでなく、眉テクスチャ、顔ひげテクスチャ、髪型、及びモーフターゲット(morph target)、目の下のたるみ(eye bag)、唇色、髪色等といったテクスチャ成分によっても表される。さらに、DNN動作は、顔特徴がテクスチャ成分に属する確率を計算することができる。すなわち、DNN動作は、テクスチャ成分が現れているかどうかを判定するために用いられる。
一実施形態において、テクスチャ成分は、アプリケーション/ソフトウェアにおいて予め規定されており又は設計されており、3D顔メッシュにより表される。要するに、各テクスチャ成分について、設計者は、テクスチャ成分に基づいてアバター用の3D顔モデルを生成するために、3D顔テンプレートの表面上に顔面テクスチャを提示するための3D顔メッシュを設定する。図3〜図4を参照すると、これらは、本開示の一実施形態に従ったテクスチャ成分の概略図である。図3に示されているように、眉テクスチャは、高いアーチ、濃い、細い、真っ直ぐ、及び、なめらかなアーチを含み、これらは、3D顔メッシュとして見ることができる。図4において、顔ひげテクスチャは、やぎひげ、耳前からのあごひげ、無精ひげ、カーテンのようなあごひげ、スペードのようなひげ、もみあげとつながり上端が細く下端が広がったほおひげ、古いオランダ人のようなひげ、及び流行のひげを含み、各顔ひげテクスチャは、3D顔メッシュに対応する。
加えて、髪色は、黒、茶、金、及びグレーを含む。モーフターゲットは、尖った鼻、だんご鼻、上向きの鼻、及びわし鼻を含み、髪型は、ショート、ミディアム、ロング、及び毛無を含む。
さらに、顔特徴がテクスチャ成分に属する確率に基づいて、3D顔形状生成デバイス10は、3D顔モデルを生成するために、最も高い確率を有するテクスチャ成分を選択する。例えば、眉については、高いアーチ、濃い、細い、真っ直ぐ、なめらかなアーチ等、5つのテクスチャ成分が存在する。DNN動作により、3D顔形状生成デバイス10は、2D画像上の顔の眉が高いアーチテクスチャに属する確率が0.1であり、2D画像上の顔の眉が濃いテクスチャに属する確率が0.9であり、2D画像上の顔の眉が他のテクスチャに属する確率が0であるという確率を得る。したがって、3D顔形状生成デバイス10は、3D顔テンプレートとともに、濃いテクスチャに対応する3D顔メッシュを使用して、3D顔モデルを生成する。
そのようなやり方で、3D顔形状生成デバイス10は、完全な顔特徴(すなわち顔面形状及び顔面テクスチャ)を有する3D顔モデルを生成するために、DNN動作により計算された確率に基づいて、モーフターゲット、唇色、髪色、髪型、及び顔ひげについてのテクスチャ成分を選択する。
一実施形態において、DNN動作は、顔帰属予測を実現するために、図5に示されているような2D画像において適用され、ここで、DNN動作は、テクスチャ成分が現れているかどうかを確率で示すラベルを出力する。例えば、label_1は、やぎひげについての確率が0.8であることを示し、label_2は、耳前からのあごひげについての確率が0.1であることを示す。したがって、3D顔形状生成デバイス10は、やぎひげが3D顔モデルにおいて提示される、ということを決定する。要するに、5つの髪色が存在する場合、5つのラベルが、5つの髪色についての確率を示すために使用される。同じコンセプトが、3D顔モデルにおいて提示されるテクスチャ成分を決定するために、モーフターゲット、髪型、唇色、眉、目の下のたるみ等についても適用され得る。最後に、最も高い確率を有するテクスチャ成分についての上述したラベルを用いて、3D顔形状生成デバイス10は、図6に示されているような3D顔モデルを生成する。
DNN動作についての詳細な動作は、以下の通りである。
1.トレーニングデータ(ラベル付けされた顔特徴を含む画像)を準備する。
2.損失関数(すなわちバイナリ交差エントロピー)を定める。
3.トレーニングデータをネットワークに与え、オプティマイザを使用して、出力損失関数を最小化するようにネットワークのパラメータを調整する。
4.顔帰属予測のためにネットワークをデプロイする。
1.トレーニングデータ(ラベル付けされた顔特徴を含む画像)を準備する。
2.損失関数(すなわちバイナリ交差エントロピー)を定める。
3.トレーニングデータをネットワークに与え、オプティマイザを使用して、出力損失関数を最小化するようにネットワークのパラメータを調整する。
4.顔帰属予測のためにネットワークをデプロイする。
提案されているステップを含む、プロセスの上述したステップは、ハードウェア;ハードウェアデバイスと、ハードウェアデバイス上に読み取り専用ソフトウェアとして存在するコンピュータ命令及びデータと、の組み合わせとして知られているファームウェア;又は、電子システム;であり得る手段により実現され得る。ハードウェアの例は、マイクロ回路、マイクロチップ、又はシリコンチップとして知られている、アナログ回路、デジタル回路、及び混合回路を含み得る。電子システムの例は、システムオンチップ(SOC)、システムインパッケージ(SiP)、コンピュータオンモジュール(COM)、及び3D顔形状生成デバイス10を含み得る。
まとめると、本開示は、ランドマーク検出動作及びDNN動作により、3D顔復元に対処する。詳細には、最も高い質の最も写実的な3D顔モデルを生成するために、DNN動作の顔帰属予測に基づいて、顔特徴に対応するテクスチャ成分についての確率が、正確に決定され得る。この方法は、従来の方法に比して、優れた正確さを示している。
当業者は、本発明の教示を保持している間に、デバイス及び方法の多数の変更及び変形が可能であることを観察するであろう。したがって、上記の開示は、請求項の範囲及び境界によってのみ限定されるとして解釈されるべきである。
10 3D顔形状生成デバイス
100 処理ユニット
110 記憶ユニット
114 プログラムコード
100 処理ユニット
110 記憶ユニット
114 プログラムコード
Claims (9)
- コンピューティングデバイスにおいて、アバター用の3D顔形状を生成する方法であって、
2D画像を得るステップと、
前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、
前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、
前記2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、前記2D画像の複数の顔特徴の各々を分類し、前記顔特徴が前記テクスチャ成分に属する確率を得るステップであって、前記テクスチャ成分は、3D顔メッシュにより表され、前記コンピューティングデバイスにおいて予め規定されている、ステップと、
前記顔特徴の前記複数の分類に対応する3Dパラメータ、対応する前記重み、及び、最も高い確率を有するテクスチャ成分とともに、前記コンピューティングデバイスにおいて予め規定されている3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、
を含む、方法。 - 前記テクスチャ成分は、唇色、目の下のたるみ、眉テクスチャ、顔ひげテクスチャ、髪色、髪型、及びモーフターゲットを含む、請求項1に記載の方法。
- 前記眉テクスチャは、高いアーチ、濃い、細い、真っ直ぐ、及び、なめらかなアーチを含み、前記顔ひげテクスチャは、やぎひげ、耳前からのあごひげ、無精ひげ、カーテンのようなあごひげ、スペードのようなひげ、もみあげとつながり上端が細く下端が広がったほおひげ、古いオランダ人のようなひげ、及び流行のひげを含み、前記髪色は、黒、茶、金、及びグレーを含み、前記モーフターゲットは、尖った鼻、だんご鼻、上向きの鼻、及びわし鼻を含み、前記髪型は、ショート、ミディアム、ロング、及び毛無を含む、請求項2に記載の方法。
- 前記複数の顔特徴は、顔形状、目、眉、鼻、及び口を含む、請求項1に記載の方法。
- 前記ランドマークの前記相対距離に基づいて、前記顔特徴の前記複数の分類のうちの少なくとも1つの分類を決定するステップ
をさらに含む、請求項4に記載の方法。 - 前記ランドマークの前記相対距離に基づいて、前記顔特徴の前記複数の分類のうちの少なくとも1つの分類を決定することは、
前記ランドマークの前記相対距離に基づいて、前記顔特徴の幅及び長さを決定して、前記顔特徴の比を得ることと、
前記比に基づいて、前記顔特徴の前記少なくとも1つの分類を決定することと、
を含む、請求項5に記載の方法。 - 前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定することは、
前記ランドマークの前記相対距離に基づいて、前記顔特徴の幅及び長さを決定して、前記顔特徴の比を得ることと、
前記比に基づいて、前記顔特徴の前記複数の分類についての重みを決定することと、
を含む、請求項1に記載の方法。 - アバターシミュレーションシステムであって、
2D画像を得るカメラと、
3D顔モデルを生成するコンピューティングデバイス又はクラウドと、
を有し、
前記コンピューティングデバイス又は前記クラウドは、
プログラムを実行する処理ユニットと、
前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、
2D画像を得るステップと、
前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、
前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている、ステップと、
前記2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、前記2D画像の複数の顔特徴の各々を分類し、前記顔特徴が前記テクスチャ成分に属する確率を得るステップであって、前記テクスチャ成分は、3D顔メッシュにより表され、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている、ステップと、
前記顔特徴の前記複数の分類に対応する3Dパラメータ、対応する前記重み、及び、最も高い確率を有するテクスチャ成分とともに、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、
を実行するように、前記処理ユニットに命令する、記憶ユニットと、
を含む、アバターシミュレーションシステム。 - アバター用の3D顔形状を生成するコンピューティングデバイスであって、
プログラムを実行する処理ユニットと、
前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、
2D画像を得るステップと、
前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、
前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、
前記2D画像に対して深層ニューラルネットワーク(DNN)動作を実行して、テクスチャ成分として、前記2D画像の複数の顔特徴の各々を分類し、前記顔特徴が前記テクスチャ成分に属する確率を得るステップであって、前記テクスチャ成分は、3D顔メッシュにより表され、前記コンピューティングデバイスにおいて予め規定されている、ステップと、
前記顔特徴の前記複数の分類に対応する3Dパラメータ、対応する前記重み、及び、最も高い確率を有するテクスチャ成分とともに、前記コンピューティングデバイスにおいて予め規定されている3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、
を実行するように、前記処理ユニットに命令する、記憶ユニットと、
を有する、コンピューティングデバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/389,984 US10650564B1 (en) | 2019-04-21 | 2019-04-21 | Method of generating 3D facial model for an avatar and related device |
US16/389,984 | 2019-04-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020177620A true JP2020177620A (ja) | 2020-10-29 |
Family
ID=70612957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096502A Pending JP2020177620A (ja) | 2019-04-21 | 2019-05-23 | アバター用の3d顔モデルを生成する方法及び関連デバイス |
Country Status (4)
Country | Link |
---|---|
US (1) | US10650564B1 (ja) |
JP (1) | JP2020177620A (ja) |
CN (1) | CN111833236B (ja) |
TW (1) | TW202040517A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022020054A (ja) * | 2020-11-09 | 2022-01-31 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 3次元アバタ生成方法、装置、電子機器及び記憶媒体 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111385598A (zh) * | 2018-12-29 | 2020-07-07 | 富泰华工业(深圳)有限公司 | 云端装置、终端装置及影像分类方法 |
CN110111246B (zh) * | 2019-05-15 | 2022-02-25 | 北京市商汤科技开发有限公司 | 一种虚拟头像生成方法及装置、存储介质 |
US20240029345A1 (en) * | 2019-11-18 | 2024-01-25 | Wolfprint 3D Oü | Methods and system for generating 3d virtual objects |
US20210358144A1 (en) * | 2020-05-15 | 2021-11-18 | Koninklijke Philips N.V. | Determining 3-d facial information of a patient from a 2-d frontal image of the patient |
CN111968207B (zh) * | 2020-09-25 | 2021-10-29 | 魔珐(上海)信息科技有限公司 | 动画生成方法、装置、系统及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100608840B1 (ko) * | 2005-03-11 | 2006-08-08 | 엘지전자 주식회사 | 휴대단말기의 3차원 아바타 합성방법 |
JP2009223419A (ja) * | 2008-03-13 | 2009-10-01 | Sannetto:Kk | ネットワークチャットサービスにおけるアバターの作成編集方法、チャットサービスシステム、および画像データの作成編集方法 |
JP2016136324A (ja) * | 2015-01-23 | 2016-07-28 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法 |
WO2018057272A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Avatar creation and editing |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7424164B2 (en) * | 2003-04-21 | 2008-09-09 | Hewlett-Packard Development Company, L.P. | Processing a detected eye of an image to provide visual enhancement |
US20040208388A1 (en) * | 2003-04-21 | 2004-10-21 | Morgan Schramm | Processing a facial region of an image differently than the remaining portion of the image |
JP4121026B2 (ja) * | 2004-01-21 | 2008-07-16 | 富士フイルム株式会社 | 撮像装置および方法並びにプログラム |
US7415140B2 (en) * | 2004-01-27 | 2008-08-19 | Seiko Epson Corporation | Method of correcting deviation of detection position for human face, correction system, and correction program |
TW200530943A (en) * | 2004-03-08 | 2005-09-16 | Avermedia Tech Inc | Digital security system |
US7436988B2 (en) * | 2004-06-03 | 2008-10-14 | Arizona Board Of Regents | 3D face authentication and recognition based on bilateral symmetry analysis |
US7869630B2 (en) * | 2005-03-29 | 2011-01-11 | Seiko Epson Corporation | Apparatus and method for processing image |
CN1959736A (zh) * | 2005-11-02 | 2007-05-09 | 绘展科技股份有限公司 | 撷取三维脸部影像的系统及方法 |
TWI382354B (zh) * | 2008-12-02 | 2013-01-11 | Nat Univ Tsing Hua | 臉部辨識方法 |
CN101763636B (zh) * | 2009-09-23 | 2012-07-04 | 中国科学院自动化研究所 | 视频序列中的三维人脸位置和姿态跟踪的方法 |
CN101751689B (zh) * | 2009-09-28 | 2012-02-22 | 中国科学院自动化研究所 | 一种三维人脸重建方法 |
US11232290B2 (en) * | 2010-06-07 | 2022-01-25 | Affectiva, Inc. | Image analysis using sub-sectional component evaluation to augment classifier usage |
US9600711B2 (en) * | 2012-08-29 | 2017-03-21 | Conduent Business Services, Llc | Method and system for automatically recognizing facial expressions via algorithmic periocular localization |
CN104715505A (zh) * | 2015-03-19 | 2015-06-17 | 启云科技股份有限公司 | 三维头像产生系统及其装置、产生方法 |
US10284816B2 (en) * | 2015-03-23 | 2019-05-07 | Intel Corporation | Facilitating true three-dimensional virtual representation of real objects using dynamic three-dimensional shapes |
WO2017000300A1 (en) * | 2015-07-02 | 2017-01-05 | Xiaoou Tang | Methods and systems for social relation identification |
CN105095881B (zh) * | 2015-08-21 | 2023-04-07 | 小米科技有限责任公司 | 人脸识别方法、装置及终端 |
US10339365B2 (en) * | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
CN105930497B (zh) * | 2016-05-06 | 2019-05-24 | 浙江工业大学 | 基于图像边缘和线条特征的三维模型检索方法 |
TWI637353B (zh) * | 2016-05-26 | 2018-10-01 | 華碩電腦股份有限公司 | 測量裝置及測量方法 |
US9886640B1 (en) * | 2016-08-08 | 2018-02-06 | International Business Machines Corporation | Method and apparatus to identify a live face image using a thermal radiation sensor and a visual radiation sensor |
US10497172B2 (en) * | 2016-12-01 | 2019-12-03 | Pinscreen, Inc. | Photorealistic facial texture inference using deep neural networks |
US10535163B2 (en) * | 2016-12-01 | 2020-01-14 | Pinscreen, Inc. | Avatar digitization from a single image for real-time rendering |
CN106652025B (zh) * | 2016-12-20 | 2019-10-01 | 五邑大学 | 一种基于视频流与人脸多属性匹配的三维人脸建模方法和打印装置 |
US20180190377A1 (en) * | 2016-12-30 | 2018-07-05 | Dirk Schneemann, LLC | Modeling and learning character traits and medical condition based on 3d facial features |
CN107274493B (zh) * | 2017-06-28 | 2020-06-19 | 河海大学常州校区 | 一种基于移动平台的三维虚拟试发型人脸重建方法 |
CN109325437B (zh) * | 2018-09-17 | 2021-06-22 | 北京旷视科技有限公司 | 图像处理方法、装置和系统 |
-
2019
- 2019-04-21 US US16/389,984 patent/US10650564B1/en active Active
- 2019-05-22 TW TW108117644A patent/TW202040517A/zh unknown
- 2019-05-23 JP JP2019096502A patent/JP2020177620A/ja active Pending
- 2019-05-31 CN CN201910466467.8A patent/CN111833236B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100608840B1 (ko) * | 2005-03-11 | 2006-08-08 | 엘지전자 주식회사 | 휴대단말기의 3차원 아바타 합성방법 |
JP2009223419A (ja) * | 2008-03-13 | 2009-10-01 | Sannetto:Kk | ネットワークチャットサービスにおけるアバターの作成編集方法、チャットサービスシステム、および画像データの作成編集方法 |
JP2016136324A (ja) * | 2015-01-23 | 2016-07-28 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法 |
WO2018057272A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Avatar creation and editing |
Non-Patent Citations (2)
Title |
---|
@RANWENSHENG: "顔ランドマーク検出論文サーベイ", [ONLINE], JPN7020002147, 25 February 2019 (2019-02-25), ISSN: 0004311157 * |
竹内充: "修士論文「顔画像からのパーツ選択によるアバター自動生成」", [ONLINE], JPN7020002146, 23 March 2009 (2009-03-23), ISSN: 0004311156 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022020054A (ja) * | 2020-11-09 | 2022-01-31 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 3次元アバタ生成方法、装置、電子機器及び記憶媒体 |
JP7212741B2 (ja) | 2020-11-09 | 2023-01-25 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 3次元アバタ生成方法、装置、電子機器及び記憶媒体 |
US11587300B2 (en) | 2020-11-09 | 2023-02-21 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for generating three-dimensional virtual image, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
CN111833236B (zh) | 2023-07-07 |
US10650564B1 (en) | 2020-05-12 |
CN111833236A (zh) | 2020-10-27 |
TW202040517A (zh) | 2020-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7191213B2 (ja) | 顔モデルの生成方法、装置、電子機器及びコンピュータ可読記憶媒体 | |
JP2020177620A (ja) | アバター用の3d顔モデルを生成する方法及び関連デバイス | |
US10559111B2 (en) | Systems and methods for generating computer ready animation models of a human head from captured data images | |
US10169905B2 (en) | Systems and methods for animating models from audio data | |
Liao et al. | Automatic caricature generation by analyzing facial features | |
JP3984191B2 (ja) | 仮想化粧装置及びその方法 | |
JP2020177615A (ja) | アバター用の3d顔モデルを生成する方法及び関連デバイス | |
CN105405157B (zh) | 肖像画生成装置、肖像画生成方法 | |
CN108629339A (zh) | 图像处理方法及相关产品 | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
JP2024500896A (ja) | 3d頭部変形モデルを生成するための方法、システム及び方法 | |
CN113628327A (zh) | 一种头部三维重建方法及设备 | |
JP7462120B2 (ja) | 2次元(2d)顔画像から色を抽出するための方法、システム及びコンピュータプログラム | |
CN115689869A (zh) | 一种视频美妆迁移方法及系统 | |
CN114283052A (zh) | 妆容迁移及妆容迁移网络的训练方法和装置 | |
JP2024506170A (ja) | 個人化された3d頭部モデルおよび顔モデルを形成するための方法、電子装置、およびプログラム | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
EP3731189A1 (en) | Method of generating 3d facial model for an avatar and related device | |
CN116542846B (zh) | 用户账号图标生成方法、装置、计算机设备及存储介质 | |
EP3731132A1 (en) | Method of generating 3d facial model for an avatar and related device | |
Kumari et al. | Age progression for elderly people using image morphing | |
CN117726725A (zh) | 一种3d宠物角色生成控制方法及相关设备 | |
Lee et al. | 3d face deformation using control points and vector muscles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210323 |