JP2020177615A - アバター用の3d顔モデルを生成する方法及び関連デバイス - Google Patents
アバター用の3d顔モデルを生成する方法及び関連デバイス Download PDFInfo
- Publication number
- JP2020177615A JP2020177615A JP2019094283A JP2019094283A JP2020177615A JP 2020177615 A JP2020177615 A JP 2020177615A JP 2019094283 A JP2019094283 A JP 2019094283A JP 2019094283 A JP2019094283 A JP 2019094283A JP 2020177615 A JP2020177615 A JP 2020177615A
- Authority
- JP
- Japan
- Prior art keywords
- face
- classifications
- landmark
- facial features
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【課題】コンピューティングデバイスにおいて使用される、アバター用の3D顔形状を生成する方法を提供すること。【解決手段】本方法は、2D画像を得るステップと、2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、ランドマークの相対距離に基づいて、顔特徴の複数の分類についての重みを決定するステップであって、複数の分類は、コンピューティングデバイスにおいて予め規定されている、ステップと、顔特徴の複数の分類に対応する3Dパラメータ及び重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、を含む。【選択図】図2
Description
本開示は、3D顔復元に関し、より詳細には、ゲーム及びシミュレーションのために、単一2D画像から3D顔モデルを生成する方法に関する。
2D画像を用いた3D顔モデルの復元は、ゲームへの没入感及びシミュレーション設計のための継続中の課題である。例えば、ユーザは、スクリーン上で見ているアバターがあたかも自分自身であり、アバターの体験が自分自身の体験であるかのように感じることを望む。そのため、人の自身の外観をゲーム又はシミュレーションに挿入する目的で、3D顔復元の領域において、多くの研究がなされている。しかしながら、ほとんどの既存の方法は、3D顔モデルを生成するために、少なくとも2つの画像及び複雑な計算を必要とする。
過去において、単一画像を用いた顔復元のために、いくつかの方法が提案されている。それらの方法のうちで、例に基づく方法は、まず、例の集合から、3D顔モデルの低次元パラメトリック表現を構築し、次いで、パラメトリックモデルを入力2D画像に当てはめる。周知の例のうちの1つは、畳み込みニューラルネットワーク(CNN)とともに適用される3Dモーフィングモデル(3DMM)である。3DMMは、その単純さに起因して、普及しているパラメトリック顔モデルであり、他のより高度な顔復元方法の基礎となっている。しかしながら、そのような方法は、個々の特徴を含む顔を生成することができず、特定の条件下で顔認識のために使用され得るだけである。加えて、十分なトレーニングデータの欠如は、CNNにおける大きな問題であり、したがって、浅い残差ネットワークになる。
単一画像復元に対する別の手法は、これを、陰影の変化からの典型的なコンピュータビジョン問題の3D形状復元であるSFS(shape from shading)として解決することである。例えば、Kemelmacher-Shlizerman及びBasriは、基準顔形状を用いて、照明パラメータ及び反射率パラメータを推定することにより、顔入力画像から、奥行き情報を復元している。これらの既存の手法は、単一画像から、高い質の復元をもたらし得るが、制限も付随する。
3DMM方法は、単純で効率的であるが、対象とする顔が、例の集合における顔と大きく異なる場合には、満足のいかない結果をもたらし得る。さらに、低次元モデルの制限された自由度に起因して、この方法は、対象とする顔に固有の微細な形状詳細(しわ等)を再生成することができないことが多い。一方、SFSに基づく方法は、入力画像の外観から、微細スケールの顔詳細を捕捉することができる。しかしながら、これは、復元問題の曖昧さを解決するために、形状又は照明に関する前もっての知識を必要とし、入力画像が仮定を満たさない場合には不正確になり得る。
したがって、上記の問題を解決するための、3D顔モデルを生成する方法を提供することが目的である。
本開示は、コンピューティングデバイスにおいて使用される、アバター用の3D顔形状を生成する方法を開示する。当該方法は、2D画像を得るステップと、前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、前記顔特徴の前記複数の分類に対応する3Dパラメータ及び前記重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、を含む。
本開示は、アバターシミュレーションシステムを開示する。当該アバターシミュレーションシステムは、2D画像を得るカメラと、アバター用の3D顔モデルを生成するコンピューティングデバイス又はクラウドと、を有し、前記コンピューティングデバイス又は前記クラウドは、プログラムを実行する処理ユニットと、前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、2D画像を得るステップと、前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている、ステップと、前記顔特徴の前記複数の分類に対応する3Dパラメータ及び前記重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、を実行するように、前記処理ユニットに命令する、記憶ユニットと、を含む。
本開示は、アバター用の3D顔形状を生成するコンピューティングデバイスを開示する。当該コンピューティングデバイスは、プログラムを実行する処理ユニットと、前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、2D画像を得るステップと、前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、前記顔特徴の前記複数の分類に対応する3Dパラメータ及び前記重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、を実行するように、前記処理ユニットに命令する、記憶ユニットと、を有する。
本発明のこのような目的及び他の目的は、様々な図に例示されている好ましい実施形態の以下の詳細な説明を読んだ後、当業者に疑いなく明らかになるであろう。
図1は、本開示の一実施形態に従った3D顔形状生成デバイス10の概略図である。3D顔形状生成デバイス10は、ローカルコンピューティングデバイス又はクラウドであってよく、マイクロプロセッサ又は特定用途向け集積回路(ASIC)等の処理ユニット100と、記憶ユニット110と、通信インタフェースユニット120と、を含む。記憶ユニット110は、処理ユニット100によりアクセスされる、プログラムコード114を記憶することができる任意のデータ記憶デバイスであってよい。記憶ユニット110の例は、加入者識別モジュール(SIM)、読み取り専用メモリ(ROM)、フラッシュメモリ、ランダムアクセスメモリ(RAM)、CD−ROM、磁気テープ、ハードディスク、及び光データ記憶デバイスを含むが、これらに限定されるものではない。通信インタフェースユニット120は、処理ユニット100の処理結果に従って、カメラ及び/又はディスプレイデバイス(図1には示されていない)と信号を交換するための有線通信又は無線通信に対して適用される。すなわち、3D顔形状生成デバイス10の通信インタフェースユニット120は、カメラから2D画像を受信するために使用され、生成された3D顔モデルをディスプレイデバイスに送信するために使用されてよい。したがって、ディスプレイデバイスは、VRへの没入感を増大させるために、生成された3D顔モデルを用いてアバターを表示することができる。一実施形態において、カメラ、ディスプレイデバイス、及び、ローカルコンピューティングデバイス又はクラウドである3D顔形状生成デバイス10は、アバターシミュレーションシステムを形成する。
図2を参照すると、本開示の一実施形態に従ったプロセス20のフローチャートが示されている。プロセス20は、ゲーム(例えばVRゲーム)及びシミュレーション(例えばアバター)のために単一2D画像に基づいて3D顔モデルを生成するために、図1の3D顔形状生成デバイス10において使用されてよい。プロセス20は、記憶ユニット110に記憶されるプログラムコード114にコンパイルされてよく、以下のステップを含んでよい。
ステップ200:2D画像を得る。
ステップ210:2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得る。
ステップ220:ランドマークの相対距離に基づいて、顔特徴の複数の分類についての重みを決定し、ここで、顔特徴の複数の分類は、3D顔形状生成デバイス10において予め規定されている。
ステップ230:顔特徴の複数の分類に対応する3Dパラメータ及び重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成する。
プロセス20に従って、3D顔形状生成デバイス10は、通信インタフェースユニットにより、カメラから;複数の2D画像を予め記憶している記憶ユニット110から;又は、インターネット/ウェブサイト上のデータベースから;1つの2D画像を受信し、次いで、ランドマーク検出動作により、1つの2D画像に基づいて、3D顔モデルを生成する。
詳細には、3D顔形状生成デバイス10は、各顔特徴の分類を認識するために、2D画像上のランドマークに基づいて、顔形状、目、眉、鼻、及び口等の顔特徴を抽出する。
一実施形態において、顔特徴の分類は、アプリケーション/ソフトウェアにおいて予め規定されている又は設計されている。図3を参照すると、図3は、本開示の一実施形態に従った顔形状タイプの概略図である。図3に示されているように、顔形状は、丸い顔、角ばった顔、長い顔、ハート形の顔、菱形の顔、又は楕円形の顔に分類され得るが、このように限定されるものではない。各形状タイプ/分類について、設計者は、顔形状のジオメトリに関連付けられる3Dパラメータを設定することに留意されたい。すなわち、各顔形状タイプ/分類は、3Dパラメータにより表される。この項目における3Dパラメータは、あごの幅及び長さの湾曲に対応するパラメータの集合であり得るが、このように限定されるものではない。
同様に、目、眉、鼻、及び口も、複数のタイプに分類される。例えば、目形状は、目じりが上がっている目、目じりが下がっている目、丸い目、間隔の狭い目、間隔の広い目、切れ長の目、一重まぶたの目、出目、及び奥二重の目を含む。口形状は、薄い唇、大きなふっくらした唇、楕円形の唇、への字型の唇、とがった唇、及び小さい唇を含む。鼻形状は、高い鼻、低い鼻、とがった鼻、丸い鼻、及びわし鼻を含む。
顔特徴の分類に基づいて、3D顔形状生成デバイス10は、人工知能(AI)/機械学習技術を用いて、顔特徴の各分類についての重みを決定する。例えば、丸い顔、角ばった顔、長い顔、ハート形の顔、菱形の顔、及び楕円形の顔等の6つのタイプの顔形状が存在し、6つのタイプの顔形状は、以下の式における3DパラメータT1〜T6として表される。AI/機械学習技術を適用することにより、3D顔形状生成デバイス10は、ランドマーク顔形状が、6つの顔タイプに属する確率を計算し、確率に基づいて、6つの顔タイプについての、以下の式におけるW1〜W6として表される重みを決定することができる。3D顔形状が、生成され得、3D顔モデル=S0+T1W1+T2W2...+T6W6(S0は、3D顔形状テンプレートである)により表される。
一実施形態において、重みの決定は、2D画像上のランドマークの相対距離に依拠し得る。例えば、6つのタイプの顔形状の、ランドマークの相対距離に基づいて計算され得る予め規定されているアスペクト比に基づいて、3D顔形状生成デバイス10は、2D画像上のマークされた顔形状が、顔形状の6つのタイプに属する確率を認識する。
そのようなやり方で、3D顔形状生成デバイス10は、目、鼻、口、及び眉という各タイプ/分類についての重みを決定し、したがって、アバター用の完全で正確な3D顔モデルを生成する。例えば、9つのタイプの目形状が存在し、したがって、3D顔モデルは、3D顔モデル=S0+T1W1+T2W2...+T9W9(S0は、3D目形状テンプレートであり、T1〜T9は、目形状に関連付けられる3Dパラメータであり、W1〜W9は、9つのタイプの目形状に対応する重みである)により表される。
一実施形態において、顔形状タイプ/分類は決定されず、3D顔形状生成デバイス10は、確率に基づいて、各顔形状タイプについての重みを決定する。しかしながら、他の実施形態においては、1つ以上の顔形状タイプが決定され(すなわち、予め規定されているアスペクト比を、2D画像上のマークされた顔形状と比較することにより)、次いで、決定された1つ以上の顔形状タイプについての1つ以上の重みが計算される。
一実施形態において、ランドマーク検出動作は、顔特徴分類(すなわち顔形状予測)を実現するために、2D画像上での顔検出のためのDlib顔ランドマーク検出器を用いて適用される。詳細には、Dlib顔ランドマーク検出器は、図4に示されているように、所与の画像内で顔を検出し、次いで、図5に示されているように、顔ランドマーク点(画像座標における68点)を出力する。最後に、重みの決定のための上述したAI/機械学習技術を用いて、3D顔形状生成デバイス10は、図6に示されているように、3D顔モデルを生成する。
ランドマーク検出動作についての詳細な動作は、以下の通りである。
1.トレーニングデータ(ラベル付けされた顔ランドマークを含む画像)を準備する。
2.以下の2.1.〜2.3.を伴う「カスケード型回帰(cascaded regression)」に基づく、dlibの回帰木を用いることにより、顔ランドマークモデルをトレーニングする。
2.1.各カスケードにおいて500の木がある10のカスケード
2.2.二乗誤差損失等の損失関数
2.3.学習率:0.1
3.顔ランドマークモデルをデプロイする。
1.トレーニングデータ(ラベル付けされた顔ランドマークを含む画像)を準備する。
2.以下の2.1.〜2.3.を伴う「カスケード型回帰(cascaded regression)」に基づく、dlibの回帰木を用いることにより、顔ランドマークモデルをトレーニングする。
2.1.各カスケードにおいて500の木がある10のカスケード
2.2.二乗誤差損失等の損失関数
2.3.学習率:0.1
3.顔ランドマークモデルをデプロイする。
提案されているステップを含む、プロセスの上述したステップは、ハードウェア;ハードウェアデバイスと、ハードウェアデバイス上に読み取り専用ソフトウェアとして存在するコンピュータ命令及びデータと、の組み合わせとして知られているファームウェア;又は、電子システム;であり得る手段により実現され得る。ハードウェアの例は、マイクロ回路、マイクロチップ、又はシリコンチップとして知られている、アナログ回路、デジタル回路、及び混合回路を含み得る。電子システムの例は、システムオンチップ(SOC)、システムインパッケージ(SiP)、コンピュータオンモジュール(COM)、及び3D顔形状生成デバイス10を含み得る。
まとめると、本開示は、ランドマーク検出動作により、3D顔復元に対処する。詳細には、最も高い質の最も写実的な3D顔モデルを生成するために、ランドマーク検出動作の形状予測に基づいて、顔特徴の分類/タイプについての重みが、正確に決定され得る。この方法は、従来の方法に比して、優れた正確さを示している。
当業者は、本発明の教示を保持している間に、デバイス及び方法の多数の変更及び変形が可能であることを観察するであろう。したがって、上記の開示は、請求項の範囲及び境界によってのみ限定されるとして解釈されるべきである。
10 3D顔形状生成デバイス
100 処理ユニット
110 記憶ユニット
114 プログラムコード
100 処理ユニット
110 記憶ユニット
114 プログラムコード
Claims (7)
- コンピューティングデバイスにおいて使用される、アバター用の3D顔形状を生成する方法であって、
2D画像を得るステップと、
前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、
前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、
前記顔特徴の前記複数の分類に対応する3Dパラメータ及び前記重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、
を含む、方法。 - 前記顔特徴は、顔形状、目、眉、鼻、及び口を含む、請求項1に記載の方法。
- 前記ランドマークの前記相対距離に基づいて、前記顔特徴の前記複数の分類のうちの少なくとも1つの分類を決定するステップ
をさらに含む、請求項2に記載の方法。 - 前記ランドマークの前記相対距離に基づいて、前記顔特徴の前記複数の分類のうちの少なくとも1つの分類を決定することは、
前記ランドマークの前記相対距離に基づいて、前記顔特徴の幅及び長さを決定して、前記顔特徴の比を得ることと、
前記比に基づいて、前記顔特徴の前記少なくとも1つの分類を決定することと、
を含む、請求項3に記載の方法。 - 前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定することは、
前記ランドマークの前記相対距離に基づいて、前記顔特徴の幅及び長さを決定して、前記顔特徴の比を得ることと、
前記比に基づいて、前記顔特徴の前記複数の分類についての重みを決定することと、
を含む、請求項1に記載の方法。 - アバターシミュレーションシステムであって、
2D画像を得るカメラと、
アバター用の3D顔モデルを生成するコンピューティングデバイス又はクラウドと、
を有し、
前記コンピューティングデバイス又は前記クラウドは、
プログラムを実行する処理ユニットと、
前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、
2D画像を得るステップと、
前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、
前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイス又は前記クラウドにおいて予め規定されている、ステップと、
前記顔特徴の前記複数の分類に対応する3Dパラメータ及び前記重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、
を実行するように、前記処理ユニットに命令する、記憶ユニットと、
を含む、アバターシミュレーションシステム。 - アバター用の3D顔形状を生成するコンピューティングデバイスであって、
プログラムを実行する処理ユニットと、
前記プログラムを記憶する、前記処理ユニットに接続されている記憶ユニットであって、前記プログラムは、
2D画像を得るステップと、
前記2D画像に対してランドマーク検出動作を実行して、ランドマークを用いて少なくとも1つの顔特徴を得るステップと、
前記ランドマークの相対距離に基づいて、前記顔特徴の複数の分類についての重みを決定するステップであって、前記複数の分類は、前記コンピューティングデバイスにおいて予め規定されている、ステップと、
前記顔特徴の前記複数の分類に対応する3Dパラメータ及び前記重みとともに3D顔テンプレートに基づいて、3D顔モデルを生成するステップと、
を実行するように、前記処理ユニットに命令する、記憶ユニットと、
を有する、コンピューティングデバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/384,889 | 2019-04-15 | ||
US16/384,889 US20200327726A1 (en) | 2019-04-15 | 2019-04-15 | Method of Generating 3D Facial Model for an Avatar and Related Device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020177615A true JP2020177615A (ja) | 2020-10-29 |
Family
ID=72747526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019094283A Pending JP2020177615A (ja) | 2019-04-15 | 2019-05-20 | アバター用の3d顔モデルを生成する方法及び関連デバイス |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200327726A1 (ja) |
JP (1) | JP2020177615A (ja) |
CN (1) | CN111832372A (ja) |
TW (1) | TW202040421A (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10936178B2 (en) | 2019-01-07 | 2021-03-02 | MemoryWeb, LLC | Systems and methods for analyzing and organizing digital photos and videos |
WO2020248789A1 (en) * | 2019-06-11 | 2020-12-17 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and system for facial landmark detection using facial component-specific local refinement |
CN110288716B (zh) * | 2019-06-14 | 2023-08-08 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
US20220222814A1 (en) * | 2021-01-14 | 2022-07-14 | Motahare Amiri Kamalabad | System and method for facial and dental photography, landmark detection and mouth design generation |
US11417053B1 (en) * | 2021-03-15 | 2022-08-16 | Tencent America LLC | Methods and systems for forming personalized 3D head and facial models |
US20230237840A1 (en) * | 2022-01-26 | 2023-07-27 | Didimo, Inc. | Systems, Methods and Media for Deep Shape Prediction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10240962A (ja) * | 1996-12-25 | 1998-09-11 | Omron Corp | 画像作成装置、画像作成方法及び画像作成プログラム記憶媒体 |
KR100608840B1 (ko) * | 2005-03-11 | 2006-08-08 | 엘지전자 주식회사 | 휴대단말기의 3차원 아바타 합성방법 |
JP2014093043A (ja) * | 2012-11-06 | 2014-05-19 | Kao Corp | 顔画像分析装置及び顔画像分析方法 |
JP2016136324A (ja) * | 2015-01-23 | 2016-07-28 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2543893A (en) * | 2015-08-14 | 2017-05-03 | Metail Ltd | Methods of generating personalized 3D head models or 3D body models |
US11026634B2 (en) * | 2017-04-05 | 2021-06-08 | doc.ai incorporated | Image-based system and method for predicting physiological parameters |
-
2019
- 2019-04-15 US US16/384,889 patent/US20200327726A1/en not_active Abandoned
- 2019-05-20 JP JP2019094283A patent/JP2020177615A/ja active Pending
- 2019-05-21 TW TW108117420A patent/TW202040421A/zh unknown
- 2019-05-22 CN CN201910429198.8A patent/CN111832372A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10240962A (ja) * | 1996-12-25 | 1998-09-11 | Omron Corp | 画像作成装置、画像作成方法及び画像作成プログラム記憶媒体 |
KR100608840B1 (ko) * | 2005-03-11 | 2006-08-08 | 엘지전자 주식회사 | 휴대단말기의 3차원 아바타 합성방법 |
JP2014093043A (ja) * | 2012-11-06 | 2014-05-19 | Kao Corp | 顔画像分析装置及び顔画像分析方法 |
JP2016136324A (ja) * | 2015-01-23 | 2016-07-28 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法 |
Non-Patent Citations (2)
Title |
---|
@RANWENSHENG: "顔ランドマーク検出論文サーベイ", [ONLINE], JPN7020002145, 25 February 2019 (2019-02-25), ISSN: 0004310739 * |
竹内充: "修士論文「顔画像からのパーツ選択によるアバター自動生成」", [ONLINE], JPN7020002144, 23 March 2009 (2009-03-23), ISSN: 0004310738 * |
Also Published As
Publication number | Publication date |
---|---|
CN111832372A (zh) | 2020-10-27 |
US20200327726A1 (en) | 2020-10-15 |
TW202040421A (zh) | 2020-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102523512B1 (ko) | 얼굴 모델의 생성 | |
JP2020177615A (ja) | アバター用の3d顔モデルを生成する方法及び関連デバイス | |
US10169905B2 (en) | Systems and methods for animating models from audio data | |
US10860838B1 (en) | Universal facial expression translation and character rendering system | |
CN111833236B (zh) | 产生模拟用户的三维脸部模型的方法及装置 | |
JP4950787B2 (ja) | 画像処理装置及びその方法 | |
KR20150108888A (ko) | 제스처 인식을 위한 부분 및 상태 검출 | |
US20220148333A1 (en) | Method and system for estimating eye-related geometric parameters of a user | |
CN109934065A (zh) | 一种用于手势识别的方法和装置 | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
EP3095072A1 (en) | Contour-based classification of objects | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN112270747A (zh) | 一种人脸识别方法、装置及电子设备 | |
CN109035380B (zh) | 基于三维重建的人脸修饰方法、装置、设备及存储介质 | |
US20220277586A1 (en) | Modeling method, device, and system for three-dimensional head model, and storage medium | |
EP3731132A1 (en) | Method of generating 3d facial model for an avatar and related device | |
KR100473593B1 (ko) | 3차원 캐리커쳐 생성 장치 및 방법 | |
EP3731189A1 (en) | Method of generating 3d facial model for an avatar and related device | |
WO2023148964A1 (ja) | 照合装置、照合方法、およびプログラム | |
Ouhyoung et al. | Unconventional approaches for facial animation and tracking | |
KR102532848B1 (ko) | 바디 쉐입 기반의 아바타 생성 방법 및 장치 | |
CN116542846B (zh) | 用户账号图标生成方法、装置、计算机设备及存储介质 | |
CN114519761A (zh) | 一种人脸纹理图的生成方法、装置、存储介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210323 |