JP2022024565A - 顔変化出力方法 - Google Patents
顔変化出力方法 Download PDFInfo
- Publication number
- JP2022024565A JP2022024565A JP2020127233A JP2020127233A JP2022024565A JP 2022024565 A JP2022024565 A JP 2022024565A JP 2020127233 A JP2020127233 A JP 2020127233A JP 2020127233 A JP2020127233 A JP 2020127233A JP 2022024565 A JP2022024565 A JP 2022024565A
- Authority
- JP
- Japan
- Prior art keywords
- face
- information
- difference
- image
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 title claims abstract description 220
- 238000000034 method Methods 0.000 title claims abstract description 127
- 230000008569 process Effects 0.000 claims description 35
- 238000010801 machine learning Methods 0.000 claims description 16
- 230000004048 modification Effects 0.000 description 32
- 238000012986 modification Methods 0.000 description 32
- 230000032683 aging Effects 0.000 description 31
- 238000013473 artificial intelligence Methods 0.000 description 30
- 230000001815 facial effect Effects 0.000 description 21
- 230000010365 information processing Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 13
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 239000002537 cosmetic Substances 0.000 description 5
- 102000001554 Hemoglobins Human genes 0.000 description 4
- 108010054147 Hemoglobins Proteins 0.000 description 4
- 239000000049 pigment Substances 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- HWQQCFPHXPNXHC-UHFFFAOYSA-N 6-[(4,6-dichloro-1,3,5-triazin-2-yl)amino]-3',6'-dihydroxyspiro[2-benzofuran-3,9'-xanthene]-1-one Chemical compound C=1C(O)=CC=C2C=1OC1=CC(O)=CC=C1C2(C1=CC=2)OC(=O)C1=CC=2NC1=NC(Cl)=NC(Cl)=N1 HWQQCFPHXPNXHC-UHFFFAOYSA-N 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 235000013402 health food Nutrition 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 210000002374 sebum Anatomy 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
【課題】顔表面テクスチャ又は顔形状の特定状態変化を把握し易いように提示する技術を提供する。
【解決手段】顔変化出力方法は、顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得し、取得された元顔情報が示す顔表面テクスチャ情報若しくは顔形状情報の一方又は両方を学習済みモデルに適用することで予測された変化顔情報を取得し、取得された変化顔情報と取得された元顔情報に基づいて、当該変化顔情報と当該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得し、取得された差異情報を、少なくとも元顔情報が示す顔形状情報又は変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する。
【選択図】図2
【解決手段】顔変化出力方法は、顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得し、取得された元顔情報が示す顔表面テクスチャ情報若しくは顔形状情報の一方又は両方を学習済みモデルに適用することで予測された変化顔情報を取得し、取得された変化顔情報と取得された元顔情報に基づいて、当該変化顔情報と当該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得し、取得された差異情報を、少なくとも元顔情報が示す顔形状情報又は変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する。
【選択図】図2
Description
本発明は、機械学習により得られる学習済みモデル及び顔画像データを用いて、人の顔の特定状態変化を予測し出力する技術に関する。
下記特許文献1には、独立成分分析により顔画像からヘモグロビン色素画像、メラニン色素画像及び陰影画像を抽出し、それら抽出された画像に対して周波数成分分離及び主成分分析を適用して、色ムラの要因となるメラニン色素要因及びヘモグロビン色素要因、並びにしわやたるみ等の凹凸ムラの要因ごとの評価指標を得ることで、顔全体の評価指標を高精度に分析する技術が開示されている。
下記特許文献2には、機械学習により得られた学習済みモデルを用いて加齢化を予測する手法が開示されている。当該学習済みモデルは、顔形状の加齢による変化を予測する形状加齢モデルと、顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、二次元画像から三次元データを予測する三次元化予測モデルとを含む。この手法は、対象画像の特徴点を抽出し、抽出した特徴点を用いて対象画像における顔向きを推定し、三次元化予測モデル及び推定した顔向きに基づいて第1の三次元データを生成し、形状加齢モデルを用いて第1の三次元データから第2の三次元データを生成し、第1の三次元データに基づいて生成された二次元画像に対してテクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、第2の三次元データに対して加齢化テクスチャを合成して、加齢化顔モデルを生成する。
下記非特許文献1には、色素ベクトル分析によって顔の陰影を削除すること、陰影を削除した顔画像に対して独立成分分析を適用してヘモグロビン成分及びメラニン成分を抽出すること等が開示されている。
下記特許文献2には、機械学習により得られた学習済みモデルを用いて加齢化を予測する手法が開示されている。当該学習済みモデルは、顔形状の加齢による変化を予測する形状加齢モデルと、顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、二次元画像から三次元データを予測する三次元化予測モデルとを含む。この手法は、対象画像の特徴点を抽出し、抽出した特徴点を用いて対象画像における顔向きを推定し、三次元化予測モデル及び推定した顔向きに基づいて第1の三次元データを生成し、形状加齢モデルを用いて第1の三次元データから第2の三次元データを生成し、第1の三次元データに基づいて生成された二次元画像に対してテクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、第2の三次元データに対して加齢化テクスチャを合成して、加齢化顔モデルを生成する。
下記非特許文献1には、色素ベクトル分析によって顔の陰影を削除すること、陰影を削除した顔画像に対して独立成分分析を適用してヘモグロビン成分及びメラニン成分を抽出すること等が開示されている。
Norimichi Tsumura etc., "Image-based skin color and texture analysis/synthesis by extracting hemoglobin and melanin information in the skin," acm Transactions on Graphics, Vol. 22, No. 3.pp. 770-779(2003). (Proceedings of ACM SIGGRAPH 2003)
上述の加齢化予測手法によれば、二次元の顔画像から加齢化テクスチャを予測して加齢化顔モデルを出力することができ、他の分析手法によれば、顔画像を処理して顔表面テクスチャを変化させたり、顔の評価指標を得たりすることができる。
しかしながら、現状の手法には、顔表面テクスチャに関する情報をより分かり易く提示するという点において改善の余地が残る。例えば、予測生成された加齢化モデルは、被写体である対象者にとって望ましくないテクスチャ状態を示している可能性があり、それをそのまま見た対象者はそのモデルに対して不信感を抱き、必要な情報を把握しようとしなくなる可能性がある。
しかしながら、現状の手法には、顔表面テクスチャに関する情報をより分かり易く提示するという点において改善の余地が残る。例えば、予測生成された加齢化モデルは、被写体である対象者にとって望ましくないテクスチャ状態を示している可能性があり、それをそのまま見た対象者はそのモデルに対して不信感を抱き、必要な情報を把握しようとしなくなる可能性がある。
本発明は、顔表面テクスチャ又は顔形状の特定状態変化を把握し易いように提示する技術に関する。
本明細書で「顔表面テクスチャ」とは、顔の肌の表面又は内部に由来する空間分布特徴に相当するものである。「顔表面テクスチャ」の例として、赤みやシミ等の肌の色ムラ等や、肌の光沢、シワ、毛穴、鱗屑等の肌の表面の凹凸或いは粗さのような顔表面の空間的分布を生み出す特徴が挙げられる。また、他の例として、メイクアップ化粧料を塗布した肌においては、塗膜の付着状態や、皮脂分泌がもたらす色ムラ、光沢、表面の凹凸の不均一さのような顔表面の空間的分布を生み出す特徴もあげられる。
また、「特定状態変化」とは、機械学習により得られた学習済みモデルで予測される特定の状態変化であり、時間経過に伴う状態変化である経時変化、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用に伴う状態変化などが例示可能である。
本明細書で「顔表面テクスチャ」とは、顔の肌の表面又は内部に由来する空間分布特徴に相当するものである。「顔表面テクスチャ」の例として、赤みやシミ等の肌の色ムラ等や、肌の光沢、シワ、毛穴、鱗屑等の肌の表面の凹凸或いは粗さのような顔表面の空間的分布を生み出す特徴が挙げられる。また、他の例として、メイクアップ化粧料を塗布した肌においては、塗膜の付着状態や、皮脂分泌がもたらす色ムラ、光沢、表面の凹凸の不均一さのような顔表面の空間的分布を生み出す特徴もあげられる。
また、「特定状態変化」とは、機械学習により得られた学習済みモデルで予測される特定の状態変化であり、時間経過に伴う状態変化である経時変化、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用に伴う状態変化などが例示可能である。
本発明の態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。
本発明の態様は、三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが実行する顔変化出力方法に関する。この顔変化出力方法は、顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、を含む。
また、本発明の別態様は、例えば、上記態様に係る顔変化出力方法を実行可能な顔変化出力装置(情報処理装置、コンピュータ)に関するものであり、上記態様に係る顔変化出力方法をコンピュータに実行させるプログラムに関するものであり、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体に関するものである。この記録媒体は、非一時的な有形の媒体を含む。
本発明の態様は、三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが実行する顔変化出力方法に関する。この顔変化出力方法は、顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、を含む。
また、本発明の別態様は、例えば、上記態様に係る顔変化出力方法を実行可能な顔変化出力装置(情報処理装置、コンピュータ)に関するものであり、上記態様に係る顔変化出力方法をコンピュータに実行させるプログラムに関するものであり、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体に関するものである。この記録媒体は、非一時的な有形の媒体を含む。
上記態様によれば、顔表面テクスチャ又は顔形状の特定状態変化を把握し易いように提示する技術を提供することができる。
以下、本発明の好ましい実施形態の例(以降、本実施形態と表記する)について説明する。なお、以下に説明する本実施形態は例示であり、本発明は以下に挙げる構成に限定されない。
本実施形態に係る顔変化出力方法(以下、本方法と表記する)は、一台以上の情報処理装置が備える一以上のプロセッサにより実行される。
図1は、本方法を実行可能な情報処理装置10のハードウェア構成例を概念的に示す図である。
情報処理装置10は、いわゆるコンピュータであり、CPU11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。情報処理装置10は、据え置き型のPC(Personal Computer)であってもよいし、携帯型のPC、スマートフォン、タブレット等のような携帯端末であってもよい。
図1は、本方法を実行可能な情報処理装置10のハードウェア構成例を概念的に示す図である。
情報処理装置10は、いわゆるコンピュータであり、CPU11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。情報処理装置10は、据え置き型のPC(Personal Computer)であってもよいし、携帯型のPC、スマートフォン、タブレット等のような携帯端末であってもよい。
CPU11は、いわゆるプロセッサであり、一般的なCPU(Central Processing Unit)に加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれ得る。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。
通信ユニット14は、通信網を介した他のコンピュータとの通信や、プリンタ等の他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。
通信ユニット14は、通信網を介した他のコンピュータとの通信や、プリンタ等の他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
情報処理装置10のハードウェア構成は、図1の例に制限されない。情報処理装置10は、図示されていない他のハードウェア要素を含んでもよい。また、各ハードウェア要素の数も、図1の例に制限されない。例えば、情報処理装置10は、複数のCPU11を有していてもよい。また、情報処理装置10は、複数の筐体からなる複数台のコンピュータにより実現されていてもよい。
情報処理装置10は、CPU11によりメモリ12に格納されたコンピュータプログラムが実行されることにより、本方法を実行することができる。このコンピュータプログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13又は通信ユニット14を介してインストールされ、メモリ12に格納される。
情報処理装置10(CPU11)は、教師データを用いた機械学習により得られた学習済みモデルを利用可能である。
ここでの「学習済みモデル」は、教師データを用いた機械学習、即ち教師あり学習により得られたモデルであり、AI(Artificial Intelligence)モデル、機械学習(Machine Learning(ML))モデル等と表記可能である。
本実施形態で利用される学習済みモデルは、回帰分析で得られる回帰式であってもよいし、主成分分析や、ディープラーニング(深層学習)等で得られるニューラルネットワークモデルであってもよく、そのモデルのデータ構造や学習アルゴリズム等は限定されない。例えば、当該学習済みモデルは、コンピュータプログラムとパラメータとの組合せ、複数の関数とパラメータとの組合せなどにより実現される。顔画像は例えば主成分分析を用いて次元削減・コード化の処理が為される。学習済みモデルは、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。また、学習済みモデルは、複数の重回帰式の組合せで構成されてもよいし、一つの重回帰式で構成されてもよい。
学習済みモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
ここでの「学習済みモデル」は、教師データを用いた機械学習、即ち教師あり学習により得られたモデルであり、AI(Artificial Intelligence)モデル、機械学習(Machine Learning(ML))モデル等と表記可能である。
本実施形態で利用される学習済みモデルは、回帰分析で得られる回帰式であってもよいし、主成分分析や、ディープラーニング(深層学習)等で得られるニューラルネットワークモデルであってもよく、そのモデルのデータ構造や学習アルゴリズム等は限定されない。例えば、当該学習済みモデルは、コンピュータプログラムとパラメータとの組合せ、複数の関数とパラメータとの組合せなどにより実現される。顔画像は例えば主成分分析を用いて次元削減・コード化の処理が為される。学習済みモデルは、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。また、学習済みモデルは、複数の重回帰式の組合せで構成されてもよいし、一つの重回帰式で構成されてもよい。
学習済みモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
このように情報処理装置10は、学習済みモデルを利用可能な装置であって顔変化出力方法を実行可能な顔変化出力装置と表記可能である。
以降、本方法で利用される学習済みモデルは、AIモデルと表記される。また、以降の説明では、本方法の実行主体をCPU11として説明する。
以降、本方法で利用される学習済みモデルは、AIモデルと表記される。また、以降の説明では、本方法の実行主体をCPU11として説明する。
[第一実施形態]
以下、第一実施形態に係る顔変化出力方法(以下、第一方法と表記する)について図2を用いて説明する。図2は、第一実施形態に係る顔変化出力方法の処理の流れを示す図である。
以下、第一実施形態に係る顔変化出力方法(以下、第一方法と表記する)について図2を用いて説明する。図2は、第一実施形態に係る顔変化出力方法の処理の流れを示す図である。
第一実施形態で利用されるAIモデルは、時間経過前後の二次元の顔画像データセット及び時間経過前の三次元の顔形状情報の組み合わせを複数含む教師データを用いた機械学習により得られ、二次元の顔画像データから三次元の顔形状情報及びこれに対応する顔表面テクスチャ情報並びに特定状態変化後の顔表面テクスチャ情報を予測可能である。
ここで「AIモデルが三次元の顔形状情報及び顔表面テクスチャ情報を予測可能である」とは、AIモデルから出力される情報に基づいて三次元の顔形状情報及び顔表面テクスチャ情報を取得することができることを意味する。
ここで「AIモデルが三次元の顔形状情報及び顔表面テクスチャ情報を予測可能である」とは、AIモデルから出力される情報に基づいて三次元の顔形状情報及び顔表面テクスチャ情報を取得することができることを意味する。
具体的には、第一実施形態におけるAIモデルは、三次元予測モデル及びテクスチャ変化モデルを少なくとも含む。
三次元予測モデルは、二次元の顔画像データとそれに対応する三次元の顔形状情報とのペアを教師データとする機械学習により得ることができ、二次元の顔画像データから、三次元の顔形状情報を予測可能である。この三次元予測モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能であり、例えば、上述の特許文献2で開示される手法で生成された三次元予測モデルが利用可能である。
第一実施形態で用いられる三次元の顔形状情報は、顔の三次元形状を示す情報であればよく、その形式等は制限されない。但し、当該三次元の顔形状情報は、統計的な処理を可能とするために、どの個体のデータも同数の同じトポロジーのデータ点で表現するべく、モデリングが施された情報とされることが好ましい。更には、当該三次元の顔形状情報は、各データ点が解剖学的に同じ意味をもつよう定義された相同モデルで表現されることがより好ましい。
このため、第一実施形態における三次元の顔形状情報は、各個人の顔形状を解剖学的に対応付けられた同一頂点数及び同一位相幾何構造のポリゴンで標準化して表現する相同モデルであり、三次元座標データで示される。以下の説明では、三次元の顔形状情報を相同モデルと表記する場合もある。
三次元予測モデルは、二次元の顔画像データとそれに対応する三次元の顔形状情報とのペアを教師データとする機械学習により得ることができ、二次元の顔画像データから、三次元の顔形状情報を予測可能である。この三次元予測モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能であり、例えば、上述の特許文献2で開示される手法で生成された三次元予測モデルが利用可能である。
第一実施形態で用いられる三次元の顔形状情報は、顔の三次元形状を示す情報であればよく、その形式等は制限されない。但し、当該三次元の顔形状情報は、統計的な処理を可能とするために、どの個体のデータも同数の同じトポロジーのデータ点で表現するべく、モデリングが施された情報とされることが好ましい。更には、当該三次元の顔形状情報は、各データ点が解剖学的に同じ意味をもつよう定義された相同モデルで表現されることがより好ましい。
このため、第一実施形態における三次元の顔形状情報は、各個人の顔形状を解剖学的に対応付けられた同一頂点数及び同一位相幾何構造のポリゴンで標準化して表現する相同モデルであり、三次元座標データで示される。以下の説明では、三次元の顔形状情報を相同モデルと表記する場合もある。
テクスチャ変化モデルは、特定状態変化前後の顔表面テクスチャ情報を教師データとする機械学習により得られ、特定状態変化前の顔表面テクスチャ情報から特定状態変化後の顔表面テクスチャ情報を予測可能である。テクスチャ変化モデルのデータ構造及び学習手法には様々な周知技術を利用可能である。テクスチャ変化モデルが、経時変化を予測するテクスチャ経時変化モデルとされる場合には、例えば、上述の特許文献2で開示されるテクスチャ加齢モデルの生成手法や学習手法などを用いることができる。例えば、主成分分析を用いたテクスチャ加齢モデルとWAVELET変換を用いたテクスチャ加齢モデルとの両方が利用されてもよいし、どちらか一方が利用されてもよい。また、教師データ及びAIモデルに適用される顔表面テクスチャ情報は、直角座標系以外の円柱座標系等の画像情報とされてもよい。
当該顔表面テクスチャ情報は、顔表面のテクスチャを示す情報であればよく、画像データであってもよいし、画像データ以外の書式のデータであってもよい。本実施形態では、当該顔表面テクスチャ情報は画像データとして説明する。
また、AIモデルにより予測される特定状態変化が経時変化とされる場合には、その経時変化は、年齢、季節、日間、朝夕等の時間経過に伴う変化であり、その経過時間の長さは制限されない。AIモデルは、5年後或いは10年後の加齢変化を予測してもよいし、一週間後或いは一か月後の変化を予測してもよいし、メイクアップ化粧料塗布直後から一定の時間経過後の変化を予測してもよい。このようなAIモデルにより予測される経時変化は、教師データとして利用される時間経過前後の顔画像データセットにより設定することができる。
また、AIモデルは、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用前後の状態変化を予測してもよい。
当該教師データに含まれる二次元の顔画像データは、素顔の画像データであってもよいし、化粧顔の画像データであってもよい。例えば、メイクアップ化粧料塗布直後の化粧顔の画像データとその化粧顔から時間経過に伴い化粧崩れが生じた化粧顔の画像データとのデータセットが教師データとされてもよい。
また、当該教師データは、時間経過前後の同一人の顔画像データセットのみで形成されることが好ましいが、顔の特徴や顔のテクスチャ特徴が似ているなど、特定状態変化前後に相当しうる異なる二人の顔画像データセットを含んでもよいし、特定状態変化前又は特定状態変化後のいずれか一方の顔画像データとその顔画像データに対する画像処理で生成された他方の顔画像データとでデータセットを形成してもよい。
また、AIモデルにより予測される特定状態変化が経時変化とされる場合には、その経時変化は、年齢、季節、日間、朝夕等の時間経過に伴う変化であり、その経過時間の長さは制限されない。AIモデルは、5年後或いは10年後の加齢変化を予測してもよいし、一週間後或いは一か月後の変化を予測してもよいし、メイクアップ化粧料塗布直後から一定の時間経過後の変化を予測してもよい。このようなAIモデルにより予測される経時変化は、教師データとして利用される時間経過前後の顔画像データセットにより設定することができる。
また、AIモデルは、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用前後の状態変化を予測してもよい。
当該教師データに含まれる二次元の顔画像データは、素顔の画像データであってもよいし、化粧顔の画像データであってもよい。例えば、メイクアップ化粧料塗布直後の化粧顔の画像データとその化粧顔から時間経過に伴い化粧崩れが生じた化粧顔の画像データとのデータセットが教師データとされてもよい。
また、当該教師データは、時間経過前後の同一人の顔画像データセットのみで形成されることが好ましいが、顔の特徴や顔のテクスチャ特徴が似ているなど、特定状態変化前後に相当しうる異なる二人の顔画像データセットを含んでもよいし、特定状態変化前又は特定状態変化後のいずれか一方の顔画像データとその顔画像データに対する画像処理で生成された他方の顔画像データとでデータセットを形成してもよい。
テクスチャ変化モデルの教師データとして用いられる顔画像データは、写る顔の向きが正規化されており、更に、当該母集団における各個人の顔の特定パーツ(目、鼻、口等)の位置が正規化された画像データとされることが望ましい。本実施形態では、各個人の顔表面テクスチャを示しかつその顔の相同モデルに適応するように正規化された顔表面テクスチャ情報が教師データとして用いられる。
但し、教師データで用いられる顔画像データは、また、教師データとされる顔画像データは、可視光画像のみでなく、赤外線等の可視光以外の波長帯を撮像した画像であってもよい。
但し、教師データで用いられる顔画像データは、また、教師データとされる顔画像データは、可視光画像のみでなく、赤外線等の可視光以外の波長帯を撮像した画像であってもよい。
図2では、特定状態変化として経時変化を予測するテクスチャ経時変化モデルが例示されており、以下の説明では、図2で示される、特定状態変化として経時変化が予測される例を用いて、第一方法について説明する。但し、第一方法は経時変化に限定されるものではない。
第一方法は、図2に示されるように、工程(S21)から工程(S27)を含んでいる。
工程(S21)は、対象者の二次元の顔画像データ(以降、元顔画像BPと表記する場合がある)を取得するデータ取得工程である。以降の説明では、工程(S21)で取得された顔画像データに写る対象者の顔を元顔又は経時変化前の顔と表記する場合がある。
元顔画像BPのデータは、例えば、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像ファイルとして取得される。但し、画像のデータ形式は、制限されず、各画素の明暗情報が羅列される形式であってもよい。また、取得される画像は、カラー画像であってもよいし、カラー画像がグレースケール化されることで得られるグレースケール画像であってもよい。CPU11は、顔画像を撮像したカメラから元顔画像BPを取得してもよいし、他のコンピュータや可搬型記録媒体から元顔画像BPを取得してもよい。
工程(S21)は、対象者の二次元の顔画像データ(以降、元顔画像BPと表記する場合がある)を取得するデータ取得工程である。以降の説明では、工程(S21)で取得された顔画像データに写る対象者の顔を元顔又は経時変化前の顔と表記する場合がある。
元顔画像BPのデータは、例えば、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像ファイルとして取得される。但し、画像のデータ形式は、制限されず、各画素の明暗情報が羅列される形式であってもよい。また、取得される画像は、カラー画像であってもよいし、カラー画像がグレースケール化されることで得られるグレースケール画像であってもよい。CPU11は、顔画像を撮像したカメラから元顔画像BPを取得してもよいし、他のコンピュータや可搬型記録媒体から元顔画像BPを取得してもよい。
工程(S21)で取得される元顔画像BPでは、その画像の被写体の状態がAIモデルの教師データで用いられた顔画像のそれと整合していることが好ましい。例えば、教師データの顔画像が正面から視た顔表面テクスチャを示している場合には、元顔画像BPも同様に、対象者の正面から視た顔表面テクスチャを示していることが好ましい。
そこで、工程(S21)では、取得された顔画像データに対して、AIモデルの教師データの顔画像と適合させる正規化処理を施すことで、元顔画像BPを取得するようにしてもよい。この正規化処理では、例えば、画像データ内の顔の大きさや位置、顔の特定パーツ(目、鼻、口等)の位置の正規化、背景抜き等が行われる。
顔の特定パーツ(目、鼻、口等)の位置の正規化を行う場合には、工程(S21)では、取得された顔画像データに対して所定の画像認識処理を施すことで、目、鼻、口、眉などの特定パーツを自動認識するようにしてもよい。この場合、工程(S21)では、自動認識の結果が示す特定パーツの有無や位置関係などから、取得された顔画像データが利用可能か否かをチェックすることもできる。
そこで、工程(S21)では、取得された顔画像データに対して、AIモデルの教師データの顔画像と適合させる正規化処理を施すことで、元顔画像BPを取得するようにしてもよい。この正規化処理では、例えば、画像データ内の顔の大きさや位置、顔の特定パーツ(目、鼻、口等)の位置の正規化、背景抜き等が行われる。
顔の特定パーツ(目、鼻、口等)の位置の正規化を行う場合には、工程(S21)では、取得された顔画像データに対して所定の画像認識処理を施すことで、目、鼻、口、眉などの特定パーツを自動認識するようにしてもよい。この場合、工程(S21)では、自動認識の結果が示す特定パーツの有無や位置関係などから、取得された顔画像データが利用可能か否かをチェックすることもできる。
工程(S22)は、工程(S21)で取得された二次元の顔画像データ(元顔画像BP)をAIモデルの三次元予測モデルに適用することにより、対象者の元顔の顔形状情報及び顔表面テクスチャ情報を少なくとも示す元顔情報を取得する工程である。
本実施形態では、工程(S22)では、元顔情報として、元顔テクスチャ画像BT及び元顔相同モデルBFが生成される。具体的には、まず、三次元予測モデルを用いて元顔画像BPから元顔相同モデルBFが生成される。元顔相同モデルBFは、対象者の元顔に関する三次元の顔形状情報であり、メッシュデータ(三次元座標データ)として示される。続いて、その生成された元顔相同モデルBFを用いて元顔画像BPから元顔テクスチャ画像BTが生成される。元顔テクスチャ画像BTは、対象者の元顔に関する顔表面テクスチャ情報であり、元顔相同モデルBFに適応するように正規化された画像情報である。この正規化では、例えば、元顔画像BPの各特徴点(特定パーツ)の位置が元顔相同モデルBFに合わされたり、元顔画像BPに含まれていないテクスチャ情報の補完や円柱座標系への変換等が行われる。
本実施形態では、工程(S22)では、元顔情報として、元顔テクスチャ画像BT及び元顔相同モデルBFが生成される。具体的には、まず、三次元予測モデルを用いて元顔画像BPから元顔相同モデルBFが生成される。元顔相同モデルBFは、対象者の元顔に関する三次元の顔形状情報であり、メッシュデータ(三次元座標データ)として示される。続いて、その生成された元顔相同モデルBFを用いて元顔画像BPから元顔テクスチャ画像BTが生成される。元顔テクスチャ画像BTは、対象者の元顔に関する顔表面テクスチャ情報であり、元顔相同モデルBFに適応するように正規化された画像情報である。この正規化では、例えば、元顔画像BPの各特徴点(特定パーツ)の位置が元顔相同モデルBFに合わされたり、元顔画像BPに含まれていないテクスチャ情報の補完や円柱座標系への変換等が行われる。
工程(S23)は、工程(S22)で取得された元顔情報が示す顔表面テクスチャ情報を学習済みモデルに適用することで予測された変化顔情報を取得する予測工程である。本実施形態では、工程(S23)では、工程(S22)で取得された元顔テクスチャ画像BTをAIモデルのテクスチャ経時変化モデルに適用することで、予測テクスチャ画像ATが生成される。このため、予測テクスチャ画像ATは、元顔画像BPに写る対象者の元顔の顔表面テクスチャをAIモデルによる予測に基づいて経時変化させた顔表面テクスチャを示す。
工程(S24)は、工程(S23)で取得された変化顔情報と工程(S22)で取得された元顔情報に基づいて、変化顔情報と元顔情報との顔表面テクスチャ情報間の差異を示す顔表面テクスチャの差異情報を取得する差異取得工程である。本実施形態では、工程(S24)において、工程(S22)で取得された元顔テクスチャ画像BTと工程(S23)で取得された予測テクスチャ画像ATとの差異情報が取得される。
工程(S24)で取得される差異情報は、顔表面テクスチャ間の差異を示す情報であればよく、本実施形態では差異画像データが当該差異情報として取得される。以降、工程(S24)で取得される差異情報は差異テクスチャ画像DTと表記される場合がある。
工程(S24)で取得される差異情報は、顔表面テクスチャ間の差異を示す情報であればよく、本実施形態では差異画像データが当該差異情報として取得される。以降、工程(S24)で取得される差異情報は差異テクスチャ画像DTと表記される場合がある。
顔表面テクスチャ間の差異情報の取得手法には周知のあらゆる手法が利用可能である。例えば、差異データの抽出、差異データからの必要情報の抽出、必要情報の符号化、符号化された必要情報の可視化といった流れで当該差異情報を取得することができる。
例えば、画像間をピクセル単位若しくはブロック単位で比較して、濃淡値の差分値(符号付き又は絶対値)や比率を算出する、或いは濃淡値の比較判別を行うことで差異データを抽出できる。抽出した差異データには、電子的ノイズや、本来の顔表面テクスチャとは違う照明由来の肌のムラ情報等、不要な情報が含まれている場合がある。そこで、周波数フィルタや空間フィルタを当該抽出された差異データに適用することで不要な情報を除外することができる。また、当該差異データの中から必要な情報のみを抽出するために、モルフォロジー変換を介した抽出を行うようにしてもよい。
このように抽出された必要情報を二値化、多値化(グレード化)などで符号化し、符号化した必要情報は、色や輝度の違いとして画像化したり、ラベリングしたりして可視化できる。
例えば、画像間をピクセル単位若しくはブロック単位で比較して、濃淡値の差分値(符号付き又は絶対値)や比率を算出する、或いは濃淡値の比較判別を行うことで差異データを抽出できる。抽出した差異データには、電子的ノイズや、本来の顔表面テクスチャとは違う照明由来の肌のムラ情報等、不要な情報が含まれている場合がある。そこで、周波数フィルタや空間フィルタを当該抽出された差異データに適用することで不要な情報を除外することができる。また、当該差異データの中から必要な情報のみを抽出するために、モルフォロジー変換を介した抽出を行うようにしてもよい。
このように抽出された必要情報を二値化、多値化(グレード化)などで符号化し、符号化した必要情報は、色や輝度の違いとして画像化したり、ラベリングしたりして可視化できる。
工程(S25)は、工程(S24)で取得された対象者の経時変化前後の顔表面テクスチャの差異情報を、工程(S22)で取得された元顔情報が示す顔形状情報を用いて三次元画像化して、三次元の差異顔画像を取得する工程である。本実施形態では、工程(S25)において、工程(S24)で取得された差異テクスチャ画像DTが工程(S22)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。本実施形態では、工程(S25)で生成される三次元の顔画像データは、元顔(経時変化前)の三次元顔形状を持ち、対象者の経時変化前後の顔表面テクスチャの差異情報をテクスチャ情報として持つ三次元の顔画像を示し、この顔画像(三次元の差異顔画像)は、三次元差異画像DBFと表記される。
工程(S26)は、工程(S22)で取得された元顔情報に基づく三次元の元顔画像を取得する工程である。本実施形態では、工程(S26)において、工程(S22)で取得された元顔テクスチャ画像BT及び元顔相同モデルBFが合成されて、三次元の顔画像データが取得される。工程(S26)で生成される三次元の顔画像データは、元顔(経時変化前)の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャを持つ三次元の顔画像を示す。この顔画像データで示される顔画像(三次元の元顔画像)は、三次元顔画像BTFと表記される。
工程(S27)は、工程(S25)で取得された三次元の差異顔画像と、工程(S26)で取得された元顔情報に基づく三次元の元顔画像とを対比可能に出力する出力工程である。
工程(S27)での出力は、差異顔画像及び元顔画像を表示装置15に表示することで実現されてもよいし、プリンタ装置に印刷することで実現されてもよいし、可搬型記録媒体や他のコンピュータに通信ユニット14を経由して送ることで実現されてもよい。
また、CPU11は、出力形態としては、差異顔画像及び元顔画像の両方を見比べることができるようにそれらを並べて表示(出力)してもよいし、切り替え可能にいずれか一方を表示してもよいし、重畳して表示してもよい。
但し、工程(S27)では、三次元の差異顔画像(三次元差異画像DBF)のみが出力されてもよい。この場合には、工程(S26)は不要となる。
工程(S27)での出力は、差異顔画像及び元顔画像を表示装置15に表示することで実現されてもよいし、プリンタ装置に印刷することで実現されてもよいし、可搬型記録媒体や他のコンピュータに通信ユニット14を経由して送ることで実現されてもよい。
また、CPU11は、出力形態としては、差異顔画像及び元顔画像の両方を見比べることができるようにそれらを並べて表示(出力)してもよいし、切り替え可能にいずれか一方を表示してもよいし、重畳して表示してもよい。
但し、工程(S27)では、三次元の差異顔画像(三次元差異画像DBF)のみが出力されてもよい。この場合には、工程(S26)は不要となる。
このように、対象者の特定状態変化前後の顔表面テクスチャの差異情報を三次元の顔形状で示す三次元差異画像DBFで出力することで、顔表面テクスチャの特定状態変化を把握し易いように提示することができる。
また、三次元差異画像DBFを三次元顔画像BTFと対比可能に出力することで、両顔画像との対比から、顔表面テクスチャの差異をより容易に把握させることができる。
三次元の顔画像のテクスチャとして予測された特定状態変化後の顔表面テクスチャ情報(予測テクスチャ画像AT)をそのまま出力することなく、特定状態変化前後の差異情報として出力することで、対象者に不快感を与える可能性を低減することができる。
また、三次元差異画像DBFを三次元顔画像BTFと対比可能に出力することで、両顔画像との対比から、顔表面テクスチャの差異をより容易に把握させることができる。
三次元の顔画像のテクスチャとして予測された特定状態変化後の顔表面テクスチャ情報(予測テクスチャ画像AT)をそのまま出力することなく、特定状態変化前後の差異情報として出力することで、対象者に不快感を与える可能性を低減することができる。
ここで、CPU11は、工程(S25)で取得された三次元差異画像DBFと工程(S26)で取得された三次元顔画像BTFとを多視点映像として出力することができる。多視点映像としては、例えば、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像や、三次元ディスプレイ、仮想現実(VR)、拡張現実(AR)等を用いた立体表示等がある。
このように、当該差異情報を多視点映像として出力することで、様々な視点で顔表面テクスチャの差異を確認することができる。
このように、当該差異情報を多視点映像として出力することで、様々な視点で顔表面テクスチャの差異を確認することができる。
[第一変形例]
上述の第一実施形態は、図3に示されるように変形させることもできる。図3は、第一変形例に係る顔変化出力方法の処理の流れを示す図である。
第一変形例では、上述の第一実施形態の流れにおける工程(S24)と工程(S25)との間に、工程(S31)が更に実行される。
図3においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデルが例示されている。但し、第一変形例は経時変化に限定されるものではない。
上述の第一実施形態は、図3に示されるように変形させることもできる。図3は、第一変形例に係る顔変化出力方法の処理の流れを示す図である。
第一変形例では、上述の第一実施形態の流れにおける工程(S24)と工程(S25)との間に、工程(S31)が更に実行される。
図3においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデルが例示されている。但し、第一変形例は経時変化に限定されるものではない。
工程(S31)は、工程(S24)で取得された差異情報と工程(S22)で取得された元顔情報が示す顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程である。図3の例では、工程(S31)において、工程(S24)で取得された差異テクスチャ画像DTが工程(S22)で取得された元顔テクスチャ画像BTと合成された合成テクスチャ画像が生成される。
工程(S25)では、工程(S31)で生成された合成テクスチャ画像が工程(S22)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、元顔(経時変化前)の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔表面テクスチャの差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTBFと表記される。
工程(S25)では、工程(S31)で生成された合成テクスチャ画像が工程(S22)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、元顔(経時変化前)の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔表面テクスチャの差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTBFと表記される。
第一変形例によれば、元顔(特定状態変化前)の顔表面テクスチャと対象者の特定状態変化前後の顔表面テクスチャの差異情報とが重ね合わされて示されるため、顔表面テクスチャの特定状態変化がより把握し易くなる。
[第二実施形態]
上述の第一実施形態及び第一変形例では、顔表面テクスチャ情報の特定状態変化予測及び顔表面テクスチャ情報間の差異算出が行われた。
第二実施形態では、顔表面テクスチャ情報に加えて、対象者の三次元の顔形状情報が処理対象とされる。以下、第二実施形態に係る顔変化出力方法(以下、第二方法と表記する)について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。
上述の第一実施形態及び第一変形例では、顔表面テクスチャ情報の特定状態変化予測及び顔表面テクスチャ情報間の差異算出が行われた。
第二実施形態では、顔表面テクスチャ情報に加えて、対象者の三次元の顔形状情報が処理対象とされる。以下、第二実施形態に係る顔変化出力方法(以下、第二方法と表記する)について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。
図4は、第二実施形態に係る顔変化出力方法の処理の流れを示す図である。
第二実施形態で利用されるAIモデルは、特定状態変化前後の二次元の顔画像データセット及び三次元の顔形状情報セットを複数含む教師データとする機械学習により得られ、二次元の顔画像データから、特定状態変化後における三次元の顔形状情報及びその顔形状情報に適合する顔表面テクスチャ情報を予測可能である。
第二実施形態で用いられる三次元の顔形状情報及び顔表面テクスチャ情報は、第一実施形態で述べたとおりである。
第二実施形態で利用されるAIモデルは、特定状態変化前後の二次元の顔画像データセット及び三次元の顔形状情報セットを複数含む教師データとする機械学習により得られ、二次元の顔画像データから、特定状態変化後における三次元の顔形状情報及びその顔形状情報に適合する顔表面テクスチャ情報を予測可能である。
第二実施形態で用いられる三次元の顔形状情報及び顔表面テクスチャ情報は、第一実施形態で述べたとおりである。
第二実施形態におけるAIモデルは、三次元予測モデル、テクスチャ変化モデル及び形状変化モデルを少なくとも含む。三次元予測モデル及びテクスチャ変化モデルは、第一実施形態と同様である。
形状変化モデルは、特定状態変化前後の三次元の顔形状情報(相同モデル)セットを複数含む教師データを用いた機械学習により得ることができ、三次元予測モデルで予測された三次元の顔形状情報(相同モデル)から特定状態変化後における三次元の顔形状情報(相同モデル)を予測可能である。この形状変化モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能である。形状変化モデルが経時変化を予測する場合には、当該形状変化モデルには、例えば、上述の特許文献2で開示される手法で生成された形状加齢モデルが利用可能である。
形状変化モデルは、特定状態変化前後の三次元の顔形状情報(相同モデル)セットを複数含む教師データを用いた機械学習により得ることができ、三次元予測モデルで予測された三次元の顔形状情報(相同モデル)から特定状態変化後における三次元の顔形状情報(相同モデル)を予測可能である。この形状変化モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能である。形状変化モデルが経時変化を予測する場合には、当該形状変化モデルには、例えば、上述の特許文献2で開示される手法で生成された形状加齢モデルが利用可能である。
図4では、特定状態変化として経時変化を予測するテクスチャ経時変化モデル及び形状経時変化モデルが例示されており、以下の説明では、図4で示される、特定状態変化として経時変化が予測される例を用いて、第二方法について説明する。但し、第二方法は経時変化に限定されるものではない。
第二方法は、図4に示されるように、工程(S41)から工程(S48)を含んでいる。
工程(S41)及び工程(S42)は、第一実施形態における工程(S21)及び工程(S22)と同様である。即ち、工程(S41)は、対象者の二次元の顔画像データ(元顔画像BP)を取得するデータ取得工程であり、工程(S42)は、工程(S41)で取得された二次元の顔画像データ(元顔画像BP)をAIモデルの三次元予測モデルに適用することにより、対象者の元顔の顔形状情報及び顔表面テクスチャ情報を少なくとも示す元顔情報を取得する工程である。
更に、工程(S43)は、第一実施形態における工程(S23)と同様である。即ち、工程(S43)では、工程(S42)で取得された元顔テクスチャ画像BTがAIモデルのテクスチャ経時変化モデルに適用されて、予測テクスチャ画像ATが生成される。
工程(S41)及び工程(S42)は、第一実施形態における工程(S21)及び工程(S22)と同様である。即ち、工程(S41)は、対象者の二次元の顔画像データ(元顔画像BP)を取得するデータ取得工程であり、工程(S42)は、工程(S41)で取得された二次元の顔画像データ(元顔画像BP)をAIモデルの三次元予測モデルに適用することにより、対象者の元顔の顔形状情報及び顔表面テクスチャ情報を少なくとも示す元顔情報を取得する工程である。
更に、工程(S43)は、第一実施形態における工程(S23)と同様である。即ち、工程(S43)では、工程(S42)で取得された元顔テクスチャ画像BTがAIモデルのテクスチャ経時変化モデルに適用されて、予測テクスチャ画像ATが生成される。
工程(S44)は、工程(S42)で取得された元顔情報が示す顔形状情報を学習済みモデルに適用することで予測された経時変化後の顔形状情報を含む変化顔情報を取得する予測工程である。本実施形態では、工程(S44)では、工程(S42)で取得された元顔相同モデルBFをAIモデルの形状経時変化モデルに適用することで、予測相同モデルAFが生成される。このため、予測相同モデルAFは、対象者の元顔の顔形状をAIモデルによる予測に基づいて経時変化させた顔形状を示す。
このように、工程(S43)及び工程(S44)は、工程(S42)で取得された元顔情報が示す顔表面テクスチャ情報(元顔テクスチャ画像BT)及び顔形状情報(元顔相同モデルBF)の両方を学習済みモデル(テクスチャ経時変化モデル及び形状経時変化モデル)に適用することで予測された変化顔情報を取得する予測工程であると表記できる。取得された変化顔情報は、AIモデルにより予測された対象者の経時変化後の顔表面テクスチャ情報及び顔形状情報を少なくとも示す。
工程(S45)は、第一実施形態における工程(S24)と同様である。即ち、工程(S45)では、変化顔情報と元顔情報との顔表面テクスチャ情報間の差異を示す顔表面テクスチャの差異情報が取得される。ここでは、工程(S42)で取得された元顔テクスチャ画像BTと工程(S43)で取得された予測テクスチャ画像ATとの差異情報が当該差異情報として取得される。
工程(S46)は、工程(S45)で取得された対象者の経時変化前後の顔表面テクスチャの差異情報を、工程(S44)で取得された変化顔情報が示す顔形状情報を用いて三次元画像化して、三次元の差異顔画像を取得する工程である。本実施形態では、工程(S46)において、工程(S45)で取得された差異テクスチャ画像DTが工程(S44)で取得された予測相同モデルAFと合成されて、三次元の顔画像データが取得される。本実施形態では、工程(S46)で生成される三次元の顔画像データは、対象者の経時変化後の三次元顔形状を持ち、対象者の経時変化前後の顔表面テクスチャの差異情報をテクスチャ情報として持つ三次元の顔画像を示し、この顔画像(三次元の差異顔画像)は、三次元差異画像DAFと表記される。
工程(S47)は、第一実施形態における工程(S26)と同様である。即ち、工程(S47)では、工程(S42)で取得された元顔テクスチャ画像BT及び元顔相同モデルBFが合成されて、三次元の元顔画像(三次元顔画像BTF)が取得される。
工程(S48)は、第一実施形態における工程(S25)と同様であり、工程(S46)で取得された三次元の差異顔画像と、工程(S47)で取得された元顔情報に基づく三次元の元顔画像とが対比可能に出力される。
但し、本実施形態で元顔画像と対比可能に出力される差異顔画像は、上述したとおり、対象者の経時変化後の三次元顔形状を持ち、対象者の経時変化前後の顔表面テクスチャの差異情報をテクスチャ情報として持つ三次元差異画像DAFである。
工程(S48)での出力形態等は、第一実施形態で述べたとおりである。
本実施形態では、CPU11は、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像として、工程(S46)で取得された三次元差異画像DAFと工程(S47)で取得された三次元顔画像BTFとを対比可能に表示装置15に表示する。
但し、工程(S48)では、三次元の差異顔画像(三次元差異画像DAF)のみが出力されてもよい。また、この差異顔画像は自由視点画像として表示されてもよい。このような場合には、工程(S47)は不要となる。
但し、本実施形態で元顔画像と対比可能に出力される差異顔画像は、上述したとおり、対象者の経時変化後の三次元顔形状を持ち、対象者の経時変化前後の顔表面テクスチャの差異情報をテクスチャ情報として持つ三次元差異画像DAFである。
工程(S48)での出力形態等は、第一実施形態で述べたとおりである。
本実施形態では、CPU11は、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像として、工程(S46)で取得された三次元差異画像DAFと工程(S47)で取得された三次元顔画像BTFとを対比可能に表示装置15に表示する。
但し、工程(S48)では、三次元の差異顔画像(三次元差異画像DAF)のみが出力されてもよい。また、この差異顔画像は自由視点画像として表示されてもよい。このような場合には、工程(S47)は不要となる。
このように、第二実施形態では、対象者の特定状態変化前後の顔表面テクスチャの差異情報を、対象者の特定状態変化後の三次元の顔形状で示す三次元差異画像DAFで出力するため、特定状態変化に伴う顔表面テクスチャの変化だけでなく、特定状態変化後の顔形状についても把握することができる。その他の効果については、第二実施形態においても第一実施形態と同様に奏することができる。
ところで、図4には示されていないが、予測テクスチャ画像AT及び予測相同モデルAFを合成することで、対象者の特定状態変化後の三次元顔画像が生成可能である。
CPU11は、三次元差異画像DAF及び三次元顔画像BTFに加えて、対象者の特定状態変化後の三次元顔画像を対比可能に出力するようにしてもよい。
CPU11は、三次元差異画像DAF及び三次元顔画像BTFに加えて、対象者の特定状態変化後の三次元顔画像を対比可能に出力するようにしてもよい。
[第二変形例]
上述の第二実施形態は、図5に示されるように変形させることもできる。図5は、第二変形例に係る顔変化出力方法の処理の流れを示す図である。
第二変形例では、上述の第二実施形態の流れにおける工程(S45)と工程(S46)との間に、工程(S51)が更に実行される。
図5においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデル及び形状経時変化モデルが例示されている。但し、第二変形例は経時変化に限定されるものではない。
上述の第二実施形態は、図5に示されるように変形させることもできる。図5は、第二変形例に係る顔変化出力方法の処理の流れを示す図である。
第二変形例では、上述の第二実施形態の流れにおける工程(S45)と工程(S46)との間に、工程(S51)が更に実行される。
図5においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデル及び形状経時変化モデルが例示されている。但し、第二変形例は経時変化に限定されるものではない。
工程(S51)は、工程(S45)で取得された差異情報と工程(S42)で取得された元顔情報が示す顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程である。図5の例では、工程(S51)において、工程(S45)で取得された差異テクスチャ画像DTが工程(S42)で取得された元顔テクスチャ画像BTと合成された合成テクスチャ画像が生成される。
工程(S46)では、工程(S51)で生成された合成テクスチャ画像が工程(S44)で取得された予測相同モデルAFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、対象者の経時変化後の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔表面テクスチャの差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTAFと表記される。
工程(S46)では、工程(S51)で生成された合成テクスチャ画像が工程(S44)で取得された予測相同モデルAFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、対象者の経時変化後の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔表面テクスチャの差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTAFと表記される。
第二変形例によれば、元顔(特定状態変化前)の顔表面テクスチャと対象者の特定状態変化前後の顔表面テクスチャの差異情報とが重ね合わされて示されるため、顔表面テクスチャの特定状態変化がより把握し易くなる。
[第三実施形態]
上述の第一実施形態、第二実施形態、及び各変形例では、顔表面テクスチャ情報及び顔形状情報の特定状態変化予測、並びに顔表面テクスチャ情報間の差異算出が行われた。
第三実施形態では、顔表面テクスチャ情報の特定状態変化予測が省かれ、顔形状情報間の差異算出が行われる。以下、第三実施形態に係る顔変化出力方法(以下、第三方法と表記する)について、上述の各実施形態及び各変形例と異なる内容を中心に説明する。以下の説明では、上述と同内容については適宜省略する。
上述の第一実施形態、第二実施形態、及び各変形例では、顔表面テクスチャ情報及び顔形状情報の特定状態変化予測、並びに顔表面テクスチャ情報間の差異算出が行われた。
第三実施形態では、顔表面テクスチャ情報の特定状態変化予測が省かれ、顔形状情報間の差異算出が行われる。以下、第三実施形態に係る顔変化出力方法(以下、第三方法と表記する)について、上述の各実施形態及び各変形例と異なる内容を中心に説明する。以下の説明では、上述と同内容については適宜省略する。
図6は、第三実施形態に係る顔変化出力方法の処理の流れを示す図である。
第三実施形態で利用されるAIモデルは、特定状態変化前後の三次元の顔形状情報セット及び特定状態変化前の二次元の顔画像データを複数含む教師データを用いた機械学習により得られ、二次元の顔画像データから、少なくとも特定状態変化後における三次元の顔形状情報を予測可能である。
第三実施形態で用いられる三次元の顔形状情報及び顔表面テクスチャ情報は、上述のとおりである。
第三実施形態で利用されるAIモデルは、特定状態変化前後の三次元の顔形状情報セット及び特定状態変化前の二次元の顔画像データを複数含む教師データを用いた機械学習により得られ、二次元の顔画像データから、少なくとも特定状態変化後における三次元の顔形状情報を予測可能である。
第三実施形態で用いられる三次元の顔形状情報及び顔表面テクスチャ情報は、上述のとおりである。
第三実施形態におけるAIモデルは、三次元予測モデル及び形状変化モデルを少なくとも含む。三次元予測モデル及び形状変化モデルは、第一実施形態又は第二実施形態と同様である。
図6では、特定状態変化として経時変化を予測する形状経時変化モデルが例示されており、以下の説明では、図6で示される、特定状態変化として経時変化が予測される例を用いて、第三方法について説明する。但し、第三方法は経時変化に限定されるものではない。
図6では、特定状態変化として経時変化を予測する形状経時変化モデルが例示されており、以下の説明では、図6で示される、特定状態変化として経時変化が予測される例を用いて、第三方法について説明する。但し、第三方法は経時変化に限定されるものではない。
第三方法は、図6に示されるように、工程(S61)から工程(S67)を含んでいる。
工程(S61)及び工程(S62)は、第一実施形態における工程(S21)及び工程(S22)、第二実施形態における工程(S41)及び(S42)と同様である。即ち、工程(S61)は、対象者の二次元の顔画像データ(元顔画像BP)を取得するデータ取得工程であり、工程(S62)は、工程(S61)で取得された二次元の顔画像データ(元顔画像BP)をAIモデルの三次元予測モデルに適用することにより、対象者の元顔の顔形状情報及び顔表面テクスチャ情報を少なくとも示す元顔情報を取得する工程である。
工程(S61)及び工程(S62)は、第一実施形態における工程(S21)及び工程(S22)、第二実施形態における工程(S41)及び(S42)と同様である。即ち、工程(S61)は、対象者の二次元の顔画像データ(元顔画像BP)を取得するデータ取得工程であり、工程(S62)は、工程(S61)で取得された二次元の顔画像データ(元顔画像BP)をAIモデルの三次元予測モデルに適用することにより、対象者の元顔の顔形状情報及び顔表面テクスチャ情報を少なくとも示す元顔情報を取得する工程である。
工程(S63)は、工程(S62)で取得された元顔情報が示す顔形状情報を学習済みモデルに適用することで予測された経時変化後の顔形状情報を含む変化顔情報を取得する予測工程である。本実施形態では、工程(S63)において、工程(S62)で取得された元顔相同モデルBFをAIモデルの形状経時変化モデルに適用することで、予測相同モデルAFが生成される。このため、予測相同モデルAFは、対象者の元顔の顔形状をAIモデルによる予測に基づいて経時変化させた顔形状を示す。
工程(S64)は、工程(S63)で取得された変化顔情報と工程(S62)で取得された元顔情報に基づいて、変化顔情報と元顔情報との顔形状情報間の差異を示す顔形状の差異情報を取得する差異取得工程である。本実施形態では、工程(S64)において、工程(S62)で取得された元顔相同モデルBFと工程(S63)で取得された予測相同モデルAFとの差異情報が取得される。
工程(S64)で取得される差異情報は、顔形状間の差異を示す情報であればよく、顔形状間の差異情報の取得手法には周知のあらゆる手法が利用可能である。
工程(S64)で取得される差異情報は、顔形状間の差異を示す情報であればよく、顔形状間の差異情報の取得手法には周知のあらゆる手法が利用可能である。
相同モデル間の差異は、例えば、法線距離を用いる方法、最短距離を用いる方法などを用いて算出することができる。法線距離を用いる手法では、一方の相同モデルのポリゴン頂点からの平均法線と他方の相同モデルの面(三角形)との交点を算出し、最短の交点までの距離が算出される。最短距離を用いる手法では、一方の相同モデルのポリゴン頂点から他方の相同モデルのポリゴン頂点の距離を算出し、最短距離の頂点が探索される。但し、相同モデル間の差異の取得手法はこのような例に限定されず、周知のあらゆる手法が利用可能である。
本実施形態では、顔形状の差異情報は、画像情報として生成される。
本実施形態では、顔形状の差異情報は、画像情報として生成される。
工程(S65)は、工程(S64)で取得された対象者の経時変化前後の顔形状の差異情報を、工程(S62)で取得された元顔情報が示す顔形状情報を用いて三次元画像化して、三次元の差異顔画像を取得する工程である。本実施形態では、工程(S65)において、工程(S64)で取得された顔形状の差異情報(画像)が工程(S62)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。本実施形態では、工程(S65)で生成される三次元の顔画像データは、元顔(経時変化前)の三次元顔形状を持ち、対象者の経時変化前後の顔形状の差異情報をテクスチャ情報として持つ三次元の顔画像を示し、この顔画像(三次元の差異顔画像)は、三次元差異画像DFFと表記される。
工程(S66)は、第一実施形態における工程(S26)及び第二実施形態における工程(S47)と同様である。即ち、工程(S66)では、工程(S62)で取得された元顔テクスチャ画像BT及び元顔相同モデルBFが合成されて、三次元の元顔画像(三次元顔画像BTF)が取得される。
工程(S67)は、第一実施形態における工程(S25)及び第二実施形態における工程(S48)と同様であり、工程(S65)で取得された三次元の差異顔画像と、工程(S66)で取得された元顔情報に基づく三次元の元顔画像とが対比可能に出力される。工程(S67)での出力形態等は、第一実施形態で述べたとおりである。
本実施形態では、CPU11は、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像として、工程(S65)で取得された三次元差異画像DFFと工程(S66)で取得された三次元顔画像BTFとを対比可能に表示装置15に表示する。
但し、工程(S67)では、三次元の差異顔画像(三次元差異画像DFF)のみが出力されてもよい。また、この差異顔画像は自由視点画像として表示されてもよい。このような場合には、工程(S66)は不要となる。
本実施形態では、CPU11は、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像として、工程(S65)で取得された三次元差異画像DFFと工程(S66)で取得された三次元顔画像BTFとを対比可能に表示装置15に表示する。
但し、工程(S67)では、三次元の差異顔画像(三次元差異画像DFF)のみが出力されてもよい。また、この差異顔画像は自由視点画像として表示されてもよい。このような場合には、工程(S66)は不要となる。
このように、第三実施形態では、対象者の特定状態変化前後の顔形状の差異情報を、対象者の元顔(特定状態変化前)の三次元の顔形状で示す三次元差異画像DFFで出力するため、特定状態変化に伴う顔形状の変化を容易に把握させることができる。
[第三変形例]
上述の第三実施形態は、図7に示されるように変形させることもできる。図7は、第三変形例に係る顔変化出力方法の処理の流れを示す図である。
第三変形例では、上述の第三実施形態の流れにおける工程(S64)と工程(S65)との間に、工程(S71)が更に実行される。
図7においても、特定状態変化として経時変化を予測する形状経時変化モデルが例示されている。但し、第三変形例は経時変化に限定されるものではない。
上述の第三実施形態は、図7に示されるように変形させることもできる。図7は、第三変形例に係る顔変化出力方法の処理の流れを示す図である。
第三変形例では、上述の第三実施形態の流れにおける工程(S64)と工程(S65)との間に、工程(S71)が更に実行される。
図7においても、特定状態変化として経時変化を予測する形状経時変化モデルが例示されている。但し、第三変形例は経時変化に限定されるものではない。
工程(S71)は、工程(S64)で取得された差異情報と工程(S62)で取得された元顔情報が示す顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程である。図7の例では、工程(S71)において、工程(S64)で取得された差異画像が工程(S62)で取得された元顔テクスチャ画像BTと合成された合成テクスチャ画像が生成される。
工程(S65)では、工程(S71)で生成された合成テクスチャ画像が工程(S62)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、対象者の経時変化前の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔形状の差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTFFと表記される。
工程(S65)では、工程(S71)で生成された合成テクスチャ画像が工程(S62)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、対象者の経時変化前の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔形状の差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTFFと表記される。
第三変形例によれば、元顔(特定状態変化前)の顔表面テクスチャと対象者の特定状態変化前後の顔形状の差異情報とが重ね合わされて示されるため、顔形状の特定状態変化をより把握させ易くすることができる。
[第四変形例]
上述の各実施形態及び各変形例では、特定状態変化前後の顔表面テクスチャ又は顔形状の差異情報をテクスチャとし、特定状態変化前又は特定状態変化後の三次元顔形状を持つ三次元の差異顔画像(三次元差異画像DBF、DTBF、DAF、DTAF、DFF、又はDTFF)が、三次元の元顔画像(三次元顔画像BTF)と対比可能に出力されたが、図8に示されるように、二以上の三次元の差異顔画像が、三次元の元顔画像と対比可能に出力されるようにしてもよい。
上述の各実施形態及び各変形例では、特定状態変化前後の顔表面テクスチャ又は顔形状の差異情報をテクスチャとし、特定状態変化前又は特定状態変化後の三次元顔形状を持つ三次元の差異顔画像(三次元差異画像DBF、DTBF、DAF、DTAF、DFF、又はDTFF)が、三次元の元顔画像(三次元顔画像BTF)と対比可能に出力されたが、図8に示されるように、二以上の三次元の差異顔画像が、三次元の元顔画像と対比可能に出力されるようにしてもよい。
図8は、第四変形例に係る顔変化出力方法の処理の流れを示す図である。図8には、図4に示される第二実施形態からの変形例が示されている。
図8に示されるように、第四変形例では、第二実施形態の工程に加えて、工程(S81)及び工程(S82)が更に実行される。
図8においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデル及び形状経時変化モデルが例示されている。但し、第四変形例は経時変化に限定されるものではない。
図8に示されるように、第四変形例では、第二実施形態の工程に加えて、工程(S81)及び工程(S82)が更に実行される。
図8においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデル及び形状経時変化モデルが例示されている。但し、第四変形例は経時変化に限定されるものではない。
工程(S81)は、第三実施形態における工程(S64)と同様であり、顔形状の差異情報を取得する差異取得工程である。つまり、工程(S81)では、工程(S42)で取得された元顔相同モデルBFと工程(S44)で取得された予測相同モデルAFとの差異情報が取得される。
工程(S82)は、第三実施形態における工程(S65)と同様であり、経時変化前後の顔形状の差異情報を元顔情報が示す顔形状情報を用いて三次元画像化して、三次元の差異顔画像を取得する工程である。工程(S82)により、元顔(経時変化前)の三次元顔形状を持ち、対象者の経時変化前後の顔形状の差異情報をテクスチャ情報として持つ三次元の差異顔画像(差異画像DFF)が取得される。
工程(S82)は、第三実施形態における工程(S65)と同様であり、経時変化前後の顔形状の差異情報を元顔情報が示す顔形状情報を用いて三次元画像化して、三次元の差異顔画像を取得する工程である。工程(S82)により、元顔(経時変化前)の三次元顔形状を持ち、対象者の経時変化前後の顔形状の差異情報をテクスチャ情報として持つ三次元の差異顔画像(差異画像DFF)が取得される。
第四変形例における工程(S48)では、対象者の経時変化前後の顔表面テクスチャの差異を示す三次元差異画像DAFと、対象者の経時変化前後の顔形状の差異を示す三次元差異画像DFFと、三次元の元顔画像(三次元顔画像BTF)とが対比可能に出力される。
図8の例とは異なるが、三次元差異画像DAFに替えて、三次元差異画像DBF、DTBF又はDTAFが出力されてもよいし、三次元差異画像DFFに替えて、三次元差異画像DTFFが出力されてもよい。また、対象者の経時変化前後の顔形状の差異を示す三次元差異画像と、同対象者の経時変化前後の顔表面テクスチャの差異を示す三次元差異画像とが対比可能に出力され、三次元の元顔画像が出力されないようにしてもよい。
即ち、第四変形例における工程(S48)(出力工程)では、少なくとも、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する。
これにより、ユーザは、顔表面テクスチャの特定状態変化と顔形状の特定状態変化とを対比しながら見ることができるため、顔表面テクスチャ及び顔形状の特定状態変化を容易に把握することができる。
図8の例とは異なるが、三次元差異画像DAFに替えて、三次元差異画像DBF、DTBF又はDTAFが出力されてもよいし、三次元差異画像DFFに替えて、三次元差異画像DTFFが出力されてもよい。また、対象者の経時変化前後の顔形状の差異を示す三次元差異画像と、同対象者の経時変化前後の顔表面テクスチャの差異を示す三次元差異画像とが対比可能に出力され、三次元の元顔画像が出力されないようにしてもよい。
即ち、第四変形例における工程(S48)(出力工程)では、少なくとも、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する。
これにより、ユーザは、顔表面テクスチャの特定状態変化と顔形状の特定状態変化とを対比しながら見ることができるため、顔表面テクスチャ及び顔形状の特定状態変化を容易に把握することができる。
第四変形例における出力形態では、三次元差異画像DAF及びDFF並びに三次元顔画像BTFの全てが並べられて出力されてもよいし、それらの二つのペアの全組合せ又は一部の組合せが直接対比可能となるように並べられて出力されてもよい。また、各画像が順次切り替えられて表示装置15に表示されるようにしてもよい。
更に、どの画像を出力するのかを入力装置16を用いたユーザ操作で指定可能とすることもできる。例えば、CPU11は、三次元差異画像DAFのみを出力するか、三次元差異画像DFFのみを出力するか、又はそれらの両方を出力するのかをユーザ操作で指定可能とする入力画面を表示装置15に表示させ、その入力画面に対するユーザ操作で指定された出力タイプ情報を取得し、その出力タイプ情報で指定されている三次元差異画像DAFのみ、三次元差異画像DFFのみ、又はそれらの両方を表示装置15に表示させることができる。もちろん、このような出力画像の指定には、三次元顔画像BTFが候補に含まれてもよい。
即ち、顔変化出力方法は、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像のみを出力するか、顔形状の差異情報を三次元画像化して得られた第二の差異顔画像のみを出力するか、又は当該第一の差異顔画像及び当該第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、そのユーザ操作で指定された出力タイプ情報を取得する工程と、を更に含み、出力工程では、当該取得された出力タイプ情報で指定されている、第一の差異顔画像若しくは第二の差異顔画像の一方又は両方を出力するようにすることもできる。
このようにすれば、ユーザは見たい画像を指定することができるため、顔表面テクスチャ及び顔形状の特定状態変化の把握性を向上させることができる。
更に、どの画像を出力するのかを入力装置16を用いたユーザ操作で指定可能とすることもできる。例えば、CPU11は、三次元差異画像DAFのみを出力するか、三次元差異画像DFFのみを出力するか、又はそれらの両方を出力するのかをユーザ操作で指定可能とする入力画面を表示装置15に表示させ、その入力画面に対するユーザ操作で指定された出力タイプ情報を取得し、その出力タイプ情報で指定されている三次元差異画像DAFのみ、三次元差異画像DFFのみ、又はそれらの両方を表示装置15に表示させることができる。もちろん、このような出力画像の指定には、三次元顔画像BTFが候補に含まれてもよい。
即ち、顔変化出力方法は、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像のみを出力するか、顔形状の差異情報を三次元画像化して得られた第二の差異顔画像のみを出力するか、又は当該第一の差異顔画像及び当該第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、そのユーザ操作で指定された出力タイプ情報を取得する工程と、を更に含み、出力工程では、当該取得された出力タイプ情報で指定されている、第一の差異顔画像若しくは第二の差異顔画像の一方又は両方を出力するようにすることもできる。
このようにすれば、ユーザは見たい画像を指定することができるため、顔表面テクスチャ及び顔形状の特定状態変化の把握性を向上させることができる。
[その他の変形例]
上述の各実施形態及び各変形例では、対象者の元顔が写る二次元の顔画像データからAIモデル(三次元予測モデル)を用いて元顔テクスチャ画像BT及び元顔相同モデルBFが生成されたが、CPU11は、他のコンピュータや可搬型記録媒体等から、元顔テクスチャ画像BT及び元顔相同モデルBFを取得するようにしてもよい。この場合、二次元の顔画像データの取得工程(S21等)及び元顔情報を取得する工程(S22等)は不要となり、三次元予測モデルも不要となる。このとき、二次元の顔画像データの取得工程(S21等)及び元顔情報を取得する工程(S22等)は、他のコンピュータで実行されて、そのコンピュータからCPU11が元顔テクスチャ画像BT及び元顔相同モデルBFを取得するようにしてもよい。
上述の各実施形態及び各変形例では、対象者の元顔が写る二次元の顔画像データからAIモデル(三次元予測モデル)を用いて元顔テクスチャ画像BT及び元顔相同モデルBFが生成されたが、CPU11は、他のコンピュータや可搬型記録媒体等から、元顔テクスチャ画像BT及び元顔相同モデルBFを取得するようにしてもよい。この場合、二次元の顔画像データの取得工程(S21等)及び元顔情報を取得する工程(S22等)は不要となり、三次元予測モデルも不要となる。このとき、二次元の顔画像データの取得工程(S21等)及び元顔情報を取得する工程(S22等)は、他のコンピュータで実行されて、そのコンピュータからCPU11が元顔テクスチャ画像BT及び元顔相同モデルBFを取得するようにしてもよい。
また、対象者の特定状態変化前後の顔表面テクスチャ又は顔形状の差異情報が、元顔情報が示す顔形状情報又は特定状態変化後の顔形状情報を用いて三次元画像化されて出力されたが、顔表面テクスチャの差異情報及び顔形状の差異情報を重畳させたものを元顔情報が示す顔形状情報又は特定状態変化後の顔形状情報を用いて三次元画像化するようにしてもよい。
このようにすれば、顔表面テクスチャの特定状態変化及び顔形状の特定状態変化の各状態を一つの三次元画像上で確認することができる。
上述の内容の一部又は全部は、次のようにも特定され得る。但し、上述の内容が以下の記載に制限されるものではない。
このようにすれば、顔表面テクスチャの特定状態変化及び顔形状の特定状態変化の各状態を一つの三次元画像上で確認することができる。
上述の内容の一部又は全部は、次のようにも特定され得る。但し、上述の内容が以下の記載に制限されるものではない。
<1>
三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが、
顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、
前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、
前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、
前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、
を実行する顔変化出力方法。
三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが、
顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、
前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、
前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、
前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、
を実行する顔変化出力方法。
<2>
前記学習済みモデルは、前記形状変化モデル及び前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報及び前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す、顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された差異情報を、少なくとも前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>に記載の顔変化出力方法。
<3>
前記学習済みモデルは前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された顔表面テクスチャの差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>又は<2>に記載の顔変化出力方法。
<4>
前記学習済みモデルは前記形状変化モデルを少なくとも含み、
前記取得工程では、三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔形状情報間の差異を示す顔形状の差異情報を取得し、
前記出力工程では、前記取得された顔形状の差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>から<3>のいずれか一つに記載の顔変化出力方法。
<5>
前記出力工程は、
前記取得された差異情報と前記元顔情報が示す前記顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程を含み、
前記生成された画像情報を、前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の前記差異顔画像を出力する、
<1>から<4>のいずれか一つに記載の顔変化出力方法。
<6>
前記出力工程では、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する、
<1>から<5>のいずれか一つに記載の顔変化出力方法。
<7>
前記第一の差異顔画像のみを出力するか、前記第二の差異顔画像のみを出力するか、又は前記第一の差異顔画像及び前記第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、
前記ユーザ操作で指定された出力タイプ情報を取得する工程と、
を更に実行し、
前記出力工程では、前記取得された出力タイプ情報で指定されている、前記第一の差異顔画像若しくは前記第二の差異顔画像の一方又は両方を出力する、
<6>に記載の顔変化出力方法。
<8>
前記出力工程では、前記取得された元顔情報に基づく三次元の元顔画像と、三次元の前記差異顔画像とを対比可能でありかつユーザ操作により自由に視点を切り替えることができるように表示装置に表示させる、
<1>から<7>のいずれか一つに記載の顔変化出力方法。
<9>
前記学習済みモデルを利用可能な装置であって、<1>から<8>のいずれか一つに記載の顔変化出力方法を実行可能な顔変化出力装置。
前記学習済みモデルは、前記形状変化モデル及び前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報及び前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す、顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された差異情報を、少なくとも前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>に記載の顔変化出力方法。
<3>
前記学習済みモデルは前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された顔表面テクスチャの差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>又は<2>に記載の顔変化出力方法。
<4>
前記学習済みモデルは前記形状変化モデルを少なくとも含み、
前記取得工程では、三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔形状情報間の差異を示す顔形状の差異情報を取得し、
前記出力工程では、前記取得された顔形状の差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>から<3>のいずれか一つに記載の顔変化出力方法。
<5>
前記出力工程は、
前記取得された差異情報と前記元顔情報が示す前記顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程を含み、
前記生成された画像情報を、前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の前記差異顔画像を出力する、
<1>から<4>のいずれか一つに記載の顔変化出力方法。
<6>
前記出力工程では、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する、
<1>から<5>のいずれか一つに記載の顔変化出力方法。
<7>
前記第一の差異顔画像のみを出力するか、前記第二の差異顔画像のみを出力するか、又は前記第一の差異顔画像及び前記第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、
前記ユーザ操作で指定された出力タイプ情報を取得する工程と、
を更に実行し、
前記出力工程では、前記取得された出力タイプ情報で指定されている、前記第一の差異顔画像若しくは前記第二の差異顔画像の一方又は両方を出力する、
<6>に記載の顔変化出力方法。
<8>
前記出力工程では、前記取得された元顔情報に基づく三次元の元顔画像と、三次元の前記差異顔画像とを対比可能でありかつユーザ操作により自由に視点を切り替えることができるように表示装置に表示させる、
<1>から<7>のいずれか一つに記載の顔変化出力方法。
<9>
前記学習済みモデルを利用可能な装置であって、<1>から<8>のいずれか一つに記載の顔変化出力方法を実行可能な顔変化出力装置。
なお、各図に示される処理フローでは、各工程に符号が付されているが、各実施形態で実行される工程の実行順序は、その符号の数字の順番に制限されない。各実施形態では、各工程の実行順を内容的に支障のない範囲で適宜決定することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
10 情報処理装置(顔変化出力装置)
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
Claims (9)
- 三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが、
顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、
前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、
前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、
前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、
を実行する顔変化出力方法。 - 前記学習済みモデルは、前記形状変化モデル及び前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報及び前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す、顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された差異情報を、少なくとも前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
請求項1に記載の顔変化出力方法。 - 前記学習済みモデルは前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された顔表面テクスチャの差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
請求項1又は2に記載の顔変化出力方法。 - 前記学習済みモデルは前記形状変化モデルを少なくとも含み、
前記取得工程では、三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔形状情報間の差異を示す顔形状の差異情報を取得し、
前記出力工程では、前記取得された顔形状の差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
請求項1から3のいずれか一項に記載の顔変化出力方法。 - 前記出力工程は、
前記取得された差異情報と前記元顔情報が示す前記顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程を含み、
前記生成された画像情報を、前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の前記差異顔画像を出力する、
請求項1から4のいずれか一項に記載の顔変化出力方法。 - 前記出力工程では、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する、
請求項1から5のいずれか一項に記載の顔変化出力方法。 - 前記第一の差異顔画像のみを出力するか、前記第二の差異顔画像のみを出力するか、又は前記第一の差異顔画像及び前記第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、
前記ユーザ操作で指定された出力タイプ情報を取得する工程と、
を更に実行し、
前記出力工程では、前記取得された出力タイプ情報で指定されている、前記第一の差異顔画像若しくは前記第二の差異顔画像の一方又は両方を出力する、
請求項6に記載の顔変化出力方法。 - 前記出力工程では、前記取得された元顔情報に基づく三次元の元顔画像と、三次元の前記差異顔画像とを対比可能でありかつユーザ操作により自由に視点を切り替えることができるように表示装置に表示させる、
請求項1から7のいずれか一項に記載の顔変化出力方法。 - 前記学習済みモデルを利用可能な装置であって、請求項1から8のいずれか一項に記載の顔変化出力方法を実行可能な顔変化出力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020127233A JP2022024565A (ja) | 2020-07-28 | 2020-07-28 | 顔変化出力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020127233A JP2022024565A (ja) | 2020-07-28 | 2020-07-28 | 顔変化出力方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022024565A true JP2022024565A (ja) | 2022-02-09 |
Family
ID=80265842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020127233A Pending JP2022024565A (ja) | 2020-07-28 | 2020-07-28 | 顔変化出力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022024565A (ja) |
-
2020
- 2020-07-28 JP JP2020127233A patent/JP2022024565A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598998B (zh) | 三维虚拟模型重建方法、装置、计算机设备和存储介质 | |
CN113327278B (zh) | 三维人脸重建方法、装置、设备以及存储介质 | |
EP3970123A1 (en) | Animating avatars from headset cameras | |
Sharma et al. | 3d face reconstruction in deep learning era: A survey | |
JP7246811B2 (ja) | 顔画像生成用のデータ処理方法、データ処理機器、コンピュータプログラム、及びコンピュータ機器 | |
JP2020515952A (ja) | 年齢容姿シミュレーションのための方法 | |
WO2018175266A1 (en) | Methods and apparatuses for age appearance simulation | |
WO2022143645A1 (zh) | 三维人脸重建的方法、装置、设备和存储介质 | |
JP6207210B2 (ja) | 情報処理装置およびその方法 | |
CN109978984A (zh) | 人脸三维重建方法及终端设备 | |
CN113628327B (zh) | 一种头部三维重建方法及设备 | |
CN111950430B (zh) | 基于颜色纹理的多尺度妆容风格差异度量及迁移方法、系统 | |
CN110796593A (zh) | 基于人工智能的图像处理方法、装置、介质及电子设备 | |
JP2001109913A (ja) | 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体 | |
JP2007128171A (ja) | 顔画像合成装置、顔画像合成方法および顔画像合成プログラム | |
Li et al. | Lightweight wrinkle synthesis for 3d facial modeling and animation | |
CN107481318A (zh) | 用户头像的替换方法、装置和终端设备 | |
WO2024174422A1 (zh) | 模型的生成方法及装置、电子设备、存储介质 | |
CN113808277A (zh) | 一种图像处理方法及相关装置 | |
JP7555337B2 (ja) | デジタルキャラクタブレンディング及び生成のシステム及び方法 | |
Geng et al. | Towards photo-realistic facial expression manipulation | |
CN114743241A (zh) | 一种人脸表情识别方法、装置、电子设备及存储介质 | |
CN111274946A (zh) | 一种人脸识别方法和系统及设备 | |
CN114049290A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN109711286B (zh) | 一种基于人工视网膜空间感知的控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |