JP2022024565A - 顔変化出力方法 - Google Patents
顔変化出力方法 Download PDFInfo
- Publication number
- JP2022024565A JP2022024565A JP2020127233A JP2020127233A JP2022024565A JP 2022024565 A JP2022024565 A JP 2022024565A JP 2020127233 A JP2020127233 A JP 2020127233A JP 2020127233 A JP2020127233 A JP 2020127233A JP 2022024565 A JP2022024565 A JP 2022024565A
- Authority
- JP
- Japan
- Prior art keywords
- face
- information
- difference
- image
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008859 change Effects 0.000 title claims abstract description 220
- 238000000034 method Methods 0.000 title claims abstract description 127
- 230000008569 process Effects 0.000 claims description 35
- 238000010801 machine learning Methods 0.000 claims description 16
- 230000004048 modification Effects 0.000 description 32
- 238000012986 modification Methods 0.000 description 32
- 230000032683 aging Effects 0.000 description 31
- 238000013473 artificial intelligence Methods 0.000 description 30
- 230000001815 facial effect Effects 0.000 description 21
- 230000010365 information processing Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 13
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 239000002537 cosmetic Substances 0.000 description 5
- 102000001554 Hemoglobins Human genes 0.000 description 4
- 108010054147 Hemoglobins Proteins 0.000 description 4
- 239000000049 pigment Substances 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- HWQQCFPHXPNXHC-UHFFFAOYSA-N 6-[(4,6-dichloro-1,3,5-triazin-2-yl)amino]-3',6'-dihydroxyspiro[2-benzofuran-3,9'-xanthene]-1-one Chemical compound C=1C(O)=CC=C2C=1OC1=CC(O)=CC=C1C2(C1=CC=2)OC(=O)C1=CC=2NC1=NC(Cl)=NC(Cl)=N1 HWQQCFPHXPNXHC-UHFFFAOYSA-N 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 235000013402 health food Nutrition 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 210000002374 sebum Anatomy 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】顔変化出力方法は、顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得し、取得された元顔情報が示す顔表面テクスチャ情報若しくは顔形状情報の一方又は両方を学習済みモデルに適用することで予測された変化顔情報を取得し、取得された変化顔情報と取得された元顔情報に基づいて、当該変化顔情報と当該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得し、取得された差異情報を、少なくとも元顔情報が示す顔形状情報又は変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する。
【選択図】図2
Description
下記特許文献2には、機械学習により得られた学習済みモデルを用いて加齢化を予測する手法が開示されている。当該学習済みモデルは、顔形状の加齢による変化を予測する形状加齢モデルと、顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、二次元画像から三次元データを予測する三次元化予測モデルとを含む。この手法は、対象画像の特徴点を抽出し、抽出した特徴点を用いて対象画像における顔向きを推定し、三次元化予測モデル及び推定した顔向きに基づいて第1の三次元データを生成し、形状加齢モデルを用いて第1の三次元データから第2の三次元データを生成し、第1の三次元データに基づいて生成された二次元画像に対してテクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、第2の三次元データに対して加齢化テクスチャを合成して、加齢化顔モデルを生成する。
下記非特許文献1には、色素ベクトル分析によって顔の陰影を削除すること、陰影を削除した顔画像に対して独立成分分析を適用してヘモグロビン成分及びメラニン成分を抽出すること等が開示されている。
しかしながら、現状の手法には、顔表面テクスチャに関する情報をより分かり易く提示するという点において改善の余地が残る。例えば、予測生成された加齢化モデルは、被写体である対象者にとって望ましくないテクスチャ状態を示している可能性があり、それをそのまま見た対象者はそのモデルに対して不信感を抱き、必要な情報を把握しようとしなくなる可能性がある。
本明細書で「顔表面テクスチャ」とは、顔の肌の表面又は内部に由来する空間分布特徴に相当するものである。「顔表面テクスチャ」の例として、赤みやシミ等の肌の色ムラ等や、肌の光沢、シワ、毛穴、鱗屑等の肌の表面の凹凸或いは粗さのような顔表面の空間的分布を生み出す特徴が挙げられる。また、他の例として、メイクアップ化粧料を塗布した肌においては、塗膜の付着状態や、皮脂分泌がもたらす色ムラ、光沢、表面の凹凸の不均一さのような顔表面の空間的分布を生み出す特徴もあげられる。
また、「特定状態変化」とは、機械学習により得られた学習済みモデルで予測される特定の状態変化であり、時間経過に伴う状態変化である経時変化、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用に伴う状態変化などが例示可能である。
本発明の態様は、三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが実行する顔変化出力方法に関する。この顔変化出力方法は、顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、を含む。
また、本発明の別態様は、例えば、上記態様に係る顔変化出力方法を実行可能な顔変化出力装置(情報処理装置、コンピュータ)に関するものであり、上記態様に係る顔変化出力方法をコンピュータに実行させるプログラムに関するものであり、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体に関するものである。この記録媒体は、非一時的な有形の媒体を含む。
図1は、本方法を実行可能な情報処理装置10のハードウェア構成例を概念的に示す図である。
情報処理装置10は、いわゆるコンピュータであり、CPU11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。情報処理装置10は、据え置き型のPC(Personal Computer)であってもよいし、携帯型のPC、スマートフォン、タブレット等のような携帯端末であってもよい。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。
通信ユニット14は、通信網を介した他のコンピュータとの通信や、プリンタ等の他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
ここでの「学習済みモデル」は、教師データを用いた機械学習、即ち教師あり学習により得られたモデルであり、AI(Artificial Intelligence)モデル、機械学習(Machine Learning(ML))モデル等と表記可能である。
本実施形態で利用される学習済みモデルは、回帰分析で得られる回帰式であってもよいし、主成分分析や、ディープラーニング(深層学習)等で得られるニューラルネットワークモデルであってもよく、そのモデルのデータ構造や学習アルゴリズム等は限定されない。例えば、当該学習済みモデルは、コンピュータプログラムとパラメータとの組合せ、複数の関数とパラメータとの組合せなどにより実現される。顔画像は例えば主成分分析を用いて次元削減・コード化の処理が為される。学習済みモデルは、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。また、学習済みモデルは、複数の重回帰式の組合せで構成されてもよいし、一つの重回帰式で構成されてもよい。
学習済みモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
以降、本方法で利用される学習済みモデルは、AIモデルと表記される。また、以降の説明では、本方法の実行主体をCPU11として説明する。
以下、第一実施形態に係る顔変化出力方法(以下、第一方法と表記する)について図2を用いて説明する。図2は、第一実施形態に係る顔変化出力方法の処理の流れを示す図である。
ここで「AIモデルが三次元の顔形状情報及び顔表面テクスチャ情報を予測可能である」とは、AIモデルから出力される情報に基づいて三次元の顔形状情報及び顔表面テクスチャ情報を取得することができることを意味する。
三次元予測モデルは、二次元の顔画像データとそれに対応する三次元の顔形状情報とのペアを教師データとする機械学習により得ることができ、二次元の顔画像データから、三次元の顔形状情報を予測可能である。この三次元予測モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能であり、例えば、上述の特許文献2で開示される手法で生成された三次元予測モデルが利用可能である。
第一実施形態で用いられる三次元の顔形状情報は、顔の三次元形状を示す情報であればよく、その形式等は制限されない。但し、当該三次元の顔形状情報は、統計的な処理を可能とするために、どの個体のデータも同数の同じトポロジーのデータ点で表現するべく、モデリングが施された情報とされることが好ましい。更には、当該三次元の顔形状情報は、各データ点が解剖学的に同じ意味をもつよう定義された相同モデルで表現されることがより好ましい。
このため、第一実施形態における三次元の顔形状情報は、各個人の顔形状を解剖学的に対応付けられた同一頂点数及び同一位相幾何構造のポリゴンで標準化して表現する相同モデルであり、三次元座標データで示される。以下の説明では、三次元の顔形状情報を相同モデルと表記する場合もある。
また、AIモデルにより予測される特定状態変化が経時変化とされる場合には、その経時変化は、年齢、季節、日間、朝夕等の時間経過に伴う変化であり、その経過時間の長さは制限されない。AIモデルは、5年後或いは10年後の加齢変化を予測してもよいし、一週間後或いは一か月後の変化を予測してもよいし、メイクアップ化粧料塗布直後から一定の時間経過後の変化を予測してもよい。このようなAIモデルにより予測される経時変化は、教師データとして利用される時間経過前後の顔画像データセットにより設定することができる。
また、AIモデルは、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用前後の状態変化を予測してもよい。
当該教師データに含まれる二次元の顔画像データは、素顔の画像データであってもよいし、化粧顔の画像データであってもよい。例えば、メイクアップ化粧料塗布直後の化粧顔の画像データとその化粧顔から時間経過に伴い化粧崩れが生じた化粧顔の画像データとのデータセットが教師データとされてもよい。
また、当該教師データは、時間経過前後の同一人の顔画像データセットのみで形成されることが好ましいが、顔の特徴や顔のテクスチャ特徴が似ているなど、特定状態変化前後に相当しうる異なる二人の顔画像データセットを含んでもよいし、特定状態変化前又は特定状態変化後のいずれか一方の顔画像データとその顔画像データに対する画像処理で生成された他方の顔画像データとでデータセットを形成してもよい。
但し、教師データで用いられる顔画像データは、また、教師データとされる顔画像データは、可視光画像のみでなく、赤外線等の可視光以外の波長帯を撮像した画像であってもよい。
工程(S21)は、対象者の二次元の顔画像データ(以降、元顔画像BPと表記する場合がある)を取得するデータ取得工程である。以降の説明では、工程(S21)で取得された顔画像データに写る対象者の顔を元顔又は経時変化前の顔と表記する場合がある。
元顔画像BPのデータは、例えば、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像ファイルとして取得される。但し、画像のデータ形式は、制限されず、各画素の明暗情報が羅列される形式であってもよい。また、取得される画像は、カラー画像であってもよいし、カラー画像がグレースケール化されることで得られるグレースケール画像であってもよい。CPU11は、顔画像を撮像したカメラから元顔画像BPを取得してもよいし、他のコンピュータや可搬型記録媒体から元顔画像BPを取得してもよい。
そこで、工程(S21)では、取得された顔画像データに対して、AIモデルの教師データの顔画像と適合させる正規化処理を施すことで、元顔画像BPを取得するようにしてもよい。この正規化処理では、例えば、画像データ内の顔の大きさや位置、顔の特定パーツ(目、鼻、口等)の位置の正規化、背景抜き等が行われる。
顔の特定パーツ(目、鼻、口等)の位置の正規化を行う場合には、工程(S21)では、取得された顔画像データに対して所定の画像認識処理を施すことで、目、鼻、口、眉などの特定パーツを自動認識するようにしてもよい。この場合、工程(S21)では、自動認識の結果が示す特定パーツの有無や位置関係などから、取得された顔画像データが利用可能か否かをチェックすることもできる。
本実施形態では、工程(S22)では、元顔情報として、元顔テクスチャ画像BT及び元顔相同モデルBFが生成される。具体的には、まず、三次元予測モデルを用いて元顔画像BPから元顔相同モデルBFが生成される。元顔相同モデルBFは、対象者の元顔に関する三次元の顔形状情報であり、メッシュデータ(三次元座標データ)として示される。続いて、その生成された元顔相同モデルBFを用いて元顔画像BPから元顔テクスチャ画像BTが生成される。元顔テクスチャ画像BTは、対象者の元顔に関する顔表面テクスチャ情報であり、元顔相同モデルBFに適応するように正規化された画像情報である。この正規化では、例えば、元顔画像BPの各特徴点(特定パーツ)の位置が元顔相同モデルBFに合わされたり、元顔画像BPに含まれていないテクスチャ情報の補完や円柱座標系への変換等が行われる。
工程(S24)で取得される差異情報は、顔表面テクスチャ間の差異を示す情報であればよく、本実施形態では差異画像データが当該差異情報として取得される。以降、工程(S24)で取得される差異情報は差異テクスチャ画像DTと表記される場合がある。
例えば、画像間をピクセル単位若しくはブロック単位で比較して、濃淡値の差分値(符号付き又は絶対値)や比率を算出する、或いは濃淡値の比較判別を行うことで差異データを抽出できる。抽出した差異データには、電子的ノイズや、本来の顔表面テクスチャとは違う照明由来の肌のムラ情報等、不要な情報が含まれている場合がある。そこで、周波数フィルタや空間フィルタを当該抽出された差異データに適用することで不要な情報を除外することができる。また、当該差異データの中から必要な情報のみを抽出するために、モルフォロジー変換を介した抽出を行うようにしてもよい。
このように抽出された必要情報を二値化、多値化(グレード化)などで符号化し、符号化した必要情報は、色や輝度の違いとして画像化したり、ラベリングしたりして可視化できる。
工程(S27)での出力は、差異顔画像及び元顔画像を表示装置15に表示することで実現されてもよいし、プリンタ装置に印刷することで実現されてもよいし、可搬型記録媒体や他のコンピュータに通信ユニット14を経由して送ることで実現されてもよい。
また、CPU11は、出力形態としては、差異顔画像及び元顔画像の両方を見比べることができるようにそれらを並べて表示(出力)してもよいし、切り替え可能にいずれか一方を表示してもよいし、重畳して表示してもよい。
但し、工程(S27)では、三次元の差異顔画像(三次元差異画像DBF)のみが出力されてもよい。この場合には、工程(S26)は不要となる。
また、三次元差異画像DBFを三次元顔画像BTFと対比可能に出力することで、両顔画像との対比から、顔表面テクスチャの差異をより容易に把握させることができる。
三次元の顔画像のテクスチャとして予測された特定状態変化後の顔表面テクスチャ情報(予測テクスチャ画像AT)をそのまま出力することなく、特定状態変化前後の差異情報として出力することで、対象者に不快感を与える可能性を低減することができる。
このように、当該差異情報を多視点映像として出力することで、様々な視点で顔表面テクスチャの差異を確認することができる。
上述の第一実施形態は、図3に示されるように変形させることもできる。図3は、第一変形例に係る顔変化出力方法の処理の流れを示す図である。
第一変形例では、上述の第一実施形態の流れにおける工程(S24)と工程(S25)との間に、工程(S31)が更に実行される。
図3においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデルが例示されている。但し、第一変形例は経時変化に限定されるものではない。
工程(S25)では、工程(S31)で生成された合成テクスチャ画像が工程(S22)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、元顔(経時変化前)の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔表面テクスチャの差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTBFと表記される。
上述の第一実施形態及び第一変形例では、顔表面テクスチャ情報の特定状態変化予測及び顔表面テクスチャ情報間の差異算出が行われた。
第二実施形態では、顔表面テクスチャ情報に加えて、対象者の三次元の顔形状情報が処理対象とされる。以下、第二実施形態に係る顔変化出力方法(以下、第二方法と表記する)について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。
第二実施形態で利用されるAIモデルは、特定状態変化前後の二次元の顔画像データセット及び三次元の顔形状情報セットを複数含む教師データとする機械学習により得られ、二次元の顔画像データから、特定状態変化後における三次元の顔形状情報及びその顔形状情報に適合する顔表面テクスチャ情報を予測可能である。
第二実施形態で用いられる三次元の顔形状情報及び顔表面テクスチャ情報は、第一実施形態で述べたとおりである。
形状変化モデルは、特定状態変化前後の三次元の顔形状情報(相同モデル)セットを複数含む教師データを用いた機械学習により得ることができ、三次元予測モデルで予測された三次元の顔形状情報(相同モデル)から特定状態変化後における三次元の顔形状情報(相同モデル)を予測可能である。この形状変化モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能である。形状変化モデルが経時変化を予測する場合には、当該形状変化モデルには、例えば、上述の特許文献2で開示される手法で生成された形状加齢モデルが利用可能である。
工程(S41)及び工程(S42)は、第一実施形態における工程(S21)及び工程(S22)と同様である。即ち、工程(S41)は、対象者の二次元の顔画像データ(元顔画像BP)を取得するデータ取得工程であり、工程(S42)は、工程(S41)で取得された二次元の顔画像データ(元顔画像BP)をAIモデルの三次元予測モデルに適用することにより、対象者の元顔の顔形状情報及び顔表面テクスチャ情報を少なくとも示す元顔情報を取得する工程である。
更に、工程(S43)は、第一実施形態における工程(S23)と同様である。即ち、工程(S43)では、工程(S42)で取得された元顔テクスチャ画像BTがAIモデルのテクスチャ経時変化モデルに適用されて、予測テクスチャ画像ATが生成される。
但し、本実施形態で元顔画像と対比可能に出力される差異顔画像は、上述したとおり、対象者の経時変化後の三次元顔形状を持ち、対象者の経時変化前後の顔表面テクスチャの差異情報をテクスチャ情報として持つ三次元差異画像DAFである。
工程(S48)での出力形態等は、第一実施形態で述べたとおりである。
本実施形態では、CPU11は、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像として、工程(S46)で取得された三次元差異画像DAFと工程(S47)で取得された三次元顔画像BTFとを対比可能に表示装置15に表示する。
但し、工程(S48)では、三次元の差異顔画像(三次元差異画像DAF)のみが出力されてもよい。また、この差異顔画像は自由視点画像として表示されてもよい。このような場合には、工程(S47)は不要となる。
CPU11は、三次元差異画像DAF及び三次元顔画像BTFに加えて、対象者の特定状態変化後の三次元顔画像を対比可能に出力するようにしてもよい。
上述の第二実施形態は、図5に示されるように変形させることもできる。図5は、第二変形例に係る顔変化出力方法の処理の流れを示す図である。
第二変形例では、上述の第二実施形態の流れにおける工程(S45)と工程(S46)との間に、工程(S51)が更に実行される。
図5においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデル及び形状経時変化モデルが例示されている。但し、第二変形例は経時変化に限定されるものではない。
工程(S46)では、工程(S51)で生成された合成テクスチャ画像が工程(S44)で取得された予測相同モデルAFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、対象者の経時変化後の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔表面テクスチャの差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTAFと表記される。
上述の第一実施形態、第二実施形態、及び各変形例では、顔表面テクスチャ情報及び顔形状情報の特定状態変化予測、並びに顔表面テクスチャ情報間の差異算出が行われた。
第三実施形態では、顔表面テクスチャ情報の特定状態変化予測が省かれ、顔形状情報間の差異算出が行われる。以下、第三実施形態に係る顔変化出力方法(以下、第三方法と表記する)について、上述の各実施形態及び各変形例と異なる内容を中心に説明する。以下の説明では、上述と同内容については適宜省略する。
第三実施形態で利用されるAIモデルは、特定状態変化前後の三次元の顔形状情報セット及び特定状態変化前の二次元の顔画像データを複数含む教師データを用いた機械学習により得られ、二次元の顔画像データから、少なくとも特定状態変化後における三次元の顔形状情報を予測可能である。
第三実施形態で用いられる三次元の顔形状情報及び顔表面テクスチャ情報は、上述のとおりである。
図6では、特定状態変化として経時変化を予測する形状経時変化モデルが例示されており、以下の説明では、図6で示される、特定状態変化として経時変化が予測される例を用いて、第三方法について説明する。但し、第三方法は経時変化に限定されるものではない。
工程(S61)及び工程(S62)は、第一実施形態における工程(S21)及び工程(S22)、第二実施形態における工程(S41)及び(S42)と同様である。即ち、工程(S61)は、対象者の二次元の顔画像データ(元顔画像BP)を取得するデータ取得工程であり、工程(S62)は、工程(S61)で取得された二次元の顔画像データ(元顔画像BP)をAIモデルの三次元予測モデルに適用することにより、対象者の元顔の顔形状情報及び顔表面テクスチャ情報を少なくとも示す元顔情報を取得する工程である。
工程(S64)で取得される差異情報は、顔形状間の差異を示す情報であればよく、顔形状間の差異情報の取得手法には周知のあらゆる手法が利用可能である。
本実施形態では、顔形状の差異情報は、画像情報として生成される。
本実施形態では、CPU11は、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像として、工程(S65)で取得された三次元差異画像DFFと工程(S66)で取得された三次元顔画像BTFとを対比可能に表示装置15に表示する。
但し、工程(S67)では、三次元の差異顔画像(三次元差異画像DFF)のみが出力されてもよい。また、この差異顔画像は自由視点画像として表示されてもよい。このような場合には、工程(S66)は不要となる。
上述の第三実施形態は、図7に示されるように変形させることもできる。図7は、第三変形例に係る顔変化出力方法の処理の流れを示す図である。
第三変形例では、上述の第三実施形態の流れにおける工程(S64)と工程(S65)との間に、工程(S71)が更に実行される。
図7においても、特定状態変化として経時変化を予測する形状経時変化モデルが例示されている。但し、第三変形例は経時変化に限定されるものではない。
工程(S65)では、工程(S71)で生成された合成テクスチャ画像が工程(S62)で取得された元顔相同モデルBFと合成されて、三次元の顔画像データが取得される。このため、生成される三次元の顔画像データは、対象者の経時変化前の三次元顔形状を持ち、元顔(経時変化前)の顔表面テクスチャ上に対象者の経時変化前後の顔形状の差異情報が重畳されたテクスチャを持つ三次元の顔画像を示すこととなる。この顔画像(三次元の差異顔画像)は、三次元差異画像DTFFと表記される。
上述の各実施形態及び各変形例では、特定状態変化前後の顔表面テクスチャ又は顔形状の差異情報をテクスチャとし、特定状態変化前又は特定状態変化後の三次元顔形状を持つ三次元の差異顔画像(三次元差異画像DBF、DTBF、DAF、DTAF、DFF、又はDTFF)が、三次元の元顔画像(三次元顔画像BTF)と対比可能に出力されたが、図8に示されるように、二以上の三次元の差異顔画像が、三次元の元顔画像と対比可能に出力されるようにしてもよい。
図8に示されるように、第四変形例では、第二実施形態の工程に加えて、工程(S81)及び工程(S82)が更に実行される。
図8においても、特定状態変化として経時変化を予測するテクスチャ経時変化モデル及び形状経時変化モデルが例示されている。但し、第四変形例は経時変化に限定されるものではない。
工程(S82)は、第三実施形態における工程(S65)と同様であり、経時変化前後の顔形状の差異情報を元顔情報が示す顔形状情報を用いて三次元画像化して、三次元の差異顔画像を取得する工程である。工程(S82)により、元顔(経時変化前)の三次元顔形状を持ち、対象者の経時変化前後の顔形状の差異情報をテクスチャ情報として持つ三次元の差異顔画像(差異画像DFF)が取得される。
図8の例とは異なるが、三次元差異画像DAFに替えて、三次元差異画像DBF、DTBF又はDTAFが出力されてもよいし、三次元差異画像DFFに替えて、三次元差異画像DTFFが出力されてもよい。また、対象者の経時変化前後の顔形状の差異を示す三次元差異画像と、同対象者の経時変化前後の顔表面テクスチャの差異を示す三次元差異画像とが対比可能に出力され、三次元の元顔画像が出力されないようにしてもよい。
即ち、第四変形例における工程(S48)(出力工程)では、少なくとも、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する。
これにより、ユーザは、顔表面テクスチャの特定状態変化と顔形状の特定状態変化とを対比しながら見ることができるため、顔表面テクスチャ及び顔形状の特定状態変化を容易に把握することができる。
更に、どの画像を出力するのかを入力装置16を用いたユーザ操作で指定可能とすることもできる。例えば、CPU11は、三次元差異画像DAFのみを出力するか、三次元差異画像DFFのみを出力するか、又はそれらの両方を出力するのかをユーザ操作で指定可能とする入力画面を表示装置15に表示させ、その入力画面に対するユーザ操作で指定された出力タイプ情報を取得し、その出力タイプ情報で指定されている三次元差異画像DAFのみ、三次元差異画像DFFのみ、又はそれらの両方を表示装置15に表示させることができる。もちろん、このような出力画像の指定には、三次元顔画像BTFが候補に含まれてもよい。
即ち、顔変化出力方法は、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像のみを出力するか、顔形状の差異情報を三次元画像化して得られた第二の差異顔画像のみを出力するか、又は当該第一の差異顔画像及び当該第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、そのユーザ操作で指定された出力タイプ情報を取得する工程と、を更に含み、出力工程では、当該取得された出力タイプ情報で指定されている、第一の差異顔画像若しくは第二の差異顔画像の一方又は両方を出力するようにすることもできる。
このようにすれば、ユーザは見たい画像を指定することができるため、顔表面テクスチャ及び顔形状の特定状態変化の把握性を向上させることができる。
上述の各実施形態及び各変形例では、対象者の元顔が写る二次元の顔画像データからAIモデル(三次元予測モデル)を用いて元顔テクスチャ画像BT及び元顔相同モデルBFが生成されたが、CPU11は、他のコンピュータや可搬型記録媒体等から、元顔テクスチャ画像BT及び元顔相同モデルBFを取得するようにしてもよい。この場合、二次元の顔画像データの取得工程(S21等)及び元顔情報を取得する工程(S22等)は不要となり、三次元予測モデルも不要となる。このとき、二次元の顔画像データの取得工程(S21等)及び元顔情報を取得する工程(S22等)は、他のコンピュータで実行されて、そのコンピュータからCPU11が元顔テクスチャ画像BT及び元顔相同モデルBFを取得するようにしてもよい。
このようにすれば、顔表面テクスチャの特定状態変化及び顔形状の特定状態変化の各状態を一つの三次元画像上で確認することができる。
上述の内容の一部又は全部は、次のようにも特定され得る。但し、上述の内容が以下の記載に制限されるものではない。
三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが、
顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、
前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、
前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、
前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、
を実行する顔変化出力方法。
前記学習済みモデルは、前記形状変化モデル及び前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報及び前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す、顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された差異情報を、少なくとも前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>に記載の顔変化出力方法。
<3>
前記学習済みモデルは前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された顔表面テクスチャの差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>又は<2>に記載の顔変化出力方法。
<4>
前記学習済みモデルは前記形状変化モデルを少なくとも含み、
前記取得工程では、三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔形状情報間の差異を示す顔形状の差異情報を取得し、
前記出力工程では、前記取得された顔形状の差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
<1>から<3>のいずれか一つに記載の顔変化出力方法。
<5>
前記出力工程は、
前記取得された差異情報と前記元顔情報が示す前記顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程を含み、
前記生成された画像情報を、前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の前記差異顔画像を出力する、
<1>から<4>のいずれか一つに記載の顔変化出力方法。
<6>
前記出力工程では、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する、
<1>から<5>のいずれか一つに記載の顔変化出力方法。
<7>
前記第一の差異顔画像のみを出力するか、前記第二の差異顔画像のみを出力するか、又は前記第一の差異顔画像及び前記第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、
前記ユーザ操作で指定された出力タイプ情報を取得する工程と、
を更に実行し、
前記出力工程では、前記取得された出力タイプ情報で指定されている、前記第一の差異顔画像若しくは前記第二の差異顔画像の一方又は両方を出力する、
<6>に記載の顔変化出力方法。
<8>
前記出力工程では、前記取得された元顔情報に基づく三次元の元顔画像と、三次元の前記差異顔画像とを対比可能でありかつユーザ操作により自由に視点を切り替えることができるように表示装置に表示させる、
<1>から<7>のいずれか一つに記載の顔変化出力方法。
<9>
前記学習済みモデルを利用可能な装置であって、<1>から<8>のいずれか一つに記載の顔変化出力方法を実行可能な顔変化出力装置。
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
Claims (9)
- 三次元顔形状の特定状態変化を予測する形状変化モデル若しくは顔表面のテクスチャの特定状態変化を予測するテクスチャ変化モデルの一方又は両方を少なくとも含む、機械学習により得られた学習済みモデルを利用可能な一以上のプロセッサが、
顔表面テクスチャ情報若しくは三次元の顔形状情報の一方又は両方を少なくとも示す元顔情報を取得する取得工程と、
前記取得された元顔情報が示す前記顔表面テクスチャ情報若しくは前記顔形状情報の一方又は両方を前記学習済みモデルに適用することで予測された変化顔情報を取得する予測工程と、
前記取得された変化顔情報と前記取得された元顔情報に基づいて、該変化顔情報と該元顔情報との顔表面テクスチャ情報間又は顔形状情報間の差異を示す、顔表面テクスチャ又は顔形状の差異情報を取得する差異取得工程と、
前記取得された差異情報を、少なくとも前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する出力工程と、
を実行する顔変化出力方法。 - 前記学習済みモデルは、前記形状変化モデル及び前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報及び前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す、顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された差異情報を、少なくとも前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
請求項1に記載の顔変化出力方法。 - 前記学習済みモデルは前記テクスチャ変化モデルを少なくとも含み、
前記取得工程では、顔表面テクスチャ情報及び三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔表面テクスチャ情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔表面テクスチャ情報間の差異を示す顔表面テクスチャの差異情報を取得し、
前記出力工程では、前記取得された顔表面テクスチャの差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
請求項1又は2に記載の顔変化出力方法。 - 前記学習済みモデルは前記形状変化モデルを少なくとも含み、
前記取得工程では、三次元の顔形状情報を少なくとも示す元顔情報を取得し、
前記予測工程では、前記取得された元顔情報が示す前記顔形状情報を前記学習済みモデルに適用することで予測された変化顔情報を取得し、
前記差異取得工程では、前記変化顔情報と前記元顔情報との顔形状情報間の差異を示す顔形状の差異情報を取得し、
前記出力工程では、前記取得された顔形状の差異情報を、少なくとも前記元顔情報が示す前記顔形状情報を用いて三次元画像化して得られる、三次元の差異顔画像を出力する、
請求項1から3のいずれか一項に記載の顔変化出力方法。 - 前記出力工程は、
前記取得された差異情報と前記元顔情報が示す前記顔表面テクスチャ情報とを重ね合わせた画像情報を生成する重畳工程を含み、
前記生成された画像情報を、前記元顔情報が示す前記顔形状情報又は前記変化顔情報が示す顔形状情報を用いて三次元画像化して得られる、三次元の前記差異顔画像を出力する、
請求項1から4のいずれか一項に記載の顔変化出力方法。 - 前記出力工程では、顔表面テクスチャの差異情報を三次元画像化して得られた第一の差異顔画像及び顔形状の差異情報を三次元画像化して得られた第二の差異顔画像を対比可能に出力する、
請求項1から5のいずれか一項に記載の顔変化出力方法。 - 前記第一の差異顔画像のみを出力するか、前記第二の差異顔画像のみを出力するか、又は前記第一の差異顔画像及び前記第二の差異顔画像の両方を出力するかをユーザ操作で指定可能とする工程と、
前記ユーザ操作で指定された出力タイプ情報を取得する工程と、
を更に実行し、
前記出力工程では、前記取得された出力タイプ情報で指定されている、前記第一の差異顔画像若しくは前記第二の差異顔画像の一方又は両方を出力する、
請求項6に記載の顔変化出力方法。 - 前記出力工程では、前記取得された元顔情報に基づく三次元の元顔画像と、三次元の前記差異顔画像とを対比可能でありかつユーザ操作により自由に視点を切り替えることができるように表示装置に表示させる、
請求項1から7のいずれか一項に記載の顔変化出力方法。 - 前記学習済みモデルを利用可能な装置であって、請求項1から8のいずれか一項に記載の顔変化出力方法を実行可能な顔変化出力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020127233A JP7599290B2 (ja) | 2020-07-28 | 2020-07-28 | 顔変化出力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020127233A JP7599290B2 (ja) | 2020-07-28 | 2020-07-28 | 顔変化出力方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024209888A Division JP2025023207A (ja) | 2024-12-03 | 顔変化出力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022024565A true JP2022024565A (ja) | 2022-02-09 |
JP7599290B2 JP7599290B2 (ja) | 2024-12-13 |
Family
ID=80265842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020127233A Active JP7599290B2 (ja) | 2020-07-28 | 2020-07-28 | 顔変化出力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7599290B2 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011150595A (ja) | 2010-01-22 | 2011-08-04 | Shiseido Co Ltd | 顔形状評価装置、顔形状評価方法、及び顔形状評価プログラム |
JP5950486B1 (ja) | 2015-04-01 | 2016-07-13 | みずほ情報総研株式会社 | 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム |
JP7074422B2 (ja) | 2016-11-02 | 2022-05-24 | 花王株式会社 | 加齢分析方法 |
-
2020
- 2020-07-28 JP JP2020127233A patent/JP7599290B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP7599290B2 (ja) | 2024-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598998B (zh) | 三维虚拟模型重建方法、装置、计算机设备和存储介质 | |
CN113327278B (zh) | 三维人脸重建方法、装置、设备以及存储介质 | |
EP3970123A1 (en) | Animating avatars from headset cameras | |
JP7246811B2 (ja) | 顔画像生成用のデータ処理方法、データ処理機器、コンピュータプログラム、及びコンピュータ機器 | |
CN110796593B (zh) | 基于人工智能的图像处理方法、装置、介质及电子设备 | |
WO2022143645A1 (zh) | 三维人脸重建的方法、装置、设备和存储介质 | |
JP2020515952A (ja) | 年齢容姿シミュレーションのための方法 | |
JP6207210B2 (ja) | 情報処理装置およびその方法 | |
CN113628327B (zh) | 一种头部三维重建方法及设备 | |
CN114245215B (zh) | 说话视频的生成方法、装置、电子设备、介质及产品 | |
JP2001109913A (ja) | 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体 | |
CN114283052A (zh) | 妆容迁移及妆容迁移网络的训练方法和装置 | |
Li et al. | Lightweight wrinkle synthesis for 3d facial modeling and animation | |
CN113808277A (zh) | 一种图像处理方法及相关装置 | |
CN114743241A (zh) | 一种人脸表情识别方法、装置、电子设备及存储介质 | |
WO2024174422A1 (zh) | 模型的生成方法及装置、电子设备、存储介质 | |
Geng et al. | Towards photo-realistic facial expression manipulation | |
CN114494611B (zh) | 基于神经基函数的智能三维重建方法、装置、设备及介质 | |
CN114049290A (zh) | 图像处理方法、装置、设备及存储介质 | |
JP7599290B2 (ja) | 顔変化出力方法 | |
JP7495292B2 (ja) | 顔経時変化予測方法 | |
JP2025023207A (ja) | 顔変化出力方法 | |
JP7429683B2 (ja) | 顔表面テクスチャの経時変化特性判定方法 | |
Yu et al. | Facial video coding/decoding at ultra-low bit-rate: a 2D/3D model-based approach | |
JP7605883B2 (ja) | 肌状態推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7599290 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |