JP5950486B1 - 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム - Google Patents

加齢化予測システム、加齢化予測方法及び加齢化予測プログラム Download PDF

Info

Publication number
JP5950486B1
JP5950486B1 JP2015137942A JP2015137942A JP5950486B1 JP 5950486 B1 JP5950486 B1 JP 5950486B1 JP 2015137942 A JP2015137942 A JP 2015137942A JP 2015137942 A JP2015137942 A JP 2015137942A JP 5950486 B1 JP5950486 B1 JP 5950486B1
Authority
JP
Japan
Prior art keywords
aging
model
dimensional
prediction
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015137942A
Other languages
English (en)
Other versions
JP2016194892A (ja
Inventor
永田 毅
毅 永田
和敏 松崎
和敏 松崎
秀正 前川
秀正 前川
和彦 今泉
和彦 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuho Information and Research Institute Inc
Original Assignee
Mizuho Information and Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuho Information and Research Institute Inc filed Critical Mizuho Information and Research Institute Inc
Priority to JP2015137942A priority Critical patent/JP5950486B1/ja
Priority to KR1020177025018A priority patent/KR101968437B1/ko
Priority to CN201680016809.0A priority patent/CN107408290A/zh
Priority to PCT/JP2016/063227 priority patent/WO2017006615A1/ja
Application granted granted Critical
Publication of JP5950486B1 publication Critical patent/JP5950486B1/ja
Publication of JP2016194892A publication Critical patent/JP2016194892A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔画像の加齢シミュレーションを効率的かつ的確に行なうための加齢化予測システム、加齢化予測方法及び加齢化予測プログラムを提供する。【解決手段】加齢化予測システム20は、制御部21、経年変化データ記憶部22、スナップショットデータ記憶部23、モデル記憶部25を備えている。制御部21は、経年変化データ記憶部22及びスナップショットデータ記憶部23を用いて、角度予測モデル、3次元化変換予測モデル、形状加齢モデル、テクスチャ加齢モデルを生成して、モデル記憶部25に記憶する。制御部21は、角度予測モデル及び3次元化変換予測モデルを用いて処理対象の2次元顔画像から3次元顔データを生成する。制御部21は、形状加齢モデル、テクスチャ加齢モデルを用いて、顔画像のテクスチャについて加齢による変化と顔形状について加齢による変化とを予測して、加齢後の顔画像を出力する。【選択図】図1

Description

本発明は、顔画像の加齢シミュレーションを行なうための加齢化予測システム、加齢化予測方法及び加齢化予測プログラムに関する。
美容において、加齢後の顔や体の形状変化を予測するシステムが検討されている(例えば、特許文献1参照。)。この特許文献1に記載の技術においては、顔をスキャンして取得した画像からポリゴンメッシュを構築し、このポリゴンメッシュが再パラメータ化されて、ベースメッシュ及び変位画像が算出される。この変位画像は複数のタイルに分割され、各タイルの統計値が測定される。統計値は、変更された変位画像を変形させ、変形された変位画像がベースメッシュと結合されて新たな顔が合成される。
特開2007−265396号公報
しかしながら、顔画像についての加齢シミュレーションを行なう場合、3次元顔データを入手できるとは限らず、多様な角度から撮影された2次元顔画像を用いて加齢シミュレーションを行わなければならない場合もある。この場合、2次元顔画像が撮影された向き(角度)を考慮する必要がある。また、顔には、解剖学的に同じ位置にある特徴点がある。従って、解剖学的な特徴点を考慮せずに、顔画像を単なるテクスチャ画像として扱ったのでは、的確な加齢シミュレーションを効率的に実行することが困難である。
本発明は、上記の課題に鑑みてなされ、その目的は、顔画像の加齢シミュレーションを効率的かつ的確に行なうための加齢化予測システム、加齢化予測方法及び加齢化予測プログラムを提供することにある。
(1)上記課題を解決する加齢化予測システムは、顔形状の加齢による変化を予測する形状加齢モデルと、顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、2次元画像から3次元データを予測する3次元化予測モデルとを記憶したモデル記憶部と、入力部、出力部に接続され、加齢化を予測する制御部とを備える。前記制御部が、前記入力部から予測対象画像を取得し、前記予測対象画像の特徴点を抽出し、抽出した前記特徴点を用いて、前記予測対象画像における顔向きを推定し、前記3次元化予測モデル及び推定した前記顔向きに基づいて、第1の3次元データを生成し、前記形状加齢モデルを用いて、前記第1の3次元データから第2の3次元データを生成し、前記第1の3次元データに基づいて生成された2次元画像に対して、前記テクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、前記第2の3次元データに対して、前記加齢化テクスチャを合成して、加齢化顔モデルを生成して、前記出力部に出力する予測処理を実行する。これにより、形状加齢モデルとテクスチャ加齢モデルとを用いて加齢化顔モデルを生成するので、形状のみ又はテクスチャのみを加齢化させるよりも的確に行なうことができる。更に、予測対象画像の顔が正面から撮影していなくても、学習によって予測対象画像における顔向きを推定して効率よく加齢化させることができる。
(2)上記加齢化予測システムにおいては、前記制御部は、前記入力部から、出力用として指定された顔向き角度を取得し、生成した前記加齢化顔モデルを用いて、前記顔向き角度の2次元顔画像を生成して、前記出力部に出力することが好ましい。これにより、指定された顔向きで加齢化した顔の画像を出力することができる。
(3)上記加齢化予測システムにおいては、前記制御部は、取得した3次元顔サンプルデータに基づいて、2次元画像を生成し、前記2次元画像において特徴点を特定し、前記特徴点を用いて、前記3次元顔サンプルデータを正規化した正規化サンプルデータを生成し、前記正規化サンプルデータを用いて、前記形状加齢モデル及びテクスチャ加齢モデルを生成して、前記モデル記憶部に記憶する学習処理を実行することが好ましい。これにより、実際のサンプルデータに基づいて加齢モデルを生成することができる。
(4)上記加齢化予測システムにおいては、前記学習処理は、前記正規化サンプルデータを用いて前記3次元化予測モデルを生成して、前記モデル記憶部に記憶することが好ましい。これにより、実際のサンプルデータに基づいて3次元化予測モデルを生成することができる。
(5)上記加齢化予測システムにおいては、前記モデル記憶部には、主成分分析を用いて算出した第1のテクスチャ加齢モデルと、ウェーブレット変換を用いて算出した第2のテクスチャ加齢モデルとが記憶されており、前記制御部は、前記第1の3次元データに基づいて生成された2次元画像に対して、第1のテクスチャ加齢モデルを適用した画像をウェーブレット変換した第1のウェーブレット係数と、前記第1の3次元データに基づいて生成された2次元画像に対して、第2のテクスチャ加齢モデルを適用した第2のウェーブレット係数とを比較した結果に応じて、適用する前記テクスチャ加齢モデルを特定することが好ましい。これにより、既に存在するシミ及び皺等を用いて予測する第2のテクスチャ加齢モデルを用いることができるので、より適切な加齢モデルを生成することができる。
本発明によれば、顔画像の加齢シミュレーションを効率的かつ的確に行なうことができる。
本実施形態の加齢化予測システムの説明図。 本実施形態に用いられる全体的なデータ生成処理の流れ図。 本実施形態の学習前処理の処理手順の流れ図。 本実施形態の円柱座標系への変換処理の処理手順の流れ図。 本実施形態の円柱座標系への変換処理を説明する説明図であって、(a)は欠落部がある画像、(b)は円柱座標系における半径と円柱方向角度とを2軸とした2次元の顔画像、(c)は円柱座標系における円柱高と円周方向角度とを2軸とした2次元の顔画像。 本実施形態の顔特徴点抽出処理の顔特徴点を説明する説明図。 本実施形態の顔特徴点の正規化処理の処理手順の流れ図。 本実施形態の重回帰分析による正規化処理を説明する説明図であって、(a)は処理手順の流れ図、(b)はX軸、Y軸周りの傾き補正の説明図、(c)はZ軸周りの傾き補正の説明図。 本実施形態の形状の相同モデル化処理を説明する説明図であって、(a)は形状の相同モデル化処理の処理手順の流れ図、(b)メッシュモデル。 本実施形態のテクスチャの相同モデル化処理を説明する説明図であって、(a)はテクスチャの相同モデル化処理の処理手順の流れ図、(b)は各メッシュモデルの平均座標に変形したテクスチャの平均を示した平均顔。 本実施形態の形状の相同モデル化処理を説明する説明図であって、(a)は画像正規化メッシュモデル、(b)は算出した平均値のテクスチャから生成した平均顔。 本実施形態の2次元顔画像の角度学習処理の処理手順の流れ図。 本実施形態の機械学習処理における変数選択アルゴリズムを説明する説明図。 本実施形態の機械学習処理における変数更新処理アルゴリズムを説明する説明図。 本実施形態の3次元化変換の学習処理の処理手順の流れ図。 本実施形態の3次元化変換の予測検証処理の処理手順の流れ図。 本実施形態の3次元化変換の検証結果を説明する説明図であって、(a)は入力データ、(b)は正解、(c)は2次元特徴点のみで予測、(d)は2次元特徴点及び画像で予測した場合の顔画像。 本実施形態の主成分分析を利用したテクスチャ加齢化の学習処理の処理手順の流れ図。 本実施形態のテクスチャ加齢化の予測検証処理の処理手順の流れ図。 本実施形態のテクスチャ加齢化の予測検証における各主成分を説明する説明図。 本実施形態において主成分の上限を変更して再構成した画像を説明する説明図。 本実施形態のウェーブレット変換を利用したテクスチャの加齢化処理を説明する説明図であって、(a)は処理手順の流れ図、(b)はウェーブレット係数を可視化して表示した画像。 本実施形態の3次元形状加齢化の学習処理の処理手順の流れ図。 本実施形態の加齢化予測処理の処理手順の流れ図。 本実施形態のテクスチャの加齢化予測処理の処理手順の流れ図。 本実施形態の加齢化予測処理に用いられるマスク領域を説明する説明図であって、(a)は形状予測マスク領域、(b)はテクスチャ予測マスク領域を示す。 本実施形態の加齢化予測処理における画像であって、(a)を入力データ、(b)は10年後の加齢化予測、(c)は15年後の加齢化を予測した画像。
以下、図1〜図27を用いて、加齢化予測システム、加齢化予測方法及び加齢化予測プログラムを具体化した一実施形態を説明する。本実施形態では、3次元顔データを用いて、加齢による顔の経年変化を学習する。そして、撮影された2次元顔画像を用いて、加齢化後の顔画像を予測する加齢シミュレーションを行なう。
<加齢化予測システムの構成>
図1に示すように、本実施形態では、加齢化予測システム20を用いる。この加齢化予測システム20には、入力部10、出力部15が接続されている。入力部10は、各種情報を入力するための手段であり、キーボードやポインティングデバイス、記録媒体からデータを取得する入力インターフェイス等により構成される。出力部15は、各種情報を出力するための手段であり、ディスプレイ等により構成される。
加齢化予測システム20は、加齢化予測処理を行なうためのコンピュータシステムである。この加齢化予測システム20は、制御部21、経年変化データ記憶部22、スナップショットデータ記憶部23、モデル記憶部25を備えている。
制御部21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(学習管理段階、第1学習段階、第2学習段階、第3学習段階、主成分分析段階、機械学習段階、加齢管理段階、第1処理段階、第2処理段階、第3処理段階等の各処理等)を行なう。そのための加齢化予測プログラムを実行することにより、制御部21は、学習管理部210、第1学習部211、第2学習部212、第3学習部213、主成分分析部214a、機械学習部214b、加齢管理部215、第1処理部216、第2処理部217、第3処理部218として機能する。
学習管理部210は、加齢シミュレーションにおける顔の経年変化を学習する処理を実行する。この学習管理部210は、後述するように、顔特徴点を用いて両目の重心位置を算出する重心算出手段を記憶している。更に、学習管理部210は、後述する形状の相同モデル化処理に用いるジェネリックモデル(基本モデル)に関するデータを予め作成して、メモリに記憶している。このジェネリックモデルは、日本人の一般的な特徴を表した顔に関するモデルである。本実施形態では、メッシュポイント数が10741個、ポリゴン(三角形)数が21256個のジェネリックモデルを用いる。このジェネリックモデルには、顔特徴点に対応するメッシュポイントが含まれており、各顔特徴点を特定する識別情報が設定されている。
また、学習管理部210は、後述するテクスチャの相同モデル化処理において、顔特徴点の座標から、正規化したメッシュモデルの各頂点の座標の平均を算出する予め定めたテクスチャ平均算出ルールを記憶している。
更に、学習管理部210は、学習に用いる円柱座標系画像、円柱座標系座標、相同モデルを記録するための学習用メモリを備えている。
第1学習部211は、2次元顔データ(顔画像)から、3次元円柱座標系で表わされた3次元顔データを予測するためのモデルを作成する第1学習処理を実行する。
第2学習部212は、顔画像の質感(テクスチャ)について、加齢による変化を予測するためのモデルを作成する第2学習処理を実行する。
第3学習部213は、顔形状について、加齢による変化を予測するためのモデルを作成する第3学習処理を実行する。
主成分分析部214aは、学習管理部210及び各学習部(211〜213)からの指示に応じて、主成分分析処理を行なう。
機械学習部214bは、各学習部(211〜213)からの指示に応じて、従属変数(予測対象特徴量)を用いて説明変数(予測時に使用する特徴量)を算出する処理を行なう。
加齢管理部215は、2次元顔画像を用いて、加齢後の顔画像を生成する処理を実行する。この加齢管理部215は、予測対象の2次元顔画像を取得し、第1〜第3処理部(216〜218)を用いて、テクスチャ及び形状の加齢化シミュレーションを行なう。
第1処理部216は、処理対象の2次元顔画像から、3次元円柱座標系で表わされた3次元顔データを生成する処理を実行する。
第2処理部217は、顔画像の質感(テクスチャ)について、加齢による変化を予測する処理を実行する。本実施形態では、主成分分析を利用したテクスチャ加齢モデルと、ウェーブレット(WAVELET)変換を利用したテクスチャ加齢モデルとを用いて、テクスチャ加齢化処理を実行する。第2処理部217は、この処理に用いる重み係数wをメモリに記憶している。この重み係数wは、主成分分析を利用したモデルとウェーブレット変換を利用したモデルとを用いる場合、どちらのモデルに重点を置くかを決めるための値である。本実施形態では、重み係数wとして「1」を用いる。
第3処理部218は、3次元顔データを用いて、顔形状について加齢による変化を予測する処理を実行する。
また、経年変化データ記憶部22には、所定数の学習対象者(学習に用いるサンプル)について、経年変化前と経年変化後(本実施形態では、10年後)の3次元顔データ(経年変化データ)が記録されている。この経年変化データを用いることにより、この加齢前後の変化を把握することができる。本実施形態では、経年変化データとして、約170名分のデータを用いる。
スナップショットデータ記憶部23には、より多くの学習対象者を撮影した3次元顔データ(スナップショットデータ)が記録されている。このスナップショットデータでは、1回のみの撮影であり、経年変化は記録されていない。本実施形態では、スナップショットデータとして、約870名分のデータを用いる。
なお、本実施形態の経年変化データ記憶部22、スナップショットデータ記憶部23には、円柱座標系以外のデータフォーマット(XYZ座標)で3次元データが記録されている場合を想定する。
モデル記憶部25には、加齢シミュレーションにおける各種予測を行なう場合に用いるモデル(説明変数を使って結果変数を計算するアルゴリズム)が記憶されている。本実施形態では、角度予測モデル、3次元化予測モデル、テクスチャ加齢モデル、形状加齢モデルに関するデータが記憶される。
角度予測モデルデータ領域には、処理対象の2次元顔画像が撮影された向き(顔正面に対する角度)を予測するためのモデルデータが記憶される。この角度予測モデルデータは、第1学習部211によって算出されて記録される。
3次元化予測モデルデータ領域には、正面向きの2次元顔画像を3次元顔データに変換するためのモデルデータが記憶される。この3次元化予測モデルデータは、第1学習部211によって算出されて記録される。
テクスチャ加齢モデルデータ領域には、顔のテクスチャについて、加齢化後のテクスチャを予測するためのモデルデータが記憶される。このテクスチャ加齢モデルデータは、第2学習部212によって算出されて記録される。本実施形態では、主成分分析を利用したテクスチャ加齢モデルデータと、ウェーブレット変換を利用したテクスチャ加齢モデルデータとが記憶されている。
形状加齢モデルデータ領域には、顔形状について、加齢化後の形状を予測するためのモデルデータが記憶される。この形状加齢モデルデータは、第3学習部213によって算出されて記録される。
<モデルの生成>
次に、図2を用いて、各モデルの生成について、生成処理の概要を説明する。
まず、加齢化予測システム20の制御部21は、経年変化データ記憶部22に記憶された3次元顔データD1を用いて、円柱座標系画像D2と円柱座標系座標データD3とを生成する。円柱座標系画像D2は、3次元顔データを、円柱座標系に射影し、「900×900」の等間隔メッシュに補間して作成した2次元画像データである。円柱座標系座標データD3は、3次元顔データを、円柱座標系に射影して生成した「900×900」画像の各点の3次元座標に関するデータである。
次に、加齢化予測システム20の制御部21は、円柱座標系画像D2及び円柱座標系座標データD3を用いて顔特徴点データD4を生成する。この顔特徴点データD4は、円柱座標系画像D2における顔の特徴点の座標に関するデータである。この顔の特徴点の詳細については後述する。
そして、加齢化予測システム20の制御部21は、円柱座標系座標データD3を用いて、顔特徴点データD4、円柱座標系画像D2の正規化処理を行なう。そして、正規化された円柱座標系画像D5、正規化された顔特徴点データD6及び3次元メッシュデータD7(相同モデル)を生成する。この正規化処理の詳細については、後述する。ここで、相同モデルとは、顔についての3次元データをメッシュで表現し、各メッシュの頂点が、解剖学的に同じ位置になるように変換した3次元座標データである。
更に、加齢化予測システム20の制御部21は、正規化された円柱座標系画像D5、3次元メッシュデータD7(相同モデル)を用いて、任意角度から撮影した2次元顔画像D8を生成する。
そして、加齢化予測システム20の制御部21は、任意角度から撮影した2次元顔画像D8と正規化された顔特徴点データD6と3次元メッシュデータD7(相同モデル)とを用いて、2次元顔画像から3次元顔データへの変換についての第1学習処理を実行する。この第1学習処理の詳細は後述する。
更に、加齢化予測システム20の制御部21は、正規化された円柱座標系画像D5を用いて、テクスチャ加齢化についての第2学習処理を行なう。この第2学習処理の詳細は後述する。
また、加齢化予測システム20の制御部21は、3次元メッシュデータD7(相同モデル)を用いて、3次元形状加齢化についての第3学習処理を行なう。この第3学習処理の詳細は後述する。
<学習前処理>
次に、図3〜図11を用いて、上述した第1〜第3学習処理の前に行なわれる学習前処理を説明する。この処理は、経年変化データ記憶部22、スナップショットデータ記憶部23に記録された各3次元データについて、個別に行なわれる。
図3に示すように、まず、加齢化予測システム20の制御部21は、円柱座標系への変換処理を実行する(ステップS1−1)。この処理の詳細については、図4及び図5を用いて後述する。
次に、加齢化予測システム20の制御部21は、顔特徴点の抽出処理を実行する(ステップS1−2)。この処理の詳細については、図6を用いて後述する。
次に、加齢化予測システム20の制御部21は、顔特徴点の正規化処理を実行する(ステップS1−3)。この処理の詳細については、図7及び図8を用いて後述する。
次に、加齢化予測システム20の制御部21は、相同モデル化処理を実行する(ステップS1−4)。ここでは、顔の形状の相同モデルとテクスチャの相同モデルとを生成する。これらの処理の詳細については、図9及び図10を用いて後述する。
次に、加齢化予測システム20の制御部21は、正規化された円柱座標系画像の生成処理を実行する(ステップS1−5)。この処理の詳細については、図11を用いて後述する。
<円柱座標系への変換処理>
次に、図4及び図5を用いて、円柱座標系への変換処理(ステップS1−1)を説明する。
まず、制御部21の学習管理部210は、欠落部の補間処理を実行する(ステップS2−1)。具体的には、学習管理部210は、3次元顔データにおいて欠落している部分があるかどうかを確認する。欠落部を検出した場合、学習管理部210は、この欠落部の周辺情報を用いて、欠落部の補間を行なう。具体的には、欠落部周囲に隣接する所定範囲のデータに基づいて、公知の補間方法を用いて、欠落部の埋め合わせを行なう。
例えば、図5(a)に示す3次元顔データを用いる場合を想定する。図5(b)には、この3次元顔データを、円柱座標系における半径と円柱方向角度とを2軸とした円柱座標系で表している。この3次元顔データにおいては、顎や耳の周囲の一部のデータが欠落している。これらの部分の画像を、周辺の画像を用いた補間処理によって生成して埋め合わせを行なう。
次に、制御部21の学習管理部210は、円柱座標系画像の生成処理を実行する(ステップS2−2)。具体的には、学習管理部210は、欠落部の補間処理を行なった3次元顔データを、円柱座標系に射影する(2次元マッピング)。そして、学習管理部210は、射影した顔画像データを「900×900」の等間隔メッシュに補間し、円柱座標系の2次元顔画像を生成する。そして、学習管理部210は、生成した2次元顔画像を、円柱座標系画像D2として学習用メモリに記録する。
図5(c)は、円柱座標系に投影させた3次元顔データを、2軸(円柱高、円周方向角度)で表した2次元顔画像である。
次に、制御部21の学習管理部210は、円柱座標系座標の生成処理を実行する(ステップS2−3)。具体的には、学習管理部210は、3次元顔データの各座標(X,Y,Z)を円柱座標系に射影し、上述した「900×900」の画像各点について、円柱座標系の座標データ(径方向,角度,高さ)を生成する。そして、学習管理部210は、生成した2次元顔画像を、円柱座標系座標データD3として学習用メモリに記録する。
<顔特徴点抽出処理>
次に、図6を用いて、顔特徴点抽出処理(ステップS1−2)を説明する。ここで、顔特徴点とは、顔を構成する顔パーツ(眉毛、目、鼻、口、耳、頬部、下顎部等)における特徴的な位置(例えば、眉毛最外側点、眉毛最内側点、口角点等)である。本実施形態では、33個の顔特徴点を用いる。なお、顔特徴点を、ユーザーが任意に追加・削除できるようにしてもよい。この場合には、追加・削除された顔特徴点を用いて、後述する処理を行なう。
図6には、本実施形態で用いる顔特徴点(32個)を、番号を付して示している。特徴点番号「33」は、他の特徴点を用いて「両目特徴点の重心と鼻頂点を結んだ直線の中点」として算出する。
制御部21の学習管理部210は、生成した円柱座標系座標から顔特徴点を特定し、その位置(座標)を算出する。本実施形態では、顔の表情のトラッキングや顔の認識等に使われている公知のAAM(Active Appearance Models)法を用いた自動抽出を行なう。このAAM法では、対象物体(ここでは、顔)を有限個の頂点でモデル化し、このモデルを入力画像に対してフィッティングすることにより、対象物体の特徴点を抽出する。
そして、学習管理部210は、抽出した顔特徴点を、抽出位置に対応付けた顔画像を出力部15に表示する。この場合、各顔特徴点の位置を移動可能に配置する。
ここで、担当者は、出力部15に表示された顔画像上の顔特徴点の位置を確認し、必要に応じて修正を行なう。そして、顔画像上において顔特徴点の確認や修正の完了入力が行なわれた場合、学習管理部210は、各顔特徴点の円柱座標系座標を、各顔特徴点の番号に関連付けた顔特徴点データD4を生成して学習用メモリに記憶する。
<顔特徴点の正規化処理>
次に、図7を用いて、顔特徴点の正規化処理(ステップS1−3)を説明する。
まず、制御部21の学習管理部210は、抽出した顔特徴点データを用いて、重回帰分析による正規化処理を実行する(ステップS3−1)。ここでは、顔の特徴点から重回帰分析でXYZ軸での回転を求め、顔の向きを合わせる。顔のサイズは、両目中心の間隔が所定値(本実施形態では64mm)になるように正規化する。この処理の詳細については、図8を用いて後述する。
次に、制御部21の学習管理部210は、特徴点の平均の計算処理を実行する(ステップS3−2)。具体的には、学習管理部210は、各学習対象者についての33個の各顔特徴点データの座標を用いて、各特徴点の平均座標を算出する。これにより、学習対象者の平均顔における各特徴点の座標が算出される。
次に、制御部21の学習管理部210は、プロクラステス解析による正規化処理を実行する(ステップS3−3)。具体的には、学習管理部210は、ステップS3−2で算出した平均座標と各顔特徴点間の二乗距離の和が最小になるように、最小二乗法を用いて、各特徴点の平行移動、回転、リサイズを行なう。ここでは、耳珠点(特徴点番号7、13)や下顎角点(特徴点番号8、12)等を除いた25個(図6の特徴点番号1〜6,10,14〜22,24〜27,28〜32)の顔特徴点を用いる。これにより、顔の特徴点を平均顔に近くなるように調整される。
<重回帰分析による正規化処理>
次に、図8(a)を用いて、重回帰分析による正規化処理(ステップS3−1)を説明する。この処理により、顔の向きを合わせるとともに、顔のサイズの正規化を行なう。
まず、制御部21の学習管理部210は、両目特徴点の重心の特定処理を実行する(ステップS4−1)。具体的には、学習管理部210は、顔特徴点データの内、目に関する顔特徴点を特定する。次に、学習管理部210は、抽出した顔特徴点の座標について、重心算出手段を用いて、両目の重心の位置を算出する。そして、学習管理部210は、算出した両目の重心の位置を原点として特定する。
次に、制御部21の学習管理部210は、X軸、Y軸周りの傾き補正処理を実行する(ステップS4−2)。具体的には、学習管理部210は、両目の重心の位置を原点として、顔輪郭と鼻頂点を除いた顔特徴点の集合に対して、Z座標を目的変数、X,Y座標を説明変数として重回帰分析を行なう。
ここでは、図8(b)に示すように、重回帰分析により、回帰平面RPSを算出する。そして、学習管理部210は、算出した回帰平面RPSの法線NVがZ軸と平行になるように、回帰平面RPSをX,Y軸周りに回転させる。
次に、制御部21の学習管理部210は、Z軸周りの傾き補正処理を実行する(ステップS4−3)。具体的には、学習管理部210は、顔の中心線を算出する顔特徴点の集合を用いる。本実施形態では、顔特徴点として、両目の重心、鼻の頂点、鼻の下端、上唇の上端、下唇の下端、顎先端座標の集合を用いる。
図8(c)に示すように、この集合に対して、Y座標を目的変数、X座標を説明変数として、回帰直線RLを算出する。そして、学習管理部210は、算出した回帰直線RLの傾きがY軸と平行になるように、Z軸周りに回転させる。
次に、制御部21の学習管理部210は、スケーリング処理を実行する(ステップS4−4)。具体的には、学習管理部210は、両目中心間の距離が64mmとなるように、拡大又は縮小を行なう。
<形状の相同モデル化処理>
次に、図9(a)を用いて、相同モデル化処理(ステップS1−4)における形状の相同モデル化処理について説明する。
まず、制御部21の学習管理部210は、顔の特徴点座標の合わせ込み処理を実行する(ステップS5−1)。具体的には、学習管理部210は、メモリに記憶したジェネリックモデルのメッシュポイントの識別情報を用いて、正規化した各顔特徴点の座標を、特定したメッシュポイントの顔特徴点に一致させる。
次に、制御部21の学習管理部210は、形状への合わせ込み処理を実行する(ステップS5−2)。具体的には、学習管理部210は、各顔特徴点を一致させたジェネリックモデルにおける各顔パーツの形状を、正規化した各顔パーツの形状に一致させる。
次に、制御部21の学習管理部210は、三角形分割処理を実行する(ステップS5−3)。具体的には、学習管理部210は、ジェネリックモデルの形状に一致させた正規化した各顔パーツの形状において、ジェネリックモデルの各ポリゴン(三角形)に対応する各メッシュポイントの座標を算出したモデル(形状の相同モデル)を、学習用メモリに記憶する。
図9(b)に示すように、目、鼻、口といった顔パーツ周辺のメッシュを細かくして、その他の領域メッシュを広くしたメッシュモデルを用いることにより、全体のメッシュポイントの数を抑えることができる。なお、額部分については、前髪の存在が統計処理において悪影響を与えるため、削除している。
<テクスチャの相同モデル化処理>
次に、図10(a)を用いて、テクスチャの相同モデル化処理について説明する。
まず、制御部21の学習管理部210は、正規化したメッシュモデルの各頂点の座標について平均の算出処理を実行する(ステップS6−1)。具体的には、学習管理部210は、予め記憶しているテクスチャ平均算出ルールを用いて、正規化した各顔特徴点の座標から、各メッシュポイント(頂点)の平均座標を算出する。
次に、制御部21の学習管理部210は、円柱座標系2次元ポリゴン上のテクスチャを平均した2次元ポリゴンに変形する処理を実行する(ステップS6−2)。具体的には、学習管理部210は、円柱座標系の各2次元顔データのポリゴン上のテクスチャ(画素情報)を、ステップS6−1において算出した平均座標に変形し、変形した平均座標におけるテクスチャを学習用メモリに記憶する。
そして、制御部21の学習管理部210は、各平均座標におけるテクスチャの平均を算出することにより、テクスチャの相同モデルを算出し、学習用メモリに記憶する。
図10(b)には、各メッシュモデルの平均座標に変形したテクスチャの平均化した平均顔を示す。
<正規化された円柱座標系画像の生成処理>
次に、正規化された円柱座標系画像の生成処理(ステップS1−5)を説明する。
ステップS2−2において生成した円柱座標系画像は、データ毎に顔パーツ(目、鼻、口等)の位置が異なっているため、そのまま解析できない。そこで、各データの顔パーツの位置が揃うように、円柱座標系画像の正規化を行なう。
ここで、正規化に利用する画像正規化メッシュモデルについて説明する。この画像正規化メッシュモデルは、33個の顔特徴点を利用し、円柱座標系上で、メッシュを格子状に張り付ける。
ここでは、図11(a)に示すように、メッシュポイント数として5584個、ポリゴン(三角形)数として10862個のメッシュモデルを用いる。
制御部21の学習管理部210は、全データについて、画像正規化メッシュモデルの平均値と、各ポリゴンのテクスチャの平均値を算出する。
この結果、図11(b)に示すように、算出した平均値のテクスチャから平均顔が生成される。
入力された円柱座標系画像を平均メッシュと一致させるように各ポリゴンを変形すると顔を構成するメッシュが平均顔メッシュに一致する。従って、円柱座標系画像が正規化されたことになる。
<2次元顔画像の角度学習処理>
次に、図12を用いて、2次元顔画像の角度学習処理を説明する。この処理では、2次元顔画像から撮影された角度(顔の向き)を推定するモデルを生成する。この角度学習処理は、経年変化データ記憶部22及びスナップショットデータ記憶部23に記録された3次元顔データ(合計N個)の相同モデルを用いて実行される。なお、経年変化データ記憶部22に記録された3次元顔データにおいては、加齢後の3次元顔データのみの相同モデルを用いる。
まず、制御部21の第1学習部211は、予め定められた処理対象角度毎に、以下の処理を繰り返して実行する。
まず、制御部21の第1学習部211は、指定角度への回転処理を実行する(ステップS7−1)。具体的には、第1学習部211は、3次元相同モデルを、所定対象角度に回転させる。そして、第1学習部211は、所定対象角度に回転させたときの回転角度を学習用メモリに記憶する。
次に、制御部21の第1学習部211は、3次元相同モデルから2次元相同モデルへの変換処理を実行する(ステップS7−2)。具体的には、学習管理部210は、回転させた3次元相同モデルをXY平面に射影することにより、2次元相同モデルを生成する。
次に、制御部21の第1学習部211は、2次元特徴点の特定処理を実行する(ステップS7−3)。具体的には、制御部21の第1学習部211は、算出した2次元相同モデルにおいて、3次元相同モデルにおける顔特徴点に対応する座標を特定する。そして、第1学習部211は、特定した顔特徴点を2次元特徴点として学習用メモリに記憶する。
次に、制御部21の第1学習部211は、顔の背後に隠れる特徴点の除外処理を実行する(ステップS7−4)。具体的には、第1学習部211は、2次元相同モデルの特徴点の中で、3次元相同モデルにおいて、撮影側(視点側)にある顔特徴点と、背面側にある顔特徴点とを識別する。そして、第1学習部211は、背面側にある顔特徴点を、学習用メモリから削除して、撮影側の2次元特徴点のみを記憶する。
以上の処理を、処理対象の角度毎にループを繰り返して実行する。
そして、制御部21の主成分分析部214aは、上述の繰り返し処理により特定した2次元特徴点を用いて、主成分分析処理を実行する(ステップS7−5)。具体的には、主成分分析部214aは、各データi(i=1〜N×処理対象角度数)の回転後の2次元特徴点について主成分分析を行なう。この場合、2次元特徴点は、以下のように示される。
次に、制御部21の機械学習部214bは、機械学習処理を実行する(ステップS7−6)。具体的には、機械学習部214bは、従属変数(予測対象特徴量)として「回転角度(θ,ω)」を用いて、説明変数(予測時に使用する特徴量)として「全データの2次元特徴点の主成分得点標準偏差で除算したもの」を用いる。そして、機械学習部214bは、この従属変数と説明変数を用いて機械学習処理を実行する。そして、第1学習部211は、機械学習部214bによって生成された角度予測モデルをモデル記憶部25に記録する。
<機械学習処理>
ここで、図13及び図14を用いて、機械学習処理を説明する。この機械学習処理では、ある特徴ベクトルx(従属変数である予測対象特徴量)から別の特徴ベクトルy(説明
変数である予測時に使用する特徴量)を予測する。この場合、重回帰分析を用いて、yとxの関係を学習し、xs(n),jからyi,jを予測するモデルを求める。具体的には、以下の式における「ai,s(n)」と「bi」を算出する。
重回帰分析を行なう場合、独立変数の選択が重要である。単に「y」と相関の高い「x」を順に選択すると、変数間に相関が高いものだけが選択され、変数間の独立性が保てない可能性がある。そこで、各変数の妥当性(t値)と独立性(相関係数が最大相関係数Cmax以下)が高く、予測モデル全体の信頼性(bic:ベイズ情報量基準)が高いものを選択するアルゴリズムを用いる。以下、本実施形態では、一般に「変数増減法」(「ステップワイズ法」)と呼ばれるアルゴリズムにおける処理を説明する。
図13に示すように、まず、制御部21の機械学習部214bは、初期値設定処理を実行する(ステップS8−1)。具体的には、機械学習部214bは、メモリに記憶されているベイズ情報量基準の最小値(bic_min)に極めて大きい値を初期設定し、変数セット(select_id)を空集合にリセットする。
次に、制御部21の機械学習部214bは、現時点でのベイズ情報量基準の設定処理を実行する(ステップS8−2)。具体的には、機械学習部214bは、現時点でのベイズ情報量基準の最小値(bic_min_pre)に、ベイズ情報量基準の最小値(bic_min)を代入する。
そして、処理対象の主成分番号iを順次、特定し、以下の繰り返し処理を実行する。「i」は、処理対象として選択された次元番号である。この繰り返し処理においては、処理対象の主成分番号iが、変数セットに追加すべき成分(追加対象成分)か否かを判定する。
ここで、まず、制御部21の機械学習部214bは、主成分番号iと変数セット(select_id)との相関の最小値が最大相関係数Cmaxより小さいか否かの判定処理を実行する(ステップS8−3)。具体的には、制御部21の機械学習部214bは、処理対象の主成分番号iと、メモリに記憶された変数セット(select_id)との相関係数を算出する。そして、機械学習部214bは、算出した相関係数と最大相関係数Cmaxとを比較する。
ここで、相関の最小値が最大相関係数Cmaxより小さい場合(ステップS8−3において「YES」の場合)、制御部21の機械学習部214bは、変数セット(select_id)に追加対象成分を加えた変数を用いて重回帰分析を行ない、ベイズ情報量基準及び追加した変数のt値の算出処理を実行する(ステップS8−4)。具体的には、制御部21の機械学習部214bは、メモリに記憶された変数セットに、処理対象の主成分番号iを加えた変数で重回帰分析を行なってベイズ情報量基準を算出する。そして、公知のt検定によりt値を算出する。
次に、制御部21の機械学習部214bは、ベイズ情報量基準の最小値、t値が条件を満足するか否かの判定処理を実行する(ステップS8−5)。ここでは、条件として、算出したベイズ情報量基準の最小値が現在のベイズ情報量基準より大きいこと、かつt値が「2」以上であることを用いる。
ここで、ベイズ情報量基準の最小値、t値の条件を満足する場合(ステップS8−5において「YES」の場合)、制御部21の機械学習部214bは、ベイズ情報量基準の最小値及び主成分番号の更新処理を実行する(ステップS8−6)。具体的には、制御部21の機械学習部214bは、ベイズ情報量基準の最小値(bic_min)に、ベイズ情報量基準(bic)を代入する。更に、処理対象の主成分番号iを追加対象成分(add_id)として記憶する。
一方、主成分番号iと変数セット(select_id)との相関の最小値が最大相関係数Cmax以上の場合(ステップS8−3において「NO」の場合)、制御部21の機械学習部214bは、ステップS8−4〜S8−6の処理をスキップする。
また、ベイズ情報量基準の最小値、t値のいずれかが条件を満足しない場合(ステップS8−5において「NO」の場合)、制御部21の機械学習部214bは、ステップS8−6の処理をスキップする。
そして、すべての主成分番号iについて、繰り返し処理(ステップS8−3〜S8−6)を終了した場合、制御部21の機械学習部214bは、ベイズ情報量基準の最小値が更新されたか否かの判定処理を実行する(ステップS8−7)。具体的には、機械学習部214bは、ベイズ情報量基準の最小値(bic_min)が、ステップS8−2において設定した現時点でのベイズ情報量基準の最小値(bic_min_pre)と一致しているか否かを判定する。機械学習部214bは、一致している場合にはベイズ情報量基準の最小値は更新されていないと判定し、一致していない場合にはベイズ情報量基準の最小値は更新されたと判定する。
ここで、ベイズ情報量基準の最小値が更新された場合(ステップS8−7において「YES」の場合)、制御部21の機械学習部214bは、変数更新処理を実行する(ステップS8−8)。この変数更新処理の詳細については、図14を用いて説明する。
次に、制御部21の機械学習部214bは、変数更新が成功したか否かの判定処理を実行する(ステップS8−9)。具体的には、機械学習部214bは、後述する変数更新処理において、メモリに記録されたフラグ(変数更新成功フラグ、変数更新失敗フラグ)により、変数更新成功を判定する。
ここで、メモリに変数更新成功フラグが記録されており、変数更新が成功したと判定した場合(ステップS8−9において「YES」の場合)、制御部21の機械学習部214bは、ステップS8−2以降の処理を繰り返して実行する。
一方、ベイズ情報量基準の最小値が更新されなかった場合、又は変数更新失敗フラグが記録されており、変数更新が成功しなかったと判定した場合(ステップS8−7,S8−9において「NO」の場合)、制御部21の機械学習部214bは、機械学習処理を終了する。
<変数更新処理>
次に、図14を用いて、変数更新処理(ステップS8−8)を説明する。この処理においては、追加対象成分を含めた変数セットが妥当か否かを判定する。そして、妥当でない変数を削除することにより、妥当な変数セットになった場合には、この変数セットを説明変数として特定する。
まず、機械学習部214bは、新たな変数セットの設定処理を実行する(ステップS9−1)。具体的には、機械学習部214bは、メモリに記憶されている変数セットに追加対象成分(add_id)を追加して、新たな変数セット(select_id_new)を生成する。
次に、機械学習部214bは、以下のステップS9−2〜S9−4の処理を、無限ループにおいて繰り返す。
まず、機械学習部214bは、新たな変数セット(select_id_new)を用いて重回帰分析を行ない、ベイズ情報量基準(bic)とすべての変数のt値の算出処理を実行する(ステップS9−2)。具体的には、機械学習部214bは、新たな変数セットを用いて重回帰分析により、ベイズ情報量基準を算出する。更に、公知のt検定によりt値を算出する。
次に、機械学習部214bは、新たな変数セットの各変数のt値のうちで、最小のt値が2より小さいか否かの判定処理を実行する(ステップS9−3)。
ここで、最小のt値が「2」より小さい場合(ステップS9−3において「YES」の場合)、機械学習部214bは、新たな変数セットから最小のt値となる変数の削除処理を実行する(ステップS9−4)。具体的には、機械学習部214bは、新たな変数セットにおいて最小のt値を算出した変数を、この新たな変数セットから削除する。
そして、ステップS9−2以降の処理を繰り返して実行する。
一方、新たな変数セットに含まれる変数のt値がすべて2以上であることにより、最小のt値が2以上の場合(ステップS9−3において「NO」の場合)、機械学習部214bは、この無限ループを終了する。そして、機械学習部214bは、ベイズ情報量基準が現時点でのベイズ情報量基準の最小値より小さいか否かの判定処理を実行する(ステップS9−5)。具体的には、機械学習部214bは、ベイズ情報量基準(bic)が、ステップS8−2において設定した現時点でのベイズ情報量基準の最小値(bic_min_pre)より小さいか否かを判定する。
ここで、ベイズ情報量基準が現時点でのベイズ情報量基準の最小値より小さい場合(ステップS9−5において「YES」の場合)、機械学習部214bは、変数更新成功処理を実行する(ステップS9−6)。具体的には、機械学習部214bは、変数セット(select_id)に、新たな変数セット(select_id_new)を代入する。更に、機械学習部214bは、変数更新成功フラグをメモリに記録する。
一方、ベイズ情報量基準が現時点でのベイズ情報量基準の最小値以上の場合(ステップS9−5において「NO」の場合)、機械学習部214bは、変数更新失敗処理を実行する(ステップS9−7)。具体的には、機械学習部214bは、変数更新失敗フラグをメモリに記録する。
<2次元から3次元への学習処理>
次に、図15を用いて、2次元顔画像を3次元顔データに変換する第1学習処理を説明する。ここでは、同じ場面で任意の枚数の2次元顔画像がある場合や、任意の角度から撮影された2次元顔画像がある場合にも、的確な予測ができるようにするための学習を行なう。その場合、組み合わせが膨大になり、データベースの容量が問題となるため、予め指定された組み合わせ(例えば正面と側面)のみ学習しておき、それ以外の組み合わせの場合は、その都度、学習してモデルを作成する。
まず、制御部21の主成分分析部214aは、3次元メッシュ(相同モデル)を用いて、予め3次元形状の主成分分析処理を実行する(ステップS10−1)。具体的には、主成分分析部214aは、各データの3次元メッシュ点について主成分分析を行なう。これにより、2次元メッシュ点は、平均値、主成分得点、主成分ベクトルで表現すると、次式のようになる。
そして、制御部21の第1学習部211は、指定角度への回転処理を実行する(ステップS10−2)。具体的には、第1学習部211は、回転角度を指定する画面を出力部15に表示する。ここでは、例えば正面(0度)と側面(90度)とを指定する。回転角度が入力された場合、第1学習部211は、入力された回転角度に応じて3次元相同モデルを回転させる。
次に、制御部21の第1学習部211は、3次元相同モデルから2次元相同モデルの生成処理を実行する(ステップS10−3)。具体的には、第1学習部211は、回転させた3次元相同モデルを2次元面(XY平面)に射影することにより、2次元相同モデルを生成する。
次に、制御部21の第1学習部211は、2次元画像の生成処理を実行する(ステップS10−4)。ここでは、グレーの2次元相同モデルを用いる場合を想定する。具体的には、第1学習部211は、生成した2次元相同モデルの各メッシュにおける輝度に基づいてグレー化した画像を生成する。
次に、制御部21の主成分分析部214aは、2次元画像の主成分分析処理を実行する(ステップS10−5)。具体的には、主成分分析部214aは、ステップS10−4において生成した2次元画像を主成分分析し、以下のように表現する。
次に、制御部21の第1学習部211は、2次元特徴点の特定処理を実行する(ステップS10−6)。具体的には、第1学習部211は、ステップS7−3と同様に、算出した2次元相同モデルにおける顔特徴点の座標を特定する。そして、第1学習部211は、特定した座標をメモリに記憶する。
次に、制御部21の第1学習部211は、顔の背後に隠れる特徴点の除外処理を実行する(ステップS10−7)。具体的には、第1学習部211は、ステップS7−4と同様に、顔の背後に隠れる顔特徴点をメモリから削除する。
次に、制御部21の主成分分析部214aは、2次元特徴点の主成分分析処理を実行する(ステップS10−8)。具体的には、主成分分析部214aは、ステップS7−5と同様に、メモリに記憶した顔特徴点を用いて主成分分析処理を実行する。
そして、制御部21の機械学習部214bは、ステップS7−6と同様に、機械学習処理を実行する(ステップS10−9)。具体的には、機械学習部214bは、従属変数及び説明変数を用いて、機械学習処理を実行する。ここでは、従属変数として「3次元メッシュ点の主成分得点を標準偏差で除算したもの」を用い、説明変数として「全データの2次元特徴点、及び全データの2次元画像の主成分得点を標準偏差で除算したもの」を用いる。そして、第1学習部211は、機械学習部214bによって生成された3次元化予測モデルをモデル記憶部25に記録する。
<2次元→3次元の予測検証>
次に、図16及び図17を用いて、第1学習によって算出した2次元から3次元への変換に用いるモデルデータの検証処理を説明する。
図15において、33個の2次元特徴点(座標)と、2次元顔画像、3次元メッシュ点について、それぞれ主成分分析を行なった。そして、この主成分分析において累積寄与率が95%となる主成分数を算出した。累積寄与率が95%となる主成分数は、2次元特徴点(66次元)で「29」、3次元メッシュ点(32223次元)で「60」であった。このように、次元数がかなり異なるにも関わらず、主成分数は同じオーダーとなっている。2次元顔画像(810000次元)は個人差が激しいため、累積寄与率が95%となる主成分数は「226」と多くなった。
2次元特徴点との相関では、100番目までの主成分では、最大相関係数はほぼ0.2以上を確保しているが、200番以降では、ほとんど相関がない値に低下する。一方、画像との相関では、2次元特徴点と比較すると、相関は小さい傾向になるものの、200番以降においても、0.1程度を確保している。
これは、以下のように理解できる。2次元特徴点はわずか33点であり、小さい主成分番号(形状のおおまかな特徴を示す成分)については相関が高いが、大きい主成分番号(細かな形状を示す成分)との相関は低い。一方、画像は、小さい主成分番号との相関は比較的低いが、大きい主成分番号との相関は比較的高い。本実施形態では、より最大相関値が高くなる特徴点として、2次元特徴点と画像とを結合した特徴量を用いる。学習時に選択された主成分数(説明変数)に基づくと、2次元特徴点と画像とを結合した方が、選択された主成分数が多いことがわかる。
ここで、求めた予測モデルの妥当性と説明力について説明する。
F値はモデルの妥当性を示すパラメータである。t値は各変数の妥当性を示すパラメータである。F値及びt値は、それぞれ「2」以上であれば妥当とされているが、いずれの成分においても「2」以上の値が確保されていることが判明した。
決定係数は、モデルの説明力を示すパラメータであり、値はモデルが予測対象データを説明する割合を示す。具体的には、値が「1」の場合には「すべて予測可能」であり、値が「0」の場合には「全く予測できていない」ことを示す。2次元特徴点のみの場合、40番目までの主成分についてもほぼ50%以上が確保され、100番近傍では20%を下回っていることが判明した。2次元特徴点及び画像の場合、50番目までの主成分についてもほぼ50%以上が確保され、100番近傍でも20%を上回っていることが判明した。これにより、2次元特徴点のみの場合と比較すると、2次元特徴点及び画像を用いた場合の精度が向上していることが分かる。
次に、2次元から3次元に変換する予測モデルデータの妥当性を検証するために、100個(累積寄与率97.5%となる個数)の3次元メッシュ点の主成分得点P3を予測する重回帰分析を行なう。この場合、変数選択の基準として、最大相関係数Cmaxを「0.15」と設定する。
次に、図16を用いて、この2次元から3次元に変換する予測モデルデータの妥当性検証処理を実行する。ここでは、以下の処理を、処理対象データj(j=1〜n)を順次、特定して、以下の処理を繰り返す。
まず、制御部21の第1学習部211は、処理対象データjを除いた残り〔n−1〕人のデータで機械学習した予測モデルの作成処理を実行する(ステップS11−1)。具体的には、第1学習部211は、〔n−1〕人のデータを用いて、前述した第1学習処理を実行して、3次元化変換モデルを生成する。
次に、制御部21の第1学習部211は、処理対象データjの3次元メッシュ点について予測モデルを利用した推定処理を実行する(ステップS11−2)。具体的には、第1学習部211は、処理対象データjを入力データとし、生成した3次元化変換モデルを適用して、3次元メッシュ点を算出する。
次に、制御部21の第1学習部211は、処理対象データjの3次元データ(正解)と、推定した結果との比較処理を実行する(ステップS11−3)。具体的には、第1学習部211は、ステップS11−1において生成した3次元顔データと、処理対象データjの3次元顔データとを比較する。比較した結果、3次元メッシュの各点のずれ量をメモリに記録する。この場合、主成分得点の予測誤差の平均は「0.22」未満になった。主成分得点の分散は「1」に正規化したので、精度良く推定できていることがわかる。なお、2次元特徴点のみでの予測より、2次元特徴点及び2次元画像での予測の方が、精度向上を図れることも判明した。
更に、3次元メッシュ点の予測誤差の平均は、2次元特徴点のみを用いた場合は「1.546391mm」、2次元特徴点及び2次元画像を用いた場合は「1.477514mm」となった。この場合も、2次元特徴点のみでの予測より、2次元特徴点及び2次元画像での予測の方が、精度向上を図れることが判明した。
図17(a)は、経年変化前の2次元顔画像(入力データ)である。また、図17(b)は、図17(a)に示した顔画像について、10年経過後の顔画像(正解)である。
図17(c)は、図17(a)に示した顔画像の2次元特徴点のみを用いて予測した加齢化後の顔画像である。また、図17(d)は、図17(a)に示した顔画像の2次元特徴点及び画像を用いて予測した加齢化後の顔画像である。
2次元特徴点のみでの予測よりも、2次元特徴点及び2次元画像での予測の方が、精度良く予測できていることが確認できる。
<テクスチャ加齢化の学習処理>
次に、図18を用いて、テクスチャ加齢化の第2学習処理を実行する。この第2学習処理においては、主成分分析を用いたテクスチャの加齢化処理と、ウェーブレット変換を用いたテクスチャの加齢化処理とを実行する。ここでは、主成分分析を用いたテクスチャの加齢化処理を説明した後、ウェーブレット変換を用いたテクスチャの加齢化処理について説明する。
<主成分分析を利用したテクスチャの加齢化処理>
ここでは、ステップS1−5において生成した正規化円柱座標系画像を用いて、3次元顔データにおける加齢によるテクスチャの変化を予測するモデルを機械学習で算出する。
まず、加齢化予測システム20の制御部21は、正規化円柱座標系画像の主成分分析処理を実行する(ステップS12−1)。具体的には、制御部21の第2学習部212は、経年変化データ記憶部22から経年変化データ、スナップショットデータ記憶部23からスナップショットデータを取得する。そして、制御部21の主成分分析部214aは、円柱座標系画像(取得した経年変化データ及びスナップショットデータの円柱座標系画像)について主成分分析を行なう。この場合、主成分分析部214aは、経年変化データの変化前(又は変化後のいずれか)とスナップショットデータとを用いて、主成分ベクトルの方向を決定し、経年変化データを用いて主成分得点を算出する。ここで、各データを、平均値、主成分得点、主成分ベクトルで表現すると、次のようになる。
ここで、「j」は加齢インデックスであり、加齢後が「j」=1、加齢前が「j」=0を示す。
次に、加齢化予測システム20の制御部21は、ステップS7−6と同様に、機械学習処理を実行する(ステップS12−2)。具体的には、制御部21の機械学習部214bは、従属変数として「単位年月当たりに正規化されたテクスチャ主成分得点の加齢変化差分ベクトル」を用い、説明変数として「加齢前のテクスチャの主成分得点」を用いる。そして、第2学習部212は、機械学習部214bによって生成されたテクスチャ加齢モデルをモデル記憶部25に記録する。
<主成分分析を利用したテクスチャ加齢化の予測検証>
次に、図19を用いて、主成分分析を利用したテクスチャにおいて加齢化に変換する処理を説明する。
図18に示した主成分分析を利用したテクスチャ加齢化において算出した35番までの主成分の累積寄与率は95%を超えており、主成分が25番以降の寄与率は0.1%未満である。各主成分について図20に示す。寄与率が低い主成分になるほど、高周波成分になっていることがわかる。
また、図21には、各主成分の寄与を画像で確認するための2枚の画像について、主成分の上限を変更して再構成した画像を示している。この結果、シミ、皺のような細部は、全主成分を考慮しないと再現できないことが分かる。
そして、図19に示すように、この主成分分析を用いたテクスチャ加齢化の予測モデルデータの妥当性検証処理を実行する。ここでは、以下の処理を、処理対象データj(j=1〜n)について繰り返して実行する。
まず、加齢化予測システム20の制御部21は、データjを除いた残り〔n−1〕人のデータで機械学習した予測モデルの作成処理を実行する(ステップS13−1)。具体的には、制御部21の第2学習部212は、〔n−1〕人のデータを用いて上記ステップS12−1〜S12−2の第2学習処理を実行して、テクスチャ加齢化の変換モデルを生成する。
次に、加齢化予測システム20の制御部21は、データjの経年変化前データを用いて予測モデルを利用して加齢化処理を実行する(ステップS13−2)。具体的には、制御部21の第2学習部212は、経年変化前のデータjを入力データとし、生成したテクスチャ加齢化への変換モデルを適用して、経年変化後の3次元メッシュ点を算出する。
次に、加齢化予測システム20の制御部21は、データjの経年変化後データ(正解)と加齢化の結果の比較処理を実行する(ステップS13−3)。具体的には、制御部21の第2学習部212は、ステップS13−2において生成した経年変化後の3次元顔データと、経年変化データ記憶部22に記憶しているデータjの経年変化後の3次元顔データとを比較し、3次元メッシュの各点の誤差を算出する。この場合、算出した誤差は、約60%以下になることが判明した。
<ウェーブレット(WAVELET)変換を利用したテクスチャの加齢化処理>
次に、図22を用いて、ウェーブレット変換を利用したテクスチャの加齢化処理を説明する。上述した主成分分析を利用したテクスチャの加齢化処理では、加齢差分データを推定する。しかしながら、既に存在しているシミ、皺が存在する場合、主成分分析を利用した加齢化では、これらを濃くするわけではない。そこで、既に存在しているシミ、皺を利用して加齢化するために、ウェーブレット変換を利用した加齢変化推定を行なう。
ここでは、図22(a)に示すように、加齢化予測システム20の制御部21は、ウェーブレット成分の加齢による増加率(ウェーブレット係数Ri)の算出処理を実行する(ステップS14−1)。具体的には、制御部21の第2学習部212は、経年変化データ記憶部22に記憶されている経年変化データを抽出する。第2学習部212は、データ番号jの各2次元画像のすべてのウェーブレット係数Riをウェーブレット係数番号i毎(ピクセル毎)に算出する。第2学習部212は、算出した加齢化前の各画像データの各ウェーブレット係数Ri(ピクセル毎の値)を合計する。また、第2学習部212は、算出した加齢化後の各画像データの各ウェーブレット係数Ri(ピクセル毎の値)を合計する。そして、合計した加齢化後の画像におけるウェーブレット係数Ri(ピクセル毎の値)を、合計した加齢前の画像におけるウェーブレット係数Ri(ピクセル毎の値)で除算することにより、各データのウェーブレット係数Riの変化率を計算する。この場合、第2学習部212は、ウェーブレット係数Riが1未満となる場合には、「1」として変化率を計算する。
なお、図22(a)に示す式において、iは各ウェーブレット係数番号、jはデータ番号、aは加齢化後、bは加齢化前を意味している。
その結果、ウェーブレット係数Riの最大値は「5.407101」、ウェーブレット係数Riの平均値は「1.311112」であった。なお、図22(b)には、ウェーブレット係数Riを可視化して表示した画像を示している。この画像においては、黒が最小値の「1」のウェーブレット係数Riを示し、白い程、値が大きいことを示している。また、図22(b)においては、左上になる程、低周波成分を示した画像である。具体的には、各行について横方向の1次元ウェーブレット変換を行なって、低域成分と高域成分に分離し、その変換された信号の各列に対して縦方向の1次元変換を行なうということを繰り返した画像を示している。
<3次元形状加齢化の学習処理>
次に、図23を用いて、3次元形状加齢化の第3学習処理を実行する。この場合、上述した形状の相同モデル化処理において生成した相同モデルを用いて、3次元顔画像における加齢による形状変化を予測するモデルを機械学習で算出する。この場合、選択した変数間の最大相関係数Cmaxは「0.15」に設定する。
ここで、まず、加齢化予測システム20の制御部21は、3次元メッシュの主成分得点の算出処理を実行する(ステップS15−1)。具体的には、制御部21の第3学習部213は、経年変化データ記憶部22に記憶されていた経年変化データを抽出する。ここでは、144個の経年変化データを抽出する。第3学習部213は、上述したステップS10−1における3次元メッシュ点の主成分分析において生成した3次元メッシュの主成分ベクトルを利用し、抽出した経年変化データについて、3次元メッシュの主成分得点を算出する。
次に、加齢化予測システム20の制御部21は、ステップS7−6と同様に、機械学習処理を実行する(ステップS15−2)。具体的には、制御部21の機械学習部214bは、従属変数及び説明変数を用いて機械学習処理を実行する。ここでは、従属変数として「単位年月当たりに正規化された3次元メッシュ主成分得点の加齢変化差分ベクトル」、説明変数として「加齢前の3次元メッシュの主成分得点」を用いる。そして、第3学習部213は、機械学習部214bによって生成された形状加齢モデルをモデル記憶部25に記録する。
このようにして算出した加齢変化差分ベクトルと主成分得点との相関係数の最大値は、およそ「0.3」程度の相関があり、加齢変化と主成分得点には一定の相関があるため、回帰分析に用いることは妥当である。また、選択された変数の数は30前後であり、算出に用いた経年変化データ数と比較すると妥当である。更に、いずれの主成分においても、F値は10以上、t値は2以上、決定係数はほぼ70%以上が確保されていることが判明し、モデルの精度が高いことがわかる。
<加齢化予測処理>
次に、図24を用いて加齢化予測処理について説明する。
まず、加齢化予測システム20の制御部21は、特徴点抽出処理を実行する(ステップS16−1)。具体的には、制御部21の加齢管理部215は、処理対象の2次元顔画像データから、ステップS1−2と同様にして、顔特徴点抽出処理を実行する。
次に、加齢化予測システム20の制御部21は、顔向き抽出処理を実行する(ステップS16−2)。具体的には、制御部21の第1処理部216は、モデル記憶部25に記憶された角度予測モデルを用いて、抽出した顔特徴点の座標から、撮影された向きを特定し、2次元の顔画像を正面向きに変換する。
次に、加齢化予測システム20の制御部21は、3次元メッシュ化処理を実行する(ステップS16−3)。具体的には、制御部21の加齢管理部215は、モデル記憶部25に記憶された3次元化予測モデルを用いて、正面向きの2次元の顔画像に対して3次元メッシュを生成する。
そして、加齢化予測システム20の制御部21は、正規化円柱座標系画像の生成処理を実行する(ステップS16−4)。具体的には、制御部21の加齢管理部215は、ステップS16−3において算出した予測モデルを用いて、処理対象の2次元顔画像の2次元メッシュを作成する。加齢管理部215は、各ポリゴン内の画像を、円柱座標系座標におけるポリゴンにアフィン変換して作成する。ここで、処理対象の2次元顔画像の顔の向きにより、ポリゴン内の画像情報が不足している場合がある。この場合には、加齢管理部215は、顔の左右は対称であると仮定し、顔左右の中央線を対称線として、画像情報が不足しているポリゴンを、左右反対側のポリゴン内の画像情報を用いて補完する。
次に、加齢化予測システム20の制御部21は、3次元メッシュの加齢化処理を実行する(ステップS16−5)。具体的には、制御部21の第3処理部218は、ステップS16−3で生成した3次元メッシュを、モデル記憶部25に記憶された形状加齢モデルに入力し、3次元メッシュの加齢化を行なう。この場合、第3処理部218は、形状予測マスク領域以外の領域のみ加齢化を行なう。
ここで、図26(a)に示す白い部分を、形状予測マスク領域として用いる。これらの部分には、頬や鼻筋等が含まれており、加齢による形状の変化が少ない領域である。
次に、加齢化予測システム20の制御部21は、テクスチャの加齢化処理を実行する(ステップS16−6)。この処理の詳細については、図25を用いて、後述する。
次に、加齢化予測システム20の制御部21は、加齢化3次元顔画像の生成処理を実行する(ステップS16−7)。具体的には、制御部21の第3処理部218は、ステップS16−5及びS16−6で生成した加齢化した画像を合成して、形状及びテクスチャを加齢化した画像を生成する。
図27(a)には、30歳の顔画像データを表示している。この顔画像データを入力データとして用いて、加齢化予測システム20の制御部21が、10年後及び15年後の加齢化予測を行なって算出した画像を、図27(b)及び図27(c)に示す。ここでは、2次元から3次元化への変換は行なっていないが、尤もらしく加齢化されていることがわかる。
次に、加齢化予測システム20の制御部21は、加齢化2次元顔画像の生成処理を実行する(ステップS16−8)。具体的には、制御部21の加齢管理部215は、生成した加齢化3次元顔画像を、ステップS16−2において特定した顔の向きになるように回転させ、そのときの2次元顔画像を生成する。そして、加齢管理部215は、生成した2次元顔画像をディスプレイに表示する。
<テクスチャの加齢化処理>
次に、図25〜図27を用いて、上述したテクスチャの加齢化処理(ステップS16−6)について説明する。
まず、制御部21の第2処理部217は、ウェーブレット変換処理を実行する(ステップS17−1)。具体的には、第2処理部217は、主成分分析を利用した加齢後画像Iiをウェーブレット変換したウェーブレット係数R1iを算出する。
そして、ウェーブレット係数番号iについて、以下の処理を繰り返して実行する。
まず、制御部21の第2処理部217は、2つのウェーブレット係数の絶対値を比較し、大小関係の判定処理を実行する(ステップS17−2)。ここでは、主成分分析に基づくウェーブレット係数R1iの絶対値と、ウェーブレット変換を利用したテクスチャの加齢化処理により算出したウェーブレット係数R2iの絶対値に重み係数wを乗算した値とを比較する。そして、ウェーブレット係数R1iの絶対値が、ウェーブレット係数R2iの絶対値に重み係数wを乗算した値より大きいか否かを判定する。
ここで、ウェーブレット係数R1iの絶対値が、ウェーブレット係数R2iの絶対値に重み係数wを乗算した値より大きい場合(ステップS17−2において「YES」の場合)、制御部21の第2処理部217は、使用するウェーブレット係数R3iに、ウェーブレット係数R1iを代入する処理を実行する(ステップS17−3)。
一方、ウェーブレット係数R1iの絶対値が、ウェーブレット係数R2iの絶対値に重み係数wを乗算した値以下の場合(ステップS17−2において「NO」の場合)、制御部21の第2処理部217は、使用するウェーブレット係数R3iに、ウェーブレット係数R2iを代入する処理を実行する(ステップS17−4)。
以上の処理を、ウェーブレット係数番号iについて繰り返す。
そして、制御部21の第2処理部217は、使用するウェーブレット係数R3のウェーブレット逆変換処理を実行する(ステップS17−5)。
次に、制御部21の第2処理部217は、マスク領域反映処理を実行する(ステップS17−6)。具体的には、第2処理部217は、テクスチャ予測マスク領域以外の領域のみ加齢変化を行なう。
ここで、図26(b)に示す白い部分を、テクスチャ予測マスク領域として用いる。これらの部分には、目、鼻、口等が含まれており、加齢によるテクスチャの変化が少ない領域である。
以上の処理により、テクスチャを加齢化した画像を生成する。
従って、本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態の加齢化予測システム20の制御部21は、加齢後の顔画像を生成する加齢管理部215、顔画像の質感(テクスチャ)について加齢による変化を予測する処理を実行する第2処理部217、顔形状について加齢による変化を予測する第3処理部218を備えている。これにより、顔形状についての加齢と、顔画像の質感について加齢による変化を考慮した加齢化予測を行なうので、加齢化した顔画像を、より的確に生成することができる。
(2)本実施形態の加齢化予測システム20の学習管理部210は、経年変化データ記憶部22及びスナップショットデータ記憶部23に記録したデータを用いて、顔特徴点の抽出処理、顔特徴点の正規化処理、相同モデル化処理を実行する(ステップS1−2〜S1−4)。これにより、実際の複数のサンプルデータを用いて、解剖学上、共通化させて、テクスチャ加齢モデル及び形状加齢モデルを生成することができる。
(3)本実施形態の加齢化予測システム20の制御部21は、処理対象の2次元顔画像から3次元顔データを生成する処理を実行する第1処理部216を備えている。これにより、処理対象の2次元顔画像の向きが正面等でなくても、指定した角度の顔の向きで、加齢化した顔画像を生成することができる。
(4)本実施形態の加齢化予測システム20の第1処理部216は、3次元メッシュ(相同モデル)を用いて、2次元顔画像の角度学習処理を実行する。これにより、実際のサンプルデータを用いて、2次元から3次元に変換する3次元化予測モデルを生成することができる。
(5)本実施形態の加齢化予測システム20の第2処理部217は、主成分分析を利用したテクスチャ加齢モデルと、ウェーブレット(WAVELET)変換を利用したテクスチャ加齢モデルとを用いて、テクスチャ加齢化処理を実行する。これにより、既に存在しているシミ、皺を利用して加齢化するウェーブレット変換を用いて、加齢化した顔画像を更に的確に生成することができる。
(6)本実施形態の加齢化予測システム20の第2処理部217は、主成分分析を利用したモデルとウェーブレット変換を利用したモデルの重点を決める値である重み係数wを記憶している。これにより、この重み係数wを変更することにより、主成分分析によるテクスチャ加齢モデルと、ウェーブレット変換によるテクスチャ加齢モデルの重み付けを変更することができる。
また、上記実施形態は、以下のように変更してもよい。
・上記実施形態の加齢化予測システム20の制御部21は、経年変化データ記憶部22に記憶された経年変化データと、スナップショットデータ記憶部23に記憶されたスナップショットデータとを用いてテクスチャ加齢モデル及び形状加齢モデルを生成した。経年変化データやスナップショットデータの属性(例えば、性別や年齢層)別に、テクスチャ加齢モデル及び形状加齢モデルを生成してもよい。この場合には、制御部21は、同じ属性の経年変化データやスナップショットデータを用いて、正規化された円柱座標系画像D5や正規化された顔特徴点データD6及び3次元メッシュデータD7(相同モデル)を生成する。そして、制御部21は、これらを用いて、属性別のテクスチャ加齢モデル及び形状加齢モデルを生成し、各属性情報に関連付けてモデル記憶部25に記憶する。制御部21は、加齢化予測処理においては、処理対象の2次元顔画像データとともに、この画像に含まれる顔の属性情報を取得する。制御部21は、取得した属性情報に対応する属性のテクスチャ加齢モデル及び形状加齢モデルを用いて、加齢化予測処理を実行する。これにより、性別や年齢層等の属性に応じたテクスチャや形状の影響を考慮して、より的確な顔画像データを生成することができる。
・上記実施形態の加齢化予測システム20の制御部21は、テクスチャの加齢化処理において、主成分分析を利用した加齢後画像Iiをウェーブレット変換したウェーブレット係数R1iと、ウェーブレット変換によるテクスチャ加齢モデルのウェーブレット係数R2iとを択一的に用いた。テクスチャの加齢化処理においては、これら2つのウェーブレット係数R1i,R2iを択一的に用いる場合に限らず、これら2つのウェーブレット係数R1i,R2iの統計値(例えば、平均値や、属性に応じた割合による合成値)を用いてよい。
・上記実施形態の加齢化予測システム20の制御部21は、テクスチャの加齢化処理において、ウェーブレット変換を用いた。加齢化処理は、ウェーブレット変換に限定されるものではない。顔テクスチャのシミ・皺を濃く(強調)する手法を用いることが可能である。例えば、公知の鮮鋭化フィルタやフーリエ変換を用いて、顔テクスチャの加齢化を行なってもよい。
・上記実施形態の加齢化予測システム20の制御部21は、主成分分析処理を用いて加齢化モデルを生成した。加齢化モデルの生成に用いる分析処理は、主成分分析処理に限定されるものではない。個人差を表現する変数を特定するための分析処理であれば用いることが可能であり、例えば、独立成分解析(ICA)や多次元尺度法(MDS)を用いて、加齢化モデルの生成を行なってもよい。
・上記実施形態において、加齢化予測システム20の制御部21は、加齢化予測処理の顔向き推定処理(ステップS16−2)において、角度予測モデルを用いて、2次元の顔画像を正面向きに変換した。この加齢化予測処理の顔向き推定処理(ステップS16−2)は、角度予測モデルを用いた方法に限定されるものではない。例えば、公知のプロクラステス解析を用いて、画像において顔が撮影された向きを特定するようにしてもよい。
・上記実施形態において、制御部21は、2次元顔画像から3次元顔データへの変換についての第1学習処理、テクスチャ加齢化についての第2学習処理、3次元形状加齢化についての第3学習処理において、機械学習処理を実行した。この場合、制御部21の機械学習部214bは、重回帰分析によって、従属変数(予測対象特徴量)を用いて説明変数(予測時に使用する特徴量)を算出する。制御部21の機械学習部214bが実行する機械学習処理は、重回帰分析を用いた学習処理に限られず、他の分析手法を用いてもよい。例えば、カップリング学習処理、PLS回帰(Partial Least Squares Regression)に基づく学習処理、サポートベクトル回帰(Support Vector Regression;SVR)に基づく学習処理等を行なってもよい。
ここで、カップリング学習処理について説明する。
この処理においては、機械学習部214bは、各サンプルデータの「予測対象特徴量」と「予測時に使用する特徴量」とを結合して一つの行ベクトル(1次元ベクトル)を生成する。例えば、第1学習処理における「予測対象特徴量」としては「回転角度(θ,ω)」の主成分係数を用い、「予測時に使用する特徴量」としては「全データの2次元特徴点の主成分得点標準偏差で除算したもの」の主成分係数を用いる。
そして、機械学習部214bは、生成した1次元ベクトルを、サンプルデータ毎に列方向に並べた結合パッチベクトルのデータ行列を生成する。そして、このデータ行列の主成分分析を行なって、主成分ベクトル行列を生成する。この主成分ベクトル行列は、「予測対象特徴量」と「予測時に使用する特徴量」との変化の激しい主成分の順番に、各行ベクトルが整列している行列である。
次に、機械学習部214bは、主成分ベクトル行列の直交化処理を実行する。ここでは、グラムシュミット法により、「予測時に使用する特徴量」行列の直交化を行なう。この場合、「予測対象特徴量」については、「予測時に使用する特徴量」における直交化係数を乗算して変換する。
そして、機械学習部214bは、直交化された「予測時に使用する特徴量」(行列Di,j)と、これに伴って変換された「予測対象特徴量」(行列Ei,j)とを用いて生成した予測モデルをモデル記憶部25に記録する。
予測処理においては、制御部21は、入力データXjと、モデル記憶部25に記憶した行列Di,jとを内積して、主成分の重みを表す係数biを計算する。次に、制御部21は、この係数biと行列Ei,jとを用いて、予測ベクトルである予測データYjを再構築する。これにより、制御部21は、入力データXjに基づいて、予測データYjを算出することができる。
このカップリング学習処理を用いることにより、変化が激しく、影響の大きい成分を優先的に使用しながら、全体バランスを考慮した予測データを算出することができる。
次に、PLS回帰に基づく学習処理について説明する。
このPLS回帰は、独立変数(予測対象特徴量)と説明変数(予測時に使用する特徴量)の共分散wを利用し、両者の相関の高い成分から順に変数に追加して重回帰分析を行なうことにより、回帰係数行列を算出する。具体的には、以下の処理〔1〕〜〔4〕を、交差判定誤差が最小になるまで繰り返す。ここで、交差判定誤差は、サンプルデータを予測対象と入力データとに分け、入力データを用いて予測対象を予測し、この予測結果と予測対象との誤差である。
〔1〕機械学習部214bは、独立変数(予測対象特徴量)と、説明変数(予測時に使用する特徴量)の共分散行列(相関行列)Wを算出する。ここで、独立変数と説明変数の共分散行列Wは、次の式で算出される。
=X /||X ||
この式で、Tは転置行列を意味している。
〔2〕次に、機械学習部214bは、独立変数Xを共分散wの空間に射影し、スコア行列tiを算出する。
〔3〕次に、機械学習部214bは、説明変数の更新処理を実行する。具体的には、制御部21は、スコア行列tより説明変数Yi+1を予測する回帰係数行列Cを算出する。そして、制御部21は、一度、回帰に用いた情報を削除し、残りの説明変数ci+1を特定する。この場合、制御部21は、「c=Y (t -1及びYi+1=Y−t 」を用いる。
〔4〕次に、機械学習部214bは、独立変数の更新処理を実行する。具体的には、説明変数の更新処理と同様に、機械学習部214bは、スコア行列より独立変数を予測する回帰係数行列を算出し、一度、回帰に用いた情報を削除し、残りの独立変数を算出する。この場合、制御部21は、「p=X (t -1及びXi+1=X−t 」を用いる。
〔5〕そして、機械学習部214bは、交差判定誤差が最小か否かを判定する。具体的には、まず、機械学習部214bは、学習データの一部(例えば学習データ全体の1/4個)を予測対象と仮定し、これら予測対象を除いたデータを入力データとして、これまでに処理〔4〕で算出した説明変数Yi+1と処理〔4〕で算出した独立変数Xi+1とを用いて、予測対象との誤差を算出する。
ここで、算出した誤差が、前回(Y,X)の処理における予測対象との誤差以下の場合には、制御部21は、交差判定誤差が最小でないと判定する。この場合、機械学習部214bは、説明変数Yi+1をYとして用い、独立変数Xi+1をXとして用いて、処理〔1〕以降を繰り返して実行する。
一方、算出した誤差が、前回(Y,X)の処理における予測対象との誤差より大きくなった場合には、機械学習部214bは、1回前の処理〔1〕までで算出した共分散wを横方向に並べて共分散行列Wを生成する。更に、制御部21は、この共分散行列Wを用いて処理〔3〕で算出した回帰係数cを横方向に並べて行列Cを生成し、この共分散行列Wを用いて処理〔4〕で算出した回帰係数pを横方向に並べて行列Pを生成する。そして、制御部21は、回帰係数行列BをB=W(PW)-1に代入して算出する。この回帰係数行列Bを用いて生成した予測モデルをモデル記憶部25に記録する。
そして、予測処理において、制御部21は、入力データXjと、記録している回帰係数行列Bとを用いて、予測を行なう。
このPLS回帰分析を用いることにより、重回帰分析よりも適切な変数を選択することができるので、より妥当な予測を行なうことができる。
次に、サポートベクトル回帰分析に基づく学習処理について説明する。このサポートベクトル回帰分析は、非線形分析であり、回帰曲線を算出する。具体的には、このサポートベクトル回帰分析は、サンプルデータが回帰曲線±所定距離wの範囲(チューブ)内に入るように回帰曲線を算出する。チューブの外に出たデータをペナルティデータξとし、次の式を最小化する曲線及び所定距離wを算出する。
ここで、調整定数Cは外れ値の許容範囲を調整するパラメータである。この調整定数Cが大きいと許容範囲が小さくなる。「ξi」は、データiがチューブ内ならば「0」で、チューブより上にある場合は、チューブとの距離が代入される値である。「ξ-i」は、データiがチューブ内ならば「0」で、チューブより下にある場合は、チューブとの距離が代入される値である。
このサポートベクトル回帰分析に基づく学習処理を用いることにより、非線形(曲線)回帰に適用することができる。従って、上記実施形態の重回帰分析やPLS回帰分析の線形回帰分析に比べて、関数の形をより自由に設定することができる。
10…入力部、15…出力部、20…加齢化予測システム、21…制御部、22…経年変化データ記憶部、23…スナップショットデータ記憶部、25…モデル記憶部、210…学習管理部、211…第1学習部、212…第2学習部、213…第3学習部、214a…主成分分析部、214b…機械学習部、215…加齢管理部、216…第1処理部、217…第2処理部、218…第3処理部。

Claims (7)

  1. 顔形状の加齢による変化を予測する形状加齢モデルと、
    顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、
    2次元画像から3次元データを予測する3次元化予測モデルとを記憶したモデル記憶部と、
    入力部、出力部に接続され、加齢化を予測する制御部とを備えた加齢化予測システムであって、
    前記制御部が、
    前記入力部から予測対象画像を取得し、
    前記予測対象画像の特徴点を抽出し、
    抽出した前記特徴点を用いて、前記予測対象画像における顔向きを推定し、
    前記3次元化予測モデル及び推定した前記顔向きに基づいて、第1の3次元データを生成し、
    前記形状加齢モデルを用いて、前記第1の3次元データから第2の3次元データを生成し、
    前記第1の3次元データに基づいて生成された2次元画像に対して、前記テクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、
    前記第2の3次元データに対して、前記加齢化テクスチャを合成して、加齢化顔モデルを生成して、前記出力部に出力する予測処理を実行することを特徴とする加齢化予測システム。
  2. 前記制御部は、
    前記入力部から、出力用として指定された顔向き角度を取得し、
    生成した前記加齢化顔モデルを用いて、前記顔向き角度の2次元顔画像を生成して、前記出力部に出力することを特徴とする請求項1に記載の加齢化予測システム。
  3. 前記制御部は、
    取得した3次元顔サンプルデータに基づいて、2次元画像を生成し、
    前記2次元画像において特徴点を特定し、
    前記特徴点を用いて、前記3次元顔サンプルデータを正規化した正規化サンプルデータを生成し、
    前記正規化サンプルデータを用いて、前記形状加齢モデル及びテクスチャ加齢モデルを生成して、前記モデル記憶部に記憶する学習処理を実行することを特徴とする請求項1又は2に記載の加齢化予測システム。
  4. 前記学習処理は、前記正規化サンプルデータを用いて前記3次元化予測モデルを生成して、前記モデル記憶部に記憶することを特徴とする請求項3に記載の加齢化予測システム。
  5. 前記モデル記憶部には、主成分分析を用いて算出した第1のテクスチャ加齢モデルと、ウェーブレット変換を用いて算出した第2のテクスチャ加齢モデルとが記憶されており、
    前記制御部は、前記第1の3次元データに基づいて生成された2次元画像に対して、第1のテクスチャ加齢モデルを適用した画像をウェーブレット変換した第1のウェーブレット係数と、前記第1の3次元データに基づいて生成された2次元画像に対して、第2のテクスチャ加齢モデルを適用した第2のウェーブレット係数とを比較した結果に応じて、適用する前記テクスチャ加齢モデルを特定することを特徴とする請求項3又は4に記載の加齢化予測システム。
  6. 顔形状の加齢による変化を予測する形状加齢モデルと、
    顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、
    2次元画像から3次元データを予測する3次元化予測モデルとを記憶したモデル記憶部と、
    入力部、出力部に接続された制御部とを備えた加齢化予測システムを用いて、加齢化を予測する方法であって、
    前記制御部が、
    前記入力部から予測対象画像を取得し、
    前記予測対象画像の特徴点を抽出し、
    抽出した前記特徴点を用いて、前記予測対象画像における顔向きを推定し、
    前記3次元化予測モデル及び推定した前記顔向きに基づいて、第1の3次元データを生成し、
    前記形状加齢モデルを用いて、前記第1の3次元データから第2の3次元データを生成し、
    前記第1の3次元データに基づいて生成された2次元画像に対して、前記テクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、
    前記第2の3次元データに対して、前記加齢化テクスチャを合成して、加齢化顔モデルを生成して、前記出力部に出力する予測処理を実行することを特徴とする加齢化予測方法。
  7. 顔形状の加齢による変化を予測する形状加齢モデルと、
    顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、
    2次元画像から3次元データを予測する3次元化予測モデルとを記憶したモデル記憶部と、
    入力部、出力部に接続された制御部とを備えた加齢化予測システムを用いて、加齢化を予測するプログラムであって、
    前記制御部を、
    前記入力部から予測対象画像を取得し、
    前記予測対象画像の特徴点を抽出し、
    抽出した前記特徴点を用いて、前記予測対象画像における顔向きを推定し、
    前記3次元化予測モデル及び推定した前記顔向きに基づいて、第1の3次元データを生成し、
    前記形状加齢モデルを用いて、前記第1の3次元データから第2の3次元データを生成し、
    前記第1の3次元データに基づいて生成された2次元画像に対して、前記テクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、
    前記第2の3次元データに対して、前記加齢化テクスチャを合成して、加齢化顔モデルを生成して、前記出力部に出力する予測処理を実行する手段として機能させることを特徴とする加齢化予測プログラム。
JP2015137942A 2015-04-01 2015-07-09 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム Active JP5950486B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015137942A JP5950486B1 (ja) 2015-04-01 2015-07-09 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム
KR1020177025018A KR101968437B1 (ko) 2015-07-09 2016-04-27 가령화 예측 시스템, 가령화 예측 방법 및 가령화 예측 프로그램
CN201680016809.0A CN107408290A (zh) 2015-07-09 2016-04-27 增龄化预测系统、增龄化预测方法以及增龄化预测程序
PCT/JP2016/063227 WO2017006615A1 (ja) 2015-07-09 2016-04-27 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015075111 2015-04-01
JP2015075111 2015-04-01
JP2015137942A JP5950486B1 (ja) 2015-04-01 2015-07-09 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム

Publications (2)

Publication Number Publication Date
JP5950486B1 true JP5950486B1 (ja) 2016-07-13
JP2016194892A JP2016194892A (ja) 2016-11-17

Family

ID=56375190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015137942A Active JP5950486B1 (ja) 2015-04-01 2015-07-09 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム

Country Status (1)

Country Link
JP (1) JP5950486B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111964606A (zh) * 2020-08-18 2020-11-20 广州小鹏汽车科技有限公司 一种三维信息的处理方法和装置
CN117077247A (zh) * 2023-07-05 2023-11-17 华南理工大学 一种高掺量再生沥青混合料抗疲劳开裂性能的预测方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6987508B2 (ja) * 2017-02-20 2022-01-05 オムロン株式会社 形状推定装置及び方法
US10621771B2 (en) * 2017-03-21 2020-04-14 The Procter & Gamble Company Methods for age appearance simulation
WO2018203549A1 (ja) * 2017-05-02 2018-11-08 日本電信電話株式会社 信号変更装置、方法、及びプログラム
CN107679446B (zh) * 2017-08-17 2019-03-15 平安科技(深圳)有限公司 人脸姿态检测方法、装置及存储介质
JP7407115B2 (ja) * 2018-01-05 2023-12-28 ロレアル 機械実行顔面健康及び美容アシスタント
JP6751540B1 (ja) * 2019-05-31 2020-09-09 みずほ情報総研株式会社 形状予測システム、形状予測方法及び形状予測プログラム
JP7438690B2 (ja) * 2019-08-09 2024-02-27 日本テレビ放送網株式会社 情報処理装置、画像認識方法及び学習モデル生成方法
JP7495292B2 (ja) 2020-07-28 2024-06-04 花王株式会社 顔経時変化予測方法
CN113379716B (zh) * 2021-06-24 2023-12-29 厦门美图宜肤科技有限公司 一种色斑预测方法、装置、设备及存储介质
JP7239121B1 (ja) 2022-08-01 2023-03-14 三信トレーディング株式会社 生物の成長予測装置、方法およびプログラム並びに3次元画像生成表示システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199474A (ja) * 1990-11-29 1992-07-20 Matsushita Electric Ind Co Ltd 顔画像合成装置
JP2007265396A (ja) * 2006-03-29 2007-10-11 Mitsubishi Electric Research Laboratories Inc 顔モデルを生成する方法およびシステム
JP2013089032A (ja) * 2011-10-18 2013-05-13 Kao Corp 顔印象判定チャート
JP2014137719A (ja) * 2013-01-17 2014-07-28 Ntt Communications Corp 特徴点出力装置、特徴点出力プログラム、特徴点出力方法、検索装置、検索プログラムおよび検索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199474A (ja) * 1990-11-29 1992-07-20 Matsushita Electric Ind Co Ltd 顔画像合成装置
JP2007265396A (ja) * 2006-03-29 2007-10-11 Mitsubishi Electric Research Laboratories Inc 顔モデルを生成する方法およびシステム
JP2013089032A (ja) * 2011-10-18 2013-05-13 Kao Corp 顔印象判定チャート
JP2014137719A (ja) * 2013-01-17 2014-07-28 Ntt Communications Corp 特徴点出力装置、特徴点出力プログラム、特徴点出力方法、検索装置、検索プログラムおよび検索方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JPN6016018951; 田副 佑典、外3名: '"形状変形とパッチタイリングに基づくテクスチャ変換による年齢変化顔シミュレーション"' Visual Computing/グラフィクスとCAD合同シンポジウム2012 , 20120623, pp.1-8, 一般社団法人画像電子学会、(一社)情報処理学会、( *
JPN6016018952; 田副 佑典、外5名: '"個人顔の3次元形状変形とテクスチャ変換に基づくエージングシミュレーション"' 電子情報通信学会技術研究報告 Vol.109, No.471, 20100308, pp.151-156, 社団法人電子情報通信学会 *
JPN6016018953; 森島 繁生: '"エンタテインメント応用のための人物顔パターン計測・合成技術"' 計測と制御 Vol.53, No.7, 20140710, pp.593-598, 公益社団法人計測自動制御学会 *
JPN6016018955; 永田 毅、外2名: '"生物・医療、材料・機器分野向け「高度画像処理ソリューション」"' 画像ラボ Vol.25, No.5, 20140510, pp.48-51, 日本工業出版株式会社 *
JPN6016018957; K, Scherbaum et al.: '"Prediction of Individual Non-linear Aging Trajectories of Faces"' COMPUTER GRAPHICS forum Vol.26, No.3, 20070903, pp.285-294, The Eurographics Association and Blackwell Publish *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111964606A (zh) * 2020-08-18 2020-11-20 广州小鹏汽车科技有限公司 一种三维信息的处理方法和装置
CN111964606B (zh) * 2020-08-18 2021-12-07 广州小鹏汽车科技有限公司 一种三维信息的处理方法和装置
CN117077247A (zh) * 2023-07-05 2023-11-17 华南理工大学 一种高掺量再生沥青混合料抗疲劳开裂性能的预测方法
CN117077247B (zh) * 2023-07-05 2024-03-12 华南理工大学 一种高掺量再生沥青混合料抗疲劳开裂性能的预测方法

Also Published As

Publication number Publication date
JP2016194892A (ja) 2016-11-17

Similar Documents

Publication Publication Date Title
JP5950486B1 (ja) 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム
WO2017006615A1 (ja) 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム
CN108765550B (zh) 一种基于单张图片的三维人脸重建方法
Kähler et al. Geometry-based muscle modeling for facial animation
CN110443885A (zh) 基于随机人脸图像的三维人头脸模型重建方法
KR20200005671A (ko) 안경테를 가상으로 조정하기 위한 방법, 장치 및 컴퓨터 프로그램
CN109002763B (zh) 基于同源连续性的模拟人脸老化的方法及装置
CN112950775A (zh) 一种基于自监督学习的三维人脸模型重建方法及系统
WO2022135518A1 (zh) 基于三维卡通模型的眼球配准方法、装置、服务器和介质
JP2018503470A (ja) 統計的技術を用いて形成されたデジタル歯冠モデルに表面詳細を追加するシステム及び方法
KR20130003170A (ko) 표정 제어점에 기초한 강체 영역의 표현 방법 및 장치
JP4170096B2 (ja) 対象の3次元表面上にマップされた3次元メッシュモデルの適合性評価のための画像処理装置
JP5954846B2 (ja) 形状データ生成プログラム、形状データ生成方法及び形状データ生成装置
JP2017122993A (ja) 画像処理装置、画像処理方法及びプログラム
CN114219920B (zh) 三维人脸模型的构建方法及装置、存储介质、终端
Danckaers et al. Adaptable digital human models from 3D body scans
JP5650012B2 (ja) 顔画像処理方法、美容カウンセリング方法および顔画像処理装置
CN113744129A (zh) 一种基于语义神经渲染的人脸图像生成方法及系统
CN112329640A (zh) 基于眼部肌肉运动分析的面部神经麻痹疾病康复检测系统
US12070093B1 (en) Custom garment pattern blending based on body data
Bessa et al. Registration of breast mri and 3d scan data based on surface matching
JPWO2020208836A1 (ja) 3次元モデルの生成方法、及び3次元モデル生成プログラム
Zhang et al. Energyhair: Sketch-based interactive guide hair design using physics-inspired energy
CN112017096B (zh) 形状预测系统、形状预测方法以及计算机可读介质
CN116912433B (zh) 三维模型骨骼绑定方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160606

R150 Certificate of patent or registration of utility model

Ref document number: 5950486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250