JP2020142061A - 肌解析方法、肌解析システム及び肌解析プログラム - Google Patents

肌解析方法、肌解析システム及び肌解析プログラム Download PDF

Info

Publication number
JP2020142061A
JP2020142061A JP2020021670A JP2020021670A JP2020142061A JP 2020142061 A JP2020142061 A JP 2020142061A JP 2020021670 A JP2020021670 A JP 2020021670A JP 2020021670 A JP2020021670 A JP 2020021670A JP 2020142061 A JP2020142061 A JP 2020142061A
Authority
JP
Japan
Prior art keywords
skin
subcutaneous
subject
dermis
physical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020021670A
Other languages
English (en)
Other versions
JP7321951B2 (ja
Inventor
興治 水越
Koji Mizukoshi
興治 水越
賢哉 平山
Masaya Hirayama
賢哉 平山
祥弘 ▲濱▼中
祥弘 ▲濱▼中
Yoshihiro Hamanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Orbis Holdings Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Publication of JP2020142061A publication Critical patent/JP2020142061A/ja
Application granted granted Critical
Publication of JP7321951B2 publication Critical patent/JP7321951B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】非侵襲的に肌の表皮、真皮及び皮下のうち、2つ以上の物性を同時かつ簡単に解析する方法を提供すること。【解決手段】顔の表情変化によって生じる皮膚変化の物理量と皮膚の層ごとの物性との相関関係に基づいて、被験者についての前記物理量の測定値から、被験者の表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する、肌解析方法。【選択図】図3

Description

本発明は、肌解析方法、肌解析システム及び肌解析プログラムに関するものである。
近年、動画を利用して人の肌を解析する技術について研究が行われている。例えば、特許文献1には、被験者の目尻のような解析領域に予め複数の追跡点を配置して動画を撮影し、表情の変化に伴う追跡点の変化量を追跡して肌の圧縮率を取得することによって、被験者の肌状態を解析する技術が公開されている。
特許文献2には、音を発出する間に撮影された人の顔の画像のシーケンスから、しわ、小じわ等の臨床徴候を評価するプロセスに関する技術が公開されている。
また、特許文献3には、動的情報を用いて顔の見た目印象と相関関係が高い因子を抽出する方法と、その因子に基づいて顔の見た目印象を鑑別する方法についての技術が公開されている。特許文献3により、年齢印象の決定部位が頬及び目の周辺部であることが公開されている。
特開2014−193197号公報 特開2017−502732号公報 特開2016−194901号公報
先述の通り、人物の顔を含む動画を解析して非侵襲的に肌を評価する技術について広く研究されてきた。しかし、従来の技術は、シワ等の肌表面に現れる徴候を評価するものに過ぎず、肌を形成する、表皮、真皮及び皮下組織の各層を非侵襲的に解析するための具体的な方法は開示されていない。そのため、肌の各層の物性を評価するためには、肌の組織を採取して層ごとに分析したり、肌に接触して力を加え、各層の力学的特性を測定したりする等の方法が必要だった。そこで、本発明では、非侵襲的に肌の表皮、真皮及び皮下のうち、2つ以上の物性を同時かつ簡単に解析する方法を提供することを課題とする。
上記課題を解決するために、本発明に係る肌解析方法は、顔の表情変化によって生じる皮膚変化の物理量と皮膚の層ごとの物性との相関関係に基づいて、被験者についての前記物理量の測定値から、被験者の表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する。
このように、物理量から皮膚の層ごとの物性を複数算出することで、物理量というひとつの入力から一度に皮膚の複数の層の物性を算出することができる。これにより、簡単に皮膚の層ごとの物性を複数算出でき、被験者の負担が軽減される。
本発明の好ましい形態では、前記真皮物性は、真皮コラーゲン構造を含む。
本発明の好ましい形態では、前記皮下物性は、皮下コラーゲン構造を含む。
本発明の好ましい形態では、前記物理量及び前記表皮物性の測定値の組を複数入力することによって作成された表皮物性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記表皮物性を算出する。
このように、物理量及び表皮物性の測定値の組を用いて作成された算出モデルを用いて表皮物性の算出を行うことで、実例に基づいてより正確に表皮物性の算出を行うことができる。
本発明の好ましい形態では、前記表皮物性は、表皮の水分量を含む。
本発明の好ましい形態では、前記物理量及び前記真皮物性の測定値の組を複数入力することによって作成された真皮物性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記真皮物性を算出する。
このように、物理量及び真皮物性の測定値の組を用いて作成された算出モデルを用いて真皮物性の算出を行うことで、実例に基づいてより正確に真皮物性の算出を行うことができる。
本発明の好ましい形態では、前記真皮物性は、真皮の粘弾性を含む。
本発明の好ましい形態では、前記記憶手段は、前記真皮の粘弾性と真皮コラーゲン構造との相関関係を記憶し、
前記解析部は、前記真皮の粘弾性と真皮コラーゲン構造との相関関係に基づいて、被験者について算出された前記真皮の粘弾性から被験者の前記真皮コラーゲン構造を推定する。
このように、顔の表情変化によって生じる皮膚変化の物理量の測定値から算出される真皮の粘弾性に基づいて、真皮コラーゲン構造を推定することにより、真皮コラーゲン構造の推定を含む肌の解析を非侵襲的に行うことができる。
本発明の好ましい形態では、前記物理量及び前記皮下物性の測定値の組を複数入力することによって作成された皮下物性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記皮下物性を算出する。
このように、物理量及び皮下物性の測定値の組を用いて作成された算出モデルを用いて皮下物性の算出を行うことで、実例に基づいてより正確に皮下物性の算出を行うことができる。
本発明の好ましい形態では、前記皮下物性は、皮下の粘弾性を含む。
本発明の好ましい形態では、前記皮下の粘弾性と皮下コラーゲン構造との相関関係に基づいて、被験者について算出された前記皮下の粘弾性から被験者の前記皮下コラーゲン構造を推定する。
このように、顔の表情変化によって生じる皮膚変化の物理量の測定値から算出される皮下の粘弾性に基づいて、皮下コラーゲン構造を推定することにより、皮下コラーゲン構造の推定を含む肌の解析を非侵襲的に行うことができる。
本発明の好ましい形態では、前記表皮物性、真皮物性及び皮下物性のうち、少なくとも1つに基づいて被験者の肌の評価値を1又は複数算出する。
このように、皮膚の層ごとの物性に基づいて肌の評価値を算出することにより、被験者にとってわかりやすい結果を示すことができる。
本発明の好ましい形態では、前記物理量の測定値から算出された、前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報を2つ以上含む解析結果を出力する。
本発明の好ましい形態では、前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力する。
このように、算出された粘弾性及び測定された物理量に基づく情報をあわせて出力することにより、測定した量と解析結果との対応をユーザが理解しやすくなる。
本発明の好ましい形態では、前記物理量は、前記表情変化の過程を含む動画に基づいて測定される。
このように、動画を用いて物理量を測定することにより、被験者の皮膚に接触せず、より簡単に皮膚の粘弾性を算出することができる。これにより、被験者及び解析を行う者の双方にとっての負担を小さくすることができる。
本発明の好ましい形態では、前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示する。
このように、動画を撮影するための画面において、顔部品の位置を合わせるためのガイドを表示し、このガイドに従って撮影を行うことで、撮影対象を適切な距離から適切な位置に収めての画像撮影を行うことができる。
本発明の好ましい形態では、前記動画は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から撮影される。
このように、正面から20〜30度の範囲で回転させた角度から顔を撮影した画像を用いることで、正面から撮影した画像を用いる場合に比べて頬部分や目尻等、顔の印象を左右しやすい部分の肌を広く含む画像を取得して、顔の印象を左右しやすい部分の肌についてより正確に肌解析を行うことができる。
本発明の好ましい形態では、前記動画として、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、の両方を用いる。
このように、異なる方向から撮影した動画を用いることで、左右の表情変化から得られる皮膚変化を総合的に考慮した物理量から、皮膚の物性を解析することができる。
本発明の好ましい形態では、前記動画は、
前記撮影対象を正面から捉えた状態を初期位置とし、前記初期位置からの撮影装置の回転角度を取得し、
前記回転角度が20〜30度の範囲内である場合に前記動画の撮影を許可し、
前記許可に基づいて撮影される。
本発明の好ましい形態では、前記物理量は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて測定される。
本発明の好ましい形態では、前記物理量は、肌の追従性、伸縮性及び変形性から選ばれる。
本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の層ごとの物性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の層ごとの物性との相関関係に基づいて、被験者についての前記物理量の測定値から、被験者の表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する解析部と、を備える。
本発明の好ましい形態では、前記真皮物性は、真皮コラーゲン構造を含む。
本発明の好ましい形態では、前記皮下物性は、皮下コラーゲン構造を含む。
本発明の好ましい形態では、前記記憶手段は、前記物理量及び表皮物性の測定値の組を複数入力することによって作成された表皮物性算出モデルを記憶し、
前記解析部は、前記表皮物性算出モデルを用いて、被験者についての前記物理量の測定値から前記表皮物性を算出する。
本発明の好ましい形態では、前記表皮物性は、表皮の水分量を含む。
本発明の好ましい形態では、前記記憶手段は、前記物理量及び真皮物性の測定値の組を複数入力することによって作成された真皮物性算出モデルを記憶し、
前記解析部は、前記真皮物性算出モデルを用いて、被験者についての前記物理量の測定値から前記真皮物性を算出する。
本発明の好ましい形態では、前記真皮物性は、真皮の粘弾性を含む。
本発明の好ましい形態では、前記記憶手段は、前記真皮の粘弾性と真皮コラーゲン構造との相関関係を記憶し、
前記解析部は、前記真皮の粘弾性と真皮コラーゲン構造との相関関係に基づいて、被験者について算出された前記真皮の粘弾性から被験者の前記真皮コラーゲン構造を推定する。
本発明の好ましい形態では、前記記憶手段は、前記真皮の粘弾性及び真皮コラーゲン構造の測定値の組を複数入力することによって作成された真皮コラーゲン構造推定モデルを記憶し、
前記解析部は、前記真皮コラーゲン構造推定モデルを用いて、被験者について算出された前記真皮の粘弾性から被験者の真皮コラーゲン構造を推定する。
本発明の好ましい形態では、前記記憶手段は、前記物理量及び皮下物性の測定値の組を複数入力することによって作成された皮下物性算出モデルを記憶し、
前記解析部は、前記皮下物性算出モデルを用いて、被験者についての前記物理量の測定値から前記皮下物性を算出する。
本発明の好ましい形態では、前記皮下物性は、皮下の粘弾性を含む。
本発明の好ましい形態では、前記記憶手段は、前記皮下の粘弾性と皮下コラーゲン構造との相関関係を記憶し、
前記解析部は、前記皮下の粘弾性と皮下コラーゲン構造との相関関係に基づいて、被験者について算出された前記皮下の粘弾性から被験者の前記皮下コラーゲン構造を推定する。
本発明の好ましい形態では、前記記憶手段は、前記皮下の粘弾性及び皮下コラーゲン構造の測定値の組を複数入力することによって作成された皮下コラーゲン構造推定モデルを記憶し、
前記解析部は、前記皮下コラーゲン構造推定モデルを用いて、被験者について算出された前記皮下の粘弾性から被験者の皮下コラーゲン構造を推定する。
本発明の好ましい形態では、前記物理量の測定値から算出された、前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報を2つ以上含む解析結果を出力する出力手段を更に備える。
本発明の好ましい形態では、前記出力手段は、前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力する。
本発明の好ましい形態では、前記表情変化の過程を含む動画を取得する動画取得手段を更に備え、
前記物理量測定手段は、前記動画に基づいて前記物理量を測定する。
本発明の好ましい形態では、前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を更に備える。
本発明の好ましい形態では、前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から、被験者の顔を撮影した動画を取得する。
本発明の好ましい形態では、前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、を取得する。
本発明の好ましい形態では、前記動画取得手段は、被験者を所定の条件で撮影するための端末装置によって撮影された前記動画を取得し、
前記端末装置は、
前記撮影対象を正面から捉えた状態を初期位置とし、前記初期位置からの前記端末装置の回転角度を取得する手段と、
前記回転角度が20〜30度の範囲内である場合に前記動画の撮影を許可する手段と、
前記許可に基づいて前記動画を撮影する手段と、を備える。
本発明の好ましい形態では、前記物理量は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて測定される。
本発明の好ましい形態では、前記物理量測定手段は、前記物理量として、肌の追従性、伸縮性及び変形性のうち何れかを測定する。
本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析プログラムであって、コンピュータを、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の層ごとの物性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の層ごとの物性との相関関係に基づいて、被験者についての前記物理量の測定値から、被験者の表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する解析部と、として機能させる。
本発明によれば、顔の表情変化によって生じる皮膚変化の物理量という1種類の入力によって、簡単かつ非侵襲に肌を形成する複数の層の物性をそれぞれ調べることができる。
本発明の一実施形態において被験者が再現する表情の模式図である。 本発明の一実施形態に係る肌解析システムの機能ブロック図である。 本発明の一実施形態に係る肌解析方法を示すフローチャートである。 本発明の一実施形態における動画取得工程の処理を示すフローチャートである。 本発明の一実施形態における被験者の撮影方向を示す図である。 本発明の一実施形態における顔部品座標を示す図である。 本発明の一実施形態における基準距離の一例を示す図である。 本発明の一実施形態における解析対象抽出工程の処理を示すフローチャートである。 本発明の一実施形態における移動量測定工程の処理を示すフローチャートである。 本発明の一実施形態における解析領域の分画パターンを示す図である。 本発明の一実施形態における粘弾性算出工程の処理の流れを示すフローチャートである。 本発明の一実施形態における水分量算出工程の処理の流れを示すフローチャートである。 本発明の一実施形態における皮下の粘弾性に基づく皮下のコラーゲン構造の算出の処理の流れを示すフローチャートである。 本発明の一実施形態に係る端末装置の外観を示す図である。 本発明の一実施形態における動画の撮影の流れを示すフローチャートである。 本発明の一実施形態における動画の撮影角度を示す図である。 本発明の一実施形態における動画の撮影準備画面の一例を示す図である。 本発明の一実施形態における動画の撮影画面の一例を示す図である。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。本実施形態においては、顔の表情変化の過程を表す動画を取得して、表情変化が開始するフレーム及び表情変化が終了するフレームを特定し、両者の間に撮影されたフレームを対象に解析を行う。
本発明においては、表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する。ここで、算出する物性としては、各層の力学的特性や組織構造等、任意のものとしてよい。例えば、水分量、粘弾性、密度、可塑性、透過性や拡散性等の光学特性、引張強さやせん断強さ等の機械的強度等が挙げられる。
本実施形態では、表皮物性として表皮の水分量を、真皮物性として真皮の粘弾性を、皮下物性として皮下の粘弾性を、それぞれ物理量から算出する例を示す。
本発明において「粘弾性を算出する」とは、粘性と弾性を定量的に評価する値を算出することを指す。具体的には、例えば、ヤング率、ポアソン比、体積弾性率、体積粘性率、ずり弾性率、ずり粘性等の値を粘弾性として算出することができる。また、このような値を複数算出して、その組み合わせにより粘弾性の評価値を算出する構成としてもよい。本実施形態において、皮膚の粘弾性とは、真皮の粘弾性及び皮下の粘弾性を指す。このような皮膚の粘弾性は、皺やたるみ等の外見上の変化の原因になることから、加齢に伴う肌の老化現象を確認する上での指標となる。
また、本実施形態では、真皮及び皮下それぞれについて、粘弾性に基づいてコラーゲン構造(真皮コラーゲン構造及び皮下コラーゲン構造)を推定する。肌のコラーゲン構造とは、皮下脂肪細胞を包む線維構造の線維化レベルや、真皮のコラーゲン線維の結束の度合いを含む、皮下又は真皮のコラーゲン構造を指す。
本実施形態において推定する皮下コラーゲン構造について説明する。表皮や真皮を支える皮下組織の大部分は脂肪細胞が集塊を形成した脂肪小葉から構成される皮下脂肪であり、保温や外力に対する緩衝作用などを有する。脂肪小葉はコラーゲン線維やエラスチン線維などの結合組織等によって周囲が網目状に取り囲まれることで、脂肪細胞を包む線維構造を形成する。
本発明者らの鋭意研究の結果、皮下脂肪細胞を包むコラーゲン線維が、加齢と共に線維化することが明らかとなった。このような皮下の線維構造の線維化レベルを表す指標を、本発明では「皮下コラーゲン構造」として推定する。
また、本実施形態において推定する真皮コラーゲン構造について説明する。加齢に伴い真皮の結合組織が次第に柔軟性、弾力性を失い硬くなっていくことが知られている。これは、結合組織の主成分であるコラーゲン線維が加齢と共に架橋し、結束してしまうことに起因していると考えられている。したがって本発明では、このような真皮のコラーゲン線維の結束の度合いを表す指標を「真皮コラーゲン構造」として推定する。なお、この他にも、コラーゲンの構造を評価する為の任意の指標を用いてよい。
本実施形態においては、表情変化の過程における、顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つを示す値(以下、移動量)を測定する。移動量は、各フレームにおける値として求めてもよいし、また、ひとつの表情変化を通しての平均値として求めてもよい。あるいは、頬部、顎部といったように領域を設定し、その領域内における値の積算値や平均値等を求めてもよい。また、本実施形態において、表情変化によって生じる皮膚変化の物理量とは、移動量に基づいて測定される値を指す。
なお、以下において顔部品座標とは、顔の動きを追跡して表情の変化を評価する為の、顔上の部品の位置を示す座標である。顔上の部品とは、目、鼻、顔の輪郭、等のような任意の特徴を示す。例えば、唇輪郭の上下端の点や左右端の点等を顔部品座標として検出し、用いることができる。
また、解析対象とは、肌解析の対象とする画像の集合である。本実施形態においては、表情変化が開始するフレームと表情変化が終了するフレームを特定し、その間に含まれる表情変化の最中の画像を用いて動きを解析することにより肌解析を行う。
なお、本実施形態においては、表情変化として頬部分の肌を縦方向に伸縮させる縦方向表情変化の過程を表す動画と、頬部分の肌を横方向に伸縮させる横方向表情変化の過程を表す動画と、をそれぞれ取得し、その各々の表情変化によって生じる皮膚変化の物理量を動画に基づいて測定して肌解析を行う。このように、肌を特定の方向に伸縮させる表情変化の過程を表す動画を用いることにより、肌を特定の方向に伸縮させた際の皮膚の運動特性を解析することが可能になる。特に、縦方向表情変化及び横方向表情変化の両方について解析を行うことで、より幅広い皮膚の運動特性を調べることができる。
図1は本実施形態において被験者が再現する表情を示す図である。本実施形態においては、被験者はここに示すように、無表情(図1(a))と、口を縦に開く表情(以下「あ」の表情、図1(b))と、口を横に開く表情(以下「い」の表情、図1(c))と、口をすぼめる表情(以下「う」の表情、図1(d))と、の4つの表情をとる。
本実施形態においては、縦方向表情変化として、無表情、「あ」の表情、「う」の表情、「あ」の表情、「う」の表情、無表情、の順に被験者が表情を再現する。即ち、無表情から「あ」の表情への縦方向表情変化と、「あ」の表情から「う」の表情への縦方向表情変化と、「う」の表情から「あ」の表情への縦方向表情変化と、「う」の表情から無表情への縦方向表情変化と、の4種類の縦方向表情変化を含む動画を取得して肌解析を行う。肌解析を行う表情の種類としては、4種類のうち、無表情から「あ」の表情への縦方向表情変化と「う」の表情から無表情への縦方向表情変化の2種類のみを用いてもよい。
また、横方向表情変化として、無表情、「い」の表情、「う」の表情、「い」の表情、「う」の表情、無表情、の順に被験者が表情を再現する。即ち、無表情から「い」の表情への横方向表情変化と、「い」の表情から「う」の表情への横方向表情変化と、「う」の表情から「い」の表情への横方向表情変化と、「う」の表情から無表情への横方向表情変化と、の4種類の横方向表情変化を含む動画を取得して肌解析を行う。肌解析を行う表情の種類としては、4種類のうち、無表情から「い」の表情への横方向表情変化と「う」の表情から無表情への横方向表情変化の2種類のみを用いてもよい。ここで、無表情から「う」の表情への表情変化においては、頬部分の肌は縦にも横にも伸縮するため、縦方向表情変化及び横方向表情変化の両方として扱う。
このように、本実施形態においては、頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含む動画を取得し、各種の表情変化が開始するフレーム及び終了するフレームを特定して、各種の表情変化が開始するフレームから終了するフレームまでの間の画像を解析対象とする。このように、肌を同じ方向に伸縮させる複数種類の表情変化についてそれぞれ解析対象を特定して解析を行うことで、特定の方向の肌の伸縮に伴う皮膚の運動特性をより詳細に解析することができる。
本実施形態においては、このように4種類の縦方向表情変化と4種類の横方向表情変化についてそれぞれ解析対象を抽出し、各解析対象について移動量が測定される。物理量としては、解析対象ごとに測定された複数の移動量の平均値、合計値、各移動量に重みづけして算出された値等、移動量から導かれる任意の値を用いることができる。
図2は、本実施形態に係る肌解析システムの機能ブロック図である。ここに示すように、本実施形態に係る肌解析システムは、肌解析装置10と端末装置20とが通信可能に構成される。肌解析装置10としては、CPU(Central Processing Unit)等の演算装置、RAM(Random Access Memory)等の主記憶装置、HDD(Hard Disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置、端末装置20との通信手段を含む種々の入出力装置等を備えた、サーバ機器等の一般的なコンピュータ装置を利用することができる。より詳細には、補助記憶装置に予め、あるいは記録媒体からの複製等によって、後述する各手段としてコンピュータを動作させるためのプログラムを格納しておき、それらのプログラムを主記憶装置上に展開して演算装置による演算を行い、入出力手段の制御等を行うことで、コンピュータ装置を本実施形態における肌解析装置10として利用することができる。
端末装置20は、撮影手段201と、表示部202と、を備えている。端末装置20としては、演算装置、主記憶装置、補助記憶装置、肌解析装置10との通信手段、デジタルカメラ等の撮影手段や、種々の入出力装置等を備えた、一般的なコンピュータ装置を利用することができる。例えば、カメラ機能を備えるタブレット端末等を用いてもよい。具体的には、例えば、後述する各手段としてコンピュータ装置を動作させるための専用のアプリケーションソフトをインストールすることにより、コンピュータ装置を本実施形態に係る肌解析システムにおける端末装置20として利用することができる。
本実施形態における肌解析装置10は、顔の表情変化の過程を撮影した動画を取得する動画取得手段1と、動画取得手段1が取得した動画から表情変化のタイミングを特定して解析対象を抽出する解析対象抽出手段2と、解析対象抽出手段2によって抽出された解析対象における移動量を測定し、移動量に基づいて皮膚変化の物理量を測定する物理量測定手段3と、相関関係データを記憶する記憶手段4と、表皮物性、真皮物性及び皮下物性の算出を行う解析部5と、解析部5の解析結果に基づいて被験者の肌の評価値を算出する評価手段6と、を備える。
本実施形態において、物理量測定手段3は、動画から顔の特徴点を抽出する特徴点抽出手段31と、特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向、等を示す動きベクトルを特定し、動きベクトルから移動量を測定する移動量測定手段32と、移動量に基づいて物理量を測定する移動量解析手段33と、を備える。
記憶手段4は、物理量と皮膚の層ごとの物性との相関関係を記憶する。本実施形態において、記憶手段4は、物理量と表皮の水分量との相関関係と、物理量と真皮の粘弾性の相関関係と、物理量と皮下の粘弾性の相関関係と、を記憶している。本実施形態においては、記憶手段4はこの他に、真皮の粘弾性と真皮コラーゲン構造との相関関係、皮下の粘弾性と皮下コラーゲン構造の相関関係等のデータや、動画取得手段1が取得した動画の情報、解析対象抽出手段2が抽出した解析対象に関する情報、解析結果、等を記憶する。
ここで、本実施形態における各種の相関関係データとしては、例えば、各種の値の相互の関係を表す関数や、各種のデータを組として与えることで学習させたモデル等を、算出モデルとして記憶させておくことができる。この他にも、任意の方法で相関関係を表す情報を記憶し、算出に用いてよい。
本実施形態において、解析部5は、物理量と真皮や皮下の粘弾性との相関関係に基づいて、物理量の測定値から粘弾性を算出する粘弾性算出手段51と、粘弾性とコラーゲン構造の相関関係に基づいて、算出した粘弾性から肌のコラーゲン構造を推定するコラーゲン構造推定手段52と、物理量と表皮の水分量の相関関係に基づいて、物理量の測定値から表皮の水分量(表皮物性)を算出する水分量算出手段53と、を備える。粘弾性算出手段51は、皮下物性として皮下の粘弾性を算出する皮下粘弾性算出手段511と、真皮物性として真皮の粘弾性を算出する真皮粘弾性算出手段512と、を備える。また、コラーゲン構造推定手段52は、より詳細な皮下物性として皮下コラーゲン構造を推定する皮下コラーゲン構造推定手段521と、より詳細な真皮物性として真皮コラーゲン構造を推定する真皮コラーゲン構造推定手段522と、を備える。
本実施形態において、評価手段6は、真皮粘弾性算出手段512が算出した真皮の粘弾性に関する評価値を算出する真皮粘弾性評価手段61と、皮下粘弾性算出手段511が算出した皮下の粘弾性に関する評価値を算出する皮下粘弾性評価手段62と、真皮コラーゲン構造推定手段522が推定した真皮コラーゲン構造に関する評価値を算出する真皮コラーゲン構造評価手段63と、皮下コラーゲン構造推定手段521が推定した皮下コラーゲン構造に関する評価値を算出する皮下コラーゲン構造評価手段64と、水分量算出手段53が算出した表皮の水分量に関する評価値を算出する水分量評価手段65と、を備える。
図3は、本実施形態における肌解析方法を示すフローチャートである。なお、本実施形態において、図3におけるステップS11及びステップS12は、縦方向表情変化を含む動画及び横方向表情変化を含む動画のそれぞれに対して行われ、ステップS13からステップS16においては、2種類の動画から測定された複数の移動量に基づいて各工程の処理を行う。このように、肌を異なる方向に伸縮させる複数の表情変化について移動量を測定し、複数の移動量から測定された物理量に基づいて肌の粘弾性を算出することで、より詳細に肌の解析を行うことができる。
<解析対象の抽出>
まず、ステップS11の動画取得工程において、動画の取得と解析対象の抽出を行う。図4に、動画取得工程における、処理のフローチャートを示す。本実施形態においては、縦方向表情変化を含む動画と、横方向表情変化を含む動画と、を取得し、それぞれに含まれる表情変化の各々について図4に示す処理を実行し、解析対象を抽出する。即ち、図4に示す処理は2種類の動画それぞれについて実行される。ここで、図4に示す各々の工程は全て、ひとつの動画全体への処理が完了してから次の工程に移る。即ち、例えば、ステップS24の表情動作評価工程は、ステップS23の距離算出工程において動画を構成する全てのフレームについて顔部品座標間の距離の算出が完了してから開始する。
ステップS21においては、動画取得手段1が、動画の撮影を促す情報を端末装置20の表示部202に表示させ、撮影手段201が動画の撮影を行う。動画取得手段1は、撮影手段201によって撮影された動画の情報を取得し、記憶手段4に記録する。
図5は、本実施形態における被験者の撮影方向を示す図である。本実施形態においては、動画取得手段1は、被験者の顔を通る鉛直方向の軸まわりに、正面を0度として25度回転した方向から撮影した顔の表情変化の過程を表す動画の情報を取得する。この時、撮影手段201が正面からの回転角度を取得し、回転角度が所定の範囲内である場合に撮影を許可する構成としてもよい。回転方向は被験者に向かって右回りでも左回りでもよく、またその両方について解析を行ってもよい。
このように、被験者の顔を通る鉛直方向の軸まわりに回転した方向から撮影することが望ましい。より詳細には、この時の回転角度は、正面を0度として20〜30度の範囲とすることがより好ましい。これにより、顔の印象を左右しやすい頬及び目の周辺部分の肌をより広く含む画像を取得することができるため、このような部分の肌について、肌の解析をより正確に行うことができる。
このとき、撮影画面において、目や輪郭等の顔部品の位置を合わせる為のガイドを表示してもよい。例えば、まず顔の位置を合わせる為のガイドを表示し、顔の位置合わせが完了すると、撮影手段201の角度に基づいて撮影角度を20〜30度とするようにガイド表示を行う構成としてもよい。
また、本実施形態では、肌解析装置10は、取得した動画における顔の位置のずれを補正する処理を実行する。具体的には、例えば鼻等の顔部品を基準として、表情動作による顔位置の移動や撮影時の手振れを補正することができる。この時、基準とする顔部品は、解析領域との相対的な位置変化が少ない部位であることが好ましい。
なお、動画の撮影を促す情報及びガイドの表示のための処理や、顔の位置のずれの補正等は、肌解析装置10と端末装置20のいずれにおいて実行されてもよい。例えば、動画の撮影処理については端末装置20において完結し、動画取得手段1は、端末装置20において撮影及び一時保存された動画を単に受信する手段として機能してもよい。
次に、ステップS22の顔部品座標検出工程において、解析対象抽出手段2が、ステップS21で取得した動画に含まれる顔における顔部品座標を、フレームごとに複数検出する。ここで、動画に含まれる表情変化に連動して距離が変化する2点の組を少なくとも1組検出する。このように、表情変化に連動して距離が変化する2点を組として検出することにより、その2点間の距離の変化に基づいて表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。
ステップS22の顔部品座標検出工程において動画全体について顔部品座標の検出が終了すると、ステップS23において、解析対象抽出手段2が、顔部品座標間の距離を算出する。距離の算出は動画全体の各フレームについて行われ、その算出結果が記憶手段4に記憶される。
図6は、本実施形態において用いる、顔部品座標を示す図である。図6(a)は縦方向表情変化における解析対象を抽出する際に用いられる顔部品座標を、図6(b)は横方向表情変化における解析対象を抽出する際に用いられる顔部品座標をそれぞれ示す。ここに示すように、本実施形態においては、縦方向表情変化における解析対象を抽出する際には唇の上下端の2点間に加え、左右の頬のそれぞれ複数の点及び顎部の点の座標を顔部品座標として検出する。そして、距離算出手段13が、唇輪郭の上下端の2点の距離及び左右の頬の各点と顎部の点との間の距離をそれぞれ算出して、その算出結果に基づいて解析対象が抽出される。
また、横方向表情変化における解析対象を抽出する際には唇輪郭の上下端の2点及び唇輪郭の左右端の2点を顔部品座標として検出し、距離算出手段13がそれぞれを組として唇輪郭の上下端の2点の距離及び唇輪郭の左右端の2点間の距離をそれぞれ算出する。このように、解析したい一連の表情変化に応じて、用いる顔部品座標を設定することにより、少ない情報で正確に表情変化の開始及び終了を特定することができる。
ここで、唇の上下端の2点と、頬部及びあごの2点と、は、いずれも頬部分の肌を縦方向に伸ばした時に距離が大きくなり、頬部分の肌を縦方向に縮めた時に距離が小さくなる。これにより、各種の縦方向表情変化のタイミングを特定できる。また、唇輪郭の左右端の2点は、頬部分の肌を横方向に伸ばした時に距離が小さくなり、頬部分の肌を横方向に縮めた時に距離が大きくなる。更に、唇輪郭の上下端の2点の距離を用いることで、例えば横方向表情変化の際に、唇輪郭の左右端の2点の距離変化が小さい「う」の表情から無表情への表情変化等についても、表情変化の開始する画像及び表情変化の終了する画像を特定することができ、各種の横方向表情変化のタイミングを特定できる。
このように、顔部品座標検出工程においては、頬部分の肌の伸縮に連動して距離が変化する2点の組を複数検出することが好ましい。これにより、複数種類の表情変化を含む動画に対して、種類ごとに解析対象抽出処理を行わずとも、その各種の表情変化の開始するフレーム及び表情変化の終了するフレームを一連の処理によって特定することができる。
なお、顔部品座標の検出には、一般に知られている任意の方法を用いることができる。例えば、一般に販売されている開発キットを利用して開発したアプリケーションソフトを用いてもよい。開発キットとしては、例えば、Face Sensing Engine(登録商標)(https://www.oki.com/jp/fse/function/#fp,最終閲覧日:平成30年12月19日)等を利用することができる。
また、本実施形態では、距離算出工程S23において、顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程が実行される。そして、後述する表情動作評価工程S24〜解析対象抽出工程S26においては、顔部品座標間の距離を基準距離によって標準化した値を用いて、解析対象の抽出が行われる。このようにすることで、顔の個人差や撮影時の倍率等の影響を低減してより精度よく解析対象を抽出することができる。
図7は、本実施形態において用いることができる、基準距離の例を示す図である。本実施形態では、左右の目の距離(図示例における「A」の距離)を基準距離として用いて、顔部品座標間の距離を標準化する。具体的には、例えば、Aの距離を算出し、顔部品座標間の距離を全てAで除算する等の方法で、顔部品座標間の距離を標準化することができる。
この他、左右の目を結ぶ線分から顎先に降ろした垂線の長さ(図示例における「B」の距離)等、個人差や撮影時の倍率等による影響を是正できると考えられる任意の距離を、基準距離として用いることが好ましい。また、基準距離を複数組み合わせて、顔部品座標間の距離を標準化する構成としてもよい。なお、基準距離としては、顔上の任意の特徴を示す点に関する距離を用いればよく、特に制限はない。
ステップS24の表情動作評価工程においては、ステップS23において算出された顔部品座標間の距離の変化に基づいて表情変化の大きさを評価する。具体的には、例えば、被験者が無表情を再現した時の顔部品座標間の距離と、無表情以外の表情(「あ」の表情、「い」の表情、「う」の表情)を再現した時の顔部品座標間の距離と、の比を表情変化の評価値として算出することができる。このように比を用いることで、顔の大きさ等の個人差や撮影時の倍率等の影響を小さくすることができる。
次に、ステップS25において、ステップS24で算出した評価値を基準値と比較し、基準値を上回った場合にはステップS26の解析対象抽出工程に進む。基準値に満たない場合には、ステップS27に進み、動画取得手段1が、再度動画の撮影を促す為の情報を端末装置20に送信する。ステップS27が終了するとステップS21に戻り、再度動画の取得を行う。再度取得した動画については、ステップS22〜ステップS25において、顔部品座標検出工程と、距離算出工程と、表情動作評価工程と、のそれぞれの処理が行われる。
なお、本実施形態においては、取得する動画には複数の表情変化が含まれるため、表情動作評価工程においては、動画に含まれる全ての表情変化について基準値との比較を行い、全ての表情変化の評価値が基準値を上回った場合に解析対象抽出工程に進む。
このように、表情変化の大きさを評価し、所定の基準に満たない場合には再撮影を行わせて再度動画を取得することで、表情変化の大きさが肌解析を行う為に十分な動画に対して肌解析を実行することができる。これにより、肌の粘弾性の算出の精度を向上させることができる。
ステップS26においては、解析対象抽出手段2が解析対象の抽出を行う。図8は、解析対象抽出工程における処理の一例を示すフローチャートである。ここで、ステップS26においては、動画に含まれる各種の表情変化における解析対象のそれぞれについて図8に示す処理を実行し、解析対象を抽出する。本実施形態においては、縦方向表情変化を含む動画の4種類の縦方向表情変化、及び横方向表情変化を含む動画の4種類の横方向表情変化の、合計8種類の表情変化についてそれぞれ解析対象を抽出する。
なお、図8に示す処理は、組として検出された2点の顔部品座標間の距離それぞれについて行われる処理である。本実施形態においては、顔部品座標間の距離を複数用いて解析対象の抽出を行うため、組として検出された2点の顔部品座標間の距離それぞれについてこの処理を行い、その結果の組み合わせによって解析対象を抽出する。具体的には、組として検出されたある2点の顔部品座標間の距離を用いて解析対象を抽出し、その際に抽出できなかった表情変化に対して他の2点の顔部品座標間の距離を用いて図8に示す処理を行うことで解析対象を抽出することができる。
解析対象抽出手段2は、まず、ステップS31において、連続するフレーム間の顔部品座標間の距離の差分(変化量)の絶対値を算出する。次に、ステップS32において、顔部品座標間の距離の差分が基準値より大きい頂点(極大点)を検出する。すなわち、動画に含まれる複数の表情変化の各々の過程において、最も大きく顔部品座標間の距離が変化した点を検出する。
ステップS33においては、ステップS32で検出した頂点の前後で顔部品座標間の距離の差分が基準値を下回るフレームを特定する。これにより、ステップS32で検出した頂点の直前に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が開始したフレームとして特定し、同様にして頂点の直後に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が終了したフレームとして特定し、記憶手段4に記録する。これにより、解析対象抽出手段2は、表情変化の開始したフレームと、終了したフレームと、の間に含まれるフレームを解析対象として抽出する。
なお、図8に示した処理を行う際には、適宜フィルタリング等を行ってもよい。例えば、ステップS31において、顔部品座標間の距離の時間変化(各フレーム間における顔部品座標間の距離の変化)に対して低域通過フィルタ(LPF:Low Pass Filter)を適用してノイズ除去を行った上で、フレーム間の差分を算出してもよい。この他には、ノイズ除去のために、ステップS31において算出されたフレーム間の顔部品座標間の距離の差分の絶対値について、所定の値に満たない部分を0とする処理等を行うことができる。
以上のように、複数の画像から顔部品座標を検出し、顔部品座標間の距離に基づいて表情変化が開始する画像及び表情変化が終了する画像を特定して、その間に含まれる画像を解析対象として抽出することにより、所定の表情変化を含むフレームを精度よく特定できる。これにより、所定の表情変化の際の肌の運動特性をより正確に解析することができ、肌解析の精度を上げることができる。
<物理量の測定>
上記のようにして図3におけるステップS11が終了すると、ステップS12の移動量測定工程が開始する。図9は、移動量測定工程における処理の流れを示すフローチャートである。ここで、ステップS12においては、ステップS11において抽出された各種の表情変化における解析対象のそれぞれについて図9に示す処理を実行し、移動量を測定する。本実施形態においては、4種類の縦方向表情変化と4種類の横方向表情変化、即ち8種類の表情変化における解析対象についてそれぞれ移動量を測定する。
まず、ステップS41では、解析対象の中の各フレームより、特徴点の抽出を行う。ここでは、フレーム中の各画素の輝度値などから皮膚の凹凸を判別して特徴点を設定する方法や、動画中にグリッド状に特徴点を設定する方法、すなわち、格子状に特徴点を配置する方法など、任意の方法を用いてよい。
本実施形態では、オプティカルフロー法により移動量の測定を行う。具体的には、頬部の解析領域の1辺を所定の数に分割して、分割された正方形の領域を基本解析単位として、各基本解析単位における中心点を特徴点とみなし、移動量を測定する。図10は、本実施形態における解析領域の分画パターンの一例を示す図である。図10における斜線の領域が各分画パターンにおける1つの基本解析単位である。本実施形態では、まず1辺を12に分割し、各種の大きさの解析単位における動きベクトルの特定を行う(ステップS42)。動きベクトルは、フレーム間における輝度の変化等によって求めることができる。
その後、ステップS43で、動きベクトルの解析を行い、移動量の測定を行う。ここでの移動量の例としては、先述した特徴点の座標の変位量、移動速度、加速度、移動方向などや、平面の運動の波動性パラメータ、例えば周期、周長など、顔の皮膚の運動に関する量が挙げられる。
なお、このようなそれぞれの移動量は、各フレームにおける値として求めてもよいし、また、ひとつの表情変化を通しての平均値として求めてもよい。あるいは、頬部、顎部といったように領域を設定し、その領域内における値の積算値や平均値などを求めてもよい。
ステップS43において、本実施形態では、まず解析領域を12×12の144の基本解析単位に分ける。次に、各基本解析単位の移動量を測定し、隣り合う基本解析単位同士の平均値をとることで、6×6、4×4、3×3、2×2、1×1、のそれぞれの分画パターンにおける各基本解析単位の移動量を特定できる。これにより、本実施形態では、フレームごとに合計210個のベクトルデータを移動量として用いることができる。
また、本実施形態では、更に、各分画パターン内における基本解析単位間の移動量の比較に基づく値と、異なる分画パターン間の同一の領域における移動量の比較(大きさの異なる基本解析単位同士の比較)に基づく値と、を各フレームについて算出して、上記のベクトルデータに加えてこれらを移動量として用いる。より具体的には、各分画パターン内の基本解析単位間の移動量の差を総当たりで算術し、また、異なる分画パターン間の対応する領域(同じ位置を示す基本解析単位)の移動量の差を総当たりで算術して、これらを各フレームの移動量として用いることができる。
このように、解析領域内の位置(基本解析単位)ごとに様々な観点で移動量を解析することで、領域ごとの運動特性の変化の観測や、個人差の低減等の効果が期待できる。
以上のように、ステップS11において抽出された各種の表情変化における解析対象のそれぞれについて、ステップS12で図9に示す処理を実行することで、4種類の縦方向表情変化と4種類の横方向表情変化、即ち8種類の表情変化における解析対象についてそれぞれ移動量を得ることができる。
ステップS13の物理量測定工程においては、これら8つの表情変化に対応した移動量に基づいて物理量を測定する。本実施形態では、上記のような「フレームごと」の移動方向及び速さ等を含む種々の移動量、即ち時間の次元を持つ2次元の波形を、任意の方法でスカラー量に変換する。例えば、周波数解析や自己回帰モデル解析、ウェーブレット解析等の解析方法を用いることで変換が可能である。これにより、変換されたスカラー量を物理量として用いることができる。なお、この時、莫大な物理量が得られることが予想されるが、主成分分析等の任意の方法で、物理量の縮約を行ってもよい。
また、各表情変化における移動量や物理量の平均値、合計、各移動量に重みづけして算出された値等、移動量から導かれる任意の値を物理量として用いてもよい。
<粘弾性の算出>
ステップS14の粘弾性算出工程においては、物理量と真皮及び皮下の粘弾性との相関関係に基づいて、ステップS13で測定された被験者についての物理量から被験者の真皮及び皮下の粘弾性をそれぞれ算出する。
図11は、粘弾性算出工程における処理の流れを示すフローチャートである。なお、本実施形態においては、ステップS14において、真皮の粘弾性及び評価値と、皮下の粘弾性及び評価値と、をそれぞれ算出する。
まず、ステップS51において、記憶手段4が記憶する物理量―皮下物性相関関係データ及び物理量―真皮物性相関関係データを取得する。本実施形態において、これらの相関関係データは、それぞれ物理量と皮下の粘弾性の相関関係及び物理量と真皮の粘弾性の相関関係を含む。
次に、ステップS52において、ステップS51で取得した相関関係と、物理量測定手段3が測定した物理量と、に基づいて、皮下及び真皮の粘弾性(以下、皮膚の粘弾性)を算出する。具体的には、例えば、物理量と皮膚の粘弾性との間の関係を表す関数を、粘弾性算出モデル(真皮物性算出モデル、皮下物性算出モデル)として記憶手段4に予め登録しておき、その関数に物理量測定手段3が測定した物理量を代入することによって皮膚の粘弾性を算出する等の方法がある。
物理量と皮膚の粘弾性との間の関係を表す関数は、物理量及び粘弾性の測定値の組のデータから、統計的手法により求めることができる。より具体的には、上述の方法で被験者について測定された物理量と、同一の被験者について測定された皮膚の粘弾性と、の測定値の組をコンピュータに複数入力し、例えば線形回帰や決定木回帰、サポートベクター回帰、ガウス過程回帰等の回帰分析によって関数(回帰モデル)を得ることができる。また、後述の、物理量と水分量(表皮物性)の関係を表す関数や、粘弾性とコラーゲン構造の関係を表す関数についても、同様にして求めることができる。本実施形態では、このような粘弾性算出モデルを、真皮の粘弾性及び皮下の粘弾性のそれぞれについて作成しておき(真皮物性算出モデル及び皮下物性算出モデル)、ステップS52でそれぞれの粘弾性を算出する。
粘弾性の算出が完了すると、ステップS53において粘弾性の評価値を算出する。評価値の算出においては、ステップS52で算出した粘弾性を用いて、真皮及び皮下のそれぞれの粘弾性の評価値を算出する。例えば、算出された粘弾性に所定の処理を施して、被験者が感覚的に理解しやすいよう標準化した値等を評価値として用いることができる。
ここで、ステップS51及びステップS52は、皮下の粘弾性の算出の際には皮下粘弾性算出手段511が、真皮の粘弾性の算出の際には真皮粘弾性算出手段512がそれぞれ行う。また、ステップS53は、皮下の粘弾性の評価値を算出するときは皮下粘弾性評価手段62が、真皮の粘弾性の評価値を算出するときは真皮粘弾性評価手段61がそれぞれ行う。
<水分量の算出>
ステップS14が終了すると、ステップS15において水分量算出工程が開始する。本実施形態では、表皮物性として表皮の水分量を算出する。ステップS15においては、物理量と表皮の水分量との相関関係に基づいて、ステップS13で測定した被験者についての物理量から被験者の表皮の水分量を算出する。
図12は、水分量算出工程における処理の流れを示すフローチャートである。まず、ステップS61において、水分量算出手段53は、記憶手段4が記憶する物理量―表皮物性相関関係データを取得する。次に、ステップS62において、ステップS61で取得した相関関係と、ステップS13で測定した物理量と、に基づいて、水分量算出手段53が表皮物性として表皮の水分量を算出する。具体的には、例えば、物理量と表皮の水分量との間の関係を表す関数を、水分量算出モデル(表皮物性算出モデル)として記憶手段4に登録しておき、その関数に物理量測定手段3が測定した物理量を代入することによって表皮の水分量を算出する等の方法がある。物理量と表皮の水分量との間の関係を表す関数は、物理量と粘弾性との間の関係を表す関数と同様に、物理量及び水分量の測定値の組のデータから、統計的手法により求めることができる。
水分量の算出が完了すると、ステップS63において、ステップS62で算出した水分量を用いて、水分量評価手段65が表皮の水分量の評価値を算出する。評価値としては、例えば、ステップS62で算出した水分量に所定の処理を施して標準化した値等を用いることができる。
<コラーゲン構造の推定>
ステップS16のコラーゲン構造推定工程においては、粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された粘弾性から被験者の肌(真皮及び皮下)のコラーゲン構造を推定する。なお、本実施形態においては、ステップS16において、真皮コラーゲン構造及び評価値と、皮下コラーゲン構造及び評価値と、をそれぞれ算出する。図13は、コラーゲン構造推定工程における処理の流れを示すフローチャートである。
なお、本実施形態において、コラーゲン構造推定工程では、皮下コラーゲン構造については、皮下コラーゲン構造推定手段521が皮下脂肪細胞の超音波画像を解析して導かれるヒストグラムの歪度を皮下コラーゲン構造として推定し、皮下コラーゲン構造評価手段64が歪度を複数段階に分けて評価値を決定することでコラーゲン構造を推定する。即ち、コラーゲン構造として、歪度の評価値が推定される。
ここで用いられるヒストグラムは、被験者の超音波画像から皮下脂肪部分を切り出し、これを解析用画像として画像解析ソフトを使用した結果得られるものである。このヒストグラムについて解析を行い、歪度を算出すると、線維化の程度が低いほど歪度が大きく、線維化の程度が高いほど歪度が小さくなり、歪度によって皮下脂肪を包むコラーゲン線維構造の線維化レベルを評価できる。従って本実施形態では、上記のようにして得られるヒストグラムの歪度を、皮下のコラーゲン構造の指標として用いる。
また、真皮コラーゲン構造については、真皮コラーゲン線維の顕微鏡撮影画像に対して画像処理を施し、コラーゲン線維の結束度を定量化した値を「真皮コラーゲン構造」として推定する。
まず、ステップS71において、皮下粘弾性算出手段511が算出した皮下の粘弾性を取得する。次に、ステップS72において、記憶手段4が記憶する粘弾性―コラーゲン構造相関関係データを取得する。本実施形態において、粘弾性―コラーゲン構造相関関係データは、真皮粘弾性と真皮コラーゲン構造との相関関係及び皮下粘弾性と皮下コラーゲン構造との相関関係を含む。
本実施形態では、皮下の粘弾性と、皮下脂肪層の超音波画像を解析して得られるヒストグラムの歪度と、の間の関係を表す関数を、皮下コラーゲン構造推定モデルとして記憶手段4に登録しておき、その関数に皮下粘弾性算出手段511が算出した粘弾性を代入することによって、歪度を求める。皮下粘弾性と歪度の関係を表す関数は、粘弾性及び歪度の測定値の組のデータから、統計的手法により求めることができる。
また、真皮の粘弾性と、真皮コラーゲン線維の顕微鏡撮影画像に対して画像処理を施すことで得られるコラーゲン線維の結束度を定量化した値と、の間の関係を表す関数を、真皮コラーゲン構造推定モデルとして記憶手段4に登録しておき、その関数に真皮粘弾性算出手段512が算出した粘弾性を代入することによって真皮コラーゲン線維の結束度を求める。真皮粘弾性と結束度の関係を表す関数は、粘弾性及び結束度の測定値の組のデータから、統計的手法により求めることができる。
なお、ステップS71及びステップS72の順序は任意に変更してよい。また、相関関係データとしては、粘弾性とコラーゲン構造(歪度又は結束度)の測定値との組によって学習させた算出モデルを用いてもよい。
ステップS73においては、ステップS71及びステップS72で取得した皮膚の粘弾性及び粘弾性―コラーゲン構造相関関係データに基づいて、コラーゲン構造推定手段52が、被験者の真皮コラーゲン構造及び皮下コラーゲン構造を推定する。この時、記憶手段4が解析結果を記憶してもよい。
コラーゲン構造の推定が完了すると、ステップS74においてコラーゲン構造の評価値を算出する。評価値の算出においては、ステップS73で算出したコラーゲン構造を用いて、真皮及び皮下のそれぞれのコラーゲン構造の評価値を算出する。例えば、算出されたコラーゲン構造(歪度又は結束度)に所定の処理を施して標準化した値や、コラーゲン構造の値を複数段階に分けて評価する値等を、評価値として用いることができる。
以上のように、本実施形態によれば、被験者に特定の表情を順番に再現させ、その様子を撮影した動画を解析することで、簡易的に非侵襲な肌の解析を行うことができる。具体的には、表情変化によって生じる皮膚変化の物理量を動画から測定し、物理量と皮膚の各層の物性との相関関係に基づいて、被験者についての物理量の測定値から被験者の皮膚の層ごとの物性を算出することができる。
また、真皮物性及び皮下物性として、真皮の粘弾性及び皮下の粘弾性をそれぞれ算出し、その評価値を算出することができる。また表皮物性として表皮の水分量及びその評価値を算出することができる。また、より詳細な真皮物性又は皮下物性として、皮膚の粘弾性に基づいて肌のコラーゲン構造を推定し、その評価値を算出することができる。これにより、これらの評価値の組み合わせによって詳細な結果を提示することができる。
なお、本実施形態では、記憶手段4が、各種の測定値の組のデータから統計的手法によって得られる、それぞれの関係を表す関数を記憶し、この関数に従って、皮膚の粘弾性や水分量、コラーゲン構造を推定する形態を示した。ただしこの他にも、例えば物理量と粘弾性又は水分量の測定値の組を教師データとして与え、ニューラルネットワークに学習させることで、粘弾性算出モデルや水分量算出モデル、コラーゲン構造推定モデルを作成する構成としてもよい。また、各種処理の順序を変更する等、この他にも、本発明の趣旨を逸脱しない範囲で、任意に構成を変更してよい。
また、本実施形態では、表皮物性、真皮物性及び皮下物性を全て算出する構成を示したが、これらのうち任意の2以上の物性を算出する形態に変更してよい。例えば、表皮の水分量、皮下の粘弾性及び皮下コラーゲン構造について算出し、真皮物性については算出しない構成としてもよい。
以下、本発明者らによって行われた、物理量の測定値に基づく皮膚の粘弾性等の算出実験結果、及び粘弾性に基づくコラーゲン構造の推定結果について説明する。なお、本発明は以下のような実験結果に基づいてなされたものであるが、本発明において用いられる値や相関関係は、以下の内容に限られない。
<実験結果1>
(1)物理量測定
上記の実施形態と同様の手法で、20〜60代の100名を対象に、表情変化の過程を表す動画像を取得して、物理量を測定した。具体的には、頬部の解析領域を複数の分画パターンによって基本解析単位に分け、各領域の移動量を測定した。そして、このような移動量を更に各分画パターン内の基本解析単位の移動量の比較、及び分画パターン間の対応する領域の移動量の比較によってフレームごとに解析し、時間の次元を持つ移動量をスカラー量に変換することで物理量を測定した。このような物理量の測定は、各表情変化に対してそれぞれ行われた。
(2)粘弾性及び水分量の測定
(1)と同一の対象者について、粘弾性及び水分量を測定した。真皮の粘弾性については、陰圧によって皮膚表面を吸引し、開放した時の皮膚の変位をモニタリングすることにより粘弾性を測定可能な装置を用いて測定した。また、皮下の粘弾性については、エラストグラフィを用いて皮膚内部のエラストグラフィ画像を取得して測定した。表皮の水分量については、高周波正弦電流によって皮表の角層の水分を測定する機器を用いて測定した。
(3)各種モデルの構築
対象者ごとに(1)及び(2)の結果を組として統計解析を行い、真皮及び皮下それぞれの粘弾性算出モデルと、表皮の水分量算出モデルと、を作成した。具体的には、任意の手法で回帰分析を行い、物理量と、粘弾性及び水分量と、の間の関係を記述する関数を求め、粘弾性算出モデル及び水分量算出モデルとして用いた。
(4)精度の検証
(1)〜(3)とは別の対象者について、同様に物理量、粘弾性及び水分量を測定し、モデルの精度を検証した。具体的には、(3)のモデルを用いて、物理量から粘弾性及び水分量を算出し、実際の測定結果と比較を行った。なお、粘弾性及び水分量は、その値に基づいてそれぞれ複数段階の評価値を決定し、評価値が一致するか否かを確認した。その結果、評価値の1段階のずれを許容した場合の推定精度は以下の通りになった。
表皮水分量:95%
真皮粘弾性:90%
皮下粘弾性:90%
(4)の結果から、表情変化の過程を表す動画に基づいて取得される皮膚変化の物理量の測定値により、粘弾性及び水分量を高い精度で推定できることが示された。
<実験結果2>
(1)粘弾性の測定及びコラーゲン構造の評価
<実験結果1>における(2)と同様の方法で、皮下の粘弾性を測定した。そして、同一被験者の超音波画像から皮下脂肪部分を切り出し、これを解析用画像として画像解析ソフトを使用してヒストグラムを作成した。このヒストグラムについて解析を行い、歪度を算出すると、線維化の程度が低いほど歪度が大きく、線維化の程度が高いほど歪度が小さくなった。即ち、歪度によって皮下脂肪を包むコラーゲン線維構造の線維化レベルを評価できる。
(2)回帰分析
(1)の粘弾性の測定結果及び皮下脂肪細胞の線維化レベルを表す歪度について回帰分析を行った。すると、皮下の粘弾性と、皮下脂肪層の超音波画像のヒストグラムの歪度の間に、正の相関関係が成立することが見出された。
(2)の結果から、皮下の粘弾性により、皮下脂肪細胞の線維化レベル(皮下のコラーゲン構造)を推定できることが示された。更に、皮下の粘弾性は、表情変化の過程を表す動画に基づいて取得される皮膚変化の物理量の測定値によって推定可能であることから、物理量の測定値に基づいて間接的に皮下のコラーゲン構造を推定できる可能性が示された。
以下、動画の撮影や解析結果の出力に係る詳細な実施形態の一例を示す。
<動画の撮影>
上述の通り、動画の撮影に際しては、撮影画面において、目や輪郭等の顔部品の位置を合わせるためのガイドを表示することができる。即ち、肌解析装置10又は端末装置20が、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を備える。ここでは、端末装置20を撮影装置として用いた、より好適な動画の撮影方法について詳細に説明する。なお、以下ではタブレット端末を端末装置20として用いる場合について説明するが、他にも、カメラやジャイロセンサ、加速度センサ等を備えた任意のコンピュータ装置を端末装置として利用できる。
図14は、端末装置20の外観を示す図である。図14(a)は、端末装置20の背面側を示す図である。ここに示すように、端末装置20の背面側には、カメラCが設けられており、撮影手段201はこれを利用して動画像を撮影する。図14(b)は、端末装置20の正面側を示す図である。ここに示すように、端末装置20の正面側には、撮影者に対する各種の表示や、操作者からの操作の受付等を行うタッチパネルTなどが設けられている。
本実施形態においては、図14に示すように、正面側、あるいは背面側から見た際に略長方形であるタブレット型端末の、長辺方向にx軸を、短辺方向にy軸を、そして正面側から背面側に向かう方向にz軸をそれぞれとり、端末装置20の保持される角度や回転した角度を表現する。ただし、本発明はこれに限るものではなく、他の態様で軸をとるような構成や、端末装置20ではなく被験者を基準として軸をとるような構成としてもよい。
図15は、本実施形態における動画の撮影の流れを示すフローチャートである。これは、撮影者が端末装置20を使用し、被験者の顔の表情変化を含む動画を撮影する場合の例を示すものである。被験者には、ここに示す各処理を行う前に、予め、撮影中にどのような表情変化をするかの説明をしておくことが好ましい。なお、この説明は、端末装置20がタッチパネルTに撮影内容を説明するための動画を表示する手段を備えるような構成とし、それを撮影者又は被験者に見せる、といった方法で行ってもよい。
まず、ステップS81では、角度のリセットを行う。これは、端末装置20の初期位置を決定するための処理である。本実施形態においては、y軸が鉛直方向と平行になり、x軸が被験者の顔面と略平行状態に、z軸が被験者の顔面に対して略垂直状態となる状態を、端末装置20の初期位置とする。これはすなわち、上から見た場合に、図16(a)に示すような状態となるものである。より具体的には、図17に示すような画面で、端末装置20のタッチパネルTに位置合わせのためのガイドとして被験者の目の高さ、あごの高さ、鼻の位置を合わせるためのガイドラインを、カメラCによって撮影された被験者の顔に重畳表示することで、撮影者に端末装置20の位置合わせを促す。にz軸の傾きに応じて移動するポインターPを表示することにより、より位置合わせがしやすくなる。そして、タッチパネルTによる操作の受付等(図17における「基準値セット」ボタンの選択)によっての角度のリセットを行い、端末装置20の初期位置を決定する。
なお、ここで、端末装置20のx軸まわりの回転、すなわち、前後方向の傾きや、z軸まわりの回転、すなわち、左右方向の傾きについても、小さくすることができるよう構成されることが好ましい。このためには、例えば、端末装置20が備えるジャイロセンサや加速度センサ等によって重力加速度等から鉛直方向、及びそれに直交する水平方向を特定し、x軸とz軸のそれぞれについて水平方向との角度の差をそれぞれの軸まわりの傾きとして表示し、これらを0に近づけ、所定の許容範囲に収まるように端末装置20の角度の調整を撮影者へ促す、といったようにすればよい。
このようにして角度のリセットを行い、端末装置20の初期位置を確定した後、ステップS82で、端末装置20の移動を行う。本実施形態においては、端末装置20を25度回転し、左斜め前方25度の角度より被験者の顔を撮影する。ここでは、上から見た場合に図16(b)に示すような状態となるように、端末装置20を被験者に向かって右側に移動することで、被験者の顔を左斜め前方から撮影するよう、位置調整を行う。これはすなわち、被験者に端末装置20のカメラCを向けた状態を保ちながら、被験者を中心として中心角を25度とする円弧を描くように端末装置20を移動させればよい。このような移動を行った場合、図16(b)に示すように、端末装置20はy軸を中心として、反時計回りに25度回転することになる。なお、撮影方向は左右どちらであってもよく、また左右両方からそれぞれ撮影してもよい。
ここでのより具体的な調整方法は、図18(a)に示すように、被験者の目の高さ、あごの高さ、左目の位置を合わせるためのガイドラインをタッチパネルTに表示し、撮影者に位置合わせを促すものである。この際、タッチパネルTに端末装置20のy軸まわりの回転に併せて移動し、25度回転すると中心のガイドラインと重なるポインターPを更に表示し、これが中心のガイドラインと重なり、端末装置20によって回転角度が適切であると判定された場合に、ガイドライン及びポインターの色等、表示形態を変化させる。
なお、端末装置20は撮影者によって保持された状態であるため、ここでは正確に25度である場合のみを許容するような構成でなく、例えば25度±5度、といったように、予め許容する角度範囲を定めておくような構成とすることが好ましい。
このように、ガイドラインを表示し、それに従って端末装置20の位置合わせを行うことにより、端末装置20が上述した円弧を描くような移動を正確にしない場合でも、被験者が向きを変えていない限りは、所定の角度からの撮影を確実に行うことができる。これにより、端末装置20(あるいは被験者)を器具によって固定し、移動させる、といった構成とせず、端末装置20を保持した撮影者が移動するという構成でも、撮影角度を簡単かつ確実に合わせることができる。
なお、本実施形態では、上述したように被験者の目の高さ、あごの高さ、左目の位置に合わせるための3本のガイドラインを表示する構成を示したが、本発明はこれに限るものではない。被験者の顔部品の位置を合わせるための点や線をガイドとして表示し、それに合わせて端末装置20の位置を調整することで、適切な距離から、被験者を適切な位置に収めての画像撮影が可能となる。
なお、この時点においては、回転角度が許容範囲に含まれ、適切であると判定された場合にも、焦点、露出の調整が完了していない状態であるため、録画は開始できない状態である。そのため、録画の開始のためのボタンを押下不可能な状態で表示する、あるいは、表示しないといったように、まだ録画が開始できる状態でないことを撮影者に示すことが好ましい。
ステップS82における端末装置20の移動の結果、ステップS83において端末装置20の回転角度が所定範囲内であると判定された場合、ステップS84へと進み、焦点及び露出の自動調整が行われる。これらの調整は任意の方法で行われればよく、特に本実施形態に係る端末装置20のようにタブレット型端末を用いる場合には、端末上で動作するOS(Operating System)のベンダ等から提供される、カメラの制御に関するAPI(Application Programming Interface)を利用して行うような構成とすればよい。また、自動調整のみでなく、手動での調整が可能な構成としてもよい。ここで、焦点、露出のみでなくISO感度などの画像撮影に関連する他のパラメータについても自動調整する手段を備える構成や、撮影環境の照度を検出し、照度が低い場合にLED(Light Emitting Diode)等によって被験者を照らすような手段を備えるような構成としてもよい。
ステップS84において焦点及び露出の自動調整が完了した後には、焦点、露出のロック(AFAEロック)が行われる。そして、ステップS85で、焦点、露出の調整が完了したと判定された場合には、ステップS86へ進み、撮影者による録画開始ボタンの押下を受け付ける状態とする。
そして、録画を開始する指示を撮影者から受けた後、ステップS87でカメラCによる録画を開始する。なお、録画の開始後にも、端末装置20の回転角度の測定を続け、図18(c)に示すように、撮影者へと表示することが好ましい。録画中に回転角度がステップS86で調整した許容範囲から外れた場合には、直ちに録画を中止するような構成としてもよいし、撮影者に回転角度の調整を促し、録画を続行するような構成としてもよい。
なお、本実施形態においては、被験者の顔の表情変化を含む動画像を撮影するため、例えば図18(c)に示すように、動画像の録画中に被験者が口を大きく開いた場合にあごの位置がガイドラインよりも下になる、といったように、ステップS82において位置合わせを行った状態からずれるような場合がある。このような場合においても、AFAEロックを行っている状態であるため、被験者の位置と端末装置20の位置が動いていなければ問題ない。あるいは、左目の位置についてはガイドラインに合った状態を維持するように、撮影者が端末装置20の位置を調整する、といったように、表情変化による移動が少ないと考えられる点について、録画中にも合わせ続けるような方法をとってもよい。
また、録画中の端末装置20の回転角度の測定は、y軸まわりの回転のみでなく、x軸まわり、z軸まわりの回転、すなわち、端末装置20の前後方向、左右方向の傾きについても行うことが好ましい。ここでも、端末装置20の傾きが所定の許容範囲を超えた場合に、直ちに録画を中止するような構成としてもよいし、撮影者に回転角度の調整を促し、録画を続行するような構成としてもよい。あるいは、端末装置20において、端末装置20の傾きに合わせた補正を行う構成や、録画中の各時点における端末装置20の傾きを記録しておき、後の肌解析装置10での解析時に補正を行うことができるような構成としてもよい。ここでの補正の方法としては、例えば、左右方向の傾きに対するものであれば録画した動画中の各フレーム画像の回転を行えばよいし、前後方向の傾きに対するものであれば、各フレーム画像に台形補正を適用する、といった方法が挙げられる。
そして、ステップS88において、録画を終了すると判定された場合、録画を終了し、ステップS89で動画ファイルとして記録する。ここで、録画の終了の判定は、撮影者の操作に基づくものであってもよいし、所定時間の経過後に録画を終了するような構成としてもよい。このようにして保存された動画ファイルは、肌解析装置10に送信される。
以上のように、本実施形態に係る端末装置20は、特殊な設備や器具を用意せずとも、ジャイロセンサや加速度センサといったセンサ、カメラCを備えるような汎用的なタブレット型端末に専用のプログラムの配備を行うことによって、実現できる。これにより、解析のために、撮影角度などの条件を特定しての動画の撮影を手軽に行うことができる。
なお、上記の形態においては、被験者の左斜め前方から撮影する例について説明したが、例えば、左右両方の同じ回転角度からそれぞれ動画を撮影し、それらの動画を合成した結果により、物理量を算出してもよい。左右両方向から被験者を撮影する場合、本実施形態では左右両方においてそれぞれ8種類の表情変化、即ち合計16種類の表情変化における解析対象について、移動量を得ることができる。図3のステップS13において、これら16種類の表情変化における解析対象から得られた移動量を用いて、物理量を算出することにより、左右の表情変化から得られる皮膚変化を総合的に考慮した物理量から、皮膚の物性を解析することができる。
<物理量の具体例>
解析に用いる物理量としては、例えば、肌の追従性、伸縮性、変形性等が挙げられる。ここで「表情変化における顔の肌の追従性」とは、表情変化に追従して変化する顔の肌の動きの遅れの程度のことである。表情変化が起こる際に、顔の肌はその動きに遅れて変化することになるが、その遅れの程度が小さいほど「追従性に優れる」という。
追従性は、表情変化の際の顔の任意の2つの点を観察し、この2つの点の運動のタイミングのズレの程度を測定することにより定量的に評価することができる。例えば、移動量に基づいて、特定の解析領域における運動速度を特定し、解析領域間で運動速度が最大となる時間の差分として定量的に測定する等の方法が考えられる。このとき、表情変化において最も顕著に動く顔の位置に対応した解析領域と、それ以外の顔の位置に対応した解析領域と、を用いて、それらの間で運動速度が最大となる時間の差分を測定することが好ましい。
また、「表情変化における顔の肌の伸縮性」とは、表情変化が起こったときの肌の伸縮のしやすさのことをいう。例えば、顔の肌が伸びる表情変化があったときに、その伸長方向全体の距離の増加分に対する、ある任意の領域における伸長方向の距離の増加分の割合が高いほど「伸縮性に優れる」と評価することができる。例えば、表情変化時の肌の伸長方向に沿った特徴点の座標の変位量等の移動量から、特定の解析領域における、伸長方向の距離の増加分の割合を、伸縮性として評価することができる。
また変形性としては、顔の任意の位置に対応する解析領域の変形の仕方(歪み方)を測定することが考えられる。変形性の測定方法は限定されないが、例えば、特徴点の変位量、移動方向等の移動量を用いて算出してもよい。
特に、追従性及び伸縮性は、それぞれ年齢と負の相関関係を有し、いずれも加齢によって低下する傾向があることが知られている。また、追従性と皮下の粘弾性との間にも正の相関関係が成立することが知られており、追従性と粘弾性との相関関係に基づいて、粘弾性の算出が可能であると考えられる。
<解析結果の出力>
肌解析装置10は、解析結果を出力する出力手段を更に備えていてもよい。出力手段は、解析結果として、真皮及び皮下の粘弾性、表皮の水分量、真皮及び皮下のコラーゲン構造の算出結果、またそれらの評価値等に基づく情報を出力する。出力の形態は限定されず、端末装置20において静的又は動的画像として表示してもよいし、音や振動、文字として出力してもよい。
更に、粘弾性及び水分量の算出結果やコラーゲン構造の推定結果だけでなく、解析に用いられる物理量、即ち、粘弾性、水分量及びコラーゲン構造の何れかと相関関係を有する物理量に基づく情報を、出力してもよい。これにより、測定した値や撮影された動画により得られた値がどのように解析結果に影響するのかをわかりやすく示すことができる。
<コラーゲン構造の推定に係る変形例>
上記の実施形態においては、コラーゲン構造推定手段52が、粘弾性算出手段51による算出結果及び粘弾性―コラーゲン構造相関関係データを用いてコラーゲン構造を推定する形態を示したが、本発明はこれに限られない。上述の通り、物理量及び粘弾性の間の相関関係が認められ、更に粘弾性及びコラーゲン構造の間の相関関係が認められることから、物理量及びコラーゲン構造の間にも、直接の相関関係が存在する蓋然性が高い。
従って、例えば、コラーゲン構造推定手段52が、物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての物理量の測定値から被験者の皮膚のコラーゲン構造を直接推定してもよい。
この場合には、記憶手段4は、物理量―コラーゲン構造相関関係データとして、物理量とコラーゲン構造に関する指標との間の関係を表す関数を記憶しており、この関数に物理量測定手段3が測定した物理量を代入することで、コラーゲン構造の指標を算出できる。
なお、粘弾性の算出を介さずに、物理量から直接コラーゲン構造を推定する場合にも、既述した実施形態と同様に、皮下のコラーゲン構造及び真皮のコラーゲン構造、並びにその評価値を推定することが好ましい。即ち、記憶手段4は、物理量と皮下のコラーゲン構造(例えば皮下脂肪層の超音波画像を解析して得られるヒストグラムの歪度)との相関関係、及び、物理量と真皮のコラーゲン構造(例えば真皮コラーゲン線維の顕微鏡撮影画像から得られるコラーゲン線維の結束度を定量化した値)との相関関係を、それぞれ記憶する。
このように、物理量とコラーゲン構造との相関関係に基づいてコラーゲン構造を推定することにより、粘弾性を介してコラーゲン構造を推定する場合に比べて、推定精度の向上効果が期待できる。
10 肌解析装置
1 動画取得手段
2 解析対象抽出手段
3 物理量測定手段
31 特徴点抽出手段
32 移動量測定手段
33 移動量解析手段
4 記憶手段
5 解析部
51 粘弾性算出手段
511 皮下粘弾性算出手段
512 真皮粘弾性算出手段
52 コラーゲン構造推定手段
521 皮下コラーゲン構造推定手段
522 真皮コラーゲン構造推定手段
53 水分量算出手段
6 評価手段
61 真皮粘弾性評価手段
62 皮下粘弾性評価手段
63 真皮コラーゲン構造評価手段
64 皮下コラーゲン構造評価手段
65 水分量評価手段
20 端末装置
201 撮影手段
202 表示部
C カメラ
T タッチパネル
P ポインター

Claims (44)

  1. 顔の表情変化によって生じる皮膚変化の物理量と皮膚の層ごとの物性との相関関係に基づいて、被験者についての前記物理量の測定値から、被験者の表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する、肌解析方法。
  2. 前記真皮物性は、真皮コラーゲン構造を含む、請求項1に記載の肌解析方法。
  3. 前記皮下物性は、皮下コラーゲン構造を含む、請求項1又は請求項2に記載の肌解析方法。
  4. 前記物理量及び前記表皮物性の測定値の組を複数入力することによって作成された表皮物性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記表皮物性を算出する、請求項1〜3の何れかに記載の肌解析方法。
  5. 前記表皮物性は、表皮の水分量を含む、請求項1〜4の何れかに記載の肌解析方法。
  6. 前記物理量及び前記真皮物性の測定値の組を複数入力することによって作成された真皮物性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記真皮物性を算出する、請求項1〜5の何れかに記載の肌解析方法。
  7. 前記真皮物性は、真皮の粘弾性を含む、請求項1〜6の何れかに記載の肌解析方法。
  8. 前記真皮の粘弾性と真皮コラーゲン構造との相関関係に基づいて、被験者について算出された前記真皮の粘弾性から被験者の前記真皮コラーゲン構造を推定する、請求項7に記載の肌解析方法。
  9. 前記物理量及び前記皮下物性の測定値の組を複数入力することによって作成された皮下物性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記皮下物性を算出する、請求項1〜8の何れかに記載の肌解析方法。
  10. 前記皮下物性は、皮下の粘弾性を含む、請求項1〜9の何れかに記載の肌解析方法。
  11. 前記皮下の粘弾性と皮下コラーゲン構造との相関関係に基づいて、被験者について算出された前記皮下の粘弾性から被験者の前記皮下コラーゲン構造を推定する、請求項10に記載の肌解析方法。
  12. 前記表皮物性、真皮物性及び皮下物性のうち、少なくとも1つに基づいて被験者の肌の評価値を1又は複数算出する、請求項1〜11の何れかに記載の肌解析方法。
  13. 前記物理量の測定値から算出された、前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報を2つ以上含む解析結果を出力する、請求項1〜12の何れかに記載の肌解析方法。
  14. 前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力する、請求項13に記載の肌解析方法。
  15. 前記物理量は、前記表情変化の過程を含む動画に基づいて測定される、請求項1〜14の何れかに記載の肌解析方法。
  16. 前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示する、請求項15に記載の肌解析方法。
  17. 前記動画は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から撮影される、請求項15又は請求項16に記載の肌解析方法。
  18. 前記動画として、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、の両方を用いる、請求項17に記載の肌解析方法。
  19. 前記動画は、
    被験者を正面から捉えた状態を初期位置とし、前記初期位置からの撮影装置の回転角度を取得し、
    前記回転角度が20〜30度の範囲内である場合に前記動画の撮影を許可し、
    前記許可に基づいて撮影される、請求項17又は請求項18に記載の肌解析方法。
  20. 前記物理量は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて測定される、請求項1〜19の何れかに記載の肌解析方法。
  21. 前記物理量は、肌の追従性、伸縮性及び変形性から選ばれる、請求項1〜20の何れかに記載の肌解析方法。
  22. 顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
    前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
    前記物理量と皮膚の層ごとの物性との相関関係を記憶する記憶手段と、
    前記物理量と皮膚の層ごとの物性との相関関係に基づいて、被験者についての前記物理量の測定値から、被験者の表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する解析部と、を備える肌解析システム。
  23. 前記真皮物性は、真皮コラーゲン構造を含む、請求項22に記載の肌解析システム。
  24. 前記皮下物性は、皮下コラーゲン構造を含む、請求項22又は請求項23に記載の肌解析システム。
  25. 前記記憶手段は、前記物理量及び表皮物性の測定値の組を複数入力することによって作成された表皮物性算出モデルを記憶し、
    前記解析部は、前記表皮物性算出モデルを用いて、被験者についての前記物理量の測定値から前記表皮物性を算出する、請求項22〜24の何れかに記載の肌解析システム。
  26. 前記表皮物性は、表皮の水分量を含む、請求項22〜25の何れかに記載の肌解析システム。
  27. 前記記憶手段は、前記物理量及び真皮物性の測定値の組を複数入力することによって作成された真皮物性算出モデルを記憶し、
    前記解析部は、前記真皮物性算出モデルを用いて、被験者についての前記物理量の測定値から前記真皮物性を算出する、請求項22〜26の何れかに記載の肌解析システム。
  28. 前記真皮物性は、真皮の粘弾性を含む、請求項22〜27の何れかに記載の肌解析システム。
  29. 前記記憶手段は、前記真皮の粘弾性と真皮コラーゲン構造との相関関係を記憶し、
    前記解析部は、前記真皮の粘弾性と真皮コラーゲン構造との相関関係に基づいて、被験者について算出された前記真皮の粘弾性から被験者の前記真皮コラーゲン構造を推定する、請求項28に記載の肌解析システム。
  30. 前記記憶手段は、前記真皮の粘弾性及び真皮コラーゲン構造の測定値の組を複数入力することによって作成された真皮コラーゲン構造推定モデルを記憶し、
    前記解析部は、前記真皮コラーゲン構造推定モデルを用いて、被験者について算出された前記真皮の粘弾性から被験者の真皮コラーゲン構造を推定する、請求項29に記載の肌解析システム。
  31. 前記記憶手段は、前記物理量及び皮下物性の測定値の組を複数入力することによって作成された皮下物性算出モデルを記憶し、
    前記解析部は、前記皮下物性算出モデルを用いて、被験者についての前記物理量の測定値から前記皮下物性を算出する、請求項22〜30の何れかに記載の肌解析システム。
  32. 前記皮下物性は、皮下の粘弾性を含む、請求項22〜31の何れかに記載の肌解析システム。
  33. 前記記憶手段は、前記皮下の粘弾性と皮下コラーゲン構造との相関関係を記憶し、
    前記解析部は、前記皮下の粘弾性と皮下コラーゲン構造との相関関係に基づいて、被験者について算出された前記皮下の粘弾性から被験者の前記皮下コラーゲン構造を推定する、請求項32に記載の肌解析システム。
  34. 前記記憶手段は、前記皮下の粘弾性及び皮下コラーゲン構造の測定値の組を複数入力することによって作成された皮下コラーゲン構造推定モデルを記憶し、
    前記解析部は、前記皮下コラーゲン構造推定モデルを用いて、被験者について算出された前記皮下の粘弾性から被験者の皮下コラーゲン構造を推定する、請求項33に記載の肌解析システム。
  35. 前記物理量の測定値から算出された、前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報を2つ以上含む解析結果を出力する出力手段を更に備える、請求項22〜34の何れかに記載の肌解析システム。
  36. 前記出力手段は、前記表皮物性、真皮物性及び皮下物性のうち少なくとも何れかに基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力する、請求項35に記載の肌解析システム。
  37. 前記表情変化の過程を含む動画を取得する動画取得手段を更に備え、
    前記物理量測定手段は、前記動画に基づいて前記物理量を測定する、請求項22〜36の何れかに記載の肌解析システム。
  38. 前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を更に備える、請求項37に記載の肌解析システム。
  39. 前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から、被験者の顔を撮影した動画を取得する、請求項37又は請求項38に記載の肌解析システム。
  40. 前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、を取得する、請求項39に記載の肌解析システム。
  41. 前記動画取得手段は、被験者を所定の条件で撮影するための端末装置によって撮影された前記動画を取得し、
    前記端末装置は、
    被験者を正面から捉えた状態を初期位置とし、前記初期位置からの前記端末装置の回転角度を取得する手段と、
    前記回転角度が20〜30度の範囲内である場合に前記動画の撮影を許可する手段と、
    前記許可に基づいて前記動画を撮影する手段と、を備える、請求項39又は請求項40に記載の肌解析システム。
  42. 前記物理量は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて測定される、請求項22〜41の何れかに記載の肌解析システム。
  43. 前記物理量測定手段は、前記物理量として、肌の追従性、伸縮性及び変形性のうち何れかを測定する、請求項42に記載の肌解析システム。
  44. 顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析プログラムであって、コンピュータを、
    前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
    前記物理量と皮膚の層ごとの物性との相関関係を記憶する記憶手段と、
    前記物理量と皮膚の層ごとの物性との相関関係に基づいて、被験者についての前記物理量の測定値から、被験者の表皮物性、真皮物性及び皮下物性のうち少なくとも2つを算出する解析部と、として機能させる、肌解析プログラム。
JP2020021670A 2019-03-01 2020-02-12 肌解析方法、肌解析システム及び肌解析プログラム Active JP7321951B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019038035 2019-03-01
JP2019038035 2019-03-01

Publications (2)

Publication Number Publication Date
JP2020142061A true JP2020142061A (ja) 2020-09-10
JP7321951B2 JP7321951B2 (ja) 2023-08-07

Family

ID=72355075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020021670A Active JP7321951B2 (ja) 2019-03-01 2020-02-12 肌解析方法、肌解析システム及び肌解析プログラム

Country Status (1)

Country Link
JP (1) JP7321951B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172323A1 (ja) * 2021-02-09 2022-08-18 株式会社ファセテラピー 振動付与装置、振動付与方法、コンポーネント提示装置およびコンポーネント提示用プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07100126A (ja) * 1993-10-01 1995-04-18 Shiseido Co Ltd 表情しわの模擬方法および装置
WO2001052724A1 (en) * 2000-01-19 2001-07-26 Pola Chemical Industries Inc. Device for measuring physical properties of elastic bodies
JP2007159798A (ja) * 2005-12-14 2007-06-28 Hiroshima Univ 肌年齢の測定方法及びその装置
US20160174878A1 (en) * 2014-12-22 2016-06-23 Avon Products, Inc. System and Method for Measuring Skin Firmness
JP2018083005A (ja) * 2016-11-25 2018-05-31 花王株式会社 肌評価方法及び肌評価装置
JP2018115913A (ja) * 2017-01-17 2018-07-26 花王株式会社 皮膚の歪み測定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110416296B (zh) 2018-04-26 2021-03-26 苏州能讯高能半导体有限公司 半导体器件、半导体芯片及半导体器件制作方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07100126A (ja) * 1993-10-01 1995-04-18 Shiseido Co Ltd 表情しわの模擬方法および装置
WO2001052724A1 (en) * 2000-01-19 2001-07-26 Pola Chemical Industries Inc. Device for measuring physical properties of elastic bodies
JP2007159798A (ja) * 2005-12-14 2007-06-28 Hiroshima Univ 肌年齢の測定方法及びその装置
US20160174878A1 (en) * 2014-12-22 2016-06-23 Avon Products, Inc. System and Method for Measuring Skin Firmness
JP2018083005A (ja) * 2016-11-25 2018-05-31 花王株式会社 肌評価方法及び肌評価装置
JP2018115913A (ja) * 2017-01-17 2018-07-26 花王株式会社 皮膚の歪み測定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172323A1 (ja) * 2021-02-09 2022-08-18 株式会社ファセテラピー 振動付与装置、振動付与方法、コンポーネント提示装置およびコンポーネント提示用プログラム

Also Published As

Publication number Publication date
JP7321951B2 (ja) 2023-08-07

Similar Documents

Publication Publication Date Title
CN105426827B (zh) 活体验证方法、装置和系统
US20170007137A1 (en) Method of estimating blood pressure based on image
EP2945372A1 (en) Electronic mirror device
JP2013101633A5 (ja) プログラム及びメイクアップシミュレーション装置
WO2021052208A1 (zh) 用于运动障碍病症分析的辅助拍摄设备、控制方法和装置
JP6908743B2 (ja) 顔の見た目印象の決定部位の抽出方法、顔の見た目印象の決定因子の抽出方法、顔の見た目印象の鑑別方法
Wang et al. Home monitoring musculo-skeletal disorders with a single 3d sensor
CN111933275A (zh) 一种基于眼动与面部表情的抑郁评估系统
Zhu et al. A computer vision-based system for stride length estimation using a mobile phone camera
CN108875469A (zh) 活体检测与身份认证的方法、装置及计算机存储介质
CN113569793A (zh) 一种跌倒识别方法及装置
JP7321951B2 (ja) 肌解析方法、肌解析システム及び肌解析プログラム
JP7356927B2 (ja) 肌解析方法、肌解析システム及び肌解析プログラム
WO2021192906A1 (ja) 算出方法
JP6817782B2 (ja) 脈拍検出装置及び脈拍検出方法
KR102175481B1 (ko) 생체 인식 장치 및 방법
Ahmedt-Aristizabal et al. Motion signatures for the analysis of seizure evolution in epilepsy
CN109492585A (zh) 一种活体检测方法和电子设备
WO2021192908A1 (ja) 追跡方法
JP7183005B2 (ja) 肌解析方法及び肌解析システム
JP6661882B2 (ja) 情報処理装置、振戦情報表示方法、情報処理システム、及びプログラム
Lunerti et al. Sensing movement on smartphone devices to assess user interaction for face verification
JP2002373340A (ja) 動作特徴抽出法および動作認識装置ならびに動作認識プログラム
JP7226745B2 (ja) 三次元顔形態の判別装置、方法、プログラム、およびシステム
CN117745902B (zh) 一种用于康复演示的数字人生成方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230726

R150 Certificate of patent or registration of utility model

Ref document number: 7321951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150