JP2023155988A - 鼻唇側影分析方法 - Google Patents
鼻唇側影分析方法 Download PDFInfo
- Publication number
- JP2023155988A JP2023155988A JP2022065542A JP2022065542A JP2023155988A JP 2023155988 A JP2023155988 A JP 2023155988A JP 2022065542 A JP2022065542 A JP 2022065542A JP 2022065542 A JP2022065542 A JP 2022065542A JP 2023155988 A JP2023155988 A JP 2023155988A
- Authority
- JP
- Japan
- Prior art keywords
- nasolabial
- shadow
- evaluation
- evaluation value
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000011156 evaluation Methods 0.000 claims abstract description 272
- 230000001815 facial effect Effects 0.000 claims abstract description 45
- 238000004458 analytical method Methods 0.000 claims description 65
- 230000000007 visual effect Effects 0.000 claims description 37
- 238000013210 evaluation model Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 18
- 238000002360 preparation method Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 9
- 238000011282 treatment Methods 0.000 claims description 9
- 239000002537 cosmetic Substances 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 description 61
- 230000037303 wrinkles Effects 0.000 description 36
- 230000010365 information processing Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000032683 aging Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 8
- 238000009472 formulation Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000007665 sagging Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000008961 swelling Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- NOQGZXFMHARMLW-UHFFFAOYSA-N Daminozide Chemical compound CN(C)NC(=O)CCC(O)=O NOQGZXFMHARMLW-UHFFFAOYSA-N 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 150000004032 porphyrins Chemical class 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000003746 surface roughness Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を適切に分析する技術を提供する。【解決手段】鼻唇側影分析方法では、一以上のプロセッサが、被評価者の顔が写る評価用顔画像を取得する画像取得工程と、複数人分の教師データに基づいて機械学習された学習済みモデルに、当該取得された評価用顔画像を入力することで、被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値を取得する評価値取得工程とを実行する。【選択図】図2
Description
本発明は、顔画像を用いて鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を分析する技術に関する。
下記特許文献1には、被験者の顔が撮影された画像から肌の毛穴、角栓のポルフィリン、シワ、シミ、肌色のうち、少なくとも1つを解析する方法が開示されている。シワの解析では、R画像とG画像の差分画像に対してガウシアンフィルタ等で歪補正した後、シワを強調する画像処理を行い、シワの数と総面積が数値化されている。
下記特許文献2には、被験者の全顔又は局部顔が撮影された画像における対象領域のシワ毎の位置情報及び大きさ情報を抽出して、被験者のシワを評価する手法が開示されている。シワ解析パラメータとして、シワ面積率、総シワ平均深さ、最大シワ平均深さ、最大シワ最大深さ(μm)、シワ総体積(mm3)、ISO標準表面粗さパラメータ等が解析される。
下記特許文献3には、シワのエイジングシミュレート画像を生成してシワの経時変化をシミュレートする手法が開示されている。
下記特許文献4には、顎部のたるみの進行度合いを評価する方法及びそれを用いて顎のたるみを改善するための各種美容処理の有効性を評価する方法が開示されている。この方法は、被検者の顎部から頚部の形状を側面から観察し、観察された顎部から頚部の形状をグレード0から5の評価基準の中で最も合致する形状のグレードに分類し、グレード数の増大が顎部のたるみの進行を示す。
下記特許文献5には、被験者の顔データの解析領域に対して顔の所定の部位毎に予め設定されたシワの延びやすい角度範囲内のシワ成分をそれぞれ抽出した複数のシワ成分抽出データを生成し、複数のシワ成分抽出データのそれぞれに対してシワ成分を強調した複数のシワ成分強調データを生成し、複数のシワ成分強調データを互いに合成した合成データを生成し、合成データにおいて所定の閾値以上の強度を有するシワ成分を被験者のシワとして検出することで、シワの誤検知を低減させる手法が開示されている。
下記特許文献6には、被験者の表情ジワやお手入れ時の皮膚のヨレから適切に肌状態を解析するべく、被験者の顔の動画像に含まれる表情の変化に基づき、顔の解析領域に予め配列された複数の追跡点の変化量を追跡し、その変化量から当該解析領域における肌の圧縮率を取得し、得られた圧縮率に基づいて被験者の肌状態を解析する手法が開示されている。
下記特許文献2には、被験者の全顔又は局部顔が撮影された画像における対象領域のシワ毎の位置情報及び大きさ情報を抽出して、被験者のシワを評価する手法が開示されている。シワ解析パラメータとして、シワ面積率、総シワ平均深さ、最大シワ平均深さ、最大シワ最大深さ(μm)、シワ総体積(mm3)、ISO標準表面粗さパラメータ等が解析される。
下記特許文献3には、シワのエイジングシミュレート画像を生成してシワの経時変化をシミュレートする手法が開示されている。
下記特許文献4には、顎部のたるみの進行度合いを評価する方法及びそれを用いて顎のたるみを改善するための各種美容処理の有効性を評価する方法が開示されている。この方法は、被検者の顎部から頚部の形状を側面から観察し、観察された顎部から頚部の形状をグレード0から5の評価基準の中で最も合致する形状のグレードに分類し、グレード数の増大が顎部のたるみの進行を示す。
下記特許文献5には、被験者の顔データの解析領域に対して顔の所定の部位毎に予め設定されたシワの延びやすい角度範囲内のシワ成分をそれぞれ抽出した複数のシワ成分抽出データを生成し、複数のシワ成分抽出データのそれぞれに対してシワ成分を強調した複数のシワ成分強調データを生成し、複数のシワ成分強調データを互いに合成した合成データを生成し、合成データにおいて所定の閾値以上の強度を有するシワ成分を被験者のシワとして検出することで、シワの誤検知を低減させる手法が開示されている。
下記特許文献6には、被験者の表情ジワやお手入れ時の皮膚のヨレから適切に肌状態を解析するべく、被験者の顔の動画像に含まれる表情の変化に基づき、顔の解析領域に予め配列された複数の追跡点の変化量を追跡し、その変化量から当該解析領域における肌の圧縮率を取得し、得られた圧縮率に基づいて被験者の肌状態を解析する手法が開示されている。
上述のように、被評価者の顔画像からシワの数や大きさ、深さを分析する手法や、顎部のたるみの進行度合いを評価する手法が存在している。このようなシワや頬のたるみと共に顔に老化印象を付与する因子の一つとしてほうれい線が知られている。
ほうれい線は、鼻及び鼻下(鼻と上唇との間の部分)と頬との境目にあるシワ或いは溝を指し示し、そのシワ(溝)の深さによって評価される。これは、ほうれい線の深さがほうれい線の陰影の状態に関与し、結果として顔の老化印象に影響するからである。
ほうれい線は、鼻及び鼻下(鼻と上唇との間の部分)と頬との境目にあるシワ或いは溝を指し示し、そのシワ(溝)の深さによって評価される。これは、ほうれい線の深さがほうれい線の陰影の状態に関与し、結果として顔の老化印象に影響するからである。
本発明者らは、このようなほうれい線とは別に、ほうれい線に近接する頬の部位(頬のほうれい線近傍部位と表記される)の隆起によっても、ほうれい線と同様の、鼻及び鼻下と頬との境目の陰影が生じ、顔の老化印象に影響を与えていることを新たに見出した。即ち、鼻及び鼻下と頬との境目に生じる陰影である鼻唇側影の評価は、ほうれい線の状態のみの評価では十分ではないことが新たに見出されたのである。
本発明は、このような観点からなされたものであり、鼻唇側影を適切に分析する技術を提供する。「鼻唇側影」とは、鼻及び鼻下と頬との境目に現れる陰影を意味する。
本発明によれば、鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を分析する方法であって、一以上のプロセッサが、被評価者の顔が写る評価用顔画像を取得する画像取得工程と、複数人分の教師データに基づいて機械学習された学習済みモデルに、前記取得された評価用顔画像を入力することで、前記被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値を取得する評価値取得工程とを実行する鼻唇側影分析方法が提供され得る。
また、本発明によれば、顔画像の入力に応じて該顔画像における頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力可能な鼻唇側影評価モデルの学習方法であって、一以上のプロセッサが、顔画像と、該顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む正解情報との組合せを複数人分有する教師データを取得する工程と、前記取得された教師データを用いて前記鼻唇側影評価モデルを学習させる工程とを実行する鼻唇側影評価モデルの学習方法が提供され得る。
また、上述の鼻唇側影分析方法を少なくとも含んだ鼻唇側影の見た目印象の評価方法も提供可能である。
また、上述の一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影分析装置であって上述の鼻唇側影分析方法を実行可能な鼻唇側影分析装置、上述の鼻唇側影評価モデルの学習方法を実行可能な鼻唇側影評価モデル学習装置なども提供され得る。
また、本発明によれば、顔画像の入力に応じて該顔画像における頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力可能な鼻唇側影評価モデルの学習方法であって、一以上のプロセッサが、顔画像と、該顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む正解情報との組合せを複数人分有する教師データを取得する工程と、前記取得された教師データを用いて前記鼻唇側影評価モデルを学習させる工程とを実行する鼻唇側影評価モデルの学習方法が提供され得る。
また、上述の鼻唇側影分析方法を少なくとも含んだ鼻唇側影の見た目印象の評価方法も提供可能である。
また、上述の一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影分析装置であって上述の鼻唇側影分析方法を実行可能な鼻唇側影分析装置、上述の鼻唇側影評価モデルの学習方法を実行可能な鼻唇側影評価モデル学習装置なども提供され得る。
本発明によれば、鼻唇側影を適切に分析する技術を提供することができる。
以下、本発明の好ましい実施形態の例(以降、本実施形態と表記する)について説明する。以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
本実施形態に係る鼻唇側影分析方法(以下、本分析方法と表記)及び鼻唇側影評価モデルの学習方法(以下、本学習方法)は、一台以上の情報処理装置が備える一以上のプロセッサにより実行される。
図1は、本分析方法及び本学習方法を実行可能な情報処理装置10のハードウェア構成例を概念的に示す図である。
情報処理装置10は、いわゆるコンピュータであり、CPU11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。情報処理装置10は、据え置き型のPC(Personal Computer)であってもよいし、携帯型のPC、スマートフォン、タブレット等のような携帯端末であってもよいし、専用コンピュータであってもよい。
図1は、本分析方法及び本学習方法を実行可能な情報処理装置10のハードウェア構成例を概念的に示す図である。
情報処理装置10は、いわゆるコンピュータであり、CPU11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。情報処理装置10は、据え置き型のPC(Personal Computer)であってもよいし、携帯型のPC、スマートフォン、タブレット等のような携帯端末であってもよいし、専用コンピュータであってもよい。
CPU11は、いわゆるプロセッサであり、一般的なCPU(Central Processing Unit)に加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれ得る。
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。
通信ユニット14は、通信網を介した他のコンピュータとの通信や、プリンタ等の他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
通信ユニット14は、通信網を介した他のコンピュータとの通信や、プリンタ等の他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
情報処理装置10のハードウェア構成は、図1の例に制限されない。情報処理装置10は、図示されていない他のハードウェア要素を含んでもよい。また、各ハードウェア要素の数も、図1の例に制限されない。例えば、情報処理装置10は、複数のCPU11を有していてもよい。また、情報処理装置10は、複数の筐体からなる複数台のコンピュータにより実現されていてもよい。
情報処理装置10は、CPU11によりメモリ12に格納されたコンピュータプログラムが実行されることにより、本分析方法及び本学習方法を実行することができる。そのコンピュータプログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13又は通信ユニット14を介してインストールされ、メモリ12に格納される。
本明細書では、説明の便宜のために、本分析方法及び本学習方法が共通の情報処理装置10で実行される例を挙げるが、本分析方法及び本学習方法は、同じ又は異なるハードウェア構成をそれぞれ有する別々の情報処理装置で実行されてもよい。また、本分析方法及び本学習方法はそれぞれ別々のコンピュータプログラムで実装されてもよい。
本明細書では、説明の便宜のために、本分析方法及び本学習方法が共通の情報処理装置10で実行される例を挙げるが、本分析方法及び本学習方法は、同じ又は異なるハードウェア構成をそれぞれ有する別々の情報処理装置で実行されてもよい。また、本分析方法及び本学習方法はそれぞれ別々のコンピュータプログラムで実装されてもよい。
次に、本分析方法の概要を説明し、本分析方法及び本学習方法の詳細については追って説明する。
本分析方法は、鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を分析する方法であって、図1に例示されるような情報処理装置10(CPU11)により実行される。以降の説明では、本分析方法及び本学習方法の実行主体をCPU11として説明する。
本分析方法は、鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を分析する方法であって、図1に例示されるような情報処理装置10(CPU11)により実行される。以降の説明では、本分析方法及び本学習方法の実行主体をCPU11として説明する。
本分析方法は、画像取得工程と、評価値取得工程とを少なくとも含む。
画像取得工程では、CPU11は、被評価者の顔が写る評価用顔画像を取得する。
詳細は後述するが、評価用顔画像は、被評価者の顔が写る画像であればよく、顔以外の部位(首や髪等)が写っていてもよい。また、評価用顔画像は、例えば、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像データとして取得される。但し、評価用顔画像のデータ形式は制限されない。また、取得される評価用顔画像は、可視光を撮像するカメラで撮像されたカラー画像であることが好ましいが、鼻唇側影を分析することができれば、グレースケール画像などであってもよい。
CPU11は、評価用顔画像を撮像したカメラからその画像を取得してもよいし、他のコンピュータや可搬型記録媒体からその画像を取得してもよい。
画像取得工程では、CPU11は、被評価者の顔が写る評価用顔画像を取得する。
詳細は後述するが、評価用顔画像は、被評価者の顔が写る画像であればよく、顔以外の部位(首や髪等)が写っていてもよい。また、評価用顔画像は、例えば、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像データとして取得される。但し、評価用顔画像のデータ形式は制限されない。また、取得される評価用顔画像は、可視光を撮像するカメラで撮像されたカラー画像であることが好ましいが、鼻唇側影を分析することができれば、グレースケール画像などであってもよい。
CPU11は、評価用顔画像を撮像したカメラからその画像を取得してもよいし、他のコンピュータや可搬型記録媒体からその画像を取得してもよい。
評価値取得工程では、CPU11は、複数人分の教師データに基づいて機械学習された学習済みモデルに、画像取得工程で取得された評価用顔画像を入力することで、被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値を取得する。
当該学習済みモデルは、顔画像の入力に応じて、少なくともその顔画像における頬のほうれい線近傍部位の隆起状態を示す評価値(第一評価値)を出力する。このため、当該学習済みモデルは、学習済みの鼻唇側影評価モデルと表記することもできる。
第一評価値は、ほうれい線と同様に鼻及び鼻下と頬との境目に陰影(鼻唇側影)を生じさせ得る、ほうれい線に近接する頬の部位の隆起の状態を示す。
当該学習済みモデルは、顔画像の入力に応じて、少なくともその顔画像における頬のほうれい線近傍部位の隆起状態を示す評価値(第一評価値)を出力する。このため、当該学習済みモデルは、学習済みの鼻唇側影評価モデルと表記することもできる。
第一評価値は、ほうれい線と同様に鼻及び鼻下と頬との境目に陰影(鼻唇側影)を生じさせ得る、ほうれい線に近接する頬の部位の隆起の状態を示す。
このように本実施形態では、顔の老化印象に影響を与える鼻唇側影の因子として、ほうれい線とは別に頬のほうれい線近傍部位の隆起状態に着目し、その隆起状態の評価値が取得される。
これにより、ほうれい線の深さや長さはそれほど大きくないものの、頬のほうれい線近傍部位の隆起状態が大きいことから鼻唇側影が目立ち、顔に老化印象を与えているような場合であっても、そのような鼻唇側影の状態を適切に分析することができる。
これにより、ほうれい線の深さや長さはそれほど大きくないものの、頬のほうれい線近傍部位の隆起状態が大きいことから鼻唇側影が目立ち、顔に老化印象を与えているような場合であっても、そのような鼻唇側影の状態を適切に分析することができる。
但し、後述するように、学習済みモデルが、第一評価値に加えて、ほうれい線の状態を示す評価値(第二評価値)も出力するように形成されていてもよい。
これによれば、顔の老化印象に影響を与える鼻唇側影の因子として、ほうれい線の状態と頬のほうれい線近傍部位の隆起状態との両方の評価値を得ることができるため、鼻唇側影の状態をより高精度に分析することができる。
これによれば、顔の老化印象に影響を与える鼻唇側影の因子として、ほうれい線の状態と頬のほうれい線近傍部位の隆起状態との両方の評価値を得ることができるため、鼻唇側影の状態をより高精度に分析することができる。
本実施形態における「学習済みモデル」は、教師データを用いた機械学習、即ち教師あり学習により得られたモデルであり、AI(Artificial Intelligence)モデル、機械学習(Machine Learning(ML))モデル等と表記可能である。
学習済みモデルは、例えば、回帰分析で得られる回帰式であってもよいし、ディープニューラルネットワークを含む畳み込みニューラルネットワークで構成されていてもよく、コンピュータプログラムとパラメータとの組合せ、複数の関数とパラメータとの組合せなどにより形成され得る。また、当該学習済みモデルは、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。また、当該学習済みモデルは、複数の重回帰式の組合せで構成されてもよいし、一つの重回帰式で構成されてもよい。また、当該学習済みモデルは、ニューラルネットワークと回帰式や判別式等のような他のモデルとの組合せで構成され、ニューラルネットワークの出力として得られた値を当該他のモデルに入力して得られる値を出力とするものであってもよい。
学習済みモデルは、例えば、回帰分析で得られる回帰式であってもよいし、ディープニューラルネットワークを含む畳み込みニューラルネットワークで構成されていてもよく、コンピュータプログラムとパラメータとの組合せ、複数の関数とパラメータとの組合せなどにより形成され得る。また、当該学習済みモデルは、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。また、当該学習済みモデルは、複数の重回帰式の組合せで構成されてもよいし、一つの重回帰式で構成されてもよい。また、当該学習済みモデルは、ニューラルネットワークと回帰式や判別式等のような他のモデルとの組合せで構成され、ニューラルネットワークの出力として得られた値を当該他のモデルに入力して得られる値を出力とするものであってもよい。
学習済みモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
このように情報処理装置10は、学習済みモデルを利用可能な装置であって本分析方法を実行可能な鼻唇側影分析装置と表記可能であるし、当該鼻唇側影評価モデルを学習可能な鼻唇側影評価モデル学習装置と表記することもできる。
このように情報処理装置10は、学習済みモデルを利用可能な装置であって本分析方法を実行可能な鼻唇側影分析装置と表記可能であるし、当該鼻唇側影評価モデルを学習可能な鼻唇側影評価モデル学習装置と表記することもできる。
以下、本分析方法及び本学習方法についてより詳しく説明する。以降の説明では、概略として上述した内容と同一の内容については適宜省略することとする。
[鼻唇側影分析方法(本分析方法)]
図2は、本実施形態に係る鼻唇側影分析方法のフローチャートである。上述したとおり、本分析方法は、図1に例示されるような情報処理装置10(CPU11)により実行される。
CPU11は、上述したとおり学習済みの鼻唇側影評価モデルを利用可能である。以降、学習済みの鼻唇側影評価モデルをAIモデルと略称する。
図2は、本実施形態に係る鼻唇側影分析方法のフローチャートである。上述したとおり、本分析方法は、図1に例示されるような情報処理装置10(CPU11)により実行される。
CPU11は、上述したとおり学習済みの鼻唇側影評価モデルを利用可能である。以降、学習済みの鼻唇側影評価モデルをAIモデルと略称する。
本分析方法について詳述する前に、まず、AIモデルについて説明する。
AIモデルは、顔画像を入力としその顔画像の鼻唇側影状態を示す評価値を出力する。AIモデルの出力は、概要として述べたとおり、頬のほうれい線近傍部位の隆起状態を示す第一評価値のみでもよいし、ほうれい線の状態を示す第二評価値を更に含んでもよい。本実施形態におけるAIモデルは、顔画像を入力とし頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力する。
AIモデルは、顔画像を入力としその顔画像の鼻唇側影状態を示す評価値を出力する。AIモデルの出力は、概要として述べたとおり、頬のほうれい線近傍部位の隆起状態を示す第一評価値のみでもよいし、ほうれい線の状態を示す第二評価値を更に含んでもよい。本実施形態におけるAIモデルは、顔画像を入力とし頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力する。
AIモデルが出力する第一評価値及び第二評価値は、後述する教師データの正解情報として与えられる目視評価値と同様の整数値とされてもよいし、小数点以下の数値で示されてもよい。例えば、前者の場合、第一評価値及び第二評価値は、ほうれい線の近傍外側の頬のふくらみ(隆起)の程度を8段階でスコア付けしたスコア値(0以上7以下の整数値)及びほうれい線の溝の深さの程度を8段階でスコア付けしたスコア値(0以上7以下の整数値)とされる。後者の場合、第一評価値及び第二評価値は、例えば、0以上7以下の小数点を含む数値とされる。
AIモデルは、顔画像とその顔画像に写る人顔の鼻唇側影の状態の正解情報とのデータセットを複数人分有する教師データに基づいて機械学習されている。
鼻唇側影の状態の正解情報は、本実施形態では、顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む。但し、概要として述べたとおり、AIモデルから頬のほうれい線近傍部位の隆起状態を示す第一評価値のみが取得される場合には、当該正解情報は、顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値のみを含んでいてもよい。
鼻唇側影の状態の正解情報は、本実施形態では、顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む。但し、概要として述べたとおり、AIモデルから頬のほうれい線近傍部位の隆起状態を示す第一評価値のみが取得される場合には、当該正解情報は、顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値のみを含んでいてもよい。
正解情報に含まれるほうれい線の状態の目視評価値は、評価者が顔画像を見てほうれい線の状態を評価することで得られるスコアである。このスコアは、予め決められた所定の評価方法によりほうれい線の溝の深さの程度を評価することで設定される。
本実施形態では、この評価方法の一例として、ほうれい線における鼻翼の外側から唇の両端に伸びる範囲を評価範囲とし、ほうれい線と称されるシワの深さを評価対象とし、複数シワが存在している場合には最も深いシワを評価対象とする。そして、この評価方法では、グレード0からグレード7の8段階のスコアが目視評価値として付される。即ち、ほうれい線の溝が浅い程、低いグレード(スコア)が付され、ほうれい線の溝が深い程、高いグレード(スコア)が付される。このため、以降の説明では、ほうれい線の状態を示す評価値をほうれい線グレードと表記する場合もある。
本実施形態では、この評価方法の一例として、ほうれい線における鼻翼の外側から唇の両端に伸びる範囲を評価範囲とし、ほうれい線と称されるシワの深さを評価対象とし、複数シワが存在している場合には最も深いシワを評価対象とする。そして、この評価方法では、グレード0からグレード7の8段階のスコアが目視評価値として付される。即ち、ほうれい線の溝が浅い程、低いグレード(スコア)が付され、ほうれい線の溝が深い程、高いグレード(スコア)が付される。このため、以降の説明では、ほうれい線の状態を示す評価値をほうれい線グレードと表記する場合もある。
但し、ほうれい線の状態の評価方法はこのような例に限定されない。例えば、当該評価方法として、評価者が顔画像に写るデータ提供者の顔を直接見て評価する方法であってもよい。また、ほうれい線の溝の深さのみでなく、ほうれい線の長さを評価対象に含む評価方法であってもよいし、ほうれい線の数(二重、三重のような)を評価対象に含むようにしてもよい。また、ほうれい線状態の段階付けも8段階に制限されず、8段階未満或いは9段階以上で段階付けされてもよい。
正解情報に含まれる頬のほうれい線近傍部位の隆起状態の目視評価値は、評価者が顔画像を見て頬のほうれい線近傍部位の隆起状態を評価することで得られるスコアである。このスコアは、予め決められた所定の評価方法により頬のほうれい線近傍部位の隆起の程度を評価することで設定される。
図3は、本実施形態における頬のほうれい線近傍部位の隆起状態の評価方法を示す概念図である。本実施形態では、図3に示されるように、この評価方法の一例として、鼻翼の外側から唇の両側に伸びるほうれい線の近傍外側の範囲(図3の楕円枠)を評価範囲とし、ほうれい線の近傍外側の頬のふくらみ(隆起)の程度をグレード0からグレード7の8段階でスコア付けする評価方法が採られる。即ち、当該評価範囲の頬のふくらみ(隆起)が小さい程、低いグレード(スコア)が付され、当該ふくらみ(隆起)が大きい程、高いグレード(スコア)が付される。このため、以降の説明では、頬のほうれい線近傍部位の隆起状態を示す評価値をふくらみグレードと表記する場合もある。なお、図3には、グレード0、グレード4及びグレード7に相当する隆起状態のイメージが示されている。
但し、頬のほうれい線近傍部位の隆起状態の評価方法はこのような例に限定されない。例えば、当該評価方法として、評価者が顔画像に写るデータ提供者の顔を直接見て評価する方法であってもよい。また、頬のほうれい線近傍部位の隆起状態の段階付けは8段階に制限されず、8段階未満或いは9段階以上で段階付けされてもよい。
AIモデルの入力として用いられる顔画像には、人顔、特に鼻唇側影が現れる鼻及び鼻下と頬との境目の部分が写っていればよいが、本発明者らは、AIモデルの入力として用いられる顔画像内の顔の領域の範囲がそのAIモデルの推定精度に影響を与えることを新たに見出した。
図4は、顔画像内の顔の領域の範囲とAIモデルの推定精度との関係を示すグラフであり、図5は、顔画像内の顔の領域の縦方向の位置とAIモデルの推定精度との関係を示すグラフである。図4及び図5における符号S1からS7及び符号L1からL6は、AIモデルの入力として用いられる顔画像の形態をそれぞれ示しており、各形態における画像サイズは共通化されている。
符号S7の顔画像には、顔全体に加えて頭及び首が含まれ頭部の略全体が表示されている。符号S6から符号S1の各顔画像は、符号S7の顔画像全体の大きさを1200ピクセルとした場合のその画像内における800ピクセル、600ピクセル、550ピクセル、500ピクセル、450ピクセル及び400ピクセルに相当する部分画像領域を全体画像とするようそれぞれ拡大された画像となっている。図4のグラフの横軸は、このような符号S7の顔画像を基準とした人顔領域の範囲の大きさをピクセル数で示しており、縦軸は、各形態の顔画像を入力した際のAIモデルのほうれい線グレード及びふくらみグレードの推定誤差を示している。
符号S6の顔画像には、頭部が含まれておらず、眉、目及び目よりも下方の部位が顔全体の輪郭線を含んで表示されている。これに対して符号S5から符号S1の各顔画像には目及び目よりも上方の部位が含まれていない。また、符号S1の顔画像は顎先端部の輪郭線が含まれておらず、符号S2から符号S5の各顔画像では、顎周りを中心とする顔の輪郭線が符号S2、符号S3、符号S4、符号S5の順でより多く含まれている。
一方で、AIモデルの推定誤差は、符号S5の顔画像が最も小さく、符号S4、符号S3、符号S6、符号S2、符号S7、符号S1の順で大きくなっている。
一方で、AIモデルの推定誤差は、符号S5の顔画像が最も小さく、符号S4、符号S3、符号S6、符号S2、符号S7、符号S1の順で大きくなっている。
図5では、図4の符号S7の顔画像に対する符号S5の顔画像の切り出し範囲を基準として、その基準の切り出し範囲を大きさを維持しながら符号S7の顔画像において上方に(頭上に向けて)移動させた際の各位置の画像が符号L1から符号L6で示されている。
図5の横軸には、符号L3の顔画像が示す顔領域の位置を基準位置(0)としてその基準位置から上方(頭上方向)及び下方(首の方向)への移動距離が正負の値で示されている。具体的には、正の値は下方(首の方向)への移動距離を示し、負の値は上方(頭上方向)への移動距離を示している。これに対して、図5の縦軸は、各形態の顔画像を入力した際のAIモデルのほうれい線グレード及びふくらみグレードの推定誤差を示している。
図5の横軸には、符号L3の顔画像が示す顔領域の位置を基準位置(0)としてその基準位置から上方(頭上方向)及び下方(首の方向)への移動距離が正負の値で示されている。具体的には、正の値は下方(首の方向)への移動距離を示し、負の値は上方(頭上方向)への移動距離を示している。これに対して、図5の縦軸は、各形態の顔画像を入力した際のAIモデルのほうれい線グレード及びふくらみグレードの推定誤差を示している。
結果、AIモデルの推定誤差は、符号S5の顔画像が最も小さく、符号L6、符号L5、符号L4、符号L3、符号L2、符号L1の順で大きくなっている。
このように、AIモデルの入力に用いられる顔画像が人顔における目及び目の上方の部位を除く目よりも下方の部位が顎周りを中心に顔の輪郭線を多く含むように正規化されることで、AIモデルの推定精度を向上させることができる。
このような顔画像の要件は、教師データとして用いられる顔画像だけでなく、後述する被評価者の顔画像にも該当する。
このように、AIモデルの入力に用いられる顔画像が人顔における目及び目の上方の部位を除く目よりも下方の部位が顎周りを中心に顔の輪郭線を多く含むように正規化されることで、AIモデルの推定精度を向上させることができる。
このような顔画像の要件は、教師データとして用いられる顔画像だけでなく、後述する被評価者の顔画像にも該当する。
また、教師データには、同一人物につき様々な撮影条件で撮影して得られる複数の顔画像が利用されることが好ましい。例えば、髪型の違い、素顔か化粧顔かの違い、化粧方法の違い、撮影場所の違い(照明等の明るさの違いも含む)、自撮りか否かの違い等のように、様々な撮影条件が採用され得る。この場合には、同一人物の顔画像群には同一の正解情報(ほうれい線グレード及びふくらみグレード)がラベル付けされる。
このような顔画像が教師データに利用されることで、被評価者の評価用顔画像の撮影条件を限定することなく、様々な撮影条件で撮影された評価用顔画像に対しても鼻唇側影の分析を高精度に行うことができる。
なお、このAIモデルは本学習方法により学習されればよく、本学習方法については後述する。
このような顔画像が教師データに利用されることで、被評価者の評価用顔画像の撮影条件を限定することなく、様々な撮影条件で撮影された評価用顔画像に対しても鼻唇側影の分析を高精度に行うことができる。
なお、このAIモデルは本学習方法により学習されればよく、本学習方法については後述する。
本分析方法において、まず、CPU11は、被評価者の顔が写る評価用顔画像を取得する(S21)。
工程(S21)で取得される評価用顔画像の画像サイズやデータ形式、撮影条件等については上述した通り制限されない。但し、これも上述したように、当該評価用顔画像は、被評価者の顔における目及び目より上方の部位を除く目よりも下方の部位が顎周りを中心にして顔の輪郭線を含んで表示されるように正規化されていることが好ましい。
工程(S21)で取得される評価用顔画像の画像サイズやデータ形式、撮影条件等については上述した通り制限されない。但し、これも上述したように、当該評価用顔画像は、被評価者の顔における目及び目より上方の部位を除く目よりも下方の部位が顎周りを中心にして顔の輪郭線を含んで表示されるように正規化されていることが好ましい。
CPU11は、被評価者の顔を撮影したカメラから評価用顔画像を取得してもよいし、他のコンピュータや可搬型記録媒体から評価用顔画像を取得してもよい。また、CPU11は、カメラや他のコンピュータ等から取得された画像に対して顔検出処理を適用した上でその画像における適切な顔画像領域を切り出し、その切り出された顔画像に対して更に拡大、縮小、トリミング等の画像処理を施すことで正規化された評価用顔画像を取得することもできる。このような顔検出処理や画像処理等を含む正規化処理は、CPU11により実行されてもよいし、他のコンピュータにより実行されてもよい。
次に、CPU11は、工程(S21)で取得された評価用顔画像をAIモデルに入力することで(S22)、被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値(ふくらみグレード)及び被評価者におけるほうれい線の状態を示す第二評価値(ほうれい線グレード)を取得する(S23)。
続いて、CPU11は、工程(S23)で取得された第一評価値及び第二評価値に基づいて、被評価者の鼻唇側影の評価結果を出力する(S24)。CPU11は、評価結果を表示装置15に表示させることもできるし、入出力I/F13又は通信ユニット14を介して接続されるプリンタ装置に評価結果を出力させることもできるし、入出力I/F13又は通信ユニット14を介して可搬型記録媒体若しくは他のコンピュータに当該評価結果を記録或いは送信することもできる。このように評価結果の出力先及び出力方法は何ら限定されない。
また、鼻唇側影の評価結果は、工程(S23)で取得された第一評価値及び第二評価値に基づく内容であれば、どのような形式で出力されてもよい。例えば、工程(S23)で取得された第一評価値及び第二評価値そのものがその項目名(ほうれい線グレード及びふくらみグレード)と共に出力されてもよいし、工程(S23)で取得された第一評価値及び第二評価値が目視評価値の形式(整数値)に変換された数値が項目名と共に出力されてもよい。例えば、後者において第一評価値として2.35が取得された場合、四捨五入等により得られる数値「2」がふくらみグレードの値として出力されてもよい。
このように本実施形態では、被評価者に関する、頬のほうれい線近傍部位の隆起状態を示す第一評価値(ふくらみグレード)と被評価者におけるほうれい線の状態を示す第二評価値(ほうれい線グレード)とに基づく鼻唇側影の評価結果が出力される。
従って、本実施形態によれば、顔の老化印象に影響を与える鼻唇側影の因子としてのほうれい線の状態と頬のほうれい線近傍部位の隆起状態とを区別して、二つの因子の各々の評価値に基づく鼻唇側影の評価結果を得ることができるため、鼻唇側影の状態がより詳細に評価された結果を得ることができる。
従って、本実施形態によれば、顔の老化印象に影響を与える鼻唇側影の因子としてのほうれい線の状態と頬のほうれい線近傍部位の隆起状態とを区別して、二つの因子の各々の評価値に基づく鼻唇側影の評価結果を得ることができるため、鼻唇側影の状態がより詳細に評価された結果を得ることができる。
また、鼻唇側影の評価結果は、頬のほうれい線近傍部位の隆起状態を示す軸とほうれい線の状態を示す軸との2軸で示されるグラフ上に、工程(S23)で取得された第一評価値及び第二評価値で示される被評価者の評価データがプロットされた評価グラフとされてもよい。
このような評価グラフを出力することで、被評価者に、鼻唇側影の二つの因子に基づく被評価者の鼻唇側影の状態の位置付けを容易に把握させることができる。
このような評価グラフを出力することで、被評価者に、鼻唇側影の二つの因子に基づく被評価者の鼻唇側影の状態の位置付けを容易に把握させることができる。
図6は、鼻唇側影の評価結果の出力例を示す図である。図6では、表示装置15への表示画面の例が示されている。
図6の表示画面では、左下に、工程(S23)で取得された第一評価値及び第二評価値そのものがその項目名「ほうれい線グレード」及び「ふくらみグレード」と共に表示されている。即ち、第一評価値が「1.58」であり、第二評価値が「2.59」である。
また、右側には2軸の評価グラフが表示されている。この評価グラフは、横軸にほうれい線グレードを示す横軸とふくらみグレードを示す縦軸とを有し、被評価者の評価データが当該第一評価値及び第二評価値に基づいてプロットされている。
更に、左上には、被評価者の画像が表示されている。
図6の表示画面では、左下に、工程(S23)で取得された第一評価値及び第二評価値そのものがその項目名「ほうれい線グレード」及び「ふくらみグレード」と共に表示されている。即ち、第一評価値が「1.58」であり、第二評価値が「2.59」である。
また、右側には2軸の評価グラフが表示されている。この評価グラフは、横軸にほうれい線グレードを示す横軸とふくらみグレードを示す縦軸とを有し、被評価者の評価データが当該第一評価値及び第二評価値に基づいてプロットされている。
更に、左上には、被評価者の画像が表示されている。
図6の例では、CPU11は、表示されている画像から評価用顔画像を逐次取得し、その評価用顔画像をAIモデルに入力することで、第一評価値及び第二評価値を逐次取得し、表示することができる。
このようにすれば、被評価者は、自身の顔を表示画像上で見ながら、そのときの顔から鼻唇側影の評価結果をリアルタイムで得ることができる。これにより、表情を変えたり、化粧をしながら、鼻唇側影の評価結果をその都度得ることもできる。
このようにすれば、被評価者は、自身の顔を表示画像上で見ながら、そのときの顔から鼻唇側影の評価結果をリアルタイムで得ることができる。これにより、表情を変えたり、化粧をしながら、鼻唇側影の評価結果をその都度得ることもできる。
また、CPU11は、工程(S23)と工程(S24)との間で、工程(S23)で取得された第一評価値及び第二評価値を用いて、頬のほうれい線近傍部位の隆起状態とほうれい線の状態との組合せで分類された複数の鼻唇側影クラスの中から被評価者が属する鼻唇側影クラスを決定するクラス決定工程を更に実行して、その決定された鼻唇側影クラスを評価結果として出力するようにしてもよい。例えば、被評価者が属する鼻唇側影クラスの識別情報(IDや名称等)が出力可能である。
例えば、情報処理装置10は、鼻唇側影クラスの判別式或いは判別条件を予めメモリ12に保持しており、CPU11は、工程(S23)で取得された第一評価値及び第二評価値をその判別条件或いは判別条件に適用することで、被評価者が属する鼻唇側影クラスを決定するようにしてもよい。
当該複数の鼻唇側影クラスは、実施例として後述するが、ほうれい線グレードを示す軸とふくらみグレードを示す軸との2軸で形成されるグラフの第一象限を区分けして形成される複数領域の各々に対応付けることができる。例えば、4つの鼻唇側影クラスに分類される場合、上記判別条件では、ふくらみグレードが0以上4以下でありかつほうれい線グレード0以上3以下である鼻唇側影クラス、ふくらみグレードが5以上7以下でありかつほうれい線グレード4以上7以下である鼻唇側影クラス、ふくらみグレードが0以上4以下でありかつほうれい線グレード4以上7以下である鼻唇側影クラス、ふくらみグレードが5以上7以下でありかつほうれい線グレード0以上3以下である鼻唇側影クラスのように条件付けされ得る。但し、鼻唇側影クラスの判別条件或いは判別式はこのような例に限定されない。
当該複数の鼻唇側影クラスは、実施例として後述するが、ほうれい線グレードを示す軸とふくらみグレードを示す軸との2軸で形成されるグラフの第一象限を区分けして形成される複数領域の各々に対応付けることができる。例えば、4つの鼻唇側影クラスに分類される場合、上記判別条件では、ふくらみグレードが0以上4以下でありかつほうれい線グレード0以上3以下である鼻唇側影クラス、ふくらみグレードが5以上7以下でありかつほうれい線グレード4以上7以下である鼻唇側影クラス、ふくらみグレードが0以上4以下でありかつほうれい線グレード4以上7以下である鼻唇側影クラス、ふくらみグレードが5以上7以下でありかつほうれい線グレード0以上3以下である鼻唇側影クラスのように条件付けされ得る。但し、鼻唇側影クラスの判別条件或いは判別式はこのような例に限定されない。
また、上述したAIモデルが、入力された評価用顔画像に対して鼻唇側影クラスを決定する判別モデルとして形成されていてもよいし、CPU11が、上述したAIモデルとは別に、工程(S23)で取得された第一評価値及び第二評価値又は評価用顔画像を入力して鼻唇側影クラスを決定する判別モデルも更に利用するようにしてもよい。
前者の場合、CPU11は、工程(S23)の代わりに、被評価者が属する鼻唇側影クラスの情報を取得する工程を実行し、工程(S24)では評価結果として被評価者が属する鼻唇側影クラスの情報を出力してもよい。
前者の場合、CPU11は、工程(S23)の代わりに、被評価者が属する鼻唇側影クラスの情報を取得する工程を実行し、工程(S24)では評価結果として被評価者が属する鼻唇側影クラスの情報を出力してもよい。
本実施形態によれば、各鼻唇側影クラスは鼻唇側影の二つの因子(ほうれい線グレード及びふくらみグレード)の状態で特徴付けることができるため、評価結果として鼻唇側影クラスを出力することで、被評価者に、鼻唇側影の二つの因子に基づく被評価者の鼻唇側影の状態の位置付けを容易に把握させることができる。
また、CPU11は、工程(S24)での鼻唇側影の評価結果の出力に加えて又はそれに代えて、被評価者のための推奨情報を出力する工程を更に実行することもできる。
情報処理装置10は、頬のほうれい線近傍部位の隆起状態とほうれい線の状態との各組合せに対応する、鼻唇側影の低減のための製剤、各製剤の塗布方法若しくは美容施術(医療行為を除く)、又はそれらの組合せに関する複数の推奨情報を予めメモリ12に保持しておき、CPU11は、そのような複数の推奨情報の中から、工程(S23)で取得された第一評価値及び第二評価値に対応する推奨情報を抽出して出力することができる。この場合、各推奨情報は上述した一以上の鼻唇側影クラスにそれぞれ関連付けて保持されており、CPU11は、被評価者の鼻唇側影クラスを特定した後に、その鼻唇側影クラスに対応する推奨情報をメモリ12から抽出し出力するようにしてもよい。
また、CPU11は、工程(S23)で取得された第一評価値及び第二評価値に対して被評価者の特性(年齢、性別、血液型など)で重み付けを行い、その重み付けされた値に基づいて推奨情報を抽出するようにしてもよい。
情報処理装置10は、頬のほうれい線近傍部位の隆起状態とほうれい線の状態との各組合せに対応する、鼻唇側影の低減のための製剤、各製剤の塗布方法若しくは美容施術(医療行為を除く)、又はそれらの組合せに関する複数の推奨情報を予めメモリ12に保持しておき、CPU11は、そのような複数の推奨情報の中から、工程(S23)で取得された第一評価値及び第二評価値に対応する推奨情報を抽出して出力することができる。この場合、各推奨情報は上述した一以上の鼻唇側影クラスにそれぞれ関連付けて保持されており、CPU11は、被評価者の鼻唇側影クラスを特定した後に、その鼻唇側影クラスに対応する推奨情報をメモリ12から抽出し出力するようにしてもよい。
また、CPU11は、工程(S23)で取得された第一評価値及び第二評価値に対して被評価者の特性(年齢、性別、血液型など)で重み付けを行い、その重み付けされた値に基づいて推奨情報を抽出するようにしてもよい。
本実施形態では、推奨情報の具体的内容は制限されない。例えば、推奨情報には、ほうれい線の溝を埋めるように塗って鼻唇側影を低減させる製剤や、頬の皮膚を引っ張るようにして頬のほうれい線近傍部位の隆起を抑えて鼻唇側影を低減させる製剤等に関する情報が含まれ得る。また、各製剤の塗布方法としては、対応する製剤を塗布する部位、塗布領域の範囲や大きさ等の指定情報が含まれ得る。美容施術としては、頬のほうれい線近傍部位の隆起を抑える施術等が含まれ得る。
このような推奨情報を出力することで、鼻唇側影で悩む被評価者に有意義な情報を提供することができる。
このような推奨情報を出力することで、鼻唇側影で悩む被評価者に有意義な情報を提供することができる。
〔変形例〕
上述した通り、本分析方法は、図3に示されるフローに制限されず、図3に示されるフローを適宜変更することができる。
例えば、工程(S21)、工程(S22)及び工程(S23)を少なくとも含む、鼻唇側影の見た目印象の評価方法が実現可能である。この評価方法では、工程(S23)で取得された第一評価値及び第二評価値を用いて鼻唇側影の見た目印象が評価される。
鼻唇側影の見た目印象は、良い悪いという2値情報で出力されてもよいし、若い、年相応、老けているといった3段階以上の評価値で出力されてもよいし、見た目年齢を示す情報で出力されてもよい。
なお、頬のほうれい線近傍部位の隆起状態とほうれい線(シワ若しくは溝)の状態とを少なくとも用いて評価する対象として「ほうれい線の見た目印象」と呼称される場合があるかもしれない。しかしながら、この場合であっても、頬のほうれい線近傍部位の隆起状態とほうれい線(シワ若しくは溝)の状態とを少なくとも用いて評価しているのであれば、その評価対象は上述した「鼻唇側影の見た目印象」に該当することになる。
上述した通り、本分析方法は、図3に示されるフローに制限されず、図3に示されるフローを適宜変更することができる。
例えば、工程(S21)、工程(S22)及び工程(S23)を少なくとも含む、鼻唇側影の見た目印象の評価方法が実現可能である。この評価方法では、工程(S23)で取得された第一評価値及び第二評価値を用いて鼻唇側影の見た目印象が評価される。
鼻唇側影の見た目印象は、良い悪いという2値情報で出力されてもよいし、若い、年相応、老けているといった3段階以上の評価値で出力されてもよいし、見た目年齢を示す情報で出力されてもよい。
なお、頬のほうれい線近傍部位の隆起状態とほうれい線(シワ若しくは溝)の状態とを少なくとも用いて評価する対象として「ほうれい線の見た目印象」と呼称される場合があるかもしれない。しかしながら、この場合であっても、頬のほうれい線近傍部位の隆起状態とほうれい線(シワ若しくは溝)の状態とを少なくとも用いて評価しているのであれば、その評価対象は上述した「鼻唇側影の見た目印象」に該当することになる。
図7は、変形例に係る鼻唇側影分析方法のフローチャートである。以降、変形例に係る鼻唇側影分析方法を変形分析方法と表記する場合もある。この変形分析方法も、上述の分析方法と同様に、図1に例示されるような情報処理装置10(CPU11)により実行される。
変形分析方法は、上述した工程(S21)、工程(S22)、工程(S23)及び工程(S24)に加えて、更に、工程(S71)、工程(S72)、工程(S73)及び工程(S74)を含む。
変形分析方法は、上述した工程(S21)、工程(S22)、工程(S23)及び工程(S24)に加えて、更に、工程(S71)、工程(S72)、工程(S73)及び工程(S74)を含む。
工程(S71)では、CPU11は、被評価者の目標顔画像を取得する。目標顔画像は、鼻唇側影の状態が被評価者の望む状態(目標状態)となっている顔画像である。目標顔画像の画像サイズやデータ形式等は上述の評価用顔画像と同一であり、そこに写る顔の領域についても当該評価用顔画像と同一であることが好ましい。
目標顔画像は、皮膚を手で引っ張る等して被評価者の顔を変形させた状態で撮像された画像であってもよい。この場合、例えば、図6で示される画面上の被評価者の顔の表示画像を見ながら、被評価者が自身の希望する顔の状態(目標状態)となるように自身の顔を変形させて、その変形された顔の撮像画像をCPU11が目標顔画像として取得してもよい。
また、目標顔画像は、表示装置15に表示されている被評価者の顔画像に対する入力操作に応じてCPU11がその顔画像を変形させる画像処理を実行することで取得されてもよい。
また、目標顔画像は、表示装置15に表示されている被評価者の顔画像に対する入力操作に応じてCPU11がその顔画像を変形させる画像処理を実行することで取得されてもよい。
CPU11は、評価用顔画像と同様にカメラから目標顔画像を取得してもよいし、他のコンピュータや可搬型記録媒体から目標顔画像を取得してもよい。また、CPU11は、カメラや他のコンピュータ等から取得された画像に対して顔検出処理を適用した上でその画像における適切な顔画像領域を切り出し、その切り出された顔画像に対して更に拡大、縮小、トリミング等の画像処理を施すことで正規化された目標顔画像を取得することもできる。このような顔検出処理や画像処理等を含む正規化処理は、CPU11により実行されてもよいし、他のコンピュータにより実行されてもよい。
工程(S72)では、CPU11は、工程(S71)で取得された目標顔画像をAIモデルに入力し、工程(S73)においてCPU11は、そのAIモデルから、鼻唇側影の目標状態に対応する頬のほうれい線近傍部位の隆起状態を示す第一目標値(目標ふくらみグレード)及びほうれい線の状態を示す第二目標値(目標ほうれい線グレード)を取得する。
第一目標値及び第二目標値は、第一評価値及び第二評価値と同様のAIモデルの出力値であり、それらと第一評価値及び第二評価値との違いは、当該AIモデルに入力される顔画像が評価用顔画像か目標顔画像かの違いのみである。このため、第一目標値は、目標顔画像の入力によりAIモデルから得られる第一評価値と換言することができ、第二目標値は、目標顔画像の入力によりAIモデルから得られる第二評価値と換言することができる。
第一目標値及び第二目標値は、第一評価値及び第二評価値と同様のAIモデルの出力値であり、それらと第一評価値及び第二評価値との違いは、当該AIモデルに入力される顔画像が評価用顔画像か目標顔画像かの違いのみである。このため、第一目標値は、目標顔画像の入力によりAIモデルから得られる第一評価値と換言することができ、第二目標値は、目標顔画像の入力によりAIモデルから得られる第二評価値と換言することができる。
工程(S74)では、CPU11は、工程(S23)で取得された第一評価値及び第二評価値と、工程(S73)で取得された第一目標値及び第二目標値とを対比可能に出力する。工程(S74)における出力先及び出力方法並びに出力形態は、第一評価値及び第二評価値(以降、評価値と総称する場合もある)と第一目標値及び第二目標値(以降、目標値と総称する場合もある)とが対比可能となっていれば、何ら制限されない。
評価値と目標値は、そのまま並べて出力されてもよいし、ほうれい線グレードを示す軸とふくらみグレードを示す軸との2軸で形成されるグラフにそれぞれプロットされた状態で出力されてもよい。
また、CPU11は、第一目標値と第一評価値との距離及び第二目標値と第二評価値との距離を算出してもよいし、各距離を目標達成率100%として、任意の時点の評価用顔画像から得られた評価値と目標値との距離から目標達成率を算出することもできる。この場合、CPU11は、各距離を出力してもよいし、目標達成率を出力してもよい。
評価値と目標値は、そのまま並べて出力されてもよいし、ほうれい線グレードを示す軸とふくらみグレードを示す軸との2軸で形成されるグラフにそれぞれプロットされた状態で出力されてもよい。
また、CPU11は、第一目標値と第一評価値との距離及び第二目標値と第二評価値との距離を算出してもよいし、各距離を目標達成率100%として、任意の時点の評価用顔画像から得られた評価値と目標値との距離から目標達成率を算出することもできる。この場合、CPU11は、各距離を出力してもよいし、目標達成率を出力してもよい。
図8は、第一評価値及び第二評価値と第一目標値及び第二目標値との出力例を示す図である。図8では表示装置15への表示画面の例が示されている。
この表示画面では、推奨された鼻唇側影の低減方法(以降、推奨方法と表記する場合がある)の効果が被評価者に提示される。推奨方法は、鼻唇側影を低減させ得る製剤を使用すること、その製剤の塗布方法、或いは美容施術方法等であり、表示領域G5に表示される。
また、目標顔画像が表示領域G3に表示されており、推奨方法を使用する前の評価用顔画像が表示領域G1に表示されており、推奨方法を使用した後の評価用顔画像が表示領域G2に表示されている。
この表示画面では、推奨された鼻唇側影の低減方法(以降、推奨方法と表記する場合がある)の効果が被評価者に提示される。推奨方法は、鼻唇側影を低減させ得る製剤を使用すること、その製剤の塗布方法、或いは美容施術方法等であり、表示領域G5に表示される。
また、目標顔画像が表示領域G3に表示されており、推奨方法を使用する前の評価用顔画像が表示領域G1に表示されており、推奨方法を使用した後の評価用顔画像が表示領域G2に表示されている。
表示領域G4には、ほうれい線グレードを示す軸とふくらみグレードを示す軸との2軸で形成されるグラフが表示されており、このグラフに、表示領域G3の目標顔画像から得られた目標値を示す点(ラベル「目標」)、表示領域G1の評価用顔画像から得られた評価値を示す点(ラベル「初期」)、及び表示領域G2の評価用顔画像から得られた評価値を示す点(ラベル「現在」)がプロットされている。
更に、達成率46%も表示領域G4に表示されている。この達成率は、ラベル「初期」の評価値と目標値との間の距離が達成率100%とした場合における、ラベル「現在」の評価値と目標値との間の距離から算出された値である。
表示領域G10には、表示領域G2の評価用顔画像が撮像された日時情報及びその評価用顔画像に関して算出された達成率が表示されている。
更に、達成率46%も表示領域G4に表示されている。この達成率は、ラベル「初期」の評価値と目標値との間の距離が達成率100%とした場合における、ラベル「現在」の評価値と目標値との間の距離から算出された値である。
表示領域G10には、表示領域G2の評価用顔画像が撮像された日時情報及びその評価用顔画像に関して算出された達成率が表示されている。
このような変形分析方法によれば、被評価者の望む鼻唇側影の状態と被評価者の或る時点の鼻唇側影の状態との違いを被評価者に容易に把握させることができ、更には、鼻唇側影を低減させるために推奨された方法等の効果も分かり易く提示することができる。
図7には、複数の工程(処理)が順番に表されているが、当該変形分析方法の各工程の実行順序は、図7の例のみに限定されない。例えば、工程(S71)から工程(S73)は、工程(S21)から工程(S24)と並行して実行されてもよいし、それらの前に実行されてもよいし、それらの実行タイミングとは非同期に予め1回だけ実行されるようにしてもよい。
また、目標となる第一評価値(第一目標値とも呼べる)と目標となる第二評価値(第二目標値とも呼べる)を入力としそれら評価値に対応する鼻唇側影状態を有する顔画像を生成する画像生成処理が実行されて、その出力された顔画像が目標顔画像として取得されてもよい。この場合には、CPU11は、工程(S73)を実行した後、工程(S73)で取得された第一目標値及び第二目標値を入力として当該画像生成処理を実行し、これにより、工程(S71)を実行してもよい。
また、目標となる第一評価値(第一目標値とも呼べる)と目標となる第二評価値(第二目標値とも呼べる)を入力としそれら評価値に対応する鼻唇側影状態を有する顔画像を生成する画像生成処理が実行されて、その出力された顔画像が目標顔画像として取得されてもよい。この場合には、CPU11は、工程(S73)を実行した後、工程(S73)で取得された第一目標値及び第二目標値を入力として当該画像生成処理を実行し、これにより、工程(S71)を実行してもよい。
[鼻唇側影評価モデルの学習方法(本学習方法)]
次に、上述した本分析方法及び変形分析方法で利用されるAIモデルの学習方法について図9を用いて説明する。
図9は、本実施形態に係る鼻唇側影評価モデルの学習方法のフローチャートである。本学習方法は、図1に例示されるような情報処理装置10(CPU11)により実行される。
ここでは、ディープニューラルネットワークで構成されたAIモデルであって、顔画像の入力に応じてその顔画像における頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力するAIモデルが例示される。本学習方法が実行されるにあたり、このAIモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
次に、上述した本分析方法及び変形分析方法で利用されるAIモデルの学習方法について図9を用いて説明する。
図9は、本実施形態に係る鼻唇側影評価モデルの学習方法のフローチャートである。本学習方法は、図1に例示されるような情報処理装置10(CPU11)により実行される。
ここでは、ディープニューラルネットワークで構成されたAIモデルであって、顔画像の入力に応じてその顔画像における頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力するAIモデルが例示される。本学習方法が実行されるにあたり、このAIモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
まず、CPU11は、顔画像と、その顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む正解情報との組合せを複数人分有する教師データを取得する(S91)。正解情報に含まれる頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値については上述したとおりである。また、教師データに用いられる顔画像についても上述したとおりである。
続いて、CPU11は、工程(S91)で取得された教師データを用いてAIモデルを学習させる(S92)。ここではAIモデルはディープラーニングにより学習が行われる。但し、AIモデルに対する具体的な学習アルゴリズムは何ら限定されない。
上記の実施形態及び変形例の一部又は全部は、次のようにも特定され得る。但し、上述の実施形態及び変形例が以下の記載に制限されるものではない。
<1>
鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を分析する方法であって、
一以上のプロセッサが、
被評価者の顔が写る評価用顔画像を取得する画像取得工程と、
複数人分の教師データに基づいて機械学習された学習済みモデルに、前記取得された評価用顔画像を入力することで、前記被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値を取得する評価値取得工程と、
を実行する鼻唇側影分析方法。
鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を分析する方法であって、
一以上のプロセッサが、
被評価者の顔が写る評価用顔画像を取得する画像取得工程と、
複数人分の教師データに基づいて機械学習された学習済みモデルに、前記取得された評価用顔画像を入力することで、前記被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値を取得する評価値取得工程と、
を実行する鼻唇側影分析方法。
<2>
前記評価値取得工程では、前記第一評価値に加えて、前記被評価者のほうれい線の状態を示す第二評価値を更に取得する、
<1>に記載の鼻唇側影分析方法。
<3>
前記一以上のプロセッサが、
前記取得された第一評価値及び第二評価値を用いて、頬のほうれい線近傍部位の隆起状態とほうれい線の状態との組合せで分類された複数の鼻唇側影クラスの中から前記被評価者が属する鼻唇側影クラスを決定するクラス決定工程、
を更に実行する<2>に記載の鼻唇側影分析方法。
<4>
前記一以上のプロセッサが、
頬のほうれい線近傍部位の隆起状態を示す軸とほうれい線の状態を示す軸との2軸で示されるグラフ上に、前記取得された第一評価値及び第二評価値で示される前記被評価者の評価データがプロットされた評価グラフを出力する工程、
を更に実行する<2>又は<3>に記載の鼻唇側影分析方法。
<5>
前記画像取得工程で取得される前記評価用顔画像は、前記被評価者の顔における目及び目より上方の部位を除く目よりも下方の部位が顎周りを中心に顔の輪郭線を含んで表示されるように正規化されている、
<1>から<4>のいずれか一つに記載の鼻唇側影分析方法。
<6>
前記一以上のプロセッサが、
頬のほうれい線近傍部位の隆起状態とほうれい線の状態との各組合せに対応する、鼻唇側影の低減のための製剤、該製剤の塗布方法若しくは美容施術(医療行為を除く)、又はそれらの組合せに関する複数の推奨情報の中から、前記取得された第一評価値及び第二評価値に対応する推奨情報を出力する工程、
を更に実行する<2>から<5>のいずれか一つに記載の鼻唇側影分析方法。
<7>
前記一以上のプロセッサが、
鼻唇側影の状態が前記被評価者の目標状態を示す前記被評価者の目標顔画像を取得する工程と、
前記取得された目標顔画像を前記学習済みモデルに入力することで、鼻唇側影の前記目標状態に対応する頬のほうれい線近傍部位の隆起状態を示す第一目標値及びほうれい線の状態を示す第二目標値を取得する工程と、
前記取得された第一評価値及び第二評価値と、前記取得された第一目標値及び第二目標値とを対比可能に出力する工程と、
を更に実行する<2>から<6>のいずれか一つに記載の鼻唇側影分析方法。
前記評価値取得工程では、前記第一評価値に加えて、前記被評価者のほうれい線の状態を示す第二評価値を更に取得する、
<1>に記載の鼻唇側影分析方法。
<3>
前記一以上のプロセッサが、
前記取得された第一評価値及び第二評価値を用いて、頬のほうれい線近傍部位の隆起状態とほうれい線の状態との組合せで分類された複数の鼻唇側影クラスの中から前記被評価者が属する鼻唇側影クラスを決定するクラス決定工程、
を更に実行する<2>に記載の鼻唇側影分析方法。
<4>
前記一以上のプロセッサが、
頬のほうれい線近傍部位の隆起状態を示す軸とほうれい線の状態を示す軸との2軸で示されるグラフ上に、前記取得された第一評価値及び第二評価値で示される前記被評価者の評価データがプロットされた評価グラフを出力する工程、
を更に実行する<2>又は<3>に記載の鼻唇側影分析方法。
<5>
前記画像取得工程で取得される前記評価用顔画像は、前記被評価者の顔における目及び目より上方の部位を除く目よりも下方の部位が顎周りを中心に顔の輪郭線を含んで表示されるように正規化されている、
<1>から<4>のいずれか一つに記載の鼻唇側影分析方法。
<6>
前記一以上のプロセッサが、
頬のほうれい線近傍部位の隆起状態とほうれい線の状態との各組合せに対応する、鼻唇側影の低減のための製剤、該製剤の塗布方法若しくは美容施術(医療行為を除く)、又はそれらの組合せに関する複数の推奨情報の中から、前記取得された第一評価値及び第二評価値に対応する推奨情報を出力する工程、
を更に実行する<2>から<5>のいずれか一つに記載の鼻唇側影分析方法。
<7>
前記一以上のプロセッサが、
鼻唇側影の状態が前記被評価者の目標状態を示す前記被評価者の目標顔画像を取得する工程と、
前記取得された目標顔画像を前記学習済みモデルに入力することで、鼻唇側影の前記目標状態に対応する頬のほうれい線近傍部位の隆起状態を示す第一目標値及びほうれい線の状態を示す第二目標値を取得する工程と、
前記取得された第一評価値及び第二評価値と、前記取得された第一目標値及び第二目標値とを対比可能に出力する工程と、
を更に実行する<2>から<6>のいずれか一つに記載の鼻唇側影分析方法。
<8>
顔画像の入力に応じて該顔画像における頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力可能な鼻唇側影評価モデルの学習方法であって、
一以上のプロセッサが、
顔画像と、該顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む正解情報との組合せを複数人分有する教師データを取得する工程と、
前記取得された教師データを用いて前記鼻唇側影評価モデルを学習させる工程と、
を実行する鼻唇側影評価モデルの学習方法。
顔画像の入力に応じて該顔画像における頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力可能な鼻唇側影評価モデルの学習方法であって、
一以上のプロセッサが、
顔画像と、該顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む正解情報との組合せを複数人分有する教師データを取得する工程と、
前記取得された教師データを用いて前記鼻唇側影評価モデルを学習させる工程と、
を実行する鼻唇側影評価モデルの学習方法。
<9>
前記一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影分析装置であって、
<1>から<8>のいずれか一つに記載の鼻唇側影分析方法を実行可能な鼻唇側影分析装置。
前記一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影分析装置であって、
<1>から<8>のいずれか一つに記載の鼻唇側影分析方法を実行可能な鼻唇側影分析装置。
<10>
前記一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影評価モデル学習装置であって、
<8>に記載の鼻唇側影評価モデルの学習方法を実行可能な鼻唇側影評価モデル学習装置。
前記一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影評価モデル学習装置であって、
<8>に記載の鼻唇側影評価モデルの学習方法を実行可能な鼻唇側影評価モデル学習装置。
<11>
鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影の見た目印象を評価する方法であって、
一以上のプロセッサが、
被評価者の顔が写る評価用顔画像を取得する画像取得工程と、
複数人分の教師データに基づいて機械学習された学習済みモデルに、前記取得された評価用顔画像を入力することで、前記被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値及び前記被評価者のほうれい線の状態を示す第二評価値を取得する評価値取得工程と、
を実行する鼻唇側影の見た目印象の評価方法。
鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影の見た目印象を評価する方法であって、
一以上のプロセッサが、
被評価者の顔が写る評価用顔画像を取得する画像取得工程と、
複数人分の教師データに基づいて機械学習された学習済みモデルに、前記取得された評価用顔画像を入力することで、前記被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値及び前記被評価者のほうれい線の状態を示す第二評価値を取得する評価値取得工程と、
を実行する鼻唇側影の見た目印象の評価方法。
以下に実施例を挙げ、上述の内容を更に詳細に説明する。但し、以下の実施例の記載は、上述の内容に何ら限定を加えるものではない。
本実施例では、ImageNet用の学習済みモデルをベースにしてファインチューニングを行うことにより構築されたAIモデルが利用された。このAIモデルは、顔画像を入力し、0から7の数値でスコア化されたほうれい線グレード及びふくらみグレードを出力するモデルとされた。
また、本実施例では、20代から70代の273名の日本人女性をサンプル提供者とし、これらサンプル提供者における1166枚の顔画像と頬のほうれい線近傍部位の隆起状態を示す目視評価値及びほうれい線の状態を示す目視評価値とが準備された。
また、本実施例では、20代から70代の273名の日本人女性をサンプル提供者とし、これらサンプル提供者における1166枚の顔画像と頬のほうれい線近傍部位の隆起状態を示す目視評価値及びほうれい線の状態を示す目視評価値とが準備された。
上述の顔画像は、同一人物につき様々な撮影条件で撮像された。上述の1166枚のうち、540枚の顔画像は、同一人物の素顔と化粧後の顔を研究員がタブレット端末のカメラにより同一環境で撮影することで得られ、273枚の顔画像は、素顔を共通のスマートフォンのカメラにより各自が同一環境で撮影することで得られ、353枚の顔画像は、素顔と化粧後の顔を各自が所有するスマートフォンのカメラにより各自の自宅で撮影することで得られた。
一方、目視評価値は、273名の横顔を皮膚計測機器で撮影して得られた画像に対して3名の評価者が目視評価を行うことで、各人物のほうれい線グレード及びふくらみグレードを0から7の数値でスコア化したものである。
一方、目視評価値は、273名の横顔を皮膚計測機器で撮影して得られた画像に対して3名の評価者が目視評価を行うことで、各人物のほうれい線グレード及びふくらみグレードを0から7の数値でスコア化したものである。
準備された1166枚の顔画像は、おおよそ5対2.5対2.5の割合で、学習(教師データ)用、検証用及びテスト用に分けられ、各顔画像には、そこに写る人物の頬のほうれい線近傍部位の隆起状態を示す目視評価値及びほうれい線の状態を示す目視評価値がそれぞれラベリングされた。
また、各顔画像は、図4及び図5の符号S5で示されるように、人顔における目及び目の上方の部位を除く目よりも下方の部位が顎周りを中心に顔の輪郭線を多く含むように正規化された。
また、各顔画像は、図4及び図5の符号S5で示されるように、人顔における目及び目の上方の部位を除く目よりも下方の部位が顎周りを中心に顔の輪郭線を多く含むように正規化された。
上述のように教師データとして分けられた顔画像及び正解情報(目視評価値)を用いてAIモデルの学習が行われ、検証用として分けられたデータを用いて平均二乗誤差(MSE)が最小となるAIモデルが選定され、テスト用として分けられたデータを用いてそのAIモデルの精度が評価された。
図10(a)は、ほうれい線グレードに関する目視評価値とAIモデルの推定値(第二評価値)との関係を示すグラフであり、図10(b)は、ふくらみグレードに関する目視評価値とAIモデルの推定値(第一評価値)との関係を示すグラフである。
図10によれば、ほうれい線グレードの推定については決定係数(R2)が0.6848で示され、ふくらみグレードの推定については決定係数(R2)が0.5869で示される。
このように本実施例により、AIモデルの推定精度の高さが実証されている。
図10によれば、ほうれい線グレードの推定については決定係数(R2)が0.6848で示され、ふくらみグレードの推定については決定係数(R2)が0.5869で示される。
このように本実施例により、AIモデルの推定精度の高さが実証されている。
図11(a)はテスト用の顔画像に基づいてAIモデルにより推定されたほうれい線グレード及びふくらみグレードに関する各評価値の分布を示すグラフであり、図11(b)は、図11(a)の評価値に対して線形補正を適用した結果を示すグラフである。
図11(b)では、ふくらみグレード及びほうれい線グレードを2.5及び4.5の閾値でそれぞれ区分けしてなる9つのデータ領域が太い破線で示されており、各データ領域が鼻唇側影クラスに相当する。
図11(b)では、ふくらみグレード及びほうれい線グレードを2.5及び4.5の閾値でそれぞれ区分けしてなる9つのデータ領域が太い破線で示されており、各データ領域が鼻唇側影クラスに相当する。
図11(a)の評価値は、平均二乗誤差(MSE)が最小となるように最適化されたAIモデルの出力である。ところが、被評価者が属する鼻唇側影クラスの決定を目的とする場合、AIモデルで推定される評価値の同クラス内での誤差は当該目的への影響度が低いため、AIモデルには最適化の余地が残されている。例えば、ほうれい線グレード2.5を境界としてクラス分けをする場合、ほうれい線グレードの目視評価値が2の画像の評価値が1.5と推定されたとしても、0と推定されたとしても、分類されるクラスは同一となる。
そこで、鼻唇側影クラスの一致率が最大となるように、AIモデルから出力される評価値に対する最適な線形補正係数が導出された。図11(b)は、図11(a)の評価値に対してそのように導出された最適な線形補正係数が掛け合わされた結果を示しており、図11(a)における破線領域を拡大したものに相当する。
そこで、鼻唇側影クラスの一致率が最大となるように、AIモデルから出力される評価値に対する最適な線形補正係数が導出された。図11(b)は、図11(a)の評価値に対してそのように導出された最適な線形補正係数が掛け合わされた結果を示しており、図11(a)における破線領域を拡大したものに相当する。
図11(b)に示される線形補正が適用されたふくらみグレード及びほうれい線グレードの各評価値に基づいて鼻唇側影クラスの分類を行ったところ、分類精度は55.5%を示した。
このように、当該AIモデルが、ほうれい線グレード及びふくらみグレードを出力することなく、被評価者が属する鼻唇側影クラスの判別のみを目的として構築される場合には、最適化手法としてCross Entropy Lossなどを用いてクラス分類精度が最大化されるようにAIモデルの学習が行われてもよい。
このように、当該AIモデルが、ほうれい線グレード及びふくらみグレードを出力することなく、被評価者が属する鼻唇側影クラスの判別のみを目的として構築される場合には、最適化手法としてCross Entropy Lossなどを用いてクラス分類精度が最大化されるようにAIモデルの学習が行われてもよい。
図12は鼻唇側影クラスの一分類例を示しており、図12(a)は9つの鼻唇側影クラスの各々における代表的な鼻唇側影状態イメージを示しており、図12(b)はほうれい線グレード「0」のサンプル提供者を除いた213名のサンプル提供者の9つの鼻唇側影クラスの分布を示している。
図12(a)の鼻唇側影状態イメージの分布に示されるように、鼻唇側影状態は各鼻唇側影クラスでそれぞれ特徴付けられることが分かる。
また、図12(b)のサンプル提供者の分布に示されるように、ほうれい線グレード及びふくらみグレードには若干共線性が示されるものの、213名のサンプル提供者が9つの鼻唇側影クラスに広く分布していることが分かる。
これにより、ほうれい線グレード及びふくらみグレードに基づき鼻唇側影状態を9つの鼻唇側影クラスに適切に分類できることが分かる。
図12(a)の鼻唇側影状態イメージの分布に示されるように、鼻唇側影状態は各鼻唇側影クラスでそれぞれ特徴付けられることが分かる。
また、図12(b)のサンプル提供者の分布に示されるように、ほうれい線グレード及びふくらみグレードには若干共線性が示されるものの、213名のサンプル提供者が9つの鼻唇側影クラスに広く分布していることが分かる。
これにより、ほうれい線グレード及びふくらみグレードに基づき鼻唇側影状態を9つの鼻唇側影クラスに適切に分類できることが分かる。
図13は、図12(b)で示されるサンプル提供者の分布と各サンプル提供者の特定製剤の満足度との関係を示す図である。図13では、図12で示される213名のサンプル提供者において特定製剤の使用効果の満足度が調査された。
特定製剤としては、頬の皮膚を引っ張るようにして頬のほうれい線近傍部位の隆起を抑えて鼻唇側影を低減させる製剤が用いられた。
結果として、ふくらみグレード及びほうれい線グレードがどちらも3以上のサンプル提供者において、「どちらともいえない」、「あまり満足でない」又は「満足でない」と回答した、即ち不満足なサンプル提供者が15%以下となっている。
このため、図12で示される鼻唇側影クラスの分類によれば、特定製剤のターゲットを特定できることが分かる。
特定製剤としては、頬の皮膚を引っ張るようにして頬のほうれい線近傍部位の隆起を抑えて鼻唇側影を低減させる製剤が用いられた。
結果として、ふくらみグレード及びほうれい線グレードがどちらも3以上のサンプル提供者において、「どちらともいえない」、「あまり満足でない」又は「満足でない」と回答した、即ち不満足なサンプル提供者が15%以下となっている。
このため、図12で示される鼻唇側影クラスの分類によれば、特定製剤のターゲットを特定できることが分かる。
10 情報処理装置
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
Claims (11)
- 鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影を分析する方法であって、
一以上のプロセッサが、
被評価者の顔が写る評価用顔画像を取得する画像取得工程と、
複数人分の教師データに基づいて機械学習された学習済みモデルに、前記取得された評価用顔画像を入力することで、前記被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値を取得する評価値取得工程と、
を実行する鼻唇側影分析方法。 - 前記評価値取得工程では、前記第一評価値に加えて、前記被評価者のほうれい線の状態を示す第二評価値を更に取得する、
請求項1に記載の鼻唇側影分析方法。 - 前記一以上のプロセッサが、
前記取得された第一評価値及び第二評価値を用いて、頬のほうれい線近傍部位の隆起状態とほうれい線の状態との組合せで分類された複数の鼻唇側影クラスの中から前記被評価者が属する鼻唇側影クラスを決定するクラス決定工程、
を更に実行する請求項2に記載の鼻唇側影分析方法。 - 前記一以上のプロセッサが、
頬のほうれい線近傍部位の隆起状態を示す軸とほうれい線の状態を示す軸との2軸で示されるグラフ上に、前記取得された第一評価値及び第二評価値で示される前記被評価者の評価データがプロットされた評価グラフを出力する工程、
を更に実行する請求項2に記載の鼻唇側影分析方法。 - 前記画像取得工程で取得される前記評価用顔画像は、前記被評価者の顔における目及び目より上方の部位を除く目よりも下方の部位が顎周りを中心に顔の輪郭線を含んで表示されるように正規化されている、
請求項1から4のいずれか一項に記載の鼻唇側影分析方法。 - 前記一以上のプロセッサが、
頬のほうれい線近傍部位の隆起状態とほうれい線の状態との各組合せに対応する、鼻唇側影の低減のための製剤、該製剤の塗布方法若しくは美容施術(医療行為を除く)、又はそれらの組合せに関する複数の推奨情報の中から、前記取得された第一評価値及び第二評価値に対応する推奨情報を出力する工程、
を更に実行する請求項2から4のいずれか一項に記載の鼻唇側影分析方法。 - 前記一以上のプロセッサが、
鼻唇側影の状態が前記被評価者の目標状態を示す前記被評価者の目標顔画像を取得する工程と、
前記取得された目標顔画像を前記学習済みモデルに入力することで、鼻唇側影の前記目標状態に対応する頬のほうれい線近傍部位の隆起状態を示す第一目標値及びほうれい線の状態を示す第二目標値を取得する工程と、
前記取得された第一評価値及び第二評価値と、前記取得された第一目標値及び第二目標値とを対比可能に出力する工程と、
を更に実行する請求項2から4のいずれか一項に記載の鼻唇側影分析方法。 - 顔画像の入力に応じて該顔画像における頬のほうれい線近傍部位の隆起状態を示す第一評価値及びほうれい線の状態を示す第二評価値を出力可能な鼻唇側影評価モデルの学習方法であって、
一以上のプロセッサが、
顔画像と、該顔画像に写る人顔に関する頬のほうれい線近傍部位の隆起状態の目視評価値及びほうれい線の状態の目視評価値を含む正解情報との組合せを複数人分有する教師データを取得する工程と、
前記取得された教師データを用いて前記鼻唇側影評価モデルを学習させる工程と、
を実行する鼻唇側影評価モデルの学習方法。 - 前記一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影分析装置であって、
請求項1から4のいずれか一項に記載の鼻唇側影分析方法を実行可能な鼻唇側影分析装置。 - 前記一以上のプロセッサ及びメモリを少なくとも備える鼻唇側影評価モデル学習装置であって、
請求項8に記載の鼻唇側影評価モデルの学習方法を実行可能な鼻唇側影評価モデル学習装置。 - 鼻及び鼻下と頬との境目に現れる陰影である鼻唇側影の見た目印象を評価する方法であって、
一以上のプロセッサが、
被評価者の顔が写る評価用顔画像を取得する画像取得工程と、
複数人分の教師データに基づいて機械学習された学習済みモデルに、前記取得された評価用顔画像を入力することで、前記被評価者における頬のほうれい線近傍部位の隆起状態を示す第一評価値及び前記被評価者のほうれい線の状態を示す第二評価値を取得する評価値取得工程と、
を実行する鼻唇側影の見た目印象の評価方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022065542A JP2023155988A (ja) | 2022-04-12 | 2022-04-12 | 鼻唇側影分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022065542A JP2023155988A (ja) | 2022-04-12 | 2022-04-12 | 鼻唇側影分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023155988A true JP2023155988A (ja) | 2023-10-24 |
Family
ID=88421414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022065542A Pending JP2023155988A (ja) | 2022-04-12 | 2022-04-12 | 鼻唇側影分析方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023155988A (ja) |
-
2022
- 2022-04-12 JP JP2022065542A patent/JP2023155988A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102339915B1 (ko) | 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법 | |
JP5400187B2 (ja) | しわのエイジング及びディエイジングの現実的シミュレーションの方法及び装置 | |
CN103649987B (zh) | 脸印象分析方法、美容信息提供方法和脸图像生成方法 | |
JP4682373B2 (ja) | 顔画像合成装置、顔画像合成方法および顔画像合成プログラム | |
WO2007063878A1 (ja) | 顔分類方法、顔分類装置、分類マップ、顔分類プログラム、及び該プログラムが記録された記録媒体 | |
US20220164852A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations | |
CN113436734A (zh) | 基于人脸结构定位的牙齿健康评估方法、设备和存储介质 | |
JP3920747B2 (ja) | 画像処理装置 | |
Lanitis et al. | Towards automatic face identification robust to ageing variation | |
CN113344837B (zh) | 人脸图像处理方法及装置、计算机可读存储介质、终端 | |
JP7385046B2 (ja) | 色斑予測方法、装置、設備及び記憶媒体 | |
JP2023155988A (ja) | 鼻唇側影分析方法 | |
RU2768797C1 (ru) | Способ и система для определения синтетически измененных изображений лиц на видео | |
JP2022078936A (ja) | 肌画像分析方法 | |
JP7439932B2 (ja) | 情報処理システム、データ蓄積装置、データ生成装置、情報処理方法、データ蓄積方法、データ生成方法及び記録媒体、並びに、データベース | |
JP5897745B2 (ja) | 加齢分析方法及び加齢分析装置 | |
CN112837304A (zh) | 一种皮肤检测方法、计算机存储介质及计算设备 | |
JP6320844B2 (ja) | パーツの影響度に基づいて感情を推定する装置、プログラム及び方法 | |
JP7429683B2 (ja) | 顔表面テクスチャの経時変化特性判定方法 | |
Leta et al. | A study of the facial aging-a multidisciplinary approach | |
WO2024029600A1 (ja) | 肌状態推定方法 | |
Heravi et al. | Adult-child 3D backward face aging model (3D B-FAM) | |
JP2023038870A (ja) | 印象評価方法及び印象評価システム | |
Salvi et al. | Super-Resolution Image Reconstruction using a GAN-based approach: application in Dermatology | |
CN117894057A (zh) | 用于情感障碍辅助诊断的三维数字人脸处理方法与装置 |