JP2014149677A - 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム - Google Patents

美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム Download PDF

Info

Publication number
JP2014149677A
JP2014149677A JP2013018101A JP2013018101A JP2014149677A JP 2014149677 A JP2014149677 A JP 2014149677A JP 2013018101 A JP2013018101 A JP 2013018101A JP 2013018101 A JP2013018101 A JP 2013018101A JP 2014149677 A JP2014149677 A JP 2014149677A
Authority
JP
Japan
Prior art keywords
face image
makeup
image
user
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013018101A
Other languages
English (en)
Inventor
Hajime Tamura
一 田村
Hiroaki Yoshio
宏明 由雄
Katsuji Aoki
勝司 青木
Kaori Mori
香織 森
Sonoko Hirasawa
園子 平澤
Shin Yamada
伸 山田
Takayuki Matsukawa
隆行 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013018101A priority Critical patent/JP2014149677A/ja
Priority to PCT/JP2013/007009 priority patent/WO2014118842A1/ja
Priority to CN201380074779.5A priority patent/CN105210110A/zh
Priority to US14/764,698 priority patent/US10321747B2/en
Priority to EP13873648.3A priority patent/EP2953090A4/en
Publication of JP2014149677A publication Critical patent/JP2014149677A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】利用者の顔画像と目標顔画像の差異を人の感覚に基づく評価項目のランク値として表示し、利用者が美容手法を施した結果、目標顔画像にどの程度近づいたかを直観的に認識することが可能な、美容支援装置を提供すること。
【解決手段】被化粧者の顔画像を撮像する撮像部2と、目標顔画像を入力する入力部20と、前記被化粧者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成する合成顔画像生成部12と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定部22と、前記被化粧者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価部40と、前記類似度判定部22によって類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法および前記ランク値を表示する表示部5とで構成する。
【選択図】図1

Description

本発明は、被化粧者などの利用者に対して、美容方法に関するアドバイスを行う美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラムに関するものである。
近年、化粧品の種類や用途が多岐にわたっている。化粧品そのものは従来の販売システムである対面販売に加え、スーパーマーケット、コンビニ等によって大量に販売されており、被化粧者は様々な化粧品をより簡易かつ大量に入手可能になっている。このような多品種の化粧品に対して、被化粧者は化粧品に添付される製品情報やファッション雑誌やインターネット等から化粧品やメイクアップ手法に関する情報を入手し、自らが化粧を施す際に活用している。しかし、このような情報のみでは、例えば実際に施した化粧が被化粧者の目標とするイメージに近いものか否かを適切に判断することはできない。
これに対して、例えば特許文献1には、被化粧者が要望する顔を撮影したサンプル画像から化粧方法を特定し、その特定した化粧方法を被化粧者の顔画像に適用することで手本化粧顔画像を生成し、化粧の手順ごとに被化粧者の顔画像と手本化粧顔画像との評価を行い、評価結果に基づいて化粧アドバイスを提示する技術が開示されている。
また、特許文献2には、顔画像から2つの独立な特徴量(顔を構成する目や鼻といった顔パーツの配置が遠心的か求心的か、および顔パーツの形状が曲線的か直線的かの指標)を抽出し、2次元の評価軸上にプロットされた評価軸上の4つの象限に応じて、顔を特徴別または印象別に分類する技術が開示されている。
特許第3408524号公報 特許第3614783号公報
特許文献1に開示された技術では、被化粧者の顔と、化粧の目標とするサンプル画像に写った顔画像(以降、「目標顔画像」と呼称する)の全体的な形態や、顔を構成する目や鼻といったパーツ(以降、「顔パーツ」と呼称する)の形態、相対的な位置関係が似ている場合(極端な例としては一卵性双生児のような場合)は、目標顔画像から特定された化粧方法を施すことで結果として被化粧者の顔は目標顔画像に近づくものと考えられる。しかしながら、被化粧者と目標顔画像の形態が異なる場合、通常は、同一の化粧を施しても両者の印象は同一とならないことが多い。即ち、人の感性に基づく評価が行われていないために、形状的、測色的に全く同じ化粧を施しても、両者の雰囲気が異なってしまう(人の感覚として両者の類似度が低い)ことがあり、しかもこの異なる程度を直観的に把握することは困難であるという課題があった。
特許文献2に開示された技術では、被化粧者を特徴別または印象別に分類するものの、単に化粧の方向性を確認するに留まっている。このような化粧の方向性に関する情報は、被化粧者の顔の形態に応じて様々なメイクアップ手法を自在に適用できる美容師等には有用だと思われる。しかしながら、一般の被化粧者に対して「より女性らしく見せるためには、顔パーツの配置を求心的にし、各パーツの形状を曲線的にすればよい」との情報を与えたとしても、例えば「女性らしく見せる」といった感性的な項目が、化粧によって達成されたのか否か、しかもどの程度達成されたのか等を把握することは困難であるという課題があった。
本発明は、このような従来技術の課題を解決するべく案出されたものであり、その主な目的は、利用者の顔画像と目標顔画像の差異を人の感覚に基づく評価項目のランク値として表示し、利用者が美容手法を施した結果、目標顔画像にどの程度近づいたかを直観的に認識することが可能な、美容支援装置を提供することにある。
本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法および前記ランク値を表示する表示手段と、を備える美容支援装置である。
これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
また、本発明は、前記評価手段は、前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、前記複数の部分空間において、前記射影手段によって射影された前記特徴量の座標に基づき、前記所定の評価項目毎にランク値を推定するランク推定手段と、で構成したものである。
これによって、人の感性に基づくそれぞれ異なる評価項目がランク値として判定されるため、利用者の顔画像と目標顔画像との間で、例えば「キュート」といった感性的な項目について数値として評価することが可能となる。
また、本発明は、前記所定の特徴量をN次元ベクトルとし、前記部分空間を、前記N次元より小さい次元数の空間としたものである。
これによって、より次元の小さい部分空間では、特徴量空間の次元数Nの中から有用な軸のみが取捨選択され、特定の評価項目についての判別能力(分解能)が事実上向上するため、実質的にランク値の精度を向上させることが可能となる。
また、本発明は、前記撮像手段は、所定のタイミングで前記利用者の顔画像を繰り返し撮像して更新し、前記評価手段は、更新された前記利用者の顔画像についてランク値を出力し、前記表示手段は、更新された前記利用者の顔画像と前記ランク値を表示するように構成したものである。
これによって、利用者が美容手法を進めるにつれ、利用者の顔画像とランク値が更新され、目標顔画像に対して現在の美容手法の状況がどの程度進行しているかを、直観的に判断することが可能となる。
また、本発明は、前記表示手段は、前記所定の評価項目に対応する軸を有するレーダーチャート上に、前記ランク値を表示するように構成したものである。
これによって、複数の評価項目について、利用者の顔画像と目標顔画像とのランク値を同時に表示することで、より直観的に両者の関係を把握することが可能となる。
また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、メイクアップ手法および前記メイクアップ手法に対応した画像調整パラメータを格納したデータベースと、前記データベースにアクセスして前記メイクアップ手法と前記画像調整パラメータを取得するとともに、前記利用者の顔画像に対して、互いに異なるメイクアップ手法に対応した前記画像調整パラメータを適用して複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用したメイクアップ手法と前記ランク値とを表示する表示手段と、を備える美容支援システムである。
これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
また、本発明は、利用者の顔画像を撮像し、目標顔画像を入力し、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力し、前記類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法、および前記ランク値を表示する美容支援方法である。
これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
また、本発明は、利用者の顔画像と目標顔画像とを入力し、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力し、前記類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法、および前記ランク値を表示する美容支援プログラムである。
これによって、美容支援プログラムを実装した専用機、クライアントサーバシステムの端末、スマートフォン、タブレット端末等において、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
本発明によれば、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
本発明の第1実施形態に係る美容支援装置の構成を示すブロック構成図 本発明の第1実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャート 本発明の第1実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャート 合成顔画像を生成する際の画像処理対象を説明する説明図 本発明の第1実施形態に係る美容支援装置において合成顔画像を生成する過程を説明する説明図 本発明の第1実施形態に係る美容支援装置において特徴量を特徴量空間にプロットする過程を説明する説明図 本発明の第1実施形態に係る美容支援装置において特徴量を部分空間に射影する過程を説明する説明図 人の感性に基づく評価項目の内容(感覚的な特性)を示す表 美容支援装置において被化粧者にランク値を表示する過程を説明するフローチャート (a)〜(c)は、人の感性に基づく評価項目に対応する部分空間と回帰モデルの関係を示す説明図、(d)は、各評価項目についてのランク値をレーダーチャートに表示した状態を説明する説明図 表示部における表示内容の例を説明する説明図 本発明の第2実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャート 本発明の第3実施形態に係る美容支援装置の構成を示すブロック構成図 本発明の第4実施形態に係る美容支援装置の構成を示すブロック構成図
(第1実施形態)
図1は、本発明の第1実施形態に係る美容支援装置1の構成を示すブロック構成図である。以降、図1を用いて第1実施形態の美容支援装置1について、まずは構成と機能について説明する。なお、本実施形態では、利用者として自ら化粧を施す被化粧者が本装置を利用する場合を例に説明するが、化粧以外の美容手法においても、同様の構成を採用することができる。
図1において、美容支援装置1は、撮像部(撮像手段)2と目標顔画像入力部(入力手段)20と画像処理部3と記憶部4と表示部(表示手段)5とユーザインタフェース6で構成されている。
撮像部2は、例えばCCD(Charge Coupled Device Image Sensor)やCMOS(Complementary Metal Oxide Semiconductor)で構成された撮像素子を備えており、例えば15fps(Frames Per Second)の周期で画像を撮像して画像データを出力する。撮像部2で撮像された画像データに対して、例えば撮像部2に内蔵された画像処理回路(図示せず)は、前処理としてデモザイク、色補正、ホワイトバランス補正、γ補正等の公知の画像処理を施す。
その後、前処理後の画像データに対し、記憶部4に格納されているデータを参照して、画像処理部3によって種々の処理が実行される。なお、画像処理の対象となる画像データは、画像処理部3の各構成要素で所定の処理を施された後、図示しないメモリに一旦格納して、次の構成要素を起動するようにしてもよいし、各構成要素がパイプラインとして動作するようにハードウェアやソフトウェアを構成してもよい。
なお、図1において表示部5は2つ記載されているが、これは記載上の制約からであり実際は1つとされている。
記憶部4には、データベースとして、属性推定モデル4a、評価項目記憶部4b、メイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4eが構築されている。なお、射影行列/回帰モデル記憶部4eに記憶されている射影行列と回帰モデルとはそれぞれ異なるデータである。
この中で合成顔画像記憶部4dは追記型である点で他のデータベースとは異なる。後に説明するように、合成顔画像は、合成顔画像生成部(合成顔画像生成手段)12がメイクアップ手法記憶部4cに格納されたデータを参照することで生成され、この生成された合成顔画像が合成顔画像記憶部4dに記憶される。これも後に説明するように、合成顔画像を生成するモードによっては被化粧者の合成顔画像のデータ量が大きくなる場合がある。
また、後述するように目標顔画像との間で類似度の判定が行われ、最適なメイクアップ手法が得られた際、合成顔画像を消去してもよいが、一旦生成された合成顔画像を後に流用するようにしてもよい。つまり、同一の被化粧者が他の目標顔画像との類似度を判定するような場合は、生成した合成顔画像を保存しておけば、その都度、合成顔画像を生成する必要がなくなる。
これらのことから、合成顔画像記憶部4dのデータ容量は他のデータベースと比較して大きくしておく必要がある。そこで、合成顔画像記憶部4dはいわゆる大容量記憶装置であるハードディスクドライブや、装置構成上、複数の被化粧者のデータを取り扱うような場合は、ハードディスクドライブを複数台で構成して信頼性やデータ転送の高速化を図ったRAID(Redundant Arrays of Inexpensive Disks)を使用するとよい。なお、合成顔画像記憶部4dの他にメイクアップ手法記憶部4cも追記型のデータベースであり、その他は予め記憶された読み取り専用のデータベースを構成している。
なお、以降の説明では、合成顔画像記憶部4dには、合成顔画像が画像データとして格納されているものとするが、これに替えて、後に説明する特徴量抽出部25によって抽出された特徴量を格納してもよい。
以降、画像処理部3の構成について説明する。第1実施形態に係る美容支援装置1の画像処理部3の機能を端的に説明すると、撮像部2で撮像された画像に含まれる被化粧者の顔画像に対して、合成顔画像生成部12で種々のメイクアップ手法を適用(即ち、シミュレーション)した画像(以降、「合成顔画像」と呼称する)を生成し、類似度判定部22で目標顔画像との類似度を判定し、メイクアップ手法抽出部24で最も類似度が高い合成顔画像の生成に使用したメイクアップ手法を抽出し、このメイクアップ手法を表示部5に表示する。以降、詳細に説明する。
顔検出部10では撮像部2で撮像された画像から顔画像を検出し、顔画像が含まれる場合はこれを切り出して顔パーツ検出部11に出力する。顔パーツ検出部11は、顔画像から目、鼻、口といった顔パーツを検出する。
顔検出部10で切り出された顔画像は属性推定部(属性推定手段)27にも送出される。属性推定部27では、属性推定モデル記憶部4aに記憶されている属性推定モデルに基づき顔画像から年齢、性別、人種等の属性を推定する。その推定結果は評価項目決定部28に送られる。そして、評価項目決定部28は推定結果に基づいて、評価項目記憶部4bに記憶している「人の感性に基づくそれぞれ異なる評価項目」から類似度を判定する際に用いる評価項目を決定する。なお、以降の説明においては「人の感性に基づくそれぞれ異なる評価項目」を「人の感性に基づく評価項目」または単に「評価項目」と呼称する。
目標顔画像入力部20は被化粧者が化粧に先んじて「化粧によってこういう顔にしたい」という目標顔画像を入力するものである。この目標顔画像は、被化粧者が第3者の顔をディジタルカメラ等で撮影して可搬性記憶媒体等を経由して取り込んでもよく、インターネットで女優等の顔写真を検索した画像であってもよく、撮像部2によって直接撮影した動画をキャプチャしたものであってもよい。このように第1実施形態の美容支援装置1は、画像の入力源としてあらゆるソースを許容するため、目標顔画像入力部20に取り込まれた時点の画像には、上述した類似度の判定に全く寄与せず、最初から除外しておくべき部分も含まれる。そこで、目標顔画像入力部20によって取り込まれた画像は、顔検出部21に送られて顔検出を行って顔部分のみが抽出される。なお、図1では顔検出部21は顔検出部10と別に設けられているが、これらは1つとして構成しても構わない。
次に、類似度判定部(類似度判定手段)22の構成について説明する。
類似度判定部22は、特徴量抽出部(特徴量抽出手段)25と部分空間射影部(射影手段)26とユークリッド距離計算部29で構成されており、上述した、合成顔画像記憶部4dに格納された合成顔画像並びに顔検出部21で切り出された目標顔画像は、類似度判定部22の特徴量抽出部25に入力される。
特徴量抽出部25は、入力された合成顔画像からGabor特徴またはLBP(Local Binary Pattern)といった局所的特徴量を抽出する。また、特徴量抽出部25は、目標顔画像についても同様にして局所的特徴量を抽出する。このようにして抽出された特徴量は、通常、高次元(N次元)ベクトルを構成する。
特徴量抽出部25で抽出された特徴量は、部分空間射影部26で所定の部分空間に射影される。ここでいう部分空間とは、特徴量が構成するN次元ベクトルよりも次元が小さいベクトル空間であり、第1実施形態では、上述した人の感性に基づく評価項目と直接対応したベクトル空間である。この部分空間を用いることで、部分空間における合成顔画像と目標顔画像の類似度や、合成顔画像や目標顔画像のランク値(点数)を個別に求めることができる。部分空間の作成方法等については後に説明する。
また、部分空間射影部26は、属性推定部27によって推定された性別・年齢等に基づいて評価項目決定部28が決定した評価項目に対応する部分空間に、合成顔画像と目標顔画像の特徴量を射影する。この結果、部分空間における合成顔画像と目標顔画像の座標値が決定される。なお、射影は特徴量を構成するN次元ベクトルのうち、これより少ない次元のベクトルを生成する操作であり、例えば射影後の次元数をN1とした場合、N次元ベクトルに対して、N1×Nのマトリクスサイズを有する行列を掛けることに相当する。
ユークリッド距離計算部29は、部分空間に射影された合成顔画像および目標顔画像の座標値に基づいて、座標間の距離を計算する。
そして、メイクアップ手法抽出部(メイクアップ手法抽出手段)24はユークリッド距離計算部29の出力に基づいて、複数のメイクアップ手法のうち最も目標顔画像に近い合成顔画像が得られる手法を選択し、表示部5に表示する。
次に、評価部(評価手段)40の構成について説明する。
評価部40は、特徴量抽出部25と部分空間射影部26とランク推定部(ランク推定手段)41とで構成される。特徴抽出部25と部分空間射影部26は既に説明したものと同一であるので説明を省略する。ランク推定部41は評価項目回帰モデル4eにアクセスし、合成顔画像または目標顔画像の特徴量に基づき、各評価項目におけるこれらのランク値を取得し、表示部5に表示する。
次に、全体制御部7について説明する。美容支援装置1は、上述した各構成要素の動作を制御するハードウェアとして、図示しない演算装置としてのCPU(Central Processing Unit)またはMPU(Micro-Processing Unit)、ASIC(Application Specific Integrated Circuit)、ワークメモリ、プログラムメモリ、これらの構成要素間でデータをやり取りするパラレル/シリアルバス等の公知の構成を備えている。
なお、図1に示す機能ブロックの全てをハードウェアによって構成する必要はなく、適宜、上述した演算装置等とこれを動作させるソフトウェアを実装してもよいし、更に、以下に示す構成要素の全てを、一般的なカメラ付きノートPC(Personal Computer)、スマートフォンやタブレット端末等に実装してもよい。
また、美容支援装置1にはユーザインタフェース6が設けられている。ユーザインタフェース6は具体的にはキーボード、マウス、タッチパネルといった入力デバイスで構成され、被化粧者はユーザインタフェース6を操作することで、全体制御部7を介して美容支援装置1に指示を与える。この指示の具体例としては、例えば目標顔画像入力部20における画像の選択指示が挙げられる。
図2、図3は、本発明の第1実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。
以降、図2、図3に図1を併用して、第1実施形態の美容支援装置1の動作と、美容支援装置1で用いられる画像処理アルゴリズムについて説明する。なお、説明に際して、重要なポイントについては、都度図面を追加して説明を行う。
図2、図3に示すフローチャートはP1,P2,P3の3つのプログラムモジュールで構成されているが、TM1,TM2,TM3は同期点を示している。即ち、プログラムP2は少なくもプログラムP1のステップがTM1に到達するまでに実行されていればよく、プログラムP3は少なくともプログラムP1のステップが最初にTM3に到達するまでに実行されていればよい。なお、プログラムP3は、結合子AでプログラムP1と結合されている。
まずプログラムP1の処理から説明する。まず、撮像部2で被化粧者の顔が含まれた画像を撮像する(ステップST101)。動画で撮影したものを、ユーザインタフェース6を用いてキャプチャしてもよいし、始めから静止画として撮影してもよい。
撮像された画像データは上述の前処理を施された後、顔検出部10によって顔検出を行ない、顔検出が成功した否かを判断する(ステップST102)。
顔検出の一般的な手法として、統計的学習に基づくパターン認識技術を用いることができる。この技術では、識別器のパラメータはあらかじめ与えた学習用サンプルを元に決定される。識別器として、例えばニューラルネットワークや、サポートベクターマシン、ベイズ推定等を用いた手法が知られている。これらの手法は、通常、入力画像から識別に用いる特徴量を抽出する特徴選択技術と、抽出した特徴量を入力として対象物であるか否かを判定する識別器を構築する識別器構築技術と、構築した識別器を使って、画像ウィンドウ内に顔の存在を判定する技術とから構成される。
顔の存在を判定する技術として、例えば、4方向面特徴と線形判別分析を用いる方法が知られている。この技術では、画像内の肌色情報や動き情報により設定した探索領域に対して4方向面特徴を用いたテンプレートにより入力画像の走査探索を行い、線形判別分析によって顔および頭部のパターンに識別される領域を検出する。
ここで、4方向面特徴とは、脳の視覚野を工学的に模した特徴量で、エッジの形状変動に対してロバストであり、また計算コストが低いといった特徴がある。4方向面特徴は各画素のエッジ勾配を4つの方向面にわり当てて表現したもので、いわゆるGabor特徴を簡略化したような特徴として知られている。
また、線形判別分析とは、判別対象である2つ以上のクラスタに関して、クラス内分散を最小に、クラス間分散を最大にするような射影行列を求める手法である。そして、入力された特徴量を、線形判別分析で得た写像行列により判別空間へ投影し、判別クラスの平均ベクトルとの距離が最小となるクラスを識別結果とする方法全般をいう。
一般にこれらの顔認識技術では、認識の信頼度を算出することができるから、出力された信頼度の値を所定の閾値と比較することで、顔検出が成功したか否かを判定すればよい。
顔検出が成功していれば(ステップST102でYes)ステップST104に進み、成功していなければ(ステップST102でNo)撮像部2における電荷蓄積時間やフレームレートといったパラメータ調整や、顔検出の閾値調整を行い(ステップST103)、再度被化粧者を撮影する(ステップST101)。もちろん再度の撮像が不要であれば(例えば、画像のコントラスト調整やγ値によって修正が可能な場合)、前処理の段階で画像を修正して顔検出を実行してもよい。また、信頼度と合わせて顔認識が失敗した原因を特定するコードを出力し、これを参照してパラメータ調整を行うことで、顔認識に適した画像を少ない試行回数で撮影することができる。
さて、ステップST102で顔検出が成功したとしても、顔が含まれる顔枠の枠サイズ、顔枠内での顔の向きや顔の位置は様々であり、この状態で他の顔画像との類似性を評価することはできない。よって、所定の顔枠内に顔が収まるように正規化する必要がある。この手法として、例えば、検出された顔枠に対して目の検出を行い、目の位置を元にして顔画像にアフィン変換をかけ、顔を正規化する手法、あるいは、検出された顔枠に対してAAM(Active Shape Model)を適用し、顔枠にアフィン変換をかけ、顔を正規化する手法、が知られている。これらの処理を施すことにより、検出された顔枠は全てサイズが統一され(例えば100×100画素)、顔枠の中心に顔が存在するように正規化される。
このようにして撮像部2で撮影した画像から顔検出を行った後、顔パーツ検出部11で目、鼻、口といった顔パーツ位置の検出を行い、顔パーツ位置の検出が成功したか否かを判断する(ステップST104)。顔パーツ検出部11では、例えば、四方向面特徴と弛緩整合法により人物の違いや顔の向きに依存性を少なくして目、鼻、口といった顔パーツの検出を行うことができる。
第1実施形態に応用可能な他の技術として、Haar−like特徴を用いて顔と各顔パーツを検出する手法が知られている。その際、まず、顔パーツの中で最も検出の容易な鼻を基準として、相対的位置関係から各顔パーツの候補領域を推定する。さらに、その候補領域近傍にてHOG(Histogram of Oriented Gradient)特徴量を用いたテンプレートマッチングを行い、顔パーツ位置を微調整するようにしてもよい。なお、HOG特徴量とは予め規定した局所領域(セル)の輝度の勾配方向をヒストグラム化する手法をいい、幾何学的変換がなされた場合でも特徴量を抽出しやすく、また照明の変動についてもロバストであるとされている。
顔パーツ判定においても検出の信頼度を算出できるため、信頼度を所定の閾値と比較することで顔パーツ検出が成功したか否かを判定できる。顔パーツ検出が成功していれば(ステップST104でYes)ステップST106へと進み、失敗していれば(ステップST104でNo)撮像に関するパラメータ調整を行い(ステップST105)、再度被化粧者を撮影する(ステップST101)。なお、ステップST105の処理はステップST103と同様であるため、詳細な説明は省略する。
次に合成顔画像生成部12は、メイクアップ手法記憶部4cにアクセスして画像調整パラメータを読み込み(ステップST106)、その後、合成顔画像を生成する(ステップST107)。
図4は、合成顔画像を生成する際の画像処理対象を説明する説明図である。以降、図4に図1を併用して画像処理対象と画像合成の際に用いる画像調整パラメータの内容について詳細に説明する。
図4において、AR1〜AR6はそれぞれ化粧が施される対象部位(範囲)を示している。具体的にはAR1は顔全体を、AR2はアイブロウを書く範囲を、AR3はアイシャドウを付す範囲を、AR4はアイラインを書く範囲を、AR5はチークを入れる範囲を、AR6はリップを塗る範囲をそれぞれ示している。このうち、AR2〜AR5は本来なら顔の左右に現れるが、その一方を省略して描いている。
合成顔画像は、これらの対象部位のそれぞれに化粧が施された状態をシミュレーションして生成されるが、第1実施形態では簡易モードと詳細モードの2つに区分して、施される化粧の内容を設定している。
簡易モードでは、AR1には2色の化粧品(ファンデーション)のうちいずれか(その色をFAC1,FAC2とする)が使用される。AR2には3色の化粧品のうちいずれか(その色をEBC1〜EBC3とする)が使用される。AR3には3色の化粧品のうちいずれか(その色をESC1〜ESC3とする)が使用される。AR4には2色の化粧品のうちいずれか(その色をELC1,ELC2とする)が使用される。AR5には4色の化粧品のうちいずれか(その色をCEC1〜CEC4とする)が使用される。AR6には4色の化粧品のうちいずれか(その色をLPC1〜LPC4とする)が使用される。これらを組み合わせたメイクアップ手法は、2×3×3×2×4×4=576通り存在する。なお、以降の説明において、FAC1やLPC1といった色を表す表記を単に「色記号」と呼称する。
一方の詳細モードでは、AR1には6色の化粧品のいずれか(色記号はFAC1〜FAC6)が使用される。AR2には3色の化粧品のうちいずれか(色記号はEBC1〜EBC3)が使用され、AR2中に細い、標準、太い、の3種類のいずれかでアイブロウが描かれる。AR3には18色の化粧品のうちいずれか(色記号はESC1〜ESC18)が使用され、AR3中に細い、標準、太い、の3種類のいずれかでアイシャドウが付される。AR4には2色のうちいずれか(色記号はELC1,ELC2)が使用される。AR5には4色のうちいずれか(色記号はCEC1〜CEC4)が、頬上・頬下・頬全体の3つの位置のいずれかで使用される。AR6には8色のうちいずれか(色記号はLP1〜LP8)が使用される。これらを組み合わせたメイクアップ手法は、6×(3×3)×(18×3)×2×(4×3)×8=559872通り存在する。
メイクアップ手法記憶部4cには、1つのメイクアップ手法に対応した画像調整パラメータとして、色記号と、色記号に対応した具体的な化粧品名、これらの化粧品を使って化粧を施した際の肌の色の変化(正確には、輝度、彩度、色相変化)に関する情報(色変化情報)、およびAR2に書かれるアイブロウ等の形状情報(細い、標準、太いに対応した画像データ)、化粧の手順等が記憶されている。
更に、上述の色変化情報には、撮像部2で撮像した被化粧者の顔画像の肌色の輝度、彩度、色相に応じて、シミュレーションとしての化粧の効果を加減する色調整因子が含まれる。色調整因子は例えばL表色系における修正率として導入されており、これは例えばファンデーションの色に近い肌の色を持つ人に同色のファンデーションを付しても、効果が小さい場合等を考慮したものである。また、化粧とは、技術的には肌の上に紛体または液体を塗布等する行為であるから、例えば、電子写真記録技術分野での特定の色成分(肌色)を有する記録媒体上に特定顔料ないし染料を含む紛体トナーあるいは液体インクを重畳させた場合の層状モデルを援用することで、化粧による輝度(濃度)、色相、彩度変化の予測精度を向上させることができる。
また、上述の形状情報には、顔パーツの大きさに応じたスケーリング調整因子が含まれる。この調整因子は、例えば別途検出された顔画像から目の水平方向の大きさに基づいて、アイラインやアイブロウの水平方向サイズ、傾斜等を調整するものである。
図5は、本発明の第1実施形態に係る美容支援装置1において合成顔画像を生成する過程を説明する説明図である。
以降、図1、図2、図5を用いて説明を続ける。
合成顔画像生成部12は、データベースであるメイクアップ手法記憶部4cから色変化情報、形状情報、色調整因子、スケーリング調整因子、化粧の手順といった画像調整パラメータを取得し、顔パーツ検出部11によって検出された各顔パーツの位置を参照して、被化粧者の顔画像と画像調整パラメータの値に基づいて、合成顔画像を生成する(ステップST107)。そして、この処理は、上述したAR1〜AR6の全ての組み合わせについて、即ち、簡易モードであれば576通り、詳細モードであれば559872通りの合成顔画像を生成するまで実行される(ステップST108でYes)。そして、生成された合成顔画像は合成顔画像記憶部4dに保存される。
より具体的には、図5に示すように、例えば合成顔画像1ではAR1に対してFAC1を、AR2に対してEBC2を、AR3に対してESC1を、AR4に対してELC2を、AR5に対してCEC2を、AR6に対してLPC3を適用して合成顔画像を生成する。更に、これをAR1〜AR6の全ての組み合わせについて実行して、合成顔画像1〜合成顔画像M(簡易モードではM=576)までを生成する。
なお、以降の説明では「メイクアップ手法」というときは、1つの合成顔画像を生成した際のAR1〜AR6の組み合わせパターンを意味する。即ち、合成顔画像のそれぞれは、互いに異なるメイクアップ手法に対応したものとなる。
図6は、本発明の第1実施形態に係る美容支援装置1において特徴量を特徴量空間にプロットする過程を説明する説明図である。
以降、図1、図2、図6を用いて説明を続ける。次に特徴量抽出部25は、合成顔画像記憶部4dに一旦格納された被化粧者の合成顔画像を取り出し、特徴量抽出を行って特徴量空間にプロットする(ステップST109)。
第1実施形態では、特徴量としてGabor特徴量、あるいはLBP(Local Binary Pattern)を用いている。Gabor特徴量はsin/cos関数をガウス関数で局在化したGaborフィルタによって抽出される。即ち、画像データに対してGaborフィルタを畳み込み演算することで、エッジおよびそのエッジの輝度値(強度)を抽出することができる。この特徴量は局所的な特徴を抽出することから照明変動の影響を受けにくいとされている。
また、LBP特徴量とは、注目画素とその周囲8画素との輝度値の比較を行って得たビット列を特徴量としたものである。この特徴量に基づいて局所領域に存在するエッジを抽出することができる。このLBPも照明変動の影響を受けにくく、更に計算コストが小さい手法として知られている。また、LBPはビット列、即ち数値であるから、画像に対してLBPの数値を抽出しておき、その数値をランク、その出現頻度を度数とするヒストグラムを特徴量として用いてもよい。具体的には、合成顔画像を複数のブロックに分割し、各ブロック内でLBP特徴量のヒストグラムを生成し、それらを連結させたベクトルを最終的なLBP特徴量ベクトルとして使用すればよい。
このように、Gabor特徴量やLBP特徴量は、元々エッジが存在しなかった場所にエッジが現れた場合(アイシャドー、アイライン、チーク等)、その変化を抽出することができる。特に、Gabor特徴量は、元々エッジが存在した箇所のエッジを更に際立たせた場合(アイライン、リップ等)やファンデーションで顔全体の輝度値が変化した場合であっても、その変化を抽出することができる。
これらの操作により各々の画像は輝度ベクトルから特徴量ベクトルに変換され、図6に示す特徴量空間にプロットされる。なお、特徴量空間は後に説明する人の感性に基づく評価項目を反映するものではない。しかしながら、特徴量空間は上述した特徴量を介して全体的な見た目を表すものであり「見た目の空間」ともいえるものである。従って、特徴量空間において2つの画像から抽出した特徴量をプロットした座標が近接しているということは、2つの画像の見た目が似ていることに他ならない。
なお、第1実施形態では合成顔画像を上述したように100×100画素に正規化し、この正規化画像からGabor特徴量、あるいはLBP特徴量を得ている。
図7は、本発明の第1実施形態に係る美容支援装置1において特徴量を部分空間に射影する過程を説明する説明図であり、図8は、人の感性に基づく評価項目の内容(感覚的な特性)を示す表である。
以降、図2、図7、図8を用いて説明を続ける。ステップST110では、上述の特徴量ベクトルを、人の感性に基づく評価項目に対応した部分空間に射影する。
ここで図8に示すように、第1実施形態では、例えば、〜20歳の女性については「女性らしさ」「キュート」「子供っぽさ」が評価項目として設定される。そして、20歳〜30歳の女性については、「女性らしさ」「キュート」「ギャル」「小悪魔」「セクシー」の5つが評価項目として設定される。
以降、図7に示す「女性らしさ」や「キュート」等に対応する部分空間の作成方法について詳細に説明する。まず、評価項目である「キュート」等に対応する部分空間を統計的学習手法により予め求めておく。例えば、「キュート」の部分空間を生成する場合、予めM個の学習用顔画像に対して上述したGabor特徴量、あるいはLBP特徴量を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報。例えば1〜10のようなランク値であり、数値が大きいほど「キュート」の度合いが大きいことを意味する)を付与しておく。
ここで前述した特徴量と同一の特徴量ベクトルをM個の学習用顔画像から抽出しておけば、学習ベクトル・ラベルのセット(数1)が得られる。
Figure 2014149677
ここで特徴量ベクトルxの次元数をNとする。
一般に特徴量ベクトルxは高次元のベクトルとなるため、次元数Nの中から有用な軸のみを取捨選択する操作(次元削減)が必要となる。特徴量ベクトルxがラベル情報を持たない場合、主成分分析(PCA:Principle Component Analysis)が一般的に広く用いられるが、上述したように特徴量ベクトルxが「キュート」値yのようにラベル情報を持つ場合、フィッシャー線形判別分析(FDA : Fisher Discriminant Analysis)、局所フィッシャー線形判別分析(LFDA : Local Fisher Discriminant Analysis)などが有用である。
ここで線形判別分析とは、ラベル情報を元にして特徴量ベクトルxをクラスタリングし、各クラスタのクラス内の分散が小さく、かつクラス間の分散が大きくなるような低次元空間に射影する手法である。この低次元空間を次元数Nの空間の部分空間と呼ぶ。
ベクトル・ラベルのセット(数1)から線形判別分析を用いて射影行列Wを算出し、この射影行列Wを予め記憶部4の射影行列/回帰モデル記憶部4eに格納する。この操作は全ての評価項目について実行される。即ち、射影行列Wは人の感性に基づく評価項目の個数だけ生成される。そして、この射影行列WはステップST110において、合成顔画像から得た特徴量を各評価項目に対応する部分空間に射影する際に使用される。特徴量を部分空間に射影することで、特徴量は部分空間の座標にプロットされる。
以上、プログラムP1についてステップST101〜ステップST110まで説明したが、以降、説明の便宜から図3に示すプログラムP3の処理について説明する。プログラムP3は目標顔画像を入力して、その特徴量を取得する処理を行う。
プログラムP3では、イメージセンサを有する図示しない撮像部を用いて、目標顔画像を取得すると想定しており、まず撮像部としての目標顔画像入力部20から目標顔画像を入力する(ステップST301)。次に、入力された画像から顔を検出して顔検出が成功したか否かを判断する(ステップST302)。顔検出が成功していなければ(ステップST302でNo)、パラメータ調整を行って(ステップST303)、再度目標顔画像の撮影を行う(ステップST301)。なお、ステップST301〜ステップST303の過程はプログラムP1のステップST101〜ステップST103と同様であり、例えば、これらのステップで説明したパラメータ調整を行うとよい。
次に取得した目標顔画像を図示しないメモリに保存し(ステップST304)、目標顔画像について特徴量を抽出し、これを保存する(ステップST305)。そしてこの特徴量をベクトルとして取扱い、既に説明した評価項目に対応する部分空間に射影し、これを保存する(ステップST306)。ただし、ST306を実行する際には、評価項目が定まっている必要があるため、ST306の実行はプログラムP2のST204で評価項目が決定されるのを待って行われる。ここで抽出する特徴量および評価項目、部分空間についてはプログラムP1のステップST109、ステップST110で説明したものと全く同じであるので説明を省略する。以上によってプログラムP3の処理が終了し、処理は結合子AでプログラムP1に引き継がれる。
なお、上述したように、目標顔画像の入力源はあらゆるソースが許容されており、個々の目標顔画像は撮像時の照明条件が異なる場合が多いと考えられる。これに対して、第1実施形態で使用しているGabor特徴量やLBP特徴量は局所的統計量であることから、照明の影響を小さくすることができる。
以降、図2のプログラムP1に戻って、ステップST111以降の処理について説明する。なお、説明に際して図7を参照する。
上述したステップST305によって、目標顔画像の特徴量空間における座標(即ち、特徴量ベクトルそのもの)が取得され、ステップST306によって、目標顔画像の特徴量ベクトルを各評価項目に対応した部分空間に射影(プロット)した座標が取得されている。
ステップST111では、評価項目の1つである例えば「キュート」の部分空間について、ユークリッド距離計算部29は、被化粧者の合成顔画像の特徴量ベクトルを部分空間に射影したベクトルPおよび目標顔画像の特徴量ベクトルを部分空間に射影したベクトルQを取り出し、これらのユークリッド距離d(P,Q)を(数2)を用いて計算する。
Figure 2014149677
なお、(数2)において、nは部分空間の次元数、yはベクトルPの第i軸の値、xはベクトルQの第i軸の値を示す。
即ち、図7に示すように、「キュート」の部分空間において、合成顔画像1の座標位置と目標顔画像の座標位置との距離を計算する。距離が近いほど2つの画像は「キュート」部分空間で類似することになる。そして、ステップST111では、各評価項目、即ち「女性らしさ」、「セクシー」、「小悪魔」といった他の評価項目に対応した部分空間においても同様にして合成顔画像1と目標顔画像の座標間距離を求める。この処理によって、1つの合成顔画像について予め定めておいた複数の評価項目について類似度が算出される。
なお、類似度はユークリッド距離をそのまま用いてもよく、この場合は両者が類似するほど類似度の値は小さくなる。ただし、このように取り扱うと人の感覚とは逆となるため、例えばユークリッド距離=0のときに類似度が100となるような数値変換を行っておくと、人の感覚との整合性を図ることができる。なお、以降の説明においても、ユークリッド距離が小さい場合を類似度が高いと表現する。
このようにして、全ての評価項目についての類似度が算出されるが、合成顔画像と目標顔画像の「総合的な類似度」については、例えば各評価項目の類似度の平均値を用いることができる。即ち、第1実施形態では、画像間の類似を人の感性に基づく評価項目のそれぞれについて行い、各評価項目の類似度を総合して類似度を判定している。
次に、ステップST112では、全ての合成顔画像について上記の処理が完了しているかを評価し、完了していなければ(ステップST112でNo)ステップST109に戻って、合成顔画像記憶部4dから次の合成顔画像を取得して上述の処理を繰り返す。これによって全ての評価項目について、全ての合成顔画像と目標顔画像との類似度が計算される。全ての合成顔画像について類似度(総合的な類似度)の計算が完了している場合(ステップST112でYes)は、メイクアップ手法抽出部24は、目標顔画像に対して総合的な類似度が最も高くなる合成顔画像を生成する際に用いたメイクアップ手法(以降、「最適なメイクアップ手法」と呼称する)を特定し、メイクアップ手法記憶部4cにアクセスしてメイクアップ手法の具体的内容(使用する化粧品、化粧の手順等)を取り出し、これを所定のメモリ領域に保存する(ステップST113)。以上で、プログラムP1の処理が終了する。
以降、プログラムP2の処理について説明する。第1実施形態において、上述した人の感性に基づく評価項目は、被化粧者の性別と年齢とを推定した結果に基づいて決定される。
プログラムP2は、少なくともプログラムP1において顔検出が成功した(ステップST102でYes)タイミング以降に起動される。なお、被化粧者の顔画像は既に正規化されているものとする。まず、被化粧者の顔画像から特徴量を抽出する(ステップST201)。性別、年齢は、例えば目や口、顔の輪郭、しわ等に着目して推定することができ、特徴量として例えば4方向面特徴を利用することができる。
次に、属性推定モデル記憶部4aにアクセスして属性推定モデルを読み込む(ステップST202)。
以降、属性推定モデルの作成方法について説明するが、簡単のために性別の推定に関してのみ説明する。まず、「性別」に対応する属性推定モデルを統計的学習手法により予め求めておく。「性別」の属性推定モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「性別」、即ち「男性」または「女性」を示す値y(ラベル情報)を付与しておく。
その後、入力xに対する出力y(性別)の属性判定モデルを学習する。学習方法として、例えば線形判別分析、SVM(Support Vector Machine)、AdaBoostなどが知られている。
なお、属性推定モデルの学習に用いる顔データベースとして、例えば、NIST(National Institute of Standards and Technology)や、FERET(The Facial Recognition Technology)が知られている。特に日本人女性の顔を推定の対象とする場合はJAFFE(Japanese Female Facial Expression)顔データベースを利用することができる。
次に、年齢、性別推定を実行する(ステップST203)。具体的には、検出された被化粧者の顔画像から抽出した特徴量(特徴量ベクトル)を用いて属性推定モデルにアクセスすることで、年齢、性別が直接的に出力される。なお、一般的には、属性推定モデルは関数の一種であり、属性推定モデルが定義する空間の座標には「性別」「年齢」等の値が対応づけられている。これにより、特徴量ベクトルを属性推定モデルに入力することで、直ちに性別、年齢を得ることができる。
そして、属性推定モデルをアクセスして得た年齢、性別に基づいて、評価項目記憶部4bがアクセスされ、類似度判定等に用いる評価項目が決定され、所定のメモリ領域に保存される(ステップST204)。なお、ユーザインタフェース6を用いて、被化粧者が類似度判定に使用する評価項目を任意に定められるようにしてもよく、また、後述するランク値を出力する評価項目を任意に選択可能としてもよい。以上で、プログラムP2の処理が終了する。
そして、保存された評価項目は、既に説明したステップST110で参照されて、これに対応した部分空間において類似度の算出が行われる。
なお、以上説明した属性推定モデルは、入力された顔画像から人の性別と年齢を推定するものであるが、これに加えて、例えば人種(コーカソイド、モンゴロイド、ネグロイド)を判別させるようにしてもよい。そして、このような人種の属性に応じて評価項目を決定してもよい。
さて、これまでの説明では、被化粧者の顔画像に様々なメイクアップ手法を適用した合成顔画像と、目標顔画像との類似度を判定するための構成とプロセスについて説明した。一方、被化粧者にとっては類似度とは別に、例えば「キュート」といった評価項目についての目標顔画像のランク値と化粧前のランク値、そして化粧を進めていく被化粧者のランク値がリアルタイムに判定できると使い勝手が向上する。
図9は、美容支援装置1において被化粧者にランク値を表示する過程を説明するフローチャートである。このフローチャートに示されるプログラムP4は、例えば図2を用いて説明したプログラムP1が終了した時点で起動されてもよいし、被化粧者が任意に起動してもよい。
以降、図9と図1を用いて各評価項目に対してランク値、メイクアップ手法、目標顔画像、被化粧者の顔画像をリアルタイムに表示する過程について説明する。なお、ランク値は評価部40によって付与される。
まず、プログラムP1のステップST113で保存した、最適なメイクアップ手法の具体的内容を取り出す(ステップST401)。次に、プログラムP2のステップST204で保存した評価項目、あるいは被化粧者が任意に選択した評価項目を読み込む(ステップST402)。次に、射影行列/回帰モデル記憶部4eにアクセスして、予め射影行列/回帰モデル記憶部4eに記憶しておいた各評価項目の回帰モデルを読み込む(ステップST403)。
以降、回帰モデルの作成方法について説明する。まず、図8に示す各評価項目(「女性らしさ」、「セクシー」、「キュート」等)に対応する部分空間における回帰モデルを統計的学習手法により予め求めておく。例えば、「キュート」の回帰モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報)を付与しておく。
その後、評価項目「キュート」の射影行列Jを上述した線形判別分析で求めた後、特徴量ベクトルを射影した後の低次元空間において、入力xに対する出力y(ランク値)の回帰モデルを学習する。学習方法として、例えば線形回帰、ベイズ線形回帰、SVR(Support Vector Regression)などが知られている。このように、回帰モデルを用いることで、未知の特徴量ベクトルが入力された場合にランク値を推定することが可能となる。なお、第1実施形態では回帰モデルの他に、例えばニューラルネットワーク等を用いてランク値を推定するようにしてもよい。
被化粧者の顔画像に基づいて、特徴量抽出部25で特徴量(特徴量ベクトル)を抽出し、部分空間射影部26で射影行列Jを掛け合わせることで射影ベクトルが生成され、この射影ベクトル(座標)を用いてランク推定部41で回帰モデルをアクセスすることで、入力した特徴量に対応した、例えば「キュート」のランク値が直接的に出力される。なお、一般的には、回帰モデルは関数の一種であり、回帰モデルが定義する空間の座標には「キュート」等の各評価項目のランク値が対応づけられている。これにより、特徴量ベクトルに各回帰モデルに対応した射影行列Jを掛け合わせ、回帰モデルに入力することで、直ちに評価項目についてのランク値を得ることができる。このような構成では部分空間射影部26がランク推定部41を包含することとなり、これらを合わせていわば回帰モデル射影部として機能する。
次に、既に説明したプログラムP3のステップST304で保存しておいた、目標顔画像を読み込む(ステップST404)。次に、プログラムP3のステップST305で保存しておいた、目標顔画像の特徴量を読み込む(ステップST405)。次に、読み込んだ特徴量を、部分空間射影部26によって各評価項目の回帰モデルに入力することで(ステップST406)、評価項目ごとにランク値が得られる。なお、この過程におけるデータパスは図1に示されていないが、具体的には全体制御部7が図示しないメモリから目標顔画像の特徴量を読み込んで、これを直接的に部分空間射影部26に渡すことで実行される。
次に、ステップST404で読み込んだ目標顔画像と、ステップST401で読み込んだ最適なメイクアップ手法の具体的内容を表示部5に表示する(ステップST407)。
次に、ステップST406で求めた目標顔画像(正確には、その特徴量)に対する各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST408)。
次に、化粧を行おうとしている被化粧者を撮像部2で撮影する(ステップST409)。
次に、既にステップST102で説明したのと同様に、顔検出部10で被化粧者の顔を検出し、顔検出が成功したか否かを判定する(ステップST410)。顔判定が失敗していれば(ステップST410でNo)撮像パラメータを調整して(ステップST411)再度被化粧者を撮影する(ステップST409)。一方、顔検出が成功していれば、次に、特徴量抽出部25で被化粧者の顔画像の特徴量を抽出する(ステップST412)。抽出される特徴量については、既にプログラムP1のステップST109と同じであるため説明を省略する。なお、連続フレーム間で顔領域を追跡(トラッキング)してもよい。
次に、部分空間射影部26は、得られた特徴量を特徴量ベクトルとして評価項目毎に作成しておいた射影行列Jと掛け合わせて、回帰モデルに入力する(ステップST413)。これを評価すべき評価項目全てに行うことで、全ての評価項目について被化粧者の現在の(例えば、化粧中の)ランク値が抽出される。
次に、ステップST409で得た被化粧者の顔画像を表示部5に表示する(ステップST414)。
次に、ステップST413で得た各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST415)。
ステップST415が終了すると、所定のインターバル期間を置いた後、ステップST409に戻って、再度被化粧者の顔画像の撮影が行われる。なお、上述したステップST409〜ステップST415は無限ループを構成するが、インターバル期間の間にユーザインタフェース6のキー入力等を検出した場合に当該ループから離脱するように構成してもよい。このループにより、撮像部2は、所定のタイミングで被化粧者の顔画像を繰り返し撮像して更新し、評価部40は、更新された被化粧者の顔画像についてランク値を出力し、表示部5は、更新された被化粧者の顔画像とランク値をリアルタイムに表示する。
図10(a)〜(c)は、人の感性に基づく評価項目に対応する部分空間と回帰モデルの関係を示す説明図、(d)は、各評価項目についてのランク値をレーダーチャートに表示した状態を説明する説明図である。
図10(a)は、評価項目「女性らしさ」の部分空間と、この部分空間内に学習された「女性らしさ」回帰モデルの関係を、同(b)は評価項目「セクシー」の部分空間と、この部分空間内に学習された「セクシー」回帰モデルの関係を、同(c)は、評価項目「ギャル」の部分空間と、この部分空間内で学習された「ギャル」回帰モデルの関係を示している。図10(a)〜(c)は、ランク値を表す座標軸の他に3軸を示しているが、部分空間は多次元空間であり、一般的に座標軸の数(次元数)は膨大である。そして、各図において、回帰モデルは曲線で表現されているが、実際は多次元空間に存在する超平面、あるいは超曲面である。
以降、簡単のために図10(a)について説明を行う。ここで、曲線上に付した2点は黒丸が目標顔画像の特徴量を「女性らしさ」部分空間に射影した座標であり、この座標におけるランク値が9点であることを示している。一方のハッチ入り丸は被化粧者の顔画像の特徴量を同様に射影した座標であり、この座標におけるランク値が5点であることを示している。図10(b),(c)も同様である。即ち、各部分空間において、ランク値の軸を参照することで目標顔画像と被化粧者顔画像のランク値が定まっている。
これを図10(d)に示すようなレーダーチャート上にプロットする。レーダーチャートは中心ほどランクが低く、外側ほどランクが高く設定され、中心から外向きに設けられた5つの軸がそれぞれ評価項目を示している。図10(d)では、各評価項目において目標顔画像のランク値を結んだものを二点鎖線で示し、被化粧者の顔画像のランク値を結んだものを一点鎖線で示している。
上述したプログラムP4のステップST409〜ステップST415で説明したように、被化粧者の顔画像は周期的に撮影されて、その都度各評価項目におけるランク値が判定されるから、被化粧者が化粧を進めて、被化粧者の顔画像が目標顔画像に類似していくほど、図10(d)のレーダーチャートの各評価項目の値が大きく(または小さく)なり、理想的には目標顔画像の略同等の範囲を占めるようになる。このレーダーチャートで特徴的な事項は、たとえ化粧の手本となる目標顔画像であっても、各評価項目のランク値は最大の値を採るとは限らず、あくまでも回帰モデルで決定される値だということである。これは、各評価項目について、有限な学習を限度として絶対基準を定めていることに他ならない。これによって、被化粧者は自分が好みとするメイクアップの方向性がどのような特性を持っているのか(即ち、レーダーチャート上でどの評価項目に偏っているか)を直観的に理解することができる。また、被化粧者は各評価項目におけるランク値が全体的に高いものを選ぶ場合もあれば、その日の気分でより「キュート」や「女性らしい」といった感覚的なイメージの化粧を施したい場合も多いと考えられる。このように、被化粧者が理想とする化粧は様々な事由によって変化するものであるが、本発明はこのような被化粧者の幅広い要求に十分に対応することが可能である。
図11は、表示部5における表示内容の例を説明する説明図である。図11に示すように、第1実施形態では、表示部5には、既に説明したステップST404で取得した目標顔画像と、ステップST409で撮影された被化粧者の顔画像と、ステップST401で取得した最適なメイクアップ手法が表示され、ステップST406及およびステップST413で特徴量を回帰モデルに入力することで得たランク値がレーダーチャート上にプロットされる。ここで、メイクアップ手法については、上述した色記号だけでなくその色記号の色を実現するための化粧品名を表示してもよく、また合成顔画像を詳細モードで作成した場合は、これと併せてアイブロウやアイシャドウの形状を表示してもよい。
そして、プログラムP4で説明したように、被化粧者の顔画像の撮影は周期的に繰り返され、更新された顔画像に基づいてレーダーチャート上にプロットされるランク値がリアルタイムに刻々と変化する。
さて、以上説明したプログラムP1〜プログラムP4は、例えばアプリケーションソフトウェアとして頒布され、スマートフォンやタブレット端末等に実装されたハードウェア上で動作させることが可能である。図1に示す各構成要素は、例えばスマートフォンにおいては、撮像部2が内蔵カメラ、表示部5が有機ELや液晶で構成された表示パネル、目標顔画像入力部20が内蔵カメラまたは可搬性記憶媒体等を装着するインタフェース、画像処理部3がCPUと周辺システム、記憶部4がSSD(Solid State Drive)やハードディスクドライブ等の大容量記憶装置に対応する。
(第2実施形態)
図12は、本発明の第2実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。
第1実施形態において、プログラムP2はステップST109とステップST110の間に設けられた同期点TM1までに処理を完了するように制御されている。
一方、第2実施形態においては、プログラムP2はステップST104とステップST106の間に設けられた同期点TM2までに処理を完了するように制御されることが大きな特徴となっている。
既に説明したように、プログラムP2は被化粧者の性別や年齢等の属性を推定することで評価項目を決定する。第2実施形態では、合成顔画像を生成する前に評価項目の決定を行う。このプロセスを採用することで、合成顔画像の生成に際して、属性推定の結果を反映させることが可能となる。上述したように、属性推定においては例えば人種を推定することが可能であるから、推定された人種に応じてメイクアップ手法記憶部4cから異なる化粧品の群に基づくメイクアップ手法を選択することができ、より的確な合成顔画像の生成が可能となる。
もちろん、合成顔画像の生成に際して、人種のみならず性別や年齢に応じて異なるメイクアップ手法が選択されるように構成することも可能である。
(第3実施形態)
図13は、本発明の第3実施形態に係る美容支援装置1の構成を示すブロック構成図である。
第1実施形態において、合成顔画像の生成に利用されるメイクアップ手法を記憶するメイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4e、合成顔画像生成部12、類似度判定部22、ランク推定部41、メイクアップ手法抽出部24は、いずれも美容支援装置1に設けられていた。
一方、第3実施形態においては、上述の構成要素を美容支援装置1の外部に配置したことが大きな特徴となっている。
図13において、美容支援装置1はインタフェース42を備え、これを介してインターネット等の外部ネットワーク100にアクセス可能に構成されている。この外部ネットワーク100にはサーバ45が(一般に、美容支援装置1とは異なる場所に)インタフェース43を介して接続されている。即ち、図13はいわゆるクラウドを利用した美容支援システムの構成を示している。このシステムでは、第1実施形態で説明した画像処理部3の主要構成要素がサーバ45に設けられる。
サーバ45は、データベースとしてメイクアップ手法記憶部4cと合成顔画像記憶部4dと射影行列/回帰モデル記憶部4eとを備える。更に、サーバ45は、類似度判定部22を構成する特徴量抽出部25と部分空間射影部26とユークリッド距離計算部29と、これらの構成要素に付随してランク判定部41、メイクアップ手法抽出部24を備える。
そして、ランク判定部41が出力するランク値と、メイクアップ手法抽出部24が出力する「最適なメイクアップ手法」とは、サーバ45のインタフェース43、外部ネットワーク100、インタフェース42を経由して美容支援装置1に取り込まれ、これらは表示部5に表示される。これらの構成要素は制御部48によって、その動作全般を制御される。もちろん、これらの全ての構成要素をコンピュータシステムとしてのサーバをそのまま利用して実現してもよい。
図13に示すデータパスは、インタフェース42と外部ネットワーク100とインタフェース43とを経由することで一旦集約されるものの、画像データや画像処理後のデータや様々なパラメータ等は、図1に示す構成と同様に各構成要素間を渡されていく。
第1実施形態において説明したように、合成顔画像は簡易モードと詳細モードの2つの設定で生成される。特に詳細モードにおいては、合成される顔画像の数は例えば559872通りと多数となる。そして、生成される合成顔画像そのものは、新たなメイクアップ手法が追加、削除、修正されない限り(つまり、メイクアップ手法に影響を与える化粧品が販売されたりしない限り)、不変のものである。このように、生成された合成顔画像が格納される合成顔画像記憶部4dは、通常は参照用(読み取り専用)のデータベースとしての性格を有している。
しかしながら、実際問題として化粧品には流行性があり、また季節によっても使用される化粧品は変化するため、制御部48は外部ネットワーク100を介して新たな化粧品情報を逐次入手し、この化粧品情報に基づいて複数のメイクアップ手法を再構築するとともに、メイクアップ手法記憶部4cの内容を更新する。
ここで、合成顔画像記憶部4dには複数のメイクアップ手法をシミュレートされた合成顔画像の他に、画像合成の際のベースとなる基本顔画像(いずれのメイクアップ手法も施されていない被化粧者の顔画像)も記憶されている。そこで、制御部48は、市場において化粧品が更新されると、外部ネットワーク100を介して被化粧者の意向を確認した上で、基本顔画像に更新されたメイクアップ手法を適用して新たに合成顔画像を生成し、これを合成顔画像記憶部4dに格納する。即ち、メイクアップ手法記憶部4cと合成顔画像記憶部4dは追記型のデータベースを構成する。このようにすることで、同一の被化粧者が異なる目標顔画像との間で類似度を判定したいような場合に、改めて合成顔画像を生成する必要がなくなる。なお、合成顔画像に代えて抽出した特徴量を記憶するようにしてもよい。
もちろん、合成顔画像記憶部4dを常に空の状態としておき、被化粧者が美容支援装置を使用するときのみ、合成顔画像記憶部4dに被験者の合成顔画像を保存してもよい。そして、類似度判定に基づいて最適なメイクアップ手法を決定した後、合成顔画像記憶部4dに保持していた合成顔画像を全て破棄するようにしてもよい。このようにすることで、合成顔画像記憶部4dは動的に運用されるため、合成顔画像記憶部4dの記憶容量を小さくすることができる。
このように、第3実施形態では、画像処理演算を実行するサーバ45を、美容支援装置1と切り離したことで、処理がネットワーク上で分散され、データベース破壊等のリスクが分散されると共に、処理負担の大きい演算をクラウド側で実行することが可能となり、クラウドコンピューティングによるサービスの提供が可能となる。
以上説明したように、第3実施形態によって、被化粧者は常に最新の化粧品を活用して、目標顔画像に近づく化粧を行うことが可能となる。また、美容支援装置1の外部にこのようなデータベースおよび画像処理演算を実行する主体を構築しておくことで、被化粧者は例えばスマートフォンやタブレット端末を有していれば、外部ネットワーク100を介してサーバ45に接続することで美容支援のサービスを享受することができる。
(第4実施形態)
図14は、本発明の第4実施形態に係る美容支援装置1の構成を示すブロック構成図である。
第1実施形態において、互いに異なるメイクアップ手法によって生成される合成顔画像と目標顔画像の類似度は、両者から抽出した特徴量を、人の感性に基づく評価項目に対応した部分空間に射影し、部分空間におけるユークリッド距離に基づいて求めていた。そして、被化粧者の顔画像と目標顔画像から抽出した特徴量を部分空間射影部26で各評価項目の回帰モデルに入力することで、各評価項目のランク値を求めていた。
第4実施形態においては、このうち合成顔画像と目標顔画像の類似度を、特徴量空間において計算するように構成したことが大きな特徴となっている。
撮像部2で撮影された被化粧者の顔画像と、互いに異なるメイクアップ手法から合成顔画像を生成し、この合成顔画像に基づいて特徴量を取得する過程、また目標顔画像入力部20で入力された目標顔画像に基づいて特徴量を取得する過程は、第1実施形態と同様であるので説明を省略する。
第1実施形態で説明したように、合成顔画像および目標顔画像から抽出される特徴量は多次元ベクトルを表している。従って、特徴量抽出部25で抽出したこれらの特徴量を、部分空間射影部26を介さずに直接ユークリッド距離計算部29に渡し、(数2)を用いて両特徴量のユークリッド距離を求めることができる。これによって図3に示す「見た目の空間」において、合成顔画像と目標顔画像との類似度が算出される。これを全ての合成顔画像に対して行って、メイクアップ手法抽出部24において、最もユークリッド距離が小さくなる合成顔画像を生成したメイクアップ手法を抽出する。
このように第4実施形態では、個々の評価項目とは無関係に全体の見えに基づき類似度が判定されることになるが、例えば被化粧者が多数の評価項目を選択したような場合と比較して計算コストを低減することが可能となる。従って、使用する評価項目の数に応じて、特徴量空間と部分空間のいずれを類似度計算に使用するかを定めておくとよい。
そして、この場合であっても、被化粧者の顔画像と目標顔画像に基づくランク値の推定は、部分空間射影部26とランク推定部41によって独立して行われるため、美容支援装置1の使用に際して特に制約が生じることもない。
以上、第1実施形態〜第4実施形態として本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムについて説明した。これらの説明において、類似度を算出する対象としては、互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像を例示し、ランク値を算出する対象としては、被化粧者の顔画像(化粧中の顔画像)と目標顔画像を例示したが、本発明は顔に対して施されるメイクアップの分野のみならず、例えばヘアアレンジ、美容整形といった分野にも応用することが可能である。
本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムは、被化粧者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ被化粧者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することができることから、美容支援を行う専用機、美容支援を行うための端末機器とサーバ、美容支援プログラムが実装されるコンピュータ、スマートフォン、タブレット端末等に好適に利用することができる。
1 美容支援装置
2 撮像部(撮像手段)
3 画像処理部
4 記憶部
4a 属性推定モデル記憶部
4b 評価項目記憶部
4c メイクアップ手法記憶部
4d 合成顔画像記憶部
4e 射影行列/回帰モデル記憶部
5 表示部(表示手段)
6 ユーザインタフェース
7 全体制御部
10 顔検出部
11 顔パーツ検出部
12 合成顔画像生成部(合成顔画像生成手段)
20 目標顔画像入力部(入力手段)
21 顔検出部
22 類似度判定部(類似度判定手段)
24 メイクアップ手法抽出部(メイクアップ手法抽出手段)
25 特徴量抽出部(特徴量抽出手段)
26 部分空間射影部(射影手段)
27 属性推定部(属性判定手段)
28 評価項目決定部
29 ユークリッド距離計算部
40 評価部(評価手段)
41 ランク推定部(ランク推定手段)
45 サーバ

Claims (8)

  1. 利用者の顔画像を撮像する撮像手段と、
    目標顔画像を入力する入力手段と、
    前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
    前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
    前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、
    前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用された美容手法および前記ランク値を表示する表示手段と、を備えることを特徴とする美容支援装置。
  2. 前記評価手段は、
    前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、
    前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、
    前記複数の部分空間において、前記射影手段によって射影された前記特徴量の座標に基づき、前記所定の評価項目毎にランク値を推定するランク推定手段と、を有することを特徴とする請求項1記載の美容支援装置。
  3. 前記所定の特徴量を、N次元ベクトルとし、
    前記部分空間を、前記N次元より小さい次元数の空間としたことを特徴とする請求項2記載の美容支援装置。
  4. 前記撮像手段は、所定のタイミングで前記利用者の顔画像を繰り返し撮像して更新し、
    前記評価手段は、更新された前記利用者の顔画像についてランク値を出力し、
    前記表示手段は、更新された前記利用者の顔画像と前記ランク値を表示することを特徴とする請求項1ないし請求項3いずれか1項記載の美容支援装置。
  5. 前記表示手段は、
    前記所定の評価項目に対応する軸を有するレーダーチャート上に、前記ランク値を表示することを特徴とする請求項1ないし請求項4いずれか1項記載の美容支援装置。
  6. 利用者の顔画像を撮像する撮像手段と、
    目標顔画像を入力する入力手段と、
    美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、
    前記データベースにアクセスして前記美容手法と前記画像調整パラメータを取得するとともに、前記利用者の顔画像に対して、互いに異なる美容手法に対応した前記画像調整パラメータを適用して複数の合成顔画像を生成する合成顔画像生成手段と、
    前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
    前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、
    前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを表示する表示手段と、を備えることを特徴とする美容支援システム。
  7. 利用者の顔画像を撮像し、
    目標顔画像を入力し、
    前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
    前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
    前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力し、
    前記類似度が高いと判断された前記合成顔画像に適用された美容手法、および前記ランク値を表示することを特徴とする美容支援方法。
  8. 利用者の顔画像と目標顔画像とを入力し、
    前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
    前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
    前記利用者の顔画像と前記目標顔画像に対して、所定の評価項目についてランク値を出力し、
    前記類似度が高いと判断された前記合成顔画像に適用された美容手法、および前記ランク値を表示することを特徴とする美容支援プログラム。
JP2013018101A 2013-02-01 2013-02-01 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム Pending JP2014149677A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013018101A JP2014149677A (ja) 2013-02-01 2013-02-01 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
PCT/JP2013/007009 WO2014118842A1 (ja) 2013-02-01 2013-11-28 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
CN201380074779.5A CN105210110A (zh) 2013-02-01 2013-11-28 美容辅助装置、美容辅助系统、美容辅助方法以及美容辅助程序
US14/764,698 US10321747B2 (en) 2013-02-01 2013-11-28 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
EP13873648.3A EP2953090A4 (en) 2013-02-01 2013-11-28 MAKEUP AID, MAKEUP AID, MAKEUP ASSISTANCE AND MAKEUP ASSISTANCE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013018101A JP2014149677A (ja) 2013-02-01 2013-02-01 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム

Publications (1)

Publication Number Publication Date
JP2014149677A true JP2014149677A (ja) 2014-08-21

Family

ID=51572602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013018101A Pending JP2014149677A (ja) 2013-02-01 2013-02-01 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム

Country Status (1)

Country Link
JP (1) JP2014149677A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101774412B1 (ko) * 2014-10-13 2017-09-05 (주)아모레퍼시픽 피부색 맞춤형 메이크업 색상 진단 방법 및 피부색 맞춤형 메이크업 색상 진단 장치
WO2018029963A1 (ja) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
JPWO2017069231A1 (ja) * 2015-10-23 2018-10-04 国立大学法人大阪大学 人体における治療後の形態予測方法及びシステム
JPWO2018012136A1 (ja) * 2016-07-14 2019-04-25 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
CN111104823A (zh) * 2018-10-25 2020-05-05 北京奇虎科技有限公司 人脸识别方法、装置及存储介质、终端设备
CN112396573A (zh) * 2019-07-30 2021-02-23 纵横在线(广州)网络科技有限公司 基于图像识别的面部皮肤分析方法及系统
JP2021103568A (ja) * 2020-06-29 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像認識方法、装置、デバイス、コンピュータ記憶媒体、及びプログラム
US11478062B2 (en) 2016-12-28 2022-10-25 Panasonic Intellectual Property Management Co., Ltd. Makeup item presenting system, makeup item presenting method, and makeup item presenting server
JP7500768B2 (ja) 2021-08-20 2024-06-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04279829A (ja) * 1991-03-08 1992-10-05 Matsushita Electric Ind Co Ltd 肌色評価付き化粧台
JP2003122825A (ja) * 2001-10-18 2003-04-25 Be-Fine Lab Co Ltd 印象分析・表現システム及び該印象分析・表現システム用の情報記録媒体
JP2006081847A (ja) * 2004-09-17 2006-03-30 Inforward Inc 肌解析ネットワークシステム
JP2006267115A (ja) * 2006-04-24 2006-10-05 Kao Corp メイクアップ化粧料の選択装置
JP2012008617A (ja) * 2010-06-22 2012-01-12 Kao Corp 顔画像評価方法、顔評価方法および画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04279829A (ja) * 1991-03-08 1992-10-05 Matsushita Electric Ind Co Ltd 肌色評価付き化粧台
JP2003122825A (ja) * 2001-10-18 2003-04-25 Be-Fine Lab Co Ltd 印象分析・表現システム及び該印象分析・表現システム用の情報記録媒体
JP2006081847A (ja) * 2004-09-17 2006-03-30 Inforward Inc 肌解析ネットワークシステム
JP2006267115A (ja) * 2006-04-24 2006-10-05 Kao Corp メイクアップ化粧料の選択装置
JP2012008617A (ja) * 2010-06-22 2012-01-12 Kao Corp 顔画像評価方法、顔評価方法および画像処理装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101774412B1 (ko) * 2014-10-13 2017-09-05 (주)아모레퍼시픽 피부색 맞춤형 메이크업 색상 진단 방법 및 피부색 맞춤형 메이크업 색상 진단 장치
US11065084B2 (en) 2015-10-23 2021-07-20 Osaka University Method and system for predicting shape of human body after treatment
JPWO2017069231A1 (ja) * 2015-10-23 2018-10-04 国立大学法人大阪大学 人体における治療後の形態予測方法及びシステム
US11617633B2 (en) 2015-10-23 2023-04-04 Osaka University Method and system for predicting shape of human body after treatment
JPWO2018012136A1 (ja) * 2016-07-14 2019-04-25 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
WO2018029963A1 (ja) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
US11478062B2 (en) 2016-12-28 2022-10-25 Panasonic Intellectual Property Management Co., Ltd. Makeup item presenting system, makeup item presenting method, and makeup item presenting server
CN111104823A (zh) * 2018-10-25 2020-05-05 北京奇虎科技有限公司 人脸识别方法、装置及存储介质、终端设备
CN112396573A (zh) * 2019-07-30 2021-02-23 纵横在线(广州)网络科技有限公司 基于图像识别的面部皮肤分析方法及系统
JP2021103568A (ja) * 2020-06-29 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像認識方法、装置、デバイス、コンピュータ記憶媒体、及びプログラム
JP7106705B2 (ja) 2020-06-29 2022-07-26 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像認識方法、装置、デバイス、コンピュータ記憶媒体、及びプログラム
US11687779B2 (en) 2020-06-29 2023-06-27 Beijing Baidu Netcom Science And Technology Co., Ltd. Image recognition method and apparatus, device, and computer storage medium
JP7500768B2 (ja) 2021-08-20 2024-06-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 顔画像処理方法、顔画像処理モデルの訓練方法、装置、機器、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
WO2014118842A1 (ja) 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
JP2014149678A (ja) 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
JP7075085B2 (ja) 全身測定値抽出のためのシステムおよび方法
Salama AbdELminaam et al. A deep facial recognition system using computational intelligent algorithms
US10489683B1 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
US10956967B2 (en) Generating and providing augmented reality representations of recommended products based on style similarity in relation to real-world surroundings
Gou et al. A joint cascaded framework for simultaneous eye detection and eye state estimation
Dantcheva et al. What else does your biometric data reveal? A survey on soft biometrics
JP2014149677A (ja) 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
US10789622B2 (en) Generating and providing augmented reality representations of recommended products based on style compatibility in relation to real-world surroundings
Dibeklioğlu et al. Combining facial dynamics with appearance for age estimation
Qian et al. Html: A parametric hand texture model for 3d hand reconstruction and personalization
Yan et al. Egocentric daily activity recognition via multitask clustering
Li et al. Discriminant locally linear embedding with high-order tensor data
Xu et al. Combining local features for robust nose location in 3D facial data
Wang et al. Face recognition from 2D and 3D images using 3D Gabor filters
Kittler et al. 3D morphable face models and their applications
JP6191943B2 (ja) 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
KR102668172B1 (ko) 메시징 시스템에서의 증강 현실 경험을 위한 물리적 제품들의 식별
Galteri et al. Deep 3d morphable model refinement via progressive growing of conditional generative adversarial networks
Dai et al. 3D morphable models: The face, ear and head
Shao et al. A survey of head pose estimation methods
Ambika et al. Periocular authentication based on FEM using Laplace–Beltrami eigenvalues
Ertuğrul et al. Modeling and synthesis of kinship patterns of facial expressions
Zhang et al. Face, image, and analysis

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170808