WO2014118842A1 - 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム - Google Patents

美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム Download PDF

Info

Publication number
WO2014118842A1
WO2014118842A1 PCT/JP2013/007009 JP2013007009W WO2014118842A1 WO 2014118842 A1 WO2014118842 A1 WO 2014118842A1 JP 2013007009 W JP2013007009 W JP 2013007009W WO 2014118842 A1 WO2014118842 A1 WO 2014118842A1
Authority
WO
WIPO (PCT)
Prior art keywords
face image
image
beauty
similarity
user
Prior art date
Application number
PCT/JP2013/007009
Other languages
English (en)
French (fr)
Inventor
一 田村
宏明 由雄
勝司 青木
香織 森
園子 平澤
伸 山田
隆行 松川
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013018101A external-priority patent/JP2014149677A/ja
Priority claimed from JP2013018103A external-priority patent/JP2014149678A/ja
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP13873648.3A priority Critical patent/EP2953090A4/en
Priority to US14/764,698 priority patent/US10321747B2/en
Priority to CN201380074779.5A priority patent/CN105210110A/zh
Publication of WO2014118842A1 publication Critical patent/WO2014118842A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】利用者の顔をより目標顔画像に近づけるための美容手法を的確に抽出することが可能な、美容支援装置を提供すること。 【解決手段】被化粧者の顔画像を撮像する撮像部2と、目標顔画像を入力する入力部20と、前記被化粧者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成する合成顔画像生成部12と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定部22と、前記類似度判定部22によって類似度が高いと判断された前記合成顔画像に適用したメイクアップ手法を抽出するメイクアップ手法抽出部24とで構成する。

Description

美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
 本発明は、被化粧者などの利用者に対して、美容方法に関するアドバイスを行う美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラムに関するものである。
 近年、化粧品の種類や用途が多岐にわたっている。化粧品そのものは従来の販売システムである対面販売に加え、スーパーマーケット、コンビニ等によって大量に販売されており、被化粧者は様々な化粧品をより簡易かつ大量に入手可能になっている。このような多品種の化粧品に対して、被化粧者は化粧品に添付される製品情報やファッション雑誌やインターネット等から化粧品やメイクアップ手法に関する情報を入手し、自らが化粧を施す際に活用している。しかし、このような情報のみでは、実際に施した化粧が被化粧者の目標とするイメージに近いものか否かを適切に判断することはできない。
 これに対して、例えば特許文献1には、被化粧者が要望する顔を撮影したサンプル画像から化粧方法を特定し、その特定した化粧方法を被化粧者の顔画像に適用することで手本化粧顔画像を生成し、化粧の手順ごとに被化粧者の顔画像と手本化粧顔画像との評価を行い、評価結果に基づいて化粧アドバイスを提示する技術が開示されている。
 また、特許文献2には、顔画像から2つの独立な特徴量(顔を構成する目や鼻といった顔パーツの配置が遠心的か求心的か、および顔パーツの形状が曲線的か直線的かの指標)を抽出し、2次元の評価軸上にプロットされた評価軸上の4つの象限に応じて、顔を特徴別または印象別に分類する技術が開示されている。
特許第3408524号公報 特許第3614783号公報
 特許文献1に開示された技術では、被化粧者の顔と、化粧の目標とするサンプル画像に写った顔画像(以降、「目標顔画像」と呼称する)の全体的な形態や、顔を構成する目や鼻といったパーツ(以降、「顔パーツ」と呼称する)の形態、相対的な位置関係が似ている場合(極端な例としては一卵性双生児のような場合)は、目標顔画像から特定された化粧方法を施すことで結果として被化粧者の顔は目標顔画像に近づくものと考えられる。しかしながら、被化粧者と目標顔画像との形態が異なる場合、通常は、同一の化粧を施しても両者の印象は同一とならないことが多い。即ち、人の感性に基づく評価が行われていないために、形状的、測色的に全く同じ化粧を施しても、両者の雰囲気が異なってしまう(人の感覚として両者の類似度が低い)という課題があった。しかも、雰囲気が異なる程度を直観的に把握することは困難であり、その結果、被化粧者は目標顔画像に備わった例えば「キュート」といった感覚的な特性を得ようとする場合、試行錯誤を繰り返す必要があった。
 また、特許文献1では、目標顔画像からメイクアップ手法を特定できることが前提となっている。しかしながら、前述のごとく化粧品の種類は多岐にわたっており、画像情報のみからメイクアップ手法を特定することは事実上困難であるという課題があった。
 一方、特許文献2に開示された技術では、被化粧者を特徴別または印象別に分類するものの、単に化粧の方向性を確認するに留まっている。このような化粧の方向性に関する情報は、被化粧者の顔の形態に応じて様々なメイクアップ手法を自在に適用できる美容師等には有用だと思われる。しかしながら、一般の被化粧者に対して「より女性らしく見せるためには、顔パーツの配置を求心的にし、各パーツの形状を曲線的にすればよい」との情報を与えたとしても、例えば「女性らしく見せる」といった感性的な項目が、化粧によって達成されたのか否か、しかもどの程度達成されたのか等を把握することは困難であるという課題があった。
 また、特許文献2では、顔の特徴を4つの象限に分類し、象限ごとに人に与える印象を規定した結果、各象限に包含される印象は非常に幅広いものとなっている。このため、特許文献2の技術を機械学習に応用して、各象限が持つ印象を化粧に対する評価項目として学習させたとしても、この学習には被化粧者にとって不必要な評価項目まで包含されてしまう。具体的には、例えば被化粧者が「キュート」という評価項目について化粧結果を評価したいと思っても、「キュート」が含まれる象限の中には「素朴」のような実質的に異なる評価項目が含まれる。従って、機械学習の結果、類似と判断される顔画像であっても、被化粧者の感覚では類似しない、即ち、学習結果と被化粧者の認識との間に乖離が生じるという課題があった。
 本発明は、このような従来技術の課題を解決するべく案出されたものであり、その主な目的は、利用者の顔をより目標顔画像に近づけるための美容手法を的確に抽出するとともに、利用者の顔画像と目標顔画像との差異を、人の感覚に基づく評価項目のランク値として表示し、利用者が美容手法を施した結果、目標顔画像にどの程度近づいたかを直観的に認識することが可能な、美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラムを提供することにある。
 本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容手法抽出手段と、で構成した美容支援装置である。
 これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
 また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力する評価手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法および前記ランク値を表示する表示手段と、を備える美容支援装置である。
 これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
 また、本発明は、前記類似度判定手段は、前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、を備え、前記目標顔画像と前記合成顔画像とから得た前記特徴量を、前記部分空間に射影した座標間のユークリッド距離に基づき、前記部分空間における類似度を判定し、更に、それぞれ異なる評価項目に対応付けられた前記部分空間における類似度に基づき、前記目標顔画像と前記合成顔画像との類似度を判定するようにしたものである。
 これによって、人の感性に基づく評価項目が類似度の判定に用いられるため、利用者の顔と目標顔画像の形態が異なるような場合であっても、的確に類似度を判定することが可能となる。
 また、本発明は、前記評価手段は、前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、前記複数の部分空間において、前記射影手段によって射影された前記特徴量の座標に基づき、前記所定の評価項目毎に前記ランク値を推定するランク推定手段と、を有するものである。
 これによって、人の感性に基づくそれぞれ異なる評価項目がランク値として判定されるため、利用者の顔画像と目標顔画像との間で、例えば「キュート」といった感性的な項目について数値として評価することが可能となる。
 また、本発明は、前記撮像手段は、所定のタイミングで前記利用者の顔画像を繰り返し撮像して更新し、前記評価手段は、更新された前記利用者の顔画像について前記ランク値を出力し、前記表示手段は、更新された前記利用者の顔画像と前記ランク値とを表示するようにしたものである。
 これによって、利用者が美容手法を進めるにつれ、利用者の顔画像とランク値とが更新され、目標顔画像に対して現在の美容手法の状況がどの程度進行しているかを、直観的に判断することが可能となる。
 また、本発明は、前記表示手段は、前記所定の評価項目に対応する軸を有するレーダーチャート上に、前記ランク値を表示するようにしたものである。
 これによって、複数の評価項目について、利用者の顔画像と目標顔画像とのランク値を同時に表示することで、より直観的に両者の関係を把握することが可能となる。
 また、本発明は、前記利用者の顔画像から、年齢または性別の少なくとも一方を推定する属性推定手段を更に備え、前記類似度判定手段は、前記属性推定手段の推定結果に従って、前記特徴量を射影する前記部分空間を決定するように構成したものである。
 これによって、属性推定手段で推定された年齢、性別の違いに基づいて人の感性に基づく評価項目が選択されるため、利用者にとって有用な評価項目のみを用いた類似度の判定が可能となる。
 また、本発明は、前記所定の特徴量を、N次元ベクトルとし、前記部分空間を、前記N次元より小さい次元数の空間としたものである。
 これによって、より次元数の小さい部分空間では、次元数Nの特徴量空間の中から有用な軸のみが取捨選択され、特定の評価項目についての判別能力(分解能)が事実上向上するため、実質的に類似度の精度を向上させることが可能となる。
 また、本発明は、前記互いに異なる美容手法を記憶するメイクアップ手法記憶部を備え、前記メイクアップ手法記憶部は、追記型のデータベースで構成されているものである。
 これによって、最新の流行や季節を反映した化粧品情報に基づいて合成顔画像の生成が可能になる。
 また、本発明は、前記合成顔画像生成手段によって生成された複数の合成顔画像を記憶する合成顔画像記憶部を備え、前記合成顔画像生成手段は、前記メイクアップ手法記憶部の内容が更新されたときに、画像合成の際のベースとなる基本顔画像に対して更新されたメイクアップ手法を適用して前記合成顔画像を生成し、前記合成顔画像記憶部に記憶するようにしたものである。
 これによって、最新の流行や季節を反映した化粧品情報に基づいて合成顔画像の生成が可能になるとともに、同一の被化粧者が異なる目標顔画像との間で類似度を判定したいような場合に、一旦作成した合成顔画像を再利用することが可能となる。
 また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を前記データベースから抽出する美容手法抽出手段と、を有する美容支援システムである。
 これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
 また、本発明は、利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、および前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段を備えるサーバと、を含み、前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を取得する美容支援システムである。
 これによって、利用者はスマートフォン、タブレット端末等の情報端末からサーバにアクセスすることで、的確な美容手法に関する情報を簡易に受け取ることが可能となる。
 また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを表示する表示手段と、を備える美容支援システムである。
 これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
 また、本発明は、利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段、および前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段を備えるサーバと、を含み、前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを取得して、これらを表示する美容支援システムである。
 これによって、利用者はスマートフォン、タブレット端末等の情報端末からサーバにアクセスすることで、的確な美容手法に関する情報およびランク値を受け取って、これを情報端末に表示することが可能となる。
 また、本発明は、利用者の顔画像を撮像し、目標顔画像を入力し、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容支援方法である。
 これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
 また、本発明は、利用者の顔画像を撮像し、目標顔画像を入力し、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、前記類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法、および前記ランク値を表示する美容支援方法である。
 これによって、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
 また、本発明は、利用者の顔画像と目標顔画像とを入力し、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容支援プログラムである。
 これによって、美容支援プログラムを実装した専用機、クライアントサーバシステムの端末、スマートフォン、タブレット端末等において、利用者の顔画像に対して、互いに異なる美容手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より的確な美容手法を提供することが可能となる。
 また、本発明は、利用者の顔画像と目標顔画像とを入力し、前記利用者の顔画像に対して、互いに異なるメイクアップ手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、前記類似度が高いと判断された前記合成顔画像に適用されたメイクアップ手法、および前記ランク値を表示する美容支援プログラムである。
 これによって、美容支援プログラムを実装した専用機、クライアントサーバシステムの端末、スマートフォン、タブレット端末等において、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
 本発明によれば、利用者の顔画像に対して互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像との類似度に基づいて、より目標顔画像に近づくメイクアップ手法を提供するとともに、かつ利用者の顔画像と目標顔画像との相違を人の感性に基づく評価項目として具体的な数値で表示することが可能となる。
本発明の第1実施形態に係る美容支援装置の構成を示すブロック構成図 本発明の第1実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャート 本発明の第1実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャート 合成顔画像を生成する際の画像処理対象を説明する説明図 本発明の第1実施形態に係る美容支援装置において合成顔画像を生成する過程を説明する説明図 本発明の第1実施形態に係る美容支援装置において特徴量を特徴量空間にプロットする過程を説明する説明図 本発明の第1実施形態に係る美容支援装置において特徴量を部分空間に射影する過程を説明する説明図 人の感性に基づく評価項目の内容(感覚的な特性)を示す表 美容支援装置において被化粧者にランク値を表示する過程を説明するフローチャート (a)~(c)は、人の感性に基づく評価項目に対応する部分空間と回帰モデルとの関係を示す説明図、(d)は、各評価項目についてのランク値をレーダーチャートに表示した状態を説明する説明図 表示部における表示内容の例を説明する説明図 本発明の第2実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャート 本発明の第3実施形態に係る美容支援装置の構成を示すブロック構成図 本発明の第4実施形態に係る美容支援装置の構成を示すブロック構成図
(第1実施形態)
 図1は、本発明の第1実施形態に係る美容支援装置1の構成を示すブロック構成図である。以降、図1を用いて第1実施形態の美容支援装置1について、まずは構成および機能について説明する。なお、本実施形態では、利用者として自ら化粧を施す被化粧者が本装置を利用する場合を例に説明するが、化粧以外の美容手法においても、同様の構成を採用することができる。
 図1において、美容支援装置1は、撮像部(撮像手段)2と目標顔画像入力部(入力手段)20と画像処理部3と記憶部4と表示部(表示手段)5とユーザインタフェース6とで構成されている。
 撮像部2は、例えばCCD(Charge Coupled Device Image Sensor)やCMOS(Complementary Metal Oxide Semiconductor)で構成された撮像素子を備えており、例えば15fps(Frames Per Second)の周期で画像を撮像して画像データを出力する。撮像部2で撮像された画像データに対して、例えば撮像部2に内蔵された画像処理回路(図示せず)は、前処理としてデモザイク、色補正、ホワイトバランス補正、γ補正等の公知の画像処理を施す。
 その後、前処理後の画像データに対し、記憶部4に格納されているデータを参照して、画像処理部3によって種々の処理が実行される。なお、画像処理の対象となる画像データは、画像処理部3の各構成要素で所定の処理を施された後、図示しないメモリに一旦格納して、次の構成要素を起動するようにしてもよいし、各構成要素がパイプラインとして動作するようにハードウェアやソフトウェアを構成してもよい。
 なお、図1において表示部5は2つ記載されているが、これは記載上の制約からであり実際は1つとされている。
 記憶部4には、データベースとして、属性推定モデル記憶部4a、評価項目記憶部4b、メイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4eが構築されている。なお、射影行列/回帰モデル記憶部4eに記憶されている射影行列と回帰モデルとはそれぞれ異なるデータである。
 この中でメイクアップ手法記憶部4cおよび合成顔画像記憶部4dは追記型である点で他のデータベースとは異なる。その他は、使用するデータを予め記憶した読み取り専用のデータベースである。後に説明するように、合成顔画像は、合成顔画像生成部(合成顔画像生成手段)12がメイクアップ手法記憶部4cに格納されたデータを参照することで生成され、この生成された合成顔画像が合成顔画像記憶部4dに記憶される。合成顔画像を生成するモードによっては被化粧者の合成顔画像のデータ量が大きくなる場合がある。
 また、後述するように合成顔画像と目標顔画像との間で類似度の判定が行われ、最適なメイクアップ手法が得られた際、合成顔画像を消去してもよいが、一旦生成された合成顔画像を後に流用するようにしてもよい。つまり、同一の被化粧者が他の目標顔画像との類似度を判定するような場合は、生成した合成顔画像を保存しておけば、その都度、合成顔画像を生成する必要がなくなる。
 これらのことから、合成顔画像記憶部4dのデータ容量は他のデータベースと比較して大きくしておく必要がある。そこで、合成顔画像記憶部4dは、いわゆる大容量記憶装置であるハードディスクドライブや、装置構成上、複数の被化粧者のデータを取り扱うような場合は、ハードディスクドライブを複数台で構成して信頼性やデータ転送の高速化を図ったRAID(Redundant Arrays of Inexpensive Disks)で構成するとよい。
 なお、以降の説明では、合成顔画像記憶部4dには、画像データとして合成顔画像格納されているものとするが、これに替えて、後に説明する特徴量抽出部25によって抽出された特徴量を格納してもよい。
 以降、画像処理部3の構成について説明する。第1実施形態に係る美容支援装置1の画像処理部3の機能を端的に説明すると、撮像部2で撮像された画像に含まれる被化粧者の顔画像に対して、合成顔画像生成部12で種々のメイクアップ手法を適用(即ち、シミュレーション)した画像(以降、「合成顔画像」と呼称する)を生成し、類似度判定部22で目標顔画像との類似度を判定し、メイクアップ手法抽出部24で最も類似度が高い合成顔画像の生成に使用したメイクアップ手法を抽出し、このメイクアップ手法を表示部5に表示する。以降、詳細に説明する。
 顔検出部10では撮像部2で撮像された画像から顔画像を検出し、顔画像が含まれる場合はこれを切り出して顔パーツ検出部11に出力する。顔パーツ検出部11は、顔画像から目、鼻、口といった顔パーツを検出する。
 顔検出部10で切り出された顔画像は属性推定部(属性推定手段)27にも送出される。属性推定部27では、属性推定モデル記憶部4aに記憶されている属性推定モデルに基づき顔画像から年齢、性別、人種等の属性を推定する。その推定結果は評価項目決定部28に送られる。そして、評価項目決定部28は推定結果に基づいて、評価項目記憶部4bに記憶している「人の感性に基づくそれぞれ異なる評価項目」から類似度を判定する際に用いる評価項目を決定する。なお、以降の説明においては「人の感性に基づくそれぞれ異なる評価項目」を「人の感性に基づく評価項目」または単に「評価項目」と呼称する。
 目標顔画像入力部20は被化粧者が化粧に先んじて「化粧によってこういう顔にしたい」という目標顔画像を入力するものである。この目標顔画像は、被化粧者が第3者の顔をディジタルカメラ等で撮影して可搬性記憶媒体等を経由して取り込んでもよく、インターネットで女優等の顔写真を検索した画像であってもよく、撮像部2によって直接撮影した動画をキャプチャしたものであってもよい。このように第1実施形態の美容支援装置1は、画像の入力源としてあらゆるソースを許容するため、目標顔画像入力部20に取り込まれた時点の画像には、上述した類似度の判定に全く寄与せず、最初から除外しておくべき部分も含まれる。そこで、目標顔画像入力部20によって取り込まれた画像は、顔検出部21に送られて顔検出を行って顔部分のみが抽出される。なお、図1では顔検出部21は顔検出部10と別に設けられているが、これらは1つとして構成しても構わない。
 次に、類似度判定部(類似度判定手段)22の構成について説明する。類似度判定部22は、特徴量抽出部(特徴量抽出手段)25と部分空間射影部(射影手段)26とユークリッド距離計算部29とで構成されており、上述した、合成顔画像記憶部4dに格納された合成顔画像並びに顔検出部21で切り出された目標顔画像は、類似度判定部22の特徴量抽出部25に入力される。
 特徴量抽出部25は、入力された合成顔画像からGabor特徴またはLBP(Local Binary Pattern)といった局所的特徴量を抽出する。また、特徴量抽出部25は、目標顔画像についても同様にして局所的特徴量を抽出する。このようにして抽出された特徴量は、通常、高次元(N次元)ベクトルを構成する。
 特徴量抽出部25で抽出された特徴量は、部分空間射影部26で所定の部分空間に射影される。ここでいう部分空間とは、特徴量が構成するN次元ベクトルよりも次元が小さいベクトル空間であり、第1実施形態では、上述した人の感性に基づく評価項目と直接対応したベクトル空間である。この部分空間を用いることで、部分空間における合成顔画像と目標顔画像との類似度や、合成顔画像や目標顔画像のランク値(点数)を個別に求めることができる。部分空間の作成方法等については後に説明する。
 また、部分空間射影部26は、属性推定部27によって推定された性別・年齢等に基づいて評価項目決定部28が決定した評価項目に対応する部分空間に、合成顔画像および目標顔画像の特徴量を射影する。この結果、部分空間における合成顔画像および目標顔画像の座標値が決定される。なお、射影は特徴量を構成するN次元ベクトルのうち、これより少ない次元のベクトルを生成する操作であり、例えば射影後の次元数をN1とした場合、N次元ベクトルに対して、N1×Nのマトリクスサイズを有する行列を掛けることに相当する。
 ユークリッド距離計算部29は、部分空間に射影された合成顔画像および目標顔画像の座標値に基づいて、座標間の距離を計算する。そして、メイクアップ手法抽出部(メイクアップ手法抽出手段)24はユークリッド距離計算部29の出力に基づいて、複数のメイクアップ手法のうち最も目標顔画像に近い合成顔画像が得られる手法を選択し、表示部5に表示する。
 次に、評価部(評価手段)40の構成について説明する。評価部40は、特徴量抽出部25と部分空間射影部26とランク推定部(ランク推定手段)41とで構成される。特徴量抽出部25および部分空間射影部26は既に説明したものと同一であるので説明を省略する。ランク推定部41は射影行列/回帰モデル記憶部4eにアクセスし、合成顔画像または目標顔画像の特徴量に基づき、評価項目回帰モデルを用いて各評価項目におけるこれらのランク値を取得し、表示部5に表示する。
 次に、全体制御部7について説明する。美容支援装置1は、上述した各構成要素の動作を制御するハードウェアとして、図示しない演算装置としてのCPU(Central Processing Unit)またはMPU(Micro-Processing Unit)、ASIC(Application Specific Integrated Circuit)、ワークメモリ、プログラムメモリ、これらの構成要素間でデータをやり取りするパラレル/シリアルバス等の公知の構成を備えている。
 なお、図1に示す機能ブロックの全てをハードウェアによって構成する必要はなく、適宜、上述した演算装置等とこれを動作させるソフトウェアを実装してもよいし、更に、以下に示す構成要素の全てを、一般的なカメラ付きノートPC(Personal Computer)、スマートフォンやタブレット端末等に実装してもよい。
 また、美容支援装置1にはユーザインタフェース6が設けられている。ユーザインタフェース6は具体的にはキーボード、マウス、タッチパネルといった入力デバイスで構成され、被化粧者はユーザインタフェース6を操作することで、全体制御部7を介して美容支援装置1に指示を与える。この指示の具体例としては、例えば目標顔画像入力部20における画像の選択指示が挙げられる。
 図2、図3は、本発明の第1実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。以降、図2、図3に図1を併用して、第1実施形態の美容支援装置1の動作と、美容支援装置1で用いられる画像処理アルゴリズムについて説明する。なお、説明に際して、重要なポイントについては、都度図面を追加して説明を行う。
 図2、図3に示すフローチャートはP1,P2,P3の3つのプログラムモジュールで構成されているが、TM1,TM2,TM3は同期点を示している。即ち、プログラムP2は少なくもプログラムP1のステップがTM1に到達するまでに実行されていればよく、プログラムP3は少なくともプログラムP1のステップが最初にTM3に到達するまでに実行されていればよい。なお、プログラムP3は、結合子AでプログラムP1と結合されている。
 まずプログラムP1の処理から説明する。まず、撮像部2で被化粧者の顔が含まれた画像を撮像する(ステップST101)。動画で撮影したものを、ユーザインタフェース6を用いてキャプチャしてもよいし、始めから静止画として撮影してもよい。
 撮像された画像データは上述の前処理を施された後、顔検出部10によって顔検出を行ない、顔検出が成功した否かを判断する(ステップST102)。
 顔検出の一般的な手法として、統計的学習に基づくパターン認識技術を用いることができる。この技術では、識別器のパラメータはあらかじめ与えた学習用サンプルを元に決定される。識別器として、例えばニューラルネットワークや、サポートベクターマシン、ベイズ推定等を用いた手法が知られている。これらの手法は、通常、入力画像から識別に用いる特徴量を抽出する特徴選択技術と、抽出した特徴量を入力として対象物であるか否かを判定する識別器を構築する識別器構築技術と、構築した識別器を使って、画像ウィンドウ内に顔が存在するか否かを判定する技術とから構成される。
 顔の存在の有無を判定する技術として、例えば、4方向面特徴と線形判別分析とを用いる方法が知られている。この技術では、画像内の肌色情報や動き情報により設定した探索領域に対して4方向面特徴を用いたテンプレートにより入力画像の走査探索を行い、線形判別分析によって顔および頭部のパターンに識別される領域を検出する。
 ここで、4方向面特徴とは、脳の視覚野を工学的に模した特徴量で、エッジの形状変動に対してロバストであり、また計算コストが低いといった特徴がある。4方向面特徴は各画素のエッジ勾配を4つの方向面にわり当てて表現したもので、いわゆるGabor特徴を簡略化したような特徴として知られている。
 また、線形判別分析とは、判別対象である2つ以上のクラスタに関して、クラス内分散を最小に、クラス間分散を最大にするような射影行列を求める手法である。そして、入力された特徴量を、線形判別分析で得た写像行列により判別空間へ投影し、判別クラスの平均ベクトルとの距離が最小となるクラスを識別結果とする方法全般をいう。一般にこれらの顔認識技術では、認識の信頼度を算出することができるから、出力された信頼度の値を所定の閾値と比較することで、顔検出が成功したか否かを判定すればよい。
 顔検出が成功していれば(ステップST102でYes)ステップST104に進み、成功していなければ(ステップST102でNo)撮像部2における電荷蓄積時間やフレームレートといったパラメータ調整や、顔検出の閾値調整を行い(ステップST103)、再度被化粧者を撮影する(ステップST101)。もちろん再度の撮像が不要であれば(例えば、画像のコントラスト調整やγ値によって修正が可能な場合)、前処理の段階で画像を修正して顔検出を実行してもよい。また、信頼度と合わせて顔認識が失敗した原因を特定するコードを出力し、これを参照してパラメータ調整を行うことで、顔認識に適した画像を少ない試行回数で撮影することができる。
 さて、ステップST102で顔検出が成功したとしても、顔が含まれる顔枠の枠サイズ、顔枠内での顔の向きや顔の位置は様々であり、この状態で他の顔画像との類似性を評価することはできない。よって、所定の顔枠内に顔が収まるように正規化する必要がある。この手法として、例えば、検出された顔枠に対して目の検出を行い、目の位置を元にして顔画像にアフィン変換を施して顔を正規化する手法、あるいは、検出された顔枠に対してAAM(Active Shape Model)を適用し、顔枠にアフィン変換を施して顔を正規化する手法、が知られている。これらの処理を施すことにより、検出された顔枠は全てサイズが統一され(例えば100×100画素)、顔枠の中心に顔が存在するように正規化される。
 このようにして撮像部2で撮影した画像から顔検出を行った後、顔パーツ検出部11で目、鼻、口といった顔パーツ位置の検出を行い、顔パーツ位置の検出が成功したか否かを判断する(ステップST104)。顔パーツ検出部11では、例えば、四方向面特徴と弛緩整合法とにより人物の違いや顔の向きに依存性を少なくして目、鼻、口といった顔パーツの検出を行うことができる。
 第1実施形態に応用可能な他の技術として、Haar-like特徴を用いて顔と各顔パーツとを検出する手法が知られている。その際、まず、顔パーツの中で最も検出の容易な鼻を基準として、相対的位置関係から各顔パーツの候補領域を推定する。さらに、その候補領域近傍にてHOG(Histogram of Oriented Gradient)特徴量を用いたテンプレートマッチングを行い、顔パーツ位置を微調整するようにしてもよい。なお、HOG特徴量とは予め規定した局所領域(セル)の輝度の勾配方向をヒストグラム化する手法をいい、幾何学的変換がなされた場合でも特徴量を抽出しやすく、また照明の変動についてもロバストであるとされている。
 顔パーツ判定においても検出の信頼度を算出できるため、信頼度を所定の閾値と比較することで顔パーツ検出が成功したか否かを判定できる。顔パーツ検出が成功していれば(ステップST104でYes)ステップST106へと進み、失敗していれば(ステップST104でNo)撮像に関するパラメータ調整を行い(ステップST105)、再度被化粧者を撮影する(ステップST101)。なお、ステップST105の処理はステップST103と同様であるため、詳細な説明は省略する。
 次に合成顔画像生成部12は、メイクアップ手法記憶部4cにアクセスして画像調整パラメータを読み込み(ステップST106)、その後、合成顔画像を生成する(ステップST107)。
 図4は、合成顔画像を生成する際の画像処理対象を説明する説明図である。以降、図4に図1を併用して画像処理対象および画像合成の際に用いる画像調整パラメータの内容について詳細に説明する。
 図4において、AR1~AR6はそれぞれ化粧が施される対象部位(範囲)を示している。具体的にはAR1は顔全体を、AR2はアイブロウを書く範囲を、AR3はアイシャドウを付す範囲を、AR4はアイラインを書く範囲を、AR5はチークを入れる範囲を、AR6はリップを塗る範囲をそれぞれ示している。このうち、AR2~AR5は本来なら顔の左右に現れるが、その一方を省略して描いている。
 合成顔画像は、これらの対象部位のそれぞれに化粧が施された状態をシミュレーションして生成されるが、第1実施形態では簡易モードと詳細モードとの2つに区分して、施される化粧の内容を設定している。
 簡易モードでは、AR1には2色の化粧品(ファンデーション)のうちいずれか(その色をFAC1,FAC2とする)が使用される。AR2には3色の化粧品のうちいずれか(その色をEBC1~EBC3とする)が使用される。AR3には3色の化粧品のうちいずれか(その色をESC1~ESC3とする)が使用される。AR4には2色の化粧品のうちいずれか(その色をELC1,ELC2とする)が使用される。AR5には4色の化粧品のうちいずれか(その色をCEC1~CEC4とする)が使用される。AR6には4色の化粧品のうちいずれか(その色をLPC1~LPC4とする)が使用される。これらを組み合わせたメイクアップ手法は、2×3×3×2×4×4=576通り存在する。なお、以降の説明において、FAC1やLPC1といった色を表す表記を単に「色記号」と呼称する。
 一方の詳細モードでは、AR1には6色の化粧品のいずれか(色記号はFAC1~FAC6)が使用される。AR2には3色の化粧品のうちいずれか(色記号はEBC1~EBC3)が使用され、AR2中に細い、標準、太い、の3種類のいずれかでアイブロウが描かれる。AR3には18色の化粧品のうちいずれか(色記号はESC1~ESC18)が使用され、AR3中に細い、標準、太い、の3種類のいずれかでアイシャドウが付される。AR4には2色のうちいずれか(色記号はELC1,ELC2)が使用される。AR5には4色のうちいずれか(色記号はCEC1~CEC4)が、頬上・頬下・頬全体の3つの位置のいずれかで使用される。AR6には8色のうちいずれか(色記号はLP1~LP8)が使用される。これらを組み合わせたメイクアップ手法は、6×(3×3)×(18×3)×2×(4×3)×8=559872通り存在する。
 メイクアップ手法記憶部4cには、1つのメイクアップ手法に対応した画像調整パラメータとして、色記号、色記号に対応した具体的な化粧品名、これらの化粧品を使って化粧を施した際の肌の色の変化(正確には、輝度、彩度、色相変化)に関する情報(色変化情報)、およびAR2に書かれるアイブロウ等の形状情報(細い、標準、太いに対応した画像データ)、化粧の手順等が記憶されている。
 更に、上述の色変化情報には、撮像部2で撮像した被化粧者の顔画像の肌色の輝度、彩度、色相に応じて、シミュレーションとしての化粧の効果を加減する色調整因子が含まれる。色調整因子は例えばL表色系における修正率として導入されており、これは例えばファンデーションの色に近い肌の色を持つ人に同色のファンデーションを付しても、効果が小さい場合等を考慮したものである。また、化粧とは、技術的には肌の上に紛体または液体を塗布等する行為であるから、例えば、電子写真記録技術分野での特定の色成分(肌色)を有する記録媒体上に特定顔料ないし染料を含む紛体トナーあるいは液体インクを重畳させた場合の層状モデルを援用することで、化粧による輝度(濃度)、色相、彩度変化の予測精度を向上させることができる。
 また、上述の形状情報には、顔パーツの大きさに応じたスケーリング調整因子が含まれる。この調整因子は、例えば別途検出された顔画像から目の水平方向の大きさに基づいて、アイラインやアイブロウの水平方向サイズ、傾斜等を調整するものである。
 図5は、本発明の第1実施形態に係る美容支援装置1において合成顔画像を生成する過程を説明する説明図である。以降、図1、図2、図5を用いて説明を続ける。合成顔画像生成部12は、データベースであるメイクアップ手法記憶部4cから色変化情報、形状情報、色調整因子、スケーリング調整因子、化粧の手順といった画像調整パラメータを取得し、顔パーツ検出部11によって検出された各顔パーツの位置を参照して、被化粧者の顔画像と画像調整パラメータの値に基づいて、合成顔画像を生成する(ステップST107)。そして、この処理は、上述したAR1~AR6の全ての組み合わせについて、即ち、簡易モードであれば576通り、詳細モードであれば559872通りの合成顔画像を生成するまで実行される(ステップST108でYes)。そして、生成された合成顔画像は合成顔画像記憶部4dに保存される。
 より具体的には、図5に示すように、例えば合成顔画像1ではAR1に対してFAC1を、AR2に対してEBC2を、AR3に対してESC1を、AR4に対してELC2を、AR5に対してCEC2を、AR6に対してLPC3を適用して合成顔画像を生成する。更に、これをAR1~AR6の全ての組み合わせについて実行して、合成顔画像1~合成顔画像M(簡易モードではM=576)までを生成する。
 なお、以降の説明では「メイクアップ手法」というときは、1つの合成顔画像を生成した際に、AR1~AR6に対して施されたメイクアップの組み合わせパターンを意味する。即ち、合成顔画像のそれぞれは、互いに異なるメイクアップ手法に対応したものとなる。
 図6は、本発明の第1実施形態に係る美容支援装置1において特徴量を特徴量空間にプロットする過程を説明する説明図である。
 以降、図1、図2、図6を用いて説明を続ける。次に特徴量抽出部25は、合成顔画像記憶部4dに一旦格納された被化粧者の合成顔画像を取り出し、特徴量抽出を行って特徴量空間にプロットする(ステップST109)。
 第1実施形態では、特徴量としてGabor特徴量、あるいはLBP(Local Binary Pattern)を用いている。Gabor特徴量はsin/cos関数をガウス関数で局在化したGaborフィルタによって抽出される。即ち、画像データに対してGaborフィルタを畳み込み演算することで、エッジおよびそのエッジの輝度値(強度)を抽出することができる。この特徴量は局所的な特徴を抽出することから照明変動の影響を受けにくいとされている。
 また、LBP特徴量とは、注目画素とその周囲8画素との輝度値の比較を行って得たビット列を特徴量としたものである。この特徴量に基づいて局所領域に存在するエッジを抽出することができる。このLBPも照明変動の影響を受けにくく、更に計算コストが小さい手法として知られている。また、LBPはビット列、即ち数値であるから、画像に対してLBPの数値を抽出しておき、その数値をランク、その出現頻度を度数とするヒストグラムを特徴量として用いてもよい。具体的には、合成顔画像を複数のブロックに分割し、各ブロック内でLBP特徴量のヒストグラムを生成し、それらを連結させたベクトルを最終的なLBP特徴量ベクトルとして使用すればよい。
 このように、Gabor特徴量やLBP特徴量は、元々エッジが存在しなかった場所にエッジが現れた場合(アイシャドー、アイライン、チーク等)、その変化を抽出することができる。特に、Gabor特徴量は、元々エッジが存在した箇所のエッジを更に際立たせた場合(アイライン、リップ等)やファンデーションで顔全体の輝度値が変化した場合であっても、その変化を抽出することができる。
 これらの操作により各々の画像は輝度ベクトルから特徴量ベクトルに変換され、図6に示す特徴量空間にプロットされる。なお、特徴量空間は後に説明する人の感性に基づく評価項目を反映するものではない。しかしながら、特徴量空間は上述した特徴量を介して全体的な見た目を表すものであり「見た目の空間」ともいえるものである。従って、特徴量空間において2つの画像から抽出した特徴量をプロットした座標が近接しているということは、2つの画像の見た目が似ていることに他ならない。
 なお、第1実施形態では合成顔画像を上述したように100×100画素に正規化し、この正規化画像からGabor特徴量、あるいはLBP特徴量を得ている。
 図7は、本発明の第1実施形態に係る美容支援装置1において特徴量を部分空間に射影する過程を説明する説明図であり、図8は、人の感性に基づく評価項目の内容(感覚的な特性)を示す表である。
 以降、図2、図7、図8を用いて説明を続ける。ステップST110では、上述の特徴量ベクトルを、人の感性に基づく評価項目に対応した部分空間に射影する。
 ここで図8に示すように、第1実施形態では、例えば、~20歳の女性については「女性らしさ」「キュート」「子供っぽさ」が評価項目として設定される。そして、20歳~30歳の女性については、「女性らしさ」「キュート」「ギャル」「小悪魔」「セクシー」の5つが評価項目として設定される。
 以降、図7に示す「女性らしさ」や「キュート」等に対応する部分空間の作成方法について詳細に説明する。まず、評価項目である「キュート」等に対応する部分空間を統計的学習手法により予め求めておく。例えば、「キュート」の部分空間を生成する場合、予めM個の学習用顔画像に対して上述したGabor特徴量、あるいはLBP特徴量を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報。例えば1~10のようなランク値であり、数値が大きいほど「キュート」の度合いが大きいことを意味する)を付与しておく。
 ここで前述した特徴量と同一の特徴量ベクトルをM個の学習用顔画像から抽出しておけば、学習ベクトル・ラベルのセット(数1)が得られる。
Figure JPOXMLDOC01-appb-M000001
ここで特徴量ベクトルxの次元数をNとする。
 一般に特徴量ベクトルxは高次元のベクトルとなるため、次元数Nの中から有用な軸のみを取捨選択する操作(次元削減)が必要となる。特徴量ベクトルxがラベル情報を持たない場合、主成分分析(PCA:Principle Component Analysis)が一般的に広く用いられるが、上述したように特徴量ベクトルxが「キュート」値yのようにラベル情報を持つ場合、フィッシャー線形判別分析(FDA : Fisher Discriminant Analysis)、局所フィッシャー線形判別分析(LFDA : Local Fisher Discriminant Analysis)などが有用である。
 ここで線形判別分析とは、ラベル情報を元にして特徴量ベクトルxをクラスタリングし、各クラスタのクラス内の分散が小さく、かつクラス間の分散が大きくなるような低次元空間に射影する手法である。この低次元空間を次元数Nの空間の部分空間と呼ぶ。
 ベクトル・ラベルのセット(数1)から線形判別分析を用いて射影行列Wを算出し、この射影行列Wを予め記憶部4の射影行列/回帰モデル記憶部4eに格納する。この操作は全ての評価項目について実行される。即ち、射影行列Wは人の感性に基づく評価項目の個数だけ生成される。そして、この射影行列WはステップST110において、合成顔画像から得た特徴量を各評価項目に対応する部分空間に射影する際に使用される。特徴量を部分空間に射影することで、特徴量は部分空間の座標にプロットされる。
 以上、プログラムP1についてステップST101~ステップST110まで説明したが、以降、説明の便宜から図3に示すプログラムP3の処理について説明する。プログラムP3は目標顔画像を入力して、その特徴量を取得する処理を行う。
 プログラムP3では、イメージセンサを有する図示しない撮像部を用いて、目標顔画像を取得すると想定しており、まず撮像部としての目標顔画像入力部20から目標顔画像を入力する(ステップST301)。次に、入力された画像から顔を検出して顔検出が成功したか否かを判断する(ステップST302)。顔検出が成功していなければ(ステップST302でNo)、パラメータ調整を行って(ステップST303)、再度目標顔画像の撮影を行う(ステップST301)。なお、ステップST301~ステップST303の過程はプログラムP1のステップST101~ステップST103と同様であり、例えば、これらのステップで説明したパラメータ調整を行うとよい。
 次に取得した目標顔画像を図示しないメモリに保存し(ステップST304)、目標顔画像について特徴量を抽出し、これを保存する(ステップST305)。そしてこの特徴量をベクトルとして取扱い、既に説明した評価項目に対応する部分空間に射影し、これを保存する(ステップST306)。ただし、ST306を実行する際には、評価項目が定まっている必要があるため、ST306の実行はプログラムP2のST204で評価項目が決定されるのを待って行われる。ここで抽出する特徴量および評価項目、部分空間についてはプログラムP1のステップST109、ステップST110で説明したものと全く同じであるので説明を省略する。以上によってプログラムP3の処理が終了し、処理は結合子AでプログラムP1に引き継がれる。
 なお、上述したように、目標顔画像の入力源はあらゆるソースが許容されており、個々の目標顔画像は撮像時の照明条件が異なる場合が多いと考えられる。これに対して、第1実施形態で使用しているGabor特徴量やLBP特徴量は局所的統計量であることから、照明の影響を小さくすることができる。
 以降、図2のプログラムP1に戻って、ステップST111以降の処理について説明する。なお、説明に際して図7を参照する。
 上述したステップST305によって、目標顔画像の特徴量空間における座標(即ち、特徴量ベクトルそのもの)が取得され、ステップST306によって、目標顔画像の特徴量ベクトルを各評価項目に対応した部分空間に射影(プロット)した座標が取得されている。
 ステップST111では、評価項目の1つである例えば「キュート」の部分空間について、ユークリッド距離計算部29は、被化粧者の1枚の合成顔画像の特徴量ベクトルを部分空間に射影したベクトルPおよび目標顔画像の特徴量ベクトルを部分空間に射影したベクトルQを取り出し、これらのユークリッド距離d(P,Q)を(数2)を用いて計算する。
Figure JPOXMLDOC01-appb-M000002
 なお、(数2)において、nは部分空間の次元数、yはベクトルPの第i軸の値、xはベクトルQの第i軸の値を示す。
 即ち、図7に示すように、「キュート」の部分空間において、合成顔画像1の座標位置と目標顔画像の座標位置との距離を計算する。距離が近いほど2つの画像は「キュート」部分空間で類似することになる。そして、ステップST111では、各評価項目、即ち「女性らしさ」、「セクシー」、「小悪魔」といった他の評価項目に対応した部分空間においても同様にして合成顔画像1と目標顔画像との座標間距離を求める。この処理によって、1つの合成顔画像について予め定めておいた複数の評価項目について類似度が算出される。
 なお、類似度はユークリッド距離をそのまま用いてもよく、この場合は両者が類似するほど類似度の値は小さくなる。ただし、このように取り扱うと人の感覚とは逆となるため、例えばユークリッド距離=0のときに類似度が100となるような数値変換を行っておくと、人の感覚との整合性を図ることができる。なお、以降の説明においても、ユークリッド距離が小さい場合を類似度が高いと表現する。
 このようにして、全ての評価項目についての類似度が算出されるが、合成顔画像と目標顔画像との「総合的な類似度」については、例えば各評価項目の類似度の平均値を用いることができる。即ち、第1実施形態では、画像間の類似を人の感性に基づく評価項目のそれぞれについて行い、各評価項目の類似度を総合して類似度を判定している。
 次に、ステップST112では、全ての合成顔画像について上記の処理が完了しているかを評価し、完了していなければ(ステップST112でNo)ステップST109に戻って、合成顔画像記憶部4dから次の合成顔画像を取得して上述の処理を繰り返す。これによって全ての評価項目について、全ての合成顔画像と目標顔画像との類似度が計算される。全ての合成顔画像について類似度(総合的な類似度)の計算が完了している場合(ステップST112でYes)は、メイクアップ手法抽出部24は、目標顔画像に対して総合的な類似度が最も高くなる合成顔画像を生成する際に用いたメイクアップ手法(以降、「最適なメイクアップ手法」と呼称する)を特定し、メイクアップ手法記憶部4cにアクセスしてメイクアップ手法の具体的内容(使用する化粧品、化粧の手順等)を取り出し、これを所定のメモリ領域に保存する(ステップST113)。以上で、プログラムP1の処理が終了する。
 以降、プログラムP2の処理について説明する。第1実施形態において、上述した人の感性に基づく評価項目は、被化粧者の性別と年齢とを推定した結果に基づいて決定される。
 プログラムP2は、少なくともプログラムP1において顔検出が成功した(ステップST102でYes)タイミング以降に起動される。なお、被化粧者の顔画像は既に正規化されているものとする。まず、被化粧者の顔画像から特徴量を抽出する(ステップST201)。性別、年齢は、例えば目や口、顔の輪郭、しわ等に着目して推定することができ、特徴量として例えば4方向面特徴を利用することができる。
 次に、属性推定モデル記憶部4aにアクセスして属性推定モデルを読み込む(ステップST202)。以降、属性推定モデルの作成方法について説明するが、簡単のために性別の推定に関してのみ説明する。まず、「性別」に対応する属性推定モデルを統計的学習手法により予め求めておく。「性別」の属性推定モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「性別」、即ち「男性」または「女性」を示す値y(ラベル情報)を付与しておく。
 その後、入力xに対する出力y(性別)の属性判定モデルを学習する。学習方法として、例えば線形判別分析、SVM(Support Vector Machine)、AdaBoostなどが知られている。
 なお、属性推定モデルの学習に用いる顔データベースとして、例えば、NIST(National Institute of Standards and Technology)や、FERET(The Facial Recognition Technology)が知られている。特に日本人女性の顔を推定の対象とする場合はJAFFE(Japanese Female Facial Expression)顔データベースを利用することができる。
 次に、年齢、性別推定を実行する(ステップST203)。具体的には、検出された被化粧者の顔画像から抽出した特徴量(特徴量ベクトル)を用いて属性推定モデルにアクセスすることで、年齢、性別が直接的に出力される。なお、一般的には、属性推定モデルは関数の一種であり、属性推定モデルが定義する空間の座標には「性別」「年齢」等の値が対応づけられている。これにより、特徴量ベクトルを属性推定モデルに入力することで、直ちに性別、年齢を得ることができる。
 そして、属性推定モデルをアクセスして得た年齢、性別に基づいて、評価項目記憶部4bがアクセスされ、類似度判定等に用いる評価項目が決定され、所定のメモリ領域に保存される(ステップST204)。なお、ユーザインタフェース6を用いて、被化粧者が類似度判定に使用する評価項目を任意に定められるようにしてもよく、また、後述するランク値を出力する評価項目を任意に選択可能としてもよい。以上で、プログラムP2の処理が終了する。そして、保存された評価項目は、既に説明したステップST110で参照されて、これに対応した部分空間において類似度の算出が行われる。
 なお、以上説明した属性推定モデルは、入力された顔画像から人の性別と年齢とを推定するものであるが、これに加えて、例えば人種(コーカソイド、モンゴロイド、ネグロイド)を判別させるようにしてもよい。そして、このような人種の属性に応じて評価項目を決定してもよい。
 さて、これまでの説明では、被化粧者の顔画像に様々なメイクアップ手法を適用した合成顔画像と、目標顔画像との類似度を判定するための構成およびプロセスについて説明した。一方、被化粧者にとっては類似度とは別に、例えば「キュート」といった評価項目についての目標顔画像のランク値と化粧前のランク値、そして化粧を進めていく被化粧者のランク値とがリアルタイムに判定できると使い勝手が向上する。
 図9は、美容支援装置1において被化粧者にランク値を表示する過程を説明するフローチャートである。このフローチャートに示されるプログラムP4は、例えば図2を用いて説明したプログラムP1が終了した時点で起動されてもよいし、被化粧者が任意に起動してもよい。
 以降、図9と図1とを用いて各評価項目に対してランク値、メイクアップ手法、目標顔画像、被化粧者の顔画像をリアルタイムに表示する過程について説明する。なお、ランク値は評価部40によって付与される。
 まず、プログラムP1のステップST113で保存した、最適なメイクアップ手法の具体的内容を取り出す(ステップST401)。次に、プログラムP2のステップST204で保存した評価項目、あるいは被化粧者が任意に選択した評価項目を読み込む(ステップST402)。次に、射影行列/回帰モデル記憶部4eにアクセスして、予め射影行列/回帰モデル記憶部4eに記憶しておいた各評価項目の回帰モデルを読み込む(ステップST403)。
 以降、回帰モデルの作成方法について説明する。まず、図8に示す各評価項目(「女性らしさ」、「セクシー」、「キュート」等)に対応する部分空間における回帰モデルを統計的学習手法により予め求めておく。例えば、「キュート」の回帰モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報)を付与しておく。
 その後、評価項目「キュート」の射影行列Jを上述した線形判別分析で求めた後、特徴量ベクトルを射影した後の低次元空間において、入力xに対する出力y(ランク値)の回帰モデルを学習する。学習方法として、例えば線形回帰、ベイズ線形回帰、SVR(Support Vector Regression)などが知られている。このように、回帰モデルを用いることで、未知の特徴量ベクトルが入力された場合にランク値を推定することが可能となる。なお、第1実施形態では回帰モデルの他に、例えばニューラルネットワーク等を用いてランク値を推定するようにしてもよい。
 被化粧者の顔画像に基づいて、特徴量抽出部25で特徴量(特徴量ベクトル)を抽出し、部分空間射影部26で射影行列Jを掛け合わせることで射影ベクトルが生成され、この射影ベクトル(座標)を用いてランク推定部41で回帰モデルをアクセスすることで、入力した特徴量に対応した、例えば「キュート」のランク値が直接的に出力される。なお、一般的には、回帰モデルは関数の一種であり、回帰モデルが定義する空間の座標には「キュート」等の各評価項目のランク値が対応づけられている。これにより、特徴量ベクトルに各回帰モデルに対応した射影行列Jを掛け合わせ、回帰モデルに入力することで、直ちに評価項目についてのランク値を得ることができる。このような構成では部分空間射影部26がランク推定部41を包含することとなり、これらを合わせていわば回帰モデル射影部として機能する。
 次に、既に説明したプログラムP3のステップST304で保存しておいた、目標顔画像を読み込む(ステップST404)。次に、プログラムP3のステップST305で保存しておいた、目標顔画像の特徴量を読み込む(ステップST405)。次に、読み込んだ特徴量を、部分空間射影部26によって各評価項目の回帰モデルに入力することで(ステップST406)、評価項目ごとにランク値が得られる。なお、この過程におけるデータパスは図1に示されていないが、具体的には全体制御部7が図示しないメモリから目標顔画像の特徴量を読み込んで、これを直接的に部分空間射影部26に渡すことで実行される。
 次に、ステップST404で読み込んだ目標顔画像と、ステップST401で読み込んだ最適なメイクアップ手法の具体的内容とを表示部5に表示する(ステップST407)。
 次に、ステップST406で求めた目標顔画像(正確には、その特徴量)に対する各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST408)。
 次に、化粧を行おうとしている被化粧者を撮像部2で撮影する(ステップST409)。
 次に、既にステップST102で説明したのと同様に、顔検出部10で被化粧者の顔を検出し、顔検出が成功したか否かを判定する(ステップST410)。顔判定が失敗していれば(ステップST410でNo)撮像パラメータを調整して(ステップST411)再度被化粧者を撮影する(ステップST409)。一方、顔検出が成功していれば、次に、特徴量抽出部25で被化粧者の顔画像の特徴量を抽出する(ステップST412)。抽出される特徴量については、既にプログラムP1のステップST109と同じであるため説明を省略する。なお、連続フレーム間で顔領域を追跡(トラッキング)してもよい。
 次に、部分空間射影部26は、得られた特徴量を特徴量ベクトルとして評価項目毎に作成しておいた射影行列Jと掛け合わせて、回帰モデルに入力する(ステップST413)。これを評価すべき評価項目全てに行うことで、全ての評価項目について被化粧者の現在の(例えば、化粧中の)ランク値が抽出される。
 次に、ステップST409で得た被化粧者の顔画像を表示部5に表示する(ステップST414)。
 次に、ステップST413で得た各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST415)。
 ステップST415が終了すると、所定のインターバル期間を置いた後、ステップST409に戻って、再度被化粧者の顔画像の撮影が行われる。なお、上述したステップST409~ステップST415は無限ループを構成するが、インターバル期間の間にユーザインタフェース6のキー入力等を検出した場合に当該ループから離脱するように構成してもよい。このループにより、撮像部2は、所定のタイミングで被化粧者の顔画像を繰り返し撮像して更新し、評価部40は、更新された被化粧者の顔画像についてランク値を出力し、表示部5は、更新された被化粧者の顔画像とランク値とをリアルタイムに表示する。
 図10(a)~(c)は、人の感性に基づく評価項目に対応する部分空間と回帰モデルとの関係を示す説明図、(d)は、各評価項目についてのランク値をレーダーチャートに表示した状態を説明する説明図である。
 図10(a)は、評価項目「女性らしさ」の部分空間と、この部分空間内に学習された「女性らしさ」回帰モデルとの関係を、同(b)は評価項目「セクシー」の部分空間と、この部分空間内に学習された「セクシー」回帰モデルとの関係を、同(c)は、評価項目「ギャル」の部分空間と、この部分空間内で学習された「ギャル」回帰モデルとの関係を示している。図10(a)~(c)は、ランク値を表す座標軸の他に3軸を示しているが、部分空間は多次元空間であり、一般的に座標軸の数(次元数)は膨大である。そして、各図において、回帰モデルは曲線で表現されているが、実際は多次元空間に存在する超平面、あるいは超曲面である。
 以降、簡単のために図10(a)について説明を行う。ここで、曲線上に付した2点は黒丸が目標顔画像の特徴量を「女性らしさ」部分空間に射影した座標であり、この座標におけるランク値が9点であることを示している。一方のハッチ入り丸は被化粧者の顔画像の特徴量を同様に射影した座標であり、この座標におけるランク値が5点であることを示している。図10(b),(c)も同様である。即ち、各部分空間において、ランク値の軸を参照することで目標顔画像および被化粧者顔画像のランク値が定まっている。
 これを図10(d)に示すようなレーダーチャート上にプロットする。レーダーチャートは中心ほどランクが低く、外側ほどランクが高く設定され、中心から外向きに設けられた5つの軸がそれぞれ評価項目を示している。図10(d)では、各評価項目において目標顔画像のランク値を結んだものを二点鎖線で示し、被化粧者の顔画像のランク値を結んだものを一点鎖線で示している。
 上述したプログラムP4のステップST409~ステップST415で説明したように、被化粧者の顔画像は周期的に撮影されて、その都度各評価項目におけるランク値が判定されるから、被化粧者が化粧を進めて、被化粧者の顔画像が目標顔画像に類似していくほど、図10(d)のレーダーチャートの各評価項目の値が大きく(または小さく)なり、理想的には目標顔画像の略同等の範囲を占めるようになる。このレーダーチャートで特徴的な事項は、たとえ化粧の手本となる目標顔画像であっても、各評価項目のランク値は最大の値を採るとは限らず、あくまでも回帰モデルで決定される値だということである。これは、各評価項目について、有限な学習を限度として絶対基準を定めていることに他ならない。
 これによって、被化粧者は自分が好みとするメイクアップの方向性がどのような特性を持っているのか(即ち、レーダーチャート上の分布がどの評価項目に偏っているか)を直観的に理解することができる。また、被化粧者は各評価項目におけるランク値が全体的に高いものを選ぶ場合もあれば、その日の気分でより「キュート」や「女性らしい」といった感覚的なイメージの化粧を施したい場合も多いと考えられる。このように、被化粧者が理想とする化粧は様々な事由によって変化するものであるが、本発明はこのような被化粧者の幅広い要求に十分に対応することが可能である。
 図11は、表示部5における表示内容の例を説明する説明図である。図11に示すように、第1実施形態では、表示部5には、既に説明したステップST404で取得した目標顔画像と、ステップST409で撮影された被化粧者の顔画像と、ステップST401で取得した最適なメイクアップ手法とが表示され、ステップST406及およびステップST413で特徴量を回帰モデルに入力することで得たランク値がレーダーチャート上にプロットされる。ここで、メイクアップ手法については、上述した色記号だけでなくその色記号の色を実現するための化粧品名を表示してもよく、また合成顔画像を詳細モードで作成した場合は、これと併せてアイブロウやアイシャドウの形状を表示してもよい。
 そして、プログラムP4で説明したように、被化粧者の顔画像の撮影は周期的に繰り返され、更新された顔画像に基づいてレーダーチャート上にプロットされるランク値がリアルタイムに刻々と変化する。
 さて、以上説明したプログラムP1~プログラムP4は、例えばアプリケーションソフトウェアとして頒布され、スマートフォンやタブレット端末等の情報端末に実装されたハードウェア上で動作させることが可能である。図1に示す各構成要素は、例えばスマートフォンにおいては、撮像部2が内蔵カメラ、表示部5が有機ELや液晶で構成された表示パネル、目標顔画像入力部20が内蔵カメラまたは可搬性記憶媒体等を装着するインタフェース、画像処理部3がCPUおよび周辺システム、記憶部4がSSD(Solid State Drive)やハードディスクドライブ等の大容量記憶装置に対応する。
(第2実施形態)
 図12は、本発明の第2実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。第1実施形態において、プログラムP2はステップST109とステップST110との間に設けられた同期点TM1までに処理を完了するように制御されている。一方、第2実施形態においては、プログラムP2はステップST104とステップST106との間に設けられた同期点TM2までに処理を完了するように制御されることが大きな特徴となっている。
 既に説明したように、プログラムP2は被化粧者の性別や年齢等の属性を推定することで評価項目を決定する。第2実施形態では、合成顔画像を生成する前に評価項目の決定を行う。このプロセスを採用することで、合成顔画像の生成に際して、属性推定の結果を反映させることが可能となる。上述したように、属性推定においては例えば人種を推定することが可能であるから、推定された人種に応じてメイクアップ手法記憶部4cから異なる化粧品の群に基づくメイクアップ手法を選択することができ、より的確な合成顔画像の生成が可能となる。もちろん、合成顔画像の生成に際して、人種のみならず性別や年齢に応じて異なるメイクアップ手法が選択されるように構成することも可能である。
(第3実施形態)
 図13は、本発明の第3実施形態に係る美容支援装置1の構成を示すブロック構成図である。第1実施形態において、合成顔画像の生成に利用されるメイクアップ手法を記憶するメイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4e、合成顔画像生成部12、類似度判定部22、ランク推定部41、メイクアップ手法抽出部24は、いずれも美容支援装置1に設けられていた。一方、第3実施形態においては、上述の構成要素を美容支援装置1の外部に配置したことが大きな特徴となっている。
 図13において、美容支援装置1はインタフェース42を備え、これを介してインターネット等の外部ネットワーク100にアクセス可能に構成されている。この外部ネットワーク100にはサーバ45が(一般に、美容支援装置1とは異なる場所に)インタフェース43を介して接続されている。即ち、図13はいわゆるクラウドを利用した美容支援システムの構成を示している。このシステムでは、第1実施形態で説明した画像処理部3の主要構成要素がサーバ45に設けられる。
 サーバ45は、データベースとしてメイクアップ手法記憶部4cと合成顔画像記憶部4dと射影行列/回帰モデル記憶部4eとを備える。更に、サーバ45は、類似度判定部22を構成する特徴量抽出部25と部分空間射影部26とユークリッド距離計算部29と、これらの構成要素に付随してランク推定部41、メイクアップ手法抽出部24とを備える。そして、ランク推定部41が出力するランク値およびメイクアップ手法抽出部24が出力する「最適なメイクアップ手法」は、サーバ45のインタフェース43、外部ネットワーク100、インタフェース42を経由して美容支援装置1に取り込まれ、これらは表示部5に表示される。これらの構成要素は制御部48によって、その動作全般を制御される。もちろん、これらの全ての構成要素をコンピュータシステムとしてのサーバをそのまま利用して実現してもよい。
 図13に示すデータパスは、インタフェース42と外部ネットワーク100とインタフェース43とを経由することで一旦集約されるものの、画像データや画像処理後のデータや様々なパラメータ等は、図1に示す構成と同様に各構成要素間を渡されていく。
 第1実施形態において説明したように、合成顔画像は簡易モードまたは詳細モードの2つの設定で生成される。特に詳細モードにおいては、合成される顔画像の数は例えば559872通りと多数となる。そして、生成される合成顔画像そのものは、新たなメイクアップ手法が追加、削除、修正されない限り(つまり、メイクアップ手法に影響を与える化粧品が販売されたりしない限り)、不変のものである。このように、生成された合成顔画像が格納される合成顔画像記憶部4dは、通常は参照用(読み取り専用)のデータベースとしての性格を有している。
 しかしながら、実際問題として化粧品には流行性があり、また季節によっても使用される化粧品は変化するため、制御部48は外部ネットワーク100を介して新たな化粧品情報を逐次入手し、この化粧品情報に基づいて複数のメイクアップ手法を再構築するとともに、メイクアップ手法記憶部4cの内容を更新する。
 ここで、合成顔画像記憶部4dには複数のメイクアップ手法をシミュレートされた合成顔画像の他に、画像合成の際のベースとなる基本顔画像(いずれのメイクアップ手法も施されていない被化粧者の顔画像)も記憶されている。そこで、制御部48は、市場において化粧品が更新されると、外部ネットワーク100を介して被化粧者の意向を確認した上で、基本顔画像に更新されたメイクアップ手法を適用して新たに合成顔画像を生成し、これを合成顔画像記憶部4dに格納する。即ち、メイクアップ手法記憶部4cおよび合成顔画像記憶部4dは追記型のデータベースを構成する。このようにすることで、同一の被化粧者が異なる目標顔画像との間で類似度を判定したいような場合に、改めて合成顔画像を生成する必要がなくなる。なお、合成顔画像に代えて抽出した特徴量を記憶するようにしてもよい。
 もちろん、合成顔画像記憶部4dを常に空の状態としておき、被化粧者が美容支援装置を使用するときのみ、合成顔画像記憶部4dに被験者の合成顔画像を保存してもよい。そして、類似度判定に基づいて最適なメイクアップ手法を決定した後、合成顔画像記憶部4dに保持していた合成顔画像を全て破棄するようにしてもよい。このようにすることで、合成顔画像記憶部4dは動的に運用されるため、合成顔画像記憶部4dの記憶容量を小さくすることができる。
 このように、第3実施形態では、画像処理演算を実行するサーバ45を、美容支援装置1と切り離したことで、処理がネットワーク上で分散され、データベース破壊等のリスクが分散されると共に、処理負担の大きい演算をクラウド側で実行することが可能となり、クラウドコンピューティングによるサービスの提供が可能となる。
 以上説明したように、第3実施形態によって、被化粧者は常に最新の化粧品を活用して、目標顔画像に近づく化粧を行うことが可能となる。また、美容支援装置1の外部にこのようなデータベースおよび画像処理演算を実行する主体を構築しておくことで、被化粧者は例えばスマートフォンやタブレット端末といった情報端末を有していれば、外部ネットワーク100を介してサーバ45に接続することで美容支援のサービスを享受することができる。
(第4実施形態)
 図14は、本発明の第4実施形態に係る美容支援装置1の構成を示すブロック構成図である。第1実施形態において、互いに異なるメイクアップ手法によって生成される合成顔画像と目標顔画像との類似度は、両者から抽出した特徴量を、人の感性に基づく評価項目に対応した部分空間に射影し、部分空間におけるユークリッド距離に基づいて求めていた。そして、被化粧者の顔画像と目標顔画像とから抽出した特徴量を部分空間射影部26で各評価項目の回帰モデルに入力することで、各評価項目のランク値を求めていた。第4実施形態においては、このうち合成顔画像と目標顔画像との類似度を、特徴量空間において計算するように構成したことが大きな特徴となっている。
 撮像部2で撮影された被化粧者の顔画像と、互いに異なるメイクアップ手法から合成顔画像を生成し、この合成顔画像に基づいて特徴量を取得する過程、また目標顔画像入力部20で入力された目標顔画像に基づいて特徴量を取得する過程は、第1実施形態と同様であるので説明を省略する。
 第1実施形態で説明したように、合成顔画像および目標顔画像から抽出される特徴量は多次元ベクトルを表している。従って、特徴量抽出部25で抽出したこれらの特徴量を、部分空間射影部26を介さずに直接ユークリッド距離計算部29に渡し、(数2)を用いて両特徴量のユークリッド距離を求めることができる。これによって図3に示す「見た目の空間」において、合成顔画像と目標顔画像との類似度が算出される。これを全ての合成顔画像に対して行って、メイクアップ手法抽出部24において、最もユークリッド距離が小さくなる合成顔画像を生成したメイクアップ手法を抽出する。
 このように第4実施形態では、個々の評価項目とは無関係に全体の見えに基づき類似度が判定されることになるが、例えば被化粧者が多数の評価項目を選択したような場合と比較して計算コストを低減することが可能となる。従って、使用する評価項目の数に応じて、特徴量空間と部分空間とのいずれを類似度計算に使用するかを定めておくとよい。
 そして、この場合であっても、被化粧者の顔画像と目標顔画像とに基づくランク値の推定は、部分空間射影部26とランク推定部41とによって独立して行われるため、美容支援装置1の使用に際して特に制約が生じることもない。
 以上、第1実施形態~第4実施形態として本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムについて説明した。これらの説明において、類似度を算出する対象としては、互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像とを例示し、ランク値を算出する対象としては、被化粧者の顔画像(化粧中の顔画像)と目標顔画像とを例示したが、本発明は顔に対して施されるメイクアップの分野のみならず、例えばヘアアレンジ、美容整形といった分野にも応用することが可能である。
 本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムは、被化粧者が化粧を施すにあたって最適なメイクアップ手法を的確に抽出することができることから、美容支援を行う専用機、美容支援を行うための端末機器とサーバ、美容支援プログラムが実装されるコンピュータ、スマートフォン、タブレット端末等に好適に利用することができる。
1   美容支援装置
2   撮像部(撮像手段)
3   画像処理部
4   記憶部
4a  属性推定モデル記憶部
4b  評価項目記憶部
4c  メイクアップ手法記憶部
4d  合成顔画像記憶部
4e  射影行列/回帰モデル記憶部
5   表示部(表示手段)
6   ユーザインタフェース
7   全体制御部
10  顔検出部
11  顔パーツ検出部
12  合成顔画像生成部(合成顔画像生成手段)
20  目標顔画像入力部(入力手段)
21  顔検出部
22  類似度判定部(類似度判定手段)
24  メイクアップ手法抽出部(メイクアップ手法抽出手段)
25  特徴量抽出部(特徴量抽出手段)
26  部分空間射影部(射影手段)
27  属性推定部(属性推定手段)
28  評価項目決定部
29  ユークリッド距離計算部
40  評価部(評価手段)
41  ランク推定部(ランク推定手段)
45  サーバ

Claims (18)

  1.  利用者の顔画像を撮像する撮像手段と、
     目標顔画像を入力する入力手段と、
     前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
     前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容手法抽出手段と、を有することを特徴とする美容支援装置。
  2.  利用者の顔画像を撮像する撮像手段と、
     目標顔画像を入力する入力手段と、
     前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
     前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力する評価手段と、
     前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用された美容手法および前記ランク値を表示する表示手段と、を備えることを特徴とする美容支援装置。
  3.  前記類似度判定手段は、
     前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、
     前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、を備え、
     前記目標顔画像と前記合成顔画像とから得た前記特徴量を、前記部分空間に射影した座標間のユークリッド距離に基づき、前記部分空間における類似度を判定し、更に、それぞれ異なる評価項目に対応付けられた前記部分空間における類似度に基づき、前記目標顔画像と前記合成顔画像との類似度を判定することを特徴とする請求項1または請求項2に記載の美容支援装置。
  4.  前記評価手段は、
     前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、
     前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、
     前記複数の部分空間において、前記射影手段によって射影された前記特徴量の座標に基づき、前記所定の評価項目毎に前記ランク値を推定するランク推定手段と、を有することを特徴とする請求項2に記載の美容支援装置。
  5.  前記撮像手段は、所定のタイミングで前記利用者の顔画像を繰り返し撮像して更新し、
     前記評価手段は、更新された前記利用者の顔画像について前記ランク値を出力し、
     前記表示手段は、更新された前記利用者の顔画像と前記ランク値とを表示することを特徴とする請求項2または請求項4に記載の美容支援装置。
  6.  前記表示手段は、
     前記所定の評価項目に対応する軸を有するレーダーチャート上に、前記ランク値を表示することを特徴とする請求項5に記載の美容支援装置。
  7.  前記利用者の顔画像から、年齢または性別の少なくとも一方を推定する属性推定手段を更に備え、
     前記類似度判定手段は、前記属性推定手段の推定結果に従って、前記特徴量を射影する前記部分空間を決定することを特徴とする請求項3または請求項4に記載の美容支援装置。
  8.  前記所定の特徴量を、N次元ベクトルとし、
     前記部分空間を、前記N次元より小さい次元数の空間としたことを特徴とする請求項3、請求項4、請求項7のいずれか1項に記載の美容支援装置。
  9.  前記互いに異なる美容手法を記憶するメイクアップ手法記憶部を備え、
     前記メイクアップ手法記憶部は、追記型のデータベースで構成されていることを特徴とする請求項1ないし請求項8のいずれか1項に記載の美容支援装置。
  10.  前記合成顔画像生成手段によって生成された複数の合成顔画像を記憶する合成顔画像記憶部を備え、
     前記合成顔画像生成手段は、前記メイクアップ手法記憶部の内容が更新されたときに、画像合成の際のベースとなる基本顔画像に対して更新されたメイクアップ手法を適用して前記合成顔画像を生成し、前記合成顔画像記憶部に記憶することを特徴とする請求項9に記載の美容支援装置。
  11.  利用者の顔画像を撮像する撮像手段と、
     目標顔画像を入力する入力手段と、
     美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、
     前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
     前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を前記データベースから抽出する美容手法抽出手段と、を有することを特徴とする美容支援システム。
  12.  利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、
     美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、および前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段を備えるサーバと、を含み、
     前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を取得することを特徴とする美容支援システム。
  13.  利用者の顔画像を撮像する撮像手段と、
     目標顔画像を入力する入力手段と、
     美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、
     前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
     前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段と、
     前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを表示する表示手段と、を備えることを特徴とする美容支援システム。
  14.  利用者の顔画像を撮像する撮像手段、および目標顔画像を入力する入力手段を備える情報端末と、
     美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベース、前記データベースにアクセスして前記美容手法および前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段、前記目標顔画像に対する前記複数の合成顔画像の類似度を判定する類似度判定手段、および前記利用者の顔画像および前記目標顔画像に対して、所定の評価項目についてランク値を出力する評価手段を備えるサーバと、を含み、
     前記情報端末は、ネットワークを介して前記サーバに前記利用者の顔画像および前記目標顔画像を送信し、前記サーバから、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法と前記ランク値とを取得して、これらを表示することを特徴とする美容支援システム。
  15.  利用者の顔画像を撮像し、
     目標顔画像を入力し、
     前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
     前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出することを特徴とする美容支援方法。
  16.  利用者の顔画像を撮像し、
     目標顔画像を入力し、
     前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
     前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、
     前記類似度が高いと判断された前記合成顔画像に適用された美容手法、および前記ランク値を表示することを特徴とする美容支援方法。
  17.  利用者の顔画像と目標顔画像とを入力し、
     前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
     前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出することを特徴とする美容支援プログラム。
  18.  利用者の顔画像と目標顔画像とを入力し、
     前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
     前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
     前記利用者の顔画像と前記目標顔画像とに対して、所定の評価項目についてランク値を出力し、
     前記類似度が高いと判断された前記合成顔画像に適用された美容手法、および前記ランク値を表示することを特徴とする美容支援プログラム。
PCT/JP2013/007009 2013-02-01 2013-11-28 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム WO2014118842A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13873648.3A EP2953090A4 (en) 2013-02-01 2013-11-28 MAKEUP AID, MAKEUP AID, MAKEUP ASSISTANCE AND MAKEUP ASSISTANCE
US14/764,698 US10321747B2 (en) 2013-02-01 2013-11-28 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
CN201380074779.5A CN105210110A (zh) 2013-02-01 2013-11-28 美容辅助装置、美容辅助系统、美容辅助方法以及美容辅助程序

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013018101A JP2014149677A (ja) 2013-02-01 2013-02-01 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
JP2013-018101 2013-02-01
JP2013-018103 2013-02-01
JP2013018103A JP2014149678A (ja) 2013-02-01 2013-02-01 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム

Publications (1)

Publication Number Publication Date
WO2014118842A1 true WO2014118842A1 (ja) 2014-08-07

Family

ID=51261593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/007009 WO2014118842A1 (ja) 2013-02-01 2013-11-28 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム

Country Status (4)

Country Link
US (1) US10321747B2 (ja)
EP (1) EP2953090A4 (ja)
CN (1) CN105210110A (ja)
WO (1) WO2014118842A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016073308A3 (en) * 2014-11-03 2016-07-14 Soare Anastasia Facial structural shaping
CN105787981A (zh) * 2016-02-25 2016-07-20 上海斐讯数据通信技术有限公司 移动终端辅助化妆的方法及系统
CN109255327A (zh) * 2018-09-07 2019-01-22 北京相貌空间科技有限公司 人脸特征信息的获取方法、脸部整形手术评价方法及装置
US10324739B2 (en) 2016-03-03 2019-06-18 Perfect Corp. Systems and methods for simulated application of cosmetic effects
US10762665B2 (en) 2018-05-23 2020-09-01 Perfect Corp. Systems and methods for performing virtual application of makeup effects based on a source image

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6288404B2 (ja) * 2013-02-28 2018-03-07 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6960734B2 (ja) 2013-03-15 2021-11-05 株式会社 資生堂 カスタム外用剤を具体化および調合するためのシステムおよび方法
JP5372275B1 (ja) 2013-03-22 2013-12-18 パナソニック株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
WO2016009569A1 (ja) * 2014-07-17 2016-01-21 Necソリューションイノベータ株式会社 属性要因分析方法、装置、およびプログラム
US9405965B2 (en) * 2014-11-07 2016-08-02 Noblis, Inc. Vector-based face recognition algorithm and image search system
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
JP6573193B2 (ja) * 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
JP6275086B2 (ja) * 2015-07-25 2018-02-07 株式会社オプティム サーバ、データ提供方法及びサーバ用プログラム
US11065084B2 (en) 2015-10-23 2021-07-20 Osaka University Method and system for predicting shape of human body after treatment
JP6200483B2 (ja) * 2015-12-23 2017-09-20 株式会社オプティム 画像処理システム、画像処理方法、および画像処理プログラム
JP6212533B2 (ja) * 2015-12-28 2017-10-11 株式会社オプティム 画面共有システム、画面共有方法、および画面共有プログラム
CN108463787B (zh) 2016-01-05 2021-11-30 瑞尔D斯帕克有限责任公司 多视角图像的注视校正
JP6934632B2 (ja) * 2016-01-22 2021-09-15 パナソニックIpマネジメント株式会社 メイクトレンド分析装置、メイクトレンド分析方法、およびメイクトレンド分析プログラム
JP6731616B2 (ja) * 2016-06-10 2020-07-29 パナソニックIpマネジメント株式会社 バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム
TWI573093B (zh) * 2016-06-14 2017-03-01 Asustek Comp Inc 建立虛擬彩妝資料的方法、具備建立虛擬彩妝資料之方法的電子裝置以及其非暫態電腦可讀取記錄媒體
GB2551715A (en) * 2016-06-27 2018-01-03 Image Capture Ltd A system and method for determining the age of an individual
WO2018008138A1 (ja) * 2016-07-08 2018-01-11 株式会社オプティム 化粧品情報提供システム、化粧品情報提供装置、化粧品情報提供方法、及びプログラム
JP6956389B2 (ja) * 2016-07-14 2021-11-02 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
WO2018025402A1 (ja) * 2016-08-05 2018-02-08 株式会社オプティム 画像処理装置、画像処理システム、及びプログラム
US10482336B2 (en) 2016-10-07 2019-11-19 Noblis, Inc. Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search
JP6753276B2 (ja) 2016-11-11 2020-09-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP6986676B2 (ja) * 2016-12-28 2021-12-22 パナソニックIpマネジメント株式会社 化粧品提示システム、化粧品提示方法、及び化粧品提示サーバ
CN106880156A (zh) * 2017-01-20 2017-06-23 深圳天珑无线科技有限公司 一种关于梳妆镜的美妆推荐方法及其系统
WO2018143707A1 (ko) 2017-02-01 2018-08-09 주식회사 엘지생활건강 메이크업 평가 시스템 및 그의 동작 방법
KR101872635B1 (ko) * 2017-02-01 2018-06-29 주식회사 엘지생활건강 메이크업 자동 평가 시스템 및 그의 동작 방법
CN108734070A (zh) * 2017-04-24 2018-11-02 丽宝大数据股份有限公司 腮红指引装置及方法
CN110663063B (zh) * 2017-05-25 2022-04-12 华为技术有限公司 一种评价脸妆的方法及装置
US10540697B2 (en) * 2017-06-23 2020-01-21 Perfect365 Technology Company Ltd. Method and system for a styling platform
EP3652701A4 (en) 2017-07-13 2021-11-03 Shiseido Company, Limited VIRTUAL FACE MAKEUP REMOVAL, FAST FACE RECOGNITION AND LANDMARK TRACKING
EP4293574A3 (en) 2017-08-08 2024-04-03 RealD Spark, LLC Adjusting a digital representation of a head region
CN109407912A (zh) * 2017-08-16 2019-03-01 丽宝大数据股份有限公司 电子装置及其提供试妆信息方法
CN107705245A (zh) * 2017-10-13 2018-02-16 北京小米移动软件有限公司 图像处理方法及装置
CN109712065A (zh) * 2017-10-25 2019-05-03 丽宝大数据股份有限公司 身体信息分析装置及其脸形模拟方法
CN107977629A (zh) * 2017-12-04 2018-05-01 电子科技大学 一种基于特征分离对抗网络的人脸图像衰老合成方法
CN108229415B (zh) * 2018-01-17 2020-12-22 Oppo广东移动通信有限公司 信息推荐方法、装置、电子设备及计算机可读存储介质
US10607264B2 (en) 2018-02-02 2020-03-31 Perfect Corp. Systems and methods for virtual application of cosmetic effects to photo albums and product promotion
US10691932B2 (en) 2018-02-06 2020-06-23 Perfect Corp. Systems and methods for generating and analyzing user behavior metrics during makeup consultation sessions
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
KR102081947B1 (ko) * 2018-04-24 2020-02-26 주식회사 엘지생활건강 이동 단말기 및 화장품 자동인식 시스템
CN108765268A (zh) * 2018-05-28 2018-11-06 京东方科技集团股份有限公司 一种辅助化妆方法、装置及智能镜
US11882918B2 (en) * 2018-05-28 2024-01-30 Boe Technology Group Co., Ltd. Make-up assistance method and apparatus and smart mirror
US11676157B2 (en) 2018-07-13 2023-06-13 Shiseido Company, Limited System and method for adjusting custom topical agents
JP6579727B1 (ja) * 2019-02-04 2019-09-25 株式会社Qoncept 動体検出装置、動体検出方法、動体検出プログラム
CN110084267B (zh) * 2019-03-12 2023-05-26 北京旷视科技有限公司 人像聚类方法、装置、电子设备及可读存储介质
US11253045B2 (en) * 2019-07-18 2022-02-22 Perfect Mobile Corp. Systems and methods for recommendation of makeup effects based on makeup trends and facial analysis
CN111291642B (zh) * 2020-01-20 2023-11-28 深圳市商汤科技有限公司 一种妆容处理方法、装置、电子设备及存储介质
US11347968B2 (en) 2020-02-25 2022-05-31 Ford Global Technologies, Llc Image enhancement for realism

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04279829A (ja) * 1991-03-08 1992-10-05 Matsushita Electric Ind Co Ltd 肌色評価付き化粧台
JP2003122825A (ja) * 2001-10-18 2003-04-25 Be-Fine Lab Co Ltd 印象分析・表現システム及び該印象分析・表現システム用の情報記録媒体
JP3408524B2 (ja) 2001-02-06 2003-05-19 正 五井野 化粧アドバイス提供方法及び化粧アドバイス提供用プログラム
JP3614783B2 (ja) 2001-01-26 2005-01-26 株式会社資生堂 顔だち分類法
JP2006081847A (ja) * 2004-09-17 2006-03-30 Inforward Inc 肌解析ネットワークシステム
JP2006267115A (ja) * 2006-04-24 2006-10-05 Kao Corp メイクアップ化粧料の選択装置
JP2012008617A (ja) * 2010-06-22 2012-01-12 Kao Corp 顔画像評価方法、顔評価方法および画像処理装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3529954B2 (ja) * 1996-09-05 2004-05-24 株式会社資生堂 顔だち分類法及び顔だちマップ
US8208764B2 (en) * 2006-01-21 2012-06-26 Elizabeth Guckenberger Photo automatic linking system and method for accessing, linking, and visualizing “key-face” and/or multiple similar facial images along with associated electronic data via a facial image recognition search engine
WO2008102440A1 (ja) 2007-02-21 2008-08-28 Tadashi Goino 化粧顔画像生成装置及び方法
US8391639B2 (en) * 2007-07-23 2013-03-05 The Procter & Gamble Company Method and apparatus for realistic simulation of wrinkle aging and de-aging
EP2731072A4 (en) * 2011-07-07 2015-03-25 Kao Corp FINGER-PRINTED PRINT ANALYSIS METHOD, COSMETIC CONSULTATION METHOD, AND FACE IMAGE GENERATION METHOD
JP6008323B2 (ja) 2013-02-01 2016-10-19 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP5991536B2 (ja) 2013-02-01 2016-09-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6128309B2 (ja) 2013-02-01 2017-05-17 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6132232B2 (ja) 2013-02-01 2017-05-24 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
CN104798101B (zh) 2013-08-30 2018-11-23 松下知识产权经营株式会社 化妆辅助装置、化妆辅助方法以及化妆辅助程序
JP6375480B2 (ja) 2013-08-30 2018-08-22 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、メイクアップ支援方法、およびメイクアップ支援プログラム
EP3039991A4 (en) 2013-08-30 2016-09-14 Panasonic Ip Man Co Ltd MAKE-UP ASSISTING DEVICE, MAKE-UP ASSISTING METHOD, AND MAKE-UP ASSIST PROGRAM
JP6331515B2 (ja) 2014-03-13 2018-05-30 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04279829A (ja) * 1991-03-08 1992-10-05 Matsushita Electric Ind Co Ltd 肌色評価付き化粧台
JP3614783B2 (ja) 2001-01-26 2005-01-26 株式会社資生堂 顔だち分類法
JP3408524B2 (ja) 2001-02-06 2003-05-19 正 五井野 化粧アドバイス提供方法及び化粧アドバイス提供用プログラム
JP2003122825A (ja) * 2001-10-18 2003-04-25 Be-Fine Lab Co Ltd 印象分析・表現システム及び該印象分析・表現システム用の情報記録媒体
JP2006081847A (ja) * 2004-09-17 2006-03-30 Inforward Inc 肌解析ネットワークシステム
JP2006267115A (ja) * 2006-04-24 2006-10-05 Kao Corp メイクアップ化粧料の選択装置
JP2012008617A (ja) * 2010-06-22 2012-01-12 Kao Corp 顔画像評価方法、顔評価方法および画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2953090A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016073308A3 (en) * 2014-11-03 2016-07-14 Soare Anastasia Facial structural shaping
CN105787981A (zh) * 2016-02-25 2016-07-20 上海斐讯数据通信技术有限公司 移动终端辅助化妆的方法及系统
US10324739B2 (en) 2016-03-03 2019-06-18 Perfect Corp. Systems and methods for simulated application of cosmetic effects
US10762665B2 (en) 2018-05-23 2020-09-01 Perfect Corp. Systems and methods for performing virtual application of makeup effects based on a source image
CN109255327A (zh) * 2018-09-07 2019-01-22 北京相貌空间科技有限公司 人脸特征信息的获取方法、脸部整形手术评价方法及装置

Also Published As

Publication number Publication date
EP2953090A4 (en) 2016-05-25
US10321747B2 (en) 2019-06-18
US20150366328A1 (en) 2015-12-24
EP2953090A1 (en) 2015-12-09
CN105210110A (zh) 2015-12-30

Similar Documents

Publication Publication Date Title
WO2014118842A1 (ja) 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
US10726601B2 (en) System for beauty, cosmetic, and fashion analysis
JP2014149678A (ja) 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
Dai et al. Statistical modeling of craniofacial shape and texture
Gou et al. A joint cascaded framework for simultaneous eye detection and eye state estimation
Salama AbdELminaam et al. A deep facial recognition system using computational intelligent algorithms
Dibeklioğlu et al. Combining facial dynamics with appearance for age estimation
Dantcheva et al. What else does your biometric data reveal? A survey on soft biometrics
Li et al. Discriminant locally linear embedding with high-order tensor data
JP2014149677A (ja) 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
Wang et al. Facial feature detection and face recognition from 2D and 3D images
US9311564B2 (en) Face age-estimation and methods, systems, and software therefor
Wang et al. Face recognition from 2D and 3D images using 3D Gabor filters
JP2020522285A (ja) 全身測定値抽出のためのシステムおよび方法
WO2018102700A1 (en) Photorealistic facial texture inference using deep neural networks
Kittler et al. 3D morphable face models and their applications
Ricanek et al. Unconstrained biometric identification: Emerging technologies
Georgopoulos et al. Modeling of facial aging and kinship: A survey
Levine et al. Face recognition subject to variations in facial expression, illumination and pose using correlation filters
Dai et al. 3D morphable models: The face, ear and head
Shao et al. A survey of head pose estimation methods
Ambika et al. Periocular authentication based on FEM using Laplace–Beltrami eigenvalues
Zhang A comprehensive survey on face image analysis
Xu et al. Human body reshaping and its application using multiple RGB-D sensors
Zhang et al. Face, image, and analysis

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13873648

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14764698

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013873648

Country of ref document: EP