JP2014149678A - Makeup support apparatus, makeup support system, makeup support method and makeup support program - Google Patents

Makeup support apparatus, makeup support system, makeup support method and makeup support program Download PDF

Info

Publication number
JP2014149678A
JP2014149678A JP2013018103A JP2013018103A JP2014149678A JP 2014149678 A JP2014149678 A JP 2014149678A JP 2013018103 A JP2013018103 A JP 2013018103A JP 2013018103 A JP2013018103 A JP 2013018103A JP 2014149678 A JP2014149678 A JP 2014149678A
Authority
JP
Japan
Prior art keywords
face image
similarity
makeup
image
beauty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013018103A
Other languages
Japanese (ja)
Inventor
Hajime Tamura
一 田村
Hiroaki Yoshio
宏明 由雄
Katsuji Aoki
勝司 青木
Kaori Mori
香織 森
Sonoko Hirasawa
園子 平澤
Shin Yamada
伸 山田
Takayuki Matsukawa
隆行 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013018103A priority Critical patent/JP2014149678A/en
Priority to US14/764,698 priority patent/US10321747B2/en
Priority to CN201380074779.5A priority patent/CN105210110A/en
Priority to EP13873648.3A priority patent/EP2953090A4/en
Priority to PCT/JP2013/007009 priority patent/WO2014118842A1/en
Publication of JP2014149678A publication Critical patent/JP2014149678A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a makeup support apparatus capable of extracting an appropriate makeup technique for making a user's face closer to a target face image.SOLUTION: The makeup support apparatus comprises: an imaging section 2 that takes a face image of a person as a makeup subject; an input section 20 that inputs target face images; a synthetic face image generation section 12 that generates plural synthetic face images in which different makeup techniques are applied to the face image of the subject person; a similarity level determination section 22 that determines the similarity level between the target face image and the plural synthetic face images; and a makeup technique extraction section 24 that extracts a makeup technique applied to the synthetic face image which is determined at a higher level similarity by the similarity level determination section 22.

Description

本発明は、被化粧者などの利用者に対して、美容方法に関するアドバイスを行う美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラムに関するものである。   The present invention relates to a beauty support apparatus, a beauty support system, a beauty support method, and a beauty support program that provide advice on a beauty method to a user such as a makeup person.

近年、化粧品の種類や用途が多岐にわたっている。化粧品そのものは従来の販売システムである対面販売に加え、スーパーマーケット、コンビニ等によって大量に販売されており、被化粧者は様々な化粧品をより簡易かつ大量に入手可能になっている。このような多品種の化粧品に対して、被化粧者は化粧品に添付される製品情報やファッション雑誌やインターネット等から化粧品やメイクアップ手法に関する情報を入手し、自らが化粧を施す際に活用している。しかし、このような情報のみでは、実際に施した化粧が被化粧者の目標とするイメージに近いものか否かを適切に判断することはできない。   In recent years, the types and uses of cosmetics are diverse. In addition to face-to-face sales, which are conventional sales systems, cosmetics themselves are sold in large quantities at supermarkets, convenience stores, and the like, making it possible for cosmetic customers to obtain various cosmetics more easily and in large quantities. For such a wide variety of cosmetics, cosmetic customers obtain product information attached to cosmetics, information on cosmetics and makeup techniques from fashion magazines and the Internet, etc., and use it when applying makeup themselves. Yes. However, it is not possible to appropriately determine whether or not the makeup actually applied is close to the target image of the subject by such information alone.

これに対して、例えば特許文献1には、被化粧者が要望する顔を撮影したサンプル画像から化粧方法を特定し、その特定した化粧方法を被化粧者の顔画像に適用することで手本化粧顔画像を生成し、化粧の手順ごとに被化粧者の顔画像と手本化粧顔画像との評価を行い、評価結果に基づいて化粧アドバイスを提示する技術が開示されている。   On the other hand, for example, in Patent Document 1, a makeup method is specified from a sample image obtained by photographing a face desired by the subject, and the specified makeup method is applied to the face image of the subject. A technique for generating a makeup face image, evaluating the face image of the makeup person and the model makeup face image for each makeup procedure, and presenting makeup advice based on the evaluation result is disclosed.

また、特許文献2には、顔画像から2つの独立な特徴量(顔を構成する目や鼻といった顔パーツの配置が遠心的か求心的か、および顔パーツの形状が曲線的か直線的かの指標)を抽出し、2次元の評価軸上にプロットされた評価軸上の4つの象限に応じて、顔を特徴別または印象別に分類する技術が開示されている。   Further, Patent Document 2 discloses that two independent feature quantities from a face image (whether the facial parts such as eyes and nose constituting the face are centrifugal or centripetal, and whether the shape of the facial part is curved or linear). And a technique for classifying faces according to features or impressions according to four quadrants on an evaluation axis plotted on a two-dimensional evaluation axis.

特許第3408524号公報Japanese Patent No. 3408524 特許第3614783号公報Japanese Patent No. 3614783

特許文献1に開示された技術では、被化粧者の顔と、化粧の目標とするサンプル画像に写った顔画像(以降、「目標顔画像」と呼称する)の全体的な形態や、顔を構成する目や鼻といったパーツ(以降、「顔パーツ」と呼称する)の形態、相対的な位置関係が似ている場合(極端な例としては一卵性双生児のような場合)は、目標顔画像から特定された化粧方法を施すことで結果として被化粧者の顔は目標顔画像に近づくものと考えられる。しかしながら、被化粧者と目標顔画像の形態が異なる場合、通常は、同一の化粧を施しても両者の印象は同一とならないことが多い。即ち、人の感性に基づく評価が行われていないために、形状的、測色的に全く同じ化粧を施しても、両者の雰囲気が異なってしまう(人の感覚として両者の類似度が低い)という課題があった。その結果、被化粧者は目標顔画像に備わった例えば「キュート」といった感覚的な特性を得ようとする場合、試行錯誤を繰り返す必要があった。   In the technique disclosed in Patent Document 1, the overall form of a face image (hereinafter referred to as “target face image”) reflected on the face of the subject and the sample image targeted for makeup, If the form of the parts such as eyes and nose (hereinafter referred to as “facial parts”) and the relative positional relationship are similar (extreme examples such as identical twins), the target face By applying the makeup method specified from the image, it is considered that the face of the subject is closer to the target face image as a result. However, when the form of the target face image is different from that of the person to be makeup, normally, even if the same makeup is applied, the impressions of both are often not the same. That is, since evaluation based on human sensitivity is not performed, even if the same makeup is applied in terms of shape and colorimetry, the atmospheres of the two differ (the degree of similarity between the two is low as a human sense) There was a problem. As a result, the subject needs to repeat trial and error in order to obtain a sensory characteristic such as “cute” provided in the target face image.

また、特許文献1では、目標顔画像からメイクアップ手法を特定できることが前提となっている。しかしながら、前述のごとく化粧品の種類は多岐にわたっており、画像情報のみからメイクアップ手法を特定することは事実上困難であるという課題があった。   Further, in Patent Document 1, it is assumed that a makeup method can be specified from a target face image. However, as described above, there are a wide variety of cosmetics, and there is a problem that it is practically difficult to specify a makeup method only from image information.

一方、特許文献2に開示された技術では、被化粧者を特徴別または印象別に分類するものの、単に化粧の方向性を確認するに留まっている。このような化粧の方向性に関する情報は、被化粧者の顔の形態に応じて様々なメイクアップ手法を自在に適用できる美容師等には有用だと思われる。しかしながら、一般の被化粧者に対して「より女性らしく見せるためには、顔パーツの配置を求心的にし、各パーツの形状を曲線的にすればよい」との情報を与えたとしても、具体性を欠き有効に活用できないという課題があった。   On the other hand, the technique disclosed in Patent Document 2 classifies the person to be makeup according to characteristics or impressions, but merely confirms the direction of makeup. Such information on the direction of makeup seems to be useful for hairdressers and the like who can freely apply various makeup techniques according to the form of the face of the subject. However, even if information is given to the general makeup person that "the face parts should be arranged centripetally and the shape of each part should be curved to make it look more feminine" There was a problem that it could not be used effectively due to lack of sex.

また、特許文献2では、顔の特徴を4つの象限に分類し、象限ごとに人に与える印象を規定した結果、各象限に包含される印象は非常に幅広いものとなっている。このため、特許文献2の技術を機械学習に応用して、各象限が持つ印象を化粧に対する評価項目として学習させたとしても、この学習には被化粧者にとって不必要な評価項目まで包含されてしまう。具体的には、例えば被化粧者が「キュート」という評価項目について化粧結果を評価したいと思っても、「キュート」が含まれる象限の中には「素朴」のような実質的に異なる評価項目が含まれる。従って、機械学習の結果、類似と判断される顔画像であっても、被化粧者の感覚では類似しない、即ち、学習結果と被化粧者の認識の間に乖離が生じるという課題があった。   Further, in Patent Document 2, as the facial features are classified into four quadrants and the impression given to the person is defined for each quadrant, the impressions included in each quadrant are very wide. Therefore, even if the technique of Patent Document 2 is applied to machine learning and the impression of each quadrant is learned as an evaluation item for makeup, the learning includes evaluation items that are unnecessary for the subject. End up. Specifically, for example, even if the person wants to evaluate the makeup result for the evaluation item “cute”, the evaluation item that is substantially different, such as “simple”, is included in the quadrant that includes “cute”. Is included. Therefore, even if the face images are determined to be similar as a result of machine learning, there is a problem in that they are not similar in the sense of the subject, that is, there is a difference between the learning result and the recognition of the subject.

本発明は、このような従来技術の課題を解決するべく案出されたものであり、その主な目的は、利用者の顔をより目標顔画像に近づけるための美容手法を的確に抽出することが可能な、美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラムを提供することにある。   The present invention has been devised to solve such problems of the prior art, and its main purpose is to accurately extract a beauty technique for bringing the user's face closer to the target face image. It is to provide a beauty support apparatus, a beauty support system, a beauty support method, and a beauty support program.

本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容手法抽出手段と、で構成した美容支援装置である。   The present invention generates an image capturing unit that captures a user's face image, an input unit that inputs a target face image, and a plurality of composite face images obtained by applying different cosmetic techniques to the user's face image. A synthesized face image generating means, a similarity degree judging means for judging a similarity degree between the target face image and the plurality of synthesized face images, and the synthesized face image judged to have a high degree of similarity by the similarity degree judging means. And a beauty technique extraction means for extracting a beauty technique applied to the beauty support apparatus.

これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より的確な美容手法を提供することが可能となる。   This makes it possible to provide a more accurate beauty technique based on the similarity between the synthesized face image and the target face image obtained by applying different beauty techniques to the user's face image.

また、本発明は、前記類似度判定手段は、前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、を備え、前記目標顔画像と前記合成顔画像とから得た特徴量を、前記部分空間に射影した座標間のユークリッド距離に基づき、前記各部分空間における類似度を判定し、更に前記各部分空間における類似度に基づき、前記目標顔画像と前記合成顔画像との類似度を判定するように構成したものである。   Further, according to the present invention, the similarity determination unit includes a feature amount extraction unit that extracts a predetermined feature amount from the target face image and the plurality of synthesized face images, and the feature amount is based on human sensitivity. Projecting means for projecting onto a partial space associated with different evaluation items, and a feature amount obtained from the target face image and the synthesized face image is based on a Euclidean distance between coordinates projected onto the partial space The similarity degree in each partial space is determined, and the similarity degree between the target face image and the synthesized face image is determined based on the similarity degree in each partial space.

これによって、人の感性に基づく評価項目が類似度の判定に用いられるため、利用者の顔と目標顔画像の形態が異なるような場合であっても、的確に類似度を判定することが可能となる。   As a result, evaluation items based on human sensibility are used to determine similarity, so it is possible to accurately determine similarity even when the user's face and the target face image have different forms. It becomes.

また、本発明は、前記利用者の顔画像から、年齢または性別の少なくとも一方を推定する属性推定手段を更に備え、前記類似度判定手段は、前記属性推定手段の推定結果に従って、前記特徴量を射影する前記部分空間を決定するように構成したものである。   The present invention further includes attribute estimation means for estimating at least one of age and sex from the face image of the user, and the similarity determination means calculates the feature amount according to the estimation result of the attribute estimation means. The partial space to be projected is determined.

これによって、属性推定手段で推定された年齢、性別の違いに基づいて人の感性に基づく評価項目が選択されるため、利用者にとって有用な評価項目のみを用いた類似度の判定が可能となる。   As a result, evaluation items based on human sensibilities are selected based on the differences in age and gender estimated by the attribute estimation means, so that it is possible to determine similarity using only evaluation items useful for the user. .

また、本発明は、前記所定の特徴量を、N次元ベクトルとし、前記部分空間を、前記N次元より小さい次元数の空間としたものである。   In the present invention, the predetermined feature amount is an N-dimensional vector, and the partial space is a space having a smaller number of dimensions than the N dimension.

これによって、より次元数の小さい部分空間では、次元数Nの特徴量空間の中から有用な軸のみが取捨選択され、特定の評価項目についての判別能力(分解能)が事実上向上するため、実質的に類似度の精度を向上させることが可能となる。   As a result, in a subspace with a smaller number of dimensions, only useful axes are selected from the feature amount space of dimension number N, and the discrimination ability (resolution) for a specific evaluation item is effectively improved. Therefore, it is possible to improve the accuracy of similarity.

また、本発明は、利用者の顔画像を撮像する撮像手段と、目標顔画像を入力する入力手段と、美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、前記データベースにアクセスして前記美容手法と前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を前記データベースから抽出する美容手法抽出手段と、を有する美容支援システムである。   In addition, the present invention provides an imaging unit that captures a user's face image, an input unit that inputs a target face image, a database that stores a cosmetic technique and image adjustment parameters corresponding to the cosmetic technique, and access to the database And obtaining the cosmetic technique and the image adjustment parameter, and referring to the image adjustment parameter, generating a plurality of synthetic face images by applying different cosmetic techniques to the user's face image Applied to image generation means, similarity determination means for determining similarity between the target face image and the plurality of composite face images, and the composite face image determined to be high by the similarity determination means A beauty support system having beauty technique extraction means for extracting a beauty technique from the database.

これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より的確な美容手法を提供することが可能となる。   This makes it possible to provide a more accurate beauty technique based on the similarity between the synthesized face image and the target face image obtained by applying different beauty techniques to the user's face image.

また、本発明は、利用者の顔画像を撮像し、目標顔画像を入力し、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容支援方法である。   The present invention also captures a user's face image, inputs a target face image, generates a plurality of synthesized face images by applying different cosmetic techniques to the user's face image, and This is a beauty support method for determining a similarity between a face image and the plurality of synthesized face images and extracting a beauty technique applied to the synthesized face image determined to have a high similarity.

これによって、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より的確な美容手法を提供することが可能となる。   This makes it possible to provide a more accurate beauty technique based on the similarity between the synthesized face image and the target face image obtained by applying different beauty techniques to the user's face image.

また、本発明は、利用者の顔画像と目標顔画像とを入力し、前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、前記目標顔画像と前記複数の合成顔画像との類似度を判定し、前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容支援プログラムである。   Further, the present invention inputs a user face image and a target face image, generates a plurality of synthesized face images by applying different cosmetic techniques to the user face image, and the target face image And a plurality of synthesized face images, and a beauty support program for extracting a beauty technique applied to the synthesized face image determined to have a high degree of similarity.

これによって、美容支援プログラムを実装した専用機、クライアントサーバシステムの端末、スマートフォン、タブレット端末等において、利用者の顔画像に対して、互いに異なる美容手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より的確な美容手法を提供することが可能となる。   As a result, on a dedicated machine with a beauty support program, a client server system terminal, a smartphone, a tablet terminal, etc., the similarity between the synthesized facial image and the target facial image applying different cosmetic techniques to the facial image of the user Based on the degree, it is possible to provide a more accurate cosmetic technique.

本発明によれば、利用者の顔画像に対して互いに異なる美容手法を適用した合成顔画像と目標顔画像の類似度に基づいて、より的確な美容手法を提供することが可能となる。   According to the present invention, it is possible to provide a more accurate beauty technique based on the similarity between a synthesized face image obtained by applying different beauty techniques to a user's face image and a target face image.

本発明の第1実施形態に係る美容支援装置の構成を示すブロック構成図The block block diagram which shows the structure of the beauty assistance apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャートThe flowchart explaining the process in which similarity is determined in the beauty support apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャートThe flowchart explaining the process in which similarity is determined in the beauty support apparatus which concerns on 1st Embodiment of this invention. 合成顔画像を生成する際の画像処理対象を説明する説明図Explanatory drawing explaining the image processing object at the time of producing | generating a synthetic face image 本発明の第1実施形態に係る美容支援装置において合成顔画像を生成する過程を説明する説明図Explanatory drawing explaining the process which produces | generates a synthetic face image in the beauty assistance apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る美容支援装置において特徴量を特徴量空間にプロットする過程を説明する説明図Explanatory drawing explaining the process which plots the feature-value on the feature-value space in the beauty support apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る美容支援装置において特徴量を部分空間に射影する過程を説明する説明図Explanatory drawing explaining the process which projects a feature-value on a partial space in the beauty support apparatus which concerns on 1st Embodiment of this invention. 人の感性に基づく評価項目の内容(感覚的な特性)を示す表Table showing the contents (sensory characteristics) of evaluation items based on human sensitivity 美容支援装置において被化粧者にランク値を表示する過程を説明するフローチャートA flowchart for explaining a process of displaying a rank value to a makeup person in a beauty support apparatus (a)〜(c)は、人の感性に基づく評価項目に対応する部分空間と回帰モデルの関係を示す説明図、(d)は、各評価項目についてのランク値をレーダーチャートに表示した状態を説明する説明図(A)-(c) is explanatory drawing which shows the relationship between the partial space corresponding to the evaluation item based on a human sensitivity, and a regression model, (d) is the state which displayed the rank value about each evaluation item on the radar chart Explanatory drawing explaining 表示部における表示内容の例を説明する説明図Explanatory drawing explaining the example of the display content in a display part 本発明の第2実施形態に係る美容支援装置において類似度を判定する過程を説明するフローチャートThe flowchart explaining the process in which similarity is determined in the beauty support apparatus which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る美容支援装置の構成を示すブロック構成図The block block diagram which shows the structure of the beauty assistance apparatus which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る美容支援装置の構成を示すブロック構成図The block block diagram which shows the structure of the beauty assistance apparatus which concerns on 4th Embodiment of this invention.

(第1実施形態)
図1は、本発明の第1実施形態に係る美容支援装置1の構成を示すブロック構成図である。以降、図1を用いて第1実施形態の美容支援装置1について、まずは構成と機能について説明する。なお、本実施形態では、利用者として自ら化粧を施す被化粧者が本装置を利用する場合を例に説明するが、化粧以外の美容手法においても、同様の構成を採用することができる。
(First embodiment)
FIG. 1 is a block configuration diagram showing a configuration of a beauty support apparatus 1 according to the first embodiment of the present invention. Hereinafter, the configuration and functions of the beauty support apparatus 1 according to the first embodiment will be described with reference to FIG. In the present embodiment, a case where a user who makes makeup himself as a user uses this apparatus will be described as an example. However, the same configuration can be adopted in a beauty technique other than makeup.

図1において、美容支援装置1は、撮像部(撮像手段)2と目標顔画像入力部(入力手段)20と画像処理部3と記憶部4と表示部(表示手段)5とユーザインタフェース6で構成されている。   In FIG. 1, the beauty support apparatus 1 includes an imaging unit (imaging unit) 2, a target face image input unit (input unit) 20, an image processing unit 3, a storage unit 4, a display unit (display unit) 5, and a user interface 6. It is configured.

撮像部2は、例えばCCD(Charge Coupled Device Image Sensor)やCMOS(Complementary Metal Oxide Semiconductor)で構成された撮像素子を備えており、例えば15fps(Frames Per Second)の周期で画像を撮像して画像データを出力する。撮像部2で撮像された画像データに対して、例えば撮像部2に内蔵された画像処理回路(図示せず)は、前処理としてデモザイク、色補正、ホワイトバランス補正、γ補正等の公知の画像処理を施す。   The imaging unit 2 includes an imaging device configured by, for example, a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor). For example, the imaging unit 2 captures an image with a period of 15 fps (Frames Per Second) and outputs image data. Is output. For image data captured by the imaging unit 2, for example, an image processing circuit (not shown) built in the imaging unit 2 performs known processing such as demosaic, color correction, white balance correction, and γ correction as preprocessing. Apply processing.

その後、前処理後の画像データに対し、記憶部4に格納されているデータを参照して、画像処理部3によって種々の処理が実行される。なお、画像処理の対象となる画像データは、画像処理部3の各構成要素で所定の処理を施された後、図示しないメモリに一旦格納して、次の構成要素を起動するようにしてもよいし、各構成要素がパイプラインとして動作するようにハードウェアやソフトウェアを構成してもよい。   Thereafter, various processes are executed by the image processing unit 3 with respect to the pre-processed image data with reference to the data stored in the storage unit 4. Note that the image data to be subjected to image processing is subjected to predetermined processing by each component of the image processing unit 3, and then temporarily stored in a memory (not shown) to activate the next component. Alternatively, hardware or software may be configured so that each component operates as a pipeline.

なお、図1において表示部5は2つ記載されているが、これは記載上の制約からであり実際は1つとされている。   In FIG. 1, two display units 5 are described. However, this is due to a limitation in description and is actually one.

記憶部4には、データベースとして、属性推定モデル4a、評価項目記憶部4b、メイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4eが構築されている。なお、射影行列/回帰モデル記憶部4eに記憶されている射影行列と回帰モデルとはそれぞれ異なるデータである。   In the storage unit 4, an attribute estimation model 4a, an evaluation item storage unit 4b, a makeup technique storage unit 4c, a composite face image storage unit 4d, and a projection matrix / regression model storage unit 4e are constructed as databases. The projection matrix and the regression model stored in the projection matrix / regression model storage unit 4e are different data.

この中で合成顔画像記憶部4dは追記型である点で他のデータベースとは異なる。後に説明するように、合成顔画像は、合成顔画像生成部(合成顔画像生成手段)12がメイクアップ手法記憶部4cに格納されたデータを参照することで生成され、この生成された合成顔画像が合成顔画像記憶部4dに記憶される。これも後に説明するように、合成顔画像を生成するモードによっては被化粧者の合成顔画像のデータ量が大きくなる場合がある。   Among these, the synthetic face image storage unit 4d is different from other databases in that it is a write-once type. As will be described later, the synthesized face image is generated by the synthesized face image generating unit (synthetic face image generating unit) 12 referring to data stored in the makeup technique storage unit 4c, and the generated synthesized face is generated. The image is stored in the composite face image storage unit 4d. As will be described later, depending on the mode for generating the composite face image, the data amount of the face image of the makeup subject may increase.

また、後述するように目標顔画像との間で類似度の判定が行われ、最適なメイクアップ手法が得られた際、合成顔画像を消去してもよいが、一旦生成された合成顔画像を後に流用するようにしてもよい。つまり、同一の被化粧者が他の目標顔画像との類似度を判定するような場合は、生成した合成顔画像を保存しておけば、その都度、合成顔画像を生成する必要がなくなる。   As will be described later, when the similarity is determined with the target face image and the optimum makeup method is obtained, the composite face image may be deleted. May be used later. That is, when the same makeup person determines the degree of similarity with another target face image, if the generated composite face image is stored, it is not necessary to generate a composite face image each time.

これらのことから、合成顔画像記憶部4dのデータ容量は他のデータベースと比較して大きくしておく必要がある。そこで、合成顔画像記憶部4dはいわゆる大容量記憶装置であるハードディスクドライブや、装置構成上、複数の被化粧者のデータを取り扱うような場合は、ハードディスクドライブを複数台で構成して信頼性やデータ転送の高速化を図ったRAID(Redundant Arrays of Inexpensive Disks)を使用するとよい。なお、合成顔画像記憶部4dの他にメイクアップ手法記憶部4cも追記型のデータベースであり、その他は予め記憶された読み取り専用のデータベースを構成している。   For these reasons, it is necessary to increase the data capacity of the composite face image storage unit 4d as compared with other databases. Therefore, the composite face image storage unit 4d is a so-called large-capacity storage device such as a hard disk drive. RAID (Redundant Arrays of Inexpensive Disks), which is intended to speed up data transfer, may be used. In addition to the synthetic face image storage unit 4d, the makeup technique storage unit 4c is also a write-once database, and the others constitute a read-only database stored in advance.

なお、以降の説明では、合成顔画像記憶部4dには、合成顔画像が画像データとして格納されているものとするが、これに替えて、後に説明する特徴量抽出部25によって抽出された特徴量を格納してもよい。   In the following description, the combined face image is assumed to be stored as image data in the combined face image storage unit 4d. Instead, the feature extracted by the feature amount extraction unit 25 described later is used. The quantity may be stored.

以降、画像処理部3の構成について説明する。第1実施形態に係る美容支援装置1の画像処理部3の機能を端的に説明すると、撮像部2で撮像された画像に含まれる被化粧者の顔画像に対して、合成顔画像生成部12で種々のメイクアップ手法を適用(即ち、シミュレーション)した画像(以降、「合成顔画像」と呼称する)を生成し、類似度判定部22で目標顔画像との類似度を判定し、メイクアップ手法抽出部24で最も類似度が高い合成顔画像の生成に使用したメイクアップ手法を抽出し、このメイクアップ手法を表示部5に表示する。以降、詳細に説明する。   Hereinafter, the configuration of the image processing unit 3 will be described. The function of the image processing unit 3 of the beauty support apparatus 1 according to the first embodiment will be briefly described. The synthesized face image generation unit 12 is applied to the face image of the subject included in the image captured by the imaging unit 2. To generate an image (hereinafter referred to as a “composite face image”) to which various makeup methods are applied (ie, simulated), and the similarity determination unit 22 determines the similarity with the target face image, and makes up the makeup. The makeup method used for generating the synthesized face image with the highest similarity is extracted by the method extraction unit 24, and this makeup method is displayed on the display unit 5. Hereinafter, this will be described in detail.

顔検出部10では撮像部2で撮像された画像から顔画像を検出し、顔画像が含まれる場合はこれを切り出して顔パーツ検出部11に出力する。顔パーツ検出部11は、顔画像から目、鼻、口といった顔パーツを検出する。   The face detection unit 10 detects a face image from the image picked up by the image pickup unit 2, and if a face image is included, cuts it out and outputs it to the face part detection unit 11. The face part detection unit 11 detects face parts such as eyes, nose and mouth from the face image.

顔検出部10で切り出された顔画像は属性推定部(属性推定手段)27にも送出される。属性推定部27では、属性推定モデル記憶部4aに記憶されている属性推定モデルに基づき顔画像から年齢、性別、人種等の属性を推定する。その推定結果は評価項目決定部28に送られる。そして、評価項目決定部28は推定結果に基づいて、評価項目記憶部4bに記憶している「人の感性に基づくそれぞれ異なる評価項目」から類似度を判定する際に用いる評価項目を決定する。なお、以降の説明においては「人の感性に基づくそれぞれ異なる評価項目」を「人の感性に基づく評価項目」または単に「評価項目」と呼称する。   The face image cut out by the face detection unit 10 is also sent to the attribute estimation unit (attribute estimation unit) 27. The attribute estimation unit 27 estimates attributes such as age, sex, and race from the face image based on the attribute estimation model stored in the attribute estimation model storage unit 4a. The estimation result is sent to the evaluation item determination unit 28. Based on the estimation result, the evaluation item determination unit 28 determines an evaluation item to be used when determining the similarity from “different evaluation items based on human sensitivity” stored in the evaluation item storage unit 4b. In the following description, “different evaluation items based on human sensitivity” are referred to as “evaluation items based on human sensitivity” or simply “evaluation items”.

目標顔画像入力部20は被化粧者が化粧に先んじて「化粧によってこういう顔にしたい」という目標顔画像を入力するものである。この目標顔画像は、被化粧者が第3者の顔をディジタルカメラ等で撮影して可搬性記憶媒体等を経由して取り込んでもよく、インターネットで女優等の顔写真を検索した画像であってもよく、撮像部2によって直接撮影した動画をキャプチャしたものであってもよい。このように第1実施形態の美容支援装置1は、画像の入力源としてあらゆるソースを許容するため、目標顔画像入力部20に取り込まれた時点の画像には、上述した類似度の判定に全く寄与せず、最初から除外しておくべき部分も含まれる。そこで、目標顔画像入力部20によって取り込まれた画像は、顔検出部21に送られて顔検出を行って顔部分のみが抽出される。なお、図1では顔検出部21は顔検出部10と別に設けられているが、これらは1つとして構成しても構わない。   The target face image input unit 20 inputs a target face image that the person to be dressed wants to make such a face by makeup prior to makeup. This target face image is an image in which the face of the third person may be captured with a digital camera or the like and captured via a portable storage medium, etc. Alternatively, a moving image captured directly by the imaging unit 2 may be captured. As described above, since the beauty support apparatus 1 according to the first embodiment allows any source as an image input source, the image at the time of being captured by the target face image input unit 20 is completely subjected to the above-described similarity determination. This includes parts that do not contribute and should be excluded from the beginning. Therefore, the image captured by the target face image input unit 20 is sent to the face detection unit 21 to perform face detection and extract only the face part. In FIG. 1, the face detection unit 21 is provided separately from the face detection unit 10, but these may be configured as one.

次に、類似度判定部(類似度判定手段)22の構成について説明する。   Next, the configuration of the similarity determination unit (similarity determination means) 22 will be described.

類似度判定部22は、特徴量抽出部(特徴量抽出手段)25と部分空間射影部(射影手段)26とユークリッド距離計算部29で構成されており、上述した、合成顔画像記憶部4dに格納された合成顔画像並びに顔検出部21で切り出された目標顔画像は、類似度判定部22の特徴量抽出部25に入力される。   The similarity determination unit 22 includes a feature amount extraction unit (feature amount extraction unit) 25, a partial space projection unit (projection unit) 26, and a Euclidean distance calculation unit 29. The similarity face image storage unit 4d described above includes The stored composite face image and the target face image cut out by the face detection unit 21 are input to the feature amount extraction unit 25 of the similarity determination unit 22.

特徴量抽出部25は、入力された合成顔画像からGabor特徴またはLBP(Local Binary Pattern)といった局所的特徴量を抽出する。また、特徴量抽出部25は、目標顔画像についても同様にして局所的特徴量を抽出する。このようにして抽出された特徴量は、通常、高次元(N次元)ベクトルを構成する。   The feature amount extraction unit 25 extracts a local feature amount such as a Gabor feature or an LBP (Local Binary Pattern) from the input composite face image. The feature amount extraction unit 25 similarly extracts local feature amounts for the target face image. The feature quantity extracted in this way usually constitutes a high-dimensional (N-dimensional) vector.

特徴量抽出部25で抽出された特徴量は、部分空間射影部26で所定の部分空間に射影される。ここでいう部分空間とは、特徴量が構成するN次元ベクトルよりも次元が小さいベクトル空間であり、第1実施形態では、上述した人の感性に基づく評価項目と直接対応したベクトル空間である。この部分空間を用いることで、部分空間における合成顔画像と目標顔画像の類似度や、合成顔画像や目標顔画像のランク値(点数)を個別に求めることができる。部分空間の作成方法等については後に説明する。   The feature amount extracted by the feature amount extraction unit 25 is projected onto a predetermined partial space by the partial space projection unit 26. The partial space here is a vector space whose dimension is smaller than the N-dimensional vector formed by the feature amount, and in the first embodiment, is a vector space that directly corresponds to the evaluation item based on the human sensitivity described above. By using this partial space, the similarity between the combined face image and the target face image in the partial space, and the rank value (score) of the combined face image and the target face image can be obtained individually. A method of creating a partial space will be described later.

また、部分空間射影部26は、属性推定部27によって推定された性別・年齢等に基づいて評価項目決定部28が決定した評価項目に対応する部分空間に、合成顔画像と目標顔画像の特徴量を射影する。この結果、部分空間における合成顔画像と目標顔画像の座標値が決定される。なお、射影は特徴量を構成するN次元ベクトルのうち、これより少ない次元のベクトルを生成する操作であり、例えば射影後の次元数をN1とした場合、N次元ベクトルに対して、N1×Nのマトリクスサイズを有する行列を掛けることに相当する。   In addition, the subspace projection unit 26 includes features of the composite face image and the target face image in the subspace corresponding to the evaluation item determined by the evaluation item determination unit 28 based on the gender, age, and the like estimated by the attribute estimation unit 27. Project quantities. As a result, the coordinate values of the combined face image and the target face image in the partial space are determined. Projection is an operation for generating a vector having a smaller dimension among N-dimensional vectors constituting the feature quantity. For example, when the number of dimensions after projection is N1, N1 × N with respect to the N-dimensional vector. Is equivalent to multiplying by a matrix having a matrix size of

ユークリッド距離計算部29は、部分空間に射影された合成顔画像および目標顔画像の座標値に基づいて、座標間の距離を計算する。   The Euclidean distance calculation unit 29 calculates the distance between the coordinates based on the coordinate values of the synthesized face image and the target face image projected onto the partial space.

そして、メイクアップ手法抽出部(メイクアップ手法抽出手段)24はユークリッド距離計算部29の出力に基づいて、複数のメイクアップ手法のうち最も目標顔画像に近い合成顔画像が得られる手法を選択し、表示部5に表示する。   Then, based on the output of the Euclidean distance calculation unit 29, the makeup method extraction unit (makeup method extraction means) 24 selects a method for obtaining a synthetic face image closest to the target face image from among a plurality of makeup methods. Is displayed on the display unit 5.

次に、評価部(評価手段)40の構成について説明する。   Next, the configuration of the evaluation unit (evaluation means) 40 will be described.

評価部40は、特徴量抽出部25と部分空間射影部26とランク推定部(ランク推定手段)41とで構成される。特徴抽出部25と部分空間射影部26は既に説明したものと同一であるので説明を省略する。ランク推定部41は評価項目回帰モデル4eにアクセスし、合成顔画像または目標顔画像の特徴量に基づき、各評価項目におけるこれらのランク値を取得し、表示部5に表示する。   The evaluation unit 40 includes a feature quantity extraction unit 25, a partial space projection unit 26, and a rank estimation unit (rank estimation means) 41. Since the feature extraction unit 25 and the subspace projection unit 26 are the same as those already described, description thereof is omitted. The rank estimation unit 41 accesses the evaluation item regression model 4e, acquires these rank values for each evaluation item based on the feature amount of the synthesized face image or the target face image, and displays them on the display unit 5.

次に、全体制御部7について説明する。美容支援装置1は、上述した各構成要素の動作を制御するハードウェアとして、図示しない演算装置としてのCPU(Central Processing Unit)またはMPU(Micro-Processing Unit)、ASIC(Application Specific Integrated Circuit)、ワークメモリ、プログラムメモリ、これらの構成要素間でデータをやり取りするパラレル/シリアルバス等の公知の構成を備えている。   Next, the overall control unit 7 will be described. The beauty support apparatus 1 includes a CPU (Central Processing Unit) or MPU (Micro-Processing Unit) as an arithmetic device (not shown), an ASIC (Application Specific Integrated Circuit), a work piece as hardware for controlling the operation of each component described above. Known configurations such as a memory, a program memory, and a parallel / serial bus for exchanging data between these components are provided.

なお、図1に示す機能ブロックの全てをハードウェアによって構成する必要はなく、適宜、上述した演算装置等とこれを動作させるソフトウェアを実装してもよいし、更に、以下に示す構成要素の全てを、一般的なカメラ付きノートPC(Personal Computer)、スマートフォンやタブレット端末等に実装してもよい。   Note that it is not necessary to configure all the functional blocks shown in FIG. 1 by hardware, and the above-described arithmetic device and software for operating the same may be implemented as appropriate, and all the components shown below may be implemented. May be mounted on a general notebook PC (Personal Computer) with a camera, a smartphone, a tablet terminal, or the like.

また、美容支援装置1にはユーザインタフェース6が設けられている。ユーザインタフェース6は具体的にはキーボード、マウス、タッチパネルといった入力デバイスで構成され、被化粧者はユーザインタフェース6を操作することで、全体制御部7を介して美容支援装置1に指示を与える。この指示の具体例としては、例えば目標顔画像入力部20における画像の選択指示が挙げられる。   The beauty support apparatus 1 is provided with a user interface 6. Specifically, the user interface 6 includes input devices such as a keyboard, a mouse, and a touch panel. The user gives instructions to the beauty support apparatus 1 through the overall control unit 7 by operating the user interface 6. A specific example of this instruction is, for example, an image selection instruction in the target face image input unit 20.

図2、図3は、本発明の第1実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。   2 and 3 are flowcharts illustrating a process of determining similarity in the beauty support apparatus 1 according to the first embodiment of the present invention.

以降、図2、図3に図1を併用して、第1実施形態の美容支援装置1の動作と、美容支援装置1で用いられる画像処理アルゴリズムについて説明する。なお、説明に際して、重要なポイントについては、都度図面を追加して説明を行う。   Hereinafter, the operation of the beauty support apparatus 1 according to the first embodiment and the image processing algorithm used in the beauty support apparatus 1 will be described with reference to FIGS. In the explanation, important points will be explained by adding drawings.

図2、図3に示すフローチャートはP1,P2,P3の3つのプログラムモジュールで構成されているが、TM1,TM2,TM3は同期点を示している。即ち、プログラムP2は少なくもプログラムP1のステップがTM1に到達するまでに実行されていればよく、プログラムP3は少なくともプログラムP1のステップが最初にTM3に到達するまでに実行されていればよい。なお、プログラムP3は、結合子AでプログラムP1と結合されている。   The flowcharts shown in FIGS. 2 and 3 are composed of three program modules P1, P2, and P3, and TM1, TM2, and TM3 indicate synchronization points. That is, the program P2 only needs to be executed before the step of the program P1 reaches TM1, and the program P3 only needs to be executed at least until the step of the program P1 first reaches TM3. The program P3 is connected to the program P1 by a connector A.

まずプログラムP1の処理から説明する。まず、撮像部2で被化粧者の顔が含まれた画像を撮像する(ステップST101)。動画で撮影したものを、ユーザインタフェース6を用いてキャプチャしてもよいし、始めから静止画として撮影してもよい。   First, the processing of the program P1 will be described. First, the imaging unit 2 captures an image including the face of the makeup subject (step ST101). An image captured as a moving image may be captured using the user interface 6 or may be captured as a still image from the beginning.

撮像された画像データは上述の前処理を施された後、顔検出部10によって顔検出を行ない、顔検出が成功した否かを判断する(ステップST102)。   The captured image data is subjected to the above-described preprocessing, and then face detection is performed by the face detection unit 10 to determine whether face detection is successful (step ST102).

顔検出の一般的な手法として、統計的学習に基づくパターン認識技術を用いることができる。この技術では、識別器のパラメータはあらかじめ与えた学習用サンプルを元に決定される。識別器として、例えばニューラルネットワークや、サポートベクターマシン、ベイズ推定等を用いた手法が知られている。これらの手法は、通常、入力画像から識別に用いる特徴量を抽出する特徴選択技術と、抽出した特徴量を入力として対象物であるか否かを判定する識別器を構築する識別器構築技術と、構築した識別器を使って、画像ウィンドウ内に顔の存在を判定する技術とから構成される。   As a general method of face detection, a pattern recognition technique based on statistical learning can be used. In this technique, the parameters of the discriminator are determined based on learning samples given in advance. As a discriminator, for example, a technique using a neural network, a support vector machine, Bayesian estimation, or the like is known. These methods usually include a feature selection technique for extracting a feature amount used for identification from an input image, and a discriminator construction technique for constructing a discriminator for determining whether or not the extracted feature amount is an object. And a technique for determining the presence of a face in an image window using the constructed discriminator.

顔の存在を判定する技術として、例えば、4方向面特徴と線形判別分析を用いる方法が知られている。この技術では、画像内の肌色情報や動き情報により設定した探索領域に対して4方向面特徴を用いたテンプレートにより入力画像の走査探索を行い、線形判別分析によって顔および頭部のパターンに識別される領域を検出する。   As a technique for determining the presence of a face, for example, a method using four-directional surface features and linear discriminant analysis is known. In this technique, the search area set by the skin color information and the motion information in the image is scanned by the input image using a template using the four-direction plane feature, and the face and head patterns are identified by linear discriminant analysis. Area is detected.

ここで、4方向面特徴とは、脳の視覚野を工学的に模した特徴量で、エッジの形状変動に対してロバストであり、また計算コストが低いといった特徴がある。4方向面特徴は各画素のエッジ勾配を4つの方向面にわり当てて表現したもので、いわゆるGabor特徴を簡略化したような特徴として知られている。   Here, the four-direction plane feature is a feature amount that imitates the visual cortex of the brain from the engineering viewpoint, and is characterized by being robust against edge shape fluctuations and having a low calculation cost. The four-direction surface feature is expressed by assigning the edge gradient of each pixel to the four direction surfaces, and is known as a feature obtained by simplifying the so-called Gabor feature.

また、線形判別分析とは、判別対象である2つ以上のクラスタに関して、クラス内分散を最小に、クラス間分散を最大にするような射影行列を求める手法である。そして、入力された特徴量を、線形判別分析で得た写像行列により判別空間へ投影し、判別クラスの平均ベクトルとの距離が最小となるクラスを識別結果とする方法全般をいう。   Linear discriminant analysis is a technique for obtaining a projection matrix that minimizes intra-class variance and maximizes inter-class variance for two or more clusters to be discriminated. Then, it refers to all methods in which the input feature quantity is projected onto the discriminant space by the mapping matrix obtained by the linear discriminant analysis, and the class having the minimum distance from the average vector of the discriminant class is used as the discrimination result.

一般にこれらの顔認識技術では、認識の信頼度を算出することができるから、出力された信頼度の値を所定の閾値と比較することで、顔検出が成功したか否かを判定すればよい。   In general, since these face recognition techniques can calculate the reliability of recognition, it is only necessary to determine whether or not the face detection is successful by comparing the output reliability value with a predetermined threshold value. .

顔検出が成功していれば(ステップST102でYes)ステップST104に進み、成功していなければ(ステップST102でNo)撮像部2における電荷蓄積時間やフレームレートといったパラメータ調整や、顔検出の閾値調整を行い(ステップST103)、再度被化粧者を撮影する(ステップST101)。もちろん再度の撮像が不要であれば(例えば、画像のコントラスト調整やγ値によって修正が可能な場合)、前処理の段階で画像を修正して顔検出を実行してもよい。また、信頼度と合わせて顔認識が失敗した原因を特定するコードを出力し、これを参照してパラメータ調整を行うことで、顔認識に適した画像を少ない試行回数で撮影することができる。   If face detection is successful (Yes in step ST102), the process proceeds to step ST104. If not successful (No in step ST102), parameter adjustment such as charge accumulation time and frame rate in the imaging unit 2, and face detection threshold adjustment (Step ST103) and photograph the person to be dressed again (step ST101). Of course, if re-imaging is not necessary (for example, if the image can be corrected by contrast adjustment or γ value), face detection may be performed by correcting the image in the preprocessing stage. In addition, by outputting a code for identifying the cause of the face recognition failure together with the reliability and adjusting the parameters with reference to this, an image suitable for face recognition can be taken with a small number of trials.

さて、ステップST102で顔検出が成功したとしても、顔が含まれる顔枠の枠サイズ、顔枠内での顔の向きや顔の位置は様々であり、この状態で他の顔画像との類似性を評価することはできない。よって、所定の顔枠内に顔が収まるように正規化する必要がある。この手法として、例えば、検出された顔枠に対して目の検出を行い、目の位置を元にして顔画像にアフィン変換をかけ、顔を正規化する手法、あるいは、検出された顔枠に対してAAM(Active Shape Model)を適用し、顔枠にアフィン変換をかけ、顔を正規化する手法、が知られている。これらの処理を施すことにより、検出された顔枠は全てサイズが統一され(例えば100×100画素)、顔枠の中心に顔が存在するように正規化される。   Even if the face detection is successful in step ST102, the frame size of the face frame including the face, the face orientation and the face position within the face frame are various, and in this state, similar to other face images Sex cannot be evaluated. Therefore, it is necessary to normalize so that the face falls within a predetermined face frame. As this method, for example, eyes are detected on the detected face frame, and affine transformation is applied to the face image based on the position of the eyes, and the face is normalized. On the other hand, a technique is known in which AAM (Active Shape Model) is applied, affine transformation is applied to the face frame, and the face is normalized. By performing these processes, all detected face frames are unified in size (for example, 100 × 100 pixels) and normalized so that the face exists at the center of the face frame.

このようにして撮像部2で撮影した画像から顔検出を行った後、顔パーツ検出部11で目、鼻、口といった顔パーツ位置の検出を行い、顔パーツ位置の検出が成功したか否かを判断する(ステップST104)。顔パーツ検出部11では、例えば、四方向面特徴と弛緩整合法により人物の違いや顔の向きに依存性を少なくして目、鼻、口といった顔パーツの検出を行うことができる。   After performing face detection from the image captured by the imaging unit 2 in this manner, the face part detection unit 11 detects the face part positions such as eyes, nose, and mouth, and whether or not the face part position has been successfully detected. Is determined (step ST104). The face part detection unit 11 can detect face parts such as eyes, nose, and mouth by reducing dependency on a person's difference and face direction by, for example, a four-way surface feature and a relaxation matching method.

第1実施形態に応用可能な他の技術として、Haar−like特徴を用いて顔と各顔パーツを検出する手法が知られている。その際、まず、顔パーツの中で最も検出の容易な鼻を基準として、相対的位置関係から各顔パーツの候補領域を推定する。さらに、その候補領域近傍にてHOG(Histogram of Oriented Gradient)特徴量を用いたテンプレートマッチングを行い、顔パーツ位置を微調整するようにしてもよい。なお、HOG特徴量とは予め規定した局所領域(セル)の輝度の勾配方向をヒストグラム化する手法をいい、幾何学的変換がなされた場合でも特徴量を抽出しやすく、また照明の変動についてもロバストであるとされている。   As another technique applicable to the first embodiment, a method of detecting a face and each face part using a Haar-like feature is known. In that case, first, candidate areas of each face part are estimated from the relative positional relationship with the nose that is the easiest to detect among the face parts as a reference. Further, template matching using a HOG (Histogram of Oriented Gradient) feature amount may be performed near the candidate region to finely adjust the face part position. Note that the HOG feature value is a method of creating a histogram of the luminance gradient direction of a local region (cell) defined in advance, and it is easy to extract the feature value even when geometrical transformation is performed, and the fluctuation of illumination It is said to be robust.

顔パーツ判定においても検出の信頼度を算出できるため、信頼度を所定の閾値と比較することで顔パーツ検出が成功したか否かを判定できる。顔パーツ検出が成功していれば(ステップST104でYes)ステップST106へと進み、失敗していれば(ステップST104でNo)撮像に関するパラメータ調整を行い(ステップST105)、再度被化粧者を撮影する(ステップST101)。なお、ステップST105の処理はステップST103と同様であるため、詳細な説明は省略する。   Since the detection reliability can also be calculated in the face part determination, it is possible to determine whether or not the face part detection is successful by comparing the reliability with a predetermined threshold. If the face part detection has succeeded (Yes in step ST104), the process proceeds to step ST106. If the face part detection has failed (No in step ST104), parameter adjustment relating to imaging is performed (step ST105), and the subject is photographed again. (Step ST101). In addition, since the process of step ST105 is the same as that of step ST103, detailed description is abbreviate | omitted.

次に合成顔画像生成部12は、メイクアップ手法記憶部4cにアクセスして画像調整パラメータを読み込み(ステップST106)、その後、合成顔画像を生成する(ステップST107)。   Next, the synthesized face image generation unit 12 accesses the makeup method storage unit 4c, reads the image adjustment parameters (step ST106), and then generates a synthesized face image (step ST107).

図4は、合成顔画像を生成する際の画像処理対象を説明する説明図である。以降、図4に図1を併用して画像処理対象と画像合成の際に用いる画像調整パラメータの内容について詳細に説明する。   FIG. 4 is an explanatory diagram for explaining an image processing target when generating a composite face image. Hereinafter, FIG. 4 will be used in conjunction with FIG. 1 to describe in detail the contents of the image processing parameters and the image adjustment parameters used for image synthesis.

図4において、AR1〜AR6はそれぞれ化粧が施される対象部位(範囲)を示している。具体的にはAR1は顔全体を、AR2はアイブロウを書く範囲を、AR3はアイシャドウを付す範囲を、AR4はアイラインを書く範囲を、AR5はチークを入れる範囲を、AR6はリップを塗る範囲をそれぞれ示している。このうち、AR2〜AR5は本来なら顔の左右に現れるが、その一方を省略して描いている。   In FIG. 4, AR <b> 1 to AR <b> 6 indicate target parts (ranges) on which makeup is performed. Specifically, AR1 is the entire face, AR2 is the range where the eyebrow is written, AR3 is the range where the eye shadow is applied, AR4 is the range where the eyeline is written, AR5 is the range where the cheek is put, and AR6 is the range where the lip is applied. Respectively. Of these, AR2 to AR5 originally appear on the left and right sides of the face, but one of them is omitted.

合成顔画像は、これらの対象部位のそれぞれに化粧が施された状態をシミュレーションして生成されるが、第1実施形態では簡易モードと詳細モードの2つに区分して、施される化粧の内容を設定している。   The synthesized face image is generated by simulating the state in which makeup is applied to each of these target parts. In the first embodiment, the makeup image is divided into two modes, a simple mode and a detailed mode. The contents are set.

簡易モードでは、AR1には2色の化粧品(ファンデーション)のうちいずれか(その色をFAC1,FAC2とする)が使用される。AR2には3色の化粧品のうちいずれか(その色をEBC1〜EBC3とする)が使用される。AR3には3色の化粧品のうちいずれか(その色をESC1〜ESC3とする)が使用される。AR4には2色の化粧品のうちいずれか(その色をELC1,ELC2とする)が使用される。AR5には4色の化粧品のうちいずれか(その色をCEC1〜CEC4とする)が使用される。AR6には4色の化粧品のうちいずれか(その色をLPC1〜LPC4とする)が使用される。これらを組み合わせたメイクアップ手法は、2×3×3×2×4×4=576通り存在する。なお、以降の説明において、FAC1やLPC1といった色を表す表記を単に「色記号」と呼称する。   In the simple mode, one of the two color cosmetics (foundation) (the colors are FAC1 and FAC2) is used for AR1. One of the three color cosmetics (the color is referred to as EBC1 to EBC3) is used for AR2. One of the three color cosmetics (the color is referred to as ESC1 to ESC3) is used for AR3. One of two color cosmetics (the color is ELC1, ELC2) is used for AR4. One of four color cosmetics (the color is CEC1 to CEC4) is used for AR5. One of the four color cosmetics (the color is LPC1 to LPC4) is used for AR6. There are 2 × 3 × 3 × 2 × 4 × 4 = 576 makeup methods combining these. In the following description, a notation representing a color such as FAC1 or LPC1 is simply referred to as a “color symbol”.

一方の詳細モードでは、AR1には6色の化粧品のいずれか(色記号はFAC1〜FAC6)が使用される。AR2には3色の化粧品のうちいずれか(色記号はEBC1〜EBC3)が使用され、AR2中に細い、標準、太い、の3種類のいずれかでアイブロウが描かれる。AR3には18色の化粧品のうちいずれか(色記号はESC1〜ESC18)が使用され、AR3中に細い、標準、太い、の3種類のいずれかでアイシャドウが付される。AR4には2色のうちいずれか(色記号はELC1,ELC2)が使用される。AR5には4色のうちいずれか(色記号はCEC1〜CEC4)が、頬上・頬下・頬全体の3つの位置のいずれかで使用される。AR6には8色のうちいずれか(色記号はLP1〜LP8)が使用される。これらを組み合わせたメイクアップ手法は、6×(3×3)×(18×3)×2×(4×3)×8=559872通り存在する。   In one detailed mode, one of six color cosmetics (color symbols are FAC1 to FAC6) is used for AR1. Any one of the three color cosmetics (color symbols are EBC1 to EBC3) is used for AR2, and the eyebrow is drawn in any one of the three types of thin, standard, and thick in AR2. Any of 18 color cosmetics (color symbols are ESC1 to ESC18) is used for AR3, and eye shadows are attached to AR3 in any of three types, thin, standard, and thick. One of two colors (color symbols are ELC1 and ELC2) is used for AR4. One of four colors (color symbols are CEC1 to CEC4) is used for AR5 at any one of the three positions on the cheek, below the cheek, and on the entire cheek. One of eight colors (color symbols are LP1 to LP8) is used for AR6. There are 6 × (3 × 3) × (18 × 3) × 2 × (4 × 3) × 8 = 559987 ways of makeup methods combining these.

メイクアップ手法記憶部4cには、1つのメイクアップ手法に対応した画像調整パラメータとして、色記号と、色記号に対応した具体的な化粧品名、これらの化粧品を使って化粧を施した際の肌の色の変化(正確には、輝度、彩度、色相変化)に関する情報(色変化情報)、およびAR2に書かれるアイブロウ等の形状情報(細い、標準、太いに対応した画像データ)、化粧の手順等が記憶されている。   The makeup technique storage unit 4c includes, as image adjustment parameters corresponding to one makeup technique, a color symbol, a specific cosmetic name corresponding to the color symbol, and skin when applying makeup using these cosmetics. Information (color change information) regarding color changes (accurately, brightness, saturation, hue change), and shape information such as eyebrow written in AR2 (image data corresponding to thin, standard, and thick), makeup Procedures are stored.

更に、上述の色変化情報には、撮像部2で撮像した被化粧者の顔画像の肌色の輝度、彩度、色相に応じて、シミュレーションとしての化粧の効果を加減する色調整因子が含まれる。色調整因子は例えばL表色系における修正率として導入されており、これは例えばファンデーションの色に近い肌の色を持つ人に同色のファンデーションを付しても、効果が小さい場合等を考慮したものである。また、化粧とは、技術的には肌の上に紛体または液体を塗布等する行為であるから、例えば、電子写真記録技術分野での特定の色成分(肌色)を有する記録媒体上に特定顔料ないし染料を含む紛体トナーあるいは液体インクを重畳させた場合の層状モデルを援用することで、化粧による輝度(濃度)、色相、彩度変化の予測精度を向上させることができる。 Furthermore, the color change information described above includes a color adjustment factor that adjusts the effect of makeup as a simulation according to the brightness, saturation, and hue of the skin color of the face image of the face to be imaged by the imaging unit 2. . The color adjustment factor is introduced, for example, as a correction rate in the L * a * b * color system, and this has little effect even when a foundation having the same color is applied to a person having a skin color close to the foundation color, for example. The case is taken into consideration. In addition, makeup is technically an act of applying powder or liquid on the skin, so for example, a specific pigment on a recording medium having a specific color component (skin color) in the field of electrophotographic recording technology. In addition, by using a layered model in which powder toner containing dye or liquid ink is superimposed, prediction accuracy of luminance (density), hue, and saturation change due to makeup can be improved.

また、上述の形状情報には、顔パーツの大きさに応じたスケーリング調整因子が含まれる。この調整因子は、例えば別途検出された顔画像から目の水平方向の大きさに基づいて、アイラインやアイブロウの水平方向サイズ、傾斜等を調整するものである。   The shape information includes a scaling adjustment factor corresponding to the size of the face part. This adjustment factor adjusts the horizontal size and inclination of the eyeline and eyebrow based on, for example, the horizontal size of the eye from a separately detected face image.

図5は、本発明の第1実施形態に係る美容支援装置1において合成顔画像を生成する過程を説明する説明図である。   FIG. 5 is an explanatory diagram illustrating a process of generating a composite face image in the beauty support apparatus 1 according to the first embodiment of the present invention.

以降、図1、図2、図5を用いて説明を続ける。   Hereinafter, the description will be continued with reference to FIGS. 1, 2, and 5.

合成顔画像生成部12は、データベースであるメイクアップ手法記憶部4cから色変化情報、形状情報、色調整因子、スケーリング調整因子、化粧の手順といった画像調整パラメータを取得し、顔パーツ検出部11によって検出された各顔パーツの位置を参照して、被化粧者の顔画像と画像調整パラメータの値に基づいて、合成顔画像を生成する(ステップST107)。そして、この処理は、上述したAR1〜AR6の全ての組み合わせについて、即ち、簡易モードであれば576通り、詳細モードであれば559872通りの合成顔画像を生成するまで実行される(ステップST108でYes)。そして、生成された合成顔画像は合成顔画像記憶部4dに保存される。   The composite face image generation unit 12 acquires image adjustment parameters such as color change information, shape information, color adjustment factors, scaling adjustment factors, and makeup procedures from the makeup method storage unit 4c that is a database. With reference to the detected position of each face part, a composite face image is generated based on the face image of the subject and the value of the image adjustment parameter (step ST107). This process is executed for all combinations of the above-described AR1 to AR6, that is, until 576 ways of composite face images are generated in the simple mode and 559872 ways of composite face images in the detailed mode (Yes in step ST108). ). The generated composite face image is stored in the composite face image storage unit 4d.

より具体的には、図5に示すように、例えば合成顔画像1ではAR1に対してFAC1を、AR2に対してEBC2を、AR3に対してESC1を、AR4に対してELC2を、AR5に対してCEC2を、AR6に対してLPC3を適用して合成顔画像を生成する。更に、これをAR1〜AR6の全ての組み合わせについて実行して、合成顔画像1〜合成顔画像M(簡易モードではM=576)までを生成する。   More specifically, as shown in FIG. 5, for example, in the synthetic face image 1, FAC1 for AR1, EBC2 for AR2, ESC1 for AR3, ELC2 for AR4, ELC2 for AR5 Then, CEC2 is applied and LPC3 is applied to AR6 to generate a composite face image. Furthermore, this is executed for all combinations of AR1 to AR6, and synthetic face images 1 to M (M = 576 in the simple mode) are generated.

なお、以降の説明では「メイクアップ手法」というときは、1つの合成顔画像を生成した際のAR1〜AR6の組み合わせパターンを意味する。即ち、合成顔画像のそれぞれは、互いに異なるメイクアップ手法に対応したものとなる。   In the following description, “makeup method” means a combination pattern of AR1 to AR6 when one composite face image is generated. That is, each composite face image corresponds to a different makeup method.

図6は、本発明の第1実施形態に係る美容支援装置1において特徴量を特徴量空間にプロットする過程を説明する説明図である。   FIG. 6 is an explanatory diagram illustrating a process of plotting feature quantities in a feature quantity space in the beauty support apparatus 1 according to the first embodiment of the present invention.

以降、図1、図2、図6を用いて説明を続ける。次に特徴量抽出部25は、合成顔画像記憶部4dに一旦格納された被化粧者の合成顔画像を取り出し、特徴量抽出を行って特徴量空間にプロットする(ステップST109)。   Hereinafter, the description will be continued with reference to FIGS. 1, 2, and 6. Next, the feature amount extraction unit 25 extracts the face image of the subject once stored in the composite face image storage unit 4d, performs feature amount extraction, and plots it in the feature amount space (step ST109).

第1実施形態では、特徴量としてGabor特徴量、あるいはLBP(Local Binary Pattern)を用いている。Gabor特徴量はsin/cos関数をガウス関数で局在化したGaborフィルタによって抽出される。即ち、画像データに対してGaborフィルタを畳み込み演算することで、エッジおよびそのエッジの輝度値(強度)を抽出することができる。この特徴量は局所的な特徴を抽出することから照明変動の影響を受けにくいとされている。   In the first embodiment, a Gabor feature value or an LBP (Local Binary Pattern) is used as a feature value. The Gabor feature value is extracted by a Gabor filter in which a sin / cos function is localized with a Gauss function. That is, the edge and the luminance value (intensity) of the edge can be extracted by performing a convolution operation on the image data. This feature quantity is considered to be less susceptible to illumination fluctuations because local features are extracted.

また、LBP特徴量とは、注目画素とその周囲8画素との輝度値の比較を行って得たビット列を特徴量としたものである。この特徴量に基づいて局所領域に存在するエッジを抽出することができる。このLBPも照明変動の影響を受けにくく、更に計算コストが小さい手法として知られている。また、LBPはビット列、即ち数値であるから、画像に対してLBPの数値を抽出しておき、その数値をランク、その出現頻度を度数とするヒストグラムを特徴量として用いてもよい。具体的には、合成顔画像を複数のブロックに分割し、各ブロック内でLBP特徴量のヒストグラムを生成し、それらを連結させたベクトルを最終的なLBP特徴量ベクトルとして使用すればよい。   The LBP feature value is a bit string obtained by comparing the luminance values of the target pixel and the surrounding eight pixels as the feature value. Based on this feature amount, an edge existing in the local region can be extracted. This LBP is also less susceptible to illumination fluctuations, and is known as a method with a lower calculation cost. In addition, since LBP is a bit string, that is, a numerical value, a numerical value of LBP may be extracted from the image, a histogram having the numerical value as a rank and the appearance frequency as a frequency may be used as a feature amount. Specifically, the synthesized face image is divided into a plurality of blocks, a histogram of LBP feature values is generated in each block, and a vector obtained by connecting these is used as a final LBP feature value vector.

このように、Gabor特徴量やLBP特徴量は、元々エッジが存在しなかった場所にエッジが現れた場合(アイシャドー、アイライン、チーク等)、その変化を抽出することができる。特に、Gabor特徴量は、元々エッジが存在した箇所のエッジを更に際立たせた場合(アイライン、リップ等)やファンデーションで顔全体の輝度値が変化した場合であっても、その変化を抽出することができる。   As described above, changes in the Gabor feature value and the LBP feature value can be extracted when an edge appears at a place where the edge did not originally exist (eye shadow, eyeline, cheek, etc.). In particular, the Gabor feature value is extracted even when the edge where the edge originally existed is more prominent (eyeline, lip, etc.) or when the brightness value of the entire face changes due to the foundation. be able to.

これらの操作により各々の画像は輝度ベクトルから特徴量ベクトルに変換され、図6に示す特徴量空間にプロットされる。なお、特徴量空間は後に説明する人の感性に基づく評価項目を反映するものではない。しかしながら、特徴量空間は上述した特徴量を介して全体的な見た目を表すものであり「見た目の空間」ともいえるものである。従って、特徴量空間において2つの画像から抽出した特徴量をプロットした座標が近接しているということは、2つの画像の見た目が似ていることに他ならない。   By these operations, each image is converted from a luminance vector to a feature vector and plotted in the feature space shown in FIG. Note that the feature amount space does not reflect an evaluation item based on human sensitivity described later. However, the feature amount space represents the overall appearance through the above-described feature amount, and can be said to be an “appearance space”. Therefore, the fact that the coordinates plotting the feature values extracted from the two images in the feature value space are close to each other means that the appearances of the two images are similar.

なお、第1実施形態では合成顔画像を上述したように100×100画素に正規化し、この正規化画像からGabor特徴量、あるいはLBP特徴量を得ている。   In the first embodiment, the composite face image is normalized to 100 × 100 pixels as described above, and the Gabor feature value or LBP feature value is obtained from the normalized image.

図7は、本発明の第1実施形態に係る美容支援装置1において特徴量を部分空間に射影する過程を説明する説明図であり、図8は、人の感性に基づく評価項目の内容(感覚的な特性)を示す表である。   FIG. 7 is an explanatory diagram for explaining a process of projecting a feature value onto a partial space in the beauty support apparatus 1 according to the first embodiment of the present invention, and FIG. 8 shows the contents (sensation of evaluation items based on human sensitivity) Is a table showing typical characteristics).

以降、図2、図7、図8を用いて説明を続ける。ステップST110では、上述の特徴量ベクトルを、人の感性に基づく評価項目に対応した部分空間に射影する。   Hereinafter, the description will be continued with reference to FIGS. 2, 7, and 8. In step ST110, the above-described feature vector is projected onto a partial space corresponding to an evaluation item based on human sensitivity.

ここで図8に示すように、第1実施形態では、例えば、〜20歳の女性については「女性らしさ」「キュート」「子供っぽさ」が評価項目として設定される。そして、20歳〜30歳の女性については、「女性らしさ」「キュート」「ギャル」「小悪魔」「セクシー」の5つが評価項目として設定される。   As shown in FIG. 8, in the first embodiment, for example, “femininity”, “cute”, and “childhood” are set as evaluation items for a woman of 20 years old. For women aged 20 to 30 years, “femininity”, “cute”, “gal”, “small devil”, and “sexy” are set as evaluation items.

以降、図7に示す「女性らしさ」や「キュート」等に対応する部分空間の作成方法について詳細に説明する。まず、評価項目である「キュート」等に対応する部分空間を統計的学習手法により予め求めておく。例えば、「キュート」の部分空間を生成する場合、予めM個の学習用顔画像に対して上述したGabor特徴量、あるいはLBP特徴量を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報。例えば1〜10のようなランク値であり、数値が大きいほど「キュート」の度合いが大きいことを意味する)を付与しておく。   Hereinafter, a method of creating a partial space corresponding to “femininity”, “cute”, and the like illustrated in FIG. 7 will be described in detail. First, a partial space corresponding to the evaluation item “cute” or the like is obtained in advance by a statistical learning method. For example, when the “cute” subspace is generated, the above-described Gabor feature value or LBP feature value is extracted from the M learning face images in advance, while the “cute” value is determined by human subjectivity. y (label information, which is a rank value such as 1 to 10, for example, the greater the numerical value, the greater the degree of “cute”).

ここで前述した特徴量と同一の特徴量ベクトルをM個の学習用顔画像から抽出しておけば、学習ベクトル・ラベルのセット(数1)が得られる。

Figure 2014149678
ここで特徴量ベクトルxの次元数をNとする。 If feature amount vectors identical to the above-described feature amounts are extracted from the M learning face images, a learning vector / label set (Equation 1) is obtained.
Figure 2014149678
Here, the number of dimensions of the feature vector x is N.

一般に特徴量ベクトルxは高次元のベクトルとなるため、次元数Nの中から有用な軸のみを取捨選択する操作(次元削減)が必要となる。特徴量ベクトルxがラベル情報を持たない場合、主成分分析(PCA:Principle Component Analysis)が一般的に広く用いられるが、上述したように特徴量ベクトルxが「キュート」値yのようにラベル情報を持つ場合、フィッシャー線形判別分析(FDA : Fisher Discriminant Analysis)、局所フィッシャー線形判別分析(LFDA : Local Fisher Discriminant Analysis)などが有用である。   In general, since the feature vector x is a high-dimensional vector, an operation (dimension reduction) for selecting only useful axes from the dimension number N is required. When the feature vector x does not have label information, principal component analysis (PCA) is generally widely used. However, as described above, label information such that the feature vector x is a “cute” value y is used. Are useful, such as Fisher linear discriminant analysis (FDA) and Local Fisher Discriminant Analysis (LFDA).

ここで線形判別分析とは、ラベル情報を元にして特徴量ベクトルxをクラスタリングし、各クラスタのクラス内の分散が小さく、かつクラス間の分散が大きくなるような低次元空間に射影する手法である。この低次元空間を次元数Nの空間の部分空間と呼ぶ。   Here, the linear discriminant analysis is a method of clustering the feature vector x based on the label information and projecting it to a low-dimensional space in which the variance within each class of each cluster is small and the variance between the classes is large. is there. This low-dimensional space is referred to as a subspace of the dimension N space.

ベクトル・ラベルのセット(数1)から線形判別分析を用いて射影行列Wを算出し、この射影行列Wを予め記憶部4の射影行列/回帰モデル記憶部4eに格納する。この操作は全ての評価項目について実行される。即ち、射影行列Wは人の感性に基づく評価項目の個数だけ生成される。そして、この射影行列WはステップST110において、合成顔画像から得た特徴量を各評価項目に対応する部分空間に射影する際に使用される。特徴量を部分空間に射影することで、特徴量は部分空間の座標にプロットされる。   A projection matrix W is calculated from the set of vector labels (Equation 1) using linear discriminant analysis, and this projection matrix W is stored in the projection matrix / regression model storage unit 4e of the storage unit 4 in advance. This operation is executed for all evaluation items. That is, the projection matrix W is generated as many as the number of evaluation items based on human sensitivity. In step ST110, the projection matrix W is used when the feature amount obtained from the synthesized face image is projected onto the partial space corresponding to each evaluation item. By projecting the feature quantity onto the subspace, the feature quantity is plotted on the coordinates of the subspace.

以上、プログラムP1についてステップST101〜ステップST110まで説明したが、以降、説明の便宜から図3に示すプログラムP3の処理について説明する。プログラムP3は目標顔画像を入力して、その特徴量を取得する処理を行う。   The program P1 has been described from step ST101 to step ST110. Hereinafter, the process of the program P3 shown in FIG. 3 will be described for convenience of description. The program P3 inputs the target face image and performs processing for acquiring the feature amount.

プログラムP3では、イメージセンサを有する図示しない撮像部を用いて、目標顔画像を取得すると想定しており、まず撮像部としての目標顔画像入力部20から目標顔画像を入力する(ステップST301)。次に、入力された画像から顔を検出して顔検出が成功したか否かを判断する(ステップST302)。顔検出が成功していなければ(ステップST302でNo)、パラメータ調整を行って(ステップST303)、再度目標顔画像の撮影を行う(ステップST301)。なお、ステップST301〜ステップST303の過程はプログラムP1のステップST101〜ステップST103と同様であり、例えば、これらのステップで説明したパラメータ調整を行うとよい。   In the program P3, it is assumed that a target face image is acquired using an imaging unit (not shown) having an image sensor. First, the target face image is input from the target face image input unit 20 as an imaging unit (step ST301). Next, a face is detected from the input image, and it is determined whether the face detection is successful (step ST302). If face detection is not successful (No in step ST302), parameter adjustment is performed (step ST303), and the target face image is captured again (step ST301). In addition, the process of step ST301-step ST303 is the same as that of step ST101-step ST103 of the program P1, For example, it is good to perform parameter adjustment demonstrated in these steps.

次に取得した目標顔画像を図示しないメモリに保存し(ステップST304)、目標顔画像について特徴量を抽出し、これを保存する(ステップST305)。そしてこの特徴量をベクトルとして取扱い、既に説明した評価項目に対応する部分空間に射影し、これを保存する(ステップST306)。ただし、ST306を実行する際には、評価項目が定まっている必要があるため、ST306の実行はプログラムP2のST204で評価項目が決定されるのを待って行われる。ここで抽出する特徴量および評価項目、部分空間についてはプログラムP1のステップST109、ステップST110で説明したものと全く同じであるので説明を省略する。以上によってプログラムP3の処理が終了し、処理は結合子AでプログラムP1に引き継がれる。   Next, the acquired target face image is stored in a memory (not shown) (step ST304), a feature amount is extracted from the target face image, and is stored (step ST305). Then, this feature quantity is handled as a vector, projected onto the partial space corresponding to the evaluation item already described, and stored (step ST306). However, since it is necessary to determine the evaluation items when executing ST306, the execution of ST306 is performed after the evaluation items are determined in ST204 of program P2. Since the feature amount, the evaluation item, and the partial space extracted here are exactly the same as those described in step ST109 and step ST110 of the program P1, description thereof will be omitted. Thus, the processing of the program P3 is completed, and the processing is transferred to the program P1 by the connector A.

なお、上述したように、目標顔画像の入力源はあらゆるソースが許容されており、個々の目標顔画像は撮像時の照明条件が異なる場合が多いと考えられる。これに対して、第1実施形態で使用しているGabor特徴量やLBP特徴量は局所的統計量であることから、照明の影響を小さくすることができる。   As described above, any source of the target face image is allowed, and each target face image is considered to have different illumination conditions at the time of imaging. On the other hand, since the Gabor feature value and the LBP feature value used in the first embodiment are local statistics, the influence of illumination can be reduced.

以降、図2のプログラムP1に戻って、ステップST111以降の処理について説明する。なお、説明に際して図7を参照する。   Hereinafter, returning to the program P1 in FIG. 2, the processing after step ST111 will be described. In the description, reference is made to FIG.

上述したステップST305によって、目標顔画像の特徴量空間における座標(即ち、特徴量ベクトルそのもの)が取得され、ステップST306によって、目標顔画像の特徴量ベクトルを各評価項目に対応した部分空間に射影(プロット)した座標が取得されている。   In step ST305 described above, coordinates in the feature amount space of the target face image (that is, the feature amount vector itself) are acquired, and in step ST306, the feature amount vector of the target face image is projected onto the partial space corresponding to each evaluation item ( (Plot) coordinates are acquired.

ステップST111では、評価項目の1つである例えば「キュート」の部分空間について、ユークリッド距離計算部29は、被化粧者の合成顔画像の特徴量ベクトルを部分空間に射影したベクトルPおよび目標顔画像の特徴量ベクトルを部分空間に射影したベクトルQを取り出し、これらのユークリッド距離d(P,Q)を(数2)を用いて計算する。

Figure 2014149678
In Step ST111, for one of the evaluation items, for example, “cute”, the Euclidean distance calculation unit 29 projects the vector P obtained by projecting the feature amount vector of the composite face image of the subject to the partial space and the target face image. A vector Q obtained by projecting the feature quantity vector into the subspace is extracted, and these Euclidean distances d (P, Q) are calculated using (Equation 2).
Figure 2014149678

なお、(数2)において、nは部分空間の次元数、yはベクトルPの第i軸の値、xはベクトルQの第i軸の値を示す。 In (Expression 2), n represents the number of dimensions of the subspace, y i represents the value of the i-th axis of the vector P, and x i represents the value of the i-th axis of the vector Q.

即ち、図7に示すように、「キュート」の部分空間において、合成顔画像1の座標位置と目標顔画像の座標位置との距離を計算する。距離が近いほど2つの画像は「キュート」部分空間で類似することになる。そして、ステップST111では、各評価項目、即ち「女性らしさ」、「セクシー」、「小悪魔」といった他の評価項目に対応した部分空間においても同様にして合成顔画像1と目標顔画像の座標間距離を求める。この処理によって、1つの合成顔画像について予め定めておいた複数の評価項目について類似度が算出される。   That is, as shown in FIG. 7, the distance between the coordinate position of the synthesized face image 1 and the coordinate position of the target face image is calculated in the “cute” partial space. The closer the distance, the more similar the two images are in the “cute” subspace. In step ST111, the coordinates between the composite face image 1 and the target face image are similarly determined in the partial space corresponding to each evaluation item, that is, other evaluation items such as “femininity”, “sexy”, and “small devil”. Find the distance. By this processing, the similarity is calculated for a plurality of evaluation items that are predetermined for one synthetic face image.

なお、類似度はユークリッド距離をそのまま用いてもよく、この場合は両者が類似するほど類似度の値は小さくなる。ただし、このように取り扱うと人の感覚とは逆となるため、例えばユークリッド距離=0のときに類似度が100となるような数値変換を行っておくと、人の感覚との整合性を図ることができる。なお、以降の説明においても、ユークリッド距離が小さい場合を類似度が高いと表現する。   Note that the Euclidean distance may be used as it is for the similarity, and in this case, the similarity is smaller as the two are more similar. However, if handled in this manner, it is opposite to the human sense. For example, if numerical conversion is performed such that the similarity is 100 when the Euclidean distance = 0, consistency with the human sense is achieved. be able to. In the following description, a case where the Euclidean distance is small is expressed as high similarity.

このようにして、全ての評価項目についての類似度が算出されるが、合成顔画像と目標顔画像の「総合的な類似度」については、例えば各評価項目の類似度の平均値を用いることができる。即ち、第1実施形態では、画像間の類似を人の感性に基づく評価項目のそれぞれについて行い、各評価項目の類似度を総合して類似度を判定している。   In this way, the similarity for all evaluation items is calculated. For the “total similarity” between the synthesized face image and the target face image, for example, the average value of the similarities of the evaluation items is used. Can do. That is, in the first embodiment, similarity between images is performed for each evaluation item based on human sensitivity, and the similarity is determined by combining the similarities of the evaluation items.

次に、ステップST112では、全ての合成顔画像について上記の処理が完了しているかを評価し、完了していなければ(ステップST112でNo)ステップST109に戻って、合成顔画像記憶部4dから次の合成顔画像を取得して上述の処理を繰り返す。これによって全ての評価項目について、全ての合成顔画像と目標顔画像との類似度が計算される。全ての合成顔画像について類似度(総合的な類似度)の計算が完了している場合(ステップST112でYes)は、メイクアップ手法抽出部24は、目標顔画像に対して総合的な類似度が最も高くなる合成顔画像を生成する際に用いたメイクアップ手法(以降、「最適なメイクアップ手法」と呼称する)を特定し、メイクアップ手法記憶部4cにアクセスしてメイクアップ手法の具体的内容(使用する化粧品、化粧の手順等)を取り出し、これを所定のメモリ領域に保存する(ステップST113)。以上で、プログラムP1の処理が終了する。   Next, in step ST112, it is evaluated whether or not the above processing is completed for all the synthesized face images. If not completed (No in step ST112), the process returns to step ST109, and the next process is performed from the synthesized face image storage unit 4d. And the above-described processing is repeated. Thereby, the similarity between all the synthesized face images and the target face image is calculated for all the evaluation items. When the calculation of the similarity (overall similarity) has been completed for all the synthesized face images (Yes in step ST112), the makeup technique extraction unit 24 determines the overall similarity with respect to the target face image. The makeup method (hereinafter referred to as “optimum makeup method”) used when generating the composite face image having the highest value is specified, and the makeup method storage unit 4c is accessed to specify the makeup method. The target contents (cosmetics to be used, cosmetic procedures, etc.) are taken out and stored in a predetermined memory area (step ST113). Thus, the process of the program P1 ends.

以降、プログラムP2の処理について説明する。第1実施形態において、上述した人の感性に基づく評価項目は、被化粧者の性別と年齢とを推定した結果に基づいて決定される。   Hereinafter, processing of the program P2 will be described. In the first embodiment, the evaluation items based on the above-described human sensitivity are determined based on the result of estimating the sex and age of the person to be dressed.

プログラムP2は、少なくともプログラムP1において顔検出が成功した(ステップST102でYes)タイミング以降に起動される。なお、被化粧者の顔画像は既に正規化されているものとする。まず、被化粧者の顔画像から特徴量を抽出する(ステップST201)。性別、年齢は、例えば目や口、顔の輪郭、しわ等に着目して推定することができ、特徴量として例えば4方向面特徴を利用することができる。   The program P2 is activated at least after the timing at which face detection is successful in the program P1 (Yes in step ST102). It is assumed that the face image of the subject is already normalized. First, feature quantities are extracted from the face image of the person to be makeup (step ST201). Gender and age can be estimated by paying attention to, for example, eyes, mouth, facial contours, wrinkles, and the like, and for example, four-direction surface features can be used as feature amounts.

次に、属性推定モデル記憶部4aにアクセスして属性推定モデルを読み込む(ステップST202)。   Next, the attribute estimation model storage unit 4a is accessed to read the attribute estimation model (step ST202).

以降、属性推定モデルの作成方法について説明するが、簡単のために性別の推定に関してのみ説明する。まず、「性別」に対応する属性推定モデルを統計的学習手法により予め求めておく。「性別」の属性推定モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「性別」、即ち「男性」または「女性」を示す値y(ラベル情報)を付与しておく。   Hereinafter, a method for creating an attribute estimation model will be described, but only gender estimation will be described for the sake of simplicity. First, an attribute estimation model corresponding to “gender” is obtained in advance by a statistical learning method. When learning the “sex” attribute estimation model, as previously described as a method for creating a subspace, the previously described Gabor feature values or LBP feature values for M learning face images are extracted. On the other hand, a value y (label information) indicating “sex”, that is, “male” or “female” is given according to human subjectivity.

その後、入力xに対する出力y(性別)の属性判定モデルを学習する。学習方法として、例えば線形判別分析、SVM(Support Vector Machine)、AdaBoostなどが知られている。   Thereafter, an attribute determination model of output y (gender) with respect to input x is learned. Known learning methods include, for example, linear discriminant analysis, SVM (Support Vector Machine), AdaBoost, and the like.

なお、属性推定モデルの学習に用いる顔データベースとして、例えば、NIST(National Institute of Standards and Technology)や、FERET(The Facial Recognition Technology)が知られている。特に日本人女性の顔を推定の対象とする場合はJAFFE(Japanese Female Facial Expression)顔データベースを利用することができる。   For example, NIST (National Institute of Standards and Technology) and FERET (The Facial Recognition Technology) are known as face databases used for learning the attribute estimation model. In particular, when a Japanese female face is to be estimated, a JAFFE (Japanese Female Facial Expression) face database can be used.

次に、年齢、性別推定を実行する(ステップST203)。具体的には、検出された被化粧者の顔画像から抽出した特徴量(特徴量ベクトル)を用いて属性推定モデルにアクセスすることで、年齢、性別が直接的に出力される。なお、一般的には、属性推定モデルは関数の一種であり、属性推定モデルが定義する空間の座標には「性別」「年齢」等の値が対応づけられている。これにより、特徴量ベクトルを属性推定モデルに入力することで、直ちに性別、年齢を得ることができる。   Next, age and sex estimation is executed (step ST203). Specifically, the age and gender are directly output by accessing the attribute estimation model using the feature amount (feature amount vector) extracted from the detected face image of the subject. In general, the attribute estimation model is a type of function, and values such as “sex” and “age” are associated with the coordinates of the space defined by the attribute estimation model. Thereby, gender and age can be obtained immediately by inputting the feature vector into the attribute estimation model.

そして、属性推定モデルをアクセスして得た年齢、性別に基づいて、評価項目記憶部4bがアクセスされ、類似度判定等に用いる評価項目が決定され、所定のメモリ領域に保存される(ステップST204)。なお、ユーザインタフェース6を用いて、被化粧者が類似度判定に使用する評価項目を任意に定められるようにしてもよく、また、後述するランク値を出力する評価項目を任意に選択可能としてもよい。以上で、プログラムP2の処理が終了する。   Then, based on the age and sex obtained by accessing the attribute estimation model, the evaluation item storage unit 4b is accessed, evaluation items used for similarity determination and the like are determined, and stored in a predetermined memory area (step ST204). ). It should be noted that the user interface 6 may be used to arbitrarily determine the evaluation items used by the makeup person for similarity determination, and the evaluation items for outputting rank values to be described later can be arbitrarily selected. Good. Thus, the processing of program P2 is completed.

そして、保存された評価項目は、既に説明したステップST110で参照されて、これに対応した部分空間において類似度の算出が行われる。   Then, the stored evaluation item is referred to in step ST110 already described, and the similarity is calculated in the corresponding partial space.

なお、以上説明した属性推定モデルは、入力された顔画像から人の性別と年齢を推定するものであるが、これに加えて、例えば人種(コーカソイド、モンゴロイド、ネグロイド)を判別させるようにしてもよい。そして、このような人種の属性に応じて評価項目を決定してもよい。   In addition, although the attribute estimation model demonstrated above estimates a person's sex and age from the input face image, in addition to this, for example, it is made to discriminate race (caucasian, mongoloid, neggroid). Also good. And an evaluation item may be determined according to such a racial attribute.

さて、これまでの説明では、被化粧者の顔画像に様々なメイクアップ手法を適用した合成顔画像と、目標顔画像との類似度を判定するための構成とプロセスについて説明した。一方、被化粧者にとっては類似度とは別に、例えば「キュート」といった評価項目についての目標顔画像のランク値と化粧前のランク値、そして化粧を進めていく被化粧者のランク値がリアルタイムに判定できると使い勝手が向上する。   In the description so far, the configuration and process for determining the degree of similarity between the combined face image obtained by applying various makeup techniques to the face image of the subject and the target face image have been described. On the other hand, in addition to the similarity, the rank value of the target face image and the rank value before makeup for the evaluation item such as “cute”, and the rank value of the makeup person proceeding with makeup are determined in real time. If it can be judged, the usability is improved.

図9は、美容支援装置1において被化粧者にランク値を表示する過程を説明するフローチャートである。このフローチャートに示されるプログラムP4は、例えば図2を用いて説明したプログラムP1が終了した時点で起動されてもよいし、被化粧者が任意に起動してもよい。   FIG. 9 is a flowchart for explaining the process of displaying the rank value to the subject in the beauty support apparatus 1. The program P4 shown in this flowchart may be started when the program P1 described with reference to FIG. 2 ends, for example, or may be arbitrarily started by the subject.

以降、図9と図1を用いて各評価項目に対してランク値、メイクアップ手法、目標顔画像、被化粧者の顔画像をリアルタイムに表示する過程について説明する。なお、ランク値は評価部40によって付与される。   Hereinafter, the process of displaying the rank value, the makeup method, the target face image, and the face image of the subject in real time for each evaluation item will be described with reference to FIGS. 9 and 1. The rank value is given by the evaluation unit 40.

まず、プログラムP1のステップST113で保存した、最適なメイクアップ手法の具体的内容を取り出す(ステップST401)。次に、プログラムP2のステップST204で保存した評価項目、あるいは被化粧者が任意に選択した評価項目を読み込む(ステップST402)。次に、射影行列/回帰モデル記憶部4eにアクセスして、予め射影行列/回帰モデル記憶部4eに記憶しておいた各評価項目の回帰モデルを読み込む(ステップST403)。   First, the specific contents of the optimum makeup method stored in step ST113 of the program P1 are extracted (step ST401). Next, the evaluation item stored in step ST204 of the program P2 or the evaluation item arbitrarily selected by the user is read (step ST402). Next, the projection matrix / regression model storage unit 4e is accessed to read the regression model of each evaluation item stored in advance in the projection matrix / regression model storage unit 4e (step ST403).

以降、回帰モデルの作成方法について説明する。まず、図8に示す各評価項目(「女性らしさ」、「セクシー」、「キュート」等)に対応する部分空間における回帰モデルを統計的学習手法により予め求めておく。例えば、「キュート」の回帰モデルを学習する場合、先に部分空間の作成方法として説明したように、予めM個の学習用顔画像に対して既に説明したGabor特徴量、あるいはLBP特徴量等を抽出し、その一方で人の主観により「キュート」の値y(ラベル情報)を付与しておく。   Hereinafter, a method for creating a regression model will be described. First, a regression model in a partial space corresponding to each evaluation item (“femininity”, “sexy”, “cute”, etc.) shown in FIG. 8 is obtained in advance by a statistical learning method. For example, when learning a “cute” regression model, the Gabor feature amount or LBP feature amount already described for the M learning face images in advance is used as described in the method for creating the partial space. On the other hand, a “cute” value y (label information) is given according to human subjectivity.

その後、評価項目「キュート」の射影行列Jを上述した線形判別分析で求めた後、特徴量ベクトルを射影した後の低次元空間において、入力xに対する出力y(ランク値)の回帰モデルを学習する。学習方法として、例えば線形回帰、ベイズ線形回帰、SVR(Support Vector Regression)などが知られている。このように、回帰モデルを用いることで、未知の特徴量ベクトルが入力された場合にランク値を推定することが可能となる。なお、第1実施形態では回帰モデルの他に、例えばニューラルネットワーク等を用いてランク値を推定するようにしてもよい。   After that, after obtaining the projection matrix J of the evaluation item “cute” by the above-described linear discriminant analysis, a regression model of the output y (rank value) with respect to the input x is learned in the low-dimensional space after projecting the feature vector. . As learning methods, for example, linear regression, Bayesian linear regression, SVR (Support Vector Regression) and the like are known. As described above, by using the regression model, it is possible to estimate the rank value when an unknown feature vector is input. In the first embodiment, the rank value may be estimated using, for example, a neural network in addition to the regression model.

被化粧者の顔画像に基づいて、特徴量抽出部25で特徴量(特徴量ベクトル)を抽出し、部分空間射影部26で射影行列Jを掛け合わせることで射影ベクトルが生成され、この射影ベクトル(座標)を用いてランク推定部41で回帰モデルをアクセスすることで、入力した特徴量に対応した、例えば「キュート」のランク値が直接的に出力される。なお、一般的には、回帰モデルは関数の一種であり、回帰モデルが定義する空間の座標には「キュート」等の各評価項目のランク値が対応づけられている。これにより、特徴量ベクトルに各回帰モデルに対応した射影行列Jを掛け合わせ、回帰モデルに入力することで、直ちに評価項目についてのランク値を得ることができる。このような構成では部分空間射影部26がランク推定部41を包含することとなり、これらを合わせていわば回帰モデル射影部として機能する。   A feature quantity (feature quantity vector) is extracted by the feature quantity extraction section 25 based on the face image of the person to be makeup, and a projection vector is generated by multiplying the projection matrix J by the subspace projection section 26, and this projection vector. By accessing the regression model by the rank estimation unit 41 using (coordinates), for example, a “cute” rank value corresponding to the input feature amount is directly output. In general, the regression model is a kind of function, and the rank value of each evaluation item such as “cute” is associated with the coordinates of the space defined by the regression model. Thus, the rank value for the evaluation item can be obtained immediately by multiplying the feature quantity vector by the projection matrix J corresponding to each regression model and inputting it to the regression model. In such a configuration, the subspace projection unit 26 includes the rank estimation unit 41, and functions as a regression model projection unit in combination.

次に、既に説明したプログラムP3のステップST304で保存しておいた、目標顔画像を読み込む(ステップST404)。次に、プログラムP3のステップST305で保存しておいた、目標顔画像の特徴量を読み込む(ステップST405)。次に、読み込んだ特徴量を、部分空間射影部26によって各評価項目の回帰モデルに入力することで(ステップST406)、評価項目ごとにランク値が得られる。なお、この過程におけるデータパスは図1に示されていないが、具体的には全体制御部7が図示しないメモリから目標顔画像の特徴量を読み込んで、これを直接的に部分空間射影部26に渡すことで実行される。   Next, the target face image stored in step ST304 of the program P3 already described is read (step ST404). Next, the feature amount of the target face image stored in step ST305 of the program P3 is read (step ST405). Next, the read feature amount is input to the regression model of each evaluation item by the subspace projection unit 26 (step ST406), and a rank value is obtained for each evaluation item. Although the data path in this process is not shown in FIG. 1, specifically, the overall control unit 7 reads the feature amount of the target face image from a memory (not shown), and directly reads this feature amount. It is executed by passing to.

次に、ステップST404で読み込んだ目標顔画像と、ステップST401で読み込んだ最適なメイクアップ手法の具体的内容を表示部5に表示する(ステップST407)。   Next, the target face image read in step ST404 and the specific contents of the optimum makeup method read in step ST401 are displayed on the display unit 5 (step ST407).

次に、ステップST406で求めた目標顔画像(正確には、その特徴量)に対する各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST408)。   Next, the rank value of each evaluation item with respect to the target face image (more precisely, the feature amount) obtained in step ST406 is plotted on the radar chart displayed on the display unit 5 (step ST408).

次に、化粧を行おうとしている被化粧者を撮像部2で撮影する(ステップST409)。   Next, the person to be makeup is photographed by the imaging unit 2 (step ST409).

次に、既にステップST102で説明したのと同様に、顔検出部10で被化粧者の顔を検出し、顔検出が成功したか否かを判定する(ステップST410)。顔判定が失敗していれば(ステップST410でNo)撮像パラメータを調整して(ステップST411)再度被化粧者を撮影する(ステップST409)。一方、顔検出が成功していれば、次に、特徴量抽出部25で被化粧者の顔画像の特徴量を抽出する(ステップST412)。抽出される特徴量については、既にプログラムP1のステップST109と同じであるため説明を省略する。なお、連続フレーム間で顔領域を追跡(トラッキング)してもよい。   Next, as already described in step ST102, the face detection unit 10 detects the face of the subject and determines whether the face detection is successful (step ST410). If the face determination has failed (No in step ST410), the imaging parameters are adjusted (step ST411), and the subject is photographed again (step ST409). On the other hand, if the face detection is successful, the feature amount extraction unit 25 extracts the feature amount of the face image of the makeup person (step ST412). Since the extracted feature quantity is already the same as that in step ST109 of the program P1, description thereof will be omitted. Note that the face region may be tracked (tracked) between successive frames.

次に、部分空間射影部26は、得られた特徴量を特徴量ベクトルとして評価項目毎に作成しておいた射影行列Jと掛け合わせて、回帰モデルに入力する(ステップST413)。これを評価すべき評価項目全てに行うことで、全ての評価項目について被化粧者の現在の(例えば、化粧中の)ランク値が抽出される。   Next, the subspace projection unit 26 multiplies the obtained feature quantity with a projection matrix J created for each evaluation item as a feature quantity vector, and inputs it to the regression model (step ST413). By performing this for all the evaluation items to be evaluated, the current rank value (for example, during makeup) of the makeup subject is extracted for all the evaluation items.

次に、ステップST409で得た被化粧者の顔画像を表示部5に表示する(ステップST414)。   Next, the face image of the person to be makeup obtained in step ST409 is displayed on display unit 5 (step ST414).

次に、ステップST413で得た各評価項目のランク値を、表示部5に表示したレーダーチャート上にプロットする(ステップST415)。   Next, the rank value of each evaluation item obtained in step ST413 is plotted on the radar chart displayed on the display unit 5 (step ST415).

ステップST415が終了すると、所定のインターバル期間を置いた後、ステップST409に戻って、再度被化粧者の顔画像の撮影が行われる。なお、上述したステップST409〜ステップST415は無限ループを構成するが、インターバル期間の間にユーザインタフェース6のキー入力等を検出した場合に当該ループから離脱するように構成してもよい。このループにより、撮像部2は、所定のタイミングで被化粧者の顔画像を繰り返し撮像して更新し、評価部40は、更新された被化粧者の顔画像についてランク値を出力し、表示部5は、更新された被化粧者の顔画像とランク値をリアルタイムに表示する。   When step ST415 is completed, after a predetermined interval period, the process returns to step ST409, and the face image of the subject is taken again. Steps ST409 to ST415 described above form an infinite loop, but may be configured to leave the loop when a key input or the like of the user interface 6 is detected during the interval period. By this loop, the imaging unit 2 repeatedly captures and updates the face image of the subject at a predetermined timing, the evaluation unit 40 outputs a rank value for the updated face image of the subject, and the display unit 5 displays the updated face image and rank value of the makeup subject in real time.

図10(a)〜(c)は、人の感性に基づく評価項目に対応する部分空間と回帰モデルの関係を示す説明図、(d)は、各評価項目についてのランク値をレーダーチャートに表示した状態を説明する説明図である。   FIGS. 10A to 10C are explanatory diagrams showing the relationship between the partial space corresponding to the evaluation item based on human sensitivity and the regression model, and FIG. 10D shows the rank value for each evaluation item on the radar chart. It is explanatory drawing explaining the state which carried out.

図10(a)は、評価項目「女性らしさ」の部分空間と、この部分空間内に学習された「女性らしさ」回帰モデルの関係を、同(b)は評価項目「セクシー」の部分空間と、この部分空間内に学習された「セクシー」回帰モデルの関係を、同(c)は、評価項目「ギャル」の部分空間と、この部分空間内で学習された「ギャル」回帰モデルの関係を示している。図10(a)〜(c)は、ランク値を表す座標軸の他に3軸を示しているが、部分空間は多次元空間であり、一般的に座標軸の数(次元数)は膨大である。そして、各図において、回帰モデルは曲線で表現されているが、実際は多次元空間に存在する超平面、あるいは超曲面である。   FIG. 10A shows the relationship between the subspace of the evaluation item “femininity” and the “femininity” regression model learned in this subspace, and FIG. 10B shows the subspace of the evaluation item “sexy”. The relationship between the “sexy” regression model learned in this subspace and the relationship between the subspace of the evaluation item “gal” and the “gal” regression model learned in this subspace. Show. FIGS. 10A to 10C show three axes in addition to the coordinate axes representing rank values, but the subspace is a multidimensional space, and the number of coordinate axes (the number of dimensions) is generally enormous. . In each figure, the regression model is represented by a curve, but is actually a hyperplane or hypersurface that exists in a multidimensional space.

以降、簡単のために図10(a)について説明を行う。ここで、曲線上に付した2点は黒丸が目標顔画像の特徴量を「女性らしさ」部分空間に射影した座標であり、この座標におけるランク値が9点であることを示している。一方のハッチ入り丸は被化粧者の顔画像の特徴量を同様に射影した座標であり、この座標におけるランク値が5点であることを示している。図10(b),(c)も同様である。即ち、各部分空間において、ランク値の軸を参照することで目標顔画像と被化粧者顔画像のランク値が定まっている。   Hereinafter, FIG. 10A will be described for simplicity. Here, the two points on the curve are coordinates obtained by projecting the feature amount of the target face image into the “femininity” subspace, and the rank value at these coordinates is 9 points. One hatched circle is a coordinate obtained by projecting the feature amount of the face image of the subject in the same manner, and indicates that the rank value at this coordinate is 5 points. The same applies to FIGS. 10B and 10C. That is, in each partial space, the rank value of the target face image and the face image of the subject is determined by referring to the rank value axis.

これを図10(d)に示すようなレーダーチャート上にプロットする。レーダーチャートは中心ほどランクが低く、外側ほどランクが高く設定され、中心から外向きに設けられた5つの軸がそれぞれ評価項目を示している。図10(d)では、各評価項目において目標顔画像のランク値を結んだものを二点鎖線で示し、被化粧者の顔画像のランク値を結んだものを一点鎖線で示している。   This is plotted on a radar chart as shown in FIG. The radar chart has a lower rank at the center and a higher rank at the outer side, and five axes provided outward from the center indicate evaluation items. In FIG. 10 (d), the result obtained by connecting the rank values of the target face images in each evaluation item is indicated by a two-dot chain line, and the result obtained by connecting the rank values of the face image of the subject is indicated by a one-dot chain line.

上述したプログラムP4のステップST409〜ステップST415で説明したように、被化粧者の顔画像は周期的に撮影されて、その都度各評価項目におけるランク値が判定されるから、被化粧者が化粧を進めて、被化粧者の顔画像が目標顔画像に類似していくほど、図10(d)のレーダーチャートの各評価項目の値が大きく(または小さく)なり、理想的には目標顔画像の略同等の範囲を占めるようになる。このレーダーチャートで特徴的な事項は、たとえ化粧の手本となる目標顔画像であっても、各評価項目のランク値は最大の値を採るとは限らず、あくまでも回帰モデルで決定される値だということである。これは、各評価項目について、有限な学習を限度として絶対基準を定めていることに他ならない。これによって、被化粧者は自分が好みとするメイクアップの方向性がどのような特性を持っているのか(即ち、レーダーチャート上でどの評価項目に偏っているか)を直観的に理解することができる。また、被化粧者は各評価項目におけるランク値が全体的に高いものを選ぶ場合もあれば、その日の気分でより「キュート」や「女性らしい」といった感覚的なイメージの化粧を施したい場合も多いと考えられる。このように、被化粧者が理想とする化粧は様々な事由によって変化するものであるが、本発明はこのような被化粧者の幅広い要求に十分に対応することが可能である。   As described in step ST409 to step ST415 of the program P4 described above, the face image of the subject is taken periodically, and the rank value in each evaluation item is determined each time. As the face image of the subject becomes similar to the target face image, the value of each evaluation item in the radar chart of FIG. 10D increases (or decreases), and ideally the target face image Occupies almost the same range. The characteristic item in this radar chart is that the rank value of each evaluation item does not always take the maximum value, even if it is a target face image that serves as a model for makeup. It is that. This is nothing other than defining an absolute standard for each evaluation item with a limit of finite learning. As a result, the makeup person can intuitively understand what characteristics of the makeup direction he / she likes (ie, which evaluation item is biased on the radar chart). it can. In addition, there are cases where the makeup person chooses an item having a high overall rank value in each evaluation item, or a person who wants to make a makeup with a sensory image such as “cute” or “feminine” in the mood of the day. It is thought that there are many. As described above, the ideal makeup for the subject varies depending on various reasons, but the present invention can sufficiently meet such a wide range of needs of the subject.

図11は、表示部5における表示内容の例を説明する説明図である。図11に示すように、第1実施形態では、表示部5には、既に説明したステップST404で取得した目標顔画像と、ステップST409で撮影された被化粧者の顔画像と、ステップST401で取得した最適なメイクアップ手法が表示され、ステップST406及およびステップST413で特徴量を回帰モデルに入力することで得たランク値がレーダーチャート上にプロットされる。ここで、メイクアップ手法については、上述した色記号だけでなくその色記号の色を実現するための化粧品名を表示してもよく、また合成顔画像を詳細モードで作成した場合は、これと併せてアイブロウやアイシャドウの形状を表示してもよい。   FIG. 11 is an explanatory diagram illustrating an example of display contents on the display unit 5. As shown in FIG. 11, in the first embodiment, the display unit 5 obtains the target face image acquired in step ST404, the face image of the subject photographed in step ST409, and the step ST401. The optimum makeup method is displayed, and the rank values obtained by inputting the feature values to the regression model in steps ST406 and ST413 are plotted on the radar chart. Here, regarding the makeup method, not only the above-described color symbol but also a cosmetic name for realizing the color symbol color may be displayed, and when the composite face image is created in the detailed mode, In addition, the shape of eyebrow or eyeshadow may be displayed.

そして、プログラムP4で説明したように、被化粧者の顔画像の撮影は周期的に繰り返され、更新された顔画像に基づいてレーダーチャート上にプロットされるランク値がリアルタイムに刻々と変化する。   And as demonstrated by program P4, imaging | photography of a to-be-photographed person's face image is repeated periodically, and the rank value plotted on a radar chart based on the updated face image changes in real time.

さて、以上説明したプログラムP1〜プログラムP4は、例えばアプリケーションソフトウェアとして頒布され、スマートフォンやタブレット端末等に実装されたハードウェア上で動作させることが可能である。図1に示す各構成要素は、例えばスマートフォンにおいては、撮像部2が内蔵カメラ、表示部5が有機ELや液晶で構成された表示パネル、目標顔画像入力部20が内蔵カメラまたは可搬性記憶媒体等を装着するインタフェース、画像処理部3がCPUと周辺システム、記憶部4がSSD(Solid State Drive)やハードディスクドライブ等の大容量記憶装置に対応する。   Now, the programs P1 to P4 described above are distributed as application software, for example, and can be operated on hardware mounted on a smartphone, a tablet terminal, or the like. Each component shown in FIG. 1 includes, for example, in a smartphone, the imaging unit 2 is a built-in camera, the display unit 5 is a display panel composed of organic EL or liquid crystal, and the target face image input unit 20 is a built-in camera or a portable storage medium. The image processing unit 3 corresponds to a CPU and peripheral system, and the storage unit 4 corresponds to a mass storage device such as an SSD (Solid State Drive) or a hard disk drive.

(第2実施形態)
図12は、本発明の第2実施形態に係る美容支援装置1において類似度を判定する過程を説明するフローチャートである。
(Second Embodiment)
FIG. 12 is a flowchart for explaining the process of determining the similarity in the beauty support apparatus 1 according to the second embodiment of the present invention.

第1実施形態において、プログラムP2はステップST109とステップST110の間に設けられた同期点TM1までに処理を完了するように制御されている。   In the first embodiment, the program P2 is controlled to complete the process up to the synchronization point TM1 provided between the steps ST109 and ST110.

一方、第2実施形態においては、プログラムP2はステップST104とステップST106の間に設けられた同期点TM2までに処理を完了するように制御されることが大きな特徴となっている。   On the other hand, the second embodiment is characterized in that the program P2 is controlled so that the processing is completed by the synchronization point TM2 provided between the steps ST104 and ST106.

既に説明したように、プログラムP2は被化粧者の性別や年齢等の属性を推定することで評価項目を決定する。第2実施形態では、合成顔画像を生成する前に評価項目の決定を行う。このプロセスを採用することで、合成顔画像の生成に際して、属性推定の結果を反映させることが可能となる。上述したように、属性推定においては例えば人種を推定することが可能であるから、推定された人種に応じてメイクアップ手法記憶部4cから異なる化粧品の群に基づくメイクアップ手法を選択することができ、より的確な合成顔画像の生成が可能となる。   As already described, the program P2 determines an evaluation item by estimating attributes such as sex and age of the person to be dressed. In the second embodiment, an evaluation item is determined before generating a composite face image. By adopting this process, it is possible to reflect the result of attribute estimation when generating a composite face image. As described above, in the attribute estimation, for example, it is possible to estimate the race, so that a makeup method based on a different cosmetic group is selected from the makeup method storage unit 4c according to the estimated race. This makes it possible to generate a more accurate synthesized face image.

もちろん、合成顔画像の生成に際して、人種のみならず性別や年齢に応じて異なるメイクアップ手法が選択されるように構成することも可能である。   Of course, when generating a composite face image, it is also possible to configure so that different makeup methods are selected not only according to race but also according to gender and age.

(第3実施形態)
図13は、本発明の第3実施形態に係る美容支援装置1の構成を示すブロック構成図である。
(Third embodiment)
FIG. 13 is a block configuration diagram showing the configuration of the beauty support apparatus 1 according to the third embodiment of the present invention.

第1実施形態において、合成顔画像の生成に利用されるメイクアップ手法を記憶するメイクアップ手法記憶部4c、合成顔画像記憶部4d、射影行列/回帰モデル記憶部4e、合成顔画像生成部12、類似度判定部22、ランク推定部41、メイクアップ手法抽出部24は、いずれも美容支援装置1に設けられていた。   In the first embodiment, a makeup method storage unit 4c that stores a makeup method used to generate a composite face image, a composite face image storage unit 4d, a projection matrix / regression model storage unit 4e, and a composite face image generation unit 12 The similarity determination unit 22, the rank estimation unit 41, and the makeup technique extraction unit 24 are all provided in the beauty support apparatus 1.

一方、第3実施形態においては、上述の構成要素を美容支援装置1の外部に配置したことが大きな特徴となっている。   On the other hand, the third embodiment is characterized in that the above-described components are arranged outside the beauty support apparatus 1.

図13において、美容支援装置1はインタフェース42を備え、これを介してインターネット等の外部ネットワーク100にアクセス可能に構成されている。この外部ネットワーク100にはサーバ45が(一般に、美容支援装置1とは異なる場所に)インタフェース43を介して接続されている。即ち、図13はいわゆるクラウドを利用した美容支援システムの構成を示している。このシステムでは、第1実施形態で説明した画像処理部3の主要構成要素がサーバ45に設けられる。   In FIG. 13, the beauty support apparatus 1 includes an interface 42, and is configured to be accessible to an external network 100 such as the Internet. A server 45 is connected to the external network 100 via an interface 43 (generally at a place different from the beauty support apparatus 1). That is, FIG. 13 shows a configuration of a beauty support system using a so-called cloud. In this system, the main components of the image processing unit 3 described in the first embodiment are provided in the server 45.

サーバ45は、データベースとしてメイクアップ手法記憶部4cと合成顔画像記憶部4dと射影行列/回帰モデル記憶部4eとを備える。更に、サーバ45は、類似度判定部22を構成する特徴量抽出部25と部分空間射影部26とユークリッド距離計算部29と、これらの構成要素に付随してランク判定部41、メイクアップ手法抽出部24を備える。
そして、ランク判定部41が出力するランク値と、メイクアップ手法抽出部24が出力する「最適なメイクアップ手法」とは、サーバ45のインタフェース43、外部ネットワーク100、インタフェース42を経由して美容支援装置1に取り込まれ、これらは表示部5に表示される。これらの構成要素は制御部48によって、その動作全般を制御される。もちろん、これらの全ての構成要素をコンピュータシステムとしてのサーバをそのまま利用して実現してもよい。
The server 45 includes a makeup method storage unit 4c, a composite face image storage unit 4d, and a projection matrix / regression model storage unit 4e as a database. Further, the server 45 includes a feature amount extraction unit 25, a subspace projection unit 26, an Euclidean distance calculation unit 29, and a rank determination unit 41 and a makeup technique extraction associated with these components. The unit 24 is provided.
The rank value output by the rank determination unit 41 and the “optimum makeup method” output by the makeup method extraction unit 24 are supported via the interface 43 of the server 45, the external network 100, and the interface 42. These are taken into the apparatus 1 and displayed on the display unit 5. The overall operation of these components is controlled by the control unit 48. Of course, you may implement | achieve all these components using the server as a computer system as it is.

図13に示すデータパスは、インタフェース42と外部ネットワーク100とインタフェース43とを経由することで一旦集約されるものの、画像データや画像処理後のデータや様々なパラメータ等は、図1に示す構成と同様に各構成要素間を渡されていく。   The data paths shown in FIG. 13 are aggregated once via the interface 42, the external network 100, and the interface 43, but the image data, the data after image processing, various parameters, and the like are configured as shown in FIG. Similarly, each component is passed.

第1実施形態において説明したように、合成顔画像は簡易モードと詳細モードの2つの設定で生成される。特に詳細モードにおいては、合成される顔画像の数は例えば559872通りと多数となる。そして、生成される合成顔画像そのものは、新たなメイクアップ手法が追加、削除、修正されない限り(つまり、メイクアップ手法に影響を与える化粧品が販売されたりしない限り)、不変のものである。このように、生成された合成顔画像が格納される合成顔画像記憶部4dは、通常は参照用(読み取り専用)のデータベースとしての性格を有している。   As described in the first embodiment, the composite face image is generated with two settings of the simple mode and the detailed mode. In particular, in the detailed mode, the number of face images to be combined is, for example, as many as 5,598,72. The generated synthetic face image itself is unchanged unless a new makeup method is added, deleted, or modified (that is, unless a cosmetic that affects the makeup method is sold). As described above, the combined face image storage unit 4d in which the generated combined face image is stored normally has a character as a reference (read only) database.

しかしながら、実際問題として化粧品には流行性があり、また季節によっても使用される化粧品は変化するため、制御部48は外部ネットワーク100を介して新たな化粧品情報を逐次入手し、この化粧品情報に基づいて複数のメイクアップ手法を再構築するとともに、メイクアップ手法記憶部4cの内容を更新する。   However, as a practical matter, cosmetics are fashionable, and the cosmetics used vary depending on the season. Therefore, the control unit 48 sequentially obtains new cosmetic information via the external network 100, and based on the cosmetic information. Then, a plurality of makeup methods are reconstructed and the contents of the makeup method storage unit 4c are updated.

ここで、合成顔画像記憶部4dには複数のメイクアップ手法をシミュレートされた合成顔画像の他に、画像合成の際のベースとなる基本顔画像(いずれのメイクアップ手法も施されていない被化粧者の顔画像)も記憶されている。そこで、制御部48は、市場において化粧品が更新されると、外部ネットワーク100を介して被化粧者の意向を確認した上で、基本顔画像に更新されたメイクアップ手法を適用して新たに合成顔画像を生成し、これを合成顔画像記憶部4dに格納する。即ち、メイクアップ手法記憶部4cと合成顔画像記憶部4dは追記型のデータベースを構成する。このようにすることで、同一の被化粧者が異なる目標顔画像との間で類似度を判定したいような場合に、改めて合成顔画像を生成する必要がなくなる。なお、合成顔画像に代えて抽出した特徴量を記憶するようにしてもよい。   Here, in the composite face image storage unit 4d, in addition to a composite face image in which a plurality of makeup techniques are simulated, a basic face image that is a base for image composition (no makeup technique is applied). The face image of the person to be makeup) is also stored. Therefore, when the cosmetic product is updated in the market, the control unit 48 confirms the intention of the person to be makeup via the external network 100, and then newly applies the makeup method updated to the basic face image. A face image is generated and stored in the synthesized face image storage unit 4d. That is, makeup method storage unit 4c and composite face image storage unit 4d constitute a write-once database. In this way, when the same subject wants to determine the similarity between different target face images, there is no need to generate a composite face image again. Note that the extracted feature quantity may be stored instead of the synthesized face image.

もちろん、合成顔画像記憶部4dを常に空の状態としておき、被化粧者が美容支援装置を使用するときのみ、合成顔画像記憶部4dに被験者の合成顔画像を保存してもよい。そして、類似度判定に基づいて最適なメイクアップ手法を決定した後、合成顔画像記憶部4dに保持していた合成顔画像を全て破棄するようにしてもよい。このようにすることで、合成顔画像記憶部4dは動的に運用されるため、合成顔画像記憶部4dの記憶容量を小さくすることができる。   Of course, the synthetic face image storage unit 4d may be always kept empty, and the synthetic face image of the subject may be stored in the synthetic face image storage unit 4d only when the subject uses the beauty support apparatus. Then, after determining the optimum makeup method based on the similarity determination, all the synthesized face images held in the synthesized face image storage unit 4d may be discarded. By doing so, the composite face image storage unit 4d is dynamically operated, so that the storage capacity of the composite face image storage unit 4d can be reduced.

このように、第3実施形態では、画像処理演算を実行するサーバ45を、美容支援装置1と切り離したことで、処理がネットワーク上で分散され、データベース破壊等のリスクが分散されると共に、処理負担の大きい演算をクラウド側で実行することが可能となり、クラウドコンピューティングによるサービスの提供が可能となる。   As described above, in the third embodiment, the server 45 that executes the image processing calculation is separated from the beauty support apparatus 1, so that the processing is distributed on the network, and risks such as database destruction are distributed. It is possible to execute operations with a large burden on the cloud side, and it is possible to provide services by cloud computing.

以上説明したように、第3実施形態によって、被化粧者は常に最新の化粧品を活用して、目標顔画像に近づく化粧を行うことが可能となる。また、美容支援装置1の外部にこのようなデータベースおよび画像処理演算を実行する主体を構築しておくことで、被化粧者は例えばスマートフォンやタブレット端末を有していれば、外部ネットワーク100を介してサーバ45に接続することで美容支援のサービスを享受することができる。   As described above, according to the third embodiment, the subject can always make use of the latest cosmetics to make up the target face image. In addition, by constructing a main body that executes such a database and image processing calculation outside the beauty support apparatus 1, if the subject has, for example, a smartphone or a tablet terminal, the external network 100 can be used. By connecting to the server 45, the beauty support service can be enjoyed.

(第4実施形態)
図14は、本発明の第4実施形態に係る美容支援装置1の構成を示すブロック構成図である。
(Fourth embodiment)
FIG. 14 is a block diagram showing the configuration of the beauty support apparatus 1 according to the fourth embodiment of the present invention.

第1実施形態において、互いに異なるメイクアップ手法によって生成される合成顔画像と目標顔画像の類似度は、両者から抽出した特徴量を、人の感性に基づく評価項目に対応した部分空間に射影し、部分空間におけるユークリッド距離に基づいて求めていた。そして、被化粧者の顔画像と目標顔画像から抽出した特徴量を部分空間射影部26で各評価項目の回帰モデルに入力することで、各評価項目のランク値を求めていた。   In the first embodiment, the similarity between the synthesized face image and the target face image generated by different makeup methods is obtained by projecting the feature amount extracted from both into a partial space corresponding to an evaluation item based on human sensitivity. , Based on the Euclidean distance in the subspace. Then, the feature value extracted from the face image of the makeup subject and the target face image is input to the regression model of each evaluation item by the subspace projection unit 26, thereby obtaining the rank value of each evaluation item.

第4実施形態においては、このうち合成顔画像と目標顔画像の類似度を、特徴量空間において計算するように構成したことが大きな特徴となっている。   In the fourth embodiment, the major feature is that the similarity between the synthesized face image and the target face image is calculated in the feature amount space.

撮像部2で撮影された被化粧者の顔画像と、互いに異なるメイクアップ手法から合成顔画像を生成し、この合成顔画像に基づいて特徴量を取得する過程、また目標顔画像入力部20で入力された目標顔画像に基づいて特徴量を取得する過程は、第1実施形態と同様であるので説明を省略する。   A process of generating a composite face image from the makeup image different from the face image of the subject photographed by the imaging unit 2 and a makeup method different from each other, and acquiring a feature amount based on the composite face image, and the target face image input unit 20 Since the process of acquiring the feature amount based on the input target face image is the same as that in the first embodiment, the description thereof is omitted.

第1実施形態で説明したように、合成顔画像および目標顔画像から抽出される特徴量は多次元ベクトルを表している。従って、特徴量抽出部25で抽出したこれらの特徴量を、部分空間射影部26を介さずに直接ユークリッド距離計算部29に渡し、(数2)を用いて両特徴量のユークリッド距離を求めることができる。これによって図3に示す「見た目の空間」において、合成顔画像と目標顔画像との類似度が算出される。これを全ての合成顔画像に対して行って、メイクアップ手法抽出部24において、最もユークリッド距離が小さくなる合成顔画像を生成したメイクアップ手法を抽出する。   As described in the first embodiment, the feature amount extracted from the synthesized face image and the target face image represents a multidimensional vector. Therefore, these feature values extracted by the feature value extraction unit 25 are directly passed to the Euclidean distance calculation unit 29 without going through the subspace projection unit 26, and the Euclidean distance between both feature values is obtained using (Equation 2). Can do. Thus, the similarity between the synthesized face image and the target face image is calculated in the “appearance space” shown in FIG. This is performed for all the synthesized face images, and the makeup technique extraction unit 24 extracts the makeup technique that generates the synthesized face image with the smallest Euclidean distance.

このように第4実施形態では、個々の評価項目とは無関係に全体の見えに基づき類似度が判定されることになるが、例えば被化粧者が多数の評価項目を選択したような場合と比較して計算コストを低減することが可能となる。従って、使用する評価項目の数に応じて、特徴量空間と部分空間のいずれを類似度計算に使用するかを定めておくとよい。   As described above, in the fourth embodiment, the similarity is determined based on the overall appearance regardless of the individual evaluation items. For example, this is compared with the case where the makeup person selects a large number of evaluation items. Thus, the calculation cost can be reduced. Therefore, it is preferable to determine which of the feature amount space and the partial space is used for similarity calculation according to the number of evaluation items to be used.

そして、この場合であっても、被化粧者の顔画像と目標顔画像に基づくランク値の推定は、部分空間射影部26とランク推定部41によって独立して行われるため、美容支援装置1の使用に際して特に制約が生じることもない。   Even in this case, since the estimation of the rank value based on the face image of the subject and the target face image is performed independently by the partial space projection unit 26 and the rank estimation unit 41, the beauty support apparatus 1 There are no particular restrictions on use.

以上、第1実施形態〜第4実施形態として本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムについて説明した。これらの説明において、類似度を算出する対象としては、互いに異なるメイクアップ手法を適用した合成顔画像と目標顔画像を例示し、ランク値を算出する対象としては、被化粧者の顔画像(化粧中の顔画像)と目標顔画像を例示したが、本発明は顔に対して施されるメイクアップの分野のみならず、例えばヘアアレンジ、美容整形といった分野にも応用することが可能である。   The beauty support device, the beauty support system, the beauty support method, and the beauty support program according to the present invention have been described as the first to fourth embodiments. In these descriptions, the target for calculating the similarity is exemplified by a composite face image and a target face image to which different makeup methods are applied, and the target for calculating the rank value is a face image of the subject (makeup). The face image) and the target face image are illustrated. However, the present invention can be applied not only to the field of makeup applied to the face, but also to fields such as hair arrangement and cosmetic surgery.

本発明に係る美容支援装置、美容支援システム、美容支援方法、美容支援プログラムは、被化粧者が化粧を施すにあたって最適なメイクアップ手法を的確に抽出することができることから、美容支援を行う専用機、美容支援を行うための端末機器とサーバ、美容支援プログラムが実装されるコンピュータ、スマートフォン、タブレット端末等に好適に利用することができる。   The beauty support apparatus, the beauty support system, the beauty support method, and the beauty support program according to the present invention are capable of accurately extracting the most appropriate makeup method for the makeup subject to apply makeup, and are therefore dedicated machines for providing beauty support. It can be suitably used for a terminal device and a server for performing beauty support, a computer on which a beauty support program is installed, a smartphone, a tablet terminal, and the like.

1 美容支援装置
2 撮像部(撮像手段)
3 画像処理部
4 記憶部
4a 属性推定モデル記憶部
4b 評価項目記憶部
4c メイクアップ手法記憶部
4d 合成顔画像記憶部
4e 射影行列/回帰モデル記憶部
5 表示部(表示手段)
6 ユーザインタフェース
7 全体制御部
10 顔検出部
11 顔パーツ検出部
12 合成顔画像生成部(合成顔画像生成手段)
20 目標顔画像入力部(入力手段)
21 顔検出部
22 類似度判定部(類似度判定手段)
24 メイクアップ手法抽出部(メイクアップ手法抽出手段)
25 特徴量抽出部(特徴量抽出手段)
26 部分空間射影部(射影手段)
27 属性推定部(属性推定手段)
28 評価項目決定部
29 ユークリッド距離計算部
40 評価部(評価手段)
41 ランク推定部(ランク推定手段)
45 サーバ
DESCRIPTION OF SYMBOLS 1 Beauty support apparatus 2 Imaging part (imaging means)
3 Image processing unit 4 Storage unit 4a Attribute estimation model storage unit 4b Evaluation item storage unit 4c Makeup method storage unit 4d Composite face image storage unit 4e Projection matrix / regression model storage unit 5 Display unit (display means)
6 User Interface 7 Overall Control Unit 10 Face Detection Unit 11 Face Parts Detection Unit 12 Composite Face Image Generation Unit (Composite Face Image Generation Unit)
20 Target face image input unit (input means)
21 face detection unit 22 similarity determination unit (similarity determination means)
24 Makeup technique extraction unit (makeup technique extraction means)
25 Feature quantity extraction unit (feature quantity extraction means)
26 Subspace projection part (projection means)
27 Attribute estimation unit (attribute estimation means)
28 Evaluation Item Determination Unit 29 Euclidean Distance Calculation Unit 40 Evaluation Unit (Evaluation Means)
41 rank estimation unit (rank estimation means)
45 servers

Claims (7)

利用者の顔画像を撮像する撮像手段と、
目標顔画像を入力する入力手段と、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出する美容手法抽出手段と、を有することを特徴とする美容支援装置。
Imaging means for capturing a user's face image;
An input means for inputting a target face image;
Synthetic face image generation means for generating a plurality of synthetic face images by applying different cosmetic techniques to the user's face image;
Similarity determination means for determining the similarity between the target face image and the plurality of synthesized face images;
A beauty support apparatus, comprising: a beauty technique extraction means for extracting a beauty technique applied to the composite face image determined to have a high similarity by the similarity determination means.
前記類似度判定手段は、
前記目標顔画像と前記複数の合成顔画像とから所定の特徴量を抽出する特徴量抽出手段と、
前記特徴量を、人の感性に基づくそれぞれ異なる評価項目に対応付けられた部分空間に射影する射影手段と、を備え、
前記目標顔画像と前記合成顔画像とから得た特徴量を、前記部分空間に射影した座標間のユークリッド距離に基づき、前記各部分空間における類似度を判定し、更に前記各部分空間における類似度に基づき、前記目標顔画像と前記合成顔画像との類似度を判定することを特徴とする請求項1記載の美容支援装置。
The similarity determination means includes:
Feature amount extraction means for extracting a predetermined feature amount from the target face image and the plurality of synthesized face images;
Projecting means for projecting the feature amount onto partial spaces associated with different evaluation items based on human sensitivity,
Based on the Euclidean distance between the coordinates obtained by projecting the feature amount obtained from the target face image and the synthesized face image into the partial space, the similarity in each partial space is determined, and the similarity in each partial space is further determined. The beauty support apparatus according to claim 1, wherein the degree of similarity between the target face image and the synthesized face image is determined based on the information.
前記利用者の顔画像から、年齢または性別の少なくとも一方を推定する属性推定手段を更に備え、
前記類似度判定手段は、前記属性推定手段の推定結果に従って、前記特徴量を射影する前記部分空間を決定することを特徴とする請求項2記載の美容支援装置。
Further comprising attribute estimating means for estimating at least one of age and sex from the face image of the user,
The beauty support apparatus according to claim 2, wherein the similarity determination unit determines the partial space onto which the feature amount is projected according to an estimation result of the attribute estimation unit.
前記所定の特徴量を、N次元ベクトルとし、
前記部分空間を、前記N次元より小さい次元数の空間としたことを特徴とする請求項2または請求項3記載の美容支援装置。
The predetermined feature amount is an N-dimensional vector,
The beauty support apparatus according to claim 2 or 3, wherein the partial space is a space having a smaller number of dimensions than the N dimensions.
利用者の顔画像を撮像する撮像手段と、
目標顔画像を入力する入力手段と、
美容手法および前記美容手法に対応した画像調整パラメータを格納したデータベースと、
前記データベースにアクセスして前記美容手法と前記画像調整パラメータを取得するとともに、前記画像調整パラメータを参照して、前記利用者の顔画像に対して互いに異なる美容手法を適用した複数の合成顔画像を生成する合成顔画像生成手段と、
前記目標顔画像と前記複数の合成顔画像との類似度を判定する類似度判定手段と、
前記類似度判定手段によって類似度が高いと判断された前記合成顔画像に適用した美容手法を前記データベースから抽出する美容手法抽出手段と、を有することを特徴とする美容支援システム。
Imaging means for capturing a user's face image;
An input means for inputting a target face image;
A database storing a beauty technique and image adjustment parameters corresponding to the beauty technique;
A plurality of synthesized face images obtained by accessing the database to obtain the beauty technique and the image adjustment parameter and applying different beauty techniques to the user's face image with reference to the image adjustment parameter. Synthetic face image generation means for generating;
Similarity determination means for determining the similarity between the target face image and the plurality of synthesized face images;
A beauty support system comprising: a beauty technique extraction means for extracting a beauty technique applied to the synthetic face image determined to have a high similarity by the similarity determination means from the database.
利用者の顔画像を撮像し、
目標顔画像を入力し、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出することを特徴とする美容支援方法。
Take a face image of the user,
Enter the target face image,
Generating a plurality of composite face images by applying different cosmetic techniques to the user's face image;
Determining the degree of similarity between the target face image and the plurality of synthesized face images;
A beauty support method, wherein a beauty technique applied to the composite face image determined to have a high similarity is extracted.
利用者の顔画像と目標顔画像とを入力し、
前記利用者の顔画像に対して、互いに異なる美容手法を適用した複数の合成顔画像を生成し、
前記目標顔画像と前記複数の合成顔画像との類似度を判定し、
前記類似度が高いと判断された前記合成顔画像に適用した美容手法を抽出することを特徴とする美容支援プログラム。
Enter the user's face image and target face image,
Generating a plurality of composite face images by applying different cosmetic techniques to the user's face image;
Determining the degree of similarity between the target face image and the plurality of synthesized face images;
A beauty support program, wherein a beauty technique applied to the composite face image determined to have a high similarity is extracted.
JP2013018103A 2013-02-01 2013-02-01 Makeup support apparatus, makeup support system, makeup support method and makeup support program Pending JP2014149678A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013018103A JP2014149678A (en) 2013-02-01 2013-02-01 Makeup support apparatus, makeup support system, makeup support method and makeup support program
US14/764,698 US10321747B2 (en) 2013-02-01 2013-11-28 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
CN201380074779.5A CN105210110A (en) 2013-02-01 2013-11-28 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
EP13873648.3A EP2953090A4 (en) 2013-02-01 2013-11-28 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
PCT/JP2013/007009 WO2014118842A1 (en) 2013-02-01 2013-11-28 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013018103A JP2014149678A (en) 2013-02-01 2013-02-01 Makeup support apparatus, makeup support system, makeup support method and makeup support program

Publications (1)

Publication Number Publication Date
JP2014149678A true JP2014149678A (en) 2014-08-21

Family

ID=51572603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013018103A Pending JP2014149678A (en) 2013-02-01 2013-02-01 Makeup support apparatus, makeup support system, makeup support method and makeup support program

Country Status (1)

Country Link
JP (1) JP2014149678A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101827168B1 (en) * 2016-11-04 2018-02-08 재단법인대구경북과학기술원 Device and method for outputting face syntheses contents
WO2018088243A1 (en) * 2016-11-11 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
CN108765268A (en) * 2018-05-28 2018-11-06 京东方科技集团股份有限公司 A kind of auxiliary cosmetic method, device and smart mirror
JP2019034112A (en) * 2017-08-10 2019-03-07 株式会社ミラーロイド Mirror device and program
JP2019154923A (en) * 2018-03-15 2019-09-19 サンスター株式会社 Facial esthetic treatment procedure method
JP6667739B1 (en) * 2019-06-13 2020-03-18 三菱電機株式会社 Image processing apparatus and method, and program and recording medium
CN111553220A (en) * 2020-04-21 2020-08-18 海信集团有限公司 Intelligent device and data processing method
JP2020154844A (en) * 2019-03-20 2020-09-24 株式会社リコー Image processor, image processing method, image processing program and product development system
JP2020201583A (en) * 2019-06-06 2020-12-17 ルネサスエレクトロニクス株式会社 Semiconductor device, movable body device and method for controlling movable body device
WO2020261531A1 (en) * 2019-06-28 2020-12-30 株式会社 資生堂 Information processing device, method for generating learned model of make-up simulation, method for realizing make-up simulation, and program
JP2022522667A (en) * 2020-01-20 2022-04-20 深▲チェン▼市商▲湯▼科技有限公司 Makeup processing methods, devices, electronic devices, and recording media
JP2022538094A (en) * 2019-08-21 2022-08-31 ロレアル Computing device, method, and apparatus for recommending at least one of makeup palettes and hair dye color schemes

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267115A (en) * 2006-04-24 2006-10-05 Kao Corp Selecting device of makeup cosmetic material
JP2012008617A (en) * 2010-06-22 2012-01-12 Kao Corp Face image evaluation method, face evaluation method and image processing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267115A (en) * 2006-04-24 2006-10-05 Kao Corp Selecting device of makeup cosmetic material
JP2012008617A (en) * 2010-06-22 2012-01-12 Kao Corp Face image evaluation method, face evaluation method and image processing device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101827168B1 (en) * 2016-11-04 2018-02-08 재단법인대구경북과학기술원 Device and method for outputting face syntheses contents
WO2018088243A1 (en) * 2016-11-11 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
JP2018077766A (en) * 2016-11-11 2018-05-17 ソニー株式会社 Information processing device, and information processing method, and program
US11321764B2 (en) 2016-11-11 2022-05-03 Sony Corporation Information processing apparatus and information processing method
JP2019034112A (en) * 2017-08-10 2019-03-07 株式会社ミラーロイド Mirror device and program
JP2019154923A (en) * 2018-03-15 2019-09-19 サンスター株式会社 Facial esthetic treatment procedure method
JP7207857B2 (en) 2018-03-15 2023-01-18 サンスター株式会社 How to provide a facial beauty treatment
CN108765268A (en) * 2018-05-28 2018-11-06 京东方科技集团股份有限公司 A kind of auxiliary cosmetic method, device and smart mirror
JP2020154844A (en) * 2019-03-20 2020-09-24 株式会社リコー Image processor, image processing method, image processing program and product development system
JP7263864B2 (en) 2019-03-20 2023-04-25 株式会社リコー Image processing device, image processing method, image processing program and product development system
JP2020201583A (en) * 2019-06-06 2020-12-17 ルネサスエレクトロニクス株式会社 Semiconductor device, movable body device and method for controlling movable body device
WO2020250376A1 (en) * 2019-06-13 2020-12-17 三菱電機株式会社 Image processing device and method, program, and recording medium
JP6667739B1 (en) * 2019-06-13 2020-03-18 三菱電機株式会社 Image processing apparatus and method, and program and recording medium
WO2020261531A1 (en) * 2019-06-28 2020-12-30 株式会社 資生堂 Information processing device, method for generating learned model of make-up simulation, method for realizing make-up simulation, and program
JP2022538094A (en) * 2019-08-21 2022-08-31 ロレアル Computing device, method, and apparatus for recommending at least one of makeup palettes and hair dye color schemes
JP2022522667A (en) * 2020-01-20 2022-04-20 深▲チェン▼市商▲湯▼科技有限公司 Makeup processing methods, devices, electronic devices, and recording media
CN111553220A (en) * 2020-04-21 2020-08-18 海信集团有限公司 Intelligent device and data processing method

Similar Documents

Publication Publication Date Title
WO2014118842A1 (en) Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
JP2014149678A (en) Makeup support apparatus, makeup support system, makeup support method and makeup support program
JP7075085B2 (en) Systems and methods for whole body measurement extraction
Salama AbdELminaam et al. A deep facial recognition system using computational intelligent algorithms
Gou et al. A joint cascaded framework for simultaneous eye detection and eye state estimation
US10956967B2 (en) Generating and providing augmented reality representations of recommended products based on style similarity in relation to real-world surroundings
Dantcheva et al. What else does your biometric data reveal? A survey on soft biometrics
US10789622B2 (en) Generating and providing augmented reality representations of recommended products based on style compatibility in relation to real-world surroundings
JP2014149677A (en) Makeup support apparatus, makeup support system, makeup support method and makeup support system
Dibeklioğlu et al. Combining facial dynamics with appearance for age estimation
Yan et al. Egocentric daily activity recognition via multitask clustering
US20190272659A1 (en) System for Beauty, Cosmetic, and Fashion Analysis
Kumar et al. Face recognition of cattle: can it be done?
Li et al. Discriminant locally linear embedding with high-order tensor data
Xu et al. Combining local features for robust nose location in 3D facial data
US9311564B2 (en) Face age-estimation and methods, systems, and software therefor
Wang et al. Face recognition from 2D and 3D images using 3D Gabor filters
Gou et al. Learning-by-synthesis for accurate eye detection
Kittler et al. 3D morphable face models and their applications
Shu et al. Face spoofing detection based on chromatic ED-LBP texture feature
Galteri et al. Deep 3d morphable model refinement via progressive growing of conditional generative adversarial networks
Dai et al. 3D morphable models: The face, ear and head
Shao et al. A survey of head pose estimation methods
Ambika et al. Periocular authentication based on FEM using Laplace–Beltrami eigenvalues
Zhang A comprehensive survey on face image analysis

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170808