JP5818714B2 - Makeup face image evaluation apparatus and makeup face image evaluation method - Google Patents

Makeup face image evaluation apparatus and makeup face image evaluation method Download PDF

Info

Publication number
JP5818714B2
JP5818714B2 JP2012034558A JP2012034558A JP5818714B2 JP 5818714 B2 JP5818714 B2 JP 5818714B2 JP 2012034558 A JP2012034558 A JP 2012034558A JP 2012034558 A JP2012034558 A JP 2012034558A JP 5818714 B2 JP5818714 B2 JP 5818714B2
Authority
JP
Japan
Prior art keywords
evaluation
face image
makeup
sample
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012034558A
Other languages
Japanese (ja)
Other versions
JP2013171409A (en
Inventor
延偉 陳
延偉 陳
貴之 福井
貴之 福井
崇訓 五十嵐
崇訓 五十嵐
啓輔 中尾
啓輔 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2012034558A priority Critical patent/JP5818714B2/en
Publication of JP2013171409A publication Critical patent/JP2013171409A/en
Application granted granted Critical
Publication of JP5818714B2 publication Critical patent/JP5818714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、化粧が施された顔(化粧顔)画像の定量評価技術に関する。   The present invention relates to a technique for quantitative evaluation of a face (makeup face) image on which makeup has been applied.

画像解析技術を用いて、肌の状態や見え方等を客観的に分析する手法が提案されている。   There has been proposed a method for objectively analyzing the state and appearance of skin using image analysis technology.

下記特許文献1では、ウェーブレット変換を用いた多重解像度解析により得られる画像データに基づいて、物理的な光沢度と肌表面の見かけの粗さを取得し、これら情報から肌のつや状態を分析する手法が提案されている。下記特許文献2及び3では、主成分分析を用いて、顔の輪郭等の顔の基本設計を変えずに、立体感や見た目年齢が異なる顔画像を合成する手法が提案されている。下記非特許文献1では、年代毎に作成された5つの標準顔を用いた見た目年齢の官能評価について記載されている。また、この標準顔は、多数の実画像を統計的にデータ処理することにより、平均的なシミ・しわを抽出し、これを平均顔に加え、更に、キメの粗さを年相当に変化させることで完成されることが記載されている。   In Patent Document 1 below, physical glossiness and apparent roughness of the skin surface are acquired based on image data obtained by multi-resolution analysis using wavelet transform, and skin gloss is analyzed from these information. A method has been proposed. Patent Documents 2 and 3 below propose a method of synthesizing face images having different stereoscopic effects and appearance ages without changing the basic design of the face such as the contour of the face using principal component analysis. Non-Patent Document 1 below describes sensory evaluation of appearance age using five standard faces created for each age. In addition, this standard face statistically processes a large number of real images to extract average spots and wrinkles, add them to the average face, and further change the roughness of the texture equivalent to the year. It is described that it will be completed.

特開2004−166801号公報JP 2004-166801 A 特開2008−276405号公報JP 2008-276405 A 特開2009−294958号公報JP 2009-294958 A

「マンダム、"見た目の印象"についての研究〜"標準顔"の作成と応用〜」、株式会社マンダム、2009年(平成21年)8月18日“Mandom, Study on“ Appearance Impression ”-Creation and Application of“ Standard Face ””, Mandom Co., Ltd., August 18, 2009

しかしながら、現状、化粧に関する客観的評価手法はなく、化粧のうまさ、化粧状態等を評価する場合、主観評価に頼らざるを得ない。一方、様々な種類の化粧品やメイク方法が提供されている。よって、化粧品を正しく利用できているのか、メイク方法を正しく行なえているのか等を各個人が把握するためにも、化粧効果を客観的に評価するための手法は強く望まれている。   However, at present, there is no objective evaluation method for makeup, and subjective evaluation must be relied upon when evaluating the quality of makeup, makeup status, and the like. On the other hand, various types of cosmetics and makeup methods are provided. Therefore, a method for objectively evaluating the makeup effect is strongly desired in order for each individual to grasp whether the cosmetics are being used correctly or whether the makeup method is correctly performed.

本発明は、このような課題に鑑みてなされたものであり、化粧顔画像に基づいて化粧顔を定量評価する技術を提供する。   The present invention has been made in view of such problems, and provides a technique for quantitatively evaluating a makeup face based on a makeup face image.

本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の態様は化粧顔画像評価装置に関する。第1態様に係る化粧顔画像評価装置は、形状が規格化された、複数組のサンプル素顔画像及びサンプル化粧顔画像をそれぞれ独立成分分析することにより、各サンプル素顔画像及び各サンプル化粧顔画像について、複数の基底ベクトルの係数をそれぞれ算出する独立成分分析手段と、各基底ベクトルにおける、サンプル素顔画像間の係数のばらつき度合い及びサンプル化粧顔画像間の係数のばらつき度合いに基づいて、複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択する選択手段と、評価対象の化粧顔画像から得られる評価画像ベクトル及び目標となる化粧顔画像から得られる目標画像ベクトルと選択手段により選択される各評価用基底ベクトルとの内積から当該評価対象の化粧顔画像の評価情報を取得する評価情報算出手段とを備える。   The first aspect relates to a makeup face image evaluation apparatus. The makeup face image evaluation apparatus according to the first aspect performs independent component analysis on a plurality of sets of sample face images and sample makeup face images each having a standardized shape, whereby each sample face image and each sample makeup face image are analyzed. A plurality of basis vectors based on independent component analysis means for calculating coefficients of a plurality of basis vectors, and a degree of variation in coefficients between sample face images and a degree of variation in coefficients between sample makeup face images in each basis vector. A selection means for selecting a part of the image as a plurality of evaluation basis vectors, an evaluation image vector obtained from the makeup face image to be evaluated, a target image vector obtained from the target makeup face image, and the selection means. Evaluation information for obtaining evaluation information of the makeup face image to be evaluated from the inner product with each evaluation basis vector Out and means.

第2の態様は化粧顔画像評価方法に関する。第2態様に係る化粧顔画像評価方法は、形状が規格化された、複数組のサンプル素顔画像及びサンプル化粧顔画像をそれぞれ独立成分分析することにより、各サンプル素顔画像及び各サンプル化粧顔画像について、複数の基底ベクトルの係数をそれぞれ算出し、各基底ベクトルにおける、サンプル素顔画像間の係数のばらつき度合い及びサンプル化粧顔画像間の係数のばらつき度合いに基づいて、複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択し、評価対象の化粧顔画像から得られる評価画像ベクトル及び目標となる化粧顔画像から得られる目標画像ベクトルと各評価用基底ベクトルとの内積から当該評価対象の化粧顔画像の評価情報を取得することを含む。   The second aspect relates to a makeup face image evaluation method. The makeup face image evaluation method according to the second aspect performs independent component analysis on a plurality of sets of sample face images and sample makeup face images each having a standardized shape, whereby each sample face image and each sample makeup face image are analyzed. Calculating a coefficient of each of the plurality of basis vectors, and based on the coefficient variation degree between the sample face images and the coefficient variation degree between the sample makeup face images in each basis vector, a part of the plurality of basis vectors Are selected as a plurality of evaluation basis vectors, and the evaluation image vector obtained from the makeup face image to be evaluated and the inner product of the target image vector obtained from the target makeup face image and each evaluation basis vector are used to determine the evaluation target vector. Including obtaining evaluation information of a makeup face image.

本発明の別態様としては、上記第1態様の各構成をコンピュータに実現させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   Another aspect of the present invention may be a program that causes a computer to realize each configuration of the first aspect, or a computer-readable recording medium that records such a program. This recording medium includes a non-transitory tangible medium.

上記各態様によれば、化粧顔画像に基づいて化粧顔を定量評価する技術を提供することができる。   According to each aspect described above, it is possible to provide a technique for quantitatively evaluating a makeup face based on a makeup face image.

PCAで抽出された顔の固有成分(基底)を示す図である。It is a figure which shows the intrinsic | native component (base) of the face extracted by PCA. ICAで抽出された顔の独立成分(基底)を示す図である。It is a figure which shows the independent component (base) of the face extracted by ICA. ICA基底の操作に基づく顔画像の変化を示す図である。It is a figure which shows the change of the face image based on operation of ICA base. 素顔画像と化粧顔画像との比較例を示す図である。It is a figure which shows the comparative example of a natural face image and a makeup | decoration face image. 第1実施形態における化粧顔画像評価装置のハードウェア構成例を概念的に示す図である。It is a figure which shows notionally the hardware structural example of the makeup | decoration face image evaluation apparatus in 1st Embodiment. 第1実施形態における化粧顔画像評価装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the makeup | decoration face image evaluation apparatus in 1st Embodiment. 各基底におけるサンプル素顔画像間の係数分散とサンプル化粧顔画像間の係数分散との差の例を示すグラフである。It is a graph which shows the example of the difference of the coefficient dispersion | variation between the sample face images in each base, and the coefficient dispersion | distribution between sample makeup face images. 評価用基底ベクトルに対応する基底画像の例を示す図である。It is a figure which shows the example of the base image corresponding to the basis vector for evaluation. 第1実施形態における化粧顔画像評価装置の学習処理系の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the learning processing system of the makeup | decoration face image evaluation apparatus in 1st Embodiment. 第1実施形態における化粧顔画像評価装置の評価処理系の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the evaluation processing system of the makeup | decoration face image evaluation apparatus in 1st Embodiment. 各実施例で用いられた10人分の評価対象化粧顔画像とその素顔画像を示す図である。It is a figure which shows the evaluation object makeup | decoration face image for 10 persons used in each Example, and its natural-face image. 各実施例で用いられた目標化粧顔画像を示す図である。It is a figure which shows the target makeup | decoration face image used in each Example. 各実施例において得られた評価情報(関数値)を示す図である。It is a figure which shows the evaluation information (function value) obtained in each Example. アンケート調査の結果を示す図である。It is a figure which shows the result of a questionnaire survey. アンケート調査結果と各実施例において得られた評価情報(関数値)との比較結果を示す図である。It is a figure which shows the comparison result of the questionnaire survey result and the evaluation information (function value) obtained in each Example.

以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, embodiment mentioned below is an illustration and this invention is not limited to the structure of the following embodiment.

本実施形態に係る化粧顔画像評価装置は、形状が規格化された、複数組のサンプル素顔画像及びサンプル化粧顔画像をそれぞれ独立成分分析することにより、各サンプル素顔画像及び各サンプル化粧顔画像について、複数の基底ベクトルの係数をそれぞれ算出する独立成分分析部と、各基底ベクトルにおける、サンプル素顔画像間の係数のばらつき度合い及びサンプル化粧顔画像間の係数のばらつき度合いに基づいて、複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択する選択部と、評価対象の化粧顔画像から得られる評価画像ベクトル及び目標となる化粧顔画像から得られる目標画像ベクトルと選択部により選択される各評価用基底ベクトルとの内積から当該評価対象の化粧顔画像の評価情報を取得する評価情報算出部とを備える。   The makeup face image evaluation apparatus according to the present embodiment performs independent component analysis on a plurality of sets of sample face images and sample makeup face images each having a standardized shape, whereby each sample face image and each sample makeup face image are analyzed. An independent component analysis unit that calculates coefficients of a plurality of basis vectors, and a plurality of basis vectors based on a degree of coefficient variation between sample face images and a coefficient variation degree between sample makeup face images in each basis vector. Are selected by a selection unit that selects a part of the image as a plurality of evaluation basis vectors, an evaluation image vector obtained from the makeup face image to be evaluated, and a target image vector obtained from the target makeup face image and the selection unit. Evaluation information calculation for obtaining evaluation information of the makeup face image to be evaluated from the inner product with each evaluation basis vector Provided with a door.

ここで、素顔とは、化粧顔に用いられている化粧料の少なくとも一部が塗布されていない状態の未化粧顔を意味するものであり、一切の化粧料が塗布されていない素肌状態に限定されるものではない。また、化粧顔とは、何らかの化粧料が施された顔を意味する。目標化粧顔とは、或る目的を実現する為に何らかの化粧料が施された目当てとなる化粧顔を意味する。例えば、目標化粧顔は、プロのメイクアップアーティストによって化粧が施された理想的な化粧顔、或る印象(ゴージャスな印象、女性らしい印象など)を実現する為に化粧が施された化粧顔、並びに、実現したい希望の化粧が施された化粧顔などである。目標化粧顔は、評価対象の化粧顔と比較し、対比可能であれば、どのようなものでも良い。また、顔画像は、ユーザの顔の画像でも、著名人を含む当該ユーザからみた他人の顔の画像でもよい。   Here, the bare face means an unmake-up face in a state where at least a part of the cosmetic used for the makeup face is not applied, and is limited to a bare skin state where no cosmetic is applied. Is not to be done. The makeup face means a face to which some kind of cosmetic is applied. The target makeup face means a makeup face that is a target to which some cosmetic is applied in order to achieve a certain purpose. For example, the target makeup face is an ideal makeup face that has been made up by a professional makeup artist, a makeup face that has been made up to achieve a certain impression (gorgeous impression, feminine impression, etc.) In addition, it is a makeup face or the like with a desired makeup to be realized. The target makeup face may be anything as long as it can be compared with the makeup face to be evaluated. The face image may be an image of a user's face or an image of another person's face viewed from the user including a celebrity.

また、形状が規格化された、サンプル素顔画像及びサンプル化粧顔画像とは、各サンプル画像に正規化などの規格化処理をそれぞれ施すことにより、各サンプル提供者の顔の形状的な特徴(毛髪の生えぎわ、頬または顎などの輪郭、眉、目、鼻など)が捨象された顔画像を意味する。言い換えれば、形状が規格化された、各サンプル素顔画像及び各サンプル化粧顔画像は、予め定められた平均的な顔形状と、各サンプル提供者に固有のテクスチャとを含む。当該規格化処理には、Piece-wise Affineを用いたワーピング処理、モーフィング処理等が用いられる。このような規格化処理は、周知な技術が利用されればよいため、ここでは説明を省略する。   In addition, the sample face image and the sample makeup face image whose shape is standardized are subjected to normalization processing such as normalization on each sample image, respectively, so that the shape characteristics of the face of each sample provider (hair ), A facial image in which the contours of the cheek or chin, eyebrows, eyes, nose, etc. are removed. In other words, each sample face image and each sample makeup face image whose shape is standardized include a predetermined average face shape and a texture unique to each sample provider. For the normalization process, a warping process, a morphing process, or the like using Piece-wise Affine is used. Since such a standardization process may be performed by using a well-known technique, a description thereof is omitted here.

当該化粧顔画像評価装置では、独立成分分析(Independent Component Analysis(ICA))により、形状が規格化された、サンプル素顔画像及びサンプル化粧顔画像の各々について、複数の基底ベクトルの係数がそれぞれ算出される。独立成分分析(ICA)は、形状が規格化された複数のサンプル画像(素顔画像及び化粧顔画像)に共通な複数の基底ベクトル(基底関数)の線形和に分解する手法である。独立成分分析のアルゴリズムについては、下記参考文献1に記載されているため、ここでは説明を省略する。
参考文献1:Bell, A. J. and Sejnowski, T. J., "An information-maximization approach to blind separation and blind deconvolution", Neural Computation 7, 1129-1159 (1995).
In the makeup face image evaluation apparatus, coefficients of a plurality of base vectors are calculated for each of the sample face image and the sample makeup face image whose shapes are standardized by independent component analysis (ICA). The Independent component analysis (ICA) is a method of decomposing a linear sum of a plurality of basis vectors (basis functions) common to a plurality of sample images (plain face image and makeup face image) whose shapes are standardized. Since the algorithm of independent component analysis is described in Reference Document 1 below, description thereof is omitted here.
Reference 1: Bell, AJ and Sejnowski, TJ, "An information-maximization approach to blind separation and blind deconvolution", Neural Computation 7, 1129-1159 (1995).

このような独立成分分析にあたり、形状が規格化された顔画像が利用されているため、得られた各基底ベクトルからは、顔の輪郭等のような顔の形状的な特徴が捨象されている。そして、独立成分分析によれば、顔を形成している局所的なテクスチャ情報が各基底ベクトルとしてそれぞれ抽出される。このような独立成分分析(ICA)の特性について、主成分分析(Principal Component Analysis(PCA))と比較しながら以下に説明する。   In such an independent component analysis, a face image whose shape is standardized is used, and thus the shape features of the face such as the face contour are discarded from each obtained basis vector. . Then, according to the independent component analysis, local texture information forming the face is extracted as each basis vector. The characteristics of such independent component analysis (ICA) will be described below in comparison with principal component analysis (PCA).

PCAは分散の大きい固有成分(基底)を求め、ICAは独立成分(基底)を求めている。また、PCAで求められた基底は空間的な大域性を持ち、ICAで求められた基底は空間的な局所性及び方向性を持つ。   PCA finds an intrinsic component (base) having a large variance, and ICA finds an independent component (base). Further, the basis obtained by PCA has a spatial globality, and the basis obtained by ICA has a spatial locality and directionality.

図1Aは、PCAで抽出された顔の固有成分(基底)を示し、図1Bは、ICAで抽出された顔の独立成分(基底)を示す。以降、ICAで抽出された成分をICA成分又はICA基底と表記し、PCAで抽出された成分をPCA成分又はPCA基底と表記する場合もある。図1A及び図1Bによれば、各ICA基底は、各PCA基底に比べ、互いに独立しているため、それぞれ異なる形で視認される。更に、各ICA基底は、鼻や頬や額などの顔の局所的な部分に反応している。   FIG. 1A shows an eigen component (base) of a face extracted by PCA, and FIG. 1B shows an independent component (base) of a face extracted by ICA. Hereinafter, a component extracted by ICA may be expressed as an ICA component or an ICA base, and a component extracted by PCA may be expressed as a PCA component or a PCA base. According to FIG. 1A and FIG. 1B, each ICA base is independent from each other, and thus is viewed in a different form. Furthermore, each ICA base is responsive to local parts of the face such as the nose, cheeks and forehead.

このように、顔画像をICAを用いて解析すると、得られた各成分が何に反応しているのか、何が目立っているのか等、視覚的に認識可能となる。即ち、各ICA基底は、人間の視覚で把握される顔の各テクスチャを表し、顔の局所部分のテクスチャ情報をそれぞれ持つと考えられる。この考え方に基づけば、特定のICA基底を操作することによって、顔のテクスチャを変えることができると考えられる。   As described above, when the face image is analyzed using ICA, it is possible to visually recognize what the obtained components are reacting to and what is conspicuous. That is, each ICA base represents each texture of the face grasped by human vision and is considered to have texture information of the local part of the face. Based on this idea, it is considered that the facial texture can be changed by manipulating a specific ICA basis.

図2は、ICA基底の操作に基づく顔画像の変化を示す図である。P1は、右目下にシミのある人の顔画像を示す。P2は、88個のICA基底の中の1つのICA基底(30番目)を示す。このICA基底は右目下のシミを表す成分に対応する。P3は、ICA基底を操作することなく全てのICA基底を含めて再構成して得られた顔画像を示す。P4は、P2のICA基底を除いて再構成することにより得られた顔画像を示す。P4によれば、元の顔画像P1に比べ、右目下のシミが消えていることが分かる。   FIG. 2 is a diagram illustrating changes in the face image based on an operation based on ICA. P1 indicates a face image of a person with a stain under the right eye. P2 indicates one ICA base (30th) among 88 ICA bases. This ICA base corresponds to a component representing a stain under the right eye. P3 indicates a face image obtained by reconstructing all ICA bases without manipulating the ICA bases. P4 indicates a face image obtained by reconstructing by removing the ICA base of P2. According to P4, compared to the original face image P1, it can be seen that the stain under the right eye has disappeared.

このことからも、ICAで抽出された各成分(基底)は顔のテクスチャ情報を持っており、各成分の大きさ(各基底ベクトルの係数)を用いれば顔のテクスチャ又は化粧効果を定量化できることが証明される。なお、図2のP3及びP4におけるICA基底の再構成は、例えば、以下の参考文献2に記載されるアルゴリズムにより実現される。
参考文献2:陳 延偉、「独立成分分析法(ICA)のパターン認識・画像処理への応用とMATLABシミュレーション」、(株)トリケップス、2007年10月31日
From this, each component (base) extracted by ICA has facial texture information, and the facial texture or makeup effect can be quantified by using the size of each component (coefficient of each base vector). Is proved. Note that the reconstruction of the ICA base in P3 and P4 in FIG. 2 is realized by an algorithm described in Reference Document 2 below, for example.
Reference 2: Chen Yan Wei, “Application of Independent Component Analysis (ICA) to Pattern Recognition and Image Processing and MATLAB Lab Simulation”, Trikes, Inc., October 31, 2007

本実施形態では、このような各基底ベクトルにおける、サンプル素顔画像間の係数のばらつき度合い及びサンプル化粧顔画像間の係数のばらつき度合いに基づいて、複数の基底ベクトルの中から、評価のために利用される複数の評価用基底ベクトルが選択される。   In the present embodiment, the basis vectors are used for evaluation from a plurality of basis vectors based on the coefficient variation degree between the sample face images and the coefficient variation degree between the sample makeup face images. A plurality of evaluation basis vectors are selected.

図3は、素顔画像と化粧顔画像との比較例を示す図である。図3によれば、化粧顔画像は、素顔画像に比べ、化粧によってシミ、シワ、てかり等が抑えられ全体的に肌が均一に視認される。即ち、素顔の場合、人によってテクスチャが大きく異なるので、各独立成分(基底)の大きさを示す係数も顔画像毎に大きく異なる。一方、化粧顔の場合、全体的に肌が均一になり、テクスチャの違いが小さくなるので、人による各独立成分(基底)の係数の差も小さくなる。言い換えれば、素顔画像間では、各基底ベクトルの係数のばらつき度合いが大きく、化粧顔画像間では、各基底ベクトルの係数のばらつき度合いが小さくなる。従って、素顔画像間の係数のばらつき度合いと化粧顔画像間の係数のばらつき度合いとの差が大きい基底ベクトルは化粧効果の大きい成分と考えることができる。   FIG. 3 is a diagram illustrating a comparative example of a bare face image and a makeup face image. According to FIG. 3, the makeup face image suppresses spots, wrinkles, shine, and the like by makeup as compared with the face image, and the skin is visually recognized as a whole. That is, in the case of a natural face, the texture differs greatly depending on the person, so the coefficient indicating the size of each independent component (base) also differs greatly for each face image. On the other hand, in the case of a makeup face, since the skin becomes uniform as a whole and the difference in texture becomes small, the difference in coefficient of each independent component (base) by a person also becomes small. In other words, the degree of variation in the coefficient of each base vector is large between the face images, and the degree of variation in the coefficient of each base vector is small between the makeup face images. Therefore, a base vector having a large difference between the coefficient variation degree between the face images and the coefficient variation degree between the makeup face images can be considered as a component having a large makeup effect.

本実施形態では、上述のように、係数のばらつき度合いに基づいて、評価のために利用される複数の評価用基底ベクトルが選択される。これにより、本実施形態によれば、化粧効果の大きいテクスチャを表す基底ベクトルを評価用基底ベクトルとして選択することができる。   In the present embodiment, as described above, a plurality of evaluation basis vectors used for evaluation are selected based on the degree of coefficient variation. Thereby, according to the present embodiment, a basis vector representing a texture having a large makeup effect can be selected as an evaluation basis vector.

そして、本実施形態では、評価対象の化粧顔画像から得られる評価画像ベクトル及び目標となる化粧顔画像から得られる目標画像ベクトルと選択部により選択される各評価用基底ベクトルとの内積から当該評価対象の化粧顔画像の評価情報が取得される。評価画像ベクトルと各評価基底ベクトルとの内積によれば、評価画像ベクトルが持つ各評価用基底ベクトルの係数が算出され、目標画像ベクトルと各評価基底ベクトルとの内積によれば、目標画像ベクトルが持つ各評価用基底ベクトルの係数が算出される。   In the present embodiment, the evaluation is performed based on the inner product of the evaluation image vector obtained from the makeup face image to be evaluated, the target image vector obtained from the target makeup face image, and each evaluation base vector selected by the selection unit. Evaluation information of the target makeup face image is acquired. According to the inner product of the evaluation image vector and each evaluation base vector, the coefficient of each evaluation base vector that the evaluation image vector has is calculated, and according to the inner product of the target image vector and each evaluation base vector, the target image vector is The coefficient of each evaluation basis vector is calculated.

上述したように、各評価用基底ベクトルは化粧効果の大きいテクスチャを表すため、評価情報として、例えば、上述の各係数が用いられれば、化粧効果を表すテクスチャに対する評価対象の化粧顔画像及び目標となる化粧顔画像の指標値(特徴量)を得ることができる。例えば、各評価用基底ベクトルに関し双方の係数がそれぞれ近似する場合には、評価対象の化粧顔画像は、目標化粧顔画像に近いと考えることができる。目標化粧顔画像に近いということは、評価対象の化粧顔画像は、目標通りに化粧ができていると考えることができる。   As described above, since each evaluation basis vector represents a texture having a large makeup effect, for example, if each of the above-described coefficients is used as the evaluation information, a makeup face image and a target to be evaluated for the texture representing the makeup effect, The index value (feature value) of the makeup face image can be obtained. For example, when both coefficients are approximated with respect to each evaluation basis vector, it can be considered that the makeup face image to be evaluated is close to the target makeup face image. The fact that it is close to the target makeup face image can be considered that the makeup face image to be evaluated is makeup according to the target.

更に、上記内積から得られる各係数の距離が算出されてもよい。このように、本実施形態によれば、各化粧顔画像についての指標値を得ることができ、化粧顔画像に基づいて化粧顔を定量評価することができる。   Furthermore, the distance of each coefficient obtained from the inner product may be calculated. Thus, according to this embodiment, the index value about each makeup face image can be obtained, and the makeup face can be quantitatively evaluated based on the makeup face image.

以下、上述の実施形態について更に詳細を説明する。   Hereinafter, the details of the above-described embodiment will be described.

〔装置構成〕
図4は、第1実施形態における化粧顔画像評価装置1のハードウェア構成例を概念的に示す図である。第1実施形態における化粧顔画像評価装置1は、いわゆるコンピュータであり、例えば、バス5で相互に接続される、CPU(Central Processing Unit)2、メモリ3、入出力インタフェース(I/F)4等を有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。入出力I/F4は、表示装置や入力装置等のようなユーザインタフェース装置と接続される。入出力I/F4は、ネットワーク(図示せず)を介して他のコンピュータと通信を行う通信装置等と接続されてもよい。なお、化粧顔画像評価装置1のハードウェア構成は限定されない。
〔Device configuration〕
FIG. 4 is a diagram conceptually illustrating a hardware configuration example of the makeup face image evaluation apparatus 1 in the first embodiment. The makeup face image evaluation apparatus 1 according to the first embodiment is a so-called computer. For example, a CPU (Central Processing Unit) 2, a memory 3, an input / output interface (I / F) 4, and the like that are connected to each other via a bus 5. Have The memory 3 is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, a portable storage medium, or the like. The input / output I / F 4 is connected to a user interface device such as a display device or an input device. The input / output I / F 4 may be connected to a communication device or the like that communicates with another computer via a network (not shown). The hardware configuration of the makeup face image evaluation apparatus 1 is not limited.

図5は、第1実施形態における化粧顔画像評価装置1の処理構成例を概念的に示す図である。第1実施形態における化粧顔画像評価装置1は、学習処理系10と評価処理系20とを有する。学習処理系10は、複数組のサンプル素顔画像及びサンプル化粧顔画像を用いて学習することにより、化粧効果を表す上述の複数の評価用基底ベクトルを特定する。評価処理系20は、学習処理系10により得られた複数の評価用基底ベクトルを用いて、目標化粧顔画像を基準とした評価対象の化粧顔画像の評価情報を算出する。   FIG. 5 is a diagram conceptually illustrating a processing configuration example of the makeup face image evaluation apparatus 1 in the first embodiment. The makeup face image evaluation apparatus 1 according to the first embodiment includes a learning processing system 10 and an evaluation processing system 20. The learning processing system 10 specifies the plurality of evaluation basis vectors representing the makeup effect by learning using a plurality of sets of sample face images and sample makeup face images. The evaluation processing system 20 uses the plurality of evaluation basis vectors obtained by the learning processing system 10 to calculate evaluation information of the makeup face image to be evaluated with reference to the target makeup face image.

学習処理系10は、サンプル画像取得部11、規格化部13、ベクトル化部14、独立成分分析部15、分散算出部17及び選択部19を含む。評価処理系20は、対象画像取得部21、規格化部22、ベクトル化部23、評価情報算出部25及び評価情報出力部27を含む。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F4を介してインストールされ、メモリ3に格納されてもよい。   The learning processing system 10 includes a sample image acquisition unit 11, a normalization unit 13, a vectorization unit 14, an independent component analysis unit 15, a variance calculation unit 17, and a selection unit 19. The evaluation processing system 20 includes a target image acquisition unit 21, a normalization unit 22, a vectorization unit 23, an evaluation information calculation unit 25, and an evaluation information output unit 27. Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2. Further, the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 4 and stored in the memory 3. Good.

《学習処理系10》
サンプル画像取得部11は、複数組のサンプル素顔画像及びサンプル化粧顔画像の画像データを取得する。各画像データは、可搬型記録媒体、他のコンピュータ等から入出力I/F4を経由して取得される。複数組のサンプル素顔画像及びサンプル化粧顔画像は、各サンプル提供者の素顔画像及び化粧顔画像である。以下、区別する必要がある場合を除き、サンプル素顔画像及びサンプル化粧顔画像を単にサンプル画像と総称する場合もある。
<< Learning processing system 10 >>
The sample image acquisition unit 11 acquires image data of a plurality of sets of sample face images and sample makeup face images. Each image data is acquired from a portable recording medium, another computer or the like via the input / output I / F 4. The plural sets of sample face images and sample makeup face images are the face images and makeup face images of each sample provider. Hereinafter, the sample face image and the sample makeup face image may be simply referred to as a sample image except when it is necessary to distinguish them.

素顔画像には、一切の化粧料が塗布されていない素肌の画像が用いられることが望ましいが、下地化粧料のみを塗布した顔の画像が用いられてもよい。化粧顔画像には、各サンプル提供者の好みのメイク方法及び化粧料が施された各サンプル提供者の顔の画像が用いられてもよいし、所定のメイク方法及び化粧料が施された各サンプル提供者の顔の画像が用いられてもよい。また、サンプル素顔画像及びサンプル化粧顔画像の組の数は、限定されないが、多い程、評価精度は高まる。   Although it is desirable to use an image of bare skin to which no cosmetic is applied, the face image to which only the base cosmetic is applied may be used as the bare face image. For the makeup face image, each sample provider's favorite makeup method and the image of each sample provider's face to which cosmetics have been applied may be used, or each of the sample makeup methods and cosmetics to which a predetermined makeup method has been applied. An image of the sample provider's face may be used. Further, the number of sets of the sample face image and the sample makeup face image is not limited, but the evaluation accuracy increases as the number increases.

規格化部13は、サンプル画像取得部11により取得された各サンプル画像に正規化などの規格化処理をそれぞれ施すことにより、形状が規格化された、各サンプル素顔画像及び各サンプル化粧顔画像を取得する。規格化処理については上述のとおりである。   The normalization unit 13 performs normalization processing such as normalization on each sample image acquired by the sample image acquisition unit 11, thereby obtaining each sample face image and each sample makeup face image whose shapes are normalized. get. The normalization process is as described above.

ベクトル化部14は、規格化部13により形状が規格化された各サンプル画像をそれぞれベクトル化する。ベクトル化部14は、このベクトル化により、各サンプル画像に対するサンプル画像ベクトルをそれぞれ生成する。ベクトル化には、例えば、ラスタースキャンが利用される。   The vectorization unit 14 vectorizes each sample image whose shape has been normalized by the normalization unit 13. The vectorization unit 14 generates a sample image vector for each sample image by this vectorization. For example, raster scanning is used for vectorization.

独立成分分析部15は、ベクトル化部14により生成される、各サンプル画像ベクトルをそれぞれ独立成分分析する。独立成分分析部15は、この独立成分分析により、各サンプル画像をそれらサンプル画像に共通の複数の基底ベクトルの線形和にそれぞれ分解する。結果、独立成分分析部15は、サンプル画像に共通の複数の基底ベクトルと、各サンプル素顔画像及び各サンプル化粧顔画像に関する当該複数の基底ベクトルの係数とを算出する。   The independent component analysis unit 15 performs independent component analysis on each sample image vector generated by the vectorization unit 14. The independent component analysis unit 15 decomposes each sample image into linear sums of a plurality of basis vectors common to the sample images by this independent component analysis. As a result, the independent component analysis unit 15 calculates a plurality of basis vectors common to the sample images and coefficients of the plurality of basis vectors related to each sample face image and each sample makeup face image.

分散算出部17は、独立成分分析部15により算出された各基底ベクトルについて、サンプル素顔画像間の係数の分散及びサンプル化粧顔画像間の係数の分散をそれぞれ算出する。このように、第1実施形態では、係数のばらつき度合いを示す指標として分散が用いられる。   The variance calculation unit 17 calculates the variance of the coefficients between the sample face images and the variance of the coefficients between the sample makeup face images for each basis vector calculated by the independent component analysis unit 15. Thus, in the first embodiment, variance is used as an index indicating the degree of coefficient variation.

選択部19は、各基底ベクトルにおけるサンプル素顔画像間の係数の分散とサンプル化粧顔画像間の係数の分散との差に基づいて、独立成分分析部15により算出された複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択する。   Based on the difference between the coefficient variance between the sample face images and the coefficient variance between the sample makeup face images in each basis vector, the selection unit 19 includes a plurality of basis vectors calculated by the independent component analysis unit 15. A part is selected as a plurality of evaluation basis vectors.

図6は、各基底におけるサンプル素顔画像間の係数分散とサンプル化粧顔画像間の係数分散との差の例を示すグラフである。図6では、横軸に各基底が示され、縦軸に分散差が示される。選択部19は、例えば、図6に示される80個の基底ベクトルの中から、分散差が大きいものから順に12個の基底ベクトルを選択する。なお、図6の例において、分散差が負の値を示す基底が存在するが、化粧顔画像の分散が素顔画像の分散よりも大きいことは実際の化粧においては起こりにくい現象である。   FIG. 6 is a graph showing an example of the difference between the coefficient variance between the sample face images and the coefficient variance between the sample makeup face images in each base. In FIG. 6, the horizontal axis represents each base, and the vertical axis represents the variance difference. For example, the selection unit 19 selects 12 basis vectors from the 80 basis vectors shown in FIG. 6 in descending order of the variance difference. In the example of FIG. 6, there is a base in which the variance difference has a negative value. However, the fact that the variance of the makeup face image is larger than the variance of the bare face image is a phenomenon that hardly occurs in actual makeup.

図7は、評価用基底ベクトルに対応する基底画像の例を示す図である。図7には、図6の分散差に基づいて、分散差が大きいものから順に選択された12個の基底画像が示されている。各基底画像の上に付された数字は、その基底ベクトルの番号を示す。左端の基底画像が最も分散差の大きい基底画像であり、化粧効果が大きい成分を示す。   FIG. 7 is a diagram illustrating an example of a base image corresponding to an evaluation base vector. FIG. 7 shows twelve base images selected in descending order of the variance difference based on the variance difference of FIG. The number given on each base image indicates the number of the base vector. The base image at the left end is the base image having the largest variance difference and indicates a component having a large makeup effect.

図7の例では、12個の評価用基底ベクトルが選択された場合が例示されているが、本実施形態では、選択される評価用基底ベクトルの数は限定されない。選択部19は、評価用基底ベクトルの数として所定数を保持してもよいし、所定閾値を保持し、分散差が所定閾値より大きい基底ベクトルを評価用基底ベクトルとして選択するようにしてもよい。但し、評価用基底ベクトルの数が少な過ぎる場合には、得られる評価情報の精度が低下し、全ての基底ベクトルを評価用基底ベクトルとした場合には、評価情報の算出速度が低下する可能性がある。よって、評価用基底ベクトルの数は、評価情報の精度を維持し、実用的な算出速度を得られるような数に設定されることが好ましい。例えば、5個以上20個以下の評価用基底ベクトルが用いられることがより好ましい。   In the example of FIG. 7, a case where 12 evaluation basis vectors are selected is illustrated, but in this embodiment, the number of evaluation basis vectors to be selected is not limited. The selection unit 19 may hold a predetermined number as the number of evaluation basis vectors, hold a predetermined threshold value, and select a basis vector having a variance difference larger than the predetermined threshold value as an evaluation basis vector. . However, if the number of evaluation basis vectors is too small, the accuracy of the obtained evaluation information is reduced, and if all the basis vectors are used as the evaluation basis vectors, the calculation speed of the evaluation information may be reduced. There is. Therefore, the number of evaluation basis vectors is preferably set to a number that maintains the accuracy of the evaluation information and obtains a practical calculation speed. For example, it is more preferable that 5 or more and 20 or less evaluation basis vectors are used.

《評価処理系20》
対象画像取得部21は、評価対象の化粧顔画像及び目標化粧顔画像の各画像データを取得する。各画像データは、可搬型記録媒体、他のコンピュータ等から入出力I/F4を経由して取得されてもよいし、入出力I/F4に接続される撮像部(図示せず)から取得されてもよい。
<< Evaluation Processing System 20 >>
The target image acquisition unit 21 acquires image data of the makeup face image to be evaluated and the target makeup face image. Each image data may be acquired from a portable recording medium, another computer, or the like via the input / output I / F 4 or acquired from an imaging unit (not shown) connected to the input / output I / F 4. May be.

規格化部22は、対象画像取得部21により取得された各画像データに正規化などの規格化処理をそれぞれ施すことにより、形状が規格化された評価対象の化粧顔画像、及び、形状が規格化された目標化粧顔画像を取得する。規格化処理については上述のとおりである。なお、対象画像取得部21は、既に形状が規格化された各画像データを取得するようにしてもよい。このように規格化された顔画像を用いることにより、評価対象の化粧顔画像と目標化粧顔画像の各顔画像が同一人のものでも異なる人のものであっても、いずれの場合も比較評価することが可能となる。   The normalization unit 22 performs a normalization process such as normalization on each image data acquired by the target image acquisition unit 21, so that the makeup face image to be evaluated whose shape is standardized and the shape is standardized The target makeup face image is obtained. The normalization process is as described above. Note that the target image acquisition unit 21 may acquire each image data whose shape has already been standardized. By using standardized face images in this way, each face image of the makeup face image to be evaluated and the target makeup face image can be of the same person or different people, and in both cases comparative evaluation It becomes possible to do.

ベクトル化部23は、規格化部22により形状が規格化された各画像データをそれぞれベクトル化することにより、評価対象の化粧顔画像に対応する評価画像ベクトル及び目標化粧顔画像に対応する目標画像ベクトルを生成する。ベクトル化には、例えば、ラスタースキャンが利用される。   The vectorization unit 23 vectorizes each image data whose shape has been normalized by the normalization unit 22, thereby obtaining an evaluation image vector corresponding to the makeup face image to be evaluated and a target image corresponding to the target makeup face image. Generate a vector. For example, raster scanning is used for vectorization.

評価情報算出部25は、選択部19により選択された評価用基底ベクトル、評価画像ベクトル及び目標画像ベクトルを評価関数D(x)(下記(式1)参照)に適用することにより、各評価用基底ベクトルにおける評価画像ベクトルの係数及び目標画像ベクトルの係数との間の距離を評価対象化粧顔画像の評価情報として算出する。下記(式1)において、xは評価画像ベクトルを示し、xは目標画像ベクトルを示し、uはi個目の評価用基底ベクトルを示し、kは評価用基底ベクトルの数を示し、Tは転置を示す。
The evaluation information calculation unit 25 applies the evaluation base vector, the evaluation image vector, and the target image vector selected by the selection unit 19 to the evaluation function D (x) (see (Equation 1) below), thereby The distance between the coefficient of the evaluation image vector and the coefficient of the target image vector in the base vector is calculated as the evaluation information of the evaluation target makeup face image. In the following (Equation 1), x represents an evaluation image vector, x 0 represents a target image vector, u i represents an i- th evaluation basis vector, k represents the number of evaluation basis vectors, and T Indicates transposition.

上記(式1)において、uとxとの内積により、評価用基底ベクトルuにおける目標画像ベクトルに関する係数が得られ、uとxとの内積により、評価用基底ベクトルuにおける評価画像ベクトルに関する係数が得られる。即ち、上記(式1)は、各評価用基底ベクトルにおける評価画像ベクトルの係数及び目標画像ベクトルの係数との間の距離を表す式である。言い換えれば、上記(式1)によれば、選択部19により選択された評価用基底ベクトルで構成される化粧効果を表す部分空間に、評価画像ベクトル及び目標画像ベクトルを射影した場合における射影間のユークリッド距離が算出される。 In the above (Formula 1), by an inner product between u i and x 0, the coefficient is obtained about the target image vector in the evaluation basis vector u i, the inner product of the u i and x, evaluation in the evaluation basis vector u i A coefficient for the image vector is obtained. That is, the above (Expression 1) is an expression representing the distance between the coefficient of the evaluation image vector and the coefficient of the target image vector in each evaluation base vector. In other words, according to (Equation 1) above, between the projections in the case where the evaluation image vector and the target image vector are projected onto the subspace representing the makeup effect composed of the evaluation basis vectors selected by the selection unit 19. The Euclidean distance is calculated.

評価情報出力部27は、評価情報算出部25により算出された距離(評価情報)に基づいて評価対象化粧顔画像の目標化粧顔画像への近さを判定し、この判定結果及び上記評価情報の少なくとも一方を含む結果情報を所定の形態で出力する。評価情報算出部25により算出される距離Dは、化粧効果の大きいテクスチャ成分における評価対象化粧顔画像の目標化粧顔画像への近さを表す。即ち、距離Dが小さい程、目標化粧顔に近付くように化粧ができていると判定することができ、逆に、距離Dが大きい程、目標化粧顔とは異なるように化粧が施されていると判定することができる。   The evaluation information output unit 27 determines the proximity of the evaluation target makeup face image to the target makeup face image based on the distance (evaluation information) calculated by the evaluation information calculation unit 25, and the determination result and the evaluation information Result information including at least one is output in a predetermined form. The distance D calculated by the evaluation information calculation unit 25 represents the closeness of the evaluation target makeup face image to the target makeup face image in the texture component having a large makeup effect. That is, it can be determined that the makeup is made so as to approach the target makeup face as the distance D is small, and conversely, the makeup is applied so that the makeup is different from the target makeup face as the distance D is large. Can be determined.

具体的には、評価情報出力部27は、距離の範囲と、評価対象化粧顔画像の目標化粧顔画像への近さを示す判定データとの対応表を予め保持し、評価情報算出部25により算出された距離に対応する判定データをこの対応表から抽出し、抽出された判定データを当該結果情報に含める。この場合、対応表には、例えば、距離範囲(2.0未満)と判定データ(A;上手)とが関連付けられ、距離範囲(2.0〜2.5)と判定データ(B;普通)とが関連付けられ、距離範囲(2.0〜3.0)と判定データ(B;普通)とが関連付けられ、距離範囲(3.0以上)と判定データ(C;下手)とが関連付けられる。   Specifically, the evaluation information output unit 27 holds in advance a correspondence table between the distance range and determination data indicating the proximity of the evaluation target makeup face image to the target makeup face image. Determination data corresponding to the calculated distance is extracted from the correspondence table, and the extracted determination data is included in the result information. In this case, for example, the distance range (less than 2.0) and the determination data (A; good) are associated with the correspondence table, and the distance range (2.0 to 2.5) and the determination data (B; normal). Are associated with each other, the distance range (2.0 to 3.0) is associated with the determination data (B; normal), and the distance range (3.0 or more) is associated with the determination data (C; poor).

出力形態としては、当該情報をテキストデータとして含むファイルが生成される形態であってもよいし、当該情報を表示装置に表示させるための表示データが生成される形態であってもよいし、当該情報を印刷装置に印刷させるための印刷データが生成される形態であってもよい。本実施形態は、このような判定結果を示す情報の出力形態を限定しない。   The output form may be a form in which a file including the information as text data is generated, a form in which display data for displaying the information on a display device is generated, It may be in a form in which print data for causing the printing apparatus to print information is generated. The present embodiment does not limit the output form of information indicating such a determination result.

〔動作例〕
以下、化粧顔画像評価装置1を単に評価装置1と表記し、評価装置1の動作例について図8及び図9を用いて説明する。図8は、第1実施形態における化粧顔画像評価装置1の学習処理系10の動作例を示すフローチャートである。
[Operation example]
Hereinafter, the makeup face image evaluation device 1 is simply referred to as the evaluation device 1, and an operation example of the evaluation device 1 will be described with reference to FIGS. FIG. 8 is a flowchart illustrating an operation example of the learning processing system 10 of the makeup face image evaluation apparatus 1 according to the first embodiment.

評価装置1は、複数組のサンプル素顔画像及びサンプル化粧顔画像の画像データを取得する(S81)。   The evaluation apparatus 1 acquires image data of a plurality of sets of sample face images and sample makeup face images (S81).

続いて、評価装置1は、各サンプル画像に規格化処理を施す(S82)。これにより、評価装置1は、顔の形状的な特徴が捨象された規格化画像(形状が規格化された、各サンプル素顔画像及び各サンプル化粧顔画像)を取得する。   Subsequently, the evaluation apparatus 1 performs a normalization process on each sample image (S82). As a result, the evaluation apparatus 1 acquires a standardized image (each sample face image and each sample makeup face image whose shape is standardized) in which the shape characteristics of the face are discarded.

評価装置1は、形状が規格化された各サンプル画像をそれぞれベクトル化する(S83)。これにより、評価装置1は、各サンプル素顔画像及び各サンプル化粧顔画像に対応する各サンプル画像ベクトルをそれぞれ生成する。   The evaluation apparatus 1 vectorizes each sample image whose shape is standardized (S83). Thereby, the evaluation apparatus 1 generates each sample image vector corresponding to each sample face image and each sample makeup face image.

続いて、評価装置1は、各サンプル画像ベクトルをそれぞれ独立成分分析する(S84)。これにより、評価装置1は、各サンプル画像に関する当該複数の基底ベクトルの係数をそれぞれ算出する。各サンプル画像に共通な各基底ベクトルは、独立の顔テクスチャをそれぞれ表す。   Subsequently, the evaluation apparatus 1 performs independent component analysis on each sample image vector (S84). Thereby, the evaluation apparatus 1 calculates the coefficients of the plurality of basis vectors for each sample image. Each base vector common to each sample image represents an independent face texture.

評価装置1は、独立成分分析により算出された各基底ベクトルについて、サンプル素顔画像間の係数の分散及びサンプル化粧顔画像間の係数の分散をそれぞれ算出する(S85)。   The evaluation device 1 calculates the coefficient variance between the sample face images and the coefficient variance between the sample makeup face images for each basis vector calculated by the independent component analysis (S85).

評価装置1は、各基底ベクトルにおけるサンプル素顔画像間の係数の分散とサンプル化粧顔画像間の係数の分散との差に基づいて、独立成分分析により算出された複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択する(S86)。   The evaluation apparatus 1 uses a part of a plurality of basis vectors calculated by independent component analysis based on the difference between the coefficient variance between the sample face images and the coefficient variance between the sample makeup face images in each basis vector. Are selected as a plurality of evaluation basis vectors (S86).

図9は、第1実施形態における化粧顔画像評価装置1の評価処理系20の動作例を示すフローチャートである。   FIG. 9 is a flowchart showing an operation example of the evaluation processing system 20 of the makeup face image evaluation apparatus 1 in the first embodiment.

評価装置1は、評価対象の化粧顔画像及び目標化粧顔画像の各画像データを取得する(S91)。   The evaluation apparatus 1 acquires each image data of the makeup face image to be evaluated and the target makeup face image (S91).

評価装置1は、取得された各画像データに対して規格化処理を施す(S92)。これにより、評価装置1は、形状が規格化された、評価対象の化粧顔画像及び目標化粧顔画像を取得する。   The evaluation apparatus 1 performs a normalization process on each acquired image data (S92). Thereby, the evaluation apparatus 1 acquires the makeup face image to be evaluated and the target makeup face image whose shape is standardized.

続いて、評価装置1は、形状が規格化された、評価対象化粧顔画像及び目標化粧顔画像をベクトル化する(S93)。これにより、評価装置1は、評価対象の化粧顔画像に対応する評価画像ベクトル及び目標化粧顔画像に対応する目標画像ベクトルを生成する。   Subsequently, the evaluation device 1 vectorizes the evaluation target makeup face image and the target makeup face image whose shape is standardized (S93). Thereby, the evaluation apparatus 1 generates an evaluation image vector corresponding to the makeup face image to be evaluated and a target image vector corresponding to the target makeup face image.

評価装置1は、評価用基底ベクトル(図8の例の処理(S86)で選択)、評価画像ベクトル及び目標画像ベクトルを評価関数D(x)(上記(式1)参照)に適用することにより、評価対象化粧顔画像の評価情報を算出する(S94)。評価関数D(x)により、各評価用基底ベクトルにおける評価画像ベクトルの係数及び目標画像ベクトルの係数との間の距離が算出される。   The evaluation apparatus 1 applies the evaluation basis vector (selected in the process (S86) in the example of FIG. 8), the evaluation image vector, and the target image vector to the evaluation function D (x) (see (Expression 1) above). Then, evaluation information of the evaluation target makeup face image is calculated (S94). The distance between the coefficient of the evaluation image vector and the coefficient of the target image vector in each evaluation base vector is calculated by the evaluation function D (x).

評価装置1は、算出された評価情報を用いて、評価対象化粧顔画像の目標化粧顔画像への近さを判定する(S95)。この判定結果は、判定内容を特定し得る記号(A、B等)であってもよいし、判定内容を意味するテキストであってもよい。   The evaluation device 1 determines the proximity of the evaluation target makeup face image to the target makeup face image using the calculated evaluation information (S95). The determination result may be a symbol (A, B, etc.) that can specify the determination content, or may be a text that indicates the determination content.

評価装置1は、上記(S95)の判定結果及び上記(S94)の評価情報の少なくとも一方を含む結果情報を所定の形態で出力する(S96)。   The evaluation apparatus 1 outputs result information including at least one of the determination result of (S95) and the evaluation information of (S94) in a predetermined form (S96).

このような評価処理系20の動作は、学習処理系10における評価用基底ベクトルの選択(図8のS86)後、開始されてもよいし、学習処理系10の動作に依存せずに実行されてもよい。また、処理(S94)において評価用基底ベクトルが利用されるため、処理(S94)の実行前に、学習処理系10における評価用基底ベクトルの選択(図8のS86)が完了するように、学習処理系10及び評価処理系20の動作が制御されてもよい。また、図8に示される学習処理系10の動作は、サンプル素顔画像とサンプル化粧顔画像との組が取得される度に実行されてもよいし、評価用基底ベクトルの選択(S86)後、新たな少なくとも1組のサンプル素顔画像及びサンプル化粧顔画像が取得されている場合に、任意のタイミングで実行されてもよい。   Such an operation of the evaluation processing system 20 may be started after the selection of the evaluation basis vector in the learning processing system 10 (S86 in FIG. 8), or is performed independently of the operation of the learning processing system 10. May be. Further, since the evaluation basis vector is used in the processing (S94), the learning base system 10 selects the evaluation basis vector (S86 in FIG. 8) before the processing (S94) is executed. The operations of the processing system 10 and the evaluation processing system 20 may be controlled. Further, the operation of the learning processing system 10 shown in FIG. 8 may be executed each time a set of a sample face image and a sample makeup face image is acquired, or after selecting an evaluation basis vector (S86), When a new at least one set of sample face image and sample makeup face image has been acquired, it may be executed at an arbitrary timing.

〔第1実施形態の作用及び効果〕
上述したように、第1実施形態では、独立成分分析(ICA)により、形状が規格化された、サンプル素顔画像及びサンプル化粧顔画像の各々について、複数の基底ベクトルの係数がそれぞれ算出される。その上で、サンプル素顔画像間の係数の分散及びサンプル化粧顔画像間の係数の分散が、基底ベクトル毎にそれぞれ算出され、係数の分散差の大きい基底ベクトルが評価用基底ベクトルとして選択される。
[Operation and Effect of First Embodiment]
As described above, in the first embodiment, coefficients of a plurality of base vectors are calculated for each of the sample bare face image and the sample makeup face image whose shapes are standardized by independent component analysis (ICA). Then, the coefficient variance between the sample face images and the coefficient variance between the sample makeup face images are calculated for each basis vector, and a basis vector having a large coefficient variance difference is selected as an evaluation basis vector.

第1実施形態で取得される複数の基底ベクトルは、顔を形成している局所的なテクスチャ情報をそれぞれ表し、その中から選択された各評価用基底ベクトルは、係数の分散差が大きいため、局所的なテクスチャの中でも化粧効果の大きいテクスチャを表す。このように、第1実施形態によれば、独立成分分析(ICA)を用いることによって、顔のテクスチャを表す成分を抽出し、かつ、化粧効果の大きい成分を特定することができる。そして、評価対象化粧顔画像の評価情報を算出するにあたり、化粧効果の大きい成分のみを用いることができる。   The plurality of basis vectors acquired in the first embodiment each represent local texture information forming a face, and each evaluation basis vector selected from them has a large coefficient variance difference. Among local textures, it represents a texture with a large makeup effect. As described above, according to the first embodiment, by using independent component analysis (ICA), it is possible to extract a component representing a facial texture and specify a component having a large makeup effect. In calculating the evaluation information of the evaluation target makeup face image, only components having a large makeup effect can be used.

つまり、第1実施形態では、評価対象化粧顔画像に対応する評価画像ベクトルが持つ各評価用基底ベクトルの係数と目標化粧顔画像に対応する目標画像ベクトルが持つ各評価用基底ベクトルの係数との間の距離が、評価対象化粧顔画像の評価情報として評価関数D(x)により算出される。最終的に、この距離を用いて、評価対象化粧顔画像の目標化粧顔画像への近さが判定され、この判定結果及び当該距離の少なくとも一方を含む結果情報が出力される。   That is, in the first embodiment, the coefficient of each evaluation base vector included in the evaluation image vector corresponding to the evaluation target makeup face image and the coefficient of each evaluation base vector included in the target image vector corresponding to the target makeup face image. Is calculated by the evaluation function D (x) as evaluation information of the evaluation target makeup face image. Finally, the proximity of the evaluation target makeup face image to the target makeup face image is determined using this distance, and result information including at least one of the determination result and the distance is output.

このように、第1実施形態によれば、化粧効果の大きいテクスチャにおける、評価対象化粧顔画像及び目標化粧顔画像の特徴量の差を当該係数間距離として算出することができるため、これを使って評価対象化粧顔画像の目標化粧顔画像への近さといった化粧顔の定量評価を実現することができる。   As described above, according to the first embodiment, the difference between the feature amounts of the evaluation target makeup face image and the target makeup face image in the texture having a large makeup effect can be calculated as the inter-coefficient distance. Thus, the quantitative evaluation of the makeup face such as the closeness of the evaluation target makeup face image to the target makeup face image can be realized.

[変形例]
上述の第1実施形態における化粧顔画像評価装置1は、サンプル画像取得部11、規格化部13、ベクトル化部14及び独立成分分析部15を持たず、ネットワークや可搬型記録媒体を経由して、外部から、サンプル画像に共通の複数の基底ベクトルと、各サンプル素顔画像及び各サンプル化粧顔画像に関する当該複数の基底ベクトルの係数とを取得するようにしてもよい。この場合、図8に示される学習処理系10の動作は、(S81)、(S82)、(S83)及び(S84)の代わりに、複数の基底ベクトル及び当該係数を取得する処理を実行すればよい。
[Modification]
The makeup face image evaluation apparatus 1 in the first embodiment described above does not have the sample image acquisition unit 11, the normalization unit 13, the vectorization unit 14, and the independent component analysis unit 15, but via a network or a portable recording medium. Alternatively, a plurality of base vectors common to the sample image and coefficients of the plurality of base vectors related to each sample bare face image and each sample makeup face image may be acquired from the outside. In this case, the operation of the learning processing system 10 shown in FIG. 8 is to execute a process of acquiring a plurality of basis vectors and the coefficients instead of (S81), (S82), (S83), and (S84). Good.

同様に、化粧顔画像評価装置1は、対象画像取得部21、規格化部22及びベクトル化部23を持たず、ネットワークや可搬型記録媒体を経由して、外部から、評価対象化粧顔画像に対応する評価画像ベクトル及び目標化粧顔画像に対応する目標画像ベクトルを取得するようにしてもよい。この場合、図9に示される評価処理系20の動作は、(S91)、(S92)及び(S93)の代わりに、評価画像ベクトル及び目標画像ベクトルを取得する処理を実行すればよい。   Similarly, the makeup face image evaluation apparatus 1 does not have the target image acquisition unit 21, the normalization unit 22, and the vectorization unit 23, and converts the makeup face image evaluation device from the outside to the evaluation target makeup face image via a network or a portable recording medium. A target image vector corresponding to the corresponding evaluation image vector and the target makeup face image may be acquired. In this case, the operation of the evaluation processing system 20 shown in FIG. 9 may be executed by acquiring the evaluation image vector and the target image vector instead of (S91), (S92), and (S93).

以下に実施例を挙げ、上述の実施形態を更に詳細に説明する。本発明は以下の実施例から何ら限定を受けない。以下の各実施例によれば、上述の実施形態において得られる評価情報(評価関数D(x)で得られる値)の有効性が、アンケート調査の結果と比較されることにより、検証された。   Examples will be given below to describe the above-described embodiment in more detail. The present invention is not limited in any way by the following examples. According to each of the following examples, the effectiveness of the evaluation information (value obtained by the evaluation function D (x)) obtained in the above-described embodiment was verified by comparing with the result of the questionnaire survey.

図10は、各実施例で用いられた10人分の評価対象化粧顔画像とその素顔画像を示す図である。図11は、各実施例で用いられた目標化粧顔画像を示す図である。図10及び図11に示される画像は、顔正面から+15度及び−15度の各方向からハロゲンライトで照明した顔を、顔正面方向からデジタルカメラ(ニコンD70)で撮影することにより得られた画像である。また、図11の目標化粧顔画像として、プロのメイクアップアーティストによって化粧が施された化粧顔画像が用いられる。なお、評価対象化粧顔画像及び目標化粧顔画像は、上述のような撮影方法により取得されたものに制限されない。例えば、評価対象化粧顔画像として、複数の多視点・多照明化粧顔画像を格納するデータベースからランダムに抽出された画像が用いられてもよい。   FIG. 10 is a diagram illustrating the evaluation subject makeup face images and the bare face images for ten people used in each example. FIG. 11 is a diagram illustrating a target makeup face image used in each example. The images shown in FIGS. 10 and 11 were obtained by photographing a face illuminated with a halogen light from each direction of +15 degrees and −15 degrees from the front of the face with a digital camera (Nikon D70) from the front of the face. It is an image. In addition, as the target makeup face image of FIG. 11, a makeup face image on which makeup is applied by a professional makeup artist is used. The evaluation target makeup face image and the target makeup face image are not limited to those acquired by the above-described photographing method. For example, an image randomly extracted from a database storing a plurality of multi-viewpoint / multi-illumination makeup face images may be used as the evaluation target makeup face image.

実施例1は、8個(k=8)の評価用基底ベクトルが選択される例を示し、実施例2は、10個(k=10)の評価用基底ベクトルが選択される例を示し、実施例3は、12個(k=12)の評価用基底ベクトルが選択される例を示す。なお、各実施例では、41名の素顔及び化粧顔の画像(合計82枚の画像)が、サンプル素顔画像及びサンプル化粧顔画像として、用いられた。   Example 1 shows an example in which eight (k = 8) evaluation basis vectors are selected. Example 2 shows an example in which ten (k = 10) evaluation basis vectors are selected. Example 3 shows an example in which 12 (k = 12) evaluation basis vectors are selected. In each example, 41 face images and makeup face images (82 images in total) were used as sample face images and sample makeup face images.

図12は、各実施例において得られた評価情報(関数値)を示す図である。図12によれば、2位、3位及び4位が各実施例で異なっているものの、各実施例において評価結果に大きな差異が生じていないことが分かる。   FIG. 12 is a diagram showing evaluation information (function values) obtained in each example. According to FIG. 12, although the 2nd place, the 3rd place, and the 4th place differ in each example, it turns out that there is no big difference in the evaluation result in each example.

一方、アンケート調査は次のように行われた。
(調査対象)20代から30代の男女15名(男性10名、女性5名)
(調査方法)図10に示されるように素顔画像と化粧顔画像とが並べられた状態で印刷された10枚の紙(AからJ)を、各調査者に見せ、評価の順位に沿って紙を並べ替えさせる。
(評価基準)化粧前後でシミ、シワ、てかりが軽減されて、肌がきれいになったと感じる人物を高順位にする。
On the other hand, the questionnaire survey was conducted as follows.
(Survey object) 15 men and women in their 20s to 30s (10 men and 5 women)
(Investigation method) As shown in FIG. 10, ten sheets of paper (A to J) printed in a state in which the face image and the makeup face image are arranged are shown to each investigator, and according to the ranking of evaluation. Sort the paper.
(Evaluation Criteria) A person who feels that skin, wrinkles, and shine have been reduced before and after makeup and that the skin is clean is ranked high.

図13は、アンケート調査の結果を示す図である。図13の表では、AからJについて、各順位に選んだ調査者の人数がそれぞれ示されている。アンケート調査により得られた最終的な順位は、図13の最下行に示されている。なお、7位については、EとFとが同数(4)であるが、Fは8位で確定されるため、Eが7位に決定されている。   FIG. 13 is a diagram showing the results of a questionnaire survey. In the table of FIG. 13, the numbers of surveyors selected for each rank are shown for A to J. The final ranking obtained by the questionnaire survey is shown in the bottom line of FIG. As for the seventh place, E and F have the same number (4), but since F is fixed at the eighth place, E is determined as the seventh place.

図14は、アンケート調査結果と各実施例において得られた評価情報(関数値)との比較結果を示す図である。図14によれば、若干の差異はあるが、各実施例において得られた評価情報とアンケート調査結果とには相関があることが証明される。特に、実施例1(k=8)で得られた評価情報とアンケート調査結果とは高い相関を示す。   FIG. 14 is a diagram illustrating a comparison result between the questionnaire survey result and the evaluation information (function value) obtained in each example. According to FIG. 14, although there is a slight difference, it is proved that there is a correlation between the evaluation information obtained in each example and the questionnaire survey result. In particular, the evaluation information obtained in Example 1 (k = 8) and the questionnaire survey result show a high correlation.

このような比較結果により、各実施例において得られた評価情報、即ち、評価関数D(x)により得られる値は、人間の感性による評価と相関があることが証明され、結果として、上述の実施形態によれば、化粧顔画像を定量評価できることが証明された。   From such a comparison result, it is proved that the evaluation information obtained in each embodiment, that is, the value obtained by the evaluation function D (x) has a correlation with the evaluation based on human sensitivity. According to the embodiment, it was proved that a makeup face image can be quantitatively evaluated.

1 化粧顔画像評価装置(評価装置)
2 CPU
3 メモリ
4 入出力I/F
10 学習処理系
11 サンプル画像取得部
13、22 規格化部
14、23 ベクトル化部
15 独立成分分析部
17 分散算出部
19 選択部
20 評価処理系
21 対象画像取得部
25 評価情報算出部
27 評価情報出力部
1 Makeup face image evaluation device (evaluation device)
2 CPU
3 Memory 4 Input / output I / F
DESCRIPTION OF SYMBOLS 10 Learning processing system 11 Sample image acquisition part 13, 22 Normalization part 14, 23 Vectorization part 15 Independent component analysis part 17 Variance calculation part 19 Selection part 20 Evaluation processing system 21 Target image acquisition part 25 Evaluation information calculation part 27 Evaluation information Output section

Claims (7)

形状が規格化された、複数組のサンプル素顔画像及びサンプル化粧顔画像をそれぞれ独立成分分析することにより、各サンプル素顔画像及び各サンプル化粧顔画像について、複数の基底ベクトルの係数をそれぞれ算出する独立成分分析手段と、
前記各基底ベクトルにおける、前記サンプル素顔画像間の係数のばらつき度合い及び前記サンプル化粧顔画像間の係数のばらつき度合いに基づいて、前記複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択する選択手段と、
評価対象の化粧顔画像から得られる評価画像ベクトル及び目標となる化粧顔画像から得られる目標画像ベクトルと前記選択手段により選択される前記各評価用基底ベクトルとの内積から該評価対象の化粧顔画像の評価情報を取得する評価情報算出手段と、
を備える化粧顔画像評価装置。
Independent calculation of multiple base vector coefficients for each sample face image and each sample face image by independent component analysis of multiple sets of sample face images and sample face images that have been normalized in shape Component analysis means;
Based on the coefficient variation degree between the sample face images and the coefficient variation degree between the sample makeup face images in each of the basis vectors, a part of the plurality of basis vectors is used as a plurality of evaluation basis vectors. A selection means to select;
From the inner product of the evaluation image vector obtained from the makeup face image to be evaluated, the target image vector obtained from the target makeup face image, and the respective basis vectors for evaluation selected by the selection means, the makeup face image to be evaluated Evaluation information calculation means for acquiring evaluation information of
A makeup face image evaluation apparatus comprising:
前記評価情報算出手段は、前記内積により得られる前記評価画像ベクトル及び前記目標画像ベクトルの係数間距離を前記評価情報として算出する、
請求項1に記載の化粧顔画像評価装置。
The evaluation information calculating means calculates a distance between coefficients of the evaluation image vector and the target image vector obtained by the inner product as the evaluation information;
The makeup face image evaluation apparatus according to claim 1.
前記各基底ベクトルについて、前記サンプル素顔画像間の係数の分散及び前記サンプル化粧顔画像間の係数の分散をそれぞれ算出する分散算出手段
を更に備え、
前記選択手段は、前記サンプル素顔画像間の係数の分散と前記サンプル化粧顔画像間の係数の分散との差に基づいて、前記複数の評価用基底ベクトルを選択する、
請求項1又は2に記載の化粧顔画像評価装置。
For each of the basis vectors, further comprises a variance calculating means for calculating the variance of the coefficients between the sample face images and the variance of the coefficients between the sample makeup face images,
The selection means selects the plurality of evaluation basis vectors based on a difference between a coefficient variance between the sample face images and a coefficient variance between the sample makeup face images.
The makeup face image evaluation apparatus according to claim 1 or 2.
前記評価情報算出手段は、下記評価関数D(x)を用いて前記評価情報を算出する請求項1から3のいずれか1項に記載の化粧顔画像評価装置。
xは前記評価画像ベクトルを示し、xは前記目標画像ベクトルを示し、uは前記評価用基底ベクトルを示し、kは前記評価用基底ベクトルの数を示し、Tは転置を示す。
The said evaluation information calculation means is a makeup | decoration face image evaluation apparatus of any one of Claim 1 to 3 which calculates the said evaluation information using the following evaluation function D (x).
x represents the evaluation image vector, x 0 represents the target image vector, u i represents the evaluation base vector, k represents the number of the evaluation base vectors, and T represents transposition.
前記評価情報算出手段により算出された前記評価情報に基づいて前記評価対象の化粧顔画像の前記目標となる化粧顔画像への近さを判定し、該判定結果及び前記評価情報の少なくとも一方を含む結果情報を所定の形態で出力する出力手段
を更に備える請求項1から4のいずれか1項に記載の化粧顔画像評価装置。
Based on the evaluation information calculated by the evaluation information calculation means, the proximity of the makeup face image to be evaluated to the target makeup face image is determined, and includes at least one of the determination result and the evaluation information The makeup face image evaluation apparatus according to any one of claims 1 to 4, further comprising output means for outputting result information in a predetermined form.
形状が規格化された、複数組のサンプル素顔画像及びサンプル化粧顔画像をそれぞれ独立成分分析することにより、各サンプル素顔画像及び各サンプル化粧顔画像について、複数の基底ベクトルの係数をそれぞれ算出し、
前記各基底ベクトルにおける、前記サンプル素顔画像間の係数のばらつき度合い及び前記サンプル化粧顔画像間の係数のばらつき度合いに基づいて、前記複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択し、
評価対象の化粧顔画像から得られる評価画像ベクトル及び目標となる化粧顔画像から得られる目標画像ベクトルと前記各評価用基底ベクトルとの内積から該評価対象の化粧顔画像の評価情報を取得する、
ことを含む化粧顔画像評価方法。
By analyzing the independent components of a plurality of sets of sample face images and sample makeup face images each having a standardized shape, the coefficients of a plurality of base vectors are calculated for each sample face image and each sample makeup face image,
Based on the variation degree of the coefficient between the sample face images and the variation degree of the coefficient between the sample makeup face images in each of the basis vectors, a part of the plurality of basis vectors is used as a plurality of evaluation basis vectors. Selected,
Obtaining evaluation information of the evaluation target makeup face image from the inner product of the evaluation image vector obtained from the evaluation target makeup face image and the target image vector obtained from the target makeup face image and each of the evaluation base vectors;
A makeup face image evaluation method.
形状が規格化された、複数組のサンプル素顔画像及びサンプル化粧顔画像をそれぞれ独立成分分析することにより、各サンプル素顔画像及び各サンプル化粧顔画像について、複数の基底ベクトルの係数をそれぞれ算出する独立成分分析手段と、
前記各基底ベクトルにおける、前記サンプル素顔画像間の係数のばらつき度合い及び前記サンプル化粧顔画像間の係数のばらつき度合いに基づいて、前記複数の基底ベクトルの中の一部を複数の評価用基底ベクトルとして選択する選択手段と、
評価対象の化粧顔画像から得られる評価画像ベクトル及び目標となる化粧顔画像から得られる目標画像ベクトルと前記選択手段により選択される前記各評価用基底ベクトルとの内積から該評価対象の化粧顔画像の評価情報を取得する評価情報算出手段と、
をコンピュータに実現させるプログラム。
Independent calculation of multiple base vector coefficients for each sample face image and each sample face image by independent component analysis of multiple sets of sample face images and sample face images that have been normalized in shape Component analysis means;
Based on the variation degree of the coefficient between the sample face images and the variation degree of the coefficient between the sample makeup face images in each of the basis vectors, a part of the plurality of basis vectors is used as a plurality of evaluation basis vectors. A selection means to select;
From the inner product of the evaluation image vector obtained from the makeup face image to be evaluated, the target image vector obtained from the target makeup face image, and the respective basis vectors for evaluation selected by the selection means, the makeup face image to be evaluated Evaluation information calculation means for acquiring evaluation information of
A program that makes a computer realize.
JP2012034558A 2012-02-20 2012-02-20 Makeup face image evaluation apparatus and makeup face image evaluation method Active JP5818714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012034558A JP5818714B2 (en) 2012-02-20 2012-02-20 Makeup face image evaluation apparatus and makeup face image evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012034558A JP5818714B2 (en) 2012-02-20 2012-02-20 Makeup face image evaluation apparatus and makeup face image evaluation method

Publications (2)

Publication Number Publication Date
JP2013171409A JP2013171409A (en) 2013-09-02
JP5818714B2 true JP5818714B2 (en) 2015-11-18

Family

ID=49265301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012034558A Active JP5818714B2 (en) 2012-02-20 2012-02-20 Makeup face image evaluation apparatus and makeup face image evaluation method

Country Status (1)

Country Link
JP (1) JP5818714B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6282121B2 (en) * 2014-01-15 2018-02-21 キヤノン株式会社 Image recognition apparatus, image recognition method, and program
WO2018143707A1 (en) 2017-02-01 2018-08-09 주식회사 엘지생활건강 Makeup evaluation system and operation method thereof
WO2020170845A1 (en) * 2019-02-22 2020-08-27 株式会社 資生堂 Information processing device, and program
JPWO2020261531A1 (en) * 2019-06-28 2020-12-30
CN111369559A (en) * 2020-04-16 2020-07-03 福州海豚世纪科技有限公司 Makeup evaluation method, makeup evaluation device, makeup mirror, and storage medium

Also Published As

Publication number Publication date
JP2013171409A (en) 2013-09-02

Similar Documents

Publication Publication Date Title
US10726601B2 (en) System for beauty, cosmetic, and fashion analysis
Laurentini et al. Computer analysis of face beauty: A survey
Ramanathan et al. Age progression in human faces: A survey
Sharan et al. Recognizing materials using perceptually inspired features
Lamb et al. Discriminative regularization for generative models
Pontes et al. A flexible hierarchical approach for facial age estimation based on multiple features
JP5818714B2 (en) Makeup face image evaluation apparatus and makeup face image evaluation method
Yadav et al. Bacteria foraging fusion for face recognition across age progression
JPWO2018012136A1 (en) MAKE-UP SUPPORT DEVICE AND MAKE-UP SUPPORT METHOD
Tsai et al. Human face aging with guided prediction and detail synthesis
JP2022553779A (en) Method and device for adjusting environment in cabin
KR100723417B1 (en) Apparatuses and methods for recognizing face, and apparatus and method for extracting face from multiple face images
JP6008698B2 (en) Face image analyzing apparatus and face image analyzing method
JP5651385B2 (en) Face evaluation method
Fan et al. An automated estimator of image visual realism based on human cognition
Bottino et al. The analysis of facial beauty: an emerging area of research in pattern analysis
Martin et al. Face aging simulation with a new wrinkle oriented active appearance model
Kishore Kumar et al. Face verification across ages using discriminative methods and see 5.0 classifier
Dantcheva et al. Assessment of female facial beauty based on anthropometric, non-permanent and acquisition characteristics
JP5095182B2 (en) Face classification device, face classification program, and recording medium on which the program is recorded
Ng et al. An investigation on local wrinkle-based extractor of age estimation
Sethuram et al. A hierarchical approach to facial aging
Liu et al. RETRACTED: Face detection based on open Cl design and image processing technology
Ambika et al. Periocular authentication based on FEM using Laplace–Beltrami eigenvalues
Ubaid et al. Human age prediction and classification using facial image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150929

R151 Written notification of patent or utility model registration

Ref document number: 5818714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250